• <- Retour aux 1/4h python
    L'objectif des 1/4h python est d'illustrer par la simulation certains aspects du cours. Toutes les fenêtres de code peuvent (et doivent!) être exécutées en cliquant sur Evaluate. N'hésitez pas à éditer le code pour modifier les paramètres.

    Not-so-fair game

    On considère le problème suivant. Soit $0< a <1$ un paramètre fixé, on pose $X_0=1$ et

    $$ X_n= Y_1\times Y_2 \times \dots \times Y_n, $$ où les $Y_k$ sont i.i.d. avec
    $$ Y_{1}= \begin{cases} 1+a &\text{ avec proba. }1/2,\\ 1-a &\text{ avec proba. }1/2. \end{cases} $$ On a bien sûr $\mathbb{E}[Y_k]=\frac{1-a}{2}+\frac{1+a}{2}=1$, de sorte que pour tout $n$
    \begin{equation} \mathbb{E}[X_{n+1}|X_0,X_1,\dots,X_n]=X_n \mathbb{E}[Y_{n+1}|X_0,X_1,\dots,X_n]=X_n \mathbb{E}[Y_{n+1}]=X_n.\qquad (1) \end{equation}
    La suite $(X_n)$ est donc une martingale. En particulier $\mathbb{E}[X_n]=1$ pour tout $n$.

    Quelques trajectoires $X_0,X_1,\dots,$


    La suite $(X_n)$ est une martingale, donc un jeu équitable en espérance. On constate sur quelques trajectoires que le comportement de chaque trajectoire semble être un jeu "perdant", elles tendent toutes vers zéro :



    Limite presque-sûre


    Pour déterminer le comportement presque-sûr de $\lim X_n$, on observe que

    $$ \log(X_n) = n \times \frac{1}{n} \sum_{k=1}^n \log(Y_k) \stackrel{n\to +\infty}{\sim} n \mathbb{E}[\log(Y_0)] $$
    où l'on a utilisé la loi des grands nombres. On vérifie facilement que $\mathbb{E}[\log(Y_0)]< 0$, ce qui démontre que $\log X_n \to -\infty$ p.s., et donc $X_n \to 0$.

    Ci-dessous, on trace pour les mêmes réalisations les trajectoires de $X$ et $\log(X)$ :









    Liens