Press "Enter" to skip to content

Deux questions entre statistique et calcul stochastique

Qu’elle est la meilleure manière de simuler la loi de la variable aléatoire \( {Z=\int_0^1\!f(t)\,dB_t} \) où \( {f:[0,1]\rightarrow\mathbb{R}} \) est une fonction déterministe sympathique et où \( {(B_t)_{t\geq0}} \) est un mouvement brownien standard issu de \( {0} \) ?

Soit \( {(\mathcal{F}_t)_{t\geq0}} \) la filtration naturelle de \( {(B_t)_{t\geq0}} \) définie par \( {\mathcal{F}_t=\sigma(B_s)_{0\leq s\leq t}} \) pour tout \( {t\geq0} \). Soit \( {0\leq t_1\leq \cdots\leq t_r\leq 1} \) une suite de temps. Considérons une fonction aléatoire \( {F:[0,1]\times \Omega\rightarrow\mathbb{R}} \) de la forme

\[ F(t,\omega)=\sum_{i=1}^{r-1} E_i(\omega) \mathbf{1}_{[t_i,t_{i+1})} \]

où pour tout \( {1\leq i\leq r-1} \) la variable aléatoire \( {E_i} \) est \( {\mathcal{F}_{t_i}} \) mesurable. On dispose alors de la formule stochastique suivante :

\[ I(F)=\int_0^1\!F(t,\cdot)\,dB_t=\sum_{i=1}^{r-1}E_i(B_{t_{i+1}}-B_{t_i}). \]

Cette formule permet de définir par un procédé d’approximation des intégrales stochastiques plus générales pour des fonctions \( {F} \) plus complexes, cf. par exemple Oksendal pour une introduction accessible, et Revuz & Yor, Karatzas & Shreve, et Chung & Williams pour aller plus loin. Lorsque les variables aléatoires \( {(E_i)_{1\leq i\leq n}} \) sont déterministes, la variable aléatoire \( {I(F)} \) est gaussienne centrée et sa variance se calcule directement par bilinéarité. Revenons à la question posée. La fonction \( {F} \) est déterministe (\( {F(\cdot,\omega)=f} \)) et la variable aléatoire \( {Z} \) est gaussienne centrée. La variance de \( {Z} \) se calcule au moyen de l’isométrie d’Itô :

\[ \mathbb{E}[Z^2] =\mathbb{E}\left[\left(\int_0^1\!f(t)\,dB_t\right)^2\right] =\mathbb{E}\left[\int_0^1\!f(t)^2\,dt\right] =\int_0^1\!f(t)^2\,dt. \]

Pour simuler \( {Z} \), il suffit donc de pré-calculer ou d’approcher par une méthode numérique l’intégrale déterministe \( {\iota=\int_0^1\!f(t)^2\,dt} \) puis de simuler la loi gaussienne \( {\mathcal{N}(0,\iota)} \). Pour s’en convaincre, lorsque \( {f=\mathbf{1}_{[0,t]}} \) on trouve \( {\iota=t} \) et donc \( {Z\sim\mathcal{N}(0,t)} \), ce qui est bien normal car pour cette fonction \( {f} \) la variable aléatoire \( {Z} \) vaut \( {B_t} \).

On peut également voir l’intégrale stochastique \( {Z} \) comme la valeur au temps \( {1} \) de la solution \( {(X_t)_{0\leq t\leq 1}} \) de l’équation différentielle stochastique (EDS) très simple \( {dX_t=f(t)dB_t} \) avec condition initiale \( {X_0=0} \). Ainsi, toute méthode de simulation approchée de cette EDS permet en particulier de simuler de manière approchée \( {Z} \). Une méthode classique pour les EDS : les schémas d’Euler, cf. par exemple Kloeden & Platen, Kloeden & Platen, ou Iacus. Cependant, pour la question posée, l’EDS est si simple que la méthode explicite gaussienne évoquée précédemment est préférable. Les schémas d’Euler permettent de simuler de manière approchée la solution d’EDS plus générales de la forme

\[ dX_t=f(t,X_t)dB_t+g(t,X_t)dt \]

dont la solution n’est pas forcément gaussienne (dès lors que \( {f(t,x)} \) dépend de \( {x} \) où que \( {g(t,x)} \) n’est pas affine en \( {x} \). Lorsque \( {f(t,x)=\alpha} \) et \( {g(t,x)=-\beta x} \) on obtient un processus gaussien d’Ornstein-Uhlenbeck) :

\[ X_1=\int_0^1\!f(t,X_t)\,dB_t + \int_0^1\!g(t,X_t)\,dt. \]

Ces méthodes numériques sont utilisées en finance mathématique, cf. par exemple Karatzas & Shreve. En statistique, les intégrales stochastiques gaussiennes apparaissent par exemple dans des théorèmes limites du type TCL, cf. également les problèmes statistiques liés aux processus de diffusion, cf. par exemple Kutoyants.

Les schémas d’Euler pour les EDS peuvent être poussés à des ordres plus élevés. Le schéma de Milstein par exemple correspond à une approximation à l’ordre deux, peu utilisée toutefois en pratique. On distingue l’erreur d’approximation forte de l’erreur d’approximation faible (i.e. en espérance, qui fait gagner un ordre de puissance \( {n^{1/2}} \) où \( {n} \) est le nombre de pas de discrétisation du temps). Pour ces aspects, on pourra consulter par exemple Kloeden & Platen, Kloeden & Platen, et Bouleau & Lépingle. Des approches plus originales figurent dans Gaines & Lyons, Gaines & Lyons, Lyons & Victoir, Pagès.

Sot \( {(B_t)_{t\geq0}} \) un mouvement brownien standard issu de \( {0} \) et \( {f:\mathbb{R}_+\rightarrow\mathbb{R}} \) une fonction lisse. Soit \( {(X_t)_{t\geq0}} \) la solution de l’équation différentielle stochastique (EDS) suivante : \( {dX_t=dB_t+f(t)dt} \), \( {X_0=0} \). Qu’elle est la densité de la loi de \( {(X_t)_{t\geq0}} \) par rapport à \( {(B_t)_{t\geq0}} \), sur l’espace des trajectoires ? Comment s’exprime la \( {\log} \)-vraisemblance ?

On a \( {X_t=\int_0^t\!f(s)\,ds+B_t\sim\mathcal{N}(\int_0^t\!f(s)\,ds,t)} \) pour tout \( {t\geq0} \). Le processus \( {(X_t)_{t\geq0}} \) est gaussien, de même fonction de covariance que \( {(B_t)_{t\geq0}} \). La densité de la loi de \( {(X_t)_{t\geq0}} \) par rapport à \( {(B_t)_{t\geq0}} \), sur l’espace des trajectoires est donnée par la formule de Cameron-Martin-Girsanov, cf. Oksendal (théorème 8.6.4 page 162 et exemple 8.6.5 page 164). Plus précisément, soit \( {H} \) une fonction qui dépend de la trajectoire sur l’intervalle de temps \( {[0,t]} \). Par exemple, une fonction de la forme \( {H(x_{[0,t]}) = \mathbf{1}_{x_{s_1} \in A_1}\cdots\mathbf{1}_{x_{s_n} \in A_n}} \) où les \( {s_i} \) sont fixés dans \( {[0,t]} \) et où les \( {A_i} \) sont des boréliens de \( {\mathbb{R}} \). Alors on a

\[ E\left[H(X_{[0,t]})\right] = E\left[H(W_{[0,t]}) Q((W_{[0,t]})\right] \]

\[ \log Q(W_{[0,t]}) := \int_0^t\!f(s)\,dB_s +\frac{1}{2}\int_0^t\!f(s)^2 ds. \]

La fonction \( {Q} \) est la densité recherchée par rapport à la loi de \( {(B_t)_{t\geq0}} \) sur \( {[0,t]} \). Comme la motivation de la question est de calculer des vraisemblances, on souhaite surtout exprimer \( {Q} \) en terme de \( {(X_t)_{t\geq0}} \) plutôt qu’en terme de \( {(B_t)_{t\geq0}} \). Or l’EDS donne immédiatement

\[ \log Q = \int_0^t\!f(s)\,dX_s – \frac{1}{2}\int_0^t\!\!f^2(s)\,ds, \]

qui est la \( {\log} \)-vraisemblance recherchée. Au passage, quand \( {f} \) est constante et égale à un réel \( {\theta} \), on trouve bien que le maximum de vraisemblance en \( {\theta} \) vaut \( {X_t/t} \). \`A présent, pour deux fonctions \( {f} \) et \( {g} \) et une trajectoire observée \( {X_{[0,t]}} \), le logarithme du rapport de vraisemblance vaut :

\[ \int_0^t\!(f-g)(s)\,dX_s – \frac{1}{2}\int_0^2\!(f^2-g^2)(s)\,ds. \]

On peut également exprimer \( {\log(Q)} \) encore plus simplement car la dérive \( {f(t)dt} \) dans l’EDS considérée est déterministe. Plus précisément, la formule d’Itô donne la formule d’intégration par parties suivante :

\[ \int_0^t\!f(s)\,dB_s = f(t) B_t – \int_0^t\!B_s f'(s)\,ds, \]

cf. Oksendal (théorème 4.1.5 page 46), et en utilisant l’EDS, la \( {\log} \)-vraisemblance \( {\log(Q)} \) s’écrit :

\[ f(t) X_t – \int_0^t\!X_s\,f'(s)\,ds – \frac{1}{2}\int_0^t\!f^2(s)\,ds. \]

Remarque à retenir : si \( {\mathcal{W}} \) is la mesure de Wiener standard et \( {\mathcal{W}_f} \) la mesure de Wiener translatée par une fonction \( {f} \), alors \( {\mathcal{W}_f} \) est absolument continue par rapport à \( {\mathcal{W}} \) si et seulement si \( {f} \) appartient à l’espace de Cameron-Martin, et la densité est donnée par la formule de Girsanov.

Ce billet est inspiré de questions posées par Anne-Laure Fougères et Béatrice Laurent-Bonneau.

Be First to Comment

    Leave a Reply

    Your email address will not be published. Required fields are marked *