{"id":47,"date":"2010-05-10T08:52:29","date_gmt":"2010-05-10T06:52:29","guid":{"rendered":"http:\/\/djalil.chafai.net\/blog\/?p=47"},"modified":"2011-10-23T14:05:22","modified_gmt":"2011-10-23T12:05:22","slug":"deux-questions-entre-statistique-et-calcul-stochastique","status":"publish","type":"post","link":"https:\/\/djalil.chafai.net\/blog\/2010\/05\/10\/deux-questions-entre-statistique-et-calcul-stochastique\/","title":{"rendered":"Deux questions entre statistique et calcul stochastique"},"content":{"rendered":"<p style=\"text-align: justify;\"><em>Qu'elle est la meilleure mani&egrave;re de simuler la loi de la variable al&eacute;atoire \\( {Z=\\int_0^1\\!f(t)\\,dB_t} \\) o&ugrave; \\( {f:[0,1]\\rightarrow\\mathbb{R}} \\) est une fonction d&eacute;terministe sympathique et o&ugrave; \\( {(B_t)_{t\\geq0}} \\) est un mouvement brownien standard issu de \\( {0} \\) ?<\/em><\/p>\n<p style=\"text-align: justify;\">Soit \\( {(\\mathcal{F}_t)_{t\\geq0}} \\) la filtration naturelle de \\( {(B_t)_{t\\geq0}} \\) d&eacute;finie par \\( {\\mathcal{F}_t=\\sigma(B_s)_{0\\leq s\\leq t}} \\) pour tout \\( {t\\geq0} \\). Soit \\( {0\\leq t_1\\leq \\cdots\\leq t_r\\leq 1} \\) une suite de temps. Consid&eacute;rons une fonction al&eacute;atoire \\( {F:[0,1]\\times \\Omega\\rightarrow\\mathbb{R}} \\) de la forme<\/p>\n<p style=\"text-align: center;\">\\[ F(t,\\omega)=\\sum_{i=1}^{r-1} E_i(\\omega) \\mathbf{1}_{[t_i,t_{i+1})} \\]<\/p>\n<p style=\"text-align: justify;\">o&ugrave; pour tout \\( {1\\leq i\\leq r-1} \\) la variable al&eacute;atoire \\( {E_i} \\) est \\( {\\mathcal{F}_{t_i}} \\) mesurable. On dispose alors de la formule stochastique suivante :<\/p>\n<p style=\"text-align: center;\">\\[ I(F)=\\int_0^1\\!F(t,\\cdot)\\,dB_t=\\sum_{i=1}^{r-1}E_i(B_{t_{i+1}}-B_{t_i}). \\]<\/p>\n<p style=\"text-align: justify;\">Cette formule permet de d&eacute;finir par un proc&eacute;d&eacute; d'approximation des int&eacute;grales stochastiques plus g&eacute;n&eacute;rales pour des fonctions \\( {F} \\) plus complexes, cf. par exemple <a href= \"http:\/\/www.ams.org\/mathscinet-getitem?mr=2001996\">Oksendal<\/a> pour une introduction accessible, et <a href= \"http:\/\/www.ams.org\/mathscinet-getitem?mr=1725357\">Revuz &amp; Yor<\/a>, <a href= \"http:\/\/www.ams.org\/mathscinet-getitem?mr=1121940\">Karatzas &amp; Shreve<\/a>, et <a href= \"http:\/\/www.ams.org\/mathscinet-getitem?mr=1102676\">Chung &amp; Williams<\/a> pour aller plus loin. Lorsque les variables al&eacute;atoires \\( {(E_i)_{1\\leq i\\leq n}} \\) sont d&eacute;terministes, la variable al&eacute;atoire \\( {I(F)} \\) est gaussienne centr&eacute;e et sa variance se calcule directement par bilin&eacute;arit&eacute;. Revenons &agrave; la question pos&eacute;e. La fonction \\( {F} \\) est d&eacute;terministe (\\( {F(\\cdot,\\omega)=f} \\)) et la variable al&eacute;atoire \\( {Z} \\) est <b>gaussienne centr&eacute;e<\/b>. La variance de \\( {Z} \\) se calcule au moyen de l'<b>isom&eacute;trie d'It&ocirc;<\/b> :<\/p>\n<p style=\"text-align: center;\">\\[ \\mathbb{E}[Z^2] =\\mathbb{E}\\left[\\left(\\int_0^1\\!f(t)\\,dB_t\\right)^2\\right] =\\mathbb{E}\\left[\\int_0^1\\!f(t)^2\\,dt\\right] =\\int_0^1\\!f(t)^2\\,dt. \\]<\/p>\n<p style=\"text-align: justify;\">Pour simuler \\( {Z} \\), il suffit donc de pr&eacute;-calculer ou d'approcher par une m&eacute;thode num&eacute;rique l'int&eacute;grale <b>d&eacute;terministe<\/b> \\( {\\iota=\\int_0^1\\!f(t)^2\\,dt} \\) puis de <b>simuler la loi gaussienne<\/b> \\( {\\mathcal{N}(0,\\iota)} \\). Pour s'en convaincre, lorsque \\( {f=\\mathbf{1}_{[0,t]}} \\) on trouve \\( {\\iota=t} \\) et donc \\( {Z\\sim\\mathcal{N}(0,t)} \\), ce qui est bien normal car pour cette fonction \\( {f} \\) la variable al&eacute;atoire \\( {Z} \\) vaut \\( {B_t} \\).<\/p>\n<p style=\"text-align: justify;\">On peut &eacute;galement voir l'int&eacute;grale stochastique \\( {Z} \\) comme la valeur au temps \\( {1} \\) de la solution \\( {(X_t)_{0\\leq t\\leq 1}} \\) de l'&eacute;quation diff&eacute;rentielle stochastique (EDS) tr&egrave;s simple \\( {dX_t=f(t)dB_t} \\) avec condition initiale \\( {X_0=0} \\). Ainsi, toute m&eacute;thode de simulation approch&eacute;e de cette EDS permet en particulier de simuler de mani&egrave;re approch&eacute;e \\( {Z} \\). Une m&eacute;thode classique pour les EDS : les <b>sch&eacute;mas d'Euler<\/b>, cf. par exemple <a href= \"http:\/\/www.ams.org\/mathscinet-getitem?mr=1260431\">Kloeden &amp; Platen<\/a>, <a href= \"http:\/\/www.ams.org\/mathscinet-getitem?mr=1214374\">Kloeden &amp; Platen<\/a>, ou <a href= \"http:\/\/www.ams.org\/mathscinet-getitem?mr=2410254\">Iacus<\/a>. Cependant, pour la question pos&eacute;e, l'EDS est si simple que la m&eacute;thode explicite gaussienne &eacute;voqu&eacute;e pr&eacute;c&eacute;demment est pr&eacute;f&eacute;rable. Les sch&eacute;mas d'Euler permettent de simuler de mani&egrave;re approch&eacute;e la solution d'EDS plus g&eacute;n&eacute;rales de la forme<\/p>\n<p style=\"text-align: center;\">\\[ dX_t=f(t,X_t)dB_t+g(t,X_t)dt \\]<\/p>\n<p style=\"text-align: justify;\">dont la solution n'est pas forc&eacute;ment gaussienne (d&egrave;s lors que \\( {f(t,x)} \\) d&eacute;pend de \\( {x} \\) o&ugrave; que \\( {g(t,x)} \\) n'est pas affine en \\( {x} \\). Lorsque \\( {f(t,x)=\\alpha} \\) et \\( {g(t,x)=-\\beta x} \\) on obtient un processus gaussien d'Ornstein-Uhlenbeck) :<\/p>\n<p style=\"text-align: center;\">\\[ X_1=\\int_0^1\\!f(t,X_t)\\,dB_t + \\int_0^1\\!g(t,X_t)\\,dt. \\]<\/p>\n<p style=\"text-align: justify;\">Ces m&eacute;thodes num&eacute;riques sont utilis&eacute;es en finance math&eacute;matique, cf. par exemple <a href= \"http:\/\/www.ams.org\/mathscinet-getitem?mr=1640352\">Karatzas &amp; Shreve<\/a>. En statistique, les int&eacute;grales stochastiques gaussiennes apparaissent par exemple dans des th&eacute;or&egrave;mes limites du type TCL, cf. &eacute;galement les probl&egrave;mes statistiques li&eacute;s aux processus de diffusion, cf. par exemple <a href= \"http:\/\/www.ams.org\/mathscinet-getitem?mr=2144185\">Kutoyants<\/a>.<\/p>\n<p style=\"text-align: justify;\">Les sch&eacute;mas d'Euler pour les EDS peuvent &ecirc;tre pouss&eacute;s &agrave; des ordres plus &eacute;lev&eacute;s. Le <em>sch&eacute;ma de Milstein<\/em> par exemple correspond &agrave; une approximation &agrave; l'ordre deux, peu utilis&eacute;e toutefois en pratique. On distingue l'erreur d'approximation forte de l'erreur d'approximation faible (i.e. en esp&eacute;rance, qui fait gagner un ordre de puissance \\( {n^{1\/2}} \\) o&ugrave; \\( {n} \\) est le nombre de pas de discr&eacute;tisation du temps). Pour ces aspects, on pourra consulter par exemple <a href= \"http:\/\/www.ams.org\/mathscinet-getitem?mr=1214374\">Kloeden &amp; Platen<\/a>, <a href= \"http:\/\/www.ams.org\/mathscinet-getitem?mr=1260431\">Kloeden &amp; Platen<\/a>, et <a href= \"http:\/\/www.ams.org\/mathscinet-getitem?mr=1274043\">Bouleau &amp; L&eacute;pingle<\/a>. Des approches plus originales figurent dans <a href=\"http:\/\/www.ams.org\/mathscinet-getitem?mr=1284705\">Gaines &amp; Lyons<\/a>, <a href= \"http:\/\/www.ams.org\/mathscinet-getitem?mr=1470933\">Gaines &amp; Lyons<\/a>, <a href= \"http:\/\/www.ams.org\/mathscinet-getitem?mr=2052260\">Lyons &amp; Victoir<\/a>, <a href= \"http:\/\/www.ams.org\/mathscinet-getitem?mr=2479219\">Pag&egrave;s<\/a>.<\/p>\n<p style=\"text-align: justify;\"><em>Sot \\( {(B_t)_{t\\geq0}} \\) un mouvement brownien standard issu de \\( {0} \\) et \\( {f:\\mathbb{R}_+\\rightarrow\\mathbb{R}} \\) une fonction lisse. Soit \\( {(X_t)_{t\\geq0}} \\) la solution de l'&eacute;quation diff&eacute;rentielle stochastique (EDS) suivante : \\( {dX_t=dB_t+f(t)dt} \\), \\( {X_0=0} \\). Qu'elle est la densit&eacute; de la loi de \\( {(X_t)_{t\\geq0}} \\) par rapport &agrave; \\( {(B_t)_{t\\geq0}} \\), sur l'espace des trajectoires ? Comment s'exprime la \\( {\\log} \\)-vraisemblance ?<\/em><\/p>\n<p style=\"text-align: justify;\">On a \\( {X_t=\\int_0^t\\!f(s)\\,ds+B_t\\sim\\mathcal{N}(\\int_0^t\\!f(s)\\,ds,t)} \\) pour tout \\( {t\\geq0} \\). Le processus \\( {(X_t)_{t\\geq0}} \\) est gaussien, de m&ecirc;me fonction de covariance que \\( {(B_t)_{t\\geq0}} \\). La densit&eacute; de la loi de \\( {(X_t)_{t\\geq0}} \\) par rapport &agrave; \\( {(B_t)_{t\\geq0}} \\), sur l'espace des trajectoires est donn&eacute;e par la formule de Cameron-Martin-Girsanov, cf. <a href= \"http:\/\/www.ams.org\/mathscinet-getitem?mr=2001996\">Oksendal<\/a> (th&eacute;or&egrave;me 8.6.4 page 162 et exemple 8.6.5 page 164). Plus pr&eacute;cis&eacute;ment, soit \\( {H} \\) une fonction qui d&eacute;pend de la trajectoire sur l'intervalle de temps \\( {[0,t]} \\). Par exemple, une fonction de la forme \\( {H(x_{[0,t]}) = \\mathbf{1}_{x_{s_1} \\in A_1}\\cdots\\mathbf{1}_{x_{s_n} \\in A_n}} \\) o&ugrave; les \\( {s_i} \\) sont fix&eacute;s dans \\( {[0,t]} \\) et o&ugrave; les \\( {A_i} \\) sont des bor&eacute;liens de \\( {\\mathbb{R}} \\). Alors on a<\/p>\n<p style=\"text-align: center;\">\\[ E\\left[H(X_{[0,t]})\\right] = E\\left[H(W_{[0,t]}) Q((W_{[0,t]})\\right] \\]<\/p>\n<p style=\"text-align: justify;\">o&ugrave;<\/p>\n<p style=\"text-align: center;\">\\[ \\log Q(W_{[0,t]}) := \\int_0^t\\!f(s)\\,dB_s +\\frac{1}{2}\\int_0^t\\!f(s)^2 ds. \\]<\/p>\n<p style=\"text-align: justify;\">La fonction \\( {Q} \\) est la densit&eacute; recherch&eacute;e par rapport &agrave; la loi de \\( {(B_t)_{t\\geq0}} \\) sur \\( {[0,t]} \\). Comme la motivation de la question est de calculer des vraisemblances, on souhaite surtout exprimer \\( {Q} \\) en terme de \\( {(X_t)_{t\\geq0}} \\) plut&ocirc;t qu'en terme de \\( {(B_t)_{t\\geq0}} \\). Or l'EDS donne imm&eacute;diatement<\/p>\n<p style=\"text-align: center;\">\\[ \\log Q = \\int_0^t\\!f(s)\\,dX_s - \\frac{1}{2}\\int_0^t\\!\\!f^2(s)\\,ds, \\]<\/p>\n<p style=\"text-align: justify;\">qui est la \\( {\\log} \\)-vraisemblance recherch&eacute;e. Au passage, quand \\( {f} \\) est constante et &eacute;gale &agrave; un r&eacute;el \\( {\\theta} \\), on trouve bien que le maximum de vraisemblance en \\( {\\theta} \\) vaut \\( {X_t\/t} \\). \\`A pr&eacute;sent, pour deux fonctions \\( {f} \\) et \\( {g} \\) et une trajectoire observ&eacute;e \\( {X_{[0,t]}} \\), le logarithme du rapport de vraisemblance vaut :<\/p>\n<p style=\"text-align: center;\">\\[ \\int_0^t\\!(f-g)(s)\\,dX_s - \\frac{1}{2}\\int_0^2\\!(f^2-g^2)(s)\\,ds. \\]<\/p>\n<p style=\"text-align: justify;\">On peut &eacute;galement exprimer \\( {\\log(Q)} \\) encore plus simplement car la d&eacute;rive \\( {f(t)dt} \\) dans l'EDS consid&eacute;r&eacute;e est d&eacute;terministe. Plus pr&eacute;cis&eacute;ment, la formule d'It&ocirc; donne la formule d'int&eacute;gration par parties suivante :<\/p>\n<p style=\"text-align: center;\">\\[ \\int_0^t\\!f(s)\\,dB_s = f(t) B_t - \\int_0^t\\!B_s f'(s)\\,ds, \\]<\/p>\n<p style=\"text-align: justify;\">cf. <a href= \"http:\/\/www.ams.org\/mathscinet-getitem?mr=2001996\">Oksendal<\/a> (th&eacute;or&egrave;me 4.1.5 page 46), et en utilisant l'EDS, la \\( {\\log} \\)-vraisemblance \\( {\\log(Q)} \\) s'&eacute;crit :<\/p>\n<p style=\"text-align: center;\">\\[ f(t) X_t - \\int_0^t\\!X_s\\,f'(s)\\,ds - \\frac{1}{2}\\int_0^t\\!f^2(s)\\,ds. \\]<\/p>\n<p style=\"text-align: justify;\">Remarque &agrave; retenir : si \\( {\\mathcal{W}} \\) is la mesure de Wiener standard et \\( {\\mathcal{W}_f} \\) la mesure de Wiener translat&eacute;e par une fonction \\( {f} \\), alors \\( {\\mathcal{W}_f} \\) est absolument continue par rapport &agrave; \\( {\\mathcal{W}} \\) si et seulement si \\( {f} \\) appartient &agrave; l'espace de Cameron-Martin, et la densit&eacute; est donn&eacute;e par la formule de Girsanov.<\/p>\n<p style=\"text-align: justify;\">Ce billet est inspir&eacute; de questions pos&eacute;es par Anne-Laure Foug&egrave;res et B&eacute;atrice Laurent-Bonneau.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Qu'elle est la meilleure mani&egrave;re de simuler la loi de la variable al&eacute;atoire \\( {Z=\\int_0^1\\!f(t)\\,dB_t} \\) o&ugrave; \\( {f:[0,1]\\rightarrow\\mathbb{R}} \\) est une fonction d&eacute;terministe sympathique&#8230;<\/p>\n<div class=\"more-link-wrapper\"><a class=\"more-link\" href=\"https:\/\/djalil.chafai.net\/blog\/2010\/05\/10\/deux-questions-entre-statistique-et-calcul-stochastique\/\">Continue reading<span class=\"screen-reader-text\">Deux questions entre statistique et calcul stochastique<\/span><\/a><\/div>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"iawp_total_views":207},"categories":[1],"tags":[],"_links":{"self":[{"href":"https:\/\/djalil.chafai.net\/blog\/wp-json\/wp\/v2\/posts\/47"}],"collection":[{"href":"https:\/\/djalil.chafai.net\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/djalil.chafai.net\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/djalil.chafai.net\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/djalil.chafai.net\/blog\/wp-json\/wp\/v2\/comments?post=47"}],"version-history":[{"count":4,"href":"https:\/\/djalil.chafai.net\/blog\/wp-json\/wp\/v2\/posts\/47\/revisions"}],"predecessor-version":[{"id":3390,"href":"https:\/\/djalil.chafai.net\/blog\/wp-json\/wp\/v2\/posts\/47\/revisions\/3390"}],"wp:attachment":[{"href":"https:\/\/djalil.chafai.net\/blog\/wp-json\/wp\/v2\/media?parent=47"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/djalil.chafai.net\/blog\/wp-json\/wp\/v2\/categories?post=47"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/djalil.chafai.net\/blog\/wp-json\/wp\/v2\/tags?post=47"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}