En théorie des probabilités , la formule de Wald est une identité qui donne l'expression de l'espérance d'une somme aléatoire .
Le nom de cette formule vient du mathématicien hongrois Abraham Wald.
Théorème Soit ( X n ) n ≥ 1 {\displaystyle (X_{n})_{n\geq 1}} une suite de variables aléatoires .
Soit N {\displaystyle N\ } une variable aléatoire à valeurs dans N . {\displaystyle \mathbb {N} .}
On pose :
S n = X 1 + X 2 + ⋯ + X n , {\displaystyle S_{n}=X_{1}+X_{2}+\dots +X_{n},\quad } S N = X 1 + X 2 + ⋯ + X N = ∑ X n 1 1 1 ≤ n ≤ N . {\displaystyle S_{N}=X_{1}+X_{2}+\dots +X_{N}=\sum \ X_{n}\ 1\!\!1_{1\leq n\leq N}.} Formule de Wald — On suppose que :
( X n ) n ≥ 1 {\displaystyle (X_{n})_{n\geq 1}} est une suite de variables aléatoires de même loi, indépendantes, les X i {\displaystyle X_{i}\ } et N {\displaystyle N\ } sont intégrables , et on suppose que l'une des deux conditions suivantes est remplie :
N {\displaystyle N\ } est un temps d'arrêt adapté à la suite ( X i ) {\displaystyle (X_{i})\ } . En d'autres termes l'événement { N = n } {\displaystyle \left\{N=n\right\}\ } est entièrement déterminé par ( X 1 , X 2 , . . . , X n ) , {\displaystyle (X_{1},X_{2},...,X_{n}),} ou bien :
N {\displaystyle N\ } est indépendant de la suite ( X i ) {\displaystyle (X_{i})\ } . Alors on a :
E [ S N ] = E [ N ] E [ X 1 ] . {\displaystyle \mathbb {E} \left[S_{N}\right]=\mathbb {E} \left[N\right]\mathbb {E} \left[X_{1}\right].} Et si on note :
G S N {\displaystyle G_{S_{N}}} la fonction génératrice de S N {\displaystyle {S_{N}}} . G N {\displaystyle G_{N}} la fonction génératrice de N {\displaystyle N} . G X {\displaystyle G_{X}} la fonction génératrice des X i {\displaystyle X_{i}} . On a aussi :
G S N = G N ∘ G X {\displaystyle G_{S_{N}}=G_{N}\circ G_{X}}
On peut englober les deux hypothèses alternatives ci-dessus, ainsi que l'indépendance de la suite ( X i ) , {\displaystyle (X_{i}),\ } dans la formulation suivante :
Le premier jeu d'hypothèses découle alors du choix F n = σ ( { N = 0 } , X 1 , X 2 , . . . , X n ) , F 0 = σ ( { N = 0 } ) , {\displaystyle {\mathcal {F}}_{n}=\sigma (\{N=0\},X_{1},X_{2},...,X_{n}),\ {\mathcal {F}}_{0}=\sigma (\{N=0\}),} et le second jeu d'hypothèses découle du choix F n = σ ( N , X 1 , X 2 , . . . , X n ) , F 0 = σ ( N ) . {\displaystyle {\mathcal {F}}_{n}=\sigma (N,X_{1},X_{2},...,X_{n}),\ \ {\mathcal {F}}_{0}=\sigma (N).\ }
Encore plus généralement, les deux formules de Wald ci-dessus sont des cas particuliers de la formule d'arrêt pour les martingales.
Démonstration
La variable aléatoire
Z = ∑ | X n | 1 1 1 ≤ n ≤ N {\displaystyle Z=\sum \ |X_{n}|\ 1\!\!1_{1\leq n\leq N}} est intégrable. En effet
{ n ≤ N } c = { n − 1 ≥ N } = ⋃ k = 0 n − 1 { N = k } ∈ F n − 1 . {\displaystyle \{n\leq N\}^{c}=\{n-1\geq N\}=\bigcup _{k=0}^{n-1}\{N=k\}\in {\mathcal {F}}_{n-1}.} Ainsi, pour n ≥ 1 , {\displaystyle n\geq 1,\ } en vertu de l'hypothèse d'indépendance entre la tribu F n − 1 {\displaystyle {\mathcal {F}}_{n-1}\ } et la variable X n , {\displaystyle X_{n},\ }
E [ | X n | 1 1 1 ≤ n ≤ N ] = E [ | X n | ] E [ 1 1 n ≤ N ] = E [ | X 1 | ] P ( n ≤ N ) . {\displaystyle \mathbb {E} \left[|X_{n}|\ 1\!\!1_{1\leq n\leq N}\right]\,=\,\mathbb {E} \left[|X_{n}|\right]\,\mathbb {E} \left[1\!\!1_{n\leq N}\right]\,=\,\mathbb {E} \left[|X_{1}|\right]\,\mathbb {P} \left(n\leq N\right).} Or N {\displaystyle N\ } est intégrable si et seulement si la série de terme général P ( n ≤ N ) {\displaystyle \mathbb {P} \left(n\leq N\right)\ } est convergente (et la somme de cette série est E [ N ] {\displaystyle \mathbb {E} [N]\ } ). En vertu du théorème de Beppo-Levi , et de l'hypothèse d'intégrabilité faite sur N , la variable Z est intégrable, et on peut donc s'en servir comme majorant pour appliquer le théorème de convergence dominée ou le théorème de Fubini à S N {\displaystyle S_{N}\ } :
E [ S N ] = E [ ∑ n ≥ 1 X n 1 1 n ≤ N ] = ∑ n ≥ 1 E [ X n 1 1 n ≤ N ] = ∑ n ≥ 1 E [ X n ] E [ 1 1 n ≤ N ] = E [ X 1 ] ∑ n ≥ 1 P ( n ≤ N ) = E [ X 1 ] E [ N ] . {\displaystyle {\begin{aligned}\mathbb {E} \left[S_{N}\right]&=\mathbb {E} \left[\sum _{n\geq 1}\,X_{n}\ 1\!\!1_{n\leq N}\right]\\&=\,\sum _{n\geq 1}\,\mathbb {E} \left[X_{n}\ 1\!\!1_{n\leq N}\right]\\&=\,\sum _{n\geq 1}\,\mathbb {E} \left[X_{n}\right]\,\mathbb {E} \left[1\!\!1_{n\leq N}\right]\\&=\,\mathbb {E} \left[X_{1}\right]\,\sum _{n\geq 1}\,\mathbb {P} \left(n\leq N\right)\\&=\,\mathbb {E} \left[X_{1}\right]\,\mathbb {E} \left[N\right].\end{aligned}}}
Bibliographie (en) Abraham Wald , « On Cumulative Sums of Random Variables », The Annals of Mathematical Statistics , vol. 15, no 3, septembre 1944 , p. 283–296 (DOI 10.1214/aoms/1177731235 , lire en ligne) (en) David Williams (en) , Probability With Martingales , Cambridge University Press, 14 février 1991 , 272 p. (ISBN 978-0-521-40605-5 , lire en ligne) Portail des probabilités et de la statistique