Markovs olikhet

Den här artikeln behöver källhänvisningar för att kunna verifieras. (2019-04)
Åtgärda genom att lägga till pålitliga källor (gärna som fotnoter). Uppgifter utan källhänvisning kan ifrågasättas och tas bort utan att det behöver diskuteras på diskussionssidan.

Markovs olikhet är, inom sannolikhetsteorin, en uppskattning av en sannolikhet med hjälp av ett väntevärde:

Låt ( Ω , F , P ) {\displaystyle (\Omega ,{\mathcal {F}},\mathbb {P} )} vara ett sannolikhetsrum och X : Ω R {\displaystyle X:\Omega \longrightarrow \mathbb {R} } en stokastisk variabel på detta rum. Om h : R [ 0 , ) {\displaystyle h:\mathbb {R} \longrightarrow [0,\infty )} är en mätbar funktion så gäller, för varje tal ε > 0 {\displaystyle \varepsilon >0} , följande uppskattning av sannolikheten P { h ( X ) ε } {\displaystyle \mathbb {P} \{h(X)\geq \varepsilon \}} :

P { h ( X ) ε } 1 ε E { h ( X ) } . {\displaystyle \mathbb {P} \{h(X)\geq \varepsilon \}\leq {\frac {1}{\varepsilon }}\mathbb {E} \{h(X)\}.}

Bevis av Markovs olikhet

Välj ett godtyckligt tal ε > 0 {\displaystyle \varepsilon >0} och definiera mängden

A = { ω Ω : h ( X ( ω ) ) ε } = { ω Ω : ( h X ) ( ω ) [ ε , ) } . {\displaystyle A=\{\omega \in \Omega :h(X(\omega ))\geq \varepsilon \}=\{\omega \in \Omega :(h\circ X)(\omega )\in [\varepsilon ,\infty )\}.}

Sannolikhetsmåttet P {\displaystyle \mathbb {P} } är en mängdfunktion

P : F [ 0 , 1 ] {\displaystyle \mathbb {P} :{\mathcal {F}}\longrightarrow [0,1]}

på sigma-algebran F {\displaystyle {\mathcal {F}}} . För att vi skall kunna tala om sannolikheten för händelsen A, måste mängden A vara ett element i sigma-algebran F {\displaystyle {\mathcal {F}}} . Den sista formuleringen av mängden A visar att vi kan skriva

A = ( h X ) 1 ( [ ε , ) ) = X 1 ( h 1 ( [ ε , ) ) ) . {\displaystyle A=(h\circ X)^{-1}([\varepsilon ,\infty ))=X^{-1}\left(h^{-1}([\varepsilon ,\infty ))\right).}

Mängden M = h 1 ( [ ε , ) ) {\displaystyle M=h^{-1}([\varepsilon ,\infty ))} är ett element i Borel sigma-algebran B R {\displaystyle {\mathcal {B}}_{\mathbb {R} }} , eftersom funktionen

h : R [ 0 , ) {\displaystyle h:\mathbb {R} \longrightarrow [0,\infty )}

är mätbar.

Den för oss intressanta mängden A kan uttryckas med hjälp av mängden M enligt:

A = X 1 ( M ) . {\displaystyle A=X^{-1}(M).}

Vi vet att

X : Ω R {\displaystyle X:\Omega \longrightarrow \mathbb {R} }

är en stokastisk variabel, det vill säga: den är en mätbar funktion. Detta innebär att mängden X 1 ( M ) {\displaystyle X^{-1}(M)} är ett element i sigma-algebran F {\displaystyle {\mathcal {F}}} och därmed är sannolikheten

P { A } = P { X 1 ( M ) } {\displaystyle \mathbb {P} \{A\}=\mathbb {P} \{X^{-1}(M)\}}

definierad. Eftersom en sigma-algebra är sluten under komplement-bildning är mängden

A c = Ω A {\displaystyle A^{c}=\Omega \setminus A}

också ett element i F . {\displaystyle {\mathcal {F}}.}

För att visa Markovs olikhet skriver vi den stokastiska variabeln h ( X ) {\displaystyle h(X)} som en summa av två stokastiska variabler, beroende på om h ( X ) {\displaystyle h(X)} är större än talet ε {\displaystyle \varepsilon } eller ej:

h ( X ) = h ( X ) 1 A + h ( X ) 1 A c 0 , {\displaystyle h(X)=h(X)1_{A}+\underbrace {h(X)1_{A^{c}}} _{\geq 0},}

där den andra termen är icke-negativ eftersom funktionen h endast antar icke-negativa värden.

Detta innebär att vi har olikheten

h ( X ) h ( X ) 1 A . {\displaystyle h(X)\geq h(X)1_{A}.}

På mängden A är den stokastiska variabeln h ( X ) {\displaystyle h(X)} större än, eller lika med, talet ε {\displaystyle \varepsilon } , vilket ger uppskattningen

h ( X ) 1 A ε 1 A . {\displaystyle h(X)1_{A}\geq \varepsilon 1_{A}.}

Genom att beräkna väntevärdena av de båda sidorna i olikheten

h ( X ) ε 1 A {\displaystyle h(X)\geq \varepsilon 1_{A}}

och utnyttja sambandet

E { 1 A } = P ( A ) , {\displaystyle \mathbb {E} \{1_{A}\}=\mathbb {P} (A),}

fullbordas beviset av Markovs olikhet:

E { h ( X ) } E { ε 1 A } = ε E { 1 A } = ε P { A } . {\displaystyle \mathbb {E} \{h(X)\}\geq \mathbb {E} \{\varepsilon 1_{A}\}=\varepsilon \mathbb {E} \{1_{A}\}=\varepsilon \mathbb {P} \{A\}.}

Tillämpningar av Markovs olikhet

Ofta är man intresserad av att uppskatta sannolikheter av typen P { | X | ε } . {\displaystyle \mathbb {P} \{\vert X\vert \geq \varepsilon \}.}

Markovs olikhet kan då tillämpas med den mätbara funktionen h : R [ 0 , ) , {\displaystyle h:\mathbb {R} \longrightarrow [0,\infty ),} definierad av

h ( x ) = | x | {\displaystyle h(x)=\vert x\vert } (absolutbeloppet av det reella talet x).

Olikheten ger den övre begränsningen

P { | X | ε } 1 ε E { | X | } . {\displaystyle \mathbb {P} \{\vert X\vert \geq \varepsilon \}\leq {\frac {1}{\varepsilon }}\mathbb {E} \{\vert X\vert \}.}

För att denna uppskattning skall vara meningsfull måste väntevärdet E { | X | } {\displaystyle \mathbb {E} \{\vert X\vert \}} vara ändligt: annars får man den oanvändbara olikheten P { | X | ε } . {\displaystyle \mathbb {P} \{\vert X\vert \geq \varepsilon \}\leq \infty .}

Om man dessutom vet att väntevärdet E { X 2 } {\displaystyle \mathbb {E} \{X^{2}\}} är ändligt kan man få en bättre uppskattning av sannolikheten P { | X | ε } {\displaystyle \mathbb {P} \{\vert X\vert \geq \varepsilon \}} genom att man kan dividera med talet ε 2 {\displaystyle \varepsilon ^{2}} istället för med talet ε {\displaystyle \varepsilon } :

P { | X | ε } = P { X 2 ε 2 } 1 ε 2 E { X 2 } ; {\displaystyle \mathbb {P} \{\vert X\vert \geq \varepsilon \}=\mathbb {P} \{X^{2}\geq \varepsilon ^{2}\}\leq {\frac {1}{\varepsilon ^{2}}}\mathbb {E} \{X^{2}\};}

Den första likheten kommer av att om x är ett reellt tal och a > 0, så gäller ekvivalensen

| x | > a x 2 > a 2 . {\displaystyle \vert x\vert >a\Longleftrightarrow x^{2}>a^{2}.}

Uppskattningen

P { | X | ε } 1 ε 2 E { X 2 } {\displaystyle \mathbb {P} \{\vert X\vert \geq \varepsilon \}\leq {\frac {1}{\varepsilon ^{2}}}\mathbb {E} \{X^{2}\}}

går under namnet Чебышёв (Tjebyshov) olikhet, och är även den ofta använd vid uppskattning av sannolikheter.