Disuguaglianza di Markov
Nella teoria della probabilità , la disuguaglianza di Markov dà un aumento della probabilità che una variabile casuale reale con valori positivi sia maggiore o uguale a una costante positiva. Questa disuguaglianza è stata chiamata in onore di Andrei Markov .
stati
Disuguaglianza di Markov - Sia Z una variabile casuale reale definita su uno spazio di probabilità e presunta quasi sicuramente positiva o zero. Allora
(Ω,A,P){\ displaystyle \ left (\ Omega, {\ mathcal {A}}, \ mathbb {P} \ right)}
∀a>0,P(Z⩾a)⩽E(Z)a.{\ displaystyle \ forall a> 0, \ qquad \ mathbb {P} (Z \ geqslant a) \ leqslant {\ frac {\ mathbb {E} (Z)} {a}}.}
Dimostrazione
In entrambi i casi . Notiamo la funzione indicatore dell'evento .
a∈R+∗{\ displaystyle a \ in \ mathbb {R} _ {+} ^ {*}}1{Z⩾a}{\ displaystyle \ mathbf {1} _ {\ {Z \ geqslant a \}}}{Z⩾a}{\ displaystyle \ {Z \ geqslant a \}}
Abbiamo la disuguaglianza:
∀ω∈Ω,a1{Z(ω)⩾a}⩽Z(ω)1{Z(ω)⩾a}⩽Z(ω){\ displaystyle \ forall \ omega \ in \ Omega, \ qquad a \, \ mathbf {1} _ {\ {Z (\ omega) \ geqslant a \}} \ leqslant Z (\ omega) \, \ mathbf {1 } _ {\ {Z (\ omega) \ geqslant a \}} \ leqslant Z (\ omega)}
perché è positivo o zero.
Z{\ displaystyle Z}
Con la crescita delle aspettative, abbiamo:
E(a1{Z(ω)⩾a})⩽E(Z)(∗){\ displaystyle \ mathbb {E} \ left (a \, \ mathbf {1} _ {\ {Z (\ omega) \ geqslant a \}} \ right) \ leqslant \ mathbb {E} (Z) \ qquad ( *)}
Quindi, per linearità dell'aspettativa:
E(a1{Z(ω)⩾a})=aE(1{Z(ω)⩾a})=a(1×P(Z⩾a)+0×P(Z<a))=aP(Z⩾a){\ displaystyle \ mathbb {E} \ left (a \, \ mathbf {1} _ {\ {Z (\ omega) \ geqslant a \}} \ right) = a \, \ mathbb {E} \ left (\ mathbf {1} _ {\ {Z (\ omega) \ geqslant a \}} \ right) = a \, \ left (1 \ times \ mathbb {P} (Z \ geqslant a) +0 \ times \ mathbb { P} (Z <a) \ right) = a \, \ mathbb {P} \ left (Z \ geqslant a \ right)}
Reiniettando l'espressione nella disuguaglianza , otteniamo:
(∗){\ displaystyle (*)}
aP(Z⩾a)⩽E(Z){\ Displaystyle a \, \ mathbb {P} \ left (Z \ geqslant a \ right) \ leqslant \ mathbb {E} (Z)}
cioè
P(Z⩾a)⩽E(Z)a{\ Displaystyle \ mathbb {P} \ left (Z \ geqslant a \ right) \ leqslant {\ frac {\ mathbb {E} (Z)} {a}}}
Generalizzazione
Esiste una versione più generale di questo teorema. Sia X una variabile casuale dove Ω è l'insieme delle realizzazioni, è la tribù degli eventi e la misura della probabilità. Quindi, la disuguaglianza di Markov può essere definita come segue:Lp(Ω,F,P){\ textstyle L ^ {p} (\ Omega, {\ mathcal {F}}, \ mathbb {P})}F{\ textstyle {\ mathcal {F}}}P{\ textstyle \ mathbb {P}}
Disuguaglianza di Markov - Per ogni reale strettamente positivo ,
α{\ displaystyle \ alpha}
P(|X|≥α)≤1αpE(|X|p){\ displaystyle \ mathbb {P} \ left (| X | \ geq \ alpha \ right) \ leq {\ frac {1} {\ alpha ^ {p}}} \ mathbb {E} \ left (| X | ^ {p} \ right)}
La dimostrazione si basa interamente sul fatto che per tutti α è strettamente positivo . Qui, 1 A denota l'indicatore dell'evento A . Aumentando l'aspettativa, otteniamo:αp1{|X|≥α}≤|X|p{\ textstyle \ alpha ^ {p} \ mathbf {1} _ {\ left \ {| X | \ geq \ alpha \ right \}} \ leq | X | ^ {p}}
E(|X|p)≥E(αp1{|X|≥α})=αpE(1{|X|≥α})=αpP{|X|≥α}{\ displaystyle \ mathbb {E} \ left (| X | ^ {p} \ right) \ geq \ mathbb {E} \ left (\ alpha ^ {p} \, \ mathbf {1} _ {\ left \ { | X | \ geq \ alpha \ right \}} \ right) = \ alpha ^ {p} \, \ mathbb {E} \ left (\ mathbf {1} _ {\ left \ {| X | \ geq \ alpha \ right \}} \ right) = \ alpha ^ {p} \, \ mathbb {P} \ left \ {| X | \ geq \ alpha \ right \}}
Dividendo su entrambi i lati della disuguaglianza per
α p troviamo il risultato desiderato.
Vediamo subito che il risultato sopra citato non è altro che un caso speciale di questa disuguaglianza.
Inoltre, prelievo e p = 2, si ottiene esattamente la dichiarazione di disuguaglianza Bienayme-Chebyshev .
X=Y-E(Y){\ textstyle X = Y- \ mathbb {E} \ sinistra (Y \ destra)}
Corollario
Ha un corollario di uso frequente:
Corollario - Let Phi; una funzione crescente non negativa su un intervallo I . Sia Y una variabile casuale reale definita su uno spazio di probabilità tale che . Allora :
(Ω,A,P){\ displaystyle \ left (\ Omega, {\ mathcal {A}}, \ mathbb {P} \ right)}P(Y∈io)=1{\ displaystyle \ mathbb {P} (Y \ in I) = 1}
∀b∈io|ϕ(b)>0,P(Y⩾b)⩽E(ϕ(Y))ϕ(b).{\ displaystyle \ forall b \ in I \; | \; \ phi (b)> 0, \ qquad \ mathbb {P} (Y \ geqslant b) \ leqslant {\ frac {\ mathbb {E} (\ phi ( Y))} {\ phi (b)}}.}
Dimostrazione
Applichiamo la disuguaglianza di Markov a e per ottenere:
Z=ϕ(Y) {\ displaystyle Z = \ phi (Y) \}a=ϕ(b){\ displaystyle a = \ phi (b)}
∀b>0,P(ϕ(Y)⩾ϕ(b))⩽E(ϕ(Y))ϕ(b){\ displaystyle \ forall b> 0, \ qquad \ mathbb {P} \ left (\ phi (Y) \ geqslant \ phi (b) \ right) \ leqslant {\ frac {\ mathbb {E} (\ phi (Y ))} {\ phi (b)}}}.
Crescita porta a: .
ϕ{\ displaystyle \ phi}{Y⩾b}⊂{ϕ(Y)⩾ϕ(b)} {\ displaystyle \ {Y \ geqslant b \} \ subset \ {\ phi (Y) \ geqslant \ phi (b) \} \}
Quindi: .
P(Y⩾b)⩽E(ϕ(Y))ϕ(b){\ displaystyle \ mathbb {P} (Y \ geqslant b) \ leqslant {\ frac {\ mathbb {E} (\ phi (Y))} {\ phi (b)}}}
Applicazioni
- La scelta, nella disuguaglianza di cui sopra, di e ϕ ( x ) = x 2 dà la disuguaglianza Bienaymé-Chebyshev .Y=|X-E(X)|, io=[0,+∞[ {\ displaystyle Y = | X- \ mathbb {E} (X) |, ~ I = [0, + \ infty [\}
- La scelta, nella disuguaglianza di cui sopra, di , o , di , e di ϕ ( x ) = e λ x , λ> 0 , è il primo passo della dimostrazione della disuguaglianza di Chernoff o della disuguaglianza di Hoeffding .Y=X-E(X){\ displaystyle Y = X- \ mathbb {E} (X)}Y=E(X)-X{\ displaystyle Y = \ mathbb {E} (X) -X}io=R{\ displaystyle I = \ mathbb {R}}
Esempio
Poiché i salari sono positivi, la quota della popolazione che riceve un salario superiore a 5 volte il salario medio è al massimo un quinto.
Vedi anche
<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">