Convergenza di variabili aleatorie
Nella teoria della probabilità , ci sono diverse nozioni di convergenza di variabili casuali . La convergenza (in uno dei sensi descritti di seguito) di sequenze di variabili casuali è un concetto importante della teoria della probabilità utilizzato in particolare nella statistica e nello studio dei processi stocastici . Ad esempio, la media di n variabili casuali indipendenti e distribuite in modo identico converge quasi sicuramente all'aspettativa comune di queste variabili casuali (se esiste). Questo risultato è noto come la legge forte dei grandi numeri .
In questo articolo, assumiamo che ( X n ) sia una sequenza di variabili casuali reali , che X sia una variabile casuale reale e che tutte queste variabili siano definite sullo stesso spazio di probabilità .
(Ω,F,P){\ displaystyle (\ Omega, {\ mathcal {F}}, \ mathbb {P})}
Convergenza nel diritto
Lasciare F 1 , F 2 , ... il risultato delle funzioni di distribuzione
associate a variabili casuali X 1 , X 2 , ... , e F la funzione di ripartizione del reale variabile casuale X . In altre parole, F n è definito da F n ( x ) = P ( X n ≤ x ) e F da F ( x ) = P ( X ≤ x ) .
La successione X n converge a X in legge , o in distribuzione , se
limnon→∞Fnon(a)=F(a),{\ Displaystyle \ lim _ {n \ rightarrow \ infty} F_ {n} (a) = F (a),}per tutti reale
a dove
F è
continuo .
Poiché F ( a ) = P ( X ≤ a ) , ciò significa che la probabilità che X appartenga a un certo intervallo è molto vicina alla probabilità che X n si trovi in questo intervallo per n sufficientemente grande. Si nota spesso la convergenza nel diritto
Xnon→LX{\ displaystyle X_ {n} {\ xrightarrow {\ mathcal {L}}} X}
o
Xnon→dX{\ displaystyle X_ {n} {\ xrightarrow {d}} X}
La convergenza nel diritto è la forma più debole nel senso che, in generale, non implica le altre forme di convergenza definite di seguito, mentre queste altre forme di convergenza implicano la convergenza nel diritto. È questo tipo di convergenza che viene utilizzato nel Teorema del limite centrale .
In modo equivalente, la successione ( X n ) converge di diritto a X se e solo se per qualsiasi funzione continua limitata
limnon→∞E[f(Xnon)]=E[f(X)].{\ Displaystyle \ lim _ {n \ rightarrow \ infty} \ mathbb {E} [f (X_ {n})] = \ mathbb {E} [f (X)].}
Teorema di continuità Levy - Sia φ n ( t ) la funzione caratteristica di X n e φ ( t ) che di X . Allora
{∀t∈R:φnon(t)→φ(t)}⇔{Xnon→LX}{\ displaystyle \ left \ {\ forall t \ in \ mathbb {R}: \ varphi _ {n} (t) \ to \ varphi (t) \ right \} \ quad \ Leftrightarrow \ quad \ left \ {X_ { n} {\ xrightarrow {\ mathcal {L}}} X \ right \}}.
In altre parole, ( X n ) converge in distribuzione al X se e solo se la funzione caratteristica della vera variabile casuale X n converge semplicemente la funzione caratteristica della vera variabile casuale X .
Esempio: teorema del limite centrale:
La media di una serie di variabili casuali al quadrato centrate e integrabili, indipendenti e della stessa legge, una volta rinormalizzate da √ n converge di diritto verso la legge normale
nonX¯non→LNON(0,σ2).{\ displaystyle {\ sqrt {n}} {\ bar {X}} _ {n} {\ xrightarrow {\ mathcal {L}}} {\ mathcal {N}} (0, \ sigma ^ {2}). }
Esempio: convergenza della legge di Student:
Il parametro di distribuzione di Student k converge, quando k tende a + ∞ , alla legge di Gauss :
t(K)→LNON(0,1).{\ displaystyle \ mathrm {t} (k) {\ xrightarrow {\ mathcal {L}}} {\ mathcal {N}} (0,1).}In questo caso, possiamo anche usare il lemma di Scheffé , che è un criterio di convergenza di una serie di variabili casuali di densità verso una variabile casuale di densità .
Esempio: legge degenerata:
La successione converge di diritto verso una variabile casuale X 0 chiamata degenere, che assume un unico valore (0) con probabilità 1 (a volte si parla di massa di Dirac in 0, annotata ée 0 ):
NON(0,1non){\ displaystyle {\ mathcal {N}} \ left (0, {\ frac {1} {n}} \ right)}
P(X0≤X)=δ0(]-∞,X])={0 Se X<0,1 Se X≥0.{\ displaystyle \ mathbb {P} (X_ {0} \ leq x) = \ delta _ {0} \ left (] - \ infty, x] \ right) = {\ begin {cases} 0 & {\ text { si}} x <0, \\ 1 & {\ text {si}} x \ geq 0. \ end {cases}}}
Convergenza in probabilità
Definizione -
Sia ( X n ) n una serie di variabili casuali reali definite sullo stesso spazio di probabilità . Diciamo che X n converge a X in probabilità se
(Ω,A,P){\ displaystyle \ left (\ Omega, {\ mathcal {A}}, \ mathbb {P} \ right)}
∀ε>0,limnon→∞P(|Xnon-X|≥ε)=0.{\ displaystyle \ forall \ varepsilon> 0, \ qquad \ lim _ {n \ rightarrow \ infty} \ mathbb {P} \ left (\ left | X_ {n} -X \ right | \ geq \ varepsilon \ right) = 0.}
A volte notiamo
Xnon→pX{\ displaystyle X_ {n} {\ xrightarrow {p}} X}
o
Xnon→PX{\ displaystyle X_ {n} {\ xrightarrow {\ mathbb {P}}} X}
Lemma -
Se abbiamo le seguenti convergenze, rispettivamente in ( E , d ) e inR{\ displaystyle \ mathbb {R}}
Xnon→(d)Xed(Xnon,Ynon)→(d)0{\ displaystyle X_ {n} {\ xrightarrow [{}] {(d)}} X \ qquad {\ text {et}} \ qquad d (X_ {n}, Y_ {n}) {\ xrightarrow [{} ] {(d)}} 0}
così abbiamo
(Xnon,Ynon)→(d)(X,X){\ displaystyle (X_ {n}, Y_ {n}) {\ xrightarrow [{}] {(d)}} (X, X)}
nello spazio E × E fornito con la distanza infinita.
Dimostrazione
Lasciate F un chiuso E × E . Per ogni ε > 0 indichiamo
Fε: ={(X,y)∈E×E:d∞((X,y),F)≤ε}{\ displaystyle F _ {\ varepsilon}: = \ {(x, y) \ in E \ times E: d _ {\ infty} ((x, y), F) \ leq \ varepsilon \}}
Allora
P((Xnon,Ynon)∈F)≤P((Xnon,Xnon)∈Fϵ)+P(d(Xnon,Ynon)≥ϵ){\ displaystyle \ mathbb {P} ((X_ {n}, Y_ {n}) \ in F) \ leq \ mathbb {P} ((X_ {n}, X_ {n}) \ in F _ {\ epsilon }) + \ mathbb {P} (d (X_ {n}, Y_ {n}) \ geq \ epsilon)}
Il passaggio di limsup si ottiene utilizzando le due ipotesi e l' appendiabiti del teorema dei 3 punti e
lim supnonP((Xnon,Ynon)∈F)≤P((X,X)∈Fϵ){\ displaystyle \ limsup _ {n} \ mathbb {P} ((X_ {n}, Y_ {n}) \ in F) \ leq \ mathbb {P} ((X, X) \ in F _ {\ epsilon })}
quindi facendo tendere ε a 0, poiché F è chiuso
lim supnonP((Xnon,Ynon)∈F)≤P((X,X)∈F{\ displaystyle \ limsup _ {n} \ mathbb {P} ((X_ {n}, Y_ {n}) \ in F) \ leq \ mathbb {P} ((X, X) \ in F}
Concludiamo usando ancora il 3 ° punto del teorema dell'attaccapanni.
Proprietà -
Se X n converge a X in probabilità poi X n converge a X in legge .
Dimostrazione
È una conseguenza del lemma precedente prendendo X n = X e notando che la convergenza in legge
d(X,Ynon)→(d)0{\ displaystyle d (X, Y_ {n}) {\ xrightarrow [{}] {(d)}} 0}
in è la convergenza in probabilità
R{\ displaystyle \ mathbb {R}}
Ynon→PX{\ displaystyle Y_ {n} {\ xrightarrow [{}] {\ mathbb {P}}} X}
in ( E , d ) .
Altrimenti, puoi procedere come segue. Cominciamo affermando un lemma.
Lemma -
Siano X , Y variabili casuali reali, c a reale e ε > 0 . Allora
P(Y≤vs)≤P(X≤vs+ε)+P(X-Y>ε){\ displaystyle \ mathbb {P} (Y \ leq c) \ leq \ mathbb {P} (X \ leq c + \ varepsilon) + \ mathbb {P} (XY> \ varepsilon)}
Infatti, è sufficiente notare che:
{Y≤vs}⊂{X≤vs+ε}∪{X>vs+ε,Y≤vs}{\ displaystyle \ {Y \ leq c \} \ subset \ {X \ leq c + \ varepsilon \} \ cup \ {X> c + \ varepsilon, Y \ leq c \}}
La disuguaglianza segue naturalmente.
Per ogni ε > 0 , a causa di questo lemma, abbiamo:
P(Xnon≤a)≤P(X≤a+ε)+P(|Xnon-X|>ε){\ displaystyle \ mathbb {P} (X_ {n} \ leq a) \ leq \ mathbb {P} (X \ leq a + \ varepsilon) + \ mathbb {P} (\ left | X_ {n} -X \ destra |> \ varepsilon)}
P(X≤a-ε)≤P(Xnon≤a)+P(|Xnon-X|>ε){\ Displaystyle \ mathbb {P} (X \ leq a- \ varepsilon) \ leq \ mathbb {P} (X_ {n} \ leq a) + \ mathbb {P} (\ left | X_ {n} -X \ destra |> \ varepsilon)}
Quindi abbiamo
P(X≤a-ε)-P(|Xnon-X|>ε)≤P(Xnon≤a)≤P(X≤a+ε)+P(|Xnon-X|>ε).{\ displaystyle \ mathbb {P} (X \ leq a- \ varepsilon) - \ mathbb {P} (\ left | X_ {n} -X \ right |> \ varepsilon) \ leq \ mathbb {P} (X_ { n} \ leq a) \ leq \ mathbb {P} (X \ leq a + \ varepsilon) + \ mathbb {P} (\ left | X_ {n} -X \ right |> \ varepsilon).}O è un punto di continuità di F X . Risolviamo un vero ε ' > 0 . Per continuità di F X in a , esiste un reale ε > 0 tale che
|P(X⩽a+ε)-P(X⩽a)|<ε′et|P(X⩽a-ε)-P(X⩽a)|<ε′{\ displaystyle | \ mathbb {P} (X \ leqslant a + \ varepsilon) - \ mathbb {P} (X \ leqslant a) | <\ varepsilon '\ mathrm {e} | \ mathbb {P} (X \ leqslant a - \ varepsilon) - \ mathbb {P} (X \ leqslant a) | <\ varepsilon '}.
La convergenza di ( X n ) n in probabilità per X , si può dedurre l'esistenza di un intero N tale che: se n ≥ N .
P(|Xnon-X|>ε)<ε′{\ displaystyle \ mathbb {P} (\ left | X_ {n} -X \ right |> \ varepsilon) <\ varepsilon '}
Dove: .
∀non∈NON,non⩾NON⇒|P(Xnon⩽a)-P(X⩽a)|<2ε′{\ displaystyle \ forall n \ in \ mathbb {N}, n \ geqslant N \ Rightarrow | \ mathbb {P} (X_ {n} \ leqslant a) - \ mathbb {P} (X \ leqslant a) | <2 \ varepsilon '}
Teorema di Slutsky - Se X n converge di diritto a X , e se Y n converge in probabilità a una costante c , allora la coppia ( X n , Y n ) converge di diritto alla coppia ( X , c ) .
Convergenza quasi sicura
Definizione -
Diciamo che X n converge quasi sicuramente a X se
P(limnon→∞Xnon=X)=1{\ displaystyle \ mathbb {P} \ left (\ lim _ {n \ rightarrow \ infty} X_ {n} = X \ right) = 1}
o in modo equivalente, se esiste un - sottoinsieme trascurabile N ⊂ Ω tale che
P{\ displaystyle \ mathbb {P}}
∀ω∈Ω∖NON,Xnon(ω)→non→∞X(ω){\ displaystyle \ forall \ omega \ in \ Omega \ setminus N, \ qquad X_ {n} (\ omega) {\ xrightarrow [{n \ to \ infty}] {}} X (\ omega)}
Parliamo anche di convergenza quasi ovunque o con probabilità 1 o alta , e scriviamo
Xnon→p.S.X{\ displaystyle X_ {n} {\ xrightarrow {ps}} X}
o, in inglese ( quasi sicuramente )
Xnon→a.S.X{\ displaystyle X_ {n} {\ xrightarrow {as}} X}
La convergenza quasi sicura viene riscritta come:
∀ε>0,P(lim infnon{|Xnon-X|<ε})=1{\ displaystyle \ forall \ varepsilon> 0, \ qquad \ mathbb {P} \ left (\ liminf _ {n} \ {| X_ {n} -X | <\ varepsilon \} \ right) = 1}
o
∀ε>0,P(lim supnon{|Xnon-X|>ε})=0{\ displaystyle \ forall \ varepsilon> 0, \ qquad \ mathbb {P} \ left (\ limsup _ {n} \ {| X_ {n} -X |> \ varepsilon \} \ right) = 0}
o
lim infnon{|Xnon-X|<ε}: =⋃NON∈NON⋂non≥NON{|Xnon-X|<ε}={|Xnon-X|<ε a partire di una certo rango}{\ displaystyle \ liminf _ {n} \ {| X_ {n} -X | <\ varepsilon \}: = \ bigcup _ {N \ in \ mathbb {N}} \ bigcap _ {n \ geq N} \ { | X_ {n} -X | <\ varepsilon \} = \ {| X_ {n} -X | <\ varepsilon \ {\ textrm {a}} \ {\ textrm {start}} \ {\ textrm {d ' a}} \ {\ textrm {certi}} \ {\ textrm {rang}} \}}
lim supnon{|Xnon-X|>ε}: =⋂NON∈NON⋃non≥NON{|Xnon-X|>ε}={|Xnon-X|>ε infinitamente spesso.}{\ displaystyle \ limsup _ {n} \ {| X_ {n} -X |> \ varepsilon \}: = \ bigcap _ {N \ in \ mathbb {N}} \ bigcup _ {n \ geq N} \ { | X_ {n} -X |> \ varepsilon \} = \ {| X_ {n} -X |> \ varepsilon \ {\ textrm {infinitamente}} \ {\ textrm {spesso}}. \}}
Teorema - Se X n converge a X quasi sicuramente, allora X n converge a X in probabilità .
Dimostrazione
Per il lemma di Fatou , abbiamo per tutti ε > 0 :
lim infnonP(|Xnon-X|<ε)≥P(lim infnon{|Xnon-X|<ε})=1{\ displaystyle \ liminf _ {n} \ mathbb {P} (| X_ {n} -X | <\ varepsilon) \ geq \ mathbb {P} \ left (\ liminf _ {n} \ {| X_ {n} -X | <\ varepsilon \} \ right) = 1}
La convergenza quasi sicura viene utilizzata nella legge forte dei grandi numeri .
Convergenza media di ordine r
Definizione -
Siano r > 0 e ( X n ) n una serie di variabili casuali reali definite sullo stesso spazio di probabilità . Diciamo che X n converge a X come media di ordine r o come norma L r se per ogni n e se
(Ω,A,P){\ displaystyle \ left (\ Omega, {\ mathcal {A}}, P \ right)} E(|Xnon|r)<+∞{\ displaystyle E (| X_ {n} | ^ {r}) <+ \ infty}
limnon→∞E(|Xnon-X|r)=0{\ displaystyle \ lim _ {n \ rightarrow \ infty} E \ left (\ left | X_ {n} -X \ right | ^ {r} \ right) = 0}
A volte ce ne accorgiamo .
Xnon→LrX{\ displaystyle X_ {n} {\ xrightarrow {\ mathbb {L} ^ {r}}} X}
Per r = 1, si parla semplicemente di convergenza media e per r = 2 di convergenza quadratica media .
Proprietà -
Per r > s ≥ 1, la convergenza delle norme implica la convergenza delle norme .
Lr{\ displaystyle \ mathbb {L} ^ {r}}LS{\ displaystyle \ mathbb {L} ^ {s}}
Dimostrazione
È una semplice applicazione della disuguaglianza di Jensen con la funzione convessaX↦Xr/S{\ displaystyle x \ mapsto x ^ {r / s}}
Per r = 2, abbiamo il seguente risultato:
Proprietà -
Sia c una costante reale. Allora abbiamo
Xnon→L2vs{\ displaystyle X_ {n} {\ xrightarrow {\ mathbb {L} ^ {2}}} c}
se e solo se
limnon→∞E[Xnon]=vselimnon→∞Var[Xnon]=0{\ displaystyle \ lim _ {n \ to \ infty} \ mathbb {E} [X_ {n}] = c \ qquad {\ text {et}} \ qquad \ lim _ {n \ to \ infty} \ operatorname { Var} [X_ {n}] = 0}
Dimostrazione
Questo segue la seguente identità:
E[(Xnon-vs)2]=Var(Xnon)+(E[Xnon]-vs)2{\ Displaystyle \ mathbb {E} \ left [(X_ {n} -c) ^ {2} \ right] = \ nome operatore {Var} (X_ {n}) + \ left (\ mathbb {E} [X_ { n}] - c \ right) ^ {2}}
Proprietà -
Se X n converge a X nella norma L r , allora X n converge a X in probabilità .
Dimostrazione
È un'applicazione diretta della disuguaglianza di Markov per variabili casuali reali che ammettono un momento di ordine r :
P(|Xnon-X|≥ε)≤E[|Xnon-X|r]εr{\ Displaystyle \ mathbb {P} \ left (\ left | X_ {n} -X \ right | \ geq \ varepsilon \ right) \ leq {\ frac {\ nomeoperatore {E} [\ left | X_ {n} - X \ right | ^ {r}]} {\ varepsilon ^ {r}}}}
Esempio:
La legge debole dei grandi numeri è una diretta conseguenza di queste ultime due proprietà
Convergenza di una funzione di una variabile casuale
Un teorema molto pratico, generalmente indicato in inglese come il teorema di mappatura (en) , afferma che una funzione continua g applicata a una variabile che converge a X convergerà in g ( X ) per tutti i modi di convergenza:
Teorema - ( Teorema della mappatura ) Sia una funzione continua in qualsiasi punto di un insieme C tale che :
g:RK→Rm{\ displaystyle g: \ mathbb {R} ^ {k} \ to \ mathbb {R} ^ {m}}P(X∈VS)=1{\ displaystyle \ mathbb {P} (X \ in C) = 1}
- Se ;Xnon→LX allora g(Xnon)→Lg(X){\ displaystyle X_ {n} {\ xrightarrow {\ mathcal {L}}} X {\ text {poi}} g (X_ {n}) {\ xrightarrow {\ mathcal {L}}} g (X)}
- Se ;Xnon→pX allora g(Xnon)→pg(X){\ displaystyle X_ {n} {\ xrightarrow {p}} X {\ text {quindi}} g (X_ {n}) {\ xrightarrow {p}} g (X)}
- Sì .Xnon→p.SX allora g(Xnon)→p.S.g(X){\ displaystyle X_ {n} {\ xrightarrow {ps}} X {\ text {quindi}} g (X_ {n}) {\ xrightarrow {ps}} g (X)}
Esempio:
In statistica , uno stimatore convergente della varianza σ 2 è dato da:
Snon-12≡1non-1∑io=1non(yio-y¯)2{\ displaystyle s_ {n-1} ^ {2} \ equiv {\ frac {1} {n-1}} \ sum _ {i = 1} ^ {n} \ left (y_ {i} - {\ overline {y}} \ right) ^ {2}}.
Sappiamo quindi dal teorema della mappatura continua che lo stimatore della deviazione standard σ = √ σ 2 è convergente, perché la funzione radice è una funzione continua.Snon-12{\ displaystyle {\ sqrt {s_ {n-1} ^ {2}}}}
Implicazioni reciproche
Per ricapitolare, abbiamo la catena di implicazione tra le diverse nozioni di convergenza di variabili casuali:
→LS⇒S>r≥1→Lr⇓→p.S.⇒→ p ⇒→ d {\ displaystyle {\ begin {matrix} {\ xrightarrow {L ^ {s}}} & {\ underset {s> r \ geq 1} {\ Rightarrow}} & {\ xrightarrow {L ^ {r}}} && \\ && \ Downarrow && \\ {\ xrightarrow {ps}} & \ Rightarrow & {\ xrightarrow {\ p \}} & \ Rightarrow & {\ xrightarrow {\ d \}} \ end {matrix}}}
La convergenza in probabilità non implica né convergenza né convergenza quasi sicura, come mostra il seguente esempio:
Lr{\ displaystyle \ mathbb {L} ^ {r}}
Esempio:
Sia r > 0 . Consideriamo ( X n ) n ≥ 1 una sequenza di variabili casuali indipendenti tali che
P(Xnon=non1/r)=1noneP(Xnon=0)=1-1non{\ displaystyle \ mathbb {P} (X_ {n} = n ^ {1 / r}) = {\ frac {1} {n}} \ qquad {\ text {e}} \ qquad \ mathbb {P} ( X_ {n} = 0) = 1 - {\ frac {1} {n}}}
La successione ( X n ) n converge in probabilità a 0 perché
∀ε>0,∀non≥ε,P(|Xnon|≥ε)=P(Xnon=non1/r)=1non→0{\ displaystyle \ forall \ varepsilon> 0, \ qquad \ forall n \ geq \ varepsilon, \ qquad \ mathbb {P} (| X_ {n} | \ geq \ varepsilon) = \ mathbb {P} (X_ {n} = n ^ {1 / r}) = {\ frac {1} {n}} \ a 0}
D'altra parte, non converge in perchéLr{\ displaystyle \ mathbb {L} ^ {r}}E[Xnonr]=1↛0{\ displaystyle \ mathbb {E} [X_ {n} ^ {r}] = 1 \ nrightarrow 0}
Dimostriamo che neanche questo converge quasi sicuramente. Se così fosse, il suo limite quasi certo sarebbe necessariamente il suo limite di probabilità, vale a dire 0. Tuttavia, poiché e poiché le variabili aleatorie X n sono indipendenti, per la legge di Borel di zero-uno abbiamo :
∑nonP(Xnon=non1/r)=+∞{\ displaystyle \ sum _ {n} \ mathbb {P} (X_ {n} = n ^ {1 / r}) = + \ infty}
P(lim supnon{Xnon=non1/r})=1{\ displaystyle \ mathbb {P} \ left (\ limsup _ {n} \ {X_ {n} = n ^ {1 / r} \} \ right) = 1}
cioè quasi sicuramente X n = n 1 / r per un infinito di n . Quindi, quasi sicuramente, A fortiori X n non converge quasi sicuramente a 0.
lim supnonXnon=+∞.{\ displaystyle \ limsup _ {n} X_ {n} = + \ infty.}
Esempio:
Nell'esempio precedente, per evitare di ricorrere alla legge zero-uno di Borel, possiamo definire esplicitamente la sequenza X n come segue. Scegliamo Ω = [0; 1] fornito con la sua tribù boreliana e la misura Lebesgue . Poniamo , per poi
a1: =0{\ displaystyle a_ {1}: = 0}anon: =12+⋯+1non(mod1){\ displaystyle a_ {n}: = {\ frac {1} {2}} + \ cdots + {\ frac {1} {n}} {\ pmod {1}}}non≥2{\ displaystyle n \ geq 2}
ionon: ={[anon-1,anon]Se anon-1<anon[0,anon]∪[anon-1,1]Se anon-1>anon{\ displaystyle I_ {n}: = \ left \ {{\ begin {matrix} \ left [a_ {n-1}, a_ {n} \ right] & {\ text {si}} a_ {n-1} <a_ {n} \\\ sinistra [0, a_ {n} \ right] \ cup \ left [a_ {n-1}, 1 \ right] & {\ text {si}} a_ {n-1}> a_ {n} \ end {matrix}} \ right.}
Infine definiamo
Xnon(ω): ={non1/rSe ω∈ionon0Se ω∉ionon{\ displaystyle X_ {n} (\ omega): = \ left \ {{\ begin {matrix} n ^ {1 / r} & {\ text {si}} \ omega \ in I_ {n} \\ 0 & {\ text {si}} \ omega \ notin I_ {n} \ end {matrix}} \ right.}
Le X n così definite non sono indipendenti ma si verificano come nell'esempio precedente
P(lim supnon{Xnon=non1/r})=1{\ displaystyle \ mathbb {P} \ left (\ limsup _ {n} \ {X_ {n} = n ^ {1 / r} \} \ right) = 1}
Con poche eccezioni, queste implicazioni non hanno alcuna reciproca, in senso stretto. Tuttavia, ecco alcune proprietà utili che potrebbero essere descritte come "parvenza di reciproco":
- Se X n converge di diritto verso una costante reale c , allora X n converge di probabilità verso c .
- Se X n converge in probabilità di X , allora esiste una sottosuccessione che converge quasi certamente a X .Xσ(non){\ displaystyle X _ {\ sigma (n)}}
- Se X n converge in probabilità a X , e se per tutti i n e un po ' b , poi X n converge in media di ordine r per X per tutti r ≥ 1 . Più in generale, se X n converge in probabilità a X , e se la famiglia ( XP(|Xnon|≤b)=1{\ displaystyle \ mathbb {P} (| X_ {n} | \ leq b) = 1}p
n) È uniformemente integrabile, allora X n converge in media di ordine p per X .
- Se per tutti ε > 0 ,
∑nonP(|Xnon-X|>ε)<∞,{\ Displaystyle \ sum _ {n} \ mathbb {P} \ left (| X_ {n} -X |> \ varepsilon \ right) <\ infty,}
allora X n converge quasi sicuramente a X . In altre parole, se X n converge in probabilità a X in modo sufficientemente rapido ( i . E . I converge serie di cui sopra per tutti ε > 0 ), allora X n converge quasi sicuramente come X . Ciò risulta da un'applicazione diretta del teorema di Borel-Cantelli .
- Sia ( X n ) n ≥ 1 una sequenza di variabili casuali reali indipendenti. Per tutti n , impostiamo:
Snon=X1+⋯+Xnon{\ displaystyle S_ {n} = X_ {1} + \ cdots + X_ {n}}.
Allora la convergenza quasi sicura della successione ( S n ) n ≥ 1 è equivalente alla sua convergenza in probabilità; in altre parole, la convergenza quasi sicura della serie del termine generale X n è equivalente alla sua convergenza in probabilità.
Note e riferimenti
-
Per ulteriori informazioni su questo esempio, vedere Davidson e McKinnon 1993 , cap. 4.
-
Vaart 1998 , p. 7.
Bibliografia
- (en) Russell Davidson e James McKinnon ( tradotti dal tedesco), Estimation and Inference in Econometrics , New York, Oxford University Press ,1993, 874 p. ( ISBN 978-0-19-506011-9 , LCCN 92012048 ) , p. 874
- (en) GR Grimmett e DR Stirzaker , Probability and Random Processes , Oxford, Clarendon Press,1992, 2 ° ed. ( ISBN 0-19-853665-8 ) , p. 271-285
- (en) Adrianus Willem van der Vaart ( traduzione dal tedesco), Asymptotic Statistics , Cambridge, Cambridge University Press ,1998, 1 ° ed. , 443 p. , copertina rigida ( ISBN 978-0-521-49603-2 , LCCN 98015176 ) , p. 443
link esterno
-
[1] : 1 ° anno di corso presso la scuola centrale di Parigi sulla convergenza di variabili aleatorie