Disuguaglianza di Chernoff

Nella teoria della probabilità , la disuguaglianza di Chernoff consente di delimitare la coda di una legge di probabilità , ovvero fornisce un valore massimo per la probabilità che una variabile casuale superi un valore fisso. Parliamo anche di Chernoff legato .

È paragonabile alla disuguaglianza di Markov ma fornisce un limite esponenziale. Prende il nome da Herman Chernoff .

Dichiarazioni

Ci sono molte affermazioni e molti casi speciali.

Caso generale

Sia una variabile casuale reale la cui funzione generatrice di momenti è tale che:

Quindi, per tutto ,

e


Con variabili simmetriche e aspettativa zero

Lascia che le variabili casuali siano indipendenti in modo tale che e per ogni i . Chiediamo e ci chiamiamo σ 2 la varianza di X .

Quindi, abbiamo per tutto :

così come , e così anche .

Con variabili simmetriche booleane

Siano le variabili casuali booleane (cioè con valori in {0,1}) indipendenti, con la stessa aspettativa p , quindi ,

, e .

Prova

Esistono diversi modi per dimostrare queste disuguaglianze.

Caso generale

Dimostrazione

Per la prima disuguaglianza ,

Da dove,

e, come è vero per tutto , lo otteniamo


Per la seconda disuguaglianza ,

così come prima:

Con variabili simmetriche booleane

Dimostrazione

Per la prima disuguaglianza , poniamo e dove X segue una legge di Bernoulli con parametro p. Dalla disuguaglianza di Chernoff applicata a ,

Oro . Infatti, come sono iid e quindi sono iid,

Da dove,

Pertanto,

Lo notiamo . pertanto

con . Per utilizzare la formula di Taylor Lagrange all'ordine 2, calcoliamo la prima e la seconda derivata ,

con . Possiamo aumentare di . Infatti ,.

Così, come , secondo Taylor formula Lagrange , ,

con . Quindi ,

In entrambi i casi . Notiamo . Quindi g ammette un minimo in . Quindi ,

Per la seconda disuguaglianza , ,

Si noti che: ,

Quindi ,

da un argomento simile che serviva a dimostrare la prima disuguaglianza.

Applicazioni

Queste disuguaglianze sono ampiamente utilizzate nell'informatica teorica , in particolare nella teoria della complessità e negli algoritmi , dove consentono di dimostrare i risultati su algoritmi probabilistici .

Vedi anche teoria delle grandi deviazioni .

Estensioni

Possiamo scrivere interessanti generalizzazioni per matrici casuali , chiamate in inglese matrice Chernoff bound  (en) .

Riferimenti

  1. Brémaud 2009 , p.  184
  2. Wolfgang Mulzer, "  Five Proofs of Chernoff's Bound with Applications  ", Bulletin of the EATCS , n .  124, febbraio 2018( leggi online ).
  3. Joel A Tropp, "  Limiti di coda user-friendly per somme di matrici casuali  " , Foundations of Computational Mathematics , vol.  12, n o  4, 2012, p.  389-434

Vedi anche

Bibliografia