Vai alla Home Page About me Courseware Federica Living Library Federica Federica Podstudio Virtual Campus 3D Le Miniguide all'orientamento Gli eBook di Federica La Corte in Rete
 
 
Il Corso Le lezioni del Corso La Cattedra
 
Materiali di approfondimento Risorse Web Il Podcast di questa lezione

Carmela Cappelli » 8.Disuguaglianza di Cebicev, funzione generatrice dei momenti


La disuguaglianza di Cebicev- introduzione

La disuguaglianza di Cebicev costituisce un risultato di fondamentale importanza nell’ambito del calcolo delle probabilità e della statistica poiché a partire da una vc X che possiede il momento secondo, individua un estremo per la probabilità che la corrispondente vc standardizzata assuma valore in un intervallo.
Essa prende le mosse e si ricollega al teorema di Markov.

Terorema di Markov

Il teorema di Markov considera vc con supporto positivo e che posseggono il momento primo cioè tali che, Pr(X>0)=1 e E(X)<+∞. Esso afferma che:   Pr(X > \epsilon E(X)) \leq \frac{1}{\epsilon} , \forall \epsilon > 0.

Si noti che nel caso in cui sia  \epsilon < 1 tale risultato è banale poiché sarà   \frac{1}{ \epsilon} \ge 1 quindi l’interesse riguarda in caso in cui \epsilon >1. Ciò premesso, dal teorema di Markov discendono numerose disuguaglianze di cui la più importante è appunto quella di Cebicev.

La disuguaglianza di Cebicev

Si consideri una vc X che possiede il momento secondo finito per cui esistono finiti tanto il valore atteso μ che la varianza σ2, si consideri inoltre nella espressione del teorema di Markov, in luogo della vc X con supporto positivo, la vc |X- μ|2 ed infine il numero ε2 invece di ε, si ottiene:
Pr(|X-\mu|^2 > \epsilon^2 E\mid X-\mu \mid^2 \leq \frac{1}{\epsilon^2} da cui:    Pr(|X-\mu| > \epsilon \sigma ) \leq \frac{1}{\epsilon^2}.
Tale risultato costituisce una prima versione della disuguaglianza di Cebicev che risulta quindi dimostrata.

La disuguaglianza di Cebicev (segue)

Nella formulazione corrente la disuguaglianza di Cebicev afferma che data una vc X con valore atteso E(X)= μ e varianza σ2 <+∞, vale la seguente relazione:

Pr(|X-\mu| < \epsilon \sigma ) \geq 1- \frac{1}{\epsilon^2}

In base tale disuguaglianza quindi, la probabilità che la vc X assuma valore in un intervallo (\mu \pm \epsilon \sigma ) è almeno pari ad  1- \frac{1}{\epsilon^2} quindi, maggiore è l’ampiezza dell’intervallo, maggiore è la corrispondete probabilità.

La disuguaglianza di Cebicev (segue)

Se si considera la vc standardizzata  Z=\frac{X- \mu}{\sigma } la disuguaglianza diviene:
Pr(|Z| < \epsilon) \geq 1- \frac{1}{\epsilon^2}

Si noti che gli estremi individuati dalla disuguaglianza sono abbastanza “prudenti”, ovvero lontani dalle corrispondenti probabilità, ad esempio se  \epsilon =2 la probabilità che la vc standardizzata assuma valore nell’intervallo  \pm 2 ) risulta in base alla disuguaglianza almeno pari a 0.75; tale valore risulta ben maggiore nel caso in cui ad esempio la vc sia normale (0,1).

La disuguaglianza di Cebicev – utilizzi

I fondamentali utilizzi della disuguaglianza di Cebicev sono due:

  1. Noti il valore atteso E(X)= μ e varianza σ2 di una variabile casuale, essa fornisce gli estremi di un intervallo di ampiezza prefissata;
  2. Nota l’ampiezza dell’intervallo e la probabilità consente di ricavare il valore di σ e quindi della varianza.

La funzione generatrice dei momenti

La funzione generatrice dei momenti (nel prosieguo denotata con fgm) è un particolare valore medio che in un’unica funzione racchiude tutti i momenti. Data una vc X essa è definita come:
G(t)=E[\exp (tX)]= \int_{- \infty}^{+\infty} \exp(tx) f(x)dx se X è continua
G(t)=E[\exp (tX)]= \sum_{i=1}^{+ \infty} \exp(tx_i) p_i se X è discreta

Dove t è una variabile di comodo. Tale funzione esiste se esistono tutti i momenti della vc X e G(t) è finita, ovvero l’integrale o la somma convergono.

Condizioni di esistenza della fgm

Le condizioni di esistenza dalla fgm sono definite dal seguente teorema:
Se G(t) esiste finita in un intorno dell’origine |t|≤t0 allora essa è unica e tutti i momenti possono essere derivati da G(t) che quindi determina completamente la distribuzione della vc X.

Si noti che non tutte le vc possiedano la fgm e può accadere che una vc non la possegga pur possedendo tutti i momenti.

Derivazione dei momenti dalla fgm

Se una vc possiede la fgm allora:

  • La vc X ha momenti finiti di ogni ordine;
  • Lo sviluppo in serie di Mc Laurin di G(t) coinvolge i successivi momenti di X che quindi possono essere ricavati dalla fgm per derivazioni successive.

Si noti innanzitutto che G(t) può essere espressa come sviluppo in serie di potenze,

G(t)= \sum_{r=0}^{+ \infty} \mu_r \frac{t^r}{r!}= 1+\mu_1 t+\mu_2 \frac{t^2}{2!}+\dots
A tale risultato si perviene sostituendo nella fgm lo sviluppo in serie di exp(tx):
\exp(tx)=\sum_{r=0}^{+ \infty} \frac{(tx)^r}{r!}e ricordando che il valore medio della somma è uguale alla somma dei valori medi, ovvero è possibile scambiare l’operatore E(.) con la serie della funzione esponenziale.

Derivazione dei momenti dalla fgm (segue)

Lo sviluppo di Mc Laurin di G(t) è del tipo
G(t)= \sum_{r=0}^{+ \infty} \frac{d ^r G(t)}{d t^r}\mid_{ t=0} \frac{t^r}{r!}= G(0)+G'(0)t + G''(0) \frac{t^2}{2!}+\dots

Per il principio di identità dei polinomi si ha: G(t)= \sum_{r=0}^{+ \infty} \frac{d^r G(t)}{d t^r}\mid_{ t=0} \frac{t^r}{r!}= \sum_{r=0}^{+ \infty} \mu_r \frac{t^r}{r!}=G(t)

Da cui discende che:
\mu_r = \frac{d ^r G(t)}{d t^r}\mid_{ t=0}

Dove con \frac{d ^r G(t)}{d t^r}\mid_{ t=0} si è indicata la derivata r-esima di G(t) calcolata nell’origine (t=0).

La fgm – esempio

Per r=1 si avràG(t)=\mu_1 t e G(t) = G'(0) t , da cui: \mu_1 = G'(0)
Analogamente, per r=2 G(t)=\mu_2 \frac{t^2}{2!} e  G(t) = G''(0) \frac{t^2}{2!} e quindi   \mu_2 = G''(0).

Si consideri la vc X discreta la cui distribuzione di probabilità è riportata a fianco.

La fgm: G(t)=E[\exp (tX)]= \sum \exp(tx_i) p_i = \exp(t0)(1- \theta) +\exp(t)\theta=1- \theta + \theta\exp(t)

.
G'(0)= \frac{\delta G(t)}{\delta t}\mid_{ t=0}= \theta \exp(t) \mid_{ t=0}= \theta quindi \mu_1 =\theta.

Analogamente risulta
G''(0) = \frac{G'' (t)}{\delta t^2}\mid_{ t=0}= \theta \exp(t) \mid_{ t=0}=\theta quindi:
VAR(X)= \theta- \theta^2=\theta(1-\theta)


  • Contenuti protetti da Creative Commons
  • Feed RSS
  • Condividi su FriendFeed
  • Condividi su Facebook
  • Segnala su Twitter
  • Condividi su LinkedIn
Progetto "Campus Virtuale" dell'Università degli Studi di Napoli Federico II, realizzato con il cofinanziamento dell'Unione europea. Asse V - Società dell'informazione - Obiettivo Operativo 5.1 e-Government ed e-Inclusion