Vai alla Home Page About me Courseware Federica Living Library Federica Federica Podstudio Virtual Campus 3D La Corte in Rete
 
Il Corso Le lezioni del Corso La Cattedra
 
Materiali di approfondimento Risorse Web Il Podcast di questa lezione

Carmela Cappelli » 22.La vc Normale Multivariata


La vc Normale Multivariata

La vc Normale Multivariata costituisce la generalizzazione a più dimensioni della vc Normale.
Sia \bf{X}= (X_1,X_2,\dots,X_m) ^\prime il vettore delle m vc componenti ed indichiamo con E( \bf{X})= \mathbf{\mu} il vettore dei valori attesi delle vc componenti e con \mathbf{\Sigma} la matrice simmetrica di ordine m \times m delle varianze e covarianze.

La funzione di densità della Normale Multivariata risulta essere:

f(\mathbf{x}, \mathbf{\mu}, \mathbf{\Sigma})=\mid 2 \pi \mathbf{\Sigma}\mid^{- 1/2} \exp\{- \frac{1}{2}(\mathbf{x}-\mathbf{\mu})^\prime \mathbf{\Sigma}^{-1} (\mathbf{x}-\mathbf{\mu})\}

E si indica, in analogia al caso univariato, con la

{\bf X} \sim N(\mathbf{\mu}, \mathbf{\Sigma})

Gli ellissoidi di uguale concentrazione

Da un punto di vista geometrico la funzione di densità della Normale Multivarita assume valori costanti lungo gli ellissoidi (ellissi in caso sia m=2) definiti dalla forma quadratica (\mathbf{x}-\mathbf{\mu})^\prime \mathbf{\Sigma}^{-1} (\mathbf{x}-\mathbf{\mu})=c^2 che sono detti di uguale concentrazione e si ha che:

(\mathbf{x}-\mathbf{\mu})^\prime \mathbf{\Sigma}^{-1} (\mathbf{x}-\mathbf{\mu}) \sim \chi^2_{m}

pertanto la probabilità che un vettore osservato \bf{x} sia incluso nell’ellissoide è data da:
Pr[(\mathbf{x}-\mathbf{\mu})^\prime \mathbf{\Sigma}^{-1}(\mathbf{x}-\mathbf{\mu}) \leq c^2 ]= Pr ( \chi^2_{m} \leq c^2) .

FGM della vc Normale Multivariata

Ricordiamo che nel caso univariato la funzione generatrice dei momenti della vc Normale è:
GX(t)= E(e^{tx})= e^{t\mu -\frac{1}{2}t^2\sigma^2}.
Analogamente, nel caso multivariato è:
G({\bf t})=E(e^{{\bf t}^\prime {\bf x}})= e^{{\bf t}^\prime {\mathbf \mu} -{\bft}^\prime {\mathbf \Sigma} {\bf t}},
dove \bf t è un vettore di variabili di comodo.

Caratterizzazione della vc Normale Multivariata

La caratterizzazione della vc Normale Multivariata è legata al seguente risultato dovuto a Cramer:
una vc m-variata è una Normale Multivariata se e solo se qualsiasi combinazione lineare delle sue vc componenti del tipo

{\bf a} ^\prime {\bf X} è una vc Normale univariata non degenere per qualsiasi vettore di coefficienti \bf a di dimensione m.

Questo teorema assicura che qualsiasi rotazione, traslazione o proiezione di {\bf X} a seconda di come è definito il vettore dei coefficienti \bf a , non altera la appartenenza alla famiglia e che, inoltre, qualunque sottoinsieme di componenti è ancora una vc Normale Multivariata di dimensioni ridotte.

Proprietà della vc Normale Multivariata

La vc Normale Multivariata gode di numerose e rilevanti proprietà che è opportuno riassumere:

  • se {\bf X} \sim N({\bf \mu},  {\bf \Sigma}) allora la vc Y= {\bf \Sigma}^{-1/2}({\bf X} - {\bf \mu}) \sim N({\bf 0}, {\bf I} ) ovvero la vc Y è una normale Multivariata a componenti indipendenti e standardizzate;
  • se {\bf X} \sim N({\bf 0},  {\bf I}) , dato un vettore non nullo \bf a si ha che \frac{{\bf a}^\prime \mathbf{x}}{\sqrt{{\bf a}^\prime {\bf a}}} \sim N(0,1);
  • se {\bf X} \sim N({\bf \mu},  {\bf \Sigma}) allora  {\bf AX} + {\bf b} \sim N({\bf A \mu} +{\bf b} , {\bf A \Sigma A^\prime})

Quest’ultima proprietà merita alcune precisazioni: essa afferma che qualunque combinazione lineare delle vc componenti una Normale Multivariata è ancora una Normale multivariata anche se le componenti non sono indipendenti. La proprietà, si noti bene, non afferma che ogni combinazione lineare di vc Normali è una vc Normale (lo è se le vc addendi sono indipendenti grazie alla proprietà riproduttiva).

La vc Normale Bivariata

Taluni aspetti e proprietà della vc Normale Multivariata possono essere meglio messi in luce considerando il caso della Normale Bivariata (X,Y) che è caratterizzata da 5 parametri \mu_x, \mu_y, \sigma_x, \sigma_y, \sigma_{xy} e siccome \rho =\frac{\sigma_{xy}}{\sqrt{\sigma_x \sigma_y}} si può fare riferimento a \rho

in luogo di \sigma_{xy} .
La vc Normale Bivariata ha funzione di densità:

f(\mu_x, \mu_y, \sigma_x, \sigma_y, \rho)= \frac{1}{2\pi \sqrt{\sigma^2_x \sigma^2_y (1-\rho^2)}} \exp\{- \frac{1}{2(1-\rho^2)}[(\frac{x-\mu_x}{\sigma_x})^2+ (\frac{y- \mu_y}{\sigma_y})^2- 2\rho(\frac{x-\mu_x}{\sigma_x})(\frac{y- \mu_y}{\sigma_y})] \}

La vc Normale Bivariata (segue)

Come mostrato in figura la funzione di densità definisce una superficie campanulare e simmetrica che ha massimo nel punto di coordinate \mu_x, \mu_y

  • ogni piano parallelo al piano (x,y) interseca la superficie in corrispondenza di un valore costante della funzione did densità f(x,y)=c che definisce il cd ellisse di concentrazione;
  • ogni piano perpendicolare la piano (x,y) intersecando la superficie in corrispondenza di un dato valore di x (o di y) definisce la cd vc sezione o condizionata (Y|X) o (X|Y ) ;
  • integrando la funzione di densità rispetto ad X oppure rispetto ad Y si ottengono le funzioni di densità delle vc marginali, rispettivamente di Y o di X.
Funzione di densità della vc  Normale Bivariata.

Funzione di densità della vc Normale Bivariata.


La vc Normale Bivariata (segue)

Si noti che se \rho=0 la funzione di densità congiunta si fattorizza nel prodotto delle marginali, infatti:
f(x,y)= \frac{1}{2 \pi \sqrt{\sigma_x \sigma_y}} \exp \{ -\frac{1}{2}[ (\frac{x - \mu_x} {\sigma_x})^2 + (\frac{ y-\mu_y}{\sigma^2_y})^2]\}=\frac{1}{ \sqrt{2 \pi \sigma^2_x }} \exp \{-\frac{1}{2\sigma^2_x} (x - \mu_x)^2\}\frac{1}{ \sqrt{2 \pi\sigma^2_xy }} \exp \{ -\frac{1}{2 \sigma^2_y}( y- \mu_y)^2\}=f(x) f(y)
Pertanto, siccome la fattorizzazione della funzione di densità congiunta nel prodotto delle marginali è la condizione che in generale qualifica la indipendenza delle marginali, nel caso della Normale Bivariata e solo in tale caso, la incorrelazione ( \rho=0) implica indipendenza.

Normalità delle vc Condizionate

Data la vc Nornale Bivariata (X,Y), le vc condizionate (X|Y) ed (Y|X) sono delle variabili casuali normali.
Per semplicità espositiva, ma senza perdita di generalità, ai fini della dimostrazione di tale risultato consideriamo le vc standardizzate:
Z_x= \frac{X - \mu_x}{\sigma_x}
Z_y= \frac{Y- \mu_y}{\sigma_y}

Dimostriamo il risultato per la vc condizionata (Z_y|Z_x) che ha funzione di densità :

f(x,y)= \frac{1}{2 \pi \sqrt{\sigma_x \sigma_y}} \exp \{ -\frac{1}{2}[ (\frac{x - \mu_x} {\sigma_x})^2 + (\frac{ y-\mu_y}{\sigma^2_y})^2]\}=\frac{1}{ \sqrt{2 \pi \sigma^2_x }} \exp \{-\frac{1}{2\sigma^2_x} (x - \mu_x)^2\}\frac{1}{ \sqrt{2 \pi\sigma^2_xy }} \exp \{ -\frac{1}{2 \sigma^2_y}( y- \mu_y)^2\}=f(x) f(y)

Normalità delle vc Condizionate (segue)

Svolgendo il prodotto nell’argomento dell’esponenziale e semplificando risulta:
f (Z_y|Z_x)= [\sqrt{2 \pi(1- \rho^2})] ^{-1} \exp\{-\frac{1}{2(1-\rho^2)}(Z_x^2 + Z_y^2 - 2\rho Z_xZ_y -Z^2_x + \rho^2 Z^2_x) \} =[\sqrt{2 \pi(1- \rho^2})] ^{-1} \exp\{-\frac{1}{2(1-\rho^2)}( Z_y + \rho Z_x)^2 \}

Tale espressione rappresenta la funzione di densità di una vc Normale con valore atteso e varianza rispettivamente pari a:

E(Z_y|Z_x )= \rho Z_x
Var(Z_y|Z_x )= (1-\rho^2)

In termini di componenti non standardizzate si ha:
E(Y|X)= \mu_y+ \rho \sigma_yZ_x= \mu_y + \rho \frac{\sigma_y}{\sigma_x}(X-\mu_x)
Var(Z_y|Z_x )= \sigma^2_y (1-\rho^2)

Quindi, la vc
Y| X \sim N(\mu_y + \rho \frac{\sigma_y}{\sigma_x}(X-\mu_x), \sigma^2_y (1-\rho^2)

Vc Condizionate e funzione di regressione

Si consideri la vc sezione:
Y\mid X \sim N(\mu_y + \rho \frac{\sigma_y}{\sigma_x}(X-\mu_x), \sigma^2_y (1-\rho^2))
il suo valore atteso E(Y|X) dipende linearmente da \mu_x .
D’altrocanto E(Y|X)= m(X |Y) dove con m(X |Y) si è denotata la funzione di regressione che quindi, nel caso della Normale Bivariata presenta una evidente linearità essendo:

m(Y| X) = \mu_y + \rho \frac{\sigma_y}{\sigma_x}(X-\mu_x)= \alpha + \beta X
Dove

\alpha= \mu_y -\rho \frac{\sigma_y}{\sigma_x}\mu_x e \beta= \rho \frac{\sigma_y}{\sigma_x}

Quindi, nel caso della Normale Bivariata la funzione di regressione è sempre lineare e ciò implica tra l’altro che che il rapporto di correlazione coincida con il coefficiente di correlazione ovvero \eta^2 =\rho^2

  • Contenuti protetti da Creative Commons
  • Feed RSS
  • Condividi su FriendFeed
  • Condividi su Facebook
  • Segnala su Twitter
  • Condividi su LinkedIn
Progetto "Campus Virtuale" dell'Università degli Studi di Napoli Federico II, realizzato con il cofinanziamento dell'Unione europea. Asse V - Società dell'informazione - Obiettivo Operativo 5.1 e-Government ed e-Inclusion

Fatal error: Call to undefined function federicaDebug() in /usr/local/apache/htdocs/html/footer.php on line 93