Vai alla Home Page About me Courseware Federica Living Library Federica Federica Podstudio Virtual Campus 3D La Corte in Rete
 
Il Corso Le lezioni del Corso La Cattedra
 
Materiali di approfondimento Risorse Web Il Podcast di questa lezione

Antonio D'Ambrosio » 1.Richiami ai processi stocastici


In questa lezione

  • Processi stocastici
  • Momenti
  • Stazionarietà
  • Invertibilità

Processi stocastici

Un processo stocastico Y_t è una famiglia di variabili casuali descritte da un parametro t appartenente ad un insieme parametrico T .

Il parametro t sarà il tempo, mentre lo spazio parametrico T lo supponiamo discreto.

Processi stocastici (definizione)

Più formalmente, dato lo spazio parametrico T e dato uno spazio di probabilità

\left( {\Omega ,F,P} \right)

in cui \Omega rappresenta lo spazio degli eventi, F una \sigma-algebra su \Omega e P è una misura di probabilità, un processo stocastico è una funzione finita e a valori reali di \omega \in \Omega e di t \in T tale che per ogni t , Y_t \left( \omega \right) è una funzione misurabile di \omega .

Processi stocastici

Si ha allora che:

  • \forall \omega = \omega _0,Y_t \left( {\omega _0 } \right) è una funzione di t detta realizzazione (o traiettoria) del processo;
  • \forall t = t _0 ,  ~~Y_{t_0 } \left( \omega \right) è una variabile casuale;
  • per t = t_0 e \omega = \omega _0 , ~~ Y_{t_0 } \left( \omega_0 \right) è un numero reale.

P.s. D’ora in poi, Y_t \equiv Y_t \left( \omega \right) .

Esempio di realizzazioni

Realizzazioni (o traiettorie) finite di uno stesso processo.

Realizzazioni (o traiettorie) finite di uno stesso processo.


Definizione “moderna” di serie storica

Per serie storica (y_t ~~ t=1,\ldots,n ), alla luce di quanto definito sinora, si intende una parte finita di un processo stocastico Y_t .

Tale definizione, coerente con quella “usuale” (successione ordinata di valori secondo una variabile t), qualifica in senso probabilistico la natura dei problemi che debbono essere affrontati attraverso la sua analisi.

Ad esempio, (da Piccolo & Vitale, 1984) qual è la probabilità che la v.c. Y_{tn + 1} assuma un valore compreso tra a_0 e a_1 se su di essa si hanno informazioni desunte dall’insieme di v.c. Y_{t1} ,Y_{t2} , \ldots ,Y_{tn} ?

Momenti di un processo stocastico

I processi stocastici sono in grado di generare serie storiche di lunghezza infinita. Si impone la necessità di riassumere le loro principali proprietà attraverso poche grandezze caratteristiche.

Si potrebbe:

  • Specificare le distribuzioni di probabilità congiunta Y_{t1} ,Y_{t2} , \ldots ,Y_{tn} per ogni n e per ogni n-pla (t1, t2,…, tn),

oppure

  • Fornire i momenti del processo teorico.

Delle due strade, si percorre la seconda poichè, anche se in teoria i momenti teorici sono infiniti in numero, in pratica se ne utilizzano pochi: il momento primo e i momenti di secondo ordine.

Momenti di primo e secondo ordine teorici

Il momento di primo ordine è, come è noto, il valore medio del processo:

E(Y_t ) = \mu (t)

Nel caso generale, il valore atteso risulta essere funzione di t .

Il momento del secondo ordine è la varianza del processo:

\sigma ^2 (t) = E\left[ {Y_t - \mu (t)} \right]^2 = {\mathop{\rm var}} (Y_t )

Nel caso generale, anche la varianza teorica risulta essere funzione di t .

Autocovarianza teorica

La autocovarianza è, nella terminologia delle serie storiche, la covarianza calcolata non tra due grandezze diverse, ma in riferimento alla medesima grandezza Y_t riferita a due istanti diversi t , e t+k ;

\gamma _{\left( {t,t + k} \right)} = E\left[ {\left( {Y_t - \mu (t)} \right)\left( {Y_{t + k} - \mu (t)} \right)} \right] = {\mathop{\rm cov}} (Y_t ,Y_{t + k} )

In generale essa è funzione di t , o meglio è funzione degli istanti considerati t t+k.

Ovviamente, l’autocovarianza calcolata nel medesimo istante \left( {t_1 = t_2 = t} \right) coincide con la varianza.

Autocorrelazione teorica

La autocovarianza misura il segno e la forza del legame esistente tra Y_t \text{ e} ~~Y_{t+k} . Tuttavia tale grandezza varia in tutto il campo reale e è dipendente da cambiamenti di scala del processo. Si introduce pertanto la funzione di autocorrelazione (ACF):

\rho _k = \frac{{E\left[ {\left( {Y_t - \mu (t)} \right)\left( {Y_{t + k} - \mu (t)} \right)} \right]}}{{\sqrt {E\left[ {\left( {Y_t - \mu (t)} \right)} \right]^2 E\left[ {\left( {Y_{t + k} - \mu (t)} \right)} \right]^2 } }}

Rappresentando il coefficiente di correlazione lineare tra Y_t~~ \text{e}~~ Y_{t+k} , l’autocorrelazione è sempre compresa tra -1 e 1.

Stazionarietà

Le relazioni considerate fin’ora risultano funzioni di t . Tale aspetto costituisce un ostacolo che si può aggirare introducendo l’ipotesi di stazionarietà, vale a dire la indipendenza dei momenti dal tempo.

Questo non vuol dire che i processi stazionari e le loro realizzazioni siano costanti, ma che la distribuzione di probabilità dei processi o taluni valori medi delle loro realizzazioni presentano formulazioni analitiche che non dipendono da t.

Le serie generate da tali processi presenteranno quindi una omogeneità temporale di natura stocastica (Piccolo & Vitale, 1984).

Stazionarietà (segue)

Un processo stocastico si definisce stazionario in senso forte se tutti i suoi momenti (se esistono) non sono funzione di t .

Un processo stocastico si dice stazionario in senso debole se i suoi momenti di ordine k non sono funzione di t .

La stazionarietà debole è la condizione che in pratica è richiesta, ponendo k=2 .

Stazionarietà debole

Un processo stocastico è stazionario in senso debole se:

\begin{array}{l} E\left( {Y_t } \right) = \mu {\rm } \to {\rm }\mu \left( t \right) = \mu ; \\ E\left( {Y_t - \mu } \right)^2 = \sigma ^2 {\rm } \to {\rm }\sigma ^2 \left( t \right) = \sigma ^2 \\ \end{array}

Inoltre, la distribuzione congiunta di Y_{t1} e Y_{t2} dipende dalla distanza k tra t_1 e t_2 ma non dai loro valori effettivi.
Considerando quindi il lag k= t_1-t_2 , si ha

\gamma _k = E\left[ {\left( {Y_t - \mu } \right)\left( {Y_{t + k} - \mu } \right)} \right],{\rm }\gamma _0 = \sigma ^2<br />

E la funzione di autocorrelazione diviene

\rho _k = \frac{{\gamma _k }}{{\gamma _0 }},{\rm }\rho _{\rm 0} = \frac{{\gamma _0 }}{{\gamma _0 }} = 1<br />

Autocorrelazione parziale

Accanto alla funzione di autocorrelazione (ACF), che prende il nome di funzione di autocorrelazione totale, si definisce la funzione di autocorrelazione parziale teorica (PACF) di un processo stocastico.

Il significato della PACF è lo stesso del coefficiente di correlazione parziale noto dalla regressione multipla: un coefficiente di autocorrelazione parziale misura la correlazione tra (ad esempio) Y_{t1} e Y_{t3} al netto della correlazione esistente tra Y_{t1} e Y_{t2}.

Autocorrelazione parziale (segue)

Nel caso di un processo stocastico stazionario, i coefficienti di autocorrelazione parziale sono espressi da
\varphi _{kk} = \frac{{\left| {R_k^* } \right|}}{{\left| {R_k } \right|}} , in cui

R_k = \left[ {\begin{array}{*{20}c} 1 & {\rho _1 } & {...} &  {\rho _{k - 1} } \\ {\rho _1 } & 1 & {...} & {\rho _{k - 2} } \\ {...} & {...} & {...} & {...} \\ {\rho _{k - 1} } & {\rho _{k - 2} } & {...} & 1 \\ \end{array}} \right]

e

R_k^* = \left[ {\begin{array}{*{20}c} 1 & {\rho _1 } & {...} & {\rho _1 } \\ {\rho _1 } & 1 & {...} & {\rho _2 } \\ {...} & {...} & {...} & {...} \\ {\rho _{k - 1} } & {\rho _{k - 2} } & {...} & {\rho _k } \\ \end{array}} \right]

R_k è la matrice dei coefficienti di autocorrelazione totale, mentre R_k^* è la stessa matrice, in cui la ultima colonna è sostituita dai coefficienti \left[ {\rho _1 ,\rho _2 ,...,\rho _k } \right] .

Processi stocastici Gaussiani

La stazionarietà in senso forte implica la stazionarietà in senso debole (quando esistono i momenti fino al secondo ordine), ma non è vero il contrario. La stazionarietà in senso debole implica l’esistenza dei momenti fino al secondo ordine.

La sola conoscenza dei momenti fino al secondo ordine specifica completamente una intera classe di processi stocastici: se la distribuzione congiunta di Y_{t1}, Y_{t2},\ldots,Y_{tn} segue una distribuzione normale multivariata per tutti i valori di t , allora la stazionarietà debole implica quella forte poiché la distribuzione normale multivariata è caratterizzata completamente dai primi due momenti.

Invertibilità (anteprima)

L’ipotesi di invertibilità è stata introdotta per evitare la “molteplicità” di modelli.

Dato un processo stazionario Y_t è possibile calcolare in modo univoco la sua funzione di autocovarianza e la funzione di autocorrelazione.

Data una funzione di autocovarianza, è unico il processo stazionario che l’ha generata?

Se oltre ad essere stazionario il processo è anche invertibile, allora la risposta è positiva.

Nella prossima lezione…

  • Alcuni processi stocastici
  • Processo white noise
  • Ancora sulla Invertibilità
  • Teorema di decomposizione di Wold
  • Processo AR(p)
  • Processo MA(q)
  • Processo ARMA(p,q)
  • Contenuti protetti da Creative Commons
  • Feed RSS
  • Condividi su FriendFeed
  • Condividi su Facebook
  • Segnala su Twitter
  • Condividi su LinkedIn
Progetto "Campus Virtuale" dell'Università degli Studi di Napoli Federico II, realizzato con il cofinanziamento dell'Unione europea. Asse V - Società dell'informazione - Obiettivo Operativo 5.1 e-Government ed e-Inclusion

Fatal error: Call to undefined function federicaDebug() in /usr/local/apache/htdocs/html/footer.php on line 93