Vai alla Home Page About me Courseware Federica Living Library Federica Federica Podstudio Virtual Campus 3D Le Miniguide all'orientamento Gli eBook di Federica La Corte in Rete
 
I corsi di Economia
 
Il Corso Le lezioni del Corso La Cattedra
 
Materiali di approfondimento Risorse Web Il Podcast di questa lezione

Antonio D'Ambrosio » 2.Alcuni processi stocastici


In questa lezione…

  • Processo white noise
  • Invertibilità
  • Teorema di decomposizione di Wold
  • Processo AR(p)
  • Processo MA(q)
  • Processo ARMA(p,q)

Processo stocastico white noise

Il white noise è un processo a componenti incorrelate, di valor medio pari a zero e di varianza costante, indicato con

a_t \sim WN\left( {0,\sigma ^2 } \right)

in cui

E\left( {a_t } \right) = 0;{\rm }E\left( {a_t^2 } \right) = \sigma ^2 ;{\rm }Cov\left( {a_t ,a_s } \right) = 0{\rm }\left( {t \ne s} \right)

In genere non si fanno ipotesi a priori sulle v.c. a_{t1} ,a_{t2} , \dots.

Se, \forall t,{\rm  }a_t è anche una v.c. Normale, si parla allora di processo WN Gaussiano. Poichè per v.c. Normali l’incorrelazione implica l’indipendenza, un processo WN Gaussiano è a componenti indipendenti.

Invertibilità

Un processo stocastico Y_t è invertibile se esiste una funzione lineare h\left(  \cdot  \right) e un processo WN a_t tale che, per ogni t, si possa scrivere:

Y_t = h\left( {Y_{t - 1} ,Y_{t - 2} ,...} \right) + a_t

L’invertibilità consente di esprimere un processo Y_t tramite v.c. del passato, cioè tramite una funzione h\left(  \cdot  \right) che collega Y_t con le v.c. Y_s con s<t .

Il processo WN è da aggiungere altrimenti Y_t sarebbe una funzione matematica (deterministica) di t.

Invertibilità (esempio)

Sia Y_t  = a_t  - \theta a_{t - 1} un processo stocastico in cui a_t  = WN\left( {0,\sigma ^2 } \right) e \left| \theta  \right| < 1 . Si può verificare che

………………………

E\left( {Y_t } \right) = 0;{\rm    }Var\left( {Y_t } \right) = \left( {1 + \theta ^2 } \right)\sigma ^2 ; Cov\left( {Y_t ,Y_{t - 1} } \right) =  - \theta \sigma ^2 ;{\rm    Cov}\left( {Y_t ,Y_{t - s} } \right) = 0

……………

Operiamo per sostituzioni successive: Y_t = a_t - \theta a_{t - 1} {\rm - } > {\rm }a_t = {\rm }Y_t + \theta a_{t - 1} {\rm ,} per cui

………………

 

a_{t - 1}  = {\rm  }Y_{t - 1}  + \theta a_{t - 2} ;{\rm   }a_{t - 2}  = {\rm  }Y_{t - 2}  + \theta a_{t - 3} {\rm ;    }a_{t - 3}  = {\rm  }Y_{t - 3}  + \theta a_{t - 4} {\rm ; }...{\rm      }

Sostituendo, in sequenza, si ha:

\begin{array}{l}Y_t = a_t - \theta (Y_{t - 1} + \theta a_{t - 2} ) = a_t - \theta ^2 a_{t - 2} - \theta Y_{t - 1} = a_t - \theta ^2 \left( {Y_{t - 2} + \theta a_{t - 3} } \right) - \theta Y_{t - 1} = \\{\rm } = a_t - \theta ^3 a_{t - 3} - \theta ^2 Y_{t - 2} - \theta Y_{t - 1} = {\rm }a_t - \theta ^3 \left( {Y_{t - 3} + \theta a_{t - 4} } \right) - \theta ^2 Y_{t - 2} - \theta Y_{t - 1} = ...{\rm } \\ \end{array}

= a_t {\rm  - }\theta ^j a_{t - j}  + \sum\limits_{{\rm i} = {\rm 1}}^{{\rm j - 1}} {\theta ^{\rm i} Y_{t - i} \left( { - 1} \right)} {\rm  }

Invertibilità (esempio) (segue)

Se \left| \theta  \right| < 1 , allora \mathop {\lim }\limits_{j \to \infty } \theta ^j  = 0 , per cui il processo Y_t è invertibile poiché esso è composto da un white noise e da una funzione che collega Y_t alle v.c. Y_s , con s<t . Y_t  = a_t  + \sum\limits_{{\rm i} = {\rm 1}}^{{\rm j - 1}} {\theta ^{\rm i} Y_{t - i} \left( { - 1} \right)} {\rm  } Considerazione: cosa succede se, coeteris paribus, \left| \theta  \right| > 1 , oppure se Y_t  = a_t  - \frac{1}{\theta }a_{t-1} , \left| \theta  \right| < 1 e a_t \sim WN\left( {0,\theta ^2 \sigma ^2 } \right) ?

Teorema di decomposizione di Wold

Il teorema di decomposizione di Wold asserisce che ogni processo stocastico stazionario Y_t può sempre decomporsi in due processi stocastici stazionari e tra loro mutuamente incorrelati

Y_t = Z_t + \sum\limits_{{\rm i} = {\rm 0}}^\infty {\psi _i \varepsilon _{t - i} }

con

\varepsilon _t \sim WN\left( {0,\sigma ^2 } \right){\rm ,    }\psi _0  = 1{\rm     e }\sum\limits_{{\rm i} = 1}^\infty  {\psi _i^2  < \infty }

in cui Z_t è una componente deterministica mentre l’altra componente, detta processo lineare poiché costituita da una combinazione lineare infinita di processi WN, costituisce la parte stocastica.

Processo autoregressivo

Un processo autoregressivo di ordine p è dato dalla relazione

Y_t  =  \delta   + \varphi _1 Y_{t - 1}  + \varphi _2 Y_{t - 2}  + ... + \varphi _p Y_{t - p}  + \varepsilon _t

Il valore atteso e la funzione di autocovarianza sono

E\left( {Y_t } \right) = \frac{\delta }{{1 - \varphi _1  - \varphi _2  - ... - \varphi _p }} ………………..

\gamma _0  = \frac{{\sigma _\varepsilon ^2 }}{{1 - \varphi _1 \rho _1  - \varphi _2 \rho _2  - ... - \varphi _p \rho _p }}

 

………………

\gamma _k = \left\{ {\begin{array}{*{20}c}{\varphi _1 \gamma _1 + \varphi _2 \gamma _2 + ... + \varphi _p \gamma _p + \sigma ^2 {\rm }k = 0} \\{\varphi _1 \gamma _{k - 1} + \varphi _2 \gamma _{k - 2} + ... + \varphi _p \gamma _{k - p} {\rm }k > 0} \\\end{array}} \right

Operatore ritardo

L’operatore ritardo viene generalmente indicato con la lettera B ed è un operatore che si applica a sequenze di numeri. In sostanza trasforma una sequenza (stocastica o no) x_t in un’altra sequenza che ha la caratteristica di avere gli stessi valori di xt , ma sfalsati di un periodo. Applicato ad una costante, la lascia invariata.

By_t = y_{t - 1} ;{\rm }Bk = k;{\rm }B^n y_t = y_{t - n} ;{\rm }B^0 = 1.

L’operatore ritardo gode della proprietà della linearità

(k + jB)Y_t = kY_t + jY_{t - 1}

Utilizzando l’operatore ritardo, specificando che \phi (B) = (1 - \phi _1 B - ... - \phi _p B^p ) ,

un processo AR(p) può essere formulato come

Y_t = \delta + \varphi _1 Y_{t - 1} + \varphi _2 Y_{t - 2} + ... + \varphi _p Y_{t - p} + \varepsilon _t

In forma compatta, viene indicato nel modo seguente:

\phi (B)Y_t = \delta + \varepsilon _t

Stazionarietà e invertibilità dei processi AR(p)

Un processo AR(p) è sempre invertibile. Si dimostra che se tutte le radici dell’equazione caratteristica \phi (B) = 0 sono in modulo maggiori di uno, allora è stazionario.

L’autocorrelazione vale

\rho _k  = \phi _1 \rho _{k - 1}  + ... + \phi _p \rho _{k - p} .

Il correlogramma di un processo AR(p) è costituito da infiniti termini per qualunque valore di p. Le autocorrelazioni tendono a zero in modo monotonico o con oscillazioni a seconda del valore dei parametri. Si dice che i processi AR sono a memoria lunga.

Si dimostra che la PACF di un processo AR(p) è costituita esattamente da p termini, ovvero da tanti termini quanto è l’ordine del processo. La PACF è quindi uno strumento importantissimo per la determinazione di un processo stocastico AR in quanto la ACF è SEMPRE costituita da infiniti termini.

Processo AR(1)

Un processo AR(1) assume la forma

Y_t = \delta + \phi _1 Y_{t - 1} + \varepsilon _t

Il processo AR(1) è sempre invertibile ma è stazionario se e solo se il coefficiente è, in modulo, inferiore all’unità. Infatti

1 - \phi _1 B = 0   \Rightarrow   B = \frac{1}{{\phi _1 }}    \Rightarrow    \left| {\phi _1 } \right| < 1

Inoltre

E\left( {Y_t } \right) = \frac{{\delta }}{{1 - \varphi _1 }};{\rm }\gamma _{\rm k} = \left\{ {\begin{array}{*{20}c} {\frac{{\sigma _\varepsilon ^2 }}{{1 - \varphi _1^2 }}~~~~~{\rm per }k = 0} \\ {\varphi _1^k \gamma _0 ~~~~~{\rm per }k > 0} \\\end{array}} \right.

,………………

\rho _k = \varphi _1^k ;{\rm }\phi _{kk} = \left\{ {\begin{array}{*{20}c}{\varphi _1 ~~~~~{\rm per }k = 1} \\{0~~~~~{\rm per }k > 1} \\ \end{array}} \right.

Processo AR(1) (segue)

Di fianco sono riportate le autocorrelazioni totali e parziali di un processo autoregressivo del primo ordine.

Se il coefficiente fosse negativo, la ACF avrebbe andamento oscillante e la PACF avrebbe il coefficiente di correlazione negativo.

ACF di un processo stocastico AR(1)

ACF di un processo stocastico AR(1)


Processo AR(2)

Un processo AR(2) assume la forma

Y_t = \delta + \phi _1 Y_{t - 1} + \phi _2 Y_{t - 2} + \varepsilon _t

Il processo AR(2) è sempre invertibile ma è stazionario se e solo se:

\left\{ {\begin{array}{*{20}c} {\varphi _2 + \varphi _1 < 1} \\ {\varphi _2 - \varphi _1 < 1} \\ { - 1 < \varphi _2 < 1} \\ \end{array}} \right.

Inoltre:

E\left( {Y_t } \right) = \frac{{\left( \delta \right)}}{{1 - \varphi _1 - \varphi _2 }};{\rm }\gamma _{\rm 0} = \frac{{\sigma _\varepsilon ^2 }}{{1 - \varphi _1 - \varphi _2 }}{\rm ;}

…………….

\rho _k = \varphi _1^{} \rho _{k - 1} + \varphi _2^{} \rho _{k - 2}

Processo stocastico random walk

Se \varepsilon _{\rm t} {\rm \sim WN}\left( {{\rm 0}{\rm ,}\sigma ^{\rm 2} } \right) , il seguente processo stocastico viene definito random walk

Y_t = Y_{t - 1} + \varepsilon _t {\rm }

Ponendo Y_0  = {\rm  }\eta , ed essendo quindi Y_t  = \eta  + \sum\limits_i {\varepsilon _i } , si ha che

E\left( {Y_t } \right) = \eta ;{\rm        }Var\left( {Y_t } \right) = t\sigma ^2  .

Il processo, quindi, non è stazionario. In effetti è un processo AR(1) con il coefficiente φ=1. Ci ritorneremo nella prossima lezione.

Processo a Media Mobile (MA)

Il processo stocastico lineare (in generale) è costituito da una serie illimitata di termini. Il processo MA è costituito da un numero finito q di termini, per cui si ha

Y_t  = \varepsilon _t  + \psi _1 \varepsilon _{t - 1}  + \psi _2 \varepsilon _{t - 2}  + ... + \psi _q \varepsilon _{t - q} {\rm   }.

Ponendo, come consuetudine, \psi _i  =  - \theta _i si ottiene

Y_t  = \varepsilon _t  - \theta _1 \varepsilon _{t - 1}  - \theta _2 \varepsilon _{t - 2}  - ... - \theta _q \varepsilon _{t - q} .

Utilizzando l’operatore ritardo, si ottiene

Y_t  = \left( {1 - \theta _1 B - \theta _2 B^2  - ... - \theta _q B^q } \right)\varepsilon _t

Che rappresenta il processo stocastico MA(q), indicato sinteticamente con Y_t  = \theta \left( B \right)\varepsilon _t

Momenti di un processo a Media Mobile

Per un processo a media mobile di ordine q si ha:

E\left( {Y_t } \right) = E\left( {\varepsilon _t - \theta _1 \varepsilon _{t - 1} + \theta _1 \varepsilon _{t - 1} + ... + \theta _q \varepsilon _{t - q} } \right) = 0

 

…………………..

\gamma _k  = \left( { - \theta _k  + \theta _1 \theta _{k - 1}  + \theta _2 \theta _{k - 2}  + ... + \theta _q \theta _{q - k} } \right)\sigma _\varepsilon ^2 ~~{\rm     per }~~k = 1,2,...,q

\gamma _k  = 0~~{\rm     per }~~k > q

 

………………………….

\rho _k  =  - \theta _k  + \theta _1 \theta _{k - 1}  + \theta _2 \theta _{k - 2}  + ... + \theta _q \theta _{q - k} ~~{\rm      per }~~k = 1,2,...,q

\rho _k  = 0~~{\rm     per }~~k > q

Stazionarietà e invertibilità di un processo MA(q)

Un processo MA(q) è sempre stazionario, in quanto la serie è finita di ordine q e i momenti non dipendono dal tempo.

Un processo MA(q) è invertibile se e solo se le radici dell’equazione caratteristica

\theta \left( B \right) = 1 - \theta _1 B - \theta _2 B^2  - ... - \theta _q B^q  = 0

sono in modulo maggiori di uno, cioè

Y_t  \sim MA(q)~~{\rm   invertibile ~~  se }\left\{ {\begin{array}{*{20}c}{\theta \left( {B_j } \right) = 0}  \\{\left| {B_j } \right| > 1{\rm      }}  \\ \end{array}{\rm    }j = 1,2,...,q} \right.

Processo MA(1)

Un processo MA(1) assume la forma

Y_t  = \varepsilon _t  - \theta \varepsilon _{t - 1}  = \left( {1 - \theta B} \right)\varepsilon _t .

I momenti dono:

E\left( {Y_t } \right) = 0;{\rm }\gamma _0 = \left( {1 + \theta ^2 } \right)\sigma _\varepsilon ^2 ;{\rm }\gamma _1 = - \theta ^2 \\ \sigma_ \varepsilon ^2 ;{\rm }\gamma _{k:k > 1} = 0

…………………

\rho _0 = 1;{\rm }\rho _1 = \frac{{ - \theta }}{{1 + \theta ^2 }};{\rm }\rho _{k:k > 1} = 0;{\rm }\phi _{{\rm kk}} = \frac{{ - \theta ^k \left( {1 - \theta ^2 } \right)}}{{1 - \theta ^{2(k + 1)} }}

Condizione di invertibilità:

1 - \theta B = 0 \to B = \frac{1}{\theta } \to \left| \theta \right| < 1

Processo MA(2)

Un processo MA(2) assume la forma

Y_t  = \varepsilon _t  - \theta _1 \varepsilon _{t - 1}  - \theta _2 \varepsilon _{t - 2} .

I momenti dono:

\begin{array}{l} E\left( {Y_t } \right) = 0;{\rm }\gamma _0 = \left( {1 + \theta _1^2 + \theta _2^2 } \right)\sigma _\varepsilon ^2 ;{\rm }\gamma _1 = \left( { - \theta _1 + \theta _1 \theta _2 } \right)\sigma _\varepsilon ^2 ; \\ {\rm } \\ \gamma _2 = - \theta _2 \sigma _\varepsilon ^2 ;{\rm }\gamma _{k:k > 2} = 0 \\ \end{array}

Condizioni di invertibilità

\left\{ {\begin{array}{*{20}c} {\theta _2 + \theta _1 < 1;} \\ {\theta _2 - \theta _1 < 1;} \\ { - 1 < \theta _2 < 1;} \\ \end{array}} \right.

Dualità tra processi AR(p) e MA(q)

  • Le condizioni di stazionarietà di un processo AR sono equivalenti a quelle di invertibilità di un processo MA.
  • Le condizioni di invertibilità di un processo MA sono equivalenti a quelle di stazionarietà di un processo AR.
  • Si dimostra che un processo stazionario AR(p) può sempre essere espresso come un processo MA(∞).
  • Si dimostra che un processo invertibile MA(q) può sempre essere espresso come un processo AR(∞).
  • I coefficienti di autocorrelazione totale di un MA(q) si comportano analogamente ai coefficienti di correlazione parziale di un AR(p), p=q.
  • I coefficienti di autocorrelazione parziale di un MA(q) si comportano analogamente ai coefficienti di correlazione totale di un AR(p), p=q.

Processi ARMA(p,q)

I processi AR e MA possono essere composti in un unico modello misto detto ARMA che combina le caratteristiche di entrambi. Dalla struttura di un modello AR(p) si ha

Y_t  - \left( \delta  \right) - \varphi _1 Y_{t - 1}  - \varphi _2 Y_{t - 2}  - ... - \varphi _p Y_{t - p}  = \varepsilon _t

Si potrebbe concepire la parte residua del processo AR(p) come un processo MA(q):

\varepsilon _t  - \theta _1 \varepsilon _{t - 1}  - \theta _2 \varepsilon _{t - 2}  - ... - \theta _q \varepsilon _{t - q} .

Sostituendo la seconda equazione nella prima, si ottiene

Y_t - \left( \delta \right) - \varphi _1 Y_{t - 1} - \varphi _2 Y_{t - 2} - ... - \varphi _p Y_{t - p} = \varepsilon _t - \theta _1 \varepsilon _{t - 1} - \theta _2 \varepsilon _{t - 2} - ... - \theta _q \varepsilon _{t - q}

che prende il nome di processo autoregressivo di ordine p e a media mobile di ordine q (ARMA(p,q)). Ricorrendo all’operatore B, un processo ARMA(p,q) può essere scritto in forma compatta come

\varphi \left( B \right)Y_t  = \delta  + \theta \left( B \right)\varepsilon _t

Processi ARMA(p,q) (segue)

Le condizioni di stabilità riguardano i coefficienti della parte MA, quelle di stazionarietà riguardano i coefficienti della parte AR.

Un processo ARMA(p,q) è stazionario se tutte le radici dell’equazione caratteristica φ(B)=0 sono, in modulo, maggiori di uno.

Un processo ARMA(p,q) è invertibile se tutte le radici dell’equazione caratteristica θ(B)=0 sono, in modulo, maggiori di uno.

Processi ARMA(p,q) (segue)

Il valore atteso di un processo ARMA(p,q) è:

E\left( {Y_t } \right) = \frac{\delta }{{1 - \varphi _1  - ... - \varphi _p }}

Nel definire \gamma _k bisogna tenere conto anche della covarianza tra Y_t e \varepsilon _t . Se si definisce \gamma _{Y\varepsilon } come E\left( {Y_{t - k} \varepsilon _t } \right) [supponendo E\left( {Y_t } \right) = 0 ……………

si ha, per k\gamma _k  = \varphi _1 \gamma _{k - 1}  + ... + \varphi _p \gamma _{k - p}  + \gamma _{Y\varepsilon _t }  - \theta _1 \gamma _{Y\varepsilon _{t - 1} }  - ... - \theta _q \gamma _{Y\varepsilon _{t - q} } ,

mentre per k>q si ha che

\gamma _k  = \varphi _1 \gamma _{k - 1}  + ... + \varphi _p \gamma _{k - p} .

Le autocovarianze includono i parametri θ della parte a media mobile del modello fino ad un valore k>p come per un processo MA(q).

Processo ARMA(1,1)

Un processo ARMA(1,1) assume la forma

Y_t  - \varphi _1 Y_{t - 1}  = \varepsilon _t  - \theta _1 \varepsilon _{t – 1}

E’ stazionario se \left| {\varphi _1 } \right| < 1 , mentre è invertibile se \left| {\theta _1 } \right| < 1  .

Inoltre si ha:

E\left( {Y_t } \right) = \left( {\frac{{\left( \delta  \right)}}{{1 - \varphi _1 }}} \right),

in cui la costante è posta tra parentesi ad indicare che, qualora non dovesse esserci, il valore atteso è pari a zero.

……………….

\gamma _0  = \frac{{(1 + \theta _1^2  - 2\phi _1 \theta _1 )}}{{1 - \phi _1^2 }}\sigma _\varepsilon ^2 ; \gamma _1  = \frac{{(\phi _1  - \theta _1 )(1 - \phi _1 \theta _1 )}}{{1 - \phi _1^2 }}\sigma _\varepsilon ^2 ; \rho _1  = \frac{{(\phi _1  - \theta _1 )(1 - \phi _1 \theta _1 )}}{{1 + \theta _1^2  - 2\phi _1 \theta _1 }};

Inoltre, per k>1

\gamma _k  = \phi _1 \gamma _{k - 1}  = \phi _1^{k - 1} \gamma _1 ;

\rho _k  = \phi _1^{k - 1} \rho _1 .

Nella prossima lezione…

  • Analisi dei prezzi
  • Prezzi ed efficienza dei mercati
  • Exponential smoothing
  • Prezzi e rendimenti
  • Ancora sul processo random walk
  • Radici unitarie: primi cenni
  • Ipotesi rw
  • Contenuti protetti da Creative Commons
  • Feed RSS
  • Condividi su FriendFeed
  • Condividi su Facebook
  • Segnala su Twitter
  • Condividi su LinkedIn
Progetto "Campus Virtuale" dell'Università degli Studi di Napoli Federico II, realizzato con il cofinanziamento dell'Unione europea. Asse V - Società dell'informazione - Obiettivo Operativo 5.1 e-Government ed e-Inclusion