Vai alla Home Page About me Courseware Federica Living Library Federica Federica Podstudio Virtual Campus 3D Le Miniguide all'orientamento Gli eBook di Federica La Corte in Rete
 
 
Il Corso Le lezioni del Corso La Cattedra
 
Materiali di approfondimento Risorse Web Il Podcast di questa lezione

Roberta Siciliano » 9.Modelli stocastici per l'analisi delle serie storiche


Obiettivi e contenuti

Obiettivi

  • Comprendere l’utilizzo dei modelli lineari stocastici per l’analisi della serie temporali
  • Acquisire la competenza per l’elaborazione dei dati temporali attraverso l’utilizzo del software Gretl
  • Contenuti
  • Modelli di Box e Jenkins
  • Momenti teorici e campionari
  • Processo stocastico White Noise
  • Processo stocastico autoregressivo
  • Processo stocastico a media mobile
  • Processo stocastico ARMA
  • Cenni alle trasformazioni delle serie temporali per la stazionarietà del primo e del secondo ordine

I modelli stocastici di Box e Jenkins

I modelli stocastici di Box-Jenkins, che devono il loro nome a due studiosi (Box, americano e Jenkins, inglese), sono numerosi ma derivano tutti dai fondamentali

  • modelli autoregressivi
  • modelli a media mobile

la cui unione genera il cosiddetto “modello misto” che prende il nome di modello ARMA (autoregressivo e a media mobile).

I momenti di un processo stocastico

Prima di investigare i modelli fondamentali, è necessario focalizzare l’attenzione su alcuni concetti fondamentali.

I vari modelli stocastici possono generare delle serie temporali caratterizzate da un andamento di tipo generale oppure da un andamento di tipo stazionario.

Mentre le prime possono avere qualunque andamento, le seconde soddisfano determinate condizioni di invarianza temporale.

Tali condizioni possono essere determinate a partire dalla definizione dei momenti del processo stocastico.

Se Zt è un processo stocastico, si definisce valore atteso il momento di ordine uno dall’origine.

La varianza è il momento di ordine due dalla media.

Autocovarianza e autocorrelazione

L’autocovarianza è la covarianza tra variabili casuali del medesimo processo stocastico spaziate tra loro di uno sfasamento temporale pari a k = |t2-t1|

Yt1,t2 = E [(zt1µt1) (zt2-µ t2)] = cov (zt1, zt2)

L’autocorrelazione (ACF, da AutoCorrelation Function) si ottiene dall’autocovarianza dividendo quest’ultima per il prodotto degli scarti quadratici medi di  zt1 e zt2 

\rho_k(t)=\frac{[(z_{t1}-\mu_{t1})(z_{t2}-\mu_{t2})]}{\sqrt{\sigma^2_{t1}\sigma^2_{t2}}}


Processo stocastico stazionario

La stazionarietà suppone che certe proprietà statistiche di una serie temporale risultino invarianti rispetto a traslazioni del tempo. Si distingue:

  • La stazionarietà completa: suppone che tutti i momenti siano invarianti nel tempo, condizione verificabile solo in teoria
  • La stazionarietà ridotta o debole (o di ordine k): suppone che siano invarianti nel tempo i soli momenti di ordine k

I momenti che interessano di più sono i primi due, per cui ci si limita alla stazionarietà in media e in varianza.

Stazionarietà debole

La stazionarietà debole implica che la media e la varianza siano indipendenti dal tempo:

E (Zt) =µ         σ2t =    σ2

Inoltre l’autocovarianza dipende solo dall’intervallo k = | t2 – t1 | (detto lag) e non dai valori effettivi di t1 e t2

γ= E [(zt- µ )(zt+k - µ )]

Se si definisce γ0 = σσ, la ACF si può scrivere ρkk0

Autocorrelazione parziale (PACF)

L’autocorrelazione parziale (PACF Partial AutoCorrelation Function) misura il legame tra le variabili Zt e Zt-k (appartenenti allo stesso processo stocastico) al netto dell’influenza esercitata dalle variabili intermedie.

Essa è pari alla correlazione condizionata tra Zt e Zt+k dato che Zt-1, Zt-2, …, Zt-k+1 sono costanti e si indica con il simbolo Φkk

La PACF è molto importante per l’identificazione dei processi stocastici.

Autocorrelazione parziale (PACF) (segue)

Il processo White Noise (WN) è uno dei più importanti processi stocastici. E’ un processo at che consiste di una sequenza di varibili casuali incorrelate e a media e varianza costanti.

L’equazione di un processo WN è semplicemente Zt= at

La ACF di un processo WN è il rapporto

\rho_k=\left\{\begin{array}{ll} 1 \text{ per } k=0 \\ \\ 0 \text{ per } k=\pm 1, \pm2, ...\end{array}\right

mentre la PACF è identicamente uguale alla ACF poichè le componenti sono serialmente incorrelate.

Correlogramma di un processo White Noise

In figura si riporta il CORRELOGRAMMA della ACF e della PACF di un processo WN.

Un correlogramma è un grafico dei valori della ACF e della PACF. Le bande orizzontali al di sopra e al di sotto del valore zero indicano le bande di confidenza entro le quali le correlazioni sono statisticamente non diverse da zero.


Il processo autoregressivo

La formulazione generale di un processo autoregressivo di ordine p (AR(p)) è la seguente:

zt=Φ1zt-1+…+Φ2zt-2+… Φpzt-p +at

Utilizzando l’operatore B (dall’inglese Backward), tale per cui Bzt = zt-1, la formulazione diventa:

(1=Φ1B+Φ2B2+… +ΦpBp) zt =at

La formulazione tra parentesi, chiamata “operatore AR(p)” viene generalmente indicata con Φ(B)
allora la relazione può essere scritta semplicemente come:

Φ(B)zt =at

AFC del processo AR

Si dimostra che la ACF di un processo AR(p) è del tipo (figura a lato).

Cioè, il correlogramma di un processo AR(p) è costituito da infiniti termini per qualunque valore di p, che tendono a zero in modo monotonico o con oscillazioni a seconda del valore dei parametri. Si dice che I processi AR sono a memoria lunga.


PACF di un processo AR

Si dimostra che la PACF di un processo AR(p) è costituita da esattamente p termini, ovvero da tanti termini quanto è l’ordine del processo.

La PACF è quindi uno strumento importantissimo per la determinazione di un processo stocastico AR in quanto la ACF è SEMPRE costituita da infiniti termini.

Processo AR(1)

Il processo AR(1) è definito come:

zt= Φ1zt-1 + at

Si dimostra che è stazionario se | Φ1 |< 1

Se il coefficiente fosse negativo, la ACF avrebbe andamento oscillante e la PACF avrebbe il coefficiente di correlazione negativo.

Se il coefficiente fosse negativo, la ACF avrebbe andamento oscillante e la PACF avrebbe il coefficiente di correlazione negativo.


Processo AR(2)

Il processo AR(2) è definito come:

zt= Φ1zt-12zt-2 + at

Si dimostra che è stazionario se avviene l’equazione

\left\{\begin{array}{ll}\Phi_2+\Phi_1<1 \\ \\\Phi_2-\Phi_1<1\\ \\ -1 <\Phi_2 < 1\end{array}\right

Se dimostra che la PACF è costituita da 2 soli valori.


Esempio 1

Dataset interno al software Gretl: tra le varie variabili vi è la serie degli indici dei prezzi del gasolio registrati negli USA dal 1950 al 1995.

Per visualizzare i correlogrammi selezionare la variabile di interesse, nel nostro caso la variabile Pg, poi agire sul pulsante destro del mouse per far aprire la finestra delle azioni e cliccare su Correlogramma.


Esempio 1: il correlogramma

La ACF è molto simile a quella del processo teorico: si smorza con andamento monotonico fino ad annullarsi, segno che il processo è stazionario.

La PACF presenta solo una correlazione statisticamente diversa da zero in corrispondenza del ritardo 1. Procediamo con la stima di un modello AR(1).


Esempio 1: selezione del modello

Dalla finestra principale di Gretl procedere selezionare modello →Serie storiche → AR → Stima autoregressiva

Dalla finestra principale di Gretl procedere selezionare modello →Serie storiche → AR → Stima autoregressiva


Esempio 1: specificazione del modello

Inserire la variabile di interesse nella casella variabile dipendente e specificare i ritardi (in questo caso, il ritardo è 1).Cliccare poi su ritardi.

Inserire la variabile di interesse nella casella variabile dipendente e specificare i ritardi (in questo caso, il ritardo è 1).Cliccare poi su ritardi.

Si aprirà la finestra ordine dei ritardi, spuntare la casella ordine della variabile dipendente e lasciare le impostazioni su 1.

Si aprirà la finestra ordine dei ritardi, spuntare la casella ordine della variabile dipendente e lasciare le impostazioni su 1.


Esempio 1: interpretazione dei parametri

Il coefficiente associato alla variabile ritardata è inferiore ad uno ed è statisticamente diverso da zero, dal momento che il p-value è prossimo allo zero.

La statistica Durbin-Watson è pressoché uguale a 2.


Esempio 1: visualizzazione dei residui

Un altro passo: controlliamo i residui per valutare se sono espressione di un processo White Noise.

Dalla finestra del modello, cliccare su grafici, poi selezionare residui, ed infine cliccare su correlogramma.


Esempio 1: valutazione dei residui

Il correlogramma dei residui suggerisce la “bianchezza dei residui”. Questo significa che I residui seguono un processo White Noise.

Il modello AR(1) appena stimato è una buona approssimazione del processo teorico soprastante i dati.


Il processo a media mobile

La formulazione generale di un processo a media mobile di ordine q (MA(q)) è la seguente:

zt = at + ψ1 at- 1 + …+ ψq at- q

Utilizzando l’operatore B ed utilizzando la consueta notazione per cui  ψ1 = -θi , si ha

z=(1 -θ1B -θ2B2 -…-θqBq) at

che si indica più facilmente con zt = -θ(B)at

AFC del processo a media mobile

Il processo MA(q) è sempre stazionario perchè si dimostra che i momenti del processo non dipendono dal tempo. Per tale ragione la ACF di un processo MA(q) è diversa da zero per k = 1, 2, …, q mentre vale zero per k > q.

Si dice che I processi MA sono a memoria corta.

PAFC di un processo a media mobile

La PACF di un processo MA(q) si presentano in forma piuttosto complicata a seconda dell’ordine del processo. In linea di massima la PACF ricorda la ACF di un processo AR.

Il processo MA(1)

Il processo MA(1) è definito come: zt = at – θ1 at- 1

E’ sempre stazionario.

Se il coefficiente fosse negativo, la ACF avrebbe il coefficiente di correlazione negativo e la PACF avrebbe andamento smorzante.

Se il coefficiente fosse negativo, la ACF avrebbe il coefficiente di correlazione negativo e la PACF avrebbe andamento smorzante.


Il processo MA(2)

Il processo MA(2) è definito come: zt = at – θ1 at- 1 – θ2 at- 1

La ACF si esaurisce dopo due sole unità, mentre la PACF tende ad annullarsi con andamenti regolari, sinusoidali, smorzati a seconda dei parametri.

Esempio 2

Aprire il set di dati ARMA nel database interno di Gretl, nella scheda nominata Gretl.

Aprire il set di dati ARMA nel database interno di Gretl, nella scheda nominata Gretl.


Esempio 2: visualizzazione del correlogramma

Selezionare la variabile u, agire sul pulsante destro del mouse e cliccare su correlogramma.

Selezionare la variabile u, agire sul pulsante destro del mouse e cliccare su correlogramma.


Esempio 2: valutazione del correlogramma

La ACF si annulla al ritardo 2.
La PACF si smorza velocemente all’aumentare dei ritardi.
Proviamo a stimare un modello MA(1).


Esempio 2: selezione del modello


Esempio 2: Menù ARIMA

Aggiungere la variabile u nella casella Variabile dipendente.
Impostare i valori zero su Ordine AR e su Differenza.
Impostare il valore 1 su Ordine MA.
Cliccare su OK.


Esempio 2: interpretazione dei parametri

Il coefficiente theta_1 è significativamente diverso da zero.

Il coefficiente theta_1 è significativamente diverso da zero.


Esempio 2: correlogramma dei residui

Per valutare i residui, selezionare nel menù “grafici” e poi “correlogramma”.
I residui del modello MA(1) seguono un processo White Noise.
Il modello MA(1) appena stimato è una buona approssimazione del processo teorico soprastante i dati.


Invertibilità dei processi stocastici: cenni

Dato un processo stazionario Zt è possibile calcolare in modo univoco la sua funzione di autocovarianza e quindi la sua funzione di autocorrelazione. E’ vero il contrario?
Cioè, data una funzione di autocovarianza, è unico il processo stazionario Zt che possiede quella funzione di autocovarianza?
Generalmente ciò non è vero, poichè esistono più processi con la stessa funzione di autocovarianza, a meno che il processo non sia stazionario ed invertibile.

Tra i vari processi che hanno la stessa funzione di autocovarianza, uno solo è anche invertibile.

In generale:

  • i processi AR(p) sono invertibili ma richiedono delle condizioni per la stazionarietà
  • i processi MA(q) sono stazionari ma richiedono delle condizioni affinché siano invertibili, in particolare

MA(1) richiede che |\theta_1|<1

MA(2) richiede che \left\{\begin{array}{ll}\theta_2+\theta_1<1 \\ \theta_2-\theta_1<1 \\ -1<\theta_2<1\end{array}\right

Dualità tra processi AR(p) e MA(q)

Un processo AR(p) può essere sempre espresso come un processo MA(∞).
Un processo MA(q) può essere sempre espresso come un processo AR(∞).
La ACF di un processo AR(j) si rivela simile alla PACF di un processo MA(j).
La ACF di un processo MA(j) si rivela simile alla PACF di un processo AR(j).


Processo stocastico ARMA

I processi elementari AR e MA possono essere composti in un unico modello misto detto ARMA che combina le caratteristiche di entrambi.
Il processo AR(p) si presenta, come noto, nella forma:

zt=Φ1zt-1+…+Φpzt-p+ at

In alcuni casi si osserva come il residuo at si comporta come una media mobile di ordine q

at = at – θ1 azt-1 -…-θqat-q

Sostituendo la seconda espressione nella prima si ottiene:

zt=Φ1zt-1+…+Φpzt-p=at - θ1 azt-1 -…-θqat-q

Che prende il nome di processo misto autoregressivo e a media mobile di ordine p e q (ARMA(p,q)) che si indica sinteticamente come:

Φ (B) zt = θ (B) at

Esempio 3

Il set di dati, chiamato housing, rappresenta un indice delle licenze di costruzione negli USA dal 1947 (I trimestre) al 1967 (IV trimestre).


Esempio 3: il correlogramma

Per prima cosa valutiamo il correlogramma.
La ACF diminuisce velocemente verso zero, talmente velocemente da far pensare ad un modello MA(2).
La PACF fa pensare ad un modello AR(2).

I correlogrammi fanno pensare ad una mancanza di evidenza netta a favore di un modello AR o di un modello MA.

Probabilmente siamo in presenza di un modello misto.


Esempio 3: stima della componente AR(2)

La stima del modello AR(2) (che operativamente sappiamo già fare) produce coefficienti coerenti con le condizioni di stazionarietà.

Visualizziamo il correlogramma dei residui di questo modello.


Esempio 3: correlogramma del modello AR(2)

Il correlogramma dei residui del modello AR(2) non è indice di un processo WN.

La sua ACF suggerisce una media mobile
di ordine 2.

Da notare come la prima autocorrelazione
è statisticamente non diversa da zero.

Stimiamo un modello ARMA(2,2).


Esempio 3: selezione del modello ARMA(2,2)


Esempio 3: specificazione del modello ARMA(2,2)

Inserire la variabile housing nella casella variabile dipendente.

Inserire l’ordine della componente autoregressiva
(nel nostro caso 2)

Inserire l’ordine della componente a media mobile.

Nel nostro caso, la prima autocorrelazione era pari a zero, mentre la seconda era significativamente diversa da zero.

Spuntare la casella ritardi specifici e scrivere il numero 2.


Esempio 3: interpretazione dei parametri del modello ARMA(2,2)

Tutti i parametri sono significativi.
I coefficienti della componente AR rispettano i vincoli per la stazionarietà.
Il coefficiente per la componente MA rispetta il vincolo per l’invertibilità.

Controlliamo i residui.


Esempio 3: interpretazione dei parametri del modello ARMA (2,2)

I residui sono espressione di un processo WN.

Il modello appena stimato è un modello ARMA(2,2) vincolato, in quanto la componente MA(1) è stata volutamente non inserita (e quindi considerata essere pari a zero) in quanto la ACF dei residui del modello AR(2) presentava l’autocorrelazione al primo ritardo pari a zero.

Serie storiche non stazionarie: cenni

Laddove una serie storica non fosse stazionaria in media (caso molto frequente nella pratica), i modelli Box-Jenkins prevedono la possibilità di procedere ad una o più differenziazioni della serie.

Cioè, si calcola la differenza tra il valore al tempo t ed al tempo t-1 e si inserisce tale differenza nella serie.

Una serie differenziata con le differenze prime si dice SERIE INTEGRATA del primo ordine.

L’operatore differenziazione nei modello ARMA genera i processi ARIMA(p,d,q), con d = ordine della differenziazione (o dell’integrazione).

Esempio

Esempio di serie storica non stazionaria resa stazionaria attraverso le differenze prime.

Esempio di serie storica non stazionaria resa stazionaria attraverso le differenze prime.


Serie storiche non stazionarie in varianza: cenni

Laddove una serie storica non fosse stazionaria in varianza (caso anch’esso frequente nella pratica), i modelli Box-Jenkins ovviano a tali problemi attraverso la trasformazione logaritmica.

Cioè, si calcola il logaritmo del valore della serie ad ogni tempo t.

Esempio: serie non stazionaria in media

Livelli del gettito mensile dell’IVA.
Serie non stazionaria in media.

Livelli del gettito mensile dell'IVA. Serie non stazionaria in media.


Esempio: serie non in varianza

Calcolo delle differenze prime.

Serie stazionaria in media ma non in varianza.

Calcolo delle differenze prime. Serie stazionaria in media ma non in varianza.


Esempio: serie resa stazionaria anche in varianza

Calcolo delle differenze prime dei logaritmi del livello del gettito dell’IVA.

La serie è ora stazionaria in media e in varianza.

Calcolo delle differenze prime dei logaritmi del livello del gettito dell'IVA. La serie è ora stazionaria in media e in varianza.


  • Contenuti protetti da Creative Commons
  • Feed RSS
  • Condividi su FriendFeed
  • Condividi su Facebook
  • Segnala su Twitter
  • Condividi su LinkedIn
Progetto "Campus Virtuale" dell'Università degli Studi di Napoli Federico II, realizzato con il cofinanziamento dell'Unione europea. Asse V - Società dell'informazione - Obiettivo Operativo 5.1 e-Government ed e-Inclusion