Vai alla Home Page About me Courseware Federica Living Library Federica Federica Podstudio Virtual Campus 3D Le Miniguide all'orientamento Gli eBook di Federica La Corte in Rete
 
I corsi di Economia
 
Il Corso Le lezioni del Corso La Cattedra
 
Materiali di approfondimento Risorse Web Il Podcast di questa lezione

Antonio D'Ambrosio » 5.Analisi dei rendimenti – Parte seconda


In questa lezione…

  • La stima di un processo AR(1)
  • La stima di un processo MA(1)
  • La stima di un processo ARMA
  • Riconoscere un processo stocastico

Stima dei parametri: AR(1)

Consideriamo un processo AR(1):
r_t = \varphi _1 r_{t - 1} + \varepsilon _t

Si può dire che i termini \varepsilon_t sono i.i.d., ma r_t. Tuttavia, sono considerate i.i.d. le differenze tra r_t e il suo valore atteso condizionato al tempo precedente:
r_t - E\left( {r_t |r_{t - 1} ;\varphi _1 ,\sigma ^2 } \right) = r_t - \varphi _1 r_{t - 1} = \varepsilon _t

Per  t = T,T - 1,...,2, la funzione di densità di r_t condizionata a tutti i periodi precedenti è pari alla funzione di densità di r_t |r_{t - 1} mentre per r_1 si ha che
E\left( {r_1 } \right) = E\left( {r_t } \right) = 0;
{\mathop{\rm var}} \left( {r_1 } \right) = {\mathop{\rm var}} \left( {r_t } \right) = \frac{{\sigma ^2 }}{{1 - \varphi _1^2 }}

Stima dei parametri: AR(1) (segue)

Se i termini \varepsilon_t sono distribuiti normalmente, allora si può definire la funzione di log-verosimiglianza condizionata a r_1:
\ln L\left( {\theta |r_2 ,r_3 ,...,r_T ;r_1 } \right) = - \frac{{T - 1}}{2}\ln \left( {2\pi \sigma ^2 } \right) - \frac{1}{2}\sum\limits_{t = 2}^T {\frac{{\left( {r_t - \varphi _1 r_{t - 1} } \right)^2 }}{{\sigma ^2 }}}
con \theta = \left( {\varphi _1 ,\sigma ^2 } \right), che produce le seguenti stime per i parametri

\begin{array}{l}<br />
\hat \varphi _1 = \frac{{\sum\limits_{t = 2}^T {r_t r_{t - 1} } }}{{\sum\limits_{t = 2}^T {r_{t - 1}^2 } }}; \hat \sigma ^2 = \left( {T - 1} \right)^{ - 1} \sum\limits_{t = 2}^T {\left( {r_t - \hat \varphi _1 r_{t - 1} } \right)^2 } \end{array}

Da notare che la stima del coefficiente \varphi_1 corrisponde alla stima dei minimi quadrati della regressione di r_t su r_{t-1}.

Stima dei parametri: MA(1)

Consideriamo un processo MA(1):
r_t = \varepsilon _t + \psi _1 \varepsilon _{t - 1}

Analogamente al caso precedente si condiziona r_t al valore (questa volta) di \varepsilon_{t-1} .
r_t - \psi _1 \varepsilon _{t - 1} = \varepsilon _t

In questo caso, però, il valore condizionante non è osservabile direttamente. Si può assumere che, al tempo t=0, \varepsilon_0=0, e sostituendo nell’espressione precedente si ha che

\varepsilon _1 = r_1 - \psi _1 \varepsilon _0 = r_1 ;{\rm }\varepsilon _2 = r_2 - \psi _1 r_1 ;{\rm }\varepsilon _3 = r_3 - \psi _1 r_2 + \psi _1^2 r_1 ;{\rm }...

...{\rm }\varepsilon _T = r_T - \psi _1 r_{T - 1} = \sum\limits_{j = 0}^{T - 1} {\left( { - \psi _1 } \right)^j r_{T - j} }

Stima dei parametri: MA(1) (segue)

Si può definire la funzione di log-verosimiglianza in tal guisa
\ln L\left( {\theta |r_1 ,r_2 ,...,r_T ;\varepsilon _0 = 0} \right) = - \frac{T}{2}\ln \left( {2\pi \sigma ^2 } \right) - \frac{1}{2}\sum\limits_{t = 1}^T {\left( {\sum\limits_{j = 0}^{t - 1} {\frac{{\left( {\left( { - \psi _1 } \right)^j r_{t - j} } \right)^2 }}{{\sigma ^2 }}} } \right)}

con \theta = \left( {\psi _1 ,\sigma ^2 } \right).
In questo caso la condizione del primo ordine necessaria alla soluzione di massimo non permette la derivazione di un’espressione in forma chiusa per la stima di \psi_1.

Occorre quindi utilizzare tecniche numeriche di ottimizzazione non lineari (essendo tali i parametri MA). Molto utilizzato è l’algoritmo di Marquardt così come modificato da Tunnicliffe e Wilson, che molto sinteticamente può essere definito come un algoritmo medio tra i noti metodi steepest descent e Newton-Raphson.

Stima dei parametri: ARMA (p,q)

Una volta identificati gli ordini p e q (vedi slide successive) del modello ARMA, la procedura di stima è una generalizzazione di quanto visto sinteticamente fin’ora.

Per l’individuazione della funzione di verosimiglianza in generale bisogna risolvere alcuni problemi.
Il carattere ricorsivo delle relazioni tra r_t e r_{t-k} implica la perdita delle informazioni iniziali per cui è necessaria una loro ricostruzione, denominata di back-forecasting.

Oppure si pongono tali valori pari a zero (come abbiamo appena visto) ottenendo stime condizionate.

Oppure si può ottenere, attraverso metodi introdotti recentemente, la verosimiglianza esatta per un processo ARMA Gaussiano, stazionario e invertibile.

Riconoscere la forma di un processo

Schema sintetico delle fasi di riconoscimento di un processo stocastico.  Schema tratto da Piccolo D., Vitale C. Metodi statistici per l’analisi economica, il Mulino, 1984

Schema sintetico delle fasi di riconoscimento di un processo stocastico. Schema tratto da Piccolo D., Vitale C. Metodi statistici per l'analisi economica, il Mulino, 1984


Riconoscere la forma di un processo (segue)

L’osservazione della funzione di autocorrelazione di una serie è il primo passo per l’identificazione di un processo, in quanto la sua eguaglianza a zero per alcuni ritardi deriva dalle procpietà dello stesso.

Da un lavoro di Box & Pierce, la funzione di autocorrelazione presenta una varianza ben approssimata da 1/T.

La verifica della significatività del singolo coefficiente di autocorrelazione può essere effettuata costruendo bande di confidenza al 95% attorno al valore zero, pari approssimativamente a \pm {{1,96} \mathord{\left/{\vphantom {{1,96} {\sqrt T }}} \right. \kern-\nulldelimiterspace} {\sqrt T }}.

Riconoscere la forma di un processo (segue)

Si osserva la serie….

Si osserva la serie….


Riconoscere la forma di un processo (segue)

Si traccia il correlogramma e si valuta il suo “suggerimento”.

Si traccia il correlogramma e si valuta il suo “suggerimento”.


Riconoscere la forma di un processo (segue)

Si stima il processo.

Si stima il processo.


Riconoscere la forma di un processo (segue)

Si valutano le condizioni di stazionarietà (in questo caso), e la significatività dei coefficienti.

Si valutano le condizioni di stazionarietà (in questo caso), e la significatività dei coefficienti.


Riconoscere la forma di un processo (segue)

A questo punto si valutano i residui attraverso la stima della loro autocorrelazione.

Si può far ricorso all’esame del correlogramma dei residui valutando sia la significatività del singolo coefficiente di autocorrelazione \left( {H_0 :\hat \rho _t = 0,{\rm }t = 1,{\rm }2,{\rm }...} \right), sia la significatività di un gruppo di coefficienti \left( {H_0 :\hat \rho _1 = \hat \rho _2 = ... = \hat \rho _s = 0} \right).

Riguardo al primo punto si procede esattamente come prima, ricordando che la varianza della funzione di autocorrelazione vale 1/T, mentre per il secondo punto si può far riferimento al test di Box-Pierce oppure al test di Ljung-Box.

Riconoscere la forma di un processo (segue)

Test di Box-Pierce: Q' = T\sum\limits_{k = 1}^m {\hat \rho _k^2 } {\rm }Q'\~\chi _{\left( {m - p - q - 1} \right)}^2

Test di Ljung-Box: Q = T\left( {T + 2} \right)\sum\limits_{k = 1}^m {\left( {T - k} \right)^{ - 1} \hat \rho _k^2 } {\rm }Q\~\chi _{\left( {m - p - q - 1} \right)}^2

Le due statistiche, che asintoticamente hanno la stessa distribuzione, differiscono per il diverso sistema di ponderazione adoperato. Si può dimostrare che la statistica Q ha una convergenza più rapida alla distribuzione asintotica, per cui in genere è maggiormente utilizzata.

Riconoscere la forma di un processo (segue)

Si visualizza il correlogramma dei residui.

Si visualizza il correlogramma dei residui.


Riconoscere la forma di un processo (segue)

Si valutano le opportune statistiche.

Si valutano le opportune statistiche.


Riconoscere la forma di un processo (segue)

L’analisi dei residui, effettuata attraverso la stima della funzione di autocorrelazione, è molto importante poiché consente:

  • di concludere l’analisi stessa qualora si accettasse l’ipotesi di residui white noise;
  • di orientare verso modelli alternativi rispetto a quello stimato qualora i residui rivelassero componenti aggiuntive AR oppure MA.

Riconoscere la forma di un processo (segue)

Supponiamo, ad esempio che \hat \varphi _p \left( B \right)Y_t = \hat \theta _q \left( B \right)\hat \varepsilon _t sia il modello ARMA(p,q) stimato per la serie Y_t. Supponiamo che l’analisi della correlazione dei residui suggerisca che \hat \varepsilon _t \sim ARMA(r,s), e cioè che \hat \varphi '_r \left( B \right)\hat \varepsilon _t = \hat \theta '_s \left( B \right)\hat a_t .

Il modello complessivo da identificare si risolve nel costruire un modello ARMA(p+r,q+s), tenendo conto di opportune cancellazioni tra operatori che si creano (se si è proceduto ad una errata identificazione).

Si può affermare che il ciclo identificazione-stima-verifica insegna sul modello più conveniente anche nella situazione di una identificazione preliminare non corretta (Piccolo & Vitale, 1984).

Riconoscere la forma di un processo (segue)

Può accadere che specificazioni alternative di modelli ARMA conducano alla stessa conclusione circa la valutazione dei residui.

Una porcedura di scelta si basa sull’utilizzo dei cosiddetti criteri informativi.

La logica sottostante i criteri informativi è:
ogni qual volta si inseriscono nuove variabili esplicative nella specificazione di un modello, la varianza residua decresce automaticamente. Ci si chiede se il guadagno in varianza è superiore al costo dovuto all’incremento di parametri da stimare.

Riconoscere la forma di un processo (segue)

Criterio Informativo di Akaike (AIC)
AIC = \ln \left( {\frac{{\sum\limits_{t = 1}^T {\hat \varepsilon _t^2 } }}{T}} \right) + \frac{{2\left( {p + q} \right)}}{T}

Criterio Informativo di Schwartz (SIC)

SIC = \ln \left( {\frac{{\sum\limits_{t = 1}^T {\hat \varepsilon _t^2 } }}{T}} \right) + \frac{{\left( {p + q} \right)}}{T}\ln \left( T \right)

Criterio Informativo di Hannan-Quinn (HQC)
HQC = \ln \left( {\frac{{\sum\limits_{t = 1}^T {\hat \varepsilon _t^2 } }}{T}} \right) + \frac{{2\left( {p + q} \right)}}{T}\ln \left( {\ln \left( T \right)} \right)

Una volta scelto un criterio informativo, si sceglie il modello che restituisce l’indice più basso. È importante sottolineare che i criteri non sono confrontabili tra di loro. In genere l’indice AIC tende a preferire una sovraparametrizzazione dei modelli.

Riconoscere la forma di un processo (segue)

La medesima serie storica è stata modellizzata stimando un processo ARMA(1,0) e poi un processo ARMA(2,1). Entrambi i processi stimati sono risultati essere accettabili.

In questo caso tutti i criteri informativi sono più bassi per il primo modello stimato. In virtù del principio della parsimonia si propende per un processo ARMA(1,0).

Stima di un processo ARMA(1,0)

Stima di un processo ARMA(1,0)

Stima di un processo ARMA(2,1)

Stima di un processo ARMA(2,1)


Nella prossima lezione…

  • Analisi dei rendimenti (parte terza)
  • Radici unitarie: test DF
  • Radici Unitarie: test ADF
  • Previsione
  • Contenuti protetti da Creative Commons
  • Feed RSS
  • Condividi su FriendFeed
  • Condividi su Facebook
  • Segnala su Twitter
  • Condividi su LinkedIn
Progetto "Campus Virtuale" dell'Università degli Studi di Napoli Federico II, realizzato con il cofinanziamento dell'Unione europea. Asse V - Società dell'informazione - Obiettivo Operativo 5.1 e-Government ed e-Inclusion