Consideriamo un processo AR(1):
Si può dire che i termini sono i.i.d., ma
. Tuttavia, sono considerate i.i.d. le differenze tra
e il suo valore atteso condizionato al tempo precedente:
Per , la funzione di densità di
condizionata a tutti i periodi precedenti è pari alla funzione di densità di
mentre per
si ha che
;
Se i termini sono distribuiti normalmente, allora si può definire la funzione di log-verosimiglianza condizionata a
:
con , che produce le seguenti stime per i parametri
Da notare che la stima del coefficiente corrisponde alla stima dei minimi quadrati della regressione di
su
.
Consideriamo un processo MA(1):
Analogamente al caso precedente si condiziona al valore (questa volta) di
.
In questo caso, però, il valore condizionante non è osservabile direttamente. Si può assumere che, al tempo t=0, , e sostituendo nell’espressione precedente si ha che
Si può definire la funzione di log-verosimiglianza in tal guisa
con .
In questo caso la condizione del primo ordine necessaria alla soluzione di massimo non permette la derivazione di un’espressione in forma chiusa per la stima di .
Occorre quindi utilizzare tecniche numeriche di ottimizzazione non lineari (essendo tali i parametri MA). Molto utilizzato è l’algoritmo di Marquardt così come modificato da Tunnicliffe e Wilson, che molto sinteticamente può essere definito come un algoritmo medio tra i noti metodi steepest descent e Newton-Raphson.
Una volta identificati gli ordini p e q (vedi slide successive) del modello ARMA, la procedura di stima è una generalizzazione di quanto visto sinteticamente fin’ora.
Per l’individuazione della funzione di verosimiglianza in generale bisogna risolvere alcuni problemi.
Il carattere ricorsivo delle relazioni tra e
implica la perdita delle informazioni iniziali per cui è necessaria una loro ricostruzione, denominata di back-forecasting.
Oppure si pongono tali valori pari a zero (come abbiamo appena visto) ottenendo stime condizionate.
Oppure si può ottenere, attraverso metodi introdotti recentemente, la verosimiglianza esatta per un processo ARMA Gaussiano, stazionario e invertibile.
Schema sintetico delle fasi di riconoscimento di un processo stocastico. Schema tratto da Piccolo D., Vitale C. Metodi statistici per l'analisi economica, il Mulino, 1984
L’osservazione della funzione di autocorrelazione di una serie è il primo passo per l’identificazione di un processo, in quanto la sua eguaglianza a zero per alcuni ritardi deriva dalle procpietà dello stesso.
Da un lavoro di Box & Pierce, la funzione di autocorrelazione presenta una varianza ben approssimata da 1/T.
La verifica della significatività del singolo coefficiente di autocorrelazione può essere effettuata costruendo bande di confidenza al 95% attorno al valore zero, pari approssimativamente a .
A questo punto si valutano i residui attraverso la stima della loro autocorrelazione.
Si può far ricorso all’esame del correlogramma dei residui valutando sia la significatività del singolo coefficiente di autocorrelazione , sia la significatività di un gruppo di coefficienti
.
Riguardo al primo punto si procede esattamente come prima, ricordando che la varianza della funzione di autocorrelazione vale 1/T, mentre per il secondo punto si può far riferimento al test di Box-Pierce oppure al test di Ljung-Box.
Test di Box-Pierce:
Test di Ljung-Box:
Le due statistiche, che asintoticamente hanno la stessa distribuzione, differiscono per il diverso sistema di ponderazione adoperato. Si può dimostrare che la statistica Q ha una convergenza più rapida alla distribuzione asintotica, per cui in genere è maggiormente utilizzata.
L’analisi dei residui, effettuata attraverso la stima della funzione di autocorrelazione, è molto importante poiché consente:
Supponiamo, ad esempio che sia il modello ARMA(p,q) stimato per la serie
. Supponiamo che l’analisi della correlazione dei residui suggerisca che
, e cioè che
.
Il modello complessivo da identificare si risolve nel costruire un modello ARMA(p+r,q+s), tenendo conto di opportune cancellazioni tra operatori che si creano (se si è proceduto ad una errata identificazione).
Si può affermare che il ciclo identificazione-stima-verifica insegna sul modello più conveniente anche nella situazione di una identificazione preliminare non corretta (Piccolo & Vitale, 1984).
Può accadere che specificazioni alternative di modelli ARMA conducano alla stessa conclusione circa la valutazione dei residui.
Una porcedura di scelta si basa sull’utilizzo dei cosiddetti criteri informativi.
La logica sottostante i criteri informativi è:
ogni qual volta si inseriscono nuove variabili esplicative nella specificazione di un modello, la varianza residua decresce automaticamente. Ci si chiede se il guadagno in varianza è superiore al costo dovuto all’incremento di parametri da stimare.
Criterio Informativo di Akaike (AIC)
Criterio Informativo di Schwartz (SIC)
Criterio Informativo di Hannan-Quinn (HQC)
Una volta scelto un criterio informativo, si sceglie il modello che restituisce l’indice più basso. È importante sottolineare che i criteri non sono confrontabili tra di loro. In genere l’indice AIC tende a preferire una sovraparametrizzazione dei modelli.
La medesima serie storica è stata modellizzata stimando un processo ARMA(1,0) e poi un processo ARMA(2,1). Entrambi i processi stimati sono risultati essere accettabili.
In questo caso tutti i criteri informativi sono più bassi per il primo modello stimato. In virtù del principio della parsimonia si propende per un processo ARMA(1,0).
1. Richiami ai processi stocastici
4. Analisi dei rendimenti – Parte prima
5. Analisi dei rendimenti – Parte seconda
6. Analisi dei rendimenti - Parte terza
7. Analisi della volatilità - Parte prima
8. Analisi della volatilità - Parte seconda
9. Analisi della volatilità - Parte terza
10. Analisi della volatilità - Parte quarta
11. Analisi della volatilità - Parte quinta
12. Analisi della volatilità - Parte sesta