I modelli GARCH (Generalized AutoRegressive Conditional Heteroskedasticity) rappresentano una generalizzazione del modello ARCH, esattamente come i modelli ARMA sono una generalizzazione dei modelli AR.
La varianza condizionata dipende, oltre che da valori passati del quadrato delle innovazioni, anche da valori passati della varianza condizionata stessa.
Lo scopo è quello di rendere la stima della varianza condizionata più parsimoniosa in termini di parametri da stimare. Nella maggior parte delle applicazioni infatti raramente si va oltre la stima di un GARCH(1,1).
Il modello GARCH(p,q) è esprimibile nel modo seguente:
in cui B è l’operatore ritardo, quindi [α(B) {β(B)}=α1B {β1B}+ α2B2 { β2B2}+...+ αpBp {βq Bq} ].
Ci si riferisce a come ai termini ARCH, mentre a come ai termini GARCH.
In generale, un modello GARCH(p,q) sulla serie dei rendimenti è esprimibile come un modello ARMA sulla serie delle innovazioni al quadrato:
che è in effetti un modello ARMA(max(p,q),q), ricordando che .
Se la serie dei rendimenti è esprimibile attraverso un modello GARCH(1,1), allora i rendimenti al quadrato seguono un processo ARMA(1,1). Riprendendo quanto osservato nelle precedenti lezioni, sappiamo che
Da cui .
Allora abbiamo che:
La varianza non condizionata di un GARCH(1,1) è pari a
Questo implica che:
ω > 0
0< α1+β1 < 1
Inoltre deve essere che _1 ≥ 0, _1 ≥ 0
Ancora, poiché (α1+β1) è la radice della parte autoregressiva della rappresentazione ARMA(1,1) del modello GARCH(1,1), la condizione 0< α1+β1 < 1 è necessaria anche per la stazionarietà del processo ARMA.
In generale, per un GARCH(p,q), la varianza non condizionata vale
Il che implica che le condizioni sono:
ω> 0
αi ≥ 0
βj ≥ 0
Un modello GARCH è più parsimonioso rispetto ad un modello ARCH perché un modello GARCH(1,1) costituisce una approssimazione di un modello ARCH(p), con p elevato. Infatti un modello GARCH(1,1) può essere riscritto come un modello ARCH(∞).
Partendo infatti da e procedendo per sostituzioni successive, si ha:
E poi ancora
Fino a
Cioè, un ARCH(∞) con coefficienti geometricamente decrescenti
Poiché
Allora e segue che .
Per la stima dei parametri si può quindi utilizzare il metodo della massima verosimiglianza condizionata
,
in cui
è l’elemento della funzione di verosimiglianza condizionata al tempo t. Poiché al tempo t=1 bisogna utilizzare un valore rt=r0 per l’inizializzazione del procedimento, la produttoria parte dal tempo t = 2. Poiché, ancora, al tempo t = 2 si ha dipendenza da h1, anche tale grandezza va inizializzata e, di norma, si pone pari ad una stima della varianza non condizionata delle innovazioni. La funzione di verosimiglianza dipende, quindi, anche da σ2.
Si effettua la trasformazione logaritmica della funzione di verosimiglianza, e quindi la stima di massima verosimiglianza è quella per la quale
in cui θ indica sinteticamente i parametri da stimare.
La massimizzazione della funzione avviene per via numerica attraverso metodi iterativi.
Rispetto alla stima dei parametri di un processo ARMA, la convergenza avviene in maniera più complicata poiché bisogna tener conto dei vincoli che si impongono sui parametri (ad esempio, α+β<1, ecc.).
1. Richiami ai processi stocastici
4. Analisi dei rendimenti – Parte prima
5. Analisi dei rendimenti – Parte seconda
6. Analisi dei rendimenti - Parte terza
7. Analisi della volatilità - Parte prima
8. Analisi della volatilità - Parte seconda
9. Analisi della volatilità - Parte terza
10. Analisi della volatilità - Parte quarta
11. Analisi della volatilità - Parte quinta
12. Analisi della volatilità - Parte sesta