Vai alla Home Page About me Courseware Federica Living Library Federica Federica Podstudio Virtual Campus 3D Le Miniguide all'orientamento Gli eBook di Federica La Corte in Rete
 
 
Il Corso Le lezioni del Corso La Cattedra
 
Materiali di approfondimento Risorse Web Il Podcast di questa lezione

Antonio D'Ambrosio » 6.Analisi dei rendimenti - Parte terza


In questa lezione

Analisi dei rendimenti

  • Radici unitarie: test DF;
  • Radici Unitarie: test ADF;
  • Previsione.

Test di radici unitarie: test DF

Test DF

Il processo AR(1) p_t = \left( \delta \right) + \phi _1 p_{t - 1} + \varepsilon _t è stazionario se il coefficiente è, in valore assoluto, inferiore ad uno.
Nel caso in cui il coefficiente fosse proprio pari ad uno, sappiamo che descrive un processo random walk.

Quindi si può procedere alla costruzione di un test del tipo

\begin{array}{l}H_0 :\varphi _1 = 1 \\H_1 :\left| {\varphi _1 } \right| < 1 \\\end{array}

Test DF

Problema: il test non può essere effettuato ricorrendo agli usuali strumenti poiché, in presenza di radice unitaria, la statistica t non possiede la distribuzione limite t di Student.

Dickey e Fuller hanno dimostrato che sotto l’ipotesi nulla la distribuzione della statistica test t non è di tipo standard, e dipende anche dalle assunzioni che vengono fatte sui termini deterministici del processo.

Si distinguono i seguenti processi random walk:

Random walk “normale”: p_t = p_{t - 1} + \varepsilon _t ;

Random walk con “drift”: p_t = \delta + p_{t - 1} + \varepsilon _t ;

Random walk con drift e trend deterministico: p_t = \delta + \beta _t + p_{t - 1} + \varepsilon _t

Test DF (segue)

Tralasciando il terzo caso, a priori non interessante per serie storiche finanziarie, operativamente per eseguire il test DF si riparametrizza l’espressione del processo in questi termini:

p_t - p_{t - 1} = \delta + \left( {\phi _1 - 1} \right)p_{t - 1} + \varepsilon _t = \delta + \gamma p_{t - 1} + \varepsilon _t

e le ipotesi nulle per i coefficienti sono:

\delta = 0,{\rm }\gamma = 0{\rm } \to {\rm random~~ walk ~~\text{"normale"} } ;

\delta \ne 0,{\rm }\gamma = 0{\rm } \to {\rm random ~~walk~~ con~~ drift} .

Si distinguono i seguenti casi:

1. p_t = p_{t - 1} + \varepsilon _t , \text{mentre~~ consideriamo}~~ p_t = \varphi _1 p_{t - 1} + \varepsilon _t :

La statistica test t ha distribuzione asintotica non standard, con valori critici più bassi rispetto ad una v.c. t di Student.

Test DF (segue)

2. p_t = p_{t - 1} + \varepsilon _t ,~~ \text {mentre~~ consideriamo} ~~p_t = \delta +\varphi _1 p_{t - 1} + \varepsilon _t :

La statistica test t ha distribuzione asintotica non standard, con valori critici più bassi rispetto ad una v.c. t di Student ed anche rispetto al caso 1.

3. p_t =\delta + p_{t - 1} + \varepsilon _t,\text{ mentre ~~consideriamo}~~p_t = \delta +\varphi _1 p_{t - 1} + \varepsilon _t:

La statistica test t ha distribuzione asintotica normale standardizzata.

Test ADF

Se il processo delle innovazioni è non indipendente (ad esempio un AR(p)), il test DF è scarsamente potente. Se si prende in considerazione l’eventualità che p_t = p_{t - 1} + \varepsilon _t con \varepsilon_t~ARMA(p,q), allora il test DF può essere modificato.
Il processo per p_t sarebbe un ARIMA(p,1,q).

Anche in presenza di radice unitaria, un processo ARIMA(p,1,q) può essere espresso come un processo ARIMA(n,1,0). In tal modo, il test ADF è una riproposizione del test DF (random walk “normale”) in cui l’equazione è:
\varepsilon _t = \gamma p_{t - 1} + \varphi _1 \varepsilon _{t - 1} + ... + \varphi _n \varepsilon _{t - n} + a_t,

per cui H_0 :\gamma = 0;{\rm }H_1 :\gamma < 0 .

Bisogna specificare il numero n di ritardi: una indicazione è che questo sia inferiore a T^{1/3}.

Previsione

Una variabile è predicibile se la sua distribuzione condizionata a I_T è diversa dalla distribuzione non condizionata.
F\left( {r_{t + \tau } |I_t } \right) \ne F\left( {r_{t + \tau } } \right)

In genere, se \hat r_{t + \tau } è la previsione fornita da un previsore (leggi v.c.) per r_{t+\tau} per \tau periodi in avanti, questo deve essere una qualche funzione del passato. Si sceglie una funzione che minimizzi una specificata funzione di perdita, in genere connessa all’errore di previsione, tale per cui quest’ultimo abbia valore atteso nullo e varianza minima.

Si può dimostrare che la funzione che risponde a questi requisiti è il valore atteso condizionato.

Previsione (segue)

Il problema della previsione (in questo caso, prendendo in considerazione un processo AR) può quindi essere impostato come la valutazione del valore atteso condizionato di r_{T+\tau}, con \tau>0, avendo a disposizione informazioni sino al tempo T.

Indichiamo con I_T l’insieme informativo sino al tempo T, con T l’origine della previsione, e con \tau l’orizzonte di previsione.

E\left( {r_{T + \tau } |I_T } \right) = E\left( {\hat \varphi _1 r_{T + \tau - 1} |I_T } \right) + E\left( {\varepsilon _{T + \tau } |I_T } \right) = \hat \varphi _1 E\left( {r_{T + \tau - 1} |I_T } \right)

Previsione (segue)

La differenza tra le previsioni ottenibili da un processo AR(p) e un processo MA(q) per un orizzonte di previsione pari a \tau consiste nel fatto che le prime decrescono esponenzialmente a partire dall’origine di previsione, mentre le seconde diventano pari a zero dal primo periodo per cui \tau > q .
(Da notare la coerenza con le ACF dei due processi… )

In genere se Y_t \simARMA(p,q)si avrà che:

Y_{T + \tau } = \sum\limits_{i = 1}^p {\varphi _i Y_{T + \tau - i} - \sum\limits_{i = 1}^q {\theta _i \varepsilon _{T + \tau - i} } + } \varepsilon _{T + \tau } {\rm per }\tau \ge 1

Da cui discende che…

Previsione (segue)

… da cui discende che

E\left( {Y_{T + \tau } |I_T } \right) = \sum\limits_{i = 1}^p {\varphi _i E\left( {Y_{T + \tau - i} |I_T } \right) - } \sum\limits_{i = 1}^q {\theta _i E\left( {\varepsilon _{T + \tau - i} |I_T } \right)}

per cui è possibile calcolare una relazione ricorrente per il previsore di YT tenendo conto che

E\left( {Y_{T + \tau - i} |I_T } \right) = \left\{ {\begin{array}{*{20}c}{Y_{T + \tau - i} {\rm ~se ~}i \ge \tau } \\{\hat Y_{T + \tau - i} {\rm ~se~ }i < \tau } \\ \end{array}} \right.

E\left( {\varepsilon _{T + \tau - i} |I_T } \right) = \left\{ {\begin{array}{*{20}c} {\varepsilon _{T + \tau - i} {\rm~ se~ }i \ge \tau } \\ {0{\rm ~se~ }i < \tau } \\ \end{array}} \right.

Previsione (segue)

E’ bene specificare che si assume che:

  • il modello è stato correttamente identificato;
  • i parametri sono noti esattamente.

Si definisce errore di previsione la differenza tra r_{T+\tau} e E (r_{t+\tau|I_T}).

Per un processo AR(1), si può verificare come, agendo in maniera ricorsiva, si arrivi alla previsione (modello senza costante):
\begin{array}{l} E\left( {r_{T + 1} |I_T } \right) = \hat \varphi _1 r_T ;{\rm }E\left( {r_{T + 2} |I_T } \right) = \hat \varphi _1 E\left( {r_{T + 1} |I_T } \right) = \hat \varphi _1^2 r_T ;... \\ E\left( {r_{T + \tau } |I_T } \right) = \hat \varphi _1 E\left( {r_{T + \tau - 1} |I_T } \right) = \hat \varphi _1^\tau r_T \\ \end{array}

Previsione (segue)

E’ facile vedere che, se l’orizzonte di previsione tende all’infinito, la previsione tende a zero (in generale,la previsione puntuale tende alla media non condizionata del processo AR(1)).

L’errore di previsione (per \tau =1) è definito come (tenendo conto della seconda assunzione precedentemente esposta):

e_{T + 1} = r_{T + 1} - E\left( {r_{T + 1} |I_T } \right) = \varepsilon _{T + 1}

Per cui il valore atteso è pari a zero e la varianza è pari a \sigma _\varepsilon ^2.

Per l’orizzonte di previsione che tende all’infinito, si può mostrare che la varianza dell’errore di previsione tende alla varianza non condizionata del processo AR(1).
E’ possibile mostrare come questo valga per un generico processo AR(p) .

Previsione (segue)

Nel caso di un processo MA(1) si ha che

E\left( {r_{T + \tau } |I_T } \right) = E\left( {\varepsilon _{T + \tau } } \right) + \hat \theta _1 E\left( {\varepsilon _{T + \tau - 1} |I_T } \right)

Se \tau >1, il valore atteso condizionato è pari a zero perché qualunque innovazione futura ha media zero, mentre se \tau = 1 si ha che E\left( {r_{T + 1} |I_T } \right) = \hat \theta _1 \varepsilon _T .
In generale, il valore atteso condizionato per processi MA(q) è pari a zero se \tau>q (e quindi le previsioni saranno pari a zero per un orizzonte di previsione maggiore di q).
Si può mostrare come, per un orizzonte di previsione maggiore di q, valore atteso e varianza dell’errore di previsione coincidono con media e varianza incondizionata del processo MA(q).

Previsione (segue)

Previsione ex ante (dinamica): presuppone che l’informazione sia disponibile su un periodo campionario fisso da t = 1~~ a~~t = T e che l’orizzonte di previsione successivo ad esso.

Previsione ex post: si divide il campione in due sottocampioni, uno da t = 1 ~~a~~t = T sul quale si stima il modello, e l’altro da t = T+1~~a~~ T^* che permette di operare confronto tra previsione e realizzazioni.

Previsione statica (one step ahead forecast): viene utilizzato per la previsione il valore osservato un periodo prima rispetto all’orizzonte di previsione.

Previsione (segue)

Misure sintetiche per la valutazione della previsione:

Errore assoluto medio:
MAE = \frac{1}{{T* - T}}\sum\limits_{\tau = T + 1}^{T*} {\left| {r_\tau - \hat r_\tau } \right|};

Root mean squared error:
RMSE = \sqrt {\frac{1}{{T* - T}}\sum\limits_{\tau = T + 1}^{T*} {\left( {r_\tau - \hat r_\tau } \right)^2 } }

Indice di Theil:
THEIL = \frac{{\sqrt {\frac{1}{{T* - T}}\sum\limits_{\tau = T + 1}^{T*} {\left( {r_\tau - \hat r_\tau } \right)^2 } } }}{{\sqrt {\frac{1}{{T* - T}}\sum\limits_{\tau = T + 1}^{T*} {r_t^2 } } + \sqrt {\frac{1}{{T* - T}}\sum\limits_{\tau = T + 1}^{T*} {\hat r_t^2 } } }}.

Nella prossima lezione

  • Analisi della volatilità;
  • Introduzione;
  • Definizione e misure della volatilità;
  • Prime considerazioni.
  • Contenuti protetti da Creative Commons
  • Feed RSS
  • Condividi su FriendFeed
  • Condividi su Facebook
  • Segnala su Twitter
  • Condividi su LinkedIn
Progetto "Campus Virtuale" dell'Università degli Studi di Napoli Federico II, realizzato con il cofinanziamento dell'Unione europea. Asse V - Società dell'informazione - Obiettivo Operativo 5.1 e-Government ed e-Inclusion