Vai alla Home Page About me Courseware Federica Living Library Federica Federica Podstudio Virtual Campus 3D La Corte in Rete
 
Il Corso Le lezioni del Corso La Cattedra
 
Materiali di approfondimento Risorse Web Il Podcast di questa lezione

Antonio D'Ambrosio » 4.Analisi dei rendimenti – Parte prima


In questa lezione…

  • Ergodicità: cenni
  • Distribuzione empirica dei rendimenti
  • Test di normalità
  • Stima dei parametri: richiami alla stima di massima verosimiglianza

Ergodicità

La funzione di autocorrelazione è una misura della struttura interna del processo stazionario Y_t, e la sua stima assume particolare interesse a partire da una realizzazione finita (la serie osservata).

Il problema è alquanto complicato poiché la serie osservata restituisce una informazione congiunta sulle v.c. Y_1, Y_2, ... ,Y_T ma non sul processo nella sua interezza. Tale complicazioni si ripercuotono sulla stima dei momenti e soprattutto sulle cosiddette funzioni-parametro (cioè, autocovarianza e autocorrelazione).

Ergodicità (segue)

In teoria la stima di \mu=E(Y_t) dovrebbe avvenire nel modo seguente:
si fissa t, si effettuano n estrazioni bernoulliane sulla v.c. Y_t ottenendo un campione casuale, e si stima il valor medio.
La stima del parametro dovrebbe avvenire mediando su campioni della stessa v.c. per t fissato, e così via.

Ovviamente, neanche volendo, ciò non è possibile poiché si possiede una e una sola realizzazione del fenomeno, peraltro irripetibile.
Però, dato che il processo è stazionario, le informazioni sulla singola realizzazione possiedono una certa stabilità nei legami temporali.

Ergodicità (segue)

Se il processo è stazionario, è quindi lecito attendersi che si possa pervenire ad informazioni sui parametri delle singole v.c. componenti il processo stesso. Si può allora definire il concetto di ergoticità.

Un processo stocastico Y_t è ergotico rispetto ad un parametro \eta se la stima temporale del parametro stesso, ottenuta da una serie storica, converge in media quadratica a quel parametro:
\mathop {\lim }\limits_{T \to \infty } E\left[ {\hat \eta \left( {Y_T } \right) - \eta } \right]^2 = 0

Solo per processi ergotici si può porre correttamente il problema dell’inferenza su serie storiche. Inoltre, condizione necessaria e sufficiente perché un processo sia ergotico rispetto al momento primo è che la sua ACF tenda a zero.
Ponendo vincoli sul momento quarto, si possono trovare condizioni analoghe rispetto alla autocovarianza.

Momenti Campionari

Media campionaria:
\bar Y = \frac{1}{T}\sum\limits_{t = 1}^T {Y_t }

Ponendo Z_t = Y_t - \bar Y, la varianza campionaria può essere vista come:

\hat \gamma _{(1)} _k = \frac{1}{T}\sum\limits_{t = 1}^T {Z_t Z_{t + k} }, solo se si pone  Z_{t + T} = Z_t per t>1 ;

\hat \gamma _{(2)k} = \frac{1}{{T - k}}\sum\limits_{t = 1}^{T - k} {Z_t Z_{t + k} } (si può dimostrare che è corretto);

\hat \gamma _{(3)k} = \frac{1}{T}\sum\limits_{t = 1}^{T - k} {Z_t Z_{t + k} } (si può dimostrare che possiede un errore quadratico medio minore).

Quale che sia lo stimatore utilizzato per l’autocovarianza (in pratica si preferisce utilizzare \hat \gamma _{(3)k}, l’autocorrelazione si stima tramite

\hat \rho _i (k) = \frac{{\hat \gamma _i (k)}}{{\hat \gamma _i (0)}}.

Analisi dei rendimenti

Problema: caratterizzare le proprietà del processo teorico ipotizzabile come generatore delle osservazioni dei rendimenti.

Abbiamo visto come i (logaritmi) dei prezzi seguano un processo random walk, la cui componente residuale sia rappresentata dal rendimento.

I rendimenti sono, quindi, realizzazioni di un processo white noise. Si tratta di un white noise gaussiano?

Test di normalità: test di Jarque e Bera

La statistica test del test di Jarrque e Bera* è la seguente:

JB = T\left[ {\frac{1}{6}\left( {\frac{1}{T}\sum\limits_{t = 1}^T {\left( {\frac{{r_t - \bar r}}{{s_r }}} \right)^3 } } \right)^2 + \frac{1}{{24}}\left( {\frac{1}{T}\sum\limits_{t = 1}^T {\left( {\frac{{r_t - \bar r}}{{s_r }}} \right)^4 - 3} } \right)^2 } \right]</p>
<p>  in cui

\bar r = T^{ - 1} \sum\limits_{t = 1}^T {r_t };
s_r = \sqrt {\left( {T - 1} \right)^{ - 1} \sum\limits_{t = 1}^T {\left( {r_t - \bar r} \right)^2 } };
\frac{1}{T}\sum\limits_{t = 1}^T {\left( {\frac{{r_t - \bar r}}{{s_r }}} \right)^3 }(indice di skewness);
\frac{1}{T}\sum\limits_{t = 1}^T {\left( {\frac{{r_t - \bar r}}{{s_r }}} \right)^4 }(indice di curtosi)

Inoltre, JB~\chi _{(2)}^2 .

* Il test di Jarque e Bera è noto anche come test di Bowman e Shenton. Una correzione della statistica test JB è stata apportata da Doornik e Hansen.

Test di normalità: test di Kolmogorov e Smirnov

KS_n = \sup \left| {F_n \left( r \right) - F_0 \left( r \right)} \right|per ogni r.

{F_n \left( r \right)} rappresenta la funzione di ripartizione empirica dei rendimenti mentre {F_0 \left( r \right)} è la funzione di ripartizione teorica della v.c. normale.

Se è vera H_0F_n \left( r \right) \overset{d}{\rightarrow} F_0 \left( r \right)KS_n presenterà un valore molto basso.

Si può dimostrare che la regione critica di ampiezza \alpha è definita da

KS_n \ge \sqrt { - \frac{1}{{2n}}\ln \left( {\frac{\alpha }{2}} \right)}<br />

Test di normalità: test di Shapiro-Wilks

W_n = \frac{{\left( {\sum\limits_{i = 1}^T {a_i r_i } } \right)^2 }}{{\left( {T - 1} \right)s_r^2 }}

in cui pesi a_i sono disponibili su apposite tavole per diversi valori di T. Se è vera  H_0, allora la statistica W_n dovrebbe essere prossima a 1.

Distribuzione empirica

Serie giornaliera dei rendimenti del titolo Autostrade dal 19/01/2001 al 16/5/2007 e relative statistiche descrittive.

Serie giornaliera dei rendimenti del titolo Autostrade dal 19/01/2001 al 16/5/2007 e relative statistiche descrittive.


Distribuzione empirica (segue)

Istogramma di frequenze della serie di rendimenti del titolo Autostrade  confrontato con la distribuzione Normale.

Istogramma di frequenze della serie di rendimenti del titolo Autostrade confrontato con la distribuzione Normale.


Distribuzione empirica (segue)

Stima non parametrica della funzione di densità dei rendimenti del titolo Autostrade attraverso un kernel gaussiano.

Stima non parametrica della funzione di densità dei rendimenti del titolo Autostrade attraverso un kernel gaussiano.


Struttura temporale dei rendimenti

La caratteristica saliente dei rendimenti è la deviazione dall’ipotesi di normalità (leggera asimmetria e distribuzione leptocurtica, cioè con curtosi maggiore di 3).

È molto probabile che i rendimenti siano generati da un white noise non gaussiano.

I processi stocastici studiati nella lezione 2 aiutano a comprendere la struttura temporale dei rendimenti.

Stima dei parametri

Le variabili casuali che definiscono il processo stocastico, ipotizzando una distribuzione gaussiana per r_t, hanno una funzione di densità di probabilità congiunta pari a

\begin{array}{l}<br />
f\left( {r_1 ,r_2 ,...,r_T |\theta } \right) = \prod\limits_{t = 1}^T {\left( {r_t |\theta } \right)} =\prod\limits_{t = 1}^T {\left( {\frac{1}{{\sqrt {2\pi \sigma ^2 } }}\exp \left[ { - \frac{1}{2}\frac{{\left( {r_t - \mu } \right)^2 }}{{\sigma ^2 }}} \right]} \right)} = \left( {2\pi \sigma ^2 } \right)^{ - \frac{T}{2}} \exp \left[ { - \frac{1}{2}\sum\limits_{t = 1}^T {\frac{{\left( {r_t - \mu } \right)^2 }}{{\sigma ^2 }}} } \right]

Stima dei parametri (segue)

Tale funzione di densità congiunta, condizionata alle realizzazioni di r_t nel campione osservato, è funzione solo di \theta e viene definita funzione di verosimiglianza

L\left( {\theta |r_1 ,r_2 ,...,r_T } \right) = \prod\limits_{r = 1}^T {\left( {r_t |\theta } \right)

che è alla base del metodo di stima della massima verosimiglianza.
Quest’ultimo consiste nel ricercare quei valori dei parametri incogniti che massimizzano la funzione di verosimiglianza.

Stima dei parametri (segue)

Generalmente si preferisce lavorare sul logaritmo della funzione di verosimiglianza per la procedura di massimizzazione, poiché la trasformata logaritmica non altera i punti di massimo e minimo di una funzione
\begin{array}{l}<br />
\mathop {\max }\limits_{\mu ,\sigma ^2 } L\left( {\theta |r_1 ,r_2 ,...,r_T } \right) = \mathop {\mathop {\max }\limits_{\mu ,\sigma ^2 } \ln L\left( {\theta |r_1 ,r_2 ,...,r_T } \right)}\limits_{} = \mathop {\max }\limits_{\mu ,\sigma ^2 } \left( { - \frac{T}{2}\ln \left( {2\pi \sigma ^2 } \right) - \frac{1}{2}\sum\limits_{t = 1}^T {\frac{{\left( {r_t - \mu } \right)^2 }}{{\sigma ^2 }}} } \right)

Nella prossima lezione…

  • Analisi dei rendimenti (parte seconda)
  • La stima di un processo AR(1)
  • La stima di un processo MA(1)
  • La stima di un processo ARMA
  • Riconoscere un processo stocastico
  • Contenuti protetti da Creative Commons
  • Feed RSS
  • Condividi su FriendFeed
  • Condividi su Facebook
  • Segnala su Twitter
  • Condividi su LinkedIn
Progetto "Campus Virtuale" dell'Università degli Studi di Napoli Federico II, realizzato con il cofinanziamento dell'Unione europea. Asse V - Società dell'informazione - Obiettivo Operativo 5.1 e-Government ed e-Inclusion

Fatal error: Call to undefined function federicaDebug() in /usr/local/apache/htdocs/html/footer.php on line 93