Un processo stocastico è una famiglia di variabili casuali descritte da un parametro
appartenente ad un insieme parametrico
.
Il parametro sarà il tempo, mentre lo spazio parametrico
lo supponiamo discreto.
Più formalmente, dato lo spazio parametrico e dato uno spazio di probabilità
in cui rappresenta lo spazio degli eventi,
una
-algebra su
e
è una misura di probabilità, un processo stocastico è una funzione finita e a valori reali di
e di
tale che per ogni
è una funzione misurabile di
.
Si ha allora che:
P.s. D’ora in poi, .
Per serie storica (), alla luce di quanto definito sinora, si intende una parte finita di un processo stocastico
.
Tale definizione, coerente con quella “usuale” (successione ordinata di valori secondo una variabile ), qualifica in senso probabilistico la natura dei problemi che debbono essere affrontati attraverso la sua analisi.
Ad esempio, (da Piccolo & Vitale, 1984) qual è la probabilità che la v.c. assuma un valore compreso tra
e
se su di essa si hanno informazioni desunte dall’insieme di v.c.
?
I processi stocastici sono in grado di generare serie storiche di lunghezza infinita. Si impone la necessità di riassumere le loro principali proprietà attraverso poche grandezze caratteristiche.
Si potrebbe:
oppure
Delle due strade, si percorre la seconda poichè, anche se in teoria i momenti teorici sono infiniti in numero, in pratica se ne utilizzano pochi: il momento primo e i momenti di secondo ordine.
Il momento di primo ordine è, come è noto, il valore medio del processo:
Nel caso generale, il valore atteso risulta essere funzione di .
Il momento del secondo ordine è la varianza del processo:
Nel caso generale, anche la varianza teorica risulta essere funzione di .
La autocovarianza è, nella terminologia delle serie storiche, la covarianza calcolata non tra due grandezze diverse, ma in riferimento alla medesima grandezza riferita a due istanti diversi
, e
;
In generale essa è funzione di , o meglio è funzione degli istanti considerati
e
.
Ovviamente, l’autocovarianza calcolata nel medesimo istante coincide con la varianza.
La autocovarianza misura il segno e la forza del legame esistente tra . Tuttavia tale grandezza varia in tutto il campo reale e è dipendente da cambiamenti di scala del processo. Si introduce pertanto la funzione di autocorrelazione (ACF):
Rappresentando il coefficiente di correlazione lineare tra , l’autocorrelazione è sempre compresa tra -1 e 1.
Le relazioni considerate fin’ora risultano funzioni di . Tale aspetto costituisce un ostacolo che si può aggirare introducendo l’ipotesi di stazionarietà, vale a dire la indipendenza dei momenti dal tempo.
Questo non vuol dire che i processi stazionari e le loro realizzazioni siano costanti, ma che la distribuzione di probabilità dei processi o taluni valori medi delle loro realizzazioni presentano formulazioni analitiche che non dipendono da .
Le serie generate da tali processi presenteranno quindi una omogeneità temporale di natura stocastica (Piccolo & Vitale, 1984).
Un processo stocastico si definisce stazionario in senso forte se tutti i suoi momenti (se esistono) non sono funzione di .
Un processo stocastico si dice stazionario in senso debole se i suoi momenti di ordine non sono funzione di
.
La stazionarietà debole è la condizione che in pratica è richiesta, ponendo .
Un processo stocastico è stazionario in senso debole se:
Inoltre, la distribuzione congiunta di e
dipende dalla distanza
tra
e
ma non dai loro valori effettivi.
Considerando quindi il lag , si ha
E la funzione di autocorrelazione diviene
Accanto alla funzione di autocorrelazione (ACF), che prende il nome di funzione di autocorrelazione totale, si definisce la funzione di autocorrelazione parziale teorica (PACF) di un processo stocastico.
Il significato della PACF è lo stesso del coefficiente di correlazione parziale noto dalla regressione multipla: un coefficiente di autocorrelazione parziale misura la correlazione tra (ad esempio) e
al netto della correlazione esistente tra
e
.
Nel caso di un processo stocastico stazionario, i coefficienti di autocorrelazione parziale sono espressi da
, in cui
e
è la matrice dei coefficienti di autocorrelazione totale, mentre
è la stessa matrice, in cui la ultima colonna è sostituita dai coefficienti
.
La stazionarietà in senso forte implica la stazionarietà in senso debole (quando esistono i momenti fino al secondo ordine), ma non è vero il contrario. La stazionarietà in senso debole implica l’esistenza dei momenti fino al secondo ordine.
La sola conoscenza dei momenti fino al secondo ordine specifica completamente una intera classe di processi stocastici: se la distribuzione congiunta di segue una distribuzione normale multivariata per tutti i valori di
, allora la stazionarietà debole implica quella forte poiché la distribuzione normale multivariata è caratterizzata completamente dai primi due momenti.
L’ipotesi di invertibilità è stata introdotta per evitare la “molteplicità” di modelli.
Dato un processo stazionario è possibile calcolare in modo univoco la sua funzione di autocovarianza e la funzione di autocorrelazione.
Data una funzione di autocovarianza, è unico il processo stazionario che l’ha generata?
Se oltre ad essere stazionario il processo è anche invertibile, allora la risposta è positiva.
1. Richiami ai processi stocastici
4. Analisi dei rendimenti – Parte prima
5. Analisi dei rendimenti – Parte seconda
6. Analisi dei rendimenti - Parte terza
7. Analisi della volatilità - Parte prima
8. Analisi della volatilità - Parte seconda
9. Analisi della volatilità - Parte terza
10. Analisi della volatilità - Parte quarta
11. Analisi della volatilità - Parte quinta
12. Analisi della volatilità - Parte sesta