Si introducono i concetti primitivi e la loro reciproca relazione:
“la Prova genera l’Evento con una certa Probabilità“
Prova: è un esperimento soggetto a incertezza e può suddividersi in sottoprove.
Evento: è uno dei possibili risultati della prova e costituisce un insieme di descrizioni circa i possibili risultati dell’esperimento.
L’insieme di tutti i risultati possibili di una prova prende il nome di Spazio Campionario e si indica con il simbolo Ω.
Tipologia di eventi
Algebra degli eventi
La Probabilità è un concetto che viene usato in molte discipline e che è ormai entrato a far parte del linguaggio corrente in quanto usualmente si devono prendere decisioni che, anche dopo aver esaminato le informazioni disponibili, vengono maturate in condizioni di incertezza.
Nonostante ciò è difficile dare un’interpretazione, e quindi una definizione, di probabilità che sia completamente soddisfacente ed esente da critiche.
Infatti la probabilità è un concetto primitivo, cioè originario per l’essere umano perché innato e sempre presente nelle sue regole di comportamento.
Nel seguito si illustreranno le definizioni di probabilità storicamente fornite dalle diverse scuole di pensiero: la scuola classica, la scuola frequentista e la scuola soggettivista.
Successivamente si tratterà poi la definizione assiomatica della probabilità.
Scuola Classica
La probabilità è il rapporto tra il numero dei casi favorevoli al verificarsi di un risultato e il numero totale dei possibili risultati, ammesso che questi siano egualmente possibili.
Questa definizione presuppone:
Alcune osservazioni critiche:
Scuola Frequentista
la probabilità è il limite della frequenza relativa di un evento ripetibile quando cresce, oltre ogni limite, il numero delle prove.
In altre parole la probabilità è pari alla frequenza relativa dei successi quando si ripete la prova all’infinito.
Questa definizione presuppone la ripetibilità della prova all’infinito nelle stesse condizioni.
Alcune osservazioni critiche: la prova non è sempre ripetibile per ragioni tecniche, economiche, ecc.
Scuola Soggettivista
la probabilità rappresenta il grado di fiducia che un individuo coerente attribuisce al presentarsi di un evento, ovvero, per quantificare, come la somma p che è disposto a scommettere quando, verificandosi l’evento, vince 1.
Per individuo coerente (o razionale) si intende un individuo che, nell’ottica di poter vincere 1, è disposto a scommettere una somma p non superiore a 1.
Inoltre egli scommetterà una cifra maggiore quanto più alta sarà la fiducia che l’evento si verifichi.
Alcune osservazioni critiche: tale definizione comporta l’individuazione di una misura di probabilità che, data una stessa prova, muta al variare dell’individuo considerato.
Lo studioso Kolmogorov propone una teoria della probabilità basata sulla individuazione di alcuni assiomi (o postulati) dai quali si dimostrano una serie di teoremi.
Un assioma è un’affermazione che non si dimostra in quanto principio di base universalmente accettato.
La teoria assiomatica si fonda su tre momenti fondamentali:
La definizione assiomatica ingloba gli elementi chiave della probabilità delineati nelle diverse scuole di pensiero.
Tali elementi trovano accoglienza negli assiomi della teoria di Kolmogorov.
La teoria assiomatica sposta l’attenzione dalla definizione del concetto di probabilità alla individuazione di una serie di affermazioni (assioni/postulati) universalmente accettati che caratterizzano la probabilità.
Ne deriva che:
«data una qualunque regola/meccanismo che genera numeri che rispettano i postulati, allora tali numeri possono considerarsi probabilità e il meccanismo che li genera un modello di probabilità.»
I) Positività
La Probabilità di un evento A è un numero unico maggiore o uguale di 0: P(A)≥0.
II) Certezza
La Probabilità dell’evento certo e quindi dello Spazio Campionario Ω è sempre 1: P(I)=P(Ω)=1.
(dove con “I” si indica un evento certo)
III) Unione
Siano A e B due eventi incompatibili,
allora la probabilità della loro unione è la somma delle singole probabilità di A e B.
NB.
Dal primo e secondo assioma si deduce che la probabilità di un evento A è sempre compresa tra 0 e 1.
Le relazioni dell’algebra degli eventi vengono illustrate su un piano mediante grafici caratteristici detti Diagrammi di Venn.
In questi diagrammi lo spazio campionario viene disegnato come un rettangolo all’interno del quale vengono posti insiemi chiusi che rappresentano gli eventi.
Non interessa l’esatto contorno, quanto piuttosto le mutue relazioni fra di essi e con lo spazio campionario.
I) Probabilità dell’evento impossibile
La probabilità dell’evento impossibile è pari a 0.
II) Probabilità dell’evento negazione
Dato un evento A, la probabilità dell’evento negazione di A è pari al complemento a 1 della probabilità di A.
III) Probabilità totali
Dati due eventi A e B, la probabilità dell’unione di A e B è pari alla somma delle singole probabilità dei due eventi meno la probabilità dell’intersezione.
Quest’ultimo teorema generalizza il concetto dell’unione per eventi compatibili.
Si definisce probabilità condizionata la probabilità di un evento B condizionata al verificarsi di un evento A.
P(B|A) “Probabilità dell’evento B dato che si è verificato l’evento A”
Teorema della probabilità condizionata
La probabilità condizionata dell’evento B dato A è pari al rapporto tra la probabilità dell’intersezione di A e B e la probabilità dell’evento A.
Probabilità condizionata
da cui deriva che la probabilità dell’intersezione è pari a:
Due eventi A e B si dicono stocasticamente indipendenti quando il verificarsi dell’uno non modifica la probabilità del verificarsi dell’altro evento.
Formalmente si definiscono indipendenti due eventi per cui:
P(A intersezione B)=P(A)*P(B);
oppure
P(B|A)=P(B);
Definizione di eventi indipendenti
Indipendenza Stocastica
Due eventi A e B sono Stocasticamente Indipendenti se
oppure
Il teorema di Bayes, proposto da Thomas Bayes nel 1763, deriva da due teoremi fondamentali quello delle probabilità condizionate e quello delle probabilità totali.
Il teorema, in presenza di una serie di eventi Hi ognuno caratterizzato da una probabilità (prob. a priori) e di evento E incluso nello spazio degli Hi (condizionato dagli eventi Hi con diverse probabilità, le verosimiglianze), consente di pervenire al calcolo delle probabilità a posteriori attraverso una particolare interpretazione del ruolo giocato dalle verosimiglianze e dalle prob. a priori.
In tempi recenti, grazie alla scuola soggettivista, si è sviluppato un importante filone della teoria delle decisioni che prende il nome di statistica bayesiana.
Per illustrare il teorema nel seguito si presenta un tipico esempio in cui trova applicazione la filosofia bayesiana.
Supponiamo che un medico sappia che un certo sintomo E (ad esempio una febbre altissima) possa essere l’effetto associato a tre possibili malattie: H1, H2, H3, con probabilità condizionate P(E|H1), P(E|H2), P(E|H3).
Queste probabilità esprimono rispettivamente le probabilità che si manifesti l’evento E (la febbre altissima) dato che il paziente abbia contratto la malattia H1 oppure H2 oppure H3. Esse sono anche dette verosomiglianze.
Si immagini che le verosomiglianze siano pari a: P(E|H1)=0,90, P(E|H2)=0,10 e P(E|H3) = 0,30
Nella formulazione della diagnosi di un paziente, il medico non può fermarsi alla valutazione di queste probabilità. Infatti se così facesse egli dovrebbe dedurre che il paziente che presenta sintomi E è sicuramente affetto dalla malattia H1 (in quanto, la verosomiglianza è più alta, coloro che sono affetti da H1 nel 90% dei casi presentano il sintomo E).
In realtà il medico deve anche considerare il fatto che le malattie hanno differenti probabilità di verificarsi (in considerazione del luogo in cui ci si trova, della rarità della patologia, ecc…). Una malattia come la malaria potrebbe essere molto frequente in Africa, ma la probabilità che ne sia affetto un paziente italiano risulta invece molto remota.
Quindi si immagini che le tre malattie abbiamo le seguenti probabilità di presentarsi nella popolazione di interesse: P(H1)= 0,03, P(H2) = 0,70 e P(H3) = 0,27
Esse prendono il nome di probabilità a priori.
Considerando ancora la patologia H1, essa risulta essere una malattia rara (solo il 3% dei casi). Per cui pur avendo una elevata verosomiglianza, il medico deve pesare questa misura rispetto alla probabilità che la malattia sia presente in un paziente.
Questa probabilità prende il nome di probabilità a posteriori ed è calcolata secondo la formulazione del Teorema di Bayes:
Per cui il medico propenderà per la diagnosi della patologia H3 che presenta la più alta probabilità condizionata alla presenza di un certo sintomo E!!!
Nella prossima lezione si affronteranno i seguenti argomenti:
2. Caratteri statistici e scale di misura
3. Sintesi tabellare e grafica di una distribuzione statistica
6. Forma di una distribuzione statistica
7. Distribuzioni doppie di frequenza
8. Relazioni tra variabili: associazione e dipendenza in media
9. Relazioni tra variabili: Correlazione lineare
10. Interpolazione statistica e Retta di regressione
11. Elementi di calcolo delle probabilità
12. Introduzione alle variabili casuali
13. Modelli per variabili casuali discrete di uso comune
14. Modelli per variabili casuali continue di uso comune
15. Introduzione alle serie storiche
16. Approccio classico: Modello di decomposizione di una serie storica