La probabilità del prodotto di due eventi è uguale al prodotto della probabilità di uno degli eventi per la probabilità condizionata dell’altro purché il primo abbia avuto luogo.
La probabilità che si verifichi almeno uno di due eventi qualsiasi A e B, la probabilità dell’unione di A e B, è pari alla somma delle singole probabilità P(A) e P(B) diminuita della probabilità della loro intersezione.
Quando si calcola la probabilità condizionata si utilizza l’informazione circa il verificarsi di un evento per determinare la probabilità che un altro evento si verifichi. Un’estensione di tale concetto permette di aggiornare una probabilità sulla base di nuove informazioni e di calcolare la probabilità che un certo effetto sia il risultato di una particolare causa. Tale procedura va sotto il nome di teorema di Bayes.
Funzione d’insieme a valori reali che associa ad ogni evento un numero reale: X(E): Ω→R
Es. Nella prova “lancio di un dado” che genera gli eventi elementari : E1, E2, E3, E4, E5, E6 è immediato definire la variabile casuale X che associa ad ogni faccia il numero xi dei punti che essa presenta. In tal caso xi = 1, 2, 3, 4, 5, 6.
Ω discreto -> V.C. discreta
Ω continuo -> V.C. discreta o continua
X assume i valori {x1, x2,…,xn} o un insieme illimitato {x1, x2,…} (es. lancio di una moneta, lancio di un dado,…)
La probabilità che X assuma valore xi si indica con pi -> pi= P(X=xi)
Una variabile casuale discreta è definita se è nota la sua distribuzione di probabilità.
X può assumere tutti gli infiniti valori in un certo intervallo (a, b) o (-∞, +∞)
La probabilità che X assuma un certo valore x è pari a 0 o P(X=x) = 0.
Per descrivere la probabilità si usa una funzione f(x): Funzione di densità
La distribuzione di probabilità di una variabile casuale, X, scritta come p(x), indica la probabilità della variabile casuale per ciascuno dei suoi valori possibili.
Una funzione di densità, f (x), è una curva della probabilità, regolare (senza angoli, smussata) che rappresenta la distribuzione f (x) di probabilità di una variabile casuale continua.
Data una v.c. continua X, la funzione che fa corrispondere ai valori x le probabilità cumulate P(X_ x) viene detta funzione di ripartizione.
Il valore atteso di una variabile continua X è definito come: (analogo della media aritmetica).
E(aX+bY) = aE(X) + bE(Y)
Var(aX+bY) = a2Var(X) + b2Var(Y) + 2abCov(X,Y)
Se X e Y sono indipendenti
cov(X,Y) = 0
Var(aX+bY) = a2Var(X) + b2Var(Y)
Data una coppia di variabili casuali (X,Y) e data una combinazione lineare aX+bY
1. Un'introduzione alla Statistica
2. Le variabili: sintesi e rappresentazioni grafiche
3. Esercitazione. Le variabili: sintesi e rappresentazioni grafich...
4. Indici di tendenza centrale
5. Proprietà della media aritmetica e altri indici di posizione
6. Esercitazione. Indici di tendenza centrale
8. Ulteriori indici di variabilità
9. ESERCITAZIONE - Indici di variabilità
10. Mutua variabilità e Concentrazione
11. Studio della forma della distribuzione
12. ESERCITAZIONE - Concentrazione e Forma di una distribuzione
13. L'associazione fra due variabili qualitative
14. L'associazione fra variabili quantitative
15. ESERCITAZIONE - L'associazione fra due variabili
16. Elementi di calcolo delle probabilità
17. Principali Teoremi del calcolo della probabilità
18. ESERCITAZIONE - Calcolo delle probabilità
19. Principali Teoremi del calcolo della Probabilità II - Le Varia...
20. Modelli per variabili causali discrete
21. ESERCITAZIONE - Le probabilità totali, il teorema di Bayes e l...