La curva normale fu concepita da De Moivre nel 1733, come un’approssimazione alla distribuzione binomiale. Nel 1783, Laplace utilizzò per la prima volta la curva normale per descrivere la distribuzione degli errori. Qualche anno più tardi (1809), il matematico tedesco Karl Friedrich Gauss la impiegò nell’analisi di dati astronomici.
Per questi motivi, la curva normale dovrebbe essere citata come distribuzione di Gauss-LaPlace.
La normale è la distribuzione statistica utilizzata, il suo consistente impiego è dovuto a due motivi principali:
Data una distribuzione di frequenza la cui media è 34,21, sull’asse delle ascisse (X) vengono collocate le categorie della variabile cardinale, sull’asse delle ordinate (Y) le frequenze corrispondenti a ciascun valore della variabile.
L’ipotetico istogramma individuato per ciascun valore, avrà altezza pari alla frequenza corrispondente.
Nell’esempio riportato, la distribuzione si comporta in modo “normale” infatti la curva cresce fino al valore corrispondente alla media (34,21) e poi decresce fino ad incontrare l’asse delle X.
“una distribuzione è simmetrica (rispetto alla mediana) se le modalità che sono equidistanti dalla mediana hanno la stessa frequenza”
(Leti, da Marradi, 1993, p.114).
Si parla di asimmetria positiva se la coda più lunga è a destra della media; in questo caso si notano molti valori con forti scarti positivi e pochi con scarti negativi.
La distribuzione presenta pochi dati con forti scarti positivi bilanciati da molti dati con deboli scarti negativi.
Caratteristiche:
1. In caso di asimmetria positiva l’indice di asimmetria assumerà segno positivo;
2. La moda è spostata verso l’estremo inferiore della distribuzione;
3. Scarti + > Scarti –
Si parla di asimmetria negativa se la coda più lunga si presenta a sinistra della media; ciò implica che il numero degli scarti negativi è maggiore del numero degli scarti positivi.
La distribuzione presenta pochi dati con forti scarti negativi bilanciati da molti dati con deboli scarti positivi.
Caratteristiche:
1. L’indice di asimmetria assumerà segno negativo;
2. la moda e’ spostata verso l’estremo superiore della distribuzione;
3. Scarti + < Scarti –
Se due distribuzioni hanno lo stesso scarto-tipo (s) ma media differente, le due curve corrispondenti assumeranno una posizione diversa. Infatti, al variare della media, la curva si sposta verso destra o verso sinistra.
Nello specifico, all’aumentare della media, la curva tende a spostarsi verso destra e, di conseguenza, aumentano gli scarti negativi rispetto a quelli positivi, e viceversa.
Date due distribuzioni con s uguale:
A partire da queste permesse sono stati individuati una serie di valori sintetici che non si basano sulla dispersione intorno alla media, ma sullo scarto tra media, moda, mediana normalizzato per lo scarto tipo o per il numero dei casi.
Sottraendo la mediana dalla media, se la distribuzione presenta una coda negativa, i dati con forti scarti negativi provocano una riduzione della media rispetto a quello della mediana; di conseguenza, lo scarto tra i due sarà negativo.
Se la distribuzione ha una coda positiva, i dati con forti scarti positivi fanno si che il valore della media sia maggiore di quello della mediana; l’indice assumerà segno positivo
Asimmetria negativa media < mediana Indice negativo
Asimmetria positiva media > mediana Indice positivo
In questo caso si sottrae alla media la moda e poi si normalizza la differenza per lo scarto tipo.
Utilizzare la moda al posto della mediana è poco opportuno soprattutto se la distribuzione non è campanulare.
Per ovviare agli inconvenienti dell’Indice di Pearson, Blalock (1960, 1984) propone un indice che normalizza la differenza tra media e mediana moltiplicata per 3 e lo rapporta allo scarto tipo.
Questo indice è dato dallo scarto tra la mediana e il midrange, normalizzato per lo scarto – tipo (s).
Ovvero
lo scarto tra il centro della distribuzione (midrange) se quest’ultima fosse simmetrica e il centro reale della distribuzione (mediana).
Non è sconsigliabile:
Rispetto agli altri indici tiene conto dei segni grazie all’elevazione al cubo e quindi pone in evidenza la differenza tra gli scarti negativi e quelli positivi. Inoltre, massimizza (evidenzia) gli scarti più forti.
Non è un indice relativo: può assumere valori superiori a +1 ed inferiori a -1.
Se una distribuzione è asimmetrica la media sarà SEMPRE collocata tra mediana e midrange.
La curtosi [kurtose] misura il grado di appiattimento, cioè misura la concentrazione/dispersione dei dati attorno al valore centrale, la media aritmetica.
s = 0 distribuzione mesocurtica/normale;
s < 0 distribuzione platicurtica/iponormale: la forma è appiattita con valori maggiormente concentrati nelle code;
s > 0 distribuzione leptocurtica/iponormale: la forma è allungata con un picco accentuato dato dalla concentrazione dei dati intorno al valore massimo.
Nella formula di Fischer:
Distruzioni leptocurtiche curtosi > 0
Distruzioni mesocurtiche curtosi = 0
Distruzioni platicurtiche curtosi < 0
2. Metodo scientifico e ricerca sociale
3. Le fasi della ricerca sociale
4. Tipi di proprietà e tipi di variabili
5. Le variabili
7. Esercitazione: le variabili
8. L'autonomia semantica delle categorie di risposta
9. Introduzione all'analisi delle variabili
10. L'analisi dei dati con variabili categoriali non ordinate
11. Introduzione all'analisi delle distribuzioni di dati con variab...
12. L'analisi dei dati con variabili categoriali ordinate
13. Introduzione all'analisi dei dati con variabili cardinali
14. L'analisi dei dati con variabili cardinali
15. Lo studio della concentrazione di una variabile cardinale trasf...
16. La curva normale
17. Trasformazioni delle variabili: standardizzazione e deflazione
18. La trasformazione delle variabili
19. Rapporti statistici, serie storiche e territoriali
22. La relazione tra due variabili dicotomiche
23. La relazione tra due variabili con categorie non ordinate - pri...
24. La relazione tra due variabili con categorie non ordinate - sec...
25. Relazione tra una variabile categoriale e una cardinale
26. Il diagramma di dispersione
27. Introduzione all'analisi della relazione tra due variabili card...
28. La relazione tra due variabili cardinali
29. Introduzione all'analisi trivariata
30. Esercitazione: tipi di variabili
Addeo F., È normale la curva normale?, Roma, Bonanno, 2008.
Gauss C.F. tr. Arthur A. Clarke: Disquisitiones Aritmeticae, Yale University Press, 1965.
Marradi A., L'analisi monovariata, Milano, Franco Angeli, 1995.