analisi della varianza (ANOVA  I)

a un CRITERIO di classificazione

E CONFRONTI TRA PIU’ MEDIE

 

 

Nella ricerca sperimentale è frequente il confronto simultaneo tra le medie di più di due gruppi, formati da soggetti sottoposti a trattamenti differenti o con dati raccolti in condizioni diverse. Al fine di evidenziare tutte le possibili differenze significative tra le medie, non è corretto ricorrere al test t di Student per ripetere l'analisi tante volte, quanti sono i possibili confronti a coppie tra i singoli gruppi.

Con il metodo del t di Student, si utilizza solo una parte dei dati e la probabilità a prescelta per l'accettazione dell'ipotesi nulla, la probabilità di commettere un errore di primo tipo (rifiutare l’ipotesi nulla quando in realtà è vera),

-  è valida solamente per ogni singolo confronto.

Se i confronti sono numerosi, la probabilità complessiva che almeno uno di essi si dimostri significativo solo per effetto del caso è maggiore.

 

Se è vera l’ipotesi nulla H0, la probabilità che nessun confronto risulti casualmente significativo è

(1-a)n

 dove n è il numero di confronti effettuati.

Per esempio, se si effettuano 10 confronti tra le medie di gruppi estratti a caso dalla stessa popolazione e per ognuno di essi a è uguale a 0.05, la probabilità che nessun confronto risulti casualmente significativo diminuisce a circa 0.60 (corrispondente a 0,9510 ). Di conseguenza, la probabilità complessiva che almeno uno risulti significativo solo per effetto di fluttuazioni casuali diventa 0.40.

Espresso in termini più formali, effettuando k confronti con il test t di Student ognuno alla probabilità a, la probabilità complessiva a di commettere almeno un errore di I tipo (che il test rifiuti l’ipotesi nulla quando in realtà essa è vera) diventa

a’ = 1 - (1 -a)k

 

Nell’analisi della varianza, con apparente paradosso dei termini, il confronto è tra due o più medie. Essa permette il confronto simultaneo tra esse, mantenendo invariata la probabilità a complessiva prefissata.

 

L'ipotesi nulla H0 e l'ipotesi alternativa H1 assumono una formulazione più generale, rispetto al confronto tra due medie:

H0: m1 = m2 = … = mk

H1: le mi non sono tutte uguali

(oppure almeno una mi è diversa dalle altre; oppure almeno due mi sono tra loro differenti)

 

La metodologia sviluppata per verificare la significatività delle differenze tra le medie aritmetiche di vari gruppi, chiamata analisi della varianza e indicata con ANOVA dall’acronimo dell'inglese ANalysis Of VAriance, utilizza la distribuzione F.

E’ fondata sul rapporto tra varianze, denominato test F in onore di Sir Ronald Aylmer Fisher (1890-1962), giudicato il più eminente statistico contemporaneo e ritenuto il padre della statistica moderna. Nel 1925 Fisher, al quale tra gli argomenti già affrontati si devono la definizione dei gradi di libertà, gli indici di simmetria e curtosi,  il metodo esatto per tabelle 2 x 2, completò il metodo di Student per il confronto tra due medie (vedi l’articolo Applications of “Student’s”distribution pubblicato da Metron vol. 5, pp. 90-104). La sua proposta del 1925  (vedi il volume Statistical Methods for Research Workers, 1st ed. Oliver and Boyd, Edinburgh, Scotlnd, pp. 239 + 6 tables) permette di scomporre e misurare l'incidenza delle diverse fonti di variazione sui valori osservati di due o più gruppi. E' la metodologia che sta alla base della statistica moderna; da essa progressivamente sono derivate le analisi più complesse, con le quali si considerano contemporaneamente molti fattori sia indipendenti che correlati.

L’evoluzione di questi concetti è descritta anche nella lunga serie del testo di Fisher, fino alla tredicesima edizione del 1958 (Statistical Methods for Research Workers. 13th  ed. Hafner, New York, pp. 356).

 

La metodologia attuale dell’analisi della varianza tuttavia è dovuta a George W. Snedecor (statistico americano, 1881–1974) che con il suo breve testo del 1934 (Calculation and Interpretation of Analysis of Variance and Covariance. Collegiate Press, Ames, Iowa, pp. 96) ne perfezionò il metodo e ne semplificò la forma rispetto alla proposta originale di Fisher. A Snedecor, insieme con W. G. Cochran, è dovuto un altro testo di Statistica che dal 1934 all’ultima edizione del 1980 (vedi Statistical Methods 7th ed. Iowa State University Press, Ames, Iowa, pp. 507) per 50 anni è stato un punto di riferimento fondamentale per tutti gli statistici.

La distribuzione F è ricordata anche come distribuzione di Fisher-Snedecor.

 

La grande rivoluzione introdotta dall’analisi della varianza rispetto al test t consiste nel differente approccio alla programmazione dell’esperimento. L’approccio del test t risente del vecchio assioma che la natura risponde solo a domande semplici. Per organizzare un esperimento, il materiale con il quale formare i gruppi a confronto doveva essere il più omogeneo possibile. Per esempio, per confrontare l’effetto di due tossici su un gruppo di cavie, gli animali dovevano essere dello stesso sesso, della stessa età, della stessa dimensione, ecc., se si riteneva che sesso, età, peso e qualunque altro carattere noto incidessero sulla risposta dell’esperimento. La differenza tra i due gruppi poteva risultare più facilmente significativa, in quanto l’errore standard risultava indubbiamente minore; ma le conclusioni erano ovviamente limitate al gruppo di animali con le caratteristiche prescelte, senza possibilità di estenderle a cavie con caratteristiche differenti. Per rendere più generali le conclusioni, non rimaneva che ripetere l’esperimento, variando un carattere alla volta. Era richiesto un forte aumento della quantità di materiale ed un allungamento dei tempi necessari all’esperimento; alla fine, con tante singole risposte, rimaneva complesso trarre conclusioni generali.

 

La grande novità introdotta dall’analisi della varianza, come verrà evidenziato progressivamente con analisi sempre più complesse che considerano contemporaneamente un numero sempre più elevato di fattori e le loro interazioni, è la scoperta dei vantaggi offerti all’analisi dall’uso di materiale molto diversificato. Conoscendo le cause ed i diversi fattori, è possibile attribuire ad ognuno di essi il suo effetto e ridurre la variabilità d’errore. Le differenze tra le medie dei gruppi diventano molto più facilmente significative e le conclusioni possono essere immediatamente estese alle varie situazioni.

Dall’introduzione dell’analisi della varianza, nella programmazione e realizzazione di un esperimento è vantaggioso usare materiale non omogeneo per tutti i caratteri.

 

Nell'analisi della varianza, la fonte o causa delle variazioni dei dati viene chiamata fattore sperimentale o trattamento; essa può essere

-  a più livelli quantitativi, come le dosi crescenti dello stesso farmaco, oppure

-  a diverse modalità qualitative, come la somministrazione di farmaci differenti.

 

Ogni unità od osservazione del gruppo sperimentale viene chiamata replicazione o replica; per permettere di calcolare la media e la varianza, ovviamente ogni gruppo deve essere formato da almeno due repliche


 

10.1. Analisi della varianza ad un criterio di classificazione O A CAMPIONAMENTO COMPLETAMENTE RANDOMIZZATO

Il modello più semplice di analisi della varianza, che può essere visto come un’estensione del test t di Student a più campioni indipendenti, è detto ad un criterio di classificazione: ogni dato è classificato solo sulla base del trattamento o del gruppo al quale appartiene. E' chiamato anche modello completamente randomizzato in quanto, soprattutto per analisi di laboratorio, prevede un campionamento in cui gli n individui omogenei sono assegnati casualmente ai vari livelli del fattore.

Quando si dispone di un gruppo di soggetti (ad esempio, cavie) da sottoporre a diversi trattamenti per confrontarne gli effetti, l'attribuzione di ogni individuo ad uno specifico trattamento deve avvenire per estrazione casuale da tutto il gruppo.

La metodologia di presentazione delle osservazioni, ormai codificata, prevede che i dati sperimentali raccolti siano riportati in modo ordinato secondo la tabella sottostante. Per l'analisi statistica, in questo modello non è richiesto che i vari gruppi abbiano lo stesso numero (ni) di osservazioni o di repliche.

 

 

 

MODALITA' O LIVELLI

DEI TRATTAMENTI

 

...

unità'

...

sperimentali

...

o

...

replicazioni

...

...

...

...

...

 

...

Medie dei trattamenti

...

Media generale

Media generale

 

 

 

 

La singola osservazione Xij viene riportata con 2 indici, relativi uno al trattamento o gruppo e l’altro alla posizione occupata entro il gruppo.

La media di ogni gruppo o singolo trattamento i è riportata soprassegnata da un tratto e con l’indice relativo al gruppo.

La media generale  di tutti i dati è indicata con un duplice tratto e senza indici.

A partire da queste tre quantità, si stimano le devianze e le varianze utili all’analisi.

 

L'analisi della varianza è fondata sugli effetti additivi dei vari fattori considerati. Nel modello più semplice, che considera un solo fattore a due o più livelli, ogni singola osservazione Xij può essere scritta come

in quanto determinata

-  dalla media generale , che definisce la dimensione dell’esperimento,

-  dal fattore  del trattamento e

-  da un fattore casuale , detto residuo od errore sperimentale.

(E’ importante ricordare che errore non è sinonimo di sbaglio, ma indica l’effetto di uno o più fattori sconosciuti, comunque non valutati o non controllati nell'esperimento).

 

Ad esempio, con tre gruppi di persone (A, B, C) alle quali è stata misurata la quantità di una sostanza nel sangue in mg con i seguenti risultati

 

 

 

A

B

C

2,4

3,2

2,1

2,7

2,9

2,7

2,7

3,5

2,7

2,6

----

---

Media

2,6

3,2

2,5

 

 

 i dati devono essere letti come se fossero scritti nel seguente modo

 

 

 

A

B

C

2,6 - 0,2

3,2 + 0

2,5- 0,4

2,6 + 0,1

3,2 - 0,3

2,5 + 0,2

2,6 + 0,1

3,2 + 0,3

2,5 + 0,2

2,6 + 0

----

---

Media

2,6

3,2

2,5

 

 

La rappresentazione grafica dei valori osservati  illustra con chiarezza ancora maggiore il concetto.

 

 


 

 

Nella figura,

-  la riga centrale continua  è la media generale,

-  le tre linee tratteggiate (più brevi) sono le medie dei tre gruppi,

-  i punti sono le singole osservazioni.

I punti riportati appaiono meno numerosi dei dati, perché alcuni valori sono uguali quindi i punti sono sovrapposti. A causa del programma, i gruppi A, B, C nel  grafico sono indicati rispettivamente, con 1, 2 e 3.

 

In tale modello, l'effetto a del trattamento a sua volta è misurato come

 dove

mi è la media del trattamento e  la media generale.

Passando dall’enunciazione teorica ai dati sperimentali, si può scrivere che ogni singolo dato Xij di uno specifico trattamento

Xij =  + (i - ) +eij

 è determinato

-  dalla media generale ,

-  dall’effetto del trattamento (i - ) e

-  da altri fattori non noti, simboleggiati da eij.

 

Prima dell’applicazione di questo test parametrico, occorre verificare se ne esistono le condizioni.

Le assunzioni di validità del test F dipendono dagli errori , che

- devono essere tra loro indipendenti,

- devono essere distribuiti normalmente; inoltre

- le varianze dei vari gruppi devono essere omogenee.

 

L’indipendenza degli errori comporta che la variazione casuale di ogni osservazione non sia influenzata da quella di un'altra: l’errore di una replica, il suo scarto rispetto alla media del gruppo di appartenenza, non deve essere influenzato né dal segno (quando si possono avere valori sia negativi che positivi) né dalle dimensioni del suo valore.

A questo fine, la randomizzazione deve essere fondata su elementi obiettivi (effetto random) e non lasciata all’arbitrio o all’intuito dello sperimentatore; ogni dato deve avere la stessa possibilità di essere influenzato dai fattori noti (effetto trattamento) e da quelli ignoti (effetto ambiente statistico). L’attribuzione (che sarà discussa nel capitolo sul campionamento) deve avvenire con modalità indipendenti dal ricercatore.

 

Gli errori devono essere distribuiti normalmente intorno alla media. Prima dell’applicazione del test deve essere attuato il controllo dell’asimmetria e della curtosi della distribuzione, per verificare che non si discosti eccessivamente dalla normale. Quando lo scostamento è significativo, sovente è possibile ricostruire le condizioni di validità attraverso la trasformazione dei dati (che saranno presentate successivamente).

 

L’omogeneità della varianza, per cui i diversi gruppi dei quali si confrontano le rispettive medie devono avere tutti la stessa varianza vera (s2), è indispensabile per non determinare perdite nell’informazione sull’effetto dei trattamenti. Anche in questo caso, può essere necessario ricorrere alla trasformazione dei dati.

Dopo l’analisi dei dati per la verifica delle condizioni di validità, la metodologia dell'analisi della varianza prevede il calcolo delle seguenti quantità:

-  la devianza totale, con i suoi gdl;

-  la devianza tra trattamenti o between, con i suoi gdl e la varianza relativa;

-  la devianza entro trattamenti o within od errore, con i suoi gdl e la varianza relativa.


 

Ai fini di una verifica dei risultati e delle successive loro elaborazioni, è utile ricordare che la somma della devianza tra trattamenti e di quella entro trattamenti è uguale alla devianza totale; identica proprietà additiva hanno i rispettivi gradi di libertà.

 

Devianze, gdl e varianze di un’analisi della varianza abitualmente vengono presentate come nella tabella seguente:

 

 

Devianza

Totale

 

gdl = n-1

(n = num. dati)

 

Devianza

tra trattamenti

 

gdl = p-1

(p = num. gruppi)

 

Varianza tra

s2tra

Devianza

entro trattamenti

 

Gdl = n-p

 

Varianza entro

s2entro

 

 

(molti testi riportano la devianza totale e i suoi gdl alla fine, in quanto somma dei precedenti)

 

La devianza totale o SQ totale (Somma dei Quadrati degli scarti, in inglese SS da Sum of Squares) è calcolato da

 

La prima è chiamata formula euristica, in quanto definisce il significato della devianza totale: la somma del quadrato degli scarti di ogni valore dalla media generale.

La seconda è la formula abbreviata, matematicamente equivalente alla prima, che rende più semplici e rapidi i calcoli necessari. Con essa, la devianza totale è ottenuta come differenza tra la somma dei quadrati di tutti i dati e il quadrato della somma di tutti i dati diviso il numero di dati.

La seconda formula ha il vantaggio di richiedere meno operazioni e di non utilizzare la media, che spesso è un valore approssimato; in queste condizioni, consente un calcolo più preciso della formula euristica.


 

La devianza tra trattamenti ( SQ tra) o between

 

 

 è per definizione (formula euristica ) la somma dei quadrati degli scarti di ogni media di gruppo dalla media generale, moltiplicato il numero di dati del gruppo relativo.

La formula abbreviata utilizza le somme dei gruppi e la somma totale, determinando una maggiore precisione nei risultati.

 

La devianza entro trattamenti (SQ entro) o within, detta anche errore

 

 

 è la somma degli scarti al quadrato di ogni valore dalla media del suo gruppo.

Per la proprietà additiva delle devianze, può essere ottenuta sottraendo alla devianza totale la devianza tra trattamenti.

 

I gradi di libertà sono determinati dal numero di somme richieste dal calcolo delle devianze relative, nella formula euristica.

-  Per la devianza totale, dove la sommatoria è estesa a tutti gli n dati, i gdl sono n-1.

-  Per la devianza tra trattamenti, dove la sommatoria è estesa ai p gruppi, i gdl sono p-1.

-  Per la devianza entro od errore, la sommatoria è estesa a tutti i dati entro ogni gruppo. Per calcolare i gdl occorre quindi sottrarre 1 ai dati di ogni gruppo e quindi è determinata da n-p.

Per la proprietà additiva dei gdl, può essere scritta anche come (n-1) - (p-1), semplificato in n-p.

 

Dividendo la devianza tra trattamenti e quella entro trattamenti per i rispettivi gradi di libertà, si ottengono la varianza tra e la varianza entro (la varianza totale è priva d’interesse ai fini di questo test).

La varianza fra gruppi misura le differenze esistenti tra un gruppo e l'altro, anche se il calcolo viene attuato rispetto alla media generale.

La varianza entro gruppi misura la variabilità esistente attorno alla media aritmetica di ogni gruppo.

 

Se è vera l'ipotesi nulla, i dati dei vari gruppi sono estratti casualmente dalla stessa popolazione. La varianza tra le medie dei trattamenti e la varianza entro ogni gruppo dipendono dalla variabilità esistente tra i dati: varianza fra (s2F) e varianza entro (s2e) sono due stime indipendenti della stessa varianza vera s2 e quindi dovrebbero avere statisticamente lo stesso valore.

 

Come indice dell'uguaglianza tra le due varianze, viene utilizzato

 il test F di Fisher, fondato sul rapporto

 

varianza-tra / varianza-entro

indicato con la simbologia

F(p-1, n-p) =

 

Se è vera l'ipotesi nulla H0

il rapporto dovrebbe risultare uguale ad 1.

 

Se è vera l'ipotesi alternativa H1

il rapporto dovrebbe risultare superiore a 1.

Il test e la tabella relativa sono unilaterali, appunto perché il valore deve essere maggiore di 1.

 

Con un numero infinito di trattamenti e di repliche, è sufficiente un rapporto superiore a 1 per rifiutare l'ipotesi nulla (come mostra la tabella dei valori critici di F); con un numero ridotto di dati, il rapporto può essere superiore a 1, per effetto delle variazioni casuali.

 

I valori critici per i rispettivi gradi di libertà sono forniti dalla distribuzione F.

-  Se il valore di F calcolato è superiore a quello tabulato, alla probabilità a prefissata, si rifiuta l'ipotesi nulla e si accetta l'ipotesi alternativa: almeno una media è diversa dalle altre.

-   Se il valore F calcolato è inferiore a quello riportato nella tabella, si accetta l'ipotesi nulla, o almeno non può essere rifiutato che le medie sono tutte uguali.


 

Valori critici della distribuzione F di Fisher-Snedecor

I gradi di libertà del numeratore (o varianza maggiore) sono riportati in orizzontale (prima riga)

I gradi di libertà del denominatore (o varianza minore) sono riportati in verticale (prima colonna)

a  =  0.05

NUMERATORE

DEN.

1

2

3

4

5

6

7

8

12

24

¥

1

161,4

199,5

215,7

224,6

230,2

234,0

236,8

238,9

243,9

249,1

254,3

2

18,51

19,00

19,16

19,25

19,30

19,33

19,35

19,37

19,41

19,45

19,50

3

10,13

9,55

9,28

9,12

9,01

8,94

8,89

8,85

8,74

8,64

8,53

4

7,71

6,94

6,59

6,39

6,26

6,16

6,09

6,04

5,91

5,77

5,63

5

6,61

5,79

5,41

5,19

5,05

4,95

4,88

4,82

4,68

4,53

4,36

6

5,99

5,14

4,76

4,53

4,39

4,28

4,21

4,15

4,00

3,84

3,67

7

5,59

4,74

4,35

4,12

3,97

3,87

3,79

3,73

3,57

3,41

3,23

8

5,32

4,46

4,07

3,84

3,69

3,58

3,50

3,44

3,28

3,12

2,93

9

5,12

4,26

3,86

3,63

3,48

3,37

3,29

3,23

3,07

2,90

2,71

10

4,96

4,10

3,71

3,48

3,33

3,22

3,14

3,07

2,91

2,74

2,54

12

4,75

3,89

3,49

3,26

3,11

3,00

2,91

2,85

2,69

2,51

2,30

14

4,60

3,74

3,34

3,11

2,96

2,85

2,76

2,70

2,53

2,35

2,13

16

4,49

3,63

3,24

3,01

2,85

2,74

2,66

2,59

2,42

2,24

2,01

18

4,41

3,55

3,16

2,93

2,77

2,66

2,58

2,51

2,34

2,15

1,92

20

4,35

3,49

3,10

2,87

2,71

2,60

2,51

2,45

2,28

2,08

1,84

30

4,17

3,32

2,92

2,69

2,53

2,42

2,33

2,27

2,09

1,89

1,62

40

4,08

3,23

2,84

2,61

2,45

2,34

2,25

2,18

2,00

1,79

1,51

60

4,00

3,15

2,76

2,53

2,37

2,25

2,17

2,10

1,92

1,70

1,39

120

3,92

3,07

2,68

2,45

2,29

2,17

2,09

2,02

1,83

1,61

1,25

¥

3,84

3,00

2,60

2,37

2,21

2,10

2,01

1,94

1,75

1,52

1,00

 


Valori critici della distribuzione F di Fisher-Snedecor

I gradi di libertà del numeratore (o varianza maggiore) sono riportati in orizzontale (prima riga)

I gradi di libertà del denominatore (o varianza minore) sono riportati in verticale (prima colonna)

a  =  0.025

NUMERATORE

DEN.

1

2

3

4

5

6

7

8

12

24

¥

1

647,8

799,5

864,2

899,6

921,8

937,1

948,2

956,7

976,7

997.2

1018

2

38,51

39,00

39,17

39,25

39,30

39,33

39,36

39,37

39,41

39,46

39,50

3

17,44

16,04

15,44

15,10

14,88

14,73

14,62

14,54

14,34

14,12

13,90

4

12,22

10,65

9,98

9,60

9,36

9,20

9,07

8,98

8,75

8,51

8,26

5

10,01

8,43

7,76

7,39

7,15

6,98

6,85

6,76

6,52

6,28

6,02

6

8,81

7,26

6,60

6,23

5,99

5,82

5,70

5,60

5,37

5,12

4,85

7

8,07

6,54

5,89

5,52

5,29

5,12

4,99

4,90

4,67

4,42

4,14

8

7,57

6,06

5,42

5,05

4,82

4,65

4,53

4,43

4,20

3,95

3,67

9

7,21

5,71

5,08

4,72

4,48

4,32

4,20

4,10

3,87

3,61

3,33

10

6,94

5,46

4,83

4,46

4,24

4,06

3,95

3,85

3,62

3,37

3,08

12

6,55

5,10

4,47

4,12

3,89

3,73

3,61

3,51

3,28

3,02

2,72

14

6,30

4,86

4,24

3,89

3,66

3,50

3,38

3,29

3,05

2,79

2,49

16

6,12

4,69

4,08

3,73

3,50

3,34

3,22

3,12

2,89

2,63

2,32

18

5,98

4,56

3,95

3,61

3,38

3,22

3,10

3,01

2,77

2,50

2,19

20

5,87

4,46

3,86

3,51

3,29

3,13

3,01

2,91

2,68

2,41

2,09

30

5,57

4,18

3,59

3,25

3,03

2,87

2,75

2,65

2,41

2,14

1,79

40

5,42

4,05

3,46

3,13

2,90

2,74

2,62

2,53

2,29

2,01

1,64

60

5,29

3,93

3,34

3.01

2,79

2,63

2,51

2,41

2,17

1,88

1,48

120

5,15

3,80

3,23

2,89

2,67

2,52

2,39

2,30

2,05

1,76

1,31

¥

5,02

3,69

3,12

2,79

2,57

2,41

2,29

2,19

1,94

1,64

1,00

 


 

Valori critici della distribuzione F di Fisher-Snedecor

I gradi di libertà del numeratore (o varianza maggiore) sono riportati in orizzontale (prima riga)

I gradi di libertà del denominatore (o varianza minore) sono riportati in verticale (prima colonna)

a  =  0.01

NUMERATORE

DEN.

1

2

3

4

5

6

7

8

12

24

¥

1

4052

5000

5403

5625

5764

5859

5928

5981

6106

6235

6366

2

98,50

99,00

99,17

99,25

99,30

99,33

99,36

99,37

99,41

99,46

99,50

3

34,12

30,82

29,46

28,71

28,24

27,91

27,67

27,49

27,05

26,60

26,13

4

21,20

18,00

16,69

15,98

15,52

15,21

14,98

14,80

14,37

13,93

13,46

5

16,26

13,27

12,06

11,39

10,97

10,67

10,46

10,29

9,89

9,47

9,02

6

13,75

10,92

9,78

9,15

8,75

8,47

8,26

8,10

7,72

7,31

6,88

7

12,25

9,55

8,45

7,85

7,46

7,19

6,99

6,84

6,47

6,07

5,65

8

11,26

8,65

7,59

7,01

6,63

6,37

6,18

6,03

5,67

5,28

4,86

9

10,56

8,02

6,99

6,42

6,06

5,80

5,61

5,47

5,11

4,73

4,31

10

10,04

7,56

6,55

5,99

5,64

5,39

5,20

5,06

4,71

4,33

3,91

12

9,33

6,93

5,95

5,41

5,06

4,82

4,64

4,50

4,16

3,78

3,36

14

8,86

6,51

5,56

5,04

4,69

4,46

4,28

4,14

3,80

3,43

3,00

16

8,53

6,23

5,29

4,77

4,44

4,20

4,03

3,89

3,55

3,18

2,75

18

8,29

6,01

5,09

4,58

4,25

4,01

3,84

3,71

3,37

3,00

2,57

20

8,10

5,85

4,94

4,43

4,10

3,87

3,70

3,56

3,23

2,86

2,42

30

7,56

5,39

4,51

4,02

3,70

3,47

3,30

3,17

2,84

2,47

2,01

40

7,31

5,18

4,31

3,83

3,51

3,29

3,12

2,99

2,66

2,29

1,80

60

7,08

4,98

4,13

3,65

3,34

3,12

2,95

2,82

2,50

2,12

1,60

120

6,85

4,79

3,95

3,48

3,17

2,96

2,79

2,66

2,34

1,95

1,38

¥

6,63

4,61

3,78

3,32

3,02

2,80

2,64

2,51

2,18

1,79

1,00

 


Valori critici della distribuzione F di Fisher-Snedecor

I gradi di libertà del numeratore (o varianza maggiore) sono riportati in orizzontale (prima riga)

I gradi di libertà del denominatore (o varianza minore) sono riportati in verticale (prima colonna)

 

a  =  0.005

NUMERATORE

DEN.

1

2

3

4

5

6

7

8

12

24

¥

1

16211

20000

21615

22500

23056

23437

23715

23925

24426

24940

25465

2

198,5

199,0

199,2

199,2

199,3

199,3

199,4

199,4

199,4

199,5

199,5

3

55,55

49,80

47,47

46,19

45,39

44,84

44,43

44,13

43,39

42,62

41,83

4

31,33

26,28

24,26

23,15

22,46

21,97

21,62

21,35

20,70

20,03

19,32

5

22,78

18,31

16,53

15,56

14,94

14,51

14,20

13,96

13,38

12,78

12,14

6

18,63

14,54

12,92

12,03

11,46

11,07

10,79

10,57

10,03

9,47

8,88

7

16,24

12,40

10,88

10,05

9,52

9,16

8,89

8,68

8,18

7,65

7,08

8

14,69

11,04

9,60

8,81

8,30

7,95

7,69

7,50

7,01

6,50

5,95

9

13,61

10,11

8,72

7,96

7,47

7,13

6,88

6,69

6,23

5,73

5,19

10

12,83

9,43

8,08

7,34

6,87

6,54

6,30

6,12

5,66

5,17

4,64

12

11,75

8,51

7,23

6,52

6,07

5,76

5,52

5,35

4,91

4,43

3,90

14

11,06

7,92

6,68

6,00

5,56

5,26

5,03

4,86

4,43

3,96

3,44

16

10,58

7,51

6,30

5,64

5,21

4,91

4,69

4,52

4,10

3,64

3,11

18

10,22

7,21

6,03

5,37

4,96

4,66

4,44

4,28

3,86

3,40

2,87

20

9,94

6,99

5,82

5,17

4,76

4,47

4,26

4,009

3,68

3,22

2,69

30

9,18

6,35

5,24

4,62

4,23

3,95

3,74

3,58

3,18

2,73

2,18

40

8,83

6,07

4,98

4,37

3,99

3,71

3,51

3,35

2,95

2,50

1,93

60

8,49

5,79

4,73

4,14

3,76

3,49

3,29

3,13

2,74

2,29

1,69

120

8,18

5,54

4,50

3,92

3,55

3,28

3,09

2,93

2,54

2,09

1,43

¥

7,88

5,30

4,28

3,72

3,35

3,09

2,90

2,74

2,36

1,90

1,00


 

ESEMPIO. Per un controllo della qualità dell'aria, con rilevazioni in tre diverse zone di una città (denominate A, B e C) è stata misurata anche la quantità di ferro (in microgrammi/Nmc a 0°C e 1013 mbar) tra i metalli pesanti in sospensione.

 

Fattore Sperimentale

A

B

C

2,71

1,75

2,22

2,06

2,19

2,38

2,84

2,09

2,56

2,97

2,75

2,60

2,55

---

2,72

2,78

---

---

 

 

Esiste una differenza significativa tra le tre zone, per la quantità di ferro in sospensione?

 

Risposta.   L’ipotesi nulla H0 è che tra le medie dei tre campioni non esistano differenze significative

H0mA = mB = mC

mentre l’ipotesi alternativa H1

H1: le mi  non sono tutte uguali.

 

Attraverso il test F è possibile stimare la probabilità di trovare per caso tra le medie scarti uguali o superiori a quelli sperimentalmente osservati, nell’ipotesi che H0 sia vera.

 

Come primo passo, dalle tre serie di dati occorre calcolare

-  il totale di ogni colonna

-  il numero di osservazioni  

-  la media di ogni colonna

 

Successivamente, da essi è necessario stimare

-  la somma totale 

-  il numero totale di osservazioni n

-  la media totale o generale 

 come riportato nella tabella successiva:


 

 

A

B

C

 

 

15,91

8,78

12,48

37,17

6

4

5

N

15

2,652

2,195

2,496

2,478

 

A partire da queste quantità, si calcolano le devianze ed i gradi di libertà rispettivi.

 La devianza totale può essere calcolata dalla somma del quadrato degli scarti di ognuna delle 15 osservazioni rispetto alla media totale, in accordo con la formula euristica

 

A

B

C

(2,71 - 2,478)2

(1,75 - 2,478)2

(2,22 – 2,478)2

(2,06 – 2,478)2

(2,19 - 2,478)2

(2,38 – 2,478)2

(2,84 – 2,478)2

(2,09 - 2,478)2

(2,56 – 2,478)2

(2,97 - 2,478)2

(2,75 - 2,478)2

(2,60 – 2,478)2

(2,55 - 2,478)2

---

(2,72 – 2,478)2

(2,78 - 2,478)2

---

---

 

Svolgendo i calcoli e sommando i risultati

 

A

B

C

0,053824

0,529984

0,066564

0,174724

0,082944

0,009604

0,131044

0,150544

0,006724

0,242064

0,073984

0,014884

0,005184

---

0,058564

0,091204

---

---

0,698040

0,837456

0,156340

 

si ottiene una devianza totale uguale a 1,691836 con 14 gdl.

Questo metodo di procedere al calcolo della devianza totale è lungo e determina stime non precise, quando la media generale è approssimata. Pertanto, per il calcolo manuale è sempre conveniente utilizzare la formula abbreviata

SQtotale  =

che, applicata ai dati dell’esempio,

 

 

A

B

C

 

7,3441

3,0625

4,9284

4,2436

4,7961

5,6644

8,0656

4,3681

6,5536

8,8209

7,5625

6,7600

6,5025

---

7,3984

7,7284

---

---

42,7051

19,7892

31,3048

93,7991

 

 dalle due diverse somme stima la

 devianza totale che risulta uguale a 1,69184.

 

La corrispondenza tra le due stime è una dimostrazione elementare ed intuitiva dell’equivalenza matematica delle due formule (la differenza tra 1,691836 e 1,69184 è dovuta agli arrotondamenti).

La devianza tra trattamenti o between misura la variabilità esistente tra la media aritmetica di ogni gruppo e la media aritmetica generale, ponderata per il numero di osservazioni presenti in ciascun gruppo. Se non esistesse la variabilità casuale ed il valore delle singole osservazioni fosse determinato solamente dal fattore specifico che le raggruppa, le repliche di ogni trattamento dovrebbero avere tutte lo stesso valore ed essere uguali alla media del gruppo, come evidenzia la formula euristica

 

 

La devianza tra trattamenti o between è la somma degli scarti di ogni media di gruppo rispetto alla media generale, ponderata per il numero di repliche.

Pertanto con la formula euristica il calcolo diventa:

 

 

 e risulta uguale a  0,503632 con 2 gradi di libertà.

Anche in questo caso la formula abbreviata

 

 è più rapida e precisa, non richiedendo le approssimazione determinate dalle medie;

 

 essa risulta uguale a 0,502936. Anche in questo caso le differenze sono minime (0,503632 e 0,502936), imputabili all’uso di un numero diverso di cifre decimali e alle differenti approssimazioni.

(Di solito sono sufficienti calcoli con due o tre cifre decimali; il numero più elevato qui utilizzato è motivato dalla necessità contingente di confrontare i risultati dei due metodi).

 

La devianza entro trattamenti, within od errore

 misura la variazione tra il valore di ciascuna replica e la media aritmetica del suo gruppo.

Sommando queste differenze elevate al quadrato per ogni gruppo

 

A

B

C

---

---

---

 

 

e sviluppando i calcoli si ottiene


 

 

A

B

C

 

0,003364

0,198025

0,076176

 

0,350464

0,000025

0,013456

 

0,035344

0,011025

0,004096

 

0,101124

0,308025

0,010816

 

0,010404

---

0,050176

 

0,015376

---

---

0,516076

0,517100

0,154720

 

 

la devianza entro, che risulta uguale a 1,187896 con 12 gdl.

La devianza entro od errore può essere ottenuta molto più rapidamente per sottrazione della devianza tra dalla devianza totale, precedentemente calcolate:

 

Nello stesso modo, per la proprietà additiva, si possono calcolare i gdl:

gdl entro   =   gdl totale - gdl tra    =   14 - 2   =   12

 

Per una presentazione chiara e sintetica, normalmente i valori calcolati sono riassunti in una tabella che riporta le tre devianze, i rispettivi gradi di libertà e le varianze utili al test:

 

Devianza

gdl

varianza

Totale

1,69184

14

----

Tra trattamenti (between)

0,502936

2

0,251468

Entro trattamenti (within)

1,188904

12

0,0990753

 

 

Dividendo la devianza tra e la devianza entro per i rispettivi gradi di libertà, si ottengono la varianza tra e la varianza entro.

 

Dividendo la varianza tra per la varianza entro, si calcola il rapporto F, che deve essere riportato con i rispettivi gradi di libertà

Il valore critico di F con gdl 2 per il numeratore e 12 per il denominatore che è riportato nella tabella per la probabilità a = 0.05 è 3,89. Il valore calcolato (2,538) è inferiore a quello tabulato (3,89): la probabilità che l'ipotesi nulla sia vera è superiore al 5%. Di conseguenza, si accetta l'ipotesi nulla: i tre campioni sono stati estratti dalla stessa popolazione; non esiste una differenza significativa tra le 3 medie campionarie.

 

  

Manuale di Statistica per la Ricerca e la Professione  © Lamberto Soliani   - Dipartimento di Scienze Ambientali, Università di Parma  (apr 05 ed)  ebook version by SixSigmaIn Team  - © 2007