METODI NON PARAMETRICI PER UN CAMPIONE
7.12. TEST DI CASUALIZZAZIONE (RAW SCORES TEST, PITMAN TEST, FISHER’S RANDOMIZATION TEST)
Prima ancora del test di Wilcoxon, di norma più potente ma meno robusto se la distribuzione è asimmetrica, per verificare l’ipotesi nulla bilaterale H0: m = m0 contro H1: m ¹ m0
oppure una delle due ipotesi unilaterali H0: m £ m0 contro H1: m > m0 H0: m ³ m0 contro H1: m < m0
all’inizio del ‘900 era già diffuso il test di casualizzazione, proposto in modo organico da R. A. Fisher nel suo testo del 1935 (vedi The Design of Experiments, Edinburgh, Oliver & Boyd; la prima edizione fu pubblicata nel 1925, la 14a e ultima nel 1970). Molti test non parametrici che si rifanno alla distribuzione binomiale e al calcolo combinatorio erano già diffusi nei primi decenni del ‘900, senza che fosse possibile individuare il primo proponente o che esso venisse citato compiutamente come è prassi ora.
Oltre a test di casualizzazione, anche nei testi in italiano è spesso indicato con i termini inglesi randomization test, permutation test o Fisher’s randomization test (per il motivo prima illustrato). In letteratura, è presentato con altri due nomi, raw score test e Pitman test, a causa della presentazione più completa fatta da E. J. G. Pitman in due articoli: il primo del 1937 (vedi Significance tests that may be applied to samples from any population, pubblicato su Journal of the Royal Statistical Society, Suppl. 4, 119-139), il secondo del 1938 (vedi Significance tests that may be applied to samples from any population. III The analysis of variance test, pubblicato su Biometrika, vol. 29, pp. 322-335).
Test dei segni, test T di Wilcoxon e test di casualizzazione servono per verificare le stesse ipotesi sulla tendenza centrale, anche se i primi due fanno riferimento alla mediana e questo ultimo alla media. La scelta tra quale di essi applicare dipende dalla caratteristiche della distribuzione, ma fondamentalmente dall’informazione contenuta nei dati raccolti: - con una scala qualitativa si applica il test dei segni, - con una scala di rango si applica il test t di Wilcoxon, - una scala ad intervalli o di rapporti si applica il test di casualizzazione.
Questo test è più potente del test dei segni e di quello di Wilcoxon, poiché utilizza appieno l’informazione contenuta in misure determinate da tipo di scala più sofisticato. Non richiede tabelle di distribuzione dei valori critici, essendo fondato sulle combinazioni. In esso è possibile calcolare la zona di rifiuto con semplicità, soprattutto quando la risposta sperimentale rappresenta un caso estremo, benché la stima delle probabilità dipenda strettamente dalle caratteristiche dei dati raccolti. Seppure riportato nei testi specialistici di alcuni decenni or sono, nella pratica sperimentale di questi anni e nei testi più recenti è poco diffuso, forse perché ancora non riportato nei programmi informatici più noti e per motivi di robustezza, illustrati alla fine del paragrafo.
Per illustrare questa metodologia nei suoi passaggi logici, si supponga di voler valutare l’accrescimento di 6 cavie, dopo la somministrazione di un principio attivo. Con sei campioni sono stati ottenuti i seguenti risultati
In esperimenti precedenti, campioni di controllo hanno avuto un accrescimento medio m0 = 7,0 L’accrescimento ottenuto in questo esperimento, nel quale è stato somministrato il nuovo principio attivo, è significativamente maggiore?
E’ un test unilaterale sulla media H0: m £ m0 contro H1: m > m0
che può anche essere impostato sulla differenza, come illustrato nel capitolo sul test t, H0: d £ 7,0 contro H1: d > 7,0
e la cui soluzione richiede alcuni passaggi logici.
1 – Dapprima, come nel test T di Wilcoxon, si calcolano le differenze dalla media attesa con il loro segno
2 – Se è vera l’ipotesi nulla, mantenendo costanti i valori raccolti in quanto risultato effettivo dell’esperimento, ogni differenza stimata avrebbe potuto essere sia positiva sia negativa. Pertanto, con N = 6, considerando tutto l’esperimento, i risultati possibili sono 2N = 26 = 64 Per una elaborazione più chiara, è conveniente che essi siano ordinati - da quello più estremo in una direzione (tutti positivi) - a quello più estremo nell’altra direzione (tutti negativi) - iniziando dal segno più frequente.
3 – Con i dati dall’esperimento, - la risposta più estrema, (rango 1) è quella in cui tutti i valori sono positivi; quindi la sua somma è massima (+6,0); - la seconda risposta più estrema nella stessa direzione (rango 2) è quella che fornisce il totale immediatamente minore (5,6); è ottenuta cambiando segno alla differenza minore (-0,2); - la terza risposta (rango 3), ha il totale immediatamente minore ed è ottenuta cambiando segno alla seconda differenza (-0,5); - le risposte di rango successivo sono date da combinazioni crescenti di differenze negative e - si prosegue fino all’ultima, che avrà rango 2N e che in questo caso corrisponde alla situazione in cui tutte differenze sono negative
La tabella riporta le sei risposte più estreme in una direzione e le tre più estreme nell’altra direzione.
4 – Ognuna di queste risposte possibili ha probabilità P = 1/2N. Con i dati dell’esempio (N = 7), ogni risposta ha probabilità P = 1/64. La risposta del nostro esperimento ha rango 3 e pertanto la probabilità di trovare per caso essa o una risposta ancora più estrema è uguale a P = 3/64 = 0,049 (o 4,39%). E’ una probabilità minore di a = 0.05; quindi permette di rifiutare l’ipotesi nulla. Si può concludere che, con una probabilità di errare a < 0.05, l’accrescimento medio in questo esperimento è maggiore di 7,0.
5 – Se il test fosse stato bilaterale, H0: m = m0 contro H1: m ¹ m0 le differenze avrebbero potuto essere in maggioranza negative, invece di essere in maggioranza positive come trovato. Per tenere in considerare anche le 3 risposte più estreme nell’altra direzione, è quindi necessario raddoppiare la probabilità precedente. La probabilità totale sarebbe stata P = 6/64 = 0,0938 (o 9,38%). Troppo alta per rifiutare l’ipotesi nulla.
Per grandi campioni, il procedimento diventa estremamente lungo. Con 20 dati, le risposte possibili superano il milione (220 = 1.048.576); con 30 superano il miliardo (230 = 1.073.741.824). Anche considerando solamente le risposte più estreme in un test unilaterale, con a = 0.05 quelle che sarebbe necessario calcolare diventano approssimativamente 50mila e 5 milioni. Con grandi campioni non resta che ricorrere al test T di Wilcoxon, che ha una potenza leggermente inferiore (0,95 in molti testi; per altri 0,96) ma è molto più rapido. Soprattutto ha il vantaggio pratico di essere riportato in molti programmi informatici.
Invece dei valori delle differenze, il test di casualizzazione può utilizzare anche i ranghi. In queste condizioni fornisce le stesse risposte del test T di Wilcoxon, poiché ricorre alla stessa metodologia, come ha evidenziato la illustrazione della sua teoria.
Secondo vari autori, il test di casualizzazione perde robustezza quando la distribuzione è asimmetrica, nello stesso modo del test t di Student. Poiché è poco più potente del test T di Wilcoxon, come test non parametrico da tempo ha perso preferenze rispetto a questo ultimo.
ESEMPIO. In casi estremi, il calcolo delle probabilità per il test di casualizzazione è molto semplice e può essere fatto rapidamente, senza per questo ridurne l’attendibilità. Si supponga che le differenze tra 8 dati campionari e una media attesa, già ordinate per ranghi, siano state
La media di queste differenze è significativa?
Risposta. Con N = 8, il numero di risposte possibili, ottenute variando il segno delle differenze, è 28 = 256 Se il test è unilaterale per una differenza positiva cioè se si vuole verificare l’ipotesi H0: d £ 0 contro H1: d > 0 la risposta sperimentale ottenuta è la seconda più estrema:
La sua probabilità è P = 2/ 256 = 0,0078. E’ inferiore a a = 0.01; di conseguenza, il test permette di rifiutare l’ipotesi nulla con probabilità di errare minore di 0.01.
Se il test fosse stato bilaterale H0: d = 0 contro H1: d ¹ 0
la probabilità calcolata in precedenza dovrebbe essere moltiplicata per 2, divenendo P = 4/256 = 0.0156. E’ ancora una probabilità piccola, che permette di rifiutare l’ipotesi nulla con probabilità minore di 0.02.
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Manuale di Statistica per la Ricerca e la Professione © Lamberto Soliani - Dipartimento di Scienze Ambientali, Università di Parma (apr 05 ed) ebook version by SixSigmaIn Team - © 2007 |