VERIFICA DELLE IPOTESITEST PER UN CAMPIONE SULLA TENDENZA CENTRALE CON VARIANZA NOTAE TEST SULLA VARIANZA CON INTERVALLI DI CONFIDENZA
4.3. PROCEDURA DI VERIFICA DELLE IPOTESI: VERO O FALSO? UTILE O DANNOSO?
Per evidenziare con un test l’effetto di un trattamento, nel controllo di un’ipotesi statistica è possibile commettere due tipi di errore: - l'errore di primo tipo o errore a (alfa), se si rifiuta l'ipotesi nulla quando in realtà essa è vera; - l'errore di secondo tipo o errore (beta), se si accetta l'ipotesi nulla, quando in realtà essa è falsa. La probabilità di commettere l’errore di I tipo è chiamata livello di significatività ed è indicata convenzionalmente con a (alfa). Essa corrisponde alla probabilità che il valore campionario dell’indice statistico cada nella zona di rifiuto, quando l’ipotesi nulla è vera. La probabilità di commettere l’errore di II tipo, indicato convenzionalmente con b (beta), è la probabilità di estrarre dalla popolazione un campione che non permette di rifiutare l’ipotesi nulla, quando in realtà essa è falsa.
Da questi concetti derivano direttamente anche quelli di livello di protezione e di potenza di un test, che sono i parametri più importanti per scegliere il test più adatto alle caratteristiche dei dati e al quesito. Sono concetti tra loro legati, secondo lo schema riportato nella tabella precedente, nella quale si confrontano la realtà e la conclusione del test
Un test statistico conduce ad una conclusione esatta in due casi: - se non rifiuta l’ipotesi nulla, quando in realtà è vera; - se rifiuta l’ipotesi nulla, quando in realtà è falsa. Per aumentare - la probabilità (1-a) del primo caso, occorre incrementare la protezione; - per aumentare quella (1-b) del secondo caso, occorre incrementare la potenza. Esiste una sorta di concorrenza tra errori di primo tipo (a) ed errori di secondo tipo (b): - se si abbassa il livello di significatività, cioè la probabilità di commettere errori di I tipo (a), - si accresce quella dell'errore di II tipo (b); e viceversa.
Si tratta di vedere quale dei due è più dannoso nella scelta che si deve effettuare. L’unico modo per ridurli entrambi è quello di aumentare il numero dei dati. Tuttavia non sempre è possibile ampliare le dimensioni del campione, perché già raccolto oppure perché i costi ed il tempo necessari diventano eccessivi, per le disponibilità reali del ricercatore.
Per l’inferenza statistica sono stati proposti due approcci: (a) quello classico e (b) quello decisionale.
A) La soluzione adottata nell’approccio classico all’inferenza statistica consiste: - nel fissare dapprima un livello di significatività a conveniente basso, per contenere entro il limite prescelto la probabilità di commettere errori di I tipo; - successivamente nel scegliere la zona di rifiuto, in modo che b sia minimo. Pertanto, nell’approccio classico si tenta di ridurre soprattutto l’errore a o di I tipo. L’approccio classico all’inferenza statistica, così detto perché storicamente ha preceduto gli altri (l’approccio decisionale e quello bayesiano), è quello più noto e applicato. Fa riferimento alla concezione frequentista della probabilità ed è rivolto alla pura conoscenza, alla esclusiva finalità scientifica di accettare o respingere un modello teorico. Non considera le iniziative che possono essere intraprese o le scelte da attuare, in seguito alle conclusioni raggiunte. E’ tipico della ricerca pura, come può essere quella biologica ed ecologica, quando evidenzia leggi o regolarità (come quelle di Mendel o la distribuzione geografica di una specie animale) per le quali non esiste alcun vantaggio o danno derivante da un’azione successiva alla scelta dell’ipotesi H0 oppure H1. Nell’approccio classico, l’inferenza è fondata sul principio di ripetizione del campionamento, per cui i dati sperimentali raccolti in natura o prodotti in laboratorio sono solamente uno degli infiniti possibili campioni, che teoricamente si ottengono ripetendo l’operazione infinite volte nelle stesse condizioni. L’inferenza ottenuta non considera solo il campione raccolto, ma tutti i possibili dati che teoricamente potrebbero essere ottenuti ripetendo l’esperimento.
B) Nell’approccio decisionale, si prendono in considerazione anche le conseguenze derivanti dagli errori e si cerca di valutare le “perdite“, determinate da eventuali decisioni sbagliate. L’approccio decisionale, proposto per la prima volta in modo completo da Abraham Wald (1902 – 1950) che ha dato contributi importanti alla teoria delle decisioni, intende fornire metodi per decidere in situazioni d’incertezza: il concetto di base è la perdita o il rischio che derivano da una decisione, se successivamente essa si rivelasse errata. L’approccio decisionale ha finalità operative: la conclusione non solo può essere corretta od errata, ma può avere conseguenze più o meno costose, se a posteriori si rivelasse sbagliata. Per l’ambientalista, è frequente la situazione in cui si devono decidere interventi, senza sapere in anticipo con precisione quali possono esserne le conseguenze (es.: nuove norme sulle discariche in un lago, che possono avere conseguenze negative per altri aspetti, come quelli economici, sulle aziende vicine; la sospensione del traffico per abbassare i tassi d’inquinamento atmosferico, che può suscitare irritazione nella cittadinanza e quindi la perdita di consensi all’amministrazione). La diffusione della scienza applicata determina un’importanza crescente della teoria delle decisioni. Tuttavia tale impostazione è progressivamente scomparsa dai testi di statistica applicata.
La differenza tra approccio classico e approccio decisionale è più scolastica che reale. Da una parte, sempre più spesso, la conoscenza scientifica è successivamente tradotta in applicazioni, che danno risultati economici (come i principi della selezione genetica applicati a piante da frutto oppure a animali domestici). Dall’altra, a volte le decisioni amministrative implicano rischi per la vita o la salute delle persone oppure danni permanenti all’ambiente, che non possono essere tradotti in valore economico (come un’eventuale dispersione territoriale di sostanze radioattive, che può incrementare la frequenza di tumori e di decessi).
L’approccio decisionale ha applicazioni di estrema utilità quando le conseguenze delle scelte possono essere tradotte in conseguenze economiche, se non in modo preciso almeno con buona approssimazione. Ma la teoria delle decisioni esula dagli argomenti affrontati in questo corso. Con una presentazione dei concetti precedenti più formale e meno discorsiva, utile all’apprendimento del linguaggio scientifico, si può affermare che il controllo statistico delle ipotesi ammette una pluralità di procedure, che differiscono sotto il profilo logico-metodologico. In questo corso, si fa riferimento a quelle che trovano le loro premesse - (a) nella “teoria della significatività” e - (b) nella “teoria dei test”. Sono procedure diverse nella impostazione teorica e logica; ma, sotto particolari condizioni, convergono tecnicamente.
A) Nella teoria della significatività dovuta prevalentemente a sir Ronald Aylmer Fisher (1890-1962), il controllo, sulla base di una generico test, attiene ad una sola ipotesi detta “ipotesi nulla” (null hypothesis) indicata con H0. Essa configura la completa accidentalità dell’esito campionario: ipotizza che tale esito sia giustificabile nei termini dell’errore di campionamento da un insieme più vasto, detta popolazione o universo. In questo contesto, si conviene di ritenere falsa (quindi di rifiutare) l’ipotesi H0 quando l’evento che si è verificato (o eventi più estremi di esso) ha, sotto quella ipotesi, una probabilità di accadimento inferiore a un livello prefissato a (detto livello di significatività). Non è certo che l’ipotesi nulla sia falsa; ma ad essa è associata una probabilità di errore non superiore ad a. Nella teoria della significatività, H0 è rifiutata o non rifiutata; mai accettata per dimostrazione. B) Nella teoria dei test d’ipotesi, dovuta ai coetanei Jerzy Neyman (1894-1981) e Egon Sharpe Pearson (1896-1980, figlio del più famoso Karl Pearson, 1857-1936, al quale sono dovuti tra gli altri anche la correlazione, il chi quadrato e i momenti), sono poste a confronto due ipotesi H1 e H2, sulla base di una generica statistica test T e il rifiuto dell’una implica necessariamente l’accettazione dell’altra. Si conviene di rifiutare H1, quindi accettare H2, quando l’esito campionario (o esiti più estremi) risulta, dato H1, meno verosimile che nella condizione in cui sia vera l’ipotesi H2. Si può allora incorrere in 2 errori: rifiutare un’ipotesi quando è vera, (errore di I tipo) o accettarla quando è falsa (errore di II tipo). Le loro rispettive probabilità di accadere (o meglio i valori massimi ammessi per esse) vengono indicate con a e b.
Intuitivamente, la regola migliore di decisione sulla sorte di una ipotesi dovrebbe consentire che contemporaneamente sia l’errore di I tipo sia l’errore di II tipo abbiano la minor probabilità possibile di avvenire. Tuttavia una tale regola non esiste, poiché le probabilità a e b sono legate da una relazione inversa: se una cresce, l’altra cala. Pertanto, - si fissa il valore di a - si cerca di individuare la procedura, o test, che dia luogo al b con il valore minimo. La quantità p = 1 - b, definita potenza della regola di decisione, misura la probabilità di rifiutare (correttamente) un’ipotesi quando è falsa. Una delle due ipotesi poste a confronto può essere l’ipotesi di completa accidentalità (H0) e l’ipotesi alternativa HA (più spesso H1) una negazione (unilaterale o bilaterale) di H0. In questo schema di riferimento, gli strumenti per il controllo statistico di H0 nell’ambito della teoria dei test coincidono, da un punto di vista tecnico, con quelli sviluppati nella teoria della significatività.
Nei testi di statistica industriale, per evidenziane le differenze e la contrapposizione tra e , - la probabilità è definita rischio del produttore (producers’ risk), - la probabilità è definita rischio del consumatore (consumers’ risk). Una azienda quando mette sul mercato un prodotto indica le sue specifiche. Si realizza l’ipotesi nulla H0, quando nell’analisi di alcuni prodotti non si trovano differenze significative da quanto dichiarato. Essa deve porre attenzione al fatto che la proporzione di scarti non sia grande; quindi è interessata al fatto che sia basso, poiché un valore alto di è sinonimo di una proporzione elevata di scarti. Chi produce è interessato ad avere basso. Ma quando essa ha un fornitore che produce parti che poi vengono assemblate, deve analizzare bene il prodotto, in modo da accorgersi rapidamente se le specifiche riportate nel contratto sono rispettate. Se il prodotto non è conforme, quindi l’ipotesi H0 è falsa ed è vera H1 perché la qualità è inferiore, è interesse dell’azienda avere procedure di controllo efficaci, che le permettano di scartare il prodotto anche quando le differenze nelle specifiche sono minime. Chi consuma o compra è interessato ad avere un basso.
| |||||||||||||||||
Manuale di Statistica per la Ricerca e la Professione © Lamberto Soliani - Dipartimento di Scienze Ambientali, Università di Parma (apr 05 ed) ebook version by SixSigmaIn Team - © 2007 |