I N D I C E
1. ELEMENTI DI STATISTICA DESCRITTIVA
PER DISTRIBUZIONI UNIVARIATE
1.1. La statistica nella ricerca
ambientale e biologica
1.2. Il disegno sperimentale, il
campionamento e l’inferenza
1.3. Tipi di dati e scale di
misurazione
1.3.1 La scala
nominale o classificatoria
1.3.2 La scala
ordinale o per ranghi
1.3.3 La scala ad
intervalli
1.3.4 La scala di
rapporti
1.4. Classificazione in tabelle
1.5. Rappresentazioni grafiche di
distribuzioni univariate
1.6. Le misure di tendenza centrale
1.6.1 Le misure di
tendenza centrale o posizione
1.6.2 La mediana
1.6.3 La moda
1.7. Misure di dispersione o
variabilità
1.7.1 Intervallo di
variazione
1.7.2 La differenza
interquartile
1.7.3 Lo scarto medio
assoluto dalla media
1.7.4 Lo scarto medio
assoluto dalla mediana
1.7.5 La devianza
1.7.6 La varianza
1.7.7 La deviazione
standard
1.7.8 L'errore
standard
1.7.9 Il coefficiente
di variazione
1.7.10 La varianza in
dati raggruppati: correzione di Sheppard
1.8. Indici di forma: simmetria e
curtosi
1.9. Accuratezza, precisione e scelta
del numero di cifre significative
1.10. Metodi per calcolare un generico
quantile da una serie di dati
1.11.
Rappresentazioni grafiche e semi-grafiche delle distribuzioni: data plot,
box-and-whisker, line plot, stem-and-leaf
2.
DISTRIBUZIONI e leggi di probabilitA’
2.1.
Elementi
di calcolo combinatorio semplice
2.1.1
Permutazioni semplici
2.1.2
Disposizioni semplici
2.1.3
Combinazioni semplici
2.1.4
Risposte alle domande del paragrafo 2.1
2.2.
Definizioni di probabilità: matematica, frequentista e soggettiva, con elementi
di statistica bayesiana
2.3.
Alcune
distribuzioni discrete
2.3.1
Distribuzione binomiale
2.3.2
Distribuzione multinomiale
2.3.3
Distribuzione poissoniana
2.3.4
Distribuzione geometrica e distribuzione di Pascal
2.3.5
Distribuzione ipergeometrica
2.3.6
Distribuzione binomiale negativa
2.3.7
Distribuzione uniforme o rettangolare
2.4.
Alcune
distribuzioni continue
2.4.1
Distribuzione normale o di Gauss
2.4.2
Distribuzioni asintoticamente normali, con approssimazioni e trasformazioni
2.4.3
Dalla disuguaglianza di Tchebycheff all’uso della distribuzione normale
2.4.4
Approssimazioni e correzioni per la continuità
2.4.5
Distribuzione rettangolare
2.4.6
Distribuzione esponenziale negativa
2.4.7
Le curve di Pearson
2.4.8
La distribuzione gamma
2.5.
Distribuzioni campionarie derivate dalla normale ed utili per l’inferenza
2.5.1
La distribuzione
2.5.2
La distribuzione t di Student
2.5.3
La distribuzione F di Fisher
3. ANALISI DELLE FREQUENZE
3.1. Confronti tra distribuzioni
osservate e distribuzioni attese
3.2. Condizioni di validità del e correzione di
Yates
3.3. Le tabelle di contingenza 2 x 2
(fourfold tables)
3.4. Correzioni per la continuita’ in
tabelle 2 x 2: Yates e Haber
3.5. Confronti tra frequenze relative
con la distribuzione normale e sua correzione per la continuità
3.6. Confronto tra test per tabelle 2 x 2 e
test Z, senza e con le correzioni per la continuità
3.7. Confronto di una proporzione
osservata con una attesa: il test Z per grandi campioni
e la distribuzione binomiale per piccoli campioni
3.8. Tabelle di contingenza 2 x 2 in
piccoli campioni: il metodo esatto di Fisher
3.9. Le tabelle 2 x N con la formula
generale e quella di Brandt-Snedecor. Le tabelle M x N
3.10. Il log-likelihood ratio o metodo
G
3.10.1 Confronto
tra una distribuzione osservata ed una attesa con la correzione di Williams
3.10.2 Tabelle 2
x 2, con la correzione di Williams e quella di Mantel-Haenszel
3.10.3 Tabelle M x N con la correzione di Williams
3.11. Il chi quadro con il metodo di
Cochran e di Mantel-Haenszel
3.12. Esercizi svolti per dati in
tabelle di contingenza
4. VERIFICA DELLE IPOTESI TEST PER
UN CAMPIONE SULLA TENDENZA CENTRALE CON VARIANZA NOTA E TEST SULLA
VARIANZA CON INTERVALLI DI CONFIDENZA
4.1. Risultati significativi e
non-significativi
4.2. Perche’ p < 0.05 ? e’ un
rito oppure una scelta razionale?
4.3.
Procedura di verifica delle ipotesi: vero o falso? utile o dannoso?
4.4.
I fattori che determinano la potenza di un test
4.5.
Calcolo
della potenza, del numero minimo di dati e della differenza minima in test per un campione, con la
distribuzione z
4.6.
Stima approssimata dellla varianza della popolazione; il criterio di Cohen per
la scelta di b;
l’effetto
della media sulla potenza
4.7. Intervallo di confidenza o di
fiducia di una media con s2 nota
4.8.
Intervallo di confidenza di una mediana con varianza nota e ignota
4.9. Stima
della media con un intervallo di confidenza prefissato o con un errore
prefissato, nel caso di
varianza nota
4.10. Significativita della differenza
tra due medie, con varianza nota
4.11.
Potenza e numero di dati per la significativita’ della differenza tra due
medie, con la distribuzione normale
4.12.
Stima
della differenza tra due medie con un errore o un intervallo di confidenza
prefissati, nel caso di
varianza nota
4.13.
Significativita’ della differenza tra una varianza campionaria e una varianza
attesa
4.14.
La potenza a posteriori e a priori per la significativita’ della differenza tra
una varianza osservata e una varianza attesa
4.15.
Intervallo
di confidenza o di fiducia di una varianza, con equal tail method e shortest
unbiased
confidence intervals
4.16.
Intervallo
di confidenza della deviazione standard e stima della dimensione del campione
4.18. Potenza a priori e a posteriori del test F
per l’uguaglianza di due varianze
4.19.
Intervallo
di confidenza del rapporto F tra due varianze; stima di F con un errore o un
intervallo di
confidenza prefissati
4.20.
Il confronto tra un coefficiente di variazione (CV) osservato e uno teorico o
atteso
4.21. Test per la differenza tra due coefficienti di
variazione con la distribuzione z
4.22.
Parametri e statistiche. Le proprieta' ottimali di uno stimatore:
correttezza, consistenza, efficienza,
sufficienza. La robustezza di un test
4.23. Precisione e accuratezza di uno
strumento o di una analisi
5. PROPORZIONI E PERCENTUALI
RISCHI, ODDS E TASSI
5.1.
Termini
tecnici in epidemiologia: misure del rischio
5.2. Altri termini tecnici: sensibilita’,
specificita’, valore predittivo e efficienza di un test o di una
classificazione
5.3.
Perche’
la varianza di p e’ pq e sue conseguenze; varianza e errore standard di una
frequenza
relativa o assoluta, in una popolazione infinita e finita
5.4. Intervallo di confidenza
di una frequenza relativa o assoluta con la normale, in una popolazione infinita o finita;
metodi grafici per l’intervallo fiduciale e la stima del numero di dati.
5.5. Intervallo di confidenza
di una proporzione, mediante la distribuzione F
5.6. Calcolo del campione minimo necessario, per la
stima di una proporzione campionaria con un errore massimo prefissato
5.7.
Il
confronto tra una proporzione campionaria e una proporzione attesa con il test
z; dimensione minima
del campione, per l’uso della distribuzione normale
5.8. La potenza a posteriori e a priori di un
test sulla proporzione per un campione, con l’uso della normale
5.9. Test per una proporzione:
la binomiale per campioni piccoli e l'intervallo di confidenza con F per campioni grandi
5.10.
La potenza
di un test per una proporzione, con l’uso della distribuzione binomiale
5.11.
Test per la bonta’ dell’adattamento di una distribuzione osservata e la
distribuzione binomiale, costruita con una proporzione nota e con una proporzione ignota
5.12. Test sulla differenza tra due proporzioni, con il
metodo di Feldman e Kluger, per abbreviare il metodo esatto di Fisher
5.13.
Significativita’ e intervallo di confidenza della differenza tra due
proporzioni, con la distribuzione normale
5.14. Potenza a posteriori (1-b) e a priori (n)
dei test sulla differenza tra due proporzioni; bilanciamento di due campioni
5.15. Il rapporto tra due proporzioni (r): intervallo di
confidenza e significativita’; formula test-based di Miettinen per r
5.16.
Il
rapporto tra due odds (or): intervallo di confidenza e significativita’;
formula test-based di
Miettinen per or
5.17.
Il
rapporto tra due tassi (rr): intervallo di confidenza e significativita’;
formula test-based di Miettinen
5.18. Dimensioni dei campioni e
potenza, per test sulla differenza e sull’odds ratio delle proporzioni di
due campioni indipendenti
6. INFERENZA SU UNA O DUE MEDIE CON IL
TEST t DI STUDENT
6.1. Dalla popolazione infinita al campione piccolo:
la distribuzione t di student
6.2. Confronto tra una media
osservata e una media attesa con calcolo dei limiti di confidenza di una media, con ignota
6.3. Confronto tra una osservazione e
la media di un campione
6.4. Il confronto tra le medie di due
campioni
6.5. Il test t per 2 campioni
dipendenti o per dati appaiati con intervallo di confidenza della media delle differenze
6.6. Test di Sandler per due campioni
dipendenti
6.7. Il test t per 2 campioni
indipendenti o per dati non appaiati
6.8. Test F, test di Bartlett e test
di Levene per la verifica di ipotesi bilaterali e unilaterali sull'uguaglianza di due varianze
6.9. Significatività
e intervallo di confidenza di una differenza
6.10. Potenza a priori e a posteriori
del test t, con un campione e con due campioni dipendenti o indipendenti
6.11. Dimensione del campione e
precisione nella stima sia di una media sia di una differenza tra due medie
6.12. Il bilanciamento di due campioni
indipendenti: vantaggi e costi
6.13. Correzione per il campionamento
in una popolazione finita e il concetto di superpopolazione
6.14. Test per la differenza tra due
coefficienti di variazione con la distribuzione t di Student
6.15. Il confronto tra due medie con varianze differenti
o problema di Behrens-Fisher; la statistica Welch e il metodo di
Satterthwaite
6.16. Effetto trattamento: e cenni di , nel test t di Student per
due campioni indipendenti
6.17. Limiti di tolleranza e population coverage, con
metodi parametrici
7. METODI NON PARAMETRICI PER UN
CAMPIONE
7.1. Caratteristiche dei test non
parametrici
7.2.
I test
esatti e il metodo Monte Carlo
7.3.
Il test
delle successioni per un campione
7.4.
Il test
dei segni per un campione
7.5.
Intervallo di confidenza per una probabilità o frequenza relativa, secondo il
metodo di Clopper e Pearson
7.6.
Intervalli di confidenza non parametrici e intervalli di tolleranza
7.7.
Intervallo di confidenza della mediana con il test dei segni
7.8.
Il test
dei segni per ranghi di Wilcoxon
7.9.
Differenze nulle e ties nel test T di Wilcoxon
7.10.
Teoria
del test T di Wilcoxon e della correzione per i ties
7.11. Intervalli di confidenza della locazione (mediana) con il T
di Wilcoxon; medie di Walsh o quasimedians, stimatore di Hodges – Lehmann o pseudomedian
7.12.
Test di
casualizzazione (raw scores test, Pitman test, Fisher’s randomization test)
7.13. Test T di Wilcoxon per la
simmetria
7.14. Il test di Gosset per la eterogeneita’ di
Poisson in conteggi; il test per l’indice di dispersione e il grafico di Elliott
7.15. Il metodo di
Kolmogorov-Smirnov per un campione, con dati ordinali discreti e con dati
continui
7.16. Il T2 di Freeman-Tukey e confronto con
il c2 e il g2
nei test per la bonta’ dell’adattamento
7.17. Il dibattito sulla significativita’ dei
test per la bonta’ dell’adattamento, rispetto a quelli per un parametro
7.18.
Rinvio ad altri test per un campione
7.19. Presentazione dei risultati di programmi
informatici e confronti tra test
8. METODI NON PARAMETRICI PER DUE CAMPIONI DIPENDENTI
8.1.
Test per
2 campioni dipendenti o per dati appaiati
8.2. Il test di McNemar con la correzione di
Edwards; la stima della potenza
8.3. Intervallo di confidenza
della differenza tra le proporzioni di due campioni dipendenti
8.4. Il test
dei segni con stima della potenza a priori
8.5. Il test T di Wilcoxon o test dei segni per
ranghi, con stima della potenza
8.6.
Intervallo di confidenza di una differenza con il test dei segni e il test T di
Wilcoxon
8.7.
Test di casualizzazione per 2 campioni dipendenti o Fisher’s randomization test
9. METODI NON PARAMETRICI PER DUE
CAMPIONI INDIPENDENTI
9.1. Test per 2
campioni indipendenti
9.2. Test unilaterale per tabelle 2
x 2 analogo al
9.3.
Test per
l’effetto dell’ordine del trattamento o test di Gart
9.4. Il test della mediana
9.5. L’intervallo di
confidenza per una differenza mediana, con il metodo esatto di Fisher
9.6. Il test di
Wilcoxon-Mann-Whitney della somma dei ranghi
9.7. Calcolo delle
probabilita’ associate ai valori di T, potenza (1-b, n) e robustezza
del test
di
Wilcoxon-Mann-Whitney
9.8.
Il test
U di Mann-Whitney o dell'ordine robusto dei ranghi
9.9 L’intervallo di
confidenza della differenza tra due mediane, con l’indice U di Mann-Whitney
9.10. Test S di Kendall e suoi
rapporti con il test T e il test U; potenza-efficienza dei tre test e confronti
tra i metodi
9.12.
Il test delle
successioni per due campioni o test di Wald-Wolfowitz
9.13. Test di Siegel-Tukey per
l’uguaglianza della varianza; cenni del test di Freund-Ansari-Bradley e del test di Conover
9.14.
Il test
dei ranghi equivalenti di Moses per le differenze nella dispersione o
variabilità
9.15. Confronto tra due
distribuzioni osservate: il metodo di Kolmogorov-Smirnov per 2 campioni indipendenti con dati
ordinali discreti o gruppi e con dati continui
10. ANALISI DELLA VARIANZA (ANOVA I) A
UN CRITERIO DI CLASSIFICAZIONE E CONFRONTI TRA PIU’ MEDIE
10.1.
Analisi
della varianza ad un criterio di classificazione o a campionamento
completamente randomizzato
10.2. Confronto tra analisi della varianza con due
trattamenti e test t di Student per 2 campioni indipendenti
10.3.
Test per l'omogeneità della varianza tra più campioni: test di Hartley,
Cochran, Bartlett, levene e Levene
modificato di Brown-Forsythe
10.4.
I confronti a priori o pianificati tra più medie
10.5.
Confronti multipli a posteriori o post hoc (UMCP)
10.5.1
Il principio di Bonferroni e il metodo di Dunn-Sidak
10.5.2
La procedura LSD di Fisher e la modifica di Winer
10.5.3
Il test HSD di Tukey e la procedura di Tukey-Kramer
10.5.4
Il test di Student-Newman-Keuls o test SNK
10.5.5
Il test di Scheffé con l’estensione di Gabriel
10.5.6
Il test di Dunnett
10.5.7
Il test di Duncan
10.5.8 Test
multipli sequenziali di Holm e confronto con il test di Bonferroni; cenni sul
metodo di Shaffer 109
10.5.9 Cenni su
altri test
10.5.10 Dibattito
sul test post-hoc migliore
10.6. Confronti post-hoc tra varianze
10.7.
Stima
della dimensione n di k gruppi campionari per l’ANOVA
10.8.
Confronto tra medie con ANOVA, da dati aggregati di k campioni
11. Analisi
della varianza a piu' criteri di classificazione
11.1.
Analisi della varianza a due criteri di classificazione o a blocchi
randomizzati, con una sola osservazione
per casella
11.2.
Confronto tra analisi della varianza a due criteri e test t di Student per 2
campioni dipendenti
11.3. Analisi della varianza a tre o
più criteri
11.4.
Quadrati latini e greco-latini
11.5.
Dati mancanti o anomali in disegni a più fattori
11.6.
Efficienza relativa (E.R.) e capacita’ predittiva (R2)
11.7.
Effetto trattamento nell’analisi della varianza: r2, e
11.8.
Potenza a
priori e a posteriori nell'ANOVA, con grafici di Pearson e Hartley
11.9.
Lettura
di tabulati sull’analisi della varianza
12. analisi
FATTORIALE, disegni complessi CON FATTORI INCROCIATI
12.1. Analisi fattoriale ed interazione
12.2.
Interazione tra due fattori a più livelli
12.3.
Rappresentazione grafica dell'interazione a due fattori
12.4.
Analisi della varianza a due fattori con repliche ineguali
12.5. Il test T
di Tukey per il confronto tra le medie in disegni a due fattori con repliche
12.6.
Esperimenti fattoriali 2 x 2 e 2 x 2 x 2 con i confronti ortogonali
12.7.
Esperimenti fattoriali con P fattori a k livelli
12.8.
Test di
Tukey per la non-additivita’ con 1 df
12.9.
Quadrati
latini con repliche
12.10. Lettura di un tabulato informatico
13. TRASFORMAZIONI DEI DATI CON TEST PER
NORMALITA’ E PER OUTLIER
13.1.
Motivi
delle trasformazione dei dati
13.2.
Alcune
trasformazioni dei dati
13.3.
Altri
effetti delle trasformazioni
13.4.
La scelta
della trasformazione idonea: il metodo di Box-Cox
13.5.
Effetti
delle trasformazioni sui risultati dell’ANOVA
13.6.
Test per
la verifica di normalita’, simmetria e curtosi, con i metodi proposti da
Snedecor-Cochran
13.7. Metodi grafici e altri
test (Lilliefors, D’Agostino-Pearson) per normalita’, simmetria e curtosi
(cenni dei test di Geary e
di Shapiro-Wilk)
13.8. Cenni del test di Cramer-Von
Mises
per un campione e per due campioni indipendenti
13.9. L’outlier: dato anomalo o dato sbagliato?
definizioni di outlier
13.10.
Identificazione degli outlier con il metodi grafici: il box-and-whiskers di
Tukey
13.11.
Metodi statistici per grandi campioni: la distribuzione di Chebyshev e la
distribuzione normale; the huge rule
13.12.
Verifica degli outlier o gross error per campioni piccoli con distribuzione
normale: il test di
Grubbs o extreme studentized residual; il test q di Dixon
13.13.
La extreme studentized deviate e la median absolute deviation
13.14.
Trattamento degli outlier: eliminarli o utilizzarli? come?
14. L’ANALISI GERARCHICA E LE
COMPONENTI DELLA VARIANZA
14.1.
Analisi
gerarchica o nested in ANOVA I, II e III
14.2.
Nested
ANOVA I o a effetti fissi
14.3. Interazione: l'analisi gerarchica
in esperimenti fattoriali
14.4. Disegni con fattori nested e
crossed
14.5. Confronti multipli e intervalli
fiduciali in nested ANOVA I
14.6. Potenza del test nell’analisi
fattoriale e in nested ANOVA I
14.7. Il concetto di effetti random e
condizioni di validita’ del test
14.8. ANOVA II e le componenti della varianza con un
solo fattore e campioni bilanciati o ineguali
14.9. Cenni di nested ANOVA II in
disegni a due e a piu’ fattori
14.10. Cenni di ANOVA III o a effetti
misti
14.13. Esempio di analisi della varianza a due fattori con
interazione, in un modello a effetti fissi e uno a effetti random, su gli stessi dati;
esempio di
stima delle componenti della devianza
14.14.
Lettura di
un tabulato informatico
15. TEST NON PARAMETRICI PER PIU'
CAMPIONI
15.1. I test non parametrici piu’
utilizzati, per k campioni
15.2.
Estensione
del test della mediana
15.4. Analisi della varianza per ranghi
ad un criterio di classificazione: il test di Kruskal-Wallis
15.5. Confronto con il test F e
confronti multipli con i ranghi
15.6.
Test per
l’eterogeneita’ della varianza con k campioni
15.7.
Confronti tra piu' proporzioni e confronti multipli relativi
15.8.
Il test Q
di Cochran
15.9. Estensione del test di McNemar o
test di Bowker
15.10. Test di Friedman o analisi della varianza per
ranghi a 2 criteri di classificazione, con una e con k repliche
15.11.
I confronti
multipli tra medie di ranghi nell’analisi della varianza non parametrica, a due criteri
di classificazione
15.12.
Test di
Quade
15.13.
L’esempio
di Koch: uso di metodi non parametrici, nell’analisi statistica di un
esperimento
complesso con k fattori
16. REGRESSIONE LINEARE SEMPLICE
16.1. La statistica bivariata: utilizzare la regressione
oppure la correlazione?
16.2.
Descrizione di una distribuzione bivariata
16.3. La regressione dei figli verso la mediocrita’
16.4.
Modelli di
regressione
16.5.
La
regressione lineare semplice
16.6. Valore predittivo della retta di regressione:
estrapolazione o interpolazione?
16.7. Significatività' del coefficiente angolare
b o test per la
linearita’, mediante il test e il test
16.8.
Test per
la significativita dell’intercetta a
16.9. La potenza e la dimensione
minima del campione, nel test della regressione: rinvio alla correlazione
16.10.
Intervalli
di confidenza dei parametri b e a
16.11. Intervallo di confidenza della retta di regressione
e per un singolo ,
stimato con i dati del campione
16.12.
Intervallo di confidenza o di previsione di , stimato per un valore o la media di
valori aggiuntivi al
campione
16.13. Significativita’ della differenza tra un valore
medio calcolato e un valore medio atteso
16.14. Errori delle variabili e
intervalli di tolleranza
16.15. Indici della capacita’ predittiva della
regressione: ,
, , e loro significativita’
16.16.
La predizione
inversa o problema della calibratura: stimare il valore medio e l’intervallo di
confidenza di x
partendo da y
16.17. La
regressione per l’origine: retta, intervallo di confidenza e predizione
inversa; vantaggi, limiti e alternative
16.18. Limite di determinazione e
limite di rilevabilita’, mediante la retta di calibrazione
16.19.
La
regressione per il confronto tra le medie di due o piu’ gruppi, con variabile
dummy; regressione, test t
di student e anova I
16.20.
Analisi
della varianza a due criteri, mediante il metodo della regressione
16.21. Devianza di tipo I, II, III, IV, V, VI nell’analisi della
regressione
17. CONFRONTI TRA RETTE, CALCOLO DELLA
RETTA CON Y RIPETUTE, CON VERIFICA DI LINEARITA’ E INTRODUZIONE ALLA
REGRESSIONE LINEARE MULTIPLA
17.1. Confronto tra due rette di regressione con il test
t di Student e calcolo della retta comune
17.2.
Confronto
tra punti su due rette di regressione
17.3. Confronto tra piu’ rette di regressione con il
test F, calcolo della retta comune e intervalli di confidenza
17.4. Confronti multipli tra più
coefficienti angolari
17.5. Analisi della relazione dose-effetto con y ripetute:
calcolo della retta di regressione e test per la linearita'
17.6. Calcolo dei termini della regressione, mediante i
coefficienti polinomiali
17.7.
Test di
linearita’ con y ripetute, in campioni non bilanciati
17.9. La regressione nell’analisi della
varianza a piu’ criteri
17.10. Condizioni di validita’ della
regressione con l’analisi dei residui; test per la costanza della varianza d’errore (Levene modificato e
Breusch-Pagan o Cook-Weisberg), trasformazioni per la retta
17.11. Scelta dei valori di x, per
una regressione significativa
17.12.
La
regressione lineare multipla e il modello generale di regressione lineare
18. CORRELAZIONE E COVARIANZA
18.2.
Condizioni
di validita’ e significativita’ di r con r = 0 e con r ¹ 0
18.3. Significativita’ della retta con
R2 ?
18.4. Intervallo di confidenza di r
18.6. Differenza tra due coefficienti
di correlazione in campioni indipendenti e calcolo del coefficiente comune
18.7. Potenza a priori e a
posteriori del test per la significativita’ della differenza tra due
coefficienti di correlazione
18.8. Test per la differenza tra piu’
coefficienti di correlazione; coefficiente di correlazione comune rw
e sua significativita’
18.9. Cenni sui confronti multipli tra
piu’ r
18.10. La correlazione parziale o netta
di primo ordine e di ordine superiore; la correlazione semiparziale
18.11. Analisi della covarianza per due
gruppi, con test t di Student per rette parallele e per rette non parallele
18.12. Analisi della covarianza per k gruppi (ANCOVA) e
riduzione proporzionale della varianza d’errore
18.13. Gli outlier nell’analisi di
regressione e correlazione
18.14. L'analisi dei residui per l'identificazione degli
outlier; residuals, studentized residuals, standardized residuals
18.15. Hat value o leverage, studentized deleted
residuals
18.16. La distanza euclidea tra le statistiche della retta
e la distanza di Cook; applicazioni del jackknife
18.17. Lettura di tre tabulati di programmi informatici su
regressione e correlazione lineare semplice
18.18.
Confronto tra quattro output informatici sulla regressione lineare semplice:
SAS, MINITAB, SYSTAT, SPSS
19. TEST NON PARAMETRICI PER IL TREND
19.2. Il test di Cox e Stuart (e sue
varianti) per il trend nella posizione e nella dispersione
19.3. Test di Jonckheere o
Jonckheere-Terpstra per alternative ordinate in k campioni indipendenti
19.4. Test di Mack-Wolfe o umbrella test
19.5. Il test di Page per alternative
ordinate in k campioni dipendenti
20. COEFFICIENTI
DI ASSOCIAZIONE, DI COGRADUAZIONE E DELL’ACCORDO RISCHIO RELATIVO E
ODDS RATIO
20.1.
I primi
anni del chi- quadrato: cenni su nascita ed evoluzione
20.2.
Il t2 di freeman-tukey e confronto con il
c2 e il g2
nei test per la bonta’ dell’adattamento; cenni di altri test
analoghi
20.3.
Classificazione dei coefficienti d'associazione o d’indipendenza
20.4. Associazione fra variabili categoriali o
qualitative: il c con la correzione di Sakoda e il
f di Pearson,
il fc o v di Cramer, il dt o t di
Tschuprow
20.5. Altri indici di associazione per variabili
dicotomiche o tabelle 2 x 2: q e y di Yule, dsim. e dxy di Somers; cenni sul
tb.di Kendall
20.6.
Associazione per variabili categoriali in tabelle r x c: la pre, il
l simmetrico ed
asimmetrico di
Goodman e Kruskal, cenni su la UC o U di Theil
20.7. Cograduazione per variabili ordinali in tabelle r
x c: il g di Goodman e
Kruskall, il tc.di Kendall-Stuart, il dba e dab
di Somers
20.8. Il kappa di Cohen: stima dell’accordo (agreement)
tra due valutazioni con scala nominale
20.9. Alcuni sviluppi della statistica
kappa: la k pesata e i paradossi
20.10. Differenza tra rischi e rischio relativo, con
intervalli di confidenza
20.11. Odds ratio e cross product ratio; intervallo di
confidenza; test di significativita’ per uno e tra due odds ratio
20.12. Lettura dei tabulati di un
pacchetto statistico
21. TEST NON PARAMETRICI PER
CORRELAZIONE, CONCORDANZA, REGRESSIONE MONOTONICA E REGRESSIONE LINEARE
21.1. La correlazione non parametrica (rho) di Spearman,
con la distribuzione di Hotelling-Pabst
21.2. Il coefficiente di correlazione
t (tau) di Kendall;
il ta e tb di Kendall con i
ties
21.3.
Confronto
tra r e t; potenza del test
e numero di osservazioni necessarie per la significativita’
21.4.
Altri
metodi per la correlazione non parametrica: test di Pitman con le permutazioni;
test della mediana
di Blomqvist
21.5.
Il test di
Daniels per il trend
21.6.
Significativita’ della regressione e della correlazione lineare parametrica con
i test nonparametrici r e t
21.7. Il coefficiente di correlazione parziale: 12,3 di
Kendall, r12,3 di Spearman
21.8. Il coefficiente di concordanza tra valutatori: la
w di Kendall; sue relazioni con la correlazione non parametrica e con il test di Friedman per k
campioni dipendenti. Cenni sulla top-down concordance
21.9. Cenni sul coefficiente di
concordanza u di Kendall, in confronti appaiati
21.10. La regressione lineare non
parametrica
21.11. Calcolo della retta di regressione non parametrica
con il metodo di Theil o test di Theil-Kendall
21.12. Confronto tra la retta parametrica e la retta di
Theil
21.13. Significativita’ di b con il
t di Kendall
21.14. La regressione lineare non parametrica con il
metodo dei tre gruppi di Bartlett
21.15. Il test di Hollander per il confronto tra due
coefficienti angolari
21.16. La regressione monotonica di
Iman-Conover
21.17. Trend lineare di Armitage per le
proporzioni e le frequenze
22. ALTRI METODI INFERENZIALI: NORMAL
SCORES E RICAMPIONAMENTO
22.1. I normal scores di Van der
Waerden; cenni su random normal deviates e su expected normal scorse
22.2. Applicazioni dei normal scores di
Van der Waerden ai test sulla mediana per uno, due e piu’ campioni
22.3. Applicazione dei normal scores di Van der Waerden a test per
omoschedasticita’, regressione e correlazione semplici
22.4.
Metodi di
ricampionamento: Monte Carlo e principio plug-in
22.5.
Il
Jackknife
22.6.
Il
Bootstrap
23. IL DISEGNO SPERIMENTALE:
CAMPIONAMENTO, PROGRAMMAZIONE DELL’ESPERIMENTO E POTENZA
23.1. Il disegno sperimentale e il campionamento nella
ricerca ambientale
23.2. Campioni non probabilistici e campioni
probabilistici, con uso delle tavole di numeri casuali
23.3. L’errore di stima nel
campionamento, per la scelta di quello piu’ adeguato: l’esempio di
Snedecor-Cochran
23.4. I parametri importanti per il
campionamento
23.5. La programmazione degli
esperimenti: scelta dei fattori sperimentali e suoi effetti sulla varianza
d’errore
23.6. Stime preliminari approssimate delle dimensioni
del campione e della potenza del test, nella ricerca biologica e ambientale
23.7. Il disegno sperimentale
totalmente randomizzato: vantaggi, limiti e potenza.
23.8. Il disegno sperimentale a
blocchi randomizzati: vantaggi, limiti e potenza
23.9. Il disegno sperimentale a
quadrati latini: vantaggi, limiti e potenza
23.10. Il disegno
sperimentale fattoriale semplice (due fattori con interazione): calcolo della
potenza a posteriori
23.11. L’assenza dell’evidenza non e’ l’evidenza
dell’assenza; significativita’ statistica e rilevanza disciplinare
24. LA REGRESSIONE LINEARE MODELLO II E
LEAST-PRODUCTS. IL CONFRONTO TRA DUE METODI QUANTITATIVI.
24.1. I modelli I e II nella regressione lineare; il
caso di Berkson
24.2.
La retta
del coefficiente angolare dell’asse maggiore.
24.3.
Il plot
delle differenze e delle medie; il test di Bland-Altman, per il confronto tra
metodi e per la ripetibilita’
di un metodo.
24.4.
La
regressione modello II o least-products di Deming, per il confronto tra due
metodi analitici.
24.5.
Effetti
degli outlier sulla retta least-squares e indicazioni operative per il calcolo
della retta di confronto tra due
metodi analitici.
24.6. La formula
rapida di Mandel e la regressione least-products di York.
24.7.
La
regressione lineare e il test per l’equivalenza tra due metodi analitici di
Passing-Bablok
24.8. Dibattito
sul confronto tra due metodi di analisi cliniche ed esempi di test
24.9.
II
confronto con il gold standard: utilizzare il metodo della calibration oppure
quello della comparability?
24.10.
Il test di Bland-Altman per il confronto tra due metodi, con misure ripetute
per ogni metodo
sullo stesso soggetto
24.11.
La
ripetibilita’ e la riproducibilita’ di uno strumento o di un metodo: range
& average method
24.12.
La
ripetibilita’ e la riproducibilita’ con le varianze dell’anova, in un disegno
sperimentale a due criteri con
repliche
24.13.
Stima delle
dimensioni minime del campione, per un’analisi della ripetabilita’
24.14.
Le
componenti della varianza negli studi r&r, con l’anova a effetti random,
fissi e misti
24.15. Visione generale delle stime
richieste nell’analisi di processo