I  N  D  I  C  E 

       

 

1.   ELEMENTI DI STATISTICA DESCRITTIVA PER DISTRIBUZIONI UNIVARIATE     

 

1.1.      La statistica nella ricerca ambientale  e biologica 

1.2.      Il disegno sperimentale, il campionamento e l’inferenza        

1.3.      Tipi di dati e scale di misurazione         

1.3.1   La scala nominale o classificatoria  

1.3.2   La scala ordinale o per ranghi   

1.3.3   La scala ad intervalli        

1.3.4   La scala di rapporti                                                                                                                                    

1.4.      Classificazione in tabelle  

1.5.      Rappresentazioni grafiche di distribuzioni univariate        

1.6.      Le misure di tendenza centrale      

                1.6.1   Le misure di tendenza centrale o posizione        

                1.6.2   La mediana                                          

                1.6.3   La moda                                                              

1.7.      Misure di dispersione o variabilità        

                1.7.1   Intervallo di variazione         

                1.7.2   La differenza interquartile    

                1.7.3   Lo scarto medio assoluto dalla media  

                1.7.4   Lo scarto medio assoluto dalla mediana        

                1.7.5   La devianza 

                1.7.6   La varianza 

                1.7.7   La deviazione standard                                                                                                                                            

                1.7.8   L'errore standard                                                                             

                1.7.9   Il coefficiente di variazione   

                1.7.10 La varianza in dati raggruppati: correzione di Sheppard  

1.8.      Indici di forma: simmetria e curtosi      

1.9.      Accuratezza, precisione e scelta del numero di cifre significative   

1.10.    Metodi per calcolare un generico quantile da una serie di dati   

1.11.    Rappresentazioni grafiche e semi-grafiche delle distribuzioni: data plot, box-and-whisker, line plot, stem-and-leaf         

1.12.    Esercizi sulle misure di tendenza centrale, dispersione, simmetria e curtosi                                                           

 

2.   DISTRIBUZIONI e leggi di probabilitA’

 

2.1.      Elementi di calcolo combinatorio semplice

                2.1.1   Permutazioni semplici      

                2.1.2   Disposizioni semplici         

                2.1.3   Combinazioni semplici      

                2.1.4   Risposte alle domande del paragrafo 2.1     

2.2.      Definizioni di probabilità: matematica, frequentista e soggettiva, con elementi di statistica bayesiana                   

2.3.      Alcune distribuzioni discrete          

                2.3.1   Distribuzione binomiale         

                2.3.2   Distribuzione multinomiale     

                2.3.3   Distribuzione poissoniana                                                                 

                2.3.4   Distribuzione geometrica e distribuzione di Pascal  

                2.3.5   Distribuzione ipergeometrica     

                2.3.6   Distribuzione binomiale negativa    

                2.3.7   Distribuzione uniforme o rettangolare                                                                                                      

2.4.      Alcune distribuzioni continue         

                2.4.1   Distribuzione normale o di Gauss                        

                2.4.2   Distribuzioni asintoticamente normali, con approssimazioni e trasformazioni 

                2.4.3   Dalla disuguaglianza di Tchebycheff all’uso della distribuzione normale         

                2.4.4   Approssimazioni e correzioni per la continuità        

                2.4.5   Distribuzione rettangolare    

                2.4.6   Distribuzione esponenziale negativa        

                2.4.7   Le curve di Pearson        

                2.4.8   La distribuzione gamma        

2.5.      Distribuzioni campionarie derivate dalla normale ed utili per l’inferenza    

                2.5.1   La distribuzione         

                2.5.2   La distribuzione t di Student 

                2.5.3   La distribuzione F di Fisher             

 

3.   ANALISI DELLE FREQUENZE

 

3.1.      Confronti tra distribuzioni osservate e distribuzioni attese   

3.2.      Condizioni di validità del  e correzione di Yates      

3.3.      Le tabelle di contingenza 2 x 2 (fourfold tables)                                                                                                      

3.4.      Correzioni per la continuita’ in tabelle 2 x 2: Yates  e  Haber                                                                                  

3.5.      Confronti tra frequenze relative con la distribuzione normale e sua correzione per la continuità    

3.6.      Confronto tra test  per tabelle 2 x 2 e test Z, senza e con le correzioni per la continuità      

3.7.      Confronto di una  proporzione osservata con una attesa: il test Z per grandi campioni e la distribuzione binomiale per piccoli campioni 

3.8.      Tabelle di contingenza 2 x 2 in piccoli campioni: il metodo esatto di Fisher                                                              

3.9.      Le tabelle 2 x N con la formula generale e quella di Brandt-Snedecor. Le tabelle M x N         

3.10.    Il log-likelihood ratio o metodo G                                                                                                                                                                       

3.10.1   Confronto tra una distribuzione osservata ed una  attesa con la correzione di Williams            

3.10.2   Tabelle 2 x 2, con la correzione di Williams e quella di Mantel-Haenszel           

3.10.3   Tabelle M x N con la correzione di Williams                                     

3.11.    Il chi quadro con il metodo di Cochran e di Mantel-Haenszel 

3.12.    Esercizi svolti per dati in tabelle di contingenza 

 

4.   VERIFICA DELLE IPOTESI TEST PER UN CAMPIONE SULLA TENDENZA CENTRALE  CON VARIANZA NOTA E TEST SULLA VARIANZA CON INTERVALLI DI CONFIDENZA

 

4.1.      Risultati significativi e non-significativi

4.2.      Perche’ p < 0.05 ?  e’ un rito oppure una scelta razionale? 

4.3.      Procedura di verifica delle ipotesi: vero o falso? utile o dannoso? 

4.4.      I fattori che determinano la potenza di un test 

4.5.      Calcolo della potenza, del numero minimo di dati e della differenza minima in test per un campione,  con la distribuzione z     

4.6.      Stima approssimata dellla varianza della popolazione; il criterio di Cohen per la scelta di b; l’effetto della media sulla potenza 

4.7.      Intervallo di confidenza o di fiducia di una media con s2 nota     

4.8.      Intervallo di confidenza di una mediana con varianza nota e ignota 

4.9.      Stima della media con un intervallo di confidenza prefissato o con un errore prefissato, nel caso  di varianza nota  

4.10.    Significativita della differenza tra due medie, con varianza nota    

4.11.    Potenza e numero di dati per la significativita’ della differenza tra due medie, con la distribuzione normale       

4.12.    Stima della differenza tra due medie con un errore o un intervallo di confidenza prefissati, nel caso  di varianza nota 

4.13.    Significativita’ della differenza tra  una varianza campionaria  e una varianza attesa        

4.14.    La potenza a posteriori e a priori per la significativita’ della differenza tra una varianza osservata e una varianza attesa

4.15.    Intervallo di confidenza o di fiducia di una varianza, con equal tail method e shortest unbiased confidence intervals        

4.16.    Intervallo di confidenza della deviazione standard e stima della dimensione del campione         

4.17.    Il test F per il rapporto tra due varianze; relazioni tra F e c2; valori di F per a > 0,5  

4.18.    Potenza a priori e a posteriori del test F per l’uguaglianza di due varianze        

4.19.    Intervallo di confidenza del rapporto F tra due varianze; stima di F con un errore o un intervallo di  confidenza prefissati       

4.20.    Il confronto tra un coefficiente di variazione (CV) osservato e uno teorico o atteso   

4.21.    Test per la differenza tra due coefficienti di variazione con la distribuzione z    

4.22.    Parametri  e  statistiche. Le proprieta' ottimali di uno stimatore: correttezza,  consistenza, efficienza,  sufficienza. La robustezza di un test        

4.23.    Precisione e accuratezza di uno strumento o di una analisi       


5.   PROPORZIONI E PERCENTUALI RISCHI, ODDS E TASSI

 

5.1.      Termini tecnici in epidemiologia: misure del rischio       

5.2.      Altri termini tecnici: sensibilita’, specificita’, valore predittivo e efficienza di un test o di una classificazione    

5.3.      Perche’ la varianza di p e’ pq e sue conseguenze; varianza e errore standard di una frequenza  relativa o assoluta, in una popolazione infinita e finita      

5.4.      Intervallo di confidenza di una frequenza relativa o assoluta con la normale, in una popolazione  infinita o finita; metodi grafici per l’intervallo fiduciale e la stima del numero di dati.     

5.5.      Intervallo di confidenza di una proporzione, mediante la distribuzione F       

5.6.      Calcolo del campione minimo necessario, per la stima di una proporzione campionaria con un errore  massimo prefissato          

5.7.      Il confronto tra una proporzione campionaria e una proporzione attesa con il test z; dimensione  minima del campione, per l’uso della distribuzione normale 

5.8.      La potenza a posteriori e a priori di un test sulla proporzione per un campione, con l’uso della normale   

5.9.      Test per una proporzione: la binomiale per campioni piccoli e l'intervallo di confidenza con F per  campioni grandi       

5.10.    La potenza di un test per una proporzione, con l’uso della distribuzione binomiale      

5.11.    Test per la bonta’ dell’adattamento di una distribuzione osservata e la distribuzione binomiale, costruita con una proporzione nota e con una proporzione ignota  

5.12.    Test sulla differenza tra due proporzioni, con il metodo di Feldman e Kluger, per abbreviare il metodo esatto di Fisher         

5.13.    Significativita’ e intervallo di confidenza della differenza tra due proporzioni, con la distribuzione normale           

5.14.    Potenza a posteriori (1-b) e a priori (n) dei test sulla differenza tra due proporzioni; bilanciamento  di due campioni     

5.15.    Il rapporto tra due proporzioni (r): intervallo di confidenza e significativita’; formula test-based  di Miettinen per r   

5.16.    Il rapporto tra due odds (or): intervallo di confidenza e significativita’; formula test-based di  Miettinen per or      

5.17.    Il rapporto tra due tassi (rr): intervallo di confidenza e significativita’; formula test-based di Miettinen              

5.18.   Dimensioni dei campioni e potenza, per test sulla differenza e sull’odds ratio delle proporzioni di  due campioni indipendenti                

 

6.   INFERENZA SU UNA O DUE MEDIE CON IL TEST t DI STUDENT

 

6.1.      Dalla popolazione infinita al campione piccolo: la distribuzione t di student                  

6.2.      Confronto tra una media osservata e una media attesa con calcolo dei limiti di confidenza di una media,  con  ignota         

6.3.      Confronto tra una osservazione e la media di un campione  

6.4.      Il confronto tra le medie di due campioni                                                                                                                 

6.5.      Il test t per 2 campioni dipendenti o per dati appaiati con intervallo di confidenza della media delle  differenze       

6.6.      Test di Sandler per due campioni dipendenti                                                                                                                          

6.7.      Il test t per 2 campioni indipendenti o per dati non appaiati 

6.8.      Test F, test di Bartlett e test di Levene per la verifica di ipotesi bilaterali e unilaterali sull'uguaglianza  di due varianze      

6.9.      Significatività e intervallo di confidenza di una differenza                                                                                        

6.10.    Potenza a priori e a posteriori del test t, con un campione e con due campioni dipendenti o indipendenti 

6.11.    Dimensione del campione e precisione nella stima sia di una media sia di una differenza tra due medie                 

6.12.    Il bilanciamento di due campioni indipendenti: vantaggi e costi  

6.13.    Correzione per il campionamento in una popolazione finita e il concetto di superpopolazione                                

6.14.    Test per la differenza tra due coefficienti di variazione con la distribuzione t di Student       

6.15.    Il confronto tra due medie con varianze differenti o problema di Behrens-Fisher;  la statistica Welch e il metodo di Satterthwaite          

6.16.    Effetto trattamento:  e cenni di , nel test t di Student per due campioni indipendenti      

6.17.    Limiti di tolleranza e population coverage, con metodi parametrici 

 

7.   METODI NON PARAMETRICI PER UN CAMPIONE

 

7.1.       Caratteristiche dei test non parametrici 

7.2.       I test esatti e il metodo Monte Carlo  

7.3.       Il test delle successioni per un campione                                                                                                                 

7.4.       Il test dei segni per un campione       

7.5.       Intervallo di confidenza per una probabilità o frequenza relativa, secondo il metodo di Clopper e Pearson       

7.6.       Intervalli di confidenza non parametrici e intervalli di tolleranza                                                                             

7.7.       Intervallo di confidenza della mediana con il test dei segni                                                                                    

7.8.       Il test dei segni per ranghi di Wilcoxon                                                                                                                    

7.9.       Differenze nulle e ties nel test T di Wilcoxon    

7.10.     Teoria del test T di Wilcoxon e della correzione per i ties                                                                                        

7.11.     Intervalli di confidenza della locazione (mediana) con il T di Wilcoxon; medie di Walsh o quasimedians,  stimatore di Hodges – Lehmann o pseudomedian      

7.12.     Test di casualizzazione (raw scores test, Pitman test, Fisher’s randomization test)                                              

7.13.     Test T di Wilcoxon per la simmetria        

7.14.     Il test di Gosset per la eterogeneita’ di Poisson in conteggi; il test per l’indice di dispersione e il grafico di Elliott                                                    

7.15.     Il metodo di  Kolmogorov-Smirnov per un campione, con dati ordinali discreti e con dati continui   

7.16.     Il T2 di Freeman-Tukey e confronto con il c2 e il g2 nei test per la bonta’ dell’adattamento       

7.17.     Il dibattito sulla significativita’ dei test per la bonta’ dell’adattamento, rispetto a quelli per un parametro         

7.18.     Rinvio ad altri test per un campione   

7.19.     Presentazione dei risultati di programmi informatici e confronti tra test                                                              


8.   METODI NON PARAMETRICI PER DUE CAMPIONI DIPENDENTI

 

8.1.       Test per 2 campioni dipendenti o per dati appaiati     

8.2.       Il test di McNemar con la correzione di Edwards; la stima della potenza                                                                  

8.3.       Intervallo di confidenza della differenza tra le proporzioni di due campioni dipendenti         

8.4.       Il test dei segni con stima della potenza a priori                                                                                                     

8.5.       Il test T di Wilcoxon o test dei segni per ranghi, con stima della potenza                                                               

8.6.       Intervallo di confidenza di una differenza con il test dei segni e il test T di Wilcoxon                                             

8.7.       Test di casualizzazione per 2 campioni dipendenti o Fisher’s randomization test                                                    

 

9.   METODI NON PARAMETRICI PER DUE CAMPIONI INDIPENDENTI

 

9.1.       Test per 2 campioni indipendenti                                                                                                                                              

9.2.       Test unilaterale per tabelle 2 x 2 analogo al                                                                                                        

9.3.       Test per l’effetto dell’ordine del trattamento o test di Gart 

9.4.       Il test della mediana 

9.5.       L’intervallo di confidenza per una differenza mediana, con il metodo esatto di Fisher

9.6.       Il test di Wilcoxon-Mann-Whitney della somma dei ranghi                                                                                     

9.7.       Calcolo delle probabilita’ associate ai valori di T, potenza (1-b, n) e robustezza del test di Wilcoxon-Mann-Whitney        

9.8.       Il test U di Mann-Whitney o dell'ordine robusto dei ranghi                                                                                     

9.9        L’intervallo di confidenza della differenza tra due mediane, con l’indice U di Mann-Whitney      

9.10.     Test S di Kendall e suoi rapporti con il test T e il test U; potenza-efficienza dei tre test e confronti tra i metodi      

9.11.     Test  di  casualizzazione per  2  campioni indipendenti         

9.12.     Il test delle successioni per due campioni o test di Wald-Wolfowitz         

9.13.     Test di Siegel-Tukey per l’uguaglianza della varianza; cenni del test di Freund-Ansari-Bradley e  del test di Conover      

9.14.     Il test dei ranghi equivalenti di Moses per le differenze nella dispersione o variabilità                                          

9.15.     Confronto tra due distribuzioni osservate: il metodo di Kolmogorov-Smirnov per 2 campioni  indipendenti con dati ordinali discreti o gruppi e con dati continui 

 

10.   ANALISI DELLA VARIANZA (ANOVA I) A UN CRITERIO DI CLASSIFICAZIONE E  CONFRONTI TRA PIU’ MEDIE

 

10.1.       Analisi della varianza ad un criterio di classificazione o a campionamento completamente randomizzato

10.2.       Confronto tra analisi della varianza con due trattamenti e test t di Student per 2 campioni indipendenti           

10.3.      Test per l'omogeneità della varianza tra più campioni: test di Hartley, Cochran, Bartlett, levene e Levene  modificato di Brown-Forsythe     

10.4.      I confronti a priori o pianificati tra più medie                                                                                                          

10.5.      Confronti multipli a posteriori o post hoc (UMCP)      

10.5.1   Il principio di Bonferroni e il metodo di Dunn-Sidak         

10.5.2   La procedura LSD di Fisher e la modifica di Winer                                                                                   

10.5.3   Il test HSD di Tukey e la procedura di Tukey-Kramer                                                                                             

10.5.4   Il test di Student-Newman-Keuls o test SNK    

10.5.5   Il test di Scheffé con l’estensione di Gabriel     

10.5.6   Il test di Dunnett      

10.5.7   Il test di Duncan       

10.5.8  Test multipli sequenziali di Holm e confronto con il test di Bonferroni; cenni sul metodo di Shaffer 109

10.5.9   Cenni su altri test                                                                                                                                                 

10.5.10  Dibattito sul test post-hoc migliore        

10.6.      Confronti post-hoc tra varianze        

10.7.      Stima della dimensione n di k gruppi campionari per l’ANOVA  

10.8.      Confronto tra medie con ANOVA, da dati aggregati di k campioni                                                                      

 

11.   Analisi della varianza a piu' criteri di classificazione

 

11.1.     Analisi della varianza a due criteri di classificazione o a blocchi randomizzati, con una sola  osservazione per casella                                                             

11.2.     Confronto tra analisi della varianza a due criteri e test t di Student per 2 campioni dipendenti                            

11.3.     Analisi della varianza a tre o più criteri   

11.4.     Quadrati latini e greco-latini         

11.5.     Dati mancanti o anomali in disegni a più fattori

11.6.     Efficienza relativa  (E.R.)  e capacita’ predittiva (R2                                                                                                            

11.7.     Effetto trattamento nell’analisi della varianza: r2,  e   

11.8.     Potenza a priori e a posteriori nell'ANOVA, con grafici di Pearson e Hartley                                                          

11.9.     Lettura di tabulati sull’analisi della varianza                                                                                                                            

 

12.   analisi FATTORIALE, disegni complessi CON FATTORI INCROCIATI

 

12.1.    Analisi fattoriale ed interazione                                                                                                                                 

12.2.    Interazione tra due fattori a più livelli     

12.3.    Rappresentazione grafica dell'interazione a due fattori                                                                                                          

12.4.    Analisi della varianza a due fattori con repliche ineguali        

12.5.    Il test T di Tukey per il confronto tra le medie in disegni a due fattori con repliche      

12.6.    Esperimenti fattoriali 2 x 2 e 2 x 2 x 2 con i confronti ortogonali    

12.7.    Esperimenti fattoriali con P fattori a k livelli   

12.8.    Test di Tukey per la non-additivita’ con 1 df                                                                                                                           

12.9.    Quadrati latini con repliche        

12.10.  Lettura di un tabulato informatico       


13.   TRASFORMAZIONI DEI DATI CON TEST PER NORMALITA’ E PER OUTLIER

 

13.1.    Motivi delle trasformazione dei dati     

13.2.    Alcune trasformazioni dei dati       

13.3.    Altri effetti delle trasformazioni     

13.4.    La scelta della trasformazione idonea: il metodo di Box-Cox                                                                                  

13.5.    Effetti delle trasformazioni sui risultati dell’ANOVA                                                                                                  

13.6.    Test per la verifica di normalita’, simmetria e curtosi, con i metodi proposti da Snedecor-Cochran                        

13.7.    Metodi grafici e altri test (Lilliefors, D’Agostino-Pearson) per normalita’, simmetria e curtosi  (cenni dei test di Geary e di Shapiro-Wilk)    

13.8.    Cenni del test di Cramer-Von Mises  per un campione e per due campioni indipendenti                                                

13.9.    L’outlier: dato anomalo o dato sbagliato?  definizioni di outlier                                                                                                

13.10.  Identificazione degli outlier con il metodi grafici: il box-and-whiskers di Tukey                                                       

13.11.  Metodi statistici per grandi campioni: la distribuzione di Chebyshev e la distribuzione normale;  the huge rule      

13.12.  Verifica degli outlier o gross error per campioni piccoli con distribuzione normale: il test di  Grubbs o extreme studentized residual; il test q di Dixon      

13.13.  La extreme studentized deviate e la median absolute deviation

13.14.  Trattamento degli outlier: eliminarli o utilizzarli? come?                                                                                         

 

14.   L’ANALISI GERARCHICA E LE COMPONENTI DELLA VARIANZA

 

14.1.    Analisi gerarchica o nested in ANOVA I, II e III

14.2.    Nested ANOVA I o a effetti fissi

14.3.    Interazione: l'analisi gerarchica in esperimenti fattoriali                                                                                           

14.4.    Disegni con fattori nested e crossed   

14.5.    Confronti multipli e intervalli fiduciali in nested ANOVA I                                                                                         

14.6.    Potenza del test nell’analisi fattoriale e in nested ANOVA I  

14.7.    Il concetto di effetti random e condizioni di validita’ del test 

14.8.    ANOVA II e le componenti della varianza con un solo fattore e campioni bilanciati o ineguali                                

14.9.    Cenni di nested ANOVA II in disegni a due e a piu’ fattori    

14.10.  Cenni di ANOVA III o a effetti misti                                                                                                                          

14.11.  Analisi nested e pattern spaziale                                                                                                                                            

14.12.  Analisi nested e pattern temporale                                                                                                                                         

14.13.  Esempio di analisi della varianza a due fattori con interazione, in un modello a effetti fissi e uno a  effetti random, su gli stessi dati;

 esempio di stima delle componenti della devianza

14.14.  Lettura di un tabulato informatico       


15.   TEST NON PARAMETRICI PER PIU' CAMPIONI   

 

15.1.    I test non parametrici piu’ utilizzati, per k campioni                                                                                                    

15.2.    Estensione del test della mediana                                                                                                                                              

15.3.   Cenni sul test di Nemenyi e altri per la mediana in k gruppi                                                                                       

15.4.    Analisi della varianza per ranghi ad un criterio di classificazione: il test di Kruskal-Wallis                                        

15.5.    Confronto con il test F e confronti multipli con i ranghi         

15.6.    Test per l’eterogeneita’ della varianza con k campioni      

15.7.    Confronti tra piu' proporzioni e confronti multipli relativi                                                                                         

15.8.    Il test Q di Cochran                                                                                                                                                  

15.9.    Estensione del test di McNemar o test di Bowker        

15.10.  Test di Friedman o analisi della varianza per ranghi a 2 criteri di classificazione, con una e con k repliche            

15.11.  I confronti multipli tra medie di ranghi nell’analisi della varianza non parametrica, a due  criteri di classificazione       

15.12.  Test di Quade                                                                                                                                                                          

15.13.  L’esempio di Koch: uso di metodi non parametrici, nell’analisi statistica di un esperimento complesso con k fattori      

 

16.   REGRESSIONE LINEARE SEMPLICE

 

16.1.    La statistica bivariata: utilizzare la regressione oppure la correlazione?                                                                   

16.2.    Descrizione di una distribuzione bivariata                                                                                                                  

16.3.    La regressione dei figli verso la mediocrita’   

16.4.    Modelli di regressione      

16.5.    La regressione lineare semplice                                                                                                                               

16.6.    Valore predittivo della retta di regressione: estrapolazione o interpolazione?                                                         

16.7.    Significatività' del coefficiente angolare b o test per la linearita’, mediante il test  e il test     

16.8.    Test per la significativita dell’intercetta a                                                                                                                 

16.9.    La potenza e la dimensione minima del campione, nel test della regressione: rinvio alla correlazione    

16.10.  Intervalli di confidenza dei parametri b e a                                                                                                                            

16.11.  Intervallo di confidenza della retta di regressione e per un singolo , stimato con i dati del campione               

16.12.  Intervallo di confidenza o di previsione di , stimato per un valore  o la media di valori aggiuntivi al  campione          

16.13.  Significativita’ della differenza tra un valore medio  calcolato e un valore medio atteso                                        

16.14.  Errori delle variabili e intervalli di tolleranza                                                                                                                            

16.15.  Indici della capacita’ predittiva della regressione: , , ,  e loro significativita’              

16.16.  La predizione inversa o problema della calibratura: stimare il valore medio e l’intervallo di confidenza  di x partendo da y     

16.17.  La regressione per l’origine: retta, intervallo di confidenza e predizione inversa; vantaggi, limiti e  alternative      

16.18.  Limite di determinazione e limite di rilevabilita’, mediante la retta di calibrazione    

16.19.  La regressione per il confronto tra le medie di due o piu’ gruppi, con variabile dummy; regressione,  test t di student e anova I    

16.20.  Analisi della varianza a due criteri, mediante il metodo della regressione                                                             

16.21.  Devianza di tipo I, II, III, IV, V, VI nell’analisi della regressione     

 

17.   CONFRONTI TRA RETTE, CALCOLO DELLA RETTA CON Y RIPETUTE, CON VERIFICA DI  LINEARITA’ E INTRODUZIONE ALLA REGRESSIONE LINEARE MULTIPLA

 

17.1.    Confronto tra due rette di regressione con il test t di Student e calcolo della retta comune                                    

17.2.    Confronto tra punti su due rette di regressione         

17.3.    Confronto tra piu’ rette di regressione con il test F, calcolo della retta comune e intervalli di confidenza              

17.4.    Confronti multipli tra più coefficienti angolari                                                                                                           

17.5.    Analisi della relazione dose-effetto con y ripetute: calcolo della retta di regressione e test per la linearita'          

17.6.    Calcolo dei termini della regressione, mediante i coefficienti polinomiali                                                  

17.7.    Test di linearita’ con y ripetute, in campioni non bilanciati                                                                                       

17.8.    Cenni sulla regressione pesata e della sua calibrazione    

17.9.    La regressione nell’analisi della varianza a piu’ criteri

17.10.  Condizioni di validita’ della regressione con l’analisi dei residui; test per la costanza della varianza d’errore (Levene modificato e Breusch-Pagan o Cook-Weisberg), trasformazioni per la retta     

17.11.  Scelta dei valori di x, per una regressione significativa                                                                                           

17.12.  La regressione lineare multipla e il modello generale di regressione lineare

 

18.   CORRELAZIONE E COVARIANZA

 

18.1.    La correlazione                                                                                                                                                                           

18.2.    Condizioni di validita’ e significativita’ di r con r = 0 e con r ¹ 0                                                                             

18.3.    Significativita’ della retta con R2 ?       

18.4.    Intervallo di confidenza di r                                                                                                                                     

18.5.    Potenza a priori e a posteriori per la significativita’ di r                                                                                           

18.6.    Differenza tra due coefficienti di correlazione in campioni indipendenti e calcolo del coefficiente comune 

18.7.    Potenza a priori e a posteriori del test per la significativita’ della differenza tra due coefficienti di  correlazione     

18.8.    Test per la differenza tra piu’ coefficienti di correlazione; coefficiente di correlazione comune  rw e sua  significativita’                                 

18.9.    Cenni sui confronti multipli tra piu’ r                                                                                                                         

18.10.  La correlazione parziale o netta di primo ordine e di ordine superiore; la correlazione semiparziale                        

18.11.  Analisi della covarianza per due gruppi, con test t di Student per rette parallele e per rette non parallele           

18.12.  Analisi della covarianza per k gruppi (ANCOVA) e riduzione proporzionale della varianza d’errore       

18.13.  Gli outlier nell’analisi di regressione e correlazione                                                                                                   

18.14.  L'analisi dei residui per l'identificazione degli outlier; residuals, studentized residuals,  standardized residuals     

18.15.  Hat value o leverage, studentized deleted residuals        

18.16.  La distanza euclidea tra le statistiche della retta e la distanza di Cook; applicazioni del jackknife    

18.17.  Lettura di tre tabulati di programmi informatici su regressione e correlazione lineare semplice        

18.18.  Confronto tra quattro output informatici sulla regressione lineare semplice:   SAS, MINITAB, SYSTAT, SPSS     

 

19.   TEST NON PARAMETRICI PER IL TREND

 

19.1.    La media mobile e la scelta del test per la tendenza                                                                                                                 

19.2.    Il test di Cox e Stuart (e sue varianti) per il trend nella posizione e nella dispersione                                              

19.3.    Test di Jonckheere o Jonckheere-Terpstra per alternative ordinate in k campioni indipendenti                             

19.4.    Test di Mack-Wolfe o umbrella test     

19.5.    Il test di Page per alternative ordinate in k campioni dipendenti          

 

20.   COEFFICIENTI DI ASSOCIAZIONE, DI COGRADUAZIONE E DELL’ACCORDO RISCHIO  RELATIVO E ODDS RATIO

 

20.1.    I primi anni del chi- quadrato: cenni su nascita ed evoluzione                                                                                   

20.2.    Il t2 di freeman-tukey e confronto con il c2 e il g2 nei test per la bonta’ dell’adattamento; cenni di altri test  analoghi        

20.3.    Classificazione dei coefficienti d'associazione o d’indipendenza      

20.4.    Associazione fra variabili categoriali o qualitative: il c con la correzione di Sakoda e il f di Pearson,  il fc o v di Cramer,  il dt o t di Tschuprow    

20.5.    Altri indici di associazione per variabili dicotomiche o tabelle 2 x 2: q e y di Yule, dsim. e   dxy di Somers; cenni sul tb.di Kendall      

20.6.    Associazione per variabili categoriali in tabelle r x c: la pre, il l simmetrico ed asimmetrico di Goodman e Kruskal, cenni su la UC o U di Theil      

20.7.    Cograduazione per variabili ordinali in tabelle r x c:  il g di Goodman e Kruskall, il tc.di  Kendall-Stuart, il dba e dab di Somers      

20.8.    Il kappa di Cohen: stima dell’accordo (agreement) tra due valutazioni con scala nominale    

20.9.    Alcuni sviluppi della statistica kappa: la k pesata e i paradossi   

20.10.  Differenza tra rischi e rischio relativo, con intervalli di confidenza  

20.11.  Odds ratio e cross product ratio; intervallo di confidenza; test di significativita’ per uno e tra due odds ratio    

20.12.  Lettura dei tabulati di un pacchetto statistico                                                                                                                       


21.   TEST NON PARAMETRICI PER CORRELAZIONE, CONCORDANZA, REGRESSIONE  MONOTONICA E REGRESSIONE LINEARE

 

21.1.    La correlazione non parametrica  (rho) di Spearman, con la distribuzione di Hotelling-Pabst                                

21.2.    Il coefficiente di correlazione t (tau) di Kendall; il ta e tb di Kendall con i ties                                                          

21.3.    Confronto tra  r e t; potenza del test e numero di osservazioni necessarie per la significativita’                          

21.4.    Altri metodi per la correlazione non parametrica: test di Pitman con le permutazioni; test della mediana di Blomqvist

21.5.    Il test di Daniels per il trend                                                                                                                                     

21.6.    Significativita’ della regressione e della correlazione lineare parametrica con i test nonparametrici r e t               

21.7.    Il coefficiente di correlazione parziale: 12,3 di Kendall, r12,3 di Spearman                                                            

21.8.    Il coefficiente di concordanza tra valutatori: la w di Kendall; sue relazioni con la correlazione non  parametrica e con il test di Friedman per k campioni dipendenti. Cenni sulla top-down concordance   

21.9.    Cenni sul coefficiente di concordanza u di Kendall, in confronti appaiati       

21.10.  La regressione lineare non parametrica                                                                                                                  

21.11.  Calcolo della retta di regressione non parametrica con il metodo di Theil o test di Theil-Kendall                            

21.12.  Confronto tra la retta parametrica e la retta di Theil                                                                                                              

21.13.  Significativita’ di b con il t di Kendall                                                                                                                        

21.14.  La regressione lineare non parametrica con il metodo dei tre gruppi di Bartlett                                                     

21.15.  Il test di Hollander per il confronto tra due coefficienti angolari     

21.16.  La regressione monotonica di Iman-Conover                                                                                                                           

21.17.  Trend lineare di Armitage per le proporzioni e le frequenze  

 

22.   ALTRI METODI INFERENZIALI: NORMAL SCORES E RICAMPIONAMENTO

 

22.1.    I normal scores di Van der Waerden; cenni su random normal deviates e su expected normal scorse     

22.2.    Applicazioni dei normal scores di Van der Waerden ai test sulla mediana per uno, due e piu’ campioni

22.3.    Applicazione dei normal scores di Van der Waerden a test per omoschedasticita’, regressione e  correlazione semplici      

22.4.    Metodi di ricampionamento: Monte Carlo e principio plug-in                                                                                    

22.5.    Il Jackknife       

22.6.    Il Bootstrap                                                                                                                                                                             

 

23.   IL DISEGNO SPERIMENTALE: CAMPIONAMENTO, PROGRAMMAZIONE DELL’ESPERIMENTO  E POTENZA

 

23.1.    Il disegno sperimentale e il campionamento nella ricerca ambientale                                                                        

23.2.    Campioni non probabilistici e campioni probabilistici, con uso delle tavole di numeri casuali                      

23.3.    L’errore di stima nel campionamento, per la scelta di quello piu’ adeguato: l’esempio di Snedecor-Cochran           

23.4.    I parametri importanti per il campionamento                                                                                                                           

23.5.    La programmazione degli esperimenti: scelta dei fattori sperimentali e suoi effetti sulla varianza d’errore             

23.6.    Stime preliminari approssimate delle dimensioni del campione e della potenza del test, nella ricerca  biologica e ambientale     

23.7.    Il disegno sperimentale totalmente randomizzato: vantaggi, limiti e potenza.                                                        

23.8.    Il disegno sperimentale a blocchi randomizzati: vantaggi, limiti e potenza                                                              

23.9.    Il disegno sperimentale a quadrati latini: vantaggi, limiti e potenza                                                                        

23.10.  Il disegno sperimentale fattoriale semplice (due fattori con interazione): calcolo della potenza a posteriori         

23.11.  L’assenza dell’evidenza non e’ l’evidenza dell’assenza; significativita’ statistica e rilevanza disciplinare                 

 

24.   LA REGRESSIONE LINEARE MODELLO II  E LEAST-PRODUCTS.  IL CONFRONTO TRA DUE  METODI QUANTITATIVI.

 

24.1.    I modelli I e II nella regressione lineare; il caso di Berkson   

24.2.    La retta del coefficiente angolare dell’asse maggiore.                                                                                                              

24.3.    Il plot delle differenze e delle medie; il test di Bland-Altman, per il confronto tra metodi e per la ripetibilita’ di un metodo.    

24.4.    La regressione modello II o least-products di Deming, per il confronto tra due metodi analitici.      

24.5.    Effetti degli outlier sulla retta least-squares e indicazioni operative per il calcolo della retta di confronto tra due metodi analitici.                           

24.6.    La formula rapida di Mandel e la regressione least-products di York.                                                                     

24.7.    La regressione lineare e il test per l’equivalenza tra due metodi analitici di Passing-Bablok                    

24.8.    Dibattito sul confronto tra due metodi di analisi cliniche ed esempi  di test                   

24.9.    II confronto con il gold standard: utilizzare il metodo della calibration oppure quello della comparability?             

24.10.  Il test di Bland-Altman per il confronto tra due metodi, con misure ripetute per ogni metodo sullo stesso soggetto         

24.11.  La ripetibilita’ e la riproducibilita’ di uno strumento o di un metodo: range & average method                                 

24.12.  La ripetibilita’ e la riproducibilita’ con le varianze dell’anova, in un disegno sperimentale a due criteri con repliche  

24.13.  Stima delle dimensioni minime del campione, per un’analisi della ripetabilita’       

24.14.  Le componenti della varianza negli studi r&r, con l’anova a effetti random, fissi e misti                                         

24.15.  Visione generale delle stime richieste nell’analisi di processo                                                                                                  

 

 

Manuale di Statistica per la Ricerca e la Professione  © Lamberto Soliani   - Dipartimento di Scienze Ambientali, Università di Parma  (apr 05 ed)  ebook version by SixSigmaIn Team  - © 2007