Il test di Friedman è un test non parametrico usato per verificare le differenze tra gruppi quando la variabile dipendente è almeno ordinale (potrebbe essere continua). Il test di Friedman è l’alternativa non parametrica all’ANOVA a una via con misure ripetute (o il disegno a blocchi completi e un caso speciale del test di Durbin). Se i dati sono significativamente diversi da quelli normalmente distribuiti, questo diventa il test preferito rispetto all’uso di un ANOVA.
La procedura del test classifica ogni riga (blocco) insieme, poi considera i valori delle classifiche per colonne. I dati sono organizzati in una matrice con B righe (blocchi) e T colonne (trattamenti) con una singola operazione in ogni cella della matrice.
Assunzioni
Come per quasi ogni test statistico, ci sono delle assunzioni da considerare. Qui illuminiamo quattro elementi da considerare:
- C’è un gruppo di soggetti di test che vengono misurati in tre o più occasioni diverse.
- Il gruppo è un campione casuale della popolazione.
- La variabile dipendente è almeno un ordinale o un continuo (scale Likert, tempo, intelligente, percentuale corretta, ecc.)
- I campioni non devono essere distribuiti normalmente.
Impostazione delle ipotesi
L’ipotesi nulla è gli effetti mediani del trattamento della popolazione sono tutti uguali. In breve, i trattamenti non hanno effetto.
L’ipotesi alternativa è che gli effetti non sono tutti uguali. Indica che c’è una differenza percettibile negli effetti del trattamento.
I dati che stiamo trattando riflettono la situazione in cui vogliamo confrontare T trattamenti con N soggetti. I soggetti sono assegnati casualmente ai vari gruppi. Il confronto è all’interno di ogni gruppo e non tra gruppi.
La statistica di test
Il confronto è dei risultati classificati dei dati ordinali o continui, assegnando un valore di classifica da 1, 2, a T per ciascuna delle righe B o trattamenti.
Siccome l’ipotesi nulla è che i trattamenti non abbiano effetto sulle classifiche, la somma delle classifiche per ogni colonna (trattamento) dovrebbe essere uguale.
La somma totale delle classifiche è BT(T+1)/2, quindi la somma delle classifiche di ogni trattamento, se uguale, dovrebbe essere relativamente vicina a B(T+1)/2. Quindi la statistica del test è una funzione della somma dei quadrati delle deviazioni tra le somme dei ranghi del trattamento (R1, R2, …, RT) e il valore atteso di B(T+1)/2.
La statistica del test, S, è
$$ \displaystyle\large S=\sum\limits_{t=1}^{T}{R_{t}^{2}-\frac{{B}^{2}}}T{{sinistra( T+1 \destra)}^{2}}}{4}}$$
Il valore critico
Ora abbiamo bisogno di confrontare la statistica del test con il valore critico per determinare se la deviazione è sufficiente per concludere che i trattamenti non sono tutti uguali. Qui ci viene in aiuto un software, come Minitab, R, o qualche altro pacchetto che ha le tabelle incorporate.
Qui c’è una tabella di eccezione per tre o quattro trattamenti. Se il tuo esperimento ha più trattamenti o un campione di grandi dimensioni potresti approssimare il valore critico usando una distribuzione chi-quadrato (ne parleremo un’altra volta).
Per T = 3 per vari valori di significatività
N | α <.10 | α ≤.05 | α <.01 |
3 | 6.00 | 6.00 | – |
4 | 6.00 | 6.50 | 8.00 |
5 | 5.20 | 6.40 | 8.40 |
6 | 5.33 | 7.00 | 9.00 |
7 | 5.43 | 7.14 | 8.86 |
8 | 5.25 | 6.25 | 9.00 |
9 | 5.56 | 6.22 | 8.67 |
10 | 5.00 | 6.20 | 9.60 |
11 | 4.91 | 6.54 | 8.91 |
12 | 5.17 | 6.17 | 8.67 |
13 | 4.77 | 6.00 | 9.39 |
∞ | 4.61 | 5.99 | 9.21 |
k=4 per vari valori di significato