Le test non paramétrique de Friedman

Le test de Friedman est un test non paramétrique utilisé pour tester les différences entre les groupes lorsque la variable dépendante est au moins ordinale (pourrait être continue). Le test de Friedman est l’alternative non paramétrique à l’ANOVA à une voie avec mesures répétées (ou le plan en blocs complets et un cas particulier du test de Durbin). Si les données sont significativement différentes de celles distribuées normalement, ce test devient le test préféré à l’utilisation d’une ANOVA.

La procédure de test classe chaque rangée (bloc) ensemble, puis considère les valeurs des rangs par colonnes. Les données sont organisées en une matrice avec B lignes (blocs) et T colonnes (traitements) avec une seule opération dans chaque cellule de la matrice.

Assomptions

Comme avec presque tout test statistique, il y a des hypothèses à considérer. Éclairons ici quatre éléments à considérer :

  1. Il existe un groupe de sujets d’essai qui sont mesurés à trois occasions différentes ou plus.
  2. Le groupe est un échantillon aléatoire de la population.
  3. La variable dépendante est au moins une variable ordinale ou continue (échelles de Likert, temps, intelligent, pourcentage correct, etc.)
  4. Les échantillons n’ont pas besoin d’être normalement distribués.

Mise en place des hypothèses

L’hypothèse nulle est les effets médians des traitements de la population sont tous les mêmes. En bref, les traitements n’ont aucun effet.

L’hypothèse alternative est que les effets ne sont pas tous les mêmes. Indiquant qu’il existe une différence perceptible dans les effets des traitements.

Les données que nous traitons reflètent la situation où nous voulons comparer T traitements avec N sujets. Les sujets sont assignés aléatoirement aux différents groupes. La comparaison se fait au sein de chaque groupe et non entre les groupes.

La statistique de test

La comparaison porte sur les résultats classés des données ordinales ou continues, en attribuant une valeur de classement de 1, 2, à T pour chacune des B lignes ou traitements.

Puisque l’hypothèse nulle est que les traitements n’ont aucun effet les classements la somme des classements pour chaque colonne (traitement) devraient tous être égaux.

La somme totale des classements est BT(T+1)/2, donc la somme des classements de chaque traitement, si elle est égale, devrait être relativement proche de B(T+1)/2. Par conséquent, la statistique de test est une fonction de la somme des carrés des écarts entre les sommes de rangs des traitements (R1, R2, …, RT) et la valeur attendue de B(T+1)/2.

La statistique de test, S, est

$$ \displaystyle\large S=\sum\limits_{t=1}^{T}{R_{t}^{2}-\frac{{{B}^{2}}T{{\left( T+1 \right)}^{2}}}{4}}$

La valeur critique

Maintenant, nous devons comparer la statistique de test à la valeur critique pour déterminer si l’écart est suffisant pour conclure que les traitements ne sont pas tous égaux. C’est ici qu’un logiciel s’avère pratique, comme Minitab, R, ou un autre paquet qui a les tableaux intégrés.

Voici un tableau excepté pour trois ou quatre traitements. Si votre expérience comporte plus de traitements ou un échantillon de grande taille, vous pourriez approximer la valeur critique à l’aide d’une distribution du chi carré (nous y reviendrons une autre fois).

Pour T = 3 pour diverses valeurs de signification

N α <.10 α ≤.05 α <.01
3 6.00 6.00
4 6.00 6.50 8.00
5 5.20 6.40 8.40
6 5.33 7.00 9.00
7 5.43 7.14 8.86
8 5.25 6.25 9.00
9 5.56 6.22 8.67
10 5.00 6.20 9.60
11 4.91 6.54 8.91
12 5.17 6.17 8.67
13 4.77 6.00 9,39
4,61 5,99 9,21

k=4 pour diverses valeurs de signification

.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.