La prueba de Friedman es una prueba no paramétrica utilizada para comprobar las diferencias entre grupos cuando la variable dependiente es al menos ordinal (podría ser continua). La prueba de Friedman es la alternativa no paramétrica al ANOVA de una vía con medidas repetidas (o el diseño de bloques completos y un caso especial de la prueba de Durbin). Si los datos son significativamente diferentes a los que se distribuyen normalmente, se convierte en la prueba preferida en lugar de utilizar un ANOVA.
El procedimiento de la prueba clasifica cada fila (bloque) de forma conjunta, y luego considera los valores de los rangos por columnas. Los datos se organizan en una matriz con B filas (bloques) y T columnas (tratamientos) con una sola operación en cada celda de la matriz.
Supuestos
Como con casi cualquier prueba estadística, hay supuestos a considerar. Aquí vamos a iluminar cuatro elementos a considerar:
- Hay un grupo de sujetos de prueba que se miden en tres o más ocasiones diferentes.
- El grupo es una muestra aleatoria de la población.
- La variable dependiente es al menos ordinal o continua (escalas Likert, tiempo, inteligente, porcentaje de aciertos, etc.)
- Las muestras no necesitan estar distribuidas normalmente.
Establecimiento de las hipótesis
La hipótesis nula es la mediana de los efectos de los tratamientos de la población son todos iguales. En resumen, los tratamientos no tienen ningún efecto.
La hipótesis alternativa es que los efectos no son todos iguales. Indicando que hay una diferencia discernible en los efectos del tratamiento.
Los datos con los que estamos tratando reflejan la situación en la que queremos comparar T tratamientos con N sujetos. Los sujetos son asignados aleatoriamente a los distintos grupos. La comparación es dentro de cada grupo y no entre grupos.
El estadístico de prueba
La comparación es de los resultados clasificados de los datos ordinales o continuos, asignando un valor de clasificación de 1, 2, a T para cada una de las filas B o tratamientos.
Dado que la hipótesis nula es que los tratamientos no tienen efecto en las clasificaciones, la suma de la clasificación para cada columna (tratamiento) debería ser igual.
La suma total de las clasificaciones es BT(T+1)/2, por lo que la suma de las clasificaciones de cada tratamiento, si es igual, debería estar relativamente cerca de B(T+1)/2. Por lo tanto, el estadístico de la prueba es una función de la suma de cuadrados de las desviaciones entre las sumas de rangos de los tratamientos (R1, R2, …, RT) y el valor esperado de B(T+1)/2.
El estadístico de prueba, S, es
$$ \displaystyle\large S={suma_limits_{t=1}^{T}{R_{t}^{2}-\frac{{B}^{2}}T{{{izquierda( T+1 \ derecha)}^{2}}{4}}$
El valor crítico
Ahora tenemos que comparar la estadística de la prueba con el valor crítico para determinar la desviación son lo suficientemente desviados para concluir que los tratamientos no son todos iguales. Aquí el software es útil, como Minitab, R, o algún otro paquete que tenga las tablas incorporadas.
Aquí hay una tabla exceptuada para tres o cuatro tratamientos. Si su experimento tiene más tratamientos o un tamaño de muestra grande, podría aproximar el valor crítico utilizando una distribución chi-cuadrado (más sobre esto en otro momento).
Para T = 3 para varios valores de significación
N | α <.10 | α ≤.05 | α <.01 |
3 | 6.00 | 6.00 | – |
4 | 6.00 | 6.50 | 8.00 |
5 | 5.20 | 6.40 | 8.40 |
6 | 5.33 | 7.00 | 9.00 |
7 | 5.43 | 7.14 | 8.86 |
8 | 5.25 | 6.25 | 9.00 |
9 | 5.56 | 6.22 | 8.67 |
10 | 5.00 | 6.20 | 9.60 |
11 | 4.91 | 6.54 | 8.91 |
12 | 5.17 | 6.17 | 8.67 |
13 | 4.77 | 6.00 | 9,39 |
∞ | 4,61 | 5,99 | 9,21 |
k=4 para varios valores de significación