Los principales supuestos son:
- 1. Que el resultado debe ser discreto, explicado de otro modo como, la variable dependiente debe ser de naturaleza dicotómica (por ejemplo, presencia frente a ausencia);
- 2. Que no haya valores atípicos en los datos, lo que puede evaluarse convirtiendo los predictores continuos en estandarizados, o
z
- scores, y eliminar los valores inferiores a -329 o superiores a 3,29.
- 3. No debe haber altas intercorrelaciones (multicolinealidad) entre los predictores. Esto puede evaluarse mediante una matriz de correlación entre los predictores. Tabachnick y Fidell (2012) sugieren que siempre que los coeficientes de correlación entre las variables independientes sean inferiores a 0,90 se cumple el supuesto.
Además, debe haber una relación lineal entre la razón de momios, oEXP(B), y cada variable independiente. La linealidad con una variable independiente ordinal o de intervalo y la razón de momios puede comprobarse creando una nueva variable que divida la variable independiente existente en categorías de intervalos iguales y ejecutando la misma regresión en estas versiones recién categorizadas como variables categóricas. La linealidad se demuestra si los coeficientes beta aumentan o disminuyen en pasos lineales (Garson, 2009).
Se recomienda una muestra más grande en el ajuste con el método de máxima verosimilitud; el uso de variables discretas requiere que haya suficientes respuestas en cada categoría.