Les principales hypothèses sont :
- 1. Que le résultat doit être discret, autrement expliqué comme, la variable dépendante doit être de nature dichotomique (par ex, présence contre absence);
- 2. Il ne doit pas y avoir de valeurs aberrantes dans les données, ce qui peut être évalué en convertissant les prédicteurs continus en scores normalisés, ou
z
- scores, et en retirant les valeurs inférieures à -3.29 ou supérieures à 3,29.
- 3. Il ne doit pas y avoir de fortes intercorrélations (multicollinéarité) entre les prédicteurs. Ceci peut être évalué par une matrice de corrélation entre les prédicteurs. Tabachnick et Fidell (2012) suggèrent que tant que les coefficients de corrélation entre les variables indépendantes sont inférieurs à 0,90, l’hypothèse est satisfaite.
De plus, il doit y avoir une relation linéaire entre le rapport de cotes, ouEXP(B),et chaque variable indépendante. La linéarité avec une variable indépendante ordinale ou d’intervalle et le rapport de cotes peut être vérifiée en créant une nouvelle variable qui divise la variable indépendante existante en catégories d’intervalles égaux et en exécutant la même régression sur ces versions nouvellement catégorisées comme variables catégorielles. La linéarité est démontrée si les coefficients bêta augmentent ou diminuent par étapes linéaires (Garson, 2009).
Un échantillon plus important est recommandé dans l’ajustement avec la méthode du maximum de vraisemblance ; l’utilisation de variables discrètes exige qu’il y ait suffisamment de réponses dans chaque catégorie.