Le theoreme de Bayes
Naive Bayes est base sur le theoreme de Bayes, qui calcule la probabilite d'une classe etant donne les features.
Theoreme de Bayes:
$$P(y|X) = \frac{P(X|y) \cdot P(y)}{P(X)}$$
Ou:
- $P(y|X)$: Probabilite de la classe $y$ etant donne les features $X$ (ce qu'on cherche)
- $P(X|y)$: Probabilite des features etant donne la classe (vraisemblance)
- $P(y)$: Probabilite a priori de la classe
- $P(X)$: Probabilite des features (constante pour toutes les classes)
L'hypothese "Naive":
On suppose que les features sont independantes entre elles:
$$P(X|y) = P(x_1|y) \cdot P(x_2|y) \cdot ... \cdot P(x_n|y)$$
Cette hypothese est souvent fausse en pratique, mais l'algorithme fonctionne quand meme tres bien!
Avantages:
- Tres rapide (entrainement et prediction)
- Fonctionne bien avec peu de donnees
- Pas d'hyperparametres complexes
- Interpretable (probabilites)