Bagging vs Boosting
Il existe deux approches principales pour combiner plusieurs modeles:
Bagging (Random Forest):
- Arbres entraines en parallele
- Chaque arbre est independant
- Prediction = moyenne des predictions
- Reduit la variance (overfitting)
Boosting (Gradient Boosting):
- Arbres entraines sequentiellement
- Chaque arbre corrige les erreurs du precedent
- Prediction = somme ponderee des predictions
- Reduit le biais (underfitting)
Intuition du Gradient Boosting:
- Arbre 1 fait des predictions
- On calcule les erreurs (residus)
- Arbre 2 apprend a predire ces erreurs
- On repete jusqu'a convergence
La prediction finale: $\hat{y} = \sum_{i=1}^{n} \alpha_i \cdot h_i(x)$
Ou $h_i$ est le i-eme arbre et $\alpha_i$ son poids (learning rate).