De la prédiction de nombres à la classification
Prédire des valeurs continues : Prix d'une maison (262 000 DH), Température (22,5°C)
Un exemple concret
Créer un système qui détecte automatiquement les transactions frauduleuses
X = Montant
y = 0 (Légitime) ou 1 (Fraude)
Représentation graphique
Comment séparer ces deux classes ?
Valeurs hors [0,1]
Sensible aux extrêmes
Pas de probabilité
Une courbe en S magique
Exemples de transformation
Transformer probabilité en décision
| Montant | z | σ(z) | Probabilité | Décision |
|---|---|---|---|---|
| 3 000 DH | -3 | 0.05 | 5% | Légitime (0) |
| 8 000 DH | -0.5 | 0.38 | 38% | Légitime (0) |
| 12 000 DH | 1 | 0.73 | 73% | Fraude (1) |
| 18 000 DH | 3 | 0.95 | 95% | Fraude (1) |
95% → Très confiant (bloquer)
51% → Peu confiant (vérifier manuellement)
Mesurer les erreurs du modèle
Distance au carré
(prédiction - vrai)²
Ne marche pas avec sigmoïde !
Entropie Croisée
(Log Loss)
Adaptée à la sigmoïde !
Trouver les meilleurs paramètres
Seule la fonction coût change
Le modèle apprend au fil des itérations
Au-delà d'un seul critère
Juste plus de paramètres à apprendre
Comment savoir si c'est bon ?
| Prédit Légitime | Prédit Fraude | |
|---|---|---|
| Réel Légitime | 950 ✓ | 50 ✗ |
| Réel Fraude | 20 ✗ | 80 ✓ |
Récapitulatif des différences
| Caractéristique | Régression Linéaire | Régression Logistique |
|---|---|---|
| Objectif | Prédire un nombre | Prédire une catégorie |
| Modèle | f(x) = wx + b | σ(wx + b) |
| Sortie | -∞ à +∞ | 0 à 1 (probabilité) |
| Fonction coût | Erreur quadratique | Entropie croisée |
| Exemples | Prix, température | Spam, fraude |
| Optimisation | Descente de gradient | Descente de gradient |
Où utilise-t-on la régression logistique ?
Tous ces problèmes ont 2 résultats possibles (classification binaire)
Quand ça ne suffit pas
Classes linéairement séparables
Une ligne droite sépare !
Classes non linéaires
Impossible avec une ligne !
La régression logistique reste un excellent point de départ :
Simple, rapide, efficace dans beaucoup de cas !
Ce qu'il faut retenir
Vous maîtrisez maintenant la régression linéaire ET logistique !
Prêt pour des modèles plus complexes...