๐ฉ๐๐๐ ๐๐๐๐๐๐๐ ๐๐ ๐๐๐๐๐๐๐๐ ๐ ๐ ๐๐๐๐๐ : ๐๐ ๐๐๐๐๐ ๐ ๐́๐๐๐๐๐ ๐๐ ๐ด๐๐๐๐๐๐ ๐ณ๐๐๐๐๐๐๐ ๐๐ค
Quand on parle de performance d’un modรจle de ๐๐๐๐ก๐ข๐ง๐ ๐๐๐๐ซ๐ง๐ข๐ง๐ , on pense souvent aux donnรฉes, aux variables ou ร l’algorithme.
Mais un รฉlรฉment central est parfois nรฉgligรฉ : ๐ฅ๐ ๐๐จ๐ง๐๐ญ๐ข๐จ๐ง ๐๐ ๐ฉ๐๐ซ๐ญ๐.
C’est
elle qui permet au modรจle de mesurer l’รฉcart entre ce qu’il prรฉdit et ce qu’il
aurait dรป prรฉdire.
En d’autres termes, elle guide
l’apprentissage en indiquant au modรจle quelle erreur corriger.
๐ Un bon modรจle n’apprend pas seulement ร prรฉdire.
Il apprend ร rรฉduire intelligemment ses
erreurs.
๐๐จ๐ฎ๐ซ๐ช๐ฎ๐จ๐ข ๐ฅ๐ ๐๐จ๐ง๐๐ญ๐ข๐จ๐ง ๐๐ ๐ฉ๐๐ซ๐ญ๐ ๐๐ฌ๐ญ ๐ฌ๐ข ๐ข๐ฆ๐ฉ๐จ๐ซ๐ญ๐๐ง๐ญ๐ ?
Parce
qu’elle influence directement :
✅ la qualitรฉ
des prรฉdictions
✅ la stabilitรฉ
de l’entraรฎnement
✅ la sensibilitรฉ
aux valeurs extrรชmes
✅ la capacitรฉ du modรจle ร bien apprendre
sur des donnรฉes รฉquilibrรฉes ou non
Autrement
dit, deux modรจles identiques peuvent
produire des rรฉsultats trรจs diffรฉrents selon la fonction de perte utilisรฉe.
๐๐ง ๐ซ๐́๐ ๐ซ๐๐ฌ๐ฌ๐ข๐จ๐ง : ๐ช๐ฎ๐๐ฅ๐ฅ๐ ๐๐จ๐ง๐๐ญ๐ข๐จ๐ง ๐๐ ๐ฉ๐๐ซ๐ญ๐ ๐ฎ๐ญ๐ข๐ฅ๐ข๐ฌ๐๐ซ ?
๐น ๐๐๐
Elle pรฉnalise fortement les grosses erreurs.
Elle est utile quand on veut accorder plus de poids aux รฉcarts importants.
๐น ๐๐๐
Elle traite toutes les erreurs de faรงon plus uniforme.
Elle est souvent plus robuste quand les donnรฉes contiennent des valeurs
extrรชmes.
๐น ๐๐๐๐
Elle garde les erreurs dans l’unitรฉ d’origine de la variable ร prรฉdire, ce qui
facilite souvent l’interprรฉtation.
๐น ๐๐ฎ๐๐๐ซ ๐๐จ๐ฌ๐ฌ
Elle combine la sensibilitรฉ de la MSE et la robustesse de la MAE.
C’est souvent un trรจs bon compromis.
๐น ๐๐จ๐ -๐๐จ๐ฌ๐ก ๐๐จ๐ฌ๐ฌ
Elle fournit une optimisation plus douce et plus stable dans certains
contextes.
๐๐ง ๐๐ฅ๐๐ฌ๐ฌ๐ข๐๐ข๐๐๐ญ๐ข๐จ๐ง : ๐ฅ๐๐ฌ ๐ซ๐́๐๐́๐ซ๐๐ง๐๐๐ฌ ๐̀ ๐๐จ๐ง๐ง๐๐ข̂๐ญ๐ซ๐
๐ธ ๐๐ข๐ง๐๐ซ๐ฒ ๐๐ซ๐จ๐ฌ๐ฌ-๐๐ง๐ญ๐ซ๐จ๐ฉ๐ฒ
La rรฉfรฉrence pour les problรจmes ร deux classes.
๐ธ ๐๐๐ญ๐๐ ๐จ๐ซ๐ข๐๐๐ฅ ๐๐ซ๐จ๐ฌ๐ฌ-๐๐ง๐ญ๐ซ๐จ๐ฉ๐ฒ
Trรจs utile quand il faut distinguer plusieurs catรฉgories.
๐ธ ๐๐ฉ๐๐ซ๐ฌ๐ ๐๐๐ญ๐๐ ๐จ๐ซ๐ข๐๐๐ฅ ๐๐ซ๐จ๐ฌ๐ฌ-๐๐ง๐ญ๐ซ๐จ๐ฉ๐ฒ
Pratique lorsque les รฉtiquettes de classes sont codรฉes sous forme d’entiers.
๐ธ ๐๐ข๐ง๐ ๐ ๐๐จ๐ฌ๐ฌ
Souvent utilisรฉe dans les modรจles de type SVM.
๐ธ ๐
๐จ๐๐๐ฅ ๐๐จ๐ฌ๐ฌ
Particuliรจrement intรฉressante lorsque certaines classes sont largement
minoritaires.
๐๐ฎ๐๐ฅ๐ช๐ฎ๐๐ฌ
๐ซ๐̀๐ ๐ฅ๐๐ฌ
๐ฉ๐ซ๐๐ญ๐ข๐ช๐ฎ๐๐ฌ
✅ Choisissez ๐๐๐ si les grandes erreurs doivent coรปter
cher au modรจle
✅ Choisissez ๐๐๐ si vous voulez limiter l’effet des
outliers
✅ Choisissez la ๐๐ซ๐จ๐ฌ๐ฌ-๐๐ง๐ญ๐ซ๐จ๐ฉ๐ฒ pour la plupart des tรขches de
classification
✅ Choisissez ๐
๐จ๐๐๐ฅ ๐๐จ๐ฌ๐ฌ si vos classes sont dรฉsรฉquilibrรฉes
✅ Choisissez ๐๐ฎ๐๐๐ซ ๐๐จ๐ฌ๐ฌ si vous cherchez un compromis robuste
๐̀ ๐ซ๐๐ญ๐๐ง๐ข๐ซ
Un
modรจle n’apprend jamais “dans le vide”.
Il apprend selon ce que la ๐๐จ๐ง๐๐ญ๐ข๐จ๐ง ๐๐ ๐ฉ๐๐ซ๐ญ๐ lui demande d’optimiser.
C’est
pourquoi le choix de cette fonction n’est pas un dรฉtail technique.
C’est un vรฉritable levier de
performance.
๐ก En rรฉsumรฉ, mieux
comprendre les fonctions de perte, c’est mieux comprendre comment un modรจle
apprend, se corrige et progresse.
Si
vous avez trouvรฉ cette publication utile, n'hรฉsitez pas ร ๐๐ ๐๐๐๐๐ et ร ๐๐ ๐๐๐๐๐๐๐๐ avec vos amis et collรจgues.
Pour
mieux apprendre l’utilisation des logiciels et modรจles statistiques, nous vous
invitons ร prendre part ร la prochaine session de notre formation en ๐๐๐ค๐ฃ๐ค๐ขรฉ๐ฉ๐ง๐๐ ๐๐ฉ ๐๐๐๐๐ฃ๐๐ฆ๐ช๐๐จ ๐๐ช๐๐ฃ๐ฉ๐๐ฉ๐๐ฉ๐๐ซ๐๐จ https://forms.gle/yZAZimRXbTFbUWZk6
#MachineLearning #FonctionDePerte #DataScience #AnalyseDeDonnees #IntelligenceArtificielle
.png)
Commentaires
Enregistrer un commentaire