๐‘ฉ๐’Š๐’†๐’ ๐’„๐’‰๐’๐’Š๐’”๐’Š๐’“ ๐’”๐’‚ ๐’‡๐’๐’๐’„๐’•๐’Š๐’๐’ ๐’…๐’† ๐’‘๐’†๐’“๐’•๐’† : ๐’–๐’ ๐’„๐’‰๐’๐’Š๐’™ ๐’…๐’†́๐’„๐’Š๐’”๐’Š๐’‡ ๐’†๐’ ๐‘ด๐’‚๐’„๐’‰๐’Š๐’๐’† ๐‘ณ๐’†๐’‚๐’“๐’๐’Š๐’๐’ˆ ๐Ÿ“Š๐Ÿค–

Quand on parle de performance d’un modรจle de ๐Œ๐š๐œ๐ก๐ข๐ง๐ž ๐‹๐ž๐š๐ซ๐ง๐ข๐ง๐ , on pense souvent aux donnรฉes, aux variables ou ร  l’algorithme.

Mais un รฉlรฉment central est parfois nรฉgligรฉ : ๐ฅ๐š ๐Ÿ๐จ๐ง๐œ๐ญ๐ข๐จ๐ง ๐๐ž ๐ฉ๐ž๐ซ๐ญ๐ž.

C’est elle qui permet au modรจle de mesurer l’รฉcart entre ce qu’il prรฉdit et ce qu’il aurait dรป prรฉdire.
En d’autres termes, elle guide l’apprentissage en indiquant au modรจle quelle erreur corriger.

๐Ÿ‘‰ Un bon modรจle n’apprend pas seulement ร  prรฉdire.
Il apprend ร  rรฉduire intelligemment ses erreurs.

๐๐จ๐ฎ๐ซ๐ช๐ฎ๐จ๐ข ๐ฅ๐š ๐Ÿ๐จ๐ง๐œ๐ญ๐ข๐จ๐ง ๐๐ž ๐ฉ๐ž๐ซ๐ญ๐ž ๐ž๐ฌ๐ญ ๐ฌ๐ข ๐ข๐ฆ๐ฉ๐จ๐ซ๐ญ๐š๐ง๐ญ๐ž ?

Parce qu’elle influence directement :

la qualitรฉ des prรฉdictions
la stabilitรฉ de l’entraรฎnement
la sensibilitรฉ aux valeurs extrรชmes
la capacitรฉ du modรจle ร  bien apprendre sur des donnรฉes รฉquilibrรฉes ou non

Autrement dit, deux modรจles identiques peuvent produire des rรฉsultats trรจs diffรฉrents selon la fonction de perte utilisรฉe.

๐„๐ง ๐ซ๐ž́๐ ๐ซ๐ž๐ฌ๐ฌ๐ข๐จ๐ง : ๐ช๐ฎ๐ž๐ฅ๐ฅ๐ž ๐Ÿ๐จ๐ง๐œ๐ญ๐ข๐จ๐ง ๐๐ž ๐ฉ๐ž๐ซ๐ญ๐ž ๐ฎ๐ญ๐ข๐ฅ๐ข๐ฌ๐ž๐ซ ?

๐Ÿ”น ๐Œ๐’๐„
Elle pรฉnalise fortement les grosses erreurs.
Elle est utile quand on veut accorder plus de poids aux รฉcarts importants.

๐Ÿ”น ๐Œ๐€๐„
Elle traite toutes les erreurs de faรงon plus uniforme.
Elle est souvent plus robuste quand les donnรฉes contiennent des valeurs extrรชmes.

๐Ÿ”น ๐‘๐Œ๐’๐„
Elle garde les erreurs dans l’unitรฉ d’origine de la variable ร  prรฉdire, ce qui facilite souvent l’interprรฉtation.

๐Ÿ”น ๐‡๐ฎ๐›๐ž๐ซ ๐‹๐จ๐ฌ๐ฌ
Elle combine la sensibilitรฉ de la MSE et la robustesse de la MAE.
C’est souvent un trรจs bon compromis.

๐Ÿ”น ๐‹๐จ๐ -๐‚๐จ๐ฌ๐ก ๐‹๐จ๐ฌ๐ฌ
Elle fournit une optimisation plus douce et plus stable dans certains contextes.

๐„๐ง ๐œ๐ฅ๐š๐ฌ๐ฌ๐ข๐Ÿ๐ข๐œ๐š๐ญ๐ข๐จ๐ง : ๐ฅ๐ž๐ฌ ๐ซ๐ž́๐Ÿ๐ž́๐ซ๐ž๐ง๐œ๐ž๐ฌ ๐š̀ ๐œ๐จ๐ง๐ง๐š๐ข̂๐ญ๐ซ๐ž

๐Ÿ”ธ ๐๐ข๐ง๐š๐ซ๐ฒ ๐‚๐ซ๐จ๐ฌ๐ฌ-๐„๐ง๐ญ๐ซ๐จ๐ฉ๐ฒ
La rรฉfรฉrence pour les problรจmes ร  deux classes.

๐Ÿ”ธ ๐‚๐š๐ญ๐ž๐ ๐จ๐ซ๐ข๐œ๐š๐ฅ ๐‚๐ซ๐จ๐ฌ๐ฌ-๐„๐ง๐ญ๐ซ๐จ๐ฉ๐ฒ
Trรจs utile quand il faut distinguer plusieurs catรฉgories.

๐Ÿ”ธ ๐’๐ฉ๐š๐ซ๐ฌ๐ž ๐‚๐š๐ญ๐ž๐ ๐จ๐ซ๐ข๐œ๐š๐ฅ ๐‚๐ซ๐จ๐ฌ๐ฌ-๐„๐ง๐ญ๐ซ๐จ๐ฉ๐ฒ
Pratique lorsque les รฉtiquettes de classes sont codรฉes sous forme d’entiers.

๐Ÿ”ธ ๐‡๐ข๐ง๐ ๐ž ๐‹๐จ๐ฌ๐ฌ
Souvent utilisรฉe dans les modรจles de type SVM.

๐Ÿ”ธ ๐…๐จ๐œ๐š๐ฅ ๐‹๐จ๐ฌ๐ฌ
Particuliรจrement intรฉressante lorsque certaines classes sont largement minoritaires.

๐๐ฎ๐ž๐ฅ๐ช๐ฎ๐ž๐ฌ ๐ซ๐ž̀๐ ๐ฅ๐ž๐ฌ ๐ฉ๐ซ๐š๐ญ๐ข๐ช๐ฎ๐ž๐ฌ

Choisissez ๐Œ๐’๐„ si les grandes erreurs doivent coรปter cher au modรจle
Choisissez ๐Œ๐€๐„ si vous voulez limiter l’effet des outliers
Choisissez la ๐‚๐ซ๐จ๐ฌ๐ฌ-๐„๐ง๐ญ๐ซ๐จ๐ฉ๐ฒ pour la plupart des tรขches de classification
Choisissez ๐…๐จ๐œ๐š๐ฅ ๐‹๐จ๐ฌ๐ฌ si vos classes sont dรฉsรฉquilibrรฉes
Choisissez ๐‡๐ฎ๐›๐ž๐ซ ๐‹๐จ๐ฌ๐ฌ si vous cherchez un compromis robuste

๐€̀ ๐ซ๐ž๐ญ๐ž๐ง๐ข๐ซ

Un modรจle n’apprend jamais “dans le vide”.
Il apprend selon ce que la
๐Ÿ๐จ๐ง๐œ๐ญ๐ข๐จ๐ง ๐๐ž ๐ฉ๐ž๐ซ๐ญ๐ž lui demande d’optimiser.

C’est pourquoi le choix de cette fonction n’est pas un dรฉtail technique.
C’est un vรฉritable levier de performance.

๐Ÿ’ก En rรฉsumรฉ, mieux comprendre les fonctions de perte, c’est mieux comprendre comment un modรจle apprend, se corrige et progresse.

Si vous avez trouvรฉ cette publication utile, n'hรฉsitez pas ร  ๐’๐’‚ ๐’๐’Š๐’Œ๐’†๐’“ et ร  ๐’๐’‚ ๐’‘๐’‚๐’“๐’•๐’‚๐’ˆ๐’†๐’“ avec vos amis et collรจgues.

Pour mieux apprendre l’utilisation des logiciels et modรจles statistiques, nous vous invitons ร  prendre part ร  la prochaine session de notre formation en ๐™€๐™˜๐™ค๐™ฃ๐™ค๐™ขรฉ๐™ฉ๐™ง๐™ž๐™š ๐™š๐™ฉ ๐™๐™š๐™˜๐™๐™ฃ๐™ž๐™ฆ๐™ช๐™š๐™จ ๐™Œ๐™ช๐™–๐™ฃ๐™ฉ๐™ž๐™ฉ๐™–๐™ฉ๐™ž๐™ซ๐™š๐™จ https://forms.gle/yZAZimRXbTFbUWZk6



#MachineLearning #FonctionDePerte #DataScience #AnalyseDeDonnees #IntelligenceArtificielle

 

Commentaires

Posts les plus consultรฉs de ce blog

ร‰conomรฉtrie des donnรฉes de panel: de la thรฉorie ร  la pratique