๐‘ญ๐’๐’๐’„๐’•๐’Š๐’๐’ ๐’…๐’† ๐’‘๐’†๐’“๐’•๐’† ๐’†๐’ ๐‘ด๐’‚๐’„๐’‰๐’Š๐’๐’† ๐‘ณ๐’†๐’‚๐’“๐’๐’Š๐’๐’ˆ : ๐’„๐’† ๐’’๐’–’๐’Š๐’ ๐’‡๐’‚๐’–๐’• ๐’„๐’๐’Ž๐’‘๐’“๐’†๐’๐’…๐’“๐’†

En ๐‘ด๐’‚๐’„๐’‰๐’Š๐’๐’† ๐‘ณ๐’†๐’‚๐’“๐’๐’Š๐’๐’ˆ, une ๐’‡๐’๐’๐’„๐’•๐’Š๐’๐’ ๐’…๐’† ๐’‘๐’†๐’“๐’•๐’† mesure ร  quel point les prรฉdictions d’un modรจle sont รฉloignรฉes des vraies valeurs.

Autrement dit, elle rรฉpond ร  une question simple :

๐‘ธ๐’–๐’†๐’๐’๐’† ๐’†๐’”๐’• ๐’๐’†๐’“๐’“๐’†๐’–๐’“ ๐’…๐’– ๐’Ž๐’๐’…๐’†̀๐’๐’† ?

La fonction de perte compare la valeur rรฉelle avec la valeur prรฉdite, puis transforme cette diffรฉrence en un seul nombre. Pendant l’entraรฎnement, l’objectif du modรจle est de rendre ce nombre ๐’๐’† ๐’‘๐’๐’–๐’” ๐’‘๐’†๐’•๐’Š๐’• ๐’‘๐’๐’”๐’”๐’Š๐’ƒ๐’๐’†.

C’est cette logique qui guide la descente de gradient : ร  chaque รฉtape, le modรจle ajuste ses paramรจtres dans la direction qui rรฉduit la perte.

๐‘ญ๐’๐’“๐’Ž๐’† ๐’ˆ๐’†́๐’๐’†́๐’“๐’‚๐’๐’†

โ„’(ฮธ) = (1/N) × ฮฃ L(yi, ลทi(ฮธ))

Avec :

yi : vraie valeur
ลทi : valeur prรฉdite
ฮธ : paramรจtres du modรจle
L : perte calculรฉe pour une observation
N : nombre total d’observations

๐‘ช๐’๐’Ž๐’Ž๐’†๐’๐’• ๐’„๐’†๐’๐’‚ ๐’‡๐’๐’๐’„๐’•๐’Š๐’๐’๐’๐’† ?

๐Ÿ. ๐‘ท๐’“๐’†́๐’…๐’Š๐’„๐’•๐’Š๐’๐’ : le modรจle calcule les valeurs prรฉdites.
๐Ÿ. ๐‘ช๐’‚๐’๐’„๐’–๐’ ๐’…๐’† ๐’๐’‚ ๐’‘๐’†๐’“๐’•๐’† : on mesure l’รฉcart entre les prรฉdictions et les vraies valeurs.
๐Ÿ‘. ๐‘ฎ๐’“๐’‚๐’…๐’Š๐’†๐’๐’• : on calcule comment modifier les paramรจtres pour rรฉduire l’erreur.
๐Ÿ’. ๐‘ด๐’Š๐’”๐’† ๐’‚̀ ๐’‹๐’๐’–๐’“ : les paramรจtres sont ajustรฉs.
๐Ÿ“. ๐‘น๐’†́๐’‘๐’†́๐’•๐’Š๐’•๐’Š๐’๐’ : le processus continue jusqu’ร  ce que la perte diminue suffisamment.

๐‘ธ๐’–๐’†๐’๐’’๐’–๐’†๐’” ๐’‡๐’๐’๐’„๐’•๐’Š๐’๐’๐’” ๐’…๐’† ๐’‘๐’†๐’“๐’•๐’† ๐’„๐’๐’–๐’“๐’‚๐’๐’•๐’†๐’”

๐Ÿ. ๐‘ด๐‘บ๐‘ฌ : ๐‘ฌ๐’“๐’“๐’†๐’–๐’“ ๐’’๐’–๐’‚๐’…๐’“๐’‚๐’•๐’Š๐’’๐’–๐’† ๐’Ž๐’๐’š๐’†๐’๐’๐’†

โ„’ = (1/N) × ฮฃ(yi − ลทi)²

Elle pรฉnalise fortement les grandes erreurs.
Elle est souvent utilisรฉe pour les problรจmes de
๐’“๐’†́๐’ˆ๐’“๐’†๐’”๐’”๐’Š๐’๐’.
Mais elle est sensible aux valeurs extrรชmes.

๐Ÿ. ๐‘ด๐‘จ๐‘ฌ : ๐‘ฌ๐’“๐’“๐’†๐’–๐’“ ๐’‚๐’ƒ๐’”๐’๐’๐’–๐’† ๐’Ž๐’๐’š๐’†๐’๐’๐’†

โ„’ = (1/N) × ฮฃ|yi − ลทi|

Elle mesure l’erreur en valeur absolue.
Elle est plus robuste aux valeurs extrรชmes que la MSE.

๐Ÿ‘. ๐‘ช๐’“๐’๐’”๐’”-๐‘ฌ๐’๐’•๐’“๐’๐’‘๐’š

Elle est utilisรฉe surtout pour les problรจmes de ๐’„๐’๐’‚๐’”๐’”๐’Š๐’‡๐’Š๐’„๐’‚๐’•๐’Š๐’๐’.
Elle mesure l’รฉcart entre les probabilitรฉs prรฉdites et les classes rรฉelles.

๐Ÿ’. ๐‘ฏ๐’–๐’ƒ๐’†๐’“ ๐‘ณ๐’๐’”๐’”

Elle combine les avantages de la MSE et de la MAE.
Elle est utile lorsque les donnรฉes contiennent du bruit ou des valeurs extrรชmes.

๐‘ญ๐’๐’๐’„๐’•๐’Š๐’๐’ ๐’…๐’† ๐’‘๐’†๐’“๐’•๐’† ๐’—๐’” ๐’Ž๐’†́๐’•๐’“๐’Š๐’’๐’–๐’†

Une ๐’‡๐’๐’๐’„๐’•๐’Š๐’๐’ ๐’…๐’† ๐’‘๐’†๐’“๐’•๐’† sert ร  entraรฎner le modรจle. Elle doit permettre de calculer des gradients pour ajuster les paramรจtres.

Une ๐’Ž๐’†́๐’•๐’“๐’Š๐’’๐’–๐’† sert plutรดt ร  รฉvaluer la performance finale du modรจle, comme l’accuracy, le F1-score, le RMSE ou le MAE.

En rรฉsumรฉ, on ๐’๐’‘๐’•๐’Š๐’Ž๐’Š๐’”๐’† ๐’๐’‚ ๐’‘๐’†๐’“๐’•๐’†, puis on ๐’“๐’‚๐’‘๐’‘๐’๐’“๐’•๐’† ๐’๐’‚ ๐’Ž๐’†́๐’•๐’“๐’Š๐’’๐’–๐’†.

Le bon choix de la fonction de perte dรฉpend du type de problรจme, de la prรฉsence de valeurs extrรชmes et du type d’erreur que l’on veut รฉviter en prioritรฉ.

๐‘ฐ๐’…๐’†́๐’† ๐’„๐’๐’†́ :
๐’๐’‚ ๐’‡๐’๐’๐’„๐’•๐’Š๐’๐’ ๐’…๐’† ๐’‘๐’†๐’“๐’•๐’† ๐’†๐’”๐’• ๐’๐’† ๐’ˆ๐’–๐’Š๐’…๐’† ๐’…๐’– ๐’Ž๐’๐’…๐’†̀๐’๐’† ๐’‘๐’†๐’๐’…๐’‚๐’๐’• ๐’๐’†๐’๐’•๐’“๐’‚๐’Š̂๐’๐’†๐’Ž๐’†๐’๐’•.

Si vous avez trouvรฉ cette publication utile, n'hรฉsitez pas ร  ๐’๐’‚ ๐’๐’Š๐’Œ๐’†๐’“ ๐’†๐’• ร  ๐’๐’‚ ๐’‘๐’‚๐’“๐’•๐’‚๐’ˆ๐’†๐’“ avec vos amis et collรจgues ! Pour mieux apprendre l’utilisation des logiciel et modรจles statistiques, nous vous invitons ร  prendre part ร  la prochaine session de notre formation en ๐™€๐™˜๐™ค๐™ฃ๐™ค๐™ขรฉ๐™ฉ๐™ง๐™ž๐™š ๐™š๐™ฉ ๐™๐™š๐™˜๐™๐™ฃ๐™ž๐™ฆ๐™ช๐™š๐™จ ๐™Œ๐™ช๐™–๐™ฃ๐™ฉ๐™ž๐™ฉ๐™–๐™ฉ๐™ž๐™ซ๐™š๐™จ https://forms.gle/yZAZimRXbTFbUWZk6



#MachineLearning #FonctionDePerte #DataScience #IntelligenceArtificielle #Modรฉlisation

 

 

Commentaires

Posts les plus consultรฉs de ce blog

ร‰conomรฉtrie des donnรฉes de panel: de la thรฉorie ร  la pratique