๐ญ๐๐๐๐๐๐๐ ๐ ๐ ๐๐๐๐๐ ๐๐ ๐ด๐๐๐๐๐๐ ๐ณ๐๐๐๐๐๐๐ : ๐๐ ๐๐’๐๐ ๐๐๐๐ ๐๐๐๐๐๐๐๐ ๐๐
En ๐ด๐๐๐๐๐๐ ๐ณ๐๐๐๐๐๐๐, une ๐๐๐๐๐๐๐๐ ๐ ๐ ๐๐๐๐๐ mesure ร quel point les prรฉdictions d’un modรจle sont รฉloignรฉes des vraies valeurs.
Autrement
dit, elle rรฉpond ร une question simple :
๐ธ๐๐๐๐๐ ๐๐๐ ๐’๐๐๐๐๐๐ ๐
๐ ๐๐๐
๐̀๐๐ ?
La fonction
de perte compare la valeur rรฉelle avec la valeur prรฉdite, puis transforme cette
diffรฉrence en un seul nombre. Pendant l’entraรฎnement, l’objectif du modรจle est
de rendre ce nombre ๐๐ ๐๐๐๐ ๐๐๐๐๐ ๐๐๐๐๐๐๐๐.
C’est cette
logique qui guide la descente de gradient : ร chaque รฉtape, le modรจle ajuste
ses paramรจtres dans la direction qui rรฉduit la perte.
๐ญ๐๐๐๐ ๐๐́๐๐́๐๐๐๐
โ(ฮธ) = (1/N) × ฮฃ L(yi, ลทi(ฮธ))
Avec :
yi : vraie valeur
ลทi : valeur prรฉdite
ฮธ :
paramรจtres du modรจle
L : perte calculรฉe pour une observation
N : nombre total d’observations
๐ช๐๐๐๐๐๐ ๐๐๐๐ ๐๐๐๐๐๐๐๐๐๐ ?
๐. ๐ท๐๐́๐
๐๐๐๐๐๐ : le modรจle calcule les valeurs prรฉdites.
๐. ๐ช๐๐๐๐๐ ๐
๐ ๐๐ ๐๐๐๐๐ : on mesure l’รฉcart entre les prรฉdictions
et les vraies valeurs.
๐. ๐ฎ๐๐๐
๐๐๐๐ : on calcule comment modifier les
paramรจtres pour rรฉduire l’erreur.
๐. ๐ด๐๐๐ ๐̀ ๐๐๐๐ : les paramรจtres sont ajustรฉs.
๐. ๐น๐́๐๐́๐๐๐๐๐๐ : le processus continue jusqu’ร ce que la
perte diminue suffisamment.
๐ธ๐๐๐๐๐๐๐ ๐๐๐๐๐๐๐๐๐ ๐
๐ ๐๐๐๐๐ ๐๐๐๐๐๐๐๐๐
๐. ๐ด๐บ๐ฌ : ๐ฌ๐๐๐๐๐ ๐๐๐๐
๐๐๐๐๐๐๐ ๐๐๐๐๐๐๐
โ = (1/N) × ฮฃ(yi − ลทi)²
Elle pรฉnalise
fortement les grandes erreurs.
Elle est souvent utilisรฉe pour les problรจmes de ๐๐́๐๐๐๐๐๐๐๐.
Mais elle est sensible aux valeurs extrรชmes.
๐. ๐ด๐จ๐ฌ : ๐ฌ๐๐๐๐๐ ๐๐๐๐๐๐๐ ๐๐๐๐๐๐๐
โ = (1/N) × ฮฃ|yi − ลทi|
Elle mesure
l’erreur en valeur absolue.
Elle est plus robuste aux valeurs extrรชmes que la MSE.
๐. ๐ช๐๐๐๐-๐ฌ๐๐๐๐๐๐
Elle est
utilisรฉe surtout pour les problรจmes de ๐๐๐๐๐๐๐๐๐๐๐๐๐๐.
Elle mesure l’รฉcart entre les probabilitรฉs prรฉdites et les classes rรฉelles.
๐. ๐ฏ๐๐๐๐ ๐ณ๐๐๐
Elle combine
les avantages de la MSE et de la MAE.
Elle est utile lorsque les donnรฉes contiennent du bruit ou des valeurs extrรชmes.
๐ญ๐๐๐๐๐๐๐ ๐
๐ ๐๐๐๐๐ ๐๐ ๐๐́๐๐๐๐๐๐
Une ๐๐๐๐๐๐๐๐ ๐
๐ ๐๐๐๐๐ sert ร entraรฎner le modรจle. Elle doit
permettre de calculer des gradients pour ajuster les paramรจtres.
Une ๐๐́๐๐๐๐๐๐ sert plutรดt ร รฉvaluer la performance
finale du modรจle, comme l’accuracy, le F1-score, le RMSE ou le MAE.
En rรฉsumรฉ, on ๐๐๐๐๐๐๐๐
๐๐ ๐๐๐๐๐,
puis on ๐๐๐๐๐๐๐๐
๐๐ ๐๐́๐๐๐๐๐๐.
Le bon choix
de la fonction de perte dรฉpend du type de problรจme, de la prรฉsence de valeurs
extrรชmes et du type d’erreur que l’on veut รฉviter en prioritรฉ.
๐ฐ๐
๐́๐ ๐๐๐́ :
๐๐ ๐๐๐๐๐๐๐๐ ๐
๐ ๐๐๐๐๐ ๐๐๐ ๐๐ ๐๐๐๐
๐ ๐
๐ ๐๐๐
๐̀๐๐ ๐๐๐๐
๐๐๐ ๐’๐๐๐๐๐๐̂๐๐๐๐๐๐.
Si vous avez trouvรฉ cette
publication utile, n'hรฉsitez pas ร ๐๐ ๐๐๐๐๐ ๐๐ ร ๐๐ ๐๐๐๐๐๐๐๐ avec vos amis et
collรจgues ! Pour mieux apprendre l’utilisation des logiciel et modรจles
statistiques, nous vous invitons ร prendre part ร la prochaine session de notre
formation en ๐๐๐ค๐ฃ๐ค๐ขรฉ๐ฉ๐ง๐๐ ๐๐ฉ ๐๐๐๐๐ฃ๐๐ฆ๐ช๐๐จ ๐๐ช๐๐ฃ๐ฉ๐๐ฉ๐๐ฉ๐๐ซ๐๐จ https://forms.gle/yZAZimRXbTFbUWZk6
#MachineLearning #FonctionDePerte
#DataScience #IntelligenceArtificielle #Modรฉlisation

Commentaires
Enregistrer un commentaire