๐Ÿ“Œ ๐‘๐ข๐๐ ๐ž ๐‘๐ž๐ ๐ซ๐ž๐ฌ๐ฌ๐ข๐จ๐ง : ๐œ๐จ๐ฆ๐ฉ๐ซ๐ž๐ง๐๐ซ๐ž ๐ฅ๐š ๐ซ๐ž́๐ ๐ฎ๐ฅ๐š๐ซ๐ข๐ฌ๐š๐ญ๐ข๐จ๐ง ๐‹๐Ÿ ๐ž๐ง ๐ฆ๐š๐œ๐ก๐ข๐ง๐ž ๐ฅ๐ž๐š๐ซ๐ง๐ข๐ง๐  ๐Ÿ“Š๐Ÿค–

En apprentissage automatique, la ๐‘๐ข๐๐ ๐ž ๐‘๐ž๐ ๐ซ๐ž๐ฌ๐ฌ๐ข๐จ๐ง est une technique trรจs utilisรฉe lorsque le modรจle linรฉaire classique devient instable.

๐Ÿ‘‰ En termes simples, la ๐‘๐ข๐๐ ๐ž ๐‘๐ž๐ ๐ซ๐ž๐ฌ๐ฌ๐ข๐จ๐ง est une ๐ซ๐ž́๐ ๐ซ๐ž๐ฌ๐ฌ๐ข๐จ๐ง ๐ฅ๐ข๐ง๐ž́๐š๐ข๐ซ๐ž ๐š๐ฏ๐ž๐œ ๐ฎ๐ง๐ž ๐ฉ๐ž́๐ง๐š๐ฅ๐ข๐ฌ๐š๐ญ๐ข๐จ๐ง ๐‹๐Ÿ.

Son objectif est de rรฉduire la taille des coefficients afin de limiter le ๐ฌ๐ฎ๐ซ๐š๐ฃ๐ฎ๐ฌ๐ญ๐ž๐ฆ๐ž๐ง๐ญ et de mieux gรฉrer la ๐ฆ๐ฎ๐ฅ๐ญ๐ข๐œ๐จ๐ฅ๐ข๐ง๐ž́๐š๐ซ๐ข๐ญ๐ž́.

Autrement dit, lorsque plusieurs variables explicatives sont fortement corrรฉlรฉes entre elles, les coefficients d’une rรฉgression linรฉaire classique peuvent devenir trรจs instables.

La rรฉgression Ridge vient alors imposer une forme de discipline au modรจle.

๐Ÿ“ ๐‹’๐ข๐๐ž́๐ž ๐๐ฎ ๐œ๐ซ๐ข๐ญ๐ž̀๐ซ๐ž ๐š̀ ๐ฆ๐ข๐ง๐ข๐ฆ๐ข๐ฌ๐ž๐ซ :

ฮฒ̂ridge = argmin { ฮฃ(yi − Xiฮฒ)² + ฮปฮฃฮฒj² }

Dans cette expression :

• ๐’ฮฃ(๐ฒ๐ข − ๐—๐ขฮฒ)² reprรฉsente l’erreur du modรจle, appelรฉe somme des carrรฉs des rรฉsidus.

• ๐‹๐š ๐ฉ๐š๐ซ๐ญ๐ข๐ž ฮปฮฃฮฒj² reprรฉsente la pรฉnalitรฉ L2 appliquรฉe aux coefficients.

• ๐‹๐ž ๐ฉ๐š๐ซ๐š๐ฆ๐ž̀๐ญ๐ซ๐ž ฮป contrรดle la force de la rรฉgularisation.

Plus ฮป est รฉlevรฉ, plus les coefficients sont rรฉduits.

Plus ฮป est faible, plus le modรจle se rapproche de la rรฉgression linรฉaire classique.

๐Ÿ’ก ๐‚๐จ๐ฆ๐ฆ๐ž๐ง๐ญ ๐œ๐ž๐ฅ๐š ๐Ÿ๐จ๐ง๐œ๐ญ๐ข๐จ๐ง๐ง๐ž ?

① On part d’une rรฉgression linรฉaire ordinaire.

② On ajoute une pรฉnalitรฉ sur la taille des coefficients.

③ Le modรจle cherche ร  rรฉduire l’erreur tout en รฉvitant des coefficients trop grands.

④ La valeur optimale de ฮป est souvent choisie par ๐ฏ๐š๐ฅ๐ข๐๐š๐ญ๐ข๐จ๐ง ๐œ๐ซ๐จ๐ข๐ฌ๐ž́๐ž.

La formule d’estimation devient gรฉnรฉralement :

ฮฒ̂ = (Xแต€X + ฮปI)⁻¹Xแต€y

Le terme ๐—แต€๐— + ฮป๐ˆ permet de stabiliser les calculs, surtout lorsque les variables sont fortement corrรฉlรฉes.

๐Ÿ†š ๐‘๐ข๐๐ ๐ž ๐จ๐ฎ ๐‹๐š๐ฌ๐ฌ๐จ : ๐ช๐ฎ๐ž๐ฅ๐ฅ๐ž ๐๐ข๐Ÿ๐Ÿ๐ž́๐ซ๐ž๐ง๐œ๐ž ?

La ๐ซ๐ž́๐ ๐ซ๐ž๐ฌ๐ฌ๐ข๐จ๐ง ๐‹๐š๐ฌ๐ฌ๐จ utilise une pรฉnalitรฉ L1.

Elle peut ramener certains coefficients exactement ร  zรฉro.

Elle fait donc une forme de ๐ฌ๐ž́๐ฅ๐ž๐œ๐ญ๐ข๐จ๐ง ๐๐ž ๐ฏ๐š๐ซ๐ข๐š๐›๐ฅ๐ž๐ฌ.

La ๐ซ๐ž́๐ ๐ซ๐ž๐ฌ๐ฌ๐ข๐จ๐ง ๐‘๐ข๐๐ ๐ž utilise une pรฉnalitรฉ L2.

Elle rรฉduit tous les coefficients, mais ne les annule gรฉnรฉralement pas.

Elle conserve donc toutes les variables dans le modรจle.

๐Ÿ‘‰ ๐‹๐š๐ฌ๐ฌ๐จ ๐ฌ๐ž́๐ฅ๐ž๐œ๐ญ๐ข๐จ๐ง๐ง๐ž.

๐Ÿ‘‰ ๐‘๐ข๐๐ ๐ž ๐ฌ๐ญ๐š๐›๐ข๐ฅ๐ข๐ฌ๐ž.

✅ ๐๐ฎ๐š๐ง๐ ๐ฎ๐ญ๐ข๐ฅ๐ข๐ฌ๐ž๐ซ ๐ฅ๐š ๐‘๐ข๐๐ ๐ž ๐‘๐ž๐ ๐ซ๐ž๐ฌ๐ฌ๐ข๐จ๐ง ?

La Ridge Regression est particuliรจrement utile lorsque :

• les variables explicatives sont fortement corrรฉlรฉes ;

• le nombre de variables est รฉlevรฉ par rapport au nombre d’observations ;

• les estimations MCO sont instables ;

• l’objectif est de conserver toutes les variables dans le modรจle ;

• on veut rรฉduire le risque de surapprentissage.

๐Ÿ“Œ ๐ˆ๐๐ž́๐ž ๐š̀ ๐ซ๐ž๐ญ๐ž๐ง๐ข๐ซ :

La ๐‘๐ข๐๐ ๐ž ๐‘๐ž๐ ๐ซ๐ž๐ฌ๐ฌ๐ข๐จ๐ง ne cherche pas ร  supprimer les variables.

Elle cherche plutรดt ร  rendre le modรจle plus robuste, plus stable et moins sensible aux fortes corrรฉlations entre les variables.

Si vous avez trouvรฉ cette publication utile, n'hรฉsitez pas ร  ๐’๐’‚ ๐’๐’Š๐’Œ๐’†๐’“ et ร  ๐’๐’‚ ๐’‘๐’‚๐’“๐’•๐’‚๐’ˆ๐’†๐’“ avec vos amis et collรจgues.

Pour mieux apprendre l’utilisation des logiciels et modรจles statistiques, nous vous invitons ร  prendre part ร  la prochaine session de notre formation en ๐™€๐™˜๐™ค๐™ฃ๐™ค๐™ขรฉ๐™ฉ๐™ง๐™ž๐™š ๐™š๐™ฉ ๐™๐™š๐™˜๐™๐™ฃ๐™ž๐™ฆ๐™ช๐™š๐™จ ๐™Œ๐™ช๐™–๐™ฃ๐™ฉ๐™ž๐™ฉ๐™–๐™ฉ๐™ž๐™ซ๐™š๐™จ https://forms.gle/yZAZimRXbTFbUWZk6



#MachineLearning #RegressionRidge #Econometrie #DataScience #Statistiques



Commentaires

Posts les plus consultรฉs de ce blog

ร‰conomรฉtrie des donnรฉes de panel: de la thรฉorie ร  la pratique