🔹 𝐑é𝐠𝐫𝐞𝐬𝐬𝐢𝐨𝐧 : l’essentiel en un coup d’œil ! 🔹
👉 La régression consiste à ajuster une fonction f(x) aux données yᵢ = f(xᵢ) en minimisant une erreur. Voici les principaux types :
1️⃣ 𝐑é𝐠𝐫𝐞𝐬𝐬𝐢𝐨𝐧 𝐋𝐢𝐧é𝐚𝐢𝐫𝐞
Ajuste une droite minimisant la somme des erreurs quadratiques.
Formule :
minβ Σ || yᵢ – fᵢˡⁱⁿᵉᵃʳ(xᵢ) ||²
fᵢˡⁱⁿᵉᵃʳ(xᵢ) = β₀ + β₁xᵢ
2️⃣ 𝐑é𝐠𝐫𝐞𝐬𝐬𝐢𝐨𝐧 𝐏𝐨𝐥𝐲𝐧𝐨𝐦𝐢𝐚𝐥𝐞
Ajuste un polynôme d’ordre k minimisant l’erreur quadratique.
Formule :
minβ Σ || yᵢ – fᵖᵒˡʸ(xᵢ) ||²
fᵖᵒˡʸ(xᵢ) = β₀ + β₁xᵢ + β₂xᵢ² + … + βₖxᵢᵏ
3️⃣ 𝐑é𝐠𝐫𝐞𝐬𝐬𝐢𝐨𝐧 𝐁𝐚𝐲é𝐬𝐢𝐞𝐧𝐧𝐞
Ajuste une distribution gaussienne pour chaque point en minimisant
l’erreur quadratique.
Formule :
minβ Σ || yᵢ – N(fᵦ(xᵢ), σ²) ||²
→ avec fᵦ(xᵢ) issu de
fˡⁱⁿᵉᵃʳ ou fᵖᵒˡʸ.
Quand n → ∞, σ² → 0, on obtient une distribution
gaussienne de moyenne μ et variance σ².
4️⃣ 𝐑𝐢𝐝𝐠𝐞 𝐑é𝐠𝐫𝐞𝐬𝐬𝐢𝐨𝐧
Réduit la complexité avec une pénalisation L2.
Formule :
minβ Σ || yᵢ – fᵦ(xᵢ) ||² + Σ βⱼ²
5️⃣ 𝐋𝐀𝐒𝐒𝐎 𝐑é𝐠𝐫𝐞𝐬𝐬𝐢𝐨𝐧
Réduit la complexité avec une pénalisation L1.
Formule :
minβ Σ || yᵢ – fᵦ(xᵢ) ||² + Σ |βⱼ|
6️⃣ 𝐑é𝐠𝐫𝐞𝐬𝐬𝐢𝐨𝐧 𝐋𝐨𝐠𝐢𝐬𝐭𝐢𝐪𝐮𝐞
(Classification)
Utilisée pour des variables binaires (0/1).
Activation sigmoïde :
σ(t) = 1 / (1 + e⁻ᵗ)
Formule :
minβ Σ || yᵢ – σ(fᵦ(xᵢ)) ||²
📊 Résumé :
- Linéaire
→ Droite
- Polynomiale
→ Courbe d’ordre k
- Bayésienne
→ Distribution gaussienne
- Ridge /
LASSO →
Pénalisations (L2 / L1)
- Logistique
→ Classification avec sigmoïde
________________________________________
Si vous avez trouvé cette publication
utile, n'hésitez pas à 𝒍𝒂 𝒍𝒊𝒌𝒆𝒓 𝒆𝒕
à 𝒍𝒂 𝒑𝒂𝒓𝒕𝒂𝒈𝒆𝒓
avec vos amis et collègues !
Pour mieux apprendre l’utilisation des
logiciel et modèles statistiques, nous vous invitons à prendre part à la
prochaine session de notre formation en 𝙀𝙘𝙤𝙣𝙤𝙢é𝙩𝙧𝙞𝙚 𝙚𝙩 𝙏𝙚𝙘𝙝𝙣𝙞𝙦𝙪𝙚𝙨 𝙌𝙪𝙖𝙣𝙩𝙞𝙩𝙖𝙩𝙞𝙫𝙚𝙨 https://forms.gle/mopoGRWKwyTtbEJ16
________________________________________
________________________________________
#DataScience #Statistiques
#MachineLearning #Regression #SMSSC
.png)
Commentaires
Enregistrer un commentaire