๐Ÿ”ต ๐‹๐ž๐ฌ ๐ฌ๐ž๐ซ๐ข๐ž๐ฌ ๐๐ž ๐“๐š๐ฒ๐ฅ๐จ๐ซ : ๐”๐ง ๐ฉ๐ฎ๐ข๐ฌ๐ฌ๐š๐ง๐ญ ๐จ๐ฎ๐ญ๐ข๐ฅ ๐ฉ๐จ๐ฎ๐ซ ๐ฅ'๐š๐ง๐š๐ฅ๐ฒ๐ฌ๐ž, ๐ฅ'๐จ๐ฉ๐ญ๐ข๐ฆ๐ข๐ฌ๐š๐ญ๐ข๐จ๐ง ๐ž๐ญ ๐ฅ'๐š๐ฉ๐ฉ๐ซ๐ž๐ง๐ญ๐ข๐ฌ๐ฌ๐š๐ ๐ž ๐š๐ฎ๐ญ๐จ๐ฆ๐š๐ญ๐ข๐ช๐ฎ๐ž

Les ๐ฌรฉ๐ซ๐ข๐ž๐ฌ ๐๐ž ๐“๐š๐ฒ๐ฅ๐จ๐ซ permettent d’approximer des fonctions complexes par des polynรดmes, ce qui les rend particuliรจrement utiles en ๐š๐ฉ๐ฉ๐ซ๐ž๐ง๐ญ๐ข๐ฌ๐ฌ๐š๐ ๐ž ๐š๐ฎ๐ญ๐จ๐ฆ๐š๐ญ๐ข๐ช๐ฎ๐ž, ๐จ๐ฉ๐ญ๐ข๐ฆ๐ข๐ฌ๐š๐ญ๐ข๐จ๐ง et ๐š๐ง๐š๐ฅ๐ฒ๐ฌ๐ž ๐ง๐ฎ๐ฆรฉ๐ซ๐ข๐ช๐ฎ๐ž.

En exprimant une fonction comme une somme infinie de termes issus de ses dรฉrivรฉes, les approximations de Taylor facilitent les calculs et amรฉliorent l'efficacitรฉ computationnelle. Une approximation d’ordre 1 (linรฉaire) dรฉcrit le comportement local, tandis que les ordres supรฉrieurs (quadratique, cubique...) offrent une prรฉcision accrue en tenant compte de la courbure.


๐€๐ฏ๐š๐ง๐ญ๐š๐ ๐ž๐ฌ :

✔️ ๐€๐œ๐œรฉ๐ฅรจ๐ซ๐ž ๐ฅ'๐จ๐ฉ๐ญ๐ข๐ฆ๐ข๐ฌ๐š๐ญ๐ข๐จ๐ง en affinant les approximations des fonctions de perte
✔️ ๐€๐ฆรฉ๐ฅ๐ข๐จ๐ซ๐ž ๐ฅ๐š ๐ฌ๐ญ๐š๐›๐ข๐ฅ๐ข๐ญรฉ ๐ง๐ฎ๐ฆรฉ๐ซ๐ข๐ช๐ฎ๐ž dans les algorithmes par gradient
✔️ ๐’๐จ๐ฎ๐ญ๐ข๐ž๐ง ๐š๐ฎ๐ฑ ๐ฆ๐ž๐ญ๐ก๐จ๐๐ž๐ฌ ๐๐ž ๐๐ž๐ฌ๐œ๐ž๐ง๐ญ๐ž ๐๐ž ๐ ๐ซ๐š๐๐ข๐ž๐ง๐ญ (ordre 1) et ร  ๐ฅ'๐š๐ฅ๐ ๐จ๐ซ๐ข๐ญ๐ก๐ฆ๐ž ๐๐ž ๐๐ž๐ฐ๐ญ๐จ๐ง (ordre 2)
✔️ ๐€๐ง๐š๐ฅ๐ฒ๐ฌ๐ž ๐๐ฎ ๐œ๐จ๐ฆ๐ฉ๐จ๐ซ๐ญ๐ž๐ฆ๐ž๐ง๐ญ ๐๐ž๐ฌ ๐Ÿ๐จ๐ง๐œ๐ญ๐ข๐จ๐ง๐ฌ, convexitรฉ et points critiques
✔️ ๐๐ž๐ซ๐ฆ๐ž๐ญ ๐'๐š๐ฉ๐ฉ๐ซ๐จ๐ฑ๐ข๐ฆ๐ž๐ซ ๐ฅ๐ž๐ฌ ๐Ÿ๐จ๐ง๐œ๐ญ๐ข๐จ๐ง๐ฌ ๐ง๐จ๐ง ๐ฅ๐ข๐งรฉ๐š๐ข๐ซ๐ž๐ฌ et les fonctions de perte en deep learning


๐‹๐ข๐ฆ๐ข๐ญ๐ž๐ฌ :

๐รฉ๐œ๐ž๐ฌ๐ฌ๐ข๐ญ๐ž ๐๐ž ๐ฅ๐š ๐๐ข๐Ÿ๐Ÿรฉ๐ซ๐ž๐ง๐œ๐ข๐š๐›๐ข๐ฅ๐ข๐ญรฉ : les fonctions non diffรฉrentiables exigent d'autres mรฉthodes
๐‚๐จรป๐ญ ๐œ๐จ๐ฆ๐ฉ๐ฎ๐ญ๐š๐ญ๐ข๐จ๐ง๐ง๐ž๐ฅ croissant avec l’ordre d’approximation
๐ƒ๐ข๐ฏ๐ž๐ซ๐ ๐ž๐ง๐œ๐ž ๐ฉ๐จ๐ฌ๐ฌ๐ข๐›๐ฅ๐ž en dehors de l’intervalle de convergence, surtout pour les fonctions ร  singularitรฉ


๐Ÿ“Š Illustration :

L’image ci-dessous montre une approximation de Taylor d’ordre 2.
La surface d’origine est reprรฉsentรฉe en gris, tandis que la surface orange montre l’approximation quadratique.
๐Ÿ“Œ Source Wikipรฉdia 


๐Ÿ”ง ๐ˆ๐ฆ๐ฉ๐ฅรฉ๐ฆ๐ž๐ง๐ญ๐š๐ญ๐ข๐จ๐ง :

๐Ÿ”น ๐„๐ง ๐‘ : Ryacas (dรฉveloppement symbolique), pracma (diffรฉrenciation numรฉrique), optim() (optimisation ordre 1 & 2)
๐Ÿ”น ๐„๐ง ๐๐ฒ๐ญ๐ก๐จ๐ง : sympy (sรฉrie de Taylor), scipy.optimize, torch.autograd (PyTorch), jax.grad (JAX) pour la diffรฉrenciation automatique


๐Ÿ’ก Pour plus de contenu sur les ๐’๐ญ๐š๐ญ๐ข๐ฌ๐ญ๐ข๐ช๐ฎ๐ž๐ฌ, ๐‘, ๐๐ฒ๐ญ๐ก๐จ๐ง et ๐ฅ'๐š๐ง๐š๐ฅ๐ฒ๐ฌ๐ž ๐๐ž๐ฌ ๐๐จ๐ง๐งรฉ๐ž๐ฌ, abonnez-vous

________________________________________

Pour mieux apprendre l’utilisation des logiciel et modรจles statistiques, nous vous invitons ร  prendre part ร  la prochaine session de notre formation en ๐™€๐™˜๐™ค๐™ฃ๐™ค๐™ขรฉ๐™ฉ๐™ง๐™ž๐™š ๐™š๐™ฉ ๐™๐™š๐™˜๐™๐™ฃ๐™ž๐™ฆ๐™ช๐™š๐™จ ๐™Œ๐™ช๐™–๐™ฃ๐™ฉ๐™ž๐™ฉ๐™–๐™ฉ๐™ž๐™ซ๐™š๐™จ



________________________________________

#optimisation #dataanalytics #statisticalanalysis #rstats #datascience #python #rstats #machinelearning

 

Commentaires

Posts les plus consultรฉs de ce blog

ร‰conomรฉtrie des donnรฉes de panel: de la thรฉorie ร  la pratique