๐ต ๐๐๐ฌ ๐ฌ๐๐ซ๐ข๐๐ฌ ๐๐ ๐๐๐ฒ๐ฅ๐จ๐ซ : ๐๐ง ๐ฉ๐ฎ๐ข๐ฌ๐ฌ๐๐ง๐ญ ๐จ๐ฎ๐ญ๐ข๐ฅ ๐ฉ๐จ๐ฎ๐ซ ๐ฅ'๐๐ง๐๐ฅ๐ฒ๐ฌ๐, ๐ฅ'๐จ๐ฉ๐ญ๐ข๐ฆ๐ข๐ฌ๐๐ญ๐ข๐จ๐ง ๐๐ญ ๐ฅ'๐๐ฉ๐ฉ๐ซ๐๐ง๐ญ๐ข๐ฌ๐ฌ๐๐ ๐ ๐๐ฎ๐ญ๐จ๐ฆ๐๐ญ๐ข๐ช๐ฎ๐
Les ๐ฌรฉ๐ซ๐ข๐๐ฌ ๐๐ ๐๐๐ฒ๐ฅ๐จ๐ซ permettent d’approximer des fonctions complexes par des polynรดmes, ce qui les rend particuliรจrement utiles en ๐๐ฉ๐ฉ๐ซ๐๐ง๐ญ๐ข๐ฌ๐ฌ๐๐ ๐ ๐๐ฎ๐ญ๐จ๐ฆ๐๐ญ๐ข๐ช๐ฎ๐, ๐จ๐ฉ๐ญ๐ข๐ฆ๐ข๐ฌ๐๐ญ๐ข๐จ๐ง et ๐๐ง๐๐ฅ๐ฒ๐ฌ๐ ๐ง๐ฎ๐ฆรฉ๐ซ๐ข๐ช๐ฎ๐.
En exprimant une fonction comme une somme infinie de termes issus de ses dรฉrivรฉes, les approximations de Taylor facilitent les calculs et amรฉliorent l'efficacitรฉ computationnelle. Une approximation d’ordre 1 (linรฉaire) dรฉcrit le comportement local, tandis que les ordres supรฉrieurs (quadratique, cubique...) offrent une prรฉcision accrue en tenant compte de la courbure.
✅
๐๐ฏ๐๐ง๐ญ๐๐ ๐๐ฌ :
✔️ ๐๐๐รฉ๐ฅรจ๐ซ๐ ๐ฅ'๐จ๐ฉ๐ญ๐ข๐ฆ๐ข๐ฌ๐๐ญ๐ข๐จ๐ง en affinant les approximations des fonctions de perte
✔️ ๐๐ฆรฉ๐ฅ๐ข๐จ๐ซ๐ ๐ฅ๐
๐ฌ๐ญ๐๐๐ข๐ฅ๐ข๐ญรฉ ๐ง๐ฎ๐ฆรฉ๐ซ๐ข๐ช๐ฎ๐ dans les algorithmes par gradient
✔️ ๐๐จ๐ฎ๐ญ๐ข๐๐ง ๐๐ฎ๐ฑ ๐ฆ๐๐ญ๐ก๐จ๐๐๐ฌ ๐๐
๐๐๐ฌ๐๐๐ง๐ญ๐ ๐๐
๐ ๐ซ๐๐๐ข๐๐ง๐ญ (ordre 1) et ร ๐ฅ'๐๐ฅ๐ ๐จ๐ซ๐ข๐ญ๐ก๐ฆ๐ ๐๐
๐๐๐ฐ๐ญ๐จ๐ง (ordre 2)
✔️ ๐๐ง๐๐ฅ๐ฒ๐ฌ๐ ๐๐ฎ
๐๐จ๐ฆ๐ฉ๐จ๐ซ๐ญ๐๐ฆ๐๐ง๐ญ ๐๐๐ฌ ๐๐จ๐ง๐๐ญ๐ข๐จ๐ง๐ฌ, convexitรฉ et points critiques
✔️ ๐๐๐ซ๐ฆ๐๐ญ ๐'๐๐ฉ๐ฉ๐ซ๐จ๐ฑ๐ข๐ฆ๐๐ซ ๐ฅ๐๐ฌ ๐๐จ๐ง๐๐ญ๐ข๐จ๐ง๐ฌ ๐ง๐จ๐ง ๐ฅ๐ข๐งรฉ๐๐ข๐ซ๐๐ฌ et les fonctions de perte en deep learning
❌
๐๐ข๐ฆ๐ข๐ญ๐๐ฌ :
❌ ๐รฉ๐๐๐ฌ๐ฌ๐ข๐ญ๐ ๐๐
๐ฅ๐ ๐๐ข๐๐รฉ๐ซ๐๐ง๐๐ข๐๐๐ข๐ฅ๐ข๐ญรฉ : les fonctions non diffรฉrentiables
exigent d'autres mรฉthodes
❌ ๐๐จรป๐ญ
๐๐จ๐ฆ๐ฉ๐ฎ๐ญ๐๐ญ๐ข๐จ๐ง๐ง๐๐ฅ croissant avec l’ordre d’approximation
❌ ๐๐ข๐ฏ๐๐ซ๐ ๐๐ง๐๐ ๐ฉ๐จ๐ฌ๐ฌ๐ข๐๐ฅ๐ en dehors de l’intervalle de convergence, surtout pour les
fonctions ร singularitรฉ
๐
Illustration :
L’image
ci-dessous montre une approximation de Taylor d’ordre 2.
La surface d’origine est reprรฉsentรฉe en gris, tandis que la surface orange
montre l’approximation quadratique.
๐ Source Wikipรฉdia
๐ง ๐๐ฆ๐ฉ๐ฅรฉ๐ฆ๐๐ง๐ญ๐๐ญ๐ข๐จ๐ง :
๐น ๐๐ง ๐ : Ryacas (dรฉveloppement symbolique), pracma (diffรฉrenciation numรฉrique), optim() (optimisation ordre 1 & 2)
๐น ๐๐ง ๐๐ฒ๐ญ๐ก๐จ๐ง : sympy
(sรฉrie de Taylor), scipy.optimize, torch.autograd (PyTorch), jax.grad (JAX) pour la diffรฉrenciation automatique
๐ก Pour plus de contenu sur les ๐๐ญ๐๐ญ๐ข๐ฌ๐ญ๐ข๐ช๐ฎ๐๐ฌ, ๐, ๐๐ฒ๐ญ๐ก๐จ๐ง et ๐ฅ'๐๐ง๐๐ฅ๐ฒ๐ฌ๐ ๐๐๐ฌ ๐๐จ๐ง๐งรฉ๐๐ฌ,
abonnez-vous
________________________________________
Pour mieux apprendre l’utilisation des logiciel et modรจles statistiques, nous vous invitons ร prendre part ร la prochaine session de notre formation en ๐๐๐ค๐ฃ๐ค๐ขรฉ๐ฉ๐ง๐๐ ๐๐ฉ ๐๐๐๐๐ฃ๐๐ฆ๐ช๐๐จ ๐๐ช๐๐ฃ๐ฉ๐๐ฉ๐๐ฉ๐๐ซ๐๐จ
________________________________________
#optimisation #dataanalytics #statisticalanalysis #rstats #datascience
#python #rstats #machinelearning
Commentaires
Enregistrer un commentaire