Nous accueillons Samuel Vaiter qui nous présentera les grandes lignes du fonctionnement de la différentiation automatique, utilisé notamment par PyTorch ou Jax pour des applications en machine learning. Il tachera de :
- rappeller la règle de la chaine et relier le calcul d’un Jacobian au problème de parenthésage d’une expression
- présenter le mode forward et reverse (rétropropagation) de la différentiation automatique, et leur description à travers un graphe computationel.
- montrer que la différentiation forward (unidimensionnel) peut s’implémenter aisément à l’aide de la surcharge de l’arithmétique flottante classique
- montrer que la différentiation reverse peut se voir comme une sémantique particulière sur un tri topologique d’un graphe computationel.
Si le temps le permet, il présentera également quelques résultats théoriques sur le sujet, notamment à travers l’utilisation de la DA sur un algorithme itératif.
Merci de vous inscrire pour suivre ce webinaire. La session sera enregistrée : s'inscrire implique d'accepter ce principe.
Samuel Vaiter is a CNRS researcher at the interface of mathematics and computer science. His current host lab is the Laboratoire J. A. Dieudonné of Université Côte d’Azur located in the city of Nice.