Architectures du Deep Learning Présentiel
Dernière mise à jour : 06/10/2025
Description
Cette formation présente différentes architectures de modèles pour offrir une perspective étendue sur le Deep Learning. Les participants exploreront des architectures clés telles que les réseaux neuronaux convolutifs (CNN), les réseaux neuronaux récurrents (RNN), les Transformers et d'autres. Les architectures sont vues successivement. Le déroulé typique pour une architecture comporte une mise en contexte, les concepts fondamentaux permettant de comprendre le fonctionnement de l'architecture et comment celle-ci est entraînée. Des exercices pratiques en Python avec Pytorch, ainsi que des démonstrations sur le supercalculateur Jean Zay de l'IDRIS, permettront de mettre en application ces concepts.
- Réseau neuronal convolutif (CNN)
- Réseau neuronal récurrent (RNN)
- Transformers
- Graph neural network (GNN)
- Diffusion models
Objectifs de la formation
- Comprendre les principes et les fonctionnalités des architectures de réseaux de neurones avancées, tels que les CNN, RNN, Transformers, GNN et les modèles de diffusion
- Acquérir des compétences pratiques en mettant en œuvre ces architectures lors de travaux pratiques
- Appliquer les techniques d'adaptation de ces architectures à différents types de données, en explorant leurs applications sur des données variées telles que les images, le son, le texte ou les graphes
Public visé
Prérequis
Modalités pédagogiques
Moyens et supports pédagogiques
Des supports de cours et des TP seront mis à disposition du participant.
Pour une exécution efficace des parties pratiques, celles-ci se dérouleront sur le supercalculateur de l'IDRIS.
Modalités d'évaluation et de suivi
Formateurs
GUERDA Kamel
Responsable scientifique
CORNETTE Pierre
Responsable scientifique
VERY Thibaut
Responsable scientifique