Fondements du Machine Learning et du Deep Learning Présentiel
Dernière mise à jour : 31/10/2025
Description
L'apprentissage automatique est au cœur des avancées actuellement constatées en intelligence artificielle pour le traitement des données numériques. En particulier, nous retrouvons l'apprentissage profond ; beaucoup d'autres approches peuvent s'avérer parfois plus performantes selon les problématiques réelles à traiter. Cette formation propose un panorama des méthodes disponibles "sur étagère" avec un focus sur l'utilisation pratique de ces méthodes avec la bibliothèque scikit-learn.
- Introduction, aspects fondamentaux de l'apprentissage statistique. Premiers algorithmes : arbres de décision, k plus proches voisins, classifieur naïf de Bayes. Estimation basique de l'erreur réelle. Prise en main de scikit-learn, mise en oeuvre des algorithmes du matin et de leurs hyper-paramètres, illustration de la malédiction de la dimensionnalité.
- Discriminants linéaires (perceptron, SVM marges dures et douces). Régression linéaire. Mesures d'évaluation des performances. Mise en oeuvre sous scikit-learn, réglage des hyper-paramètres, impact du bruit dans les données (études sur données benchmarks). Découverte du multi-classes par la pratique.
- Non-séparabilité linéaire : fonctions noyaux et SVM, perceptron à noyau. Méthodes ensemblistes (boosting, bagging, forêts aléatoires). Introduction à la régularisation (ridge, lasso, elastic net). Méthodes de réduction de dimensions. Sélection de modèles. Observation pratique avec scikit-learn et données benchmarks de l'impact de la régularisation, des temps d'apprentissage et d'entraînement. Mise en oeuvre de la sélection de modèles.
- Le perceptron multi-couches et rétro-propagation du gradient, drop-out. Approches de type "deep" : présentation des architectures essentielles (auto-encodeur, convolution, GAN, LSTM). Pratique sous Keras : mise en oeuvre d'un GAN et d'un réseau de convolution. Illustration de l'extraction de caractéristiques avec des réseaux pré-entraînés.
Objectifs de la formation
- Savoir identifier la nature d'un problème d'apprentissage automatique : supervisé/non-supervisé, classification/régression.
- Savoir mettre en œuvre les méthodes répandues de l'apprentissage automatique (kppv, SVM, arbres de décision, forêts aléatoires, Boosting, régression).
- Savoir comment évaluer les performances de ces méthodes à travers plusieurs métriques.
- Savoir comparer des modèles appris.
- Savoir réduire le nombre de dimensions des données.
- Savoir mettre en œuvre une architecture simple de réseaux de neurones.
- Savoir mettre en œuvre un réseau de neurones profond et connaître le drop-out.
- Savoir utiliser les outils Sklearn, Keras/Tensor Flow.
Public visé
Prérequis
Modalités pédagogiques
- Chaque jour : 3 h de cours interactifs et 4 h d'ateliers pratiques.
- TP encadrés par un intervenant pour 8 participants maximum.
Moyens et supports pédagogiques
Il est demandé aux participants de venir avec leur propre ordinateur sur lequel les logiciels et outils (libres) nécessaires à la formation (communiqués avant le début de la formation) seront préalablement installés.
Un fichier au format PDF sera mis à disposition du participant.
Modalités d'évaluation et de suivi
Formateurs
CAPPONI Cécile
Responsable scientifique
