Formation Data Science - Mise en oeuvre du Deep Learning Mixte : présentiel / à distance
Dernière mise à jour : 09/04/2024
Objectifs de la formation
À l'issue de la formation, vous serez capable de :
- Maîtriser les briques de base du Deep Learning : réseaux de neurones simples, convolutifs et récursifs
- Comprendre et appréhender les modèles plus avancés : auto-encodeurs, gans, apprentissage par renforcement
- Connaître les différents modes de déploiement de ces modèles
Public visé
Prérequis
Modalités pédagogiques
Moyens et supports pédagogiques
Présentations et supports visuels : Utilisation de diapositives PowerPoint, de fichiers PDF ou d'autres supports visuels pour présenter les concepts clés, les méthodologies et les bonnes pratiques
Démos et exemples concrets : Réalisation de démonstrations, d'exemples concrets peuvent également être utilisés pour illustrer les différents concepts. Des exercices pratiques sont également régulièrement réalisés.
Modalités d'évaluation et de suivi
Les apprenants ainsi que le formateur signeront une feuille d'émargement à chaque demi-journée de formation.
Avant la formation, un questionnaire de positionnement sera envoyé aux apprenants. Ce questionnaire permettra au formateur de préparer cette session en adaptant son approche au groupe.
Tout au long de la formation, les stagiaires seront évalués en continu grâce aux exercices pratiques.
Pour clôturer la formation, une évaluation finale sera réalisée à travers une mise en pratique professionnelle.
À l'issue de la formation, un questionnaire de satisfaction et une attestation de réussite sera délivrée aux apprenants, attestant de leur engagement et des compétences acquises tout au long de cette formation.
Profil du / des Formateur(s)
Description
Introduction
- L'apparition du Deep Learning
- Deep Learning Time line
- L'apprentissage des machines
Réseaux de neurones simples (NNs)
- Le Perceptron et le Perceptron multi-couches
- L'entrainement d'un Perceptron
- Principe de back propagation
- Les optimiseurs du Deep Learning
- La régularisation des réseaux de neurones
- Les techniques de réglages des NN
Travaux pratiques :
Mise en œuvre d'un Perceptron Multi-couches
Réseaux de neurones convolutifs (convolutional neural networks - CNNs)
- Pourquoi ce type de réseaux ?
- Principe de fonctionnement des CNNs
- Les champs de réceptions locaux
- Les poids partagés
- Convolution - notion de Padding et principe du calcul
- Les couches de sous-échantillonnage (pooling)
- Les CNNs très profonds (DCNNs)
- Modèles CNNs - Concours ImageNet
- L'architecture DCNNs
- Mécanisme d'Inception (Google)
- L'apprentissage par transfert
- La promesse des réseaux de Capsules
- Travaux pratiques : mise en œuvre de réseaux de neurones convolutifs pour la reconnaissance d'objets simples
Travaux pratiques :
Développement d'un modèle profond par transfer learning et application à la reconnaissance fine d'objets
Réseaux de neurones convolutifs (convolutional neural net)
- Les réseaux neuronaux récursifs simples
- Les différentes topologies des RNNs
- La fugacité et l'explosion des gradients
- La variante LSTM des RNNs et GRU
- Les RNNs bidirectionnels
- Le traitement de très longues séquences
- Les approches encodeur - décodeur
- Les réseaux seq2seq simple
- Le mécanisme Attention
- L'architecture Transformer
Travaux pratiques : mise en œuvre de réseaux de neurones récursifs bidirectionnels et seq2seq
Réseaux de neurones auto-encodeurs (autoencoders - AEs)
- Auto-encodeurs génériques :
Principes de fonctionnement ;
Choix des fonctions d'encodage/décodage ;
L'opération de "déconvolution" ;
Usages des auto-encodeurs et modes d'apprentissage
- Auto-encodeurs variationnels (variational autoencoders ) :
Pourquoi les VAEs ;
Principes de fonctionnement ;
Modèle d'inférence variationnelle ;
Fonction de perte des VAEs ;
Optimisation : astuce du re-paramétrage ;
Exemple de mise en œuvre d'un VAE ;
Différentes variantes courantes des VAEs
Travaux pratiques :
Développement et application d'auto-encodeurs au débruitage et à la génération de variations naturelles de données.
Réseaux antagonistes génératifs (generative adversial networks - GANs)
- Taxonomie des modèles génératifs
- Les GANs, des réseaux en coopétition
- Modèles générateurs et discriminants
- Intérêts des GANs
- Problématiques classiques des GANs
- Typologie des principaux GANs
- Principes d'entraînement d'un GAN
- Les GANs convolutionnels profonds (DCGANs)
- Tendances d'évolution des GANs
- Les GANs conditionnels (CGANs, ACGANs)
- Les GANs à représentation démêlée (InfoGANs, StackedGANs)
- Les GANs à domaines croisés (CycleGANs)
Travaux pratiques :
Mise en œuvre de GANs convolutionnels profond (DCGANs) sur cas concrets.
Réseaux de neurones profonds auto-apprenants
- L'apprentissage profond par renforcement (deep reinforcement learning - DRL) :
Principes de fonctionnement ;
Cadre Markovien ;
Notions de valeur d'état et de politique ;
Processus de décision Markovien (MDP) ;
Résolution par différents apprentissages ;
Taxonomies des algorithmes RL
- Algorithmes profonds basés sur la valeur :
Principe d'optimalité de Bellman ;
La valeur d'action Q ;
Apprentissage profond de la valeur d'action Q ;
Principes du fonctionnement des DQN (deep Q network) ;
Approche par exploration - exploitation ;
La relecture d'expérience (experience replay) ;
Principe d'entraînement du réseau Q ;
Variante DDQN
- Algorithmes profonds basés sur la valeur :
Méthodes types Gradient de la politique ;
Approche REINFORCE : principes et formalisme ;
Modélisation de la politique ;
Théorème du Gradient de la Politique ;
Algorithme REINFORCE
- Algorithmes mixtes :
Variante REINFORCE avec base de référence ;
Autres variantes : ACTOR-CRITIC, A2C ;
ALFAGO et évolutions
Travaux pratiques :
Mise en œuvre de plusieurs réseaux d'apprentissage par renforcement sur cas concrets
Déploiement du Deep Learning
- Enjeux
- Architecture de référence
- Champs des possibles
- Exemple de déploiement avec un serveur générique
- L'utilisation d'un service dans le Cloud
- Frameworks de déploiement dédiés au Deep Learning
- Déploiement dans un contexte de streaming
Informations sur l'admission
Les demandes d'inscription se font :
- par mail à l'adresse suivante : formation@omneo-solutions.com. Merci de joindre au mail votre CV à jour.
- par téléphone au 03 66 72 86 17
- sur notre formulaire d'inscription en ligne
Les inscriptions se font en fonction des places disponibles. Le délai de rétractation est de 10 jours avant le début de la formation.
Informations sur l'accessibilité
Nous attachons une importance particulière à l'accessibilité de nos formations pour les personnes en situation de handicap.
En cas de besoin, notre référente handicap est disponible pour chaque stagiaire concerné afin de mettre en place un protocole adapté pour garantir qu'il puisse suivre la formation de son choix.
Nous avons développé un processus dédié à la prise en compte de ce public, ainsi qu'un réseau de structures partenaires qui peuvent intervenir si l'adaptation de la formation s'avère compliquée.
Notre objectif est d'assurer que chaque individu, quelle que soit sa situation, puisse bénéficier pleinement de nos formations et développer ses compétences dans les meilleures conditions.