Formation Data Science – Mise en œuvre du Deep Learning

Contexte

Le Deep Learning, basé sur des réseaux de neurones distribués, révèle de nouvelles possibilités dans l’accélération de l’évolution du Big Data vers l’Intelligence Artificielle. Cela permet d’obtenir des prévisions, des projections, des conseils et de nouveaux services tels que la reconnaissance faciale, d’images ou de sons. Cette formation en Data Science offrira aux participants l’opportunité de comprendre et de mettre en œuvre des solutions de Deep Learning.

Objectifs

A l’issue de la formation Data Science – Deep Learning, le stagiaire sera capable de :

  • Maîtriser les briques de base du Deep Learning : réseaux de neurones simples, convolutifs et récursifs
  • Comprendre et appréhender les modèles plus avancés : auto-encodeurs, gans, apprentissage par renforcement
  • Connaître les différents modes de déploiement de ces modèles

Public

DATA scientist, DATA analysts

Toute personne qui s’intéresse aux spécificités du Deep Learning

Programme de la formation

Introduction

  • L’apparition du Deep Learning
  • Deep Learning Time line
  • L’apprentissage des machines 

Réseaux de neurones simples (NNs)

  • Le Perceptron et le Perceptron multi-couches
  • L’entrainement d’un Perceptron
  • Principe de back propagation
  • Les optimiseurs du Deep Learning
  • La régularisation des réseaux de neurones
  • Les techniques de réglages des NN

Travaux pratiques : mise en oeuvre d’un Perceptron Multi-couches

Réseaux de neurones convolutifs (convolutional neural networks – CNNs)

  • Pourquoi ce type de réseaux ?
  • Principe de fonctionnement des CNNs
  • Les champs de réceptions locaux
  • Les poids partagés
  • Convolution – notion de Padding et principe du calcul 
  • Les couches de sous-échantillonnage (pooling)
  • Les CNNs très profonds (DCNNs)
  • Modèles CNNs – Concours ImageNet
  • L’architectures DCNNs
  • Mécanisme d’Inception (Google)
  • L’apprentissage par transfert
  • La promesse des réseaux de Capsules

Travaux pratiques : mise en oeuvre de réseaux de neurones convolutifs pour la reconnaissance d’objets simples

Travaux pratiques : développement d’un modèle profond par transfer learning et application à la reconnaissance fine d’objets

Réseaux de neurones convolutifs (convolutional neural net)

  • Les réseaux neuronaux récursifs simples
  • Les différentes topologies des RNNs
  • La fugacité et l’explosion des gradients
  • La variante LSTM des RNNs et GRU
  • Les RNNs bidirectionnels
  • Le traitement de très longues séquences
  • Les approches encodeur – décodeur
  • Les réseaux seq2seq simple
  • Le mécanisme Attention
  • L’architecture Transformer

Travaux pratiques : mise en oeuvre de réseaux de neurones récursifs bidirectionnels  et seq2seq

Réseaux de neurones auto-encodeurs (autoencoders – AEs)

  • Auto-encodeurs génériques :
    • Principes de fonctionnement ; 
    • Choix des fonctions d’encodage/décodage ; 
    • L’opération de « déconvolution » ; 
    • Usages des auto-encodeurs et modes d’apprentissage
  • Auto-encodeurs variationnels (variational autoencoders ) : 
  • Pourquoi les VAEs ; 
  • Principes de fonctionnement ; 
  • Modèle d’inférence variationnelle ; 
  • Fonction de perte des VAEs ; 
  • Optimisation : astuce du re-paramétrage ; 
  • Exemple de mise en oeuvre d’un VAE ; 
  • Différentes variantes courantes des VAEs

Travaux pratiques : Développement et application d’auto-encodeurs au débruitage et à la génération de variations naturelles de données

Réseaux antagonistes génératifs (generative adversial networks – GANs)

  • Taxonomie des modèles génératifs
  • Les GANs, des réseaux en coopétition
  • Modèles générateurs et discriminants
  • Intérêts des GANs
  • Problématiques classiques des GANs
  • Typologie des principaux GANs
  • Principes d’entraînement d’un GAN
  • Les GANs convolutionnels profonds (DCGANs)
  • Tendances d’évolution des GANs
  • Les GANs conditionnels (CGANs, ACGANs)
  • Les GANs à représentation démêlées (InfoGANs, StackedGANs)
  • Les GANs à domaines croisés (CycleGANs)

Travaux pratiques : mise en oeuvre de GANs convolutionnels profond (DCGANs) sur cas concrets

Réseaux de neurones profonds auto-apprenants

  • L’apprentissage profond par renforcement (deep reinforcement learning – DRL) : 
  • Principes de fonctionnement ; 
  • Cadre Markovien ; 
  • Notions de valeur d’état et de politique ; 
  • Processus de décision Markovien (MDP) ; 
  • Résolution par différents apprentissages ; 
  • Taxonomies des algorithmes RL
  • Algorithmes profonds basés sur la valeur : 
  • Principe d’optimalité de Bellman ; 
  • La valeur d’action Q ; 
  • Apprentissage profond de la valeur d’action Q ; 
  • Principes du fonctionnement des DQN (deep Q network) ; 
  • Approche par exploration – exploitation ; 
  • La relecture d’expérience (experience replay) ; 
  • Principe d’entraînement du réseau Q ; 
  • Variante DDQN
  • Algorithmes profonds basés sur la valeur : 
  • Méthodes types Gradient de la politique ; 
  • Approche REINFORCE : principes et formalisme ; 
  • Modélisation de la politique ; 
  • Théorème du Gradient de la Politique ; 
  • Algorithme REINFORCE
  • Algorithmes mixtes : 
  • Variante REINFORCE avec base de référence ; 
  • Autres variantes : ACTOR-CRITIC, A2C ; 
  • ALFAGO et évolutions

Travaux pratiques : mise en oeuvre de plusieurs réseaux d’apprentissage par renforcement sur cas concrets

Déploiement du Deep Learning

  • Enjeux
  • Architecture de référence
  • Champs des possibles
  • Exemple de déploiement avec un serveur générique
  • L’utilisation d’un service dans le Cloud
  • Frameworks de déploiement dédiés au deep learning
  • Déploiement dans un contexte de streaming

 

Durée

3 jours

Dates et délais

Sur demande

Modalités

Présentiel ou distanciel

Lieu

Lieu à définir

Tarif

2388 € TTC

Intéressé(e) ? Besoin d’infos ?

Contactez-nous 📩

    Prénom*
    Nom*
    Adresse E-mail*
    N° de téléphone
    Vous êtes*

    Objet de votre message*
    Votre message*