Logo de l'organisme de formation

La formation au coeur de l'avenir technologique

Représentation de la formation : PyTorch - Deep Learning

PyTorch - Deep Learning

Formation à distance
Durée : 21 heures (3 jours)
Durée :21 heures (3 jours)
HT
Se préinscrire
Durée :21 heures (3 jours)
HT
Se préinscrire
Durée :21 heures (3 jours)
HT
Se préinscrire

Formation créée le 19/05/2021. Dernière mise à jour le 25/07/2022.

Version du programme : 1

Programme de la formation

Objectif de formation : Comprendre le Deep Learning et savoir utiliser PyTorch dans ce contexte.

Objectifs de la formation

  • Appréhender le concept de Deep Learning
  • Savoir utiliser PyTorch pour un usage de Deep Learning
  • Être capable d’utiliser les ressources web pour construire un bibliothèque de cas d’usage
  • Pouvoir installer et utiliser PyTorch / Fastai
  • Appréhender le concept de Machine Learning et se servir de PyTorch pour cette utilisation

Profil des bénéficiaires

Pour qui
  • Développeur, architectes, data analysts, data scientists…
Prérequis
  • Maîtriser les bases du langage Python et de Numpy

Contenu de la formation

  • Présentation du Deep Learning
    • Définition du Machine Learning
    • Typologies d’algorithmes de Machine learning: supervisé, non-supervisé, semi-supervisé, auto-supervisé, apprentissage par renforcement
    • L’apprentissage: sous-apprentissage, sur-apprentissage, généralisation, métrique, évaluation
    • Les mathématiques appliquées au Machine Learning
    • Les apports et limites du Deep Leaning
    • Pourquoi passer au Deep Learning
    • Introduction de PyTorch
    • Introduction aux surcouches fastai & PyTorch lightning
  • Installation et premiers pas avec PyTorch
    • Installation de PyTorch
    • Google Collab
    • Utilisation de Python comme Numpy
    • Les divers cas d’usages
    • Construire un module réseau de neurones
    • Charger un DataSet, le découper en version d’entrainement et de test avec PyTorch & Sklearn
    • Visualisation des résultats par les métriques Sklearn et Tensorboard
    • Optimiser les hyperparamètres et principes du AutoML
    • Sauvegarder et restaurer un modèle
    • Les callbacks
  • Les CNN et le traitement d'images
    • Application et architecture d’une CNN
    • Appréhender et visualiser un CNN & le produit de convolution
    • Couches de convolution et de mise en commun dans une CNN
    • Transfert d’apprentissage
    • Réglages des réseaux de neurones convolutionnels
    • Backpropagation et implémentation en PyTorch
    • Classification d’images
    • Création de CNN avec PyTorch vs avec FastAI
  • MLP et données tabulaires
    • Concept d’embedding & réduction de dimension sémantique
    • Charger de données CSV par Pandas
    • Créer des variables quantitatives depuis des variable qualitative/catégorielles
    • Traiter les données manquantes
    • Normalisation par Pandas puis FastAI
    • Créer un autoencodeur
    • Les applications à la visualisation et au clustering
  • Traitement du texte
    • Les words embeddings
    • Utilisation avec Spacy
    • Les sentences embeddings
    • La librairie Universal Sentence Encoder
    • Flair et HuggingFace : le NLP
  • Pour aller plus loin
    • LSTM : applications et architectures
    • RNN, LSTM & GRU
    • Le mécanisme d’attention
    • Créer un LSTM
    • Application à la prédiction de séries temporelles
Équipe pédagogique

Professionnel expert dans le Big Data

Suivi de l'exécution et évaluation des résultats
  • Feuilles de présence
  • Mises en situation
  • Formulaires d'évaluation de la formation
  • Certificat de réalisation de l’action de formation
  • Émargement numérique
Ressources techniques et pédagogiques
  • Documents supports de formation projetés
  • Exposés théoriques
  • Etude de cas concrets
  • Mise à disposition en ligne de documents supports à la suite de la formation
  • Espace intranet de formation

Qualité et satisfaction

Taux de satisfaction des stagiaires Progression des compétences visées Taux d'abandon Taux de retour des enquêtes Taux d'interruption en cours de prestation