MLOps — Avancé : pipelines, monitoring et scaling
Formation créée le 17/03/2026.
Version du programme : 1
Version du programme : 1
Type de formation
PrésentielDurée de formation
21 heures (3 jours)
Cette formation est gratuite.
S'inscrire
Cette formation est gratuite.
S'inscrire
Cette formation est gratuite.
S'inscrire
MLOps — Avancé : pipelines, monitoring et scaling
Concevoir des pipelines ML industrialisés, monitorer efficacement les modèles en production et mettre en place des stratégies de déploiement et de scaling adaptées aux contraintes de performance, de fiabilité et de coûts d’un environnement d’entreprise.
Objectifs de la formation
- Concevoir un pipeline MLOps automatisé de bout en bout
- Orchestrer des workflows ML avec Kubeflow, Vertex AI Pipelines et SageMaker Pipelines
- Mettre en place un feature store et gérer les features en production
- Gérer le versioning, l’enregistrement et la promotion des modèles
- Détecter les dérives de données et la dégradation des modèles
- Déployer des stratégies d’A/B testing et de mise en production progressive
- Optimiser l’allocation GPU et le scheduling sur Kubernetes
- Choisir une stratégie de serving adaptée : batch ou temps réel
Profil des bénéficiaires
Pour qui
- ML Engineers
- MLOps Engineers
- DevOps Engineers
- Architectes Data / AI / Cloud
- Responsables plateforme ML
Prérequis
- Bonne maîtrise du Machine Learning
- Expérience en Python et en déploiement de modèles
- Connaissances en Docker et Kubernetes
- Familiarité avec les environnements cloud ou les pipelines data
Contenu de la formation
JOUR 1- Orchestration avancée des pipelines ML (7h00)
- Structurer un pipeline ML industrialisé : entraînement, validation, déploiement, suivi
- Comprendre les principes d’orchestration et les dépendances entre étapes
- Comparer Kubeflow Pipelines, Vertex AI Pipelines et SageMaker Pipelines
- Choisir une solution selon le contexte technique, cloud et organisationnel
- Activité pratique – Étude de cas : Concevoir l’architecture d’un pipeline MLOps complet pour un cas métier. Déployer une première version du pipeline sur Kubernetes avec Kubeflow.
JOUR 2- Feature stores, model registry et promotion (7h00)
- Comprendre le rôle d’un feature store dans l’industrialisation des modèles
- Manipuler les principes de Feast et situer l’usage de Tecton
- Mettre en place un model registry et gérer les versions de modèles
- Définir un processus de validation et de promotion entre staging et production
- Activité pratique – Cas pratique : Intégrer un feature store au pipeline fil rouge. Enregistrer, versionner et promouvoir un modèle dans un registry.
JOUR 3- Monitoring, A/B testing et scaling (7h00)
- Suivre les performances d’un modèle en production
- Détecter data drift, concept drift et model decay
- Mettre en place une stratégie d’A/B testing ou de canary deployment
- Comparer batch serving et real-time serving selon le besoin métier
- Optimiser l’allocation GPU, le scheduling et le scaling sur Kubernetes
- Activité pratique – TP : Finaliser un pipeline MLOps complet sur Kubernetes avec serving et monitoring. Tester deux versions d’un modèle et définir une stratégie de déploiement et de scaling.
Équipe pédagogique
Professionnel expert technique et pédagogique.