top of page
MLOps.png

Formation MLOps

Cette formation intensive permet d'acquérir des compétences opérationnelles en MLOps et comprendre les enjeux liés à la mise en production des projets de machine learning. Elle est conçue pour fournir une compréhension approfondie des principes, des méthodologies et des outils essentiels à l'industrialisation des projets de machine learning. À travers des exemples pratiques et des mises en situation réelles, les participants apprendront à automatiser les déploiements, monitorer les modèles, et optimiser les pipelines de machine learning. Elle s’adresse particulièrement aux data scientists qui souhaitent renforcer et élargir leur champ d'action vers la mise en production des modèles.

Objectifs de la formation

Cette formation intensive permet de :

  • Comprendre les principes fondamentaux du MLOps et leur importance dans le cycle de vie des projets de ML.

  • Acquérir une maîtrise des outils clés du MLOps.

  • Automatiser le déploiement et le monitoring des modèles machine learning en production.

  • Mettre en place des pipelines CI/CD adaptés aux besoins des projets d’IA.

  • Détecter et gérer les dérives des données et des modèles en production grâce à des outils avancés de monitoring.

  • Adapter les bonnes pratiques du MLOps aux projets complexes comme ceux impliquant des modèles de type Large Language Models (LLMs).

Dates

Du 14 au 16 mai 2025

Lieu

Paris

Prix 

Financement personnel ou entreprise : 1500€ HT.

Financement OPCO ou France Travail : 2100€ HT.

Possibilité de financement en 3 échéances.

* Le tarif inclut les pauses café, le déjeuner, les supports ainsi que les ressources Cloud.

Nombre de places

Afin d'assurer une qualité d'apprentissage optimale, le nombre de place est limité à 8.

Programme de la formation

Le programme de la formation met l'accent sur la mise en oeuvre et la manipulation des outils, mais également sur les enjeux les bonnes pratiques de mise en production des modèles.

 ​

Introduction au MLOps

  • Qu'est-ce que le MLOps ?

  • Cycle de vie d'un projet de ML

  • Problèmes auquel répond le MLOps

  • Différences entre le MLOps et le DevOps

  • Enjeux organisationnels dans la mise en production

  • Panorama des outils de MLOps

APIisation avec Flask

  • Pourquoi exposer un modèle en API ?

  • Concepts clés des API REST

  • Outils d'API pour Python

  • Framework Flask

  • Bonnes pratiques d'APIisation

  • Mise en pratique : construire une API Flask pour un modèle de ML

Virtualisation avec Docker

  • A quel problème répond Docker ?

  • Conteneurisation avec Docker

  • Concepts clés 

  • Docker compose

  • Docker sur le Cloud

  • Mise en pratique : dockériser une application Flask

CI/CD avec GitHub Actions

  • Qu'est-ce que la CI/CD ?

  • Avantages de la CI/CD dans les projets ML

  • Outils de CI/CD

  • GitHub Actions

  • Orchestration des workflows avec YAML

  • Présentation de AWS

  • Services AWS pour le ML

  • Déploiement continue sur AWS

  • Bonnes pratiques de CI/CD

  • Mise en pratique : déployer une application de ML sur AWS

Monitoring

  • A quel problèmes répond le monitoring ?

  • Monitoring des modèles et des données

  • Métriques de monitoring

  • Détection du drift

  • Outils de monitoring

  • Bonnes pratiques

  • Mise en pratique : monitoring d'un modèle en production avec Prometheus

LLMOps

  • Rappels sur le deep learning

  • Transformers et LLMs

  • Spécificités des projets LLMs

  • Finte tuning des LLMs

  • Quantization

  • Approximation bas rang

  • Déploiement des LLMs en production

  • Monitoring des LLMs en production

  • Mise en pratique : fine tuning et déploiement d'un LLM

Contactez-moi !

© 2023 par Redha Moulla

bottom of page