top of page
Formation_LLM2026_edited.jpg

Formation en Large Language Models (LLM)

Trois jours pour comprendre les LLM et leurs applications : fine-tuning, raisonnement, RAG et Agents, avec PyTorch et LangChain

A qui s'adresse cette formation ?

Cette formation s'adresse à des profils techniques : data scientists, ML engineers, développeurs, etc. Elle s'adresse plus généralement aux personnes qui veulent acquérir des connaissances techniques avancées sur les LLM et leurs applications.

Prérequis

Connaissances en programmation, notamment en Python.

Objectifs pédagogiques :

À l'issue de la formation, les participants seront capables de :

  • Comprendre l'architecture et le fonctionnement des LLM

  • Maîtriser les applications des LLM (RAG, Agents, etc.)

  • Fine-tuner des LLM pour les adapter à des cas d'usage

  • Développer des applications avec LangChain

Informations pratiques

Date : 28 - 30 janvier 2026                                 Lieu : Paris

Durée : 21 heures                                                 Nombre de places : 10                                      

Prix : 1500€ HT 

Inclut les déjeuners, pauses-café et ressources en GPU.

Possibilité de paiement en 3 fois.                                                    

Programme de la formation

Le programme de la formation alterne entre parties théoriques et mises en pratique sous Python et Pytorch.

Fondamentaux des LLMs

  • Eléments de deep learning

  • Représentations distribuées de mots (Embeddings)

  • Modèles classiques pour le NLP (RNN, LSTM, Seq2Seq)

  • Mécanisme d'Attention et transformers

  • Tokénisation

  • Positional encoding

  • Modèles BERT

  • Modèles auto-régressifs (GPT)

  • Mise en pratique avec PyTorch : fine tuning d'un modèle BERT

Retrieval Augmented Generation (RAG)

  • Introduction aux RAGs

  • Bases de données vectorielles

  • Modèles de similarité pour le retrieval (cross-encodeurs, ColBERT, etc.)

  • Reranking

  • Techniques avancées

  • Ecosystème LangChain

  • Mise en pratique avec LangChain : implémentation d'un RAG

Agents basés sur les LLMs

  • Principes d'un Agent LLM

  • Agents ReAct

  • Systèmes multi-agents

  • Protocole MCP

  • Mise en pratique : implémentation d'un Agent avec LangChain et MCP

Fine-tuning des LLMs

  • Supervised fine-tuning

  • RLHF

  • Parameter efficient fine-tuning (PEFT)

  • LoRA

  • Modèles de raisonnement

  • GRPO

  • Mise en pratique sous Pytorch : Fine tuning d'un LLM open source

Des questions ? Contactez-moi :

© 2025 par Redha Moulla

bottom of page