top of page

Formation deep learning avec Pytorch
                Computer vision & LLM

Cette session est proposée sous un format exceptionnel : 5 participants au maximum pour 5 jours intensifs (au lieu de 3 jours habituellement). 

​

La formation deep learning avec Pytorch permet une immersion technique totale en équilibrant théorie et pratique. Elle est destinée essentiellement à des profils techniques (data scientists, ML engineers, développeurs Python, etc.) qui souhaitent acquérir des connaissances avancées en deep learning.​

​

Objectifs de la formation

​

Cette formation intensive permet de :

  • Comprendre les principes fondamentaux du deep learning.

  • Maîtriser les différentes techniques de deep learning et ses applications.

  • Maîtriser le framework Pytorch pour pouvoir mettre en oeuvre de manière autonome des modèles de deep learning.

  • Acquérir une méthodologie solide pour préparer, entraîner et optimiser un réseau de neurones profond.

Prérequis Cette formation est adaptée à des profils ayant des connaissances de base en machine learning et en programmation Python.

Prix : 1500 € HT

Possibilité de paiement en 3 échéances

Durée : 5 jours (35h)

Lieu : en distanciel

Date : 7-11 juillet 2025

Programme de la formation

Le programme alterne entre partie théorique et mise en pratique avec Pytorch. Les concepts théoriques sont détaillés de manière approfondie et intuitive. La mise en pratique concerne des cas d'usage réels. 

​

Introduction au deep learning

  • Brève histoire de l'intelligence artificielle

  • IA symbolique vs. IA connexionniste

  • Aux origines des neurones artificielles

​

Fondamentaux du deep learning

  • Le monde comme représentation

  • Perceptron multicouches

  • Neurone artificielle

  • Fonctions d'activation

  • Descente stochastique du gradient

  • Techniques avancées d'optimisation : Adam, RMSProp.

  • Rétropropagation du gradient

  • Batch normalisation

  • Régularisation et Dropout

  • Travaux pratiques sous Numpy et Pytorch

​

Framework Pytorch

  • Tenseurs : création, opérations, manipulation mémoire

  • Autograd : calcul automatique de gradients, requires_grad, torch.no_grad()

  • Modules & couches de base (nn.Module, Linear, Sequential...)

  • Dataset & DataLoader : création d’un jeu de données custom, batch, shuffle

  • Boucle d’entraînement générique : forward → loss → backward → update

  • Optimiseurs (SGD, Adam) & schedulers

  • Sauvegarde et chargement d’un modèle

  • Monitoring avec TensorBoard et métriques personnalisées

  • Mise en pratique

​

Deep learning pour le computer vision​

  • Extraction hiérarchique de représentations

  • Convolution et pooling

  • Biais inductifs des CNN

  • Architectures classiques : LeNet, AlexNet, ResNet.

  • Modèles pré-entraînés et transfert learning

  • Evolution des architectures CNN

  • Détection d'objets et YOLO

  • Segmentation d'images et U-Nets

  • Réseaux de neurones siamois

  • GANs

  • Mise en pratique sous Pytorch

​​

Deep learning pour le NLP et LLMs

  • Représentations distribuées

  • Modèle Word2Vec 

  • RNN, GRU et LSTM

  • Transformers

  • Apprentissage auto-supervisé et BERT

  • Modèles auto-régressifs (GPT)

  • Supervised fine-tuning (SFT)

  • RLHF

  • Approximations bas rang

  • Mise en pratique sous Pytorch​​​

​​

Apprentissage multimodal

  • Importance des représentations

  • Modèle CLIP

  • Modèles génératifs 

  • Modèles de diffusion

  • Mise en pratique sous Pytorch

  1. Entretien téléphonique avec le formateur (10mn) pour s'assurer de l'adéquation de la formation avec le besoin du participant.​

  2. Envoi de la convention de formation.

  3. Paiement après la formation et seulement si satisfait.

Pour inscription ou information

© 2025 par Redha Moulla

bottom of page