Maîtriser les LLM et le RAG
pour l’IA Générative
(3 jours)


De la théorie à la pratique avec LangChain

Nb. de jours
3
Présentiel ?
Oui
Distanciel ?
Oui
Min. participants
2
Max. participants
8
Lieu
Toulouse, Paris, etc.
Tarif
2290€ HT
Maîtriser les LLM et le RAG <br/> pour l’IA Générative <br/> (3 jours)
Les Large Language Model (LLM) transforment le traitement du langage naturel (NLP).
Ces modèles basés sur l’architecture Transformers offrent des avantages considérables en termes de compréhension et de génération du langage naturel.
Cependant, ces modèles ont encore beaucoup de défis à relever. Ils ont des connaissances limitées aux données sur lesquelles ils se sont entraînés et ils peuvent parfois générer des informations incorrectes ou inventées, appelées hallucinations. Sans oublier, que l'entraînement et l'utilisation de ces LLM peuvent être coûteux en termes de puissance de calcul et de ressources.
Le Retrieval Augmented Generation (RAG) marque une étape importante dans l'évolution du NLP en permettant de dépasser les limitations des modèles de langage traditionnels. Grâce à l'intégration de connaissances externes, ces systèmes permettent d’obtenir des réponses plus précises, factuelles et pertinentes en s’appuyant sur des informations à jour et vérifiées.
A l’issue de cette formation, vous serez en capacité de comprendre comment les modèles de langage peuvent être rendus plus précis, plus fiables et plus polyvalents.
Vous serez en mesure de concevoir et de mettre en œuvre des systèmes RAG pour améliorer les chatbots, les moteurs de recherche, les assistants virtuels et bien d’autres applications.

Objectifs

  • Comprendre les bases théoriques et pratiques des LLM
  • Connaître les enjeux et les limites des LLM
  • Maîtriser les fondements de l’architecture RAG
  • Construire des systèmes RAG performants, de l'indexation à la génération
  • Savoir évaluer et optimiser les systèmes RAG grâce à des techniques avancées
  • Développer des applications et agents basés sur les LLM avec LangChain
Alexia Audevart
Pour connaitre les dates des prochaines sessions,
pour adapter le programme à vos besoins
ou pour obtenir des informations complémentaires,
contactez nous!

Méthode pédagogique

  • Composée à 70% de pratique, cette formation utilise des exercices illustrés et didactiques.
  • Une évaluation quotidienne de l’acquisition des connaissances de la veille est effectuée.
  • Une synthèse est proposée en fin de formation.
  • Une évaluation à chaud sera proposée au stagiaire à la fin du cours.
  • Un support de cours sera remis à chaque participant comprenant les slides sur la théorie, les exercices.
  • Une feuille d’émargement par demi-journée de présence est fournie en fin de formation ainsi qu’une attestation de fin de formation si le stagiaire a bien assisté à la totalité de la session.
  • Un suivi et un échange avec les participants seront mis en place quelques jours après la formation.

Pré-requis

La connaissance du langage Python est nécessaire. Des bases en machine learning sont requises.

Publics

  • Data Engineers
  • Data Scientists
  • Développeurs

Évaluation

Cette formation ne nécessite pas d’avoir recours à une évaluation formalisée des acquis

Programme

Large Language Models (LLM)

  • Histoire du NLP
  • Les réseaux de neurones pour traiter du texte
  • Architecture des LLM : Transformers
  • Mécanisme d’attention
  • Tokens & Embeddings
  • Panorama de quelques modèles
  • Méthodes d’apprentissage et d’optimisation : Self Supervised Learning, Supervised fine-tuning (SFT), Reinforcement Learning from Human Feedback (RLHF), Group Relative Policy Optimization (GRPO), Fine tuning DPO
  • Coût et empreinte écologique des LLM
  • Des LLM vers les SLM

LangChain

  • Présentation de LangChain et de ses fonctionnalités
  • Ecosystème de LangChain

Fondements du RAG

  • Limitations des LLM
  • Définition des concepts clés
  • Architecture

Pipeline d’injection

  • Tokens
  • Chunking
  • Embeddings
  • Base de données vectorielles

Pipeline de génération

  • Algorithme de recherche
  • Gestion de la mémoire et du contexte
  • Techniques de prompting : zero-shot, few-shot, ReAct, Chain-of-Thought, Tree-of-Thought, etc.
  • Catégorisation des LLM et adéquation au RAG

Evaluation des Systèmes RAG

  • Les principes d'évaluation
  • Les métriques d’évaluation
  • Les frameworks d’évaluation

Optimisation des Systèmes RAG

  • Advanced RAG
  • Modular RAG
  • AgenticAI

FREN