Deep Learning avancé
du NLP à l’IA générative
(3 jours)


Apprenez à maitriser les fondamentaux du NLP

Nb. de jours
3
Présentiel ?
Oui
Distanciel ?
Oui
Min. participants
2
Max. participants
8
Lieu
Toulouse, Paris, etc.
Tarif
2400€ HT
Deep Learning avancé <br/> du NLP à l’IA générative <br/> (3 jours)
Le traitement naturel du langage (NLP) est un domaine à part entière de l’intelligence artificielle à l’intersection de l’informatique, des mathématiques, de la linguistique et des sciences cognitives. L’objectif est de construire des applications capables d’analyser, de modéliser, de comprendre et d’imiter le langage humain.
Depuis les années 1950, du test de Turing à la création des premiers agents conversationnels comme le chatbot ELIZA, le NLP s’est progressivement sophistiqué. De véritables avancées ont eu lieu avec la mise en place de modèles de Machine Learning et de Deep Learning permettant d’adresser un large ensemble de tâches de syntaxe, de sémantique, de discours et de parole.
De nos jours, le NLP est partout que ce soit dans les outils de traduction automatique, de vérification orthographique, d’aide à la rédaction, de génération automatique de texte, de reconnaissance vocale, etc.
Vous connaissez d’ores et déjà les principes fondamentaux du Deep Learning et vous avez déjà mis en oeuvre différentes architectures de réseaux de neurones, mais vous souhaitez en savoir plus sur les opportunités proposées par le Deep Learning dans le domaine du traitement naturel du language, cette formation est faite pour vous.

Objectifs

  • Mettre en place un prétraitement efficace d’un jeu de données textuelles
  • Maîtriser les architectures de réseaux de neurones récurrents et des transformers
  • Mettre en œuvre des cas concrets pour chaque type de réseaux
  • Réutiliser des modèles existants avec du transfer learning
  • Mesurer la pertinence des modèles mis en œuvre & Visualiser l’apprentissage
Alexia Audevart
Pour connaitre les dates des prochaines sessions,
pour adapter le programme à vos besoins
ou pour obtenir des informations complémentaires,
contactez nous!

Méthode pédagogique

  • Composée à 70% de pratique, cette formation utilise des exercices illustrés et didactiques.
  • Une évaluation quotidienne de l’acquisition des connaissances de la veille est effectuée.
  • Une synthèse est proposée en fin de formation.
  • Une évaluation à chaud sera proposée au stagiaire à la fin du cours.
  • Un support de cours sera remis à chaque participant comprenant les slides sur la théorie, les exercices.
  • Une feuille d’émargement par demi-journée de présence est fournie en fin de formation ainsi qu’une attestation de fin de formation si le stagiaire a bien assisté à la totalité de la session.
  • Un suivi et un échange avec les participants seront mis en place quelques jours après la formation.

Pré-requis

  • Les stagiaires doivent avoir une expérience en Deep Learning ou avoir suivi la formation Workshop Deep Learning (maîtrise des concepts du Machine Learning et avoir mis en œuvre différentes architectures de réseaux de neurones : convolutionnels, récurrents, …)
  • La connaissance du langage Python, des librairies scientifiques (scikit learn, pandas, numpy) et du framework Deep Learning TensorFlow est nécessaire.

Publics

  • Data Analysts
  • Data Scientists
  • Développeurs

Évaluation

Cette formation ne nécessite pas d’avoir recours à une évaluation formalisée des acquis

Programme

Introduction

  • Les bases de la linguistique
  • Introduction au Text Mining / Fouille de texte (Data Mining pour le texte)
  • Extraction d’informations/li>
  • Recherche d’informations
  • Catégorisation du texte
  • Résumé du texte

Text Normalisation / Normalisation du texte

  • n-grams
  • Tokenization
  • Stop Word
  • Stemming
  • Part-Of-Speech (POS) tagging
  • Lemmatization

Vectorisation du texte

  • Analyse de la fréquence des termes (Counter, TF-IDF, Word vectors)
  • Bag of word
  • Word Embedding : Word2vec, GloVe, FastText, etc.
  • Création d’une pipeline de préprocessing

Les réseaux de neurones récurrents

  • Principes fondamentaux des RNN
  • LSTM et GRU
  • Approches Encodeur-Decodeur
  • Utilisation de connexions résiduelles (skip connections)
  • Named Entity Recognition (NER)
  • Analyse de sentiment

Les transformers

  • Attention is All You Need
  • BERT, GPT, etc.
  • Transfer Learning
  • Generation de texte
  • Text summarization (Seq2Seq Model avec attention)

FREN