
Modèles de Langage de Grande Taille
Former et Personnaliser des Modèles de Langage
3h 18min19 leçons1 sections
Ce que vous apprendrez
- Comprendre l'évolution des modèles linguistiques
- Apprendre le processus de tokenisation
- Saisir les architectures des Transformers
- Explorer des modèles comme BERT
- Maîtriser les principes du Prompt Engineering
- Appliquer les modèles dans le développement d'applications intelligentes
À propos du cours
Le cours sur les modèles linguistiques de grande taille (LLMs) est votre guide complet pour comprendre et appliquer les dernières techniques en intelligence artificielle linguistique. Vous apprendrez comment fonctionnent les modèles massifs en coulisses, le rôle des Transformers et comment personnaliser les modèles à l'aide de techniques telles que le Fine-Tuning et LoRA pour développer des applications intelligentes qui comprennent et interagissent avec la langue de manière à dépasser les attentes.
Résultats attendus
- Compréhension complète des méthodes de formation et de personnalisation des modèles linguistiques de grande taille.
- Capacité à utiliser la plateforme Hugging Face pour travailler avec les LLMs.
- Maîtrise des techniques PEFT et LoRA pour une personnalisation efficace des modèles.
- Capacité à créer des applications intelligentes pour l'analyse de texte et le résumé de contenu.
Contenu du cours
1Modèles de langage large LLMs
19 leçons
- Introduction au cours3:51
- Avant l'ère des Transformers7:02
- Bases de la tokenisation4:34
- Architecture des Transformers - Partie un8:02
- Architecture des Transformers - Partie deux5:07
- Architecture des Transformers - Partie trois : Mécanisme d'attention multi-tête4:54
- Architecture des Transformers - Partie quatre9:43
- Différents modèles architecturaux des Transformers10:02
- Prompts et Ingénierie des Prompts6:45
- Modèle BERT et ses Applications17:37
- Paramètres de Configuration dans les LLMs7:52
- Plateforme Hugging Face - Partie Un15:17
- Plateforme Hugging Face - Partie Deux13:41
- Plateforme Hugging Face - Partie Trois15:15
- Projet Pratique : Résumé de Contenu YouTube avec Transformers - Partie Un20:16
- Projet Pratique : Résumé de Contenu YouTube avec Transformers - Partie Deux15:41
- Introduction au Fine-Tuning15:17
- Techniques PEFT (Fine-Tuning Efficace en Paramètres)7:42
- Technique LoRA (Adaptation à Bas Rang)9:30
Formateur

Ing. Ziad Ahmed
5,621 étudiants3 cours






