Cours complet sur les LLMs (sans math)

Cette semaine, nous avons partag. notre présentation gratuite de deux heures sur les principes fondamentaux de l'intelligence artificielle (lien ici). Au cours de cette session, nous avons exploré en profondeur le fonctionnement des modèles de langue, leur implémentation et les moyens de surmonter leurs limites actuelles. On y a parlé des avantages concurrentiels, des différentes façons d'interagir avec les LLM et de la réalité de leur fonctionnement statistique.

Consulte-la sur YouTube :

Voici 10 points clés à retenir de cette session :

  1. Les grands modèles de langue (LLM) ne sont plus de simples mots à la mode ; ils sont activement utilisés pour générer des profits, économiser de l'argent et accroître l'efficacité dans divers domaines, y compris le développement de logiciels. Les entreprises constatent des économies significatives en encourageant leurs développeurs à utiliser ces modèles.

  2. Il existe de plus en plus de moyens d'atténuer les erreurs produites par les LLM, et les premiers utilisateurs développent une expertise très recherchée sur le marché du travail.

  3. Une part importante des interactions avec les IA concerne la programmation, même si les programmeurs ne représentent qu'un faible pourcentage des utilisateurs, ce qui souligne le potentiel des LLM dans ce domaine.

  4. Actuellement, les LLM sont sous-utilisés dans les domaines de la vente, le marketing et d’autres domaines, ce qui suggère une opportunité pour des interfaces et des outils plus spécialisés.

  5. Les LLM ne sont pas parfaits "sortis de la boîte" et nécessitent des fonctionnalités supplémentaires (comme le RAG, le fine-tuning…) pour contrôler leur caractère aléatoire et améliorer leur pertinence. Intégrer correctement les LLM est crucial pour éviter les problèmes, comme l'a montré l'exemple d'Air Canada.

  6. Les LLM, basés sur l'architecture Transformeur, traitent l'information en plusieurs étapes : tokenisation (conversion des mots en chiffres), création d'embeddings (représentations vectorielles du sens), puis passage à travers des blocs d'attention et de feed-forward pour comprendre le contexte et générer du texte mot par mot (autorégressif). (tout est expliqué dans la vidéo!)

  7. Les LLMs sont entraînés en deux étapes clés :

    1. Pré-entraînement : Le modèle apprend à simuler Internet en ingérant d'énormes quantités de texte pour comprendre le langage et prédire le mot suivant de manière statistique.

    2. Post-entraînement (Peaufinement) : Le modèle est affiné avec des jeux de données spécifiques (par exemple, instructions et réponses souhaitées) et via l'apprentissage par renforcement à partir de retours humains (RLHF) pour mieux suivre les commandes et adopter des comportements désirés.

  8. Limites Actuelles des LLM :

    1. Hallucinations : Génération de contenu confiant mais factuellement incorrect, due à leur nature statistique.

    2. Biais : Les modèles reflètent les biais présents dans leurs données d'entraînement (Internet).

    3. Connaissances Finies : Leur savoir est limité à la date de fin de leur entraînement.

    4. Fenêtre de Contexte Limitée : Bien qu'en augmentation, la quantité d'informations qu'ils peuvent traiter en une seule fois reste limitée.

    5. Absence de logique innée et de connaissance du concept de “vérité” : Ils ne distinguent pas la vérité du mensonge et peuvent être facilement influencés, fonctionnant sur des probabilités plutôt que sur une compréhension réelle.

  9. Il est crucial de comprendre le fonctionnement statistique des LLM pour les intégrer efficacement et éviter les erreurs. Les développeurs jouent un rôle clé dans la construction d'outils et de fonctionnalités pour pallier leurs faiblesses (streaming de tokens, gestion de l'historique, calibration qualité/coût, distillation de modèles).

  10. Le domaine de l'IA évolue très vite. Des considérations de sécurité et de confidentialité sont primordiales lors de l'utilisation et du développement avec des LLM, notamment en évitant de partager des informations sensibles et en contrôlant les accès des modèles.

J’espère que vous avezx apprécié cette scéance de la formation!

Et maintenant, pourquoi cette formation ?

Depuis 2023, j’aide des devs et data scientists à combler le fossé entre les papiers académiques et les applications réelles. Les retours sont clairs :

“Bien structuré et accessible ; le processus d’apprentissage devient incroyablement fluide.” — Dan Duggan

“Impressionné par l’exhaustivité et la clarté ; couvre tout le spectre de l’ingénierie LLM.” — Carlo Casorzo

“Le meilleur cours pour apprendre les techniques RAG les plus récentes.” — Patrick Drechsler

Ce que vous apprendrez en 5 modules (10 h):

• Fondamentaux LLM & AI 101 – comprendre les transformeurs, leurs limites et choisir le bon modèle.

• Construire sur les LLM – prompts avancés, RAG, fine-tuning et déploiement rapide.

• Évaluation – métriques auto + boucle humaine pour qualité & sécurité.

• Workflows & Agents – orchestrer des agents multi-étapes fiables et économes.

• Optimisation & Monitoring – distillation, quantisation, RLHF et défense contre le prompt-hacking.

• 🎁 Bonus : notebooks prêts à l’emploi, accès et mises à jour à vie.

Et la formation, ça s’addresse à qui ?

Développeurs, ML/AI engineers, leads produit/tech, entrepreneurs.

Vous connaissez Python ? Encore mieux, mais ce n'est pas obligatoire.

Idéal si vous préparez une intégration GenAI en entreprise, un side-project ou un pivot de carrière.

Regardez la seconde séance gratuitement

👉 YouTube (Séance 2 – Construire sur les LLMs, 2 h) :

Si le format vous plaît, le cours complet (10 h) est disponible ici : https://www.louisbouchard.ca/formation-ia-de-10-heures – tarif lancement 99.99$.

Ce qu’en disent encore bapprenants:

“Construits depuis la base et outille pour des cas d’usage concrets.” — Victor Palomares

“Le cours a largement élargi mes connaissances sur les pipelines RAG.” — Eoin McGrath

“Au-delà des bases, il aide à décider quand et comment appliquer ces technos.” — Mario Giraldo

“Une feuille de route claire pour créer des applis LLM pratiques.” — Luca Tanieli

“Ressource exceptionnelle pour maîtriser le développement LLM.” — Shashank Nainwal

“J’ai énormément appris sur le déploiement d’applis LLM.” — Martin Ballard

Prêt·e à passer du prototype à la production ? Suivez la formation!

Questions? Heureux d'y répondre sur mes réseaux sociaux ou par email, liens dans ma page de contact ici.

Louis-François Bouchard

Hello! Je suis Louis-François Bouchard, de Montréal, Canada, aussi connu sous le nom de 'What's AI' et j'essaie de partager et de vulgariser tout ce qui est en lien avec l'intelligence artificielle. Mon objectif est de démystifier la «boîte noire» de l'IA pour tous et de sensibiliser les gens aux risques de son utilisation.

https://www.youtube.com/channel/UCIUgms0TE2WhQijbU-IMYyw
Suivant
Suivant

Construire sur les LLM : RAG, Fine-Tuning & Sorties Structurées - Cours IA (Session 2)