Few-Shot Prompting : Apprendre à l'IA par l'exemple
By Dorian Laurenceau
📅 Dernière révision : 24 avril 2026. Mise à jour avec les retours et observations d'avril 2026.
Et si vous pouviez enseigner à une IA exactement ce que vous voulez simplement en lui montrant quelques exemples ? C'est la puissance du few-shot prompting, l'une des techniques les plus pratiques en prompt engineering.
<!-- manual-insight -->
Ce que la communauté Reddit continue de bien voir sur le few-shot
La plainte la plus fréquente sur le few-shot prompting sur r/LangChain et r/LocalLLaMA, c'est toujours la même, recyclée chaque mois : "Je lui ai donné 5 exemples et il dérive encore." Neuf fois sur dix, le correctif n'est pas d'ajouter des exemples, mais d'améliorer leur sélection. Le pattern que le modèle capte, c'est ce qu'il y a de plus cohérent entre vos shots. Si vos trois exemples ont chacun un ton légèrement différent, le modèle inventera joyeusement un quatrième ton pour la requête réelle.
Trois choses qui font vraiment bouger les résultats, tirées directement de post-mortems en production :
- →La diversité plutôt que le volume. Deux exemples qui couvrent les bords de votre distribution d'entrée battent cinq quasi-doublons. Si tous vos shots montrent des cas happy-path, le modèle hallucinera une réponse sur l'input "client énervé" plutôt que de le gérer correctement.
- →Montrez le mode d'échec. Incluez au moins un exemple où la bonne réponse est "je ne sais pas" ou "cela ne s'applique pas". Sauter cette étape, c'est pour ça que tant de classifieurs few-shot prédisent avec confiance sur des entrées hors distribution.
- →Placez les exemples après l'instruction système, pas avant. L'article GPT-3 de Brown et al., Language Models are Few-Shot Learners, vaut toujours la lecture pour l'intuition, mais la position compte davantage dans les modèles chat modernes que dans la recherche de l'ère complétion.
Une observation brutale : avec Claude Opus 4.6 et GPT-5.3, des prompts zero-shot bien écrits avec un schéma de sortie explicite égalent ou battent souvent des prompts five-shot bâclés. Le few-shot ne remplace pas la clarté.
Learn AI — From Prompts to Agents
Qu'est-ce que le few-shot prompting ?
Le few-shot prompting est une technique qui consiste à fournir à l'IA un petit nombre d'exemples (les « shots ») avant de lui demander d'accomplir une tâche similaire.
Au lieu d'expliquer avec des mots ce que vous voulez, vous le démontrez.
L'idée principale
- →Zero-shot : Aucun exemple, uniquement des instructions
- →One-shot : Un seul exemple fourni
- →Few-shot : 2 à 5 exemples fournis
Plus vous donnez d'exemples, mieux l'IA comprend le schéma que vous recherchez.
Pourquoi le few-shot prompting fonctionne-t-il ?
Les grands modèles de langage excellent dans la reconnaissance de schémas. Lorsque vous leur montrez des exemples, ils extraient le schéma sous-jacent et l'appliquent à de nouvelles entrées.
C'est ce qu'on appelle l'apprentissage en contexte (in-context learning), le modèle apprend à partir des exemples que vous fournissez dans le prompt lui-même, sans aucun fine-tuning ni réentraînement.
Avantages clés
- →Précision : Les exemples définissent exactement ce que vous voulez
- →Cohérence : Le format de sortie correspond à vos exemples
- →Flexibilité : Fonctionne pour presque toutes les tâches
- →Aucun entraînement requis : L'apprentissage se fait au moment de l'inférence
Zero-Shot vs. Few-Shot : une comparaison
Zero-Shot (sans exemples)
Classifiez le sentiment de cet avis comme positif, négatif ou neutre :
"Le produit est arrivé en retard mais fonctionne très bien."
→ L'IA pourrait répondre : "Mitigé" ou "Positif" (incohérent)
Few-Shot (avec exemples)
Classifiez le sentiment de ces avis :
Avis : "Je l'adore absolument ! Meilleur achat de ma vie."
Sentiment : positif
Avis : "Qualité terrible. Cassé après un jour."
Sentiment : négatif
Avis : "C'est correct, rien de spécial."
Sentiment : neutre
Avis : "Le produit est arrivé en retard mais fonctionne très bien."
Sentiment :
→ L'IA répond : « positif » (cohérent avec votre format)
Les exemples enseignent à l'IA votre style de classification.
Comment structurer un prompt few-shot
Un bon prompt few-shot comporte trois parties :
1. Description de la tâche (facultatif)
Une brève explication de ce que vous faites.
2. Exemples
Des paires entrée-sortie qui démontrent le schéma.
3. La requête proprement dite
La nouvelle entrée que vous souhaitez que l'IA traite.
Structure d'exemple
[Facultatif : Brève description de la tâche]
Entrée : [Entrée de l'exemple 1]
Sortie : [Sortie de l'exemple 1]
Entrée : [Entrée de l'exemple 2]
Sortie : [Sortie de l'exemple 2]
Entrée : [Votre requête réelle]
Sortie :
Bonnes pratiques pour le few-shot prompting
1. Utilisez des exemples diversifiés
Couvrez différents cas pour aider l'IA à généraliser :
Produit : Ordinateur portable
Catégorie : Électronique
Produit : Chaussures de course
Catégorie : Sports & Fitness
Produit : Roman de Stephen King
Catégorie : Livres
Produit : Écouteurs sans fil
Catégorie :
2. Gardez les exemples cohérents
Utilisez le même format pour chaque exemple. La cohérence est essentielle.
3. L'ordre peut compter
Pour certaines tâches, regrouper les exemples similaires ou les ordonner par difficulté peut améliorer les résultats.
4. La qualité avant la quantité
3 à 5 exemples bien choisis surpassent souvent 10 exemples médiocres.
Cas d'utilisation courants
Le few-shot prompting excelle dans :
- →Les tâches de classification, sentiments, catégories, étiquettes
- →La conversion de format, transformation de données
- →L'adaptation de style, écrire dans un ton spécifique
- →L'extraction d'entités, extraire des données structurées d'un texte
- →Les schémas de traduction, terminologie personnalisée
Limites à connaître
Le few-shot prompting n'est pas magique :
- →Limites de tokens : Les exemples consomment de l'espace dans la fenêtre de contexte
- →Biais des exemples : De mauvais exemples conduisent à de mauvais résultats
- →Raisonnement complexe : Certaines tâches nécessitent plus que de la reconnaissance de schémas
- →Rendements décroissants : Au-delà de 5 à 10 exemples, les gains stagnent
Ce qu'il faut retenir
- →Le few-shot prompting enseigne à l'IA par l'exemple, pas par l'explication
- →Fournissez 2 à 5 exemples diversifiés et de haute qualité
- →Gardez un format cohérent dans les exemples
- →Fonctionne mieux pour les tâches basées sur des schémas comme la classification et le formatage
- →La qualité des exemples compte plus que la quantité
Prêt à maîtriser la structure des prompts ?
Cet article a couvert le quoi et le pourquoi du few-shot prompting. Mais concevoir les exemples parfaits nécessite de comprendre comment les LLM traitent les prompts.
Dans notre Module 1, Anatomie des LLM et structure des prompts, vous apprendrez :
- →Comment les LLM traitent réellement vos prompts
- →L'anatomie avancée des prompts : rôles, délimiteurs et structure
- →Quand utiliser le zero-shot, le few-shot ou le many-shot
- →Des exercices pratiques pour créer des ensembles d'exemples efficaces
- →Les pièges courants et comment les éviter
→ Découvrir le Module 1 : Anatomie des LLM et structure des prompts
Module 1 — LLM Anatomy & Prompt Structure
Understand how LLMs work and construct clear, reusable prompts.
Dorian Laurenceau
Full-Stack Developer & Learning DesignerFull-stack web developer and learning designer. I spent 4 years as a freelance full-stack developer and 4 years teaching React, JavaScript, HTML/CSS and WordPress to adult learners. Today I design learning paths in web development and AI, grounded in learning science. I founded learn-prompting.fr to make AI practical and accessible, and built the Bluff app to gamify political transparency.
Weekly AI Insights
Tools, techniques & news — curated for AI practitioners. Free, no spam.
Free, no spam. Unsubscribe anytime.
→Related Articles
FAQ
Qu'est-ce que le few-shot prompting ?+
Le few-shot prompting consiste à fournir à l'IA quelques exemples de la tâche avant de lui demander de l'exécuter. En général, 2 à 5 exemples suffisent pour améliorer considérablement la qualité et la cohérence des résultats.
Combien d'exemples faut-il pour le few-shot prompting ?+
En général, 2 à 5 exemples fonctionnent le mieux. Trop peu risquent de ne pas établir le schéma ; trop d'exemples gaspillent des tokens et peuvent perturber le modèle. La qualité des exemples compte plus que la quantité.
Quelle est la différence entre few-shot et zero-shot ?+
Le zero-shot ne donne aucun exemple, uniquement des instructions. Le few-shot inclut des exemples. Utilisez le zero-shot pour les tâches simples ; le few-shot lorsque vous avez besoin d'un formatage ou d'un comportement spécifique que l'IA ne peut pas déduire seule.
Quand utiliser le few-shot prompting ?+
Utilisez le few-shot lorsque le zero-shot produit des résultats incohérents, lorsque vous avez besoin de formats de sortie spécifiques, ou lorsque la tâche nécessite des schémas propres à un domaine que le modèle n'a pas rencontrés.