Retour aux articles
9 MIN READ

Chain-of-Thought et Self-Consistency : Le Guide du

By Dorian Laurenceau

📅 Dernière révision : 24 avril 2026. Mise à jour avec les retours et observations d'avril 2026.

Chain-of-Thought : Faire Raisonner l'IA Étape par Étape

Si vous demandez à un LLM "Quel est 17 × 28 + 135 ÷ 9 ?", il se trompe souvent. Mais si vous lui demandez de "réfléchir étape par étape", la précision bondit de 30 % à 85 %. Pourquoi ? Parce que le Chain-of-Thought (CoT) force le modèle à décomposer un problème complexe en étapes simples, comme un humain qui pose un calcul sur papier.

CoT en 2026 : ce qui marche encore, ce qui a été absorbé dans les modèles de raisonnement

Le Chain-of-Thought a été introduit dans Wei et al. 2022 (« Chain-of-Thought Prompting Elicits Reasoning in Large Language Models ») et est devenu la technique de prompting définissante de la première vague LLM. Quatre ans plus tard, la vue praticienne sur r/MachineLearning, r/LocalLLaMA et r/ChatGPTPro est que le CoT a bifurqué : partiellement obsolète pour les modèles de raisonnement frontier, toujours essentiel partout ailleurs.

Ce qui a changé avec les modèles de raisonnement :

  • o-series, GPT-5 Thinking, Claude extended thinking, Gemini 2.5 Pro reasoning font du CoT en interne. Vous n'avez pas besoin de prompter « pense étape par étape », le modèle le fait déjà, à l'échelle, et cache la chaîne de la sortie. L'annonce o1 d'OpenAI était explicite : la technique est passée du prompt à l'architecture.
  • Sur les modèles de raisonnement, les prompts CoT explicites peuvent nuire. Ajouter « pense étape par étape » à un modèle de raisonnement ancre parfois la chaîne interne à un chemin moins bon. Laissez le modèle faire son truc.
  • Sur les modèles non-raisonnement, le CoT est toujours le plus grand levier de précision. Pour Claude Haiku, GPT-4o mini, Gemini Flash, Llama 3 et les modèles open fine-tunés, le CoT explicite produit toujours les gains de 30-60 % que le papier 2022 rapportait.

Ce qui marche encore comme les praticiens l'ont appris :

  • « Pensons étape par étape » vs CoT structuré. Le déclencheur naïf zero-shot (de Kojima et al. 2022) aide, mais le CoT structuré (« D'abord identifie ce qui est demandé ; puis liste les faits connus ; puis calcule ; puis vérifie ») le surperforme régulièrement.
  • La self-consistency amplifie le CoT sur les petits modèles. Échantillonnez 5-10 chaînes à T=0.7, prenez la majorité. Le tradeoff coût/qualité est le meilleur pour les modèles pas chers sur les tâches dures.
  • Le CoT échoue sur les tâches sans réponses vérifiables. Le vote majoritaire et la vérification de chaîne supposent qu'une réponse correcte existe. Pour la génération ouverte, le CoT produit principalement des sorties plus longues sans gains de qualité.
  • La sélection basée sur vérificateur bat le vote. Quand c'est possible, faites tourner le code, vérifiez les types, interrogez une base de données. La vérification externe est toujours meilleure que la majorité-LLM.

Erreurs communes en 2026 :

  • Utiliser le CoT sur les modèles de raisonnement sans tester. Ça peut aider, nuire ou ne rien faire. Benchmarkez sur votre vraie tâche.
  • Cacher la chaîne aux utilisateurs qui ont besoin d'auditabilité. Pour les domaines régulés, la chaîne est la piste d'audit. Ne la jetez pas.
  • Confondre sortie plus longue avec meilleur raisonnement. Plus de tokens ne sont pas plus de pensée. Les chaînes qui réénoncent le prompt ajoutent de la latence sans gain.

Le cadrage honnête : le Chain-of-Thought est la technique de prompting la plus réussie de l'histoire des LLMs, et en 2026 son rôle s'est déplacé. Pour les modèles de raisonnement frontier, c'est architectural ; pour tout le reste, c'est toujours la façon défaut d'extraire du raisonnement multi-étapes correct. Ne supposez pas une-taille-unique ; benchmarkez les deux approches sur votre tâche avant de vous engager.

Comment fonctionne le CoT

Self-Consistency : Voter pour la Meilleure Réponse

Test de compréhension

Approfondir le sujet

Vous maîtrisez le Chain-of-Thought. L'article suivant explore le Tree-of-Thought, une technique encore plus puissante qui explore plusieurs pistes de raisonnement en parallèle.


Continuez avec Tree-of-Thought : L'Arène du Raisonnement pour aller plus loin.

GO DEEPER — FREE GUIDE

Module 3 — Chain-of-Thought & Reasoning

Master advanced reasoning techniques and Self-Consistency methods.

D

Dorian Laurenceau

Full-Stack Developer & Learning Designer

Full-stack web developer and learning designer. I spent 4 years as a freelance full-stack developer and 4 years teaching React, JavaScript, HTML/CSS and WordPress to adult learners. Today I design learning paths in web development and AI, grounded in learning science. I founded learn-prompting.fr to make AI practical and accessible, and built the Bluff app to gamify political transparency.

Prompt EngineeringLLMsFull-Stack DevelopmentLearning DesignReact
Published: March 9, 2026Updated: April 24, 2026
Newsletter

Weekly AI Insights

Tools, techniques & news — curated for AI practitioners. Free, no spam.

Free, no spam. Unsubscribe anytime.

FAQ

Que vais-je apprendre dans ce guide sur le Chain-of-Thought ?+

Maîtrisez le Chain-of-Thought pour faire raisonner l'IA étape par étape, et la Self-Consistency pour fiabiliser les réponses complexes.