All Guides
Intermédiaire • 8 h8 h estiméesFree Guide

Chain-of-Thought Reasoning

Initiez les LLMs à raisonner étape par étape grâce aux techniques Chain-of-Thought et Self-Consistency pour des résultats robustes.

CoT en 2026 : ce qui marche encore, ce qui a été absorbé dans les modèles de raisonnement

Le Chain-of-Thought a été introduit dans Wei et al. 2022 (« Chain-of-Thought Prompting Elicits Reasoning in Large Language Models ») et est devenu la technique de prompting définissante de la première vague LLM. Quatre ans plus tard, la vue praticienne sur r/MachineLearning, r/LocalLLaMA et r/ChatGPTPro est que le CoT a bifurqué : partiellement obsolète pour les modèles de raisonnement frontier, toujours essentiel partout ailleurs.

Ce qui a changé avec les modèles de raisonnement :

  • o-series, GPT-5 Thinking, Claude extended thinking, Gemini 2.5 Pro reasoning font du CoT en interne. Vous n'avez pas besoin de prompter « pense étape par étape », le modèle le fait déjà, à l'échelle, et cache la chaîne de la sortie. L'annonce o1 d'OpenAI était explicite : la technique est passée du prompt à l'architecture.
  • Sur les modèles de raisonnement, les prompts CoT explicites peuvent nuire. Ajouter « pense étape par étape » à un modèle de raisonnement ancre parfois la chaîne interne à un chemin moins bon. Laissez le modèle faire son truc.
  • Sur les modèles non-raisonnement, le CoT est toujours le plus grand levier de précision. Pour Claude Haiku, GPT-4o mini, Gemini Flash, Llama 3 et les modèles open fine-tunés, le CoT explicite produit toujours les gains de 30-60 % que le papier 2022 rapportait.

Ce qui marche encore comme les praticiens l'ont appris :

  • « Pensons étape par étape » vs CoT structuré. Le déclencheur naïf zero-shot (de Kojima et al. 2022) aide, mais le CoT structuré (« D'abord identifie ce qui est demandé ; puis liste les faits connus ; puis calcule ; puis vérifie ») le surperforme régulièrement.
  • La self-consistency amplifie le CoT sur les petits modèles. Échantillonnez 5-10 chaînes à T=0.7, prenez la majorité. Le tradeoff coût/qualité est le meilleur pour les modèles pas chers sur les tâches dures.
  • Le CoT échoue sur les tâches sans réponses vérifiables. Le vote majoritaire et la vérification de chaîne supposent qu'une réponse correcte existe. Pour la génération ouverte, le CoT produit principalement des sorties plus longues sans gains de qualité.
  • La sélection basée sur vérificateur bat le vote. Quand c'est possible, faites tourner le code, vérifiez les types, interrogez une base de données. La vérification externe est toujours meilleure que la majorité-LLM.

Erreurs communes en 2026 :

  • Utiliser le CoT sur les modèles de raisonnement sans tester. Ça peut aider, nuire ou ne rien faire. Benchmarkez sur votre vraie tâche.
  • Cacher la chaîne aux utilisateurs qui ont besoin d'auditabilité. Pour les domaines régulés, la chaîne est la piste d'audit. Ne la jetez pas.
  • Confondre sortie plus longue avec meilleur raisonnement. Plus de tokens ne sont pas plus de pensée. Les chaînes qui réénoncent le prompt ajoutent de la latence sans gain.

Le cadrage honnête : le Chain-of-Thought est la technique de prompting la plus réussie de l'histoire des LLMs, et en 2026 son rôle s'est déplacé. Pour les modèles de raisonnement frontier, c'est architectural ; pour tout le reste, c'est toujours la façon défaut d'extraire du raisonnement multi-étapes correct. Ne supposez pas une-taille-unique ; benchmarkez les deux approches sur votre tâche avant de vous engager.

Comment fonctionne le CoT

Self-Consistency : Voter pour la Meilleure Réponse

Test de compréhension

Approfondir le sujet

Vous maîtrisez le Chain-of-Thought. L'article suivant explore le Tree-of-Thought, une technique encore plus puissante qui explore plusieurs pistes de raisonnement en parallèle.


Continuez avec Tree-of-Thought : L'Arène du Raisonnement pour aller plus loin.


CoT vs ToT : La Différence

Loading diagram…

Test de compréhension

Continuez votre apprentissage

Vous maîtrisez les techniques de raisonnement avancé. Le prochain module aborde les prompt chains, comment enchaîner plusieurs prompts pour des workflows complexes.


Continuez avec Prompt Chaining & Pipelines pour créer des workflows IA.

Learn AI — From Prompts to Agents

10 Free Interactive Guides120+ Hands-On Exercises100% Free
GO DEEPER — FREE GUIDE

Prompt Orchestration

Build multi-step AI workflows with prompt chaining and routing. Free course on AI pipeline design.

Newsletter

Weekly AI Insights

Tools, techniques & news — curated for AI practitioners. Free, no spam.

Free, no spam. Unsubscribe anytime.