All Guides
Débutant • 80 h80 h estimées (cours, ateliers, projets)Free GuideSection 1/50

Free Generative AI Course — 80h Complete Training

Maîtrisez l'IA générative en 80 h : prompt engineering, ChatGPT, Claude, Copilot, automatisation avec Make, créativité multimédia et agents IA. Du débutant au praticien confiant.

💡

இந்த பயிற்சி 100%% இலவசம். இது தொடர, இந்தப் பக்கத்தில் விளம்பரங்கள் உள்ளன. உங்கள் புரிதலுக்கும் ஆதரவுக்கும் நன்றி!

Section 10.1.1 : Histoire de l'IA — Des origines à aujourd'hui

🎯 Objectif pédagogique

Comprendre l'évolution de l'intelligence artificielle depuis ses prémices théoriques jusqu'aux modèles génératifs actuels. Vous serez capable de situer les grandes étapes de l'IA dans leur contexte historique et d'expliquer pourquoi l'IA générative représente une rupture technologique majeure.


Pourquoi connaître l'histoire de l'IA ?

Comprendre l'histoire de l'IA n'est pas un exercice académique : c'est une nécessité pratique. Les "hivers de l'IA" — ces périodes de désillusion massive — nous enseignent à distinguer le hype de la réalité. Les percées technologiques nous montrent quelles conditions sont nécessaires pour qu'une innovation réussisse. Et la trajectoire globale nous aide à anticiper les évolutions probables des prochaines années.

En 80 ans, l'IA est passée d'une idée philosophique à un outil qui transforme chaque industrie. Cette section vous donne les clés pour comprendre cette trajectoire — et ne pas répéter les erreurs du passé.

Les racines de l'intelligence artificielle

L'histoire de l'intelligence artificielle commence bien avant l'invention des ordinateurs. Dès l'Antiquité, les humains ont rêvé de créer des êtres artificiels capables de penser. Le mythe grec de Talos — un géant de bronze protégeant la Crète — est l'un des premiers "robots" de la littérature. Au Moyen Âge, les alchimistes cherchaient à créer un "homunculus" artificiel. Les automates mécaniques du XVIIIe siècle, comme le célèbre Canard de Vaucanson (1739) qui simulait la digestion, ou le Turc mécanique (1770) qui jouait aux échecs (en réalité un canular avec un humain caché), illustrent cette fascination ancestrale pour la simulation de l'intelligence.

Ces tentatives historiques révèlent une question fondamentale qui anime encore la recherche en 2026 : qu'est-ce que l'intelligence ? Est-ce la capacité de raisonner ? De créer ? De ressentir des émotions ? La réponse qu'on donne à cette question détermine ce qu'on attend de l'IA — et ce qu'on considère comme un succès ou un échec.

1943-1956 : Les fondations théoriques

L'IA moderne naît véritablement dans les années 1940 avec les travaux de Warren McCulloch et Walter Pitts (1943), qui proposent le premier modèle mathématique d'un neurone artificiel. Leur article "A Logical Calculus of the Ideas Immanent in Nervous Activity" pose les bases des réseaux de neurones. Ce modèle, extrêmement simplifié par rapport à un vrai neurone biologique, sera la brique de base de tout le deep learning moderne — des 175 milliards de paramètres de GPT-3 aux milliers de milliards estimés de GPT-5.

En 1950, Alan Turing publie son article fondateur "Computing Machinery and Intelligence" dans lequel il propose le célèbre test de Turing : une machine peut-elle se faire passer pour un humain lors d'une conversation écrite ? Cette question philosophique guide encore aujourd'hui une partie de la recherche en IA. En mars 2026, certains modèles comme GPT-5 et Claude Opus 4.6 réussissent de manière convaincante des versions simplifiées du test de Turing — un seuil que même Turing n'avait pas prévu avant l'an 2000.

Le terme "Intelligence Artificielle" est officiellement inventé lors de la conférence de Dartmouth en 1956, organisée par John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon. Cette conférence de deux mois réunit les plus brillants esprits de l'époque et fonde la discipline comme champ de recherche à part entière. Les quatre organisateurs deviendront des figures légendaires de l'IA : McCarthy inventera le langage Lisp, Minsky co-fondera le MIT AI Lab, Shannon posera les bases de la théorie de l'information.

La prophétie de Dartmouth

Les organisateurs écrivaient dans leur proposition : "Nous proposons une étude de deux mois (...) qui procède sur la base de la conjecture que chaque aspect de l'apprentissage ou toute autre caractéristique de l'intelligence peut, en principe, être décrit avec une telle précision qu'une machine peut être construite pour le simuler." — soixante-dix ans plus tard, cette vision est en train de se réaliser.

1956-1974 : L'âge d'or et les premiers programmes

Les deux décennies suivantes voient une explosion d'optimisme. Les chercheurs créent des programmes impressionnants pour l'époque :

  • ELIZA (1966, Joseph Weizenbaum, MIT) : un chatbot simulant un psychothérapeute. ELIZA reformulait les phrases de l'utilisateur en questions, donnant l'illusion d'une compréhension. Certains utilisateurs développaient un véritable attachement émotionnel au programme — un phénomène que l'on retrouve aujourd'hui avec les chatbots modernes. L'effet ELIZA (tendance humaine à attribuer des émotions et une intelligence à un programme) est plus pertinent que jamais avec ChatGPT et Claude.

  • SHRDLU (1970, Terry Winograd, MIT) : un programme capable de comprendre des instructions en anglais pour manipuler des blocs colorés dans un monde virtuel. SHRDLU démontrait la possibilité d'un dialogue humain-machine contextuel — mais uniquement dans un "micro-monde" extrêmement limité.

  • Le General Problem Solver (1957, Newell et Simon) : un programme ambitieux censé résoudre n'importe quel problème formalisable. Bien qu'il fonctionne sur des puzzles simples, il échoue face à la complexité du monde réel.

  • Le Perceptron (1958, Frank Rosenblatt) : le premier réseau de neurones capable d'apprendre. Le Perceptron pouvait classifier des images simples, générant un immense enthousiasme. Mais en 1969, Minsky et Papert publient Perceptrons, démontrant mathématiquement ses limites — ce qui freinera la recherche sur les réseaux de neurones pendant 15 ans.

Les financements affluent, les promesses sont audacieuses. Herbert Simon prédit en 1965 que "dans vingt ans, les machines seront capables de faire n'importe quel travail qu'un homme peut faire". Marvin Minsky affirme en 1967 que "le problème de l'intelligence artificielle sera résolu en une génération". Ces promesses non tenues provoquent la première crise de confiance.

1974-1980 : Le premier hiver de l'IA

La réalité rattrape les promesses. En 1973, le rapport Lighthill commandé par le gouvernement britannique conclut que l'IA n'a pas tenu ses promesses et recommande de couper les financements. Les problèmes sont multiples :

  • Explosion combinatoire : les programmes ne passent pas à l'échelle. Ce qui fonctionne pour 10 éléments devient impossible pour 1 000.
  • Manque de sens commun : les machines ne comprennent pas le contexte, l'ambiguïté, l'implicite du langage humain. Le "problème du sens commun" reste partiellement non résolu en 2026.
  • Puissance de calcul insuffisante : les ordinateurs des années 1970 n'ont tout simplement pas la capacité de traiter des problèmes complexes. Un smartphone de 2026 est plus de 100 millions de fois plus puissant qu'un ordinateur de 1975.

C'est le premier "hiver de l'IA" — une période de désillusion, de coupes budgétaires et de discrédit académique qui durera près d'une décennie. Les chercheurs en IA sont stigmatisés, le financement s'effondre, et le terme "intelligence artificielle" devient presque tabou dans les demandes de subvention.

Leçon pour aujourd'hui : le cycle hype-désillusion

Le pattern historique des hivers de l'IA — promesses excessives → attentes irréalistes → déception → coupes budgétaires — est à garder en tête en 2026. Les annonces spectaculaires sur l'AGI (intelligence artificielle générale) imminente rappellent les prédictions de Simon en 1965. L'histoire nous enseigne la prudence sans le pessimisme : l'IA progresse, mais pas toujours au rythme annoncé.

1980-1987 : Les systèmes experts et la renaissance

L'IA renaît dans les années 1980 sous une forme différente : les systèmes experts. Au lieu de simuler l'intelligence générale, ces programmes codifient la connaissance d'experts humains sous forme de règles si-alors (if-then).

MYCIN (Stanford, 1976) diagnostique des infections bactériennes avec une précision de 69% — supérieure à certains médecins généralistes. XCON (DEC, 1980) configure automatiquement les commandes d'ordinateurs et fait économiser à DEC plus de 40 millions de dollars par an. DENDRAL (Stanford) analyse des données de spectrométrie de masse pour identifier des molécules chimiques — l'un des premiers exemples d'IA au service de la science.

Le Japon lance son ambitieux Projet de Cinquième Génération en 1982, visant à créer des ordinateurs "intelligents" basés sur la programmation logique (Prolog). Ce projet de 850 millions de dollars stimule une course internationale à l'IA, avec des réponses du Royaume-Uni (Alvey Programme), de l'Union Européenne (ESPRIT), et des États-Unis (MCC, SCI).

Les financements mondiaux en IA dépassent le milliard de dollars au milieu des années 1980. Des milliers d'entreprises créent des départements IA ou achètent des systèmes experts. Le marché des machines Lisp — des ordinateurs spécialisés pour l'IA — atteint 400 millions de dollars annuels.

1987-1993 : Le second hiver de l'IA

Les systèmes experts montrent leurs limites : ils sont fragiles (une règle manquante casse tout), coûteux à maintenir (un expert humain doit constamment mettre à jour les règles), et incapables d'apprendre (pas d'adaptation automatique aux nouvelles données). Le Projet de Cinquième Génération échoue à atteindre ses objectifs. Le marché des machines Lisp s'effondre face à la montée en puissance des PC. C'est le second hiver de l'IA.

Mais cette fois, une approche différente survit discrètement : les réseaux de neurones. L'algorithme de rétropropagation (backpropagation), popularisé par Geoffrey Hinton, David Rumelhart et Ronald Williams en 1986, permet d'entraîner des réseaux multicouches. Yann LeCun développe LeNet (1989) pour la reconnaissance de chiffres manuscrits — le premier réseau de neurones convolutif appliqué avec succès. Les fondations du deep learning sont posées, même si leur potentiel ne sera pleinement exploité que 25 ans plus tard.

1993-2011 : La montée du Machine Learning

L'IA se réinvente en abandonnant les promesses d'intelligence générale au profit d'approches statistiques et pragmatiques. Le Machine Learning (apprentissage automatique) prend le relais. Les chercheurs arrêtent de dire "intelligence artificielle" et parlent de "machine learning", "data mining", "reconnaissance de patterns" — des termes moins chargés émotionnellement.

  • 1997 : Deep Blue (IBM) bat le champion du monde d'échecs Garry Kasparov en 6 parties (2 victoires, 3 nuls, 1 défaite). C'est un moment symbolique qui fait la une mondiale, même si le programme repose davantage sur la force brute (200 millions de positions/seconde) que sur l'intelligence. Kasparov accusera IBM d'avoir triché — une controverse qui préfigure les débats éthiques actuels autour de l'IA.

  • 2006 : Geoffrey Hinton publie un article fondateur sur les deep belief networks, inaugurant l'ère du Deep Learning. Il montre qu'on peut entraîner efficacement des réseaux profonds (à plusieurs couches) grâce au pré-entraînement couche par couche. C'est le début de la troisième vague d'intérêt pour les réseaux de neurones.

  • 2011 : Watson (IBM) gagne le jeu télévisé Jeopardy! contre les meilleurs joueurs humains, démontrant des capacités de compréhension du langage naturel et de recherche d'information. Siri (Apple) est lancé la même année, marquant l'entrée de l'IA dans la poche de chaque consommateur.

Loading diagram…

2012-2017 : La révolution Deep Learning

Tout s'accélère en 2012 avec AlexNet, un réseau de neurones profond créé par Alex Krizhevsky, Ilya Sutskever et Geoffrey Hinton. AlexNet remporte la compétition ImageNet avec un taux d'erreur de 15,3% — contre 26,2% pour la meilleure méthode classique. C'est une amélioration massive qui prouve la supériorité du deep learning pour la vision par ordinateur. Ce résultat déclenche un afflux massif de chercheurs et d'investissements vers le deep learning.

Trois facteurs convergent pour rendre le deep learning possible :

  1. Big Data : Internet génère des quantités massives de données d'entraînement. ImageNet seul contient 14 millions d'images labellisées manuellement.
  2. GPU : Les cartes graphiques NVIDIA permettent de paralléliser les calculs. Un GPU peut être 50× plus rapide qu'un CPU pour l'entraînement de réseaux de neurones.
  3. Algorithmes : Les avancées en optimisation (Adam, dropout, batch normalization, residual connections) rendent l'entraînement stable sur des réseaux très profonds.

En 2014, les Generative Adversarial Networks (GANs) de Ian Goodfellow ouvrent la voie à la génération d'images. Le principe est élégant : deux réseaux s'affrontent — un "générateur" qui crée des fausses images et un "discriminateur" qui tente de les distinguer des vraies. Par cette compétition, les deux réseaux s'améliorent mutuellement.

En 2016, AlphaGo (DeepMind) bat le champion du monde de Go Lee Sedol 4-1 — un exploit considéré comme impossible une décennie plus tôt, le Go ayant plus de configurations possibles (10^170) que d'atomes dans l'univers observable (10^80). Le coup 37 de la partie 2, jamais vu dans 3 000 ans de Go professionnel, est salué comme un moment de créativité artificielle.

2017-2022 : L'ère des Transformers

En juin 2017, des chercheurs de Google publient l'article qui va tout changer : "Attention Is All You Need". Ils proposent l'architecture Transformer, basée sur un mécanisme d'attention qui permet au modèle de considérer simultanément toute la séquence d'entrée, plutôt que de la traiter mot par mot.

Les Transformers rendent possible :

  • BERT (Google, 2018) : compréhension bidirectionnelle du langage — révolutionne la recherche Google
  • GPT (OpenAI, 2018) : génération de texte autorégressif — le précurseur de ChatGPT
  • GPT-2 (OpenAI, février 2019) : textes si convaincants qu'OpenAI hésite à le publier (1,5 milliard de paramètres)
  • GPT-3 (OpenAI, juin 2020) : 175 milliards de paramètres, capacités émergentes surprenantes
  • DALL-E (OpenAI, janvier 2021) : premier modèle de génération d'images à partir de texte utilisant des Transformers
  • ChatGPT (OpenAI, novembre 2022) : le moment de bascule grand public

2022-aujourd'hui : L'explosion de l'IA générative

Le 30 novembre 2022, OpenAI lance ChatGPT. En seulement 5 jours, le service atteint 1 million d'utilisateurs — un record historique. Pour comparaison, Netflix a mis 3,5 ans pour atteindre ce seuil, Instagram 2,5 mois, et TikTok 9 mois. En janvier 2023, ChatGPT dépasse les 100 millions d'utilisateurs — le produit technologique avec la croissance la plus rapide de l'histoire.

L'année 2023-2024 voit une accélération sans précédent :

  • GPT-4 (mars 2023) : premier modèle multimodal grand public (texte + images), score dans le top 10% au barreau américain
  • Claude (Anthropic, 2023) : focalisé sur la sécurité, l'utilité, et l'honnêteté
  • Gemini (Google, décembre 2023) : directement intégré à l'écosystème Google
  • Llama 2 et 3 (Meta, 2023-2024) : modèles open source puissants qui démocratisent l'accès
  • Mistral (France, 2023-2024) : la pépite française de l'IA, fondée par des ex-chercheurs de Google DeepMind et Meta
  • DeepSeek-R1 (Chine, janvier 2025) : le "moment Spoutnik" de l'IA — performances rivales de GPT-4 pour un coût d'entraînement de 5,6 millions de dollars (vs. ~100 millions pour GPT-4)
  • o1 et o3 (OpenAI, 2024-2025) : premiers modèles de raisonnement ("thinking models")

2025-2026 : L'ère de l'IA agentique et du raisonnement

L'année 2025 marque un tournant majeur avec l'émergence de modèles capables de raisonnement profond et d'actions autonomes (agents IA). Les modèles ne sont plus de simples "compléteurs de texte" — ils peuvent réfléchir, planifier, utiliser des outils, et exécuter des tâches complexes sur plusieurs étapes :

  • GPT-5 (OpenAI, août 2025) : architecture hybride combinant un modèle rapide et un module de raisonnement. Suivi de GPT-5.2 (décembre 2025) et GPT-5.4
  • Claude 4 (Anthropic, mai 2025) : capacités avancées de raisonnement et de coding. Suivi de Claude Opus 4.6 et Sonnet 4.6 (février 2026)
  • Gemini 3 (Google, novembre 2025) : intègre Deep Think pour le raisonnement complexe. Gemini 3.1 Pro (février 2026) rivalise avec GPT-5
  • Llama 4 (Meta, avril 2025) : architecture Mixture-of-Experts avec 400 milliards de paramètres (Maverick) et une fenêtre de contexte de 10 millions de tokens (Scout)
  • Grok 4 (xAI, juillet 2025) : intégration native avec le réseau X. Suivi de Grok 4.1 et 4.20 Beta (février 2026)
  • DeepSeek V3.1 (août 2025) : modèle hybride open source (MIT License) surpassant ses prédécesseurs de 40% sur certains benchmarks
  • Sora 2 (OpenAI, septembre 2025) : génération vidéo de deuxième génération avec app sociale intégrée
  • Midjourney v7 (avril 2025) : nouveau standard pour la génération d'images photoréalistes
  • Claude Code et GitHub Copilot : les agents de coding deviennent des outils quotidiens pour les développeurs

Résumé de la section

PériodeNomInnovation cléLimite
1943-1956FondationsNeurone artificiel, test de TuringThéorique uniquement
1956-1974Âge d'orELIZA, Perceptron, General Problem SolverPromesses excessives
1974-19801er hiverExplosion combinatoire, sens commun
1980-1987Systèmes expertsMYCIN, XCON, DENDRALFragiles, non-adaptatifs
1987-19932e hiverBackpropagation, LeNet (semés)Puissance insuffisante
1993-2011Machine LearningDeep Blue, WatsonDonnées et calcul limités
2012-2017Deep LearningAlexNet, AlphaGo, GANsSpécialisé par tâche
2017-2022TransformersBERT, GPT-3, DALL-ECoût d'entraînement
2022-2024IA GénérativeChatGPT, GPT-4, SoraHallucinations, éthique
2025-2026IA AgentiqueGPT-5, Claude 4.6, Gemini 3.1, DeepSeekCoût, sécurité, contrôle

Exercice pratique : Frise chronologique personnelle

Durée : 15 minutes

  1. Demandez à ChatGPT ou Claude : "Résume-moi l'histoire de l'IA en 10 étapes clés avec dates et impacts"
  2. Comparez la réponse avec cette section — le modèle a-t-il oublié des étapes ? Ajouté des détails pertinents ?
  3. Identifiez un événement historique que vous ne connaissiez pas et recherchez-le sur Wikipedia
  4. Réflexion personnelle : selon vous, sommes-nous dans un nouvel "âge d'or" ou à la veille d'un troisième "hiver de l'IA" ? Argumentez en 3 phrases.

Learn AI — From Prompts to Agents

10 Free Interactive Guides120+ Hands-On Exercises100% Free

Frequently Asked Questions

Is this generative AI course really free?

Yes, 100% free. All 50 sections and 8 chapters are accessible without any account, payment, or registration. We sustain the platform through non-intrusive ads.

How long does the complete training take?

The full course is designed for approximately 80 hours of study, spread across 8 chapters and 50 sections. You can learn at your own pace.

Do I need programming experience?

No. The course starts from absolute zero and covers everything from basic prompting to advanced AI agent design. No coding required for most modules.

What tools will I learn to use?

ChatGPT, Claude, GitHub Copilot, Make (Integromat), Zapier, n8n, Midjourney, DALL-E, Stable Diffusion, and many more AI tools.

What is prompt engineering?

Prompt engineering is the practice of crafting effective instructions for AI models to produce desired outputs. It's the most in-demand AI skill in 2025.

Newsletter

Weekly AI Insights

Tools, techniques & news — curated for AI practitioners. Free, no spam.

Free, no spam. Unsubscribe anytime.