Retour aux articles
6 MIN READ

Embeddings vectoriels : Comment l'IA comprend le sens

By Learnia Team

Embeddings vectoriels : Comment l'IA comprend le sens

Quand vous recherchez « chaussures de course » et trouvez des résultats pour « baskets de jogging », ce n'est pas de la correspondance par mots-clés — c'est de la compréhension sémantique alimentée par les embeddings vectoriels. Voici pourquoi cette technologie est importante.


Que sont les embeddings vectoriels ?

Un embedding vectoriel est une liste de nombres qui représente le sens d'un texte (ou d'images, d'audio, etc.) d'une manière que les ordinateurs peuvent traiter.

Du texte aux nombres

"J'adore la pizza" → [0.23, -0.45, 0.87, 0.12, ..., -0.33]
                      (typiquement 384 à 1536 nombres)

Ces nombres capturent le sens sémantique, pas seulement les caractères.

Sens similaire = Nombres similaires

"J'adore la pizza"       → [0.23, -0.45, 0.87, ...]
"La pizza c'est genial"  → [0.25, -0.42, 0.85, ...]  ← Très similaire !
"Je déteste les brocolis" → [-0.18, 0.32, -0.22, ...]  ← Très différent

Learn AI — From Prompts to Agents

10 Free Interactive Guides120+ Hands-On Exercises100% Free

Pourquoi les embeddings sont importants

Recherche traditionnelle (correspondance par mots-clés)

Recherche : "automobile"
Documents contenant "automobile" ✓
Documents contenant "voiture" ✗ (mot différent !)

Recherche sémantique (embeddings)

Recherche : "automobile"
"automobile" ✓ (même mot)
"voiture" ✓ (sens similaire)
"véhicule" ✓ (concept lié)
"Tesla Model 3" ✓ (c'est une voiture !)

Les embeddings permettent de chercher par sens, pas seulement par mots-clés.


Comment fonctionnent les embeddings (simplifié)

Le processus d'entraînement

Les modèles d'embedding apprennent à partir de milliards d'exemples textuels :

1. "Le chat est assis sur le tapis"
2. "Les chiens sont des animaux fidèles"
3. "Le machine learning utilise des algorithmes"
... des milliards d'autres

Le modèle apprend :
- "chat" et "chien" sont quelque peu liés (les deux sont des animaux)
- "tapis" et "moquette" sont très liés
- "chat" et "algorithme" n'ont aucun rapport

Le résultat : Une carte sémantique

Imaginez un vaste espace où chaque concept a une position :

Groupe Animaux :

  • chat → chaton, félin
  • chien → chiot

Groupe Mobilier :

  • tapis → moquette → carpette

Les mots ayant des sens similaires se regroupent.


Dimensions : Ce que signifient les nombres

Chaque nombre dans un embedding capture une facette du sens :

Dimension 1 : Peut-être "être vivant" vs "objet"
Dimension 42 : Peut-être sentiment "positif" vs "négatif"
Dimension 256 : Peut-être langage "formel" vs "familier"
...

Aucune dimension isolée n'a de signification claire — c'est la combinaison qui compte.

Pourquoi autant de dimensions ?

256 dimensions : Compréhension basique
768 dimensions : Bon pour la plupart des tâches
1536 dimensions : Capture sémantique riche

Plus de dimensions = compréhension plus nuancée, mais coût de stockage/calcul plus élevé.


Similarité : Mesurer la proximité

Similarité cosinus

La méthode standard pour comparer les embeddings :

Similarité("voiture", "automobile") = 0.94  (très similaire)
Similarité("voiture", "banane") = 0.12      (sans rapport)
Similarité("voiture", "véhicule") = 0.87    (lié)

Échelle : -1 (sens opposé) à 1 (sens identique)

Pourquoi le cosinus fonctionne

Il mesure l'angle entre les vecteurs, en ignorant la magnitude :

"J'aime vraiment vraiment les voitures" et "J'aime les voitures"
→ Même direction, longueur différente
→ Le cosinus les considère comme similaires

Les embeddings en action : Systèmes RAG

Le RAG (Retrieval-Augmented Generation) utilise les embeddings au cœur de son fonctionnement :

Étape 1 : Convertir vos documents en embeddings

Document 1 : "Notre politique de retour permet les retours sous 30 jours..."
→ [0.12, -0.34, 0.56, ...]

Document 2 : "La livraison prend 3 à 5 jours ouvrés..."
→ [-0.23, 0.45, 0.11, ...]

... stocker tous les embeddings

Étape 2 : Convertir la question de l'utilisateur en embedding

Utilisateur : "Combien de temps ai-je pour retourner un article ?"
→ [0.14, -0.31, 0.52, ...]  ← Similaire au Document 1 !

Étape 3 : Trouver les plus similaires

Comparer l'embedding de la question à tous les embeddings de documents :
- Document 1 : 0.94 de similarité ← Gagnant !
- Document 2 : 0.23 de similarité
- Document 3 : 0.18 de similarité

Renvoyer le Document 1 au LLM pour répondre.

Modèles d'embedding populaires (2025)

ModèleDimensionsIdéal pour
OpenAI text-embedding-3-small1536Usage général, abordable
OpenAI text-embedding-3-large3072Meilleure qualité
Cohere embed-v31024Multilingue
Google text-embedding-004768Écosystème Google
Open source (BGE, E5)384-1024Auto-hébergé, gratuit

Limites des embeddings

1. Figés au moment de la création

Un embedding de 2023 ne connaît pas les événements de 2024.
Il faut recréer les embeddings avec des modèles plus récents pour les mises à jour.

2. Limites de fenêtre de contexte

La plupart des modèles d'embedding gèrent au maximum 512 à 8000 tokens.
Les documents longs nécessitent un découpage.

3. Mêmes mots, sens différents

"Banque" (financière) vs "banc" (de sable)
Les embeddings essaient de capturer le contexte, mais c'est imparfait.

4. Biais linguistique/culturel

Les modèles entraînés principalement en anglais sont moins performants dans d'autres langues.
Les concepts culturels peuvent ne pas être bien représentés.

Points clés à retenir

  1. Les embeddings convertissent du texte en nombres représentant le sens
  2. Sens similaire → schémas de nombres similaires
  3. Permettent la recherche sémantique au-delà de la correspondance par mots-clés
  4. Fondement des systèmes RAG et de la recherche IA
  5. Compromis : dimensions, vitesse, qualité, coût

Prêt à construire avec les embeddings ?

Cet article a couvert le quoi et le pourquoi des embeddings vectoriels. Mais construire des systèmes RAG en production nécessite de comprendre le découpage, les stratégies de récupération et les schémas d'intégration.

Dans notre Module 5 — RAG et Context Engineering, vous apprendrez :

  • Choisir le bon modèle d'embedding
  • Les stratégies de découpage de documents
  • La recherche hybride (embeddings + mots-clés)
  • Le choix d'une base de données vectorielle
  • L'architecture RAG en production

Découvrir le Module 5 : RAG et Context Engineering

GO DEEPER — FREE GUIDE

Module 5 — RAG (Retrieval-Augmented Generation)

Ground AI responses in your own documents and data sources.

Newsletter

Weekly AI Insights

Tools, techniques & news — curated for AI practitioners. Free, no spam.

Free, no spam. Unsubscribe anytime.

FAQ

Que sont les embeddings vectoriels ?+

Les embeddings vectoriels convertissent du texte en tableaux de nombres qui capturent le sens. Les concepts similaires ont des vecteurs similaires. Cela permet à l'IA de comprendre que « chaussures de course » et « baskets de jogging » signifient des choses similaires.

Comment les embeddings permettent-ils la recherche sémantique ?+

Les embeddings projettent le texte dans un espace mathématique où la distance égale la similarité. La recherche trouve les vecteurs proches de votre requête, retournant des résultats sémantiquement similaires même sans correspondance de mots-clés.

Quels modèles d'embedding utiliser ?+

Choix populaires : OpenAI text-embedding-3, Cohere embed-v3, modèles open source comme BGE ou E5. Le choix dépend des besoins de précision, du coût et du besoin de support multilingue.

Comment les embeddings fonctionnent-ils avec le RAG ?+

Dans le RAG, les documents sont découpés en fragments et convertis en embeddings. Quand vous posez une question, votre requête est convertie en embedding et comparée aux vecteurs de documents. Les fragments les plus proches sont récupérés et envoyés au LLM.