Embeddings vectoriels : Comment l'IA comprend le sens
By Learnia Team
Embeddings vectoriels : Comment l'IA comprend le sens
Quand vous recherchez « chaussures de course » et trouvez des résultats pour « baskets de jogging », ce n'est pas de la correspondance par mots-clés — c'est de la compréhension sémantique alimentée par les embeddings vectoriels. Voici pourquoi cette technologie est importante.
Que sont les embeddings vectoriels ?
Un embedding vectoriel est une liste de nombres qui représente le sens d'un texte (ou d'images, d'audio, etc.) d'une manière que les ordinateurs peuvent traiter.
Du texte aux nombres
"J'adore la pizza" → [0.23, -0.45, 0.87, 0.12, ..., -0.33]
(typiquement 384 à 1536 nombres)
Ces nombres capturent le sens sémantique, pas seulement les caractères.
Sens similaire = Nombres similaires
"J'adore la pizza" → [0.23, -0.45, 0.87, ...]
"La pizza c'est genial" → [0.25, -0.42, 0.85, ...] ← Très similaire !
"Je déteste les brocolis" → [-0.18, 0.32, -0.22, ...] ← Très différent
Learn AI — From Prompts to Agents
Pourquoi les embeddings sont importants
Recherche traditionnelle (correspondance par mots-clés)
Recherche : "automobile"
Documents contenant "automobile" ✓
Documents contenant "voiture" ✗ (mot différent !)
Recherche sémantique (embeddings)
Recherche : "automobile"
"automobile" ✓ (même mot)
"voiture" ✓ (sens similaire)
"véhicule" ✓ (concept lié)
"Tesla Model 3" ✓ (c'est une voiture !)
Les embeddings permettent de chercher par sens, pas seulement par mots-clés.
Comment fonctionnent les embeddings (simplifié)
Le processus d'entraînement
Les modèles d'embedding apprennent à partir de milliards d'exemples textuels :
1. "Le chat est assis sur le tapis"
2. "Les chiens sont des animaux fidèles"
3. "Le machine learning utilise des algorithmes"
... des milliards d'autres
Le modèle apprend :
- "chat" et "chien" sont quelque peu liés (les deux sont des animaux)
- "tapis" et "moquette" sont très liés
- "chat" et "algorithme" n'ont aucun rapport
Le résultat : Une carte sémantique
Imaginez un vaste espace où chaque concept a une position :
Groupe Animaux :
- →chat → chaton, félin
- →chien → chiot
Groupe Mobilier :
- →tapis → moquette → carpette
Les mots ayant des sens similaires se regroupent.
Dimensions : Ce que signifient les nombres
Chaque nombre dans un embedding capture une facette du sens :
Dimension 1 : Peut-être "être vivant" vs "objet"
Dimension 42 : Peut-être sentiment "positif" vs "négatif"
Dimension 256 : Peut-être langage "formel" vs "familier"
...
Aucune dimension isolée n'a de signification claire — c'est la combinaison qui compte.
Pourquoi autant de dimensions ?
256 dimensions : Compréhension basique
768 dimensions : Bon pour la plupart des tâches
1536 dimensions : Capture sémantique riche
Plus de dimensions = compréhension plus nuancée, mais coût de stockage/calcul plus élevé.
Similarité : Mesurer la proximité
Similarité cosinus
La méthode standard pour comparer les embeddings :
Similarité("voiture", "automobile") = 0.94 (très similaire)
Similarité("voiture", "banane") = 0.12 (sans rapport)
Similarité("voiture", "véhicule") = 0.87 (lié)
Échelle : -1 (sens opposé) à 1 (sens identique)
Pourquoi le cosinus fonctionne
Il mesure l'angle entre les vecteurs, en ignorant la magnitude :
"J'aime vraiment vraiment les voitures" et "J'aime les voitures"
→ Même direction, longueur différente
→ Le cosinus les considère comme similaires
Les embeddings en action : Systèmes RAG
Le RAG (Retrieval-Augmented Generation) utilise les embeddings au cœur de son fonctionnement :
Étape 1 : Convertir vos documents en embeddings
Document 1 : "Notre politique de retour permet les retours sous 30 jours..."
→ [0.12, -0.34, 0.56, ...]
Document 2 : "La livraison prend 3 à 5 jours ouvrés..."
→ [-0.23, 0.45, 0.11, ...]
... stocker tous les embeddings
Étape 2 : Convertir la question de l'utilisateur en embedding
Utilisateur : "Combien de temps ai-je pour retourner un article ?"
→ [0.14, -0.31, 0.52, ...] ← Similaire au Document 1 !
Étape 3 : Trouver les plus similaires
Comparer l'embedding de la question à tous les embeddings de documents :
- Document 1 : 0.94 de similarité ← Gagnant !
- Document 2 : 0.23 de similarité
- Document 3 : 0.18 de similarité
Renvoyer le Document 1 au LLM pour répondre.
Modèles d'embedding populaires (2025)
| Modèle | Dimensions | Idéal pour |
|---|---|---|
| OpenAI text-embedding-3-small | 1536 | Usage général, abordable |
| OpenAI text-embedding-3-large | 3072 | Meilleure qualité |
| Cohere embed-v3 | 1024 | Multilingue |
| Google text-embedding-004 | 768 | Écosystème Google |
| Open source (BGE, E5) | 384-1024 | Auto-hébergé, gratuit |
Limites des embeddings
1. Figés au moment de la création
Un embedding de 2023 ne connaît pas les événements de 2024.
Il faut recréer les embeddings avec des modèles plus récents pour les mises à jour.
2. Limites de fenêtre de contexte
La plupart des modèles d'embedding gèrent au maximum 512 à 8000 tokens.
Les documents longs nécessitent un découpage.
3. Mêmes mots, sens différents
"Banque" (financière) vs "banc" (de sable)
Les embeddings essaient de capturer le contexte, mais c'est imparfait.
4. Biais linguistique/culturel
Les modèles entraînés principalement en anglais sont moins performants dans d'autres langues.
Les concepts culturels peuvent ne pas être bien représentés.
Points clés à retenir
- →Les embeddings convertissent du texte en nombres représentant le sens
- →Sens similaire → schémas de nombres similaires
- →Permettent la recherche sémantique au-delà de la correspondance par mots-clés
- →Fondement des systèmes RAG et de la recherche IA
- →Compromis : dimensions, vitesse, qualité, coût
Prêt à construire avec les embeddings ?
Cet article a couvert le quoi et le pourquoi des embeddings vectoriels. Mais construire des systèmes RAG en production nécessite de comprendre le découpage, les stratégies de récupération et les schémas d'intégration.
Dans notre Module 5 — RAG et Context Engineering, vous apprendrez :
- →Choisir le bon modèle d'embedding
- →Les stratégies de découpage de documents
- →La recherche hybride (embeddings + mots-clés)
- →Le choix d'une base de données vectorielle
- →L'architecture RAG en production
Module 5 — RAG (Retrieval-Augmented Generation)
Ground AI responses in your own documents and data sources.
Weekly AI Insights
Tools, techniques & news — curated for AI practitioners. Free, no spam.
Free, no spam. Unsubscribe anytime.
→Related Articles
FAQ
Que sont les embeddings vectoriels ?+
Les embeddings vectoriels convertissent du texte en tableaux de nombres qui capturent le sens. Les concepts similaires ont des vecteurs similaires. Cela permet à l'IA de comprendre que « chaussures de course » et « baskets de jogging » signifient des choses similaires.
Comment les embeddings permettent-ils la recherche sémantique ?+
Les embeddings projettent le texte dans un espace mathématique où la distance égale la similarité. La recherche trouve les vecteurs proches de votre requête, retournant des résultats sémantiquement similaires même sans correspondance de mots-clés.
Quels modèles d'embedding utiliser ?+
Choix populaires : OpenAI text-embedding-3, Cohere embed-v3, modèles open source comme BGE ou E5. Le choix dépend des besoins de précision, du coût et du besoin de support multilingue.
Comment les embeddings fonctionnent-ils avec le RAG ?+
Dans le RAG, les documents sont découpés en fragments et convertis en embeddings. Quand vous posez une question, votre requête est convertie en embedding et comparée aux vecteurs de documents. Les fragments les plus proches sont récupérés et envoyés au LLM.