Claude sur Google Vertex AI : Guide d'Intégration GCP
By Dorian Laurenceau
📅 Dernière révision : 24 avril 2026. Mise à jour avec les retours et observations d'avril 2026.
🔗 Article pilier : API Claude : Guide Complet
Pourquoi Claude sur Vertex AI ?
Si votre infrastructure est sur Google Cloud, Vertex AI est le chemin le plus direct vers Claude.
| Avantage | Description |
|---|---|
| Facturation GCP | Claude apparaît sur votre facture Google Cloud |
| IAM Google Cloud | Contrôle d'accès avec service accounts et rôles |
| VPC Service Controls | Périmètre de sécurité réseau |
| BigQuery | Connexion directe BigQuery ↔ Claude pour l'analyse |
| Model Garden | Catalogue unifié de modèles (Claude + Gemini + open source) |
| Compliance | SOC 2, ISO 27001, HIPAA, FedRAMP |
| Quotas gérés | Gestion de la capacité via les quotas GCP |
La raison pratique pour laquelle les équipes finissent sur Vertex AI plutôt que sur l'API Anthropic directe, visible dans les threads en cours sur r/googlecloud et r/devops : ce n'est presque jamais une préférence technique. C'est le procurement. Si votre organisation a déjà un engagement GCP négocié, un périmètre VPC-SC et un processus de facturation centralisé, ajouter un autre vendeur SaaS avec son propre contrat, son propre DPA et sa propre facturation, c'est trois mois de combat — alors qu'activer Claude dans Model Garden, c'est trois clics. La page Vertex AI Model Garden pour Claude existe précisément parce que cette friction est réelle et généralisée.
Là où la communauté nuance à juste titre : « c'est le même modèle » est presque vrai mais pas tout à fait. La disponibilité des modèles est en retard sur l'API directe (les nouvelles versions de Claude arrivent d'abord chez Anthropic, puis sur Bedrock et Vertex), certaines features comme l'extended thinking ou les contrôles de sécurité fins peuvent arriver plus tard, et les footprints quotas/régions diffèrent. Si vous construisez un produit qui doit livrer le jour de la sortie d'une nouvelle version, Vertex n'est pas le bon plan d'abstraction ; si vous construisez un outil interne d'entreprise, c'est exactement le bon.
Heuristique pragmatique : choisissez l'API directe pour l'expérimentation greenfield et tout ce qui est sensible à la latence, choisissez Vertex (ou Bedrock) quand l'IT, le juridique ou la finance bloqueraient sinon le déploiement.
Setup : Étape par Étape
1. Activer Claude dans le Model Garden
- →Accédez à la console GCP > Vertex AI > Model Garden
- →Cherchez "Claude" dans le catalogue
- →Cliquez Enable pour les modèles souhaités
- →Acceptez les conditions d'utilisation Anthropic
2. Configurer un Service Account
# Créer un service account
gcloud iam service-accounts create claude-vertex \
--display-name="Claude Vertex AI"
# Attribuer le rôle Vertex AI User
gcloud projects add-iam-policy-binding YOUR_PROJECT_ID \
--member="serviceAccount:claude-vertex@YOUR_PROJECT_ID.iam.gserviceaccount.com" \
--role="roles/aiplatform.user"
# Générer une clé (pour le développement local)
gcloud iam service-accounts keys create key.json \
--iam-account=claude-vertex@YOUR_PROJECT_ID.iam.gserviceaccount.com
3. Installer les SDKs
pip install anthropic[vertex] google-auth
Exemples de Code
Appel Basique avec le SDK Anthropic
import anthropic
client = anthropic.AnthropicVertex(
project_id="your-gcp-project-id",
region="us-east5"
)
message = client.messages.create(
model="claude-sonnet-4@20250514",
max_tokens=1024,
messages=[
{"role": "user", "content": "Explique les avantages de BigQuery pour l'analyse de données."}
]
)
print(message.content[0].text)
Avec System Prompt
message = client.messages.create(
model="claude-sonnet-4@20250514",
max_tokens=2048,
system="Tu es un architecte cloud GCP expert. Recommande des solutions Google Cloud.",
messages=[
{"role": "user", "content": "J'ai besoin d'une architecture pour un pipeline de données temps réel."}
]
)
Streaming
with client.messages.stream(
model="claude-sonnet-4@20250514",
max_tokens=2048,
messages=[{"role": "user", "content": "Rédige un guide de migration vers GKE."}]
) as stream:
for text in stream.text_stream:
print(text, end="", flush=True)
Authentification sur GCP (pas de clé JSON)
# Authentification automatique via Application Default Credentials
# Fonctionne sur GCE, Cloud Run, GKE, Cloud Functions
client = anthropic.AnthropicVertex(
project_id="your-project-id",
region="us-east5"
# Pas besoin de credentials explicites !
)
Tarification : Vertex AI vs API Directe
| Modèle | Vertex Input | Vertex Output | API Directe Input | API Directe Output |
|---|---|---|---|---|
| Claude Opus 4.6 | $15.00/M | $75.00/M | $15.00/M | $75.00/M |
| Claude Sonnet 4 | $3.00/M | $15.00/M | $3.00/M | $15.00/M |
| Claude Haiku 3.5 | $0.80/M | $4.00/M | $0.80/M | $4.00/M |
Avantages tarifaires Vertex :
- →Committed Use Discounts (CUDs) : Remises pour engagement de volume
- →Facturation à la seconde : Pas de minimum
- →Crédits GCP : Utilisables pour Claude (y compris les crédits gratuits startups)
- →Batch predictions : Réduction pour le traitement en lot
Intégration BigQuery
Un cas d'usage puissant : utiliser Claude pour analyser des données BigQuery.
from google.cloud import bigquery
import anthropic
# Récupérer des données BigQuery
bq_client = bigquery.Client()
query = """
SELECT product_name, SUM(revenue) as total_revenue, COUNT(*) as orders
FROM `project.dataset.sales`
WHERE date >= DATE_SUB(CURRENT_DATE(), INTERVAL 30 DAY)
GROUP BY product_name
ORDER BY total_revenue DESC
LIMIT 20
"""
results = bq_client.query(query).to_dataframe()
# Analyser avec Claude
vertex_client = anthropic.AnthropicVertex(
project_id="your-project-id",
region="us-east5"
)
message = vertex_client.messages.create(
model="claude-sonnet-4@20250514",
max_tokens=2048,
messages=[{
"role": "user",
"content": f"""Analyse ces données de ventes des 30 derniers jours :
{results.to_markdown()}
Fournis :
1. Les 3 produits les plus performants et pourquoi
2. Les tendances notables
3. Des recommandations pour le mois prochain"""
}]
)
print(message.content[0].text)
Architecture Enterprise sur GCP
Architecture Type
Cloud Run + Claude
# app.py - Service Cloud Run avec Claude
from flask import Flask, request, jsonify
import anthropic
app = Flask(__name__)
client = anthropic.AnthropicVertex(
project_id="your-project-id",
region="us-east5"
)
@app.route("/analyze", methods=["POST"])
def analyze():
data = request.json
message = client.messages.create(
model="claude-sonnet-4@20250514",
max_tokens=2048,
messages=[{"role": "user", "content": data["question"]}]
)
return jsonify({
"answer": message.content[0].text,
"model": message.model,
"tokens": {
"input": message.usage.input_tokens,
"output": message.usage.output_tokens
}
})
if __name__ == "__main__":
app.run(host="0.0.0.0", port=8080)
FROM python:3.11-slim
WORKDIR /app
COPY requirements.txt .
RUN pip install -r requirements.txt
COPY app.py .
CMD ["python", "app.py"]
# Déployer sur Cloud Run
gcloud run deploy claude-service \
--source . \
--region us-east5 \
--service-account claude-vertex@YOUR_PROJECT.iam.gserviceaccount.com
Comparaison Bedrock vs Vertex AI
| Aspect | Amazon Bedrock | Google Vertex AI |
|---|---|---|
| Cloud provider | AWS | GCP |
| Modèles dispo | Claude, Llama, Mistral, Titan | Claude, Gemini, Llama, Mistral |
| Data analytics | Athena, Redshift | BigQuery (avantage) |
| Container orchestration | ECS/EKS | GKE, Cloud Run |
| Guardrails | Intégrés | Via Model Monitoring |
| Regions Claude | us-east-1, us-west-2, eu-west-1 | us-east5, us-central1, eu-west1 |
| Batch API | ✅ | ✅ |
Régions Disponibles
| Région | Code | Latence (depuis Paris) |
|---|---|---|
| US East (Ohio) | us-east5 | ~120ms |
| US Central (Iowa) | us-central1 | ~140ms |
| Europe West (Belgique) | europe-west1 | ~20ms |
Recommandation : Utilisez europe-west1 pour les applications françaises et européennes (latence minimale + conformité GDPR facilitée).
Migration depuis l'API Directe
| Changement | API Directe | Vertex AI |
|---|---|---|
| Client | anthropic.Anthropic() | anthropic.AnthropicVertex() |
| Auth | Clé API | Service Account GCP |
| Model ID | claude-sonnet-4-20250514 | claude-sonnet-4@20250514 |
| Paramètre additionnel | , | project_id, region |
| Reste du code | Identique | Identique |
Module 0 — Prompting Fundamentals
Build your first effective prompts from scratch with hands-on exercises.
Dorian Laurenceau
Full-Stack Developer & Learning DesignerFull-stack web developer and learning designer. I spent 4 years as a freelance full-stack developer and 4 years teaching React, JavaScript, HTML/CSS and WordPress to adult learners. Today I design learning paths in web development and AI, grounded in learning science. I founded learn-prompting.fr to make AI practical and accessible, and built the Bluff app to gamify political transparency.
Weekly AI Insights
Tools, techniques & news — curated for AI practitioners. Free, no spam.
Free, no spam. Unsubscribe anytime.
→Related Articles
FAQ
Qu'est-ce que Google Vertex AI ?+
Vertex AI est la plateforme MLOps de Google Cloud qui donne accès à des modèles d'IA (dont Claude) via le Model Garden. Elle s'intègre nativement avec BigQuery, Cloud Storage et l'écosystème GCP.
Pourquoi utiliser Claude via Vertex AI plutôt que l'API directe ?+
Vertex AI offre une facturation GCP unifiée, l'intégration avec BigQuery pour l'analyse, des quotas et permissions IAM Google Cloud, le VPC Service Controls et la conformité enterprise GCP.
Comment configurer l'accès à Claude sur Vertex AI ?+
Activez Claude dans le Model Garden Vertex AI, créez un service account avec le rôle Vertex AI User, configurez l'authentification et utilisez le SDK Anthropic avec le paramètre vertex.
Quelles régions GCP supportent Claude ?+
Claude est disponible sur Vertex AI dans les régions us-east5, us-central1 et europe-west1. Les régions disponibles peuvent varier selon le modèle et la demande.