Claude sur Google Vertex AI : Guide d'Intégration GCP
By Learnia Team
Claude sur Google Vertex AI : Guide d'Intégration GCP
📅 Dernière mise à jour : 10 mars 2026 — Couvre Vertex AI avec Claude Opus 4.6, Sonnet 4 et Haiku 3.5.
🔗 Article pilier : API Claude : Guide Complet
Pourquoi Claude sur Vertex AI ?
Si votre infrastructure est sur Google Cloud, Vertex AI est le chemin le plus direct vers Claude.
| Avantage | Description |
|---|---|
| Facturation GCP | Claude apparaît sur votre facture Google Cloud |
| IAM Google Cloud | Contrôle d'accès avec service accounts et rôles |
| VPC Service Controls | Périmètre de sécurité réseau |
| BigQuery | Connexion directe BigQuery ↔ Claude pour l'analyse |
| Model Garden | Catalogue unifié de modèles (Claude + Gemini + open source) |
| Compliance | SOC 2, ISO 27001, HIPAA, FedRAMP |
| Quotas gérés | Gestion de la capacité via les quotas GCP |
Setup : Étape par Étape
1. Activer Claude dans le Model Garden
- →Accédez à la console GCP > Vertex AI > Model Garden
- →Cherchez "Claude" dans le catalogue
- →Cliquez Enable pour les modèles souhaités
- →Acceptez les conditions d'utilisation Anthropic
2. Configurer un Service Account
# Créer un service account
gcloud iam service-accounts create claude-vertex \
--display-name="Claude Vertex AI"
# Attribuer le rôle Vertex AI User
gcloud projects add-iam-policy-binding YOUR_PROJECT_ID \
--member="serviceAccount:claude-vertex@YOUR_PROJECT_ID.iam.gserviceaccount.com" \
--role="roles/aiplatform.user"
# Générer une clé (pour le développement local)
gcloud iam service-accounts keys create key.json \
--iam-account=claude-vertex@YOUR_PROJECT_ID.iam.gserviceaccount.com
3. Installer les SDKs
pip install anthropic[vertex] google-auth
Exemples de Code
Appel Basique avec le SDK Anthropic
import anthropic
client = anthropic.AnthropicVertex(
project_id="your-gcp-project-id",
region="us-east5"
)
message = client.messages.create(
model="claude-sonnet-4@20250514",
max_tokens=1024,
messages=[
{"role": "user", "content": "Explique les avantages de BigQuery pour l'analyse de données."}
]
)
print(message.content[0].text)
Avec System Prompt
message = client.messages.create(
model="claude-sonnet-4@20250514",
max_tokens=2048,
system="Tu es un architecte cloud GCP expert. Recommande des solutions Google Cloud.",
messages=[
{"role": "user", "content": "J'ai besoin d'une architecture pour un pipeline de données temps réel."}
]
)
Streaming
with client.messages.stream(
model="claude-sonnet-4@20250514",
max_tokens=2048,
messages=[{"role": "user", "content": "Rédige un guide de migration vers GKE."}]
) as stream:
for text in stream.text_stream:
print(text, end="", flush=True)
Authentification sur GCP (pas de clé JSON)
# Authentification automatique via Application Default Credentials
# Fonctionne sur GCE, Cloud Run, GKE, Cloud Functions
client = anthropic.AnthropicVertex(
project_id="your-project-id",
region="us-east5"
# Pas besoin de credentials explicites !
)
Tarification : Vertex AI vs API Directe
| Modèle | Vertex Input | Vertex Output | API Directe Input | API Directe Output |
|---|---|---|---|---|
| Claude Opus 4.6 | $15.00/M | $75.00/M | $15.00/M | $75.00/M |
| Claude Sonnet 4 | $3.00/M | $15.00/M | $3.00/M | $15.00/M |
| Claude Haiku 3.5 | $0.80/M | $4.00/M | $0.80/M | $4.00/M |
Avantages tarifaires Vertex :
- →Committed Use Discounts (CUDs) : Remises pour engagement de volume
- →Facturation à la seconde : Pas de minimum
- →Crédits GCP : Utilisables pour Claude (y compris les crédits gratuits startups)
- →Batch predictions : Réduction pour le traitement en lot
Intégration BigQuery
Un cas d'usage puissant : utiliser Claude pour analyser des données BigQuery.
from google.cloud import bigquery
import anthropic
# Récupérer des données BigQuery
bq_client = bigquery.Client()
query = """
SELECT product_name, SUM(revenue) as total_revenue, COUNT(*) as orders
FROM `project.dataset.sales`
WHERE date >= DATE_SUB(CURRENT_DATE(), INTERVAL 30 DAY)
GROUP BY product_name
ORDER BY total_revenue DESC
LIMIT 20
"""
results = bq_client.query(query).to_dataframe()
# Analyser avec Claude
vertex_client = anthropic.AnthropicVertex(
project_id="your-project-id",
region="us-east5"
)
message = vertex_client.messages.create(
model="claude-sonnet-4@20250514",
max_tokens=2048,
messages=[{
"role": "user",
"content": f"""Analyse ces données de ventes des 30 derniers jours :
{results.to_markdown()}
Fournis :
1. Les 3 produits les plus performants et pourquoi
2. Les tendances notables
3. Des recommandations pour le mois prochain"""
}]
)
print(message.content[0].text)
Architecture Enterprise sur GCP
Architecture Type
Cloud Run + Claude
# app.py - Service Cloud Run avec Claude
from flask import Flask, request, jsonify
import anthropic
app = Flask(__name__)
client = anthropic.AnthropicVertex(
project_id="your-project-id",
region="us-east5"
)
@app.route("/analyze", methods=["POST"])
def analyze():
data = request.json
message = client.messages.create(
model="claude-sonnet-4@20250514",
max_tokens=2048,
messages=[{"role": "user", "content": data["question"]}]
)
return jsonify({
"answer": message.content[0].text,
"model": message.model,
"tokens": {
"input": message.usage.input_tokens,
"output": message.usage.output_tokens
}
})
if __name__ == "__main__":
app.run(host="0.0.0.0", port=8080)
FROM python:3.11-slim
WORKDIR /app
COPY requirements.txt .
RUN pip install -r requirements.txt
COPY app.py .
CMD ["python", "app.py"]
# Déployer sur Cloud Run
gcloud run deploy claude-service \
--source . \
--region us-east5 \
--service-account claude-vertex@YOUR_PROJECT.iam.gserviceaccount.com
Comparaison Bedrock vs Vertex AI
| Aspect | Amazon Bedrock | Google Vertex AI |
|---|---|---|
| Cloud provider | AWS | GCP |
| Modèles dispo | Claude, Llama, Mistral, Titan | Claude, Gemini, Llama, Mistral |
| Data analytics | Athena, Redshift | BigQuery (avantage) |
| Container orchestration | ECS/EKS | GKE, Cloud Run |
| Guardrails | Intégrés | Via Model Monitoring |
| Regions Claude | us-east-1, us-west-2, eu-west-1 | us-east5, us-central1, eu-west1 |
| Batch API | ✅ | ✅ |
Régions Disponibles
| Région | Code | Latence (depuis Paris) |
|---|---|---|
| US East (Ohio) | us-east5 | ~120ms |
| US Central (Iowa) | us-central1 | ~140ms |
| Europe West (Belgique) | europe-west1 | ~20ms |
Recommandation : Utilisez europe-west1 pour les applications françaises et européennes (latence minimale + conformité GDPR facilitée).
Migration depuis l'API Directe
| Changement | API Directe | Vertex AI |
|---|---|---|
| Client | anthropic.Anthropic() | anthropic.AnthropicVertex() |
| Auth | Clé API | Service Account GCP |
| Model ID | claude-sonnet-4-20250514 | claude-sonnet-4@20250514 |
| Paramètre additionnel | — | project_id, region |
| Reste du code | Identique | Identique |
Module 0 — Prompting Fundamentals
Build your first effective prompts from scratch with hands-on exercises.
Weekly AI Insights
Tools, techniques & news — curated for AI practitioners. Free, no spam.
Free, no spam. Unsubscribe anytime.
→Related Articles
FAQ
Qu'est-ce que Google Vertex AI ?+
Vertex AI est la plateforme MLOps de Google Cloud qui donne accès à des modèles d'IA (dont Claude) via le Model Garden. Elle s'intègre nativement avec BigQuery, Cloud Storage et l'écosystème GCP.
Pourquoi utiliser Claude via Vertex AI plutôt que l'API directe ?+
Vertex AI offre une facturation GCP unifiée, l'intégration avec BigQuery pour l'analyse, des quotas et permissions IAM Google Cloud, le VPC Service Controls et la conformité enterprise GCP.
Comment configurer l'accès à Claude sur Vertex AI ?+
Activez Claude dans le Model Garden Vertex AI, créez un service account avec le rôle Vertex AI User, configurez l'authentification et utilisez le SDK Anthropic avec le paramètre vertex.
Quelles régions GCP supportent Claude ?+
Claude est disponible sur Vertex AI dans les régions us-east5, us-central1 et europe-west1. Les régions disponibles peuvent varier selon le modèle et la demande.