Section 12.1.1 : Growth mindset et stratégie d'acquisition
🎯 Objectif pédagogique
Comprendre le Growth Hacking : sa philosophie, ses frameworks d'acquisition, et comment l'IA transforme radicalement les stratégies de croissance en 2025.
Le Growth Hacking : de l'artisanat à la science
Le Growth Hacking est une approche de croissance qui combine marketing, données et expérimentation rapide. Inventé par Sean Ellis (2010), le terme décrit une discipline où chaque action est mesurée, chaque hypothèse testée, et chaque euro optimisé.
Le framework AARRR (Pirate Metrics)
Acquisition : SEO, SEA, contenus, réseaux sociaux, cold outreach. Activation : onboarding fluide, première valeur en <5 min. Rétention : emails, notifications, contenu récurrent, features sticky. Referral : programme de parrainage, viralité produit. Revenue : conversion freemium→payant, upsell, cross-sell.
Le T-shaped growth marketer
Un growth marketer efficace est T-shaped : large connaissance de tous les canaux, expertise profonde sur 2-3 :
- →Base large : SEO, ads, email, social, analytics, CRM
- →Expertise profonde : ex. scraping + automatisation, ou SEO + content
Avec l'IA, cette base large s'élargit encore : un growth marketer peut maintenant personnaliser à l'échelle, automatiser des workflows complexes, et analyser des datasets qu'il fallait un data analyst pour traiter.
Section 12.1.2 : Scraping web — Apify et Phantombuster
🎯 Objectif pédagogique
Maîtriser le web scraping avec des outils no-code (Apify, Phantombuster) pour collecter des données du web à grande échelle : leads, prix, contenus, avis.
Le web scraping : transformer le web en données
Le web scraping est l'extraction automatisée de données depuis des sites web. Pour un growth marketer, c'est l'arme secrète pour obtenir des leads, surveiller les concurrents, et collecter des données non disponibles via API.
Apify : le scraping industriel
Apify est une plateforme de scraping qui propose des "Actors" (scrapers préconstruits) pour les sites les plus populaires :
| Actor | Données extraites |
|---|---|
| Google Maps Scraper | Entreprises, avis, contacts par localisation |
| LinkedIn Profile Scraper | Profils professionnels |
| Amazon Product Scraper | Prix, avis, classements |
| Instagram Scraper | Posts, followers, engagement |
| YouTube Scraper | Vidéos, stats, commentaires |
Workflow Apify :
- →Choisissez un Actor sur apify.com/store
- →Configurez les paramètres (URL cible, nombre de résultats)
- →Lancez le scraping → les données sont exportables en JSON/CSV
- →Automatisez avec Make (Apify a un module Make natif)
Phantombuster : le scraping LinkedIn
Phantombuster est spécialisé dans l'automatisation LinkedIn et les réseaux sociaux :
- →LinkedIn Profile Scraper : extraire les infos de profils LinkedIn
- →LinkedIn Search Export : exporter les résultats d'une recherche LinkedIn Sales Navigator
- →LinkedIn Auto Connect : envoyer des invitations personnalisées
- →Google Maps Enrichment : enrichir des listes d'entreprises
Scraping : légalité et éthique
Le scraping est légal tant que vous respectez : les CGU du site (certains l'interdisent explicitement), le RGPD (données personnelles = responsabilité), les limites de débit (ne pas surcharger le serveur), le fichier robots.txt. Pour les données personnelles (emails, profils LinkedIn), vous devez avoir une base légale (intérêt légitime en B2B).
Section 12.1.3 : Enrichissement de données
🎯 Objectif pédagogique
Maîtriser l'enrichissement de données : transformer des données brutes (email, nom d'entreprise) en profils complets avec des outils comme Clearbit, Apollo, et Clay.
L'enrichissement : de l'email au profil complet
Vous avez une liste de 500 emails prospects. Que savez-vous d'eux ? Rien. L'enrichissement transforme ces emails en profils exploitables : nom, entreprise, poste, taille entreprise, CA, technologies utilisées, réseaux sociaux.
Les outils d'enrichissement
Clay : l'enrichissement propulsé par IA
Clay est la nouvelle référence de l'enrichissement. Il combine 150+ sources de données et utilise l'IA pour :
- →Agréger les données de multiples fournisseurs (Clearbit + Apollo + LinkedIn)
- →Nettoyer et dédupliquer automatiquement
- →Qualifier les leads via GPT (scoring, segmentation)
- →Personnaliser les messages d'outreach à l'échelle
Workflow d'enrichissement type
Section 12.1.4 : Conformité RGPD et bonnes pratiques
🎯 Objectif pédagogique
Intégrer la conformité RGPD dans les pratiques de scraping et d'enrichissement : bases légales, droits des personnes, et mise en conformité opérationnelle.
RGPD et Growth : ne pas jouer avec le feu
Le scraping et l'enrichissement de données manipulent des données personnelles — soumises au RGPD. Les amendes peuvent atteindre 4% du CA mondial. La conformité n'est pas optionnelle.
Les 6 bases légales du RGPD
Pour traiter des données personnelles, vous devez avoir UNE de ces bases légales :
- →Consentement : la personne a explicitement accepté (opt-in)
- →Intérêt légitime : le traitement est nécessaire pour un intérêt légitime (le plus utilisé en B2B prospection)
- →Exécution d'un contrat
- →Obligation légale
- →Mission de service public
- →Intérêts vitaux
Pour la prospection B2B, l'intérêt légitime est la base habituelle, sous conditions :
- →Approche proportionnée et ciblée (pas de mass mailing)
- →Lien logique entre votre offre et l'activité du prospect
- →Opt-out facile et respecté immédiatement
- →Conservation limitée des données
Checklist RGPD pour le growth
- → Registre de traitement à jour
- → Base légale identifiée pour chaque traitement
- → Lien de désinscription dans chaque email
- → Conservation limitée (pas de données gardées indéfiniment)
- → Données stockées dans l'UE (ou garanties adéquates)
- → DPA signé avec chaque sous-traitant (Clay, Apify, etc.)
Section 12.2.1 : Airtable — CRM sur mesure
🎯 Objectif pédagogique
Construire un CRM personnalisé avec Airtable : structure de données relationnelle, vues, automatisations, et intégration dans un workflow de prospection.
Airtable : le tableur surpuissant
Airtable est un hybride entre un tableur (Google Sheets) et une base de données (SQL). Il combine la facilité d'un spreadsheet avec la puissance d'une base relationnelle.
Construire un CRM Airtable
Table 1 — Contacts :
| Champ | Type | Usage |
|---|---|---|
| Nom | Single line text | Nom complet |
| Email professionnel | ||
| Entreprise | Link to Entreprises | Relation |
| Poste | Single line text | Titre du poste |
| Statut | Single select | Prospect / Contacté / Qualifié / Client |
| Score | Number | Score de qualification (1-100) |
| Source | Single select | LinkedIn / Site web / Event / Referral |
| Date dernier contact | Date | Suivi temporel |
Table 2 — Entreprises :
| Champ | Type | Usage |
|---|---|---|
| Nom | Single line text | Nom de l'entreprise |
| Secteur | Single select | Industrie |
| Taille | Single select | 1-10 / 11-50 / 51-200 / 200+ |
| Site web | URL | Lien site |
| Contacts | Link to Contacts | Relation inverse |
Table 3 — Interactions :
| Champ | Type | Usage |
|---|---|---|
| Contact | Link to Contacts | Relation |
| Type | Single select | Email / Appel / Meeting / LinkedIn |
| Date | Date | Quand |
| Notes | Long text | Résumé |
| Résultat | Single select | Positif / Neutre / Négatif |
Vues Airtable
- →Vue Kanban : par statut (Prospect → Contacté → Qualifié → Client)
- →Vue Calendar : suivis à faire par date
- →Vue Gallery : fiches contacts visuelles
- →Vue Form : formulaire de saisie de nouveaux contacts
Automatisations Airtable
Airtable dispose d'automatisations natives :
- →Quand un contact passe à "Qualifié" → envoyer un email
- →Quand un contact n'a pas été contacté depuis 7 jours → notification Slack
- →Quand un formulaire est rempli → créer le contact et la première interaction
Section 12.2.2 : HubSpot — Marketing automation
🎯 Objectif pédagogique
Configurer et utiliser HubSpot pour le marketing automation : workflows d'emails automatisés, lead scoring, formulaires, et nurturing des prospects.
HubSpot : l'écosystème CRM tout-en-un
HubSpot est la plateforme CRM/marketing la plus utilisée par les startups et PME. La version gratuite est déjà puissante : CRM, formulaires, emails, landing pages.
Marketing Automation : les workflows
Un workflow est une séquence d'actions automatiques déclenchées par un événement :
Exemple — Workflow de nurturing post-download :
- →Trigger : le prospect télécharge un ebook
- →Jour 0 : email de bienvenue + lien vers l'ebook
- →Jour 3 : email "Pour aller plus loin" avec un article complémentaire
- →Jour 7 : email cas client similaire à leur secteur
- →Jour 10 : email proposition de démo (CTA fort)
- →Si clic sur la démo → créer une tâche pour le commercial
- →Si non ouvert x3 → arrêter le workflow
Lead Scoring HubSpot
Le lead scoring attribue des points aux contacts selon leurs actions :
| Action | Points |
|---|---|
| Visite page pricing | +20 |
| Téléchargement ebook | +15 |
| Ouverture email | +5 |
| Clic lien email | +10 |
| Formulaire de contact | +30 |
| Visite page carrières | -10 |
| Désabonnement | -50 |
Seuils :
- →0-30 points : Cold lead → workflow de nurturing
- →31-60 points : Warm lead → contenu plus engageant
- →61+ points : Hot lead → alerte commerciale
Section 12.2.3 : Lemlist et cold outreach automatisé
🎯 Objectif pédagogique
Maîtriser Lemlist pour des campagnes de cold outreach multicanal (email + LinkedIn) personnalisées par IA, avec des taux d'ouverture et de réponse optimaux.
Le cold outreach en 2025
Le cold outreach (prospection à froid) reste l'un des canaux d'acquisition B2B les plus efficaces — à condition d'être hyper-personnalisé. Les campagnes génériques ont un taux de réponse de <1%. Les campagnes personnalisées par IA atteignent 10-20%.
Lemlist : la plateforme d'outreach IA
Lemlist est une plateforme de cold outreach qui combine :
- →Email : séquences multiétapes avec suivi automatique
- →LinkedIn : automatisation des invitations et messages
- →IA : personnalisation des messages à l'échelle
- →Analytics : tracking opens, clicks, replies
Construire une séquence Lemlist
Jour 1 — Email initial (personnalisé par IA) :
Objet : {company} + IA = ?
Bonjour {firstName},
J'ai vu que {company} venait de {recent_event}.
Félicitations !
Chez [VotreSociété], nous aidons les entreprises
de {industry} à {bénéfice} grâce à l'IA.
[Un cas client similaire] a obtenu {résultat chiffré}.
15 min pour en discuter cette semaine ?
{signature}
Jour 3 — LinkedIn connection (si pas d'ouverture)
Jour 5 — Email follow-up 1 :
Bonjour {firstName},
Mon email précédent est peut-être passé inaperçu.
En 1 phrase : [bénéfice principal] pour les équipes
comme la vôtre chez {company}.
Intéressé par un call de 15min ?
Jour 8 — LinkedIn message (si connecté)
Jour 12 — Email breakup :
{firstName}, je ne veux pas être insistant.
Si ce n'est pas le bon moment, aucun souci.
Je ne vous recontacterai pas.
Si le sujet vous intéresse dans le futur,
mon calendrier est ici : [lien Calendly]
Bonne continuation !
Section 12.2.4 : Zapier, Make et n8n — Orchestration
🎯 Objectif pédagogique
Orchestrer des workflows complexes en combinant Zapier, Make et n8n pour créer des automatisations multiplateforme robustes.
L'écosystème d'orchestration
Chaque outil a ses forces. Les power users combinent plusieurs outils pour obtenir le meilleur de chacun.
n8n : l'alternative open source
n8n est une plateforme d'automatisation open source et self-hosted. Contrairement à Make et Zapier :
- →Self-hosted : vos données restent chez vous (RGPD-friendly)
- →Open source : gratuit à héberger, code source modifiable
- →Nodes personnalisés : créez vos propres intégrations en JavaScript
- →Pas de limites : pas de quota d'exécutions (vous payez l'hébergement)
Quand utiliser quoi ?
| Scénario | Outil recommandé |
|---|---|
| Workflow simple (2-3 étapes) | Zapier |
| Workflow complexe avec branchements | Make |
| Données sensibles / RGPD strict | n8n (self-hosted) |
| Budget limité, volume élevé | n8n |
| Prototypage rapide | Make |
| Intégration de niche (6000+ apps) | Zapier |
Exercice : workflow cross-platform
Créez un workflow qui utilise Make ET n8n :
- →Make : scraping LinkedIn → enrichissement Clay → Google Sheet
- →n8n (self-hosted) : traitement IA des données sensibles → scoring → envoi CRM
Section 12.3.1 : Fivetran — Ingestion de données
🎯 Objectif pédagogique
Comprendre et utiliser Fivetran pour l'ingestion automatisée de données : connecter des sources de données à un data warehouse, synchroniser automatiquement, et maintenir la qualité des données.
Le problème de l'ingestion
Les données d'une entreprise sont éparpillées : CRM (HubSpot), ads (Google Ads), site (Google Analytics), support (Zendesk), facturation (Stripe). Pour les analyser ensemble, il faut les centraliser dans un data warehouse.
Fivetran : le pipeline automatique
Fivetran est un outil d'ELT (Extract, Load, Transform) qui :
- →Se connecte à 300+ sources (Stripe, HubSpot, Google Ads, Facebook Ads, Shopify...)
- →Extrait les données automatiquement (schedule configurable)
- →Les charge dans un data warehouse (BigQuery, Snowflake, Redshift)
- →Gère les schémas, les types, et les mises à jour incrémentielles
Architecture Modern Data Stack
Configuration Fivetran
- →Connecter la source (ex : HubSpot) — auth OAuth en 2 clics
- →Choisir les tables à synchroniser
- →Sélectionner le data warehouse de destination (BigQuery)
- →Définir la fréquence de sync (1h, 6h, 24h)
- →Fivetran crée automatiquement les tables dans BigQuery
Section 12.3.2 : BigQuery — Data warehouse cloud
🎯 Objectif pédagogique
Utiliser Google BigQuery comme data warehouse : charger des données, écrire des requêtes SQL sur des volumes massifs, et construire des vues analytiques.
BigQuery : le SQL à l'échelle du cloud
BigQuery est le data warehouse serverless de Google. Ses avantages :
- →Serverless : pas de serveur à gérer, pas d'infrastructure
- →Performant : requêtes sur des téraoctets en secondes
- →Économique : 1 To de stockage = 20$/mois, 1 To de requêtes = 5$
- →SQL standard : pas de nouveau langage à apprendre
Premiers pas avec BigQuery
-- Créer un dataset (= une base de données)
CREATE SCHEMA IF NOT EXISTS mon_projet;
-- Requêter les données chargées par Fivetran
SELECT
contact_email,
deal_name,
deal_amount,
deal_stage,
created_at
FROM mon_projet.hubspot_deals
WHERE deal_stage = 'Closed Won'
AND created_at >= '2025-01-01'
ORDER BY deal_amount DESC
LIMIT 100;
Fonctions BigQuery spécifiques
-- Fonctions de fenêtre (window functions)
SELECT
client,
mois,
revenue,
SUM(revenue) OVER (PARTITION BY client ORDER BY mois) AS revenue_cumule,
LAG(revenue) OVER (PARTITION BY client ORDER BY mois) AS revenue_mois_precedent
FROM mon_projet.revenue_mensuel;
-- Requêtes sur des données JSON
SELECT
JSON_VALUE(metadata, '$.utm_source') AS source,
COUNT(*) AS conversions
FROM mon_projet.events
WHERE event_type = 'purchase'
GROUP BY source
ORDER BY conversions DESC;
Section 12.3.3 : SQL avancé et modélisation
🎯 Objectif pédagogique
Maîtriser les techniques SQL avancées pour la modélisation de données : CTEs récursifs, window functions, et modélisation dimensionnelle pour l'analytics.
Window Functions : l'arme secrète du SQL
Les window functions permettent des calculs sur des groupes de lignes sans les agréger :
-- Classement des clients par CA
SELECT
client,
ca_total,
RANK() OVER (ORDER BY ca_total DESC) AS rang,
PERCENT_RANK() OVER (ORDER BY ca_total DESC) AS percentile
FROM (
SELECT client, SUM(montant) AS ca_total
FROM commandes
GROUP BY client
);
-- Moving Average (moyenne glissante 7 jours)
SELECT
date,
revenue,
AVG(revenue) OVER (
ORDER BY date
ROWS BETWEEN 6 PRECEDING AND CURRENT ROW
) AS avg_7_jours
FROM daily_revenue;
-- Comparaison mois/mois
SELECT
mois,
revenue,
LAG(revenue) OVER (ORDER BY mois) AS revenue_mois_precedent,
ROUND((revenue - LAG(revenue) OVER (ORDER BY mois)) /
LAG(revenue) OVER (ORDER BY mois) * 100, 1) AS croissance_pct
FROM monthly_revenue;
Modélisation dimensionnelle (Star Schema)
Pour l'analytics, on organise les données en star schema :
- →Table de faits (
fact_orders) : les événements mesurables (montant, quantité) - →Tables de dimensions (
dim_date,dim_customer,dim_product) : le contexte descriptif (qui, quoi, quand)
Section 12.3.4 : Cloud Functions Python et scheduling
🎯 Objectif pédagogique
Déployer des Cloud Functions Python (Google Cloud) pour exécuter du code à la demande ou sur un schedule : ETL custom, enrichissement IA, alertes automatiques.
Cloud Functions : du Python dans le cloud
Les Cloud Functions sont des morceaux de code qui s'exécutent dans le cloud sans serveur à gérer. Idéal pour :
- →Traitement de données planifié (chaque matin à 8h)
- →Webhooks (répondre à un événement)
- →ETL custom (extraction/transformation de données)
- →Enrichissement IA (appeler GPT sur un dataset)
Exemple : enrichissement IA planifié
import functions_framework
from google.cloud import bigquery
from openai import OpenAI
import os
client_bq = bigquery.Client()
client_ai = OpenAI(api_key=os.environ['OPENAI_API_KEY'])
@functions_framework.http
def enrich_leads(request):
"""Enrichit les leads non qualifiés avec GPT."""
# 1. Récupérer les leads non enrichis
query = """
SELECT id, company, industry, website
FROM analytics.leads
WHERE ai_summary IS NULL
LIMIT 50
"""
leads = list(client_bq.query(query))
# 2. Enrichir chaque lead avec GPT
for lead in leads:
prompt = f"""
Analyse cette entreprise et produis un résumé de 2 lignes
sur son potentiel comme client pour une solution IA B2B.
Entreprise: {lead.company}
Secteur: {lead.industry}
Site: {lead.website}
"""
response = client_ai.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": prompt}],
max_tokens=100
)
summary = response.choices[0].message.content
# 3. Mettre à jour BigQuery
update = f"""
UPDATE analytics.leads
SET ai_summary = '{summary.replace("'", "''")}'
WHERE id = {lead.id}
"""
client_bq.query(update)
return f"Enriched {len(leads)} leads"
Déploiement et scheduling
# Déployer la Cloud Function
gcloud functions deploy enrich_leads \
--runtime python312 \
--trigger-http \
--set-env-vars OPENAI_API_KEY=sk-xxx
# Planifier l'exécution quotidienne (Cloud Scheduler)
gcloud scheduler jobs create http enrich-daily \
--schedule "0 8 * * *" \
--uri "https://REGION-PROJECT.cloudfunctions.net/enrich_leads" \
--http-method GET
Section 12.4.1 : Google Analytics et attribution
🎯 Objectif pédagogique
Maîtriser Google Analytics 4 (GA4) pour le tracking, l'analyse de comportement utilisateur, et les modèles d'attribution marketing.
GA4 : le standard de l'analytics web
Google Analytics 4 a remplacé Universal Analytics en 2023. C'est un modèle event-based (vs page-based) qui suit les interactions utilisateur sur web et mobile.
Concepts clés GA4
Events : tout est un événement. Page view, clic, scroll, conversion — chaque interaction est un event avec des paramètres.
Users : GA4 distingue les utilisateurs actifs, nouveaux, et récurrents. Il utilise le machine learning pour estimer les parcours cross-device.
Conversions : les événements les plus importants (achat, inscription, formulaire) sont marqués comme conversions.
Modèles d'attribution
L'attribution répond à la question : "Quel canal a causé la conversion ?"
| Modèle | Logique | Quand l'utiliser |
|---|---|---|
| Last click | 100% au dernier clic | Simple mais biaisé |
| First click | 100% au premier contact | Mesurer la découverte |
| Linéaire | Parts égales à chaque touchpoint | Vue équitable |
| Data-driven (GA4) | ML détermine la contribution | Recommandé par défaut |
Section 12.4.2 : Dashboards et data storytelling
🎯 Objectif pédagogique
Concevoir des dashboards efficaces et maîtriser le data storytelling : transformer des données en histoires convaincantes qui mènent à l'action.
Les 5 règles d'un dashboard efficace
1. Un dashboard = une question : "Comment se porte notre acquisition ?" — pas 15 métriques déconnectées.
2. Hiérarchie visuelle : les KPIs les plus importants en haut et en grand. Les détails en dessous.
3. Contexte systématique : un chiffre seul ne veut rien dire. "50 leads" — c'est bien ou mal ? "50 leads (+30% vs mois dernier, objectif : 60)" — maintenant c'est clair.
4. Actionnable : chaque métrique doit mener à une action. Si vous ne pouvez rien faire avec un chiffre, ne l'affichez pas.
5. Pas de vanity metrics : les "likes" et "impressions" flattent l'ego mais ne paient pas les factures. Focalisez-vous sur les métriques business (CAC, LTV, conversion rate).
Data Storytelling
Le data storytelling transforme les données en narration :
- →Contexte : quelle est la situation ?
- →Conflit : quel est le problème ou l'opportunité ?
- →Résolution : quelle action recommandez-vous ?
Exemple :
"Notre taux de conversion site a chuté de 3.2% à 2.1% en mars (contexte). L'analyse montre que 70% des abandons viennent de la page pricing refondue le 1er mars — le temps de chargement est passé de 2s à 6s (conflit). Recommandation : rollback de la page pricing et correction du bug de performance. Impact estimé : +40% de conversions = +80K€/mois (résolution)."
Section 12.4.3 : KPIs growth et A/B testing
🎯 Objectif pédagogique
Maîtriser les KPIs essentiels du growth et mettre en place des A/B tests rigoureux pour optimiser chaque étape du funnel.
Les KPIs qui comptent
Acquisition : CAC (coût d'acquisition client), CPC, CTR, trafic par canal. Activation : taux d'inscription, time-to-value, taux de complétion onboarding. Rétention : DAU/MAU, churn rate, cohort retention. Revenue : MRR, ARPU, LTV, LTV/CAC ratio. Referral : NPS, taux de parrainage, coefficient viral.
A/B Testing : la science de l'optimisation
Un A/B test compare deux versions (A et B) pour déterminer laquelle performe mieux sur une métrique donnée.
Processus rigoureux :
- →Hypothèse : "Changer le bouton CTA de bleu à vert augmentera le taux de conversion de 5%"
- →Setup : 50% des visiteurs voient A (bleu), 50% voient B (vert)
- →Durée : minimum 2 semaines OU 1000 conversions par variante
- →Analyse : la différence est-elle statistiquement significative ? (p < 0.05)
- →Décision : si B gagne → implémenter. Si pas de différence → pas de changement.
Les erreurs classiques de l'A/B testing
- →Arrêter le test trop tôt (quand les résultats "semblent" bons)
- →Tester trop de variables à la fois
- →Ne pas calculer la taille d'échantillon nécessaire AVANT le test
- →Ignorer la segmentation (le résultat global peut masquer des différences par segment)
Section 12.4.4 : Reporting automatisé
🎯 Objectif pédagogique
Automatiser la création et la distribution de rapports analytics : connexion des données, génération automatique, et distribution par email/Slack.
Le reporting automatisé : du travail en moins
Un growth marketer passe en moyenne 4 heures par semaine à créer des rapports manuels. L'automatisation réduit ce temps à 10 minutes de configuration initiale, puis 0 minute de maintenance.
Stack de reporting automatisé
- →Données : BigQuery (centralisé par Fivetran)
- →Visualisation : Looker Studio (ex Google Data Studio) — gratuit
- →Distribution : Make → email + Slack chaque lundi à 8h
- →Alertes : Cloud Function → alerte quand un KPI dépasse un seuil
Looker Studio : dashboards connectés
Looker Studio (gratuit) se connecte directement à BigQuery, Google Sheets, GA4, et 600+ sources :
- →Créez un rapport Looker Studio
- →Connectez BigQuery comme source de données
- →Ajoutez des graphiques : scorecards (KPIs), time series (tendances), bar charts (comparaisons)
- →Configurez le rafraîchissement automatique
- →Partagez le lien avec l'équipe
Automatiser l'envoi avec Make
Scénario Make :
- →Trigger : Schedule → chaque lundi à 8h
- →Module : Google BigQuery → exécuter la requête KPIs
- →Module : ChatGPT → générer un résumé textuel des KPIs
- →Module : Gmail → envoyer le rapport par email
- →Module : Slack → poster le résumé dans le channel growth
Section 12.5.1 : Cadrage du pipeline end-to-end
🎯 Objectif pédagogique
Cadrer le projet capstone : concevoir un pipeline de données complet de bout en bout, du scraping au reporting, en intégrant toutes les compétences acquises dans le module.
Le projet : pipeline de growth automatisé
Brief : construisez un pipeline complet qui :
- →Scrape des données de prospects (Apify/Phantombuster)
- →Les enrichit (Clay/Clearbit)
- →Les stocke dans un CRM (Airtable/HubSpot)
- →Les qualifie par IA (ChatGPT scoring)
- →Les contacte automatiquement (Lemlist/Gmail)
- →Centralise les analytics (BigQuery)
- →Produit un dashboard automatisé (Looker Studio)
Architecture cible
Livrables attendus
- → Document de cadrage (1 page)
- → Architecture technique documentée
- → Flux de données schématisé
- → Liste des outils et comptes nécessaires
- → Planning de réalisation (5 jours)
Section 12.5.2 : Scraping → Enrichissement → CRM
🎯 Objectif pédagogique
Implémenter les 3 premières étapes du pipeline : collecte automatisée de prospects, enrichissement des données, et stockage dans le CRM.
Étape 1 : Scraping (Apify)
Configuration :
- →Créez un Actor Apify "Google Maps Scraper"
- →Paramètres : secteur + localisation (ex : "agences marketing Paris")
- →Résultat : nom, adresse, téléphone, site web, avis Google
- →Export : webhook vers Make
Étape 2 : Enrichissement (Clay ou Make + API)
Via Make :
- →Trigger : webhook Apify
- →Module HTTP : appel API Clearbit/Apollo avec le domaine extrait du site web
- →Résultat enrichi : taille entreprise, CA, technologies, contacts
Étape 3 : CRM (Airtable)
Via Make :
- →Module Airtable : "Create Record" dans la table Contacts
- →Mapper les champs : nom, email, entreprise, poste, taille, source="Apify"
- →Statut initial : "Prospect"
Test de validation
- → 50+ leads scrappés automatiquement
- → 80%+ taux d'enrichissement (données trouvées)
- → Tous les leads dans Airtable avec données enrichies
- → Le workflow se lance automatiquement (pas manuellement)
Section 12.5.3 : Automatisation → Reporting
🎯 Objectif pédagogique
Implémenter les étapes 4 à 7 du pipeline : scoring IA, outreach automatisé, centralisation analytics, et dashboard.
Étape 4 : Scoring IA (ChatGPT via Make)
Module OpenAI dans Make :
Prompt : "Score ce lead de 0 à 100 pour une solution [VOTRE OFFRE].
Entreprise : {company}, Secteur : {industry}, Taille : {size}
Critères : taille entreprise (20pts), secteur pertinent (30pts),
budget estimé (25pts), timing (25pts).
Retourne uniquement un JSON : {score: N, raison: 'texte court'}"
Étape 5 : Outreach (Lemlist ou Gmail via Make)
- →Filtre : score IA > 60
- →Module Lemlist : ajouter le lead à une séquence pré-configurée
- →OU Module Gmail : envoyer un email personnalisé (draft → validation humaine)
Étape 6 : Analytics (BigQuery)
- →Module Make BigQuery : insérer chaque lead traité dans une table analytics
- →Champs : date, source, score, statut, canal_outreach, résultat
Étape 7 : Dashboard (Looker Studio)
Créez un dashboard avec :
- →KPIs en haut : leads scrappés, taux d'enrichissement, score moyen, taux de réponse
- →Graphe temporel : leads par jour sur 30 jours
- →Funnel : scrappés → enrichis → qualifiés (>60) → contactés → répondus
- →Table : top 20 leads par score
Section 12.5.4 : Présentation et optimisation
🎯 Objectif pédagogique
Finaliser le projet capstone : optimiser le pipeline basé sur les premiers résultats, et présenter le système complet.
Optimisation du pipeline
Après 1 semaine de fonctionnement, analysez les métriques et optimisez :
| Métrique | Cible | Si en dessous | Action |
|---|---|---|---|
| Taux d'enrichissement | >80% | Changer de source / combiner Clay+Apollo | |
| Score moyen IA | >50 | Affiner la source de scraping | |
| Taux d'ouverture email | >40% | Améliorer les objets (A/B test) | |
| Taux de réponse | >10% | Personnalisation plus poussée | |
| Taux de conversion | >3% | Qualifier mieux les leads |
Présentation du projet
Structure du pitch (10 min) :
- →Problème (1 min) : "L'acquisition de leads B2B est manuelle, lente, et non scalable"
- →Solution (2 min) : "Un pipeline automatisé de bout en bout"
- →Démo (4 min) : montrer le flux en live (scraping → enrichissement → scoring → email)
- →Résultats (2 min) : métriques réelles (leads générés, taux, conversions)
- →Apprentissages (1 min) : ce qui a marché, ce qui n'a pas marché, améliorations futures