All Guides
Intermédiaire • 100 h100 h estimées (cours, ateliers, projets)Free Guide

Growth & Data Automation

Maîtrisez Zapier, Make et n8n en 100 h. Construisez des workflows d'automatisation complexes, des pipelines de données et des systèmes CRM automatisés pour scaler votre croissance.

Section 12.1.1 : Growth mindset et stratégie d'acquisition

🎯 Objectif pédagogique

Comprendre le Growth Hacking : sa philosophie, ses frameworks d'acquisition, et comment l'IA transforme radicalement les stratégies de croissance en 2025.


Le Growth Hacking : de l'artisanat à la science

Le Growth Hacking est une approche de croissance qui combine marketing, données et expérimentation rapide. Inventé par Sean Ellis (2010), le terme décrit une discipline où chaque action est mesurée, chaque hypothèse testée, et chaque euro optimisé.

Le framework AARRR (Pirate Metrics)

Loading diagram…

Acquisition : SEO, SEA, contenus, réseaux sociaux, cold outreach. Activation : onboarding fluide, première valeur en <5 min. Rétention : emails, notifications, contenu récurrent, features sticky. Referral : programme de parrainage, viralité produit. Revenue : conversion freemium→payant, upsell, cross-sell.

Le T-shaped growth marketer

Un growth marketer efficace est T-shaped : large connaissance de tous les canaux, expertise profonde sur 2-3 :

  • Base large : SEO, ads, email, social, analytics, CRM
  • Expertise profonde : ex. scraping + automatisation, ou SEO + content

Avec l'IA, cette base large s'élargit encore : un growth marketer peut maintenant personnaliser à l'échelle, automatiser des workflows complexes, et analyser des datasets qu'il fallait un data analyst pour traiter.

Section 12.1.2 : Scraping web — Apify et Phantombuster

🎯 Objectif pédagogique

Maîtriser le web scraping avec des outils no-code (Apify, Phantombuster) pour collecter des données du web à grande échelle : leads, prix, contenus, avis.


Le web scraping : transformer le web en données

Le web scraping est l'extraction automatisée de données depuis des sites web. Pour un growth marketer, c'est l'arme secrète pour obtenir des leads, surveiller les concurrents, et collecter des données non disponibles via API.

Apify : le scraping industriel

Apify est une plateforme de scraping qui propose des "Actors" (scrapers préconstruits) pour les sites les plus populaires :

ActorDonnées extraites
Google Maps ScraperEntreprises, avis, contacts par localisation
LinkedIn Profile ScraperProfils professionnels
Amazon Product ScraperPrix, avis, classements
Instagram ScraperPosts, followers, engagement
YouTube ScraperVidéos, stats, commentaires

Workflow Apify :

  1. Choisissez un Actor sur apify.com/store
  2. Configurez les paramètres (URL cible, nombre de résultats)
  3. Lancez le scraping → les données sont exportables en JSON/CSV
  4. Automatisez avec Make (Apify a un module Make natif)

Phantombuster : le scraping LinkedIn

Phantombuster est spécialisé dans l'automatisation LinkedIn et les réseaux sociaux :

  • LinkedIn Profile Scraper : extraire les infos de profils LinkedIn
  • LinkedIn Search Export : exporter les résultats d'une recherche LinkedIn Sales Navigator
  • LinkedIn Auto Connect : envoyer des invitations personnalisées
  • Google Maps Enrichment : enrichir des listes d'entreprises

Scraping : légalité et éthique

Le scraping est légal tant que vous respectez : les CGU du site (certains l'interdisent explicitement), le RGPD (données personnelles = responsabilité), les limites de débit (ne pas surcharger le serveur), le fichier robots.txt. Pour les données personnelles (emails, profils LinkedIn), vous devez avoir une base légale (intérêt légitime en B2B).

Section 12.1.3 : Enrichissement de données

🎯 Objectif pédagogique

Maîtriser l'enrichissement de données : transformer des données brutes (email, nom d'entreprise) en profils complets avec des outils comme Clearbit, Apollo, et Clay.


L'enrichissement : de l'email au profil complet

Vous avez une liste de 500 emails prospects. Que savez-vous d'eux ? Rien. L'enrichissement transforme ces emails en profils exploitables : nom, entreprise, poste, taille entreprise, CA, technologies utilisées, réseaux sociaux.

Les outils d'enrichissement

Clay : l'enrichissement propulsé par IA

Clay est la nouvelle référence de l'enrichissement. Il combine 150+ sources de données et utilise l'IA pour :

  • Agréger les données de multiples fournisseurs (Clearbit + Apollo + LinkedIn)
  • Nettoyer et dédupliquer automatiquement
  • Qualifier les leads via GPT (scoring, segmentation)
  • Personnaliser les messages d'outreach à l'échelle

Workflow d'enrichissement type

Loading diagram…

Section 12.1.4 : Conformité RGPD et bonnes pratiques

🎯 Objectif pédagogique

Intégrer la conformité RGPD dans les pratiques de scraping et d'enrichissement : bases légales, droits des personnes, et mise en conformité opérationnelle.


RGPD et Growth : ne pas jouer avec le feu

Le scraping et l'enrichissement de données manipulent des données personnelles — soumises au RGPD. Les amendes peuvent atteindre 4% du CA mondial. La conformité n'est pas optionnelle.

Les 6 bases légales du RGPD

Pour traiter des données personnelles, vous devez avoir UNE de ces bases légales :

  1. Consentement : la personne a explicitement accepté (opt-in)
  2. Intérêt légitime : le traitement est nécessaire pour un intérêt légitime (le plus utilisé en B2B prospection)
  3. Exécution d'un contrat
  4. Obligation légale
  5. Mission de service public
  6. Intérêts vitaux

Pour la prospection B2B, l'intérêt légitime est la base habituelle, sous conditions :

  • Approche proportionnée et ciblée (pas de mass mailing)
  • Lien logique entre votre offre et l'activité du prospect
  • Opt-out facile et respecté immédiatement
  • Conservation limitée des données

Checklist RGPD pour le growth

  • Registre de traitement à jour
  • Base légale identifiée pour chaque traitement
  • Lien de désinscription dans chaque email
  • Conservation limitée (pas de données gardées indéfiniment)
  • Données stockées dans l'UE (ou garanties adéquates)
  • DPA signé avec chaque sous-traitant (Clay, Apify, etc.)

Section 12.2.1 : Airtable — CRM sur mesure

🎯 Objectif pédagogique

Construire un CRM personnalisé avec Airtable : structure de données relationnelle, vues, automatisations, et intégration dans un workflow de prospection.


Airtable : le tableur surpuissant

Airtable est un hybride entre un tableur (Google Sheets) et une base de données (SQL). Il combine la facilité d'un spreadsheet avec la puissance d'une base relationnelle.

Construire un CRM Airtable

Table 1 — Contacts :

ChampTypeUsage
NomSingle line textNom complet
EmailEmailEmail professionnel
EntrepriseLink to EntreprisesRelation
PosteSingle line textTitre du poste
StatutSingle selectProspect / Contacté / Qualifié / Client
ScoreNumberScore de qualification (1-100)
SourceSingle selectLinkedIn / Site web / Event / Referral
Date dernier contactDateSuivi temporel

Table 2 — Entreprises :

ChampTypeUsage
NomSingle line textNom de l'entreprise
SecteurSingle selectIndustrie
TailleSingle select1-10 / 11-50 / 51-200 / 200+
Site webURLLien site
ContactsLink to ContactsRelation inverse

Table 3 — Interactions :

ChampTypeUsage
ContactLink to ContactsRelation
TypeSingle selectEmail / Appel / Meeting / LinkedIn
DateDateQuand
NotesLong textRésumé
RésultatSingle selectPositif / Neutre / Négatif

Vues Airtable

  • Vue Kanban : par statut (Prospect → Contacté → Qualifié → Client)
  • Vue Calendar : suivis à faire par date
  • Vue Gallery : fiches contacts visuelles
  • Vue Form : formulaire de saisie de nouveaux contacts

Automatisations Airtable

Airtable dispose d'automatisations natives :

  • Quand un contact passe à "Qualifié" → envoyer un email
  • Quand un contact n'a pas été contacté depuis 7 jours → notification Slack
  • Quand un formulaire est rempli → créer le contact et la première interaction

Section 12.2.2 : HubSpot — Marketing automation

🎯 Objectif pédagogique

Configurer et utiliser HubSpot pour le marketing automation : workflows d'emails automatisés, lead scoring, formulaires, et nurturing des prospects.


HubSpot : l'écosystème CRM tout-en-un

HubSpot est la plateforme CRM/marketing la plus utilisée par les startups et PME. La version gratuite est déjà puissante : CRM, formulaires, emails, landing pages.

Marketing Automation : les workflows

Un workflow est une séquence d'actions automatiques déclenchées par un événement :

Exemple — Workflow de nurturing post-download :

  1. Trigger : le prospect télécharge un ebook
  2. Jour 0 : email de bienvenue + lien vers l'ebook
  3. Jour 3 : email "Pour aller plus loin" avec un article complémentaire
  4. Jour 7 : email cas client similaire à leur secteur
  5. Jour 10 : email proposition de démo (CTA fort)
  6. Si clic sur la démo → créer une tâche pour le commercial
  7. Si non ouvert x3 → arrêter le workflow

Lead Scoring HubSpot

Le lead scoring attribue des points aux contacts selon leurs actions :

ActionPoints
Visite page pricing+20
Téléchargement ebook+15
Ouverture email+5
Clic lien email+10
Formulaire de contact+30
Visite page carrières-10
Désabonnement-50

Seuils :

  • 0-30 points : Cold lead → workflow de nurturing
  • 31-60 points : Warm lead → contenu plus engageant
  • 61+ points : Hot lead → alerte commerciale

Section 12.2.3 : Lemlist et cold outreach automatisé

🎯 Objectif pédagogique

Maîtriser Lemlist pour des campagnes de cold outreach multicanal (email + LinkedIn) personnalisées par IA, avec des taux d'ouverture et de réponse optimaux.


Le cold outreach en 2025

Le cold outreach (prospection à froid) reste l'un des canaux d'acquisition B2B les plus efficaces — à condition d'être hyper-personnalisé. Les campagnes génériques ont un taux de réponse de <1%. Les campagnes personnalisées par IA atteignent 10-20%.

Lemlist : la plateforme d'outreach IA

Lemlist est une plateforme de cold outreach qui combine :

  • Email : séquences multiétapes avec suivi automatique
  • LinkedIn : automatisation des invitations et messages
  • IA : personnalisation des messages à l'échelle
  • Analytics : tracking opens, clicks, replies

Construire une séquence Lemlist

Jour 1 — Email initial (personnalisé par IA) :

Objet : {company} + IA = ?

Bonjour {firstName},

J'ai vu que {company} venait de {recent_event}. 
Félicitations !

Chez [VotreSociété], nous aidons les entreprises 
de {industry} à {bénéfice} grâce à l'IA.

[Un cas client similaire] a obtenu {résultat chiffré}.

15 min pour en discuter cette semaine ?

{signature}

Jour 3 — LinkedIn connection (si pas d'ouverture)

Jour 5 — Email follow-up 1 :

Bonjour {firstName},

Mon email précédent est peut-être passé inaperçu.

En 1 phrase : [bénéfice principal] pour les équipes 
comme la vôtre chez {company}.

Intéressé par un call de 15min ?

Jour 8 — LinkedIn message (si connecté)

Jour 12 — Email breakup :

{firstName}, je ne veux pas être insistant.

Si ce n'est pas le bon moment, aucun souci. 
Je ne vous recontacterai pas.

Si le sujet vous intéresse dans le futur, 
mon calendrier est ici : [lien Calendly]

Bonne continuation !

Section 12.2.4 : Zapier, Make et n8n — Orchestration

🎯 Objectif pédagogique

Orchestrer des workflows complexes en combinant Zapier, Make et n8n pour créer des automatisations multiplateforme robustes.


L'écosystème d'orchestration

Chaque outil a ses forces. Les power users combinent plusieurs outils pour obtenir le meilleur de chacun.

n8n : l'alternative open source

n8n est une plateforme d'automatisation open source et self-hosted. Contrairement à Make et Zapier :

  • Self-hosted : vos données restent chez vous (RGPD-friendly)
  • Open source : gratuit à héberger, code source modifiable
  • Nodes personnalisés : créez vos propres intégrations en JavaScript
  • Pas de limites : pas de quota d'exécutions (vous payez l'hébergement)

Quand utiliser quoi ?

ScénarioOutil recommandé
Workflow simple (2-3 étapes)Zapier
Workflow complexe avec branchementsMake
Données sensibles / RGPD strictn8n (self-hosted)
Budget limité, volume élevén8n
Prototypage rapideMake
Intégration de niche (6000+ apps)Zapier

Exercice : workflow cross-platform

Créez un workflow qui utilise Make ET n8n :

  1. Make : scraping LinkedIn → enrichissement Clay → Google Sheet
  2. n8n (self-hosted) : traitement IA des données sensibles → scoring → envoi CRM

Section 12.3.1 : Fivetran — Ingestion de données

🎯 Objectif pédagogique

Comprendre et utiliser Fivetran pour l'ingestion automatisée de données : connecter des sources de données à un data warehouse, synchroniser automatiquement, et maintenir la qualité des données.


Le problème de l'ingestion

Les données d'une entreprise sont éparpillées : CRM (HubSpot), ads (Google Ads), site (Google Analytics), support (Zendesk), facturation (Stripe). Pour les analyser ensemble, il faut les centraliser dans un data warehouse.

Fivetran : le pipeline automatique

Fivetran est un outil d'ELT (Extract, Load, Transform) qui :

  • Se connecte à 300+ sources (Stripe, HubSpot, Google Ads, Facebook Ads, Shopify...)
  • Extrait les données automatiquement (schedule configurable)
  • Les charge dans un data warehouse (BigQuery, Snowflake, Redshift)
  • Gère les schémas, les types, et les mises à jour incrémentielles

Architecture Modern Data Stack

Loading diagram…

Configuration Fivetran

  1. Connecter la source (ex : HubSpot) — auth OAuth en 2 clics
  2. Choisir les tables à synchroniser
  3. Sélectionner le data warehouse de destination (BigQuery)
  4. Définir la fréquence de sync (1h, 6h, 24h)
  5. Fivetran crée automatiquement les tables dans BigQuery

Section 12.3.2 : BigQuery — Data warehouse cloud

🎯 Objectif pédagogique

Utiliser Google BigQuery comme data warehouse : charger des données, écrire des requêtes SQL sur des volumes massifs, et construire des vues analytiques.


BigQuery : le SQL à l'échelle du cloud

BigQuery est le data warehouse serverless de Google. Ses avantages :

  • Serverless : pas de serveur à gérer, pas d'infrastructure
  • Performant : requêtes sur des téraoctets en secondes
  • Économique : 1 To de stockage = 20$/mois, 1 To de requêtes = 5$
  • SQL standard : pas de nouveau langage à apprendre

Premiers pas avec BigQuery

-- Créer un dataset (= une base de données)
CREATE SCHEMA IF NOT EXISTS mon_projet;

-- Requêter les données chargées par Fivetran
SELECT 
    contact_email,
    deal_name,
    deal_amount,
    deal_stage,
    created_at
FROM mon_projet.hubspot_deals
WHERE deal_stage = 'Closed Won'
  AND created_at >= '2025-01-01'
ORDER BY deal_amount DESC
LIMIT 100;

Fonctions BigQuery spécifiques

-- Fonctions de fenêtre (window functions)
SELECT 
    client,
    mois,
    revenue,
    SUM(revenue) OVER (PARTITION BY client ORDER BY mois) AS revenue_cumule,
    LAG(revenue) OVER (PARTITION BY client ORDER BY mois) AS revenue_mois_precedent
FROM mon_projet.revenue_mensuel;

-- Requêtes sur des données JSON
SELECT 
    JSON_VALUE(metadata, '$.utm_source') AS source,
    COUNT(*) AS conversions
FROM mon_projet.events
WHERE event_type = 'purchase'
GROUP BY source
ORDER BY conversions DESC;

Section 12.3.3 : SQL avancé et modélisation

🎯 Objectif pédagogique

Maîtriser les techniques SQL avancées pour la modélisation de données : CTEs récursifs, window functions, et modélisation dimensionnelle pour l'analytics.


Window Functions : l'arme secrète du SQL

Les window functions permettent des calculs sur des groupes de lignes sans les agréger :

-- Classement des clients par CA
SELECT 
    client,
    ca_total,
    RANK() OVER (ORDER BY ca_total DESC) AS rang,
    PERCENT_RANK() OVER (ORDER BY ca_total DESC) AS percentile
FROM (
    SELECT client, SUM(montant) AS ca_total
    FROM commandes
    GROUP BY client
);

-- Moving Average (moyenne glissante 7 jours)
SELECT 
    date,
    revenue,
    AVG(revenue) OVER (
        ORDER BY date 
        ROWS BETWEEN 6 PRECEDING AND CURRENT ROW
    ) AS avg_7_jours
FROM daily_revenue;

-- Comparaison mois/mois
SELECT 
    mois,
    revenue,
    LAG(revenue) OVER (ORDER BY mois) AS revenue_mois_precedent,
    ROUND((revenue - LAG(revenue) OVER (ORDER BY mois)) / 
          LAG(revenue) OVER (ORDER BY mois) * 100, 1) AS croissance_pct
FROM monthly_revenue;

Modélisation dimensionnelle (Star Schema)

Pour l'analytics, on organise les données en star schema :

Loading diagram…
  • Table de faits (fact_orders) : les événements mesurables (montant, quantité)
  • Tables de dimensions (dim_date, dim_customer, dim_product) : le contexte descriptif (qui, quoi, quand)

Section 12.3.4 : Cloud Functions Python et scheduling

🎯 Objectif pédagogique

Déployer des Cloud Functions Python (Google Cloud) pour exécuter du code à la demande ou sur un schedule : ETL custom, enrichissement IA, alertes automatiques.


Cloud Functions : du Python dans le cloud

Les Cloud Functions sont des morceaux de code qui s'exécutent dans le cloud sans serveur à gérer. Idéal pour :

  • Traitement de données planifié (chaque matin à 8h)
  • Webhooks (répondre à un événement)
  • ETL custom (extraction/transformation de données)
  • Enrichissement IA (appeler GPT sur un dataset)

Exemple : enrichissement IA planifié

import functions_framework
from google.cloud import bigquery
from openai import OpenAI
import os

client_bq = bigquery.Client()
client_ai = OpenAI(api_key=os.environ['OPENAI_API_KEY'])

@functions_framework.http
def enrich_leads(request):
    """Enrichit les leads non qualifiés avec GPT."""
    
    # 1. Récupérer les leads non enrichis
    query = """
        SELECT id, company, industry, website
        FROM analytics.leads
        WHERE ai_summary IS NULL
        LIMIT 50
    """
    leads = list(client_bq.query(query))
    
    # 2. Enrichir chaque lead avec GPT
    for lead in leads:
        prompt = f"""
        Analyse cette entreprise et produis un résumé de 2 lignes 
        sur son potentiel comme client pour une solution IA B2B.
        
        Entreprise: {lead.company}
        Secteur: {lead.industry}
        Site: {lead.website}
        """
        
        response = client_ai.chat.completions.create(
            model="gpt-4o-mini",
            messages=[{"role": "user", "content": prompt}],
            max_tokens=100
        )
        
        summary = response.choices[0].message.content
        
        # 3. Mettre à jour BigQuery
        update = f"""
            UPDATE analytics.leads 
            SET ai_summary = '{summary.replace("'", "''")}'
            WHERE id = {lead.id}
        """
        client_bq.query(update)
    
    return f"Enriched {len(leads)} leads"

Déploiement et scheduling

# Déployer la Cloud Function
gcloud functions deploy enrich_leads \
    --runtime python312 \
    --trigger-http \
    --set-env-vars OPENAI_API_KEY=sk-xxx

# Planifier l'exécution quotidienne (Cloud Scheduler)
gcloud scheduler jobs create http enrich-daily \
    --schedule "0 8 * * *" \
    --uri "https://REGION-PROJECT.cloudfunctions.net/enrich_leads" \
    --http-method GET

Section 12.4.1 : Google Analytics et attribution

🎯 Objectif pédagogique

Maîtriser Google Analytics 4 (GA4) pour le tracking, l'analyse de comportement utilisateur, et les modèles d'attribution marketing.


GA4 : le standard de l'analytics web

Google Analytics 4 a remplacé Universal Analytics en 2023. C'est un modèle event-based (vs page-based) qui suit les interactions utilisateur sur web et mobile.

Concepts clés GA4

Events : tout est un événement. Page view, clic, scroll, conversion — chaque interaction est un event avec des paramètres.

Users : GA4 distingue les utilisateurs actifs, nouveaux, et récurrents. Il utilise le machine learning pour estimer les parcours cross-device.

Conversions : les événements les plus importants (achat, inscription, formulaire) sont marqués comme conversions.

Modèles d'attribution

L'attribution répond à la question : "Quel canal a causé la conversion ?"

ModèleLogiqueQuand l'utiliser
Last click100% au dernier clicSimple mais biaisé
First click100% au premier contactMesurer la découverte
LinéaireParts égales à chaque touchpointVue équitable
Data-driven (GA4)ML détermine la contributionRecommandé par défaut

Section 12.4.2 : Dashboards et data storytelling

🎯 Objectif pédagogique

Concevoir des dashboards efficaces et maîtriser le data storytelling : transformer des données en histoires convaincantes qui mènent à l'action.


Les 5 règles d'un dashboard efficace

1. Un dashboard = une question : "Comment se porte notre acquisition ?" — pas 15 métriques déconnectées.

2. Hiérarchie visuelle : les KPIs les plus importants en haut et en grand. Les détails en dessous.

3. Contexte systématique : un chiffre seul ne veut rien dire. "50 leads" — c'est bien ou mal ? "50 leads (+30% vs mois dernier, objectif : 60)" — maintenant c'est clair.

4. Actionnable : chaque métrique doit mener à une action. Si vous ne pouvez rien faire avec un chiffre, ne l'affichez pas.

5. Pas de vanity metrics : les "likes" et "impressions" flattent l'ego mais ne paient pas les factures. Focalisez-vous sur les métriques business (CAC, LTV, conversion rate).

Data Storytelling

Le data storytelling transforme les données en narration :

  1. Contexte : quelle est la situation ?
  2. Conflit : quel est le problème ou l'opportunité ?
  3. Résolution : quelle action recommandez-vous ?

Exemple :

"Notre taux de conversion site a chuté de 3.2% à 2.1% en mars (contexte). L'analyse montre que 70% des abandons viennent de la page pricing refondue le 1er mars — le temps de chargement est passé de 2s à 6s (conflit). Recommandation : rollback de la page pricing et correction du bug de performance. Impact estimé : +40% de conversions = +80K€/mois (résolution)."

Section 12.4.3 : KPIs growth et A/B testing

🎯 Objectif pédagogique

Maîtriser les KPIs essentiels du growth et mettre en place des A/B tests rigoureux pour optimiser chaque étape du funnel.


Les KPIs qui comptent

Acquisition : CAC (coût d'acquisition client), CPC, CTR, trafic par canal. Activation : taux d'inscription, time-to-value, taux de complétion onboarding. Rétention : DAU/MAU, churn rate, cohort retention. Revenue : MRR, ARPU, LTV, LTV/CAC ratio. Referral : NPS, taux de parrainage, coefficient viral.

A/B Testing : la science de l'optimisation

Un A/B test compare deux versions (A et B) pour déterminer laquelle performe mieux sur une métrique donnée.

Processus rigoureux :

  1. Hypothèse : "Changer le bouton CTA de bleu à vert augmentera le taux de conversion de 5%"
  2. Setup : 50% des visiteurs voient A (bleu), 50% voient B (vert)
  3. Durée : minimum 2 semaines OU 1000 conversions par variante
  4. Analyse : la différence est-elle statistiquement significative ? (p < 0.05)
  5. Décision : si B gagne → implémenter. Si pas de différence → pas de changement.

Les erreurs classiques de l'A/B testing

  • Arrêter le test trop tôt (quand les résultats "semblent" bons)
  • Tester trop de variables à la fois
  • Ne pas calculer la taille d'échantillon nécessaire AVANT le test
  • Ignorer la segmentation (le résultat global peut masquer des différences par segment)

Section 12.4.4 : Reporting automatisé

🎯 Objectif pédagogique

Automatiser la création et la distribution de rapports analytics : connexion des données, génération automatique, et distribution par email/Slack.


Le reporting automatisé : du travail en moins

Un growth marketer passe en moyenne 4 heures par semaine à créer des rapports manuels. L'automatisation réduit ce temps à 10 minutes de configuration initiale, puis 0 minute de maintenance.

Stack de reporting automatisé

  1. Données : BigQuery (centralisé par Fivetran)
  2. Visualisation : Looker Studio (ex Google Data Studio) — gratuit
  3. Distribution : Make → email + Slack chaque lundi à 8h
  4. Alertes : Cloud Function → alerte quand un KPI dépasse un seuil

Looker Studio : dashboards connectés

Looker Studio (gratuit) se connecte directement à BigQuery, Google Sheets, GA4, et 600+ sources :

  1. Créez un rapport Looker Studio
  2. Connectez BigQuery comme source de données
  3. Ajoutez des graphiques : scorecards (KPIs), time series (tendances), bar charts (comparaisons)
  4. Configurez le rafraîchissement automatique
  5. Partagez le lien avec l'équipe

Automatiser l'envoi avec Make

Scénario Make :

  1. Trigger : Schedule → chaque lundi à 8h
  2. Module : Google BigQuery → exécuter la requête KPIs
  3. Module : ChatGPT → générer un résumé textuel des KPIs
  4. Module : Gmail → envoyer le rapport par email
  5. Module : Slack → poster le résumé dans le channel growth

Section 12.5.1 : Cadrage du pipeline end-to-end

🎯 Objectif pédagogique

Cadrer le projet capstone : concevoir un pipeline de données complet de bout en bout, du scraping au reporting, en intégrant toutes les compétences acquises dans le module.


Le projet : pipeline de growth automatisé

Brief : construisez un pipeline complet qui :

  1. Scrape des données de prospects (Apify/Phantombuster)
  2. Les enrichit (Clay/Clearbit)
  3. Les stocke dans un CRM (Airtable/HubSpot)
  4. Les qualifie par IA (ChatGPT scoring)
  5. Les contacte automatiquement (Lemlist/Gmail)
  6. Centralise les analytics (BigQuery)
  7. Produit un dashboard automatisé (Looker Studio)

Architecture cible

Loading diagram…

Livrables attendus

  • Document de cadrage (1 page)
  • Architecture technique documentée
  • Flux de données schématisé
  • Liste des outils et comptes nécessaires
  • Planning de réalisation (5 jours)

Section 12.5.2 : Scraping → Enrichissement → CRM

🎯 Objectif pédagogique

Implémenter les 3 premières étapes du pipeline : collecte automatisée de prospects, enrichissement des données, et stockage dans le CRM.


Étape 1 : Scraping (Apify)

Configuration :

  1. Créez un Actor Apify "Google Maps Scraper"
  2. Paramètres : secteur + localisation (ex : "agences marketing Paris")
  3. Résultat : nom, adresse, téléphone, site web, avis Google
  4. Export : webhook vers Make

Étape 2 : Enrichissement (Clay ou Make + API)

Via Make :

  1. Trigger : webhook Apify
  2. Module HTTP : appel API Clearbit/Apollo avec le domaine extrait du site web
  3. Résultat enrichi : taille entreprise, CA, technologies, contacts

Étape 3 : CRM (Airtable)

Via Make :

  1. Module Airtable : "Create Record" dans la table Contacts
  2. Mapper les champs : nom, email, entreprise, poste, taille, source="Apify"
  3. Statut initial : "Prospect"

Test de validation

  • 50+ leads scrappés automatiquement
  • 80%+ taux d'enrichissement (données trouvées)
  • Tous les leads dans Airtable avec données enrichies
  • Le workflow se lance automatiquement (pas manuellement)

Section 12.5.3 : Automatisation → Reporting

🎯 Objectif pédagogique

Implémenter les étapes 4 à 7 du pipeline : scoring IA, outreach automatisé, centralisation analytics, et dashboard.


Étape 4 : Scoring IA (ChatGPT via Make)

Module OpenAI dans Make :
Prompt : "Score ce lead de 0 à 100 pour une solution [VOTRE OFFRE].
Entreprise : {company}, Secteur : {industry}, Taille : {size}
Critères : taille entreprise (20pts), secteur pertinent (30pts), 
budget estimé (25pts), timing (25pts).
Retourne uniquement un JSON : {score: N, raison: 'texte court'}"

Étape 5 : Outreach (Lemlist ou Gmail via Make)

  • Filtre : score IA > 60
  • Module Lemlist : ajouter le lead à une séquence pré-configurée
  • OU Module Gmail : envoyer un email personnalisé (draft → validation humaine)

Étape 6 : Analytics (BigQuery)

  • Module Make BigQuery : insérer chaque lead traité dans une table analytics
  • Champs : date, source, score, statut, canal_outreach, résultat

Étape 7 : Dashboard (Looker Studio)

Créez un dashboard avec :

  • KPIs en haut : leads scrappés, taux d'enrichissement, score moyen, taux de réponse
  • Graphe temporel : leads par jour sur 30 jours
  • Funnel : scrappés → enrichis → qualifiés (>60) → contactés → répondus
  • Table : top 20 leads par score

Section 12.5.4 : Présentation et optimisation

🎯 Objectif pédagogique

Finaliser le projet capstone : optimiser le pipeline basé sur les premiers résultats, et présenter le système complet.


Optimisation du pipeline

Après 1 semaine de fonctionnement, analysez les métriques et optimisez :

MétriqueCibleSi en dessousAction
Taux d'enrichissement>80%Changer de source / combiner Clay+Apollo
Score moyen IA>50Affiner la source de scraping
Taux d'ouverture email>40%Améliorer les objets (A/B test)
Taux de réponse>10%Personnalisation plus poussée
Taux de conversion>3%Qualifier mieux les leads

Présentation du projet

Structure du pitch (10 min) :

  1. Problème (1 min) : "L'acquisition de leads B2B est manuelle, lente, et non scalable"
  2. Solution (2 min) : "Un pipeline automatisé de bout en bout"
  3. Démo (4 min) : montrer le flux en live (scraping → enrichissement → scoring → email)
  4. Résultats (2 min) : métriques réelles (leads générés, taux, conversions)
  5. Apprentissages (1 min) : ce qui a marché, ce qui n'a pas marché, améliorations futures

Learn AI — From Prompts to Agents

10 Free Interactive Guides120+ Hands-On Exercises100% Free
GO DEEPER — FREE GUIDE

Web Development & AI Software

200h to become a full-stack developer: Ruby, Rails, JavaScript, SQL, then integrate AI into deployed web applications. Free course.

Newsletter

Weekly AI Insights

Tools, techniques & news — curated for AI practitioners. Free, no spam.

Free, no spam. Unsubscribe anytime.