Retour aux articles
12 MIN READ

Loi TAKE IT DOWN : la loi américaine contre les images

By Dorian Laurenceau

📅 Dernière révision : 24 avril 2026. Mise à jour avec les retours et observations d'avril 2026.

Loi TAKE IT DOWN : la loi américaine contre les images intimes générées par l'IA

En mai 2025, les États-Unis ont promulgué la loi TAKE IT DOWN, établissant la première loi pénale fédérale ciblant spécifiquement les images intimes non consenties (NCII), y compris les deepfakes générés par l'IA. Cette législation bipartisane représente un tournant dans la lutte contre l'une des applications les plus nuisibles de la technologie d'IA générative.

Ce guide complet explique la loi, ses protections, ses mécanismes d'application et ses implications pour les individus et les plateformes.


<!-- manual-insight -->

Le Take It Down Act en contexte : ce que disent vraiment les groupes d'aide aux victimes et les avocats liberté d'expression

Le Take It Down Act a été signé en mai 2025 avec un rare soutien bipartisan. La discussion Reddit sur r/privacy, r/legaladvice et r/law reflète une réception plus nuancée que ne le suggéraient les titres, soutien large pour le but central, préoccupations substantielles sur les détails d'implémentation.

Ce que la loi fait bien :

  • Crée des pénalités pénales fédérales pour l'imagerie intime non consentie, y compris les deepfakes générés par IA. Avant ça, le NCII était un patchwork de lois d'état avec une énorme variance en protection. La Cyber Civil Rights Initiative préconisait une action fédérale depuis des années.
  • Impose un takedown plateforme dans les 48 heures d'un avis valide. C'est la disposition opérationnellement significative pour les victimes ; précédemment, faire retirer le contenu pouvait prendre des semaines.
  • Couvre explicitement les deepfakes. La montée du NCII généré par IA était un dréveur principal de la loi. Les statuts précédents souvent ne couvraient pas clairement l'imagerie synthétique.

Là où les avocats liberté d'expression soulèvent des préoccupations :

  • Les dispositions de takedown ressemblent au DMCA dans le mécanisme et créent des risques similaires pour les avis de takedown faux ou abusifs. L'analyse de l'EFF note que la fenêtre de 48 heures avec exposition de pénalité pour les plateformes incite au sur-retrait.
  • La ligne entre discours protégé et NCII interdit peut être légalement subtile, surtout pour les usages documentaires, journalistiques ou artistiques. Les carve-outs de la loi existent mais sont plus étroits que ce que préfèrent certains chercheurs du Premier Amendement.
  • L'application transfrontalière est principalement théorique. Les plateformes basées hors US sans nexus US ont une incitation limitée à se conformer.

Ce que les avocats des victimes soulignent :

  • Pour les victimes, une action rapide imparfaite bat une action lente parfaite. Le takedown de 48 heures est un changement de vie significatif pour quelqu'un dont les images intimes sont distribuées contre sa volonté. Les ressources NCII de la FTC et la CyberTipline du NCMEC sont maintenant les canaux opérationnels les plus importants.
  • La loi est plus efficace quand couplée avec les bonnes pratiques plateforme, hachage proactif du NCII connu, outils de prévention deepfake basés sur consentement, support victime intégré aux flows de signalement.
  • Le recours juridique compte encore pour une rémédiation complète. L'Act crée une responsabilité pénale ; les remèdes civils sous les lois NCII d'état restent importants pour les dommages.

Ce qui évoluera probablement :

  • Les réglementations d'implémentation clarifieront les frontières pratiques. L'Act laisse des détails substantiels au rulemaking d'agence ; le premier round de guidage FTC est où la réalité opérationnelle sera fixée.
  • Des contestations Premier Amendement sont attendues. Certaines réussiront probablement sur des marges étroites ; le cœur de l'Act est probablement constitutionnel, mais les bords seront plaidés.
  • Interaction état-fédéral. L'Act ne préempte pas les lois d'état, donc les protections d'état plus fortes restent en vigueur. Le tracker de lois deepfake de la NCSL est la meilleure carte du paysage combiné.

Le cadrage honnête : le Take It Down Act est une avancée juridique significative pour les victimes de NCII, avec des tradeoffs d'implémentation réels que les groupes libertés civiles ont raison de scrutiner. Les deux choses sont vraies.


Learn AI — From Prompts to Agents

10 Free Interactive Guides120+ Hands-On Exercises100% Free

Contexte : pourquoi cette loi est importante

L'ampleur du problème

Les images intimes non consenties constituent l'utilisation nocive la plus répandue des deepfakes :

  • On estime que 90 à 95 % des deepfakes sont des NCII
  • Les femmes et les filles sont ciblées de manière disproportionnée
  • N'importe qui peut être victime à partir de simples photos de réseaux sociaux
  • Les outils de création sont devenus largement accessibles
  • Les préjudices sont graves : traumatismes psychologiques, dommages professionnels, extorsion

Les lacunes juridiques antérieures

Avant la loi TAKE IT DOWN :

EnjeuSituation antérieure
Loi fédérale NCIIAucune n'existait
Spécifique aux deepfakesPeu de lois étatiques
Mécanisme de retraitAucun mandat fédéral
Protection des mineursCouverture variable selon les États

Ce que prévoit la loi

Sanctions pénales

La loi TAKE IT DOWN crée des infractions fédérales pour :

1. Publication d'images intimes non consenties

Éléments constitutifs :
- Publie sciemment une représentation visuelle intime
- Individu identifiable représenté
- Sans le consentement de la personne représentée
- Sait ou devrait savoir que le consentement n'a pas été donné

Sanctions :
- Jusqu'à 2 ans d'emprisonnement (adultes)
- Jusqu'à 3 ans (si un mineur est représenté)
- Amendes et indemnisation des victimes

2. Menace de publication

Éléments constitutifs :
- Menace de publier des images intimes
- Intention d'extorquer, harceler ou contraindre

Sanctions :
- Identiques à celles de la publication
- Des charges supplémentaires peuvent s'appliquer

Couverture des contenus générés par l'IA

Point crucial, la loi couvre explicitement les contenus synthétiques/générés par l'IA :

« Représentation visuelle intime » inclut toute représentation visuelle créée ou modifiée par un logiciel ou une technologie numérique, qu'elle soit réaliste ou non, qui représente les parties intimes du corps d'un individu identifiable ou représente un individu identifiable dans une conduite sexuellement explicite.

Cela signifie :

  • ✅ Deepfakes générés par l'IA couverts
  • ✅ Images retouchées/modifiées par Photoshop couvertes
  • ✅ Même les représentations non réalistes couvertes
  • ✅ Quelle que soit la technologie utilisée pour la création

Obligations de retrait des plateformes

La loi impose aux plateformes concernées :

Délai de retrait :

  • 48 heures pour supprimer après notification valide
  • S'applique aux copies identiques et « substantiellement similaires »

Plateformes concernées :

  • Plateformes de réseaux sociaux
  • Sites web avec contenu généré par les utilisateurs
  • Services d'hébergement où le contenu est accessible
  • Moteurs de recherche (pour les résultats de recherche)

Exceptions :

  • Plateformes avec moins d'1 million d'utilisateurs mensuels
  • Reportages d'actualité (journalisme de bonne foi)
  • Fins éducatives/documentaires

Exigences de notification

Les notifications de retrait valides doivent inclure :

Éléments requis de la notification :

1. Identification du contenu spécifique
2. Déclaration que le demandeur ou un mineur est représenté
3. Déclaration que le contenu est intime
4. Déclaration de non-consentement
5. Coordonnées du demandeur
6. Signature (électronique acceptée)

Les plateformes doivent fournir des mécanismes accessibles de soumission des notifications.


Qui est protégé

Adultes

Tout adulte dont les images intimes sont partagées sans consentement.

Mineurs

Protections renforcées pour les mineurs :

  • Les parents/tuteurs peuvent déposer des notifications
  • Sanctions plus lourdes pour les contrevenants
  • Croisement avec les lois existantes de protection de l'enfance
  • Traitement prioritaire pour le retrait

Note : les images de mineurs peuvent également violer d'autres lois fédérales avec des sanctions sévères.


Fonctionnement de l'application

Application fédérale

  • Le Département de la Justice peut engager des poursuites pénales
  • Le FBI enquête sur les violations
  • Coordination avec les forces de l'ordre étatiques

Recours civils

Bien que la loi TAKE IT DOWN soit pénale, les victimes disposent aussi de voies civiles :

  • DEFIANCE Act (2024) : dommages-intérêts civils pour les victimes de deepfakes
  • Lois étatiques : de nombreux États ont des statuts civils NCII
  • Actions en responsabilité civile : vie privée, détresse émotionnelle, etc.

Actions concrètes pour les victimes

Étapes pour les victimes :

1. TOUT DOCUMENTER
   - Captures d'écran avec URL et dates
   - Sauvegarder les preuves en lieu sûr
   - Documenter votre identité dans l'image

2. DÉPOSER DES NOTIFICATIONS DE RETRAIT
   - À chaque plateforme hébergeant le contenu
   - Suivre le processus de soumission de la plateforme
   - Conserver des copies de toutes les notifications

3. SIGNALER AUX FORCES DE L'ORDRE
   - Police locale + ligne d'alerte du FBI
   - Fournir toute la documentation
   - Note : la procédure pénale est distincte des retraits

4. CHERCHER DU SOUTIEN
   - Organisations d'aide aux victimes
   - Conseil juridique si nécessaire
   - Ressources en santé mentale

Obligations des plateformes

Pour les plateformes concernées

Actions requises :

  1. Mettre en place un processus de notification pour les signalements NCII
  2. Supprimer dans les 48 heures suivant une notification valide
  3. Supprimer les copies du même contenu
  4. Fournir une confirmation au demandeur

Bonnes pratiques (non obligatoires) :

  • Correspondance proactive par hachage pour empêcher la republication
  • Téléversements préventifs initiés par la victime
  • Équipes de réponse rapide pour les NCII
  • Politiques claires publiées publiquement

Protection en matière de responsabilité

Les plateformes conformes bénéficient d'une protection :

  • Exonération de responsabilité pour la conformité de bonne foi
  • Pas de responsabilité pour le contenu non supprimé avant notification
  • Protection en cas de retrait excessif par erreur (dans la mesure du raisonnable)

Sanctions en cas de non-conformité

Les plateformes ne supprimant pas le contenu dans les 48 heures s'exposent à :

  • Actions coercitives de la FTC
  • Actions des procureurs généraux des États
  • Responsabilité civile envers les victimes

Limites et critiques

Défis d'application

DéfiProblème
AnonymatLes créateurs sont souvent anonymes
JuridictionPlateformes internationales
VolumeDes millions de violations potentielles
DétectionTrouver le contenu est difficile
Jeu du chat et de la sourisLe contenu réapparaît ailleurs

Préoccupations en matière de vie privée

Certains critiques soulignent :

  • La vérification peut obliger les victimes à ré-exposer leurs images
  • Les informations de notification pourraient être instrumentalisées
  • La définition d'« intime » peut être subjective

Considérations relatives à la liberté d'expression

Équilibres à trouver :

  • Exceptions journalistiques légitimes
  • Limites de l'expression artistique
  • Questions sur le contenu satirique

Relations avec les autres lois

Paysage fédéral

LoiRelation
DEFIANCE ActComplément civil de TAKE IT DOWN
Section 230Modifiée pour la conformité NCII
Lois sur l'exploitation des enfantsS'appliquent simultanément pour les images de mineurs
Lois sur l'extorsionS'appliquent aux comportements menaçants

Lois étatiques

  • De nombreux États ont des lois NCII
  • La loi fédérale ne préempte pas les États
  • Les victimes peuvent engager les deux voies
  • Les lois étatiques prévoient souvent des recours civils

Impact depuis la promulgation

Réponses des plateformes

Les grandes plateformes ont renforcé leurs politiques NCII :

  • Processus de retrait plus rapide
  • Blocage par hachage des contenus connus
  • Téléversements préventifs pour les victimes potentielles
  • Voies de signalement dédiées

Actions coercitives

Bien qu'il soit encore tôt :

  • Le DOJ a créé un groupe de travail NCII
  • Les premières poursuites sont en cours
  • L'accent est mis sur les cas les plus graves et la dissuasion

Défis persistants

  • La diffusion clandestine se poursuit
  • L'hébergement international échappe à la juridiction
  • De nouveaux outils d'IA créent du contenu rapidement
  • La sensibilisation des victimes à leurs droits reste faible

Comment se protéger

Conseils de prévention

Réduire les risques :

□ Limiter les photos de visage/corps en haute qualité en ligne
□ Vérifier les paramètres de confidentialité sur les réseaux sociaux
□ Être prudent concernant ce que vous partagez en privé
□ Être conscient de qui a accès à vos images
□ Envisager de filigraner les photos personnelles
□ Rechercher régulièrement vos images en ligne

Si vous êtes victime

Actions immédiates :

1. Ne paniquez pas — de l'aide est disponible
2. Documentez avant que le contenu soit supprimé
3. Déposez des notifications de retrait auprès de chaque plateforme
4. Signalez sur IC3.gov (FBI Internet Crime)
5. Contactez la Cyber Civil Rights Initiative
6. Envisagez de contacter un avocat
7. Cherchez un soutien émotionnel

Ressources

  • Cyber Civil Rights Initiative : cybercivilrights.org
  • NCMEC CyberTipline : pour les victimes mineures
  • StopNCII.org : hachage préventif d'images
  • FBI IC3 : ic3.gov

Résumé des points clés

  1. La loi TAKE IT DOWN est une loi fédérale criminalisant les images intimes non consenties, y compris les deepfakes par IA

  2. Les contenus réels et synthétiques sont couverts, les deepfakes sont explicitement inclus

  3. Obligation de retrait sous 48 heures pour les plateformes recevant des notifications valides

  4. Les sanctions pénales incluent jusqu'à 2-3 ans d'emprisonnement

  5. Protections renforcées pour les mineurs avec des sanctions plus lourdes et des droits pour les parents/tuteurs

  6. Les plateformes doivent mettre en place des processus de notification et de retrait accessibles

  7. Multiples voies pour les victimes : pénal fédéral, poursuites civiles, lois étatiques, politiques des plateformes


Comprendre l'éthique et la réglementation de l'IA

La loi TAKE IT DOWN fait partie d'une évolution plus large de la réglementation de l'IA visant les préjudices causés par les médias synthétiques. Comprendre ce paysage vous aide à naviguer les dimensions éthiques et juridiques de l'IA.

Dans notre Module 8, Éthique et sécurité de l'IA, vous apprendrez :

  • Le panorama des préjudices liés à l'IA
  • Les cadres réglementaires dans différentes juridictions
  • Les principes éthiques du développement de l'IA
  • Comment créer des applications d'IA responsables
  • La détection et la prévention des deepfakes
  • La protection contre les usages abusifs de l'IA

Ces connaissances sont essentielles pour toute personne travaillant avec ou affectée par la technologie IA.

Explorer le Module 8 : Éthique et sécurité de l'IA

GO DEEPER — FREE GUIDE

Module 8 — Ethics, Security & Compliance

Navigate AI risks, prompt injection, and responsible usage.

D

Dorian Laurenceau

Full-Stack Developer & Learning Designer

Full-stack web developer and learning designer. I spent 4 years as a freelance full-stack developer and 4 years teaching React, JavaScript, HTML/CSS and WordPress to adult learners. Today I design learning paths in web development and AI, grounded in learning science. I founded learn-prompting.fr to make AI practical and accessible, and built the Bluff app to gamify political transparency.

Prompt EngineeringLLMsFull-Stack DevelopmentLearning DesignReact
Published: January 30, 2026Updated: April 24, 2026
Newsletter

Weekly AI Insights

Tools, techniques & news — curated for AI practitioners. Free, no spam.

Free, no spam. Unsubscribe anytime.

FAQ

Qu'est-ce que la loi TAKE IT DOWN ?+

Une loi fédérale américaine promulguée en 2025 qui criminalise la publication d'images intimes non consenties, y compris les deepfakes générés par l'IA. Elle oblige les plateformes à supprimer ces contenus dans les 48 heures suivant un signalement valide.

Quelles sont les sanctions prévues par la loi TAKE IT DOWN ?+

Les sanctions pénales incluent jusqu'à 2 ans de prison pour la diffusion, davantage pour les images de mineurs. Les recours civils permettent aux victimes de poursuivre en dommages-intérêts. Les plateformes s'exposent à des poursuites de la FTC en cas de non-conformité.

La loi TAKE IT DOWN couvre-t-elle les contenus générés par l'IA ?+

Oui. La loi couvre explicitement les « contrefaçons numériques », y compris les images intimes synthétiques générées par l'IA. La création et la diffusion de tels contenus sont criminalisées.

Comment les victimes signalent-elles un contenu en vertu de la loi TAKE IT DOWN ?+

Les victimes peuvent signaler directement aux plateformes, qui doivent fournir des mécanismes de signalement. Elles peuvent également contacter la CyberTipline. Les plateformes doivent supprimer le contenu dans les 48 heures et conserver les preuves.