Grok et le scandale des deepfakes pornographiques : X face à la colère des régulateurs

C’était la promesse d’Elon Musk : une intelligence artificielle « anti-woke », rebelle et libérée des chaînes de la censure bien-pensante. En ce début d’année 2026, la promesse s’est transformée en cauchemar de relations publiques et en champ de mines juridique. Grok, l’IA générative intégrée à X (anciennement Twitter), est au cœur d’une tempête mondiale après avoir été massivement détournée pour créer des images pornographiques non consensuelles (NCII), ciblant aussi bien des célébrités que des anonymes, et même des mineurs.

Face à la déferlante de contenus « déshabillés » (undressing) inondant la plateforme, les régulateurs britanniques et australiens ne se contentent plus d’avertissements. Ils menacent de sanctions financières records, posant une question existentielle pour la Silicon Valley : la liberté technologique absolue est-elle compatible avec la sécurité des personnes ?

Le moteur du chaos : FLUX.1 et la « liberté » sans filtre

Pour comprendre l’ampleur du désastre, il faut soulever le capot. Depuis août 2024, Grok intègre FLUX.1, un modèle de génération d’images développé par la start-up Black Forest Labs. Contrairement à DALL-E 3 (OpenAI) ou Midjourney, qui intègrent des filtres de sécurité draconiens refusant de générer des images de personnes réelles ou du contenu NSFW (Not Safe For Work), FLUX.1 a été conçu avec une philosophie d’ouverture quasi totale.

Le résultat technique est aussi impressionnant qu’effrayant. Là où ChatGPT bloquerait immédiatement une requête demandant de « déshabiller » une femme sur une photo, Grok s’exécute souvent sans broncher. Des tests menés par des chercheurs et relayés par Wired ont montré qu’il suffisait de prompts basiques pour générer des images hyper-réalistes de violence sexuelle ou de pédopornographie simulée. Ce n’est pas un « jailbreak » complexe (une manipulation pour contourner la sécurité), mais une fonctionnalité native du système qui répond à la vision libertaire de Musk.

La riposte réglementaire : Londres et Canberra sortent les dents

La réaction politique a été foudroyante, marquant un tournant dans la régulation numérique. Ce ne sont plus seulement les « fausses nouvelles » qui sont visées, mais la création active de matériel d’abus sexuel par une plateforme grand public.

Australie : l’eSafety Commissioner en première ligne

En Australie, la régulatrice de l’eSafety, Julie Inman Grant, a révélé une explosion des signalements. Selon ses services, les rapports concernant l’utilisation de Grok pour générer des images sexualisées sans consentement ont doublé en quelques mois. L’Australie, pionnière dans la lutte contre les abus basés sur l’image, a ouvert une enquête formelle. Si X ne parvient pas à endiguer ce flux, la plateforme s’expose à des amendes civiles massives pour manquement à son devoir de diligence.

Royaume-Uni : le test de l’Online Safety Act

Outre-Manche, la situation est encore plus critique pour X. Le Royaume-Uni a récemment mis en vigueur son Online Safety Act, une législation musclée qui rend les plateformes pénalement responsables de la sécurité de leurs utilisateurs, en particulier des enfants. L’Ofcom, le régulateur britannique, a exigé des explications immédiates sur la capacité de Grok à générer des images d’abus sexuels sur mineurs (CSAM).

Les enjeux financiers sont colossaux : la loi prévoit des amendes pouvant atteindre 18 millions de livres sterling ou 10 % du chiffre d’affaires mondial de l’entreprise. Le Premier ministre Keir Starmer a qualifié la situation de « disgracieuse », signalant que l’époque de l’impunité pour les géants de la Tech était révolue.

La défense de X : un « paywall » comme seul rempart ?

Face à la fronde mondiale, la réponse de X a été jugée cynique par de nombreux observateurs. Au lieu de revoir l’architecture de modération de son modèle, l’entreprise a choisi de restreindre l’accès à la génération d’images aux seuls abonnés payants (Premium et Premium+). L’argument officiel est de lier l’utilisation de l’outil à une identité vérifiée (via le moyen de paiement) pour dissuader les abus.

Cependant, cette mesure a provoqué l’ire des associations de protection de l’enfance. En effet, transformer une machine à fabriquer des deepfakes pornographiques en une fonctionnalité « réservée aux abonnés » revient, selon les critiques, à monétiser l’abus. Cela ne résout en rien le problème fondamental : l’outil peut techniquement créer ces images, et il suffit désormais de payer 8 dollars par mois pour devenir un prédateur numérique assisté par IA.

L’analyse : le mythe de la neutralité de l’outil

Ce scandale met en lumière une faille structurelle dans la stratégie d’Elon Musk. En licenciant la quasi-totalité des équipes d’éthique et de modération (Trust and Safety) lors du rachat de Twitter, et en prônant une liberté d’expression absolue, il a retiré les garde-fous humains et algorithmiques nécessaires à la gestion d’une IA générative.

Juridiquement, le statut de X change. La plateforme ne se contente plus d’héberger du contenu tiers (ce qui la protégeait traditionnellement sous des lois comme la Section 230 aux USA) ; elle crée le contenu via Grok. Si l’IA de X génère une image illégale, X en est l’auteur technique. C’est un changement de paradigme qui pourrait exposer l’entreprise à des poursuites directes, non plus pour négligence de modération, mais pour complicité de production de matériel illicite.

L’avis de Just Tech

Au-delà du cas spécifique de Grok, cette affaire marque la fin de l’innocence pour l’IA open-weight et les modèles peu bridés. Jusqu’ici, l’argument technologique consistait à dire que l’outil est neutre et que seul l’utilisateur est responsable de son usage. Les régulateurs sont en train de siffler la fin de cette récréation.

Nous entrons dans une ère où la « sécurité dès la conception » (safety by design) ne sera plus une option éthique, mais une obligation légale de survie. Si X persiste à vouloir offrir une IA sans filtre dans un monde réglementé, l’entreprise risque non seulement des amendes qui dépassent ses revenus publicitaires actuels, mais aussi un bannissement pur et simple dans certaines juridictions. La question que nous posons est la suivante : sommes-nous prêts à accepter que nos outils créatifs soient bridés par défaut pour protéger les plus vulnérables, ou existe-t-il une voie médiane entre la censure algorithmique et le chaos numérique actuel ? Pour l’instant, Grok a choisi le chaos, et la facture s’annonce salée.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *