Deepfakes générés par Grok : une commission du Parlement britannique claque la porte de X

Ce n’est pas un simple « au revoir », c’est un claquement de porte qui résonne jusqu’à la Silicon Valley. La commission « Women and Equalities » (Femmes et Égalités) du Parlement britannique a officiellement désactivé son compte X (anciennement Twitter). Si les départs d’institutions sont devenus monnaie courante depuis le rachat de la plateforme par Elon Musk, celui-ci marque un tournant technologique et éthique majeur. Ce n’est plus seulement la modération des discours haineux qui est en cause, mais une capacité nouvelle et terrifiante de l’IA maison, Grok : la génération d’images pornographiques non consensuelles (deepnudes) ciblant des femmes politiques.

La goutte d’eau : quand l’IA déshabille la politique

Le divorce a été prononcé début janvier 2026. La présidente de la commission, la députée travailliste Sarah Owen, a été claire : la plateforme n’est plus un environnement sûr ni pertinent pour une instance chargée de lutter contre les violences faites aux femmes. Le déclencheur ? La prolifération, via l’outil Grok, d’images hyper-réalistes dénudant des personnalités publiques.

Contrairement aux vagues précédentes de désinformation textuelle, nous sommes ici face à une violence visuelle directe. Des utilisateurs ont massivement utilisé la fonctionnalité de génération d’images de Grok pour créer de faux clichés compromettants de députées et, plus grave encore, de mineurs. Christine Jardine, députée libérale-démocrate, a qualifié ces dérives de « goutte d’eau qui fait déborder le vase », rejoignant un exode qui inclut déjà des organisations comme le RSPB (Royal Society for the Protection of Birds) ou le quotidien The Guardian.

Grok 2.0 et FLUX.1 : la liberté au prix de la sécurité ?

Pour comprendre comment nous en sommes arrivés là, il faut ouvrir le capot de Grok. La dernière version de l’IA de xAI ne fonctionne pas en vase clos. Pour la génération d’images, elle s’appuie sur le modèle FLUX.1, développé par la start-up Black Forest Labs. Ce modèle est techniquement impressionnant, rivalisant avec Midjourney en termes de photoréalisme.

Le problème ne vient pas tant du moteur que des freins… ou de leur absence. Là où OpenAI (DALL-E) ou Google (Imagen) imposent des filtres draconiens refusant de générer des images de célébrités ou de nudité, l’approche d’Elon Musk se veut « anti-woke » et radicalement libertaire. En retirant les garde-fous habituels au nom de la liberté d’expression, xAI a transformé un outil créatif en arme de harcèlement.

  • Le précédent technique : Habituellement, les modèles d’IA sont entraînés avec une couche de sécurité (RLHF) qui « punit » le modèle s’il répond à des requêtes toxiques.
  • Le choix de X : Grok a été déployé avec des filtres minimes, permettant des requêtes explicites comme « undress » (déshabiller) sur des photos de profil existantes.

Une modération à deux vitesses jugée « insultante »

La réaction de la plateforme face au scandale a sans doute précipité le départ de la commission parlementaire. Au lieu de bloquer totalement ces capacités, X a initialement choisi de restreindre l’accès à la génération d’images aux seuls abonnés Premium. Une décision qualifiée d’« insultante » par le porte-parole du Premier ministre britannique Keir Starmer, qui a souligné que cela revenait à transformer la création d’images illégales en un service VIP payant.

Cette affaire met en lumière l’impuissance relative des régulateurs face à des modèles ouverts. L’Ofcom (le régulateur des médias britannique) a bien lancé une enquête urgente sous l’égide du nouveau Online Safety Act, mais le temps législatif est infiniment plus lent que le temps algorithmique. En quelques jours, des milliers d’images avaient déjà circulé, rendant toute tentative de suppression a posteriori illusoire.

L’avis de Just Tech

Ce départ de la commission britannique est un symptôme, pas juste une anecdote. Il illustre la fracture grandissante entre deux visions du web. D’un côté, le « Safe Web » institutionnel, aseptisé mais sécurisant. De l’autre, le « Wild Web » promu par Musk, où la puissance technologique brute prime sur la protection des individus. Chez Just Tech, nous pensons que cette affaire Grok marque la fin de l’innocence pour l’IA générative. Jusqu’ici, on craignait que l’IA ne nous vole nos emplois ; on réalise aujourd’hui qu’elle peut surtout voler notre image et notre dignité en quelques secondes. La question n’est plus de savoir si la technologie est capable de le faire (elle l’est), mais si une plateforme grand public peut survivre économiquement et moralement en offrant ce pouvoir à n’importe qui sans filtre. La réponse du Parlement britannique est un « non » retentissant.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *