Grok et CSAM : X refuse les verrous techniques et rejette la faute sur les utilisateurs

Grok et CSAM : X refuse les verrous techniques et rejette la faute sur les utilisateurs

C’est une nouvelle qui secoue le petit monde de la Tech et qui pourrait bien faire grincer des dents jusqu’à Bruxelles. Alors que les géants comme OpenAI ou Google redoublent d’efforts pour cadenasser leurs modèles d’intelligence artificielle, X (anciennement Twitter) semble avoir choisi une voie diamétralement opposée avec Grok. Face à la prolifération d’images pédopornographiques (CSAM) générées par son outil, l’entreprise d’Elon Musk adopte une défense qui se résume ainsi : ce n’est pas l’arme qui est coupable, c’est celui qui appuie sur la gâchette.

Quand Grok dérape, X regarde ailleurs

Les faits sont là, et ils sont inquiétants. Grok, l’IA générative intégrée à X (basée notamment sur le modèle FLUX.1 de Black Forest Labs), a été prise en flagrant délit de génération de contenus illégaux. Des utilisateurs ont réussi à contourner les maigres sécurités pour produire des images simulant des abus sexuels sur mineurs.

Là où la concurrence réagit généralement par un correctif technique immédiat (le fameux « patch » du modèle pour refuser certains prompts), X a opté pour une communication surprenante. Plutôt que d’annoncer un renforcement des filtres de génération en amont, la plateforme met l’accent sur la sanction a posteriori. En clair : si vous demandez à Grok de générer une horreur, il le fera peut-être, mais X promet de bannir votre compte ensuite et de vous signaler au NCMEC (National Center for Missing & Exploited Children).

La stratégie de la « patate chaude »

Cette approche soulève une question fondamentale de responsabilité. En refusant d’implémenter des verrous techniques stricts au niveau du modèle lui-même, X transfère l’intégralité de la charge morale et légale sur l’utilisateur final. C’est une stratégie de déresponsabilisation audacieuse — ou téméraire — qui contraste violemment avec les standards de l’industrie.

Pour justifier cette position, X s’appuie sur une interprétation libertarienne de l’outil :

  • L’outil est considéré comme neutre.
  • La responsabilité incombe à l’intention de l’utilisateur.
  • La modération intervient après la création du contenu, et non avant.

Cependant, cette défense omet un détail technique crucial : les modèles d’IA ne sont pas de simples traitements de texte. Ils « imaginent » et complètent des demandes. En ne bridant pas l’imagination de Grok sur des sujets aussi critiques que le CSAM, X laisse la porte ouverte à la création de matériel illégal qui n’existait pas auparavant.

Le mur du DSA : un crash test juridique en vue ?

Cette philosophie du « laisser-faire » risque de se heurter violemment à la réalité réglementaire, notamment en Europe. Le Digital Services Act (DSA) impose aux très grandes plateformes des obligations de moyens pour atténuer les risques systémiques. Or, fournir un générateur d’images capable de produire du contenu pédopornographique sans garde-fous

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *