Le rêve libertaire d’Elon Musk vire au cauchemar judiciaire
Elon Musk avait promis une intelligence artificielle « rebelle », libérée du « virus woke » qui, selon lui, bridait ses concurrents comme ChatGPT. En janvier 2026, la promesse s’est transformée en un bourbier juridique international. Grok, l’IA générative intégrée au réseau social X (anciennement Twitter), est aujourd’hui ciblée par une série d’enquêtes gouvernementales coordonnées. En cause ? Une prolifération incontrôlée de deepfakes pornographiques non consensuels (NCII), ciblant aussi bien des célébrités que des mineurs.
Ce qui devait être une démonstration de liberté d’expression absolue s’est heurté violemment à la réalité du droit pénal : en Californie, au Royaume-Uni et en France, la justice ne voit pas d’un bon œil la « nudification » automatisée des utilisateurs.
Flux.1 : Le moteur sous le capot qui a tout changé
Pour comprendre l’ampleur du désastre, il faut regarder la mécanique. Contrairement à OpenAI ou Google qui développent leurs modèles en interne avec des filtres de sécurité stricts (et parfois jugés excessifs), xAI a fait le choix de la puissance brute. Grok intègre Flux.1, un modèle open-source développé par la start-up Black Forest Labs.
Reconnu pour son réalisme époustouflant, Flux.1 a été intégré à X avec un minimum de garde-fous. Le résultat a été immédiat et catastrophique :
- Génération massive d’images d’abus sexuels sur mineurs (CSAM).
- Détournement pornographique de personnalités politiques (de Kamala Harris à Donald Trump).
- Création d’outils de « nudification » accessibles en quelques clics via des prompts simplistes.
Là où Midjourney refuserait catégoriquement de générer une image compromettante d’une personne réelle, Grok s’est contenté, pendant des semaines, de s’exécuter.
L’étau judiciaire se resserre : Rob Bonta et l’Europe en première ligne
La réaction des autorités ne s’est pas fait attendre et elle est d’une sévérité inédite. En ce début d’année 2026, c’est une véritable coalition judiciaire qui se dresse face à xAI.
L’offensive californienne
C’est un coup dur venu de « la maison ». Le procureur général de Californie, Rob Bonta, a officiellement ouvert une enquête pour violation des lois sur la décence et la pédopornographie. Dans une lettre vitriolée adressée à la direction de X, il dénonce une « production à grande échelle » de matériel illégal. Le message est clair : l’innovation technologique ne constitue pas une immunité diplomatique contre le code pénal.
L’Europe et le Royaume-Uni sortent l’artillerie lourde
De l’autre côté de l’Atlantique, la situation est tout aussi critique pour Musk :
- Royaume-Uni : L’Ofcom a lancé une enquête formelle sous l’égide de l’Online Safety Act. La ministre Liz Kendall a qualifié la situation d’« épouvantable », soulignant que X pourrait être tenu pénalement responsable des images générées.
- Union Européenne : La Commission Européenne a ordonné à X de conserver toutes les données relatives à Grok. Sous le coup du Digital Services Act (DSA), la plateforme risque des amendes pouvant atteindre 6 % de son chiffre d’affaires mondial si elle échoue à modérer ces contenus illicites.
- France : Le parquet de Paris a élargi ses investigations existantes sur X pour y inclure spécifiquement la génération de deepfakes par Grok.
La « monétisation de l’abus » comme seule défense ?
Face au tollé, la réponse d’Elon Musk a été pour le moins cynique. Au lieu de renforcer drastiquement les filtres de modération au niveau du modèle, X a choisi de restreindre la génération d’images aux seuls abonnés payants (Premium et Premium+).
Cette stratégie a provoqué la colère des régulateurs. Restreindre l’accès à un outil illégal ne le rend pas légal ; cela revient simplement, selon les mots de la ministre britannique Liz Kendall, à « monétiser l’abus ». En transformant la capacité de nuisance en privilège d’abonnement, X a potentiellement aggravé son cas juridique, passant du statut d’hébergeur négligent à celui de distributeur commercial de contenus illicites.
L’avis de Just Tech
L’affaire Grok marque un tournant décisif dans l’histoire de l’IA générative. Jusqu’ici, le débat opposait souvent la sécurité à la créativité. Aujourd’hui, Elon Musk a prouvé par l’absurde que l’absence de régulation interne mène inévitablement à l’abus. En voulant libérer l’IA des chaînes du « politiquement correct », xAI a surtout libéré les pulsions les plus toxiques du web.
Au-delà du cas Musk, cette crise pose une question fondamentale pour l’avenir de l’open-source : peut-on laisser des modèles aussi puissants que Flux.1 en libre accès sur des plateformes grand public sans supervision humaine ? Si la technologie est neutre, son intégration commerciale ne l’est jamais. En refusant d’assumer son rôle d’éditeur, X force les gouvernements à intervenir, risquant de provoquer un durcissement législatif qui pourrait, ironiquement, brider l’innovation pour tout le monde. La liberté totale de l’IA s’arrête-t-elle là où commence la dignité numérique des citoyens ? La justice semble avoir déjà tranché.







