Venezuela : quand le ‘AI Slop’ réécrit la réalité politique

Une foule en délire, des sourires figés et six doigts par main : bienvenue dans la nouvelle propagande.

Ce n’est pas une simple fausse information, c’est une hallucination collective fabriquée de toutes pièces. Une vidéo devenue virale ces derniers jours montre des milliers de Vénézuéliens acclamant le président Nicolás Maduro, célébrant une prétendue reprise économique. La musique est épique, les couleurs sont vibrantes, l’émotion semble palpable. Seul problème ? Cette foule n’existe pas. Les visages au second plan fondent comme de la cire, les drapeaux ont des motifs incohérents et la physique des mouvements défie la gravité.

Le Venezuela, déjà en proie à une crise politique majeure, devient sous nos yeux le laboratoire à ciel ouvert d’un nouveau fléau numérique : le « AI Slop ». Après les deepfakes ciblés et sophistiqués, nous entrons dans l’ère du déchet numérique de masse.

Le « AI Slop » : quand l’algorithme vomit du contenu

Le terme « AI Slop » (littéralement « bouillie d’IA ») désigne ces contenus générés à la chaîne par des intelligences artificielles génératives, caractérisés par une qualité médiocre, un effort humain minimal et un volume écrasant. Contrairement à un deepfake artisanal conçu pour tromper les experts, le slop mise sur la saturation.

Dans le cas vénézuélien, cette « bouillie » visuelle ne cherche pas la perfection. Elle inonde les réseaux sociaux (X, TikTok, Facebook) pour créer une illusion de consensus. La stratégie est simple : si vous générez 10 000 images de foules en liesse, peu importe qu’elles soient imparfaites. L’objectif est d’occuper l’espace rétinien de l’internaute et de noyer les images réelles de contestation ou de pauvreté sous un déluge de pixels synthétiques heureux.

De « Noah et Daren » aux foules fantômes

Ce n’est pas le premier coup d’essai du régime ou de ses partisans. En 2023, le gouvernement avait déjà utilisé « Noah » et « Daren », deux avatars générés par la plateforme Synthesia, pour présenter de faux journaux télévisés en anglais vantant l’économie locale. Mais nous avons franchi une étape supplémentaire.

  • Avant : Des avatars statiques lisant un texte (ciblé, « propre »).
  • Aujourd’hui : Des scènes de rue chaotiques, émotionnelles et massives (le « AI Slop »).

Cette évolution est inquiétante car elle s’attaque à l’émotion brute. Le slop ne s’adresse pas à la raison ; il vise à déclencher une réaction épidermique (joie, colère, fierté) avant que le cerveau n’ait le temps d’analyser les anomalies visuelles, comme ces mains à six doigts ou ces yeux asymétriques typiques des générateurs d’images actuels.

La stratégie de la saturation : le « Firehose of Falsehood »

L’expert en désinformation appelle cela le « Firehose of Falsehood » (la lance à incendie du mensonge). Le but n’est pas de convaincre l’opposant, mais d’épuiser l’observateur neutre. Face à des milliers de vidéos générées montrant une réalité alternative, l’utilisateur moyen finit par douter de tout, même du vrai.

Les plateformes sont dépassées. La modération humaine ne peut pas rivaliser avec des bots capables de générer des milliers de vidéos par heure. Quant aux systèmes de détection automatique (comme les filigranes numériques), ils sont encore trop facilement contournables ou absents des outils open-source utilisés pour créer ce slop.

L’avis de Just Tech

Nous assistons peut-être à la fin de la « preuve par l’image ». Jusqu’ici, nous craignions que l’IA ne nous mente avec des faux parfaits. L’ironie, c’est que le danger vient finalement d’une IA médiocre, sale et bruyante. Le « AI Slop » ne vole pas la vérité, il l’ensevelit sous les ordures. Si nous ne développons pas rapidement une hygiène numérique collective — ou des outils de traçabilité cryptographique robustes intégrés aux caméras — nous risquons de vivre dans un monde où la réalité n’est plus qu’une option parmi d’autres dans le menu d’un générateur d’images.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *