L’avènement de la Justice 2.0 : quand l’algorithme remplace le juge
L’ère de la Justice 2.0 a sonné, et elle n’a rien d’une utopie technologique. Dans les heures qui ont suivi la mort tragique de Renee Good à Minneapolis en janvier 2026, une armée de détectives amateurs s’est emparée des réseaux sociaux. Armés d’outils d’intelligence artificielle autrefois réservés aux laboratoires de police scientifique, ces « internet sleuths » ont entrepris de « nettoyer » les images granuleuses des caméras de surveillance pour identifier le tireur. Mais derrière l’apparente précision des pixels recalculés se cache un mécanisme redoutable : la hallucination algorithmique mise au service du lynchage numérique.
Justice 2.0 : l’illusion d’une vérité algorithmique
Le cas de Renee Good illustre parfaitement la dérive de l’OSINT (Open Source Intelligence) amateur. Alors que les autorités fédérales maintenaient un silence prudent sur l’identité de l’agent impliqué, des communautés sur TikTok et Reddit ont publié des versions « améliorées » par IA de la scène. En utilisant des logiciels d’upscaling (mise à l’échelle), ces internautes ont cru voir des détails invisibles à l’œil nu. Le résultat fut immédiat et dévastateur : l’identification erronée d’un agent fédéral totalement étranger à l’affaire.
Le problème fondamental réside dans la perception de l’outil. Pour le grand public, une image nette est synonyme de vérité. Pourtant, techniquement, l’IA ne « restaure » pas une image ; elle la réinvente. Voici pourquoi cette technologie est structurellement inadaptée à l’enquête criminelle amateur :
- La création de données ex nihilo : Les algorithmes de traitement d’image comblent les manques d’information en piochant dans leur base de données d’entraînement. Un grain de poussière peut devenir un grain de beauté ; un reflet peut être interprété comme une cicatrice.
- Le biais de confirmation : L’enquêteur amateur cherche souvent à valider une théorie préexistante. L’IA, par sa malléabilité, finit par produire l’image qui « colle » au suspect idéal.
- L’aura de scientificité : Une vidéo floue est suspecte, mais une vidéo nette passée par un filtre IA possède une autorité visuelle qui désarme tout esprit critique.
Le piège technique de l’upscaling et de la reconnaissance faciale
Les outils comme Topaz Video AI ou des modèles de diffusion générative sont capables de transformer un amas de pixels en un visage humain convaincant. Dans l’affaire Good, cette « clarté artificielle » a conduit à désigner un homme dont les traits, une fois recalculés par la machine, correspondaient à ceux d’un agent fédéral répertorié dans d’autres bases de données. Ce que les internautes ont ignoré, c’est que l’IA a littéralement sculpté un visage à partir du néant, créant une ressemblance fortuite mais fatale.
Harcèlement et doxxing : les conséquences bien réelles du virtuel
Une fois l’identité (fausse) jetée en pâture à la viralité, le processus devient irréversible. L’agent injustement accusé a vu son nom, son adresse et les photos de sa famille circuler en quelques minutes. Le doxxing, facilité par des outils de reconnaissance faciale comme PimEyes, transforme une erreur technique en une menace physique réelle. Les plateformes, bien que dotées de politiques contre le harcèlement, se retrouvent démunies face à ces « preuves » synthétiques.
Le contenu est souvent présenté sous le couvert de l’activisme ou de la recherche de justice, ce qui permet aux vidéos de contourner les filtres de modération automatique. Pour les algorithmes de recommandation de TikTok, une enquête de « Justice 2.0 » est un contenu à fort engagement qu’il faut pousser, augmentant ainsi de manière exponentielle le risque pour l’innocent ciblé.
L’impuissance des plateformes et l’urgence d’une régulation
Le rapport de WIRED souligne une faille systémique : l’incapacité des géants du Web à distinguer une analyse OSINT rigoureuse d’une manipulation algorithmique amateur. Tant que les plateformes ne labelliseront pas systématiquement les contenus multimédias modifiés par IA dans un contexte d’enquête, le lynchage numérique restera un sport de masse. La technologie a donné aux citoyens les outils de la police, mais sans le cadre légal, éthique et méthodologique qui les accompagne.
En conclusion, l’affaire Renee Good doit servir d’avertissement. La démocratisation de l’IA ne doit pas se transformer en une licence de nuire. Il devient impératif de réguler l’usage des outils de génération d’images dans les enquêtes citoyennes et de former le public à la littératie numérique : comprendre qu’un pixel généré par une machine n’est pas une preuve, mais une interprétation statistique. Sans cela, la Justice 2.0 ne sera rien d’autre qu’une version haute définition de la loi de Lynch.







