La justice est une affaire de certitudes, de preuves et de textes précis. L’intelligence artificielle générative, elle, est une affaire de probabilités, de prédictions et de vraisemblance. Lorsque ces deux mondes entrent en collision, on pourrait s’attendre à ce que la rigueur de la première discipline la seconde. Or, c’est l’inverse qui se produit : une enquête récente, relayée notamment par Futurism et appuyée par une étude cinglante de Stanford, révèle que l’institution judiciaire commence à tolérer l’intolérable. Au nom de la modernisation, nous sommes en train de normaliser l’erreur.
Le mythe de la fiabilité : 1 réponse sur 6 est fausse
Le marketing des géants de la LegalTech est bien rodé. On nous vend des outils « augmentés » par la méthode RAG (Retrieval-Augmented Generation), censée ancrer les réponses de l’IA dans des bases de données juridiques fiables pour éliminer les hallucinations. C’est la promesse d’une justice 2.0 : rapide, efficace, infaillible.
La réalité technique est une douche froide. Une étude du Stanford RegLab a passé au crible les outils phares du marché (comme ceux de LexisNexis ou Thomson Reuters). Le verdict est sans appel : ces systèmes hallucinent dans 17 % à 33 % des cas. Concrètement, cela signifie qu’une requête sur six génère une fausse jurisprudence, cite un texte abrogé ou invente un fait juridique.
Le problème n’est pas que la machine se trompe — l’erreur est humaine, après tout. Le problème est systémique : ces outils sont déployés et vendus comme des assistants fiables, créant un faux sentiment de sécurité chez des praticiens souvent surchargés.
La « normalisation de la déviance » : quand l’à-peu-près devient standard
C’est ici que l’analyse devient inquiétante. Face à ces taux d’erreurs persistants, la réaction de l’industrie n’a pas été de stopper le déploiement, mais de redéfinir les attentes. Au lieu d’exiger une précision de 100 % — le standard habituel pour citer une loi dans une cour de justice — on demande désormais aux utilisateurs de « vérifier » la machine.
Ce glissement sémantique est dangereux. Il transforme le juge ou l’avocat en correcteur de copies pour robot. On assiste à ce que la sociologue Diane Vaughan appelait la « normalisation de la déviance » : accepter un défaut technique critique parce qu’il n’a pas (encore) provoqué de catastrophe majeure. On tolère que l’IA « délire » parfois, car elle fait gagner du temps souvent.
Les risques concrets pour le justiciable
- La jurisprudence fantôme : Des juges aux États-Unis et au Royaume-Uni ont déjà dû rejeter des dossiers étayés par des précédents inventés de toutes pièces par ChatGPT.
- L’inégalité des armes : Un cabinet doté de ressources humaines pour vérifier chaque virgule de l’IA s’en sortira. Un avocat commis d’office, pressé par le temps, risque de faire confiance à l’outil et de léser son client.
- La fatigue de vérification : Si un professionnel doit passer plus de temps à vérifier la véracité d’une réponse qu’à faire la recherche lui-même, le gain de productivité s’effondre. Le risque ? Qu’il arrête de vérifier.
Le mirage de l’humain dans la boucle
La défense ultime des fournisseurs est le concept de l’« humain dans la boucle » (human-in-the-loop). L’IA ne décide pas, elle suggère. L’humain valide. C’est un argument juridiquement confortable mais cognitivement faux.
Les études en ergonomie cognitive montrent que l’humain est très mauvais pour surveiller une machine qui a raison 80 % du temps. La vigilance baisse, l’effet d’automatisation prend le dessus, et l’utilisateur finit par valider par défaut. En introduisant des outils imparfaits dans des processus critiques, on ne supprime pas l’erreur, on la rend plus insidieuse car elle porte le sceau de la validation technologique.
L’avis de Just Tech
Nous sommes à un tournant critique. L’intégration de l’IA dans la justice ne doit pas être une course à l’armement technologique, mais une quête d’amélioration du service public. Accepter des outils qui hallucinent une fois sur six sous prétexte de « modernisation » est une abdication intellectuelle. La justice n’est pas un terrain de bêta-test. Si une voiture avait 17 % de chances d’ignorer le freinage, elle serait interdite de circulation. Pourquoi acceptons-nous moins de sécurité pour nos libertés que pour nos pare-chocs ? Il est temps d’exiger de la Tech qu’elle se hisse au niveau de la Justice, et non l’inverse.







