Le techno-solutionnisme à la barre : quand l’algorithme dicte sa loi
C’est un verdict qui devrait inquiéter bien au-delà des salles d’audience. Selon un récent rapport relayé par Futurism, un système d’intelligence artificielle destiné à assister le secteur judiciaire a reçu le feu vert pour son déploiement. Une bonne nouvelle pour la modernisation de la justice ? Pas vraiment. L’enquête révèle que cette validation n’a été possible qu’au prix d’une manœuvre douteuse : les critères de performance et de fiabilité ont été revus à la baisse pour s’adapter aux limites de la machine, plutôt que l’inverse.
Alors que l’IA générative promet de désengorger les tribunaux, ce cas d’école illustre un phénomène insidieux : nous sommes prêts à accepter des outils défaillants au nom de l’innovation, quitte à sacrifier la rigueur qui fonde notre État de droit.
L’art de casser le thermomètre
Le cas rapporté est symptomatique d’une dérive du « techno-solutionnisme ». Face à un système d’IA qui échouait à atteindre les standards de précision requis pour des tâches critiques (comme la transcription d’audiences ou l’analyse de jurisprudence), les responsables n’ont pas exigé une meilleure technologie. Ils ont simplement changé la définition de la réussite.
Concrètement, cela revient à accepter qu’un outil produise des erreurs factuelles ou des « hallucinations » – ces inventions pures et simples de l’IA – dans une proportion jugée auparavant inacceptable pour un humain. Là où l’on exige d’un greffier ou d’un juriste une précision quasi absolue, l’algorithme bénéficie d’une tolérance coupable, justifiée souvent par des impératifs budgétaires ou un désir de « modernité » à marche forcée.
Des hallucinations qui coûtent cher
Le danger n’est pas théorique. Les modèles de langage (LLM) utilisés pour ces tâches souffrent d’un mal chronique : ils sont conçus pour être plausibles, pas pour être véridiques. Plusieurs études récentes et incidents documentés tirent la sonnette d’alarme :
- Des taux d’erreur alarmants : Selon une étude de Stanford, les chatbots généralistes « hallucinent » entre 58 % et 82 % du temps lorsqu’ils sont interrogés sur des points de droit spécifiques.
- La jurisprudence fantôme : On se souvient de l’affaire Mata v. Avianca aux États-Unis, où des avocats ont utilisé ChatGPT pour rédiger un mémoire citant des décisions de justice qui n’avaient jamais existé. L’IA avait inventé des précédents juridiques complets, avec citations et résumés crédibles, mais totalement fictifs.
- L’illusion de la compétence : Même les outils spécialisés, censés être plus robustes, ne sont pas infaillibles. Lorsqu’un tribunal valide un outil imparfait en abaissant ses standards, il ouvre la porte à des erreurs judiciaires automatisées qui seront d’autant plus difficiles à contester qu’elles émanent d’une « machine neutre ».
Le paradoxe de la rigueur judiciaire
Il existe un paradoxe fondamental dans cette démarche. La justice est, par essence, le domaine de la précision. Une virgule mal placée dans un contrat, une interprétation erronée d’un texte de loi, ou une transcription inexacte d’un témoignage peuvent changer le cours d’une vie.
En acceptant de déployer des outils qui nécessitent de « baisser la barre », les institutions envoient un message dangereux : la vitesse et le coût priment désormais sur la vérité et l’équité. Si l’humain reste responsable en dernier ressort, comment un juge surchargé pourra-t-il vérifier efficacement le travail d’une IA dont on a officiellement accepté qu’elle se trompe plus souvent que de raison ? C’est le piège de l’automatisation : on l’introduit pour gagner du temps, mais la surveillance nécessaire pour éviter les dérapages en demande parfois tout autant.
L’avis de Just Tech
Cette affaire met en lumière une ligne rouge que nous sommes en train de franchir sans débat public. L’intelligence artificielle a toute sa place dans le monde juridique pour des tâches de classement ou de recherche simple. Mais adapter nos exigences de justice aux faiblesses actuelles de la technologie est une erreur stratégique et morale. La technologie doit s’élever au niveau de la justice, et non l’inverse. Accepter une « justice à peu près » sous prétexte d’innovation est un glissement dangereux. Si l’IA n’est pas prête à respecter les standards humains, alors elle n’est tout simplement pas prête à être déployée. Point final.







