Des pierres au menu, de la colle sur la pizza… et maintenant des conseils médicaux mortels ?
Souvenez-vous de mai 2024. Google lançait en grande pompe ses AI Overviews, promettant de révolutionner notre façon de chercher l’information. Quelques jours plus tard, l’outil suggérait sereinement aux internautes d’ajouter de la colle non toxique à leur pizza pour faire tenir le fromage ou de manger des cailloux pour l’apport en minéraux. Internet avait ri.
Mais aujourd’hui, le rire s’est tu. Selon une enquête récente relayée par Futurism et le Guardian, les hallucinations de l’IA de Google ne se limitent plus à des recettes absurdes : elles touchent désormais à des questions de vie ou de mort. Malgré les promesses de correctifs et de garde-fous, l’algorithme continue de délivrer des diagnostics erronés et des recommandations dangereuses sur des sujets critiques.
Diagnostic : quand l’IA contredit la médecine
Le constat est alarmant. Loin d’être de simples bugs isolés, les erreurs relevées touchent des pathologies lourdes où la précision est vitale. L’enquête met en lumière des exemples glaçants :
- Contresens nutritionnel pour le cancer : À des patients souffrant d’un cancer du pancréas, l’IA a conseillé d’éviter les aliments riches en graisses. Or, les oncologues recommandent souvent l’inverse pour maintenir le poids des patients en grande difficulté nutritionnelle.
- Confusion diagnostique : Interrogée sur le dépistage du cancer vaginal, l’IA a suggéré un frottis (Pap smear), un examen pourtant destiné au cancer du col de l’utérus, risquant ainsi de rassurer faussement des patientes sur la base d’un test inadapté.
- Psychiatrie à la dérive : L’association caritative Mind a signalé des conseils « très dangereux » concernant la psychose et les troubles alimentaires, l’IA manquant totalement de la nuance nécessaire pour traiter la détresse psychologique.
Ces erreurs ne sont pas de simples approximations : ce sont des fautes professionnelles algorithmiques.
Le problème systémique du YMYL (Your Money Your Life)
Google connaît pourtant bien le danger. Ses propres directives de qualité (les fameux Quality Raters Guidelines) insistent depuis des années sur le concept YMYL (« Votre Argent, Votre Vie »). Pour ces sujets — santé, finance, droit —, Google exigeait historiquement un niveau d’expertise et d’autorité (E-E-A-T) maximal.
Le paradoxe est total : en déployant ses AI Overviews, Google semble violer ses propres règles d’or. Pourquoi ? Parce qu’un LLM (Large Language Model) ne « sait » rien. Il prédit le prochain mot le plus probable. Il est probabiliste, alors que la médecine exige d’être déterministe. Si une blague sur Reddit ou un forum obscur contient une bêtise médicale formulée avec assurance, l’IA risque de l’ingérer et de la recracher comme une vérité absolue.
Le dilemme de Mountain View : la course avant la sécurité ?
Pourquoi Google, géant réputé pour sa prudence, prend-il de tels risques ? La réponse tient en deux noms : Perplexity et OpenAI.
Face à la montée en puissance de moteurs de recherche conversationnels concurrents, Google est pris de panique. Ne pas déployer l’IA générative dans le Search, c’est risquer de devenir le Kodak du web : une référence historique dépassée par la nouvelle technologie. La firme de Mountain View semble donc avoir fait un calcul cynique : mieux vaut gérer des crises de relations publiques et patcher l’outil au fil de l’eau, plutôt que de laisser le champ libre à la concurrence.
Google tente bien de colmater les brèches. Des filtres sont ajoutés, des sujets bannis. Mais comme le montrent les récents rapports, c’est un jeu de « Whack-a-mole » (tape-taupe) : corrigez une hallucination sur les cailloux, et l’IA vous inventera un traitement pour le foie.
L’avis de Just Tech
Au-delà de l’aspect technologique, cette affaire marque un tournant philosophique et juridique majeur. Jusqu’ici, Google était un bibliothécaire : il vous montrait où trouver l’information, sans en être l’auteur. Avec les AI Overviews, Google devient l’auteur de la réponse. En synthétisant l’information, il endosse — qu’il le veuille ou non — la blouse du médecin.
Si un utilisateur suit un conseil mortel généré par l’IA sans cliquer sur la source, qui est responsable ? La course à l’innovation justifie-t-elle de transformer les utilisateurs en bêta-testeurs de leur propre santé ? Chez Just Tech, nous pensons que l’IA a sa place en médecine, mais comme outil pour les médecins, pas comme remplaçant du bon sens critique. La prochaine fois que vous cherchez un symptôme, rappelez-vous : l’algorithme ne fait pas la différence entre une étude clinique et une blague de forum.







