Yann LeCun : Pourquoi les IA génératives actuelles sont une impasse vers l’intelligence réelle

Alors que le monde de la Tech a les yeux rivés sur la prochaine version de GPT ou de Gemini, une voix dissonante – et pas des moindres – continue de jouer les trouble-fêtes. Yann LeCun, prix Turing et patron de l’IA chez Meta, persiste et signe : les modèles de langage actuels (LLM) sont une impasse pour atteindre une véritable intelligence humaine. Pour lui, nous confondons une encyclopédie capable de parler avec un esprit capable de penser.

L’illusion de l’intelligence : le piège du « Token Suivant »

Pour comprendre la critique de LeCun, il faut ouvrir le capot de ChatGPT ou Llama. Ces systèmes sont ce qu’on appelle des modèles auto-régressifs. Leur fonctionnement est, dans l’absolu, simpliste : ils devinent le mot (ou le « token ») le plus probable pour continuer une phrase, en se basant sur des statistiques ingérées via des milliards de textes.

LeCun compare cela à quelqu’un qui conduirait une voiture en regardant uniquement dans le rétroviseur pour deviner la route devant lui. Tant que la route est droite (des situations connues), cela fonctionne. Au premier virage imprévu, c’est l’accident (l’hallucination).

  • Absence de vérité : Un LLM ne « sait » rien. Il calcule des probabilités de syntaxe.
  • Mémoire limitée : Il ne planifie pas sa réponse, il la déroule mot après mot, comme un improvisateur de théâtre qui ne connaît pas la fin de sa phrase quand il la commence.
  • Plafond de verre : Selon LeCun, augmenter la taille des modèles (Scaling Laws) rendra les illusions plus convaincantes, mais ne créera jamais de raisonnement logique ou de compréhension physique.

Le « Modèle du Monde » : pourquoi votre chat est plus intelligent qu’une IA

L’argument central de Yann LeCun repose sur une comparaison humiliante pour nos machines : un chat de gouttière possède une compréhension du monde physique bien supérieure à celle de GPT-4. Pourquoi ? Parce que le chat possède un « Modèle du Monde » (World Model).

Avant de sauter sur une étagère, le chat simule l’action dans son cerveau : il estime la distance, la solidité de la surface et la force nécessaire. Si sa simulation prédit un échec, il ne saute pas. Les LLM actuels, eux, ne peuvent pas faire cette simulation mentale car ils n’ont appris que du texte, pas la physique.

Pour LeCun, l’intelligence réelle (qu’il préfère appeler AMI pour Advanced Machine Intelligence plutôt que AGI) nécessite cette capacité à apprendre comment le monde réagit à nos actions, sans avoir besoin de lire tout Wikipédia pour savoir que lâcher un verre le fera tomber.

JEPA : L’architecture de la raison

Face à ce constat, LeCun et les équipes de FAIR (Fundamental AI Research chez Meta) développent une alternative radicale : les architectures JEPA (Joint Embedding Predictive Architecture).

La différence est technique mais cruciale. Au lieu de prédire le prochain mot précis (ce qui est très coûteux et bruyant), JEPA essaie de prédire un état abstrait (un concept) dans un espace de représentation.

Imaginez que vous regardiez une vidéo d’une voiture roulant sur une route :

  • Un LLM génératif essaierait de prédire la couleur exacte de chaque pixel de l’image suivante (impossible à faire parfaitement, d’où les hallucinations visuelles).
  • JEPA prédit simplement que « la voiture va avancer ». Il ignore les détails inutiles (l’ombre des feuilles sur le capot) pour se concentrer sur la conséquence logique de l’action.

Cette approche permettrait, en théorie, de créer des IA capables de planifier (définir un but et les étapes pour l’atteindre) plutôt que de simplement réagir.

La stratégie Meta : L’Open Source comme arme scientifique

Cette vision explique pourquoi Meta adopte une stratégie si différente de Google ou OpenAI. En publiant ses modèles en Open Source (comme la série Llama, et bientôt les architectures JEPA), LeCun ne fait pas de la charité : il fait de la recherche accélérée.

Il estime que le problème de l’intelligence artificielle est trop complexe pour être résolu par une seule entreprise derrière des portes closes. En partageant ses travaux, Meta espère que la communauté scientifique mondiale l’aidera à franchir le mur du raisonnement, là où ses concurrents s’épuisent à construire des modèles de langage toujours plus gros, mais toujours aussi « bêtes » structurellement.

L’avis de Just Tech

La position de Yann LeCun est à la fois rafraîchissante et risquée. Rafraîchissante, car elle nous sort de la hype commerciale pour revenir aux fondamentaux de la science informatique : le sens plutôt que la forme. Risquée, car si les « Scaling Laws » (l’idée que plus c’est gros, mieux ça marche) continuent de fonctionner encore quelques années, Meta pourrait se retrouver à avoir raison trop tôt, tout en perdant la bataille des produits grand public actuels. Mais une chose est sûre : si l’IA doit un jour cesser d’halluciner pour commencer à raisonner, c’est probablement du côté des « World Models » qu’il faudra regarder, et non vers un chatbot qui a simplement avalé plus de livres.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *