C’est une scène qui devient banale : une salle de classe silencieuse, des visages bleuis par la lumière des écrans, et des élèves qui dialoguent non plus avec leur professeur, mais avec un chatbot. La promesse est séduisante : un tuteur personnel pour chaque enfant, disponible 24h/24, capable d’adapter le rythme d’apprentissage à l’infini. Google, Microsoft et OpenAI se sont lancés dans une véritable course à l’armement pour conquérir ce marché. Mais derrière les publicités montrant des enfants épanouis se cache une réalité bien plus sombre, dénoncée par une récente enquête de Futurism et plusieurs rapports de l’UNESCO : nos écoles sont en train de devenir le plus grand laboratoire de test de l’histoire, et nos enfants en sont les cobayes non rémunérés.
Une expérimentation grandeur nature sans filet de sécurité
L’introduction massive de l’IA générative dans les cursus scolaires ne suit pas le protocole scientifique habituel. En médecine, avant de généraliser un traitement, on passe par des années d’essais cliniques rigoureux. Dans la Tech, la philosophie est tout autre : « move fast and break things » (allez vite et cassez tout). Le problème, c’est que ce que l’on risque de « casser » ici, c’est le développement cognitif d’une génération.
Selon des rapports relayés par Futurism et la Brookings Institution, nous assistons à une expérimentation sociale massive dont nous ne connaissons pas les effets à long terme. Les outils sont déployés alors même que leur fiabilité est douteuse. Les hallucinations des IA – ces moments où la machine invente des faits avec un aplomb déconcertant – sont déjà problématiques pour des adultes avertis. Pour un enfant en phase d’apprentissage, incapable de discerner le vrai du faux, elles sont un poison pédagogique. En acceptant ces outils dans les classes sans recul suffisant, les institutions éducatives valident implicitement une technologie encore instable.
Le risque de l’atrophie cognitive : la génération « copier-coller »
Le danger le plus immédiat n’est pas que l’IA se trompe, mais qu’elle fasse le travail à la place de l’élève. C’est le phénomène de « décharge cognitive ». Lorsqu’un chatbot rédige une dissertation ou résout une équation en une seconde, l’effort neuronal nécessaire à l’apprentissage est court-circuité.
Des témoignages d’élèves recueillis lors de récentes études sont glaçants de lucidité : « C’est facile, tu n’as pas besoin d’utiliser ton cerveau ». Cette passivité intellectuelle inquiète les neuroscientifiques. L’apprentissage nécessite de la friction, de l’effort et de la mémorisation. Si l’élève délègue systématiquement la structuration de sa pensée à une machine, on risque d’observer une forme d’atrophie des capacités critiques. Au lieu de former des esprits capables de raisonner, l’école 2.0 risque de former de simples opérateurs de machines, des « prompteurs » incapables de vérifier la véracité de ce que l’algorithme leur sert.
Données personnelles : l’école comme mine d’or pour la Big Tech
L’aspect le plus insidieux de cette invasion technologique concerne la vie privée. En utilisant ces plateformes éducatives « gratuites » ou subventionnées, les écoles livrent à la Big Tech une quantité phénoménale de données sur des mineurs. Il ne s’agit pas seulement de notes ou d’assiduité, mais de données comportementales fines : temps de réaction, types d’erreurs, centres d’intérêt, et même, avec certaines technologies de surveillance, suivi du regard ou analyse émotionnelle.
- Absence de consentement réel : Un enfant de 10 ans ne peut pas donner un consentement éclairé au traitement de ses données. Les parents sont souvent contraints d’accepter les conditions d’utilisation pour que leur enfant puisse suivre le programme scolaire.
- Profilage à vie : Ces données nourrissent des profils numériques qui pourraient suivre l’élève toute sa vie. Qui garantit que les erreurs d’apprentissage d’un enfant de 8 ans ne seront pas utilisées par un algorithme de recrutement ou d’assurance quinze ans plus tard ?
- Marchandisation : L’objectif final des géants de la Tech n’est pas purement philanthropique. Il s’agit de fidéliser de futurs consommateurs dès le plus jeune âge et d’entraîner leurs modèles sur des données fraîches et diversifiées.
La déshumanisation de la relation pédagogique
Enfin, l’UNESCO a tiré la sonnette d’alarme sur le risque de déshumanisation. L’éducation n’est pas un simple transfert de données d’un disque dur vers un cerveau. C’est un processus social et émotionnel. L’empathie d’un enseignant, sa capacité à détecter un décrochage non pas dans des statistiques mais dans un regard, est irremplaçable. L’IA, aussi sophistiquée soit-elle, ne « comprend » pas l’élève ; elle prédit le prochain mot probable. Remplacer, même partiellement, l’interaction humaine par une interface conversationnelle risque d’isoler davantage des élèves déjà fragilisés par l’addiction aux écrans.
L’avis de Just Tech
Chez Just Tech, nous sommes passionnés par l’innovation, mais nous refusons la technophilie béate. L’arrivée de l’IA à l’école est inévitable, mais la manière dont elle s’impose aujourd’hui est irresponsable. Nous sommes en train de confondre l’accès à l’information avec la construction du savoir. En transformant les élèves en utilisateurs passifs d’outils propriétaires, nous servons les intérêts financiers de la Silicon Valley avant ceux de l’Éducation Nationale. La question n’est pas de savoir si l’IA peut enseigner, mais si nous voulons d’une société où la pensée critique est sous-traitée à des serveurs californiens. Avant de digitaliser l’école, assurons-nous que nous ne sommes pas en train de programmer l’obsolescence de l’intelligence humaine.







