L'IA redessinerait-elle notre cerveau ? L’effet Google, l’effet ChatGPT et au-delà

Boussad Addad, Ph.D
L'IA redessinerait-elle notre cerveau ? L’effet Google, l’effet ChatGPT et au-delà

Sommaire

Crédits

Image générée avec Gemini

Les smartphones, l’intelligence artificielle (IA) et les outils numériques sont devenus des extensions incontournables de notre mémoire, et de notre capacité à résoudre des problèmes. De l’effet Google à l’émergence probable de l’effet ChatGPT, ces technologies transformeraient profondément notre cerveau et notre rapport à l’information. Cet article explore ces impacts à travers des travaux de recherche scientifiques, tout en proposant des stratégies concrètes pour tirer parti des avantages de la technologie, et tout en atténuant ses effets négatifs. Inspiré par l’article de Celia Ford publié sur Vox le 10 mars 2025, ce billet approfondit l’analyse, comble certaines lacunes et intègre une perspective inclusive sur les phénomènes de l’effet Google et de l’effet ChatGPT.

Les effets d’une externalisation cognitive

La recherche neuroscientifique montre que notre dépendance croissante aux outils numériques modifie nos capacités cognitives. Un concept clé est l’intention offloading (externalisation de l’intention et des processus mentaux), où nous déléguons des tâches cognitives à des outils externes, principalement numériques - mais pas que, ça peut être un post-it ou un colis posé à la porte pour ne pas oublier de le poster -, qu’il s’agisse de rappels sur smartphone ou d’assistants IA. Une étude de l’University College London, citée par Ford, a révélé une diminution de l’activité dans le cortex préfrontal – une région liée à la planification et à la prise de décision – lorsque des participants utilisaient des rappels externes. Ce phénomène, amplifié par la technologie, reflète une adaptation cérébrale : notre cerveau optimise ses ressources en s’appuyant sur des outils externes. Pourquoi se rappeler de la date limite de paiement d’une facture si un simple rappel sur le téléphone peut le faire ! A contrario, lorsque le cerveau est sur-sollicité pour une certaine tâche, il se “muscle” d’une certaine manière (le cerveau n’est pas un muscle) pour répondre au besoin. Par exemple, les chauffeurs de taxi londoniens, qui mémorisent d'innombrables rues pour obtenir leur licence, possèdent un hippocampe postérieur - pour rappel, la zone impliquée dans la création de notre carte mentale de l'environnement - plus volumineux que celui des conducteurs de bus, qui se contentent de suivre des trajets préétablis.

Image générée avec Gemini

Pourtant, certaines études, comme celle mentionnée dans l’article de Vox, suggèrent que les seniors utilisant des outils numériques pour gérer leur quotidien présentent un risque réduit de démence. D’autres études suggèrent que jouer aux jeux vidéo peut améliorer les performances des chirurgiens ou l’apprentissage des étudiants chirurgiens. S’appuyer sur les outils numériques n’est donc pas toujours synonyme de baisse des performances cérébrales.

Ces résultats quelque peu contradictoires, couplés à l'usage de la terminologie neuroscientifique à base d’activité dans le cortex préfrontal qui diminue, d'hippocampe volumineux… a tendance à nous perdre. Une conclusion raisonnable serait donc la suivante : la technologie peut à la fois affaiblir certaines compétences cognitives et en renforcer d’autres. Tout est une question de dosage, d’usage et de contexte.

L’effet Google : quand Internet devient notre mémoire

L’effet Google, identifié dans une étude de 2011 publiée dans Science par Betsy Sparrow et al., décrit comment l’accès constant à l’information en ligne réduit notre propension à mémoriser des faits. Au lieu de retenir des informations, nous mémorisons où les trouver, transformant Internet en une sorte de mémoire externe. Cette externalisation a des avantages : elle libère des ressources cognitives pour des tâches plus complexes, comme l’analyse ou la créativité. 

L’article de Ford mentionne brièvement l’effet Google en lien avec la « démence numérique », mais n’explore pas ses implications à long terme. L’effet ne se limite pas à la mémoire : il influence notre confiance cognitive. En nous reposant sur des moteurs de recherche, nous risquons de surestimer nos connaissances réelles, un phénomène connu sous le nom « d’illusion de savoir ». Par exemple, une étude de 2015 (Journal of Experimental Psychology) a montré que les individus habitués à chercher des réponses en ligne surestiment leurs capacités cognitives et “pensent qu’ils ont la tête pleine”. Ils s’attribuent un savoir qu’ils auraient a priori en tête alors qu’ils ne font que le trouver sur Internet au moment où la question leur est posée.

Utiliser un moteur de recherche peut également accentuer le biais de confirmation, car les algorithmes de recherche personnalisent les résultats en fonction de nos comportements passés. Par exemple, si vous adhérez aux thèses absurdes selon lesquelles la terre est plate ou a été créée il y a 6000 ans, Youtube ne manquera pas de vous proposer des liens vers du contenu qui va dans votre sens quand vous taperez les mots clés dans la barre de recherche. Cela vous confortera bien sûr dans votre croyance, bien que fausse.

L’effet ChatGPT : une nouvelle frontière cognitive

Si l’effet Google a marqué la première vague de l’externalisation cognitive, l’effet ChatGPT ( GenAI plus globalement) – un terme que j’ai introduit dans un livre publié récemment pour décrire l’impact des modèles d’IA conversationnelle comme ChatGPT sur nos habitudes – représente une nouvelle étape. Ces outils ne se contentent pas de fournir des informations ; ils synthétisent, interprètent et génèrent des réponses personnalisées, réduisant encore davantage l’effort cognitif requis pour analyser ou créer du contenu. Plusieurs études suggèrent que l’utilisation régulière d’IA conversationnelle peut diminuer l’engagement dans des tâches de réflexion critique (on y reviendra juste après), peut causer une amnésie digitale qui se manifeste par une dégradation de la rétention à long terme (on ne se rappelle pas ce qu’on a lu ou appris), ou encore réduire le champ de réflexion et donc la créativité.

L’effet ChatGPT peut par conséquent amplifier la dépendance cognitive. Par exemple, les étudiants qui utilisent des outils comme ChatGPT pour rédiger des essais ou résoudre des problèmes mathématiques risquent de perdre des compétences analytiques essentielles. Des analyses montrent que les lycéens dépendants de l’IA pour leurs devoirs présentent une baisse dans leurs performances en résolution de problèmes ou encore de la rétention de l’apprentissage.

Et de la dette cognitive …

En effet, 83 % des utilisateurs de l’IA pour rédiger un essai ne se rappelait pas de ce qu’ils avaient écrit selon une étude du MIT(*) qui a fait grand bruit dans les médias. Non seulement les utilisateurs ont vu leurs capacités cognitives diminuées sur le court terme, ils ont montré des signes de faiblesse d’esprit critique et même de langage (réduction du champ de réflexion et diversité des idées) sur le long terme.

L'étude révèle un point intéressant : l'intelligence artificielle stimule l'activité cérébrale lorsqu'elle est employée après une phase de réflexion initiale. En effet, le groupe ayant d'abord travaillé sans assistance a ensuite formulé des prompts plus précis et variés en utilisant l'IA. Cela suggère que l'IA agit comme un amplificateur de la pensée, et non comme un simple substitut, à condition que l'utilisateur ait une intention claire et ait déjà réfléchi au sujet.

Image générée avec Gemini

Tout n’est pas noir. Tout comme pour l’effet Google, il y a des avantages indéniables aux outils IA : bien utilisés, ils peuvent accélérer l’apprentissage, augmenter la productivité, et remodeler le monde du travail en se débarrassant des tâches ennuyeuses ou répétitives pour se concentrer sur des tâches plus créatives et valorisantes.

Impact de la GenAI sur les compétences et pratiques de la pensée critique

Une étude parue récemment, menée par une équipe conjointe de l’Université de Pennsylvanie et Microsoft, examine cet impact. Les chercheurs ont mené une enquête auprès de 319 travailleurs (principalement des jeunes, d’un niveau d’instruction relativement élevé, qui utilisent la GenAI au moins une fois par semaine dans leur travail), recueillant 936 exemples concrets d'utilisation. L'objectif était de répondre à deux questions de recherche principales :

  • Quand et comment les travailleurs perçoivent-ils la mise en œuvre de la pensée critique lorsqu'ils utilisent la GenAI ?
  • Quand et pourquoi perçoivent-ils une augmentation ou une diminution de l'effort requis pour la pensée critique à cause de la GenAI ?

Pour mesurer les activités cognitives liées à la pensée critique, l'étude s'est appuyée sur la taxonomie de Bloom (modèle de la pédagogie proposant une classification des niveaux d'acquisition des compétences cognitives), qui identifie six niveaux : connaissance, compréhension, application, analyse, synthèse et évaluation.

Voici un résumé des principaux résultats :

Quand et comment la pensée critique est-elle mise en œuvre ?

L'étude révèle que les sujets exercent leur esprit critique principalement pour garantir la qualité de leur travail. Cela peut survenir à trois stades :

  • Formation de l'objectif et de la requête (prompt) : La pensée critique s'exprime par la définition d'objectifs clairs et l'optimisation des requêtes (le fameux “prompt engineering”) pour obtenir les résultats souhaités.
  • Inspection de la réponse : Les utilisateurs évaluent la qualité des résultats de la GenAI selon des critères objectifs (par exemple, un code qui fonctionne) et subjectifs (la pertinence ou la faisabilité d'une suggestion). Ils s'engagent également dans la vérification des informations en les croisant avec des sources externes ou leurs propres connaissances.
  • Intégration de la réponse : La pensée critique est nécessaire pour sélectionner les parties pertinentes de la réponse de l'IA et pour modifier le style, le ton ou le format afin de l'adapter au contexte de travail spécifique.

L'étude a identifié des facteurs clés influençant l'application de la pensée critique :

  • Une plus grande confiance en soi pour réaliser une tâche est associée à plus de pensée critique.
  • À l'inverse, une plus grande confiance en la GenAI est associée à moins de pensée critique, ce qui soulève des inquiétudes quant à la dépendance excessive.

Les motivations pour appliquer la pensée critique incluent l'amélioration de la qualité du travail, la prévention des conséquences négatives et le développement des compétences personnelles. 

Les freins (ou inhibiteurs) incluent un manque de conscience pour les tâches jugées peu importantes, des contraintes de temps, ou un manque de connaissances pour vérifier ou améliorer les réponses de l'IA.

Pourquoi l'effort perçu lié à la pensée critique change-t-il ?

La majorité des participants ont déclaré que la GenAI réduit l'effort perçu pour les activités de pensée critique. L'étude met en évidence trois changements majeurs dans la nature de l'effort cognitif :

  • De la collecte à la vérification de l'information : La GenAI automatise la recherche d'informations (moins d'effort), mais exige un effort accru pour en vérifier l'exactitude et la fiabilité.
  • De la résolution de problèmes à l'intégration des réponses : L'IA peut fournir des solutions rapidement (moins d'effort), mais l'utilisateur doit ensuite investir du temps pour adapter et intégrer ces solutions dans son travail de manière cohérente.
  • De l'exécution des tâches au pilotage ("stewardship") : Les utilisateurs passent moins de temps sur l'exécution matérielle des tâches, qui est automatisée par l'IA. En contrepartie, leur effort se déplace vers un rôle de "pilote" ou de "gardien" : ils doivent guider l'IA, affiner ses résultats et assumer la responsabilité finale du produit, ce qui demande un effort de supervision et d'évaluation constant.

En gros, l'étude conclut que si la GenAI améliore l'efficacité, elle peut également inhiber l'engagement critique et encourager une dépendance excessive, en particulier lorsque la confiance en l'outil est élevée. L'effort de la pensée critique ne disparaît pas mais se transforme, se déplaçant de la production vers la vérification, l'intégration et le pilotage des résultats de l'IA.

Ces résultats suggèrent que les  outils de GenAI devraient être conçus pour soutenir activement la pensée critique des travailleurs du savoir. Les pistes de conception avancées par l’étude incluent des mécanismes pour aider les utilisateurs à mieux calibrer leur confiance, à prendre conscience des moments où la pensée critique est nécessaire, et à développer les compétences requises pour vérifier, améliorer et guider efficacement les réponses de l'IA. C’est tout un programme et ce n’est pas gagné ! Pour atteindre de tels objectifs, il faudrait presque entrer dans le cerveau des utilisateurs en collectant le maximum de données. 

Image générée avec Gemini

Le paradoxe de Jevons : quand l’efficacité de l’IA alimente une surchauffe cérébrale

Le paradoxe de Jevons, formulé par l’économiste William Stanley Jevons en 1865, stipule que l’amélioration de l’efficacité dans l’utilisation d’une ressource ne réduit pas nécessairement sa consommation, mais peut au contraire l’augmenter. Initialement appliqué à la consommation de charbon dans le contexte de la révolution industrielle, le principe suggère que lorsque l’efficacité d’une technologie réduit le coût (en temps, en effort ou en ressources) d’une activité, les individus ou les systèmes tendent à augmenter leur usage de cette ressource pour combler le gain d’efficacité, plutôt que de le conserver. Ce paradoxe s’étend aujourd’hui à divers domaines, y compris l’usage des technologies numériques. Appliqué à l’IA, le paradoxe de Jevons illustre comment l’efficacité accrue des outils numériques, loin de libérer du temps, intensifie notre dépendance cognitive et notre engagement avec la technologie, au détriment de notre cerveau.

Exemple 1 :

Imaginons la gestion des e-mails, une tâche quotidienne pour la plupart des professionnels. Les IA intégrées aux messageries permettent de rédiger des réponses complètes en un clic ou de résumer de longs échanges instantanément. L'efficacité est indéniable : le temps passé à taper une réponse est réduit à néant. Cependant, ce gain ne se traduit pas par moins de temps passé à gérer ses e-mails. Au contraire, la facilité et l'immédiateté de la réponse créent une attente de réactivité toujours plus forte. Le volume global d'e-mails échangés augmente, car chaque message en génère d'autres avec la même facilité. Le temps "gagné" sur la rédaction est alors largement dépensé à lire, trier et gérer une boîte de réception qui déborde en permanence. Cette surconsommation de communication numérique aggrave "l’atrophie cognitive" en fragmentant l'attention et en remplaçant la communication réfléchie par des échanges transactionnels et automatisés. Le cerveau perd l'habitude du travail de fond, constamment interrompu par un flux de notifications que l'IA a contribué à accélérer.

Exemple 2 :

Prenons l'exemple d'un manager qui devait auparavant mettre plusieurs heures, voire jours, pour produire un rapport complet de performance. Grâce à une IA intégrée, il peut désormais générer des dizaines de rapports complexes en quelques secondes. Le temps "gagné" n'est pas réinvesti dans une réflexion stratégique de fond, mais est immédiatement consommé par la multiplication des analyses : au lieu d'un rapport hebdomadaire, le manager en examine dix par jour, variant les paramètres à l'infini. Ce gain d'efficacité apparent s'accompagne d'un effet pervers : le manager passe plus de temps à naviguer entre les données et à réagir à des micro-variations qu'à développer une vision globale.

Cette surconsommation d'analyses superficielles aggrave “l’atrophie cognitive”, car elle réduit la capacité à formuler des hypothèses pertinentes en amont et renforce la « paresse » du cerveau, qui délègue à l'IA la tâche de "trouver quelque chose d'intéressant" dans la masse de données. Ainsi, loin de nous libérer, l’IA amplifie notre dépendance aux écrans et accélère l’externalisation de nos facultés cognitives.

L’effet Médium : le coût caché des données personnelles

L’externalisation cognitive s’accompagne d’un prix souvent sous-estimé : la perte de contrôle sur nos données personnelles, ce que j’appellerais l’effet médium (ou l’effet voyante). Comme un(e) voyant(e) qui exige des détails intimes pour formuler des prédictions, les IA conversationnelles nécessitent un contexte précis pour fournir des réponses pertinentes. Ce contexte – nos recherches, préférences, émotions ou même données biométriques – révèle des aspects intimes de notre vie. Les assistants IA collectent des données massives, souvent sans transparence sur leur usage ou leur stockage. Par exemple, plusieurs fournisseurs d’assistants vocaux enregistrent des conversations, parfois à l’insu des utilisateurs, pour affiner leurs algorithmes. Cette collecte de données expose les utilisateurs à des risques majeurs : fuites de données, exploitation commerciale ou surveillance. En 2023, un bug chez OpenAI a provoqué la révélation des conversations d’utilisateurs de ChatGPT. Attention donc à ce que vous confiez comme information à votre chatbot préféré !

De plus, l’effet Médium soulève des enjeux éthiques : en fournissant des données personnelles pour des réponses « utiles », nous risquons de perdre notre autonomie et notre vie privée. Les populations vulnérables, comme les adolescents ou les personnes âgées, sont particulièrement à risque, car elles peuvent partager des informations sensibles sans en mesurer les conséquences. Une réflexion pertinente vient du philosophe Byung-Chul Han, auteur de « La société de transparence », qui argue que la numérisation de nos vies transforme les individus en personnes nues, sans leur mettre le couteau sous la gorge, à travers une collecte massive de données. L’effet Médium amplifie ce phénomène, car l’IA ne se contente pas de collecter des données brutes : elle les analyse pour prédire ou influer sur nos comportements, souvent à notre insu. Cela pose une question cruciale : jusqu’où sommes-nous prêts à sacrifier notre intimité pour des réponses rapides et personnalisées ?

Image générée avec Gemini

Une perspective sociétale et éthique : au-delà de l’individu

L’externalisation cognitive permise par l’IA est souvent présentée comme une formidable opportunité d’augmenter les capacités individuelles. Mais derrière cet enthousiasme technologique, se profilent des implications sociétales et éthiques d’une ampleur considérable, que l’on ne peut ignorer.

D’abord, la question de la fracture numérique prend une nouvelle dimension. Jusqu’ici, il s’agissait surtout de l’accès aux outils informatiques, à Internet ou à une culture numérique minimale. Demain, il faudra compter avec une inégalité bien plus radicale : celle entre les individus « augmentés » par des dispositifs cognitifs avancés et ceux qui en sont privés. Le parallèle avec la possession par un écrivain d’un ordinateur à la place d’une machine à écrire illustre bien la situation, mais il est en réalité trop faible : il ne s’agira plus seulement d’un avantage logistique, mais d’une supériorité intellectuelle quasi structurelle. Dans un marché du travail déjà marqué par une compétition féroce, cette asymétrie risque d’exclure massivement ceux qui n’auront pas les moyens, la volonté ou la possibilité d’accéder à ces technologies. Mark Zuckerberg a récemment déclaré : « Je pense personnellement que - je porte des lentilles de contact, j'ai l'impression que si ma vision n'était pas corrigée, je serais en quelque sorte désavantagé sur le plan cognitif. Et je pense qu'à l'avenir, si vous n'avez pas de lunettes dotées d'une IA ou d'un moyen d'interagir avec l'IA, vous serez probablement désavantagé sur le plan cognitif par rapport à d'autres personnes avec lesquelles vous travaillez ou contre lesquelles vous êtes en concurrence. » Je pense tout pareil que le CEO de Meta même si je n’ai pas comme lui des lunettes high-tech à vendre …

Ensuite la question des données personnelles devient vertigineuse. Si le dispositif a accès à votre quotidien : ce que vous dîtes, ce que vous lisez, ce que vous écrivez, ce que vous achetez, ce que vous mangez, puis à votre entourage et à votre environnement … ce sont des informations les plus intimes qui peuvent être collectées, stockées, et potentiellement exposées au moindre dysfonctionnement technique ou cyberattaque. Le piratage d’un smartphone est déjà une atteinte violente à la vie privée ; que dire du piratage de vos lunettes connectées par exemple ?

Enfin, se pose la question de la propriété intellectuelle et, plus largement, de l’authenticité de la création. Si une œuvre naît de l’interaction intime entre une intelligence artificielle et un cerveau humain, où placer la frontière entre ce qui est « à soi » et ce qui est généré par la machine ? Cette dilution de l’attribution ne risque pas seulement de créer des conflits juridiques ; elle peut aussi fragiliser la confiance en soi de l’individu, qui ne saura plus distinguer ses propres mérites de ceux de son outil (au passage, coucou au syndrome de l’imposteur !). La créativité humaine pourrait alors se transformer en une dépendance invisible, où l’auteur ne serait plus qu’un support biologique d’un système hybride. En somme, un robot comme un autre. Vertigineux, n’est-ce pas !

Loin d’être des projections dystopiques lointaines, ces enjeux éthiques et sociaux s’imposent dès aujourd’hui. L’externalisation cognitive, ici dans le contexte de l’IA et de la Tech, n’est pas qu’une affaire d’efficacité ou de performance individuelle : elle redessine la société, la justice sociale, la vie privée et la définition même de l’humain.

Il est donc impératif de ne pas tomber dans l’hyper-responsabilisation du seul individu en tant que consommateur. 

Il faut encadrer, mettre des limites, légiférer, responsabiliser les éditeurs, les États. Réguler à un niveau qui dépasse la seule dimension de l’individu. Sans oublier les entreprises, à qui revient le chantier d’accueillir au mieux les nouveaux outils et de le faire avec un souci de sécurité et d’éthique.

Image générée avec Gemini

Quelques conseils pour une utilisation équilibrée des outils numériques

Revenons à l’instant présent. Pour contrer les effets négatifs de l’effet Google et de l’effet ChatGPT tout en maximisant leurs bénéfices, voici quelques stratégies concrètes (liste non exhaustive) :

1. Reprendre son attention : Limitez les distractions en désactivant les notifications ou en utilisant des applications bloquent les sites chronophages (principalement les réseaux sociaux). Réservez des moments sans écran pour renforcer votre capacité à vous concentrer.

2. Renforcer la mémoire active : Avant de googler une information ou de demander une réponse à une IA, essayez de résoudre le problème mentalement. Utilisez des techniques comme la répétition espacée pour ancrer les connaissances dans votre mémoire à long terme. 

3. Reprendre les bonnes vieilles habitudes de temps à autre : rien de mieux pour maintenir son cerveau vif que de retrouver certaines habitudes sans outils avancés comme écrire ses notes à la main (pas via un clavier ou un écran), réfléchir à un problème avec une feuille blanche et un stylo ou encore conduire sa voiture sans GPS.

4. Questionner les réponses de l’IA : Lorsque vous utilisez des outils comme ChatGPT, vérifiez les informations fournies en consultant des sources primaires. Cela renforce votre pensée critique et réduit la dépendance aux réponses préfabriquées.

5. Promouvoir l’équité numérique : À l’échelle collective, soutenez des initiatives pour réduire la fracture numérique, comme des programmes d’accès à Internet dans les zones défavorisées. Éduquez les jeunes à utiliser les technologies comme des outils, pas comme des béquilles.

6. Former les gens à l’IA : c’est sans doute la clé pour éviter les catastrophes. Il ne s’agit pas ici de faire de chacun un expert en IA mais il est crucial d’en maîtriser les capacités et surtout les limites. Savoir qu’une IA n’est pas infaillible et hallucine parfois, qu’elle peut comporter des biais, ou encore discriminer, est déjà un bon début pour la prise de conscience des utilisateurs. Il faut donc former les gens à tout cela en s’appuyant sur des exemples concrets et pertinents.

7. Responsabilisation des éditeurs : les premiers à bien connaître les limites des outils d’IA sont naturellement les constructeurs tels OpenAI, Google, Mistral, Meta, ou encore xAI. Le petit message affiché en bas de chacun de leurs sites et avertissant que leur IA peut commettre des erreurs est clairement insuffisant. Il est de leur responsabilité d’expliquer tous les risques liés à l’IA. Une page dédiée à cela et accessible via un simple bouton serait déjà un bon début. On pourrait même imaginer un texte unifié parmi tous les fournisseurs, à l’image d’un avertissement qu’on affiche systématiquement sous une publicité pour des produits alimentaires. Si on se préoccupe de bien nourrir nos corps, on devrait faire de même, si ce n’est plus, pour notre esprit, n’est-ce pas ?

Vers un avenir cognitif durable : Plaidoyer pour l'utilisation de votre cerveau — même si l'IA peut penser pour vous

La technologie, de l’effet Google à l’effet ChatGPT, pourrait redessiner notre cerveau, pour le meilleur et pour le pire. Elle amplifie nos capacités certes, mais risque de nous rendre dépendants et de creuser les inégalités parmi nous. En adoptant une approche responsable en tenant compte des risques, enjeux éthiques et sociétaux, nous pouvons façonner un avenir où la technologie soutient notre cognition sans la supplanter.

Comme le soulignait Ford dans son article, dans le monde du travail actuel, ne pas utiliser les outils d'IA peut être un désavantage concurrentiel. Les attentes en matière de productivité sont si élevées que le cerveau seul ne suffit plus.

Le véritable enjeu est le choix et l'intention. La solution n'est pas de rejeter la technologie, mais de l'utiliser de manière intentionnelle. Il faut consciemment décider quelles compétences cognitives nous souhaitons préserver (la pensée critique, la créativité, la résolution de problèmes complexes) et lesquelles nous pouvons déléguer sans risque.

Le danger n'est pas seulement une "atrophie du cerveau" à l’échelle individuelle, mais une perte d'autonomie collective face à des technologies développées par une poignée d'acteurs puissants, sans débat public sur leurs impacts sociétaux. Le risque dépasse l'individu.

Image générée avec Gemini

(*) Le MIT déclare sur cette étude : “Nous espérons que cette étude servira de guide préliminaire pour encourager une meilleure compréhension des impacts cognitifs et pratiques de l'IA sur les environnements d'apprentissage.”

Et partage des limitations importantes à prendre en considération : 

  • L'étude a été menée avec un nombre limité de participants provenant d'une zone géographique et d'un milieu académique très spécifiques. Les résultats ne sont donc pas forcément généralisables à une population plus large et diversifiée (en termes d'âge, de profession, de sexe, etc.).
  • Seul ChatGPT a été utilisé. Les conclusions ne s'appliquent donc pas nécessairement à d'autres modèles de langage (LLM). De futures études devraient inclure une plus grande variété d'outils d'IA.
  • Les résultats sont spécifiques à la rédaction d'un essai dans un contexte éducatif. Ils pourraient être très différents pour d'autres types de tâches (résolution de problèmes, brainstorming créatif, etc.). De plus, la tâche n'a pas été décomposée en sous-étapes (génération d'idées, rédaction, révision), ce qui aurait permis une analyse plus fine.
  • L'analyse par EEG était incomplète (n'incluant pas les variations de la puissance spectrale) et sa faible résolution spatiale ne permet pas d'observer l'activité des structures cérébrales profondes. L'utilisation de l'IRMf (Imagerie par Résonance Magnétique fonctionnelle) est suggérée pour de futurs travaux.
  • L'étude n'a pas évalué les impacts longitudinaux de l'utilisation des LLM. On ne connaît donc pas les effets à long terme sur des compétences clés comme la rétention mémorielle, la créativité ou la fluidité d'écriture.

Références :  

- Celia Ford, The case for using your brain — even if AI can think for you, Vox, 10 mars 2025.

- Betsy Sparrow et al., Google Effects on Memory: Cognitive Consequences of Having Information at Our Fingertips, Science, 2011.

- Magnus Liebherr et al, Smartphones and attention, curse or blessing? - A review on the effects of smartphone usage on attention, inhibition, and working memory, Computers in Human Behavior Reports, 2020.

- Binny Jose et al, The cognitive paradox of AI in education: between enhancement and erosion, Frontiers. Psychology., 14 April 2025, Sec. Educational Psychology.

- Michael Gerlich , AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking, 2025.

- Çela, E., et al, (2024). Risks of AI-assisted learning on student critical thinking. Int. J. Risk Contingency Manag. 12, 1–19. doi: 10.4018/IJRCM.350185

- Van der Weel, F. R. R. & Van der Meer, A. L. H. Handwriting but not typewriting leads to widespread brain connectivity: a high-density EEG study with implications for the classroom. Front. Psychol. 14, 1219945 (2024).

- Lee et al, The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers, Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems, Article No.: 1121, Pages 1 – 22

- Boussad Addad, « ChatGPT pour tous : le guide pas-à-pas pour maitriser une technologie tentaculaire », Publication indépendante, 2023.

Ne manquez rien !
Chaque mois, recevez un récap des derniers articles publiés directement dans votre boîte mail.
À propos de l'auteur·e
Boussad Addad, Ph.D
Linkedin

Chercheur dans un laboratoire privé spécialisé en intelligence artificielle. Docteur diplômé de l'École Normale Supérieure de Paris-Saclay, il a reçu en 2013 à Strasbourg le prix de la meilleure thèse de doctorat en France.