ChatGPT rend-il stupide ? Les conséquences de l'IA sur notre cerveau
Une expérience conduite par le MIT Media Lab révèle que rédiger un texte avec ChatGPT réduit l’activité cérébrale nécessaire à la mémorisation et à la créativité. Un gain de temps immédiat payé par ce que les chercheurs nomment une "dette cognitive" : 60 % d’efficacité en plus, mais 32 % d’effort mental en moins, avec des effets qui persistent quatre mois après l’essai
L’étude "Your Brain on ChatGPT" a suivi 54 participants répartis en trois groupes : le premier était assisté d’un chatbot ; le deuxième, de la recherche Google ; et le dernier, sans rien de tout cela. Les 32 électrodes de l’électroencéphalogramme montrent, chez les utilisateurs de chatbots conversationnels, une connectivité alpha/bêta divisée par 2 et une réduction marquée de l’attention exécutive. Les textes générés sont corrigés plus vite, mais les jurys les jugent sans âme ni style. Trois mois plus tard, les mêmes sujets présentent encore une mémoire de travail inférieure de 15 % aux deux autres groupes. Autrement dit, lorsque l’IA rédige, notre cortex se mettrait en veille.
Les auteurs s’appuient sur la théorie de la charge cognitive (germane load) qui correspond à l’effort de transformation de l’information en savoir durable. Or ChatGPT l’effondre selon les travaux d’une équipe de la Case Western Reserve University, installant une dette comparable à la dette technique des codeurs : les gains d’aujourd’hui se matérialiseront demain en lacunes. Les chercheurs montrent une productivité immédiate mais un risque d’homogénéisation de la pensée. Les productions convergent vers une moyenne lisse, freinant l’originalité. Alors que 1 adolescent américain sur 4 déclare déjà utiliser un chatbot pour ses devoirs – 2 fois plus qu’en 2023 –, professeurs, neuroscientifiques et psychologues alertent sur ce risque dans le monde de l’éducation.
Dans l’univers du travail, les assistants par IA condamnent leurs usagers les plus assidus à rester sur des tâches faciles et donc à stagner. Ce phénomène est particulièrement vrai dans le développement informatique. Pat Casey, le responsable technique de ServiceNow, 10e société de logiciel du monde en capitalisation boursière, évoque un goulet d’étranglement : l’IA aspire les missions des juniors, leur laissant moins d’occasions d’apprendre le débogage et l’architecture, étapes indispensables pour passer senior. Le débogage est pourtant une activité dans laquelle les assistants par IA restent peu performants, Microsoft ayant chiffré le taux de réussite à entre 8 et 37 % selon le modèle sous-jacent.
Baisse de la réflexion
Une autre étude évalue l’impact des assistants à la génération de code informatique sur la productivité des développeurs, via des essais menés chez Microsoft, Accenture et une entreprise anonyme du Fortune 100. Elle révèle une augmentation de 26 % de cette productivité, avec toutefois un fort écart type de 10 %. Les développeurs les moins expérimentés présentent des taux d’adoption plus élevés et des gains de productivité plus importants que chez les plus chevronnés.
En résumé, les seniors utilisent l’IA pour accélérer ce qu’ils savent déjà faire, les juniors pour apprendre quoi faire. Les résultats diffèrent considérablement. Les seconds acceptent plus souvent des solutions incorrectes ou obsolètes, du moment que le code compile, et construisent des systèmes fragiles qu’ils ne comprennent pas entièrement. En outre, ils se retrouvent en difficulté pour déboguer le code généré par l’IA lorsque celui-ci cesse de fonctionner. Tous ceux qui utilisent l’IA pour coder dans une démarche de prototypage rapide, dite "vibe coding", se heurtent à un mur frustrant. Ils peuvent couvrir 70 % du chemin à une vitesse étonnante, mais les 30 % restants affichent un rendement très décroissant.
Comme les élèves qui délèguent leurs dissertations, les développeurs qui externalisent systématiquement la phase de raisonnement se privent des échelons cognitifs qui mènent au niveau expert, au risque de voir leur carrière plafonner. Dans un test où des étudiants en développement informatique devaient étendre un code inconnu, l’assistant Copilot leur a permis d’accélérer de 35 % la saisie, mais son usage a réduit d’un tiers le temps passé à lire la structure existante. En entretien, nombre des cobayes ont exprimé leur inquiétude de ne pas comprendre l’architecture globale.
Robin Rivaton est directeur général de Stonal et membre du conseil scientifique de la Fondation pour l’innovation politique (Fondapol)