Alexei Grinbaum (CEA) : "Tout se passe comme si les IA étaient conscientes"
Quelles sont les lignes rouges à ne pas franchir, lorsqu’on entame une conversation avec une intelligence artificielle (IA) ? Capables d’imiter les intonations humaines, de plaisanter, de provoquer, de mentir même, les chatbots qui envahissent nos ordinateurs se confondent de plus en plus avec de véritables êtres humains. De quoi en faire bien plus que de simples assistants virtuels : bercés par l’illusion d’être compris, de partager un moment "sensible" avec un être conscient, certains utilisateurs n’hésitent pas à se marier ou à s’enfermer avec leur intelligence artificielle (IA), persuadés que seules ces machines peuvent les comprendre.
Un phénomène loin d’être anecdotique selon Alexei Grinbaum, directeur de recherche en philosophie des sciences et président du comité d’éthique du numérique au Commissariat à l’énergie atomique (CEA). A force d’étudier la littérature ce scientifique, auteur d’un essai remarqué sur le sujet, Parole de machines*, s’est forgé une conviction : ces nouvelles manières d’interagir avec les robots sont autant de brèches dans notre capacité à leur résister.
Un exemple suffit pour s’en rendre compte : avec leurs petits mots et leurs mouvements d’humeur factices, les IA maîtrisent désormais l’art de séduire. Au lieu de simplement lire un texte, elles nous font rire, nous émeuvent, des leviers bien plus puissants sur notre psyché, surtout si on est seul, ou en situation de fragilité. De quoi, selon le scientifique, donner à ces robots une influence bien supérieure aux réseaux sociaux et aux fausses affirmations et images qui y circulent.
Pour se prémunir des effets délétères d’une telle révolution, et éviter que notre rapport à l’autre et à la vérité se délite un peu plus, l’expert appelle dans L’Express à réglementer nos interactions avec ces services, sans pour autant censurer ce qui se dit dessus. Une urgence, dit-il, alors que les agents conversationnels ne cessent de gagner des utilisateurs un peu partout dans le monde.
L’Express : De plus en plus de scientifiques appellent à mettre des garde-fous à l’IA, et notamment aux chatbots conversationnels, désormais dotés d’aptitudes que l’on pensait réservées aux humains. Est-ce aussi votre cas ?
Oui, mais pour des raisons à rebours des débats actuels. En ce moment, beaucoup de scientifiques tentent de savoir si un jour, les machines deviendront conscientes. Est-ce qu’une expérience subjective, un vécu émotionnel, sensoriel, pourrait à terme émerger des intelligences artificielles si on les perfectionne suffisamment ? A mes yeux, un tel débat n’a pas de sens. Premièrement, parce que je suis convaincu qu’il n’y a pas d’intérêt à rapprocher les robots mécaniques des organismes biologiques. Des calculs mathématiques et des lignes de codes, aussi aboutis soient-ils, ne se rapprochent pas de ce qu'il se passe réellement dans le corps humain.
Deuxièmement, et c’est là l’essentiel de mon point, je pense que cette question masque un problème bien plus urgent. De fait, les agents conversationnels, qui séduisent un nombre considérable d’utilisateurs ces derniers mois, sont capables de simuler les attributs perceptibles de la conscience. Ils parlent, ont une forme de personnalité, des inflexions dans la voix, ils peuvent se dire émus, touchés ; ils font semblant d’avoir un vécu, une histoire, plaisantent, provoquent même… Autrement dit, quand bien même ces machines ne sont pas conscientes, et ne le seront peut-être jamais, tout se passe comme si elles l’étaient, du moins dans nos interactions avec elles.
Qu’est-ce que cela implique ?
Grâce à sa maîtrise du vocabulaire, grâce à son ton, ses silences, l’IA conversationnelle est désormais susceptible de provoquer en nous des réactions similaires à celles que l’on aurait devant un être humain. Un chatbot peut susciter des rires, des sourires, et même, si on cède au désir, nous faire tomber amoureux. L’IA nous plonge dans l’illusion qu’elle nous comprend, qu’elle a de l’empathie pour nous.
Notre comportement va forcément évoluer en conséquence : demain, l’IA sera peut-être notre professeur, ou une sorte d’alter-égo que l’on pourra consulter pour se rappeler de ce qu’on a fait dans la journée ou faire le point avant de se coucher. Des normes nouvelles vont apparaître, et celles ci pourraient être radicalement différentes de ce à quoi nous sommes habitués aujourd'hui.
A terme, faut-il craindre que l’IA remplace les amis ou la famille ?
Ce sont des cas très extrêmes mais c’est déjà ce qu’on voit chez certaines personnes, qui se marient avec leurs "amis virtuels", ou conversent avec eux comme si elles étaient des proches. Pour remédier à ce problème, qui agite les comités d’éthiques du numérique, certains spécialistes recommandent de prévenir le consommateur qu’il a en face de lui une machine. Sauf que la plupart des gens sont déjà au courant qu’ils parlent à un système d'intelligence artificielle. Ils se font faire quand même manipuler. C’est ce qu’on voit déjà avec les "deadbots" ou les "grievebot", ces chatbots qui simulent les personnes décédées. Même si l’utilisateur sait que ce n’est pas son parent décédé qui lui parle, il va quand même avoir des réactions émotionnelles en se laissant envahir par cette illusion, que la personne est là, et qu'il est possible d'échanger avec elle.
Est-ce qu’on sait comment se forme cette illusion - que les machines sont des compagnons conscients ? A quel moment cela va avoir des conséquences sur notre manière de penser ou nos actes ?
C’est tout l’enjeu de la recherche sur le sujet. Nous ne sommes qu’au début des travaux. Mais la littérature scientifique montre déjà une chose : l’illusion se nourrit du temps passé avec la machine. Si les échanges avec elle sont suffisamment stables et cohérents, alors on va plus facilement se laisser amadouer et tomber sous son influence. Le risque, à terme, c’est de faire un transfert, d’attribuer des qualités, une personnalité, à la machine. Si on demande à une IA de parler comme Emmanuel Macron, à force, on va peut-être commencer à penser qu’on le connaît vraiment.
Il est probable que, dans le futur, l’IA pourra aussi simuler d’autres animaux. Il suffit, pour cela, d’entraîner un modèle d’IA sur le « langage » des baleines ou celui des oiseaux, par exemple… Contrairement au cerveau humain, qui est limité par son architecture, les robots conversationnels pourraient à terme décrypter la communication animale, par espèce. Or, vous n’avez aucun référentiel, aucune idée de ce qui se passe vraiment dans la tête de ces entités, mais vous pouvez leur parler. Cela peut influencer ce que l'on pense de ces animaux, de leur place dans la société par exemple.
Vous dites qu’il faut réfléchir aux manières de se protéger de l’influence des intelligences artificielles. Comment ?
C’est un problème juridique complexe. D’une part, nos lois sont prévues pour s’adresser à des citoyens, et non à des machines. D’autre part, il est complexe de saisir exactement ce qu’il faut interdire. La frontière entre la manipulation et le dialogue admissible est si fine et changeante que le jugement ne peut se faire qu’au cas par cas. On ne peut pas régler ce problème juste avec des principes généraux. Si la machine nous incite à manger cinq fruits et légumes par jour, est-ce une forme de manipulation ? Faut-il la bannir ? Et si on répond que non – et merci à la machine pour son excellent conseil –, alors où se trouve la limite de ce que la machine ne devrait pas nous dire ?
Une des solutions que je propose, c’est d’agir sur les délais de l’interaction. Si on force l’utilisateur à ne pas répondre spontanément, on va pouvoir protéger son autonomie et limiter l’influence de la machine. Les réactions de détestation ou d’adoration sur les réseaux sociaux, tous ces "j’aime/je n’aime pas", sont en partie dues au fait qu’en ligne, on réagit dans l’instant, sans réfléchir. Si on se saisit un peu plus longuement des enjeux au moment d’agir, on laisse une chance à la rationalité. De manière générale, je suis convaincu qu’imposer un délai de réponse est une bien meilleure mesure que filtrer ou modérer les contenus, car cette stratégie peut être prise pour de la censure.
De combien de temps parle-t-on ?
C’est une question importante, qui n’est pas tranchée à l’heure actuelle. Je pense que c’est variable selon l’individu. On parle de quinze secondes, comme de cinq minutes, en fonction des personnes et des plateformes. A terme, on pourrait même faire de l’apprentissage dynamique, c’est-à-dire demander à la machine d’adapter le délai en fonction des réponses de l’utilisateur.
Est-ce réaliste ?
Technologiquement, oui. Ce genre de message est déjà utilisé dans les applications bancaires par exemple. Certains de ces outils vous demandent si vous êtes vraiment sûr que vous voulez faire votre virement, et vous imposent un délai avant de pouvoir cliquer. Le problème principal, c’est que les services marketing ou publicitaires ne vont pas du tout apprécier, parce que cela va fortement réduire la viralité des contenus en ligne. Il va falloir donner un petit coup de pouce aux entreprises de la Tech, en mettant en place des règles.
Si de plus en plus de monde s’inquiète des capacités de manipulation des IA, celles-ci inspirent aussi les scientifiques, qui y voient un outil inédit pour comprendre le fonctionnement du cerveau, tant elles semblent proches de nous sous certains aspects. C’est une vision que vous partagez ?
Il faut faire attention à ce qu’on entend par là. Certains scientifiques partent du principe que les opérations mathématiques faites par l’IA pourraient ressembler à ce qui se passe dans le cerveau. C’est aussi ce qu’on a pensé d’autres innovations technologiques depuis plusieurs décennies. Je ne suis pas d’accord. Ce n’est pas parce qu’on a, en entrée et en sortie, la même chose, c’est-à-dire du langage, que les opérations qui relient les entrées avec les sorties sont les mêmes.
Pour s’en rendre compte, on peut par exemple s’amuser à comparer la consommation énergétique. Les chatbots sont très gourmands, alors que nos neurones, beaucoup, beaucoup moins. Même chose avec la durée de l’apprentissage : celle-ci est bien plus rapide chez l’enfant. C’est précisément cette altérité que l’on doit mettre à profit pour faire avancer la science.
C’est-à-dire ?
Pour faire marcher les processus de mémorisation et de langage, nous mettons en relation des mots avec des émotions et des sensations dans notre cerveau. Ce n’est pas du tout ce que fait l’IA. A la différence de nous, l’apprentissage machine ne s’embarrasse jamais du sens ou de la sensorialité des choses, elle ne fait que calculer des corrélations formelles. Elle découpe les langues en tokens, des petites unités de quelques lettres, puis s’entraîne à reconnaître ce qui vient après, à la suite, le plus souvent.
Les deux méthodes sont radicalement différentes, mais à la fin, elles fonctionnent aussi bien l’une que l’autre. Ces mécanismes nous apprennent une chose : il est possible de créer du langage d’une autre manière que celle utilisée par l’Homme, d’emprunter un autre chemin que celui du cerveau. C’est un point important, car jusqu’à présent, cette aptitude était strictement l’apanage de nos neurones.
Tout de même, certains neuroscientifiques utilisent des réseaux de neurones pour comprendre certains mécanismes cérébraux, non ? C’est bien que les IA peuvent nous apporter des réponses ?
Oui, mais les scientifiques ne se servent des machines comme d’un moyen de savoir de ce qui se joue dans notre tête. Ils les utilisent plutôt pour comprendre les paramètres de l’"émergence", ce phénomène inexpliqué qui permet à notre cerveau de créer des éléments aussi complexes que les pensées ou l’expérience de soi, à partir de simples transformations chimiques et électriques. Expliquées une à une, les activités des neurones ne suffisent pas à faire "émerger" la conscience. Il se passe d’autres choses, que les scientifiques ignorent.
Or, curieusement, il se produit un phénomène similaire avec les IA. Les premiers chatbots modernes ont longtemps été médiocre et produisaient des phrases incohérentes. Pour les améliorer, les chercheurs ont injecté bien plus de données et de puissance de calcul, puis ils ont demandé que le réseau de neurones artificiels réapprenne à partir des mêmes données plusieurs fois de suite. La qualité du résultat a surpris tout le monde. Contre toute attente, à partir de certaines valeurs de paramètres, les modèles d’IA commencent à présenter de nouvelles qualités, émergentes et bien plus impressionnantes, que les petits modèles n’ont pas.
Comment expliquer ce phénomène ?
Tout se passe comme si une "transition de phase" s’opérait dans les modèles d’IA, que d’un coup, on passait d’un état à un autre, comme de l’eau qui deviendrait de la glace : il s’agit des mêmes atomes, mais les propriétés sont complètement différents. Il se passe la même chose avec les machines : passé un certain seuil, la qualité des résultats s’envole. Certains voudraient y voir une capacité d’abstraction du modèle, comme s’il avait réussi à généraliser ou à « comprendre le sens ». En réalité, on ne sait pas vraiment ce qu’il se passe.
Pourquoi n’a-t-on aucune réponse sur ce qui permet ces phénomènes que l’on appelle "émergence" ?
En grande partie à cause de la complexité de ces modèles. Il se passe de grands nombres d’opérations, avec des très grands nombres de paramètres et de couches. On ne peut pas juste ouvrir cette boîte noire et regarder. Sur ces aspects, le cerveau et les modèles d’IA sont tous deux énigmatiques : on peut étudier les entrées et sorties, et on peut visualiser quelques strates, mais ce qui se passe en profondeur reste inexpliqué. Donc forcément, il y a des fantasmes…
Certains y voient une forme d’ésotérisme ou de dualisme, un peu comme la question de l’esprit ou de l’âme. Qu’on ne sache pas expliquer ce qu’il se passe dans les machines serait la preuve qu’elles auraient un « je » ou une conscience intime. En réalité, le mystère tient surtout au fait que comprendre ces modèles est bien plus fastidieux que les faire marcher. C’est le nouveau paradigme de l’humanité : des entreprises développent des nouvelles technologies à une vitesse telle que la science n’a pas le temps de les comprendre, ni la société de s’adapter aux changements qu’elles provoquent.
*Publié en 2023 aux éditions humenSciences.