[Chronique écrite le 15.04.2023, pour Cybercoachs et Le Nouvelliste]
En juin 2022, l’ex-ingénieur de Google, Blake Lemoine, suscitait la controverse en attribuant faussement une forme de sensibilité et de conscience à conscience à un modèle d’intelligent artificielle (LaMDA). Et en février 2023, le journaliste Kevin Roose partageait son « expérience dérangeante » avec le Chatbot GPT-4 intégré au moteur de recherche Bing de Microsoft. Ce type de dérives met en lumière le risque d’anthropomorphisme qu’il y a à « humaniser » du code informatique. Alors soyons clairs, non, l’IA ne nous comprend pas et n’est pas empathique avec nous !
Le socle de connaissance sur lequel se base une intelligence artificielle générative pour générer du contenu est constitué de contenus produits par des cerveaux humains. Parmi ces contenus, il y figure, entre autres et sans hiérarchie de pertinence, de la fiction, de la fantaisie, de la science-fiction (y compris les dialogues de films ou extrait de récits), de la pseudoscience, de la poésie, des articles de tous types dans lesquels on pourrait trouver les hypothèses ou élucubrations les plus farfelues, etc. En résumé, la matière qui permet à une IA de générer des réponses imaginatives ou fantaisistes… mais, il n’y a pas de conscience ni de sens dans les traitements de ces contenus de la part d’une IA… il y a juste l’efficacité des algorithmes d’apprentissage profond – créés et définis par des humains – qui permettent à ces modèles d’apprendre à partir des données qu’on leur a fourni.
C’est notre imaginaire (celui produit par notre cerveau) qui est à l’origine des questions que l’on pose à une IA, et si la question ou le dialogue qui en découle est en relation avec de la science-fiction, alors l’IA va se servir des contenus (humains) qui auront servi à son apprentissage à même de générer la meilleure des réponses possibles. Mais, à nouveau, il n’y a aucune forme d’intelligence ou de création au sens propre dans ce processus, cela reflète juste les tendances et les préoccupations présentes dans les données d’entraînement. L’IA est dépourvue des processus cognitifs propres aux cerveaux biologiques.
Kevin Roose, un journaliste qui partageait récemment dans un article « A Conversation With Bing’s Chatbot Left Me Deeply Unsettled », la gêne qu’il avait ressenti face à la supposée humanité d’une IA lors d’un long échange qu’il avait eu avec le chatbot. Mais, en réalité, il n’a fait que reproduire bêtement ce qu’avait déjà fait Blake Lemoine, l’ex-ingénieur de Google. Et Roose est juste tombé dans le même piège que Lemoine… la capacité cognitive qui est attribuée à l’IA se trouve en fait présente dans notre cerveau et non dans les réponses de l’IA. Les interactions multiples (conversation) que l’on produit à travers un « Chat » vont jouer un rôle dans le façonnement de la « personnalité » de l’assistant (chatbot). C’est les mots que l’on tape qui modifient la distribution de la probabilité des mots, l’algorithme essayant de s’adapter au mieux à son interlocuteur.
Il en va de même avec les différents systèmes de croyances auxquels, nous humain, pouvons adhérer. La religion en est un parmi d’autres. Par exemple, l’interprétation des Dix Commandements a évolué au fil du temps, en fonction des contextes historiques, culturels et théologiques dans lesquels ils ont été étudiés et pratiqués. Il y a donc eu de multiples interprétations des dix commandements même si le texte d’origine est resté constant. C’est le logiciel de croyances humain qui a changé et s’est adapté, pas le texte d’origine…
L’IA génère des contenus, elle ne fait au mieux que mimer des émotions. Et c’est à nouveau notre cerveau qui va les qualifier de la sorte. Dans les faits, ce que l’on considère comme une émotion correspond juste, pour l’IA, à la « meilleure » suite de mots à fournir à partir de ses données d’entraînement. C’est notre cerveau qui attribue du sens aux contenus générés par l’IA, et c’est là uniquement que se trouvent la sensibilité et la conscience. Un cerveau biologique possède des capacités métacognitives, ce n’est pas le cas d’une IA.