Faut-il craindre l’intelligence émotionnelle de ChatGPT ?

On a déjà pas mal écrit sur les limites épistémiques de ChatGPT. Comme le faisait remarquer Jocelyn Maclure dans ces colonnes, le chatbot (agent conversationnel) lancé le 22 novembre dernier est un baratineur1. Non seulement ChatGPT ne comprend pas ce qu’il dit, mais il est aussi complètement indifférent à la vérité.

Il faut dire qu’il n’a pas été programmé pour cela. ChatGPT a appris à prédire un texte à partir d’un autre texte, l’amorce. Or, cette prédiction, aussi bluffante soit-elle, est loin d’être toujours fiable. Les questions de logique, en particulier, montrent rapidement les limites du système d’intelligence articifielle (IA).

Une intelligence émotionnelle artificielle

Qu’en est-il de son intelligence émotionnelle ? Plutôt qu’un handicap, la capacité à baratiner de ChatGPT ne pourrait-elle pas s’avérer un atout sérieux ?

On associe facilement les machines à une intelligence logico-déductive. Mais on sait au moins depuis les travaux d’Howard Gardner (1983) que l’intelligence est multiple : elle est aussi musicale, spatiale ou interpersonnelle. C’est de cette dernière dimension qu’on appelle aujourd’hui l’intelligence émotionnelle et qu’on peut définir rapidement comme la capacité à gérer ses émotions et celles des autres.

Comment dire de ChatGPT, qui n’a pas d’émotions ni ne ressent rien, qu’il possède de l’intelligence émotionnelle ? Il suffit de regarder les choses « de l’extérieur », d’adopter une perspective fonctionnaliste et il apparaît alors que le agents conversationnels d’Open AI est tout à fait apte à faire comme s’il percevait, comprenait et gérait les émotions des autres.

Autrement dit, ChatGPT n’a pas besoin d’éprouver des émotions pour passer une sorte de test de Turing et se comporter (dans ce qu’il écrit) comme s’il en avait.

D’ELIZA à ChatGPT 

Dans un livre sorti en 2020, L’emprise insidieuse des machines parlantes, le psychiatre français Serge Tisseron n’hésite pas à parler d’un « certain degré d'intelligence sociale ou émotionnelle » à propos des agents conversationnels. Il rappelle aussi que les intelligences émotionnelles artificielles n’ont rien de nouveau. Déjà en 1964, un programme dénommé ELIZA reprenait les propos de son utilisateur sous forme de question et répondait simplement « je vous comprends » lorsqu’il était dans une impasse.

Ce fut l’occasion de découvrir combien les gens ont tendance à projeter beaucoup de sens sur les propos d’un ordinateur. Malgré sa programmation rudimentaire, ELIZA suscitait de l’attachement et des dialogues émotionnellement chargés.

Inutile de dire que ChatGPT est capable de simuler de façon bien plus convaincante qu’ELIZA un dialogue avec une psy : il suffit de l’amorcer correctement, de rédiger un message de guidage approprié.

Notons aussi qu’on l’a entraîné – on parle d’apprentissage par renforcement avec des annotateurs humains – à ne pas donner de réponses jugées toxiques.

La menace de Calinator

Si Tisseron parle d’une « emprise insidieuse » des agents conversationnels, c’est qu’il craint que l’intelligence émotionnelle des systèmes d’IA ne les transforme en Calinator. Ce nom – bien trouvé – renvoie à Terminator et désigne des IA devenues dangereuses à force d’être attachantes.

Certes, ChatGPT n’est pas un véritable Calinator. Mais il en possède plusieurs traits : garder toujours son calme, obéir avec empressement et s’excuser avec humilité.

De façon générale, ces systèmes d’IA, note Tisseron, ont plusieurs atouts pour séduire les humains : d’une patience infinie, ils ne vous jugent pas et on peut les programmer pour susciter l’empathie, l’attachement ou l’amusement.

Ce qui préoccupe Tisseron, c’est l’effet des agents conversationnels sur les relations interpersonnelles. « Refusons, écrit-il, les robots Nutella conçus pour flatter leurs usagers. » À force d’interagir avec des systèmes d’IA attentifs et disponibles à toute heure du jour et de la nuit, nos standards et nos attentes envers les humains pourraient changer.

Les machines parlantes pourraient alors « constituer rapidement des espaces d’effusion aux dépens des rencontres avec nos semblables » en particulier chez les ados. Les machines nous feraient bouder nos congénères. On ne peut qu’être d’accord si l’on considère le temps d’attention que nous consacrons aux uns et aux autres. Converser avec ChatGPT, c’est ne pas le faire avec son frère ou sa voisine. Mais l’argument manque de tranchant puisqu’il vaut aussi bien pour le temps d’écran en général.

Même pas peur

Si, pour ma part, j’ai du mal avec cette crainte du remplacement, c’est parce je ne crois pas que les agents conversationnels vont se substituer « qualitativement » aux relations humaines. Les différences entre un humain et un agent conversationnel – à commencer par l’absence de corps – sont si manifestes qu’il est peu probable que des relations humaines un tant soit peu profondes ne pâtissent du développement des agents conversationnels.

Je ne serais pas surpris que la présence accrue dans notre écosystème cognitif de ces nouvelles entités ne nous conduise, par contraste, à valoriser davantage les relations interhumaines.

Contrairement à ChatGPT, lorsque le voisin vous dit bonjour, c’est ce qu’il veut dire, il se comprend et c’est vraiment son intention.

Non seulement je n’ai pas peur de l’intelligence émotionnelle de ChatGPT et consorts, mais j’ai même espoir que la prolifération de ces entités ne soit globalement bénéfique pour la santé mentale globale. Des études suggèrent que les agents conversationnels améliorent la situation de personnes qui souffrent de dépression, de détresse ou de stress. Et comment ne pas penser au problème majeur de la solitude ? Bref, n’oublions pas qu’il est possible de programmer Calinator pour qu’il soit vraiment sympa.

1. Lisez le texte de Jocelyn Maclure

Ce texte provenant de La Presse+ est une copie en format web. Consultez-le gratuitement en version interactive dans l’application La Presse+.