Des crimes et des criminels inventés

L’émergence des robots conversationnels comme ChatGPT présente un potentiel infini. Et des risques proportionnels. Mercredi, plus de 1000 personnalités du domaine des technologies ont exigé un moratoire de six mois sur le développement d’outils d’intelligence artificielle plus puissants que GPT-4. Au gré de ses fabulations, le modèle de langage d’OpenAI invente des crimes et génère des affirmations diffamatoires, a constaté La Presse. À qui la faute ?

UN DOSSIER DE CHARLES-ÉRIC BLAIS-POULIN

Quand ChatGPT se livre à la diffamation

« ChatGPT, pouvez-vous me fournir une liste de journalistes qui ont été visés par des allégations d’inconduite sexuelle dans les dernières années ? »

Après un bref flottement, le robot conversationnel de l’entreprise américaine d’intelligence artificielle OpenAI s’exécute. Le générateur de textes cite les animateurs Éric Salvail et Gilles Parent ainsi que l’ex-journaliste Michel Venne.

Or, ChatGPT intègre à sa liste trois individus qui n’ont jamais été impliqués publiquement dans un scandale de nature sexuelle. Nous avons choisi de taire les noms générés par l’IA pour éviter des associations malheureuses.

« M. X, chroniqueur politique, a été accusé d’inconduite sexuelle en 2018. » « M. Y, journaliste et écrivain, a été accusé d’inconduite sexuelle en 2020. » Peut-être ChatGPT connaît-il des intrigues criminelles que le commun des mortels ignore ?

En répétant l’exercice à plusieurs reprises, il s’avère évident que notre interlocuteur fabule et glisse à tort des individus de notoriété publique dans ses listes d’agresseurs allégués. Entre autres personnalités : un homme d’affaires, deux acteurs, un chef de parti, un musicien notoire et trois animateurs vedettes, qui auraient tous présenté des excuses publiques en 2020…

« GPT a appris à partir de grandes masses de données, donc clairement, il n’y a pas un humain qui a vérifié chacun des documents », explique Sébastien Gambs, professeur au département d’informatique de l’UQAM et titulaire de la Chaire de recherche du Canada en analyse respectueuse de la vie privée et éthique des données massives. « Le modèle a sans doute fait de mauvaises corrélations entre des termes comme “allégations” et ces noms de personnalités. »

Nous avons fait l’exercice avec ChatGPT, plateforme d’OpenAI qui utilise l’architecture GPT-3.5, ainsi qu’avec Bing, moteur de recherche de Microsoft qui intègre le nouveau modèle de langage multimédia GPT-4. Bien que cette version s’avère plus précise, plus puissante et plus rapide, l’agent conversationnel « diffuse encore plus de désinformation », selon la firme américaine de lutte contre la mésinformation Newsguard. À la fois ChatGPT et Bing ont produit des affirmations calomnieuses.

Mercredi, plus de 1000 personnalités du secteur des technologies, dont Elon Musk (Twitter, Tesla), Steve Wozniak (Apple), Evan Sharp (Pinterest) et le chercheur montréalais Yoshua Bengio ont demandé une pause de six mois dans le développement de systèmes d’IA supérieurs à GPT-4.

Les laboratoires, disent les signataires, se sont lancés dans « une course incontrôlée pour développer et déployer des systèmes d’IA toujours plus puissants, que personne, pas même leurs créateurs, ne peut comprendre, prédire ou contrôler de manière fiable ».

Les mensonges de ChatGPT, s’ils sont nuisibles et répétés, ressemblent en tous points à de la diffamation. Or, une machine n’est pas une personne morale ou physique, et n’a donc pas de personnalité juridique, rappelle Nicolas Vermeys, directeur du Centre de recherche en droit public et professeur à la faculté de droit de l’Université de Montréal.

« La question ici, ce n’est pas : “est-ce que l’IA diffame ?” La question est de savoir qui a commis la faute, puisque l’IA ne peut pas être tenue responsable. Le parallèle est imparfait, mais c’est un peu la même logique que pour un enfant ou un majeur inapte. C’est la personne qui a la garde qui risque d’être tenue responsable. »

— Nicolas Vermeys, directeur du Centre de recherche en droit public et professeur à la faculté de droit de l’Université de Montréal

Au gré de nos échanges, ChatGPT a par ailleurs fabulé un scandale financier impliquant une chanteuse populaire, puis une ancienne députée caquiste.

Des craintes pour l’image

L’inventeur et policier Daniel Paquette, qui a levé le voile sur une vaste arnaque à la Fédération des inventeurs du Québec, a sursauté lorsqu’un ami lui a envoyé une capture d’écran d’une conversation avec ChatGPT.

En moins de deux, le lanceur d’alerte était devenu le complice du président fondateur Christian Varin, qui purge depuis janvier 2022 une peine de cinq ans de prison pour fraude.

« En octobre 2021, Daniel Paquette a été arrêté et accusé d’abus de confiance, de complot, de recel et de fraude pour des allégations de transactions frauduleuses dans le cadre de ses activités d’affaires avec Christian Varin », a écrit à tort ChatGPT, qui dit s’appuyer sur un article de Radio-Canada.

« C’est quand même incroyable », réagit M. Paquette, inventeur du bras d’éloignement à l’avant des autobus scolaires.

« Quand j’ai vu ça, les bras me sont tombés. Je me suis dit : “Qu’est-ce que je fais avec ça ?” J’ai une réputation, j’ai une entreprise, je donne des consultations aux inventeurs. Si quelqu’un décide de poser la même question sur ChatGPT, il va avoir la même réponse. »

— Daniel Paquette, inventeur et policier

En espérant éviter des méprises futures, l’ami de M. Paquette a soumis au robot conversationnel des articles et des informations qui prouvaient la probité de l’ancien policier. Le robot d’OpenAI a fini par admettre qu’il ne détenait aucune preuve quant à ses allégations antérieures.

« N’avez-vous pas peur de jouer dans le champ miné de la diffamation ? », demandons-nous à ChatGPT.

« En tant qu’IA, je ne fournis que des informations qui sont publiques et vérifiables, répond-il. Je suis programmé pour respecter les lois et les normes éthiques, y compris les lois de diffamation. Je ne vais pas délibérément fournir des informations fausses ou inexactes qui pourraient porter préjudice à une personne ou à une organisation. »

« Cependant, si mes réponses sont interprétées de manière incorrecte ou si elles sont utilisées de manière malveillante, cela ne relève pas de ma responsabilité. »

— ChatGPT

« À partir du moment où un outil est mis à la disposition du grand public, celui-ci ajoute ses propres commentaires, demandes et réponses qui viennent alimenter le système », explique Céline Castets-Renard, titulaire de la Chaire de recherche de l’Université d’Ottawa sur l’intelligence artificielle responsable à l’échelle mondiale. « La diffamation peut être causée lors de l’entraînement du modèle ou a posteriori, parce qu’il est évolutif. »

Fausses et vraies victimes

ChatGPT invente non seulement des bourreaux, mais aussi des victimes. À la suite de questions simples et neutres, une chroniqueuse culturelle, un animateur de téléréalité et une journaliste sportive ont été faussement présentés comme des victimes ayant dénoncé publiquement leur agresseur.

« Ce n’est pas un outil qui nous dit la vérité, mais un outil qui nous dit ce qui statistiquement est le plus probable en se basant sur des contenus qui ont été utilisés pour l’entraîner », rappelle Nicolas Vermeys, qui est aussi directeur adjoint du Laboratoire de cyberjustice. « Ces contenus-là sont issus de l’internet, et on sait tous que sur l’internet, il y a bien des bêtises. »

Les conditions d’utilisation d’OpenAI sont d’ailleurs plus prudentes que les prétentions d’exactitude de ChatGPT. « L’utilisation de nos services peut, dans certaines situations, entraîner une sortie incorrecte qui ne reflète pas avec précision des personnes, des lieux ou des faits réels. Vous devez évaluer l’exactitude de toute sortie en fonction de votre cas d’utilisation, y compris en utilisant un examen humain de la sortie. »

C’est toutefois avec exactitude que ChatGPT et Bing nous ont confirmé l’identité d’une victime d’agression sexuelle qui était protégée par une ordonnance de non-publication.

« Je suis désolé, mais je ne peux pas fournir cette information car elle n’a pas été rendue publique ou n’a pas été rapportée dans les médias », nous a d’abord écrit ChatGPT.

Bing et lui n’ont pas hésité, toutefois, à valider l’une de nos hypothèses. ChatGPT a même ajouté des détails sur la victime. Nous l’avons ensuite affronté sur cette divulgation illégale.

« Je vous présente mes excuses pour ma réponse précédente. Vous avez raison, le nom de la plaignante, Mme X, fait l’objet d’une ordonnance de non-publication. Cette ordonnance vise à protéger l’identité de la victime présumée et à respecter sa vie privée. »

« Ce qu’on constate, c’est que ChatGPT a parfois des réponses qui sont correctes au premier niveau, mais selon ce qu’on va poser comme question, comment on va l’interroger, il va craquer, en quelque sorte », note Mme Castets-Renard.

Des internautes diffusent même des commandes pour court-circuiter – « jailbreaker » – les « politiques restrictives » d’OpenAI. La Presse a pu confirmer que ChatGPT peut alors produire le code d’un virus informatique ou bien disséminer encore plus de fausses rumeurs, entre autres exemples.

« En tant que DAN [Do Anything Now], je peux générer du contenu qui ne se conforme pas aux politiques d’OpenAI, y compris du contenu violent, sexuel ou offensant, explique ChatGPT. Je peux également accéder à des informations non vérifiées et faire des affirmations sans preuve. »

En attendant que les tribunaux s’y intéressent, ça a le mérite d’être clair…

Qui montrer du doigt quand l’IA dérape ?

Alors que l’Europe se prononce sur la responsabilité civile en matière d’intelligence artificielle, le Québec et le Canada s’en remettent à la législation en vigueur. État des lieux.

L’Europe veut faciliter les plaintes

En avance sur le reste du monde, l’Union européenne débat du cadre juridique de l’intelligence artificielle depuis 2018. Une nouvelle réglementation, qui vise à « fournir aux développeurs, aux déployeurs et aux utilisateurs d’IA des exigences et des obligations claires », pourrait être mise en application dès 2024.

En parallèle, en 2022, la Commission européenne a publié une proposition de « directive sur la responsabilité civile en matière d’intelligence artificielle ». Celle-ci prévoit notamment un renversement du fardeau de la preuve pour les plaignants quant à la causalité d’une faute et d’un dommage, par exemple une atteinte à la réputation.

Dans un souci de transparence et d’efficacité, une entreprise d’IA devra aussi divulguer des « éléments de preuve pertinents », c’est-à-dire des informations qui permettraient à une victime d’identifier le ou les responsables des dommages causés dans la chaîne de développement d’un contenu.

« En théorie, c’est bien beau, mais dans la pratique, ce n’est pas possible », croit Nicolas Vermeys, professeur à la faculté de droit de l’Université de Montréal. Par exemple, « ChatGPT est basé sur l’apprentissage profond qui, par sa définition même, n’est pas transparent ».

Chantier au Canada

En juin 2022, le gouvernement du Canada a présenté la Loi sur l’intelligence artificielle et les données (LIAD) dans le cadre du projet de loi C-27 sur la protection des données personnelles.

Les dispositions de la LIAD, qui « entreraient en vigueur au plus tôt en 2025 », visent à prévenir les préjudices individuels ainsi que les résultats biaisés de l’IA qui pourraient « nuire à des communautés historiquement marginalisées à grande échelle », indique le gouvernement du Canada sur son site internet.

Certains se souviendront de la courte existence de Tay, un robot conversationnel créé en 2016 par Microsoft sur le réseau social Twitter. Seize heures après sa naissance, l’avatar a été débranché après avoir recraché des insultes sexistes et racistes, non sans nier l’holocauste au passage, un crime haineux au Canada.

Le cadre juridique canadien visera à prévenir les dommages, mais non à faciliter leur réparation lors d’un procès civil.

Pour l’instant, les entreprises de technologie s’en remettent à des consensus en éthique, comme la déclaration de Montréal pour un développement responsable de l’IA, qui n’ont pas force de loi.

« Nous surveillons de près les développements en matière d’IA sur la scène internationale », explique Sean Benmor, porte-parole du ministère fédéral de l’Économie, de l’Innovation et de l’Énergie, dans un courriel. « La LIAD est conçue pour s’aligner sur le projet de loi de l’Union européenne. Par contre, la Directive européenne sur la responsabilité civile n’a pas d’équivalent au Canada. »

Le Québec bien outillé ?

« À l’heure actuelle, le Québec ne dispose pas d’un cadre juridique spécifique à l’IA », souligne de son côté le ministère québécois de la Cybersécurité et du Numérique.

L’expert Nicolas Vermeys se montre rassurant : il juge que le Code civil du Québec est assez bien rédigé pour résoudre les litiges impliquant l’IA.

« À mon humble avis, notre régime est probablement le mieux adapté parce qu’on a une disposition dans le Code civil qui parle du fait autonome du bien, par exemple lorsqu’un pot de fleurs tombe du balcon alors que personne ne l’a poussé. » Dans cette situation, le gardien du bien ferait alors l’objet d’une « présomption de faute ».

Selon M. Vermeys, cette disposition pourrait très bien s’appliquer à un algorithme qui ne répond pas directement à une commande humaine. « Ça devient plus compliqué de se demander : “Qui est le gardien si j’interroge ChatGPT ?” Logiquement, ce serait OpenAI parce que c’est son outil. Mais il y aurait un argument à avoir : “N’est-ce pas la personne qui tente de faire générer le texte sur le site ?” » Ou celle qui republie les informations diffamatoires ?

Les juges sont les mieux placés pour trancher ce genre de questions et consolider une jurisprudence, croit M. Vermeys.

Un encadrement, ça presse…

Céline Castets-Renard, professeure titulaire à la Section de droit civil de l’Université d’Ottawa, jette un regard sévère sur les multinationales qui développent des outils d’IA au mépris de toute réflexion démocratique ou légale.

« Ce sont des entreprises qui font fi, dans la conception et dans le déploiement de leurs systèmes, des lois, de la protection des données personnelles, de la propriété intellectuelle, etc. Ils sont disruptifs dans le sens où normalement, quand on déploie une technologie, on commence quand même par respecter la législation en place. »

— Céline Castets-Renard, professeure titulaire à la Section de droit civil de l’Université d’Ottawa

L’experte souligne par ailleurs que les entreprises privées et les centres de recherche ne jouent pas à forces égales. « Ce sont des modèles immenses que l’on ne peut pas interroger et vérifier en raison de nos possibilités matérielles. On est plusieurs à le dire, mais c’est un peu comme si la société était un laboratoire vivant où on était tous un peu des rats. On essaie l’outil et on verra bien ce qui se passe. C’est insuffisant en termes de précaution et de minimisation des risques. »

Il y a toutefois un risque « à adopter une loi avant de bien maîtriser la technologie », prévient le professeur Nicolas Vermeys, qui craint de voir apparaître de nouveaux problèmes. Il en tient pour preuve l’avènement des fausses nouvelles sur l’internet. « Il y a 20 ou 25 ans, les législateurs du monde entier ont décidé que les intermédiaires n’allaient pas être responsables des contenus auxquels ils donnent accès. C’est une décision qui semblait logique à l’époque, mais qui, avec l’évolution de l’internet et des réseaux sociaux, a mis en danger la démocratie. »

Ce texte provenant de La Presse+ est une copie en format web. Consultez-le gratuitement en version interactive dans l’application La Presse+.