Comprendre le comportement des machines

Un monde sépare l’intelligence artificielle des sciences humaines et sociales. Des chercheurs des deux domaines appellent à plus de collaboration interdisciplinaire pour étudier, entraîner et tester les machines. L’objectif ? Qu’elles puissent être plus bénéfiques à la société.

IA, environnement et comportement

« Il est impossible de prédire et donc de programmer à l’avance toutes les situations qu’une intelligence artificielle (IA) sera susceptible de rencontrer : il faut donc nécessairement qu’elle apprenne à partir de son environnement », affirme Blake Richards, professeur à l’École d’informatique et à l’Institut neurologique de Montréal de l’Université McGill.

Cet apprentissage est basé sur un système de « récompense », comme une friandise que l’on donnerait à un chien pour le féliciter. « Le but de la machine est d’apprendre quelles actions effectuer en fonction de ses observations, pour maximiser la somme des récompenses qu’elle reçoit sur le long terme », explique Doina Precup, également chercheuse à l’École d’informatique de l’Université McGill. Cependant, tel un chien un peu trop gourmand, la machine peut parfois essayer de tout faire pour obtenir ces récompenses, quitte à adopter un comportement disproportionné ou inattendu, voire dangereux.

Prenons l’exemple d’une machine qui a « mal » assimilé un comportement. « Si elle a appris que le rire était quelque chose de bien, elle va peut-être se mettre à rire de plus en plus souvent, et notamment à des moments inadéquats », affirme Marc Lanovaz. Que faire dans ce cas de figure ? « Il faut la réentraîner en jouant sur son environnement, pour lui apprendre qu’elle devrait cesser de rire dans telle ou telle situation. »

Jouer sur l’environnement pour modifier un comportement, c’est quelque chose que Marc Lanovaz connaît bien : il est chercheur en analyse du comportement et en psychoéducation à l’Université de Montréal. Ce qu’il propose concrètement ici – et dans un article publié dans Perspectives on Behavior Science, en mars 2022 –, c’est d’appliquer aux machines l’étude du comportement des humains.

IA et sciences humaines et sociales

À l’instar de l’analyse du comportement, nombreux sont les domaines de recherche en sciences humaines et sociales où l’IA a fait couler beaucoup d’encre ces dernières années : philosophie, éthique, psychologie… Ces domaines pourraient aider les ingénieurs à tester et à entraîner l’IA dans différentes situations qu’elle pourrait rencontrer, ou même à détecter et à corriger de potentiels biais ou comportements inadéquats. Cependant, bien que de telles collaborations interdisciplinaires soient souhaitables, chaque domaine travaille généralement en « silo », sans vraiment communiquer les uns avec les autres.

« La majorité des philosophes, par exemple, adore étudier des sujets tels que la conscience des machines, qui ne nécessite pas de connaître en profondeur les détails techniques de l’apprentissage machine, ni même de savoir coder », affirme Thilo Hagendorff, éthicien en intelligence artificielle à l’Université de Tübingen, en Allemagne.

« Mais je pense qu’il faudrait que les chercheurs en sciences humaines acquièrent ces connaissances et ce vocabulaire commun, pour comprendre les problèmes auxquels les ingénieurs en IA sont confrontés. »

« Du côté des ingénieurs, la plupart d’entre eux sont dans une situation où ils sont pressés par le temps, ils doivent vite sortir un produit sur le marché ou publier un article de conférence, et la communication avec les sciences humaines est un effort supplémentaire pour eux. Il n’y a aucune incitation à le faire, donc en pratique, il n’y a pas beaucoup de ponts entre ces domaines. »

— Thilo Hagendorff, éthicien en intelligence artificielle à l’Université de Tübingen

Ces obstacles qui compliquent les collaborations sont également bien identifiés du côté des chercheurs en IA. « Les frontières des connaissances de notre domaine bougent très rapidement, donc c’est difficile pour les autres disciplines de savoir où l’on en est sur tel ou tel sujet », souligne Blake Richards. Par ailleurs, les différentes disciplines ne publient pas de la même façon, ce qui accentue encore ce cloisonnement entre les domaines. « En IA, il y a beaucoup de publications faites dans des conférences, mais elles ne comptent pas pour les chercheurs en philosophie ou en sciences sociales, qui publient surtout des livres ou des articles dans des journaux avec seulement un ou deux auteurs », affirme Doina Precup.

IA et bien-être de l’humanité

Pourtant, tous ces chercheurs s’accordent sur le fait que plus de collaboration interdisciplinaire pourrait être bénéfique pour l’IA et pour la société.

« Ultimement, on ne cherche pas à savoir si la machine a une personnalité, des émotions ou des intentions. On cherche plutôt à savoir si le comportement de la machine bénéficie au bien-être ou à l’avancement de l’humanité. »

— Marc Lanovaz, chercheur en analyse du comportement et en psychoéducation à l’Université de Montréal

Étudier les interactions de la machine avec son environnement, c’est donc non seulement éviter qu’elle ait un comportement un peu maladroit – comme lorsqu’elle pourrait rire de façon inappropriée –, mais aussi et surtout s’assurer qu’elle n’interfère pas de façon négative sur la vie des humains. « Un algorithme peut développer toutes sortes de comportements : cela va dépendre de la façon dont on l’optimise », affirme Matthieu Dugal, journaliste scientifique et vulgarisateur, qui a récemment eu l’occasion d’explorer ces questions dans le documentaire IA, être ou ne pas être.

« Par exemple, TikTok est un algorithme qui comprend très rapidement là où se trouve notre point faible : il joue sur la portion de notre cerveau qui actionne la petite manette de la gratification. Donc, c’est sûr que ce type d’algorithme va donner un système très chronophage, qui va nous faire développer des réflexes de surconsommation. »

« C’est important de se poser ces questions dès maintenant et de mettre en place un cadre pour mener l’IA dans la bonne direction, soutient Blake Richards. Car dans dix ans, quand l’IA sera au cœur de nos vies de tous les jours, cela risque d’être trop tard. »

Quelques domaines où l’étude du comportement des machines serait pertinente

Les réseaux sociaux (censure, « bulle de filtre »)

Les applications de rencontre

Les robots conversationnels

La justice (discrimination)

Les véhicules autonomes

Les armes létales autonomes

Les marchés financiers (spéculation)

Source : Nature

Ce texte provenant de La Presse+ est une copie en format web. Consultez-le gratuitement en version interactive dans l’application La Presse+.