INTELLIGENCE ARTIFICIELLE

Éthique et informatique

Voici trois situations éthiques auxquelles les systèmes automatisés de demain devront faire face.

Qui sacrifier en voiture ?

Une voiture autonome se dirige vers un groupe d’enfants traversant la rue. L’accident est inévitable. Quelle approche adopter ? Foncer dans un mur pour minimiser les pertes de vie et sacrifier les occupants ? Frapper les bambins ? Opter pour une décision aléatoire ? Pas facile. Et paradoxal : « Les gens souhaitent que les véhicules autonomes minimisent les pertes de vie, mais n’achètent qu’un véhicule qui les protège, eux », résument Jean-François Bonnefon, Azim Shariff et Iyad Rahwan, trois chercheurs de Cornell qui ont sondé des Américains et publié leurs conclusions sous le titre Le dilemme social des véhicules autonomes (juillet 2016).

Un prêt bancaire biaisé

Imaginons un système automatisé d’approbation de prêt bancaire. On découvre que son algorithme fait de la discrimination raciale. Impossible ! L’algorithme a été instauré justement parce qu’il a été conçu pour ne pas distinguer la couleur de la peau. « La transparence sera essentielle pour découvrir les failles d’une IA », expliquent Nick Bostrom et Eliezer Yudkowsky, du Machine Intelligence Research Institute de Berkeley (MIRI), en Californie, dans un document intitulé L’éthique de l’intelligence artificielle (2014). « Sinon, trouver la réponse sera impossible. »

Résistance aux commandes humaines

Ces systèmes devront être à l’épreuve des manipulations humaines, poursuivent les deux chercheurs du MIRI. « Des systèmes de sécurité pour l’aéroport devront résister aux manipulations d’adversaires souhaitant les empêcher de détecter des armes cachées dans des bagages. » Mais en même temps, ces systèmes doivent pouvoir être contrôlés, voire altérés, par d’autres humains, au besoin. Comment ces systèmes feront-ils la différence ? Dilemme.

Ce texte provenant de La Presse+ est une copie en format web. Consultez-le gratuitement en version interactive dans l’application La Presse+.