Imaginez qu’une voiture autonome conduite par un algorithme ayant recours à l’intelligence artificielle (IA) soit impliquée dans un accident mortel.
Non, attendez, c’est déjà une réalité. Dimanche soir à Tempe, en Arizona, Elaine Herzberg, 49 ans, a perdu la vie après avoir été happée par une voiture autonome d’Uber.
Mais alors, qui est responsable de sa mort ?
La personne qui se trouvait à bord de la voiture et qui aurait pu en reprendre la maîtrise ? Uber ? Le programmeur qui a créé l’algorithme ? L’intelligence artificielle elle-même ?
Depuis l’automne, des enjeux de cette nature sont débattus à Montréal, dans le cadre des discussions entourant l’adoption prochaine de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle.
« Les changements technologiques liés à l’intelligence artificielle vont bouleverser nos vies et l’idée derrière la Déclaration de Montréal, c’est que tout le monde, pas seulement les spécialistes, a quelque chose à dire sur ces changements », dit Marc-Antoine Dilhac, instigateur du projet et titulaire de la Chaire de recherche du Canada en éthique publique et théorie politique.
L’initiative, née en novembre dans la foulée du Forum IA responsable à Montréal, se distingue par sa volonté de faire appel aux citoyens, par un questionnaire en ligne, le dépôt de mémoires ou l’organisation d’événements publics où des enjeux éthiques sont débattus, explique Martin Gilbert, éthicien et coordonnateur du comité scientifique de la Déclaration de Montréal.
« L’objectif, c’est d’orienter les efforts de recherche et leur application industrielle afin de minimiser les impacts potentiellement négatifs », dit-il.
Une journée de débats
Réunies un mardi de mars à la Société des arts technologiques (SAT) sur le boulevard Saint-Laurent, à Montréal, 80 personnes débattent de justice, d’éducation ou du monde du travail devant de grands tableaux recouverts de papiers autocollants jaunes, roses ou bleus. Sur ces derniers sont griffonnés des mots comme « intelligence naturelle », « liberté » ou « économie collaborative ».
« Ce qui m’inquiète, c’est que les services de police du monde entier ont de plus en plus recours à des systèmes de prédiction et de profilage basés sur l’IA, et que ces derniers reproduisent les biais du passé, par exemple envers les minorités ethniques. »
— David Décary-Hétu, professeur au département de criminologie à l’Université de Montréal et animateur de l’atelier portant sur la justice et l’IA
Un sujet parmi la dizaine de scénarios abordés durant cette journée de « coconstruction » de la Déclaration de Montréal : et si les entreprises confiaient le recrutement de nouveaux employés à l’IA ? Quels seraient les enjeux ?
« Il faudrait maintenir la transparence du processus d’embauche pour qu’un être humain puisse toujours expliquer au candidat refusé les raisons de son exclusion, tranche Mathieu Marcotte, chargé de projet chez Element AI.
« Et il faudrait certainement que le code de déontologie des spécialistes en ressources humaines soit revu pour tenir compte des impacts de l’IA. »
« Si on n’y prend pas garde, le recours à l’IA peut autant renforcer la discrimination raciale ou sexuelle qu’elle peut nous aider à l’éviter. »
— Julian Falardeau, diplômé en génie physique de Polytechnique Montréal, invité à titre de citoyen à la journée de consultation à la SAT
À l’origine de la démarche, le philosophe Marc-Antoine Dilhac prend soin de ne pas présumer de ses conclusions.
« Le processus de consultation s’étire jusqu’en mai, dit-il. À partir du mois de juin, on regardera toutes les recommandations qui se recoupent et qui risquent d’avoir le plus grand impact sur la vie des Québécois. »
La rédaction de la Déclaration de Montréal sera peaufinée jusqu’à l’automne, mais déjà, de grandes tendances se dégagent.
« Aujourd’hui, on sait que des algorithmes sont capables de prendre d’excellentes décisions dans les domaines dans lesquels ils sont compétents, dit M. Dilhac. Par exemple, en cancérologie, l’intelligence artificielle est beaucoup plus fiable que la plupart des médecins.
« Malgré ça, l’idée qui ressort, c’est que la décision définitive doit quand même revenir à l’humain. L’IA doit rester un outil. C’est l’être humain qui va l’interpréter et donner sa décision. »
QU’EST-CE QUE L’INTELLIGENCE ARTIFICIELLE ?
L’intelligence artificielle désigne l’ensemble des théories et des techniques qui permettent à des programmes informatiques complexes d’apprendre, de raisonner ou encore de prendre des décisions d’une manière qui se rapproche de l’humain.
Montréal est l’un des pôles mondiaux d’une approche particulière de recherche en intelligence artificielle qui utilise les méthodes dites d’apprentissage profond et d’apprentissage-machine.