INTELLIGENCE ARTIFICIELLE

Qui a tué Elaine Herzberg ?

Qui est responsable de la mort d’Elaine Herzberg, renversée dimanche en Arizona par une voiture autonome d’Uber ? La faute peut-elle incomber à l’intelligence artificielle qui était aux commandes de la voiture ? Jusqu’à l’automne, Montréal est le théâtre d’une démarche unique au monde qui invite les citoyens à prendre la parole sur de tels enjeux. 

Un dossier de Jean-Sébastien Gagnon

INTELLIGENCE ARTIFICIELLE

La Déclaration de Montréal prend forme

Imaginez qu’une voiture autonome conduite par un algorithme ayant recours à l’intelligence artificielle (IA) soit impliquée dans un accident mortel.

Non, attendez, c’est déjà une réalité. Dimanche soir à Tempe, en Arizona, Elaine Herzberg, 49 ans, a perdu la vie après avoir été happée par une voiture autonome d’Uber.

Mais alors, qui est responsable de sa mort ?

La personne qui se trouvait à bord de la voiture et qui aurait pu en reprendre la maîtrise ? Uber ? Le programmeur qui a créé l’algorithme ? L’intelligence artificielle elle-même ?

Depuis l’automne, des enjeux de cette nature sont débattus à Montréal, dans le cadre des discussions entourant l’adoption prochaine de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle.

« Les changements technologiques liés à l’intelligence artificielle vont bouleverser nos vies et l’idée derrière la Déclaration de Montréal, c’est que tout le monde, pas seulement les spécialistes, a quelque chose à dire sur ces changements », dit Marc-Antoine Dilhac, instigateur du projet et titulaire de la Chaire de recherche du Canada en éthique publique et théorie politique.

L’initiative, née en novembre dans la foulée du Forum IA responsable à Montréal, se distingue par sa volonté de faire appel aux citoyens, par un questionnaire en ligne, le dépôt de mémoires ou l’organisation d’événements publics où des enjeux éthiques sont débattus, explique Martin Gilbert, éthicien et coordonnateur du comité scientifique de la Déclaration de Montréal.

« L’objectif, c’est d’orienter les efforts de recherche et leur application industrielle afin de minimiser les impacts potentiellement négatifs », dit-il.

Une journée de débats

Réunies un mardi de mars à la Société des arts technologiques (SAT) sur le boulevard Saint-Laurent, à Montréal, 80 personnes débattent de justice, d’éducation ou du monde du travail devant de grands tableaux recouverts de papiers autocollants jaunes, roses ou bleus. Sur ces derniers sont griffonnés des mots comme « intelligence naturelle », « liberté » ou « économie collaborative ».

« Ce qui m’inquiète, c’est que les services de police du monde entier ont de plus en plus recours à des systèmes de prédiction et de profilage basés sur l’IA, et que ces derniers reproduisent les biais du passé, par exemple envers les minorités ethniques. »

— David Décary-Hétu, professeur au département de criminologie à l’Université de Montréal et animateur de l’atelier portant sur la justice et l’IA

Un sujet parmi la dizaine de scénarios abordés durant cette journée de « coconstruction » de la Déclaration de Montréal : et si les entreprises confiaient le recrutement de nouveaux employés à l’IA ? Quels seraient les enjeux ?

« Il faudrait maintenir la transparence du processus d’embauche pour qu’un être humain puisse toujours expliquer au candidat refusé les raisons de son exclusion, tranche Mathieu Marcotte, chargé de projet chez Element AI.

« Et il faudrait certainement que le code de déontologie des spécialistes en ressources humaines soit revu pour tenir compte des impacts de l’IA. »

« Si on n’y prend pas garde, le recours à l’IA peut autant renforcer la discrimination raciale ou sexuelle qu’elle peut nous aider à l’éviter. »

— Julian Falardeau, diplômé en génie physique de Polytechnique Montréal, invité à titre de citoyen à la journée de consultation à la SAT

À l’origine de la démarche, le philosophe Marc-Antoine Dilhac prend soin de ne pas présumer de ses conclusions.

« Le processus de consultation s’étire jusqu’en mai, dit-il. À partir du mois de juin, on regardera toutes les recommandations qui se recoupent et qui risquent d’avoir le plus grand impact sur la vie des Québécois. »

La rédaction de la Déclaration de Montréal sera peaufinée jusqu’à l’automne, mais déjà, de grandes tendances se dégagent.

« Aujourd’hui, on sait que des algorithmes sont capables de prendre d’excellentes décisions dans les domaines dans lesquels ils sont compétents, dit M. Dilhac. Par exemple, en cancérologie, l’intelligence artificielle est beaucoup plus fiable que la plupart des médecins.

« Malgré ça, l’idée qui ressort, c’est que la décision définitive doit quand même revenir à l’humain. L’IA doit rester un outil. C’est l’être humain qui va l’interpréter et donner sa décision. »

QU’EST-CE QUE L’INTELLIGENCE ARTIFICIELLE ?

L’intelligence artificielle désigne l’ensemble des théories et des techniques qui permettent à des programmes informatiques complexes d’apprendre, de raisonner ou encore de prendre des décisions d’une manière qui se rapproche de l’humain. 

Montréal est l’un des pôles mondiaux d’une approche particulière de recherche en intelligence artificielle qui utilise les méthodes dites d’apprentissage profond et d’apprentissage-machine. 

INTELLIGENCE ARTIFICIELLE

Entre peurs et réalité

Trois questions à Martin Gilbert, éthicien et coordonnateur du comité scientifique de la Déclaration de Montréal.

Pourquoi une Déclaration de Montréal sur l’intelligence artificielle si d’autres instances, comme l’événement Benefical AI avec de grands noms comme l’astrophysicien Stephen Hawking et l’entrepreneur techno Elon Musk, se sont déjà penchées sur le même sujet ?

Ce n’est pas forcément mal d’avoir plusieurs personnes qui réfléchissent en même temps à un même sujet. La spécificité de la Déclaration de Montréal, c’est d’être organisée autour de sept grands principes : le bien-être, la justice, l’autonomie, la vie privée, la démocratie, la connaissance et la responsabilité.

Qu’est-ce qui vous fait le plus peur au sujet de l’intelligence artificielle ?

La chose qui m’inquiète le plus, c’est le pouvoir économique et en information que certaines entreprises comme Google, Amazon, Facebook et Apple sont en train d’accumuler. Chacun de ces services bénéficie du fait d’avoir réussi à s’implanter en premier pour se maintenir en situation de monopole : je suis sur Facebook parce que tous mes amis sont sur Facebook.

Aussi, c’est un type de technologie qui recueille énormément d’information sur les gens, et qui provoque une concentration de richesse entre quelques mains seulement.

Une autre inquiétude, mais c’est aussi un espoir, est liée aux pertes d’emplois provoquées par l’automatisation croissante des tâches sur le marché du travail. Ça risque de toucher tout le monde.

Pour certains, ça peut signifier tout simplement de déléguer des tâches moins intéressantes à des algorithmes. Le fait d’avoir besoin de moins d’humains pour réaliser le même travail, en soi, c’est un enrichissement lié à l’accroissement de la productivité.

En revanche, il faut s’assurer que cette nouvelle richesse soit répartie équitablement.

Entre les histoires d’horreur technos – comme celles de la série Black Mirror sur Netflix – et la réalité, où en est-on ? Quels sont les dangers actuels que présente l’intelligence artificielle ?

On entend souvent parler du danger qu’une superintelligence se développe – même si on en est encore très, très loin – et qu’elle décide de mettre les humains en esclavage, un peu comme les humains ont mis d’autres espèces en esclavage. Mais là, on fait un peu de projection, on s’imagine qu’une superintelligence ferait la même chose que nous si on était à sa place, soit chercher à dominer le monde. Mais ce n’est pas du tout sûr que c’est ce que ferait une superintelligence…

Et encore, on est très loin d’un tel scénario, puisque tout ce qu’on est parvenus à développer, ce sont des intelligences très étroites, qui sont capables de prendre des décisions dans des domaines précis, comme jouer aux échecs, et qui le font parfois de façon plus efficace qu’un être humain. Mais nous n’avons pas d’intelligence générale qui serait capable de passer d’un domaine à l’autre et d’en faire la combinaison comme le fait l’intelligence humaine.

Des exemples d’enjeux soulevés par l’intelligence artificielle

Devrait-on développer une IA capable de ressentir du bien-être ?

Faudrait-il mettre en place un ou des labels « éthiques » pour les IA, les sites web ou les entreprises qui respectent certains standards ?

Qu’est-ce qu’une IA pourrait faire en votre nom ?

Ce texte provenant de La Presse+ est une copie en format web. Consultez-le gratuitement en version interactive dans l’application La Presse+.