2/3 Intelligence artificielle

SOmmes-nous en train de créer un monstre ?

Robots tueurs, singularité, lutte contre la pédophilie : alors que la ruée vers l’IA se poursuit à Montréal et ailleurs au pays, les exemples abondent quant aux promesses et aux risques représentés par cette technologie à l’évolution fulgurante. Mais l’encadrement actuel est-il suffisant pour éviter de créer un monstre ?

UN DOSSIER D’HUGO DE GRANDPRÉ

Les deux côtés de la médaille

Longtemps l’apanage de la science-fiction, les promesses et les risques de l’intelligence artificielle nourrissent désormais les débats au sein du grand public. Combien d’emplois seront perdus – ou créés ? La surveillance exacerbée est-elle souhaitable ? Où tracer la limite entre un bon et un mauvais robot ? Survol de quelques scénarios inquiétants – et du revers positif de la même médaille.

Singularité

À 30 ans d’une superintelligence ?

D’ici 2029, l’intelligence artificielle devrait avoir atteint le même niveau que l’intelligence humaine, croit Ray Kurzweil, un penseur influent du domaine de l’informatique. Et d’ici 2045, soit dans moins de 30 ans, cette intelligence artificielle dépassera l’intelligence humaine au point de pouvoir se reproduire elle-même sans que les humains puissent la comprendre.

« Cela marquera la Singularité », a écrit l’informaticien, inventeur et futuriste, employé de Google.

Cette prédiction, basée sur la croissance exponentielle de la puissance des ordinateurs, est partagée par d’autres, mais pas par tout le monde. Certains croient, par exemple, que ces ordinateurs ne pourront jamais atteindre un niveau d’intelligence suffisant pour causer un tel bouleversement.

Les conséquences pour l’humanité d’une potentielle superintelligence ne font pas non plus l’unanimité. Le fondateur de Tesla, Elon Musk, et le physicien Stephen Hawking ont formulé de sérieuses mises en garde contre l’évolution de l’IA. « Le développement d’une intelligence artificielle générale pourrait entraîner la fin de la race humaine », a lancé M. Hawking.

Questionné récemment à ce sujet, M. Kurzweil a offert un point de vue différent : « Nous allons continuer à aller dans cette direction, a-t-il dit. Je crois que nous pouvons avoir un monde qui n’a essentiellement plus de pauvreté, où les maladies ont été grandement réduites, [où nous allons] nettoyer l’environnement, avoir plein de ressources en termes de nourriture... »

La suite dans 28 ans.

Travail

Quel avenir pour les humains ?

Difficile ces jours-ci d’avoir une conversation sur l’IA sans parler de son impact potentiel sur les emplois. Mais quel impact ? Alors que le développement de ces technologies se poursuit, les prédictions varient grandement sur l’ampleur – et la nature – du chambardement que l’IA et l’automatisation croissante pourraient engendrer sur le marché du travail.

Selon une étude de chercheurs de l’Université d’Oxford de 2013, 47 % des emplois actuels pourraient disparaître. L’OCDE, en revanche, a plutôt évoqué le chiffre de 9 %. McKinsey, de son côté, parle de 5 %, et la firme de consultants croit que c’est plutôt une pénurie de main-d’œuvre qui attend le marché du travail.

La nature des emplois qui chercheront de la main-d’œuvre d’ici à peine quelques années pourrait être, elle aussi, très différente. Selon le Forum économique mondial, plus des deux tiers des compétences de base pour les emplois de 2020 ne sont pas encore considérées comme cruciales à l’heure actuelle.

Lors d’une conférence à Montréal au début du mois de novembre, Jodie Wallis, de la firme Accenture, a exhorté les différents intervenants (entreprises, gouvernements, universitaires) à ne pas ignorer l’importance de former la main-d’œuvre : « Je crois que ça peut créer encore plus d’inégalités si on n’y porte pas attention », a-t-elle déclaré.

Surveillance

La toile de Big Brother

La Chine a défrayé la chronique il y a quelques mois lorsque le Financial Times a décrit les efforts de l’entreprise chinoise Cloud Walk pour développer un vaste système de surveillance des citoyens et de prédiction du crime basé sur l’intelligence artificielle, les mégadonnées et la reconnaissance du visage.

Le risque que ces technologies soient déployées par des régimes autoritaires pour surveiller leurs propres citoyens est bien sûr préoccupant. « On crée beaucoup d’innovations au Canada ; est-ce que le gouvernement canadien ne devrait pas s’assurer qu’il n’y a pas d’entreprises canadiennes qui exportent des algorithmes ou des outils d’intelligence artificielle vers des pays autoritaires ? », demande Benoît Dupont, professeur de criminologie à l’Université de Montréal et titulaire de la Chaire de recherche du Canada en sécurité, identité et technologie.

Des technologies semblables sont aussi déployées au pays. Le Conseil national de recherche du Canada a récemment conçu avec la multinationale française Thales un outil de surveillance automatisée des médias sociaux afin de prévenir la criminalité et le terrorisme. Le projet Arachnid, aussi financé par le gouvernement canadien, permet quant à lui de fouiller automatiquement certains sites web pour y détecter la présence de violences sexuelles contre des enfants dans des images et des vidéos.

Selon le professeur Dupont, l’État devrait à tout le moins être transparent quant aux outils et algorithmes qu’il utilise, en particulier lorsque les droits de citoyens ou de justiciables canadiens sont touchés.

Robots

Robots tueurs, robots sauveurs

Plusieurs voix se sont élevées récemment pour exhorter les gouvernements à ne pas s’engager dans la course à l’acquisition de robots guerriers.

Des chercheurs ont même envoyé une lettre au premier ministre Justin Trudeau pour lui demander de joindre sa voix à cet appel international.

Angela Kane, l’ancienne haute représentante des Nations unies pour le désarmement, a indiqué il y a quelques années que ces robots n’étaient qu’à « un pas » des champs de bataille et a invité les gouvernements à être plus ouverts sur les produits qu’ils développent et à considérer des interdictions préventives.

La guerre n’est pas le seul domaine où l’avènement de robots intelligents soulève des préoccupations. Aux États-Unis et au Royaume-Uni, des robots politiques qui transmettent des messages sur l’internet et les réseaux sociaux ont fait couler beaucoup d’encre au terme des dernières campagnes.

Mais ces robots ne sont pas toujours néfastes. À titre d’exemple, un système automatisé diffuse un message sur Twitter chaque fois qu’un changement est apporté à une page Wikipédia à partir d’un ordinateur du gouvernement. De même, le snakebot mis au point à l’Université Carnegie Mellon peut naviguer entre les organes du corps humain ou parmi les débris lors d’une catastrophe naturelle.

Dans un récent rapport, les chercheurs canadiens Fenwick McKelvey et Elizabeth Dubois ont invité la population, les médias et les gouvernements à engager la discussion sur ces questions : « Nous devons promouvoir un environnement où les robots pour le bien sont encouragés et où les activités malveillantes sont découragées. »

Droit

Quels droits pour les robots ?

La citoyenneté accordée récemment par l’Arabie saoudite au robot Sophia de l’entreprise Hanson Robotics a fait le tour du monde. Mais en plus d’attirer de nombreuses critiques quant aux droits des femmes au sein du royaume, le coup de publicité a aussi alimenté le débat sur les droits à donner aux robots.

La possibilité d’accorder une forme de personnalité juridique a déjà été discutée au Parlement européen. Un peu comme la personnalité morale d’une entreprise, un tel statut pourrait s’avérer utile pour les questions de taxation et de responsabilité civile, dans le cas d’un accident, par exemple.

Le développement d’une intelligence artificielle proche de celle de l’humain soulève aussi des questions philosophiques intéressantes, note Jocelyn Maclure, professeur de philosophie à l’Université Laval et président de la Commission de l’éthique en science et en technologie. « Est-ce que les intelligences artificielles peuvent ressentir quelque chose qui s’apparente véritablement à ce qu’on appelle, nous, des émotions ? avance le professeur Maclure. Les spéculations pour l’instant sont très variées. »

« Ce sont des questions absolument fascinantes, poursuit le professeur, parce que si on répond oui, les agents artificiels peuvent souffrir, vivre d’authentiques émotions, après ça, ça va être très difficile de dire qu’on ne doit pas leur attribuer des droits aussi. »

Ce texte provenant de La Presse+ est une copie en format web. Consultez-le gratuitement en version interactive dans l’application La Presse+.