Les développements récents en matière d’intelligence artificielle (IA) ont marqué notre imaginaire collectif en s’invitant dans les foyers de millions de Canadiens et en nous faisant mieux comprendre les répercussions que cette technologie aura sur nos vies.

Il ne fait aucun doute que l’IA offre un grand potentiel de croissance économique et d’opportunités sociétales, notamment pour relever certains des défis les plus pressants de notre époque en matière de santé et d’environnement. Bien que ces développements soient impressionnants, il est important de reconnaître que les systèmes d’IA présentent des risques qui doivent être pris au sérieux et encadrés rapidement.

Parmi ceux-ci figurent la discrimination, les biais, la désinformation, l’influence sur la santé mentale (notamment celle des enfants) et les perturbations du marché du travail. Au rythme auquel les systèmes d’IA puissants continuent d’être développés, d’autres risques cruciaux apparaîtront très probablement, et les risques actuels pourraient s’accentuer de manière significative.

La conversation mondiale des dernières semaines est sans équivoque : l’accélération du développement et de l’utilisation de l’IA doivent s’accompagner d’une supervision gouvernementale appropriée.

Compte tenu du déploiement récent de modèles d’IA de grande envergure, il est désormais essentiel de prendre des mesures et d’établir un cadre national qui protège la population canadienne et favorise l’innovation responsable.

En juin 2022, le Canada a présenté son projet de Loi sur l’intelligence artificielle et les données (LIAD) dans le cadre du projet de loi C-27. En plus de stipuler que les systèmes d’IA à fort impact doivent se conformer à des obligations, notamment en matière de sécurité, de transparence et de droits humains, la LIAD sanctionnerait les comportements causant de graves préjudices aux individus ou à leurs intérêts. Elle fournit un échafaudage pour les réglementations à élaborer en consultation avec un large éventail de parties prenantes, en définissant des concepts et des exigences spécifiques qui constitueront les garde-fous pour le développement et le déploiement de l’IA.

Nous demandons à nos représentants politiques de soutenir la LIAD avec conviction. Alors que le comité parlementaire permettra des améliorations et amendements, nous estimons que la proposition actuelle est bien orientée et qu’elle parvient à trouver un juste équilibre entre la protection de la population canadienne et les impératifs liés à l’innovation. Surtout, elle propose un cadre législatif pour l’IA qui sera soutenu par des règlements et des normes, ce qui la rend suffisamment flexible pour s’adapter aux nouvelles capacités et applications de l’IA au fur et à mesure que la technologie évolue.

Les processus parlementaires prennent du temps. Les discussions itératives qu’ils permettent sont précieuses, et la LIAD a fait l’objet de débats parlementaires. Le rythme auquel l’IA se développe exige maintenant que l’on passe à l’action. Si les partis ne collaborent pas pour faire progresser la LIAD avant l’été, cela entraînera des délais d’attente considérables avant de disposer d’un cadre réglementaire qui guide les entreprises et protège la population canadienne. En résumé, la fenêtre pour agir se referme rapidement, et un retard additionnel serait déphasé par rapport à la vitesse à laquelle la technologie se développe et se déploie.

Il est important de souligner que le fait de réglementer l’IA favorise l’innovation et la croissance économique. La mise en place d’un cadre juridique concret et rigoureux permettra aux entreprises canadiennes d’aligner leurs activités sur les exigences à venir dans de nombreuses autres juridictions, dont l’Europe, le Royaume-Uni et les États-Unis.

Si le Canada devenait l’un des premiers pays à adopter sa législation, il enverrait un signal fort aux entreprises du monde entier : elles peuvent et doivent se tourner vers le Canada et les entreprises canadiennes si elles veulent développer ou acquérir des systèmes d’IA dignes de confiance et responsables qui respectent les droits de la personne et protègent le bien-être des utilisateurs.

Un sondage récent réalisé par le Conseil consultatif canadien en matière d’intelligence artificielle a révélé que « 71 % des participants estiment que l’on peut faire confiance à l’IA si elle est réglementée par les instances publiques dans une mesure adaptée au niveau de risque de l’application1 ». C’est ce que tente d’accomplir la LIAD et nous encourageons vivement nos représentants politiques à agir en ce sens.

Grâce à ses actions des dernières années, le Canada s’est forgé une excellente réputation à l’échelle mondiale en tant que chef de file en matière d’IA responsable. Nous devons faire honneur à ce leadership en adoptant notre cadre juridique national tout en favorisant l’adoption de normes internationales en matière d’IA. Si nous échouons en ce sens, nous aurons laissé passer une occasion unique de mettre de l’avant les valeurs canadiennes à un moment crucial de l’histoire. Si nous réussissons, nous poserons des bases solides pour assurer que le grand potentiel de l’IA serve le bien-être et la prospérité de la population canadienne.

Lisez Intelligence artificielle : « La fenêtre se referme rapidement », préviennent 75 chercheurs et entreprises 1. Consultez les résultats du sondage du Conseil consultatif canadien en matière d’intelligence artificielle

* Cosignataires : Julien Billot, président-directeur général, SCALE AI et NextAI ; Sam Ramadori, président-directeur général, Brainbox ; Graham Taylor, professeur d’ingénierie, Université de Guelph et Chaire en IA Canada-CIFAR ; Benjamin Prud’homme, directeur exécutif, IA pour l’Humanité, Mila ; Gillian Hadfield, présidente du conseil et directrice, Schwartz Reisman Institute for Technology and Society, professeure de droit et de gestion stratégique, Université de Toronto et membre du Conseil consultatif canadien en matière d’intelligence artificielle ; Eleni Stroulia, professeure au département de sciences informatiques et vice-doyenne intérimaire, Faculté des sciences, University of Alberta et directrice, AI4Society Signature Area ; Valentine Goddard, fondatrice et directrice générale, AI Impact Alliance, présidente fondatrice et présidente générale, IA en Mission sociale et membre du Conseil consultatif canadien en matière d’intelligence artificielle ; Humera Malik, cheffe de la direction et cofondatrice, Canvass AI et membre du Conseil consultatif canadien en matière d’IA ; Frantz Santellemy, président et chef de l’exploitation, LeddarTech ; Bhargava Niraj, cofondateur et CEO, NuEnergy.ai ; Nicole Janssen, co-fondatrice et co-PDG, AltaML

Qu'en pensez-vous? Exprimez votre opinion