Intelligence artificielle

L’AMF doit définir une utilisation « responsable »

Que ce soit pour calculer des cotes de crédit, détecter la fraude ou estimer des primes d’assurances, l’intelligence artificielle a déjà fait son entrée dans le secteur financier au Québec. L’Autorité des marchés financiers (AMF) doit maintenant « établir un cadre modèle » pour qu’elle soit utilisée de manière responsable et éthique, conclut un rapport rendu public lundi.

« Il faut évidemment tirer profit des opportunités offertes par les innovations technologiques », a déclaré le PDG de l’AMF, Louis Morisset, qui a annoncé la publication de ce rapport commandé et financé par son organisme lors d’une conférence virtuelle. « Mais il faut aussi et surtout demeurer vigilants par rapport aux conséquences négatives encore peu connues, ou mal comprises, qui pourraient se matérialiser sur les marchés ou auprès de certains groupes de consommateurs. »

Besoin pressant

Dirigé par Marc-Antoine Dilhac, professeur adjoint en éthique et philosophie politique de l’Université de Montréal et instigateur de la Déclaration de Montréal IA responsable en 2018, le comité a déposé 10 recommandations, dont 3 s’adressent directement à l’AMF.

« Le besoin d’encadrement de l’utilisation de l’IA en finance devient pressant, écrit-on en préambule. Les régulateurs doivent exercer leur autorité pour s’assurer que l’utilisation de l’IA ne biaise pas les marchés financiers, ne menace pas l’équité de la concurrence et ne nuise pas aux consommateurs. »

Les consommateurs, note-t-on, « se sentent particulièrement vulnérables dans un environnement numérique et algorithmique qu’ils ne comprennent pas toujours et qu’ils ne maîtrisent pas ».

Dans un premier temps, indique le rapport, l’AMF doit établir les principes de base de cette IA responsable qui pourront ensuite inspirer les codes d’éthique des institutions financières, en définissant notamment « les pratiques non acceptables ». On doit également, après consultation avec le secteur financier, définir les sources et les types de données qu’il est légitime d’utiliser. Pour la troisième recommandation, on suggère à l’AMF de former les acteurs et de développer des programmes d’éducation pour les consommateurs.

Les sept autres recommandations s’adressent essentiellement aux institutions financières, leur enjoignant de s’assurer, par exemple, que leurs algorithmes ne créent pas de discrimination, que leurs systèmes soient robustes et qu’ils puissent être audités.

On insiste sur le fait que la collecte de données « respecte l’autonomie des consommateurs en communiquant toute l’information requise pour consentir de manière libre et éclairée […] dans un langage clair, et en respectant la diversité des modes de vie ». Il s’agit, dans les grands principes, de ce que l’Europe tente d’établir depuis 2016 avec le Règlement général sur la protection des données. Le PDG de l’AMF avait relevé, lors de son allocution, que les réseaux sociaux et les objets connectés « produisent des masses de données à propos de nos choix et de nos déplacements ».

Susciter la réflexion

Selon Louis Morisset, ce rapport du comité dirigé par le professeur Dilhac veut d’abord susciter le « dialogue entre les parties prenantes intéressées sur le déploiement responsable de l’intelligence artificielle dans le secteur financier ».

Le PDG espère qu’il suscitera une réflexion au sein des organisations, assurant que l’AMF a entamé la sienne dès 2015 à ce sujet.

« Nous croyons fermement que l’utilisation de l’intelligence artificielle en finance n’apportera des bénéfices durables que si elle prend place dans le respect des valeurs des consommateurs québécois », a-t-il déclaré lors de son allocution.

Ce texte provenant de La Presse+ est une copie en format web. Consultez-le gratuitement en version interactive dans l’application La Presse+.