Vols à l’étalage

Quand l'intelligence artificielle vous épie à la pharmacie

Une technologie française de reconnaissance des comportements, qui prédit les vols à l’étalage grâce à l’intelligence artificielle (IA), fait son entrée au Québec. Une entreprise de sécurité de Saint-Hubert la met à l’épreuve depuis octobre dans une succursale d’« une grande chaîne de pharmacies au Québec », a appris La Presse.

Le logiciel, appelé Veesion, a été « entraîné » à reconnaître les comportements des voleurs en analysant des centaines d’heures de vidéo de larcins commis dans des commerces de détail.

Une fois configuré sur le système de caméras d’un commerce, il analyse en continu les flux vidéo, à la recherche de gestes suspects de la clientèle. Lorsqu’il en détecte un, il envoie dans un délai de 10 à 20 secondes une alerte sur le téléphone intelligent du gérant ou d’un agent de sécurité, avec la mention « geste suspect » ou « geste très suspect ». L’extrait vidéo compromettant s’affiche alors à l’écran du responsable, pour lui permettre de le vérifier et d’intervenir, si nécessaire.

Le logiciel est distribué par l’entreprise de sécurité Sécur-Icare, qui dit tester le logiciel « dans une grande chaîne de pharmacies au Québec », mais refuse de préciser laquelle, pour des raisons de confidentialité et de sécurité. L’entreprise compte notamment le Groupe Jean Coutu, Familiprix et Uniprix comme clients, selon son site web. Uniprix affirme ne pas avoir de contrat avec l’entreprise, mais indique qu’il est possible que des franchisés indépendants affiliés aient « des liens d’affaires » avec elle, car ils ont une indépendance de gestion. Jean Coutu et Familiprix ont pour leur part indiqué ne pas être impliquées dans les tests.

Quatre juristes consultés par La Presse ont soulevé des inquiétudes face à l’éventuel déploiement de la technologie. « Ça soulève énormément d’enjeux », indique l’avocate Danielle Olofsson, spécialiste de la protection des renseignements personnels au cabinet Stikeman Elliott.

« Est-ce que la technologie pourrait identifier un individu par sa façon unique de bouger et de se déplacer ? Comment le public est-il avisé qu’elle est utilisée dans un commerce ? Quelles données sont conservées, et pendant combien de temps ? Ce sont des questions qui doivent impérativement être posées avant d’utiliser le logiciel. »

— Danielle Olofsson, avocate au cabinet Stikeman Elliott

« Un client qui va s’acheter du Viagra à la pharmacie, par exemple, peut s’attendre à un niveau de confidentialité élevé, qui pourrait être compromis quand la caméra analyse ses gestes pendant qu’il magasine plein d’autres choses », souligne pour sa part l’avocate Vanessa Henri, du cabinet spécialisé en cybersécurité Henri & Wolf.

« J’ai l’intime conviction que c’est le genre de technologie qui nécessite de remettre un dossier d’analyse de risque à la Commission d’accès à l’information avant de l’utiliser. Si j’étais une chaîne de pharmacies, c’est ce que je ferais », dit le professeur de droit Vincent Gautrais, titulaire de la Chaire L.R. Wilson sur le droit des technologies de l’information de l’Université de Montréal.

« Uniquement les gestes, jamais les individus »

Veesion est notamment utilisé dans des magasins Monop', en France, ainsi que dans des quincailleries Ace Hardware et des dépanneurs 7-Eleven aux États-Unis.

Le fabricant assure sur son site web que son système est un « outil d’aide à la décision » qui « analyse uniquement les gestes, jamais les individus ». « Veesion s’interdit toute utilisation des données recueillies dans le cadre de ses activités », ajoute l’entreprise.

« C’est la beauté de la chose. Contrairement aux technologies de reconnaissance faciale qui font controverse, ce système ne récolte pas de données biométriques, affirme Karl St-Laurent, de Sécur-Icare. Ça ne juge pas si la personne est une femme ou un homme, ça analyse le mouvement de sa main. »

« Le système n’est pas là pour accuser. Il est juste là pour avertir. C’est le rôle de l’agent d’aller rencontrer par la suite le client pour le dissuader. »

— Karl St-Laurent, président de Sécur-Icare

Cette mécanique soulève cependant d’autres questions d’ordre légal. Bien que le système ne soit pas conçu pour que l’analyse de l’intelligence artificielle serve de preuve qu’un crime a été commis, un gérant serait-il en droit de détenir provisoirement un suspect récalcitrant après avoir reçu une alerte du système ? « Si on se met à détenir des gens aussitôt qu’il y a une alerte, c’est sûr qu’il va y avoir des contestations », estime l’avocate criminaliste Annie Émond, du cabinet Boro Frigon Gordon Jones.

« Juste mettre un objet dans sa poche de manteau n’est pas un crime en soi, insiste-t-elle. C’est probablement déjà arrivé à beaucoup de gens juste parce qu’ils avaient les mains pleines, et qui ont fini par payer en arrivant à la caisse. Devant la cour, il faut démontrer qu’il y avait une intention criminelle », souligne Me Émond.

Inquiétudes et « doutes » de la Commission d’accès à l’information

La Commission d’accès à l’information du Québec (CAI), responsable de l’application des lois encadrant l’utilisation de banques de données personnelles, est au courant de l’existence de cette technologie, mais n’a pas encore été appelée à se pencher sur son utilisation au Québec.

La loi exige que toute organisation qui collecte des données biométriques permettant d’identifier une personne le déclare à l’organisme, et qu’une analyse de risque soit réalisée en amont.

« Est-ce bien vrai que ce genre de système ne fait que de la vérification, et pas de l’identification ? On ne se prononcera pas, mais il est permis de douter. Sans avoir fait une enquête détaillée du système, c’est difficile à dire. »

— Xavier St-Gelais, conseiller à la veille et à la recherche à la CAI

L’analyse des mouvements par intelligence artificielle est déjà implantée dans les aéroports et pour les systèmes de contrôle des feux de circulation, par exemple.

Genetec, important fournisseur de systèmes de sécurité montréalais, émet d’importantes réserves pour son utilisation dans l’industrie du commerce de détail. « Le nombre de fausses alertes qui seraient générées par ces technologies serait accablant pour le personnel », affirme son directeur national des ventes, Scott Thomas.

« Pensez à toutes les différentes façons possibles dont les allées et les tablettes des magasins sont configurées, et comment les caméras sont disposées. Je ne pense pas que la technologie soit à point pour en tenir compte », ajoute-t-il.

Karl St-Laurent, lui, assure que le système Veesion fonctionne.

Pour l’instant, seuls son équipe et lui ont reçu les alertes générées par l’IA dans le cadre des tests, mais dans les prochains jours, il entend l’installer dans un deuxième commerce, où il donnera accès au personnel pour pousser les essais un cran plus loin.

« Des fournisseurs qui me disent que leur solution marche, j’en ai vu souvent dans ma carrière. Mais là, je suis impressionné… et je suis dur à impressionner », lance-t-il.

Vidéosurveillance en France

Un « côté Big Brother » qui sème l'inquiétude

La France souhaite élargir dès le mois d’avril l’utilisation de la surveillance vidéo assistée par l’intelligence artificielle dans nombre de lieux publics, en prévision des JO de Paris en 2024. Le projet de loi – qui a franchi le 24 janvier une première étape – a mis en lumière le fait que des pratiques similaires ont déjà été implantées discrètement dans certaines villes, suscitant la méfiance de citoyens et d’organisations de défense des libertés civiles.

La plus grande place de Marseille, la place Jean-Jaurès, est bien remplie en cette fin de journée de février.

Marion Chalan, 29 ans, y profite d’un après-midi de congé pour se reposer sous le soleil. Et, bien malgré elle, sous le regard des nombreuses caméras vidéo disséminées un peu partout dans les hauteurs des édifices. Marseille a été, en 2015, l’une des premières villes de France à faire appel à la vidéosurveillance assistée par l’intelligence artificielle.

« Il y a un côté Big Brother qui personnellement ne me fait pas me sentir en sécurité, bien au contraire », lâche la jeune femme.

« Je ne veux pas que les autorités puissent reconnaître mon visage à tout moment de la journée, surtout quand on sait les dérives que ça peut prendre, avance Marion Chalan. Si j’apprenais qu’un évènement où je veux aller emploie ce genre de technologie, je me ferais rembourser mes billets immédiatement. »

Francine Laurin, venue balader les enfants qu’elle garde, exprime aussi un certain scepticisme.

« Je me dis que s’il se passe quelque chose, au moins, c’est filmé. Par contre, qu’on s’en serve pour tracer les gens ou pour que les images aillent à des sociétés privées, ce serait grave. »

— Francine Laurin

Des caméras qui créent un sentiment d’insécurité, c’est l’un des nombreux paradoxes de la situation actuelle en France. Le Sénat vient de voter une loi en première lecture qui prévoit l’expérimentation de leur usage – assisté par l’intelligence artificielle – dans de nombreux lieux publics. Seront permises des analyses automatiques en temps réel d’images captées par des caméras de vidéoprotection ou embarquées sur des drones à l’aide d’algorithmes et d’intelligence artificielle pour détecter, par exemple, des comportements suspects, des incidents, des colis abandonnés, des mouvements de foule.

Cette loi passera le dernier vote devant l’Assemblée nationale en février, prévoyant une mise en place dans certains lieux jugés particulièrement menacés d’attaques terroristes.

Or, cette loi permettra essentiellement d’encadrer une pratique qui était déjà en vigueur, mais peu balisée. En 2020 déjà, la Cour des comptes, autorité chargée de contrôler la régularité des dépenses publiques, soulignait dans un rapport que les forces de l’ordre – de niveau national comme local – avaient fait l’acquisition de technologies de reconnaissance faciale dont « elles comptent bien se servir ». Même en l’absence de résultats clairs des politiques de vidéosurveillance sur les chiffres de la criminalité. Et en l’absence de législation.

« L’excuse des Jeux olympiques est une manière de faire passer l’injustifiable. L’enjeu est la légalisation de pratiques illégales déjà existantes sur tout le territoire français », dénonce Bastien Le Querrec, de La Quadrature du Net, une ONG française de référence sur les questions de libertés numériques. L’association porte depuis 2019 l’initiative Technopolice avec d’autres structures, comme la Ligue des droits de l’homme, et relève partout en France l’installation de ce type de technologies, qu’elle considère comme illégitimes :

« Les droits français et européen prévoient entre autres que l’utilisation de données doit être liée à un consentement des personnes concernées. Or, il est impossible de demander son consentement à chaque passant dans la rue. »

— Bastien Le Querrec, de La Quadrature du Net

En juillet dernier, la Commission nationale de l’informatique et des libertés (CNIL), autorité responsable de la protection des données en France, avait d’ailleurs émis plusieurs réserves sur le déploiement de ces technologies dans un rapport dans lequel l’on pouvait lire : « une généralisation non maîtrisée de ces dispositifs, par nature intrusifs, conduirait à un risque de surveillance et d’analyse généralisée dans l’espace public ».

Ce ne sera pas « open bar », a prévenu Marie-Laure Denis, présidente de la CNIL, en entrevue avec France Info à la fin de janvier. La Commission s’est positionnée contre la reconnaissance faciale.

Quelle ampleur ?

Des ONG dénoncent aussi le fait que l’information soit très difficile à obtenir sur l’état de la vidéosurveillance assistée par l’IA en France. « Aucune ville ne fait la promotion de ces dispositifs, même quand ils sont en place. Il y a une impossibilité d’avoir des chiffres exacts », explique Bastien Le Querrec.

Des enquêtes commencent à sortir à Paris ou à Reims, où le site StreetPress a révélé la collaboration entre la mairie de la ville champenoise et le géant français de la défense Thalès, qui y a appliqué une technologie permettant à la police municipale d’utiliser un algorithme pour analyser les images de vidéosurveillance de la ville. L’outil, nommé Savari, permettrait, selon son créateur, qui en fait la promotion aux maires, de « surveiller, superviser et analyser automatiquement les situations (regroupement, intrusion, etc.) mais aussi détecter, identifier et classifier les formes et les objets ».

À Marseille aussi, les informations sont floues sur l’état actuel de l’assistance par des algorithmes ou des IA. Un projet mené par l’ancien conseil municipal a été mis sur pause par l’arrivée de la nouvelle administration. Le conseiller municipal Christophe Hugon, chargé du numérique et du traitement des données, note cependant que la volonté de l’État est d’utiliser ces technologies. « Les projets financés au niveau national sont souvent en ce sens-là. » La principale motivation des municipalités étant la réduction des coûts de personnel.

Reste à savoir si la législation sera prolongée au-delà des Jeux olympiques, et à déterminer combien de temps seront conservées les images recueillies par les caméras assistées en vertu de la nouvelle législation. Là encore, la CNIL promet de veiller au grain et de s’assurer qu’elles soient effacées dès que possible.

Ce texte provenant de La Presse+ est une copie en format web. Consultez-le gratuitement en version interactive dans l’application La Presse+.