Taylor a 22 ans. C’est une étudiante ordinaire, qui habite une petite ville de la Nouvelle-Angleterre. Un jour, un ami lui envoie le lien d’une vidéo du site Pornhub. « Désolé, lui écrit-il, mais je pense que tu devrais regarder ça. » Elle hésite un instant, clique sur le lien. La vidéo démarre. Ce corps de femme, entièrement nu, elle ne le connaît pas. Mais ce visage… pas de doute, c’est le sien.

Taylor est sous le choc. Elle ne comprend pas. Cette femme dans la vidéo, c’est elle, mais ce n’est pas elle.

C’est un cauchemar que traversent de plus en plus de femmes, aux quatre coins du monde, avec l’émergence de l’intelligence artificielle. De nombreuses célébrités sont ciblées, mais aussi des inconnues comme Taylor. Enfin, Taylor, c’est le nom d’emprunt que l’étudiante a choisi pour raconter son histoire dans le bouleversant documentaire Another Body.1

Il y a quelques jours, des faussaires du web ont ciblé une autre Taylor – une vraie, celle-là. Les images hypertruquées de Taylor Swift ont été vues des dizaines de millions de fois sur X. Des légions de fans ont volé au secours de la star américaine de la pop, inondant la plateforme d’images réelles afin de rendre les fausses plus difficiles à trouver. Devant l’indignation planétaire, X n’a pas tardé à faire le ménage. « Nos équipes suppriment activement toutes les images identifiées et prennent les mesures appropriées contre les comptes responsables de leur publication », a assuré l’entreprise.

CAPTURE D’ÉCRAN TIRÉE DE X, ASSOCIATED PRESS

Le réseau social X a temporairement bloqué les recherches concernant Taylor Swift après que des images deepfakes pornographiques de la chanteuse ont circulé sur la plateforme.

Tant mieux pour Taylor Swift. Toutes les femmes n’ont malheureusement pas droit à une réaction aussi prompte. Aux États-Unis comme au Canada, les victimes sont souvent laissées à elles-mêmes dans le Far West du World Wide Web. Un monde sans foi ni loi, où les outils technologiques permettant de créer de fausses images pornographiques sont à la portée du premier venu. N’importe quel bozo peut désormais télécharger une application sur son iPhone pour réaliser en vitesse une vidéo porno, hypertruquée mais hyperréaliste, mettant en scène l’objet de ses fantasmes.

Sa comédienne fétiche. Son ex-blonde. Sa collègue. Sa voisine. Sa camarade de classe…

Personne n’est à l’abri. Pire, les victimes sont exposées comme jamais.

Il suffit de quelques clics pour tomber sur des sites de « deepfake porn » ou de « fake nudes ». Incroyablement, Google et d’autres moteurs de recherche orientent les internautes vers ces sites qui font le commerce de vidéos pornos de femmes n’ayant jamais consenti à ce qu’on utilise leur image. L’un de ces sites enregistre 14 millions de visionnements par mois. À ce rythme, ces vidéos risquent bientôt de devenir anodines, peut-être même… la norme. « Hé, t’as vu le dernier deepfake de [entrez ici votre chanteuse préférée] ? »

Les gouvernements doivent légiférer, et vite, pour freiner cette désastreuse tendance.

On s’inquiète beaucoup des avancées de l’intelligence artificielle, de ses impacts sur les élections et, plus largement, sur la démocratie. En 2023, le Service canadien du renseignement de sécurité a déclaré que les hypertrucages étaient « une vraie menace pour l’avenir du Canada ».2 On a eu un avant-goût de ce qui se prépare quand un appel automatisé imitant la voix de Joe Biden a encouragé les électeurs à ne pas voter, lors des primaires du New Hampshire.

Tout cela est certainement très inquiétant, mais il faut tout de même rappeler que pas moins de 98 % de tous les hypertrucages qui circulent sur le web sont de nature pornographique, selon un rapport publié en 2023.3 Sans grande surprise, 99 % des personnes ciblées sont des femmes.

Des femmes qui se font trop souvent dire que, désolé, on ne peut rien faire. Taylor, l’étudiante, a découvert avec effarement plusieurs autres fausses vidéos d’elle sur le site Pornhub, accompagnées de son (vrai) nom, de sa ville et de son école. Elle a été retracée, harcelée. « Le détective assigné au dossier m’a dit que c’était dégueulasse, ce qui était arrivé, mais que la personne [qui a créé les vidéos] avait le droit de le faire. Elle n’avait enfreint aucune loi », raconte-t-elle dans le documentaire. La police a fermé le dossier.

Ça ne peut plus continuer comme ça. Si les images sont fausses, les traumatismes infligés aux personnes ciblées, eux, ne sont que trop réels. Des photos de remise de diplôme, d’un voyage en famille, d’un évènement heureux diffusées en toute innocence sur Facebook sont repiquées et utilisées pour illustrer des scènes pornographiques dégradantes, souvent violentes. C’est plus qu’un vol d’images, plus qu’une atteinte à la vie privée. Plusieurs femmes ont raconté l’avoir ressenti comme un viol.

Et puis, il n’y a pas que les femmes qui soient en danger. Au Québec, le juge Benoit Gagnon a annoncé l’an dernier « une nouvelle ère de cybercriminalité » après avoir condamné le pédophile Steven Larouche, qui utilisait l’hypertrucage pour modifier des vidéos d’enfants agressés. « L’utilisation par des mains criminelles de la technologie de l’hypertrucage donne froid dans le dos, a prévenu le juge. Ce type de logiciel permet de commettre des crimes qui pourraient mettre en cause virtuellement tous les enfants de nos communautés. »

Si ce pédophile a pu être condamné, aucune loi n’interdit spécifiquement l’hypertrucage au Canada. Malgré ses ravages, la technologie n’a pas encore fait son entrée au Code criminel.

La retentissante affaire Taylor Swift pourrait contribuer à faire bouger les choses. Des médias en parlent. Des politiciens réclament des lois. La Maison-Blanche a d’ailleurs promis de légiférer. Le Canada doit suivre la même voie. Qu’on punisse les profiteurs de l’hypertrucage : les sites web qui hébergent ces fausses images, les internautes qui les consomment, les moteurs de recherche et les réseaux sociaux qui facilitent leur partage, comme si ce n’était pas grave, comme si ça ne brisait pas des vies.

Mais surtout, qu’on punisse les pleutres sans visage qui se donnent le droit de voler ceux des autres pour créer ces vidéos abjectes, bien planqués derrière leurs écrans.

1. Visionnez le documentaire Another Body sur la plateforme GEM de Radio-Canada (en anglais) 2. Consultez l’article du Service canadien du renseignement de sécurité « Les hypertrucages, une vraie menace pour l’avenir du Canada » 3. Consultez le rapport 2023 State of Deepfakes (en anglais)