Réseaux sociaux

Des algorithmes pour prévenir le suicide ?

L’homme d’affaires Alexandre Taillefer a révélé à l’émission Tout le monde en parle que son fils Thomas, avant de se suicider en décembre dernier, avait laissé six mois auparavant des « signaux » de détresse sur le réseau social Twitch, avec la mention « suicide ». La filiale d’Amazon, spécialiste des algorithmes  de détection des comportements d’achat, aurait pu l’alerter, estime-t-il. Est-ce possible ?

LA DÉCLARATION

« Mon fils a envoyé [sur Twitch] des signaux d’aide au mois de mai, des signaux très clairs, avec le mot “suicide” dans la note. Et Amazon, qui détecte que vous êtes sur le site pour chercher des souliers rouges, ne fait rien aujourd’hui par rapport à ça. Je pense qu’il va falloir qu’il y ait une modification. Si j’avais été alerté à ce moment-là, de quelconque façon – au mois de mai, mon fils s’est tué le 6 décembre, six mois plus tard –, je pense que ça aurait changé le cours des choses. »

QU’EST-CE QUE TWITCH ?

Twitch est un site d’échange pour gamers, sur lequel des diffuseurs – ils sont 1,7 million, selon Twitch –  publient des vidéos de leurs performances avec différents jeux. Les membres, qui y passent en moyenne 106 minutes par jour, sont invités à échanger entre eux sur des forums et des salles de clavardage.

UN ALGORITHME POSSIBLE ?

« Programmer un système de reconnaissance des sentiments capable de détecter un risque de suicide ne serait pas du tout impossible, mais ce ne serait pas facile », estime Michel Gagnon, spécialiste de l’intelligence artificielle à Polytechnique Montréal. De tels systèmes sont déjà utilisés pour démasquer les terroristes dans certains forums de discussion, par exemple. « Quand ça fonctionne, les algorithmes sont même meilleurs que nous pour comprendre le ton d’un message. Même si le mot “suicide” ou “mort” n’est jamais mentionné, ils distinguent certaines régularités dans le message », précise M. Gagnon.

LES MOTS « SUICIDE » ET « KILL » SONT OMNIPRÉSENTS

Un système fonctionnant par reconnaissance de termes serait pratiquement inutile sur un site comme Twitch. Au moins une vingtaine d’utilisateurs recensés par La Presse ont le mot « suicide » dans leur pseudonyme (Suicide_Commando, Suicide_Squad, Suicide_Plan, etc.) et l’expression « kill myself » apparaît dans plusieurs descriptions d’extraits vidéo concernant des jeux vidéo.

UN SUICIDE EN DIRECT SUR TWITCH COMME EXEMPLE

« La difficulté [de programmer des algorithmes capables de prévenir le suicide], c’est qu’il leur faut un certain apprentissage. Il faut leur fournir beaucoup de données, des exemples de textes qui permettraient de reconnaître un certain comportement », ajoute M. Gagnon. Twitch a justement déjà connu une expérience de suicide très médiatisée, à l’été 2014. Chloé Segal, une conceptrice de jeux vidéo en 2D, avait fait une tentative de suicide en avalant plusieurs médicaments devant sa webcam. Le triste événement avait été diffusé en direct sur le site, mais Mme Segal avait eu auparavant de nombreux échanges écrits avec des membres, notamment avec Allistair Pinsof, journaliste spécialisé en jeux vidéo qui est devenu développeur.

RAPPORTER UNE MENACE DE SUICIDE

Comme Facebook et Twitter, Twitch a adopté un code de conduite qui permet déjà à ses membres de rapporter des propos laissant croire qu’une personne « menace, tente ou est à risque de s’infliger des blessures ou la mort », incluant les « menaces de suicide et la manipulation psychologique intentionnelle ». « Nous prenons les comportements autodestructeurs très au sérieux », affirme par courriel le directeur des communications de Twitch, qui utilise le surnom de « Chase » pour communiquer avec les médias. « Nous avons une équipe de modération en fonction 24 heures sur 24, 7 jours par semaine, qui a pour mandat d’assurer un environnement positif sur le site et qui enquête lorsque de tels comportements sont rapportés. Nous vérifions chaque rapport et prenons les mesures nécessaires si le rapport s’avère, ce qui inclut la fermeture de canaux. » Twitch assure par ailleurs n’avoir aucun dossier ouvert au sujet du fils d’Alexandre Taillefer.

DES SIGNES HUIT FOIS SUR DIX

Dans huit cas sur dix, les jeunes qui font une tentative de suicide envoient des signaux avant de passer à l’acte, affirme la psychologue Brigitte Lavoie, ancienne directrice générale de Suicide Action Montréal. « Mais ils ne disent pas nécessairement “je vais me suicider” ou “je vais me tuer” », explique-t-elle. Il faut, en quelque sorte, savoir lire entre les lignes. « Ce n’est pas normal qu’un jeune s’enferme constamment dans sa chambre et qu’il soit toujours morose, illustre la psychologue. Ce sont des signes de dépression auxquels il faut être très attentifs. » Autre problème : les signes de suicide laissés sur les réseaux sociaux sont souvent ignorés. « Quand un jeune a l’impression d’être dans la confidence, quand il a l’impression qu’un ami lui a confié un grand secret, il ne veut pas devenir celui qui va dévoiler ce secret », explique-t-elle. Il faut donc sensibiliser les adolescents au fait que le suicide n’est pas un « choix ». « Il faut leur apprendre à reconnaître que quand un proche parle de se suicider, c’est la dépression qui parle. Et la dépression, ça se guérit. »

Ce texte provenant de La Presse+ est une copie en format web. Consultez-le gratuitement en version interactive dans l’application La Presse+.