Intelligence artificielle

« On est encore loin de l’intelligence humaine »

Trois ans après sa sortie, l'ouvrage de Yoshua Bengio Deep Learning est traduit en français par l’apprentissage profond.

Considéré comme la bible de la branche la plus populaire de l’intelligence artificielle (IA), le livre Deep Learning, paru en 2016 en anglais, est maintenant offert en français. Destiné à « tout chercheur ou ingénieur cherchant à comprendre » l’apprentissage profond, le livre pourra désormais toucher un public francophone dans un domaine où l’anglais est largement dominant. La Presse a rencontré deux de ses auteurs, sommités montréalaises de l’IA, Yoshua Bengio et Aaron Courville.

Votre livre Deep Learning, publié en 2016 et maintenant offert en français, est « le premier ouvrage traitant de deep learning à être traduit par du deep learning », comme on le rappelle en préface. On estime avoir gagné 80 % du temps en utilisant la traduction automatique. Est-ce que ce travail pourra être réutilisé pour d’autres traductions ?

Yoshua Bengio : Le système utilisé ici, qui s’appelle DeepL, est un produit commercial qui est basé sur les travaux qu’on a faits en apprentissage profond, en particulier ici à Montréal. Il est déjà utilisé, ces logiciels de traduction automatique sont très populaires. C’est sûr que ça ne remplace pas les traducteurs, pour la qualité, mais ça donne un accès à la traduction à beaucoup de gens qui ne peuvent pas se payer un traducteur.

Il s’agit d’un ouvrage de référence en français, dans un domaine où 95 % des travaux, y compris à Montréal, se déroulent en anglais… Est-ce un aspect que votre livre pourrait changer ?

Y.B. : Comme pour presque tout ce qui est science, à l’exception de la littérature ou de certaines sciences humaines, la communauté internationale scientifique échange en anglais. Les travaux, les articles sont en anglais. Mais il y a une clientèle, au premier cycle universitaire, qui travaille dans la langue du pays, c’est la recherche qui se fait en anglais. C’est important d’aller toucher cette clientèle-là.

Vous évoquez quelque chose de très intéressant sur l’histoire de l’apprentissage profond, que vous faites remonter aux années 40, à la cybernétique, l’engouement des années 80, ce qu’on a ensuite appelé « l’hiver de l’IA » dans les années 90. On arrive ensuite à 2006 où Goeffrey Hinton redonne vie à cette discipline… Qu’est-ce qui a suscité ce réveil ?

Y.B. : Des gens comme Yann Le Cunn, Jeff et moi étions déjà convaincus que nous étions sur la bonne voie. Au début des années 2000, je me rappelle même en 2003, on a commencé à se poser la question plus sérieusement : est-ce qu’il pourrait être intéressant d’entraîner des réseaux [de neurones] plus profonds, avec plus de couches, qui pourraient apprendre des choses plus complexes ?

Aaron Courville : Jusqu’à ce moment-là, il y avait une certaine théorie qui disait qu’on n’avait pas besoin de plus d’une couche, qui pouvait décrire n’importe quelle fonction. […] Il y a beaucoup de personnes qui pensent que ça fonctionne parce qu’on a des ordinateurs plus puissants. Mais ce n’est pas vrai. Prenons une compétition célèbre, ImageNet [qui a consacré la supériorité de l’apprentissage profond en 2012]. On peut voir la progression depuis 2012, d’année en année : on a dépassé les humains en 2015. On découvre toujours plus.

Y.B. : Ce qu’il est important que les lecteurs comprennent, c’est que les ordinateurs d’aujourd’hui, avec l’apprentissage profond, sont quand même très stupides. Ils font des erreurs que les humains ne feraient jamais et qui démontrent leur intelligence et leur compréhension du monde limitées. Ils vont être capables de faire des choses très pointues comme jouer au jeu de go et battre le champion du monde, mais ils vont avoir de la difficulté à faire certaines tâches qu’un enfant de 2 ans peut faire.

On évoque souvent, même dans des articles scientifiques, la possibilité que la popularité de l’apprentissage profond retombe, comme cela est arrivé quelques fois. Est-ce que c’est plausible ?

A.C. : Je pense qu’on va voir, dans pas très longtemps, qu’on va arrêter de parler d’apprentissage profond, mais tout le monde va utiliser les réseaux de neurones et les outils qu’on développe.

Y.B. : On a compris un certain nombre de concepts qui sont derrière l’apprentissage profond aujourd’hui. Je suis à peu près sûr que la plupart de ces concepts sont là pour rester. La science fonctionne surtout par accrétion de bonnes idées. Là, on a découvert certaines bonnes idées qui fonctionnent bien, mais on est encore loin de l’intelligence de niveau humain. Il va y en avoir d’autres qui vont s’ajouter. Après, les noms qu’on va leur donner, ce sont des phénomènes sociaux.

Les auteurs en bref

Yoshua Bengio

Professeur au département d’informatique de l’Université de Montréal, directeur scientifique du MILA – Institut québécois d’intelligence artificielle, il a été l’informaticien le plus cité au monde en 2018 avec plus de 500 publications et quelque 135 000 citations. Pionnier de l’apprentissage profond depuis 1986, il est considéré comme un des pères du renouveau qu’a connu cette discipline depuis le début des années 2000.

Aaron Courville

Professeur adjoint au département d’informatique et de recherche opérationnelle de l’Université de Montréal, membre de MILA, il se consacre plus particulièrement au développement d’applications utilisant la vision par ordinateur et le traitement du langage. Ses travaux concernent également l’analyse de signaux audio et la reconnaissance des émotions.

Ce texte provenant de La Presse+ est une copie en format web. Consultez-le gratuitement en version interactive dans l’application La Presse+.