Analyse

L’IA appartient désormais aux capitalistes

Ce qui s’est passé à OpenAI au cours des cinq derniers jours peut être décrit de bien des façons : un drame juteux dans la salle du conseil d’administration, une lutte acharnée autour de l’une des plus grandes sociétés en démarrage des États-Unis, un affrontement entre ceux qui veulent que l’intelligence artificielle (IA) progresse plus rapidement et ceux qui veulent la ralentir.

Mais il s’agissait surtout d’un combat entre deux visions opposées de l’IA.

Selon l’une de ces visions, l’IA est un nouvel outil de changement, le dernier d’une série d’innovations qui ont bouleversé le monde, comme la machine à vapeur, l’électricité et l’ordinateur personnel, et qui, s’il est utilisé à bon escient, pourrait ouvrir une nouvelle ère de prospérité et rapporter beaucoup d’argent aux entreprises qui en exploiteront le potentiel.

Selon l’autre vision, l’IA est plus proche d’une forme de vie extraterrestre – un Léviathan invoqué depuis les profondeurs mathématiques des réseaux neuronaux – qu’il faut contenir et déployer avec une extrême prudence pour l’empêcher de prendre le contrôle et de nous tuer tous.

Avec le retour de Sam Altman mardi chez OpenAI, l’entreprise dont le conseil d’administration l’avait licencié vendredi dernier, la bataille entre ces deux points de vue semble terminée.

L’équipe du capitalisme a gagné. L’équipe du Léviathan a perdu.

Le nouveau conseil d’administration d’OpenAI sera composé de trois personnes, du moins dans un premier temps : Adam D’Angelo, PDG de Quora (et seul membre de l’ancien conseil), Bret Taylor, ancien dirigeant de Facebook et de Salesforce, et Larry Summers, ancien secrétaire d’État au Trésor américain. Le conseil d’administration devrait s’étoffer à partir de là.

Le principal investisseur d’OpenAI, Microsoft, devrait également avoir une voix plus importante dans la gouvernance de l’entreprise à l’avenir. Cela pourrait inclure un siège au conseil.

Trois des membres qui avaient incité à l’éviction de M. Altman ont quitté le conseil d’administration : Ilya Sutskever, scientifique en chef d’OpenAI (qui s’est depuis rétracté), Helen Toner, directrice de la stratégie au Center for Security and Emerging Technology de l’Université de Georgetown, et Tasha McCauley, entrepreneuse et chercheuse à la RAND Corporation.

M. Sutskever, Mme Toner et Mme McCauley sont représentatifs du type de personnes qui étaient fortement impliquées dans la réflexion sur l’IA il y a 10 ans – un mélange éclectique d’universitaires, de futurologues de la Silicon Valley et d’informaticiens. Ils considéraient la technologie avec un mélange de crainte et d’admiration, et s’inquiétaient d’évènements futurs théoriques tels que la « singularité », un point où l’IA dépasserait notre capacité à la contenir. Nombre d’entre eux étaient affiliés à des groupes philosophiques tels que les altruistes efficaces (effective altruists en anglais), un mouvement qui utilise les données et la rationalité pour prendre des décisions morales, et travaillaient dans le domaine de l’IA par désir de minimiser les effets destructeurs de la technologie.

C’était l’ambiance qui régnait autour de l’IA en 2015, lorsque OpenAI a été créée en tant qu’organisation à but non lucratif, et cela explique pourquoi l’organisation a conservé sa structure de gouvernance alambiquée – qui donnait au conseil d’administration de l’organisation à but non lucratif la possibilité de contrôler les opérations de l’entreprise et de remplacer ses dirigeants – même après la création d’une branche à but lucratif en 2019. À l’époque, la protection de l’IA contre les forces du capitalisme était considérée par de nombreux acteurs du secteur comme une priorité absolue, qui devait être inscrite dans les statuts et la charte de l’entreprise.

Mais beaucoup de choses ont changé depuis 2019. Une puissante IA n’est plus seulement une expérience de pensée – elle est présente dans des produits réels, comme ChatGPT, qui sont utilisés par des millions de personnes chaque jour. Les plus grandes entreprises technologiques du monde font la course pour construire des systèmes encore plus puissants. Et des milliards de dollars sont dépensés pour déployer l’IA dans les entreprises, dans l’espoir de réduire les coûts de main-d’œuvre et d’augmenter la productivité.

Les nouveaux membres du conseil sont des chefs d’entreprise que l’on s’attend à voir superviser un tel projet. M. Taylor, le nouveau président du conseil, est un négociateur chevronné de la Silicon Valley qui a dirigé la vente de Twitter à Elon Musk l’année dernière, alors qu’il était président du conseil de Twitter. Quant à M. Summers, éminent économiste, il est le modèle de l’hypercapitaliste, ayant déclaré qu’il pensait que le progrès technologique était un « gain net » pour la société.

Il y aura peut-être encore des voix prudentes au sein du conseil d’administration reconstitué d’OpenAI, ou des personnalités issues du mouvement pour la sécurité de l’IA. Mais ils n’auront pas de droit de veto ni la capacité de fermer l’entreprise en un instant, comme l’ancien conseil. En outre, leurs préférences seront pondérées par celles d’autres personnes, telles que les dirigeants et les investisseurs de l’entreprise.

C’est une bonne chose pour Microsoft ou les milliers d’autres entreprises qui s’appuient sur la technologie d’OpenAI. Une gouvernance plus traditionnelle réduit le risque d’une explosion soudaine ou d’un changement qui obligerait à changer rapidement de fournisseur d’IA.

Et ce qui s’est passé à OpenAI – un triomphe des intérêts des entreprises sur les inquiétudes concernant l’avenir – était peut-être inévitable, compte tenu de l’importance croissante de l’IA. Une technologie potentiellement capable d’inaugurer une quatrième révolution industrielle n’était pas susceptible d’être gouvernée à long terme par ceux qui voulaient la ralentir – pas lorsque tant d’argent est en jeu.

Il reste encore quelques traces des anciennes attitudes dans l’industrie de l’IA. Anthropic, une société rivale créée par un groupe d’anciens employés d’OpenAI, s’est constituée en société d’utilité publique, une structure juridique destinée à l’isoler des pressions du marché. Enfin, un mouvement actif en faveur de l’IA à code source ouvert a plaidé pour que l’IA reste à l’abri du contrôle des entreprises.

Mais il vaut mieux considérer ces initiatives comme les derniers vestiges de l’ancienne ère de l’IA, dans laquelle les concepteurs de l’IA considéraient la technologie à la fois avec émerveillement et avec crainte, et cherchaient à restreindre son pouvoir par le moyen d’une gouvernance organisationnelle.

Aujourd’hui, les optimistes sont aux commandes. En avant toute.

Cet article a été publié à l’origine dans le New York Times.

Consultez l’article original (en anglais ; abonnement payant requis)

Ce texte provenant de La Presse+ est une copie en format web. Consultez-le gratuitement en version interactive dans l’application La Presse+.