Le départ de deux dirigeants d’OpenAI intrigue, et soulève à nouveau des questions sur sa gestion. Quelques mois après le départ et le retour tumultueux de Sam Altman à la tête de l’entreprise, certains y voient même le signe qu’OpenAI ne maîtrise pas sa technologie.
Sommaire
Un départ inattendu
« Après presque une décennie, j’ai pris la décision de quitter OpenAI. » L’annonce le 15 mai 2024 d’Ilya Sutskever, l’un des cofondateurs de l’entreprise et son directeur scientifique, a pris le monde de l’intelligence artificielle de court. Son départ est d’autant plus déconcertant qu’Ilya Sutskever avait participé, il y a quelques mois, à l’un des épisodes les plus chaotiques de l’histoire de l’entreprise : la tentative d’éviction de Sam Altman, son PDG.
Aujourd’hui, il semble indiquer dans son message publié sur X (ex-Twitter) qu’il part en bons termes avec les équipes. « La trajectoire de l’entreprise a été tout simplement miraculeuse, et je suis convaincu qu’OpenAI construira une intelligence artificielle générale à la fois sûre et bénéfique […]. Ce fut un honneur et un privilège de travailler ensemble, et tout le monde me manquera beaucoup. »
Les questions qui surgissent
Néanmoins, son départ soulève de nombreuses questions, d’autant plus qu’il n’est pas le seul à quitter OpenAI : Jan Leike, un des cadres de l’entreprise, a également annoncé avoir démissionné ce 15 mai 2024. Sur les réseaux sociaux, de nombreux observateurs du monde de l’intelligence artificielle se demandent ce que les deux ont vu qui aurait pu les pousser à partir — et font ressurgir d’anciennes théories qui avaient émergé lors du départ de Sam Altman.
De nombreuses rumeurs sur OpenAI
Ilya Sutskever était l’un des piliers et des co-fondateurs d’OpenAI, avec Sam Altman et d’autres dirigeants de l’entreprise. Il occupait la position de directeur scientifique, un rôle critique qui l’avait notamment amené à travailler avec l’équipe Superalignment d’OpenAI.
Le concept du superalignment
Le Superalignment est un concept crucial pour la sécurité des intelligences artificielles, qui vise à prévenir les conséquences négatives de la singularité, le moment où une IA aurait des capacités supérieures à celles de l’Homme : il s’agit à la fois du Graal pour les chercheurs en intelligence artificielle, mais aussi d’un moment qui pourrait être une bascule pour le développement de l’humanité.
L’équipe Superalignment d’OpenAI travaillait tout particulièrement à l’élaboration d’outils qui permettraient de maîtriser une intelligence artificielle surpuissante, afin de faire en sorte qu’elle continue de répondre aux besoins de l’humanité. Cette équipe était également codirigée par Jan Leike, l’autre employé d’OpenAI qui a annoncé sa démission ce 15 mai, dans un très laconique message sur X.
Impacts du départ
L’annonce du départ de ces deux employés a tout de suite alerté les observateurs du milieu, mais surtout, fait ressurgir des doutes sur la gestion de l’entreprise. En effet, à la fin de l’année 2023, Ilya Sutskever avait fait partie du groupe ayant organisé le départ de Sam Altman de la tête de l’entreprise. Le 17 novembre 2023, c’était même lui qui avait personnellement informé le PDG qu’il avait été démis de ses fonctions. Ilya Sutskever avait néanmoins rapidement regretté son geste, et avait signé, avec près de 90 % des employés d’OpenAI, une pétition demandant son retour.
Sam Altman avait finalement été réinstauré à la tête d’OpenAI, mais des rumeurs avaient tout de même circulé sur les raisons qui avaient motivé son éviction par le conseil d’administration. Sam Altman avait ainsi été accusé de ne pas faire assez attention aux normes de sécurité déployées, et surtout, d’avoir lancé le développement de Q*, une intelligence artificielle qui aurait été capable de raisonner comme un humain. Les rumeurs sur Q* avaient rapidement été balayées comme des absurdités, mais le départ soudain d’Ilya Sutskever et de Jan Leike a, à nouveau, fait ressurgir des rumeurs.
Réactions sur les réseaux sociaux
Sur X, ils sont ainsi nombreux à se demander ce que les deux ingénieurs ont vu qui aurait pu les pousser à partir. « Ça n’est pas bon. Il n’y a même pas un mot pour dire diplomatiquement qu’OpenAI est entre de bonnes mains. Qu’a vu Jan ? », se demande ainsi un internaute sur X, dans une publication accompagnée d’une image de drapeaux rouges.
Réponse de Sam Altman
Pour l’instant, OpenAI a seulement communiqué sur le départ d’Ilya Sutskever. Sam Altman a publié un long message sur X, expliquant que la situation le rendait « très triste ». « **Ilya est facilement l’un des plus grands esprits de notre génération, un guide dans notre domaine et un ami très cher », a-t-il également ajouté. OpenAI a précisé dans un communiqué de presse qu’Ilya serait remplacé par Jakub Pachocki, qui occupait jusque-là la position de directeur de la recherche, et avait supervisé le développement de GPT-4 et les recherches sur l’apprentissage des IA. Le départ de Jan Leike n’a pas été publiquement commenté, et on ne sait pas qui le remplacera.
Les implications pour l’avenir d’OpenAI
Le départ de deux figures clés au sein de l’OpenAI laisse présager des défis importants pour l’avenir de l’entreprise. Ces événements soulèvent des questions sur la stabilité interne et la direction future de la recherche en intelligence artificielle.
Enjeux de sécurité et de développement
Le concept de Superalignment et la gestion de la sécurité des IA sont au cœur des préoccupations. Le départ des leaders de cette initiative peut avoir des répercussions sur la continuité des efforts de sécurisation des intelligences artificielles avancées. Les équipes en place devront redoubler d’efforts pour maintenir les standards et rassurer le public et les investisseurs sur la maîtrise des technologies développées.
Confiance des employés et des partenaires
Le départ de Sutskever et Leike peut également affecter la confiance des employés et des partenaires. Une entreprise technologique de cette envergure repose non seulement sur ses technologies, mais aussi sur la stabilité et la vision de ses dirigeants. Il sera crucial pour Sam Altman et l’équipe de direction de rétablir un climat de confiance et de transparence pour assurer la cohésion interne et l’engagement des collaborateurs.
Les rumeurs et leur impact
Les rumeurs entourant OpenAI et les théories sur des projets comme Q* peuvent influencer la perception publique de l’entreprise. Les spéculations sur la gestion interne et les priorités stratégiques de l’entreprise doivent être abordées de manière transparente pour éviter une érosion de la confiance des parties prenantes.
Stratégies de communication
Il est impératif pour OpenAI de développer une stratégie de communication proactive. Répondre rapidement et clairement aux questions soulevées par les départs et les rumeurs peut aider à dissiper les inquiétudes. La mise en avant des nouvelles initiatives et des progrès réalisés dans la recherche en IA peut également contribuer à rétablir une image positive.
Les défis de la gouvernance dans les entreprises technologiques
Le cas d’OpenAI met en lumière les défis de la gouvernance dans les entreprises technologiques en rapide évolution. La gestion des talents, la stabilité de la direction et la communication transparente sont des éléments cruciaux pour naviguer dans un environnement en constante mutation.
L’Importance de la stabilité
La stabilité au sein de la direction est essentielle pour maintenir la confiance des investisseurs, des employés et des partenaires. Les entreprises technologiques doivent s’assurer que leurs équipes de direction sont alignées sur les objectifs stratégiques et les valeurs de l’entreprise.
Adaptabilité et innovation
Dans le secteur de l’intelligence artificielle, l’adaptabilité et l’innovation sont essentielles. Les entreprises doivent être prêtes à ajuster leurs stratégies en fonction des évolutions technologiques et des attentes du marché. Les départs de figures clés peuvent représenter des opportunités pour revoir les priorités et introduire de nouvelles perspectives.
Le départ de Ilya Sutskever et Jan Leike d’OpenAI soulève des questions importantes sur la gestion et l’avenir de l’entreprise. Alors que l’intelligence artificielle continue de se développer à un rythme rapide, la stabilité interne et la clarté des objectifs stratégiques sont essentielles pour maintenir la confiance et poursuivre l’innovation.
OpenAI doit naviguer avec prudence et transparence pour assurer sa position de leader dans le domaine de l’intelligence artificielle, tout en rassurant les parties prenantes sur sa capacité à gérer les défis et à poursuivre des objectifs ambitieux en matière de sécurité et d’innovation.
