Le géant de l’intelligence artificielle, OpenAI, fait face à une vague de conflits internes et de critiques externes concernant ses pratiques et les risques potentiels posés par sa technologie.

En mai, plusieurs employés de haut niveau ont quitté l’entreprise, dont Jan Leike, l’ancien responsable des efforts de “super alignement” d’OpenAI visant à garantir que les systèmes d’IA avancés restent alignés avec les valeurs humaines. Le départ de Leike est survenu peu de temps après que OpenAI ait dévoilé son nouveau modèle phare GPT-4o, qu’il a qualifié de “magique” lors de son événement de mise à jour du printemps.

Selon les rapports, le départ de Leike a été motivé par des désaccords constants sur les mesures de sécurité, les pratiques de surveillance et la priorisation des lancements de produits spectaculaires par rapport aux considérations de sécurité.

Le départ de Leike a ouvert la boîte de Pandore pour la firme d’IA. D’anciens membres du conseil d’administration de OpenAI ont fait des allégations d’abus psychologiques à l’encontre du PDG Sam Altman et de la direction de l’entreprise.

Le tumulte interne croissant chez OpenAI coïncide avec les préoccupations croissantes concernant les risques potentiels posés par la technologie de l’IA générative, tels que les propres modèles de langage de l’entreprise. Les critiques ont mis en garde contre la menace existentielle imminente d’une IA avancée dépassant les capacités humaines, ainsi que des risques plus immédiats tels que le déplacement d’emplois et la militarisation de l’IA pour des campagnes de désinformation et de manipulation.

En réponse, un groupe d’employés actuels et anciens d’OpenAI, d’Anthropic, de DeepMind et d’autres grandes entreprises d’IA ont rédigé une lettre ouverte abordant ces risques.

“Ces risques vont de la consolidation accrue des inégalités existantes à la manipulation et à la désinformation, en passant par la perte de contrôle des systèmes autonomes d’IA pouvant entraîner l’extinction de l’humanité. Les entreprises d’IA elles-mêmes ont reconnu ces risques, tout comme les gouvernements du monde entier et d’autres experts en IA”, indique la lettre.

La lettre, signée par 13 employés et soutenue par les pionniers de l’IA Yoshua Bengio et Geoffrey Hinton, formule quatre demandes principales visant à protéger les lanceurs d’alerte et à favoriser une plus grande transparence et responsabilité dans le développement de l’IA.

Alors que la révolution de l’IA continue sa marche en avant, les conflits internes et les demandes des lanceurs d’alerte chez OpenAI mettent en lumière les douleurs de croissance et les dilemmes éthiques non résolus entourant la technologie.