OpenAI fait face à des tensions internes et critiques externes croissantes concernant ses pratiques et les risques potentiels posés par sa technologie.

En mai, plusieurs employés de haut niveau ont quitté l’entreprise, dont Jan Leike, l’ancien responsable des efforts d’alignement “super” d’OpenAI visant à garantir que les systèmes d’IA avancée restent alignés sur les valeurs humaines. Le départ de Leike est survenu peu de temps après la révélation du nouveau modèle phare GPT-4o d’OpenAI, que l’entreprise a vanté comme “magique” lors de son événement de mise à jour de printemps.

Selon les rapports, le départ de Leike a été motivé par des désaccords constants concernant les mesures de sécurité, les pratiques de surveillance et la priorisation des lancements de produits spectaculaires par rapport aux considérations de sécurité.

Le départ de Leike a ouvert une boîte de Pandore pour l’entreprise d’IA. D’anciens membres du conseil d’administration d’OpenAI ont fait part d’allégations de maltraitance psychologique contre le PDG Sam Altman et les dirigeants de l’entreprise.

Les tensions internes croissantes chez OpenAI coïncident avec les préoccupations externes croissantes concernant les risques potentiels posés par la technologie d’IA générative comme les propres modèles linguistiques de l’entreprise. Les critiques ont mis en garde contre la menace existentielle imminente de l’IA avancée dépassant les capacités humaines, ainsi que des risques plus immédiats tels que le déplacement d’emplois et l’usage d’IA à des fins de désinformation et de manipulation.

En réponse, un groupe d’employés actuels et anciens d’OpenAI, d’Anthropic, de DeepMind et d’autres principales entreprises d’IA ont rédigé une lettre ouverte abordant ces risques.

“Nous sommes des employés actuels et anciens de sociétés d’IA de pointe, et nous croyons en le potentiel de la technologie de l’IA à offrir des avantages sans précédent à l’humanité. Nous comprenons également les risques sérieux posés par ces technologies,” déclare la lettre.

La lettre, signée par 13 employés et soutenue par les pionniers de l’IA Yoshua Bengio et Geoffrey Hinton, énonce quatre demandes clés visant à protéger les lanceurs d’alerte et à promouvoir une plus grande transparence et responsabilité dans le développement de l’IA.

Ces demandes interviennent alors que des rapports indiquent qu’OpenAI a contraint les employés partants à signer des accords de non-divulgation les empêchant de critiquer l’entreprise, sous peine de perdre leurs actions. Le PDG d’OpenAI, Sam Altman, a admis être “embarrassé” par la situation mais a affirmé que l’entreprise n’avait jamais réellement récupéré les actions de quiconque.

Alors que la révolution de l’IA avance, les tensions internes et les demandes des lanceurs d’alerte chez OpenAI soulignent les difficultés croissantes et les dilemmes éthiques non résolus entourant la technologie.

Vous souhaitez en savoir plus sur l’IA et le big data auprès de leaders de l’industrie ? Consultez l’AI & Big Data Expo qui se tiendra à Amsterdam, en Californie et à Londres. Cet événement complet est co-localisé avec d’autres événements de premier plan, notamment la conférence sur l’automatisation intelligente, BlockX, la semaine de transformation digitale et les expositions sur la cybersécurité et le cloud.

Explorez les autres événements et webinaires à venir dans le domaine des technologies de l’entreprise organisés par TechForge ici.