OpenAI dans la tourmente : le torchon brûle en interne et les critiques fusent à l’extérieur
Le géant de l’intelligence artificielle OpenAI fait face à une vague de conflits internes et de critiques externes concernant ses pratiques et les risques potentiels posés par sa technologie.
En mai, plusieurs employés de haut rang ont quitté l’entreprise, dont Jan Leike, l’ancien responsable des efforts d’alignement “super” d’OpenAI visant à garantir que les systèmes d’IA avancés restent alignés sur les valeurs humaines. Le départ de Leike est survenu peu de temps après que OpenAI a dévoilé son nouveau modèle phare GPT-40, qu’il a qualifié de “magique” lors de son événement de mise à jour de printemps.
Selon des rapports, le départ de Leike a été motivé par des désaccords constants sur les mesures de sécurité, les pratiques de surveillance et la priorisation des lancements de produits voyants par rapport aux considérations de sécurité.
Le départ de Leike a ouvert la boîte de Pandore pour l’entreprise d’IA. D’anciens membres du conseil d’administration de OpenAI sont venus de l’avant avec des allégations de maltraitance psychologique contre le PDG Sam Altman et la direction de l’entreprise.
Les troubles internes croissants chez OpenAI coïncident avec des préoccupations croissantes à l’extérieur concernant les risques potentiels posés par la technologie d’IA générative tels que les modèles de langage de l’entreprise. Les critiques ont mis en garde contre la menace existentielle imminente d’une IA avancée dépassant les capacités humaines, ainsi que des risques plus immédiats tels que le déplacement des emplois et la militarisation de l’IA pour des campagnes de désinformation et de manipulation.
En réponse, un groupe d’employés actuels et anciens d’OpenAI, Anthropic, DeepMind, et d’autres principales entreprises d’IA ont rédigé une lettre ouverte abordant ces risques.
“Nous sommes des employés actuels et anciens d’entreprises d’IA de pointe, et nous croyons au potentiel de la technologie IA pour apporter des avantages sans précédent à l’humanité. Nous comprenons également les risques sérieux posés par ces technologies”, déclare la lettre.
“Ces risques vont de l’approfondissement des inégalités existantes à la manipulation et à la désinformation, en passant par la perte de contrôle des systèmes autonomes d’IA pouvant entraîner l’extinction de l’humanité. Les entreprises d’IA elles-mêmes ont reconnu ces risques, tout comme les gouvernements du monde entier et d’autres experts en IA.”
La lettre, signée par 13 employés et soutenue par les pionniers de l’AI Yoshua Bengio et Geoffrey Hinton, énonce quatre demandes clés visant à protéger les lanceurs d’alerte et à favoriser une plus grande transparence et responsabilité dans le développement de l’IA :
Que les entreprises n’imposent pas de clauses de non-dénigrement ou ne se vengent pas contre les employés qui soulèvent des préoccupations liées aux risques. Que les entreprises facilitent un processus de signalement vérifiablement anonyme pour que les employés puissent faire part de leurs préoccupations aux conseils d’administration, aux régulateurs et aux experts indépendants. Que les entreprises soutiennent une culture de la critique ouverte et permettent aux employés de partager publiquement des préoccupations liées aux risques, en protégeant adéquatement les secrets commerciaux. Que les entreprises ne se vengent pas contre les employés qui partagent des informations confidentielles liées aux risques après l’échec d’autres processus.
“Ils et d’autres ont adhéré à l’approche du ‘aller vite et casser des choses’ et c’est l’opposé de ce qui est nécessaire pour une technologie aussi puissante et aussi mal comprise”, a déclaré Daniel Kokotajlo, un ancien employé de OpenAI qui a quitté l’entreprise en raison de préoccupations concernant les valeurs et le manque de responsabilité de l’entreprise.
Ces demandes surviennent alors que des rapports indiquent qu’OpenAI a forcé les employés partants à signer des accords de non-divulgation les empêchant de critiquer l’entreprise sous peine de perdre leurs actions acquises. Le PDG de OpenAI, Sam Altman, a admis être “embarrassé” par la situation mais a affirmé que l’entreprise n’avait en fait jamais récupéré les actions acquises de quiconque.
Alors que la révolution de l’IA avance, les conflits internes et les demandes des lanceurs d’alerte chez OpenAI mettent en lumière les difficultés croissantes et les dilemmes éthiques non résolus entourant la technologie.
Voulez-vous en savoir plus sur l’IA et le big data auprès de leaders du secteur ? Consultez AI & Big Data Expo qui se déroule à Amsterdam, en Californie et à Londres. Cet événement complet est organisé conjointement avec d’autres événements majeurs tels que la Conférence sur l’automatisation intelligente, BlockX, la Semaine de la transformation numérique et les salons Cyber Security & Cloud Expo.
Explorez d’autres événements et webinaires technologiques d’entreprise à venir proposés par TechForge ici.