OpenAI sous le feu des critiques pour des questions éthiques et de sécurité liées à l’IA de pointe

L’entreprise OpenAI fait actuellement face à une vague de conflits internes et de critiques externes concernant ses pratiques et les risques potentiels posés par sa technologie.

En mai, plusieurs employés de haut niveau ont quitté l’entreprise, dont Jan Leike, l’ancien responsable des efforts d’alignement « super » d’OpenAI visant à garantir que les systèmes d’IA avancés restent alignés sur les valeurs humaines. Le départ de Leike est survenu peu de temps après que OpenAI ait dévoilé son nouveau modèle phare, le GPT-4o, qu’elle présentait comme « magique » lors de son événement Spring Update.

Selon les rapports, le départ de Leike a été motivé par des désaccords constants concernant les mesures de sécurité, les pratiques de surveillance et la priorisation des lancements de produits attractifs par rapport aux considérations de sécurité.

Le départ de Leike a ouvert une boîte de Pandore pour la société d’IA. D’anciens membres du conseil d’administration d’OpenAI ont fait part d’allégations de maltraitance psychologique à l’encontre du PDG Sam Altman et de la direction de l’entreprise.

Les tensions internes croissantes chez OpenAI coïncident avec les préoccupations croissantes à l’externe concernant les risques potentiels posés par la technologie d’IA générative comme les modèles de langage de l’entreprise. Les critiques ont mis en garde contre la menace existentielle imminente de l’IA avancée dépassant les capacités humaines, ainsi que des risques plus immédiats tels que le déplacement d’emplois et la militarisation de l’IA pour des campagnes de désinformation et de manipulation.

En réponse, un groupe d’employés actuels et anciens d’OpenAI, d’Anthropic, de DeepMind et d’autres grandes entreprises d’IA ont rédigé une lettre ouverte abordant ces risques.

« Nous sommes des employés actuels et anciens dans des entreprises d’IA de pointe, et nous croyons au potentiel de la technologie d’IA pour offrir des avantages sans précédent à l’humanité. Nous comprenons également les risques sérieux posés par ces technologies », indique la lettre.

La lettre, signée par 13 employés et soutenue par les pionniers de l’IA Yoshua Bengio et Geoffrey Hinton, énonce quatre exigences principales visant à protéger les lanceurs d’alerte et à favoriser une plus grande transparence et responsabilité autour du développement de l’IA.

Ces demandes surviennent alors que des rapports indiquent qu’OpenAI a forcé les employés démissionnaires à signer des accords de non-divulgation les empêchant de critiquer l’entreprise, sous peine de perdre leurs actions acquises. Le PDG d’OpenAI, Sam Altman, a admis être « embarrassé » par la situation, mais a affirmé que l’entreprise n’avait en réalité jamais annulé les actions acquises de qui que ce soit.

Alors que la révolution de l’IA avance à grands pas, les conflits internes et les exigences des lanceurs d’alerte chez OpenAI soulignent les douleurs de croissance et les dilemmes éthiques non résolus entourant la technologie.

Voulez-vous en savoir plus sur l’IA et les mégadonnées auprès de leaders du secteur ? Consultez l’AI & Big Data Expo qui se tiendra à Amsterdam, en Californie et à Londres. Cet événement complet est organisé conjointement avec d’autres événements phares, dont la Conférence sur l’automatisation intelligente, BlockX, la Semaine de la transformation numérique et les Salons de la cybersécurité et du cloud.

Explorez d’autres événements et webinaires sur les technologies d’entreprise à venir organisés par TechForge ici.