Le géant de l’intelligence artificielle OpenAI fait face à une vague de conflits internes et de critiques externes concernant ses pratiques et les risques potentiels posés par sa technologie.
En mai dernier, plusieurs employés de haut niveau ont quitté l’entreprise, dont Jan Leike, ancien responsable des efforts d’OpenAI en matière de “super alignement” visant à garantir que les systèmes IA avancés restent alignés avec les valeurs humaines. Le départ de Leike est survenu peu de temps après qu’OpenAI ait dévoilé son nouveau modèle phare GPT-4o, présenté comme “magique” lors de son événement de mise à jour de printemps.
Selon des rapports, le départ de Leike a été motivé par des désaccords constants concernant les mesures de sécurité, les pratiques de surveillance et la priorisation des sorties de produits attrayants par rapport aux considérations de sécurité.
Le départ de Leike a ouvert une boîte de Pandore pour l’entreprise. D’anciens membres du conseil d’administration d’OpenAI ont fait état d’allégations d’abus psychologiques à l’encontre du PDG Sam Altman et de la direction de l’entreprise.
Les tensions internes croissantes à OpenAI surviennent en même temps que des préoccupations externes grandissantes concernant les risques potentiels posés par la technologie IA générative comme les propres modèles linguistiques de l’entreprise. Les critiques ont averti sur la menace existentielle imminente d’une IA avancée dépassant les capacités humaines, ainsi que sur des risques plus immédiats tels que le remplacement d’emplois et la militarisation de l’IA pour des campagnes de désinformation et de manipulation.
En réponse, un groupe d’employés actuels et anciens d’OpenAI, Anthropic, DeepMind, et d’autres grandes entreprises d’IA ont rédigé une lettre ouverte abordant ces risques.
“Nous sommes des employés actuels et anciens d’entreprises d’IA de pointe, et nous croyons au potentiel de la technologie IA pour apporter des avantages sans précédent à l’humanité. Nous comprenons également les risques sérieux posés par ces technologies”, déclare la lettre.
Dans la foulée des reportages indiquant qu’OpenAI a contraint les employés partants à signer des accords de non-divulgation les empêchant de critiquer l’entreprise, la lettre des lanceurs d’alerte exhorte les entreprises à protéger les dénonciateurs et à favoriser une plus grande transparence et responsabilité dans le développement de l’IA.
Alors que la révolution de l’IA progresse, les conflits internes et les demandes des lanceurs d’alerte à OpenAI mettent en lumière les défis croissants et les dilemmes éthiques non résolus entourant la technologie.
Voulez-vous en savoir plus sur l’IA et le big data avec des leaders de l’industrie ? Découvrez l’Exposition de l’IA et du Big Data qui se tiendra à Amsterdam, en Californie, et à Londres.
Explorez d’autres événements technologiques d’entreprise à venir et des webinaires organisés par TechForge ici.