OpenAI, connue pour ses recherches en intelligence artificielle, a récemment dissous son équipe de superalignement de l’IA, suite à la démission de ses co-dirigeants Ilya Sutskever et Jan Leike. Les deux hommes ont expliqué leur décision par des divergences de vision quant aux priorités de l’entreprise. Le désaccord principal concernait la place de la sécurité face à la progression des produits développés.

Après un engagement pour la sécurité de l’IA lors de l’AI Safety Summit de Séoul, OpenAI a mis en place un comité chargé de garantir la sûreté et la sécurité des projets et opérations de l’entreprise. Composé de quatre dirigeants et d’experts techniques et politiques, ce comité évaluera et développera les processus de sécurité d’OpenAI dans les 90 prochains jours.

Parallèlement, l’entreprise a commencé l’entraînement d’un nouveau modèle de frontière, potentiellement nommé GPT Next. Ce modèle, promis pour les prochains mois, devrait représenter une avancée significative en matière de compréhension, de raisonnement et de génération de langage, rapprochant ainsi OpenAI de l’Intelligence Artificielle Générale (AGI).