OpenAI a récemment dissous son équipe de superalignement de l’IA suite à la démission de ses deux co-dirigeants, Ilya Sutskever et Jan Leike, il y a une dizaine de jours. La mise en place de cette équipe visait à minimiser les risques potentiels d’une IA surpassant l’intelligence humaine. Les deux démissions sont motivées différemment, avec Sutskever évoquant un projet personnel et Leike exprimant son désaccord avec les priorités de l’entreprise.
Suite à l’AI Safety Summit de Séoul, où OpenAI s’est engagée à adopter des mesures de sécurité pour l’IA, la start-up met en place un comité chargé de faire des recommandations en matière de sûreté et de sécurité pour ses projets et opérations. Ce comité est composé de quatre dirigeants et de différents experts techniques et politiques, dont Jakub Pachocki qui a succédé à Sutskever en tant que Chef Scientifique.
Au cours des 90 prochains jours, le comité évaluera et développé les processus et garanties d’OpenAI, partageant ensuite ses recommandations avec le conseil d’administration. Une mise à jour sur les recommandations adoptées sera publiée prochainement.
OpenAI a également annoncé le début de l’entraînement d’un nouveau modèle de frontière, potentiellement nommé GPT Next ou GPT-5, qui devrait sortir dans les mois à venir. Ce nouveau modèle est conçu pour surpasser les précédents en termes de compréhension, de raisonnement et de génération de langage, et permettra à la start-up de progresser vers l’Intelligence Artificielle Générale (AGI).