OpenAI a annoncé la formation d’un nouveau comité de sécurité qui sera chargé de faire des recommandations sur des points critiques liés à la sécurité, tant en ce qui concerne les projets que le fonctionnement de la startup elle-même. De plus, l’entreprise a confirmé une information clé sur GPT-5, son prochain modèle d’intelligence artificielle très attendu.
Le début de l’entraînement de GPT-5
En ce qui concerne GPT-5, OpenAI a révélé qu’elle a déjà commencé à l’entraîner. Bien que l’entreprise dirigée par Sam Altman ne le nomme pas spécifiquement, il est évident qu’elle fait référence à cette IA.
« OpenAI a récemment commencé à entraîner son prochain modèle de pointe et nous prévoyons que les systèmes qui en résulteront nous mèneront au niveau suivant de capacités sur notre chemin vers l’intelligence artificielle générale », déclare l’entreprise.
Qu’est-ce qu’un modèle de pointe ou « frontier model » ? Il s’agit d’un modèle d’apprentissage automatique à grande échelle qui dépasse les capacités des modèles les plus avancés existant actuellement et qui peut effectuer une très large variété de tâches. C’est ainsi que le définit le Frontier Model Forum, un organisme composé de Google, Anthropic, Microsoft et OpenAI elle-même dans le but de s’auto-réguler.
GPT-5 sera bien plus intelligent que GPT-4

Sam Altman, le dirigeant d’OpenAI, n’a pas hésité à reconnaître que GPT-4 sera considéré comme un modèle d’IA « stupide » lorsque son successeur arrivera au public. Et il a affirmé que la principale vertu de GPT-5 et des technologies ultérieures sera d’être de plus en plus intelligentes.
« Je pense que le plus important avec GPT-5, ou quel que soit le nom qu’on lui donne, c’est qu’il sera plus intelligent. Je pense que l’un des faits les plus remarquables de l’histoire humaine est que nous puissions faire quelque chose et dire dès maintenant, avec un haut degré de certitude scientifique, que GPT-5 sera beaucoup plus intelligent que GPT-4. Et GPT-6 sera beaucoup plus intelligent que GPT-5, et nous ne sommes même pas près du sommet de cette courbe », a déclaré l’entrepreneur.
Un nouveau comité de sécurité chez OpenAI
Au-delà de la référence implicite à GPT-5, les Californiens ont profité de la formation de leur nouveau comité pour montrer qu’ils sont engagés dans le développement sûr de leurs modèles et produits. Il y a quelques jours, l’entreprise a perdu Jan Leike, le responsable de l’équipe chargée de gérer les risques à long terme de l’IA, qui a publié un fil sur X (Twitter) reprochant la direction prise par OpenAI sous la direction de Sam Altman.
Sam Altman et Greg Brockman ont publié un communiqué conjoint faisant allusion à cette réclamation, et le comité de sécurité maintenant annoncé cherchera à rassurer à l’intérieur et à l’extérieur de la startup. Ce groupe sera composé de membres du conseil d’administration d’OpenAI et d’experts dans les domaines techniques et politiques.
« La première tâche du comité de sécurité sera d’évaluer et de développer davantage les processus et les garanties d’OpenAI au cours des 90 prochains jours. À la fin des 90 jours, le comité de sécurité partagera ses recommandations avec l’ensemble du conseil d’administration. Après un examen complet du conseil, OpenAI rendra publique une mise à jour sur les recommandations adoptées d’une manière compatible avec la sécurité ».
Mots-clés principaux : OpenAI, GPT-5, comité de sécurité, intelligence artificielle, Sam Altman, frontier model, GPT-4
Mots-clés rares : Jan Leike, Greg Brockman, Frontier Model Forum, red teaming, Aleksander Madry, John Schulman, Matt Knight, Jakub Pachocki, Lilian Weng, John Carlin, Rob Joyce