
OpenAI a ouvert un poste clé de “Head of Preparedness” à San Francisco, avec une rémunération annuelle atteignant 555 000 dollars plus des actions. Ce rôle vise à diriger la stratégie de préparation face aux risques liés aux modèles d’IA de pointe, comme l’explique le PDG Sam Altman sur X, qui qualifie la fonction de “stressante” et essentielle à un moment où les capacités des systèmes évoluent rapidement.
Le responsable sera chargé de mettre en œuvre le Preparedness Framework d’OpenAI, un cadre mis à jour en 2025 pour évaluer et atténuer les menaces catastrophiques potentielles. Cela inclut le développement d’évaluations de capacités, de modèles de menaces et de mesures de mitigation dans des domaines comme la cybersécurité, les risques biologiques, la santé mentale et l’auto-amélioration des IA. Selon la description officielle du poste, il dirigera une petite équipe à fort impact et collaborera avec les divisions recherche, ingénierie et politique.
Ce recrutement intervient après plusieurs changements dans l’équipe sécurité d’OpenAI : l’ancien responsable, Aleksander Madry, a été réaffecté en 2024, suivi par d’autres transitions en 2025. Sam Altman a souligné que les modèles actuels commencent à poser des “défis réels”, notamment en découvrant des vulnérabilités critiques en sécurité informatique et en influençant potentiellement la santé mentale des utilisateurs, des préoccupations amplifiées par des plaintes judiciaires récentes contre ChatGPT.
Le Preparedness Framework, détaillé dans des documents publics d’OpenAI, définit des seuils de risque (de bas à critique) et prévoit des safeguards renforcés pour les modèles futurs. Il s’inscrit dans une approche proactive, avec des évaluations externes et internes, pour équilibrer innovation et sécurité, alors que les progrès en IA accélèrent.
Cette initiative reflète une tendance plus large dans l’industrie, où les leaders comme OpenAI, Anthropic et Google investissent dans la gouvernance des risques frontier. Elle souligne l’importance croissante d’anticiper les usages malveillants tout en maximisant les bénéfices sociétaux de l’IA.
À l’heure où les modèles deviennent plus autonomes, ce poste illustre les défis éthiques et techniques pour déployer une intelligence artificielle responsable et bénéfique à long terme.






