9 mai 2026
Mira Murati : Sam Altman accusé d'avoir menti sur la sécurité chez OpenAI

Mira Murati : Sam Altman accusé d'avoir menti sur la sécurité chez OpenAI
Résumé — Mira Murati, ancienne directrice technique d’OpenAI, a déclaré sous serment que Sam Altman lui avait menti au sujet des procédures de sécurité entourant un nouveau modèle d’intelligence artificielle. Ces révélations, produites dans le cadre du procès opposant Elon Musk à Sam Altman, posent une nouvelle question sur la gouvernance et la transparence du laboratoire.
Contexte judiciaire et faits établis
Le témoignage de Mira Murati a été produit au cours du procès intenté par Elon Musk contre Sam Altman. Selon la déposition, Altman aurait affirmé qu’un modèle n’avait pas besoin d’être validé par le comité interne de sécurité — affirmation que Murati a ensuite vérifiée auprès du directeur stratégique Jason Kwon et trouvée erronée.
Murati, ancienne CTO d’OpenAI, a précisé avoir fait examiner le modèle par le conseil d’administration malgré l’assurance initiale du PDG. Elle décrit aussi une gestion interne compliquée et des obstacles permanents à l’exécution de ses missions, pointant vers une gouvernance défaillante au sein d’une entreprise qui se présente comme un acteur de l’IA responsable.
Les témoignages des experts — Adrien Naeem et Laetitia Lamari
Adrien Naeem, commentant l’affaire, résume sèchement : « La petite news gossip de la semaine, c'est Mira Murati […] qui a témoigné sous serment que Sam Altman lui avait menti sur les procédures de sécurité d'un nouveau modèle d'IA. » Il insiste sur le contraste entre l’image publique d’OpenAI et les tensions internes révélées par la déposition.
Pour Laetitia Lamari, ces éléments confirment un problème structurel : la succession d’instructions contradictoires et le contournement des instances de sécurité traduisent, selon elle, une gouvernance qui a du mal à concilier rapidité commerciale et rigueur éthique. Elle alerte sur le risque réputationnel et opérationnel lorsque des décisions techniques majeures échappent aux circuits formels de validation.
Enjeux pour OpenAI et retombées possibles
Ces déclarations interviennent alors qu’Elon Musk reproche à OpenAI d’avoir délaissé sa mission initiale au profit d’intérêts commerciaux, accusation amplifiée par ce type de révélations internes. L’affaire s’inscrit dans un contexte déjà trouble pour Sam Altman, dont l’éviction puis le retour en 2023 avaient laissé apparaître des tensions durables au sommet de l’entreprise.
Si les procédures de sécurité sont perçues comme floues ou contournées, la confiance des partenaires, des régulateurs et du grand public peut s’éroder rapidement. La crédibilité d’OpenAI repose précisément sur la capacité à démontrer que le déploiement de modèles puissants s’accompagne de contrôles stricts et documentés.
Ce que les protagonistes ont dit et ce qui reste à éclaircir
- Murati affirme avoir été induite en erreur sur la nécessité d’une validation par le comité de sécurité et avoir fait vérifier le dossier par le board.
- Jason Kwon est mentionné comme l’interlocuteur ayant donné une version différente de celle d’Altman.
- Adrien Naeem considère que ces révélations fragilisent la posture publique d’OpenAI.
- Laetitia Lamari appelle à clarifier durablement les circuits de décision et les responsabilités pour restaurer la confiance.
Restent à démontrer, en audience ou par documents, la chronologie exacte des décisions, les échanges internes entre la direction technique et la direction générale, et les motifs qui ont poussé certains responsables à court-circuiter ou à demander un examen par le board.
Conclusion
Le témoignage de Mira Murati ajoute une couche d’interrogations sur la gouvernance d’OpenAI au moment où l’entreprise est déjà au centre d’un contentieux public avec Elon Musk. Comme le résume Adrien Naeem : « Ces accusations arrivent au moment où Elon Musk accuse OpenAI d'avoir trahi sa mission initiale pour des intérêts commerciaux, fragilisant davantage la crédibilité interne et externe du laboratoire. »
Pour Laetitia Lamari, la priorité est désormais de rétablir des procédures claires et transparentes, afin que le développement des modèles ne se fasse pas au détriment des mécanismes de sécurité qui doivent encadrer l’IA.
Intervenants cités dans l’article : Adrien Naeem, Laetitia Lamari. Faits et éléments de contexte vérifiés à partir des documents publics relatifs au procès Musk vs Altman et aux déclarations de Mira Murati (mai 2026).