OpenAI veut sauver le monde… pendant que son boss brûle
OpenAI a sorti lundi un document de politique publique intitulé « Industrial Policy for the Intelligence Age ». Le message est simple : les gouvernements feraient mieux de se préparer maintenant, parce que l'IA va tout changer — le travail, la fiscalité, la répartition des richesses.
La boîte de Sam Altman ne mâche pas ses mots. Elle prévient que si rien n'est fait, l'IA pourrait concentrer la richesse entre les mains de quelques-uns et laisser le reste de la planète sur le carreau. « Si l'IA finit par être contrôlée par une poignée d'acteurs, nous aurons échoué », écrit-elle noir sur blanc.
Concrètement, OpenAI propose plusieurs pistes. D'abord, traiter l'accès à l'IA comme une ressource économique fondamentale, au même titre que la littératie de masse en son temps. Ensuite, moderniser les systèmes fiscaux pour tenir compte de l'automatisation. Et enfin, créer des mécanismes permettant aux citoyens de profiter des gains économiques générés par l'IA, pas seulement aux actionnaires.
Sur la sécurité, le document va plus loin. OpenAI réclame des outils d'audit pour les modèles frontières, des systèmes de signalement d'incidents et des « playbooks de confinement » pour les cas où un modèle dangereux ne pourrait pas être simplement débranché. Ce genre de scénario catastrophe, formulé publiquement par la société elle-même, a de quoi faire réfléchir.
Mais voilà le problème : ce grand discours sur la transparence et la sécurité tombe au pire moment possible pour Altman. The New Yorker publie en parallèle une enquête qui fait mal. En 2023, le cofondateur et ex-chef scientifique d'OpenAI, Ilya Sutskever, avait rédigé des mémos internes accusant Altman de tromper le conseil d'administration sur les protocoles de sécurité et les opérations clés de l'entreprise.
Ces accusations avaient conduit le board à virer Altman, estimant qu'il n'avait pas été « systématiquement honnête » avec eux. Le licenciement avait provoqué un séisme interne : les employés menaçaient de partir en masse, et des investisseurs puissants comme Josh Kushner agitaient la menace de couper les financements si Altman n'était pas réintégré. Il l'a été. Et il dirige toujours OpenAI aujourd'hui.
Des voix internes, dont celles de Sutskever et de Dario Amodei — cofondateur d'Anthropic, le concurrent direct — affirment qu'Altman a toujours fait passer la croissance et les produits avant la mission de sécurité originelle de l'entreprise.
OpenAI n'a pas répondu aux demandes de commentaires.
Ce que ça change : OpenAI joue les lanceurs d'alerte sur les risques de l'IA devant les gouvernements, mais c'est son propre CEO qui est accusé d'avoir minimisé ces mêmes risques en interne. Difficile de prêcher la transparence quand ta maison brûle de l'intérieur.