Ex-staff réclamer le profit de la cupidité trahisant la sécurité de l’IA

Le rapport «The Openai Files», assemblant des voix de l’ex-staff concerné, affirme que le laboratoire d’IA le plus important au monde trahit la sécurité à des fins lucratives. Ce qui a commencé comme une noble quête pour s’assurer que l’IA servirait toute l’humanité est maintenant à la pointe de devenir un autre géant d’entreprise, chassant d’immenses bénéfices tout en laissant la sécurité et l’éthique dans la poussière.

Au cœur de tout cela se trouve un plan pour déchirer le livre de règles d’origine. Lorsque Openai a commencé, il a fait une promesse cruciale: cela a mis un plafond sur la quantité d’argent que les investisseurs pourraient faire. C’était une garantie légale que s’ils réussissaient à créer une IA changeante dans le monde, les vastes avantages couleraient vers l’humanité, pas seulement une poignée de milliardaires. Maintenant, cette promesse est sur le point d’être effacée, apparemment pour satisfaire les investisseurs qui veulent des rendements illimités.

Pour les personnes qui ont construit Openai, ce pivot de la sécurité de l’IA ressemble à une trahison profonde. «La mission à but non lucratif était une promesse de faire la bonne chose lorsque les enjeux ont été élevés», a déclaré l’ancien membre du personnel Carroll Wainwright. «Maintenant que les enjeux sont élevés, la structure à but non lucratif est abandonnée, ce qui signifie que la promesse était finalement vide.»

Approfondissement de la crise de confiance

Beaucoup de ces voix profondément inquiets indiquent une personne: le PDG Sam Altman. Les préoccupations ne sont pas nouvelles. Les rapports suggèrent que même dans ses sociétés précédentes, des collègues supérieurs ont essayé de le faire retirer pour ce qu’ils ont appelé le comportement «trompeur et chaotique».

Ce même sentiment de méfiance l’a suivi à Openai. Le cofondateur de la société, Ilya Sutskever, qui a travaillé aux côtés d’Altman pendant des années, et depuis son lancement de sa propre startup, est arrivé à une conclusion effrayante: « Je ne pense pas que Sam est le gars qui devrait avoir le doigt sur le bouton pour Agi. » Il sentait qu’Altman était malhonnête et a créé le chaos, une combinaison terrifiante pour quelqu’un potentiellement en charge de notre avenir collectif.

Mira Murati, l’ancienne CTO, se sentait tout aussi mal à l’aise. «Je ne me sens pas à l’aise avec Sam qui nous mène à Agi», a-t-elle déclaré. Elle a décrit un modèle toxique où Altman dirait aux gens ce qu’ils voulaient entendre, puis les saper s’ils se mettaient en travers de son chemin. Cela suggère de manipuler que l’ancien membre du conseil d’administration d’Openai, Tasha McCauley, dit «devrait être inacceptable» lorsque les enjeux de sécurité de l’IA sont aussi élevés.

Cette crise de confiance a eu des conséquences réelles. Les initiés disent que la culture d’Openai a changé, le travail crucial de la sécurité de l’IA prenant un siège arrière pour libérer des «produits brillants». Jan Leike, qui a dirigé l’équipe responsable de la sécurité à long terme, a déclaré qu’ils «naviguaient contre le vent», luttaient pour obtenir les ressources dont ils avaient besoin pour faire leurs recherches vitales.

Un autre ancien employé, William Saunders, a même donné un témoignage terrifiant au Sénat américain, révélant que pendant de longues périodes, la sécurité était si faible que des centaines d’ingénieurs auraient pu voler l’IA la plus avancée de l’entreprise, y compris le GPT-4.

Plaidoyer désespéré pour hiérarchiser la sécurité de l’IA à Openai

Mais ceux qui sont partis ne s’éloignent pas seulement. Ils ont présenté une feuille de route pour retirer Openai du Brink, un dernier effort pour sauver la mission originale.

Ils demandent que le cœur à but non lucratif de l’entreprise reçoive à nouveau un réel pouvoir, avec un veto vêtu de fer sur les décisions de sécurité. Ils exigent un leadership clair et honnête, qui comprend une nouvelle enquête approfondie sur la conduite de Sam Altman.

Ils veulent une véritable surveillance indépendante, donc Openai ne peut pas simplement marquer ses propres devoirs sur la sécurité de l’IA. Et ils plaident pour une culture où les gens peuvent parler de leurs préoccupations sans craindre pour leur travail ou leur épargne – un endroit avec une véritable protection pour les dénonciateurs.

Enfin, ils insistent sur le fait qu’Openai s’en tient à sa promesse financière d’origine: les plafonds de profit doivent rester. L’objectif doit être un avantage public, pas une richesse privée illimitée.

Il ne s’agit pas seulement du drame interne dans une entreprise de la Silicon Valley. Openai construit une technologie qui pourrait remodeler notre monde d’une manière que nous pouvons à peine imaginer. La question que ses anciens employés nous obligent tous à poser est simple mais profonde: à qui faisons-nous confiance pour construire notre avenir?

Comme l’ancienne membre du conseil d’administration Helen Toner l’a prévenu de sa propre expérience, «les garde-corps internes sont fragiles lorsque l’argent est en jeu».

En ce moment, les personnes qui connaissent le mieux Openai nous disent que ces garde-corps de sécurité ont presque brisé.

Solène Vernet
Solène Vernet
Journaliste française passionnée par la science et les politiques d’innovation, j’écris pour rendre accessibles des sujets complexes. Mon parcours mêle recherche universitaire, communication scientifique et journalisme. J’aime explorer les liens entre technologie, société et transformation du monde.