Le gouvernement américain augmente le nombre de fournisseurs d’IA et repense le rôle d’Anthropic

L’administration américaine a ajouté quatre autres sociétés d’IA à sa liste de fournisseurs privilégiés, le Pentagone ayant signé des accords avec Microsoft, Reflection AI (qui n’a pas encore publié de modèle accessible au public), Amazon et Nvidia, qui signifient que leurs produits peuvent être utilisés dans le cadre d’opérations classifiées. Les sociétés rejoignent OpenAI, xAI et Google en tant que sociétés que le ministère de la Défense peut déployer « pour toute utilisation licite ».

L’expression « toute utilisation légale » a été au centre du récent désaccord entre Anthropic AI et l’administration américaine, le PDG Darius Amodei affirmant qu’elle permettrait au gouvernement américain d’utiliser la technologie Anthropic pour soumettre la population civile américaine à la surveillance et produire des armes autonomes, domaines d’utilisation d’Anthropic qu’il souhaitait isoler. Le Pentagone a annulé un contrat de 200 millions de dollars avec l’entreprise, une décision qu’Anthropic a rapidement portée devant les tribunaux, réclamant des millions de dollars de perte de revenus au gouvernement et à d’autres personnes influencées par la décision du gouvernement. L’administration Trump a qualifié l’entreprise de « risque lié à la chaîne d’approvisionnement », c’est la première fois qu’une entreprise basée aux États-Unis se voit accorder un tel statut. Les déclarations ultérieures de sources gouvernementales ont décrit Anthropic comme une entreprise « réveillée ».

La déclaration du Pentagone sur ses nouveaux accords se lit comme suit : « Le ministère continuera à construire une architecture qui empêche la dépendance envers les fournisseurs d’IA et garantit une flexibilité à long terme pour la force conjointe. » Ces technologies « donneront aux combattants les outils dont ils ont besoin pour agir en toute confiance et protéger la nation contre toute menace ». Les IA seront utilisées pour les cas d’utilisation des « niveaux d’impact » six (données secrètes) et sept (matériaux les plus classifiés), contribuant ainsi à créer ce que la déclaration décrit comme une « force de combat axée sur l’IA ».

L’utilisation actuelle de l’IA générative par le Pentagone se limite en grande partie à des tâches non classifiées effectuées au sein des différents départements de la défense, comme la rédaction et la synthèse de documents et la recherche. Les nouveaux fournisseurs aideront également les forces de défense à « rationaliser la synthèse des données », mais également « à améliorer la compréhension de la situation et à augmenter la prise de décision des combattants dans des environnements opérationnels complexes ». Il n’est pas clair si ces descriptions incluent les déploiements nationaux à l’intérieur des frontières américaines.

L’expansion du nombre de fournisseurs d’IA auprès de l’armée et des forces de sécurité américaines signifie que celles-ci deviendront plus à l’abri des changements d’avis apparents de la part de fournisseurs individuels affectant les opérations militaires et de sécurité. En élargissant leur base technologique, les caprices personnels des dirigeants de chaque entreprise deviennent moins pertinents. Google et Amazon ont par le passé licencié des employés pour avoir protesté contre l’utilisation de la technologie de leur entreprise dans l’armement et la guerre.

Claude AI d’Anthropic avait été utilisé sur du matériel classifié dans le cadre de l’ensemble d’outils Maven de Palantir, un rôle que les signataires les plus récents pourraient remplacer. Cependant, le modèle Mythos de la société serait actuellement utilisé par la National Security Agency dans le contexte des prétendues capacités de cyberguerre et de défense de la plateforme. Dans le monde entier, le Mythe d’Anthropic est actuellement évalué par 40 organisations, dont 12 seulement ont été nommées, le MI5 britannique et la NSA américaine faisant partie des 28 restantes.

Selon Axiosl’administration américaine pourrait revenir sur sa position publique la plus récente sur Anthropic. Le site Web indique qu’une source à la Maison Blanche a déclaré que l’administration essayait de trouver des moyens de « sauver la face et de les ramener ». Le modèle de codage Claude d’Anthropic serait toujours utilisé par les organisations de sécurité du gouvernement américain, et ce, lors des événements récents.

Selon la Maison Blanche, le gouvernement américain « continue de s’engager de manière proactive au sein du gouvernement et de l’industrie pour protéger notre pays et le peuple américain, notamment en travaillant avec des laboratoires d’IA frontaliers ».

(Source de l’image : « BEST OF THE MARINE CORPS – May 2006 – Defence Visual Information Center » par expertinfantry sous licence CC BY 2.0. Licence.)

Solène Vernet
Solène Vernet
Journaliste française passionnée par la science et les politiques d’innovation, j’écris pour rendre accessibles des sujets complexes. Mon parcours mêle recherche universitaire, communication scientifique et journalisme. J’aime explorer les liens entre technologie, société et transformation du monde.