Contrats d’IA militaire attribués à Anthropic, Openai, Google et XAI

Le Pentagone a ouvert les vannes d’IA militaire et a distribué des contrats d’une valeur pouvant aller jusqu’à 800 millions de dollars à quatre des plus grands noms: Google, Openai, Anthropic et Xai d’Elon Musk. Chaque entreprise obtient un coup de travail de 200 millions de dollars.

Le Dr Doug Matty, chef du numérique et officier de l’IA, a déclaré: «L’adoption de l’IA transforme la capacité du ministère à soutenir nos combattants et à maintenir un avantage stratégique sur nos adversaires.

«Tirer parti des solutions disponibles dans le commerce dans une approche de capacités intégrées accélérera l’utilisation de l’IA avancée dans le cadre de nos tâches essentielles de mission conjointe dans notre domaine de lutte contre la guerre ainsi que sur les systèmes d’information de renseignement, d’entreprise et d’entreprise.»

Le Pentagone joue intelligent en ne mettant pas tous leurs œufs dans un seul panier. Au lieu de choisir un seul gagnant, ils créent une compétition parmi les meilleurs joueurs dans l’espoir d’assurer les meilleures solutions d’IA disponibles pour le gouvernement militaire et plus large.

Au moment où cette annonce a chuté, le XAI de Musk a déployé «Grok for Governd», une version spéciale de leur IA conçue spécifiquement pour une utilisation par les agences publiques. Cela fait suite à des initiatives gouvernementales similaires d’Openai et d’anthropique.

La nouvelle suite gouvernementale de XAI promet tout, de leur dernier modèle Grok 4 à la «recherche profonde» et à «l’utilisation des outils». Ils prévoient même d’obtenir des autorisations de sécurité pour leurs ingénieurs et de faire fonctionner leur IA dans des environnements classifiés.

L’entreprise essaie clairement de se positionner comme le choix patriotique, parlant de «maintenir le leadership américain dans l’innovation technologique» et de «transformer les pelles en jetons» – quoi que cela signifie.

Cependant, vous vous souvenez quand Grok est sorti complètement des rails et a commencé à parler de «mechahitler»? C’est exactement le genre de chose qui rend les gens nerveux à l’idée d’utiliser l’IA pour un travail du gouvernement sérieux et même des fins militaires.

Lorsque vous avez affaire à la sécurité nationale, vous ne pouvez pas avoir votre assistant d’IA à jaillir des histoires alternatives bizarres ou inventer des trucs. Les enjeux sont tout simplement trop élevés. C’est comme embaucher quelqu’un pour aider avec des décisions importantes, mais parfois ils commencent simplement à parler de non-sens.

Tout cet accord montre à quel point le gouvernement prend au sérieux l’IA – ils le considèrent comme essentiel pour rester compétitif. Le partenariat avec la General Services Administration signifie que toute agence fédérale peut désormais exploiter ces outils d’IA, ce qui facilite la tâche du FBI au ministère de l’Agriculture.

Le Pentagone gère essentiellement une expérience à enjeux élevés. Ils parient qu’en travaillant avec plusieurs sociétés d’IA, ils auront le meilleur de tous les mondes tout en évitant les risques de s’appuyer sur un seul fournisseur. C’est une stratégie intelligente, mais cela signifie également qu’ils devront comprendre comment gérer tous ces différents systèmes et s’assurer qu’ils fonctionnent réellement ensemble.

Le véritable test sera de savoir si ces outils d’IA pourront tenir leurs promesses dans le gouvernement et les militaires sans les problèmes embarrassants qui ont tourmenté certains de ces systèmes dans le passé. Parce qu’en ce qui concerne la sécurité nationale, il n’y a pas de place pour l’IA ayant un moment «mechahitler».

Solène Vernet
Solène Vernet
Journaliste française passionnée par la science et les politiques d’innovation, j’écris pour rendre accessibles des sujets complexes. Mon parcours mêle recherche universitaire, communication scientifique et journalisme. J’aime explorer les liens entre technologie, société et transformation du monde.