De nouveaux projets de centres de données marquent la plus grande expansion d’Anthropic aux États-Unis

Les nouveaux projets de centres de données américains au Texas et à New York recevront un nouveau financement de 50 milliards de dollars, dans le cadre d’un plan visant à accroître la capacité informatique américaine pour les travaux avancés d’IA. Les installations, construites avec Fluidstack, sont conçues pour les systèmes d’Anthropic et se concentreront sur les besoins en puissance et en efficacité qui accompagnent la formation et l’exécution de grands modèles sur ces sites de centres de données.

Fluidstack fournit de grands clusters GPU à des entreprises telles que Meta, Midjourney et Mistral. Le partenariat reflète une dynamique plus large dans l’industrie technologique cette année, alors que de nombreuses entreprises augmentent leurs dépenses dans les infrastructures américaines tandis que l’administration Trump exhorte les entreprises à construire et à investir à l’intérieur du pays. Ces évolutions montrent à quel point il existe une demande pour la capacité des centres de données aux États-Unis à mesure que les charges de travail d’IA augmentent.

En janvier, le président Donald Trump a demandé à son administration d’élaborer un plan d’action sur l’IA visant à faire de « l’Amérique la capitale mondiale de l’intelligence artificielle ». Plusieurs entreprises ont ensuite présenté d’importants projets de dépenses en matière d’IA et d’énergie lors du sommet technologique et IA de Trump en juillet, dont beaucoup impliquaient l’expansion des opérations des centres de données américains ou la sécurisation de davantage de calculs à travers le pays.

Les nouveaux sites devraient créer environ 800 emplois à temps plein et 2 400 emplois dans le bâtiment. Ils devraient être mis en ligne par étapes jusqu’en 2026 et sont destinés à soutenir les objectifs du plan d’action sur l’IA en renforçant les ressources informatiques nationales. Les dirigeants d’entreprises affirment qu’ils souhaitent que ces projets créent des emplois stables et améliorent la position américaine dans la recherche sur l’IA en augmentant la capacité des centres de données américains.

Cet investissement intervient également à un moment où les législateurs accordent une plus grande attention à l’emplacement de la capacité de calcul haut de gamme et à la quantité qui reste aux États-Unis. L’empreinte croissante des centres de données d’Anthropic aux États-Unis place l’entreprise parmi les plus grands constructeurs d’infrastructures physiques d’IA du pays, renforçant ainsi la volonté de maintenir davantage de développement de l’IA enraciné aux États-Unis plutôt qu’à l’étranger.

« Nous nous rapprochons de l’IA qui peut accélérer la découverte scientifique et aider à résoudre des problèmes complexes d’une manière qui n’était pas possible auparavant. Réaliser ce potentiel nécessite une infrastructure capable de soutenir un développement continu à la frontière », a déclaré Dario Amodei, PDG et co-fondateur d’Anthropic. « Ces sites nous aideront à construire des systèmes d’IA plus performants, capables de conduire ces avancées, tout en créant des emplois aux États-Unis. »

La décision d’Anthropic intervient alors qu’OpenAI construit son propre réseau. Le fabricant de ChatGPT a obtenu plus de 1 400 milliards de dollars d’engagements à long terme via des partenaires tels que Nvidia, Broadcom, Oracle et de grandes plateformes cloud comme Microsoft, Google et Amazon. L’ampleur de ces projets a soulevé la question de savoir si le réseau électrique américain et les industries connexes peuvent soutenir une expansion aussi rapide, d’autant plus que de plus en plus d’entreprises se disputent l’espace, l’énergie et les équipements liés à la croissance des centres de données américains.

Anthropic affirme que sa croissance a été stimulée par son personnel technique, l’accent mis sur le travail de sécurité et ses recherches sur l’alignement et l’interprétabilité. Claude est désormais utilisé par plus de 300 000 clients professionnels, et le nombre de grands comptes, ceux générant plus de 100 000 $ de revenus annuels, a été multiplié par près de sept au cours de la dernière année.

Projections internes rapportées par Le Wall Street Journal suggèrent que l’entreprise s’attend à atteindre le seuil de rentabilité d’ici 2028. OpenAI, en comparaison, prévoit 74 milliards de dollars de pertes d’exploitation pour la même année. Pour répondre à la demande croissante, Anthropic a choisi Fluidstack pour construire des installations adaptées à ses besoins matériels, soulignant la rapidité de l’entreprise et sa capacité à fournir une capacité électrique à grande échelle dans des délais serrés.

« Nous avons choisi Fluidstack comme partenaire pour sa capacité à se déplacer avec une agilité exceptionnelle, permettant une livraison rapide de gigawatts de puissance », a déclaré un leader d’Anthropic. Gary Wu, co-fondateur et PDG de Fluidstack, a ajouté :  » Fluidstack a été construit pour ce moment. Nous sommes fiers de nous associer à des leaders de l’IA de pointe comme Anthropic pour accélérer et déployer l’infrastructure nécessaire à la réalisation de leur vision. « 

Anthropic affirme que ce niveau de dépenses est nécessaire pour soutenir une utilisation en croissance rapide tout en maintenant son élan de recherche. L’entreprise prévoit également de se concentrer sur des moyens d’évolution rentables.

Plus tôt cet automne, l’entreprise était évaluée à 183 milliards de dollars. Il est soutenu par Alphabet et Amazon, et un campus de centre de données distinct de 1 200 acres construit pour Anthropic par Amazon dans l’Indiana est déjà opérationnel. Ce site de 11 milliards de dollars est opérationnel aujourd’hui, tandis que de nombreux autres sites du secteur sont encore en phase de planification. Anthropic a également étendu son accord informatique avec Google de plusieurs dizaines de milliards de dollars.

Ces évolutions surviennent alors que le rôle du gouvernement fédéral dans le financement des infrastructures d’IA devient de plus en plus contesté. La semaine dernière, OpenAI a demandé à l’administration Trump d’élargir le crédit d’impôt de la loi CHIPS afin qu’il couvre les centres de données d’IA et les équipements de réseau tels que les transformateurs, selon une lettre rapportée par Bloomberg. Cette demande faisait suite aux critiques suscitées par les commentaires antérieurs de la directrice financière Sarah Friar, qui avait évoqué la possibilité d’un « filet de sécurité » gouvernemental pour les accords informatiques de l’entreprise. OpenAI s’est depuis éloigné de cette idée, mais l’épisode a mis en évidence l’incertitude persistante quant à la manière dont l’infrastructure américaine d’IA sera financée – et qui paiera pour cela.

(Photo de Scott Blake)

Solène Vernet
Solène Vernet
Journaliste française passionnée par la science et les politiques d’innovation, j’écris pour rendre accessibles des sujets complexes. Mon parcours mêle recherche universitaire, communication scientifique et journalisme. J’aime explorer les liens entre technologie, société et transformation du monde.