OpenAI répartit un pari de 600 milliards de dollars sur l’IA cloud entre AWS, Oracle et Microsoft

OpenAI se lance dans une frénésie de dépenses pour sécuriser sa chaîne d’approvisionnement en calcul d’IA, en signant un nouvel accord avec AWS dans le cadre de sa stratégie multi-cloud.

La société a récemment mis fin à son partenariat exclusif de cloud computing avec Microsoft. Depuis, il a alloué 250 milliards de dollars à Microsoft, 300 milliards de dollars à Oracle et maintenant 38 milliards de dollars à Amazon Web Services (AWS) dans le cadre d’un nouvel accord pluriannuel. Cet accord AWS de 38 milliards de dollars, bien que le plus petit des trois, fait partie du plan de diversification d’OpenAI.

Pour les leaders du secteur, les actions d’OpenAI montrent que l’accès aux GPU hautes performances n’est plus une commodité à la demande. Il s’agit désormais d’une ressource rare nécessitant un investissement massif en capital à long terme.

L’accord AWS donne à OpenAI l’accès à des centaines de milliers de GPU NVIDIA, y compris les nouveaux GB200 et GB300, et la possibilité d’exploiter des dizaines de millions de processeurs.

Cette puissante infrastructure n’est pas uniquement destinée à former les modèles de demain ; il est nécessaire pour exécuter les charges de travail d’inférence massives du ChatGPT actuel. Comme l’a déclaré Sam Altman, co-fondateur et PDG d’OpenAI, « la mise à l’échelle de l’IA de pointe nécessite un calcul massif et fiable ».

Cette frénésie de dépenses oblige les hyperscalers à réagir de manière compétitive. Même si AWS reste le plus grand fournisseur de cloud du secteur, Microsoft et Google ont récemment enregistré une croissance plus rapide des revenus du cloud, souvent en capturant de nouveaux clients IA. Cet accord AWS est une simple tentative de sécuriser une charge de travail d’IA fondamentale et de prouver ses capacités d’IA à grande échelle, qui, selon lui, incluent l’exécution de clusters de plus de 500 000 puces.

AWS ne fournit pas seulement des serveurs standards. Il construit une architecture sophistiquée et spécialement conçue pour OpenAI, en utilisant des UltraServers EC2 pour relier les GPU pour la mise en réseau à faible latence qu’exige la formation à grande échelle.

« L’étendue et la disponibilité immédiate du calcul optimisé démontrent pourquoi AWS est dans une position unique pour prendre en charge les vastes charges de travail d’IA d’OpenAI », a déclaré Matt Garman, PDG d’AWS.

Mais « immédiat » est relatif. La pleine capacité du dernier accord d’IA cloud d’OpenAI ne sera pas entièrement déployée avant la fin de 2026, avec des options d’extension jusqu’en 2027. Ce calendrier offre une dose de réalisme à tout dirigeant planifiant un déploiement d’IA : la chaîne d’approvisionnement en matériel est complexe et fonctionne selon des calendriers pluriannuels.

Que devraient alors en retenir les dirigeants d’entreprise ?

Premièrement, le débat « construire ou acheter » pour l’infrastructure d’IA est pratiquement terminé. OpenAI dépense des centaines de milliards pour s’appuyer sur du matériel loué. Rares sont les autres entreprises, voire aucune, qui peuvent ou devraient emboîter le pas. Cela pousse le reste du marché vers des plateformes gérées comme Amazon Bedrock, Google Vertex AI ou IBM Watsonx, où les hyperscalers absorbent ce risque d’infrastructure.

Deuxièmement, les jours du sourcing dans un cloud unique pour les charges de travail d’IA sont peut-être comptés. Le pivot d’OpenAI vers un modèle multi-fournisseurs est un cas d’école d’atténuation du risque de concentration. Pour un DSI, s’appuyer sur un seul fournisseur pour le calcul qui exécute un processus métier principal devient un pari.

Enfin, la budgétisation de l’IA a quitté le domaine de l’informatique départementale et est entrée dans le monde de la planification des investissements d’entreprise. Ce ne sont plus des dépenses opérationnelles variables. Sécuriser le calcul de l’IA est désormais un engagement financier à long terme, tout comme la construction d’une nouvelle usine ou d’un centre de données.

Solène Vernet
Solène Vernet
Journaliste française passionnée par la science et les politiques d’innovation, j’écris pour rendre accessibles des sujets complexes. Mon parcours mêle recherche universitaire, communication scientifique et journalisme. J’aime explorer les liens entre technologie, société et transformation du monde.