Les investissements dans l’intelligence artificielle entrent dans une phase plus sélective alors que les entreprises et les investisseurs regardent au-delà de l’enthousiasme initial et se concentrent sur l’infrastructure des centres de données nécessaire au fonctionnement des systèmes d’IA.
Une analyse récente de Goldman Sachs suggère que le marché s’oriente vers ce que l’entreprise décrit comme une « fuite vers la qualité ». Dans la pratique, les investisseurs accordent une plus grande attention aux entreprises qui possèdent et exploitent de grands centres de données et infrastructures informatiques. Les entreprises proposant des outils d’IA restreints ou des logiciels expérimentaux reçoivent moins d’attention.
Goldman Sachs s’attend à ce que les dépenses consacrées à l’infrastructure d’IA augmentent rapidement à mesure que les entreprises augmentent leur capacité de calcul pour la formation et le déploiement de modèles. Les entreprises de cloud computing à grande échelle investissent des dizaines de milliards de dollars chaque année dans de nouveaux centres de données et matériel informatique. Les systèmes de mise en réseau se développent également pour soutenir cette croissance.
La demande en IA remodèle le marché des centres de données
Goldman Sachs Research estime que les charges de travail d’IA pourraient représenter environ 30 % de la capacité totale des centres de données au cours des deux prochaines années, à mesure que la demande de puissance de calcul augmente dans les services cloud et les applications d’entreprise. Ce changement reflète la façon dont les tâches d’IA diffèrent des charges de travail cloud traditionnelles. La formation de grands modèles nécessite que des milliers de puces fonctionnent en parallèle pendant de longues périodes. L’inférence, le processus de génération de réponses ou de prédictions, nécessite également une puissance de calcul constante lors de l’exécution des services.
Les fournisseurs de cloud et les développeurs d’IA augmentent désormais la capacité des centres de données à un rythme jamais vu lors des phases précédentes du cloud computing. La demande d’infrastructures s’étend au-delà du matériel informatique. L’approvisionnement énergétique devient un enjeu central dans la course à l’IA.
Goldman Sachs Research estime que la demande mondiale en énergie des centres de données pourrait augmenter d’environ 175 % d’ici 2030 par rapport aux niveaux de 2023, en grande partie grâce aux charges de travail de l’IA. L’entreprise affirme que cette augmentation équivaudrait à peu près à l’ajout de la demande d’électricité d’un autre pays parmi les 10 plus grands consommateurs d’énergie au réseau mondial. La demande croissante d’électricité pousse également les services publics et les gouvernements à envisager de nouveaux investissements dans les infrastructures énergétiques.
Les limites de l’infrastructure façonnent la stratégie de l’IA
Le besoin croissant d’alimentation et de refroidissement influence l’endroit où les nouveaux centres de données d’IA sont construits. Les besoins en espace déterminent également le choix du site. Les grandes installations sont souvent situées à proximité de sources d’énergie stables et de réseaux de fibre optique de grande capacité. Certaines entreprises construisent des pôles de formation en IA dans des zones reculées où les terrains et l’électricité sont plus faciles à obtenir. L’emplacement des centres de données peut également affecter l’impact environnemental. La recherche universitaire sur l’infrastructure d’IA montre que les systèmes de refroidissement et l’emplacement géographique peuvent influencer la consommation d’énergie et d’eau autant que l’efficacité du matériel.
Les limites commencent à affecter la manière dont les entreprises technologiques planifient leurs stratégies d’IA. Construire de nouveaux modèles ou logiciels n’est qu’une partie du défi. Les entreprises doivent également s’assurer qu’elles disposent de l’infrastructure nécessaire pour faire fonctionner ces systèmes de manière fiable. Dans de nombreux cas, la construction de cette infrastructure prend des années.
La construction de grands centres de données implique des chaînes d’approvisionnement complexes. Les projets nécessitent souvent l’acquisition de terrains et des connexions au réseau. Beaucoup dépendent également d’accords énergétiques à long terme. Les pénuries d’équipements électriques et les retards dans l’expansion du réseau peuvent ralentir les nouveaux projets. Ces contraintes expliquent en partie pourquoi les investisseurs accordent davantage d’attention aux entreprises qui contrôlent déjà de grands réseaux de centres de données.
Une phase sélective du marché de l’IA
Lors de la première vague d’adoption de l’IA générative, de nombreuses entreprises ont vu leur valeur marchande augmenter simplement en s’associant à l’IA. Cette phase commence maintenant à changer à mesure que les investisseurs réévaluent les domaines dans lesquels la croissance de l’IA aura lieu.
Les investisseurs examinent quelles entreprises disposent de l’infrastructure et des modèles de revenus nécessaires pour soutenir un déploiement à long terme. Les opérateurs de centres de données et les fabricants de puces se situent à la base de cet écosystème. Leurs services sont requis quelles que soient les applications d’IA qui gagnent du terrain.
Au cours des vagues précédentes de croissance informatique, les entreprises qui construisaient l’infrastructure sous-jacente ont souvent généré des revenus stables. En revanche, les plates-formes logicielles ont augmenté et diminué plus rapidement. Une dynamique similaire pourrait désormais se former dans le secteur de l’IA.
L’expansion des infrastructures soulève également de nouvelles questions. La demande énergétique et la capacité du réseau deviennent des questions centrales pour les gouvernements et les planificateurs industriels. L’impact environnemental fait également l’objet d’un examen plus approfondi.
Dans les années à venir, l’économie de l’IA pourrait dépendre autant des centrales électriques et des systèmes de refroidissement que des algorithmes et des logiciels. Cette réalité façonne la prochaine étape de la course à l’IA.
(Photo de la collection Sabre laser)