Depuis l’essor de l’adoption de l’IA au cours des derniers mois, il est devenu clair qu’il n’y a pas assez de puissance de calcul pour tout le monde (ce qui est devenu douloureusement évident alors que les fournisseurs de cloud ont accumulé des listes d’attente de plusieurs mois pour les instances GPU haut de gamme). Contrairement au bref engouement pour les GPU destinés au minage de crypto-monnaie il y a quelques années, la crise actuelle est motivée par une demande réelle en matière de recherche et de déploiement d’IA.
Par souci de perspective, Amazon Web Services facture environ 98 dollars de l’heure pour un serveur à 8 GPU équipé des puces H100 de premier plan de Nvidia, tandis que certaines plates-formes GPU décentralisées offrent du matériel comparable pour aussi peu que 3 dollars de l’heure. Au milieu de cet énorme écart de prix de 30 fois, Singularity Compute, la branche infrastructure du pionnier de l’IA décentralisée SingularityNET, a annoncé le déploiement de la phase I de son premier cluster GPU NVIDIA de niveau entreprise dans un centre de données de pointe en Suède.
Dans le cadre d’un partenariat avec l’opérateur suédois Conapto, le cluster de Singularity utilise du matériel NVIDIA de pointe (y compris les GPU H200 et L40S de nouvelle génération) dans une installation de Stockholm entièrement alimentée par des énergies renouvelables.
Qu’est-ce qui est proposé exactement ?
Le cluster a une haute densité de par sa conception et constitue le fondement des charges de travail d’entreprise traditionnelles et des projets de l’Alliance de superintelligence artificielle (ASI), un écosystème d’IA décentralisé dirigé par SingularityNET. Il offre des modes d’accès flexibles qui reflètent les besoins des développeurs d’IA modernes dans lesquels les entreprises peuvent louer des machines nues entières, faire tourner des machines virtuelles alimentées par GPU ou accéder à des points de terminaison d’API dédiés pour l’inférence d’IA.
Cela signifie qu’une organisation peut potentiellement entraîner des modèles d’apprentissage automatique complets à partir de zéro, affiner les modèles existants sur des ensembles de données personnalisés ou exécuter des inférences lourdes pour des applications telles que l’IA générative ; le tout en utilisant l’infrastructure de Singularity.
Sur le plan opérationnel, le partenariat sera géré par le fournisseur de cloud populaire et partenaire de NVIDIA, Cudo Compute, ce dernier assurant la fourniture du cluster d’une fiabilité de niveau entreprise et fournissant le support demandé par les projets d’IA importants pour la mission. Parlant de ce développement, le Dr Ben Goertzel, fondateur de SingularityNET et coprésident de l’ASI Alliance, a déclaré : « Alors que l’IA s’accélère vers l’AGI et au-delà, l’accès à un calcul haute performance et éthiquement aligné devient un facteur déterminant pour qui façonne l’avenir. Nous avons besoin d’un calcul puissant, configuré pour l’interopérabilité avec des réseaux décentralisés exécutant une grande variété d’algorithmes d’IA effectuant des tâches pour diverses populations. Le nouveau déploiement de GPU en Suède est une étape significative sur la voie d’un monde artificiel véritablement ouvert et mondial. Superintelligence.
Un sentiment similaire a été repris par Joe Honan, PDG de Singularity Compute, qui estime que le lancement ne se limite pas à une capacité de calcul supplémentaire ; il s’agit plutôt d’un pas vers un nouveau paradigme dans l’infrastructure de l’IA. Il a souligné que les GPU NVIDIA du cluster offriront les performances et la fiabilité exigées par l’IA moderne et respecteront les principes d’ouverture, de sécurité et de souveraineté dans la manière dont le calcul est provisionné.
Le cluster suédois servira d’épine dorsale à ASI:Cloud, le nouveau service d’inférence de modèles d’IA de Singularity, développé en collaboration avec Cudo. ASI:Cloud fournit aux développeurs un accès basé sur un portefeuille à une API compatible OpenAI pour l’inférence de modèle, offrant ainsi une voie permettant de passer des fonctions sans serveur aux serveurs GPU dédiés.
Les premiers clients utilisent déjà le cluster suédois, l’équipe derrière lui laissant entendre que ce n’est que le début de la mise en ligne de matériel supplémentaire et de nouveaux emplacements géographiques. Pour une communauté qui a souvent été à la pointe de la révolution en cours de l’IA et de la blockchain, ce déploiement semble être une étape tangible vers l’objectif d’une infrastructure d’IA décentralisée et distribuée à l’échelle mondiale.
La course au calcul de l’IA est lancée et s’intensifie
Depuis le début de la décennie, le secteur technologique a investi massivement dans l’infrastructure de l’IA, la seule année 2025 ayant vu plus de 1 000 milliards de dollars investis dans de nouveaux projets de centres de données axés sur l’IA. Même les États-nations semblent s’y impliquer, la France par exemple ayant dévoilé un plan surprise de plus de 100 milliards d’euros pour renforcer les infrastructures d’IA.
Pourtant, tout le monde ne peut pas dépenser des milliards pour résoudre la pénurie actuelle de calcul, ce qui a entraîné l’émergence d’approches alternatives telles que les réseaux GPU décentralisés ou distribués qui utilisent du matériel réparti sur plusieurs sites et opérateurs.
Si les années 2010 ont récompensé ceux qui ont accumulé des données, les années 2020 récompenseront ceux qui contrôlent la puissance de calcul. Dans cet avenir, des efforts tels que le nouveau cluster GPU de Singularity Compute incarnent une détermination croissante à démocratiser qui façonnera le prochain chapitre de l’IA et où le calcul pourrait être situé.