Amazon Web Services a remporté une autre victoire majeure pour ses accélérateurs AWS Trainium personnalisés après avoir conclu un accord avec la startup de vidéo IA Decart. Le partenariat verra Decart optimiser son modèle phare Lucy sur AWS Trainium3 pour prendre en charge la génération vidéo en temps réel et souligner la popularité croissante des accélérateurs d’IA par rapport aux unités de traitement graphique de Nvidia.
Decart mise essentiellement sur AWS et, dans le cadre de l’accord, la société rendra également ses modèles disponibles via la plateforme Amazon Bedrock. Les développeurs peuvent intégrer les capacités de génération vidéo en temps réel de Decart dans presque toutes les applications cloud sans se soucier de l’infrastructure sous-jacente.
La distribution via Bedrock augmente les capacités plug-and-play d’AWS, démontrant la confiance d’Amazon dans la demande croissante de vidéo IA en temps réel. Cela permet également à Decart d’étendre sa portée et d’accroître son adoption au sein de la communauté des développeurs. AWS Trainium fournit à Lucy le traitement supplémentaire nécessaire pour générer des vidéos haute fidélité sans sacrifier la qualité ou la latence.
Les accélérateurs d’IA personnalisés comme Trainium offrent une alternative aux GPU de Nvidia pour les charges de travail d’IA. Même si Nvidia domine toujours le marché de l’IA, ses GPU traitant la grande majorité des charges de travail d’IA, il est confronté à une menace croissante provenant des processeurs personnalisés.
Pourquoi tout ce tapage autour des accélérateurs d’IA ?
AWS Trainium n’est pas la seule option dont disposent les développeurs. La gamme de produits Tensor Processing Unit (TPU) de Google et les puces MTIA (Training and Inference Accelerator) de Meta sont d’autres exemples de silicium personnalisé, chacun ayant un avantage similaire par rapport aux GPU de Nvidia : leur architecture ASIC (Application-Specific Integrated Circuit). Comme son nom l’indique, le matériel ASIC est conçu spécifiquement pour gérer un type d’application et le fait plus efficacement que les processeurs à usage général.
Alors que les unités centrales de traitement sont généralement considérées comme le couteau suisse du monde informatique en raison de leur capacité à gérer plusieurs applications, les GPU s’apparentent davantage à une puissante perceuse électrique. Ils sont beaucoup plus puissants que les processeurs, conçus pour traiter des quantités massives de calculs parallèles et répétitifs, ce qui les rend adaptés aux applications d’IA et aux tâches de rendu graphique.
Si le GPU est une perceuse électrique, l’ASIC pourrait être considéré comme un scalpel, conçu pour des procédures extrêmement précises. Lors de la construction des ASIC, les fabricants de puces suppriment toutes les unités fonctionnelles sans rapport avec la tâche pour une plus grande efficacité – toutes leurs opérations sont dédiées à la tâche.
Cela entraîne d’énormes avantages en termes de performances et d’efficacité énergétique par rapport aux GPU, et peut expliquer leur popularité croissante. Un bon exemple est Anthropic, qui s’est associé à AWS sur le projet Rainier, un énorme cluster composé de centaines de milliers de processeurs Trainium2.
Anthropic affirme que le projet Rainier lui fournira des centaines d’exaflops de puissance de calcul pour exécuter ses modèles d’IA les plus avancés, dont Claude Opus-4.5.
La startup de codage d’IA Poolside utilise également AWS Trainium2 pour entraîner ses modèles et prévoit d’utiliser également son infrastructure pour l’inférence à l’avenir. Pendant ce temps, Anthropic couvre ses paris, cherchant également à former les futurs modèles Claude sur un cluster pouvant contenir jusqu’à un million de Google TPU. Meta Platforms collaborerait avec Broadcom pour développer un processeur d’IA personnalisé pour entraîner et exécuter ses modèles Llama, et OpenAI a des plans similaires.
L’avantage Trainium
Decart a choisi AWS Trainium2 en raison de ses performances, qui lui permettent d’atteindre la faible latence requise par les modèles vidéo en temps réel. Lucy a un délai d’apparition de la première image de 40 ms, ce qui signifie qu’elle commence à générer une vidéo presque instantanément après l’invite. En rationalisant le traitement vidéo sur Trainium, Lucy peut également égaler la qualité de modèles vidéo beaucoup plus lents et plus établis comme Sora 2 d’OpenAI et Veo-3 de Google, avec Decart générant une sortie jusqu’à 30 ips.
Decart pense que Lucy va s’améliorer. Dans le cadre de son accord avec AWS, la société a obtenu un accès anticipé au processeur Trainium3 récemment annoncé, capable de produire des sorties allant jusqu’à 100 ips et une latence inférieure. « L’architecture de nouvelle génération de Trainium3 offre un débit plus élevé, une latence plus faible et une plus grande efficacité de la mémoire, ce qui nous permet d’obtenir une génération de trames jusqu’à 4 fois plus rapide pour la moitié du coût des GPU », a déclaré Dean Leitersdorf, co-fondateur et PDG de Decart, dans un communiqué.
Nvidia ne s’inquiète peut-être pas trop des processeurs IA personnalisés. Le géant des puces IA serait en train de concevoir ses propres puces ASIC pour rivaliser avec ses concurrents du cloud. De plus, les ASIC ne remplaceront pas complètement les GPU, car chaque puce a ses propres atouts. La flexibilité des GPU signifie qu’ils restent la seule véritable option pour les modèles à usage général comme GPT-5 et Gemini 3, et qu’ils dominent toujours la formation en IA. Cependant, de nombreuses applications d’IA ont des exigences de traitement stables, ce qui signifie qu’elles sont particulièrement adaptées à une exécution sur des ASIC.
L’essor des processeurs d’IA personnalisés devrait avoir un impact profond sur l’industrie. En poussant la conception des puces vers une plus grande personnalisation et en améliorant les performances des applications spécialisées, ils ouvrent la voie à une nouvelle vague d’innovation en matière d’IA, avec la vidéo en temps réel au premier plan.
Photo avec l’aimable autorisation d’AWS ré:inventer