Les agents Frontier AI remplacent les chatbots

Selon AWS lors du re:Invent 2025 de cette semaine, le cycle de battage médiatique des chatbots est effectivement mort, et des agents d’IA frontaliers prennent leur place.

C’est le message direct qui émane de Las Vegas cette semaine. L’obsession de l’industrie pour les interfaces de chat a été remplacée par un mandat bien plus exigeant : des « agents frontaliers » qui ne se contentent pas de parler, mais travaillent de manière autonome pendant des jours entiers.

Nous passons de la phase de nouveauté de l’IA générative à une ère difficile d’économie d’infrastructure et de plomberie opérationnelle. L’effet « wow » d’un robot qui écrit des poèmes s’est estompé ; il faut désormais vérifier l’infrastructure nécessaire pour faire fonctionner ces systèmes à grande échelle.

Résoudre la crise de la plomberie chez AWS re:Invent 2025

Jusqu’à récemment, créer des agents d’IA de pointe capables d’exécuter des tâches complexes et non déterministes était un cauchemar d’ingénierie sur mesure. Les premiers utilisateurs ont brûlé des ressources en bricolant des outils pour gérer le contexte, la mémoire et la sécurité.

AWS tente de supprimer cette complexité avec Amazon Bedrock AgentCore. Il s’agit d’un service géré qui agit comme un système d’exploitation pour les agents, gérant le travail back-end de gestion de l’état et de récupération de contexte. Les gains d’efficacité résultant de la normalisation de cette couche sont difficiles à ignorer.

Prenez MongoDB. En abandonnant leur infrastructure maison au profit d’AgentCore, ils ont consolidé leur chaîne d’outils et mis en production une application basée sur des agents en huit semaines, un processus qui prenait auparavant des mois d’évaluation et de maintenance. Le PGA TOUR a enregistré des résultats encore plus importants, en utilisant la plate-forme pour créer un système de génération de contenu qui a augmenté la vitesse d’écriture de 1 000 pour cent tout en réduisant les coûts de 95 pour cent.

Les équipes logicielles disposent également de leur propre personnel dédié. Lors de re:Invent 2025, AWS a déployé trois agents d’IA frontaliers spécifiques : Kiro (un développeur virtuel), un agent de sécurité et un agent DevOps. Kiro n’est pas seulement un outil de complétion de code ; il s’intègre directement aux flux de travail avec des « pouvoirs » (intégrations spécialisées pour des outils comme Datadog, Figma et Stripe) qui lui permettent d’agir avec le contexte plutôt que de simplement deviner la syntaxe.

Les agents qui s’exécutent pendant plusieurs jours consomment d’énormes quantités de calcul. Si vous payez des tarifs à la demande standard pour cela, votre retour sur investissement s’évapore.

AWS le sait, c’est pourquoi les annonces matérielles cette année sont agressives. Les nouveaux Trainium3 UltraServers, alimentés par des puces de 3 nm, revendiquent une augmentation de 4,4 fois des performances de calcul par rapport à la génération précédente. Pour les organisations qui forment des modèles de base massifs, cela réduit les délais de formation de plusieurs mois à plusieurs semaines.

Mais le changement le plus intéressant concerne l’endroit où se trouve ce calcul. La souveraineté des données reste un casse-tête pour les entreprises mondiales, bloquant souvent l’adoption du cloud pour les charges de travail sensibles de l’IA. AWS contrecarre cela avec des « AI Factories » (qui expédient essentiellement des racks de puces Trainium et de GPU NVIDIA directement dans les centres de données existants des clients.) Il s’agit d’un jeu hybride qui reconnaît une vérité simple : pour certaines données, le cloud public est encore trop loin.

S’attaquer à la montagne de l’héritage

L’innovation telle que celle que nous observons avec les agents d’IA de pointe est formidable, mais la plupart des budgets informatiques sont étranglés par la dette technique. Les équipes passent environ 30 % de leur temps à entretenir les lumières.

Lors de re:Invent 2025, Amazon a mis à jour AWS Transform pour attaquer spécifiquement cela ; utiliser l’IA agentique pour gérer le gros travail de mise à niveau du code existant. Le service peut désormais gérer la modernisation complète de Windows ; y compris la mise à niveau des applications .NET et des bases de données SQL Server.

Air Canada l’a utilisé pour moderniser des milliers de fonctions Lambda. Ils ont fini en quelques jours. Le faire manuellement leur aurait coûté cinq fois plus cher et aurait pris des semaines.

Pour les développeurs qui souhaitent réellement écrire du code, l’écosystème s’élargit. Le SDK Strands Agents, auparavant réservé à Python, prend désormais en charge TypeScript. En tant que lingua franca du Web, elle apporte la sécurité des types aux résultats chaotiques des LLM et constitue une évolution nécessaire.

Une gouvernance sensée à l’ère des agents frontaliers de l’IA

Il y a un danger ici. Un agent qui travaille de manière autonome pendant « des jours sans intervention » est également un agent qui peut détruire une base de données ou divulguer des informations personnelles sans que personne ne s’en aperçoive jusqu’à ce qu’il soit trop tard.

AWS tente d’envelopper ce risque dans « AgentCore Policy », une fonctionnalité permettant aux équipes de définir des limites en langage naturel sur ce qu’un agent peut et ne peut pas faire. Associé aux « évaluations », qui utilisent des mesures prédéfinies pour surveiller les performances des agents, il fournit un filet de sécurité indispensable.

Les équipes de sécurité bénéficient également d’un coup de pouce grâce aux mises à jour de Security Hub, qui corrèle désormais les signaux de GuardDuty, Inspector et Macie en des « événements » uniques plutôt que d’inonder le tableau de bord d’alertes isolées. GuardDuty lui-même se développe, utilisant le ML pour détecter des modèles de menaces complexes sur les clusters EC2 et ECS.

Nous avons clairement dépassé le stade des programmes pilotes. Les outils annoncés lors d’AWS re:Invent 2025, du silicium spécialisé aux cadres gouvernés pour les agents d’IA frontaliers, sont conçus pour la production. La question qui se pose aux dirigeants d’entreprise n’est plus « que peut faire l’IA ? mais « pouvons-nous nous permettre l’infrastructure nécessaire pour lui permettre de faire son travail ?

Solène Vernet
Solène Vernet
Journaliste française passionnée par la science et les politiques d’innovation, j’écris pour rendre accessibles des sujets complexes. Mon parcours mêle recherche universitaire, communication scientifique et journalisme. J’aime explorer les liens entre technologie, société et transformation du monde.