La dernière mise à jour des spécifications MCP renforce l’infrastructure de l’entreprise avec une sécurité plus stricte, faisant passer les agents IA du pilote à la production.
Marquant sa première année, le projet open source créé par Anthropic a publié cette semaine une spécification révisée visant à résoudre les problèmes opérationnels qui maintiennent les agents d’IA génératifs bloqués en mode pilote. Soutenue par Amazon Web Services (AWS), Microsoft et Google Cloud, la mise à jour ajoute la prise en charge des flux de travail de longue durée et des contrôles de sécurité plus stricts.
Le marché s’éloigne des intégrations fragiles et sur mesure. Pour les entreprises, c’est l’occasion de déployer une IA agentique capable de lire et d’écrire dans les magasins de données d’entreprise sans encourir de dette technique massive.
MCP passe de la « curiosité des développeurs » à une infrastructure pratique
Le récit est passé des chatbots expérimentaux à l’intégration structurelle. Depuis septembre, le registre a augmenté de 407 pour cent, hébergeant désormais près de deux mille serveurs.
« Un an après le lancement par Anthropic du Model Context Protocol, MCP est passé d’une curiosité de développeur à un moyen pratique de connecter l’IA aux systèmes où vivent le travail et les données », déclare Satyajith Mundakkal, CTO mondial chez Hexaware, suite à cette dernière mise à jour des spécifications.
Microsoft a déjà « signalé le changement en ajoutant la prise en charge native de MCP à Windows 11 », déplaçant ainsi la norme directement dans la couche du système d’exploitation.
Cette standardisation logicielle s’accompagne d’une mise à l’échelle agressive du matériel. Mundakkal souligne la « construction d’infrastructures sans précédent », citant le programme « Stargate » de plusieurs gigawatts d’OpenAI. « Cela montre clairement que les capacités de l’IA et les données dont elles dépendent évoluent rapidement », dit-il.
MCP est la plomberie qui alimente ces énormes ressources informatiques. Comme le dit Mundakkal : « L’IA n’est efficace que dans la mesure où elle peut atteindre les données en toute sécurité. »
Jusqu’à présent, l’intégration d’un LLM dans une base de données était essentiellement synchrone. Cela fonctionne pour un chatbot vérifiant la météo, mais cela échoue lors de la migration d’une base de code ou de l’analyse des dossiers de santé.
La nouvelle fonctionnalité « Tâches » change cela (SEP-1686). Il donne aux serveurs un moyen standard de suivre le travail, permettant aux clients de consulter le statut ou d’annuler les tâches si les choses tournent mal. Les équipes opérationnelles qui automatisent la migration de l’infrastructure ont besoin d’agents capables de fonctionner pendant des heures sans interruption. Soutenir des États comme fonctionnement ou entrée_required apporte enfin de la résilience aux workflows agents.
La mise à jour des spécifications MCP améliore la sécurité
Pour les RSSI en particulier, les agents IA apparaissent souvent comme une surface d’attaque massive et incontrôlée. Les risques sont déjà visibles ; « Les chercheurs en sécurité ont même découvert qu’environ 1 800 serveurs MCP étaient exposés sur l’Internet public d’ici la mi-2025 », ce qui implique que l’adoption des infrastructures privées est nettement plus large.
« Mal fait », prévient Mundakkal, « (MCP) entraîne une intégration étendue et une plus grande surface d’attaque. »
Pour résoudre ce problème, les responsables ont résolu les problèmes liés à l’enregistrement dynamique des clients (DCR). Le correctif est l’enregistrement client basé sur une URL (SEP-991), dans lequel les clients fournissent un identifiant unique pointant vers un document de métadonnées autogéré pour réduire le goulot d’étranglement de l’administration.
Ensuite, il y a « Élicitation du mode URL » (SEP-1036). Il permet à un serveur – gérant les paiements, par exemple – de renvoyer un utilisateur vers une fenêtre de navigateur sécurisée pour obtenir des informations d’identification. L’agent ne voit jamais le mot de passe ; il obtient juste le jeton. Il maintient les informations d’identification principales isolées, ce qui est non négociable pour la conformité PCI.
Harish Peri, vice-président directeur d’Okta, estime que cela apporte « la surveillance et le contrôle d’accès nécessaires pour créer un écosystème d’IA sécurisé et ouvert ».
Une fonctionnalité faisant partie de la mise à jour des spécifications pour l’infrastructure MCP est quelque peu passée inaperçue : « Échantillonnage avec des outils » (SEP-1577). Les serveurs étaient autrefois des récupérateurs de données passifs ; ils peuvent désormais exécuter leurs propres boucles en utilisant les jetons du client. Imaginez un « serveur de recherche » générant des sous-agents pour parcourir les documents et synthétiser un rapport. Aucun code client personnalisé n’est requis : cela rapproche simplement le raisonnement des données.
Cependant, le câblage de ces connexions n’est que la première étape. Mayur Upadhyaya, PDG d’APIContext, affirme que « la première année d’adoption de MCP a montré que l’IA d’entreprise ne commence pas par des réécritures, elle commence par une exposition ».
Mais la visibilité est le prochain obstacle. « La prochaine vague portera sur la visibilité : les entreprises devront surveiller la disponibilité du MCP et valider les flux d’authentification avec la même rigueur qu’elles surveillent les API aujourd’hui », explique Upadhyaya.
La feuille de route de MCP reflète cela, avec des mises à jour visant une meilleure « fiabilité et observabilité » pour le débogage. Si vous considérez les serveurs MCP comme « configurés et oubliés », vous vous exposez à des ennuis. Mundakkal est d’accord, notant que la leçon de la première année est de « associer MCP avec une identité forte, un RBAC et une observabilité dès le premier jour ».
Un groupe de stars de l’industrie adopte MCP pour les infrastructures
La qualité d’un protocole dépend de celui qui l’utilise. Un an après la publication de la spécification originale, MCP a atteint près de deux mille serveurs. Microsoft l’utilise pour relier GitHub, Azure et M365. AWS l’intègre dans Bedrock. Google Cloud le prend en charge sur Gemini.
Cela réduit la dépendance vis-à-vis du fournisseur. Un connecteur Postgres conçu pour MCP devrait théoriquement fonctionner avec Gemini, ChatGPT ou un agent Anthropic interne sans réécriture.
La phase « plomberie » de l’IA générative s’installe et les standards ouverts gagnent le débat sur la connectivité. Les leaders technologiques devraient envisager d’auditer les API internes pour vérifier leur état de préparation MCP – en se concentrant sur l’exposition plutôt que sur les réécritures – et vérifier que le nouvel enregistrement basé sur l’URL correspond aux cadres IAM actuels.
Des protocoles de surveillance doivent également être établis immédiatement. Bien que la dernière mise à jour des spécifications MCP soit rétrocompatible avec l’infrastructure existante ; les nouvelles fonctionnalités sont le seul moyen d’intégrer les agents dans des flux de travail réglementés et pertinents pour leur mission et de garantir la sécurité.