Les défis de gouvernance de Agentic AI dans le cadre de la loi européenne sur l’IA en 2026

Plusieurs mesures peuvent être prises pour atténuer les niveaux de risque élevés, et parmi celles-ci, celles qui méritent d’être prises en compte comprennent l’identité de l’agent, des journaux complets, des vérifications de politique, une surveillance humaine, une révocation rapide, la disponibilité de la documentation auprès des fournisseurs et la formulation de preuves à présenter aux régulateurs.

Il existe plusieurs options que les décideurs peuvent envisager pour aider à créer un enregistrement des activités entreprises par les systèmes agentiques. Par exemple, un SDK Python (kit de développement logiciel), Asqav, peut signer cryptographiquement l’action de chaque agent et lier tous les enregistrements à une chaîne de hachage immuable – le type de technique davantage associée à la technologie blockchain. Si quelqu’un ou quelque chose modifie ou supprime un enregistrement, la vérification de la chaîne échoue.

Pour les équipes de gouvernance, en utilisant un système d’enregistrement détaillé, centralisé et éventuellement crypté pour toutes les IA agentiques est une mesure qui fournit des données bien au-delà des journaux textuels dispersés produits par les plates-formes logicielles individuelles. Quels que soient les détails techniques sur la manière dont les enregistrements sont créés et conservés, les responsables informatiques doivent savoir exactement où, quand et comment les instances agentiques agissent dans l’ensemble de l’entreprise.

De nombreuses organisations échouent à cette première étape de l’enregistrement des activités automatisées basées sur l’IA. Il est nécessaire de conserver un registre de chaque agent en activité, chacun étant identifié de manière unique, ainsi que des enregistrements de ses capacités et des autorisations accordées. Cette « liste d’actifs agents » s’inscrit parfaitement dans les exigences de l’article 9 de la loi européenne sur l’IA, qui stipule :

  • Article 9 : Pour les zones à risques, La gestion des risques liés à l’IA doit être un processus continu et fondé sur des preuves intégré à chaque étape du déploiement (développement, préparation, production) et fait l’objet d’un examen constant.

En outre, les décideurs doivent être conscients de l’article 13 de la loi :

  • Les systèmes d’IA à haut risque doivent être conçus de manière à ce que ceux qui les déploient puissent comprendre le résultat d’un système. Ainsi, un système d’IA d’un tiers doit être interprétable par ses utilisateurs (pas un blob de code opaque) et doit être fourni avec suffisamment de documentation pour garantir son utilisation sûre et licite.

Cette exigence signifie que le choix du modèle et ses modalités de déploiement sont à la fois techniques et réglementaire considérations.

Solène Vernet
Solène Vernet
Journaliste française passionnée par la science et les politiques d’innovation, j’écris pour rendre accessibles des sujets complexes. Mon parcours mêle recherche universitaire, communication scientifique et journalisme. J’aime explorer les liens entre technologie, société et transformation du monde.