Le régulateur financier australien a averti les sociétés financières que les pratiques de gouvernance et d’assurance des agents IA sont mal gouvernées. Cet avertissement intervient alors que les banques et les administrateurs de pensions développent l’IA dans leurs opérations internes et celles destinées aux clients.
L’Autorité australienne de régulation prudentielle a déclaré avoir mené un examen ciblé de certaines grandes entités réglementées fin 2025 pour évaluer l’adoption de l’IA et les risques prudentiels associés. L’étude a révélé que l’IA était utilisée dans toutes les entités examinées, mais que la maturité variait en termes de gestion des risques et de résilience opérationnelle. L’APRA a déclaré que les conseils d’administration ont montré un vif intérêt pour l’IA pour la productivité et l’expérience client. Cependant, l’étude a révélé que beaucoup étaient encore en train de développer une gestion des risques liés à l’IA.
Le régulateur a également exprimé ses inquiétudes quant au recours aux présentations et aux résumés des fournisseurs. Il a déclaré que les conseils d’administration n’accordaient pas toujours suffisamment d’attention aux risques tels que le comportement imprévisible des modèles et l’effet des défaillances de l’IA sur les opérations critiques.
L’APRA a déclaré que les conseils d’administration devraient développer une meilleure compréhension de l’IA afin de définir une stratégie et une surveillance de manière cohérente. Il a déclaré que la stratégie d’IA devrait s’aligner sur l’appétit pour le risque d’une institution et inclure une surveillance et des procédures définies qui devraient être suivies en cas d’erreurs.
L’APRA a noté que les entités réglementées testaient ou introduisaient l’IA dans l’ingénierie logicielle, le tri des réclamations et le traitement des demandes de prêt. Parmi les autres cas d’utilisation cités figurent la perturbation des fraudes et des escroqueries et l’interaction avec les clients.
Certaines entités traitaient le risque de l’IA dans les mêmes termes que celui des autres technologies, mais cette approche ne tient pas compte du comportement et des biais des modèles.
Il a identifié des lacunes dans la surveillance du comportement des modèles, la gestion du changement et le déclassement, et a souligné la nécessité d’inventaires des outils d’IA et de propriété par une personne nommée des instances d’IA. Il a également souligné la nécessité d’une implication humaine dans les décisions à haut risque.
La cybersécurité était un autre sujet de préoccupation. L’APRA a déclaré que l’adoption de l’IA modifiait l’environnement des menaces en ajoutant des voies d’attaque supplémentaires telles que l’injection rapide et les intégrations non sécurisées.
Dans certains cas, les pratiques de gestion des identités et des accès ne s’étaient pas adaptées aux éléments non humains tels que les agents IA. Le volume de développement de logiciels assistés par l’IA exerçait une pression sur les contrôles de changement et de publication.
L’APRA a déclaré que les entités devraient appliquer des contrôles sur les flux de travail agents et autonomes, notamment la gestion des accès privilégiés, la configuration et les correctifs. Il a également appelé à des tests de sécurité du code généré par l’IA.
Certaines institutions sont devenues dépendantes d’un seul fournisseur pour bon nombre de leurs instances d’IA, a noté l’ARPA, et seules quelques-unes ont été en mesure de présenter un plan de sortie ou une stratégie de substitution pour les fournisseurs d’IA.
L’APRA a déclaré que l’IA peut être présente dans des dépendances en amont, dont les entités peuvent ne pas être conscientes.
Identité et accès
L’accent mis sur les contrôles d’identité et d’autorisation se reflète également dans les nouveaux travaux de normalisation de l’Alliance FIDO. Le groupe a formé un groupe de travail technique sur l’authentification agent et développe des spécifications pour le commerce initié par un agent.
FIDO a déclaré que certains modèles d’authentification et d’autorisation existants ont été conçus pour l’interaction humaine et non pour des actions déléguées effectuées par un logiciel. Il a déclaré que les fournisseurs de services ont besoin de moyens pour vérifier qui ou quoi autorise les actions et dans quelles conditions.
Les fournisseurs ont présenté leurs solutions à FIDO pour examen, notamment le protocole de paiement d’agent de Google et le cadre d’intention vérifiable de Mastercard. Le Center for Internet Security, une organisation à but non lucratif financée en grande partie par le Department for Homeland Security, a publié des guides complémentaires sur la sécurité de l’IA qui mappent CIS Controls v8.1 à de grands modèles de langage, des agents d’IA et des environnements Model Context Protocol.
Son guide LLM couvre les problèmes d’invite et de données sensibles, et un guide MCP se concentre sur l’accès sécurisé par les outils logiciels, les identités non humaines et les interactions réseau.
(Photo de Julien Tromeur)