La gouvernance et la préparation des données permettent à l’entreprise agentique

Alors que la perspective de voir l’IA agir en tant que collaborateur numérique dominait l’ordre du jour du premier jour de l’exposition AI & Big Data et de la conférence sur l’automatisation intelligente, les sessions techniques se sont concentrées sur l’infrastructure nécessaire à son fonctionnement.

L’un des principaux sujets abordés au salon était la progression de l’automatisation passive vers les systèmes « agents ». Ces outils raisonnent, planifient et exécutent des tâches plutôt que de suivre des scripts rigides. Amal Makwana de Citi a détaillé comment ces systèmes agissent dans les flux de travail de l’entreprise. Cette capacité les distingue des précédentes automatisations de processus robotiques (RPA).

Scott Ivell et Ire Adewolu de DeepL ont décrit ce développement comme comblant le « fossé de l’automatisation ». Ils ont fait valoir que l’IA agentique fonctionne comme un collaborateur numérique plutôt que comme un simple outil. La vraie valeur est libérée en réduisant la distance entre l’intention et l’exécution. Brian Halpin de SS&C Blue Prism a noté que les organisations doivent généralement maîtriser l’automatisation standard avant de pouvoir déployer l’IA agentique.

Ce changement nécessite des cadres de gouvernance capables de gérer des résultats non déterministes. Steve Holyer d’Informatica, aux côtés d’intervenants de MuleSoft et Salesforce, a fait valoir que l’architecture de ces systèmes nécessite une surveillance stricte. Une couche de gouvernance doit contrôler la manière dont les agents accèdent aux données et les utilisent pour éviter toute défaillance opérationnelle.

La qualité des données bloque le déploiement

Le résultat d’un système autonome dépend de la qualité de son entrée. Andreas Krause de SAP a déclaré que l’IA échoue sans données d’entreprise fiables et connectées. Pour que GenAI fonctionne dans un contexte d’entreprise, elle doit accéder à des données à la fois précises et pertinentes sur le plan contextuel.

Meni Meller de Gigaspaces a abordé le défi technique des « hallucinations » dans les LLM. Il a préconisé l’utilisation de l’eRAG (génération augmentée par récupération) combinée à des couches sémantiques pour résoudre les problèmes d’accès aux données. Cette approche permet aux modèles de récupérer des données factuelles d’entreprise en temps réel.

Le stockage et l’analyse présentent également des défis. Un panel composé de représentants d’Equifax, de British Gas et de Centrica a discuté de la nécessité d’analyses cloud natives en temps réel. Pour ces organisations, l’avantage concurrentiel vient de la capacité à exécuter des stratégies d’analyse évolutives et immédiates.

Sécurité physique et observabilité

L’intégration de l’IA s’étend aux environnements physiques, introduisant des risques de sécurité différents des pannes logicielles. Un panel comprenant Edith-Clare Hall d’ARIA et Matthew Howard d’IEEE RAS a examiné comment l’IA incarnée est déployée dans les usines, les bureaux et les espaces publics. Des protocoles de sécurité doivent être établis avant les robots interagissent avec les humains.

Perla Maiolino de l’Oxford Robotics Institute a fourni une perspective technique sur ce défi. Ses recherches sur les capteurs de temps de vol (ToF) et la peau électronique visent à donner aux robots à la fois une conscience de soi et une conscience environnementale. Pour des secteurs tels que l’industrie manufacturière et la logistique, ces systèmes de perception intégrés préviennent les accidents.

Dans le développement de logiciels, l’observabilité reste une préoccupation parallèle. Yulia Samoylova de Datadog a souligné comment l’IA change la façon dont les équipes créent et dépannent les logiciels. À mesure que les systèmes deviennent plus autonomes, la capacité d’observer leur état interne et leurs processus de raisonnement devient nécessaire à la fiabilité.

Obstacles à l’infrastructure et à l’adoption

La mise en œuvre nécessite une infrastructure fiable et une culture réceptive. Julian Skeels d’Expereo a soutenu que les réseaux doivent être conçus spécifiquement pour les charges de travail d’IA. Cela implique de construire des structures réseau souveraines, sécurisées et « toujours actives », capables de gérer un débit élevé.

Bien entendu, l’élément humain reste imprévisible. Paul Fermor d’IBM Automation a averti que la pensée traditionnelle en matière d’automatisation sous-estime souvent la complexité de l’adoption de l’IA. Il a qualifié cela d’« illusion de préparation à l’IA ». Jena Miller a renforcé ce point en soulignant que les stratégies doivent être centrées sur l’humain pour garantir leur adoption. Si le personnel ne fait pas confiance aux outils, la technologie ne rapporte rien.

Ravi Jay de Sanofi a suggéré que les dirigeants doivent poser des questions opérationnelles et éthiques dès le début du processus. Le succès dépend du choix de l’endroit où créer des solutions propriétaires plutôt que de l’endroit où acheter des plateformes établies.

Les sessions du premier jour des événements co-localisés indiquent que, même si la technologie évolue vers des agents autonomes, le déploiement nécessite une base de données solide.

Les DSI doivent se concentrer sur l’établissement de cadres de gouvernance des données qui prennent en charge la génération augmentée par récupération. L’infrastructure réseau doit être évaluée pour garantir qu’elle prend en charge les exigences de latence des charges de travail agents. Enfin, les stratégies d’adoption culturelle doivent être parallèles à la mise en œuvre technique.

Solène Vernet
Solène Vernet
Journaliste française passionnée par la science et les politiques d’innovation, j’écris pour rendre accessibles des sujets complexes. Mon parcours mêle recherche universitaire, communication scientifique et journalisme. J’aime explorer les liens entre technologie, société et transformation du monde.