Comment une gouvernance robuste de l’IA protège les marges des entreprises

Pour protéger les marges des entreprises, les dirigeants d’entreprise doivent investir dans une gouvernance solide de l’IA afin de gérer en toute sécurité l’infrastructure de l’IA.

Lors de l’évaluation de l’adoption de logiciels d’entreprise, un modèle récurrent dicte la manière dont la technologie évolue dans tous les secteurs. Comme Rob Thomas, vice-président directeur et directeur de la conformité chez IBM, l’a récemment souligné, les logiciels passent généralement d’un produit autonome à une plate-forme, puis d’une plate-forme à une infrastructure de base, modifiant ainsi entièrement les règles de gouvernance.

Au stade initial du produit, exercer un contrôle strict de l’entreprise semble souvent très avantageux. Les environnements de développement fermés itèrent rapidement et gèrent étroitement l’expérience de l’utilisateur final. Ils capturent et concentrent la valeur financière au sein d’une seule entité, une approche qui fonctionne de manière adéquate au cours des premiers cycles de développement de produits.

Cependant, l’analyse d’IBM souligne que les attentes changent complètement lorsqu’une technologie se consolide pour devenir une couche fondamentale. Une fois que d’autres cadres institutionnels, marchés externes et systèmes opérationnels plus vastes s’appuient sur le logiciel, les normes en vigueur s’adaptent à une nouvelle réalité. À l’échelle des infrastructures, adopter l’ouverture cesse d’être une position idéologique et devient une nécessité hautement pratique.

L’IA franchit actuellement ce seuil au sein de la pile d’architecture d’entreprise. Les modèles sont de plus en plus intégrés directement dans la manière dont les organisations sécurisent leurs réseaux, créent du code source, exécutent des décisions automatisées et génèrent de la valeur commerciale. L’IA fonctionne moins comme un utilitaire expérimental que comme une infrastructure opérationnelle de base.

La récente avant-première limitée du modèle Claude Mythos d’Anthropic met cette réalité en évidence pour les dirigeants d’entreprise qui gèrent les risques. Anthropic rapporte que ce modèle spécifique peut découvrir et exploiter les vulnérabilités logicielles à un niveau comparable à celui de peu d’experts humains.

En réponse à ce pouvoir, Anthropic a lancé le projet Glasswing, une initiative fermée conçue pour placer ces capacités avancées directement entre les mains des défenseurs du réseau. Du point de vue d’IBM, cette évolution oblige les responsables technologiques à faire face à des vulnérabilités structurelles immédiates. Si les modèles autonomes possèdent la capacité d’écrire des exploits et de façonner l’environnement de sécurité global, Thomas note que concentrer la compréhension de ces systèmes au sein d’un petit nombre de fournisseurs de technologies entraîne une grave exposition opérationnelle.

Alors que les modèles atteignent le statut d’infrastructure, IBM affirme que le principal problème n’est plus exclusivement ce que ces applications d’apprentissage automatique peuvent exécuter. La priorité devient la manière dont ces systèmes sont construits, gouvernés, inspectés et activement améliorés sur de longues périodes.

À mesure que les cadres sous-jacents gagnent en complexité et en importance pour l’entreprise, il devient extrêmement difficile de maintenir des pipelines de développement fermés. Aucun fournisseur ne peut à lui seul anticiper avec succès toutes les exigences opérationnelles, les vecteurs d’attaque adverses ou les modes de défaillance du système.

La mise en œuvre de structures d’IA opaques introduit de fortes frictions dans l’architecture réseau existante. La connexion de modèles propriétaires fermés à des bases de données vectorielles d’entreprise établies ou à des lacs de données internes très sensibles crée souvent d’énormes goulots d’étranglement en matière de dépannage. Lorsque des résultats anormaux se produisent ou que les taux d’hallucinations augmentent, les équipes n’ont pas la visibilité interne nécessaire pour diagnostiquer si l’erreur provient du pipeline de génération augmentée par récupération ou des pondérations du modèle de base.

L’intégration d’une architecture sur site existante avec des modèles cloud hautement sécurisés introduit également une latence importante dans les opérations quotidiennes. Lorsque les protocoles de gouvernance des données d’entreprise interdisent strictement l’envoi d’informations clients sensibles à des serveurs externes, les équipes technologiques doivent tenter de supprimer et d’anonymiser les ensembles de données avant leur traitement. Cette désinfection constante des données crée un énorme frein opérationnel.

De plus, la montée en flèche des coûts de calcul associés aux appels continus d’API vers des modèles verrouillés érode les marges bénéficiaires exactes que ces systèmes autonomes sont censés améliorer. L’opacité empêche les ingénieurs réseau de dimensionner avec précision les déploiements matériels, obligeant les entreprises à conclure des accords de surprovisionnement coûteux pour maintenir les fonctionnalités de base.

Pourquoi l’IA open source est essentielle à la résilience opérationnelle

Restreindre l’accès à des applications puissantes est un instinct humain compréhensible qui ressemble beaucoup à la prudence. Pourtant, comme le souligne Thomas, à l’échelle d’une infrastructure massive, la sécurité s’améliore généralement grâce à un examen externe rigoureux plutôt qu’à une dissimulation stricte.

Cela représente la leçon durable du développement de logiciels open source. Le code open source n’élimine pas les risques pour l’entreprise. Au lieu de cela, IBM affirme qu’il change activement la façon dont les organisations gèrent ce risque. Une fondation ouverte permet à un plus grand nombre de chercheurs, de développeurs d’entreprise et de défenseurs de la sécurité d’examiner l’architecture, de révéler les faiblesses sous-jacentes, de tester les hypothèses fondamentales et de renforcer le logiciel dans des conditions réelles.

Dans le cadre des opérations de cybersécurité, une large visibilité est rarement l’ennemi de la résilience opérationnelle. En fait, la visibilité constitue souvent une condition préalable stricte pour parvenir à cette résilience. Les technologies jugées très importantes ont tendance à rester plus sûres lorsque des populations plus nombreuses peuvent les remettre en question, inspecter leur logique et contribuer à leur amélioration continue.

Thomas s’attaque à l’une des idées fausses les plus anciennes concernant la technologie open source : la conviction qu’elle banalise inévitablement l’innovation des entreprises. Dans la pratique, l’infrastructure ouverte pousse généralement la concurrence sur le marché à un niveau plus élevé dans la pile technologique. Les systèmes ouverts transfèrent la valeur financière plutôt que de la détruire.

À mesure que les fondements numériques communs mûrissent, la valeur commerciale se déplace vers la mise en œuvre complexe, l’orchestration du système, la fiabilité continue, les mécanismes de confiance et l’expertise dans un domaine spécifique. La position d’IBM affirme que les gagnants commerciaux à long terme ne sont pas ceux qui possèdent la couche technologique de base, mais plutôt les organisations qui comprennent comment l’appliquer le plus efficacement possible.

Nous avons été témoins de ce schéma identique dans les générations précédentes d’outils d’entreprise, d’infrastructure cloud et de systèmes d’exploitation. Historiquement, les fondations ouvertes ont élargi la participation des développeurs, accéléré l’amélioration itérative et donné naissance à des marchés entièrement nouveaux et plus vastes construits sur ces couches de base. Les dirigeants d’entreprise considèrent de plus en plus l’open source comme étant très important pour la modernisation des infrastructures et les capacités émergentes de l’IA. IBM prédit que l’IA suivra très probablement cette trajectoire historique exacte.

En examinant l’ensemble de l’écosystème des fournisseurs, les principaux hyperscalers ajustent leur posture commerciale pour s’adapter à cette réalité. Plutôt que de s’engager dans une pure course aux armements pour construire les plus grandes boîtes noires propriétaires, les intégrateurs très rentables se concentrent fortement sur les outils d’orchestration qui permettent aux entreprises d’échanger des modèles open source sous-jacents en fonction des exigences spécifiques de la charge de travail. Soulignant son leadership continu dans ce domaine, IBM est l’un des principaux sponsors de l’AI & Big Data Expo North America de cette année, où ces stratégies évolutives pour l’infrastructure d’entreprise ouverte seront au centre des préoccupations.

Cette approche évite complètement le verrouillage restrictif d’un fournisseur et permet aux entreprises d’acheminer des requêtes internes moins exigeantes vers des modèles ouverts plus petits et très efficaces, préservant ainsi les ressources de calcul coûteuses pour une logique autonome complexe orientée client. En dissociant la couche applicative du modèle de base spécifique, les responsables technologiques peuvent maintenir leur agilité opérationnelle et protéger leurs résultats.

L’avenir de l’IA d’entreprise exige une gouvernance transparente

Une autre raison pragmatique d’adopter des modèles ouverts concerne l’influence du développement de produits. IBM souligne qu’un accès restreint au code sous-jacent conduit naturellement à des perspectives opérationnelles étroites. En revanche, celui qui participe détermine directement les applications qui seront finalement créées.

Offrir un large accès permet aux gouvernements, à diverses institutions, aux startups et à divers chercheurs d’influencer activement la manière dont la technologie évolue et où elle est appliquée commercialement. Cette approche inclusive stimule l’innovation fonctionnelle tout en renforçant simultanément l’adaptabilité structurelle et la légitimité publique nécessaire.

Comme le soutient Thomas, une fois que l’IA autonome assume le rôle d’infrastructure de base de l’entreprise, s’appuyer sur l’opacité ne peut plus servir de principe organisateur de la sécurité des systèmes. Le modèle le plus fiable en matière de logiciels sécurisés associe des fondations ouvertes à un large contrôle externe, une maintenance active du code et une gouvernance interne sérieuse.

Alors que l’IA entre définitivement dans sa phase d’infrastructure, IBM affirme qu’une logique identique s’applique de plus en plus directement aux modèles de base eux-mêmes. Plus les entreprises s’appuient sur une technologie, plus les arguments en faveur de l’ouverture sont forts.

Si ces flux de travail autonomes deviennent véritablement fondamentaux pour le commerce mondial, alors la transparence cessera d’être un sujet de débat informel. Selon IBM, il s’agit d’une exigence de conception absolue et non négociable pour toute architecture d’entreprise moderne.

Solène Vernet
Solène Vernet
Journaliste française passionnée par la science et les politiques d’innovation, j’écris pour rendre accessibles des sujets complexes. Mon parcours mêle recherche universitaire, communication scientifique et journalisme. J’aime explorer les liens entre technologie, société et transformation du monde.