Il y a dix ans, il aurait été difficile de croire que l’intelligence artificielle puisse faire ce qu’elle peut faire aujourd’hui. Cependant, c’est ce même pouvoir qui introduit une nouvelle surface d’attaque pour laquelle les cadres de sécurité traditionnels n’ont pas été conçus. À mesure que cette technologie s’intègre dans les opérations critiques, les entreprises ont besoin d’une stratégie de défense à plusieurs niveaux comprenant la protection des données, le contrôle d’accès et une surveillance constante pour assurer la sécurité de ces systèmes. Cinq pratiques fondamentales répondent à ces risques.
1. Appliquer une gouvernance stricte des accès et des données
Les systèmes d’IA dépendent des données qu’ils reçoivent et des personnes qui y accèdent. Le contrôle d’accès basé sur les rôles est donc l’un des meilleurs moyens de limiter l’exposition. En attribuant des autorisations en fonction de la fonction professionnelle, les équipes peuvent garantir que seules les bonnes personnes peuvent interagir avec et former des modèles d’IA sensibles.
Le cryptage renforce la protection. Les modèles d’IA et les données utilisées pour les entraîner doivent être cryptés lorsqu’ils sont stockés et lors de leur déplacement entre les systèmes. Ceci est particulièrement important lorsque ces données incluent du code propriétaire ou des informations personnelles. Laisser un modèle non chiffré sur un serveur partagé est une invitation ouverte aux attaquants, et une solide gouvernance des données constitue la dernière ligne de défense pour assurer la sécurité de ces actifs.
2. Défendez-vous contre les menaces spécifiques au modèle
Les modèles d’IA sont confrontés à diverses menaces que les outils de sécurité conventionnels n’ont pas été conçus pour détecter. L’injection rapide se classe parmi les principales vulnérabilités du top 10 OWASP pour les applications LLM (Large Language Model). Elle se produit lorsqu’un attaquant intègre des instructions malveillantes dans une entrée pour contourner le comportement d’un modèle. L’un des moyens les plus directs de bloquer ces attaques au point d’entrée consiste à déployer des pare-feu spécifiques à l’IA qui valident et nettoient les entrées avant qu’elles n’atteignent un LLM.
Au-delà du filtrage des entrées, les équipes doivent effectuer régulièrement des tests contradictoires, ce qui constitue essentiellement un piratage éthique pour l’IA. Les exercices de l’équipe rouge simulent des scénarios réels tels que l’empoisonnement des données et les attaques par inversion de modèle pour révéler les vulnérabilités avant que les acteurs malveillants ne les trouvent. Les recherches sur les systèmes d’IA de red teaming soulignent que ce type de tests itératifs doit être intégré au cycle de vie du développement de l’IA et non ajouté après le déploiement.
3. Maintenir une visibilité détaillée de l’écosystème
Les environnements d’IA modernes couvrent les réseaux sur site, l’infrastructure cloud, les systèmes de messagerie et les points de terminaison. Lorsque les données de sécurité de chacun de ces domaines se trouvent dans un silo distinct, des lacunes de visibilité peuvent apparaître. Les attaquants franchissent ces failles sans être détectés. Une vue fragmentée de votre environnement rend presque impossible la corrélation des événements suspects en une image cohérente des menaces.
Les équipes de sécurité ont besoin d’une visibilité unifiée à chaque couche de leur environnement numérique. Cela signifie éliminer les silos d’informations entre la surveillance du réseau, la sécurité du cloud, la gestion des identités et la protection des points finaux. Lorsque la télémétrie de toutes ces sources alimente une vue unique, les analystes peuvent faire le lien entre une connexion anormale, une tentative de mouvement latéral et un événement d’exfiltration de données sans les considérer isolément.
L’obtention d’une telle couverture est de plus en plus non négociable. Comme le montre clairement le Cybersecurity Framework Profile for AI du NIST, pour sécuriser ces systèmes, les organisations doivent sécuriser, contrecarrer et défendre tous les actifs pertinents, et non les plus visibles.
4. Adopter un processus de surveillance cohérent
La sécurité n’est pas une configuration ponctuelle car les systèmes d’IA changent. Les modèles sont mis à jour, de nouveaux pipelines de données sont introduits, les comportements des utilisateurs changent et le paysage des menaces évolue avec eux. Les outils de détection basés sur des règles ont du mal à suivre le rythme car ils s’appuient sur des signatures d’attaque connues et non sur une analyse comportementale en temps réel.
La surveillance continue comble cette lacune en établissant une référence comportementale pour les systèmes d’IA et en signalant les écarts au fur et à mesure qu’ils se produisent. Une surveillance cohérente peut signaler une activité inhabituelle sur le moment, qu’il s’agisse d’un modèle produisant des résultats inattendus, d’un changement soudain dans les modèles d’appel d’API ou d’un compte privilégié accédant à des données qu’il ne devrait normalement pas accéder. Les équipes de sécurité reçoivent une alerte immédiate avec suffisamment de contexte pour agir rapidement.
L’évolution vers la détection en temps réel est essentielle pour les environnements d’IA, où le volume et la vitesse des données dépassent de loin l’examen humain. Les outils de surveillance automatisés qui apprennent les comportements normaux peuvent détecter des attaques faibles et lentes qui autrement passeraient inaperçues pendant des semaines.
5. Élaborer un plan clair de réponse aux incidents
Les incidents sont inévitables, même avec des contrôles préventifs stricts en place. Sans plan de réponse prédéfini, les entreprises risquent de prendre des décisions coûteuses sous pression, ce qui peut aggraver l’impact d’une violation qui aurait pu être contenue rapidement.
Un plan efficace de réponse aux incidents d’IA doit couvrir le confinement, l’enquête, l’éradication et la récupération :
- Endiguement: Limite l’impact immédiat en isolant les systèmes concernés
- Enquête: Établit ce qui s’est passé et jusqu’où cela a atteint
- Éradication: Supprime la menace et corrige la faiblesse exploitée
- Récupération: Rétablit les opérations normales avec des contrôles plus stricts en place
Les incidents d’IA nécessitent des étapes de récupération uniques, comme le recyclage d’un modèle qui a reçu des données corrompues ou l’examen des journaux pour voir ce que le système a produit pendant qu’il était compromis. Les équipes qui planifient ces scénarios à l’avance se rétablissent plus rapidement et avec beaucoup moins de dommages à leur réputation.
Top 3 des fournisseurs pour la mise en œuvre de la sécurité de l’IA
La mise en œuvre de ces pratiques à grande échelle nécessite des outils spécialement conçus. Trois fournisseurs se démarquent pour les organisations qui cherchent à mettre en pratique une stratégie sérieuse de sécurité de l’IA.
1. Trace sombre
Darktrace est un choix de premier ordre pour la sécurité de l’IA, en grande partie grâce à son IA d’auto-apprentissage fondamentale. Le système construit une compréhension dynamique de ce à quoi ressemble la normale dans l’environnement numérique unique d’une entreprise. Plutôt que de s’appuyer sur des règles statiques ou des signatures d’attaques historiques, l’IA de base de Darktrace recherche les événements anormaux, réduisant ainsi les faux positifs qui affligent davantage les outils basés sur des règles.
Un deuxième niveau d’analyse est fourni par son Cyber AI Analyst, qui enquête de manière autonome sur chaque alerte et détermine si elle fait partie d’un incident de sécurité plus large. Cela peut réduire le nombre d’alertes qui atterrissent dans la file d’attente d’un analyste SOC de plusieurs centaines à seulement deux ou trois incidents critiques nécessitant une attention particulière.
Darktrace a été l’un des premiers à adopter l’IA pour la cybersécurité, donnant à ses solutions un avantage en termes de maturité par rapport aux nouveaux entrants. Sa couverture couvre les réseaux sur site, l’infrastructure cloud, la messagerie électronique, les systèmes OT et les points de terminaison, tous gérables à l’unisson ou au niveau du produit individuel. Les intégrations en un clic depuis le portail client permettent aux marques d’étendre cette couverture sans cycles de déploiement longs et perturbateurs.
2. Vectra IA
Vectra AI est une option intéressante pour les organisations exécutant des environnements hybrides ou multi-cloud. Sa technologie Attack Signal Intelligence automatise la détection et la priorisation des comportements des attaquants dans le trafic réseau et les journaux cloud, mettant en évidence l’activité la plus importante sans inonder les analystes d’alertes brutes.
Vectra adopte une approche de détection des menaces basée sur le comportement, en se concentrant sur ce que font les attaquants dans un environnement, et non sur la manière dont ils y ont initialement accédé. Cela le rend efficace pour détecter les mouvements latéraux, l’élévation des privilèges et les activités de commandement et de contrôle qui contournent les défenses périmétriques. Pour les équipes gérant des architectures hybrides complexes, la capacité de Vectra à fournir une détection cohérente dans les environnements sur site et cloud sur une seule plateforme constitue un avantage.
3. Grève de foule
CrowdStrike est reconnu comme un leader en matière de sécurité des points de terminaison cloud-native. Sa plate-forme Falcon repose sur un modèle d’IA puissant formé sur un vaste ensemble de renseignements sur les menaces, lui permettant de prévenir, de détecter et de répondre aux menaces au niveau du point final, y compris les nouveaux logiciels malveillants.
Dans les environnements où les points finaux représentent une grande partie de la surface d’attaque, son agent léger et sa configuration cloud native facilitent son déploiement sans perturber les opérations. Ses intégrations de renseignements sur les menaces aident également les équipes de sécurité à relier les points, en reliant ce qui se passe sur un seul appareil à un modèle d’attaque plus large se déroulant dans l’ensemble de l’infrastructure.
Tracer un avenir sûr pour l’intelligence artificielle
À mesure que les systèmes d’IA deviennent plus performants, les menaces conçues pour les exploiter deviendront également plus sophistiquées. Sécuriser l’IA nécessite une stratégie avant-gardiste fondée sur la prévention, une visibilité continue et une réponse rapide – une stratégie qui s’adapte à l’évolution de l’environnement.