Google Cloud estime que la réponse aux équipes de sécurité surchargées de travail n’est pas seulement plus d’outils, mais un allié propulsé par l’IA.
Lors de son sommet de la sécurité 2025, Google a exposé sa vision d’un avenir où l’IA libère des experts en sécurité humaine du travail fastidieux pour se concentrer sur ce qui compte le plus.
L’idée centrale est d’utiliser l’IA pour défendre votre organisation tout en obtenant vos propres initiatives d’IA contre les attaques. Comme les entreprises comptent de plus en plus sur les agents de l’IA, ces agents deviennent eux-mêmes une nouvelle frontière pour les problèmes de sécurité.
Sécuriser l’écosystème de l’IA
Avant que l’IA ne puisse devenir un défenseur de confiance, son propre environnement doit être sécurisé. À cette fin, Google Cloud améliore sa solution de protection AI dans le centre de commande de sécurité.
De nouvelles capacités, arrivant bientôt en avant-première, découvriront automatiquement tous les agents et serveurs de l’IA dans votre environnement. Cela donnera aux équipes de sécurité une vision claire de l’ensemble de leur écosystème d’agent d’IA, les aidant à repérer les vulnérabilités, les erreurs de configuration et les interactions risquées.
La protection en temps réel obtient également un coup de pouce. La protection en ligne de l’armure du modèle est étendue aux invites et aux réponses dans l’espace d’agents, contribuant à bloquer les menaces comme l’injection rapide et les fuites de données au fur et à mesure qu’ils se produisent.
Pour s’assurer que les agents de l’IA jouent toujours selon les règles, les nouveaux contrôles de posture les aideront à respecter les politiques de sécurité de l’entreprise. Et avec de nouvelles détections de menaces propulsées par l’intelligence de Mandiant et Google Cloud, les équipes de sécurité peuvent désormais mieux repérer et répondre à un comportement inhabituel ou suspect de leurs actifs d’IA.
Montée du SoC agentique
L’annonce la plus prospective est peut-être la vision de Google pour un «centre d’opérations de sécurité agentique (SOC)». Imaginez un système où les agents de l’IA collaborent pour gérer les menaces, automatiser les enquêtes d’alerte et même aider les ingénieurs à créer de nouvelles détections pour combler les lacunes de sécurité.
Le premier pas dans ce sens est le nouvel agent d’enquête d’alerte, qui est maintenant en avant-première. Cet outil agit comme un analyste junior, en examinant de manière autonome des événements de sécurité, en analysant l’activité de ligne de commande et en cartographiant les arbres de processus basés sur les méthodes éprouvées des experts de première ligne de Mandiant. L’agent fournit son verdict sur les alertes et suggère des étapes suivantes pour les analystes humains, promettant de réduire les travaux manuels et d’accélérer les temps de réponse.
Sécurité AI construite sur les fondations unifiées de Google Cloud
Dans Google Security Operations, le nouveau SECOPS Labs donne aux utilisateurs un accès précoce à des capacités puissantes, dont beaucoup sont alimentées par Gemini AI. Les nouveaux tableaux de bord qui réunissent les données d’orchestration de sécurité, d’automatisation et de réponse (SOAR) sont également généralement disponibles, ce qui donne une image plus claire de la posture de sécurité d’une organisation.
La Fondation de la plate-forme, le cloud de confiance, reçoit également des mises à niveau:
- Conformité et risque: Un nouveau gestionnaire de conformité simplifie le monde complexe des audits et de l’application des politiques, tandis que de nouveaux rapports de risques utilisent la technologie virtuelle de l’équipe rouge pour trouver des lacunes de sécurité que les attaquants pourraient exploiter.
- Contrôle d’accès plus intelligent: La tâche fastidieuse d’accorder des autorisations obtient une assistance en IA avec le nouveau picker de rôle IAM, maintenant en avant-première. Vous pouvez simplement décrire ce qu’une personne ou un service doit faire, et Gemini recommandera le rôle le plus sûr et le moins permissif. Pour se prémunir contre les prises de compte, la réauthentification sera désormais déclenchée pour des actions très sensibles.
- Données élargies et sécurité du réseau: La protection sensible des données a été élargie pour couvrir les outils d’IA comme Vertex AI, et Cloud NGFW aide désormais à appliquer des principes de confiance zéro aux charges de travail informatiques hautes performances, y compris l’IA.
En intégrant l’IA dans le cœur de ses offres, Google Cloud travaille à créer une base où la sécurité permet des objectifs commerciaux et aide les défenseurs à relever les défis d’une nouvelle ère.
(Photo d’Ameer Basheer)