Dans le bureau élégant de Google à Singapour au bloc 80, niveau 3, Mark Johnston se tenait devant une salle de journalistes technologiques à 13h30 avec une admission surprenante: après cinq décennies d’évolution de la cybersécurité, les défenseurs perdent toujours la guerre. « Dans 69% des incidents au Japon et en Asie-Pacifique, les organisations ont été informées de leurs propres violations par des entités externes », a révélé le directeur du bureau de Google Cloud de la CISO pour l’Asie-Pacifique, sa diapositive de présentation montrant une statistique accablante – la plupart des entreprises ne peuvent même pas détecter lorsqu’elles ont été victimes de violation.
Ce qui s’est déroulé pendant la table ronde de «cybersécurité de la cybersécurité dans l’ère AI» a été une évaluation honnête de la façon dont Google Cloud IA Technologies tente d’inverser des décennies d’échecs défensifs, même si les mêmes outils d’intelligence artificielle permettent aux attaquants avec des capacités sans précédent.
Le contexte historique: 50 ans d’échec défensif
La crise n’est pas nouvelle. Johnston a retracé le problème à l’observation de 1972 de la cybersécurité James P. Anderson selon laquelle «les systèmes que nous utilisons ne se protègent pas vraiment» – un défi qui a persisté malgré des décennies d’avancement technologique. « Ce que James P Anderson a déclaré en 1972 s’applique toujours aujourd’hui », a déclaré Johnston, soulignant comment les problèmes de sécurité fondamentaux restent non résolus à mesure que la technologie évolue.
La persistance des vulnérabilités de base aggrave ce défi. Les données de l’intelligence des menaces de Google Cloud révèlent que «plus de 76% des violations commencent par les bases» – les erreurs de configuration et les compromis d’identification qui ont tourmenté les organisations depuis des décennies. Johnston a cité un exemple récent: «Le mois dernier, un produit très courant que la plupart des organisations ont utilisé à un moment donné, Microsoft SharePoint, a également ce que nous appelons une vulnérabilité zéro-jour… et pendant ce temps, il a été attaqué en continu et abusé.»
La course aux armements de l’IA: défenseurs vs attaquants

Kevin Curran, membre principal de l’IEEE et professeur de cybersécurité à l’Université d’Ulster, décrit le paysage actuel comme «une course aux armements à enjeux élevés» où les équipes de cybersécurité et les acteurs de la menace utilisent des outils d’IA pour se dépasser les uns des autres. «Pour les défenseurs, l’IA est un actif précieux», explique Curran dans une note médiatique. «Les entreprises ont implémenté l’IA générative et d’autres outils d’automatisation pour analyser de grandes quantités de données en temps réel et identifier les anomalies.»
Cependant, les mêmes technologies profitent aux attaquants. «Pour les acteurs de la menace, l’IA peut rationaliser les attaques de phishing, automatiser la création de logiciels malveillants et aider à analyser les réseaux de vulnérabilités», prévient Curran. La nature à double usage de l’IA crée ce que Johnston appelle «le dilemme du défenseur».
Google Cloud AI Les initiatives visent à incliner ces échelles en faveur des défenseurs. Johnston a fait valoir que «l’IA offre la meilleure occasion de bouleverser le dilemme du défenseur et d’incliner la balance du cyberespace pour donner aux défenseurs un avantage décisif sur les attaquants.» L’approche de l’entreprise se concentre sur ce qu’ils appellent «d’innombrables cas d’utilisation pour une IA générative en défense», couvrant la découverte de vulnérabilité, l’intelligence des menaces, la génération de code sécurisée et la réponse aux incidents.
Big Sleep de Project Zero: IA trouvant ce que les humains manquent
L’un des exemples les plus convaincants de Google de défense alimentée par l’IA est l’initiative «Big Sleep» de Project Zero, qui utilise de grands modèles de langage pour identifier les vulnérabilités dans le code réel. Johnston a partagé des mesures impressionnantes: «Big Sleep a trouvé une vulnérabilité dans une bibliothèque open source en utilisant des outils d’IA génératifs – la première fois que nous pensons qu’une vulnérabilité a été trouvée par un service d’IA.»
L’évolution du programme démontre les capacités croissantes de l’IA. « Le mois dernier, nous avons annoncé que nous avions trouvé plus de 20 vulnérabilités dans différents packages », a noté Johnston. « Mais aujourd’hui, quand j’ai regardé le grand tableau de bord du sommeil, j’ai trouvé 47 vulnérabilités en août qui ont été trouvées par cette solution. »
La progression de l’analyse humaine manuelle à la découverte assistée par l’IA représente ce que Johnston décrit comme un changement «des opérations de sécurité manuelles à semi-autonomes», où «Gemini entraîne la plupart des tâches dans le cycle de vie de la sécurité, en déléguant les tâches qu’il ne peut pas automatiser avec une confiance ou une précision suffisamment élevée.»
Le paradoxe d’automatisation: promesse et péril
La feuille de route de Google Cloud envisage la progression à quatre étapes: opérations de sécurité manuelle, assistée, semi-autonome et autonome. Dans la phase semi-autonome, les systèmes d’IA géreraient les tâches de routine tout en dégénérant des décisions complexes pour les opérateurs humains. La phase autonome ultime verrait l’IA «conduire le cycle de vie de sécurité vers des résultats positifs au nom des utilisateurs».

Cependant, cette automatisation introduit de nouvelles vulnérabilités. Interrogé sur les risques de relemance excessive sur les systèmes d’IA, Johnston a reconnu le défi: «Il y a le potentiel que ce service pourrait être attaqué et manipulé. En ce moment, lorsque vous voyez des outils dans lesquels ces agents sont tués, il n’y a pas de très bon cadre pour autoriser que c’est l’outil réel qui n’a pas été tamponné.»
Curran fait écho à cette préoccupation: «Le risque pour les entreprises est que leurs équipes de sécurité deviendront trop réparties sur l’IA, ce qui permettra potentiellement le jugement humain et laissant les systèmes vulnérables aux attaques. Il y a toujours un besoin d’un« copilote »humain et des rôles doivent être clairement définis.»
Implémentation du monde réel: contrôler la nature imprévisible de l’IA
L’approche de Google Cloud comprend des garanties pratiques pour aborder l’une des caractéristiques les plus problématiques de l’IA: sa tendance à générer des réponses non pertinentes ou inappropriées. Johnston a illustré ce défi avec un exemple concret de décalages contextuels qui pourraient créer des risques commerciaux.
« Si vous avez un magasin de vente au détail, vous ne devriez pas avoir de conseils médicaux à la place », a expliqué Johnston, décrivant comment les systèmes d’IA peuvent se déplacer de façon inattendue dans des domaines non liés. «Parfois, ces outils peuvent le faire.» L’imprévisibilité représente une responsabilité significative pour les entreprises qui déploient des systèmes d’IA orientés vers les clients, où les réponses hors sujet pourraient confondre les clients, endommager la réputation de la marque ou même créer une exposition juridique.
La technologie Armour du modèle de Google aborde cela en fonctionnant comme une couche de filtre intelligente. «Avoir des filtres et utiliser nos capacités pour faire des contrôles de santé sur ces réponses permet à une organisation de se faire confiance», a noté Johnston. Le système dépasse les sorties AI pour des informations personnellement identifiables, filtre le contenu inapproprié au contexte commercial et bloque les réponses qui pourraient être «hors marque» pour le cas d’utilisation prévu de l’organisation.
L’entreprise aborde également la préoccupation croissante concernant le déploiement de l’IA fantôme. Les organisations découvrent des centaines d’outils d’IA non autorisés dans leurs réseaux, créant des lacunes de sécurité massives. Les technologies de protection des données sensibles de Google tentent de résoudre ce problème en scannant plusieurs fournisseurs de cloud et systèmes locaux.
Le défi de l’échelle: contraintes budgétaires par rapport aux menaces croissantes
Johnston a identifié les contraintes budgétaires comme le principal défi auquel sont confrontés les CISO en Asie-Pacifique, se produisant précisément lorsque les organisations sont confrontées à une escalade des cyber-menaces. Le paradoxe est austère: à mesure que les volumes d’attaque augmentent, les organisations n’ont pas les ressources pour répondre adéquatement.
« Nous regardons les statistiques et disons objectivement que nous voyons plus de bruit – peut ne pas être super sophistiqué, mais plus de bruit est plus sur la tête, et cela coûte plus cher à gérer », a observé Johnston. L’augmentation de la fréquence des attaques, même lorsque les attaques individuelles ne sont pas nécessairement plus avancées, crée un drain des ressources que de nombreuses organisations ne peuvent pas soutenir.
La pression financière intensifie un paysage de sécurité déjà complexe. « Ils recherchent des partenaires qui peuvent aider à accélérer cela sans avoir à embaucher 10 membres de plus ou à obtenir des budgets plus importants », a expliqué Johnston, décrivant comment les dirigeants de la sécurité sont confrontés à une pression croissante pour faire plus avec les ressources existantes pendant que les menaces se multiplient.
Des questions critiques restent
Malgré les capacités prometteuses de Google Cloud AI, plusieurs questions importantes persistent. Lorsqu’il a contesté si les défenseurs remportent réellement cette course aux armements, Johnston a reconnu: «Nous n’avons pas vu de nouvelles attaques utiliser l’IA à ce jour», mais a noté que les attaquants utilisent l’IA pour mettre à l’échelle des méthodes d’attaque existantes et créer «un large éventail d’opportunités dans certains aspects de l’attaque».
Les affirmations d’efficacité nécessitent également un examen minutieux. Alors que Johnston a cité une amélioration de 50% de la vitesse d’écriture des rapports d’incident, il a admis que la précision reste un défi: « Il y a des inexactitudes, bien sûr. Mais les humains font aussi des erreurs. » La reconnaissance met en évidence les limites en cours des implémentations actuelles de sécurité d’IA.
Dans l’attente: préparations post-Quantum
Au-delà des implémentations actuelles de l’IA, Google Cloud se prépare déjà pour le prochain changement de paradigme. Johnston a révélé que la société avait déjà «déployé la cryptographie post-sur-quantum entre nos centres de données par défaut à grande échelle», le positionnement pour les futures menaces informatiques quantiques qui pourraient rendre le cryptage actuel obsolète.
Le verdict: optimisme prudent requis
L’intégration de l’IA dans la cybersécurité représente à la fois des opportunités sans précédent et un risque important. Alors que les technologies de l’IA par Google Cloud démontrent de véritables capacités de détection de vulnérabilité, d’analyse des menaces et de réponse automatisée, les mêmes technologies permettent aux attaquants avec des capacités améliorées de reconnaissance, d’ingénierie sociale et d’évasion.
L’évaluation de Curran offre une perspective équilibrée: «Étant donné la rapidité avec laquelle la technologie a évolué, les organisations devront adopter une politique de cybersécurité plus complète et proactive si elles veulent rester en avance sur les attaquants. Après tout, les cyberattaques sont une question de« quand, «pas« si »et l’IA ne fera qu’accélérer le nombre d’opportunités disponibles pour menacer les acteurs.»
Le succès de la cybersécurité alimentée par l’IA dépend finalement non de la technologie elle-même, mais de la façon dont les organisations mettent en œuvre ces outils tout en maintenant la surveillance humaine et en abordant l’hygiène de sécurité fondamentale. Comme Johnston l’a conclu, «nous devons les adopter dans des approches à faible risque», soulignant la nécessité d’une mise en œuvre mesurée plutôt que de l’automatisation en gros.
La révolution de l’IA dans la cybersécurité est en cours, mais la victoire appartiendra à ceux qui pourront équilibrer l’innovation avec une gestion prudente des risques – pas ceux qui déploient simplement les algorithmes les plus avancés.
![]()