Exploitation de l’IA pour la cybersécurité des entreprises

La cybersécurité est au milieu d’une nouvelle course aux armements, et l’arme puissante de choix dans cette nouvelle ère est l’IA.

L’IA propose une épée à double tranchant classique: un bouclier puissant pour les défenseurs et un nouvel outil puissant pour ceux qui ont une intention malveillante. Naviguer dans ce champ de bataille complexe nécessite une main régulière et une compréhension approfondie de la technologie et des personnes qui en abuseraient.

Pour avoir une vue depuis les lignes de première ligne, AI News a rattrapé Rachel James, principale ingénieur de renseignement sur les menaces AI ML chez la société mondiale biopharmaceutique Abbvie.

«En plus de l’augmentation de l’IA intégrée qui a été fournie par le fournisseur dans nos outils actuels, nous utilisons également l’analyse LLM sur nos détections, nos observations, nos corrélations et nos règles associées», explique James.

James et son équipe utilisent de grands modèles de langue pour passer à travers une montagne d’alertes de sécurité, à la recherche de modèles, à repérer des doublons et à trouver des lacunes dangereuses dans leurs défenses avant qu’un attaquant ne le puisse.

«Nous l’utilisons pour déterminer la similitude, la duplication et fournir une analyse des lacunes», ajoute-t-elle, notant que l’étape suivante consiste à tisser des données de menace encore plus externes. «Nous cherchons à améliorer cela avec l’intégration de l’intelligence des menaces dans notre prochaine phase.»

Central de cette opération se trouve une plate-forme de renseignement sur les menaces spécialisée appelée OpenCti, qui les aide à construire une image unifiée des menaces d’une mer de bruit numérique.

L’IA est le moteur qui rend cet effort de cybersécurité possible, en prenant de grandes quantités de texte brouillé et non structuré et en l’organisation soigneusement dans un format standard connu sous le nom de STIX. La grande vision, dit James, est d’utiliser des modèles linguistiques pour connecter cette intelligence fondamentale avec tous les autres domaines de leur opération de sécurité, de la gestion de la vulnérabilité aux risques tiers.

Profiter de ce pouvoir, cependant, s’accompagne d’une bonne dose de prudence. En tant que contributeur clé à une initiative industrielle majeure, James est parfaitement conscient des pièges.

«Je serais négligent si je ne mentionnais pas le travail d’un merveilleux groupe de gens dont je fais partie – le« Top 10 de l’OWASP pour Genai »comme un moyen fondateur de comprendre les vulnérabilités que Genai peut introduire», dit-elle.

Au-delà des vulnérabilités spécifiques, James indique trois compromis fondamentaux auxquels les chefs d’entreprise doivent affronter:

  1. Accepter le risque qui vient avec la nature créative mais souvent imprévisible de l’IA générative.
  2. La perte de transparence dans la façon dont l’IA atteint ses conclusions, un problème qui ne fait que croître à mesure que les modèles deviennent plus complexes.
  3. Le danger de juger mal le véritable retour sur investissement pour tout projet d’IA, où le battage médiatique peut facilement conduire à surestimer les avantages ou à sous-estimer l’effort requis dans un domaine aussi rapide.

Pour construire une meilleure posture de cybersécurité à l’ère AI, vous devez comprendre votre attaquant. C’est là que l’expertise profonde de James entre en jeu.

«Il s’agit en fait de mon expertise particulière – j’ai une formation en intelligence cyber-menace et j’ai mené et documenté des recherches approfondies sur l’intérêt, l’utilisation et le développement de l’IA de l’acteur de menace», note-t-elle.

James suit activement les bavardages adversaires et le développement d’outils via des canaux open source et ses propres collections automatisées de The Dark Web, partageant ses conclusions sur son Cybershujin Github. Son travail implique également de se salir ses propres mains.

«En tant que responsable de l’entrée d’injection rapide pour OWASP, et co-auteur du Guide de l’association rouge Genai, je passe également du temps à développer moi-même des techniques d’entrée contradictoires et à maintenir un réseau d’experts également dans ce domaine», ajoute James.

Alors, qu’est-ce que tout cela signifie pour l’avenir de l’industrie? Pour James, la voie à suivre est claire. Elle souligne un parallèle fascinant qu’elle a découvert il y a des années: «Le cycle du cycle du cycle du cycle de vie de l’intelligence est presque identique au cycle de vie des sciences des données fondamentale aux systèmes de l’IA ML.»

Cet alignement est une opportunité massive. «Sans aucun doute, en termes de jeux de données avec lesquels nous pouvons fonctionner, les défenseurs ont une chance unique de capitaliser sur le pouvoir du partage de données de renseignement et de l’IA», affirme-t-elle.

Son message final offre à la fois des encouragements et un avertissement pour ses pairs dans le monde de la cybersécurité: «La science des données et l’IA feront partie de la vie de chaque professionnel de la cybersécurité à l’avenir, l’embrasser.»

Rachel James partagera ses idées lors de cette année AI et Big Data Expo Europe à Amsterdam le 24 au 25 septembre 2025. Assurez-vous de consulter sa présentation du deuxième jour sur «du principe à la pratique – l’intégration de l’éthique de l’IA à grande échelle».

Solène Vernet
Solène Vernet
Journaliste française passionnée par la science et les politiques d’innovation, j’écris pour rendre accessibles des sujets complexes. Mon parcours mêle recherche universitaire, communication scientifique et journalisme. J’aime explorer les liens entre technologie, société et transformation du monde.