Pourquoi les chefs de sécurité exigent une réglementation urgente de l’IA comme Deepseek

L’anxiété augmente parmi les principaux responsables de la sécurité de l’information (CISO) dans les centres d’opération de sécurité, en particulier autour du géant de l’IA chinois Deepseek.

L’IA a été annoncée comme une nouvelle aube pour l’efficacité des entreprises et l’innovation, mais pour les personnes en première ligne de la défense des entreprises, il projette des ombres très longues et sombres.

Quatre CISO sur cinq (81%) britanniques croient que le chatbot de l’IA chinois nécessite une réglementation urgente du gouvernement. Ils craignent que sans intervention rapide, l’outil puisse devenir le catalyseur d’une cyber-crise nationale à grande échelle.

Ce n’est pas un malaise spéculatif; Il s’agit d’une réponse directe à une technologie dont les pratiques de traitement des données et le potentiel d’utilisation abusive augmentent les sonnettes d’alarme aux plus hauts niveaux de sécurité des entreprises.

Les conclusions, commandées par Absolute Security pour son rapport UK Resilience Risk Index, sont basées sur un sondage de 250 CISO dans de grandes organisations britanniques. Les données suggèrent que la menace théorique de l’IA a maintenant atterri fermement sur le bureau de la CISO, et que leurs réactions ont été décisives.

Dans ce qui aurait été presque impensable il y a quelques années, plus d’un tiers (34%) de ces dirigeants de la sécurité ont déjà mis en œuvre des interdictions pur et simple sur les outils d’IA en raison de problèmes de cybersécurité. Un nombre similaire, 30%, a déjà débranché des déploiements d’IA spécifiques au sein de leurs organisations.

Cette retraite n’est pas un signe de luddisme mais une réponse pragmatique à un problème croissant. Les entreprises sont déjà confrontées à des menaces complexes et hostiles, comme en témoignent des incidents très médiatisés comme la récente violation de Harrods. Les CISO ont du mal à suivre le rythme, et l’ajout d’outils d’IA sophistiqués dans l’arsenal de l’attaquant est un défi que beaucoup semblent mal équipés à gérer.

Un écart croissant de préparation à la sécurité pour les plates-formes d’IA comme Deepseek

Le cœur du problème avec des plates-formes comme Deepseek réside dans leur potentiel à exposer les données sensibles des entreprises et à être armées par les cybercriminels.

Trois CISO sur cinq (60%) prédisent une augmentation directe des cyberattaques à la suite de la prolifération de Deepseek. Une proportion identique rapporte que la technologie s’emmêle déjà de leurs cadres de confidentialité et de gouvernance, ce qui rend un travail déjà difficile presque impossible.

Cela a provoqué un changement de perspective. Une fois considéré comme une solution miracle potentielle pour la cybersécurité, l’IA est désormais considérée par un nombre croissant de professionnels dans le cadre du problème. L’enquête révèle que 42% des CISO considèrent désormais l’IA comme une menace plus importante que d’une aide à leurs efforts défensifs.

Andy Ward, SVP International of Absolute Security, a déclaré: «Notre recherche met en évidence les risques importants posés par des outils d’IA émergents comme Deepseek, qui remodèlent rapidement le paysage cyber-menace.

«Alors que les préoccupations augmentent sur leur potentiel d’accélérer les attaques et de compromettre les données sensibles, les organisations doivent maintenant agir pour renforcer leur cyber-résilience et adapter les cadres de sécurité pour suivre ces menaces axées sur l’IA.

«C’est pourquoi quatre CISO sur cinq sur cinq appellent de toute urgence à la réglementation gouvernementale. Ils ont été témoins de la rapidité avec laquelle cette technologie progresse et avec quelle facilité il peut dépasser les défenses de cybersécurité existantes.»

Le plus inquiétant est peut-être l’admission de non-préparation. Près de la moitié (46%) des hauts dirigeants de la sécurité avouent que leurs équipes ne sont pas prêtes à gérer les menaces uniques posées par les attaques dirigés par l’IA. Ils assistent au développement d’outils tels que Deepseek dépasser leurs capacités défensives en temps réel, créant un écart de vulnérabilité dangereux qui, selon beaucoup, ne peut être fermé que par l’intervention gouvernementale au niveau national.

«Ce ne sont pas des risques hypothétiques», a poursuivi Ward. «Le fait que les organisations interdisent déjà les outils d’IA et repensent leurs stratégies de sécurité en réponse aux risques posés par les LLM comme Deepseek démontre l’urgence de la situation.

«Sans un cadre réglementaire national – celui qui définit des directives claires sur la façon dont ces outils sont déployés, gouvernés et surveillés – nous risquons de perturber les perturbations généralisées dans tous les secteurs de l’économie britannique.»

Les entreprises investissent pour éviter la crise de leur adoption en IA

Malgré cette posture défensive, les entreprises ne prévoient pas une retraite complète de l’IA. La réponse est plus une pause stratégique plutôt qu’un arrêt permanent.

Les entreprises reconnaissent l’immense potentiel de l’IA et investissent activement pour l’adopter en toute sécurité. En fait, 84% des organisations font de l’embauche des spécialistes de l’IA une priorité pour 2025.

Cet investissement s’étend au sommet de l’échelle d’entreprise. 80% des entreprises se sont engagées dans la formation d’IA au niveau C-suite. La stratégie semble être une approche à double brochet: augmentez le marché du travail pour comprendre et gérer la technologie, et apporter les talents spécialisés nécessaires pour naviguer dans ses complexités.

L’espoir – et c’est un espoir, sinon une prière – est que la construction d’un fondement interne solide de l’expertise de l’IA peut agir comme un contrepoids à l’escalade des menaces externes.

Le message de la direction de la sécurité du Royaume-Uni est clair: ils ne veulent pas bloquer l’innovation de l’IA, mais pour lui permettre de procéder en toute sécurité. Pour ce faire, ils nécessitent un partenariat plus fort avec le gouvernement.

La voie à suivre consiste à établir des règles d’engagement claires, à la surveillance du gouvernement, à un pipeline de professionnels de l’IA qualifiés et à une stratégie nationale cohérente pour gérer les risques de sécurité potentiels posés par Deepseek et la prochaine génération d’outils d’IA puissants qui suivront inévitablement.

« Le temps de débat est terminé. Nous avons besoin d’action, de politique et de surveillance immédiates pour garantir que l’IA reste une force de progrès, pas un catalyseur de crise », conclut Ward.

Solène Vernet
Solène Vernet
Journaliste française passionnée par la science et les politiques d’innovation, j’écris pour rendre accessibles des sujets complexes. Mon parcours mêle recherche universitaire, communication scientifique et journalisme. J’aime explorer les liens entre technologie, société et transformation du monde.