Selon Wiz, la course entre les entreprises d’IA amène beaucoup de gens à négliger les pratiques élémentaires d’hygiène en matière de sécurité.
65 % des 50 principales sociétés d’IA analysées par la société de cybersécurité avaient divulgué des secrets vérifiés sur GitHub. Les expositions incluent des clés API, des jetons et des informations d’identification sensibles, souvent enfouies dans des référentiels de code que les outils de sécurité standard ne vérifient pas.
Glyn Morgan, responsable national pour le Royaume-Uni et l’Irlande chez Salt Security, a décrit cette tendance comme une erreur fondamentale et évitable. « Lorsque les entreprises d’IA exposent accidentellement leurs clés API, elles mettent à nu une faille de sécurité flagrante et évitable », a-t-il déclaré.
« C’est l’exemple classique d’une gouvernance associée à une configuration de sécurité, deux des catégories de risque signalées par l’OWASP. En insérant les informations d’identification dans des référentiels de code, ils offrent aux attaquants un ticket d’or pour accéder aux systèmes, aux données et aux modèles, contournant ainsi les couches défensives habituelles. »
Le rapport de Wiz met en évidence le risque de sécurité de plus en plus complexe de la chaîne d’approvisionnement. Le problème s’étend au-delà des équipes de développement internes ; À mesure que les entreprises s’associent de plus en plus à des startups d’IA, elles peuvent hériter de leur posture de sécurité. Les chercheurs préviennent que certaines des fuites découvertes « pourraient avoir exposé des structures organisationnelles, des données de formation ou même des modèles privés ».
Les enjeux financiers sont considérables. Les sociétés analysées avec des fuites vérifiées ont une valorisation combinée de plus de 400 milliards de dollars.
Le rapport, axé sur les sociétés répertoriées dans le Forbes AI 50, fournit des exemples de risques :
- LangChain a exposé plusieurs clés API Langsmith, certaines avec des autorisations pour gérer l’organisation et répertorier ses membres. Ce type d’informations est très apprécié par les attaquants à des fins de reconnaissance.
- Une clé API de niveau entreprise pour ElevenLabs a été découverte dans un fichier en texte brut.
- Une société AI 50 anonyme avait un jeton HuggingFace exposé dans une fourchette de code supprimée. Ce jeton unique «permettait d’accéder à environ 1 000 modèles privés». La même société a également divulgué les clés WeightsAndBiases, exposant les « données de formation de nombreux modèles privés ».
Le rapport Wiz suggère que ce problème est si répandu parce que les méthodes traditionnelles d’analyse de sécurité ne suffisent plus. S’appuyer sur des analyses de base des principaux référentiels GitHub d’une entreprise est une « approche marchandisée » qui passe à côté des risques les plus graves .
Les chercheurs décrivent la situation comme un « iceberg » (c’est-à-dire que les risques les plus évidents sont visibles, mais le plus grand danger se trouve « sous la surface »). Pour trouver ces risques cachés, les chercheurs ont adopté une méthodologie d’analyse tridimensionnelle qu’ils appellent « Profondeur, périmètre et couverture » :
- Profondeur: Leur analyse approfondie a analysé « l’historique complet des validations, l’historique des validations sur les forks, les forks supprimés, les journaux de flux de travail et l’essentiel » – des domaines que la plupart des scanners « ne touchent jamais ».
- Périmètre: L’analyse a été étendue au-delà de l’organisation principale de l’entreprise pour inclure les membres et les contributeurs de l’organisation. Ces personnes pourraient « enregistrer par inadvertance des secrets liés à l’entreprise dans leurs propres référentiels publics ». L’équipe a identifié ces comptes adjacents en suivant les contributeurs de code, les abonnés de l’organisation et même les « corrélations dans des réseaux associés comme HuggingFace et npm ».
- Couverture: Les chercheurs ont spécifiquement recherché de nouveaux types de secrets liés à l’IA qui manquent souvent aux scanners traditionnels, tels que les clés de plates-formes telles que WeightsAndBiases, Groq et Perplexity.
Cette surface d’attaque élargie est particulièrement inquiétante compte tenu du manque apparent de maturité en matière de sécurité dans de nombreuses entreprises en évolution rapide. Le rapport note que lorsque les chercheurs ont tenté de divulguer les fuites, près de la moitié des divulgations n’ont pas réussi à atteindre l’objectif ou n’ont reçu aucune réponse. De nombreuses entreprises ne disposaient pas d’un canal de divulgation officiel ou n’ont tout simplement pas réussi à résoudre le problème une fois notifiées.
Les conclusions de Wiz servent d’avertissement aux responsables technologiques des entreprises, mettant en évidence trois mesures immédiates pour gérer les risques de sécurité internes et tiers.
- Les responsables de la sécurité doivent considérer leurs employés comme faisant partie de la surface d’attaque de leur entreprise. Le rapport recommande de créer une politique de membre du système de contrôle de version (VCS) à appliquer lors de l’intégration des employés. Cette politique devrait imposer des pratiques telles que l’utilisation de l’authentification multifacteur pour les comptes personnels et le maintien d’une séparation stricte entre les activités personnelles et professionnelles sur des plateformes comme GitHub.
- L’analyse des secrets internes doit évoluer au-delà des vérifications de base des référentiels. Le rapport exhorte les entreprises à rendre obligatoire l’analyse des secrets publics du VCS comme « défense non négociable ». Cette analyse doit adopter l’état d’esprit « profondeur, périmètre et couverture » susmentionné pour détecter les menaces qui se cachent sous la surface.
- Ce niveau de surveillance doit être étendu à l’ensemble de la chaîne d’approvisionnement de l’IA. Lors de l’évaluation ou de l’intégration d’outils de fournisseurs d’IA, les RSSI doivent examiner leurs pratiques de gestion des secrets et de divulgation des vulnérabilités. Le rapport note que de nombreux fournisseurs de services d’IA divulguent leurs propres clés API et devraient « donner la priorité à la détection de leurs propres types de secrets ».
Le message central adressé aux entreprises est que les outils et plates-formes qui définiront la prochaine génération de technologies se développent à un rythme qui dépasse souvent celui de la gouvernance de la sécurité. Comme le conclut Wiz : « Pour les innovateurs en IA, le message est clair : la vitesse ne peut pas compromettre la sécurité ». Pour les entreprises qui dépendent de cette innovation, le même avertissement s’applique.