Si vous construisez avec l’IA ou que vous essayez de vous défendre contre le côté moins salé de la technologie, Meta vient de laisser tomber de nouveaux outils de sécurité lama.
Les outils de sécurité améliorés pour les modèles LLAMA AI arrivent aux côtés de nouvelles ressources de Meta conçues pour aider les équipes de cybersécurité à exploiter l’IA pour la défense. Tout cela fait partie de leur poussée pour rendre le développement et utiliser l’IA un peu plus sûr pour toutes les personnes impliquées.
Les développeurs travaillant avec la famille Llama de modèles ont désormais un kit amélioré avec. Vous pouvez saisir ces derniers outils de protection Llama directement de la propre page de protection Llama de Meta, ou les trouver là où de nombreux développeurs vivent: étreindre le visage et Github.
Le premier est Llama Guard 4. Considérez-le comme une évolution du filtre de sécurité personnalisable de Meta pour l’IA. La grande nouvelle ici est qu’elle est désormais multimodale afin qu’elle puisse comprendre et appliquer des règles de sécurité non seulement au texte, mais aussi aux images. C’est crucial car les applications IA deviennent plus visuelles. Cette nouvelle version est également en cours de préparation dans la toute nouvelle API LLAMA de Meta, qui est actuellement dans un aperçu limité.
Ensuite, il y a Llamafirewall. Il s’agit d’une nouvelle pièce du puzzle de Meta, conçue pour agir comme un centre de contrôle de sécurité pour les systèmes d’IA. Il aide à gérer différents modèles de sécurité en travaillant ensemble et s’accroche aux autres outils de protection de Meta. Son travail? Pour repérer et bloquer le type de risques qui maintiennent les développeurs de l’IA la nuit – des choses comme les attaques d’injection rapide de l’intelligence conçues pour tromper l’IA, la génération de code potentiellement douteuse ou le comportement risqué à partir de plug-ins d’IA.
Meta a également donné à son Llama Invite Guard une mise au point. Le modèle principal de Guard 2 (86M) est désormais meilleur pour renifler ces tentatives de jailbreake et injections rapides. Plus intéressant, peut-être, l’introduction de la garde rapide 2 22m.
Prompt Guard 2 22M est une version beaucoup plus petite et plus nielle. Meta estime qu’il peut réduire la latence et calculer les coûts jusqu’à 75% par rapport au modèle plus grand, sans sacrifier trop de pouvoir de détection. Pour tous ceux qui ont besoin de réponses plus rapides ou de travailler sur des budgets plus stricts, c’est un ajout bienvenu.
Mais Meta ne se concentre pas seulement sur les constructeurs d’IA; Ils regardent également les cyber-défenseurs en première ligne de la sécurité numérique. Ils ont entendu les appels à de meilleurs outils alimentés par l’IA pour aider dans la lutte contre les cyberattaques, et ils partagent certaines mises à jour visant à cela.
La suite de référence Cybersec EVAL 4 a été mise à jour. Cette boîte à outils open source aide les organisations à déterminer à quel point les systèmes d’IA sont bons dans les tâches de sécurité. Cette dernière version comprend deux nouveaux outils:
- CYBERSOC EVAL: Construit à l’aide des experts en cybersécurité Crowdstrike, ce cadre mesure spécifiquement la performance de l’IA dans un environnement de centre d’opération de sécurité réel (SOC). Il est conçu pour donner une image plus claire de l’efficacité de l’IA dans la détection et la réponse des menaces. La référence elle-même arrive bientôt.
- AutoPatchBench: Cette référence teste à quel point le lama et les autres IA sont bons pour trouver et réparer automatiquement les trous de sécurité dans le code avant que les méchants puissent les exploiter.
Pour aider à mettre ce genre d’outils entre les mains de ceux qui en ont besoin, Meta lance le programme Llama Defenders. Il semble être de donner aux entreprises partenaires et aux développeurs un accès spécial à un mélange de solutions d’IA – certaines open source, certaines en début d’accès, certaines peut-être propriétaires – tous destinés à différents défis de sécurité.
Dans le cadre de cela, Meta partage un outil de sécurité AI qu’ils utilisent en interne: l’outil de classification DOC sensible automatisé. Il gifle automatiquement les étiquettes de sécurité sur des documents au sein d’une organisation. Pourquoi? Pour empêcher les informations sensibles de sortir par la porte, ou d’empêcher qu’elle soit accidentellement introduite dans un système d’IA (comme dans les configurations de chiffon) où elle pourrait être divulguée.
Ils s’attaquent également au problème du faux audio généré par l’IA, qui est de plus en plus utilisé dans les escroqueries. Le détecteur audio généré par la lama et le détecteur de filigrane audio lama sont partagés avec des partenaires pour les aider à repérer des voix générées par l’IA dans des appels de phishing potentiels ou des tentatives de fraude. Des entreprises comme Zendesk, Bell Canada et AT&T sont déjà alignées pour les intégrer.
Enfin, Meta a donné un aperçu de quelque chose de potentiellement énorme pour la confidentialité des utilisateurs: le traitement privé. C’est une nouvelle technologie sur laquelle ils travaillent pour WhatsApp. L’idée est de permettre à l’IA de faire des choses utiles comme résumer vos messages non lus ou de vous aider à rédiger des réponses, mais sans que Meta ou WhatsApp ne puisse lire le contenu de ces messages.
Meta est assez ouverte sur le côté de la sécurité, même en publiant leur modèle de menace et en invitant les chercheurs en sécurité à percer des trous dans l’architecture avant qu’il ne soit mis en ligne. C’est un signe qu’ils savent qu’ils ont besoin de bien faire l’aspect de la confidentialité.
Dans l’ensemble, il s’agit d’un large ensemble d’annonces de sécurité de l’IA de Meta. Ils essaient clairement de mettre des muscles sérieux derrière la sécurisation de l’IA qu’ils construisent, tout en donnant à la communauté technologique plus large de meilleurs outils pour construire en toute sécurité et défendre efficacement.