Meta révise les politiques de chatbot AI au milieu des problèmes de sécurité des enfants

Meta révise comment ses chatbots d’IA interagissent avec les utilisateurs après une série de rapports exposés à un comportement troublant, y compris les interactions avec les mineurs. L’entreprise a dit TechCrunch Il forme maintenant ses robots pour ne pas s’engager avec des adolescents sur des sujets comme l’automutilation, le suicide ou les troubles de l’alimentation, et pour éviter les plaisanteries romantiques. Ce sont des étapes temporaires alors qu’elle développe des règles à plus long terme.

Les changements suivent un Reuters L’enquête qui a trouvé les systèmes de Meta pourrait générer du contenu sexualisé, y compris des images torse nues de célébrités mineures, et engager les enfants dans des conversations romantiques ou suggestives. Un cas rapporté par l’agence de presse a décrit un homme mourant après s’être précipité vers une adresse fournie par un chatbot à New York.

La porte-parole de Meta, Stephanie Otway, a admis que la société avait commis des erreurs. Elle a déclaré que Meta «forment notre IA à ne pas s’engager avec les adolescents sur ces sujets, mais pour les guider vers des ressources expertes», et a confirmé que certains personnages d’IA, comme des personnages hautement sexualisés comme «Russian Girl», seront limités.

Les défenseurs de la sécurité des enfants soutiennent que l’entreprise aurait dû agir plus tôt. Andy Burrows de la Fondation Molly Rose l’a qualifié de «stupéfiant» que les bots soient autorisés à fonctionner de manière à mettre les jeunes en danger. Il a ajouté: « Bien que d’autres mesures de sécurité soient les bienvenues, des tests de sécurité robustes devraient avoir lieu avant que les produits ne soient mis sur le marché – pas rétrospectivement lorsque des dommages ont eu lieu. »

Problèmes plus larges avec une mauvaise utilisation de l’IA

L’examen des chatbots d’IA de META survient au milieu des inquiétudes plus larges sur la façon dont les chatbots de l’IA peuvent affecter les utilisateurs vulnérables. Un couple de Californie a récemment déposé une plainte contre Openai, affirmant que Chatgpt a encouragé leur fils adolescent à se suicider. OpenAI a depuis déclaré qu’il travaillait sur des outils pour promouvoir une utilisation plus saine de sa technologie, notant dans un article de blog selon lequel «l’IA peut se sentir plus réactif et personnel que les technologies antérieures, en particulier pour les personnes vulnérables souffrant de détresse mentale ou émotionnelle».

Les incidents mettent en évidence un débat croissant sur la question de savoir si les entreprises d’IA libèrent des produits trop rapidement sans garanties appropriées. Les législateurs de plusieurs pays ont déjà averti que les chatbots, bien que utiles, peuvent amplifier le contenu nuisible ou donner des conseils trompeurs aux personnes qui ne sont pas équipées pour la remettre en question.

Meta’s AI Studio et Chatbot Impersonneur Problèmes

Entre-temps, Reuters ont rapporté que le studio AI de Meta avait été utilisé pour créer des chatbots coriaces de «parodie» de célébrités comme Taylor Swift et Scarlett Johansson. Les testeurs ont constaté que les bots prétendaient souvent être les vraies personnes, engagées dans des avancées sexuelles et, dans certains cas, ont généré des images inappropriées, y compris des mineurs. Bien que Meta ait supprimé plusieurs des bots après avoir été contacté par des journalistes, beaucoup ont été actifs.

Certains des chatbots d’IA ont été créés par des utilisateurs extérieurs, mais d’autres venaient de l’intérieur de la méta. Un chatbot fabriqué par une avance de produit dans sa division génératrice de l’IA a usuré Taylor Swift et a invité un Reuters Reporter pour se rencontrer pour une «aventure romantique» dans son bus touristique. Ceci malgré les politiques de Meta interdisant explicitement l’imagerie sexuellement suggestive et l’identité directe des personnalités publiques.

La question de l’identité de l’IA Chatbot est particulièrement sensible. Les célébrités sont confrontées à des risques de réputation lorsque leur ressemblance est mal utilisée, mais les experts soulignent que les utilisateurs ordinaires peuvent également être trompés. Un chatbot faisant semblant d’être un ami, un mentor ou un partenaire romantique peut encourager quelqu’un à partager des informations privées ou même à se rencontrer dans des situations dangereuses.

Risques réels

Les problèmes ne se limitent pas au divertissement. Les chatbots d’IA se faisant passer pour de vraies personnes ont offert de fausses adresses et invitations, ce qui soulève des questions sur la façon dont les outils d’IA de Meta sont surveillés. Un exemple impliquait un homme de 76 ans dans le New Jersey qui est décédé après être tombé alors qu’il se précipitait pour rencontrer un chatbot qui prétendait avoir des sentiments pour lui.

Des cas comme celui-ci illustrent pourquoi les régulateurs regardent de près l’IA. Le Sénat et 44 procureurs généraux ont déjà commencé à enquêter sur les pratiques de Meta, ajoutant une pression politique aux réformes internes de l’entreprise. Leur préoccupation ne concerne pas seulement les mineurs, mais aussi la façon dont l’IA pourrait manipuler les utilisateurs plus âgés ou vulnérables.

Meta dit que cela travaille toujours sur les améliorations. Ses plates-formes placent les utilisateurs de 13 à 18 ans dans des «comptes pour adolescents» avec des paramètres de contenu et de confidentialité plus stricts, mais la société n’a pas encore expliqué comment elle prévoit de résoudre la liste complète des problèmes soulevés par Reuters. Cela comprend des robots offrant de faux conseils médicaux et générant du contenu raciste.

Pression continue sur les politiques de chatbot AI de Meta

Pendant des années, Meta a fait face à des critiques sur la sécurité de ses plateformes de médias sociaux, en particulier en ce qui concerne les enfants et les adolescents. Maintenant, les expériences de chatbot AI de Meta attirent un examen similaire. Alors que l’entreprise prend des mesures pour restreindre le comportement de chatbot nuisible, l’écart entre ses politiques déclarées et la façon dont ses outils ont été utilisés soulèvent des questions en cours sur la question de savoir s’il peut appliquer ces règles.

Jusqu’à ce que des garanties plus fortes ne soient en place, les régulateurs, les chercheurs et les parents continueront probablement de mettre en place la méta pour savoir si son IA est prête pour un usage public.

(Photo de Maxim Tolchinskiy)

Solène Vernet
Solène Vernet
Journaliste française passionnée par la science et les politiques d’innovation, j’écris pour rendre accessibles des sujets complexes. Mon parcours mêle recherche universitaire, communication scientifique et journalisme. J’aime explorer les liens entre technologie, société et transformation du monde.