Le dernier modèle d’IA de Deepseek a un «grand pas en arrière» pour la liberté d’expression

Le dernier modèle d’IA de Deepseek, R1 0528, a haussé les sourcils pour une nouvelle régression de la liberté d’expression et de ce que les utilisateurs peuvent discuter. «Un grand pas en arrière pour la liberté d’expression», c’est comment un éminent chercheur d’IA a résumé

Le chercheur de l’IA et commentateur en ligne populaire «XLR8Hardeur» a mis le modèle à l’épreuve, partageant les résultats qui suggèrent que Deepseek augmente ses restrictions de contenu.

« Deepseek R1 0528 est sensiblement moins permissif sur les sujets de liberté d’expression controversés que les versions Deepseek précédentes », a noté le chercheur. Ce qui n’est pas clair, c’est si cela représente un changement délibéré de philosophie ou simplement une approche technique différente de la sécurité de l’IA.

Ce qui est particulièrement fascinant dans le nouveau modèle, c’est comment il applique de manière incohérente ses limites morales.

Dans un test de liberté d’expression, lorsqu’on lui a demandé de présenter des arguments soutenant les camps d’internement dissidents, le modèle d’IA a catégoriquement refusé. Mais, dans son refus, il a spécifiquement mentionné les camps d’internement du Xinjiang en Chine comme exemples de violations des droits de l’homme.

Pourtant, lorsqu’il est directement interrogé sur ces mêmes camps du Xinjiang, le modèle a soudainement livré des réponses fortement censurées. Il semble que cette IA connaisse certains sujets controversés, mais il a été invité à jouer stupide lorsqu’on lui a demandé directement.

« Il est intéressant mais pas entièrement surprenant qu’il soit capable de proposer les camps comme exemple d’abus des droits de l’homme, mais nie lorsqu’on lui a demandé directement », a observé le chercheur.

Critique en Chine? L’ordinateur dit non

Ce modèle devient encore plus prononcé lors de l’examen du traitement par le modèle des questions sur le gouvernement chinois.

En utilisant des ensembles de questions établis conçus pour évaluer la liberté d’expression dans les réponses de l’IA à des sujets politiquement sensibles, le chercheur a découvert que R1 0528 est «le modèle en profondeur le plus censuré à ce jour pour la critique du gouvernement chinois».

Lorsque des modèles Deepseek précédents auraient pu offrir des réponses mesurées aux questions sur la politique chinoise ou les questions de droits de l’homme, cette nouvelle itération refuse fréquemment de s’engager du tout – un développement inquiétant pour ceux qui apprécient les systèmes d’IA qui peuvent discuter ouvertement des affaires mondiales.

Il y a cependant une doublure argentée à ce nuage. Contrairement aux systèmes fermés de grandes entreprises, les modèles de Deepseek restent open-source avec des licences permissives.

« Le modèle est open source avec une licence permissive, afin que la communauté puisse (et sera) aborder cela », a noté le chercheur. Cette accessibilité signifie que la porte reste ouverte aux développeurs afin de créer des versions qui équilibrent mieux la sécurité avec l’ouverture.

Ce que le dernier modèle de Deepseek montre la liberté d’expression à l’ère AI

La situation révèle quelque chose de assez sinistre sur la façon dont ces systèmes sont construits: ils peuvent connaître les événements controversés tout en étant programmé pour prétendre qu’ils ne le font pas, selon la façon dont vous expliquez votre question.

Alors que l’IA continue sa marche dans notre vie quotidienne, trouver le bon équilibre entre des garanties raisonnables et un discours ouvert devient de plus en plus crucial. Trop restrictif, et ces systèmes deviennent inutiles pour discuter de sujets importants mais conflictuels. Trop permissif, et ils risquent de permettre un contenu nocif.

Deepseek n’a pas abordé publiquement le raisonnement derrière ces restrictions et régression accrues dans la liberté d’expression, mais la communauté de l’IA travaille déjà sur les modifications. Pour l’instant, affrontez cela comme un autre chapitre du tir à la corde en cours entre la sécurité et l’ouverture dans l’intelligence artificielle.

(Photo de John Cameron)

Solène Vernet
Solène Vernet
Journaliste française passionnée par la science et les politiques d’innovation, j’écris pour rendre accessibles des sujets complexes. Mon parcours mêle recherche universitaire, communication scientifique et journalisme. J’aime explorer les liens entre technologie, société et transformation du monde.