Sans règles, l’IA risque la «crise de confiance»

Le monde est dans une course au déploiement de l’IA, mais une voix principale de l’éthique technologique avertit la priorité à la vitesse sur la sécurité des risques de «crise de confiance».

Suvianna Grecu, fondatrice de l’IA For Change Foundation, fait valoir que sans une gouvernance immédiate et forte, nous sommes sur la voie de «l’automatisation des dommages à grande échelle».

S’exprimant sur l’intégration de l’IA dans les secteurs critiques, Grecu pense que le danger éthique le plus urgent n’est pas la technologie elle-même, mais le manque de structure entourant son déploiement.

Les systèmes puissants prennent de plus en plus des décisions qui changent la vie concernant tout, des demandes d’emploi et des scores de crédit aux soins de santé et à la justice pénale, souvent sans test suffisant de biais ou de considération de leur impact sociétal à long terme.

Pour de nombreuses organisations, l’éthique de l’IA reste un document de principes élevés plutôt qu’une réalité opérationnelle quotidienne. Grecu insiste sur le fait que la véritable responsabilité ne commence que lorsque quelqu’un est rendu responsable des résultats. L’écart entre l’intention et la mise en œuvre est l’endroit où réside le risque réel.

La Fondation de Grecu défend un passage des idées abstraites à l’action concrète. Cela implique d’intégrer des considérations éthiques directement dans les flux de travail de développement grâce à des outils pratiques tels que des listes de contrôle de conception, des évaluations obligatoires des risques préalables au déploiement et des comités d’examen interfonctionnels qui rassemblent les équipes juridiques, techniques et politiques.

Selon Grecu, la clé est d’établir une propriété claire à chaque étape, en créant des processus transparents et reproductibles comme vous le feriez pour toute autre fonction commerciale principale. Cette approche pratique cherche à faire progresser l’IA éthique, la transformant d’un débat philosophique dans un ensemble de tâches gérables et quotidiennes.

Partenariat pour construire une confiance en IA et atténuer les risques

En ce qui concerne l’application, Grecu est clair que la responsabilité ne peut pas incomber au gouvernement ou à l’industrie. «Ce n’est pas non plus ou, ce doit être les deux», déclare-t-elle, plaidant pour un modèle collaboratif.

Dans ce partenariat, les gouvernements doivent établir les limites légales et les normes minimales, en particulier lorsque les droits humains fondamentaux sont en jeu. La réglementation fournit l’étage essentiel. Cependant, l’industrie possède l’agilité et les talents techniques pour innover au-delà de la simple conformité.

Les entreprises sont les mieux placées pour créer des outils d’audit avancés, pionnier de nouvelles garanties et repousser les limites de ce que la technologie responsable peut réaliser.

Laisser entièrement la gouvernance aux régulateurs risque d’étouffer l’innovation même dont nous avons besoin, tout en laissant les sociétés seules invite à abuser. «La collaboration est la seule route durable», affirme Grecu.

Promouvoir un avenir axé sur la valeur

En regardant au-delà des défis immédiats, Grecu est préoccupé par des risques plus subtils et à long terme qui reçoivent une attention insuffisante, à savoir la manipulation émotionnelle et le besoin urgent d’une technologie axée sur la valeur.

Alors que les systèmes d’IA deviennent plus aptes à persuader et à influencer l’émotion humaine, elle prévient que nous ne sommes pas préparés aux implications que cela a pour l’autonomie personnelle.

Un principe de base de son travail est l’idée que la technologie n’est pas neutre. «L’IA ne sera pas motivée par les valeurs, à moins que nous ne les construisions intentionnellement», prévient-elle. C’est une idée fausse commune que l’IA reflète simplement le monde tel quel. En réalité, il reflète les données que nous lui alimentons, les objectifs que nous lui attribuons et les résultats que nous récompensons.

Sans intervention délibérée, l’IA optimisera invariablement des mesures telles que l’efficacité, l’échelle et le profit, et non pour les idéaux abstraits comme la justice, la dignité ou la démocratie, et qui auront naturellement un impact sur la confiance sociétale. C’est pourquoi un effort conscient et proactif est nécessaire pour décider quelles valeurs nous voulons que notre technologie favorise.

Pour l’Europe, cela présente une opportunité critique. «Si nous voulons que l’IA serve les humains (pas seulement les marchés), nous devons protéger et intégrer des valeurs européennes comme les droits de l’homme, la transparence, la durabilité, l’inclusion et l’équité à chaque couche: politique, conception et déploiement», explique Grecu.

Il ne s’agit pas d’arrêter les progrès. Comme elle le conclut, il s’agit de prendre le contrôle du récit et de «le façonner activement avant qu’il ne nous façonne».

Grâce au travail de sa fondation – y compris des ateliers publics et lors de la prochaine AI & Big Data Expo Europe, où Grecu est président du deuxième jour de l’événement – elle construit une coalition pour guider l’évolution de l’IA et stimuler la confiance en gardant l’humanité en son centre.

(Photo de Cash Macanaya)

Solène Vernet
Solène Vernet
Journaliste française passionnée par la science et les politiques d’innovation, j’écris pour rendre accessibles des sujets complexes. Mon parcours mêle recherche universitaire, communication scientifique et journalisme. J’aime explorer les liens entre technologie, société et transformation du monde.