Les géants de la technologie se séparent sur le code de l’UE AI alors que la date limite de conformité se profile

La mise en œuvre du code de pratique à usage général de l’IA de l’UE a exposé des divisions profondes entre les grandes sociétés technologiques. Microsoft a signalé son intention de signer le cadre de conformité volontaire de l’IA de l’Union européenne tandis que la méta refuse catégoriquement la participation, qualifiant les directives de dépassement réglementaire qui étoufferont l’innovation.

Le président de Microsoft, Brad Smith, a dit Reuters Vendredi, «Je pense qu’il est probable que nous signerons. Nous devons lire les documents.». Smith a souligné l’approche collaborative de son entreprise, déclarant: «Notre objectif est de trouver un moyen de soutenir, et en même temps, l’une des choses que nous accueillons est l’engagement direct de l’IA Office avec l’industrie.»

En revanche, le directeur des affaires mondiales de Meta, Joel Kaplan, a annoncé sur LinkedIn que «Meta ne le signnera pas. Le code introduit plusieurs incertitudes juridiques pour les développeurs de modèles, ainsi que des mesures qui vont bien au-delà de la portée de la loi sur l’IA.»

Kaplan a fait valoir que «l’Europe se dirige vers le mauvais chemin sur l’IA» et a averti que le code de l’IA de l’UE «étranglerait le développement et le déploiement de modèles d’IA frontaliers en Europe, et les entreprises européennes de la cascade qui cherchent à créer des entreprises en plus.»

Adoptateurs précoces vs Holdouts

La réponse fracturée du secteur technologique met en évidence différentes stratégies pour gérer la conformité réglementaire européenne. Openai et Mistral ont signé le code, se positionnant comme des adoptants précoces du cadre volontaire.

OpenAI a annoncé son engagement, déclarant: «La signature du code reflète notre engagement à fournir des modèles d’IA capables, accessibles et sécurisés aux Européens pour participer pleinement aux avantages économiques et sociétaux de l’âge du renseignement.»

Openai rejoint le code de pratique de l’UE pour les modèles d’IA à usage général, la deuxième signature d’une entreprise d’IA principale après Mistral, selon les observateurs de l’industrie qui suivent les engagements volontaires.

Plus de 40 des plus grandes entreprises européennes ont signé une lettre plus tôt ce mois-ci, demandant à la Commission européenne de stopper la mise en œuvre de la loi sur l’IA, y compris des sociétés comme ASML Holding et Airbus qui appelait à un délai de deux ans.

Exigences du code et chronologie

Le Code de pratique a été publié le 10 juillet par la Commission européenne et vise à fournir une certitude juridique aux entreprises développant des modèles d’IA généraux avant l’application obligatoire à partir du 2 août 2025.

L’outil volontaire a été développé par 13 experts indépendants, avec des commentaires de plus de 1 000 parties prenantes, y compris des fournisseurs de modèles, des petites et moyennes entreprises, des universitaires, des experts en sécurité de l’IA, des droits-détenteurs et des organisations de la société civile.

Le code de l’UE AI établit des exigences dans trois domaines. Les obligations de transparence obligent les prestataires à maintenir le modèle technique et la documentation de l’ensemble de données, tandis que la conformité au droit d’auteur oblige les politiques internes claires décrivant comment les données de formation sont obtenues et utilisées dans le cadre des règles du droit d’auteur de l’UE.

Pour les modèles les plus avancés, les obligations de sécurité et de sécurité s’appliquent dans la catégorie, «GPAI avec risque systémique» (GPAISR), qui couvre les modèles les plus avancés, comme O3 d’Openai, Claude 4 Opus d’Anthropic et Gemini 2.5 Pro de Google.

Les signataires devront publier des résumés du contenu utilisé pour former leurs modèles d’IA à usage général et mettre en place une politique pour se conformer à la loi sur le droit d’auteur de l’UE. Le cadre oblige les entreprises à documenter les sources de données de formation, à mettre en œuvre des évaluations solides des risques et à établir des cadres de gouvernance pour gérer les menaces potentielles du système d’IA.

Application et pénalités

Les pénalités de non-conformité sont substantielles, dont jusqu’à 35 millions d’euros ou 7% du chiffre d’affaires annuel mondial (le plus élevé de l’un ou l’autre). En particulier, pour les fournisseurs de modèles GPAI, la CE peut imposer une amende pouvant aller jusqu’à 15 millions d’euros ou 3% du chiffre d’affaires annuel mondial.

La Commission a indiqué que si les prestataires adhèrent à un code de pratique approuvé, le bureau de l’IA et les régulateurs nationaux traiteront cela comme un chemin de conformité simplifié, concentrant l’application de la vérification que les engagements du code sont respectés, plutôt que d’effectuer des audits de chaque système d’IA. Cela crée des incitations à l’adoption précoce parmi les entreprises qui recherchent une prévisibilité réglementaire.

Le code de l’UE AI représente une partie du cadre de la loi Broadeerai. En vertu de la loi sur l’IA, les obligations pour les modèles GPAI, détaillées dans les articles 50 à 55, sont exécutoires douze mois après l’entrée en vigueur de la loi (2 août 2025). Les fournisseurs de modèles GPAI qui ont été placés sur le marché avant cette date doivent être conformes à la loi sur l’IA d’ici le 2 août 2027.

Impact de l’industrie et implications mondiales

Les différentes réponses suggèrent que les entreprises technologiques adoptent des stratégies fondamentalement différentes pour gérer les relations réglementaires sur les marchés mondiaux. La position coopérative de Microsoft contraste fortement avec l’approche conflictuelle de Meta, éventuellement établir des précédents sur la façon dont les principaux développeurs d’IA s’engagent dans la réglementation internationale.

Malgré l’opposition croissante, la Commission européenne a refusé de retarder. Le commissaire interne du marché de l’UE, Thierry Breton, a insisté sur le fait que le cadre se déroulera comme prévu, affirmant que la loi sur l’IA est essentielle pour la sécurité et la confiance des consommateurs dans les technologies émergentes.

La nature volontaire actuelle du code de l’UE AI au cours des phases initiales offre aux entreprises des opportunités d’influencer le développement réglementaire grâce à la participation. Cependant, l’application obligatoire à partir d’août 2025 assure une éventuelle conformité, quelle que soit l’adoption volontaire du code.

Pour les entreprises opérant dans plusieurs juridictions, le cadre de l’UE peut influencer les normes mondiales de gouvernance de l’IA. Le cadre s’aligne sur les développements globaux de gouvernance mondiale de l’IA, y compris le processus G7 Hiroshima AI et diverses stratégies nationales d’IA, établissant potentiellement les approches européennes comme références internationales.

En avant

Dans le terme immédiat, le contenu du code sera examiné par les autorités de l’UE: la Commission européenne et les États membres évaluent l’adéquation du code et devraient l’approuver officiellement, avec une décision finale prévue d’ici le 2 août 2025.

Le cadre réglementaire crée des implications importantes pour le développement de l’IA dans le monde, car les entreprises doivent équilibrer les objectifs de l’innovation avec des obligations de conformité dans plusieurs juridictions. Les différentes réponses de l’entreprise au code volontaire préfigurent les défis potentiels de conformité à mesure que les exigences obligatoires prennent effet.

Solène Vernet
Solène Vernet
Journaliste française passionnée par la science et les politiques d’innovation, j’écris pour rendre accessibles des sujets complexes. Mon parcours mêle recherche universitaire, communication scientifique et journalisme. J’aime explorer les liens entre technologie, société et transformation du monde.