L’histoire de l’expansion d’Anthropic UK concerne moins la cour diplomatique que ce qui se passe lorsqu’un gouvernement punit une entreprise pour ses principes. Fin février, le secrétaire américain à la Défense, Pete Hegseth, a lancé un ultimatum sévère au PDG d’Anthropic, Dario Amodei : supprimer les garde-fous empêchant Claude d’être utilisé pour des armes entièrement autonomes et une surveillance de masse nationale, sous peine d’en subir les conséquences.
Amodei n’a pas bougé. Il a écrit qu’Anthropic ne pouvait pas « en bonne conscience » accéder à la demande du Pentagone, arguant que certaines utilisations de l’IA « peuvent saper plutôt que défendre les valeurs démocratiques ». La réponse de Washington a été rapide.
Trump a ordonné à toutes les agences fédérales de cesser immédiatement toute utilisation de la technologie d’Anthropic, et le Pentagone a désigné l’entreprise comme un risque pour la chaîne d’approvisionnement, une étiquette habituellement réservée aux entités étrangères adverses comme Huawei. Le contrat du Pentagone de 200 millions de dollars a été retiré.
Les entreprises de technologie de défense ont demandé à leurs employés de cesser d’utiliser Claude et de passer à des alternatives. Londres, regardant tout cela se dérouler, a vu quelque chose de différent.
Le discours du Royaume-Uni
Le personnel du ministère britannique de la Science, de l’Innovation et de la Technologie (DSIT) a élaboré des propositions pour l’entreprise de 380 milliards de dollars, allant d’une double cotation à la Bourse de Londres à une extension de bureaux dans la capitale, selon plusieurs personnes connaissant les projets. Le bureau du Premier ministre Keir Starmer a soutenu cet effort, qui sera présenté à Amodei lors de sa visite fin mai.
Anthropic compte déjà environ 200 employés en Grande-Bretagne et a nommé l’année dernière l’ancien premier ministre Rishi Sunak comme conseiller principal. L’infrastructure nécessaire à une présence significative au Royaume-Uni existe déjà. Ce que le gouvernement britannique propose désormais est un signal explicite selon lequel l’approche d’Anthropic en matière d’IA – construite sur des contraintes éthiques intégrées – est un atout et non un obstacle.
Une double cotation à Londres, si elle se matérialisait, donnerait à Anthropic un accès aux investisseurs institutionnels européens à un moment où sa réglementation nationale reste activement contestée sur le plan juridique. L’appel du Pentagone contre l’injonction ordonnée par le tribunal bloquant la désignation de la chaîne d’approvisionnement est toujours devant le neuvième circuit, et l’issue reste incertaine.
L’éthique comme avantage concurrentiel
Le différend a été largement présenté comme un combat juridique et politique. Mais ses implications pour la gouvernance mondiale de l’IA sont plus profondes. Les avocats d’Anthropic ont fait valoir devant le tribunal que Claude n’avait pas été développé pour être utilisé comme arme autonome mortelle sans surveillance humaine, ni déployé pour espionner les citoyens américains, et que l’utilisation de ces outils de cette manière constituerait un abus de sa technologie.
La juge de district américaine Rita Lin, qui a accordé une injonction préliminaire bloquant la liste noire en mars, a jugé les actions du gouvernement « troublantes » et a conclu qu’elles violaient probablement la loi. Cette conclusion judiciaire est importante dans le contexte britannique. La Grande-Bretagne se positionne comme un environnement réglementaire situé entre la position actuelle de Washington, qui exige un accès militaire sans restriction, et celle de Bruxelles, où la loi européenne sur l’IA impose ses propres contraintes.
Le gouvernement britannique se présente comme offrant un environnement moins contraint aux entreprises d’IA que les États-Unis ou l’Union européenne. Surtout, ce discours ne demande pas à Anthropic d’abandonner les garde-fous qu’il a défendus devant les tribunaux.
Cette démarche s’inscrit également dans le cadre d’efforts plus larges du Royaume-Uni visant à renforcer les capacités nationales d’IA, notamment la création d’un laboratoire de recherche soutenu par l’État, récemment annoncé, d’une valeur de 40 millions de livres sterling, après que les responsables ont reconnu l’absence d’un concurrent local pour les principaux laboratoires frontaliers américains.
Concours à Londres
Le projet du Royaume-Uni pour Anthropic ne se déroule pas en vase clos. OpenAI s’est déjà engagé à faire de Londres son plus grand centre de recherche en dehors des États-Unis. Google s’est ancré à King’s Cross depuis l’acquisition de DeepMind en 2014. La course pour sécuriser l’IA à Londres est déjà compétitive, et la situation actuelle d’Anthropic en fait la cible la plus importante à ce jour.
Anthropic s’est développé à l’international malgré ses batailles juridiques nationales, notamment en ouvrant un bureau à Sydney comme quatrième site en Asie-Pacifique. La stratégie de croissance mondiale est déjà en marche. Reste à savoir quelle part Londres pourra en réclamer.
L’entreprise mise sur liste noire par Washington pour avoir adopté une politique d’éthique en matière d’IA est désormais activement courtisée par un autre gouvernement du G7 qui souhaite exactement cela. Les rencontres de fin mai avec Amodei seront révélatrices.
Voir aussi : Anthropic sélectionné pour créer un projet pilote d’assistant gouvernemental en matière d’IA