Au cours de la dernière année, on nous a dit que l’intelligence artificielle révolutionnait la productivité en nous aidant à rédiger des e-mails, à générer du code et à résumer des documents. Mais et si la réalité de la manière dont les gens utilisent réellement l’IA était complètement différente de ce qu’on nous laisse croire ?
Une étude basée sur les données d’OpenRouter vient de lever le rideau sur l’utilisation réelle de l’IA en analysant plus de 100 000 milliards de jetons, soit des milliards et des milliards de conversations et d’interactions avec de grands modèles de langage comme ChatGPT, Claude et des dizaines d’autres. Les résultats remettent en question de nombreuses hypothèses sur la révolution de l’IA.
OpenRouter est une plate-forme d’inférence d’IA multimodèle qui achemine les requêtes sur plus de 300 modèles provenant de plus de 60 fournisseurs, d’OpenAI et Anthropic à des alternatives open source comme DeepSeek et Meta’s LLaMA.
Avec plus de 50 % de son utilisation provenant de l’extérieur des États-Unis et au service de millions de développeurs dans le monde, la plate-forme offre un aperçu unique de la manière dont l’IA est réellement déployée dans différentes zones géographiques, cas d’utilisation et types d’utilisateurs.
Il est important de noter que l’étude a analysé les métadonnées de milliards d’interactions sans accéder au texte réel des conversations, préservant ainsi la confidentialité des utilisateurs tout en révélant des modèles de comportement.
La révolution du jeu de rôle que personne n’avait vue venir
La découverte la plus surprenante est peut-être : plus de la moitié de l’utilisation des modèles d’IA open source n’est pas du tout destinée à la productivité. C’est pour le jeu de rôle et la narration créative.
Oui, vous avez bien lu. Alors que les responsables technologiques vantent le potentiel de l’IA pour transformer les entreprises, les utilisateurs passent la majorité de leur temps à participer à des conversations axées sur les personnages, à des fictions interactives et à des scénarios de jeux.
Plus de 50 % des interactions de modèles open source entrent dans cette catégorie, éclipsant même l’assistance à la programmation.

« Cela contredit l’hypothèse selon laquelle les LLM sont principalement utilisés pour rédiger du code, des e-mails ou des résumés », indique le rapport. « En réalité, de nombreux utilisateurs s’engagent avec ces modèles à des fins de compagnie ou d’exploration. »
Il ne s’agit pas simplement d’une conversation informelle. Les données montrent que les utilisateurs traitent les modèles d’IA comme des moteurs de jeu de rôle structurés, 60 % des jetons de jeu de rôle relevant de scénarios de jeu et de contextes d’écriture créative spécifiques. Il s’agit d’un cas d’utilisation massif et largement invisible qui remodèle la façon dont les entreprises d’IA envisagent leurs produits.
L’ascension fulgurante de la programmation
Alors que le jeu de rôle domine l’utilisation de l’open source, la programmation est devenue la catégorie qui connaît la croissance la plus rapide parmi tous les modèles d’IA. Début 2025, les requêtes liées au codage ne représentaient que 11 % de l’utilisation totale de l’IA. À la fin de l’année, ce chiffre avait explosé pour atteindre plus de 50 %.
Cette croissance reflète l’intégration croissante de l’IA dans le développement de logiciels. La longueur moyenne des invites pour les tâches de programmation a quadruplé, passant d’environ 1 500 jetons à plus de 6 000, certaines requêtes liées au code dépassant 20 000 jetons, ce qui équivaut à peu près à introduire une base de code entière dans un modèle d’IA à des fins d’analyse.
Pour le contexte, les requêtes de programmation génèrent désormais certaines des interactions les plus longues et les plus complexes de tout l’écosystème de l’IA. Les développeurs ne demandent plus seulement de simples extraits de code ; ils mènent des sessions de débogage sophistiquées, des révisions architecturales et une résolution de problèmes en plusieurs étapes.
Les modèles Claude d’Anthropic dominent cet espace, capturant plus de 60 % de l’utilisation liée à la programmation pendant la majeure partie de 2025, bien que la concurrence s’intensifie à mesure que Google, OpenAI et les alternatives open source gagnent du terrain.

L’essor de l’IA chinoise
Autre révélation majeure : les modèles d’IA chinois représentent désormais environ 30 % de l’utilisation mondiale, soit près du triple de leur part de 13 % début 2025.
Les modèles de DeepSeek, Qwen (Alibaba) et Moonshot AI ont rapidement gagné du terrain, DeepSeek traitant à lui seul 14,37 billions de jetons au cours de la période d’étude. Cela représente un changement fondamental dans le paysage mondial de l’IA, dans lequel les entreprises occidentales ne détiennent plus une domination incontestée.
Le chinois simplifié est désormais la deuxième langue la plus courante pour les interactions avec l’IA dans le monde, avec 5 % de l’utilisation totale, derrière l’anglais avec 83 %. La part globale des dépenses en IA en Asie a plus que doublé, passant de 13 % à 31 %, Singapour devenant le deuxième pays en termes d’utilisation après les États-Unis.

L’essor de l’IA « agentique »
L’étude introduit un concept qui définira la prochaine phase de l’IA : l’inférence agentique. Cela signifie que les modèles d’IA ne se contentent plus de répondre à des questions uniques : ils exécutent des tâches en plusieurs étapes, appellent des outils externes et raisonnent au travers de conversations étendues.
La part des interactions d’IA classées comme « optimisées pour le raisonnement » est passée de presque zéro début 2025 à plus de 50 % à la fin de l’année. Cela reflète un changement fondamental de l’IA en tant que générateur de texte à l’IA en tant qu’agent autonome capable de planifier et d’exécuter.
« La demande médiane de LLM n’est plus une simple question ou une instruction isolée », expliquent les chercheurs. « Au lieu de cela, il fait partie d’une boucle structurée, semblable à un agent, invoquant des outils externes, raisonnant sur l’état et persistant dans des contextes plus longs. »
Pensez-y de cette façon : au lieu de demander à l’IA « d’écrire une fonction », vous lui demandez maintenant de « déboguer cette base de code, d’identifier le goulot d’étranglement des performances et de mettre en œuvre une solution » – et elle peut réellement le faire.
L’effet « pantoufle de verre »
L’une des conclusions les plus fascinantes de l’étude concerne la fidélisation des utilisateurs. Les chercheurs ont découvert ce qu’ils appellent l’effet « Pantoufle de verre » de Cendrillon, un phénomène dans lequel les modèles d’IA qui sont « les premiers à résoudre » un problème critique fidélisent durablement les utilisateurs.
Lorsqu’un modèle récemment lancé correspond parfaitement à un besoin jusqu’alors non satisfait – la métaphorique « pantoufle de verre » – les premiers utilisateurs restent beaucoup plus longtemps que les adoptants ultérieurs. Par exemple, la cohorte de juin 2025 du Gemini 2.5 Pro de Google a retenu environ 40 % des utilisateurs au cinquième mois, soit un chiffre nettement plus élevé que les cohortes ultérieures.
Cela remet en question les idées reçues sur la concurrence en matière d’IA. Être le premier compte, mais être le premier à résoudre un problème de grande valeur crée un avantage concurrentiel durable. Les utilisateurs intègrent ces modèles dans leurs flux de travail, ce qui rend le changement coûteux à la fois techniquement et comportementalement.
Le coût n’a pas d’importance (autant qu’on pourrait le penser)
Peut-être contre-intuitivement, l’étude révèle que l’utilisation de l’IA est relativement inélastique au prix. Une baisse de prix de 10 % correspond à seulement une augmentation d’environ 0,5 à 0,7 % de l’utilisation.
Les modèles premium d’Anthropic et OpenAI coûtent entre 2 et 35 $ par million de jetons tout en maintenant une utilisation élevée, tandis que les options budgétaires comme DeepSeek et Gemini Flash de Google atteignent une échelle similaire à moins de 0,40 $ par million de jetons. Les deux cohabitent avec succès.
« Le marché du LLM ne semble pas encore se comporter comme une marchandise », conclut le rapport. « Les utilisateurs équilibrent le coût avec la qualité du raisonnement, la fiabilité et l’étendue des capacités. »
Cela signifie que l’IA n’est pas devenue une course vers le bas en matière de prix. La qualité, la fiabilité et les capacités exigent toujours des primes, du moins pour le moment.
Ce que cela signifie pour l’avenir
L’étude OpenRouter dresse un tableau de l’utilisation réelle de l’IA bien plus nuancé que ne le suggèrent les récits de l’industrie. Oui, l’IA transforme la programmation et le travail professionnel. Mais cela crée également des catégories entièrement nouvelles d’interaction homme-machine à travers les jeux de rôle et les applications créatives.
Le marché se diversifie géographiquement, la Chine émergeant comme une force majeure. La technologie évolue d’une simple génération de texte à un raisonnement complexe en plusieurs étapes. Et la fidélité des utilisateurs dépend moins du fait d’être le premier sur le marché que du fait d’être le premier à véritablement résoudre un problème.
Comme le note le rapport, « la manière dont les gens utilisent les LLM ne correspond pas toujours aux attentes et varie considérablement d’un pays à l’autre, d’un État à l’autre, d’un cas d’utilisation à l’autre ».
Comprendre ces modèles du monde réel (et pas seulement les scores de référence ou les allégations marketing) sera crucial à mesure que l’IA s’intègre davantage dans la vie quotidienne. L’écart entre la façon dont nous pensons que l’IA est utilisée et la manière dont elle est réellement utilisée est plus grand que la plupart ne le pensent. Cette étude contribue à combler cet écart.
