L’indice économique d’Anthropic offre un aperçu de la manière dont les organisations et les individus utilisent réellement de grands modèles linguistiques. Le rapport contient l’analyse par l’entreprise d’un million d’interactions de consommateurs sur Claude.ai, ainsi que d’un million d’appels d’API d’entreprise, tous datés de novembre 2025. Le rapport note que ses chiffres sont basés sur des observations plutôt que, par exemple, sur un échantillon de décideurs commerciaux ou une enquête générique.
Les cas d’utilisation limités dominent
L’utilisation de l’IA d’Anthropic a tendance à se concentrer autour d’un nombre relativement restreint de tâches, les dix tâches les plus fréquemment exécutées représentant près d’un quart des interactions des consommateurs et près d’un tiers du trafic des API d’entreprise. L’accent est mis sur l’utilisation de Claude pour la création et la modification de code, comme les lecteurs peuvent s’y attendre.
Cette concentration de l’utilisation de l’IA comme outil de développement logiciel est restée assez constante au fil du temps, ce qui suggère que la valeur du modèle repose en grande partie sur ces types de tâches, sans aucune utilisation émergente de Claude à d’autres fins ayant une signification empirique. Cela suggère que les déploiements à grande échelle et généraux de l’IA ont moins de chances de réussir que ceux axés sur des tâches pour lesquelles de grands modèles de langage se sont avérés efficaces.
L’augmentation surpasse l’automatisation
Sur les plateformes grand public, l’utilisation collaborative – dans laquelle les utilisateurs effectuent des requêtes à l’IA au cours d’une conversation virtuelle – est plus courante que l’utilisation de l’IA pour produire des flux de travail automatisés. L’utilisation des API d’entreprise montre le contraire, car les entreprises tentent de réaliser des économies grâce à l’automatisation des tâches. Cependant, même si Claude réussit des tâches plus courtes, la qualité observée des résultats diminue à mesure que la tâche (ou la série de tâches) est complexe et que le « temps de réflexion » requis est long.
Cela implique que l’automatisation est plus efficace pour les tâches routinières et bien définies qui sont plus simples, nécessitent moins d’étapes logiques et pour lesquelles les réponses aux requêtes peuvent être rapides. Les tâches estimées prendre plusieurs heures aux humains affichent des taux d’achèvement nettement inférieurs à ceux des tâches plus courtes. Pour que des tâches plus longues réussissent, les utilisateurs doivent itérer et corriger les résultats.
Les utilisateurs décomposant les tâches volumineuses en étapes gérables et posant chacune séparément (soit de manière interactive, soit via une API) ont amélioré leurs taux de réussite.
Les observations de l’entreprise montrent que la plupart des requêtes adressées aux LLM sont associées à des postes de cols blancs (bien que les pays les plus pauvres aient tendance à utiliser Claude dans les milieux universitaires plus couramment que, par exemple, les États-Unis). Par exemple, les agents de voyages peuvent perdre des tâches de planification complexes au profit du LLM et conserver des éléments de leur travail plus transactionnel, tandis que certains rôles, tels que les gestionnaires immobiliers, montrent le contraire : les tâches administratives de routine peuvent être gérées par l’IA, et les tâches nécessitant un jugement plus élevé restent du ressort du professionnel humain.
Gains de productivité amoindris par la fiabilité
Le rapport note qu’il serait probablement préférable de réduire les allégations selon lesquelles l’IA augmenterait la productivité annuelle du travail de 1,8 % (sur une décennie) à 1-1,2 %, en raison de la nécessité de prendre en compte la main-d’œuvre et les coûts supplémentaires. Même si un gain d’efficacité de 1 % sur une décennie reste économiquement significatif, la nécessité d’activités telles que la validation, la gestion des erreurs et la retouche réduira les taux de réussite et il devrait donc y avoir un ajustement similaire dans l’esprit des décideurs d’une entreprise.
Les gains potentiels pour une organisation déployant l’IA dépendent également de la question de savoir si les tâches confiées au LLM complètent ou remplacent le travail. Dans ce dernier cas, le succès de la substitution d’une IA à des tâches normalement effectuées par un humain dépend de la complexité du travail.
Il convient de noter que le rapport constate une corrélation presque parfaite entre la sophistication des invites des utilisateurs au LLM et les résultats positifs. Ainsi, la manière dont les gens utilisent l’IA façonne ce qu’elle offre.
Points clés à retenir pour les dirigeants
- La mise en œuvre de l’IA génère de la valeur plus rapidement dans des domaines spécifiques et bien définis.
- Les systèmes complémentaires (IA+humain) surpassent l’automatisation complète pour les travaux complexes.
- La fiabilité et le travail supplémentaire nécessaire « autour » de l’IA réduisent les gains de productivité prévus.
- Les changements dans la composition de la main-d’œuvre dépendent de la combinaison de tâches et de leur complexité, et non de fonctions spécifiques.
(Source de l’image : « l’ouvrier du bâtiment virtuel » d’antjeverena est sous licence CC BY-NC-SA 2.0.)