Experian découvre le paradoxe de la fraude à l’IA dans les services financiers

La même technologie déployée par les institutions financières est utilisée contre elles comme une arme. C’est la tension centrale qui traverse les prévisions d’Experian sur l’avenir de la fraude pour 2026, et c’est une tension que l’entreprise est en mesure de nommer car elle se situe des deux côtés.

Selon les données de la FTC citées dans les prévisions, les consommateurs ont perdu plus de 12,5 milliards de dollars à cause de la fraude en 2024. Selon les propres données d’Experian accompagnant le rapport, près de 60 % des entreprises ont signalé une augmentation des pertes liées à la fraude entre 2024 et 2025. Les solutions de prévention de la fraude d’Experian ont aidé les clients à éviter environ 19 milliards de dollars de pertes liées à la fraude dans le monde en 2025, un chiffre qui souligne l’ampleur du problème et la mesure dans laquelle la défense dépend désormais. Une IA à la hauteur de la vitesse et de l’autonomie des attaques.

La problématique de l’IA agentique

La conclusion la plus urgente des prévisions d’Experian est ce que l’entreprise appelle le chaos de machine à machine, le point auquel les systèmes d’IA agentiques, conçus pour effectuer des transactions de manière autonome au nom des utilisateurs, deviennent impossibles à distinguer des robots que les fraudeurs déploient dans le même but.

Selon les prévisions d’Experian, alors que les organisations s’efforcent d’intégrer des agents d’IA capables de prendre des décisions indépendantes, les fraudeurs exploitent ces mêmes systèmes pour mener des fraudes numériques à grande échelle à une échelle et à une vitesse qu’aucune opération humaine ne pourrait supporter. Le principal défi, selon le rapport, est que les interactions de machine à machine n’entraînent pas de responsabilité claire ; Lorsqu’un agent IA initie une transaction qui s’avère frauduleuse, la question de savoir qui est responsable n’a pas de réponse définitive.

Kathleen Peters, directrice de l’innovation pour la fraude et l’identité chez Experian North America, a formulé le problème : « La technologie accélère l’évolution de la fraude, la rendant plus sophistiquée et plus difficile à détecter. En combinant des données différenciées avec des analyses avancées et une technologie de pointe, les entreprises peuvent renforcer les défenses contre la fraude, protéger les consommateurs et offrir des expériences sécurisées et transparentes. »

Experian prédit que cela atteindra un point critique en 2026, obligeant l’industrie à engager des discussions approfondies sur la responsabilité et la gouvernance de l’IA agentique dans le commerce. Certaines organisations prennent déjà des mesures préventives. Amazon, par exemple, a déclaré qu’il empêchait les agents d’IA tiers de naviguer et d’effectuer des transactions sur sa plate-forme, invoquant des problèmes de sécurité et de confidentialité.

Quatre autres menaces identifiées par les prévisions

Au-delà de la question de l’IA agentique, les prévisions d’Experian identifient quatre tendances supplémentaires que les institutions financières devront prendre en compte en 2026.

De faux candidats infiltrant le personnel à distance ; Les outils d’IA générative peuvent désormais produire des CV sur mesure et des vidéos deepfake en temps réel capables de réussir des entretiens d’embauche. Selon les prévisions, les employeurs intégreront des individus qui ne sont pas ceux qu’ils prétendent être, permettant ainsi aux mauvais acteurs d’accéder aux systèmes internes. Le FBI et le ministère de la Justice ont émis de multiples avertissements en 2025 concernant des cas documentés d’agents nord-coréens utilisant cette approche pour obtenir un emploi dans des entreprises américaines.

Le clonage de sites Web submerge les équipes chargées de la fraude ; Les outils d’IA ont rendu plus facile la création de répliques de sites légitimes et plus difficile leur suppression définitive. Selon les prévisions, même après que les demandes de retrait ont été traitées, les domaines usurpés continuent de refaire surface, obligeant les équipes chargées de la fraude à adopter des schémas réactifs.

Des robots frauduleux émotionnellement intelligents ; L’IA générative signifie que les robots peuvent mener des fraudes amoureuses complexes et des escroqueries liées aux proches dans le besoin sans opérateurs humains. Selon les prévisions d’Experian, ces robots réagissent de manière convaincante, instaurent la confiance sur de longues périodes et sont de plus en plus difficiles à distinguer d’une véritable interaction humaine.

Vulnérabilités de la maison intelligente : Les appareils tels que les assistants virtuels, les serrures intelligentes et les appareils connectés créent de nouveaux points d’entrée pour les fraudeurs. Experian prévoit que des acteurs malveillants exploiteront ces appareils pour accéder aux données personnelles et surveiller l’activité des ménages, à mesure que la maison connectée occupe une place de plus en plus importante dans le comportement financier quotidien.

Réponses des institutions financières

Selon le rapport d’Experian sur les perceptions de l’IA, qui s’appuie sur les réponses de plus de 200 décideurs d’institutions financières de premier plan, 84 % d’entre eux identifient l’IA comme une priorité critique ou élevée pour leur stratégie commerciale au cours des deux prochaines années. 89 % supplémentaires déclarent que l’IA jouera un rôle important dans le cycle de vie des prêts.

Toutefois, c’est dans la dimension de la gouvernance que les institutions rencontrent des difficultés. Selon le même rapport, 73 % des personnes interrogées sont préoccupées par l’environnement réglementaire autour de l’IA, et 65 % identifient les données prêtes pour l’IA comme l’un de leurs plus grands défis de déploiement. La qualité des données a été considérée comme le facteur le plus important dans le choix d’un fournisseur d’IA, ce qui place le positionnement d’Experian axé sur les données à l’intersection de ce dont les institutions financières disent avoir le plus besoin.

Du côté de la conformité, l’assistant de gestion des risques de modèle basé sur l’IA d’Experian répond à l’une des exigences les plus gourmandes en ressources auxquelles sont confrontées les institutions déployant l’IA. Selon une étude Experian de 2025 portant sur plus de 500 institutions financières mondiales, 67 % ont du mal à répondre aux exigences réglementaires de leur pays, 79 % signalent des communications de surveillance plus fréquentes de la part des régulateurs qu’il y a un an et 60 % utilisent encore des processus de conformité manuels. Dans l’annonce d’Experian, la société déclare que plus de 70 % des grandes institutions déclarent que la conformité du modèle de documentation implique plus de 50 personnes, un chiffre qui témoigne de l’ampleur de l’opportunité d’automatisation.

Vijay Mehta, vice-président des solutions mondiales et de l’analyse chez Experian Software Solutions, a décrit le défi que le produit relève : « La vitesse d’analyse des données et de développement de modèles, permise par l’IA, génère des opportunités commerciales sans précédent pour les institutions financières, mais elle s’accompagne d’un défi : des réglementations mondiales qui nécessitent une documentation fastidieuse. Experian Assistant for Model Risk Management aide à résoudre cette exigence gourmande en main d’œuvre et en ressources grâce à l’automatisation de la documentation des modèles de bout en bout. »

La base de la qualité des données

Sous les produits de fraude et de conformité d’Experian se trouve le même argument structurel qui apparaît dans les récits sur l’IA d’IBM et de Salesforce parus cette semaine : l’IA est aussi fiable que les données sur lesquelles elle s’exécute. Selon le rapport d’Experian sur les perceptions de l’IA, 65 % des décideurs des institutions financières considèrent les données prêtes pour l’IA comme l’un de leurs plus grands défis, et la qualité des données est le facteur le plus critique qui influence la confiance dans les fournisseurs d’IA.

Ce n’est pas une coïncidence de messagerie. Cela reflète une contrainte à laquelle sont confrontées les institutions de services financiers alors qu’elles font passer l’IA du stade pilote à la décision de crédit de production, à la détection des fraudes et aux rapports réglementaires ; fonctions où l’explicabilité et l’auditabilité ne sont pas facultatives.

Le CDAO d’Experian, Paul Heywood, fait partie des conférenciers confirmés à l’AI & Big Data Expo, qui fait partie de TechEx North America, qui se tiendra les 18 et 19 mai 2026 au San Jose McEnery Convention Center, en Californie. Experian est un sponsor platine chez TechEx Global.

Solène Vernet
Solène Vernet
Journaliste française passionnée par la science et les politiques d’innovation, j’écris pour rendre accessibles des sujets complexes. Mon parcours mêle recherche universitaire, communication scientifique et journalisme. J’aime explorer les liens entre technologie, société et transformation du monde.