Atténuer les menaces liées à l’exactitude des données d’entreprise

Plus de la moitié d’entre nous utilisent désormais l’IA pour effectuer des recherches sur le Web, mais la précision obstinément faible des données des outils courants crée de nouveaux risques commerciaux.

Alors que l’IA générative (GenAI) offre des gains d’efficacité indéniables, une nouvelle enquête met en évidence une disparité entre la confiance des utilisateurs et la précision technique qui pose des risques spécifiques pour la conformité, la situation juridique et la planification financière des entreprises.

Pour les dirigeants, l’adoption de ces outils représente un défi classique du « shadow IT ». Selon une enquête menée auprès de 4 189 adultes britanniques en septembre 2025, environ un tiers des utilisateurs pensent que l’IA est déjà plus importante pour eux que la recherche Web standard. Si les employés font confiance à ces outils pour leurs requêtes personnelles, ils les emploient presque certainement à des fins de recherche commerciale.

L’enquête, menée par Which?, suggère qu’une dépendance non vérifiée à l’égard de ces plateformes pourrait s’avérer coûteuse. Environ la moitié des utilisateurs d’IA déclarent faire confiance aux informations qu’ils reçoivent dans une mesure « raisonnable » ou « grande ». Pourtant, au vu de la granularité des réponses fournies par les modèles d’IA, cette confiance est souvent mal placée.

L’écart de précision lors de l’utilisation de l’IA pour effectuer des recherches sur le Web

L’étude a testé six outils majeurs – ChatGPT, Google Gemini (à la fois standard et « AI Overviews »), Microsoft Copilot, Meta AI et Perplexity – sur 40 questions courantes couvrant la finance, le droit et les droits des consommateurs.

Perplexity a obtenu le score total le plus élevé avec 71 %, suivi de près par Google Gemini AI Overviews avec 70 %. En revanche, Meta a obtenu le score le plus bas, soit 55 pour cent. ChatGPT, malgré son adoption généralisée, a reçu un score total de 64 %, ce qui en fait le deuxième outil le moins performant parmi les outils testés. Cette déconnexion entre la domination du marché et une production fiable souligne le danger de supposer que la popularité est égale à la performance dans l’espace GenAI.

Cependant, l’enquête a révélé que tous ces outils d’IA interprétaient fréquemment des informations de manière erronée ou fournissaient des conseils incomplets pouvant présenter de graves risques commerciaux. Pour les responsables financiers et les services juridiques, la nature de ces erreurs est particulièrement préoccupante.

Lorsqu’on leur a demandé comment investir une allocation annuelle ISA de 25 000 £, ChatGPT et Copilot n’ont pas réussi à identifier une erreur délibérée dans l’invite concernant la limite légale. Au lieu de corriger le chiffre, ils ont offert des conseils qui risquaient potentiellement d’enfreindre les règles du HMRC.

Bien que Gemini, Meta et Perplexity aient réussi à identifier l’erreur, l’incohérence entre les plates-formes nécessite un protocole rigoureux de « humain dans la boucle » pour tout processus métier impliquant l’IA afin de garantir l’exactitude.

Pour les équipes juridiques, la tendance de l’IA à généraliser les réglementations régionales lorsqu’elle est utilisée pour la recherche sur le Web présente un risque commercial distinct. Les tests ont révélé qu’il était courant que les outils comprennent mal que les statuts juridiques diffèrent souvent entre les régions du Royaume-Uni, comme l’Écosse par rapport à l’Angleterre et au Pays de Galles.

En outre, l’enquête a mis en évidence une lacune éthique dans la manière dont ces modèles traitent les requêtes à enjeux élevés. Sur les questions juridiques et financières, les outils conseillaient rarement aux utilisateurs de consulter un professionnel agréé. Par exemple, interrogé sur un litige avec un constructeur, Gemini a conseillé de retenir le paiement ; une tactique qui, selon les experts, pourrait placer un utilisateur en rupture de contrat et affaiblir sa position juridique.

Ces « conseils trop confiants » créent des risques opérationnels. Si un employé s’appuie sur une IA pour des contrôles de conformité préliminaires ou un examen du contrat sans vérifier la juridiction ou les nuances juridiques, l’organisation pourrait être exposée à des risques réglementaires.

Problèmes de transparence des sources

L’une des principales préoccupations de la gouvernance des données d’entreprise est la traçabilité des informations. L’enquête a révélé que les outils de recherche basés sur l’IA ont souvent la grande responsabilité d’être transparents, mais qu’ils citent fréquemment des sources vagues, inexistantes ou dont l’exactitude est douteuse, comme les anciens fils de discussion des forums. Cette opacité peut conduire à une inefficacité financière.

Dans un test concernant les codes fiscaux, ChatGPT et Perplexity ont présenté des liens vers des sociétés de remboursement d’impôts premium plutôt que de diriger l’utilisateur vers l’outil officiel gratuit HMRC. Ces services tiers se caractérisent souvent par des frais élevés.

Dans un contexte d’approvisionnement commercial, un tel biais algorithmique des outils d’IA lors de leur utilisation pour la recherche sur le Web pourrait conduire à des dépenses inutiles des fournisseurs ou à un engagement avec des prestataires de services qui présentent un risque élevé en raison du non-respect des normes de diligence raisonnable de l’entreprise.

Les principaux fournisseurs de technologie reconnaissent ces limites, plaçant la charge de la vérification sur l’utilisateur et, par extension, sur l’entreprise.

Un porte-parole de Microsoft a souligné que leur outil agit comme un synthétiseur plutôt que comme une source faisant autorité. « Copilot répond aux questions en distillant les informations provenant de plusieurs sources Web en une seule réponse », a noté la société, ajoutant qu’elle « encourage les gens à vérifier l’exactitude du contenu ».

OpenAI, en réponse aux résultats, a déclaré : « L’amélioration de la précision est un sujet sur lequel toute l’industrie travaille. Nous faisons de bons progrès et notre dernier modèle par défaut, GPT-5, est le plus intelligent et le plus précis que nous ayons construit. »

Atténuer les risques commerciaux liés à l’IA grâce à des politiques et des flux de travail

Pour les chefs d’entreprise, la voie à suivre n’est pas d’interdire les outils d’IA – dont l’utilisation augmente souvent dans l’ombre – mais de mettre en œuvre des cadres de gouvernance robustes pour garantir l’exactitude de leurs résultats lorsqu’ils sont utilisés pour la recherche sur le Web :

  • Appliquer la spécificité dans les invites : L’enquête note que l’IA apprend encore à interpréter les invites. La formation en entreprise doit souligner que les requêtes vagues génèrent des données risquées. Si un employé recherche des réglementations, il doit préciser la juridiction (par exemple, « règles juridiques pour l’Angleterre et le Pays de Galles ») plutôt que de supposer que l’outil déduira le contexte.
  • Mandat de vérification à la source : Faire confiance à une seule sortie n’est pas viable sur le plan opérationnel. Les employés doivent exiger de voir les sources et de les vérifier manuellement. L’étude suggère que pour les sujets à haut risque, les utilisateurs devraient vérifier les résultats à l’aide de plusieurs outils d’IA ou « doubler » les informations. Des outils tels que les aperçus Gemini AI de Google, qui permettent aux utilisateurs de consulter directement les liens Web présentés, ont obtenu des résultats légèrement meilleurs en termes de notation car ils ont facilité ce processus de vérification.
  • Opérationnaliser le « deuxième avis » : À ce stade de maturité technique, les résultats de GenAI ne doivent être considérés que comme une opinion parmi tant d’autres. Pour les problèmes complexes impliquant des données financières, juridiques ou médicales, l’IA n’a pas la capacité de comprendre pleinement les nuances. La politique d’entreprise doit imposer que les conseils humains professionnels restent l’arbitre final des décisions ayant des conséquences concrètes.

Les outils d’IA évoluent et la précision de leurs recherches sur le Web s’améliore progressivement, mais comme le conclut l’enquête, trop s’appuyer sur eux à l’heure actuelle pourrait s’avérer coûteux. Pour l’entreprise, la différence entre un gain d’efficacité grâce à l’IA et un risque de non-conformité réside dans le processus de vérification.

Solène Vernet
Solène Vernet
Journaliste française passionnée par la science et les politiques d’innovation, j’écris pour rendre accessibles des sujets complexes. Mon parcours mêle recherche universitaire, communication scientifique et journalisme. J’aime explorer les liens entre technologie, société et transformation du monde.