HP et l’art de l’IA et des données pour l’entreprise

Avant l’AI & Big Data Expo au San Jose McEnery Convention Center, les 18 et 19 mai, nous avons discuté avec Jerome Gabryszewski, responsable du développement commercial de l’IA et de la science des données de l’entreprise, de l’IA, du traitement des données pour l’ingestion de l’IA et du calcul local par rapport au cloud.

Les médias technologiques aiment à citer que les données sont « le nouveau pétrole », mais la réalité sur le terrain est que, même si l’on a accès à de nombreuses informations de première main, les exploiter à l’avantage de l’entreprise peut s’avérer problématique, en particulier à l’échelle de l’entreprise.

Devriez-vous choisir un modèle d’IA hébergé dans le cloud ou un calcul local ? Comment mettre de l’ordre dans votre « maison de données » afin que les modèles intelligents puissent produire des résultats significatifs ? Et comme toujours, nous aimons encourager nos personnes interrogées à nous aider à prédire le prochain chapitre de l’histoire en évolution rapide de l’informatique d’entreprise dans ce paysage commercial dominé par l’IA.

Actualités sur l’intelligence artificielle : Passer de l’ingestion de données manuelle à l’ingestion automatisée de données semble bien en théorie, mais c’est notoirement difficile. Où HP voit-il les entreprises bloquées en ce moment ?

L’un des points de friction les plus récurrents que nous constatons est que les organisations sous-estiment la dette organisationnelle et architecturale qui se cache derrière leurs données. Avant que l’automatisation puisse s’implanter, elles doivent concilier la propriété fragmentée des données entre les départements, les schémas incohérents des systèmes et l’infrastructure existante qui n’a jamais été conçue pour l’interopérabilité. L’impact technique de l’automatisation est souvent inférieur au travail de gouvernance et d’intégration qui doit le précéder.

Actualités sur l’intelligence artificielle : lorsque les modèles d’IA commencent à se mettre à jour en permanence, les choses peuvent facilement déraper. Comment conseillez-vous aux clients de gérer les risques tels que la dérive des concepts et l’empoisonnement des données ?

L’apprentissage continu est le moyen par lequel l’IA passe du statut de projet à celui de handicap si elle n’est pas gouvernée avec soin. Ce que nous conseillons aux clients, c’est de traiter les mises à jour de modèles de la même manière qu’ils traitent les déploiements de code. Rien n’entre en production sans une porte de validation. Pour la dérive conceptuelle, cela signifie des pipelines MLOps avec détection automatisée de la dérive et déclencheurs humains dans la boucle avant que le recyclage n’intervienne. Pour l’empoisonnement des données, il s’agit autant d’un problème de provenance des données que d’un problème de sécurité. Il est essentiel de savoir exactement d’où proviennent vos données d’entraînement et qui peut y accéder. Les clients qui réussissent ne sont pas nécessairement les plus sophistiqués techniquement ; Ce sont ceux qui ont intégré la gouvernance de l’IA dans leurs cadres de risque avant de les mettre à l’échelle.

Actualités sur l’intelligence artificielle : je souhaite aborder les racines matérielles de HP. À quoi doit réellement ressembler aujourd’hui une station de travail ou une configuration informatique moderne pour gérer le poids d’un cycle de vie d’IA autonome ?

Les racines de HP ici comptent vraiment. La série Z a été spécialement conçue pour les calculs professionnels les plus exigeants depuis plus de 15 ans. Ainsi, lorsque nous parlons de ce qu’un cycle de vie d’IA autonome exige réellement du matériel, nous ne devinons pas, nous répétons ce problème depuis plus longtemps que la plupart !

La réponse n’est pas une seule machine, c’est un spectre. Au niveau du développeur individuel, vous avez besoin d’un calcul local suffisamment puissant pour exécuter de véritables expériences sans dépendre du cloud à chaque itération. Les ZBook Ultra et Z2 Mini prennent en charge les machines de bureau mobiles et compactes de qualité professionnelle, capables d’exécuter simultanément des LLM locaux et des flux de travail lourds.

Le ZGX Nano est l’endroit où les choses deviennent vraiment intéressantes pour les équipes axées sur l’IA. Il s’agit d’un superordinateur IA qui tient dans la paume de votre main (15 x 15 cm), mais il est alimenté par la superpuce NVIDIA GB10 Grace Blackwell avec 128 Go de mémoire unifiée et 1 000 TOPS de performances IA FP4. Une seule unité gère localement des modèles jusqu’à 200 milliards de paramètres. Et lorsqu’une équipe doit évoluer au-delà de cela, vous connectez deux unités ensemble via une interconnexion haut débit et vous travaillez avec des modèles comprenant jusqu’à 405 milliards de paramètres… pas de cloud, pas de centre de données, pas de file d’attente. Il est préconfiguré avec la pile logicielle NVIDIA DGX et le HP ZGX Toolkit, afin que les équipes passent de la configuration au premier flux de travail en quelques minutes, et non en quelques jours.

En progressant, le Z8 Fury offre aux équipes d’utilisateurs expérimentés jusqu’à quatre GPU NVIDIA RTX PRO 6000 Blackwell dans un seul système (384 Go de VRAM) : il s’agit du cycle complet de développement de modèles exécutés sur site. Et à la frontière, le ZGX Fury change complètement la conversation. Alimenté par la superpuce NVIDIA GB300 Grace Blackwell Ultra avec 748 Go de mémoire cohérente, il permet une inférence de milliers de milliards de paramètres au niveau du bureau, et non du centre de données. Pour les équipes qui effectuent des ajustements et des inférences continus sur des données sensibles, cela s’amortit généralement en 8 à 12 mois par rapport au calcul cloud équivalent.

Et pour les organisations qui ont besoin de se regrouper et d’évoluer davantage, l’ensemble de la gamme Z est conçu avec des facteurs de forme prêts à monter en rack qui s’intègrent dans les environnements informatiques gérés sans compromettre la sécurité ou la résidence des données.

Jérôme Gabryszewski, responsable du développement commercial de l’IA et de la science des données, HP.

Le point le plus important est le suivant : le cycle de vie autonome de l’IA crée un problème de gouvernance et de latence, pas un problème de calcul. Les équipes ne peuvent pas continuer à envoyer des données d’entraînement sensibles vers le cloud chaque fois qu’un modèle doit être mis à jour. Le portefeuille HP offre aux organisations un chemin matériel qui évolue avec la maturité de leur flux de travail, depuis le bureau du développeur jusqu’au calcul distribué sur site. Le matériel correspond enfin à l’ambition de ce que ces systèmes d’IA doivent réellement faire.

Actualité sur l’intelligence artificielle : les coûts de calcul de la génération IA montent en flèche pour de nombreuses entreprises. Quelle est la solution pratique pour équilibrer cette dépense massive avec l’efficacité du cloud moderne ?

Le problème des coûts est structurel et non cyclique. Les dépenses d’entreprise GenAI ont bondi pour atteindre 37 milliards de dollars en 2025, et 80 % des entreprises ont encore raté leurs prévisions de coûts de plus de 25 %. La principale tension réside dans le fait que les coûts unitaires d’inférence diminuent, mais que les dépenses totales continuent d’augmenter parce que l’utilisation augmente plus rapidement que les coûts ne baissent. Le modèle d’API cloud a été conçu pour les charges de travail expérimentales à faible volume. Elle n’a jamais été conçue pour être le moteur économique de l’IA de production à grande échelle.

La solution pratique est un problème de discipline avant de devenir un problème d’infrastructure : tracez une ligne dure entre le travail d’exploration et les charges de travail de production, et n’utilisez jamais le même modèle de calcul pour les deux. Les premiers travaux itératifs – prototypage, réglage fin, évaluation du modèle – devraient s’exécuter sur du matériel local comme le ZGX Nano ou le Z8 Fury, sur lesquels vous dépensez du capital une seule fois au lieu de consacrer un budget opérationnel à des expériences sans chemin de retour sur investissement clair.

Les organisations qui y parviennent exécutent un modèle à trois niveaux : le cloud pour la formation en rafale et l’accès au modèle de pointe que vous avez réellement gagné, l’infrastructure HP Z sur site pour une inférence prévisible à haut volume et le calcul de pointe où la latence est critique. Une analyse indépendante montre que le système sur site peut offrir un avantage de coût jusqu’à 18 fois supérieur par million de jetons sur un cycle de vie de cinq ans. Le cadre que nous utilisons avec nos clients est simple : le cloud est destiné à l’échelle que vous avez gagnée, pas à l’échelle que vous espérez.

Actualités sur l’intelligence artificielle : tout le monde souhaite que ses données exclusives soient « prêtes pour l’IA ». Comment les entreprises peuvent-elles y parvenir sans exposer des informations sensibles ou cloisonnées ?

L’erreur que commettent la plupart des entreprises est de traiter les « données prêtes pour l’IA » comme un problème d’ingénierie des données alors qu’il s’agit en réalité d’un problème de souveraineté des données, et que celles-ci nécessitent des solutions différentes. L’envoi de données propriétaires vers un modèle cloud pour traitement n’est pas seulement un risque d’exposition, c’est un échec de gouvernance qui attend de se produire, en particulier dans les secteurs réglementés où même le simple fait de transmettre des données à l’extérieur peut déclencher des violations de conformité.

L’architecture qui résout ce problème est la génération de récupération augmentée (RAG) exécutée sur une infrastructure locale, qui permet à un modèle de récupérer le contexte pertinent de votre base de connaissances interne au moment de la requête sans jamais s’entraîner dessus ni l’exposer en externe. Vos données propriétaires restent sur site, à l’intérieur du matériel que vous contrôlez. Par exemple, un ZGX Nano ou un Z8 Fury exécutant un modèle hébergé localement peut alimenter un pipeline RAG complet sur des documents internes sensibles sans qu’aucune donnée ne quitte le bâtiment et qu’aucune dépense de jeton ne soit envoyée à un tiers.

C’est au niveau du contrôle d’accès que cela devient opérationnel ; un système RAG bien architecturé applique des autorisations basées sur les rôles au niveau de la récupération, de sorte que l’IA ne fait apparaître que ce qu’un employé donné a le droit de voir, de la même manière que votre système de gestion de documents. La combinaison du calcul local, du modèle local, de la récupération locale et de l’accès gouverné est ce qui rend les données propriétaires prêtes pour l’IA sans exposition.

Les entreprises qui réussissent n’envoient pas leurs joyaux de la couronne vers le cloud pour y être traités ; ils apportent l’intelligence aux données, et non l’inverse.

Actualités sur l’intelligence artificielle : Si nous combinons l’IA autonome avec ces plates-formes cloud modernes, qu’adviendra-t-il du rôle quotidien d’une équipe informatique d’entreprise au cours des deux prochaines années ?

Je pense que C’est Jensen Huang qui a le mieux exposé ce concept. Il a déclaré que notre travail ne consiste pas à nous disputer sur une feuille de calcul ou à taper sur un clavier, mais que notre travail est généralement plus significatif que cela. Et il a établi une distinction nette entre la tâche d’un travail et son objectif. En informatique, par exemple, la tâche peut consister à provisionner des serveurs ou à trier les incidents, mais l’objectif est de maintenir la résilience de l’entreprise et d’aller de l’avant. Cette distinction est exactement ce qui se joue actuellement.

Gartner prévoit que 40 % des applications d’entreprise auront des agents d’IA intégrés d’ici fin 2026, contre moins de 5 % il y a à peine un an, ce qui signifie que la couche d’exécution de routine de l’informatique est absorbée rapidement, mais que la couche de gouvernance et d’architecture se développe tout aussi rapidement. Ce qui se produit déjà dans les grandes organisations, c’est un changement des équipes informatiques exécutant des tâches vers la conception et la gouvernance des agents qui les exécutent en leur nom.

La lacune importante est que seule une entreprise sur cinq dispose encore d’un modèle de gouvernance mature à cet effet. C’est là que les infrastructures axées sur le local sont à nouveau importantes. Lorsque votre couche d’automatisation s’exécute sur le matériel que vous contrôlez, vous disposez d’une visibilité totale sur le comportement des agents, ce que vous n’avez tout simplement pas lorsque ces charges de travail sont extraites dans le cloud. L’équipe informatique des deux prochaines années n’est pas celle qui veille au bon fonctionnement. Ce seront les équipes qui décideront à quels agents faire confiance pour quelles décisions et qui s’assureront que l’infrastructure sous-jacente à ce jugement est quelque chose que l’entreprise peut réellement soutenir.

(Source de l’image : Pixabay, licence.)

Solène Vernet
Solène Vernet
Journaliste française passionnée par la science et les politiques d’innovation, j’écris pour rendre accessibles des sujets complexes. Mon parcours mêle recherche universitaire, communication scientifique et journalisme. J’aime explorer les liens entre technologie, société et transformation du monde.