Pour la majorité des internautes, l’IA générative est une IA. Les grands modèles de langage (LLM) comme GPT et Claude sont les de facto passerelle vers l’intelligence artificielle et les possibilités infinies qu’elle a à offrir. Après avoir maîtrisé notre syntaxe et remixé nos mèmes, les LLM ont captivé l’imagination du public.
Ils sont faciles à utiliser et amusants. Et – à part quelques hallucinations – ils sont intelligents. Mais pendant que le public joue avec sa version préférée du LLM, ceux qui vivent, respirent et dorment dans l’IA – chercheurs, responsables techniques, développeurs – se concentrent sur des choses plus importantes. En effet, l’objectif ultime des adeptes de l’IA max est l’intelligence artificielle générale (AGI). C’est la fin du jeu.
Pour les professionnels, les LLM sont un spectacle secondaire. Divertissant et éminemment utile, mais finalement « IA étroite ». Ils sont bons dans ce qu’ils font parce qu’ils ont été formés sur des ensembles de données spécifiques, mais incapables de s’écarter de leur voie et de tenter de résoudre des problèmes plus vastes.
Les rendements décroissants et les limites inhérentes aux modèles d’apprentissage profond incitent à explorer des solutions plus intelligentes capables d’une véritable cognition. Des modèles qui se situent quelque part entre le LLM et l’AGI. Un système qui entre dans cette catégorie – plus intelligent qu’un LLM et un avant-goût de l’IA du futur – est OpenCog Hyperon, un framework open source développé par SingularityNET.
Avec son approche « neuro-symbolique », Hyperon est conçu pour combler le fossé entre la correspondance de modèles statistiques et le raisonnement logique, en proposant une feuille de route qui relie les points entre les chatbots d’aujourd’hui et les machines à penser infinies de demain.
Architecture hybride pour AGI
SingularityNET a positionné OpenCog Hyperon comme une plateforme de recherche AGI de nouvelle génération qui intègre plusieurs modèles d’IA dans une architecture cognitive unifiée. Contrairement aux systèmes centrés sur le LLM, Hyperon est construit autour d’une intégration neuro-symbolique dans laquelle l’IA peut apprendre à partir des données et raisonner sur les connaissances.
En effet, avec l’IA neuro-symbolique, les composants d’apprentissage neuronal et les mécanismes de raisonnement symbolique sont entrelacés afin que l’un puisse informer et améliorer l’autre. Cela surmonte l’une des principales limites des modèles purement statistiques en intégrant des processus de raisonnement structurés et interprétables.
À la base, OpenCog Hyperon combine la logique probabiliste et le raisonnement symbolique avec la synthèse de programmes évolutifs et l’apprentissage multi-agents. Cela fait beaucoup de termes, alors essayons de comprendre comment tout cela fonctionne dans la pratique. Pour comprendre OpenCog Hyperon – et plus particulièrement pourquoi l’IA neuro-symbolique est si importante – nous devons comprendre comment fonctionnent les LLM et où ils échouent.
Les limites des LLM
L’IA générative fonctionne principalement sur des associations probabilistes. Lorsqu’un LLM répond à une question, il ne « connaît » pas la réponse comme le fait instinctivement un humain. Au lieu de cela, il calcule la séquence de mots la plus probable pour suivre l’invite en fonction de ses données d’entraînement. La plupart du temps, cette « usurpation d’identité » se révèle très convaincante, fournissant à l’utilisateur humain non seulement le résultat qu’il attend, mais également un résultat correct.
Les LLM se spécialisent dans la reconnaissance de formes à l’échelle industrielle et ils sont très bons dans ce domaine. Mais les limites de ces modèles sont bien documentées. Il y a bien sûr l’hallucination, que nous avons déjà évoquée, dans laquelle des informations apparemment plausibles mais factuellement incorrectes sont présentées. Rien n’est plus excitant qu’un LLM désireux de plaire à son maître.
Mais un problème plus grave, surtout lorsque l’on aborde la résolution de problèmes plus complexes, est le manque de raisonnement. Les LLM ne sont pas aptes à déduire logiquement de nouvelles vérités à partir de faits établis si ces modèles spécifiques ne figuraient pas dans l’ensemble de formation. S’ils ont déjà vu le motif, ils peuvent à nouveau prédire son apparition. S’ils ne le font pas, ils se heurtent à un mur.
AGI, en comparaison, décrit une intelligence artificielle capable de véritablement comprendre et appliquer les connaissances. Il ne se contente pas de deviner la bonne réponse avec un degré élevé de certitude : il la connaît et dispose des ressources nécessaires pour la prouver. Naturellement, cette capacité nécessite des capacités de raisonnement explicites et une gestion de la mémoire – sans parler de la capacité de généraliser lorsque l’on dispose de données limitées. C’est pourquoi l’AGI est encore loin – la distance dépend de l’humain (ou du LLM) auquel vous demandez.
Mais en attendant, que l’AGI soit dans des mois, des années ou des décennies, nous disposons d’une IA neuro-symbolique, qui a le potentiel de mettre votre LLM dans l’ombre.
Connaissance dynamique à la demande
Pour comprendre l’IA neuro-symbolique en action, revenons à OpenCog Hyperon. En son cœur se trouve l’Atomspace Metagraph, une structure graphique flexible qui représente diverses formes de connaissances, notamment déclaratives, procédurales, sensorielles et orientées vers un objectif, toutes contenues dans un seul substrat. Le métagraphe peut coder des relations et des structures de manière à prendre en charge non seulement l’inférence, mais aussi la déduction logique et le raisonnement contextuel.
Si cela ressemble beaucoup à AGI, c’est parce que c’est le cas. « Diet AGI », si vous préférez, donne un avant-goût de la direction que prendra ensuite l’intelligence artificielle. Afin que les développeurs puissent construire avec Atomspace Metagraph et utiliser sa puissance expressive, Hyperon a créé MeTTa (Meta Type Talk), un nouveau langage de programmation conçu spécifiquement pour le développement AGI.
Contrairement aux langages généralistes comme Python, MeTTa est un substrat cognitif qui mélange des éléments de logique et de programmation probabiliste. Les programmes de MeTTa fonctionnent directement sur le métagraphe, interrogeant et réécrivant les structures de connaissances, et prenant en charge le code auto-modifiable, ce qui est essentiel pour les systèmes qui apprennent à s’améliorer.
Un raisonnement robuste comme passerelle vers l’AGI
L’approche neuro-symbolique au cœur d’Hyperon répond à une limitation clé de l’IA purement statistique, à savoir que les modèles étroits ont du mal à gérer les tâches nécessitant un raisonnement en plusieurs étapes. Les problèmes abstraits embrouillent les LLM avec leur pure reconnaissance de formes. Cependant, ajoutez à cela l’apprentissage neuronal et le raisonnement devient plus intelligent et plus humain. Si l’IA étroite réussit une bonne imitation d’une personne, l’IA neuro-symbolique en fait une étrange.
Cela étant dit, il est important de contextualiser l’IA neuro-symbolique. La conception hybride d’Hyperon ne signifie pas qu’une percée AGI est imminente. Mais il s’agit d’une direction de recherche prometteuse qui s’attaque explicitement à la représentation cognitive et à l’apprentissage autodirigé sans s’appuyer uniquement sur l’appariement de modèles statistiques. Et aujourd’hui, ce concept ne se limite pas à un livre blanc de grande intelligence : il existe dans la nature et est activement utilisé pour créer des solutions puissantes.
Le LLM n’est pas mort – l’IA étroite continuera de s’améliorer – mais ses jours sont comptés et son obsolescence inévitable. Ce n’est qu’une question de temps. Première IA neuro-symbolique. Et puis, espérons-le, AGI – le patron final de l’intelligence artificielle.
Source de l’image : Depositphotos