Encore une semaine, encore une annonce à couper le souffle concernant l’atteinte de l’Intelligence Artificielle Générale. On vous pardonnerait de souffrir d’une grave crise de fatigue de l’AGI. Mais cette fois-ci, la revendication ne vient pas des mégacorps habituels de la Silicon Valley, mais d’Integral AI, une startup avec des pôles à Tokyo et dans la Silicon Valley, dirigée par Jad Tarifi, ancien pionnier de Google AI. Et ils ne promettent pas seulement un modèle de langage plus grand et meilleur. Ils proclament un changement de paradigme fondamental.
Integral AI a déclaré avoir créé le premier “modèle capable d’AGI” au monde. Avant que vos capteurs optiques ne se mettent à rouler, sachez que leur affirmation repose sur une base qui évite délibérément la mise à l’échelle vorace en données et la force brute de l’IA actuelle. Au lieu de cela, ils proposent un système qui apprend davantage comme un humain, promettant un avenir où les robots comprendront les choses par eux-mêmes. C’est une proclamation audacieuse qui mérite un examen plus approfondi « sous le capot ». Est-ce le vrai coup de génie, ou juste un autre cas d’« AGI-washing » sur un marché saturé de battage médiatique ?
L’architecte d’une nouvelle intelligence
L’homme derrière le rideau est Jad Tarifi, Ph.D., qui n’est pas votre fondateur de startup typique. Il a passé près d’une décennie chez Google AI, où il a fondé et dirigé sa première équipe d’IA générative, se concentrant sur les « modèles d’imagination » et la manière d’apprendre à partir de données limitées. Avec un doctorat en IA et un master en informatique quantique, ses références sont aussi sérieuses que ses ambitions.
Fait intéressant, Tarifi a choisi de baser ses opérations à Tokyo, un choix délibéré ancré dans sa conviction que le Japon est le cœur mondial de la robotique. Ce n’est pas seulement une préférence géographique ; c’est une décision stratégique. La vision d’Integral AI est une intelligence « incarnée » (embodied intelligence) — une IA qui vit et apprend dans le monde physique, faisant de la robotique le banc d’essai ultime.
Impossible de construire ce qu’on ne peut définir
Le plus rafraîchissant dans l’annonce d’Integral AI est peut-être sa définition rigoureuse et axée sur l’ingénierie de l’AGI. Alors que des géants comme OpenAI et Google DeepMind parlent souvent de l’AGI en termes larges, presque philosophiques, Integral a énoncé trois piliers stricts et mesurables pour tout système revendiquant ce titre.
- Apprentissage autonome des compétences : Le modèle doit être capable d’apprendre des compétences entièrement nouvelles dans des environnements inconnus sans ensembles de données pré-compilés ni assistance humaine. C’est un défi direct lancé à des modèles comme ChatGPT, qui sont fondamentalement limités par les données sur lesquelles ils ont été entraînés.
- Maîtrise sûre et fiable : Le processus d’apprentissage doit être intrinsèquement sûr. Tarifi utilise une analogie d’une simplicité désarmante : un robot apprenant à cuisiner ne devrait pas incendier la cuisine à force d’essais et d’erreurs. La sécurité doit être une fonctionnalité intégrée, et non un correctif panique appliqué après coup.
- Efficacité énergétique : Et c’est là le clou du spectacle. Le modèle ne peut pas utiliser plus d’énergie pour apprendre une nouvelle compétence qu’un humain. Ce pilier s’attaque à l’éléphant dans la pièce pour la Grande IA : la consommation d’énergie absolument insoutenable liée à l’entraînement de modèles toujours plus grands.
Selon leur annonce de décembre 2025, le modèle d’Integral AI a satisfait avec succès à ces trois critères dans un environnement de test fermé. Si cela s’avère vrai, c’est ni plus ni moins qu’une révolution.
Modèles du monde, pas modèles de mots
Alors, quelle est la recette secrète ? Integral AI ne construit pas des Large Language Models. Ils construisent des « Foundation World Models » (modèles de monde fondamentaux). Le concept des modèles du monde existe depuis des décennies, avec des pionniers comme Jürgen Schmidhuber et Yann LeCun défendant l’idée comme une étape clé vers une IA plus robuste. L’idée fondamentale est qu’une IA construise une simulation interne et prédictive de son environnement, lui permettant d’« imaginer » les conséquences de ses actions avant de les entreprendre.
L’architecture d’Integral s’inspire du néocortex humain, conçue pour abstraire, planifier et agir comme un tout unifié plutôt que de simplement prédire statistiquement le prochain token dans une séquence. Le système utilise ce qu’il appelle des « opérateurs universels » qui fonctionnent comme la méthode scientifique : formuler une hypothèse, concevoir une expérience (comme déplacer un bras robotisé) et apprendre du résultat. Ce processus d’apprentissage actif lui permet de fonctionner sans un ensemble de données massif et statique.
La preuve par le casse-tête
Bien sûr, les affirmations sont faciles. Les preuves, pour l’instant, reposent sur quelques démonstrations clés. La première est un défi classique de l’IA : le jeu de Sokoban. Ce jeu de puzzle d’entrepôt est d’une difficulté trompeuse pour l’IA car il exige une planification à long terme, où une seule mauvaise décision peut rendre le puzzle insoluble bien plus tard. L’IA générative actuelle peine notoirement avec ce type de suivi d’état et de conséquence logique. Tarifi affirme que leur modèle a maîtrisé Sokoban à partir d’une « table rase » (tabula rasa), apprenant les règles et une stratégie de niveau professionnel simplement en interagissant avec la simulation.
Pour prouver qu’il ne s’agit pas seulement de jeux, Integral a également présenté un projet pour Honda R&D. La tâche impliquait la coordination de systèmes complexes de logistique et de planification du monde réel — en substance, jouer à Sokoban avec des chaînes d’approvisionnement et des API réelles. Les capacités de planification ont été comparées à l’AlphaGo légendaire de Google DeepMind, mais appliquées au monde physique désordonné et dynamique plutôt qu’à un plateau de jeu contraint.
Alors, le buzz de l’AGI est-il réel cette fois ?
Revenons sur terre. Integral AI a présenté une vision incroyablement convaincante et un ensemble d’affirmations falsifiables. Cependant, ces résultats proviennent d’un « bac à sable », et la communauté scientifique au sens large ne les a pas encore vérifiés de manière indépendante. L’entreprise a en quelque sorte créé sa propre jauge d’AGI, puis a déclaré avoir franchi la barre.
Si — et c’est un si de taille — ces affirmations résistent à l’examen minutieux, les implications sont stupéfiantes. Cela marquerait un éloignement du paradigme de l’accumulation de données, réduirait drastiquement l’impact environnemental de l’IA et ouvrirait la voie à des robots polyvalents capables de s’adapter à nos maisons, et non plus seulement à des usines hautement structurées.
Integral AI a jeté un gant, défiant l’approche de toute l’industrie en matière de construction de machines intelligentes. L’entreprise y voit le premier pas vers une « superintelligence qui étend la liberté et l’action collective ». Pour l’instant, le monde observe. Les affirmations sont extraordinaires. La prochaine étape consiste à fournir la preuve extraordinaire, à sortir ce « cerveau en boîte » du laboratoire pour l’intégrer à notre monde — en espérant qu’il n’y mettra pas le feu aux cuisines.






