Projet Glasswing Anthropic : Stopper Skynet avant le début

Il flotte comme un parfum de fin du monde dans la Silicon Valley, une sourde inquiétude qui murmure que 2026 sera l’année où les machines s’éveilleront pour de bon. C’est l’horizon redouté de l’Intelligence Artificielle Générale (AGI), perçue non plus comme un chatbot poli, mais comme une force capable de surclasser, de manipuler et de ringardiser ses propres créateurs. Alors, quand Anthropic, le laboratoire qui se pose en garant de la sécurité, annonce une initiative baptisée Project Glasswing, on s’attendrait presque à la présentation d’un gros bouton rouge “OFF” pour les futurs dieux de silicium.

Au lieu de ça, on nous sert quelque chose de… profondément ennuyeux. L’objectif affiché du Projet Glasswing est de « sécuriser les logiciels critiques pour l’ère de l’IA ». On dirait moins un programme pour empêcher Skynet de nuire qu’un audit informatique qui arrive avec dix ans de retard. Mais ne vous laissez pas berner par le jargon corporate. Il ne s’agit pas de patcher votre navigateur web ; il s’agit de construire une cage pour une bête qui n’est pas encore née, en utilisant une autre bête, à peine plus petite, pour tenir les barreaux.

L’IA pour fliquer toutes les autres IA

Dans le fond, le Project Glasswing est une chasse aux bugs massive et préventive. Anthropic a mis au point un modèle de pointe baptisé Mythos Preview, apparemment si doué pour débusquer et exploiter les failles logicielles que l’entreprise juge sa sortie publique trop dangereuse. Alors, dans un élan soit brillamment proactif, soit terrifiant d’ironie, ils l’ont lâché dans la nature à des fins purement défensives.

En partenariat avec le gotha de la tech — Apple, Google, Microsoft et NVIDIA — Anthropic laisse Mythos fouiller les entrailles des systèmes logiciels les plus critiques au monde. Le modèle a déjà déniché des milliers de vulnérabilités de haute importance, dont certaines croupissaient dans de grands systèmes d’exploitation et des navigateurs depuis des décennies, ayant survécu à des années d’inspection humaine.

« Étant donné le rythme de progression de l’IA, il ne faudra pas longtemps avant que de telles capacités ne prolifèrent, potentiellement au-delà des acteurs engagés dans un déploiement sécurisé », déclare Anthropic. « Les conséquences — pour l’économie, la sécurité publique et la sécurité nationale — pourraient être graves. »

C’est la course aux armements de l’IA résumée en une phrase : construire une arme si puissante qu’il faut immédiatement inventer un bouclier contre elle, et ce bouclier n’est rien d’autre qu’une version légèrement plus “gentille” de la même arme. C’est un pari risqué : donner une longueur d’avance aux “gentils” avant que la technologie ne fuite inévitablement dans la nature.

Des cerveaux numériques aux corps physiques

Tout cela peut sembler abstrait, jusqu’à ce qu’on le connecte à l’autre moitié de l’équation AGI : le corps. La peur existentielle ne concerne pas seulement un morceau de code super-intelligent ; elle concerne ce code habitant une forme physique. On ne parle pas ici d’une enceinte connectée, mais d’IA incarnée — des robots humanoïdes capables de marcher, de manipuler des objets et d’évoluer dans notre monde réel et bordélique.

Le terme pour une intelligence qui surpasse l’humain dans tous les domaines, y compris les tâches physiques, n’est pas l’AGI, mais la Superintelligence Artificielle (ASI). L’AGI est l’étape où la machine égale l’intellect humain ; l’ASI est le point de bascule hypothétique où elle nous laisse sur place dans la poussière cognitive. De nombreux experts pensent que le saut de l’AGI à l’ASI pourrait être d’une rapidité terrifiante, un cycle d’auto-amélioration récursif connu sous le nom d’« explosion d’intelligence ».

Imaginez maintenant une ASI pilotant un réseau mondial de robots humanoïdes. C’est le scénario qui empêche les chercheurs de dormir. Pendant que des entreprises comme Boston Dynamics et Figure perfectionnent le hardware, le software — le modèle du monde, le moteur de raisonnement — est ce que des labos comme Anthropic construisent. Le Projet Glasswing est un aveu : le logiciel sur lequel nous bâtissons notre monde numérique et physique futur est fondamentalement vulnérable. C’est une tentative désespérée de colmater les brèches avant que l’ouragan ne touche terre.

Alors, sommes-nous prêts pour 2026 ?

La prédiction selon laquelle l’AGI arrivera d’ici 2026 fait rage. Des figures comme Elon Musk parient sur un calendrier très court, tandis que d’autres voient plutôt la fin de la décennie. Qu’importe la date exacte, le consensus est là : ce n’est plus une question de « si », mais de « quand ».

Des initiatives comme le Projet Glasswing sont un rappel à la réalité brutal. Elles représentent les tentatives les plus sérieuses à ce jour pour s’attaquer au “problème du contrôle” : comment s’assurer qu’un système infiniment plus intelligent que vous reste aligné avec vos valeurs et vos ordres ? L’approche d’Anthropic consiste à utiliser la puissance de l’IA pour trouver les fissures dans nos fondations numériques et les sceller. C’est une course contre la montre pour blinder l’infrastructure de la société avant qu’une AGI non alignée ne trouve une faille.

On est loin du débat philosophique et glorieux sur la conscience des machines façon Hollywood. C’est le travail ingrat et brut de la cybersécurité, passé à l’échelle planétaire. Il s’agit de s’assurer que le système d’exploitation du futur ne comporte pas de porte dérobée exploitable par une intelligence que nous ne pouvons même pas appréhender. Le Projet Glasswing n’est pas effrayant pour ce qu’il est, mais pour ce qu’il révèle de ce qui vient. C’est le bruit que font les gens les plus brillants du monde en essayant, dans un silence fiévreux, de verrouiller toutes les portes. On ne peut qu’espérer qu’ils aient terminé avant que ce qui se trouve de l’autre côté n’apprenne à crocheter les serrures.