Une fuite de Claude Code révèle comment fonctionne réellement l’IA d’Anthropic
Anthropic a accidentellement révélé une grande partie du fonctionnement réel de son outil de codage d’IA.
Un fichier de débogage intégré à la version 2.1.88 de son package Claude Code a brièvement exposé une base de code de plus de 500 000 lignes (via VentureBeat). Cela a donné aux développeurs un aperçu inhabituellement détaillé du système derrière l’un des outils d’IA à la croissance la plus rapide à l’heure actuelle.
Le fichier a été extrait rapidement et Anthropic affirme qu’aucune donnée ou identifiant client n’a été exposé. Toutefois, le mal, du moins d’un point de vue concurrentiel, est déjà fait. Le code a été largement repris et trié en ligne.
En un coup d’œil, la fuite confirme que Claude Code est bien plus qu’un simple wrapper de chatbot. En fait, il s’agit en fait d’un système multicouche pour gérer les tâches d’IA de longue durée. L’accent est également mis sur la mémoire, en résolvant spécifiquement le problème de l’IA « oubliant » ou confuse au fil du temps.
Les développeurs analysant le code ont souligné un système de « mémoire auto-réparatrice » qui évite de tout stocker en même temps. Au lieu de cela, il conserve un index léger (appelé MEMORY.md) et extrait les informations pertinentes uniquement en cas de besoin. L’idée est simple : moins de désordre, moins d’hallucinations.
Un autre produit remarquable est quelque chose appelé KAIROS, qui fait allusion à une évolution vers une IA plus autonome. Plutôt que d’attendre des invites, Claude Code peut exécuter des processus en arrière-plan. Cela inclut une fonctionnalité baptisée autoDream qui range sa propre mémoire en cas d’inactivité. Il s’agit donc d’une approche plus proactive que la plupart des outils d’IA actuels.
La fuite révèle également des noms de code de modèles internes et des problèmes de performances. Notamment, une variante de modèle plus récente afficherait un taux de fausses réclamations plus élevé que les versions précédentes. Cela suggère qu’Anthropic continue de résoudre les problèmes de fiabilité, même à mesure qu’il évolue.
Il existe également des signes de fonctionnalités plus expérimentales, notamment un mode « secret » conçu pour permettre à l’IA de contribuer aux bases de code publiques sans révéler qu’elle est générée par l’IA.
Pour les utilisateurs, Anthropic affirme qu’il n’y a pas de risque immédiat. Cependant, la société a averti les développeurs de mettre à jour à partir de la version concernée et d’éviter les installations npm à partir d’une fenêtre spécifique liée à une attaque distincte de la chaîne d’approvisionnement.
Pour tous les autres, il s’agit d’un rare aperçu des coulisses et d’un rappel que la course à la construction d’une IA plus intelligente et plus autonome est toujours en cours.
