Fuite majeure chez Anthropic : le code de Claude Code exposé par erreur
Un incident de sécurité embarrassant secoue Anthropic ce 31 mars 2026. Le code source de son outil Claude Code, un agent capable de coder directement dans un terminal, a été rendu accessible publiquement à la suite d’une erreur de packaging.
Selon les premières informations, un chercheur en cybersécurité a découvert qu’un fichier « source map » d’environ 60 Mo avait été laissé dans le paquet npm officiel. Cette faille a permis d’accéder à près de 1 900 fichiers et plus de 500 000 lignes de code, incluant des éléments sensibles comme les prompts système, l’architecture logicielle et certains mécanismes internes de gestion des agents et des permissions.
Il est important de noter que le modèle d’intelligence artificielle en lui-même n’est pas concerné par cette fuite. Aucun accès direct aux données utilisateurs n’a été signalé. Toutefois, ce que certains qualifient de « cerveau logiciel » — c’est-à-dire l’ensemble des outils qui orchestrent le fonctionnement de l’IA — se retrouve désormais exposé, offrant une visibilité inédite sur les coulisses techniques du système.
En quelques heures, la communauté de développeurs a massivement relayé et copié ces fichiers sur des plateformes comme GitHub, rendant toute tentative de suppression particulièrement complexe. Cet épisode met en lumière les risques liés à des erreurs simples dans des environnements pourtant hautement sécurisés.
Au-delà de l’embarras pour Anthropic — qui fait face à une nouvelle fuite après un incident similaire récent — cette affaire relance le débat sur la sécurité des outils d’IA. Elle rappelle surtout qu’en 2026, même les entreprises les plus avancées ne sont pas à l’abri d’une faille basique aux conséquences potentiellement majeures.
