Claude Code en crise : Pourquoi AMD l’abandonne
L’utilisation intensive d’outils d’IA générative dans nos pipelines n8n et workflows de développement suppose une confiance aveugle que nous ne pouvons plus nous permettre. Voici ce que révèle l’analyse technique d’AMD sur la dégradation de Claude Code.
Mon réveil brutal après 6 mois d’optimisme
Depuis l’intégration de Claude Code dans mes workflows d’automatisation n8n pour des tâches de refactoring et de génération de scripts Python, j’observais depuis février 2025 une lente dégradation que je mettais sur le compte de mes prompts. Jusqu’à ce que Stella Laurenzo, directrice du groupe IA chez AMD, ne publie une analyse qui confirme mes pires craintes : Claude Code n’est plus fiable pour l’ingénierie complexe.
Après 6 852 sessions analysées, 234 760 appels d’outils et 17 871 blocs de raisonnement, l’équipe d’AMD a tiré la sonnette d’alarme sur GitHub. Ce n’est pas une impression subjective. C’est une mesure statistique brutale.
La « thinking redaction » : quand l’opacité tue la qualité
Le problème technique identifié par AMD pointe une modification silencieuse : depuis la version 2.1.69 déployée début mars, Anthropic a activé par défaut la « thinking redaction ». Ce mécanisme masque le raisonnement interne de l’IA tout en continuant de générer les tokens de réflexion. Résultat : vous payez pour une réflexion que vous ne voyez plus, et qui paradoxalement s’appauvrit.
Dans mes workflows n8n, j’avais constaté ce phénomène sans le nommer. Claude Code passait d’un mode research-first (analyse approfondie avant action) à un mode edit-first (modification immédiate sans contexte). Les violations de stop-hooks – ces moments où l’IA abandonne prématurément une tâche ou esquive les erreurs – sont passées de zéro à dix par jour après mars
Anthropic s’est défendu en expliquant que ce réglage ne réduisait pas le raisonnement réel, mais simplement son affichage. Néanmoins, ils ont admis avoir fixé l’effort par défaut sur « médium » (effort=85), réduisant ainsi la profondeur de traitement. Pour retrouver le niveau d’avant, il faut manuellement configurer effort=high dans les settings

La tempête parfaite : croissance incontrôlée et dette technique
Ce déclin technique survient alors qu’Anthropic traverse une crise opérationnelle majeure. Après un bras de fer avec le Pentagone sur l’usage militaire de Claude, la base utilisateurs a explosé : de 4 millions en janvier à 11,3 millions début mars, avec un million d’inscriptions quotidiennes pendant une semaine entière.
Cette croissance a un prix caché. Les abonnements Pro (20/mois)etMax(100−200 ) sont massivement subventionnés par rapport au coût réel des tokens API. Un développeur intensif consomme l’équivalent de plusieurs centaines de dollars de tokens par jour pour un forfait fixe. Quand la base triple en deux mois, l’équation économique force des arbitrages : réduction des tokens de raisonnement, limitation des ressources par requête, ou dégradation silencieuse des modèles.
Le tout sur fond d’incidents techniques répétés : fuite de 512 000 lignes de code source via npm fin mars, suppression controversée de 8 100 dépôts GitHub, et une disponibilité de 98,21% en mars – insuffisante pour un usage professionnel.
Comparaison des scores SWE-Bench : Claude Opus 4.5 sous-performe par rapport à ses concurrents directs, avec un écart significatif de plus de 12 points face à GPT-5 High ou o3-pro.
Les benchmarks indépendants confirment la tendance
L’analyse d’AMD n’est pas un cas isolé. MarginLab a lancé un tracker quotidien qui mesure une baisse statistiquement significative de 4% sur SWE-Bench-Pro au cours du dernier mois
Dans mon bench interne sur des tâches d’automatisation n8n (transformation de JSON complexes, appels API chaînés, gestion d’erreurs), j’observe une dégradation similaire depuis mi-mars.
Curieusement, Claude Opus 4.5 peine à maintenir la cohérence : 70,7% sur SWE-bench contre 82,4% pour Sonnet 4.5 et 88% pour GPT-5 High
Cette sous-performance du modèle « premium » interrogent sur les stratégies de déploiement d’Anthropic, qui semble prioriser la réduction des coûts à la qualité de sortie.
Stratégies de protection pour vos workflows d’automatisation
Face à cette instabilité, trois approches émergent pour sécuriser vos pipelines n8n et workflows IA :
1. L’audit continu par benchmarks personnalisés
Ne vous fiez pas aux benchmarks marketing. Établissez une baseline sur vos tâches spécifiques : 20-30 workflows représentatifs, mesurés chaque semaine sur le taux de réussite au premier essai, le nombre de tours de dialogue nécessaires, et le coût réel en tokens
2. L’hybridation des modèles
L’article d’AMD mentionne leur migration vers un concurrent non nommé. Dans mes projets, je recommande désormais une architecture multi-modèles : Gemini 2.5 Pro pour les tâches nécessitant un grand contexte (1M tokens), Cursor pour le refactoring multi-fichiers, et des modèles locaux (Ollama avec Llama 3 ou Qwen) pour les traitements sensibles ne devant pas quitter l’infrastructure
3. La mise en place de garde-fous n8n
Pour vos workflows d’automatisation, implémentez systématiquement :
- Des nœuds de validation de sortie IA avant toute action critique
- Un système de fallback vers des modèles secondaires en cas d’échec
- Une journalisation détaillée des tokens de raisonnement (quand l’API les expose encore)
- Des limites de retry pour éviter les boucles infinies coûteuses

Conclusion : la fin de l’innocence pour les agents IA
La crise de Claude Code marque un tournant. L’ère où l’on pouvait implémenter aveuglément les suggestions d’un agent IA sans vérification est révolue. AMD a eu le courage de mesurer et de rendre public un phénomène que beaucoup de développeurs expérimentés (moi inclus) ressentaient sans pouvoir le prouver.
Pour les professionnels de l’automatisation, c’est un rappel salutaire : l’IA est un accélérateur, jamais un remplaçant. La fiabilité de vos workflows n8n dépend de votre capacité à auditer, hybrider et sécuriser ces outils. Dans un contexte où les fournisseurs brident discrètement leurs modèles pour préserver leurs marges, notre rôle est de maintenir une expertise technique suffisante pour détecter ces dérives avant qu’elles ne corrompent nos systèmes de production.
Stella Laurenzo réclame transparence sur les tokens de raisonnement et des paliers d’abonnement différenciés. C’est exactement ce que nous devons exiger en tant qu’utilisateurs professionnels : la traçabilité des performances, ou l’indépendance via des modèles locaux. L’avenir de l’automatisation ne passe pas par la confiance aveugle, mais par la mesure rigoureuse.
- Le Phénomène Anti-IA : De la Méfiance à la Révolte Mondiale
- Lunettes intelligentes et fraude : une nouvelle ère de criminalité dopée à l’IA
- GPT-5.5 vs Claude Opus 4.7 vs Kimi K2.6 : Le Comparatif Ultime des Géants de l’IA (Avril 2026)
- Claude Design : L’Outil qui Redéfinit la Chaîne de Création Digitale
- Anthropic Lance Sa Conquête des Puces IA : Pourquoi Claude Nécessite Son Propre Silicon [Analyse 2026]
