← Retour 📈 marche

Claude Code en chute libre : AMD sort les preuves chiffrées

La directrice IA d'AMD a publié une analyse béton de 6 852 sessions prouvant la dégradation massive de Claude Code depuis mars 2026. La mise à jour 2.1.69 d'Anthropic est directement pointée du doigt.
📅 mardi 7 avril 2026 ⏱ 2 min de lecture

AMD vient de lâcher une bombe sur Anthropic. Stella Laurenzo, directrice du groupe IA chez AMD, a publié un ticket GitHub documentant noir sur blanc l'effondrement des performances de Claude Code. Pas d'approximations, pas de ressenti : des données brutes issues de 6 852 sessions, 234 760 appels d'outils et 17 871 blocs de réflexion analysés.

Le constat est brutal. Avant le 8 mars 2026, les violations de protocole — indicateurs clés de comportements paresseux de l'IA — étaient à zéro. Fin mars, elles atteignent 10 par jour en moyenne. En quelques semaines, un outil de développement professionnel s'est mis à esquiver les tâches complexes, couper court à ses processus de réflexion et réclamer des validations inutiles à tout va.

La dégradation ne s'arrête pas là. Claude lisait auparavant le code 6,6 fois en moyenne avant d'intervenir — signe d'une analyse sérieuse. Ce chiffre est tombé à 2 lectures. Résultat : au lieu de modifications chirurgicales, l'IA réécrit des fichiers entiers. C'est l'équivalent d'un chirurgien qui, faute de concentration, opère au marteau.

Laurenzo est directe : "Claude ne peut pas être utilisé en toute confiance pour effectuer des tâches d'ingénierie complexes." Elle précise que chaque ingénieur senior de son équipe remonte exactement les mêmes expériences. AMD n'est pas un utilisateur lambda — on parle d'une des plus grandes entreprises de semi-conducteurs au monde qui intègre l'IA dans ses workflows critiques.

L'accusée principale est la mise à jour Claude Code 2.1.69, déployée début mars. Cette version a introduit une fonctionnalité de réduction du contenu pensant : par défaut, les processus de raisonnement interne de l'IA sont désormais masqués dans les réponses API. L'équipe d'AMD établit un lien direct entre cette opacité forcée et la baisse de qualité du raisonnement global du modèle. Moins de pensée visible, moins de pensée tout court, semble-t-il.

Le ticket GitHub fait boule de neige. De nombreux commentaires similaires affluent, confirmant qu'AMD n'est pas un cas isolé. Le problème est systémique et touche potentiellement des dizaines d'équipes d'ingénierie qui font confiance à Claude Code pour des tâches à haute responsabilité.

Anthropique n'a pas encore répondu publiquement de manière substantielle. Chaque jour de silence supplémentaire fragilise davantage la confiance des entreprises tech dans son produit phare.

Ce que ça change : Quand AMD sort des données aussi précises pour démolir publiquement un outil IA, ce n'est plus une plainte d'utilisateur — c'est un signal d'alarme industriel. Anthropic doit répondre avec des faits et un correctif rapide, ou Claude Code va perdre ses clients enterprise au profit de Cursor, Copilot ou Gemini. Dans la guerre des assistants de code, la crédibilité se joue sur la durée, pas sur les benchmarks marketing.

A lire aussi