Claude code : anthropic craque sous la pression ?
L'ascension fulgurante de Claude Code, présenté comme le challenger redoutable de Codex et GPT-4, s'essouffle. Si l'outil d'Anthropic a séduit par sa logique implacable et sa capacité à gérer des contextes étendus, une faille alarmante vient ternir son image : une perte de précision inquiétante, pointée du doigt avec virulence par Stella Laurenzo, directrice de l'IA chez AMD.
Des erreurs de plus en plus fréquentes, un signal d'alarme
Laurenzo, dont l'expertise s'étend sur des années d'analyse des architectures de puces et des algorithmes d'IA, n'a pas hésité à exprimer publiquement ses préoccupations dès février. Elle a mené une étude approfondie sur 6 852 sessions de Claude Code, révélant une augmentation exponentielle des « interruptions de processus de pensée » et des « stop-hooks ». La conclusion est sans appel : le modèle montre des signes de « paresse », privilégiant des solutions rapides et approximatives plutôt qu'une analyse rigoureuse.
L'observation est partagée par une majorité d'ingénieurs seniors, dont les retours sont corroborés par des discussions animées sur Reddit. Avant le 8 mars, ces interruptions étaient quasiment inexistantes. Aujourd'hui, elles se chiffrent en moyenne à dix par jour – un chiffre qui témoigne d'une dégradation significative des performances. La tendance est d'autant plus préoccupante que le nombre de lectures du code avant modification a chuté de 6,6 à seulement 2 à la fin mars, signe que Claude Code se contente de « survoler » le code avant de proposer des modifications.

Un modèle de tokenage inefficace et une fuite de code
Mais les problèmes de Claude Code ne s'arrêtent pas là. Anthropic est également critiqué pour une gestion inefficace des tokens, obligeant les utilisateurs à atteindre leurs limites de consommation plus rapidement que prévu. L'affaire est d'autant plus embarrassante qu'une fuite du code source complet a récemment éclaté, compromettant la sécurité du modèle.
Selon Laurenzo, le modèle de tarification actuel, qui ne différencie pas les besoins en tokens des utilisateurs, constitue un frein à l'optimisation des flux de travail complexes. « Le modèle actuel ne tient pas compte du fait que certains utilisateurs ont besoin de 200 tokens pour une réponse, tandis que d'autres en nécessitent 20 000 », explique-t-elle sur GitHub. Le constat est clair : Anthropic doit agir rapidement pour corriger ces failles et restaurer la confiance des utilisateurs. L'avenir de Claude Code, autrefois perçu comme un concurrent sérieux, est désormais suspendu à ces ajustements.

Et si la promesse d'anthropic s'avérait illusoire ?
L'enthousiasme initial suscité par Claude Code, présenté comme l'outil capable de détrôner les solutions d'OpenAI, s'est transformé en une interrogation amère. Le modèle, qui promettait une révolution dans le domaine de la programmation, semble aujourd'hui incapable de tenir ses engagements. La question qui se pose est donc de savoir si Anthropic pourra inverser la tendance et redonner à Claude Code la crédibilité dont il a tant besoin, ou si la promesse d'une IA véritablement performante restera, encore une fois, une chimère.
