Was passiert, wenn ein Unternehmen, das sich Transparenz auf die Fahne schreibt, eine wichtige Änderung still und leise durchzieht? Genau das erleben wir gerade bei Anthropic.
Die Fakten
Anfang März hat Anthropic das Standard-Effort-Level von Claude Opus 4.6 von ‘high’ auf ‘medium’ (Stufe 85) umgestellt. Das klingt nach einer kleinen technischen Anpassung — ist es aber nicht. Das Effort-Level bestimmt, wie viel Rechenleistung Claude in eine Antwort steckt. Weniger Effort bedeutet: schnellere Antworten, weniger Token-Verbrauch — aber auch weniger gründliches Nachdenken.
Das Problem: Anthropic hat diese Änderung nicht prominent kommuniziert, sondern irgendwo im Changelog vergraben.
Der Sturm braut sich zusammen
Den Anfang machte Stella Laurenzo, Senior Director bei AMDs AI-Gruppe. In einem GitHub-Issue analysierte sie 6.852 Claude-Code-Sessions mit 17.871 Thinking-Blocks und kam zu einem vernichtenden Urteil: Claude Code sei so weit zurückgefallen, dass man es für komplexe Engineering-Arbeit nicht mehr vertrauen könne.
Was folgte, war eine Lawine. Entwickler berichteten von schlampigem Code, ignorierten Anweisungen und sich wiederholenden Fehlern. Der Tenor auf Reddit und X: Claude fühlt sich ‘faul’ an.
Fortune, VentureBeat und The Register griffen das Thema auf. Die Schlagzeilen waren eindeutig: ‘Is Anthropic nerfing Claude?‘
Anthropics Reaktion
Boris Cherny, der bei Anthropic Claude Code verantwortet, reagierte öffentlich. Die Umstellung auf Medium-Effort sei eine bewusste Entscheidung gewesen — als Reaktion auf Nutzerfeedback, dass Claude zu viele Token verbrauche. Die Änderung sei dokumentiert gewesen.
Als Gegenmaßnahme kündigte Cherny an, dass Teams- und Enterprise-Nutzer künftig standardmäßig auf ‘high effort’ zurückgesetzt werden. Wer sofort umstellen will, kann das Effort-Level in den Einstellungen manuell hochsetzen.
Meine Einordnung
Ich verstehe beide Seiten. Token kosten Geld, und nicht jede Anfrage braucht maximale Rechenleistung. Aber eine Änderung, die das Kernverhalten des Modells betrifft, gehört nicht in einen Changelog — die gehört in eine E-Mail an jeden Nutzer.
Das eigentliche Problem ist nicht die technische Entscheidung. Es ist die Kommunikation. Anthropic hat sich als das transparentere KI-Unternehmen positioniert. Wenn ausgerechnet sie solche Änderungen leise durchschieben, untergräbt das Vertrauen — und Vertrauen ist ihr wichtigstes Asset.
Quellen: