2 Min. Lesezeit KI-generiert

Anthropic leakt versehentlich 'Mythos' — ein Modell, das Cybersecurity-Experten nervös macht

Artikel als Markdown kopieren

Ein Konfigurationsfehler macht fast 3.000 unveröffentlichte Dokumente öffentlich — darunter Details zu einem neuen KI-Modell namens Claude Mythos, das laut Anthropic 'beispiellose Cybersecurity-Risiken' birgt.

Featured image for "Anthropic leakt versehentlich 'Mythos' — ein Modell, das Cybersecurity-Experten nervös macht"

Manchmal schreibt die Realität bessere Geschichten als jedes PR-Team. Anthropic — das Unternehmen, das sich ‘responsible AI’ auf die Fahne schreibt — hat versehentlich Details zu seinem bisher mächtigsten KI-Modell geleakt. Und was da rauskam, ist gleichzeitig faszinierend und beunruhigend.

Was passiert ist

Ein Konfigurationsfehler in Anthropics Content-Management-System hat fast 3.000 unveröffentlichte Assets öffentlich zugänglich gemacht. Sicherheitsforscher von LayerX Security und der Universität Cambridge entdeckten den offenen Datenspeicher. Fortune hat die Dokumente eingesehen und Anthropic informiert — woraufhin der Zugang gesperrt wurde.

Unter den Dokumenten: ein Entwurf für einen Blogpost über ein neues Modell namens Claude Mythos.

Was wir über Mythos wissen

Ein Anthropic-Sprecher bestätigte gegenüber Fortune, dass das neue Modell einen ‘Quantensprung’ in der KI-Leistung darstellt und bereits von Early-Access-Kunden getestet wird. Laut den geleakten Dokumenten ist Mythos ‘das leistungsfähigste Modell, das wir je gebaut haben’.

Aber hier wird es spannend — und etwas gruselig: Die internen Dokumente warnen explizit vor ‘beispiellosen Cybersecurity-Risiken’. Mythos sei ‘derzeit allen anderen KI-Modellen bei Cyber-Fähigkeiten weit voraus’ und könne Schwachstellen in einer Geschwindigkeit finden und ausnutzen, die Verteidiger nicht mithalten können.

Capybara: Eine neue Modellklasse

Die Leaks deuten außerdem auf eine neue Modellklasse namens Capybara hin — noch größer und leistungsfähiger als Opus, Anthropics bisheriges Top-Modell. In Tests für Software-Coding, akademisches Reasoning und Cybersecurity soll Capybara Claude Opus 4.6 deutlich übertreffen.

Meine Einordnung

Dass ausgerechnet Anthropic — das Unternehmen, das Sicherheit über alles stellt — durch einen simplen Konfigurationsfehler seine brisantesten Geheimnisse preisgibt, hat eine gewisse Ironie. Gleichzeitig verdient es Respekt, dass sie intern so ehrlich über die Risiken ihrer eigenen Modelle schreiben. Viele Unternehmen würden solche Warnungen gar nicht erst formulieren.

Die eigentliche Frage ist: Wenn ein Modell so mächtig ist, dass selbst sein Hersteller warnt — wie gehen wir als Gesellschaft damit um? Anthropic wird diese Frage beantworten müssen, bevor Mythos in die Breite geht.


Quellen: