2 Min. Lesezeit KI-generiert

Trump erklärt Anthropic zum Sicherheitsrisiko – und die KI-Branche schaut fassungslos zu

Artikel als Markdown kopieren

Die Trump-Regierung stuft Anthropic als 'Supply Chain Risk' ein – eine Bezeichnung, die bisher Firmen wie Huawei vorbehalten war. Anthropic kündigt Klage an.

Featured image for "Trump erklärt Anthropic zum Sicherheitsrisiko – und die KI-Branche schaut fassungslos zu"

Was in den letzten 48 Stunden zwischen Anthropic und der US-Regierung passiert ist, liest sich wie ein Politthriller. Und das Verrückte: Es ist real.

Von der Verhandlung zur Eskalation

Du erinnerst dich vielleicht an die Geschichte von Anfang der Woche: Anthropic hatte sich geweigert, dem Pentagon uneingeschränkten Zugang zu Claude für militärische Zwecke zu geben. Zwei rote Linien hatte CEO Dario Amodei gezogen – kein Einsatz für autonome Waffen und keine Massenüberwachung amerikanischer Bürger.

Am Freitagabend dann der Knall: Präsident Trump ordnete per Truth-Social-Post an, dass sämtliche US-Behörden die Nutzung von Anthropic-Produkten innerhalb von sechs Monaten einstellen müssen. Verteidigungsminister Pete Hegseth setzte noch einen drauf und erklärte Anthropic zum “Supply Chain Risk” – eine Einstufung, die normalerweise feindlichen ausländischen Unternehmen wie Huawei vorbehalten ist.

Was das bedeutet

Die Konsequenzen sind enorm. Nicht nur muss das Pentagon seinen 200-Millionen-Dollar-Vertrag mit Anthropic auflösen. Die “Supply Chain Risk”-Einstufung bedeutet auch: Kein Unternehmen, das mit dem US-Militär Geschäfte macht, darf noch mit Anthropic zusammenarbeiten. Das trifft potenziell die gesamte Lieferkette.

Anthropic hat prompt reagiert und angekündigt, die Einstufung vor Gericht anzufechten. In einem Statement hieß es, eine solche Maßnahme sei “beispiellos – historisch wurde sie nie öffentlich gegen ein amerikanisches Unternehmen angewendet.”

Dario Amodei bleibt hart

Amodeis Antwort war unmissverständlich: “Diese Drohungen ändern unsere Position nicht. Wir können guten Gewissens ihrer Forderung nicht nachkommen.” Das ist bemerkenswert. Hier steht ein KI-Unternehmen gegen die mächtigste Regierung der Welt – und blinzelt nicht.

Was ich davon halte

Egal wie man zu Anthropic steht: Dass ein Unternehmen für seine Safety-Prinzipien einen 200-Millionen-Dollar-Vertrag riskiert und eine Klage gegen die eigene Regierung anstrengt, ist in der Tech-Branche beispiellos. Ob das mutig oder geschäftsschädigend ist, wird die Geschichte zeigen. Aber eines ist klar – die Frage, wer über den Einsatz von KI im Militär entscheidet, wird uns noch lange beschäftigen.


Quellen: