Das ist eine der Geschichten, die man lesen muss, um sie zu glauben. Das US-Verteidigungsministerium hat Anthropic ein Ultimatum gestellt: Entweder ihr öffnet Claude für unbegrenzte militärische Nutzung – oder ihr verliert eure Pentagon-Verträge. Und möglicherweise werdet ihr als “Lieferketten-Risiko” eingestuft.
Was passiert ist
Verteidigungsminister Pete Hegseth hat Anthropic laut Axios eine Frist bis Freitag gesetzt. Die Forderung: Anthropic soll seine Nutzungsrichtlinien aufweichen und Claude ohne Einschränkungen für militärische Zwecke freigeben. Das schließt potenzielle Anwendungen bei Waffenentwicklung, Überwachung und Gewaltanwendung ein.
Anthropics Antwort? Nein.
Das Unternehmen hat öffentlich darauf hingewiesen, dass seine Nutzungsrichtlinien die Verwendung von Claude zur Erleichterung von Gewalt, zur Entwicklung von Waffen oder zur Durchführung von Überwachung ausdrücklich verbieten.
Warum das wichtig ist
Hier geht es um mehr als einen Vertragsstreit. Es ist ein Grundsatzkonflikt: Kann ein KI-Unternehmen ethische Grenzen setzen – auch wenn die mächtigste Regierung der Welt dagegen drückt?
Für Anthropic ist das besonders brisant. Das Unternehmen hat sich von Anfang an als Safety-first-Company positioniert. Dario Amodei hat immer wieder betont, dass KI-Sicherheit kein Marketing ist, sondern Unternehmens-DNA. Jetzt wird genau das auf die Probe gestellt.
Meine Einordnung
Ich finde die Entscheidung mutig. Nicht, weil ich glaube, dass KI niemals im militärischen Kontext eingesetzt werden sollte – das ist eine komplexere Debatte. Sondern weil Anthropic hier zeigt, dass die eigenen Prinzipien kein Papier sind, das man bei Gegenwind wegwirft.
Gleichzeitig: Das Risiko ist real. Pentagon-Verträge sind lukrativ. Und der politische Druck in Washington ist kein Spaß. Es bleibt abzuwarten, wie sich das entwickelt.
Quellen: Axios · Washington Times · CNN