Die Pentagon-Saga geht in die nächste Runde — und der Ton wird deutlich schärfer. Emil Michael, der neue Technologie-Chef des US-Verteidigungsministeriums, hat in einem CNBC-Interview am Mittwoch klargemacht: Verhandlungen mit Anthropic sind vom Tisch.
Was hat Michael gesagt?
Michaels Kernargument: Claudes eingebaute Sicherheitsprinzipien — das, was Anthropic die ‘Verfassung’ des Modells nennt — seien eine Gefahr für die militärische Lieferkette. Soldaten könnten ‘ineffektive Waffen’ oder ‘ineffektiven Schutz’ bekommen, wenn ein KI-Modell mit eigenen Policy-Präferenzen in der Kette steckt.
Das Pentagon hat eine 180-Tage-Frist gesetzt, in der alle Verteidigungsunternehmen und -zulieferer zertifizieren müssen, dass sie Claude nicht in ihrer Arbeit für das Pentagon einsetzen.
‘Keine Chance’ auf Einigung
Auf die Frage, ob es noch Raum für Verhandlungen gibt, antwortete Michael direkt: Nein. Er warf Anthropic vor, Verhandlungsinhalte geleakt und in ‘bad faith’ verhandelt zu haben.
Anthropics Position
Anthropic hat mittlerweile zwei Klagen gegen die Trump-Administration eingereicht und bezeichnet die Supply-Chain-Risk-Einstufung als ‘beispiellos und rechtswidrig’. Das Unternehmen sagt, dass Hunderte Millionen Dollar an Verträgen auf dem Spiel stehen.
Meine Einordnung
Was hier passiert, ist beispiellos in der Tech-Geschichte. Ein US-Unternehmen wird vom eigenen Verteidigungsministerium wie ein feindlicher Akteur behandelt — nicht wegen Sicherheitslücken, nicht wegen Datenschutzverstößen, sondern weil sein KI-Modell zu sicher gebaut ist.
Das Pentagon argumentiert im Grunde: Claudes Safety-Features sind ein Bug, kein Feature. Das ist eine bemerkenswerte Position, die weit über Anthropic hinaus Konsequenzen haben wird. Wenn Sicherheitsmaßnahmen als ‘Verschmutzung’ gelten, was bedeutet das für die gesamte KI-Sicherheitsforschung?
Quellen: