Heute ist der Tag, auf den die KI-Branche seit Wochen hinarbeitet. Vor dem Bundesgericht in San Francisco trifft Richterin Rita Lin auf den wohl brisantesten Tech-Rechtsstreit des Jahres: Anthropic gegen das Pentagon.
Worum geht es?
Kurze Zusammenfassung für alle, die den Überblick verloren haben: Ende Februar hat die Trump-Regierung Anthropic als ‘Sicherheitsrisiko für die Lieferkette’ eingestuft. Der Grund? Anthropic weigert sich, dem Militär uneingeschränkten Zugang zu Claude zu gewähren - insbesondere für Masseüberwachung und vollautonome Waffensysteme.
Am 9. März hat Anthropic Klage eingereicht. Seitdem fliegen die Schriftsätze hin und her.
Die neueste Wendung
Am vergangenen Freitag hat Anthropic zwei eidesstattliche Erklärungen eingereicht - von Sarah Heck, der Leiterin der Politikabteilung, und Thiyagu Ramasamy, dem Chef des Public-Sector-Geschäfts.
Die Kernaussage: Das Pentagon behauptet Dinge, die in den monatelangen Verhandlungen nie zur Sprache kamen. Anthropic habe nie gesagt, es wolle ein Vetorecht über militärische Operationen. Die Regierung stütze sich auf technische Missverständnisse und Behauptungen, die so nie gemacht wurden.
Das Pentagon widerspricht sich selbst
Besonders brisant: Laut Gerichtsdokumenten vom 20. März hatte das Pentagon Anthropic noch am 4. März per E-Mail mitgeteilt, man sei bei den beiden Streitpunkten - autonome Waffen und Masseüberwachung - ‘sehr nah an einer Einigung’. Das war eine Woche, nachdem Trump öffentlich erklärt hatte, die Beziehung sei beendet.
Das Pentagon kontert mit Sicherheitsbedenken: Anthropic beschäftige eine große Zahl ausländischer Mitarbeiter, darunter viele aus China, was ein nationales Sicherheitsrisiko darstelle.
Was heute passieren könnte
Richterin Lin entscheidet über Anthropics Antrag auf eine einstweilige Verfügung. Wenn sie zustimmt, würde die Einstufung als Lieferketten-Risiko vorläufig ausgesetzt - ein Sieg für Anthropic, der das Unternehmen wieder geschäftsfähig im Regierungsumfeld machen würde.
Warum das wichtig ist
Dieser Fall geht weit über Anthropic hinaus. Er definiert die Spielregeln für KI-Unternehmen, die mit der Regierung zusammenarbeiten wollen, aber nicht bereit sind, jede Bedingung zu akzeptieren. Wenn ein Unternehmen als Sicherheitsrisiko eingestuft werden kann, weil es Safety-Grenzen zieht - was bedeutet das für die gesamte Branche?
Quellen: