Die Geschichte um KI und das US-Militär bekommt ein neues Kapitel. Pentagons KI-Chef Cameron Stanley hat bestätigt, dass das Verteidigungsministerium seine Nutzung von Googles Gemini deutlich ausbaut. Der Zeitpunkt ist kein Zufall: Etwa zwei Monate zuvor hatte das Pentagon Anthropic auf die schwarze Liste gesetzt.
Was passiert ist
Stanley sagte gegenüber CNBC, dass sich das DoD nicht auf ein einzelnes Modell verlassen will — ‘never a good thing’, wie er es formulierte. Gemini wird jetzt breiter eingesetzt, nachdem Anthropic aus dem Pentagon-Ökosystem ausgeschlossen wurde. Die Details über konkrete Einsatzbereiche blieben vage, aber die Richtung ist eindeutig: Google füllt die Lücke, die Anthropic hinterlassen hat.
Der interne Widerstand
Und hier wird es spannend: Mehr als 700 Google-Mitarbeiter haben einen offenen Brief unterzeichnet, in dem sie das Unternehmen auffordern, klassifizierte Workloads abzulehnen. Das erinnert an 2018, als Google nach internen Protesten aus Project Maven ausstieg — dem ersten großen KI-Militärprojekt.
Aber 2026 ist nicht 2018. Google hat seitdem seine Haltung zu Regierungsaufträgen deutlich verändert. Ob der interne Druck diesmal etwas bewirkt, ist fraglich.
Der größere Kontext
Die Situation zeigt ein Dilemma der KI-Branche: Anthropic hat sich geweigert, dem Pentagon unbeschränkten Zugang zu Claude zu geben — und wurde dafür bestraft. Google springt ein — und bekommt internen Gegenwind. Die Frage, wo die Grenze zwischen verantwortungsvoller KI und nationaler Sicherheit verläuft, ist ungeklärt.
Für Anthropic ist das kurzfristig ein Geschäftsverlust. Langfristig könnte es sich als die richtige Entscheidung erweisen — oder als teurer Idealismus. Das hängt davon ab, wie sich der Markt für KI-Regierungsaufträge entwickelt.
Quellen: