Wenn du dachtest, KI-Tools seien ein rein technisches Thema — hier kommt die Geopolitik um die Ecke. Goldman Sachs hat seinen Mitarbeitern in Hongkong den Zugang zu Claude entzogen. Seit mehreren Wochen können Banker in der chinesischen Sonderverwaltungszone weder direkt noch über interne Plattformen auf Anthropics Modelle zugreifen.
Was passiert ist
Laut Bloomberg und Financial Times geht die Sperre nicht auf lokale Regulierung zurück, sondern auf eine strikte Auslegung der vertraglichen Vereinbarungen zwischen Goldman und Anthropic. Nach Rücksprache mit Anthropic kam die Bank zu dem Schluss, dass Hongkong-basierte Mitarbeiter keinen Zugang zu Anthropic-Produkten haben sollten.
Das Interessante: Andere KI-Modelle wie ChatGPT und Gemini bleiben auf Goldmans internen Plattformen weiterhin verfügbar. Die Einschränkung betrifft nur Claude.
Der Hintergrund
Die Sperre spiegelt die wachsenden Spannungen zwischen den USA und China im KI-Bereich wider. US-amerikanische KI-Firmen sind zunehmend besorgt über sogenannte ‘Distillation’ — also den Prozess, bei dem intensive Nutzung ausländischer KI-Systeme es lokalen Akteuren ermöglichen könnte, konkurrierende Modelle zu entwickeln und geistiges Eigentum abzugreifen.
Was das für den Markt bedeutet
Für Anthropic ist das ein zweischneidiges Schwert. Einerseits zeigt es, dass sie ihre Technologie ernst nehmen und die Risiken kontrollieren wollen. Andererseits verlieren sie damit einen Teil des Finanzmarkt-Geschäfts in Asien — während die Konkurrenz weiter liefern darf.
Für uns Nutzer ist das ein Weckruf: KI-Tools sind nicht mehr nur Software. Sie sind geopolitische Instrumente geworden. Und wer sie wo nutzen darf, hängt zunehmend von Dingen ab, die mit Technologie wenig zu tun haben.
Quellen: Bloomberg, Financial Times via Reuters, Disruption Banking