Das ist eine der größten Partnerschaften des Jahres — und sie wurde fast beiläufig bestätigt. Google-Cloud-Chef Thomas Kurian hat auf der Cloud Next ‘26 erklärt, dass Gemini eine neue, kontextbewusste Version von Siri antreiben wird. Noch 2026.
Was wir wissen
Die Details sind noch dünn, aber die Kernaussage ist klar: Apple wird Googles Gemini-Modelle nutzen, um Siri grundlegend zu verbessern. Kurian sprach von einer ‘personalisierten’ Version, die auf dem Gerät des Nutzers Kontext versteht — also nicht einfach eine Suchmaschine mit Stimme, sondern ein Assistent, der tatsächlich weiß, was du gerade tust.
Das passt zu den Gerüchten, die seit Monaten kursieren: Apple Intelligence braucht bessere Modelle als das, was Apple intern bisher gebaut hat. Und Google hat mit Gemini die Infrastruktur und die Modellfamilie, die das liefern kann.
Warum das wichtig ist
Siri ist auf über einer Milliarde Apple-Geräten installiert. Wenn Gemini dort unter der Haube läuft, wird das die größte einzelne Deployment-Fläche für ein Sprachmodell überhaupt. Für Google bedeutet das: massive Reichweite ohne eigene Hardware verkaufen zu müssen. Für Apple: endlich ein Assistent, der nicht peinlich ist.
Für Anthropic und OpenAI ist das ein Problem. Beide haben versucht, in den Apple-Ökosystem-Slot zu kommen. Google hat dieses Rennen offenbar gewonnen — zumindest für Siri.
Meine Einordnung
Das ist ein Deal, der das KI-Kräfteverhältnis verschieben könnte. Nicht wegen der Technologie — Gemini, Claude und GPT sind alle auf einem ähnlichen Level. Sondern wegen der Distribution. Wer auf einer Milliarde iPhones läuft, gewinnt den Zugang zu den meisten Nutzern. Und genau darum geht es gerade im KI-Rennen: nicht nur das beste Modell haben, sondern es in die Hände der meisten Menschen bringen.
Quellen: