Die GTC ist Nvidias grosse Buehne — und Jensen Huang hat auch dieses Jahr nicht enttaeuscht. Am Montag stellte er in San Jose die Vera-Rubin-Plattform vor: ein komplettes KI-Rechensystem aus sieben Chiptypen, fuenf Rack-Systemen und einem Supercomputer. Das Ganze soll als Einheit funktionieren und ist speziell fuer agentenbasierte KI ausgelegt.
Sieben Chips, ein System
Vera Rubin besteht aus Vera-CPUs, Rubin-GPUs, NVLink-6-Switches, ConnectX-9-NICs, BlueField-4-DPUs, Spectrum-X co-packaged optical NICs und den neuen Groq-3-LPUs — Nvidias erstem Chip aus der 20-Milliarden-Dollar-Uebernahme von Groq. Die Plattform ist bereits in Produktion.
Ein erstes DGX-Station-System mit GB300-Superchips wurde schon Anfang Maerz an Andrej Karpathy ausgeliefert. Wenn der ehemalige Tesla-KI-Chef dein Erstkunde ist, weisst du, dass du etwas richtig machst.
Eine Billion Dollar bis 2027
Die wirklich grosse Zahl: Huang erwartet Bestellungen von einer Billion Dollar fuer Blackwell- und Vera-Rubin-Systeme bis 2027. Letztes Jahr lag die Prognose noch bei 500 Milliarden. Das ist eine Verdopplung in zwoelf Monaten — und zeigt, wie explosiv die Nachfrage nach KI-Infrastruktur weiter waechst.
Inference ist das neue Training
Ein zentrales Thema der GTC: Wir haben einen Wendepunkt bei Inference erreicht. Das Training grosser Modelle war die erste Welle. Jetzt geht es darum, diese Modelle effizient laufen zu lassen — vor allem fuer Agenten, die selbststaendig Aufgaben erledigen. Genau dafuer ist Vera Rubin gebaut.
Was nach Vera Rubin kommt
Schon angekuendigt: Die naechste Architektur heisst Feynman und bringt einen neuen CPU namens Rosa (nach Rosalind Franklin). Nvidia denkt nicht in Quartalen, sondern in Generationen.
Meine Einordnung
Die GTC 2026 macht deutlich: KI-Infrastruktur ist kein Nischenthema mehr — es ist ein Billionen-Dollar-Markt. Fuer uns als Nutzer von Claude, ChatGPT und Co. bedeutet das: Die Modelle werden schneller, die Agenten leistungsfaehiger, und die Kosten werden langfristig sinken. Ob Nvidias Billion-Dollar-Wette aufgeht, haengt davon ab, ob die Nachfrage nach KI-Inference weiter so waechst. Bisher spricht alles dafuer.
Quellen: