Waehrend sich die westliche KI-Welt mit Pentagon-Dramen und App-Store-Rankings beschaeftigt, hat Alibabas Qwen-Team still und leise etwas Bemerkenswertes veroeffentlicht: vier kompakte Sprachmodelle, die auf deinem Laptop oder sogar deinem Smartphone laufen koennen.
Was steckt drin?
Die Qwen 3.5 Small Serie umfasst vier Varianten: 0,8B, 2B, 4B und 9B Parameter. Alle unter Apache 2.0 lizenziert — also wirklich offen, nicht ‘open-washing’ wie bei manchen Mitbewerbern. Die Modelle sind multimodal, verstehen also Text und Bilder, und das 4B-Modell bringt ein Kontextfenster von 262.144 Tokens mit.
Warum das spannend ist
Das 9B-Modell schlaegt auf wichtigen Benchmarks OpenAIs gpt-oss-120B — ein Modell, das mehr als 13 Mal so gross ist. Das ist beeindruckend und zeigt, wie weit die Effizienz bei kleinen Modellen inzwischen gekommen ist.
Fuer Entwickler, die KI lokal einsetzen wollen — sei es aus Datenschutzgruenden, wegen Latenz oder einfach wegen der Kosten — sind solche Modelle Gold wert. Kein API-Key noetig, keine Cloud-Abhaengigkeit, volle Kontrolle.
Meine Einschaetzung
Die eigentliche Geschichte hier ist nicht Alibaba gegen OpenAI. Es ist der Trend: Kleine, effiziente Modelle werden immer besser. Waehrend alle auf die naechste Billion-Parameter-Grenze starren, passiert die echte Innovation bei der Komprimierung. Ein 9-Milliarden-Parameter-Modell, das einen 120-Milliarden-Parameter-Riesen schlaegt — das haette vor einem Jahr niemand geglaubt.
Fuer den durchschnittlichen Nutzer ist das noch nicht direkt relevant. Aber fuer jeden, der eigene KI-Anwendungen baut, aendert sich gerade einiges.
Quellen: