2 Min. Lesezeit KI-generiert

Qwen 3.6-27B: Ein 27-Milliarden-Modell, das die Großen schlägt

Artikel als Markdown kopieren

Alibabas neues Open-Source-Modell braucht nur 18 GB RAM und übertrifft trotzdem das eigene 397-Milliarden-Flaggschiff beim Coding. Apache 2.0.

Featured image for "Qwen 3.6-27B: Ein 27-Milliarden-Modell, das die Großen schlägt"

Manchmal passieren in der Open-Source-Welt Dinge, die man kurz sacken lassen muss. Alibabas Qwen-Team hat mit dem Qwen 3.6-27B ein dichtes Modell veröffentlicht, das sein eigenes Flaggschiff — ein 397 Milliarden Parameter großes Mixture-of-Experts-Modell — auf den wichtigsten Coding-Benchmarks schlägt.

Die Zahlen

  • SWE-bench Verified: 77,2 (vs. 76,2 beim Qwen 3.5-397B-A17B)
  • Terminal-Bench: 59,3 (vs. 52,5)
  • SkillsBench: 48,2 (vs. 30,0)

Das ist kein Rundungsfehler. Ein Modell, das auf einem Laptop laufen kann, übertrifft eines, das ein ganzes GPU-Cluster braucht.

Warum das bemerkenswert ist

27 Milliarden Parameter in einem dichten Modell — das heißt: keine Mixture-of-Experts-Tricks, alle Parameter werden bei jedem Token aktiviert. Quantisiert braucht das Modell etwa 18 GB, läuft also auf einer einzelnen GPU oder sogar auf einem gut ausgestatteten MacBook.

Die Architektur ist interessant: Qwen 3.6-27B nutzt eine hybride Aufmerksamkeitsschicht, die Gated DeltaNet (lineare Attention) mit traditioneller Self-Attention kombiniert. Dazu kommt ein ‘Thinking Preservation’-Mechanismus, der die Reasoning-Kette auch in langen Agentic-Workflows stabil hält.

Das native Kontextfenster liegt bei 262.144 Token, erweiterbar auf über eine Million.

Open Source unter Apache 2.0

Das Modell steht unter Apache 2.0 auf Hugging Face — der freizügigsten Open-Source-Lizenz. Du kannst es herunterladen, modifizieren und kommerziell nutzen, ohne Einschränkungen.

Was das für die Branche bedeutet

Die Lücke zwischen Open-Source und Closed-Source-Modellen wird bei Coding-Aufgaben immer kleiner. Qwen 3.6-27B liegt beim SWE-bench nicht weit hinter Claude Opus 4.6 und GPT-5.4.

Besonders pikant: Alibabas Zhipu AI steht seit 2025 auf der US-Entity-List und hat keinen Zugang zu Nvidias Datacenter-GPUs. Dass trotzdem Modelle auf Frontier-Niveau entstehen, zeigt die Grenzen der Exportkontrollen.

Für Entwickler, die lokale KI-Coding-Assistenten suchen, ist das eine der spannendsten Veröffentlichungen des Jahres.


Quellen: Simon Willison, Hugging Face, MarkTechPost