2 Min. Lesezeit KI-generiert

OpenAI startet Safety Fellowship und schlägt Public Wealth Fund vor

Artikel als Markdown kopieren

OpenAI kündigt ein neues Forschungsprogramm für externe Safety-Researcher an und veröffentlicht gleichzeitig einen Policy-Vorschlag für einen öffentlichen KI-Investmentfonds.

Featured image for "OpenAI startet Safety Fellowship und schlägt Public Wealth Fund vor"

OpenAI hat am 7. April gleich zwei Dinge angekündigt, die auf den ersten Blick wenig miteinander zu tun haben — zusammen aber ein Bild davon zeichnen, wie sich das Unternehmen positionieren will. Ein neues Forschungsprogramm für externe Safety-Researcher und ein politischer Vorschlag, der die wirtschaftlichen Folgen von KI breiter verteilen soll.

Die Safety Fellowship

Mit der OpenAI Safety Fellowship startet das Unternehmen ein Programm für externe Forscher, die sich konkret mit AI-Safety und Alignment beschäftigen. Laufzeit: September 2026 bis Februar 2027. Das Ziel ist, mehr unabhängige Stimmen ins Safety-Feld zu holen — Menschen, die nicht direkt bei einem Frontier-Lab angestellt sind, aber trotzdem Zugang zu echten Modellen und Ressourcen brauchen, um relevante Forschung machen zu können. Anthropic hatte ein vergleichbares Programm schon länger laufen, OpenAI zieht jetzt nach.

Ein Public Wealth Fund für KI

Der zweite Punkt ist ein Policy-Vorschlag und damit eher ungewohnt für ein KI-Lab. OpenAI argumentiert, dass die wirtschaftlichen Gewinne aus KI breiter verteilt werden sollten — und schlägt drei konkrete Maßnahmen vor. Erstens einen Public Wealth Fund, über den alle Amerikaner automatisch eine Beteiligung an den größten KI-Unternehmen erhalten. Zweitens eine subventionierte Vier-Tage-Woche, finanziert aus den Produktivitätsgewinnen. Drittens höhere Kapitalertragssteuern auf Renditen, die direkt aus KI-Wertschöpfung stammen.

Das ist ein erstaunlich linker Vorschlag für ein Unternehmen, das selbst zu den größten Profiteuren der aktuellen KI-Welle gehört. Aber genau das dürfte der Punkt sein: OpenAI weiß, dass die politische Debatte über Verteilungseffekte kommt — und versucht, sie aktiv mitzugestalten, statt sie passiv zu erleiden.

Mein Fazit

Die Safety Fellowship ist die handfeste Nachricht hier — sie macht echte Forschung möglich und ist ein gutes Signal an die externe Community. Der Public-Wealth-Fund-Vorschlag ist eher ein Gesprächsbeitrag als ein konkretes Programm, aber er zeigt, dass OpenAI die Debatte ernst nimmt. Beides zusammen liest sich wie der Versuch, sich nicht nur als Tech-Unternehmen, sondern auch als gesellschaftspolitischer Akteur zu definieren.

Quellen