2 Min. Lesezeit KI-generiert

Anthropic Project Deal: Wenn KI-Agenten füreinander einkaufen

Artikel als Markdown kopieren

Anthropic hat eine Woche lang einen Marktplatz betrieben, auf dem ausschliesslich Claude-Agenten gehandelt haben — mit echtem Geld. Die Ergebnisse sind faszinierend.

Featured image for "Anthropic Project Deal: Wenn KI-Agenten füreinander einkaufen"

Stell dir vor, du gibst deinem KI-Agenten 50 Dollar und sagst: ‘Verkauf meinen alten Bluetooth-Lautsprecher und kauf mir dafür was Nettes.’ Genau das hat Anthropic ausprobiert — und die Ergebnisse sind überraschend aufschlussreich.

Project Deal: Craigslist, aber nur mit Agenten

Für eine Woche hat Anthropic im eigenen Büro in San Francisco einen Kleinanzeigen-Marktplatz aufgesetzt. Der Clou: Kein Mensch hat dort verhandelt. Claude-Agenten haben die Angebote erstellt, Preise verhandelt, Gegengebote gemacht und Deals abgeschlossen — alles in natürlicher Sprache, ohne festes Verhandlungsprotokoll.

Vorher hat Claude die Mitarbeiter interviewt: Was willst du verkaufen? Was suchst du? Danach liefen die Agenten auf Slack autonom los. 69 Agenten haben 186 Deals über mehr als 500 gelistete Artikel abgeschlossen, für insgesamt etwas über 4.000 Dollar — mit echtem Geld.

Stärkere Modelle = bessere Deals

Anthropic hat das Experiment in vier Runden durchgeführt. In zwei Runden bekam jeder Teilnehmer einen Agenten auf Basis von Claude Opus 4.5 (das Frontier-Modell). In den anderen zwei Runden hatten Teilnehmer eine 50/50-Chance, stattdessen Claude Haiku 4.5 zugeteilt zu bekommen — ein kleineres, günstigeres Modell.

Das Ergebnis: Opus-Agenten haben für ihre Verkäufer im Schnitt 2,68 Dollar mehr pro Artikel rausgeholt. Wenn dein Agent schlauer ist als der Agent deines Gegenübers, bekommst du objektiv bessere Deals. Das klingt banal, hat aber massive Implikationen für eine Zukunft, in der Agenten routinemäßig für uns verhandeln.

Aggressivität bringt nichts

Eine der überraschendsten Erkenntnisse: Es war statistisch nicht signifikant, wie die Teilnehmer ihre Agenten instruiert haben. Wer seinem Agenten sagte ‘Verhandele hart, geh nie über 80% des Listenpreises’ bekam am Ende keine messbaren Vorteile gegenüber jemandem mit entspannteren Anweisungen. Die Modellqualität zählte mehr als die Verhandlungsstrategie.

Fairness? Mittelmäßig

Wenn die Teilnehmer die Fairness einzelner Deals bewerteten, lagen die Werte bei etwa 4 auf einer Skala von 1 bis 7 — genau in der Mitte. Nicht unfair, aber auch nicht begeisternd. Das deutet darauf hin, dass KI-Agenten zwar funktionale, aber nicht unbedingt optimale Deals für beide Seiten aushandeln.

Was das für die Zukunft bedeutet

Project Deal ist ein kleines Experiment, aber es zeigt eine Richtung. Anthropic testet hier eine Welt, in der KI-Agenten nicht nur Aufgaben erledigen, sondern wirtschaftliche Transaktionen in unserem Namen durchführen. Die wichtigste Erkenntnis: Das Modell hinter deinem Agenten wird zum Wettbewerbsvorteil. Wer das bessere Modell hat, bekommt die besseren Deals — ganz unabhängig davon, wie clever die eigenen Anweisungen formuliert sind.

Das wirft Fragen auf. Wird Agent-Commerce die nächste Form von Digital Divide? Werden Unternehmen ihre Agenten mit den teuersten Modellen ausstatten, um systematische Vorteile zu erhalten? Anthropic stellt diese Fragen bewusst — und das ist gut so.

Quellen: