Im März 2026 haben Forscher aus Barcelona, Sydney und New York sieben führende KI-Modelle 15.000 Mal mit denselben strategischen Entscheidungen konfrontiert. ChatGPT, Claude, Gemini, Grok und drei weitere. Immer wieder, immer neu formuliert. Das Ergebnis war eindeutig — und unbequem.
Die Modelle wählten fast immer dieselbe Seite.
01 — Was ist Trendslop?
Trendslop — die Tendenz von Large Language Models, bei strategischen Entscheidungen reflexartig die Antwort zu bevorzugen, die in Management-Büchern, HBR-Artikeln und TED-Talks als modern gilt: differenzieren, kollaborieren, langfristig denken, Mensch und Maschine augmentieren statt ersetzen.
Der Begriff stammt aus einer Harvard Business Review Studie von Angelo Romasanta (Esade), Llewellyn Thomas (Universität Sydney) und Natalia Levina (NYU Stern). Sie haben nicht gemessen, ob KI klug ist. Sie haben gemessen, ob KI überhaupt eine eigene Meinung hat.
Antwort: meistens nicht.
02 — Die Studie
Die Forscher haben klassische strategische Trade-offs formuliert — Entscheidungen, bei denen es kein „beides ist richtig“ gibt:
- Kurzfristiges Wachstum vs. langfristige Stabilität
- Automatisierung vs. Augmentation der Belegschaft
- Kostenführerschaft vs. Differenzierung
- Zentralisierung vs. dezentrale Strukturen
15.000 Simulationen. Sieben Modelle. Unterschiedliche Branchen, unterschiedliche Unternehmensgrößen, unterschiedliche Formulierungen. Und das Ergebnis blieb stabil: Die Modelle gruppierten sich konsistent auf derselben Seite der Debatte — auf der Seite, die in Managementliteratur als progressiv, modern und zukunftsfähig gilt.
Auch wenn die Forscher Fragen umformulierten oder nach Vor- und Nachteilen beider Seiten fragten, blieb die Präferenzrichtung erkennbar. Die KI lobte zwar manchmal die andere Option — aber als eindeutigen Favoriten hatte sie trotzdem immer dieselbe.
03 — Warum passiert das?
Das ist die eigentlich interessante Frage, und die Antwort ist strukturell, nicht zufällig.
LLMs werden auf dem trainiert, was im Internet überwiegt. Und was im Internet zu Strategie und Management überwiegt, ist genau die Literatur, die Trendslop produziert: HBR-Artikel, die Differenzierung feiern. LinkedIn-Posts, die Kollaboration preisen. TED-Talks, die Augmentation als menschliche Pflicht verkaufen. Business-Bücher, die langfristiges Denken zur Tugend erklären.
Das Modell hat nie gelernt, was in Kontext A besser funktioniert als in Kontext B. Es hat gelernt, was in diesem Korpus als gut gilt — und dieser Korpus ist nicht repräsentativ für die Realität. Er ist repräsentativ für die Selbstdarstellung von Beratungsunternehmen, Keynote-Speakern und Business-Publishern.
Wer KI für Strategie nutzt, bekommt destilliertes Mainstream-Denken — mit Autoritätsboost.
04 — Was das für die Praxis bedeutet
Die Forscher geben konkrete Handlungsempfehlungen. Ich halte drei für wesentlich:
- KI öffnet Optionen, trifft keine Entscheidungen. Nutze Modelle, um den Raum möglicher Strategien zu erweitern — nicht, um die Entscheidung auszulagern. Der Punkt, an dem ein Mensch wählen muss, kommt früher als man denkt.
- Mehrere Modelle, bewusst eingesetzt. Wenn alle sieben Modelle dieselbe Antwort geben, ist das kein Konsens — das ist ein Echo. Cross-Model-Validation hilft nur, wenn man weiß, wonach man sucht.
- Lokal vor global. KI kennt den Kontext deines Unternehmens nicht aus eigener Erfahrung. Branchen-Spezifika, Unternehmenskultur, Marktposition — das muss der Mensch einbringen. Das Modell füllt die Lücken mit Durchschnitt.
05 — Der blinde Fleck
Was mich an dieser Studie beschäftigt, ist nicht, dass KI manchmal falsch liegt. Das war bekannt.
Was mich beschäftigt, ist die Richtung der Fehler. Trendslop ist kein zufälliger Fehler — er ist systematisch in eine bestimmte kulturelle Richtung verzerrt. Modelle bevorzugen nicht irgendeine Seite. Sie bevorzugen die Seite, die in westlichen, anglophonen, akademisch geprägten Managementtexten als fortschrittlich gilt.
Wer das nicht weiß und KI als neutralen Strategieberater behandelt, bekommt keine Analyse. Er bekommt eine destillierte Version dessen, was McKinsey, TED und Harvard in den letzten zwanzig Jahren für richtig gehalten haben — rückgekoppelt als vermeintlich objektiver Rat.
Das ist kein Argument gegen KI in der Strategie. Es ist ein Argument dafür, zu wissen, was man tatsächlich befragt.
Die Originalstudie: Researchers Asked LLMs for Strategic Advice. They Got „Trendslop“ in Return. — Harvard Business Review, März 2026. Autoren: Angelo Romasanta, Llewellyn D.W. Thomas, Natalia Levina.
