Die Versprechen sind groß: Sprachmodelle, die in Minuten Strategiepapiere ausspucken, Präsentationen polieren und Risiken ordnen. Erste Strategie-KI-Start-ups werden von Medien als nächste Einhörner gehypet. Die Strategieberatung und strategisches Denken von CEOs wird dabei beinahe verbrämt: zu teuer, zu langsam, zu schlecht.

Worum es wirklich geht

Das allerdings übersieht, dass Strategie nicht Textproduktion ist. LLMs produzieren Sprache – worum es aber wirklich geht, ist Urteilskraft. Wer beides verwechselt, kauft lediglich ein Format und bekommt Scheinpräzision. Denn LLMs maximieren sprachliche Plausibilität, nicht Wahrheit. Strategische Qualität entsteht erst, wenn Annahmen gegen Daten und Experimente rückgekoppelt und Entscheidungen unter Unsicherheit verantwortet werden.

Warum LLMs in der Strategie stolpern

  1. Daten sind nicht Wirklichkeit: Modelle lernen aus publizierten Texten (Web, Bücher, Journals, Lizenzkorpora) und spiegeln deren Rauschen, Moden und nachträgliche Rationalisierungen. In Domänen mit schwacher Rückkopplung – wo Fehler selten, spät oder mehrdeutig sichtbar werden – häuft sich Scheinwissen.
  2. Vernachlässigung impliziten Wissens: Menschen wissen Dinge, von denen sie nicht wissen, dass sie diese wissen. Ein Grund, warum in Strategieprozessen qualitative Interviews zu führen sind. Was nicht aufgeschrieben steht, kann ein LLM nicht in sein Training einbeziehen.
  3. Prinzipielle Grenzen der Vorhersagbarkeit: Die Phänomene sind ebenso Legion wie businessrelevant, zu den Schlagwörtern zählen das Bias-Varianz-Dilemma (Fluch der Dimensionen), chaotische Kausalstrukturen (Schmetterlingseffekt und Dreikörperproblem), Gesetz der iterierten Erwartungen (K.R. Popper lässt grüßen) sowie Unschärferelation und Meta-Risiken. Das sind Restriktionen, welche bereits die Planbarkeit von Paarbeziehungen betreffen – und erst recht bei der Planung von Unternehmens- oder Kommunikationserfolg.
  4. Falsche Zielgröße: Trainiert wird auf Hilfsgrößen wie Nützlichkeit und Plausibilität in Dialogen, nicht auf reale Entscheidungstreffsicherheit. Klingende Antworten repräsentieren den strategischen Diskurs, nicht aber wirklich funktionierende Konzepte. Und dass Strategieblabla nicht notwendigerweise korrekt sein muss, ist ein Gemeinplatz der Prognoseforschung: nicht nur bei Business-, sondern auch bei politischen Strategien.
  5. Konfidenz ohne Verantwortung: Modelle rechtfertigen nichts und tragen keine Kosten ihrer Irrtümer. Genau das unterscheidet Entscheidungen von Texten. Papier ist nicht weniger geduldig als KI-Texte, und ChatGPT hat kein „Skin in the Game“.

Diese Probleme sind Grundtatbestände der Wirklichkeit und der Erkenntnis von Wirklichkeit. Diese Probleme lassen sich auch dann nicht umgehen, wenn KI plötzlich „superintelligent“ wird, wenn die hochgejubelten Agents in Sequenzen denken oder proprietäre Daten verwenden, wenn ihre Hardware mit Quanten rechnet oder sie von Außerirdischen bedient wird.

Zudem ist bedeutsam, dass derlei Probleme bei Strategien viel größer sind – einfach weil die soziale Wirklichkeit von Unternehmen und Politik viel komplexer und viel weniger experimentell durchforscht ist, als – zum Beispiel – medizinische Zusammenhänge. Deswegen kann ChatGPT besser als Arzt dienen, denn als Unternehmens- oder Staatenlenker.

Diese Punkte bedeuten nicht, dass „KI für Strategie nutzlos“ wäre. Richtig eingesetzt sind LLMs hervorragende Denkverstärker – nur nicht die Entscheider.

Wo LLMs heute konkret helfen

Für derlei Denkhilfe braucht es aber – sich immer wieder bewährende – Denktechniken. Solche sind:

  • Problemzerlegung und Optionssuche: Suchräume öffnen, Annahmen explizit machen, Alternativen und blinde Flecken sammeln.
  • Advocatus Diaboli: Gegenargumente ersinnen: „Was müsste wahr sein, damit Plan A scheitert?“
  • Szenarien und Checklisten: Narrative auf Konsistenz prüfen, Abhängigkeiten fassen, Frühindikatoren herausarbeiten, Sicherheitsmargen schaffen.
  • Brücke zu Simulationen: Durchspielen von hypothetischen Wirklichkeiten. Gerade bei der Strategiebildung halfen hierzu Simulationen: Hypothesen und Parameter-Ranges können in Agent Based Models oder Monte-Carlo-Analysen überführt werden.
  • Dokumentation & Kommunikation: Wenn die Denkarbeit steht, sind LLMs starke Co-Autoren für Memos, Briefings und Q&As. Sie verklaren das Gedachte und ermöglichen Kritik.

Die letzte Meile bleibt menschlich: Priorisieren, Ambiguität aushalten, Wetten platzieren, Verantwortung tragen.

Fünf Einsatzregeln für die Praxis

  1. Briefing wie ein Vertrag: Ziele, Entscheidungskriterien, Zeithorizont, harte Constraints. „Schreibe mir eine Strategie“ produziert Literatur, keine Wahrheit, und keine Entscheidungen.
  2. Annahmen sichtbar machen: Jede KI-Ausgabe mit Top-Annahmen, Schwachstellen und Konfidenz versehen. Leitfrage: „Welche drei Annahmen müssten kippen, damit das falsch ist?“
  3. Quellenhierarchie & Evidenz: Primärquellen vor Sekundärquellen, Zahlen vor Meinungen, Experimente vor Anekdoten. LLM-Output ist der Startpunkt der Recherche, nicht ihr Ende.
  4. Unsicherheitskarte statt Zahlentheater: Was wissen wir? Was lässt sich testen? Wo handeln wir trotz Unwissen? LLMs helfen beim Kartieren – die Entscheidung verlangt Urteil.
  5. Kombinieren, nicht romantisieren: LLMs + Simulation + Feldzugriff + Erfahrung schlagen jedes Solo-Instrument.

Zwei Mini-Beispiele aus ESG/PA

Wie lässt sich das illustrieren? Hier zwei Beispiele:

  • Energieprojekt im Forstgebiet: LLM sammelt Stakeholder-Claims, Gegenargumente und regulatorische Anknüpfungspunkte. Die Kalibrierung erfolgt über Interviews, Medienmonitoring und Pilotformate. Entscheidung über Timing und Botschaften ist hochgradig kontext- und erfahrungsbasiert (implizites Wissen erfahrener Experten) – inklusive Risikoübernahme.
  • Standortausbau eines Tech-Unternehmens: LLM strukturiert Standortkriterien, erstellt Szenarien und Kommunikations-Q&As. Ausschlaggebend werden proprietäre Kostendaten, Talentpools, Betriebsvereinbarungen und Testballons, die von Probanden und Interviewpartnern diskutiert werden; hier trennt sich Text von Tragfähigkeit.

„Nulltarif-Strategie“ – was sagt das über Beratungen?

Dass LLMs heute Deckfolien und Standardfloskeln imitieren, ist weniger Enthüllung als Erinnerung: Form ist nicht Wert. Wert entsteht dort, wo jemand

  1. die richtigen Fragen stellt,
  2. Annahmen testbar macht und
  3. Verantwortung übernimmt.

Proprietäre Daten, Feldzugriff, Experimente und Accountability sind die Differenzmerkmale – nicht die Eleganz des PDFs.

Ausblick: Agenten, die rechnen

Autonome Agenten werden LLMs mit Simulations-, Optimierungs- und Retrieval-Bausteinen koppeln. Ergebnis: schnelleres Erkunden, billigeres Scheitern, bessere Frühwarnsysteme. Auch dann verschwindet Unsicherheit nicht – sie wird sichtbarer. Nichts anderes lehren uns Simulationen von Strategien und Investments – der Hype vor dem KI-Hype. Das ist ein Gewinn, sofern wir hinschauen und daraus lernen (siehe hierzu: Tetlock/Gardner: „Superforecasting“; Kahneman/Sibony/Sunstein: „Noise“; Ormerod: „Why Most Things Fail“).

KI ist Hebel, nicht Lenkrad

Nutzen wir KI, um Denken zu beschleunigen – nicht, um es zu ersetzen. Gute Strategen waren nie „leere Anzüge“, also Behauptungen von Leuten, die für ihre Empfehlungen nicht einstehen mussten, die also kein „Skin in the Game“ hatten (Nassim Taleb). Gute Strategieprozesse bauen Rückkopplung, schaffen Evidenz und führen zum rationalen Umgang mit – unvermeidlicher – Unsicherheit, ja sogar Ungewissheit. Genau hier ist KI Hebel, nicht Lenkrad.


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert