Entscheiden, nur eine Stufe höher

von Anna Schmitz
Entscheiden, nur eine Stufe höher: Wie Metaentscheidungen im Zeitalter von KI an Bedeutung gewinnen und wie du deine Teammitglieder in dieser Kompetenz unterstützt
„Hey ChatGPT, wir feiern eine Party mit 53 Menschen. Sie findet an einem Wochentag statt, die Gäste sind überwiegend berufstätig und zwischen 29 und 86 Jahre alt. Bitte ermittle den Getränkebedarf und leite davon eine Einkaufsliste ab.“
So oder so ähnlich könnte ein Auftrag aussehen, der den Planungsaufwand einer Feier auf einen Bruchteil des Gewöhnten reduziert und ganz nebenbei davor schützt, die ausgefeilte Getränkebestellung zu verdoppeln, aus Angst, die Getränke könnten ausgehen. Während man sich früher auf sein Gefühl und die spärlichen Erfahrungen aus einer Zeit, in der man noch WG-Partys schmiss, verlassen musste, verfügt man heute per Mausklick über eine Beratungskompetenz wie von der Fachfrau, deren Empfehlungen gepaart mit der eigenen Augenscheinvalidität den Arbeitsumfang von drei Stunden auf 30 Minuten reduziert. Man könnte sagen, KI nähme Entscheidungen ab. Für Routinefragen und datengetriebene Prozesse stimmt das auch. KI entscheidet oft objektiver und effizienter. Doch während sie den Menschen von Routinetätigkeiten entlastet, nimmt sie nicht Entscheidungen per se ab, sondern verschiebt lediglich den Fokus. Viele Entscheidungen bleiben beim Menschen und werden anspruchsvoller.
Gerade weil KI vieles automatisieren kann, steigt die Bedeutung von menschlicher Urteilskraft dort, wo Ambiguität, ethische Abwägungen oder komplexe Interessenlagen im Spiel sind. Menschen müssen entscheiden, welche Daten, Kriterien und Ziele überhaupt relevant sind und wie sie interpretiert werden.
Die Fähigkeit, nicht nur eine konkrete Entscheidung zu treffen, sondern auch zu reflektieren, nennt man die Metakompetenz „Entscheiden über das Entscheiden“: Soll hier die KI entscheiden oder der Mensch? Diese Meta-Entscheidung wird zur Schlüsselkompetenz. Wer diese Fähigkeit entwickelt, kann Technologie sinnvoll einsetzen, ohne Verantwortung abzugeben.
KI kann zwar Optionen berechnen, aber nicht zuverlässig beurteilen, wie sich Entscheidungen auf Kultur, Motivation oder Vertrauen in einer Organisation auswirken. In der sozialen und strategischen Dimension bleibt die menschliche Entscheidungskraft zentral, besonders in Führungs- und Gestaltungsrollen.
KI reduziert also die Notwendigkeit, einfache Entscheidungen selbst zu treffen, aber sie macht die Fähigkeit, bewusste, reflektierte und verantwortliche Entscheidungen zu fällen, noch bedeutender. Die Kompetenz des Entscheidens wandelt sich von einem „Auswählen zwischen Optionen“ zu einem „Bewerten von Kontext, Werten und Folgen“.
Warum wir Entscheidungskompetenz nicht an KI auslagern dürfen
KI entlastet uns zwar in unseren Entscheidungen, aber vollständige Delegation führt zur Kompetenz-Erosion. Aus der Kognitionspsychologie wissen wir: Fähigkeiten, die dauerhaft ausgelagert werden (cognitive offloading), werden seltener geübt und nehmen in Qualität ab („use it or lose it“). Wer Urteilsbildung, Abwägung und Priorisierung konsequent an Systeme delegiert, trainiert weder kritisches Denken noch Problemlösefähigkeit. Genau jene Funktionen werden aber gebraucht, wenn Daten widersprüchlich sind, Normen kollidieren oder es keine „richtige“ Antwort gibt.
Hinzu kommt der Automationsbias: Menschen neigen dazu, algorithmischen Vorschlägen zu stark zu vertrauen, besonders unter Zeitdruck. Das fördert ein reflexartiges Folgen, ohne die Passung zum Kontext zu prüfen. Auf Organisationsebene schwächt das Metakompetenzen wie Kontextsensibilität, ethische Urteilsbildung und Risikoantizipation, auf individueller Ebene verflacht die metakognitive Kalibrierung, was das Einschätzen davon meint, wie sicher man ist und warum.
Expertise entsteht aus Zyklen von Entscheidungen zu treffen, Feedback zu erhalten und Anpassungen vorzunehmen. Wenn KI die Entscheidung ersetzt statt unterstützt, bricht dieser Lernkreislauf ab. Es gibt dann weniger eigene Hypothesen, weniger bewusste Kriterienbildung und weniger korrigierendes Feedback. Die Folge: Wir werden schneller, ohne klüger zu werden.
KI sollte also als Entscheidungsassistenz dienen (Hypothesen, Szenarien, Gegenargumente), nicht als Urteilsersatz. Nur wenn wir die Vorschläge prinzipienbasiert prüfen (Ziele, Werte, Nebenwirkungen, Stakeholder-Effekte) und bewusst verantworten, bleiben Urteilsfähigkeit, Problemlösen und ethische Reflexion erhalten und entwickeln sich weiter.
Nice work, Team! *Klatscht ab mit KI* – Wie die Entscheidungsfähigkeit in der Arbeit mit KI gezielt weiterentwickelt werden kann
Besser darin zu werden, mithilfe von KI zu arbeiten, wird unter anderem von der Fähigkeit beeinflusst, wie produktiv Entscheidungen im Workflow getroffen werden können. Mit diesen vier Schritten steigerst du die Qualität der Entscheidungen deines Teams, das mit KI arbeitet:
1. Ebene: Technisches Grundverständnis
- Grundwissen zu KI-Systemen: Alle sollten wissen, wie funktionieren sie, wo liegen ihre Grenzen? Es sollte klar sein, welche Aufgaben durch die Ergänzung der KI effizienter und besser erledigt werden, und welche eventuell unter der Nutzung von KI leiden (weil sie zum Beispiel dem Kompetenzaufbau dienen, welcher durch KI verhindert wird).
- Menschen, die mit KI arbeiten, sollten die Fähigkeit besitzen, Ergebnisse von KI kritisch einzuordnen (Bias, Datenqualität, Black-Box-Logik). Hier braucht es faktenbasiertes Wissen, das am besten in gemeinsame Seminaren vermittelt wird.
- Entscheidungsträger sollten in der Lage sein, Situationen zu unterscheiden: Wo ist KI ein valider Entscheidungshelfer und wo nicht?
2. Ebene: Reflexive Entscheidungsfähigkeit
- Meta-Entscheidung: Festlegen, ob eine Entscheidung besser durch Mensch, Maschine oder in Kombination getroffen wird. Dies sollte mindestens teamweit, vielleicht sogar unternehmensweit verhandelt und gemeinsam beschlossen werden. Leitlinien helfen bei Einzelfallentscheidungen.
- Werte- und Kontextbewusstsein: Entscheidungen nicht nur auf Effizienz, sondern auf Sinn, Fairness und Wirkung auf Menschen ausrichten. Dafür ist es relevant, ein gemeinsames Werteverständnis zu entwickeln und zu leben.
- Verantwortungsübernahme: Klare Rollenzuordnung – KI kann vorbereiten, der Mensch trägt die Verantwortung. Insbesondere vor Kunden ist die klare Kommunikation diesbezüglich vertrauensstiftend. Darin liegt auch, dass der Workflow mit KI immer beinhaltet, dass verwendete Ergebnisse gecheckt, validiert und ausgewählt oder verworfen (= Entscheidungsprozess) werden.
3. Ebene: Soziale und kommunikative Dimension
- Entscheidungen transparent begründen können, auch wenn KI-Empfehlungen im Hintergrund stehen. Dies kann nur unter der sorgfältigen Ausarbeitung eines Konzepts bezüglich „2. Reflexive Entscheidungsfähigkeit“ glaubhaft gelingen. Daher ist es wichtig, dass es eine gemeinsame Haltung gibt, an der sich das Team orientieren kann.
- Teil des Entscheidungsprozesses unter Zuhilfenahme von KI sollte sein, Stakeholder einzubeziehen, um Akzeptanz zu schaffen. Selbst, wenn ihre Entscheidungskraft von der KI teilweise ergänzt, bis hin zu ersetzt wird. Beispiel: Lagerarbeiter*innen teilen Erfahrungen, die von den Auswertungen der KI abweichen – hier sollte kein Konflikt „Mensch gegen Maschine“ fabriziert werden, sondern die menschliche Perspektive als eigene verstanden und ernstgenommen werden.
- Konfliktfähigkeit: Nicht nur, weshalb man der KI in Entscheidungen folgt, sollte begründbar sein, es sollte auch klar sein: Aus welchen Gründen werden Entscheidungen gegen die Ergebnisse der KI getroffen. Was sind andere Referenzwerte, von denen Entscheidungen abgeleitet werden und weshalb?
4. Ebene: Praktisches Training
- Simulationen: Fallstudien, bei denen KI-Vorschläge gegeben werden, aber der Mensch reflektieren und final entscheiden muss.
- Ethik-Dilemmata: Übungen mit moralisch aufgeladenen Szenarien, in denen keine „richtige“ Entscheidung existiert. Das kann, im Team besprochen, dazu dienen, das gemeinsame Werteverständnis zu schärfen.
- Feedback-Schleifen: Nachverfolgung der eigenen Entscheidungen – was war die Folge, was lässt sich lernen? Entsprach die Konsequenz der Absicht? Dieses Wissen kann in regemäßigen Abständen gemeinsam geteilt und aufbereitet werden.
- Entscheidungsgeschwindigkeit: Trainieren, zwischen sorgfältiger Abwägung und pragmatischem Handeln zu balancieren. Hierhinter steckt die Frage: ab wie viel Sicherheit wird entschieden und wieviel Unsicherheit wird toleriert. Dies ist sicherlich von Bereich zu Bereich unterschiedlich.
In einer KI-geprägten Arbeitswelt ist Entscheidungskompetenz mehrdimensional: Sie verbindet technische Mündigkeit, ethische Reflexion, kommunikative Klarheit und praktische Entscheidungsroutine. Entscheidend sind Teams, die nicht nur ein gemeinsames analytisches Grundverständnis haben, sondern auch ein geteiltes Wertesystem. Sie zeichnen sich durch Freude am Ausprobieren aus, akzeptieren Fehler als Lernquelle und bleiben offen für verschiedene Perspektiven. Gleichzeitig behalten sie die Komplexität ihrer Arbeit im Blick – auch wenn viele Dinge plötzlich einfacher erscheinen. Solche Teams schaffen Strukturen, die effizient, selbstbewusst und werteorientiert sind. Und genau diese Stabilität macht sie fähig, der Zukunft ohne Angst zu begegnen.
25.09.2025