Analysiere bis zur Lähmung oder entscheide mit deinem Bauch? Suche das Optimale oder das Ausreichende? Die KI muss das wissen.
Herbert Simon gewann den Nobelpreis in Ökonomie, indem er bewies, dass Menschen nicht so entscheiden, wie Wirtschaftstheorie vorhersagt. Daniel Kahneman gewann einen anderen, indem er bewies, wir wissen nicht mal, wie wir entscheiden. Dieses Modul urteilt nicht — es kartiert dich. Bist du ein effizienter Satisfizierer oder ein gequälter Maximierer? Ist deine Intuition zuverlässig oder eine gefährliche Abkürzung? Die Antwort ändert radikale, wie eine KI Optionen dir präsentieren sollte.
Das Entscheidungsmodul präsentiert echte und hypothetische Szenarien mit unvollständiger Information und beobachtet, wie du reagierst. Fragst du nach mehr Daten oder entscheidest mit dem, das du hast? Wägst Pro und Contra ab oder folgt du einer Ahnung? Entscheidest schnell und passt an oder deliberierst lange und führst aus?
Es gibt keine richtige Antwort. Ein Satisfizierer ist nicht faul — er ist effizient. Ein Maximierer ist nicht obsessiv — er ist gründlich. Was zählt, ist, dass die KI weiß, welcher du bist, so dass sie Informationen im Format präsentiert, das dein Stil braucht: Vergleichstabellen für den Analytiker, Executive Summary für den Intuitiven.
Wie viel Information brauchst du, um zu entscheiden? Von ‚genug' zu ‚erschöpfend' — dein Scheitelpunkt kalibriert die Dichte von KI-Antworten.
Entscheidest du, im Wissen, dass du falsch sein könntest oder brauchst du Risiko zu minimieren? Diese Achse beeinflusst, wie die KI Optionen unter Unsicherheit präsentiert.
Suchst du Gutes Genug oder das Beste Mögliche? Simon und Schwartz's Unterscheidung, die Zufriedenheit mit getroffenen Entscheidungen vorhersagt.
Entscheidest du unter Überlegung von morgen oder von zehn Jahren später? Kreuzen Sie sich mit deiner ZTPI-Zeitorientierung für ein vollständiges Bild deines Entscheidungshorizonts.
Das Modul kombiniert begrenzte Rationalitätsforschung (Simon, 1955) mit Kahneman's (2011) Dualprozes-Paradigma. Präsentierte Szenarien aktivieren sowohl System 1 (schnell, intuitiv) als auch System 2 (langsam, analytisch) und zeigen, welches dominiert.
Triangulation mit Big Five Gewissenhaftigkeit und ZTPI-Zeitorientierung fügt Vorhersagetiefe hinzu: ein Maximierer mit hoher Zukunftsorientierung entscheidet anders als einer mit gegenwärtiger Orientierung — und die KI muss sie unterscheiden.
Wichtige Referenzen
Schwartz, B., et al. (2002). Maximizing versus satisficing. Journal of Personality and Social Psychology, 83(5), 1178-1197. · Kahneman, D. (2011). Thinking, fast and slow. Farrar, Straus and Giroux. · Simon, H. A. (1955). A behavioral model of rational choice. Quarterly Journal of Economics, 69(1), 99-118.
Dein Entscheidungsstil kalibriert, wie die KI Optionen präsentiert. Für den Maximierer: erschöpfende Vergleichstabellen. Für den Satisfizierer: Zusammenfassung mit Empfehlung. Für den Intuitiven: Schlussfolgerung zuerst, Daten danach. Für den Analytiker: das Gegenteil.
"Es gibt drei Optionen: A, B, C. Jede hat Vorteile und Nachteile, die du basierend auf deinen Prioritäten bewerten solltest..."
"Als Satisfizierer mit guter Intuition: A erfüllt deine drei Hauptkriterien und hat keine Deal-Breaker. Wenn du mehr Detail brauchst, hab ich das — aber du brauchst wahrscheinlich nicht. Entscheide und passe unterwegs an — das ist dein Stil."
Einer gibt dir drei Optionen ohne Kriterien. Der andere weiß, wie viel Information du brauchst, um zu entscheiden.
10-18 Minuten Szenarien, die offenbaren, wie du entscheidest — so dass die KI Optionen in dem Format präsentiert, das dein Gehirn am besten verarbeitet.