Künstliche Intelligenz wird immer leistungsfähiger. Deshalb lohnt sich ein Blick auf die Frage, wer denn bessere Entscheidungen trifft: der Mensch oder die KI? Lassen wir also mit ChatGPT eine prominente Vertreterin der KI gegen einen Menschen antreten.
Die Wettkampfregeln sind einfach: ein Entscheidungsprozess besteht aus mehreren Schritten und wir bewerten, wer in dem jeweiligen Schritt die Nase vorn hat. Los geht’s!
Phase 1: es gibt etwas zu entscheiden
Jede Entscheidung beginnt mit der Frage, welche von mehreren möglichen Alternativen die beste ist. Voraussetzung dafür ist die Erkenntnis, dass überhaupt ein Wahl getroffen werden sollte. Es muss also zunächst einen Entscheidungs-bedarf geben.
Die Tatsache, dass es in einer Eisdiele 20 verschiedene Sorten, gibt macht noch keine Entscheidung notwendig. Erst wenn ich vor der Theke stehe und mich für drei Sorten entscheiden muss, weil nicht mehr Kugeln auf das Hörnchen passen, weiß ich, dass es nun auszuwählen gilt.
Da ChatGPT kaum an der Theke einer Eisdiele steht noch sonst eine eigenständige Intention hat, braucht sie im Grunde immer jemanden, der ihr sagt was sie tun soll. Das sind wohl in den meisten Fällen Menschen, weshalb die erste Runde klar an uns geht:
Mensch: 1 – ChatGPT: 0
Phase 2: Alternativen erkennen und festlegen
Hört sich einfach an, ist aber kniffliger, als es zunächst scheint. Im Fall der Eisdiele habe ich die Alternativen direkt vor meiner Nase. Hier ist es leicht, die Wahlmöglichkeiten zu erkennen. Insbesondere weil sie sich farblich unterscheiden und jede ein Namensschildchen bekommen hat. Auch ohne Schilder sind Menschen gut darin, eine Situation schnell zu erfassen und Handlungsalternativen zu unterscheiden. Schließlich hing viele Jahrtausende das Überleben davon ab.
Damit ChatGPT eine Situation erfassen kann, muss sie der Mensch mit Bildern oder Beschreibungen von Situationen füttern. Ist diese Hürde erstmal übersprungen erkennt die KI mit einer kurzen Verzögerung, worum es sich handelt. Probiert es gerne mal selbst aus und füttert ChatGPT mit verschiedenen Bildern von Stühlen. Dann bittet ihr ChatGPT die Stühle auf dem Bild zu zählen. Bei mir hat das erstaunlich gut funktioniert.
Bei nicht-materiellen Dingen ist es auch für Menschen nicht so einfach, die Alternativen klar zu unterscheiden. Nehmen wir beispielsweise die Auswahl unter mehreren Projektideen. Eine Projektidee fängt ja mit einer groben gedanklichen Skizze an, die dann im Projektverlauf weiter ausgearbeitet wird. Aber welche der vielen möglichen Projektideen nehmen wir jetzt als Alternativen für ein Entscheidung? Hier kann die KI aufgrund ihrer breiten Wissensbasis Alternativen kreieren, auf die wir als Menschen gar nicht gekommen wären. Lasst Euch mal von ChatGPT Projektideen zu einem beliebigen Thema erstellen. Auch erstaunlich.
Das sieht für mich nach einem gerechten Unentschieden aus. Menschen und ChatGPT können beide Alternativen voneinander abgrenzen.
Mensch: 2 – ChatGPT: 1
Phase 3: Passende Entscheidungskriterien festlegen
Damit aus mehreren Alternativen die beste ausgewählt werden kann, müssen die Alternativen bewertet werden und dafür braucht es Kriterien. Die Methoden von Menschen und künstlicher Intelligenz unterscheiden sich bei diesem Schritt grundlegend.
Entscheidungskriterien von Menschen sind eine Mischung aus rationalen Kosten-Nutzenüberlegungen einerseits und der gesammelten Erfahrung andererseits gepaart mit den damit zusammenhängenden Emotionen. Je nach individuellem Erfahrungshintergrund und der jeweiligen Situation kann die Entscheidung von Mensch sehr unterschiedlich ausfallen. Außerdem lassen wir uns gerne mal von unseren intuitiven Einschätzungen ins Bockshorn jagen, etwa wenn wir Dinge, die wir besitzen tendenziell immer als wertvoller betrachten als Dinge, die wir nicht besitzen. In anderen Fällen ist es gerade unsere Intuition, die uns vor falschen Entscheidungen bewahrt, einfach weil wir ein komisches Bauchgefühl bei einer der Alternativen verspüren.
Für ChatGPT ist die Welt viel einfacher: das Entscheidungskriterium ist die Wahrscheinlichkeit. Sie rechnet aus, was in ähnlichen Fragestellungen am häufigsten verwendet wurde und stellt stolz ihre errechneten Ergebnisse vor. Diese sind für uns Menschen oft verblüffend treffsicher. Offensichtlich sind die Entscheidungskriterien von ChatGPT so gut, dass sie uns sehr brauchbare Ergebnisse liefern können.
Allerdings kennt ChatGPT nur das, was in ihrem Datenmodell vorkommt. Dass KI damit z.T. menschliche Vorurteile reproduziert ist an vielen Beispielen gezeigt worden.
Wie gut die Entscheidungkriterium wirklich zur aktuellen Lebenssituation passen weiß die KI nicht. Hier braucht sie wieder den Menschen, der die Situation möglichst gut beschreibt.
Ich plädiere für unentschieden mit je einem Punkt für beide: Die KI macht weniger Fehler bei der Wahl der Entscheidungskriterien, weil sie oft neutraler ist als die persönlich gefärbten Erfahrungen und Gefühle. Dafür können Menschen schneller und einfacher feststellen, was die angemessenen Kriterien für eine Entscheidungsituation sind.
Mensch: 3 – ChatGPT: 2
Phase 4: Sammeln und interpretieren relevanter Informationen
Hier müssen wir nicht lange überlegen: ChatGPT ist dem Menschen hier weit überlegen, wenn man mal vom intuitiven Erfassen einer bestimmten Situation absieht.
Große Sprachmodelle wie ChatGPT verfügen mittlerweile über ein sehr umfangreiches „Wissen“. Wenn es um die Sichtung großer Datenmengen zum Informationsgewinn geht, sind wir Menschen ChatGPT weit unterlegen. Bis wir in unseren Erinnerungen oder dem Internet nach den relevanten Informationen gekramt haben ist die KI ChatGPT schon lange fertig. Das Ergebnis ist auch um Längen besser, weil es eben nicht durch den psycho-emotionalen Verarbeitungsweg des Menschen gelaufen ist, der Informationen einfach schon deshalb aussortiert, weil sie ihm nicht gefallen. Klarer Sieg für die KI:
Mensch: 3 – ChatGPT: 3
Phase 5: Alternativen bewerten
Unser Wettkampf steuert auf die entscheidende Phase zu: welche Alternative ist die beste? Während der Mensch noch nachdenkt und abwägt, ist die KI schon fertig. Hugh, die Algorithmen haben gesprochen. Die KI erklärt die Vor- und Nachteile der Alternativen und wofür welche Alternative gut ist. Dabei kommt ChatGPT auf Aspekte, die mir als Mensch gar nicht eingefallen wären. Bei der Frage nach der Wahl der richtigen Abendgarderobe wäre zumindest ich nicht darauf gekommen, dass ein dunkles Outfit kraftvoll ist und ein helles Energie ausstrahlt 😉. Und wenn mir die Bewertung nicht gefällt? Dann kann ich dass der KI mitteilen und bekomme freundlicherweise eine andere Bewertung geliefert. Toll, oder?
Und was macht der Mensch? Er überlegt immer noch. Eigentlich ist das Jobangebot genau dass, was ich mir gewünscht habe. Und mehr verdienen würde ich auch. Aber dann muss ich umziehen und ich sehe meine FreundInnen nicht mehr so oft und irgendwie ist das doch wichtiger als ich zunächst dachte. Gestern hatten wir doch so einen schönen Abend zusammen! Das wird mir auf jeden Fall fehlen…
Kopf, Bauch, zufällige Eindrücke, Erfahrungen (eigene ebenso wie die von anderen) und Stimmung beeinflussen die Bewertung der Alternativen so lange bis sich eine Entscheidung anbahnt. Oder eben nicht und die Entscheidung wird verschoben…
Die KI ist schneller, in ihrer Bewertung aber wenig beständig. Der Mensch braucht länger und wird von vielen unbewussten Faktoren beeinflusst. Ganz ehrlich, ich würde keinem der beiden einen Punkt geben.
Mensch: 3 – ChatGPT: 3
Phase 6: die beste Entscheidung treffen
Jetzt muss nur noch eine Entscheidung getroffen werden. Aber Moment, ChatGPT trifft ja gar keine Entscheidung! Ich bekomme eine Reihe von Angeboten und Ratschlägen mit dem freundlichen Hinweis, dass es immer auf die jeweiligen persönlichen Umstände ankommt.
Wenn ChatGPT am Ende keine Entscheidung trifft der Mensch aber schon, dann geht der Punkt klar an den Menschen.
Mensch: 4 – ChatGPT: 3
And the winner is: the Mensch! Das ist ja gerade noch mal gut gegangen!!!
Wirklich? Noch sind KI-Modelle wie ChatGPT Werkzeuge, die auf menschliche Eingabe angewiesen sind. Es gibt aber bereits KI-Modelle, die in Geschäftsprozessen eingesetzt werden, etwa bei der Bewertung der Kreditwürdigkeit. Interessant wird es sein, die Unterschiede bei Entscheidungen von KI und von Menschen detaillierter herauszuarbeiten. Ein KI-Modell wird weder unrealistische Entschlüsse fassen („Wir müssen die Armen Menschen bei ihrer Finanzierung unterstützen“) noch eine falsche Entscheidung bedauern.
Ich bin gespannt, wo uns das hinführt. Ich hoffe zum Guten!