„Künstliche Intelligenz ist nicht neugierig“

Ein Interview über Stärken und Schwächen von Chatbots

13. Februar 2023

Wie bekommt man einen Algorithmus dazu, dass er die Welt erkundet, auch wenn es dafür keine unmittelbare Belohnung gibt?  Eric Schulz, der am Max-Planck-Institut für biologische Kybernetik in Tübingen forscht, nutzt kognitive Psychologie um Künstliche Intelligenzen zu erforschen. Im Gespräch erklärt er, warum GPT3 uns Menschen häufig klar überlegen ist, aber Kinder manche Aufgaben besser lösen als Chatbots.

ChatGPT ist derzeit in aller Munde. Wie gut sind diese Algorithmen?

Eric Schulz: Wir haben uns in unserem Paper noch mit einem Vorgänger von ChatGPT beschäftigt, ein Algorithmus namens GPT-3. Zunächst war ich skeptisch, dann aber überrascht, wie gut GTP-3 bereits war.

Mittlerweile ist klar, dass diese Algorithmen auch Dinge beherrschen, die nicht explizit in ihrem Training vorkommen. Manches war schon ein bisschen unheimlich. Ich habe zum Beispiel mit GPT-3 das Spiel gespielt, bei dem man sich gegenseitig private Fragen stellt um eine Bindung aufzubauen. Da sollte man beispielsweise eine traurige Erinnerung teilten. Die künstliche Intelligenz denkt sich etwas aus, das natürlich komplett fabuliert ist. Aber es war teils unheimlich, wie detailliert das war. Die jetzt neu herausgekommene Chat-Variante ist es noch um einiges besser. Die Entwicklung schreitet extrem schnell voran.

Warum testen Sie künstliche Intelligenz mit Hilfe von Experimente aus der Psychologie? 

Es hat mich schon immer umgetrieben, wie Menschen ticken. Dann fragte ich mich: Wie benimmt sich künstliche Intelligenz? Als Kognitionswissenschaftler kann ich hier nützlich sein. Schließlich beschäftigen wir uns in diesem Fach permanent mit einem Algorithmus, den wir ebenfalls nur bedingt verstehen: unserem Gehirn.

Wie sind Sie genau vorgegangen?

Wir haben GPT-3 vor simple Aufgaben aus der Psychologie gestellt, die uns verraten, wie Menschen lernen und Entscheidungen fällen. Bei künstlicher Intelligenz weiß man manchmal nicht, ob sie klug antwortet, weil eine Frage schon Teil ihres Trainings war oder ob das System wirklich Neues generiert. Aber manche dieser Aufgaben hatte GTP-3 zu hundert Prozent nie zuvor gesehen. Trotzdem konnte es einige recht gut lösen. Das zeigt, dass hier schon eine kleinere Form der Intelligenz vorliegt.

Erstaunt hat mich, dass GTP-3 bereits simple Modelle der Welt aufgebaut hat. Beispiel: Ein menschlicher Pokerspieler setzt sein gesamtes Geld ein, weil er glaubt, dass er die besten Karten hat. Tatsächlich gewinnt er. Aber hinterher merkt er, dass er Riesenglück hatte, weil seine Chancen nur bei 1:100 standen. Beim nächsten Mal wird er sein Geld in der gleichen Situation nicht wieder riskieren. GPT-3 verhält sich ähnlich. Es erkennt, dass eine Entscheidung schlecht war, auch wenn die Sache zufällig gut ausging. Und es wiederholt Entscheidungen, die gut sind, auch wenn sie im Einzelfall danebengehen.

Gibt es Bereiche, in denen das menschliche Denken weiter besser abschneidet?

Bei manchen Dingen ist GPT klar überlegen. Es kann beispielsweise innerhalb von Sekunden 2000 Zeilen Text zusammenfassen – ein Mensch bräuchte dazu wahrscheinlich Stunden. Aber eine Sache, die wir selbst bei den neueren Varianten noch sehen: Die Algorithmen sind extrem schlecht, wenn es um kausales Lernen geht. Da ist selbst mein einjähriger Sohn schon um einiges besser. Er muss nur einmal auf einen Lichtschalter drücken, um zu erkennen, dass er damit das Licht an- und ausmachen kann und spielt dann damit herum. GPT-3 rafft das nicht. Wenn da drei Schalter sind und einer schaltet das Licht an und die anderen nicht, und man fragt GTP, was passiert, wenn man den Schalter drückt, dann weiß es das nicht. Das wird sich auch mit einer Chat-Variante nicht verbessern. Denn es hat nichts damit zu tun, dass man in Chatrooms herumhängt, sondern dass man sich aktiv mit der Welt beschäftigt – also rausgeht, um selber auf Schalter zu drücken.

Der künstlichen Intelligenz fehlt die Neugier?

Kinder sind extrem gut im Erkunden. Sie gehen überall hin, auch dahin, wohin sie nicht sollen. Und manches ist dann nicht im Moment nützlich, sondern erst später. Wenn es etwa dunkel wird und man das Licht anmachen möchte. Künstliche Intelligenz ist nicht neugierig, sie exploriert nicht. Wir haben jetzt kürzlich Forschungsgelder dafür bekommen, die Neugier von Kindern in Roboter einzuprogrammieren. Denn das ist die Frage: Wie kriegt man einen Algorithmus dazu, dass er die Welt erkundet, auch wenn es dafür keine unmittelbare Belohnung gibt? Ich glaube, dass das eine extrem wichtige Komponente ist.

Es gibt Leute, die sagen, dass künstlicher Intelligenz noch etwas Anderes fehlt: Dass sie in spezifische Dingen beeindruckt, aber keine Universalfähigkeit zur Problemlösung besitzt, anders als der Mensch.

Mit solchen Aussagen wäre ich vorsichtig. Die KI kann immer mehr. Und die Geschwindigkeit, mit der sie sich verbessert, ist atemberaubend. Aber ich sage einmal: Es gibt Dinge, die zweifellos noch nicht gut funktionieren, etwa wenn es dann in die Robotik geht. Künstliche Intelligenz kann den besten Go-Spieler der Welt besiegen, aber sie kann dir kein Bier von der Bar holen.

Was kommt weiter auf uns zu?

Die Modelle werden vermutlich immer größer und auf immer mehr Daten trainiert werden. Und man beginnt, sie mit Dingen wie Suchmaschinen zu kombinieren. GPT-3 war noch wie ein Student, der zur Prüfung kommt und Fragen beantwortet. Weiß er etwas nicht, denkt er sich halt etwas aus. Kombiniert mit einer Suchmaschine hat man einen Studenten, der auf Fragen vorbereitet ist UND Antworten auch googlen kann. Damit lässt sich schon einiges anfangen.

Welche Anwendungen halten Sie für möglich?

Ich denke, dass künstliche Intelligenz alles verändern wird. Ich hoffe, dass man Dokumente zusammengefasst präsentiert bekommt, statt sie lesen zu müssen. Oder Emails. Dass es irgendwann ein vernünftiges Smartphone gibt, mit dem man reden kann und das auch halbwegs versteht, was man will. Oder dass das Programmieren überflüssig wird. Vielleicht sagen wir einer Maschine nur noch, was wir wollen, und sie programmiert sich dann selber.   

Sie sehen das Ganze also grundsätzlich positiv?

Jede neue Technologie birgt Risiken und Vorteile. Aber ich glaube, dass dies hier eine riesengroße Chance sein könnte. Künstliche Intelligenz kann ja super Aufgaben übernehmen, die für uns komplett langweilig sind. Und ganz neue Dinge erschaffen. Vielleicht werden wir irgendwann GPT-Psychiater haben oder künstliche Intelligenz dreht ganze Filme.

Eine Maschine, die uns therapiert?

Ich glaube, dass es immer weniger wichtig sein wird, ob ein Gegenüber in vivo oder in silico existiert. Und es wird sich vielleicht auch nicht immer leicht unterscheiden lassen. Das ist eines der Risiken. Aber generell sehe ich die Sache als etwas, dass unser Leben leichter macht und nicht schlechter. Famous last words, natürlich…

Danke für das Gespräch!

Das Interview führte Ute Eberle.

Zur Redakteursansicht