Der digitale Schatten unserer Gefühle

Psychologin Verena Zimmermann und die Informatiker Joachim Buhmann und Elgar Fleisch über die Messbarkeit unserer Gefühle, ihre Rolle zwischen Mensch und Maschine und den Einsatz von intelligenten Technologien.
Joachim Buhmann, Elgar Fleisch und Verena Zimmermann. (Bild: ETH Zürich / Daniel Winkler)

Herr Buhmann, werden Computer bald Emotionen haben?

Joachim Buhmann: Emotionen steuern das menschliche Verhalten. Wenn Algorithmen lernen, sich wie Menschen zu verhalten, dann kann man das Verhalten auch mit der Komponente Emotion imitieren. Ob der Computer dann Emotionen hat, ist wohl eher eine philosophische Frage.

Frau Zimmerman, was sind Emotionen aus Sicht der Psychologie?

Verena Zimmermann: Emotionen sind so komplex, dass nicht einmal die Psychologie eine klar abgrenzbare Definition dafür gefunden hat. Was aber viele Definitionen gemein haben:  Emotionen werden durch eine bestimmte Situation ausgelöst und intensiv erlebt, sie sind von relativ kurzer Dauer und gehen immer mit einer physiologischen Reaktion einher, wie zum Beispiel einer Beschleunigung der Atemfrequenz oder des Herzschlags. Die sogenannten Basisemotionen wie Wut, Freude oder Trauer zeigen sich bei vielen Menschen in ähnlicher Weise und lassen sich gut voneinander abgrenzen. Gefühle wie Resignation oder Unsicherheit lassen sich aber oft nicht eindeutig erkennen und demzufolge auch nicht klar messen.

Buhmann: Das ist der Punkt! Kategorien wie Frustration, Ärger, Freude oder Begeisterung helfen zwar, die Vorgänge, die hinter Emotionen stecken, so zu verpacken, dass es die Kommunikation mit Menschen erleichtert. Die Frage ist aber: Was beschreiben wir damit denn wirklich? Es sind Beschreibungen für sehr komplexe, aus meiner Sicht subrationale Gehirnzustände. Die Begriffe sind eine Verpackung einer unglaublich komplizierten Dynamik, und unsere Sprache ist sehr eingeschränkt, um das Ganze einzufangen.

Können also Maschinen lernen, was Menschen nicht verstehen?

Buhmann: Ja, denn das ist ja genau der Kern des maschinellen Lernens: Wir geben dem Computer kein Konzept der Realität vor, sondern lassen ihn direkt aus den Daten lernen. Wenn Algorithmen lernen, sich wie Menschen zu verhalten – etwa einen Artikel zu schreiben –, dann nehmen sie den Menschen als Beispiel her, ohne dass dieser selbst in der Lage ist, zu rationalisieren, was er tut. Algorithmen sind unglaublich gut geworden darin, Dinge zu imitieren, die wir verstandesmässig kaum fassen können.

«Die Evolution hat uns mit Abstraktion und Kreativität, aber mit zu wenig Speicherkapazität ausgestattet – sonst wären wir Datenbanken.»      Joachim M. Buhmann

Herr Fleisch, Sie kommen aus einem sehr anwendungsorientierten Bereich. Welches Projekt beschäftigt Sie aktuell?

Elgar Fleisch: Wir haben in meiner Forschungsgruppe in letzter Zeit mehrere klinische Studien gestartet, bei denen wir den Effekt von Emotionen messen. Wir untersuchen beispielsweise, ob das Bewegungsverhalten mit den Entzündungswerten im Blut der Proband:innen korreliert, und wollen so herausfinden, ob ein Mensch krank zu werden droht, auch wenn er noch gesund ist. Diese Methode könnte dereinst ein sehr einfaches und kostengünstiges Frühwarnsystem werden, mit dem man chronische Krankheiten verhindern kann, bevor sie eintreten.

Buhmann: Ja, viele Krankheitsspuren zeigen sich in mechanischen Ausdrucksformen. Den Beginn von Parkinson kann man allein aufgrund der Anschlagfrequenz beim Tippen auf der Tastatur erkennen – noch bevor die Krankheit diagnostiziert wurde. Herausgefunden hat man das bei Personen, die bei sich eine Parkinson-Erkrankung vermuten und entsprechende Fragen auf Suchmaschinen eingegeben haben.

Wie gut lassen sich Emotionen denn überhaupt messen?

Fleisch: Emotionen triggern im Körper unglaublich viel. Die Art, wie wir sprechen, also Geschwindigkeit, Lautstärke und Tonalität, unsere Augenbewegungen oder Bewegungen generell, unseren Puls, unsere Atmung…

Zimmermann: Menschen reagieren unterschiedlich und sie können ihre Emotionen wahrnehmen, beeinflussen oder sogar unterdrücken. Das ist eine Herausforderung für die Technologie. Wenn ich mich nur auf eine Messmethode beschränke, kann das zu Fehlinterpretationen führen. Aus Sicht der Forschung sollten wir mehrere Methoden miteinander kombinieren, also zum Beispiel Stimm- und Gesichtserkennung mit physiologischen Faktoren.

Wo werden Emotionen sonst noch maschinell erfasst?

Buhmann: Im Gebiet der Mensch-Computer-Interaktion ist es natürlich hilfreich, wenn der Algorithmus etwas über den emotionalen Zustand des Menschen, mit dem er sich austauscht, weiss. Je nachdem, ob jemand positiv oder negativ eingestellt ist, kann man Antworten leicht anders formulieren und so auch Einfluss nehmen auf die emotionale Wirkung einer Interaktion.

Zimmermann: In meinem Forschungsgebiet sind Emotionen und Haltungen, die wir gegenüber Maschinen haben, sehr relevant. Ich forsche unter anderem dazu, welche Rolle das menschliche Verhalten und damit auch Emotionen in der Cybersicherheit spielen. Eine meiner Doktorandinnen untersucht, welchen Einfluss Emotionen auf die Wahrnehmung des Themas Cybersicherheit und auf das Sicherheitsverhalten haben. Ein einfaches Beispiel: Wer beim Thema Cybersicherheit Angst verspürt, zeigt vielleicht ein Vermeidungsverhalten und beschäftigt sich erst gar nicht damit. Das kann dazu führen, dass man nichts lernt und sich darum auch nicht sicher verhalten kann.

«Wir dürfen den Menschen und die Technologie nicht isoliert betrachten.»      Verena Zimmermann

Wie bringt man Menschen dazu, gerne mit Maschinen zu interagieren?

Zimmermann: Es kommt darauf an, was man mit den Technologien erreichen will. Ist das Ziel, dass Menschen über virtuelle Realitäten Emotionen erleben können? Oder ist das Ziel, eine möglichst menschenähnliche soziale Interaktion zu ermöglichen, in einem Anwendungsfeld wie der Pflege, wo menschlicher Bezug aufgrund der Alterung der Gesellschaft knapp werden könnte? Es gibt Studien, die zeigen, dass ein Roboter, je nachdem, wie er gestaltet ist, bestimmte Emotionen bei Menschen erzeugen und so auch eine emotionale Verbindung zwischen Mensch und Technologie entstehen kann.

Also heisst das für Roboter: je ähnlicher, desto sympathischer?

Zimmermann: Ja, mit einer wichtigen Einschränkung: Das Konzept des «Uncanny Valley» besagt, dass es in der Kurve der steigenden Akzeptanz mit zunehmender Menschenähnlichkeit einen Knick gibt. Wenn etwas sehr menschenähnlich ist, bestimmte Merkmale aber trotzdem nicht ganz perfekt, sondern abnormal sind, wird es auf einmal unangenehm in der Interaktion…

Dann doch besser Maschinen, die uns nicht zu ähnlich sind?

Fleisch: Wir haben bei Experimenten mit Chatbots zumindest beobachtet, dass diese nicht perfekt sein müssen, damit eine Bindung mit den Nutzer:innen entsteht. Einen solchen Chatbot haben wir bei der Therapie von übergewichtigen Kindern als Vermittler zwischen den Ärzt:innen und Patien:innen eingesetzt. Das Ziel war, die Adhärenz zu verbessern – also, dass sich die Kinder therapietreuer verhalten. Die Kinder konnten dem Chatbot einen Namen geben, er begleitete sie von morgens bis abends und lernte aus ihren Reaktionen. Wenn sie Fragen hatten, konnten sie diese entweder den Ärzt:innen oder dem Chatbot stellen. In 99 Prozent der Fälle wandten sich die Kinder an den Chatbot!

Computer dringen in Bereiche vor, die bis vor Kurzem noch Menschen vorbehalten waren. Wie teilen wir uns dereinst die Aufgaben?

Fleisch: Im Beispiel des Chatbots für übergewichtige Kinder braucht es hinter der Technologie immer noch einen Arzt oder eine Ärztin. Ich sehe nicht die Gefahr des Ersetzens, sondern die Chance des Ergänzens. Ein intelligenter Assistent ersetzt keine Ärztin, kann aber einen Patienten durch eine lange Krankheit begleiten und ihn unterstützen. Unsere Analysen haben gezeigt: Ein Chatbot wird kaum je gleich gut oder besser sein als die besten Ärzt:innen, aber er ist besser als der Durchschnitt. Digitale Coaches steigern also die Behandlungsqualität in der Breite.

Buhmann: Der Mensch als wahrnehmendes und denkendes Wesen hat klare Beschränkungen. Die Evolution hat ihn mit Abstraktion und Kreativität, aber mit zu wenig Speicherkapazität ausgestattet, sonst wären wir Datenbanken geworden. Alles, was wir bislang wissenschaftlich durchdringen konnten, hat eine sehr kleine Beschreibungskomplexität gebraucht. Alle wissenschaftlichen Theorien, die weltbekannt geworden sind, passen auf die Rückseite eines Umschlags. Das ist aber natürlich nicht die Realität. Es ist die selektive Auswahl dessen, was wir mit unserem Gehirn verarbeiten können. Das heisst, wir haben keine Möglichkeit, mit hoher Komplexität umzugehen und prädiktive Modelle zu bauen. Was wir bräuchten, ist ein Denk-Coprozessor, der uns hilft, einen weiteren Blick zu haben.

«Ich sehe nicht die Gefahr des Ersetzens, sondern die Chance des Ergänzens.»      Elgar Fleisch

Gibt es Funktionen, die Maschinen nicht übernehmen sollen?

Buhmann: Das ist die falsche Frage. Wir müssen die zukünftige Welt doch mit diesen Technologien neu denken und nicht die Technologien behindern, damit unsere alte Organisationsform in der Zukunft funktioniert. Mit den neuen Tools werden auch neue Ethiken entstehen. Etwas, was vielleicht früher unethisch war, wird plötzlich akzeptabel.

Welche Rolle spielen Emotionen künftig in den technischen Wissenschaften?

Fleisch: Wir messen nicht direkt die Emotionen, sondern den digitalen Schatten, den unsere Gefühle auf dem Messband hinterlassen. Aus technischer Sicht werden wir diesen handhabbaren Schatten immer besser verstehen. Und dieses Verständnis müssen wir für die Gesellschaft nutzen. Die Emotionen selber werden vom Computer abgekapselt bleiben.

Zimmermann: Als Forscherin an der Schnittstelle zwischen den Sozialwissenschaften und der Technischen Wissenschaften ist es mir wichtig, dass wir den Menschen und die Technologie nicht isoliert betrachten, sondern die Interaktion zwischen beidem. Denn dort spielen die Emotionen eine entscheidende Rolle.