Empathische KI – geht das überhaupt?

Künstlicher Intelligenz fehle es, so las ich kürzlich, an Einfühlsamkeit. Chatbots wirkten zu profitorientiert; Unternehmen arbeiteten also daran, Empathie in ihre KI-basierten Interaktionen einzubetten (1). Wie bitte: Empathie programmieren!? Dann tauchte noch eine kleine Umfrage mit dem Befund auf, vor allem Frauen und Digital Natives wünschten sich empathische Serviceroboter (2). Moment: Wie sinnvoll ist es, nach einem Wunsch zu fragen, der sich nicht realisieren lässt?

Um es gleich vorwegzunehmen: Ja, es ist sinnvoll. Aber anders als zunächst angenommen. Roboter können zwar Antworten geben, Wege finden, Zettel ausdrucken. Roboter können uns auch das Gefühl geben, sie reagierten spontan und kreativ auf uns. Aber sie können nicht fühlen, wie es ist, jemandem eine Antwort zu geben, einem Weg zu weisen oder ein Dokument zu überreichen. Deshalb ist es zwar logisch nicht sinnvoll, einem Roboter Empathie beibringen zu wollen. Geht nicht.

Wenn wir über Customer Experience sprechen, ist die Frage nach empathischen Robotern aber doch sinnvoll. Denn selbstverständlich will sich ein Kunde, wenn er mit einer Künstlichen Intelligenz interagiert, verstanden fühlen. Und an diesem Punkt wird es interessant. Welches „Verhalten“ von Roboterseite deuten Kunden denn als empathisch? Wie muss ein Roboter kommunizieren, damit Kunden ihm Empathie „andichten“? Ich meine:

Er muss reden. Aber er muss dabei mit anderen Algorithmen arbeiten als Social Media. Denn überall dort, wo Kommunikation als sich gegenseitig aufschaukelnde Reiz- und Reaktionsketten verstanden werden, kommt es zu seelischen Verletzungen. Und überall dort, wo menschliche Kommunikation von Robotern „mitgelesen“ und reproduziert wird, kommt es zu diskriminierenden Stereotypenbildungen. Weil sich Humanität, Haltung, Werte nicht einfach so programmieren lassen. Und weil ein Roboter in einer Interaktion keine Verantwortung übernimmt – sondern nur ein Programm abspult. Im Zweifelsfall muss heute immer (noch) ein Mensch eingreifen. Mit menschlicher Empathie.

Er muss uns anschauen. Ein Roboter muss außerdem freundlich aussehen – wobei Kunden da nicht sehr anspruchsvoll sind. Schöne, große Augen reichen fast schon aus. Wenn ein Lächeln dazukommt, perfekt. An dieser Stelle wird es für Mitarbeiter interessant. Welche Serviceaufgaben sind es denn, die ein Roboter ihnen „wegnehmen“ kann? Ich meine: es sind genau die Aufgaben, die sich immer wieder ähnlich wiederholen, und die auf Dauer auch für Mitarbeiter eher langweilig sind. Denken Sie nur an: „Ihre Fahrkarte bitte.“ Im Idealfall bleiben für die echten Mitarbeiter dann die Aufgaben, die sich nur mit menschlicher Kreativität und Charme lösen lassen, mit Gewitztheit und eben mit…. menschlicher Empathie.

Und wir? Damit sind wir bei den Herausforderungen, die sich auf Kundenseite auftun. Nachdem wir gelernt haben, mit Siri, Alexa und Co. zu sprechen, müssen wir nun lernen, mit Robotern so zu interagieren, als seien sie empathisch. Vielleicht können wir das mit unserer Bereitschaft vergleichen, einem Roman oder Film die Story „abzukaufen“, und sei sie noch so unlogisch. Wir tun’s einfach! Samuel Taylor Coleridge nannte diese menschliche Fähigkeit schon 1817 „willing suspension of disbelief“: Der Leser oder Zuschauer willigt also ein, sich auf eine Illusion einzulassen, um, ja: dafür gut unterhalten zu werden.

Vielleicht gelingt es uns als Kunden schneller, uns „empathisch“ auf die begrenzten Fähigkeiten der Roboter einzustellen, als es Programmierern gelingt, Roboter-Empathie zu simulieren? Vielleicht gilt es auch einfach, das Ziel neu zu justieren? Wenn es nicht möglich ist, Robotern wirklich Empathie beizubringen, dann sollten wir sie zumindest so programmieren, dass Kunden Spaß haben. Sie wissen schon: „Siri, wie macht der Fuchs?“

Bildquelle: Adobe Stock #120960551 ©DM7