Digitalisierung der Gefühle


Nun zielt Künstliche Intelligenz auch noch auf die menschliche Gefühlswelt. Denn Maschinen sollen Menschen stets ähnlicher werden.


Februar 2019



Im Wettlauf Mensch gegen Maschine droht die letzte Bastion zu fallen. Nachdem Künstliche Intelligenz auf dem Feld des Kognitiven dem Menschen seinen Vorsprung immer mehr streitig macht, blieb bislang noch der Bereich der Emotionen, in dem sich der Mensch als einzigartig wähnen konnte. Doch auch Technik und Gefühlswelt wachsen zunehmend zusammen. Die Erforschung Künstlicher Intelligenz nimmt mehr und mehr menschliche Emotionen in den Fokus, um Maschinen beizubringen, die menschliche Gefühlslage einzuschätzen und menschenähnlich zu reagieren. Dabei drängt immer mehr Software auf den Markt, die diese Technologie für jedermann verfügbar und damit stets alltäglicher macht.

Als „persönlicher KI-Mediator“ soll etwa die Messaging-App Ixy menschliche Konversation verbessern, indem sie Konflikte und sonstige Schwierigkeiten aufdeckt und vermeiden hilft. Dabei wird aus dem Zusammenspiel von Psychologie, Linguistik, Maschinenlernen und Design Künstliche Intelligenz entwickelt, die imstande ist, Text-Chats zu analysieren, um beispielsweise Auskunft zu geben, wie Nutzer auf andere wirken, Missverständnisse aufzuklären und Streitigkeiten zu verhindern. Die App behält Tempo und Stimmungslage im Blick und gibt Verbesserungstipps ebenso wie sie darauf achtet, dass Gesprächspartner in etwa gleich viel reden oder ob Aussagen Anlässe zu Missverständnissen geben. Einen „glücklicheren“ Umgang miteinander will die in London entwickelte App erreichen, indem sie etwa zu Denkpausen rät, um vorschnelle Äußerungen zu verhindern, Nutzer bestimmte Wörter blocken lässt oder bei Bedarf Erläuterungen und Klarstellungen gibt.

Die aus Israel stammende Software Beyond Verbal analysiert hingegen gesprochene Sprache und will aus dem Tonfall auf den emotionalen Status des Sprechers schließen. Ausgestattet mit dieser Software sollen Roboter, Smartphones und sonstige Geräte, Autos oder virtuelle Assistenten in die Lage versetzt werden, Emotionen von Nutzern zu erkennen, um angemessen zu reagieren. Ebenso aber soll die Analyse von Gesprochenem Unternehmen Einblicke in Gefühle und Einstellungen von Kunden eröffnen, wie es beispielsweise für Call Center zum Zwecke eines „Finetunings“ von Gesprächen von Interesse sein könnte. Und nach innen gerichtet bekommen Unternehmen ein Werkzeug in die Hand, um Frühwarnsignale hinsichtlich schwindender Mitarbeitermoral aufzufangen.

Dies sind nur zwei Beispiele von Anwendungen, wie sie derzeit dem Forschungsfeld des „Affective Computing“ entspringen, einem noch relativ jungen Teilbereich der KI-Forschung, der sich mit der Entwicklung von Systemen befasst, die mit Hilfe von Signalen wie Sprechverhalten, Körperhaltung oder Mimik menschliche Emotionen erkennen und simulieren können, um letztlich nicht nur intelligent, sondern auch empathisch zu agieren. Die Forschung dreht sich um Fragen, was Emotionen im Menschen bewirken, welche Funktion sie haben und wie Systeme mit ähnlichen Funktionalitäten ausgestattet werden können, um sie in ihrem Handeln dem Menschen mit seiner emotionalen Intelligenz anzunähern.

Damit gehen diese Forschungsfragen zurück auf die uralte Frage nach dem Verhältnis von Gefühl und Vernunft, wie sie schon in der Antike philosophisch zu ergründen versucht wurde. Während die Stoiker Gefühle als „Krankheiten der Seele“ begreifen, gehören sie für Aristoteles untrennbar zum Menschsein und er gesteht Gefühlen gar zu, Menschen in ihren Urteilen zu beeinflussen. Für David Hume ist schließlich die Vernunft gar „Sklavin der Gefühle“. Doch auch bei dem schottischen Philosophen ist das Verhältnis von Gefühl und Vernunft immer noch durch eine strikte Entgegensetzung gekennzeichnet. Erst in der modernen Philosophie ist diese Trennung aufgehoben, weil davon ausgegangen wird, dass Gefühle und Vernunft einander bedingen. Entscheidungen kommen nicht rein rational zustande und umgesetzt werden können sie überhaupt erst durch die motivierende und bewertende Kraft der Emotionen.

In der KI-Forschung neigte man lange Zeit eher der stoischen Trennung von Gefühlen und Intelligenz zu. Zwar hat Marvin Minsky bereits in den 1980er Jahren ausgeführt, dass künstliche Intelligenz, um menschenähnlich zu werden, auf Emotionen nicht verzichten kann, doch kommt der Bedeutung von Emotionen für kognitive Prozesse erst heute wieder größere Beachtung zu. Schließlich denkt der Mensch auch nicht immer nach, sondern handelt – geleitet von Emotionen – und kommt dennoch ans Ziel. In Gefahrsituationen verändert sich unsere Wahrnehmung und beispielsweise erscheinen potenzielle Bedrohungen dann größer. Auch Roboter, so die Idee, könnten in ihrem Handeln von solchen kognitiven Verzerrungen geleitet werden.

Werden Maschinen tatsächlich irgendwann aufhören, Gefühle bloß zu simulieren, sondern über echte emotionale Intelligenz verfügen? Was heißt eigentlich, dass eine Maschine Gefühl hat? Und was wird dies für den Einzelnen, der mit der Maschine interagiert bedeuten? Und für die Gesellschaft? In dem technisch-wirtschaftlichen Komplex, dem die Forschung und Entwicklung der „digitalisierten Gefühle“ entspringt, scheinen solche Fragen überraschend wenig von Interesse. Im Vordergrund steht die Suche nach Anwendungsmöglichkeiten. Das Nachdenken über weitreichendere Folgen für Individuen und Gesellschaft bleibt weitgehend ausgeblendet. Dabei wäre es bestimmt eine Überlegung wert, ob die „digitalisierten Gefühle“ tatsächlich zu humaneren Maschinen führen oder ob nicht am Ende der Mensch selbst enthumanisiert wird, wenn er in einer Welt lebt, in der Gefühle programmiert werden können.

Teilen

Weitere Artikel dieser Ausgabe:

f/21 Quarterly liefert Ihnen 4-mal jährlich frisches Zukunftswissen direkt in Ihr Postfach.
Registrieren Sie sich jetzt kostenlos!