Wie reden mit Menschen, die psychische Probleme haben? Eine KI gibt Hilfestellung für empathischere Formulierungen

Ute Eppinger

Interessenkonflikte

25. Januar 2023

In Chats zu psychischer Gesundheit macht die Künstliche Intelligenz (KI) „Hailey“ den Austausch zwischen Nutzern empathischer. Das ist das Ergebnis einer Studie von US-Forschern, die in Nature Machine Intelligence publiziert worden ist [1].

Tim Althoff von der Paul G. Allen School of Computer Science and Engineering der University of Washington in Seattle und seine Kollegen testeten die Effektivität von Hailey auf der Plattform TalkLife. Dort können User im nicht-klinischen Kontext mit anderen Usern über ihre psychischen Probleme schreiben. Die Rollen sind dabei so festgelegt, dass eine Person über ihre Erfahrungen und Probleme schreibt und die andere darauf reagiert und Feedback oder Ratschläge gibt.

Hailey schlug bei Antworten der beratenden User geeignetere Formulierungen und Ergänzungen vor – mit dem Ziel, dass die Antworten empathischer wirken. Die User entschieden dann, die Vorschläge anzunehmen oder sie zu ignorieren.

Althoff und seine Kollegen konnten zeigen, dass Hailey zu einer Zunahme der Empathie um 19,6% in den Gesprächen zwischen Gleichaltrigen insgesamt führte. Darüber hinaus fanden die Forscher einen noch größeren Anstieg der Empathie – um 38,9% – in der Untergruppe der Peer-Unterstützer, die nach eigener Aussage Schwierigkeiten haben, sich empathisch auszudrücken.

Stärken und Schwächen der Studie

„Die Studie hat einige Stärken. Mit 300 Teilnehmern und 10 Posts pro Person verfügt sie über eine hinreichend große Stichprobe, um belastbare Aussagen zu treffen“, kommentierte Prof. Dr. Sonja Utz, Leiterin der Arbeitsgruppe Alltagsmedien, Leibniz-Institut für Wissensmedien (IWM), Tübingen, gegenüber dem Science Media Center (SMC) die Studienergebnisse.

Es sei nicht erstaunlich, dass sich die Empathie-Werte verbesserten, meinte Utz. „Ein ähnlicher Effekt wäre vermutlich aufgetreten, wenn andere Personen, insbesondere erfahrene Therapeuten, Verbesserungsvorschläge gemacht hätten.“

 
Dass die Nachrichten von eher nicht-empathisch agierenden Menschen in ihrer Wirkung verbessert werden, ist also nicht besonders erstaunlich. Prof. Dr. Nicole Krämer
 

„Letztlich beruhen Machine-Learning-Ansätze darauf, dass auf Basis der Daten von Menschen gelernt wird“, erklärte Prof. Dr. Nicole Krämer, Leiterin des Fachgebiets Sozialpsychologie: Medien und Kommunikation, Universität Duisburg-Essen. „Das Ergebnis ist also erwartungsgemäß ähnlich zu dem, was entstehen würde, wenn man die Nachrichten eines nicht-empathischen Menschen durch einen empathischen Menschen redigieren lassen würde. Insbesondere, dass die Nachrichten von eher nicht-empathisch agierenden Menschen in ihrer Wirkung verbessert werden, ist also nicht besonders erstaunlich“, so Krämer.

Eine Schwäche der Studie sei, „dass die Personen, die den Empathie-Gehalt der Posts beurteilen sollten, nur gefragt wurden, welche von 2 Nachrichten (mit und ohne KI) empathischer ist“, meinte Utz. „Hier wäre eine Skala mit mehr Abstufungen schöner gewesen – jetzt weiß man nicht, ob die eine Nachricht nur ein kleines bisschen oder deutlich empathischer ist, und es ist auch unklar, ob beide Antworten eher wenig empathisch oder ohnehin schon recht empathisch sind.“

Gefahr des Übervertrauens in das Assistenzsystem

Dr. Tobias Rieger, Wissenschaftlicher Mitarbeiter am Fachgebiet Handlungs- und Automationspsychologie, Technische Universität Berlin, lenkt den Fokus auf 2 Untergruppen von Studienteilnehmern. Interessant sei zum einen die Gruppe, die berichtet, ohne KI beim Formulieren empathischer Antworten Probleme zu haben. „Diese Teilnehmenden zeigten eine besonders klare Verbesserung, und scheinbar kann die KI hierbei als eine Art Trainingspartner fungieren, um empathischeres Verhalten zu erlernen“, sagte Rieger.

Künftige Forschung sollte prüfen, inwieweit dieser Fertigkeitserwerb anhalten kann – ob diese Personen auch ohne KI-Hilfe empathischere Nachrichten schreiben können.

Rieger erinnerte auch an die Untergruppe, in der nur die KI-Vorschläge akzeptiert wurden – ohne dass es zu weiteren Veränderungen am vorgeschlagenen Text kam. „Derartiges Verhalten kann ein Zeichen von Übervertrauen in das Assistenzsystem sein, was im Gegensatz zur oben beschriebenen Möglichkeit zum Fertigkeitserwerb auf Dauer sogar zum Fertigkeitsverlust führen kann“, so Rieger.

„In diesem Fall wäre dies dann zum Beispiel der Verlust der Fertigkeit, selbst empathische Antworten zu formulieren, wenn auf Dauer immer nur direkt der KI-Empfehlung gefolgt wird“, gab Rieger zu bedenken.

Personen sollten wissen, wer der Urheber der Nachricht ist

Utz stufte die Studienergebnisse auch über den Therapiekontext hinaus als „sehr relevant“ ein, weil Sprachmodelle sehr große Fortschritte gemacht haben und mehr und mehr Menschen anfangen werden, Tools wie ChatGPT zumindest für eine erste Version ihrer Texte zu benutzen. „Dadurch wird es sehr wichtig, sich die verschiedenen Kooperationsformen (alles blind übernehmen oder anpassen) anzuschauen und dann im nächsten Schritt zu untersuchen, was die Auswirkungen in den jeweiligen Domänen sind – zum Beispiel wahrgenommene Kompetenz im beruflichen Kontext“, erklärte Utz.

 
Personen sollten vor allem immer darüber informiert sein, woher die Aussagen kommen und dass möglicherweise die Person, mit der man spricht, nicht der alleinige Urheber der Nachricht ist. Prof. Dr. Nicole Krämer
 

Sehr spannend sei auch die Frage, „ob Menschen durch solche Tools mit der Zeit lernen, fehlerfreier, besser oder empathischer zu kommunizieren, insbesondere in einer Fremdsprache, oder ob sie sich stattdessen auf die Tools verlassen“, sagte Utz.

„Personen sollten vor allem immer darüber informiert sein, woher die Aussagen kommen und dass möglicherweise die Person, mit der man spricht, nicht der alleinige Urheber der Nachricht ist. Der Verfasser der Nachricht wählt zwar aus, welche Änderungsvorschläge er vom KI-System übernimmt, dennoch würde der Empfänger über die Art des Urhebers getäuscht“, erklärte Krämer.

 
Die Studie ist kein Durchbruch in der zukünftigen verbesserten Behandlung psychisch kranker Menschen. Prof. Dr. Nicole Krämer
 

„Die Studie ist kein Durchbruch in der zukünftigen verbesserten Behandlung psychisch kranker Menschen“, so Krämers Einschätzung. „Für eine solche erfolgreiche Behandlung ist mehr erforderlich als eine Steigerung der Empathie durch Anpassung der Äußerungen. Der hier gewählte Ansatz kann eventuell geeignet sein, empathischere Sprache im Alltag zu nutzen – mit der Notwendigkeit, auch das ethisch und rechtlich kritisch zu reflektieren, damit die Botschaftsempfänger nicht unwissentlich halb mit einem Bot sprechen“, so Krämer.

Fanden Sie diesen Artikel interessant? Hier ist der  Link  zu unseren kostenlosen Newsletter-Angeboten – damit Sie keine Nachrichten aus der Medizin verpassen.

 

Kommentar

3090D553-9492-4563-8681-AD288FA52ACE
Wir bitten darum, Diskussionen höflich und sachlich zu halten. Beiträge werden vor der Veröffentlichung nicht überprüft, jedoch werden Kommentare, die unsere Community-Regeln verletzen, gelöscht.

wird bearbeitet....