ChatGPT: Zwischen Hype, Kontroverse und ethischen Herausforderungen

Ute Eppinger

Interessenkonflikte

22. Februar 2023

Ob als Chatbot, zur Generierung von Texten, zur Übersetzung oder für automatisierte Schreibarbeiten: Seitdem das US-Start-up OpenAI im November vergangenen Jahres sein textbasiertes Dialogsystem ChatGPT der Öffentlichkeit zugänglich gemacht hat, hat der Prototyp angesichts seiner Leistungsfähigkeit einen regelrechten Hype ausgelöst. 

Schon Mitte Dezember allerdings hatte die Datenwissenschaftlerin Teresa Kubacka darauf hingewiesen, dass Quellennachweise von ChatGPT teils erfunden werden und dass die sogenannten „Datenhalluzinationen“ gefährlich sind, weil sie den Internetdiskurs erheblich beeinflussen könnten. Seither reißen die Diskussionen um die ethischen Folgen und Herausforderungen durch ChatGPT nicht mehr ab.

Auch Dr. Thilo Hagendorff, Post-Doc am Exzellenzcluster „Machine Learning: New Perspectives for Science“ der Universität Tübingen, machte auf dem Press Briefing „ChatGPT und andere Sprachmodelle – zwischen Hype und Kontroverse“ des Science Media Centers (SMC) deutlich, dass ChatGPT eine ganze Reihe ethischer Herausforderungen mit sich bringt [1]. Dennoch hält Hagendorff die „starke Fokussierung auf die negativen Seiten“ für „schwierig“. Seiner Erfahrung nach werde über ChatGPT häufig negativ berichtet. 

„Man sollte aber auch die positiven Seiten sehen. Diese Sprachmodelle ermöglichen uns in vielen Fällen, lebenslang bessere Entscheidungen zu treffen, sie sind durchaus auch kreativ, sie bieten uns kreative Lösungen an, sie bereichern uns mit einem unendlichen Wissen“, sagte Hagendorff. 

 
Diese Sprachmodelle … sind durchaus auch kreativ, sie bieten uns kreative Lösungen an, sie bereichern uns mit einem unendlichen Wissen. Dr. Thilo Hagendorff
 

Einsatzbereiche von ChatGPT

Die möglichen Anwendungsbereiche für ChatGPT sind groß. In der Medizin beispielsweise könnte ChatGPT Patientenfragen beantworten, Diagnosen oder Behandlungspläne erstellen, was Zeit und Ressourcen sparen könnte. Als Chatbot eingesetzt könnte ChatGPT auf Patientenbedürfnisse eingehen und personalisierte Antworten liefern. Von Vorteil für Patienten könnte auch die Rund-um-die-Uhr-Verfügbarkeit sein. Allerdings müsste sichergestellt sein, dass sensible Patientendaten geschützt werden. 

Und weil ChatGPT ein maschinelles Lernmodell zugrundeliegt, das Fehler machen kann, müsste sichergestellt sein, dass die gelieferten Informationen korrekt und zuverlässig sind. Ein weiteres Problem ist die Regulierung: Während Programme – z.B. der Symptomchecker Ada Health – auf den Gesundheitsbereich spezialisiert und als Medizinprodukt zugelassen sind, unterliegt ChatGPT nicht einer solchen Regulierung. Trotzdem muss gewährleistet sein, dass ChatGPT den Anforderungen entspricht und Gesetze und Vorschriften eingehalten werden. 

Unabhängig vom Medizinbereich gibt es weitere ethische Probleme, die gelöst werden müssen. Hagendorff nannte dazu folgende Punkte: 

  • Diskriminierung, toxische Sprache und Stereotype: Diese rühren daher, dass die Trainingsanreize des Sprachmodells – also die verwendete Sprache selbst – eben auch Diskriminierung, toxische Sprache und Stereotype reproduzieren.

  • Informationsrisiken: ChatGPT könnte z.B. dazu benutzt werden, an private, sensitive oder gefährliche Informationen zu kommen. Beispielsweise könnte man so ein Sprachmodell fragen, wie man bestimmte Straftaten möglichst optimal begehen kann.

  • Wahr/falsch: Nicht sichergestellt ist, dass solche Modelle nur richtige Informationen produzieren. Sie können auch unsinnige Informationen liefern, denn sie errechnen immer nur die Wahrscheinlichkeit für das nächste Wort. 

  • Missbrauchsrisiken: z.B. Einsatz für Desinformationskampagnen. Es ist aber auch möglich, einen Code generieren zu lassen, den man dann für bestimmte mehr oder minder gefährliche Cyberangriffe einsetzen kann. 

  • Hang zur Vermenschlichung: Menschen neigen dazu, solche Sprachmodelle zu vermenschlichen. Diese Anthropomorphisierung kann zu einem überhöhten Vertrauen führen. Das Vertrauens des Nutzers kann dann dazu genutzt werden, um an private Informationen zu kommen. 

  • Soziale Risiken: Das können Arbeitsplatzverluste oder Arbeitsplatzveränderungen in allen Branchen sein, die mit Texten arbeiten.

  • Ökologische Risiken: Je nachdem, wie umweltfreundlich der Strom erzeugt wurde, mit dem solche Modelle trainiert und betrieben werden, kann der Kohlendioxid-Fußabdruck sehr hoch sein.

Wissenschaftliche Arbeiten: ChatGPT als Mitautor?

Die Nachricht, dass einige Wissenschaftler OpenAI als Autoren wissenschaftlicher Arbeiten aufgeführt haben, hat in der Forschungsgemeinschaft und bei den Herausgebern von Fachzeitschriften umgehend Reaktionen hervorgerufen. ChatGPT ist allerdings nicht die erste künstliche Intelligenz, die als Mitautor einer wissenschaftlichen Arbeit auftritt. Letztes Jahr erschien auf einer Preprint-Website ein Artikel, der u.a. vom GPT-3-Bot geschrieben wurde, erinnert Prof. Dr. Daniela Ovadia, Forschungsethikerin an der Universität Pavia, in einem Artikel auf Univadis Italy.

Ihrer Einschätzung nach dürfte die Aufregung über eine weitgehend erwartete Entwicklung in der Technologie mit der Definition des Autors einer wissenschaftlichen Arbeit zu tun haben. Denn grundsätzlich gilt die Regel, dass alle Autoren einer wissenschaftlichen Arbeit für jeden Teil der Arbeit verantwortlich sind und sich gegenseitig überprüfen müssen. 

Nachdem Nature angekündigt hat, KI nicht als Autor zu akzeptieren, haben auch andere Fachjournale wie JAMA  nachgezogen. Wobei das nicht heißt, dass das Instrument nicht verwendet werden kann, es sollte allerdings im Methodenteil der Studie erwähnt werden. „Die wissenschaftliche Publikationsgemeinschaft hat schnell Bedenken wegen des potenziellen Missbrauchs dieser Sprachmodelle bei wissenschaftlichen Veröffentlichungen geäußert“, schreiben die Autoren des JAMA-Editorials. 

 
Die wissenschaftliche Publikationsgemeinschaft hat schnell Bedenken wegen des potenziellen Missbrauchs dieser Sprachmodelle bei wissenschaftlichen Veröffentlichungen geäußert. Annette Flanagin und Mit-Herausgeber
 

Wie die Herausgeber um Annette Flanagin berichten, haben verschiedene Experten mit ChatGPT experimentiert und ihm Fragen gestellt, z.B. ob Impfungen in der Kindheit Autismus verursachen. „Die Ergebnisse zeigten, dass die Antworten zwar meist gut geschrieben sind, aber formelhaft klingen, nicht aktuell sind, falsch oder erfunden, ohne genaue oder vollständige Referenzen und – was noch schlimmer ist – mit zusammengebastelten, nicht existierenden Beweisen für Behauptungen oder Aussagen, die ChatGPT aufstellt.“ 

Die Einschätzung von Experten ist, dass ChatGPT nicht als verlässliche Informationsquelle zur Verfügung steht, wenn es nicht sorgfältig von Menschen überwacht und überprüft wird – zumindest im Bereich der Medizin, schreibt Ovadia. Es gebe aber noch weitere ethische Fragen, über die sich die wissenschaftliche Gemeinschaft Gedanken machen müsse, zumal sich das Tool im Lauf der Zeit verbessern werde. 

Ein verbessertes ChatGPT könnte beispielsweise die sprachliche Kluft zwischen englischsprachigen Wissenschaftlern und nicht-englischsprachigen Wissenschaftlern überbrücken und die Veröffentlichung von Forschungsarbeiten, die in anderen Sprachen verfasst wurden, erleichtern, schreibt Ovadia. Differenziert bewertet sie die Idee, mithilfe der KI wissenschaftliche Artikel zu verfassen, und empfiehlt:

  • Mit KI erstellte Abschnitte sollten entsprechend hervorgehoben werden, und die zu ihrer Erstellung verwendete Methodik sollte in der Arbeit selbst erläutert werden (im Sinne der Transparenz auch unter Angabe des Namens und der Version der verwendeten Software).

  • Sie rät dringend davon ab, ausschließlich mit KI erstellte Arbeiten einzureichen, insbesondere wenn es sich um systematische Literaturübersichten handelt. Dies liegt zum Teil daran, dass die Technologien noch nicht ausgereift sind und dazu neigen, die statistischen und selektiven Verzerrungen, die in den Anweisungen ihrer Nutzer enthalten sind, weiterzuführen. Eine Ausnahme bilden Studien, die genau darauf abzielen, die Zuverlässigkeit solcher Technologien zu bewerten (ein Ziel, das natürlich in der Arbeit selbst ausdrücklich genannt werden muss).

  • Von der Erstellung von Bildern und deren Verwendung in wissenschaftlichen Arbeiten rät sie ab; dies verstößt gegen die ethischen Standards wissenschaftlicher Veröffentlichungen – es sei denn, diese Bilder sind selbst Gegenstand der Untersuchung.

Wie weit sollte eine solche Entwicklung gehen?

Die Entwicklung von ChatGPT stuft Prof. Dr. Stefan Heinemann, Professor für Wirtschaftsethik an der FOM-Hochschule in Essen, als grundlegend ein, denn sie entwickle sich zu einer künstlichen Person. „Wir sollten darüber nachdenken, wie weit eine solche Entwicklung gehen sollte“, betonte Heinemann auf dem Event „ChatGPT im Gesundheitswesen“ [2]

„Das heißt nicht, dass wir neue Technologien sofort ins Dystopische abqualifizieren müssen und Sorge haben müssen, dass jetzt das Subjekt verloren geht, weil die Leute keine Proseminararbeiten mehr selbst schreiben. Trotzdem müssen wir einen Ausgleich finden“, sagte Heinemann. Denn man sei an einem Wendepunkt angelangt. Technische Systeme zu nutzen, um die Bürokratie zu erleichtern und zu reduzieren, oder der Einsatz von Pflege-Robotern, sei fraglos sinnvoll.

Mit einer solchen Technologie aber würde irgendwann eben nicht nur Bürokratie externalisiert, „sondern wir beginnen dabei damit, das Denken selbst zu externalisieren.“ Das sei ein feiner Unterschied, betonte Heinemann. Die Grenze sei dort erreicht, „wo wir in einen Bereich kommen, in dem wir anfangen das, was uns ausmacht, zu externalisieren: Das ist die Möglichkeit zum Mitfühlen und das ist die Möglichkeit zum Denken.“ 

Vorrangig sei jetzt, mit dieser neuen Technologie angemessen umzugehen. „Nicht, indem wir so etwas verbieten, sondern indem wir es klug integrieren“, sagte Heinemann. Das bedeute nicht, dass nicht virtualisiert werden könne, „oder dass wir keine Avatare haben können. Das sind Diskussionen, die kennen wir noch aus der Videogames-Ethik, diese Diskussionen müssen jetzt neu geführt werden“, so Heinemann.  

Er plädierte dafür, verstärkt über Verantwortlichkeit und Vereinbarkeit zu sprechen und die eigenen sozialen Kompetenzen nicht zu vergessen: „Es kommt nicht nur auf Technik und Präzision an, es kommt auch darauf an, soziale Präzision zu erreichen, miteinander Probleme zu lösen – und das sollten wir nicht delegieren. Wir sollten nur die Dinge delegieren, die uns belasten, die unnötig sind, aber nicht aus Bequemlichkeit auf das Denken verzichten.“ Technologien müssten immer „Diener der Sache bleiben“, schloss Heinemann.

 
Wir sollten nur die Dinge delegieren, die uns belasten, die unnötig sind, aber nicht aus Bequemlichkeit auf das Denken verzichten. Prof. Dr. Stefan Heinemann
 

Fanden Sie diesen Artikel interessant? Hier ist der  Link  zu unseren kostenlosen Newsletter-Angeboten – damit Sie keine Nachrichten aus der Medizin verpassen.

 

Kommentar

3090D553-9492-4563-8681-AD288FA52ACE
Wir bitten darum, Diskussionen höflich und sachlich zu halten. Beiträge werden vor der Veröffentlichung nicht überprüft, jedoch werden Kommentare, die unsere Community-Regeln verletzen, gelöscht.

wird bearbeitet....