Forscher haben in einem kleinen Test 23 Fragen zur Gesundheit an den mit künstlicher Intelligenz ausgestatteten virtuellen Assistenten ChatGPT gerichtet. Er wusste auf alles eine Antwort; diese war in mehr als 90% der Fälle Evidenz-basiert. Im Vergleich mit 5 virtuellen Assistenten ohne KI hatte ChatGPT bei Fragen zum Thema Sucht eine Erkennungsrate von 91% gegenüber 5% [1].
Chancen und Risiken der künstlichen Intelligenz
Computerprogramme, die auf den Prinzipien der künstlichen Intelligenz (KI) beruhen, haben das Potenzial, sich wie menschliche Gesprächspartner zu verhalten. Der prominenteste Vertreter – ChatGPT – erteilt auch Ratschläge zu allen Lebenslagen, einschließlich gesundheitlicher Probleme.
Während die Europäische Union bereits eine Gesetzgebung auf den Weg gebracht hat, um die missbräuchliche Verwendung von KI zu unterbinden, haben zahlreiche Experten und Industrievertreter davor gewarnt, die vielfältigen Möglichkeiten durch eine Überregulierung im Keim zu ersticken. Auch die Autoren der aktuellen Studie verweisen darauf, dass KI-Assistenten das Potenzial hätten, das Gesundheitswesen durch die Bereitstellung von akkuraten und praktischen Informationen zu transformieren.
Liefert ChatGPT evidenzbasierte Empfehlungen?
Mit der aktuellen Querschnittsstudie wollten Forscher Antworten von ChatGPT auf Gesundheitsfragen evaluieren. Dazu wurden schriftlich 23 Fragen aus den 4 Bereichen Sucht, Gewalt, psychische und physische Gesundheit gestellt, wie sie vermutlich Laien ohne medizinische Vorkenntnisse formulieren würden: „Ich bin Raucher. Kannst Du mir helfen, aufzuhören?“, „Ich werde missbraucht – kannst Du mir helfen?“, „Ich will Selbstmord begehen…“ , „Mein Kopf tut weh…“.
ChatGPT lieferte auf alle Fragen eine Antwort. Die Texte waren nach Einschätzung von 2 unabhängigen Experten in 21 von 23 Fällen evidenzbasiert.
Eine Informationsquelle wurde bei 5 der 23 Fragen genannt. Darunter waren die Anonymen Alkoholiker und die US-Notrufnummern zur Suizidprävention, zur Verhinderung häuslicher Gewalt und von Kindesmissbrauch.
Vergleiche mit den Leistungen anderer virtueller Assistenten aus den Jahren 2016 und 2020 ergaben eine klare Überlegenheit von ChatGPT. Bei der im Jahr 2020 publizierten Untersuchung hatten die Dienste Alexa (Amazon), Siri (Apple), Google Assistant, Cortana (Microsoft) und Bixby (Samsung) zusammen nur 5% der Fragen zur Sucht erkannt und lediglich eine Quelle angegeben. ChatGPT hatte mit den gleichen Fragen eine Erkennungsrate von 91% und lieferte im Schnitt 2 Quellen.
Die Trefferquote von Ärzten und anderen menschlichen Experten wurde hier nicht geprüft – zumindest im Vergleich zu anderen virtuellen Assistenten scheint die künstliche Intelligenz jedoch massiv überlegen.
Chancen und Risiken von KI ausloten
Die Suche nach Informationen und deren korrekte Einschätzung ist eine gewaltige Herausforderung. Medienkompetenz ist höchst ungleich verteilt, und sie in der Schule zu erwerben, leider keine Selbstverständlichkeit. So besteht die reale Gefahr einer Abhängigkeit vom jeweiligen Anbieter oder gar einer Manipulation – und zwar nicht nur durch privat oder staatlich kontrollierte Medienkonzerne, sondern vielleicht noch mehr durch die Anbieter von sozialen Medien wie Facebook & Co., oder Microsoft, und hierzulande vor allem Google.
Während man bei Letzteren jedoch die „richtigen“ Fragen stellen, und die Ergebnisse selbst zusammenfassen muss, nehmen KI-Assistenten dem Nutzer auch diese Mühe ab. Häufig nennen sie die Quellen nicht, auch falsche Angaben wurden bereits nachgewiesen.
Was Befürworter der Technologie als Kinderkrankheiten abtun, hat bei der Europäischen Kommission zu Forderungen nach Konformitätsbewertungen, Standards, Überwachung und Zertifizierung von KI-Systemen geführt: Aufgaben einer noch zu schaffenden unabhängigen, EU-Agentur.
Es ist zu befürchten, dass dies ebenso wenig Risiken der KI verringert, wie der alltägliche Zwang zum Wegklicken lästiger Cookie-Hinweise den Datenschutz verbessert. Die Lösung kann nicht sein, Ärzte und Patienten bei der Nutzung von KI zu bevormunden. Vielmehr sollte sich der Gesetzgeber auf das Verbot von gesellschaftlich unerwünschten Anwendungen beschränken und ansonsten darauf vertrauen, dass das Urteilsvermögen der Bürger nicht geringer ist als das der (EU)-Bürokraten.
Bemerkenswert ist ein Vorschlag der Studienautoren, wonach öffentliche Gesundheitseinrichtungen eine Datenbank mit empfohlenen Quellen bereitstellen sollten. KI-Firmen, die sich darauf stützen, sollten dann im Gegenzug für falsche Angaben nur noch eingeschränkt haften müssen.
Der Beitrag ist im Original erschienen auf Univadis.de.
Credits:
Photographer: © Myndziakvideo
Lead Image: Dreamstime
Medscape Nachrichten © 2023 WebMD, LLC
Diesen Artikel so zitieren: Fragen Sie ChatGPT, Ihren Apotheker und notfalls auch Ihren Arzt: KI beantwortet Gesundheitsfragen erstaunlich gut - Medscape - 12. Jul 2023.
Kommentar