3.000 Entscheider um Elon Musk und Steve Wozniak wollen KI-Forschung auf Eis legen – deutsche Experten fordern andere Regeln

Michael van den Heuvel

Interessenkonflikte

5. April 2023

Seit der Einführung von ChatGPT gehört künstliche Intelligenz (KI) mehr denn je zu den kontrovers diskutierten Themen, auch in der Medizin. Bedenken sind einerseits ethischer Natur. Algorithmen arbeiten mit Trainingsdatensätzen, die womöglich Geschlechter, Ethnien oder Vorerkrankungen diskriminieren. In Forschung und Lehre wiederum könnten synthetische Texte zum Problem werden. Ein Beispiel, wie platt sich ChatGPT eine Krebstherapie vorstellt, macht auch ein Selbstversuch deutlich (siehe Kasten).

ChatGPT – ein Selbstversuch

Der Autor hat ein kostenfreies Profil bei ChatGPT erstellt und folgende Anweisung eingegeben: „Schreibe einen spannenden medizinischen Fallbericht.“ Das Ergebnis: 

„Der Fall von Herrn Müller war eine Herausforderung für das gesamte medizinische Team. Der 65-jährige Mann kam mit starken Bauchschmerzen und Übelkeit in die Notaufnahme. Seine Krankengeschichte zeigte keine relevanten Vorerkrankungen, außer einem hohen Blutdruck und einer leichten Fettleber.

Die Ärzte führten eine gründliche Untersuchung durch, einschließlich einer Ultraschalluntersuchung des Bauchraums. Dabei stellten sie eine Vergrößerung der Leber und eine Flüssigkeitsansammlung im Bauchraum fest. Eine Computertomographie (CT) bestätigte diese Befunde und zeigte zusätzlich eine Veränderung im Dickdarmbereich.

Da der Verdacht auf eine Krebserkrankung bestand, wurde eine Biopsie der Dickdarmveränderung durchgeführt. Das Ergebnis war überraschend: Es handelte sich um eine seltene Form von Leberkrebs, die in den Dickdarm eingedrungen war und dort Metastasen gebildet hatte. 

Das medizinische Team beriet sich intensiv und entschied, eine radikale Operation durchzuführen, um die Krebserkrankung zu bekämpfen. Herr Müller wurde in einem spezialisierten Krankenhaus operiert, wobei ein Teil des Dickdarms und der betroffenen Leber entfernt wurden. Die Operation war erfolgreich, und Herr Müller erholte sich gut.

Nach der Operation wurde Herr Müller einer Chemotherapie unterzogen, um sicherzustellen, dass alle Krebszellen vollständig entfernt wurden. Eine weitere CT-Untersuchung zeigte, dass die Behandlung erfolgreich war, und Herr Müller konnte das Krankenhaus verlassen.

Dieser Fall zeigt, wie wichtig eine gründliche Untersuchung und eine genaue Diagnosestellung sind, um seltene Krankheiten zu erkennen und zu behandeln. Dank des schnellen Handelns des medizinischen Teams konnte Herr Müller erfolgreich behandelt werden und hat gute Chancen auf eine vollständige Genesung.“

Den Text hat ChatGPT generiert; es handelt sich um keinen realen Fallbericht.

 

Offene regulatorische Fragen in Deutschland

Medienberichten zufolge sieht das Bundesministerium für Gesundheit (BMG) bei der Regulation sowohl Entwickler als auch Nutzer in der Pflicht. Auch das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) hält sich nicht für direkt zuständig. Die Zentralstelle der Länder für Gesundheitsschutz bei Arzneimitteln und Medizinprodukten (ZLG) zieht sich ebenfalls aus der Verantwortung. Bei Medizinprodukten ist die ZLG zentrale Koordinierungsstelle für die Produktüberwachung. Experten wie der Medizinrechtler Sebastian Vorberg hatten gefordert, KI-Technologien als Medizinprodukte einzustufen. 

Andere Länder gehen rigoroser vor. In Italien soll ChatGPT aus Datenschutzgründen befristet gesperrtwerden.

Was plant die EU?

Mitgliedsstaaten der europäischen Union verhandeln derzeit über den Artificial Intelligence Act (AI Act). Ihr Entwurf besteht aus 3 thematischen Blöcken: 

  • Allgemeine Vorschriften: Diese umfassen Definitionen von KI-Systemen und Klassifikationen dieser Systeme in Bezug auf Risiken, die sie für die Gesellschaft und für Grundrechte der Bürger darstellen. Es werden Anforderungen an die Transparenz und Dokumentation von KI-Systemen sowie an die Verwendung von Daten und Datensicherheit festgelegt.

  • Spezifische Vorschriften: Diese betreffen bestimmte KI-Systeme, welche als besonders riskant eingestuft werden, etwa biometrische Erkennungssysteme und KI-Systeme, die für Entscheidungen im Zusammenhang mit Medizin, Strafrecht oder öffentlicher Sicherheit eingesetzt werden.

  • Konformitätsbewertung: Diese umfasst Verfahren zur Überprüfung der Einhaltung der Vorschriften durch Hersteller und Anwender von KI-Systemen.

Der Vorschlag der EU-Kommission liegt seit knapp 2 Jahren vor. Seitdem wird über Details gesprochen. Selbst wenn der AI Act optimistischen Schätzungen zufolge noch dieses Jahr verabschiedet werden könnte, wird es dann wahrscheinlich noch 2 Jahre dauern, bis er in den EU-Staaten auch Teil der nationalen Gesetzgebung ist. 

Moratorium bei der KI-Forschung

Jetzt fordern mehr als 3.000 Vertreter aus Wirtschaft und Wissenschaft in einem offenen Brief, das Training von KI-Systemen, die leistungsstärker als GPT-4 sind, „unverzüglich“ für mindestens 6 Monate zu unterbrechen. GPT-4 ist eine seit März verfügbare Anwendung des US-Konzerns OpenAI LP. Sie befassen sich mit unterschiedlichen Szenarien und Anwendungsbereichen. 

Zu den Unterzeichnern des Schreibens gehören u.a. bekannte Namen wie Steve Wozniak (Apple), Elon Musk (SpaceX, Tesla, Twitter), Turing-Preisträger Yoshua Bengio und Bestseller-Autor Yuval Noah Harari

„KI-Labore und unabhängige Experten sollten diese Pause nutzen, um gemeinsam eine Reihe von Sicherheitsprotokolle für fortschrittliches KI-Design und -Entwicklung zu entwickeln und umzusetzen, die von unabhängigen externen Experten streng geprüft und überwacht werden“, heißt es darin. „Diese Protokolle sollten garantieren, dass Systeme, die sich daran halten, zweifelsfrei sicher sind.“

Parallel dazu müssen KI-Entwickler mit politischen Entscheidungsträgern zusammenarbeiten, um die Entwicklung robuster KI-Governance-Systeme drastisch zu beschleunigen, so die Unterzeichner. 

Konkret fordern sie:

  • neue und leistungsfähige Regulierungsbehörden, die sich der KI verschrieben haben,

  • die Überwachung hochleistungsfähiger KI-Systeme und großer Pools von Rechenkapazitäten,

  • Herkunfts- und Wasserzeichensysteme, um zu helfen, echte von synthetischen Inhalten zu unterscheiden,

  • ein robustes Audit- und Zertifizierungssystem, 

  • Haftung für Schäden, die KI verursacht hat, 

  • eine solide öffentliche Finanzierung der technischen KI-Sicherheitsforschung,

  • gut ausgestattete Institutionen zur Bewältigung möglicher Folgen der KI. 

Doch wie ist der Vorstoß zu bewerten? Das Science Media Center Germany hat bei Experten nachgefragt.

Geteiltes Echo

„Dem offenen Brief stehe ich gespalten gegenüber“, sagt Prof. Dr. Sandra Wachter vom Oxford Internet Institute, University of Oxford. „Grundsätzlich finde ich es gut, dass sich viele Menschen Gedanken machen, wie neue Technologien verantwortungsvoll genutzt werden können. Und in dieser Hinsicht sorgt der Brief sicher für mehr Aufmerksamkeit für das Thema.“

Wachter: „Einige der im Brief angeführten Gründen für das Moratorium erscheinen mir einleuchtend, andere nicht.“ Beispielsweise seien Fragen zum Einsatz in der Arbeitswelt nicht neu. Andere Themen wie „human-competitive intelligence“ würden eher „an Terminator-Szenarien“ erinnern. 

 
Einige der im Brief angeführten Gründen für das Moratorium erscheinen mir einleuchtend, andere nicht. Prof. Dr. Sandra Wachter
 

Ihr Kommentar: „Die eine Gruppe betrachtet Probleme, die aktuell und in naher Zukunft relevant sind. Dazu zähle ich mich auch. Und die andere Gruppe schaut langfristig, was in 100 oder 200 Jahren sein soll. Dabei geht es dann auch um Fragen beispielsweise nach dem Bewusstsein von Robotern.“

Vom den AI Act hält die Expertin indes wenig. „Technologie entwickelt sich manchmal auf eine Art und Weise, die schwer vorherzusehen ist“, sagt die. „Beim AI Act wird stark auf spezielle Risiken geschaut.“ Doch jede Beurteilung hänge vom Zweck der Anwendung ab. Bei Technologien wie ChatGPT mit allgemeinen Einsatzmöglichkeiten sei das schwierig.

Angstmacherei und Naivität?

„Der Brief ist geprägt von Angstmacherei, die den öffentlichen Diskurs auf hypothetische Risiken einer ‚Konkurrenzintelligenz‘ lenkt und aktuelle Risiken beim Einsatz von KI-Systemen ignoriert“, kommentiert Prof. Dr. Kristian Kersting von der Technischen Universität Darmstadt. 

„Eine 6-monatige Pause wird nicht funktionieren und ist die falsche Maßnahme. Sie bevorteilt die Firmen, die solche Modelle bereits haben.“ Durch die Pause sei keine Entschleunigung zu erreichen. Kersting: „Wir müssen lernen, KI-Systeme sorgfältiger einzusetzen, anstatt die (öffentliche) Forschung daran zu stoppen.“ 

 
Der Brief ist geprägt von Angstmacherei, die den öffentlichen Diskurs auf hypothetische Risiken einer ‚Konkurrenzintelligenz‘ lenkt und aktuelle Risiken beim Einsatz von KI-Systemen ignoriert. Prof. Dr. Kristian Kersting
 

Noch deutlichere Worte findet Prof. Dr. Peter Dabrock, Friedrich-Alexander-Universität Erlangen-Nürnberg. „Wortwörtlich kann man den Brief nicht wirklich ernst nehmen – auch wenn ihn weltweit führende KI-Experten aus Wissenschaft und Tech-Industrie in großer Zahl unterschrieben haben“, sagt er. „So viel Naivität will man diesen sicher mit allen Wassern gewaschen Menschen nicht unterstellen, als dass sie glauben könnten, auf ihren Appell hin klappten alle Programmierer von Large Language Models für 6 Monate ihre Laptops zu und setzten sich Politiker aus den USA, Europa, China und Russland hin, um in dieser knappen Zeitspanne verbindliche Regeln von Völker- bis nationalem Recht für die nächsten Jahre zu verabschieden.“ 

 
Wir müssen lernen, KI-Systeme sorgfältiger einzusetzen, anstatt die (öffentliche) Forschung daran zu stoppen. Prof. Dr. Kristian Kersting
 

Fanden Sie diesen Artikel interessant? Hier ist der  Link  zu unseren kostenlosen Newsletter-Angeboten – damit Sie keine Nachrichten aus der Medizin verpassen.

 

Kommentar

3090D553-9492-4563-8681-AD288FA52ACE
Wir bitten darum, Diskussionen höflich und sachlich zu halten. Beiträge werden vor der Veröffentlichung nicht überprüft, jedoch werden Kommentare, die unsere Community-Regeln verletzen, gelöscht.

wird bearbeitet....