ChatGPT – Spielzeug oder Medizinprodukt? |
Cornelia Dölger |
07.02.2023 15:30 Uhr |
Mit einer riesigen Datenmenge ausgestattet, liefert der KI-Textgenerator ChatGPT Antworten auf alle möglichen Fragen. Selbst auf individuelle medizinische Fragen gibt er detaillierte Antworten, Hilfestellungen und Anweisungen. / Foto: picture alliance/dpa/BELGA
Ob wissenschaftliche Vorträge, Schulaufsätze, romantische Frühlingsgedichte oder Jobbewerbungen: Der Chatbot ChatGPT, ein auf künstlicher Intelligenz (KI) basierender Textgenerator der US-Firma OpenAI, spuckt auf Anweisungen und Fragen alles aus, was sein mit unvorstellbaren Datenmengen gefüttertes KI-Hirn hergibt. In Sekundenschnelle liefert ChatGPT menschlich und plausibel klingende Antworten auf alle nur erdenklichen Fragen – und hat, seitdem er für Nutzerinnen und Nutzer frei zugänglich ist, einen regelrechten KI-Hype ausgelöst.
Doch die Software wirft neben allen Chancen, die sie bietet, eine Menge Fragen auf. Wie zum Beispiel sollten Schulen mit diesem Generator umgehen, der wie am Fließband anspruchsvolle schriftliche Werke produzieren kann, welche aber nunmal von den Schülerinnen und Schülern selbst erdacht werden sollen? Wie können Universitäten in Zukunft prüfen, ob Hausarbeiten tatsächlich von den Studierenden oder der künstlichen Intelligenz stammen?
Wie sieht es auch mit dem sensiblen Thema Gesundheit aus, einem traditionell beratungsintensiven Bereich, zu dem sich immer mehr Menschen auch online informieren wollen? Auch hier lässt sich ChatGPT als Informationsquelle einsetzen und liefert selbst auf konkrete und individuelle medizinische und therapeutische Fragen detaillierte Antworten, Hilfestellungen und Anweisungen bis hin zu Arzneimittelempfehlungen.
Dies hat den Hamburger Medizinrechtler Sebastian Vorberg auf den Plan gerufen. Vorberg setzt sich dafür ein, dass dem Chatbot in seiner umfassenden medizinischen Ratgeberwut Grenzen gesetzt werden. In einem Offenen Brief an das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) betont der Fachanwalt, dass die Software als Medizinprodukt zu klassifizieren sei. Denn sie könne »ohne Weiteres zur Diagnose, Überwachung, Behandlung oder Vorbeugung von Krankheiten verwendet werden«, listet er auf. Außerdem liefere sie Informationen, »die für Entscheidungen mit diagnostischen oder therapeutischen Zwecken herangezogen werden können«.
Zwar sei die Anwendung nicht explizit für diese Zwecke entwickelt worden, aber diese würden jedenfalls nicht ausgenommen. »Und die tatsächliche Funktionalität der künstlichen Intelligenz zeigt im beschriebenen Umfang eine entsprechend inkludierte medizinische Zweckgebung eindeutig auf«, argumentiert Vorberg. Auch die Nutzerinnen und Nutzer könnten die Antworten auf entsprechende Fragen »nicht anders verstehen als zweckorientierte medizinische Hilfestellungen im Sinne der oben genannten Merkmale eines Medizinproduktes«. Weil aber der Chatbot in Europa nicht als solches zugelassen sei und demnach nicht den entsprechenden Regelungen der Medizinprodukte-Verordnung (MDR) unterliege, müssten seine Aktivitäten im medizinischen Bereich »im Wege der Aufsicht« unterbunden »und die notwendigen Maßnahmen zur Qualitätssicherung« sichergestellt werden, verlangt Vorberg in dem Schreiben, das der PZ vorliegt.