Pharmazeutische Zeitung online
Chatbot

ChatGPT – Spielzeug oder Medizinprodukt?

Der Chatbot ChatGPT liefert Antworten auf alle möglichen Fragen, auch medizinische. Ein Hamburger Medizinrechtler wertet ihn deshalb als Medizinprodukt und will ihm entsprechende Grenzen setzen. Das von ihm angeschriebene Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) betont, dass es nicht zuständig sei.
Cornelia Dölger
07.02.2023  15:30 Uhr
ChatGPT – Spielzeug oder Medizinprodukt?

Ob wissenschaftliche Vorträge, Schulaufsätze, romantische Frühlingsgedichte oder Jobbewerbungen: Der Chatbot ChatGPT, ein auf künstlicher Intelligenz (KI) basierender Textgenerator der US-Firma OpenAI, spuckt auf Anweisungen und Fragen alles aus, was sein mit unvorstellbaren Datenmengen gefüttertes KI-Hirn hergibt. In Sekundenschnelle liefert ChatGPT menschlich und plausibel klingende Antworten auf alle nur erdenklichen Fragen – und hat, seitdem er für Nutzerinnen und Nutzer frei zugänglich ist, einen regelrechten KI-Hype ausgelöst.

Doch die Software wirft neben allen Chancen, die sie bietet, eine Menge Fragen auf. Wie zum Beispiel sollten Schulen mit diesem Generator umgehen, der wie am Fließband anspruchsvolle schriftliche Werke produzieren kann, welche aber nunmal von den Schülerinnen und Schülern selbst erdacht werden sollen? Wie können Universitäten in Zukunft prüfen, ob Hausarbeiten tatsächlich von den Studierenden oder der künstlichen Intelligenz stammen?

Wie sieht es auch mit dem sensiblen Thema Gesundheit aus, einem traditionell beratungsintensiven Bereich, zu dem sich immer mehr Menschen auch online informieren wollen? Auch hier lässt sich ChatGPT als Informationsquelle einsetzen und liefert selbst auf konkrete und individuelle medizinische und therapeutische Fragen detaillierte Antworten, Hilfestellungen und Anweisungen bis hin zu Arzneimittelempfehlungen.

Offener Brief ans BfArM

Dies hat den Hamburger Medizinrechtler Sebastian Vorberg auf den Plan gerufen. Vorberg setzt sich dafür ein, dass dem Chatbot in seiner umfassenden medizinischen Ratgeberwut Grenzen gesetzt werden. In einem Offenen Brief an das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) betont der Fachanwalt, dass die Software als Medizinprodukt zu klassifizieren sei. Denn sie könne »ohne Weiteres zur Diagnose, Überwachung, Behandlung oder Vorbeugung von Krankheiten verwendet werden«, listet er auf. Außerdem liefere sie Informationen, »die für Entscheidungen mit diagnostischen oder therapeutischen Zwecken herangezogen werden können«.

Zwar sei die Anwendung nicht explizit für diese Zwecke entwickelt worden, aber diese würden jedenfalls nicht ausgenommen. »Und die tatsächliche Funktionalität der künstlichen Intelligenz zeigt im beschriebenen Umfang eine entsprechend inkludierte medizinische Zweckgebung eindeutig auf«, argumentiert Vorberg. Auch die Nutzerinnen und Nutzer könnten die Antworten auf entsprechende Fragen »nicht anders verstehen als zweckorientierte medizinische Hilfestellungen im Sinne der oben genannten Merkmale eines Medizinproduktes«. Weil aber der Chatbot in Europa nicht als solches zugelassen sei und demnach nicht den entsprechenden Regelungen der Medizinprodukte-Verordnung (MDR) unterliege, müssten seine Aktivitäten im medizinischen Bereich »im Wege der Aufsicht« unterbunden »und die notwendigen Maßnahmen zur Qualitätssicherung« sichergestellt werden, verlangt Vorberg in dem Schreiben, das der PZ vorliegt.

Mehr von Avoxa