ChatGPT – Spielzeug oder Medizinprodukt? |
Cornelia Dölger |
07.02.2023 15:30 Uhr |
Mit einer riesigen Datenmenge ausgestattet, liefert der KI-Textgenerator ChatGPT Antworten auf alle möglichen Fragen. Selbst auf individuelle medizinische Fragen gibt er detaillierte Antworten, Hilfestellungen und Anweisungen. / Foto: picture alliance/dpa/BELGA
Ob wissenschaftliche Vorträge, Schulaufsätze, romantische Frühlingsgedichte oder Jobbewerbungen: Der Chatbot ChatGPT, ein auf künstlicher Intelligenz (KI) basierender Textgenerator der US-Firma OpenAI, spuckt auf Anweisungen und Fragen alles aus, was sein mit unvorstellbaren Datenmengen gefüttertes KI-Hirn hergibt. In Sekundenschnelle liefert ChatGPT menschlich und plausibel klingende Antworten auf alle nur erdenklichen Fragen – und hat, seitdem er für Nutzerinnen und Nutzer frei zugänglich ist, einen regelrechten KI-Hype ausgelöst.
Doch die Software wirft neben allen Chancen, die sie bietet, eine Menge Fragen auf. Wie zum Beispiel sollten Schulen mit diesem Generator umgehen, der wie am Fließband anspruchsvolle schriftliche Werke produzieren kann, welche aber nunmal von den Schülerinnen und Schülern selbst erdacht werden sollen? Wie können Universitäten in Zukunft prüfen, ob Hausarbeiten tatsächlich von den Studierenden oder der künstlichen Intelligenz stammen?
Wie sieht es auch mit dem sensiblen Thema Gesundheit aus, einem traditionell beratungsintensiven Bereich, zu dem sich immer mehr Menschen auch online informieren wollen? Auch hier lässt sich ChatGPT als Informationsquelle einsetzen und liefert selbst auf konkrete und individuelle medizinische und therapeutische Fragen detaillierte Antworten, Hilfestellungen und Anweisungen bis hin zu Arzneimittelempfehlungen.
Dies hat den Hamburger Medizinrechtler Sebastian Vorberg auf den Plan gerufen. Vorberg setzt sich dafür ein, dass dem Chatbot in seiner umfassenden medizinischen Ratgeberwut Grenzen gesetzt werden. In einem Offenen Brief an das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) betont der Fachanwalt, dass die Software als Medizinprodukt zu klassifizieren sei. Denn sie könne »ohne Weiteres zur Diagnose, Überwachung, Behandlung oder Vorbeugung von Krankheiten verwendet werden«, listet er auf. Außerdem liefere sie Informationen, »die für Entscheidungen mit diagnostischen oder therapeutischen Zwecken herangezogen werden können«.
Zwar sei die Anwendung nicht explizit für diese Zwecke entwickelt worden, aber diese würden jedenfalls nicht ausgenommen. »Und die tatsächliche Funktionalität der künstlichen Intelligenz zeigt im beschriebenen Umfang eine entsprechend inkludierte medizinische Zweckgebung eindeutig auf«, argumentiert Vorberg. Auch die Nutzerinnen und Nutzer könnten die Antworten auf entsprechende Fragen »nicht anders verstehen als zweckorientierte medizinische Hilfestellungen im Sinne der oben genannten Merkmale eines Medizinproduktes«. Weil aber der Chatbot in Europa nicht als solches zugelassen sei und demnach nicht den entsprechenden Regelungen der Medizinprodukte-Verordnung (MDR) unterliege, müssten seine Aktivitäten im medizinischen Bereich »im Wege der Aufsicht« unterbunden »und die notwendigen Maßnahmen zur Qualitätssicherung« sichergestellt werden, verlangt Vorberg in dem Schreiben, das der PZ vorliegt.
Mit der Antwort, die das BfArM ihm darauf gegeben hat, ist der Anwalt nicht zufrieden, wie er der PZ auf Anfrage erklärt. Die Behörde wies ihn seinen Angaben nach darauf hin, dass es nicht Aufgabe des BfArM, sondern Aufgabe des Herstellers sei, darauf zu achten, dass das Produkt MDR-konform sei. Im Übrigen würden die Landesbehörden hierzulande die Einhaltung der MDR überwachen.
Ja, das stimme zwar, so Vorberg. Für bundesweite und klarstellende Entscheidungen, wie sie im Falle des Chatbots nötig seien, habe allerdings das BfArM eine übergeordnete Funktion. Denn: »Wir glauben nicht, dass sich eine der Landesbehörden gerade für ChatGPT verantwortlich fühlt«, betont der Anwalt. Es sei nicht eindeutig, welches der Länder zuständig sei. »Damit sind dann wohl alle Länder zuständig und keiner macht den Anfang.« Hier offenbarten sich neben den inhaltlichen noch zusätzlich die Risiken des föderal aufgestellten Gesundheitssystems, kritisiert Vorberg. »Der globale Einsatz von digitalen Produkten kann mit Achselzucken durchrutschen«, warnt er.
Grundsätzlich seien Entwicklungen wie ChatGPT zwar interessant und wichtig, so Vorberg, der auch Vorstandssprecher des Bundesverbands Internetmedizin ist. Sie könnten helfen, Lücken in der Gesundheitskompetenz der Menschen zu schließen. Hier sei es aber relevant, zwischen »einem Spielzeug und einem Medizinprodukt« zu unterscheiden. Dies leiste die Regulierung durch die MDR. Mit ihr könnten auch digitale Produkte für die Medizin qualifiziert und legitimiert werden, erklärt Vorberg. »Daran müssen sich dann aber auch alle Hersteller halten.« Und: »Diesem vertrauenswürdigen europäischen Standard müssen sich dann aber auch Produkte aus den USA unterwerfen.«
ChatGPT unterwirft sich dem nicht – was nach Vorbergs Ansicht das an sich berechtigte Vertrauen in geprüfte und kontrollierte europäische Medizinprodukte beschädige und zudem Risiken für die Gesundheit berge. Hier sollten die Aufsichtsbehörden so schnell wie möglich aktiv werden. Vorbergs Forderung: »Für medizinische Fragen muss sich ChatGPT einer Qualitäts- und Risikokontrolle unterwerfen und eine klinische Bewertung durchlaufen. Das finde ich zumutbar.«