Pharmazeutische Zeitung online Avoxa
whatsApp instagram facebook bluesky linkedin xign
Chatbot

ChatGPT – Spielzeug oder Medizinprodukt?

Der Chatbot ChatGPT liefert Antworten auf alle möglichen Fragen, auch medizinische. Ein Hamburger Medizinrechtler wertet ihn deshalb als Medizinprodukt und will ihm entsprechende Grenzen setzen. Das von ihm angeschriebene Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) betont, dass es nicht zuständig sei.
AutorKontaktCornelia Dölger
Datum 07.02.2023  15:30 Uhr

Ob wissenschaftliche Vorträge, Schulaufsätze, romantische Frühlingsgedichte oder Jobbewerbungen: Der Chatbot ChatGPT, ein auf künstlicher Intelligenz (KI) basierender Textgenerator der US-Firma OpenAI, spuckt auf Anweisungen und Fragen alles aus, was sein mit unvorstellbaren Datenmengen gefüttertes KI-Hirn hergibt. In Sekundenschnelle liefert ChatGPT menschlich und plausibel klingende Antworten auf alle nur erdenklichen Fragen – und hat, seitdem er für Nutzerinnen und Nutzer frei zugänglich ist, einen regelrechten KI-Hype ausgelöst.

Doch die Software wirft neben allen Chancen, die sie bietet, eine Menge Fragen auf. Wie zum Beispiel sollten Schulen mit diesem Generator umgehen, der wie am Fließband anspruchsvolle schriftliche Werke produzieren kann, welche aber nunmal von den Schülerinnen und Schülern selbst erdacht werden sollen? Wie können Universitäten in Zukunft prüfen, ob Hausarbeiten tatsächlich von den Studierenden oder der künstlichen Intelligenz stammen?

Wie sieht es auch mit dem sensiblen Thema Gesundheit aus, einem traditionell beratungsintensiven Bereich, zu dem sich immer mehr Menschen auch online informieren wollen? Auch hier lässt sich ChatGPT als Informationsquelle einsetzen und liefert selbst auf konkrete und individuelle medizinische und therapeutische Fragen detaillierte Antworten, Hilfestellungen und Anweisungen bis hin zu Arzneimittelempfehlungen.

Offener Brief ans BfArM

Dies hat den Hamburger Medizinrechtler Sebastian Vorberg auf den Plan gerufen. Vorberg setzt sich dafür ein, dass dem Chatbot in seiner umfassenden medizinischen Ratgeberwut Grenzen gesetzt werden. In einem Offenen Brief an das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) betont der Fachanwalt, dass die Software als Medizinprodukt zu klassifizieren sei. Denn sie könne »ohne Weiteres zur Diagnose, Überwachung, Behandlung oder Vorbeugung von Krankheiten verwendet werden«, listet er auf. Außerdem liefere sie Informationen, »die für Entscheidungen mit diagnostischen oder therapeutischen Zwecken herangezogen werden können«.

Zwar sei die Anwendung nicht explizit für diese Zwecke entwickelt worden, aber diese würden jedenfalls nicht ausgenommen. »Und die tatsächliche Funktionalität der künstlichen Intelligenz zeigt im beschriebenen Umfang eine entsprechend inkludierte medizinische Zweckgebung eindeutig auf«, argumentiert Vorberg. Auch die Nutzerinnen und Nutzer könnten die Antworten auf entsprechende Fragen »nicht anders verstehen als zweckorientierte medizinische Hilfestellungen im Sinne der oben genannten Merkmale eines Medizinproduktes«. Weil aber der Chatbot in Europa nicht als solches zugelassen sei und demnach nicht den entsprechenden Regelungen der Medizinprodukte-Verordnung (MDR) unterliege, müssten seine Aktivitäten im medizinischen Bereich »im Wege der Aufsicht« unterbunden »und die notwendigen Maßnahmen zur Qualitätssicherung« sichergestellt werden, verlangt Vorberg in dem Schreiben, das der PZ vorliegt.

Vorberg: Keiner fühlt sich zuständig

Mit der Antwort, die das BfArM ihm darauf gegeben hat, ist der Anwalt nicht zufrieden, wie er der PZ auf Anfrage erklärt. Die Behörde wies ihn seinen Angaben nach darauf hin, dass es nicht Aufgabe des BfArM, sondern Aufgabe des Herstellers sei, darauf zu achten, dass das Produkt MDR-konform sei. Im Übrigen würden die Landesbehörden hierzulande die Einhaltung der MDR überwachen.

Ja, das stimme zwar, so Vorberg. Für bundesweite und klarstellende Entscheidungen, wie sie im Falle des Chatbots nötig seien, habe allerdings das BfArM eine übergeordnete Funktion. Denn: »Wir glauben nicht, dass sich eine der Landesbehörden gerade für ChatGPT verantwortlich fühlt«, betont der Anwalt. Es sei nicht eindeutig, welches der Länder zuständig sei. »Damit sind dann wohl alle Länder zuständig und keiner macht den Anfang.« Hier offenbarten sich neben den inhaltlichen noch zusätzlich die Risiken des föderal aufgestellten Gesundheitssystems, kritisiert Vorberg. »Der globale Einsatz von digitalen Produkten kann mit Achselzucken durchrutschen«, warnt er.

MDR kann auch digitale Produkte qualifizieren

Grundsätzlich seien Entwicklungen wie ChatGPT zwar interessant und wichtig, so Vorberg, der auch Vorstandssprecher des Bundesverbands Internetmedizin ist. Sie könnten helfen, Lücken in der Gesundheitskompetenz der Menschen zu schließen. Hier sei es aber relevant, zwischen »einem Spielzeug und einem Medizinprodukt« zu unterscheiden. Dies leiste die Regulierung durch die MDR. Mit ihr könnten auch digitale Produkte für die Medizin qualifiziert und legitimiert werden, erklärt Vorberg. »Daran müssen sich dann aber auch alle Hersteller halten.« Und: »Diesem vertrauenswürdigen europäischen Standard müssen sich dann aber auch Produkte aus den USA unterwerfen.«

ChatGPT unterwirft sich dem nicht – was nach Vorbergs Ansicht das an sich berechtigte Vertrauen in geprüfte und kontrollierte europäische Medizinprodukte beschädige und zudem Risiken für die Gesundheit berge. Hier sollten die Aufsichtsbehörden so schnell wie möglich aktiv werden. Vorbergs Forderung: »Für medizinische Fragen muss sich ChatGPT einer Qualitäts- und Risikokontrolle unterwerfen und eine klinische Bewertung durchlaufen. Das finde ich zumutbar.«

Frag die KI
Die experimentelle KI
von PZ und PTA-Forum
Die experimentelle KI
von PZ und PTA-Forum
Die experimentelle KI
von PZ und PTA-Forum
 
FAQ
BETA
Menü
Zeit
SENDEN
Wie kann man die CAR-T-Zelltherapie einfach erklären?
Warum gibt es keinen Impfstoff gegen HIV?
Was hat der BGH im Fall von AvP entschieden?
Zeit
GESAMTER ZEITRAUM
3 JAHRE
1 JAHR
Senden
SENDEN
KI
IHRE FRAGE WIRD BEARBEITET ...
KI
KI
UNSERE ANTWORT
QUELLEN
22.01.2023 – Fehlende Evidenz?
LAV Niedersachsen sieht Verbesserungsbedarf
» ... Frag die KI ist ein experimentelles Angebot der Pharmazeutischen Zeitung. Es nutzt Künstliche Intelligenz, um Fragen zu Themen der Branche zu beantworten. Die Antworten basieren auf dem Artikelarchiv der Pharmazeutischen Zeitung und des PTA-Forums. Die durch die KI generierten Antworten sind mit Links zu den Originalartikeln. ... «
Ihr Feedback
War diese Antwort für Sie hilfreich?
 
 
FEEDBACK SENDEN
FAQ
Was ist »Frag die KI«?
»Frag die KI« ist ein experimentelles Angebot der Pharmazeutischen Zeitung. Es nutzt Künstliche Intelligenz, um Fragen zu Themen der Branche zu beantworten. Die Antworten basieren auf dem Artikelarchiv der Pharmazeutischen Zeitung und des PTA-Forums. Die durch die KI generierten Antworten sind mit Links zu den Originalartikeln der Pharmazeutischen Zeitung und des PTA-Forums versehen, in denen mehr Informationen zu finden sind. Die Redaktion der Pharmazeutischen Zeitung verfolgt in ihren Artikeln das Ziel, kompetent, seriös, umfassend und zeitnah über berufspolitische und gesundheitspolitische Entwicklungen, relevante Entwicklungen in der pharmazeutischen Forschung sowie den aktuellen Stand der pharmazeutischen Praxis zu informieren.
Was sollte ich bei den Fragen beachten?
Damit die KI die besten und hilfreichsten Antworten geben kann, sollten verschiedene Tipps beachtet werden. Die Frage sollte möglichst präzise gestellt werden. Denn je genauer die Frage formuliert ist, desto zielgerichteter kann die KI antworten. Vollständige Sätze erhöhen die Wahrscheinlichkeit einer guten Antwort.
Wie nutze ich den Zeitfilter?
Damit die KI sich bei ihrer Antwort auf aktuelle Beiträge beschränkt, kann die Suche zeitlich eingegrenzt werden. Artikel, die älter als sieben Jahre sind, werden derzeit nicht berücksichtigt.
Sind die Ergebnisse der KI-Fragen durchweg korrekt?
Die KI kann nicht auf jede Frage eine Antwort liefern. Wenn die Frage ein Thema betrifft, zu dem wir keine Artikel veröffentlicht haben, wird die KI dies in ihrer Antwort entsprechend mitteilen. Es besteht zudem eine Wahrscheinlichkeit, dass die Antwort unvollständig, veraltet oder falsch sein kann. Die Redaktion der Pharmazeutischen Zeitung übernimmt keine Verantwortung für die Richtigkeit der KI-Antworten.
Werden meine Daten gespeichert oder verarbeitet?
Wir nutzen gestellte Fragen und Feedback ausschließlich zur Generierung einer Antwort innerhalb unserer Anwendung und zur Verbesserung der Qualität zukünftiger Ergebnisse. Dabei werden keine zusätzlichen personenbezogenen Daten erfasst oder gespeichert.

Mehr von Avoxa