ChatGPT ist kein Medizinprodukt |
Cornelia Dölger |
29.11.2023 14:00 Uhr |
Weil das System nicht versteht, was es von sich gibt, ist es nicht als Medizinprodukt einzuordnen, zu dem Schluss kam jetzt eine Arbeitsgruppe der Länder. / Foto: IMAGO/Pacific Press Agency
Seit gut einem Jahr ist der KI-basierte Chatbot ChatGPT öffentlich zugänglich und hat seitdem einen Siegeszug sondergleich angetreten. Jede dritte Person in Deutschland ab 16 Jahren hat den Sprachgenerator bereits ausprobiert, zwei Drittel (66 Prozent) der Befragten glauben , dass ChatGPT und ähnliche Anwendungen unser Leben grundlegend verändern werden, fand eine aktuelle Umfrage des Digitalverbands Bitkom heraus.
Ob wissenschaftliche Vorträge, Schulaufsätze, romantische Frühlingsgedichte oder Jobbewerbungen: ChatGPT spuckt auf Anweisungen und Fragen alles aus, was sein mit unvorstellbaren Datenmengen gefüttertes KI-Hirn hergibt. In Sekundenschnelle liefert ChatGPT menschlich und plausibel klingende Antworten auf alle nur erdenklichen Fragen – kein Wunder also, dass er einen regelrechten KI-Hype ausgelöst hat.
Auch für Gesundheitsfragen lässt sich ChatGPT als Informationsquelle einsetzen und liefert selbst auf konkrete und individuelle medizinische und therapeutische Fragen detaillierte Antworten, Hilfestellungen und Anweisungen bis hin zu Arzneimittelempfehlungen. Das brachte einen Hamburger Medizinrechtler auf den Plan. Seit Jahresbeginn wollte Sebastian Vorberg wissen, ob dem Chatbot in seiner umfassenden medizinischen Ratgeberwut Grenzen gesetzt werden müssten und er als Medizinprodukt klassifiziert werden müsse.
Welche Instanz hier für Klarheit sorgen würde, war lange nicht klar. Zunächst wandte Vorberg sich ans Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM), bekam dort aber die Antwort, dass es nicht Aufgabe des BfArM, sondern grundsätzlich des Herstellers sei, darauf zu achten, dass das Produkt MDR-konform sei, also der EU-Medizinprodukteverordnung (Medical Device Regulation – MDR) entspreche. Zudem würden die Landesbehörden hierzulande die Einhaltung der MDR überwachen. Die Länder wiederum, genauer gesagt: die Zentralstelle der Länder für Gesundheitsschutz bei Arzneimitteln und Medizinprodukten (ZLG), wies seinerzeit die Zuständigkeit auf PZ-Anfrage ebenfalls zurück.
Nun gibt es aus den Ländern aber doch eine Antwort. Wie Vorberg der PZ heute erklärte, habe die länderübergreifenden Arbeitsgruppe Medizinprodukte (AGMP) sich zur Frage, ob ChatGPT ein Medizinprodukt ist oder nicht, geäußert: Es sei keines, laute die Entscheidung. »Die Arbeitsgruppe kommt zu dem Ergebnis, dass ChatGPT nicht von der MDR erfasst wird«, so Vorberg. Interessant sei hierbei die Begründung. Zusammenfassend werde festgestellt, dass ein digitales Sprachmodell wie ChatGPT ohne medizinische Zweckbestimmung nur Geschichten aufgrund von Wahrscheinlichkeiten zusammenstelle, ohne diese inhaltlich zu begreifen. Dies würde nicht zu einer Anwendbarkeit der MDR führen. Auch eine Nutzbarkeit im Rahmen von Gesundheitsfragen würde hieran nichts ändern.
Die Entscheidung schaffe Klarheit und eröffne den digitalen Sprachmodellen im Gesundheitsbereich weitreichende Einsatzgebiete ohne weitere regulatorische Anforderungen, erklärte Vorberg der PZ. Das sei zu begrüßen. Selbstverständlich müsse aber auch erwähnt werden, dass die Zweckbestimmung auch bei Sprachmodellen weiterhin eine wesentliche Rolle spiele. »Damit wird eine konkrete kommerzielle Nutzung von Sprachmodellen in der Medizin ohne MDR weiter schwierig.«
Juristisch sei über die Entscheidung der Arbeitsgruppe noch nicht das letzte Wort gesprochen. »Ich halte den Ansatz, dass ein Sprachmodell den ausgegebenen Inhalt nicht begreift und damit einen regulationsfreien Kontext darstellt, langfristig nicht für belastbar.« Dafür seien die Antworten und die Selbstdarstellung von ChatGPT zu überzeugend und würden täglich besser.