ChatGPT – Spielzeug oder Medizinprodukt? |
Cornelia Dölger |
07.02.2023 15:30 Uhr |
Mit der Antwort, die das BfArM ihm darauf gegeben hat, ist der Anwalt nicht zufrieden, wie er der PZ auf Anfrage erklärt. Die Behörde wies ihn seinen Angaben nach darauf hin, dass es nicht Aufgabe des BfArM, sondern Aufgabe des Herstellers sei, darauf zu achten, dass das Produkt MDR-konform sei. Im Übrigen würden die Landesbehörden hierzulande die Einhaltung der MDR überwachen.
Ja, das stimme zwar, so Vorberg. Für bundesweite und klarstellende Entscheidungen, wie sie im Falle des Chatbots nötig seien, habe allerdings das BfArM eine übergeordnete Funktion. Denn: »Wir glauben nicht, dass sich eine der Landesbehörden gerade für ChatGPT verantwortlich fühlt«, betont der Anwalt. Es sei nicht eindeutig, welches der Länder zuständig sei. »Damit sind dann wohl alle Länder zuständig und keiner macht den Anfang.« Hier offenbarten sich neben den inhaltlichen noch zusätzlich die Risiken des föderal aufgestellten Gesundheitssystems, kritisiert Vorberg. »Der globale Einsatz von digitalen Produkten kann mit Achselzucken durchrutschen«, warnt er.
Grundsätzlich seien Entwicklungen wie ChatGPT zwar interessant und wichtig, so Vorberg, der auch Vorstandssprecher des Bundesverbands Internetmedizin ist. Sie könnten helfen, Lücken in der Gesundheitskompetenz der Menschen zu schließen. Hier sei es aber relevant, zwischen »einem Spielzeug und einem Medizinprodukt« zu unterscheiden. Dies leiste die Regulierung durch die MDR. Mit ihr könnten auch digitale Produkte für die Medizin qualifiziert und legitimiert werden, erklärt Vorberg. »Daran müssen sich dann aber auch alle Hersteller halten.« Und: »Diesem vertrauenswürdigen europäischen Standard müssen sich dann aber auch Produkte aus den USA unterwerfen.«
ChatGPT unterwirft sich dem nicht – was nach Vorbergs Ansicht das an sich berechtigte Vertrauen in geprüfte und kontrollierte europäische Medizinprodukte beschädige und zudem Risiken für die Gesundheit berge. Hier sollten die Aufsichtsbehörden so schnell wie möglich aktiv werden. Vorbergs Forderung: »Für medizinische Fragen muss sich ChatGPT einer Qualitäts- und Risikokontrolle unterwerfen und eine klinische Bewertung durchlaufen. Das finde ich zumutbar.«