BMG sieht KI-Entwickler in der Pflicht |
Cornelia Dölger |
03.04.2023 18:00 Uhr |
ChatGPT gibt Antworten auf alle möglichen Fragen, auch medizinische. Die vermeintliche Allwissenheit der KI sowie das Tempo, mit dem immer neuer Versionen entwickelt werden, sehen immer mehr Menschen kritisch. / Foto: IMAGO/Pacific Press Agency
Ob Künstliche Intelligenz mehr Chancen oder mehr Risiken für die Menschheit bereithält, ist vorerst noch unklar. Klar ist, dass Textroboter wie ChatGPT längst in etlichen Arbeitsbereichen eingesetzt werden. Einen regelrechten Hype löste ChatGPT seit seiner Veröffentlichung Ende vergangenen Jahres aus, weil der Chatbot in Sekundenschnelle Antworten auf alle erdenkliche Fragen liefern kann und dabei nahezu menschliches Kommunikationsverhalten an den Tag legt.
Viele nutzen ihn auch für Gesundheitsfragen – ein Aspekt, der vor Kurzem einen Hamburger Medizinrechtler auf den Plan rief. Er forderte in einem Offenen Brief an das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM), ChatGPT als Medizinprodukt einstufen und entsprechend kontrollieren zu lassen. Das BfArM betonte, dass es nicht zuständig sei, und verwies an die Länderbehörden. Deren Koordinierungsstelle aber, die Zentralstelle der Länder für Gesundheitsschutz bei Arzneimitteln und Medizinprodukten (ZLG), wies ihre Zuständigkeit auf PZ-Anfrage ebenfalls zurück. Wer kontrolliert also nun ChatGPT?
Weil die PZ wissen wollte, ob sich das Bundesgesundheitsministerium (BMG) schon zu einer Position in der Sache durchgerungen hat, stellte sie dort eine Anfrage. Immerhin werden die warnenden Stimmen zur unkontrolliert eingesetzten KI und zum technischen Wettlauf um immer leistungsstärkere Versionen lauter. Erst vergangene Woche äußerten sich eine Reihe bekannter Manager und namhafter Expertinnen und Experten kritisch zum Tempo, das Tech-Giganten beim Training immer neuer Versionen vorlegen. In einem vielzitierten Offenen Brief forderten etwa Tesla-Chef Elon Musk, Apple-Mitgründer Steve Wozniak oder der bekannte Historiker Yuval Noah Harari sowie Hunderte weitere Wissenschaftlerinnen und Experten einen sechs Monate langen Stopp der Entwicklung von künstlicher Intelligenz.
KI berge »tiefgreifende Risiken für die Gesellschaft und die Menschheit«, zitierte etwa das Nachrichtenportal Zeit Online die Unterzeichner. Die Forderung gelte für alle Systeme, die leistungsfähiger als GPT-4 sind – also auch GPT-5, das derzeit vom US-Unternehmen OpenAI trainiert werde. Sollten Hersteller und Forschungseinrichtungen darauf nicht reagieren, sollten Regierungen ein Moratorium beschließen, forderte die Gruppe. Ziel sei es sicherzustellen, dass die Technik den Menschen diene; dies dürfe nicht allein den Tech-Unternehmen überlassen werden.
Auf Letzteres geht auch das BMG in seiner Antwort auf die PZ-Anfrage am Rande ein, weicht konkreten Fragen nach Kontrollmöglichkeiten aber aus. Man sehe im BMG sieht grundsätzlich großes Potential bei KI-Anwendungen, heißt es – auch als Medizinprodukte. Diese könnten dazu beitragen, die Diagnose und Behandlung von Erkrankungen zu verbessern, etwa durch eine verbesserte Verarbeitung großer Mengen von Gesundheitsdaten. Auf dieser Grundlage wiederum könnten Krankheiten frühzeitig erkannt, schnell und effektiv behandelt und eine qualitativ hochwertige Versorgung sichergestellt werden, zeigt sich das BMG überzeugt.
Die Anwendungen müssten »ethisch und gerecht entwickelt und eingesetzt werden«, auch weniger digitalaffine Menschen müssten davon profitieren können. Deshalb müsse die Digitalisierung im Gesundheitswesen »so inklusiv wie möglich« sein und gegebenenfalls auch Hilfsangebote machen. Wer solche Angebote machen soll, wie und in welchen Fällen, sagte das BMG nicht. Neben der Eigenverantwortlichkeit der Menschen sollten auch die Entwickler der Anwendungen in die Pflicht genommen werden, »diese mit der größtmöglichen Transparenz und Verständlichkeit auf den Markt zu bringen«, so das BMG weiter. Woran sich ein solcher Anspruch festmachen lassen könnte, erklärte das Ministerium nicht.
Wichtig sei jedenfalls, dass sich die Menschen gerade bei Gesundheitsfragen nicht allein auf die KI verließen. Die Systeme dienten »nicht als Ersatz für eine medizinische Beratung oder Diagnose durch eine qualifizierte medizinische Fachkraft«. Doch eben dafür werden sie nunmal auch genutzt – Menschen fragen den Chatbot zum Beispiel nach Wechselwirkungen von Arzneimitteln oder was sie bei Fieber tun sollen. Die KI liefert ihnen überzeugend klingende Antworten, die aber keinesfalls in jedem Fall korrekt sind, wie bereits anhand etlicher Versuche zutage trat.
Hinzu kommt, dass anders als etwa bei Google-Suchen, bei denen Websites ausgespuckt werden, bei ChatGPT völlig unklar ist, woher das System seine Informationen hat. Es ist mit unvorstellbaren Datenmengen aus dem World Wide Web gespeist, also mit Onlinelexika genauso wie mit Chats und Foren. Trotz dieses nebulösen Hintergrunds sollten sich Nutzerinnen und Nutzer dennoch bewusst machen, welche Chancen und Risiken mit der Nutzung zusammenhängen und welche Zweckbestimmung die Produkte haben, fordert das BMG gegenüber der PZ. Womit die Geschichte wieder an ihrem Anfang angekommen ist, denn bereits der Hamburger Medizinrechtler hatte die Zweckbestimmung von ChatGPT thematisiert. Diese liegt laut Medizinprodukteverordnung ((EU) 2017/745 Artikel 2) beim Hersteller. Weil ChatGPT aber nicht eigens für medizinische Zwecke oder zur Beantwortung von Gesundheitsfragen konzipiert ist, ist es eben nicht als Medizinprodukt zugelassen – obwohl es doch eindeutig Merkmale eines solchen aufweise, so Rechtsanwalt Sebastian Vorberg.
Immerhin, auf EU-Ebene sind laut BMG gesetzliche Regelungen zum Umgang mit KI-Anwendungen geplant. In der Pipeline sei ein Gesetzesvorschlag für KI-Systeme (KI Verordnung), erklärte das BMG. »Übergeordnetes Ziel ist ein einheitlicher Rechtsrahmen insbesondere für die Entwicklung, Vermarktung und Verwendung von KI-Systemen, einschließlich Transparenzanforderungen.«