BMG sieht KI-Entwickler in der Pflicht |
Cornelia Dölger |
03.04.2023 18:00 Uhr |
ChatGPT gibt Antworten auf alle möglichen Fragen, auch medizinische. Die vermeintliche Allwissenheit der KI sowie das Tempo, mit dem immer neuer Versionen entwickelt werden, sehen immer mehr Menschen kritisch. / Foto: IMAGO/Pacific Press Agency
Ob Künstliche Intelligenz mehr Chancen oder mehr Risiken für die Menschheit bereithält, ist vorerst noch unklar. Klar ist, dass Textroboter wie ChatGPT längst in etlichen Arbeitsbereichen eingesetzt werden. Einen regelrechten Hype löste ChatGPT seit seiner Veröffentlichung Ende vergangenen Jahres aus, weil der Chatbot in Sekundenschnelle Antworten auf alle erdenkliche Fragen liefern kann und dabei nahezu menschliches Kommunikationsverhalten an den Tag legt.
Viele nutzen ihn auch für Gesundheitsfragen – ein Aspekt, der vor Kurzem einen Hamburger Medizinrechtler auf den Plan rief. Er forderte in einem Offenen Brief an das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM), ChatGPT als Medizinprodukt einstufen und entsprechend kontrollieren zu lassen. Das BfArM betonte, dass es nicht zuständig sei, und verwies an die Länderbehörden. Deren Koordinierungsstelle aber, die Zentralstelle der Länder für Gesundheitsschutz bei Arzneimitteln und Medizinprodukten (ZLG), wies ihre Zuständigkeit auf PZ-Anfrage ebenfalls zurück. Wer kontrolliert also nun ChatGPT?
Weil die PZ wissen wollte, ob sich das Bundesgesundheitsministerium (BMG) schon zu einer Position in der Sache durchgerungen hat, stellte sie dort eine Anfrage. Immerhin werden die warnenden Stimmen zur unkontrolliert eingesetzten KI und zum technischen Wettlauf um immer leistungsstärkere Versionen lauter. Erst vergangene Woche äußerten sich eine Reihe bekannter Manager und namhafter Expertinnen und Experten kritisch zum Tempo, das Tech-Giganten beim Training immer neuer Versionen vorlegen. In einem vielzitierten Offenen Brief forderten etwa Tesla-Chef Elon Musk, Apple-Mitgründer Steve Wozniak oder der bekannte Historiker Yuval Noah Harari sowie Hunderte weitere Wissenschaftlerinnen und Experten einen sechs Monate langen Stopp der Entwicklung von künstlicher Intelligenz.
KI berge »tiefgreifende Risiken für die Gesellschaft und die Menschheit«, zitierte etwa das Nachrichtenportal Zeit Online die Unterzeichner. Die Forderung gelte für alle Systeme, die leistungsfähiger als GPT-4 sind – also auch GPT-5, das derzeit vom US-Unternehmen OpenAI trainiert werde. Sollten Hersteller und Forschungseinrichtungen darauf nicht reagieren, sollten Regierungen ein Moratorium beschließen, forderte die Gruppe. Ziel sei es sicherzustellen, dass die Technik den Menschen diene; dies dürfe nicht allein den Tech-Unternehmen überlassen werden.
Auf Letzteres geht auch das BMG in seiner Antwort auf die PZ-Anfrage am Rande ein, weicht konkreten Fragen nach Kontrollmöglichkeiten aber aus. Man sehe im BMG sieht grundsätzlich großes Potential bei KI-Anwendungen, heißt es – auch als Medizinprodukte. Diese könnten dazu beitragen, die Diagnose und Behandlung von Erkrankungen zu verbessern, etwa durch eine verbesserte Verarbeitung großer Mengen von Gesundheitsdaten. Auf dieser Grundlage wiederum könnten Krankheiten frühzeitig erkannt, schnell und effektiv behandelt und eine qualitativ hochwertige Versorgung sichergestellt werden, zeigt sich das BMG überzeugt.