| Jennifer Evans |
| 15.04.2026 09:00 Uhr |
Antworten von Chatbots sind zwar oft gut verständlich, können im schlimmsten Fall aber lebensbedrohlich sein. / © Shutterstock/Nuva Frames
Grundsätzlich gilt: Ein Chatbot darf medizinisches Allgemeinwissen erläutern, Befunde sprachlich einordnen oder die Fragenstellenden auf Arztgespräche vorbereiten und sie bei dem Termin organisatorisch unterstützen. Das betont der Medizin- und Gesundheitsrechter Professor Dr. Jens Prütting von der Hochschule für Rechtswissenschaft in Hamburg gegenüber dem »Science Media Center« (SMC).
Hochriskant wird es jedoch, wenn der Chatbot den Eindruck vermittelt, selbst Heilkunde auszuüben. »Das Behandlungsvertragsrecht hält ausdrücklich fest, dass Diagnostik, Indikationsstellung, Therapie und die persönliche Aufklärung ärztliche Aufgaben bleiben«, so Prütting. KI dürfe unterstützen, aber nicht die letzte Entscheidung übernehmen.
Wenn durch den Einsatz von KI negative gesundheitliche Folgen entstehen, ist die Haftung rechtlich derzeit nicht fugenlos geregelt. Verantwortlich können dem Rechtswissenschaftler zufolge der Anbieter der Software, der Betreiber des Systems oder auch Ärztinnen, Ärzte oder Einrichtungen sein, wenn sie Chatbots auf ihrer Website nutzen.
Bei großen generativen Modellen wie ChatGPT ist die Lage unübersichtlich. Für reine Cloud-Software gelte es derzeit, die Ansprüche über Vertragsrecht, Deliktsrecht und Verkehrssicherungspflichten zu prüfen, so Prütting. Als Faustregel nennt er: »Je stärker der Anbieter den Output als eigene medizinische Leistung rahmt – etwa durch Symptom-Triage, Dosierungshinweise oder Therapieanmutung –, desto eher steigen Sorgfalts-, Warn- und Kontrollpflichten.«
Bei symptom- oder diagnosebezogenen Anwendungen wie der Symptom-Checker-App ADA sieht das anders aus, weil ihre Nähe zu einem regulierten Medizinprodukt deutlich größer ist. In diesen Fällen greifen unter anderem die Herstellerpflichten aus der Medical Device Regulation (MDR) und der neuen KI Verordnung. Prütting weist darauf hin, dass für Ärztinnen und Ärzte die Haftung zusätzlich bestehen bleibt. Sie dürften KI-Ergebnisse nicht ungeprüft übernehmen, sondern müssten diese medizinisch bewerten und plausibilisieren.