Pharmazeutische Zeitung online Avoxa
whatsApp instagram facebook bluesky linkedin xign

Medizinische Fragen
-
Wer ist schuld, wenn der Chatbot falsch liegt?

Immer mehr Menschen sprechen einen Chatbot an, wenn sie Gesundheitsprobleme haben. Doch wer haftet, wenn die KI falsche Ratschläge erteilt? Ein Rechtswissenschaftler erklärt, wie die Lage derzeit aussieht.
AutorKontaktJennifer Evans
Datum 15.04.2026  09:00 Uhr

Grundsätzlich gilt: Ein Chatbot darf medizinisches Allgemeinwissen erläutern, Befunde sprachlich einordnen oder die Fragenstellenden auf Arztgespräche vorbereiten und sie bei dem Termin organisatorisch unterstützen. Das betont der Medizin- und Gesundheitsrechter Professor Dr. Jens Prütting von der Hochschule für Rechtswissenschaft in Hamburg gegenüber dem »Science Media Center« (SMC).

Hochriskant wird es jedoch, wenn der Chatbot den Eindruck vermittelt, selbst Heilkunde auszuüben. »Das Behandlungsvertragsrecht hält ausdrücklich fest, dass Diagnostik, Indikationsstellung, Therapie und die persönliche Aufklärung ärztliche Aufgaben bleiben«, so Prütting. KI dürfe unterstützen, aber nicht die letzte Entscheidung übernehmen.

Wenn durch den Einsatz von KI negative gesundheitliche Folgen entstehen, ist die Haftung rechtlich derzeit nicht fugenlos geregelt. Verantwortlich können dem Rechtswissenschaftler zufolge der Anbieter der Software, der Betreiber des Systems oder auch Ärztinnen, Ärzte oder Einrichtungen sein, wenn sie Chatbots auf ihrer Website nutzen.

Mediziner müssen prüfen

Bei großen generativen Modellen wie ChatGPT ist die Lage unübersichtlich. Für reine Cloud-Software gelte es derzeit, die Ansprüche über Vertragsrecht, Deliktsrecht und Verkehrssicherungspflichten zu prüfen, so Prütting. Als Faustregel nennt er: »Je stärker der Anbieter den Output als eigene medizinische Leistung rahmt – etwa durch Symptom-Triage, Dosierungshinweise oder Therapieanmutung –, desto eher steigen Sorgfalts-, Warn- und Kontrollpflichten.«

Bei symptom- oder diagnosebezogenen Anwendungen wie der Symptom-Checker-App ADA sieht das anders aus, weil ihre Nähe zu einem regulierten Medizinprodukt deutlich größer ist. In diesen Fällen greifen unter anderem die Herstellerpflichten aus der Medical Device Regulation (MDR) und der neuen KI Verordnung. Prütting weist darauf hin, dass für Ärztinnen und Ärzte die Haftung zusätzlich bestehen bleibt. Sie dürften KI-Ergebnisse nicht ungeprüft übernehmen, sondern müssten diese medizinisch bewerten und plausibilisieren.

Mehr von Avoxa