| Jennifer Evans |
| 10.02.2026 16:20 Uhr |
Die Kommunikation zwischen Sprachmodellen und Nutzenden ist bei medizinischen Fragen störanfällig. Woran liegt es? / © Adobe Stock/Prostock-studio
Obwohl viele Menschen Chatbots als niedrigschwellige Anlaufstelle für Gesundheitsfragen nutzen, lassen sie in ihren Anfragen häufig entscheidende Informationen weg. Die Antworten der Modelle bleiben oft unvollständig oder sorgen für Missverständnisse. Dabei spielt auch das Nutzerverhalten eine Rolle, wie eine Studie im Fachjournal »Nature Medicine« zeigt.
Das Forschungsteam ließ rund 1000 britische Freiwillige mit drei gängigen Modellen – GPT-4o von OpenAI, Llama 3 von Meta und Command R+ von Cohere – oder per herkömmlicher Internetsuche medizinische Verdachtsdiagnosen und Handlungsschritte zu fiktiven Fallbeispielen erarbeiten. Am Ende fand die Kontrollgruppe ohne KI-Unterstützung mit eineinhalbmal höherer Wahrscheinlichkeit eine passende Verdachtsdiagnose. Die Dringlichkeit der Situationen unterschätzten Teilnehmende aller Gruppen.
Darüber hinaus ergab die Analyse der Chatverläufe, dass die Sprachmodelle durchaus korrekte Verdachtsdiagnosen lieferten – die Teilnehmenden diese aber nicht als Entscheidungsgrundlage aufgriffen. Als die Forschenden der KI aber die vollständigen Fallbeschreibungen zur Verfügung stellten, stieg sowohl die diagnostische Treffsicherheit als auch die Qualität der Empfehlungen. Simulierten die Modelle selbst einen Nutzenden, erzielten sie im Schnitt bessere Ergebnisse als mit realen Personen.
Die Hauptursachen fehlerhafter Kommunikation sieht Professor Dr. Iryna Gurevych vom Fachbereich Informatik der Technischen Universität Darmstadt in Interaktionsproblemen. Das betont sie in ihrer Einschätzung zur Studie gegenüber dem »Science Media Center« (SMC). Nutzende wüssten oft nicht, welche Informationen sie angeben müssten oder wie sie KI-Antworten einordnen sollten. Ein medizinischer Chatbot sollte ihrer Auffassung nach mehr als nur Fragen beantworten können. Zum Beispiel aktiv fehlende Angaben erfragen, Unsicherheiten klar markieren und nur in einem eng definierten, risikoarmen Bereich zum Einsatz kommen.
Dr. Anne Reinhardt, Wissenschaftliche Mitarbeiterin am Lehrstuhl für Gesundheitskommunikation der Ludwig-Maximilians-Universität München, gibt laut SMC zu bedenken, dass das Vertrauen in die KI oft stärker vom erhofften Nutzen getrieben wird als von der tatsächlichen KI- oder Gesundheitskompetenz. Daher fordert sie, die Gesundheitskompetenz der Menschen zu stärken.
Auch in den Augen von Professor Dr. Ute Schmid, Inhaberin des Lehrstuhls für Kognitive Systeme an der Otto-Friedrich-Universität Bamberg, entstehen Fehlsteuerungen und Missverständnisse im Austausch mit der KI, weil einigen Menschen die Erfahrung im Formulieren präziser Anfragen oder das medizinische Grundwissen fehlt. Grundsätzlich hält sie aber den Chatbot-Einsatz für sinnvoll, wie sie gegenüber dem SMC hervorhebt. Perspektivisch könnten Hausarztpraxen und Kassen qualitätsgeprüfte Systeme empfehlen.
Die Prompt-Kompetenz, also das Erteilen von Befehlen an die KI, sieht auch Professor Dr. Kerstin Denecke, Co-Leiterin des Instituts für Patient-centered Digital Health der Berner Fachhochschule, als eine der größten Hürden. Außerdem müsste ein medizinisch spezialisierter Chatbot evidenzbasierte Inhalte liefern, strukturierte Anamnesen durchführen, Notfälle zuverlässig erkennen und klar seine Grenzen kommunizieren können, zählt sie auf. Deutlich unterstreicht sie auch die hohen regulatorischen und technischen Anforderungen, die damit einhergehen.