Pharmazeutische Zeitung online Avoxa
whatsApp instagram facebook bluesky linkedin xign

Arzneimitteltherapie
-
Ärzte sollten besser nicht ChatGPT fragen

Mittlerweile wird künstliche Intelligenz schon in der Radiologie und Dermatologie eingesetzt. In der Pharmakologie haben Ärzte jedoch bei anspruchsvollen Fällen die Nase vorn, zeigt eine Studie der Medizinischen Hochschule Hannover. Die Autoren raten stark davon ab, ChatGPT zur Arzneimitteltherapie zu befragen.
AutorKontaktDaniela Hüttemann
Datum 05.11.2025  15:00 Uhr

Können Large Language Models wie ChatGPT Medizinern dabei helfen, informierte, rationale und schnelle pharmakotherapeutische Entscheidungen zu treffen? Derzeit wohl eher nicht, zeigt eine aktuelle Studie der Medizinischen Hochschule Hannover (MHH), zumindest was die frei verfügbare Version 3.5 von ChatGPT angeht. Die Ergebnisse wurden jetzt im »British Journal of Clinical Pharmacology« veröffentlicht.

Bewertet wurden Antworten auf 70 echte pharmakotherapeutische Fragestellungen meist zu konkreten Patientenfällen, die dem Arzneimittelinformationszentrum der MHH gestellt wurden. Dieses wird von Medizinern geführt. Die Fragen kamen vor allem aus dem Krankenhaus und wurden am häufigsten von Chirurgen, Internisten und Psychiatern gestellt. Sie betrafen am häufigsten Interaktionen, Indikationen/Kontraindikationen, Nebenwirkungen und Dosisanpassungen. Die Fragen wurden von einem Team aus Ärzten und Apothekern bearbeitet, wobei jede skizzierte Antwort von einem Seniorarzt (Spezialist in Pharmakologie oder Innerer Medizin) autorisiert wurde, was dem regulären Prozedere der Informationsstelle entspricht.

Das Studienteam um den Lehrbeauftragten und Hausarzt Dr. Benjamin Krichevsky fütterte nun ChatGPT 3.5 mit denselben Fragen und ließ sowohl die KI-Antworten als auch die des Arzneimittelinformationszentrums verblindet von drei Evaluatoren unabhängig bewerten. Version 3.5 war im Gegensatz zu Version 4.0 zum Zeitpunkt der Studiendurchführung ohne Subskription verwendbar.

In den ChatGPT-Antworten fanden alle drei Bewerter mehr sachliche Fehler als in den menschlichen Antworten, die zudem schwerwiegender waren. Insgesamt war die Qualität der Informationen in den von Ärzten generierten Antworten höher, so das Fazit. »Unsere Studie legt nahe, dass bislang dringend von der Verwendung von ChatGPT in der pharmakotherapeutischen Beratung abgeraten werden muss.«

Fehler von ChatGPT waren unter anderem, dass der Agent das Antibiotikum Tazobactam für ein Sedativum hielt und eine Wechselwirkung mit Hydromorphon annahm, die Beschreibung des Insulin-Analogons Actrapid als Analgetikum und die Empfehlung der Überwachung des INR-Werts unter Therapie mit direkten oralen Antikoagulanzien. Hätten die Ärzte diese Empfehlungen umgesetzt, hätten die Patienten ernsthaft zu Schaden kommen können.

Frag die KI
Die experimentelle KI
von PZ und PTA-Forum
Die experimentelle KI
von PZ und PTA-Forum
Die experimentelle KI
von PZ und PTA-Forum
 
FAQ
BETA
Menü
Zeit
SENDEN
Wie kann man die CAR-T-Zelltherapie einfach erklären?
Warum gibt es keinen Impfstoff gegen HIV?
Was hat der BGH im Fall von AvP entschieden?
Zeit
GESAMTER ZEITRAUM
3 JAHRE
1 JAHR
Senden
SENDEN
KI
IHRE FRAGE WIRD BEARBEITET ...
KI
KI
UNSERE ANTWORT
QUELLEN
22.01.2023 – Fehlende Evidenz?
LAV Niedersachsen sieht Verbesserungsbedarf
» ... Frag die KI ist ein experimentelles Angebot der Pharmazeutischen Zeitung. Es nutzt Künstliche Intelligenz, um Fragen zu Themen der Branche zu beantworten. Die Antworten basieren auf dem Artikelarchiv der Pharmazeutischen Zeitung und des PTA-Forums. Die durch die KI generierten Antworten sind mit Links zu den Originalartikeln. ... «
Ihr Feedback
War diese Antwort für Sie hilfreich?
 
 
FEEDBACK SENDEN
FAQ
Was ist »Frag die KI«?
»Frag die KI« ist ein experimentelles Angebot der Pharmazeutischen Zeitung. Es nutzt Künstliche Intelligenz, um Fragen zu Themen der Branche zu beantworten. Die Antworten basieren auf dem Artikelarchiv der Pharmazeutischen Zeitung und des PTA-Forums. Die durch die KI generierten Antworten sind mit Links zu den Originalartikeln der Pharmazeutischen Zeitung und des PTA-Forums versehen, in denen mehr Informationen zu finden sind. Die Redaktion der Pharmazeutischen Zeitung verfolgt in ihren Artikeln das Ziel, kompetent, seriös, umfassend und zeitnah über berufspolitische und gesundheitspolitische Entwicklungen, relevante Entwicklungen in der pharmazeutischen Forschung sowie den aktuellen Stand der pharmazeutischen Praxis zu informieren.
Was sollte ich bei den Fragen beachten?
Damit die KI die besten und hilfreichsten Antworten geben kann, sollten verschiedene Tipps beachtet werden. Die Frage sollte möglichst präzise gestellt werden. Denn je genauer die Frage formuliert ist, desto zielgerichteter kann die KI antworten. Vollständige Sätze erhöhen die Wahrscheinlichkeit einer guten Antwort.
Wie nutze ich den Zeitfilter?
Damit die KI sich bei ihrer Antwort auf aktuelle Beiträge beschränkt, kann die Suche zeitlich eingegrenzt werden. Artikel, die älter als sieben Jahre sind, werden derzeit nicht berücksichtigt.
Sind die Ergebnisse der KI-Fragen durchweg korrekt?
Die KI kann nicht auf jede Frage eine Antwort liefern. Wenn die Frage ein Thema betrifft, zu dem wir keine Artikel veröffentlicht haben, wird die KI dies in ihrer Antwort entsprechend mitteilen. Es besteht zudem eine Wahrscheinlichkeit, dass die Antwort unvollständig, veraltet oder falsch sein kann. Die Redaktion der Pharmazeutischen Zeitung übernimmt keine Verantwortung für die Richtigkeit der KI-Antworten.
Werden meine Daten gespeichert oder verarbeitet?
Wir nutzen gestellte Fragen und Feedback ausschließlich zur Generierung einer Antwort innerhalb unserer Anwendung und zur Verbesserung der Qualität zukünftiger Ergebnisse. Dabei werden keine zusätzlichen personenbezogenen Daten erfasst oder gespeichert.

Mehr von Avoxa