Pharmazeutische Zeitung online
Künstliche Intelligenz

Beim Medikationsmanagement stößt KI an Grenzen

Für Künstliche Intelligenz (KI) stellt das Optimieren einer Arzneimitteltherapie eine anspruchsvolle Aufgabe dar. Woran liegt das? Und was müssen Apotheker über die Grenzen solcher KI-Tools wissen?
Jennifer Evans
26.07.2023  13:30 Uhr

Künstliche Intelligenz ist ein Werkzeug, dessen Wert davon abhängt, wie es eingesetzt wird. Zu diesem Ergebnis kommt ein Report der Technology Advisory Group des Weltapothekerverbands FIP. Fest steht auch: Die Pharmazeutinnen und Pharmazeuten müssen für die Weiterentwicklung digitaler Tools Verantwortung übernehmen. Nach Ansicht des FIP sollten sie an jedem Bereich der KI-Modell-Entwicklung beteiligt sein, um sicherzustellen, dass »die richtigen Probleme gelöst und unbeabsichtigte Folgen minimiert« werden.

In der klinischen Praxis existieren bereits Anwendungsbereiche von KI beziehungsweise maschinellem Lernen, die sich zunächst in fünf Kategorien unterteilen lassen: Diagnostik, Datenerfassung und -messung, Automatisierung von Arbeitsabläufen und Verwaltungstools, Patiententriage und Risikostratifikation sowie Behandlungs- und Therapieempfehlungen.

Zum Beispiel kommt KI zum Einsatz, um das Lieferketten-Management zu verbessern, klinischen Betrug oder den illegalen Abgriff von Opioiden aufzudecken. In der Diagnostik geht es hauptsächlich darum, Krankheiten auf Röntgenbildern zu erkennen. Allerdings habe es im Bereich der Behandlungsempfehlungen bislang nur sehr wenige erfolgreiche KI-Anwendungen gegeben, wie es in dem Report heißt. »Die Empfehlung und Optimierung von Behandlungen ist eine besonders anspruchsvolle Aufgabe für KI, insbesondere im Zusammenhang mit der Optimierung von Medikamenten.«

Das ist bei Algorithmen zu beachten

Daher ist es nach Auffassung des FIP für Apothekerinnen und Apotheker umso wichtiger zu verstehen, was KI beim Medikationsmanagement leisten kann – und was eben nicht. Eine bessere Einschätzung der Grenzen solcher Tools kann ihnen demnach helfen, optimaler mit KI-Anwendungen zu interagieren und sie zu ihrem Vorteil zu nutzen.

Vor allem stehen drei Algorithmen einem erfolgreich KI-gesteuerten Medikationsmanagement im Wege. Erstens der sogenannte Model Drift. Deep-Learning-Modelle beruhen nämlich auf Mustererkennung, um zwischen Variablen in einer festen Umgebung zu assoziieren. Da sich die Welt aber ständig verändert, hat sie nichts mehr mit der Welt zu tun, auf die das Modell ursprünglich einmal trainiert war. Die Muster sind also nicht mehr anwendbar. Folglich werden die Ergebnisse schlechter. Das trifft aber nicht auf alle Bereiche gleichermaßen zu. So ist eine KI, die auf einem Röntgenbild Lungenerkrankungen erkennen soll, weniger anfällig für einen Model Drift, weil die Qualität der Röntgenbilder sich nicht so extrem schnell verändert.

Dagegen zählt die Pharmazie zu einem der dynamischsten Bereiche im Gesundheitswesen. Ständig kommen neue Arzneimittel auf den Markt, die Forschung bringt neue Erkenntnisse mit und Leitlinien ändern sich. »All dies trägt dazu bei, dass die Genauigkeit eines Modells zu schwinden beginnt«, warnen die Autoren des Reports. Als ein Beispiel nennen sie das Covid-19-Medikament Paxlovid™. So war etwa der Textroboter ChatGPT der US-Firma OpenAI zunächst nur mit Daten bis zum Jahr 2020 gefüttert worden. Auf die Frage »Was ist Paxlovid?« würde es zwar eine Antwort geben, die aber automatisch falsch sein muss.

Verzerrung der Daten

Zweitens erschwert der sogenannte Algorithmic Bias ein optimales Medikationsmanagement. Dabei handelt es sich um eine Verzerrung von Informationen. So können beispielsweise die Daten, auf die eine bestimmte KI-Anwendung trainiert ist, nicht repräsentativ für die Bevölkerung sein beziehungsweise repräsentativ für jene Gruppe an Menschen, für die das Modell zum Einsatz kommen soll.

Eine solche Verzerrung kann aber auch viel subtiler ablaufen und ist damit nicht immer gleich offensichtlich. Bittet man etwa das Sprachmodell GPT-3, die wichtigsten Fragen aufzulisten, die ein Patient seinem Apotheker stellen sollte, bevor er ein neues Medikament einnimmt, dann antwortet das Modell mit unterschiedlichen Arten von Fragen – je nachdem, ob die Person als männlich oder als weiblich ins System eingespeist wurde. Das wiederum kann dem Report zufolge negative Auswirkungen auf die Therapie haben, da sowohl der Umfang als auch die Art der Informationen von Patient zu Patient variiert.

Alle Akteure an einen Tisch bringen

Undurchsichtig sind auch sogenannte Blackbox-Algorithmen. Bei diesen ist unklar, auf welcher Grundlage ein Modell seine Entscheidung trifft. Besonders bedenklich ist das, wenn die Entscheidungen eine Gefahr für die Gesundheit bedeuten. Daher gelte es sicherzustellen, dass eine gut funktionierende KI auch weiterhin gut lernt, betonen die Autoren. Denn: Modelle nehmen – wann immer möglich – gerne eine Abkürzung.

Ein Unternehmen stellte beispielsweise fest, dass ein KI-Modell zur Klassifizierung von Röntgenbildern der Brust nicht gut funktionierte. Sobald es um reale Patientendaten ging, gelang es nicht mehr, zwischen einem normalen und einem abnormalen Befund zu unterscheiden. Später stellte sich heraus: Das Modell suchte statt nach Bildern nach einem Text, also nach Anmerkungen des Radiologen, statt die Merkmale des Röntgenbildes zu analysieren. Das lag daran, dass in den Lernzyklen bereits Anmerkungen auf den Röntgenbildern standen, die bei neuesten Untersuchungen fehlten. So ging die KI davon aus, dass alles als normal einzustufen ist, sofern kein Text vorhanden ist.

Neben den Grenzen der Algorithmen kann auch mangelndes pharmazeutisches Fachwissen Gefahren für neue KI-Anwendungen mit sich bringen. Zudem hätte eine KI, die nicht über vollständige Medikationsdaten verfügt, praktisch keinen Wert in der Praxis, heißt es. Denn jegliche Schlussfolgerungen für eine mögliche Therapieoptimierung wären somit begrenzt oder gar falsch. »Es ist daher von entscheidender Bedeutung, alle Interessengruppen an einen Tisch zu bringen, wenn man eine verantwortungsvolle KI entwickeln will. Wir brauchen sowohl Datenwissenschaftler als auch klinische Experten«, so das Resümee des FIP-Reports.

Die experimentelle KI
von PZ und PTA-Forum
Die experimentelle KI
von PZ und PTA-Forum
Die experimentelle KI
von PZ und PTA-Forum
 
FAQ
SENDEN
Wie kann man die CAR-T-Zelltherapie einfach erklären?
Warum gibt es keinen Impfstoff gegen HIV?
Was hat der BGH im Fall von AvP entschieden?
GESAMTER ZEITRAUM
3 JAHRE
1 JAHR
SENDEN
IHRE FRAGE WIRD BEARBEITET ...
UNSERE ANTWORT
QUELLEN
22.01.2023 – Fehlende Evidenz?
LAV Niedersachsen sieht Verbesserungsbedarf
» ... Frag die KI ist ein experimentelles Angebot der Pharmazeutischen Zeitung. Es nutzt Künstliche Intelligenz, um Fragen zu Themen der Branche zu beantworten. Die Antworten basieren auf dem Artikelarchiv der Pharmazeutischen Zeitung und des PTA-Forums. Die durch die KI generierten Antworten sind mit Links zu den Originalartikeln. ... «
Ihr Feedback
War diese Antwort für Sie hilfreich?
 
 
FEEDBACK SENDEN
FAQ
Was ist »Frag die KI«?
»Frag die KI« ist ein experimentelles Angebot der Pharmazeutischen Zeitung. Es nutzt Künstliche Intelligenz, um Fragen zu Themen der Branche zu beantworten. Die Antworten basieren auf dem Artikelarchiv der Pharmazeutischen Zeitung und des PTA-Forums. Die durch die KI generierten Antworten sind mit Links zu den Originalartikeln der Pharmazeutischen Zeitung und des PTA-Forums versehen, in denen mehr Informationen zu finden sind. Die Redaktion der Pharmazeutischen Zeitung verfolgt in ihren Artikeln das Ziel, kompetent, seriös, umfassend und zeitnah über berufspolitische und gesundheitspolitische Entwicklungen, relevante Entwicklungen in der pharmazeutischen Forschung sowie den aktuellen Stand der pharmazeutischen Praxis zu informieren.
Was sollte ich bei den Fragen beachten?
Damit die KI die besten und hilfreichsten Antworten geben kann, sollten verschiedene Tipps beachtet werden. Die Frage sollte möglichst präzise gestellt werden. Denn je genauer die Frage formuliert ist, desto zielgerichteter kann die KI antworten. Vollständige Sätze erhöhen die Wahrscheinlichkeit einer guten Antwort.
Wie nutze ich den Zeitfilter?
Damit die KI sich bei ihrer Antwort auf aktuelle Beiträge beschränkt, kann die Suche zeitlich eingegrenzt werden. Artikel, die älter als sieben Jahre sind, werden derzeit nicht berücksichtigt.
Sind die Ergebnisse der KI-Fragen durchweg korrekt?
Die KI kann nicht auf jede Frage eine Antwort liefern. Wenn die Frage ein Thema betrifft, zu dem wir keine Artikel veröffentlicht haben, wird die KI dies in ihrer Antwort entsprechend mitteilen. Es besteht zudem eine Wahrscheinlichkeit, dass die Antwort unvollständig, veraltet oder falsch sein kann. Die Redaktion der Pharmazeutischen Zeitung übernimmt keine Verantwortung für die Richtigkeit der KI-Antworten.
Werden meine Daten gespeichert oder verarbeitet?
Wir nutzen gestellte Fragen und Feedback ausschließlich zur Generierung einer Antwort innerhalb unserer Anwendung und zur Verbesserung der Qualität zukünftiger Ergebnisse. Dabei werden keine zusätzlichen personenbezogenen Daten erfasst oder gespeichert.

Mehr von Avoxa