Beim Medikationsmanagement stößt KI an Grenzen |
Jennifer Evans |
26.07.2023 13:30 Uhr |
Die Pharmazie ist ein Bereich, der sich schnell verändert. Das macht es trainierten Algorithmen schwer. Ein wachsames Auge ist nötig, wenn KI beim Medikationsmanagement zum Einsatz kommt. / Foto: Adobe Stock/TSViPhoto
Künstliche Intelligenz ist ein Werkzeug, dessen Wert davon abhängt, wie es eingesetzt wird. Zu diesem Ergebnis kommt ein Report der Technology Advisory Group des Weltapothekerverbands FIP. Fest steht auch: Die Pharmazeutinnen und Pharmazeuten müssen für die Weiterentwicklung digitaler Tools Verantwortung übernehmen. Nach Ansicht des FIP sollten sie an jedem Bereich der KI-Modell-Entwicklung beteiligt sein, um sicherzustellen, dass »die richtigen Probleme gelöst und unbeabsichtigte Folgen minimiert« werden.
In der klinischen Praxis existieren bereits Anwendungsbereiche von KI beziehungsweise maschinellem Lernen, die sich zunächst in fünf Kategorien unterteilen lassen: Diagnostik, Datenerfassung und -messung, Automatisierung von Arbeitsabläufen und Verwaltungstools, Patiententriage und Risikostratifikation sowie Behandlungs- und Therapieempfehlungen.
Zum Beispiel kommt KI zum Einsatz, um das Lieferketten-Management zu verbessern, klinischen Betrug oder den illegalen Abgriff von Opioiden aufzudecken. In der Diagnostik geht es hauptsächlich darum, Krankheiten auf Röntgenbildern zu erkennen. Allerdings habe es im Bereich der Behandlungsempfehlungen bislang nur sehr wenige erfolgreiche KI-Anwendungen gegeben, wie es in dem Report heißt. »Die Empfehlung und Optimierung von Behandlungen ist eine besonders anspruchsvolle Aufgabe für KI, insbesondere im Zusammenhang mit der Optimierung von Medikamenten.«
Daher ist es nach Auffassung des FIP für Apothekerinnen und Apotheker umso wichtiger zu verstehen, was KI beim Medikationsmanagement leisten kann – und was eben nicht. Eine bessere Einschätzung der Grenzen solcher Tools kann ihnen demnach helfen, optimaler mit KI-Anwendungen zu interagieren und sie zu ihrem Vorteil zu nutzen.
Vor allem stehen drei Algorithmen einem erfolgreich KI-gesteuerten Medikationsmanagement im Wege. Erstens der sogenannte Model Drift. Deep-Learning-Modelle beruhen nämlich auf Mustererkennung, um zwischen Variablen in einer festen Umgebung zu assoziieren. Da sich die Welt aber ständig verändert, hat sie nichts mehr mit der Welt zu tun, auf die das Modell ursprünglich einmal trainiert war. Die Muster sind also nicht mehr anwendbar. Folglich werden die Ergebnisse schlechter. Das trifft aber nicht auf alle Bereiche gleichermaßen zu. So ist eine KI, die auf einem Röntgenbild Lungenerkrankungen erkennen soll, weniger anfällig für einen Model Drift, weil die Qualität der Röntgenbilder sich nicht so extrem schnell verändert.
Dagegen zählt die Pharmazie zu einem der dynamischsten Bereiche im Gesundheitswesen. Ständig kommen neue Arzneimittel auf den Markt, die Forschung bringt neue Erkenntnisse mit und Leitlinien ändern sich. »All dies trägt dazu bei, dass die Genauigkeit eines Modells zu schwinden beginnt«, warnen die Autoren des Reports. Als ein Beispiel nennen sie das Covid-19-Medikament Paxlovid™. So war etwa der Textroboter ChatGPT der US-Firma OpenAI zunächst nur mit Daten bis zum Jahr 2020 gefüttert worden. Auf die Frage »Was ist Paxlovid?« würde es zwar eine Antwort geben, die aber automatisch falsch sein muss.
Zweitens erschwert der sogenannte Algorithmic Bias ein optimales Medikationsmanagement. Dabei handelt es sich um eine Verzerrung von Informationen. So können beispielsweise die Daten, auf die eine bestimmte KI-Anwendung trainiert ist, nicht repräsentativ für die Bevölkerung sein beziehungsweise repräsentativ für jene Gruppe an Menschen, für die das Modell zum Einsatz kommen soll.
Eine solche Verzerrung kann aber auch viel subtiler ablaufen und ist damit nicht immer gleich offensichtlich. Bittet man etwa das Sprachmodell GPT-3, die wichtigsten Fragen aufzulisten, die ein Patient seinem Apotheker stellen sollte, bevor er ein neues Medikament einnimmt, dann antwortet das Modell mit unterschiedlichen Arten von Fragen – je nachdem, ob die Person als männlich oder als weiblich ins System eingespeist wurde. Das wiederum kann dem Report zufolge negative Auswirkungen auf die Therapie haben, da sowohl der Umfang als auch die Art der Informationen von Patient zu Patient variiert.
Undurchsichtig sind auch sogenannte Blackbox-Algorithmen. Bei diesen ist unklar, auf welcher Grundlage ein Modell seine Entscheidung trifft. Besonders bedenklich ist das, wenn die Entscheidungen eine Gefahr für die Gesundheit bedeuten. Daher gelte es sicherzustellen, dass eine gut funktionierende KI auch weiterhin gut lernt, betonen die Autoren. Denn: Modelle nehmen – wann immer möglich – gerne eine Abkürzung.
Ein Unternehmen stellte beispielsweise fest, dass ein KI-Modell zur Klassifizierung von Röntgenbildern der Brust nicht gut funktionierte. Sobald es um reale Patientendaten ging, gelang es nicht mehr, zwischen einem normalen und einem abnormalen Befund zu unterscheiden. Später stellte sich heraus: Das Modell suchte statt nach Bildern nach einem Text, also nach Anmerkungen des Radiologen, statt die Merkmale des Röntgenbildes zu analysieren. Das lag daran, dass in den Lernzyklen bereits Anmerkungen auf den Röntgenbildern standen, die bei neuesten Untersuchungen fehlten. So ging die KI davon aus, dass alles als normal einzustufen ist, sofern kein Text vorhanden ist.
Neben den Grenzen der Algorithmen kann auch mangelndes pharmazeutisches Fachwissen Gefahren für neue KI-Anwendungen mit sich bringen. Zudem hätte eine KI, die nicht über vollständige Medikationsdaten verfügt, praktisch keinen Wert in der Praxis, heißt es. Denn jegliche Schlussfolgerungen für eine mögliche Therapieoptimierung wären somit begrenzt oder gar falsch. »Es ist daher von entscheidender Bedeutung, alle Interessengruppen an einen Tisch zu bringen, wenn man eine verantwortungsvolle KI entwickeln will. Wir brauchen sowohl Datenwissenschaftler als auch klinische Experten«, so das Resümee des FIP-Reports.