Beim Medikationsmanagement stößt KI an Grenzen |
Jennifer Evans |
26.07.2023 13:30 Uhr |
Zweitens erschwert der sogenannte Algorithmic Bias ein optimales Medikationsmanagement. Dabei handelt es sich um eine Verzerrung von Informationen. So können beispielsweise die Daten, auf die eine bestimmte KI-Anwendung trainiert ist, nicht repräsentativ für die Bevölkerung sein beziehungsweise repräsentativ für jene Gruppe an Menschen, für die das Modell zum Einsatz kommen soll.
Eine solche Verzerrung kann aber auch viel subtiler ablaufen und ist damit nicht immer gleich offensichtlich. Bittet man etwa das Sprachmodell GPT-3, die wichtigsten Fragen aufzulisten, die ein Patient seinem Apotheker stellen sollte, bevor er ein neues Medikament einnimmt, dann antwortet das Modell mit unterschiedlichen Arten von Fragen – je nachdem, ob die Person als männlich oder als weiblich ins System eingespeist wurde. Das wiederum kann dem Report zufolge negative Auswirkungen auf die Therapie haben, da sowohl der Umfang als auch die Art der Informationen von Patient zu Patient variiert.
Undurchsichtig sind auch sogenannte Blackbox-Algorithmen. Bei diesen ist unklar, auf welcher Grundlage ein Modell seine Entscheidung trifft. Besonders bedenklich ist das, wenn die Entscheidungen eine Gefahr für die Gesundheit bedeuten. Daher gelte es sicherzustellen, dass eine gut funktionierende KI auch weiterhin gut lernt, betonen die Autoren. Denn: Modelle nehmen – wann immer möglich – gerne eine Abkürzung.
Ein Unternehmen stellte beispielsweise fest, dass ein KI-Modell zur Klassifizierung von Röntgenbildern der Brust nicht gut funktionierte. Sobald es um reale Patientendaten ging, gelang es nicht mehr, zwischen einem normalen und einem abnormalen Befund zu unterscheiden. Später stellte sich heraus: Das Modell suchte statt nach Bildern nach einem Text, also nach Anmerkungen des Radiologen, statt die Merkmale des Röntgenbildes zu analysieren. Das lag daran, dass in den Lernzyklen bereits Anmerkungen auf den Röntgenbildern standen, die bei neuesten Untersuchungen fehlten. So ging die KI davon aus, dass alles als normal einzustufen ist, sofern kein Text vorhanden ist.
Neben den Grenzen der Algorithmen kann auch mangelndes pharmazeutisches Fachwissen Gefahren für neue KI-Anwendungen mit sich bringen. Zudem hätte eine KI, die nicht über vollständige Medikationsdaten verfügt, praktisch keinen Wert in der Praxis, heißt es. Denn jegliche Schlussfolgerungen für eine mögliche Therapieoptimierung wären somit begrenzt oder gar falsch. »Es ist daher von entscheidender Bedeutung, alle Interessengruppen an einen Tisch zu bringen, wenn man eine verantwortungsvolle KI entwickeln will. Wir brauchen sowohl Datenwissenschaftler als auch klinische Experten«, so das Resümee des FIP-Reports.