Was KI-Systeme können |
Christina Hohmann-Jeddi |
07.02.2024 18:00 Uhr |
Ein weiteres Vertrauensproblem: Viele KI-Systeme seien Blackboxes – sie erklärten und begründeten ihre Entscheidungen nicht, heißt es in dem Übersichtsartikel. Ärzte würden die Entscheidungen aber gerne nachvollziehen können. Abhilfe kann hier die sogenannte erklärbare KI (explainable AI, XAI) schaffen, die verständlich macht, wie die Systeme zu ihrer Entscheidung kommen.
Bei einem Besuch am Deutschen Krebsforschungszentrum demonstriert Titus Brinker Gesundheitsminister Professor Karl Lauterbach (SPD) das KI-Dermatoskop. / Foto: DKFZ/Uwe Anspach
Ein entsprechendes KI-basiertes Unterstützungssystem für die Hautkrebsdiagnostik entwickelten Wissenschaftler im Deutschen Krebsforschungszentrum (DKFZ). Die Arbeitsgruppe um Dr. Titus Brinker stellte es vor Kurzem im Fachjournal »Nature« vor (2024, DOI: 10.1038/s41467-023-43095-4). Das System verwendet etablierte Diagnosemerkmale, die sich auf bestimmte Bereiche der verdächtigen Läsionen beziehen. Wie gut es funktioniert und wie sehr die Ärzteschaft ihm vertraut, testete das Team um Tirtha Chanda in einer Studie mit mehr als 100 Dermatologen aus 33 verschiedenen Ländern.
Die Ärzte diagnostizierten eine Reihe von digitalisierten Aufnahmen verschiedener Läsionen dreimal – einmal auf der Basis ihrer Erfahrung, einmal mit Unterstützung eines herkömmlichen KI-Systems und dann mithilfe der XAI. Die diagnostische Genauigkeit bei der Erkennung von Melanomen erhöhte sich durch die Nutzung eines KI-Systems und sie konnte durch den Einsatz der XAI nicht weiter gesteigert werden. Was sich aber veränderte, war das Vertrauen der Dermatologen in die eigene Entscheidung: Dieses verbesserte sich durch das KI-System und dieser Effekt konnte durch das XAI-Systems noch einmal deutlich verstärkt werden. Solche XAI-Systeme könnten in Zukunft die »Zusammenarbeit« von Ärzten und KI verbessern und die Transparenz erhöhen, folgern die Autoren.
Für die Zukunft ist aber nicht nur angedacht, dass die KI-Systeme verständlicher werden, sondern auch umfassender. Die bisher verfügbaren KI-Programme in der Medizin sind auf einzelne begrenzte Interpretations- oder Analyseaufgaben spezialisiert und benötigen hierfür speziell aufbereitete Daten. Die nächste Generation soll dagegen eine Fülle von Daten – Bilder, Laborwerte, Messungen von Wearables wie Smartwatches, Patientenakten und gesprochenes Wort – auswerten können und damit unterschiedliche Aufgaben erfüllen können. So sollen sie nicht nur medizinische Aufnahmen auswerten, sondern auch Diagnosen stellen, Therapien vorschlagen und Berichte schreiben können. Diese Vorstellung einer »generalisierten medizinischen KI« stellten Forschende der Stanford University um Dr. Michael Moor und Rajpurkar 2023 im Fachjournal »Nature« vor (DOI: 10.1038/s41586-023-05881-4).
Hierfür müssten sogenannte Grundmodelle ähnlich wie ChatGPT-3 auf umfangreichen, vielfältigen medizinischen Datensätzen trainiert werden, um zahlreiche Aufgaben bearbeiten und auch neue, ihnen unbekannte Aufgaben lernen zu können. Erste Ansätze hierzu gebe es bereits, heißt es in der Publikation. Schwierigkeiten bestünden dabei aber im Zugang zu den notwendigen großen Datenmengen und den hohen Kosten für das Training. Zudem seien der Datenschutz und die Verlässlichkeit der Systeme problematisch.
Letzteres sei das größte Problem, machen die Autoren um Moor in einer Pressemitteilung der Stanford University deutlich. Woher solle man wissen, dass das Modell richtigliegt und sich nicht etwas ausdenkt, fragen die Autoren und spielen dabei auf ein von Chat-GPT bekanntes Problem mit der Wahrheit an. Diese Vorstellungen von medizinischen Grundmodellen werden also noch eine Weile Zukunftsmusik bleiben.