Pharmazeutische Zeitung online Avoxa
whatsApp instagram facebook bluesky linkedin xign

WHO-Leitlinien
-
Risiken von Generativer KI im Gesundheitswesen

Eine Analyse der Weltgesundheitsorganisation (WHO) gibt zu bedenken, dass die neue Technologie der Generativen Künstlichen Intelligenz (KI) ohne ausreichende Daten falsche und ungenaue Ergebnisse liefern kann, die Menschen schaden könnte.
AutorKontaktMelanie Höhn
Datum 22.01.2024  16:30 Uhr
Risiken von Generativer KI im Gesundheitswesen

Die Weltgesundheitsorganisation (WHO) hat neue Leitlinien zur Ethik und Governance großer multimodaler Modelle (Large Multimodal Models), sogenannter LMMs, veröffentlicht – einer Art schnell wachsende generative (KI)-Technologie mit Anwendungen im gesamten Gesundheitswesen. Der Leitfaden enthält über 40 Empfehlungen zur Berücksichtigung durch Regierungen, Technologieunternehmen und Gesundheitsdienstleister, um den angemessenen Einsatz von LMMs zur Förderung und zum Schutz der Gesundheit der Bevölkerung sicherzustellen.

»Generative KI-Technologien haben das Potenzial, die Gesundheitsversorgung zu verbessern, aber nur, wenn diejenigen, die diese Technologien entwickeln, regulieren und nutzen, die damit verbundenen Risiken erkennen und vollständig berücksichtigen«, sagt Jeremy Farrar, Chefwissenschaftler der WHO. »Wir brauchen transparente Informationen und Richtlinien, um das Design, die Entwicklung und den Einsatz von LMMs zu verwalten, um bessere Gesundheitsergebnisse zu erzielen und anhaltende gesundheitliche Ungleichheiten zu überwinden.« Während LMMs zunehmend für bestimmte gesundheitsbezogene Zwecke eingesetzt würden, bestehe auch die Gefahr, dass diese Technologie falsche, ungenaue, voreingenommene oder unvollständige Aussagen machen könne, die Menschen schaden könnten, warnt die WHO. 

»Risiken erkennen und vollständig berücksichtigen«

LMMs können eine oder mehrere Arten von Dateneingaben akzeptieren, beispielsweise Text, Videos und Bilder sowie verschiedene Ausgaben generieren, die nicht auf die Art der eingegebenen Daten beschränkt sind. LMMs sind laut WHO einzigartig in ihrer Nachahmung der menschlichen Kommunikation und ihrer Fähigkeit, Aufgaben auszuführen, für die sie nicht explizit programmiert wurden. Laut Jeremy Farrar wurden LMMs schneller angenommen als jede andere Verbraucheranwendung in der Geschichte – im Jahr 2023 seien mehrere Plattformen, darunter ChatGPT, Bard und Bert, in das öffentliche Bewusstsein gerückt.

Die neuen WHO-Leitlinien skizzieren fünf umfassende Anwendungen von LMMs für die Gesundheit:

  • Diagnose und klinische Betreuung, z. B. Beantwortung schriftlicher Anfragen von Patienten
  • Patientengesteuerter Einsatz, etwa zur Untersuchung von Symptomen, und Behandlung
  • Büro- und Verwaltungsaufgaben, wie etwa die Dokumentation und Zusammenfassung von Patientenbesuchen in elektronischen Gesundheitsakten
  • Medizinische und pflegerische Ausbildung, einschließlich der Bereitstellung simulierter Patientenbegegnungen für Auszubildende
  • Wissenschaftliche Forschung und Arzneimittelentwicklung, einschließlich der Identifizierung neuer Verbindungen

Der Leitfaden beschreibt auch umfassendere Risiken für Gesundheitssysteme, wie etwa die Zugänglichkeit und Erschwinglichkeit der leistungsstärksten LMMs. Zudem könnten LMMs zu einer »Automatisierungsverzerrung« durch medizinisches Fachpersonal und Patienten führen, wodurch Fehler übersehen würden, die andernfalls erkannt worden wären, oder schwierige Entscheidungen fälschlicherweise an ein LMM delegiert werden. LMMs sind wie andere Formen der KI auch anfällig für Cybersicherheitsrisiken, die Patienteninformationen oder die Vertrauenswürdigkeit dieser Algorithmen und die Gesundheitsversorgung im Allgemeinen gefährden könnten.

Mehr von Avoxa