Pharmazeutische Zeitung online Avoxa
whatsApp instagram facebook bluesky linkedin xign

Avatare
-
Schönheitsfehler sind gewollt

Die Ergebnisse von Computerprogrammen mit künstlicher Intelligenz (KI) können in Videos von Avataren präsentiert werden. Damit man dabei nicht vergisst, dass KI auch Fehler machen kann, sollten diese virtuellen Figuren nicht zu perfekt sein.
AutorKontaktRobert Hübner
AutorKontaktYannick Wilke
AutorKontaktHermann Wätzig
Datum 07.02.2024  10:30 Uhr

Seit der Einführung von ChatGPT 4.0 im vergangenen Jahr haben sich die Eigenschaften von Large Language Models (LLM) nicht grundlegend weiterentwickelt. Die Vielfalt an angebotenen KI-Tools hat aber zugenommen. Außer ChatGPT sind Microsoft Bing, Perplexity.ai, Google Bard, Midjourney, Dall-e und viele andere populär geworden. Nach wie vor geben sie gelegentlich erstaunlich gute Antworten, doch es kommt auch vor, dass sie halluzinieren und Halbwahrheiten wiedergeben oder komplett falsche Aussagen treffen. Vor Fehlern und Halbwahrheiten wird nun regelmäßig gewarnt, sobald Chatbots aktiviert werden.

Werden Inhalte, die von einem LLM generiert wurden, von einem Avatar präsentiert, gerät dies jedoch leicht in Vergessenheit, wenn der Avatar überzeugend wirkt. Avatare können mittlerweile sehr leicht selbst generiert werden. Wir haben dies in einem Selbstversuch getan: Das innerhalb weniger Stunden mittels Creative Reality™ Studio von der Firma D-ID erstellte Avatarbild »Emily« beriet anschließend scheinbar kompetent mit der Text-to-Speech-Stimme »Katja« zum Thema »Behandlung von Reizhusten«.

Optik und Sprache waren dabei nicht perfekt, doch weitaus gravierender waren inhaltliche Versäumnisse, die bei der Beratung gemacht wurden. Für die Erstellung des Inhalts wurde in diesem Fall mit ChatGPT 3.5 ein generelles LLM verwendet. Eine kommerzielle Version kann branchenabhängig trainiert werden und so möglicherweise besser werden. Doch sollte auch dann der präsentierende Avatar nicht zu perfekt sein, damit nicht in Vergessenheit gerät, dass er lediglich das Ergebnis eines Computerprogramms wiedergibt.

Laut Angaben des Herstellers D-ID befinden sich bereits kommerzielle Produkte in der Erprobung, bei denen Avatare Kunden in Echtzeit beraten. In Deutschland ist Beratung zwar pharmazeutischem Personal vorbehalten und das wird noch für viele Jahre so bleiben. Doch könnte KI möglicherweise auch hierzulande  bei der Beratung unterstützen? Und wer haftet im Fall einer Fehlinformation? In der Nutzung von KI stecken Chancen und Risiken; Apotheken sollten sich jetzt damit auseinandersetzen.

Mehr von Avoxa