Schönheitsfehler sind gewollt |
Das von den Autoren erstellte Avatarbild »Katja« ist weder in Optik noch Sprache perfekt – ebenso wenig wie seine Beratungsinhalte. / Foto: D-ID.com
Seit der Einführung von ChatGPT 4.0 im vergangenen Jahr haben sich die Eigenschaften von Large Language Models (LLM) nicht grundlegend weiterentwickelt. Die Vielfalt an angebotenen KI-Tools hat aber zugenommen. Außer ChatGPT sind Microsoft Bing, Perplexity.ai, Google Bard, Midjourney, Dall-e und viele andere populär geworden. Nach wie vor geben sie gelegentlich erstaunlich gute Antworten, doch es kommt auch vor, dass sie halluzinieren und Halbwahrheiten wiedergeben oder komplett falsche Aussagen treffen. Vor Fehlern und Halbwahrheiten wird nun regelmäßig gewarnt, sobald Chatbots aktiviert werden.
Werden Inhalte, die von einem LLM generiert wurden, von einem Avatar präsentiert, gerät dies jedoch leicht in Vergessenheit, wenn der Avatar überzeugend wirkt. Avatare können mittlerweile sehr leicht selbst generiert werden. Wir haben dies in einem Selbstversuch getan: Das innerhalb weniger Stunden mittels Creative Reality™ Studio von der Firma D-ID erstellte Avatarbild »Emily« beriet anschließend scheinbar kompetent mit der Text-to-Speech-Stimme »Katja« zum Thema »Behandlung von Reizhusten«.
Optik und Sprache waren dabei nicht perfekt, doch weitaus gravierender waren inhaltliche Versäumnisse, die bei der Beratung gemacht wurden. Für die Erstellung des Inhalts wurde in diesem Fall mit ChatGPT 3.5 ein generelles LLM verwendet. Eine kommerzielle Version kann branchenabhängig trainiert werden und so möglicherweise besser werden. Doch sollte auch dann der präsentierende Avatar nicht zu perfekt sein, damit nicht in Vergessenheit gerät, dass er lediglich das Ergebnis eines Computerprogramms wiedergibt.
Laut Angaben des Herstellers D-ID befinden sich bereits kommerzielle Produkte in der Erprobung, bei denen Avatare Kunden in Echtzeit beraten. In Deutschland ist Beratung zwar pharmazeutischem Personal vorbehalten und das wird noch für viele Jahre so bleiben. Doch könnte KI möglicherweise auch hierzulande bei der Beratung unterstützen? Und wer haftet im Fall einer Fehlinformation? In der Nutzung von KI stecken Chancen und Risiken; Apotheken sollten sich jetzt damit auseinandersetzen.
Literatur bei den Verfassern