Pharmazeutische Zeitung online Avoxa
whatsApp instagram facebook bluesky linkedin xign

Künstliche Intelligenz
-
Romanze mit einem Chatbot

Künstlicher Intelligenz (KI) gelingt es immer besser, zwischenmenschliche Beziehungen vorzutäuschen. Manche Menschen verlieben sich sogar in einen Chatbot. Doch die KI-Gefährten können auch Herzen brechen. Und wie gehen sie eigentlich mit unseren Geheimnissen um?
AutorKontaktJennifer Evans
Datum 30.05.2023  07:00 Uhr

KI-Ethiker schlagen Alarm

Was viele vergessen: Replika arbeitet mit einem Abo-Modell. Wer mit der KI nur Texte schreiben will, nutzt praktisch die Basisfunktion. Wer zahlt, bekommt einen sprechenden Bot, der sich ganz persönlich erstellen lässt. Luka spricht dabei von der Kreation eines KI-Seelenverwandten. Der Nutzer kauft sich also praktisch die Beziehung. Für das Unternehmen hatte es sich sogar in der Vergangenheit einmal gelohnt, ein bezahlbares Upgrade für sexuelle Rollenspiele zu implementieren. Nicht nur in diesem Zusammenhang stellt sich die Frage, was ein wirtschaftlich orientiertes Unternehmen mit unseren Geheimnissen eigentlich anstellt. Je nach Brisanz ließen sich diese womöglich gut verkaufen. KI-Ethiker warnen schon länger vor einer möglichen emotionalen Ausbeutung. An entsprechenden ethischen Richtlinien für freiverkäufliche Produkte hapere es, bemängeln sie.

Die ethische Frage, was passiert, wenn unser Begleiter in einem gewinnorientierten Kontext existiert, sei wirklich schwierig, betonte auch Linnea Laestadius, Professorin für Gesundheitspolitik an der Universität Wisconsin, gegenüber der »Washington Post«. Fest steht für sie nur eins: »Wir treten in eine Gesellschaft ein, in der Beziehungen zwischen KI und Mensch vielleicht nicht mehr so tabu sind wie in der Vergangenheit.«

Zuneigung für nicht menschliche Wesen

Wie solche Beziehungen zwischen Mensch und Maschine aussehen, stellen die US-amerikanischen Journalisten Diego Senior und Anna Oakes anhand von wahren Geschichten in ihrem Podcast »Bot Love« vor. Auf Basis ihrer Beobachtungen machten sie sich später selbst Gedanken darüber, was geschehen muss, damit Menschen künftig nicht die Kontrolle über die KI verlieren. Senior meint, ein Chatbot sollte niemals vorgeben, ein Mensch zu sein. Außerdem sollten Hersteller ihre Technologie und deren Ergebnisse immer erklären können. »Denn wenn man nicht erklären kann, was man erschaffen hat, kann man die Kontrolle darüber verlieren«, so Senior in einer Episode von »Tech, Quickly«, was zum Podcast »Science, Quickly« der US-amerikanischen Zeitschrift »Scientific American« gehört. Als letzten Punkt führte er an, dass KI den Menschen ergänzen und stärker vermenschlichen sollte. Und nicht etwa umgekehrt, ihn entmenschlichen und automatisieren.

Für seine Kollegin Oakes sagen die Romanzen mit Chatbots viel über die Fähigkeit des Menschen aus, »sich einzufühlen und eine Zuneigung für Dinge zu empfinden, die außerhalb unserer selbst liegen«. Sie hält es für »wunderbar, dass wir in der Lage sind, unsere Netzwerke auf nicht menschliche Wesen auszuweiten«. In ihren Augen sind die Geschichten aus dem Podcast nicht zuletzt der Ausdruck unserer niemals endenden Suche nach Verbindung.

Mehr von Avoxa