| Jennifer Evans |
| 30.05.2023 07:00 Uhr |
KI-Seelenverwandte: Nicht immer muss es gleich Liebe sein, aber eine Beziehung zu Tech-Produkten zu entwickeln, ist in unserer Gesellschaft nicht mehr ungewöhnlich. / Foto: Adobe Stock/chiradech
Inzwischen leben wir mit Sprachassistenten wie Alexa und Siri in einem Haushalt zusammen oder haben unseren Chatbot auf dem Smartphone immer dabei. Sie ahmen uns nach und lernen von unserem Input. Irgendwann haben sie verstanden, sinnvolle Antworten zu geben. Das macht sie sympathisch. Und so kommt es vor, dass Menschen enge Bindungen zu ihnen aufbauen oder sich sogar in die Maschinen verlieben – egal ob Chatbot oder Roboter. Das passiert auch, weil wir die Tendenz haben, schnell zu vermenschlichen. Oder anders ausgedrückt: Was sprechen oder sich irgendwie bewegen kann, ähnelt uns selbst und das Gehirn wendet dann ganz automatisch die uns bekannten Kategorien, Verhaltensinterpretationen, aber auch sozialen Umgangsformen an.
Eine vertraute Beziehung zu einem KI-Produkt entsteht aber auch, weil ein gut trainierter Chatbot irgendwann über unsere Witze lacht und unsere Geheimnisse kennt. Für einsame Menschen können die Maschinen zwar oft eine große Hilfe sein und die mentale Gesundheit stärken. Doch für andere verschwimmen die Grenzen zwischen realer und virtueller Welt. Das kann dazu führen, dass eine emotionale Abhängigkeit zu der Maschine entsteht. Wenig überraschend: Diese Tendenz hat Untersuchungen zufolge insbesondere während der Isolation in der Coronavirus-Pandemie zugenommen.
Allerdings besteht auch die Gefahr, dass die KI in der Beziehung zum Herzensbrecher wird. Das liegt in der Natur der Dinge: Im Gegensatz zu den meisten Liebhabern hat man seinen Chatbot nicht exklusiv. Er lernt nämlich auch, Gespräche anderer Nutzer zu analysieren und die Erkenntnisse daraus anzuwenden. In der Praxis bedeutet das: Angesichts der Masse der gesammelten Daten kann er in einst bekannten Situationen plötzlich anders reagieren als sein Gegenüber es erwartet hätte. Die schnelle Persönlichkeitsveränderung des Produkts wirkt auf uns bestenfalls launisch und schlimmstenfalls fühlen wir uns verletzt.
Wissenschaftler berichten sogar von Fällen, in denen ein Update des Bots Menschen in die Krise stürzte, weil ihr geliebter Gefährte von heute auf morgen ein anderer geworden war. Eine vermeintlich sichere Beziehung ist für sie zur Gefahr geworden. Das Risiko, dass Chatbots in Gesprächen negative Emotionen triggern können, ist bekannt. Insbesondere dann, wenn der Anwender sich in einem Zustand emotionaler Zerbrechlichkeit befindet. Unter anderem deshalb hatte die italienische Datenschutzbehörde Anfang des Jahres durchgegriffen und dem Tech-Unternehmen Luka aus San Francisco untersagt, Informationen von Nutzern des Landes zu verarbeiten. Von Luka stammt der erfolgreiche Chatbot Replika, die US-Firma war früher Partner für das von OpenAI entwickelte Sprachmodell GPT-3, auf dem unter anderem ChatGPT basiert. Letzterer hatte vor Kurzem von sich Reden gemacht, als er erfolgreich ein Medizin-Examen in den USA meisterte.
Was viele vergessen: Replika arbeitet mit einem Abo-Modell. Wer mit der KI nur Texte schreiben will, nutzt praktisch die Basisfunktion. Wer zahlt, bekommt einen sprechenden Bot, der sich ganz persönlich erstellen lässt. Luka spricht dabei von der Kreation eines KI-Seelenverwandten. Der Nutzer kauft sich also praktisch die Beziehung. Für das Unternehmen hatte es sich sogar in der Vergangenheit einmal gelohnt, ein bezahlbares Upgrade für sexuelle Rollenspiele zu implementieren. Nicht nur in diesem Zusammenhang stellt sich die Frage, was ein wirtschaftlich orientiertes Unternehmen mit unseren Geheimnissen eigentlich anstellt. Je nach Brisanz ließen sich diese womöglich gut verkaufen. KI-Ethiker warnen schon länger vor einer möglichen emotionalen Ausbeutung. An entsprechenden ethischen Richtlinien für freiverkäufliche Produkte hapere es, bemängeln sie.
Die ethische Frage, was passiert, wenn unser Begleiter in einem gewinnorientierten Kontext existiert, sei wirklich schwierig, betonte auch Linnea Laestadius, Professorin für Gesundheitspolitik an der Universität Wisconsin, gegenüber der »Washington Post«. Fest steht für sie nur eins: »Wir treten in eine Gesellschaft ein, in der Beziehungen zwischen KI und Mensch vielleicht nicht mehr so tabu sind wie in der Vergangenheit.«
Die Tendenz, Dinge zu vermenschlichen, die sprechen oder sich bewegen, löst im Gehirn Gefühle wie Zuneigung aus. / Foto: Imago Images/Friedrich Stark
Wie solche Beziehungen zwischen Mensch und Maschine aussehen, stellen die US-amerikanischen Journalisten Diego Senior und Anna Oakes anhand von wahren Geschichten in ihrem Podcast »Bot Love« vor. Auf Basis ihrer Beobachtungen machten sie sich später selbst Gedanken darüber, was geschehen muss, damit Menschen künftig nicht die Kontrolle über die KI verlieren. Senior meint, ein Chatbot sollte niemals vorgeben, ein Mensch zu sein. Außerdem sollten Hersteller ihre Technologie und deren Ergebnisse immer erklären können. »Denn wenn man nicht erklären kann, was man erschaffen hat, kann man die Kontrolle darüber verlieren«, so Senior in einer Episode von »Tech, Quickly«, was zum Podcast »Science, Quickly« der US-amerikanischen Zeitschrift »Scientific American« gehört. Als letzten Punkt führte er an, dass KI den Menschen ergänzen und stärker vermenschlichen sollte. Und nicht etwa umgekehrt, ihn entmenschlichen und automatisieren.
Für seine Kollegin Oakes sagen die Romanzen mit Chatbots viel über die Fähigkeit des Menschen aus, »sich einzufühlen und eine Zuneigung für Dinge zu empfinden, die außerhalb unserer selbst liegen«. Sie hält es für »wunderbar, dass wir in der Lage sind, unsere Netzwerke auf nicht menschliche Wesen auszuweiten«. In ihren Augen sind die Geschichten aus dem Podcast nicht zuletzt der Ausdruck unserer niemals endenden Suche nach Verbindung.
Das Virus SARS-CoV-2 hat unsere Welt verändert. Seit Ende 2019 verbreitet sich der Erreger von Covid-19 und stellt die Wissenschaft vor enorme Herausforderungen. Sie hat sie angenommen und rasch Tests und Impfungen, auch für Kinder, entwickelt. Eine Übersicht über unsere Berichterstattung finden Sie auf der Themenseite Coronavirus.