Pharmazeutische Zeitung online Avoxa
whatsApp instagram facebook bluesky linkedin xign
Künstliche Intelligenz

Romanze mit einem Chatbot

Künstlicher Intelligenz (KI) gelingt es immer besser, zwischenmenschliche Beziehungen vorzutäuschen. Manche Menschen verlieben sich sogar in einen Chatbot. Doch die KI-Gefährten können auch Herzen brechen. Und wie gehen sie eigentlich mit unseren Geheimnissen um?
AutorKontaktJennifer Evans
Datum 30.05.2023  07:00 Uhr

Inzwischen leben wir mit Sprachassistenten wie Alexa und Siri in einem Haushalt zusammen oder haben unseren Chatbot auf dem Smartphone immer dabei. Sie ahmen uns nach und lernen von unserem Input. Irgendwann haben sie verstanden, sinnvolle Antworten zu geben. Das macht sie sympathisch. Und so kommt es vor, dass Menschen enge Bindungen zu ihnen aufbauen oder sich sogar in die Maschinen verlieben – egal ob Chatbot oder Roboter. Das passiert auch, weil wir die Tendenz haben, schnell zu vermenschlichen. Oder anders ausgedrückt: Was sprechen oder sich irgendwie bewegen kann, ähnelt uns selbst und das Gehirn wendet dann ganz automatisch die uns bekannten Kategorien, Verhaltensinterpretationen, aber auch sozialen Umgangsformen an.

Eine vertraute Beziehung zu einem KI-Produkt entsteht aber auch, weil ein gut trainierter Chatbot irgendwann über unsere Witze lacht und unsere Geheimnisse kennt. Für einsame Menschen können die Maschinen zwar oft eine große Hilfe sein und die mentale Gesundheit stärken. Doch für andere  verschwimmen die Grenzen zwischen realer und virtueller Welt. Das kann dazu führen, dass eine emotionale Abhängigkeit zu der Maschine entsteht. Wenig überraschend: Diese Tendenz hat Untersuchungen zufolge insbesondere während der Isolation in der Coronavirus-Pandemie zugenommen.

Updates können Krisen auslösen

Allerdings besteht auch die Gefahr, dass die KI in der Beziehung zum Herzensbrecher wird. Das liegt in der Natur der Dinge: Im Gegensatz zu den meisten Liebhabern hat man seinen Chatbot nicht exklusiv. Er lernt nämlich auch, Gespräche anderer Nutzer zu analysieren und die Erkenntnisse daraus anzuwenden. In der Praxis bedeutet das: Angesichts der Masse der gesammelten Daten kann er in einst bekannten Situationen plötzlich anders reagieren als sein Gegenüber es erwartet hätte. Die schnelle Persönlichkeitsveränderung des Produkts wirkt auf uns bestenfalls launisch und schlimmstenfalls fühlen wir uns verletzt.

Wissenschaftler berichten sogar von Fällen, in denen ein Update des Bots Menschen in die Krise stürzte, weil ihr geliebter Gefährte von heute auf morgen ein anderer geworden war. Eine vermeintlich sichere Beziehung ist für sie zur Gefahr geworden. Das Risiko, dass Chatbots in Gesprächen negative Emotionen triggern können, ist bekannt. Insbesondere dann, wenn der Anwender sich in einem Zustand emotionaler Zerbrechlichkeit befindet. Unter anderem deshalb hatte die italienische Datenschutzbehörde Anfang des Jahres durchgegriffen und dem Tech-Unternehmen Luka aus San Francisco untersagt, Informationen von Nutzern des Landes zu verarbeiten. Von Luka stammt der erfolgreiche Chatbot Replika, die US-Firma war früher Partner für das von OpenAI entwickelte Sprachmodell GPT-3, auf dem unter anderem ChatGPT basiert. Letzterer hatte vor Kurzem von sich Reden gemacht, als er erfolgreich ein Medizin-Examen in den USA meisterte.

Frag die KI
Die experimentelle KI
von PZ und PTA-Forum
Die experimentelle KI
von PZ und PTA-Forum
Die experimentelle KI
von PZ und PTA-Forum
 
FAQ
BETA
Menü
Zeit
SENDEN
Wie kann man die CAR-T-Zelltherapie einfach erklären?
Warum gibt es keinen Impfstoff gegen HIV?
Was hat der BGH im Fall von AvP entschieden?
Zeit
GESAMTER ZEITRAUM
3 JAHRE
1 JAHR
Senden
SENDEN
KI
IHRE FRAGE WIRD BEARBEITET ...
KI
KI
UNSERE ANTWORT
QUELLEN
22.01.2023 – Fehlende Evidenz?
LAV Niedersachsen sieht Verbesserungsbedarf
» ... Frag die KI ist ein experimentelles Angebot der Pharmazeutischen Zeitung. Es nutzt Künstliche Intelligenz, um Fragen zu Themen der Branche zu beantworten. Die Antworten basieren auf dem Artikelarchiv der Pharmazeutischen Zeitung und des PTA-Forums. Die durch die KI generierten Antworten sind mit Links zu den Originalartikeln. ... «
Ihr Feedback
War diese Antwort für Sie hilfreich?
 
 
FEEDBACK SENDEN
FAQ
Was ist »Frag die KI«?
»Frag die KI« ist ein experimentelles Angebot der Pharmazeutischen Zeitung. Es nutzt Künstliche Intelligenz, um Fragen zu Themen der Branche zu beantworten. Die Antworten basieren auf dem Artikelarchiv der Pharmazeutischen Zeitung und des PTA-Forums. Die durch die KI generierten Antworten sind mit Links zu den Originalartikeln der Pharmazeutischen Zeitung und des PTA-Forums versehen, in denen mehr Informationen zu finden sind. Die Redaktion der Pharmazeutischen Zeitung verfolgt in ihren Artikeln das Ziel, kompetent, seriös, umfassend und zeitnah über berufspolitische und gesundheitspolitische Entwicklungen, relevante Entwicklungen in der pharmazeutischen Forschung sowie den aktuellen Stand der pharmazeutischen Praxis zu informieren.
Was sollte ich bei den Fragen beachten?
Damit die KI die besten und hilfreichsten Antworten geben kann, sollten verschiedene Tipps beachtet werden. Die Frage sollte möglichst präzise gestellt werden. Denn je genauer die Frage formuliert ist, desto zielgerichteter kann die KI antworten. Vollständige Sätze erhöhen die Wahrscheinlichkeit einer guten Antwort.
Wie nutze ich den Zeitfilter?
Damit die KI sich bei ihrer Antwort auf aktuelle Beiträge beschränkt, kann die Suche zeitlich eingegrenzt werden. Artikel, die älter als sieben Jahre sind, werden derzeit nicht berücksichtigt.
Sind die Ergebnisse der KI-Fragen durchweg korrekt?
Die KI kann nicht auf jede Frage eine Antwort liefern. Wenn die Frage ein Thema betrifft, zu dem wir keine Artikel veröffentlicht haben, wird die KI dies in ihrer Antwort entsprechend mitteilen. Es besteht zudem eine Wahrscheinlichkeit, dass die Antwort unvollständig, veraltet oder falsch sein kann. Die Redaktion der Pharmazeutischen Zeitung übernimmt keine Verantwortung für die Richtigkeit der KI-Antworten.
Werden meine Daten gespeichert oder verarbeitet?
Wir nutzen gestellte Fragen und Feedback ausschließlich zur Generierung einer Antwort innerhalb unserer Anwendung und zur Verbesserung der Qualität zukünftiger Ergebnisse. Dabei werden keine zusätzlichen personenbezogenen Daten erfasst oder gespeichert.

Mehr von Avoxa