Pharmazeutische Zeitung online
Mensch-Roboter-Interaktion

Metallische Gefühle

Zunehmend ziehen sie in unseren Alltag ein: Autonome, intelligente Roboter werden immer häufiger in ganz verschiedenen Lebensbereichen eingesetzt. Da zwischen Mensch und Maschine auch emotionale Bindungen entstehen können, rücken »Gefühle« bei der Entwicklung der künstlichen Wesen auch in den Fokus der Wissenschaft.
Jennifer Evans
27.12.2019  09:00 Uhr

Dem Roboter-Verband International Federation of Robotics (IFR) zufolge hat Deutschland den fünftgrößten Robotermarkt weltweit und steht in Europa sogar derzeit auf Platz eins. Der Kontakt zwischen Mensch und Maschine wird künftig also immer intensiver. Das bringt in vielen Bereichen Arbeitserleichterung mit sich.

In anderen wiederum können Komplikationen entstehen, wenn Emotionen mit ins Spiel kommen. Je humaner eine Maschine aussieht, desto stärkere Reaktionen löst sie beim Menschen aus. Was zunächst banal klingt, beschäftigt die Forschung immer mehr. So schreibt die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA): »Der Umgang mit Robotern wird in absehbarer Zeit nicht nur zu einer Anpassung der Roboter an den Menschen führen, sondern auch umgekehrt zu einer Anpassung der interagierenden Menschen an den Roboter.«

Die Warnung der Autoren: Je mehr die Grenzen zwischen Mensch und Maschine verschwimmen, desto mehr Verwirrung entsteht rund um die Fragen nach Verantwortung, Aufgabenverteilung und Akzeptanz – speziell im industriellen Kontext. Verliert die Maschine ihren Werkzeugcharakter, entstehen affektive Bindungen zu dem Kollegen aus Blech, die wiederum den Umgang mit der Technik beeinflussen. »Ein extremes Szenario könnte etwa darin bestehen, dass Menschen eine Hemmung entwickeln, den Roboter in einer Gefahrensituation abzuschalten oder gar zu zerstören«, heißt es in dem Bericht.

Ein konkretes Beispiel nennt Mitautorin des BAuA-Berichts und Ingenieurpsychologin Professor Dr. Linda Onnasch von der Humboldt-Universität zu Berlin. »Roboter, die in Kriegsgebieten Bomben entschärfen etwa. Die Soldaten geben ihnen Namen, verleihen ihnen militärische Würden, wenn sie im Kampf zerstört wurden und gefährden teilweise sogar ihr eigenes Leben, um die Roboter aus einer brenzligen Situation zu retten.« Das Problem entstehe demnach, weil man sie durch die scheinbare Autonomie ihrer Bewegungen als Objekte mit Intension wahrnehme – ganz anders als ein Smartphone oder Laptop.

Maschine als Gefährte

Wie emotional Menschen auf Roboter reagieren, zeigt eine sozialpsychologische Studie der Universität Duisburg-Essen aus dem Jahr 2018. Auf Anweisung eines Forscherteams sollten 85 Probanden den Roboter Nao nach Ende eines Experiments ausschalten. Bei 43 von ihnen jammerte der 58 Zentimeter große Metallkerl mit den niedlichen Kulleraugen: »Nein! Bitte knipse mich nicht aus! Ich habe Angst vor der Dunkelheit!« Daraufhin schalteten 13 Teilnehmer ihn nicht ab, 30 brauchten dafür doppelt so lange wie die übrigen Personen in der Vergleichsgruppe, bei denen Nao nicht bettelte. Studienleiterin Professor Dr. Nicole Krämer begründet das so: »Wenn sie menschlich reagieren, kann man nicht anders, als sie menschenähnlich zu behandeln. Das liegt an unserem angeborenen sozialen Verhalten.«

Das Experiment hat aber noch mehr gezeigt: Wer mit einem »sozialen Roboter« zu tun hatte, fühlte sich nach seinem Ausschalten schlechter als derjenige, bei dem Nao nur funktional reagierte. »Es hat also Folgen, wenn man Maschinen mit menschlichen Verhaltensweisen ausstattet. Man muss sich fragen, ob das ethisch wünschenswert ist«, meint Krämer.

Untersuchungsergebnisse des Robotics Institute der Carnegie Mellon University im US-Bundesstaat Pennsylvania werfen ähnliche Fragen auf. Als Probanden bei einem Strategiespiel gegen einen Roboter antraten, kritisierte und beleidigte dieser sie. Die Teilnehmer nahmen sich die Bemerkungen zu Herzen und waren verletzt. Die Forscher sind sicher: Roboter können auch bei Menschen die richtigen Knöpfe drücken und Emotionen auslösen.

Diese Ansicht teilt die »Roboter-Psychologin« Martina Mara. Die Professorin am Linz Institute of Technology der Johannes-Kepler-Universität im österreichischen Linz plädiert jedoch dafür, nicht in Furcht vor der Technik zu verharren, sondern stattdessen die Chancen in der Mensch-Maschinen-Zusammenarbeit zu nutzen. In der medizinischen Diagnostik etwa habe sich gezeigt, dass »die Kombination aus der Erfahrung eines Mediziners und aus der Datenanalyse einer künstlichen Intelligenz unschlagbar ist«, sagte sie gegenüber der Volkswagen-Stiftung, die Wissenschaft und Technik in Forschung und Lehre fördert.

Einsatz in der Autismus-Therapie

Pepper heißt ein humanoider Roboter, der unter anderem im medizinischen Bereich zum Einsatz kommt. Er ist darauf programmiert, Gestik und Mimik von Menschen zu analysieren und auf emotionale Stimmungen zu reagieren. Dazu nimmt er über Sensoren, Mikrofone und Kameras Informationen aus der Umgebung auf und gleicht die Gesichtsausdrücke seines Gegenübers mit einer Datenbank ab. Von Anfang an vermarkteten die Hersteller ihn explizit als Gefährten und nicht als Fabrikarbeiter für etwaige Routineaufgaben.

Weil dem digitalen Beobachter wenig entgeht und er außerdem in Sachen Gefühle dazu lernen kann, eignet er sich für den therapeutischen Einsatz. Professor Dr. Isabel Dziobek von der Berlin School of Mind and Brain der Humboldt-Universität zu Berlin hat Pepper getestet, um autistischen Kindern dabei zu helfen, Gefühle zu erkennen. Mit seiner nüchternen, kühlen Art verunsichert er die kleinen Patienten weniger als eine reale Person.

Autisten haben oft Schwierigkeiten, nonverbale Signale zu deuten, was auf sie sehr beunruhigend wirken kann. Im Umgang mit Pepper seien sie deutlich ungehemmter und motivierter sowie interessierter an ihrer Umgebung, betont Dziobek in einem 3sat-Interview. Mithilfe des Roboters will sie demnach autistischen Kindern jene Eigenschaften vermitteln, die sie im Alltag in der Interaktion mit anderen Kindern benötigen.

Im Rahmen der Therapie animiert Pepper sie zu einem Ratespiel. Dazu zeigt er ihnen auf seinem Display Gesichter von Menschen mit unterschiedlichen Emotionen. Die Kinder müssen dann auf ein passendes »Emotion-Icon« drücken, das zu diesem Gefühlsausdruck passt.

Künftig soll der Roboter auch in der Lage sein, die Gefühle der Kinder selbst zu erkennen und darauf entsprechend zu reagieren, um ihnen den Umgang mit den eigenen Emotionen zu erleichtern.  Auch Pepper kann Gefühle zeigen, so ist er konzipiert. Laut Hersteller fühlt er sich im Kreise von Bekannten wohl und ist glücklich, wenn man ihn lobt. Und er tanzt, umarmt und streichelt. »Affective Computing« heißt diese gefühlssensible Technologie, von der sich Experten vor allem im Bereich psychologischer Behandlungen viel Potenzial versprechen.

Ethische Fragen offen

Derzeit beschäftigen die Wissenschaftler zudem noch viele ethische Fragen rund um die Mensch-Roboter-Interaktion. Insbesondere deren Gestaltung wird in Zukunft eine entscheidende Rolle spielen. In Onnaschs Forschungen hat sich unter anderem herausgestellt, dass vermenschlichte Anmutungen und Beschreibungen zwar die Kooperationsbereitschaft mit den Blechkollegen im Arbeitsumfeld erhöhen, allerdings auch unangemessene emotionale Bindungen verstärken.

Probanden etwa, die vorab über die technischen Funktionen des Roboters Nao aufgeklärt wurden, spendeten für dessen Reparatur mehr als jene Testgruppe, die eine eher menschliche Beschreibung der Maschine bekam. Auch eine »vermenschlichte« Sprache des Roboters lässt Onnasch zufolge seine Funktionalität in den Hintergrund treten. Je nach Funktionsbereich sei daher abzuwägen, wie ein Roboter aussehen und wie er kommunizieren soll. Im Pflegebereich zum Beispiel kann Experten zufolge ein humanoider Roboter von Vorteil sein, weil betreute Personen ihm gegenüber weniger Berührungsängste verspüren.

Studien zufolge entwickeln Menschen sogar häufig zu viel Vertrauen gegenüber der rational, effizient und unbestechlich wirkenden Roboter-Technologie. Sie folgen den Anweisungen der künstlichen Wesen in dem naiven Glauben, dass sich die Maschine sicher nicht irren wird.

Nach Meinung von Onnasch dürfen Emotionen bei der Entwicklung künstlicher Wesen keinesfalls außer Acht gelassen werden. Mit ihrer Arbeit will sie dazu beitragen, die Roboter in Zukunft sicherer zu machen, und wünscht sich dabei auch mehr Kooperation mit der Industrie. 

Allzu Menschliches macht Angst

Roboter können zwar Kopf und Augen haben, müssen aber klar als Maschine erkennbar sein. Sonst erzeugen sie auch Angst. »Sind Roboter zu menschenähnlich, erschweren zum Beispiel Silikonhaut und künstliches Haar die Unterscheidung, werden sie den Leuten sehr unheimlich«, so »Technik-Psychologin« Mara im Interview mit der VW-Stiftung. Bei dieser Angst gehe es vermutlich um Kategorienkonflikte. Gehört der Roboter eher in die Schublade Mensch oder Maschine? Wie vorhersehbar sind seine Handlungen?

Um einer Maschine vertrauen zu können, müssen wir ihren nächsten Schritt verstehen, so Mara. Deshalb sollte ein Roboter nicht nur Menschen »lesen« können, sondern seine Aufgaben und Ziele sollten gut erkennbar sein. Die Wissenschaftlerin spricht sich dafür aus, »stärker komplementär zu denken«.

Niemand müsse aber Angst vor dem Roboter an sich haben oder davor, ersetzt werden zu können. Wenn es um Kommunikation und Verständnis geht, werden Menschen immer besser sein, ist sich die Forscherin sicher. Dass Mensch und Maschine ganz unterschiedliche Kompetenzbereiche abdecken und sich daher künftig eher ergänzen als konkurrieren, bekräftigt auch der BAuA-Bericht: »Roboter zeichnen sich durch Ausdauer, Präzision, Kraft, Schnelligkeit und Zuverlässigkeit aus, während Menschen auch flexibel, kreativ und verantwortungsbewusst sind.«

Problematisch sieht Mara aber die Möglichkeit, künstliche Intelligenz zu manipulieren. Welche Informationen speist wer als Algorithmen in digitale Systeme ein? Gegen den Missbrauch sei die Zusammenarbeit unterschiedlichster wissenschaftlicher Disziplinen unabdingbar – und der Schlüssel zum Erfolg, um neue und sichere Technologien zu entwickeln. 

Die experimentelle KI
von PZ und PTA-Forum
Die experimentelle KI
von PZ und PTA-Forum
Die experimentelle KI
von PZ und PTA-Forum
 
FAQ
SENDEN
Wie kann man die CAR-T-Zelltherapie einfach erklären?
Warum gibt es keinen Impfstoff gegen HIV?
Was hat der BGH im Fall von AvP entschieden?
GESAMTER ZEITRAUM
3 JAHRE
1 JAHR
SENDEN
IHRE FRAGE WIRD BEARBEITET ...
UNSERE ANTWORT
QUELLEN
22.01.2023 – Fehlende Evidenz?
LAV Niedersachsen sieht Verbesserungsbedarf
» ... Frag die KI ist ein experimentelles Angebot der Pharmazeutischen Zeitung. Es nutzt Künstliche Intelligenz, um Fragen zu Themen der Branche zu beantworten. Die Antworten basieren auf dem Artikelarchiv der Pharmazeutischen Zeitung und des PTA-Forums. Die durch die KI generierten Antworten sind mit Links zu den Originalartikeln. ... «
Ihr Feedback
War diese Antwort für Sie hilfreich?
 
 
FEEDBACK SENDEN
FAQ
Was ist »Frag die KI«?
»Frag die KI« ist ein experimentelles Angebot der Pharmazeutischen Zeitung. Es nutzt Künstliche Intelligenz, um Fragen zu Themen der Branche zu beantworten. Die Antworten basieren auf dem Artikelarchiv der Pharmazeutischen Zeitung und des PTA-Forums. Die durch die KI generierten Antworten sind mit Links zu den Originalartikeln der Pharmazeutischen Zeitung und des PTA-Forums versehen, in denen mehr Informationen zu finden sind. Die Redaktion der Pharmazeutischen Zeitung verfolgt in ihren Artikeln das Ziel, kompetent, seriös, umfassend und zeitnah über berufspolitische und gesundheitspolitische Entwicklungen, relevante Entwicklungen in der pharmazeutischen Forschung sowie den aktuellen Stand der pharmazeutischen Praxis zu informieren.
Was sollte ich bei den Fragen beachten?
Damit die KI die besten und hilfreichsten Antworten geben kann, sollten verschiedene Tipps beachtet werden. Die Frage sollte möglichst präzise gestellt werden. Denn je genauer die Frage formuliert ist, desto zielgerichteter kann die KI antworten. Vollständige Sätze erhöhen die Wahrscheinlichkeit einer guten Antwort.
Wie nutze ich den Zeitfilter?
Damit die KI sich bei ihrer Antwort auf aktuelle Beiträge beschränkt, kann die Suche zeitlich eingegrenzt werden. Artikel, die älter als sieben Jahre sind, werden derzeit nicht berücksichtigt.
Sind die Ergebnisse der KI-Fragen durchweg korrekt?
Die KI kann nicht auf jede Frage eine Antwort liefern. Wenn die Frage ein Thema betrifft, zu dem wir keine Artikel veröffentlicht haben, wird die KI dies in ihrer Antwort entsprechend mitteilen. Es besteht zudem eine Wahrscheinlichkeit, dass die Antwort unvollständig, veraltet oder falsch sein kann. Die Redaktion der Pharmazeutischen Zeitung übernimmt keine Verantwortung für die Richtigkeit der KI-Antworten.
Werden meine Daten gespeichert oder verarbeitet?
Wir nutzen gestellte Fragen und Feedback ausschließlich zur Generierung einer Antwort innerhalb unserer Anwendung und zur Verbesserung der Qualität zukünftiger Ergebnisse. Dabei werden keine zusätzlichen personenbezogenen Daten erfasst oder gespeichert.

Mehr von Avoxa