Pharmazeutische Zeitung online
Mensch versus Maschine

KI ist unfair, Mensch akzeptiert

Künstliche Intelligenz (KI) ist ungerecht und macht uns unsozialer. Für gefährlich halten Wissenschaftler laut einer neuen Studie die zunehmende Gleichgültigkeit gegenüber menschlichem Fehlverhalten, die KI in uns auslöst.
Jennifer Evans
09.12.2024  07:00 Uhr

Wer bekommt eine medizinische Behandlung, einen Job oder Sozialgeld – inzwischen trifft künstliche Intelligenz wichtige Entscheidungen für Unternehmen und beeinflusst damit unser Leben. Alles im Namen der Effizienz, versteht sich. Damit wachse die Gefahr von Ungerechtigkeit, warnt ein Team um die Wirtschaftswissenschaftlerin Raina Zexuan Zhang von der New York University.

KI-Systeme können Personengruppen mit einem bestimmten Hintergrund bei Jobangeboten bevorzugen, während ebenso qualifizierte, aber unterrepräsentierte Bewerberinnen und Bewerber untergehen. Dasselbe gilt für Sozialleistungen vom Staat. Kommen bei der Vergabe Algorithmen zum Einsatz, könnte sich die soziale Ungleichheit verschärfen.

Interessant fanden die Forschenden auch, was Menschen konkret tun, wenn sie sich durch eine KI benachteiligt fühlten. In einer Reihe von Experimenten stellte sich heraus, dass solche Personen einer KI generell weniger Schuld an einer ungerechten Behandlung geben als einem Menschen und sich daher weniger veranlasst fühlen, gegen diese Ungerechtigkeit vorzugehen. Das bedeutet, unsere Reaktion auf Unfairness ist nicht nur abhängig davon, ob, sondern auch von wem wir uns ungerecht behandelt fühlen – von einer KI oder einem Menschen.

KI-induzierte Gleichgültigkeit

Darüber hinaus hat die Untersuchung gezeigt, dass jene Menschen, die ein KI-System einmal ungerecht behandelt hatte, später weniger bereit waren, andere menschliche Übeltäter zu bestrafen. Bei den Teilnehmenden, die zuvor Unfairness von einer realen Person erlebten, war das dagegen nicht der Fall.

Diese zunehmende Desensibilisierung gegenüber einem schlechten Verhalten anderer bezeichnen die Wissenschaftler als KI-induzierte Gleichgültigkeit. Der Terminus soll verdeutlichen, dass KI-Systeme mit ihren nicht immer gerechten Auswahlkriterien unser Verantwortungsgefühl gegenüber anderen Menschen schwächen. Die Wahrscheinlichkeit eines prosozialen Verhaltens sinkt also und damit auch die sogenannte »prosoziale Bestrafung«, wenn das Unrecht einem Mitmenschen widerfährt.

Kurz gesagt, eine unfaire Behandlung durch ein KI-System kann die Art und Weise, wie Menschen aufeinander reagieren, beeinflussen – auch wenn die Situation später nichts mehr mit KI zu tun hat. Die Studienautoren raten daher Entwicklern von KI-Systemen dazu, die Trainingsdaten zu optimieren, um künftig solche Spillover-Effekte zu verhindern.

Die experimentelle KI
von PZ und PTA-Forum
Die experimentelle KI
von PZ und PTA-Forum
Die experimentelle KI
von PZ und PTA-Forum
 
FAQ
SENDEN
Wie kann man die CAR-T-Zelltherapie einfach erklären?
Warum gibt es keinen Impfstoff gegen HIV?
Was hat der BGH im Fall von AvP entschieden?
GESAMTER ZEITRAUM
3 JAHRE
1 JAHR
SENDEN
IHRE FRAGE WIRD BEARBEITET ...
UNSERE ANTWORT
QUELLEN
22.01.2023 – Fehlende Evidenz?
LAV Niedersachsen sieht Verbesserungsbedarf
» ... Frag die KI ist ein experimentelles Angebot der Pharmazeutischen Zeitung. Es nutzt Künstliche Intelligenz, um Fragen zu Themen der Branche zu beantworten. Die Antworten basieren auf dem Artikelarchiv der Pharmazeutischen Zeitung und des PTA-Forums. Die durch die KI generierten Antworten sind mit Links zu den Originalartikeln. ... «
Ihr Feedback
War diese Antwort für Sie hilfreich?
 
 
FEEDBACK SENDEN
FAQ
Was ist »Frag die KI«?
»Frag die KI« ist ein experimentelles Angebot der Pharmazeutischen Zeitung. Es nutzt Künstliche Intelligenz, um Fragen zu Themen der Branche zu beantworten. Die Antworten basieren auf dem Artikelarchiv der Pharmazeutischen Zeitung und des PTA-Forums. Die durch die KI generierten Antworten sind mit Links zu den Originalartikeln der Pharmazeutischen Zeitung und des PTA-Forums versehen, in denen mehr Informationen zu finden sind. Die Redaktion der Pharmazeutischen Zeitung verfolgt in ihren Artikeln das Ziel, kompetent, seriös, umfassend und zeitnah über berufspolitische und gesundheitspolitische Entwicklungen, relevante Entwicklungen in der pharmazeutischen Forschung sowie den aktuellen Stand der pharmazeutischen Praxis zu informieren.
Was sollte ich bei den Fragen beachten?
Damit die KI die besten und hilfreichsten Antworten geben kann, sollten verschiedene Tipps beachtet werden. Die Frage sollte möglichst präzise gestellt werden. Denn je genauer die Frage formuliert ist, desto zielgerichteter kann die KI antworten. Vollständige Sätze erhöhen die Wahrscheinlichkeit einer guten Antwort.
Wie nutze ich den Zeitfilter?
Damit die KI sich bei ihrer Antwort auf aktuelle Beiträge beschränkt, kann die Suche zeitlich eingegrenzt werden. Artikel, die älter als sieben Jahre sind, werden derzeit nicht berücksichtigt.
Sind die Ergebnisse der KI-Fragen durchweg korrekt?
Die KI kann nicht auf jede Frage eine Antwort liefern. Wenn die Frage ein Thema betrifft, zu dem wir keine Artikel veröffentlicht haben, wird die KI dies in ihrer Antwort entsprechend mitteilen. Es besteht zudem eine Wahrscheinlichkeit, dass die Antwort unvollständig, veraltet oder falsch sein kann. Die Redaktion der Pharmazeutischen Zeitung übernimmt keine Verantwortung für die Richtigkeit der KI-Antworten.
Werden meine Daten gespeichert oder verarbeitet?
Wir nutzen gestellte Fragen und Feedback ausschließlich zur Generierung einer Antwort innerhalb unserer Anwendung und zur Verbesserung der Qualität zukünftiger Ergebnisse. Dabei werden keine zusätzlichen personenbezogenen Daten erfasst oder gespeichert.

Mehr von Avoxa