KI ist unfair, Mensch akzeptiert |
Jennifer Evans |
09.12.2024 07:00 Uhr |
Die KI trifft Entscheidungen – und die Gesellschaft muss mit den sozialen Konsequenzen leben. / © Adobe Stock/Alon, generiert mit KI
Wer bekommt eine medizinische Behandlung, einen Job oder Sozialgeld – inzwischen trifft künstliche Intelligenz wichtige Entscheidungen für Unternehmen und beeinflusst damit unser Leben. Alles im Namen der Effizienz, versteht sich. Damit wachse die Gefahr von Ungerechtigkeit, warnt ein Team um die Wirtschaftswissenschaftlerin Raina Zexuan Zhang von der New York University.
KI-Systeme können Personengruppen mit einem bestimmten Hintergrund bei Jobangeboten bevorzugen, während ebenso qualifizierte, aber unterrepräsentierte Bewerberinnen und Bewerber untergehen. Dasselbe gilt für Sozialleistungen vom Staat. Kommen bei der Vergabe Algorithmen zum Einsatz, könnte sich die soziale Ungleichheit verschärfen.
Interessant fanden die Forschenden auch, was Menschen konkret tun, wenn sie sich durch eine KI benachteiligt fühlten. In einer Reihe von Experimenten stellte sich heraus, dass solche Personen einer KI generell weniger Schuld an einer ungerechten Behandlung geben als einem Menschen und sich daher weniger veranlasst fühlen, gegen diese Ungerechtigkeit vorzugehen. Das bedeutet, unsere Reaktion auf Unfairness ist nicht nur abhängig davon, ob, sondern auch von wem wir uns ungerecht behandelt fühlen – von einer KI oder einem Menschen.
Darüber hinaus hat die Untersuchung gezeigt, dass jene Menschen, die ein KI-System einmal ungerecht behandelt hatte, später weniger bereit waren, andere menschliche Übeltäter zu bestrafen. Bei den Teilnehmenden, die zuvor Unfairness von einer realen Person erlebten, war das dagegen nicht der Fall.
Diese zunehmende Desensibilisierung gegenüber einem schlechten Verhalten anderer bezeichnen die Wissenschaftler als KI-induzierte Gleichgültigkeit. Der Terminus soll verdeutlichen, dass KI-Systeme mit ihren nicht immer gerechten Auswahlkriterien unser Verantwortungsgefühl gegenüber anderen Menschen schwächen. Die Wahrscheinlichkeit eines prosozialen Verhaltens sinkt also und damit auch die sogenannte »prosoziale Bestrafung«, wenn das Unrecht einem Mitmenschen widerfährt.
Kurz gesagt, eine unfaire Behandlung durch ein KI-System kann die Art und Weise, wie Menschen aufeinander reagieren, beeinflussen – auch wenn die Situation später nichts mehr mit KI zu tun hat. Die Studienautoren raten daher Entwicklern von KI-Systemen dazu, die Trainingsdaten zu optimieren, um künftig solche Spillover-Effekte zu verhindern.