| Alexander Müller |
| 20.01.2026 14:00 Uhr |
Dass die KI mittlerweile Kontexte verstehen kann, ist dem Philosophen zufolge der große Durchbruch. Sam Altman, Geschäftsführer des ChatGPT-Anbieters OpenAI, habe 2024 erkannt, dass KI mittlerweile im Stande ist, zwischen den Zeilen zu lesen. Und während billige GPT-Systeme ein kurzes Kontext-Gedächtnis haben – sie leiden laut Gabriel »unter schweren neurodegenerativen Erkrankungen« – haben die neueren Systeme größere Kontextfenster. Deswegen verliebten sich Menschen in ihre KI, deswegen gebe es dramatische Fälle von KI-motivierten Suiziden.
Fakt ist: Die KI hat längst den Bereich des Emotionalen betreten. 86 Prozent der Suchanfragen bei ChatGPT drehten sich 2022 um Lebensprobleme wie »Soll ich meinen Partner verlassen oder nicht?« oder Fragen zum Job. »Wir sind in einem postfaktischen Zeitalter angelangt. Die KI-Modelle steuern die emotionale Ebene an und nicht die rationale«, so Gabriel.
Systeme wie »Grok«, der KI-Chatbot von X, seien dabei geradezu bösartig. »Und das ist brandgefährlich, denn es gibt keine Regulation dafür.« Der EU AI Act war Gabriel zufolge schon veraltet, als er veröffentlicht wurde. »Bürokraten in Brüssel werden das Silicon Valley nicht stoppen«, so seine düstere Prognose.
Der Schlüssel im Umgang mit KI ist laut Gabriel die Ethik. Im Menschlichen Zusammenleben gibt es moralische Tatsachen; etwa die Verpflichtung, ein Kind zu retten, das im flachen Wasser zu ertrinken droht. Die Methode der Ethik besteht nun darin, Äquivalenzklassen zu finden. Komplexere Fälle lassen sich mathematisch in einfache Einzelschritte zerlegen – und das kann die KI auch. Und aus kommunikativen Mustern liest die KI unsere Emotionen.
KI dürfe man sich heute nicht mehr als fremdes System vorstellen, das auf einem Server liegt. KI ist laut Gabriel eine interaktive Schnittstelle, ein »magischer Spiegel« zwischen Mensch und Gerät. »Deswegen funktioniert sie emotional.« Gegen die »Übergriffigkeit der Systeme« könne sich der Mensch nur wehren, wenn er in diesem Resonanzfeld besteht und es mit den eigenen positiven Werten füllt. Spannende Ansätze dafür sieht Gabriel in Japan, und das Königreich Bhutan habe für die öffentliche Verwaltung einen Buddha Bot entwickeln lassen, trainiert mit dem buddhistischen Kanon.
Die Zukunft könnte laut Gabriel so aussehen: »Mensch und Maschine werden über eine KI-Schnittstelle miteinander verschaltet, um ethische Probleme zu lösen. Das ist der Ansatz einer ethischen Intelligenz.« Eine »Ethik der KI« sei dagegen der Versuch, die KI zu zähmen, was nicht funktioniere. »Die Frage ist also: Wie können wir KI-Systeme entwickeln, mit denen zusammen wir unsere moralischen Probleme lösen, damit der Mensch nicht überflüssig wird.«