Pharmazeutische Zeitung online Avoxa
whatsApp instagram facebook bluesky linkedin xign

Vortrag über Ethische Intelligenz
-
Bringt uns KI moralisch weiter?

Fast genau so alt wie die Entwicklung von Maschinen durch den Menschen ist seine Angst vor ihnen. Dieses Gefühl hat sich mit der rasanten Entwicklung der KI verbreitet und vertieft. Zu Recht, wie der Philosoph Markus Gabriel beim Pharmacon Schladming ausführte. Die einzige Chance, die uns aus seiner Sicht noch bleibt: klare Regeln und Gesetze, die die KI dazu bringen, uns moralisch besser zu machen.
AutorKontaktAlexander Müller
Datum 20.01.2026  14:00 Uhr

Unregulierte Antworten sind »brandgefährlich«

Dass die KI mittlerweile Kontexte verstehen kann, ist dem Philosophen zufolge der große Durchbruch. Sam Altman, Geschäftsführer des ChatGPT-Anbieters OpenAI, habe 2024 erkannt, dass KI mittlerweile im Stande ist, zwischen den Zeilen zu lesen. Und während billige GPT-Systeme ein kurzes Kontext-Gedächtnis haben – sie leiden laut Gabriel »unter schweren neurodegenerativen Erkrankungen« – haben die neueren Systeme größere Kontextfenster. Deswegen verliebten sich Menschen in ihre KI, deswegen gebe es dramatische Fälle von KI-motivierten Suiziden.

Fakt ist: Die KI hat längst den Bereich des Emotionalen betreten. 86 Prozent der Suchanfragen bei ChatGPT drehten sich 2022 um Lebensprobleme wie »Soll ich meinen Partner verlassen oder nicht?« oder Fragen zum Job. »Wir sind in einem postfaktischen Zeitalter angelangt. Die KI-Modelle steuern die emotionale Ebene an und nicht die rationale«, so Gabriel.

Systeme wie »Grok«, der KI-Chatbot von X, seien dabei geradezu bösartig. »Und das ist brandgefährlich, denn es gibt keine Regulation dafür.« Der EU AI Act war Gabriel zufolge schon veraltet, als er veröffentlicht wurde. »Bürokraten in Brüssel werden das Silicon Valley nicht stoppen«, so seine düstere Prognose.

Die KI liest unsere Emotionen

Der Schlüssel im Umgang mit KI ist laut Gabriel die Ethik. Im Menschlichen Zusammenleben gibt es moralische Tatsachen; etwa die Verpflichtung, ein Kind zu retten, das im flachen Wasser zu ertrinken droht. Die Methode der Ethik besteht nun darin, Äquivalenzklassen zu finden. Komplexere Fälle lassen sich mathematisch in einfache Einzelschritte zerlegen – und das kann die KI auch. Und aus kommunikativen Mustern liest die KI unsere Emotionen.

KI dürfe man sich heute nicht mehr als fremdes System vorstellen, das auf einem Server liegt. KI ist laut Gabriel eine interaktive Schnittstelle, ein »magischer Spiegel« zwischen Mensch und Gerät. »Deswegen funktioniert sie emotional.« Gegen die »Übergriffigkeit der Systeme« könne sich der Mensch nur wehren, wenn er in diesem Resonanzfeld besteht und es mit den eigenen positiven Werten füllt. Spannende Ansätze dafür sieht Gabriel in Japan, und das Königreich Bhutan habe für die öffentliche Verwaltung einen Buddha Bot entwickeln lassen, trainiert mit dem buddhistischen Kanon.

Die Zukunft könnte laut Gabriel so aussehen: »Mensch und Maschine werden über eine KI-Schnittstelle miteinander verschaltet, um ethische Probleme zu lösen. Das ist der Ansatz einer ethischen Intelligenz.« Eine »Ethik der KI« sei dagegen der Versuch, die KI zu zähmen, was nicht funktioniere. »Die Frage ist also: Wie können wir KI-Systeme entwickeln, mit denen zusammen wir unsere moralischen Probleme lösen, damit der Mensch nicht überflüssig wird.«

Mehr von Avoxa