| Alexander Müller |
| 20.01.2026 14:00 Uhr |
Der Philosoph Professor Dr. Markus Gabriel sprach beim Pharmakon Schladming über Ethische Intelligenz. / © Alois Mueller
info@amfotos.com
Professor Dr. Markus Gabriel ist Inhaber des Lehrstuhls für Erkenntnistheorie, Philosophie der Neuzeit und Gegenwart an der Rheinischen Friedrich-Wilhelms-Universität Bonn, dort außerdem Direktor des Internationalen Zentrums für Philosophie NRW. Seinen Vortrag über »Ethische Intelligenz« beim Bankabend der Deutschen Apotheker- und Ärztebank (Apobank) im Rahmen des Pharmacon Schladming eröffnete er mit einem kleinen Rückblick über die Geschichte Künstlicher Intelligenz (KI).
Auch wenn KI-Anwendungen erst in den vergangenen Jahren zum beherrschenden Thema geworden sind, geht die Entwicklung zurück bis in die 1930er-Jahre. Zugrunde liegt die einfache Formel: Was ein Mensch kann, kann eine Maschinen besser. Bei großen Rechenaufgaben war das schnell bewiesen. Dennoch glaubte der Mensch immer wieder, dass es Bereiche gibt, in denen er der KI überlegen bleibt.
Doch die intellektuellen Bastionen fielen eine nach der anderen: Gegen einen Schach-Computer ist selbst der Weltmeister schon seit etlichen Jahren chancenlos. Zudem weisen moderne KI-Systeme eine höhere emotionale Intelligenz auf als die meisten Psychotherapeuten, wie Gabriel ausführte.
Also hat sich der Mensch auf das Element des Lebendigen zurückgezogen. Es sei »ein schöner, aber frommer Glaube«, dass Intelligenz nur da existieren kann, wo es »Wetware« gibt, also lebendige Materie in Abgrenzung zu Soft- und Hardware. »Wir wissen einfach heute nicht genau, was Leben ist«, so Gabriel, der in diesem Zusammenhang auf kulturelle Unterschiede verwies, wie die Tatsache, dass in Japan Berge als Lebewesen gelten.
Als einen Wendepunkt markiert er das Jahr 1986, als künstliche neuronale Netze entstanden und Algorithmen verwendet wurden, die Trial-and-Error modellieren können. Damit wurde das Training der Maschinen tiefer und komplexere Architekturen möglich. Die Systeme können sich damit Datensätzen selbst nähern und feststellen, ob sie die Daten gut erfassen oder nicht. »Diese Systeme testen immer weiter, bis sie das Muster erkennen.«
Der mathematische Beweis, dass Maschinen solche Leistungen effizienter erbringen können als Menschen, ist also alt. Überraschend war dann eher, wie schnell das in immer neuen Bereichen ging. Im »KI-Winter« in den 1980er- und 1990er-Jahren sei die Rechenleistung einfach noch zu teuer gewesen, erklärte Gabriel.
Was die ab 2017 entwickelten GPT-Modelle können, ist, Aufmerksamkeit zu modellieren. Damit war Gabriel zufolge das nächste vermeintliche Hoheitsgebiet menschlicher Intelligenz gefallen: Kontexte zu verstehen. Dabei »hilft« der KI, dass auch der Mensch nicht aus rationalen Motivationen lebt. »Die Wirklichkeit besteht nicht aus Tatsachen und rationalen Prozessen, sondern aus mehr oder weniger zufälligen Situationen«, so Gabriel. Freiheitsgrade in der Entscheidung gebe es zwar, aber wenn wir Hunger haben, ist das Stück Kuchen vor uns die logische Lösung. Besser: Es erscheint uns als diese. »Wir manövrieren durch Kontextverstehen«, sagte Gabriel.
Dass die KI mittlerweile Kontexte verstehen kann, ist dem Philosophen zufolge der große Durchbruch. Sam Altman, Geschäftsführer des ChatGPT-Anbieters OpenAI, habe 2024 erkannt, dass KI mittlerweile im Stande ist, zwischen den Zeilen zu lesen. Und während billige GPT-Systeme ein kurzes Kontext-Gedächtnis haben – sie leiden laut Gabriel »unter schweren neurodegenerativen Erkrankungen« – haben die neueren Systeme größere Kontextfenster. Deswegen verliebten sich Menschen in ihre KI, deswegen gebe es dramatische Fälle von KI-motivierten Suiziden.
Fakt ist: Die KI hat längst den Bereich des Emotionalen betreten. 86 Prozent der Suchanfragen bei ChatGPT drehten sich 2022 um Lebensprobleme wie »Soll ich meinen Partner verlassen oder nicht?« oder Fragen zum Job. »Wir sind in einem postfaktischen Zeitalter angelangt. Die KI-Modelle steuern die emotionale Ebene an und nicht die rationale«, so Gabriel.
Systeme wie »Grok«, der KI-Chatbot von X, seien dabei geradezu bösartig. »Und das ist brandgefährlich, denn es gibt keine Regulation dafür.« Der EU AI Act war Gabriel zufolge schon veraltet, als er veröffentlicht wurde. »Bürokraten in Brüssel werden das Silicon Valley nicht stoppen«, so seine düstere Prognose.
Der Schlüssel im Umgang mit KI ist laut Gabriel die Ethik. Im Menschlichen Zusammenleben gibt es moralische Tatsachen; etwa die Verpflichtung, ein Kind zu retten, das im flachen Wasser zu ertrinken droht. Die Methode der Ethik besteht nun darin, Äquivalenzklassen zu finden. Komplexere Fälle lassen sich mathematisch in einfache Einzelschritte zerlegen – und das kann die KI auch. Und aus kommunikativen Mustern liest die KI unsere Emotionen.
KI dürfe man sich heute nicht mehr als fremdes System vorstellen, das auf einem Server liegt. KI ist laut Gabriel eine interaktive Schnittstelle, ein »magischer Spiegel« zwischen Mensch und Gerät. »Deswegen funktioniert sie emotional.« Gegen die »Übergriffigkeit der Systeme« könne sich der Mensch nur wehren, wenn er in diesem Resonanzfeld besteht und es mit den eigenen positiven Werten füllt. Spannende Ansätze dafür sieht Gabriel in Japan, und das Königreich Bhutan habe für die öffentliche Verwaltung einen Buddha Bot entwickeln lassen, trainiert mit dem buddhistischen Kanon.
Die Zukunft könnte laut Gabriel so aussehen: »Mensch und Maschine werden über eine KI-Schnittstelle miteinander verschaltet, um ethische Probleme zu lösen. Das ist der Ansatz einer ethischen Intelligenz.« Eine »Ethik der KI« sei dagegen der Versuch, die KI zu zähmen, was nicht funktioniere. »Die Frage ist also: Wie können wir KI-Systeme entwickeln, mit denen zusammen wir unsere moralischen Probleme lösen, damit der Mensch nicht überflüssig wird.«
Die Teilnehmerinnen und Teilnehmer beim Pharmacon zeigten sich nicht unwillig, moralische Probleme der Menschheit zu lösen, sind im Berufsalltag aber eher mit Fällen konfrontiert, in der die eigene Fachkompetenz von der KI-Diagnose des Patienten herausgefordert wird. Gabriel kennt das Problem: »Die Kunden glauben, dass sie Gott in der Tasche haben.«
Gerade weil der Vertrauensverlust so teuer für alle Beteiligten sei, wünscht sich Gabriel einen »Fahrassistenten für die KI«. Es müsse verpflichtende Vorgaben geben, dass die KI erklärt, was sie macht, auf eigene Wissenslücken hinweist, Wahrscheinlichkeiten und die Quellen verlinkt. Spezialisierte KI-Systeme mit kuratierten Datenmodellen, die als Filter über eine KI gelegt werden, sieht er als großes Geschäftsmodell.