Jedes Jahr leistungsfähiger |
Allerdings kann die KI Suchergebnisse derzeit nicht angemessen bewerten oder sie in den Kontext mit anderem Wissen setzen. Wird einer KI lediglich einseitiges Datenmaterial bereitgestellt, etwa nur positive Studiendaten zu einer Arzneistoffgruppe ohne Berücksichtigung negativer Studiendaten oder abgebrochener Studien, reproduziert die KI unvermeidlich die gleiche Verzerrung (Bias) wie in den Daten, aus denen sie lernt. Aktuell ist die KI nicht in der Lage, vorliegende Daten kritisch zu analysieren und die Plausibilität ihrer Antwort zu bewerten.
Man könnte sagen, dass es der heutigen KI an »Allgemeinwissen« mangelt, was sie zu einer engen KI (Narrow AI) macht. Sie ist nicht in der Lage festzustellen, ob Eingaben einseitig oder vorurteilsbehaftet sind.
Manchmal produziert KI auch Unsinn – den zu erkennen, ist nicht immer so einfach wie hier. / © Adobe Stock/fotomek
Diese Fähigkeit entwickeln Menschen auch nur, wenn sie über genug Erfahrung und Kompetenz im relevanten Themenbereich verfügen und sich idealerweise mit anderen, ähnlich kompetenten Menschen dazu austauschen können. Dann können sie erkennen, wenn bestimmte Ergebnisse nicht plausibel oder unvollständig sind. Fehlt es an Allgemeinbildung oder Grundwissen, kann auch ein Erwachsener leicht durch selektives Aufsuchen einseitiger Informationen von völlig realitätsfremden Ansichten überzeugt werden – wie von der Annahme, dass die Erde eine Scheibe sei.
Große Hoffnungen richten sich derzeit auf die Entwicklung von KI, die dieses Fehlen von Allgemeinwissen überwindet. Damit würde sie den Sprung zu einer allgemein kompetenten KI (Artificial General Intelligence, AGI) schaffen.
Nach der sogenannten »Platonic Representation Hypothesis« wird ein KI-Modell mit steigender Größe irgendwann in der Lage sein, selbst die Realität zu modellieren (DOI: 10.48550/arXiv.2405.07987). Sie könnte dann sogenannte Metamodelle, also Modelle über Modelle, erstellen.
Solch ein Metamodell könnte zum Beispiel ein Modell für menschliche Verhaltensweisen entwickeln, abgeleitet aus eigenen und gelesenen Chatverläufen, Romanen und anderen Quellen. Dieses Modell könnte irgendwann das Verhalten von Menschen vorhersagen. Falls die Vorhersagen nicht vollständig zutreffen, würde das Modell kontinuierlich lernen und sich verbessern, um neue präzisere Vorhersagen zu treffen. Auf diese Weise werden die Vorhersagen schrittweise genauer.
Dies wäre für die KI eine Möglichkeit, die Qualität ihrer eigenen Antworten zu bewerten. Sie könnte sich durch rekursive Selbstverbesserung (Recursive Self Improvement, RSI) selbstständig zu einem besseren Modell mit neuartigen Kompetenzen machen. Durch Metamodelle über die Welt, die wieder verworfen und verbessert werden können, ergäbe sich eine wirklich eigenständig lernende KI.
OpenAI, Google und Facebook haben ihre Investoren davon überzeugt, dass sie schrittweise in diese Richtung gelangen können. Es ist allerdings unklar, wie lange es dauert, bis dies eintrifft: Jahre oder Jahrzehnte?