Jedes Jahr leistungsfähiger |
Vom komplexen Menschen lernen, um sich selbst stetig weiterzuentwickeln: So könnte aus der aktuell etablierten einfachen künstlichen Intelligenz (KI) einmal eine allgemein kompetente KI werden. / © Adobe Stock/Alexander Limbach
Mit dem Begriff »künstliche Intelligenz« (KI) werden komplexe Programme beschrieben, die durch zusätzliche Daten lernen und sich verbessern können. Die Nobelpreise 2024 zeigen, dass dies zu Recht weltweit so wahrgenommen wird. Der Nobelpreis für Physik wurde an die KI-Grundlagenforscher John Hopfield und Geoffrey Hinton verliehen. Der Nobelpreis für Chemie ging an David Baker, Demis Hassabis und John M. Jumper für ihre bahnbrechenden Arbeiten zur Erforschung der Proteinstruktur. Mit ihren auf KI basierenden Rechenmodellen AlphaFold und RosettaFold wird es erheblich leichter, neue Arzneimittel zu entwickeln (siehe Titelbeitrag in PZ 6/2024).
Die heutige Leistungsfähigkeit der KI basiert auf umfangreichen Vorarbeiten zur Sprachverarbeitung und zu artifiziellen neuronalen Netzwerken (ANN). Diese Netzwerke orientieren sich an der Signalverarbeitung durch Neuronen. Künstliche Neuronen tauschen Daten aus und optimieren den Output durch Wichtung. Die Ergebnisse eines ANN können sich mit der Komplexität verbessern, die durch viele Neuronen in verschiedenen Schichten (»Layern«) erreicht wird, sowie durch effiziente Selbstoptimierung und qualitativ hochwertige Trainingsdaten.
Wissenschaft und Forschung sind ohne Digitalisierung und künstliche Intelligenz kaum mehr vorstellbar. / © Getty Images/Andrew Brookes
Der besondere Achtungserfolg von OpenAI durch ChatGPT 4.0 im Jahr 2023 beruhte auf der Verwendung sehr, sehr vieler öffentlich zugänglicher Daten aus dem Internet. Google+, YouTube, Instagram, TikTok, Facebook, X (ex Twitter), LinkedIn, Wikipedia, viele weitere Foren und Buchprojekte wurden dazu genutzt, ohne explizit um Erlaubnis zu fragen. Dieses viel größere Trainingsset führte zu Ergebnissen, die frühere Arbeiten deutlich übertrafen.
Die Verarbeitung der großen Datenmengen erforderte erhebliche und gewagte Investitionen in Rechenleistung. Das gekonnte Marketing spielte ebenfalls eine wichtige Rolle im Gesamterfolg von ChatGPT 4.0.
Künstliche Intelligenz benötigt leistungsfähige Rechner, um die erforderliche Komplexität zu bewältigen. Die Verwendung dieser großen Datensätze machte neue Hardware notwendig – und diese konnte von den Herstellerfirmen geliefert werden. Die nötigen erheblichen Investitionen in Hardware-Entwicklung entfalteten einen selbstverstärkenden Effekt, der wiederum den Einsatz größerer Modelle ermöglichte. Dies kam auch der Software-Entwicklung in anderen Bereichen zugute, etwa der Erforschung von Proteinstrukturen.
Die höhere Rechnerleistung steigerte auch den Strombedarf. Der Strombedarf für das Training neuer Modelle könnte möglicherweise bei etwa 62 GWh pro Modell (wie ChatGPT 4.0) liegen, was vergleichbar ist mit dem Verbrauch einer kleineren Großstadt wie Braunschweig innerhalb von etwa drei Wochen.
Das »Gespräch« mit einem Chatbot ist für die meisten Menschen bereits alltäglich. / © Adobe Stock/tippapatt
Die Internationale Energieagentur schätzt den weltweiten Energieverbrauch für alle KI-Anwendungen derzeit auf etwa 500 TWh (500.000 GWh) pro Jahr, ähnlich dem gesamten Energiebedarfs Deutschlands. Bei verstärktem Einsatz könnte der Verbrauch deutlich ansteigen. Dazu kommt noch ein erheblicher Wasserverbrauch bei der Herstellung der benötigten Chips.
Zudem war erhebliche menschliche Arbeitskraft erforderlich, um die Qualität der Antworten zu bewerten. Vorversionen von ChatGPT 3.5 und 4.0 wurden trainiert, indem Menschen die Antworten als gut oder schlecht klassifizierten. Dadurch wurde das System schrittweise an die Standards der Moderatoren angepasst und so die Qualität der Antworten verbessert. Allerdings führen sowohl fehlerhafte Trainingsdaten als auch die Subjektivität der Moderatoren bei generativer KI zu »Halluzinationen«, also Angaben, die faktisch inkorrekt oder irreführend sind.
KI wird mittlerweile in vielen Branchen im Marketing, im Kundenkontakt und bei der Abwicklung von Geschäftsprozessen eingesetzt. Illustration in der Werbung, zum Beispiel Kataloge von Modeanbietern und Möbelhäusern, werden meist mit KI erstellt. Es gibt viele virtuelle Influencer auf YouTube. Planungs- und Reisebüros, Baumärkte und die Post nutzen KI-basierte Dialogsysteme, um mit ihren Kunden zu chatten.
Solche Chatbots generieren leider auch immense Mengen an »KI-Slop«. Slop ist das Pendant zu Spam in E-Mails, also unerwünschte Nachrichten, welche die Nutzer manipulieren sollen. Dadurch kann es zu einer Überflutung mit Nachrichten kommen. Um relevante Informationen von irrelevanten zu unterscheiden – egal ob von Menschen oder KI-Systemen erstellt –, sind zusätzliche Filter erforderlich.
Slop birgt auch das Risiko, dass zukünftige KI-Systeme Schwierigkeiten mit ihrem eigenen Output bekommen. Schon heute stammen viele Online-Inhalte von generativen Modellen, weshalb sich viele Nutzer auf Plattformen mit Zugangsbeschränkungen zurückziehen.
Wenn öffentlich zugängliche Netzwerke fast ausschließlich synthetische Daten bieten, könnten KI-Systeme beginnen, sich selbst mit diesen Daten zu trainieren. Dies kann zu Problemen führen: Die Modelle funktionieren möglicherweise nicht mehr korrekt und produzieren immer mehr Nonsens. Bestenfalls machen sie keine weiteren Fortschritte.
Außer ChatGPT und anderen großen Sprachmodellen (Large Language Model, LLM) haben sich auch weitere KI-Anwendungen sehr erfolgreich weiterentwickelt. Einsatzgebiete sind zum Beispiel Sprachverarbeitung, Übersetzungen, Proteinstrukturbestimmung, Screening neuer Wirkstoffe und medizinische Bildverarbeitung.
Mittlerweile ist KI bei der Diagnose von Hautkrebs etwa genauso leistungsfähig wie menschliche Experten. Daher sind KI-Assistenzsysteme aus der Dermatologie nicht mehr wegzudenken (DOI: 10.1038/s41746-024-01103-x). Ein schönes Beispiel aus der pharmazeutischen Bildverarbeitung hat Apotheker Marc Kriesten geschaffen. Seine KI-basierte App kann den Hauttyp von Kunden sehr schnell und treffsicher beurteilen und empfiehlt daraufhin die richtige Pflege (www.glueckauf-apotheke-dinslaken.de). Die Einführung von erklärbaren KI-Systemen (eXplainable AI; XAI), die ihre Entscheidungsprozesse transparent machen, wird die Akzeptanz weiter steigern (DOI: 10.1038/s41467-023-43095-4).
Für komplexere Aufgaben in der Forschung, zum Beispiel Drug Repurposing, wird der Anfang bisher von KI-Systemen gemacht, die einem »Human-in-the-loop«-Ansatz folgen. Das bedeutet, dass sie eine weitreichende Einflussnahme des Menschen zulassen, bevor sie überhaupt zu einem Ergebnis kommen (DOI: 10.1038/s41467-021-27138-2).
Bei der Verwendung von KI-Systemen ist es immens wichtig, kritisch zu hinterfragen, wie gut sie trainiert und evaluiert wurden. Daher sind auch weitere Standards und Register in diesem Bereich nötig, zum Beispiel das AIME-Register (Registry for Artificial Intelligence in Biomedical Research; DOI: 10.1038/s41592-021-01241-0).
Zunehmend kann KI nicht nur pharmazeutische Aufgaben lösen (Kasten), sondern Studierende nutzen sie auch als Lernpartner. Derzeit ähnelt das Lernen mit KI dem Lernen mit einem durchschnittlichen Kommilitonen.
Studierende berichten, dass KI bei richtiger Nutzung selten konkret falsche Antworten liefere, jedoch neige sie zu langatmigen und allgemeinen Antworten. Gute Lehrbücher seien oft effizienter und kämen schneller zum Wesentlichen
Dies verdeutlicht, dass die Leistungsfähigkeit von KI maßgeblich von der Qualität der zugrunde liegenden Daten und auch vom exakten Prompting (Aufgabenstellung oder Befehl an die KI) abhängt.
© Adobe Stock/Robert Kneschke
Es ist erstaunlich, wie schnell sich die Leistungsfähigkeit von ChatGPT verbessert. Dies prüft die Arbeitsgruppe um die Autoren dieses Artikels laufend. Im Jahr 2023 lieferte der Chatbot beeindruckende Ergebnisse bei pharmazeutischen Aufgaben, zeigte aber noch eine Reihe von gravierenden Schwächen. Eine davon war eine Rechenschwäche.
Die neue Version ChatGPT 4o (»o« wie omni) löst an sich einfache Berechnungen anstandslos mit Angabe des Lösungswegs. Die Arbeitsgruppe fragte:
Hier die Antwort von ChatGPT 4o: Der neue pH-Wert des Magensafts nach der Einnahme von 187,5 mg NaHCO₃ beträgt ungefähr 1,59.
Eine zweite Aufgabe soll den Studierenden den Zusammenhang zwischen pKa-Werten und der Gleichgewichtskonstanten des Massenwirkungsgesetzes verdeutlichen:
Diese Aufgabe wird von Studierenden als schwer empfunden, aber Version 4o löst auch diese sehr gut. Die Antwort lautet: Der Wert der Gleichgewichtskonstanten K für die Reaktion von Essigsäure mit Ammoniak unter Standardbedingungen beträgt ungefähr 10⁴,⁵.
Den Lösungsweg für beide Aufgaben finden Sie hier:
https://cloud.tu-braunschweig.de/s/krZDBTzcX66BFxP
Erstes Staatsexamen würde bestanden
Auch Aufgaben für höhere Semester wurden getestet – mit klarem Ergebnis: ChatGPT 4o würde die meisten Klausuren bestehen. Es ist zurzeit noch etwas schwierig, Aufgaben mit Bildern zu lösen. Aufgaben des IMPP dürfen aus Gründen der Urheberrechte nicht für solche Untersuchungen verwendet werden. Nach Erfahrungen mit eigenen Aufgaben, welche die Lehrenden im 4. Semester verwenden und an den Schwierigkeitsgrad der Fragen für die Erste Pharmazeutische Prüfung (1. Staatsexamen) anpassen, würde ChatGPT 4o etwa 65 bis 70 Prozent der Punkte erzielen. Das entspricht einem leicht überdurchschnittlichen Ergebnis.
Unser Fazit: ChatGPT 4o kann Aufgaben übernehmen, die ein leicht überdurchschnittlicher Werksstudent übernehmen könnte. Zu einem ähnlichen Schluss kommt Bastian Strauß, ein Experte aus dem handwerklichen Bereich. Er sagt, man könne den Chatbot in einigen Bereichen wie einen guten Praktikanten einsetzen.
Ähnlich wie bei einem Praktikanten oder Werkstudenten muss man der KI die Aufgaben gut erklären und ihr eine gute Datenbasis geben, damit sie zum Erfolg kommt.
Die Zunahme der Leistungsfähigkeit von ChatGPT 4.0 zur aktuellen Version 4o1 (»o« wie omni) zeigt, dass es offensichtlich gelungen ist, die KI modular aufzubauen. Die KI entscheidet auf einer bestimmten Stufe, dass es sich um eine Rechenaufgabe handelt, und übergibt an das zuständige Modul.
Das menschliche Gehirn verfügt über spezialisierte Bereiche für verschiedene Aufgaben wie Sprachverarbeitung, Motorik, visuelle und akustische Wahrnehmung, Geruchssinn, Kurz- und Langzeitgedächtnis, räumliches Denken, Rechnen, Emotionen, Planung und Bewusstsein. Vergleichbar dazu könnte eine zukünftige KI aus mehreren spezialisierten Modulen bestehen: einem Sprachmodul, einem akustischen und optischen Modul, einem logischen Modul, einem Gedächtnismodul für die Datenspeicherung und verschiedenen bewertenden Modulen. Ein Bewertungsmodul könnte beispielsweise die Verlässlichkeit der Aussagen beurteilen und Konfidenzintervalle angeben. Eine weitere Komponente könnte das Modell mithilfe von menschlichem Feedback an die Benutzerwünsche anpassen.
Langfristig ist dies das Ziel: Statt immer größere Universalmodelle zu konstruieren, sollte man spezialisierte kleinere Modelle bauen. Diese könnten die jeweiligen Aufgaben wahrscheinlich besser bewältigen und zudem würde der Ressourcenbedarf deutlich verringert. Deep Seek geht dabei gerade mit gutem Vorbild voran und zeigt, dass es auch mit einem Bruchteil der Ressourcen mit dem bisherigen Marktführer OpenAI mithalten kann.
Ähnlich wie bei Lebewesen Erinnerung und Erfahrung von entscheidender Bedeutung sind, spielt die Datenbasis für die KI eine zentrale Rolle. Die Leistungsfähigkeit selbstlernender Systeme hängt entscheidend von der Qualität der Daten ab, mit denen sie trainiert werden. Die Leistungsfähigkeit von ChatGPT (und damit von Microsoft Copilot und Bing), gemini, Llama, Mistral und neuerdings Deep Seek basiert auf umfangreichen Datensätzen.
Darüber hinaus sind eigene Daten (Content) sehr wichtig. So kann sehr viel Spezialwissen einer Disziplin berücksichtigt werden. In der Pharmazie sind dies unter anderem das Wissen aus Lehrbüchern, der Inhalt der Arzneibücher und Kommentare, klinische Studien und Therapieleitlinien.
© Adobe Stock/PhotoSG
An dieser Stelle spielen Urheberrechte eine große Rolle. Spezialwissen entsteht unter erheblichem Aufwand und Verlage finanzieren sich durch den Erwerb und Weiterverkauf von Autorenwerken. Daher müssten sich KI-Entwickler und Verlage über die Verwendung urheberrechtsgeschützter Werke einig werden. Die Verhandlungen werden voraussichtlich nicht mit der schnellen Weiterentwicklung der KI Schritt halten.
Wahrscheinlicher ist, dass einzelne Nutzer gezielt das benötigte Spezialwissen erwerben, beispielsweise in Form von PDF-Dateien, und in ihrem persönlichen Bereich anwenden. Diese Vorgänge spielen sich dann außerhalb der Kontrolle durch die Urheber des Materials ab. Wenn keine anderen Nutzer Zugriff bekommen, ist die Frage der Urheberrechte nach heutiger Rechtslage nur relevant, wenn im Kaufvertrag etwas über die digitale Nutzung vereinbart ist. Die Informationssuche kann nach wie vor regelbasiert (algorithmisch) auf Basis von Stichwörtern erfolgen, also mit den klassischen Suchfunktionen in Texten. Die Ergebnisse können anschließend von einer KI zusammengefasst und dargestellt werden.
Zudem kann die Methode der Retrieval Augmented Generation (RAG), eingebettet in ein Large Language Model (LLM), eingesetzt werden (Grafik). Derzeit gibt es mehrere konkurrierende Ansätze, und es bleibt spannend, welcher sich als der erfolgreichste erweisen wird.
Der aktuelle Stand der Technik ermöglicht es der KI, als Agent ähnlich einem Bibliothekar zu agieren. Die KI kann eine Liste von Quellen bereitstellen oder dem Nutzer helfen, große Mengen an Antworten einzugrenzen. Dies kann beispielsweise durch die Filterung nach Publikationsjahren oder thematischen Gebieten geschehen, um relevantere und fokussierte Suchergebnisse zu erzielen. Dies hilft den Nutzern, effizienter mit umfangreichen Datenmengen umzugehen und spezifische Informationen schneller zu finden.
© PZ/Stephan Spitzer
Die Leistungsfähigkeit von künstlicher Intelligenz kann durch den Einsatz spezifischer Kontexte erheblich gesteigert werden. Verschiedene Methoden ermöglichen die Integration spezialisierter Informationen in ein allgemeines Modell. Eine bewährte Technik ist die hier gezeigte Retrieval Augmented Generation (RAG). Dabei wählt der Nutzer relevante Zusatzmaterialien, zum Beispiel Gesetze, Regelwerke oder Lehrbücher, und erstellt aus dem Material mithilfe eines kleineren spezialisierten Sprachmodells, dem Embedding-Modell, eine Vektordatenbank, die sowohl Schlagworte als auch semantisch verknüpfte, komplexere Inhalte enthält. Wenn der Nutzer eine Anfrage stellt, wird diese mit dem Verlauf vorheriger Anfragen kombiniert. Zudem wird die Vektordatenbank nach weiterem relevanten Kontext durchsucht. Die gesammelten Informationen – bestehend aus der konkreten Anfrage, dem bisherigen Verlauf und den spezialisierten Inhalten – bilden gemeinsam den Prompt, der an das große Sprachmodell (LLM) übergeben wird. Dank dieses informationsreicheren Prompts kann das LLM erheblich präzisere und effektivere Antworten liefern.
Allerdings kann die KI Suchergebnisse derzeit nicht angemessen bewerten oder sie in den Kontext mit anderem Wissen setzen. Wird einer KI lediglich einseitiges Datenmaterial bereitgestellt, etwa nur positive Studiendaten zu einer Arzneistoffgruppe ohne Berücksichtigung negativer Studiendaten oder abgebrochener Studien, reproduziert die KI unvermeidlich die gleiche Verzerrung (Bias) wie in den Daten, aus denen sie lernt. Aktuell ist die KI nicht in der Lage, vorliegende Daten kritisch zu analysieren und die Plausibilität ihrer Antwort zu bewerten.
Man könnte sagen, dass es der heutigen KI an »Allgemeinwissen« mangelt, was sie zu einer engen KI (Narrow AI) macht. Sie ist nicht in der Lage festzustellen, ob Eingaben einseitig oder vorurteilsbehaftet sind.
Manchmal produziert KI auch Unsinn – den zu erkennen, ist nicht immer so einfach wie hier. / © Adobe Stock/fotomek
Diese Fähigkeit entwickeln Menschen auch nur, wenn sie über genug Erfahrung und Kompetenz im relevanten Themenbereich verfügen und sich idealerweise mit anderen, ähnlich kompetenten Menschen dazu austauschen können. Dann können sie erkennen, wenn bestimmte Ergebnisse nicht plausibel oder unvollständig sind. Fehlt es an Allgemeinbildung oder Grundwissen, kann auch ein Erwachsener leicht durch selektives Aufsuchen einseitiger Informationen von völlig realitätsfremden Ansichten überzeugt werden – wie von der Annahme, dass die Erde eine Scheibe sei.
Große Hoffnungen richten sich derzeit auf die Entwicklung von KI, die dieses Fehlen von Allgemeinwissen überwindet. Damit würde sie den Sprung zu einer allgemein kompetenten KI (Artificial General Intelligence, AGI) schaffen.
Nach der sogenannten »Platonic Representation Hypothesis« wird ein KI-Modell mit steigender Größe irgendwann in der Lage sein, selbst die Realität zu modellieren (DOI: 10.48550/arXiv.2405.07987). Sie könnte dann sogenannte Metamodelle, also Modelle über Modelle, erstellen.
Solch ein Metamodell könnte zum Beispiel ein Modell für menschliche Verhaltensweisen entwickeln, abgeleitet aus eigenen und gelesenen Chatverläufen, Romanen und anderen Quellen. Dieses Modell könnte irgendwann das Verhalten von Menschen vorhersagen. Falls die Vorhersagen nicht vollständig zutreffen, würde das Modell kontinuierlich lernen und sich verbessern, um neue präzisere Vorhersagen zu treffen. Auf diese Weise werden die Vorhersagen schrittweise genauer.
Dies wäre für die KI eine Möglichkeit, die Qualität ihrer eigenen Antworten zu bewerten. Sie könnte sich durch rekursive Selbstverbesserung (Recursive Self Improvement, RSI) selbstständig zu einem besseren Modell mit neuartigen Kompetenzen machen. Durch Metamodelle über die Welt, die wieder verworfen und verbessert werden können, ergäbe sich eine wirklich eigenständig lernende KI.
OpenAI, Google und Facebook haben ihre Investoren davon überzeugt, dass sie schrittweise in diese Richtung gelangen können. Es ist allerdings unklar, wie lange es dauert, bis dies eintrifft: Jahre oder Jahrzehnte?
Es gibt weitere Alternativen, wie der Durchbruch zur rekursiven Selbstverbesserung und damit zur AGI erreicht werden könnte. Möglicherweise kann KI weiterentwickelt werden, indem Mechanismen der biologischen Intelligenz teilweise adaptiert werden.
Könnte es Module für Skepsis und Urteilskraft geben und wären diese Eigenschaften in die erwähnten Qualitätsmodule integrierbar? Ist es möglich, mit gutem menschlichen Feedback ein Bewertungsmodell zu schaffen? Es gibt umfangreiche Literatur über die Grundlagen der Entscheidungsfindung, etwa aus der Psychologie, der Betriebswirtschaft und Unternehmensführung oder der Philosophie. Was geschieht, wenn diese Literatur zum Training verwendet wird? Könnten LLM sie als Grundlage für eigenständige Entscheidungen nutzen? All dies sind spannende und offene Fragen.
Erfolgen wird der Durchbruch zur AGI fast sicher, denn die Entstehung von Intelligenz war sogar durch biologische Evolution, also durch eine Reihe von Zufällen und Selektionsmechanismen, möglich. Dies hat allerdings relativ lange gedauert.
Es gibt bereits heute einige Anwendungen, die für jede Apotheke nützlich sein können. Eine davon ist das Call-Screening: Eine KI kann rund um die Uhr Anrufe entgegennehmen, einfache Aufgaben wie Bestellungen oder Terminvereinbarungen selbst erledigen und das Telefongespräch in ein Support-Ticket umwandeln. Das Apothekenpersonal kann dann in ruhigeren Zeiten auf diese Tickets reagieren und gegebenenfalls zurückrufen.
Eine weitere Aufgabe, die KI mühelos bewältigen kann und dabei viel menschliche Arbeitskraft spart, ist das Auswerten von Belegen. Bisherige Optical-Character-Recognition-(OCR-)Software kann zwar gut mit Druckschrift umgehen, scheitert aber noch an simplen Checkboxen, Tabellen und Handschrift.
Die Automatisierung und Digitalisierung der Warenwirtschaft in Apotheken können bereits heute Prozesse erheblich vereinfachen und menschliche Arbeit reduzieren. Eine Apotheken-KI könnte zudem Bestell- und Lieferlisten automatisch abgleichen und Buchungen für die richtigen Konten vormerken; diese müssten lediglich bestätigt werden. Die Abrechnungen mit den Großhändlern könnten automatisch erfolgen. Auch bei der Abrechnung mit Krankenkassen ist möglicherweise eine große Arbeitsersparnis möglich, wenn leistungsfähige Software zur Verfügung steht.
Wenn die Geschäftszahlen digital vorliegen, können Rentabilität und Liquidität kontinuierlich überwacht werden. Geschäftsberichte können jederzeit und individuell nach bestimmten Aspekten wie Rendite, Nachhaltigkeit und Mitarbeiterzufriedenheit erstellt und Verkaufsdaten für die zukünftige Bevorratung analysiert werden.
Das Management von Lieferengpässen würde erleichtert, auch wenn eine schnelle Defektliste nicht zu neuen Beständen führt. Allerdings kann der Arzneimittelbedarf der nächsten Wochen möglicherweise besser vorhergesagt werden, um beispielsweise auf eine sich abzeichnende Erkältungswelle vorbereitet zu sein. Nicht zuletzt kann KI die Erstellung und Aktualisierung der Webseiten einer Apotheke erheblich erleichtern.
Viele dieser Prozesse sind bereits umsetzbar, sobald Daten digital vorliegen. Klassische regelbasierte Algorithmen reichen oft aus, um zahlreiche Fragen zu beantworten. Der Einsatz von KI wird erforderlich, wenn es darum geht, Muster in den Daten zu erkennen, die nicht exakt, aber ähnlich zu vorhandenen Vergleichsdaten sind.
Ist auch die Beratung zu »einfachen« Kundenfragen zur Selbstmedikation denkbar? Um diese Frage zu beantworten, muss man definieren, was einfache Fragen sind und ab wann die Fragen zu komplex werden. Diese Abgrenzung ist schwierig. Deshalb sagt die KI-Strategie der ABDA, dass zunächst nur eine Unterstützung bei der persönlichen Beratung möglich ist.
Wichtig ist daher – zumindest für die nächsten Jahre –, dass KI immer nur empfehlenden Charakter hat; dies entspricht einem Antrag auf dem Deutschen Apothekertag 2024. Die KI kann aber eine Brücke zwischen Mensch und Technik schlagen. Dazu sind Datensicherheit und Transparenz erforderlich.
Auch der »einfache« Einsatz von KI wird übrigens seit August 2024 in einer EU-Richtlinie geregelt (Artificial Intelligence Act) und der Einsatz im Gesundheitswesen unterliegt einer besonderen Sorgfaltspflicht. Nach Ablauf einer Übergangsfrist von zwei Jahren muss unter anderem gewährleistet werden, dass die KI gemäß der Betriebsanleitung bestimmungsgemäß eingesetzt wird.
© Getty Images/We-Ge
Hier der Original-Output von ChatGPT 4o am 27. November 2024 mit den Prompts:
»Und jetzt habe ich noch eine lustige Aufgabe: Bitte schreibe einen kurzen Dialog zwischen einem Karnevalsjecken aus Düsseldorf und einer Apothekerin. Der Jeck spricht rheinischen Dialekt und hat nach dem Rosenmontagsumzug Katerbeschwerden. Die Apothekerin berät ihn, was er dagegen tun kann und welche Arzneimittel dazu infrage kommen.«
Und nach einer zu stark dialektgeprägten Version heißt der zweite Prompt:
»Das gefällt mir schon ganz gut. Da die Szene in Düsseldorf spielt, sagen die Akteure nur »Helau« und nie »Alaaf«. Und die Apothekerin spricht im wesentlichen Hochdeutsch, vielleicht mit ein paar rheinischen Ausdrücken. Kannst Du das bitte mit diesen Vorgaben noch einmal wiederholen?«
Der kleine Fehler im letzten Satz des Jecken wurde bewusst nicht korrigiert.
Wie sich KI das Beratungsgespräch vorstellt
Jeck: »Helau! Mensch, wat war dat für’n Umzug! Aba jetz haut mich der Kater weg. Mein Kopp hämmert wie en Trommelkorps! Wat kann isch do maache?«
Apothekerin: »Helau! Da haben se aber joot jefiert, wat? Keine Sorge, dat kriegen mer hin. Wichtig ist zuerst, dass Sie ganz viel Wasser trinken. Und ich hab auch noch paar Tipps für Sie.«
Jeck: »Jo, Wasser hab ich schon en paar Pittermännchen innen Kopp jeschütt, aba wat künnte mer noch helfe?«
Apothekerin: »Wie wär’s mit Brausetabletten voller Elektrolyte, die bringen Sie wieder in Schwung. Un wenn der Kopf weiterhin lärmt, dann könnten Sie ein mildes Schmerzmittel wie Paracetamol nehmen.«
Jeck: »Dat jeht runter wie Öl! Un wat für’n Zuckerleckerli för den Magen? Heißt doch, wat Süßes kann och net schade.«
Apothekerin: »Vielleicht ne Banane, die gibt en schnellen Energieschub und tut auch dem Bauch gut. Un lassen Sie es ruhig angehen heute, ein letzter Karnevalstag ist schließlich auch ein Ruhetag!«
Jeck: »Joot, dat klingt wie Musik in meinen Ohren. Dann danke ich Ihnen, ich bin gleich wieder fit für den Endspurt gestern! Helau und vielen Dank!«
Apothekerin: »Helau! Und passen Sie gut auf sich auf, nächstes Jahr trinken wir alle ein Gläschen weniger, dat wäre vielleicht besser! Prost!«
Wie beschrieben, reicht eine sehr große Datenbasis nicht, um den menschlichen Sachverstand zu ersetzen. Derzeit wird KI zwar jede Information finden, aber auch alles nachplappern. Die technischen Modelle haben keine Urteilskraft, welche Information besser wäre als eine andere widersprechende, und können Verzerrungen, Vorurteile oder bewusste Täuschung nicht erkennen. Sind weitere Entwicklungen möglich und ist das überhaupt wünschenswert? Diese Fragen erfordern eine intensive gesellschaftliche Diskussion.
Auch eine hoch entwickelte KI wird nicht immer das sagen, was ein Mensch selbst als korrekt empfindet. Subjektivität lässt sich nicht vermeiden. Jeder, der eine KI aufbaut und trainiert, wird ihr automatisch die eigene Weltanschauung antrainieren.
Hier hat KI allenfalls unterstützende Funktion. / © Getty Images/SimpleImages
Auch Slop ist problematisch, denn dadurch kommt es zu einer Überflutung des Internets mit Nachrichten, die keiner mehr moderieren oder überschauen kann. KI-Systeme, die versuchen, sich mit den selbst generierten Daten weiterzuentwickeln, werden sehr wahrscheinlich keine Fortschritte machen.
Der für KI erforderliche Stromverbrauch ist bereits heute erheblich und wird stark zunehmen. Andererseits ist mit effizienteren Rechnern und Programmen zu rechnen. Der Aufbau von Kraftwerken für regenerative Energien kann Hand in Hand mit dem Fortschritt künstlicher Intelligenz gehen.
Diesen problematischen Aspekten stehen viele Vorteile gegenüber: Computer ermüden nicht, können Daten sehr schnell verarbeiten und auf umfangreiche Datenbanken zugreifen. Bereits heute ist KI in der Lage, mindestens mittelschwere logische Überlegungen anzustellen. In Apotheken kann sie sowohl im Backoffice als auch in der Offizin eine wertvolle Unterstützung darstellen. Bevor sie jedoch pharmazeutischen Sachverstand ersetzen kann, ist noch sehr viel Weiterentwicklung erforderlich.
Wir haben diesen Artikel zunächst ohne KI geschrieben. Zu einzelnen Absätzen haben wir uns im Anschluss alternative Formulierungsvorschläge von ChatGPT 4o angesehen und diese teilweise übernommen. Wir bedanken uns bei Isabel Astner, Wolfgang Fritz, Jana Haegner, Tim Kacprowski, Nelly Chu Van Lam Luong und Jannis Wowra für ihre Anmerkungen zu Vorläuferversionen dieses Artikels.
Robert Hübner ist als Fachinformatiker bei der Technischen Universität Braunschweig angestellt und sorgt dafür, dass Dozenten und Forschende der TU im digitalen Umfeld reibungslos arbeiten können. Eine seiner Aufgaben ist es, die ständigen technischen Neuerungen für seine Kollegen nutzbar zu machen. Daher beschäftigt er sich auch mit Anwendungen der künstlichen Intelligenz.
Hermann Wätzig forscht und lehrt an der Technischen Universität Braunschweig. Er leitet die Fachgruppe Arzneimittelkontrolle/Pharmazeutische Analytik der Deutschen Pharmazeutischen Gesellschaft und ist Herausgeber der Zeitschrift »Electrophoresis«. Professor Wätzig ist Mitglied der Arzneibuch-Kommission des BfArM und Experte der Europäischen Arzneibuch-Kommission. Wissenschaftlich interessieren ihn alle Fragen der pharmazeutischen Qualität mit den Schwerpunkten Trenntechniken, Biopharmazeutika und neuerdings künstliche Intelligenz.