KI spürt Cannabis-Risiken in Online-Posts auf |
| Jennifer Evans |
| 23.10.2025 07:00 Uhr |
Posts von Jugendlichen analysiert: Forschende nutzen ein KI-Modell, um Warnsignale zu Cannabis-Nebenwirkungen zu erkennen. / © Adobe Stock/Cavan
Ein Hilferuf im Internetforum »Reddit« lautete: »Bitte helfen Sie mir … Ich kann mich nicht beruhigen, ohne mich auf den Boden zu legen und gut 20 Minuten lang auszuflippen … Sollte ich medizinische Hilfe in Anspruch nehmen?« Die Person, die diesen Post absetzte, litt nach Cannabiskonsum mehrere Tage lang unter Panikattacken. Normalerweise bleiben solche Beiträge unbeachtet. Doch ein KI-Tool namens »Waldo« entdeckte den Post.
Das Forschungsteam ließ das KI-Modell mehr als 430.000 Einträge rund um Cannabiskonsum in Reddit-Foren durchsuchen. Dabei markierte es mehr als 28.000, die potenziell »unerwartete oder schädliche Nebenwirkungen« beschreiben. Eine Stichprobe zeigte, dass rund 86 Prozent dieser Beiträge tatsächlich von problematischen Erfahrungen berichteten. So das Ergebnis einer Untersuchung um den Hauptautor Karan Desai, Medizinstudent an der Medizinischen Fakultät der Universität Michigan, die im Fachjournal »PLOS Digital Health« veröffentlicht ist.
Wertvolle Gesundheitsdaten fließen also auch außerhalb offizieller Kanäle. Viele Menschen teilen ihre Erfahrungen auf Online-Plattformen, wo sie sich frei äußern können. Behörden wie die US-amerikanischen Centers for Disease Control and Prevention (CDC) erfassten Nebenwirkungen vor allem anhand von Umfragen oder direkten Meldungen – nicht jedoch über soziale Medien, wie der Experte für Informationstechnologie, Richard Lomotey, von der Penn-State-Universität gegenüber »Science News« sagte.
Desai und seine Kolleginnen und Kollegen konzentrierten sich nach eigenen Angaben zunächst auf Cannabisprodukte, da diese besonders verbreitet und gleichzeitig oftmals unreguliert sind. Zudem wies er darauf hin, dass viele junge Erwachsene bereits damit aufwachsen. Daher hält er es für wichtig zu verstehen, welche Nebenwirkungen diese Produkte auslösen.
Für die Entwicklung von Waldo nutzen die Forschenden zunächst eine Datengrundlage von 10.000 Reddit-Posts. Das KI-Modell lernte, potenzielle Risikosignale zu erkennen. Demnach übertraf es sogar ChatGPT – nicht jedoch die menschlichen Prüferinnen und Prüfer.