Decoder wandelt Gehirnsignale in Sprache um |
Theo Dingermann |
26.04.2019 08:00 Uhr |
Eine neue KI-Technologie erkennt neuronale Signale und übersetzt sie in hörbare Sprache. Ganze Sätze kann die Hirn-Computer-Schnittstelle erzeugen. / Foto: Chang lab/UCSF Dept. of Neurosurgery
Der neuronale Decoder nutzt kinematische und klangliche Darstellungen, die in der menschlichen kortikalen Aktivität codiert sind, um hörbare Sprache zu synthetisieren. Von dieser Entwicklung werden Menschen profitieren, die sich nicht mehr artikulieren können. Bisher kommunizierten die Betroffenen mit einer Technologie, bei der kleinste Muskelbewegungen einen Cursor steuern, der Buchstaben oder Wörter auf einem Bildschirm auswählt. Der britische Physiker Stephen Hawking war wohl der berühmteste Patient, der ein solches Gerät zur Sprachgenerierung nutzte, das durch einen Muskel in seiner Wange aktiviert wurde. Diese Technologie ist jedoch langsam, weshalb nach Alternativen gesucht wird, die auch von den enormen Fortschritten im Bereich der künstlichen Intelligenz (KI) profitieren können.
Ein solches Elektrodenset wurde in der Untersuchung verwendet, um die Gehirnaktivität der Probanden aufzuzeichnen. / Foto: UCSF
Das Forscherteam um Professor Dr. Edward F. Chang vom Department of Neurological Surgery, University of California San Francisco, arbeitete mit fünf Personen zusammen, denen im Rahmen einer Epilepsiebehandlung Elektroden ins Gehirn implantiert worden waren. Den Testpersonen wurden Sätze vorgelesen, während parallel dazu die Aktivitäten des Gehirns aufgezeichnet wurden. Zusätzlich kombinierte das Forscherteam diese Aktivitätsmuster mit Daten, aus denen Klangmuster auf Basis der Bewegungen von Zunge, Lippen, Kiefer und Kehlkopf abgeleitet wurden. Der resultierende, riesige Datensatz diente als Trainingsset für einen komplexen Lernalgorithmus, auf dessen Basis der Decoder dann Gehirnsignale in Bewegungen des Stimmtrakts und so in synthetische Sprache umwandeln konnte.
All dies funktioniert noch nicht perfekt. Aber immerhin konnten Testpersonen, denen 101 synthetisierte Sätze vorgespielt wurden, durchschnittlich 70 Prozent der Wörter verstehen. Allerdings räumen die Wissenschaftler selber ein, dass noch ein weiter Weg zu gehen ist, bis eine derart synthetisierte Sprache gut verständlich ist. Dennoch wurde die Studie als so relevant eingeschätzt, dass ihr eine Publikation in »Nature« zugestanden wurde.