Hilfe bei Sprachbehinderungen

Gehirn-Computer-Schnittstelle übersetzt neuronale Signale in Sprache

Gehirn-Computer-Schnittstelle übersetzt neuronale Signale in Sprache

Eine Gehirn-Computer-Schnittstelle hat erfolgreich neuronale Signale in Sprache umgewandelt. In Zukunft könnte die Technologie Menschen mit Sprachbehinderungen oder Sprachverlust die Sprechfähigkeit zurückgeben. Dazu müssten die betroffenen Personen lediglich einen Satz denken, um die so erzeugten Hirnsignale als natürliche Sprache ausgegeben werden.

San Francisco (U.S.A.). Wissenschaftler der University of California in San Francisco haben im Fachmagazin Nature eine Studie veröffentlicht, die zeigt, dass sich gedachte Sätze anhand aufgezeichneter Hirnströme mit einem Computer in Sprachausgaben umwandeln lassen. In Zukunft könnte die Technologie Personen, die aufgrund von Schlaganfällen, schweren neuronalen Krankheiten oder Unfällen mit Hirnschäden ihre Sprechfähigkeit verloren haben diese wieder zurückgeben. Im Januar haben Wissenschaftler der Columbia University im Fachmagazin Scientific Reports bereits eine ähnliche Studie veröffentlicht.

Im Gegensatz zu den Wissenschaftlern der University of California, die es geschafft haben komplette Sätze anhand von Hirnströmen auszulesen, konnten die Wissenschaftler der Columbia University lediglich die Zahlen eins bis neun erkenne. Edward Chang von der Universität of California erklärt, dass sein Team „zum ersten Mal zeigen konnte, dass es möglich ist ganze gesprochene Sätze aus der Hirnaktivität von Menschen zu generieren. “

Direktes Auslesen von Wörtern schlecht möglich

Vorherige Experimente der Wissenschaftler haben gezeigt, dass es kaum möglich ist ganze Sätze über die neuronalen Signale des Sprachzentrums des Gehirns auszulesen. Stattdessen nutzten die Neurologen einen Zwischenschritt, bei dem die Hirnströme des Vokaltrakts ausgelesen werden. Der Vokaltrakt ist ein Teil des Großhirns, der die Koordination der Zunge, der Lippen, des Kiefers und des Kehlkopfs kontrolliert und so für die Erzeugung von Tönen sorgt.

Studie mit fünf Teilnehmern

Im nächsten Schritt haben die Wissenschaftler ihre Theorie anhand von fünf Probanden untersucht, die nicht unter Sprachverlust leiden. Stattdessen wurden Personen ausgewählt, deren Hirnaktivitäten aufgrund anderer Erkrankungen bereits über implantierte Elektroden überwacht werden. Die Probanden haben dann mehrere hundert Sätze laut vorgelesen während parallel dazu die neuronalen Signale des Vokaltrakts aufgezeichnet wurden. Anschließend wurde ein neuronales Netz mit den Daten trainiert, dass die jeweiligen Sprechbewegungen und Hirnströme einzelnen Wörtern zugeordnet hat. Da sich die neuronalen Signale auch bei gleichen Wörtern zwischen den einzelnen Probanden deutlich unterschieden haben, ist es nötig das neuronale Netzwerk für jede Person mit individuellen Trainingsdaten zu versorgen.

Anschließend haben die Neurologen einen virtuellen Vokaltrakt entwickelt, den die Probanden mit ihren neuronalen Signalen steuern konnten. Dazu hat eine künstliche Intelligenz die Hirnströme ausgewertet, den jeweiligen Wörtern zugeordnet und an den virtuellen Vokaltrakt geschickt, dessen Algorithmus anhand der Signale hörbare Sprache erzeugt hat. Testpersonen, die die Qualität der erzeugen Sprachausgabe beurteilen sollten, gaben an, dass einzelne Wörter zu 69 Prozent gut verständlich waren, bei ganzen Sätzen waren es immerhin 43 Prozent.

Im finalen Schritt der Studie, hat ein weiterer Proband statt die Sätze laut vorzulesen lediglich die entsprechenden Sprechbewegungen ausgeführt. Auch die so aufgezeichneten Hirnströme konnten erfolgreich zur Erzeugung von Sprachausgabe genutzt werden, die Qualität wurde von den Testpersonen allerdings als niedriger eingestuft.

Praxiseinsatz erfordert weitere Verbesserungen

Eine Person mit Muskellähmungen, die keine Sprechbewegungen ausführen und daher die Sätze nur gedanklich wiedergeben kann, wurde in der aktuellen Studie noch nicht untersucht.

Bis die Technologie, deren Entwicklung noch am Anfang steht, wirklich behinderten Personen helfen kann, sind also noch deutliche Verbesserungen möglich. Auch die Neuroingenieure Chethan Pandarinath und Yahia Ali, die einen Kommentar zur Studie veröffentlicht haben, bewerten die Fortschritte als „überzeugend“, weisen aber auch daraufhin, dass noch „viele offene Herausforderungen bestehen.“

Die Wissenschaftler der University of California erhoffen nun, in weiteren Studien Möglichkeiten zu finden Sprache allein anhand von Gedanken zu erkennen, ohne dass dafür Sprechbewegungen nötig sind. Es würde dann ausreichen einen Satz nur zu denken, um eine Computersprachausgabe zu erzeugen.

0 Kommentare

Schreib uns deine Meinung
Diese Seite ist geschützt durch reCAPTCHA und es gelten folgende Datenschutzerklärung und Nutzungsbedingungen von Google.