Donnerstag, 8. August 2019

Selbstgespräche Technologie kann Gedanken lesen und hörbar machen

Nicht alle Gedanken in unserem Kopf sind für die Öffentlichkeit bestimmt. Manche würden wir aber gerne festhalten für später. Wie praktisch wäre es, dann etwas zu haben, das unsere Gedanken direkt aufzeichnet. Genau so ein Gerät hat ein 24-Jähriger jetzt entwickelt.
Alter Ego ist ein tragbares Gerät, das hörbar macht, was wir denken. Die Technologie macht sich die Tatsache zunutze, dass unser Gehirn Signale an die Stimmbänder, den Hals und die Zunge sendet – und zwar egal, ob wir laut sprechen oder nur leise in unserem Kopf Selbstgespräche führen.
Das Wearable Alter Ego kann diese Signale abgreifen und mit Hilfe einer Künstlichen Intelligenz (KI) bestimmten Worten zuordnen. Der Träger oder die Trägerin des Geräts kann dann die Transkription der Worte über ein Headset hören. Das leitet die Antworten der KI direkt durch die Gesichtsknochen ins innere Ohr, so dass sie für Außenstehende unhörbar sind.
Entwickelt hat Alter Ego der 24-jährige Forscher Arnav Kapur. Der schreibt gerade am Massachusetts Institut for Technology (MIT) seine Doktorarbeit und hat in seinem noch jungen Forscherleben schon so einiges erfunden: Er hat eine Drohne aus dem 3D-Drucker entworfen, eine Audio-Technologie entwickelt, die sehbehinderten Menschen erzählt, wie die Welt um sie herum so aussieht. Und er hat am Mondfahrzeug Indus mitgearbeitet, das Indien im September 2019 auf den Mond schicken will.
Mit Alter Ego hat Arnav Kapur gerade den "Use it!" Lemelson-MIT Student Prize für innovative Technikprodukte gewonnen.

Hilfe für Menschen mit Sprachstörungen

Arnav Kapur gibt die Genauigkeit seines Systems mit 92 Prozent an. Das hat er bei mehreren Experimenten getestet – zuletzt in verschiedenen Rehabilitationszentren in Boston. Dort hat er Alter Ego mit Menschen ausprobiert, die Sprachstörungen haben, zum Beispiel aufgrund eines Schlaganfalls oder durch geschädigte Nerven im Gehirn oder Rückenmark. Die können ihre Sprechmuskeln zwar nicht mehr richtig nutzen, aber die Hirnsignale, die sie beim Denken aussenden, sind noch zu 100 Prozent intakt. Deswegen kann das Wearable erkennen, was sie sagen wollen und das in Sprache übersetzen.
Arnav Kapur kann sich aber auch die ganz alltägliche Nutzung von Alter Ego vorstellen. Er sagt, mit seinem Device habe man das perfekte Gedächtnis. Er hofft, dass es dazu beiträgt, dass Menschen KI nicht mehr als so bedrohlich empfinden, wenn sie verstehen, wie es unser tägliches Leben bereichern kann.
Ob das tatsächlich so ist, bleibt fraglich. Denn es lässt sich leicht erkennen, wo das Missbrauchspotential liegt. Zum Beispiel, wenn die Anwendung vom Militär oder von Ermittlungsbehörden in Diktaturen genutzt würde. Bis Alter Ego auf den Markt kommt, wird es noch eine Weile dauern. Aber Arnav Kapur hat es bereits zum Patent 

Dienstag, 6. August 2019

Sprachforscher Webseite

Yippie - die neue Sprachforscher  Webseite ist online. Mit der Lokomotive Schorschi Schnaufi spielerisch den Sch-Laut entdecken.
Wie gefällt euch unsere neue Website?
http://www.dersprachforscher.at/index.php?id=59

Freitag, 2. August 2019

Forscher leiten Sprache aus Hirnsignalen ab


Menschen, die die Fähigkeit zu sprechen verloren haben, müssen bisher Sprachassistenten oft per Augenbewegung oder Tastatureingabe steuern. Das erlaubt zwar eine Verständigung, aber nur langsam. Eine Sprachprothese wäre eine große Hilfe.

Bisher müssen Menschen, die nicht mehr sprechen können, sich mühsam über Sprachassistenten verständigen, die sie per Augenbewegung oder Tastatureingabe steuern. Nun schaffen es Forscher, Signale des Gehirns in Sprache zu übersetzen. Nächstes Ziel: die Entwicklung einer "Sprachprothese".
Forscher sind dem Ziel vom Gedankenlesen offenbar ein Stück näher gekommen: Erstmals sei es möglich, gehörte oder gesprochene Informationen aus einer Unterhaltung anhand der Messung von Hirnaktivitäten zu entschlüsseln, berichten Wissenschaftler um Edward Chang von der University of California in San Francisco. Die Erkenntnisse sollen helfen, eine der menschlichen Kommunikation angepasste Sprachprothese zu entwickeln, schreiben die Forscher im Fachblatt "Nature Communications".
Ein deutscher Experte spricht von einer "sehr spannenden Entwicklung". Chang und seine Mitarbeiter seien weltweit führend darin, Sprache aus Hirnsignalen zu decodieren, sagt Tonio Ball von der Uniklinik Freiburg, der nicht an der Arbeit beteiligt war.

"Bedeutende Verbesserung der Lebensqualität"

Das Verfahren könnte nach Angaben von Chang und Kollegen eines Tages Menschen helfen, die wegen eines Schlaganfalls oder neurodegenerativer Erkrankungen wie etwa Amyotropher Lateralsklerose (ALS) ihre Sprechfähigkeit verloren haben. "Die Wiederherstellung begrenzter kommunikativer Fähigkeiten ist mit einer bedeutenden Verbesserung der Lebensqualität verbunden. Doch es gibt bisher keine Sprachprothese, die so schnell ist wie eine menschliche Unterhaltung", schreiben die Forscher.
imago74570277h.jpg
Eine Sprachprothese soll Gedanken von Menschen als Sprache wiedergeben können.
(Foto: imago/Ikon Images)
Bisher müssen Betroffene Sprachassistenten oft per Augenbewegung oder Tastatureingabe steuern. Das erlaubt zwar eine Verständigung, aber nur langsam. Eine ideale Sprachprothese sollte nach Ansicht der Forscher Gedanken von Menschen als Sprache wiedergeben können - möglichst in Echtzeit.
Für ihr Programm untersuchten die Wissenschaftler drei Menschen, die wegen einer Epilepsie direkt auf dem Kortex, also der Großhirnrinde, aufliegende Elektroden-Matten trugen. Die Elektroden zeichneten die Hirnaktivität - insbesondere des Sprach- und Hörzentrums - zunächst während einer nachgestellten Unterhaltung auf. Dazu hörten die Teilnehmer Fragen wie "Welches Musikinstrument hören sie gerne?". Anschließend mussten sie aus einer vorgegebenen Auswahl von Antworten, die auf dem Bildschirm angezeigt wurde, eine wählen und sprechen - etwa "elektrische Gitarre".
Währenddessen maßen die Forscher per Elektrokortikogramm (ECoG) die elektrischen Impulse der Nervenzellen, die beim Hören und Sprechen aktiviert wurden. Aus den Messwerten bestimmte das Team mithilfe einer Software, welche Fragen die Teilnehmer gehört oder welche Antworten sie gegeben hatten. In mehr als 85 Prozent der Fälle ermittelten die Wissenschaftler korrekt, ob die Teilnehmer eine Frage gehört oder eine Antwort gegeben hatten.
Die richtige Antwort konnte das Verfahren dann zuverlässiger abschätzen, wenn bekannt war, welche Frage gestellt worden war. Je besser das Programm mit der Zeit verschiedene neuronale Muster auseinander halten konnte, desto zuverlässiger konnte es auch die Antworten vorhersagen. Insgesamt war es den Wissenschaftlern zufolge möglich, bis zu 61 Prozent der gehörten und bis zu 76 Prozent der gesprochenen Antworten richtig zu entschlüsseln. Die zufällige Trefferquote lag demnach bei 7 und bei 20 Prozent.

Nur drei Teilnehmer

Die Zahl von nur drei Teilnehmern erschwert es jedoch, generelle Schlüsse zu ziehen. Auch Aussagen, wie sich die Lage der Elektroden auswirkt, lassen sich nur schwer treffen - obwohl das den Forschern zufolge große Bedeutung haben könnte. "Weitere Verbesserungen bei der Spracherkennung würden die Leistungsfähigkeit eines Entschlüsselungsprogramms deutlich verbessern", schreibt das Team.
Trotz dieser Unsicherheit glauben die Wissenschaftler, dass die Ergebnisse ein wichtiger Schritt hin zu einer Sprachprothese sind. "Die Ergebnisse zeigen, dass es möglich ist, Sprache in Echtzeit und während einer Unterhaltung zu entschlüsseln", schreiben sie. "Das hat eine große Bedeutung für Patienten, die nicht in der Lage sind, sich zu verständigen."

"Konzeptionell und handwerklich sehr gute Arbeit"

Der Freiburger Experte Ball von der Klinik für Neurochirurgie spricht von einer konzeptionell und handwerklich sehr guten Arbeit. "Das Innovative ist, dass man sich an der natürlichen Kommunikation orientiert hat", sagt der Neurologe. "Der Wechsel von Frage und Antwort hilft dabei, Hirnsignale zuverlässig zu interpretieren."
Die Studie biete einen Fortschritt, allerdings gebe es noch viel Spielraum nach oben. Optimieren lasse sich etwa die Aufzeichnung der neuronalen Muster beim Hören und Sprechen - dafür seien die Elektroden-Matten für Epilepsie-Patienten nicht ausgelegt. "Die Technologie ist noch lange nicht ausgereizt", sagt Ball. Auch könnten Methoden der Künstlichen Intelligenz die Auswertung der Hirnsignale möglicherweise noch deutlich verbessern.