Forscher in Kalifornien haben einen signifikanten Durchbruch mit einem KI-angetriebenen System erzielt, das die natürliche Sprache von gelähmten Personen in Echtzeit mit ihren eigenen Stimmen wiederherstellt, speziell in einem Teilnehmer des klinischen Studiums, der stark gelähmt ist und nicht sprechen kann.
Diese innovative Technologie, die von Teams an der UC Berkeley und der UC San Francisco entwickelt wurde, kombiniert Brain-Computer-Schnittstellen (BCI) mit Fortgeschrittenen künstliche Intelligenz neuronale Aktivitäten in hörbare Sprache zu dekodieren.
Dieses neue System ist im Vergleich zu anderen jüngsten Versuchen, Sprache aus Gehirnsignalen zu erstellen, ein großer Fortschritt.
AI-betriebenes System (Kaylo Littlejohn, Cheol Jun Cho, et al. Nature Neurowissenschaften 2025)
Wie es funktioniert
Das System verwendet Geräte wie Elektroden-Arrays mit hoher Dichte, die die neuronale Aktivität direkt von der Oberfläche des Gehirns aufzeichnen. Es arbeitet auch mit Mikroelektroden, die in die Oberfläche des Gehirns und die nicht-invasiven Oberflächenelektromyographiesensoren auf das Gesicht eindringen, um die Muskelaktivität zu messen. Diese Geräte nutzen das Gehirn, um die neuronale Aktivität zu messen, die die KI dann lernt, sich in die Geräusche der Stimme des Patienten zu verwandeln.
Die Neuroprosthese probiert neuronale Daten aus dem motorischen Kortex des Gehirns, der Fläche, die die Sprachproduktion steuert, und dekodiert diese Daten diese Daten in die Sprache. Laut Study Co-Lead-Autor Cheol Jun Cho signalisiert die Neuroprosthese, wo der Gedanke in Artikulation und mitten in der motorischen Kontrolle übersetzt wird.
AI-betriebenes System (Kaylo Littlejohn, Cheol Jun Cho, et al. Nature Neurowissenschaften 2025)
AI ermöglicht es gelähmtem Mann, Roboterarm mit Gehirnsignalen zu kontrollieren