Secondo la scienza i segnali di quello che vorremmo dire risiedono nel nostro cervello. Questa informazione, alla quale inizialmente potremmo non dare il giusto peso, può invece rappresentare una preziosa opportunità per le persone paralizzate e che hanno perso la capacità di parola.
Ad oggi, chi perso la capacità di parola può solo usare gli occhi o fare altri piccoli movimenti per controllare un cursore o selezionare le lettere sullo schermo, come il cosmologo Stephen Hawking, che tendeva la guancia per innescare un interruttore montato sugli occhiali.
Ma se un’interfaccia cervello-computer potesse ricreare direttamente un discorso, i pazienti potrebbero ottenere molti più benefici, come il controllo sul tono e l’inflessione o l’abilità a porre in essere una conversazione in modo più rapido.
I gruppi dietro le nuove ricerche hanno sfruttato la maggior parte dei dati, inserendo le informazioni in reti neurali che elaborano schemi complessi e passando le informazioni attraverso strati di “nodi” computazionali. Le reti imparano regolando le connessioni tra i nodi e sono state capaci di ricostruire parole e frasi, in alcuni casi, comprensibili agli ascoltatori umani.
Tuttavia, i ricercatori possono fare una registrazione così invasiva solo in rari casi. Uno è durante la rimozione di un tumore al cervello, quando le letture elettriche dal cervello esposto aiutano i chirurghi a localizzare ed evitare le aree chiave del linguaggio e delle capacità motorie. Un altro è quando i pazienti affetti da epilessia vengono impiantati degli elettrodi in modo da individuare l’origine delle crisi. In entrambi i casi, la finestra temporale in cui i ricercatori possono operare è molto breve, e questo rappresenta un grosso limite nella raccolta dei dati utili.

Un microfono ha catturato le loro voci mentre leggevano ad alta voce parole monosillabiche. Nel frattempo, gli elettrodi hanno registrato gli impulsi provenienti dalle aree di pianificazione del linguaggio e dalle aree motorie, che inviano comandi al tratto vocale per l’articolazione delle parole. La rete ha mappato la risposta degli elettrodi alle registrazioni audio e ha così ricostruito le parole a partire dai dati cerebrali. Secondo un sistema di punteggio computerizzato, circa il 40% delle parole generate dal computer erano comprensibili.
Il team del Dott. Mesgarani, della Columbia University, si è invece basato sui dati di cinque persone affette da epilessia. La loro rete neurale ha analizzato le registrazioni dalla corteccia uditiva (che è attiva sia durante il parlato che l’ascolto), mentre i pazienti ascoltavano registrazioni e persone che dicevano cifre da zero a nove. Il computer ha quindi ricostruito i numeri dai soli dati neurali; quando il computer diceva i numeri, un gruppo di ascoltatori li ripeteva con una precisione del 75%.
In un test online, 166 persone hanno ascoltato una delle frasi e hanno dovuto selezionarla tra 10 scelte scritte. Alcune frasi sono state identificate correttamente circa l’80% delle volte.
I ricercatori hanno anche spinto ulteriormente il modello: lo hanno usato per ricreare frasi dai dati registrati mentre le persone pronunciavano parole in silenzio.
Questo risultato rappresenta un importante passo avanti verso lo sviluppo di una protesi vocale.