Ricerca, Usa: l’intelligenza artificiale traduce i pensieri in parole

MeteoWeb

Dalla mente fino a un paio di ‘labbra elettroniche’ che traducono in parole quello che stiamo pensando, grazie a un’intelligenza artificiale avanzata in grado di leggere e di trasformare i nostri segnali cerebrali direttamente in una voce comprensibile. E’ il traguardo raggiunto da un team di neuroingegneri della statunitense Columbia University di New York.

Una prima scientifica, spiegano, che permette un passo avanti verso interfacce cervello-computer promettenti per chi, a causa di una malattia come la sclerosi laterale amiotrofica (Sla) o di un ictus, ha perso o subito limitazioni alla propria capacità di parlare. Il sistema ideato dagli scienziati e descritto su ‘Scientific Reports’ si basa sul monitoraggio dell’attività cerebrale di una persona, e sull’utilizzo di una tecnologia capace di ricostruire le parole “con una chiarezza senza precedenti”.

La scoperta a stelle e strisce sfrutta la potenza dei sintetizzatori vocali e dell’intelligenza artificiale, e potrebbe portare a nuovi modi per far comunicare i computer direttamente col cervello, oltre a porre le basi per aiutare molti malati a riconquistare la capacità di interagire col mondo esterno. Pensieri e parole sintetiche, mai così vicini.

“Le nostre voci ci aiutano a connetterci con i nostri amici, la famiglia e il mondo che ci circonda, ed è per questo che perdere il potere della propria voce a causa di lesioni o malattie è così devastante. Con questo studio abbiamo un modo potenziale per ripristinarlo”, osserva l’autore senior e ricercatore principale Nima Mesgarani, in forze alla Columbia al Mortimer B. Zuckerman Mind Brain Behavior Institute. “Abbiamo dimostrato che con la giusta tecnologia i pensieri di queste persone potrebbero essere decodificati, e poi compresi da qualsiasi ascoltatore”, prosegue l’autore. Il risultato affonda le radici in decenni di ricerche che hanno dimostrato un fenomeno: quando le persone parlano – o anche solo immaginano di parlare – nel loro cervello compaiono modelli di attività rivelatori. Un distinto e riconoscibile schema di segnali emerge anche quando ascoltiamo qualcuno che parla o immaginiamo di farlo.

Gli esperti cercano di registrare e decodificare questi modelli e vedono un futuro in cui i pensieri non rimarranno chiusi all’interno del cervello, ma potrebbero essere tradotti in un discorso. Segnare questo primo traguardo è stato, però, tutt’altro che facile, sottolineano gli autori. I primi tentativi di Mesgarani e colleghi di decodificare i segnali cerebrali si sono focalizzati su semplici modelli di computer che analizzavano gli spettrogrammi, rappresentazioni visive delle frequenze sonore.

Questo approccio non ha prodotto un linguaggio intellegibile e così il team ha tentato con un ‘vocoder’, algoritmo informatico in grado di sintetizzare il parlato dopo essere stato addestrato su registrazioni di voci umane. “La stessa tecnologia usata da ‘Amazon Echo’ e ‘Apple Siri'”, precisa Mesgarani. Lo scienziato ha collaborato con il neurochirurgo Ashesh Dinesh Mehta, del Northwell Health Physician Partners Neuroscience Institute, coautore dello studio, per insegnare al vocoder a interpretare l’attività cerebrale. Mehta cura pazienti con epilessia ed è stato chiesto ad alcuni di loro, già sottoposti a chirurgia cerebrale, di ascoltare frasi pronunciate da persone diverse, in modo da misurare i modelli di attività cerebrale.

“Questi modelli neurali hanno allenato il vocoder”, spiega Mesgarani. Successivamente è stato chiesto ai pazienti di ascoltare i numeri da 0 a 9 diffusi dall’altoparlante, e i ricercatori hanno registrato i segnali cerebrali da passare al vocoder. Il suono prodotto in risposta è stato analizzato e ripulito dalle reti neurali, tipo di intelligenza artificiale che imita la struttura dei neuroni. Il risultato finale è stato una voce robotica che recitava una sequenza di numeri. L’accuratezza della registrazione è stata messa alla prova. “Le persone potevano capire e ripetere i suoni circa il 75% delle volte, al di sopra di ogni precedente tentativo”, conclude lo scienziato annunciando che ora il programma è di testare parole e frasi più complicate ed eseguire gli stessi esperimenti sui segnali cerebrali emessi quando una persona parla o immagina di parlare. Meta finale: rendere questo sistema parte di un impianto, simile a quelli di alcuni pazienti con epilessia, che traduca i pensieri di chi li indossa direttamente in parole.