Registrazioni provenienti da centinaia di singoli neuroni forniscono un’immagine ad alta risoluzione dei meccanismi neurali della comunicazione. Come fanno i singoli neuroni nel tuo cervello a permetterti di capire i suoni del linguaggio? In uno studio senza precedenti, i ricercatori dell’Università della California, San Francisco (UCSF) hanno registrato l’attività di centinaia di singoli neuroni mentre i partecipanti ascoltavano frasi pronunciate, offrendoci una visione senza precedenti su come il cervello analizza i suoni nelle parole.
Neuropixels
“I neuroni sono un’unità fondamentale di calcolo nel cervello“, ha dichiarato Matthew Leonard, PhD, professore associato di chirurgia neurologica e co-primo autore dello studio. “Sappiamo anche che i neuroni nella corteccia cerebrale esistono in una struttura complessa di strati densamente interconnessi. Per capire davvero come il cervello elabora il linguaggio, dobbiamo essere in grado di osservare molti neuroni provenienti da questi diversi strati.”
Per raggiungere questo obiettivo, i ricercatori hanno utilizzato la tecnologia di registrazione neurale più avanzata disponibile, le sonde Neuropixels, che ha permesso loro di “ascoltare” centinaia di singoli neuroni in tutto il cervello, cosa precedentemente non possibile. Negli ultimi cinque anni, le sonde Neuropixels hanno rivoluzionato gli studi neuroscientifici sugli animali, ma solo ora sono state adattate per gli esseri umani. Edward Chang, MD, presidente di chirurgia neurologica presso l’UCSF e autore principale dello studio, ha utilizzato la tecnologia Neuropixels per mappare il giro temporale superiore (STG) di 8 partecipanti allo studio che stavano affrontando un intervento chirurgico cerebrale mentre erano svegli a causa di epilessia o tumori cerebrali.
La sonda ha dimensioni e larghezza di un ciglio, ma contiene quasi 1.000 elettrodi su un minuscolo chip di silicio che può attraversare la profondità di 5 mm della corteccia cerebrale. I ricercatori hanno registrato un totale di 685 neuroni in 9 siti distribuiti su tutti gli strati corticali del STG (una regione del cervello nota per essere fondamentale per la percezione uditiva del linguaggio).
Per Chang, il cui laboratorio studia come il linguaggio è organizzato nel cervello, questa tecnologia rappresentava un’opportunità per aumentare i dettagli di queste mappe del linguaggio fino al livello delle singole cellule cerebrali. Studi precedenti del cervello umano si sono basati su tecnologie familiari come la fMRI, che misura i livelli di ossigenazione del sangue, e anche registrazioni dirette dalla superficie corticale (chiamata elettrocorticografia), in cui una griglia di elettrodi può registrare segnali aggregati da grandi popolazioni di neuroni.
“Per quanto utili siano state le approcci precedenti, registrano comunque decine di migliaia di neuroni in una combinazione che non comprendiamo davvero“, ha dichiarato Leonard. “Non sappiamo come appare l’attività nelle singole cellule che compongono quel segnale aggregato“. Un’immagine tridimensionale del linguaggio I ricercatori erano anche interessati a caratterizzare come le cellule al di sotto della superficie corticale fossero organizzate rispetto alla loro funzione.
“Ci sono neuroni che rispondono a diversi tipi di suoni del linguaggio?”
“All’interno di un singolo punto della corteccia, la maggior parte dei neuroni sta facendo la stessa cosa, o ci sono neuroni che rispondono a diversi tipi di suoni del linguaggio?” ha detto Laura Gwilliams, PhD, ex studiosa postdottorale presso l’UCSF, ora professore assistente di psicologia e linguistica presso l’Università di Stanford e co-primo autore dello studio. Le registrazioni Neuropixels dai partecipanti a questo studio hanno mostrato che i singoli neuroni avevano preferenze per determinati suoni del linguaggio. Alcuni rispondevano a parti delle vocali, altri alle consonanti. Alcuni preferivano il silenzio. Alcuni rispondevano non a ciò che veniva detto, ma a come veniva detto, ad esempio suoni del linguaggio con un tono più alto per enfasi. In generale, i neuroni attraverso gli strati corticali formavano colonne che rispondevano a un particolare tipo di suono del linguaggio.
I ricercatori sono riusciti a dimostrare che questo modello di accordatura dominante è correlato al segnale aggregato registrato dalla superficie del cervello utilizzando l’elettrocorticografia. “Le mappe che siamo stati in grado di mettere insieme sulla superficie bidimensionale della corteccia sembrano riflettere in generale ciò che fanno i neuroni sotto quella superficie“, ha dichiarato Chang.
Tuttavia, i ricercatori sono rimasti sorpresi nel scoprire che all’interno di queste distinte zone, non tutti i neuroni svolgevano lo stesso ruolo. Ad esempio, un sito in cui la maggior parte dei neuroni era sintonizzata su una caratteristica dominante come le vocali “ee” o “ae” conteneva anche neuroni sintonizzati al tono della voce, così come neuroni sensibili a quanto fosse forte il linguaggio. “Il fatto che ogni colonna contenesse neuroni con funzioni diverse mostra che piccolissime aree del cervello elaborano molte informazioni diverse sul linguaggio parlato“, ha dichiarato Leonard. Questa vicinanza fisica di neuroni con comportamenti diversi potrebbe essere ciò che rende possibile per noi comprendere il linguaggio così facilmente e istantaneamente. Mostra anche che l’architettura della corteccia stessa, la sua struttura stratificata, è importante per comprendere i calcoli che danno origine alla nostra capacità di comprendere il linguaggio.
La terza dimensione della corteccia
“Stiamo iniziando a vedere come c’è questa cruciale terza dimensione della corteccia che contiene tutta una ricca variabilità, che è stata in gran parte invisibile agli scienziati fino ad ora“, ha affermato Gwilliams. Cosa ci rende umani? Una domanda centrale per la neuroscienza contemporanea è come il cervello umano ci conferisce abilità uniche nella natura. Come siamo in grado di comunicare i nostri pensieri e desideri l’uno all’altro. Come siamo in grado di immaginare scenari o capire un punto di vista diverso. E il potenziale di apprendere come si comportano e formano circuiti i singoli neuroni in diverse condizioni offre tutte sorti di possibilità entusiasmanti su come ci comprendiamo.
Studi dettagliati aggiuntivi sul linguaggio potrebbero anche aiutarci a comprendere le patologie che influenzano la nostra capacità di parlare o sviluppare interfacce cervello-macchina più sofisticate per ripristinare il linguaggio a coloro che sono paralizzati a causa di ictus o lesioni. “Con questi nuovi strumenti possiamo iniziare a rispondere a domande fondamentali su come funziona il cervello umano a livello della sua circuitazione sottostante“, afferma Chang. “Questo è fondamentale per capire comportamenti come il linguaggio, che non possono essere studiati negli animali, e ci permetterà di affrontare grandi questioni su ciò che ci rende umani“.