Comunicati Stampa

angle-left Studio: come il cervello riconosce i suoni delle lingue
Comunicato n. 220 del 11 Novembre 2019

Come fa il cervello a riconoscere i suoni delle lingue? Quando produciamo i suoni delle parole, i movimenti di lingua e labbra lasciano tracce nel segnale acustico che il cervello segue e interpreta in modo appropriato grazie all’accensione dinamica di gruppi specifici di neuroni. Lo hanno dimostrato i ricercatori del CRIL – Centro di Ricerca Interdisciplinare sul Linguaggio dell’Università del Salento, diretto dal professor Mirko Grimaldi, in collaborazione con il professor Francesco Di Russo dell’Università di Roma “Foro Italico”, che per la prima volta hanno fornito evidenze empiriche a una teoria classica sviluppata negli anni ‘50 del Novecento al MIT di Boston da Roman Jakobson e Morris Halle. I risultati della ricerca sono stati pubblicati sulla rivista internazionale Cortex, dedicata allo studio delle relazioni fra sistema nervoso e processi mentali, con il titolo “Electrophysiological evidence of phonemotopic representations of vowels in the primary and secondary auditory cortex” (https://doi.org/10.1016/j.cortex.2019.09.016). 

«Negli ultimi trent’anni diversi studi si sono interessati a questo tema utilizzando strumentazione molto costosa come la risonanza magnetica funzionale o la magnetoencefalografia, oppure, più di recente, metodiche invasive come l’elettrocorticografia», spiega Grimaldi, che ha ideato e coordinato lo studio, «Tali ricerche hanno stabilito che i suoni linguistici sono elaborati nel giro temporale superiore, una parte della corteccia cerebrale che si trova più o meno sopra le nostre orecchie. Come il segnale acustico che arriva all’orecchio fosse convertito in rappresentazioni sonore distinte rimaneva ancora un mistero». 

«Abbiamo utilizzato l’elettroencefalografia (EEG), una metodica ben nota in campo clinico», dice la dottoressa Anna Dora Manca, del gruppo di ricerca, «ma che era ritenuta inappropriata per questo tipo di studi. Grazie a 64 elettrodi premontati su una cuffia abbiamo monitorato tutte le aree cerebrali, e in particolare quelle uditive, mentre i soggetti ascoltavano dei suoni vocalici».

«La teoria di Jakobson e Halle ipotizza che il segnale acustico generato dai suoni linguistici contenga una sorta di ‘imprinting articolatorio’ derivato dal fatto che lingua e labbra assumono posizioni e forme diverse a seconda del tipo di suono prodotto: una /i/, per esempio, si realizza con la lingua in alto spostata in avanti e le labbra tese; un /u/, invece, con la lingua in alto spostata all’indietro e con le labbra arrotondate. Per decifrare questi tratti acustico-articolatori, definiti ‘tratti distintivi’, il cervello si deve sintonizzare con il segnale acustico e attivare in modo appropriato gruppi specifici di neuroni. Ma come? Grazie ad analisi molto sofisticate, abbiamo elaborato il segnale EEG generato dai soggetti durante l’ascolto di suoni e siamo riusciti a ricostruire con precisione millimetrica i gruppi di neuroni coinvolti nella decodifica del segnale acustico proprio di ogni suono», spiegano il professor Francesco Di Russo dell’Università di Roma “Foro Italico” e l’ingegner Francesco Sigona del CRIL, che hanno collaborato alla ricerca, «Abbiamo così per la prima volta ‘fotografato’ il processo dinamico attraverso cui un segnale acustico viene convertito in rappresentazioni mentali, applicando metodi statistici molto complessi».

Altra scoperta della ricerca è che anche la corteccia uditiva primaria, una piccola area al di sopra del giro temporale superiore, è impegnata in questo processo. «Finora si pensava che la corteccia uditiva primaria fosse un semplice analizzatore spettro-acustico e che non fosse in grado di generare rappresentazioni mentali di informazioni memorizzate durante l’apprendimento (come le proprietà dei suoni delle lingue che apprendiamo da piccoli)», aggiunge Grimaldi, «Il quadro che emerge da questo studio getta una nuova luce sulla complessa dinamica che porta il cervello a convertire onde acustiche che viaggiano nell’aria in suoni e poi in parole. Nella corteccia uditiva primaria, in entrambi gli emisferi, avviene un’analisi preliminare delle caratteristiche che identificano un suono: è come se quella parte del cervello dicesse ‘questa nel segnale dovrebbe essere una /i/, poi ci dovrebbe essere una /a/ e una /u/’, eccetera. In breve, qui vengono mappate le caratteristiche generali dei suoni. Pochi millisecondi dopo, i neuroni nel giro temporale superiore, in modo prevalente nell’emisfero di sinistra, compiono un’analisi più fine estraendo le ‘features’ (le caratteristiche articolatorie) che rendono una /i/ diversa da una /u/, e così via. Il risultato è che gruppi specifici di neuroni si accendono in modo dinamico e differenziato nelle due aree a seconda del suono che stanno elaborando. Abbiamo così trovato una mappa funzionale di neuroni che decodifica i suoni in modo dinamico: gruppi di neuroni diversi si accendono in modo integrato per elaborare suoni diversi. Insomma, la rappresentazione mentale dei suoni linguistici viene generata attraverso la conversione del segnale spettro-acustico in segnale neurofisiologico. Quando produciamo gli stessi suoni avviene il contrario: lo stato neurofisiologico viene convertito in stato spettro-acustico. Proprio come avviene in natura per gli stati della materia, ma mentre nel passaggio dallo stato liquido allo stato gassoso le proprietà della materia si modificano e tutto finisce lì (abbiamo un nuovo stato di materia e basta), nel passaggio dallo stato spettro-acustico a quello neurofisiologico, e viceversa, vengono generate le parole e le infinite relazioni fra loro. L’essere umano è l’unico ad avere il potere della parola. Un altro segreto di questo potere», conclude Grimaldi, «è stato ora svelato».

Data ultimo aggiornamento: 13/11/2019