Il linguaggio della musica. Il meccanismo con cui il cervello distingue parole e musica in un brano
Come fa il nostro cervello a distinguere e decodificare contemporaneamente parole e musica del brano che ci delizia?
In cerca di vero relax? Tra le tante soluzioni possibili, anche la fruizione – possibilmente tranquilla e non frettolosa – di un buon brano musicale, dove parole e melodia si intrecciano nutrendo la nostra interiorità e la nostra mente.
Già, ma spostandoci repentinamente su un piano di analisi fenomenologica, come fa il nostro cervello a distinguere e decodificare contemporaneamente parole e musica del brano che ci delizia?
Un modello noto già da tempo agli studiosi descrive i due diversi emisferi cerebrali come due sistemi neurali separati, con una diversa specializzazione funzionale in grado di distinguere il linguaggio parlato dalla musica.
Ora, una nuova ricerca (pubblicata di recente su “Science”) aggiunge alcuni importanti dettagli su come le diverse strutture cerebrali rispondono alle caratteristiche acustiche degli input uditivi. Lo studio è stato condotto da Philippe Albouy, della McGill University a Montreal (Canada), insieme ad un team di colleghi di altri istituti canadesi e francesi.
Non v’è alcun dubbio che linguaggio musicale e linguaggio verbale – per molti aspetti inestricabilmente legati tra loro – rappresentino facoltà appartenenti propriamente alla specie umana. E già da tempo, gli esperti di neuroscienze tentano di comprendere quale sia il meccanismo con cui il nostro cervello riesce a separare e riconoscere parole e melodie, anche quando queste sono percepite insieme, in un’unica onda sonora.
Precedenti studi avevano già messo in evidenza come la nostra percezione del parlato sia legata alla capacità di elaborare modulazioni temporali di breve durata, ossia – detto in parole povere – alla capacità di “misurare” la rapidità con cui vengono emessi i diversi suoni dal parlante. Questa abilità, dunque, sta alla base della nostra capacità di distinguere tra loro parole molto simili nel suono (ad esempio “bere” e “pere”).
Diversamente, la nostra capacità di percepire una melodia dipende invece dal riuscire ad elaborare le caratteristiche dello spettro di suoni emessi dalla sorgente sonora, come le fluttuazioni della frequenza acustica.
Per condurre questa ricerca, Albouy e i suoi colleghi hanno deciso di adottare un approccio sperimentale innovativo, che ha avuto come punto di partenza l’analisi di 10 testi e 10 melodie originali. Sviluppando tutte le possibili combinazioni di questi elementi di base, i ricercatori hanno ottenuto 100 canzoni, successivamente audioregistrate da un soprano che cantava senza l’accompagnamento di strumenti. Infine, Albouy e colleghi hanno prodotto artificialmente in questi brani musicali delle distorsioni in due diverse dimensioni, temporale e spettrale.
A questo punto, a 49 volontari è stato chiesto di provare a distinguere parole e melodia in questi brani “distorti”. Risultato? Le distorsioni nella dimensione temporale potevano compromettere la comprensione semantica del testo udito, ma non il riconoscimento della melodia. Al contrario, la manipolazione delle caratteristiche spettrali ha invece mostrato di compromettere la percezione della melodia, ma non la comprensione del testo.
Durante lo svolgimento di tale compito, i volontari sono anche stati sottoposti ad una serie di scansioni cerebrali di risonanza magnetica cerebrale funzionale, in grado di visualizzare le aree cerebrali attivate durante lo svolgimento del compito assegnato. Ebbene, questo tipo di analisi ha evidenziato un’attività neurale “asimmetrica”. La decodifica del contenuto vocale, infatti, è avvenuta principalmente nella corteccia uditiva di sinistra, mentre il contenuto melodico è stato elaborato principalmente da quella di destra. “È noto da decenni – spiega Philippe Albouy – che i due emisferi rispondono al discorso e alla musica in modo diverso, ma le basi fisiologiche di questa differenza sono rimaste finora un mistero. Nel nostro studio mostriamo che questa specializzazione emisferica è collegata alle caratteristiche acustiche di base che sono rilevanti per la parola e per la musica, legando così la scoperta alla conoscenza di base dell’organizzazione neurale”.