Categories: Opinione

Come il cervello umano “ascolta” la musica? Ce lo dice l’intelligenza artificiale

cultura

Foto di David Beale su Unsplash

Vi è mai rimasta in testa una canzone? Una nuova ricerca condotta da un team di neuroscienziati dell’Università di Berkeley, in California, mappa le regioni del cervello umano che rendono possibili gli earworms (la musica che rimane nella nostra testa) e la percezione della musica in generale. I risultati della ricerca, recentemente pubblicati sulla rivista PLOS Biology, mostrano come il cervello umano reagisca a un’esecuzione musicale. Dopo che le nostre orecchie hanno sentito un frammento di canzone, questo viene convertito in attività neuronale dalla nostra coclea, la cavità a spirale dell’orecchio interno. Ludovic Bellier, che durante la ricerca era postdoc presso l’Helen Wills Neuroscience Institute di Berkeley, ha studiato come le reti neurali nel cervello alla fine “sentono” questi suoni. Per l’esperimento del suo gruppo, Bellier e colleghi hanno analizzato l’attività cerebrale delle persone che ascoltavano una canzone dei Pink Floyd. I 29 partecipanti erano pazienti affetti da epilessia presso l’Albany Medical Center di Albany, a New York. Ai pazienti, a cui erano stati impiantati sensori elettrici sulla superficie del cervello come parte del trattamento medico, è stato chiesto di ascoltare attentamente la canzone dei Pink Floyd “Another Brick in the Wall.” Mentre i pazienti ascoltavano, i ricercatori hanno registrato i potenziali elettrici oscillanti di ciascun elettrodo cerebrale. Queste misurazioni, chiamate registrazioni dell’elettrocorticogramma (ECoG), sono segnali a banda larga che riflettono l’attività neurale in una piccola regione del cervello che circonda ciascun elettrodo. I ricercatori hanno ipotizzato che i segnali ECoG registrati da ciascun paziente riflettessero il modo in cui il loro cervello lavorava per percepire la musica suonata per loro. Per testare la loro ipotesi, e vedere quali regioni del cervello dei pazienti erano maggiormente coinvolti nella percezione musicale, il team ha adattato modelli di intelligenza artificiale per ricostruire lo spettrogramma audio della canzone, quando presentata con le caratteristiche dell’ECoG come input.
Lo spettro non è altro che un’immagine che mostra la distribuzione dell’energia sonora attraverso le frequenze nel tempo. Se, quindi, i modelli sono in grado di ricostruire accuratamente lo spettrogramma dopo un addestramento regolarizzato, allora le caratteristiche dell’ECoG devono riflettere alcune informazioni sulla musica suonata al paziente.

Secondo Bellier, il team è riuscito a verificare la propria ipotesi. Utilizzando diversi tipi di modelli per ricostruire il segnale uditivo, gli scienziati hanno potuto decodificare almeno una somiglianza parzialmente udibile dell’audio in uscita dalla canzone. I ricercatori affermano che i loro risultati sono, per quanto ne sanno, la primissima pubblicazione di audio musicale regredito a partire dai dati ECoG. Sebbene le correlazioni tra l’audio originale e quello ricostruito fossero ancora lontane da una completa corrispondenza, alcuni degli output dei modelli potevano essere riconosciuti, a grandi linee, come la canzone classica, quando veniva riconvertita in un audio. forma d’onda.

Per testare quali regioni del cervello fossero maggiormente coinvolte nell’elaborazione musicale, i ricercatori hanno addestrato modelli sullo stesso compito di ricostruzione audio, rimuovendo gli input degli elettrodi. Nel loro insieme, i dati ECoG di tutti i pazienti coprivano gran parte della superficie totale del cervello, quindi gli scienziati sono stati in grado di considerare molte potenziali regioni del cervello come attori cruciali nel compito di generare l’esperienza dell’ascolto della musica.

Confrontando il cambiamento nelle prestazioni tra studi che coinvolgevano tutte le regioni del cervello e studi che non lo facevano – a volte chiamato studio di ablazione – i ricercatori sono stati in grado di dire quante informazioni erano fornite da ciascuna regione del cervello. In altre parole, se non ci fosse stato un grande cambiamento nella precisione della ricostruzione, quando gli elettrodi di una particolare regione venivano rimossi, allora quella regione non sarebbe stata così coinvolta nella percezione musicale.

Da questo processo, i ricercatori hanno scoperto che la rimozione dei dati delle onde cerebrali raccolti da un’area sia sul lato sinistro che su quello destro del cervello chiamata “giro temporale superiore” (STG) ha causato il maggiore calo nell’accuratezza della ricostruzione. Questa regione, casualmente situata vicino alle orecchie, è nota anche per svolgere un ruolo importante nell’elaborazione del linguaggio, quindi potrebbe infatti svolgere un ruolo più importante nella capacità del cervello di elaborare suoni complessi e strutturati.

Il team ha anche scoperto che la rimozione delle caratteristiche dei dati dagli STG sinistro e destro, individualmente, aveva effetti sostanzialmente diversi sull’accuratezza della ricostruzione. Ciò indicava che l’attività dell’STG sul lato destro del cervello dei partecipanti aveva più informazioni sulla canzone rispetto all’STG sinistro. Curiosamente, ricerche precedenti nel campo avevano evidenziato come fosse vero il contrario per l’elaborazione del parlato, dove l’STG sinistro spesso fa più lavoro dell’STG destro. “Nel 95% dei destrimani, la parola è localizzata prevalentemente nell’emisfero sinistro”, afferma Bellier. “Ciò che mostriamo nel documento è che la musica è più distribuita [tra STG sinistro e destro], ma con una dominanza destra”, il che significa che l’STG destro elabora più informazioni musicali rispetto a quello sinistro.

C’è un follow-up davvero semplice che possiamo fare“, afferma Bellier. Vale a dire, il presente studio considera solo le informazioni delle onde cerebrali ad alta frequenza, da 70 a 150 hertz. Tuttavia, afferma Bellier, le caratteristiche audio calcolate dalle gamme di frequenza più basse dei segnali ECoG possono anche codificare informazioni importanti. Questo è il motivo per cui afferma che il team intende ripetere le stesse analisi su diverse gamme di frequenza dell’attività neurale. Il lavoro presente e futuro del gruppo aggiungerà, come conclude Bellier, “un altro mattone al muro della nostra comprensione dell’elaborazione della musica nel cervello umano”.

Paolo Berro: