Neurociencias

Reconstruyen una canción de Pink Floyd "escuchando" ondas cerebrales de personas

Los investigadores pudieron capturar elementos rítmicos directamente desde la dinámica neuronal, replicando la canción original con notable exactitud

Los científicos lograron reconstruir con éxito una canción reconocible y popular a partir de datos neuronales directos aportados por un conjunto de voluntarios.

Los científicos lograron reconstruir con éxito una canción reconocible y popular a partir de datos neuronales directos aportados por un conjunto de voluntarios. / Crédito: Ylanite Koppens en Pixabay.

Pablo Javier Piacente

Un nuevo estudio demuestra que la decodificación de la actividad cerebral puede recrear elementos musicales de una canción: en concreto, los científicos pudieron “extraer” el tema "Another Brick in the Wall" de Pink Floyd de los cerebros de un grupo de voluntarios con epilepsia, analizando la actividad cerebral registrada por electrodos implantados. Los elementos acústicos “rescatados” de la dinámica neuronal les permitieron reconstruir la canción con notable semejanza con respecto a la versión original. 

Científicos de la Universidad de California en Berkeley, en Estados Unidos, mostraron en una nueva investigación que es posible decodificar canciones a partir de grabaciones cerebrales, revelando áreas relacionadas con el ritmo y la voz en los circuitos neuronales de las personas. El estudio, dirigido por los neurocientíficos Ludovic Bellier y Robert Knight, fue publicado recientemente en la revista PLoS Biology.

Descifrando la música en nuestros cerebros

Aunque la música es fundamental para la experiencia humana, aún se desconoce la dinámica neuronal precisa que subyace a la percepción musical. Frente a esto, diferentes investigaciones han intentado avanzar en la comprensión de estos mecanismos. Por ejemplo, a principios de este mes se conoció un estudio en el cual investigadores de Google y la Universidad de Osaka, en Japón, emplearon la Inteligencia Artificial (IA) para reconstruir música a partir de la actividad cerebral humana.

En el mismo sentido, una investigación difundida en enero de este año demostró que científicos británicos combinaron imágenes de resonancia magnética funcional (fMRI) e imágenes de electroencefalografía (EEG) para registrar la actividad cerebral de una persona mientras escuchaba música. Empleando un modelo de red neuronal de aprendizaje profundo, tradujeron estos datos y reconstruyeron la pieza musical escuchada con un 71,8% de precisión. 

Ahora, el nuevo estudio no utiliza la IA o sus variantes, sino un conjunto de datos único de electroencefalografía intracraneal (iEEG) de 29 pacientes con epilepsia, dotados de electrodos implantados durante un ciclo de hospitalización. En ese momento, escucharon en varias ocasiones la canción de Pink Floyd, compuesta por Roger Waters y parte del álbum “The Wall”, publicado en 1979.

La frase "All in all it was just a brick in the wall" ("En general, fue solo un ladrillo en la pared") se reconoce de manera clara en la canción reconstruida, en la cual los ritmos están intactos y las palabras suenan algo turbias, pero igualmente descifrables. Esta es la primera vez que los investigadores reconstruyen una canción popular a partir de grabaciones cerebrales, logrando un resultado relativamente similar al original. Vale la pena escuchar ambas versiones, la original y la reconstruida, en este artículo publicado en Science News.

El contenido emocional de la música y el habla

Según una nota de prensa, la reconstrucción muestra la viabilidad de registrar y traducir ondas cerebrales para capturar los elementos musicales del habla, así como las sílabas. En los seres humanos, estos elementos musicales, llamados prosodia (ritmo, acentuación, acento y entonación), tienen un significado que las palabras por sí solas no transmiten.

"Es un resultado maravilloso, porque logramos captar la prosodia y el contenido emocional de la música. A medida que avanza todo este campo de las interfaces cerebro-máquina, esto nos brinda una manera de agregar musicalidad a los futuros implantes cerebrales para las personas que lo necesitan, aquellas que sufren algún tipo de trastorno neurológico o del desarrollo, que comprometa la salida del habla”, expresó en el comunicado uno de los autores principales del nuevo estudio, Robert Knight. 

“Poco a poco, estamos adquiriendo la capacidad de decodificar no solo el contenido lingüístico, sino parte del contenido prosódico del habla, algo del afecto y la emoción ligada a la música y la palabra. Creo que eso es lo que realmente hemos comenzado a descifrar con esta investigación”, concluyó Knight. 

Referencia

Music can be reconstructed from human auditory cortex activity using nonlinear decoding models. Ludovic Bellier, Robert Knight et al. PLoS Biology (2023). DOI:https://doi.org/10.1371/journal.pbio.3002176

TEMAS