La música y el habla son dos canales de comunicación que posee el ser humano y que han evolucionado de forma espectacular. La doctora alemana Daniela Sammler, se propuso investigar el procesamiento cerebral de ambas, realizando un escáner cerebral a diferentes participantes. A unos mientras tocaban el piano, y a otros mientras hablaban. Los resultados demostraron que el cerebro procesa de igual forma las melodías musicales y las que entonamos al hablar. Es decir, que la comunicación hablada, quitando el contenido léxico, es igual a la musical. Procesamos melodías, con su ritmo y sus cadencias. Esto nos permite encontrar un significado, tanto en la música como en el lenguaje. Por este motivo, la palabra escrita de los chats necesita emoticonos que le pongan la emoción adecuada al mensaje deseado. No es lo mismo un “hola” pegado a una carita sonriente, que a una enfadada o triste. Gracias a esta y otras investigaciones, sabemos que las bases neuronales de la música y el habla son más parecidas de lo que sospechamos.
Durante la vida intrauterina escuchamos y procesamos la música de la voz materna, que nos llega junto al ritmo constante de los latidos del corazón, como una canción. Al nacer, es el significado emocional de las melodías del habla el que permite a un bebé y un adulto entablar conversación. El niño pequeño va haciéndose con la lengua por medio de la musicalidad de las palabras, el ritmo, las curvas tonales, la pausas, las repeticiones. Y de este modo, en poco tiempo pasa del balbuceo a las complejas construcciones gramaticales de su lengua materna.
Entonces, esa música que traemos de fábrica y nos permite aprender a hablar, ¿se pierde luego, como si fuese una herramienta fisiológica que ya cumplió su fin y el cuerpo la deshecha? En Guitar Peques pensamos que no se pierde. Que esa musicalidad con la que nacemos puede ser el punto de partida para el aprendizaje de los elementos que la cultura desarrolló: tocar un instrumento, cantar, componer, improvisar, leer partituras, dar conciertos, grabar discos.

FUENTES
Sammler, D., Koelsch, S., Ball, T., Brandt, A., Grigutsch, M., Huppertz, H.-J., … Schulze-Bonhage, A. (2013). Co-localizing linguistic and musical syntax with intracranial EEG. NeuroImage, 64, 134–146. doi:10.1016/j.neuroimage.2012.09.035

Koelsch, S., Gunter, T. C., Wittfoth, M., & Sammler, D. (2005). Interaction between Syntax Processing in Language and in Music: An ERP Study. Journal of Cognitive Neuroscience, 17(10), 1565–1577. doi:10.1162/089892905774597290

Koelsch, S., Kasper, E., Sammler, D., Schulze, K., Gunter, T., & Friederici, A. D. (2004). Music, language and meaning: brain signatures of semantic processing. Nature Neuroscience, 7(3), 302–307. doi:10.1038/nn1197

Sammler, D., Koelsch, S., Ball, T., Brandt, A., Elger, C. E., Friederici, A. D., … Schulze-Bonhage, A. (2009). Overlap of Musical and Linguistic Syntax Processing: Intracranial ERP Evidence. Annals of the New York Academy of Sciences, 1169(1), 494–498. doi:10.1111/j.1749-6632.2009.04792.x

Karmiloff, K., & Karmiloff-Smith, A. (2002). Pathways to language: From fetus to adolescent. Cambridge: Harvard University Press.

COMPARTE

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *