Minuto a Minuto

Internacional Juez de EE.UU. prohíbe a ICE utilizar datos tributarios para localizar migrantes
El uso de datos tributarios con fines migratorios podría disuadir a millones de personas de cumplir con sus obligaciones fiscales por temor a represalias
Internacional Casa Blanca insiste en que EE.UU. y Cuba están negociando y exige prudencia a La Habana
El mensaje respondió a declaraciones del presidente estadounidense Donald Trump, quien aseguró que ya se hablaba con representantes de Cuba
Nacional México amplía diálogo sobre minerales críticos con Canadá, Japón y UE, tras pacto con EE.UU.
"Tendremos un diálogo muy similar sobre minerales críticos con otros países del mundo en los próximos 60 días", indicó Marcelo Ebrard
Nacional Balacera en el Centro de Monterrey deja siete personas lesionadas
Entre los lesionados se encuentran cuatro mujeres de alrededor de 40 años, una menor de 15 años y dos hombres de 45 y 55 años
Entretenimiento El cantante británico Zayn Malik anuncia tres conciertos en México durante gira ‘Konnakol’
Zayn Malik arrancará su gira por México el 14 de junio en Monterrey, días después en Guadalajara y en la Ciudad de México
Hallazgo del proceso cerebral que distingue habla y música, clave para curar la afasia
Foto de Robina Weermeijer / Unsplash

Un equipo internacional de investigadores ha logrado describir el proceso mediante el cual el cerebro humano distingue entre música y habla, lo que permitirá mejorar las terapias para personas con trastornos del lenguaje o auditivos, como la afasia, según un estudio que recoge este martes la revista Plos Biology.

Pese a lo familiarizado que está el ser humano con la música y el habla, los científicos desconocían, hasta ahora, cómo es capaz de identificar una cosa de la otra de forma automática.

Para averiguarlo, investigadores de la Universidad Autónoma de México, la universidad china de Hong Kong, la Universidad de Nueva York y el Instituto Ernst Strüngmann de Neurociencia de Fráncfort (Alemania) han hecho cuatro experimentos auditivos con 300 personas.

Los participantes debían distinguir entre sonidos muy ambiguos si creían que pertenecían a música o a conversación.

El análisis de las pautas usadas por los participantes para clasificar los clips como música o habla evidenció cómo la velocidad y regularidad del sonido es lo que les hacía diferenciar de forma espontánea entre una cosa y otra.

De este modo, los participantes identificaron como música los sonidos con frecuencias más lentas (menores de 2 hercios, hz) y modulación más regular, y consideraron conversaciones aquellos clips con frecuencias más altas (sobre 4 hz) y modulación más irregular.

“Los resultados demostraron que el sistema auditivo utiliza parámetros acústicos sorprendentemente sencillos y básicos para distinguir entre música y habla”, subraya uno de los autores, Andrew Chang, investigador de psicología de la Universidad de Nueva York.

“En general, los clips de sonido más lentos y constantes de mero ruido suenan más como música, mientras que los clips más rápidos e irregulares suenan más como habla”, añade.

Los investigadores consideran que su estudio servirá para mejorar los tratamientos de personas con trastornos auditivos y de lenguaje, especialmente aquellos que necesitan recuperar la capacidad de hablar en casos de afasia, una enfermedad que padecen, aproximadamente, 1 de cada 300 personas.

En esta línea, la terapia de entonación melódica, consistente en enseñar a los pacientes a cantar lo que quieren decir, utilizando sus “mecanismos musicales” intactos para evitar los procesos dañados del habla, es una de las más prometedoras para volver a enseñar a hablar a las personas que padecen afasia, a consecuencia generalmente de un ictus.

Saber qué hace distintos a la música y el habla en el cerebro era fundamental para diseñar programas de rehabilitación eficaces, como la terapia de entonación melódica, concluyen los autores.

Con información de EFE