TORONTO.- Un
estudio desarrollado en Canadá por el científico cubano Alejandro Pérez
ha demostrado que las ondas cerebrales de las personas que dialogan se
sincronizan de forma distinta cuando conversan en su lengua materna o en
un idioma extranjero.
La
investigación del profesor Pérez, del Departamento de Psicología de la
Universidad de Toronto, ha descubierto que aunque las ondas cerebrales
se sincronizan, cuando la conversación se mantiene en una lengua
extranjera, las áreas del cerebro que se activan son distintas que
cuando es la lengua materna.
Pérez señaló que tras estudiar primero la
sincronía entre dos personas que tienen el mismo lenguaje materno, el
nuevo estudio, publicado en la última edición de la revista médica
"Cortex", trato de determinar "si esa sincronía se da de manera
diferente cuando es un idioma nativo o extranjero".
"No
nos metimos en la cuestión si son dos idiomas que dominas perfectamente
porque seguramente ahí la sincronización entre cerebros probablemente
es igual. Y efectivamente, lo que encontramos es que te sincronizas de
una forma diferente si utilizas una lengua nativa o una lengua
extranjera", explicó.
Para
realizar el estudio, Pérez y su equipo del Centro para Francés y
Lingüística del Departamento de Psicología de la Universidad de Toronto
registraron la actividad cerebral de 60 individuos usando
electroencefalografía mientras mantenían conversaciones.
Para los 60 individuos, la lengua materna era el español.
La mitad de las conversaciones fueron mantenidas en español y la otra mitad en inglés.
Y
aunque en ambos casos las ondas cerebrales de los participantes en el
estudio se sincronizaron, cuando los individuos conversaron en inglés,
las activaciones se produjeron en áreas diferentes del estudio, dijo el
investigador cubano.
Las
razones de estas diferencias todavía tienen que explicarse pero Pérez
señaló que un motivo puede ser que al hablar un idioma extranjero la
capacidad mental para representar las palabras es más difícil de lograr,
lo que obligaría al cerebro a activar partes distintas.
"Todavía
quedan muchas incógnitas, muchas cosas por resolver. Es una primera
aproximación. La diferencia en este caso ocurre debido a que son
diferentes las áreas que se están sincronizando", explicó.
Pero
lo que si está probado con el estudio es que "el lenguaje utilizado
influyó en el alineamiento de las ondas cerebrales entre los que
mantenían la conversación y esto sugiere que la comunicación efectiva
podría estar basada en este acoplamiento neural entre cerebros", añadió
Pérez.
En
términos prácticos, el investigador cubano, que anteriormente trabajó
en Basque Center on Cognition, Brain and Language (BCBL), de San
Sebastián (España), señaló que "cada vez que en el campo de la
neurociencia uno describe un fenómeno de sincronización, la
interpretación de manera general es de una interrelación, de una
comunicación entre las partes".
Pérez
indicó que la ciencia ha descrito estas sincronías entre personas en la
respiración, el latido cardiaco e incluso en los ciclos menstruales de
las mujeres.
El
investigador explicó que la sincronización "claramente tiene avances
evolutivos porque cualquier proceso de colaboración te da ventajas
evolutivas en el sentido de adaptación al medio".
Entre
las aplicaciones prácticas que podrían derivarse de lo descubierto por
el profesor Pérez y su equipo estaría la capacidad de "cuantificar la
calidad de la conversación" que tienen dos personas o si realmente las
dos partes se entendieron mutuamente.
Pérez
también señaló que el acoplamiento entre habla y ondas cerebrales de
quien habla y quien escucha podría estar en la clave para que el habla
robótica sea indistinta a al humana.
No hay comentarios:
Publicar un comentario