08 septiembre 2010

Un experimento traduce señales cerebrales a palabras

El método es aún una promesa para paralíticos sin habla

Es el viejo sueño de comunicarse con la mente sin abrir la boca. Un equipo de científicos de la Universidad de Utah ha dado un nuevo paso al demostrar la viabilidad de traducir las señales cerebrales correspondientes a palabras pensadas en palabras escritas en un ordenador. Han utilizado dos mallas de 16 microelectrodos implantados bajo el cráneo y encima del cerebro, sin penetrarlo. Es tan solo una promesa, el método es invasivo y necesitará muchas mejoras y ensayos clínicos antes de convertirse en un traductor para pacientes gravemente paralizados y sin capacidad de hablar (por infarto cerebral, trauma o esclerosis lateral amiotrófica), explica Bradley Greger, profesor adjunto de Bioingeniería de la citada universidad.
 
Los investigadores colocaron unos nuevos minúsculos electrodos -microECoG- sobre el centro cerebral del habla (en el área que controla los movimientos faciales y la gran desconocida área de Wernicke, ligada al lenguaje y comprensión de la lengua) de un voluntario con ataques epilépticos severos durante cuatro días.

Son una versión reducida de los grandes electrodos empleados en electrocorticografía, desarrollados hace medio siglo. Separados por un milímetro, no necesitan penetrar en el cerebro y se consideran seguros para colocarlos en el centro del habla. Hasta ahora, en experimentos para controlar ordenadores o brazos artificiales, los electrodos convencionales se tenían que implantar en el interior del cerebro, con la desventaja añadida de que registran demasiadas señales cerebrales para una correcta descodificación.

Mientras el paciente leía varias veces cada una de las 10 palabras que podrían ser útiles a una persona con parálisis (sí, no, caliente, frío, hambriento, sediento, hola, adiós, más y menos) se registraron débiles señales cerebrales generadas por unas pocas miles de neuronas. Los investigadores observaron las señales del cerebro que representaban cada una de las 10 palabras. Al comparar pares de palabras (sí y no) pudieron distinguir la señal empleada por cada una de las palabras entre el 76% y el 90% de ocasiones. Cuando se examinaron simultáneamente 10 patrones de las señales, los aciertos fueron de entre el 28% y el 40%, casi cuatro veces mejor que el azar. No son resultados "suficientemente buenos para que un dispositivo traduzca los pensamientos de una persona con parálisis", afirma Greger. Estos pacientes suelen comunicarse con leves movimientos de pestañas o dedos.

El trabajo se publica en la revista científica Journal of Neural Engineering. El equipo de Greger prepara nuevos experimentos con mallas de mayor tamaño y de 121 microelectrodos para obtener más datos y, por tanto, más palabras, así como mejor precisión.

No hay comentarios:

Publicar un comentario