Científicos en Neurociencia, tecnología, informática están desarrollando un sistema que traduce las ondas cerebrales en sonido. Hasta el momento es el único sistema que consigue crear sonido en base a las emociones (medidas mediante señales de electroencefalografía y respuesta cardíaca) sin necesidad de control motor por parte del paciente.

Hasta el momento es el único sistema que consigue crear sonido en base a las emociones (medidas mediante señales de electroencefalografía y respuesta cardiaca) sin necesidad de control motor por parte del paciente.

En estos momentos, la herramienta se ha probado con personas sanas y se ha empezado a ensayar con pacientes cuyos resultados están siendo sorprendentes.
Actualmente existen sistemas de transducción de señales (interfaces cerebro-ordenador) que se empiezan a ensayar en personas con discapacidad, pero la mayoría necesitan control motor, por ejemplo, utilizando el movimiento de los ojos. Ello supone una gran limitación para pacientes con parálisis cerebral que en muchas ocasiones sufren espasticidad o no consiguen controlar ningún aspecto motor de su cuerpo. Estas personas quedan excluidas y no pueden usar dichos sistemas. Otra limitación de la mayoría de estos dispositivos es que no permiten un análisis en tiempo real, es decir, requieren un postprocesado de la información pasado un tiempo desde que el usuario ha emitido la señal. La propuesta que han presentado los investigadores hoy permite el análisis en directo desde el momento en que el usuario se coloca la interfaz.
El sonido de nuestro cerebro
A diferencia de los sistemas de sonificación de señales cerebrales existentes, Brain Polyphony permite escuchar directamente las ondas cerebrales. “Por primera vez utilizamos el propio sonido de las ondas cerebrales. Las octavamos (como si se amplificaran) hasta conseguir llegar al rango audible al oído humano, de modo que lo que oímos es realmente lo que sucede en nuestro cerebro. El proyecto persigue conseguir este sonido e identificar un patrón reconocible para cada emoción que podamos trasladar a un código de palabras. Y todo ello sucede en el mismo instante y en vivo” explicó David Ibáñez, investigador y administreadode del proyecto de Starlab.
En estos momentos, la herramienta se ha probado con personas sanas y se ha empezado a ensayar con pacientes cuyos resultados están siendo sorprendentes. La herramienta también estuvo presente en la pasada edición del Sónar en Barcelona donde sumándose a la expresión artística del evento permitía a los usuarios “escuchar” la música que emiten sus emociones. En este sentido, Efraín Foglia, investigador de BR:AC (Barcelona Research Art & Creation) de la Universidad de Barcelona, añadía: “El mero hecho de ser capaces de oír ‘hablar’ a nuestro cerebro ya es una experiencia compleja e interesante. Con Brain Polyphony somos capaces de escuchar la música que se emite directamente desde el cerebro. Una nueva forma de comunicación que adquiere una dimensión única si además ello nos permite conseguir que las personas con parálisis cerebral puedan comunicarse“.
De la ciencia al mercado, un reto para los centros de investigación

El proyecto nace de una iniciativa del CRG para fomentar que la investigación que llevan a cabo sus científicos llegue a la sociedad.