El grupo Sistemas Inteligentes Basados en Análisis de Decisión Difuso (SINBAD²) de la Universidad de Jaén, junto con las universidades de Ingeniería y Tecnología, Lima – UTEC (Perú) Essex (Reino Unido) y Nantong (China) ha desarrollado un sistema más preciso que lee señales cerebrales para que personas afectadas por ictus puedan interaccionar con un hogar inteligente.
La novedad del modelo es que combina el electroencefalograma no invasivo, es decir, capta las ondas de un casco con electrodos que se coloca en la cabeza, sin necesidad de ningún tipo de cirugía, con arquitecturas de inteligencia artificial para el procesamiento de la señal. De esta forma, alcanza una efectividad en la decodificación que roza en algunos casos 100% en un entorno natural, es decir, fuera de un contexto controlado, como un laboratorio de neurociencia.
El modelo, publicado en el artículo ‘Fuzzy temporal convolutional neural networks in P300-based Brain–computer interface for smart home interaction’ de la revista Applied Soft Computing se probó con experimentos en seis sujetos sanos y tres que habían sufrido un accidente cerebrovascular. Los investigadores partieron de las señales de un encefalograma, es decir, a todos los participantes se les colocó un casco con electrodos para medir las señales cerebrales.
Esta estrategia no resulta invasiva para el usuario, pero al aplicarse al cuero cabelludo introduce muchas interferencias o ruido en la señal. A esto se suma el sonido no deseado del ambiente, ya que los usuarios estaban en un entorno natural. “En el laboratorio de neurociencia, las paredes están construidas para que no haya interferencias electromagnéticas. Es un escenario ideal, donde no hay alteraciones de pisadas de viandantes o un portazo de una ventana. Nosotros llevamos al modelo a un entorno cotidiano, donde suelen funcionar mal”, ejemplifica el investigador de la Universidad de Jaén, Javier Andreu-Perez, investigador senior y autor correspondiente del estudio.
Para reducir estas fuentes de ruido y aumentar la precisión del modelo, los investigadores incorporaron dos arquitecturas basadas en inteligencia artificial: el aprendizaje profundo y la lógica difusa. El primero imita las características estructurales del sistema nervioso humano, donde existen áreas del cerebro especializadas en tareas como el lenguaje o el reconocimiento facial. En este caso, la máquina permite aprender mediante redes neuronales especializadas en la detección de ciertas características ocultas de los datos. “Esta arquitectura posee muchas capas y aprende de patrones de señales muy específicos. Por ejemplo, reconoce lo que estás pensando al procesar la señal del encefalograma”, explica Andreu-Perez.
Sin embargo, estas redes neuronales son muy sensibles al ruido, tanto de las interferencias del propio casco aplicado al cuero cabelludo, como del ambiente. Por ello, los investigadores añadieron aprendizaje difuso. “Se trata de unas funciones que ayudan a la red neuronal a aprender de estos patrones, pero modelando la incertitud. Así, aunque haya ruido, la red neuronal lo omite”, detalla el experto.
Esta nueva arquitectura actúa como una especie de parche, para que la red neuronal sea más robusta frente al ruido ambiental. La combinación de estas técnicas aumenta la fiabilidad del sistema para decodificar este tipo de estímulos cerebrales para alcanzar una precisión del 98,6%. “Hasta ahora, no se habían integrado interfaces cerebro-máquina, aprendizaje profundo y lógica difusa. Por eso, nuestra estructura combinada mejora los resultados obtenidos hasta el momento”, subraya.
Esta precisión convierte al modelo en candidato para aplicaciones donde se puede usar el cerebro como medio de comunicación con la máquina mediante pensamientos en entornos naturales. Es el caso de herramientas para ayudar a personas con movilidad reducida donde con sólo pensar en una orden, se movería un dispositivo en su hogar. “También para la industria del entretenimiento y los juegos, así como la neuro-rehabilitación remota desde casa”, adelanta Andreu-Perez.
Cerebro-ordenador
Los investigadores trabajan con lo que se conoce como interfaces cerebro-computadora: dispositivos que analizan la actividad del cerebro y detectan estados mentales del usuario, en tiempo real. Luego, transforman esos pensamientos en órdenes operativas, como seleccionar una letra en un teclado virtual o encender un interruptor. Todo este proceso se desarrolla ejecutando mentalmente una acción, como imaginar seleccionar las letras de una palabra que luego se ejecuta. “El ejemplo más famoso es el Neurolink de Elon Musk. Sin embargo, este prototipo es invasivo, hay que insertar un sensor dentro del cráneo que luego transmite la señal. Como diferencia nosotros estudiamos la interfaz cerebro computadora no invasivo, midiendo las señales corticales”, detalla.
De esta forma, los investigadores colocan electrodos en el cuero cabelludo. Éstos registran ondas cerebrales de muy escasa amplitud, que pasan por un amplificador. A continuación se digitalizan para poder ser procesadas por el ordenador, encargado de interpretar dichas ondas y realizar todo el tratamiento.
La siguiente fase del estudio se centrará en usar interfaces más simples, donde el usuario no tenga que pensar en pulsar un botón o una letra, sino que el interfaz actúe directamente con los pensamientos imaginarios, sin ninguna tableta o código dado, sólo decodificando lo que el usuario imagina.
La investigación ha sido financiada por el Programa Talentia Senior, de ayudas a la captación de talento en los agentes del Sistema Andaluz del Conocimiento, así como al hospital Cayetano Heredia y la Universidad Peruana Cayetano Heredia (UPCH), en Lima (Perú). Los experimentos de esta investigación fueron aprobados por el comité de ética de la Universidad Peruana Cayetano Heredia (UPCH).