Una persona con discapacidad motora podrá aprender a mover un brazo robótico con el pensamiento

EmailFacebookTwitterLinkedinPinterest
12/04/2023 - 09:20
Brazo robótico tendiendo su dedo a una chica

Lectura fácil

José Manuel Carmena es un experto en la aplicación de la Ingeniería Electrónica a la Neurociencia y ha trabajado durante muchos años como profesor e investigador en la Universidad de California-Berkeley. Ha sido pionero en el desarrollo de interfaces cerebro-máquina, tecnologías que permiten la comunicación directa entre el cerebro y dispositivos externos, como un brazo robótico o prótesis, para ayudar a personas con discapacidad motora.

En 2017, fundó la empresa de biotecnología iota Biosciences para llevar la investigación a la producción de soluciones con impacto real en la sociedad. Además, forma parte del equipo que asesora en la creación del Centro Nacional de Neurotecnología 'Spain Neurotech', que busca ser un referente en la aplicación de la inteligencia artificial a la neurotecnología.

Hoy José Carmena es noticia porque muy pronto viajará de California a Madrid para participar en las IV Jornadas Neurocientíficas y Educativas organizadas por la Fundación Querer, donde compartirá su conocimiento sobre interfaces cerebro-máquina y su aplicación en enfermedades del sistema motor. Además, recibirá el premio 'Hero Award Internacional' por su destacada trayectoria en la Ingeniería Electrónica y la Neurociencia a nivel mundial. Y, en GNDiario, nos gustaría hablar sobre su brazo robótico que cambiará la vida a millones de personas con discapacidades motoras.

Tecnología al servicio de la sociedad

La interfaz cerebro-máquina puede mejorar la calidad de vida de muchísimas personas con enfermedades motoras, sensoriales y cognitivas.

Pero, ¿cómo funciona una interfaz cerebro-máquina? Una tecnología implantada (invasiva) o no implantada (no invasiva) en el cerebro encargada de registrar la actividad neuronal. La no invasiva se realiza con tecnología de electroencefalograma (EEG), electrodos que se colocan en el cuero cabelludo, y la invasiva consiste en hacer una craneotomía del cráneo e insertar en la corteza cerebral unos electrodos. Esto, por supuesto, no genera dolor dentro del cerebro. Después, un algoritmo matemático traduce las señales de las neuronas en señales motoras de control de un robot para realizar una determinada tarea. Por ejemplo, mover un brazo robótico para alcanzar un vaso de agua solo con el pensamiento. La idea es que el paciente que no puede mover su brazo, pero tenga su cerebro intacto, aprenda a mover un brazo robótico solo con pensar en cómo quiere hacerlo.

El cerebro de este brazo robótico podrá además 'sentir' a la máquina

Un avance de la neurociencia de José Manuel Carmena ha sido incluir la sensación táctil para mejorar el control. Es decir, además de poder mover ese brazo robótico, el usuario podrá sentir lo que la mano robótica está agarrando y así poder hacer un agarre más preciso, al tener más incorporado ese cuerpo que no es natural.

De esta forma, si por ejemplo voy a darle la mano a alguien sería importante que pudiera sentir esas sensaciones táctiles para no apretar demasiado fuerte. Es muy importante hacer tanto la decodificación como la codificación de esas sensaciones táctiles artificiales de vuelta al cerebro.

Utilizando mucha inteligencia artificial, se puede decodificar con mucha fidelidad las señales musculares de lo que el paciente quiere decir, solo con el pensamiento. Es decir, por ejemplo, podrías hablar con Siri literalmente con el pensamiento, sin tener que hablar y de forma mucho más rápida. Hay compañías que ya están trabajando en técnicas no invasivas para esto, no solo para personas con discapacidad. Por otro lado, hay compañías que se dedican a utilizar las interfaces cerebro-máquina en implantes como prótesis de memoria para la gente que tiene problemas de memoria consecuencia de un ictus.

Añadir nuevo comentario