El implante cerebral convierte los pensamientos en palabras para ayudar a un hombre paralítico a ‘hablar’ de nuevo

El implante cerebral convierte los pensamientos en palabras para ayudar a un hombre paralítico a ‘hablar’ de nuevo

La interfaz cerebro-computadora de UCSF se aplica quirúrgicamente directamente a la corteza motora del paciente para permitir la comunicación.

Ken Probst, UCSF

El trabajo de Facebook en tecnología de entrada neuronal para AR y VR parece moverse en una dirección más basada en la muñeca, pero la compañía continúa invirtiendo en investigación sobre interfaces implantadas cerebro-computadora. La última fase de un estudio de varios años de la UCSF financiado por Facebook, llamado Proyecto Steno, traduce los intentos de conversación de un paciente paralítico con problemas del habla en palabras en una pantalla.

“Esta es la primera vez que alguien que trata de decir palabras de forma natural puede decodificarse en palabras simplemente a partir de la actividad cerebral”, dijo el Dr. David Moses, autor principal de un estudio publicado el miércoles en el New England Journal of Medicine. “Con suerte, esta es la prueba de principio para el control directo del habla de un dispositivo de comunicación, utilizando el intento de habla intencionado como señal de control de alguien que no puede hablar, que está paralizado”.

Las interfaces cerebro-computadora (BCI) han estado detrás de una serie de avances recientes prometedores, incluida la investigación de Stanford que podría convertir la escritura imaginaria en texto proyectado. El estudio de UCSF adopta un enfoque diferente, analiza los intentos reales de hablar y actúa casi como un traductor.

El estudio, dirigido por el neurocirujano de UCSF, el Dr. Edward Chang, implicó la implantación de una “neuroprótesis” de electrodos en un hombre paralizado que sufrió un derrame cerebral a los 20 años. Con un parche de electrodos implantado sobre el área del cerebro asociada con el control del tracto vocal. , el hombre intentó responder a las preguntas que se mostraban en una pantalla. Los algoritmos de aprendizaje automático de UCSF pueden reconocer 50 palabras y convertirlas en oraciones en tiempo real. Por ejemplo, si el paciente ve un mensaje preguntando “¿Cómo estás hoy?” la respuesta apareció en la pantalla como “Soy muy bueno”, apareciendo palabra por palabra.

Moses aclaró que el trabajo tendrá como objetivo continuar más allá de la fase de financiación de Facebook y que la investigación aún tiene mucho más trabajo por delante. En este momento, todavía no está claro cuánto del reconocimiento de voz proviene de patrones registrados de actividad cerebral, o expresiones vocales, o una combinación de ambos.

Moses se apresura a aclarar que el estudio, al igual que otros trabajos de BCI, no es una lectura de la mente: se basa en detectar la actividad cerebral que ocurre específicamente cuando se intenta participar en un determinado comportamiento, como hablar. Moses también dice que el trabajo del equipo de UCSF aún no se traduce en interfaces neuronales no invasivas. Neuralink de Elon Musk promete datos de transmisión inalámbrica de electrodos implantados en el cerebro para futuras investigaciones y usos de asistencia, pero hasta ahora esa tecnología solo se ha demostrado en un mono.

frlr-head-montado-bci-research-prototype

El prototipo de dispositivo de cabeza BCI de Facebook Reality Labs, que no tenía electrodos implantados, se está volviendo de código abierto.

Facebook

Mientras tanto, Facebook Reality Labs Research se ha alejado de las interfaces cerebro-computadora que se usan en la cabeza para los futuros auriculares VR / AR, girando para el futuro cercano para enfocarse en dispositivos de muñeca basados ​​en la tecnología adquirida de CTRL-Labs. Facebook Reality Labs tenía su propio prototipo no invasivo de auriculares de investigación con cabeza para estudiar la actividad cerebral, y la compañía ha anunciado que planea ponerlos a disposición para proyectos de investigación de código abierto, ya que deja de centrarse en el hardware neuronal montado en la cabeza. (UCSF recibe fondos de Facebook pero no de hardware).

“Los aspectos del trabajo montado en el cabezal óptico serán aplicables a nuestra investigación EMG en la muñeca. Continuaremos utilizando BCI óptico como una herramienta de investigación para construir mejores modelos y algoritmos de sensores basados ​​en la muñeca. Mientras continuaremos aprovechando estos prototipos en nuestra investigación, ya no estamos desarrollando un dispositivo BCI óptico montado en la cabeza para detectar la producción de voz. Esa es una de las razones por las que compartiremos nuestros prototipos de hardware montados en la cabeza con otros investigadores, que pueden aplicar nuestra innovación a otros casos de uso “, un Facebook representante confirmado vía email.

Sin embargo, la tecnología de entrada neuronal dirigida al consumidor aún está en pañales. Si bien existen dispositivos de consumo que utilizan sensores no invasivos para la cabeza o la muñeca, en este momento son mucho menos precisos que los electrodos implantados.

Para más noticias diarias, visite Spanishnews.us

Leave a Reply

Your email address will not be published. Required fields are marked *