¿Cómo leer los pensamientos ajenos?
Un nuevo dispositivo portátil del MIT puede "leer" tus pensamientos con más del 90 por ciento de precisión. El dispositivo "AlterEgo" se usa colgado de la oreja y sujeto al mentón del usuario. Tiene sensores a lo largo de la barra que captan señales neuromusculares que ocurren en la mandíbula y la cara cuando piensas en palabras en tu mente, que son indetectables para el ojo humano.
Los investigadores recolectaron datos de tareas computacionales, como la aritmética y la aplicación de ajedrez, con vocabularios limitados de aproximadamente 20 palabras cada uno. Las señales de los pensamientos "sub-vocalizados" (dicho en tu cabeza) captados por el dispositivo fueron retroalimentados a un sistema de aprendizaje automático entrenado para asociar estas palabras con las señales que recibe. El dispositivo puede interpretar las señales como palabras y comandos.
Básicamente, solo al pensar en palabras, puedes hablar con este dispositivo y te entenderá. La idea es que el dispositivo, que aún es bastante preliminar, pueda ser utilizado por los usuarios para responder consultas (por ejemplo, al usar Google) o para controlar una computadora. El dispositivo ya puede responderte por medio de auriculares con conducción ósea, sin que nadie escuche ninguna parte de tu conversación.
El equipo del MIT desea ampliar esto, hasta el punto de poder mantener conversaciones fluidas con la máquina (o Internet, las aplicaciones, los asistentes de inteligencia artificial, etc.) en su propia cabeza, sin tener que buscar otro dispositivo. "Nuestra idea era: ¿podríamos tener una plataforma informática más interna, que combine humanos y máquinas de alguna manera y que se sienta como una extensión interna de nuestra propia cognición?", dijo Arnav Kapur, uno de los creadores del dispositivo, a MIT News.
Actualmente, el dispositivo ha sido probado en 10 sujetos en un estudio de usabilidad. Los investigadores dedicaron alrededor de 15 minutos a personalizar el dispositivo para el usuario, luego pidieron a los sujetos de prueba que usen el dispositivo para emitir comandos a una computadora. El dispositivo tenía una precisión del 92 por ciento para transcribir las palabras subvocalizadas en la cabeza de los usuarios.
Sin embargo, a diferencia del vídeo anterior, el equipo no probó el sistema en un entorno ambulatorio del mundo real. "Nuestro estudio existente se realizó en una configuración estacionaria. En el futuro, nos gustaría realizar pruebas de usabilidad longitudinales en escenarios diarios", escriben. Al recopilar más datos a través del uso diario, como lo hacen Siri y Alexa, creen que se podría hacer mucho más preciso muy rápidamente y aumentar su vocabulario al mismo tiempo. "Estamos en el medio de recopilar datos, y los resultados se ven bien", dijo Kapur. "Creo que lograremos una conversación completa algún día".