Anonim

El robot humanoide controlado por el pensamiento - títere sin cuerdas

Robótica

Mike Hanlon

4 de enero de 2007

6 imágenes

4 de enero de 2007 La industria de robótica personal aún puede estar en su infancia, pero se prevé que competirá con la industria automotriz en dos décadas a partir de ahora. Para entonces, los robots serán mucho más avanzados que los que conocemos hoy en día. Un indicio de lo que podría estar en la tienda proviene de la Universidad de Washington, donde los investigadores han demostrado que es posible controlar el movimiento de un robot humanoide con señales de un cerebro humano (ver videos - AVI-QT - WMV). El hecho de poder controlar a un robot solo a través del pensamiento obviamente tiene enormes ramificaciones para el desarrollo de servidores robóticos, trabajadores y dispositivos de movilidad para la población discapacitada y envejecida. Con unas pocas décadas de intensa investigación, es posible que tengamos servidores robóticos que satisfagan todos nuestros deseos, ¡literalmente!

Rajesh Rao, profesor asociado de ciencias de la computación e ingeniería, y sus estudiantes han demostrado que un individuo puede "ordenar" a un robot que se desplace a lugares específicos y capte objetos específicos simplemente generando las ondas cerebrales adecuadas que reflejen al individuo ". s instrucciones Los resultados se presentaron en la reunión Tendencias actuales en la interfaz cerebro-computadora en diciembre.

"Esto es realmente una demostración de prueba de concepto", dice Rao. "Sugiere que un día podríamos usar robots semiautónomos para trabajos como ayudar a personas discapacitadas o realizar tareas de rutina en el hogar de una persona".

El individuo que controla, en este caso un estudiante graduado en el laboratorio de Rao, usa una gorra con 32 electrodos. Los electrodos captan las señales cerebrales del cuero cabelludo basándose en una técnica llamada electroencefalografía. La persona observa los movimientos del robot en la pantalla de una computadora a través de dos cámaras, una montada en el robot y otra arriba.

En este momento, los "comandos de pensamiento" están limitados a unas pocas instrucciones básicas. Una persona puede instruir al robot para que avance, elegir uno de los dos objetos disponibles, levantarlo y llevarlo a una de dos ubicaciones. Los resultados preliminares muestran una precisión del 94 por ciento en la elección del objeto correcto.

Los objetos disponibles para ser recogidos son vistos por la cámara del robot y transmitidos a la pantalla de la computadora del usuario. Cada objeto se ilumina al azar. Cuando la persona mira el objeto que desea recoger y lo ve brillar repentinamente, el cerebro registra sorpresa. La computadora detecta este patrón característico de la actividad cerebral sorprendida y transmite la elección al robot, que luego procede a recoger el objeto seleccionado. Un procedimiento similar se utiliza para determinar la elección del usuario de un destino una vez que el objeto ha sido recogido.

"Una de las cosas importantes de esta demostración es que estamos usando una señal cerebral" ruidosa "para controlar el robot", dice Rao. "La técnica para captar señales cerebrales no es invasiva, pero eso significa que solo podemos obtener señales cerebrales indirectamente de sensores en la superficie de la cabeza, y no donde se generan en el cerebro. Como resultado, el usuario solo puede generar comandos de alto nivel, como indicar qué objeto recoger o a qué ubicación ir, y el robot debe ser lo suficientemente autónomo para poder ejecutar dichos comandos ".

El equipo de Rao tiene planes de ampliar la investigación para utilizar objetos más complejos y equipar al robot con habilidades como evitar obstáculos en una habitación. Esto requerirá comandos más complicados del cerebro de los "maestros" y más autonomía por parte del robot.

"Queremos llegar al punto de usar objetos reales que la gente pueda querer que el robot recoja, además de que el robot se mueva a través de varias habitaciones", dice Rao.

Uno de los objetivos de la investigación futura es hacer que el comportamiento del robot sea más adaptable al entorno, lo que significa que la programación del robot debe permitir que se produzca algún tipo de aprendizaje. El equipo de Rao está bien posicionado para dicha investigación porque es uno de los pocos grupos en el mundo que investiga simultáneamente formas de controlar robots con ondas cerebrales y que explora formas avanzadas para que los robots aprendan de la experiencia.

Al comienzo de los experimentos, Rao consideró la cuestión de si el robot debería estar equipado con ruedas en lugar de patas, lo que en algunos entornos podría hacer que el movimiento fuera más fácil y más estable.

"Pensamos en esto, pero decidimos que nuestro objetivo era diseñar aplicaciones para un entorno centrado en el ser humano en el hogar o el lugar de trabajo", dice. "Entonces, para moverse y actuar en esos entornos, el robot tendría que ser humanoide, para subir escaleras, por ejemplo, y para agarrar objetos diseñados para uso humano".

Para la demostración, el robot estaba en una habitación diferente pero en el mismo edificio que su "maestro" humano. Sin embargo, la proximidad física no es un requisito para que este sistema de computadora cerebral funcione: el individuo y el robot pueden estar en cualquier lugar en el mundo siempre que haya conectividad a Internet entre sus dos ubicaciones.

Los robots que actúan como "agentes" humanos son un elemento básico de la literatura de ciencia ficción y programas de televisión futuristas como "Los Jetsons", en los que la familia tenía una doncella robótica. Rao llama a lo que su equipo ha hecho "un primer paso primitivo" en este camino.

El trabajo de Rao ha sido financiado por subvenciones de la Fundación Packard, la Oficina de Investigación Naval y la Fundación Nacional de Ciencia. Los estudiantes que trabajan en el proyecto incluyen Pradeep Shenoy, Christian Bell, Ravi Kiran y Rawichote Chalodhorn.

Recomendado La Elección Del Editor