Niño Robot usa imaginación para aprender

2792

En lugar de ser programado, este robot utiliza algoritmos inspirados en el cerebro para “imaginar” y hacer las tareas antes de probarlos en el mundo real.

Si los robots pueden aprender a lidiar con situaciones desconocidas automáticamente, podrían ser desplegados en muchos entornos nuevos.


Darwin intenta mover su torso alrededor bajo el control de varias redes neuronales.

Al igual que muchos niños pequeños, Darwin a veces parece un poco inestable en sus pies. Pero con cada movimiento torpe, el robot humanoide está demostrando una nueva manera importante para que los androides para hagan frente a situaciones difíciles o poco conocidos. El robot aprende a realizar una nueva tarea mediante el uso de un proceso algo similar a los procesos neurológicos que sustentan el aprendizaje infantil.

Darwin vive en el laboratorio de Pieter Abbeel, profesor asociado en la Universidad de California, Berkeley. Cuando vi el robot hace unas semanas, fue suspendido de un trípode de cámara por un trozo de cuerda. Un poco antes, Darwin había estado retorciéndose alrededor en el extremo de la cuerda, tratando de averiguar la mejor manera de mover sus extremidades con el fin de ponerse de pie sin caerse.

Movimientos de Darwin son controlados por varias redes neuronales algoritmos simulados que imitan la forma de aprendizaje que sucede en un cerebro biológico como las conexiones entre las neuronas se fortalecen y debilitan con el tiempo en respuesta a la entrada. El enfoque hace uso de redes neuronales muy complejas, que se conocen como redes de aguas profundas de aprendizaje, que tienen muchas capas de neuronas simuladas.

Robot Darwin

Para que el robot aprenda a pararse y girar su cuerpo, por ejemplo, primero se realiza una serie de simulaciones con el fin de capacitar a una red de alto nivel profundo aprendizaje de cómo realizar la tarea, algo que los investigadores comparan a un “proceso imaginario”. Esto proporciona una guía general para el robot, mientras que una segunda red de aprendizaje está capacitado para llevar a cabo la tarea al tiempo que responde a la dinámica de las articulaciones del robot y la complejidad del entorno real. Se requiere de una segunda red, ya que cuando los primeros intentos de la red, por ejemplo, para mover una pierna, la fricción experimentada en el punto de contacto con el suelo puede tirarlo por completo, haciendo que el robot caiga.

DARwin_Robot

Los investigadores esperan que el robot aprenda a pararse, a mover su mano para realizar movimientos de alcance, y para mantenerse en pie cuando el suelo debajo de este se inclina.

El grupo de Abbeel ha demostrado previamente cómo el aprendizaje profundo puede permitir a un robot realizar una tarea, como pasar un bloque de construcción de juguete a través de un agujero en forma, a través de un proceso de ensayo y error. El nuevo enfoque es importante porque no siempre puede ser posible que un robot disfrute de un extenso período de pruebas. Y simulaciones carecen de las complejidades que se encuentran en el mundo real.

 

 

 

 

 

 

Publicidad