[ad_1]
Un guepardo corre a través de un campo montañoso, saltando sobre brechas repentinas en el terreno accidentado. El movimiento puede parecer sencillo, pero lograr que un robot se mueva de esta manera es una perspectiva completamente diferente.
En los últimos años, los robots de cuatro patas inspirados en el movimiento de los guepardos y otros animales han avanzado mucho, pero aún están por detrás de sus homólogos mamíferos cuando se trata de recorrer un paisaje con rápidos cambios de elevación.
“En estos contextos, hay que utilizar la visión para evitar el fracaso. Por ejemplo, es difícil evitar caminar en un espacio si no puede verlo. Aunque existen algunos métodos para incorporar la visión en la locomoción de las piernas, la mayoría de ellos no son realmente adecuados para su uso con los sistemas robóticos ágiles emergentes ”, explica Gabriel Margolis, estudiante de doctorado en el laboratorio Pulkit Agrawal, profesor del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL ) en el MIT.
Ahora, Margolis y sus colaboradores han desarrollado un sistema que mejora la velocidad y la agilidad de los robots con patas a medida que atraviesan las grietas del campo. El nuevo sistema de control se divide en dos partes: una que procesa las entradas en tiempo real de una cámara de video montada en la parte frontal del robot y otra que traduce esta información en instrucciones sobre cómo el robot debe mover su cuerpo. Los investigadores probaron su sistema en el mini guepardo del MIT, un robot potente y ágil construido en el laboratorio de Sangbae Kim, profesor de ingeniería mecánica.
A diferencia de otros métodos para controlar un robot de cuatro patas, este sistema de dos partes no requiere que mapees el terreno con anticipación, por lo que el robot puede ir a cualquier parte. En el futuro, esto podría permitir a los robots correr hacia el bosque en una misión de respuesta de emergencia o subir un tramo de escaleras para entregar medicamentos a una persona mayor atrapada.
Margolis escribió el artículo con el autor principal Pulkit Agrawal, quien dirige el improbable laboratorio de IA en el MIT y es profesor asistente de desarrollo de carrera de Steven G. y Renee Finn en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación; El profesor Sangbae Kim del Departamento de Ingeniería Mecánica del MIT; y otros estudiantes de posgrado Tao Chen y Xiang Fu del MIT. Otros coautores incluyen a Kartik Paigwar, un estudiante graduado de la Universidad Estatal de Arizona; y Donghyun Kim, profesor asistente de la Universidad de Massachusetts en Amherst. El trabajo se presentará el próximo mes en la Robotics Learning Conference.
Todo está bajo control
El uso de dos controladores separados que trabajan juntos hace que este sistema sea particularmente innovador.
Un controlador es un algoritmo que convertirá el estado del robot en un conjunto de acciones a seguir. Muchos controladores ciegos, los que no incorporan visión, son resistentes y eficientes, pero solo permiten que los robots caminen en terrenos continuos.
La visión es una entrada sensorial tan compleja para procesar que estos algoritmos no pueden manejarla de manera efectiva. Los sistemas que incorporan visión generalmente se basan en un «mapa de altura» del terreno, que debe ser preconstruido o generado sobre la marcha, un proceso que generalmente es lento y probablemente fallará si el mapa de altura es incorrecto.
Para desarrollar su sistema, los investigadores tomaron las mejores partes de estos resistentes controladores de persianas y los combinaron con un módulo separado que maneja la visión en tiempo real.
La cámara del robot captura imágenes de profundidad del terreno próximo, que se transmiten a un controlador de alto nivel junto con información sobre el estado del cuerpo del robot (ángulos de articulación, orientación del cuerpo, etc.). El controlador de alto nivel es una red neuronal que «aprende» de la experiencia.
Esta red neuronal genera una trayectoria objetivo, que el segundo controlador utiliza para generar pares para cada una de las 12 articulaciones del robot. Este controlador de bajo nivel no es una red neuronal y, en cambio, se basa en un conjunto de ecuaciones físicas concisas que describen el movimiento del robot.
“La jerarquía, incluido el uso de este controlador de bajo nivel, nos permite restringir el comportamiento del robot para que se comporte mejor. Con este controlador de bajo nivel, utilizamos modelos bien especificados en los que podemos imponer restricciones, lo que normalmente no es posible en una red basada en el aprendizaje ”, dice Margolis.
Enseñe a la red
Los investigadores utilizaron el método de prueba y error conocido como aprendizaje por refuerzo para entrenar al controlador de alto nivel. Realizaron simulaciones del robot en funcionamiento sobre cientos de diferentes terrenos discontinuos. y lo recompensó por sus cruces exitosos.
Con el tiempo, el algoritmo aprendió qué acciones maximizaban la recompensa.
Luego construyeron un lote físico con un juego de tablas de madera y pusieron a prueba su sistema de control usando el mini guepardo.
“Fue muy divertido trabajar con un robot diseñado internamente en el MIT por parte de nuestro personal. El mini guepardo es una gran plataforma porque es modular y está hecho principalmente de piezas que puedes pedir en línea, por lo que si queríamos una batería o cámara nueva, solo teníamos que pedirla a un proveedor habitual y, con un poco de ayuda de Sangbae. laboratorio para instalarlo ”, explica Margolis.
Estimar el estado del robot ha demostrado ser un desafío en algunos casos. A diferencia de la simulación, los sensores del mundo real encuentran ruido que puede acumularse y afectar el resultado. Entonces, para algunos experimentos que involucran la colocación de pies de alta precisión, los investigadores utilizaron un sistema de captura de movimiento para medir la posición real del robot.
Su sistema superó a otros que solo usan un solo controlador, y el mini guepardo atravesó con éxito el 90% de los terrenos.
“Una novedad de nuestro sistema es que ajusta la marcha del robot. Si un humano intentara saltar sobre una brecha realmente amplia, podría comenzar corriendo muy rápido para ganar velocidad, luego podría juntar ambos pies para dar un salto realmente poderoso a través de la brecha. De la misma forma, nuestro robot puede ajustar los tiempos y la duración de su contacto con los pies para cruzar mejor el suelo ”, explica Margolis.
Saltando del laboratorio
Si bien los investigadores han podido demostrar que su sistema de control funciona en el laboratorio, todavía tienen un largo camino por recorrer antes de poder implementar el sistema en el mundo real, dice Margolis.
En el futuro, esperan montar una computadora más potente en el robot para que pueda hacer todos sus cálculos a bordo. También quieren mejorar el estimador de estado del robot para eliminar la necesidad del sistema de captura de movimiento. Además, les gustaría mejorar el controlador de bajo nivel para que pueda aprovechar todo el rango de movimiento del robot y mejorar el controlador de alto nivel para que funcione bien en diferentes condiciones de iluminación.
«Es notable ver la flexibilidad de las técnicas de aprendizaje automático capaces de eludir procesos intermedios cuidadosamente diseñados (por ejemplo, estimación de estado y planificación de trayectorias) en los que se basan técnicas basadas en modelos centenarios», dice Kim. “Estoy entusiasmado con el futuro de los robots móviles con un procesamiento de visión más robusto, especialmente capacitado para la locomoción. »
La investigación es apoyada, en parte, por el improbable laboratorio de IA del MIT, el Laboratorio de Robótica Biomimética, NAVER LABS y el programa DARPA Machine Common Sense.
[ad_2]