Potenciando a los robots con el rendimiento de tareas complejas Meta IA desarrolla un modelo de asequibilidad visual utilizando videos de comportamiento humano en Internet.

Meta IA desarrolla un modelo visual de asequibilidad utilizando videos de comportamiento humano en Internet para potenciar a los robots en tareas complejas.

Meta AI, una organización líder en investigación de inteligencia artificial (IA), ha revelado recientemente un algoritmo innovador que promete revolucionar el campo de la robótica. En su artículo de investigación titulado “Affordances from Human Videos as a Versatile Representation for Robotics” (Affordances de videos humanos como una representación versátil para la robótica), los autores exploran la aplicación de videos de YouTube como una herramienta de entrenamiento poderosa para que los robots aprendan y reproduzcan acciones humanas. Al aprovechar los vastos recursos de videos instructivos en línea, este algoritmo de vanguardia tiene como objetivo cerrar la brecha entre conjuntos de datos estáticos y aplicaciones de robots en el mundo real, permitiendo que los robots realicen tareas complejas con mayor versatilidad y adaptabilidad.

Central en este enfoque innovador es el concepto de “affordances” (posibilidades). Las affordances representan las acciones o interacciones potenciales que un objeto o entorno ofrece. Al entrenar a los robots para que comprendan y aprovechen estas affordances a través del análisis de videos humanos, el algoritmo de Meta AI dota a los robots de una representación versátil de cómo realizar diversas tareas complejas. Este avance mejora la capacidad del robot para imitar acciones humanas y los capacita para aplicar su conocimiento adquirido en entornos nuevos y desconocidos.

Para garantizar la integración perfecta de este modelo basado en affordances en el proceso de aprendizaje de los robots, los investigadores de Meta AI lo han incorporado en cuatro paradigmas de aprendizaje de robots diferentes. Estos paradigmas incluyen aprendizaje por imitación fuera de línea, exploración, aprendizaje condicionado por objetivos y parametrización de acciones para el aprendizaje por refuerzo. Al combinar el poder del reconocimiento de affordances con estas metodologías de aprendizaje, los robots pueden adquirir nuevas habilidades y realizar tareas con mayor precisión y eficiencia.

Para entrenar efectivamente el modelo de affordance, Meta AI utiliza conjuntos de datos de videos humanos a gran escala, como Ego4D y Epic Kitchens. Al analizar estos videos, los investigadores utilizan detectores de interacción entre objetos y manos listos para usar para identificar regiones de contacto y rastrear la trayectoria de la muñeca después del contacto. Sin embargo, surge un desafío importante cuando la presencia humana en la escena causa un cambio en la distribución. Para superar este obstáculo, los investigadores aprovechan la información de la cámara disponible para proyectar puntos de contacto y trayectorias posteriores al contacto en un marco independiente de lo humano, que luego sirve como entrada a su modelo.

Antes de este avance, los robots estaban limitados en su capacidad para imitar acciones, principalmente confinados a replicar entornos específicos. Sin embargo, con el último algoritmo de Meta AI, se ha logrado un progreso significativo en la generalización de las acciones de los robots. Esto significa que los robots ahora pueden aplicar su conocimiento adquirido en entornos nuevos y desconocidos, demostrando una mayor adaptabilidad.

Meta AI está comprometida con el avance del campo de la visión por computadora y fomenta la colaboración entre investigadores y desarrolladores. En línea con este compromiso, la organización planea compartir el código y el conjunto de datos de su proyecto. Al hacer que estos recursos sean accesibles para otros, Meta AI tiene como objetivo fomentar una mayor exploración y desarrollo de esta tecnología. Este enfoque abierto permitirá el desarrollo de robots autodidactas que pueden adquirir nuevas habilidades y conocimientos a partir de videos de YouTube, impulsando el campo de la robótica hacia nuevos ámbitos de innovación.