tecnologia

Un robot aprende una habilidad humana viendo videos de YouTube

Un experimento en robótica busca demostrar que la observación directa puede reemplazar a la programación tradicional en el aprendizaje de gestos complejos, sin reglas predefinidas.

Un robot humanoide ha logrado aprender una habilidad tras observar durante horas vídeos en YouTube. El avance, descrito en la revista científica Science Robotics, demuestra que la observación audiovisual puede sustituir a la programación tradicional en la adquisición de gestos complejos ligados al habla. El sistema ha sido impulsado por un equipo de Columbia Engineering y tiene como protagonista a EMO, un sistema robótico capaz de coordinar movimientos labiales y faciales a partir del sonido. A diferencia de otros modelos, no utiliza reglas preestablecidas, sino que aprende mediante ensayo, error y análisis visual, lo que supone una habilidad que solo algunos seres vivos poseen.
 
El entrenamiento del robot comienza con una fase de autoexploración poco habitual en máquinas. EMO se observa frente a un espejo y experimenta con distintas expresiones, evaluando cómo responde su propio rostro. Este proceso inicial le permite construir una base para interpretar gestos más complejos asociados a la comunicación humana.
Aprendizaje a partir de la observación humana
Tras esa primera etapa, el sistema analiza durante horas vídeos de personas hablando y cantando en YouTube. La inteligencia artificial identifica patrones entre los sonidos y los movimientos del rostro, estableciendo una relación directa entre el audio y la gestualidad necesaria para reproducirlo con precisión.
 
El diseño físico resulta determinante para este logro. EMO dispone de labios de silicona blanda con diez grados de libertad, accionados por 26 motores, lo que le permite ejecutar movimientos sutiles y continuos. Esta arquitectura se aleja de los mecanismos rígidos habituales y facilita una comunicación visual más natural.
Un paso más hacia la interacción natural
El director del Creative Machines Lab, Hod Lipson, subraya el impacto emocional del experimento y afirma: "Algo casi mágico ocurre cuando un robot aprende a sonreír o a hablar solo observando y escuchando a los humanos". A su juicio, este tipo de aprendizaje acerca a las máquinas a una interacción más empática.
 
El investigador principal, Yuhang Hu, destaca que la integración de esta capacidad con modelos conversacionales como ChatGPT podría reforzar el vínculo entre personas y robots. Como demostración creativa, el equipo ha presentado incluso un álbum generado por inteligencia artificial, titulado Hello World_, en el que EMO aplica lo aprendido al canto.
 
OTRAS NOTAS