El siguiente vídeo presenta, con una base hiphopera, un trabajo que el investigador J. Raúl de la Universidad de Málaga presentará próximamente en el workshop ROBOT2011.
Más abajo explico qué es lo que se ve en cada parte del vídeo:
(Música: Everyday I see my dream)
Las cinco ventanas que muestra el vídeo representan, de izquierda a derecha y de arriba a abajo:
- Una vista del experimento desde una cámara externa. Se puede ver al robot SANCHO navegando autónomamente desde una habitación hasta un punto de destino en un pasillo de la Escuela de Informática y Telecomunicaciones. El robot decide en cada momento qué movimientos realizar basándose únicamente en los datos sobre obstáculos que detecta con tres sensores: dos escáners láser planos (uno delantero y otro trasero) y el sensor Kinect. Este último es el que permite detectar la mayor cantidad de posibles obstáculos, como por ejemplo la mesa que se puede ver en el pasillo, que para los sensores láser situados a baja altura, solamente serían cuatro postes verticales sin nada en medio, lo que pondría al robot en peligro de intentar atravesar la mesa.
- Un mapa de ocupación usado como memoria a corto plazo.
- Lo que ve la cámara de la Kinect en cada momento.
- La representación 3D de la nube de puntos de la Kinect. Estos son los obstáculos a evitar.
- Una vista 3D de una reconstrucción del entorno, donde se aprecia cómo ve el mundo un robot a través de sus sensores. El círculo azul es el destino de la navegación en cada momento, que para este experimento se introducía desde un teclado inalámbrico o pinchando en la pantalla táctil del robot.
Todo el software empleado y desarrollado es de código abierto, como se mencione en el artículo.
Para terminar, enhorabuena al autor del artículo (y del vídeo) por el trabajo 😉