Que es el SLAM
¿Que es el SLAM?
El método de Simultaneuous Localization and Mapping (SLAM por sus siglas
en inglés), busca dar respuesta a la siguiente pregunta: ¿Es posible
para un robot móvil hacer un mapa consistente del ambiente
y ubicarse en el mismo simultáneamente, cuando tanto el ambiente en el
que se encuentra como su posición inicial son desconocidas?. Para
entender esta pregunta debemos considerar la forma en que un robot
interactúa con el ambiente en el que se encuentra y
cómo determina su posición en el mismo, todo esto para lograr
comprender las dificultades de realizar el mapa y localizarse en este al
mismo tiempo.
(Rose, 2017)
Primero, hablaremos de la forma en que el robot estima la posición en la que se encuentra: la odometría. Ésta es la forma usual de estimar la localización de un robot, la cual se basa en medir la rotación de los motores para determinar cuándo se desplaza el vehículo, adicionalmente es importante saber que para determinar la localización del robot es necesaria una posición inicial.
Para
comprender más fácilmente imagínese un automóvil, que para dar giros a
la derecha debe girar las dos ruedas de la izquierda con una velocidad
mayor que la de las ruedas de la derecha y para girar
hacia la izquierda debe hacer lo contrario. De este modo, si sabemos la
velocidad de las llantas de la izquierda y la derecha deberíamos poder
estimar la posición en cada momento y hacer una trayectoria aproximada
de la ruta a seguir como se puede observar
en la siguiente imagen (Corominas Murtra et al., 2010) donde el camino
verde es generado con la odometría mientras que el camino azul es el
camino estimado del vehículo.
Como se puede observar, la odometría usada como única herramienta posee problemas debido a diferentes motivos como los que se listan a continuación:
- Problemas de alineación de los ejes del vehículo.
- Resolución limitada de los encoders
- Tamaños de ruedas diferentes
- entre otros
Para comprender el proceso mediante el cual se realiza la localización y el mapeo simultáneamente se debe introducir el concepto de puntos de referencia (landmarks), los cuales son objetos característicos del entorno de fácil reconocimiento, por ejemplo, en una casa usualmente pueden ser las paredes o esquinas. Para realizar el SLAM entonces debemos tener un sensor que pueda medir la distancia y reconocer estas landmarks. Normalmente, para aplicaciones terrestres en interiores(estructuras urbanas, ) se usan radares laser, para ambientes acuáticos se usan sensores ultrasonido y para ambientes en exteriores() se usan cámaras.
Ahora, el proceso de SLAM se describe en las siguientes imágenes, en las cuales el robot es representado por el triángulo observado en las figuras, los landmarks son las estrellas y los rayos son las mediciones de los sensores del robot. Así, en el primer paso extraemos los landmarks del ambiente y guardamos las medidas hasta cada una de ellas, en el siguiente paso se realiza un movimiento y se determina la posición del robot con la odometría del mismo, luego medimos nuevamente las medidas de las landmarks previamente identificadas y con esta información, el siguiente paso es corregir la posición del robot teniendo en cuenta la nueva distancia a las landmarks. Como se ve en la imagen la posición del robot calculada por la odometría es el triángulo con líneas punteadas y el triángulo con la línea tenue es el estimado de la posición usando el SLAM.

Se debe tener en cuenta que el metodo de SLAM no es perfecto y tiene un pequeño grado de error, en la siguiente imagen se observa la posicion real del robot, adicionalmente se observan tanto la estimacion de la odometria como la del SLAM.
Se debe tener en cuenta que el método de SLAM no es perfecto y tiene un pequeño grado de error, en la siguiente imagen se observa la posición real del robot, así como la estimación de la odometría y la del SLAM.
Bibliografia
Rose, R. (2017, March 23). Texas A&M is Solving SLAM Problem for Robot Astronaut. Retrieved April 16, 2017, from http://robotglobe.org/texas-solving-slam-problem-robot-astronaut/
Corominas Murtra, A., Trulls, E., Sandoval, O., Perez-Ibarz, J., Vasquez, D., Mirats-Tur, J. M., … Sanfeliu, A. (2010). Autonomous navigation for urban service mobile robots. IEEE/RSJ 2010 International Conference on Intelligent Robots and Systems, IROS 2010 - Conference Proceedings, (April 2017), 4141–4146. https://doi.org/10.1109/IROS.2010.5649151
Societyofrobots. (2014, April 16). WAVEFRONT ALGORITHM. Retrieved April 16, 2017, from https://www.societyofrobots.com/programming_wavefront.shtml
Science, D. P. (2016, October 3). How Safe Is Safe Enough for a Self-Driving Car? Retrieved April 18, 2017, from https://ww2.kqed.org/science/2016/10/03/how-safe-is-safe-enough-for-a-self-driving-car/





Comentarios
Publicar un comentario