Contenido principal del artículo

Victor Mengual
Universidad de Málaga
España
Francisco-Angel Moreno
a:1:{s:5:"es_ES";s:22:"Universidad de Málaga";}
España
https://orcid.org/0000-0003-2997-7571
Javier González-Jiménez
Universidad de Málaga
España
https://orcid.org/0000-0003-3845-3497
Núm. 45 (2024), Robótica
DOI: https://doi.org/10.17979/ja-cea.2024.45.10947
Recibido: jun. 5, 2024 Aceptado: jul. 3, 2024 Publicado: jul. 19, 2024
Derechos de autor

Resumen

El SLAM visual se basa comúnmente en la optimización de un grafo de keyframes, imágenes clave en una secuencia de vídeo, para la construcción de mapas 3D y la localización de la cámara. La creación de este grafo requiere de un proceso front-end eficiente que seleccione keyframes con suficiente solape entre observaciones pero con bajo coste computacional. Este trabajo propone utilizar información de barridos láser 2D, comunes en robots móviles, para determinar el solape entre observaciones de una cámara, incorporando información sobre la estructura de la escena y seleccionando nodos distanciados entre sí cuando el solape cae bajo cierto umbral. Esto evita el costoso proceso de extracción y emparejamiento de características en las imágenes para determinar la covisibilidad entre observaciones. Las pruebas realizadas demuestran que podemos mantener el nivel de solape alrededor de un determinado umbral durante la navegación, insertando keyframes a diferentes frecuencias según la estructura de la escena con un coste computacional significativamente menor que con el uso exclusivo de imágenes.

Detalles del artículo

Citas

Engel, J., Schöps, T., Cremers, D., 2014. LSD-SLAM: Large-scale direct monocular SLAM. In: European conference on computer vision. Springer, pp.834–849. DOI: 10.1007/978-3-319-10605-2 54 DOI: https://doi.org/10.1007/978-3-319-10605-2_54

Forster, C., Pizzoli, M., Scaramuzza, D., 2014. Svo: Fast semi-direct monocular visual odometry. In: 2014 IEEE international conference on robotics and automation (ICRA). IEEE, pp. 15–22. DOI: 10.1109/ICRA.2014.6906584 DOI: https://doi.org/10.1109/ICRA.2014.6906584

Gomez-Ojeda, R., Moreno, F.-A., Zuñiga-Noël, D., Scaramuzza, D., Gonzalez-Jimenez, J., 2019. PL-SLAM: A stereo SLAM system through the combination of points and line segments. IEEE Transactions on Robotics 35 (3), 734–746. DOI: 10.1109/TRO.2019.2899783 DOI: https://doi.org/10.1109/TRO.2019.2899783

Jaimez, M., Monroy, J. G., Gonzalez-Jimenez, J., 2016. Planar odometry from a radial laser scanner. a range flow-based approach. In: 2016 IEEE International Conference on Robotics and Automation (ICRA). IEEE, pp. 4479–4485. DOI: 10.1109/ICRA.2016.7487647 DOI: https://doi.org/10.1109/ICRA.2016.7487647

Klein, G., Murray, D., 2007. Parallel tracking and mapping for small AR workspaces. In: 2007 6th IEEE and ACM international symposium on mixed and augmented reality. IEEE, pp. 225–234. DOI: 10.1109/ISMAR.2007.4538852 DOI: https://doi.org/10.1109/ISMAR.2007.4538852

Mur-Artal, R., Montiel, J. M. M., Tardos, J. D., 2015. ORB-SLAM: a versatile and accurate monocular SLAM system. IEEE transactions on robotics 31 (5), 1147–1163. DOI: 10.1109/TRO.2015.2463671 DOI: https://doi.org/10.1109/TRO.2015.2463671

Mur-Artal, R., Tardós, J. D., 2017. ORB-SLAM2: An open-source SLAM system for monocular, stereo, and RGB-D cameras. IEEE Transactions on Robotics 33 (5), 1255–1262. DOI: 10.1109/TRO.2017.2705103 DOI: https://doi.org/10.1109/TRO.2017.2705103

Qin, T., Li, P., Shen, S., 2018. Vins-mono: A robust and versatile monocular visual-inertial state estimator. IEEE Transactions on Robotics 34 (4), 1004–1020. DOI: 10.1109/TRO.2018.2853729 DOI: https://doi.org/10.1109/TRO.2018.2853729

Tanimoto, T. T., 1958. Elementary mathematical theory of classification and prediction.

Zuo, X., Xie, X., Liu, Y., Huang, G., 2017. Robust visual SLAM with point and line features. In: 2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). IEEE, pp. 1775–1782. DOI: 10.1109/IROS.2017.8205991 DOI: https://doi.org/10.1109/IROS.2017.8205991