Estudio de invariabilidad de marcas visuales ante cambios de iluminación
Contenido principal del artículo
Resumen
Los robots móviles tienen la capacidad de desplazarse de manera autónoma, para ello es necesario conocer su posición. Esta estimación puede ser obtenida a partir de diversos sensores. Uno de los sensores más comúnmente utilizados son los sistemas de visión por la gran cantidad de información que son capaces de capturar. Para extraer la información más relevante de las imágenes capturadas por las cámaras, se utilizan algoritmos que realizan la detección y su posterior descripción de los puntos más característicos del entorno, también conocidos como marcas visuales. Además, estas marcas visuales deben ser detectadas y descritas de manera que sean invariantes a posibles cambios del entorno. Un caso concreto de estos cambios, son los cambios en la iluminación, común en entornos interiores y exteriores. En este trabajo se ha realizado una evaluación de varios métodos clásicos y métodos que incorporan redes de aprendizaje profundo, para observar su comportamiento ante secuencias de imágenes que presentan diferentes condiciones de iluminación.
Palabras clave:
Detalles del artículo
Citas
Alcantarilla, P. F., Nuevo, J., Bartoli, A., 2013. Fast Explicit Diffusion for Accelerated Features in Nonlinear Scale Spaces. Procedings of the British Machine Vision Conference 2013, British Machine Vision Association, Bristol, 13.1–13.11. DOI: 10.5244/C.27.13 DOI: https://doi.org/10.5244/C.27.13
Bay, H., Tuytelaars, T., Gool, L., 2006. SURF: Speeded Up Robust Features. Computer Vision–ECCV 2006: 9th European Conference on Computer Vision, Graz, Austria, May 7-13, 2006. Proceedings, Part I 9, 404–417. DOI: 10.1007/1174402332 DOI: https://doi.org/10.1007/11744023_32
DeTone, D., Malisiewicz, T., Rabinovich, A., 2018. Superpoint: Self-Supervised Interest Point Detection and Description. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition workshops, 224–236. DOI: 10.1109/CVPRW.2018.00060 DOI: https://doi.org/10.1109/CVPRW.2018.00060
Dusmanu, M., Rocco, I., Pajdla, T., Pollefeys, M., Sivic, J., Torii, A., Sattler, T., 2019. D2-Net: A Trainable CNN for Joint Description and Detection of Local Features. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition CVPR, 8092–8101. DOI: 10.1109/CVPR.2019.00828 DOI: https://doi.org/10.1109/CVPR.2019.00828
Gil, A., Martínez-Mozos, O., Ballesta, M., Reinoso, O., 2010. A comparative evaluation of interest point detectors and local descriptors for visual SLAM. Machine Vision and Applications, 905–920. DOI: 10.1007/s00138-009-0195-x DOI: https://doi.org/10.1007/s00138-009-0195-x
Leutenegger, S., Chli, M., Siegwart., R., 2011. BRISK: Binary Robust invariant scalable keypoints. 2011 International conference on computer vision, 2548–2555. DOI: 10.1109/ICCV.2011.6126542 DOI: https://doi.org/10.1109/ICCV.2011.6126542
Lowe, D. G., 2004. Distinctive Image Features from Scale-Invariant Keypoints. International Journal of Computer Vision, 91–110. DOI: 10.1023/B:VISI.0000029664.99615.94 DOI: https://doi.org/10.1023/B:VISI.0000029664.99615.94
Rublee, E., Rabaud, V., Konolige, K., Bradski, G., 2011. ORB: An efficient alternative to SIFT or SURF. 2011 International conference on computer vision. IEEE, 2564–2571. DOI: 10.1371/journal.pone.0207191 DOI: https://doi.org/10.1109/ICCV.2011.6126544
Semborski, J., Idzkowski, A., 2024. A review on positioning techniques of mobile robots. Robotic Systems and Applications 4, 1–13. DOI: 10.21595/rsa.2024.23893 DOI: https://doi.org/10.21595/rsa.2024.23893
Valiente, D., Reinoso, O., Gil, A., Pay ́a, L., Ballesta, M., 2017. Omnidirectional Localization in vSLAM with Uncertainty Propagation and Bayesian Regression. Advanced Concepts for Intelligent Vision Systems: 18th International Conference, ACIVS 2017, Antwerp, Belgium, September 18-21, 2017, Proceedings 18., 263–274. DOI: 10.3390/app7121294 DOI: https://doi.org/10.1007/978-3-319-70353-4_23