Contenido principal del artículo

Míriam Máximo Gutiérrez
Instituto de Investigación en Ingeniería de Elche (I3E), Universidad Miguel Hernández de Elche
España
Mónica Ballesta
Instituto de Investigación en Ingeniería de Elche (I3E), Universidad Miguel Hernández de Elche
España
https://orcid.org/0000-0002-8029-5085
David Valiente
Instituto de Investigación en Ingeniería de Elche (I3E), Universidad Miguel Hernández de Elche, Avda. de la Universidad s/n, 03202 Elche (Alicante), España.
España
https://orcid.org/0000-0002-2245-0542
Judith Vilella-Cantos
España
Arturo Gil
Universidad Miguel Hernández de Elche
España
https://orcid.org/0000-0001-7811-8955
Luis Payá
Universidad Miguel Hernández de Elche
España
https://orcid.org/0000-0002-3045-4316
Núm. 45 (2024), Visión por Computador
DOI: https://doi.org/10.17979/ja-cea.2024.45.10809
Recibido: may. 29, 2024 Aceptado: jul. 1, 2024 Publicado: jul. 12, 2024
Derechos de autor

Resumen

Los robots móviles tienen la capacidad de desplazarse de manera autónoma, para ello es necesario conocer su posición. Esta estimación puede ser obtenida a partir de diversos sensores. Uno de los sensores más comúnmente utilizados son los sistemas de visión por la gran cantidad de información que son capaces de capturar. Para extraer la información más relevante de las imágenes capturadas por las cámaras, se utilizan algoritmos que realizan la detección y su posterior descripción de los puntos más característicos del entorno, también conocidos como marcas visuales. Además, estas marcas visuales deben ser detectadas y descritas de manera que sean invariantes a posibles cambios del entorno. Un caso concreto de estos cambios, son los cambios en la iluminación, común en entornos interiores y exteriores. En este trabajo se ha realizado una evaluación de varios métodos clásicos y métodos que incorporan redes de aprendizaje profundo, para observar su comportamiento ante secuencias de imágenes que presentan diferentes condiciones de iluminación.

Detalles del artículo

Citas

Alcantarilla, P. F., Nuevo, J., Bartoli, A., 2013. Fast Explicit Diffusion for Accelerated Features in Nonlinear Scale Spaces. Procedings of the British Machine Vision Conference 2013, British Machine Vision Association, Bristol, 13.1–13.11. DOI: 10.5244/C.27.13 DOI: https://doi.org/10.5244/C.27.13

Bay, H., Tuytelaars, T., Gool, L., 2006. SURF: Speeded Up Robust Features. Computer Vision–ECCV 2006: 9th European Conference on Computer Vision, Graz, Austria, May 7-13, 2006. Proceedings, Part I 9, 404–417. DOI: 10.1007/1174402332 DOI: https://doi.org/10.1007/11744023_32

DeTone, D., Malisiewicz, T., Rabinovich, A., 2018. Superpoint: Self-Supervised Interest Point Detection and Description. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition workshops, 224–236. DOI: 10.1109/CVPRW.2018.00060 DOI: https://doi.org/10.1109/CVPRW.2018.00060

Dusmanu, M., Rocco, I., Pajdla, T., Pollefeys, M., Sivic, J., Torii, A., Sattler, T., 2019. D2-Net: A Trainable CNN for Joint Description and Detection of Local Features. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition CVPR, 8092–8101. DOI: 10.1109/CVPR.2019.00828 DOI: https://doi.org/10.1109/CVPR.2019.00828

Gil, A., Martínez-Mozos, O., Ballesta, M., Reinoso, O., 2010. A comparative evaluation of interest point detectors and local descriptors for visual SLAM. Machine Vision and Applications, 905–920. DOI: 10.1007/s00138-009-0195-x DOI: https://doi.org/10.1007/s00138-009-0195-x

Leutenegger, S., Chli, M., Siegwart., R., 2011. BRISK: Binary Robust invariant scalable keypoints. 2011 International conference on computer vision, 2548–2555. DOI: 10.1109/ICCV.2011.6126542 DOI: https://doi.org/10.1109/ICCV.2011.6126542

Lowe, D. G., 2004. Distinctive Image Features from Scale-Invariant Keypoints. International Journal of Computer Vision, 91–110. DOI: 10.1023/B:VISI.0000029664.99615.94 DOI: https://doi.org/10.1023/B:VISI.0000029664.99615.94

Rublee, E., Rabaud, V., Konolige, K., Bradski, G., 2011. ORB: An efficient alternative to SIFT or SURF. 2011 International conference on computer vision. IEEE, 2564–2571. DOI: 10.1371/journal.pone.0207191 DOI: https://doi.org/10.1109/ICCV.2011.6126544

Semborski, J., Idzkowski, A., 2024. A review on positioning techniques of mobile robots. Robotic Systems and Applications 4, 1–13. DOI: 10.21595/rsa.2024.23893 DOI: https://doi.org/10.21595/rsa.2024.23893

Valiente, D., Reinoso, O., Gil, A., Pay ́a, L., Ballesta, M., 2017. Omnidirectional Localization in vSLAM with Uncertainty Propagation and Bayesian Regression. Advanced Concepts for Intelligent Vision Systems: 18th International Conference, ACIVS 2017, Antwerp, Belgium, September 18-21, 2017, Proceedings 18., 263–274. DOI: 10.3390/app7121294 DOI: https://doi.org/10.1007/978-3-319-70353-4_23