Contenido principal del artículo

Bartek Łukawski
Universidad Carlos III de Madrid
España
https://orcid.org/0000-0002-1052-3345
Alberto Rodríguez Sanz
Universidad Carlos III de Madrid
España
https://orcid.org/0009-0009-6511-4408
Elisabeth Menendez
Universidad Carlos III de Madrid
España
https://orcid.org/0000-0002-6758-1407
Juan G. Víctores
Universidad Carlos III de Madrid
España
https://orcid.org/0000-0002-3080-3467
Carlos Balaguer
Universidad Carlos III de Madrid
España
https://orcid.org/0000-0003-4864-4625
Núm. 45 (2024), Robótica
DOI: https://doi.org/10.17979/ja-cea.2024.45.10925
Recibido: jun. 5, 2024 Aceptado: jul. 3, 2024 Publicado: jul. 19, 2024
Derechos de autor

Resumen

PCL es una librería de código abierto diseñada para el procesamiento de nubes de puntos. Por otra parte, YARP es un marco de desarrollo e intermediario entre componentes hardware (p. ej. motores y sensores) para elaborar aplicaciones robóticas de alto nivel. Este trabajo presenta una librería de C++ que emplea los algoritmos de PCL sin necesidad de exponer ninguno de sus tipos. Permite describir sencillamente y mediante texto secuencias de pasos para el procesamiento de nubes de puntos, exponiendo el resultado final a través de interfaces YARP. Se consigue encapsular así todos los detalles internos de PCL y se evita la dependencia de sus módulos y cabeceras en las aplicaciones cliente. La librería ha sido probada en una aplicación de reconstrucción de escenas para el popular algoritmo KinectFusion, en un módulo de construcción de mallas en tiempo real para el simulador OpenRAVE, y se prevé su uso en tareas de visión con la nueva cabeza del robot humanoide TEO.

Detalles del artículo

Citas

Diakopoulos, D., 2020. tinyply: C++11 ply 3d mesh format importer & exporter. https://github.com/ddiakopoulos/tinyply.

Han, T., Zhang, R., Kan, J., Dong, R., Zhao, X., Yao, S., 2024. A point cloud registration framework with color information integration. Remote Sensing 16 (5). DOI: 10.3390/rs16050743 DOI: https://doi.org/10.3390/rs16050743

Herguedas, R., López-Nicolás, G., Sagüés, C., 2020. Experimental multi-camera setup for perception of dynamic objects. In: Workshop ROMADO, IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). pp. 11874–11878.

Łukawski, B., 2020. OpenRAVE: surface mesh from real depth sensor & TEO. https://youtu.be/CqOWiSKAAXo.

Martínez, S., Monje, C. A., Jardón, A., Pierro, P., Balaguer, C., Muñoz, D., 2012. TEO: Full-size humanoid robot design powered by a fuel cell system. Cybernetics and Systems 43 (3), 163–180. DOI: 10.1080/01969722.2012.659977 DOI: https://doi.org/10.1080/01969722.2012.659977

Menendez, E., Martínez, S., Díaz-de María, F., Balaguer, C., 2024. Integrating egocentric and robotic vision for object identification using siamese networks and superquadric estimations in partial occlusion scenarios. Biomimetics 9 (2). DOI: 10.3390/biomimetics9020100 DOI: https://doi.org/10.3390/biomimetics9020100

Metta, G., Fitzpatrick, P., Natale, L., 2006. YARP: yet another robot platform. International Journal of Advanced Robotic Systems 3 (1), 43–48. DOI: 10.5772/5761 DOI: https://doi.org/10.5772/5761

Newcombe, R. A., Izadi, S., Hilliges, O., Molyneaux, D., Kim, D., Davison, A. J., Kohi, P., Shotton, J., Hodges, S., Fitzgibbon, A., 2011. KinectFusion: Real-time dense surface mapping and tracking. In: 10th IEEE International Symposium on Mixed and Augmented Reality. pp. 127–136. DOI: 10.1109/ISMAR.2011.6092378 DOI: https://doi.org/10.1109/ISMAR.2011.6092378

RoboticsLab, 2024a. OpenRAVE plugins to interface OpenRAVE with YARP. https://github.com/roboticslab-uc3m/openrave-yarp-plugins.

RoboticsLab, 2024b. Vision processing. https://github.com/roboticslab-uc3m/vision.

Rusu, R. B., Cousins, S., 2011. 3D is here: Point Cloud Library (PCL). In: IEEE International Conference on Robotics and Automation (ICRA). IEEE, Shanghai, China, pp. 1–4. DOI: 10.1109/ICRA.2011.5980567 DOI: https://doi.org/10.1109/ICRA.2011.5980567

Yoon, H., Jang, M., Huh, J., Kang, J., Lee, S., 2021. Multiple sensor synchronization with theRealSense RGB-D camera. Sensors 21 (18). DOI: 10.3390/s21186276 DOI: https://doi.org/10.3390/s21186276