Percepción, aproximación y agarre robótico autónomo subacuático de tuberías usando visión monocular
DOI:
https://doi.org/10.17979/ja-cea.2025.46.12227Palabras clave:
Navegaci´on y control de sistemas marinos, Veh´ıculos submarinos aut´onomos, Percepci´on, Planificaci´on de movimiento, Procesamiento de im´agenesResumen
Este trabajo presenta un sistema completo de percepción, aproximación y agarre de un tubo en un entorno subacuático, utilizando un robot equipado únicamente con una cámara monocular como sensor visual. La ausencia de sensores de profundidad plantea un desafío adicional, ya que toda la información espacial se obtiene a partir de imágenes 2D, lo que incrementa la complejidad de la percepción y la planificación de acciones. La detección y segmentación del tubo se realiza con un modelo YOLOv8, entrenado específicamente para este tipo de entorno. A partir de la imagen segmentada, se calculan tanto las características del tubo como los puntos de agarre. Esta información permite al robot posicionarse correctamente frente al tubo y realizar el agarre con una pinza simple. El sistema se desarrolló en ROS Noetic y se han realizado algunas pruebas en tres escenarios diferentes: en el simulador Stonefish, en el tanque del CIRTESU y en condiciones reales en el Puerto de Castellón.
Referencias
Blue Robotics, 2016. Bluerov2: The world’s most affordable high-performance rov. BlueROV2 datasheet, revised May 2025. URL: https://bluerobotics.com/store/rov/bluerov2/bluerov2/
Gonzalez, R. C., Wintz, P., 1987. Digital Image Processing, 2nd Edition. Addison-Wesley, Reading, Massachusetts.
Jain, A. K., 1989. Fundamentals of Digital Image Processing. Prentice Hall, Englewood Cliffs, NJ.
López-Barajas, S., Sanz, P. J., Marín-Prades, R., Echagüe, J., Realpe, S., 2025. Network congestion control algorithm for image transmission—hri and visual light communications of an autonomous underwater vehicle for intervention. Future Internet 17 (1). URL: https://www.mdpi.com/1999-5903/17/1/10 DOI: 10.3390/fi17010010
Open Source Robotics Foundation, 2020. Robot Operating System (ROS) – Noetic Ninjemys. https://www.ros.org, released May 23, 2020. URL: https://www.ros.org
OpenCV Team, 2024. Image moments - opencv documentation. https://docs.opencv.org/4.x/d0/d49/tutorial_moments.html.
Pi, R., Ciéslak, P., Ridao, P., Sanz, P. J., 2021. Twinbot: Autonomous underwater cooperative transportation. IEEE Access 9, 37668–37684. DOI: 10.1109/ACCESS.2021.3063669
Raviv, D., Herman, M., 1993. Visual servoing from 2-d image cues. In: Aloimonos, Y. (Ed.), Active Perception. Lawrence Erlbaum Associates.
Rocco, D. F., 2016. Plotjuggler: Real-time data visualization tool. https://plotjuggler.io/.
Torralba, A., Isola, P., Freeman, W., 2024. Foundations of Computer Vision. Adaptive Computation and Machine Learning series. MIT Press. URL: https://mitpress.mit.edu/9780262048972/foundations-of-computer-vision/
Ultralytics, 2023. Yolov8: State-of-the-art real-time object detection and segmentation. https://github.com/ultralytics/ultralytics.
Descargas
Publicado
Número
Sección
Licencia
Derechos de autor 2025 Inés Pérez Edo, Salvador López Barajas, Raúl Marín Prades, Andrea Pino Jarque, Alejandro Solís Jiménez, Pedro José Sanz Valero

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-CompartirIgual 4.0.