Percepción, aproximación y agarre robótico autónomo subacuático de tuberías usando visión monocular

Autores/as

  • Inés Pérez Edo Universidad Jaume I de Castellón. Escuela Superior de Tecnología y Ciencias Experimentales. Departamento de Ingeniería y Ciencia de los Computadores. Interactive Robotic Systems Lab (IRSLab). Centro de Investigación en Robótica y Tecnologías Subacuáticas (CIRTESU)
  • Salvador López Barajas Centro de Investigación en Robótica y Tecnología Subacuática (CIRTESU), Universitat Jaume I
  • Raúl Marín Prades Centro de Investigación en Robótica y Tecnología Subacuática (CIRTESU), Universitat Jaume I
  • Andrea Pino Jarque Centro de Investigación en Robótica y Tecnología Subacuática (CIRTESU), Universitat Jaume I
  • Alejandro Solís Jiménez Centro de Investigación en Robótica y Tecnología Subacuática (CIRTESU), Universitat Jaume I
  • Pedro José Sanz Valero Centro de Investigación en Robótica y Tecnología Subacuática (CIRTESU), Universitat Jaume I

DOI:

https://doi.org/10.17979/ja-cea.2025.46.12227

Palabras clave:

Navegaci´on y control de sistemas marinos, Veh´ıculos submarinos aut´onomos, Percepci´on, Planificaci´on de movimiento, Procesamiento de im´agenes

Resumen

Este trabajo presenta un sistema completo de percepción, aproximación y agarre de un tubo en un entorno subacuático, utilizando un robot equipado únicamente con una cámara monocular como sensor visual. La ausencia de sensores de profundidad plantea un desafío adicional, ya que toda la información espacial se obtiene a partir de imágenes 2D, lo que incrementa la complejidad de la percepción y la planificación de acciones. La detección y segmentación del tubo se realiza con un modelo YOLOv8, entrenado específicamente para este tipo de entorno. A partir de la imagen segmentada, se calculan tanto las características del tubo como los puntos de agarre. Esta información permite al robot posicionarse correctamente frente al tubo y realizar el agarre con una pinza simple. El sistema se desarrolló en ROS Noetic y se han realizado algunas pruebas en tres escenarios diferentes: en el simulador Stonefish, en el tanque del CIRTESU y en condiciones reales en el Puerto de Castellón.

Referencias

Blue Robotics, 2016. Bluerov2: The world’s most affordable high-performance rov. BlueROV2 datasheet, revised May 2025. URL: https://bluerobotics.com/store/rov/bluerov2/bluerov2/

Gonzalez, R. C., Wintz, P., 1987. Digital Image Processing, 2nd Edition. Addison-Wesley, Reading, Massachusetts.

Jain, A. K., 1989. Fundamentals of Digital Image Processing. Prentice Hall, Englewood Cliffs, NJ.

López-Barajas, S., Sanz, P. J., Marín-Prades, R., Echagüe, J., Realpe, S., 2025. Network congestion control algorithm for image transmission—hri and visual light communications of an autonomous underwater vehicle for intervention. Future Internet 17 (1). URL: https://www.mdpi.com/1999-5903/17/1/10 DOI: 10.3390/fi17010010

Open Source Robotics Foundation, 2020. Robot Operating System (ROS) – Noetic Ninjemys. https://www.ros.org, released May 23, 2020. URL: https://www.ros.org

OpenCV Team, 2024. Image moments - opencv documentation. https://docs.opencv.org/4.x/d0/d49/tutorial_moments.html.

Pi, R., Ciéslak, P., Ridao, P., Sanz, P. J., 2021. Twinbot: Autonomous underwater cooperative transportation. IEEE Access 9, 37668–37684. DOI: 10.1109/ACCESS.2021.3063669

Raviv, D., Herman, M., 1993. Visual servoing from 2-d image cues. In: Aloimonos, Y. (Ed.), Active Perception. Lawrence Erlbaum Associates.

Rocco, D. F., 2016. Plotjuggler: Real-time data visualization tool. https://plotjuggler.io/.

Torralba, A., Isola, P., Freeman, W., 2024. Foundations of Computer Vision. Adaptive Computation and Machine Learning series. MIT Press. URL: https://mitpress.mit.edu/9780262048972/foundations-of-computer-vision/

Ultralytics, 2023. Yolov8: State-of-the-art real-time object detection and segmentation. https://github.com/ultralytics/ultralytics.

Descargas

Publicado

01-09-2025

Número

Sección

Automática Marítima