Arquitecturas para detección de anomalías Fusión de GAN, U-Net y Transformers
Contenido principal del artículo
Resumen
La detección y prevención de situaciones anómalas en entornos urbanos es crucial para la seguridad de todos los usuarios, siendo un área de estudio muy relevante actualmente. La abundancia de cámaras CCTV en ciudades permite usar tecnologías de inteligencia artificial (IA) para monitorear y analizar comportamientos en tiempo real. Este estudio propone un sistema basado en la estructura GAN (Generative Adversarial Networks) para identificar situaciones anómalas en secuencias de imágenes. Se desarrollaron y compararon dos sistemas utilizando la arquitectura PatchGAN. El primero emplea la red U-Net para el generador, mientras que el segundo usa U-NetR, una variación de U-Net que mejora la contextualización de la imagen completa. Los resultados de diversos experimentos muestran la eficacia de ambos enfoques, proporcionando una comparación detallada de las ventajas y limitaciones de cada uno. Este trabajo contribuye al avance de las tecnologías de vigilancia.
Palabras clave:
Detalles del artículo
Citas
Aboah, A., 2021. A vision-based system for traffic anomaly detection using deep learning and decision trees. In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. pp. 4207–4212. DOI: https://doi.org/10.1109/CVPRW53098.2021.00475
Dosovitskiy, A., Beyer, L., Kolesnikov, A., Weissenborn, D., Zhai, X., Unterthiner, T., Dehghani, M., Minderer, M., Heigold, G., Gelly, S., Uszkoreit, J., Houlsby, N., 2021. An image is worth 16x16 words: Transformers for image recognition at scale.
Fan, C., Lin, H., Qiu, Y., 2023. U-patch gan: A medical image fusion method based on gan. Journal of Digital Imaging 36 (1), 339–355. DOI: https://doi.org/10.1007/s10278-022-00696-7
Goodfellow, I. J., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A., Bengio, Y., 2014. Generative adversarial networks. Isola, P., Zhu, J.-Y., Zhou, T., Efros, A. A., 2017. Image-to-image translation with conditional adversarial networks. In: Proceedings of the IEEE conference on computer vision and pattern recognition. pp. 1125–1134.
Isola, P., Zhu, J.-Y., Zhou, T., Efros, A. A., 2017. Image-to-image translation with conditional adversarial networks. In: Proceedings of the IEEE conference on computer vision and pattern recognition. pp. 1125 1134. DOI: https://doi.org/10.1109/CVPR.2017.632
Leporowski, B., Bakhtiarnia, A., Bonnici, N., Muscat, A., Zanella, L., Wang, Y., Iosifidis, A., 2023. Audio-visual dataset and method for anomaly detection in traffic videos. arXiv preprint arXiv:2305.15084.
Pathak, D., Sharang, A., Mukerjee, A., 2015. Anomaly localization in topic-based analysis of surveillance videos. In: 2015 IEEE winter conference on applications of computer vision. IEEE, pp. 389–395. DOI: https://doi.org/10.1109/WACV.2015.58
Roka, S., Diwakar, M., 2023. Cvit: a convolution vision transformer for video abnormal behavior detection and localization. SN Computer Science 4 (6), 829. DOI: https://doi.org/10.1007/s42979-023-02294-y
Ronneberger, O., Fischer, P., Brox, T., 2015. U-net: convolutional networks for biomedical image segmentation. In: Medical image computing and computer-assisted intervention–MICCAI 2015: 18th international conference, Munich, Germany, October 5-9, 2015, proceedings, part III 18. Springer, pp. 234–241. DOI: https://doi.org/10.1007/978-3-319-24574-4_28
Yuan, H., Cai, Z., Zhou, H., Wang, Y., Chen, X., 2021. Transanomaly: video anomaly detection using video vision transformer. IEEE Access 9, 123977–123986. DOI: https://doi.org/10.1109/ACCESS.2021.3109102
Yun, K., Jeong, H., Yi, K. M., Kim, S. W., Choi, J. Y., 2014. Motion interaction field for accident detection in traffic surveillance video. In: 2014 22nd International Conference on Pattern Recognition. IEEE, pp. 3062–3067. DOI: https://doi.org/10.1109/ICPR.2014.528