Proceso de percepción de los alrededores de sistemas UAV en entornos urbanos

Contenido principal del artículo

Luis Alberto Chavarría-Zamora
Pablo Soto-Quiros

Resumen

Los sistemas de vehículos aéreos no tripulados (UAV) han ganado importancia en diversas aplicaciones debido a su capacidad para operar en entornos peligrosos o de difícil acceso. Sin embargo, la navegación segura y eficiente en entornos complejos como áreas urbanas o interiores de edificios plantea desafíos significativos en términos de percepción del entorno. La percepción precisa del entorno circundante es fundamental para que un UAV pueda construir un mapa 3D, detectar y evitar obstáculos, localizar puntos de interés y planificar trayectorias de vuelo seguras. Para abordar estos desafíos, los sistemas UAV integran una variedad de sensores, como cámaras RGB y de profundidad, radares, lídares y sensores in-erciales. Estos sensores permiten capturar información visual, geométrica y de movimiento del entorno. Además, se emplean técnicas avanzadas de procesamiento de señales, visión por computadora, aprendizaje automático y fusión sensorial para interpretar los datos de los sensores y construir una representación precisa del entorno en 3D. En el trabajo presentado, se logró generar una propuesta para la exploración de caminos en el interior de un espacio mediante la detección de puertas y pasillos utilizando YOLO, en conjunto con la estimación de fondo monocular. Se validaron los caminos y, con esta información, se generaron mapas para explorar un territorio. Se obtuvo una tasa de acierto del 86,9%, con algunos falsos positivos donde el modelo no detectó correctamente la profundidad. El mapa generado guarda un historial del agente que ha explorado el territorio, sirviendo como una opción para integrar con algoritmos de enjambre.

Detalles del artículo

Cómo citar
Chavarría-Zamora, L. A., & Soto-Quiros , P. (2026). Proceso de percepción de los alrededores de sistemas UAV en entornos urbanos. Revista Tecnología En Marcha, 39(5), Pág. 310–324. https://doi.org/10.18845/tm.v39i5.8496
Sección
Modelos, algoritmos y desarrollo tecnológico en IA

Citas

[1] M. K. A. Rahman et al., “A survey on UAVs and their applications,” IEEE Access, vol. 8, pp. 52472-52492, 2020.

[2] G. S. S. A. Amaral et al., “A survey on autonomous UAVs for environmental monitoring,” Sensors, vol. 19, no. 17, pp. 3856-3874, 2019.

[3] Y. Wang et al., “Urban localization for UAVs using multi-modal data fusion,” IEEE Transactions on Robotics, vol. 35, no. 4, pp. 990-1001, 2019.

[4] M. Shams et al., “Depth estimation techniques for autonomous systems: A review,” Sensors, vol. 20, no. 22, pp. 6523-6535, 2020.

[5] J. Y. L. Bouguet et al., “Visual-inertial odometry for UAVs,” IEEE Robotics and Automation Letters, vol. 4, no. 2, pp. 2220-2227, 2019.

[6] D. C. C. Wei et al., “Path planning and obstacle avoidance for UAVs,” IEEE Transactions on Intelligent Transportation Systems, vol. 20, no. 4, pp. 1412-1420, 2019.

[7] D. Eigen et al., “Depth map prediction from a single image using a multi-scale deep network,” in Proc. of the NIPS, 2014, pp. 2366-2374.

[8] G. Chen et al., “A review of monocular depth estimation,” Computer Vision and Image Understanding, vol. 165, pp. 68-79, 2018.

[9] J. Redmon et al., “You Only Look Once: Unified, Real-Time Object Detection,” in Proc. of CVPR, 2016, pp. 779-788.

[10] A. Bochkovskiy et al., “YOLOv4: Optimal Speed and Accuracy for Real-Time Object Detection,” arXiv preprint arXiv:2004.10934, 2020.

[11] M. L. U. Xu et al., “Monocular depth estimation: A survey,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 41, no. 9, pp. 2200-2221, 2019.

[12] W. Luo et al., “Single view stereo matching,” in Proc. of CVPR, 2018, pp. 155-163.

[13] A. Kendall et al., “End-to-end learning of geometry and context for deep stereo regression,” in Proc. of ICCV, 2017, pp. 66-75.

[14] H. Fu et al., “Deep ordinal regression network for monocular depth estimation,” in Proc. of CVPR, 2018, pp. 2002-2011.

[15] Z. Yang et al., “LEGO: Learning edge with geometry all at once by watching videos,” in Proc. of CVPR, 2018, pp. 2258-2267.

[16] S. S. Q. Lin et al., “A real-time UAV-based system for automatic road detection,” IEEE Transactions on Intelligent Transportation Systems, vol. 19, no. 7, pp. 2145-2155, 2018.

[17] A. Satake et al., “Path planning for autonomous UAV navigation in unknown environments,” IEEE Transactions on Automation Science and Engineering, vol. 17, no. 4, pp. 1802-1815, 2020.

[18] R. Mur-Artal et al., “ORB-SLAM: A versatile and accurate monocular SLAM system,” IEEE Transactions on Robotics, vol. 31, no. 5, pp. 1147-1163, 2015.

[19] M. Fischler and R. Bolles, “Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography,” Communications of the ACM, vol. 24, no. 6, pp. 381-395, 1981.

[20] K. He et al., “Mask R-CNN,” in Proc. of ICCV, 2017, pp. 2980-2988.

[21] R. B. Rusu et al., “Fast point feature histograms (FPFH) for 3D registration,” in Proc. of ICRA, 2009, pp. 3212-3217.

[22] H. Hirschmüller, “Accurate and efficient stereo processing by semi-global matching and mutual information,” in Proc. of CVPR, 2005, pp. 807-814.

[23] P. J. Besl and N. D. McKay, “A method for registration of 3-D shapes,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 14, no. 2, pp. 239-256, 1992.

[24] J. Redmon and A. Farhadi, “YOLO9000: Better, faster, stronger,” in Proc. of CVPR, 2017, pp. 7263-7271.

[25] J. Redmon and A. Farhadi, “YOLOv3: An incremental improvement,” arXiv preprint arXiv:1804.02767, 2018.

[26] C. Szegedy et al., “Going deeper with convolutions,” in Proc. of CVPR, 2015, pp. 1-9.

[27] K. Simonyan and A. Zisserman, “Very deep convolutional networks for large-scale image recognition,” in Proc. of ICLR, 2015.

[28] A. Krizhevsky et al., “ImageNet classification with deep convolutional neural networks,” in Proc. of NIPS, 2012, pp. 1097-1105.

[29] G. Huang et al., “Densely connected convolutional networks,” in Proc. of CVPR, 2017, pp. 4700-4708.

[30] A. Vaswani et al., “Attention is all you need,” in Proc. of NeurIPS, 2017, pp. 5998-6008.

[31] Elamin, A., et al. (2024). Event-Based Visual/Inertial Odometry for UAV Indoor Navigation. Sensors.

[32] M. Burri, J. Nikolic, P. Gohl, T. Schneider, J. Rehder, S. Omari, M. W. Achtelik, and R. Siegwart (2016). The EuRoC micro aerial vehicle datasets. The International Journal of Robotics Research.

[33] Park, I., et al. (2023). Fusion localization for indoor airplane inspection using visual-inertial odometry and RTLS. Scientific Reports.

[34] Messbah, H.; Emharraf, M.; Saber, M. (2024). Robot indoor navigation: Comparative analysis of LiDAR 2D and visual SLAM.

[35] Gallego, G., et al. (2024). Recent Event Camera Innovations: A Survey.

[36] Butt, M. Z., et al. (2024). A review of perception sensors, techniques, and hardware for UAVs.

[37] Katkuri, A. V. R., et al. (2024). Autonomous UAV navigation using deep learning-based perception: systematic literature review (2019–2024). (ScienceDirect).