Ciudades a la Vista: UAVs Autónomos para Mapas 3D sin LiDAR
Contenido principal del artículo
Resumen
En Costa Rica, la topografía urbana enfrenta el desafío de contar con sistemas LiDAR costosos y poco confiables en condiciones adversas como niebla o lluvia. Para superar estas limitaciones, se desarrolló una plataforma de UAVs autónomos de bajo costo que, equipados únicamente con cámaras RGB e IMU, generan mapas tridimensionales urbanos. La propuesta integra técnicas híbridas de estimación monocular de profundidad, combinando aprendizaje auto-supervisado y transferencia de conocimiento, junto con algoritmos de exploración colaborativa basados en enjambres, curvas de Bézier y modelado de feromonas en Neo4J. Tras validar el diseño en simulaciones (PyBullet/Pygame) y vuelos reales interiores, el sistema alcanzó una precisión de decenas de centímetros en profundidad, produjo nubes de puntos georreferenciadas y permitió segmentar semánticamente tráfico y obstáculos con ViT y YOLOv8. Los resultados demuestran que esta aproximación ofrece una alternativa viable y económica al LiDAR tradicional, con potencial para desplegar enjambres reales y optimizar recursos.
Detalles del artículo

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-SinDerivadas 4.0.
Los autores conservan los derechos de autor y ceden a la revista el derecho de la primera publicación y pueda editarlo, reproducirlo, distribuirlo, exhibirlo y comunicarlo en el país y en el extranjero mediante medios impresos y electrónicos. Asimismo, asumen el compromiso sobre cualquier litigio o reclamación relacionada con derechos de propiedad intelectual, exonerando de responsabilidad a la Editorial Tecnológica de Costa Rica. Además, se establece que los autores pueden realizar otros acuerdos contractuales independientes y adicionales para la distribución no exclusiva de la versión del artículo publicado en esta revista (p. ej., incluirlo en un repositorio institucional o publicarlo en un libro) siempre que indiquen claramente que el trabajo se publicó por primera vez en esta revista.
Citas
[1] Cheng, W., Ren, Y., & Li, M. (2020). Urban 3D modeling using mobile laser scanning: A review. Virtual Reality & Intelligent Hardware, 2(3), 175–212.
[2] Grigorescu, S., Trasnea, B., Cocias, T., & Macesanu, G. (2020). A survey of deep learning techniques for autonomous driving. Journal of Field Robotics, 37(3).
[3] Janai, J., Güney, F., Behl, A., & Geiger, A. (2019). Computer Vision for Autonomous Vehicles. Universität Tübingen.
[4] Lee, S., Kim, J., & Park, H. (2016). Review on dark channel prior based image dehazing algorithms. Journal of Image and Video Processing, (4), 1–23.
[5] Li, P., Li, J., & Zhang, X. (2019). Stereo R-CNN Based 3D Object Detection. En Proceedings of the IEEE/CVPR (pp. 7644–7652).
[6] Li, Y., Zhang, L., & Liu, S. (2020). What happens for a ToF LiDAR in fog? IEEE Transactions on Intelligent Transportation Systems, 99, 1–12.
[7] Majer, F., Svoboda, J., & Novák, P. (2019). Learning to see through haze. En Proceedings of the European Conference on Mobile Robotics.
[8] McGuire, K. N., Kumar, V., & Michael, N. (2019). Minimal navigation solution for a swarm of tiny flying robots. Science Robotics, 4(35), eaau5660.
[9] Ruíz, P., Morales, R., & Herrera, J. (2014). El uso de imágenes LiDAR en Costa Rica. Revista Geológica de América Central, 51, 7–31.
[10] Wang, Y., Sun, Z., Liu, J., Shen, C., & Reid, I. (2019). Pseudo-LiDAR from Visual Depth Estimation. En Proceedings of the IEEE/CVPR (pp. 8445–8453).
[11] Xu, Z. C. B. (2018). Multi-Level Fusion Based 3D Object Detection From Monocular Images. En Proceedings of the IEEE/CVPR (pp. 2345–2353).
[12] You, Y. W., Wang, S., & Lu, H. (2020). Pseudo-LiDAR++. En International Conference on Learning Representations (ICLR).
[13] Zeng, W., Chen, X., & Shi, J. (2018). Inferring Point Clouds from Single Monocular Images. En Proceedings of the IEEE/CVPR.