Escaneo tridimensional y detección de objetos para una subsecuente manipulación por un robot colaborador
Contenido principal del artículo
Resumen
En el mundo se utiliza cada vez más la robótica para asistir en los distintos procesos que se
llevan a cabo: desde la manufactura, la medicina y muchas otras áreas en las que se requiere
alivianar el trabajo del ser humano, ya sea por exceso de esfuerzo, la necesidad de alta
precisión o por la peligrosidad de la misma tarea que se desea llevar a cabo, entre otros.
Los robots colaborativos tienen una gran capacidad de llevar a cabo tareas variadas; sin
embargo, existe siempre una restricción hacia los mismos, son “ciegos”. Los robots pueden llevar
a cabo tareas para las que son programados, pero en un principio no cuentan con herramientas
que les permitan ver su entorno para reaccionar acorde con él. Se han desarrollado distintas
tecnologías para superar estas barreras.
El objetivo del proyecto es desarrollar la integración entre una tecnología láser de escaneo
tridimensional con un robot colaborativo, de manera que éste pueda realizar un escaneo
sobre una superficie de trabajo. Luego de completarse el escaneo, se debe analizar la
información obtenida con un sistema de visión que se implementará, para luego poder darle
al robot interpretación de los datos obtenidos y que el robot pueda subsecuentemente tomar
decisiones respecto a las acciones a llevar a cabo y la ubicación de los distintos objetos
presentes. Se llevará a cabo una investigación progresiva, en la que se puedan ir desarrollando
las herramientas necesarias para obtener los resultados deseados, para lograr al final un solo
sistema integrado de visión.
Detalles del artículo
Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-SinDerivadas 4.0.
Los autores conservan los derechos de autor y ceden a la revista el derecho de la primera publicación y pueda editarlo, reproducirlo, distribuirlo, exhibirlo y comunicarlo en el país y en el extranjero mediante medios impresos y electrónicos. Asimismo, asumen el compromiso sobre cualquier litigio o reclamación relacionada con derechos de propiedad intelectual, exonerando de responsabilidad a la Editorial Tecnológica de Costa Rica. Además, se establece que los autores pueden realizar otros acuerdos contractuales independientes y adicionales para la distribución no exclusiva de la versión del artículo publicado en esta revista (p. ej., incluirlo en un repositorio institucional o publicarlo en un libro) siempre que indiquen claramente que el trabajo se publicó por primera vez en esta revista.
Citas
K. Lai, and D. Fox. (2009). “3D Laser Scan Classification Using Web Data and Domain Adaptation.” Proc. of
Robotics: Science and Systems. pp 1-8.
D.A. Sofge, M.A. Potter, M.D. Bugajska, and A.C. Schultz. “Challenges and Opportunities of Evolutionary
Robotics.” In Proc. 2nd Int’l Conf. on Computational Intelligence, Robotics, and Autonomous Systems, 2003
M. Ebrahim. (2014). “3D laser scanners: History, Applications, and Future”. Research Gate. DOI:
13140/2.1.3331.3284
P. Henry, M. Krainin, E. Herbst, X. Ren, and D. Fox. (2010). “RGB-D Mapping: Using Depth Cameras for Dense 3D
Modeling of Indoor Environments”. Experimental Robotics, 79, pp.477-491. DOI: 10.1007/978-3-642-28572-1_33
R. Valencia, E. Teniente, E. Trulls, and J. Andrade-Cetto. (2009). “3D mapping for urban service robots”. In
Intelligent Robots and Systems. IROS 2009. IEEE/RSJ International Conference on (pp. 3076-3081). IEEE.
S. B. Gokturk, H. Yalcin, and C. Bamji. (2004, Jun.). “A time-of-flight depth sensor-system description, issues
and solutions”. In Computer Vision and Pattern Recognition Workshop, 2004. CVPRW’04. Conference on (pp.
-35). IEEE.
A. Hornung, K. Wurm, M. Bennewitz, C. Stachniss, and W. Burgard. (2013). “OctoMap: An Efficient Probabilistic
D Mapping Framework Based on Octree”. Autonomous Robots. 34 (3), pp. 189-206. DOI 10.1007/s10514-
-9321-0
Sina. “Basic Kinematics of Constrained Rigid Bodies”. Internet: http://blog.sina.com.cn/s/
blog_48571ec80100brx6.html, May 01, 2009 [Nov. 20, 2015].