中国科学院机构知识库网格
Chinese Academy of Sciences Institutional Repositories Grid
机器人自主柔性作业中的视觉检测与定位方法研究

文献类型:学位论文

作者黄一锟
答辩日期2020-05
文献子类硕士
授予单位中国科学院自动化研究所
授予地点中国科学院自动化研究所
导师王鹏
关键词机器人自主柔性作业 目标检测 管状焊点检测 先验知识模型
学位名称中国科学院大学
学位专业控制工程
英文摘要

机器人作业在众多制造领域被广泛使用,如电子、医疗、汽车、船舶制造等。由于作业环境的非结构和多变、作业对象的多样性和作业工艺的复杂性,传统的以示教再现为代表的机器人作业技术已经难满足要求,亟待研究对环境-对象-工业具有高适应性和高智能性的机器人作业技术,也就自主柔性作业机器人技术及其系统。

视觉检测与定位是机器人自主柔性作业的核心。研究人员针对面向机器人作业任务的视觉检测和定位提出了多种算法,但由于环境复杂、对象多变等因素,都没能起到很好的效果,例如冰箱压机舱管状焊点。本文针对机器人柔性作业中的视觉检测问题,以管状焊点检测为具体实例开展研究,主要的工作有:

(1) 针对目前该领域缺乏成熟的平台系统和标准数据集,研发了面向压机舱焊点检漏的自主柔性作业机器人系统并搭建了相应的视觉检测数据集。针对管状焊点检测问题搭建的机器人自主柔性作业平台由6部分构成,分别是光源、相机和镜头、高精度六自由度机械臂、高精度一维力传感器、吸枪检漏仪、工控机及显示器。并由平台收集了699张冰箱压缩机仓图片,手动标注了超过6000个管状焊点目标作为视觉检测数据集。最后针对焊点检测问题,提出了一个更加适合于工业严苛条件的多目标检测评价方法,并证明了该评价方法与精度的关系。

(2) 针对管状焊点目标小、对比度低、形状多变,并且焊点周围环境复杂等特点,提出了一个新的基于深度学习的面向小目标实时视觉检测与定位方法,名为Small-Object YOLOv3(SOYOLOv3)。对于满足实际应用要求的视觉检测与定位算法,需要兼顾精度、速度、模型大小三个方面。相较于目前主流的实时视觉检测方法YOLOv3,SOYOLOv3在管状焊点检测数据集上表现突出,检测时间上快4.43\%,平均精度高1.37\%,并且模型压缩率为92.77\%(YOLOv3:61.52M,SOYOLOv3:4.45M)。

(3) 针对人类先验知识难以和深度学习结合的问题,我们提出了一个新的基于深度学习和先验知识模型的视觉检测与定位。在焊点检测这一问题上在多个深度模型上进行了实验,对比了加先验知识和不加先验知识的的检测结果。实验表明,先验知识应用在不同模型均有0.2\%到0.5\%精度和超过4\%在多目标检测评价方法上的提升。

最后,总结了本文的研究成果,并对后续的研究工作进行分析和展望。

语种中文
页码78
源URL[http://ir.ia.ac.cn/handle/173211/39603]  
专题自动化研究所_复杂系统管理与控制国家重点实验室_先进机器人控制团队
推荐引用方式
GB/T 7714
黄一锟. 机器人自主柔性作业中的视觉检测与定位方法研究[D]. 中国科学院自动化研究所. 中国科学院自动化研究所. 2020.

入库方式: OAI收割

来源:自动化研究所

浏览0
下载0
收藏0
其他版本

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。