中国科学院机构知识库网格
Chinese Academy of Sciences Institutional Repositories Grid
基于鱼眼全方位视觉的移动机器人定位与控制

文献类型:学位论文

作者亢兆兵
答辩日期2020-05
文献子类博士
授予单位中国科学院大学
授予地点中国科学院自动化研究所
导师邹伟
关键词鱼眼相机 位姿估计 视觉SLAM 视觉轨迹跟踪 运动平滑优化
学位专业控制理论与控制工程
英文摘要

视觉定位与控制是实现移动机器人在未知环境中自主运行的核心技术,鱼眼相机相比于传统针孔相机可以获得更大的视野,有利于大范围的运动规划与控制,因而在移动机器人中应用越来越广泛。但是鱼眼相机会导致图像产生严重的径向畸变,降低移动机器人定位与控制精度。本论文围绕鱼眼视觉引导下的室内环境移动机器人定位与控制问题,通过模型扩展、误差补偿、融合优化等手段,对如何提升鱼眼相机位姿估计精度的相关技术和方法进行研究;以此为基础,开展面向高精度轨迹跟踪的鱼眼视觉控制方法和控制策略研究。论文主要的工作和贡献包括:

1)提出了一种适用于鱼眼相机的扩展POSIT位姿估计算法EPOSIT。该算法将POSIT位姿估计算法所采用的透视投影模型拓展到径向对称投影模型,通过推导得出同时适用于针孔相机和鱼眼相机的位姿估计表达式,基于该表达式采用迭代方法可实现鱼眼相机的实时位姿估计。该算法克服了POSIT算法只适用于针孔相机的问题。在仿真实验中与常用的针孔相机、鱼眼相机位姿估计方法进行了对比,证明了EPOSIT算法对针孔相机和鱼眼相机同时具有最高的位姿估计精度与稳定性;实物实验验证了EPOSIT算法能够取得与标定结果接近的位姿估计精度。

2)提出了一种基于地图点偏置估计的相机位姿矫正算法。通过推导得出地图点偏置与BA优化后位姿估计误差之间的关系;通过改进得出一种适用于带有IMU系统的地图点偏置估计方法,并将其拓展至鱼眼相机;最后利用地图点偏置估计,借助于地图点偏置与位姿估计误差之间的关系对BA优化后的位姿进行矫正。该算法应用至视觉SLAM框架中能够进一步降低BA优化后的残余误差,保证其获得更高的位姿估计精度。在EuroCTUM数据集中对位姿矫正算法进行了验证,结果表明:融合位姿矫正算法后系统耗时仅增加5.372ms,而位姿精度相比于矫正前则分别提升了52.54%42.72%

3)提出了一种EPOSIT算法与视觉SLAM位姿估计算法相融合的策略。视觉SLAM算法相比于EPOSIT算法能够利用更多的空间信息,对图像噪声和检测误差具有较强的鲁棒性,但单目SLAM具有尺度不确定性,无法获得精确的相机平移信息。因此本轮文将EPOSIT算法与视觉SLAM算法进行了融合,融合后的算法可以利用单目相机获得尺度已知的绝对位姿,且对图像噪声和检测误差具有较好的鲁棒性。通过仿真和实验验证了位姿融合算法的精度与稳定性。

4)提出了一种基于无标定单目鱼眼视觉的自适应轨迹跟踪控制器。该控制器可以在相机内参未知、无图像矫正、无其他额外传感器和不需设定移动机器人初始位姿的情况下实现移动机器人对任意轨迹的精确跟踪。首先通过推导得出鱼眼图像平面内的移动机器人运动学模型;然后根据该模型和线性参数化方法设计了自适应轨迹跟踪控制器;最后对控制器的渐进稳定性进行了证明。在圆形轨迹和不规则轨迹的跟踪实验中控制器的平均轨迹跟踪误差分别为9.4像素和5.9像素。

5)提出了一种最优平滑轨迹跟踪点规划方法。针对所设计控制器在轨迹跟踪过程的运动平滑性问题,利用轨迹跟踪误差和速度变化量构建目标优化函数,同时考虑移动机器人动力学约束对最优轨迹跟踪点进行了优化求解,进而实现了一种内参未知图像平面内的在线最优轨迹跟踪点规划方法。将该最优轨迹跟踪点规划方法与自适应控制器相结合,通过与常用跟踪点选取算法对比验证了利用该轨迹点选取算法可以同时取得最优的跟踪精度与运动平滑性。

语种中文
页码125
源URL[http://ir.ia.ac.cn/handle/173211/39145]  
专题自动化研究所_精密感知与控制研究中心
精密感知与控制研究中心_精密感知与控制
推荐引用方式
GB/T 7714
亢兆兵. 基于鱼眼全方位视觉的移动机器人定位与控制[D]. 中国科学院自动化研究所. 中国科学院大学. 2020.

入库方式: OAI收割

来源:自动化研究所

浏览0
下载0
收藏0
其他版本

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。