论文部分内容阅读
视觉同时定位与建图(Simultaneous Localization and Mapping,SLAM)主要使用视觉传感器进行位姿估计和地图构建,被广泛应用于移动机器人、增强/虚拟现实、智能手机以及自动驾驶等。RGB-D相机可直接获取图像像素的深度,使视觉SLAM中对深度的计算变得简单,可有效提高视觉SLAM系统的鲁棒性和可靠性。但是在复杂场景下现有的RGB-D SLAM方法仍然面临精确性和鲁棒性的挑战。一方面,RGB-D SLAM方法在复杂环境中容易定位不准。比如,现有方法在较大旋转场景中难以进行有效的特征匹配,在动态场景中难以消除由动态物体引起的错误关联,在纹理缺乏场景中难以提取有效的图像纹理特征等,导致运动估计的不准确。另一方面,RGB-D SLAM方法在复杂环境中容易失效。比如,现有方法难以鲁棒地处理图像重叠区域少的场景、运动场景或是纹理缺乏场景,导致移动机器人在这些复杂场景下的跟踪容易丢失。针对上述问题,本文研究复杂环境下RGB-D SLAM,提出有效的解决方法,以提高其准确性和鲁棒性。本文主要贡献如下:·提出了一种面向较大旋转场景基于点特征的空间一致性匹配的RGB-D SLAM方法。通过提取图像特征点,在局部描述子匹配基础上,利用特征点的空间一致性进行匹配,将匹配问题转化为优化问题求解。将特征点的局部特征和全局特性相结合,可在较大旋转场景下减少点特征的错误匹配,进一步减小系统的定位误差,避免跟踪失败,从而实现了较大旋转场景下精确和鲁棒的视觉SLAM。·提出了一种面向动态场景基于点和直线特征的RGB-D SLAM方法。同时从RGB图像上提取点和直线特征,进行有效的点和直线特征匹配,并将点特征和直线特征结合起来,利用点和直线特征的静态权重区分静态和动态特征,从而消除动态特征对位姿估计的影响,最后根据剩余的静态点和直线特征联合求解相机运动。有效地解决了动态环境下现有的RGB-D SLAM方法精度不够高和鲁棒性不足的问题,提升了视觉SLAM系统在动态环境下的精确性和鲁棒性。·提出了一种面向动态场景和纹理缺乏场景基于点和平面特征的RGB-D SLAM方法。同时从RGB图像中提取点特征以及从点云数据中提取平面特征,进行有效的点和平面特征匹配,并将点特征和平面特征结合起来,利用点和平面特征的空间关系对点特征建立混合t分布模型(studentt-Mixture Model,TMM),采用期望最大化(Expectation-Maximization,EM)算法求解,将点特征分为静态和动态点,最后采用静态点和平面特征共同进行位姿求解。减小了 RGB-D SLAM在动态环境和纹理缺乏环境下的跟踪误差和运动失效,提高了视觉SLAM系统的精确性和鲁棒性。