论文部分内容阅读
移动机器人目前已经广泛应用于工业、物流仓储、家庭服务及医疗等领域。虽然目前已经有很多种类的移动机器人的出现,但是其核心定位技术仍然没有很好地解决,如实时定位、复杂环境定位以及高精度定位等。从而导致移动机器人在很多应用场景中的应用受到限制。而基于视觉的定位可以获得通过丰富的环境信息进行机器人的位姿估计,保证移动机器人能够自主移动和作业。视觉定位需要图像中丰富的特征信息以及左右帧图像匹配结果,因此本文主要针对立体匹配、室内移动机器人的实时、高精度以及鲁棒定位进行研究。 本文首先介绍了立体匹配技术以及基于立体匹配的视觉定位技术的研究背景和现状,全面分析了目前主流的立体匹配技术,包括局部立体匹配和全局立体匹配技术,基于特征的匹配技术以及密集匹配技术。同时也指出了目前立体匹配中存在的实时性以及误匹配等问题。本文还针对视觉定位算法做了分析和介绍,主要包括基于路标定位、同时定位与建图以及视觉里程计。在复杂非结构环境下的实时高精度定位算法是目前的主要研究方向。 基于滤波器的立体匹配算法可以快速实时地进行匹配,可以求得精准的视差图。本文第二章在目前已有的导向滤波器的基础上,提出一种基于边缘保持导向滤波器的局部立体匹配算法。该算法对传统的导向滤波器进行了改进,加入了边缘保持因子,使得最后的视差图可以很好地进行边缘保持。该方法还研究了混合匹配代价计算方法,在光照条件变化的情况下,具有很好的鲁棒性。针对不同的图像结构,采用自适应十字形支撑窗口,可以很好地解决视差不连续的问题。 在某些场合下,高精度的视差图是必不可少的,而全局立体匹配方法相对于局部方法而言精度更高,更适合高精度场合的应用。因此,本文第三章提出一种基于条件随机场和递归神经网络的立体匹配算法。对于传统的基于条件随机场的立体匹配算法做出相应改进,利用递归神经网络的递归性对条件随机场进行求解。同时在构建能量函数时,不仅采用图像灰度值,同时对图像进行对象分割,将对象作为约束加入能量函数。同时还利用CNN对图像进行训练,将其相似性函数引入到能量函数,最后得到高精度的视差图。 在双目视觉里程计定位中,精准的特征点检测和匹配是获取精确的位姿信息的前提。因此在研究定位算法之前,需要设计一种鲁棒性强、效率高的特征点匹配算法。针对复杂环境下光照变化,尺度变化等对于特征点检测的影响,探讨了一种基于GPU并行计算的尺度不变特征变换算法,该算法能够实时地对特征点进行检测和匹配,同时对于尺度变换、旋转变换、光照变化等具有很强的鲁棒性。在第二章的基础上,第四章提出一种视觉惯导融合定位算法,采用特征匹配计算位姿变换矩阵,然后利用第二章中的立体匹配方法计算尺度因子。最后利用位置滤波器结合变换矩阵和尺度因子对机器人位姿进行估计。 在室内非结构化环境下,由于环境的复杂多变,导致定位难度增加。视觉里程计在短时间内能够提供比较精准的定位,但是在长时间运行过程中仍然会出现累积误差。同时定位与建图算法能够对环境地图进行构建,但是对于动态场景仍然不太适用。因此,第五章提出了自然信标和视觉里程计融合的定位算法。首先对于环境建立自然信标库,自然信标库无须额外布置信标,只需要根据环境特征进行建图。同时根据室内天花板设计了基于天花板的视觉里程计算法,可以快速实时地进行定位。在正确检测到自然信标后,根据自然信标进行位姿校正,消除里程计累积误差。该算法结合了相对定位的实时性和绝对定位的准确性,适用于室内移动机器人。