论文部分内容阅读
自上世纪六十年代起,机器人作为一种替代人类繁重劳动的机器设备进入了工业生产领域。如今,随着人类社会进入人工智能时代,机器人被赋予了更多的智能化能力。服务机器人作为机器人与人工智能结合最为紧密的典型代表,逐渐从工业生产领域拓展到了人类生活和工作的方方面面。服务机器人智能价值的体现通常以对环境的智能感知为前提。提升服务机器人对环境的适应能力和感知水平成为服务机器人研究的重要方向。服务机器人可以通过多种类型的传感器实现对所处环境的感知,而视觉作为服务机器人感知能力的重要组成部分,成为服务机器人感知研究的热点和前沿。然而,服务机器人视觉目标感知的鲁棒性会受应用环境迁移、背景复杂等因素的影响。为服务机器人提供实时精确的视觉目标感知系统仍面临着巨大的挑战。 本文以国家科技支撑计划“国产机器人嵌入式实时操作系统开发与应用示范”为依托,针对服务机器人的视觉目标感知进行了深入细致的研究,以满足服务机器人在特定目标检测、物体合理抓取位置检测、服务机器人手眼标定三个方面的视觉应用需求。主要的研究内容和研究成果如下: (1)研究服务机器人目标实例检测问题。针对目标实例检测时SIFT特征匹配结果存在错误匹配的问题,提出了一种匹配特征分布区域约束的误匹配剔除算法。首先在离线阶段对参考图像提取特征并计算每个特征点与目标图像中参考点的偏移向量;在线检测阶段进行特征近邻匹配,并将匹配特征点坐标向各自参考点映射,通过估计映射结果的概率密度计算有效区域的中心及图像间的显著尺度比,从而确定有效特征映射点分布区域,达到剔除错误匹配的目的。通过图像公开测试集验证,证明区域约束SIFT特征误匹配剔除算法对尺度缩放、旋转以及视角变化等场景具有良好的适应性。 (2)研究了基于视觉的服务机器人多目标实例检测问题,提出了一种基于双层概率密度估计的多目标实例检测框架。该框架采用了SIFT局部尺度不变特征匹配和特征关键点位置映射方法。在第一层概率密度估计用于估计图像间的显著尺度比,并以此为第二层概率密度估计提供参考聚类参数。在目标模板图像特征重提取和重匹配后,采用了级联的误匹配剔除算法剔除错误匹配结果。在第二层概率密度估计中,通过对参考聚类参数乘以经验系数来确定自适应聚类参数。其中,经验系数通过实验确定。最后采用基于自适应参数的概率密度估计方法寻找所有候选对象实例。实验证明本研究提出的多目标实例检测方法具有较高的鲁棒性和检测效率。 (3)研究了服务机器人视觉目标合理抓取位置检测问题,提出了基于深度学习的目标合理抓取位置鲁棒回归方法。针对非同源数据融合问题,提出了一种基于深度卷积神经网络的彩色图像数据与深度图像数据深度融合的方法。另外,为了解决训练过程过早收敛的问题,将Welsch函数引入到损失函数的设计中。实验结果验证了所提算法的有效性。 (4)最后,对服务机器人的视觉目标感知进行了集成应用,并研究了服务机器人的手眼标定问题。为了解决手眼标定对数据粗差敏感的问题,提出了一种基于误差分布估计的加权最小二乘鲁棒估计方法,以提高服务机器人手眼标定参数的精度。首先,通过最小二乘方法计算手眼标定参数;之后计算数据重建误差;根据误差值的分布概率初始化对应坐标数据的权值;最后采用加权的最小二乘估计重新计算机器人手眼标定矩阵。另外,引入了迭代估计策略用于进一步提高手眼标定的精度。设计的机器人手眼标定实验及结果证明,所提算法能够在数据粗差影响下保持较高的标定精度,适用于服务机器人的视觉目标抓取集成应用。