论文部分内容阅读
随着经济的发展,机动车辆在数量上日益增长,已经成为人们日常生活中不可或缺的一部分,给人们的生活带来了巨大的便利。尽管如此,机动车辆也带来许多新的问题,其中最严重的是道路交通事故所造成的生命与财产损失。高级驾驶辅助系统是智能交通系统的重要组成部分,它通过各种传感器技术与专家决策系统判断车辆内外环境的状态,对可能出现的危险情况进行预警,从而能够有效地减少事故的发生,避免无谓的生命财产损失。 基于视觉的驾驶辅助系统以摄像机为主要传感器件,通过分析采集到的车辆内外环境的图像,实现各种驾驶辅助功能,如行人检测、碰撞预警与交通标识识别等。基于视觉的驾驶辅助系统依靠计算机视觉技术,对道路场景中的各类目标进行检测、识别与跟踪,然后分析并预测各类目标的行为,实现对道路交通状况的理解。基于视觉的车载驾驶辅助系统所面临的难题在于其所处理的图像包含各种各样的道路类型与动态变化的场景内容,且成像质量受天气变化以及光照条件所影响。此外,驾驶辅助系统的响应速度也是各种算法需要解决的问题。 本文对基于视觉的驾驶辅助系统中的几个基础关键技术进行了研究,即道路场景中的局部特征描述方法,双目视觉下的立体匹配方法,以及双目视觉下的障碍物检测与可通行区域估计方法。以提高各方法对道路场景的适应性以及运算效率为目标,本文取得了以下成果: 1)提出基于旋转匹配的图像局部二进制描述子 本文针对道路场景的特点,提出了基于旋转匹配的二进制描述子用于局部特征描述。为了适应复杂的光照变化并降低系统开销,本文采用了二进制描述子作为局部特征描述方法。针对道路场景中的尺度变化,本文利用多尺度的特征检测方法,结合采样模式缩放和亚像素插值,实现了尺度不变特性。针对道路场景中图像旋转幅度较小的特点,本文按照旋转协变的方式选取点对进行比较并生成二进制串,在匹配时将描述子进行旋转后再计算汉明距离,实现了不依赖于主方向的旋转不变性,避免了由于主方向计算误差所导致的匹配错误。 2)提出适用于道路场景的半全局立体匹配算法 本文针对道路场景的特点对半全局立体匹配算法进行了一系列改进,提高了匹配结果的精确度。本文首先对原始图像进行特征变换,用邻域内的二进制描述子作为单点特征,以特征间的距离作为单点的匹配代价,使单点代价更具区分性,并能容忍一定程度的光照变化;接着通过在图像中稀疏地匹配一些可靠视差点作为先验条件,用于约束代价累加过程中的视差传播;然后结合道路场景中的视差分布特点,对平滑约束以及路径权重进行调整,并通过快速估计道路平面视差来减少视差的搜索空间,使算法的精度和效率都得到提高;最后提出基于局部平面拟合的迭代方法对生成的视差图进行错误视差修正。 3)提出复杂场景中道路可通行区域的快速估计方法 本文提出一种复杂场景中道路可通行区域的快速估计方法,通过改进道路平面视差估计算法,并在计算匹配代价时引入额外的惩罚代价,有效地提高了现有方法的精度。本文首先用匹配代价来代替V-Disparity图中的视差,估计出道路平面所对应的视差;然后对图像按列进行障碍物-道路接触点位置的估计,利用阴影约束排除不可能的接触点位置以减少计算开销,并对弱纹理区域引入惩罚代价以削弱阴影等干扰的影响;最后,对相邻接触点的空间关系进行约束,并利用动态规划求出满足约束条件的全局最优解。 通过在道路场景类的图像测试集上进行详尽的实验,本文验证了所提出的各种方法的有效性。实验结果表明,本文方法能够更好地适应道路场景的特点,对基于视觉的驾驶辅助系统的技术发展具有实际的应用价值。