论文部分内容阅读
行人检测是计算机视觉的重要组成部分之一,广泛的应用于智能驾驶,辅助驾驶和智能视频监控当中。在我国的主要交通现状是混合交通的背景下,场景中的行人存在多目标、遮挡物和复杂背景的干扰问题,传统的行人检测方法很难得到较好的检测效果。针对这些问题,本文将基于深度学习的行人检测方法和这一特殊背景相结合,并从多个方面优化检测效果。针对筛选出的混合交通场景下的行人训练集,从淡化交通背景的影响和让行人特征更加明显两个方面来降低网络模型的训练难度。对训练集样本数据进行预处理,分别对训练集中的图片做初始的校正和灰度级转换,再对训练集中的图片进行图像增强处理,来降低场景中的行人特征的提取难度和增强检测网络训练的效果。针对混合交通场景下的识别和检测,为达到在精确度和速度上的要求,本文构建了以YOLOv3作为原型网络的行人检测网络模型。为了达到更好的精确度,本文改进了特征金字塔网络(Feature Pyramid Network,FPN)中的多尺度特征融合方法。利用尺度转换检测网络(Scale-Transferrable Object Detection,STDN)中的尺度转换法替换FPN中插值上采样的方法,设计实现了本文的多尺度特征融合的方式。在原型网络上选用YOLOv3中的Darknet-53网络,来满足实时性检测的要求。利用设计的多尺度特征融合方法改进Darknet-53网络,构建了混合交通场景下的行人检测网络。并在和原YOLOv3算法网络的比较实验中,取得优秀的检测效果。为达到更好的检测效果和避免训练过程中的梯度爆炸和损失发散,利用软采样的方式来降低简单负样本在训练过程中的影响。在损失方面,由于本文检测的目标比较单一,降低检测过程中的分类损失来提高网络训练效果。使用本文构建的行人检测网络模型在实际交通场景中进行检测实验,为验证检测网络模型的实际应用价值,测试集全部来自实际拍摄符合要求的现实图片。从检测实验结果分析,混合交通场景中的行人检测效果突出,论证了本文研究价值。