论文部分内容阅读
人工智能领域开展了很多以行人为目标的研究,然而对行人过街意图识别方法的研究较少,行人过街意图的研究对智能驾驶意义重大。本文针对基于深度学习的行人过街意图识别方法进行研究,分为行人检测、行人跟踪、行人过街意图识别方法,主要内容如下:第一,提出基于YOLO改进的行人检测网络框架。针对YOLO目标检测算法在行人检测时漏检率较高的情况,通过初始化候选框,使得候选框更符合行人的宽高比,然后设计更深层的网络获取更丰富的特征语义信息,利用ResNet网络模型调整网络,显著降低了行人漏检率。为了进一步降低对小目标的漏检率,提出将高层卷积特征的语义信息与低层卷积特征的空间信息相融合,通过多尺度检测,行人漏检率的结果得到改善。第二,提出了基于相关滤波器的全卷积网络目标跟踪算法。相关滤波器是一种高效的跟踪算法,但是跟踪成功率不高,针对这一问题,对相关滤波器的前向传播与反向传播进行公式推导,实现相关滤波器模板在全卷积网络中的设计,完成了端到端的行人跟踪训练框架。通过实验证明,该方法在尺度变化和遮挡情况下获得了更高的跟踪成功率。第三,提出了基于注意力机制的LSTM行人过街意图识别算法。将行人过街意图识别看作时序建模预测问题,针对视频序列的多行人过街意图判断问题,将检测器、跟踪器相结合,提出多行人轨迹提取框架,对每个轨迹中的行人进行姿态估计与特征提取,然后构建长短时记忆网络,针对特征分配不同的权重的问题,在LSTM模型中融入的注意力机制,对关键特征增加权重,通过实验,本文方法在F1得分与准确率上得到提升。本文的研究可以应用在无人驾驶汽车领域,通过识别行人的过街意图为无人驾驶汽车的驾驶决策提供依据。