论文部分内容阅读
针对当前模式识别领域少有专门针对手持物体识别的研究,提出了可实时全局分析人体手持物体状态及手持物体类别的分析算法.以人体姿态估计网络Openpose和物体检测网络Yolo为基础对图像进行初步处理,利用C++A PI将二者获取到的人体关节点坐标和目标物体坐标进行信息融合,然后针对不同尺寸的物体进行分类并分别设计了判定法则,融合交并比(I O U)算法作为手持状态的辅助判断,最终实现了人体手持物体行为分析算法.采集手持物体的视频流制成数据集,使用多种方法进行数据增强并训练,最终算法识别出手持物体状态的同时,正确识别手持物体类别的准确率可达91.2% 左右,相较于传统方法提高了大约1.3%,且运行速度可达13 fps,验证了算法的准确性.试验证明该算法对手持刀具、枪支等危险品的异常行为检测具有较高应用价值.