论文部分内容阅读
基于图像序列的景深获取算法是根据图像序列的场景相关性,恢复得到图像中场景的深度信息,进而获得场景精确结构模型的理论方法。这样的算法在汽车自动驾驶、文物保护以及数字城市管理等领域有着重要的应用价值。故而本文深入研究了一种基于混合特征的图像序列景深获取算法,本算法可以高效精确地恢复出场景深度信息。同时,本文利用CUDA (Compute Unified Device Architecture)架构对算法的主要耗时步骤进行了并行化改造,在保证精度的同时大幅度的提升了算法的运算效率。首先,本文利用图像序列之间的场景连续性特征,对图像序列进行特征提取与匹配计算,而后利用RANSAC (Random Sample Consensus)算法迭代优化得到最优基本矩阵模型,并利用这个模型去除误匹配。之后根据视图几何理论恢复得到相机的初始位姿以及场景的初始结构。最后利用捆集调整算法依据重投影误差约束对相机位姿以及场景深度进行统一调整,最终得到精确地相机位姿。然后,利用具有精确位姿图像序列之间的场景连续性约束,设定滑动窗口对图像进行进一步稠密匹配,而后根据追踪的原理将两两图像之间的匹配关系连成特征点流,最后根据重投影误差约束的多视图景深恢复算法对特征点流进行计算,从而得到场景的稠密景深信息。之后本文着重介绍了一种基于混合特征的快速稠密匹配算法,这种算法的基本匹配原则为基于相关分析的区域匹配,而后利用图像序列的稳定SIFT(Scale-invariant feature transform)特征以及对极约束对匹配种子点进行区域划分,从而提高了算法的实时性。最后根据图像的纹理特征研究设计了一种基于检测场景边缘的自适应窗口算法,实验证明,这样的算法可以对复杂场景有较好的鲁棒性。并且能够完成快速精确地匹配计算。最后,通过实验分析得出了算法的主要耗时步骤,并利用CUDA架构对特征提取与匹配、RANSAC去除误匹配、相机位姿恢复以及多视图快速匹配算法进行了并行化改造,最终通过实验验证,证明在算法精度未发生改变的情况下,并行算法大幅度提高了算法的运算速度。