论文部分内容阅读
随着虚拟现实、计算机动画技术以及科学计算可视化的不断发展,对物体对象的重建与绘制提出了越来越高的要求。在计算机视觉系统中,深度信息的获取一直是热点研究问题,深度信息获取在图片理解、机器视觉、三维立体重建等方面有着广泛的应用。 目前获取深度信息的方法主要有两种:使用深度感应器直接获取和基于多视图计算视差间接获取,这两种方法都可以得到比较准确数据,缺点是在于需要专业设备以及摄像机内部参数,具体操作实施比较困难。近年来基于光场深度信息估计受到越来越多的关注和研究,光场即物体表面反射光线光强的空间分布,这就意味着只要采集到物体的光场信息就可以得到物体的深度信息。 相对于传统的2D图像,光场能够精确地描述场景的表面特征。光场采集数据中每个像素点信息包含了场景点发射的光线强度及方向信息,因此光场记录了三维场景的几何信息。目前基于光场估计深度信息的方法大多借鉴多视图立体算法,往往采用深度信息分层量化然后基于全局能量函数优化深度信息,获得的深度往往存在过平滑现象。 本文针对已有方法基于光场计算得到的深度信息过于平滑问题,提出了一种改进的方法和措施。具体工作可以总结为以下几点: 1.采用结构张量估算可靠初始视差进而确定视差范围; 2.针对基于3D光场的深度估计,采用基于像素级的计算方法避免传统光场深度计算中存在过平滑问题; 3.将3D光场的深度估计扩展到4D光场。分别提出了基于像素级融合的4D光场的深度估计方法和基于图像级融合的4D光场的深度估计方法。