论文部分内容阅读
人类获取外界信息的绝大部分来自视觉,所以数字图像成为人们生活交流的重要载体之一,但是数字图像在采集、保存和传输过程中却存在很多问题。首先,传统图像在保存和传输时可能出现破损,从而导致结构和内容缺失;其次,普通相机在图像采集过程中会失去场景的几何深度信息,从而导致立体感缺失。为此,本文提出了基于结构优化的图像几何内容修复技术,该技术能够解决单视图的场景内容缺失问题和多视图几何深度信息缺失等问题,为数据修复、场景重建和场景渲染等领域提供技术支撑。 本文主要分为两个研究内容:针对传统图像几何内容缺失的问题,本文提出了一种结构一致与多尺度优化的图像修补方法;针对多视图光场几何深度信息缺失的问题,本文提出了一种基于结构优化的多视图深度信息修复方法,具体如下: (1)在传统图像几何内容修复方面,本文克服了传统图像修复过程中的结构不一致与纹理不协调等问题,提出了一种结构一致与多尺度优化的图像修补方法。首先,针对图像的缺失区域定义匹配优先级函数约束修补顺序;然后,通过候选块与待修复块的匹配,建立相似匹配函数用于候选匹配块的选择;最后,通过引入高斯多尺度信息,进行尺度优化。实验结果表明,本文的方法能够有效的修复各种类型的图像空洞区域,获得纹理结构一致性的图像修复结果。 (2)在多视图光场几何深度信息修复方面,本文解决了立体图像几何内容修复过程中的视点融合与尺度优化等问题,提出了基于融合与视点一致的光场几何深度信息修复方法。首先,针对光场数据的特点和多尺度优化需求提出了一个五维代价体模型;然后,提出了Scale-View光场代价聚合框架;接着,本文将正则优化引入到光场代价聚合中;最后,本文将多尺度融合与优化引入到光场几何深度信息修复中。实验结果表明,本文的方法能够有效解决多视图几何深度修复问题,获得稠密且平滑的深度图。