论文部分内容阅读
3D-HEVC能够较好地去除3D视频中的时空域、视点间的冗余,但未能够很好地去除感知冗余,而感知编码的应用能够在保证主观质量不变的前提下,进一步去除感知冗余从而降低编码复杂度或节省编码码率。因此如何构建视觉感知模型以及如何应用到3D视频编码当中,是当前3D视频编码的研究热点。为此,本学位论文基于3D-HEVC编码标准,从视觉感知角度出发,对3D视频的低复杂度编码和率失真优化两个核心技术展开研究。针对深度图编码复杂度较高,本文提出一种基于虚拟视点合成的快速深度图编码方案。面向三维视频系统采用最大可容忍深度失真(Maximum Tolerated Depth Distortions,MTDD)模型,首先根据MTDD值的可容忍性不同,给出应用于不同类型深度范围提前决策算法;然后,检测是否对绘制失真敏感的竖直边缘区域,根据不同的搜索策略进行模式决策;最后,融合这两个算法进一步降低深度视频编码的复杂度。实验结果表明,所提出的算法在保证绘制虚拟视点质量和编码码率基本不变的情况下,降低了49.45%的编码时间。针对立体视频中存在着大量的感知冗余,本文提出了一种基于中心凹的双目恰可察觉编码失真(Foveated Binocular Just-Noticeable Coding Distortion,FBJNCD)模型。首先通过主观实验研究梯度幅值和纹理幅值对立体掩蔽效应的影响;同时考虑到人类视觉特性(Human Visual System,HVS)的视觉敏感度并非恒定不变,当视网膜离心率变大时,像素的视觉阈值也随之变大,因此结合HVS的视网膜中心凹感知特性;最后将FBJNCD并将其应用于多视点高效视频编码(Multi View-High Efficiency Video Coding,MV-HEVC)测试平台中对立体视频进行非对称编码。实验结果表明所提出模型在保持立体视频感知质量的同时,平均能够节省26.04%的编码码率,提高立体视频压缩效率。针对传统的恰可察觉失真(Just-Noticeable Distortion,JND)模型很难应用于立体视频当中且存在高估前景区域的视觉阈值和低估背景区域的视觉阈值的问题,因此本文提出了一种能够应用于立体视频的恰可察觉失真(Stereo Just-Noticeable Distortion,SJND)模型。首先,利用视差信息把传统的JND分为前背景区域,对前景区域赋予较小的阈值,对背景区域赋予较大的阈值。同时考虑到前景区域中人比较关注视觉中心区域和视差较大的区域,因此基于这两个规则提出了一种新的显著图,并给不同显著性区域赋予不同的量化参数(QP)值。实验结果表明所提出方法在保证立体视频质量不变的前提下,平均能够节省19.92%的码率。