论文部分内容阅读
视频资源的物理属性决定其在互联网中占据着巨大的存储空间和传输带宽,特别是Web2.0技术的诞生,让视频资源弥漫在网络的每个角落。针对格式未统一或标签缺省的进行语义搜索,变得异常艰难。随着视频资源与日俱增,这种现象将愈发严重。论文构建了基于UCL(Uniform Content Locater,UCL)的视频语义模型,利用视频数字水印技术实现语义信息和载体信号的一体传输和存储。针对视频语义信息的属性和UCL语义模型的特点,提出了基于场景分割的双重语义水印算法。
通过DCT变换计算视频序列相邻帧间,在空间和时间上的相似性,实现场景的分割与选择。结合局部纹理复杂度、背景亮度和场景复杂度,针对同一场景中非I帧图像,采用基于DCT变换域的原始视频水印方案嵌入相同的内容语义信息。在JM10.2参考模型的基础上,利用场景分割算法对JM10.2中最佳参考帧的选择算法进行移植与优化。针对同一场景的I帧图像,采用基于压缩域的DCT变换系数携带相同的控制语义信息或物理属性信息。
论文的算法在JM10.2参考模型的基础上利用VS2008开发环境完成了代码实现,包括:视频序列的编解码、水印信息的嵌入和模拟视频水印的各种攻击,然后由MatlabR2010b对原始视频序列和含水印的视频序列进行数据统计,最后根据数字水印的性能指标对算法进行性能评估。实验表明,由于同一场景嵌入相同的水印信息,使算法的鲁棒性得以显著提高,在确保鲁棒性的前提下,基于原始域的视频水印算法实现了大量语义信息的传输,在确保水印容量的前提下,基于压缩域的视频水印算法进一步提高了算法的鲁棒性。