论文部分内容阅读
随着互联网技术和多媒体内容的快速发展,互联网上的图像数量呈现爆炸式增长趋势。同文本信息相比,基于视觉信息的图像更加形象、易于理解,这种优势使数字图像应用非常广泛,比如医学图像、新闻图像、商标图像等。互联网上的图像通常呈现这样一种特征:通过使用图像搜索引擎如Google或者百度,我们会发现一幅原始的数字图像经常会有很多近似重复的图像。这种现象造成了互联网资源的巨大浪费,同时也带来了图像侵权等问题。因此,高效的近似重复图像检测(Near Duplicate Image Detection,NDID)算法就显得尤为重要。 本文从结合深度特征学习的哈希编码以及负载均衡的局部敏感哈希(Locality Sensitive Hashing,LSH)索引结构两个方面构建高效的近似重复图像检测系统。主要工作如下: ①提出了结合深度特征学习的对称层次哈希编码网络。传统的图像特征都属于人工设计的特征,依赖于设计者的先验知识很难利用海量数据的优势,具有很大的局限性。本文的方法既利用深度学习从大量样本自动学习更有效特征的优势,又能够结合哈希编码的模式来训练网络学习更适用于LSH索引结构的特征。相较于传统的CNNH(Convolutional NeuralNetwork Hashing)算法需要大量图像对相似度矩阵用于训练网络,该方法具有训练简单、生成哈希码质量高等优点。该方法的良好性能在网络训练过程及公开数据集CIFAR-10、UKbench的实验结果中得到了验证。 ②本论文提出改进的LSH索引结构-负载均衡局部敏感哈希算法Load Bal-anced LSH,LB-LSH索引结构通过均衡哈希桶,使每个哈希桶含有的样本数量趋于均衡,从而提高NDID问题的检测效率。LB-LSH算法通过对基本LSH索引结构的数学理论分析,在确保检索效率和准确率的前提下得到一个近似哈希桶样本数量阈值。同时,本文结合算法提出了切实可行的高效NDID系统实现。在UKbench、INRIA Copydays数据集上的实验结果表明本文的方法在准确率以及索引效率上优于传统的LSH算法。 ③在构建Coarse-to-Fine两步检测模型时,本文在Coarse-level Search阶段使用工作1对称层次哈希编码网络提取的特征来构建LB-LSH索引结构,在Fine-level Search阶段使用Fine-tuning后的模型提取的特征来计算最终的检测结果。这样将分层的深度哈希编码学习网络与负载均衡LSH结合形成一个端到端(end-to-end)的高效近似重复图像检测系统。