CN112614196B - 基于四元数卷积神经网络的图像鲁棒性哈希认证方法 - Google Patents

基于四元数卷积神经网络的图像鲁棒性哈希认证方法 Download PDF

Info

Publication number
CN112614196B
CN112614196B CN202011490320.1A CN202011490320A CN112614196B CN 112614196 B CN112614196 B CN 112614196B CN 202011490320 A CN202011490320 A CN 202011490320A CN 112614196 B CN112614196 B CN 112614196B
Authority
CN
China
Prior art keywords
image
quaternion
hash
neural network
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011490320.1A
Other languages
English (en)
Other versions
CN112614196A (zh
Inventor
欧阳军林
张啸
文杏梓
戴特勃
黄井滔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan University of Science and Technology
Original Assignee
Hunan University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan University of Science and Technology filed Critical Hunan University of Science and Technology
Priority to CN202011490320.1A priority Critical patent/CN112614196B/zh
Publication of CN112614196A publication Critical patent/CN112614196A/zh
Application granted granted Critical
Publication of CN112614196B publication Critical patent/CN112614196B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32267Methods relating to embedding, encoding, decoding, detection or retrieval operations combined with processing of the image
    • H04N1/32277Compression

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本发明公开了一种基于四元数卷积神经网络的图像鲁棒性哈希认证方法,其步骤包括:步骤S1:彩色图像预处理;即将图像的大小进行处理,将图像的RGB数据输入四元数矩阵;对图像添加噪声,并将图像数据和噪声数据总的分为训练数据和测试数据;步骤S2:建立彩色图像的四元数卷积神经网络;步骤S3:对彩色图像进行图像认证。本发明具有特征描述更精确、具有有鲁棒性和区分性的等优点。

Description

基于四元数卷积神经网络的图像鲁棒性哈希认证方法
技术领域
本发明主要涉及到技术领域,特指一种基于四元数卷积神经网络的图像鲁棒性哈希认证方法。
背景技术
随着电子设备的不断发展和广泛普及,不但为人们的生活带来了便利,同时也诞生出了许多新问题。例如,海量数据给服务器存储带来巨大压力,尤其是存储空间不足的问题;即,由于多个用户在服务器上重复存储相同的图片,就容易引起存储空间不足。同时,网络上的大量超高清图片在传输过程中可能会遭到破坏,攻击者恶意篡改图片而没有改变图片的原始语义信息。因此,有必要研究和探索一种新的、有效的图像压缩和图像认证技术方法。
为了解决图像认证的问题,有从业者提出了许多解决方案,取得了一定的效果。例如,对于图像认证,数字水印是有效的解决方案之一。数字水印可以有效地嵌入图像中,但是图像本身在视觉上没有太大变化。使用者可以通过检测水印来确定图像是否已更改,从而对图像进行身份验证。但是,在一些具体应用环境下,某些应用程序不允许图像内容和质量有任何细微变换。
通过图像哈希的性质可以有效地减轻存储和检索的压力。同时,良好的图像哈希算法是鲁棒的和可区分的,并且可以处理图像认证的问题。“健壮性”是指视觉上相似图像的图像哈希应该相同或相似。所以,图像哈希可以抵抗不同的数字操作,这样就保证可以更快地检索相似的图像,从而减少了重复图片的存储和减轻了服务器的压力。而“区分性”意味着不同的图像应产生不同的哈希序列。
现有的图像手工哈希方法可以分为四大类:基于正交变换(DCT,DWT,DFT)的哈希方法、基于直方图的哈希方法、基于拉东变换的哈希方法、基于降维(SVD,NMF)的哈希方法。这些已知的图像哈希认证方法主要存在以下缺点和不足:
(1)在执行之前通常会将彩色图像转换为灰度图然后再进一步处理,这样会损失掉彩色图像的通道之间的结构信息和色度信息。
(2)手工哈希无法捕获现实数据中出现的剧烈外观变化下的语义信息,从而限制了学习的哈希编码的认证效果。
发明内容
本发明要解决的技术问题就在于:针对现有技术存在的技术问题,本发明提供一种特征描述更精确、具有有鲁棒性和区分性的基于四元数卷积神经网络的图像鲁棒性哈希认证方法。
为解决上述技术问题,本发明采用以下技术方案:
一种基于四元数卷积神经网络的图像鲁棒性哈希认证方法,其步骤包括:
步骤S1:彩色图像预处理;即将图像的大小进行处理,将图像的RGB数据输入四元数矩阵;对图像添加噪声,并将图像数据和噪声数据总的分为训练数据和测试数据;
步骤S2:建立彩色图像的四元数卷积神经网络;
步骤S3:对彩色图像进行图像认证。
作为本发明方法的进一步改进:所述步骤S1包括:
步骤S101:将彩色图像数据库中的每幅图像都通过双线性插值法将图像的大小统一固定到N×N;
步骤S102:将大小为N×N的彩色图像t的RGB三个通道的数据分别赋值给N×N的四元数矩阵qt的三个虚部,即纯四元数q=0+R(t)i+G(t)j+B(t)k;其中,i,j,k是三个虚数单位,R(t),G(t)和B(t)分别表示彩色图像t的R分量,G分量,B分量;
步骤S103:对图片添加噪声,将图像数据和噪声数据总的分为训练数据D1和测试数据D2。
作为本发明方法的进一步改进:所述步骤S103中添加的噪声包括高斯噪声、图片旋转、缩放中的一种或多种。
作为本发明方法的进一步改进:所述步骤S103中的训练数据D1和测试数据D2满足0<D2<D1。
作为本发明方法的进一步改进:所述步骤S2包括:
步骤S201:采用四元数卷积神经网络作为图像哈希的基本网络结构;
步骤S202:每次训练迭代将从图像数据库D1中选取64组图像,每组图像三张图片,并将图像上人工标注的标签信息同时作为模型的输入,用于判断图像之间的相似性;
步骤S203:在每次迭代中,64组图像中每组图像均包含原图、相似图片、不相似图片三张图片;通过同时输入的标签信息,计算连续性编码三元组损失函数;
步骤S204:根据每幅图像输入进四元数卷积神经网络后、再量化后得到的哈希编码,进行量化损失计算和量化后的三元组损失计算;
步骤S205:计算出每次迭代的图像的所有损失,即连续性编码三元组损失、量化损失、量化后的三元组损失的累加;然后,使用随机梯度下降算法和反向传播算法来对四元数卷积神经网络模型的参数进行更新,迭代进后,得到优化好的四元数卷积神经网络模型。
作为本发明方法的进一步改进:所述步骤S205中,所述连续性编码三元组损失通过如下损失函数计算:
Figure BDA0002840003820000031
其中,K为最后一层输入的维度,设输入的三张图片原图、相似图片、不同图片分别为Io,Is,Id,其对应的连续性哈希编码为ho,hs,hd;定义一个阈值α,当相似图片对的欧式距离大于不同图片对的欧式距离,或者相似图片对的欧式距离加上阈值α大于不同图片对的欧式距离时,才对该损失函数有贡献,否则函数值为零。
作为本发明方法的进一步改进:所述步骤S205中,所述量化损失通过如下损失函数计算:通过量化得到二进制编码,量化过程如下,设输入图片通过模型生成的连续性哈希编码为H,量化函数:
Figure BDA0002840003820000041
其中,Hk与H1比较得出最后一位的二进制编码,用于计算最后一层输出与量化后的二进制编码的差值;具体的量化损失函数如下:
Figure BDA0002840003820000042
作为本发明方法的进一步改进:所述步骤S205中,量化后的三元组损失通过如下损失函数计算:
Figure BDA0002840003820000043
其中,K为最后一层输入的维度,设输入的三张图片原图、相似图片、不同图片分别为Io,Is,Id,其对应的二进制哈希编码为hB o,hB s,hB d;定义一个阈值ε,当相似图片对的欧式距离大于不同图片对的欧式距离,或者相似图片对的欧式距离加上阈值ε大于不同图片对的欧式距离时,才对该损失函数有贡献,否则函数值为零。
作为本发明方法的进一步改进:所述步骤S3中,四元数卷积神经网络所生成的图像哈希集合,分别建立近似图像集的哈希距离分布图和不同图像集的哈希距离分布图,其中哈希距离以汉明距离计算;通过观察分布图得出近似图像对与不同图像对的距离最佳的阈值λ,之后将通过图像对之间的距离与阈值的比较完成图像认证任务。
与现有技术相比,本发明的优点在于:
1、本发明的基于四元数卷积神经网络的图像鲁棒性哈希认证方法,通过利用四元数卷积神经网络,将图像的特征学习与哈希函数的学习整合到一个端到端的过程中,实现了图像特征与哈希函数的联合优化,克服了传统哈希方法学习到的哈希编码与图像特征不符的缺点。通过将RGB图像转换为四元数矩阵,能够更好地保留彩色图像通道间的结构信息和色度信息。
2、本发明的基于四元数卷积神经网络的图像鲁棒性哈希认证方法,同时考虑了图像间的相似性和不同性,在哈希编码过程中保留了图像的语意信息以及欧式空间到海明空间量化误差的最小化,从而得到高质量的图像哈希编码,
3、本发明的基于四元数卷积神经网络的图像鲁棒性哈希认证方法,在UCID和ImageNet数据集上,当图像编码为64,128,256,512比特时,平均AUC值分别达到96%,98%,99.3%,99.8%。
附图说明
图1是本发明方法的流程示意图。
图2是本发明在具体应用实例中的应用原理示意图。
具体实施方式
以下将结合说明书附图和具体实施例对本发明做进一步详细说明。
首先对本发明所涉及的四元数及四元数卷积神经网络做一个简要说明:
(a)四元数作为一种超复数,是复数的扩展形式,被解释在三维空间,四元数可以表示一个实部和三个虚部:
Figure BDA0002840003820000051
其中三个虚部满足一下性质:
i2=j2=k2=ijk=-1,
j=-ji=k,jk=-kj=i,ki=-ik=j.
四元数的相关运算:
加法:
Figure BDA0002840003820000061
共轭:
Figure BDA0002840003820000062
模运算:
Figure BDA0002840003820000063
(b)四元数卷积神经网络:
RGB彩色图像被表示二维纯四元数矩阵:
Figure BDA0002840003820000064
其中R,G,B分别代表彩色图像的三个通道。大小L×L为四元数卷积核
Figure BDA0002840003820000065
θll’∈[-π,π]和
Figure BDA0002840003820000066
μ是单位纯四元数
Figure BDA0002840003820000067
四元数神经网络的卷积如下:
Figure BDA0002840003820000068
Figure BDA0002840003820000069
如图1和图2所示,本发明的基于四元数卷积神经网络的图像鲁棒性哈希认证方法,其步骤包括:
步骤S1:彩色图像预处理;即将图像的大小进行处理,将图像的RGB数据输入四元数矩阵;对图像添加噪声,并将图像数据和噪声数据总的分为训练数据和测试数据;
步骤S2:建立彩色图像的四元数卷积神经网络;
步骤S3:对彩色图像进行图像认证。
在具体应用实例中,本发明的步骤S1可以包括:
步骤S101:将彩色图像数据库中的每幅图像都通过双线性插值法将图像的大小统一固定到N×N。
步骤S102:将大小为N×N的彩色图像t的RGB三个通道的数据分别赋值给N×N的四元数矩阵qt的三个虚部,即纯四元数q=0+R(t)i+G(t)j+B(t)k;其中,i,j,k是三个虚数单位,R(t),G(t)和B(t)分别表示彩色图像t的R分量,G分量,B分量;三者的取值范围均在0-255之间。
步骤S103:为了模拟内容篡改,对图片添加58种噪声,在具体应用时可以包括高斯噪声、图片旋转、缩放等。然后,将图像数据和噪声数据总的分为训练数据D1和测试数据D2,且0<D2<D1。
在具体应用实例中,本发明的步骤S2可以包括:
步骤S201:采用四元数卷积神经网络作为图像哈希的基本网络结构。
步骤S202:每次训练迭代将从图像数据库D1中选取64组图像,每组图像三张图片,并将图像上人工标注的标签信息同时作为模型的输入,用于判断图像之间的相似性;共迭M次,如所述M为10000。
步骤S203:在每次迭代中,64组图像中每组图像都是包含了原图、相似图片、不相似图片三张图片。通过同时输入的标签信息,计算连续性编码三元组损失函数。
步骤S204:根据每幅图像输入进四元数卷积神经网络再量化后得到的哈希编码,进行量化损失计算和量化后的三元组损失计算。
步骤S205:计算出每次迭代的图像的所有损失,即连续性编码三元组损失、量化损失、量化后的三元组损失的累加;然后,使用随机梯度下降算法和反向传播算法来对四元数卷积神经网络模型的参数进行更新,迭代进行M次后,得到优化好的四元数卷积神经网络模型。
在具体应用实例中,所述步骤S205中,所述连续性编码三元组损失通过如下损失函数计算:
Figure BDA0002840003820000071
其中,K为最后一层输入的维度,设输入的三张图片原图,相似图片,不同图片分别为Io,Is,Id,其对应的连续性哈希编码为ho,hs,hd;定义一个阈值α,当相似图片对的欧式距离大于不同图片对的欧式距离,或者相似图片对的欧式距离加上阈值α大于不同图片对的欧式距离时,才对该损失函数有贡献,否则函数值为零。
在具体应用实例中,本发明的步骤S3中,四元数卷积神经网络所生成的图像哈希集合,分别建立近似图像集的哈希距离分布图和不同图像集的哈希距离分布图,其中哈希距离以汉明距离计算。通过观察分布图得出近似图像对与不同图像对的距离最佳的阈值λ,之后将通过图像对之间的距离与阈值的比较完成图像认证任务.
在具体应用实例中,所述步骤S205中,所述量化损失通过如下损失函数计算:
由于四元数卷积神经网络模型的最终输出为浮点数,因此需要通过量化得到二进制编码,量化过程如下,设输入图片通过模型生成的连续性哈希编码为H,量化函数:
Figure BDA0002840003820000081
其中,Hk与H1比较得出最后一位的二进制编码,为了减小从欧式空间到海明空间映射导致的量化误差,需要量化损失函数:用于计算最后一层输出与量化后的二进制编码的差值。具体的量化损失函数如下:
量化损失函数:
Figure BDA0002840003820000082
在具体应用实例中,所述量化后的三元组损失通过如下损失函数计算:
Figure BDA0002840003820000083
其中,K为最后一层输入的维度,设输入的三张图片原图,相似图片,不同图片分别为Io,Is,Id,其对应的二进制哈希编码为hB o,hB s,hB d;定义一个阈值ε,当相似图片对的欧式距离大于不同图片对的欧式距离,或者相似图片对的欧式距离加上阈值ε大于不同图片对的欧式距离时,才对该损失函数有贡献,否则函数值为零。
三个损失函数同时对最后一层输出及二值化的编码进行计算,每幅图像的损失累加后,进行反向传播,更新四元数卷积神经网络模型的参数。
综上所述,本发明利用一个四元数卷积神经网络作为基本框架来学习二值码,并且学习到的二值码满足一下要求:
(1)鲁棒性:原图和经过噪声污染后的图片应编码成相似的哈希码,从而对抗图像的内容篡改操作。
(2)区分性:不相似的图片对应的哈希码也不相似,从而保证不会发生重复存储。
(3)欧式空间到海明空间的量化误差尽可量最小化。在图像认证过程中,图像输入到已经优化好的四元数卷积神经网络来计算图像对应的哈希码,然后通过计算二值码之间的海明距离来认证图像。
本发明为了保留彩色图像三个通道数据的结构信息和彩色图像的色度信息,将彩色图像从RGB空间转换为四元数矩阵的表示形式,来解决传统手工哈希中割裂图像各个通道的相关性的问题,同时解决手工哈希不能很好地获取图像的语义信息的问题,提供一种基于四元数卷积神经网络的彩色图像鲁棒性哈希认证方法。本发明通过构造四元数神经网络,能够结合三个通道之间的相关性,使得彩色图像内容特征描述更为精确,最终的哈希编码具有鲁棒性和区分性,具有较高的彩色图像认证作用。
本发明以一个具体应用例进行详细说明,以UCID的图像数据集为例,进行进一步的说明。如图像数据集包含1338张图片。首先,随机选取1000张图片,给每张图片都经过不同的噪声数据生成新的数据,总训练集即1000+1000*58=59000张图片,测试集338+338*59=20280张图片。
接下来,建立好四元数卷积神经网络模型后,最后一层输出的单元数量为图像编码的哈希长度。
然后,对上述设置好的四元数卷积神经网络模型进行参数的优化。该过程进行10000次的迭代,每次迭代随机从训练集图像中选取三张图像(原图、加噪图、不相似图像)进入模型中,经过前向传播,在最后一层得到还未二值化的哈希编码。利用上述定义的三个损失函数计算损失,通过随机梯度下降和反向传播算法来更新四元数卷积神经网络的参数。
最后,利用上述优化后的四元数卷积神经网络对训练集中的所有图像进行哈希编码,对测试集中的带编码图像,输入到模型中,得到其哈希编码。
通过四元数卷积神经网络所生成的图像哈希集合,分别建立近似图像集的哈希距离分布图和不同图像集的哈希距离分布图,其中哈希距离以汉明距离计算。通过观察分布图得出近似图像对与不同图像对的距离最佳的阈值λ,之后将通过图像对之间的距离与阈值的比较完成图像认证任务。
以上仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,应视为本发明的保护范围。

Claims (8)

1.一种基于四元数卷积神经网络的图像鲁棒性哈希认证方法,其特征在于,步骤包括:
步骤S1:彩色图像预处理;即将图像的大小进行处理,将图像的RGB数据输入四元数矩阵;对图像添加噪声,并将图像数据和噪声数据总的分为训练数据和测试数据;
步骤S2:建立彩色图像的四元数卷积神经网络;
步骤S3:对彩色图像进行图像认证;
所述步骤S2包括:
步骤S201:采用四元数卷积神经网络作为图像哈希的基本网络结构;
步骤S202:每次训练迭代将从图像数据库D1中选取64组图像,每组图像三张图片,并将图像上人工标注的标签信息同时作为模型的输入,用于判断图像之间的相似性;
步骤S203:在每次迭代中,64组图像中每组图像均包含原图、相似图片、不相似图片三张图片;通过同时输入的标签信息,计算连续性编码三元组损失函数;
步骤S204:根据每幅图像输入进四元数卷积神经网络后、再量化后得到的哈希编码,进行量化损失计算和量化后的三元组损失计算;
步骤S205:计算出每次迭代的图像的所有损失,即连续性编码三元组损失、量化损失、量化后的三元组损失的累加;然后,使用随机梯度下降算法和反向传播算法来对四元数卷积神经网络模型的参数进行更新,迭代进后,得到优化好的四元数卷积神经网络模型。
2.根据权利要求1所述基于四元数卷积神经网络的图像鲁棒性哈希认证方法,其特征在于,所述步骤S1包括:
步骤S101:将彩色图像数据库中的每幅图像都通过双线性插值法将图像的大小统一固定到N×N;
步骤S102:将大小为N×N的彩色图像t的RGB三个通道的数据分别赋值给N×N的四元数矩阵qt的三个虚部,即纯四元数q=0+R(t)i+G(t)j+B(t)k;其中,i,j,k是三个虚数单位,R(t),G(t)和B(t)分别表示彩色图像t的R分量,G分量,B分量;
步骤S103:对图片添加噪声,将图像数据和噪声数据总的分为训练数据D1和测试数据D2。
3.根据权利要求2所述基于四元数卷积神经网络的图像鲁棒性哈希认证方法,其特征在于,所述步骤S103中添加的噪声包括高斯噪声、图片旋转、缩放中的一种或多种。
4.根据权利要求2所述基于四元数卷积神经网络的图像鲁棒性哈希认证方法,其特征在于,所述步骤S103中的训练数据D1和测试数据D2满足0<D2<D1。
5.根据权利要求1所述基于四元数卷积神经网络的图像鲁棒性哈希认证方法,其特征在于,所述步骤S205中,所述连续性编码三元组损失通过如下损失函数计算:
Figure FDA0003638710970000021
其中,K为最后一层输入的维度,设输入的三张图片原图、相似图片、不同图片分别为Io,Is,Id,其对应的连续性哈希编码为ho,hs,hd;定义一个阈值α,当相似图片对的欧式距离大于不同图片对的欧式距离,或者相似图片对的欧式距离加上阈值α大于不同图片对的欧式距离时,才对该损失函数有贡献,否则函数值为零。
6.根据权利要求1所述基于四元数卷积神经网络的图像鲁棒性哈希认证方法,其特征在于,所述步骤S205中,所述量化损失通过如下损失函数计算:通过量化得到二进制编码,量化过程如下,设输入图片通过模型生成的连续性哈希编码为H,量化函数:
Figure FDA0003638710970000031
其中,Hk与H1比较得出最后一位的二进制编码,用于计算最后一层输出与量化后的二进制编码的差值;具体的量化损失函数如下:
Figure FDA0003638710970000032
7.根据权利要求1所述基于四元数卷积神经网络的图像鲁棒性哈希认证方法,其特征在于,所述步骤S205中,量化后的三元组损失通过如下损失函数计算:
Figure FDA0003638710970000033
其中,K为最后一层输入的维度,设输入的三张图片原图、相似图片、不同图片分别为Io,Is,Id,其对应的二进制哈希编码为hB o,hB s,hB d;定义一个阈值ε,当相似图片对的欧式距离大于不同图片对的欧式距离,或者相似图片对的欧式距离加上阈值ε大于不同图片对的欧式距离时,才对该损失函数有贡献,否则函数值为零。
8.根据权利要求1-4中任意一项所述基于四元数卷积神经网络的图像鲁棒性哈希认证方法,其特征在于,所述步骤S3中,四元数卷积神经网络所生成的图像哈希集合,分别建立近似图像集的哈希距离分布图和不同图像集的哈希距离分布图,其中哈希距离以汉明距离计算;通过观察分布图得出近似图像对与不同图像对的距离最佳的阈值λ,之后将通过图像对之间的距离与阈值的比较完成图像认证任务。
CN202011490320.1A 2020-12-16 2020-12-16 基于四元数卷积神经网络的图像鲁棒性哈希认证方法 Active CN112614196B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011490320.1A CN112614196B (zh) 2020-12-16 2020-12-16 基于四元数卷积神经网络的图像鲁棒性哈希认证方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011490320.1A CN112614196B (zh) 2020-12-16 2020-12-16 基于四元数卷积神经网络的图像鲁棒性哈希认证方法

Publications (2)

Publication Number Publication Date
CN112614196A CN112614196A (zh) 2021-04-06
CN112614196B true CN112614196B (zh) 2022-06-28

Family

ID=75239904

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011490320.1A Active CN112614196B (zh) 2020-12-16 2020-12-16 基于四元数卷积神经网络的图像鲁棒性哈希认证方法

Country Status (1)

Country Link
CN (1) CN112614196B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113077381B (zh) * 2021-04-21 2022-06-07 齐鲁工业大学 一种基于三元数连续正交矩的彩色图像描述方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105913368A (zh) * 2016-03-31 2016-08-31 首都师范大学 基于稀疏约束的多图像加密和认证方法及系统
CN107341452A (zh) * 2017-06-20 2017-11-10 东北电力大学 基于四元数时空卷积神经网络的人体行为识别方法
EP3631692A1 (en) * 2017-05-31 2020-04-08 Intel Corporation Computationally-efficient quaternion-based machine-learning system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110135177B (zh) * 2019-04-29 2021-01-22 首都师范大学 非对称图像加密与认证方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105913368A (zh) * 2016-03-31 2016-08-31 首都师范大学 基于稀疏约束的多图像加密和认证方法及系统
EP3631692A1 (en) * 2017-05-31 2020-04-08 Intel Corporation Computationally-efficient quaternion-based machine-learning system
CN107341452A (zh) * 2017-06-20 2017-11-10 东北电力大学 基于四元数时空卷积神经网络的人体行为识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Perceptual image hashing based on a deep convolution neural network for content authentication;Jiang C 等;《Journal of electronic imaging》;20180831;第27卷(第4期);第043055.1-043055.10页 *
Robust Hashing Based on Quaternion Gyrator Transform for Image Authentication;J. Ouyang 等;《IEEE Access》;20201207;第220585-220594页 *

Also Published As

Publication number Publication date
CN112614196A (zh) 2021-04-06

Similar Documents

Publication Publication Date Title
Meng et al. A Fusion Steganographic Algorithm Based on Faster R-CNN.
CN109801230B (zh) 一种基于编码器结构的图像修复方法
Hou et al. Reversible data hiding based on multiple histograms modification and deep neural networks
CN108280797B (zh) 一种基于纹理复杂度和jnd模型的图像数字水印算法系统
Zhang et al. Image robust adaptive steganography adapted to lossy channels in open social networks
Zhu et al. Robust steganography by modifying sign of DCT coefficients
Tian et al. Just noticeable difference level prediction for perceptual image compression
Peng et al. Reversible data hiding based on RSBEMD coding and adaptive multi-segment left and right histogram shifting
Liu et al. Coverless image steganography based on DenseNet feature mapping
CN102156955A (zh) 基于直方图邻域的鲁棒可逆水印嵌入与提取方法
CN115131188A (zh) 一种基于生成对抗网络的鲁棒图像水印方法
CN111161124B (zh) 基于均方误差评估的参考矩阵模型的图像隐写方法
CN112614196B (zh) 基于四元数卷积神经网络的图像鲁棒性哈希认证方法
Bhuiyan et al. An improved image steganography algorithm based on PVD
Bai et al. A data hiding scheme based on the difference of image interpolation algorithms
Berg et al. Searching for Hidden Messages: Automatic Detection of Steganography.
Wang et al. Quaternion Markov Splicing Detection for Color Images Based on Quaternion Discrete Cosine Transform.
Lu et al. Multipurpose image watermarking method based on mean-removed vector quantization
CN114390154B (zh) 基于信道匹配网络选择嵌入通道的鲁棒隐写方法及系统
CN116205776A (zh) 一种基于半脆弱可逆水印的篡改定位方法
CN112070851B (zh) 基于遗传算法和bp神经网络的索引图预测方法
Wang et al. An image steganography algorithm based on PSO and IWT for underwater acoustic communication
Zhang et al. Mathematical modeling for ceramic shape 3D image based on deep learning algorithm
CN114170060A (zh) 基于深度学习的零水印鲁棒算法
CN111915473B (zh) 一种基于ambtc压缩技术和汉明距离的可逆信息隐藏方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant