CN112132738B - 一种有参考生成的图像鲁棒隐写方法 - Google Patents

一种有参考生成的图像鲁棒隐写方法 Download PDF

Info

Publication number
CN112132738B
CN112132738B CN202011085366.5A CN202011085366A CN112132738B CN 112132738 B CN112132738 B CN 112132738B CN 202011085366 A CN202011085366 A CN 202011085366A CN 112132738 B CN112132738 B CN 112132738B
Authority
CN
China
Prior art keywords
image
convolution
steganographic
secret information
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011085366.5A
Other languages
English (en)
Other versions
CN112132738A (zh
Inventor
张敏情
李宗翰
刘佳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Engineering University of Chinese Peoples Armed Police Force
Original Assignee
Engineering University of Chinese Peoples Armed Police Force
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Engineering University of Chinese Peoples Armed Police Force filed Critical Engineering University of Chinese Peoples Armed Police Force
Priority to CN202011085366.5A priority Critical patent/CN112132738B/zh
Publication of CN112132738A publication Critical patent/CN112132738A/zh
Application granted granted Critical
Publication of CN112132738B publication Critical patent/CN112132738B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • G06T1/005Robust watermarking, e.g. average attack or collusion attack resistant
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

本发明公开了一种有参考生成的图像鲁棒隐写方法,涉及深度学习技术领域,所述方法包括:以现有的神经网络模型作为编码器,并且以原始图像和秘密信息作为编码器的输入,隐写图像作为输出;以现有的神经网络模型为判别器,以隐写图像作为判别器的输入,采用原始图像与隐写图像的均值之差作为损失,用来判断隐写图像的真实性;以现有的神经网络模型为解码器,以添加干扰后的隐写图像为输入,对秘密信息进行提取并输出。与其它现有的图像鲁棒隐写方法相比,本发明方法可以使秘密信息提取的准确率提高至98.55%,而且在添加干扰的情况下,秘密信息的提取率也可以达到90%以上。

Description

一种有参考生成的图像鲁棒隐写方法
技术领域
本发明涉及深度学习技术领域,具体涉及一种有参考生成的图像鲁棒隐写方法。
背景技术
传统图像隐写算法可分为两类:空域隐写算法和频域隐写算法。空域隐写算法通过修改图像像素来嵌入秘密信息,如LSB替换和匹配算法;频域隐写算法通过修改主信号中某些指定的频域系数进行秘密信息的嵌入,如离散余弦变换(DCT)算法、离散傅里叶变换(DFT)算法、离散小波变换(DWT)算法等。但这些传统隐写算法缺少鲁棒性,在社交网络、无线通信等有损信道中传输时,轻微的干扰就会导致秘密信息无法正确提取。
基于上述缺陷,有人提出了鲁棒无损信息隐藏算法,利用patchwork理论和模256加运算,通过双映射转换的循环解释实现鲁棒性,但该方法易产生椒盐噪声;还有人提出了一种基于整数小波变换的算法,通过改变HL1和LH1系数的平均值来嵌入信息。但该方法需要嵌入方和提取方共享如阈值等的边信息,且容量较低。
随着深度学习的发展,不少学者利用深度学习来实现鲁棒隐写,有人提出了HiDDeN模型,该模型分为四个部分:编码器E、解码器D、噪声层N和判别器A。编码器E输入为图像和秘密信息,输出为图像;解码器输入为图像,输出为秘密信息;判别器A负责判别编码器生成图像与输入图像的差距。HiDDeN模型在秘密信息嵌入量方面表现良好,且所提出的端到端隐写框架允许在原框架基础上给噪声层添加新的噪声,从而实现对新的噪声的鲁棒性,框架存在一定的可扩展性,但在隐写图像质量上存在不足。还有人在HiDDeN模型的基础上提出StegaStamp模型,在噪声层添加了透视变换、颜色变换、模糊等图像处理操作,模拟隐写图像经过打印、拍照得到新图像过程中存在的变化,解决了HiDDeN在经过物理传输后秘密信息无法解密的问题,是对HiDDeN在应用方面的改进。但StegaStamp模型生成的图像存在明显的灰色斑块,且随着消息嵌入量的增大,灰色斑块越明显。
发明内容
为了解决上述问题,本发明提供一种有参考生成的图像鲁棒隐写方法,该方法通过将秘密信息与原始图像联合编码为隐写图像,然后经过图像处理层传递给解码器,解码器还原秘密信息,判别器用来判别隐写图像和原始图像,其中,通过图像重构损失来约束编码器使隐写图像纹理和分布接近原始图像,通过解码损失来约束还原信息的准确率,而且该方法还可以通过添加新的噪声来获得对此噪声的鲁棒性,还可通过更换编码器、解码器和判别器来改变秘密信息嵌入量和图像质量,该方法具有更高的秘密信息嵌入量和更高的隐写图像质量。
为了实现上述目的,本发明采用的技术方案为:一种有参考生成的图像鲁棒隐写方法,包括:
S1:秘密信息的隐藏
S11:以带有残差结构的Residual-encoder模型为编码器,并且以原始图像和秘密信息作为编码器的输入,隐写图像作为输出;其中,所述编码器采用感知损失约束生成图像内容,感知损失的计算公式见式(1):
(1)
其中,分别代表原始图像和隐写图像,/>代表编码器损失;
S12:以Basic-discriminator模型为判别器,步骤S11中的隐写图像作为判别器的输入,并采用原始图像与隐写图像的均值之差作为损失,用来判断隐写图像的真实性;
(2)
S13:通过编码器损失和判别器损失,共同约束生成的隐写图像的图像质量;
S2:隐写图像的处理:图像处理层接收编码器生成的隐写图像,并添加模拟干扰后进行输出;
S3:秘密信息的提取:以带有简单的卷积神经网络结构的Basic-decoder模型为解码器,以添加干扰后的隐写图像为输入,对秘密信息进行提取并输出;其中解码器的损失通过式(3)进行计算:
(3)
其中,表示解码器损失,采用sigmoid交叉熵损失函数;/>分别表示输入的秘密信息和解码器还原出的信息。
进一步地,所述秘密信息隐藏的具体过程为:首先构造一个1×256×256的信息张量,其中前100位为秘密信息,剩余位用随机的0和1填充;然后将所述张量与由原始图像经过卷积得到的张量进行拼接,再经过三次卷积得到被编码的图像,其中,所述编码器一共采用4次卷积结构,前3次卷积中,卷积核为3×3,步长为1,填充为1,采用LeakyReLU激活函数,最后采用批量归一化;最后一次卷积操作在卷积后,使用双曲正切激活函数并联合输入图像共同得到隐写图像。
更进一步地,所述判别器约束隐写图像的具体过程为:
所述Basic-discriminator模型包含4个卷积层,每个卷积层的卷积核大小均为3×3,步长为1,填充为1,前3层在卷积后使用leakyReLU激活函数和批量归一化,最后一层卷积后输出为256×256×1的均值,所述原始图像和隐写图像分别被输入到判别器网络中,并得到各自的均值,判别器网络使用损失函数对二者的均值差异进行约束,进而约束隐写图像的图像质量。
更进一步地,所述秘密信息的提取过程为:
所述Basic-decoder包含4个卷积层,每个卷积层的卷积核大小均为3×3,步长为1,填充为1,前3层在卷积后使用leakyReLU激活函数和批量归一化,最后一层卷积后输出为256×256×1的张量,并对最后一层卷积得到的张量进行flatten拉直,进行消息损失的计算。
更进一步地,所述步骤S3中的干扰包括高斯噪声、JPEG压缩、颜色变换、模糊和遮挡。
更进一步地,所述方法还包括对解码器进行对抗训练的过程,用于使解码器能够解码不同失真程度的隐写图像,从而具有鲁棒性。
更进一步地,所述方法还包括对总损失的计算过程,计算公式见式(4):
(4)。
本发明的有益效果:
本发明的有参考生成的图像鲁棒隐写方法,该方法通过将秘密信息与原始图像联合编码为隐写图像,然后经过图像处理层传递给解码器,解码器还原秘密信息,判别器用来判别隐写图像和原始图像,其中,通过图像重构损失来约束编码器使隐写图像纹理和分布接近原始图像,通过解码损失来约束还原信息的准确率,而且该方法还可以通过添加新的噪声来获得对此噪声的鲁棒性,还可通过更换编码器、解码器和判别器来改变秘密信息嵌入量和图像质量,该方法具有更高的秘密信息嵌入量和更高的隐写图像质量。
与其它现有的图像鲁棒隐写方法相比,本发明方法可以使秘密信息提取的准确率高达98.55%,而且在添加干扰的情况下,秘密信息的提取率也可以达到90%以上。
除了上面所描述的目的、特征和优点之外,本发明还有其它的目的、特征和优点。下面将参照图,对本发明作进一步详细的说明。
附图说明
构成本申请的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1为本发明实施例的有参考生成的鲁棒隐写方法框架图;
图2为本发明实施例的编码器Residual-encoder模型的结构图;
图3为本发明实施的判别器结构图;
图4为本发明实施例的解码器Basic-decoder模型的结构图;
图5为本发明实施例的不同编码、解码器组合的生成图像;
图6为本发明实施例中加不同干扰后解码准确率;
图7为本发明实施例的各种干扰下的秘密信息提取准确率。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
参考图1,一种有参考生成的图像鲁棒隐写方法,包括:
S1:秘密信息的隐藏
S11:以带有残差结构的Residual-encoder模型为编码器,并且以原始图像和秘密信息作为编码器的输入,隐写图像作为输出;其中,所述编码器采用感知损失约束生成图像内容,感知损失的计算公式见式(1):
(1)
其中,分别代表原始图像和隐写图像,/>代表编码器损失;
参考图2,具体的,所述秘密信息隐藏的具体过程为:首先构造一个1×256×256的信息张量,其中前100位为秘密信息,剩余位用随机的0和1填充;然后将所述张量与由原始图像经过卷积得到的张量进行拼接,再经过三次卷积得到被编码的图像,其中,所述编码器一共采用4次卷积结构,前3次卷积中,卷积核为3×3,步长为1,填充为1,采用LeakyReLU激活函数,最后采用批量归一化;最后一次卷积操作在卷积后,使用双曲正切激活函数并联合输入图像共同得到隐写图像。
S12:以Basic-discriminator模型为判别器,步骤S11中的隐写图像作为判别器的输入,并采用原始图像与隐写图像的均值之差作为损失,用来判断隐写图像的真实性;
(2)
其中,代表判别器损失;
S13:通过编码器损失和判别器损失,共同约束生成的隐写图像的图像质量;
参考图3,具体的,所述判别器约束隐写图像的具体过程为:
所述Basic-discriminator模型包含4个卷积层,每个卷积层的卷积核大小均为3×3,步长为1,填充为1,前3层在卷积后使用leakyReLU激活函数和批量归一化,最后一层卷积后输出为256×256×1的均值,所述原始图像和隐写图像分别被输入到判别器网络中,并得到各自的均值,判别器网络使用损失函数对二者的均值差异进行约束,进而约束隐写图像的图像质量。
S2:隐写图像的处理:图像处理层接收编码器生成的隐写图像,并添加模拟干扰后进行输出;
其中,干扰包括高斯噪声、JPEG压缩、颜色变换、模糊和遮挡等;
S3:秘密信息的提取:以带有简单的卷积神经网络结构的Basic-decoder模型为解码器,以添加干扰后的隐写图像为输入,对秘密信息进行提取并输出;其中解码器的损失通过式(3)进行计算:
(3)
表示解码器损失,采用sigmoid交叉熵损失函数;/>分别表示输入的秘密信息和解码器还原出的信息。
参考图4,具体的,所述秘密信息的提取过程为:
所述Basic-decoder模型包含4个卷积层,每个卷积层的卷积核大小均为3×3,步长为1,填充为1,前3层在卷积后使用leakyReLU激活函数和批量归一化,最后一层卷积后输出为256×256×1的张量,并对最后一层卷积得到的张量进行flatten拉直,进行消息损失的计算。
本发明的图像鲁棒隐写方法(RB-RGRS)方法还包括对解码器进行对抗训练的过程,用于使解码器能够解码不同失真程度的隐写图像,从而具有鲁棒性。
其中,带有残差结构的Residual-encoder模型、带有简单的卷积神经网络结构的Basic-decoder模型和Basic-discriminator模型参考文献“ ZHANG K A, CUESTA-INFANTEA, XU L, et al. SteganoGAN: High Capacity Image Steganography with GANs [J].2019”
本发明的方法还包括对总损失的计算过程,计算公式见式(4):
(4)。
为了验证本发明方法对于秘密信息提取的准确率,本实验将不同的编码器和解码器带入本实验的方法中来验证秘密信息提取的准确率,其中,DenseNet(DenselyConnected Convolutional Networks)模型(来自文献“HUANG G, LIU Z, MAATEN L V D,et al. Densely Connected Convolutional Networks; proceedings of the CVPR, F,2017 [C]”)和UNET模型(来自文献“TANCIK M, MILDENHALL B, NG R. StegaStamp:Invisible Hyperlinks in Physical Photographs [J]. 2019”)。其中,DenseNet在作为编码器时,将其命名为Dense-encoder,其结构在本文方法所使用的编码器Residual-encoder的基础上,每一层在进行卷积前,都与其前面所有层进行拼接,最终输出隐写图像;在作为解码器时,将其命名为Dense-decoder,其结构在本发明方法使用的解码器Basic-decoder的基础上,从第2个卷积得到的张量开始,在卷积操作前,将前面所有由卷积得到的张量拼接在一起再进行卷积、激活等操作。最后,将卷积得到的张量进行flatten拉直,取与秘密信息相同位数与输入的秘密信息计算交叉熵损失。结果见表1:
表1 不同编码器和解码器的秘密信息提取准确率
从表1中可以看出本发明在输入的秘密信息为100位时,秘密信息提取准确率最高,且可达0.985,在输入秘密信息长度相同时,比使用的UNET模型的准确率高,且在增大秘密信息输入长度时,准确率依然高达0.98。此外,当编码器为Residual-encoder和Dense-encoder,解码器为Basic-decoder或Dense-decoder时,得到的秘密信息提取准确率可达到90%以上;而编码器为Basic-encoder时,不管选用什么解码器,秘密信息的提取准确率均不高。
对表1中秘密信息提取准确率大于0.96的组合的图像质量进行测量。图像质量评价指标采用全参考图像质量评价指标PSNR、SSIM和FSIM等三种指标对图像相似度进行测量,采用FID测量编码器生成图像的分布与训练数据集的分布之间的相似度。测量结果如表2所示:
表2 不同编码器和解码器组合的图像质量指标
使用全参考评价指标测量时,文献提出的UNET-CNN组合表现相对较好,但如图5所示,此种组合生成的隐写图像图像会出现明显的灰色斑块,且输入秘密信息位数越长,灰色斑块越明显;而使用无参考评价指标FID测量图像的分布时,本发明提出的RB-RGRS算法在输入的秘密信息位数为200位时相对较好,相对于UNET-CNN组合生成的图像来说,并不存在明显的灰色块。
为检验本发明方法生成图像的鲁棒性,首先用Residual-Basic模型生成100张隐写图像,然后对这100张图像分别进行JPEG压缩、模糊、高斯噪声、颜色变换、遮挡并压缩等操作,使用Residual-Basic模型对上述加干扰的隐写图像进行解码并还原秘密信息,并计算平均解码准确率,结果见图6。
将经过各类干扰后的隐写图像的秘密信息提取准确率绘制成折线图,如图7所示。在不加任何干扰的情况下,隐写图像的秘密信息提取准确率为100%,且此处不需要添加任何纠错码进行纠错,所以此处嵌入信息为200bit,嵌入容量为bpp。此外,可以看出,除模糊干扰和遮挡边缘外,其余干扰下秘密信息提取准确率均在90%以上,可以通过添加纠错码来提高秘密信息提取准确率,鲁棒性较强。由于上述实验已确认图像中出现的彩色条带为秘密信息,而模糊操作和遮挡边缘会使彩色条带模糊或消失,使得秘密信息提取准确率在0.5左右,即无法提取秘密信息。相反地,遮挡除彩色条带外的任意位置,均不会影响秘密信息的提取。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种有参考生成的图像鲁棒隐写方法,其特征在于,包括:
S1:秘密信息的隐藏
S11:以带有残差结构的Residual-encoder模型为编码器,并且以原始图像和秘密信息作为编码器的输入,隐写图像作为输出;其中,所述编码器采用感知损失约束生成图像内容,感知损失的计算公式见式(1):
(1)
其中,分别代表原始图像和隐写图像,/>代表编码器损失;
S12:以Basic-discriminator模型为判别器,步骤S11中的隐写图像作为判别器的输入,并采用原始图像与隐写图像的均值之差作为损失,用来判断隐写图像的真实性;
(2)
S13:通过编码器损失和判别器损失,共同约束生成的隐写图像的图像质量;
S2:隐写图像的处理:图像处理层接收编码器生成的隐写图像,并添加模拟干扰后进行输出;
S3:秘密信息的提取:以带有简单的卷积神经网络结构的Basic-decoder模型为解码器,以添加干扰后的隐写图像为输入,对秘密信息进行提取并输出;其中解码器的损失通过式(3)进行计算:
(3)
其中,表示解码器损失,采用sigmoid交叉熵损失函数;/>分别表示输入的秘密信息和解码器还原出的信息。
2.根据权利要求1所述的有参考生成的图像鲁棒隐写方法,其特征在于,所述秘密信息隐藏的具体过程为:首先构造一个1×256×256的信息张量,其中前100位为秘密信息,剩余位用随机的0和1填充;然后将所述张量与由原始图像经过卷积得到的张量进行拼接,再经过三次卷积得到被编码的图像,其中,所述编码器一共采用4次卷积结构,前3次卷积中,卷积核为3×3,步长为1,填充为1,采用LeakyReLU激活函数,最后采用批量归一化;最后一次卷积操作在卷积后,使用双曲正切激活函数并联合输入图像共同得到隐写图像。
3.根据权利要求1所述的有参考生成的图像鲁棒隐写方法,其特征在于,所述判别器约束隐写图像的具体过程为:
所述判别器Basic-discriminator模型包含4个卷积层,每个卷积层的卷积核大小均为3×3,步长为1,填充为1,前3层在卷积后使用leakyReLU激活函数和批量归一化,最后一层卷积后输出为256×256×1的均值,所述原始图像和隐写图像分别被输入到判别器网络中,并得到各自的均值,判别器网络使用损失函数对二者的均值差异进行约束,进而约束隐写图像的图像质量。
4.根据权利要求1所述的有参考生成的图像鲁棒隐写方法,其特征在于,所述秘密信息的提取过程为:
所述Basic-decoder模型包含4个卷积层,每个卷积层的卷积核大小均为3×3,步长为1,填充为1,前3层在卷积后使用leakyReLU激活函数和批量归一化,最后一层卷积后输出为256×256×1的张量,并对最后一层卷积得到的张量进行flatten拉直,进行消息损失的计算。
5.根据权利要求1所述的有参考生成的图像鲁棒隐写方法,其特征在于,所述步骤S3中的干扰包括高斯噪声、JPEG压缩、颜色变换、模糊和遮挡。
6.根据权利要求1所述的有参考生成的图像鲁棒隐写方法,其特征在于,所述方法还包括对解码器进行对抗训练的过程,用于使解码器能够解码不同失真程度的隐写图像,从而具有鲁棒性。
7.根据权利要求1所述的有参考生成的图像鲁棒隐写方法,其特征在于,所述方法还包括对总损失的计算过程,计算公式见式(4):
(4)。
CN202011085366.5A 2020-10-12 2020-10-12 一种有参考生成的图像鲁棒隐写方法 Active CN112132738B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011085366.5A CN112132738B (zh) 2020-10-12 2020-10-12 一种有参考生成的图像鲁棒隐写方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011085366.5A CN112132738B (zh) 2020-10-12 2020-10-12 一种有参考生成的图像鲁棒隐写方法

Publications (2)

Publication Number Publication Date
CN112132738A CN112132738A (zh) 2020-12-25
CN112132738B true CN112132738B (zh) 2023-11-07

Family

ID=73852573

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011085366.5A Active CN112132738B (zh) 2020-10-12 2020-10-12 一种有参考生成的图像鲁棒隐写方法

Country Status (1)

Country Link
CN (1) CN112132738B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113726976B (zh) * 2021-09-01 2023-07-11 南京信息工程大学 一种基于编码-解码网络的大容量以图藏图方法和系统
CN114157773B (zh) * 2021-12-01 2024-02-09 杭州电子科技大学 基于卷积神经网络和频域注意力的图像隐写方法
CN114782697B (zh) * 2022-04-29 2023-05-23 四川大学 一种对抗子领域自适应隐写检测方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111598762A (zh) * 2020-04-21 2020-08-28 中山大学 一种生成式鲁棒图像隐写方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10489874B2 (en) * 2016-12-03 2019-11-26 Zensar Technologies Ltd. Computer implemented system and method for steganography

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111598762A (zh) * 2020-04-21 2020-08-28 中山大学 一种生成式鲁棒图像隐写方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
曹寅 ; 潘子宇 ; .一种改进的基于生成对抗网络的信息隐藏模型.现代信息科技.2020,(16),全文. *

Also Published As

Publication number Publication date
CN112132738A (zh) 2020-12-25

Similar Documents

Publication Publication Date Title
CN112132738B (zh) 一种有参考生成的图像鲁棒隐写方法
Kalantari et al. A robust image watermarking in the ridgelet domain using universally optimum decoder
Ernawan et al. An improved watermarking technique for copyright protection based on tchebichef moments
Su et al. A novel blind color image watermarking based on Contourlet transform and Hessenberg decomposition
Song et al. Contourlet-based image adaptive watermarking
CN112132737B (zh) 一种无参考生成的图像鲁棒隐写方法
Feng et al. Robust image watermarking based on tucker decomposition and adaptive-lattice quantization index modulation
CN111028850B (zh) 一种音频水印的嵌入方法和提取方法
CN113628090B (zh) 抗干扰消息隐写与提取方法、系统、计算机设备、终端
CN114549273A (zh) 基于深度神经网络的自适应鲁棒水印嵌入方法及系统
CN109636707B (zh) 一种基于图像纹理特征的盲检测信息隐藏及提取方法
EP2154649A1 (en) An adaptive watermarking system and method
Nakhaie et al. No reference medical image quality measurement based on spread spectrum and discrete wavelet transform using ROI processing
Novamizanti et al. Robust Reversible Watermarking using Stationary Wavelet Transform and Multibit Spread Spectrum in Medical Images.
Zhou et al. Reduced reference stereoscopic image quality assessment using digital watermarking
RU2517337C1 (ru) Способ встраивания сообщения в цифровое изображение формата jpeg 2000
Zeng et al. Quality-aware video based on robust embedding of intra-and inter-frame reduced-reference features
Majumder et al. DWT and SVD based image watermarking scheme using noise visibility and contrast sensitivity
CN114529442A (zh) 一种采用两阶段预编码和小波网络的鲁棒图像水印方法
Hiremath et al. Quality-aware video
KR101321896B1 (ko) 스테레오 영상의 소유권 보호를 위한 폐색 영역 기반 스테레오 영상의 워터마킹 방법
Zhang et al. Robust blind video watermarking by constructing spread-spectrum matrix
CN111787422B (zh) 一种基于时间因子矩阵的视频水印方法
CN115116453B (zh) 音频水印的嵌入方法、装置、电子设备及存储介质
Kong et al. Digital image watermarking with blind detection for copyright verification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant