CN113538202A - 一种基于生成式隐写对抗的图像隐写方法及系统 - Google Patents
一种基于生成式隐写对抗的图像隐写方法及系统 Download PDFInfo
- Publication number
- CN113538202A CN113538202A CN202110896729.1A CN202110896729A CN113538202A CN 113538202 A CN113538202 A CN 113538202A CN 202110896729 A CN202110896729 A CN 202110896729A CN 113538202 A CN113538202 A CN 113538202A
- Authority
- CN
- China
- Prior art keywords
- image
- network
- steganography
- steganalysis
- carrier
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0021—Image watermarking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Abstract
本发明公开一种基于生成式隐写对抗的图像隐写方法及系统,包括构建包括生成网络、隐写器、判别网络和隐写分析网络的生成式隐写对抗模型,生成网络将原始图像转换为载体图像,隐写器将秘密图像嵌入载体图像后得到载秘图像,判别网络判断载体图像的真实性,隐写分析网络判断载秘图像是否含有秘密图像信息;根据判别网络和隐写分析网络的判断结果分别构建生成网络与判别网络、隐写分析网络的损失函数,根据三者的损失函数对生成网络与判别网络和隐写分析网络进行对抗训练,得到训练后的生成式隐写对抗模型;基于训练后的生成式隐写对抗模型得到与原始图像对应的隐写图像。生成高视觉质量的载体图像,提高载体图像信息隐藏的安全性。
Description
技术领域
本发明涉及图像隐写技术领域,特别是涉及一种基于生成式隐写对抗的图像隐写方法及系统。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
信息隐藏是保证信息安全的重要技术之一,可以将秘密信息潜移默化地隐藏到载体中。信息隐藏不仅能够保证数据本身的安全性,还可以保证数据的安全传输。隐写术是信息隐藏领域的重要方法,为了成功传输秘密信息,发送方利用人类视觉系统对数字图像部分区域的不敏感性,以一种不可见的方式将秘密信息隐藏到载体图像中,使之不会引起检测者的怀疑,从而保证秘密信息能够安全地传递;接收方利用密钥从载秘数据中提取秘密信息。
传统的图像隐写算法可以划分为空域隐写、变换域隐写和无载体隐写三种类型。空域图像隐写算法通过直接修改图像像素值嵌入秘密信息,其中有最低有效位(LSB)算法、S-UNIWARD、WOW、HUGO等;变换域隐写算法通过修改载体图像的频域系数实现秘密信息的隐藏,其中包括离散傅里叶变换(DFT)隐藏算法、离散余弦变换(DCT)隐藏算法、离散小波变换(DWT)隐藏算法等;无载体隐写算法不直接改变载体图像数据,而是通过图像的特征属性表示要传输的秘密信息。
隐写分析是一种根据观测到的数据信息,判断其是否含有秘密信息的技术。基于深度学习的隐写分析模型(如GNCNN、Xu’Net、YeNet、SRNet)检测准确率已逐渐超过传统的SRM隐写分析模型。隐写分析技术的快速发展严重威胁隐写算法的安全。生成对抗网络(GAN)对复杂数据强大的建模能力,为隐写与深度学习的结合提供契机,根据不同的秘密信息隐藏方法将基于深度学习的隐写算法分为:生成式隐写、嵌入式隐写、无载体隐写三种隐写策略。
在现有的生成式隐写技术中,生成图像视觉质量不高,达不到实际使用要求;在载体图像上增加对抗样本的方法,需要重新训练每个输入图像,只适用于少量图像的情况;对载体图像划分区域,部分区域嵌入秘密信息,部分区域添加对抗样本的方式,只对部分图像进行增强,增加被隐写分析器识别的风险。
在现有的嵌入式隐写技术中,基于自动学习失真函数的嵌入式隐写模型(ASDL-GAN)虽然可以自动寻找载体中更安全的像素点进行嵌入隐写,但安全性较低。
在现有的无载体图像隐写技术中,基于DCGAN的隐写网络模型生成的载秘图像不需要嵌入和修改,不会被攻击方发现,但存在隐写容量较小,生成的图像不够真实等问题。基于辅助分类生成对抗网络(ACGAN)的无载体图像隐写方法由于类别标签数量有限,隐藏容量仍然低。
发明内容
为了解决上述问题,本发明提出了一种基于生成式隐写对抗的图像隐写方法及系统,通过生成对抗网络的对抗训练思想,使生成网络与判别网络、隐写分析网络对抗训练,构建图像生成式隐写对抗模型,生成高视觉质量、更适合嵌入秘密图像的载体图像,提升载体图像嵌入秘密信息后的抗检测能力,提高载体图像信息隐藏的安全性。
为了实现上述目的,本发明采用如下技术方案:
第一方面,本发明提供一种基于生成式隐写对抗的图像隐写方法,包括:
构建包括生成网络、隐写器、判别网络和隐写分析网络的生成式隐写对抗模型,所述生成网络采用同层跳接方法将原始图像转换为载体图像,所述隐写器将秘密图像嵌入载体图像后得到载秘图像,所述判别网络判断载体图像的真实性,所述隐写分析网络判断载秘图像是否含有秘密图像信息;
根据判别网络和隐写分析网络的判断结果分别构建生成网络与判别网络、隐写分析网络的损失函数,根据三者的损失函数对生成网络与判别网络和隐写分析网络进行对抗训练,得到训练后的生成式隐写对抗模型;
基于训练后的生成式隐写对抗模型得到与原始图像对应的隐写图像。
作为可选择的实施方式,所述生成网络包括16组处理单元,前8组是收缩路径,每组包括步长为2的下采样卷积层、批处理归一化层和Relu激活函数,第9至15组是扩展路径,每组包括步长为2的反卷积层、批处理归一化层和Relu激活函数,第16组包括步长为2的反卷积层、Relu激活函数和sigmoid激活函数;通过同层跳接方法将第i层和第16-i层的特征图拼接后作为到16-i+1层的输入。
作为可选择的实施方式,所述判别网络包含8组处理单元,每组处理单元包括卷积层和批处理归一化层,采用Leaky-Relu激活函数,将处理后得到的特征图输入到全连接层,最终经过sigmoid激活函数得到载体图像为真实图像的概率。
作为可选择的实施方式,所述隐写分析网络采用基于深度学习的隐写分析网络。
其中,x1,x2分别是真实图像与载体图像的概率,x'1,x'2分别是输入的真实图像与生成的载体图像对应的标签。
其中,z1、z2是隐写分析网络的输出,z'1,z'2分别是输入的真实图像与隐写图像对应的标签。
作为可选择的实施方式,生成网络的损失函数为判别网络和隐写分析网络的损失函数的反向加权,并引入像素空间最小均方差损失函数,生成网络的损失函数为:
其中,LD是判别网络的损失函数;LSD是隐写分析网络的损失函数;α、β、λ是权值参数,yi是真实像素点的值,y'i是对应位置的生成图像像素点的值,n是图像像素点数量。
第二方面,本发明提供一种基于生成式隐写对抗的图像隐写系统,包括:
模型构建模块,被配置为构建包括生成网络、隐写器、判别网络和隐写分析网络的生成式隐写对抗模型,所述生成网络采用同层跳接方法将原始图像转换为载体图像,所述隐写器将秘密图像嵌入载体图像后得到载秘图像,所述判别网络判断载体图像的真实性,所述隐写分析网络判断载秘图像是否含有秘密图像信息;
对抗训练模块,被配置为根据判别网络和隐写分析网络的判断结果分别构建生成网络与判别网络、隐写分析网络的损失函数,根据三者的损失函数对生成网络与判别网络和隐写分析网络进行对抗训练,得到训练后的生成式隐写对抗模型;
图像隐写模块,被配置为基于训练后的生成式隐写对抗模型得到与原始图像对应的隐写图像。
第三方面,本发明提供一种电子设备,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成第一方面所述的方法。
第四方面,本发明提供一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成第一方面所述的方法。
与现有技术相比,本发明的有益效果为:
本发明通过生成对抗网络的对抗训练思想,使生成网络与判别网络、隐写分析网络对抗训练,构建基于U-Net的图像生成式隐写对抗模型,其中,生成网络采用同层跳接方法生成高视觉质量、更适合嵌入秘密图像信息的载体图像;并通过判别网络和隐写分析网络分别对生成图像的视觉质量和信息隐藏能力进行评价,生成最适合秘密信息嵌入的载体内容分布。本发明提供的基于生成式隐写对抗的图像隐写方法及系统不但能够生成高视觉质量的载体图像,而且能提升载体图像嵌入信息后的抗检测能力,有效提高载体图像信息隐藏的安全性。
本发明提供的基于生成式隐写对抗的图像隐写方法及系统中,生成式隐写对抗模型中的生成网络使用U-Net网络架构,不会损失图像的特征信息,可以端到端的生成高视觉质量的图像;生成网络通过同层跳接方法减少训练过程中梯度的消失,端到端生成高视觉质量的载体图像;同时使用隐写分析模型与生成网络对抗训练,提高载秘图像抗隐写分析模型检测的能力。
本发明附加方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1为本发明实施例1提供的GAN结构模型图;
图2为本发明实施例1提供的基于U-Net的生成式隐写对抗模型结构图;
图3为本发明实施例1提供的生成器网络结构图;
图4为本发明实施例1提供的判别器D模型结构图;
图5为本发明实施例1提供的Xu’Net模型结构图;
图6为本发明实施例1提供的YeNet模型结构图;
图7(a)-7(b)为本发明实施例1提供的原始图像与生成图像的直方图;
图8(a)-8(b)为本发明实施例1提供的生成图像的PSNR与SSIM。
具体实施方式:
下面结合附图与实施例对本发明做进一步说明。
应该指出,以下详细说明都是示例性的,旨在对本发明提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
实施例1
如图1所示,现有生成对抗网络GAN由1个生成器和1个判别器组成,生成器输入噪声生成图像,判别器用来区分真实图像与生成图像;判别器和生成器同时被训练,二者不断地进行对抗博弈,最终达到纳什均衡,生成器生成与真实图像一致的结果。GAN的训练过程是极小极大(Minimax)问题的优化;包括:
(1)判别器D尽可能地正确判别输入的数据是来自真实数据样本x,还是来自生成器生成的伪数据样本G(z);
(2)生成器G学习真实数据集样本的数据分布,并尽可能使生成器生成的伪数据G(z)在D上的表现和真实数据x在D上的表现一致。
这两个过程相互对抗并迭代优化,使得判别器D和生成器G的性能不断提升,最终使D与G二者之间达到纳什平衡;即D无法正确判别数据来源于真实数据还是生成数据,则可以认为生成模型G已经学到真实数据的分布;因此GAN的训练过程实际是解决了以下优化问题:
其中,D(x)代表x是真实图像的概率,G(z)为从输入噪声z产生的生成图像。
通过交替训练G与D实现式(1)的优化:在每个mini-batch随机梯度优化的迭代过程中,首先对D进行梯度上升,然后对G进行梯度下降;如果用θM表示神经网络M的参数,那么更新规则为:
根据秘密信息隐藏方式的不同,将基于深度学习的隐写模型分为:生成式隐写、嵌入式隐写、无载体隐写三种隐写策略;具体介绍如下所述;
生成式隐写:2016年Volkhonskiy等人首次提出生成式隐写模型—SGAN,其在DCGAN的基础上增添隐写分析网络。生成网络生成载体图像;判别网络评估生成载体图像的视觉质量;隐写分析网络评估其是否适合隐藏信息。利用GAN对抗训练的思想,使生成器与判别器、隐写分析器在训练阶段进行对抗。Shi等人提出SSGAN,使用与SGAN同样的对抗式学习策略生成载体图像,其在SGAN的基础上使用WGAN代替DCGAN,并且使用GNCNN网络重新设计了判别网络与隐写分析网络。SSGAN较SGAN相比模型生成载体图像视觉质量更高,收敛速度和训练速度更快,模型稳定性也得到了提升。上述生成式对抗隐写方案生成的载体图像嵌入秘密信息后,提高了载密图像一定的抗隐写分析能力,但由于都是噪声生成的载体图像,其视觉质量较差、语义上不够真实自然,还需进一步的研究和改进生成器的结构,来提升图像效果。
为了增强对隐写分析模型的抵抗能力,研究者们引入对抗样本来增强载体图像。2018年Zhang等人结合对抗样本,提出一种有效抵抗隐写分析的图像隐写算法,利用快速梯度下降模型(Fast Gradirnt Sign Model)生成“增强型”载体图像抵抗基于深度学习的隐写分析模型,对“增强”载体图像使用传统的自适应隐写算法实现秘密信息的嵌入,载秘图像具有主动欺骗隐写分析器的能力。但是,隐写模型需要重新训练每个输入图像,这导致该模型只适用于少量图像的情况。针对此问题,2019年,Zhou等人提出可以快速生成对抗性载体图像的隐写模型,并设计新的损失函数,进一步提高对抗图像的安全性,其隐写模型可以为大量图像快速构建对抗性载体图像。2020年Li等人同样使用对抗样本增强载体图像的思想,将载体图像划分为两个部分,在图像一部分中隐藏秘密信息,对剩余部分添加对抗样本,使整个图像具有欺骗隐写分析模型的能力。由于,这种方法只对部分图像进行增强,与另一部分图像在视觉上形成差异,增加被隐写分析器识别的风险。
嵌入式隐写:除了基于深度学习得到更适合嵌入的载体图像,研究人员还基于自适应嵌入隐写框架,考虑设计更好的失真函数,使信息嵌入后载密图像的总隐写失真最小,减少由像素修改引发的图像统计异常。因此,一些研究人员试图使用隐写分析模型与生成模型的对抗训练来自动找到最小的嵌入失真代价。2018年Tang等人首次提出一种自动学习失真函数的嵌入式隐写模型(ASDL-GAN),模型在生成器与隐写分析器的对抗训练中提高载密图像的隐密性,但安全性仍然低于S-UNIWARD隐写算法。Yang等人在ASDL-GAN的基础上提出UT-SCA-GAN,使用更紧凑的U-Net生成器,利用Tanh-simulator函数替代TES网络,其模型安全性甚至已经超过S-UNIWARD隐写算法。Meng等人利用目标识别网络Faster RCNN识别图像中的纹理复杂区域,在识别出的不同区域中选择合适的自适应隐写算法,以此提升含密图像的安全性和抗检测性。一些研究人员还引入对抗样本来调整隐写失真代价,2018年Tang等人提出了一种最小交替的对抗嵌入的方法ADV-EMB,通过对攻击隐写术分析器的梯度进行反向传播来调整图像元素修改的成本,达到更好的安全性,但是该隐写模型对载体图像的改动仍会略微高于普通自适应隐写算法。此外,一些研究人员试图通过编码-解码网络嵌入更多的二进制比特流,并成功隐藏了大容量的秘密信息。2017年,Hayes等人提出的隐写模型SteGAN将编码-解码网络运用到隐写领域,但是该隐写方法并未充分考虑到载秘图像的图像质量以及与载体图像之间存在的差距。于是,Wang等人在SteGAN的基础上提出了SsteGAN模型,增加了判别器,隐写器通过与判别器的对抗训练减少了载秘图像与载体图像之间的差异,生成更加真实的载秘图像。2019年,Zhang等人年提出了SteganoGAN隐写模型,其可以在载体图像中隐藏最高可达到4.4bpp的二进制比特数据。
在基于深度学习的隐写算法中,编码-解码网络不仅可以将二进制比特数据或者文字信息隐藏到载体图像中,还可以将彩色或灰度图像隐藏到相同尺寸的载体图像中。2017年,Baluja等人首次提出以图藏图的深度学习隐藏网络,实现在彩色图像中隐藏尺寸相同大小的彩色图像,但是载秘图像会出现明显的颜色失真,而且其与载体图像构建出的残差图像可以明显看到秘密图像的残影。Wu等人提出了一个端对端的隐写网络模型Stegnet,在编码网络中加入残差网络连接,并在损失函数中增加了均方差损失,遗憾的是该模型对于载秘图像的颜色失真问题并没有提出有效解决方法。2019年,Duan等人利用全卷积网络构建了一个类似U-Net结构的编码网络,将两幅同尺寸大小的彩色图像拼接后输入编码网络生成载秘图像,由解码网路提取出秘密图像,生成与原载体图像更加相似、视觉质量更好并且不存在颜色失真问题的载秘图像。而Baluja等人则以增加隐写容量为目标,在2019年提出了“一图藏多图”的改进模型,该模型不仅能够隐藏、提取出两幅秘密图像,而且从载秘图像与载体图像的残差来看,能够混淆两幅秘密图像的具体信息,模型在一定程度上保护了隐写的安全性,但仍然无法抵抗隐写分析模型的检测。Atique等人从另一角度出发,将秘密图像由3通道的彩色图像更换为单通道的灰度图像,然后利用编码-解码网络将秘密图像嵌入到载体图像中,但该模型生成的载秘图像质量较差并且仍然存在颜色失真问题。之后,Zhang等人提出的ISGAN模型同样将灰度图像作为秘密信息,隐写模型仅在彩色载体图像的Y通道进行嵌入,与Atique等人相比,ISGAN载秘图像没有明显的颜色失真且PSNR值提升了2db左右,但提取出的秘密图像PSNR值却下降了大约3db。2020年,Fu等人提出一种称为HIGAN的隐写模型,编码器由类似于Resnet的网络构建,并在模型架构中加入隐写分析模型,提高抗隐写分析模型检测的能力,但其隐写图像与提取的秘密图像的PSNR、SSIM都没有超过Duan等人提出的方案。以图藏图的隐写模型牺牲了隐写的部分安全性以达到隐写容量的大范围提升,存在载秘图像失真较大,解码网络无法百分百的实现秘密消息的提取等问题。
无论是基于深度学习的载体图像生成、对抗样本“增强”载体、隐写失真设计、编码-解码隐写都借助神经网络强大的学习能力实现图像隐写,在信息嵌入的过程中都修改了载体图像,图像的视觉质量或统计特性不可避免地受到影响,使隐写分析模型有迹可循。
无载体合成式隐写:无载体图像隐写不存在对图像修改的过程,具有天然的抗隐写分析能力。2018年,Hu等人依据SWE无载体隐写思想提出基于DCGAN的隐写网络模型,首先将随机噪声与二进制秘密信息构建出映射关系,再通过DCGAN将噪声作为输入生成载秘图像,并通过提取网络恢复噪声序列,最后通过映射关系恢复出秘密信息;该模型生成的载秘图像没有嵌入和修改的痕迹,不会被攻击方发现,但其存在隐写容量较小,生成的图像不够真实以及秘密消息不能完全正确提取等问题。受Hu等人方法的启发,Li等人提出一种同时训练秘密信息提取器和隐写图像生成器的隐写模型,并使用WGAN-GP代替DCGAN生成具有更高视觉质量的隐写图像。2019年,Zhu等人在Hu的基础上提出基于正交生成对抗网络(O-GAN)的无载体图像隐写方法,对含密图像的特征添加约束,建立噪声向量与特征之间的内在联系,使得模型训练更加稳定,提高秘密信息提取的稳定性。Zhang等人在Hu的基础上,利用预训练好的CycleGAN对噪声生成的图像进行风格迁移,并对风格迁移后的图像进行恢复,并将噪声向量作为输出,最后接收方通过相同的映射关系完成噪声向量到秘密信息的转换,风格迁移后的图像具有更高的安全性,但其对秘密信息的提取准确度较低。Meng等人利用VGG-19目标检测网络以及映射关系,将秘密信息与图像中多个目标的类别、颜色等特征形成映射关系;首先选择符合秘密消息对应映射关系的自然载体图像,再使用VGG-19检测出目标所在位置以及适合隐写的安全区域,最后使用隐写算法完成对秘密消息的隐藏和提取。受辅助分类生成对抗网络的启发,Liu等人首次提出一种基于辅助分类生成对抗网络(ACGAN)的无载体图像隐写方法,该方法在生成图像的类别标签和秘密信息之间建立映射关系,将类别标签和噪声作为ACGAN网络的输入部分放入生成器中生成隐写图像,提取秘密信息时,通过ACGAN的判别器提取图像的类别标签,根据映射关系实现秘密信息的恢复,但是由于类别标签数量有限,该方法的隐藏容量仍然较低。
基于深度学习的隐写分析模型:2015年,钱等人首次将深度学习与隐写分析结合,提出了一种隐写分析网络GNCNN,其利用卷积神经网络提取高维特征,并使用高斯函数作为激活函数构建隐写分析模型。2016年,徐等人提出了Xu’Net隐写分析模型,该模型可应用于空间和JPEG领域,与GNCNN相比,模型架构中增加了ReLU激活函数、ABS函数和批量归一化层(BN),提高了检测精度。2017年,叶等人提出YeNet隐写分析模型,其利用SRM中的30个高通滤波器初始化数输入信息,并引入选择信道感知(SCA)来优化模型,该模型性能优于SRM。在2019年,Boroumand等人提出SRNet的隐写分析模型,该模型由具有快捷连接的残差层构建,可以在训练过程中重新使用特征向量,而SRNet由于梯度消失现象,是最难训练的。
如图2所示为本实施例提出的基于U-Net的生成式隐写对抗模型结构,包含生成网络、隐写器、判别网络和隐写分析网络;所述生成网络采用同层跳接方法将原始图像转换为载体图像,所述隐写器将秘密图像嵌入载体图像后得到载秘图像,所述判别网络判断载体图像的真实性,所述隐写分析网络判断载秘图像是否含有秘密图像信息;根据判别网络和隐写分析网络的判断结果分别构建生成网络与判别网络、隐写分析网络的损失函数,根据三者的损失函数对生成网络与判别网络和隐写分析网络进行对抗训练,得到训练后的生成式隐写对抗模型;基于训练后的生成式隐写对抗模型得到与原始图像对应的隐写图像。
在本实施例中,U-Net网络框架通过降维层与升维层之间的连接,充分利用图像各个维层的特征信息,生成视觉质量更好的图像,所以本实施例采用U-Net框架构建生成网络,通过前向传播将输入的原始图像转换为更适合嵌入秘密信息的载体图像,输出更近似于真实图像的载体图像;隐写器分别使用S-UNIWARD、ASDL-GAN、UT-SCA-GAN隐写嵌入算法,生成器生成的载体图像通过隐写器嵌入秘密信息后输出载秘图像;判别网络用来评估生成图像的视觉质量,将生成的载体图像与真实图像输入到判别网络中,区分真实图像与生成图像,判别网络可以促进生成网络生成拥有更多语义信息的、高视觉质量的载体图像;隐写分析模型用来评估生成载体图像隐藏秘密信息的安全性,输入生成的载体图像与其对应的载秘图像,对生成载体图像信息隐藏的能力进行评估,并为生成网络提供梯度,优化生成图像抵抗隐写分析的能力。
下述算法1为基于U-Net的生成式隐写对抗算法训练的具体步骤,生成网络G与判别网络D、隐写分析网络SD对抗,生成视觉质量更高、更适合嵌入秘密信息的载体图像,具体为:
模型优化的目标函数为:
下述对本实施例提出的生成式隐写对抗模型的具体结构进行介绍:
生成器模型:U-Net是一个包含下采样和上采样的网络结构,采用U-Net框架可以将编码阶段的细节信息直接传输到解码阶段,协助生成器生成高视觉质量的载体图像。在U-Net深度学习网络框架中,下采样用来逐渐展现环境信息,而上采样的过程是结合下采样各层信息和上采样的输入信息来还原细节信息,逐步构建高精度原始图像。U-Net架构通过对深层信息和浅层信息的拼接,充分利用原始图像的所有特征信息,在图像生成图像过程中形成优秀的视觉表现;与SGAN、SSGAN相比,基于U-Net的生成器可以端到端的生成图像,因而可以更深入的分析原始图像的结构与纹理特征,生成更适合秘密信息嵌入的载体图像。
基于U-Net的生成器分为16个处理单元,前8组是收缩路径,每组做包括步长为2的用于下采样的卷积层(卷积核为3)、批处理归一化层(BN)和Relu激活函数,9到15组是扩展路径,每组包括步长为2的反卷积层(卷积核为5)、批处理归一化层(BN)和Relu激活函数,第16组包括步长为2的反卷积层(卷积核为5)和Relu激活函数、sigmoid激活函数;
为了实现像素级学习并促进反向传播,在图像的解码阶段加入拼接层,通过快捷连接方式将第i层和第16-i层的特征图拼接起来作为到16-i+1层的输入。生成器的网络结构如图3所示,网络模型具体参数如表1所示:
表1生成器网络结构详情
判别器D用来区分生成图像与真实图像,促进生成器生成的载体图像富含更多的语义信息。如图4所示,判别器模型包含8个处理单元,每个处理单元包括卷积层、批处理归一化层(BN),选用Leaky-Relu(α=0.2)激活函数,加强网络负面信息的响应,避免整个网络中的最大池化。随着网络层数加深,特征图个数不断增加,尺寸不断减小,最终得到的特征图,打平输入到全连接层,再经过最终的sigmoid激活函数,输出检测为真实图像的概率。网络模型具体参数如表2所示:
表2判别器网络结构详情
隐写分析网络:随着深度学习的发展,隐写分析与深度学习结合对隐写算法造成了极大的威胁,隐写分析网络用来辨别输入图像是否含有秘密信息。因此,本实施例选择Xu’Net与YeNet两种基于深度学习的隐写分析网络,与生成网络进行对抗,提高模型抗隐写分析检测的能力。
(1)Xu’Net;将Xu’Net的预处理层替换为六个SRM的高通滤波器,而不是原本的一个高通滤波器,从而更好的提升Xu’Net的隐写分析性能。图5为Xu’Net模型架构图,其包含6个步长为1的卷积层、批处理归一化层(BN)、池化层的步长为2、第二、三层选用tanh激活函数、四五六层选用Relu激活函数,最后采用带有二分类性能的softmax的全连接层输出判定结果为真实图像或隐写图像的概率。
(2)YeNet;YeNet是10层的卷积神经网络,网络以带有2分类的softmax全连接层结束,输出为2个类标签上产生的分布。网络第一层采用30个SRM卷积核初始化参数;提出新的激活函数TLU,能够更好的适应隐写噪声的分布,收敛速度更快;模型末端使用一个全连接层,这是因为全连接层需要训练的参数太多,当训练集不够大时,容易导致过拟合;此外,除了图6所示的层外,网络中没有使用其他层,如局部响应归一化(LRN)、dropout、批处理归一化(BN)或局部对比归一化(LCN),虚线框内的组件表示为选择通道感知的两个操作。
损失函数:在本实施例中,基于U-Net的生成式隐写对抗模型采用三个不同的损失函数分别训练生成器G、判别器D、隐写分析器SD。
判别器D判别输入图像为真实图像的概率,输出概率越大,输入图像为真实图像概率就越大;判别器D的训练目标是:输入生成图像时,输出概率为0,输入真实图像时,输出概率为1,因此训练判别器D的损失函数为:
其中,x1,x2分别是真实图像与生成载体图像的概率,x'1,x'2分别是输入的真实图像与生成的载体图像对应的标签。
隐写分析器SD检测输入图像是否含有秘密信息,输出2个类标签上产生的分布;隐写分析器SD的训练目标是:输入图像为未载秘图像时,输出为[0,1]分布,输入图像为载秘图像时,输出为[1,0]分布;因此隐写分析器SD的损失函数为:
其中,z1、z2是隐写分析器SD中softmax分类器的输出,z'1,z'2分别是输入的真实图像与隐写图像对应的标签。
生成器G与判别器、隐写分析器对抗,使其输出错误的判断;生成器损失设计为式(5-6)两个损失的反向加权;同时为了保证生成图像的视觉质量,在总损失中引入MESloss像素空间最小均方差损失,促进生成图像获得更高的PSNR数值;因此生成器G的损失函数设计为:
其中,实验设置α=0.4,β=0.6,λ=5×10-3,yi是真实的像素点的值,y'i是对应位置的生成图像像素点的值,n是图像像素点数量。
为验证基于U-net的生成式隐写网络的信息隐藏性能,本实施例采用BOSSBase经典数据集用于隐写和隐写分析实验研究。实验前将512×512的BOSSBase图像用matlab默认参数Resize为256×256的图像,将10000张BOSSBase图像随机取出8000张作为训练集参与训练,剩余2000张用于实验结果测试与性能验证。
实验采用学习率为0.0001的Adam优化器来训练模型(α=0.5,β=0.99),在训练阶段,每次迭代使用32张真实图像作为输入,生成相应的载体图像;将生成的载体图像与原始图像输入到判别器中;将真实图像与真实图像经过隐写算法嵌入0.4bpp秘密信息后的载秘图像输入隐写分析模型中,训练隐写分析模型;再将生成的载体图像与其经过隐写算法嵌入秘密信息0.4bpp后的隐写图像输入到隐写分析模型中进行对抗。训练结束后,使用BOSSBase数据集中2000张真实图像,通过训练好的生成模型生成相应的生成图像,分别采用0.4bpp的S-UNIWARD、ASDL-GAN、UT-SCA-GAN嵌入算法将随机信息嵌入到生成图像中,作为验证集进行性能评估。
随着模型迭代次数的增加,生成器生成的图像与原始图像越来越相似。从生成图像中随机选择6张图像查看验证,并进行直方图分析比较其直方图分布的相似性。如图7(a)-7(b)所示,图7(a)为真实图像和真实图像直方图,图7(b)为生成图像和生成图像直方图,可以看出生成图像与真实图像具有极高的相似度,人眼无法分别,且直方图分布一致,实验选用图像尺寸为256×256,模型生成图像视觉质量优秀,并远远超过了往生成器输入噪声生成载体图像的SGAN、SSGAN。
为进一步验证生成图像的视觉质量,获取更详细的标准数值,评价生成网络的性能。在实验阶段,采用PSNR与SSIM两个最常见的图像质量评价指标对生成图像质量进行评价。PSNR是通过计算图像相应像素之间的误差来评估图像的视觉质量,该指标与人类视觉专家对图像视觉质量的评分呈正相关,PSNR值越大,图像越相似、失真越小。PSNR通过以下公式计算使用:
其中,W、H是图像的宽与高,xi,j、yi,j表示两幅图像相同空间位置的像素点,n是像素点数量。
SSIM结构相似性是一种衡量两幅图像相似度的指标,通过三种方式来衡量图像的质量,分别为:亮度、对比度和结构。SSIM可以通过公式计算使用:
SSIM(X,Y)=l(X,Y)·c(X,Y)·s(X,Y) (10)
其中,l(·),c(·)和s(·)分别代表亮度、对比度和结构;μx和μy是图像X和图像Y的像素平均值;σx和σy表示图像X和图像Y的标准差;σxσy表示图像X和图像Y的协方差。
图8(a)-8(b)显示2000张生成图像的PSNR与SSIM,横坐标为图像的标签,纵坐标为图像的PSNR与SSIM,可以看出2000张生成图像与真实图像的PSNR大部分都超过了34,SSIM绝大部分都超过了0.9,证明模型生成图像视觉质量比SGAN、SSGAN更好,并且高视觉质量的生成图像意味模型有实际应用价值。
表3不同参数下的的PSNR与SSIM
上述表3显示在公式(7)中不同α,β设置下,运行150个epoch后达到的最优PSNR与SSIM,在Proposed列,其参数是实验将前初始α设置为0.4,β设置为0.6,在100个epoch内α每个epoch降低0.004,β升高0.004,100个epoch后将α设置为0,β设置为1。
当实验运行100个epoch后判别器拟合达到最优,对生成器提供的梯度基本固定,判别器对生成器优化的作用减弱。为了促进生成图像更高的PSNR、SSIM数值与更好的抗隐写分析检测能力,在100个epoch后,生成器不再与判别器对抗,生成器损失函数中设置α=0,β=1。
表4 MseLoss不同参数下的的PSNR与SSIM
λ=0.0001 | λ=0.005 | λ=0.001 | |
PSNR | 41.6073 | 48.5978 | 42.7324 |
SSIM | 0.9691 | 0.9873 | 0.9704 |
上述表4描述了在公式(7)中不同λ设置下的生成图像最优的PSNR、SSIM数值,该实验中,模型其他参数与表3中Proposed列的参数设置相同。通过实验验证,选择最优的实验结果,将生成器损失函数中MSELoss的权重设置为0.005。
表5生成图像不同epoch的PSNR与SSIM
epoch | 50 | 75 | 100 | 125 | 150 | 175 |
PSNR | 43.228 | 43.2861 | 46.65 | 48.298 | 48.5978 | 48.5125 |
SSIM | 0.9605 | 0.9687 | 0.9848 | 0.9893 | 0.9894 | 0.9893 |
上述表5展示了在不同epoch后生成图像PSNR与SSIM的最优值,模型参数与表4中λ=0.005列设置相同。实验表明,模型在训练时期一直处于优化阶段,PSNR与SSIM一直在在升高,训练150个epoch后,模型拟合效果最优,PSNR与SSIM达到最优。因此设定模型训练150个epoch后结束训练。
为了验证所模型抗隐写分析检测的能力,训练过程中使用不同的隐写分析网络为生成网络提供优化梯度;测试过程中,分别测试生成图像在嵌入秘密信息后对相同和不同隐写分析网络的防御性能。实验检测的最好结果为50%,当准确率是50%时,隐写分析器已分辨不出输入的图像为隐写图像还是未隐写图像。如表6所示,原始图像列是原始图像与原始图像嵌入秘密信息后的载密图像共同输入到隐写分析器的检测准确率;Peopose列是本实施例模型生成的载体图像与其嵌入秘密信息后的载密图像共同输入到隐写分析器的检测准确率。
表6YeNet隐写分析器的检测准确率
Steganography | 原始图像 | Proposed |
S-UNIWARD | 88.7% | 50.05% |
ASDL-GAN | 92.25% | 49.975% |
UT-SCA-GAN | 87.075% | 50.05% |
表6描述生成图像与原始图像经过S-UNIWARD、ASDL-GAN、UT-SCA-GAN隐写嵌入随机秘密信息后,YeNet隐写分析器的检测准确率。用于测试的YeNet网络与训练阶段经过100个epoch训练后的YeNet网络模型、参数完全相同,可以看出,与未经过任何修改的原始图像相比较,模型生成的载体图像,可以将隐写分析网络的检测准确率降低到50%左右,这意味着生成图像可以抵抗隐写分析的检测。这是因为模型添加隐写分析网络作为判别器,将隐写分析器输出的损失作为生成器优化的一部分,从而在生成图像视觉质量优化的同时,优化生成图像嵌入秘密信息的安全性。试验结果表明,模型生成的载体图像,在秘密信息嵌入后可以欺骗YeNet隐写分析网络。
表7Xu’Net、YeNet隐写分析器的检测准确率
上述表7展示图像经过UT-SCA-GAN、ASDL-GAN隐写方法嵌入随机秘密信息后,不同隐写分析网络的检测准确率;Xu’Net、YeNet隐写分析网络采用与训练100个epoch后的隐写分析网络参数一致,可以看出,模型不仅仅对单个隐写分析网络有效,其生成的载体图像在嵌入秘密信息后可以抵抗多个不同的隐写分析网络的检测。
表8未对抗训练的隐写分析器的检测准确率
测试模型对抗训练单一隐写分析网络后,是否仍然可以欺骗其他没有在训练阶段被对抗的隐写分析网络,验证模型的鲁棒性。上述表8描述生成图像经过ASDL-GAN、UT-SCA-GAN、S-UNIWARD隐写术嵌入秘密信息后,在不同隐写分析网络的检测准确率。训练时使用Xu’Net隐写分析模型进行对抗,测试时分别使用Xu’Net、YeNet隐写分析模型进行检测,训练时使用YeNet隐写分析模型进行对抗,测试时也分别使用Xu’Net、YeNet隐写分析模型进行检测。在S-UNIWARD隐写算法测试时,实验还使用了SRNet隐写分析模型进行检测。在ASDL-GAN隐写算法中,使用Xu’Net进行对抗训练,测试分别使用Xu’Net与YeNet的检测准确率都在50%左右,可以看出,对于不相关的隐写分析网络,本实施例提出的生成式对抗隐写算法也依旧有效。
本实施例提出基于U-Net的生成式对抗隐写算法,相比采用原始图像作为隐写载体,基于生成的载体图像隐写后可以取得更高的安全性。模型中生成器选用U-Net网络架构,充分利用原始图像内的特征,提高生成载体图像的视觉质量。采用传统的S-UNIWARD隐写算法与基于深度学习的UT-SCA-GAN、ASDL-GAN隐写算法嵌入秘密信息,并对多幅测试图像进行测试以验证模型的有效性。在生成载体图像视觉质量方面,使用直方图、PSNR、SSIM检测载体图像的视觉质量。在抗隐写分析方面,不仅测试同一隐写分析模型下生成载体图像经过不同隐写方案嵌入秘密信息后的安全性,还测试在不同隐写分析模型下图像的的安全性,以及对于训练阶段不相关的隐写分析模型的安全性。试验结果表明,基于U-Net的生成式对抗隐写算法可以生成高视觉质量的载体图像并为其提供更高的数据隐写性能,为隐写术提供更高的安全性。
实施例2
本实施例提供一种基于生成式隐写对抗的图像隐写系统,包括:
模型构建模块,被配置为构建包括生成网络、隐写器、判别网络和隐写分析网络的生成式隐写对抗模型,所述生成网络采用同层跳接方法将原始图像转换为载体图像,所述隐写器将秘密图像嵌入载体图像后得到载秘图像,所述判别网络判断载体图像的真实性,所述隐写分析网络判断载秘图像是否含有秘密图像信息;
对抗训练模块,被配置为根据判别网络和隐写分析网络的判断结果分别构建生成网络与判别网络、隐写分析网络的损失函数,根据三者的损失函数对生成网络与判别网络和隐写分析网络进行对抗训练,得到训练后的生成式隐写对抗模型;
图像隐写模块,被配置为基于训练后的生成式隐写对抗模型得到与原始图像对应的隐写图像。
此处需要说明的是,上述模块对应于实施例1中所述的步骤,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述模块作为系统的一部分可以在诸如一组计算机可执行指令的计算机系统中执行。
在更多实施例中,还提供:
一种电子设备,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成实施例1中所述的方法。为了简洁,在此不再赘述。
应理解,本实施例中,处理器可以是中央处理单元CPU,处理器还可以是其他通用处理器、数字信号处理器DSP、专用集成电路ASIC,现成可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据、存储器的一部分还可以包括非易失性随机存储器。例如,存储器还可以存储设备类型的信息。
一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成实施例1中所述的方法。
实施例1中的方法可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器、闪存、只读存储器、可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。为避免重复,这里不再详细描述。
本领域普通技术人员可以意识到,结合本实施例描述的各示例的单元即算法步骤,能够以电子硬件或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。
Claims (10)
1.一种基于生成式隐写对抗的图像隐写方法,其特征在于,包括:
构建包括生成网络、隐写器、判别网络和隐写分析网络的生成式隐写对抗模型,所述生成网络采用同层跳接方法将原始图像转换为载体图像,所述隐写器将秘密图像嵌入载体图像后得到载秘图像,所述判别网络判断载体图像的真实性,所述隐写分析网络判断载秘图像是否含有秘密图像信息;
根据判别网络和隐写分析网络的判断结果分别构建生成网络与判别网络、隐写分析网络的损失函数,根据三者的损失函数对生成网络与判别网络和隐写分析网络进行对抗训练,得到训练后的生成式隐写对抗模型;
基于训练后的生成式隐写对抗模型得到与原始图像对应的隐写图像。
2.如权利要求1所述的一种基于生成式隐写对抗的图像隐写方法,其特征在于,所述生成网络包括16组处理单元,前8组是收缩路径,每组包括步长为2的下采样卷积层、批处理归一化层和Relu激活函数,第9至15组是扩展路径,每组包括步长为2的反卷积层、批处理归一化层和Relu激活函数,第16组包括步长为2的反卷积层、Relu激活函数和sigmoid激活函数;通过同层跳接方法将第i层和第16-i层的特征图拼接后作为到16-i+1层的输入。
3.如权利要求1所述的一种基于生成式隐写对抗的图像隐写方法,其特征在于,所述判别网络包含8组处理单元,每组处理单元包括卷积层和批处理归一化层,采用Leaky-Relu激活函数,将处理后得到的特征图输入到全连接层,最终经过sigmoid激活函数得到载体图像为真实图像的概率。
4.如权利要求1所述的一种基于生成式隐写对抗的图像隐写方法,其特征在于,所述隐写分析网络采用基于深度学习的隐写分析网络。
8.一种基于生成式隐写对抗的图像隐写系统,其特征在于,包括:
模型构建模块,被配置为构建包括生成网络、隐写器、判别网络和隐写分析网络的生成式隐写对抗模型,所述生成网络采用同层跳接方法将原始图像转换为载体图像,所述隐写器将秘密图像嵌入载体图像后得到载秘图像,所述判别网络判断载体图像的真实性,所述隐写分析网络判断载秘图像是否含有秘密图像信息;
对抗训练模块,被配置为根据判别网络和隐写分析网络的判断结果分别构建生成网络与判别网络、隐写分析网络的损失函数,根据三者的损失函数对生成网络与判别网络和隐写分析网络进行对抗训练,得到训练后的生成式隐写对抗模型;
图像隐写模块,被配置为基于训练后的生成式隐写对抗模型得到与原始图像对应的隐写图像。
9.一种电子设备,其特征在于,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成权利要求1-7任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,用于存储计算机指令,所述计算机指令被处理器执行时,完成权利要求1-7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110896729.1A CN113538202A (zh) | 2021-08-05 | 2021-08-05 | 一种基于生成式隐写对抗的图像隐写方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110896729.1A CN113538202A (zh) | 2021-08-05 | 2021-08-05 | 一种基于生成式隐写对抗的图像隐写方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113538202A true CN113538202A (zh) | 2021-10-22 |
Family
ID=78090608
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110896729.1A Pending CN113538202A (zh) | 2021-08-05 | 2021-08-05 | 一种基于生成式隐写对抗的图像隐写方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113538202A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114782697A (zh) * | 2022-04-29 | 2022-07-22 | 四川大学 | 一种对抗子领域自适应隐写检测方法 |
CN114820380A (zh) * | 2022-05-13 | 2022-07-29 | 四川大学 | 基于内容自适应对抗扰动的空域隐写载体图像增强方法 |
CN114827379A (zh) * | 2022-04-27 | 2022-07-29 | 四川大学 | 一种基于生成式网络的载体图像增强方法 |
CN115086674A (zh) * | 2022-06-16 | 2022-09-20 | 西安电子科技大学 | 基于生成对抗网络的图像隐写方法 |
CN115348360A (zh) * | 2022-08-11 | 2022-11-15 | 国家电网有限公司大数据中心 | 一种基于gan的自适应嵌入数字标签信息隐藏方法 |
CN115695673A (zh) * | 2022-12-30 | 2023-02-03 | 中国科学技术大学 | 基于联合失真的图像对抗隐写方法与装置 |
CN115936961A (zh) * | 2022-11-21 | 2023-04-07 | 南京信息工程大学 | 基于少样本对比学习网络的隐写分析方法、设备及介质 |
CN117579837A (zh) * | 2024-01-15 | 2024-02-20 | 齐鲁工业大学(山东省科学院) | 一种基于对抗压缩图像的jpeg图像隐写方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109587372A (zh) * | 2018-12-11 | 2019-04-05 | 北京邮电大学 | 一种基于生成对抗网络的不可见图像隐写术 |
CN112115490A (zh) * | 2020-08-14 | 2020-12-22 | 宁波大学 | 一种基于gan的载体图像合成隐写方法 |
CN112767226A (zh) * | 2021-01-15 | 2021-05-07 | 南京信息工程大学 | 基于gan网络结构自动学习失真的图像隐写方法和系统 |
CN113076549A (zh) * | 2021-04-08 | 2021-07-06 | 上海电力大学 | 一种基于新型U-Net结构生成器的对抗网络图像隐写方法 |
CN113077377A (zh) * | 2021-05-13 | 2021-07-06 | 海南大学 | 一种基于生成对抗网络的彩色图像隐写方法 |
-
2021
- 2021-08-05 CN CN202110896729.1A patent/CN113538202A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109587372A (zh) * | 2018-12-11 | 2019-04-05 | 北京邮电大学 | 一种基于生成对抗网络的不可见图像隐写术 |
CN112115490A (zh) * | 2020-08-14 | 2020-12-22 | 宁波大学 | 一种基于gan的载体图像合成隐写方法 |
CN112767226A (zh) * | 2021-01-15 | 2021-05-07 | 南京信息工程大学 | 基于gan网络结构自动学习失真的图像隐写方法和系统 |
CN113076549A (zh) * | 2021-04-08 | 2021-07-06 | 上海电力大学 | 一种基于新型U-Net结构生成器的对抗网络图像隐写方法 |
CN113077377A (zh) * | 2021-05-13 | 2021-07-06 | 海南大学 | 一种基于生成对抗网络的彩色图像隐写方法 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114827379A (zh) * | 2022-04-27 | 2022-07-29 | 四川大学 | 一种基于生成式网络的载体图像增强方法 |
CN114782697A (zh) * | 2022-04-29 | 2022-07-22 | 四川大学 | 一种对抗子领域自适应隐写检测方法 |
CN114820380B (zh) * | 2022-05-13 | 2023-04-18 | 四川大学 | 基于内容自适应对抗扰动的空域隐写载体图像增强方法 |
CN114820380A (zh) * | 2022-05-13 | 2022-07-29 | 四川大学 | 基于内容自适应对抗扰动的空域隐写载体图像增强方法 |
CN115086674A (zh) * | 2022-06-16 | 2022-09-20 | 西安电子科技大学 | 基于生成对抗网络的图像隐写方法 |
CN115086674B (zh) * | 2022-06-16 | 2024-04-02 | 西安电子科技大学 | 基于生成对抗网络的图像隐写方法 |
CN115348360B (zh) * | 2022-08-11 | 2023-11-07 | 国家电网有限公司大数据中心 | 一种基于gan的自适应嵌入数字标签信息隐藏方法 |
CN115348360A (zh) * | 2022-08-11 | 2022-11-15 | 国家电网有限公司大数据中心 | 一种基于gan的自适应嵌入数字标签信息隐藏方法 |
CN115936961A (zh) * | 2022-11-21 | 2023-04-07 | 南京信息工程大学 | 基于少样本对比学习网络的隐写分析方法、设备及介质 |
CN115936961B (zh) * | 2022-11-21 | 2024-01-02 | 南京信息工程大学 | 基于少样本对比学习网络的隐写分析方法、设备及介质 |
CN115695673B (zh) * | 2022-12-30 | 2023-04-21 | 中国科学技术大学 | 基于联合失真的图像对抗隐写方法与装置 |
CN115695673A (zh) * | 2022-12-30 | 2023-02-03 | 中国科学技术大学 | 基于联合失真的图像对抗隐写方法与装置 |
CN117579837A (zh) * | 2024-01-15 | 2024-02-20 | 齐鲁工业大学(山东省科学院) | 一种基于对抗压缩图像的jpeg图像隐写方法 |
CN117579837B (zh) * | 2024-01-15 | 2024-04-16 | 齐鲁工业大学(山东省科学院) | 一种基于对抗压缩图像的jpeg图像隐写方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113538202A (zh) | 一种基于生成式隐写对抗的图像隐写方法及系统 | |
CN113554089B (zh) | 一种图像分类对抗样本防御方法、系统及数据处理终端 | |
CN111310802B (zh) | 一种基于生成对抗网络的对抗攻击防御训练方法 | |
CN108717680B (zh) | 基于全稠密连接网络的空域图像隐写分析方法 | |
CN110349136A (zh) | 一种基于深度学习的篡改图像检测方法 | |
CN111753881B (zh) | 一种基于概念敏感性量化识别对抗攻击的防御方法 | |
CN110569916B (zh) | 用于人工智能分类的对抗样本防御系统及方法 | |
CN112446357B (zh) | 一种基于胶囊网络的sar自动目标识别方法 | |
CN115860112B (zh) | 基于模型反演方法的对抗样本防御方法和设备 | |
CN111899251A (zh) | 一种区分伪造来源和目标区域的copy-move型伪造图像检测方法 | |
Wang et al. | HidingGAN: High capacity information hiding with generative adversarial network | |
KR20190098487A (ko) | 워터마킹 공격을 식별하는 인공신경망을 이용한 워터마킹을 처리하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체 | |
CN114143040A (zh) | 一种基于多通道特征重构的对抗信号检测方法 | |
CN111222583B (zh) | 一种基于对抗训练与关键路径提取的图像隐写分析方法 | |
Zhao et al. | A transferable anti-forensic attack on forensic CNNs using a generative adversarial network | |
CN115830369A (zh) | 基于深度神经网络的对抗样本生成方法及系统 | |
CN113343225B (zh) | 一种基于神经通路的深度学习的中毒防御方法及装置 | |
Zhao et al. | Natural backdoor attacks on deep neural networks via raindrops | |
Liu et al. | Defend Against Adversarial Samples by Using Perceptual Hash. | |
CN112907431A (zh) | 一种对对抗隐写鲁棒的隐写分析方法 | |
KR102028824B1 (ko) | 객체를 식별하는 인공신경망을 이용한 워터마킹을 처리하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체 | |
CN116188439A (zh) | 一种基于身份识别概率分布的伪造换脸图像检测方法和装置 | |
Huynh-The et al. | Robust image watermarking framework powered by convolutional encoder-decoder network | |
CN113487506B (zh) | 基于注意力去噪的对抗样本防御方法、装置和系统 | |
CN115936961A (zh) | 基于少样本对比学习网络的隐写分析方法、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |