CN115086674B - 基于生成对抗网络的图像隐写方法 - Google Patents

基于生成对抗网络的图像隐写方法 Download PDF

Info

Publication number
CN115086674B
CN115086674B CN202210687059.7A CN202210687059A CN115086674B CN 115086674 B CN115086674 B CN 115086674B CN 202210687059 A CN202210687059 A CN 202210687059A CN 115086674 B CN115086674 B CN 115086674B
Authority
CN
China
Prior art keywords
network
image
loss
convolution
steganography
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210687059.7A
Other languages
English (en)
Other versions
CN115086674A (zh
Inventor
董庆宽
杨福兴
陈原
穆涛
马飞龙
潘文俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202210687059.7A priority Critical patent/CN115086674B/zh
Publication of CN115086674A publication Critical patent/CN115086674A/zh
Application granted granted Critical
Publication of CN115086674B publication Critical patent/CN115086674B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/467Embedding additional information in the video signal during the compression process characterised by the embedded information being invisible, e.g. watermarking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32267Methods relating to embedding, encoding, decoding, detection or retrieval operations combined with processing of the image
    • H04N1/32272Encryption or ciphering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种基于生成对抗网络的图像隐写方法,实现步骤为:1)获取训练样本集;2)构建生成对抗网络模型;3)对生成对抗网络模型进行迭代训练;4)获取图像隐写结果。本发明通过包含图像样本和随机数据的训练样本集,对结合Inception‑Res网络模块的生成对抗网络模型进行迭代训练,通过对图像多种尺度的特征进行聚合处理,扩大了感受野的范围,增强了特征的表达能力,并且由于引入残差连接,可以减少模型复杂度并避免网络退化,在保证解码准确率的情况下,有效提升了图像隐写的隐写容量,对判别器网络进行改进,使得判别器网络可以更好的判别隐写图像与载体图像的真伪,使得生成器网络生成的隐写图像更接近载体图像。

Description

基于生成对抗网络的图像隐写方法
技术领域
本发明属于信息安全技术领域,涉及一种图像隐写方法,具体涉及一种基于生成对抗网络的图像隐写方法,可用于重要信息的隐蔽通信。
背景技术
隐写术用于将秘密信息嵌入到正常载体中而不改变载体的感知特性,通过载密载体在信道中的传输来实现秘密信息的传输。隐写术不但隐藏了通信的内容,还隐藏了通信的行为,因此可以很好地应用在敏感场景中。由于图像本身冗余大、可嵌入秘密信息的容量大的特点,通常选择图像作为信息隐藏的载体。
图像隐写是隐写术的主要内容。发送方将秘密信息隐藏在载体图像中,生成携带秘密信息的隐写图像,并通过隐写图像完成秘密信息在公共信道上的传输,传输的接收方可以解码出隐写图像中携带的秘密信息。而公共信道上的其他侦听器无法监测出隐写图像中的秘密信息。
传统的图像隐写方法通常依赖于精心设计的算法,在图像的空域或变换域进行秘密信息的嵌入。这一类隐写术需要大量的先验知识,且算法在安全性与容量方面存在瓶颈。目前,有工作者将深度学习引入到图像隐写方法中,并超越了传统的图像隐写算法。生成对抗网络利用博弈理论让生成器与判别器进行对抗,最终得到一个强大的生成器。理想情况下,训练得到的生成器可以使生成样本的分布与真实数据相同。结合生成对抗网络的图像隐写方法有着很大的发展潜力,如何让隐写图像更自然,携带更多的秘密信息成为了需要解决的问题。
生成对抗网络能够让生成器网络得到的隐写图像与载体图像在统计上趋于一致,如申请公布号为CN114157773A,名称为“基于卷积神经网络和频域注意力的图像隐写方法”的专利申请,公开了一种基于生成对抗网络和频域注意力的图像隐写方法,该方法在生成对抗网络的基础上,增加频域注意力机制,更关注与频域空间中低频部分,使得模型可以提取频域上特征,使得隐写图像与载体图像的相似度更高。该模型有效提升了隐写图像的透明性与秘密信息提取的成功率。但其存在的不足之处在于,频域注意力网络由于注意力机制更关注于对于原图像显著特征的获取,忽略了其他特征,反而对图像的隐写容量存在一定的制约,在隐写图像能够携带的秘密信息容量上,生成对抗网络模型还存在着很大的提升空间。
发明内容
本发明的目的在于克服上述现有技术存在的缺陷,提出了一种基于生成对抗网络的图像隐写方法,旨在保证解码准确率的前提下,提高图像隐写的容量。
为实现上述目的,本发明采取的技术方案包括如下步骤:
(1)获取训练样本集:
获取格式相同的M幅图像以及与图像尺寸相同的M个随机数据,并对每幅图像进行预处理,然后将每幅预处理后的图像以及对应的随机数据组成训练样本集X={X1,X2,...,Xm,...,XM},M≥1000;
(2)构建生成对抗网络模型H:
(2a)构建生成对抗网络模型H的结构:
构建包括由顺次连接的编码器网络E和解码器网络D组成的生成器网络G,以及与编码器网络E输出端连接的判别器网络C的生成对抗网络模型H;其中,E采用包括顺次连接的第一卷积层、由多个密集连接的第二卷积层组成的卷积网络、多个Inception-Res网络模块、Tanh()激活函数输出层的残差网络;D采用包括顺次连接的由多个密集连接的第二卷积层组成的卷积网络、多个Inception-Res网络模块的卷积神经网络;C采用包括顺次连接的多个第三卷积层、最大池化层、全连接层、Sigmod()激活函数输出层的卷积神经网络;Inception-Res网络模块采用改进的Inception-V1,即对Inception-V1的输入端与输出端进行残差连接;
(2b)定义生成器网络G的损失函数lossG和判别器网络C的损失函数lossC
lossG=lossd+lossl+lossr+lossvgg19
lossr=C(Ys)
其中,lossd、lossl、lossr、lossVGG19分别表示输入样本Xs中随机数据与恢复得到的随机数据/>之间的交叉熵损失、输入样本Xs中图像数据/>与隐写样本Ys之间的均方误差损失、判别器网络C对隐写样本Ys的判别结果、通过VGG19网络对/>与Ys进行处理后的结果之间的均方误差损失,Ys表示编码器网络E得到的结果,VGG19(·)表示使用预训练的VGG19网络处理样本,||·||2表示均方误差损失函数,C(·)表示判别器网络对样本的判别结果,mi,j、m'i,j分别表示随机数据/>解码后的随机数据/>的第i行第j列的数值,H、W分别表示/>的高度、宽度;
(3)对生成对抗网络模型H进行迭代训练:
(3a)初始化迭代次数为q,最大迭代次数为Q,Q≥32,生成器网络G、判别器网络C的网络参数分别为θG、θC,并令q=0;
(3b)将训练样本集作为生成对抗网络模型H的输入,编码器网络E对每个训练样本Xs中的图像样本进行特征提取,并将/>对应的随机数据/>隐写在所提取的特征中,得到Xs的隐写样本Ys;解码器网络D对隐写样本Ys进行解码,得到解码后的随机数据判别器网络C对图像样本/>和隐写样本Ys分别进行真伪判别,得到判别结果C(Ys);
(3c)采用损失函数lossC,并通过C(Ys)计算判别器网络C的损失值/>采用损失函数lossG,并通过lossd、lossl、lossr、lossVGG19、/>Xs与Ys计算生成器网络G的损失值/>再采用反向传播方法,通过/>与/>分别计算判别器网络C的和生成器网络G的网络参数梯度,然后采用梯度下降算法通过C和G的网络参数梯度对C和G的网络参数θC和θG进行更新,得到本次迭代的生成对抗网络模型Hq
(3d)判断q≥Q是否成立,若是,得到训练好的生成对抗网络模型H*,否则,令q=q+1,并执行步骤(3b);
(4)获取图像隐写结果:
将随机载体图像与秘密信息作为训练好的生成对抗网络模型H*的输入,编码器网络E对输入进行图像隐写,得到隐写图像;解码器网络D对编码器网络E生成的隐写图像进行解码,得到解码后的秘密信息。
本发明与现有技术相比,具有如下优点:
1.本发明在生成对抗网络模型所包含的编码器网络与解码器网络中加入了Inception-Res网络模块,在对该模型进行训练以及获取图像隐写结果的过程中,Inception-Res网络模块能够对不同尺度上的特征进行融合,增加了感受野的范围,使得网络能够处理更为全局、语义层次更高的特征信息,有效提升了隐写图像的隐写容量,由于引入残差连接,减少模型复杂度并避免网络退化,而且Inception-Res网络模块使用了卷积核大小为1*1的卷积层,可以通过降维操作,在不影响网络性能的情况下节省计算量,进而提升了图像隐写的效率。
2.本发明在对生成对抗网络模型进行训练的过程中,判别器网络中的最大池化层能够扩大感受野并有效防止过拟合,全连接层能够将输入的特征进行综合,Sigmod()激活函数可以引入非线性,使得判别器网络可以更好的判别载体图像与隐写图像的真伪,从而使得生成器网络生成的隐写图像更接近载体图像。
附图说明
图1是本发明的实现流程图。
图2是本发明生成对抗网络的结构示意图。
图3是本发明Inception-Res网络模块的结构示意图。
具体实施方式
以下结合附图和具体实施例,对本发明作进一步详细描述。
参照图1,本发明包括如下步骤:
(1)获取训练样本集:
获取格式相同的M幅图像以及与图像尺寸相同的M个随机数据,并对每幅图像以默认概率p=0.5对每幅图像进行水平翻转,并对水平翻转的每幅图像进行随机裁剪,对图像的翻转与裁剪是常见的数据增强方法,可以有效增强模型的鲁棒性,裁剪尺寸为224*224,符合预训练的VGG19网络的输入要求,然后将裁剪后的每幅图像转换为张量类型,再对每幅图像对应的张量进行归一化处理,将数据映射到0和1的范围之内,并且符合均值为0,方差为1的正态分布,这样做可以加快网络的训练速度,防止过拟合的发生,最终得到M幅预处理后的图像;然后将每幅预处理后的图像以及对应的随机数据组成训练样本集X={X1,X2,...,Xm,...,XM},M=1000;
(2)构建生成对抗网络模型H:
(2a)构建生成对抗网络模型H,其结构如图2所示:
构建包括由顺次连接的编码器网络E和解码器网络D组成的生成器网络G,以及与编码器网络E输出端连接的判别器网络C的生成对抗网络模型H;
其中,E采用包括顺次连接的第一卷积层、由多个密集连接的第二卷积层组成的卷积网络、多个Inception-Res网络模块、Tanh()激活函数输出层的残差网络;D采用包括顺次连接的由多个密集连接的第二卷积层组成的卷积网络、多个Inception-Res网络模块的卷积神经网络;C采用包括顺次连接的多个第三卷积层、最大池化层、全连接层、Sigmod()激活函数输出层的卷积神经网络;Inception-Res网络模块采用改进的Inception-V1,即对Inception-V1的输入端与输出端进行残差连接;
编码器网络E,其中卷积网络所包含的密集连接的第二卷积层的个数为3,Inception-Res网络模块的个数为3,每个Inception-Res网络模块的结构如图3所示,包括并行排布的四种不同的卷积神经网络模块、与四种卷积神经网络模块输出端连接的第四卷积层,以及与Inception-Res网络模块输入端残差连接的输出端,该编码器网络E的具体参数为:
第一卷积层的输出通道数为32,卷积核大小为3*3,步长为1,填充为0;密集连接的第二卷积层的输出通道数均为32,卷积核大小均为3*3,步长均为1,填充均为1;第一种卷积神经网络模块采用第四卷积层;第二种卷积神经网络模块采用顺次连接的第四卷积层与第五卷积层;第三种卷积神经网络模块采用顺次连接的第三卷积层与第六卷积层;第四种卷积神经网络模块采用顺次连接的最大池化层与第四卷积层;第四卷积层的卷积核大小为1*1,步长为1,填充为0;第五卷积层的卷积核大小为3*3,步长为1,填充为0;第六卷积层的卷积核大小为5*5,步长为1,填充为0;最大池化层的池化核大小为3*3,步长为1,填充为1;
由于Inception-Res网络模块采用四种不同的卷积神经网络模块进行处理,所以可以得到不同尺度上的特征,对这些特征进行融合,增加了感受野的范围,使得网络能够处理更为全局、语义层次更高的特性信息,增加了特征表达能力,从而有效提升了隐写图像的隐写容量,并且由于引入残差连接,减少模型复杂度并避免网络退化,而且Inception-Res网络模块使用了卷积核大小为1*1的卷积层,可以通过降维操作,在不影响网络性能的情况下节省计算量,进而提升了图像隐写的效率;
解码器网络D,其中卷积网络所包含的密集连接的第二卷积层的个数为3,Inception-Res网络模块的个数为3;该解码器网络D的具体参数为:
密集连接的第二卷积层的输出通道数均为32,卷积核大小均为3*3,步长均为1,填充均为1;Inception-Res网络模块中四种不同的卷积神经网络模块输出通道均数为32,最终输出通道数为均为32;
判别器网络C,其所包含的第三卷积层的个数为3,该判别器网络C的具体参数为:第三卷积层的输出通道数均为32,卷积核大小均为3*3,步长均为1,填充均为1;最大池化层池化核大小为3*3,步长为1,填充为1;全连接层输出通道数为1;
其中,最大池化层能够扩大感受野并有效防止过拟合,全连接层能够将输入的特征进行综合,Sigmod()激活函数可以引入非线性,使得判别器网络可以更好的判别载体图像与隐写图像的真伪,从而使得生成器网络生成的隐写图像更接近载体图像。
(2b)定义生成器网络G的损失函数lossG和判别器网络C的损失函数lossC
lossG=lossd+lossl+lossr+lossvgg19
lossr=C(Ys)
其中,lossd、lossl、lossr、lossVGG19分别表示输入样本Xs中随机数据与恢复得到的随机数据/>之间的交叉熵损失、输入样本Xs中图像数据/>与隐写样本Ys之间的均方误差损失、判别器网络C对隐写样本Ys的判别结果、通过VGG19网络对/>与Ys进行处理后的结果之间的均方误差损失,Ys表示编码器网络E得到的结果,VGG19(·)表示使用预训练的VGG19网络处理样本,||·||2表示均方误差损失函数,C(·)表示判别器网络对样本的判别结果,mi,j、m'i,j分别表示随机数据/>解码后的随机数据/>的第i行第j列的数值,H、W分别表示/>的高度、宽度;
VGG19网络用于大规模图像识别,通过提取高阶的抽象特征,并根据高阶特征进行图像分类,使用VGG19网络对输入样本Xs中图像数据与隐写样本Ys处理结果之间的均方误差作为损失函数,可以有效减少/>与Ys在高阶特征上的差异,增强隐写图像的真实性;
(3)对生成对抗网络模型H进行迭代训练:
(3a)初始化迭代次数为q,最大迭代次数为Q,Q≥32,生成器网络G、判别器网络C的网络参数分别为θG、θC,并令q=0;
(3b)将训练样本集作为生成对抗网络模型H的输入,编码器网络E对每个训练样本Xs中的图像样本进行特征提取,得到32维的特征,将随机数据/>与特征在维度上进行拼接,将拼接后的结果放入顺次连接的密集连接的卷积神经网络与Inception-Res网络模块中,从而完成将/>对应的随机数据/>隐写在所提取的特征中,得到Xs的隐写样本Ys,此时隐写样本Ys与图像样本肉眼上无法看出差异,但已包含随机数据/>解码器网络D对隐写样本Ys进行解码,得到解码后的随机数据/>判别器网络C对图像样本/>和隐写样本Ys分别进行真伪判别,得到判别结果/>C(Ys);
(3c)采用损失函数lossC,并通过C(Ys)计算判别器网络C的损失值采用损失函数lossG,并通过lossd、lossl、lossr、lossVGG19、/>Xs与Ys计算生成器网络G的损失值/>再采用反向传播方法,通过/>与/>分别计算判别器网络C的和生成器网络G的网络参数梯度,然后采用梯度下降算法通过C和G的网络参数梯度对C和G的网络参数θC和θG进行更新,得到本次迭代的生成对抗网络模型Hq
(3d)判断q≥Q是否成立,若是,得到训练好的生成对抗网络模型H*,否则,令q=q+1,并执行步骤(3b);
(4)获取图像隐写结果:
将随机载体图像与秘密信息作为训练好的生成对抗网络模型H*的输入,编码器网络E首先将载体图像转换为张量数据类型,再将秘密信息转换为与图像尺寸相同的张量数据,之后将张量数据与图像数据进行拼接,再通过编码器网络E得到隐写图像;解码器网络D对编码器网络E生成的隐写图像进行解码,得到解码后的张量数据,将张量数据转换为恢复后的秘密信息。
下面结合仿真实验对本发明的技术效果进行进一步说明:
1.仿真条件和内容:
本发明的仿真实验基于AutoDL服务平台,使用GPU为TITAN XP,显存大小为12GB,使用框架为Pytorch1.8.1。
本发明的仿真实验是采用本发明和现有技术“基于卷积神经网络和频域注意力的图像隐写方法”进行对比实验,比较解码准确率与隐写容量,得到两者的比较结果,并将比较结果绘制成表1
2.仿真结果分析:
表1.本发明仿真的解码准确率与隐写容量对照表
解码准确率 隐写容量
现有技术 0.98 2.63
本发明 0.92 4.96
根据表1所示,本发明的图像隐写方法,在生成对抗网络模型所包含的编码器网络与解码器网络中加入了Inception-Res网络模块之后,应用在图像隐写,可以有效的将秘密信息嵌入到载体图像中,有效提升了隐写图像的隐写容量。
以上描述仅是本发明的实施例,不构成对本发明的任何限制,显然对于本领域的专业人员来说,在了解了本发明内容和原理后,都可能在不背离本发明原理的情况下,进行形式和细节上的各种修正和改变,但是这些基于本发明思想的修正和改变仍在本发明的权利要求的保护范围之内。

Claims (4)

1.一种基于生成对抗网络的图像隐写方法,其特征在于,包括如下步骤:
(1)获取训练样本集:
获取格式相同的M幅图像以及与图像尺寸相同的M个随机数据,并对每幅图像进行预处理,然后将每幅预处理后的图像以及对应的随机数据组成训练样本集X={X1,X2,...,Xm,...,XM},其中,M≥1000;
(2)构建生成对抗网络模型H:
(2a)构建生成对抗网络模型H的结构:
构建包括由顺次连接的编码器网络E和解码器网络D组成的生成器网络G,以及与编码器网络E输出端连接的判别器网络C的生成对抗网络模型H;其中,E采用包括顺次连接的第一卷积层、由多个密集连接的第二卷积层组成的卷积网络、多个Inception-Res网络模块、Tanh()激活函数输出层的残差网络;D采用包括顺次连接的由多个密集连接的第二卷积层组成的卷积网络、多个Inception-Res网络模块的卷积神经网络;C采用包括顺次连接的多个第三卷积层、最大池化层、全连接层、Sigmod()激活函数输出层的卷积神经网络;Inception-Res网络模块采用改进的Inception-V1,即对Inception-V1的输入端与输出端进行残差连接;
(2b)定义生成器网络G的损失函数lossG和判别器网络C的损失函数lossC
lossG=lossd+lossl+lossr+lossvgg19
其中,lossd、lossl、lossr、lossVGG19分别表示输入样本Xs中随机数据与恢复得到的随机数据/>之间的交叉熵损失、输入样本Xs中图像数据/>与隐写样本Ys之间的均方误差损失、判别器网络C对隐写样本Ys的判别结果、通过VGG19网络对/>与Ys进行处理后的结果之间的均方误差损失,Ys表示编码器网络E得到的结果,VGG19(·)表示使用预训练的VGG19网络处理样本,||·||2表示均方误差损失函数,C(·)表示判别器网络对样本的判别结果;
(3)对生成对抗网络模型H进行迭代训练:
(3a)初始化迭代次数为q,最大迭代次数为Q,Q≥32,生成器网络G、判别器网络C的网络参数分别为θG、θC,并令q=0;
(3b)将训练样本集作为生成对抗网络模型H的输入,编码器网络E对每个训练样本Xs中的图像样本进行特征提取,并将/>对应的随机数据/>隐写在所提取的特征中,得到Xs的隐写样本Ys;解码器网络D对隐写样本Ys进行解码,得到解码后的随机数据/>判别器网络C对图像样本/>和隐写样本Ys分别进行真伪判别,得到判别结果/>C(Ys);
(3c)采用损失函数lossC,并通过C(Ys)计算判别器网络C的损失值/>采用损失函数lossG,并通过lossd、lossl、lossr、lossVGG19、/>Xs与Ys计算生成器网络G的损失值/>再采用反向传播方法,通过/>与/>分别计算判别器网络C的和生成器网络G的网络参数梯度,然后采用梯度下降算法通过C和G的网络参数梯度对C和G的网络参数θC和θG进行更新,得到本次迭代的生成对抗网络模型Hq
(3d)判断q≥Q是否成立,若是,得到训练好的生成对抗网络模型H*,否则,令q=q+1,并执行步骤(3b);
(4)获取图像隐写结果:
将随机载体图像与秘密信息作为训练好的生成对抗网络模型H*的输入,编码器网络E对输入进行图像隐写,得到隐写图像;解码器网络D对编码器网络E生成的隐写图像进行解码,得到解码后的秘密信息。
2.根据权利要求1所述的基于生成对抗网络的图像隐写方法,其特征在于,步骤(1)中所述的对每幅图像进行预处理,包括步骤为:以默认概率p=0.5对每幅图像进行水平翻转,并对水平翻转的每幅图像进行随机裁剪,然后将裁剪后的每幅图像转换为张量类型,再对每幅图像对应的张量进行归一化处理,得到M幅预处理后的图像。
3.根据权利要求1所述的基于生成对抗网络的图像隐写方法,其特征在于,步骤(2a)中所述的生成对抗网络模型H的结构,其中:
编码器网络E,其中卷积网络所包含的密集连接的第二卷积层的个数为3,Inception-Res网络模块的个数为3,每个Inception-Res网络模块包括并行排布的四种不同的卷积神经网络模块、与四种卷积神经网络模块输出端连接的第四卷积层,以及与Inception-Res网络模块输入端残差连接的输出端;该编码器网络E的具体参数为:
第一卷积层的输出通道数为32,卷积核大小为1*1,步长为1,填充为0;密集连接的第二卷积层的输出通道数均为32,卷积核大小均为3*3,步长均为1,填充均为1;第一种卷积神经网络模块采用第四卷积层;第二种卷积神经网络模块采用顺次连接的第四卷积层与第五卷积层;第三种卷积神经网络模块采用顺次连接的第三卷积层与第六卷积层;第四种卷积神经网络模块采用顺次连接的最大池化层与第四卷积层;第四卷积层的卷积核大小为1*1,步长为1,填充为0;第五卷积层的卷积核大小为3*3,步长为1,填充为0;第六卷积层的卷积核大小为5*5,步长为1,填充为0;最大池化层的池化核大小为3*3,步长为1,填充为1;
解码器网络D,其中卷积网络所包含的密集连接的第二卷积层的个数为3,Inception-Res网络模块的个数为3;该解码器网络D的具体参数为:
密集连接的第二卷积层的输出通道数均为32,卷积核大小均为3*3,步长均为1,填充均为1;Inception-Res网络模块中四种不同的卷积神经网络模块输出通道均数为32,最终输出通道数为均为32;
判别器网络C,其所包含的第三卷积层的个数为3,该判别器网络C的具体参数为:第三卷积层的输出通道数均为32,卷积核大小均为3*3,步长均为1,填充均为1;最大池化层池化核大小为3*3,步长为1,填充为1;全连接层输出通道数为1。
4.根据权利要求1所述的基于生成对抗网络的图像隐写方法,其特征在于,步骤(2b)中所述的,输入样本Xs中随机数据与恢复得到的随机数据/>之间的交叉熵损失lossd、输入样本Xs中图像数据/>与隐写样本Ys之间的均方损失lossl、判别器网络C对隐写样本Ys的判别损失lossr,计算公式分别为:
lossr=C(Ys)
其中,mi,j、m'i,j分别表示随机数据解码后的随机数据/>的第i行第j列的数值,H、W分别表示/>的高度、宽度。
CN202210687059.7A 2022-06-16 2022-06-16 基于生成对抗网络的图像隐写方法 Active CN115086674B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210687059.7A CN115086674B (zh) 2022-06-16 2022-06-16 基于生成对抗网络的图像隐写方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210687059.7A CN115086674B (zh) 2022-06-16 2022-06-16 基于生成对抗网络的图像隐写方法

Publications (2)

Publication Number Publication Date
CN115086674A CN115086674A (zh) 2022-09-20
CN115086674B true CN115086674B (zh) 2024-04-02

Family

ID=83253949

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210687059.7A Active CN115086674B (zh) 2022-06-16 2022-06-16 基于生成对抗网络的图像隐写方法

Country Status (1)

Country Link
CN (1) CN115086674B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109587372A (zh) * 2018-12-11 2019-04-05 北京邮电大学 一种基于生成对抗网络的不可见图像隐写术
CN111814875A (zh) * 2020-07-08 2020-10-23 西安电子科技大学 基于样式生成对抗网络的红外图像中舰船样本扩充方法
CN111832516A (zh) * 2020-07-22 2020-10-27 西安电子科技大学 基于无监督视频表示学习的视频行为识别方法
CN111951149A (zh) * 2020-08-14 2020-11-17 中国人民武装警察部队工程大学 一种基于神经网络的图像信息隐写方法
CN112052893A (zh) * 2020-09-01 2020-12-08 西安电子科技大学 基于生成对抗网络的半监督图像分类方法
CN112634117A (zh) * 2020-12-22 2021-04-09 中山大学 基于生成对抗网络的端到端jpeg域图像隐写方法
CN112926607A (zh) * 2021-04-28 2021-06-08 河南大学 基于卷积神经网络的双支网络图像隐写框架及方法
CN113284033A (zh) * 2021-05-21 2021-08-20 湖南大学 一种基于对抗训练的大容量图像信息隐藏术
CN113538202A (zh) * 2021-08-05 2021-10-22 齐鲁工业大学 一种基于生成式隐写对抗的图像隐写方法及系统
CN114037596A (zh) * 2022-01-07 2022-02-11 湖南菠萝互娱网络信息有限公司 一种抗物理传输形变的端到端图像隐写方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8965038B2 (en) * 2012-02-01 2015-02-24 Sam Houston University Steganalysis with neighboring joint density
US20210357690A1 (en) * 2016-10-05 2021-11-18 Digimarc Corporation Enhanced neural network systems and methods

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109587372A (zh) * 2018-12-11 2019-04-05 北京邮电大学 一种基于生成对抗网络的不可见图像隐写术
CN111814875A (zh) * 2020-07-08 2020-10-23 西安电子科技大学 基于样式生成对抗网络的红外图像中舰船样本扩充方法
CN111832516A (zh) * 2020-07-22 2020-10-27 西安电子科技大学 基于无监督视频表示学习的视频行为识别方法
CN111951149A (zh) * 2020-08-14 2020-11-17 中国人民武装警察部队工程大学 一种基于神经网络的图像信息隐写方法
CN112052893A (zh) * 2020-09-01 2020-12-08 西安电子科技大学 基于生成对抗网络的半监督图像分类方法
CN112634117A (zh) * 2020-12-22 2021-04-09 中山大学 基于生成对抗网络的端到端jpeg域图像隐写方法
CN112926607A (zh) * 2021-04-28 2021-06-08 河南大学 基于卷积神经网络的双支网络图像隐写框架及方法
CN113284033A (zh) * 2021-05-21 2021-08-20 湖南大学 一种基于对抗训练的大容量图像信息隐藏术
CN113538202A (zh) * 2021-08-05 2021-10-22 齐鲁工业大学 一种基于生成式隐写对抗的图像隐写方法及系统
CN114037596A (zh) * 2022-01-07 2022-02-11 湖南菠萝互娱网络信息有限公司 一种抗物理传输形变的端到端图像隐写方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
《Multi-Feature Fusion based Image Steganography using GAN》;Jianhui Jiang;《2021 IEEE International Symposium on Software Reliability Engineering Workshops》;20220214;全文 *
《一个新的抗cover-stego 攻击的安全隐写方案》;傅晓彤,张串绒,董庆宽,肖国镇;《通信学报》;20020225;第23卷(第2期);全文 *
《基于深度卷积生成对抗网络的半生成式视频隐写方案》;林洋平;《计算机应用》;20220615;第43卷(第1期);全文 *
《生成对抗网络驱动的图像隐写与水印模型》;郑钢;《中国图象图形学报》;20211028;第26卷(第10期);全文 *

Also Published As

Publication number Publication date
CN115086674A (zh) 2022-09-20

Similar Documents

Publication Publication Date Title
Wazirali et al. An optimized steganography hiding capacity and imperceptibly using genetic algorithms
CN113077377B (zh) 一种基于生成对抗网络的彩色图像隐写方法
CN105335924A (zh) 基于差分进化的小波域彩色图像水印加密算法
CN111260620B (zh) 图像异常检测方法、装置和电子设备
CN115131188A (zh) 一种基于生成对抗网络的鲁棒图像水印方法
CN112215076B (zh) 一种基于双塔网络的深度笔迹鉴定方法及装置
CN110968845A (zh) 基于卷积神经网络生成的针对lsb隐写的检测方法
CN114677722A (zh) 一种融合多尺度特征的多监督人脸活体检测方法
CN111681188A (zh) 基于结合图像像素先验和图像梯度先验的图像去模糊方法
CN111292221A (zh) 一种安全鲁棒的大容量图像隐写方法
CN114820380B (zh) 基于内容自适应对抗扰动的空域隐写载体图像增强方法
Wei et al. A robust image watermarking approach using cycle variational autoencoder
CN115809953A (zh) 一种基于注意力机制的多尺寸图像鲁棒水印方法及系统
CN115908095A (zh) 一种基于分层注意力特征融合的鲁棒图像水印方法及系统
CN115358910A (zh) 基于卷积神经网络去噪算法的数字水印攻击方法及系统
CN111291810A (zh) 基于目标属性解耦的信息处理模型生成方法及相关设备
CN106097236B (zh) 基于非负矩阵分解的频域鲁棒图像可逆水印方法
Liu Literature review on image restoration
CN118038222A (zh) 基于二次图像分解与注意力机制的图像融合模型及方法
Luo et al. Image universal steganalysis based on best wavelet packet decomposition
CN115086674B (zh) 基于生成对抗网络的图像隐写方法
CN113139618A (zh) 一种基于集成防御的鲁棒性增强的分类方法及装置
Xu et al. SFRNet: Feature Extraction‐Fusion Steganalysis Network Based on Squeeze‐and‐Excitation Block and RepVgg Block
CN116112685A (zh) 一种基于扩散概率模型的图像隐写方法
Zhang et al. Adaptive Robust Blind Watermarking Scheme Improved by Entropy‐Based SVM and Optimized Quantum Genetic Algorithm

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant