CN115086674A - 基于生成对抗网络的图像隐写方法 - Google Patents

基于生成对抗网络的图像隐写方法 Download PDF

Info

Publication number
CN115086674A
CN115086674A CN202210687059.7A CN202210687059A CN115086674A CN 115086674 A CN115086674 A CN 115086674A CN 202210687059 A CN202210687059 A CN 202210687059A CN 115086674 A CN115086674 A CN 115086674A
Authority
CN
China
Prior art keywords
network
loss
convolution
image
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210687059.7A
Other languages
English (en)
Other versions
CN115086674B (zh
Inventor
董庆宽
杨福兴
陈原
穆涛
马飞龙
潘文俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202210687059.7A priority Critical patent/CN115086674B/zh
Publication of CN115086674A publication Critical patent/CN115086674A/zh
Application granted granted Critical
Publication of CN115086674B publication Critical patent/CN115086674B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/467Embedding additional information in the video signal during the compression process characterised by the embedded information being invisible, e.g. watermarking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32267Methods relating to embedding, encoding, decoding, detection or retrieval operations combined with processing of the image
    • H04N1/32272Encryption or ciphering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种基于生成对抗网络的图像隐写方法,实现步骤为:1)获取训练样本集;2)构建生成对抗网络模型;3)对生成对抗网络模型进行迭代训练;4)获取图像隐写结果。本发明通过包含图像样本和随机数据的训练样本集,对结合Inception‑Res网络模块的生成对抗网络模型进行迭代训练,通过对图像多种尺度的特征进行聚合处理,扩大了感受野的范围,增强了特征的表达能力,并且由于引入残差连接,可以减少模型复杂度并避免网络退化,在保证解码准确率的情况下,有效提升了图像隐写的隐写容量,对判别器网络进行改进,使得判别器网络可以更好的判别隐写图像与载体图像的真伪,使得生成器网络生成的隐写图像更接近载体图像。

Description

基于生成对抗网络的图像隐写方法
技术领域
本发明属于信息安全技术领域,涉及一种图像隐写方法,具体涉及一种基于生成对抗网络的图像隐写方法,可用于重要信息的隐蔽通信。
背景技术
隐写术用于将秘密信息嵌入到正常载体中而不改变载体的感知特性,通过载密载体在信道中的传输来实现秘密信息的传输。隐写术不但隐藏了通信的内容,还隐藏了通信的行为,因此可以很好地应用在敏感场景中。由于图像本身冗余大、可嵌入秘密信息的容量大的特点,通常选择图像作为信息隐藏的载体。
图像隐写是隐写术的主要内容。发送方将秘密信息隐藏在载体图像中,生成携带秘密信息的隐写图像,并通过隐写图像完成秘密信息在公共信道上的传输,传输的接收方可以解码出隐写图像中携带的秘密信息。而公共信道上的其他侦听器无法监测出隐写图像中的秘密信息。
传统的图像隐写方法通常依赖于精心设计的算法,在图像的空域或变换域进行秘密信息的嵌入。这一类隐写术需要大量的先验知识,且算法在安全性与容量方面存在瓶颈。目前,有工作者将深度学习引入到图像隐写方法中,并超越了传统的图像隐写算法。生成对抗网络利用博弈理论让生成器与判别器进行对抗,最终得到一个强大的生成器。理想情况下,训练得到的生成器可以使生成样本的分布与真实数据相同。结合生成对抗网络的图像隐写方法有着很大的发展潜力,如何让隐写图像更自然,携带更多的秘密信息成为了需要解决的问题。
生成对抗网络能够让生成器网络得到的隐写图像与载体图像在统计上趋于一致,如申请公布号为CN114157773A,名称为“基于卷积神经网络和频域注意力的图像隐写方法”的专利申请,公开了一种基于生成对抗网络和频域注意力的图像隐写方法,该方法在生成对抗网络的基础上,增加频域注意力机制,更关注与频域空间中低频部分,使得模型可以提取频域上特征,使得隐写图像与载体图像的相似度更高。该模型有效提升了隐写图像的透明性与秘密信息提取的成功率。但其存在的不足之处在于,频域注意力网络由于注意力机制更关注于对于原图像显著特征的获取,忽略了其他特征,反而对图像的隐写容量存在一定的制约,在隐写图像能够携带的秘密信息容量上,生成对抗网络模型还存在着很大的提升空间。
发明内容
本发明的目的在于克服上述现有技术存在的缺陷,提出了一种基于生成对抗网络的图像隐写方法,旨在保证解码准确率的前提下,提高图像隐写的容量。
为实现上述目的,本发明采取的技术方案包括如下步骤:
(1)获取训练样本集:
获取格式相同的M幅图像以及与图像尺寸相同的M个随机数据,并对每幅图像进行预处理,然后将每幅预处理后的图像以及对应的随机数据组成训练样本集X={X1,X2,...,Xm,...,XM},M≥1000;
(2)构建生成对抗网络模型H:
(2a)构建生成对抗网络模型H的结构:
构建包括由顺次连接的编码器网络E和解码器网络D组成的生成器网络G,以及与编码器网络E输出端连接的判别器网络C的生成对抗网络模型H;其中,E采用包括顺次连接的第一卷积层、由多个密集连接的第二卷积层组成的卷积网络、多个Inception-Res网络模块、Tanh()激活函数输出层的残差网络;D采用包括顺次连接的由多个密集连接的第二卷积层组成的卷积网络、多个Inception-Res网络模块的卷积神经网络;C采用包括顺次连接的多个第三卷积层、最大池化层、全连接层、Sigmod()激活函数输出层的卷积神经网络;Inception-Res网络模块采用改进的Inception-V1,即对Inception-V1的输入端与输出端进行残差连接;
(2b)定义生成器网络G的损失函数lossG和判别器网络C的损失函数lossC
lossG=lossd+lossl+lossr+lossvgg19
Figure BDA0003698372220000021
Figure BDA0003698372220000022
Figure BDA0003698372220000031
Figure BDA0003698372220000032
lossr=C(Ys)
其中,lossd、lossl、lossr、lossVGG19分别表示输入样本Xs中随机数据
Figure BDA0003698372220000033
与恢复得到的随机数据
Figure BDA0003698372220000034
之间的交叉熵损失、输入样本Xs中图像数据
Figure BDA0003698372220000035
与隐写样本Ys之间的均方误差损失、判别器网络C对隐写样本Ys的判别结果、通过VGG19网络对
Figure BDA0003698372220000036
与Ys进行处理后的结果之间的均方误差损失,Ys表示编码器网络E得到的结果,VGG19(·)表示使用预训练的VGG19网络处理样本,||·||2表示均方误差损失函数,C(·)表示判别器网络对样本的判别结果,mi,j、m'i,j分别表示随机数据
Figure BDA0003698372220000037
解码后的随机数据
Figure BDA0003698372220000038
的第i行第j列的数值,H、W分别表示
Figure BDA0003698372220000039
的高度、宽度;
(3)对生成对抗网络模型H进行迭代训练:
(3a)初始化迭代次数为q,最大迭代次数为Q,Q≥32,生成器网络G、判别器网络C的网络参数分别为θG、θC,并令q=0;
(3b)将训练样本集作为生成对抗网络模型H的输入,编码器网络E对每个训练样本Xs中的图像样本
Figure BDA00036983722200000310
进行特征提取,并将
Figure BDA00036983722200000311
对应的随机数据
Figure BDA00036983722200000312
隐写在所提取的特征中,得到Xs的隐写样本Ys;解码器网络D对隐写样本Ys进行解码,得到解码后的随机数据
Figure BDA00036983722200000313
判别器网络C对图像样本
Figure BDA00036983722200000314
和隐写样本Ys分别进行真伪判别,得到判别结果
Figure BDA00036983722200000315
C(Ys);
(3c)采用损失函数lossC,并通过
Figure BDA00036983722200000316
C(Ys)计算判别器网络C的损失值
Figure BDA00036983722200000317
采用损失函数lossG,并通过lossd、lossl、lossr、lossVGG19
Figure BDA00036983722200000318
Xs与Ys计算生成器网络G的损失值
Figure BDA00036983722200000319
再采用反向传播方法,通过
Figure BDA00036983722200000320
Figure BDA0003698372220000041
分别计算判别器网络C的和生成器网络G的网络参数梯度,然后采用梯度下降算法通过C和G的网络参数梯度对C和G的网络参数θC和θG进行更新,得到本次迭代的生成对抗网络模型Hq
(3d)判断q≥Q是否成立,若是,得到训练好的生成对抗网络模型H*,否则,令q=q+1,并执行步骤(3b);
(4)获取图像隐写结果:
将随机载体图像与秘密信息作为训练好的生成对抗网络模型H*的输入,编码器网络E对输入进行图像隐写,得到隐写图像;解码器网络D对编码器网络E生成的隐写图像进行解码,得到解码后的秘密信息。
本发明与现有技术相比,具有如下优点:
1.本发明在生成对抗网络模型所包含的编码器网络与解码器网络中加入了Inception-Res网络模块,在对该模型进行训练以及获取图像隐写结果的过程中,Inception-Res网络模块能够对不同尺度上的特征进行融合,增加了感受野的范围,使得网络能够处理更为全局、语义层次更高的特征信息,有效提升了隐写图像的隐写容量,由于引入残差连接,减少模型复杂度并避免网络退化,而且Inception-Res网络模块使用了卷积核大小为1*1的卷积层,可以通过降维操作,在不影响网络性能的情况下节省计算量,进而提升了图像隐写的效率。
2.本发明在对生成对抗网络模型进行训练的过程中,判别器网络中的最大池化层能够扩大感受野并有效防止过拟合,全连接层能够将输入的特征进行综合,Sigmod()激活函数可以引入非线性,使得判别器网络可以更好的判别载体图像与隐写图像的真伪,从而使得生成器网络生成的隐写图像更接近载体图像。
附图说明
图1是本发明的实现流程图。
图2是本发明生成对抗网络的结构示意图。
图3是本发明Inception-Res网络模块的结构示意图。
具体实施方式
以下结合附图和具体实施例,对本发明作进一步详细描述。
参照图1,本发明包括如下步骤:
(1)获取训练样本集:
获取格式相同的M幅图像以及与图像尺寸相同的M个随机数据,并对每幅图像以默认概率p=0.5对每幅图像进行水平翻转,并对水平翻转的每幅图像进行随机裁剪,对图像的翻转与裁剪是常见的数据增强方法,可以有效增强模型的鲁棒性,裁剪尺寸为224*224,符合预训练的VGG19网络的输入要求,然后将裁剪后的每幅图像转换为张量类型,再对每幅图像对应的张量进行归一化处理,将数据映射到0和1的范围之内,并且符合均值为0,方差为1的正态分布,这样做可以加快网络的训练速度,防止过拟合的发生,最终得到M幅预处理后的图像;然后将每幅预处理后的图像以及对应的随机数据组成训练样本集X={X1,X2,...,Xm,...,XM},M=1000;
(2)构建生成对抗网络模型H:
(2a)构建生成对抗网络模型H,其结构如图2所示:
构建包括由顺次连接的编码器网络E和解码器网络D组成的生成器网络G,以及与编码器网络E输出端连接的判别器网络C的生成对抗网络模型H;
其中,E采用包括顺次连接的第一卷积层、由多个密集连接的第二卷积层组成的卷积网络、多个Inception-Res网络模块、Tanh()激活函数输出层的残差网络;D采用包括顺次连接的由多个密集连接的第二卷积层组成的卷积网络、多个Inception-Res网络模块的卷积神经网络;C采用包括顺次连接的多个第三卷积层、最大池化层、全连接层、Sigmod()激活函数输出层的卷积神经网络;Inception-Res网络模块采用改进的Inception-V1,即对Inception-V1的输入端与输出端进行残差连接;
编码器网络E,其中卷积网络所包含的密集连接的第二卷积层的个数为3,Inception-Res网络模块的个数为3,每个Inception-Res网络模块的结构如图3所示,包括并行排布的四种不同的卷积神经网络模块、与四种卷积神经网络模块输出端连接的第四卷积层,以及与Inception-Res网络模块输入端残差连接的输出端,该编码器网络E的具体参数为:
第一卷积层的输出通道数为32,卷积核大小为3*3,步长为1,填充为0;密集连接的第二卷积层的输出通道数均为32,卷积核大小均为3*3,步长均为1,填充均为1;第一种卷积神经网络模块采用第四卷积层;第二种卷积神经网络模块采用顺次连接的第四卷积层与第五卷积层;第三种卷积神经网络模块采用顺次连接的第三卷积层与第六卷积层;第四种卷积神经网络模块采用顺次连接的最大池化层与第四卷积层;第四卷积层的卷积核大小为1*1,步长为1,填充为0;第五卷积层的卷积核大小为3*3,步长为1,填充为0;第六卷积层的卷积核大小为5*5,步长为1,填充为0;最大池化层的池化核大小为3*3,步长为1,填充为1;
由于Inception-Res网络模块采用四种不同的卷积神经网络模块进行处理,所以可以得到不同尺度上的特征,对这些特征进行融合,增加了感受野的范围,使得网络能够处理更为全局、语义层次更高的特性信息,增加了特征表达能力,从而有效提升了隐写图像的隐写容量,并且由于引入残差连接,减少模型复杂度并避免网络退化,而且Inception-Res网络模块使用了卷积核大小为1*1的卷积层,可以通过降维操作,在不影响网络性能的情况下节省计算量,进而提升了图像隐写的效率;
解码器网络D,其中卷积网络所包含的密集连接的第二卷积层的个数为3,Inception-Res网络模块的个数为3;该解码器网络D的具体参数为:
密集连接的第二卷积层的输出通道数均为32,卷积核大小均为3*3,步长均为1,填充均为1;Inception-Res网络模块中四种不同的卷积神经网络模块输出通道均数为32,最终输出通道数为均为32;
判别器网络C,其所包含的第三卷积层的个数为3,该判别器网络C的具体参数为:第三卷积层的输出通道数均为32,卷积核大小均为3*3,步长均为1,填充均为1;最大池化层池化核大小为3*3,步长为1,填充为1;全连接层输出通道数为1;
其中,最大池化层能够扩大感受野并有效防止过拟合,全连接层能够将输入的特征进行综合,Sigmod()激活函数可以引入非线性,使得判别器网络可以更好的判别载体图像与隐写图像的真伪,从而使得生成器网络生成的隐写图像更接近载体图像。
(2b)定义生成器网络G的损失函数lossG和判别器网络C的损失函数lossC
lossG=lossd+lossl+lossr+lossvgg19
Figure BDA0003698372220000071
Figure BDA0003698372220000072
Figure BDA0003698372220000073
Figure BDA0003698372220000074
lossr=C(Ys)
其中,lossd、lossl、lossr、lossVGG19分别表示输入样本Xs中随机数据
Figure BDA0003698372220000075
与恢复得到的随机数据
Figure BDA0003698372220000076
之间的交叉熵损失、输入样本Xs中图像数据
Figure BDA0003698372220000077
与隐写样本Ys之间的均方误差损失、判别器网络C对隐写样本Ys的判别结果、通过VGG19网络对
Figure BDA0003698372220000078
与Ys进行处理后的结果之间的均方误差损失,Ys表示编码器网络E得到的结果,VGG19(·)表示使用预训练的VGG19网络处理样本,||·||2表示均方误差损失函数,C(·)表示判别器网络对样本的判别结果,mi,j、m'i,j分别表示随机数据
Figure BDA0003698372220000079
解码后的随机数据
Figure BDA00036983722200000710
的第i行第j列的数值,H、W分别表示
Figure BDA00036983722200000711
的高度、宽度;
VGG19网络用于大规模图像识别,通过提取高阶的抽象特征,并根据高阶特征进行图像分类,使用VGG19网络对输入样本Xs中图像数据
Figure BDA00036983722200000712
与隐写样本Ys处理结果之间的均方误差作为损失函数,可以有效减少
Figure BDA00036983722200000713
与Ys在高阶特征上的差异,增强隐写图像的真实性;
(3)对生成对抗网络模型H进行迭代训练:
(3a)初始化迭代次数为q,最大迭代次数为Q,Q≥32,生成器网络G、判别器网络C的网络参数分别为θG、θC,并令q=0;
(3b)将训练样本集作为生成对抗网络模型H的输入,编码器网络E对每个训练样本Xs中的图像样本
Figure BDA0003698372220000081
进行特征提取,得到32维的特征,将随机数据
Figure BDA0003698372220000082
与特征在维度上进行拼接,将拼接后的结果放入顺次连接的密集连接的卷积神经网络与Inception-Res网络模块中,从而完成将
Figure BDA0003698372220000083
对应的随机数据
Figure BDA0003698372220000084
隐写在所提取的特征中,得到Xs的隐写样本Ys,此时隐写样本Ys与图像样本肉眼上无法看出差异,但已包含随机数据
Figure BDA0003698372220000085
解码器网络D对隐写样本Ys进行解码,得到解码后的随机数据
Figure BDA0003698372220000086
判别器网络C对图像样本
Figure BDA0003698372220000087
和隐写样本Ys分别进行真伪判别,得到判别结果
Figure BDA0003698372220000088
C(Ys);
(3c)采用损失函数lossC,并通过
Figure BDA0003698372220000089
C(Ys)计算判别器网络C的损失值
Figure BDA00036983722200000810
采用损失函数lossG,并通过lossd、lossl、lossr、lossVGG19
Figure BDA00036983722200000811
Xs与Ys计算生成器网络G的损失值
Figure BDA00036983722200000812
再采用反向传播方法,通过
Figure BDA00036983722200000813
Figure BDA00036983722200000814
分别计算判别器网络C的和生成器网络G的网络参数梯度,然后采用梯度下降算法通过C和G的网络参数梯度对C和G的网络参数θC和θG进行更新,得到本次迭代的生成对抗网络模型Hq
(3d)判断q≥Q是否成立,若是,得到训练好的生成对抗网络模型H*,否则,令q=q+1,并执行步骤(3b);
(4)获取图像隐写结果:
将随机载体图像与秘密信息作为训练好的生成对抗网络模型H*的输入,编码器网络E首先将载体图像转换为张量数据类型,再将秘密信息转换为与图像尺寸相同的张量数据,之后将张量数据与图像数据进行拼接,再通过编码器网络E得到隐写图像;解码器网络D对编码器网络E生成的隐写图像进行解码,得到解码后的张量数据,将张量数据转换为恢复后的秘密信息。
下面结合仿真实验对本发明的技术效果进行进一步说明:
1.仿真条件和内容:
本发明的仿真实验基于AutoDL服务平台,使用GPU为TITAN XP,显存大小为12GB,使用框架为Pytorch1.8.1。
本发明的仿真实验是采用本发明和现有技术“基于卷积神经网络和频域注意力的图像隐写方法”进行对比实验,比较解码准确率与隐写容量,得到两者的比较结果,并将比较结果绘制成表1
2.仿真结果分析:
表1.本发明仿真的解码准确率与隐写容量对照表
解码准确率 隐写容量
现有技术 0.98 2.63
本发明 0.92 4.96
根据表1所示,本发明的图像隐写方法,在生成对抗网络模型所包含的编码器网络与解码器网络中加入了Inception-Res网络模块之后,应用在图像隐写,可以有效的将秘密信息嵌入到载体图像中,有效提升了隐写图像的隐写容量。
以上描述仅是本发明的实施例,不构成对本发明的任何限制,显然对于本领域的专业人员来说,在了解了本发明内容和原理后,都可能在不背离本发明原理的情况下,进行形式和细节上的各种修正和改变,但是这些基于本发明思想的修正和改变仍在本发明的权利要求的保护范围之内。

Claims (4)

1.一种基于生成对抗网络的图像隐写方法,其特征在于,包括如下步骤:
(1)获取训练样本集:
获取格式相同的M幅图像以及与图像尺寸相同的M个随机数据,并对每幅图像进行预处理,然后将每幅预处理后的图像以及对应的随机数据组成训练样本集X={X1,X2,...,Xm,...,XM},其中,M≥1000;
(2)构建生成对抗网络模型H:
(2a)构建生成对抗网络模型H的结构:
构建包括由顺次连接的编码器网络E和解码器网络D组成的生成器网络G,以及与编码器网络E输出端连接的判别器网络C的生成对抗网络模型H;其中,E采用包括顺次连接的第一卷积层、由多个密集连接的第二卷积层组成的卷积网络、多个Inception-Res网络模块、Tanh()激活函数输出层的残差网络;D采用包括顺次连接的由多个密集连接的第二卷积层组成的卷积网络、多个Inception-Res网络模块的卷积神经网络;C采用包括顺次连接的多个第三卷积层、最大池化层、全连接层、Sigmod()激活函数输出层的卷积神经网络;Inception-Res网络模块采用改进的Inception-V1,即对Inception-V1的输入端与输出端进行残差连接;
(2b)定义生成器网络G的损失函数lossG和判别器网络C的损失函数lossC
lossG=lossd+lossl+lossr+lossvgg19
Figure FDA0003698372210000011
Figure FDA0003698372210000012
其中,lossd、lossl、lossr、lossVGG19分别表示输入样本Xs中随机数据
Figure FDA0003698372210000013
与恢复得到的随机数据
Figure FDA0003698372210000014
之间的交叉熵损失、输入样本Xs中图像数据
Figure FDA0003698372210000015
与隐写样本Ys之间的均方误差损失、判别器网络C对隐写样本Ys的判别结果、通过VGG19网络对
Figure FDA0003698372210000021
与Ys进行处理后的结果之间的均方误差损失,Ys表示编码器网络E得到的结果,VGG19(·)表示使用预训练的VGG19网络处理样本,||·||2表示均方误差损失函数,C(·)表示判别器网络对样本的判别结果;
(3)对生成对抗网络模型H进行迭代训练:
(3a)初始化迭代次数为q,最大迭代次数为Q,Q≥32,生成器网络G、判别器网络C的网络参数分别为θG、θC,并令q=0;
(3b)将训练样本集作为生成对抗网络模型H的输入,编码器网络E对每个训练样本Xs中的图像样本
Figure FDA0003698372210000022
进行特征提取,并将
Figure FDA0003698372210000023
对应的随机数据
Figure FDA0003698372210000024
隐写在所提取的特征中,得到Xs的隐写样本Ys;解码器网络D对隐写样本Ys进行解码,得到解码后的随机数据
Figure FDA0003698372210000025
判别器网络C对图像样本
Figure FDA0003698372210000026
和隐写样本Ys分别进行真伪判别,得到判别结果
Figure FDA0003698372210000027
C(Ys);
(3c)采用损失函数lossC,并通过
Figure FDA0003698372210000028
C(Ys)计算判别器网络C的损失值
Figure FDA0003698372210000029
采用损失函数lossG,并通过lossd、lossl、lossr、lossVGG19
Figure FDA00036983722100000210
Xs与Ys计算生成器网络G的损失值
Figure FDA00036983722100000211
再采用反向传播方法,通过
Figure FDA00036983722100000212
Figure FDA00036983722100000213
分别计算判别器网络C的和生成器网络G的网络参数梯度,然后采用梯度下降算法通过C和G的网络参数梯度对C和G的网络参数θC和θG进行更新,得到本次迭代的生成对抗网络模型Hq
(3d)判断q≥Q是否成立,若是,得到训练好的生成对抗网络模型H*,否则,令q=q+1,并执行步骤(3b);
(4)获取图像隐写结果:
将随机载体图像与秘密信息作为训练好的生成对抗网络模型H*的输入,编码器网络E对输入进行图像隐写,得到隐写图像;解码器网络D对编码器网络E生成的隐写图像进行解码,得到解码后的秘密信息。
2.根据权利要求1所述的基于生成对抗网络的图像隐写方法,其特征在于,步骤(1)中所述的对每幅图像进行预处理,包括步骤为:以默认概率p=0.5对每幅图像进行水平翻转,并对水平翻转的每幅图像进行随机裁剪,然后将裁剪后的每幅图像转换为张量类型,再对每幅图像对应的张量进行归一化处理,得到M幅预处理后的图像。
3.根据权利要求1所述的基于生成对抗网络的图像隐写方法,其特征在于,步骤(2a)中所述的生成对抗网络模型H的结构,其中:
编码器网络E,其中卷积网络所包含的密集连接的第二卷积层的个数为3,Inception-Res网络模块的个数为3,每个Inception-Res网络模块包括并行排布的四种不同的卷积神经网络模块、与四种卷积神经网络模块输出端连接的第四卷积层,以及与Inception-Res网络模块输入端残差连接的输出端;该编码器网络E的具体参数为:
第一卷积层的输出通道数为32,卷积核大小为1*1,步长为1,填充为0;密集连接的第二卷积层的输出通道数均为32,卷积核大小均为3*3,步长均为1,填充均为1;第一种卷积神经网络模块采用第四卷积层;第二种卷积神经网络模块采用顺次连接的第四卷积层与第五卷积层;第三种卷积神经网络模块采用顺次连接的第三卷积层与第六卷积层;第四种卷积神经网络模块采用顺次连接的最大池化层与第四卷积层;第四卷积层的卷积核大小为1*1,步长为1,填充为0;第五卷积层的卷积核大小为3*3,步长为1,填充为0;第六卷积层的卷积核大小为5*5,步长为1,填充为0;最大池化层的池化核大小为3*3,步长为1,填充为1;
解码器网络D,其中卷积网络所包含的密集连接的第二卷积层的个数为3,Inception-Res网络模块的个数为3;该解码器网络D的具体参数为:
密集连接的第二卷积层的输出通道数均为32,卷积核大小均为3*3,步长均为1,填充均为1;Inception-Res网络模块中四种不同的卷积神经网络模块输出通道均数为32,最终输出通道数为均为32;
判别器网络C,其所包含的第三卷积层的个数为3,该判别器网络C的具体参数为:第三卷积层的输出通道数均为32,卷积核大小均为3*3,步长均为1,填充均为1;最大池化层池化核大小为3*3,步长为1,填充为1;全连接层输出通道数为1。
4.根据权利要求1所述的基于生成对抗网络的图像隐写方法,其特征在于,步骤(2b)中所述的,输入样本Xs中随机数据
Figure FDA0003698372210000041
与恢复得到的随机数据
Figure FDA0003698372210000042
之间的交叉熵损失lossd、输入样本Xs中图像数据
Figure FDA0003698372210000043
与隐写样本Ys之间的均方损失lossl、判别器网络C对隐写样本Ys的判别损失lossr,计算公式分别为:
Figure FDA0003698372210000044
Figure FDA0003698372210000045
lossr=C(Ys)
其中,mi,j、m'i,j分别表示随机数据
Figure FDA0003698372210000046
解码后的随机数据
Figure FDA0003698372210000047
的第i行第j列的数值,H、W分别表示
Figure FDA0003698372210000048
的高度、宽度。
CN202210687059.7A 2022-06-16 2022-06-16 基于生成对抗网络的图像隐写方法 Active CN115086674B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210687059.7A CN115086674B (zh) 2022-06-16 2022-06-16 基于生成对抗网络的图像隐写方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210687059.7A CN115086674B (zh) 2022-06-16 2022-06-16 基于生成对抗网络的图像隐写方法

Publications (2)

Publication Number Publication Date
CN115086674A true CN115086674A (zh) 2022-09-20
CN115086674B CN115086674B (zh) 2024-04-02

Family

ID=83253949

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210687059.7A Active CN115086674B (zh) 2022-06-16 2022-06-16 基于生成对抗网络的图像隐写方法

Country Status (1)

Country Link
CN (1) CN115086674B (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130208941A1 (en) * 2012-02-01 2013-08-15 Qingzhong Liu Steganalysis with neighboring joint density
CN109587372A (zh) * 2018-12-11 2019-04-05 北京邮电大学 一种基于生成对抗网络的不可见图像隐写术
CN111814875A (zh) * 2020-07-08 2020-10-23 西安电子科技大学 基于样式生成对抗网络的红外图像中舰船样本扩充方法
CN111832516A (zh) * 2020-07-22 2020-10-27 西安电子科技大学 基于无监督视频表示学习的视频行为识别方法
CN111951149A (zh) * 2020-08-14 2020-11-17 中国人民武装警察部队工程大学 一种基于神经网络的图像信息隐写方法
CN112052893A (zh) * 2020-09-01 2020-12-08 西安电子科技大学 基于生成对抗网络的半监督图像分类方法
CN112634117A (zh) * 2020-12-22 2021-04-09 中山大学 基于生成对抗网络的端到端jpeg域图像隐写方法
CN112926607A (zh) * 2021-04-28 2021-06-08 河南大学 基于卷积神经网络的双支网络图像隐写框架及方法
CN113284033A (zh) * 2021-05-21 2021-08-20 湖南大学 一种基于对抗训练的大容量图像信息隐藏术
CN113538202A (zh) * 2021-08-05 2021-10-22 齐鲁工业大学 一种基于生成式隐写对抗的图像隐写方法及系统
US20210357690A1 (en) * 2016-10-05 2021-11-18 Digimarc Corporation Enhanced neural network systems and methods
CN114037596A (zh) * 2022-01-07 2022-02-11 湖南菠萝互娱网络信息有限公司 一种抗物理传输形变的端到端图像隐写方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130208941A1 (en) * 2012-02-01 2013-08-15 Qingzhong Liu Steganalysis with neighboring joint density
US20210357690A1 (en) * 2016-10-05 2021-11-18 Digimarc Corporation Enhanced neural network systems and methods
CN109587372A (zh) * 2018-12-11 2019-04-05 北京邮电大学 一种基于生成对抗网络的不可见图像隐写术
CN111814875A (zh) * 2020-07-08 2020-10-23 西安电子科技大学 基于样式生成对抗网络的红外图像中舰船样本扩充方法
CN111832516A (zh) * 2020-07-22 2020-10-27 西安电子科技大学 基于无监督视频表示学习的视频行为识别方法
CN111951149A (zh) * 2020-08-14 2020-11-17 中国人民武装警察部队工程大学 一种基于神经网络的图像信息隐写方法
CN112052893A (zh) * 2020-09-01 2020-12-08 西安电子科技大学 基于生成对抗网络的半监督图像分类方法
CN112634117A (zh) * 2020-12-22 2021-04-09 中山大学 基于生成对抗网络的端到端jpeg域图像隐写方法
CN112926607A (zh) * 2021-04-28 2021-06-08 河南大学 基于卷积神经网络的双支网络图像隐写框架及方法
CN113284033A (zh) * 2021-05-21 2021-08-20 湖南大学 一种基于对抗训练的大容量图像信息隐藏术
CN113538202A (zh) * 2021-08-05 2021-10-22 齐鲁工业大学 一种基于生成式隐写对抗的图像隐写方法及系统
CN114037596A (zh) * 2022-01-07 2022-02-11 湖南菠萝互娱网络信息有限公司 一种抗物理传输形变的端到端图像隐写方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
JIANHUI JIANG: "《Multi-Feature Fusion based Image Steganography using GAN》", 《2021 IEEE INTERNATIONAL SYMPOSIUM ON SOFTWARE RELIABILITY ENGINEERING WORKSHOPS》, 14 February 2022 (2022-02-14) *
傅晓彤,张串绒,董庆宽,肖国镇: "《一个新的抗cover-stego 攻击的安全隐写方案》", 《通信学报》, vol. 23, no. 2, 25 February 2002 (2002-02-25) *
林洋平: "《基于深度卷积生成对抗网络的半生成式视频隐写方案》", 《计算机应用》, vol. 43, no. 1, 15 June 2022 (2022-06-15) *
郑钢: "《生成对抗网络驱动的图像隐写与水印模型》", 《中国图象图形学报》, vol. 26, no. 10, 28 October 2021 (2021-10-28) *

Also Published As

Publication number Publication date
CN115086674B (zh) 2024-04-02

Similar Documents

Publication Publication Date Title
CN108985317B (zh) 一种基于可分离卷积和注意力机制的图像分类方法
CN109543745A (zh) 基于条件对抗自编码网络的特征学习方法及图像识别方法
Wei et al. Generative steganography network
CN111598761A (zh) 一种基于图像降噪的抗打印拍摄图像数字水印方法
CN116258719B (zh) 基于多模态数据融合的浮选泡沫图像分割方法和装置
Zhang et al. Efficient feature learning and multi-size image steganalysis based on CNN
CN113077377B (zh) 一种基于生成对抗网络的彩色图像隐写方法
CN113379618B (zh) 基于残差密集连接和特征融合的光学遥感图像去云方法
CN112215054B (zh) 一种用于水声信号去噪的深度生成对抗方法
CN113723295A (zh) 一种基于图像域频域双流网络的人脸伪造检测方法
CN113657532B (zh) 一种电机磁瓦缺陷分类方法
CN109949200B (zh) 基于滤波器子集选择和cnn的隐写分析框架构建方法
CN113076549B (zh) 一种基于新型U-Net结构生成器的对抗网络图像隐写方法
CN111681188A (zh) 基于结合图像像素先验和图像梯度先验的图像去模糊方法
CN115131188A (zh) 一种基于生成对抗网络的鲁棒图像水印方法
CN112215076B (zh) 一种基于双塔网络的深度笔迹鉴定方法及装置
CN113378160A (zh) 一种基于生成式对抗网络的图神经网络模型防御方法及装置
CN112132158A (zh) 一种基于自编码网络的可视化图片信息嵌入方法
CN111368734A (zh) 一种基于正常表情辅助的微表情识别方法
Luo et al. Image universal steganalysis based on best wavelet packet decomposition
Xu et al. SFRNet: Feature Extraction‐Fusion Steganalysis Network Based on Squeeze‐and‐Excitation Block and RepVgg Block
CN118038222A (zh) 基于二次图像分解与注意力机制的图像融合模型及方法
CN113139618A (zh) 一种基于集成防御的鲁棒性增强的分类方法及装置
CN115086674A (zh) 基于生成对抗网络的图像隐写方法
CN114723733B (zh) 一种基于公理解释的类激活映射方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant