CN115086674A - 基于生成对抗网络的图像隐写方法 - Google Patents
基于生成对抗网络的图像隐写方法 Download PDFInfo
- Publication number
- CN115086674A CN115086674A CN202210687059.7A CN202210687059A CN115086674A CN 115086674 A CN115086674 A CN 115086674A CN 202210687059 A CN202210687059 A CN 202210687059A CN 115086674 A CN115086674 A CN 115086674A
- Authority
- CN
- China
- Prior art keywords
- network
- loss
- convolution
- image
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000012549 training Methods 0.000 claims abstract description 24
- 238000012545 processing Methods 0.000 claims abstract description 7
- 238000013527 convolutional neural network Methods 0.000 claims description 18
- 238000011176 pooling Methods 0.000 claims description 13
- 230000004913 activation Effects 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 3
- 230000004083 survival effect Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000000605 extraction Methods 0.000 claims description 2
- 230000015556 catabolic process Effects 0.000 abstract description 3
- 238000006731 degradation reaction Methods 0.000 abstract description 3
- 238000004220 aggregation Methods 0.000 abstract 1
- 230000002776 aggregation Effects 0.000 abstract 1
- 230000003042 antagnostic effect Effects 0.000 abstract 1
- 230000006870 function Effects 0.000 description 17
- 238000004088 simulation Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- RTAQQCXQSZGOHL-UHFFFAOYSA-N Titanium Chemical group [Ti] RTAQQCXQSZGOHL-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/467—Embedding additional information in the video signal during the compression process characterised by the embedded information being invisible, e.g. watermarking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N1/32101—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N1/32144—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
- H04N1/32149—Methods relating to embedding, encoding, decoding, detection or retrieval operations
- H04N1/32267—Methods relating to embedding, encoding, decoding, detection or retrieval operations combined with processing of the image
- H04N1/32272—Encryption or ciphering
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Signal Processing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于生成对抗网络的图像隐写方法,实现步骤为:1)获取训练样本集;2)构建生成对抗网络模型;3)对生成对抗网络模型进行迭代训练;4)获取图像隐写结果。本发明通过包含图像样本和随机数据的训练样本集,对结合Inception‑Res网络模块的生成对抗网络模型进行迭代训练,通过对图像多种尺度的特征进行聚合处理,扩大了感受野的范围,增强了特征的表达能力,并且由于引入残差连接,可以减少模型复杂度并避免网络退化,在保证解码准确率的情况下,有效提升了图像隐写的隐写容量,对判别器网络进行改进,使得判别器网络可以更好的判别隐写图像与载体图像的真伪,使得生成器网络生成的隐写图像更接近载体图像。
Description
技术领域
本发明属于信息安全技术领域,涉及一种图像隐写方法,具体涉及一种基于生成对抗网络的图像隐写方法,可用于重要信息的隐蔽通信。
背景技术
隐写术用于将秘密信息嵌入到正常载体中而不改变载体的感知特性,通过载密载体在信道中的传输来实现秘密信息的传输。隐写术不但隐藏了通信的内容,还隐藏了通信的行为,因此可以很好地应用在敏感场景中。由于图像本身冗余大、可嵌入秘密信息的容量大的特点,通常选择图像作为信息隐藏的载体。
图像隐写是隐写术的主要内容。发送方将秘密信息隐藏在载体图像中,生成携带秘密信息的隐写图像,并通过隐写图像完成秘密信息在公共信道上的传输,传输的接收方可以解码出隐写图像中携带的秘密信息。而公共信道上的其他侦听器无法监测出隐写图像中的秘密信息。
传统的图像隐写方法通常依赖于精心设计的算法,在图像的空域或变换域进行秘密信息的嵌入。这一类隐写术需要大量的先验知识,且算法在安全性与容量方面存在瓶颈。目前,有工作者将深度学习引入到图像隐写方法中,并超越了传统的图像隐写算法。生成对抗网络利用博弈理论让生成器与判别器进行对抗,最终得到一个强大的生成器。理想情况下,训练得到的生成器可以使生成样本的分布与真实数据相同。结合生成对抗网络的图像隐写方法有着很大的发展潜力,如何让隐写图像更自然,携带更多的秘密信息成为了需要解决的问题。
生成对抗网络能够让生成器网络得到的隐写图像与载体图像在统计上趋于一致,如申请公布号为CN114157773A,名称为“基于卷积神经网络和频域注意力的图像隐写方法”的专利申请,公开了一种基于生成对抗网络和频域注意力的图像隐写方法,该方法在生成对抗网络的基础上,增加频域注意力机制,更关注与频域空间中低频部分,使得模型可以提取频域上特征,使得隐写图像与载体图像的相似度更高。该模型有效提升了隐写图像的透明性与秘密信息提取的成功率。但其存在的不足之处在于,频域注意力网络由于注意力机制更关注于对于原图像显著特征的获取,忽略了其他特征,反而对图像的隐写容量存在一定的制约,在隐写图像能够携带的秘密信息容量上,生成对抗网络模型还存在着很大的提升空间。
发明内容
本发明的目的在于克服上述现有技术存在的缺陷,提出了一种基于生成对抗网络的图像隐写方法,旨在保证解码准确率的前提下,提高图像隐写的容量。
为实现上述目的,本发明采取的技术方案包括如下步骤:
(1)获取训练样本集:
获取格式相同的M幅图像以及与图像尺寸相同的M个随机数据,并对每幅图像进行预处理,然后将每幅预处理后的图像以及对应的随机数据组成训练样本集X={X1,X2,...,Xm,...,XM},M≥1000;
(2)构建生成对抗网络模型H:
(2a)构建生成对抗网络模型H的结构:
构建包括由顺次连接的编码器网络E和解码器网络D组成的生成器网络G,以及与编码器网络E输出端连接的判别器网络C的生成对抗网络模型H;其中,E采用包括顺次连接的第一卷积层、由多个密集连接的第二卷积层组成的卷积网络、多个Inception-Res网络模块、Tanh()激活函数输出层的残差网络;D采用包括顺次连接的由多个密集连接的第二卷积层组成的卷积网络、多个Inception-Res网络模块的卷积神经网络;C采用包括顺次连接的多个第三卷积层、最大池化层、全连接层、Sigmod()激活函数输出层的卷积神经网络;Inception-Res网络模块采用改进的Inception-V1,即对Inception-V1的输入端与输出端进行残差连接;
(2b)定义生成器网络G的损失函数lossG和判别器网络C的损失函数lossC
lossG=lossd+lossl+lossr+lossvgg19
lossr=C(Ys)
其中,lossd、lossl、lossr、lossVGG19分别表示输入样本Xs中随机数据与恢复得到的随机数据之间的交叉熵损失、输入样本Xs中图像数据与隐写样本Ys之间的均方误差损失、判别器网络C对隐写样本Ys的判别结果、通过VGG19网络对与Ys进行处理后的结果之间的均方误差损失,Ys表示编码器网络E得到的结果,VGG19(·)表示使用预训练的VGG19网络处理样本,||·||2表示均方误差损失函数,C(·)表示判别器网络对样本的判别结果,mi,j、m'i,j分别表示随机数据解码后的随机数据的第i行第j列的数值,H、W分别表示的高度、宽度;
(3)对生成对抗网络模型H进行迭代训练:
(3a)初始化迭代次数为q,最大迭代次数为Q,Q≥32,生成器网络G、判别器网络C的网络参数分别为θG、θC,并令q=0;
(3b)将训练样本集作为生成对抗网络模型H的输入,编码器网络E对每个训练样本Xs中的图像样本进行特征提取,并将对应的随机数据隐写在所提取的特征中,得到Xs的隐写样本Ys;解码器网络D对隐写样本Ys进行解码,得到解码后的随机数据判别器网络C对图像样本和隐写样本Ys分别进行真伪判别,得到判别结果C(Ys);
(3c)采用损失函数lossC,并通过C(Ys)计算判别器网络C的损失值采用损失函数lossG,并通过lossd、lossl、lossr、lossVGG19、Xs与Ys计算生成器网络G的损失值再采用反向传播方法,通过与分别计算判别器网络C的和生成器网络G的网络参数梯度,然后采用梯度下降算法通过C和G的网络参数梯度对C和G的网络参数θC和θG进行更新,得到本次迭代的生成对抗网络模型Hq;
(3d)判断q≥Q是否成立,若是,得到训练好的生成对抗网络模型H*,否则,令q=q+1,并执行步骤(3b);
(4)获取图像隐写结果:
将随机载体图像与秘密信息作为训练好的生成对抗网络模型H*的输入,编码器网络E对输入进行图像隐写,得到隐写图像;解码器网络D对编码器网络E生成的隐写图像进行解码,得到解码后的秘密信息。
本发明与现有技术相比,具有如下优点:
1.本发明在生成对抗网络模型所包含的编码器网络与解码器网络中加入了Inception-Res网络模块,在对该模型进行训练以及获取图像隐写结果的过程中,Inception-Res网络模块能够对不同尺度上的特征进行融合,增加了感受野的范围,使得网络能够处理更为全局、语义层次更高的特征信息,有效提升了隐写图像的隐写容量,由于引入残差连接,减少模型复杂度并避免网络退化,而且Inception-Res网络模块使用了卷积核大小为1*1的卷积层,可以通过降维操作,在不影响网络性能的情况下节省计算量,进而提升了图像隐写的效率。
2.本发明在对生成对抗网络模型进行训练的过程中,判别器网络中的最大池化层能够扩大感受野并有效防止过拟合,全连接层能够将输入的特征进行综合,Sigmod()激活函数可以引入非线性,使得判别器网络可以更好的判别载体图像与隐写图像的真伪,从而使得生成器网络生成的隐写图像更接近载体图像。
附图说明
图1是本发明的实现流程图。
图2是本发明生成对抗网络的结构示意图。
图3是本发明Inception-Res网络模块的结构示意图。
具体实施方式
以下结合附图和具体实施例,对本发明作进一步详细描述。
参照图1,本发明包括如下步骤:
(1)获取训练样本集:
获取格式相同的M幅图像以及与图像尺寸相同的M个随机数据,并对每幅图像以默认概率p=0.5对每幅图像进行水平翻转,并对水平翻转的每幅图像进行随机裁剪,对图像的翻转与裁剪是常见的数据增强方法,可以有效增强模型的鲁棒性,裁剪尺寸为224*224,符合预训练的VGG19网络的输入要求,然后将裁剪后的每幅图像转换为张量类型,再对每幅图像对应的张量进行归一化处理,将数据映射到0和1的范围之内,并且符合均值为0,方差为1的正态分布,这样做可以加快网络的训练速度,防止过拟合的发生,最终得到M幅预处理后的图像;然后将每幅预处理后的图像以及对应的随机数据组成训练样本集X={X1,X2,...,Xm,...,XM},M=1000;
(2)构建生成对抗网络模型H:
(2a)构建生成对抗网络模型H,其结构如图2所示:
构建包括由顺次连接的编码器网络E和解码器网络D组成的生成器网络G,以及与编码器网络E输出端连接的判别器网络C的生成对抗网络模型H;
其中,E采用包括顺次连接的第一卷积层、由多个密集连接的第二卷积层组成的卷积网络、多个Inception-Res网络模块、Tanh()激活函数输出层的残差网络;D采用包括顺次连接的由多个密集连接的第二卷积层组成的卷积网络、多个Inception-Res网络模块的卷积神经网络;C采用包括顺次连接的多个第三卷积层、最大池化层、全连接层、Sigmod()激活函数输出层的卷积神经网络;Inception-Res网络模块采用改进的Inception-V1,即对Inception-V1的输入端与输出端进行残差连接;
编码器网络E,其中卷积网络所包含的密集连接的第二卷积层的个数为3,Inception-Res网络模块的个数为3,每个Inception-Res网络模块的结构如图3所示,包括并行排布的四种不同的卷积神经网络模块、与四种卷积神经网络模块输出端连接的第四卷积层,以及与Inception-Res网络模块输入端残差连接的输出端,该编码器网络E的具体参数为:
第一卷积层的输出通道数为32,卷积核大小为3*3,步长为1,填充为0;密集连接的第二卷积层的输出通道数均为32,卷积核大小均为3*3,步长均为1,填充均为1;第一种卷积神经网络模块采用第四卷积层;第二种卷积神经网络模块采用顺次连接的第四卷积层与第五卷积层;第三种卷积神经网络模块采用顺次连接的第三卷积层与第六卷积层;第四种卷积神经网络模块采用顺次连接的最大池化层与第四卷积层;第四卷积层的卷积核大小为1*1,步长为1,填充为0;第五卷积层的卷积核大小为3*3,步长为1,填充为0;第六卷积层的卷积核大小为5*5,步长为1,填充为0;最大池化层的池化核大小为3*3,步长为1,填充为1;
由于Inception-Res网络模块采用四种不同的卷积神经网络模块进行处理,所以可以得到不同尺度上的特征,对这些特征进行融合,增加了感受野的范围,使得网络能够处理更为全局、语义层次更高的特性信息,增加了特征表达能力,从而有效提升了隐写图像的隐写容量,并且由于引入残差连接,减少模型复杂度并避免网络退化,而且Inception-Res网络模块使用了卷积核大小为1*1的卷积层,可以通过降维操作,在不影响网络性能的情况下节省计算量,进而提升了图像隐写的效率;
解码器网络D,其中卷积网络所包含的密集连接的第二卷积层的个数为3,Inception-Res网络模块的个数为3;该解码器网络D的具体参数为:
密集连接的第二卷积层的输出通道数均为32,卷积核大小均为3*3,步长均为1,填充均为1;Inception-Res网络模块中四种不同的卷积神经网络模块输出通道均数为32,最终输出通道数为均为32;
判别器网络C,其所包含的第三卷积层的个数为3,该判别器网络C的具体参数为:第三卷积层的输出通道数均为32,卷积核大小均为3*3,步长均为1,填充均为1;最大池化层池化核大小为3*3,步长为1,填充为1;全连接层输出通道数为1;
其中,最大池化层能够扩大感受野并有效防止过拟合,全连接层能够将输入的特征进行综合,Sigmod()激活函数可以引入非线性,使得判别器网络可以更好的判别载体图像与隐写图像的真伪,从而使得生成器网络生成的隐写图像更接近载体图像。
(2b)定义生成器网络G的损失函数lossG和判别器网络C的损失函数lossC
lossG=lossd+lossl+lossr+lossvgg19
lossr=C(Ys)
其中,lossd、lossl、lossr、lossVGG19分别表示输入样本Xs中随机数据与恢复得到的随机数据之间的交叉熵损失、输入样本Xs中图像数据与隐写样本Ys之间的均方误差损失、判别器网络C对隐写样本Ys的判别结果、通过VGG19网络对与Ys进行处理后的结果之间的均方误差损失,Ys表示编码器网络E得到的结果,VGG19(·)表示使用预训练的VGG19网络处理样本,||·||2表示均方误差损失函数,C(·)表示判别器网络对样本的判别结果,mi,j、m'i,j分别表示随机数据解码后的随机数据的第i行第j列的数值,H、W分别表示的高度、宽度;
VGG19网络用于大规模图像识别,通过提取高阶的抽象特征,并根据高阶特征进行图像分类,使用VGG19网络对输入样本Xs中图像数据与隐写样本Ys处理结果之间的均方误差作为损失函数,可以有效减少与Ys在高阶特征上的差异,增强隐写图像的真实性;
(3)对生成对抗网络模型H进行迭代训练:
(3a)初始化迭代次数为q,最大迭代次数为Q,Q≥32,生成器网络G、判别器网络C的网络参数分别为θG、θC,并令q=0;
(3b)将训练样本集作为生成对抗网络模型H的输入,编码器网络E对每个训练样本Xs中的图像样本进行特征提取,得到32维的特征,将随机数据与特征在维度上进行拼接,将拼接后的结果放入顺次连接的密集连接的卷积神经网络与Inception-Res网络模块中,从而完成将对应的随机数据隐写在所提取的特征中,得到Xs的隐写样本Ys,此时隐写样本Ys与图像样本肉眼上无法看出差异,但已包含随机数据解码器网络D对隐写样本Ys进行解码,得到解码后的随机数据判别器网络C对图像样本和隐写样本Ys分别进行真伪判别,得到判别结果C(Ys);
(3c)采用损失函数lossC,并通过C(Ys)计算判别器网络C的损失值采用损失函数lossG,并通过lossd、lossl、lossr、lossVGG19、Xs与Ys计算生成器网络G的损失值再采用反向传播方法,通过与分别计算判别器网络C的和生成器网络G的网络参数梯度,然后采用梯度下降算法通过C和G的网络参数梯度对C和G的网络参数θC和θG进行更新,得到本次迭代的生成对抗网络模型Hq;
(3d)判断q≥Q是否成立,若是,得到训练好的生成对抗网络模型H*,否则,令q=q+1,并执行步骤(3b);
(4)获取图像隐写结果:
将随机载体图像与秘密信息作为训练好的生成对抗网络模型H*的输入,编码器网络E首先将载体图像转换为张量数据类型,再将秘密信息转换为与图像尺寸相同的张量数据,之后将张量数据与图像数据进行拼接,再通过编码器网络E得到隐写图像;解码器网络D对编码器网络E生成的隐写图像进行解码,得到解码后的张量数据,将张量数据转换为恢复后的秘密信息。
下面结合仿真实验对本发明的技术效果进行进一步说明:
1.仿真条件和内容:
本发明的仿真实验基于AutoDL服务平台,使用GPU为TITAN XP,显存大小为12GB,使用框架为Pytorch1.8.1。
本发明的仿真实验是采用本发明和现有技术“基于卷积神经网络和频域注意力的图像隐写方法”进行对比实验,比较解码准确率与隐写容量,得到两者的比较结果,并将比较结果绘制成表1
2.仿真结果分析:
表1.本发明仿真的解码准确率与隐写容量对照表
解码准确率 | 隐写容量 | |
现有技术 | 0.98 | 2.63 |
本发明 | 0.92 | 4.96 |
根据表1所示,本发明的图像隐写方法,在生成对抗网络模型所包含的编码器网络与解码器网络中加入了Inception-Res网络模块之后,应用在图像隐写,可以有效的将秘密信息嵌入到载体图像中,有效提升了隐写图像的隐写容量。
以上描述仅是本发明的实施例,不构成对本发明的任何限制,显然对于本领域的专业人员来说,在了解了本发明内容和原理后,都可能在不背离本发明原理的情况下,进行形式和细节上的各种修正和改变,但是这些基于本发明思想的修正和改变仍在本发明的权利要求的保护范围之内。
Claims (4)
1.一种基于生成对抗网络的图像隐写方法,其特征在于,包括如下步骤:
(1)获取训练样本集:
获取格式相同的M幅图像以及与图像尺寸相同的M个随机数据,并对每幅图像进行预处理,然后将每幅预处理后的图像以及对应的随机数据组成训练样本集X={X1,X2,...,Xm,...,XM},其中,M≥1000;
(2)构建生成对抗网络模型H:
(2a)构建生成对抗网络模型H的结构:
构建包括由顺次连接的编码器网络E和解码器网络D组成的生成器网络G,以及与编码器网络E输出端连接的判别器网络C的生成对抗网络模型H;其中,E采用包括顺次连接的第一卷积层、由多个密集连接的第二卷积层组成的卷积网络、多个Inception-Res网络模块、Tanh()激活函数输出层的残差网络;D采用包括顺次连接的由多个密集连接的第二卷积层组成的卷积网络、多个Inception-Res网络模块的卷积神经网络;C采用包括顺次连接的多个第三卷积层、最大池化层、全连接层、Sigmod()激活函数输出层的卷积神经网络;Inception-Res网络模块采用改进的Inception-V1,即对Inception-V1的输入端与输出端进行残差连接;
(2b)定义生成器网络G的损失函数lossG和判别器网络C的损失函数lossC
lossG=lossd+lossl+lossr+lossvgg19
其中,lossd、lossl、lossr、lossVGG19分别表示输入样本Xs中随机数据与恢复得到的随机数据之间的交叉熵损失、输入样本Xs中图像数据与隐写样本Ys之间的均方误差损失、判别器网络C对隐写样本Ys的判别结果、通过VGG19网络对与Ys进行处理后的结果之间的均方误差损失,Ys表示编码器网络E得到的结果,VGG19(·)表示使用预训练的VGG19网络处理样本,||·||2表示均方误差损失函数,C(·)表示判别器网络对样本的判别结果;
(3)对生成对抗网络模型H进行迭代训练:
(3a)初始化迭代次数为q,最大迭代次数为Q,Q≥32,生成器网络G、判别器网络C的网络参数分别为θG、θC,并令q=0;
(3b)将训练样本集作为生成对抗网络模型H的输入,编码器网络E对每个训练样本Xs中的图像样本进行特征提取,并将对应的随机数据隐写在所提取的特征中,得到Xs的隐写样本Ys;解码器网络D对隐写样本Ys进行解码,得到解码后的随机数据判别器网络C对图像样本和隐写样本Ys分别进行真伪判别,得到判别结果C(Ys);
(3c)采用损失函数lossC,并通过C(Ys)计算判别器网络C的损失值采用损失函数lossG,并通过lossd、lossl、lossr、lossVGG19、Xs与Ys计算生成器网络G的损失值再采用反向传播方法,通过与分别计算判别器网络C的和生成器网络G的网络参数梯度,然后采用梯度下降算法通过C和G的网络参数梯度对C和G的网络参数θC和θG进行更新,得到本次迭代的生成对抗网络模型Hq;
(3d)判断q≥Q是否成立,若是,得到训练好的生成对抗网络模型H*,否则,令q=q+1,并执行步骤(3b);
(4)获取图像隐写结果:
将随机载体图像与秘密信息作为训练好的生成对抗网络模型H*的输入,编码器网络E对输入进行图像隐写,得到隐写图像;解码器网络D对编码器网络E生成的隐写图像进行解码,得到解码后的秘密信息。
2.根据权利要求1所述的基于生成对抗网络的图像隐写方法,其特征在于,步骤(1)中所述的对每幅图像进行预处理,包括步骤为:以默认概率p=0.5对每幅图像进行水平翻转,并对水平翻转的每幅图像进行随机裁剪,然后将裁剪后的每幅图像转换为张量类型,再对每幅图像对应的张量进行归一化处理,得到M幅预处理后的图像。
3.根据权利要求1所述的基于生成对抗网络的图像隐写方法,其特征在于,步骤(2a)中所述的生成对抗网络模型H的结构,其中:
编码器网络E,其中卷积网络所包含的密集连接的第二卷积层的个数为3,Inception-Res网络模块的个数为3,每个Inception-Res网络模块包括并行排布的四种不同的卷积神经网络模块、与四种卷积神经网络模块输出端连接的第四卷积层,以及与Inception-Res网络模块输入端残差连接的输出端;该编码器网络E的具体参数为:
第一卷积层的输出通道数为32,卷积核大小为1*1,步长为1,填充为0;密集连接的第二卷积层的输出通道数均为32,卷积核大小均为3*3,步长均为1,填充均为1;第一种卷积神经网络模块采用第四卷积层;第二种卷积神经网络模块采用顺次连接的第四卷积层与第五卷积层;第三种卷积神经网络模块采用顺次连接的第三卷积层与第六卷积层;第四种卷积神经网络模块采用顺次连接的最大池化层与第四卷积层;第四卷积层的卷积核大小为1*1,步长为1,填充为0;第五卷积层的卷积核大小为3*3,步长为1,填充为0;第六卷积层的卷积核大小为5*5,步长为1,填充为0;最大池化层的池化核大小为3*3,步长为1,填充为1;
解码器网络D,其中卷积网络所包含的密集连接的第二卷积层的个数为3,Inception-Res网络模块的个数为3;该解码器网络D的具体参数为:
密集连接的第二卷积层的输出通道数均为32,卷积核大小均为3*3,步长均为1,填充均为1;Inception-Res网络模块中四种不同的卷积神经网络模块输出通道均数为32,最终输出通道数为均为32;
判别器网络C,其所包含的第三卷积层的个数为3,该判别器网络C的具体参数为:第三卷积层的输出通道数均为32,卷积核大小均为3*3,步长均为1,填充均为1;最大池化层池化核大小为3*3,步长为1,填充为1;全连接层输出通道数为1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210687059.7A CN115086674B (zh) | 2022-06-16 | 2022-06-16 | 基于生成对抗网络的图像隐写方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210687059.7A CN115086674B (zh) | 2022-06-16 | 2022-06-16 | 基于生成对抗网络的图像隐写方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115086674A true CN115086674A (zh) | 2022-09-20 |
CN115086674B CN115086674B (zh) | 2024-04-02 |
Family
ID=83253949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210687059.7A Active CN115086674B (zh) | 2022-06-16 | 2022-06-16 | 基于生成对抗网络的图像隐写方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115086674B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130208941A1 (en) * | 2012-02-01 | 2013-08-15 | Qingzhong Liu | Steganalysis with neighboring joint density |
CN109587372A (zh) * | 2018-12-11 | 2019-04-05 | 北京邮电大学 | 一种基于生成对抗网络的不可见图像隐写术 |
CN111814875A (zh) * | 2020-07-08 | 2020-10-23 | 西安电子科技大学 | 基于样式生成对抗网络的红外图像中舰船样本扩充方法 |
CN111832516A (zh) * | 2020-07-22 | 2020-10-27 | 西安电子科技大学 | 基于无监督视频表示学习的视频行为识别方法 |
CN111951149A (zh) * | 2020-08-14 | 2020-11-17 | 中国人民武装警察部队工程大学 | 一种基于神经网络的图像信息隐写方法 |
CN112052893A (zh) * | 2020-09-01 | 2020-12-08 | 西安电子科技大学 | 基于生成对抗网络的半监督图像分类方法 |
CN112634117A (zh) * | 2020-12-22 | 2021-04-09 | 中山大学 | 基于生成对抗网络的端到端jpeg域图像隐写方法 |
CN112926607A (zh) * | 2021-04-28 | 2021-06-08 | 河南大学 | 基于卷积神经网络的双支网络图像隐写框架及方法 |
CN113284033A (zh) * | 2021-05-21 | 2021-08-20 | 湖南大学 | 一种基于对抗训练的大容量图像信息隐藏术 |
CN113538202A (zh) * | 2021-08-05 | 2021-10-22 | 齐鲁工业大学 | 一种基于生成式隐写对抗的图像隐写方法及系统 |
US20210357690A1 (en) * | 2016-10-05 | 2021-11-18 | Digimarc Corporation | Enhanced neural network systems and methods |
CN114037596A (zh) * | 2022-01-07 | 2022-02-11 | 湖南菠萝互娱网络信息有限公司 | 一种抗物理传输形变的端到端图像隐写方法 |
-
2022
- 2022-06-16 CN CN202210687059.7A patent/CN115086674B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130208941A1 (en) * | 2012-02-01 | 2013-08-15 | Qingzhong Liu | Steganalysis with neighboring joint density |
US20210357690A1 (en) * | 2016-10-05 | 2021-11-18 | Digimarc Corporation | Enhanced neural network systems and methods |
CN109587372A (zh) * | 2018-12-11 | 2019-04-05 | 北京邮电大学 | 一种基于生成对抗网络的不可见图像隐写术 |
CN111814875A (zh) * | 2020-07-08 | 2020-10-23 | 西安电子科技大学 | 基于样式生成对抗网络的红外图像中舰船样本扩充方法 |
CN111832516A (zh) * | 2020-07-22 | 2020-10-27 | 西安电子科技大学 | 基于无监督视频表示学习的视频行为识别方法 |
CN111951149A (zh) * | 2020-08-14 | 2020-11-17 | 中国人民武装警察部队工程大学 | 一种基于神经网络的图像信息隐写方法 |
CN112052893A (zh) * | 2020-09-01 | 2020-12-08 | 西安电子科技大学 | 基于生成对抗网络的半监督图像分类方法 |
CN112634117A (zh) * | 2020-12-22 | 2021-04-09 | 中山大学 | 基于生成对抗网络的端到端jpeg域图像隐写方法 |
CN112926607A (zh) * | 2021-04-28 | 2021-06-08 | 河南大学 | 基于卷积神经网络的双支网络图像隐写框架及方法 |
CN113284033A (zh) * | 2021-05-21 | 2021-08-20 | 湖南大学 | 一种基于对抗训练的大容量图像信息隐藏术 |
CN113538202A (zh) * | 2021-08-05 | 2021-10-22 | 齐鲁工业大学 | 一种基于生成式隐写对抗的图像隐写方法及系统 |
CN114037596A (zh) * | 2022-01-07 | 2022-02-11 | 湖南菠萝互娱网络信息有限公司 | 一种抗物理传输形变的端到端图像隐写方法 |
Non-Patent Citations (4)
Title |
---|
JIANHUI JIANG: "《Multi-Feature Fusion based Image Steganography using GAN》", 《2021 IEEE INTERNATIONAL SYMPOSIUM ON SOFTWARE RELIABILITY ENGINEERING WORKSHOPS》, 14 February 2022 (2022-02-14) * |
傅晓彤,张串绒,董庆宽,肖国镇: "《一个新的抗cover-stego 攻击的安全隐写方案》", 《通信学报》, vol. 23, no. 2, 25 February 2002 (2002-02-25) * |
林洋平: "《基于深度卷积生成对抗网络的半生成式视频隐写方案》", 《计算机应用》, vol. 43, no. 1, 15 June 2022 (2022-06-15) * |
郑钢: "《生成对抗网络驱动的图像隐写与水印模型》", 《中国图象图形学报》, vol. 26, no. 10, 28 October 2021 (2021-10-28) * |
Also Published As
Publication number | Publication date |
---|---|
CN115086674B (zh) | 2024-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108985317B (zh) | 一种基于可分离卷积和注意力机制的图像分类方法 | |
CN109543745A (zh) | 基于条件对抗自编码网络的特征学习方法及图像识别方法 | |
Wei et al. | Generative steganography network | |
CN111598761A (zh) | 一种基于图像降噪的抗打印拍摄图像数字水印方法 | |
CN116258719B (zh) | 基于多模态数据融合的浮选泡沫图像分割方法和装置 | |
Zhang et al. | Efficient feature learning and multi-size image steganalysis based on CNN | |
CN113077377B (zh) | 一种基于生成对抗网络的彩色图像隐写方法 | |
CN113379618B (zh) | 基于残差密集连接和特征融合的光学遥感图像去云方法 | |
CN112215054B (zh) | 一种用于水声信号去噪的深度生成对抗方法 | |
CN113723295A (zh) | 一种基于图像域频域双流网络的人脸伪造检测方法 | |
CN113657532B (zh) | 一种电机磁瓦缺陷分类方法 | |
CN109949200B (zh) | 基于滤波器子集选择和cnn的隐写分析框架构建方法 | |
CN113076549B (zh) | 一种基于新型U-Net结构生成器的对抗网络图像隐写方法 | |
CN111681188A (zh) | 基于结合图像像素先验和图像梯度先验的图像去模糊方法 | |
CN115131188A (zh) | 一种基于生成对抗网络的鲁棒图像水印方法 | |
CN112215076B (zh) | 一种基于双塔网络的深度笔迹鉴定方法及装置 | |
CN113378160A (zh) | 一种基于生成式对抗网络的图神经网络模型防御方法及装置 | |
CN112132158A (zh) | 一种基于自编码网络的可视化图片信息嵌入方法 | |
CN111368734A (zh) | 一种基于正常表情辅助的微表情识别方法 | |
Luo et al. | Image universal steganalysis based on best wavelet packet decomposition | |
Xu et al. | SFRNet: Feature Extraction‐Fusion Steganalysis Network Based on Squeeze‐and‐Excitation Block and RepVgg Block | |
CN118038222A (zh) | 基于二次图像分解与注意力机制的图像融合模型及方法 | |
CN113139618A (zh) | 一种基于集成防御的鲁棒性增强的分类方法及装置 | |
CN115086674A (zh) | 基于生成对抗网络的图像隐写方法 | |
CN114723733B (zh) | 一种基于公理解释的类激活映射方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |