CN114827379A - 一种基于生成式网络的载体图像增强方法 - Google Patents

一种基于生成式网络的载体图像增强方法 Download PDF

Info

Publication number
CN114827379A
CN114827379A CN202210459712.4A CN202210459712A CN114827379A CN 114827379 A CN114827379 A CN 114827379A CN 202210459712 A CN202210459712 A CN 202210459712A CN 114827379 A CN114827379 A CN 114827379A
Authority
CN
China
Prior art keywords
carrier image
image
loss
steganography
enhanced
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210459712.4A
Other languages
English (en)
Inventor
何沛松
夏强
刘嘉勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN202210459712.4A priority Critical patent/CN114827379A/zh
Publication of CN114827379A publication Critical patent/CN114827379A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32267Methods relating to embedding, encoding, decoding, detection or retrieval operations combined with processing of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

一种基于生成式网络的载体图像增强方法,包括训练对抗噪声生成器的步骤:将训练集中的载体图像输入对抗噪声生成器,得到对抗噪声;将对抗噪声加入到载体图像中,获得增强载体图像;使用自适应隐写算法生成隐写噪声,将隐写噪声加入到增强载体图像,得到增强载密图像;将载体图像与增强载密图像之间的均方误差作为均方误差损失;将增强载密图像输入预训练的隐写分析器,得到预测结果;再将预测结果与载体图像真实标签之间的交叉熵损失作为对抗噪声生成器的对抗损失;将均方误差损失和对抗损失加权求和,得到总损失;通过反向传播,利用Adam优化方法优化对抗噪声生成器。本发明相较于现有载体图像增强算法迁移性更高。

Description

一种基于生成式网络的载体图像增强方法
技术领域
本发明涉及信息隐藏技术领域,特别是一种基于生成式网络的载体图像增强方法。
背景技术
图像隐写术作为信息隐藏技术领域的重要技术之一,利用数字图像的信息冗余隐藏秘密信息,难以被察觉。图像隐写术将秘密信息隐藏至正常的图像载体中,大大降低了被恶意拦截、篡改的风险,因此也被广泛应用于情报传输领域。近年来,图像隐写研究人员提出了许多将秘密信息的嵌入位置与图像内容相关联的空域自适应隐写算法,例如HUGO(Highly Undetectable steGO),WOW(Wavelet Obtained Weights),S-UNIWARD(SpatialUniversal Wavelet Relative Distortion),HILL(High-pass,Low-pass,and Low-pass)等。这类隐写算法根据图像纹理复杂区域难以建模的特点,将秘密信息嵌入到图像的纹理复杂区域以降低对统计特性的破坏,提升载密图像的安全性。
隐写分析技术作为隐写分析的对抗技术,根据图像中是否含有秘密信息将图像分为载体图像和载密图像。隐写分析技术可以分为传统的隐写分析技术和基于深度学习的隐写分析技术。传统隐写分析技术首先提取图像的高维特征,然后结合机器分类器对图像进行检测,最具有代表性的是空域富模型(Spacial Rich Model,SRM)。传统隐写分析技术对于空域自适应隐写算法的检测效果一般。基于深度学习的隐写分析技术是利用深度学习强大的学习能力,提取图像更深层的隐写特征,进而对图像进行检测。近年来,基于深度学习的隐写分析技术作为目前的研究热点,已经取得许多优秀的成果。在文献《Structuraldesign of convolutional neural networks for steganalysis》中,Xu等人在卷积神经网络的基础上加入一个高通滤波器作为预处理层,同时利用混合激活函数提高网络的学习能力,其检测效果相较于SRM略有提升。在文献《Deep learning hierarchicalrepresentations for image steganalysis》中,Ye等人提出YeNet,直接将SRM滤波核与深度学习网络结合,对图像进行预处理,得到了一张残差叠加图像,将其放入隐写分析网络中进行训练,并且采用一种新的激活函数,截断激活函数(TLU),其检测效果超过了传统隐写分析器SRM。在文献《Depth-wise separable convolutions and multi-level poolingfor an efficient spatial CNN-based steganalysis》中,Zhu等人提出一种ZhuNet,在预训练层使用可以训练的SRM高通滤波核进行处理,此外,使用3×3的卷积核代替传统的5×5的卷积核,利用较小的卷积核减少参数数量并在较小的局部区域中对特征进行建模,同时使用空间金字塔池化(Spatial Pyramid Pooling,SPP)代替全局平均池化,聚合局部特征,其检测性能超过YeNet。与其他基于CNN的隐写分析器不同,在文献《Deep residualnetwork for steganalysis of digital images》中,Boroumand M等人提出一种基于深度残差网络的隐写分析器SRNet,该网络没有预处理层,完全依靠数据驱动神经网络进行特征学习,实现完全的端到端检测,其检测效果与ZhuNet相当。因此,隐写分析技术的快速发展给图像隐写术带来了巨大的挑战。
为了对抗隐写分析技术的检测,在文献《Adversarial examples against deepneural network based steganalysis》中,Zhang等人提出一种载体增强技术,其借鉴对抗样本的思想,利用梯度信息构建对抗噪声,然后将对抗噪声加入到载体图像中使之得到增强。增强载体图像嵌入秘密信息后能够有效欺骗目标隐写分析器,使之给出错误的分类结果。但是,该方法仍存在两个不足:1)生成的增强载体在嵌入秘密信息后无法有效地欺骗非目标隐写分析器,即迁移性较弱。2)生成的增强载密图像在面对传统隐写分析技术SRM检测时安全性不高。
发明内容
本发明的目的是提供一种基于生成式网络的载体图像增强方法。
实现本发明目的的技术方案如下:
一种基于生成式网络的载体图像增强方法,包括:
步骤1,训练对抗噪声生成器;
步骤2,将载体图像输入到训练后的对抗噪声生成器中,得到对抗噪声;再将对抗噪声加入到载体图像中,得到增强载体图像;
所述训练对抗噪声生成器,具体为:
1.1将训练集中的载体图像输入对抗噪声生成器,得到对抗噪声;
1.2将对抗噪声加入到载体图像中,获得增强载体图像;
1.3使用自适应隐写算法生成隐写噪声,将隐写噪声加入到增强载体图像,得到增强载密图像;
1.4将载体图像与增强载密图像之间的均方误差作为均方误差损失;
1.5将增强载密图像输入预训练的隐写分析器,得到预测结果;再将预测结果与载体图像真实标签之间的交叉熵损失作为对抗噪声生成器的对抗损失;所述预训练的隐写分析器训练时使用的隐写算法与步骤1.3的自适应隐写算法相同;
1.6将均方误差损失和对抗损失加权求和,得到总损失;
1.7通过反向传播,利用Adam优化方法优化对抗噪声生成器;
重复步骤1.1~步骤1.7多次,得到训练后的对抗噪声生成器。
进一步的技术方案,所述步骤1.5替换为:将增强载密图像分别输入预训练的第一隐写分析器和第二隐写分析器,得到第一预测结果和第二预测结果;再分别计算第一预测结果与载体图像真实标签之间的第一交叉熵损失和第二预测结果与载体图像真实标签之间的第二交叉熵损失;将第一交叉熵损失和第二交叉熵损失加权求和,作为对抗噪声生成器的对抗损失;所述第一隐写分析器和第二隐写分析器具有不同的网络结构,在训练时使用的隐写算法均与步骤1.3的自适应隐写算法相同。
与现有技术相比,本发明具有如下的有益效果:
1.相较于现有载体图像增强算法迁移性更高,即通过本发明得到的增强载体图像嵌入秘密信息后能够有效欺骗未知的非目标隐写分析器,使之给出错误的分类结果。
2.通过本发明得到的增强载体图像在嵌入秘密信息后能够有效抵抗传统隐写分析方法SRM检测,相对于现有算法更具优势。
附图说明
图1为实施例1中训练对抗噪声生成器的流程图。
图2为实施例1中的对抗噪声生成器(FCN)的结构图。
图3为实施例2中训练对抗噪声生成器的流程图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明。
实施例1:
一种基于生成式网络的载体图像增强方法,通过向载体图像中加入对抗噪声,得到增强载体图像,增强载体图像在嵌入秘密信息后能够有效欺骗隐写分析器和传统隐写分析方法SRM。
A.训练阶段(如图1所示)
步骤1.将训练集中的载体图像c输入到对抗噪声生成器G中,对抗噪声生成器G可选择如FCN、U-Net等全卷积网络。本例中,生成器选择FCN网络,其结构如图2所示。对抗噪声生成器会根据载体图像内容信息得到对抗噪声n。
步骤2.将对抗噪声n添加到载体图像c上得到增强后的对抗图像adv_c。
步骤3.使用S-UNIWARD作为本例的自适应隐写算法,生成隐写噪声s_n并添加到增强载体图像adv_c上,得到增强载密图像adv_s。
步骤4.计算载体图像c和增强载密图像adv_s之间的均方误差(Mean SquareError,MSE)Lmse,具体的计算公式如下,其中n表示图像中像素点的数量,i表示图像中的第i个像素点。在本实施例中Loss1等于Lmse,目的是为了缩小对抗隐写图像adv_s与原始载体图像c的差异,缩小噪声强度的同时提升面对传统隐写分析SRM方法检测时的隐写安全性。
Figure BDA0003620005510000041
步骤5.将增强载密图像adv_s输入目标隐写分析器S得到模型预测结果pred。
步骤6.计算隐写分析器的预测结果pred与载体图像的真实标签y_c的交叉熵损失Ladv作为对抗损失,记为Loss2。目的是使得增强载密图像adv_s能够被目标隐写分析器S判别为载体图像。具体的计算公式如下:
Ladv=-(y_c*log(pred)+(1-y_c)*log(1-pred))
步骤7.将Loss1和Loss2通过加权求和的方式组合起来,得到总损失Lsum,计算公式如下,其中α表示Loss1的权重,β表示Loss2的权重。最后通过反向传播,利用Adam优化方法对对抗噪声生成器G进行优化。在训练阶段重复步骤1~步骤7大概18,750次,得到一个满足目标的对抗噪声生成器。
Lsum=α*Loss1+β*Loss2
B.应用阶段
步骤1.将测试集中待增强的载体图像输入到对预训练的抗噪声生成器G,输出对抗噪声。
步骤2.将对抗噪声加入到载体图像中,得到增强载体图像。
为了说明本发明上述方案的性能,还进行了相关实验。
实验参数参考:数据集使用隐写领域常用的公开数据集BOSSBase,将数据集随机分为均匀的两部分,一部分用于训练,另一部分则用于测试。使用嵌入率为0.4bpp的SUNIWARD作为实验中生成隐写噪声的基础自适应隐写算法。训练阶段使用的预训练隐写分析器分别为:SRNet、YeNet、ZhuNet、XuNet,预训练时使用训练集中原始载体图像和对应的载密图像进行训练。MSE损失的权重α设置为10000,对抗损失的权重β设置为1。训练时batchsize设为8,优化器选择Adam优化器,学习率设置为10-6,训练总epoch数为30,学习率分别在第15个epoch、25个epoch时乘以0.1。在测试阶段,除了使用四种预训练隐写分析器之外,传统隐写分析方法SRM也将用于测试本发明方案的性能,SRM仍然使用训练集中的原始载体图像与对应的载密图像进行训练,测试时仅使用测试集中的增强载密图像进行安全性验证。实验主要针对本发明的迁移性进行测试,即使用训练过程中未接触的隐写分析网络进行检测。实验指标为漏检率,即载密图像被隐写分析判断为载体图像的比率。实验将与现有同类型载体图像增强算法进行对比,同时也对基于双目标隐写分析器的迁移性提升策略进行了实验,验证其有效性。
表1
Figure BDA0003620005510000051
表1展示了本发明中实施例1的实验结果,实验结果表明在攻击不同隐写分析器时得到的对抗噪声生成器,在迁移性上的表现存在差异,将ZhuNet和XuNet作为目标隐写分析器时的增强效果相对较好。从整体来看,本发明的迁移性相较于其他载体图像增强算法更优,并且在抵抗传统隐写分析SRM检测方面,本发明的方法仍然比其他的方法更具优势。
实施例2:
为了提升迁移性,本发明还考虑了一种基于双目标隐写分析器的迁移性提升策略,按照使用不同目标隐写分析器进行训练时得到的对抗噪声生成器的迁移性差异。将隐写分析器分为两组,随后分别从两组中抽取一个隐写分析器进行组合,并共同作为目标隐写分析器进行训练,提供对抗损失,其余部分与攻击单个隐写分析器时保持相同。使用两种不同的隐写分析网络共同作为目标隐写分析器,可以帮助对抗噪声生成器更好地学习到两种不同隐写分析器之间的差异,找到两种模型之间的共同弱点,生成迁移性更高的对抗噪声。
A.训练阶段(如图3所示)
具体地,步骤1~步骤6均与实施例1中的相同。
步骤7.在执行迁移性提升策略时,需要将增强载密图像adv_s分别送入隐写分析器S1和S2,得到模型预测结果pred1和pred2。随后分别计算pred1、pred2与真实标签y_c的交叉熵损失,记为Ladv1和Ladv2,随后通过加权求和的方式将两部分损失结合起来作为总的对抗损失。具体的公式如下,其中μ和ν分别代表隐写分析器S1和S2对应对抗损失的权重,可根据实际情况进行调整。
Loss2=μ*Ladv1+ν*Ladv2
B.应用阶段
应用阶段与实施例1步骤相同。
为了验证实施例2中的基于双目标隐写分析器的迁移性提升策略的有效性,进行了相关的实验。实验参数参考与实施例1保持一致。具体地,从表1结果可以看出,使用SRNet作为目标隐写分析器时,能够有效欺骗YeNet,却无法有效欺骗ZhuNet和XuNet;而当YeNet作为目标隐写分析器时,能够有效期骗SRNet,同样无法欺骗ZhuNet和XuNet;当ZhuNet作为目标隐写分析器时,对XuNet的欺骗效果最好,而对SRNet和YeNet的欺骗效果相对较弱;当XuNet作为目标隐写分析器时,对ZhuNet的欺骗效果最好,对SRNet和YeNet的效果相对较弱。因此将能够相互影响的目标隐写分析器分为一组,即SRNet与YeNet一组,而ZhuNet和XuNet为一组。随后分别从两组中随机抽取一个隐写分析器进行组合,共同作为目标隐写分析器参与训练。
表2
Figure BDA0003620005510000061
表2展示了本发明基于双目标隐写分析器的迁移性提升策略的实验结果,与表1中本发明的实验结果对比,本发明的迁移性得到了大幅的提升,即通过本发明得到的增强载密图像在未知的隐写分析器(包括传统隐写分析方法SRM)检测下能够保持很高的安全性。说明将两种不同的隐写分析器共同作为目标隐写分析器的迁移性提升策略能够全面提升本发明的迁移性,同时也展现了本发明迁移性远远优于其他的载体图像增强方法。

Claims (4)

1.一种基于生成式网络的载体图像增强方法,其特征在于,包括:
步骤1,训练对抗噪声生成器;
步骤2,将载体图像输入到训练后的对抗噪声生成器中,得到对抗噪声;再将对抗噪声加入到载体图像中,得到增强载体图像;
所述训练对抗噪声生成器,具体为:
1.1将训练集中的载体图像输入对抗噪声生成器,得到对抗噪声;
1.2将对抗噪声加入到载体图像中,获得增强载体图像;
1.3使用自适应隐写算法生成隐写噪声,将隐写噪声加入到增强载体图像,得到增强载密图像;
1.4将载体图像与增强载密图像之间的均方误差作为均方误差损失;
1.5将增强载密图像输入预训练的隐写分析器,得到预测结果;再将预测结果与载体图像真实标签之间的交叉熵损失作为对抗噪声生成器的对抗损失;所述预训练的隐写分析器训练时使用的隐写算法与步骤1.3的自适应隐写算法相同;
1.6将均方误差损失和对抗损失加权求和,得到总损失;
1.7通过反向传播,利用Adam优化方法优化对抗噪声生成器;
重复步骤1.1~步骤1.7多次,得到训练后的对抗噪声生成器。
2.如权利要求1所述的一种基于生成式网络的载体图像增强方法,其特征在于,所述步骤1.5替换为:将增强载密图像分别输入预训练的第一隐写分析器和第二隐写分析器,得到第一预测结果和第二预测结果;再分别计算第一预测结果与载体图像真实标签之间的第一交叉熵损失和第二预测结果与载体图像真实标签之间的第二交叉熵损失;将第一交叉熵损失和第二交叉熵损失加权求和,作为对抗噪声生成器的对抗损失;所述第一隐写分析器和第二隐写分析器具有不同的网络结构,在训练时使用的隐写算法均与步骤1.3的自适应隐写算法相同。
3.如权利要求1或2的一种基于生成式网络的载体图像增强方法,其特征在于,所述对抗噪声生成器为FCN。
4.如权利要求1或2的一种基于生成式网络的载体图像增强方法,其特征在于,所述自适应隐写算法为S-UNIWARD。
CN202210459712.4A 2022-04-27 2022-04-27 一种基于生成式网络的载体图像增强方法 Pending CN114827379A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210459712.4A CN114827379A (zh) 2022-04-27 2022-04-27 一种基于生成式网络的载体图像增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210459712.4A CN114827379A (zh) 2022-04-27 2022-04-27 一种基于生成式网络的载体图像增强方法

Publications (1)

Publication Number Publication Date
CN114827379A true CN114827379A (zh) 2022-07-29

Family

ID=82510357

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210459712.4A Pending CN114827379A (zh) 2022-04-27 2022-04-27 一种基于生成式网络的载体图像增强方法

Country Status (1)

Country Link
CN (1) CN114827379A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115348360A (zh) * 2022-08-11 2022-11-15 国家电网有限公司大数据中心 一种基于gan的自适应嵌入数字标签信息隐藏方法
CN117579837A (zh) * 2024-01-15 2024-02-20 齐鲁工业大学(山东省科学院) 一种基于对抗压缩图像的jpeg图像隐写方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108346125A (zh) * 2018-03-15 2018-07-31 中山大学 一种基于生成对抗网络的空域图像隐写方法及系统
CN111598762A (zh) * 2020-04-21 2020-08-28 中山大学 一种生成式鲁棒图像隐写方法
CN113077377A (zh) * 2021-05-13 2021-07-06 海南大学 一种基于生成对抗网络的彩色图像隐写方法
CN113538202A (zh) * 2021-08-05 2021-10-22 齐鲁工业大学 一种基于生成式隐写对抗的图像隐写方法及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108346125A (zh) * 2018-03-15 2018-07-31 中山大学 一种基于生成对抗网络的空域图像隐写方法及系统
CN111598762A (zh) * 2020-04-21 2020-08-28 中山大学 一种生成式鲁棒图像隐写方法
CN113077377A (zh) * 2021-05-13 2021-07-06 海南大学 一种基于生成对抗网络的彩色图像隐写方法
CN113538202A (zh) * 2021-08-05 2021-10-22 齐鲁工业大学 一种基于生成式隐写对抗的图像隐写方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
夏强等: "基于普遍对抗噪声的高效载体图像增强算法", 《信息网络安全》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115348360A (zh) * 2022-08-11 2022-11-15 国家电网有限公司大数据中心 一种基于gan的自适应嵌入数字标签信息隐藏方法
CN115348360B (zh) * 2022-08-11 2023-11-07 国家电网有限公司大数据中心 一种基于gan的自适应嵌入数字标签信息隐藏方法
CN117579837A (zh) * 2024-01-15 2024-02-20 齐鲁工业大学(山东省科学院) 一种基于对抗压缩图像的jpeg图像隐写方法
CN117579837B (zh) * 2024-01-15 2024-04-16 齐鲁工业大学(山东省科学院) 一种基于对抗压缩图像的jpeg图像隐写方法

Similar Documents

Publication Publication Date Title
CN114827379A (zh) 一种基于生成式网络的载体图像增强方法
Shi et al. Image steganalysis based on moments of characteristic functions using wavelet decomposition, prediction-error image, and neural network
CN113538202B (zh) 一种基于生成式隐写对抗的图像隐写方法及系统
CN112446357B (zh) 一种基于胶囊网络的sar自动目标识别方法
CN101493928A (zh) 数字水印嵌入、提取和量化步长协调因子优化方法及装置
CN115131188A (zh) 一种基于生成对抗网络的鲁棒图像水印方法
Shi et al. Steganalysis based on moments of characteristic functions using wavelet decomposition, prediction-error image, and neural network
Hamamoto et al. Neural watermarking method including an attack simulator against rotation and compression attacks
Wang et al. HidingGAN: High capacity information hiding with generative adversarial network
CN113298689B (zh) 一种大容量图像隐写方法
Huang et al. ARWGAN: Attention-guided robust image watermarking model based on GAN
CN112767226A (zh) 基于gan网络结构自动学习失真的图像隐写方法和系统
Yuan et al. GAN-based image steganography for enhancing security via adversarial attack and pixel-wise deep fusion
CN114626042B (zh) 一种人脸验证攻击方法和装置
CN113989096A (zh) 基于深度学习和注意力网络的鲁棒图像水印方法及系统
Gupta et al. A survey of watermarking technique using deep neural network architecture
CN115809953A (zh) 一种基于注意力机制的多尺寸图像鲁棒水印方法及系统
CN116452401A (zh) 一种抗图像攻击的可逆鲁棒水印嵌入与提取模型构建方法
CN111222583A (zh) 一种基于对抗训练与关键路径提取的图像隐写分析方法
Zhang et al. A blind watermarking system based on deep learning model
Qin et al. CADW: CGAN-based attack on deep robust image watermarking
Luo et al. WFormer: A Transformer-Based Soft Fusion Model for Robust Image Watermarking
CN113139573A (zh) 一种基于条件双分支注意力机制的鲁棒声纳图像生成方法
Mansour et al. A Robust Deep Learning-Based Video Watermarking Using Mosaic Generation.
CN114549271A (zh) 一种基于DCFERNet的零水印生成以及提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20220729

RJ01 Rejection of invention patent application after publication