CN115880125B - 基于Transformer的软融合鲁棒图像水印方法 - Google Patents
基于Transformer的软融合鲁棒图像水印方法 Download PDFInfo
- Publication number
- CN115880125B CN115880125B CN202310186948.XA CN202310186948A CN115880125B CN 115880125 B CN115880125 B CN 115880125B CN 202310186948 A CN202310186948 A CN 202310186948A CN 115880125 B CN115880125 B CN 115880125B
- Authority
- CN
- China
- Prior art keywords
- watermark
- image
- feature map
- original
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 79
- 230000004927 fusion Effects 0.000 title claims abstract description 51
- 238000000605 extraction Methods 0.000 claims abstract description 8
- 230000008569 process Effects 0.000 claims description 17
- 239000011159 matrix material Substances 0.000 claims description 11
- 238000007781 pre-processing Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 208000020442 loss of weight Diseases 0.000 claims description 3
- 238000012549 training Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 230000006835 compression Effects 0.000 description 7
- 238000007906 compression Methods 0.000 description 7
- 150000003839 salts Chemical class 0.000 description 7
- 238000010998 test method Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 235000002566 Capsicum Nutrition 0.000 description 3
- 239000006002 Pepper Substances 0.000 description 3
- 241000722363 Piper Species 0.000 description 3
- 235000016761 Piper aduncum Nutrition 0.000 description 3
- 235000017804 Piper guineense Nutrition 0.000 description 3
- 235000008184 Piper nigrum Nutrition 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y04—INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
- Y04S—SYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
- Y04S10/00—Systems supporting electrical power generation, transmission or distribution
- Y04S10/50—Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications
Landscapes
- Editing Of Facsimile Originals (AREA)
- Image Processing (AREA)
Abstract
本发明提供了基于Transformer的软融合鲁棒图像水印方法,包括:构建基于Transformer的端到端水印模型;其中,所述端到端水印模型包括:编码器、解码器、噪声层和鉴别器;将原始图像和原始水印输入所述编码器进行编码,获取编码图像;将所述编码图像输入所述噪声层进行噪声添加,获取噪声图像;将所述噪声图像输入所述解码器进行水印提取,获取解码后的水印;基于所述鉴别器,对所述编码图像进行鉴别。本发明在获得高质量的编码图像的同时,能够抵抗大部分的图像攻击,与现有技术方法相比,性能更好。
Description
技术领域
本发明水印技术领域,尤其涉及基于Transformer的软融合鲁棒图像水印方法。
背景技术
水印技术是通过将秘密消息隐藏到多媒体中来保护版权或跟踪信息泄露的关键解决方案。图像鲁棒水印的目标是将水印不可见地嵌入到图像中,并希望能够从编码后的图像中完全提取水印,即使图像是失真的。因此,不可感知性和鲁棒性是鲁棒水印方法的两个必要要求。
在过去的几年里,许多传统的基于变换域的鲁棒水印方法被提出,这些方法尝试挖掘鲁棒图像特征进行水印嵌入。然而,这些图像特征是人工提取的,不能代表各种图像的主要能量,可能导致鲁棒性差。由于深度神经网络(DNN)可以从不同的图像数据集中学习鲁棒图像特征,因此提出了一些基于DNN的水印模型来提高水印性能。
现有的基于DNN的水印模型通常采用编码器-噪声层-解码器架构作为主骨干,如图1的(a)所示。编码器将水印嵌入到图像中,解码器尝试恢复水印。在最先进的方法中,如Hidden和TSDL,水印被复制并分布在整幅图像上,以增加鲁棒性,然后水印与原始图像的特征直接融合,如图1的(b)所示,得到编码后(带水印)的图像,称为硬融合。但是,有两个缺点限制了相应的性能。(1)水印的简单复制操作会产生过多的冗余,从而降低图像质量。(2)由于水印和原始图像来自不同的域,硬融合将两种具有远距离关系的不同模态连接在一起,而不调整水印特征向原始图像的结构或细节靠拢,从而导致图像失真和鲁棒性差。为了解决第一个缺点,如图1的(c)所示,提出的一个水印处理器模块,将水印扩展到图像上。然而,该处理器仍然不能解决两种不同模态之间的差距,因此水印的不可见性和鲁棒性仍然有限。
据所知,上述已有的水印模型都是采用硬融合作为水印嵌入,只有在融合后,通过学习卷积运算的映射函数,调整水印分布,使编码后的图像接近原始图像,抵御不同的图像攻击。然而,卷积运算只有一个有限的感受野,因此很难建模水印与原始图像之间的远程依赖关系。此外,卷积滤波器在推理时具有静态权重,因此不能灵活调节不同图像的水印融合。为了解决上述缺点,我们需要弥补原始图像与水印之间的模态差距,并捕获它们的跨模态特征依赖,进行水印融合。
近年来,由于其有效的表示学习,transformer已成功应用于计算机视觉和自然语言任务。由于transformer可以获得两种不同模态之间的远程相互作用,并建立自注意机制来指导模态融合,因此仍然可以在水印模型中使用transformer结构,以提高水印性能。然而,到目前为止,基于transformer的水印模型鲜有报道。
发明内容
为解决上述技术问题,本发明提出了基于Transformer的软融合鲁棒图像水印方法;本发明在获得高质量的编码图像的同时,能够抵抗大部分的图像攻击,与现有技术方法相比,性能更好。
为实现上述目的,本发明提供了基于Transformer的软融合鲁棒图像水印方法,包括:
构建基于Transformer的端到端水印模型;其中,所述端到端水印模型包括:编码器、解码器、噪声层和鉴别器;
将原始图像和原始水印输入所述编码器进行编码,获取编码图像,完成水印融合;
将所述编码图像输入所述噪声层进行噪声添加,获取噪声图像;
将所述噪声图像输入所述解码器进行水印提取,获取解码后的水印;
基于所述鉴别器,对所述编码图像进行鉴别。
可选地,所述编码器包括:水印预处理模块、第一卷积层、特征增强模块、软融合模块、Transformer块和第二卷积层;
所述原始水印输入所述水印预处理模块进行扩展,获取初始水印特征图,所述原始图像输入所述第一卷积层进行卷积处理,获取初始图像特征图;
将所述初始水印特征图和所述初始图像特征图输入所述特征增强模块,获取增强特征图;
将所述增强特征图和所述初始水印特征图输入所述软融合模块,获取带水印特征图;
将所述带水印特征图通过Transformer块后与所述原始图像进行连接,再通过所述第二卷积层进行卷积处理,获取含水印的所述编码图像。
可选地,所述编码器的编码过程表示为:
其中,I c 为原始图像,I e 为编码图像,E为编码器,W为原始水印,θ E 为编码器的参数,L E 为编码损失。
可选地,所述解码器进行水印提取的过程表示为:
可选地,所述鉴别器对所述编码图像进行鉴别包括:
所述鉴别器对所述编码图像进行识别;所述编码器阻止所述鉴别器对所述编码图像进行识别;
所述鉴别器对所述编码图像进行识别表示为:
所述编码器阻止所述鉴别器对所述编码图像进行识别表示为:
可选地,构建基于Transformer的所述端到端水印模型还包括:对所述端到端水印模型设置总损失函数;
所述总损失函数包括:编码损失,对抗损失和解码损失;
所述总损失函数为:
其中,L overall 为总损失函数,λ 1为编码损失权重,λ 2为对抗损失权重,λ 3为解码损失权重,L E 为编码损失,L A 为对抗损失,L D 为解码损失。
可选地,获取所述初始水印特征图包括:
将所述原始水印重塑为预设大小的矩阵;
使用pixel-shuffle操作进行对所述矩阵进行上采样,并利用Transformer块操作对所述矩阵自注意提取有效特征,获取所述初始水印特征图;
所述矩阵的预设大小为:
其中,L为水印长度,h×w为水印大小,K 3为整数,表示pixel-shuffle和Transformer块的次数,H为原始图像的高,W为原始图像的宽。
可选地,通过所述特征增强模块获取所述增强特征图的过程表示为:
其中,F F 为增强特征图,为初始水印特征图生成的2D 查询张量,/>为初始图像特征图生成的2D 键张量,/>为初始图像特征图生成的2D 值张量,F c 为初始图像特征图,/>为注意力图,/>为激活函数,d为键张量的维度。
可选地,通过所述软融合模块获取所述带水印特征图的过程表示为:
与现有技术相比,本发明具有如下优点和技术效果:
本发明为了避免水印的过度冗余,采用基于transformer的水印预处理模块,以自动学习的方式扩展水印,而不是简单的水印复制,提取有效的水印特征进行融合,增强编码图像。为了提取适合水印嵌入的原始图像特征,通过捕获水印与原始图像特征之间的交叉特征依赖关系,设计了特征增强模块,指导水印融合。更重要的是,为了克服硬融合的缺点,采用了软融合模块,计算混合注意提取有效特征并进行水印融合。具体来说,计算自注意,分别提取水印和原始图像的主要特征,同时计算交叉注意,使水印嵌入在鲁棒性和图像质量方面更好。实验结果表明,本发明在获得高质量的编码图像的同时,能够抵抗大部分的图像攻击。与现有技术方法相比,性能更好。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为现有的基于DNN的水印模型示意图;其中,(a)为现有基于DNN水印模型的通用框架示意图,(b)为硬融合框架示意图,(c)为增加水印处理器模块的硬融合框架示意图;
图2为本发明实施例的模型的整体框架示意图;
图3为本发明实施例的特征增强模块网络框架示意图;
图4为本发明实施例的软融合模块网络框架示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本发明提供了基于Transformer的软融合鲁棒图像水印方法,包括:
构建基于Transformer的端到端水印模型;其中,所述端到端水印模型包括:编码器、解码器、噪声层和鉴别器;
将原始图像和原始水印输入所述编码器进行编码,获取编码图像,完成水印融合;
将所述编码图像输入所述噪声层进行噪声添加,获取噪声图像;
将所述噪声图像输入所述解码器进行水印提取,获取解码后的水印;
基于所述鉴别器,对所述编码图像进行鉴别。
进一步地,所述编码器包括:水印预处理模块、第一卷积层、特征增强模块、软融合模块、Transformer块和第二卷积层;
所述原始水印输入所述水印预处理模块进行扩展,获取初始水印特征图,所述原始图像输入所述第一卷积层进行卷积处理,获取初始图像特征图;
将所述初始水印特征图和所述初始图像特征图输入所述特征增强模块,获取增强特征图;
将所述增强特征图和所述初始水印特征图输入所述软融合模块,获取带水印特征图;
将所述带水印特征图通过Transformer块后与所述原始图像进行连接,再通过所述第二卷积层进行卷积处理,获取含水印的所述编码图像。
进一步地,所述鉴别器对所述编码图像进行鉴别包括:
所述鉴别器对所述编码图像进行识别;所述编码器阻止所述鉴别器对所述编码图像进行识别;
进一步地,构建基于Transformer的所述端到端水印模型还包括:对所述端到端水印模型设置总损失函数;
所述总损失函数包括:编码损失,对抗损失和解码损失。
进一步地,获取所述初始水印特征图包括:
将所述原始水印重塑为预设大小的矩阵;
使用pixel-shuffle操作进行对所述矩阵进行上采样,并利用Transformer块操作对所述矩阵自注意提取有效特征,获取所述初始水印特征图。
实施例
如图2所示,本实施例提供一种基于Transformer的端到端水印模型,即WFormer,该模型对不同的图像攻击具有鲁棒性,且图像失真较小。为了增加有效的水印冗余,采用了水印预处理模块。此外,为了进一步提高水印的性能,设计了更好的水印融合特征增强模块(FEM),设计了挖掘自注意和交叉注意嵌入水印的软融合模块(SFM)。WFormer包括:编码器、解码器、噪声层和鉴别器。
1.WFormer的整体描述
设原始水印为,其L表示水印长度,设原始图像为/>,其中H和W表示空间维度大小。如图2所示,整个框架由四部分组成:编码器、解码器、噪声层和鉴别器。参数为θ E 的编码器E,将原始图像I c 和水印W进行融合,以生成编码图像I e 。在噪声层N中,对编码图像I e 随机添加不同的噪声,以生成噪声图像In进行鲁棒性训练。参数为θ D 的解码器D,从噪声图像I n 中提取水印;参数为θ A 的鉴别器A用于对I e 是否接近I c 给出反馈。下面将对每个部分进行详细描述。
编码器E:E主要由水印预处理模块(WPM)、特征增强模块(FEM)和软融合模块(SFM)组成。首先使用WPM扩展W得到特征图,其中C为通道数。同时,对原始图像I c 进行3×3卷积运算,生成初始图像特征图/>,该特征图不能表示图像的主能量。然后将Fc和Fw输入到K 1个重复的FEM,去生成Ic的增强特征图/>。然后,将F F 和Fw输入到SFM进行融合,生成带水印的特征图/>。最后,Fwc通过跳跃式连接与Ic连接,再通过3×3卷积层,生成含水印图像。在下面的小节中,分别描述了WPM、FEM和SFM。
编码器的训练目标是通过更新参数θE来最小化Ic与Ie之间的L2距离,使其在视觉上相似,该过程可以表示为:
其中E(.) 表示编码过程。
噪声层N:在N中,通过添加不同的可微图像处理操作,编码图像I e 会失真为不同版本的噪声图像I n ,并且I n 将被解码器进一步解码。因此,训练采用的噪声将决定最终水印模型的鲁棒性。常用的失真包括“JPECompression”、“Crop”、“GaussianNoising”、“Salt&Pepper”和“MedianFiltering”等。
解码器D:首先对噪声图像I n 进行3×3卷积运算,然后用K 2个pixel-unshuffle和Transformer块去生成。最后,对F d 使用一个3×3卷积将多通道张量转化为1通道,并对其进行重塑以获得解码后的水印/>。
其中,D(.)表示编码过程。
鉴别器:鉴别器由4个卷积层和一个全局平均池化层组成。鉴别器作为编码器的对手,通过更新参数θ D ,试图识别出编码图像,该过程可以表示为:
另一方面,编码器通过更新参数θ E 来阻止鉴别器,该过程可以表示为:
WFormer对于编码器和解码器的最终损失函数包括图像质量损失,对抗损失和解码损失,可以表示为:
其中,L overall 为总损失函数,λ 1为编码损失权重,λ 2为对抗损失权重,λ 3为解码损失权重,L E 为编码损失,L A 为对抗损失,L D 为解码损失;λ1,λ2和λ3根据实验结果分别设置为3,10和0.0001。而对于鉴别器的损失为L Dis 。
2.1.水印处理模块
首先将水印重塑为大小为h×w的矩阵,其中h×w=L。然后使用pixel-shuffle操作进行上采样,并利用Transformer块操作自注意提取有效特征。重复这些操作,直到得到F w 。在扩展过程中,由于pixel-shuffle操作会导致输入张量的宽度和高度加倍,所以一般要求水印长度L和原始图像的形状H×W遵循以下关系:
其中K 3是由L、H和W决定的整数,表示pixel-shuffle和Transformer块的次数。
2.2.特征增强模块
如图3所示,首先通过层归一化、1×1卷积和3×3深度卷积对F w 进行转换来生成查询 Q w 张量,对F c 进行转换来生成键K c 和值V c 张量,这里Q w ,K c 和V c 的形状是。然后,为了执行注意力计算,将Q w ,K c 和V c 分别重塑为/>和/>。最后,计算交叉注意力,该过程可以表示为:
其中d表示键张量的维度,Attention(.) 主要挖掘水印与原始图像特征之间的跨模态特征依赖关系,以增强特征与水印的融合。
2.3交互融合模块
如图4所示,首先对F w 和F F 执行与特征提取增强模块相同的操作,分别得到水印的查询Q w 、键K w 和值V w 张量以及图像的查询Q c 、键K c 和值V c 张量。然后将它们分别重塑为,/>和/>。最后将水印和原始图像的键和值张量进行concatenation操作,以执行自注意力和交叉注意力计算,该过程可以表示为:/>
其中P(.) 表示线性映射。
3.实验
3.1.特定失真比较
为了测试提出框架的图像视觉质量和鲁棒性,对下面8种不同类型的失真进行了实验:“JPEG”,“Crop”,“Cropout”,“Dropout”,“Gaussian Noise”,“Gaussian Filter”,“Salt&Pepper”和“Median Filter”。对于每一种失真,训练一个特定的模型,并与MBRS进行比较。
a)JPEG压缩:JPEG压缩总是出现在图像保存和格式转换中。在训练过程中,噪声层中使用失真方法,并设置质量因子QF=50。对于测试过程,设置JPEG压缩攻击的QF从40到90,以显示其鲁棒性,实验结果如表1不同方法在JPEG压缩上的PSNR,SSIM以及BER比较所示。
表1
如表1所示,提出的方法生成的含水印图像具有最高的PSNR值,比MBRS方法至少大2dB,且SSIM相似。在这样的PSNR和SSIM水平下,提出的方法在不同QF下仍然具有最小的误码率,这表明对JPEG压缩具有很好的鲁棒性。其中,MBRS为:利用真实的和模拟JPEG压缩的小批量增强DNN水印的鲁棒性。
b)Crop失真:Crop是指按一定ratio随机裁剪出图像块,并用黑色图像块替换裁剪区域以外区域的失真。在训练阶段,将随机裁剪的ratio固定为20%。对于测试过程,设置Crop失真的ratio从5%到30%,实验结果如表2不同方法在Crop失真上的PSNR,SSIM以及BER比较所示。
表2
如表2所示,提出的方法生成的含水印图像具有最高的PSNR和SSIM值,特别是PSNR值比MBRS方法至少大5dB。此外,对于所有的裁剪ratio,提出的方法保证了最小的误码率,这表明对Crop失真具有鲁棒性。并且随着裁剪ratio的降低,该方法的优势越来越明显。
c)Cropout失真:与Crop失真不同,Cropout是指按一定ratio随机裁剪出图像块,并将图像块以外区域替换为原始图像的操作。在训练阶段,将Cropout的ratio固定为40%。对于测试过程,设置Cropout的ratio从20%到70%,实验结果如表3不同方法在Cropout失真上的PSNR,SSIM以及BER比较所示。
表3
如表3所示,提出的方法生成的含水印图像具有最高的PSNR和SSIM值,特别是PSNR值比MBRS方法至少大3dB,并且SSIM也超过了0.996。此外,对于所有的裁剪ratio,提出的方法的误码率明显小于其它方法,这表明对Cropout失真具有很强的鲁棒性。
d)Dropout失真:与Crop和Cropout失真不同,Dropout表示按ratio随机选取图像像素,并将其余像素替换为原始图像的操作。在训练阶段,将Dropout的ratio固定为40%。对于测试过程,设置Dropout的ratio从20%到70%,实验结果如表4不同方法在Dropout失真上的PSNR,SSIM以及BER比较所示。
表4
如表4所示,与MBRS方法相比,提出的方法生成的含水印图像具有最高的PSNR和SSIM值。对于不同的ratio,提出的方法在低ratio下具有更低的误码率,这表明该方法对于高强度的Dropout失真具有更好的鲁棒性。
e)GaissianNoise:GaissianNoise是指它的概率密度函数服从高斯分布的一类噪声,通常出现在消息传输中。在训练阶段,将GaissianNoise的variance固定为0.04。对于测试过程,设置GaissianNoise的variance从0.01到0.06,实验结果如表5不同方法在GaissianNoise上的PSNR,SSIM以及BER比较所示。
表5
如表5所示,提出的方法在PSNR指标上与MBRS取得了相似的性能,在SSIM指标上略低于MBRS。对于不同的variance,提出的方法都表现出最低的误码率,这表明对GaissianNoise具有很好的鲁棒性。
f)GaissianBlur:对于GaissianBlur失真,在训练阶段,将variance固定为2。在测试过程中,设置GaissianBlur的variance从0.001到2.5,实验结果如表6不同方法在GaissianBlur上的PSNR,SSIM以及BER比较所示。
表6
如表6所示,与其它方法相比,提出的方法生成的含水印图像具有最高PSNR和SSIM值。对于不同的variance,提出方法的误码率也都低于其它方法,这表明对GaissianBlur具有很强的鲁棒性。
g)Salt&PepperNoise:Salt&PepperNoise是指将一定ratio的图像像素随机采样为噪声,与GaissianNoise类似,Salt&PepperNoise也通常出现在信息传输中。在训练阶段,将ratio固定为0.04。在测试过程中,设置Salt&PepperNoise的ratio从0.01到0.06,实验结果如表7不同方法在Salt&PepperNoise上的PSNR,SSIM以及BER比较所示。
表7
如表7所示,提出的方法生成的含水印图像具有最高的PSNR和SSIM值,特别是PSNR值比其他方法至少大2dB。对于不同的ratio,提出方法的误码率也明显低于其它方法,这表明对Salt&Pepper Noise具有很强的鲁棒性。
h)Median Blur:Median Blur是一种常用的图像处理操作。在训练阶段,将模糊windows大小固定为7×7。在测试过程中,设置Median Blur的windows从3×3到9×9,实验结果如表8不同方法在Median Blur上的PSNR,SSIM以及BER比较所示。
表8
如表8所示,与其它方法相比,提出的方法生成的含水印图像具有最高的PSNR和SSIM值。对于不同的windows,提出方法的误码率都低于其它方法,这表明对MedianBlur具有优异的鲁棒性。
以上实验结果表明,提出的模型对各种不同类型的失真具有较强的鲁棒性,并且生成的含水印编码图像具有较好的视觉质量。
3.2.组合失真比较
在现实图像传输场景中,通常会受到各种不同的噪声攻击,因此一个优秀的模型应该能抵抗不同噪声的攻击,而不是只对一种攻击具有鲁棒性。为此,训练了一个组合失真模型。具体来说,噪声层中包括JPEG-Mask(QF=50),real JPEG(QF=10),Identity,Crop(Ratio=0.0225),Cropout(Ratio=0.2),Gaussian Blur(Variance=2),其中Identity表示不对图像做任何处理,每个训练小批次随机选择其中的一种失真。提出的方法与HiDDen和MBRS进行比较,为了比较的公平性,在含水印图像PSNR=33.5dB的情况下进行以下6种失真测试:Identity,Crop(Ratio=0.035),Cropout(Ratio=0.3),Dropout(Ratio=0.3),Gaussian Blur(Variance=2)和JPEG(QF=50),实验结果如表9不同方法在6种失真下的EBR比较所示。
表9
如表9所示,除了在Identity失真上的误码率都为0.0%以外,本实施例所提出的模型在所有其它测试失真中都取得了最好的性能。特别地,在Cropout(Ratio=0.3),Dropout(Ratio=0.3)上的误码率为0.0%,能够完整提取水印信息,在Crop(Ratio=0.035)上的误码率为2.83%,比其它方法的误码率最少低了1.5%,在JPEG(QF=50)上的误码率比其它方法的误码率最少低了2%。此外,的模型能够嵌入64bit的水印信息,在水印容量方面都高于其它方法。以上结果表明,提出的模型能够在水印容量更大的情况下,获得更强的鲁棒性。其中,MBRS为:利用真实的和模拟JPEG压缩的小批量增强DNN水印的鲁棒性;HiDDen为:用深度网络隐藏数据。
本实施例提出了一种新的基于transformer的水印融合策略,即WFormer。为了避免水印的过度冗余,采用基于transformer的水印预处理模块,以自动学习的方式扩展水印,而不是简单的水印复制,提取有效的水印特征进行融合,增加编码图像。为了提取适合水印的原始图像特征,通过捕获水印与原始图像特征之间的交叉特征依赖关系,设计了特征增强模块,指导水印融合。更重要的是,为了克服硬融合的缺点,采用了软融合模块,计算混合注意提取有效特征并进行水印融合。具体来说,计算自注意,分别提取水印和原始图像的主要特征,同时计算交叉注意,使水印嵌入在鲁棒性和图像质量方面更好。实验结果表明,该算法在获得高质量的编码图像的同时,能够抵抗大部分的图像攻击。与最先进的现有技术方法相比,性能更好。
以上,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。
Claims (7)
1.基于Transformer的软融合鲁棒图像水印方法,其特征在于,包括:
构建基于Transformer的端到端水印模型;其中,所述端到端水印模型包括:编码器、解码器、噪声层和鉴别器;
将原始图像和原始水印输入所述编码器进行编码,获取编码图像,完成水印融合;
将所述编码图像输入所述噪声层进行噪声添加,获取噪声图像;
将所述噪声图像输入所述解码器进行水印提取,获取解码后的水印;
基于所述鉴别器,对所述编码图像进行鉴别;
所述编码器包括:水印预处理模块、第一卷积层、特征增强模块、软融合模块、Transformer块和第二卷积层;
所述原始水印输入所述水印预处理模块进行扩展,获取初始水印特征图,所述原始图像输入所述第一卷积层进行卷积处理,获取初始图像特征图;
将所述初始水印特征图和所述初始图像特征图输入所述特征增强模块,获取增强特征图;
将所述增强特征图和所述初始水印特征图输入所述软融合模块,获取带水印特征图;
将所述带水印特征图通过Transformer块后与所述原始图像进行连接,再通过所述第二卷积层进行卷积处理,获取含水印的所述编码图像;
通过所述软融合模块获取所述带水印特征图的过程表示为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310186948.XA CN115880125B (zh) | 2023-03-02 | 2023-03-02 | 基于Transformer的软融合鲁棒图像水印方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310186948.XA CN115880125B (zh) | 2023-03-02 | 2023-03-02 | 基于Transformer的软融合鲁棒图像水印方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115880125A CN115880125A (zh) | 2023-03-31 |
CN115880125B true CN115880125B (zh) | 2023-05-26 |
Family
ID=85761712
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310186948.XA Active CN115880125B (zh) | 2023-03-02 | 2023-03-02 | 基于Transformer的软融合鲁棒图像水印方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115880125B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117291787B (zh) * | 2023-11-27 | 2024-01-26 | 中电科大数据研究院有限公司 | 一种基于数据水印的追溯方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113284037A (zh) * | 2021-06-22 | 2021-08-20 | 南京信息工程大学 | 一种基于深度神经网络的陶瓷水印载体恢复方法 |
CN114841846A (zh) * | 2022-05-18 | 2022-08-02 | 南京信息工程大学 | 一种基于视觉感知的自编码彩色图像鲁棒水印处理方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3059804B1 (fr) * | 2016-12-07 | 2019-08-02 | Idemia Identity And Security | Systeme de traitement d'images |
CN110798749B (zh) * | 2019-10-18 | 2022-04-08 | 宁波大学科学技术学院 | 基于张量奇异值分解的鲁棒视频水印方法 |
CN115019050A (zh) * | 2021-03-05 | 2022-09-06 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备及存储介质 |
CN113158583B (zh) * | 2021-05-24 | 2023-05-16 | 南京信息工程大学 | 一种端到端的基于深度学习的文本图像水印模型建立方法 |
CN114048573B (zh) * | 2022-01-04 | 2022-04-29 | 西北工业大学 | 航空发动机涡轮叶片的寿命评估方法、装置、设备和介质 |
CN114418821A (zh) * | 2022-01-18 | 2022-04-29 | 杭州缦图摄影有限公司 | 基于图像频域的盲水印处理方法 |
CN115131188A (zh) * | 2022-05-30 | 2022-09-30 | 南京信息工程大学 | 一种基于生成对抗网络的鲁棒图像水印方法 |
CN115115500A (zh) * | 2022-07-19 | 2022-09-27 | 宁波大学科学技术学院 | 一种结合水下图像增强的水印嵌入方法 |
CN115578242A (zh) * | 2022-10-25 | 2023-01-06 | 广州华多网络科技有限公司 | 水印消除方法及其装置、设备、介质、产品 |
CN115660931A (zh) * | 2022-11-01 | 2023-01-31 | 南京信息工程大学 | 基于Transformer和去噪扩散模型的鲁棒水印方法 |
-
2023
- 2023-03-02 CN CN202310186948.XA patent/CN115880125B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113284037A (zh) * | 2021-06-22 | 2021-08-20 | 南京信息工程大学 | 一种基于深度神经网络的陶瓷水印载体恢复方法 |
CN114841846A (zh) * | 2022-05-18 | 2022-08-02 | 南京信息工程大学 | 一种基于视觉感知的自编码彩色图像鲁棒水印处理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115880125A (zh) | 2023-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Blind image data hiding based on self reference | |
Chen et al. | Mean quantization based image watermarking | |
CN110232650B (zh) | 一种彩色图像水印嵌入方法、检测方法及系统 | |
CN115880125B (zh) | 基于Transformer的软融合鲁棒图像水印方法 | |
CN106408497A (zh) | 一种面向原始遥感影像的强鲁棒水印嵌入及提取方法 | |
CN115131188A (zh) | 一种基于生成对抗网络的鲁棒图像水印方法 | |
CN114549273A (zh) | 基于深度神经网络的自适应鲁棒水印嵌入方法及系统 | |
CN116452401A (zh) | 一种抗图像攻击的可逆鲁棒水印嵌入与提取模型构建方法 | |
Wang et al. | Adaptor: Improving the robustness and imperceptibility of watermarking by the adaptive strength factor | |
Zhang et al. | A blind watermarking system based on deep learning model | |
CN116342362B (zh) | 深度学习增强数字水印不可感知性方法 | |
Maity et al. | Genetic algorithms for optimality of data hiding in digital images | |
Sridevi et al. | Watermarking algorithm based using genetic algorithm and HVS | |
CN114662061B (zh) | 基于改进注意力和损失函数的解码编码网络隐写术方法 | |
CN114630130B (zh) | 一种基于深度学习的换脸视频溯源方法及系统 | |
Wang et al. | An improved AQIM watermarking method with minimum-distortion angle quantization and amplitude projection strategy | |
CN116029887A (zh) | 一种基于小波神经网络的图像大容量鲁棒水印方法 | |
Hu et al. | Incorporating Watson's perceptual model into patchwork watermarking for digital images | |
CN115272039A (zh) | 一种基于gan的水印攻击方法及系统、数字水印嵌入方法 | |
Yang et al. | A novel semi-fragile watermarking technique for image authentication | |
Fu et al. | Reliable information hiding based on support vector machine | |
Wei et al. | Breaking robust data hiding in online social networks | |
CN117255232B (zh) | 基于自注意力机制的dwt域鲁棒视频水印方法及系统 | |
Carvajal-Gámez et al. | Steganography Algorithm Based on the Nonlocal Maximum Likelihood Noise Estimation for Mobile Applications | |
Boujerfaoui et al. | Image Watermarking between Conventional and Learning-Based Techniques: A Literature Review. Electronics 2023, 12, 74 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |