CN113781284A - 一种基于深度注意自编码器的零水印构造方法 - Google Patents
一种基于深度注意自编码器的零水印构造方法 Download PDFInfo
- Publication number
- CN113781284A CN113781284A CN202110734868.4A CN202110734868A CN113781284A CN 113781284 A CN113781284 A CN 113781284A CN 202110734868 A CN202110734868 A CN 202110734868A CN 113781284 A CN113781284 A CN 113781284A
- Authority
- CN
- China
- Prior art keywords
- watermark
- encoder
- self
- zero
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010276 construction Methods 0.000 title claims abstract description 33
- 239000011159 matrix material Substances 0.000 claims abstract description 45
- 238000012549 training Methods 0.000 claims abstract description 30
- 238000000034 method Methods 0.000 claims abstract description 26
- 238000000605 extraction Methods 0.000 claims abstract description 23
- 230000007246 mechanism Effects 0.000 claims abstract description 13
- 238000011084 recovery Methods 0.000 claims abstract description 5
- 238000011176 pooling Methods 0.000 claims description 27
- 230000008569 process Effects 0.000 claims description 14
- 238000010586 diagram Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 3
- 238000002474 experimental method Methods 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000007547 defect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000000052 comparative effect Effects 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0021—Image watermarking
- G06T1/005—Robust watermarking, e.g. average attack or collusion attack resistant
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
本发明公开了一种基于深度注意自编码器的零水印构造方法,包括水印构造和水印提取;水印构造:构造零水印M,将零水印M在知识产权信息数据库进行注册,使水印信息得到保存;水印提取包括:获得待测图像特征:将待检测载体图片将待检测载体图片作为自编码器输入,编码器输出待检测载体图片的特征矩阵B′;获取二值矩阵:利用矩阵B′的每个元素的值B′x,y与矩阵B′的均值T′的大小关系构造二值矩阵C′;恢复水印:将矩阵C′与零水印M进行异或运算得到恢复的水印图像W′。本发明利用卷积自编码器和注意力机制来提取图像的特征,提取的特征更稳定和具有代表性,本发明采用了对抗训练,这保证了模型的鲁棒性,使得该发明的水印算法能够抵抗大部分攻击。
Description
技术领域
本发明涉及零水印构造技术领域,具体涉及一种基于深度注意自编码器的零水印构造方法。
背景技术
为了保护数字信息的安全问题以及版权问题,传统数字水印技术将水印信息嵌入到载体图像中来保护数字图像的版权,然而传统数字水印算法存在算法透明性和鲁棒性之间矛盾的问题:透明性意味着需要嵌入较弱的水印信号;而更强的水印信号则可以提高算法的鲁棒性。为了解决这个问题,研究者提出了零水印的概念,零水印的思想是利用原始载体图像的内部特征构造水印,而不需要修改载体图像的信息,这保证了原始载体图像的完整性。
传统的零水印算法中,如何提取图片的整体特征需要人工进行相关算法的设计,比如使用小波变换或者奇异值分解等,前期需要投入的时间会很多,而且特征提取的方法很依赖于相关的数学理论,算法设计者需要综合考虑所使用的理论方法存在的缺陷和相关应用场景,才能更好地设计出一个零水印方案。此外,结合几何方法的方案存在着相关缺陷,比如奇异值分解会导致虚警性问题。几何方法提取水印是用相关数学理论对矩阵进行特征的表达,提取的是纯几何特征,对于图片所表达的生物信息,可能没有或者很少地能够得到表达,这样导致传统的方法人工参与量较大,且提取的为几何特征。而目前结合神经网络的零水印算法是利用卷积神经网络进行图片特征提取,然而该算法也存在相关不足,对于CNN来说,图像中的权值都是一样的,此外,图像中可能存在的干扰会影响卷积神经网络的分类结果,也会导致卷积神经网络特征提取受到影响,这也可能导致该类算法无法对大多数攻击起到很好的抵抗作用。
综上,行业内急需研发一种能稳定提取图像特征、保障零水印算法的鲁棒性的零水印构造方法。
发明内容
本发明的目的是为了克服以上现有技术存在的不足,提供了一种能稳定提取图像特征、保障零水印算法的鲁棒性的基于深度注意自编码器的零水印构造方法。
本发明的目的通过以下的技术方案实现:
一种基于深度注意自编码器的零水印构造方法,包括:水印构造和水印提取;水印构造:构造零水印M,将零水印M在知识产权信息数据库进行注册,使水印信息得到保存;水印提取包括:获得待测图像特征:将待检测载体图片将待检测载体图片作为自编码器输入,编码器输出待检测载体图片的特征矩阵B′;获取二值矩阵:利用矩阵B′的每个元素的值B′x,y与矩阵B′的均值 T′的大小关系构造二值矩阵C′;恢复水印:将矩阵C′与零水印M进行异或运算得到恢复的水印图像W′。
优选地,水印构造包括:提取图像特征:将宿主图片输入已训练好的基于注意力机制的卷积自编码,卷积自编码输出特征图B,特征图B为待特征提取的图像的特征;获取二值矩阵:利用特征图B的每个元素的值Bx,y与特征图B 的均值T的大小关系构造二值矩阵C;构造零水印:将矩阵C与水印图像矩阵W 进行异或运算得到零水印M。
优选地,构造二值矩阵C′为:
优选地,构造二值矩阵C为:
优选地,构造零水印M的公式为:M=XOR(C,W),其中XOR为异或运算。
优选地,恢复水印图像W′的公式为:W′=XOR(C′,M),其中XOR为异或运算。
优选地,基于注意力机制的卷积自编码包括依次连接的卷积核大小为(3,3) 的第一卷积层、注意力模块、卷积池化层M1、卷积池化层M2,第四卷积层、第五卷积层和第六卷积层;其中,卷积池化层M1、卷积池化层M2均包括一个包含卷积核大小为(3,3)的卷积层和一个窗口大小为(2,2)的最大池化层,第一卷积层、注意力模块、卷积池化层M1、卷积池化层M2为编码器,第四卷积层、第五卷积层和第六卷积层为解码器。
优选地,基于注意力机制的卷积自编码的训练包括:在训练集D的数据x 中添加扰动Δx,在每个样本都构造出x+Δx扰动样本后,与数据x一起输入到第一卷积层进行初步特征提取,再将经过注意力模块处理后所得的特征图输入到编码器的其他部分进行编码,编码后所得的特征再输入到解码器中进行解码,最终得到重构后的输出。
优选地,训练的损失函数为L(x,y,θ),训练过程是输入扰动为最大化过程,调整参数为最小化过程,迭代次数为100次,训练步长为0.001。
本发明相对于现有技术具有如下优点:
本发明利用神经网络来提取图片特征,算法设计者只需要对神经网络进行设计和训练,神经网络会自己学习图片的特征,这对比与传统方法提取的几何特征更加能够表达原始图片特征。此外,使用卷积神经网络来搭建自编码器深度学习网络结构,并且在网络中加入了注意力模块来模拟人眼关注图像的主要特征,这样提取的特征更能表达图片的信息,此外,在训练过程中,借鉴了对抗训练的思想采用加噪数据来训练的深度网络,进一步提高了算法的鲁棒性和抗攻击能力。
附图说明
构成本申请的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明的基于深度注意自编码器的零水印构造方法的流程示意图。
图2为本发明的特征图。
图3为本发明的基于深度注意自编码器的水印提取的流程示意图。
图4为本发明的基于深度注意自编码器的网络架构图。
图5为本发明的网络训练的损失值变化图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
本发明的基于深度注意自编码器的零水印构造方法分为零水印的构造和水印的提取两部分。水印构造包括三个步骤,分别是提取图像特征、获取二值矩阵、构造零水印。水印提取包括三个步骤,分别是获取待测图像特征、获取二值矩阵、恢复水印,具体如下:
参见图1-5、一种基于深度注意自编码器的零水印构造方法,包括:水印构造和水印提取;水印构造:构造零水印M,将零水印M在知识产权信息数据库进行注册,使水印信息得到保存;具体地,参见图1,水印构造包括:
(1)提取图像特征:将宿主图片输入已训练好的基于注意力机制的卷积自编码,卷积自编码输出特征图B,特征图B为待特征提取的图像的特征;当基于注意力机制的卷积自编码器训练好后,该网络便能够提取图像的稳定特征,利用编码器的输出作为图像的特征,将一张需要提取特征的图输入到编码器,从网络架构图中可以看出,编码器的输出大小为(16,56,56),也就是 16张大小为(56,56)的特征图,再将这16张特征图拼接成大小为(224,224)的特征图B,并将该特征图视为输入图片的特征,如图2。
(2)获取二值矩阵:利用特征图B的每个元素的值Bx,y与特征图B的均值T 的大小关系构造二值矩阵C;构造二值矩阵C的公式为:
(3)构造零水印:将矩阵C与水印图像矩阵W进行异或运算得到零水印M。其中,水印是自己的版权认证的图片,相当于是一个签名。构造零水印M的公式为:M=XOR(C,W),其中XOR为异或运算。
参见图3,水印提取包括:
(1)获得待测图像特征:将待检测载体图片将待检测载体图片作为自编码器输入,编码器输出待检测载体图片的特征矩阵B′;
(2)获取二值矩阵:利用矩阵B′的每个元素的值B′x,y与矩阵B′的均值T′的大小关系构造二值矩阵C′;构造二值矩阵C′的公式为:
恢复水印:将矩阵C′与零水印M进行异或运算得到恢复的水印图像W′。恢复水印图像W′的公式为:W′=XOR(C′,M),其中XOR为异或运算。
本实验的目标是设计一个能够提取稳健的图像特征的网络架构,这也意味着设计的网络需要具备抵抗噪声干扰的能力,该网络架构是基于自编码器提出的。自编码器具有重构数据的能力,能够很好地提取数据的特征,此外,相对于传统的图像特征提取的方法,卷积神经网络可以更好地提取图像的特征,所以本实验用卷积层和池化层代替了传统自编码器的全连接层,而加了干扰的图片会影响卷积神经网络的特征提取,再加上卷积神经网络也无法聚焦在图片的关键特征上,所以需要让卷积自编码器能够将注意力更多地关注于关键特征。因此,在卷积自编码的基础上加入注意力机制,这可以让网络过多关注图片的关键特征,而忽视图片上存在的类似于噪声的无关特征。
在本实施例,基于注意力机制的卷积自编码的网络架构如图4所示,包括依次连接的卷积核大小为(3,3)的第一卷积层、注意力模块、卷积池化层M1、卷积池化层M2,第四卷积层、第五卷积层和第六卷积层;其中,卷积池化层M1、卷积池化层M2均包括一个包含卷积核大小为(3,3)的卷积层和一个窗口大小为 (2,2)的最大池化层,第一卷积层、注意力模块、卷积池化层M1、卷积池化层M2为编码器,第四卷积层、第五卷积层和第六卷积层为解码器。
将大小为(N,C,H,W)的数据输入到编码器中,首先是经过一个包含卷积核大小为(3,3)的第一卷积层,紧接着将其输入到注意力模块中,输出具有显著特征的掩膜图像,大小为(N,32,112,112),紧接着再经过卷积池化层M1、卷积池化层M2后变为(N,16,56,56)的张量T2,卷积池化层M1、卷积池化层M2均包括一个包含卷积核大小为(3,3)的卷积层和一个窗口大小为(2,2)的最大池化层。然后将张量T2输入到解码器,即张量T2先采用最近邻算法进行上采样,然后经过卷积核大小为(3,3)的第四卷积层得到大小为(N,16,112,112)的张量T3,再采用最近邻算法进行上采样,在经过卷积核大小为(3,3)的第五卷积层得到大小为(N,16,224,224)的张量T4,最后经过一层卷积核大小为(3,3)的第六卷积层实现数据的复原。
为了提高网络模型的鲁棒性,在训练网络的时候借鉴了对抗训练的思想,目标是使用随机初始化的权重来训练一个具有鲁棒性的网络模型,实验中添加扰动权重值在0-1之间随机选取,训练集由原始数据集和添加扰动的数据集组成,并且随着迭代次数的增加,扰动数据集数量也会随之增加。
网络训练的最终目的是使输入无限接近于输出,详细的训练过程如下:考虑训练集合D上的数据x,y为模型的输出,网络的损失函数为L(x,y,θ),本实验使用的是交叉熵函数,θ为网络模型的参数,Δx为扰动。在训练的最开始,选取epoch(eopch为迭代的第epoch次)个小批次(大小取32),往选择的数据x中添加扰动Δx,Δx的目标是使得L(x+Δx,y,θ)越大,也就是说该扰动尽可能让神经网络重构后的数据与训练集数据差别越大越好。在每个样本都构造出x+Δx扰动样本后,与原始样本(数据x,没有经过处理的原来的数据)一起将输入到自编码器里面进行训练:首先是经过第一卷积层进行初步特征提取,再将经过注意力处理后所得的特征图输入到编码器编码,编码后所得的特征再输入到解码器中进行解码,最终得到重构后的输出。整个过程是扰动样本和原始样本混合训练的过程,训练的目标就是利用梯度下降法来找到能够最小化网络输出和输入差别E(x,y)~D[L(x,y,θ)]的合适参数。在不断的迭代过程中,不断地优化参数,整个优化过程中是最大化和最小化交替执行,详细公式如下:
其中Ω为扰动空间。
这类似于GAN,然而也不同于GAN,该训练过程是输入扰动为最大化过程,调整参数为最小化过程。该模型是在ImageNet数据集上进行训练,迭代次数为100次,训练步长为0.001,该网络训练的损失值变化如图5所示。
为了说明提出的模型的有效性,我们做了几组对比实验分别是:对抗训练与不进行对抗训练的对比,减少一半训练集的对比,添加注意力机制与不添加注意力机制的对比,实验所得的结果对应于表1中的NC1、NC2和NC3。
表1对比实验结果表
从实验结果来看,不加注意力机制和不进行对抗训练的模型在抵抗攻击的时候并没本论文提出的模型表现得好,这也体现出本实验提出的模型的有效性,此外,减半数据集后的实验结果相较于完整数据集的结果,NC值相差在0.01以内,这也从说明了本方案在一定程度上减少数据集的训练,也可以得到相对客观的实验结果。
上述具体实施方式为本发明的优选实施例,并不能对本发明进行限定,其他的任何未背离本发明的技术方案而所做的改变或其它等效的置换方式,都包含在本发明的保护范围之内。
Claims (9)
1.一种基于深度注意自编码器的零水印构造方法,其特征在于,包括:水印构造和水印提取;
水印构造:构造零水印M,将零水印M在知识产权信息数据库进行注册,使水印信息得到保存;
水印提取包括:
获得待测图像特征:将待检测载体图片将待检测载体图片作为自编码器输入,编码器输出待检测载体图片的特征矩阵B′;
获取二值矩阵:利用矩阵B′的每个元素的值B′x,y与矩阵B′的均值T′的大小关系构造二值矩阵C′;
恢复水印:将矩阵C′与零水印M进行异或运算得到恢复的水印图像W′。
2.根据权利要求1所述的基于深度注意自编码器的零水印构造方法,其特征在于,水印构造包括:
提取图像特征:将宿主图片输入已训练好的基于注意力机制的卷积自编码,卷积自编码输出特征图B,特征图B为待特征提取的图像的特征;
获取二值矩阵:利用特征图B的每个元素的值Bx,y与特征图B的均值T的大小关系构造二值矩阵C;
构造零水印:将矩阵C与水印图像矩阵W进行异或运算得到零水印M。
5.根据权利要求1所述的基于深度注意自编码器的零水印构造方法,其特征在于,构造零水印M的公式为:M=XOR(C,W),其中XOR为异或运算。
6.根据权利要求1所述的基于深度注意自编码器的零水印构造方法,其特征在于,恢复水印图像W′的公式为:W′=XOR(C′,M),其中XOR为异或运算。
7.根据权利要求1所述的基于深度注意自编码器的零水印构造方法,其特征在于,基于注意力机制的卷积自编码包括依次连接的卷积核大小为(3,3)的第一卷积层、注意力模块、卷积池化层M1、卷积池化层M2,第四卷积层、第五卷积层和第六卷积层;
其中,卷积池化层M1、卷积池化层M2均包括一个包含卷积核大小为(3,3)的卷积层和一个窗口大小为(2,2)的最大池化层,
第一卷积层、注意力模块、卷积池化层M1、卷积池化层M2为编码器,第四卷积层、第五卷积层和第六卷积层为解码器。
8.根据权利要求7所述的基于深度注意自编码器的零水印构造方法,其特征在于,基于注意力机制的卷积自编码的训练包括:在训练集D的数据x中添加扰动Δx,在每个样本都构造出x+Δx扰动样本后,与数据x一起输入到第一卷积层进行初步特征提取,再将经过注意力模块处理后所得的特征图输入到编码器的其他部分进行编码,编码后所得的特征再输入到解码器中进行解码,最终得到重构后的输出。
9.根据权利要求8所述的基于深度注意自编码器的零水印构造方法,其特征在于,训练的损失函数为L(x,y,θ),训练过程是输入扰动为最大化过程,调整参数为最小化过程,迭代次数为100次,训练步长为0.001。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110734868.4A CN113781284A (zh) | 2021-06-30 | 2021-06-30 | 一种基于深度注意自编码器的零水印构造方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110734868.4A CN113781284A (zh) | 2021-06-30 | 2021-06-30 | 一种基于深度注意自编码器的零水印构造方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113781284A true CN113781284A (zh) | 2021-12-10 |
Family
ID=78836049
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110734868.4A Pending CN113781284A (zh) | 2021-06-30 | 2021-06-30 | 一种基于深度注意自编码器的零水印构造方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113781284A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114663460A (zh) * | 2022-02-28 | 2022-06-24 | 华南农业大学 | 基于双流驱动编码器和特征记忆模块的视频分割方法及装置 |
CN115966029A (zh) * | 2023-03-09 | 2023-04-14 | 珠海金智维信息科技有限公司 | 一种基于注意力机制的离线签名认证方法及系统 |
CN117036145A (zh) * | 2023-10-07 | 2023-11-10 | 江西财经大学 | 元宇宙光场图像鲁棒零水印方法、系统、设备及存储介质 |
CN117255232A (zh) * | 2023-11-14 | 2023-12-19 | 南京信息工程大学 | 基于自注意力机制的dwt域鲁棒视频水印方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102354389A (zh) * | 2011-09-23 | 2012-02-15 | 河海大学 | 基于视觉显著性的图像零水印算法及图像版权认证方法 |
CN107507122A (zh) * | 2017-08-22 | 2017-12-22 | 吉林大学 | 基于nsct和sift的立体图像零水印方法 |
CN111080629A (zh) * | 2019-12-20 | 2020-04-28 | 河北工业大学 | 一种图像拼接篡改的检测方法 |
CN112733725A (zh) * | 2021-01-12 | 2021-04-30 | 西安电子科技大学 | 基于多级循环卷积自编码网络的高光谱图像变化检测方法 |
-
2021
- 2021-06-30 CN CN202110734868.4A patent/CN113781284A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102354389A (zh) * | 2011-09-23 | 2012-02-15 | 河海大学 | 基于视觉显著性的图像零水印算法及图像版权认证方法 |
CN107507122A (zh) * | 2017-08-22 | 2017-12-22 | 吉林大学 | 基于nsct和sift的立体图像零水印方法 |
CN111080629A (zh) * | 2019-12-20 | 2020-04-28 | 河北工业大学 | 一种图像拼接篡改的检测方法 |
CN112733725A (zh) * | 2021-01-12 | 2021-04-30 | 西安电子科技大学 | 基于多级循环卷积自编码网络的高光谱图像变化检测方法 |
Non-Patent Citations (2)
Title |
---|
SANGHYUN WOO 等: "CBAM: Convolutional Block Attention Module", ARXIV:1807.06521V2, 18 July 2018 (2018-07-18), pages 1 - 17 * |
郝世博: "针对彩色图像的新型零水印算法", 计算机应用与软件, vol. 30, no. 6, 30 June 2013 (2013-06-30), pages 298 - 301 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114663460A (zh) * | 2022-02-28 | 2022-06-24 | 华南农业大学 | 基于双流驱动编码器和特征记忆模块的视频分割方法及装置 |
CN114663460B (zh) * | 2022-02-28 | 2024-05-10 | 华南农业大学 | 基于双流驱动编码器和特征记忆模块的视频分割方法及装置 |
CN115966029A (zh) * | 2023-03-09 | 2023-04-14 | 珠海金智维信息科技有限公司 | 一种基于注意力机制的离线签名认证方法及系统 |
CN115966029B (zh) * | 2023-03-09 | 2023-11-07 | 珠海金智维信息科技有限公司 | 一种基于注意力机制的离线签名认证方法及系统 |
CN117036145A (zh) * | 2023-10-07 | 2023-11-10 | 江西财经大学 | 元宇宙光场图像鲁棒零水印方法、系统、设备及存储介质 |
CN117036145B (zh) * | 2023-10-07 | 2024-01-09 | 江西财经大学 | 元宇宙光场图像鲁棒零水印方法、系统、设备及存储介质 |
CN117255232A (zh) * | 2023-11-14 | 2023-12-19 | 南京信息工程大学 | 基于自注意力机制的dwt域鲁棒视频水印方法及系统 |
CN117255232B (zh) * | 2023-11-14 | 2024-01-26 | 南京信息工程大学 | 基于自注意力机制的dwt域鲁棒视频水印方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113781284A (zh) | 一种基于深度注意自编码器的零水印构造方法 | |
Zeng et al. | Large-scale JPEG image steganalysis using hybrid deep-learning framework | |
CN111598761B (zh) | 一种基于图像降噪的抗打印拍摄图像数字水印方法 | |
CN113222800B (zh) | 一种基于深度学习的鲁棒图像水印嵌入与提取方法及系统 | |
Zhang et al. | Robust invisible video watermarking with attention | |
CN111640444B (zh) | 基于cnn的自适应音频隐写方法和秘密信息提取方法 | |
Ubhi et al. | Neural style transfer for image within images and conditional GANs for destylization | |
CN110738605A (zh) | 基于迁移学习的图像去噪方法、系统、设备及介质 | |
CN102156955B (zh) | 基于直方图邻域的鲁棒可逆水印嵌入与提取方法 | |
CN115131188A (zh) | 一种基于生成对抗网络的鲁棒图像水印方法 | |
CN114549273A (zh) | 基于深度神经网络的自适应鲁棒水印嵌入方法及系统 | |
Huang et al. | Blind watermarking scheme based on neural network | |
Eid et al. | Digital image steganalysis: current methodologies and future challenges | |
CN115115500A (zh) | 一种结合水下图像增强的水印嵌入方法 | |
Zhao et al. | Detecting deepfake video by learning two-level features with two-stream convolutional neural network | |
Hamamoto et al. | Image watermarking technique using embedder and extractor neural networks | |
CN116091288A (zh) | 一种基于扩散模型的图像隐写方法 | |
Zhu et al. | Generative high-capacity image hiding based on residual CNN in wavelet domain | |
Liao et al. | GIFMarking: The robust watermarking for animated GIF based deep learning | |
Mehrish et al. | Joint spatial and discrete cosine transform domain-based counter forensics for adaptive contrast enhancement | |
Jamali et al. | Robust watermarking using diffusion of logo into auto-encoder feature maps | |
CN114494387A (zh) | 一种生成数据集网络模型及雾图生成方法 | |
CN113139618A (zh) | 一种基于集成防御的鲁棒性增强的分类方法及装置 | |
Wei et al. | Auto-generating neural networks with reinforcement learning for multi-purpose image forensics | |
CN116029887A (zh) | 一种基于小波神经网络的图像大容量鲁棒水印方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |