CN113781284A - 一种基于深度注意自编码器的零水印构造方法 - Google Patents

一种基于深度注意自编码器的零水印构造方法 Download PDF

Info

Publication number
CN113781284A
CN113781284A CN202110734868.4A CN202110734868A CN113781284A CN 113781284 A CN113781284 A CN 113781284A CN 202110734868 A CN202110734868 A CN 202110734868A CN 113781284 A CN113781284 A CN 113781284A
Authority
CN
China
Prior art keywords
watermark
encoder
self
zero
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110734868.4A
Other languages
English (en)
Inventor
李西明
蔡河鑫
陈志浩
黄永鼎
郭玉彬
吕红英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China Agricultural University
Original Assignee
South China Agricultural University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China Agricultural University filed Critical South China Agricultural University
Priority to CN202110734868.4A priority Critical patent/CN113781284A/zh
Publication of CN113781284A publication Critical patent/CN113781284A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • G06T1/005Robust watermarking, e.g. average attack or collusion attack resistant
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

本发明公开了一种基于深度注意自编码器的零水印构造方法,包括水印构造和水印提取;水印构造:构造零水印M,将零水印M在知识产权信息数据库进行注册,使水印信息得到保存;水印提取包括:获得待测图像特征:将待检测载体图片将待检测载体图片作为自编码器输入,编码器输出待检测载体图片的特征矩阵B′;获取二值矩阵:利用矩阵B′的每个元素的值B′x,y与矩阵B′的均值T′的大小关系构造二值矩阵C′;恢复水印:将矩阵C′与零水印M进行异或运算得到恢复的水印图像W′。本发明利用卷积自编码器和注意力机制来提取图像的特征,提取的特征更稳定和具有代表性,本发明采用了对抗训练,这保证了模型的鲁棒性,使得该发明的水印算法能够抵抗大部分攻击。

Description

一种基于深度注意自编码器的零水印构造方法
技术领域
本发明涉及零水印构造技术领域,具体涉及一种基于深度注意自编码器的零水印构造方法。
背景技术
为了保护数字信息的安全问题以及版权问题,传统数字水印技术将水印信息嵌入到载体图像中来保护数字图像的版权,然而传统数字水印算法存在算法透明性和鲁棒性之间矛盾的问题:透明性意味着需要嵌入较弱的水印信号;而更强的水印信号则可以提高算法的鲁棒性。为了解决这个问题,研究者提出了零水印的概念,零水印的思想是利用原始载体图像的内部特征构造水印,而不需要修改载体图像的信息,这保证了原始载体图像的完整性。
传统的零水印算法中,如何提取图片的整体特征需要人工进行相关算法的设计,比如使用小波变换或者奇异值分解等,前期需要投入的时间会很多,而且特征提取的方法很依赖于相关的数学理论,算法设计者需要综合考虑所使用的理论方法存在的缺陷和相关应用场景,才能更好地设计出一个零水印方案。此外,结合几何方法的方案存在着相关缺陷,比如奇异值分解会导致虚警性问题。几何方法提取水印是用相关数学理论对矩阵进行特征的表达,提取的是纯几何特征,对于图片所表达的生物信息,可能没有或者很少地能够得到表达,这样导致传统的方法人工参与量较大,且提取的为几何特征。而目前结合神经网络的零水印算法是利用卷积神经网络进行图片特征提取,然而该算法也存在相关不足,对于CNN来说,图像中的权值都是一样的,此外,图像中可能存在的干扰会影响卷积神经网络的分类结果,也会导致卷积神经网络特征提取受到影响,这也可能导致该类算法无法对大多数攻击起到很好的抵抗作用。
综上,行业内急需研发一种能稳定提取图像特征、保障零水印算法的鲁棒性的零水印构造方法。
发明内容
本发明的目的是为了克服以上现有技术存在的不足,提供了一种能稳定提取图像特征、保障零水印算法的鲁棒性的基于深度注意自编码器的零水印构造方法。
本发明的目的通过以下的技术方案实现:
一种基于深度注意自编码器的零水印构造方法,包括:水印构造和水印提取;水印构造:构造零水印M,将零水印M在知识产权信息数据库进行注册,使水印信息得到保存;水印提取包括:获得待测图像特征:将待检测载体图片将待检测载体图片作为自编码器输入,编码器输出待检测载体图片的特征矩阵B′;获取二值矩阵:利用矩阵B′的每个元素的值B′x,y与矩阵B′的均值 T′的大小关系构造二值矩阵C′;恢复水印:将矩阵C′与零水印M进行异或运算得到恢复的水印图像W′。
优选地,水印构造包括:提取图像特征:将宿主图片输入已训练好的基于注意力机制的卷积自编码,卷积自编码输出特征图B,特征图B为待特征提取的图像的特征;获取二值矩阵:利用特征图B的每个元素的值Bx,y与特征图B 的均值T的大小关系构造二值矩阵C;构造零水印:将矩阵C与水印图像矩阵W 进行异或运算得到零水印M。
优选地,构造二值矩阵C′为:
Figure RE-GDA0003357787830000031
优选地,构造二值矩阵C为:
Figure RE-GDA0003357787830000032
优选地,构造零水印M的公式为:M=XOR(C,W),其中XOR为异或运算。
优选地,恢复水印图像W′的公式为:W′=XOR(C′,M),其中XOR为异或运算。
优选地,基于注意力机制的卷积自编码包括依次连接的卷积核大小为(3,3) 的第一卷积层、注意力模块、卷积池化层M1、卷积池化层M2,第四卷积层、第五卷积层和第六卷积层;其中,卷积池化层M1、卷积池化层M2均包括一个包含卷积核大小为(3,3)的卷积层和一个窗口大小为(2,2)的最大池化层,第一卷积层、注意力模块、卷积池化层M1、卷积池化层M2为编码器,第四卷积层、第五卷积层和第六卷积层为解码器。
优选地,基于注意力机制的卷积自编码的训练包括:在训练集D的数据x 中添加扰动Δx,在每个样本都构造出x+Δx扰动样本后,与数据x一起输入到第一卷积层进行初步特征提取,再将经过注意力模块处理后所得的特征图输入到编码器的其他部分进行编码,编码后所得的特征再输入到解码器中进行解码,最终得到重构后的输出。
优选地,训练的损失函数为L(x,y,θ),训练过程是输入扰动为最大化过程,调整参数为最小化过程,迭代次数为100次,训练步长为0.001。
本发明相对于现有技术具有如下优点:
本发明利用神经网络来提取图片特征,算法设计者只需要对神经网络进行设计和训练,神经网络会自己学习图片的特征,这对比与传统方法提取的几何特征更加能够表达原始图片特征。此外,使用卷积神经网络来搭建自编码器深度学习网络结构,并且在网络中加入了注意力模块来模拟人眼关注图像的主要特征,这样提取的特征更能表达图片的信息,此外,在训练过程中,借鉴了对抗训练的思想采用加噪数据来训练的深度网络,进一步提高了算法的鲁棒性和抗攻击能力。
附图说明
构成本申请的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明的基于深度注意自编码器的零水印构造方法的流程示意图。
图2为本发明的特征图。
图3为本发明的基于深度注意自编码器的水印提取的流程示意图。
图4为本发明的基于深度注意自编码器的网络架构图。
图5为本发明的网络训练的损失值变化图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
本发明的基于深度注意自编码器的零水印构造方法分为零水印的构造和水印的提取两部分。水印构造包括三个步骤,分别是提取图像特征、获取二值矩阵、构造零水印。水印提取包括三个步骤,分别是获取待测图像特征、获取二值矩阵、恢复水印,具体如下:
参见图1-5、一种基于深度注意自编码器的零水印构造方法,包括:水印构造和水印提取;水印构造:构造零水印M,将零水印M在知识产权信息数据库进行注册,使水印信息得到保存;具体地,参见图1,水印构造包括:
(1)提取图像特征:将宿主图片输入已训练好的基于注意力机制的卷积自编码,卷积自编码输出特征图B,特征图B为待特征提取的图像的特征;当基于注意力机制的卷积自编码器训练好后,该网络便能够提取图像的稳定特征,利用编码器的输出作为图像的特征,将一张需要提取特征的图输入到编码器,从网络架构图中可以看出,编码器的输出大小为(16,56,56),也就是 16张大小为(56,56)的特征图,再将这16张特征图拼接成大小为(224,224)的特征图B,并将该特征图视为输入图片的特征,如图2。
(2)获取二值矩阵:利用特征图B的每个元素的值Bx,y与特征图B的均值T 的大小关系构造二值矩阵C;构造二值矩阵C的公式为:
Figure RE-GDA0003357787830000051
(3)构造零水印:将矩阵C与水印图像矩阵W进行异或运算得到零水印M。其中,水印是自己的版权认证的图片,相当于是一个签名。构造零水印M的公式为:M=XOR(C,W),其中XOR为异或运算。
参见图3,水印提取包括:
(1)获得待测图像特征:将待检测载体图片将待检测载体图片作为自编码器输入,编码器输出待检测载体图片的特征矩阵B′;
(2)获取二值矩阵:利用矩阵B′的每个元素的值B′x,y与矩阵B′的均值T′的大小关系构造二值矩阵C′;构造二值矩阵C′的公式为:
Figure RE-GDA0003357787830000052
恢复水印:将矩阵C′与零水印M进行异或运算得到恢复的水印图像W′。恢复水印图像W′的公式为:W′=XOR(C′,M),其中XOR为异或运算。
本实验的目标是设计一个能够提取稳健的图像特征的网络架构,这也意味着设计的网络需要具备抵抗噪声干扰的能力,该网络架构是基于自编码器提出的。自编码器具有重构数据的能力,能够很好地提取数据的特征,此外,相对于传统的图像特征提取的方法,卷积神经网络可以更好地提取图像的特征,所以本实验用卷积层和池化层代替了传统自编码器的全连接层,而加了干扰的图片会影响卷积神经网络的特征提取,再加上卷积神经网络也无法聚焦在图片的关键特征上,所以需要让卷积自编码器能够将注意力更多地关注于关键特征。因此,在卷积自编码的基础上加入注意力机制,这可以让网络过多关注图片的关键特征,而忽视图片上存在的类似于噪声的无关特征。
在本实施例,基于注意力机制的卷积自编码的网络架构如图4所示,包括依次连接的卷积核大小为(3,3)的第一卷积层、注意力模块、卷积池化层M1、卷积池化层M2,第四卷积层、第五卷积层和第六卷积层;其中,卷积池化层M1、卷积池化层M2均包括一个包含卷积核大小为(3,3)的卷积层和一个窗口大小为 (2,2)的最大池化层,第一卷积层、注意力模块、卷积池化层M1、卷积池化层M2为编码器,第四卷积层、第五卷积层和第六卷积层为解码器。
将大小为(N,C,H,W)的数据输入到编码器中,首先是经过一个包含卷积核大小为(3,3)的第一卷积层,紧接着将其输入到注意力模块中,输出具有显著特征的掩膜图像,大小为(N,32,112,112),紧接着再经过卷积池化层M1、卷积池化层M2后变为(N,16,56,56)的张量T2,卷积池化层M1、卷积池化层M2均包括一个包含卷积核大小为(3,3)的卷积层和一个窗口大小为(2,2)的最大池化层。然后将张量T2输入到解码器,即张量T2先采用最近邻算法进行上采样,然后经过卷积核大小为(3,3)的第四卷积层得到大小为(N,16,112,112)的张量T3,再采用最近邻算法进行上采样,在经过卷积核大小为(3,3)的第五卷积层得到大小为(N,16,224,224)的张量T4,最后经过一层卷积核大小为(3,3)的第六卷积层实现数据的复原。
为了提高网络模型的鲁棒性,在训练网络的时候借鉴了对抗训练的思想,目标是使用随机初始化的权重来训练一个具有鲁棒性的网络模型,实验中添加扰动权重值在0-1之间随机选取,训练集由原始数据集和添加扰动的数据集组成,并且随着迭代次数的增加,扰动数据集数量也会随之增加。
网络训练的最终目的是使输入无限接近于输出,详细的训练过程如下:考虑训练集合D上的数据x,y为模型的输出,网络的损失函数为L(x,y,θ),本实验使用的是交叉熵函数,θ为网络模型的参数,Δx为扰动。在训练的最开始,选取epoch(eopch为迭代的第epoch次)个小批次(大小取32),往选择的数据x中添加扰动Δx,Δx的目标是使得L(x+Δx,y,θ)越大,也就是说该扰动尽可能让神经网络重构后的数据与训练集数据差别越大越好。在每个样本都构造出x+Δx扰动样本后,与原始样本(数据x,没有经过处理的原来的数据)一起将输入到自编码器里面进行训练:首先是经过第一卷积层进行初步特征提取,再将经过注意力处理后所得的特征图输入到编码器编码,编码后所得的特征再输入到解码器中进行解码,最终得到重构后的输出。整个过程是扰动样本和原始样本混合训练的过程,训练的目标就是利用梯度下降法来找到能够最小化网络输出和输入差别E(x,y)~D[L(x,y,θ)]的合适参数。在不断的迭代过程中,不断地优化参数,整个优化过程中是最大化和最小化交替执行,详细公式如下:
Figure RE-GDA0003357787830000071
其中Ω为扰动空间。
这类似于GAN,然而也不同于GAN,该训练过程是输入扰动为最大化过程,调整参数为最小化过程。该模型是在ImageNet数据集上进行训练,迭代次数为100次,训练步长为0.001,该网络训练的损失值变化如图5所示。
为了说明提出的模型的有效性,我们做了几组对比实验分别是:对抗训练与不进行对抗训练的对比,减少一半训练集的对比,添加注意力机制与不添加注意力机制的对比,实验所得的结果对应于表1中的NC1、NC2和NC3。
表1对比实验结果表
Figure RE-GDA0003357787830000081
从实验结果来看,不加注意力机制和不进行对抗训练的模型在抵抗攻击的时候并没本论文提出的模型表现得好,这也体现出本实验提出的模型的有效性,此外,减半数据集后的实验结果相较于完整数据集的结果,NC值相差在0.01以内,这也从说明了本方案在一定程度上减少数据集的训练,也可以得到相对客观的实验结果。
上述具体实施方式为本发明的优选实施例,并不能对本发明进行限定,其他的任何未背离本发明的技术方案而所做的改变或其它等效的置换方式,都包含在本发明的保护范围之内。

Claims (9)

1.一种基于深度注意自编码器的零水印构造方法,其特征在于,包括:水印构造和水印提取;
水印构造:构造零水印M,将零水印M在知识产权信息数据库进行注册,使水印信息得到保存;
水印提取包括:
获得待测图像特征:将待检测载体图片将待检测载体图片作为自编码器输入,编码器输出待检测载体图片的特征矩阵B′;
获取二值矩阵:利用矩阵B′的每个元素的值B′x,y与矩阵B′的均值T′的大小关系构造二值矩阵C′;
恢复水印:将矩阵C′与零水印M进行异或运算得到恢复的水印图像W′。
2.根据权利要求1所述的基于深度注意自编码器的零水印构造方法,其特征在于,水印构造包括:
提取图像特征:将宿主图片输入已训练好的基于注意力机制的卷积自编码,卷积自编码输出特征图B,特征图B为待特征提取的图像的特征;
获取二值矩阵:利用特征图B的每个元素的值Bx,y与特征图B的均值T的大小关系构造二值矩阵C;
构造零水印:将矩阵C与水印图像矩阵W进行异或运算得到零水印M。
3.根据权利要求1所述的基于深度注意自编码器的零水印构造方法,其特征在于,构造二值矩阵C′为:
Figure FDA0003139960450000011
4.根据权利要求2所述的基于深度注意自编码器的零水印构造方法,其特征在于,构造二值矩阵C为:
Figure FDA0003139960450000012
5.根据权利要求1所述的基于深度注意自编码器的零水印构造方法,其特征在于,构造零水印M的公式为:M=XOR(C,W),其中XOR为异或运算。
6.根据权利要求1所述的基于深度注意自编码器的零水印构造方法,其特征在于,恢复水印图像W′的公式为:W′=XOR(C′,M),其中XOR为异或运算。
7.根据权利要求1所述的基于深度注意自编码器的零水印构造方法,其特征在于,基于注意力机制的卷积自编码包括依次连接的卷积核大小为(3,3)的第一卷积层、注意力模块、卷积池化层M1、卷积池化层M2,第四卷积层、第五卷积层和第六卷积层;
其中,卷积池化层M1、卷积池化层M2均包括一个包含卷积核大小为(3,3)的卷积层和一个窗口大小为(2,2)的最大池化层,
第一卷积层、注意力模块、卷积池化层M1、卷积池化层M2为编码器,第四卷积层、第五卷积层和第六卷积层为解码器。
8.根据权利要求7所述的基于深度注意自编码器的零水印构造方法,其特征在于,基于注意力机制的卷积自编码的训练包括:在训练集D的数据x中添加扰动Δx,在每个样本都构造出x+Δx扰动样本后,与数据x一起输入到第一卷积层进行初步特征提取,再将经过注意力模块处理后所得的特征图输入到编码器的其他部分进行编码,编码后所得的特征再输入到解码器中进行解码,最终得到重构后的输出。
9.根据权利要求8所述的基于深度注意自编码器的零水印构造方法,其特征在于,训练的损失函数为L(x,y,θ),训练过程是输入扰动为最大化过程,调整参数为最小化过程,迭代次数为100次,训练步长为0.001。
CN202110734868.4A 2021-06-30 2021-06-30 一种基于深度注意自编码器的零水印构造方法 Pending CN113781284A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110734868.4A CN113781284A (zh) 2021-06-30 2021-06-30 一种基于深度注意自编码器的零水印构造方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110734868.4A CN113781284A (zh) 2021-06-30 2021-06-30 一种基于深度注意自编码器的零水印构造方法

Publications (1)

Publication Number Publication Date
CN113781284A true CN113781284A (zh) 2021-12-10

Family

ID=78836049

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110734868.4A Pending CN113781284A (zh) 2021-06-30 2021-06-30 一种基于深度注意自编码器的零水印构造方法

Country Status (1)

Country Link
CN (1) CN113781284A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114663460A (zh) * 2022-02-28 2022-06-24 华南农业大学 基于双流驱动编码器和特征记忆模块的视频分割方法及装置
CN115966029A (zh) * 2023-03-09 2023-04-14 珠海金智维信息科技有限公司 一种基于注意力机制的离线签名认证方法及系统
CN117036145A (zh) * 2023-10-07 2023-11-10 江西财经大学 元宇宙光场图像鲁棒零水印方法、系统、设备及存储介质
CN117255232A (zh) * 2023-11-14 2023-12-19 南京信息工程大学 基于自注意力机制的dwt域鲁棒视频水印方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102354389A (zh) * 2011-09-23 2012-02-15 河海大学 基于视觉显著性的图像零水印算法及图像版权认证方法
CN107507122A (zh) * 2017-08-22 2017-12-22 吉林大学 基于nsct和sift的立体图像零水印方法
CN111080629A (zh) * 2019-12-20 2020-04-28 河北工业大学 一种图像拼接篡改的检测方法
CN112733725A (zh) * 2021-01-12 2021-04-30 西安电子科技大学 基于多级循环卷积自编码网络的高光谱图像变化检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102354389A (zh) * 2011-09-23 2012-02-15 河海大学 基于视觉显著性的图像零水印算法及图像版权认证方法
CN107507122A (zh) * 2017-08-22 2017-12-22 吉林大学 基于nsct和sift的立体图像零水印方法
CN111080629A (zh) * 2019-12-20 2020-04-28 河北工业大学 一种图像拼接篡改的检测方法
CN112733725A (zh) * 2021-01-12 2021-04-30 西安电子科技大学 基于多级循环卷积自编码网络的高光谱图像变化检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SANGHYUN WOO 等: "CBAM: Convolutional Block Attention Module", ARXIV:1807.06521V2, 18 July 2018 (2018-07-18), pages 1 - 17 *
郝世博: "针对彩色图像的新型零水印算法", 计算机应用与软件, vol. 30, no. 6, 30 June 2013 (2013-06-30), pages 298 - 301 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114663460A (zh) * 2022-02-28 2022-06-24 华南农业大学 基于双流驱动编码器和特征记忆模块的视频分割方法及装置
CN114663460B (zh) * 2022-02-28 2024-05-10 华南农业大学 基于双流驱动编码器和特征记忆模块的视频分割方法及装置
CN115966029A (zh) * 2023-03-09 2023-04-14 珠海金智维信息科技有限公司 一种基于注意力机制的离线签名认证方法及系统
CN115966029B (zh) * 2023-03-09 2023-11-07 珠海金智维信息科技有限公司 一种基于注意力机制的离线签名认证方法及系统
CN117036145A (zh) * 2023-10-07 2023-11-10 江西财经大学 元宇宙光场图像鲁棒零水印方法、系统、设备及存储介质
CN117036145B (zh) * 2023-10-07 2024-01-09 江西财经大学 元宇宙光场图像鲁棒零水印方法、系统、设备及存储介质
CN117255232A (zh) * 2023-11-14 2023-12-19 南京信息工程大学 基于自注意力机制的dwt域鲁棒视频水印方法及系统
CN117255232B (zh) * 2023-11-14 2024-01-26 南京信息工程大学 基于自注意力机制的dwt域鲁棒视频水印方法及系统

Similar Documents

Publication Publication Date Title
CN113781284A (zh) 一种基于深度注意自编码器的零水印构造方法
Zeng et al. Large-scale JPEG image steganalysis using hybrid deep-learning framework
CN111598761B (zh) 一种基于图像降噪的抗打印拍摄图像数字水印方法
CN113222800B (zh) 一种基于深度学习的鲁棒图像水印嵌入与提取方法及系统
Zhang et al. Robust invisible video watermarking with attention
CN111640444B (zh) 基于cnn的自适应音频隐写方法和秘密信息提取方法
Ubhi et al. Neural style transfer for image within images and conditional GANs for destylization
CN110738605A (zh) 基于迁移学习的图像去噪方法、系统、设备及介质
CN102156955B (zh) 基于直方图邻域的鲁棒可逆水印嵌入与提取方法
CN115131188A (zh) 一种基于生成对抗网络的鲁棒图像水印方法
CN114549273A (zh) 基于深度神经网络的自适应鲁棒水印嵌入方法及系统
Huang et al. Blind watermarking scheme based on neural network
Eid et al. Digital image steganalysis: current methodologies and future challenges
CN115115500A (zh) 一种结合水下图像增强的水印嵌入方法
Zhao et al. Detecting deepfake video by learning two-level features with two-stream convolutional neural network
Hamamoto et al. Image watermarking technique using embedder and extractor neural networks
CN116091288A (zh) 一种基于扩散模型的图像隐写方法
Zhu et al. Generative high-capacity image hiding based on residual CNN in wavelet domain
Liao et al. GIFMarking: The robust watermarking for animated GIF based deep learning
Mehrish et al. Joint spatial and discrete cosine transform domain-based counter forensics for adaptive contrast enhancement
Jamali et al. Robust watermarking using diffusion of logo into auto-encoder feature maps
CN114494387A (zh) 一种生成数据集网络模型及雾图生成方法
CN113139618A (zh) 一种基于集成防御的鲁棒性增强的分类方法及装置
Wei et al. Auto-generating neural networks with reinforcement learning for multi-purpose image forensics
CN116029887A (zh) 一种基于小波神经网络的图像大容量鲁棒水印方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination