CN110728629B - 一种用于对抗攻击的图像集增强方法 - Google Patents
一种用于对抗攻击的图像集增强方法 Download PDFInfo
- Publication number
- CN110728629B CN110728629B CN201910827184.1A CN201910827184A CN110728629B CN 110728629 B CN110728629 B CN 110728629B CN 201910827184 A CN201910827184 A CN 201910827184A CN 110728629 B CN110728629 B CN 110728629B
- Authority
- CN
- China
- Prior art keywords
- image
- network
- model
- training
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000006243 chemical reaction Methods 0.000 claims abstract description 16
- 230000009466 transformation Effects 0.000 claims abstract description 9
- 230000003042 antagnostic effect Effects 0.000 claims abstract description 8
- 238000005070 sampling Methods 0.000 claims abstract description 3
- 238000012549 training Methods 0.000 claims description 38
- 230000006870 function Effects 0.000 claims description 29
- 230000008569 process Effects 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 9
- 230000008485 antagonism Effects 0.000 claims description 7
- 239000013598 vector Substances 0.000 claims description 6
- 230000000694 effects Effects 0.000 claims description 5
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 230000003213 activating effect Effects 0.000 claims description 2
- 125000004122 cyclic group Chemical group 0.000 claims description 2
- 238000005315 distribution function Methods 0.000 claims description 2
- 238000000605 extraction Methods 0.000 claims description 2
- 230000002708 enhancing effect Effects 0.000 claims 1
- 238000004088 simulation Methods 0.000 claims 1
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012850 discrimination method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种用于对抗攻击的图像集增强方法,是将要转换的数字图像x输入训练好的D2P图像风格转换网络模型,得到对应的模拟拍摄图像GD2P(x);以模拟拍摄图像GD2P(x)为基础应用EOT方法对其几何变换进行采样,生成对不同角度与距离具有鲁棒性的对抗性噪声;将所述对抗性噪声添加到模拟拍摄图像GD2P(x),得到对抗样本图像x’。本发明训练好的模型能够将数字图像转换为具有拍摄图像风格的模拟拍摄图像,在此基础上添加基于EOT算法产生的对抗噪声制成的对抗样本,具有鲁棒性。
Description
技术领域
本发明涉及图像处理技术领域,特别是涉及一种用于对抗攻击的图像集增强方法。
背景技术
随着深度学习技术不断发展,基于神经网络的算法在图像语音的识别与分类等领域展示出了很好的性能,从而得到广泛的应用。同时,人们对于深层神经网络(DeepNeuralNetworks,DNN)的安全性与鲁棒性也越发关注。近年来研究者们发现,通过在图像上添加人为计算的微小扰动而得到的对抗样本可以轻而易举地使DNN分类网络的结果出错。并且,有学者已经证明对抗样本的攻击具有很强的迁移能力,也就是说针对某一特定模型攻击的对抗样本对其他不同模型的攻击仍然有效。
对抗攻击由于其作用的领域不同一般分为两种:数字攻击与物理攻击。数字攻击假设攻击者可以将数字图像直接输入DNN分类器,这也是对抗样本领域研究的开端。迄今为止,已经产生了很多有效并成熟的方法,如FGSM、JSMA、Deepfool、C&W等。然而,这种假设是一种理想条件,它没有考虑到攻击者对目标系统(例如,自动驾驶汽车,监视摄像机)拍照的控制是有限的。
因此,物理攻击研究物理世界中的对抗样本实例对DNN的攻击过程,这相对于数字攻击来说更加复杂。Kurakin等人证明了对抗性攻击的威胁也存在于物理世界中,其流程如图1所示:数字对抗图像被打印在纸上,经过相机拍照变换为物理对抗图像后送入神经网络分类器,仍有一大部分图像被分类错误。
Expectation over Transformation(EOT)算法是当下物理攻击研究的最新成果之一。通过在原始图像上应用数字变换来模拟旋转,缩放和透视等变化的影响,同时加入对抗性噪声,从而提高对抗样本实例在物理域的鲁棒性。但是,该算法完全基于数字图像的合成变换,没有考虑到样本在制成实例的过程中通过物理设备的转换引入的效应。这影响了最终对抗样本实例的鲁棒性。
发明内容
本发明的目的是针对现有技术中存在的技术缺陷,而提供一种用于对抗攻击的图像集增强方法,以增强EOT算法产生的对抗样本实例鲁棒性。
为实现本发明的目的所采用的技术方案是:
一种用于对抗攻击的图像集增强方法,包括步骤:
将要转换的数字图像x输入训练好的D2P图像风格转换网络模型,得到对应的模拟拍摄图像GD2P(x);
以模拟拍摄图像GD2P(x)为基础应用EOT方法对其几何变换进行采样,生成对不同角度与距离具有鲁棒性的对抗性噪声;
将所述对抗性噪声添加到模拟拍摄图像GD2P(x),得到对抗样本图像x’。
本发明通过训练生成对抗网络模型学习数字图像经过打印机、相机等物理设备后变为拍摄图像的过程,即学习D(数字域)到P(物理域)的映射D→P(D2P),训练好的模型能够将数字图像转换为具有拍摄图像风格的模拟拍摄图像,在此基础上添加基于EOT算法产生的对抗噪声制成对抗样本。
本发明通过此方式引入物理设备带来的转换,从而对EOT算法生成的对抗样本进行图像增强,提升其鲁棒性。
附图说明
图1所示为物理世界对抗样本实例对DNN分类网络攻击流程图;
图2所示为本发明提出的用于对抗攻击的图像集增强方法的流程图;
图3所示为本发明的D2P网络模型框架图;
图4所示为本发明的D2P网络模型循环过程示意图。
具体实施方式
以下结合附图和具体实施例对本发明作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明是通过获取数字图像集与物理图像集,构建转换模型的网络架构与损失函数。同时使用数字图像集与物理图像集对网络进行训练,经过测试无误后,得到符合要求的模型;然后将数字图像输入模型,经过模型处理后,输出对应的模拟拍摄图像,在此基础上添加EOT噪声,得到增强后的对抗样本,从而解决原算法中没有考虑物理设备产生的影响这一问题。
如图2-4所示,本发明用于对抗攻击的图像集增强方法,具体步骤如下:
步骤1:构建图像集。
原始数字图像样本d经过彩色打印机打印,并被相机拍照后转换为对应拍摄图像p。从图像集中随机抽取m副数字图像,经过打印拍照转换后构成拍摄图像集P(p∈P),或称为模拟图像集,全部用作生成网络训练。另取n副图像构成数字图像集D`(d∈D`),按比例分为生成网络的训练集与测试集。
如在图像集中取100张制作物理图像集,另取1200张构成数字图像集,将数字图像集以5:1的比例分为训练集与测试集。图片均设定为128×128分辨率3通道24bit彩色图像,以符合网络输入要求,图片格式包括但不限于.jpeg或.bmp格式。
步骤2:构建一对生成网络与一对判别网络。
生成网络为基于数字域的生成模型GD2P与基于物理域的生成模型GP2D,两个模型可以分别学习数字域的图像分布pdata(d)和物理域的数据分布pdata(p)。判别网络分别为CP与CD,用来分别判别生成模型GD2P与GP2D生成的图像是否属于其目标样本空间。生成网络与判别网络均为深度卷积神经网络。
本发明所提出的D2P图像风格转换模型基于生成对抗网络(GAN)框架实现。其中两个生成网络GD2P和与GP2D结构相同,生成器包含由两个步长为2的卷积块组成的编码层,由六个残差块组成的转换层,以及由两个反卷积层和一个卷积层组成的解码层。编码层的卷积块分别包含128和256个卷积层,每个卷积层的卷积核为3×3,步长为2;残差块均有两个卷积块,它们有256个卷积层,卷积核为3×3,步长为1;在解码层的反卷积层中分别有128和64个卷积层,卷积核为3×3,步长为2;最后一层卷积层卷积核数目为3,大小为3×3,步长为1。
判别网络CP与CD结构相同,均具有5个连续层的卷积层,卷积核大小为4×4,数量分别为64/128/256/512/1,前四层步长为2,最后一层步长为1。前四层卷积层用于提取图像特征,第五层卷积层基于高级特征判断图像真实性,经Sigmoid函数激活后产生1维输出鉴别结果。Sigmoid函数由如下公式定义:
输出函数方面,除判别网络输出卷积层使用sigmoid函数外,所有卷积层输出函数均使用线性整流函数。
步骤3:正向循环网络的框架搭建。
具体由4个步骤构成:
(1)从数字图像训练集D中任取样本d,通过卷积核特征提取的方式输入数字域到物理域的生成网络GD2P中。GD2P由编码器、转换器和解码器构成:首先通过卷积神经网络从输入数字图像d中提取特征,接下来通过组合图像的不相近特征,将图像在数字域中的特征向量转换为物理域中的特征向量,最后利用反卷积层完成从特征向量中还原出低级特征的工作,输出与d同尺寸的模拟拍摄图像ps。
(2)将ps输入与GD2P结构完全相同而功能相反的物理域到数字域的生成网络GP2D中,输出同尺寸正向循环图像dcyc。GP2D的功能为保证dcyc≈d,其中所采用的损失函数将在步骤5中详细说明。至此,完成了正向循环网络框架搭建。
(3)将第(1)步所得ps与任取自训练样本集P的p同时输入判别网络CP,用于判别模型的训练。判别网络本身也属于卷积网络,从图像中提取特征,再通过添加产生一维输出的卷积层来确定提取的特征是否属于特定类别。CP输出卷积层进行权重和偏置后通过激活函数,输出一个位于[0,1]区间的标量CP(ps),表示判别网络CP判断ps来自P(物理域)的概率。它的值反映了生成网络GD2P训练是否完善。若CP较小,说明判别网络CP判定GD2P生成的图像ps不符合目标分布P,训练不够完善;若CP≈0.5,则说明CP无法判定ps真假,网络训练完成。
该正向循环网络框架的损失函数为:
其中,E(*)表示分布函数的期望值。
步骤4:构建反向循环网络框架。
将p输入生成网络GP2D得到模拟数字图像ds,并将dS输入GD2P中生成反向循环图像pcyc。其中,将ds与d同时输入判别网络CD中得到一个位于[0,1]区间的标量CD(ds),表示判别网络CD判断ds来自数字域D的概率。判别方法同上述的判别网络CP,不再详细说明。
该反向循环网络框架的损失函数为:
步骤5:为防止单向网络学习中可能出现的损失无效化问题,需保证dcyc≈d,pcyc≈p,其中相对应的损失函数为:
其中,‖‖1代表1-范数。
步骤6:确定整体网络最终损失函数。
根据步骤3、4、5,得到整体过程对应的损失函数:
L(GD2P,GP2D,CD,CP)=λ1L1(GD2P,CP,D,P)+λ2L2(GP2D,CD,P,D)+λ3L3(GD2P,GP2D)
其中,λ1、λ2和λ3分别为L1、L2和L3的权重。
在损失函数方面,λ1与λ2为1,λ3可设置为15,保证生成器输出图像与源输入图像之间的结构相似性。
步骤7:对整体网络框架进行训练。
训练过程可用下式表示:
其中GD2P *表示生成网络GD2P最优解、GP2D *表示生成网络GP2D最优解。使用步骤1中构建的图像训练集对网络进行训练,其训练目标是获得令判别网络分类准确率最高的参数和具有对判别网络最强欺骗能力的生成网络参数。通过生成网络与判别网络交替梯度更新,使用最优化方法来训练整体网络框架。
在训练过程中,首先利用少量数据集对网络进行预训练,获得初始的D2P图像风格转换模型并评价其效果,继而使用完整的数据集对网络进行大规模迭代训练,判断框架的损失函数L(GD2P,GP2D,CD,CP)经过若干次交替迭代训练之后是否基本达到其最小值,若是则说明网络收敛,得到D2P图像风格转换模型,同时分析迭代次数、卷积核大小、学习率等超参数对训练模型结果的影响。
其中,整体网络训练过程方面,最优化方法可选择反向传播实现,训练周期为10,batchsize为8,迭代次数为6000次。将训练集输入网络中进行网络训练,观察损失函数是否可以收敛到最小值,如果不收敛,则改变网络中的学习率,卷积核个数的初始值后重新进行训练,直到损失函数收敛时停止训练。最后使用测试集进行测试,采用Inception-V3分类器进行对抗样本鲁棒性检测。
步骤8:网络测试。
利用步骤1中构建的图像测试集,对训练好的D2P模型进行测试,并记录模型准确率,选出效果最佳的模型作为最终网络模型。
步骤9:图像风格转换。
首先选取需要转换的数字图像x,然后将图像输入训练好的网络模型,得到对应的模拟拍摄图像GD2P(x)。
步骤10:生成对抗噪声。
以GD2P(x)为基础应用EOT方法对其几何变换进行采样,从而生成对不同角度与距离具有鲁棒性的对抗性噪声。
更具体地,EOT应用变换函数t以生成用于噪声优化的分布T,从而使扰动δ对于物理变化更加具有鲁棒性。目标函数的形式为:
其中,F为图像分类器,L(,)为计算输出F(t(GD2P(x)+δ))与目标标签y′之间距离的损失函数,c控制失真的正则化,‖‖p为Lp-范数。变换t可以是图像平移,旋转,缩放和光照变化等。
步骤11:获得具有拍摄图像特性的对抗图像x’。
将步骤10中所得对抗噪声添加到步骤9中生成的模拟拍摄图像GD2P(x),得到对抗样本图像x’。
本发明所提出的物理攻击算法图像增强方法,针对EOT算法产生的对抗样本忽略了物理设备带来的偏差这一缺点,引入生成对抗网络模型作为图像增强手段,学习数字域到物理域的映射,可以生成包含物理转换映射的对抗样本实例,有效提高算法产生的对抗样本实例的鲁棒性。
以上所述仅是本发明的优选实施方式,应当指出的是,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (5)
1.一种用于对抗攻击的图像集增强方法,其特征在于,包括步骤:
将要转换的数字图像x输入训练好的D2P图像风格转换网络模型,得到对应的模拟拍摄图像GD2P(x);
以模拟拍摄图像GD2P(x)为基础应用EOT方法对其几何变换进行采样,生成对不同角度与距离具有鲁棒性的对抗性噪声;
将所述对抗性噪声添加到模拟拍摄图像GD2P(x),得到对抗样本图像x’;
所述D2P图像风格转换网络模型的形成过程如下:
构建一对生成网络与一对判别网络;
其中,生成网络为基于数字域的生成模型GD2P与基于物理域的生成模型GP2D,分别学习数字域的图像分布pdata(d)和物理域的数据分布pdata(p),判别网络分别为CP与CD,用来分别判别生成模型GD2P与GP2D生成的图像是否属于其目标样本空间;生成网络与判别网络均为深度卷积神经网络;
依次搭建正向循环网络框架与反向循环网络框架;
其中,正向循环网络框架的搭建步骤如下:
从数字图像训练集D的样本d,通过卷积核特征提取的方式输入数字域到物理域的生成模型GD2P中,由卷积神经网络从样本d中提取特征,通过组合图像的不相近特征,将图像在数字域中的特征向量转换为物理域中的特征向量,最后利用反卷积层完成从特征向量中还原出低级特征,输出与样本d同尺寸的模拟拍摄图像ps;
将模拟拍摄图像ps输入与生成模型GD2P结构完全相同而功能相反的物理域到数字域的生成模型GP2D中,输出对应于模拟拍摄图像ps的同尺寸正向循环图像dcyc;
将模拟拍摄图像ps与模拟图像训练集P的样本p同时输入判别网络CP,以判别生成模型GD2P的训练;判别达到预定目标后,训练完成;
其中,反向循环网络框架的搭建步骤如下:
将模拟图像训练集P的样本p输入生成模型GP2D得到模拟数字图像ds,并将模拟数字图像ds输入生成模型GD2P中生成反向循环图像pcyc;
将模拟数字图像ds与样本d同时输入判别网络CD,判断模拟数字图像ds来自数字图像训练集D的概率;判别达到预定目标后,训练完成。
2.根据权利要求1所述用于对抗攻击的图像集增强方法,其特征在于,所述D2P图像风格转换网络模型的训练及测试集是由原始数字图像样本经过彩色打印机打印,并被相机拍照后转换为对应拍摄图像所形成。
4.根据权利要求1所述用于对抗攻击的图像集增强方法,其特征在于,所述判别网络CP与CD属于卷积网络,从图像中提取特征,再通过添加产生一维输出的卷积层来确定提取的特征是否属于特定类别,其中,CP输出卷积层进行权重和偏置后通过激活函数,输出一个位于[0,1]区间的标量CP(ps),表示判别网络CP判断ps来自模拟图像训练集P的概率,其值反映生成网络GD2P训练是否完善;若CP≈0.5,则说明CP无法判定ps真假,网络训练完成。
5.根据权利要求1所述用于对抗攻击的图像集增强方法,其特征在于,在训练过程中,首先利用少量数据集对网络进行预训练,获得初始的D2P图像风格转换模型并评价其效果,继而使用完整的数据集对网络进行大规模迭代训练,判断框架的损失函数L(GD2P,GP2D,CD,CP)经过若干次交替迭代训练之后是否基本达到其最小值,若是则说明网络收敛,得到D2P图像风格转换模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910827184.1A CN110728629B (zh) | 2019-09-03 | 2019-09-03 | 一种用于对抗攻击的图像集增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910827184.1A CN110728629B (zh) | 2019-09-03 | 2019-09-03 | 一种用于对抗攻击的图像集增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110728629A CN110728629A (zh) | 2020-01-24 |
CN110728629B true CN110728629B (zh) | 2023-05-23 |
Family
ID=69218882
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910827184.1A Active CN110728629B (zh) | 2019-09-03 | 2019-09-03 | 一种用于对抗攻击的图像集增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110728629B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111340214B (zh) * | 2020-02-21 | 2021-06-08 | 腾讯科技(深圳)有限公司 | 对抗攻击模型的训练方法及装置 |
CN111598761B (zh) * | 2020-04-17 | 2023-11-17 | 中山大学 | 一种基于图像降噪的抗打印拍摄图像数字水印方法 |
CN112116565B (zh) * | 2020-09-03 | 2023-12-05 | 深圳大学 | 篡改翻拍图像的对抗样本生成方法、设备及存储介质 |
CN112149608B (zh) * | 2020-10-09 | 2024-10-18 | 腾讯科技(深圳)有限公司 | 图像识别方法、装置和存储介质 |
CN113177599B (zh) * | 2021-05-10 | 2023-11-21 | 南京信息工程大学 | 一种基于gan的强化样本生成方法 |
CN113537494B (zh) * | 2021-07-23 | 2022-11-11 | 江南大学 | 一种基于黑盒场景的图像对抗样本生成方法 |
CN114359144A (zh) * | 2021-12-01 | 2022-04-15 | 阿里巴巴(中国)有限公司 | 图像检测方法和图像检测模型的获得方法 |
CN114241493B (zh) * | 2021-12-20 | 2023-04-07 | 深圳大学 | 扩增文档分析模型的训练数据的训练方法及训练装置 |
CN115239941B (zh) * | 2022-07-25 | 2023-04-28 | 北京瑞莱智慧科技有限公司 | 对抗图像生成方法、相关装置及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018028255A1 (zh) * | 2016-08-11 | 2018-02-15 | 深圳市未来媒体技术研究院 | 基于对抗网络的图像显著性检测方法 |
CN109636754A (zh) * | 2018-12-11 | 2019-04-16 | 山西大学 | 基于生成对抗网络的极低照度图像增强方法 |
CN110189288A (zh) * | 2018-02-21 | 2019-08-30 | 应用材料以色列公司 | 生成可用于半导体样本的检查的训练集的方法和其系统 |
-
2019
- 2019-09-03 CN CN201910827184.1A patent/CN110728629B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018028255A1 (zh) * | 2016-08-11 | 2018-02-15 | 深圳市未来媒体技术研究院 | 基于对抗网络的图像显著性检测方法 |
CN110189288A (zh) * | 2018-02-21 | 2019-08-30 | 应用材料以色列公司 | 生成可用于半导体样本的检查的训练集的方法和其系统 |
CN109636754A (zh) * | 2018-12-11 | 2019-04-16 | 山西大学 | 基于生成对抗网络的极低照度图像增强方法 |
Non-Patent Citations (1)
Title |
---|
周津 ; 姚素英 ; 徐江涛 ; 胡燕翔 ; .新型选择性复位CMOS图像传感器电路结构.吉林大学学报(工学版).2006,(第02期),89-93. * |
Also Published As
Publication number | Publication date |
---|---|
CN110728629A (zh) | 2020-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110728629B (zh) | 一种用于对抗攻击的图像集增强方法 | |
Li et al. | LGM-Net: Learning to generate matching networks for few-shot learning | |
Tan et al. | Stacked convolutional auto-encoders for steganalysis of digital images | |
Yan et al. | A data-driven soft sensor modeling method based on deep learning and its application | |
Qian et al. | Learning and transferring representations for image steganalysis using convolutional neural network | |
Barbalau et al. | Black-box ripper: Copying black-box models using generative evolutionary algorithms | |
CN113538202B (zh) | 一种基于生成式隐写对抗的图像隐写方法及系统 | |
CN109753571B (zh) | 一种基于二次主题空间投影的场景图谱低维空间嵌入方法 | |
CN110287770B (zh) | 一种基于卷积神经网络的水中个体目标匹配识别方法 | |
CN112686826A (zh) | 一种恶劣气候环境下的海洋搜救方法 | |
JP2022113135A (ja) | ニューラルネットワークトレーニング方法及び装置 | |
Wei et al. | Non-homogeneous haze removal via artificial scene prior and bidimensional graph reasoning | |
CN114241564A (zh) | 一种基于类间差异强化网络的人脸表情识别方法 | |
Wang et al. | Marginalized denoising dictionary learning with locality constraint | |
Zhang et al. | Occlusion-robust face recognition using iterative stacked denoising autoencoder | |
Dastbaravardeh et al. | Channel Attention‐Based Approach with Autoencoder Network for Human Action Recognition in Low‐Resolution Frames | |
Abdollahi et al. | Image steganography based on smooth cycle-consistent adversarial learning | |
CN117095433A (zh) | 素描人脸识别方法及装置 | |
CN114067155B (zh) | 基于元学习的图像分类方法、装置、产品及存储介质 | |
CN113487506B (zh) | 基于注意力去噪的对抗样本防御方法、装置和系统 | |
Abdella et al. | A statistical comparative study on image reconstruction and clustering with novel vae cost function | |
CN111291223B (zh) | 四胞胎卷积神经网络视频指纹方法 | |
Gaintseva et al. | Improving Interpretability and Robustness for the Detection of AI-Generated Images | |
Santha | Deepfakes generation using LSTM based generative adversarial networks | |
Zheng et al. | Age-uniform feature learning for image-based kinship verification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |