CN108537271B - 一种基于卷积去噪自编码机防御对抗样本攻击的方法 - Google Patents
一种基于卷积去噪自编码机防御对抗样本攻击的方法 Download PDFInfo
- Publication number
- CN108537271B CN108537271B CN201810305146.5A CN201810305146A CN108537271B CN 108537271 B CN108537271 B CN 108537271B CN 201810305146 A CN201810305146 A CN 201810305146A CN 108537271 B CN108537271 B CN 108537271B
- Authority
- CN
- China
- Prior art keywords
- sample
- training
- denoising
- new
- encoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Inks, Pencil-Leads, Or Crayons (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于卷积去噪自编码机防御对抗样本攻击的方法。对抗图像样本x*(图像分类器识别输出标签为y*)是在未经修改的干净图像样本x(图像分类器识别输出标签为y)上经过人为添加对抗扰动所构建的,能够达到y*≠y的欺诈目的,即使图像分类器将两张本质上代表相同含义的图像错误分成两类。本发明设计了一种基于卷积去噪自编码机CDAE连接至目标图像分类器的集成防御模型,即输入样本首先经过一个训练有素的CDAE内部编码和解码,以移除输入样本中绝大部分对抗扰动,从而输出一个接近于原始干净样本的去噪样本,接着再喂给目标图像分类器,因此可以提升目标分类器分类正确率,起到防御对抗样本攻击的作用。
Description
技术领域
本发明属于信息安全技术领域,涉及一种基于卷积去噪自编码机防御对抗样本攻击的方法。
背景技术
随着机器学习技术在各个领域得到广泛应用,具体包括身份验证,自动驾驶,语音识别等领域,因此其安全性也备受大家的关注。Nguyen等人在2014年发现深度神经网络很容易被对抗样本所欺骗。Goodfellow等人在2015年的研究表明,任何机器学习分类器都有可能被对抗样本所欺骗,并不局限于深度学习网络。攻击者通过对输入数据源进行细微修改,以达到用户感知不到,而实现机器学习系统接受该数据后做出错误的后续操作的目的即在未经修改的干净样本x(图像分类器识别输出标签为y)上经过人为刻意添加对抗扰动所构建得到对抗图像样本x*(图像分类器识别输出标签为y*),以达到y*≠y的欺诈目的。举例来说,攻击者可以制作一个经过添加了对抗扰动的红灯样本(在人眼看来两个样本都代表着红灯信号的含义)却能让自动驾驶系统识别成为绿灯信号,这对于道路交通安全来说是非常危险的。
目前用于防御对抗样本攻击的方法主要是进行对抗训练,即在模型训练过程中加入对抗样本,与干净样本一同训练,从而提高目标模型对对抗样本的泛化能力。相较于一般的训练过程,对抗样本的加入意味着训练过程需要消耗更多的计算资源和花费更多的时间代价;且训练时难以同时拟合对抗样本和干净样本;此外,对抗训练的效果取决于对抗样本集合的可代表性,加入新的对抗样本则需重新对目标模型重新进行训练以巩固防御因而效率表现欠佳;另存在缺乏良好可解释性的问题。
因此构建一种能够高效防御对抗样本攻击同时又具有良好可解释性的方法以提升机器学习系统的安全性便显得尤为重要。
发明内容
有鉴于此,本发明目的在于提供一种防御对抗样本攻击的方法,以提高机器学习系统的安全性。由于对抗样本是在干净样本上添加对抗扰动构建而成的,因此设法将对抗样本中的对抗扰动移除,并且移除地越彻底,残留的微小对抗扰动对目标分类器分类结果产生的负面影响就越小,因此可以起到防御对抗样本攻击,显然,这在理论上具有很高的可解释性。
为达到上述目的,本发明提供如下技术方案:去噪自编码机的主要思想是通过使用加入带噪声的训练样本进行训练来重构真实的样本。一般对样本加噪过程使用的是随机噪声,但这不适用于防御对抗攻击,因此我们使用经过特定方法构建带对抗扰动的样本替代带随机噪声的样本进行去噪训练。同时,为了更好应用于高分辨率的图像分类和实现最佳分类性能,我们使用卷积版本的去噪自编码机CDAE。输入样本经过CDAE内部的编码和解码之后能够移除输入样本中绝大部分的对抗扰动,输出一个经过去噪的样本,接着再喂给目标分类器,理论上,CDAE的去噪能力越强,目标分类器分类性能则越接近原始分类正确率。
进一步,实现该方法包括以下几个步骤:
A1:数据抽取:分别从未经任何修改的图像数据集的训练集和测试集中进行图像数据抽取,构建新的训练集和新的测试集;
A2:训练目标分类器:使用A1中所述的新的训练集和新的测试集对目标分类器进行训练和测试,记录在新的测试集下该目标分类器的分类正确率;
A3:构建对抗数据集:选取对抗扰动的系数和对抗样本的生成方法,使用A1中所述的新的训练集和新的测试集,分别构建相对应的对抗训练集和对抗测试集,使用对抗测试集测试A2中训练完成的目标分类器并记录该目标分类器的分类正确率;
A4:根据输入样本的尺寸大小、颜色通道来构建相应的卷积去噪自编码机,使用A3中所述的对抗训练集联合A1中所述的新的训练集对卷积去噪自编码机进行训练,训练目标为最小化重构误差;再使用A3中所述的对抗测试集联合A1中所述的新的测试集测试上述训练完成的卷积去噪自编码机去噪性能;
A5:设计一种基于A4中所述的训练完成的卷积去噪自编码机与目标分类器联合的集成模型;
A6:使用A1中所述的新的测试集和A3中所述的对抗测试集分别对A5中所述的集成模型进行测试,将可见集成模型对于A1中所述的新的测试集的分类正确率与A2中记录的分类正确率接近,同时,集成模型对A3中所述的对抗测试集的分类正确率相比于A3中记录的分类正确率有显著提升,即起到防御对抗样本攻击的作用。
可选的,所述图像数据集为任意可用于分类识别任务的图像数据集。
可选的,所述数据抽取包括:将图像数据平均分配到图像数据集包含的每个类中。
可选的,所述对抗扰动是指利用深度学习网络的可微损失函数的梯度生成的信息,所述对抗扰动的系数可以是固定值,也可以是随机变化值,用于表征对抗扰动的大小。
可选的,所述卷积去噪自编码机包括输入层、编码层和解码层,其中:所述输入层用于输入一个原始表示,即原始图像样本;所述编码层用于将输入编码成隐层表示;所述解码层用于将隐层表示解码成原始表示。
可选的,除位于所述解码层中最后一层的卷积层采用Sigmoid激活函数外,其余卷积层均采用修正线性单元ReLU作为激活函数。
可选的,所述卷积去噪自编码机用于移除对抗样本中的绝大部分对抗扰动。
可选的,所述卷积去噪自编码机去噪过程与目标分类器训练过程彼此独立。
可选的,步骤A4中所述对卷积去噪自编码机进行训练是指将干净样本和对抗样本同时用于最小化卷积去噪编码机重构误差的训练。
可选的,所述分类正确率是指一种用于衡量分类器分类准确性的指标。
本发明的有益效果在于:
1、所设计的卷积去噪自编码机连接目标分类器的集成模防御型,能够显著提高目标分类器对对抗样本的分类正确率,并具有良好的可解释性;
2、由于卷积去噪自编码机的去噪过程与目标分类器的训练过程相独立,后续无需对目标分类器反复训练以巩固防御效果,可移植性高;
3、所述方法属于无监督学习,训练样本无需标注标签,故可减少计算开销和工作量;
4、对卷积去噪自编码机的结构及参数作相应适当的修改即可应用于不同尺寸图像的去噪,扩展性好。
附图说明
图1为本发明实施例提供的一种基于卷积去噪自编码机防御对抗样本欺诈攻击方法的流程图;
图2为本发明实施例提供的卷积去噪自编码机与目标分类器联合的集成防御模型示意图;
图3为本发明实施例所用卷积去噪自编码机的网络结构示意图;
图4为本发明实施例的干净样本、对抗样本及去噪样本对比效果图。
具体实施方式
为了更形象阐述本方法的操作流程思路,我们使用MNIST数据集和Cleverhans库加以解释说明,但值得强调的是,本发明不局限于MNIST数据集,而普适于任何用作分类识别的图像数据集,并且实施参数需根据实际情况作出相应的调整与修改。
MNIST数据集是谷歌实验室和纽约大学柯朗研究所构建的一个手写数字数据集,训练集包含60000张数字图像,测试集包含10000张,其常被用于图像识别算法的原型验证;Cleverhans是一个开源软件库,提供标准的对抗样本构建的参考实现,可被用于开发更为稳健的机器学习模型。Cleverhans内置了FGSM(Fast Gradient Sign Method,快速梯度符号法)算法(该库还内置其他攻击算法,所提方法不局限于基于FGSM算法生成对抗样本的攻击),其是Goodfellow等人提出的比较典型的对抗样本生成算法,原理简述如下:
其中,x代表输入的干净样本,y代表输入样本的真实标签,J代表损失函数,ε代表对抗扰动的系数,sign代表符号函数,xadv代表生成的对抗样本。
如图1所示,本发明实施例提供一种基于卷积去噪自编码机防御对抗样本攻击的方法,具体实施过程包括如下步骤:
A1:数据抽取:分别从未经任何修改的图像数据集的训练集和测试集中进行图像数据抽取,构建新的训练集和新的测试集。
进一步地,所述数据抽取包括将图像数据平均分配到图像数据集包含的每个类中。
进一步地,所述图像数据集为任意可用于分类识别任务的图像数据集。
在本实施例中,选择从MNIST数据集的训练集中均匀抽取20000张图片构建新的训练集,用Xtrain表示,即意味着每个类均包含2000张图片;从MNIST数据集的测试集中均匀抽取5000张图片构建新的测试集,用Xtest表示,即意味着每个类均包含500张图片。
A2:训练目标分类器:使用步骤A1中所述的新的训练集和新的测试集对目标分类器进行训练和测试,记录在新的测试集下该目标分类器的分类正确率。
在本实施例中,用f表示基于卷积神经网络的目标分类器,用步骤A1中所述的Xtrain对f进行训练,调参优化后记为fpre;用步骤A1中所述的Xtest对fpre进行测试,并记录测试后的fpre的分类正确率,用表示。
A3:构建对抗数据集:选取对抗扰动的系数和对抗样本的生成方法,使用步骤A1中所述的新的训练集和新的测试集,分别构建相对应的对抗训练集和对抗测试集,使用对抗测试集测试步骤A2中训练完成的目标分类器并记录该目标分类器的分类正确率。
进一步地,所述对抗扰动是指利用深度学习网络的可微损失函数的梯度生成的信息。
在本实施例中,选取ε作为对抗扰动的系数,ε可以是固定值,也可以是随机变化值,用于表征对抗扰动的大小。
在本实施例中,优选采用ε的随机变化值以获得一个高代表性的对抗样本集合。利用FGSM算法,对新的训练集Xtrain生成一个加入了对抗扰动的对抗训练集,用表示,对新的测试集Xtest运用相同的操作,生成的对抗测试集用表示;用对抗测试集对目标分类器fpre进行测试,记录测试后的fpre的分类正确率,用表示;
A4:根据输入样本的尺寸大小、颜色通道构建相应的卷积去噪自编码机CDAE,用步骤A3中所述的对抗训练集联合步骤A1中所述的新的训练集Xtrain对卷积去噪自编码机CDAE进行训练,训练目标为最小化重构误差。再用步骤A3中所述的对抗测试集和步骤A1中所述的新的测试集Xtest测试所构建的卷积去噪自编码机CDAE的去噪性能;
进一步地,所述卷积去噪自编码机用于移除对抗样本中的绝大部分对抗扰动。
在深度学习中,卷积去噪自编码机是一种无监督学习模型,针对本实施例的具体构造过程如下,其结构示意图如附图3所示:
a.输入层
输入层输入一个原始表示,本实施例的输入为28×28×1的图像,表示尺寸大小为28×28的单通道(即深度为1)图像。
b.编码层
编码层将原始表示编码成隐层表示,其由1个28×28×64卷积层、1个14×14×64卷积层、3个2×2最大池化层及1个7×7×32卷积层组成,卷积层使用修正线性单元ReLU作为激活函数。
c.解码层
解码层将上述得到的隐层表示解码成原始表示,其由1个7×7上采样层、1个7×7×32卷积层、1个14×14上采样层、1个14×14×64卷积层、1个28×28上采样层、1个28×28×64卷积层以及1个28×28×1卷积层组成。
需要说明的是,解码层中的卷积层除最后一层采用Sigmoid激活函数外,其余卷积层均采用修正线性单元ReLU作为激活函数。
最小化Sigmoid交叉熵损失函数作为训练目标,优化卷积去噪自编码机的去噪性能。
进一步地,所述对卷积去噪自编码机CDAE进行训练是指将干净样本和对抗样本同时用于最小化卷积去噪编码机重构误差的训练。
在本实施例中,所述卷积去噪自编码机的去噪效果如图4所示。第一行为干净样本,第二行是在干净样本基础上用特定攻击方法构建的对抗样本,第三行是对抗样本经过训练有素的卷积去噪自编码机移除对抗扰动后得到的去噪样本。
A5:设计一种基于步骤A4中所述的训练完成的卷积去噪自编码机与目标分类器联合的集成模型。
在本实施例中,用fCDAE表示在目标分类器fpre输入之前连接一个卷积去噪自编码机CDAE的集成防御模型,具体如附图2中虚线框所示。其中x为输入干净样本,x*为用特定攻击方法构建(包括但不局限于FGSM算法)的对抗样本,x^为经过卷积去噪自编码机处理的去噪样本,ypred为目标分类器输出的预测标签;
可以看出,卷积去噪自编码机去噪过程与目标分类器的训练过程彼此独立,因此后续无需对目标分类器反复训练以巩固防御效果。举例来说,假设有n个不同的目标分类器,用表示对抗样本训练集合,当得到更新时,以往为巩固防御效果需对n个不同的目标分类器分别重新进行对抗训练,因此效率欠佳,尤其是在数据集较大和分类器数目较多时表现将会更为明显;而使用所述卷积去噪自编码机→目标分类器结构的集成模型只需对卷积去噪自编码机进行训练,即可移植给其余n-1个不同的目标分类器,因此可简化训练过程。
A6:使用A1中所述的新的测试集和A3中所述的对抗测试集分别对A5中所述的集成模型进行测试,将可见集成模型对于A1中所述的新的测试集的分类正确率与A2中记录的分类正确率接近,同时,集成模型对A3中所述的对抗测试集的分类正确率相比于A3中记录的分类正确率有显著提升,即起到防御对抗样本攻击的作用。
在本实施例中,使用步骤A1中构建的新的测试集Xtest对fCDAE进行测试,记录分类正确率,用表示;使用步骤A3中构建的对抗测试集对fCDAE进行测试,记录分类正确率,用表示;通过对比和和结果可见,与接近,相比于有显著提升。
在本实施例中,相比较于对输入样本不采取任何措施直接进行分类,集成了卷积去噪自编码机CDAE后能够将输入样本中的对抗扰动尽可能地移除,使喂给目标分类器的样本接近于干净样本,基于上述,会与非常接近,但也存在有轻微损失的可能;与此同时,相较于没有采取防御措施时目标分类器的得益于引入CDAE去噪的防御机制,目标分类器的将会得到显著改善,即起到防御对抗样本攻击的作用。
最后说明的是,以上优选实施例仅用以说明本发明的技术方案而非限制,尽管通过上述优选实施例已经对本发明进行了详细的描述,但本领域技术人员应当理解,可以在形式上和细节上对其作出各种各样的改变,而不偏离本发明权利要求书所限定的范围。
Claims (9)
1.一种基于卷积去噪自编码机的防御对抗样本攻击的方法,用于防御对抗样本攻击,提高机器学习系统的安全性,具体包括如下步骤:
A1:数据抽取:分别从未经任何修改的图像数据集的训练集和测试集中进行图像数据抽取,构建新的训练集和新的测试集;
A2:训练目标分类器:使用A1中所述的新的训练集和新的测试集对目标分类器进行训练和测试,记录在新的测试集下该目标分类器的分类正确率;
A3:构建对抗数据集:选取ε作为对抗扰动的系数,其中,ε可以是固定值,也可以是随机变化值,并采用ε的随机变化值以获得一个高代表性的对抗样本集合,使用A1中所述的新的训练集和新的测试集,分别构建相对应的对抗训练集和对抗测试集,使用对抗测试集测试A2中训练完成的目标分类器并记录该目标分类器的分类正确率;
A4:根据输入样本的尺寸大小、颜色通道来构建相应的用于移除对抗样本中的绝大部分对抗扰动卷积去噪自编码机,使用A3中所述的对抗训练集中的对抗样本联合A1中所述的新的训练集中的干净样本对卷积去噪自编码机进行重构误差训练,训练目标为最小化重构误差;再使用A3中所述的对抗测试集联合A1中所述的新的测试集测试上述训练完成的卷积去噪自编码机去噪性能;
A5:设计一种基于A4中所述的训练完成的卷积去噪自编码机与目标分类器联合的集成模型,该集成模型由目标分类器的输入端连接卷积去噪自编码机构成;
A6:使用A1中所述的新的测试集和A3中所述的对抗测试集分别对A5中所述的集成模型进行测试,将可见集成模型对于A1中所述的新的测试集的分类正确率与A2中记录的分类正确率接近,同时,集成模型对A3中所述的对抗测试集的分类正确率相比于A3中记录的分类正确率有显著提升,即卷积去噪自编码机对对抗样本的去噪能力,能够输出非常接近于干净样本的去噪样本,从而起到防御对抗样本攻击的作用。
2.根据权利要求1所述的方法,其特征在于,所述图像数据集为任意可用于分类识别任务的图像数据集。
3.根据权利要求1所述的方法,其特征在于,所述数据抽取包括:将图像数据平均分配到图像数据集包含的每个类中。
4.根据权利要求1所述的方法,其特征在于,所述对抗扰动是指利用深度学习网络的可微损失函数的梯度生成的信息;所述对抗扰动的系数可以是固定值,也可以是随机变化值,用于表征对抗扰动的大小。
5.根据权利要求1所述的方法,其特征在于,所述卷积去噪自编码机包括输入层、编码层和解码层,其中:所述输入层用于输入一个原始表示,即原始图像样本;所述编码层用于将输入编码成隐层表示;所述解码层用于将隐层表示解码成原始表示。
6.根据权利要求5所述的方法,其特征在于,除位于所述解码层中最后一层的卷积层采用Sigmoid激活函数外,其余卷积层均采用修正线性单元ReLU作为激活函数。
7.根据权利要求1所述的方法,其特征在于,所述卷积去噪自编码机去噪过程与目标分类器训练过程彼此独立。
8.根据权利要求1所述的方法,其特征在于,步骤A4中所述对卷积去噪自编码机进行训练是指将干净样本和对抗样本同时用于最小化卷积去噪编码机重构误差的训练。
9.根据权利要求1所述的方法,其特征在于,所述分类正确率是指一种用于衡量分类器分类准确性的指标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810305146.5A CN108537271B (zh) | 2018-04-04 | 2018-04-04 | 一种基于卷积去噪自编码机防御对抗样本攻击的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810305146.5A CN108537271B (zh) | 2018-04-04 | 2018-04-04 | 一种基于卷积去噪自编码机防御对抗样本攻击的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108537271A CN108537271A (zh) | 2018-09-14 |
CN108537271B true CN108537271B (zh) | 2021-02-05 |
Family
ID=63482835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810305146.5A Active CN108537271B (zh) | 2018-04-04 | 2018-04-04 | 一种基于卷积去噪自编码机防御对抗样本攻击的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108537271B (zh) |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109117482B (zh) * | 2018-09-17 | 2021-07-06 | 武汉大学 | 一种面向中文文本情感倾向性检测的对抗样本生成方法 |
CN109902705A (zh) * | 2018-10-30 | 2019-06-18 | 华为技术有限公司 | 一种对象检测模型的对抗扰动生成方法和装置 |
CN109543760B (zh) * | 2018-11-28 | 2021-10-19 | 上海交通大学 | 基于图像滤镜算法的对抗样本检测方法 |
CN109581871B (zh) * | 2018-12-03 | 2022-01-21 | 北京工业大学 | 免疫对抗样本的工业控制系统入侵检测方法 |
CN111382771B (zh) * | 2018-12-29 | 2024-03-15 | 北京达佳互联信息技术有限公司 | 数据分类方法、装置、设备及存储介质 |
CN109783910B (zh) * | 2018-12-29 | 2020-08-28 | 西安交通大学 | 一种利用生成对抗网络加速的结构优化设计方法 |
CN109740615B (zh) * | 2018-12-29 | 2023-04-07 | 武汉大学 | 一种对抗攻击样本扰动的去除方法 |
CN109902709B (zh) * | 2019-01-07 | 2020-12-08 | 浙江大学 | 一种基于对抗学习的工业控制系统恶意样本生成方法 |
CN109902617B (zh) * | 2019-02-25 | 2022-04-12 | 百度在线网络技术(北京)有限公司 | 一种图片识别方法、装置、计算机设备和介质 |
CN109993710B (zh) * | 2019-03-20 | 2022-03-11 | 西北工业大学 | 一种基于生成对抗网络的水下图像去噪方法 |
CN110321790B (zh) * | 2019-05-21 | 2023-05-12 | 华为技术有限公司 | 一种对抗样本的检测方法及电子设备 |
CN110175646B (zh) * | 2019-05-27 | 2021-05-11 | 浙江工业大学 | 基于图像变换的多通道对抗样本检测方法及装置 |
CN110232341B (zh) * | 2019-05-30 | 2022-05-03 | 重庆邮电大学 | 基于卷积-堆叠降噪编码网络的半监督学习图像识别方法 |
CN110264505B (zh) * | 2019-06-05 | 2021-07-30 | 北京达佳互联信息技术有限公司 | 一种单目深度估计方法、装置、电子设备及存储介质 |
CN110222502A (zh) * | 2019-06-10 | 2019-09-10 | 北京计算机技术及应用研究所 | 一种注入随机化的对抗训练方法 |
CN110516695A (zh) * | 2019-07-11 | 2019-11-29 | 南京航空航天大学 | 面向医学图像分类的对抗样本生成方法及系统 |
CN110363243B (zh) * | 2019-07-12 | 2024-07-12 | 腾讯科技(深圳)有限公司 | 分类模型的评估方法和装置 |
CN110456332B (zh) * | 2019-08-12 | 2022-08-05 | 哈尔滨工程大学 | 一种基于自动编码器的水声信号增强方法 |
CN110674938B (zh) * | 2019-08-21 | 2021-12-21 | 浙江工业大学 | 基于协同多任务训练的对抗攻击防御方法 |
CN110851835A (zh) * | 2019-09-23 | 2020-02-28 | 平安科技(深圳)有限公司 | 图像模型检测方法、装置、电子设备及存储介质 |
US11334671B2 (en) | 2019-10-14 | 2022-05-17 | International Business Machines Corporation | Adding adversarial robustness to trained machine learning models |
CN110781952A (zh) * | 2019-10-23 | 2020-02-11 | 泰康保险集团股份有限公司 | 图像识别风险提示方法、装置、设备及存储介质 |
CN110852363B (zh) * | 2019-10-31 | 2022-08-02 | 大连理工大学 | 一种基于欺骗攻击者的对抗样本防御方法 |
CN111310802B (zh) * | 2020-01-20 | 2021-09-17 | 星汉智能科技股份有限公司 | 一种基于生成对抗网络的对抗攻击防御训练方法 |
CN111738274B (zh) * | 2020-05-08 | 2022-04-22 | 华南理工大学 | 基于局部光滑投影的抗对抗攻击相机源识别方法 |
CN111598805A (zh) * | 2020-05-13 | 2020-08-28 | 华中科技大学 | 一种基于vae-gan的对抗样本防御方法及系统 |
CN111783742A (zh) * | 2020-07-30 | 2020-10-16 | 支付宝(杭州)信息技术有限公司 | 一种防御对抗攻击的图像分类方法、业务决策方法及装置 |
CN111915486B (zh) * | 2020-07-30 | 2022-04-22 | 西华大学 | 基于图像超分辨重建的对抗样本防御方法 |
CN112488172B (zh) * | 2020-11-25 | 2022-06-21 | 北京有竹居网络技术有限公司 | 对抗攻击的方法、装置、可读介质和电子设备 |
CN112699408B (zh) * | 2020-12-31 | 2024-06-21 | 重庆大学 | 一种基于自编码器的穿戴设备数据隐私保护方法 |
CN113111945B (zh) * | 2021-04-15 | 2024-07-09 | 东南大学 | 一种基于变换自编码器的对抗样本防御方法 |
CN113139618B (zh) * | 2021-05-12 | 2022-10-14 | 电子科技大学 | 一种基于集成防御的鲁棒性增强的分类方法及装置 |
CN113222960B (zh) * | 2021-05-27 | 2022-06-03 | 哈尔滨工程大学 | 基于特征去噪的深度神经网络对抗防御方法、系统、存储介质及设备 |
CN113392906B (zh) * | 2021-06-16 | 2022-04-22 | 西华大学 | 基于图像高阶引导编码重组的对抗样本恢复方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102110206A (zh) * | 2010-12-27 | 2011-06-29 | 北京握奇数据系统有限公司 | 防御攻击的方法和具有攻击防御功能的装置 |
CN106951919A (zh) * | 2017-03-02 | 2017-07-14 | 浙江工业大学 | 一种基于对抗生成网络的流速监测实现方法 |
KR20180020724A (ko) * | 2016-08-19 | 2018-02-28 | 주식회사 케이티 | 나선형 신경망 네트워크 기반의 딥러닝에서 특징맵의 계산을 위한 피라미드 히스토리 맵 생성 방법 및 특징맵 생성 방법 |
-
2018
- 2018-04-04 CN CN201810305146.5A patent/CN108537271B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102110206A (zh) * | 2010-12-27 | 2011-06-29 | 北京握奇数据系统有限公司 | 防御攻击的方法和具有攻击防御功能的装置 |
KR20180020724A (ko) * | 2016-08-19 | 2018-02-28 | 주식회사 케이티 | 나선형 신경망 네트워크 기반의 딥러닝에서 특징맵의 계산을 위한 피라미드 히스토리 맵 생성 방법 및 특징맵 생성 방법 |
CN106951919A (zh) * | 2017-03-02 | 2017-07-14 | 浙江工业大学 | 一种基于对抗生成网络的流速监测实现方法 |
Non-Patent Citations (2)
Title |
---|
《Single-label and multi-label conceptor classifiers in pre-trained neural networks》;Guangwu Qian, Lei Zhang, Yan Wang;《Neural Computing Applications》;20180321;全文 * |
《Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks》;Alec Radford 等;《Computer Science》;20151231;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN108537271A (zh) | 2018-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108537271B (zh) | 一种基于卷积去噪自编码机防御对抗样本攻击的方法 | |
Bayar et al. | Constrained convolutional neural networks: A new approach towards general purpose image manipulation detection | |
Bayar et al. | Augmented convolutional feature maps for robust cnn-based camera model identification | |
CN107506712B (zh) | 一种基于3d深度卷积网络的人类行为识别的方法 | |
Zhang et al. | Augmenting supervised neural networks with unsupervised objectives for large-scale image classification | |
Do et al. | Forensics face detection from GANs using convolutional neural network | |
CN109829959B (zh) | 基于人脸解析的表情编辑方法及装置 | |
CN111598761A (zh) | 一种基于图像降噪的抗打印拍摄图像数字水印方法 | |
Chen et al. | A multi-purpose image forensic method using densely connected convolutional neural networks | |
Chen et al. | Audio steganalysis with convolutional neural network | |
CN111402257A (zh) | 一种基于多任务协同跨域迁移的医学图像自动分割方法 | |
CN113723295A (zh) | 一种基于图像域频域双流网络的人脸伪造检测方法 | |
EP2531956B1 (en) | Image recognition system based on cascaded over-complete dictionaries | |
CN110969089A (zh) | 噪声环境下的轻量级人脸识别系统及识别方法 | |
CN112215076B (zh) | 一种基于双塔网络的深度笔迹鉴定方法及装置 | |
Zhao et al. | Detecting deepfake video by learning two-level features with two-stream convolutional neural network | |
CN116701568A (zh) | 一种基于3d卷积神经网络的短视频情感分类方法及系统 | |
CN115331079A (zh) | 一种面向多模态遥感图像分类网络的对抗攻击方法 | |
Wang et al. | Suspect multifocus image fusion based on sparse denoising autoencoder neural network for police multimodal big data analysis | |
Zanddizari et al. | Generating black-box adversarial examples in sparse domain | |
Kheddar et al. | Deep learning for diverse data types steganalysis: A review | |
CN109165551B (zh) | 一种自适应加权融合显著性结构张量和lbp特征的表情识别方法 | |
Saealal et al. | Three-Dimensional Convolutional Approaches for the Verification of Deepfake Videos: The Effect of Image Depth Size on Authentication Performance | |
Dastbaravardeh et al. | Channel Attention‐Based Approach with Autoencoder Network for Human Action Recognition in Low‐Resolution Frames | |
CN116935292B (zh) | 一种基于自注意力模型的短视频场景分类方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |