CN113283599A - 基于神经元激活率的对抗攻击防御方法 - Google Patents
基于神经元激活率的对抗攻击防御方法 Download PDFInfo
- Publication number
- CN113283599A CN113283599A CN202110657925.3A CN202110657925A CN113283599A CN 113283599 A CN113283599 A CN 113283599A CN 202110657925 A CN202110657925 A CN 202110657925A CN 113283599 A CN113283599 A CN 113283599A
- Authority
- CN
- China
- Prior art keywords
- model
- training
- classifier model
- loss function
- size
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 210000002569 neuron Anatomy 0.000 title claims abstract description 38
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000004913 activation Effects 0.000 title claims abstract description 23
- 230000007123 defense Effects 0.000 title claims abstract description 22
- 238000012549 training Methods 0.000 claims abstract description 44
- 238000012360 testing method Methods 0.000 claims abstract description 13
- 238000005457 optimization Methods 0.000 claims abstract description 6
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 31
- 238000013527 convolutional neural network Methods 0.000 claims description 8
- 238000011176 pooling Methods 0.000 claims description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000008555 neuronal activation Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 4
- 230000003042 antagnostic effect Effects 0.000 description 10
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 241000282414 Homo sapiens Species 0.000 description 2
- 230000008485 antagonism Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 235000000332 black box Nutrition 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000004821 distillation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/55—Detecting local intrusion or implementing counter-measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computer Security & Cryptography (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Hardware Design (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于神经元激活率的对抗攻击防御方法,包括:1)获取图像数据集并进行预处理,构建训练集和测试集;2)构建CNN网络结构的分类器模型;3)构建二分类判别器D,对分类器模型关于输入本x的输出N进行判定;4)根据分类器模型和二分类判别器D的损失函数构建整体的损失函数,确定整体优化目标;采用训练集对整体模型进行联合训练,当整体的损失函数收敛时,停止训练并保存模型;5)输入测试集对训练后的分类器模型进行测试,若分类准确率低于阈值,则修改整体损失函数的λ,按步骤4)再次进行训练,直至分类准确率高于阈值。本发明的防御方法具有良好的适用性和准确率,对对抗攻击有良好的防御效果。
Description
技术领域
本发明涉及对抗攻击防御方法,尤其涉及一种基于神经元激活率的对抗攻击防御方法。
背景技术
深度学习以其优越的性能被广泛应用于图像分类、目标检测、生物信息、语音识别、自然语言处理等众多领域,在计算机视觉领域获得了前所未有的成功。但深度模型容易受到人眼不可见扰动的影响而出现错误分类,这引起了研究人员的注意。在深度模型逐步替代人类进行自主决策的过程中,由于其容易受到对抗攻击等问题,已经对网络安全、数据安全、算法安全和信息安全产生了严重威胁。深度模型面对对抗样本的脆弱性也阻碍了深度学习在一些安全性苛刻的场景中的进一步应用,例如人脸识别、自动驾驶。因此,研究针对对抗攻击的防御,提高深度学习技术的安全性和鲁棒性十分必要。
在图像分类识别领域,目前已经有很多种对抗攻击方法已经被提出来发现深度模型的安全漏洞。按照其是否需要知道模型的结构参数,它们可以分为白盒攻击和黑盒攻击。白盒攻击可以分为基于梯度的FGSM,BIM,JSMA和基于决策面的DeepFool等等。黑盒攻击一般是基于模型决策的,如ZOO等。
同时,针对对抗攻击的防御研究也在展开,不同技术主要沿着一下三种方向:数据修改(如对抗性训练和数据预处理),模型修改和添加附加网络。Goodfellow和Huang等人将对抗样本加入训练集,用对抗性训练来加强模型对于攻击的鲁棒性。Prakash等人通过像素偏移来重新分配对抗样本中的像素值,再对其进行基于小波的去噪操作,从而有效地恢复图片的真实类标。Papernot等人提出了防御蒸馏,利用网络的知识来塑造自己的鲁棒性,并证明其可以抵抗小幅度扰动的对抗攻击。
添加附加网络的方法一般是使用一个或多个外部扩展的模型来帮助主模型应对对抗性扰动,附加模型可以是自编码器,GAN或者集成模型。Hlihor等人提出了DAE方法,训练自编码器缩小输入样本和良性样本的距离,以达到移除对抗性扰动的效果。Ju等人研究了神经网络的集成方法Ens-D用于图像识别任务,当一个模型收到攻击时,集成的方法依旧能做出正确的判断。Samangouei等人提出Defense-GAN和Jin等人提出APE-GAN将噪声或对抗样本与良性样本混合后输入给GAN,训练模型直到它能消除输入中的对抗性扰动。
尽管现有防御方法能达到较好的效果,但它们仍存在以下缺点和不足:
(1)这些防御措施只能针对已有的对抗样本,对未知的对抗性输入没有抵御能力。
(2)这些方法在面对黑盒攻击时,经常不能取得较好的效果。
(3)对于可迁移的攻击,这些防御方法会遭到破坏。
对于深度模型来说,需要从模型本身出发,提高自身对于对抗性输入的鲁棒性,而不只是针对已有的对抗样本做防御。基于此,本发明提出了一种基于神经元激活率的对抗攻击防御方法,通过附加判别器进行联合训练,增加被激活的神经元数量,以减弱对抗性输入对模型分类的影响,使深度模型在应用时更加安全可靠。
发明内容
本发明提供了一种基于神经元激活率的对抗攻击防御方法,该对抗攻击防御方法从深度模型内部出发,提高模型安全鲁棒性,减弱对抗性扰动对分类的影响,对未知对抗样本均有防御能力。
本发明的技术方案如下:
一种基于神经元激活率的对抗攻击防御方法,包括以下步骤:
1)获取图像数据集并进行预处理,构建训练集和测试集;包括:
1.1)下载MNIST、CIFAR-10和ImageNet数据集,保存图像样本及其对应的类标,样本集合记为X={x1,x2,…,xm},每张图片的类标记为y;
1.2)将数据集按照比例划分为训练集和测试集,对类标y进行one-hot编码;
1.3)将样本统一尺寸,与待训练的分类器模型输出尺寸相同:MNIST数据集的图像尺寸设置为28×28;CIFAR-10的图像尺寸设置为32×32×3;ImageNet设置为299×299×3;
2)构建并采用训练集训练分类器模型f(·);包括:
2.1)利用tfleran中的库函数搭建卷积神经网络:将卷积层、池化层、dropout层和全连接网络进行组合,构建CNN网络结构的分类器模型;
分类器模型的输入层大小与训练集图像大小相同;
2.2)将训练集样本x及其对应类标y输入到分类器模型中进行训练,分类器模型的损失函数定义为:
其中Lmodel表示分类器模型的loss函数;K为训练集的样本总数;CE(·)表示交叉熵函数;i表示样本的索引;
2.3)给定训练完成的分类器模型f(·)和输入样本x,模型未经过全连接网络的激活函数处理的输出为f(x)=N,其中Nl={n1,n2,...,nm}为分类器模型的一组神经元,l表示模型的层,n为神经元,m为神经元的索引;记为第i个神经元对于输入x的激活值;
若满足以下公式,则第i个神经元被激活:
神经元激活率h(x)定义如下:
其中Nl表示l层的神经元总数。
3)构建二分类判别器D,对分类器模型关于输入本x的输出N进行判定;所述的二分类判别器D由全连接层组合而成;二分类判别器D的输入大小与分类器模型的输出大小相同;
分类器的输出f(x)=N输入到D用于训练,二分类结果real或者fake将反馈给分类器和判别器对模型进行优化。
二分类判别器D的损失函数定义如下:
LD=BCE(D(h(x)),B(x)) (4)
4)将整体的损失函数定义为L=Lmodel-λLD,整体优化目标定义为:
其中λ为平衡因子,可人为调节;
采用训练集对整体模型进行联合训练,当整体的损失函数收敛时,停止训练并保存模型;
训练时,同时更新二分类判别器D和分类器模型的参数;学习率设置为0.0001,batchsize设置为64,优化器选择Adam;
5)输入测试集对训练后的分类器模型进行测试,若分类准确率低于阈值,则修改整体损失函数的λ,按步骤4)再次进行训练,直至分类准确率高于阈值。
本发明的技术构思为:基于神经元激活率的对抗攻击防御方法,减弱对抗性扰动对分类的影响,对未知对抗样本均有防御能力,从模型内部出发提高了安全鲁棒性。设计了基于附加网络的防御结构,利用判别器的分类结果更新分类器输出的神经元,在保证正常样本识别准确率的同时增加神经元的激活值,降低对抗样本激活异常神经元而导致错误分类的概率,实现抵御对抗攻击的能力。
与现有技术相比,本发明的有益效果主要表现在:
通过判别器的联合训练,模型全连接层增加了被激活的神经元数目,降低了对抗样本改变神经元激活值而产生误分类的概率,该方法对已知和未知攻击均具有一定的抵御能力,同时保持了对良性样本的分类准确率。在真实图像数据集上的实验结果表明,本发明的防御方法具有良好的适用性和准确率,对对抗攻击有良好的防御效果。
附图说明
图1是本发明的实施例中基于神经元激活率的对抗攻击防御方法示意图。
图2是基于神经元激活率的对抗攻击防御方法的流程框架示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步详细描述,需要指出的是,以下所述实施例旨在便于对本发明的理解,而对其不起任何限定作用。
参照图1~图2,一种基于神经元激活率的对抗攻击防御方法,包括以下步骤:
1)图像数据集的获取和预处理,具体过程如下:
1.1)下载MNIST、CIFAR-10和ImageNet数据集,保存图像样本及其对应的类标,样本集合记为X={x1,x2,...,xm},每张图片的类标记为y。
1.2)将上一步的数据集按照比例划分为训练集和测试集,对类标y进行one-hot编码以方便后续训练。
1.3)将样本统一尺寸:MNIST数据集的图像尺寸设置为28×28,CIFAR-10的图像尺寸设置为32×32×3,ImageNet设置为299×299×3,与训练的模型输出尺寸相同。
2)构建分类器模型f(·),具体如下:
2.1)利用tfleran中的库函数搭建卷积神经网络。conv_2d表示二维卷积网络,nb_filter表示卷积核的数量,filter_size表示卷积核的大小,max_pool_2d表示二维最大池化层,dropout表示抑制该层部分神经元的输出,fully_connected表示全连接网络,一般放在模型的最后一层,它的激活层一般使用softmax函数,将每个元素取指数后进行归一化,最后输出模型的置信度。普通的卷积网络也可以选用tanh和ReLU作为激活层函数,它们都是将输入映射到指定区间内,将简单的线性输出转换成复杂非线性问题。将卷积层、池化层、dropout层和全连接网络进行组合,就构建了简单的CNN网络结构。分类器模型的输入层大小与图像大小相同,都是[H,W,C],输出层大小为[H×W×C,1],其中H为图像高度,W为宽度,C为输入通道数。
2.2)将样本x及其对应类标y输入到分类器中进行训练,模型的损失函数定义为:
其中Lmodel表示模型的loss函数,K为训练集的样本总数,CE(·)表示交叉熵函数,i表示样本的索引。
2.3)给定训练完成的深度模型f(·)和输入样本x,模型未经过softmax函数处理的输出为f(x)=N,其中Nl={n1,n2,...,nm}为深度学习模型的一组神经元,l表示模型的层,n为神经元,m为神经元的索引。记为第i个神经元对于输入x的激活值。若满足以下公式,则第i个神经元被激活:
同时,神经元激活率h(x)定义如下:
其中Nl表示l层的神经元总数。
3)构建判别器D。
本发明中D是个二分类器,由全连接层组合而成,具体结构如下表所示。D对原模型关于输入样本x的输出N进行判定。判别结果为real,标记为1,若为fake则记为0。D的输入大小与分类器输出大小相同,为[H×W×C,1],D的输出层大小为[1,1]。
分类器的输出f(x)=N输入到D用于训练,二分类结果real或者fake将反馈给生成器和判别器对模型进行优化。
D的损失函数定义如下:
LD=BCE(D(h(x)),B(x)) (4)
4)整体系统的训练:
整体的损失函数定义为L=Lmodel-λLD,整体优化目标定义为:
其中λ为平衡因子,可人为调节,默认取0.5。训练时,同时更新D和分类器的参数,学习率设置为0.0001,batchsize设置为64,优化器选择Adam。当loss函数收敛时,停止训练并保存模型。
5)参数优化:
输入对抗样本对分类器进行测试,若分类准确率较低,则修改λ按步骤4)再次进行训练,直至取得最佳防御效果。
以上所述的实施例对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的具体实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于神经元激活率的对抗攻击防御方法,其特征在于,包括以下步骤:
1)获取图像数据集并进行预处理,构建训练集和测试集;
2)利用tfleran中的库函数搭建卷积神经网络:将卷积层、池化层、dropout层和全连接网络进行组合,构建CNN网络结构的分类器模型;
3)构建二分类判别器D,对分类器模型关于输入本x的输出N进行判定;所述的二分类判别器D由全连接层组合而成;二分类判别器D的输入大小与分类器模型的输出大小相同;
4)根据分类器模型和二分类判别器D的损失函数构建整体的损失函数,确定整体优化目标;采用训练集对整体模型进行联合训练,当整体的损失函数收敛时,停止训练并保存模型;
5)输入测试集对训练后的分类器模型进行测试,若分类准确率低于阈值,则修改整体损失函数的λ,按步骤4)再次进行训练,直至分类准确率高于阈值。
2.根据权利要求1所述的基于神经元激活率的对抗攻击防御方法,其特征在于,步骤1)包括:
1.1)下载MNIST、CIFAR-10和ImageNet数据集,保存图像样本及其对应的类标,样本集合记为X={x1,x2,...,xm},每张图片的类标记为y;
1.2)将数据集按照比例划分为训练集和测试集,对类标y进行one-hot编码;
1.3)将样本统一尺寸,与待训练的分类器模型输出尺寸相同:MNIST数据集的图像尺寸设置为28×28;CIFAR-10的图像尺寸设置为32×32×3;ImageNet设置为299×299×3。
3.根据权利要求1所述的基于神经元激活率的对抗攻击防御方法,其特征在于,步骤2)包括:
2.1)利用tfleran中的库函数搭建卷积神经网络:将卷积层、池化层、dropout层和全连接网络进行组合,构建CNN网络结构的分类器模型;
分类器模型的输入层大小与训练集图像大小相同;
2.2)将训练集样本x及其对应类标y输入到分类器模型中进行训练,分类器模型的损失函数定义为:
其中Lmodel表示分类器模型的loss函数;K为训练集的样本总数;CE(·)表示交叉熵函数;i表示样本的索引;
2.3)给定训练完成的分类器模型f(·)和输入样本x,模型未经过全连接网络的激活函数处理的输出为f(x)=N,其中N1={n1,n2,...,nm}为分类器模型的一组神经元,l表示模型的层,n为神经元,m为神经元的索引;记为第i个神经元对于输入x的激活值;
若满足以下公式,则第i个神经元被激活:
神经元激活率h(x)定义如下:
其中N1表示1层的神经元总数。
6.根据权利要求1所述的基于神经元激活率的对抗攻击防御方法,其特征在于,训练时,同时更新二分类判别器D和分类器模型的参数;学习率设置为0.0001,batchsize设置为64,优化器选择Adam。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110657925.3A CN113283599B (zh) | 2021-06-11 | 2021-06-11 | 基于神经元激活率的对抗攻击防御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110657925.3A CN113283599B (zh) | 2021-06-11 | 2021-06-11 | 基于神经元激活率的对抗攻击防御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113283599A true CN113283599A (zh) | 2021-08-20 |
CN113283599B CN113283599B (zh) | 2024-03-19 |
Family
ID=77284459
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110657925.3A Active CN113283599B (zh) | 2021-06-11 | 2021-06-11 | 基于神经元激活率的对抗攻击防御方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113283599B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113837360A (zh) * | 2021-08-31 | 2021-12-24 | 浙江工业大学 | 一种基于关系图的dnn鲁棒模型加固方法 |
CN114841983A (zh) * | 2022-05-17 | 2022-08-02 | 中国信息通信研究院 | 一种基于决策分数的图像对抗样本检测方法和系统 |
CN115481719A (zh) * | 2022-09-20 | 2022-12-16 | 宁波大学 | 一种防御基于梯度的对抗攻击的方法 |
CN115797711A (zh) * | 2023-02-20 | 2023-03-14 | 泉州装备制造研究所 | 一种基于重构模型的对抗样本改进分类方法 |
CN116702876A (zh) * | 2023-04-27 | 2023-09-05 | 贵州大学 | 一种基于预处理的图像对抗防御方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110674938A (zh) * | 2019-08-21 | 2020-01-10 | 浙江工业大学 | 基于协同多任务训练的对抗攻击防御方法 |
CN111310802A (zh) * | 2020-01-20 | 2020-06-19 | 星汉智能科技股份有限公司 | 一种基于生成对抗网络的对抗攻击防御训练方法 |
WO2020172838A1 (zh) * | 2019-02-26 | 2020-09-03 | 长沙理工大学 | 一种改进辅助分类器gan的图像分类方法 |
CN111680701A (zh) * | 2020-05-07 | 2020-09-18 | 北京三快在线科技有限公司 | 图像识别模型的训练方法、装置及图像识别方法、装置 |
-
2021
- 2021-06-11 CN CN202110657925.3A patent/CN113283599B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020172838A1 (zh) * | 2019-02-26 | 2020-09-03 | 长沙理工大学 | 一种改进辅助分类器gan的图像分类方法 |
CN110674938A (zh) * | 2019-08-21 | 2020-01-10 | 浙江工业大学 | 基于协同多任务训练的对抗攻击防御方法 |
CN111310802A (zh) * | 2020-01-20 | 2020-06-19 | 星汉智能科技股份有限公司 | 一种基于生成对抗网络的对抗攻击防御训练方法 |
CN111680701A (zh) * | 2020-05-07 | 2020-09-18 | 北京三快在线科技有限公司 | 图像识别模型的训练方法、装置及图像识别方法、装置 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113837360A (zh) * | 2021-08-31 | 2021-12-24 | 浙江工业大学 | 一种基于关系图的dnn鲁棒模型加固方法 |
CN113837360B (zh) * | 2021-08-31 | 2024-03-29 | 浙江工业大学 | 一种基于关系图的dnn鲁棒模型加固方法 |
CN114841983A (zh) * | 2022-05-17 | 2022-08-02 | 中国信息通信研究院 | 一种基于决策分数的图像对抗样本检测方法和系统 |
CN114841983B (zh) * | 2022-05-17 | 2022-12-06 | 中国信息通信研究院 | 一种基于决策分数的图像对抗样本检测方法和系统 |
CN115481719A (zh) * | 2022-09-20 | 2022-12-16 | 宁波大学 | 一种防御基于梯度的对抗攻击的方法 |
CN115481719B (zh) * | 2022-09-20 | 2023-09-15 | 宁波大学 | 一种防御基于梯度的对抗攻击的方法 |
CN115797711A (zh) * | 2023-02-20 | 2023-03-14 | 泉州装备制造研究所 | 一种基于重构模型的对抗样本改进分类方法 |
CN116702876A (zh) * | 2023-04-27 | 2023-09-05 | 贵州大学 | 一种基于预处理的图像对抗防御方法 |
CN116702876B (zh) * | 2023-04-27 | 2024-04-12 | 贵州大学 | 一种基于预处理的图像对抗防御方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113283599B (zh) | 2024-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113283599B (zh) | 基于神经元激活率的对抗攻击防御方法 | |
CN111475797B (zh) | 一种对抗图像生成方法、装置、设备以及可读存储介质 | |
CN110941794B (zh) | 一种基于通用逆扰动防御矩阵的对抗攻击防御方法 | |
CN111753881B (zh) | 一种基于概念敏感性量化识别对抗攻击的防御方法 | |
CN113297572B (zh) | 基于神经元激活模式的深度学习样本级对抗攻击防御方法及其装置 | |
CN111600835A (zh) | 一种基于fgsm对抗攻击算法的检测与防御方法 | |
CN111178504B (zh) | 基于深度神经网络的鲁棒压缩模型的信息处理方法及系统 | |
CN114724189B (zh) | 一种目标识别的对抗样本防御模型训练方法、系统及应用 | |
CN113627543B (zh) | 一种对抗攻击检测方法 | |
CN112597993A (zh) | 基于补丁检测的对抗防御模型训练方法 | |
CN112926661A (zh) | 一种增强图像分类鲁棒性的方法 | |
CN114387449A (zh) | 一种应对神经网络对抗性攻击的图像处理方法及系统 | |
CN113901448A (zh) | 基于卷积神经网络和轻量级梯度提升机的入侵检测方法 | |
CN115062306A (zh) | 一种针对恶意代码检测系统的黑盒对抗攻击方法 | |
CN114049537B (zh) | 一种基于卷积神经网络的对抗样本防御方法 | |
CN113822443A (zh) | 一种对抗攻击和生成对抗样本的方法 | |
Wang et al. | Interpret neural networks by extracting critical subnetworks | |
CN115270891A (zh) | 一种信号对抗样本的生成方法、装置、设备及存储介质 | |
CN113177599B (zh) | 一种基于gan的强化样本生成方法 | |
CN115510986A (zh) | 一种基于AdvGAN的对抗样本生成方法 | |
CN111353403A (zh) | 一种深度神经网络图像对抗样本检测方法和系统 | |
Kwon et al. | Selective untargeted evasion attack: An adversarial example that will not be classified as certain avoided classes | |
CN111461259A (zh) | 基于红黑形态小波池化网络的图像分类方法及系统 | |
CN112836716B (zh) | 一种可解释区域引导的对抗样本检测方法 | |
CN111008687A (zh) | 一种物联网边缘节点安全的神经网络监测模型 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |