CN112215292A - 一种基于迁移性的图像对抗样本生成装置及方法 - Google Patents
一种基于迁移性的图像对抗样本生成装置及方法 Download PDFInfo
- Publication number
- CN112215292A CN112215292A CN202011121652.2A CN202011121652A CN112215292A CN 112215292 A CN112215292 A CN 112215292A CN 202011121652 A CN202011121652 A CN 202011121652A CN 112215292 A CN112215292 A CN 112215292A
- Authority
- CN
- China
- Prior art keywords
- classifier
- image
- sample
- data
- local image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明属于计算机软件领域,公开了一种基于迁移性的图像对抗样本生成装置及方法,针对上述黑盒攻击需要大量问询,或者迁移性不高的问题,实现在少量问询的条件下,提高了对抗样本的攻击成功率。主要方案为1)输入正常图像样本;2)图像样本经过自编码器处理得到降维后的数据D;3)依次传入经过筛选的本地图像分类器中并使用PGD对抗样本生成算法得到不同的扰动ri;4)根据权重系数将这些扰动线性集成得到最终的扰动f(D);5)将降维后的数据D添加上扰动f(D)后经自编码器解码得到最终的对抗样本。
Description
技术领域
本发明属于计算机软件领域,具体为一种基于迁移性的对抗样本生成框架及方法,能通过少量问询目标模型提高一定的迁移性。
背景技术
近年来,深度的神经网络在各方面已经得到了广泛的应用,其在图像识别上甚至可匹配人类的性能,例如图片分类系统,人脸识别等,已经可以达到99%以上的识别率。然而,大多数研究者更关心模型的性能(如正确率),却忽略了模型的脆弱性和鲁棒性。现有的模型很容易受到“对抗样本”的攻击,它可以使模型产生误判,进而使攻击者达到绕过模型检测的目的,例如在图像分类系统中,通过给原始图像添加一个微小的扰动信息(所需的扰动可能很小,以至于肉眼无法区别),就能够以很高的概率达到改变图像分类结果的目的,甚至能按照攻击者的想法让图片被分类为一个任意指定的标签(不是图片的正确分类标签)。
国外Szegedy等人通过给图像添加肉眼难以分辨的扰动,使得最终模型无法得到正确的分类结果,进而提出了对抗样本。现在方法主要分为白盒攻击和黑盒攻击,白盒攻击需要目标模型的全部信息,包括参数,已经模型结构等,主要的方法有FGSM,PGD,BIM,CW等,白盒攻击的优点是攻击成功率高,但是在实际对抗样本生成场景中往往不太能满足白盒攻击的要求。第二种为黑盒攻击,指的是只需要知道部分模型的信息比如数据集,便可以进行攻击,黑盒攻击更有难度,但是需要的信息少,同时也更接近实际的攻击场景。当前黑盒攻击主要分为两类,第一类基于梯度估计的方法,通过大量访问目标模型来估计其梯度从而生成对抗样本,该方法的缺点是需要大量的访问目标模型,容易被攻击者发现。第二类方法就是基于对抗样的迁移性--即对一个模型攻击成功的对抗样本对其它模型也能攻击成功,利用迁移性的攻击方法不需要大量的问询,但是攻击成功率不高。
发明内容
针对上述黑盒攻击需要大量问询,或者迁移性不高的问题,实现在少量问询的条件下,提高了对抗样本的攻击成功率。
为了达到上述目的,本发明采用如下技术方案:
一种基于迁移性的图像对抗样本生成装置,包括以下模块:
自编码训练模块:利用图像训练数据集进行无监督训练得到一个自编码器;
图像分类器训练模块:利用训练好的自编码器对图像训练数据集进行编码降维,并使用降维后的数据训练多个本地图像分类器;
分类器权重系数更新模块:利用本地图像分类器生成的对抗样本对目标模型进行攻击,根据得到的结果动态更新本地图像分类器权重;
分类器参数更新模块:利用没有攻击成功的样本对本地图像分类器参数进行更新。
上述技术方案中,所述自编码训练模块,采用稀疏性自编码网络,同时采用损失函数如下:
其中:
Loss中Jsapre(W,b)代表对参数的稀疏性限制,λ是正则系数,Wij代表网络的权重,在公式Jsapre(W,b)中,JE(W,b)代表原始数据与解码数据的欧式距离,β是正则系数,是KL散度,在公式JE(W,b)中m为输入数据的个数,x′代表重构后数据,x代表原始数据,在公式中p为稀疏性参数设置为接近0的数,aj(x(i))代表第i个数据在隐层中第j个神经元的均值输出,代表所有训练数据集中隐层第j个神经元的激活度均值,最后采用随机梯度优化下降方法来优化参数。
上述技术方案中,所述分类器权重系数更新模块采用迭代更新方式更新权重,包括以下步骤:
S3.1:设置每个本地图像分类器的初始权重系数μi为0,i代表第i个本地分类器,设置当前迭代次数c为1,设置si=0,si代表第i个图像分类器生成的图像对抗样本攻击成功的次数;
S3.2:随机从原始训练数据中选取一个图像样本并使用自编码器编码得到样本Xi,利用PGD方法逐个对本地图像分类器生成一个图像对抗样本X′i,i代表第i个分类器;
S3.3:利用自编码器对X′i进行解码并传入需要被攻击的目标分类器,如果攻击成功,则置si等于si+1,如果没有攻击成功则将图像对抗样本X′i、目标分类器对图像对抗样本X′i的分类结果及对应的本地图像分类器传入分类器参数更新模块;
S3.4:如果满足迭代最大次数Max iter(超参数需要人为指定)则停止迭代,然后更新每个本地图像分类器(不包含在参数更新模块中已被剔除的分类器)的权重系数并进行归一化处理,最终设置μi等于,否则置c=c+1并执行S3.2继续迭代。
上述技术方案中,所述分类器参数更新模块有如下步骤:
S4.1:如果是第一次更新则设置c′=0,否则执行S2,其中c′为当前更新的次数;
S4.3:根据传入的图像对抗样本X′i、目标模型对图像对抗样本X′i的分类结果将其作为新的训练数据,相应的本地图像分类器根据这个训练数据进行一次梯度下降算法,更新本地图像分类器的内部参数,并置c′为c′+1。
上述技术方案中,在迭代完成后使用本地图像分类器以及对应的权重系数线性集成为最终的集成图像分类器,集成方式如下:
其中D代表自编码器降维后的数据,ui为权重系数,fi(D)为第i个本地图像分类器对数据D生成的扰动ri。
本发明同现有技术相比,其有益效果表现在:
一、少量问询次数:利用对抗样本的迁移性生成对抗样本,无需大量的问询。
二、少量目标模型信息:该方法属于黑盒攻击,不需要目标网络的内部参数,如梯度和结构。
三、提高攻击成功率:采用集成方法去生成对抗样本,大大提高了对抗样本的泛化能力,同时采用动态更新系数提高了一定程度的成功率。
四、计算速度较快:采用自编码器对数据进行降维,涉及梯度计算时能有效提高计算速率,一定程度减少了时间开销。
附图说明
图1是本发明的总体架构图。
具体实施方式
下面将结合附图及具体实施方式对本发明作进一步的描述。
实施例
本次实验是按照上述框架及方法生成多个对抗样本,并统计对抗样本的有效率,本次实验的硬件环境和软件环境如下表1所示:
表1实验环境配置
对抗样本生成方法所使用的参数信息如下所示:
表2算法参数信息
最大迭代次数 | 1000 |
PGD迭代次数 | 1000 |
训练自编码模块参数p | 1<sup>-8</sup> |
训练自编码模块参数λ | 0.1 |
训练自编码模块参数β | 0.01 |
本发明提供了一种基于迁移性的图像对抗样本生成装置,包括以下模块:
自编码训练模块:利用图像训练数据集进行无监督训练得到一个自编码器;
图像分类器训练模块:利用训练好的自编码器对图像训练数据集进行编码降维,并使用降维后的数据训练多个本地图像分类器;
分类器权重系数更新模块:利用本地图像分类器生成的对抗样本对目标模型进行攻击,根据得到的结果动态更新本地图像分类器权重;
分类器参数更新模块:利用没有攻击成功的样本对本地图像分类器参数进行更新。
上述技术方案中,所述自编码训练模块,采用稀疏性自编码网络,同时采用损失函数如下:
其中:
Loss中Jsapre(W,b)代表对参数的稀疏性限制,λ是正则系数,Wij代表网络的权重,在公式Jsapre(W,b)中,JE(W,b)代表原始数据与解码数据的欧式距离,β是正则系数,是KL散度,在公式JE(W,b)中m为输入数据的个数,x′代表重构后数据,x代表原始数据,在公式中p为稀疏性参数设置为接近0的数,aj(x(i))代表第i个数据在隐层中第j个神经元的均值输出,代表所有训练数据集中隐层第j个神经元的激活度均值,最后采用随机梯度优化下降方法来优化参数。
上述技术方案中,所述分类器权重系数更新模块采用迭代更新方式更新权重,包括以下步骤:
S3.1:设置每个本地图像分类器的初始权重系数μi为0,i代表第i个本地分类器,设置当前迭代次数c为1,设置si=0,si代表第i个图像分类器生成的图像对抗样本攻击成功的次数;
S3.2:随机从原始训练数据中选取一个图像样本并使用自编码器编码得到样本Xi,利用PGD方法逐个对本地图像分类器生成一个图像对抗样本X′i,i代表第i个分类器;
S3.3:利用自编码器对X′i进行解码并传入需要被攻击的目标分类器,如果攻击成功,则置si等于si+1,如果没有攻击成功则将图像对抗样本X′i、目标分类器对图像对抗样本X′i的分类结果及对应的本地图像分类器传入分类器参数更新模块;
S3.4:如果满足迭代最大次数Max_iter(超参数需要人为指定)则停止迭代,然后更新每个本地图像分类器(不包含在参数更新模块中已被剔除的分类器)的权重系数并进行归一化处理,最终设置μi等于,否则置c=c+1并执行S3.2继续迭代。
上述技术方案中,所述分类器参数更新模块有如下步骤:
S4.1:如果是第一次更新则设置c′=0,否则执行S2,其中c′为当前更新的次数;
S4.3:根据传入的图像对抗样本X′i、目标模型对图像对抗样本X′i的分类结果将其作为新的训练数据,相应的本地图像分类器根据这个训练数据进行一次梯度下降算法,更新本地图像分类器的内部参数,并置c′为c′+1。
上述技术方案中,在迭代完成后使用本地图像分类器以及对应的权重系数线性集成为最终的集成图像分类器,集成方式如下:
其中D代表自编码器降维后的数据,ui为权重系数,fi(D)为第i个本地图像分类器对数据D生成的扰动ri。
一、自编码训练:数据集为MNIST数据集。将所有训练数据集作为自编码器的训练集,其中隐层的大小为196维向量,用随机梯度优化下降方法来优化参数。
二、本地分类模型训练:将所有训练数据输入自编码器,输出中间的隐层数据,训练一个模型时采用80%该数据集当做训练集,20%当做测试数据集,分别训练了VGG19,VGG16,RseNet18,RseNet101和Densenet121这5个模型。
三、迭代更新模型之间的权重系数以及模型自身参数:从数据集中随机选择一个数据,之后经过自编码器编码将数据降维,将数据依次输入每个模型,利用PGD算法产生出相应的对抗样本,再经过自编码器解码后将对抗样本输入目标模型,按照前述更新方式动态更新参数。
四、利用最后的集成模型去生成对抗样本并统计成功率:随机采样1000张MNIST测试数据集,传入自编码器得到编码后的数据,再利用该数据和集成模型采用PGD对抗样本生成算法,得到最终的对抗样本,经由自编码器解码后得到最终的对抗样本。最后统计其攻击成功率。
本实施方式提出生成对抗样本的方式有效且简单。针对主流神经网络模型有着非常高的成功率。
以上仅是本发明众多具体应用范围中的代表性实施例,对本发明的保护范围不构成任何限制。凡采用变换或是等效替换而形成的技术方案,均落在本发明权利保护范围之内。
Claims (10)
1.一种基于迁移性的图像对抗样本生成装置,其特征在于,包括以下模块:
自编码训练模块:利用图像训练数据集进行无监督训练得到一个自编码器;
图像分类器训练模块:利用训练好的自编码器对图像训练数据集进行编码降维,并使用降维后的数据训练多个本地图像分类器;
分类器权重系数更新模块:利用本地图像分类器生成的对抗样本对目标模型进行攻击,根据得到的结果动态更新本地图像分类器权重;
分类器参数更新模块:利用没有攻击成功的样本对本地图像分类器参数进行更新。
2.根据权利要求1一种基于迁移性的对抗样本生成装置,其特征在于,所述自编码训练模块,采用稀疏性自编码网络,同时采用损失函数如下:
其中:
3.根据权利要求1一种基于迁移性的对抗样本生成装置,其特征在于,所述分类器权重系数更新模块采用迭代更新方式更新权重,包括以下步骤:
S3.1:设置每个本地图像分类器的初始权重系数μi为0,i代表第i个本地分类器,设置当前迭代次数c为1,设置si=0,si代表第i个图像分类器生成的图像对抗样本攻击成功的次数;
S3.2:随机从原始训练数据中选取一个图像样本并使用自编码器编码得到样本Xi,利用PGD方法逐个对本地图像分类器生成一个图像对抗样本X′i,i代表第i个分类器;
S3.3:利用自编码器对X′i进行解码并传入需要被攻击的目标分类器,如果攻击成功,则置si等于si+1,如果没有攻击成功则将图像对抗样本X′i、目标分类器对图像对抗样本X′i的分类结果及对应的本地图像分类器传入分类器参数更新模块;
6.一种基于迁移性的对抗样本生成方法,其特征在于,包括以下步骤:
1)输入正常图像样本;
2)图像样本经过自编码器处理得到降维后的数据D;
3)依次传入经过筛选后的本地图像分类器中并使用PGD对抗样本生成算法得到不同的扰动ri;
4)按照前述集成方式得到最终的扰动f(D);
5)将降维后的数据D添加上扰动f(D)后经自编码器解码得到最终的对抗样本。
7.根据权利要求6一种基于迁移性的对抗样本生成方法,其特征在于,所述自编码训练模块,采用稀疏性自编码网络,同时采用损失函数如下:
其中:
8.根据权利要求6一种基于迁移性的对抗样本生成方法,其特征在于,所述分类器权重系数更新模块采用迭代更新方式更新权重,包括以下步骤:
S3.1:设置每个本地图像分类器的初始权重系数μi为0,i代表第i个本地分类器,设置当前迭代次数c为1,设置si=0,si代表第i个图像分类器生成的图像对抗样本攻击成功的次数;
S3.2:随机从原始训练数据中选取一个图像样本并使用自编码器编码得到样本Xi,利用PGD方法逐个对本地图像分类器生成一个图像对抗样本X′i,i代表第i个分类器;
S3.3:利用自编码器对X′i进行解码并传入需要被攻击的目标分类器,如果攻击成功,则置si等于si+1,如果没有攻击成功则将图像对抗样本X′i、目标分类器对图像对抗样本X′i的分类结果及对应的本地图像分类器传入分类器参数更新模块;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011121652.2A CN112215292B (zh) | 2020-10-19 | 2020-10-19 | 一种基于迁移性的图像对抗样本生成装置及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011121652.2A CN112215292B (zh) | 2020-10-19 | 2020-10-19 | 一种基于迁移性的图像对抗样本生成装置及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112215292A true CN112215292A (zh) | 2021-01-12 |
CN112215292B CN112215292B (zh) | 2022-03-29 |
Family
ID=74056019
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011121652.2A Active CN112215292B (zh) | 2020-10-19 | 2020-10-19 | 一种基于迁移性的图像对抗样本生成装置及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112215292B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113283377A (zh) * | 2021-06-10 | 2021-08-20 | 重庆师范大学 | 一种人脸隐私保护方法、系统、介质及电子终端 |
CN113361594A (zh) * | 2021-06-03 | 2021-09-07 | 安徽理工大学 | 一种基于生成模型的对抗样本生成方法 |
CN113361611A (zh) * | 2021-06-11 | 2021-09-07 | 南京大学 | 一种众包任务下的鲁棒分类器训练方法 |
CN113657506A (zh) * | 2021-08-18 | 2021-11-16 | 成都卫士通信息安全技术有限公司 | 一种对抗样本生成方法、装置、设备及介质 |
CN113674140A (zh) * | 2021-08-20 | 2021-11-19 | 燕山大学 | 一种物理对抗样本生成方法及系统 |
CN114708460A (zh) * | 2022-04-12 | 2022-07-05 | 济南博观智能科技有限公司 | 一种图像分类方法、系统、电子设备及存储介质 |
CN114996496A (zh) * | 2022-06-20 | 2022-09-02 | 电子科技大学 | 一种针对图片检索模型的基于查询的黑盒攻击方法 |
CN115439377A (zh) * | 2022-11-08 | 2022-12-06 | 电子科技大学 | 一种增强对抗图像样本迁移性攻击的方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106934462A (zh) * | 2017-02-09 | 2017-07-07 | 华南理工大学 | 基于迁移的对抗性环境下的防御毒化攻击的学习方法 |
CN110941794A (zh) * | 2019-11-27 | 2020-03-31 | 浙江工业大学 | 一种基于通用逆扰动防御矩阵的对抗攻击防御方法 |
EP3629237A1 (en) * | 2018-09-27 | 2020-04-01 | Robert Bosch GmbH | Device and method to improve the robustness against 'adversarial examples' |
EP3671574A1 (en) * | 2018-12-19 | 2020-06-24 | Robert Bosch GmbH | Device and method to improve the robustness against 'adversarial examples |
CN111340180A (zh) * | 2020-02-10 | 2020-06-26 | 中国人民解放军国防科技大学 | 指定标签的对抗样本生成方法、装置、电子设备及介质 |
CN111626063A (zh) * | 2020-07-28 | 2020-09-04 | 浙江大学 | 一种基于投影梯度下降和标签平滑的文本意图识别方法及系统 |
CN111626367A (zh) * | 2020-05-28 | 2020-09-04 | 深圳前海微众银行股份有限公司 | 对抗样本检测方法、装置、设备及计算机可读存储介质 |
CN111783982A (zh) * | 2020-06-30 | 2020-10-16 | 平安国际智慧城市科技股份有限公司 | 攻击样本的获取方法、装置、设备及介质 |
CN111783629A (zh) * | 2020-06-29 | 2020-10-16 | 浙大城市学院 | 一种面向对抗样本攻击的人脸活体检测方法及装置 |
-
2020
- 2020-10-19 CN CN202011121652.2A patent/CN112215292B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106934462A (zh) * | 2017-02-09 | 2017-07-07 | 华南理工大学 | 基于迁移的对抗性环境下的防御毒化攻击的学习方法 |
EP3629237A1 (en) * | 2018-09-27 | 2020-04-01 | Robert Bosch GmbH | Device and method to improve the robustness against 'adversarial examples' |
EP3671574A1 (en) * | 2018-12-19 | 2020-06-24 | Robert Bosch GmbH | Device and method to improve the robustness against 'adversarial examples |
CN110941794A (zh) * | 2019-11-27 | 2020-03-31 | 浙江工业大学 | 一种基于通用逆扰动防御矩阵的对抗攻击防御方法 |
CN111340180A (zh) * | 2020-02-10 | 2020-06-26 | 中国人民解放军国防科技大学 | 指定标签的对抗样本生成方法、装置、电子设备及介质 |
CN111626367A (zh) * | 2020-05-28 | 2020-09-04 | 深圳前海微众银行股份有限公司 | 对抗样本检测方法、装置、设备及计算机可读存储介质 |
CN111783629A (zh) * | 2020-06-29 | 2020-10-16 | 浙大城市学院 | 一种面向对抗样本攻击的人脸活体检测方法及装置 |
CN111783982A (zh) * | 2020-06-30 | 2020-10-16 | 平安国际智慧城市科技股份有限公司 | 攻击样本的获取方法、装置、设备及介质 |
CN111626063A (zh) * | 2020-07-28 | 2020-09-04 | 浙江大学 | 一种基于投影梯度下降和标签平滑的文本意图识别方法及系统 |
Non-Patent Citations (2)
Title |
---|
杨浚宇: "基于迭代自编码器的深度学习对抗样本防御方案", 《信息安全学报》 * |
潘文雯 等: "对抗样本生成技术综述", 《软件学报》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113361594A (zh) * | 2021-06-03 | 2021-09-07 | 安徽理工大学 | 一种基于生成模型的对抗样本生成方法 |
CN113361594B (zh) * | 2021-06-03 | 2023-10-20 | 安徽理工大学 | 一种基于生成模型的对抗样本生成方法 |
CN113283377A (zh) * | 2021-06-10 | 2021-08-20 | 重庆师范大学 | 一种人脸隐私保护方法、系统、介质及电子终端 |
CN113361611A (zh) * | 2021-06-11 | 2021-09-07 | 南京大学 | 一种众包任务下的鲁棒分类器训练方法 |
CN113361611B (zh) * | 2021-06-11 | 2023-12-12 | 南京大学 | 一种众包任务下的鲁棒分类器训练方法 |
CN113657506A (zh) * | 2021-08-18 | 2021-11-16 | 成都卫士通信息安全技术有限公司 | 一种对抗样本生成方法、装置、设备及介质 |
CN113674140A (zh) * | 2021-08-20 | 2021-11-19 | 燕山大学 | 一种物理对抗样本生成方法及系统 |
CN113674140B (zh) * | 2021-08-20 | 2023-09-26 | 燕山大学 | 一种物理对抗样本生成方法及系统 |
CN114708460A (zh) * | 2022-04-12 | 2022-07-05 | 济南博观智能科技有限公司 | 一种图像分类方法、系统、电子设备及存储介质 |
CN114996496A (zh) * | 2022-06-20 | 2022-09-02 | 电子科技大学 | 一种针对图片检索模型的基于查询的黑盒攻击方法 |
CN115439377A (zh) * | 2022-11-08 | 2022-12-06 | 电子科技大学 | 一种增强对抗图像样本迁移性攻击的方法 |
CN115439377B (zh) * | 2022-11-08 | 2023-03-24 | 电子科技大学 | 一种增强对抗图像样本迁移性攻击的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112215292B (zh) | 2022-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112215292B (zh) | 一种基于迁移性的图像对抗样本生成装置及方法 | |
CN105224872B (zh) | 一种基于神经网络聚类的用户异常行为检测方法 | |
CN111901340B (zh) | 一种面向能源互联网的入侵检测系统及其方法 | |
CN109993208B (zh) | 一种有噪声图像的聚类处理方法 | |
CN114066912A (zh) | 基于优化算法和不变性的智能对抗样本生成方法及系统 | |
CN111431849B (zh) | 一种网络入侵检测方法及装置 | |
CN112926661A (zh) | 一种增强图像分类鲁棒性的方法 | |
CN113591975A (zh) | 基于Adam算法的对抗样本生成方法及系统 | |
CN115051864B (zh) | 基于pca-mf-wnn的网络安全态势要素提取方法及系统 | |
CN113627543A (zh) | 一种对抗攻击检测方法 | |
CN111967574B (zh) | 一种基于张量奇异值定界的卷积神经网络训练方法 | |
CN113935396A (zh) | 基于流形理论的对抗样本攻击方法及相关装置 | |
CN115146055B (zh) | 一种基于对抗训练的文本通用对抗防御方法及系统 | |
CN114863226A (zh) | 一种网络物理系统入侵检测方法 | |
CN113822443A (zh) | 一种对抗攻击和生成对抗样本的方法 | |
CN116665214A (zh) | 一种基于对抗样本的大字符集验证码攻击防御方法 | |
Javaheripi et al. | CuRTAIL: ChaRacterizing and thwarting AdversarIal deep learning | |
Xu et al. | ASQ-FastBM3D: an adaptive denoising framework for defending adversarial attacks in machine learning enabled systems | |
CN108388918B (zh) | 具有结构保持特性的数据特征选择方法 | |
Zhao et al. | A contrastive knowledge transfer framework for model compression and transfer learning | |
CN115375966A (zh) | 一种基于联合损失函数的图像对抗样本生成方法及系统 | |
CN112434716B (zh) | 一种基于条件对抗神经网络的水下目标数据扩增方法及系统 | |
Su et al. | Cleaning adversarial perturbations via residual generative network for face verification | |
CN113392901A (zh) | 一种基于深度学习模型神经通路激活特征的对抗样本检测方法 | |
CN112381070A (zh) | 一种快速鲁棒人脸识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |