CN115439377A - 一种增强对抗图像样本迁移性攻击的方法 - Google Patents
一种增强对抗图像样本迁移性攻击的方法 Download PDFInfo
- Publication number
- CN115439377A CN115439377A CN202211389040.0A CN202211389040A CN115439377A CN 115439377 A CN115439377 A CN 115439377A CN 202211389040 A CN202211389040 A CN 202211389040A CN 115439377 A CN115439377 A CN 115439377A
- Authority
- CN
- China
- Prior art keywords
- image sample
- image
- confrontation
- sample
- original
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000005012 migration Effects 0.000 title claims abstract description 12
- 238000013508 migration Methods 0.000 title claims abstract description 12
- 230000002708 enhancing effect Effects 0.000 title claims abstract description 7
- 230000006870 function Effects 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 6
- 238000013145 classification model Methods 0.000 claims description 3
- 230000004048 modification Effects 0.000 claims description 3
- 238000012986 modification Methods 0.000 claims description 3
- 241001132374 Asta Species 0.000 claims description 2
- 230000002040 relaxant effect Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 abstract description 5
- 230000000007 visual effect Effects 0.000 abstract description 4
- 238000012545 processing Methods 0.000 abstract description 2
- 238000013528 artificial neural network Methods 0.000 description 3
- 235000000332 black box Nutrition 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种增强对抗图像样本迁移性攻击的方法,属于图像处理领域。首先在利用原图片生成对抗图像样本之前,用高斯核对其进行卷积,而后扩大可搜索的对抗子空间,让攻击者获得更多信息,再利用捕获到的额外信息生成对抗图像样本之后,将对抗子空间还原到原来的大小,减少对抗图像样本和原图片间的视觉对比,最后生成对抗图像样本。本发明与模型增强等方法相比,所增加的计算开销可以忽略不计,与其他攻击方法相结合,进一步提高对抗图像样本的迁移性,本发明从频域和可搜索对抗子空间的角度出发,通过减少原图片的高频成分,扩大可搜索的对抗子空间,生成更具迁移性的对抗图像样本。
Description
技术领域
本发明属于机器视觉图像处理领域,特别是对抗图像样本迁移性攻击增强方法。
背景技术
对抗图像样本的迁移性是指针对一个模型生成的对抗图像样本会同样对其他模型产生威胁。已有研究说明,深度神经网络极易受到对抗图像样本的影响。对抗图像样本是通过在原图片上添加人类难以察觉的扰动生成的,它能使分类器对图片产生误分类。越锋利的矛可以造就越坚实的盾。同理,攻击性越强的对抗图像样本可以催生出更加鲁棒的深度神经网络,所以研究如何生成更具威胁性的对抗图像样本是非常有必要的。为了更好的理解和改进深度神经网络,研究人员们设计了各种攻击方法。在对抗攻击分类上,对抗攻击可以分为白盒攻击和黑盒攻击。对于白盒攻击,由于攻击者可以获得目标模型(也称为受害者模型)的完整知识,因此攻击者可以通过梯度反传来直接生成对抗图像样本。然而,由于安全问题,攻击者想要在现实世界中获得一个模型的全部信息是很困难的,所以黑盒攻击应运而生。在黑盒攻击中,攻击者不需要知道目标模型的全部知识也能对目标模型进行攻击。黑盒攻击的攻击方式有很多种,其中一个分支名为基于迁移性的攻击。此分支的攻击流程是攻击者在白盒模型上通过梯度反传生成对抗图像样本,然后用它们作为输入来攻击黑盒模型。然而由于白盒模型和黑盒模型决策边界间的差异性,导致对抗图像样本在黑盒模型上的攻击成功率不高。因此,研究者们提出了各种攻击方法来减轻模型决策边界间的差异性对对抗图像样本迁移性的影响,包括投影梯度下降、动量快速梯度符号下降、输入变换、图像平移和方差调整。
然而,上述提到的方法都存在如下两个问题。首先,攻击者使用原图片的所有组成部分来生成对抗图像样本,导致生成的对抗图像样本在白盒模型上过拟合。第二,为维持对抗图像样本和原图片之间的视觉相似性,对抗子空间的搜索范围被限制,导致重要信息的遗漏。
发明内容
为解决上述生成的对抗图像样本在白盒模型上过拟合问题和重要信息遗漏问题,本发明提出了一种增强对抗图像样本迁移性攻击的方法。
本发明采用的技术方案为:一种增强对抗图像样本迁移性攻击的方法,具体步骤如下:
S1、定义对抗图像样本生成问题,用高斯核对原始图片进行卷积,以减少图片的高频部分;
S13、定义对抗图像样本的生成问题:
进一步的,所述步骤S14的具体方法为:
将原始图像样本通过高斯卷积核,得到处理后的图片:
本发明的有益效果:本发明的方法首先在利用原图片生成对抗图像样本之前,用高斯核对其进行卷积,以减少图片的高频部分,而后扩大可搜索的对抗子空间,让攻击者获得更多信息,再利用捕获到的额外信息生成对抗图像样本之后,将对抗子空间还原到原来的大小,以减少对抗图像样本和原图片间的视觉对比,最后生成对抗图像样本。本发明的方法与模型增强等计算成本较高的方法相比,所增加的计算开销可以忽略不计,可以与其他攻击方法相结合,进一步提高对抗图像样本的迁移性,本发明方法从频域和可搜索对抗子空间的角度出发,通过减少原图片的高频成分,扩大可搜索的对抗子空间,能够生成更具迁移性的对抗图像样本。
附图说明
图1为本发明的一种对抗图像样本迁移性攻击增强方法的流程图。
图2为本实施例的实验结果图,其中图(a)为I-FGSM(快速梯度符号法),图(b)为MI-FGSM(动量迭代法)实验结果图。
具体实施方式
下面结合附图和具体实施方式对本发明作进一步说明。
如图1所示,本发明的一种对抗图像样本迁移性攻击增强方法流程图,具体步骤如下:
S1、定义对抗图像样本生成问题,用高斯核对原始图片进行卷积,以减少图片的高频部分;
S2、在步骤S1的基础上,扩大可搜索的对抗子空间,让攻击者获得更多信息;
S3、基于步骤S1-S2中的信息基础,在利用捕获到的额外信息生成对抗图像样本之后,再将对抗子空间还原到原来的大小,生成对抗图像样本。
本实施例中,所述步骤S1具体子步骤如下:
S13、定义对抗图像样本的生成问题:
S15、将原始图片通过高斯卷积核,得到处理后的图片:
本实施例中,所述步骤S2具体子步骤如下:
S22、扩大可搜索的对抗子空间,让攻击者获得更多信息;
本实施例中,所述步骤S3具体子步骤如下:
其中,t代表迭代次数;
如图2所示,为了研究高斯核长度对对抗图像样本迁移性的影响,本实施例中分别
用图(a)的I-FGSM(快速梯度符号法)和图(b)的MI-FGSM(动量迭代法)进行了实验。高斯核
的长度从1到21。这里意味着直接在原图像上执行I-FGSM和MI-FGSM。从实验结果
可以看到,黑盒攻击的成功率随着的增加而上升,但当超过9时成功率就开始下降。因
此,在本实施例中将高斯核的长度设置为9。
为了证明所提出方法的有效性,在表1中展示本发明方法的攻击成功率。具体来说,本发明通过I-FGSM(迭代快速梯度符号法)、MI-FGSM(动量迭代法)、DI-FGSM(多样化输入变换法)、TI-FGSM(图像平移法)和VMI-FGSM(方差调整法)以及与本发明的方法相结合的扩展,即I-RE-FGSM、MI-RE-FGSM、DI-RE-FGSM、TI-RE-GSM和VMI-RE-FGSM(其中每个方法中的RE代表本发明的方法),来攻击Inc-v3(Inception-v3)、Inc-v4(Inception-v4)、Res-152(Resnet-152)和IncRes-v2(Inception-ResNet-v2)模型。
表1中每一个数据单元斜杠前面的数值表示之前方法的攻击成功率,后面的数值表示方法的攻击成功率。选择了七个防御模型,包括Inc-v3ens3(Inception-v3-ensemble3)、Inc-v3ens4(Inception-v3-ensemble4)、IncRes-v2ens(Inception-ResNet-v2-ensemble)、R&P(随机化)、NIPS-r3(图像转换)、RS(随机平滑)和NRP(自监督对抗训练)。从表1可以看出,本发明方法高于之前的方法。总的来说,本发明方法比之前的攻击方法高3.6%~14.9%。
表1本发明方法与其他不同方法的效果对比。
综上可以看出,本发明的方法首先在利用原图片生成对抗图像样本之前,用高斯核对其进行卷积,以减少图片的高频部分,而后扩大可搜索的对抗子空间,让攻击者获得更多信息,再利用捕获到的额外信息生成对抗图像样本之后,将对抗子空间还原到原来的大小,以减少对抗图像样本和原图片间的视觉对比,最后生成对抗图像样本。本发明的方法与模型增强等计算成本较高的方法相比,所增加的计算开销可以忽略不计,可以与其他攻击方法相结合,进一步提高对抗图像样本的迁移性,本发明方法从频域和可搜索对抗子空间的角度出发,通过减少原图片的高频成分,扩大可搜索的对抗子空间,能够生成更具迁移性的对抗图像样本。
Claims (2)
1.一种增强对抗图像样本迁移性攻击的方法,其特征在于,具体步骤如下:
S1、定义对抗图像样本生成问题,用高斯核对原始图片进行卷积,以减少图片的高频部分;
S13、定义对抗图像样本的生成问题:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211389040.0A CN115439377B (zh) | 2022-11-08 | 2022-11-08 | 一种增强对抗图像样本迁移性攻击的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211389040.0A CN115439377B (zh) | 2022-11-08 | 2022-11-08 | 一种增强对抗图像样本迁移性攻击的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115439377A true CN115439377A (zh) | 2022-12-06 |
CN115439377B CN115439377B (zh) | 2023-03-24 |
Family
ID=84252706
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211389040.0A Active CN115439377B (zh) | 2022-11-08 | 2022-11-08 | 一种增强对抗图像样本迁移性攻击的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115439377B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118608875A (zh) * | 2024-08-06 | 2024-09-06 | 东北大学 | 一种基于鲁棒遗传规划和特征学习的弱图像分类方法 |
CN118608875B (zh) * | 2024-08-06 | 2024-10-18 | 东北大学 | 一种基于鲁棒遗传规划和特征学习的弱图像分类方法 |
Citations (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110851835A (zh) * | 2019-09-23 | 2020-02-28 | 平安科技(深圳)有限公司 | 图像模型检测方法、装置、电子设备及存储介质 |
CN111680292A (zh) * | 2020-06-10 | 2020-09-18 | 北京计算机技术及应用研究所 | 一种基于高隐蔽性通用扰动的对抗样本生成方法 |
CN111932646A (zh) * | 2020-07-16 | 2020-11-13 | 电子科技大学 | 一种用于对抗攻击的图像处理方法 |
EP3751476A1 (en) * | 2019-06-13 | 2020-12-16 | Baidu USA LLC | A system to mitigate against adversarial samples for machine learning and artificial intelligence models |
CN112215292A (zh) * | 2020-10-19 | 2021-01-12 | 电子科技大学 | 一种基于迁移性的图像对抗样本生成装置及方法 |
US20210173872A1 (en) * | 2019-12-09 | 2021-06-10 | Salesforce.Com, Inc. | Systems and methods for generating natural language processing training samples with inflectional perturbations |
CN113066002A (zh) * | 2021-02-27 | 2021-07-02 | 华为技术有限公司 | 对抗样本的生成方法、神经网络的训练方法、装置及设备 |
CN113344814A (zh) * | 2021-06-03 | 2021-09-03 | 安徽理工大学 | 一种基于生成机制的高分辨率对抗样本的合成方法 |
CN113674140A (zh) * | 2021-08-20 | 2021-11-19 | 燕山大学 | 一种物理对抗样本生成方法及系统 |
CN113780123A (zh) * | 2021-08-27 | 2021-12-10 | 广州大学 | 一种对抗样本生成方法、系统、计算机设备和存储介质 |
CN114066912A (zh) * | 2021-11-23 | 2022-02-18 | 中国人民解放军战略支援部队信息工程大学 | 基于优化算法和不变性的智能对抗样本生成方法及系统 |
CN114283341A (zh) * | 2022-03-04 | 2022-04-05 | 西南石油大学 | 一种高转移性对抗样本生成方法、系统及终端 |
CN114331829A (zh) * | 2021-09-03 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 一种对抗样本生成方法、装置、设备以及可读存储介质 |
CN114387476A (zh) * | 2022-01-17 | 2022-04-22 | 湖南大学 | 一种提高对抗样本在防御机制上迁移性的方法 |
CN114399630A (zh) * | 2021-12-31 | 2022-04-26 | 燕山大学 | 基于信念攻击和显著区域扰动限制的对抗样本生成方法 |
CN114549933A (zh) * | 2022-02-21 | 2022-05-27 | 南京大学 | 基于目标检测模型特征向量迁移的对抗样本生成方法 |
CN114626042A (zh) * | 2022-03-18 | 2022-06-14 | 杭州师范大学 | 一种人脸验证攻击方法和装置 |
CN114926708A (zh) * | 2022-05-25 | 2022-08-19 | 杭州师范大学 | 一种结合低频信息和特征的目标检测对抗攻方法和装置 |
CN114972783A (zh) * | 2022-05-06 | 2022-08-30 | 华中科技大学 | 一种增强梯度低频信息的对抗样本生成方法及其应用 |
CN115100421A (zh) * | 2022-06-22 | 2022-09-23 | 西北工业大学 | 一种基于图像频域分解重构的对抗样本生成方法 |
CN115115905A (zh) * | 2022-06-13 | 2022-09-27 | 苏州大学 | 基于生成模型的高可迁移性图像对抗样本生成方法 |
CN115147682A (zh) * | 2022-07-04 | 2022-10-04 | 内蒙古科技大学 | 一种具有迁移性的隐蔽白盒对抗样本生成方法及装置 |
CN115187449A (zh) * | 2022-06-20 | 2022-10-14 | 湖南大学 | 一种基于透视变换的提高对抗样本迁移性的方法 |
-
2022
- 2022-11-08 CN CN202211389040.0A patent/CN115439377B/zh active Active
Patent Citations (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3751476A1 (en) * | 2019-06-13 | 2020-12-16 | Baidu USA LLC | A system to mitigate against adversarial samples for machine learning and artificial intelligence models |
CN110851835A (zh) * | 2019-09-23 | 2020-02-28 | 平安科技(深圳)有限公司 | 图像模型检测方法、装置、电子设备及存储介质 |
US20210173872A1 (en) * | 2019-12-09 | 2021-06-10 | Salesforce.Com, Inc. | Systems and methods for generating natural language processing training samples with inflectional perturbations |
CN111680292A (zh) * | 2020-06-10 | 2020-09-18 | 北京计算机技术及应用研究所 | 一种基于高隐蔽性通用扰动的对抗样本生成方法 |
CN111932646A (zh) * | 2020-07-16 | 2020-11-13 | 电子科技大学 | 一种用于对抗攻击的图像处理方法 |
CN112215292A (zh) * | 2020-10-19 | 2021-01-12 | 电子科技大学 | 一种基于迁移性的图像对抗样本生成装置及方法 |
CN113066002A (zh) * | 2021-02-27 | 2021-07-02 | 华为技术有限公司 | 对抗样本的生成方法、神经网络的训练方法、装置及设备 |
CN113344814A (zh) * | 2021-06-03 | 2021-09-03 | 安徽理工大学 | 一种基于生成机制的高分辨率对抗样本的合成方法 |
CN113674140A (zh) * | 2021-08-20 | 2021-11-19 | 燕山大学 | 一种物理对抗样本生成方法及系统 |
CN113780123A (zh) * | 2021-08-27 | 2021-12-10 | 广州大学 | 一种对抗样本生成方法、系统、计算机设备和存储介质 |
CN114331829A (zh) * | 2021-09-03 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 一种对抗样本生成方法、装置、设备以及可读存储介质 |
CN114066912A (zh) * | 2021-11-23 | 2022-02-18 | 中国人民解放军战略支援部队信息工程大学 | 基于优化算法和不变性的智能对抗样本生成方法及系统 |
CN114399630A (zh) * | 2021-12-31 | 2022-04-26 | 燕山大学 | 基于信念攻击和显著区域扰动限制的对抗样本生成方法 |
CN114387476A (zh) * | 2022-01-17 | 2022-04-22 | 湖南大学 | 一种提高对抗样本在防御机制上迁移性的方法 |
CN114549933A (zh) * | 2022-02-21 | 2022-05-27 | 南京大学 | 基于目标检测模型特征向量迁移的对抗样本生成方法 |
CN114283341A (zh) * | 2022-03-04 | 2022-04-05 | 西南石油大学 | 一种高转移性对抗样本生成方法、系统及终端 |
CN114626042A (zh) * | 2022-03-18 | 2022-06-14 | 杭州师范大学 | 一种人脸验证攻击方法和装置 |
CN114972783A (zh) * | 2022-05-06 | 2022-08-30 | 华中科技大学 | 一种增强梯度低频信息的对抗样本生成方法及其应用 |
CN114926708A (zh) * | 2022-05-25 | 2022-08-19 | 杭州师范大学 | 一种结合低频信息和特征的目标检测对抗攻方法和装置 |
CN115115905A (zh) * | 2022-06-13 | 2022-09-27 | 苏州大学 | 基于生成模型的高可迁移性图像对抗样本生成方法 |
CN115187449A (zh) * | 2022-06-20 | 2022-10-14 | 湖南大学 | 一种基于透视变换的提高对抗样本迁移性的方法 |
CN115100421A (zh) * | 2022-06-22 | 2022-09-23 | 西北工业大学 | 一种基于图像频域分解重构的对抗样本生成方法 |
CN115147682A (zh) * | 2022-07-04 | 2022-10-04 | 内蒙古科技大学 | 一种具有迁移性的隐蔽白盒对抗样本生成方法及装置 |
Non-Patent Citations (5)
Title |
---|
IAN J.GOODFELLOW 等: "Explaining and Harnessing Adversarial Examples", 《ICLR 2015》 * |
叶启松 等: "攻击分类器的对抗样本生成技术的现状分析", 《计算机工程与应用》 * |
周书亚: "基于深度学习图像识别模型的对抗样本生成与迁移性研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
李昭平: "深度学习中图像对抗样本的迁移性研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
王伟 等: "视觉对抗样本生成技术概述", 《信息安全学报》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118608875A (zh) * | 2024-08-06 | 2024-09-06 | 东北大学 | 一种基于鲁棒遗传规划和特征学习的弱图像分类方法 |
CN118608875B (zh) * | 2024-08-06 | 2024-10-18 | 东北大学 | 一种基于鲁棒遗传规划和特征学习的弱图像分类方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115439377B (zh) | 2023-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Carlini et al. | Evading deepfake-image detectors with white-and black-box attacks | |
Dong et al. | Evading defenses to transferable adversarial examples by translation-invariant attacks | |
Neekhara et al. | Adversarial threats to deepfake detection: A practical perspective | |
Li et al. | Auditing privacy defenses in federated learning via generative gradient leakage | |
Agarwal et al. | Image transformation-based defense against adversarial perturbation on deep learning models | |
CN109948658A (zh) | 面向特征图注意力机制的对抗攻击防御方法及应用 | |
Chen et al. | Magdr: Mask-guided detection and reconstruction for defending deepfakes | |
CN112883874B (zh) | 针对深度人脸篡改的主动防御方法 | |
CN114066912A (zh) | 基于优化算法和不变性的智能对抗样本生成方法及系统 | |
Yuan et al. | Ensemble generative cleaning with feedback loops for defending adversarial attacks | |
Bui et al. | Improving adversarial robustness by enforcing local and global compactness | |
CN113487015A (zh) | 基于图像亮度随机变换的对抗样本生成方法及系统 | |
CN115115905A (zh) | 基于生成模型的高可迁移性图像对抗样本生成方法 | |
Chen et al. | Patch selection denoiser: An effective approach defending against one-pixel attacks | |
CN115147682A (zh) | 一种具有迁移性的隐蔽白盒对抗样本生成方法及装置 | |
Li et al. | Two-branch multi-scale deep neural network for generalized document recapture attack detection | |
Chen et al. | Unrestricted adversarial attacks on imagenet competition | |
CN115439377B (zh) | 一种增强对抗图像样本迁移性攻击的方法 | |
Xie et al. | Improving the transferability of adversarial examples with new iteration framework and input dropout | |
Liu et al. | DualFlow: Generating imperceptible adversarial examples by flow field and normalize flow-based model | |
Devasthale et al. | Adversarially robust deepfake video detection | |
CN117011508A (zh) | 一种基于视觉变换和特征鲁棒的对抗训练方法 | |
CN116721333A (zh) | 一种从图像域迁移到视频域的生成式跨模态攻击方法 | |
Xie et al. | GAME: Generative-based adaptive model extraction attack | |
Kalaria et al. | Towards adversarial purification using denoising autoencoders |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230518 Address after: No. 1, 3rd Floor, Building 1, No. 4 Dayuan North Middle Street, High tech Zone, Chengdu City, Sichuan Province, 610000 Patentee after: CHENGDU YUNMEN JINLAN TECHNOLOGY Co.,Ltd. Address before: 611731, No. 2006, West Avenue, Chengdu hi tech Zone (West District, Sichuan) Patentee before: University of Electronic Science and Technology of China |