CN117876817B - 一种对抗样本生成方法 - Google Patents
一种对抗样本生成方法 Download PDFInfo
- Publication number
- CN117876817B CN117876817B CN202311791668.8A CN202311791668A CN117876817B CN 117876817 B CN117876817 B CN 117876817B CN 202311791668 A CN202311791668 A CN 202311791668A CN 117876817 B CN117876817 B CN 117876817B
- Authority
- CN
- China
- Prior art keywords
- cloud
- layer
- cloud layer
- sample
- generating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 239000013598 vector Substances 0.000 claims abstract description 84
- 230000006870 function Effects 0.000 claims abstract description 11
- 238000013528 artificial neural network Methods 0.000 claims abstract description 10
- 238000005457 optimization Methods 0.000 claims abstract description 5
- 238000012545 processing Methods 0.000 claims description 10
- 230000004927 fusion Effects 0.000 claims description 2
- 210000004027 cell Anatomy 0.000 description 21
- 238000010586 diagram Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000008485 antagonism Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 235000000332 black box Nutrition 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 210000002858 crystal cell Anatomy 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开一种对抗样本生成方法,包括如下步骤:构建生成对抗网络;获取云层参数向量并输入至生成对抗网络中,获得混合云层掩膜;将所述混合云层掩膜与原始无云遥感图像进行混合,获得被云层覆盖的对抗样本;将对抗样本输入至拟攻击的遥感图像分类神经网络,以对抗性损失和像素均方差损失作为差分进化算法的目标损失函数进行云层参数向量优化,当算法的查询次数达到设定上限或者对抗云层攻击成功时,输出最终生成的对抗样本。本发明通过最终生成的对抗样本对遥感图像分类网络进行攻击,其作为黑盒攻击方法无需了解网络内部结构,攻击成功率高且生成的对抗样本自然。
Description
技术领域
本发明涉及遥感图像对抗攻击技术领域,尤其涉及一种对抗样本生成方法。
背景技术
深度学习技术在近几年内取得了迅速的发展,神经网络在图像分类等领域得到广泛的应用。与此同时神经网络的安全性问题也引起人们关注,在图像中添加微小的扰动即可成功攻击深度神经网络。遥感图像在经济建设、生态环境保护等方面发挥着重要的作用,对遥感图像分类网络攻击方法的研究可以增强神经网络模型的鲁棒性和安全性。
对于深度神经网络的攻击通常可根据威胁模型的不同分为白盒攻击和黑盒攻击。白盒攻击需要掌握模型本身的结构和数据(通常只有从开源大模型才能得到),攻击条件更高,实施过程也更复杂;黑盒攻击则对目标模型的内部结构一无所知,只能通过观察模型的输入输出来生成对抗样本。因现实生活中很多系统的保密程度非常可靠,模型信息完全泄露的情况几乎不存在,因此白盒攻击的适用情况要远远少于黑盒攻击。因此,本发明考虑在遥感图像上添加云层,提高遥感图像分类网络的攻击成功率。
发明内容
为了解决上述技术问题,本发明提出一种对抗样本生成方法,通过最终生成的对抗样本对遥感图像分类网络进行攻击,其作为黑盒攻击方法无需了解网络内部结构,攻击成功率高且生成的对抗样本自然。
为了达到上述目的,本发明的技术方案如下:
一种对抗样本生成方法,包括如下步骤:
构建生成对抗网络;
获取云层参数向量,所述云层参数向量包括生成对抗网络的输入向量、不同晶胞尺寸云层掩膜的混合系数向量、云层厚度;将生成对抗网络的输入向量输入至生成对抗网络中,生成不同晶胞尺寸的梯度向量晶格,每个晶胞尺寸的梯度向量晶格均包括X方向和Y方向两种梯度向量晶格;对不同晶胞尺寸的梯度向量晶格进行插值处理,得到对应的云层掩膜;根据不同晶胞尺寸云层掩膜的混合系数向量对对应的云层掩膜进行加权求和,根据云层厚度缩放云层数值大小后进行图像处理,输出混合云层掩膜;
获取原始无云遥感图像,将所述混合云层掩膜与原始无云遥感图像进行混合,获得被云层覆盖的对抗样本;
将所述对抗样本输入至拟攻击的遥感图像分类神经网络,以对抗性损失和像素均方差损失作为差分进化算法的目标损失函数进行云层参数向量优化,当算法的查询次数达到设定上限或者对抗云层攻击成功时,输出最终生成的对抗样本。
优选地,所述生成对抗网络由生成器和辨别器构成,所述生成器包括依次连接的全连接层、若干个反卷积层、Batch Norm层和Tanh层构建的堆叠结构以及反卷积层、Tanh层;所述辨别器包括依次连接的卷积层、Tanh层、若干个卷积层、Batch Norm层和Tanh层构建的堆叠结构、全连接层、全连接层和Sigmoid层。
优选地,所述图像处理包括高斯模糊、通道随机偏移和通道加权系数偏移。
优选地,采用颜色均值融合将优化后的生成对抗网络生成的混合云层掩膜与原始无云遥感图像进行混合。
优选地,所述目标损失函数,如下所示:
Losstotal=Lossadv+α*Lossmse
其中,对抗性损失Lossadv=fy(X0+Xperturbation);像素均方差损失Lossmse=MSE(X0,X0+Xperturbation);Xperturbation表示混合云层掩膜;X0表示原始无云遥感图像;α为平衡因子。
基于上述技术方案,本发明的有益效果是:本发明提出了一种对抗样本生成方法,构建生成对抗网络;获取云层参数向量,所述云层参数向量包括生成对抗网络的输入向量、不同晶胞尺寸云层掩膜的混合系数向量、云层厚度;将生成对抗网络的输入向量输入至生成对抗网络中,生成不同晶胞尺寸的梯度向量晶格,每个晶胞尺寸的梯度向量晶格均包括X方向和Y方向两种梯度向量晶格;对不同晶胞尺寸的梯度向量晶格进行插值处理,得到对应的云层掩膜;根据不同晶胞尺寸云层掩膜的混合系数向量对对应的云层掩膜进行加权求和,根据云层厚度缩放云层数值大小后进行图像处理,输出混合云层掩膜;获取原始无云遥感图像,将所述混合云层掩膜与原始无云遥感图像进行混合,获得被云层覆盖的对抗样本;将对抗样本输入至拟攻击的遥感图像分类神经网络,以对抗性损失和像素均方差损失作为差分进化算法的目标损失函数进行云层参数向量优化,当算法的查询次数达到设定上限或者对抗云层攻击成功时,输出最终生成的对抗样本,作为黑盒攻击方法无需了解网络内部结构,攻击成功率高且生成的对抗样本自然。
附图说明
图1是一个实施例中一种对抗样本生成方法流程图;
图2是一个实施例中生成对抗网络中生成器部分的结构图;
图3是一个实施例中生成对抗网络中判别器部分的结构图;
图4是实验图像,其中从左至右5列分别为原始图像的分类标签和置信概率、原始无云遥感图像、混合云层掩膜、对抗样本、对抗样本的分类标签和置信概率。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
如图1所示,本实施例提供一种对抗样本生成方法,包括如下步骤:
步骤1,构建生成对抗网络。
参见图2,提供生成对抗网络中生成器部分的结构图所示,生成器模型是一个包含多个反卷积层、Batch Norm层、Tanh层的堆叠结构。当输入一个1×27维的隐空间向量时,先经过全连接层转化成通道数为128的3×3的图像,再进行多次反卷积操作使图像尺寸扩大的同时通道数减半。在每次反卷积操作后取出最后两个通道的图像作为相应晶胞尺寸输出的梯度向量晶格,在最后一次反卷积后,通道数已经为2,则直接输出图像。经过上述设计,当输入一个1×27维的隐空间向量至生成器时,可以得到5×5×2、9×9×2、17×17×2、33×33×2、65×65×2(长×宽×通道数,两个通道分别表示分解至X方向和Y方向的两类梯度向量晶格)共计5种不同晶胞尺寸的两类梯度向量晶格。
参见图3,提供生成对抗网络中判别器部分的结构图所示,判别器模型是一个包含多个卷积层、Batch Norm层、Tanh层的堆叠结构。首先输入由生成器输出的65×65×2(长×宽×通道数,两个通道分别表示分解至X方向和Y方向的两类梯度向量晶格)的梯度向量晶格,经过一次卷积后,图像的通道数不变仍为2,但是图像的尺寸缩小为33×33,此时将生成器输出的33×33×2的梯度向量晶格从后部拼接,使通道数扩增为4。以此类推经过多次卷积操作,图像尺寸不断减小,通道数不变的同时在每次卷积后拼接上相应尺寸的梯度向量晶格。当5种不同的梯度向量晶格都完成输入或拼接后,图像尺寸为5×5×10,经过一次卷积尺寸转化为3×3×10。最后将3×3×10的图像经过全连接层转化为1×90的向量,再经过全连接层和Sigmoid层输出一个判断输入的梯度向量晶格为真的置信概率值。
步骤2,获取云层参数向量,所述云层参数向量包括生成对抗网络的输入向量、不同晶胞尺寸云层掩膜的混合系数向量、云层厚度;将生成对抗网络的输入向量输入至生成对抗网络中,生成不同晶胞尺寸的梯度向量晶格,每个晶胞尺寸的梯度向量晶格均包括X方向和Y方向两种梯度向量晶格;对不同晶胞尺寸的梯度向量晶格进行插值处理,得到对应的云层掩膜;根据不同晶胞尺寸云层掩膜的混合系数向量对对应的云层掩膜进行加权求和,根据云层厚度缩放云层数值大小后进行图像处理,输出混合云层掩膜。
本实施例中,考虑到柏林噪声梯度向量晶格是生成遥感图像云层的重要参数,传统的梯度向量晶格生成是一个充满随机性而难以控制的过程。在生成对抗网络训练完成后,向生成器输入1×27维的隐空间向量,可得到对应的具有5种晶胞尺寸的梯度向量晶格,从而实现使用有限参数对云层形态的有效控制,极大减少了后续差分进化算法的搜索难度,使其覆盖扰动至遥感图像较为脆弱易受攻击的区域。
通过生成对抗网络得到5种晶胞尺寸的梯度向量晶格,每种两张,分别表示分解到X方向和Y方向的梯度向量晶格;对梯度向量晶格进行插值得到云层掩膜。根据不同晶胞尺寸云层掩膜的混合系数向量对5种云层掩膜进行加权求和,根据云层厚度缩放云层数值大小,然后进行高斯模糊,通道随机偏移,通道加权系数偏移,得到最终的混合云层掩膜,表示为Xperturbation。在构建的生成对抗网络基础上,简化基于柏林噪声的云层生成方法的参数向量,使得对抗云层具有可优化性,使用差分进化算法对云层参数向量进行搜索。云层参数向量可以表示为Adversarial Cloud=[G,M,t],其中G=[g1,g2,g3,......,g27]为生成对抗网络生成器的27维输入向量,将其输入预先训练完成的生成器可以得到5种不同晶胞尺寸的云层掩膜,通过修改输入向量G的值可以控制所生成云层掩膜的形态,M=[4m1,8m2,16m3,32m4,64m5]为不同晶胞尺寸云层掩膜的混合系数向量,t为云层厚度。
步骤3,获取原始无云遥感图像,将所述混合云层掩膜与原始无云遥感图像进行混合,获得被云层覆盖的对抗样本。
本实施例中,通过给定的参数向量生成最终的混合云层掩膜(也可称为对抗云层)Xperturbation,并与原始无云遥感图像(也可称为原始遥感图像)融合得到被云层覆盖的对抗样本。令X0表示原始无云遥感图像,根据其颜色均值将对抗云层掩膜与原始无云遥感图像进行混合,获得被云层覆盖的对抗样本,表示为X0+Xperturbation。
步骤4,将对抗样本输入至拟攻击的遥感图像分类神经网络,以对抗性损失和像素均方差损失作为差分进化算法的目标损失函数进行云层参数向量优化,当算法的查询次数达到设定上限或者对抗云层攻击成功时,输出最终生成的对抗样本。
本实施例中,将生成的对抗样本输入到拟攻击的遥感图像分类神经网络中,根据输出计算差分进化算法的损失函数。即将当前对抗样本X0+Xperturbation输入到拟攻击的遥感图像分类网络fy中,输出对应正确标签的置信概率,将置信概率称为对抗性损失Lossadv,表示为Lossadv=fy(X0+Xperturbation)。为了限制云层的扰动效果,计算对抗图像与原始图像的像素均方差之和,称像素均方差损失,表示为:Lossmse=MSE(X0,X0+Xperturbation)。将对抗性损失和像素均方差损失作为差分进化算法的目标损失函数,使差分进化算法在优化对抗云层参数向量的攻击效果的同时减少所生成对抗云层的扰动强度。故总损失函数可以表示为:Losstotal=Lossadv+α*Lossmse,其中α为平衡因子,是一个常数。
实验说明
为了证明本系统方法的有效性,本系统在UCMercedLandUse遥感图像分类数据集上进行了实验。UC Merced Land Use数据集是一个包含21个类别的土地利用图像数据集,每个类别有100幅图像,每幅图像的尺寸为256256像素,这些图像是从美国地质调查局的大型图像中人工提取的,这些公共领域图像的像素分辨率为1英尺。
首先训练生成对抗网络。先按照标准正态分布生成一批数量均为5000的5×5×2、9×9×2、17×17×2、33×33×2、65×65×2共计5种不同尺寸的柏林噪声梯度向量晶格作为训练数据。设置训练次数为2000轮,学习率为0.0002,训练生成对抗网络模型。
设置差分进化算法的最大查询次数为300,损失函数中的平衡因子α为0.25,种群数量NP(Number ofPopulation)为15,交叉概率CR(Cross Probability)为0.2,差分权重F(Differential Weight)为0.5。设置云层参数向量中各个参数的取值范围,其中生成对抗网络生成器的输入向量中~取值范围均为-1~1,不同晶胞尺寸云层掩膜的混合系数向量中~取值范围分别为0.1~1、0.2~1、0.3~1、0.4~1、0.5~1,云层厚度的取值范围为0.1~0.65(默认云层厚度可变范围为0~1)。
在UC Merced Land Use数据集上攻击分类准确率为87.70%的ResNet18网络模型,测试200张图像,成功攻击172张图像,最终攻击成功率为86.00%,平均查询次数为21。
图4给出了一些注释实例供比较。实验图像从左至右5列分别为原始图像的分类标签和置信概率、原始无云遥感图像、混合云层掩膜(对抗云层)、对抗样本、对抗样本的分类标签和置信概率。将第2、3列的原始无云遥感图像和对抗云层进行混合即可得到第4列的相应对抗样本。从第1列中原始无云遥感图像的正确分类标签和置信概率与第5列中对抗样本的错误分类标签和置信概率可以看出,在受到对抗云层扰动后,遥感图像以较高的置信度被错误分类且生成的对抗云层表现自然难以分辨,证明了本系统方法的有效性。
因此,输入原始的遥感图像,通过本系统的方法即可得到相应的受到对抗云层覆盖的对抗样本。
应该理解的是,虽然上述流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,上述流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
以上仅为本申请实施例的优选实施例而已,并不用于限制本申请实施例,对于本领域的技术人员来说,本申请实施例可以有各种更改和变化。凡在本申请实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请实施例的保护范围之内。
Claims (4)
1.一种对抗样本生成方法,其特征在于,包括如下步骤:
构建生成对抗网络;
获取云层参数向量,所述云层参数向量包括生成对抗网络的输入向量、不同晶胞尺寸云层掩膜的混合系数向量、云层厚度;将生成对抗网络的输入向量输入至生成对抗网络中,生成不同晶胞尺寸的梯度向量晶格,每个晶胞尺寸的梯度向量晶格均包括X方向和Y方向两种梯度向量晶格;对不同晶胞尺寸的梯度向量晶格进行插值处理,得到对应的云层掩膜;根据不同晶胞尺寸云层掩膜的混合系数向量对对应的云层掩膜进行加权求和,根据云层厚度缩放云层数值大小后进行图像处理,输出混合云层掩膜;
获取原始无云遥感图像,将所述混合云层掩膜与原始无云遥感图像进行混合,获得被云层覆盖的对抗样本;
将所述对抗样本输入至拟攻击的遥感图像分类神经网络,以对抗性损失和像素均方差损失作为差分进化算法的目标损失函数进行云层参数向量优化,当算法的查询次数达到设定上限或者对抗云层攻击成功时,输出最终生成的对抗样本,所述目标损失函数,如下所示:
Losstotal=Lossadv+α*Lossmse
其中,对抗性损失Lossadv=fy(X0+Xperturbation);像素均方差损失Lossmse=MSE(X0,X0+Xperturbation);Xperturbation表示混合云层掩膜;X0表示原始无云遥感图像;α为平衡因子。
2.根据权利要求1所述的一种对抗样本生成方法,其特征在于,所述生成对抗网络由生成器和辨别器构成,所述生成器包括依次连接的全连接层、若干个反卷积层、BatchNorm层和Tanh层构建的堆叠结构以及反卷积层、Tanh层;所述辨别器包括依次连接的卷积层、Tanh层、若干个卷积层、Batch Norm层和Tanh层构建的堆叠结构、全连接层、全连接层和Sigmoid层。
3.根据权利要求1所述的一种对抗样本生成方法,其特征在于,所述图像处理包括高斯模糊、通道随机偏移和通道加权系数偏移。
4.根据权利要求1所述的一种对抗样本生成方法,其特征在于,采用颜色均值融合将优化后的生成对抗网络生成的混合云层掩膜与原始无云遥感图像进行混合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311791668.8A CN117876817B (zh) | 2023-12-25 | 2023-12-25 | 一种对抗样本生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311791668.8A CN117876817B (zh) | 2023-12-25 | 2023-12-25 | 一种对抗样本生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117876817A CN117876817A (zh) | 2024-04-12 |
CN117876817B true CN117876817B (zh) | 2024-06-21 |
Family
ID=90589366
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311791668.8A Active CN117876817B (zh) | 2023-12-25 | 2023-12-25 | 一种对抗样本生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117876817B (zh) |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10916001B2 (en) * | 2016-11-28 | 2021-02-09 | Adobe Inc. | Facilitating sketch to painting transformations |
CN106878076B (zh) * | 2017-02-20 | 2019-10-18 | 河海大学 | 计及数据丢包和增益扰动的分数阶网络系统状态估计方法 |
CN109872278B (zh) * | 2018-12-18 | 2020-11-10 | 深圳先进技术研究院 | 基于u形网络和生成对抗网络的图像云层移除方法 |
CN111738124B (zh) * | 2020-06-15 | 2023-08-22 | 西安电子科技大学 | 基于Gabor变换和注意力的遥感图像云检测方法 |
CN111783798B (zh) * | 2020-07-01 | 2023-09-15 | 北京大学深圳研究生院 | 基于显著性特征的模拟残缺点云的遮罩生成方法 |
CN112287978B (zh) * | 2020-10-07 | 2022-04-15 | 武汉大学 | 一种基于自注意力上下文网络的高光谱遥感图像分类方法 |
US11854131B2 (en) * | 2021-01-13 | 2023-12-26 | Adobe Inc. | Content-specific-preset edits for digital images |
CN115019050A (zh) * | 2021-03-05 | 2022-09-06 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备及存储介质 |
CN113870258B (zh) * | 2021-12-01 | 2022-03-25 | 浙江大学 | 一种基于对抗学习的无标签胰腺影像自动分割系统 |
CN114663303A (zh) * | 2022-03-15 | 2022-06-24 | 航天东方红卫星有限公司 | 一种基于神经网络的遥感图像云层判别及去除方法 |
CN114677590A (zh) * | 2022-03-25 | 2022-06-28 | 中国工商银行股份有限公司 | 遥感图像处理方法、装置、设备及介质 |
CN115239588A (zh) * | 2022-07-25 | 2022-10-25 | 广东工业大学 | 基于生成对抗式网络的极度稀疏视图ct重建的抑制伪影方法 |
CN116664922A (zh) * | 2023-05-19 | 2023-08-29 | 中国人民解放军战略支援部队信息工程大学 | 基于缩放变换的智能对抗攻击样本生成方法及系统 |
-
2023
- 2023-12-25 CN CN202311791668.8A patent/CN117876817B/zh active Active
Non-Patent Citations (2)
Title |
---|
Zhaocong Wu等.Self-Attentive Generative Adversarial Network for Cloud Detection in High Resolution Remote Sensing Images.《IEEE Geoscience and Remote Sensing Letters》.2019,全文. * |
Ziming Zhao等.SAGE: Steering the Adversarial Generation of Examples With Accelerations.《 IEEE Transactions on Information Forensics and Security》.2023,全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN117876817A (zh) | 2024-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111310802B (zh) | 一种基于生成对抗网络的对抗攻击防御训练方法 | |
CN108615048B (zh) | 基于扰动进化对图像分类器对抗性攻击的防御方法 | |
CN109639710B (zh) | 一种基于对抗训练的网络攻击防御方法 | |
CN109859288B (zh) | 基于生成对抗网络的图像上色方法及装置 | |
CN110334742B (zh) | 一种用于文档分类的基于强化学习的通过添加虚假节点的图对抗样本生成方法 | |
CN110941794A (zh) | 一种基于通用逆扰动防御矩阵的对抗攻击防御方法 | |
Song et al. | Multi-label adversarial perturbations | |
CN113361546A (zh) | 融合非对称卷积和注意力机制的遥感图像特征提取方法 | |
CN110322003B (zh) | 一种用于文档分类的基于梯度的通过添加虚假节点的图对抗样本生成方法 | |
Qin et al. | Gradually enhanced adversarial perturbations on color pixel vectors for image steganography | |
CN111598032B (zh) | 一种基于图神经网络的群体行为识别方法 | |
CN114612476A (zh) | 一种基于全分辨率混合注意力机制的图像篡改检测方法 | |
Chen et al. | Patch selection denoiser: An effective approach defending against one-pixel attacks | |
Kong et al. | Evolutionary multilabel adversarial examples: An effective black-box attack | |
CN117876817B (zh) | 一种对抗样本生成方法 | |
Sharma et al. | Towards secured image steganography based on content-adaptive adversarial perturbation | |
CN112149752B (zh) | 一种单像素攻击分布可视化方法 | |
Yuan et al. | An efficient attention based image adversarial attack algorithm with differential evolution on realistic high-resolution image | |
CN112529047A (zh) | 一种基于梯度屏蔽的对抗样本生成方法 | |
Peppes et al. | Malware Image Generation and Detection Method Using DCGANs and Transfer Learning | |
CN111401155A (zh) | 基于隐式欧拉跳跃连接的残差神经网络的图像识别方法 | |
Luo et al. | Content-adaptive adversarial embedding for image steganography using deep reinforcement learning | |
CN111147443A (zh) | 一种基于风格迁移的网络威胁攻击特征统一量化方法 | |
Mu et al. | Enhancing robustness in video recognition models: Sparse adversarial attacks and beyond | |
Sinha et al. | One Pixel Attack for Fooling Neural Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |