CN113505864A - 群智能单像素生成扰动与攻击方法 - Google Patents

群智能单像素生成扰动与攻击方法 Download PDF

Info

Publication number
CN113505864A
CN113505864A CN202111059213.8A CN202111059213A CN113505864A CN 113505864 A CN113505864 A CN 113505864A CN 202111059213 A CN202111059213 A CN 202111059213A CN 113505864 A CN113505864 A CN 113505864A
Authority
CN
China
Prior art keywords
attack
disturbance
image
perturbation
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111059213.8A
Other languages
English (en)
Inventor
李千目
王鹏川
练智超
侯君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN202111059213.8A priority Critical patent/CN113505864A/zh
Publication of CN113505864A publication Critical patent/CN113505864A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种群智能单像素生成扰动与攻击方法,属于图像识别及恶意攻击领域。首先输入图像进行矢量表示;生成对抗性扰动编码;利用飞蛾优化方法对扰动编码的优化,迭代得到最优扰动编码;进行目标类别错误标签的概率检测并保存输出最优扰动编码组。本发明利用飞蛾优化方法无需梯度信息进行优化的固有属性,进而提升扰动编码对目标类别的错误标签率,达到对原始图像和深度学习网络的低维攻击效果。本发明将飞蛾群智能优化算法应用到图像识别单像素攻击领域,给单像素攻击方法提供另一种参考,说明群智能方法在对抗机器学习领域中可应用性,能够针对神经网络生成低成本的对抗性攻击工具。

Description

群智能单像素生成扰动与攻击方法
技术领域
本发明涉及图像识别及恶意攻击领域,特别是一种群智能单像素生成扰动与攻击方法。
背景技术
在图像识别领域,基于深度神经网络(DNN)的方法优于传统的图像处理技术,甚至获得了具有很大竞争力的结果。然而一些研究表明对自然图像的人为扰动很容易使DNN错误分类,因此提出了有效的方法来生成称为“对抗图像”的样本。创建对抗性图像的一个常见想法是,在正确分类的自然图像中添加少量经过微调的生成扰动,预计这对人眼是不可察觉的。此类型的修改可以使分类器将修改后图像标记为完全不同的类。
研究发现以前的大多数攻击都没有考虑到对抗性攻击的极端局限性,即修改可能过多(导致修改后的像素数量相当大,使得人眼可以察觉)。此外,调查在极其有限的情况下创建的对抗图像可能会给关于DNN模型在高维空间中的几何特征和整体行为的新见解。例如,靠近决策边界的对抗图像特征可以帮助描述边界的形状。
单像素攻击比其他类型的对抗攻击更具威胁性,因为它可以轻松有效地实施,从而损害系统安全性。单像素攻击作为黑盒攻击的一种,不需要DNN模型的任何其他信息,仅需要不同标签的概率,而不需要有关目标DNN模型的内部信息,例如渐变和超参数。
单像素攻击对基于DNN的信息系统的性能保证有害。通过仅修改图像中的一个像素,图像的分类可能会更改为不相关的标签,从而导致基于DNN的应用程序/服务的性能下降,甚至带来其他严重后果。例如,在医学图像系统中,单像素攻击可能会使医生误判患者的疾病,而在自动驾驶车辆中,单像素攻击可能导致道路上的严重交通事故。
发明内容
本发明解决的技术问题:提供一种利用群智能方法固有特性针对神经网络生成低成本的群智能单像素生成扰动与攻击方法。
技术方案:为了解决上述技术问题,本发明采用的技术方案如下:
本发明的群智能单像素生成扰动与攻击方法,具体包括如下步骤:
步骤1:读取图像并生成矢量表示:假设输入图像由一个矢量表示,其中每个标量元素代表一个像素;
步骤2:生成问题描述:将生成对抗性图像形式化为具有约束的优化问题,在进行针对性攻击时,首先为扰动攻击生成对应的问题描述;
步骤3:生成初始对抗性扰动编码组,设置为候选解表示,一个候选解包含固定数量的扰动,每个扰动包含五个元素;
步骤4:利用飞蛾群智能优化算法对扰动编码组迭代优化,得到当前迭代下最优扰动编码候选组;
步骤5:利用当前迭代下最优扰动编码候选组修改原始图像数据标签,设置目标类别的标签概率值或真实类别的标签概率值,评估攻击是否有效;
步骤6:保存能够成功致使图像单像素生成扰动攻击有效的扰动编码候选组。
进一步地,步骤1中读取图像并生成矢量表示的方法为:首先读取一张图片,获取图像的大小、灰度值或者RGB值,并获取区域内每个像素的坐标;然后创建一个空的矩阵,并为矩阵填充图像数据,生成图像矢量表示。
进一步地,步骤2中,进行针对性攻击的情况下,为扰动攻击生成对应的问题描述,方法如下:
步骤2.1:令f为接收n维输入的目标图像分类器,x=(x 1 ,……x n 为正确分类为t类的原始自然图像,因此,x属于类t的概率为f t (x)
步骤2.2:额外添加对抗性扰动向量e(x)=(e 1 ,……,e n ),在进行有针对性攻击的情况下,对手的目标是找到一个优化的解决方案e(x)*,即找到两个值:(a)需要扰动哪些尺寸;(b)每个尺寸的修改强度,
Figure DEST_PATH_IMAGE001
单像素的修改视为沿平行于n个维度之一的轴的方向干扰数据点,单像素的扰动可以以任意强度朝若干个方向修改图像,d表示e(x)的尺度大小,d属于L,通常单个像素攻击情况下d=1
进一步地,步骤3中,将扰动编码设置为一个数组,并且设置每一个扰动都是一个元组,每个元组中包含五个元素,分别为x-y坐标和该扰动的RGB值。
进一步地,步骤4中,利用飞蛾群智能优化算法对数组进行优化,生成最优的候选解,方法如下:
步骤4.1:随机生成扰动编码初始扰动编码数量为500组,种群数量设置为30,最大迭代次数设置为500代;
步骤4.2:利用飞蛾优化方法来更新500组初始的扰动编码数量;
步骤4.3:迭代生成后,每个候选解决方案根据总体指标与对应的父代进行竞争,保留出获胜者进行下一次迭代;
步骤4.4:根据不同的图像数据的标签概率阈值,或达到最大迭代次数结束迭代,得到最终的最优扰动编码候选组。
进一步地,步骤5 中,利用设置目标类别的标签概率值或真实类别的标签概率值,判断评估攻击是否有效,方法如下:
步骤5.1:利用迭代获取的最优扰动编码候选组修改原始的图像,将得到的新的图像后,输入分类器,计算图像分为任意其他类别的比例;
步骤5.2:根据成功率、对抗图像产生误分类的置信度、非目标攻击的有效性和原始目标类别的数量等评价指标对攻击进行评估,判断攻击是否有效。
有益效果:与现有技术相比,本发明具有以下优点:
(1)本发明利用群智能来进行单像素生成扰动与攻击,相对于其他基于梯度的方法,群智能方法可以在很强的限制条件下,利用相对较少的目标系统数据信息(甚至有时是无法获取的),极大概率寻找到最优扰动编码组,同时保持简易性。
(2)本发明将飞蛾群智能优化算法应用到单像素攻击上,拓宽了方法的应用范围,给单像素攻击方法提供另一种参考。
(3)以飞蛾群智能优化算法为代表说明群智能方法在对抗机器学习领域中可应用性:能够针对神经网络生成低成本的对抗性攻击工具。
附图说明
图1是本发明群智能单像素生成扰动与攻击方法的流程示意图。
图2是本发明飞蛾群智能优化算法优化对抗扰动编码候选组的流程示意图。
具体实施方式
下面结合具体实施例,进一步阐明本发明,实施例在以本发明技术方案为前提下进行实施,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围。
本发明群智能单像素生成扰动与攻击方法,对输入图像进行矢量表示,寻找修改的扰动维度及维度的扰动强度,生成对抗性扰动编码;然后,利用飞蛾优化方法对扰动编码的优化,迭代得到最优扰动编码候选组;最后,进行目标类别错误标签的概率检测并保存输出最优扰动编码组,该方法的流程图如图1所示,具体包括以下步骤:
步骤1:读取图像并生成矢量表示:假设输入图像可以由一个矢量表示,其中每个标量元素代表一个像素;具体方式如下:
步骤1.1:读取一张图片;
步骤1.2:获取图像的大小:
步骤1.3:获取区域内每个像素的坐标;
步骤1.4:获取图像的灰度值或者RGB值;
步骤1.5:创建一个空的矩阵;
步骤1.6:为矩阵填充图像数据,生成图像矢量表示。
步骤2:生成问题描述:将生成对抗性图像形式化为具有约束的优化问题,在进行针对性攻击时,首先为扰动攻击生成对应的问题描述,具体方式如下:
步骤2.1:令f为接收n维输入的目标图像分类器,x=(x 1 ,……x n 为正确分类为t类的原始自然图像,因此,x属于类t的概率为f t (x)
步骤2.2:额外添加对抗性扰动向量e(x)=(e 1 ,……,e n )(一般由它的长度来衡量)。在进行有针对性攻击的情况下,对手的目标是找到一个优化的解决方案e(x)*,即找到两个值:(a)需要扰动哪些尺寸;(b)每个尺寸的修改强度。
Figure DEST_PATH_IMAGE002
单像素的修改视为沿平行于n个维度之一的轴的方向干扰数据点,单像素的扰动可以以任意强度朝若干个方向修改图像,本发明中,f adv 表示目标类别,L表示最大扰动界限,d表示e(x)的尺度大小,d属于L,通常单个像素攻击情况下d=1。只考虑单像素攻击d=1的情况下,只修改d的尺寸,而e(x)的其他尺寸会保留为零。
步骤3:生成初始对抗性扰动编码组,设置为数组(候选解)表示,一个候选解包含固定数量的扰动,每个扰动包含五个元素。
该步骤中将扰动编码设置为一个数组(候选解),并且设置每一个扰动都是一个元组,每个元组中包含五个元素,分别为x-y坐标和该扰动的RGB值或者灰度值。
步骤4:利用飞蛾群智能优化算法对扰动编码候选组(数组)迭代优化,得到当前迭代下最优扰动编码候选组;图2所示的是飞蛾群智能优化算法优化对抗扰动编码候选组的流程示意图,具体方法如下:
(1)首先,初始化种群个数、最大迭代次数;
(2)然后,随机生成飞蛾个体(本申请中为候选扰动编码个体);
(3)选出每个种群中最优火焰(本申请中为当前迭代中最优候选扰动编码值),并设定螺旋函数常数等;
(4)选取最优编码组的适应度函数;
(5)计算最优扰动编码组并保存;
(6)判断是否被误分类,如果是误分类,则输出最优扰动编码组结果;如果没有被误分类,则继续迭代计算最优扰动编码组;
(7)判断是否达到最大迭代次数,如果达到最大迭代次数,则输出最优扰动编码组;如果没有达到最优迭代次数,则继续返回计算最优扰动编码组。
本申请利用飞蛾群智能优化算法的具体实施方式如下:
步骤4.1:随机生成扰动编码初始扰动编码数量为500组,种群数量设置为30,最大迭代次数设置为500代;
步骤4.2:利用飞飞蛾群智能优化算法的以下公式来更新500组初始的扰动编码数量,
Figure DEST_PATH_IMAGE003
式中,M i 表示第i个候选组,F j 表示第j个当前迭代中种群最优候选组,S是螺旋函数,基于以上,飞蛾优化方法中对数螺旋函数定义如下:
Figure DEST_PATH_IMAGE004
式中,第i个候选组和第j个当前迭代中种群最优候选组之间的矢量距离用D i 表示,b是定义对数螺旋的常数,t是 [-1,1] 之间的随机数。D i 通过以下公式计算:
Figure DEST_PATH_IMAGE005
步骤4.3:迭代生成后,每个候选解决方案根据总体指标与对应的父代进行竞争,保留出获胜者进行下一次迭代。
在整个搜索空间中,飞蛾(扰动编码候选组)的位置相对于n个不同的位置(当前迭代种群最优候选解)进行更新,这导致方法收敛精度降低并且方法后期易陷入局部最优。飞蛾优化方法(Moth-flame Optimization algorithm, MFO)提出自适应机制来解决这类问题,自适应机制原理表示为(当前迭代种群最优候选解)随迭代不断更新而火焰数量不断减少,计算公式如下:
Figure DEST_PATH_IMAGE006
上式中,l是当前迭代次数,N是初始生成的最优候选组数目,T是最大迭代次数。
步骤4.4:根据不同的图像数据的标签概率阈值(即达到要求),或达到最大迭代次数结束迭代,得到最终的最优扰动编码候选组。
步骤5:利用当前迭代下最优扰动编码候选组修改原始图像数据标签,设置目标类别的标签概率值或真实类别的标签概率值,评估攻击是否有效。具体方法如下:
步骤5.1:利用迭代获取的最优扰动编码候选组修改原始的图像,将得到的新的图像输入分类器,计算图像分为任意其他类别的比例;
修改后的新的图像输入分类器后,分类器判断是否误分类,如果是误分类,则表明攻击成功,直接输出最终的最优扰动编码候选组;如果没有实现误分类,则表明攻击不成功,继续判断扰动编码候选组是否达到最大迭代次数,如果达到最大迭代数,则输出整体的最优扰动编码候选组,如果没有达到最大迭代次数,则返回步骤4继续进行迭代优化。
步骤5.2:根据成功率、对抗图像产生误分类的置信度、非目标攻击的有效性和原始目标类别的数量等评价指标对攻击进行评估,判断攻击是否有效。步骤6:保存能够成功致使图像单像素生成扰动攻击有效的扰动编码候选组。
通过以下实验验证本发明的方法有效性和效率:
评估标准包括成功率和置信度,成功率,被定义为可以成功地将自然图像更改为另一个预定义(有针对性的攻击)和任意类别(非-针对性攻击)通过添加扰动。置信度,该度量表示当成功地将图像的标签从真实变为目标时从目标系统输出的目标类的平均概率标签。
首先选定数据集,Cifar10 数据集和ImagNet数据集。Cifar10数据集的任务是将32x32像素的图像正确分类为10个类别中的一个(例如,鸟、鹿、卡车),每个类别有6000个图像。用于训练的图像有50000张,形成5个训练批次,每批次10000张图像;其余10,000个用于测试,形成一个批次。在测试批次的数据中,从10个类别中的每一个中抽取,从每个类别中随机抽取1000张。其余的随机排列形成一个训练批次。
ImagNet数据集是目前深度学习图像领域应用广泛的领域。大多数图像分类、定位和检测的研究工作都是基于这个数据集。ImagNet数据集拥有超过1400万张图像,涵盖20,000多个类别。ImageNet的搜索空间是CIFAR-10的50倍,是大小为227×227像素的图像。
实验以飞蛾群智能优化算法为代表,针对VGG-16、Network in Network和BVLC-AlexNet三个网络进行扰动攻击,验证飞蛾群智能方法在对抗机器学习领域中可应用性,发现能够针对神经网络生成低成本的对抗性攻击工具。
Cifar10 数据集实验结果如下:
Figure DEST_PATH_IMAGE007
表1的结果显示,对于Cifar-10数据集的单像素攻击,MFO对两种网络的攻击成功率显示了该类攻击对不同网络结构的总体有效性。在非目标攻击方面,Net-in-Net网络都表现出了极大的脆弱性,获得了最高的攻击成功率。相反,Vgg-16网络在五个网络中表现出最高的平均鲁棒性。总体而言,经过MFO的单像素扰动攻击,每个网络的图像很大程度可以被扰动到其他类别。根据上面提到的结果,利用群智能算法生成单像素攻击创建了有效的针对神经网络低成本对抗性攻击工具。
ImagNet数据集实验结果如下:
ImagNet数据集的任务是验证这个小的修改是否可以欺骗更大的图像。
Figure DEST_PATH_IMAGE008
表2中的结果显示,对于ImagNet数据集的单像素攻击,MFO对BVLC-AlexNet网络的攻击成功率显示了单像素攻击可很好地推广到大尺寸图,并欺骗对应的神经网络。根据上面提到的结果,利用群智能算法生成单像素攻击创建了有效的针对神经网络低成本对抗性攻击工具。
本发明将群智能优化算法与单像素生成扰动相结合,群智能优化算法是对自然界生物群体在解决某一类问题时的方法策略的提炼,与传统的优化方法相比,群智能方法在解决大多数非线性和多模态的实际优化问题中都表现出了良好的性能。该方法思想来源于自然界经常观察到飞蛾绕光线进行螺旋状飞行这种行为。飞蛾优化方法相比于其他的群智能方法具有原理简单,结构清晰,无需求解问题的梯度信息,鲁棒性强等特点。
本发明利用飞蛾优化方法无需梯度信息进行优化的固有属性,进而提升扰动编码对目标类别的错误标签率,达到对原始图像和深度学习网络的低维攻击效果。本发明的目的是将飞蛾群智能优化算法应用到图像识别单像素攻击领域,给单像素攻击方法提供另一种参考;说明群智能方法在对抗机器学习领域中可应用性,能够针对神经网络生成低成本的对抗性攻击工具。
以上仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (6)

1.一种群智能单像素生成扰动与攻击方法,其特征在于,包括如下步骤:
步骤1:读取图像并生成矢量表示:输入图像由一个矢量表示,其中每个标量元素代表一个像素;
步骤2:生成问题描述:将生成对抗性图像形式化为具有约束的优化问题,在进行针对性攻击时,首先为扰动攻击生成对应的问题描述;
步骤3:生成初始对抗性扰动编码组,设置为候选解表示;
步骤4:利用飞蛾群智能优化算法对扰动编码组迭代优化,得到当前迭代下最优扰动编码候选组;
步骤5:利用当前迭代下最优扰动编码候选组修改原始图像数据标签,设置目标类别的标签概率值或真实类别的标签概率值,评估攻击是否有效;
步骤6:保存能够成功使图像单像素生成扰动攻击有效的整体最优扰动编码候选组。
2.根据权利要求1所述的群智能单像素生成扰动与攻击方法,其特征在于,步骤1中,读取图像并生成矢量表示的方法为:首先读取一张图片,获取图像的大小、灰度值或者RGB值,并获取区域内每个像素的坐标;然后创建一个空的矩阵,并为矩阵填充图像数据,生成图像矢量表示。
3.根据权利要求1所述的群智能单像素生成扰动与攻击方法,其特征在于,步骤2 中,进行针对性攻击的情况下,为扰动攻击生成对应的问题描述,方法如下:
步骤2.1:令f为接收n维输入的目标图像分类器,x=(x 1 ,……x n 为正确分类为t类的原始自然图像,因此,x属于类t的概率为f t (x)
步骤2.2:额外添加对抗性扰动向量e(x)=(e 1 ,……,e n ),在进行有针对性攻击的情况下,对手的目标是找到一个优化的解决方案e(x)*,找到两个值:(a)需要扰动哪些尺寸;(b)每个尺寸的修改强度,
Figure 274044DEST_PATH_IMAGE002
Figure 863289DEST_PATH_IMAGE004
单像素的修改视为沿平行于n个维度之一的轴的方向干扰数据点,单像素的扰动以任意强度朝若干个方向修改图像,f adv 表示目标类别,L表示最大扰动界限,d表示e(x)的大小,d属于L,单个像素攻击情况下d=1
4.根据权利要求1所述的群智能单像素生成扰动与攻击方法,其特征在于,步骤3中,将扰动编码设置为一个数组,一个候选解包含固定数量的扰动;并且设置每一个扰动都是一个元组,每个元组中包含五个元素,分别为x-y坐标和该扰动的RGB值。
5.根据权利要求1所述的群智能单像素生成扰动与攻击方法,其特征在于,步骤4中,利用飞蛾群智能优化算法对数组进行优化,生成最优的扰动编码组,方法如下:
步骤4.1:随机生成扰动编码初始扰动编码,并设置种群数量和最大迭代次数;
步骤4.2:利用飞蛾优化方法来更新初始的扰动编码数量;
步骤4.3:迭代生成后,每个候选解决方案根据总体指标与对应的父代进行竞争,保留出获胜者进行下一次迭代;
步骤4.4:根据不同的图像数据的标签概率阈值,或达到最大迭代次数结束迭代,得到最终的整体最优扰动编码候选组。
6.根据权利要求1所述的群智能单像素生成扰动与攻击方法,其特征在于,步骤5 中,利用设置目标类别的标签概率值或真实类别的标签概率值,判断评估攻击是否有效,方法如下:
步骤5.1:利用迭代获取的最优扰动编码候选组修改原始的图像,将得到的新的图像后,输入分类器,计算图像分为任意其他类别的比例;
步骤5.2:根据成功率、对抗图像产生误分类的置信度、非目标攻击的有效性和原始目标类别的数量评价指标对攻击进行评估,判断攻击是否有效。
CN202111059213.8A 2021-09-10 2021-09-10 群智能单像素生成扰动与攻击方法 Pending CN113505864A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111059213.8A CN113505864A (zh) 2021-09-10 2021-09-10 群智能单像素生成扰动与攻击方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111059213.8A CN113505864A (zh) 2021-09-10 2021-09-10 群智能单像素生成扰动与攻击方法

Publications (1)

Publication Number Publication Date
CN113505864A true CN113505864A (zh) 2021-10-15

Family

ID=78016650

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111059213.8A Pending CN113505864A (zh) 2021-09-10 2021-09-10 群智能单像素生成扰动与攻击方法

Country Status (1)

Country Link
CN (1) CN113505864A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114118268A (zh) * 2021-11-25 2022-03-01 福州大学 以脉冲为概率生成均匀分布扰动的对抗性攻击方法及系统
CN114332569A (zh) * 2022-03-17 2022-04-12 南京理工大学 基于注意力机制的低扰动对抗攻击方法
CN114419358A (zh) * 2021-10-19 2022-04-29 南京邮电大学 一种对抗样本生成方法
CN114723960A (zh) * 2022-04-02 2022-07-08 湖南三湘银行股份有限公司 一种增强银行账号安全的附加验证方法及系统
CN115034363A (zh) * 2022-06-08 2022-09-09 大连理工大学 一种基于梯度先验的高效黑盒对抗攻击方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110866287A (zh) * 2019-10-31 2020-03-06 大连理工大学 一种基于权重谱生成对抗样本的点攻击方法
JP2020170495A (ja) * 2019-04-04 2020-10-15 ▲広▼州大学 単一画素攻撃サンプルの生成方法、装置、設備及び記憶媒体
CN112149752A (zh) * 2020-09-30 2020-12-29 北京理工大学 一种单像素攻击分布可视化方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020170495A (ja) * 2019-04-04 2020-10-15 ▲広▼州大学 単一画素攻撃サンプルの生成方法、装置、設備及び記憶媒体
CN110866287A (zh) * 2019-10-31 2020-03-06 大连理工大学 一种基于权重谱生成对抗样本的点攻击方法
CN112149752A (zh) * 2020-09-30 2020-12-29 北京理工大学 一种单像素攻击分布可视化方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
极限安全咨询: "《愚弄深层神经网络的一个像素攻击》", 《HTTPS://WWW.SOHU.COM/A/289990451_822985》 *
王娇: "《基于改进飞蛾扑火优化算法的MIMO雷达相位编码信号集设计》", 《信息与控制》 *
韩忠华: "《具有容量限制的缓冲区排产系统最优策略研究》", 30 September 2018 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114419358A (zh) * 2021-10-19 2022-04-29 南京邮电大学 一种对抗样本生成方法
CN114118268A (zh) * 2021-11-25 2022-03-01 福州大学 以脉冲为概率生成均匀分布扰动的对抗性攻击方法及系统
CN114332569A (zh) * 2022-03-17 2022-04-12 南京理工大学 基于注意力机制的低扰动对抗攻击方法
CN114723960A (zh) * 2022-04-02 2022-07-08 湖南三湘银行股份有限公司 一种增强银行账号安全的附加验证方法及系统
CN115034363A (zh) * 2022-06-08 2022-09-09 大连理工大学 一种基于梯度先验的高效黑盒对抗攻击方法
CN115034363B (zh) * 2022-06-08 2024-08-06 大连理工大学 一种基于梯度先验的高效黑盒对抗攻击方法

Similar Documents

Publication Publication Date Title
CN113505864A (zh) 群智能单像素生成扰动与攻击方法
He et al. Parametric noise injection: Trainable randomness to improve deep neural network robustness against adversarial attack
CN109639710B (zh) 一种基于对抗训练的网络攻击防御方法
CN112364915B (zh) 一种不可察觉的对抗补丁生成方法及应用
CN110941794A (zh) 一种基于通用逆扰动防御矩阵的对抗攻击防御方法
CN111950581A (zh) 针对多个扰动类型稳健的分类
Katz et al. Generating image filters for target recognition by genetic learning
CN110728297B (zh) 一种基于gan的低代价对抗性网络攻击样本生成方法
Jha et al. Detecting adversarial examples using data manifolds
CN113269241B (zh) 一种遥感图像对抗样本的软阈值防御方法
CN112926661A (zh) 一种增强图像分类鲁棒性的方法
Williams et al. Black-box sparse adversarial attack via multi-objective optimisation
CN114329031B (zh) 一种基于图神经网络和深度哈希的细粒度鸟类图像检索方法
CN112507912A (zh) 一种识别违规图片的方法及装置
CN111797975B (zh) 一种基于微生物遗传算法的黑盒对抗样本生成方法
CN113627543A (zh) 一种对抗攻击检测方法
CN116433690A (zh) 一种基于灰狼与粒子群协同优化算法的Otsu阈值分割方法
CN115048983A (zh) 数据流形拓扑感知的人工智能系统对抗样本防御方法
CN118351371A (zh) 一种基于对抗训练和元学习的小样本图像分类方法及系统
Williams et al. Sparse adversarial attack via bi-objective optimization
CN117473489B (zh) 一种后门攻击方法和防御方法
Dai et al. A targeted universal attack on graph convolutional network
CN111191717B (zh) 一种基于隐空间聚类的黑盒对抗样本生成算法
Kushida et al. Generation of adversarial examples using adaptive differential evolution
Procházka et al. Black-box evolutionary search for adversarial examples against deep image classifiers in non-targeted attacks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20211015