CN111368725A - 一种基于深度学习的hrrp有目标对抗样本生成方法 - Google Patents

一种基于深度学习的hrrp有目标对抗样本生成方法 Download PDF

Info

Publication number
CN111368725A
CN111368725A CN202010141577.XA CN202010141577A CN111368725A CN 111368725 A CN111368725 A CN 111368725A CN 202010141577 A CN202010141577 A CN 202010141577A CN 111368725 A CN111368725 A CN 111368725A
Authority
CN
China
Prior art keywords
sample
target
disturbance
confrontation
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010141577.XA
Other languages
English (en)
Other versions
CN111368725B (zh
Inventor
黄腾
杨碧芬
闫红洋
姚炳健
陈湧锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou University
Original Assignee
Guangzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou University filed Critical Guangzhou University
Priority to CN202010141577.XA priority Critical patent/CN111368725B/zh
Publication of CN111368725A publication Critical patent/CN111368725A/zh
Application granted granted Critical
Publication of CN111368725B publication Critical patent/CN111368725B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Astronomy & Astrophysics (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明属于雷达图像识别领域,为基于深度学习的HRRP有目标对抗样本生成方法。包括:选取一个样本作为原始样本并初始化算法的参数;基于FGSM算法,采用迭代方法计算扰动并更新样本,当模型将对抗样本识别成目标类别时停止迭代;将该对抗样本剔除掉原始样本数据,获得所选样本的有目标扰动;继续迭代,当模型对目标类别的置信度提高到期望值时停止迭代,获得更新后的对抗样本;将对抗样本剔除掉原始样本数据,获得扰动;将扰动大小缩放到与给定的通用扰动功率相等,获得有目标通用扰动;将通用扰动添加至任意样本,生成对抗样本。该方法在基于深度学习的一维雷达距离像目标识别下,生成有目标对抗样本,为提高雷达目标识别安全性提供帮助。

Description

一种基于深度学习的HRRP有目标对抗样本生成方法
技术领域
本发明属于雷达图像识别领域,具体为一种基于深度学习的HRRP有目标对抗样本生成方法。
背景技术
基于深度学习的雷达目标识别算法,具有端对端特征学习的优势,能有效地提高目标识别率,成为雷达目标识别的一类重要方法。但是,最近的研究表明,基于深度学习的光学图像识别方法容易受到对抗样本的对抗攻击。对抗样本的存在表明深度学习方法存在极大的安全隐患。
深度学习的端到端和自动特征学习的优势,为基于HRRP的目标识别提供了一类方法,在实际应用中取得了很好的效果。例如,Jarmo Lunden等人在2016年的IEEE Radar会议上发表了论文《Deep Learning for HRRP-based target recognition in multistaticradar systems》,提出了一种基于深度卷积神经网络的方法,利用卷积神经网络的自动特征提取功能代替传统的手工特征提取方式,降低了特征提取的难度,并提高了识别率。
然而,深度学习方法很容易受到对抗攻击。Szegedy等人在2013年发表论文《Intriguing properties of neural networks》,首次发现了一个“反直觉”的现象,攻击者通过人为设计一种在视觉上不易于察觉的干扰信息注入输入样本,使输入样本具有攻击性。它可以使基于深度学习方法的目标识别系统,以高置信度输出攻击者想要的任意错误结果。随着技术的发展,对抗样本在光学图像中的生成和应用方面不断得到发展,但是,XieC等人在2017年Proceedings of the IEEE International会议上发表了论文《Adversarial examples for semantic segmentation and object detection》,表示对抗样本的生成机理和防御依然没有得到解决。由此引起了其他应用深度学习技术领域的关注。例如,在无线电传播上,Meysam等人在2018年的IEEE Wireless CommunicationsLetters期刊上发表论文《Adversarial attacks on deep-learning based radio signalclassification》,提出了生成白盒和通用黑盒对抗样本的方法,证明了对抗样本对分类器分类性能的破坏性很大,表明了基于深度学习算法的无线电信号分类是非常容易受到攻击的。然而,基于雷达一维距离像的目标识别是否存在对抗样本依然是一个开放性的问题,目前暂未发现相关研究的文献。
发明内容
为了解决现有技术所存在的问题,本发明提供一种基于深度学习的HRRP有目标对抗样本生成方法,该方法能够获得有目标的细粒度对抗扰动和通用扰动,在基于深度学习的一维雷达距离像目标识别下,生成有目标对抗样本,为提高雷达目标识别安全性提供帮助,具有重要的研究意义和迫切的实际需求。
本发明采用以下技术方案来实现:基于深度学习的HRRP有目标对抗样本生成方法,包括以下步骤:
S1、利用数据集训练深度神经网络模型,获得深度神经网络模型模型的参数;
S2、选取一个样本作为原始样本并初始化算法参数,包括攻击的目标类别、缩放因子、最大迭代次数、置信度期望值和通用扰动功率;
S3、对选定的样本,计算目标类别的梯度方向,将梯度方向乘以缩放因子,获得扰动,将扰动添加到所选定的样本生成对抗样本;
S4、对步骤S3采用迭代方法,将所获得的扰动添加到原始样本中,不断更新对抗样本,利用更新后的对抗样本攻击深度神经网络模型;当深度神经网络模型将对抗样本识别成目标类别时,剔除掉该对抗样本中的原始样本数据,获得有目标细粒度对抗扰动;
S5、在步骤S4获得对抗样本的基础上继续迭代,直到深度神经网络模型对目标类别的置信度提高到期望值时,迭代结束,获得对抗样本;
S6、将步骤S5获得的对抗样本剔除掉原始样本数据,得到所选样本的有目标对抗扰动;
S7、将有目标对抗扰动的大小缩放到给定的扰动功率值,得到有目标通用扰动;
S8、将有目标通用扰动添加至任意样本中,生成对抗样本。
总的来说,本发明通过随机选取一个被模型正确识别的样本,基于FGSM算法,采用迭代的方法,获得有目标细粒度扰动;其中,每次迭代都需要更新对抗样本。之后将细粒度扰动的大小缩放到给定的扰动功率值,获得有目标通用扰动;即通过对单个样本生成的有目标扰动采用缩放的方法,生成有目标通用扰动。与现有技术相比,本发明具有如下优点和有益效果:
1、本发明能够获得有目标的细粒度对抗扰动和通用扰动,生成相应的有目标对抗样本,为对抗样本的生成机理和防御方法提供思路和帮助,为提高雷达目标识别安全性提供帮助,具有重要的现实应用价值。
2、本发明采用针对HRRP生成有目标细粒度对抗扰动的方法是基于FGSM算法,具有计算效率高的特点。
3、本发明最终生成的有目标通用对抗扰动对整个数据集具有泛化能力,能够根据原始样本大批量快速生成对抗样本。
附图说明
图1是本发明生成有目标对抗扰动的流程图;
图2是一个深度神经网络的结构图;
图3是本发明在对单个样本生成有目标对抗样本的过程中,模型对目标类别的置信度随迭代次数变化而变化的实验效果图;
图4是本发明生成通用扰动获得对抗样本,再利用对抗样本攻击MLP模型的实验效果图。
具体实施方式
为使本发明的目的、技术方案更加清楚明白,以下结合附图及实施例对本发明进行详细说明;所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例,本发明的实施方式并不限于此。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
实施例
基于深度学习的HRRP目标识别方法是一种简便有效的使用方案。本发明针对基于深度学习的HRRP目标识别方法存在的易受到对抗样本攻击的问题,提出一种对HRRP生成有目标攻击对抗样本的方法。其中,通过多次迭代的方法生成了对单个样本的扰动,通过缩放的方法生成了通用扰动。本发明相关的一些基本概念为:
1.深度神经网络:深度神经网络是指多层的神经网络,它是机器学习领域中一种技术。它的特点是,隐藏层节点的输入是上一层网络的输出加上偏置,各个隐藏层节点计算它的带权输入均值,隐藏层节点的输出是非线性激活函数的运算结果,同时,多层神经网络的好处是能够用较少的参数表示复杂的函数。
2.对抗样本:对抗样本指的是攻击者在输入样本中注入一些微小的、难以察觉的扰乱,从而导致深度学习方法给出一个错误输出的一类样本。
3.FGSM算法:FGSM的全称是Fast Gradient Sign Method(快速梯度符号法),它通过求出模型对输入的梯度,然后用符号函数得到其具体的梯度方向,接着乘以一个步长,得到的“扰动”加在原来的输入上就得到了FGSM攻击下的对抗样本。其攻击表达式如下:
Figure BDA0002398113920000031
式中,ε为FGSM算法的扰动缩放因子,sign(·)为符号函数,J(·)为损失函数。
4.迭代方法:通过设定实验参数,如攻击的目标类别、缩放因子和最大的迭代次数,在模型未将对抗样本识别成目标类别的条件下,不断迭代更新对抗样本,直到对抗样本被识别成目标类别。
针对采用深度学习的对HRRP进行的目标识别方法,存在着深度学习方法的神经网络分类模型易受到对抗攻击的鲁棒性与安全问题,本发明提出了对HRRP生成有目标对抗样本的方法,能够有效攻击深度神经网络模型,使模型错误识别成指定的目标类型,输出指定类别的标签。如图1所示,本发明包括以下步骤:
一、对单个样本生成有目标扰动。
S1、利用数据集训练一个深度神经网络模型,获得深度神经网络模型模型的参数;
本实施例中,利用数据集训练如图2所示的深度神经网络模型——MLP模型,获得模型参数。
S2、选取一个样本作为原始样本并初始化算法参数,包括攻击的目标类别、缩放因子、最大迭代次数、置信度期望值和通用扰动功率;
本实施例采用美国DARPA/AFRL提供的实测地面静止与运动目标(MSTAR)数据作数据集,从数据集中选取一个能被模型正确识别的样本x,设定通用扰动的约束条件PSR[dB]。
S3、对选定的样本,计算目标类别的梯度方向,将梯度方向乘以缩放因子,获得扰动,将扰动添加到所选定的样本生成对抗样本;
本步骤采用FGSM算法生成扰动,计算效率高。
S4、对步骤S3采用迭代方法,将所获得的扰动添加到原始样本中,不断更新对抗样本,利用更新后的对抗样本攻击神经网络模型;当神经网络模型将对抗样本识别成目标类别时,剔除掉该对抗样本中的原始样本数据,获得有目标细粒度对抗扰动;
在本发明的实现过程中,将目标的具体类别用阿拉伯数字来表示;假如有10种类型目标,则用0至9这十个数字来表示对应的目标类别名称。本实施例的步骤S3-S4中,设定缩放因子为0.0001,攻击的目标类别为类别0,基于FGSM算法,利用神经网络反向传播以及符号函数,计算样本x在相应目标类别的交叉熵损失函数的梯度方向;接着,将这个梯度方向乘上缩放因子,得到一个微小的扰动p;然后,将扰动p添加到原始样本x,更新样本为对抗样本xadv=x+p,利用这个对抗样本xadv攻击MLP模型;检验当前对抗样本xadv是否被MLP模型识别成目标类别,如果是,则当前对抗样本是有效的,否则,在不超过最大迭代次数的前提下,继续迭代,计算对抗样本xadv的梯度方向,得到新的扰动p',更新对抗样本为x′adv=xadv+p′,直到神经网络模型将对抗样本识别成目标类别。对能够成功攻击神经网络模型的有目标对抗样本,剔除掉其中的原始样本数据x,得到选取样本的有目标细粒度对抗扰动P。
二、生成有目标通用扰动。
S5、在步骤S4获得对抗样本的基础上继续迭代,直到模型对目标类别的置信度提高到期望值时,迭代结束,获得更新后的对抗样本;
S6、将步骤S5获得的对抗样本剔除掉原始样本数据,得到所选样本的有目标对抗扰动;
S7、将有目标对抗扰动的大小缩放到给定的扰动功率值,得到有目标通用扰动;
本步骤生成的有目标通用扰动对整个数据集具有泛化能力,能够根据原始样本大批量快速生成对抗样本。
S8、将有目标通用扰动添加至任意样本中,生成对抗样本。
要获得一个通用扰动,需要设定模型对目标类别置信度的期望值exp为90%,对上述得到的有效对抗样本采用迭代方法,直到神经网络模型对目标类别的置信度提高到期望值exp,得到更新后的对抗样本x″adv;然后,将更新后的对抗样本x″adv剔除原始样本数据x,得到一个扰动P′;最后,将扰动P′缩放到设定的约束条件PSR[dB]下,即可得到对数据集有泛化性的有目标通用扰动UAP,将有目标通用扰动UAP添加到任意样本上,可以以较高成功率获得样本的有目标对抗扰动。
对本发明方法进行实验验证如下:
验证实验一:按照上述步骤S1-S6,选取一个样本x,通过迭代的方法获得该样本的对抗样本xadv,图3显示了在迭代过程中,MLP模型对目标类别置信度随着迭代次数变化而变化的实验效果图。
验证实验二:采用本发明方法生成的通用对抗扰动UAP,对数据集的每个样本生成对抗样本。再利用这些对抗样本攻击MLP模型,得到数据集生成的对抗样本被模型识别成目标类别的占比图,实验效果如图4所示。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (6)

1.一种基于深度学习的HRRP有目标对抗样本生成方法,其特征在于,包括以下步骤:
S1、利用数据集训练深度神经网络模型,获得深度神经网络模型模型的参数;
S2、选取一个样本作为原始样本并初始化算法参数,包括攻击的目标类别、缩放因子、最大迭代次数、置信度期望值和通用扰动功率;
S3、对选定的样本,计算目标类别的梯度方向,将梯度方向乘以缩放因子,获得扰动,将扰动添加到所选定的样本生成对抗样本;
S4、对步骤S3采用迭代方法,将所获得的扰动添加到原始样本中,不断更新对抗样本,利用更新后的对抗样本攻击深度神经网络模型;当深度神经网络模型将对抗样本识别成目标类别时,剔除掉该对抗样本中的原始样本数据,获得有目标细粒度对抗扰动;
S5、在步骤S4获得对抗样本的基础上继续迭代,直到深度神经网络模型对目标类别的置信度提高到期望值时,迭代结束,获得对抗样本;
S6、将步骤S5获得的对抗样本剔除掉原始样本数据,得到所选样本的有目标对抗扰动;
S7、将有目标对抗扰动的大小缩放到给定的扰动功率值,得到有目标通用扰动;
S8、将有目标通用扰动添加至任意样本中,生成对抗样本。
2.根据权利要求1所述的基于深度学习的HRRP有目标对抗样本生成方法,其特征在于,步骤S3采用FGSM算法生成扰动。
3.根据权利要求1所述的基于深度学习的HRRP有目标对抗样本生成方法,其特征在于,步骤S7生成的有目标通用扰动对整个数据集具有泛化能力。
4.根据权利要求1所述的基于深度学习的HRRP有目标对抗样本生成方法,其特征在于,步骤S3利用神经网络反向传播以及符号函数,计算样本在相应目标类别的交叉熵损失函数的梯度方向。
5.根据权利要求1所述的基于深度学习的HRRP有目标对抗样本生成方法,其特征在于,步骤S5中,深度神经网络模型对目标类别置信度的期望值exp为90%。
6.根据权利要求1所述的基于深度学习的HRRP有目标对抗样本生成方法,其特征在于,深度神经网络模型为MLP模型。
CN202010141577.XA 2020-03-03 2020-03-03 一种基于深度学习的hrrp有目标对抗样本生成方法 Active CN111368725B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010141577.XA CN111368725B (zh) 2020-03-03 2020-03-03 一种基于深度学习的hrrp有目标对抗样本生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010141577.XA CN111368725B (zh) 2020-03-03 2020-03-03 一种基于深度学习的hrrp有目标对抗样本生成方法

Publications (2)

Publication Number Publication Date
CN111368725A true CN111368725A (zh) 2020-07-03
CN111368725B CN111368725B (zh) 2023-10-03

Family

ID=71211754

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010141577.XA Active CN111368725B (zh) 2020-03-03 2020-03-03 一种基于深度学习的hrrp有目标对抗样本生成方法

Country Status (1)

Country Link
CN (1) CN111368725B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111881034A (zh) * 2020-07-23 2020-11-03 深圳慕智科技有限公司 一种基于距离的对抗样本生成方法
CN112488023A (zh) * 2020-12-08 2021-03-12 西北工业大学 基于梯度扰动的电磁信号智能识别系统诱骗方法
CN112865915A (zh) * 2021-01-05 2021-05-28 西安电子科技大学 用于对抗深度学习的无线电信号伪造方法
CN113222047A (zh) * 2021-05-26 2021-08-06 素泰智能科技(上海)有限公司 一种sar对抗样本生成方法及终端设备
CN113408650A (zh) * 2021-07-12 2021-09-17 厦门大学 基于一致性训练的半监督三维形状识别方法
WO2022037295A1 (zh) * 2020-08-20 2022-02-24 鹏城实验室 一种针对深度哈希检索的有目标攻击方法及终端设备
CN115270891A (zh) * 2022-08-22 2022-11-01 苏州大学 一种信号对抗样本的生成方法、装置、设备及存储介质
CN115409058A (zh) * 2022-05-17 2022-11-29 中国人民解放军国防科技大学 面向自动调制识别深度网络的对抗扰动生成方法及系统
CN112488023B (zh) * 2020-12-08 2024-05-31 西北工业大学 基于梯度扰动的电磁信号智能识别系统诱骗方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106226746A (zh) * 2016-07-11 2016-12-14 中国人民解放军国防科学技术大学 基于相位调制表面的误引干扰方法
CN109948658A (zh) * 2019-02-25 2019-06-28 浙江工业大学 面向特征图注意力机制的对抗攻击防御方法及应用
CN110379418A (zh) * 2019-06-28 2019-10-25 西安交通大学 一种语音对抗样本生成方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106226746A (zh) * 2016-07-11 2016-12-14 中国人民解放军国防科学技术大学 基于相位调制表面的误引干扰方法
CN109948658A (zh) * 2019-02-25 2019-06-28 浙江工业大学 面向特征图注意力机制的对抗攻击防御方法及应用
CN110379418A (zh) * 2019-06-28 2019-10-25 西安交通大学 一种语音对抗样本生成方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
潘宗序;安全智;张冰尘;: "基于深度学习的雷达图像目标识别研究进展", 中国科学:信息科学, no. 12, pages 98 - 111 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111881034A (zh) * 2020-07-23 2020-11-03 深圳慕智科技有限公司 一种基于距离的对抗样本生成方法
WO2022037295A1 (zh) * 2020-08-20 2022-02-24 鹏城实验室 一种针对深度哈希检索的有目标攻击方法及终端设备
CN112488023A (zh) * 2020-12-08 2021-03-12 西北工业大学 基于梯度扰动的电磁信号智能识别系统诱骗方法
CN112488023B (zh) * 2020-12-08 2024-05-31 西北工业大学 基于梯度扰动的电磁信号智能识别系统诱骗方法
CN112865915A (zh) * 2021-01-05 2021-05-28 西安电子科技大学 用于对抗深度学习的无线电信号伪造方法
CN112865915B (zh) * 2021-01-05 2022-07-12 西安电子科技大学 用于对抗深度学习的无线电信号伪造方法
CN113222047A (zh) * 2021-05-26 2021-08-06 素泰智能科技(上海)有限公司 一种sar对抗样本生成方法及终端设备
CN113408650A (zh) * 2021-07-12 2021-09-17 厦门大学 基于一致性训练的半监督三维形状识别方法
CN113408650B (zh) * 2021-07-12 2023-07-18 厦门大学 基于一致性训练的半监督三维形状识别方法
CN115409058A (zh) * 2022-05-17 2022-11-29 中国人民解放军国防科技大学 面向自动调制识别深度网络的对抗扰动生成方法及系统
CN115270891A (zh) * 2022-08-22 2022-11-01 苏州大学 一种信号对抗样本的生成方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN111368725B (zh) 2023-10-03

Similar Documents

Publication Publication Date Title
CN111368725A (zh) 一种基于深度学习的hrrp有目标对抗样本生成方法
CN111291828B (zh) 一种基于深度学习的hrrp对抗样本黑盒攻击方法
Huang et al. Adversarial attacks on deep-learning-based SAR image target recognition
Dong et al. Recognition of imbalanced underwater acoustic datasets with exponentially weighted cross-entropy loss
Xiao et al. Adversarial example generation with adaptive gradient search for single and ensemble deep neural network
CN111242166A (zh) 一种通用对抗扰动生成方法
CN111368908A (zh) 一种基于深度学习的hrrp无目标对抗样本生成方法
Yahya et al. Probabilistic analysis of targeted attacks using transform-domain adversarial examples
Zhao et al. CLPA: Clean-label poisoning availability attacks using generative adversarial nets
CN111178504B (zh) 基于深度神经网络的鲁棒压缩模型的信息处理方法及系统
Labaca-Castro et al. Poster: Attacking malware classifiers by crafting gradient-attacks that preserve functionality
CN114708479B (zh) 一种基于图结构和特征的自适应防御方法
CN115620100A (zh) 一种基于主动学习的神经网络黑盒攻击方法
Xiao et al. Crafting adversarial example with adaptive root mean square gradient on deep neural networks
Zhang et al. Adversarial learning in transformer based neural network in radio signal classification
CN114972783A (zh) 一种增强梯度低频信息的对抗样本生成方法及其应用
Pavate et al. Analyzing probabilistic adversarial samples to attack cloud vision image classifier service
Gong et al. Model stealing defense with hybrid fuzzy models: Work-in-progress
Zhang et al. A Review of Adversarial Attacks in Computer Vision
Huang et al. Research on Malicious URL Identification and Analysis for Network Security
CN117592550B (zh) 一种图神经网络模型黑盒攻击方法及装置
Li et al. Cyberspace attack detection based on advanced initialized recurrent neural network
Zhang et al. A DDoS Attack Detection Method Based on LSTM Neural Network in The Internet of Vehicles
CN117436077B (zh) 一种基于图像隐写的联邦学习后门攻击方法
CN116991075B (zh) 一种针对故障诊断模型的通用对抗扰动生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant