CN109492582B - 一种基于算法对抗性攻击的图像识别攻击方法 - Google Patents
一种基于算法对抗性攻击的图像识别攻击方法 Download PDFInfo
- Publication number
- CN109492582B CN109492582B CN201811328589.2A CN201811328589A CN109492582B CN 109492582 B CN109492582 B CN 109492582B CN 201811328589 A CN201811328589 A CN 201811328589A CN 109492582 B CN109492582 B CN 109492582B
- Authority
- CN
- China
- Prior art keywords
- image
- attack
- algorithm
- antagonistic
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/96—Management of image or video recognition tasks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
- Character Discrimination (AREA)
Abstract
本发明涉及一种基于算法对抗性攻击的图像识别攻击方法,将需要被进行识别攻击的原始图像输入对抗式生成网络,获得对抗性图像,将原始图像和对抗性图像同时进行图像识别分类,若分类相同则攻击不成功,收集数据并更新对抗式生成网络,否则攻击成功。本发明能攻击现有的图像识别算法,通过生成对抗性样本,使算法无法进行正常的图像识别,从而影响人脸识别、图像检测、自动驾驶等领域的功能应用,适用性广;对抗式生成网络一旦训练完成,之后所生成的对抗性样本均不需要依赖于目标模型的接触和大量数值运算,具有高效、可迁移的特点;研究机器学习的对抗性攻击有益于进一步优化机器学习算法和数据处理手段,提高机器学习算法和其应用的安全性。
Description
技术领域
本发明涉及基于特定计算模型的计算机系统的技术领域,特别涉及一种高效、适用性广、可迁移且安全的基于算法对抗性攻击的图像识别攻击方法。
背景技术
机器学习是专门研究计算机怎样模拟或实现人类的学习行为以获取新的知识或技能、重新组织已有的知识结构使之不断改善自身性能的学习模式,其是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。
随着机器学习应用广泛深入各类领域,机器学习算法本身的安全性问题也对维护互联网安全有着至关重要的影响,如在在图像识别领域中人脸识别出错,亦或是自动驾驶时对路标识别出错,都有可能造成严重的危害。对抗性攻击正是一种针对机器学习算法本身的攻击手段,通过生成与原图相似的对抗性图片,混淆机器学习算法的分类结果,从而达到攻击的目的;通过对对抗性攻击的研究,可以进一步优化机器学习算法和数据处理手段,从而提高机器学习算法和其应用的安全性。
目前,对机器学习采用的攻击方法包括在训练集中加入混淆数据的方式,通过干扰机器学习模型的训练过程,使机器学习模型出现更多错误预测,但此方法存在适用性低的缺陷,攻击者一般无法获得并干扰目标模型算法的训练集来源,一般只适用于实验环境;除此之外,目前的对抗性攻击方法还采用针对白盒模型的损失函数的梯度下降法来生成对抗性样本,这种方法存在生成速率慢、需要数万次模型请求、图像鲁棒性低、无法适应黑盒的图像分类模型且难以迁移的问题。
整体来说,现有技术中仍未有一种对抗性攻击方法能适用于所有机器学习算法,并在黑盒测试中保持较高的攻击成功率。
发明内容
本发明解决了现有技术中,未有一种对抗性攻击方法能适用于所有机器学习算法、并在黑盒测试中保持较高的攻击成功率的问题,本发明提供了一种优化的基于算法对抗性攻击的图像识别攻击方法。
本发明所采用的技术方案是,一种基于算法对抗性攻击的图像识别攻击方法,所述方法包括以下步骤:
步骤1:确认需要被进行识别攻击的原始图像;
步骤2:将原始图像输入对抗式生成网络进行处理,获得对抗性图像;
步骤3:将原始图像和对抗性图像同时进行图像识别分类,得到分类A和分类B;
步骤4:若A=B,则攻击不成功,收集数据,更新对抗式生成网络,返回步骤1,否则,攻击成功。
优选地,所述步骤2中,组建对抗式生成网络包括以下步骤:
步骤2.1:收集开源图像识别算法,在本地构建能适用所述开源图像识别算法的图像分类系统;
步骤2.2:收集训练集;
步骤2.3:确定神经网络的构造;
步骤2.4:确定损失函数及其比例;
步骤2.5:以梯度下降法训练任一神经网络内部参数;
步骤2.6:得到若干对抗式生成网络。
优选地,所述步骤2.3中,构造若干种适用于不同的开源图像识别算法的神经网络,任一神经网络包括若干层神经网络和/或若干卷积层,任一卷积层包括1种或多种卷积核尺寸。
优选地,所述步骤2.4中,损失函数包括对抗性图片与原图之间的差值函数及对抗性图片的分类结果与原图分类结果之间的差值函数。
优选地,所述步骤2.4中,将训练集的图像输入步骤2.3构造的若干种适用于不同的开源图像识别算法的神经网络,得到任一神经网络的对抗性图像;得到损失函数并调节2个损失函数间的比例,得到使得对抗性图像与对应的训练集的图像区别最小且分类区别最大的若干神经网络及对应的损失函数、比例,确定为适用于不同的开源图像识别算法的神经网络的构造。
本发明提供了一种优化的基于算法对抗性攻击的图像识别攻击方法,通过将需要被进行识别攻击的原始图像输入对抗式生成网络进行处理,获得对抗性图像,将原始图像和对抗性图像同时进行图像识别分类,对得到的分类进行比较,若分类相同则攻击不成功,收集数据并更新对抗式生成网络,否则攻击成功。本发明能攻击现有的图像识别算法,通过生成对抗性样本,使算法无法进行正常的图像识别,从而影响人脸识别、图像检测、自动驾驶等领域的功能应用,适用性广;构建对抗式生成网络,一旦训练完成,之后所生成的对抗性样本均不需要依赖于目标模型的接触和大量的数值运算,具有高效、可迁移的特点;进一步来说,研究机器学习的对抗性攻击有益于优化机器学习算法和数据处理手段,从而提高机器学习算法和其应用的安全性。
附图说明
图1为本发明的流程图;
图2为本发明中组建对抗式生成网络的流程图。
具体实施方式
下面结合实施例对本发明做进一步的详细描述,但本发明的保护范围并不限于此。
本发明涉及一种基于算法对抗性攻击的图像识别攻击方法,构建一个对抗机器学习分类的对抗式生成网络,对抗式生成网络生成的对抗性样本能混淆图像识别算法的分类结果,生成与原图相近的对抗性样本图像来使图像识别出错。
本发明中,对抗性攻击是指在机器学习算法特别是神经网络中,由于内部的复杂性,无法完全杜绝安全问题,因而通过对输入样本增加细微扰动,最终可以较大程度的影响模型分类的输出,而生成这种特定的细微扰动所采用的方法为构建一个与目标模型对应的神经网络,通过训练此神经网络使其对输入图像能自动生成细微扰动从而对抗目标模型。
所述方法包括以下步骤。
步骤1:确认需要被进行识别攻击的原始图像。
步骤2:将原始图像输入对抗式生成网络进行处理,获得对抗性图像。
所述步骤2中,组建对抗式生成网络包括以下步骤。
步骤2.1:收集开源图像识别算法,在本地构建能适用所述开源图像识别算法的图像分类系统。
本发明中,用于图像检测、分类的机器学习算法,通常基于卷积神经网络CNN,包括RCNN、AlexNet、VGGNet、ResNet等多种结构。
本发明中,大量的开源图像识别算法为对抗性攻击的迁移训练提供了模型的储备,且有助于提高对抗式生成网络的迁移性和鲁棒性。
步骤2.2:收集训练集。
本发明中,训练集包括imagenet, Cifar-10等通用训练集,用于对抗式生成网络进行训练,准确、清晰的训练集图像能使训练的神经网络更具有普适性和对抗性。
步骤2.3:确定神经网络的构造。
所述步骤2.3中,构造若干种适用于不同的开源图像识别算法的神经网络,任一神经网络包括若干层神经网络和/或若干卷积层,任一卷积层包括1种或多种卷积核尺寸。
步骤2.4:确定损失函数及其比例。
所述步骤2.4中,损失函数包括对抗性图片与原图之间的差值函数及对抗性图片的分类结果与原图分类结果之间的差值函数。
所述步骤2.4中,将训练集的图像输入步骤2.3构造的若干种适用于不同的开源图像识别算法的神经网络,得到任一神经网络的对抗性图像;得到损失函数并调节2个损失函数间的比例,得到使得对抗性图像与对应的训练集的图像区别最小且分类区别最大的若干神经网络及对应的损失函数、比例,确定为适用于不同的开源图像识别算法的神经网络的构造。
本发明中,神经网络层数、卷积核大小等结构的差异均可能影响对抗式生成网络的训练速度和最终的对抗效果,更多层数的神经网络使参数大量增加,会导致训练速度的下降,而更少的层数则会影响神经网络本身的复杂性和适应性,使最终的对抗效果减弱,因此,神经网络的构造并非固定,确定一个训练快速又表现优异的神经网络需要构建实验与测试,同时,对抗不同的算法模型,不同的神经网络结构也会导致对抗性结果之间的差异。
本发明中,选择最优的对抗神经网络需要进行大量的实验与测试,针对每一个图像识别算法,不同结构的对抗生成网络都会表现不同,对抗结构单一的图像识别算法,可构建单层全连接层、双层全连阶层、2层3*3卷积层的神经网络分别训练。
本发明中,基于此,神经网络的构造并非固定的,而是可以通过优化神经网络的构造来达到对不同算法模型进行对抗的目的。举例来说,对于对抗结构单一、样本像素点少的图像识别算法,神经网络可以采取两层全连接(fc->fc->image)的方法进行训练,而对于对抗结构复杂、样本像素点多的图像识别算法,神经网络则需要采取多层卷积和逆卷积结合的方法,如以3*3为卷积核、创建3层卷积层(3*3 conv->3*3 conv->3*3 conv->fc->image)的方法进行训练。
本发明中,损失函数的作用是训练神经网络的内部参数,使得构建的对抗式生成网络旨在生成与原图近似的对抗性图片,同时,此图片的分类结果又完全不同于原图。
本发明中,由于对抗性图片与原图之间的差值函数及对抗性图片的分类结果与原图分类结果之间的差值函数并不在同一量级,因此,需要确定两者之间的比例以平衡神经网络在这两方面上的倾向性,通过这两个损失函数所训练的神经网络能够找到图像上趋近与原图但分类结果上又与原图完全相反的对抗性样本。举例来说,可以随机选择两个损失函数之间的比例,作为实验的过程,如以0.01、0.005、0.0001分别进行训练测试,直至得到结果最优的对抗生成网络,以使得对抗性图像与对应的训练集的图像区别最小且分类区别最大的若干神经网络及对应的损失函数、比例,确定为适用于不同的开源图像识别算法的神经网络的构造。此为本领域技术人员容易理解的内容,本领域技术人员可以根据训练结果主动调节2个损失函数之间的比例。
步骤2.5:以梯度下降法训练神经网络内部参数。
本发明中,梯度下降法是一种优化算法,能帮助神经网络最快的找到参数调整的方向。针对损失函数,通过梯度下降法训练神经网络参数,能够得到本发明所需要的对抗式生成网络,从而高效、准确的产生对抗性样本,达到攻击图像识别算法的目的。
步骤2.6:得到对抗式生成网络。
本发明中,通过该对抗式生成网络能快速且准确的生成对抗性样本,且不用再次接触目标算法模型。
步骤3:将原始图像和对抗性图像同时进行图像识别分类,得到分类A和分类B。
步骤4:若A=B,则攻击不成功,收集数据,更新对抗式生成网络,返回步骤1,否则,攻击成功。
本发明通过将需要被进行识别攻击的原始图像输入对抗式生成网络进行处理,获得对抗性图像,将原始图像和对抗性图像同时进行图像识别分类,对得到的分类进行比较,若分类相同则攻击不成功,收集数据并更新对抗式生成网络,否则攻击成功。本发明能攻击现有的图像识别算法,通过生成对抗性样本,使算法无法进行正常的图像识别,从而影响人脸识别、图像检测、自动驾驶等领域的功能应用,适用性广;构建对抗式生成网络,一旦训练完成,之后所生成的对抗性样本均不需要依赖于目标模型的接触和大量的数值运算,具有高效、可迁移的特点;进一步来说,研究机器学习的对抗性攻击有益于优化机器学习算法和数据处理手段,从而提高机器学习算法和其应用的安全性。
Claims (2)
1.一种基于算法对抗性攻击的图像识别攻击方法,其特征在于:所述方法包括以下步骤:
步骤1:确认需要被进行识别攻击的原始图像;
步骤2:将原始图像输入对抗式生成网络进行处理,获得对抗性图像;组建对抗式生成网络包括以下步骤:
步骤2.1:收集开源图像识别算法,在本地构建能适用所述开源图像识别算法的图像分类系统;
步骤2.2:收集训练集;
步骤2.3:确定神经网络的构造;
步骤2.4:确定损失函数及其比例;将训练集的图像输入步骤2.3构造的若干种适用于不同的开源图像识别算法的神经网络,得到任一神经网络的对抗性图像;得到包括对抗性图片与原图之间的差值函数及对抗性图片的分类结果与原图分类结果之间的差值函数的损失函数,调节2个损失函数间的比例,得到使得对抗性图像与对应的训练集的图像区别最小且分类区别最大的若干神经网络及对应的损失函数、比例,确定为适用于不同的开源图像识别算法的神经网络的构造;
步骤2.5:以梯度下降法训练任一神经网络内部参数;
步骤2.6:得到若干对抗式生成网络;
步骤3:将原始图像和对抗性图像同时进行图像识别分类,得到分类A和分类B;
步骤4:若A=B,则攻击不成功,收集数据,更新对抗式生成网络,返回步骤1,否则,攻击成功。
2.根据权利要求1所述的一种基于算法对抗性攻击的图像识别攻击方法,其特征在于:所述步骤2.3中,构造若干种适用于不同的开源图像识别算法的神经网络,任一神经网络包括若干层神经网络和/或若干卷积层,任一卷积层包括1种或多种卷积核尺寸。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811328589.2A CN109492582B (zh) | 2018-11-09 | 2018-11-09 | 一种基于算法对抗性攻击的图像识别攻击方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811328589.2A CN109492582B (zh) | 2018-11-09 | 2018-11-09 | 一种基于算法对抗性攻击的图像识别攻击方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109492582A CN109492582A (zh) | 2019-03-19 |
CN109492582B true CN109492582B (zh) | 2022-02-11 |
Family
ID=65695475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811328589.2A Active CN109492582B (zh) | 2018-11-09 | 2018-11-09 | 一种基于算法对抗性攻击的图像识别攻击方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109492582B (zh) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10929719B2 (en) * | 2019-03-28 | 2021-02-23 | GM Global Technology Operations LLC | Adversarial attack on black box object detection algorithm |
CN109993805B (zh) * | 2019-03-29 | 2022-08-30 | 武汉大学 | 一种面向深度神经网络的高隐蔽性对抗性图像攻击方法 |
CN110175513B (zh) * | 2019-04-15 | 2021-01-08 | 浙江工业大学 | 一种基于多目标路优化的路牌识别攻击防御方法 |
US11037025B2 (en) * | 2019-05-30 | 2021-06-15 | Baidu Usa Llc | Systems and methods for adversarially robust object detection |
CN110210573B (zh) * | 2019-06-11 | 2023-01-06 | 腾讯科技(深圳)有限公司 | 对抗图像的生成方法、装置、终端及存储介质 |
CN110222831B (zh) * | 2019-06-13 | 2022-05-17 | 百度在线网络技术(北京)有限公司 | 深度学习模型的鲁棒性评估方法、装置及存储介质 |
US10990855B2 (en) * | 2019-06-13 | 2021-04-27 | Baidu Usa Llc | Detecting adversarial samples by a vision based perception system |
CN110741388B (zh) * | 2019-08-14 | 2023-04-14 | 东莞理工学院 | 对抗样本检测方法、装置、计算设备及计算机存储介质 |
CN110516619A (zh) * | 2019-08-29 | 2019-11-29 | 河南中原大数据研究院有限公司 | 一种cos-attack人脸识别攻击算法 |
CN110633655A (zh) * | 2019-08-29 | 2019-12-31 | 河南中原大数据研究院有限公司 | 一种attention-attack人脸识别攻击算法 |
CN110851835A (zh) * | 2019-09-23 | 2020-02-28 | 平安科技(深圳)有限公司 | 图像模型检测方法、装置、电子设备及存储介质 |
CN111047658B (zh) * | 2019-11-29 | 2022-11-18 | 武汉大学 | 面向深度神经网络的抗压缩对抗性图像生成方法 |
CN111600835B (zh) * | 2020-03-18 | 2022-06-24 | 宁波送变电建设有限公司永耀科技分公司 | 一种基于fgsm对抗攻击算法的检测与防御方法 |
CN111723865B (zh) * | 2020-06-19 | 2021-07-16 | 北京瑞莱智慧科技有限公司 | 评估图像识别模型、攻击方法性能的方法、装置和介质 |
CN111866004B (zh) * | 2020-07-27 | 2022-09-27 | 中国工商银行股份有限公司 | 安全评估方法、装置、计算机系统和介质 |
CN111818101B (zh) * | 2020-09-09 | 2020-12-11 | 平安国际智慧城市科技股份有限公司 | 网络安全性的检测方法、装置、计算机设备和存储介质 |
CN112560039B (zh) * | 2020-12-25 | 2023-04-18 | 河南交通职业技术学院 | 一种计算机安全防护方法 |
CN113780301B (zh) * | 2021-07-26 | 2023-06-27 | 天津大学 | 防御对抗攻击的自适应去噪机器学习应用方法 |
CN116523032B (zh) * | 2023-03-13 | 2023-09-29 | 之江实验室 | 一种图像文本双端迁移攻击方法、装置和介质 |
CN117253094B (zh) * | 2023-10-30 | 2024-05-14 | 上海计算机软件技术开发中心 | 一种图像分类系统对抗性样本生成方法、系统及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107016406A (zh) * | 2017-02-24 | 2017-08-04 | 中国科学院合肥物质科学研究院 | 基于生成式对抗网络的病虫害图像生成方法 |
CN108257116A (zh) * | 2017-12-30 | 2018-07-06 | 清华大学 | 一种生成对抗图像的方法 |
CN108446700A (zh) * | 2018-03-07 | 2018-08-24 | 浙江工业大学 | 一种基于对抗攻击的车牌攻击生成方法 |
CN108491837A (zh) * | 2018-03-07 | 2018-09-04 | 浙江工业大学 | 一种提高车牌攻击鲁棒性的对抗攻击方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9963251B2 (en) * | 2015-05-27 | 2018-05-08 | The Aerospace Corporation | Systems and methods for estimating parameters of a spacecraft based on emission from an atomic or molecular product of a plume from the spacecraft |
-
2018
- 2018-11-09 CN CN201811328589.2A patent/CN109492582B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107016406A (zh) * | 2017-02-24 | 2017-08-04 | 中国科学院合肥物质科学研究院 | 基于生成式对抗网络的病虫害图像生成方法 |
CN108257116A (zh) * | 2017-12-30 | 2018-07-06 | 清华大学 | 一种生成对抗图像的方法 |
CN108446700A (zh) * | 2018-03-07 | 2018-08-24 | 浙江工业大学 | 一种基于对抗攻击的车牌攻击生成方法 |
CN108491837A (zh) * | 2018-03-07 | 2018-09-04 | 浙江工业大学 | 一种提高车牌攻击鲁棒性的对抗攻击方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109492582A (zh) | 2019-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109492582B (zh) | 一种基于算法对抗性攻击的图像识别攻击方法 | |
Carlini et al. | Towards evaluating the robustness of neural networks | |
CN111310802B (zh) | 一种基于生成对抗网络的对抗攻击防御训练方法 | |
CN110334742B (zh) | 一种用于文档分类的基于强化学习的通过添加虚假节点的图对抗样本生成方法 | |
CN111475797B (zh) | 一种对抗图像生成方法、装置、设备以及可读存储介质 | |
Sommer et al. | Towards probabilistic verification of machine unlearning | |
CN111160474A (zh) | 一种基于深度课程学习的图像识别方法 | |
Liu et al. | Security analysis and enhancement of model compressed deep learning systems under adversarial attacks | |
CN110334806A (zh) | 一种基于生成式对抗网络的对抗样本生成方法 | |
CN112884131A (zh) | 一种基于模仿学习的深度强化学习策略优化防御方法和装置 | |
CN110322003B (zh) | 一种用于文档分类的基于梯度的通过添加虚假节点的图对抗样本生成方法 | |
Mo et al. | MCTSteg: A Monte Carlo tree search-based reinforcement learning framework for universal non-additive steganography | |
CN114863226A (zh) | 一种网络物理系统入侵检测方法 | |
Leroux et al. | Resource-constrained classification using a cascade of neural network layers | |
CN110807291B (zh) | 一种基于拟态对抗学习机制的现场态势未来引导技术 | |
CN111178504B (zh) | 基于深度神经网络的鲁棒压缩模型的信息处理方法及系统 | |
Henriksson et al. | Performance analysis of out-of-distribution detection on trained neural networks | |
CN115081618A (zh) | 一种提升深度神经网络模型鲁棒性的方法及装置 | |
CN113822443A (zh) | 一种对抗攻击和生成对抗样本的方法 | |
CN117372839A (zh) | 图像分类领域联邦学习场景下的成员推理攻击方法 | |
CN115277065B (zh) | 一种物联网异常流量检测中的对抗攻击方法及装置 | |
CN116824334A (zh) | 一种基于频域特征融合再构的模型后门攻击对抗方法 | |
CN115758337A (zh) | 基于时序图卷积网络的后门实时监测方法、电子设备、介质 | |
CN113468046B (zh) | 一种面向多目标的dnn模型的诱导输入生成的方法 | |
CN116418502A (zh) | 一种基于fgsm对抗性扰动的量子密钥分发系统攻击方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |