CN112766430B - 基于黑盒通用人脸检测对抗攻击的方法、装置及存储介质 - Google Patents
基于黑盒通用人脸检测对抗攻击的方法、装置及存储介质 Download PDFInfo
- Publication number
- CN112766430B CN112766430B CN202110026619.XA CN202110026619A CN112766430B CN 112766430 B CN112766430 B CN 112766430B CN 202110026619 A CN202110026619 A CN 202110026619A CN 112766430 B CN112766430 B CN 112766430B
- Authority
- CN
- China
- Prior art keywords
- face
- models
- image
- attack
- face detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/52—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems during program execution, e.g. stack integrity ; Preventing unwanted data erasure; Buffer overflow
- G06F21/54—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems during program execution, e.g. stack integrity ; Preventing unwanted data erasure; Buffer overflow by adding security routines or objects to programs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于黑盒的通用人脸检测对抗攻击的方法,将图片进行预处理之后送入人脸检测器,得到模型预测的分类分数。这个分类分数是一个三维的向量,其中第一个维度是图片的数量;第二个维度为N个预测可能存在的人脸;第三个维度为2,是非人脸和人脸的概率分数。使用提取的人脸概率向量,在每一次迭代中将图片依次送入这些模型提取人脸概率向量并进行求和作为损失函数并反向传播来访问攻击图像的梯度。通过图像的梯度,可知模型在图像的最大响应位置并添加噪声,直到人脸检测器无法检测到人脸,停止迭代。通过本方法生成的对抗样本可用于对抗训练,人脸图片不容易再被第三方进行利用从而加强数据安全,从而加强数据的安全性。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种基于黑盒通用人脸检测对抗攻击的方法、装置及存储介质。
背景技术
神经网络在人脸检测方面取得了巨大的成功,然而,它们很容易受到对抗样本的影响-人类无法察觉的小扰动会导致人脸检测器输出错误的预测。当一个成熟的人脸系统被恶意攻击成功时,可能会带来严重后果,因此针对恶意攻击行为的可靠性和健壮性就变得至关重要。
目前的人脸对抗攻击方法大部分都知道人脸检测模型结构(简称白盒攻击),基于白盒攻击的方法通常是直接访问人脸检测模型模型内部,然后通过某些方法在原图像上的某个位置生成补丁或者是添加噪声,改动之后会留下明显的改动痕迹,若更换了人脸检测模型,则这个生成的图片有极大的概率在这个新的人脸检测模型中失效。所以基于白盒攻击的人脸对抗攻击方法不太适用与真实场景。真实情况往往是不知道人脸检测模型结构的,往往只能访问模型的输入与输出(简称黑盒攻击),因此,如何在人脸检测模型上开发一个通用的黑盒攻击方式是一个很需要解决的问题。
发明内容
通过本方法生成的对抗样本可用于对抗训练,人脸图片不容易再被第三方进行利用从而加强数据安全,从而加强数据的安全性。
本发明旨在至少解决现有技术中存在的技术问题。为此,本发明公开了一种基于黑盒的通用人脸检测对抗攻击的方法,所述对抗攻击的方法包括如下步骤:
步骤1,人脸检测并提取最大分类分数;
步骤2,使用第一个过程提取的人脸概率向量循环攻击。
更进一步地,所述步骤1进一步包括:将图片进行预处理之后送入人脸检测器,得到模型预测的分类分数,其中,所述分类分数是一个三维的向量,其中第一个维度是图片的数量;第二个维度为N个预测可能存在的人脸;第三个维度为2,是非人脸和人脸的概率分数,在第三个维度进行排序,提取为人脸的概率最大的向量作为攻击对象并送入下一步。
更进一步地,所述步骤2进一步包括:采用代理模式在每一次迭代中,使用多个人脸检测器,将图片依次送入这些模型提取人脸概率向量,把所述人脸概率向量进行求和作为损失函数并反向传播来访问攻击图像的梯度,通过图像的梯度求得模型在图像的哪些位置响应最大,在所述响应最大的位置添加噪声,直到人脸检测器无法检测到人脸,停止迭代。
更进一步地,所述多个人脸检测器可以选择相同检测器,也可以选择不同的检测器,当选择不同人脸检测模型组合时,所述多个人脸检测器获取更好效果。
更进一步地,所述添加噪声进一步的计算形式为:利用图像的梯度值除以图像梯度值的范数,再设置一个学习率的较小的步长与其相乘后作为噪声添加到图像中。
更进一步地,所述代理模式进一步包括:综合多个模型的结果,由于不同模型对同一张图片的响应位置都不相同,综合多个强模型的输出,把它们的输出向量的经softmax函数后逐一求和,再反向传播,就能得到多样性的梯度响应,从而使大多数人脸检测模型失效,所述softmax函数为:
其中,Zi和Zj是分类器前级输出单元的输出,i标示类别索引,总的类别个数为C。
更进一步地,所述softmax函数,也称指数归一化函数,为logistic函数的归一化,可以将K维实数向量压缩成范围(0~1)的K维实数向量,其中,C代表向量维度,分子为当前元素的指数,分母为向量中所以元素指数和。
更进一步地,对于损失函数直接采用人脸和非人脸通过softmax后的概率向量进行相加。
本发明进一步公开了一种电子设备,包括:处理器;以及,存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述的基于黑盒的通用人脸检测对抗攻击的方法。
本发明进一步公开了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述的基于黑盒的通用人脸检测对抗攻击的方法。
针对现有人脸对抗攻击方案,改进之后,无需访问人脸检测模型的内部,只需知道检测模型的输入和输出便可以攻击图片使得检测器失效,与现有的人脸检测模型的攻击方法不同的是,本方法无需访问人脸检测模型预测的人脸矩形框,只需访问其预测的分类分数即可。且生成的对抗样本更接近原图,只做了细微的改变。另外,生成的对抗样本为通用的,即大多数人脸检测器在此对抗样本上都无法检测到人脸。在很大程度上解决目前人脸检测对抗攻击方法的不足与繁琐。本方法能适用于基于先验框和基于关键点的任何人脸检测模型。
附图说明
从以下结合附图的描述可以进一步理解本发明。图中的部件不一定按比例绘制,而是将重点放在示出实施例的原理上。在图中,在不同的视图中,相同的附图标记指定对应的部分。
图1是本发明的基于黑盒的通用人脸检测对抗攻击的方法的流程图。
具体实施方式
实施例一
技术主要分为两个过程:人脸检测并提取最大分类分数,循环攻击。
第一个过程:将图片进行预处理之后送入人脸检测器,得到模型预测的分类分数。这个分类分数是一个三维的向量,其中第一个维度是图片的数量;第二个维度为N个预测可能存在的人脸;第三个维度为2,是非人脸和人脸的概率分数。在第三个维度进行排序,提取为人脸的概率最大的向量作为攻击对象并送入下一步。
第二个过程:循环攻击。使用第一个过程提取的人脸概率向量,由于本方法是基于黑盒攻击的方法,所以无法直接访问人脸检测模型的梯度。因此本方法采取了代理模式。在每一次迭代中,本方法可以使用多个人脸检测器(可以相同,可以不同,不同人脸检测模型组合效果会更好),将图片依次送入这些模型提取人脸概率向量,把这些概率向量进行求和作为损失函数并反向传播来访问攻击图像的梯度。通过图像的梯度,就能知道模型在图像的哪些位置响应最大,在响应最大的位置添加噪声,直到人脸检测器无法检测到人脸,停止迭代。
对于损失函数,本方法直接采用人脸和非人脸通过softmax后的概率向量进行相加,这种方式简单高效,而类似交叉熵的损失函数则需要样本的标签,虽然在人脸检测任务中检测到即为人脸,但通常对其他任务下无法知晓样本标签,所以直接以模型预测概率相加会更为简便,除了在人脸检测下,也能用在其他类型的任务下。
对于添加的噪声,计算的形式为:利用图像的梯度值除以图像梯度值的范数,再设置一个较小的步长与其相乘后作为噪声添加到图像中。
对于代理模式,其实就是综合了多个模型的结果,由于不同模型对同一张图片的响应位置都不相同,综合多个强模型的输出,把它们的输出向量的经softmax后逐一求和,再反向传播,就能得到多样性的梯度响应,从而使大多数人脸检测模型失效。
注解:其中Zi和Zj是分类器前级输出单元的输出,i标示类别索引,总的类别个数为C。
softmax函数,也称指数归一化函数,它是一种logistic函数的归一化,可以将K维实数向量压缩成范围(0~1)的K维实数向量,其中,C代表向量维度,分子为当前元素的指数,分母为向量中所以元素指数和。
虽然本方法访问了图像的梯度,但是是以模型代理的形式去访问的,所以不属于白盒攻击方式,另外整个过程中只使用了人脸检测模型的分类分数,操作十分简洁。随着组合不同模型的增加,攻击成功率会更高而且生成的对抗样本也更接近原图。
在每次循环攻击增加噪声时,会依次判断图片中是否存在人脸,若人脸检测模型最开始能够检测出人脸,经增加多次噪声后人脸检测模型无法检测到人脸,则说明攻击成功,此时整个算法结束,并生成对抗样本。生成的对抗样本可用于后续的对抗训练,以加强人脸数据安全。
实施例二
如图1所示,本实施例进一步提供了一种基于黑盒的通用人脸检测对抗攻击的方法,所述对抗攻击的方法包括如下步骤:
步骤1,人脸检测并提取最大分类分数;
步骤2,使用第一个过程提取的人脸概率向量循环攻击。
更进一步地,所述步骤1进一步包括:将图片进行预处理之后送入人脸检测器,得到模型预测的分类分数,其中,所述分类分数是一个三维的向量,其中第一个维度是图片的数量;第二个维度为N个预测可能存在的人脸;第三个维度为2,是非人脸和人脸的概率分数,在第三个维度进行排序,提取为人脸的概率最大的向量作为攻击对象并送入下一步。
更进一步地,所述步骤2进一步包括:采用代理模式在每一次迭代中,使用多个人脸检测器,将图片依次送入这些模型提取人脸概率向量,把所述人脸概率向量进行求和作为损失函数并反向传播来访问攻击图像的梯度,通过图像的梯度求得模型在图像的哪些位置响应最大,在所述响应最大的位置添加噪声,直到人脸检测器无法检测到人脸,停止迭代。
更进一步地,所述多个人脸检测器可以选择相同检测器,也可以选择不同的检测器,当选择不同人脸检测模型组合时,所述多个人脸检测器获取更好效果。
更进一步地,所述添加噪声进一步的计算形式为:利用图像的梯度值除以图像梯度值的范数,再设置一个较小的步长与其相乘后作为噪声添加到图像中。
更进一步地,所述代理模式进一步包括:综合多个模型的结果,由于不同模型对同一张图片的响应位置都不相同,综合多个强模型的输出,把它们的输出向量的经softmax函数后逐一求和,再反向传播,就能得到多样性的梯度响应,从而使大多数人脸检测模型失效,所述softmax函数为:
其中,Zi和Zj是分类器前级输出单元的输出,i标示类别索引,总的类别个数为C。
更进一步地,所述softmax函数,也称指数归一化函数,为logistic函数的归一化,可以将K维实数向量压缩成范围(0~1)的K维实数向量,其中,C代表向量维度,分子为当前元素的指数,分母为向量中所以元素指数和。
更进一步地,对于损失函数直接采用人脸和非人脸通过softmax后的概率向量进行相加。
本发明进一步公开了一种电子设备,包括:处理器;以及,存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述的基于黑盒的通用人脸检测对抗攻击的方法。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
虽然上面已经参考各种实施例描述了本发明,但是应当理解,在不脱离本发明的范围的情况下,可以进行许多改变和修改。因此,其旨在上述详细描述被认为是例示性的而非限制性的,并且应当理解,以下权利要求(包括所有等同物)旨在限定本发明的精神和范围。以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。
Claims (7)
1.一种基于黑盒的通用人脸检测对抗攻击的方法,其特征在于,所述对抗攻击的方法包括如下步骤:
步骤1,人脸检测并提取最大分类分数,其中,将图片进行预处理之后送入人脸检测器,得到模型预测的分类分数,其中,所述分类分数是一个三维的向量,其中第一个维度是图片的数量;第二个维度为N个预测可能存在的人脸;第三个维度为2,是非人脸和人脸的概率分数,在第三个维度进行排序,提取为人脸的概率最大的向量作为攻击对象并送入下一步;
步骤2,使用所述步骤1提取的人脸概率向量循环攻击,其中,采用代理模式在每一次迭代中,使用多个人脸检测器,将图片依次送入这些模型提取人脸概率向量,把所述人脸概率向量进行求和作为损失函数并反向传播来访问攻击图像的梯度,通过图像的梯度求得模型在图像的哪些位置响应最大,在所述响应最大的位置添加噪声,直到人脸检测器无法检测到人脸,停止迭代。
2.如权利要求1所述的一种基于黑盒的通用人脸检测对抗攻击的方法,其特征在于,所述多个人脸检测器可以选择相同检测器,也可以选择不同的检测器,当选择不同人脸检测模型组合时,所述多个人脸检测器获取更好效果。
3.如权利要求2所述的一种基于黑盒的通用人脸检测对抗攻击的方法,其特征在于,所述添加噪声进一步的计算形式为:利用图像的梯度值除以图像梯度值的范数,再设置一个较小的步长与其相乘后作为噪声添加到图像中。
5.如权利要求4所述的一种基于黑盒的通用人脸检测对抗攻击的方法,其特征在于,对于损失函数直接采用人脸和非人脸通过softmax后的概率向量进行相加。
6.一种电子设备,其特征在于,包括:
处理器;以及,
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-5任一项所述的基于黑盒的通用人脸检测对抗攻击的方法。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-5任一项所述的基于黑盒的通用人脸检测对抗攻击的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110026619.XA CN112766430B (zh) | 2021-01-08 | 2021-01-08 | 基于黑盒通用人脸检测对抗攻击的方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110026619.XA CN112766430B (zh) | 2021-01-08 | 2021-01-08 | 基于黑盒通用人脸检测对抗攻击的方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112766430A CN112766430A (zh) | 2021-05-07 |
CN112766430B true CN112766430B (zh) | 2022-01-28 |
Family
ID=75701165
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110026619.XA Active CN112766430B (zh) | 2021-01-08 | 2021-01-08 | 基于黑盒通用人脸检测对抗攻击的方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112766430B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113435264A (zh) * | 2021-06-08 | 2021-09-24 | 广州紫为云科技有限公司 | 基于寻找黑盒替代模型的人脸识别对抗攻击方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108446765A (zh) * | 2018-02-11 | 2018-08-24 | 浙江工业大学 | 面向深度学习对抗性攻击的多模型协同防御方法 |
CN110046622A (zh) * | 2019-04-04 | 2019-07-23 | 广州大学 | 一种有目标的攻击样本生成方法、装置、设备及存储介质 |
CN111461307A (zh) * | 2020-04-02 | 2020-07-28 | 武汉大学 | 一种基于生成对抗网络的通用扰动生成方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11494591B2 (en) * | 2019-01-11 | 2022-11-08 | International Business Machines Corporation | Margin based adversarial computer program |
CN109948663B (zh) * | 2019-02-27 | 2022-03-15 | 天津大学 | 一种基于模型抽取的步长自适应的对抗攻击方法 |
CN110276377B (zh) * | 2019-05-17 | 2021-04-06 | 杭州电子科技大学 | 一种基于贝叶斯优化的对抗样本生成方法 |
CN110163163B (zh) * | 2019-05-24 | 2020-12-01 | 浙江工业大学 | 一种针对单张人脸查询次数受限攻击的防御方法及防御装置 |
CN110334749B (zh) * | 2019-06-20 | 2021-08-03 | 浙江工业大学 | 基于注意力机制的对抗攻击防御模型、构建方法及应用 |
CN111046380B (zh) * | 2019-12-12 | 2022-02-15 | 支付宝(杭州)信息技术有限公司 | 一种基于对抗样本增强模型抗攻击能力的方法和系统 |
CN111310802B (zh) * | 2020-01-20 | 2021-09-17 | 星汉智能科技股份有限公司 | 一种基于生成对抗网络的对抗攻击防御训练方法 |
CN111475797B (zh) * | 2020-03-26 | 2023-09-29 | 深圳先进技术研究院 | 一种对抗图像生成方法、装置、设备以及可读存储介质 |
CN111753881B (zh) * | 2020-05-28 | 2024-03-29 | 浙江工业大学 | 一种基于概念敏感性量化识别对抗攻击的防御方法 |
CN111860498B (zh) * | 2020-07-01 | 2023-12-19 | 广州大学 | 一种车牌的对抗性样本生成方法、装置及存储介质 |
CN111881436A (zh) * | 2020-08-04 | 2020-11-03 | 公安部第三研究所 | 基于特征一致性实现黑盒人脸对抗攻击样本生成的方法、装置及其存储介质 |
CN112149609A (zh) * | 2020-10-09 | 2020-12-29 | 中国人民解放军空军工程大学 | 一种针对电能质量信号神经网络分类模型的黑盒对抗样本攻击方法 |
-
2021
- 2021-01-08 CN CN202110026619.XA patent/CN112766430B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108446765A (zh) * | 2018-02-11 | 2018-08-24 | 浙江工业大学 | 面向深度学习对抗性攻击的多模型协同防御方法 |
CN110046622A (zh) * | 2019-04-04 | 2019-07-23 | 广州大学 | 一种有目标的攻击样本生成方法、装置、设备及存储介质 |
CN111461307A (zh) * | 2020-04-02 | 2020-07-28 | 武汉大学 | 一种基于生成对抗网络的通用扰动生成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112766430A (zh) | 2021-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hussain et al. | Adversarial deepfakes: Evaluating vulnerability of deepfake detectors to adversarial examples | |
CN113554089B (zh) | 一种图像分类对抗样本防御方法、系统及数据处理终端 | |
CN108111489B (zh) | Url攻击检测方法、装置以及电子设备 | |
CN107577945B (zh) | Url攻击检测方法、装置以及电子设备 | |
CN110851835A (zh) | 图像模型检测方法、装置、电子设备及存储介质 | |
CN111652290B (zh) | 一种对抗样本的检测方法及装置 | |
JP2022141931A (ja) | 生体検出モデルのトレーニング方法及び装置、生体検出の方法及び装置、電子機器、記憶媒体、並びにコンピュータプログラム | |
CN113691542B (zh) | 基于HTTP请求文本的Web攻击检测方法及相关设备 | |
CN111260620A (zh) | 图像异常检测方法、装置和电子设备 | |
CN113343898B (zh) | 基于知识蒸馏网络的口罩遮挡人脸识别方法、装置及设备 | |
CN113255557A (zh) | 一种基于深度学习的视频人群情绪分析方法及系统 | |
CN112052816B (zh) | 基于自适应图卷积对抗网络的人体行为预测方法及系统 | |
Wang et al. | Improved knowledge distillation for training fast low resolution face recognition model | |
CN112766430B (zh) | 基于黑盒通用人脸检测对抗攻击的方法、装置及存储介质 | |
CN113435264A (zh) | 基于寻找黑盒替代模型的人脸识别对抗攻击方法及装置 | |
CN115883242A (zh) | 一种网络入侵检测方法和装置 | |
CN114140670B (zh) | 基于外源特征进行模型所有权验证的方法和装置 | |
Kang et al. | Diffender: Diffusion-based adversarial defense against patch attacks in the physical world | |
CN112613032B (zh) | 基于系统调用序列的主机入侵检测方法及装置 | |
CN109492124B (zh) | 选择性注意线索指导的不良主播检测方法、装置及电子设备 | |
CN113159317B (zh) | 一种基于动态残差侵蚀的对抗样本生成方法 | |
CN115718830A (zh) | 训练信息抽取模型的方法、信息抽取方法及对应装置 | |
CN115758337A (zh) | 基于时序图卷积网络的后门实时监测方法、电子设备、介质 | |
CN114021136A (zh) | 针对人工智能模型的后门攻击防御系统 | |
CN113222480A (zh) | 对抗样本生成模型的训练方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |