CN114663946A - 对抗样本生成方法、装置、设备及介质 - Google Patents

对抗样本生成方法、装置、设备及介质 Download PDF

Info

Publication number
CN114663946A
CN114663946A CN202210280098.5A CN202210280098A CN114663946A CN 114663946 A CN114663946 A CN 114663946A CN 202210280098 A CN202210280098 A CN 202210280098A CN 114663946 A CN114663946 A CN 114663946A
Authority
CN
China
Prior art keywords
image
face image
attack
attacker
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210280098.5A
Other languages
English (en)
Other versions
CN114663946B (zh
Inventor
程炎敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Telecom Corp Ltd
Original Assignee
China Telecom Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Telecom Corp Ltd filed Critical China Telecom Corp Ltd
Priority to CN202210280098.5A priority Critical patent/CN114663946B/zh
Publication of CN114663946A publication Critical patent/CN114663946A/zh
Application granted granted Critical
Publication of CN114663946B publication Critical patent/CN114663946B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)

Abstract

本公开提供了一种对抗样本生成方法、装置、设备及介质,涉及计算机视觉技术领域。所述方法包括:获取被攻击者人脸图像;根据所述被攻击者人脸图像确定被攻击者人脸图像的特征区域和特征图像;获取攻击者人脸图像;根据所述特征区域定位所述攻击者人脸图像的攻击区域;根据所述特征图像生成所述攻击区域对应的攻击图像;将所述攻击者人脸图像的攻击区域与所述攻击图像融合,得到融合后的图像,并根据融合后的图像生成对抗样本。本公开提供了一种对抗样本生成方法、装置、设备及介质,基于生成式网络,生成被攻击者人脸图像的特征图像集中了被攻击者更多的人脸信息,无需要提前获取包括结构及训练参数在内的模型信息,攻击的泛化性高。

Description

对抗样本生成方法、装置、设备及介质
技术领域
本公开涉及人脸识别技术领域,尤其涉及一种对抗样本生成方法、装置、电子设备及计算机可读存储介质。
背景技术
对抗攻击是当前机器学习领域研究的一个热点问题。对抗攻击的原理是通过对抗样本(向原数据样本中添加经过精心训练的人眼不易察觉的微小扰动得到的新样本)来欺骗深度神经网络,使其做出错误判定。
对抗样本生成方法代表了一类在测试阶段攻击机器学习模型的方法。现有的对抗样本生成方法可以分为基于优化的方法和不基于优化的方法。
在基于优化的方法中,不同的对抗样本生成方法的区别主要在于优化算法和扰动形式。对于常见的基于白盒的攻击和基于黑盒的攻击,其扰动形式通常是在正常样本上线性叠加一个噪声。它们的区别只是在于使用不同的优化过程。显而易见的是,基于优化的对抗样本生成方法需要获取或运行一个与受害模型相同或相似的模型,而这个模型往往不易获取,并且运行起来对计算资源要求也较高。
而现有的不基于优化的对抗样本生成方法虽然不需要获取或运行一个与受害模型相同或相似的模型,但往往只是用简单的几何图案或图像变换来施加扰动,难以攻击涉及复杂语义信息的机器学习模型(例如人脸比对和目标检测)。
在相关技术中,诸多对电子世界人脸识别系统的攻击,如通过化妆、改变发型等方式逃避Eigenfaces等系统的检测、利用照相机对近红外光敏感特点设计的发光眼镜来逃避人脸识别系统的检测,通过对抗样本攻击,在图片上添加一些扰动,使得神经网络的输出结果出错。因此,亟需设计一种能够准确生成针对人脸识别系统的高效对抗样本的方法。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开提供一种对抗样本生成方法、装置、设备及介质,至少在一定程度上克服现有的对抗样本效率低导致神经网络的输出结果出错的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供一种对抗样本生成方法,包括:
获取被攻击者人脸图像;
根据所述被攻击者人脸图像确定被攻击者人脸图像的特征区域和特征图像;
获取攻击者人脸图像;
根据所述特征区域定位所述攻击者人脸图像的攻击区域;
根据所述特征图像生成所述攻击区域对应的攻击图像;
将所述攻击者人脸图像的攻击区域与所述攻击图像融合,得到融合后的图像,并根据融合后的图像生成对抗样本。
在本公开的一个实施例中,所述根据所述被攻击者人脸图像确定被攻击者人脸图像的特征区域和特征图像,包括:
检测被攻击者人脸图像的关键点;
选取被攻击者眉毛的左侧边缘关键点、右侧边缘关键点、上侧边缘关键点、鼻子下侧边缘关键点围成的区域作为特征区域,特征区域内的图像作为特征图像。
在本公开的一个实施例中,所述根据所述特征区域定位所述攻击者人脸图像的攻击区域,包括:
根据所述攻击者人脸图像确定攻击者人脸图像的特征区域;
比较所述攻击者人脸图像的特征区域与所述被攻击者人脸图像的特征区域的大小关系;
根据所述大小关系匹配对应的攻击区域选取规则,以确定所述攻击者人脸图像的攻击区域。
在本公开的一个实施例中,所述根据所述特征图像生成所述攻击区域对应的攻击图像,包括:
将所述被攻击者人脸图像的特征图像叠加随机噪声,得到初始攻击图像;
将所述初始攻击图像和所述攻击区域融合;
计算融合后的人脸图像与所述被攻击者人脸图像的相似度;
输出相似度大于等于预设的相似度阈值的初始攻击图像,作为攻击图像。
在本公开的一个实施例中,所述攻击图像通过对抗生成网络GAN网络得到。
在本公开的一个实施例中,所述根据融合后的图像生成对抗样本,包括:
对融合后的图像进行对抗扰动,生成对抗人脸图像;
根据所述对抗人脸图像,得到物理对抗样本。
在本公开的一个实施例中,所述根据融合后的图像生成对抗样本,包括:
对所述目标人脸图像进行图像转换,得到对抗人脸图像;
根据所述对抗人脸图像,得到物理对抗样本。
根据本公开的另一个方面,提供一种对抗样本生成装置,包括:
图像获取模块,用于获取被攻击者人脸图像;
特征确定模块,用于根据所述被攻击者人脸图像确定被攻击者人脸图像的特征区域和特征图像;
所述图像获取模块,还用于获取攻击者人脸图像;
定位模块,用于根据所述特征区域定位所述攻击者人脸图像的攻击区域;
生成模块,用于根据所述特征图像生成所述攻击区域对应的攻击图像;
融合模块,用于将所述攻击者人脸图像的攻击区域与所述攻击图像融合,得到融合后的图像,并根据融合后的图像生成对抗样本。
根据本公开的另一个方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述的对抗样本生成方法。
根据本公开的另一个方面,提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述的对抗样本生成方法。
本公开的实施例所提供的一种对抗样本生成方法、装置、设备及介质,无需要提前获取包括结构及训练参数在内的模型信息,攻击的泛化性高,基于生成式网络,生成被攻击者人脸图像的特征图像集中了被攻击者更多的人脸信息,同时,仅针对攻击区域增加对抗噪声,大幅度提高了对抗人脸的攻击成功率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开实施例中一种对抗样本生成方法流程图;
图2示出本公开又一实施例中一种对抗样本生成方法流程图;
图3示出本公开实施例中生成被攻击者人脸图像的特征图像的示意图;
图4示出本公开实施例中生成攻击者人脸图像的攻击区域的示意图;
图5示出本公开实施例中生成目标攻击图像的示意图;
图6示出本公开实施例中一种对抗样本生成装置示意图;
图7示出本公开又一实施例中一种对抗样本生成装置示意图;
图8示出本公开实施例中一种电子设备的结构框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
本申请提供的方案,选取被攻击者人脸图像的特征图像,利用生成式网络,生成攻击图像,攻击图像中包含了被攻击者人脸特征区域的特征图像,集中了被攻击者更多的人脸信息,该方法适应黑盒物理攻击的场景,不需要提前获取包括结构及训练参数在内的模型信息,攻击的泛化性高,同时,针对攻击图像增加对抗扰动,产生最终的对抗人脸图像,以及利用投影原理,将对抗人脸图像转换为像素更高的图像,从而大幅度提高了对抗样本的攻击成功率。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服等,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
本申请实施例提供的方案涉及人工智能的大数据处理、机器学习等技术,是应用于计算机中的软件程序,选取被攻击者人脸图像的特征图像,利用生成式网络,生成攻击图像,进而将攻击图像和攻击区域融合生成对抗样本,具体通过如下实施例进行说明:
首先,本公开实施例中提供了一种对抗样本生成方法,该方法可以由任意具备计算处理能力的系统执行。
图1示出本公开实施例中一种对抗样本生成方法流程图,如图1所示,本公开实施例中提供的对抗样本生成方法,包括如下步骤:
S102、获取被攻击者人脸图像;
在本实施例中,获取来自被攻击者的人脸图像,其中,人脸图像可以通过图像采集装置实时采集,例如,可通过摄像头实时采集被攻击者的人脸图像;或者,人脸图像还可以来自于图像数据库,例如PubFig人脸识别数据库,在PubFig人脸识别数据库中,包括200个不同的人物ID共58797张图片,平均每个人物ID含有300张图片。对于人脸图像的采集方式,本申请不做具体限定。
S104、根据被攻击者人脸图像确定被攻击者人脸图像的特征区域和特征图像;
如图3所示,上述S104中的特征区域和特征图像通过以下方式确定:
检测被攻击者人脸图像的关键点;
选取被攻击者眉毛的左侧边缘关键点、右侧边缘关键点、上侧边缘关键点、鼻子下侧边缘关键点围成的区域作为特征区域,特征区域内的图像作为特征图像。
具体的,在获取到被攻击者人脸图像后,如图3中的第一幅图片,被攻击者人脸图像的关键点包括眼睛轮廓的多个关键点、眉毛轮廓的多个关键点、脸型轮廓的多个关键点、嘴巴轮廓的多个关键点、以及鼻子轮廓的多个关键点,参考图3中的第二幅图片确定被攻击者人脸图像的关键点。对于某一五官轮廓关键点的数量根据具体情况而定,对于平滑区域,可选择较少数量的关键点,对于存在拐点的区域,可适当增多的关键点数量。
在被攻击者人脸图像的关键点确定之后,如图3中的第三幅图片,选取被攻击者眉毛左侧边缘关键点、右侧边缘关键点、上侧边缘关键点、以及鼻子下侧边缘关键点围成的区域作为特征区域,特征区域内的人脸图像即为选定的特征图像。从图3可以发现,特征图像中包含了被攻击者脸部图像中较多的人脸信息,从而可提升对抗样本的攻击成功率。
在图3中,被攻击者人脸图像的特征区域为矩形,除此之外,特征区域还可选为圆形、椭圆形、T字形区域,如眉毛左侧边缘关键点、右侧边缘关键点、上侧边缘关键点、眼睛下侧关键点、以及鼻子左侧边缘关键点、右侧边缘关键点和下侧边缘关键点构成的T字形区域。
另外,根据物理对抗的目的不同,也可选取嘴巴或者下巴等五官所在作为特征区域,并选取特征区域内的人脸图像作为特征图像,进而生成攻击图像,最终得到对抗样本。
需要说明的是,特征图像不仅可以由本实施方式中所提供的上述实施例所涉及的方式自动提取,也可通过交互的方式得到,例如用户可以采用图像编辑软件(例如Photoshop)从被攻击者人脸图像中自行选取或截取特征图像。
S106、获取攻击者人脸图像;
本实施例中获取来自攻击者的人脸图像,其中,人脸图像可以通过图像采集装置实时采集,例如,可通过摄像头实时采集攻击者的人脸图像;或者,人脸图像还可以来自于图像数据库。对于人脸图像的采集方式,本申请不做具体限定。
S108、根据特征区域定位攻击者人脸图像的攻击区域;
需要说明的是,考虑到获取到的攻击者人脸图像和被攻击者人脸图像的大小可能不一致,无法将被攻击者人脸图像的特征区域精确对准攻击者人脸图像的特征区域,故在根据特征区域定位攻击者人脸图像的攻击区域之前,需要先将攻击者人脸图像和被攻击者人脸图像的大小调节至相同或相近,攻击者和被攻击者的脸部轮廓在对应的人脸图像中的面积相同或相近。
具体的,通过图像透视变换,以将被攻击者人脸图像和攻击者人脸图像对齐,从而将攻击者人脸图像和被攻击者人脸图像的大小调节至相同或相近,图像透视变换为现有技术,本申请不再赘述。
除此之外,在本实施方式中,可以基于被攻击者人脸图像与攻击者人脸图像,采用上述图像透视变换或采用相似性变换矩阵对人脸图像对齐,也可以相应于用户的操作,进行人脸图像的对齐操作。例如,用户可以将被攻击者人脸图像和攻击者人脸图像置于图像编辑软件中,采用图像编辑软件提供的工具(基于透视变换等原理的图像编辑工具)进行相应的操作,从而使得被攻击者人脸图像和攻击者人脸图像对齐。
本实施例中,当攻击者人脸图像的特征区域小于或者等于被攻击者人脸图像的特征区域时,攻击区域的选取规则以将被攻击者人脸图像的特征区域的中心点调节至与攻击者人脸图像的特征区域的中心点重合为准,当被攻击者人脸图像的特征区域的中心点与攻击者人脸图像的特征区域的中心点重合时,选取与被攻击者人脸图像的特征区域相同的区域作为攻击者人脸图像的攻击区域。
需要注意的是,当攻击者人脸图像的特征区域大于被攻击者人脸图像的特征区域时,攻击区域的选取规则可考虑以将被攻击者人脸图像的特征区域的底边和攻击者人脸图像的特征区域的底边重合,且被攻击者人脸图像的特征区域的竖直中心线平分攻击者人脸图像的特征区域为准;或者,攻击区域的选取规则可考虑以将被攻击者人脸图像的特征区域的顶边和攻击者人脸图像的特征区域的顶边重合,且被攻击者人脸图像的特征区域的竖直中心线平分攻击者人脸图像的特征区域为准。
对于攻击区域的选取规则均是考虑在攻击者人脸图像中选择与被攻击者人脸图像的特征区域相同且包含最多人脸特征的区域。具体的,用户可以将被攻击者人脸图像和攻击者人脸图像置于图像编辑软件中,采用图像编辑软件提供的工具(如裁剪工具)进行相应的操作,从而定位攻击者人脸图像的攻击区域。
具体的,如图4所示,当获取到攻击者人脸图像后,选取攻击者人脸关键点,关键点的选取与被攻击者人脸图像关键点的选取原则一致,根据攻击者人脸关键点图像和被攻击者人脸图像的特征图像,通过上述实施例中的方式即可定位攻击者人脸图像的攻击区域。
S110、根据特征图像生成攻击区域对应的攻击图像;
具体的,本实施例中的攻击图像通过对抗生成网络(Generative AdversarialNetwork,GAN)得到。
首先构建训练框架,训练框架包括生成器、判别器以及攻击网络。生成器使用ResNet的基本残差模块作为反卷积神经网络对张量进行上采样,随机噪声和特征图像作为生成器的输入,经由反卷积神经网络上采样之后,得到初始攻击图像;初始攻击图像与攻击者人脸图像的攻击区域融合后的融合图像,即假样本图像,作为攻击网络的输入,攻击网络使用VGG作为网络结构,输出对抗损失;判别器使用ResNet作为网络结构,被攻击者人脸图像和假样本图像作为输入,输出真假判别损失函数和分类损失。
通过生成器和判别器的训练,最终保留生成器的模型参数,作为最终的生成网络训练框架,实验环境为:服务器处理器为32Intel(R)Xeon(R)CPUE5-2620 v4@2.10GHz,64GB运行内存(RAM),NVIDIA Tesla P4GPU,PyTorch框架。
生成器和判别器的训练步骤为现有技术,本申请不再赘述。
S112、将攻击者人脸图像的攻击区域与攻击图像融合,得到融合后的图像,并根据融合后的图像生成对抗样本。
具体的,本实施例的图像融合方法可采用基于非多尺度变换的图像融合方法(如平均与加权平均方法、像素灰度值选大或选小的图像融合方法、基于PCA的图像融合方法、基于调制的图像融合方法、非线性方法、逻辑滤波方法、颜色空间融合方法、最优化方法、或者人工神经网络方法等)、基于多尺度变换的图像融合方法(如基于金字塔变换的图像融合方法、基于小波变换的图像融合方法、基于Ridgelet变换的图像融合方法、基于Curvelet变换的图像融合方法等),对于图像融合的方法包括多种,本申请不做限定,只要能将两个图像融合的方法,均能实现上述步骤中的目的。
本实施例中,通过融合攻击者人脸图像的攻击区域和攻击图像,得到融合后的图像,打印并佩戴融合后的图像,生成对抗样本,进行物理攻击。
本公开实施例提供的一种对抗样本生成方法,选取被攻击者人脸图像的特征图像,利用生成式网络,生成攻击图像,攻击图像中包含了被攻击者人脸特征区域的特征图像,集中了被攻击者更多的人脸信息,该方法适应黑盒物理攻击的场景,不需要提前获取包括结构及训练参数在内的模型信息,攻击的泛化性高。
在本实施例中,上述S108中的根据特征区域定位攻击者人脸图像的攻击区域,包括:
根据攻击者人脸图像确定攻击者人脸图像的特征区域;
比较攻击者人脸图像的特征图像与被攻击者人脸图像的特征区域的大小关系;
根据大小关系匹配对应的攻击区域选取规则,以确定攻击者人脸图像的攻击区域。
本实施例中,当攻击者人脸图像的特征区域小于或者等于被攻击者人脸图像的特征区域时,攻击区域的选取规则以将被攻击者人脸图像的特征区域的中心点调节至与攻击者人脸图像的特征区域的中心点重合为准,当被攻击者人脸图像的特征区域的中心点与攻击者人脸图像的特征区域的中心点重合时,选取与被攻击者人脸图像的特征区域相同的区域作为攻击者人脸图像的攻击区域。
需要注意的是,当攻击者人脸图像的特征区域大于被攻击者人脸图像的特征区域时,攻击区域的选取规则可考虑以将被攻击者人脸图像的特征区域的底边和攻击者人脸图像的特征区域的底边重合,且被攻击者人脸图像的特征区域的竖直中心线平分攻击者人脸图像的特征区域为准;或者,攻击区域的选取规则可考虑以将被攻击者人脸图像的特征区域的顶边和攻击者人脸图像的特征区域的顶边重合,且被攻击者人脸图像的特征区域的竖直中心线平分攻击者人脸图像的特征区域为准。
本实施例中,攻击者人脸图像的特征图像与被攻击者人脸图像的特征区域之间大小关系与攻击区域选取规则预先设置在对应关系表中,当通过比较得到攻击者人脸图像的特征图像与被攻击者人脸图像的特征区域之间大小关系后,调用对应关系表,进而确定攻击区域选取规则,以根据攻击区域选取规则确定攻击者人脸图像的攻击区域。
本公开实施例提供的一种对抗样本生成方法,通过比较被攻击者人脸图像的特征区域与攻击者人脸图像的特征区域之间的大小关系,进而根据比较得到的大小关系确定对应的攻击区域的选取规则,从而在攻击者人脸图像中选择包含人脸信息较多的区域进行融合,从而提高了对抗样本的攻击成功率。
图2示出本公开又一实施例中一种对抗样本生成方法流程图,如图2所示,上述S110中的根据特征图像生成攻击区域对应的攻击图像,包括:
S202、将被攻击者人脸图像的特征图像叠加随机噪声,得到初始攻击图像;
S204、将初始攻击图像和攻击区域融合,得到初始融合图像;
S206、计算初始融合图像与被攻击者人脸图像的相似度;
S208、输出相似度大于等于预设的相似度阈值的初始攻击图像,作为攻击图像。
图5示出本公开实施例中生成目标攻击图像的示意图,请参考图5,将随机噪声和被攻击者人脸图像的特征图像作为GAN网络生成器的输入,输出初始攻击图像,从而使随机噪声叠加于被攻击者人脸图像的特征图像上;通过上述实施例中的图像融合方法将初始攻击图像和攻击区域融合,得到初始融合图像;将初始融合图像和被攻击人脸图像作为GAN网络判别器的输入,输出计算得到的初始融合图像与被攻击者人脸图像的相似度;当初始融合图像与被攻击者人脸图像的相似度小于预设的相似度阈值时,重新调整随机噪声训练GAN网络模型;当初始融合图像与被攻击者人脸图像的相似度大于等于预设的相似度阈值时,对应的初始攻击图像作为攻击图像,GAN网络框架训练完毕。
通常的,相似度阈值预先设置于控制器内,相似度阈值的大小根据实际情况而定,本申请不做具体限定。
本公开实施例提供的一种对抗样本生成方法,将被攻击者人脸图像的特征图像和随机噪声作为GAN网络的输入,输出初始攻击图像,将初始攻击图像与攻击区域融合,计算融合后的人脸图像与被攻击者人脸图像之间的相似度,当相似度大于或等于预设的相似度阈值时,表明GAN网络架构训练完成,输出初始攻击图像作为攻击图像,从而提高了对抗样本的攻击成功率。
需要说明的是,为了进一步提升对抗样本的攻击成功率,上述S112中的根据融合后的图像生成对抗样本,包括:
对融合后的图像进行对抗扰动,生成对抗人脸图像;
根据对抗人脸图像,得到物理对抗样本。
本实施例中的对融合后的图像进行对抗扰动,包括对攻击图像进行对抗扰动,具体指对攻击图像中像素的灰度、亮度、或颜色进行对抗扰动,进而生成对抗人脸图像。
具体的,图像的对抗扰动通过将攻击图像输入GAN网络,并叠加对抗扰动实现。
打印并佩戴人脸图像,进行物理攻击,从而得到物理对抗样本。
在本公开的一个实施例中,上述S112中的根据融合后的图像生成对抗样本,包括:
对融合后的图像进行图像转换,得到对抗人脸图像;
根据所述对抗人脸图像,得到物理对抗样本。
本实施例中的对融合后的图像进行图像转换,利用投影原理,将融合后的图像转换为像素更高的图像,从而提高对抗样本的对抗成功率。
除此之外,用户可以将融合后的图像置于图像编辑软件中,采用图像编辑软件提供的工具进行相应的操作,从而提高融合后图像的像素。
打印并佩戴人脸图像,进行物理攻击,从而得到物理对抗样本。
本公开实施例提供的一种对抗样本生成方法,选取被攻击者人脸图像的特征图像,利用生成式网络,生成攻击图像,攻击图像中包含了被攻击者人脸特征区域的特征图像,集中了被攻击者更多的人脸信息,该方法适应黑盒物理攻击的场景,不需要提前获取包括结构及训练参数在内的模型信息,攻击的泛化性高,同时,针对攻击图像增加对抗扰动,以及利用投影原理,将对抗人脸图像转换为像素更高的图像,从而大幅度提高了对抗样本的攻击成功率。
基于同一发明构思,本公开实施例中还提供了一种对抗样本生成装置,如下面的实施例所述。由于该装置实施例解决问题的原理与上述方法实施例相似,因此该装置实施例的实施可以参见上述方法实施例的实施,重复之处不再赘述。
图6示出本公开实施例中一种对抗样本生成装置示意图,如图6所示,该装置包括图像获取模块601、特征确定模块602、定位模块603、生成模块604和融合模块605,其中:
图像获取模块601,用于获取被攻击者人脸图像;
特征确定模块602,用于根据被攻击者人脸图像确定被攻击者人脸图像的特征区域和特征图像;
图像获取模块601,还用于获取攻击者人脸图像;
定位模块603,用于根据特征区域定位攻击者人脸图像的攻击区域;
生成模块604,用于根据特征图像生成攻击区域对应的攻击图像;
融合模块605,用于将攻击者人脸图像的攻击区域与攻击图像融合,得到融合后的图像,并根据融合后的图像生成对抗样本。
需要注意的是,特征确定模块602包括未显示在附图中的关键点检测子模块和特征选取子模块,其中,
关键点检测子模块,用于检测被攻击者人脸图像的关键点;
特征选取子模块,用于选取被攻击者眉毛的左侧边缘关键点、右侧边缘关键点、上侧边缘关键点、鼻子下侧边缘关键点围成的区域作为特征区域,特征区域内的图像作为特征图像。
在本实施例中,特征确定模块602,还用于根据攻击者人脸图像确定攻击者人脸图像的特征区域;
定位模块603包括未显示在附图中的比较子模块和匹配子模块,其中,
比较子模块,用于比较攻击者人脸图像的特征图像与被攻击者人脸图像的特征区域的大小关系;
匹配子模块,用于根据攻击者人脸图像的特征图像与被攻击者人脸图像的特征区域的大小关系匹配对应的攻击区域选取规则,以确定攻击者人脸图像的攻击区域。
作为本公开的一个实施例,如图7所示,生成模块604包括噪声叠加模块701、计算模块702和输出模块703,其中,
噪声叠加模块701,用于将被攻击者人脸图像的特征图像叠加随机噪声,得到初始攻击图像;
融合模块605,用于将初始攻击图像和攻击区域融合,得到初始融合图像;
计算模块702,用于计算初始融合图像与被攻击者人脸图像的相似度;
输出模块703,用于输出相似度大于或等于预设的相似度阈值的初始攻击图像,作为攻击图像。
需要注意的是,攻击图像通过对抗生成网络GAN得到。
需要说明的是,融合模块605,还包括对抗扰动子模块,用于对融合后的图像进行对抗扰动,得到对抗人脸图像;
根据对抗人脸图像,得到物理对抗样本。
作为本公开的一个可选实施例,融合模块605,还用于对所述融合后的图像进行图像转换,得到对抗人脸图像;
根据所述对抗人脸图像,得到物理对抗样本。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
本实施例提供的一种对抗样本生成方法、装置,选取被攻击者人脸图像的特征图像,利用生成式网络,生成攻击图像,攻击图像中包含了被攻击者人脸特征区域的特征图像,集中了被攻击者更多的人脸信息,该方法适应黑盒物理攻击的场景,不需要提前获取包括结构及训练参数在内的模型信息,攻击的泛化性高,同时,针对攻击图像增加对抗扰动,以及利用投影原理,将对抗人脸图像转换为像素更高的图像,从而大幅度提高了对抗样本的攻击成功率。
下面参照图8来描述根据本发明的这种实施方式的电子设备800。图8显示的电子设备800仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图8所示,电子设备800以通用计算设备的形式表现。电子设备800的组件可以包括但不限于:上述至少一个处理单元810、上述至少一个存储单元820、连接不同系统组件(包括存储单元820和处理单元810)的总线830。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元810执行,使得所述处理单元810执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元810可以执行如图1中所示的获取被攻击者人脸图像;根据所述被攻击者人脸图像确定被攻击者人脸图像的特征区域和特征图像;获取攻击者人脸图像;根据所述特征区域定位所述攻击者人脸图像的攻击区域;根据所述特征图像生成所述攻击区域对应的攻击图像;将所述攻击者人脸图像的攻击区域与所述攻击图像融合,得到融合后的图像,并根据融合后的图像生成对抗样本。
存储单元820可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)8201和/或高速缓存存储单元8202,还可以进一步包括只读存储单元(ROM)8203。
存储单元820还可以包括具有一组(至少一个)程序模块8205的程序/实用工具8204,这样的程序模块8205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线830可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备800也可以与一个或多个外部设备840(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该系统800交互的设备通信,和/或与使得该电子设备800能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口850进行。并且,系统800还可以通过网络适配器860与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器860通过总线830与电子设备800的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备800使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
描述了根据本发明的实施方式的用于实现上述方法的程序产品,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。

Claims (10)

1.一种对抗样本生成方法,其特征在于,包括:
获取被攻击者人脸图像;
根据所述被攻击者人脸图像确定被攻击者人脸图像的特征区域和特征图像;
获取攻击者人脸图像;
根据所述特征区域定位所述攻击者人脸图像的攻击区域;
根据所述特征图像生成所述攻击区域对应的攻击图像;
将所述攻击者人脸图像的攻击区域与所述攻击图像融合,得到融合后的图像,并根据融合后的图像生成对抗样本。
2.根据权利要求1所述方法,其特征在于,所述根据所述被攻击者人脸图像确定被攻击者人脸图像的特征区域和特征图像,包括:
检测被攻击者人脸图像的关键点;
选取被攻击者眉毛的左侧边缘关键点、右侧边缘关键点、上侧边缘关键点、鼻子下侧边缘关键点围成的区域作为特征区域,特征区域内的图像作为特征图像。
3.根据权利要求1所述方法,其特征在于,所述根据所述特征区域定位所述攻击者人脸图像的攻击区域,包括:
根据所述攻击者人脸图像确定攻击者人脸图像的特征区域;
比较所述攻击者人脸图像的特征区域与所述被攻击者人脸图像的特征区域的大小关系;
根据所述大小关系匹配对应的攻击区域选取规则,以确定所述攻击者人脸图像的攻击区域。
4.根据权利要求1所述方法,其特征在于,所述根据所述特征图像生成所述攻击区域对应的攻击图像,包括:
将所述被攻击者人脸图像的特征图像叠加随机噪声,得到初始攻击图像;
将所述初始攻击图像和所述攻击区域融合,得到初始融合图像;
计算初始融合图像与所述被攻击者人脸图像的相似度;
输出所述相似度大于或等于预设的相似度阈值的初始攻击图像,作为攻击图像。
5.根据权利要求4所述方法,其特征在于,所述攻击图像通过对抗生成网络GAN网络得到。
6.根据权利要求1-5任一项所述方法,其特征在于,所述根据融合后的图像生成对抗样本,包括:
对融合后的图像进行对抗扰动,得到对抗人脸图像;
根据所述对抗人脸图像,得到物理对抗样本。
7.根据权利要求1-5任一项所述方法,其特征在于,所述根据融合后的图像生成对抗样本,包括:
对所述融合后的图像进行图像转换,得到对抗人脸图像;
根据所述对抗人脸图像,得到物理对抗样本。
8.一种对抗样本生成装置,其特征在于,包括:
图像获取模块,用于获取被攻击者人脸图像;
特征确定模块,用于根据所述被攻击者人脸图像确定被攻击者人脸图像的特征区域和特征图像;
所述图像获取模块,还用于获取攻击者人脸图像;
定位模块,用于根据所述特征区域定位所述攻击者人脸图像的攻击区域;
生成模块,用于根据所述特征图像生成所述攻击区域对应的攻击图像;
融合模块,用于将所述攻击者人脸图像的攻击区域与所述攻击图像融合,得到融合后的图像,并根据融合后的图像生成对抗样本。
9.一种电子设备,其特征在于,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行如权利要求1-7任一项所述的对抗样本生成方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-7任一项所述的对抗样本生成方法。
CN202210280098.5A 2022-03-21 2022-03-21 对抗样本生成方法、装置、设备及介质 Active CN114663946B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210280098.5A CN114663946B (zh) 2022-03-21 2022-03-21 对抗样本生成方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210280098.5A CN114663946B (zh) 2022-03-21 2022-03-21 对抗样本生成方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN114663946A true CN114663946A (zh) 2022-06-24
CN114663946B CN114663946B (zh) 2023-04-07

Family

ID=82031559

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210280098.5A Active CN114663946B (zh) 2022-03-21 2022-03-21 对抗样本生成方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN114663946B (zh)

Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110021049A (zh) * 2019-03-29 2019-07-16 武汉大学 一种面向深度神经网络的基于空间约束的高隐蔽性对抗性图像攻击方法
CN110334806A (zh) * 2019-05-29 2019-10-15 广东技术师范大学 一种基于生成式对抗网络的对抗样本生成方法
CN110705652A (zh) * 2019-10-17 2020-01-17 北京瑞莱智慧科技有限公司 对抗样本及其生成方法、介质、装置和计算设备
CN111291828A (zh) * 2020-03-03 2020-06-16 广州大学 一种基于深度学习的hrrp对抗样本黑盒攻击方法
US20200293941A1 (en) * 2019-03-11 2020-09-17 Nxp B.V. Method and data processing system for making machine learning model more resistent to adversarial examples
CN111680291A (zh) * 2020-04-30 2020-09-18 中国科学院信息工程研究所 一种对抗样本生成方法、装置、电子设备及存储介质
CN111814916A (zh) * 2020-08-28 2020-10-23 北京智源人工智能研究院 多样本对抗扰动生成方法、装置、存储介质和计算设备
CN111832019A (zh) * 2020-06-10 2020-10-27 国家计算机网络与信息安全管理中心 基于生成对抗网络的恶意代码检测方法
CN112487931A (zh) * 2020-11-25 2021-03-12 北京有竹居网络技术有限公司 对抗攻击的方法、装置、可读介质和电子设备
CN112633306A (zh) * 2019-09-24 2021-04-09 杭州海康威视数字技术股份有限公司 对抗图像的生成方法及装置
US20210124999A1 (en) * 2019-10-28 2021-04-29 Element Ai Inc. System and method for generating adversarial examples
CN112801297A (zh) * 2021-01-20 2021-05-14 哈尔滨工业大学 一种基于条件变分自编码器的机器学习模型对抗性样本生成方法
CN113178255A (zh) * 2021-05-18 2021-07-27 西安邮电大学 一种基于gan的医学诊断模型对抗攻击方法
CN113344065A (zh) * 2021-05-31 2021-09-03 中国工商银行股份有限公司 图像处理方法、装置及设备
CN113361565A (zh) * 2021-05-14 2021-09-07 浙江工业大学 一种针对激光雷达的对抗样本生成方法和系统
US11120526B1 (en) * 2019-04-05 2021-09-14 Snap Inc. Deep feature generative adversarial neural networks
CN113537374A (zh) * 2021-07-26 2021-10-22 百度在线网络技术(北京)有限公司 一种对抗样本生成方法
CN113688912A (zh) * 2021-08-26 2021-11-23 平安国际智慧城市科技股份有限公司 基于人工智能的对抗样本生成方法、装置、设备及介质
CN113723560A (zh) * 2021-09-10 2021-11-30 徐州医科大学 一种面向ar应用的基于生成对抗网络的对抗样本生成方法
CN113989096A (zh) * 2021-12-27 2022-01-28 山东大学 基于深度学习和注意力网络的鲁棒图像水印方法及系统
CN114022740A (zh) * 2021-11-18 2022-02-08 贵州大学 人脸对抗样本生成模型的构建方法、装置及设备

Patent Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200293941A1 (en) * 2019-03-11 2020-09-17 Nxp B.V. Method and data processing system for making machine learning model more resistent to adversarial examples
CN110021049A (zh) * 2019-03-29 2019-07-16 武汉大学 一种面向深度神经网络的基于空间约束的高隐蔽性对抗性图像攻击方法
US11120526B1 (en) * 2019-04-05 2021-09-14 Snap Inc. Deep feature generative adversarial neural networks
CN110334806A (zh) * 2019-05-29 2019-10-15 广东技术师范大学 一种基于生成式对抗网络的对抗样本生成方法
CN112633306A (zh) * 2019-09-24 2021-04-09 杭州海康威视数字技术股份有限公司 对抗图像的生成方法及装置
CN110705652A (zh) * 2019-10-17 2020-01-17 北京瑞莱智慧科技有限公司 对抗样本及其生成方法、介质、装置和计算设备
US20210124999A1 (en) * 2019-10-28 2021-04-29 Element Ai Inc. System and method for generating adversarial examples
CN111291828A (zh) * 2020-03-03 2020-06-16 广州大学 一种基于深度学习的hrrp对抗样本黑盒攻击方法
CN111680291A (zh) * 2020-04-30 2020-09-18 中国科学院信息工程研究所 一种对抗样本生成方法、装置、电子设备及存储介质
CN111832019A (zh) * 2020-06-10 2020-10-27 国家计算机网络与信息安全管理中心 基于生成对抗网络的恶意代码检测方法
CN111814916A (zh) * 2020-08-28 2020-10-23 北京智源人工智能研究院 多样本对抗扰动生成方法、装置、存储介质和计算设备
CN112487931A (zh) * 2020-11-25 2021-03-12 北京有竹居网络技术有限公司 对抗攻击的方法、装置、可读介质和电子设备
CN112801297A (zh) * 2021-01-20 2021-05-14 哈尔滨工业大学 一种基于条件变分自编码器的机器学习模型对抗性样本生成方法
CN113361565A (zh) * 2021-05-14 2021-09-07 浙江工业大学 一种针对激光雷达的对抗样本生成方法和系统
CN113178255A (zh) * 2021-05-18 2021-07-27 西安邮电大学 一种基于gan的医学诊断模型对抗攻击方法
CN113344065A (zh) * 2021-05-31 2021-09-03 中国工商银行股份有限公司 图像处理方法、装置及设备
CN113537374A (zh) * 2021-07-26 2021-10-22 百度在线网络技术(北京)有限公司 一种对抗样本生成方法
CN113688912A (zh) * 2021-08-26 2021-11-23 平安国际智慧城市科技股份有限公司 基于人工智能的对抗样本生成方法、装置、设备及介质
CN113723560A (zh) * 2021-09-10 2021-11-30 徐州医科大学 一种面向ar应用的基于生成对抗网络的对抗样本生成方法
CN114022740A (zh) * 2021-11-18 2022-02-08 贵州大学 人脸对抗样本生成模型的构建方法、装置及设备
CN113989096A (zh) * 2021-12-27 2022-01-28 山东大学 基于深度学习和注意力网络的鲁棒图像水印方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ZHENG-AN ZHU 等: "GENERATING ADVERSARIAL EXAMPLES BY MAKEUP ATTACKS ON FACE RECOGNITION", 《IEEE》 *
卞明运 等: "基于空洞卷积的低质量人脸深度伪造图片检测", 《现代电子技术》 *
杨二光 等: "无监督的句法可控复述模型用于对抗样本生成", 《北京大学学报(自然科学版)》 *

Also Published As

Publication number Publication date
CN114663946B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
US20220172518A1 (en) Image recognition method and apparatus, computer-readable storage medium, and electronic device
CN115205949B (zh) 图像生成方法以及相关设备
CN111709409A (zh) 人脸活体检测方法、装置、设备及介质
CN110728209A (zh) 一种姿态识别方法、装置、电子设备及存储介质
CN111563502A (zh) 图像的文本识别方法、装置、电子设备及计算机存储介质
CN111325319B (zh) 一种神经网络模型的检测方法、装置、设备及存储介质
CN113449700B (zh) 视频分类模型的训练、视频分类方法、装置、设备及介质
Akhtar et al. Attack to fool and explain deep networks
CN115223020B (zh) 图像处理方法、装置、设备、存储介质及计算机程序产品
CN111931628A (zh) 人脸识别模型的训练方法、装置及相关设备
Prabhudesai et al. Embodied language grounding with 3d visual feature representations
Liu et al. Presentation attack detection for face in mobile phones
CN111274946B (zh) 一种人脸识别方法和系统及设备
CN114663946B (zh) 对抗样本生成方法、装置、设备及介质
CN113537267A (zh) 对抗样本的生成方法和装置、存储介质及电子设备
CN112580395A (zh) 基于深度信息的3d人脸活体识别方法、系统、设备及介质
CN113378723B (zh) 一种基于深度残差网络的输变电线路隐患自动安全识别系统
CN114373098A (zh) 一种图像分类方法、装置、计算机设备及存储介质
Galiyawala et al. Dsa-pr: discrete soft biometric attribute-based person retrieval in surveillance videos
CN115115699A (zh) 姿态估计方法、装置、相关设备和计算机产品
CN112862840A (zh) 图像分割方法、装置、设备及介质
Agrawal et al. M-SAN: a patch-based transferable adversarial attack using the multi-stack adversarial network
CN117218232A (zh) 一种多人脸的生成人脸ir图模型训练方法、系统、设备及介质
CN117218231A (zh) 一种区块式生成人脸ir图模型的训练方法、系统、设备及介质
Poppi et al. Towards Explainable Navigation and Recounting

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant