CN110717522A - 图像分类网络的对抗防御方法及相关装置 - Google Patents

图像分类网络的对抗防御方法及相关装置 Download PDF

Info

Publication number
CN110717522A
CN110717522A CN201910879339.6A CN201910879339A CN110717522A CN 110717522 A CN110717522 A CN 110717522A CN 201910879339 A CN201910879339 A CN 201910879339A CN 110717522 A CN110717522 A CN 110717522A
Authority
CN
China
Prior art keywords
neural network
deep neural
sample
network
original image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910879339.6A
Other languages
English (en)
Inventor
王健宗
孔令炜
黄章成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201910879339.6A priority Critical patent/CN110717522A/zh
Priority to PCT/CN2019/117649 priority patent/WO2021051561A1/zh
Publication of CN110717522A publication Critical patent/CN110717522A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本申请是关于一种图像分类网络的对抗防御方法及相关装置,属于图像分类技术领域,该方法包括:将原始图像样本及对抗攻击样本输入深度神经网络,以提取所述深度神经网络高于预定层数的目标层的输入特征;根据所述输入特征生成所述深度神经网络的损失函数,作为对抗防御去噪器;利用所述对抗防御去噪器对所述对抗攻击样本进行去噪,得到去噪后对抗攻击样本;对所述深度神经网络的损失函数进行正则化,得到正则化后的深度神经网络;将所述原始图像样本及所述去噪后对抗攻击样本,输入所述正则化后的深度神经网络,得到所述原始图像的分类结果。本申请的方案可以有效提升图像分类深度神经网络的防御能力。

Description

图像分类网络的对抗防御方法及相关装置
技术领域
本申请涉及图像分类技术领域,具体而言,涉及一种图像分类网络的对抗防御方法及相关装置。
背景技术
随着在图像、语音和视频等领域的深度应用,深度神经网络对信息安全的要求也就越来越高,尽管深度神经网络可以在进行图像分类的过程中可以有非常高的准确率表现,但往往对样本加入轻微的噪声扰动就会造成神经网络的分类错误问题。由于其易受对抗样本攻击的特点也就要求深度神经网络提升防御能力,降低对抗样本欺骗网络的可能性。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本申请的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本申请的目的在于提供一种图像分类网络的对抗防御方案,进而至少在一定程度上提升图像分类深度神经网络的防御能力。
根据本申请的一个方面,提供一种图像分类网络的对抗防御方法,包括:
将原始图像样本及对抗攻击样本输入深度神经网络,以提取所述深度神经网络高于预定层数的目标层的输入特征;
根据所述输入特征生成所述深度神经网络的损失函数,作为对抗防御去噪器;
利用所述对抗防御去噪器对所述对抗攻击样本进行去噪,得到去噪后对抗攻击样本;
对所述深度神经网络的损失函数进行正则化,得到正则化后的深度神经网络;
将所述原始图像样本及所述去噪后对抗攻击样本,输入所述正则化后的深度神经网络,得到所述原始图像的分类结果。
在本示例的一种实施方式中,所述对抗攻击样本包括:
当接收到原始图像样本,对所述原始图像样本施加噪声,得到与所述原始图像样本对应的对抗攻击样本。
在本示例的一种实施方式中,所述对抗攻击样本包括:
当接收到原始图像样本,利用对应于多种深度神经网络的噪声添加手段对所述原始图像样本添加噪声,得到多个对抗攻击样本;
所述将原始图像样本及对抗攻击样本输入深度神经网络,以提取所述深度神经网络高于预定层数的目标层的输入特征,包括:
将原始图像样本及每个所述对抗攻击样本分别输入深度神经网络,分别提取深度神经网络高于预定层数的目标层的子输入特征;
获取所有子输入特征的集合,作为所述输入特征。
在本示例的一种实施方式中,所述将原始图像样本及对抗攻击样本输入深度神经网络包括:
调整所述原始图像样本及所述对抗攻击样本的网络参数一致;
将网络参数调整一致的所述原始图像样本及所述对抗攻击样本输入深度神经网络。
在本示例的一种实施方式中,所述根据所述输入特征生成所述深度神经网络的损失函数,作为对抗防御去噪器,包括:
根据公式L=||fl(x')-fl(x)||生成所述深度神经网络的损失函数,作为对抗防御去噪器,其中所述fl(x')为所述输入特征中提取的所述对抗攻击样本输入所述深度神经网络的预定层的网络特征,所述fl(x)为所述输入特征中提取的所述原始图像样本输入所述深度神经网络的预定层的网络特征,L=||fl(x')-fl(x)||表示原始图像样本网络特征相对于对抗攻击样本网络特征的损失值。
在本示例的一种实施方式中,所述对所述深度神经网络的损失函数进行正则化,得到正则化后的深度神经网络,包括:
根据公式L(ω,b)=R(ω,b)+λ||ω||2对所述深度神经网络的损失函数进行正则化,得到正则化后的深度神经网络,其中L(ω,b)为正则化后的损失函数,R(ω,b)为正则化前的损失函数,λ||ω||2为正则化项,λ为正则化系数。
在本示例的一种实施方式中,所述所述将原始图像样本及对抗攻击样本输入深度神经网络,以提取所述深度神经网络的高于预定层的目标层的输入特征,包括:
将所述原始图像样本输入所述深度神经网络,提取所述原始图像样本输入所述深度神经网络的目标层的第一网络特征;
将所述对抗攻击样本输入所述深度神经网络,提取所述对抗攻击样本输入所述深度神经网络的目标层的第二网络特征;
根据所述第一网络特征和所述第二网络特征生成所述输入特征。
根据本申请的一个方面,提供一种图像分类网络的对抗防御装置,包括:
提取模块,用于将原始图像样本及对抗攻击样本输入深度神经网络,以提取所述深度神经网络高于预定层数的目标层的输入特征;
生成模块,用于根据所述输入特征生成所述深度神经网络的损失函数,作为对抗防御去噪器;
去噪模块,用于利用所述对抗防御去噪器对所述对抗攻击样本进行去噪,得到去噪后对抗攻击样本;
正则化模块,用于对所述深度神经网络的损失函数进行正则化,得到正则化后的深度神经网络;
分类模块,将所述原始图像样本及所述去噪后对抗攻击样本,输入所述正则化后的深度神经网络,得到所述原始图像的分类结果。
根据本申请的一个方面,提供一种计算机可读存储介质,其上存储有图像分类网络的对抗防御程序,所述图像分类网络的对抗防御程序被处理器执行时实现上述任一项所述的方法。
根据本申请的一个方面,提供一种电子设备,包括:
处理器;以及
存储器,用于存储所述处理器的图像分类网络的对抗防御程序;其中,所述处理器配置为经由执行所述图像分类网络的对抗防御程序来执行上述任一项所述的方法。
本申请一种图像分类网络的对抗防御方法及装置,首先,将原始图像样本及对抗攻击样本输入深度神经网络,以提取所述深度神经网络高于预定层数的目标层的输入特征;这样可以提取到阶数足够高的差异明显的对照高阶神经网络特征。然后,根据所述输入特征生成所述深度神经网络的损失函数,作为对抗防御去噪器;这样可以基于差异明显的输入特征生成损失函数可以有效保证神经网络模型的效果及优化的目标。其次,利用所述对抗防御去噪器对所述对抗攻击样本进行去噪,得到去噪后对抗攻击样本;这样可以通过对对抗攻击样本基于对抗攻击样本和原始图像样本的特征生成的去噪器进行去噪,实现深度神经网络的防御手段,使得对抗与防御相互联系起来。然后,对所述深度神经网络的损失函数进行正则化,得到正则化后的深度神经网络;通过损失函数正则化优化参数,进一步保证深度学习模型效果。最后,将所述原始图像样本及所述去噪后对抗攻击样本,输入所述正则化后的深度神经网络,得到所述原始图像的分类结果。结合高阶特征和梯度正则化的方式,将高阶特征损失对攻击样本进行降噪得到的图像输入到梯度正则化后的原始神经网络,能够更好地提升深度神经网络地防御能力。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出一种图像分类网络的对抗防御方法的流程图。
图2示意性示出一种图像分类网络的对抗防御方法的应用场景示例图。
图3示意性示出一种样本输入方法流程图。
图4示意性示出一种图像分类网络的对抗防御装置的方框图。
图5示意性示出一种用于实现上述图像分类网络的对抗防御方法的电子设备示例框图。
图6示意性示出一种用于实现上述图像分类网络的对抗防御方法的计算机可读存储介质。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本申请将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本申请的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本申请的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本申请的各方面变得模糊。
此外,附图仅为本申请的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
本示例实施方式中首先提供了图像分类网络的对抗防御方法,该图像分类网络的对抗防御方法可以运行于服务器,也可以运行于服务器集群或云服务器等,当然,本领域技术人员也可以根据需求在其他平台运行本发明的方法,本示例性实施例中对此不做特殊限定。参考图1所示,该图像分类网络的对抗防御方法可以包括以下步骤:
步骤S110,将原始图像样本及对抗攻击样本输入深度神经网络,以提取所述深度神经网络高于预定层数的目标层的输入特征;
步骤S120,根据所述输入特征生成所述深度神经网络的损失函数,作为对抗防御去噪器;
步骤S130,利用所述对抗防御去噪器对所述对抗攻击样本进行去噪,得到去噪后对抗攻击样本;
步骤S140,对所述深度神经网络的损失函数进行正则化,得到正则化后的深度神经网络;
步骤S150,将所述原始图像样本及所述去噪后对抗攻击样本,输入所述正则化后的深度神经网络,得到所述原始图像的分类结果。
上述图像分类网络的对抗防御方法中,首先,将原始图像样本及对抗攻击样本输入深度神经网络,以提取所述深度神经网络高于预定层数的目标层的输入特征;这样可以提取到阶数足够高的差异明显的对照高阶神经网络特征。然后,根据所述输入特征生成所述深度神经网络的损失函数,作为对抗防御去噪器;这样可以基于差异明显的输入特征生成损失函数可以有效保证神经网络模型的效果及优化的目标。其次,利用所述对抗防御去噪器对所述对抗攻击样本进行去噪,得到去噪后对抗攻击样本;这样可以通过对对抗攻击样本基于对抗攻击样本和原始图像样本的特征生成的去噪器进行去噪,实现深度神经网络的防御手段,使得对抗与防御相互联系起来。然后,对所述深度神经网络的损失函数进行正则化,得到正则化后的深度神经网络;通过损失函数正则化优化参数,进一步保证深度学习模型效果。最后,将所述原始图像样本及所述去噪后对抗攻击样本,输入所述正则化后的深度神经网络,得到所述原始图像的分类结果。结合高阶特征和梯度正则化的方式,将高阶特征损失对攻击样本进行降噪得到的图像输入到梯度正则化后的原始神经网络,能够更好地提升深度神经网络地防御能力。
下面,将结合附图对本示例实施方式中上述图像分类网络的对抗防御方法中的各步骤进行详细的解释以及说明。
在步骤S110中,将原始图像样本及对抗攻击样本输入深度神经网络,以提取所述深度神经网络高于预定层数的目标层的输入特征。
本示例的实施方式中,参考图2所示,服务器201从服务器服务器202上爬取原始图像样本及对抗攻击样本后,输入部署在服务器201上的深度神经网络,并提取深度神经网络高于预定层数的目标层的输入特征。这样可以在后续步骤中,由服务器201根据输入特征生成深度神经网络的损失函数,作为对抗防御去噪器。可以理解,在后续步骤中,在条件允许的情况下,也可以由服务器202直接从自身存储空间获取原始图像样本及对抗攻击样本。其中,服务器201和服务器202可以是任何具有处理能力的设备,例如,电脑、云服务器、微处理器等,在此不做特殊限定。
深度神经网络的高于预定层的目标层的输入特征,即深度神经网络由低到高的各层中高于预定层的目标层对图像样本进行分类处理时输入的特征。例如卷积神经网络的高阶卷积层的高阶特征。预定层的确定可以根据需求设定,例如3层、4层等。
对抗攻击样本在图像层和原始图像的差异很小,但是在例如卷积神经网络的高阶特征上差异很明显。通过提取原始图像样本及对抗攻击样本的神经网络高阶特征,对比分析两者的差异,可以在应对不同的对抗攻击时具有更强的鲁棒性。
一种实施例中,对抗攻击样本包括:
当接收到原始图像样本,对所述原始图像样本施加噪声,得到与所述原始图像样本对应的对抗攻击样本。
对抗攻击方式主要是基于FGSM和I-FGSM的白盒攻击和黑盒攻击,FGSM主要是通过在梯度方向上进行添加增量添加噪声或者单像素修改等方式进行攻击,从而诱导网络对生成的图片对抗样本进行误分类。黑盒攻击相比白盒攻击无需知道被攻击模型的具体信息,适用于在不同的网络模型中,具有更好的攻击传递性。
所以对原始图像样本施加噪声就是通过对抗攻击方式进行添加噪声,得到与原始图像样本对应的对抗攻击样本,这样可以保证原始图像和对抗攻击样本的对应性。
一种实施例中,对抗攻击样本包括:
当接收到原始图像样本,利用对应于多种深度神经网络的噪声添加手段对所述原始图像样本添加噪声,得到多个对抗攻击样本;
所述将原始图像样本及对抗攻击样本输入深度神经网络,以提取所述深度神经网络高于预定层数的目标层的输入特征,包括:
将原始图像样本及每个所述对抗攻击样本分别输入深度神经网络,分别提取深度神经网络高于预定层数的目标层的子输入特征;
获取所有子输入特征的集合,作为所述输入特征。
多种深度神经网络的噪声添加手段就是多种对抗攻击方式,通过多种对抗攻击方式依次对原始图像样本添加噪声,得到多个对抗攻击样本,这样可以结合多网络(resnet、Inception和nasnet等网络)的攻击手段得到原始图像的多个对抗图像。然后,将原始图像样本及每个对抗攻击样本分别输入深度神经网络,分别提取深度神经网络高于预定层数的目标层的子输入特征后,获取子输入特征的集合,作为输入特征。提取高阶特征集合来在后续步骤中决定深度神经网络的损失函数设置,可以保证防御模型有更好的泛化能力。同时,可以使得基于高阶特征差异得到的对抗防御去噪器进行去噪的方式适用的神经网络可以不仅限于当前网络,应对同类的攻击具有广泛抵抗作用。
一种实施例中,对抗攻击样本包括:
当接收到原始图像样本,结合多种深度神经网络的噪声添加手段对所述原始图像样本添加噪声,得到对抗攻击样本;
所述将原始图像样本及对抗攻击样本输入深度神经网络,以提取所述深度神经网络高于预定层数的目标层的输入特征,包括:
将原始图像样本及所述对抗攻击样本输入深度神经网络,提取深度神经网络高于预定层数的目标层的输入特征。
这样可以结合多网络(resnet、Inception和nasnet等网络)的攻击手段得到原始图像的对抗图像后,可以提取深度神经网络高于预定层数的目标层的高阶特征之和来在后续步骤中决定深度神经网络的损失函数设置。可以进一步保证防御模型有更好的泛化能力。同时,基于高阶特征差异得到的对抗防御去噪器进行去噪的方式适用的神经网络可以不仅限于当前网络,应对同类的攻击具有更广泛抵抗作用。
一种实施例中,参考图3所示,将原始图像样本及对抗攻击样本输入深度神经网络包括:
步骤S310,调整所述原始图像样本及所述对抗攻击样本的网络参数一致;
步骤S320,将网络参数调整一致的所述原始图像样本及所述对抗攻击样本输入深度神经网络。
网络参数就是样本数量、样本长、样本宽、样本深度(对应图片通道数)等参数。通过调整原始图像样本和对抗攻击样本的网络参数一致,可以保证输入深度神经网络的两种样本的可对比性。
一种实施例中,所述将原始图像样本及对抗攻击样本输入深度神经网络,以提取所述深度神经网络的高于预定层的目标层的输入特征,包括:
将所述原始图像样本输入所述深度神经网络,提取所述原始图像样本输入所述深度神经网络的目标层的第一网络特征;
将所述对抗攻击样本输入所述深度神经网络,提取所述对抗攻击样本输入所述深度神经网络的目标层的第二网络特征;
根据所述第一网络特征和所述第二网络特征生成所述输入特征。
在步骤S120中,根据所述输入特征生成所述深度神经网络的损失函数,作为对抗防御去噪器。
本示例的实施方式中,神经网络模型的效果及优化的目标是通过损失函数来定义的。根据上述步骤获取的深度神经网络的高于预定层的目标层的输入特征,利用高阶的输入特征(高于预定层的目标层的输入特征)的差异明显特性,生成深度学习网络的损失函数,可以使得损失函数对应的神经网络模型的效果及优化的目标更加显著。其中,生成深度学习网络的损失函数可以是根据输入特征中提取的对抗攻击样本输入所述深度神经网络的预定层的对抗特征及原始图像样本输入深度神经网络的预定层的原始特征生成平均绝对值误差损失函数或者交叉熵损失函数等。
一种实施例中,根据所述输入特征生成所述深度神经网络的损失函数,作为对抗防御去噪器,包括:
根据公式L=||fl(x')-fl(x)||生成所述深度神经网络的损失函数,作为对抗防御去噪器,其中所述fl(x')为所述输入特征中提取的所述对抗攻击样本输入所述深度神经网络的预定层的网络特征,所述fl(x)为所述输入特征中提取的所述原始图像样本输入所述深度神经网络的预定层的网络特征,L=||fl(x')-fl(x)||表示原始图像样本网络特征相对于对抗攻击样本网络特征的损失值。
这样可以迫使深度神经网络分类时不会偏离原始图像样本的网络特征fl(x)和对抗攻击样本的对抗特征fl(x')之间的差异,对深度学习网络形成有效约束,有效保证神经网络模型的效果及优化的目标。
在步骤S130中,利用所述对抗防御去噪器对所述对抗攻击样本进行去噪,得到去噪后对抗攻击样本。
本示例的实施方式中,利用上述对抗防御去噪器对对抗攻击样本进行去噪就是例如通过邻域平均法,将一个像素及其邻域中所有像素的平均值赋给输出图像中相应的像素,使得输入深度学习网络的样本更加平滑,对图像样本的攻击进行防御。可以理解去噪的方法也可以是根据中值滤波法进行去噪。由于上述对抗防御去噪器是基于输入特征中提取的所述对抗攻击样本输入所述深度神经网络的预定层的对抗特征及所述原始图像样本输入所述深度神经网络的预定层的原始特征的差异获得的,即基于高阶特征差异得到的,所以利用对抗防御去噪器对对抗攻击样本进行去噪,得到去噪后对抗攻击样本可以使得对抗攻击和防御手段往相互联系,增加两者的相关性,从而导致防御手段可以很好地适应新的攻击方法。
在步骤S140中,对所述深度神经网络的损失函数进行正则化,得到正则化后的深度神经网络。
本示例的实施方式中,正则化就是对损失函数的参数进行限制,由于神经网络模型的效果及优化的目标是通过损失函数来定义的,所以通过正则化可以使得损失函数的拟合过程中让权值尽可能小,最后构造一个所有参数都比较小的网络模型。参数值小的模型比较简单,能适应不同的数据集,也在一定程度上避免过拟合现象。通过提取的高阶的输入特征对应的损失函数来正则化的过程形成梯度正则化过程,进而有效保证深度学习网络的分类准确性。其中正则化的方法可以是例如L1正则化或者L2正则化。
一种实施例中,对所述深度神经网络的损失函数进行正则化,得到正则化后的深度神经网络,包括:
根据公式L(ω,b)=R(ω,b)+λ||ω||2对所述深度神经网络的损失函数进行正则化,得到正则化后的深度神经网络,其中L(ω,b)为正则化后的损失函数,R(ω,b)为正则化前的损失函数,λ||ω||2为正则化项,λ为正则化系数。
正则化系数为小于1的值,进而通过λ||ω||2正则化项可以对损失函数的参数ω进行约束。
在步骤S150中,将所述原始图像样本及所述去噪后对抗攻击样本,输入所述正则化后的深度神经网络,得到所述原始图像的分类结果。
本申请的实施例,结合高阶输入特征提取和梯度正则化的方式,将通过高阶特征损失对攻击样本进行降噪得到的对抗攻击样本与原始图像样本输入到梯度正则化后的原始神经网络,完成原始图像的分类,能够更好地提升深度神经网络地防御能力。
相关方法中,对抗攻击方式主要是基于FGSM和I-FGSM的白盒攻击和黑盒攻击,FGSM主要是通过在梯度方向上进行添加增量添加噪声,从而诱导网络对生成的图片对抗样本进行误分类。黑盒攻击相比白盒攻击无需知道被攻击模型的具体信息,适用于在不同的网络模型中,具有更好的攻击传递性。而目前的对抗攻击和防御手段往往相互独立,缺少一定的相关性,从而导致防御手段不能很好地适应新的攻击方法而造成分类错误。
本申请的实施例,基于对抗攻击样本在图像层和原始图像的差异很小,但是在卷积神经网络的高阶特征上差异很明显。本方法通过对比对抗攻击样本和原始图像的神经网络高阶特征的差异,从而在应对不同的对抗攻击时具有更强的鲁棒性;
通过高阶特征差异进行去噪的方式适用的神经网络不仅限于当前网络,应对同类的攻击具有更广泛的应用意义;
结合高阶特征和梯度正则化的方式,将高阶特征损失对攻击样本进行降噪得到的图像输入到梯度正则化后的原始神经网络,更好地提升防御能力。
本申请还提供了一种图像分类网络的对抗防御装置。参考图4所示,该图像分类网络的对抗防御装置可以包括订阅模块410、分配模块420、接收模块430及推送模块450。其中:
提取模块410用于将原始图像样本及对抗攻击样本输入深度神经网络,以提取所述深度神经网络高于预定层数的目标层的输入特征;
生成模块420用于根据所述输入特征生成所述深度神经网络的损失函数,作为对抗防御去噪器;
去噪模块430用于利用所述对抗防御去噪器对所述对抗攻击样本进行去噪,得到去噪后对抗攻击样本;
正则化模块440用于对所述深度神经网络的损失函数进行正则化,得到正则化后的深度神经网络;
分类模块450将所述原始图像样本及所述去噪后对抗攻击样本,输入所述正则化后的深度神经网络,得到所述原始图像的分类结果。
上述图像分类网络的对抗防御装置中各模块的具体细节已经在对应的图像分类网络的对抗防御方法中进行了详细的描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本申请的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本申请中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本申请实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本申请实施方式的方法。
在本申请的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图5来描述根据本发明的这种实施方式的电子设备500。图5显示的电子设备500仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,电子设备500以通用计算设备的形式表现。电子设备500的组件可以包括但不限于:上述至少一个处理单元510、上述至少一个存储单元520、连接不同系统组件(包括存储单元520和处理单元510)的总线530。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元510执行,使得所述处理单元510执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元510可以执行如图1中所示的步骤S110:将原始图像样本及对抗攻击样本输入深度神经网络,以提取所述深度神经网络高于预定层数的目标层的输入特征;S120:根据所述输入特征生成所述深度神经网络的损失函数,作为对抗防御去噪器;步骤S130:利用所述对抗防御去噪器对所述对抗攻击样本进行去噪,得到去噪后对抗攻击样本;步骤S140:对所述深度神经网络的损失函数进行正则化,得到正则化后的深度神经网络;步骤S150:将所述原始图像样本及所述去噪后对抗攻击样本,输入所述正则化后的深度神经网络,得到所述原始图像的分类结果。
存储单元520可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)5201和/或高速缓存存储单元5202,还可以进一步包括只读存储单元(ROM)5203。
存储单元520还可以包括具有一组(至少一个)程序模块5205的程序/实用工具5204,这样的程序模块5205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线530可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备500也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得客户能与该电子设备500交互的设备通信,和/或与使得该电子设备500能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口550进行。并且,电子设备500还可以通过网络适配器560与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器560通过总线530与电子设备500的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备500使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本申请实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本申请实施方式的方法。
在本申请的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
参考图6所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品600,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在客户计算设备上执行、部分地在客户设备上执行、作为一个独立的软件包执行、部分在客户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到客户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其他实施例。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由权利要求指出。

Claims (10)

1.一种图像分类网络的对抗防御方法,其特征在于,包括:
将原始图像样本及对抗攻击样本输入深度神经网络,以提取所述深度神经网络高于预定层数的目标层的输入特征;
根据所述输入特征生成所述深度神经网络的损失函数,作为对抗防御去噪器;
利用所述对抗防御去噪器对所述对抗攻击样本进行去噪,得到去噪后对抗攻击样本;
对所述深度神经网络的损失函数进行正则化,得到正则化后的深度神经网络;
将所述原始图像样本及所述去噪后对抗攻击样本,输入所述正则化后的深度神经网络,得到所述原始图像的分类结果。
2.根据权利要求1所述的方法,其特征在于,所述对抗攻击样本包括:
当接收到原始图像样本,对所述原始图像样本施加噪声,得到与所述原始图像样本对应的对抗攻击样本。
3.根据权利要求1所述的方法,其特征在于,所述对抗攻击样本包括:
当接收到原始图像样本,利用对应于多种深度神经网络的噪声添加手段对所述原始图像样本添加噪声,得到多个对抗攻击样本;
所述将原始图像样本及对抗攻击样本输入深度神经网络,提取所述深度神经网络高于预定层数的目标层的输入特征,包括:
将原始图像样本及每个所述对抗攻击样本分别输入深度神经网络,分别提取深度神经网络高于预定层数的目标层的子输入特征;
获取所有子输入特征的集合,作为所述输入特征。
4.根据权利要求1所述的方法,其特征在于,所述将原始图像样本及对抗攻击样本输入深度神经网络包括:
调整所述原始图像样本及所述对抗攻击样本的网络参数一致;
将网络参数调整一致的所述原始图像样本及所述对抗攻击样本输入深度神经网络。
5.根据权利要求1所述的方法,其特征在于,所述根据所述输入特征生成所述深度神经网络的损失函数,作为对抗防御去噪器,包括:
根据公式L=||fl(x')-fl(x)||生成所述深度神经网络的损失函数,作为对抗防御去噪器,其中所述fl(x')为所述输入特征中提取的所述对抗攻击样本输入所述深度神经网络的预定层的网络特征,所述fl(x)为所述输入特征中提取的所述原始图像样本输入所述深度神经网络的预定层的网络特征,L=||fl(x')-fl(x)||表示原始图像样本网络特征相对于对抗攻击样本网络特征的损失值。
6.根据权利要求1所述的方法,其特征在于,所述对所述深度神经网络的损失函数进行正则化,得到正则化后的深度神经网络,包括:
根据公式L(ω,b)=R(ω,b)+λ||ω||2对所述深度神经网络的损失函数进行正则化,得到正则化后的深度神经网络,其中L(ω,b)为正则化后的损失函数,R(ω,b)为正则化前的损失函数,λ||ω||2为正则化项,λ为正则化系数。
7.根据权利要求1所述的方法,其特征在于,所述将原始图像样本及对抗攻击样本输入深度神经网络,以提取所述深度神经网络的高于预定层的目标层的输入特征,包括:
将所述原始图像样本输入所述深度神经网络,提取所述原始图像样本输入所述深度神经网络的目标层的第一网络特征;
将所述对抗攻击样本输入所述深度神经网络,提取所述对抗攻击样本输入所述深度神经网络的目标层的第二网络特征;
根据所述第一网络特征和所述第二网络特征生成所述输入特征。
8.一种图像分类网络的对抗防御装置,其特征在于,包括:
提取模块,用于将原始图像样本及对抗攻击样本输入深度神经网络,以提取所述深度神经网络高于预定层数的目标层的输入特征;
生成模块,用于根据所述输入特征生成所述深度神经网络的损失函数,作为对抗防御去噪器;
去噪模块,用于利用所述对抗防御去噪器对所述对抗攻击样本进行去噪,得到去噪后对抗攻击样本;
正则化模块,用于对所述深度神经网络的损失函数进行正则化,得到正则化后的深度神经网络;
分类模块,用于将所述原始图像样本及所述去噪后对抗攻击样本,输入所述正则化后的深度神经网络,得到所述原始图像的分类结果。
9.一种计算机可读存储介质,其上存储有图像分类网络的对抗防御程序,其特征在于,所述图像分类网络的对抗防御程序被处理器执行时实现权利要求1-7任一项所述的方法。
10.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的图像分类网络的对抗防御程序;其中,所述处理器配置为经由执行所述图像分类网络的对抗防御程序来执行权利要求1-7任一项所述的方法。
CN201910879339.6A 2019-09-18 2019-09-18 图像分类网络的对抗防御方法及相关装置 Pending CN110717522A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910879339.6A CN110717522A (zh) 2019-09-18 2019-09-18 图像分类网络的对抗防御方法及相关装置
PCT/CN2019/117649 WO2021051561A1 (zh) 2019-09-18 2019-11-12 图像分类网络的对抗防御方法、装置、电子设备及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910879339.6A CN110717522A (zh) 2019-09-18 2019-09-18 图像分类网络的对抗防御方法及相关装置

Publications (1)

Publication Number Publication Date
CN110717522A true CN110717522A (zh) 2020-01-21

Family

ID=69209911

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910879339.6A Pending CN110717522A (zh) 2019-09-18 2019-09-18 图像分类网络的对抗防御方法及相关装置

Country Status (2)

Country Link
CN (1) CN110717522A (zh)
WO (1) WO2021051561A1 (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111507262A (zh) * 2020-04-17 2020-08-07 北京百度网讯科技有限公司 用于检测活体的方法和装置
CN111783890A (zh) * 2020-07-02 2020-10-16 电子科技大学 一种针对图像识别过程中的小像素对抗样本防御方法
CN111783742A (zh) * 2020-07-30 2020-10-16 支付宝(杭州)信息技术有限公司 一种防御对抗攻击的图像分类方法、业务决策方法及装置
CN111783085A (zh) * 2020-06-29 2020-10-16 浙大城市学院 一种对抗样本攻击的防御方法、装置及电子设备
CN111915486A (zh) * 2020-07-30 2020-11-10 西华大学 基于图像超分辨重建的对抗样本防御方法
CN112287943A (zh) * 2020-09-28 2021-01-29 北京航空航天大学 一种基于图像增强技术的对抗攻击防御方法
CN112364885A (zh) * 2020-10-12 2021-02-12 浙江大学 一种基于深度神经网络模型可解释性的对抗样本防御方法
CN112579808A (zh) * 2020-12-29 2021-03-30 上海赛图默飞医疗科技有限公司 数据标注处理方法及装置、系统
CN112766324A (zh) * 2021-01-02 2021-05-07 西安电子科技大学 图像对抗样本检测方法、系统、存储介质、终端及应用
CN113222960A (zh) * 2021-05-27 2021-08-06 哈尔滨工程大学 基于特征去噪的深度神经网络对抗防御方法、系统、存储介质及设备
CN113313132A (zh) * 2021-07-30 2021-08-27 中国科学院自动化研究所 对抗样本图像的确定方法、装置、电子设备及存储介质
WO2021218471A1 (zh) * 2020-04-30 2021-11-04 华为技术有限公司 一种用于图像处理的神经网络以及相关设备
CN113822328A (zh) * 2021-08-05 2021-12-21 厦门市美亚柏科信息股份有限公司 防御对抗样本攻击的图像分类方法、终端设备及存储介质
CN117408907A (zh) * 2023-12-15 2024-01-16 齐鲁空天信息研究院 提高图像对抗防御能力的方法、装置及电子设备
WO2024025152A1 (ko) * 2022-07-27 2024-02-01 숭실대학교 산학협력단 디노이징 네트워크와 심층신경망을 동시에 훈련시키는 적대적 학습장치, 방법 및 이를 실행하기 위한 프로그램을 기록한 컴퓨터 판독가능한 기록매체

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12019747B2 (en) * 2020-10-13 2024-06-25 International Business Machines Corporation Adversarial interpolation backdoor detection
CN115225295A (zh) * 2021-04-16 2022-10-21 华为技术有限公司 攻击样本管理的方法以及设备
CN113283540B (zh) * 2021-06-11 2024-03-26 浙江工业大学 一种基于图压缩的深度图分类模型防御方法
CN114724014B (zh) * 2022-06-06 2023-06-30 杭州海康威视数字技术股份有限公司 基于深度学习的对抗样本攻击检测方法、装置及电子设备
CN114969728B (zh) * 2022-06-06 2024-06-07 北京邮电大学 一种基于热力图的神经网络攻击方法
CN115294386B (zh) * 2022-07-06 2023-11-24 南通大学 一种基于正则化监督损失函数的图像分类方法
CN115330579B (zh) * 2022-08-03 2023-06-23 北京百度网讯科技有限公司 模型水印的构建方法、装置、设备及存储介质
CN115481719B (zh) * 2022-09-20 2023-09-15 宁波大学 一种防御基于梯度的对抗攻击的方法
CN116523032B (zh) * 2023-03-13 2023-09-29 之江实验室 一种图像文本双端迁移攻击方法、装置和介质
CN116452923B (zh) * 2023-06-16 2023-09-01 安徽大学 一种针对对抗攻击的协同防御策略和系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180225823A1 (en) * 2017-02-09 2018-08-09 Siemens Healthcare Gmbh Adversarial and Dual Inverse Deep Learning Networks for Medical Image Analysis
CN109658401A (zh) * 2018-12-14 2019-04-19 上海商汤智能科技有限公司 图像处理方法及装置、电子设备和存储介质
US20190132354A1 (en) * 2017-10-26 2019-05-02 Preferred Networks, Inc. Image processing system and image processing unit for generating attack image
CN109948663A (zh) * 2019-02-27 2019-06-28 天津大学 一种基于模型抽取的步长自适应的对抗攻击方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107103590B (zh) * 2017-03-22 2019-10-18 华南理工大学 一种基于深度卷积对抗生成网络的图像反射去除方法
US11568211B2 (en) * 2018-12-27 2023-01-31 Intel Corporation Defending neural networks by randomizing model weights

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180225823A1 (en) * 2017-02-09 2018-08-09 Siemens Healthcare Gmbh Adversarial and Dual Inverse Deep Learning Networks for Medical Image Analysis
US20190132354A1 (en) * 2017-10-26 2019-05-02 Preferred Networks, Inc. Image processing system and image processing unit for generating attack image
CN109658401A (zh) * 2018-12-14 2019-04-19 上海商汤智能科技有限公司 图像处理方法及装置、电子设备和存储介质
CN109948663A (zh) * 2019-02-27 2019-06-28 天津大学 一种基于模型抽取的步长自适应的对抗攻击方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FANGZHOU LIAO等: ""Defense against Adversarial Attacks Using High-Level Representation Guided Denoiser"", 《ARXIV》, pages 1 *

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111507262B (zh) * 2020-04-17 2023-12-08 北京百度网讯科技有限公司 用于检测活体的方法和装置
CN111507262A (zh) * 2020-04-17 2020-08-07 北京百度网讯科技有限公司 用于检测活体的方法和装置
WO2021218471A1 (zh) * 2020-04-30 2021-11-04 华为技术有限公司 一种用于图像处理的神经网络以及相关设备
CN111783085A (zh) * 2020-06-29 2020-10-16 浙大城市学院 一种对抗样本攻击的防御方法、装置及电子设备
CN111783085B (zh) * 2020-06-29 2023-08-22 浙大城市学院 一种对抗样本攻击的防御方法、装置及电子设备
CN111783890A (zh) * 2020-07-02 2020-10-16 电子科技大学 一种针对图像识别过程中的小像素对抗样本防御方法
CN111783890B (zh) * 2020-07-02 2022-06-03 电子科技大学 一种针对图像识别过程中的小像素对抗样本防御方法
CN111783742A (zh) * 2020-07-30 2020-10-16 支付宝(杭州)信息技术有限公司 一种防御对抗攻击的图像分类方法、业务决策方法及装置
CN111915486A (zh) * 2020-07-30 2020-11-10 西华大学 基于图像超分辨重建的对抗样本防御方法
CN111915486B (zh) * 2020-07-30 2022-04-22 西华大学 基于图像超分辨重建的对抗样本防御方法
CN112287943A (zh) * 2020-09-28 2021-01-29 北京航空航天大学 一种基于图像增强技术的对抗攻击防御方法
CN112364885A (zh) * 2020-10-12 2021-02-12 浙江大学 一种基于深度神经网络模型可解释性的对抗样本防御方法
CN112579808B (zh) * 2020-12-29 2023-07-18 上海赛图默飞医疗科技有限公司 数据标注处理方法及装置、系统
CN112579808A (zh) * 2020-12-29 2021-03-30 上海赛图默飞医疗科技有限公司 数据标注处理方法及装置、系统
CN112766324A (zh) * 2021-01-02 2021-05-07 西安电子科技大学 图像对抗样本检测方法、系统、存储介质、终端及应用
CN112766324B (zh) * 2021-01-02 2024-02-02 西安电子科技大学 图像对抗样本检测方法、系统、存储介质、终端及应用
CN113222960A (zh) * 2021-05-27 2021-08-06 哈尔滨工程大学 基于特征去噪的深度神经网络对抗防御方法、系统、存储介质及设备
CN113313132A (zh) * 2021-07-30 2021-08-27 中国科学院自动化研究所 对抗样本图像的确定方法、装置、电子设备及存储介质
CN113822328B (zh) * 2021-08-05 2022-09-16 厦门市美亚柏科信息股份有限公司 防御对抗样本攻击的图像分类方法、终端设备及存储介质
CN113822328A (zh) * 2021-08-05 2021-12-21 厦门市美亚柏科信息股份有限公司 防御对抗样本攻击的图像分类方法、终端设备及存储介质
WO2024025152A1 (ko) * 2022-07-27 2024-02-01 숭실대학교 산학협력단 디노이징 네트워크와 심층신경망을 동시에 훈련시키는 적대적 학습장치, 방법 및 이를 실행하기 위한 프로그램을 기록한 컴퓨터 판독가능한 기록매체
CN117408907A (zh) * 2023-12-15 2024-01-16 齐鲁空天信息研究院 提高图像对抗防御能力的方法、装置及电子设备
CN117408907B (zh) * 2023-12-15 2024-03-22 齐鲁空天信息研究院 提高图像对抗防御能力的方法、装置及电子设备

Also Published As

Publication number Publication date
WO2021051561A1 (zh) 2021-03-25

Similar Documents

Publication Publication Date Title
CN110717522A (zh) 图像分类网络的对抗防御方法及相关装置
He et al. A splitting method for separable convex programming
Mohan et al. A deep neural network learning‐based speckle noise removal technique for enhancing the quality of synthetic‐aperture radar images
Zhang et al. Joint image denoising using adaptive principal component analysis and self-similarity
US9443286B2 (en) Gray image processing method and apparatus based on wavelet transformation
CN111932646B (zh) 一种用于对抗攻击的图像处理方法
WO2014070273A1 (en) Recursive conditional means image denoising
Lahmiri Image denoising in bidimensional empirical mode decomposition domain: the role of Student's probability distribution function
CN113487521A (zh) 自编码器训练方法及组件,异常图像检测方法及组件
CN112381727A (zh) 一种图像去噪方法、装置、计算机设备和存储介质
CN115937071A (zh) 一种图像检测方法、装置、设备及介质
CN114648675A (zh) 对抗训练方法、图像处理方法、装置、设备和介质
Javed et al. Multi-denoising based impulse noise removal from images using robust statistical features and genetic programming
EP3362945A1 (en) Method and device for clustering patches of a degraded version of an image
Kiruban et al. Removal of salt and pepper noise from SAR images using optimized APCNN in Shearlet transform domain
CN116978132A (zh) 活体检测方法、装置、电子设备和存储介质
CN115358952A (zh) 一种基于元学习的图像增强方法、系统、设备和存储介质
CN111241571A (zh) 一种数据共享方法及模型、存储介质
Qu et al. Research on improved black widow algorithm for medical image denoising
Jayaraj et al. Optimizing signal smoothing using HERS algorithm and time fractional diffusion equation
Turgay et al. Texture and edge preserving multiframe super‐resolution
Jeyaprakash et al. Linearly uncorrelated principal component and deep convolutional image deblurring for natural images
CN112837242B (zh) 一种图像降噪处理方法、装置、设备及介质
CN116663655B (zh) 一种对抗攻击的防御方法及电子设备
CN116091367B (zh) 光学遥感图像盲去模糊方法、装置、设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination