CN115100421A - 一种基于图像频域分解重构的对抗样本生成方法 - Google Patents

一种基于图像频域分解重构的对抗样本生成方法 Download PDF

Info

Publication number
CN115100421A
CN115100421A CN202210714150.3A CN202210714150A CN115100421A CN 115100421 A CN115100421 A CN 115100421A CN 202210714150 A CN202210714150 A CN 202210714150A CN 115100421 A CN115100421 A CN 115100421A
Authority
CN
China
Prior art keywords
frequency
image
low
sample
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210714150.3A
Other languages
English (en)
Other versions
CN115100421B (zh
Inventor
邓鑫洋
赵畅菲
蒋雯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202210714150.3A priority Critical patent/CN115100421B/zh
Publication of CN115100421A publication Critical patent/CN115100421A/zh
Application granted granted Critical
Publication of CN115100421B publication Critical patent/CN115100421B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/431Frequency domain transformation; Autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于图像频域分解重构的对抗样本生成方法,包括以下步骤:输入原始干净图像样本Pclean,利用离散余弦变换将该图像拆分为低频部分
Figure DDA0003708249690000011
高频部分
Figure DDA0003708249690000012
从数据集中选取图像,构建待融合的低频、高频图像集合;基于图像间的相似度,将干净样本的高频部分与高频图像集合中的所有图像进行融合;将干净样本的低频部分与低频图像集合中的所有图像进行融合与拼接;通过神经网络的梯度反向传播,利用低频融合图像集合与拼接图像集合对干净样本的低频部分施加扰动,生成对抗样本的低频部分;对获得的对抗样本的低频部分进行低通滤波,并和高频图像集合进行图像重构,构造对抗样本。本发明提出了对图像分解后的低频、高频两个部分分别采取基于图像增强的梯度回传、基于相似度融合等方法,增强了生成的对抗样本的攻击成功率和迁移率,降低了人眼对扰动噪声的感知效果,同时能提升对抗样本对神经网络模型的攻击效果。

Description

一种基于图像频域分解重构的对抗样本生成方法
技术领域
本发明属于深度学习图像对抗攻击领域,具体涉及一种基于图像频域分解重构的对抗样本生成方法。
背景技术
在计算机视觉领域,深度神经网络在图像分类、目标识别等任务场景表现出优异的性能。然而,研究表明,在输入图像中添加人类难以察觉的扰动,会使得神经网络模型被误导,做出错误的决策,这些添加了扰动噪声的图像被称为对抗样本。目前,对抗攻击方法可分为两大类:获取目标模型结构、参数等完备信息的白盒攻击以及仅能获取模型输入输出信息的黑盒攻击。黑盒攻击可以在不了解目标模型的情况下产生对抗样本,更适用于现实场景,是目前的研究热点。
相关领域的学者基于深度学习的全过程提出了诸多对抗攻击方法,其中基于梯度的攻击方法最为普遍:利用神经网络的梯度反向传播,逐步改变样本的像素值,通过最大化网络损失,使得神经网络决策错误。此类方法能达到较高的白盒攻击成功率,而且能与动量、输入变换等方法相结合,提升生成对抗样本的迁移性。基于查询的攻击方法利用查询到的神经网络输出概率向量或硬标签估计梯度,通过向神经网络大量输入图像以优化扰动噪声,推动对抗样本向网络模型的决策边界靠近直至越过正确决策空间,生成的对抗样本能达到很高的攻击成功率。
虽然目前的对抗攻击方法层出不穷,但总体来看仍存在以下缺陷:(1)生成的对抗样本过拟合于原网络模型,难以对其他网络模型产生较高的攻击成功率,即迁移率差;(2)产生的扰动噪声在低频区间的幅度偏大,生成的对抗样本易被人眼感知;(3)对抗样本没有对干净样本的纹理细节区域产生针对性的扰动,难以对网络模型产生攻击效果。
发明内容
针对上述技术问题,本发明提供一种基于图像频域分解重构的对抗样本生成方法,该方法基于人类视觉系统和网络模型对不同频率扰动噪声的感知差异,对图像的低频和高频成分分别采取梯度反向传播和相似度融合的方法,增强了对抗样本的迁移性,提升了对抗样本对防御网络的攻击效果,并降低了扰动噪声的大小。
本发明采用的技术方法是:一种基于图像频域分解重构的对抗样本生成方法,其特征在于:包括以下步骤:
步骤一、输入原始干净图像样本Pclean,利用离散余弦变换将该图像拆分为低频部分
Figure BDA0003708249670000021
和高频部分
Figure BDA0003708249670000022
步骤101、对干净图像样本Pclean进行离散余弦变换,获取图像的幅度频谱Fclean
步骤102、将幅度频谱Fclean左上角
Figure BDA0003708249670000031
区域内元素保留,其余区域元素置0,得到图像的低频幅度频谱
Figure BDA0003708249670000032
步骤103、将幅度频谱Fclean左上角
Figure BDA0003708249670000033
区域内元素置0,其余区域元素保留,得到图像的高频幅度频谱
Figure BDA0003708249670000034
步骤104、分别对
Figure BDA0003708249670000035
进行逆离散余弦变换,得到图像的低频部分
Figure BDA0003708249670000036
和高频部分
Figure BDA0003708249670000037
步骤二、从数据集中选取图像,构建待融合的低频、高频图像集合:
步骤201、从干净图像Pclean所在类别以外的其他所有类别中,分别选取r张图像,组成图像集合{Padv-1,Padv-2,...,Padv-n};
步骤202、对图像集合{Padv-1,Padv-2,...,Padv-n}内的所有图像进行步骤一相同的操作,构建待融合的低频图像集合
Figure BDA0003708249670000038
高频图像集合
Figure BDA0003708249670000039
步骤三、基于图像间的相似度,将干净样本的高频部分与高频图像集合中的所有图像进行融合:
步骤301、利用感知哈希算法,计算干净样本的高频部分
Figure BDA00037082496700000310
与待融合的高频图像集合
Figure BDA00037082496700000311
中每张图像的相似度{s1,s2,...,sn};
步骤302、选取高频融合比例αH∈[0,1],基于图像间的相似度,将干净样本的高频部分
Figure BDA00037082496700000312
分别与高频图像集合
Figure BDA00037082496700000313
中的所有图像进行融合:
Figure BDA0003708249670000041
获得高频融合图像集合
Figure BDA0003708249670000042
步骤四、将干净样本的低频部分与低频图像集合中的所有图像分别进行融合与拼接:
步骤401、选取低频融合比例αL∈[0,1],将干净样本的低频部分
Figure BDA0003708249670000043
分别与低频图像集合
Figure BDA0003708249670000044
中的所有图像进行融合:
Figure BDA0003708249670000045
获得低频融合图像集合
Figure BDA0003708249670000046
步骤402、从图像集合
Figure BDA0003708249670000047
中随机选取m-1张图像,同时设置m个与图像尺寸(H,W,C)相同的掩膜M1、M1…Mm:
Figure BDA0003708249670000048
将干净样本的低频部分
Figure BDA0003708249670000049
与选取的m-1张图像进行拼接,获得低频拼接图像
Figure BDA00037082496700000410
Figure BDA00037082496700000411
步骤403、重复n次步骤402,获得低频拼接图像集合
Figure BDA00037082496700000412
步骤五、通过神经网络的梯度反向传播,利用低频融合图像集合与拼接图像集合对干净样本的低频部分施加扰动,生成对抗样本的低频部分:
步骤501、从低频融合图像集合、拼接图像集合中分别选取n1、n2张图像,并将该n1+n2张图像分别输入到预测模式的神经网络f,设置f的损失函数为交叉熵损失,得到f关于输入图像
Figure BDA0003708249670000051
的损失
Figure BDA0003708249670000052
依据该损失获得f关于输入图像
Figure BDA0003708249670000053
的损失梯度:
Figure BDA0003708249670000054
步骤502、依据神经网络的损失获取聚合动量梯度
Figure BDA0003708249670000055
Figure BDA0003708249670000056
其中λi为神经网络对每张输入图像的损失梯度分配的权重,满足:
Figure BDA0003708249670000057
步骤503、选取迭代动量β∈[0,1],利用聚合动量梯度
Figure BDA0003708249670000058
更新gt+1
Figure BDA0003708249670000059
步骤504、设定扰动幅度上限ξ1与最大迭代次数T,计算每次迭代对抗样本的变化量
Figure BDA00037082496700000510
更新对抗样本的低频部分
Figure BDA00037082496700000511
Figure BDA00037082496700000512
步骤505、利用扰动幅度上限ξ1
Figure BDA00037082496700000513
的像素值进行扰动限制:
Figure BDA00037082496700000514
步骤506、迭代步骤501-505,直到最大迭代次数T,获得对抗样本的低频部分
Figure BDA00037082496700000515
步骤六、对获得的对抗样本的低频部分进行低通滤波,并和高频图像集合进行图像重构,构造对抗样本:
步骤601、利用离散余弦变换获取对抗样本低频部分的幅度频谱
Figure BDA0003708249670000061
Figure BDA0003708249670000062
左上角
Figure BDA0003708249670000063
区域内元素保留,其余区域元素置0,得到低频幅度频谱
Figure BDA0003708249670000064
步骤602、对低频幅度频谱
Figure BDA0003708249670000065
进行逆离散余弦变换,获得低通滤波后的低频对抗样本
Figure BDA0003708249670000066
限制对抗噪声仅存在于低频部分;
步骤602、从高频融合图像集合中随机选取一张图像替换干净样本的高频部分,并与
Figure BDA0003708249670000067
进行图像重构:
Figure BDA0003708249670000068
步骤603、设定对抗样本的扰动幅度上限ξ2,对重构图像的像素值进行扰动幅度限制,构造对抗样本:
Figure BDA0003708249670000069
本发明与现有技术相比,主要具有如下的优点:
第一,本发明提出了基于图像频域分解重构的对抗样本生成方法,通过利用离散余弦变换将图像分解为低频、高频两个部分,并分别对这两个部分采取基于图像增强的梯度回传、基于相似度融合等方法,增强了生成的对抗样本的攻击成功率,降低了人眼对扰动噪声的感知效果;
第二,本发明将图像融合以及图像拼接等图像增强方法与基于动量的梯度回传方法相结合,提升了低频区间扰动的迁移性,对图像高频部分对应的边缘纹理区域的扰动,使得生成的对抗样本能够对黑盒网络模型产生明显的攻击效果。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为本发明的方法流程图。
具体实施方式
下面结合附图及本发明的实施例对本发明的方法作进一步详细的说明。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本发明。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施方式例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为了便于描述,在这里可以使用空间相对术语,如“在……之上”、“在……上方”、“在……上表面”、“上面的”等,用来描述如在图中所示的一个器件或特征与其他器件或特征的空间位置关系。应当理解的是,空间相对术语旨在包含除了器件在图中所描述的方位之外的在使用或操作中的不同方位。例如,如果附图中的器件被倒置,则描述为“在其他器件或构造上方”或“在其他器件或构造之上”的器件之后将被定位为“在其他器件或构造下方”或“在其他器件或构造之下”。因而,示例性术语“在……上方”可以包括“在……上方”和“在……下方”两种方位。该器件也可以其他不同方式定位(旋转90度或处于其他方位),并且对这里所使用的空间相对描述作出相应解释。
如图1所示,以公开的ILSVRC2012图像数据集为例,说明本发明的合理性与有效性,包含具体步骤如下:
步骤一、输入原始干净图像样本Pclean,利用离散余弦变换将该图像拆分为低频部分
Figure BDA0003708249670000081
和高频部分
Figure BDA0003708249670000082
步骤101、对干净图像样本Pclean进行离散余弦变换,获取图像的幅度频谱Fclean
步骤102、将幅度频谱Fclean左上角
Figure BDA0003708249670000083
区域内元素保留,其余区域元素置0,得到图像的低频幅度频谱
Figure BDA0003708249670000084
步骤103、将幅度频谱Fclean左上角
Figure BDA0003708249670000091
区域内元素置0,其余区域元素保留,得到图像的高频幅度频谱
Figure BDA0003708249670000092
步骤104、分别对
Figure BDA0003708249670000093
进行逆离散余弦变换,得到图像的低频部分
Figure BDA0003708249670000094
和高频部分
Figure BDA0003708249670000095
步骤二、从数据集中选取图像,构建待融合的低频、高频图像集合:
步骤201、从干净图像Pclean所在类别以外的其他999个类别中,分别选取1张图像,组成图像集合{Padv-1,Padv-2,...,Padv-999};
步骤202、对图像集合{Padv-1,Padv-2,...,Padv-999}内的所有图像进行步骤一相同的操作,构建待融合的低频图像集合
Figure BDA0003708249670000096
高频图像集合
Figure BDA0003708249670000097
步骤三、基于图像间的相似度,将干净样本的高频部分与高频图像集合中的所有图像进行融合:
步骤301、利用感知哈希算法,计算干净样本的高频部分
Figure BDA0003708249670000098
与待融合的高频图像集合
Figure BDA0003708249670000099
中每张图像的相似度{s1,s2,...,s999};
步骤302、选取高频融合比例αH=0,基于图像间的相似度,将干净样本的高频部分
Figure BDA00037082496700000910
分别与高频图像集合
Figure BDA00037082496700000911
中的所有图像进行融合:
Figure BDA00037082496700000912
获得高频融合图像集合
Figure BDA00037082496700000913
步骤四、将干净样本的低频部分与低频图像集合中的所有图像分别进行融合与拼接:
步骤401、选取低频融合比例αL=0.2,将干净样本的低频部分
Figure BDA0003708249670000101
分别与低频图像集合
Figure BDA0003708249670000102
中的所有图像进行融合:
Figure BDA0003708249670000103
获得低频融合图像集合
Figure BDA0003708249670000104
步骤402、从图像集合
Figure BDA0003708249670000105
中随机选取3张图像,同时设置4个与图像尺寸(H,W,C)相同的掩膜M1、M1…M4:
Figure BDA0003708249670000106
将干净样本的低频部分
Figure BDA0003708249670000107
与选取的3张图像进行拼接,获得低频拼接图像
Figure BDA0003708249670000108
Figure BDA0003708249670000109
步骤403、重复10次步骤402,获得低频拼接图像集合
Figure BDA00037082496700001010
步骤五、通过神经网络的梯度反向传播,利用低频融合图像集合与拼接图像集合对干净样本的低频部分施加扰动,生成对抗样本的低频部分:
步骤501、从低频融合图像集合、拼接图像集合中分别选取2张、1张图像,并将该3张图像分别输入到预测模式的神经网络f,设置f的损失函数为交叉熵损失,得到f关于输入图像
Figure BDA00037082496700001011
的损失
Figure BDA00037082496700001012
依据该损失获得f关于输入图像
Figure BDA00037082496700001013
的损失梯度:
Figure BDA00037082496700001014
步骤502、依据神经网络的损失获取聚合动量梯度
Figure BDA0003708249670000111
Figure BDA0003708249670000112
其中λi为神经网络对每张输入图像的损失梯度分配的权重,满足:
Figure BDA0003708249670000113
步骤503、选取迭代动量β=1.0,利用聚合动量梯度
Figure BDA0003708249670000114
更新gt+1
Figure BDA0003708249670000115
步骤504、设定扰动幅度上限ξ1=16与最大迭代次数T=10,计算每次迭代对抗样本的变化量
Figure BDA0003708249670000116
更新对抗样本的低频部分
Figure BDA0003708249670000117
Figure BDA0003708249670000118
步骤505、利用扰动幅度上限ξ1=16对
Figure BDA0003708249670000119
的像素值进行扰动限制:
Figure BDA00037082496700001110
步骤506、迭代步骤501-505,直到最大迭代次数T=10,获得对抗样本的低频部分
Figure BDA00037082496700001111
步骤六、对获得的对抗样本的低频部分进行低通滤波,并和高频图像集合进行图像重构,构造对抗样本:
步骤601、利用离散余弦变换获取对抗样本低频部分的幅度频谱
Figure BDA00037082496700001112
Figure BDA00037082496700001113
左上角
Figure BDA00037082496700001114
区域内元素保留,其余区域元素置0,得到低频幅度频谱
Figure BDA00037082496700001115
步骤602、对低频幅度频谱
Figure BDA00037082496700001116
进行逆离散余弦变换,获得低通滤波后的低频对抗样本
Figure BDA00037082496700001117
限制对抗噪声仅存在于低频部分;
步骤602、从高频融合图像集合中随机选取一张图像替换干净样本的高频部分,并与
Figure BDA0003708249670000121
进行图像重构:
Figure BDA0003708249670000122
步骤603、设定对抗样本的扰动幅度上限ξ2=30,对重构图像的像素值进行扰动幅度限制,构造对抗样本:
Figure BDA0003708249670000123
以上所述,仅是本发明的实施例,并非对本发明作任何限制,凡是根据本发明技术实质对以上实施例所作的任何简单修改、变更以及等效结构变化,均仍属于本发明技术方案的保护范围内。

Claims (1)

1.一种基于图像频域分解重构的对抗样本生成方法,其特征在于:包括以下步骤:
步骤一、输入原始干净图像样本Pclean,利用离散余弦变换将该图像拆分为低频部分
Figure FDA0003708249660000011
和高频部分
Figure FDA0003708249660000012
步骤101、对干净图像样本Pclean进行离散余弦变换,获取图像的幅度频谱Fclean
步骤102、将幅度频谱Fclean左上角
Figure FDA0003708249660000013
区域内元素保留,其余区域元素置0,得到图像的低频幅度频谱
Figure FDA0003708249660000014
步骤103、将幅度频谱Fclean左上角
Figure FDA0003708249660000015
区域内元素置0,其余区域元素保留,得到图像的高频幅度频谱
Figure FDA0003708249660000016
步骤104、分别对
Figure FDA0003708249660000017
进行逆离散余弦变换,得到图像的低频部分
Figure FDA0003708249660000018
和高频部分
Figure FDA0003708249660000019
步骤二、从数据集中选取图像,构建待融合的低频、高频图像集合:
步骤201、从干净图像Pclean所在类别以外的其他所有类别中,分别选取r张图像,组成图像集合{Padv-1,Padv-2,...,Padv-n};
步骤202、对图像集合{Padv-1,Padv-2,...,Padv-n}内的所有图像进行步骤一相同的操作,构建待融合的低频图像集合
Figure FDA00037082496600000110
高频图像集合
Figure FDA00037082496600000111
步骤三、基于图像间的相似度,将干净样本的高频部分与高频图像集合中的所有图像进行融合:
步骤301、利用感知哈希算法,计算干净样本的高频部分
Figure FDA0003708249660000021
与待融合的高频图像集合
Figure FDA0003708249660000022
中每张图像的相似度{s1,s2,...,sn};
步骤302、选取高频融合比例αH∈[0,1],基于图像间的相似度,将干净样本的高频部分
Figure FDA0003708249660000023
分别与高频图像集合
Figure FDA0003708249660000024
中的所有图像进行融合:
Figure FDA0003708249660000025
获得高频融合图像集合
Figure FDA0003708249660000026
步骤四、将干净样本的低频部分与低频图像集合中的所有图像分别进行融合与拼接:
步骤401、选取低频融合比例αL∈[0,1],将干净样本的低频部分
Figure FDA0003708249660000027
分别与低频图像集合
Figure FDA0003708249660000028
中的所有图像进行融合:
Figure FDA0003708249660000029
获得低频融合图像集合
Figure FDA00037082496600000210
步骤402、从图像集合
Figure FDA00037082496600000211
中随机选取m-1张图像,同时设置m个与图像尺寸(H,W,C)相同的掩膜M1、M1…Mm:
Figure FDA00037082496600000212
将干净样本的低频部分
Figure FDA0003708249660000031
与选取的m-1张图像进行拼接,获得低频拼接图像
Figure FDA0003708249660000032
Figure FDA0003708249660000033
步骤403、重复n次步骤402,获得低频拼接图像集合
Figure FDA0003708249660000034
步骤五、通过神经网络的梯度反向传播,利用低频融合图像集合与拼接图像集合对干净样本的低频部分施加扰动,生成对抗样本的低频部分:
步骤501、从低频融合图像集合、拼接图像集合中分别选取n1、n2张图像,并将该n1+n2张图像分别输入到预测模式的神经网络f,设置f的损失函数为交叉熵损失,得到f关于输入图像
Figure FDA0003708249660000035
的损失
Figure FDA0003708249660000036
依据该损失获得f关于输入图像
Figure FDA0003708249660000037
的损失梯度:
Figure FDA0003708249660000038
步骤502、依据神经网络的损失获取聚合动量梯度
Figure FDA0003708249660000039
Figure FDA00037082496600000310
其中λi为神经网络对每张输入图像的损失梯度分配的权重,满足:
Figure FDA00037082496600000311
步骤503、选取迭代动量β∈[0,1],利用聚合动量梯度
Figure FDA00037082496600000312
更新gt+1
Figure FDA00037082496600000313
步骤504、设定扰动幅度上限ξ1与最大迭代次数T,计算每次迭代对抗样本的变化量
Figure FDA0003708249660000041
更新对抗样本的低频部分
Figure FDA0003708249660000042
Figure FDA0003708249660000043
步骤505、利用扰动幅度上限ξ1
Figure FDA0003708249660000044
的像素值进行扰动限制:
Figure FDA0003708249660000045
步骤506、迭代步骤501-505,直到最大迭代次数T,获得对抗样本的低频部分
Figure FDA0003708249660000046
步骤六、对获得的对抗样本的低频部分进行低通滤波,并和高频图像集合进行图像重构,构造对抗样本:
步骤601、利用离散余弦变换获取对抗样本低频部分的幅度频谱
Figure FDA0003708249660000047
Figure FDA0003708249660000048
左上角
Figure FDA0003708249660000049
区域内元素保留,其余区域元素置0,得到低频幅度频谱
Figure FDA00037082496600000410
步骤602、对低频幅度频谱
Figure FDA00037082496600000411
进行逆离散余弦变换,获得低通滤波后的低频对抗样本
Figure FDA00037082496600000412
限制对抗噪声仅存在于低频部分;
步骤602、从高频融合图像集合中随机选取一张图像替换干净样本的高频部分,并与
Figure FDA00037082496600000413
进行图像重构:
Figure FDA00037082496600000414
步骤603、设定对抗样本的扰动幅度上限ξ2,对重构图像的像素值进行扰动幅度限制,构造对抗样本:
Figure FDA00037082496600000415
CN202210714150.3A 2022-06-22 2022-06-22 一种基于图像频域分解重构的对抗样本生成方法 Active CN115100421B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210714150.3A CN115100421B (zh) 2022-06-22 2022-06-22 一种基于图像频域分解重构的对抗样本生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210714150.3A CN115100421B (zh) 2022-06-22 2022-06-22 一种基于图像频域分解重构的对抗样本生成方法

Publications (2)

Publication Number Publication Date
CN115100421A true CN115100421A (zh) 2022-09-23
CN115100421B CN115100421B (zh) 2024-03-12

Family

ID=83292288

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210714150.3A Active CN115100421B (zh) 2022-06-22 2022-06-22 一种基于图像频域分解重构的对抗样本生成方法

Country Status (1)

Country Link
CN (1) CN115100421B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115439377A (zh) * 2022-11-08 2022-12-06 电子科技大学 一种增强对抗图像样本迁移性攻击的方法
CN116543268A (zh) * 2023-07-04 2023-08-04 西南石油大学 基于通道增强联合变换的对抗样本生成方法及终端
CN117009970A (zh) * 2023-10-07 2023-11-07 华中科技大学 盲特征场景下恶意软件对抗样本生成方法与电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106327413A (zh) * 2016-08-10 2017-01-11 深圳大学 一种基于频域分析的图像隐写方法及系统
US20210089866A1 (en) * 2019-09-24 2021-03-25 Robert Bosch Gmbh Efficient black box adversarial attacks exploiting input data structure
CN114399630A (zh) * 2021-12-31 2022-04-26 燕山大学 基于信念攻击和显著区域扰动限制的对抗样本生成方法
CN114463183A (zh) * 2022-02-14 2022-05-10 中南大学 基于频域和空域的图像超分辨率方法
CN114648675A (zh) * 2022-03-16 2022-06-21 中国工商银行股份有限公司 对抗训练方法、图像处理方法、装置、设备和介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106327413A (zh) * 2016-08-10 2017-01-11 深圳大学 一种基于频域分析的图像隐写方法及系统
US20210089866A1 (en) * 2019-09-24 2021-03-25 Robert Bosch Gmbh Efficient black box adversarial attacks exploiting input data structure
CN114399630A (zh) * 2021-12-31 2022-04-26 燕山大学 基于信念攻击和显著区域扰动限制的对抗样本生成方法
CN114463183A (zh) * 2022-02-14 2022-05-10 中南大学 基于频域和空域的图像超分辨率方法
CN114648675A (zh) * 2022-03-16 2022-06-21 中国工商银行股份有限公司 对抗训练方法、图像处理方法、装置、设备和介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘恒;吴德鑫;徐剑;: "基于生成式对抗网络的通用性对抗扰动生成方法", 信息网络安全, no. 05, 10 May 2020 (2020-05-10) *
吴少宝;沈东升;王佳莹;: "一种抗几何攻击的数字水印算法", 信息技术, no. 07, 24 July 2018 (2018-07-24) *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115439377A (zh) * 2022-11-08 2022-12-06 电子科技大学 一种增强对抗图像样本迁移性攻击的方法
CN116543268A (zh) * 2023-07-04 2023-08-04 西南石油大学 基于通道增强联合变换的对抗样本生成方法及终端
CN116543268B (zh) * 2023-07-04 2023-09-15 西南石油大学 基于通道增强联合变换的对抗样本生成方法及终端
CN117009970A (zh) * 2023-10-07 2023-11-07 华中科技大学 盲特征场景下恶意软件对抗样本生成方法与电子设备
CN117009970B (zh) * 2023-10-07 2023-12-29 华中科技大学 盲特征场景下恶意软件对抗样本生成方法与电子设备

Also Published As

Publication number Publication date
CN115100421B (zh) 2024-03-12

Similar Documents

Publication Publication Date Title
Fu et al. Jpeg artifacts reduction via deep convolutional sparse coding
CN115100421B (zh) 一种基于图像频域分解重构的对抗样本生成方法
Ram et al. Image processing using smooth ordering of its patches
Subbiah Parvathy et al. A novel approach in multimodality medical image fusion using optimal shearlet and deep learning
CN105551010A (zh) 基于nsct及深度信息激励pcnn的多聚焦图像融合方法
CN106934775A (zh) 一种基于低秩恢复的非局部图像去噪方法
Soliman et al. An adaptive watermarking approach for medical imaging using swarm intelligent
CN109523513B (zh) 基于稀疏重建彩色融合图像的立体图像质量评价方法
Jin et al. Remote sensing image fusion method in CIELab color space using nonsubsampled shearlet transform and pulse coupled neural networks
Hsu et al. A high-capacity QRD-based blind color image watermarking algorithm incorporated with AI technologies
Hosono et al. Weighted tensor nuclear norm minimization for color image denoising
Karimi et al. Blind stereo quality assessment based on learned features from binocular combined images
Yap et al. A recursive soft-decision approach to blind image deconvolution
Zhao et al. Removing adversarial noise via low-rank completion of high-sensitivity points
CN113763268B (zh) 人脸图像盲修复方法及系统
CN114862710A (zh) 红外和可见光图像融合方法及装置
CN109003247A (zh) 彩色图像混合噪声的去除方法
Peng et al. Lightweight Adaptive Feature De-drifting for Compressed Image Classification
Tang et al. Adaptive graph filtering with intra-patch pixel smoothing for image denoising
CN115731389A (zh) 一种图像去噪方法及装置
CN115131226A (zh) 一种基于小波张量低秩正则化的图像复原方法
De-Maeztu et al. Efficient aggregation via iterative block-based adapting support-weights
Hajinoroozi et al. Image enhancement with weighted histogram equalization and heap transforms
Thilagavathi et al. An efficient dictionary learning algorithm for 3d Medical Image Denoising based on Sadct
Han Artificial Neural Network for Processing Fingerprint Image Noise

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant