CN111382837B - 一种基于深度乘积量化的对抗样本生成方法 - Google Patents
一种基于深度乘积量化的对抗样本生成方法 Download PDFInfo
- Publication number
- CN111382837B CN111382837B CN202010080718.1A CN202010080718A CN111382837B CN 111382837 B CN111382837 B CN 111382837B CN 202010080718 A CN202010080718 A CN 202010080718A CN 111382837 B CN111382837 B CN 111382837B
- Authority
- CN
- China
- Prior art keywords
- original image
- quantization
- vector
- sample
- feature vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013139 quantization Methods 0.000 title claims abstract description 92
- 238000000034 method Methods 0.000 title claims abstract description 60
- 230000003042 antagnostic effect Effects 0.000 title description 3
- 239000013598 vector Substances 0.000 claims abstract description 161
- 230000006870 function Effects 0.000 claims description 43
- 238000013528 artificial neural network Methods 0.000 abstract description 4
- 238000013527 convolutional neural network Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000013508 migration Methods 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于深度乘积量化的对抗样本生成方法,所述方法包括:将原始图像输入至预设网络模型,以通过所述预设网络模型输出原始图像对应的量化分配中心向量;将所述原始图像对应的初始对抗样本输入至所述预设网络模型,以得到所述初始对抗样本对应的对抗特征向量;基于所述量化分配中心向量以及所述对抗特征向量,确定所述初始对抗样本对应的损失函数;基于所述损失函数对所述预设网络模型进行反向传播,以得到所述原始图像对应的对抗样本。本方法通过基于所述量化分配中心向量以及对抗特征向量确定可导损失函数,提高了对抗样本的迁移性和有效性,为进一步研究神经网络的鲁棒性提供依据。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及的是一种基于深度乘积量化的对抗样本生成方法。
背景技术
实现大规模和高维图像的检索依赖于有效的图像特征表示和匹配,现有的主流方法主要有两大类,主要是以哈希为主的二值表示方法,其以匹配速度快而得到广泛的应用。另一大类方法是以乘积量化为主导的数据压缩方法,该方法一般比哈希方法有更高的检索性能。目前,基于卷积神经网络CNN的哈希或乘积量化的方法充分借助CNN强大的特征提取能力,在CNN的特征层上进行哈希表示或者进行乘积量化,同时联合训练CNN的参数和哈希或乘积量化,从而得到比传统方法更好的检索性能。
尽管CNN在分类以及检索等视觉任务上取得了比传统方法性能上的优势,但是最近的研究显示神经网络对于人眼感知不明显的扰动却十分敏感,而且很容易受到对抗样本的攻击。Szegedy等人首先研究了分类任务下的对抗样本问题。Goodfellow等人设计了快速符号梯度(FGSM)的方法来得到对抗样本。除了分类任务外,Chen等人基于图像说明这一任务设计了对抗样本。类似地,Xie等人基于图像分割任务同样给出对抗样本的设计方案。虽然目前已经有针对分类等对抗样本的设计方法,但是基于深度乘积量化检索系统的量化过程是离散且不可导的,如何有效利用神经网络的反向传播得到对抗样本是一大难点。
发明内容
鉴于上述现有技术中的不足之处,本发明旨在提供了一种基于深度乘积量化的对抗样本生成方法。
本发明所采用的技术方案为:
一种基于深度乘积量化的对抗样本生成方法,其包括:
将原始图像输入至预设网络模型,以通过所述预设网络模型输出原始图像对应的量化分配中心向量;
将所述原始图像对应的初始对抗样本输入至所述预设网络模型,以得到所述初始对抗样本对应的对抗特征向量;
基于所述量化分配中心向量以及所述对抗特征向量,确定所述初始对抗样本对应的损失函数;
基于所述损失函数对所述预设网络模型进行反向传播,以得到所述原始图像对应的对抗样本。
所述基于深度乘积量化的对抗样本生成方法,其中,所述预设网络模型包括卷积网络模块以及乘积量化模块,所述卷积网络模块与所述乘积量化模块相连接,所述卷积网络模块用于提取所述卷积网络模块的输入项的特征向量,所述乘积量化模块用于对所述特征向量进行乘积量化。
所述基于深度乘积量化的对抗样本生成方法,其中,所述将原始图像输入至预设网络模型,以通过所述预设网络模型输出原始图像对应的量化分配中心向量具体包括:
将所述原始图像输入至所述卷积网络模块,通过所述卷积网络模型输出所述原始图像对应的特征向量;
将所述特征向量输入至乘积量化模块,并通过所述乘积量化模块输出所述原始图像对应的量化分配中心向量。
所述基于深度乘积量化的对抗样本生成方法,其中,所述基于所述量化分配中心向量以及所述对抗特征向量,确定所述初始对抗样本对应的损失函数具体包括:
基于所述量化分配中心向量以及所述对抗特征向量,确定所述初始对抗样本对应的量化中心分配概率;
根据所述量化中心分配概率确定所述初始对抗样本对应的损失函数。
所述基于深度乘积量化的对抗样本生成方法,其中,所述损失函数的表达式为:
其中,x为原始图像,为对抗样本,/>bm为量化分配中心向量的第m个子向量,/>为对抗特征向量的第m个子向量,cmk为原始图像的特征向量的第m个子向量的第k个量化中心,cmk′为原始图像的特征向量的第m个子向量的第k′个量化中心,m=1,2,...,M,k=1,2,...,K,k′=1,2,...,K,ε为预设噪声扰动强度。
所述基于深度乘积量化的对抗样本生成方法,其中,所述损失函数的表达式为:
其中,x为原始图像,为对抗样本,/>bm为量化分配中心向量的第m个子向量,/> 为对抗特征向量的第m个子向量,zm为原始图像的特征向量的第m个子向量,cmk为原始图像的特征向量的第m个子向量的第k个量化中心,cmk′为原始图像的特征向量的第m个子向量的第k′个量化中心,m=1,2,...,M,k=1,2,...,K,k′=1,2,...,K,ε为预设噪声扰动强度。
所述基于深度乘积量化的对抗样本生成方法,其中,所述基于所述损失函数对所述预设网络模型进行反向传播,以得到所述原始图像对应的对抗样本之后,所述方法还包括:
将所述对抗样本作为初始对抗样本,并继续执行将所述原始图像对应的初始对抗样本输入至所述预设网络模型的步骤,直至所述对抗样本满足预设条件。
所述基于深度乘积量化的对抗样本生成方法,其中,所述预设条件为对抗样本对应的反向传播次数达到预设阈值。
一种电子设备,包括存储器和处理器,所述存储器存储有可被所述处理器执行的计算机可读程序,其特征在于,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如上任一所述的基于深度乘积量化的对抗样本生成方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,实现如权上任一所述的基于深度乘积量化的对抗样本生成方法步骤。
与现有技术相比,本发明提供了一种基于深度乘积量化的对抗样本生成方法,所述方法包括:将原始图像输入至预设网络模型,以通过所述预设网络模型输出原始图像对应的量化分配中心向量;将所述原始图像对应的初始对抗样本输入至所述预设网络模型,以得到所述初始对抗样本对应的对抗特征向量;基于所述量化分配中心向量以及所述对抗特征向量,确定所述初始对抗样本对应的损失函数;基于所述损失函数对所述预设网络模型进行反向传播,以得到所述原始图像对应的对抗样本。本方法通过基于所述量化分配中心向量以及对抗特征向量确定可导损失函数,提高了对抗样本的迁移性和有效性,为进一步研究神经网络的鲁棒性提供依据。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例中基于深度乘积量化的对抗样本生成方法的步骤流程图;
图2是本发明实施例中基于深度乘积量化的对抗样本生成方法的流程示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅仅用于解释本发明,并不用于限定本发明。
下面结合附图,详细说明本发明的各种非限制性实施方式。
本实施例提供了一种基于深度乘积量化的对抗样本生成方法,如图1所示,所述基于深度乘积量化的对抗样本生成方法包括:
S10、将原始图像输入至预设网络模型,以通过所述预设网络模型输出原始图像对应的量化分配中心向量。
具体地,所述预设网络模型为预先建立,所述预设网络模型包括卷积网络模块以及乘积量化模块,所述卷积网络模块与所述乘积量化模块相连接,所述卷积网络模块用于提取所述卷积网络模块的输入项的特征向量,并将提取到的特征向量输入乘积量化模块,以得到原始图像对应的乘积量化中心。所述卷积网络模块可以由预先训练好的卷积神经网络特征提取网络层后的各网络层得到的。所述卷积网络模型的输出项为输入卷积网络模块的输入项的特征向量,其中,所述特征向量为深度特征向量。相应的,所述乘积量化模块的输入项为深度特征向量,并对深度特征向量进行乘积量化以得到深度量化特征向量对饮的乘积量化中心。在本实施例的一个实现方式中,所述卷积神经网络可以为AlexNet网络和VGG网络,当卷积神经网络为AlexNet网络时,所述卷积神经网络在数据集CIFAR-10进行训练的;当卷积神经网络为VGG网络时,所述卷积神经网络在数据集NUS-WIDE上进行训练。
进一步,在本实施例的一个实现方式中,所述将原始图像输入至预设网络模型,以通过所述预设网络模型输出原始图像对应的量化分配中心向量具体包括:
S11、将所述原始图像输入至所述卷积网络模块,通过所述卷积网络模型输出所述原始图像对应的特征向量;
S12、将所述特征向量输入至乘积量化模块,并通过所述乘积量化模块输出所述原始图像对应的量化分配中心向量。
具体地,所述原始图像为用于生产对抗样本的样本图像,当所述原始图像输入至卷积网络模型后,通过所述卷积网络模型可以输出原始图像对应的特征向量,在获取到特征向量后,将所述特征向量输入至乘积量化模块,所述乘积量化模块对所述特征向量进行乘积量化,以得到原始图像对应的量化分配中心向量。在本实施例的一个实现方式中,所述乘积量化模块对所述特征向量进行乘积量化时,将所述特征向量划分为若干子向量,并分别确定各子向量对应的乘积量化中心,从而得到特征向量对用的量化分配中心向量。其中,所述若干子向量可以为将特征向量等分得到的,并且各子向量对应的乘积量化中心在量化分配中心向量中的位置顺序,与各子向量在特征向量中的位置顺序一致。
举例说明:假设x为输入卷积网络模块的原始图像,z=FCNN(x)=(z1,z2,…,zM)为原始图像对应的特征向量,其中,z1,z2,…,zM为特征向量的各子向量,并且各子向量是通过将特征向量等分得到。对于每个子向量,乘积量化模块对该子向量进行正则化以及分配乘积量化中心,以得到各子向量对应的量化分配中心向量。如,对于第m个子向量zm,该子向量对应的乘积量化中心可以记为bm,其中,bm的表达式可以为:
其中,cmk为原始图像的特征向量的第m个子向量的第k个量化中心,k=1,2,...,K。
S20、将所述原始图像对应的初始对抗样本输入至所述预设网络模型,以得到所述初始对抗样本对应的对抗特征向量。
具体地,所述初始对抗样本为根据所述原始图像生成,例如,所述初始对抗样本为所述原始图像等。在确定初始对抗样本后,将所述初始对抗样本输入至所述预设网络模型的卷积网络模型,通过所述卷积网络模型可以输出所述初始对抗样本对应的对抗特征向量。其中,所述对抗特征向量包括若干对抗子向量,若干对抗子向量的获取方法可以为将所述对抗特征向量按照对原始图像的特征向量的划分方式划分为若干子向量。
S30、基于所述量化分配中心向量以及所述对抗特征向量,确定所述初始对抗样本对应的损失函数。
具体地,所述损失函数为根据所述量化分配中心向量生成以及所述对抗特征向量生成,并且所述损失函数为可导损失函数。所述损失函数为原始图像对应的对抗样本相对于原始图像的损失函数,在获取到损失函数后,基于所述损失函数通过所述卷积网络模型进行反向传播以得到原始图像对应的对抗样本。此外,在本实施例的一个实现方式中,所述损失函数为基于初始对抗样本对应的量化中心分配概率确定,由此,在确定所述损失函数之前,需要根据量化分配中心向量以及对抗特征向量确定初始对抗样本对应的量化中心分配概率,再根据量化中心分配概率确定损失函数。相应的,所述基于所述量化分配中心向量确定所述初始对抗样本对应的损失函数具体包括:
基于所述量化分配中心向量以及所述对抗特征向量,确定所述初始对抗样本对应的量化中心分配概率;
根据所述量化中心分配概率确定所述初始对抗样本对应的损失函数。
具体地,所述量化中心分配概率为根据量化分配中心向量以及对抗特征向量确定,对于量化分配中心向量中的每个分量,均对于一个量化中心分配概率向量,该量化中心分配概率向量包括的分量数量与该分量对应的量化中心数量相等,并且量化分配中心向量中的每个分量对应的量化中心数量均相等。例如,对于量化分配中心向量中的第m个分量,该分量对应有K个量化中心,第m个分量对应的量化中心分配概率向量为 其中,/>表示分配给第m个子向量的第k个量化中心的概率,/>为原始图像的特征向量对应的对抗特征向量的第m个子向量,cmk为原始图像的特征向量的第m个子向量的第k个量化中心,m=1,2,...,M。
进一步,在本实施例的一个实现方式中,所述损失函数的表达式为:
其中,x为原始图像,为对抗样本,/>bm为量化分配中心向量的第m个子向量,/>为对抗特征向量的第m个子向量,cmk为原始图像的特征向量的第m个子向量的第k个量化中心,cmk′为原始图像的特征向量的第m个子向量的第k′个量化中心,m=1,2,...,M,k=1,2,...,K,k′=1,2,...,K,ε为预设噪声扰动强度,<·>表示向量内积。
进一步,在本实施例的一个实现方式中,所述损失函数的表达式为:
其中,x为原始图像,为对抗样本,/>bm为量化分配中心向量的第m个子向量,/> 为对抗特征向量的第m个子向量,zm为原始图像的特征向量的第m个子向量,cmk为原始图像的特征向量的第m个子向量的第k个量化中心,cmk′为原始图像的特征向量的第m个子向量的第k′个量化中心,m=1,2,...,M,k=1,2,...,K,k′=1,2,...,K,ε为预设噪声扰动强度。
S40、基于所述损失函数对所述预设网络模型进行反向传播,以得到所述原始图像对应的对抗样本。
具体地,所述反向传播的初始对抗样本可以为原始图像,可以理解的是,所述原始图像为反向传播的初始样本。如图2所示,在确定反向传播的初始样本后,基于损失函数采用快速梯度迭代更新(FGSM)的方法,通过卷积网络模块的反向传播对初始对抗样本进行迭代更新,以得到原始图像对应的对抗样本。
进一步,在本实施例的一个实现方式中,当损失函数为 时,可以在乘积量化中心分布峰值产生扰动,从而提高对抗样本的有效性。此外,在损失函数为时,反向传播过程可以通过梯度更新得到,其中,梯度更新过程如下:
其中,Clipε{x′}=min{255,x+ε,max{0,x-ε,x′}},ε为预设噪声扰动强度,为第t次反向迭代得到的对抗样本,/>第t+1次反向迭代得到的对抗样本,x为原始图像,x′表示进行Clipε{}中参数。
进一步,在本实施例的一个实现方式中,当损失函数为时,可以使得攻击原始图像的整体中心分布更加合理,并且可以得到更好的攻击效果,从而提供对抗样本的有效性。当损失函数为时,反向传播过程通过梯度更新得到,其中,梯度更新过程如下:
其中,Clipε{x′}=min{255,x+ε,max{0,x-ε,x′}},ε为预设噪声扰动强度,为第t次反向迭代得到的对抗样本,/>第t+1次反向迭代得到的对抗样本,x为原始图像,x′表示进行Clipε{}中参数。
进一步,在本实施例的一个实现方式中,所述基于所述损失函数对所述预设网络模型进行反向传播,以得到所述原始图像对应的对抗样本之后,所述方法还包括:
将所述对抗样本作为初始对抗样本,并继续执行将所述原始图像对应的初始对抗样本输入至所述预设网络模型的步骤,直至所述对抗样本满足预设条件。
具体地,在通过反向传播生成对抗样本后,可以判断所述对抗样本对应的反向传播次数是否达到预设阈值,即所述对抗样本是否满足预设条件,当反向传播次数达到预设阈值,则说明对抗样本满足预设条件,将所述对抗样本作为所述原始图像对应的对抗样本;当反向传播次数未达到预设阈值,则说明对抗样本未满足预设条件,将所述对抗样本作为原始图像对应的初始对抗样本,继续执行将所述原始图像对应的初始对抗样本输入至所述预设网络模型的步骤,执行对抗样本满足预设条件。这样通过对对抗样本进行多次迭代以进行多次反向传播,可以使得对抗样本与原始图像产生差异性,从而提高对抗样本的有效性。
进一步,为了对抗样本的有效性以及迁移性进行说明,下面训练集CIFAR-10和NUS-WIDE以及预训练好的网络Alex和VGG系列上进行对对抗样本进行测试,其中,对抗样本的有效性如下下表所示:
其中,方法一中的损失函数为:
其中,x为原始图像,为对抗样本,/>为对抗样本的特征向量,FCNN(x)为原始图像的特征向量,ε为预设噪声扰动强度;
基于上述损失函数的反向传播更新:采用快速梯度迭代更新((FGSM)的方法,借助卷积网络模块的反向传播迭代更新得到对抗样本,其中,每一步迭代可以由下面的梯度更新得到:
其中,Clipε{x′}=min{255,x+ε,max{0,x-ε,x′}}。
方法二中的损失函数为:
方法三中的损失函数为:
基于上述深度乘积量化的对抗样本生成方法,本实施例还提供了一种电子设备,其包括存储器和处理器,所述存储器存储有计算机程序,其中,所述处理器执行所述计算机程序时实现所述方法的步骤。
对抗样本的迁移性如下:
方法三比特迁移性
方法三模型迁移性
基于上述深度乘积量化的对抗样本生成方法,本实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现所述的基于深度乘积量化的对抗样本生成方法的步骤。
可以理解的是,对本领域普通技术人员来说,可以根据本发明的技术方案及其发明构思加以等同替换或改变,而所有这些改变或替换都应属于本发明所附的权利要求的保护范围。
Claims (9)
1.一种基于深度乘积量化的对抗样本生成方法,其特征在于,其包括:
将原始图像输入至预设网络模型,以通过所述预设网络模型输出原始图像对应的量化分配中心向量,其中,所述预设网络模型包括卷积网络模块以及乘积量化模块,所述卷积网络模块与所述乘积量化模块相连接,所述卷积网络模块用于提取所述卷积网络模块的输入项的特征向量,所述乘积量化模块用于对所述特征向量进行乘积量化;
将所述原始图像对应的初始对抗样本输入至所述预设网络模型,以得到所述初始对抗样本对应的对抗特征向量;
基于所述量化分配中心向量以及所述对抗特征向量,确定所述初始对抗样本对应的损失函数;
基于所述损失函数对所述预设网络模型进行反向传播,以得到所述原始图像对应的对抗样本。
2.根据权利要求1所述基于深度乘积量化的对抗样本生成方法,其特征在于,所述将原始图像输入至预设网络模型,以通过所述预设网络模型输出原始图像对应的量化分配中心向量具体包括:
将所述原始图像输入至所述卷积网络模块,通过所述卷积网络模块输出所述原始图像对应的特征向量;
将所述特征向量输入至乘积量化模块,并通过所述乘积量化模块输出所述原始图像对应的量化分配中心向量。
3.根据权利要求1所述基于深度乘积量化的对抗样本生成方法,其特征在于,所述基于所述量化分配中心向量以及所述对抗特征向量,确定所述初始对抗样本对应的损失函数具体包括:
基于所述量化分配中心向量以及所述对抗特征向量,确定所述初始对抗样本对应的量化中心分配概率;
根据所述量化中心分配概率确定所述初始对抗样本对应的损失函数。
4.根据权利要求3所述基于深度乘积量化的对抗样本生成方法,其特征在于,所述损失函数的表达式为:
其中,x为原始图像,为对抗样本,/>bm为量化分配中心向量的第m个子向量,/>为对抗特征向量的第m个子向量,cmk为原始图像的特征向量的第m个子向量的第k个量化中心,cmk′为原始图像的特征向量的第m个子向量的第k′个量化中心,m=1,2,...,M,k=1,2,...,K,k′=1,2,...,K,ε为预设噪声扰动强度。
5.根据权利要求3所述基于深度乘积量化的对抗样本生成方法,其特征在于,所述损失函数的表达式为:
其中,x为原始图像,为对抗样本,/> 为对抗特征向量的第m个子向量,zm为原始图像的特征向量的第m个子向量,cmk为原始图像的特征向量的第m个子向量的第k个量化中心,cmk′为原始图像的特征向量的第m个子向量的第k′个量化中心,m=1,2,...,M,k=1,2,...,K,k′=1,2,...,K,ε为预设噪声扰动强度。
6.根据权利要求1-5任一所述基于深度乘积量化的对抗样本生成方法,其特征在于,所述基于所述损失函数对所述预设网络模型进行反向传播,以得到所述原始图像对应的对抗样本之后,所述方法还包括:
将所述对抗样本作为初始对抗样本,并继续执行将所述原始图像对应的初始对抗样本输入至所述预设网络模型的步骤,直至所述对抗样本满足预设条件。
7.根据权利要求6所述基于深度乘积量化的对抗样本生成方法,其特征在于,所述预设条件为对抗样本对应的反向传播次数达到预设阈值。
8.一种电子设备,包括存储器和处理器,所述存储器存储有可被所述处理器执行的计算机可读程序,其特征在于,所述存储器存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如权利要求1~7任一项所述的基于深度乘积量化的对抗样本生成方法的步骤。
9.一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,实现如权利要求1~7任一项所述的基于深度乘积量化的对抗样本生成方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010080718.1A CN111382837B (zh) | 2020-02-05 | 2020-02-05 | 一种基于深度乘积量化的对抗样本生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010080718.1A CN111382837B (zh) | 2020-02-05 | 2020-02-05 | 一种基于深度乘积量化的对抗样本生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111382837A CN111382837A (zh) | 2020-07-07 |
CN111382837B true CN111382837B (zh) | 2023-07-18 |
Family
ID=71218571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010080718.1A Active CN111382837B (zh) | 2020-02-05 | 2020-02-05 | 一种基于深度乘积量化的对抗样本生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111382837B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112380845B (zh) * | 2021-01-15 | 2021-04-09 | 鹏城实验室 | 句子噪声设计方法、设备及计算机存储介质 |
CN114036503B (zh) * | 2021-10-28 | 2024-04-30 | 广州大学 | 一种迁移攻击方法、装置、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108764472A (zh) * | 2018-05-18 | 2018-11-06 | 南京信息工程大学 | 卷积神经网络分数阶误差反向传播方法 |
CN110516695A (zh) * | 2019-07-11 | 2019-11-29 | 南京航空航天大学 | 面向医学图像分类的对抗样本生成方法及系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106296692A (zh) * | 2016-08-11 | 2017-01-04 | 深圳市未来媒体技术研究院 | 基于对抗网络的图像显著性检测方法 |
CN109544656B (zh) * | 2018-11-23 | 2023-05-23 | 南京信息工程大学 | 一种基于生成对抗网络的压缩感知图像重建方法及系统 |
CN109948663B (zh) * | 2019-02-27 | 2022-03-15 | 天津大学 | 一种基于模型抽取的步长自适应的对抗攻击方法 |
CN110688502B (zh) * | 2019-09-09 | 2022-12-27 | 重庆邮电大学 | 一种基于深度哈希和量化的图像检索方法及存储介质 |
-
2020
- 2020-02-05 CN CN202010080718.1A patent/CN111382837B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108764472A (zh) * | 2018-05-18 | 2018-11-06 | 南京信息工程大学 | 卷积神经网络分数阶误差反向传播方法 |
CN110516695A (zh) * | 2019-07-11 | 2019-11-29 | 南京航空航天大学 | 面向医学图像分类的对抗样本生成方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111382837A (zh) | 2020-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11556581B2 (en) | Sketch-based image retrieval techniques using generative domain migration hashing | |
Wang et al. | IK-SVD: dictionary learning for spatial big data via incremental atom update | |
Sun et al. | Atp: Directed graph embedding with asymmetric transitivity preservation | |
Makhzani et al. | K-sparse autoencoders | |
CN108334945B (zh) | 深度神经网络的加速与压缩方法及装置 | |
CN111382837B (zh) | 一种基于深度乘积量化的对抗样本生成方法 | |
Akhtar et al. | Attack to fool and explain deep networks | |
CN110765363B (zh) | 一种基于高斯分布表示的深度推荐系统 | |
Tao | Meta Learning Enabled Adversarial Defense | |
CN107977456A (zh) | 一种基于多任务深度网络的多源大数据分析方法 | |
Li et al. | Direct-optimization-based DC dictionary learning with the MCP regularizer | |
Le et al. | Task affinity with maximum bipartite matching in few-shot learning | |
CN115146055B (zh) | 一种基于对抗训练的文本通用对抗防御方法及系统 | |
CN115879508A (zh) | 一种数据处理方法及相关装置 | |
Oh et al. | ReFine: Re-randomization before Fine-tuning for Cross-domain Few-shot Learning | |
CN114782752A (zh) | 基于自训练的小样本图像集成分类方法及装置 | |
Ding et al. | Full‐reference image quality assessment using statistical local correlation | |
Malialis et al. | Data augmentation on-the-fly and active learning in data stream classification | |
Tao et al. | Efficient incremental training for deep convolutional neural networks | |
CN116884090A (zh) | 一种基于双重对抗网络的跨环境人体活动识别方法 | |
KR102393759B1 (ko) | 단말에서 동작하는 이미지 프로세싱 인공 신경망 모델 생성 방법 및 시스템 | |
CN113869193B (zh) | 行人再识别模型的训练方法、行人再识别方法及系统 | |
CN116152884A (zh) | 人脸图像的识别方法、装置、处理器及电子设备 | |
Gauksson | Adversarial perturbations and deformations for convolutional neural networks | |
Gupta et al. | Time series classification with meta learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |