CN114372537B - 一种面向图像描述系统的通用对抗补丁生成方法及系统 - Google Patents

一种面向图像描述系统的通用对抗补丁生成方法及系统 Download PDF

Info

Publication number
CN114372537B
CN114372537B CN202210049769.7A CN202210049769A CN114372537B CN 114372537 B CN114372537 B CN 114372537B CN 202210049769 A CN202210049769 A CN 202210049769A CN 114372537 B CN114372537 B CN 114372537B
Authority
CN
China
Prior art keywords
patch
image
loss function
countermeasure
countermeasure patch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210049769.7A
Other languages
English (en)
Other versions
CN114372537A (zh
Inventor
徐文渊
冀晓宇
程雨诗
张世博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202210049769.7A priority Critical patent/CN114372537B/zh
Publication of CN114372537A publication Critical patent/CN114372537A/zh
Application granted granted Critical
Publication of CN114372537B publication Critical patent/CN114372537B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种面向图像描述系统的通用对抗补丁生成方法及系统,该方法为:初始化对抗补丁;将对抗补丁通过RandomApply算法添加到随机图像中;将添加对抗补丁后的图像送入图像描述系统中,计算联合损失函数;对联合损失函数进行反向传播,通过优化器更新对抗补丁图像的像素值;经过预设次数的迭代后,即可生成可以使深度学习模型输出错误的对抗补丁。与现有对抗补丁相比,本发明首次在图像描述系统中实现对抗补丁,使图像描述系统错误输出为指定描述,并可以生成通用的对抗补丁,有效提高对抗补丁的稳定性和场景适应能力。

Description

一种面向图像描述系统的通用对抗补丁生成方法及系统
技术领域
本发明属于人工智能领域,涉及一种面向图像描述系统的通用对抗补丁生成方法及系统。
背景技术
近年来人工智能技术的不断发展,已经被用在了多种重要领域,图像描述系统就是其应用之一。图像描述是一种结合计算机视觉和自然语言处理的多模态系统,可以对图像所包含的内容进行准确识别,自动生成与图像中的内容相匹配的图像描述信息。
近些年来,针对图像的对抗样本成为人工智能领域的研究热点,图像对抗样本可以在人类无法察觉的情况下,使深度神经网络产生错误的输出结果,研究对抗样本对于保护智能识别系统的安全性具有重要的意义。物理对抗样本是一种特殊的对抗样本,不同于数字对抗样本,物理对抗样本只需要被摄像机捕捉,不需要入侵计算机系统就可以实现。但针对物理攻击的现有研究大多是为攻击图像分类器和目标检测器,目前没有针对图像描述系统的物理攻击。
发明内容
本发明提供一种面向图像描述系统的通用对抗补丁生成方法及系统,该方法利用了图像描述系统的注意力机制,可以根据目标描述语句生成对应的对抗补丁,有效实现在物理世界中对图像描述系统的鲁棒攻击,为图像描述系统的安全研究与防护提供了新的思路。
本发明的采用以下技术方案实现:
一种面向图像描述系统的通用对抗补丁生成方法,包括以下步骤:
1)输入目标描述语句,根据设计尺寸随机初始化对抗补丁;
2)随机选择一张图像,通过RandomApply算法将对抗补丁添加到该图像中。RandomApply算法首先将对抗补丁根据预设范围随机旋转、调整尺寸和调整亮度,然后将处理过后的对抗补丁叠加在选择图像的随机位置。RandomApply算法旨在提高对抗补丁的鲁棒性,其表达公式为:
x′=Applyl~L(x,l,Transt~T(patch,t))
式中patch是所生成的对抗补丁,x是原始选择的图片,x′是添加对抗补丁后的图像,T是预设旋转、调整尺寸和调整亮度参数的集合,t是随机选择得到的对抗补丁旋转、调整尺寸和调整亮度参数,Transt~T(patch,t)表示将对抗补丁按照随机得到的参数对对抗补丁进行随机旋转、调整尺寸和调整亮度,L是预设摆放位置的集合,l是随机选择得到的摆放位置,Applyl~L(x,l,Transt~T(patch,t)表示将随机变化后的Transt~T(patch,t)随机覆盖到原始选择的图像上。
3)将步骤2)生成的添加对抗补丁后的图像送入图像描述系统中,根据步骤1)中输入的目标描述语句计算注意力增强损失函数、目标描述损失函数和补丁平滑度损失函数,加权求得联合损失函数。所述的注意力增强损失函数用于增强图像描述系统对于对抗补丁的注意力权重;所述的目标描述损失函数用于使图像描述系统输出目标描述语句;所述的补丁平滑度损失函数用于提高对抗补丁在物理世界中的鲁棒性。该步骤具体包括以下四个子步骤:
(1)注意力增强损失函数计算。针对目标描述选择注意力单词和注意力区域,注意力单词选择:对抗补丁的目标描述为英文描述。针对英语单词中的十种不同单词类型,选择具有包含具体信息的实词作为注意力增强对象,包括名词、实意动词、副词、形容词、数词五种单词类型。注意力区域选择:图像描述系统识别过程中按照固定方格划分不同的区域。根据对抗补丁不同的摆放位置,选择不同的注意力区域,所述注意力区域的选择标准为对抗补丁占所在区域面积大于该区域的一半。根据上述过程中选择的注意力单词和注意力区域,得到注意力增强损失函数,其表达公式为:
Figure BDA0003473585240000021
式中T代表所有被选择的注意力单词所对应的LSTM网络的时间节点,I代表在输出对应注意力单词时所选择的注意力区域,α(i,t)表示在输出当前时间节点t时第i块区域的注意力权重,ε1代表对于当前单词的注意力权重上限。
(2)目标描述损失函数计算。根据图像描述系统和输入的添加对抗补丁后的图像,计算目标描述语句的联合概率,其表达公式为:
Figure BDA0003473585240000022
式中,S′={w′1,…,w′k}为目标描述语句,P(S′|x′)表示在输入图像为x′的情况下输出描述为S′的概率,pt为在LSTM网络的时间节点t所输出的对应单词表W中每一个单词的概率分布,单词表W为目标图像描述系统所有可输出单词的集合,k为目标描述语句的长度,w′k为目标描述语句中第k个单词,index(w′t)为单词w′t在单词表W中所对应的序号,
Figure BDA0003473585240000031
表示LSTM网络的时间节点t输出单词表中第i个单词的概率,P(w′t|x′,w′1,…,w′t-1)表示在LSTM网络的输入图片为x′且前序输入单词分别为w′1,…,w′t-1的情况下,计算得到的在本时间节点t输出单词为w′t的概率。
根据上述的联合概率计算C&W损失函数,并将其作为目标描述损失函数,其表达公式为:
Figure BDA0003473585240000032
式中,zt表示未归一化的概率分布pt
Figure BDA0003473585240000033
表示LSTM网络的时间节点t输出单词表中第i个单词的未归一化概率,ε2为常量,代表单个单词未归一化概率的优化上限。
(3)补丁平滑度损失函数计算。补丁平滑度损失函数的计算方法为:计算相邻像素的像素值之差的平方和。在物理世界的实现中,相机难以捕捉到对抗补丁的每一个像素值,基于此,需要使对抗补丁更加平滑,以减少其在被相机拍摄时的失真,在训练过程中加入补丁平滑度损失函数来限制对抗补丁的平滑度,其表达公式为:
Figure BDA0003473585240000034
式中,Patchi,j表示对抗补丁第i行第j列处的像素值。
(4)针对上述注意力增强损失函数、目标描述损失函数和补丁平滑度损失函数,加权求和得到联合损失函数,其表达公式为:
Loss=α*Loss1+β*Loss2+γ*Loss3
式中,α、β、γ分别为三种损失函数所对应的权重。·
4)根据步骤3)求得的联合损失函数进行反向传播,然后通过优化器更新对抗补丁图像的像素值。选择优化器为SGD优化器,结合反向传播得到的对抗补丁的梯度
Figure BDA0003473585240000035
使用SGD优化器最小化联合损失函数并更新对抗补丁的像素值:
Figure BDA0003473585240000036
其中,PatchN为上次迭代后的对抗补丁,PatchN+1为本次迭代后的对抗补丁。
5)检查是否达到预设迭代次数,若未达到预设迭代次数则回到步骤2)开始新的迭代,若达到则输出对抗补丁图像。迭代完成后即可生成可以使深度学习模型输出错误的对抗补丁。
本发明还提供一种面向图像描述系统的通用对抗补丁生成系统,该系统包括对抗补丁添加模块、损失函数计算模块和对抗补丁优化模块;
所述的对抗补丁添加模块负责初始化对抗补丁并添加到随机图像中;
所述的损失函数计算模块负责计算联合损失函数;
所述的对抗补丁优化模块负责更新对抗补丁图像的像素值;
该系统采用上述方法实现面向图像描述系统的通用对抗补丁的生成。
本发明的有益效果为:
与现有对抗补丁相比,本发明首次在图像描述系统中实现对抗补丁,使图像描述系统错误输出为指定描述,并结合图像描述系统注意力机制和对抗补丁的特点提出了注意力损失函数,提高了对抗补丁的能力,为图像描述系统等多模态机器学习系统的安全分析与防护提供了新的指导。
附图说明
图1是本发明实施例的方法流程图;
图2是本发明所提供的注意力区域选择实例。
具体实施方式
下面结合实施例和说明书附图对本发明做进一步说明。
本发明实施例的方法流程,如图1所示。
一种面向图像描述系统的通用对抗补丁生成方法,该方法包括以下步骤:
1)输入目标描述语句,根据设计尺寸随机初始化对抗补丁;
2)随机选择一张图像,通过RandomApply算法将对抗补丁添加到该图像中。RandomApply算法首先将对抗补丁根据预设范围随机旋转、调整尺寸和调整亮度,然后将处理过后的对抗补丁叠加在选择图像的随机位置。RandomApply算法旨在提高对抗补丁的鲁棒性,其表达公式为:
x′=Applyl~L(x,l,Transt~T(patch,t))
式中patch是所生成的对抗补丁,x是原始选择的图片,x′是添加对抗补丁后的图像,T是预设旋转、调整尺寸和调整亮度参数的集合,是随机选择得到的对抗补丁旋转、调整尺寸和调整亮度参数,Transt~T(patch,t)表示将对抗补丁按照随机得到的参数对对抗补丁进行随机旋转、调整尺寸和调整亮度,L是预设摆放位置的集合,l是随机选择得到的摆放位置,Applyl~L(x,l,Transt~T(patch,t)表示将随机变化后的Transt~T(patch,t)随机覆盖到原始选择的图像上。
3)将步骤2)生成的添加对抗补丁后的图像送入图像描述系统中,根据步骤1)中输入的目标描述语句计算注意力增强损失函数、目标描述损失函数和补丁平滑度损失函数,加权求得联合损失函数。该步骤具体包括以下四个子步骤:
(1)注意力增强损失函数计算。针对目标描述选择注意力单词和注意力区域,注意力单词选择:对抗补丁的目标描述为英文描述。针对英语单词中的十种不同单词类型,选择具有包含具体信息的实词作为注意力增强对象,包括名词、实意动词、副词、形容词、数词五种单词类型。注意力区域选择:图像描述系统识别过程中按照固定方格划分不同的区域。根据对抗补丁不同的摆放位置,选择不同的注意力区域,选择的标准为对抗补丁占所在注意力区域面积大于该区域的一半,选择实例如图2所示,添加对抗补丁后的图像被分为8×8的注意力区域,框A为对抗补丁所在位置,V1、V2、V3和V4为选择的注意力区域。根据上述过程中选择的注意力单词和注意力区域,得到注意力增强损失函数,其表达公式为:
Figure BDA0003473585240000051
式中T代表所有被选择的注意力单词所对应的LSTM网络的时间节点,I代表在输出对应注意力单词时所选择的注意力区域,α(i,t)表示在输出当前时间节点t时第i块区域的注意力权重,ε1代表对于当前单词的注意力权重上限。
(2)目标描述损失函数计算。根据图像描述系统和输入的添加对抗补丁后的图像,计算目标描述语句的联合概率,其表达公式为:
Figure BDA0003473585240000052
式中,S′={w′1,…,w′k}为目标描述语句,P(S′|x′)表示在输入图像为x′的情况下输出描述为S′的概率,pt为在LSTM网络的时间节点t所输出的对应单词表W中每一个单词的概率分布,k为目标描述语句的长度,w′k为目标描述语句中第k个单词,index(w′t)为单词w′t在单词表W中所对应的序号,单词表W为目标图像描述系统所有可输出单词的集合,
Figure BDA0003473585240000053
表示LSTM网络的时间节点t输出单词表中第i个单词的概率,P(w′t|x′,w′1,…,w′t-1)表示在LSTM网络的输入图片为x′且前序输入单词分别为w′1,…,w′t-1的情况下,计算得到的在本时间节点t输出单词为w′t的概率。
根据上述的联合概率计算C&W损失函数,并将其作为目标描述损失函数,其表达公式为:
Figure BDA0003473585240000061
式中,zt表示未归一化的概率分布pt
Figure BDA0003473585240000062
表示LSTM网络的时间节点t输出单词表中第i个单词的未归一化概率,ε2为常量,代表单个单词未归一化概率的优化上限。
(3)补丁平滑度损失函数计算。补丁平滑度损失函数的计算方法为:计算相邻像素的像素值之差的平方和。在物理世界的实现中,相机难以捕捉到对抗补丁的每一个像素值,基于此,需要使对抗补丁更加平滑,以减少其在被相机拍摄时的失真,在训练过程中加入补丁平滑度损失函数来限制对抗补丁的平滑度,其表达公式为:
Figure BDA0003473585240000063
式中,Patchi,j表示对抗补丁第i行第j列处的像素值。
(4)针对上述注意力增强损失函数、目标描述损失函数和补丁平滑度损失函数,加权求和得到联合损失函数,其表达公式为:
Loss=α*Loss1+β*Loss2+γ*Loss3
式中,α、β、γ分别为三种损失函数所对应的权重。·
4)根据步骤3)求得的联合损失函数进行反向传播,然后通过优化器更新对抗补丁图像的像素值。选择优化器为SGD优化器,结合反向传播得到的对抗补丁的梯度
Figure BDA0003473585240000064
使用SGD优化器最小化联合损失函数并更新对抗补丁的像素值:
Figure BDA0003473585240000065
其中,PatchN为上次迭代后的对抗补丁,PatchN+1为本次迭代后的对抗补丁。
5)检查是否达到预设迭代次数,迭代次数通常为500,000次,若未达到预设迭代次数则回到步骤2)开始新的迭代,若达到则输出对抗补丁图像。

Claims (8)

1.一种面向图像描述系统的通用对抗补丁生成方法,其特征在于,该方法包括以下步骤:
1)输入目标描述语句,根据设计尺寸随机初始化对抗补丁;
2)随机选择一张图像,通过RandomApply算法将对抗补丁添加到该图像中;其中,RandomApply算法首先将对抗补丁根据预设范围随机旋转、调整尺寸和调整亮度,然后将处理后的对抗补丁叠加在选择图像的随机位置;
3)将步骤2)生成的添加对抗补丁后的图像送入图像描述系统中,根据步骤1)中输入的目标描述语句计算注意力增强损失函数、目标描述损失函数和补丁平滑度损失函数,加权求得联合损失函数;所述的注意力增强损失函数用于增强图像描述系统对于对抗补丁的注意力权重;所述的目标描述损失函数用于使图像描述系统输出目标描述语句;所述的补丁平滑度损失函数用于提高对抗补丁在物理世界中的鲁棒性;
4)根据步骤3)求得的联合损失函数进行反向传播,然后通过优化器更新对抗补丁的像素值;
5)检查是否达到预设迭代次数,若未达到预设迭代次数则回到步骤2)开始新的迭代,若达到则输出对抗补丁;
步骤3)中,所述的注意力增强损失函数的计算包括以下步骤:
(1)注意力单词选择:对抗补丁的目标描述为英文描述,针对英语单词中的十种不同单词类型,选择具有包含具体信息的实词作为注意力增强的对象,所述的包含具体信息的实词包括名词、实意动词、副词、形容词、数词五种单词类型;
(2)注意力区域选择:图像描述系统识别过程中按照固定方格划分不同的区域;根据对抗补丁不同的摆放位置,选择不同的注意力区域,选择的标准为对抗补丁占所在区域面积大于该区域的一半;
(3)根据步骤(1)选择的注意力单词和步骤(2)选择的注意力区域,得到注意力增强损失函数,其表达公式为:
Figure FDA0003792015030000011
式中T代表所有被选择的注意力单词所对应的LSTM网络的时间节点,I代表在输出对应注意力单词时所选择的注意力区域,α(i,t)表示在输出当前时间节点t时第i块区域的注意力权重,ε1代表对于当前单词的注意力权重上限。
2.根据权利要求1所述的面向图像描述系统的通用对抗补丁生成方法,其特征在于,所述图像描述系统为以CNN网络作为编码器、以LSTM网络作为解码器的图像描述系统。
3.根据权利要求1所述的面向图像描述系统的通用对抗补丁生成方法,其特征在于,步骤2)中,所述的RandomApply算法的表达公式为:
x′=Applyl~L(x,l,Transt~T(patch,t))
式中patch是所生成的对抗补丁,x是原始选择的图片,x′是添加对抗补丁后的图像,T是预设旋转、调整尺寸和调整亮度参数的集合,t是随机选择得到的对抗补丁旋转、调整尺寸和调整亮度参数,Transt~T(patch,t)表示将对抗补丁按照随机得到的参数对对抗补丁进行随机旋转、调整尺寸和调整亮度,L是预设摆放位置的集合,l是随机选择得到的摆放位置,Applyl~L(x,l,Transt~T(patch,t))表示将随机变化后的Transt~T(patch,t)随机覆盖到原始选择的图像上。
4.根据权利要求1所述的面向图像描述系统的通用对抗补丁生成方法,其特征在于,步骤3)中,所述的目标描述损失函数的计算包括以下步骤:
(1)根据图像描述系统和输入的添加对抗补丁后的图像,计算目标描述语句的联合概率,其表达公式为:
Figure FDA0003792015030000021
式中,S′={w′1,...,w′k}为目标描述语句,P(S′|x′)表示在输入图像为x′的情况下输出描述为S′的概率,pt为在LSTM网络的时间节点t所输出的对应单词表W中每一个单词的概率分布,k为目标描述语句的长度,w′k为目标描述语句中第k个单词,index(w′t)为单词w′t在单词表W中所对应的序号,所述的单词表W为目标图像描述系统所有可输出单词的集合,
Figure FDA0003792015030000024
表示LSTM网络的时间节点t输出单词表中第i个单词的概率,P(w′t|x′,w′1,...,w′t-1)表示在LSTM网络的输入图片为x′且前序输入单词分别为w′1,...,w′t-1的情况下,计算得到的在本时间节点t输出单词为w′t的概率;
(2)根据步骤(1)得到的联合概率计算C&W损失函数,并将其作为目标描述损失函数,其表达公式为:
Figure FDA0003792015030000022
式中,zt表示未归一化的概率分布pt,
Figure FDA0003792015030000023
表示LSTM网络的时间节点t输出单词表中第i个单词的未归一化概率,ε2为常量,代表单个单词未归一化概率的优化上限。
5.根据权利要求1所述的面向图像描述系统的通用对抗补丁生成方法,其特征在于,步骤3)中,所述的补丁平滑度损失函数的计算方法为计算相邻像素的像素值之差的平方和,其表达公式为:
Figure FDA0003792015030000031
式中,Patchi,j表示对抗补丁第i行第j列处的像素值。
6.根据权利要求1所述的面向图像描述系统的通用对抗补丁生成方法,其特征在于,步骤3)中,所述的联合损失函数为注意力增强损失函数、目标描述损失函数和补丁平滑度损失函数的加权和,其表达公式为:
Loss=α*Loss1+β*Loss2+γ*Loss3
式中,α、β、γ分别为三种损失函数所对应的权重。
7.根据权利要求1所述的面向图像描述系统的通用对抗补丁生成方法,其特征在于,步骤4)中的优化器为SGD优化器,结合反向传播得到的对抗补丁的梯度
Figure FDA0003792015030000033
使用SGD优化器最小化联合损失函数并更新对抗补丁的像素值:
Figure FDA0003792015030000032
其中,PatchN为上次迭代后的对抗补丁,PatchN+1为本次迭代后的对抗补丁。
8.一种面向图像描述系统的通用对抗补丁生成系统,其特征在于,该系统包括对抗补丁添加模块、损失函数计算模块和对抗补丁优化模块;
所述的对抗补丁添加模块负责初始化对抗补丁并添加到随机图像中;
所述的损失函数计算模块负责计算联合损失函数;
所述的对抗补丁优化模块负责更新对抗补丁的像素值;
该系统采用如权利要求1-7任一项所述的方法实现面向图像描述系统的通用对抗补丁的生成。
CN202210049769.7A 2022-01-17 2022-01-17 一种面向图像描述系统的通用对抗补丁生成方法及系统 Active CN114372537B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210049769.7A CN114372537B (zh) 2022-01-17 2022-01-17 一种面向图像描述系统的通用对抗补丁生成方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210049769.7A CN114372537B (zh) 2022-01-17 2022-01-17 一种面向图像描述系统的通用对抗补丁生成方法及系统

Publications (2)

Publication Number Publication Date
CN114372537A CN114372537A (zh) 2022-04-19
CN114372537B true CN114372537B (zh) 2022-10-21

Family

ID=81143321

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210049769.7A Active CN114372537B (zh) 2022-01-17 2022-01-17 一种面向图像描述系统的通用对抗补丁生成方法及系统

Country Status (1)

Country Link
CN (1) CN114372537B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108229479A (zh) * 2017-08-01 2018-06-29 北京市商汤科技开发有限公司 语义分割模型的训练方法和装置、电子设备、存储介质
WO2020108165A1 (zh) * 2018-11-30 2020-06-04 腾讯科技(深圳)有限公司 图像描述信息生成方法和装置及电子装置
CN111488916A (zh) * 2020-03-19 2020-08-04 天津大学 一种基于训练集数据的对抗攻击方法
CN111898731A (zh) * 2020-06-24 2020-11-06 北京航空航天大学 基于偏见的通用对抗补丁生成方法和装置
CN112241790A (zh) * 2020-12-16 2021-01-19 北京智源人工智能研究院 小型对抗补丁生成方法及装置
CN112819091A (zh) * 2021-02-22 2021-05-18 武汉工程大学 面向跨语言描述的对抗性数据增强方法、系统及存储介质
CN113554040A (zh) * 2021-09-07 2021-10-26 西安交通大学 一种基于条件生成对抗网络的图像描述方法、装置设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108229479A (zh) * 2017-08-01 2018-06-29 北京市商汤科技开发有限公司 语义分割模型的训练方法和装置、电子设备、存储介质
WO2020108165A1 (zh) * 2018-11-30 2020-06-04 腾讯科技(深圳)有限公司 图像描述信息生成方法和装置及电子装置
CN111488916A (zh) * 2020-03-19 2020-08-04 天津大学 一种基于训练集数据的对抗攻击方法
CN111898731A (zh) * 2020-06-24 2020-11-06 北京航空航天大学 基于偏见的通用对抗补丁生成方法和装置
CN112241790A (zh) * 2020-12-16 2021-01-19 北京智源人工智能研究院 小型对抗补丁生成方法及装置
CN112819091A (zh) * 2021-02-22 2021-05-18 武汉工程大学 面向跨语言描述的对抗性数据增强方法、系统及存储介质
CN113554040A (zh) * 2021-09-07 2021-10-26 西安交通大学 一种基于条件生成对抗网络的图像描述方法、装置设备

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Attacking Visual Language Grounding with Adversarial Examples:;Hongge Chen;《arxiv》;20180522;正文 *
Exact Adversarial Attack to Image Captioning;Yan Xu;《IEEE》;20200109;正文 *
学界 | 继图像识别后,图像标注系统也被对抗样本攻陷!;Hongge Chen;《搜狐》;20171210;参见对比文件2正文 *
对抗补丁(Adversarial Patch)攻击;小安;《知乎》;20210914;参见对比文件3正文 *

Also Published As

Publication number Publication date
CN114372537A (zh) 2022-04-19

Similar Documents

Publication Publication Date Title
US11908244B2 (en) Human posture detection utilizing posture reference maps
CN107945204B (zh) 一种基于生成对抗网络的像素级人像抠图方法
CN111950453B (zh) 一种基于选择性注意力机制的任意形状文本识别方法
CN109214327B (zh) 一种基于pso的反人脸识别方法
CN110532897B (zh) 零部件图像识别的方法和装置
Lin et al. Hyperspectral image denoising via matrix factorization and deep prior regularization
US20220101654A1 (en) Method for recognizing actions, device and storage medium
CN111598805A (zh) 一种基于vae-gan的对抗样本防御方法及系统
CN111798400A (zh) 基于生成对抗网络的无参考低光照图像增强方法及系统
CN111783748B (zh) 人脸识别方法、装置、电子设备及存储介质
CN110046574A (zh) 基于深度学习的安全帽佩戴识别方法及设备
CN113420731A (zh) 模型训练方法、电子设备及计算机可读存储介质
CN110826534B (zh) 一种基于局部主成分分析的人脸关键点检测方法及系统
CN113378812A (zh) 一种基于Mask R-CNN和CRNN的数字表盘识别方法
WO2023087063A1 (en) Method and system for analysing medical images to generate a medical report
Feng et al. Digital watermark perturbation for adversarial examples to fool deep neural networks
CN115170403A (zh) 基于深度元学习和生成对抗网络的字体修复方法及系统
CN114372537B (zh) 一种面向图像描述系统的通用对抗补丁生成方法及系统
CN117252778A (zh) 基于语义保持的颜色恒常性方法和系统
CN110110651B (zh) 基于时空重要性和3d cnn的视频中行为识别方法
CN112686249B (zh) 一种基于对抗补丁的Grad-CAM攻击方法
CN114638408A (zh) 一种基于时空信息的行人轨迹预测方法
Min et al. Adversarial attack? don't panic
RU2773232C1 (ru) Способ и устройство для определения позы человека, устройство и носитель данных
CN114742170B (zh) 对抗样本生成方法、模型训练方法、图像识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant