CN115841681A - 一种基于通道注意力的行人再识别对抗攻击方法 - Google Patents

一种基于通道注意力的行人再识别对抗攻击方法 Download PDF

Info

Publication number
CN115841681A
CN115841681A CN202211353732.XA CN202211353732A CN115841681A CN 115841681 A CN115841681 A CN 115841681A CN 202211353732 A CN202211353732 A CN 202211353732A CN 115841681 A CN115841681 A CN 115841681A
Authority
CN
China
Prior art keywords
image
pedestrian
neural network
convolutional neural
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211353732.XA
Other languages
English (en)
Inventor
张琳钰
王进
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nantong University
Original Assignee
Nantong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nantong University filed Critical Nantong University
Priority to CN202211353732.XA priority Critical patent/CN115841681A/zh
Publication of CN115841681A publication Critical patent/CN115841681A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)

Abstract

本申请公开了一种基于通道注意力的行人再识别对抗攻击方法,该方法包括:基于掩码算法mask和ECA通道注意力,构建卷积神经网络;基于行人图像训练集,获取卷积神经网络的输入图像;基于输入图像和卷积神经网络,获取输入图像中的深度特征;基于损失函数,获取深度特征的损失值并优化卷积神经网络,得到深度神经网络;基于深度神经网络和待查询图像,获取待查询图像的最终特征;基于最终特征与行人图像的特征向量之间的相似度,获得待查询图像的匹配结果。本申请提出对抗性注意力机制的行人再识别攻击方法,破坏掩码mask的打分规则来打破原有的通道注意力权重,提高了注意力机制对行人再识别系统的鲁棒性。

Description

一种基于通道注意力的行人再识别对抗攻击方法
技术领域
本申请属于监控安防技术领域,具体涉及一种基于通道注意力的行人再识别对抗攻击方法。
背景技术
行人再识别是计算机视觉领域的一项研究热点任务,目的是从非重叠视域的拍摄设备所捕获的行人图片中,识别出特定的行人。行人再识别技术在视频监控、公共安全的罪犯识别领域中具有广泛的运用,包括寻找嫌犯和失踪人士、跨摄像头的人员追踪和行为研究等。
从2016年起,随着深度学习相关研究的蓬勃发展,基于深度学习的行人再识别逐渐取得一系列显著的成效。但是神经网络的脆弱性在各种应用中引起了越来越多的关注。Zeng等和Zhao等研究表明,基于深度神经网络的输出很容易受到输入上细微扰动的攻击。在现实世界的自动驾驶领域中,攻击者在原交通标志上添加一个对抗性图案或一束光后,交通标志识别系统可能会判别失误,输出错误的结果,导致道路事故。在行人再识别领域中,研究人员发现基于深度学习的行人再识别模型同样沿袭了神经网络的脆弱性,容易受到对抗样本的攻击,同一行人在不同摄像机下的匹配相似度则明显降低。若在视频监控中部署商业行人再识别系统时受到此漏洞攻击,安全风险则大大增加。如果犯罪分子利用这种对抗攻击来逃跑或欺骗监控系统的搜查,这会对社会构成重大威胁。因此,研究行人再识别系统中的各种对抗攻击方法,具有重大的意义。该意义在于,对抗攻击类似于一种安全测试,能够提前发现行人再识别系统的弱点,为改进并提高系统鲁棒性指明了方向。
最近注意力机制在计算机视觉任务中被广泛应用,它指的是人类视觉在学习图像时能够迅速评估任务相关的目标区域。出于这个原因,许多研究人员利用注意力机制来解决行人图像中的背景噪声和遮挡等问题。但Agrawal等指出基于注意力机制的模型会同等重视非鲁棒性特征和鲁棒性特征,从而第一次尝试分析在流行的白盒和黑盒攻击下,基于注意力和非基于注意力的模型对于对抗攻击鲁棒性的研究。随之,Lovisotto G等提出面临对抗性补丁攻击时,点积注意力权重成为Transformer架构设计中主要漏洞的来源,解释了基于点积注意力的网络对针对安全关键漏洞对抗攻击的鲁棒性,表明进一步的防御工作部署到实际安全应用中是非常重要的。但现在的注意力机制对行人再识别系统的鲁棒性还很少被研究,分析行人再识别系统抵御注意力机制相关攻击的鲁棒性应该被重视。
发明内容
本申请提供一种基于通道注意力的行人再识别对抗攻击方法,以解决现有注意力机制对行人再识别系统的鲁棒性不够的技术问题。
为解决上述技术问题,本申请采用的一个技术方案是:一种基于通道注意力的行人再识别对抗攻击方法,包括以下步骤:
基于掩码算法mask和ECA通道注意力,构建卷积神经网络;基于行人图像训练集,获取卷积神经网络的输入图像;基于输入图像和卷积神经网络,获取输入图像中的深度特征;基于损失函数,获取深度特征的损失值并优化卷积神经网络,得到深度神经网络;基于深度神经网络和待查询图像,获取待查询图像的最终特征;基于最终特征与行人图像的特征向量之间的相似度,获得待查询图像的匹配结果。
进一步,基于掩码算法mask和ECA通道注意力,构建卷积神经网络的方法,包括以下步骤:
基于行人图像训练集和初始卷积神经网络,获取包含行人图像的初级映射特征的ImageNet数据集;基于ImageNet数据集,对ResNet50模型进行预训练;基于已经进行预训练的ResNet50模型,将用于打破原有注意力权重的掩码算法mask添加到Resnet50模型的中间层的特征图中,获取卷积神经网络。
进一步,基于输入图像和卷积神经网络,获取输入图像中的深度特征的方法,包括以下步骤:
基于卷积神经网络和输入图像,获取输入图像的对抗性权重图;基于对抗性权重图与预设对抗性阈值的差值,获取输入图像中的深度特征。
进一步,基于对抗性权重图与预设对抗性阈值的差值,获取输入图像中的深度特征的方法,包括以下步骤:
响应于对抗性权重图与预设对抗性阈值之间的第一差值大于等于零,则降低对抗性权重图中的对抗性权重,获取深度特征;
响应于对抗性权重图与预设对抗性阈值之间的第一差值小于零,则提高对抗性权重图中的对抗性权重,获取深度特征。
进一步,损失函数为基于对抗三元组损失函数和对抗身份损失模型的组合函数。
进一步,对抗三元组损失函数用于通过公式(1)攻击预测排序,公式(1)为:
Figure BDA0003920081040000031
其中,Ck是第K个行人ID中抽取的样本数量,
Figure BDA0003920081040000033
是一个小批量中第K个行人ID中的第c个图像,Cp、Ck分别是来自同一ID和不同ID的样本,/>
Figure BDA0003920081040000034
是范数的平方作为距离度量,α是一个边界阈值;距离采用欧氏距离度量,[]表示在[]+内的值大于零的时候,取该值为损失,小于零的时候,损失则为零。
进一步,对抗身份损失模型通过公式(2)掩饰针对非目标攻击,其中公式(2)为:
Figure BDA0003920081040000032
其中,S表示log_softmax函数;K是行人ID的总数;ν=[1/k-1,…,0,…1/k-1]是平滑正则化,除了当k是真实的身份时,其他时候νk=1/k-1;arg min表示返回输出概率向量的最小值的索引。
进一步,基于最终特征与行人图像的特征向量之间的相似度,获得待查询图像的匹配结果的方法,包括以下步骤:
选择识别模型,将深度神经网络添加至识别模型中;基于待查询图像和识别模型,获取待查询图像中的行人图像的特征向量;基于最终特征与人图像的特征向量之间的第二差值,确定匹配结果。
进一步,基于最终特征与人图像的特征向量之间的第二差值,确定匹配结果的方法,包括:
响应于第二差值越大,则待查询图像的匹配错误的结果越多;响应于第二差值越小,则待查询图像的匹配错误的结果越少。
本申请的有益效果是:本申请通过提出对抗性注意力机制的行人再识别攻击方法,破坏掩码mask的打分规则来打破原有的通道注意力权重,混淆关注点,与其他对抗样本生成方法相比,同时具有攻击有效性强和扰动性低的特点。本申请联合对抗三元组损失与对抗身份损失监督网络训练,在保证攻击效果的同时,更加稳定了攻击过程,进一步增强了攻击效果,提高了注意力机制对行人再识别系统的鲁棒性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图,其中:
图1是本申请的基于通道注意力的行人再识别对抗攻击方法一实施例的流程示意图;
图2是本申请的基于通道注意力的行人再识别对抗攻击方法另一实施例的流程示意图;
图3是图1中的步骤S1一实施例的流程示意图;
图4是图1中的步骤S3一实施例的流程示意图;
图5是图4中的步骤S32一实施例的流程示意图;
图6是图1中的步骤S6一实施例的流程示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
如图1所示,图1是本申请的基于通道注意力的行人再识别对抗攻击方法一实施例的流程示意图。该方法包括以下步骤:
步骤S1.基于掩码算法mask和ECA通道注意力,构建卷积神经网络。
具体的,本申请使用掩码算法mask对原本应该更受关注的区域进行干扰,以使得原本没有太关注的地方依旧保留,从而实现对行人再识别系统的攻击。
如图2-3所示,图2是本申请的基于通道注意力的行人再识别对抗攻击方法另一实施例的流程示意图;图3是图1中的步骤S1一实施例的流程示意图。该步骤S1包括以下步骤:
步骤S11.基于行人图像训练集和初始卷积神经网络,获取包含行人图像的初级映射特征的ImageNet数据集。
具体的,将行人图像训练集中的行人图像被输入到初始卷积神经网络进行处理,获得所有行人图像的初级特征映射,形成ImageNet数据集。其中,该初始卷积神经网络可以为未受训练的ResNet50模型,也可以为其他未受训练的卷积神经网络。
步骤S12.基于ImageNet数据集,对ResNet50模型进行预训练。
具体的,使用ImageNet数据集中的数据,对卷积神经网络模型Resnet50进行预训练。其中,通过去掉最后的空间下采样操作、平均池化层和全连接层以获得更大的特征图,将初级特征映射输入到对抗性注意力模块来削弱行人图像中最具辨别力的部分,从而得到新的注意力特征。
步骤S13.基于已经进行预训练的ResNet50模型,将用于打破原有注意力权重的掩码算法mask添加到Resnet50模型的中间层的特征图中,获取卷积神经网络。
具体的,采用ECA通道注意力进行改进,训练过程中在ECA通道注意力中引入掩码算法mask与卷积神经网络模型Resnet50中间层的特征图相乘。掩码算法mask可以对对原本应该更受关注的区域进行干扰,以使得原本没有太关注的地方依旧保留,从而实现对行人再识别系统的攻击。
步骤S2.基于行人图像训练集,获取卷积神经网络的输入图像。
具体的,在本实施例中,行人图像训练集选用数据集Market-1501和DukeMTMC-reID,并分别从其中的上述训练集中选择K个行人图像作为卷积神经网络的输入。
其中,数据集Market-1501包含来自清华大学校园内六个摄像头采集的32668张图片和1501个行人,其中751个行人的12936张图片作为训练集,750个行人的19732张图片作为测试集,包括括3368张查询图片和16364张待查询图片。
数据集DukeMTMC-reID包含来自杜克大学校园内八个摄像头采集的36411张图片和1812个行人,有1404个行人出现在两个及以上的摄像头中。其中,1404个人又分为702个行人的16522张图片作为训练集,其他702个行人的2228张查询图片和17661张待查询图片作为测试集。
步骤S3.基于输入图像和卷积神经网络,获取输入图像中的深度特征。
如图4所示,图4是图1中的步骤S3一实施例的流程示意图。步骤S3的方法包括以下步骤:
步骤S31.基于卷积神经网络和输入图像,获取输入图像的对抗性权重图。
具体的,结合掩码算法mask,将卷积神经网络模型中等个原始注意力权重图P扰乱,从而得到对抗性注意力权重图P′实现攻击。将输入图像输入至卷积神经网络得到每个输入图像的对抗性权重图。
步骤S32.基于对抗性权重图与预设对抗性阈值的差值,获取输入图像中的深度特征。
具体的,在卷积神经网络模型训练过程中生成和通道注意力权重维度一样的张量,其中预先设定一个对抗性阈值y,使得权重系数一旦大于此预设阈值的权重都会逐渐趋近于0。在[0,1]范围内取y值试验对抗效应最有效的阈值结果,在攻击模型实验中,识别精度越低则说明攻击效果越好,意味着对抗性阈值取值越合适。
在本实施例中,本申请在AGW模型上用Market-1501和DukeMTMC-reID数据集做了对比实验,分别取了平均值、0.5、0.4、0.3四个值进行实施。
经数据分析后得出对抗性阈值取值为0.4最为合适,则当权重系数大于等于0.4时,对抗效应才会最有效。
如图5所示,图5是图4中的步骤S32一实施例的流程示意图。步骤S32的具体方法包括以下步骤:
步骤S321.响应于对抗性权重图与预设对抗性阈值之间的第一差值大于等于零,则降低对抗性权重图中的对抗性权重,获取深度特征。
具体的,若对抗性权重图的数值大于等于预设对抗性阈值,则需要将卷积神经网络中的抗性权重图的数值调低,并以此调低后的抗性权重图,获取对应的输入图像的深度特征。
步骤S322.响应于对抗性权重图与预设对抗性阈值之间的第一差值小于零,则提高对抗性权重图中的对抗性权重,获取深度特征。
具体的,若对抗性权重图的数值小于预设对抗性阈值,则需要将卷积神经网络中的抗性权重图的数值调高,并以此调高后的抗性权重图,获取对应的输入图像的深度特征。
步骤S4.基于损失函数,获取深度特征的损失值并优化卷积神经网络,得到深度神经网络。
具体的,将行输入图像的深度特征送入不同的损失函数中,获得深度特征对应的损失值,并基于得到的损失值优化卷积神经网络,得到深度神经网络。
损失函数设计为对抗三元组损失和对抗身份损失模型的组合函数。三元组损失是行人再识别任务中广泛采用的损失函数,它将最难的正数对拉近,将最难的负数对推远。简单来讲就是同一类人在不同摄像头下拍摄的行人图像特征距离拉近,不同的行人图像特征距离推远。
为进一步提高攻击性能,在训练期间对更加接近的类进行采样,以构造更难的小批量。这种扰乱排序损失函数来攻击预测的排序,是非常符合行人再识别任务的,因为Market-1501和DukeMTMC-reID数据集中各自训练集和测试集之间没有类别重叠,攻击最后的结果倾向于最小化不匹配对的距离,同时最大化匹配对的距离。对抗三元组损失函数如公式(1)下:
Figure BDA0003920081040000081
其中,Ck是第K个行人ID中抽取的样本数量,
Figure BDA0003920081040000083
是一个小批量中第K个行人ID中的第c个图像,Cp、Ck分别是来自同一ID和不同ID的样本,/>
Figure BDA0003920081040000084
是范数的平方作为距离度量,α是一个边界阈值。
距离采用欧氏距离度量,[]表示在[]+内的值大于零的时候,取该值为损失,小于零的时候,损失则为零。
行人ID表示是行人身份,不同的行人ID表示有多个不同身份的行人。
三元组损失的形式攻击深度排序,一个batch中同一ID最大的距离减去不同ID最小的距离,其中要最容易区分的类间图像对的距离要越小,而要最容易区分的类内图像对的距离要大,训练使得这个结果最小化就可以达到攻击,得到应该匹配的ID对距离最大化和不应该匹配距离而最小化的错误排名。
采用对抗身份损失来掩饰针对非目标攻击的模型,即不能正确识别目标行人,函数如公式(2):
Figure BDA0003920081040000082
其中,S表示log_softmax函数,可以很好地解决溢出问题,加快运算速度,提高数据稳定性。K是行人ID的总数,ν=[1/k-1,…,0,…1/k-1]是平滑正则化,除了当k是真实的身份,其他时候νk=1/k-1。argmin类似于numpy.argmin,它返回输出概率向量的最小值的索引,表示最不可能的类别,这种平滑的正则化提高了攻击的稳定性和成功率。
步骤S5.基于深度神经网络和待查询图像,获取待查询图像的最终特征。
具体的,将待查询图像输入深度神经网络中,输出各个待查询图像的最终特征。
步骤S6.基于最终特征与行人图像的特征向量之间的相似度,获得待查询图像的匹配结果。
具体的,计算最终特征与搜索库中行人图像的特征向量之间的相似度,使不匹配行人图像对的距离尽可能最小化,匹配行人图像对的距离尽可能最大化,以获得待查询图像的错误匹配结果。
如图6所示,图6是图1中的步骤S6一实施例的流程示意图。步骤S6的具体方法包括以下步骤:
S61.选择识别模型,将深度神经网络添加至识别模型中。
S62.基于待查询图像和识别模型,获取待查询图像中的行人图像的特征向量。
S63.基于最终特征与人图像的特征向量之间的第二差值,确定匹配结果。
如图6所示,图6是图1中的步骤S6一实施例的流程示意图。步骤S63的具体方法包括以下步骤:
S631.响应于第二差值越大,则待查询图像的匹配错误的结果越多。
具体的,若最终特征与人图像的特征向量之间差值越大,匹配值越低,攻击模型性能越强。
S632.响应于第二差值越小,则待查询图像的匹配错误的结果越少。
具体的,若最终特征与人图像的特征向量之间差值越小,匹配值越高,攻击模型性能越弱。
本实施例中,选用的评价指标使用Rank-1、Rank-5、Rank-10、mAP。上述最终特征与搜索库中行人图像的特征向量之间的第二差值越低,匹配结果越差,也就是本申请的攻击模型性能越强。对比方法为基于误排序的DMR攻击方法。如表1和表2所示,本申请选择模型为StrongReID,将攻击模型添加到StrongReID上进行训练,将训练完成后的模型再用于攻击测试。
表1本申请在Market-1501数据集上对比结果/%
Figure BDA0003920081040000101
表2本申请在DukeMTMC-reID数据集上对比结果/%
Method Rank-1 Rank-5 Rank-10 mAP
DMR 1.5 0.4 1.9 1.3
Ours 0.1 0.2 0.7 0.1
有上述的表1和表2可知,在原StrongReID模型的基础上加入本申请的对抗性注意力机制攻击方法后,所有匹配正确的结果都有下降,攻击测试后的Rank-1、Rank-5、Rank-10、mAP值都接近0%,证明本申请攻击方法的有效性。
综上而言,本申请通过提出对抗性注意力机制的行人再识别攻击方法,破坏掩码mask的打分规则来打破原有的通道注意力权重,混淆关注点,与其他对抗样本生成方法相比,同时具有攻击有效性强和扰动性低的特点。本申请联合对抗三元组损失与对抗身份损失监督网络训练,在保证攻击效果的同时,更加稳定了攻击过程,进一步增强了攻击效果,提高了注意力机制对行人再识别系统的鲁棒性。
以上所述仅为本申请的实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其它相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (9)

1.一种基于通道注意力的行人再识别对抗攻击方法,其特征在于,包括以下步骤:
基于掩码算法mask和ECA通道注意力,构建卷积神经网络;
基于行人图像训练集,获取所述卷积神经网络的输入图像;
基于所述输入图像和所述卷积神经网络,获取所述输入图像中的深度特征;
基于损失函数,获取所述深度特征的损失值并优化所述卷积神经网络,得到深度神经网络;
基于所述深度神经网络和待查询图像,获取所述待查询图像的最终特征;
基于所述最终特征与行人图像的特征向量之间的相似度,获得所述待查询图像的匹配结果。
2.根据权利要求1所述的方法,其特征在于,所述基于掩码算法mask和ECA通道注意力,构建卷积神经网络的方法,包括以下步骤:
基于所述行人图像训练集和初始卷积神经网络,获取包含行人图像的初级映射特征的ImageNet数据集;
基于所述ImageNet数据集,对ResNet50模型进行预训练;
基于已经进行预训练的所述ResNet50模型,将用于打破原有注意力权重的掩码算法mask添加到所述Resnet50模型的中间层的特征图中,获取所述卷积神经网络。
3.根据权利要求2所述的方法,其特征在于,所述基于所述输入图像和所述卷积神经网络,获取所述输入图像中的深度特征的方法,包括以下步骤:
基于所述卷积神经网络和所述输入图像,获取所述输入图像的对抗性权重图;
基于所述对抗性权重图与预设对抗性阈值的差值,获取所述输入图像中的深度特征。
4.根据权利要求3所述的方法,其特征在于,所述基于所述对抗性权重图与预设对抗性阈值的差值,获取所述输入图像中的深度特征的方法,包括以下步骤:
响应于所述对抗性权重图与预设对抗性阈值之间的第一差值大于等于零,则降低所述对抗性权重图中的对抗性权重,获取所述深度特征;
响应于所述对抗性权重图与预设对抗性阈值之间的第一差值小于零,则提高所述对抗性权重图中的对抗性权重,获取所述深度特征。
5.根据权利要求1所述的方法,其特征在于,所述损失函数为基于对抗三元组损失函数和对抗身份损失模型的组合函数。
6.根据权利要求5所述的方法,其特征在于,所述对抗三元组损失函数用于通过公式(1)攻击预测排序,所述公式(1)为:
Figure FDA0003920081030000021
其中,Ck是第K个行人ID中抽取的样本数量,
Figure FDA0003920081030000022
是一个小批量中第K个行人ID中的第c个图像,Cp、Ck分别是来自同一ID和不同ID的样本,
Figure FDA0003920081030000023
是范数的平方作为距离度量,α是一个边界阈值;距离采用欧氏距离度量,[]表示在[]+内的值大于零的时候,取该值为损失,小于零的时候,损失则为零。
7.根据权利要求5所述的方法,其特征在于,所述对抗身份损失模型通过公式(2)掩饰针对非目标攻击,其中公式(2)为:
Figure FDA0003920081030000024
其中,S表示log_softmax函数;K是行人ID的总数;ν=[1/k-1,…,0,…1/k-1]是平滑正则化,除了当k是真实的身份时,其他时候νk=1/k-1;arg min表示返回输出概率向量的最小值的索引。
8.根据权利要求1所述的方法,其特征在于,所述基于所述最终特征与行人图像的特征向量之间的相似度,获得所述待查询图像的匹配结果的方法,包括以下步骤:
选择识别模型,将所述深度神经网络添加至所述识别模型中;
基于所述待查询图像和所述识别模型,获取所述待查询图像中的行人图像的特征向量;
基于所述最终特征与所述人图像的特征向量之间的第二差值,确定所述匹配结果。
9.根据权利要求8所述的方法,其特征在于,所述基于所述最终特征与所述人图像的特征向量之间的第二差值,确定所述匹配结果的方法,包括:
响应于所述第二差值越大,则所述待查询图像的匹配错误的结果越多;
响应于所述第二差值越小,则所述待查询图像的匹配错误的结果越少。
CN202211353732.XA 2022-11-01 2022-11-01 一种基于通道注意力的行人再识别对抗攻击方法 Pending CN115841681A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211353732.XA CN115841681A (zh) 2022-11-01 2022-11-01 一种基于通道注意力的行人再识别对抗攻击方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211353732.XA CN115841681A (zh) 2022-11-01 2022-11-01 一种基于通道注意力的行人再识别对抗攻击方法

Publications (1)

Publication Number Publication Date
CN115841681A true CN115841681A (zh) 2023-03-24

Family

ID=85576758

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211353732.XA Pending CN115841681A (zh) 2022-11-01 2022-11-01 一种基于通道注意力的行人再识别对抗攻击方法

Country Status (1)

Country Link
CN (1) CN115841681A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116824695A (zh) * 2023-06-07 2023-09-29 南通大学 一种基于特征去噪的行人再识别非局部防御方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109583502A (zh) * 2018-11-30 2019-04-05 天津师范大学 一种基于对抗擦除注意力机制的行人再识别方法
CN112131970A (zh) * 2020-09-07 2020-12-25 浙江师范大学 一种基于多通道时空网络和联合优化损失的身份识别方法
CN112418159A (zh) * 2020-12-08 2021-02-26 杭州科技职业技术学院 基于注意力掩码的就餐人员监控方法、装置和电子设备
CN112488971A (zh) * 2020-11-23 2021-03-12 石家庄铁路职业技术学院 基于空间注意力机制和深度卷积生成对抗网络的医学图像融合方法
CN112686816A (zh) * 2020-12-25 2021-04-20 天津中科智能识别产业技术研究院有限公司 一种基于内容注意力机制和掩码先验的图像补全方法
CN112784768A (zh) * 2021-01-27 2021-05-11 武汉大学 一种基于视角引导多重对抗注意力的行人重识别方法
CN113034545A (zh) * 2021-03-26 2021-06-25 河海大学 一种基于CenterNet多目标跟踪算法的车辆跟踪方法
CN114120424A (zh) * 2021-12-08 2022-03-01 河南科技大学 一种基于注意力机制的轻量级面部情绪识别方法
CN114677511A (zh) * 2022-03-23 2022-06-28 三峡大学 一种残差ECA通道注意力UNet结合TRW-S的肺结节分割方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109583502A (zh) * 2018-11-30 2019-04-05 天津师范大学 一种基于对抗擦除注意力机制的行人再识别方法
CN112131970A (zh) * 2020-09-07 2020-12-25 浙江师范大学 一种基于多通道时空网络和联合优化损失的身份识别方法
CN112488971A (zh) * 2020-11-23 2021-03-12 石家庄铁路职业技术学院 基于空间注意力机制和深度卷积生成对抗网络的医学图像融合方法
CN112418159A (zh) * 2020-12-08 2021-02-26 杭州科技职业技术学院 基于注意力掩码的就餐人员监控方法、装置和电子设备
CN112686816A (zh) * 2020-12-25 2021-04-20 天津中科智能识别产业技术研究院有限公司 一种基于内容注意力机制和掩码先验的图像补全方法
CN112784768A (zh) * 2021-01-27 2021-05-11 武汉大学 一种基于视角引导多重对抗注意力的行人重识别方法
CN113034545A (zh) * 2021-03-26 2021-06-25 河海大学 一种基于CenterNet多目标跟踪算法的车辆跟踪方法
CN114120424A (zh) * 2021-12-08 2022-03-01 河南科技大学 一种基于注意力机制的轻量级面部情绪识别方法
CN114677511A (zh) * 2022-03-23 2022-06-28 三峡大学 一种残差ECA通道注意力UNet结合TRW-S的肺结节分割方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116824695A (zh) * 2023-06-07 2023-09-29 南通大学 一种基于特征去噪的行人再识别非局部防御方法

Similar Documents

Publication Publication Date Title
CN109768985B (zh) 一种基于流量可视化与机器学习算法的入侵检测方法
CN108960080B (zh) 基于主动防御图像对抗攻击的人脸识别方法
CN107153817B (zh) 行人重识别数据标注方法和装置
CN110941794B (zh) 一种基于通用逆扰动防御矩阵的对抗攻击防御方法
US20220174089A1 (en) Automatic identification and classification of adversarial attacks
CN111274922B (zh) 基于多层次深度学习网络的行人重识别方法及系统
CN112668557B (zh) 一种行人再识别系统中防御图像噪声攻击的方法
CN111639564B (zh) 一种基于多注意力异构网络的视频行人重识别方法
CN111783853B (zh) 一种基于可解释性的检测并恢复神经网络对抗样本方法
CN111754519B (zh) 一种基于类激活映射的对抗防御方法
CN113127857B (zh) 针对对抗性攻击的深度学习模型防御方法及深度学习模型
CN113468539A (zh) 一种基于漏洞攻击数据库及决策树的攻击程序识别方法
CN112668544A (zh) 一种基于难样本混淆增强特征鲁棒性的行人重识别方法
CN115841681A (zh) 一种基于通道注意力的行人再识别对抗攻击方法
CN113269228A (zh) 一种图网络分类模型的训练方法、装置、系统及电子设备
CN113627543A (zh) 一种对抗攻击检测方法
CN114299550B (zh) 一种行人再识别系统中无感噪声攻击的防御方法
CN115062306A (zh) 一种针对恶意代码检测系统的黑盒对抗攻击方法
CN114494771A (zh) 一种可防御后门攻击的联邦学习图像分类方法
CN116978093A (zh) 基于空间数据增强和对称互注意力的跨模态行人重识别方法
Jia et al. Enhancing cross-task transferability of adversarial examples with dispersion reduction
CN116824695A (zh) 一种基于特征去噪的行人再识别非局部防御方法
Sheikholeslami et al. Efficient randomized defense against adversarial attacks in deep convolutional neural networks
CN113869233A (zh) 一种基于上下文特征不一致性的多专家对抗攻击检测方法
CN114419358A (zh) 一种对抗样本生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination