CN109583502A - 一种基于对抗擦除注意力机制的行人再识别方法 - Google Patents
一种基于对抗擦除注意力机制的行人再识别方法 Download PDFInfo
- Publication number
- CN109583502A CN109583502A CN201811459334.XA CN201811459334A CN109583502A CN 109583502 A CN109583502 A CN 109583502A CN 201811459334 A CN201811459334 A CN 201811459334A CN 109583502 A CN109583502 A CN 109583502A
- Authority
- CN
- China
- Prior art keywords
- network
- erasing
- deep neural
- pedestrian
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例公开了一种基于对抗擦除注意力机制的行人再识别方法,该方法包括:构建基于对抗擦除注意力机制的深度神经网络;获取训练集,并从中选择B个行人图像作为深度神经网络的输入;利用深度神经网络提取行人的全局深度特征;通过对抗擦除注意力机制,提取行人的局部深度特征;将全局深度特征和局部深度特征送入不同的损失函数中,基于得到的损失值优化深度神经网络;利用深度神经网络提取待查询图像的最终特征,计算最终特征与搜索库中行人图像的特征向量之间的相似度,获得待查询图像的匹配结果。本发明利用对抗擦除注意力机制的方法学习互补的行人特征,不但减小了过拟合的风险还提高了网络的泛化能力,从而提高行人检索匹配的正确率。
Description
技术领域
本发明属于计算机视觉、深度学习、人工智能技术领域,具体涉及一种基于对抗擦除注意力机制的行人再识别方法。
背景技术
行人再识别旨在从不同角度架设的摄像机中检索特定的行人,它在视频检索、多摄像机跟踪、行为识别等领域中扮演着重要的角色。然而行人再识别还面临诸多挑战,例如姿态变化、视角变化、光照变化等。
目前,深度神经网络被广泛的运用到行人再识别方法中,尤其在特征学习方面。一些方法专注于利用全局特征表示行人图像。例如,Xiao等人提出了一种从多个不同域获取全局深度特征的方法。Qian等人提出了一种多尺度深度学习模型(MuDeep),该模型从多个尺度学习全局深度特征,并通过自动调整其权重将其组合起来。然而,全局深度特征忽略了行人的结构信息,导致不能完整的表示行人。因此,一些方法提出将行人图像或卷积激活图直接分割成若干部分以学习局部深度特征。例如,Yi等人提出将图像分割成三个重叠部分,并训练三个网络来捕获行人图像的不同统计特性。Sun等人利用均匀分割卷积激活图的方法提取局部深度特征。Wang等人设计了一个多分支深度网络,其中每个分支将卷积激活图划分为不同的条目以便学习深度局部特征。此外,一些方法通过其他额外操作,如姿态估计,来学习局部深度特征。例如,Zheng等人提出了姿态不变量嵌入方法(PIE)来表达行人,该方法首先利用姿态估计生成不同姿势的图像,然后利用这些图像学习局部深度特征。Wei等人介绍了全局局部对齐描述符(GLAD),该描述符首先估计行人的关键点,接着学习局部区域和全局图像的描述符。然而,这些策略增加了累积误差和算法复杂度。
发明内容
本发明的目的是要解决在没有任何额外操作的前提下,通过对抗学习的方式,在学习行人全局深度特征的同时学习行人的局部深度的特征,从而提高网络泛化能力,为此,本发明提供一种基于对抗擦除注意力机制的行人再识别方法。
为了实现所述目的,本发明提出一种基于对抗擦除注意力机制的行人再识别方法,所述方法包括以下步骤:
步骤S1,构建基于对抗擦除注意力机制的深度神经网络;
步骤S2,获取训练集,并从训练集中选择B个行人图像作为所述深度神经网络的输入;
步骤S3,基于输入图像,利用所述深度神经网络提取行人的全局深度特征;
步骤S4,基于输入图像,通过对抗擦除注意力机制,利用所述深度神经网络提取行人的局部深度特征;
步骤S5,将行人的所述全局深度特征和所述局部深度特征送入不同的损失函数中,并基于得到的损失值优化所述深度神经网络;
步骤S6,利用已训练好的深度神经网络提取待查询图像的最终特征,并计算所述最终特征与搜索库中行人图像的特征向量之间的相似度,以获得所述待查询图像的匹配结果。
可选地,所述步骤S1包括以下步骤:
步骤S11,搭建深度神经网络中的初始网络;
步骤S12,搭建深度神经网络中的擦除网络;
步骤S13,利用训练好的残差网络对所述初始网络和擦除网络的参数进行赋值,得到基于对抗擦除注意力机制的深度神经网络。
可选地,所述步骤S11包括以下步骤:
步骤S111,使用残差网络-50作为所述初始网络的主干网络并移除残差网络-50中最后的全连接层,得到修改后的残差网络;
步骤S112,在修改后的残差网络之后添加两个全连接层、一个非线性激活函数和一个随机失活操作构成所述初始网络。
可选地,所述步骤S12包括以下步骤:
步骤S121,使用残差网络-50作为所述擦除网络的主干网络并移除残差网络-50中最后的全连接层,得到修改后的残差网络;
步骤S122,在修改后的残差网络之后添加两个全连接层、一个非线性激活函数和一个随机失活操作构成所述擦除网络的主干网络;
步骤S123,添加对抗擦除操作到所述擦除网络的主干网络,得到所述擦除网络。
可选地,所述步骤S3包括以下步骤:
步骤S31,利用输入图像训练所述深度神经网络的初始网络;
步骤S32,从所述深度神经网络中初始网络的平均池化层后提取得到行人的全局深度特征。
可选地,所述步骤S4包括以下步骤:
步骤S41,利用输入图像得到所述深度神经网络的注意力图,并利用所述深度神经网络的注意力图得到擦除行人图像;
步骤S42,使用所述擦除行人图像训练所述擦除网络,并提取得到行人的局部深度特征。
可选地,所述步骤S41包括以下步骤:
步骤S411,把输入图像送入所述深度神经网络的初始网络,从所述初始网络的第一个残差块后得到相应的卷积激活图;
步骤S412,利用所述卷积激活图得到所述深度神经网络的注意力图,并调整所述注意力图的大小为第一预设大小,之后从调整好的注意力图中选取显著性部分,得到显著性区域;
步骤S413,将获得的显著性区域映射到输入图像,并擦除输入图像上对应位置的像素值,得到擦除行人图像。
可选地,所述步骤S42包括以下步骤:
步骤S421,在每次迭代中利用动态擦除策略得到不同的擦除行人图像,并利用所述擦除行人图像训练所述深度神经网络的擦除网络;
步骤S422,从所述深度神经网络中的擦除网络的平均池化层后提取特征作为行人的局部深度特征。
可选地,所述步骤S5包括以下步骤:
步骤S51,使用第一交叉熵损失函数LI1作为所述深度神经网络中初始网络的损失函数,使用第二交叉熵损失函数LI2作为所述深度神经网络中擦除网络的损失函数;
步骤S52,使用三元组损失函数LT作为所述初始网络和擦除网络共同的损失函数,使用所述损失函数得到的总的损失值L优化所述深度神经网络。
可选地,所述步骤S6包括以下步骤:
步骤S61,将所述待查询图像送入训练完成的基于对抗擦除注意力机制的深度神经网络,分别从初始网络和擦除网络的平均池化层后提取特征,将得到的两个特征串联起来作为所述待查询图像的最终特征;
步骤S62,基于所述待查询图像与搜索库中行人图像的特征向量,计算两者的相似度得分;
步骤S63,利用相似度得分对所述待查询图像进行匹配,获得匹配结果。
本发明的有益效果为:本发明利用对抗擦除注意力机制的方法从不同方面学习行人互补的特征,并利用不同损失优化网络提高网络的泛化能力,从而提高行人检索匹配的正确率。
需要说明的是,本发明得到了国家自然科学基金项目No.61501327、No.61711530240、No.61501328,天津市自然科学基金重点项目No.17JCZDJC30600,天津师范大学“青年科研拔尖人才培育计划”No.135202RC1703,模式识别国家重点实验室开放课题基金No.201700001、No.201800002,中国国家留学基金No.201708120040、No.201708120039和天津高等学校创新团队基金项目的资助。
附图说明
图1是根据本发明一实施例的基于对抗擦除注意力机制的行人再识别方法的流程图。
图2是根据本发明一实施例构建的基于对抗擦除注意力机制的深度神经网络的结构框图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明了,下面结合具体实施方式并参照附图,对本发明进一步详细说明。应该理解,这些描述只是示例性的,而并非要限制本发明的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
图1是根据本发明一实施例基于对抗擦除注意力机制的行人再识别方法的流程图,下面以图1为例来说明本发明的一些具体实现流程。本发明的方法是一种基于对抗擦除注意力机制的行人再识别方法,其具体步骤包括:
步骤S1,构建基于对抗擦除注意力机制的深度神经网络,图2显示了根据本发明一实施例构建的基于对抗擦除注意力机制的深度神经网络的结构框图;
其中,所述步骤S1包括以下步骤:
步骤S11,搭建深度神经网络中的初始网络,其中所述初始网络就是通常使用的普通深度神经网络;
步骤S12,搭建深度神经网络中的擦除网络;
步骤S13,利用训练好的残差网络对所述初始网络和擦除网络的参数进行赋值,得到基于对抗擦除注意力机制的深度神经网络。
其中,所述步骤S11包括以下步骤:
步骤S111,使用残差网络-50作为所述初始网络的主干网络并移除残差网络-50中最后的全连接层,得到修改后的残差网络;
步骤S112,在修改后的残差网络之后添加两个全连接层(FC_1,FC_2)、一个非线性激活函数和一个随机失活操作构成所述初始网络。
在本发明一实施例中,所述全连接层FC_1的神经元的个数为512,全连接层FC_2的神经元的个数为行人类别数量N,非线性激活函数选取参数为0.1的Leak ReLu,随机失活操作参数为0.5。
其中,所述步骤S12包括以下步骤:
步骤S121,使用残差网络-50作为所述擦除网络的主干网络并移除残差网络-50中最后的全连接层,得到修改后的残差网络;
步骤S122,在修改后的残差网络之后添加两个全连接层(FC_3,FC_4)、一个非线性激活函数和一个随机失活操作构成所述擦除网络的主干网络。
在本发明一实施例中,所述全连接层FC_3的神经元的个数为512,全连接层FC_4的神经元的个数为行人类别数量N,非线性激活函数选取参数为0.1的Leak ReLu,随机失活操作参数为0.5。
步骤S123,添加对抗擦除操作到所述擦除网络的主干网络,得到所述擦除网络。
步骤S2,获取训练集,并从训练集中选择B个行人图像作为所述深度神经网络的输入;
其中,所述步骤S2包括以下步骤:
步骤S21,将所述训练集中每一幅行人图像的大小调整到第一预设大小;
步骤S22,在训练集中随机选择B个行人图像作为所述深度神经网络的输入。
在本发明一实施例中,所述第一预设大小为256×128,实验性的可设置B=32。
步骤S3,基于输入图像,利用所述深度神经网络提取行人的全局深度特征;
其中,所述步骤S3包括以下步骤:
步骤S31,利用输入图像训练所述深度神经网络的初始网络;
步骤S32,从所述深度神经网络中初始网络的平均池化层后提取得到行人的全局深度特征。
在本发明一实施例中,所述全局深度特征的维度为2048。
步骤S4,基于输入图像,通过对抗擦除注意力机制,利用所述深度神经网络提取行人的局部深度特征;
其中,所述步骤S4包括以下步骤:
步骤S41,利用输入图像得到所述深度神经网络的注意力图,并利用所述深度神经网络的注意力图得到擦除行人图像;
步骤S42,使用所述擦除行人图像训练所述擦除网络,并提取得到行人的局部深度特征。
其中,所述步骤S41包括以下步骤:
步骤S411,把输入图像送入所述深度神经网络的初始网络,从所述初始网络的第一个残差块后得到相应的卷积激活图;
在本发明一实施例中,所述卷积激活图的大小为64×32。
步骤S412,利用所述卷积激活图得到所述深度神经网络的注意力图,并调整所述注意力图的大小为第一预设大小,之后从调整好的注意力图中选取显著性部分,得到显著性区域;
在本发明一实施例中,使用如下公式得到所述深度神经网络的注意力图Al:
其中,Ml,c表示第l层的第c个通道的卷积激活图,在此公式中,所有的操作都是基于元素之间的。
在本发明一实施例中,所述显著性区域表示为注意力图中前R%的值所对应的点,对于Market-1501数据,实验性的设置R=10。
步骤S413,将获得的显著性区域映射到输入图像,并擦除输入图像上对应位置的像素值,得到擦除行人图像。
其中,所述步骤S42包括以下步骤:
步骤S421,在每次迭代中利用动态擦除策略得到不同的擦除行人图像,并利用所述擦除行人图像训练所述深度神经网络的擦除网络;
在本发明一实施例中,所述动态擦除策略为在每次迭代中使用不同的注意力图得到擦除行人图像。每次迭代时,网络参数发生变化,不同的网络参数会计算得到不同的注意力图。
步骤S422,从所述深度神经网络中的擦除网络的平均池化层后提取特征作为行人的局部深度特征。
在本发明一实施例中,所述局部深度特征的维度为2048。
步骤S5,将行人的所述全局深度特征和所述局部深度特征送入不同的损失函数中,并基于得到的损失值优化所述深度神经网络;
其中,所述步骤S5包括以下步骤:
步骤S51,使用第一交叉熵损失函数LI1作为所述深度神经网络中初始网络的损失函数,使用第二交叉熵损失函数LI2作为所述深度神经网络中擦除网络的损失函数;
在本发明一实施例中,所述第一交叉熵损失函数LI1的输入为全连接层FC_2的输出,所述第二交叉熵损失函数LI2的输入为全连接层FC_4的输出。
步骤S52,使用三元组损失函数LT作为所述初始网络和擦除网络共同的损失函数,之后使用所述损失函数得到的总的损失值L优化所述深度神经网络。
在本发明一实施例中,三元组损失函数LT的输入为所述全局深度特征和所述局部深度特征。使用得到的总的损失值L利用SGD优化器对于所述基于对抗擦除注意力机制的深度神经网络进行优化。
其中,所述第一交叉熵损失函数LI1表示为:
其中,N表示行人类别数量,q(t)表示标签分布,p(t)表示行人图像被预测为第t类的概率。
在本发明一实施例中,N被设置为751对于Market-1501数据库。
在本发明一实施例中,所述标签分布表示为:
其中,y表示为真实行人图像的标签。
在本发明一实施例中,所述p(t)表示行人图像被预测为第t类的概率,其表示为:
其中,vi表示全连接层FC_2的第i个神经元的输出。
其中,所述第二交叉熵损失函数LI2表示为:
其中,所述三元组损失函数LT表示为:
LT=[Dap+m-Dan]+
其中,[Z]+代表max(Z,0),m表示阈值,Dap表示锚样本图像特征与正样本图像特征之间的距离,Dan表示表示锚样本图像特征与负样本图像特征之间的距离,f(xa)、f(xp)、f(xn)分别表示锚样本图像xa、正样本图像xp、负样本图像xn的特征向量。
在本发明一实施例中,所述三元组损失函数的输入为原始输入图像和擦除图像,实验性的可设置m=0.3对于Market-1501数据库。
其中,所述总的损失值L表示为:
其中,α1和α2分别用于控制目标损失的相对重要性。
在本发明一实施例中,实验性的可设置α1=1,α2=1在Market-1501数据库。
步骤S6,在测试阶段,利用已训练好的深度神经网络提取待查询图像的最终特征,并计算所述最终特征与搜索库中行人图像的特征向量之间的相似度,以获得所述待查询图像的匹配结果。
其中,所述步骤S6包括以下步骤:
步骤S61,将所述待查询图像送入训练完成的基于对抗擦除注意力机制的深度神经网络,分别从初始网络和擦除网络的平均池化层后提取特征,将得到的两个特征串联起来作为所述待查询图像的最终特征;
在本发明一实施例中,所述最终特征的维度为4096。
步骤S62,基于所述待查询图像与搜索库中行人图像的特征向量,计算两者的相似度得分;
其中,所述搜索库是用于与待查询图像进行相似度比较的数据库。
步骤S63,利用相似度得分对所述待查询图像进行匹配,获得匹配结果。
在本发明一实施例中,所述相似度得分由欧式距离计算得到。
在本发明一实施例中,所述匹配结果为相似度得分最高的行人图像。
以网上公开的行人再识别数据库作为测试对象,比如在Market-1501数据库上,当R=0.1,m=0.3,α1=1,α2=1时,行人再识别匹配的正确率为rank-1=93.8%,平均精度mAP=82.5%。由此可见本发明方法的有效性。
应当理解的是,本发明的上述具体实施方式仅仅用于示例性说明或解释本发明的原理,而不构成对本发明的限制。因此,在不偏离本发明的精神和范围的情况下所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。此外,本发明所附权利要求旨在涵盖落入所附权利要求范围和边界、或者这种范围和边界的等同形式内的全部变化和修改例。
Claims (10)
1.一种基于对抗擦除注意力机制的行人再识别方法,其特征在于,该方法包括以下步骤:
步骤S1,构建基于对抗擦除注意力机制的深度神经网络;
步骤S2,获取训练集,并从训练集中选择B个行人图像作为所述深度神经网络的输入;
步骤S3,基于输入图像,利用所述深度神经网络提取行人的全局深度特征;
步骤S4,基于输入图像,通过对抗擦除注意力机制,利用所述深度神经网络提取行人的局部深度特征;
步骤S5,将行人的所述全局深度特征和所述局部深度特征送入不同的损失函数中,并基于得到的损失值优化所述深度神经网络;
步骤S6,利用已训练好的深度神经网络提取待查询图像的最终特征,并计算所述最终特征与搜索库中行人图像的特征向量之间的相似度,以获得所述待查询图像的匹配结果。
2.根据权利要求1所述的方法,其特征在于,所述步骤S1包括以下步骤:
步骤S11,搭建深度神经网络中的初始网络;
步骤S12,搭建深度神经网络中的擦除网络;
步骤S13,利用训练好的残差网络对所述初始网络和擦除网络的参数进行赋值,得到基于对抗擦除注意力机制的深度神经网络。
3.根据权利要求2所述的方法,其特征在于,所述步骤S11包括以下步骤:
步骤S111,使用残差网络-50作为所述初始网络的主干网络并移除残差网络-50中最后的全连接层,得到修改后的残差网络;
步骤S112,在修改后的残差网络之后添加两个全连接层、一个非线性激活函数和一个随机失活操作构成所述初始网络。
4.根据权利要求2所述的方法,其特征在于,所述步骤S12包括以下步骤:
步骤S121,使用残差网络-50作为所述擦除网络的主干网络并移除残差网络-50中最后的全连接层,得到修改后的残差网络;
步骤S122,在修改后的残差网络之后添加两个全连接层、一个非线性激活函数和一个随机失活操作构成所述擦除网络的主干网络;
步骤S123,添加对抗擦除操作到所述擦除网络的主干网络,得到所述擦除网络。
5.根据权利要求1所述的方法,其特征在于,所述步骤S3包括以下步骤:
步骤S31,利用输入图像训练所述深度神经网络的初始网络;
步骤S32,从所述深度神经网络中初始网络的平均池化层后提取得到行人的全局深度特征。
6.根据权利要求1所述的方法,其特征在于,所述步骤S4包括以下步骤:
步骤S41,利用输入图像得到所述深度神经网络的注意力图,并利用所述深度神经网络的注意力图得到擦除行人图像;
步骤S42,使用所述擦除行人图像训练所述擦除网络,并提取得到行人的局部深度特征。
7.根据权利要求6所述的方法,其特征在于,所述步骤S41包括以下步骤:
步骤S411,把输入图像送入所述深度神经网络的初始网络,从所述初始网络的第一个残差块后得到相应的卷积激活图;
步骤S412,利用所述卷积激活图得到所述深度神经网络的注意力图,并调整所述注意力图的大小为第一预设大小,之后从调整好的注意力图中选取显著性部分,得到显著性区域;
步骤S413,将获得的显著性区域映射到输入图像,并擦除输入图像上对应位置的像素值,得到擦除行人图像。
8.根据权利要求6所述的方法,其特征在于,所述步骤S42包括以下步骤:
步骤S421,在每次迭代中利用动态擦除策略得到不同的擦除行人图像,并利用所述擦除行人图像训练所述深度神经网络的擦除网络;
步骤S422,从所述深度神经网络中的擦除网络的平均池化层后提取特征作为行人的局部深度特征。
9.根据权利要求1所述的方法,其特征在于,所述步骤S5包括以下步骤:
步骤S51,使用第一交叉熵损失函数LI1作为所述深度神经网络中初始网络的损失函数,使用第二交叉熵损失函数LI2作为所述深度神经网络中擦除网络的损失函数;
步骤S52,使用三元组损失函数LT作为所述初始网络和擦除网络共同的损失函数,使用所述损失函数得到的总的损失值L优化所述深度神经网络。
10.根据权利要求1所述的方法,其特征在于,所述步骤S6包括以下步骤:
步骤S61,将所述待查询图像送入训练完成的基于对抗擦除注意力机制的深度神经网络,分别从初始网络和擦除网络的平均池化层后提取特征,将得到的两个特征串联起来作为所述待查询图像的最终特征;
步骤S62,基于所述待查询图像与搜索库中行人图像的特征向量,计算两者的相似度得分;
步骤S63,利用相似度得分对所述待查询图像进行匹配,获得匹配结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811459334.XA CN109583502B (zh) | 2018-11-30 | 2018-11-30 | 一种基于对抗擦除注意力机制的行人再识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811459334.XA CN109583502B (zh) | 2018-11-30 | 2018-11-30 | 一种基于对抗擦除注意力机制的行人再识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109583502A true CN109583502A (zh) | 2019-04-05 |
CN109583502B CN109583502B (zh) | 2022-11-18 |
Family
ID=65926217
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811459334.XA Active CN109583502B (zh) | 2018-11-30 | 2018-11-30 | 一种基于对抗擦除注意力机制的行人再识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109583502B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110070073A (zh) * | 2019-05-07 | 2019-07-30 | 国家广播电视总局广播电视科学研究院 | 基于注意力机制的全局特征和局部特征的行人再识别方法 |
CN110110689A (zh) * | 2019-05-15 | 2019-08-09 | 东北大学 | 一种行人重识别方法 |
CN110175527A (zh) * | 2019-04-29 | 2019-08-27 | 北京百度网讯科技有限公司 | 行人再识别方法及装置、计算机设备及可读介质 |
CN110321862A (zh) * | 2019-07-09 | 2019-10-11 | 天津师范大学 | 一种基于紧致三元损失的行人再识别方法 |
CN110348282A (zh) * | 2019-04-30 | 2019-10-18 | 贵州大学 | 用于行人重识别的方法和设备 |
CN110414338A (zh) * | 2019-06-21 | 2019-11-05 | 广西师范大学 | 基于稀疏注意力网络的行人再辨识方法 |
CN110427836A (zh) * | 2019-07-11 | 2019-11-08 | 重庆市地理信息和遥感应用中心(重庆市测绘产品质量检验测试中心) | 一种基于多尺度优化的高分辨率遥感影像水体提取方法 |
CN111198964A (zh) * | 2020-01-10 | 2020-05-26 | 中国科学院自动化研究所 | 图像检索方法及系统 |
CN111539336A (zh) * | 2020-04-25 | 2020-08-14 | 长治学院 | 一种提高局部注意力的行人重识别方法 |
CN111694974A (zh) * | 2020-06-12 | 2020-09-22 | 桂林电子科技大学 | 一种融合注意力机制的深度哈希车辆图像检索方法 |
CN111931624A (zh) * | 2020-08-03 | 2020-11-13 | 重庆邮电大学 | 基于注意力机制的轻量级多分支行人重识别方法及系统 |
CN112307847A (zh) * | 2019-08-01 | 2021-02-02 | 复旦大学 | 一种基于指导的多尺度注意力行人重识别深度学习系统 |
WO2021098585A1 (en) * | 2019-11-22 | 2021-05-27 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Image search based on combined local and global information |
CN115841681A (zh) * | 2022-11-01 | 2023-03-24 | 南通大学 | 一种基于通道注意力的行人再识别对抗攻击方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002095651A (ja) * | 2000-09-26 | 2002-04-02 | Babcock Hitachi Kk | 歯科情報を使用した個人識別方法及び個人識別システム |
CN102360435A (zh) * | 2011-10-26 | 2012-02-22 | 西安电子科技大学 | 基于隐含主题分析的不良图像检测方法 |
CN105678278A (zh) * | 2016-02-01 | 2016-06-15 | 国家电网公司 | 一种基于单隐层神经网络的场景识别方法 |
CN107832672A (zh) * | 2017-10-12 | 2018-03-23 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
CN108229580A (zh) * | 2018-01-26 | 2018-06-29 | 浙江大学 | 一种基于注意力机制及特征融合的眼底图中糖网特征分级装置 |
CN108345866A (zh) * | 2018-03-08 | 2018-07-31 | 天津师范大学 | 一种基于深度特征学习的行人再识别方法 |
CN108416295A (zh) * | 2018-03-08 | 2018-08-17 | 天津师范大学 | 一种基于局部嵌入深度特征的行人再识别方法 |
CN108491884A (zh) * | 2018-03-27 | 2018-09-04 | 中山大学 | 基于轻量级网络的行人再识别系统及实现方法 |
CN108700948A (zh) * | 2016-03-01 | 2018-10-23 | 微软技术许可有限责任公司 | 基于注意力追踪数据来更新显示 |
CN108764202A (zh) * | 2018-06-06 | 2018-11-06 | 平安科技(深圳)有限公司 | 机场异物识别方法、装置、计算机设备及存储介质 |
-
2018
- 2018-11-30 CN CN201811459334.XA patent/CN109583502B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002095651A (ja) * | 2000-09-26 | 2002-04-02 | Babcock Hitachi Kk | 歯科情報を使用した個人識別方法及び個人識別システム |
CN102360435A (zh) * | 2011-10-26 | 2012-02-22 | 西安电子科技大学 | 基于隐含主题分析的不良图像检测方法 |
CN105678278A (zh) * | 2016-02-01 | 2016-06-15 | 国家电网公司 | 一种基于单隐层神经网络的场景识别方法 |
CN108700948A (zh) * | 2016-03-01 | 2018-10-23 | 微软技术许可有限责任公司 | 基于注意力追踪数据来更新显示 |
CN107832672A (zh) * | 2017-10-12 | 2018-03-23 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
CN108229580A (zh) * | 2018-01-26 | 2018-06-29 | 浙江大学 | 一种基于注意力机制及特征融合的眼底图中糖网特征分级装置 |
CN108345866A (zh) * | 2018-03-08 | 2018-07-31 | 天津师范大学 | 一种基于深度特征学习的行人再识别方法 |
CN108416295A (zh) * | 2018-03-08 | 2018-08-17 | 天津师范大学 | 一种基于局部嵌入深度特征的行人再识别方法 |
CN108491884A (zh) * | 2018-03-27 | 2018-09-04 | 中山大学 | 基于轻量级网络的行人再识别系统及实现方法 |
CN108764202A (zh) * | 2018-06-06 | 2018-11-06 | 平安科技(深圳)有限公司 | 机场异物识别方法、装置、计算机设备及存储介质 |
Non-Patent Citations (5)
Title |
---|
CHRISTIAN SZEGEDY 等: "Rethinking the Inception Architecture for Computer Vision", 《2016 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
GUO-SEN XIE 等: "LG-CNN: From local parts to global discrimination for fine-grained recognition", 《PATTERN RECOGNITION》 * |
SHUANG LIU 等: "Pedestrian Retrieval via Part-Based Gradation Regularization in Sensor Networks", 《IEEE ACCESS》 * |
景晨凯等: "基于深度卷积神经网络的人脸识别技术综述", 《计算机应用与软件》 * |
蒋桧慧 等: "基于特征融合与改进神经网络的行人再识别", 《传感器与微系统》 * |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110175527A (zh) * | 2019-04-29 | 2019-08-27 | 北京百度网讯科技有限公司 | 行人再识别方法及装置、计算机设备及可读介质 |
US11379696B2 (en) | 2019-04-29 | 2022-07-05 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Pedestrian re-identification method, computer device and readable medium |
CN110348282A (zh) * | 2019-04-30 | 2019-10-18 | 贵州大学 | 用于行人重识别的方法和设备 |
CN110348282B (zh) * | 2019-04-30 | 2022-06-07 | 贵州大学 | 用于行人重识别的方法和设备 |
CN110070073A (zh) * | 2019-05-07 | 2019-07-30 | 国家广播电视总局广播电视科学研究院 | 基于注意力机制的全局特征和局部特征的行人再识别方法 |
CN110110689A (zh) * | 2019-05-15 | 2019-08-09 | 东北大学 | 一种行人重识别方法 |
CN110414338A (zh) * | 2019-06-21 | 2019-11-05 | 广西师范大学 | 基于稀疏注意力网络的行人再辨识方法 |
CN110414338B (zh) * | 2019-06-21 | 2022-03-15 | 广西师范大学 | 基于稀疏注意力网络的行人再辨识方法 |
CN110321862A (zh) * | 2019-07-09 | 2019-10-11 | 天津师范大学 | 一种基于紧致三元损失的行人再识别方法 |
CN110427836A (zh) * | 2019-07-11 | 2019-11-08 | 重庆市地理信息和遥感应用中心(重庆市测绘产品质量检验测试中心) | 一种基于多尺度优化的高分辨率遥感影像水体提取方法 |
CN112307847A (zh) * | 2019-08-01 | 2021-02-02 | 复旦大学 | 一种基于指导的多尺度注意力行人重识别深度学习系统 |
WO2021098585A1 (en) * | 2019-11-22 | 2021-05-27 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Image search based on combined local and global information |
CN111198964A (zh) * | 2020-01-10 | 2020-05-26 | 中国科学院自动化研究所 | 图像检索方法及系统 |
CN111198964B (zh) * | 2020-01-10 | 2023-04-25 | 中国科学院自动化研究所 | 图像检索方法及系统 |
CN111539336A (zh) * | 2020-04-25 | 2020-08-14 | 长治学院 | 一种提高局部注意力的行人重识别方法 |
CN111694974A (zh) * | 2020-06-12 | 2020-09-22 | 桂林电子科技大学 | 一种融合注意力机制的深度哈希车辆图像检索方法 |
CN111931624A (zh) * | 2020-08-03 | 2020-11-13 | 重庆邮电大学 | 基于注意力机制的轻量级多分支行人重识别方法及系统 |
CN111931624B (zh) * | 2020-08-03 | 2023-02-07 | 重庆邮电大学 | 基于注意力机制的轻量级多分支行人重识别方法及系统 |
CN115841681A (zh) * | 2022-11-01 | 2023-03-24 | 南通大学 | 一种基于通道注意力的行人再识别对抗攻击方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109583502B (zh) | 2022-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109583502A (zh) | 一种基于对抗擦除注意力机制的行人再识别方法 | |
CN110163110B (zh) | 一种基于迁移学习和深度特征融合的行人重识别方法 | |
Srinivas et al. | Knowledge transfer with jacobian matching | |
CN110163187B (zh) | 基于f-rcnn的远距离交通标志检测识别方法 | |
US20200285896A1 (en) | Method for person re-identification based on deep model with multi-loss fusion training strategy | |
CN110473164A (zh) | 一种基于注意力机制的图像美学质量评价方法 | |
CN103226708B (zh) | 一种基于Kinect的多模型融合视频人手分割方法 | |
CN106920243A (zh) | 改进的全卷积神经网络的陶瓷材质件序列图像分割方法 | |
CN108427921A (zh) | 一种基于卷积神经网络的人脸识别方法 | |
CN109284767B (zh) | 一种基于增广样本和多流层的行人检索方法 | |
CN110134774A (zh) | 一种基于注意力决策的图像视觉问答模型、方法和系统 | |
CN104463191A (zh) | 一种基于注意机制的机器人视觉处理方法 | |
CN107463954B (zh) | 一种模糊异谱图像的模板匹配识别方法 | |
CN111931641B (zh) | 基于权重多样性正则化的行人重识别方法及其应用 | |
CN114283345A (zh) | 基于元学习和注意力的小样本城市遥感影像信息提取方法 | |
CN109598225A (zh) | 尖锐注意力网络、神经网络及行人再识别方法 | |
CN111476823B (zh) | 基于多挑战交互学习的实时rgbt跟踪方法及装置 | |
CN109902761A (zh) | 一种基于海洋环境因子融合和深度学习的渔情预测方法 | |
CN109685713A (zh) | 化妆模拟控制方法、装置、计算机设备及存储介质 | |
CN110516723A (zh) | 一种基于深度张量融合的多模态地基云图识别方法 | |
CN112597993A (zh) | 基于补丁检测的对抗防御模型训练方法 | |
CN113205103A (zh) | 一种轻量级的文身检测方法 | |
CN112541421B (zh) | 一种开放空间的行人换装重识别方法 | |
CN109784288A (zh) | 一种基于判别感知融合的行人再识别方法 | |
CN111126155B (zh) | 一种基于语义约束生成对抗网络的行人再识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |