CN113408492A - 一种基于全局-局部特征动态对齐的行人重识别方法 - Google Patents

一种基于全局-局部特征动态对齐的行人重识别方法 Download PDF

Info

Publication number
CN113408492A
CN113408492A CN202110833816.2A CN202110833816A CN113408492A CN 113408492 A CN113408492 A CN 113408492A CN 202110833816 A CN202110833816 A CN 202110833816A CN 113408492 A CN113408492 A CN 113408492A
Authority
CN
China
Prior art keywords
local
global
pedestrian
feature
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110833816.2A
Other languages
English (en)
Other versions
CN113408492B (zh
Inventor
朱敏
明章强
魏骁勇
李龙兴
杨勇
李长林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN202110833816.2A priority Critical patent/CN113408492B/zh
Publication of CN113408492A publication Critical patent/CN113408492A/zh
Application granted granted Critical
Publication of CN113408492B publication Critical patent/CN113408492B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明公开了一种基于全局‑局部特征动态对齐的行人重识别方法,对挑选行人重识别数据集中的训练集进行预处理,再使用预训练的模型ResNet50进行模型的初始化;然后,分别对粗粒度的全局特征计算全局距离,细粒度的局部特征计算局部对齐距离,并且使用困难样本挖掘三元组损失、中心损失和Softmax交叉熵损失联合作为行人重识别网络的监督器,约束模型的训练。最后,融合全局特征和局部特征获得最终特征,将查询行人图像作为行人重识别网络模型的输入,从候选库中进行检索出对齐距离最短的行人。本发明能够有效抑制空间未对齐和非对齐区域的噪声干扰,并且无需引入额外的辅助姿态信息,并且局部分支以指导距离度量的计算,可以进一步提高测试阶段的准确性。

Description

一种基于全局-局部特征动态对齐的行人重识别方法
技术领域
本发明涉及计算机,行人重识别和智能监控领域,具体涉及一种基于全局-局部特征动态对齐的行人重识别方法。
背景技术
行人重识别(Re-ID)是计算机视觉领域中一项具有挑战性的任务,旨在确定不同摄像头拍摄的行人或同一摄像头不同视频片段的行人图像是否为同一个行人,已经被广泛应用于智能监控领域。然而,由于现实场景的复杂性,行人Re-ID依然面临诸多挑战,例如:行人检测边界框错误、姿态变化和遮挡等。这些挑战使人们从大型测试集中识别出特定的行人成为一项艰巨的任务。
为了解决这些挑战,先前的大多数工作都集中在使用卷积神经网络(CNN)学习行人的全局特征,其思路主要可以归纳为表征学习和距离度量学习。传统表征学习的方法旨在学习行人的刚性不变特征,大多数距离度量学习旨在减少相同行人特征之间的距离。但这些方法都是从整个行人图像中学习特征,仅仅包含行人粗粒度的全局信息而忽略了行人局部的关键细节。
为了更好地提取局部特征,一些方法使用水平条纹或网格提取行人身体部位的局部特征,但这类方法需要事先调整行人对齐才能获得良好性能。也有一些研究者引入注意力机制以作为判别性特征的补充,但这类方法常常会引入额外的背景注意力,从而影响行人最终的特征表示。还有一些工作通过人体姿势估计模型来获取人体姿势点,用这些姿势点匹配不同的人体部位或对齐视点,但训练人体姿态估计模型需要大量标记数据,并且获取人体姿态点需要消耗额外的计算资源。另外,一些研究者将全局特征和局部特征相结合,来增强最终的行人区别性特征表示。总的来说,这些方法要么需要引入行人的姿态来辅助行人局部特征的对齐,但需要增加额外的计算资源;要么采用局部硬对齐的方法来匹配行人的局部特征,但遇到行人姿态变化、行人检测边界框错误和部分遮挡等较大的场景差异时,硬对齐的方法很难获得高的行人Re-ID准确率。
发明内容
为了解决上述背景技术提高的不足,本发明提出了一种基于全局-局部特征动态对齐的行人重识别方法。
为了实现上述技术目的,本发明的技术方案为:
一种基于全局-局部特征动态对齐的行人重识别方法,包括以下步骤:
步骤1)挑选行人重识别数据集,对数据集中的训练集进行预处理;
步骤2)使用预训练的模型ResNet50进行模型的初始化;
步骤3)选取残差网络作为基础骨架,构建全局粗粒度特征学习分支、局部细粒度特征学习分支;
步骤4)采用全局粗粒度特征学习分支学习行人粗粒度的全局特征,采用欧式距离计算全局分支的全局距离;
步骤5)采用局部细粒度特征学习分支学习行人细粒度的局部特征,采用局部滑动对齐计算局部分支的局部对齐距离;
步骤6)采用困难样本挖掘三元组损失、中心损失和Softmax交叉熵损失联合作为行人重识别网络的监督器,训练行人重识别模型;
步骤7)将待查询行人图像作为行人重识别网络模型的输入,分别学习行人的全局特征和局部特征,并将全局特征和局部特征进行融合作为行人最终的特征描述符。然后从候选图库中进行识别,计算查询图片和候选库中所有图片之间的特征欧氏距离,并对距离进行排序,从候选库中识别出与查询图像距离最短的行人作为最终的识别结果。
进一步的,所述步骤1)中,所述行人重识别数据集选用Market-1501,对数据集中的训练集进行预处理具体为:首先将所有训练和测试的图像大小调整为384×128;然后通过随机水平翻转、随机擦除、随机裁剪和图像像素值的归一化,随机增加一些遮挡、旋转的样本来增强训练数据。
更进一步的,所述步骤2)中对基础网络ResNet50模型初始化的过程如下:
步骤2.1)使用ImageNet上预先训练的权重进行ResNet50模型的初始化;
步骤2.2)设置批处理的大小,在每个批次中随机选取不同身份的样本进行采样,并从训练集中为每个身份随机选取若干张图像;
步骤2.3)设置全局分支和局部分支的困难样本挖掘三元组损失的权重;
步骤2.4)选择Adam作为模型的优化器;训练模型设置Epochs的大小为300,其中学习率在前100个Epochs为3.5×10-3,在100至200个Epochs之间学习率为3.5×10-4,在200个Epochs之后学习率下降到3.5×10-5,权重衰减设置为10-5
步骤2.5)使用标签平滑来平滑样本的分布;
步骤2.6)在PyTorch平台上实现的最终的模型,并使用NVIDIA 2080Ti GPU对模型进行训练。
更进一步的,所述步骤3)中对残差网络ResNet50改造为基础网络,即GLDFA-Net网络结构,输入图像经过ResNet50骨干网络的堆叠卷积层后,由全局粗粒度特征学习分支和局部细粒度特征学习分支共享特征图;对于全局特征,直接对特征图做全局平均池化得到;对于局部特征,先对特征图做水平分区,并通过局部平均池化得到每个水平条带的特征向量,再采用LSA计算局部对齐距离,并结合全局距离用于三元组损失的困难样本挖掘,最后将全局特征和局部特征进行组合作为最终的特征表示,并经过全连接层和Softmax层以实现图像的分类。
更进一步的,所述步骤3)中构建全局粗粒度和局部细粒度特征学习分支的过程如下:
步骤3.1)采用具有竞争性性能和简洁体系结构的Resnet50作为骨干网络提取行人的特征图;首先,删除Resnet50的平均池化层和后续层,然后在ResBlock4块之后的部分划分为两个独立的分支,分别将其命名Global Branch和Local Branch;
步骤3.2)对于全局粗粒度特征学习分支,使用全局平均池化将特征图转换为全局特征向量,并使用1x1卷积层批处理归一化和ReLU将2048-dim的特征减小到256-dim;
步骤3.3)将Resnet50骨干网络的最后一个空间下采样的跨步从2更改为1;当输入384x128大小的图像时,得到大空间尺寸的特征图;
步骤3.4)对于局部细粒度特征学习分支,使用水平平均池化在输出特征图水平方向上均匀分成k个条带,将同一条带中的所有列向量平均为单个列向量li,i=1,2,3,…,k;并将li的维度减小到256,在所述k个条带上独立地学习局部特征;
步骤3.5)在测试阶段,将全局和局部特征缩小到256维,并连接为最终的特征;此外,全局粗粒度特征学习分支和局部细粒度特征学习分支的每个条带都不共享权重,即它们对应的三元组损失和分类损失均采用独立的权重约束模型的训练。
更进一步的,所述步骤4)中学习行人粗粒度的全局特征,并采用欧式距离计算全局分支的全局距离的过程如下:
步骤4.1)在训练阶段,计算全局距离和局部距离用于三元组损失的度量学习;
步骤4.2)在推理阶段,使用局部距离计算图像之间的相似度;对于全局距离的计算,分别使用
Figure BDA0003176465700000031
Figure BDA0003176465700000032
代表图像A和B的全局特征,则全局特征的欧式距离表示为:
Figure BDA0003176465700000033
更进一步的,所述步骤5)中学习行人细粒度的局部特征,采用局部滑动对齐计算局部分支的局部对齐距离的过程如下:
步骤5.1)对局部分支的特征图划分水平条纹,分别使用
Figure BDA0003176465700000034
Figure BDA0003176465700000035
代表图像A和B的局部特征,其中k为步骤3.4)中水平池化后的条带数;
步骤5.2)对局部细粒度特征学习分支的水平条纹设置滑动窗口,并设置滑动窗口W的大小及滑动窗口的步长s;
步骤5.3)分别求解滑动窗口中的局部最短对齐距离,由此获得整个特征图的全局最短对齐距离;具体为:用DA和DB表示图像A和B采用局部滑动对齐相互匹配的最短距离集合;首先计算图像A或B的局部条纹的最短对齐距离
Figure BDA0003176465700000044
然后将其加入到集合DA或DB;最后得到图像A和B的最短对齐距离Ldis
更进一步的,所述步骤6)的具体过程如下:
步骤6.1)设计分类损失用于模型训练,在网络的最后连接一个用于分类的全连接层,通过Softmax激活函数将图片的特征向量映射概率空间上;则行人Re-ID的多分类的交叉熵损失表示为:
Figure BDA0003176465700000041
上式K代表每个批次训练样本ID类别的数量,q(xi)表示样本图片xi的标签,若xi被识别为yi,则q(xi)=1,否则q(xi)=0;p(yi|xi)为用Softmax激活函数计算图片xi预测为类别yi的概率;
步骤6.2)引入自适应的困难样本挖掘三元组损失,使模型能够有效挖掘困难样本,其损失函数表示为:
Ltriplethard=[m+wpd(xa,xp)-wnd(xa,xn)]+
Figure BDA0003176465700000042
上式xa为锚定样本,xp为正样本,xn为负样本,xa和xp图片的行人属于相同的ID,xa和xn图片的行人属于不同的ID,m为手动设置的超参数;d(xa,xp)表示为锚定样本xa和正样本xp之间的距离,同理,d(xa,xn)表示为锚定样本xa和负样本xn之间的距离,exp(d(xa,xp))表示为
Figure BDA0003176465700000043
通过对模型进行训练,使得在欧式空间内的xa与xp的距离比与xn的距离更近,通过Softmax函数来自适应地为正负样本分别分配权重wp和wn
步骤6.3)引入中心损失和困难样本挖掘三元组损失联合约束模型训练;中心损失表示为:
Figure BDA0003176465700000051
上式中K代表每个批次训练样本ID类别的数量,yi为批次训练样本图像i的标签,
Figure BDA0003176465700000052
表示深层特征
Figure BDA0003176465700000053
的类中心;
步骤6.4)分别计算全局分支和局部分支的困难样本挖掘三元组损失和中心损失;最终的困难样本挖掘三重态损失和中心损失分别表示为:
Figure BDA0003176465700000054
Figure BDA0003176465700000055
上式中
Figure BDA0003176465700000056
Figure BDA0003176465700000057
分别为全局分支和局部分支的困难样本挖掘三元组损失,
Figure BDA0003176465700000058
Figure BDA0003176465700000059
分别为全局分支和局部分支的中心损失;
步骤6.5)计算最终总的损失Ltotal
Ltotal=Lid+L'triplethard+λL'center
上式中λ为中心损失的权重;Lid为行人重识别多分类交叉熵损失。
更进一步的,所述步骤7)的具体过程如下:
步骤7.1)将全局特征fg和局部特征fl融合为最终特征:
所述全局特征fg为在ResNet50基准网络提取特征图经过全局池化得到,包含行人粗粒度的全局特征;
所述局部特征fl为在原始图像上等分条带,每个条纹采取局部水平池化得到行人的局部判别性特征,包含行人细粒度的局部特征,表示为fl={l1,l2,l3,…,lk},其中k为步骤3.4)中水平池化后的条带数,通常取值为8;
融合后的最终特征为ffinal=[fg·fl],其中[·]表示串联;
步骤7.2)将待查询行人图像作为行人重识别网络模型的输入,从查询图库中进行检索,计算待查询行人图像与查询图库中所有图像之间的最短对齐距离,根据最短对齐距离进行排序,距离最近的查询图库中的图像与待查询行人图像为同一行人的数据。
采用上述技术方案带来的有益效果:
1)本发明设计一种简单高效的局部滑动对齐(LSA)策略。给定两张要比较的行人图像,LSA通过为它们的局部条纹设置滑动窗口,并计算对应滑动窗口内条纹的最短对齐距离,以实现局部特征的动态对齐。LSA能够有效抑制空间未对齐和非对齐区域的噪声干扰,并且无需引入额外的辅助姿态信息。
2)本发明设计一个名为GLDFA-Net的新颖框架,该框架包括全局分支和局部分支,可以融合粗粒度的全局特征和细粒度的局部特征。将LSA引入到GLDFA-Net的局部分支以指导距离度量的计算,可以进一步提高测试阶段的准确性。
3)本发明采用困难样本挖掘三元组损失、中心损失和Softmax交叉熵分类损失联合约束模型的训练,可以使类内的样本距离趋于最小,而不同类的样本距离趋于最大,提高同一类样本的紧凑性,从而提高行人重识别的泛化能力和鲁棒性。
4)本发明在包括Market-1501,DukeMTMC-reID和CUHK03在内的多个主流评估数据集上进行的评估实验表明,本发明具有先进的准确性。特别地,本发明在Market1501上达到了86.8%的mAP和94.8%的Rank-1准确度。
附图说明
图1为本发明的方法流程图。
图2为实施例Market1501数据集的数据增强示意图(a.随机水平翻转,b.随机擦除,c.随机旋转,d.随机裁剪)。
图3本发明的GLDFA-Net的网络结构示意图。
图4为实施例中局部滑动对齐(LSA)过程的示意图。
图5为实施例中局部水平条纹设置滑动窗口的示意图。
图6为实施例Market1501数据集的行人检索图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案做进一步详细说明。
本发明设计了一种基于全局-局部特征动态对齐的行人重识别方法,通过设计一种简单高效的局部滑动特征对齐(LSA)策略,通过对行人的局部条纹设置滑动窗口,来动态对齐两张行人图像的局部特征。LSA能够有效抑制空间未对准,并且不需要引入额外的监督信息。此外,还设计一种全局-局部动态特征对齐网络(GLDFA-Net)框架,它包含全局和局部两个分支。本发明将LSA引入到GLDFA-Net的局部分支中,用于指导距离度量的计算,可以进一步提高测试阶段的准确度。
一种基于全局-局部特征动态对齐的行人重识别方法,包括训练集数据增强、构建多粒度全局-局部分支特征学习网络、获取粗粒度的全局特征计算全局距离、获取细粒度的局部特征并采用局部滑动对齐(LSA)策略计算行人局部对齐距离、特征融合相似性度量和采用困难样本挖掘三元组损失、中心损失和Softmax交叉熵分类损失联合约束模型的训练。
参考图1,为本发明一种基于全局-局部特征动态对齐的行人重识别方法的具体实施流程图,具体实施步骤如下:
步骤1:挑选行人重识别领域的公开数据集Market-1501,该数据集是在清华大学校园内五个高分辨率和一个低分率摄像设备采集的1501个行人的图像。
对数据集中的训练集进行预处理的具体实施如下:
1)将所有训练和测试的图像大小调整为384×128;
2)参考图2,为通过随机水平翻转、随机擦除、随机裁剪和图像像素值的归一化,随机增加一些遮挡、旋转的样本来增强训练数据。从中可以看出,数据增强后可以增强样本的多样性,一定程度会提高模型的泛化能力和鲁棒性。
步骤2:对基础网络ResNet50模型预处理的具体实施如下:
1)使用ImageNet上预先训练的权重进行ResNet50模型的初始化,预训练的网络有助于实现更好的性能,因为它保留了ImageNet中的一些良好的视觉模式;
2)设置批处理的大小为32,在每个批次中随机选取P个不同身份的样本进行采样,并从训练集中为每个身份随机选取K张图像,在本发明的实验中设置P=8,K=4。
3)全局和局部分支的困难样本挖掘三元组损失的权重均设置为0.3;
4)选择Adam作为模型的优化器。训练模型设置Epochs的大小为300,其中学习率在前100个Epochs为3.5×10-3,在100至200个Epochs之间学习率为3.5×10-4,在200个Epochs之后学习率下降到3.5×10-5,权重衰减设置为10-5
5)使用了标签平滑(LS)平滑样本的分布,相当于在真实样本分布中加入了噪声,避免模型对于正确标签过于自信,使得预测正负样本的输出值差别不那么大,标签平滑可以让分类之间的聚类更加紧凑,增加类间距离,减少类内距离,从而避免过拟合,提高模型的泛化能力;
6)最后模型是在PyTorch平台上实现的,并使用了一个NVIDIA 2080Ti GPU对模型进行训练。
步骤3:中对残差网络ResNet50改造为基础网络,参照图3,为本发明设计的GLDFA-Net的网络结构。输入图像经过Resnet50骨干网络的堆叠卷积层后,由全局分支(GlobalBranch)和局部分支(Local Branch)共享特征图。对于全局特征,本发明可以直接对特征图做全局平均池化得到。对于局部特征,本发明首先对特征图做水平分区,并通过局部平均池化得到每个水平条带的特征向量。然后,本发明采用LSA计算局部对齐距离,并结合全局距离用于三元组损失的困难样本挖掘。最后,本发明将全局特征和局部特征进行组合作为最终的特征表示,并经过全连接(FC)层和Softmax层以实现图像的分类。
构建全局和局部特征学习分支的具体实施如下:
1)为了让CNN学习到更多判别性的特征,本发明设计了一种新颖的GLDFA-Net框架用于行人Re-ID任务,采用具有竞争性性能和相对简洁体系结构的Resnet50作为骨干网络提取行人的特征图。首先,删除Resnet50的平均池化层和后续层,然后在ResBlock4块之后的部分划分为两个独立的分支,分别将其命名Global Branch和Local Branch;
2)对于全局分支,使用全局平均池化(GMP)将特征图转换为全局特征向量,并使用1x1卷积层批处理归一化和ReLU将2048-dim的特征减小到256-dim;
3)将Resnet50骨干网络的最后一个空间下采样的跨步从2更改为1。当输入384x128大小的图像时,可以得到较大空间尺寸(24x 8)的特征图;
4)对于局部分支,使用水平平均(最大)池化在输出特征图水平方向上均匀分成k个条带,将同一条带中的所有列向量平均为单个列向量li(i=1,2,3,…,k,受PCB的启发,这里k的大小设置为8),并将li的维度减小到256,在这些条带上独立地学习局部特征;
5)在测试阶段,将全局和局部特征缩小到256维,并连接为最终的特征。此外,全局分支和局部分支的每个条带都不会共享权重,即它们对应的三元组损失和分类损失均采用独立的权重约束模型的训练。
步骤4:中学习全局分支行人粗粒度的全局特征,并采用欧式距离计算全局分支的全局距离的具体实施如下:
1)在训练阶段,计算全局距离和局部距离用于三元组损失的度量学习;
2)在推理阶段,本发明使用局部距离计算图像之间的相似度。对于全局距离的计算,分别使用
Figure BDA0003176465700000081
Figure BDA0003176465700000082
代表图像A和B的全局特征,因此全局特征的欧式距离可以表示为:
Figure BDA0003176465700000083
步骤5:中局部分支学习行人细粒度的局部特征,并采用局部滑动对齐(LSA)计算局部分支的局部对齐距离。参考图4为局部滑动对齐(LSA)过程的示意图,本发明对行人划分水平条带,并且从上到下对局部条带设置滑动窗口,参考图5为对局部水平条纹设置滑动窗口的示意图,计算与窗口内的水平条带的最短对齐距离。箭头方向表示匹配的局部特征,实线箭头表示最短对齐距离,虚线表示非最短对齐距离,两张图像的对齐距离为所有局部条带的对齐距离之和。
具体实施如下:
1)本发明提出称为局部滑动对齐(LSA)的动态对齐策略用于计算局部距离。首先,对局部分支的特征图划分水平条纹。分别使用
Figure BDA0003176465700000084
Figure BDA0003176465700000085
代表图像A和B的局部特征,其中k为水平池化后的条带数,k的取值为8;
2)然后,对水平条纹设置滑动窗口(其中每个滑动窗口是相互影响和关联的),对局部分支的水平条纹设置滑动窗口,并设置滑动窗口W的大小为4,滑动窗口的步长s默认设置为1;
3)最后,分别求解滑动窗口中的局部最短对齐距离来获得整个特征图的全局最短对齐距离。DA和DB分别为图像A和B采用局部滑动对齐相互匹配的最短距离集合。首先计算图像A或B的局部条纹的最短对齐距离
Figure BDA0003176465700000091
然后将其加入到集合DA或DB。最后得到图像A和B的最短对齐距离Ldis
步骤6:中使用困难样本挖掘三元组损失、中心损失和Softmax交叉熵损失联合作为行人重识别网络的监督器,约束行人重识别模型的训练的具体实施如下:
1)设计分类损失用于模型训练,通常在网络的最后连接一个用于分类的全连接层(Fully Connected Layers,FC),通过Softmax激活函数将图片的特征向量映射概率空间上。因此,行人Re-ID的多分类的交叉熵损失可以表示为:
Figure BDA0003176465700000092
上式K代表每个批次训练样本ID类别的数量,q(xi)表示样本图片xi的标签,若xi被识别为yi,则q(xi)=1,否则q(xi)=0。p(yi|xi)为用Softmax激活函数计算图片xi预测为类别yi的概率;
2)设计三元组损失,目的是使类内的样本距离趋于最小,而不同类的样本距离趋于最大,被广泛应用于行人Re-ID的度量学习;
3)为了使模型能够有效挖掘困难样本,引入一种自适应的困难样本挖掘三元组损失,它是基于原始的三元组损失的改进版本。其损失函数可以表示为:
Ltriplethard=[m+wpd(xa,xp)-wnd(xa,xn)]+
Figure BDA0003176465700000093
上式xa为锚定样本,xp为正样本,xn为负样本,xa和xp图片的行人属于相同的ID,xa和xn图片的行人属于不同的ID,m为手动设置的超参数;d(xa,xp)表示为锚定样本xa和正样本xp之间的距离,同理,d(xa,xn)表示为锚定样本xa和负样本xn之间的距离,exp(d(xa,xp))表示为
Figure BDA0003176465700000094
通过对模型进行训练,使得在欧式空间内的xa与xp的距离比与xn的距离更近。本发明使用Softmax函数来自适应地为正负样本分别分配权重wp和wn。该方法能够自适应地为困难样本分配权重,提高度量学习的鲁棒性;
4)虽然三元组损失能够有效地改善特征的空间分布,但对类内样本约束能力较差。然而,中心损失可以最小化类内样本距离,提高同一类样本的紧凑性。因此,引入中心损失和困难样本挖掘三元组损失联合约束模型训练。中心损失可以表示为:
Figure BDA0003176465700000101
上式中K代表每个批次训练样本ID类别的数量,yi为批次训练样本图像i的标签,
Figure BDA0003176465700000102
表示深层特征
Figure BDA0003176465700000103
的类中心。该表达式能够准确反映类内样本的变化,可以加速同一类的样本的收敛;
5)分别计算全局分支和局部分支的困难样本挖掘三元组损失和中心损失。因此,最终的困难样本挖掘三重态损失和中心损失分别可以表示为:
Figure BDA0003176465700000104
Figure BDA0003176465700000105
6)将两种分支的特征fg和fl连接为最终的特征,可以写成ffinal=[fg·fl],其中[·]表示串联。最后,本发明使用ffinal计算多分类交叉熵损失Lid。因此,最终总的损失Ltotal是三种损失的组合可以表示为:
Ltotal=Lid+L'triplethard+λL'center
上式中心损失的权重λ设置为0.05。
步骤7:将待查询行人图像作为行人重识别网络模型的输入,分别学习行人的全局特征和局部特征,并将全局特征和局部特征进行融合作为行人最终的特征描述符。然后从候选图库中进行识别,计算查询图片和候选库中所有图片之间的特征欧氏距离,并对距离进行排序,从候选库中识别出与查询图像距离最短的行人作为最终的识别结果。具体实施如下:
由于深度学习机制可以从整个图像中获取主体上的近似响应偏好,因此也可以从较小的局部区域中提取出更细粒度的局部特征显著性。本发明采用不同粒度的全局和局部信息相结合的特征学习策略,定义原始图像只包含一个全局信息的整体分割为最粗情况,并且随着分割数目的增加,局部特征可以更多地集中在每个部分条带中更精细的判别信息,过滤其他条带上的信息。所以将两种分支的特征fg和fl连接为最终的特征。
其中全局特征表示为fg,为在ResNet50基准网络提取特征图经过全局池化得到,包含行人粗粒度的全局特征。
其中局部特征表示为fl,为在原始图像上等分条带,每个条纹采取局部水平池化得到行人的局部判别性特征,包含行人细粒度的局部特征。最后的局部特征可以表示为fl={l1,l2,l3,…,lk},其中k为水平池化后的条带数,通常取值为8。
最终特征可以写成ffinal=[fg·fl],其中[·]表示串联。串联后的最终特征粒度多样性,可以获得更强大的行人特征表示。
最后,将待查询行人图像作为行人重识别网络模型的输入,从候选库中进行检索,计算待查询行人图像与候选库中所有图像之间的最短对齐距离,根据最短对齐距离进行排序,距离最近的查询图库中的图像与待查询行人图像为同一行人的数据。
在本发明中将所有训练和测试的图像大小调整为384×128,使用ImageNet上预先训练的权重进行模型的初始化。在训练阶段,本发明首先对行人图像进行随机水平翻转、随机擦除和归一化来增强训练数据。然后,为了更好地使用困难样本挖掘三元组损失和中心损失训练网络模型,本发明设置批处理的大小为32,在每个批次中随机选取p个不同身份的样本进行采样,并从训练集中为每个身份随机选取4张图像,在本发明中设置p=8。
全局和局部分支的困难样本挖掘三元组损失的权重均设置为0.3。最后,本发明选择Adam作为模型的优化器,设置Epochs的大小为300,其中学习率在前100个Epochs为3.5×10-3,在100至200个Epochs之间学习率为3.5×10-4,在200个Epochs之后学习率下降到3.5×10-5,权重衰减设置为10-5。此外,本发明还使用了标签平滑(LS)提高模型的性能。在推理阶段,将全局分支和局部分支的特征向量连接在一起,以生成最终的特征表示。本发明使用开源re-ranking(RK)技术来提高查询结果的准确度。本发明的模型是在PyTorch平台上实现的,并使用了一个NVIDIA 2080Ti GPU,在所有数据集上的实验均共享与上述相同的实验设置。
参考图6为本发明在Market-1501数据集上查询图像的前10排名列表。这些检索到的图像全部来自Gallery集,并且属于不同相机拍摄的图像。第一行行人的姿态或步态变化较大,本发明的方法通过对齐身体躯干部位的不变性特征,依然能够得到全部正确的检索结果。第二行的行人边界检测框出现错误导致容易丢失或者引入大量背景信息,本发明的方法通过动态对齐行人的身体部位,能够有效缓解这种情况。第三行为行人被部分遮挡的检索结果,虽然遮挡区域不仅丢失大量重要信息而且会引入额外的噪声,但本发明的对齐方法依然能够获得较高的检索结果。从检索结果来看,除了第二行最后一个匹配错误外,其余结果均显示出强大的鲁棒性。本发明将这一的结果归因于局部特征动态对齐的影响,这些对齐后的特征能够反映其身份的鲁棒性特征。

Claims (9)

1.一种基于全局-局部特征动态对齐的行人重识别方法,其特征在于,包括如下步骤:
步骤1)挑选行人重识别数据集,对数据集中的训练集进行预处理;
步骤2)使用预训练的模型ResNet50进行模型的初始化;
步骤3)选取残差网络作为基础骨架,构建全局粗粒度特征学习分支、局部细粒度特征学习分支;
步骤4)采用全局粗粒度特征学习分支学习行人粗粒度的全局特征,采用欧式距离计算全局分支的全局距离;
步骤5)采用局部细粒度特征学习分支学习行人细粒度的局部特征,采用局部滑动对齐计算局部分支的局部对齐距离;
步骤6)采用困难样本挖掘三元组损失、中心损失和Softmax交叉熵损失联合作为行人重识别网络的监督器,训练行人重识别模型;
步骤7)将待查询行人图像作为行人重识别网络模型的输入,分别学习行人的全局特征和局部特征,并将全局特征和局部特征进行融合作为行人最终的特征描述符;然后从候选图库中进行识别,计算查询图片和候选库中所有图片之间的特征欧氏距离,并对距离进行排序,从候选库中识别出与查询图像距离最短的行人作为最终的识别结果。
2.根据权利要求1所述的基于全局-局部特征动态对齐的行人重识别方法,其特征在于,所述步骤1)中,所述行人重识别数据集选用Market-1501,对数据集中的训练集进行预处理具体为:首先将所有训练和测试的图像大小调整为384×128;然后通过随机水平翻转、随机擦除、随机裁剪和图像像素值的归一化,随机增加一些遮挡、旋转的样本来增强训练数据。
3.根据权利要求2所述的基于全局-局部特征动态对齐的行人重识别方法,其特征在于,所述步骤2)中对基础网络ResNet50模型初始化的过程如下:
步骤2.1)使用ImageNet上预先训练的权重进行ResNet50模型的初始化;
步骤2.2)设置批处理的大小,在每个批次中随机选取不同身份的样本进行采样,并从训练集中为每个身份随机选取若干张图像;
步骤2.3)设置全局分支和局部分支的困难样本挖掘三元组损失的权重;
步骤2.4)选择Adam作为模型的优化器;训练模型设置Epochs的大小为300,其中学习率在前100个Epochs为3.5×10-3,在100至200个Epochs之间学习率为3.5×10-4,在200个Epochs之后学习率下降到3.5×10-5,权重衰减设置为10-5
步骤2.5)使用标签平滑来平滑样本的分布;
步骤2.6)在PyTorch平台上实现的最终的模型,并使用NVIDIA 2080Ti GPU对模型进行训练。
4.根据权利要求1所述的基于全局-局部特征动态对齐的行人重识别方法,其特征在于,所述步骤3)中对残差网络ResNet50改造为基础网络,即GLDFA-Net网络结构,输入图像经过ResNet50骨干网络的堆叠卷积层后,由全局粗粒度特征学习分支和局部细粒度特征学习分支共享特征图;对于全局特征,直接对特征图做全局平均池化得到;对于局部特征,先对特征图做水平分区,并通过局部平均池化得到每个水平条带的特征向量,再采用LSA计算局部对齐距离,并结合全局距离用于三元组损失的困难样本挖掘,最后将全局特征和局部特征进行组合作为最终的特征表示,并经过全连接层和Softmax层以实现图像的分类。
5.根据权利要求1所述的基于全局-局部特征动态对齐的行人重识别方法,其特征在于,所述步骤3)中构建全局粗粒度和局部细粒度特征学习分支的过程如下:
步骤3.1)采用具有竞争性性能和简洁体系结构的Resnet50作为骨干网络提取行人的特征图;首先,删除Resnet50的平均池化层和后续层,然后在ResBlock4块之后的部分划分为两个独立的分支,分别将其命名Global Branch和Local Branch;
步骤3.2)对于全局粗粒度特征学习分支,使用全局平均池化将特征图转换为全局特征向量,并使用1x1卷积层批处理归一化和ReLU将2048-dim的特征减小到256-dim;
步骤3.3)将Resnet50骨干网络的最后一个空间下采样的跨步从2更改为1;当输入384x128大小的图像时,得到大空间尺寸的特征图;
步骤3.4)对于局部细粒度特征学习分支,使用水平平均池化在输出特征图水平方向上均匀分成k个条带,将同一条带中的所有列向量平均为单个列向量li,i=1,2,3,…,k;并将li的维度减小到256,在所述k个条带上独立地学习局部特征;
步骤3.5)在测试阶段,将全局和局部特征缩小到256维,并连接为最终的特征;此外,全局粗粒度特征学习分支和局部细粒度特征学习分支的每个条带都不共享权重,即它们对应的三元组损失和分类损失均采用独立的权重约束模型的训练。
6.根据权利要求5所述的基于全局-局部特征动态对齐的行人重识别方法,其特征在于,所述步骤4)中学习行人粗粒度的全局特征,并采用欧式距离计算全局分支的全局距离的过程如下:
步骤4.1)在训练阶段,计算全局距离和局部距离用于三元组损失的度量学习;
步骤4.2)在推理阶段,使用局部距离计算图像之间的相似度;对于全局距离的计算,分别使用
Figure FDA0003176465690000031
Figure FDA0003176465690000032
代表图像A和B的全局特征,则全局特征的欧式距离表示为:
Figure FDA0003176465690000036
7.根据权利要求6所述的基于全局-局部特征动态对齐的行人重识别方法,其特征在于,所述步骤5)中学习行人细粒度的局部特征,采用局部滑动对齐计算局部分支的局部对齐距离的过程如下:
步骤5.1)对局部分支的特征图划分水平条纹,分别使用
Figure FDA0003176465690000033
Figure FDA0003176465690000034
代表图像A和B的局部特征,其中k为步骤3.4)中水平池化后的条带数;
步骤5.2)对局部细粒度特征学习分支的水平条纹设置滑动窗口,并设置滑动窗口W的大小及滑动窗口的步长s;
步骤5.3)分别求解滑动窗口中的局部最短对齐距离,由此获得整个特征图的全局最短对齐距离;具体为:用DA和DB表示图像A和B采用局部滑动对齐相互匹配的最短距离集合;首先计算图像A或B的局部条纹的最短对齐距离
Figure FDA0003176465690000037
然后将其加入到集合DA或DB;最后得到图像A和B的最短对齐距离Ldis
8.根据权利要求7所述的基于全局-局部特征动态对齐的行人重识别方法,其特征在于,所述步骤6)的具体过程如下:
步骤6.1)设计分类损失用于模型训练,在网络的最后连接一个用于分类的全连接层,通过Softmax激活函数将图片的特征向量映射概率空间上;则行人Re-ID的多分类的交叉熵损失表示为:
Figure FDA0003176465690000035
上式K代表每个批次训练样本ID类别的数量,q(xi)表示样本图片xi的标签,若xi被识别为yi,则q(xi)=1,否则q(xi)=0;p(yi|xi)为用Softmax激活函数计算图片xi预测为类别yi的概率;
步骤6.2)引入自适应的困难样本挖掘三元组损失,使模型能够有效挖掘困难样本,其损失函数表示为:
Figure FDA0003176465690000041
Figure FDA0003176465690000042
上式xa为锚定样本,xp为正样本,xn为负样本,xa和xp图片的行人属于相同的ID,xa和xn图片的行人属于不同的ID,m为手动设置的超参数;d(xa,xp)表示为锚定样本xa和正样本xp之间的距离,同理,d(xa,xn)表示为锚定样本xa和负样本xn之间的距离,exp(d(xa,xp))表示为
Figure FDA0003176465690000043
通过对模型进行训练,使得在欧式空间内的xa与xp的距离比与xn的距离更近,通过Softmax函数来自适应地为正负样本分别分配权重wp和wn
步骤6.3)引入中心损失和困难样本挖掘三元组损失联合约束模型训练;中心损失表示为:
Figure FDA0003176465690000044
上式中K代表每个批次训练样本ID类别的数量,yi为批次训练样本图像i的标签,cyi表示深层特征fti的类中心;
步骤6.4)分别计算全局分支和局部分支的困难样本挖掘三元组损失和中心损失,最终的困难样本挖掘三重态损失和中心损失分别表示为:
Figure FDA0003176465690000045
Figure FDA0003176465690000046
上式中
Figure FDA0003176465690000047
Figure FDA0003176465690000048
分别为全局分支和局部分支的困难样本挖掘三元组损失,
Figure FDA0003176465690000049
Figure FDA00031764656900000410
分别为全局分支和局部分支的中心损失;
步骤6.5)计算最终总的损失Ltotal
Figure FDA00031764656900000411
上式中λ为中心损失的权重;Lid为行人重识别多分类交叉熵损失。
9.根据权利要求8所述的基于全局-局部特征动态对齐的行人重识别方法,其特征在于,所述步骤7)中特征融合具体指:
将全局特征fg和局部特征fl融合为最终特征:
所述全局特征fg为在ResNet50基准网络提取特征图经过全局池化得到,包含行人粗粒度的全局特征;
所述局部特征fl为在原始图像上等分条带,每个条纹采取局部水平池化得到行人的局部判别性特征,包含行人细粒度的局部特征,表示为fl={l1,l2,l3,…,lk},其中k为步骤3.4)中水平池化后的条带数;
融合后的最终特征为ffinal=[fgfl],其中[·]表示特征的串联。
CN202110833816.2A 2021-07-23 2021-07-23 一种基于全局-局部特征动态对齐的行人重识别方法 Active CN113408492B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110833816.2A CN113408492B (zh) 2021-07-23 2021-07-23 一种基于全局-局部特征动态对齐的行人重识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110833816.2A CN113408492B (zh) 2021-07-23 2021-07-23 一种基于全局-局部特征动态对齐的行人重识别方法

Publications (2)

Publication Number Publication Date
CN113408492A true CN113408492A (zh) 2021-09-17
CN113408492B CN113408492B (zh) 2022-06-14

Family

ID=77687392

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110833816.2A Active CN113408492B (zh) 2021-07-23 2021-07-23 一种基于全局-局部特征动态对齐的行人重识别方法

Country Status (1)

Country Link
CN (1) CN113408492B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114119585A (zh) * 2021-12-01 2022-03-01 昆明理工大学 基于Transformer的关键特征增强胃癌图像识别方法
CN114998925A (zh) * 2022-04-22 2022-09-02 四川大学 一种面向孪生噪声标签的鲁棒跨模态行人重识别方法
CN115050048A (zh) * 2022-05-25 2022-09-13 杭州像素元科技有限公司 一种基于局部细节特征的跨模态行人重识别方法
CN115147774A (zh) * 2022-07-05 2022-10-04 中国科学技术大学 一种基于特征对齐的退化环境下的行人重识别方法
CN116052218A (zh) * 2023-02-13 2023-05-02 中国矿业大学 一种行人重识别方法
CN116110076A (zh) * 2023-02-09 2023-05-12 国网江苏省电力有限公司苏州供电分公司 基于混合粒度网络的输电高空作业人员身份重识别方法和系统
CN116313115A (zh) * 2023-05-10 2023-06-23 浙江大学 基于线粒体动态表型和深度学习的药物作用机制预测方法
CN116644788A (zh) * 2023-07-27 2023-08-25 山东交通学院 一种用于车辆重识别的局部细化和全局强化网络
WO2024021394A1 (zh) * 2022-07-29 2024-02-01 南京邮电大学 全局特征与阶梯型局部特征融合的行人重识别方法及装置

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9194662B1 (en) * 2013-03-15 2015-11-24 Peter D. Poulsen Article for dispersing energy of a blast or impact
CN107316031A (zh) * 2017-07-04 2017-11-03 北京大学深圳研究生院 用于行人重识别的图像特征提取方法
CN108520226A (zh) * 2018-04-03 2018-09-11 东北大学 一种基于躯体分解和显著性检测的行人重识别方法
CN108875588A (zh) * 2018-05-25 2018-11-23 武汉大学 基于深度学习的跨摄像头行人检测跟踪方法
CN109635695A (zh) * 2018-11-28 2019-04-16 西安理工大学 基于三元组卷积神经网络的行人再识别方法
CN110309701A (zh) * 2019-04-17 2019-10-08 武汉大学 一种基于跨视角同一区域的行人重识别方法
CN110569797A (zh) * 2019-09-10 2019-12-13 云南电网有限责任公司带电作业分公司 地球静止轨道卫星影像山火检测方法、系统及其存储介质
CN110728263A (zh) * 2019-10-24 2020-01-24 中国石油大学(华东) 一种基于距离选择的强判别特征学习的行人重识别方法
CN111275070A (zh) * 2019-12-26 2020-06-12 厦门商集网络科技有限责任公司 一种基于局部特征匹配的签名验证方法及设备
CN111460914A (zh) * 2020-03-13 2020-07-28 华南理工大学 一种基于全局和局部细粒度特征的行人重识别方法
CN111666843A (zh) * 2020-05-25 2020-09-15 湖北工业大学 一种基于全局特征和局部特征拼接的行人重识别方法
CN111914642A (zh) * 2020-06-30 2020-11-10 浪潮电子信息产业股份有限公司 一种行人重识别方法、装置、设备及介质
CN112200111A (zh) * 2020-10-19 2021-01-08 厦门大学 一种全局与局部特征融合的遮挡鲁棒行人重识别方法
WO2021043168A1 (zh) * 2019-09-05 2021-03-11 华为技术有限公司 行人再识别网络的训练方法、行人再识别方法和装置
CN112836546A (zh) * 2019-11-22 2021-05-25 深圳市理邦精密仪器股份有限公司 检测生理信号质量的方法、装置及电子设备
US20210223776A1 (en) * 2020-01-22 2021-07-22 Ati Motors Inc. Autonomous vehicle with on-board navigation

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9194662B1 (en) * 2013-03-15 2015-11-24 Peter D. Poulsen Article for dispersing energy of a blast or impact
CN107316031A (zh) * 2017-07-04 2017-11-03 北京大学深圳研究生院 用于行人重识别的图像特征提取方法
CN108520226A (zh) * 2018-04-03 2018-09-11 东北大学 一种基于躯体分解和显著性检测的行人重识别方法
CN108875588A (zh) * 2018-05-25 2018-11-23 武汉大学 基于深度学习的跨摄像头行人检测跟踪方法
CN109635695A (zh) * 2018-11-28 2019-04-16 西安理工大学 基于三元组卷积神经网络的行人再识别方法
CN110309701A (zh) * 2019-04-17 2019-10-08 武汉大学 一种基于跨视角同一区域的行人重识别方法
WO2021043168A1 (zh) * 2019-09-05 2021-03-11 华为技术有限公司 行人再识别网络的训练方法、行人再识别方法和装置
CN110569797A (zh) * 2019-09-10 2019-12-13 云南电网有限责任公司带电作业分公司 地球静止轨道卫星影像山火检测方法、系统及其存储介质
CN110728263A (zh) * 2019-10-24 2020-01-24 中国石油大学(华东) 一种基于距离选择的强判别特征学习的行人重识别方法
CN112836546A (zh) * 2019-11-22 2021-05-25 深圳市理邦精密仪器股份有限公司 检测生理信号质量的方法、装置及电子设备
CN111275070A (zh) * 2019-12-26 2020-06-12 厦门商集网络科技有限责任公司 一种基于局部特征匹配的签名验证方法及设备
US20210223776A1 (en) * 2020-01-22 2021-07-22 Ati Motors Inc. Autonomous vehicle with on-board navigation
CN111460914A (zh) * 2020-03-13 2020-07-28 华南理工大学 一种基于全局和局部细粒度特征的行人重识别方法
CN111666843A (zh) * 2020-05-25 2020-09-15 湖北工业大学 一种基于全局特征和局部特征拼接的行人重识别方法
CN111914642A (zh) * 2020-06-30 2020-11-10 浪潮电子信息产业股份有限公司 一种行人重识别方法、装置、设备及介质
CN112200111A (zh) * 2020-10-19 2021-01-08 厦门大学 一种全局与局部特征融合的遮挡鲁棒行人重识别方法

Non-Patent Citations (16)

* Cited by examiner, † Cited by third party
Title
KAZEMI M等: ""Sliding Alignment Windows for Real-Time Crowd Captioning"", 《PROCEEDINGS OF THE 52ND ANNUAL MEETING OF THE ASSOCIATION FOR COMPUTATIONAL LINGUISTICS》 *
KAZEMI M等: ""Sliding Alignment Windows for Real-Time Crowd Captioning"", 《PROCEEDINGS OF THE 52ND ANNUAL MEETING OF THE ASSOCIATION FOR COMPUTATIONAL LINGUISTICS》, 31 December 2014 (2014-12-31), pages 1 - 6 *
LONGHUI WEI等: ""GLAD:Global-Local-Alignment Descriptor for Scalable Person Re-Identification"", 《IEEE TRANSACTIONS ON MULTIMEDLA》 *
LONGHUI WEI等: ""GLAD:Global-Local-Alignment Descriptor for Scalable Person Re-Identification"", 《IEEE TRANSACTIONS ON MULTIMEDLA》, vol. 21, no. 4, 31 December 2019 (2019-12-31), pages 986 - 999, XP011716039, DOI: 10.1109/TMM.2018.2870522 *
WEISHI ZHENG等: ""Partial Person Re-Identification"", 《IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 *
WEISHI ZHENG等: ""Partial Person Re-Identification"", 《IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》, 31 December 2015 (2015-12-31), pages 1 - 9 *
XUAN ZHANG等: ""AlignedReID:Surpassing Human-Level Performance in Person Re-identification"", 《ARXIV》 *
XUAN ZHANG等: ""AlignedReID:Surpassing Human-Level Performance in Person Re-identification"", 《ARXIV》, 31 January 2018 (2018-01-31), pages 1 - 10 *
ZHEDONG ZHENG等: ""Pedestrian Alignment Network for Large-scale Person Re-Identification"", 《IEEE TRANSACTION ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》 *
ZHEDONG ZHENG等: ""Pedestrian Alignment Network for Large-scale Person Re-Identification"", 《IEEE TRANSACTION ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》, vol. 29, no. 10, 31 October 2019 (2019-10-31), pages 3037 - 3045, XP011748700, DOI: 10.1109/TCSVT.2018.2873599 *
卢健等: ""深度学习行人再识别研究综述"", 《激光与光电子学进展》 *
卢健等: ""深度学习行人再识别研究综述"", 《激光与光电子学进展》, vol. 57, no. 16, 31 August 2020 (2020-08-31), pages 1 - 18 *
周大可等: ""基于多尺度多粒度特征的行人重识别"", 《计算机科学》 *
周大可等: ""基于多尺度多粒度特征的行人重识别"", 《计算机科学》, vol. 48, no. 7, 11 March 2021 (2021-03-11), pages 238 - 244 *
张良等: ""姿态引导与多粒度特征融合的行人再识别"", 《激光与光电子学进展》 *
张良等: ""姿态引导与多粒度特征融合的行人再识别"", 《激光与光电子学进展》, vol. 56, no. 20, 31 October 2019 (2019-10-31), pages 247 - 253 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114119585B (zh) * 2021-12-01 2022-11-29 昆明理工大学 基于Transformer的关键特征增强胃癌图像识别方法
CN114119585A (zh) * 2021-12-01 2022-03-01 昆明理工大学 基于Transformer的关键特征增强胃癌图像识别方法
CN114998925A (zh) * 2022-04-22 2022-09-02 四川大学 一种面向孪生噪声标签的鲁棒跨模态行人重识别方法
CN114998925B (zh) * 2022-04-22 2024-04-02 四川大学 一种面向孪生噪声标签的鲁棒跨模态行人重识别方法
CN115050048A (zh) * 2022-05-25 2022-09-13 杭州像素元科技有限公司 一种基于局部细节特征的跨模态行人重识别方法
CN115147774A (zh) * 2022-07-05 2022-10-04 中国科学技术大学 一种基于特征对齐的退化环境下的行人重识别方法
CN115147774B (zh) * 2022-07-05 2024-04-02 中国科学技术大学 一种基于特征对齐的退化环境下的行人重识别方法
WO2024021394A1 (zh) * 2022-07-29 2024-02-01 南京邮电大学 全局特征与阶梯型局部特征融合的行人重识别方法及装置
CN116110076A (zh) * 2023-02-09 2023-05-12 国网江苏省电力有限公司苏州供电分公司 基于混合粒度网络的输电高空作业人员身份重识别方法和系统
CN116110076B (zh) * 2023-02-09 2023-11-07 国网江苏省电力有限公司苏州供电分公司 基于混合粒度网络的输电高空作业人员身份重识别方法和系统
CN116052218A (zh) * 2023-02-13 2023-05-02 中国矿业大学 一种行人重识别方法
CN116313115B (zh) * 2023-05-10 2023-08-15 浙江大学 基于线粒体动态表型和深度学习的药物作用机制预测方法
CN116313115A (zh) * 2023-05-10 2023-06-23 浙江大学 基于线粒体动态表型和深度学习的药物作用机制预测方法
CN116644788A (zh) * 2023-07-27 2023-08-25 山东交通学院 一种用于车辆重识别的局部细化和全局强化网络
CN116644788B (zh) * 2023-07-27 2023-10-03 山东交通学院 一种用于车辆重识别的局部细化和全局强化网络

Also Published As

Publication number Publication date
CN113408492B (zh) 2022-06-14

Similar Documents

Publication Publication Date Title
CN113408492B (zh) 一种基于全局-局部特征动态对齐的行人重识别方法
CN112101150B (zh) 一种基于朝向约束的多特征融合行人重识别方法
Cong et al. Going from RGB to RGBD saliency: A depth-guided transformation model
CN108960140B (zh) 基于多区域特征提取和融合的行人再识别方法
Vu et al. Context-aware CNNs for person head detection
CN111738143B (zh) 一种基于期望最大化的行人重识别方法
Liu et al. A review of keypoints’ detection and feature description in image registration
CN111428619B (zh) 基于有序回归和软标签的三维点云头部姿态估计系统和方法
Tang et al. Multi-modal metric learning for vehicle re-identification in traffic surveillance environment
Yee et al. DeepScene: Scene classification via convolutional neural network with spatial pyramid pooling
CN113052017A (zh) 一种基于多粒度特征表示和域自适应学习的无监督行人重识别方法
Zhang et al. Category modeling from just a single labeling: Use depth information to guide the learning of 2d models
Shen et al. MCCG: A ConvNeXt-based Multiple-Classifier Method for Cross-view Geo-localization
Wu et al. Generalizable person re-identification with part-based multi-scale network
Zhou et al. Retrieval and localization with observation constraints
Deshpande et al. Matching as color images: Thermal image local feature detection and description
Yue et al. SCFNet: Semantic correction and focus network for remote sensing image object detection
CN108765384B (zh) 一种联合流形排序和改进凸包的显著性检测方法
Zhao et al. TransFG: A Cross-view geo-localization of Satellite and UAVs Imagery Pipeline using Transformer-Based Feature Aggregation and Gradient Guidance
Qin et al. Structured-patch optimization for dense correspondence
Khattak et al. AMF-MSPF: A retrospective analysis with online object tracking algorithms
Makadia Feature tracking for wide-baseline image retrieval
Zeng et al. Finding hard faces with better proposals and classifier
Peng et al. Multi-task person re-identification via attribute and part-based learning
CN113888603A (zh) 基于光流跟踪和特征匹配的回环检测及视觉slam方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant