CN115830637A - 一种基于姿态估计和背景抑制的遮挡行人重识别方法 - Google Patents

一种基于姿态估计和背景抑制的遮挡行人重识别方法 Download PDF

Info

Publication number
CN115830637A
CN115830637A CN202211593464.9A CN202211593464A CN115830637A CN 115830637 A CN115830637 A CN 115830637A CN 202211593464 A CN202211593464 A CN 202211593464A CN 115830637 A CN115830637 A CN 115830637A
Authority
CN
China
Prior art keywords
pedestrian
feature
local
conv
key point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211593464.9A
Other languages
English (en)
Other versions
CN115830637B (zh
Inventor
姜明
何铃杰
张旻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202211593464.9A priority Critical patent/CN115830637B/zh
Publication of CN115830637A publication Critical patent/CN115830637A/zh
Application granted granted Critical
Publication of CN115830637B publication Critical patent/CN115830637B/zh
Priority to US18/488,146 priority patent/US11908222B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于姿态估计和背景抑制的遮挡行人重识别方法,包括以下步骤:步骤(1)获得遮挡行人的全局特征和局部特征,并将局部特征重组为局部特征图;步骤(2)获得行人图像关键点的热度图和关键点置信度组,利用获得的局部特征图和热度图获得行人关键点特征组;步骤(3)通过Conv利用全局特征增强行人关键点特征组中每个关键点特征得到局部特征组,并通过关键点得到关键点邻接矩阵A,将局部特征组的和关键点邻接矩阵A作为GCN的输入,获得最终行人关键点特征;步骤(4)通过局部特征图和热度图得到行人特征,将其切分后作为最终特征;步骤(5)训练模型,该方法具有更好的鲁棒性和自适应能力。

Description

一种基于姿态估计和背景抑制的遮挡行人重识别方法
技术领域
本文发明涉及遮挡行人重识别技术,具体来讲是一种基于姿态估计和背景抑制的遮挡行人重识别方法,属于计算机视觉领域。
背景技术
行人重识别作为计算机视觉领域的重要研究课题之一,旨在将不同物理位置、不同摄像头捕获的行人图像进行关联,实现跨摄像头跨场景下的行人识别与检索,被广泛应用于智慧商业、智能安防等领域。然而,在现实场景下,摄像头捕获的行人图像常常被物品或是其他行人所遮挡,无法提取到健壮的行人特征表达。
现有的遮挡行人重识别方法取得了较为不错的成果,但仍饱受遮挡带来的问题:行人未被遮挡部分的特征是网络识别行人的关键,若将遮挡物特征引入模型会导致识别能力下降;匹配行人的局部特征能有效提升模型识别效果,但遮挡物将导致行人局部特征的不对齐,致使局部特征的错误匹配。同时,注意力机制能够分配权重给人体可见部分,能有效的减少杂乱背景带来的负面影响。
基于上述,本发明提出一种基于姿态估计和背景抑制的遮挡行人重识别方法。
发明内容
本发明的目的是针对现有技术的不足,提出一种基于姿态估计和背景抑制的遮挡行人重识别方法。首先通过构建局部特征增强图卷积模块,致力于将全局特征包含的上下文信息嵌入局部特征,增强局部特征的表达并获得各个特征节点之间的联系。同时,行人姿态估计模块获得的行人关键点热力图和行人整体特征图作为注意力引导的背景抑制模块的两个输入,进一步让模型聚焦于行人可见部分,从而获得更加健壮的行人特征表达。
本发明解决其技术问题所采用的技术方案如下:
一种基于姿态估计和背景抑制的遮挡行人重识别方法,其特征在于,包括以下步骤:
步骤(1)构建基于ViT(Visual-Transformer)的行人特征提取骨干网,获得遮挡行人的全局特征fcls和局部特征ff_local,并将局部特征ff_local重组为局部特征图flocal
步骤(2)通过预训练的ViTPose(行人姿态估计模型)获得行人图像关键点的热度图fpos和关键点置信度组Vkc,利用步骤(1)获得的局部特征图flocal和热度图fpos获得行人关键点特征组fkeypoints;
步骤(3)构建由Conv和GCN组成的局部特征增强图卷积模块,通过Conv利用全局特征fcls增强行人关键点特征组fkeypoints中每个关键点特征得到局部特征组fkp_en,并通过关键点得到关键点邻接矩阵A,将局部特征组的fkp_en和关键点邻接矩阵A作为GCN的输入,获得最终行人关键点特征ff_keypoints;
步骤(4)构建由全局平均池化和卷积网络组成的注意力背景抑制模块,将步骤(1)获得的局部特征图flocal和步骤(2)获得的热度图fpos输入注意力背景抑制模块,获得输出的行人特征fatt_local,将其切分后作为最终特征;
步骤(5)由行人特征提取骨干网、ViTPose、局部特征增强图卷积模块和注意力背景抑制模块构建成遮挡行人重识别模型(ReID模型),使用步骤(1)中的行人全局特征fcls、步骤(3)中的行人关键点特征ff_keypoints和步骤(4)中的行人特征fatt_local对遮挡行人重识别模型进行训练,得到最终的遮挡行人重识别模型。
本发明有益效果如下:
本发明设计了一个局部特征增强图卷积模块,利用全局特征的上下文信息增强行人局部特征表达并获得行人各个关键点之间的特征联系。这有利于模型学习未被遮挡的行人部分的特征,并实现行人各部分之间的特征对齐,从而提升行人特征的辨识度。其次,为了减轻行人图像杂糅的背景信息影响,本发明设计了一个注意力引导的背景抑制模块,引导模型更加关注与行人特征相关的判别特征,从而获得更有区分度的行人特征。结果表明,这种方法提取的特征具有更好的鲁棒性,有效的提升了模型的泛化能力。
附图说明
图1是本发明的整体实施方案流程图。
图2是本发明的行人特征提取骨干网示意图。
图3是本发明的行人姿态估计示意图。
图4是本发明的局部特征增强图卷积模块示意图。
图5是本发明的注意力引导的背景抑制模块示意图。
图6是本发明的整体结构示意图。
具体实施方式
下面结合附图对本发明作进一步描述。
图1是本发明的整体实施方案流程图,一种基于姿态估计和背景抑制的遮挡行人重识别方法,如图1所示,包含以下步骤:
步骤(1)构建基于Visual-Transformer的行人特征提取骨干网,获得遮挡行人的全局特征fcls和局部特征ff_locak,并将局部特征ff_local重组为局部特征图flocak
步骤(2)通过预训练的行人姿态估计模块获得行人图像关键点热度图fpos和关键点置信度组Vkc。利用步骤(1)获得的行人局部特征图flocal和热度图fpos获得行人关键点特征组fkeypoints
步骤(3)构建局部特征增强图卷积模块,利用行人全局特征fcls增强行人关键点特征组fkeypoints中每个关键点特征。将增强后的特征组和关键点邻接矩阵A作为图卷积网络的输入,获得最终行人关键点特征ff_keypoints
步骤(4)构建注意力引导的背景抑制模块,将步骤(1)获得的局部特征图flocal和步骤(2)获得的关键点热度图fpos输入注意力背景抑制模块,获得输出的行人特征fatt_local,将其切分后作为最终特征;
步骤(5)使用步骤(1)中的行人全局特征Fcls、步骤(3)中的行人关键点特征ff_keypoints和步骤(4)中的行人特征fatt_local对模型进行训练,得到遮挡行人重识别模型
进一步的,所述步骤(1)具体实现过程如下:
1-1采用在ImageNet上预训练过的Visual-Transformer(ViT)作为骨干网络,提取图像中的行人特征。为应对ViT训练不稳定的问题,在图像输入ViT之前,需使用一个小型卷积网络对图像进行特征提取,如公式(1)所示:
x=Conv(X) (1)
其中X表示行人图像,Conv表示卷积网络,x为卷积网络输出的特征。
1-2参照图2,对于1-1中获得的行人特征x,按照预设的patch大小p进行分割,生成特征图序列
Figure BDA0003995871180000041
N为可分割的数量,再对xP加上相机视角信息[CAM_VIEW],其维度大小均与xP相同,如公式(2)所示:
xP=xP+λ*Ecam_view (2)
其中λ为超参数,用于表示相机视角信息的权重;Ecam_view为[CAM_VIEW],表示相机视角信息;
为xP加上表示全局特征的[CLS_TOKEN]和位置信息编码[POS_TOKEN],经过线性编码后可得特征Z,如公式(3)所示;
Figure BDA0003995871180000042
其中,xcls为[CLS_TOKEN]全局特征向量;linear(·)为线性编码函数;Epos为[POS_TOKEN],表示空间位置。
1-3将1-2中获得的特征Z输入ViT骨干网,ViT由多个Transformer block堆叠而成,如公式(4)(5)所示:
Z′l=MSA(LN(Zl-1))+Zl-1 l=1…L (4)
Zl=MLP(LN(Z′l))+Z′l l=1…L (5)
其中,Zl表示第l层Transformer块输出的特征,Z′l为Transformer块内的中间结果,L为总层数。其中,MSA(·)为多头注意力机制、LN(·)为层归一化、MLP(·)为多层感知器。
网络输出结果即为最后一层的输出特征,分别为全局特征fcls
Figure BDA0003995871180000043
和局部特征组ff_local。对局部特征组ff_local重新排列后得行人局部特征图flocal,可表示为公式(6):
flocal=reshape(ff_local) (6)
其中,reshape(·)为重排列函数;
进一步的,所述步骤(2)具体实现过程如下:
2-1参照图3,使用在CoCo数据集上预训练的ViTPose提取行人图像的关键点。ViTPose能够获得行人图像中行人的关键点热力图fpos和关键点坐标置信度Vkc。为了用于行人重识别任务,取模型最终类别输出并得到行人关键点热力图fpos和关键点集合Vkc={V1,V2,...,Vs}。其中,Vs是通过行人关键点算法获得人体关键点如公式(7)所示。
fpos,Vkc=ViTPose(Image) (7)
其中,Vs={kx,ky,kc},kx,ky分别为关键点坐标,kc为关键点置信度;fpos为ViTPose输出的关键点热力图。
2-2利用1-3中获得的行人局部特征图flocal和2-1中获得的行人关键点热力图fpos,通过向量外积和全局平均池化即可获得S个行人关键点局部特征,如公式(8)所示:
Figure BDA0003995871180000051
其中,GAP为全局平均池化;行人关键点特征组
Figure BDA0003995871180000052
S为关键点数量,C为特征通道数。
进一步的,所述步骤(3)具体实现过程如下:
3-1在遮挡的情况下,2-2中提取的局部特征常常不能鲁棒的代表行人未遮挡的部分,而全局特征中富含的上下文信息能够进一步增强局部特征的表达。因此利用全局特征和局部特征的关系,进一步丰富局部特征。首先行人关键点特征组可表示为公式(9):
Figure BDA0003995871180000053
然后对每个关键点特征和行人全局特征fcls应用1*1卷积,如公式(10)(11)所示:
fkp_conv=Conv1×1(fkeypoints) (10)
fcls_conv=Conv1×1(fcls) (11)
其中,fkp_conv是每个局部特征卷积之后的特征,fcls_conv是全局特征卷积后的特征。
3-2利用3-1中获取的关键点特征和全局特征,通过向量数量积、softmax和相加等,计算增强后的关键点特征组为fkp_en,如公式(12),(13)所示:
Vsim=Softmax(fkp_conv⊙fcls_conv) (12)
fkp_en=Conv(fkeypoints+w*(fcls_conv+Vsim*fcls)) (13)
其中,Conv为卷积操作;w为可学习权重;Vsim为相似度;
3-3预先定义的行人关键点邻接矩阵A和3-2中获得局部特征组的fkp_en作为图卷积网络的输入,获得图卷积网络输出的行人关键点特征ff_keypoints,如公式(14)所示:
ff_keypoints=GCN(A,fkp_en) (14)
其中,GCN为图卷积网络,A为预先定义的人体关键点邻接矩阵;
3-4将步骤3-1,3-2,3-3所述流程构成局部特征增强图卷积模块,参照图4。
进一步的,所述步骤(4)具体实现过程如下:
4-1为引导注意力进一步聚焦于行人未遮挡部分,从而抑制杂乱背景,将姿态估计网络输出的行人关键点热力图全局平均池化后作为行人关键点特征,补充到局部特征
4-2将骨干网络输出的行人局部特征图作为一个图结构,即图内有H*W个节点,每个节点是C维特征。首先将局部特征图flocal输入两个1*1的卷积网络,并将其中一个网络的输出转置即可构建节点与节点之间的关系,如公式(15)所示
Ri,j=Conv(flocal)TConv(flocal) (15)
其中Ri,j是关系特征矩阵,Conv是卷积网络
4-3利用关系特征矩阵Ri,j获得对应关系的空间感知特征fsp,然后将行人局部特征图flocal、4-1中行人关键点特征fpos和空间感知特征fsp嵌入链接,可公式化为(16)(17)
fsp=Conv(Ri,j) (16)
fconcat=Concat[Conv(flocal),Conv(fsp),Conv(fpos)] (17)
其中,fsp为获得的空间感知特征,Concat(·)为通道链接函数,fconcat为连接后的特征向量。
将fconcat输入1*1的卷积网络和Sigmod便可获得空间注意力图fatten,最后,通过空间注意力图fatten与局部特征图flocal相乘即可获得最后的行人特征图fatt_local
4-4之后按照行人结构,构建多个分类头。可将行人特征图fatt_local划分为4个局部特征f1、f2、f3、f4,对行人图像进行分类。
4-5将步骤4-1,4-2,4-3,4-4所述流程构成注意力引导的背景抑制模块,参照图5。
进一步的,所述步骤(5)具体实现过程如下:
5-1使用行人重识别数据集中标注数据作为监督信息,对每个训练批次采用ID损失和困难三元组损失训练网络。ID损失采用交叉熵损失训练网络,其公式如下:
Figure BDA0003995871180000071
其中N为行人类别数,qi是监督标签,pi是预测标签;
困难三元组损失通过随机采样P个身份,每个身份抽取K个实例,组成一个大小为P*K的mini batch;依次选取批次中的每个图片xa作为锚点,选出批次中距离最远的正样本图片xp和距离最近的负样本图片xn组成三元组来训练网络,增强网络的泛化能力;其公式为:
Figure BDA0003995871180000072
5-2参照图6,是本网络的整体架构图。根据1-1中的行人全局特征fcls、3-3中行人关键点特征组ff_keypoints和4-4中行人特征fatt_local划分生成的f1、f2、f3、f4对模型进行训练,得到遮挡行人重识别模型,具体可公式化为:
Figure BDA0003995871180000081
其中,S为行人关键点数量,kc为2-1中获得的关键点置信度
5-3当模型稳定后,得到最终ReID模型。在测试阶段,将待查询图片q和测试集图片t输入最终的ReID模型进行特征提取获得q和t的关键点特征,分别为fq和ft。利用图匹配优化比较,可公式化为:
Figure BDA0003995871180000082
其中,
Figure BDA0003995871180000083
Figure BDA0003995871180000084
分别是图像q和t的第i个关键点置信度;cosine为余弦距离。
5-4对比查询图片特征与测试集图片是否属于同一类,输出同类的行人图片。

Claims (9)

1.一种基于姿态估计和背景抑制的遮挡行人重识别方法,其特征在于,包括以下步骤:
步骤(1)构建基于ViT的行人特征提取骨干网,获得遮挡行人的全局特征fcls和局部特征ff_local,并将局部特征ff_local重组为局部特征图flocal
步骤(2)通过预训练的ViTPose获得行人图像关键点的热度图fpos和关键点置信度组Vkc,利用步骤(1)获得的局部特征图flocal和热度图fpos获得行人关键点特征组fkeypoints
步骤(3)构建由Conv和GCN组成的局部特征增强图卷积模块,通过Conv利用全局特征fcls增强行人关键点特征组fkeypoints中每个关键点特征得到局部特征组fkp_en,并通过关键点得到关键点邻接矩阵A,将局部特征组的fkp_en和关键点邻接矩阵A作为GCN的输入,获得最终行人关键点特征ff_keypoints
步骤(4)构建由全局平均池化和卷积网络组成的注意力背景抑制模块,将步骤(1)获得的局部特征图flocal和步骤(2)获得的热度图fpos输入注意力背景抑制模块,获得输出的行人特征fatt_local,将其切分后作为最终特征;
步骤(5)由行人特征提取骨干网、ViTPose、局部特征增强图卷积模块和注意力背景抑制模块构建成遮挡行人重识别模型,使用步骤(1)中的行人全局特征fcls、步骤(3)中的行人关键点特征ff_keypoints和步骤(4)中的行人特征fatt_local对遮挡行人重识别模型进行训练,得到最终的遮挡行人重识别模型。
2.根据权利要求1所述的一种基于姿态估计和背景抑制的遮挡行人重识别方法,其特征在于,所述行人特征提取骨干网为:采用在ImageNet上预训练过的ViT作为行人特征提取初始网络,在图像输入ViT之前,使用一个卷积网络对图像进行特征提取,如公式(1)所示:
x=Conv(X) (1)
其中X表示行人图像,Conv表示卷积网络,x为卷积网络输出的行人特征。
3.根据权利要求2所述的一种基于姿态估计和背景抑制的遮挡行人重识别方法,其特征在于,获得遮挡行人的全局特征fcls和局部特征ff_local的方法为:对于获得的行人特征x,按照预设的patch大小p进行分割,生成特征图序列
Figure FDA0003995871170000021
N为可分割的数量,再对xP加上相机视角信息[CAM_VIEW],其维度大小均与xP相同,如公式(2)所示:
xP=xP+λ*Ecam_view (2)
其中λ为超参数,用于表示相机视角信息的权重;Ecam_view为[CAM_VIEW],表示相机视角信息;
为xP加上表示全局特征的[CLS_TOKEN]和位置信息编码[P0S_TOKEN],经过线性编码后可得特征Z,如公式(3)所示;
Figure FDA0003995871170000022
其中,xcls为[CLS_TOKEN]全局特征向量;linear(·)为线性编码函数;Epos为[POS_TOKEN],表示空间位置;
将获得的特征Z输入ViT,ViT由多个Transformer block堆叠而成,如公式(4)(5)所示:
Z′l=MSA(LN(Zl-1))+Zl-1 l=1...L (4)
Zl=MLP(LN(Z′l))+Z′l l=1...L (5)
其中,Zl表示第l层Transformer块输出的特征,Z′l为Transformer块内的中间结果,L为总层数,其中,MSA(·)为多头注意力机制、LN(·)为层归一化、MLP(·)为多层感知器,
网络输出结果即为最后一层的输出特征,分别为全局特征
Figure FDA0003995871170000023
和局部特征组ff_local
4.根据权利要求1-3任意一项所述的一种基于姿态估计和背景抑制的遮挡行人重识别方法,其特征在于,所述局部特征图flocal的获取方法:对局部特征组ff_local重新排列,表达式如下:
flocal=reshape(ff_local) (6)
其中,reshape(·)为重排列函数。
5.根据权利要求4所述的一种基于姿态估计和背景抑制的遮挡行人重识别方法,其特征在于,所述步骤(2)具体实现过程如下:
2-1使用在CoCo数据集上预训练的ViTPose提取行人图像的关键点,通过ViTPose获得行人图像中行人关键点的热力图fpos和关键点集合Vkc={V1,V2,...,Vs},其中,Vs是通过行人关键点算法获得人体关键点如公式(7)所示;
fpos,Vkc=ViTPose(Image) (7)
其中,Vs={kx,ky,kc},kx,ky分别为关键点坐标,kc为关键点置信度;fpos为ViTPose输出的关键点热力图;
2-2利用获得的局部特征图flocal和热力图fpos,通过向量外积和全局平均池化即可获得S个行人关键点局部特征,如公式(8)所示:
Figure FDA0003995871170000031
其中,GAP为全局平均池化;行人关键点特征组
Figure FDA0003995871170000032
S为关键点数量,C为特征通道数。
6.根据权利要求5所述的一种基于姿态估计和背景抑制的遮挡行人重识别方法,其特征在于,所述步骤(3)中,获得局部特征组fkp_en的方法:
首先行人关键点特征组可表示为公式(9):
Figure FDA0003995871170000033
然后对每个关键点特征和行人全局特征fcls应用1*1卷积,如公式(10)(11)所示:
fkp_conv=Conv1×1(fkeypoints) (10)
fcls_conv=Conv1×1(fcls) (11)
其中,fkp_conv是每个局部特征卷积之后的特征,fcls_conv是全局特征卷积后的特征;
利用获取的行人关键点特征组fkeypoints和行人全局特征fcls,通过向量数量积、softmax和相加等,计算增强后的关键点的局部特征组为fkp_en,如公式(12),(13)所示:
Vsim=Softmax(fkp_conv⊙fcls_conv) (12)
fkp_en=Conv(fkeypoints+w*(fcls_conv+Vsim*fcls)) (13)
其中,Conv为卷积操作;w为可学习权重;Vsim为相似度。
7.根据权利要求6所述的一种基于姿态估计和背景抑制的遮挡行人重识别方法,其特征在于,所述步骤(3)中,获得最终行人关键点特征ff_keypoints的方法为:通过行人关键点邻接矩阵A和局部特征组的fkp_en作为图卷积网络的输入,获得图卷积网络输出的最终行人关键点特征ff_keypoints,如公式(14)所示:
ff_keypoints=GCN(A,fkp_en) (14)
其中,GCN为图卷积网络,A为预先定义的人体关键点邻接矩阵。
8.根据权利要求7所述的一种基于姿态估计和背景抑制的遮挡行人重识别方法,其特征在于,所述步骤(4)具体实现过程如下:
4-1将关键点热度图fpos全局平均池化后作为行人关键点特征,补充到局部特征flocal
4-2将局部特征图flocal作为一个图结构,即图内有H*W个节点,每个节点是C维特征,首先将局部特征图flocal输入两个1*1的卷积网络,并将其中一个卷积网络的输出转置即可构建节点与节点之间的关系,如公式(15)所示
Ri,j=Conv(flocal)TConv(flocal) (15)
其中Ri,j是关系特征矩阵,Conv是卷积网络
4-3利用关系特征矩阵Ri,j获得对应关系的空间感知特征fsp,然后将行人局部特征图flocal、4-1中行人关键点特征fpos和空间感知特征fsp嵌入链接,如公式(16)(17)所示
fsp=Conv(Ri,j) (16)
fconcat=Concat[Conv(flocal),Conv(fsp),Conv(fpos)] (17)
其中,fsp为获得的空间感知特征,Concat(·)为通道链接函数,fconcat为连接后的特征向量,
将fconcat输入1*1的卷积网络和Sigmod便可获得空间注意力图fatten,最后,通过空间注意力图fatten与局部特征图flocal相乘即可获得最后的行人特征图fatt_local
4-4之后按照行人结构,构建多个分类头,将行人特征图fatt_local划分为4个局部特征f1、f2、f3、f4,对行人图像进行分类。
9.根据权利要求8所述的一种基于姿态估计和背景抑制的遮挡行人重识别方法,其特征在于所述步骤(5)具体实现过程如下:
5-1使用行人重识别数据集中标注数据作为监督信息,对每个训练批次采用ID损失和困难三元组损失训练网络,ID损失采用交叉熵损失训练网络,其公式如下:
Figure FDA0003995871170000051
其中N为行人类别数,qi是监督标签,pi是预测标签;
困难三元组损失通过随机采样P个身份,每个身份抽取K个实例,组成一个大小为P*K的minibatch;依次选取批次中的每个图片xa作为锚点,选出批次中距离最远的正样本图片xp和距离最近的负样本图片xn组成三元组来训练网络,增强网络的泛化能力;其公式为:
Figure FDA0003995871170000052
5-2根据行人的全局特征fcls、最终行人关键点特征组ff_keypoints和行人特征fatt_local划分生成的f1、f2、f3、f4对遮挡行人重识别模型进行训练,得到最终的遮挡行人重识别模型,具体可公式化为:
Figure FDA0003995871170000053
其中,S为行人关键点数量,kc为2-1中获得的关键点置信度;
5-3当模型稳定后,即最终遮挡行人重识别模型,在测试阶段,将待查询图片q和测试集图片t输入最终的遮挡行人重识别模型进行特征提取获得q和t的关键点特征,分别为fq和ft,利用图匹配优化比较,可公式化为:
Figure FDA0003995871170000061
其中,
Figure FDA0003995871170000062
Figure FDA0003995871170000063
分别是图像q和t的第i个关键点置信度;cosine为余弦距离;
5-4对比查询图片特征与测试集图片是否属于同一类,输出同类的行人图片。
CN202211593464.9A 2022-12-13 2022-12-13 一种基于姿态估计和背景抑制的遮挡行人重识别方法 Active CN115830637B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202211593464.9A CN115830637B (zh) 2022-12-13 2022-12-13 一种基于姿态估计和背景抑制的遮挡行人重识别方法
US18/488,146 US11908222B1 (en) 2022-12-13 2023-10-17 Occluded pedestrian re-identification method based on pose estimation and background suppression

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211593464.9A CN115830637B (zh) 2022-12-13 2022-12-13 一种基于姿态估计和背景抑制的遮挡行人重识别方法

Publications (2)

Publication Number Publication Date
CN115830637A true CN115830637A (zh) 2023-03-21
CN115830637B CN115830637B (zh) 2023-06-23

Family

ID=85546699

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211593464.9A Active CN115830637B (zh) 2022-12-13 2022-12-13 一种基于姿态估计和背景抑制的遮挡行人重识别方法

Country Status (2)

Country Link
US (1) US11908222B1 (zh)
CN (1) CN115830637B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116704552A (zh) * 2023-06-13 2023-09-05 中国电子科技集团公司第五十四研究所 基于主要次要特征的人体姿态估计方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117994823B (zh) * 2024-04-07 2024-06-25 南京信息工程大学 一种基于掩码先验和分层聚合Transformer的遮挡行人重识别方法
CN118411739B (zh) * 2024-07-02 2024-09-03 江西财经大学 基于动态注意力的视觉语言行人重识别网络方法与系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113128461A (zh) * 2021-05-06 2021-07-16 东南大学 基于人体关键点挖掘全尺度特征的行人重识别性能提升方法
CN113361334A (zh) * 2021-05-18 2021-09-07 山东师范大学 基于关键点优化和多跳注意图卷积行人重识别方法及系统
CN114120363A (zh) * 2021-11-23 2022-03-01 上海市刑事科学技术研究院 基于背景及姿态归一化的行人跨镜重识别方法及系统
CN115050048A (zh) * 2022-05-25 2022-09-13 杭州像素元科技有限公司 一种基于局部细节特征的跨模态行人重识别方法
CN115311619A (zh) * 2022-08-01 2022-11-08 厦门路桥信息股份有限公司 一种基于深度学习的遮挡行人重识别方法
WO2022236668A1 (zh) * 2021-05-11 2022-11-17 深圳大学 行人重识别方法、系统、电子装置及存储介质
JP2022174707A (ja) * 2021-05-11 2022-11-24 広西科学院 スペース・シーケンス・フィーチャー学習に基づく歩行者の再識別システムおよび方法
CN115497122A (zh) * 2022-09-26 2022-12-20 天津理工大学 遮挡行人重识别方法、装置、设备和计算机可存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10657364B2 (en) * 2016-09-23 2020-05-19 Samsung Electronics Co., Ltd System and method for deep network fusion for fast and robust object detection
US11112796B2 (en) * 2017-08-08 2021-09-07 Uatc, Llc Object motion prediction and autonomous vehicle control
US20220066544A1 (en) * 2020-09-01 2022-03-03 Georgia Tech Research Corporation Method and system for automatic extraction of virtual on-body inertial measurement units
CN114783003B (zh) * 2022-06-23 2022-09-20 之江实验室 一种基于局部特征注意力的行人重识别方法和装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113128461A (zh) * 2021-05-06 2021-07-16 东南大学 基于人体关键点挖掘全尺度特征的行人重识别性能提升方法
WO2022236668A1 (zh) * 2021-05-11 2022-11-17 深圳大学 行人重识别方法、系统、电子装置及存储介质
JP2022174707A (ja) * 2021-05-11 2022-11-24 広西科学院 スペース・シーケンス・フィーチャー学習に基づく歩行者の再識別システムおよび方法
CN113361334A (zh) * 2021-05-18 2021-09-07 山东师范大学 基于关键点优化和多跳注意图卷积行人重识别方法及系统
CN114120363A (zh) * 2021-11-23 2022-03-01 上海市刑事科学技术研究院 基于背景及姿态归一化的行人跨镜重识别方法及系统
CN115050048A (zh) * 2022-05-25 2022-09-13 杭州像素元科技有限公司 一种基于局部细节特征的跨模态行人重识别方法
CN115311619A (zh) * 2022-08-01 2022-11-08 厦门路桥信息股份有限公司 一种基于深度学习的遮挡行人重识别方法
CN115497122A (zh) * 2022-09-26 2022-12-20 天津理工大学 遮挡行人重识别方法、装置、设备和计算机可存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SHUREN ZHOU ET AL.: "《Occluded person re‑identification based on embedded graph matching network for contrastive feature relation》", 《THEORETICAL ADVANCES》 *
焦隆: "《面向安防监控的行人重识别设计与实现》", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
韩志伟: "《自然场景下的行人重识别研究》", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116704552A (zh) * 2023-06-13 2023-09-05 中国电子科技集团公司第五十四研究所 基于主要次要特征的人体姿态估计方法
CN116704552B (zh) * 2023-06-13 2024-03-12 中国电子科技集团公司第五十四研究所 基于主要次要特征的人体姿态估计方法

Also Published As

Publication number Publication date
CN115830637B (zh) 2023-06-23
US11908222B1 (en) 2024-02-20

Similar Documents

Publication Publication Date Title
US20220180132A1 (en) Cross-modality person re-identification method based on local information learning
CN107066559B (zh) 一种基于深度学习的三维模型检索方法
CN111814661B (zh) 基于残差-循环神经网络的人体行为识别方法
CN115830637A (zh) 一种基于姿态估计和背景抑制的遮挡行人重识别方法
CN110008842A (zh) 一种基于深度多损失融合模型的行人重识别方法
CN109063666A (zh) 基于深度可分离卷积的轻量化人脸识别方法及系统
CN110717411A (zh) 一种基于深层特征融合的行人重识别方法
CN106845341B (zh) 一种基于虚拟号牌的无牌车辆识别方法
CN110751018A (zh) 一种基于混合注意力机制的群组行人重识别方法
CN110765841A (zh) 基于混合注意力机制的群组行人重识别系统及终端
CN114782977B (zh) 一种基于拓扑信息和亲和度信息引导行人重识别方法
CN112580502B (zh) 基于sicnn的低质量视频人脸识别方法
Bouma et al. Re-identification of persons in multi-camera surveillance under varying viewpoints and illumination
CN113610046B (zh) 一种基于深度视频联动特征的行为识别方法
Yu et al. Spatiotemporal feature descriptor for micro-expression recognition using local cube binary pattern
CN112329662B (zh) 基于无监督学习的多视角显著性估计方法
CN111401113A (zh) 一种基于人体姿态估计的行人重识别方法
CN114882537A (zh) 一种基于神经辐射场的手指新视角图像生成方法
Soltani et al. Euclidean distance versus Manhattan distance for skin detection using the SFA database
CN109614870A (zh) 一种行人识别及定位方法
CN112257553B (zh) 一种基于循环矩阵的行人重识别方法
CN114663974A (zh) 一种融入位置感知注意力的行人重识别方法
CN112633229A (zh) 一种基于spd流形的行人重识别系统
Nguyen et al. Correlation-extreme method for text area localization on images
Xu et al. A method of color palmprint recognition based on densenet integrate spatial and channel features

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant