CN110472591B - 一种基于深度特征重构的遮挡行人重识别方法 - Google Patents

一种基于深度特征重构的遮挡行人重识别方法 Download PDF

Info

Publication number
CN110472591B
CN110472591B CN201910765422.0A CN201910765422A CN110472591B CN 110472591 B CN110472591 B CN 110472591B CN 201910765422 A CN201910765422 A CN 201910765422A CN 110472591 B CN110472591 B CN 110472591B
Authority
CN
China
Prior art keywords
image
pedestrian
divided
feature
skeleton
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910765422.0A
Other languages
English (en)
Other versions
CN110472591A (zh
Inventor
高飞
金一鸣
卢书芳
张元鸣
程振波
肖刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201910765422.0A priority Critical patent/CN110472591B/zh
Publication of CN110472591A publication Critical patent/CN110472591A/zh
Application granted granted Critical
Publication of CN110472591B publication Critical patent/CN110472591B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度特征重构的遮挡行人重识别方法,包括如下步骤,步骤1.1:给定待匹配的带遮挡行人的图像;步骤1.2:设计特征提取网络FPSN;步骤1.3:给待匹配图像Pd和Pc中的行人进行姿态预测,得到行人骨架;步骤2.1:根据骨架将图像Pd和Pc中的行人划分为头部,左右躯干以及上下腿部五个子图部分;步骤3.1:将图像Pdb和Pcb行分别放入FPSN网络中进行特征提取;步骤3.3,用Y中的块yj对X中任意的小块xi进行稀疏重构;步骤4.1:计算xi与yj的余弦相似度tij;步骤4.2:计算xi与Y之间的距离di;步骤4.3:根据式(1)计算图像Pd和Pc之间相似度;本发明的优点是:利用行人姿态估计,深度学习以及特征重构的方法,将行人图像进行子区域划分和遮挡部分处理。

Description

一种基于深度特征重构的遮挡行人重识别方法
技术领域
本发明涉及到深度学习,行人姿态估计,计算机视觉等各个领域,具体为一种基于深度特征重构的遮挡行人重识别方法。
背景技术
随着行人重识别技术的日益发展,识别的准确率和识别效率的提升,该技术已经越来越多的应用于智能安防领域,在公安,刑侦,公共安全等领域都发挥出了越来越重要的作用。不仅如此,行人重识别技术在无人超市,相册聚类等新兴领域也开始扮演重要角色。随着大数据时代的到来,行人重识别领域的行人匹配数据集也越来越庞大,数据量和数据类型都急剧上升,从早期1264张图像,632个行人仅包含两个摄像机的VIPeR数据集到如今,126441张图像,4101个行人,包含15个摄像机的MSMT17数据集,在数据变得越来越丰富多样的同时也给行人重识别的效率和准确率带来了极大的挑战。经过多年的发展与深度学习时代的来临,目前行人重识别技术主流以深度学习的方法为主。但就目前看来,行人重识别技术远远没有达到能够商用的成熟技术标准,基于深度学习的行人重识别方法仍然有很大的探索和进步空间。遮挡行人重识别就是一个其中极具探索价值的问题。行人图像在摄像机下很容易被遮挡,但是目前遮挡行人重识别的平均准确率并不高。
因此,利用深度学习以及特征重构的方法进行遮挡行人重识别仍具有较高的研究价值与意义,且有非常大的可行性。
ICCV,Zhang利用MSTR(multi-task sparse representation无需对齐,用稀疏特征表达,即词典的方法表示特征)方法应对遮挡行人重识别,与此同时添加约束减少错误对齐和匹配图像块的数目,并引入图像块相似性评分机制,考虑了全局性的部件匹配,利用上空间布局信息,减少错误匹配;香港中文大学,Kim利用CNN,RoI Pooling和Attention模型结合应对行人重识别,利用RoIpooling层可以提取与输入图像的预定义部分对应的特征矢量,再通过Attention模型有选择地关注CNN特征向量的子集,并在该网络框架下将人体分为13个局部部分以应对行人不同位置的遮挡;清华大学,Su提出了一种姿态驱动的深度卷积(PDC)模型,利用人体各个部分的骨架信息来减轻姿态变化,从全局图像和各个不同的局部部分学习更具有鲁棒的特征表示,并设计了姿态驱动特征加权子网络以学习自适应特征融合来匹配来自人体全身和各个局部身体部位的特征;CVPR,Sun设计了baseline-PCB(Part-based Convolutional Baseline)网络,其能得到由几个局部级别的特征得到的综合描述子用于reid任务的行人匹配,在baseline中一个行人图像的各局部间考虑了信息过渡的连续性,并在训练时采用对抗网络的思想,使用RPP(refinedpartpooling)策略使局部内产生一个连续性,使得最终基于局部的模型得到更强的应用性与鲁棒性;中科大,Zhao利用在其他数据集上训练好的姿势估计模型无监督迁移到Re-ID数据集上,得到局部特征的定位,并提取局部特征信息(part-level features),再通过人体区域引导多阶段特征提取网络(FEN)与树结构竞争特征融合网络(FFN)结合的方式得到最终行人特征用于匹配;中科大,He提出了一种将稀疏重建学习和深度学习融合的不需要行人图像对齐且对输入图像大小没有尺寸约束的遮挡局部reID方法,通过最小化同一id的行人图像的重构误差、最大化不同id的重建误差来训练端到端深度模型。
上述文献和方法中虽然都提到了利用深度学习等方法对行人图像或遮挡行人图像进行匹配,但仍存在以下不足:
1)方法仅针对某个数据集,且遮挡情况复杂多变,并未将遮挡的各种情况考虑完全。
2)重识别准确率不高,相比较行人重识别,遮挡行人重识别的平均准确率以及效率都极为低下。
因此,如何设计一种新的方法进行遮挡行人重识别,使其具有较高的平均准确率以及匹配效率,同时在各个遮挡数据集以及行人数据集都有较好的表现效果是目前仍需解决的一个问题。
发明内容
为克服上述算法和方法存在的不足,提高遮挡行人重识别的效率以及准确率,本发明提出了一种基于深度特征重构的遮挡行人重识别方法。
一种基于深度特征重构的遮挡行人重识别方法,其特征在于,包括如下步骤:
步骤1.1:给定待匹配的带遮挡行人的图像,归一化到固定大小,分别记为Pd和Pc
步骤1.2:设计特征提取网络FPSN,该网络以Resnet作为网络主干并去掉最后的平均池化层和softmax层;
步骤1.3:利用姿态估计算法给待匹配图像Pd和Pc中的行人进行姿态预测,得到行人骨架;
步骤2.1:根据骨架将图像Pd中的行人划分为头部,左右躯干以及上下腿部五个子图部分,并将被遮挡而没有划分出的区域进行涂黑,将这张图像命名为Pdb
步骤2.2:根据骨架将图像Pc中的行人划分为头部,左右躯干以及上下腿部五个子图部分,并将被遮挡而没有划分出的区域进行涂黑,将这张图像命名为Pcb
步骤3.1:将图像Pdb和Pcb行分别放入FPSN网络中进行特征提取,分别得到一张W×H×D的特征图,记为Pdf和Pcf,其中W代表宽度,H代表高度,D代表通道数;
步骤3.2:将特征图Pdf和Pcf分别分为W×H个小块,其中每个小块的大小为1×1×D,特征图Pdf划分的M个小块集合记为X,X={xi|i=1,2,…,M},特征图Pcf划分的N个小块集合记为Y,Y={yj|j=1,2,…,N};
步骤3.3:,用Y中的块yj对X中任意的小块xi进行稀疏重构,得到xi相对于Y的稀疏系数为wi
步骤4.1:计算xi与yj的余弦相似度tij
步骤4.2:计算xi与Y之间的距离di
di=min{(||xi-wiyk||2-λtikwi)|k=1,2,…,N} (1)
其中,参数λ是提前设置的控制参数,min表示求集合中的最小值,||·||2表示给定向量的2范数,yk表示Y中的一个小块,tik表示xi与yk的余弦相似度;
步骤4.3:根据式(1)计算图像Pd和Pc之间相似度:
Figure BDA0002171770590000051
其中,M表示步骤3.2中特征图Pdf划分的小块数量;
步骤4.4:给定阈值T,若D(Pd,Pc)≥T,认定图像Pd和Pc为相似。
本发明的优点是:利用行人姿态估计,深度学习以及特征重构的方法,将行人图像进行子区域划分和遮挡部分处理,通过特征提取得到特征图,利用稀疏重构的方法进行特征图子块匹配,最终得到精准的遮挡行人重识别结果,相比较其他方法而言,提高遮挡行人重识别的准确性,以及遮挡行人重识别方法在各个遮挡行人数据集和行人重识别数据集上的识别准确率和鲁棒性。
附图说明
图1为待匹配图像Pd
图2为待匹配图像Pc
图3为待匹配图像Pd行人骨架图;
图4为待匹配图像Pc行人骨架图;
图5为待输入图像Pdb
图6为待输入图像Pcb
具体实施方式
下面基于实例来阐述本发明基于深度特征重构的遮挡行人重识别方法的具体实施方式。
步骤1.1:给定待匹配的带遮挡行人的图像,归一化到固定大小,分别记为Pd和Pc;在本实施例中,图像Pd和Pc如图1-2所示,归一化到固定大小348×192;
步骤1.2:设计特征提取网络FPSN,该网络以Resnet作为网络主干并去掉最后的平均池化层和softmax层;
步骤1.3:利用姿态估计算法给待匹配图像Pd和Pc中的行人进行姿态预测,得到行人骨架;在本实施例中,行人骨架图如图3-4所示;
步骤2.1:根据骨架将图像Pd中的行人划分为头部,左右躯干以及上下腿部五个子图部分,并将被遮挡而没有划分出的区域进行涂黑,将这张图像命名为Pdb;在本实施例中,涂黑后的图像Pdb如图5所示;
步骤2.2:根据骨架将图像Pc中的行人划分为头部,左右躯干以及上下腿部五个子图部分,并将被遮挡而没有划分出的区域进行涂黑,将这张图像命名为Pcb;在本实施例中,涂黑后的图像Pcb如图6所示;
步骤3.1:将图像Pdb和Pcb行分别放入FPSN网络中进行特征提取,分别得到一张W×H×D的特征图,记为Pdf和Pcf,其中W代表宽度,H代表高度,D代表通道数;在本实施例中,W取值为8,H取值为16,D取值为1024;
步骤3.2:将特征图Pdf和Pcf分别分为W×H个小块,其中每个小块的大小为1×1×D,特征图Pdf划分的M个小块集合记为X,X={xi|i=1,2,…,M},特征图Pcf划分的N个小块集合记为Y,Y={yj|j=1,2,…,N};
步骤3.3:用Y中的块yj对X中任意的小块xi进行稀疏重构,得到xi相对于Y的稀疏系数为wi
步骤4.1:计算xi与yj的余弦相似度tij
步骤4.2:计算xi与Y之间的距离di
di=min{(||xi-wiyk||2-λtikwi)|k=1,2,…,N} (1)
其中,参数λ是提前设置的控制参数,min表示求集合中的最小值,||·||2表示给定向量的2范数,yk表示Y中的一个小块,tik表示xi与yk的余弦相似度;
步骤4.3:根据式(1)计算图像Pd和Pc之间相似度:
Figure BDA0002171770590000071
其中,M表示步骤3.2中特征图Pdf划分的小块数量;
步骤4.4:给定阈值T,若D(Pd,Pc)≥T,认定图像Pd和Pc为相似;在本实施例中,T取值为0.65。
本说明书实施例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围的不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。

Claims (1)

1.一种基于深度特征重构的遮挡行人重识别方法,其特征在于,包括如下步骤:
步骤1.1:给定待匹配的带遮挡行人的图像,归一化到固定大小,分别记为Pd和Pc
步骤1.2:设计特征提取网络FPSN,该网络以Resnet作为网络主干并去掉最后的平均池化层和softmax层;
步骤1.3:利用姿态估计算法给待匹配图像Pd和Pc中的行人进行姿态预测,得到行人骨架;
步骤2.1:根据骨架将图像Pd中的行人划分为头部、左躯干、右躯干、上腿部、以及下腿部五个子图部分,并将被遮挡而没有划分出的区域进行涂黑,将这张图像命名为Pdb
步骤2.2:根据骨架将图像Pc中的行人划分为头部、左躯干、右躯干、上腿部以及下腿部五个子图部分,并将被遮挡而没有划分出的区域进行涂黑,将这张图像命名为Pcb
步骤3.1:将图像Pdb和Pcb行分别放入FPSN网络中进行特征提取,分别得到一张W×H×D的特征图,记为Pdf和Pcf,其中W代表宽度,H代表高度,D代表通道数;
步骤3.2:将特征图Pdf和Pcf分别分为W×H个小块,其中每个小块的大小为1×1×D,特征图Pdf划分的M个小块集合记为X,X={xi|i=1,2,…,M},特征图Pcf划分的N个小块集合记为Y,Y={yj|j=1,2,…,N};
步骤3.3:用Y中的块yj对X中任意的小块xi进行稀疏重构,得到xi相对于Y的稀疏系数为wi
步骤4.1:计算xi与yj的余弦相似度tij
步骤4.2:计算xi与Y之间的距离di
di=min{(||xi-wiyk||2-λtikwi)|k=1,2,…,N} (1)
其中,参数λ是提前设置的控制参数,min表示求集合中的最小值,||·||2表示给定向量的2范数,yk表示Y中的一个小块,tik表示xi与yk的余弦相似度;
步骤4.3:根据式(2)计算图像Pd和Pc之间相似度:
Figure FDA0003499730180000021
其中,M表示步骤3.2中特征图Pdf划分的小块数量;
步骤4.4:给定阈值T,若D(Pd,Pc)≥T,认定图像Pd和Pc为相似。
CN201910765422.0A 2019-08-19 2019-08-19 一种基于深度特征重构的遮挡行人重识别方法 Active CN110472591B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910765422.0A CN110472591B (zh) 2019-08-19 2019-08-19 一种基于深度特征重构的遮挡行人重识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910765422.0A CN110472591B (zh) 2019-08-19 2019-08-19 一种基于深度特征重构的遮挡行人重识别方法

Publications (2)

Publication Number Publication Date
CN110472591A CN110472591A (zh) 2019-11-19
CN110472591B true CN110472591B (zh) 2022-03-25

Family

ID=68511287

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910765422.0A Active CN110472591B (zh) 2019-08-19 2019-08-19 一种基于深度特征重构的遮挡行人重识别方法

Country Status (1)

Country Link
CN (1) CN110472591B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111177447B (zh) * 2019-12-26 2021-04-30 南京大学 一种基于深度网络模型的行人图像识别方法
US20210274091A1 (en) * 2020-02-28 2021-09-02 Weta Digital Limited Reconstruction of obscured views of captured imagery using arbitrary captured inputs
CN112472481A (zh) * 2020-12-15 2021-03-12 沈阳工业大学 一种躯干遮挡状态下动态人体位姿识别嵌入式平台

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107844752A (zh) * 2017-10-20 2018-03-27 常州大学 一种基于块稀疏表示的行人重识别方法
WO2019007004A1 (zh) * 2017-07-04 2019-01-10 北京大学深圳研究生院 用于行人重识别的图像特征提取方法
CN109800710A (zh) * 2019-01-18 2019-05-24 北京交通大学 行人重识别系统及方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019007004A1 (zh) * 2017-07-04 2019-01-10 北京大学深圳研究生院 用于行人重识别的图像特征提取方法
CN107844752A (zh) * 2017-10-20 2018-03-27 常州大学 一种基于块稀疏表示的行人重识别方法
CN109800710A (zh) * 2019-01-18 2019-05-24 北京交通大学 行人重识别系统及方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Cross-view transformation based sparse reconstruction for person re-identification";Wei-Xiong He等;《2016 23rd International Conference on Pattern Recognition (ICPR)》;20170424;第3399-3404页 *
"Deep Spatial Feature Reconstruction for Partial Person Re-identification: Alignment-free Approach";Lingxiao He等;《2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition》;20181217;第7073-7082页 *
"基于不变特征和核距离度量学习的行人再识别";刘琦等;《图像与信号处理》;20180404;第7卷(第2期);第65-73页 *

Also Published As

Publication number Publication date
CN110472591A (zh) 2019-11-19

Similar Documents

Publication Publication Date Title
Song et al. Region-based quality estimation network for large-scale person re-identification
CN108764065B (zh) 一种行人重识别特征融合辅助学习的方法
Zhao et al. A survey on deep learning-based fine-grained object classification and semantic segmentation
Liang et al. Gaitedge: Beyond plain end-to-end gait recognition for better practicality
Deng et al. Image aesthetic assessment: An experimental survey
CN109741331B (zh) 一种图像前景物体分割方法
CN110472591B (zh) 一种基于深度特征重构的遮挡行人重识别方法
Zhao et al. Saliency detection by multi-context deep learning
Tran et al. Two-stream flow-guided convolutional attention networks for action recognition
CN113408492B (zh) 一种基于全局-局部特征动态对齐的行人重识别方法
CN109325471B (zh) 一种结合表观特征和时空分布的双流网络行人重识别方法
CN105718882B (zh) 一种分辨率自适应特征提取与融合的行人重识别方法
CN112101150A (zh) 一种基于朝向约束的多特征融合行人重识别方法
CN109858406A (zh) 一种基于关节点信息的关键帧提取方法
CN111639564B (zh) 一种基于多注意力异构网络的视频行人重识别方法
CN110796026A (zh) 一种基于全局特征拼接的行人重识别方法
Yang et al. Tracking based multi-orientation scene text detection: A unified framework with dynamic programming
Huang et al. Joint cross-modal and unimodal features for RGB-D salient object detection
CN110503613A (zh) 基于级联空洞卷积神经网络的面向单幅图像去雨方法
Zhang et al. Deep learning based human action recognition: A survey
Gao et al. Co-saliency detection with co-attention fully convolutional network
CN106504204A (zh) 一种基于稀疏表示的单幅图像去雨方法
CN104200218B (zh) 一种基于时序信息的跨视角动作识别方法及系统
CN113221770A (zh) 基于多特征混合学习的跨域行人重识别方法及系统
Deng et al. DRD-Net: Detail-recovery image deraining via context aggregation networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant