CN107944340B - 一种结合直接度量和间接度量的行人再识别方法 - Google Patents

一种结合直接度量和间接度量的行人再识别方法 Download PDF

Info

Publication number
CN107944340B
CN107944340B CN201711005741.9A CN201711005741A CN107944340B CN 107944340 B CN107944340 B CN 107944340B CN 201711005741 A CN201711005741 A CN 201711005741A CN 107944340 B CN107944340 B CN 107944340B
Authority
CN
China
Prior art keywords
image
pedestrian
library
image library
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711005741.9A
Other languages
English (en)
Other versions
CN107944340A (zh
Inventor
蒋桧慧
郭立君
张�荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo University
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201711005741.9A priority Critical patent/CN107944340B/zh
Publication of CN107944340A publication Critical patent/CN107944340A/zh
Application granted granted Critical
Publication of CN107944340B publication Critical patent/CN107944340B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种结合直接度量和间接度量的行人再识别方法,其先确定第一待识别图像库和第一目标图像库,并提取第一、第二待识别图像库以及第一、第二目标图像库中的所有行人图像的特征向量;然后基于第一待识别图像库和第一目标图像库训练得到直接相似性得分和间接相似性得分的加权融合模型,作为最终相似性得分模型;接着使用第二待识别图像库与第二目标图像库测试训练好的最终相似性得分模型,依据第二待识别图像库中的每幅行人图像与第二目标图像库中的所有行人图像之间的最终相似性得分识别第二待识别图像库中的每幅行人图像;优点是充分利用了两幅图像自身的判别信息,及与两幅图像相关的其它图像的判别信息,从而大幅提高了行人识别精度。

Description

一种结合直接度量和间接度量的行人再识别方法
技术领域
本发明涉及一种图像识别技术,尤其是涉及一种结合直接度量和间接度量的行人再识别方法。
背景技术
行人再识别是计算机视觉中的核心技术,现如今很多计算机视觉中的高层应用都依赖于准确的行人识别结果,如目标跟踪、智能视频监控等。然而,由于图像存在光照变化、视角变化、遮挡等问题,因此行人再识别一直是计算机视觉中最具有挑战性的任务之一。作为多种视觉应用的基础和富有挑战性的任务,行人再识别技术在计算机视觉领域一直广受关注,如何更好地对行人进行再识别,国内外相关机构进行了深入地研究。
度量学习的主要任务是学习一个线性或非线性的映射,将行人高维表观特征映射到目标空间进行度量,使得同一行人的距离更小,不同行人的距离更大。KOSTINGER M,HIRZER M,WOHLHART P,et al.Large scale metric learning from equivalenceconstraints[C]//Computer Vision and Pattern Recognition(CVPR),2012:2288-2295.(马丁-克斯汀格,马丁-海瑞泽尔,保罗-沃海哈瑞特,等价约束中的大尺度度量学习[C].计算机视觉与模式识别大会,2012,2288-2295),其提出了保持最简单、最直接度量学习算法,其将两个高斯分布的对数似然比检验作为度量学习算法。Chen D,Yuan Z,Hua G,etal.Similarity learning on an explicit polynomial kernel feature map forperson re-identification[C]//Conference on Computer Vision and PatternRecognition,2015:1565-1573(陈大鹏,袁泽建,华刚,基于多项式核特征映射的相似性学习的行人再识别[C].计算机视觉与模式识别大会,2015,1565-1573),其将内核特征图作为相似性度量学习算法,能够匹配行人图像中某个块与另一行人图像中所有块,也能度量相同位置块的相似性。Carr,Peter.Person re-identification using deformable patchmetric learning[C]//IEEE Winter Conference on Applications of ComputerVision,2016:1278-1287.(卡尔,彼得,基于弹性块度量学习的行人再识别[C].IEEE,计算机视觉的应用研讨会,2016,1278-1287),其提出弹性模型,在对探测图像与目标图像中的块进行匹配时,允许错位匹配,且块错位的范围可以调节,有效地解决了不同摄像机下行人图像的视角和姿态的变化问题。Zhang Y,Li B,Lu H,et al.Sample-specific svmlearning for person re-identification[C]//Proceedings of the IEEE Conferenceon Computer Vision and Pattern Recognition.2016:1278-1287(张影,李宝华,卢湖川,基于明确样本的SVM训练的行人再识别[C].计算机视觉与模式识别,2016,1278-1287),其考虑到已有度量学习都是计算探测图像与目标图像的相似性,而忽略了探测图像与目标图像自身的差异性,因此提出将图像自身的差异性也作为度量学习的一部分,学习得到的度量对于每幅图像都有较高的适应性。上述的度量学习算法,直接利用了探测图像与目标图像自身包含的判别信息来计算探测图像与目标图像之间的相似性,而忽略了与探测图像和目标图像相关的其它图像的判别信息对于计算两者之间相似性的重要性。
Li W,Zhao R,Wang X.Human reidentification with transferred metriclearning[C]//Asian Conference on Computer Vision.Springer Berlin Heidelberg,2012:31-44(李伟,赵瑞,王小刚,基于转移度量学习的行人再识别[C].计算机视觉亚洲会议,2012,31-44),其在转移框架下,利用目标图像的k近邻(k-Nearest Neighbor,KNN)及其ground truth下对应的探测图像来训练度量,减少了因摄像头变化导致的识别错误。ZhongZ,Zheng L,Cao D,et al.Re-ranking Person Re-identification with k-reciprocalEncoding[J].Conference on Computer Vision and Pattern Recognition,2017(钟准,郑亮,曹东林,使用k相互编码的行人再识别重排序[C].计算机视觉与模式识别,2017),其将探测图像和目标图像各自的k相互近邻的重合数作为两者的相似性,充分利用近邻图像的判别信息来度量探测图像和目标图像的相似性。间接度量方式能够很好地利用与探测图像和目标图像相关的其它图像的识别信息来度量两者之间的相似性,但是却忽略了图像自身的识别信息,从而降低了识别效果。
基于以上原因,有必要研究一种结合直接度量和间接度量的行人再识别技术,要求该技术能够充分利用两幅图像所有的信息进行判别,不仅要充分利用两幅图像自身的判别信息,同时还要充分利用与两幅图像相关的其它图像的判别信息进行识别,以提高识别率。
发明内容
本发明所要解决的技术问题是提供一种结合直接度量和间接度量的行人再识别方法,其不仅充分利用了两幅图像自身的判别信息,而且还充分利用了与两幅图像相关的其它图像的判别信息,从而大幅提高了行人识别精度。
本发明解决上述技术问题所采用的技术方案为:一种结合直接度量和间接度量的行人再识别方法,其特征在于包括以下步骤:
①选取一个包含训练集和测试集的行人图像库,训练集包含有针对多个不同行人的行人图像,测试集也包含有针对多个不同行人的行人图像;其中,行人图像的尺寸大小为M×N像素;
设定训练集中包含的行人图像的总幅数为num;然后根据训练集中的num幅行人图像,将训练集分为第一待识别图像库和第一目标图像库,具体过程为:在训练集中,针对每个行人对应的多幅行人图像,从中任意挑选,以两幅行人图像作为一组组对,若每对行人图像来自不同摄像头,则将该对行人图像中的一幅行人图像归入第一待识别图像库、另一幅行人图像归入第一目标图像库;若该对行人图像来自同一摄像头,则丢弃该对行人图像;再设定第一待识别图像库中包含的行人图像的总幅数为total1,设定第一目标图像库中包含的行人图像的总幅数也为total1;其中,num和total1均为正整数,total1≥100,num≥2total1
设定测试集中的第二待识别图像库中包含的行人图像的总幅数为total2,设定测试集中的第二目标图像库中包含的行人图像的总幅数为total2';其中,total2和total2'均为正整数,total2≥1,total2'≥10;
提取第一待识别图像库和第一目标图像库及第二待识别图像库和第二目标图像库各自中的每幅行人图像的特征向量;其中,特征向量的维数为
Figure BDA0001444367380000031
符号
Figure BDA0001444367380000032
为向下取整符号;
②采用结构为
Figure BDA0001444367380000041
的BP神经网络将第一目标图像库中的所有行人图像各自的特征向量和第一待识别图像库中的所有行人图像各自的特征向量映射到嵌入空间中;然后采用内积法求解第一待识别图像库中的每幅行人图像在嵌入空间中的嵌入特征向量与第一目标图像库中的各幅行人图像在嵌入空间中的嵌入特征向量之间的相似性得分,并作为第一待识别图像库中的每幅行人图像与第一目标图像库中的各幅行人图像之间的直接相似性得分,将第一待识别图像库中的第u幅行人图像与第一目标图像库中的第v幅行人图像之间的直接相似性得分记为Gdirect(Su,Tv),Gdirect(Su,Tv)=<f(Su),f(Tv)>=(f(Su))Tf(Tv);其中,x表示第一目标图像库中的行人图像的特征向量或第一待识别图像库中的行人图像的特征向量,f(x)表示x映射到嵌入空间中后得到的嵌入特征向量,也即为第一目标图像库中的行人图像在嵌入空间中的嵌入特征向量或第一待识别图像库中的行人图像在嵌入空间中的嵌入特征向量,tanh()为BP神经网络的激活函数,WT为W的转置,W表示维数为d1×d2的映射矩阵,d1表示x的维数,d2表示f(x)的维数,b表示维数为d2的偏差向量,||tanh(WTx+b)||2表示求tanh(WTx+b)的2-范数,u和v均为正整数,1≤u≤total1,1≤v≤total1,Su表示第一待识别图像库中的第u幅行人图像的特征向量,Tv表示第一目标图像库中的第v幅行人图像的特征向量,符号“<>”为内积运算符号,(f(Su))T为f(Su)的转置,f(Su)表示Su映射到嵌入空间中后得到的嵌入特征向量,f(Tv)表示Tv映射到嵌入空间中后得到的嵌入特征向量;
③采用BP算法构建映射矩阵求解最优化模型,描述为:
Figure BDA0001444367380000042
然后采用梯度下降法求解上述映射矩阵求解最优化模型,得到W和b各自的值;其中,min()为求最小值函数,||W||F为求W的F-范数,Th表示第一目标图像库中的第h幅行人图像的特征向量,h为正整数,1≤h≤total1,Gdirect(Su,Th)表示第一待识别图像库中的第u幅行人图像在嵌入空间中的嵌入特征向量f(Su)与第一目标图像库中的第h幅行人图像在嵌入空间中的嵌入特征向量f(Th)之间的相似性得分,也即表示第一待识别图像库中的第u幅行人图像与第一目标图像库中的第h幅行人图像之间的直接相似性得分,
Figure BDA0001444367380000051
表示Su对应的正样本集合,若第一目标图像库中的一幅行人图像与第一待识别图像库中的第u幅行人图像为同一行人,则将第一目标图像库中的该幅行人图像的特征向量归入
Figure BDA0001444367380000052
中,
Figure BDA0001444367380000053
表示Su对应的负样本集合,若第一目标图像库中的一幅行人图像与第一待识别图像库中的第u幅行人图像不为同一行人,则将第一目标图像库中的该幅行人图像的特征向量归入
Figure BDA0001444367380000054
中,
Figure BDA0001444367380000055
表示求
Figure BDA0001444367380000056
中的元素的总个数,
Figure BDA0001444367380000057
表示求
Figure BDA0001444367380000058
中的元素的总个数,[]+为铰链损失函数;
④计算第一待识别图像库中的每幅行人图像与第一目标图像库中的各幅行人图像之间的间接相似性得分,将第一待识别图像库中的第u幅行人图像与第一目标图像库中的第v幅行人图像之间的间接相似性得分记为Gindirect(Su,Tv),
Figure BDA0001444367380000059
其中,k为正整数,R(Su,k)表示由第一待识别图像库中的第u幅行人图像的k相互近邻组成的集合,R(Tv,k)表示由第一目标图像库中的第v幅行人图像的k相互近邻组成的集合,符号“∩”为集合交运算符号,符号“∪”为集合并运算符号,|R(Su,k)∩R(Tv,k)|表示求R(Su,k)∩R(Tv,k)中的元素的总个数,|R(Su,k)∪R(Tv,k)|表示求R(Su,k)∪R(Tv,k)中的元素的总个数;
⑤根据第一待识别图像库中的每幅行人图像与第一目标图像库中的各幅行人图像之间的直接相似性得分和间接相似性得分,对第一待识别图像库中的每幅行人图像与第一目标图像库中的各幅行人图像之间的最终相似性得分进行描述,将第一待识别图像库中的第u幅行人图像与第一目标图像库中的第v幅行人图像之间的最终相似性得分记为G(Su,Tv),描述为:G(Su,Tv)=βdirect×Gdirect(Su,Tv)+βindirect×Gindirect(Su,Tv),其中,βdirect为Gdirect(Su,Tv)的权值参数,βindirect为Gindirect(Su,Tv)的权值参数,βdirectindirect=1;
⑥根据第一待识别图像库中的每幅行人图像与第一目标图像库中的各幅行人图像之间的最终相似性得分的描述,训练获取βdirect和βindirect的值;然后根据训练获取的βdirect和βindirect的值,得到最终相似性得分计算模型,描述为:G(S*,T*)=βdirect×Gdirect(S*,T*)+βindirect×Gindirect(S*,T*),其中,S*表示任意一幅待识别图像的特征向量,T*表示任意一幅目标图像的特征向量,Gdirect(S*,T*)表示任意一幅待识别图像与任意一幅目标图像之间的直接相似性得分,Gindirect(S*,T*)表示任意一幅待识别图像与任意一幅目标图像之间的间接相似性得分,G(S*,T*)表示任意一幅待识别图像与任意一幅目标图像之间的最终相似性得分;
⑦按照步骤②和步骤④的过程,以相同的操作,获取第二待识别图像库中的每幅行人图像与第二目标图像库中的各幅行人图像之间的直接相似性得分和间接相似性得分,将第二待识别图像库中的第u'幅行人图像与第二目标图像库中的第v'幅行人图像之间的直接相似性得分和间接相似性得分对应记为
Figure BDA0001444367380000061
Figure BDA0001444367380000062
然后将第二待识别图像库中的每幅行人图像与第二目标图像库中的各幅行人图像之间的直接相似性得分和间接相似性得分输入G(S*,T*)=βdirect×Gdirect(S*,T*)+βindirect×Gindirect(S*,T*)中进行测试,得到第二待识别图像库中的每幅行人图像与第二目标图像库中的各幅行人图像之间的最终相似性得分,将第二待识别图像库中的第u'幅行人图像与第二目标图像库中的第v'幅行人图像之间的最终相似性得分记为
Figure BDA0001444367380000063
Figure BDA0001444367380000064
再根据第二待识别图像库中的每幅行人图像与第二目标图像库中的各幅行人图像之间的最终相似性得分,识别第二待识别图像库中的每幅行人图像;对于第二待识别图像库中的第u'幅行人图像,找出该幅行人图像与第二目标图像库中的所有行人图像之间的最终相似性得分中的最高得分,将该幅行人图像中的行人识别为最高得分所对应的第二目标图像库中的行人图像中的行人;其中,u'和v'均为正整数,1≤u'≤total2,1≤v'≤total2',
Figure BDA0001444367380000065
表示第二待识别图像库中的第u'幅行人图像的特征向量,
Figure BDA0001444367380000071
表示第二目标图像库中的第v'幅行人图像的特征向量。
所述的步骤①中,第一待识别图像库中的每幅行人图像的特征向量和第一目标图像库中的每幅行人图像的特征向量及第二待识别图像库中的每幅行人图像的特征向量和第二目标图像库中的每幅行人图像的特征向量的提取过程相同,将第一待识别图像库或第一目标图像库或第二待识别图像库或第二目标图像库作为待处理库,对于待处理库中的第t幅行人图像,作为当前图像,将当前图像的特征向量记为xt,其中,t为正整数,1≤t≤total*,total*表示待处理库中包含的行人图像的总幅数,xt的获取过程为:
①_1、将当前图像划分成多个尺寸大小为10×10像素、步长为5像素的相互重叠的图像块;
①_2、提取当前图像中的每个图像块的HSV颜色特征、SILTP纹理特征以及SCNCD特征;然后获取当前图像中的每个图像块的特征向量,对于当前图像中的第p个图像块,该图像块的特征向量为由该图像块的HSV颜色特征、SILTP纹理特征以及SCNCD特征按序组合而成的列向量;其中,p为正整数,1≤p≤P,P表示当前图像中包含的图像块的总个数,
Figure BDA0001444367380000072
符号
Figure BDA0001444367380000073
为向下取整符号;
①_3、获取当前图像中的每个水平条的特征向量,对于当前图像中的第q个水平条,该水平条的特征向量中的每个bin下的值为属于该水平条的所有图像块的特征向量中相对应的bin下的值中的最大值;其中,q为正整数,1≤q≤Q,Q表示当前图像中包含的水平条的总个数,
Figure BDA0001444367380000074
①_4、将当前图像中的所有水平条的特征向量按序组成的列向量作为当前图像的特征向量xt
所述的步骤⑥中训练获取βdirect和βindirect的值的具体过程为:
⑥_1、构建权值参数求解最优化模型,描述为:
Figure BDA0001444367380000081
其中,min()为求最小值函数,β为βdirect和βindirect组成的向量,β=[βdirectindirect],||β||F为求β的F-范数,ξu表示Su对应的松弛项,λ用于平衡正则项
Figure BDA0001444367380000082
和total1个松弛项之和
Figure BDA0001444367380000083
λ的取值为0.01,“s.t.”表示“受约束于……”,βT为β的转置,
Figure BDA0001444367380000084
,
Figure BDA00014443673800000817
Y={yv,h|1≤v≤total1,1≤h≤total1},
Figure BDA0001444367380000085
Figure BDA00014443673800000818
表示第一待识别图像库中的第u幅行人图像对应的正样本排在第一待识别图像库中的第u幅行人图像对应的负样本前面,
Figure BDA00014443673800000816
表示第一待识别图像库中的第u幅行人图像对应的正样本排在第一待识别图像库中的第u幅行人图像对应的负样本后面,
Figure BDA0001444367380000086
Figure BDA0001444367380000087
Figure BDA0001444367380000088
表示第一待识别图像库中的第u幅行人图像对应的正样本集合,若第一目标图像库中的一幅行人图像与第一待识别图像库中的第u幅行人图像为同一行人,则将第一目标图像库中的该幅行人图像归入
Figure BDA0001444367380000089
中,
Figure BDA00014443673800000810
表示第一待识别图像库中的第u幅行人图像对应的负样本集合,若第一目标图像库中的一幅行人图像与第一待识别图像库中的第u幅行人图像不为同一行人,则将第一目标图像库中的该幅行人图像归入
Figure BDA00014443673800000811
中,
Figure BDA00014443673800000812
表示求
Figure BDA00014443673800000813
中的元素的总个数,
Figure BDA00014443673800000814
表示求
Figure BDA00014443673800000815
中的元素的总个数,G1(Su,Tv)为由Gdirect(Su,Tv)与Gindirect(Su,Tv)构成的相似性得分向量,G1(Su,Tv)=[Gdirect(Su,Tv),Gindirect(Su,Tv)],G1(Su,Th)为由第一待识别图像库中的第u幅行人图像与第一目标图像库中的第h幅行人图像之间的直接相似性得分Gdirect(Su,Th)与第一待识别图像库中的第u幅行人图像与第一目标图像库中的第h幅行人图像之间的间接相似性得分Gindirect(Su,Th)构成的相似性得分向量,Δ(Y*,Y)表示Y*与Y之间的AUC损失;
⑥_2、利用RankSVM求解上述权值参数求解最优化模型,得到β,即得到βdirect和βindirect
与现有技术相比,本发明的优点在于:
1)本发明方法采用融合直接度量和间接度量进行行人再识别的方法,直接度量能够基于两幅图像自身的判别信息度量图像对的相似性,间接度量能够基于与两幅图像相关的k相互近邻的判别信息度量图像对的相似性,依据与两幅图像相关的其它图像的判别信息计算相似性的方法可以有效消除相似的不同行人的误匹配,两者结合使用能够充分利用与待识别图像、目标图像相关的所有判别信息,从而可有效提高识别准确率。
2)本发明方法利用数据库中的样本训练出适用于取自不同场景的不同数据库的权值参数,而不是简单地给出固定的直接相似性得分和间接相似性得分的权值,利用本发明方法获得的权值参数很好地权衡了直接相似性得分和间接相似性得分的占比,从而提高了识别精度。
附图说明
图1为本发明方法的总体实现框图;
图2a为本发明方法中的间接度量中的k相互近邻的k值对识别率的影响趋势图;
图2b为本发明方法中的间接度量中的k相互近邻的k值对平均精度的影响趋势图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种结合直接度量和间接度量的行人再识别方法,其总体实现框图如图1所示,其包括以下步骤:
①选取一个包含训练集和测试集的行人图像库,训练集包含有针对多个不同行人的行人图像,测试集也包含有针对多个不同行人的行人图像;其中,行人图像的尺寸大小为M×N像素。
设定训练集中包含的行人图像的总幅数为num;然后根据训练集中的num幅行人图像,将训练集分为第一待识别图像库和第一目标图像库,具体过程为:在训练集中,针对每个行人对应的多幅行人图像,从中任意挑选,以两幅行人图像作为一组组对,若每对行人图像来自不同摄像头,则将该对行人图像中的一幅行人图像归入第一待识别图像库、另一幅行人图像归入第一目标图像库;若该对行人图像来自同一摄像头,则丢弃该对行人图像;再设定第一待识别图像库中包含的行人图像的总幅数为total1,设定第一目标图像库中包含的行人图像的总幅数也为total1;其中,num和total1均为正整数,total1≥100,num≥2total1
设定测试集中的第二待识别图像库中包含的行人图像的总幅数为total2,设定测试集中的第二目标图像库中包含的行人图像的总幅数为total2';其中,total2和total2'均为正整数,total2≥1,total2'≥10;在此,测试集中已明确给出待识别图像库和目标图像库,即作为第二待识别图像库和第二目标图像库。
提取第一待识别图像库和第一目标图像库及第二待识别图像库和第二目标图像库各自中的每幅行人图像的特征向量;其中,特征向量的维数为
Figure BDA0001444367380000101
符号
Figure BDA0001444367380000102
为向下取整符号。
在此具体实施例中,步骤①中,第一待识别图像库中的每幅行人图像的特征向量和第一目标图像库中的每幅行人图像的特征向量及第二待识别图像库中的每幅行人图像的特征向量和第二目标图像库中的每幅行人图像的特征向量的提取过程相同,将第一待识别图像库或第一目标图像库或第二待识别图像库或第二目标图像库作为待处理库,对于待处理库中的第t幅行人图像,作为当前图像,将当前图像的特征向量记为xt,其中,t为正整数,1≤t≤total*,total*表示待处理库中包含的行人图像的总幅数,xt的获取过程为:
①_1、为了减少视角变化对行人图像的影响,将当前图像划分成多个尺寸大小为10×10像素、步长为5像素的相互重叠的图像块。
①_2、提取当前图像中的每个图像块的HSV颜色特征、SILTP纹理特征以及SCNCD特征;然后获取当前图像中的每个图像块的特征向量,对于当前图像中的第p个图像块,该图像块的特征向量为由该图像块的HSV颜色特征、SILTP纹理特征以及SCNCD特征按序组合而成的列向量;其中,p为正整数,1≤p≤P,P表示当前图像中包含的图像块的总个数,
Figure BDA0001444367380000111
符号
Figure BDA0001444367380000112
为向下取整符号。
①_3、获取当前图像中的每个水平条的特征向量,对于当前图像中的第q个水平条,该水平条的特征向量中的每个bin下的值为属于该水平条的所有图像块的特征向量中相对应的bin下的值中的最大值,如:设属于一个水平条的图像块共有5个图像块,则先找出这5个图像块各自的特征向量中的第1个bin下的值中的最大值,设第3个图像块的特征向量中的第1个bin下的值最大,那么将第3个图像块的特征向量中的第1个bin下的值作为该水平条的特征向量中的第1个bin下的值,依次类推;其中,q为正整数,1≤q≤Q,Q表示当前图像中包含的水平条的总个数,
Figure BDA0001444367380000113
①_4、将当前图像中的所有水平条的特征向量按序组成的列向量作为当前图像的特征向量xt
考虑到单个颜色模型并不能保证对所有光照变化的鲁棒性,所以提取SCNCD特征时,提取了多个颜色模型下的特征,如RGB、正则化rgb、l1l2l3、以及HSV模型。考虑到多尺度下能够增加特征对尺度的鲁棒性,对于一幅尺寸大小为128×48像素的行人图像,降采样后分别得到尺寸大小为64×24像素的图像和尺寸大小为32×12像素的图像,提取每个尺度下图像的特征。对每个图像块提取8×8×8bin的HSV特征、两个尺度下的SILTP特征(
Figure BDA0001444367380000114
Figure BDA0001444367380000115
)、以及4个颜色模型下的SCNCD特征(每个模型下特征为16bin),每个尺度下的图像划分得到的水平条的数目分别为24、11、5,最终得到的行人图像的特征向量的维度为(8×8×8+34×2+16×4)×(24+11+5)=29520。其中,HSV是Smith A R.Color gamuttransform pairs[J].ACM Siggraph Computer Graphics,1978,12(3):12-19.(史密斯-艾尔维-瑞,颜色域转化对[J].ACM Siggraph计算机图形,1978,第12期(3):12-19)提出的颜色特征提取方法,SILTP是Liao S,Zhao G,Kellokumpu V,et al.Modeling pixel processwith scale invariant local patterns for background subtraction in complexscenes[C]//Computer Vision and Pattern Recognition(CVPR),2010:1301-1306.(廖胜才,赵国英.复杂场景下背景消除的尺度不变局部模式的像素建模过程[C].计算机视觉与模式识别大会,2010:1301-1206)提出的纹理特征提取方法。
②为了能够从提取的行人图像的特征向量中得到更具代表性的特征,使得在度量图像对之间相似性时能够更加充分地体现两者之间的相似性,本发明采用将第一目标图像库中的每幅行人图像的特征向量和第一待识别图像库中的每幅行人图像的特征向量映射到嵌入空间中进行求解图像对(image pairs)之间相似性得分的方法,得到图像对之间的直接相似性得分。采用结构为
Figure BDA0001444367380000121
的BP神经网络将第一目标图像库中的所有行人图像各自的特征向量和第一待识别图像库中的所有行人图像各自的特征向量映射到嵌入空间中;然后采用简单的内积法求解第一待识别图像库中的每幅行人图像在嵌入空间中的嵌入特征向量与第一目标图像库中的各幅行人图像在嵌入空间中的嵌入特征向量之间的相似性得分,并作为第一待识别图像库中的每幅行人图像与第一目标图像库中的各幅行人图像之间的直接相似性得分,将第一待识别图像库中的第u幅行人图像与第一目标图像库中的第v幅行人图像之间的直接相似性得分记为Gdirect(Su,Tv),Gdirect(Su,Tv)=<f(Su),f(Tv)>=(f(Su))Tf(Tv);其中,x表示第一目标图像库中的行人图像的特征向量或第一待识别图像库中的行人图像的特征向量,f(x)表示x映射到嵌入空间中后得到的嵌入特征向量,也即为第一目标图像库中的行人图像在嵌入空间中的嵌入特征向量或第一待识别图像库中的行人图像在嵌入空间中的嵌入特征向量,tanh()为BP神经网络的激活函数,WT为W的转置,W表示维数为d1×d2的映射矩阵,W未知需求解,d1表示x的维数,d1已知,即为
Figure BDA0001444367380000122
d2表示f(x)的维数,d2人为设定即已知,b表示维数为d2的偏差向量,b未知需求解,||tanh(WTx+b)||2表示求tanh(WTx+b)的2-范数,u和v均为正整数,1≤u≤total1,1≤v≤total1,Su表示第一待识别图像库中的第u幅行人图像的特征向量,Tv表示第一目标图像库中的第v幅行人图像的特征向量,符号“<>”为内积运算符号,(f(Su))T为f(Su)的转置,f(Su)表示Su映射到嵌入空间中后得到的嵌入特征向量,f(Tv)表示Tv映射到嵌入空间中后得到的嵌入特征向量。
③BP神经网络的结构需要通过建立模型并经过最优化模型求解得到BP神经网络的最优结构,上述BP神经网络本质上是一个单层的神经网络,而BP算法是一种以误差平方和为目标函数,用梯度下降法求其最小值,从而可得到BP神经网络的最优结构的算法。因此,本发明采用已有的BP算法构建映射矩阵求解最优化模型,描述为:
Figure BDA0001444367380000131
然后采用梯度下降法求解上述映射矩阵求解最优化模型,得到W和b各自的值;其中,min()为求最小值函数,||W||F为求W的F-范数,Th表示第一目标图像库中的第h幅行人图像的特征向量,h为正整数,1≤h≤total1,Gdirect(Su,Th)表示第一待识别图像库中的第u幅行人图像在嵌入空间中的嵌入特征向量f(Su)与第一目标图像库中的第h幅行人图像在嵌入空间中的嵌入特征向量f(Th)之间的相似性得分,也即表示第一待识别图像库中的第u幅行人图像与第一目标图像库中的第h幅行人图像之间的直接相似性得分,
Figure BDA0001444367380000132
表示Su对应的正样本集合,若第一目标图像库中的一幅行人图像与第一待识别图像库中的第u幅行人图像为同一行人,则将第一目标图像库中的该幅行人图像的特征向量归入
Figure BDA0001444367380000133
中,
Figure BDA0001444367380000134
表示Su对应的负样本集合,若第一目标图像库中的一幅行人图像与第一待识别图像库中的第u幅行人图像不为同一行人,则将第一目标图像库中的该幅行人图像的特征向量归入
Figure BDA0001444367380000135
中,
Figure BDA0001444367380000136
表示求
Figure BDA0001444367380000137
中的元素的总个数,
Figure BDA0001444367380000138
表示求
Figure BDA0001444367380000139
中的元素的总个数,[]+为铰链损失函数。
在此,在采用梯度下降法求解映射矩阵求解最优化模型的过程中,需要确定BP神经网络中的隐含层的节点数,及BP神经网络的学习率,但对于不同的数据库,BP神经网络中的隐含层的节点数和BP神经网络的学习率有所差异,如对于Makret-1501数据库和CUHK03数据库,BP神经网络中的隐含层的节点数和BP神经网络的学习率可选用相同的值,BP神经网络中的隐含层的节点数均为200,BP神经网络的学习率均为10-2
④为了充分利用与第一待识别图像库中的行人图像和第一目标图像库中的行人图像相关的其它图像的判别信息来识别两幅行人图像,本发明采用求解第一待识别图像库中的行人图像和第一目标图像库中的行人图像各自的k相互近邻集合中的重叠图像数作为图像对之间的间接相似性得分的方法。计算第一待识别图像库中的每幅行人图像与第一目标图像库中的各幅行人图像之间的间接相似性得分,将第一待识别图像库中的第u幅行人图像与第一目标图像库中的第v幅行人图像之间的间接相似性得分记为
Figure BDA0001444367380000141
其中,k为正整数,R(Su,k)表示由第一待识别图像库中的第u幅行人图像的k相互近邻组成的集合,R(Tv,k)表示由第一目标图像库中的第v幅行人图像的k相互近邻组成的集合,符号“∩”为集合交运算符号,符号“∪”为集合并运算符号,|R(Su,k)∩R(Tv,k)|表示求R(Su,k)∩R(Tv,k)中的元素的总个数,|R(Su,k)∪R(Tv,k)|表示求R(Su,k)∪R(Tv,k)中的元素的总个数。
在此,图像的k相互近邻由Zhong Z,Zheng L,Cao D,et al.Re-ranking PersonRe-identification with k-reciprocal Encod ing[J].Conference on ComputerVision and Pattern Recognition,2017(钟准,郑亮,曹东林,使用k相互编码的行人再识别重排序[C].计算机视觉与模式识别,2017)中提出。
在此具体实施过程中,k的取值对于识别率影响较大,通过实验验证表明,对于Makret-1501数据库,k可取值为20;对于CUHK03数据库,k可取值为14。
⑤由于直接度量能够基于两幅图像自身的判别信息度量图像对的相似性,间接度量能够基于与两幅图像相关的其它图像的判别信息度量图像对的相似性,为了充分利用第一待识别图像库中的行人图像和第一目标图像库中的行人图像的所有判别信息进行识别,所以本发明采用加权融合的方法将第一待识别图像库中的行人图像与第一目标图像库中的行人图像之间的直接相似性得分和间接相似性得分相加,得到第一待识别图像库中的行人图像与第一目标图像库中的行人图像之间的最终相似性得分。即:根据第一待识别图像库中的每幅行人图像与第一目标图像库中的各幅行人图像之间的直接相似性得分和间接相似性得分,对第一待识别图像库中的每幅行人图像与第一目标图像库中的各幅行人图像之间的最终相似性得分进行描述,将第一待识别图像库中的第u幅行人图像与第一目标图像库中的第v幅行人图像之间的最终相似性得分记为G(Su,Tv),描述为:G(Su,Tv)=βdirect×Gdirect(Su,Tv)+βindirect×Gindirect(Su,Tv),其中,βdirect为Gdirect(Su,Tv)的权值参数,βindirect为Gindirect(Su,Tv)的权值参数,βdirectindirect=1。
⑥根据第一待识别图像库中的每幅行人图像与第一目标图像库中的各幅行人图像之间的最终相似性得分的描述,训练获取βdirect和βindirect的值;然后根据训练获取的βdirect和βindirect的值,得到最终相似性得分计算模型,描述为:G(S*,T*)=βdirect×Gdirect(S*,T*)+βindirect×Gindirect(S*,T*),其中,S*表示任意一幅待识别图像的特征向量,T*表示任意一幅目标图像的特征向量,Gdirect(S*,T*)表示任意一幅待识别图像与任意一幅目标图像之间的直接相似性得分,Gindirect(S*,T*)表示任意一幅待识别图像与任意一幅目标图像之间的间接相似性得分,G(S*,T*)表示任意一幅待识别图像与任意一幅目标图像之间的最终相似性得分。
在此具体实施例中,由于不同数据库选取不同场景下的行人图像,导致数据库的视角、光照、背景等变化不相同,在某个场景中具有很强判别性的特征在另一个场景中可能变得无关紧要,因此提前预定义好的权值参数不能适用于所有的数据库。所以本发明采用基于数据库中的样本训练权值参数的方法,得到针对数据库自身特点的权值参数。为了训练权值参数,需要构建权值参数求解最优化模型,通过利用数据库中的样本训练模型得到权值参数。即:步骤⑥中训练获取βdirect和βindirect的值的具体过程为:
⑥_1、构建权值参数求解最优化模型,描述为:
Figure BDA0001444367380000151
其中,min()为求最小值函数,β为βdirect和βindirect组成的向量,β=[βdirectindirect],||β||F为求β的F-范数,ξu表示Su对应的松弛项,λ用于平衡正则项
Figure BDA0001444367380000152
和total1个松弛项之和
Figure BDA0001444367380000153
λ的取值为0.01,“s.t.”表示“受约束于……”,βT为β的转置,
Figure BDA0001444367380000161
,
Figure BDA00014443673800001614
Y={yv,h|1≤v≤total1,1≤h≤total1},
Figure BDA0001444367380000162
Figure BDA00014443673800001615
表示第一待识别图像库中的第u幅行人图像对应的正样本排在第一待识别图像库中的第u幅行人图像对应的负样本前面,
Figure BDA0001444367380000163
表示第一待识别图像库中的第u幅行人图像对应的正样本排在第一待识别图像库中的第u幅行人图像对应的负样本后面,
Figure BDA0001444367380000164
Figure BDA0001444367380000165
Figure BDA0001444367380000166
表示第一待识别图像库中的第u幅行人图像对应的正样本集合,若第一目标图像库中的一幅行人图像与第一待识别图像库中的第u幅行人图像为同一行人,则将第一目标图像库中的该幅行人图像归入
Figure BDA0001444367380000167
中,
Figure BDA0001444367380000168
表示第一待识别图像库中的第u幅行人图像对应的负样本集合,若第一目标图像库中的一幅行人图像与第一待识别图像库中的第u幅行人图像不为同一行人,则将第一目标图像库中的该幅行人图像归入
Figure BDA0001444367380000169
中,
Figure BDA00014443673800001610
表示求
Figure BDA00014443673800001611
中的元素的总个数,
Figure BDA00014443673800001612
表示求
Figure BDA00014443673800001613
中的元素的总个数,G1(Su,Tv)为由Gdirect(Su,Tv)与Gindirect(Su,Tv)构成的相似性得分向量,G1(Su,Tv)=[Gdirect(Su,Tv),Gindirect(Su,Tv)],G1(Su,Th)为由第一待识别图像库中的第u幅行人图像与第一目标图像库中的第h幅行人图像之间的直接相似性得分Gdirect(Su,Th)与第一待识别图像库中的第u幅行人图像与第一目标图像库中的第h幅行人图像之间的间接相似性得分Gindirect(Su,Th)构成的相似性得分向量,Δ(Y*,Y)表示Y*与Y之间的AUC损失。
⑥_2、利用RankSVM求解上述权值参数求解最优化模型,得到β,即得到βdirect和βindirect
在此,RankSVM由Joachims T,Finley T,Yu C N J.Cutting-plane training ofstructural SVMs[J].Machine Learning,2009,77(1):27-59.(索斯藤-约芝,托马斯-费利益,约翰-余春娜.结构化支持向量机的切割平面训练法.机器学习,2009,第77期(1):27-59)中提出,该方法已经包含在matlab工具箱中。
⑦按照步骤②和步骤④的过程(由于在训练过程中,在步骤③中已求得W和b各自的值,因此在计算第二待识别图像库中的每幅行人图像与第二目标图像库中的各幅行人图像之间的直接相似性得分时,只需以相同的操作执行步骤②即可),以相同的操作,获取第二待识别图像库中的每幅行人图像与第二目标图像库中的各幅行人图像之间的直接相似性得分和间接相似性得分,将第二待识别图像库中的第u'幅行人图像与第二目标图像库中的第v'幅行人图像之间的直接相似性得分和间接相似性得分对应记为
Figure BDA0001444367380000171
Figure BDA0001444367380000172
然后将第二待识别图像库中的每幅行人图像与第二目标图像库中的各幅行人图像之间的直接相似性得分和间接相似性得分输入G(S*,T*)=βdirect×Gdirect(S*,T*)+βindirect×Gindirect(S*,T*)中进行测试,得到第二待识别图像库中的每幅行人图像与第二目标图像库中的各幅行人图像之间的最终相似性得分,将第二待识别图像库中的第u'幅行人图像与第二目标图像库中的第v'幅行人图像之间的最终相似性得分记为
Figure BDA0001444367380000173
Figure BDA0001444367380000174
再根据第二待识别图像库中的每幅行人图像与第二目标图像库中的各幅行人图像之间的最终相似性得分,识别第二待识别图像库中的每幅行人图像;对于第二待识别图像库中的第u'幅行人图像,找出该幅行人图像与第二目标图像库中的所有行人图像之间的最终相似性得分中的最高得分,将该幅行人图像中的行人识别为最高得分所对应的第二目标图像库中的行人图像中的行人;其中,u'和v'均为正整数,1≤u'≤total2,1≤v'≤total2',
Figure BDA0001444367380000175
表示第二待识别图像库中的第u'幅行人图像的特征向量,
Figure BDA0001444367380000176
表示第二目标图像库中的第v'幅行人图像的特征向量。
为了更好地说明本发明方法的显著作用,对本发明方法进行实验。
本发明利用Market-1501数据库和CHUK03数据库这两个数据库中的图像,对本发明方法进行测试。Market-1501数据库共包含有1501个行人的行人图像,其中751个行人的行人图像用于构成训练集;剩余的750个行人的行人图像用于构成测试集中的第二目标图像库,另外在测试阶段,手动描绘3368幅行人图像用于构成测试集中的第二待识别图像库。CUHK03数据库提供了手动裁剪的图像集和使用目前效果最好的行人检测算法进行行人检测的图像集,每个图像集均包含了1467个行人的行人图像,对于每个图像集,本发明从中选取767个行人的行人图像构成训练集;选取700个行人的行人图像构成测试集。
实验中使用Rank排名表示前n幅行人图像中图像正确识别的比例,mAP表示平均精度,由L.Zheng,L.Shen,L.Tian,et al.Scalable person re-identification:Abenchmark[C]//Proceedings of the IEEE International Conference on ComputerVision.2015:1116-1124(郑亮,沈丽月,田璐,可扩展的行人再识别:一个基准[C].计算机视觉国际会议,2015,1116-1124)提出。
对于Market-1501数据库,表1给出了本发明方法在Market-1501数据库上进行行人再识别的实验结果,并给出了单独使用直接度量和间接度量的识别效果。第二目标图像库中的所有行人图像按照相似性得分排名后,将第二待识别图像库中的行人图像识别为排名在第1的第二目标图像库中的行人图像,所有第二待识别图像库中的所有行人图像中有44.33%能被正确识别。
表1不同方法在Market1501数据库上进行行人再识别的识别率
方法 Rank 1 mAP
直接度量 41.51 18.12
间接度量 44.09 25.35
本发明方法 44.33 25.52
对于CUHK03数据库,表2给出了本发明方法在CUHK03数据库上进行行人再识别的实验效果,并给出了单独使用直接度量和间接度量的识别效果。第二目标图像库中的所有行人图像按照相似性得分排名后,将第二待识别图像库中的行人图像识别为排名在第1的第二目标图像库中的行人图像,对于手动裁剪的行人图像集(labeled),所有第二待识别图像库中的所有行人图像中有11.93%能被正确识别;对于用行人检测算法提取的行人图像集(detected),所有第二待识别图像库中的所有行人图像中有10.57%能被正确识别。
表2不同方法在CUHK03数据库上进行行人再识别的识别率
Figure BDA0001444367380000191
图2a给出了本发明方法中的间接度量中的k相互近邻的k值对识别率Rank1的影响趋势图,图2b给出了本发明方法中的间接度量中的k相互近邻的k值对平均精度mAP的影响趋势图。本发明针对CUHK03数据库进行实验,通过实验数据来说明k值对于两者变化的影响。从图2a中不难看出,Rank1值先随着k值的增加而有幅度地增加,在k=10和k=14时,达到最优值后随着k值的增加而减少。从图2b中不难看出,mAP值随着k的增加先增加,在k=14左右时,达到最优值,然后随着k值的增加而有小幅地减少。为了同时使得Rank1值和mAP值取最优值,针对CUHK03数据库选取k值为14。在Market-1501数据库上使用相同的方法可以确定k的取值为20。

Claims (3)

1.一种结合直接度量和间接度量的行人再识别方法,其特征在于包括以下步骤:
①选取一个包含训练集和测试集的行人图像库,训练集包含有针对多个不同行人的行人图像,测试集也包含有针对多个不同行人的行人图像;其中,行人图像的尺寸大小为M×N像素;
设定训练集中包含的行人图像的总幅数为num;然后根据训练集中的num幅行人图像,将训练集分为第一待识别图像库和第一目标图像库,具体过程为:在训练集中,针对每个行人对应的多幅行人图像,从中任意挑选,以两幅行人图像作为一组组对,若每对行人图像来自不同摄像头,则将该对行人图像中的一幅行人图像归入第一待识别图像库、另一幅行人图像归入第一目标图像库;若该对行人图像来自同一摄像头,则丢弃该对行人图像;再设定第一待识别图像库中包含的行人图像的总幅数为total1,设定第一目标图像库中包含的行人图像的总幅数也为total1;其中,num和total1均为正整数,total1≥100,num≥2total1
设定测试集中的第二待识别图像库中包含的行人图像的总幅数为total2,设定测试集中的第二目标图像库中包含的行人图像的总幅数为total2';其中,total2和total2'均为正整数,total2≥1,total2'≥10;
提取第一待识别图像库和第一目标图像库及第二待识别图像库和第二目标图像库各自中的每幅行人图像的特征向量;其中,特征向量的维数为
Figure FDA0001444367370000011
符号
Figure FDA0001444367370000012
为向下取整符号;
②采用结构为
Figure FDA0001444367370000013
的BP神经网络将第一目标图像库中的所有行人图像各自的特征向量和第一待识别图像库中的所有行人图像各自的特征向量映射到嵌入空间中;然后采用内积法求解第一待识别图像库中的每幅行人图像在嵌入空间中的嵌入特征向量与第一目标图像库中的各幅行人图像在嵌入空间中的嵌入特征向量之间的相似性得分,并作为第一待识别图像库中的每幅行人图像与第一目标图像库中的各幅行人图像之间的直接相似性得分,将第一待识别图像库中的第u幅行人图像与第一目标图像库中的第v幅行人图像之间的直接相似性得分记为Gdirect(Su,Tv),Gdirect(Su,Tv)=<f(Su),f(Tv)>=(f(Su))Tf(Tv);其中,x表示第一目标图像库中的行人图像的特征向量或第一待识别图像库中的行人图像的特征向量,f(x)表示x映射到嵌入空间中后得到的嵌入特征向量,也即为第一目标图像库中的行人图像在嵌入空间中的嵌入特征向量或第一待识别图像库中的行人图像在嵌入空间中的嵌入特征向量,tanh()为BP神经网络的激活函数,WT为W的转置,W表示维数为d1×d2的映射矩阵,d1表示x的维数,d2表示f(x)的维数,b表示维数为d2的偏差向量,||tanh(WTx+b)||2表示求tanh(WTx+b)的2-范数,u和v均为正整数,1≤u≤total1,1≤v≤total1,Su表示第一待识别图像库中的第u幅行人图像的特征向量,Tv表示第一目标图像库中的第v幅行人图像的特征向量,符号“<>”为内积运算符号,(f(Su))T为f(Su)的转置,f(Su)表示Su映射到嵌入空间中后得到的嵌入特征向量,f(Tv)表示Tv映射到嵌入空间中后得到的嵌入特征向量;
③采用BP算法构建映射矩阵求解最优化模型,描述为:
Figure FDA0001444367370000021
然后采用梯度下降法求解上述映射矩阵求解最优化模型,得到W和b各自的值;其中,min()为求最小值函数,||W||F为求W的F-范数,Th表示第一目标图像库中的第h幅行人图像的特征向量,h为正整数,1≤h≤total1,Gdirect(Su,Th)表示第一待识别图像库中的第u幅行人图像在嵌入空间中的嵌入特征向量f(Su)与第一目标图像库中的第h幅行人图像在嵌入空间中的嵌入特征向量f(Th)之间的相似性得分,也即表示第一待识别图像库中的第u幅行人图像与第一目标图像库中的第h幅行人图像之间的直接相似性得分,
Figure FDA0001444367370000022
表示Su对应的正样本集合,若第一目标图像库中的一幅行人图像与第一待识别图像库中的第u幅行人图像为同一行人,则将第一目标图像库中的该幅行人图像的特征向量归入
Figure FDA0001444367370000031
中,
Figure FDA0001444367370000032
表示Su对应的负样本集合,若第一目标图像库中的一幅行人图像与第一待识别图像库中的第u幅行人图像不为同一行人,则将第一目标图像库中的该幅行人图像的特征向量归入
Figure FDA0001444367370000033
中,
Figure FDA0001444367370000034
表示求
Figure FDA0001444367370000035
中的元素的总个数,
Figure FDA0001444367370000036
表示求
Figure FDA0001444367370000037
中的元素的总个数,[]+为铰链损失函数;
④计算第一待识别图像库中的每幅行人图像与第一目标图像库中的各幅行人图像之间的间接相似性得分,将第一待识别图像库中的第u幅行人图像与第一目标图像库中的第v幅行人图像之间的间接相似性得分记为Gindirect(Su,Tv),
Figure FDA0001444367370000038
其中,k为正整数,R(Su,k)表示由第一待识别图像库中的第u幅行人图像的k相互近邻组成的集合,R(Tv,k)表示由第一目标图像库中的第v幅行人图像的k相互近邻组成的集合,符号“∩”为集合交运算符号,符号“∪”为集合并运算符号,|R(Su,k)∩R(Tv,k)|表示求R(Su,k)∩R(Tv,k)中的元素的总个数,|R(Su,k)∪R(Tv,k)|表示求R(Su,k)∪R(Tv,k)中的元素的总个数;
⑤根据第一待识别图像库中的每幅行人图像与第一目标图像库中的各幅行人图像之间的直接相似性得分和间接相似性得分,对第一待识别图像库中的每幅行人图像与第一目标图像库中的各幅行人图像之间的最终相似性得分进行描述,将第一待识别图像库中的第u幅行人图像与第一目标图像库中的第v幅行人图像之间的最终相似性得分记为G(Su,Tv),描述为:G(Su,Tv)=βdirect×Gdirect(Su,Tv)+βindirect×Gindirect(Su,Tv),其中,βdirect为Gdirect(Su,Tv)的权值参数,βindirect为Gindirect(Su,Tv)的权值参数,βdirectindirect=1;
⑥根据第一待识别图像库中的每幅行人图像与第一目标图像库中的各幅行人图像之间的最终相似性得分的描述,训练获取βdirect和βindirect的值;然后根据训练获取的βdirect和βindirect的值,得到最终相似性得分计算模型,描述为:G(S*,T*)=βdirect×Gdirect(S*,T*)+βindirect×Gindirect(S*,T*),其中,S*表示任意一幅待识别图像的特征向量,T*表示任意一幅目标图像的特征向量,Gdirect(S*,T*)表示任意一幅待识别图像与任意一幅目标图像之间的直接相似性得分,Gindirect(S*,T*)表示任意一幅待识别图像与任意一幅目标图像之间的间接相似性得分,G(S*,T*)表示任意一幅待识别图像与任意一幅目标图像之间的最终相似性得分;
⑦按照步骤②和步骤④的过程,以相同的操作,获取第二待识别图像库中的每幅行人图像与第二目标图像库中的各幅行人图像之间的直接相似性得分和间接相似性得分,将第二待识别图像库中的第u'幅行人图像与第二目标图像库中的第v'幅行人图像之间的直接相似性得分和间接相似性得分对应记为
Figure FDA0001444367370000041
Figure FDA0001444367370000042
然后将第二待识别图像库中的每幅行人图像与第二目标图像库中的各幅行人图像之间的直接相似性得分和间接相似性得分输入G(S*,T*)=βdirect×Gdirect(S*,T*)+βindirect×Gindirect(S*,T*)中进行测试,得到第二待识别图像库中的每幅行人图像与第二目标图像库中的各幅行人图像之间的最终相似性得分,将第二待识别图像库中的第u'幅行人图像与第二目标图像库中的第v'幅行人图像之间的最终相似性得分记为
Figure FDA0001444367370000043
Figure FDA0001444367370000044
再根据第二待识别图像库中的每幅行人图像与第二目标图像库中的各幅行人图像之间的最终相似性得分,识别第二待识别图像库中的每幅行人图像;对于第二待识别图像库中的第u'幅行人图像,找出该幅行人图像与第二目标图像库中的所有行人图像之间的最终相似性得分中的最高得分,将该幅行人图像中的行人识别为最高得分所对应的第二目标图像库中的行人图像中的行人;其中,u'和v'均为正整数,1≤u'≤total2,1≤v'≤total2',
Figure FDA0001444367370000045
表示第二待识别图像库中的第u'幅行人图像的特征向量,
Figure FDA0001444367370000046
表示第二目标图像库中的第v'幅行人图像的特征向量。
2.根据权利要求1所述的一种结合直接度量和间接度量的行人再识别方法,其特征在于所述的步骤①中,第一待识别图像库中的每幅行人图像的特征向量和第一目标图像库中的每幅行人图像的特征向量及第二待识别图像库中的每幅行人图像的特征向量和第二目标图像库中的每幅行人图像的特征向量的提取过程相同,将第一待识别图像库或第一目标图像库或第二待识别图像库或第二目标图像库作为待处理库,对于待处理库中的第t幅行人图像,作为当前图像,将当前图像的特征向量记为xt,其中,t为正整数,1≤t≤total*,total*表示待处理库中包含的行人图像的总幅数,xt的获取过程为:
①_1、将当前图像划分成多个尺寸大小为10×10像素、步长为5像素的相互重叠的图像块;
①_2、提取当前图像中的每个图像块的HSV颜色特征、SILTP纹理特征以及SCNCD特征;然后获取当前图像中的每个图像块的特征向量,对于当前图像中的第p个图像块,该图像块的特征向量为由该图像块的HSV颜色特征、SILTP纹理特征以及SCNCD特征按序组合而成的列向量;其中,p为正整数,1≤p≤P,P表示当前图像中包含的图像块的总个数,
Figure FDA0001444367370000051
符号
Figure FDA0001444367370000052
为向下取整符号;
①_3、获取当前图像中的每个水平条的特征向量,对于当前图像中的第q个水平条,该水平条的特征向量中的每个bin下的值为属于该水平条的所有图像块的特征向量中相对应的bin下的值中的最大值;其中,q为正整数,1≤q≤Q,Q表示当前图像中包含的水平条的总个数,
Figure FDA0001444367370000053
①_4、将当前图像中的所有水平条的特征向量按序组成的列向量作为当前图像的特征向量xt
3.根据权利要求1或2所述的一种结合直接度量和间接度量的行人再识别方法,其特征在于所述的步骤⑥中训练获取βdirect和βindirect的值的具体过程为:
⑥_1、构建权值参数求解最优化模型,描述为:
Figure FDA0001444367370000054
其中,min()为求最小值函数,β为βdirect和βindirect组成的向量,β=[βdirectindirect],||β||F为求β的F-范数,ξu表示Su对应的松弛项,λ用于平衡正则项
Figure FDA0001444367370000061
和total1个松弛项之和
Figure FDA0001444367370000062
λ的取值为0.01,“s.t.”表示“受约束于……”,βT为β的转置,Y*={y* v,h|1≤v≤total1,1≤h≤total1}y* v,h=+1,Tv>Th,Y={yv,h|1≤v≤total1,1≤h≤total1},
Figure FDA0001444367370000063
Tv>Th表示第一待识别图像库中的第u幅行人图像对应的正样本排在第一待识别图像库中的第u幅行人图像对应的负样本前面,Tv<Th表示第一待识别图像库中的第u幅行人图像对应的正样本排在第一待识别图像库中的第u幅行人图像对应的负样本后面,
Figure FDA0001444367370000064
Figure FDA0001444367370000065
Figure FDA0001444367370000066
表示第一待识别图像库中的第u幅行人图像对应的正样本集合,若第一目标图像库中的一幅行人图像与第一待识别图像库中的第u幅行人图像为同一行人,则将第一目标图像库中的该幅行人图像归入
Figure FDA0001444367370000067
中,
Figure FDA0001444367370000068
表示第一待识别图像库中的第u幅行人图像对应的负样本集合,若第一目标图像库中的一幅行人图像与第一待识别图像库中的第u幅行人图像不为同一行人,则将第一目标图像库中的该幅行人图像归入
Figure FDA0001444367370000069
中,
Figure FDA00014443673700000610
表示求
Figure FDA00014443673700000611
中的元素的总个数,
Figure FDA00014443673700000612
表示求
Figure FDA00014443673700000613
中的元素的总个数,G1(Su,Tv)为由Gdirect(Su,Tv)与Gindirect(Su,Tv)构成的相似性得分向量,G1(Su,Tv)=[Gdirect(Su,Tv),Gindirect(Su,Tv)],G1(Su,Th)为由第一待识别图像库中的第u幅行人图像与第一目标图像库中的第h幅行人图像之间的直接相似性得分Gdirect(Su,Th)与第一待识别图像库中的第u幅行人图像与第一目标图像库中的第h幅行人图像之间的间接相似性得分Gindirect(Su,Th)构成的相似性得分向量,Δ(Y*,Y)表示Y*与Y之间的AUC损失;
⑥_2、利用RankSVM求解上述权值参数求解最优化模型,得到β,即得到βdirect和βindirect
CN201711005741.9A 2017-10-25 2017-10-25 一种结合直接度量和间接度量的行人再识别方法 Active CN107944340B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711005741.9A CN107944340B (zh) 2017-10-25 2017-10-25 一种结合直接度量和间接度量的行人再识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711005741.9A CN107944340B (zh) 2017-10-25 2017-10-25 一种结合直接度量和间接度量的行人再识别方法

Publications (2)

Publication Number Publication Date
CN107944340A CN107944340A (zh) 2018-04-20
CN107944340B true CN107944340B (zh) 2020-06-16

Family

ID=61936392

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711005741.9A Active CN107944340B (zh) 2017-10-25 2017-10-25 一种结合直接度量和间接度量的行人再识别方法

Country Status (1)

Country Link
CN (1) CN107944340B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109344842A (zh) * 2018-08-15 2019-02-15 天津大学 一种基于语义区域表达的行人重识别方法
CN111738043A (zh) * 2019-12-10 2020-10-02 珠海大横琴科技发展有限公司 一种行人重识别方法及装置
CN112163600B (zh) * 2020-09-09 2021-06-08 成都理工大学 一种基于机器视觉的商品识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105005760A (zh) * 2015-06-11 2015-10-28 华中科技大学 一种基于有限混合模型的行人再识别方法
CN106919909A (zh) * 2017-02-10 2017-07-04 华中科技大学 一种行人重识别的度量学习方法和系统
CN107145827A (zh) * 2017-04-01 2017-09-08 浙江大学 基于自适应距离度量学习的跨摄像机行人再识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9911198B2 (en) * 2015-12-17 2018-03-06 Canon Kabushiki Kaisha Method, system and apparatus for matching moving targets between camera views

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105005760A (zh) * 2015-06-11 2015-10-28 华中科技大学 一种基于有限混合模型的行人再识别方法
CN106919909A (zh) * 2017-02-10 2017-07-04 华中科技大学 一种行人重识别的度量学习方法和系统
CN107145827A (zh) * 2017-04-01 2017-09-08 浙江大学 基于自适应距离度量学习的跨摄像机行人再识别方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Similarity Learning with Top-heavy Ranking Loss for Person Re-identification;Jin Wang et al;《IEEE SIGNAL PROCESSING LETTERS》;20160101;第23卷(第1期);84-88页 *
Unsupervised Salience Learning for Person Re-identification;Rui Zhao et al;《The IEEE Conference on Computer Vision and Pattern Recognition》;20131231;3586-3593页 *
基于二次相似度函数学习的行人再识别;杜宇宁等;《计算机学报》;20160831;第39卷(第8期);1639-1651页 *
基于特征融合与改进神经网络的行人再识别;蒋桧慧等;《传感器与微系统》;20170804;第36卷(第8期);121-125页 *
多方向显著性权值学习的行人再识别;陈莹等;《中国图象图形学报》;20151231;第20卷(第12期);1674-1683页 *

Also Published As

Publication number Publication date
CN107944340A (zh) 2018-04-20

Similar Documents

Publication Publication Date Title
CN108921107B (zh) 基于排序损失和Siamese网络的行人再识别方法
CN105808732B (zh) 一种基于深度度量学习的一体化目标属性识别与精确检索方法
CN105303152B (zh) 一种人体再识别方法
CN107506703A (zh) 一种基于无监督局部度量学习和重排序的行人再识别方法
CN103544499B (zh) 一种基于机器视觉的表面瑕疵检测的纹理特征降维方法
CN107944340B (zh) 一种结合直接度量和间接度量的行人再识别方法
CN108961308B (zh) 一种漂移检测的残差深度特征目标跟踪方法
CN113283362B (zh) 一种跨模态的行人重识别方法
CN101833654B (zh) 基于约束采样的稀疏表示人脸识别方法
CN103793702A (zh) 基于协同尺度学习的行人重识别方法
CN102142078B (zh) 基于部件结构模型的目标检测与识别方法
CN103279768A (zh) 一种基于增量学习人脸分块视觉表征的视频人脸识别方法
CN103325122A (zh) 基于双向排序的行人检索方法
CN108960142B (zh) 基于全局特征损失函数的行人再识别方法
CN105976397B (zh) 一种目标跟踪方法
CN111368772A (zh) 身份识别方法、装置、设备及存储介质
CN106446774A (zh) 一种基于二次近邻稀疏重构的人脸识别方法
CN108549883A (zh) 一种人脸再识别方法
CN110874576B (zh) 一种基于典型相关分析融合特征的行人再识别方法
CN108875448B (zh) 一种行人再识别方法及装置
CN109886206B (zh) 一种三维物体识别方法及设备
CN105868711A (zh) 一种基于稀疏低秩的人体行为识别方法
CN102930291A (zh) 用于图形图像的k近邻局部搜索遗传自动聚类方法
CN102831445B (zh) 基于语义Hough变换和偏最小二乘法的目标检测方法
Yao et al. Learning global-local correspondence with semantic bottleneck for logical anomaly detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant