CN111353443B - 一种基于跨视图核协同表示的行人再识别方法 - Google Patents

一种基于跨视图核协同表示的行人再识别方法 Download PDF

Info

Publication number
CN111353443B
CN111353443B CN202010141525.2A CN202010141525A CN111353443B CN 111353443 B CN111353443 B CN 111353443B CN 202010141525 A CN202010141525 A CN 202010141525A CN 111353443 B CN111353443 B CN 111353443B
Authority
CN
China
Prior art keywords
samples
pedestrian
kernel
sample
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010141525.2A
Other languages
English (en)
Other versions
CN111353443A (zh
Inventor
张国庆
蒋同
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Information Science and Technology
Original Assignee
Nanjing University of Information Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Information Science and Technology filed Critical Nanjing University of Information Science and Technology
Priority to CN202010141525.2A priority Critical patent/CN111353443B/zh
Publication of CN111353443A publication Critical patent/CN111353443A/zh
Application granted granted Critical
Publication of CN111353443B publication Critical patent/CN111353443B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于跨视图核协同表示的行人再识别方法,属于行人再识别技术领域。本发明的方法首先对数据集进行预处理,然后划分训练、测试集,再进行特征提取与降维;并进行跨视图核协同表示,最后识别待测样本。本发明采用了跨视图核协同表示方法,按照不同的视图分别处理样本,用CRC协同表示同一视图下的样本得到该视图所有样本的协同表示编码,然后对不同视图下同一个人的协同表示编码加上彼此相似性约束,最后将不同视图的CRC模型和编码相似性约束整合到同一个多任务学习框架中,联合地学习跨视图样本的协同表示编码,通过这种方式使CRC更适用于行人再识别任务。因此,本方法应对跨视图行人图像间的外观差异具有更强的鲁棒性。

Description

一种基于跨视图核协同表示的行人再识别方法
技术领域
本发明涉及一种基于跨视图核协同表示的行人再识别方法,属于行人再识别技术领域。
背景技术
行人再识别(Person re-identification,Re-ID)起源于多摄像头跟踪,用于判断非重叠视域中拍摄到的不同图像中的行人是否属于同一个人。行人再识别涉及计算机视觉、机器学习、模式识别等多个学科领域,可以广泛应用于智能视频监控、安保、刑侦等领域。近年来,行人再识别技术引起了学术界和工业界的广泛关注,已经成为计算机视觉领域的一个研究热点。
对行人再识别的研究可以追溯到2003年,Porikli等人利用相关系数矩阵建立相机对之间的非参数模型,获取目标在不同相机间的颜色分布变化,实现了跨视域的目标匹配。2006年,Gheissari等人首次提出行人再识别的概念,利用颜色和显著边缘线直方图实现行人再识别。经过多年的研究,行人再识别取得了诸多有意义的成果。2010年,Farenzena等人第一次在计算机视觉领域的顶级会议CVPR(Computer vision and patternrecognition)上发表了关于行人再识别的文章《Person re-identification bysymmetry-driven accumulation of local features》。自此以后,在计算机视觉领域的国际重要会议和权威期刊中,行人再识别都成为一个重要的研究方向,涌现了大量的研究成果。尤其是近年来,很多学者和研究机构陆续公布了专门针对行人再识别问题的数据集,极大地推动了行人再识别研究工作的开展。
现有行人再识别的典型流程如图1所示。对于摄像头A和B采集的图像/视频,首先进行行人检测,得到行人图像。为了消除行人检测效果对再识别结果的影响,大部分行人再识别算法使用已经裁剪好的行人图像作为输入。然后针对输入图像提取鲁棒的特征,获得能够描述和区分不同行人的特征表达向量。最后根据特征表达向量进行相似性度量,按照相似性大小对图像进行排序,相似度最高的图像将作为最终的识别结果。
行人再识别包括两个核心部分:1)特征提取与表达——从行人外观出发,提取鲁棒性强且具有较强区分性的特征表示向量,有效表达行人图像的特性;2)相似性度量——通过特征向量之间的相似度比对,判断行人的相似性。
协同表示分类器(CRC)是一种高效高速的分类器,现已广泛应用于图像识别领域。CRC的基本思想是利用所有训练样本一起来协同表示该测试样本,进而得到协同表示编码。然后选择出和某一类训练样本相对应的类编码,最后用类编码计算由该类训练样本对测试样本进行重构的残差,重构残差最小的类标签即为该测试样本的类别。CRC在处理单视图(样本均采集自同一个摄像头,即单视图)问题时,由于图像间的外观差异不大,其空间分布可以近似为线性的,而CRC刚好是一种线性模型,因此有很好的表现。但是在处理行人再识别(样本采集自多个非重叠摄像头,即多视图)问题时,因为不同视图下的行人图像由于光照、色调、背景噪声等因素干扰,其外观差异很大,此时样本的空间分布是非线性的,传统的CRC已不能处理此类问题,因此需要对CRC进行改进以适应于行人再识别任务。
另一方面,为了线性地区分各类样本,人们通常采用核方法来产生一种非线性映射机制,将原始样本投影到一个高维核特征空间,在此空间中异类的样本将更易于线性地区分开。但是这也带来一个弊端,那就是核特征空间中样本的特征维度往往很高,而且有时是无限维的,过高的维度会使后续的优化求解变得复杂。因此需要对经过核函数投影后的特征进行降维。
发明内容
本发明的目的主要在于解决现有技术中行人再识别场景中由于光照、色调、噪声等干扰因素导致的跨视图行人图像彼此差异过大的问题,提出了一种基于跨视图核协同表示方法来提取对于视图差异不敏感的协同表示编码,最后通过比较不同样本的协同表示编码来识别待测行人。
为了达到上述目的,本发明提出的技术方案为:一种基于跨视图核协同表示的行人再识别方法,其特征在于,包括如下步骤:
步骤一、利用A、B两摄像机拍摄行人图像,记为A、B两视图,从两视图中分别采集行人图像样本作为数据集,对数据集预处理,并划分训练集和测试集;
步骤二、对训练集和测试集中的样本进行特征提取;
步骤三、利用核方法将所有样本映射到一个高维核特征空间;
步骤四、对高维核特征空间中的样本进行降维;
设两个视图的高维核特征空间中的鉴别投影为Py
Figure GDA0004225680310000021
目标维度为dim,且dim<<s,则它们满足:Py=φ(Y)Ay,Px=φ(X)Ax,其中,Ay,/>
Figure GDA0004225680310000022
分别表示Py,Px对应的变换矩阵;
Ay通过求解如下广义特征值问题得到:Kyβy=γyβy
Figure GDA0004225680310000023
其中/>
Figure GDA0004225680310000024
是通过Kyβy=γyβy求得的第i个最大特征值/>
Figure GDA0004225680310000025
对应的特征向量,i=1,2,…,dim;/>
Figure GDA0004225680310000026
是核特征空间中的样本核矩阵;降维后,A视图的训练样本的数据矩阵为:
Figure GDA0004225680310000027
同理,B视图的训练样本数据矩阵为
Figure GDA0004225680310000028
其中Kx为核矩阵;
测试集的核数据矩阵为
Figure GDA0004225680310000029
降维后,相应的数据矩阵为/>
Figure GDA00042256803100000210
其中Kyg,Kxp为相应的核矩阵。
步骤五、利用跨视图核协同表示方法对Ygallery,Xprob中的样本进行协同表示;
Ygallery,Xprob的协同表示编码矩阵为:
Figure GDA0004225680310000031
其中,
Figure GDA0004225680310000032
I是单位矩阵,λ,ζ是正则化参数,其中/>
Figure GDA0004225680310000033
分别是Xprob和Ygallery对应的编码矩阵;
步骤六、依据余弦相似性度量逐对比较Ygallery,Xprob中样本的协同表示编码,按照相似度大小确定Xprob中样本的身份标签。
对上述技术方案的进一步设计为:所述步骤一中,数据集预处理包括去除不合格样本、整理样本标签、图像去噪,图像增强和图像规范化。
所述步骤一中,划分训练集和测试集的方法为:分别从A、B摄像机采集的数据集中选取n张有标签行人图像作为训练集,用
Figure GDA0004225680310000034
Figure GDA0004225680310000035
分别表示由摄像机A和B采集的n个有标签训练样本,其中Train_datasetA的第i列/>
Figure GDA0004225680310000036
表示采集自摄像机A的第个样本,Train_datasetB的第j列/>
Figure GDA00042256803100000312
表示采集自摄像机B的第j个样本,f为数据维度;
分别选取m1张来自摄像机A的有标签行人图像,记为
Figure GDA0004225680310000037
m2张来自摄像机B的待测行人图像,记为
Figure GDA0004225680310000038
作为测试集。
所述A、B两视图下同一个人的样本在样本矩阵Train_datasetA,Train_datasetB中具有相同的列索引,即ai与bi,i=1,2,…,n,且具有相同的身份标签。
测试集中m1张来自摄像机A的行人图像与训练集中的样本具有不同的身份标签。
所述步骤二中利用分层高斯描述子提取GOG特征,并利用子空间学习算法XQDA对高维GOG特征进行降维,得到分别对应于Train_datasetA,Train_datasetB,Prob_dataset,Gallery_dataset的新的数据矩阵
Figure GDA0004225680310000039
Figure GDA00042256803100000310
和/>
Figure GDA00042256803100000311
d为样本的特征维度。
所述步骤三的具体步骤为:设非线性映射为φ(·),则原始训练样本会被映射到高维空间,即:
Figure GDA0004225680310000041
映射后的训练样本数据矩阵可以表示为:/>
Figure GDA0004225680310000042
对于
Figure GDA0004225680310000043
和/>
Figure GDA0004225680310000044
映射后的高维数据矩阵表示为/>
Figure GDA0004225680310000045
所述步骤六种按照相似度大小确定Xprob中样本的身份标签的具体方法为:对于Xprob中的待测样本
Figure GDA0004225680310000046
计算它的协同表示编码/>
Figure GDA0004225680310000047
与Ygallery中每个样本/>
Figure GDA0004225680310000048
的协同表示编码
Figure GDA0004225680310000049
之间的相似度:/>
Figure GDA00042256803100000410
对于Xprob中的待测样本,它们的相似度可以构成相似度矩阵Sim(Λpg),且其第i行j列的元素为
Figure GDA00042256803100000411
对于Xprob中的第i个待测样本
Figure GDA00042256803100000412
寻找Sim(Λpg)中第i行Sim(i,:)中的最大的相似度Sim(i,l),则/>
Figure GDA00042256803100000413
的身份标签就与Ygallery中的第l个样本/>
Figure GDA00042256803100000414
的身份标签相同,i=1,2,…,m2;j=1,2,…,m1
本发明与现有技术相比具有的有益效果为:
本发明主要利用了协同表示分类器(CRC)来解决行人再识别问题,因为CRC省去了训练过程,所以本方法的再识别速度很快。另外,相较于深度学习技术,由于CRC对训练样本的数量要求较低,所以即使在较少样本的情况下,本方法依然有很好的表现。除此以外,本发明还针对上文中提及的CRC的不足进行了适应行人再识别任务的改进。
首先,为了克服跨视图样本间的非线性分布问题,本发明采用了跨视图核协同表示方法。具体来说就是,按照不同的视图分别处理样本,用CRC协同表示同一视图下的样本得到该视图所有样本的协同表示编码,然后对不同视图下同一个人的协同表示编码加上彼此相似性约束,最后将不同视图的CRC模型和编码相似性约束整合到同一个多任务学习框架中,联合地学习跨视图样本的协同表示编码,通过这种方式使CRC更适用于行人再识别任务。因此,本方法应对跨视图行人图像间的外观差异具有更强的鲁棒性。
其次,为了降低核特征空间中特征维度,本发明采用了核主成分分析(KPCA)方法来降低核特征空间的维度,进而降低后续的优化求解复杂度。因此,本方法的求解过程简洁高效。
附图说明
图1为行人再识别典型流程图;
图2为本发明跨视图核协同表示行人再识别典型流程图。
具体实施方式
下面结合附图以及具体实施例对本发明进行详细说明。
实施例
本实施例的基于跨视图协同表示的行人再识别方法的流程图如图2所示。
步骤1:对分别采集自摄象机A和B的行人图像样本进行数据集预处理,其工作内容包括:去除不合格样本、整理样本标签、图像去噪,图像增强,图像规范化等操作。然后将样本划分为训练集和测试集。
在本实施例中我们针对单次拍摄(one-shoot)场景(即,每个视图下每个行人各有一张图像,且训练和测试选择的行人图像身份也不同),因此我们各选择A和B视图中的n张有标签行人图像作为训练集,我们用
Figure GDA0004225680310000051
Figure GDA0004225680310000052
分别表示由摄像机A和B采集的n个有标签训练样本,其中Train_datasetA,Train_datasetB的第i,j列/>
Figure GDA0004225680310000053
分别表示采集自摄像机A,B的第i,j个样本,它们的数据维度是f。由于我们研究的是单次拍摄场景,所以我们规定不同视图下同一个人的样本在样本矩阵Train_datasetA,Train_datasetB中应具有相同的列索引,即ai与bi,i=1,2,…,n应具有相同的身份标签。另外对于测试集,它包括两部分:m1张来自视图A的有标签行人图像(它们和训练集中的样本具有不同的身份标签),记为
Figure GDA0004225680310000054
m2张来自视图B的待测行人图像(身份未知),记为/>
Figure GDA0004225680310000055
用于匹配Prob_dataset与Gallery_dataset中的行人图像。
为便于描述,我们用
Figure GDA0004225680310000056
和/>
Figure GDA0004225680310000057
分别表示由摄像机A和B采集的n个有标签训练样本,其中Y,X的第i,j列/>
Figure GDA0004225680310000058
分别表示采集自摄像机A,B的第i,j个样本,它们的特征维度是d。设非线性映射为φ(·),则原始训练样本会被映射到高维空间,即:
Figure GDA0004225680310000059
相应地,映射后的训练样本数据矩阵可以表示为:
Figure GDA00042256803100000510
Figure GDA0004225680310000061
对于某对待测样本y,/>
Figure GDA0004225680310000062
映射后的高维特征向量是φ(y),/>
Figure GDA0004225680310000063
步骤2:用特定的特征提取算法对训练集和测试集中的样本进行特征提取;
对经过预处理的训练、测试样本执行指定的特征提取操作,利用显著特征描述子(Salience)、分层高斯描述子(GOG)、局部最大发生表示(LOMO)、最大粒度结构描述子(MGSD)等特征描述子提取相应特征。在特征提取时,按具体性能表现有选择的提取一种或融合几种特征用于后续的再识别过程。
本实施例采用分层高斯描述子(GOG)提取GOG特征,并且利用子空间学习算法XQDA对高维GOG特征进行降维,得到分别对应于Train_datasetA,Train_datasetB,Prob_dataset,Gallery_dataset的新的数据矩阵
Figure GDA0004225680310000064
Figure GDA0004225680310000065
和/>
Figure GDA0004225680310000066
它们样本的特征维度为d;
步骤3:利用核方法将所有样本映射到一个高维核特征空间。
特征提取后,如果特征维度过高则还需要对训练、测试样本的特征进行降维,比如进行主成分分析(PCA)。最后将经过特征提取、降维后的训练、测试集数据矩阵(各样本的特征数据转换成列向量的形式,按列组成一个向量组,即数据矩阵)进行规范化处理,使每个样本的特征向量为单位向量。
设非线性映射为φ(·),原始训练样本会被映射到高维空间,即:
Figure GDA0004225680310000067
相应地,映射后的训练样本数据矩阵可以表示为:
Figure GDA0004225680310000068
Figure GDA0004225680310000069
对于/>
Figure GDA00042256803100000610
和/>
Figure GDA00042256803100000611
映射后的高维数据矩阵表示为/>
Figure GDA00042256803100000612
步骤4:对高维核特征空间中的样本进行降维。本方法对投影到核特征空间的数据进行了额外的降维处理,进而降低后续求解过程的时间和空间复杂度。设两个视图的高维核特征空间中的鉴别投影为Py
Figure GDA00042256803100000613
目标维度为dim,且dim<<s,则它们满足:Py=φ(Y)Ay,Px=φ(X)Ax其中Ay,/>
Figure GDA00042256803100000614
分别表示Py,Px对应的变换矩阵。则Ay可通过求解如下广义特征值问题得到:
Kyβy=γyβy
Figure GDA0004225680310000071
其中/>
Figure GDA0004225680310000072
是通过Kyβy=γyβy求得的第i个最大特征值/>
Figure GDA00042256803100000717
对应的特征向量,i=1,2,…,dim;/>
Figure GDA0004225680310000073
是核特征空间中的样本内积矩阵,即核矩阵。因此经过KPCA降维后,A视图的训练样本的数据矩阵为:
Figure GDA0004225680310000074
同理,B视图的训练样本数据矩阵为
Figure GDA0004225680310000075
其中Kx为核矩阵。测试集的核数据矩阵为/>
Figure GDA0004225680310000076
经过KPCA降维后,相应的数据矩阵为/>
Figure GDA0004225680310000077
Figure GDA0004225680310000078
其中Kyg,Kxp为相应的核矩阵。
步骤5:利用跨视图核协同表示方法对Ygallery,Xprob中的样本进行协同表示。
为了更易线性地区分不同身份的行人图像,在协同表示之前要将原始数据投影到一个高维特征空间,具体而言就是用一个指定的非线性核函数将训练和测试数据投影到一个核特征空间,由于核特征空间的维数非常高或者有可能是无穷维,因此有必要在对核特征空间进行降维。主要采用一些基于核方法的降维方法,比如核主成分分析。最后,对核特征空间中的训练、测试样本进行跨视图核协同表示,进而得到训练、测试集的协同表示编码矩阵。
为了克服传统CRC不适应于跨视图行人再识别的弊端,本方法将每个单视图的CRC过程整合到同一个多任务学习框架,同时加上对表示编码的约束项,联合地学习协同表示编码。具体描述如下:
对于A视图下的某个待测样本y,经过非线性映射降维之后,样本y可以表示为
Figure GDA0004225680310000079
用A视图中所有训练样本对待测样本y进行重构,设重构系数为αy,根据最小二乘法得到下式:/>
Figure GDA00042256803100000710
对系数αy进行2范数约束,得到单视图核CRC模型:/>
Figure GDA00042256803100000711
同理对于B视图下的已知行人样本x,也可得到B视图核CRC模型:/>
Figure GDA00042256803100000712
将两个视图的核CRC模型、系数相似性约束项,整合到同一个多任务学习框架中,得到跨视图核协同表示分类模型的目标函数:
Figure GDA00042256803100000713
当有多个待测样本时,若测试集包括来自B视图的待测样本集
Figure GDA00042256803100000714
和来自A视图的已知行人样本集/>
Figure GDA00042256803100000715
则目标函数还可以写成如下矩阵形式:
Figure GDA00042256803100000716
其中,
Figure GDA0004225680310000081
分别是Ygallery,Xprob的协同表示编码矩阵,Kyg=φ(Y)Tφ(Ygallery),Kxp=φ(X)Tφ(Xprob)是核矩阵。
经过一系列的代数优化,最终可得Ygallery,Xprob的协同表示编码矩阵:
Figure GDA0004225680310000082
其中,
Figure GDA0004225680310000083
I是单位矩阵,λ,ζ是预设正则化参数。
依据上述跨视图核协同表示方法的求解公式,可得Ygallery,Xprob的协同表示编码矩阵:
Figure GDA0004225680310000084
其中,
Figure GDA0004225680310000085
I是单位矩阵,λ,ζ是正则化参数,其中/>
Figure GDA0004225680310000086
和/>
Figure GDA0004225680310000087
分是
Xprob和Ygallery对应的编码矩阵。
步骤6:依据余弦相似性度量逐对比较Ygallery,Xprob中样本的协同表示编码,按照相似度大小确定Xprob中样本的身份标签。具体而言,对于Xprob中的某个待测样本
Figure GDA0004225680310000088
计算它的协同表示编码/>
Figure GDA0004225680310000089
与Ygallery中每个样本/>
Figure GDA00042256803100000810
的协同表示编码/>
Figure GDA00042256803100000811
之间的相似度:/>
Figure GDA00042256803100000812
对于所有Xprob中的待测样本,它们的相似度可以构成相似度矩阵Sim(Λpg),且其第i行j列的元素为/>
Figure GDA00042256803100000813
对于Xprob中的第i个待测样本/>
Figure GDA00042256803100000814
寻找Sim(Λpg)中第i行Sim(i,:)中的最大的相似度Sim(i,l),则/>
Figure GDA00042256803100000815
的身份标签就与Ygallery中的第l个样本/>
Figure GDA00042256803100000816
的身份标签相同,i=1,2,…,m2;/>
Figure GDA00042256803100000817
本发明的技术方案不局限于上述各实施例,凡采用等同替换方式得到的技术方案均落在本发明要求保护的范围内。

Claims (4)

1.一种基于跨视图核协同表示的行人再识别方法,其特征在于,包括如下步骤:
步骤一、利用A、B两摄像机拍摄行人图像,记为A、B两视图,从两视图中分别采集行人图像样本作为数据集,对数据集预处理,并划分训练集和测试集;
训练集记为:
Figure QLYQS_1
Figure QLYQS_2
测试集记为:
Figure QLYQS_3
Figure QLYQS_4
划分训练集和测试集的方法为:分别从A、B摄像机采集的数据集中选取n张有标签行人图像作为训练集,用
Figure QLYQS_5
Figure QLYQS_6
分别表示由摄像机A和B采集的n个有标签训练样本,其中Train_datasetA的第i列/>
Figure QLYQS_7
表示采集自摄像机A的第个样本,Train_datasetB的第j列/>
Figure QLYQS_8
表示采集自摄像机B的第j个样本,f为数据维度;分别选取m1张来自摄像机A的有标签行人图像,记为/>
Figure QLYQS_9
m2张来自摄像机B的待测行人图像,记为/>
Figure QLYQS_10
作为测试集;
步骤二、对训练集和测试集中的样本进行特征提取,利用分层高斯描述子提取GOG特征,并利用子空间学习算法XQDA对高维GOG特征进行降维,得到分别对应于Train_datasetA,Train_datasetB,Prob_dataset,Gallery_dataset的新的数据矩阵
Figure QLYQS_11
Figure QLYQS_12
d为样本的特征维度;
步骤三、利用核方法将所有样本映射到一个高维核特征空间;
设非线性映射为φ(·),则原始训练样本会被映射到高维空间,即:yi,
Figure QLYQS_13
s>>d;映射后的训练样本数据矩阵可以表示为:
Figure QLYQS_14
对于
Figure QLYQS_15
和/>
Figure QLYQS_16
映射后的高维数据矩阵表示为/>
Figure QLYQS_17
步骤四、对高维核特征空间中的样本进行降维;
设两个视图的高维核特征空间中的鉴别投影为Py
Figure QLYQS_18
目标维度为dim,且dim<<s,则它们满足:Py=φ(Y)Ay,Px=φ(X)Ax,其中,Ay,/>
Figure QLYQS_19
分别表示Py,Px对应的变换矩阵;
Ay通过求解如下广义特征值问题得到:Kyβy=γyβy
Figure QLYQS_20
其中/>
Figure QLYQS_21
是通过Kyβy=γyβy求得的第i个最大特征值γiy对应的特征向量,i=1,2,…,dim;/>
Figure QLYQS_22
是核特征空间中的样本核矩阵;降维后,A视图的训练样本的数据矩阵为:
Figure QLYQS_23
同理,B视图的训练样本数据矩阵为
Figure QLYQS_24
其中Kx为核矩阵;
测试集的核数据矩阵为
Figure QLYQS_25
降维后,相应的数据矩阵为
Figure QLYQS_26
其中Kyg,Kxp为相应的核矩阵;
步骤五、利用跨视图核协同表示方法对Ygallery,Xprob中的样本进行协同表示;
Ygallery,Xprob的协同表示编码矩阵为:
Figure QLYQS_27
其中,
Figure QLYQS_28
I是单位矩阵,λ,ζ是正则化参数,其中/>
Figure QLYQS_29
分别是Xprob和Ygallery对应的编码矩阵;
步骤六、依据余弦相似性度量逐对比较Ygallery,Xprob中样本的协同表示编码,按照相似度大小确定Xprob中样本的身份标签;
按照相似度大小确定Xprob中样本的身份标签的具体方法为:对于Xprob中的待测样本
Figure QLYQS_30
计算它的协同表示编码/>
Figure QLYQS_31
与Ygallery中每个样本/>
Figure QLYQS_32
的协同表示编码/>
Figure QLYQS_33
之间的相似度:
Figure QLYQS_34
对于Xprob中的待测样本,它们的相似度可以构成相似度矩阵Sim(Λpg),且其第i行j列的元素为
Figure QLYQS_35
对于Xprob中的第i个待测样本/>
Figure QLYQS_36
寻找Sim(Λpg)中第i行Sim(i,:)中的最大的相似度Sim(i,l),则/>
Figure QLYQS_37
的身份标签就与Ygallery中的第l个样本/>
Figure QLYQS_38
的身份标签相同,i=1,2,…,m2;j=1,2,…,m1
2.根据权利要求1所述基于跨视图核协同表示的行人再识别方法,其特征在于:所述步骤一中,数据集预处理包括去除不合格样本、整理样本标签、图像去噪,图像增强和图像规范化。
3.根据权利要求2所述基于跨视图核协同表示的行人再识别方法,其特征在于:A、B两视图下同一个人的样本在样本矩阵Train_datasetA,Train_datasetB中具有相同的列索引,即ai与bi,i=1,2,…,n,且具有相同的身份标签。
4.根据权利要求3所述基于跨视图核协同表示的行人再识别方法,其特征在于:测试集中m1张来自摄像机A的行人图像与训练集中的样本具有不同的身份标签。
CN202010141525.2A 2020-03-02 2020-03-02 一种基于跨视图核协同表示的行人再识别方法 Active CN111353443B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010141525.2A CN111353443B (zh) 2020-03-02 2020-03-02 一种基于跨视图核协同表示的行人再识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010141525.2A CN111353443B (zh) 2020-03-02 2020-03-02 一种基于跨视图核协同表示的行人再识别方法

Publications (2)

Publication Number Publication Date
CN111353443A CN111353443A (zh) 2020-06-30
CN111353443B true CN111353443B (zh) 2023-06-20

Family

ID=71194322

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010141525.2A Active CN111353443B (zh) 2020-03-02 2020-03-02 一种基于跨视图核协同表示的行人再识别方法

Country Status (1)

Country Link
CN (1) CN111353443B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114299550B (zh) * 2022-01-05 2024-02-27 南通理工学院 一种行人再识别系统中无感噪声攻击的防御方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107506700B (zh) * 2017-08-07 2021-03-16 苏州经贸职业技术学院 基于广义相似性度量学习的行人再识别方法
CN109447123B (zh) * 2018-09-28 2021-07-16 昆明理工大学 一种基于标签一致性约束与拉伸正则化字典学习的行人再识别方法
CN109447175A (zh) * 2018-11-07 2019-03-08 黄山学院 结合深度学习与度量学习的行人再识别方法
CN109766748B (zh) * 2018-11-27 2022-09-23 昆明理工大学 一种基于投影变换与字典学习的行人再识别的方法

Also Published As

Publication number Publication date
CN111353443A (zh) 2020-06-30

Similar Documents

Publication Publication Date Title
CN111680614B (zh) 一种基于视频监控中的异常行为检测方法
Liu et al. Identity preserving generative adversarial network for cross-domain person re-identification
CN113887661B (zh) 一种基于表示学习重构残差分析的图像集分类方法及系统
Qiang et al. Hybrid human detection and recognition in surveillance
CN112836671B (zh) 一种基于最大化比率和线性判别分析的数据降维方法
Zhao et al. Maximal granularity structure and generalized multi-view discriminant analysis for person re-identification
Lee et al. Face image retrieval using sparse representation classifier with gabor-lbp histogram
CN110874576A (zh) 一种基于典型相关分析融合特征的行人再识别方法
Avola et al. Real-time deep learning method for automated detection and localization of structural defects in manufactured products
CN115496950A (zh) 邻域信息嵌入的半监督判别字典对学习的图像分类方法
Haddad et al. Locally adaptive statistical background modeling with deep learning-based false positive rejection for defect detection in semiconductor units
CN113095305A (zh) 一种医药异物高光谱分类检测方法
Fang et al. A colour histogram based approach to human face detection
CN111353443B (zh) 一种基于跨视图核协同表示的行人再识别方法
CN107133579A (zh) 基于CSGF(2D)2PCANet卷积网络的人脸识别方法
CN112257600B (zh) 一种人脸识别方法及系统
Rahiddin et al. Local texture representation for timber defect recognition based on variation of LBP
Chen et al. More about covariance descriptors for image set coding: Log-euclidean framework based kernel matrix representation
Hsieh et al. Video-based human action and hand gesture recognition by fusing factored matrices of dual tensors
Tsechpenakis et al. Image analysis techniques to accompany a new in situ ichthyoplankton imaging system
CN110147824B (zh) 一种图像的自动分类方法及装置
CN113947780A (zh) 一种基于改进卷积神经网络的梅花鹿面部识别方法
Zeno et al. Face validation based anomaly detection using variational autoencoder
CN115115898B (zh) 一种基于无监督特征重构的小样本目标检测方法
Xu et al. A novel method of aerial image classification based on attention-based local descriptors

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant