CN106960182A - 一种基于多特征集成的行人再识别方法 - Google Patents

一种基于多特征集成的行人再识别方法 Download PDF

Info

Publication number
CN106960182A
CN106960182A CN201710120986.XA CN201710120986A CN106960182A CN 106960182 A CN106960182 A CN 106960182A CN 201710120986 A CN201710120986 A CN 201710120986A CN 106960182 A CN106960182 A CN 106960182A
Authority
CN
China
Prior art keywords
matching
sigma
model
feature
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710120986.XA
Other languages
English (en)
Other versions
CN106960182B (zh
Inventor
杨云
刘晓芳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yunnan University YNU
Original Assignee
Yunnan University YNU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yunnan University YNU filed Critical Yunnan University YNU
Priority to CN201710120986.XA priority Critical patent/CN106960182B/zh
Publication of CN106960182A publication Critical patent/CN106960182A/zh
Application granted granted Critical
Publication of CN106960182B publication Critical patent/CN106960182B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于多特征集成的行人再识别方法,具体包括如下步骤:步骤1:多特征信息采集;步骤2:将步骤1采集的多特征信息进行度量模型学习,建立多个基于单一特征的匹配模型;步骤3:权值学习:根据步骤2所学得的4个模型在训练数据集上的辨识度表现,为各个模型分配对应的权重;步骤4:多特征匹配:将指定图像与匹配图像通过步骤2得到的各单特征匹配模型,进行计算得到在各单特征模型上图像之间的距离,进行排序即得到相应的匹配结果,再将各特征上的距离与步骤3得到的权值进行加权集成,求出最终的组合距离,继而可得到一个更优的多特征匹配结果。

Description

一种基于多特征集成的行人再识别方法
技术领域
本发明属于图像检索技术领域,涉及一种基于多特征集成的行人再识别方法。
背景技术
行人再识别是指在可能的图像库中识别出某个特定的已经在图像库中出现过的行人。例如,行人再识别技术一个典型的应用场景是刑事侦查,给定嫌疑人照片,收集嫌疑人相关的视频监控录像,进而收集与嫌疑人有关的线索。随着人们对社会公共安全的日益关注以及视频采集技术和大规模数据存储技术的发展,大量的监控摄像头应用在商场、公园、学校、医院、地铁站等人群密集且易发生公共安全事件的场所,监控摄像的出现无疑给人们带来了极大的便利。然而,由于相关的视频监控录像中设计的行人图像的数量往往是海量的,传统人工监控的方法效率非常低下,因此,利用计算机对监控视频进行行人再识别有着非常重要的现实意义。
由于此研究领域具有较高的理论研究与实际应用价值,国内外许多研究者提出了较多针对行人图像的识别技术,但大致可以分为两类:一类是基于特征的方法,另一类是基于测度学习的方法。特征类方法的基本出发点是设计出具有较强的区分性和稳定性的特征,主要使用的特征有颜色直方图、纹理、形状、梯度等。测度类方法的关注点是如何度量人体目标的相似性。通过建立正负样本训练,学习出不同摄像机下人体目标的距离函数,使同一个目标之间距离小、相似性高,不同目标间距离大、相似性小。
尽管研究人员在此研究领域上已经取得了一些成果,但由于行人图像数据本身具有非常复杂的动态特性,如:光照,角度,姿势变化和遮挡等,使得现有的技术并不成熟,所以部分研究人员尝试引入多特征集成技术,进一步提高行人再识别的性能。
现有行人再识别模型包含如下几方面缺点:
(1)特征类方法与测度类方法相结合的缺点
目前,行人再识别问题主要研究方向分为特征类和测度类两种。前者致力于设计出具有较强的区分性和稳定性的特征,后者则倾向于建立人体目标的相似性的度量模型,而这两类方法各有其优势和缺陷,特征类方法较为简单,测度类方法对特征的设计要求较低,能取得较高的识别率。然而目前,少有技术将两者合理的结合在一起,扬长避短,设计出依赖普遍特征的高效的识别算法。
(2)多特征融合的缺点
现有多特征融合算法大多将几个不同的特征首尾相连串联成一个整体特征以后,在此特征上训练得到一个行人外观匹配模型,并未考虑不同特征的重要性以及特征之间的冲突,互补性等问题;并且串联特征由于包含大量的冗余、无关信息,通常无法全面地反映出行人图像的真实信息,因而大大降低学习算法的效能,导致识别算法失效;再者,多个特征串联得到的特征通常维度较高,算法难以获得较高的效率。
(3)集成算法的缺点
大部分的集成算法通过平均求和的方式构建最终的集成结果。但此种融合方式并不理想。如何在没有先验知识的条件下,合理地组合大量的初始分析结果以达到最优融合,仍然是一个待解决的问题。
发明内容
为实现上述目的,本发明提供一种基于多特征集成的行人再识别方法,解决了现有技术中存在的由于数据具有复杂的动态特性和不稳定性等特点,使得传统的识别算法无法获得较为理想的结果的问题,提升了行人再识别的准确度。
本发明所采用的技术方案是,一种基于多特征集成的行人再识别方法,将行人图像转化为四种不同的特征表示,并分别在每种特征上学习相似度距离度量模型,根据不同模型在训练数据上所表现出的性能好坏,为各个模型分配不同的权重,对辨识能力强的特征给予较高权重,反之,辨识度低的特征给予较低权重,最终通过加权集成学习技术将多个模型匹配结果有效地融合为一个更加精确和稳定的最优结果,具体包括如下步骤:
步骤1:多特征信息采集;
步骤2:将步骤1采集的多特征信息进行度量模型学习,建立多个基于单一特征的匹配模型;
步骤3:权值学习:根据步骤2所学得的4个模型在训练数据集上的辨识度表现,为各个模型分配对应的权重;
步骤4:多特征匹配:将指定图像与匹配图像通过步骤2得到的各单特征匹配模型,进行计算得到在各单特征模型上图像之间的距离,进行排序即得到相应的匹配结果,再将各特征上的距离与步骤3得到的权值进行加权集成,求出最终的组合距离,继而可得到一个更优的多特征匹配结果。
所述步骤1的信息采集具体包括以下步骤:
步骤1.1:将数据分为训练数据和测试数据,测试数据又分为查询数据和比对数据,在每一组数据上,分别进行RGB,HSV,YCbCr和LBP特征的提取,分别表示为F1,F2,F3和F4
步骤1.2:计算RGB到HSV的转换关系,计算式如下:
其中,max为R,G,B分量的最大值,min为R,G,B分量的最小值,r,g,b为图像在R,G,B上的分量值;
步骤1.3:计算YCbCr与RGB颜色空间转换关系,计算式如下:
步骤1.4:计算各种颜色出现的概率,其函数表达式如下:
其中,k代表图像的特征取值,L是特征可取值的个数,nk是图像中具有特征值为k的像素的个数,N是图像像素的总数;
步骤1.5:采用LBP纹理特征计算该区域的纹理信息:
LBP是一种用来描述图像局部纹理特征的算子,它反映的是每个像素与周围像素的关系,原始的LBP算子定义为在3*3的窗口内,计算公式为:
式中,gc为中心像素点的灰度值,gp为其周围像素点p的灰度值,以窗口中心像素为阈值,将相邻的p个像素的灰度值与其进行比较,若周围像素值大于中心像素值,则该像素点的位置被标记为1,否则为0,这样,其邻域内的p个点经比较可产生p位二进制数,将其转换为十进制数即得到该窗口中心像素点的LBP值,并用这个值来反映该区域的纹理信息。
所述步骤2的具体操作如下:
基于步骤1提取出的四种特征F1,F2,F3和F4,利用RS-KISS距离度量方法分别在每种特征上学习得到四个匹配模型M1,M2,M3和M4
所述KISS算法从统计推断角度,把一堆样本(xi,xj)匹配与否可以用一个似然比值来描述,如果样本对(xi,xj)相似/匹配,记yij=1;如果样本对(xi,xj)不相似/不匹配,记yij=0,为了简化表示,定义xij=xi-xj,则和之间的距离可以表示为:
其中,分别为同类协方差矩阵和异类协方差矩阵的逆矩阵,可以分别从训练数据中的相似样本对和不相似样本对训练得到,可分别由下式计算:
由于数据量不足或噪音的存在等多种因素,上述协方差矩阵的估计通常产生较大偏差,因此,Tao等人引入平滑技术和正则化方法来提高算法的性能,上述协方差矩阵为半正定矩阵,因此可以对角化表示为:
其中,i∈{0,1},Λi=diag[λi1i2,...,λid],λij为Σi,的特征值,Φi=[φi1i2,...,φid],φij为Σi的特征向量,根据平滑技术,我们用一个常值βi代替中最小的d-k个特征值来做估计以达到平滑的效果,即:
Λi=diag[λi1i2,...,λiki,...,βi] (9)
其中,常值βi为最小的d-k个特征值的平均值,如下所示:
根据正则化理论,加入正则化项,通过牺牲一定的准确性,增加一定的泛化性能,同时能有效的避免过拟合的产生。RS-KISS中正则化如公式(11)所示:
其中,αi=(1/d)tr(Σi),0<γ<1,用于平衡前后两项的权重。
因此,在每个特征上的模型可定义为对应特征m上的同类协方差矩阵和异类协方差矩阵之差,如公式(12)所示:
通过上述平滑技术和正则化方法处理后,过大或过小的估计协方差矩阵所带来的影响,同时增强了模型的泛化能力,有效的避免过拟合的产生。
所述步骤3的具体操作如下:
首先对每一个初始匹配结果进行质量评估,并对其量化得到一个权值,最后优化集成多个基于不同特征的匹配结果,每个特征的权值如下:
其中,m表示特征数,为对应特征m上图像之间的距离,权值表示在对应的特征空间匹配模型的质量,上式表明:越好的特征应该具有越好的辨识度,即相似样本间距离尽量小而不相似样本距离尽量大,因而具有较高权重。
所述步骤4的具体操作如下:
将指定图像与匹配图像通过步骤2得到的各单特征匹配模型M1,M2,M3和M4计算得到在各单特征模型上图像之间的距离,进行排序即得到相应的匹配结果matching1,matching2,matching3和matching4再将各特征上的距离与步骤3得到的权值w1,w2,w3和w4按照公式(14)进行加权集成,
求出最终的组合距离δ*,继而可得到一个更优的多特征匹配结果。
本发明的有益效果是:
1.本发明将行人图像转化为不同的特征表示,从不同侧面全面地反映了行人图像的真实信息,最大程度上避免了单一特征带来的不稳定性所造成的影响;
2.建立了一个全新的权重学习机制,对辨识能力强的特征给予较高权重,充分体现了不同特征差异性和辨识度;
3.通过引入新的加权集成学习技术而非普通的平均加权,有效地将多个特征空间的匹配结果融合为一个更加精确和稳定的最优结果,使得行人再识别精确度得到进一步的提高。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一种基于多特征集成的行人再识别方法的流程图;
图2是本发明一种基于多特征集成的行人再识别方法的ETHZ数据集上训练数据为76人的实验结果对比图;
图3是本发明一种基于多特征集成的行人再识别方法的ETHZ数据集上训练数据为106人的实验结果对比图;
图4是本发明一种基于多特征集成的行人再识别方法的VIPeR数据集上训练数据为100人的实验结果对比图;
图5是本发明一种基于多特征集成的行人再识别方法的VIPeR数据集上训练数据为316人的实验结果对比图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明一种基于多特征集成的行人再识别方法,算法模型图如图1所示,将行人图像转化为四种不同的特征表示,并分别在每种特征上学习相似度距离度量模型;根据不同模型在训练数据上所表现出的性能好坏,为各个模型分配不同的权重,对辨识能力强的特征给予较高权重;反之,辨识度低的特征给予较低权重;最终通过加权集成学习技术将多个模型匹配结果有效地融合为一个更加精确和稳定的最优结果,使得行人再识别精确度得到进一步的提高。
具体包括如下步骤:
步骤1:多特征信息采集
由于行人图像数据具有复杂的多变性,单一特征只能描述图像的部分属性,对图像内容描述比较片面,缺少足够的区分信息,因此,本发明将行人图像转换为不同的特征表示,包括颜色及纹理特征,从不同侧面反映了行人图像的真实信息。具体来说,我们将数据分为训练数据和测试数据,测试数据又分为查询数据和比对数据,在每一组数据上,我们分别进行RGB,HSV,YCbCr,和LBP特征的提取,分别表示为F1,F2,F3和F4。其中,RGB,HSV,YCbCr为常用的颜色特征,且各有其侧重点,LBP则为纹理特征,RGB是一种广泛用于计算机图形学的基础彩色模式,R、G、B分别为图像红、绿、蓝的亮度值,大小限定在0~1或者0~255之间。这个彩色模型为每一个颜色通道分配0~255,256个级别的灰度值。
HSV颜色模型由H(Hue)代表色度,S(Saturation)色饱和度,V(Value)亮度3个互独立的分量构成,该颜色系统比RGB系统更接近于人们的经验和对彩色的感知,因而被广泛应用于计算机视觉领域。在摄像头中,通过图像采集卡所采集到的行人图像是基于RGB模型的,但相对于RGB空间,HSV空间能够非常直观的表达色彩的明暗,色调,以及鲜艳程度,方便进行颜色之间的对比,因而可与RGB进行互补。RGB到HSV的转换关系为:
其中,max为R,G,B分量的最大值,min为R,G,B分量的最小值,r,g,b为图像在R,G,B上的分量值。
YCbCr是色彩空间的一种,通常会用于影片中的影像连续处理,或是数字摄影系统中。Y为颜色的亮度成分、而Cb和Cr则为蓝色和红色的浓度偏移量成份。采用YCbCr彩色空间的主要优点是它的亮度信号Y和色差信号Cb、Cr是分离的。YCbCr与RGB颜色空间转换关系如下:
对于颜色特征,其常用表示方法为颜色直方图。颜色直方图是最基本的颜色特征表示方法,它反映的是图像中颜色的组成分布,即出现了哪些颜色以及各种颜色出现的概率,其函数表达式如下:
其中,k代表图像的特征取值,L是特征可取值的个数,nk是图像中具有特征值为k的像素的个数,N是图像像素的总数。
纹理信息可用于弥补全局颜色特征和局部特征的不足。与颜色等图像特征不同,纹理通过像素及其周围空间邻域的灰度分布来表现,本发明采用LBP纹理特征。
LBP(Local Binary Pattern,局部二值模式)是一种用来描述图像局部纹理特征的算子,它反映的是每个像素与周围像素的关系。它具有旋转不变性和灰度不变性等显著的优点。原始的LBP算子定义为在3*3的窗口内,计算公式为:
式中,gc为中心像素点的灰度值,gp为其周围像素点p的灰度值。以窗口中心像素为阈值,将相邻的p个像素的灰度值与其进行比较,若周围像素值大于中心像素值,则该像素点的位置被标记为1,否则为0。这样,其邻域内的p个点经比较可产生p位二进制数,将其转换为十进制数即得到该窗口中心像素点的LBP值,并用这个值来反映该区域的纹理信息。
步骤2:将步骤1采集的多特征信息进行度量模型学习,建立多个基于单一特征的匹配模型。
基于步骤1提取出的四种特征F1,F2,F3和F4我们利用RS-KISS距离度量方法分别在每种特征上学习得到四个匹配模型M1,M2,M3和M4。其中RS-KISS距离度量方法详细描述如下。
RS-KISS是KISS的改进方法,它通过引入平滑技术和正则化方法来提高KISS算法的效率。KISS算法从统计推断角度,把一堆样本(xi,xj)匹配与否可以用一个似然比值来描述。这里我们先规定一下:如果样本对(xi,xj)相似/匹配,记yij=1;如果样本对(xi,xj)不相似/不匹配,记yij=0。为了简化表示,定义xij=xi-xj,则和之间的距离可以表示为:
其中,Σ1 -1和Σ0 -1分别为同类协方差矩阵和异类协方差矩阵的逆矩阵,可以分别从训练数据中的相似样本对和不相似样本对训练得到,可分别由下式计算:
但是,现实问题中,由于数据量不足或噪音的存在等多种因素,上述协方差矩阵的估计通常产生较大偏差,因此,Tao等人引入平滑技术和正则化方法来提高算法的性能。上述协方差矩阵为半正定矩阵,因此可以对角化表示为:
其中,i∈{0,1},Λi=diag[λi1i2,...,λid],λij为Σi,的特征值,Φi=[φi1i2,...,φid],φij为Σi的特征向量。根据平滑技术,我们用一个常值βi代替中最小的d-k个特征值来做估计以达到平滑的效果,即:
Λi=diag[λi1i2,...,λiki,...,βi] (9)
其中,常值βi为最小的d-k个特征值的平均值,如下所示:
根据正则化理论,加入正则化项,通过牺牲一定的准确性,增加一定的泛化性能,同时能有效的避免过拟合的产生。RS-KISS中正则化如公式(11)所示:
其中,αi=(1/d)tr(Σi),0<γ<1,用于平衡前后两项的权重。
因此,在每个特征上的模型可定义为对应特征m上的同类协方差矩阵和异类协方差矩阵之差,如公式(12)所示:
通过上述平滑技术和正则化方法处理后,过大或过小的估计协方差矩阵所带来的影响,同时增强了模型的泛化能力,有效的避免过拟合的产生。
步骤3:权值学习,根据步骤2所学得的4个模型在训练数据集上的辨识度表现,为各个模型分配对应的权重。
在没有任何先验知识的情况下,如何将多个匹配结果有效地融合成一个最优匹配结果是本发明的核心问题之一。与传统方法不同,我们引入一个新的加权方案,首先对每一个初始匹配结果进行质量评估,并对其量化得到一个权值,最后优化集成多个基于不同特征的匹配结果。我们定义每个特征的权值如下:
其中,m表示特征数,为对应特征m上图像之间的距离,权值表示在对应的特征空间匹配模型的质量。该公式分子为在某一特征上外距与内距的比值,比值越大,说明该特征辨识度越高,分母为在各个特征外距与内距的比值之和。上式表明:越好的特征应该具有越好的辨识度,即相似样本间距离尽量小而不相似样本距离尽量大,因而具有较高权重。但是由于内距通常分布于0附近,正负相交,为避免正负加和相抵消带来的影响,我们统一为所有距离加上内距最小值(绝对值最大的负值)的绝对值将所有距离平移到正值区域。
步骤4:多特征匹配
将指定图像与匹配图像通过步骤2得到的各单特征匹配模型M1,M2,M3和M4计算得到在各单特征模型上图像之间的距离,进行排序即得到相应的匹配结果matching1,matching2,matching3和matching4再将各特征上的距离与步骤3得到的权值w1,w2,w3和w4按照公式(14)进行加权集成,求出最终的组合距离δ*,继而可得到一个更优的多特征匹配结果。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

Claims (5)

1.一种基于多特征集成的行人再识别方法,其特征在于,将行人图像转化为四种不同的特征表示,并分别在每种特征上学习相似度距离度量模型,根据不同模型在训练数据上所表现出的性能好坏,为各个模型分配不同的权重,对辨识能力强的特征给予较高权重,反之,辨识度低的特征给予较低权重,最终通过加权集成学习技术将多个模型匹配结果有效地融合为一个更加精确和稳定的最优结果,具体包括如下步骤:
步骤1:多特征信息采集;
步骤2:将步骤1采集的多特征信息进行度量模型学习,建立多个基于单一特征的匹配模型;
步骤3:权值学习:根据步骤2所学得的4个模型在训练数据集上的辨识度表现,为各个模型分配对应的权重;
步骤4:多特征匹配:将指定图像与匹配图像通过步骤2得到的各单特征匹配模型,进行计算得到在各单特征模型上图像之间的距离,进行排序即得到相应的匹配结果,再将各特征上的距离与步骤3得到的权值进行加权集成,求出最终的组合距离,继而可得到一个更优的多特征匹配结果。
2.根据权利要求1所述的一种基于多特征集成的行人再识别方法,其特征在于,所述步骤1的信息采集具体包括以下步骤:
步骤1.1:将数据分为训练数据和测试数据,测试数据又分为查询数据和比对数据,在每一组数据上,分别进行RGB,HSV,YCbCr和LBP特征的提取,分别表示为F1,F2,F3和F4
步骤1.2:计算RGB到HSV的转换关系,计算式如下:
其中,max为R,G,B分量的最大值,min为R,G,B分量的最小值,r,g,b为图像在R,G,B上的分量值;
步骤1.3:计算YCbCr与RGB颜色空间转换关系,计算式如下:
Y C b C r = 16 128 128 + 65.481 128.553 24.966 - 37.797 - 74.203 112.000 112.000 - 93.786 - 18.214 R G B - - - ( 2 )
步骤1.4:计算各种颜色出现的概率,其函数表达式如下:
H ( k ) = n k N , ( k = 0 , 1 , ... L - 1 ) - - - ( 3 )
其中,k代表图像的特征取值,L是特征可取值的个数,nk是图像中具有特征值为k的像素的个数,N是图像像素的总数;
步骤1.5:采用LBP纹理特征计算该区域的纹理信息:
LBP是一种用来描述图像局部纹理特征的算子,它反映的是每个像素与周围像素的关系,原始的LBP算子定义为在3*3的窗口内,计算公式为:
L B P = &Sigma; P = 0 P - 1 S ( g P - g c ) 2 P , S ( x ) = 1 , i f x &GreaterEqual; 0 0 , o t h e r w i s e - - - ( 4 )
式中,gc为中心像素点的灰度值,gp为其周围像素点p的灰度值,以窗口中心像素为阈值,将相邻的p个像素的灰度值与其进行比较,若周围像素值大于中心像素值,则该像素点的位置被标记为1,否则为0,这样,其邻域内的p个点经比较可产生p位二进制数,将其转换为十进制数即得到该窗口中心像素点的LBP值,并用这个值来反映该区域的纹理信息。
3.根据权利要求1所述的一种基于多特征集成的行人再识别方法,其特征在于,所述步骤2的具体操作如下:
基于步骤1提取出的四种特征F1,F2,F3和F4,利用RS-KISS距离度量方法分别在每种特征上学习得到四个匹配模型M1,M2,M3和M4
所述KISS算法从统计推断角度,把一堆样本(xi,xj)匹配与否可以用一个似然比值来描述,如果样本对(xi,xj)相似/匹配,记yij=1;如果样本对(xi,xj)不相似/不匹配,记yij=0,为了简化表示,定义xij=xi-xj,则和之间的距离可以表示为:
&delta; ( x i j ) = x i j T ( E 1 - 1 - E 0 - 1 ) x i j - - - ( 5 )
其中,分别为同类协方差矩阵和异类协方差矩阵的逆矩阵,可以分别从训练数据中的相似样本对和不相似样本对训练得到,可分别由下式计算:
&Sigma; 1 = 1 N 1 &Sigma; y i j = 1 x i j x i j T = 1 N 1 &Sigma; y i j = 1 ( x i - x j ) ( x i - x j ) T - - - ( 6 )
&Sigma; 0 = 1 N 0 &Sigma; y i j = 0 x i j x i j T = 1 N 0 &Sigma; y i j = 0 ( x i - x j ) ( x i - x j ) T - - - ( 7 )
引入平滑技术和正则化方法来提高算法的性能,上述协方差矩阵为半正定矩阵,因此可以对角化表示为:
&Sigma; i = &Phi; i &Lambda; i &Phi; i T - - - ( 8 )
其中,i∈{0,1},Λi=diag[λi1i2,...,λid],λij为Σi,的特征值,Φi=[φi1i2,...,φid],φij为Σi的特征向量,根据平滑技术,用一个常值βi代替中最小的d-k个特征值来做估计以达到平滑的效果,即:
Λi=diag[λi1i2,...,λiki,...,βi] (9)
其中,常值βi为最小的d-k个特征值的平均值,如下所示:
&beta; i = 1 d - k &Sigma; n = k + 1 d &lambda; i n - - - ( 10 )
根据正则化理论,加入正则化项,通过牺牲一定的准确性,增加一定的泛化性能,同时能有效的避免过拟合的产生,RS-KISS中正则化如公式(11)所示:
&Sigma; ~ i = ( 1 - &gamma; ) &Sigma; i + &gamma;&alpha; i I - - - ( 11 )
其中,αi=(1/d)tr(Σi),0<γ<1,用于平衡前后两项的权重;
因此,在每个特征上的模型可定义为对应特征m上的同类协方差矩阵和异类协方差矩阵之差,如公式(12)所示:
M m = &Sigma; ~ 1 m - &Sigma; ~ 0 m - - - ( 12 )
通过上述平滑技术和正则化方法处理后,过大或过小的估计协方差矩阵所带来的影响,同时增强了模型的泛化能力,有效的避免过拟合的产生。
4.根据权利要求1所述的一种基于多特征集成的行人再识别方法,其特征在于,所述步骤3的具体操作如下:
首先对每一个初始匹配结果进行质量评估,并对其量化得到一个权值,最后优化集成多个基于不同特征的匹配结果,每个特征的权值如下:
w m = ( &Sigma; y i j = 0 ( &delta; ( x i j m ) + | min ( &delta; ( x i j m ) ) | y i j = 1 ) ) / ( &Sigma; y i j = 1 ( &delta; ( x i j m ) + | min ( &delta; ( x i j m ) ) | y i j = 1 ) ) &Sigma; ( ( &Sigma; y i j = 0 ( &delta; ( x i j m ) + | min ( &delta; ( x i j m ) ) | y i j = 1 ) ) / ( &Sigma; y i j = 1 ( &delta; ( x i j m ) + | min ( &delta; ( x i j m ) ) | y i j = 1 ) ) ) - - - ( 13 )
其中,m表示特征数,为对应特征m上图像之间的距离,权值表示在对应的特征空间匹配模型的质量,上式表明:越好的特征应该具有越好的辨识度,即相似样本间距离尽量小而不相似样本距离尽量大,因而具有较高权重。
5.根据权利要求1所述的一种基于多特征集成的行人再识别方法,其特征在于,所述步骤4的具体操作如下:
将指定图像与匹配图像通过步骤2得到的各单特征匹配模型M1,M2,M3和M4计算得到在各单特征模型上图像之间的距离,进行排序即得到相应的匹配结果matching1,matching2,matching3和matching4再将各特征上的距离与步骤3得到的权值w1,w2,w3和w4按照公式(14)进行加权集成,
&delta; * = &Sigma; m = 1 M w m &delta; m - - - ( 14 )
求出最终的组合距离δ*,继而可得到一个更优的多特征匹配结果。
CN201710120986.XA 2017-03-02 2017-03-02 一种基于多特征集成的行人再识别方法 Active CN106960182B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710120986.XA CN106960182B (zh) 2017-03-02 2017-03-02 一种基于多特征集成的行人再识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710120986.XA CN106960182B (zh) 2017-03-02 2017-03-02 一种基于多特征集成的行人再识别方法

Publications (2)

Publication Number Publication Date
CN106960182A true CN106960182A (zh) 2017-07-18
CN106960182B CN106960182B (zh) 2018-12-14

Family

ID=59470134

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710120986.XA Active CN106960182B (zh) 2017-03-02 2017-03-02 一种基于多特征集成的行人再识别方法

Country Status (1)

Country Link
CN (1) CN106960182B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107657223A (zh) * 2017-09-18 2018-02-02 华南理工大学 一种基于快速处理多距离度量学习的人脸认证方法
CN108875498A (zh) * 2017-11-03 2018-11-23 北京旷视科技有限公司 用于行人重识别的方法、装置及计算机存储介质
CN108921064A (zh) * 2018-06-21 2018-11-30 西安理工大学 基于多特征融合的行人重识别方法
CN109101913A (zh) * 2018-08-01 2018-12-28 北京飞搜科技有限公司 行人重识别方法和装置
CN109426791A (zh) * 2017-09-01 2019-03-05 深圳市金溢科技股份有限公司 一种多站点多元车辆匹配方法、服务器及系统
CN109740672A (zh) * 2019-01-04 2019-05-10 重庆大学 多流特征距离融合系统与融合方法
CN109977882A (zh) * 2019-03-29 2019-07-05 广东石油化工学院 一种半耦合字典对学习的行人重识别方法及系统
CN110909565A (zh) * 2018-09-14 2020-03-24 阿里巴巴集团控股有限公司 图像识别和行人再识别方法及装置,电子和存储设备
CN111159493A (zh) * 2019-12-25 2020-05-15 乐山师范学院 一种基于特征权重的网络数据相似度计算方法与系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102646200A (zh) * 2012-03-08 2012-08-22 武汉大学 多分类器自适应权值融合的影像分类方法及系统
CN103500330A (zh) * 2013-10-23 2014-01-08 中科唯实科技(北京)有限公司 一种基于多传感器、多特征融合的半监督的人检测方法
CN103839084A (zh) * 2014-03-12 2014-06-04 湖州师范学院 一种应用于行人再识别的多核支持向量机多示例学习算法
CN105023008A (zh) * 2015-08-10 2015-11-04 河海大学常州校区 基于视觉显著性及多特征的行人再识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102646200A (zh) * 2012-03-08 2012-08-22 武汉大学 多分类器自适应权值融合的影像分类方法及系统
CN103500330A (zh) * 2013-10-23 2014-01-08 中科唯实科技(北京)有限公司 一种基于多传感器、多特征融合的半监督的人检测方法
CN103839084A (zh) * 2014-03-12 2014-06-04 湖州师范学院 一种应用于行人再识别的多核支持向量机多示例学习算法
CN105023008A (zh) * 2015-08-10 2015-11-04 河海大学常州校区 基于视觉显著性及多特征的行人再识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
刘明华等: "基于多特征自适应融合的均值迁移目标跟踪算法", 《光电子·激光》 *
陶大鹏: "高维问题中的小样本学习", 《中国博士学位论文全文数据库 信息科技辑》 *
齐美彬等: "多特征融合与独立测度学习的行人再识别", 《中国图像图形学报》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109426791A (zh) * 2017-09-01 2019-03-05 深圳市金溢科技股份有限公司 一种多站点多元车辆匹配方法、服务器及系统
CN107657223A (zh) * 2017-09-18 2018-02-02 华南理工大学 一种基于快速处理多距离度量学习的人脸认证方法
CN108875498A (zh) * 2017-11-03 2018-11-23 北京旷视科技有限公司 用于行人重识别的方法、装置及计算机存储介质
CN108875498B (zh) * 2017-11-03 2022-01-28 北京旷视科技有限公司 用于行人重识别的方法、装置及计算机存储介质
CN108921064A (zh) * 2018-06-21 2018-11-30 西安理工大学 基于多特征融合的行人重识别方法
CN108921064B (zh) * 2018-06-21 2021-09-10 西安理工大学 基于多特征融合的行人重识别方法
CN109101913A (zh) * 2018-08-01 2018-12-28 北京飞搜科技有限公司 行人重识别方法和装置
CN110909565B (zh) * 2018-09-14 2023-06-16 阿里巴巴集团控股有限公司 图像识别和行人再识别方法及装置,电子和存储设备
CN110909565A (zh) * 2018-09-14 2020-03-24 阿里巴巴集团控股有限公司 图像识别和行人再识别方法及装置,电子和存储设备
CN109740672B (zh) * 2019-01-04 2020-08-04 重庆大学 多流特征距离融合系统与融合方法
CN109740672A (zh) * 2019-01-04 2019-05-10 重庆大学 多流特征距离融合系统与融合方法
CN109977882A (zh) * 2019-03-29 2019-07-05 广东石油化工学院 一种半耦合字典对学习的行人重识别方法及系统
CN111159493A (zh) * 2019-12-25 2020-05-15 乐山师范学院 一种基于特征权重的网络数据相似度计算方法与系统

Also Published As

Publication number Publication date
CN106960182B (zh) 2018-12-14

Similar Documents

Publication Publication Date Title
CN106960182B (zh) 一种基于多特征集成的行人再识别方法
CN108549891B (zh) 基于背景与目标先验的多尺度扩散显著目标检测方法
Gevers et al. Color feature detection
US7039239B2 (en) Method for image region classification using unsupervised and supervised learning
Cheng et al. Color image segmentation: advances and prospects
CN113065558A (zh) 一种结合注意力机制的轻量级小目标检测方法
CN110309781B (zh) 基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法
CN110458077B (zh) 一种车辆颜色识别方法及系统
CN109376591B (zh) 深度学习特征与视觉特征联合训练的船只目标检测方法
CN109410171B (zh) 一种用于雨天图像的目标显著性检测方法
CN108280411A (zh) 一种具有空间变换能力的行人搜索方法
An et al. CBIR based on adaptive segmentation of HSV color space
Wesolkowski Color image edge detection and segmentation: A comparison of the vector angle and the euclidean distance color similarity measures
Mythili et al. Color image segmentation using ERKFCM
Chen et al. Skin color modeling for face detection and segmentation: a review and a new approach
Pesaresi et al. A new compact representation of morphological profiles: Report on first massive VHR image processing at the JRC
CN109886146B (zh) 基于机器视觉检测的洪灾信息遥感智能采集方法及设备
Chaki et al. Image color feature extraction techniques: fundamentals and applications
CN114359323A (zh) 一种基于视觉注意机制的图像目标区域检测方法
CN109190456A (zh) 基于聚合通道特征和灰度共生矩阵的多特征融合俯视行人检测方法
CN112906550A (zh) 一种基于分水岭变换的静态手势识别方法
Zhu et al. Atmospheric light estimation in hazy images based on color-plane model
Matas Colour-based object recognition
Wesolkowski et al. Shading-and highlight-invariant color image segmentation using the MPC algorithm
Huang et al. Multi-cue semi-supervised color constancy with limited training samples

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant