CN101329765A - 多摄像机目标匹配特征融合方法 - Google Patents

多摄像机目标匹配特征融合方法 Download PDF

Info

Publication number
CN101329765A
CN101329765A CNA2008100412171A CN200810041217A CN101329765A CN 101329765 A CN101329765 A CN 101329765A CN A2008100412171 A CNA2008100412171 A CN A2008100412171A CN 200810041217 A CN200810041217 A CN 200810041217A CN 101329765 A CN101329765 A CN 101329765A
Authority
CN
China
Prior art keywords
feature
similarity
target
row
matched
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2008100412171A
Other languages
English (en)
Other versions
CN101329765B (zh
Inventor
吕晓威
孔庆杰
翁菲
刘允才
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN2008100412171A priority Critical patent/CN101329765B/zh
Publication of CN101329765A publication Critical patent/CN101329765A/zh
Application granted granted Critical
Publication of CN101329765B publication Critical patent/CN101329765B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种多摄像机目标匹配特征融合方法,用于多摄像机视频监控领域中的信息处理,利用叠代加宽的算法进行实时特征融合,包括:(1)提取被跟踪目标的外观特征,包括颜色直方图特征,UV色度特征,主要颜色谱特征,以及SIFT特征;(2)分别针对各种特征计算两个待匹配目标间的相似度,并建立特征相似度矩阵;(3)根据相似度矩阵计算确定待匹配目标间的置信度指数;(4)采用叠代加宽的特征融合算法获取目的目标。本发明具有易于实现、鲁棒性强、可靠性高、实时性强等优点,可以为多摄像机目标匹配提供实时可靠的信息。

Description

多摄像机目标匹配特征融合方法
技术领域
本发明涉及一种多摄像机视频监控领域中信息处理的方法,具体是一种多摄像机目标匹配的特征融合方法。
背景技术
随着视频监控技术的快速发展,以及单摄像机有限的视域无法满足广域视频监控的要求,多摄像机非重叠视域目标跟踪成为有效解决广域视频监控问题的一种途径。目标特征提取与匹配是多摄像机目标跟踪中的基础以及重点。目标匹配是指把在不同时刻出现在不同摄像机前的目标进行匹配,由于目标物体在不同摄像机前的颜色、形状和摄像机的观测距离、观测角度等方面的巨大的差异,以及各个摄像机的内部参数和监控区域中光照等环境条件的不同等种种复杂的原因,传统计算机视觉理论中关于单摄像机跟踪匹配的很多方法都不再适用。所以,无重叠视域摄像机之间的特征提取和目标匹配需要建立适合自己特殊问题的新方法。
经对现有技术文献的检索发现,Javed等人于2008年在《Computer Vision andImage Understanding》(计算机视觉与图像理解)发表的论文“Modeling inter-camera space-time and appearance relationships for tracking acrossnon-overlapping views”(针对非重叠视域跟踪的多摄像机时空及外观关系建模)运用颜色直方图建立外观模型。
然而,由于多摄像机视域中各摄像机之间多种因素变化的不确定性,这些特征均无法对于这些不确定因素同时具有鲁棒性。因此,对多种特征进行融合可以实现更加准确的匹配。例如,Patwardhan等人于2007年在ICIP(图像处理国际会议)发表的论文“A graph-based foreground representation and ITS application inexample based people matching in video”(基于图形的前景表示和ITS在基于实例的人匹配中的应用)融合了颜色直方图的特征和尺度不变(SIFT)的特征来进行目标匹配。Madden和Piccardi于2007年在AVSS(先进视频及信号监控)发表的论文“A framework for track matching across disjoint cameras using robustshape and appearance features”(一种针对非重叠摄像机跟踪匹配的鲁棒外形和外观特征的框架)建立了一个框架来融合身高的信息和主要颜色谱的分布信息。然而,目前的融合大都建立在简单的贝叶斯框架或高斯框架下,缺少考虑特征本身的特点以及在不同条件下的效果。
发明内容
本发明的目的在于克服现有技术中的不足,提供一种多摄像机目标匹配特征融合方法,对外观特征进行叠代加宽融合,如:颜色直方图特征,UV色度特征,主要颜色谱特征,以及SIFT特征。使其克服各种特征对于不同变化因素的不确定性,在特征级上进行融合,最终为多摄像机目标跟踪提供实时、全面、准确的匹配依据。
本发明是通过以下技术方案实现的,本发明具体包括以下步骤:
(1)提取被跟踪目标的外观特征;
(2)特征相似度矩阵S的建立;
(3)置信度指数的确定;
(4)叠代加宽的特征融合算法。
所述提取被跟踪目标的外观体征,由以下方法实现:
使用混合高斯模型建模提取颜色外观特征。
使用Cheng和Piccardi于2007年在《Optical Engineering》(光学工程)发表的论文“Disjoint track matching based on a major color spectrumhistogram representation”(基于主要颜色谱直方图表示方法的非重叠跟踪匹配)的方法提取主要颜色谱直方图。
使用Lowe于2004年在《International Journal of Computer Vision》(计算机视觉)发表的论文“Distinctive image features from scale-invariantkeypoints”(源于尺度不变关键点的区分性图像特征)的方法提取尺度不变特征。
对于颜色直方图特征和UV色度特征,特征提取结果为混合高斯模型。对于主要颜色谱,特征提取为主要颜色直方图。对于SIFT,特征提取128维尺度不变特征。
所述的特征相似度矩阵S的建立,通过以下步骤实现:
(1)对于颜色直方图特征及UV色度特征,利用混合高斯模型参数,由下式计算两个待匹配目标间的相似度,
s = Σ i = 1 3 { w ai · w bi · [ | log ( w ai w bi ) | + Π k = 1 n | | log ( x aik x bik ) | | + d ( p ai , p bi ) 2 ] }
其中,wa和wb表示待匹配目标a和b的混合高斯模型中各分量的权值,xaik和xbik表示混合高斯模型中各分量的协方差矩阵,d(pai,pbi)表示混合高斯模型均值的欧式距离,相似度数值越小,相似度越大;
对于主要颜色谱特征,由下式计算两个待匹配目标间的相似度,
s = Σ i = 1 n p ai · p bi · d ( C a , C b )
其中,pai和pbi表示待匹配目标a和b的主要颜色直方图中相对应颜色柱的权值;d(Ca,Cb)表示颜色柱Ca和Cb之间的距离,相似度数值越小,相似度越大;
对于尺度不变特征,两个待匹配目标间的相似度采用提取尺度不变特征方法获取,相似度数值越大,相似度越大;
(2)将获得的相似度构成特征相似度矩阵S,其表示为:
Figure A20081004121700073
其中,Si,j表示特征i中跟踪目标与第j个待匹配目标间的相似度;i=1,2,…,N j=1,2,…,M;
所述的置信度指数的确定,通过以下方法计算:
对于颜色直方图特征,UV色度特征及主要颜色谱特征,两个待匹配目标间的置信度指数根据相似度矩阵,由下式计算得到:
C rij = 1 S ij Σ j = 0 N 1 S ij
其中,Sij表示相似度矩阵每行的元素。i=1,2,…,M j=1,2,…,N
对于SIFT特征,两个待匹配目标间的置信度指数根据相似度矩阵,由下式计算得到:
C rij = S ij Σ j = 0 N S ij
如果Cir的值小于
Figure A20081004121700083
则将置信度指数最小值设为
Figure A20081004121700084
置信度指数最大值为1。
将置信度指数构成置信度指数矩阵,置信度指数矩阵与相似度矩阵行列数相同。
所述的叠代加宽的特征融合算法,通过以下步骤实现:
(1)设置w为叠代宽度阈值,设置叠代宽度初值a=1;
(2)在相似度矩阵中搜索每个特征行中前a个相似度最大的目标,如果某一列且只有一列中的所有N个特征行的元素都被搜索到,则该列所对应的待匹配目标即表示目的目标,叠代终止;
(3)如果有大于1的m列中所有N个特征行的元素都被搜索到,则分别计算置信度指数矩阵中与此m列所对应的每一列的期望值,期望值最高的一列所对应的待匹配目标即表示目的目标,叠代终止;
(4)如果没有一列中的所有特征行的元素都被搜索到,即在当前宽度下未找到任何目的目标,则更新叠代宽度a=a+1;a≤w,转步骤(2),进行下一次叠代;
(5)若a>w,则在当前宽度下搜索第二相似的目的目标,即取被搜索到的元素最多的那一列所对应的待匹配目标作为目的目标,叠代终止。
本发明与现有技术相比的显著效果在于:较单特征的匹配算法准确率较高,有效克服不同特征对于各种不确定因素鲁棒性不同等缺点,为多摄像机非重叠视阈目标跟踪系统提供更加实时、全面、准确的匹配依据。而且,与一般的基于贝叶斯框架的融合算法相比,对于置信度相差较大的特征,准确度较贝叶斯算法提高。
本发明针对多摄像机目标跟踪的需要,在特征级上对参与匹配的特征进行融合,并考虑到不同特征的适用性,具有实时性强、可信度高、鲁棒性强等优点,特别是在特征间的置信度指数差别较大或特征置信度指数未知的情况下进行在线融合,这是以往技术方法都难以克服的难点,也是阻碍它们实现真正工程应用的主要障碍。本发明使用先进的智能方法,实现不同特征间相似度的融合,最终为多摄像机监控提供实时,可靠的依据。
附图说明
图1本发明方法步骤方框示意图。
具体实施方式
下面结合附图和实施例对本发明的技术方案作详细说明。以下实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和过程,但本发明的保护范围不限于下述的实施例。
为了更好地理解本实施例提出的方法,选取非重叠视域摄像机数目为2,参与匹配的目标数量为10,设置两摄像机具有不同的观察角度,不同的光照条件及摄像机参数。
如图1所示,本实施例具体实施步骤如下:
(1)对被匹配目标颜色直方图特征,UV色度特征,主要颜色谱特征,以及SIFT特征进行特征提取。通过以下方法实现:
(1)颜色直方图特征:使用Cai等人于2007年在ACCV(亚洲计算机视觉会议)发表的论文“Continuously tracking objects across multiple widely separatedcameras”(广域非重叠多摄像机持续目标跟踪)的方法提取基于前景分割的颜色直方图特征。
根据空间关系将目标划分为三个部分,对于每部分使用高斯混合模型(GMM)来估计颜色分布,不同部分的权值由下式计算:
p i = p ( a s = b s | S ai = S bi )
= p ( S ai = S bi | a s = b s ) × p ( a s = b s ) p ( S ai = S bi )
其中,as和bs代表摄像机A和B中的检测目标,p(Sai=Sbi)代表  as和bs中的对应部分相匹配的概率,p(as=bs)代表摄像机A和B中的目标相匹配的概率。
(2)UV色度特征:使用Jeong和Jaynes于2008年在《Machine Vision andApplications》(机器视觉及应用)发表的论文“Object matching in disjointcameras using a color transfer approach”(使用颜色转换方法的非重叠摄像机目标匹配)提取UV色度空间模型。
将目标划分为三个部分,根据YUV颜色空间的UV通道建立色度平面。对于平面上的颜色分布建立二维高斯混合模型。权值计算同颜色直方图。
(3)主要颜色谱特征:使用Cheng和Piccardi于2007年在《OpticalEngineering》(光学工程)发表的论文“Disjoint track matching based on a majorcolor spectrum histogram representation”(基于主要颜色谱直方图表示方法的非重叠跟踪匹配)的方法提取主要颜色谱直方图。使用最邻近分类法(NNC)对像素进行聚类,分类阈值由下式计算:
d ( C a , C b ) = 1 - | | C a | | · | | C b | | · cos θ | | C a | | 2 + | | C b | | 2
如果两个像素间的距离大于设定的阈值,则建立一个新的聚类中心。并使用k均值算法调整分类中心:
Ch k [ i ] = Ch k [ i ] · ( 1 - 1 n ) · Ch k [ i - 1 ] + Ch k [ i ] · 1 n
其中Chk[i]代表k通道中聚类中心的当前值,n当前聚类中心的像素数量,Chk[i-1]代表聚类中心的上一个值,特征提取为主要颜色直方图,分类阈值为0.07。
(4)SIFT特征:使用Lowe于2004年在《International Journal of ComputerVision》(计算机视觉)发表的论文“Distinctive image features fromscale-invariant keypoints”(源于尺度不变关键点的区分性图像特征)的方法提取尺度不变特征。本方法将靠近物体轮廓边缘具有较清晰的分界线的特征进行去除,得到128维特征。
特征提取使用Visual C++语言编程。
(2)特征相似度矩阵S的建立
在真实数据集中利用 s = Σ i = 1 3 { w ai · w bi · [ | log ( w ai w bi ) | + Π k = 1 n | | log ( x aik x bik ) | | + d ( p ai , p bi ) 2 ] }
计算两个目标间颜色直方图特征及UV色度特征的相似度。利用 s = Σ i = 1 n p ai · p bi · d ( C a , C b ) 计算两个目标间主要颜色谱特征的相似度。两个目标间SIFT特征相似度的相似度为采用尺度不提取尺度不便特征的方法获取。将计算结果构成特征相似度矩阵,表示为:
S = f 1 f 2 f 3 f 4 0.482 0.353 0.397 0.437 1.0 0.599 0.575 0.884 0.438 0.427 0.740 0.409 0.060 0.426 0.135 0.276 1.000 0.198 0.689 0.053 0.809 0.784 0.714 0.852 0.990 0.768 0.826 1.000 0.710 0.729 1 1 4 2 4 6 2 0 2 3
式中,f1~f4表示四种特征的对应不同匹配目标的相似度。其中,前三种基于颜色的特征相似度数值越小表示相似度越大,SIFT特征相似度数值越大表示与相似度越大。
(3)置信度指数的确定:
根据 C rij = 1 S ij Σ j = 0 N 1 S ij C rij = S ij Σ j = 0 N S ij 计算得置信度指数为:
颜色直方图特征:[0.104 0.143 0.127 0.114 0.1 0.1 0.1 0.1 0.114 0.117]
UV色度特征:[0.1 0.1 0.277 0.1 0.1228 0.1 0.1 0.1 0.1 0.3127]
主要颜色谱特征:[0.1 0.103 0.113 0.1 0.1 0.105 0.1 0.1 0.1137 0.1107]
以及SIFT特征:[0.1 0.1 0.148 0.1 0.148 0.222 0.1 0.1 0.1 0.1]
(4)叠代加宽融合算法:
用本融合算法对四种特征进行融合,融合算法用Visual C++语言编程。
根据叠代加宽融合算法步骤(1):参数设置为:叠代宽度阈值w=5,叠代宽度初值a=1。
根据叠代加宽融合算法步骤(2):在相似度矩阵中搜索每个特征行中前a个相似度最大的目标,结果为:特征1的第2个目标,特征2的第10个目标,特征3的第9个目标,特征4的第6个目标。未找到任何一列中所有N个特征行的元素均被搜索到。
根据叠代加宽融合算法步骤(4):a=2,转步骤(2)。
根据叠代加宽融合算法步骤(2):在相似度矩阵中搜索每个特征行中前a个相似度最大的目标,结果为:特征1的第2、3个目标,特征2的第3、10个目标,特征3的第3、9个目标,特征4的第3、6个目标。找到第3列中的N个特征行的元素均被搜索到。则第三个目标即为目的目标,叠代终止。
另外,对四种特征进行两两融合,结果如下:
颜色直方图特征和UV色度特征间的融合,叠代宽度b=2,迭代结果为第三个待匹配目标。UV色度特征和主要颜色谱特征,迭代宽度b=1,迭代结果为第三个待匹配目标。主要颜色谱特征和SIFT特征,迭代宽度b=2,迭代结果为第三个待匹配目标。其他特征间的融合可以得到类似的结果。
通过与贝叶斯贝叶斯框架融合算法的结果相比较,本发明方法达到75%以上的准确率,而且与贝叶斯框架算法相比表现出较好的鲁棒性。

Claims (1)

1、一种多摄像机目标匹配特征融合方法,其特征在于包括以下步骤:
1)对于不同摄像机中出现的跟踪目标提取外观特征;其中,对于跟踪目标的颜色直方图特征,提取结果以一维混合高斯模型表示;对于UV色度特征,提取结果以二维混合高斯模型表示;对于主要颜色谱特征,提取结果以主要颜色直方图表示;对于尺度不变特征,提取结果为128维尺度不变特征;
2)建立特征相似度矩阵S:
对于颜色直方图特征及UV色度特征,利用混合高斯模型参数,由下式计算两个待匹配目标间的相似度,
s = Σ i = 1 3 { w ai · w bi · [ | log ( w ai w bi ) | + Π k = 1 n | | log ( x aik x bik ) | | + d ( p ai , p bi ) 2 ] }
其中,wa和wb表示待匹配目标a和b的混合高斯模型中各分量的权值,xaik和xbik表示混合高斯模型中各分量的协方差矩阵,d(pai,pbi)表示混合高斯模型均值的欧式距离,相似度数值越小,相似度越大;
对于主要颜色谱特征,由下式计算两个待匹配目标间的相似度,
s = Σ i = 1 n p ai · p bi · d ( C a , C b )
其中,pai和pbi表示待匹配目标a和b的主要颜色直方图中相对应颜色柱的权值;d(Ca,Cb)表示颜色柱Ca和Cb之间的距离,相似度数值越小,相似度越大;
对于尺度不变特征,两个待匹配目标间的相似度采用提取尺度不变特征方法获取,相似度数值越大,相似度越大;
将获得的相似度构成特征相似度矩阵S,其表示为:
Figure A2008100412170003C1
其中,si,j表示特征i中跟踪目标与第j个待匹配目标间的相似度;i=1,2,…,Nj=1,2,…,M;
3)确定置信度指数:
对于颜色直方图特征,UV色度特征及主要颜色谱特征,两个待匹配目标间的置信度指数根据相似度矩阵,由下式计算得到:
C rij = 1 S ij Σ j = 0 N 1 S ij
其中,Sij表示相似度矩阵每行的元素;i=1,2,…,M j=1,2,…,N;
对于尺度不变特征,两个待匹配目标间的置信度指数根据相似度矩阵,由下式计算得到:
C rij = S ij Σ j = 0 N S ij
如果Cir的值小于则将置信度指数最小值设为置信度指数最大值为1;
将置信度指数构成置信度指数矩阵,置信度指数矩阵与相似度矩阵行列数相同;
4)进行叠代加宽的特征融合,通过以下步骤实现:
(1)设置w为叠代宽度阈值,设置叠代宽度初值a=1;
(2)在相似度矩阵中搜索每个特征行中前a个相似度最大的目标,如果某一列且只有一列中的所有N个特征行的元素都被搜索到,则该列所对应的待匹配目标即表示目的目标,叠代终止;
(3)如果有大于1的m列中所有N个特征行的元素都被搜索到,则分别计算置信度指数矩阵中与此m列所对应的每一列的期望值,期望值最高的一列所对应的待匹配目标即表示目的目标,叠代终止;
(4)如果没有一列中的所有特征行的元素都被搜索到,即在当前宽度下未找到任何目的目标,则更新叠代宽度a=a+1;若a≤w,转步骤(2),进行下一次叠代;
(5)若a>w,则在当前宽度下搜索第二相似的目的目标,即取被搜索到的元素最多的那一列所对应的待匹配目标作为目的目标,叠代终止。
CN2008100412171A 2008-07-31 2008-07-31 多摄像机目标匹配特征融合方法 Expired - Fee Related CN101329765B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2008100412171A CN101329765B (zh) 2008-07-31 2008-07-31 多摄像机目标匹配特征融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2008100412171A CN101329765B (zh) 2008-07-31 2008-07-31 多摄像机目标匹配特征融合方法

Publications (2)

Publication Number Publication Date
CN101329765A true CN101329765A (zh) 2008-12-24
CN101329765B CN101329765B (zh) 2010-04-14

Family

ID=40205560

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008100412171A Expired - Fee Related CN101329765B (zh) 2008-07-31 2008-07-31 多摄像机目标匹配特征融合方法

Country Status (1)

Country Link
CN (1) CN101329765B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101616309B (zh) * 2009-07-16 2010-12-29 上海交通大学 无重叠视域多摄像机人体目标跟踪方法
CN102005040A (zh) * 2010-09-09 2011-04-06 吉林大学 基于多特征融合匹配的目标交接算法
CN101694572B (zh) * 2009-07-13 2011-12-14 北京理工大学 一种提供自评价的数控刀具智能选取方法
CN102567736A (zh) * 2010-12-14 2012-07-11 三星电子株式会社 图像识别设备及方法
CN102629385A (zh) * 2012-02-28 2012-08-08 中山大学 一种基于多摄像机信息融合的目标匹配与跟踪系统及方法
CN102663411A (zh) * 2012-02-29 2012-09-12 宁波大学 一种目标人体识别方法
CN103336971A (zh) * 2013-07-08 2013-10-02 浙江工商大学 基于多特征融合与增量学习的多摄像机间的目标匹配方法
CN103412909A (zh) * 2013-08-01 2013-11-27 西北工业大学 一种基于特征融合的视频数据检索方法
CN103679622A (zh) * 2012-09-18 2014-03-26 成都方程式电子有限公司 鲁棒式图像相关性提取结构
CN101996312B (zh) * 2009-08-18 2015-03-18 索尼株式会社 跟踪目标的方法和装置
CN105718882A (zh) * 2016-01-19 2016-06-29 上海交通大学 一种分辨率自适应特征提取与融合的行人重识别方法
CN106055652A (zh) * 2016-06-01 2016-10-26 兰雨晴 一种基于模式和实例的数据库匹配方法及系统
CN107832359A (zh) * 2017-10-24 2018-03-23 杭州群核信息技术有限公司 一种图片检索方法及系统
CN108491857A (zh) * 2018-02-11 2018-09-04 中国矿业大学 一种视域重叠的多摄像机目标匹配方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1303571C (zh) * 2004-09-02 2007-03-07 上海交通大学 基于模糊积分的图像优化融合方法
US7512269B2 (en) * 2005-08-04 2009-03-31 Asaf Golan Method of adaptive image contrast enhancement

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101694572B (zh) * 2009-07-13 2011-12-14 北京理工大学 一种提供自评价的数控刀具智能选取方法
CN101616309B (zh) * 2009-07-16 2010-12-29 上海交通大学 无重叠视域多摄像机人体目标跟踪方法
CN101996312B (zh) * 2009-08-18 2015-03-18 索尼株式会社 跟踪目标的方法和装置
CN102005040A (zh) * 2010-09-09 2011-04-06 吉林大学 基于多特征融合匹配的目标交接算法
CN102005040B (zh) * 2010-09-09 2012-08-01 吉林大学 基于多特征融合匹配的目标交接方法
CN102567736A (zh) * 2010-12-14 2012-07-11 三星电子株式会社 图像识别设备及方法
CN102629385B (zh) * 2012-02-28 2014-09-24 中山大学 一种基于多摄像机信息融合的目标匹配与跟踪系统及方法
CN102629385A (zh) * 2012-02-28 2012-08-08 中山大学 一种基于多摄像机信息融合的目标匹配与跟踪系统及方法
CN102663411A (zh) * 2012-02-29 2012-09-12 宁波大学 一种目标人体识别方法
CN103679622B (zh) * 2012-09-18 2016-12-21 成都方程式电子有限公司 鲁棒式图像相关性提取系统
CN103679622A (zh) * 2012-09-18 2014-03-26 成都方程式电子有限公司 鲁棒式图像相关性提取结构
CN103336971B (zh) * 2013-07-08 2016-08-10 浙江工商大学 基于多特征融合与增量学习的多摄像机间的目标匹配方法
CN103336971A (zh) * 2013-07-08 2013-10-02 浙江工商大学 基于多特征融合与增量学习的多摄像机间的目标匹配方法
CN103412909A (zh) * 2013-08-01 2013-11-27 西北工业大学 一种基于特征融合的视频数据检索方法
CN103412909B (zh) * 2013-08-01 2016-08-24 西北工业大学 一种基于特征融合的视频数据检索方法
CN105718882A (zh) * 2016-01-19 2016-06-29 上海交通大学 一种分辨率自适应特征提取与融合的行人重识别方法
CN105718882B (zh) * 2016-01-19 2018-12-18 上海交通大学 一种分辨率自适应特征提取与融合的行人重识别方法
CN106055652A (zh) * 2016-06-01 2016-10-26 兰雨晴 一种基于模式和实例的数据库匹配方法及系统
CN107832359A (zh) * 2017-10-24 2018-03-23 杭州群核信息技术有限公司 一种图片检索方法及系统
CN107832359B (zh) * 2017-10-24 2021-06-08 杭州群核信息技术有限公司 一种图片检索方法及系统
CN108491857A (zh) * 2018-02-11 2018-09-04 中国矿业大学 一种视域重叠的多摄像机目标匹配方法
CN108491857B (zh) * 2018-02-11 2022-08-09 中国矿业大学 一种视域重叠的多摄像机目标匹配方法

Also Published As

Publication number Publication date
CN101329765B (zh) 2010-04-14

Similar Documents

Publication Publication Date Title
CN101329765B (zh) 多摄像机目标匹配特征融合方法
CN104850850B (zh) 一种结合形状和颜色的双目立体视觉图像特征提取方法
CN104268583B (zh) 基于颜色区域特征的行人重识别方法及系统
Wang et al. A survey of vehicle re-identification based on deep learning
Lavi et al. Survey on deep learning techniques for person re-identification task
CN105023008B (zh) 基于视觉显著性及多特征的行人再识别方法
Zhang et al. Gabor-LBP based region covariance descriptor for person re-identification
CN103761514A (zh) 基于广角枪机和多球机实现人脸识别的系统及方法
CN102236901B (zh) 基于图论聚类和色彩不变空间的目标跟踪方法
Hu et al. Video object matching based on SIFT algorithm
CN103164693B (zh) 一种监控视频行人检测匹配方法
CN102243765A (zh) 基于多相机的多目标定位跟踪方法及系统
CN104077605A (zh) 一种基于颜色拓扑结构的行人搜索识别方法
Fan et al. Registration of multiresolution remote sensing images based on L2-siamese model
CN105160649A (zh) 基于核函数非监督聚类的多目标跟踪方法及系统
Lin et al. Collaborative pedestrian tracking and data fusion with multiple cameras
CN104376334A (zh) 一种多尺度特征融合的行人比对方法
Jelača et al. Vehicle matching in smart camera networks using image projection profiles at multiple instances
Zhang et al. Combining depth-skeleton feature with sparse coding for action recognition
Liu et al. Keypoint matching by outlier pruning with consensus constraint
Wang et al. Fusion of multiple channel features for person re-identification
Zhang et al. View independent object classification by exploring scene consistency information for traffic scene surveillance
Teng et al. Leaf segmentation, its 3d position estimation and leaf classification from a few images with very close viewpoints
Jaiswal et al. State-of-the-arts person re-identification using deep learning
Edoardo Maresca et al. The Matrioska tracking algorithm on LTDT2014 dataset

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20100414

Termination date: 20120731