CN106887014A - 一种跨摄像头的行人轨迹匹配方法 - Google Patents

一种跨摄像头的行人轨迹匹配方法 Download PDF

Info

Publication number
CN106887014A
CN106887014A CN201710026123.6A CN201710026123A CN106887014A CN 106887014 A CN106887014 A CN 106887014A CN 201710026123 A CN201710026123 A CN 201710026123A CN 106887014 A CN106887014 A CN 106887014A
Authority
CN
China
Prior art keywords
track
tracks
target trajectory
camera
pedestrian
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710026123.6A
Other languages
English (en)
Other versions
CN106887014B (zh
Inventor
潘子潇
谢晓华
尹冬生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201710026123.6A priority Critical patent/CN106887014B/zh
Publication of CN106887014A publication Critical patent/CN106887014A/zh
Application granted granted Critical
Publication of CN106887014B publication Critical patent/CN106887014B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种跨摄像头的行人轨迹匹配方法,包括以下步骤:S1.提取目标摄像头的一条行人轨迹作为目标轨迹,然后将其余摄像头在该时间段内出现的所有行人轨迹作为候选轨迹;S2.使用中国连锁餐厅过程训练分层狄利克雷过程,提取所有轨迹的全局运动模式特征,同时获得目标轨迹和各条候选轨迹在全局运动模式特征上的特征权重;S3.分别计算目标轨迹特征权重与各条候选轨迹特征权重之间的余弦距离作为相似性度量,然后将余弦距离最小的候选轨迹作为目标轨迹的匹配轨迹。

Description

一种跨摄像头的行人轨迹匹配方法
技术领域
本发明涉及图像处理技术领域,更具体地,涉及一种跨摄像头的行人轨迹匹配方法。
背景技术
随着计算机技术和图像处理技术的发展,基于视频的智能监控系统得到广泛的应用,其中行人追踪技术在商业客流分析、社会公共安全监控等领域发挥着巨大的作用。由于单个摄像机的视野有限,为了扩展视野,实现行人的长距离追踪,基于多摄像头的行人追踪技术备受关注。实现多摄像头行人跟踪的一个关键技术难题是对不同摄像头视域内的行人进行匹配关联。
传统的行人追踪技术主要依靠视频中行人的表观特征进行追踪,如基于梯度直方图(HOG)特征向量的追踪方法,基于加权颜色直方图模型的粒子滤波追踪方法等。但是在多摄像头环境下,由于不同摄像机的视角差异问题,在交叠视域中观察到的行人表观特征具有很大差别,很可能一个摄像头拍到某位行人的正面,但是另外一个摄像头拍摄到的却是该行人的背面。这导致传统方法难以准确地在两个摄像头之间追踪行人。
为了解决以上问题,现有技术提供了以下几种跨摄像头的轨迹匹配方法:
1)通过欧氏距离的最大最小值判断相似性。首先将候选轨迹分为n段,目标轨迹分别计算其对应点与n段轨迹的最短距离,然后再将其与n段轨迹的最短距离中取最大距离当做候选轨迹、目标轨迹间的距离;
2)通过疑似移动对象匹配数判断相似性。获取目标轨迹的匹配基准轨迹点列表,对列表中的每个轨迹点分别获取疑似移动对象列表,统计对象列表中的匹配数,将匹配数最大的疑似移动对象当做匹配对象。
上述方案中,一方面,传统的行人追踪技术依靠视频中行人的表观特征进行追踪,但是在多摄像头环境下由于视角差异,追踪准确率有较大下降。另一方面,传统的轨迹匹配方法通过计算不同轨迹间轨迹点的欧氏距离来判断相似性,由于不同轨迹的长度经常不同(轨迹点数量不相同),需要采取插值等手段增加虚拟轨迹点,这会引入度量误差。
发明内容
本发明为解决以上方法在进行跨摄像头追踪时由于存在视角差异导致的追踪准确率低或引入度量误差的缺陷,提供了一种跨摄像头的行人轨迹匹配方法,该方法不使用行人的视觉表观特征进行跨摄像头匹配,而是通过匹配不同摄像头的最相似轨迹来确定是否属于同一行人,解决了跨摄像头的行人追踪问题;且由于全局运动模式特征是共享的,每条轨迹在全局运动模式特征上的权重可以直接用于计算相似度,从而解决了轨迹点对齐问题。
为实现以上发明目的,采用的技术方案是:
一种跨摄像头的行人轨迹匹配方法,包括以下步骤:
S1.提取目标摄像头的一条行人轨迹作为目标轨迹,然后将其余摄像头在该时间段内存在的所有轨迹作为候选轨迹;
S2.使用中国连锁餐厅过程训练分层狄利克雷过程,提取所有轨迹的全局运动模式特征,同时获得目标轨迹和各条候选轨迹在全局运动模式特征上的特征权重;
S3.分别计算目标轨迹特征权重与各条候选轨迹特征权重之间的余弦距离作为相似性度量,然后将余弦距离最小的候选轨迹作为目标轨迹的匹配轨迹。
优选地,所述中国连锁餐厅过程训练分层狄利克雷过程,提取所有轨迹的全局运动模式特征并获得特征权重的具体过程如下:
S11.定义tji为第j个轨迹中第i个观察值xji所属的集合,tji的取值有如下关系:
t、k、θ、x分别表示所有tji、kjt、θk、xji组成的集合,α0表示狄利克雷过程Gj的集中参数,t表示tji的实际取值,f(·)表示多项式分布的概率密度函数,表示去除第i个观察值后,第j个轨迹中集合t的观察值数量,t-ji表示去除集合tji后,第j个轨迹的其余观察值集合;
S12.定义kjt为第j个轨迹中集合t的运动模式,定义St为集合t上的观察值,kjt的取值有如下关系:
k-jt表示去除观察值集合t后,第j个轨迹的其余观察值集合所属的运动模式集合;γ为狄利克雷过程G0的集中参数;表示所有轨迹的观察值集合中去除集合t后,余下的集合中属于运动模式k的数量;
S13.定义θk为第k种运动模式,定义Sk为所有轨迹中属于运动模式k的观察值,θk的取值有如下关系:
h(θk)表示基分布H的概率密度函数,θ-k表示去除运动模式k后,其余运动模式的取值的集合;
S14.统计第j个轨迹中所有观察值集合的运动模式种类情况,即为特征权重{π}:
T表示第j个轨迹中集合t的元素个数,其中是狄拉克δ函数,具有如下性质:
优选地,所述步骤S3中,计算目标轨迹特征权重与各条候选轨迹特征权重之间的余弦距离,然后利用匈牙利算法将余弦距离最小的候选轨迹作为目标轨迹的匹配轨迹。
与现有技术相比,本发明的有益效果是:
1.相对于传统的行人追踪技术,本发明通过匹配不同摄像头的最相似轨迹来确定同一行人,解决了不同摄像头中行人表观特征差异过大的问题;
2.相对于传统的轨迹匹配技术,本发明通过HDP提取轨迹共享的全局运动模式特征,每条轨迹在全局运动模式特征上的权重可以直接用于计算相似度,从而解决了轨迹点对齐问题。
附图说明
图1为方法的流程图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
以下结合附图和实施例对本发明做进一步的阐述。
实施例1
如图1所述,本发明提供的方法具体包括以下步骤:
利用{x}=(x1,x2,…,xL)来表示一条行人轨迹,其中xi表示观察值,L为轨迹长度,每个观察值xi由当前点的位置信息和相邻点间的运动方向信息组成,其中位置信息的取值范围是160×120,相邻点间运动方向信息分为上下左右4个方向,即每个观察值都是一个三维向量,xi∈R3
在以上基础上,本发明提供的方法包括以下步骤:
S1.提取目标摄像头的一条行人轨迹作为目标轨迹,然后将其余摄像头在该时间段内出现的所有轨迹作为候选轨迹;
S2.使用中国连锁餐厅过程训练分层狄利克雷过程,提取所有轨迹的全局运动模式特征,同时获得目标轨迹和各条候选轨迹在全局运动模式特征上的特征权重;
S3.分别计算目标轨迹特征权重与各条候选轨迹特征权重之间的余弦距离作为相似性度量,然后将余弦距离最小的候选轨迹作为目标轨迹的匹配轨迹。
直观上看,全局运动模式特征就是所有的轨迹中经常出现的一小段轨迹,如从画面左上方移动到画面中央等。
中国连锁餐厅过程假设有多间连锁餐厅,每间餐厅共用同一份有无穷多种菜品的菜单,并且可容纳无穷多张餐桌;餐厅中的每张餐桌可以容纳无穷多位顾客,且每张餐桌只提供一道菜。
定义tji为第j个餐厅中第i位顾客选择的餐桌,顾客以正比于njt的概率选择第t张已经有人的餐桌(即tji=t),其中njt为第j个餐厅中餐桌t上的顾客数;同时顾客也以正比于α0的概率选择新餐桌(即tji=tnew),α0为狄利克雷过程Gj的集中参数。
定义kjt为第j个餐厅中第t张餐桌提供的菜,餐桌以正比于mk的概率选择第k道菜(即kjt=k),其中mk为所有餐厅里提供第k道菜的餐桌数;同时餐桌也以正比于γ的概率选择一道新菜(即kjt=knew),γ为狄利克雷过程G0的集中参数。
定义θk为第k道菜,θk实际上是关于基分布H的独立同分布随机变量,即θk~H。基分布H是一个L维狄利克雷分布,H=Dir(γ/L,…,γ/L),L为观察值的取值范围,观察值xji是以θk为参数的多项式分布产生,即xji~f(θk)。
上述CRF定义中,一间餐厅对应一条轨迹,一位顾客对应轨迹的一个观察值,一张餐桌对应一个观察值集合,一道菜对应观察值的一种运动模式。
因此,所述中国连锁餐厅过程训练分层狄利克雷过程,提取所有轨迹的全局运动模式特征并获得特征权重的具体过程如下:
S11.定义tji为第j个轨迹中第i个观察值xji所属的集合,tji的取值有如下关系:
t、k、θ、x分别表示所有tji、kjt、θk、xji组成的集合,α0表示狄利克雷过程Gj的集中参数,t表示tji的实际取值,f(·)表示多项式分布的概率密度函数,表示去除第i个观察值后,第j个轨迹中集合t的观察值数量,t-ji表示去除集合tji后,第j个轨迹的其余观察值集合;
S12.定义kjt为第j个轨迹中集合t的运动模式,定义St为集合t上的观察值,kjt的取值有如下关系:
k-jt表示去除观察值集合t后,第j个轨迹的其余观察值集合所属的运动模式集合;γ为狄利克雷过程G0的集中参数;表示所有轨迹的观察值集合中去除集合t后,余下的集合中属于运动模式k的数量;
S13.定义θk为第k种运动模式,定义Sk为所有轨迹中属于运动模式k的观察值,θk的取值有如下关系:
h(θk)表示基分布H的概率密度函数,θ-k表示去除运动模式k后,其余运动模式的取值的集合;
S14.统计第j个轨迹中所有观察值集合的运动模式种类情况,即为特征权重{π}:
T表示第j个轨迹中集合t的元素个数,其中是狄拉克δ函数,具有如下性质:
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (3)

1.一种跨摄像头的行人轨迹匹配方法,其特征在于:包括以下步骤:
S1.提取目标摄像头的一条行人轨迹作为目标轨迹,然后将其余摄像头在该时间段内出现的所有轨迹作为候选轨迹;
S2.使用中国连锁餐厅过程训练分层狄利克雷过程,提取所有轨迹的全局运动模式特征,同时获得目标轨迹和各条候选轨迹在全局运动模式特征上的特征权重;
S3.分别计算目标轨迹特征权重与各条候选轨迹特征权重之间的余弦距离作为相似性度量,然后将余弦距离最小的候选轨迹作为目标轨迹的匹配轨迹。
2.根据权利要求1所述的跨摄像头的行人轨迹匹配方法,其特征在于:所述中国连锁餐厅过程训练分层狄利克雷过程,提取所有轨迹的全局运动模式特征并获得特征权重的具体过程如下:
S11.定义tji为第j个轨迹中第i个观察值xji所属的集合,tji的取值有如下关系:
t、k、θ、x分别表示所有tji、kjt、θk、xji组成的集合,α0表示狄利克雷过程Gj的集中参数,t表示tji的实际取值,f(·)表示多项式分布的概率密度函数,表示去除第i个观察值后,第j个轨迹中集合t的观察值数量,t-ji表示去除集合tji后,第j个轨迹的其余观察值集合;
S12.定义kjt为第j个轨迹中集合t的运动模式,定义St为集合t上的观察值,kjt的取值有如下关系:
k-jt表示去除观察值集合t后,第j个轨迹的其余观察值集合所属的运动模式集合;γ为狄利克雷过程G0的集中参数;表示所有轨迹的观察值集合中去除集合t后,余下的集合中属于运动模式k的数量;
S13.定义θk为第k种运动模式,定义Sk为所有轨迹中属于运动模式k的观察值,θk的取值有如下关系:
p ( θ k | t , k , θ - k , x ) ∝ h ( θ k ) Π x j i ∈ S k f ( x j i | θ k )
h(θk)表示基分布H的概率密度函数,θ-k表示去除运动模式k后,其余运动模式的取值的集合;
S14.统计第j个轨迹中所有观察值集合的运动模式种类情况,即为特征权重{π}:
π j k = Σ t = 1 T δ k j t = k
T表示第j个轨迹中集合t的元素个数,其中是狄拉克δ函数,具有如下性质:
3.根据权利要求1所述的跨摄像头的行人轨迹匹配方法,其特征在于:所述步骤S3中,计算目标轨迹特征权重与各条候选轨迹特征权重之间的余弦距离,然后利用匈牙利算法将余弦距离最小的候选轨迹作为目标轨迹的匹配轨迹。
CN201710026123.6A 2017-01-13 2017-01-13 一种跨摄像头的行人轨迹匹配方法 Active CN106887014B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710026123.6A CN106887014B (zh) 2017-01-13 2017-01-13 一种跨摄像头的行人轨迹匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710026123.6A CN106887014B (zh) 2017-01-13 2017-01-13 一种跨摄像头的行人轨迹匹配方法

Publications (2)

Publication Number Publication Date
CN106887014A true CN106887014A (zh) 2017-06-23
CN106887014B CN106887014B (zh) 2019-10-15

Family

ID=59176029

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710026123.6A Active CN106887014B (zh) 2017-01-13 2017-01-13 一种跨摄像头的行人轨迹匹配方法

Country Status (1)

Country Link
CN (1) CN106887014B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110781797A (zh) * 2019-10-22 2020-02-11 杭州宇泛智能科技有限公司 一种标注方法、装置及电子设备
CN111159475A (zh) * 2019-12-06 2020-05-15 中山大学 基于多摄像头视频图像的行人再识别路径生成方法
CN111178161A (zh) * 2019-12-12 2020-05-19 重庆邮电大学 一种基于fcos的车辆追踪方法及系统
CN111654668A (zh) * 2020-05-26 2020-09-11 李绍兵 监控设备同步方法、装置及计算机终端

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102156863A (zh) * 2011-05-16 2011-08-17 天津大学 跨摄像头的多运动目标跟踪方法
CN102819847A (zh) * 2012-07-18 2012-12-12 上海交通大学 基于ptz移动摄像头的运动轨迹提取方法
CN104376575A (zh) * 2013-08-15 2015-02-25 汉王科技股份有限公司 一种基于多摄像头监控的行人计数方法和装置
CN104881637A (zh) * 2015-05-09 2015-09-02 广东顺德中山大学卡内基梅隆大学国际联合研究院 基于传感信息及目标追踪的多模信息系统及其融合方法
CN105912683A (zh) * 2016-04-15 2016-08-31 深圳大学 一种基于时间顺序的轨迹匹配方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102156863A (zh) * 2011-05-16 2011-08-17 天津大学 跨摄像头的多运动目标跟踪方法
CN102819847A (zh) * 2012-07-18 2012-12-12 上海交通大学 基于ptz移动摄像头的运动轨迹提取方法
CN104376575A (zh) * 2013-08-15 2015-02-25 汉王科技股份有限公司 一种基于多摄像头监控的行人计数方法和装置
CN104881637A (zh) * 2015-05-09 2015-09-02 广东顺德中山大学卡内基梅隆大学国际联合研究院 基于传感信息及目标追踪的多模信息系统及其融合方法
CN105912683A (zh) * 2016-04-15 2016-08-31 深圳大学 一种基于时间顺序的轨迹匹配方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
梅江元 等: "跨摄像头运动目标检测与识别", 《模式识别与仿真》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110781797A (zh) * 2019-10-22 2020-02-11 杭州宇泛智能科技有限公司 一种标注方法、装置及电子设备
CN110781797B (zh) * 2019-10-22 2021-04-06 杭州宇泛智能科技有限公司 一种标注方法、装置及电子设备
CN111159475A (zh) * 2019-12-06 2020-05-15 中山大学 基于多摄像头视频图像的行人再识别路径生成方法
CN111159475B (zh) * 2019-12-06 2022-09-23 中山大学 基于多摄像头视频图像的行人再识别路径生成方法
CN111178161A (zh) * 2019-12-12 2020-05-19 重庆邮电大学 一种基于fcos的车辆追踪方法及系统
CN111178161B (zh) * 2019-12-12 2022-08-23 重庆邮电大学 一种基于fcos的车辆追踪方法及系统
CN111654668A (zh) * 2020-05-26 2020-09-11 李绍兵 监控设备同步方法、装置及计算机终端

Also Published As

Publication number Publication date
CN106887014B (zh) 2019-10-15

Similar Documents

Publication Publication Date Title
CN104933710B (zh) 基于监控视频下的商店人流轨迹智能分析方法
CN106096577B (zh) 一种摄像头分布地图中的目标追踪方法
CN103824070B (zh) 一种基于计算机视觉的快速行人检测方法
CN109919981A (zh) 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法
CN103714181B (zh) 一种层级化的特定人物检索方法
CN103455797B (zh) 航拍视频中运动小目标的检测与跟踪方法
CN106887014A (zh) 一种跨摄像头的行人轨迹匹配方法
CN106845357A (zh) 一种基于多通道网络的视频人脸检测和识别方法
CN107369183A (zh) 面向mar的基于图优化slam的跟踪注册方法及系统
CN104680559B (zh) 基于运动行为模式的多视角室内行人跟踪方法
CN104978567B (zh) 基于场景分类的车辆检测方法
CN102207966A (zh) 基于对象标签的视频内容快速检索方法
CN102243765A (zh) 基于多相机的多目标定位跟踪方法及系统
CN107424171A (zh) 一种基于分块的抗遮挡目标跟踪方法
CN101833664A (zh) 基于稀疏表达的视频图像文字检测方法
CN101551852B (zh) 训练系统、训练方法和检测方法
CN104123529A (zh) 人手检测方法及系统
CN103237155B (zh) 一种单视角被遮挡的目标的跟踪和定位方法
CN104376334B (zh) 一种多尺度特征融合的行人比对方法
CN107153824A (zh) 基于图聚类的跨视频行人重识别方法
CN103853794B (zh) 一种基于部件关联的行人检索方法
CN109344842A (zh) 一种基于语义区域表达的行人重识别方法
CN110222735A (zh) 一种基于神经网络与背景建模的物品被盗遗留识别方法
Chen et al. A trajectory-based ball tracking framework with visual enrichment for broadcast baseball videos
CN103268498A (zh) 一种感兴趣区域模糊图像语义理解的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant