CN107689054B - 一种多相机拓扑连通图建立与跨相机目标跟踪方法 - Google Patents

一种多相机拓扑连通图建立与跨相机目标跟踪方法 Download PDF

Info

Publication number
CN107689054B
CN107689054B CN201710732671.0A CN201710732671A CN107689054B CN 107689054 B CN107689054 B CN 107689054B CN 201710732671 A CN201710732671 A CN 201710732671A CN 107689054 B CN107689054 B CN 107689054B
Authority
CN
China
Prior art keywords
target
camera
cross
transfer time
correlation function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710732671.0A
Other languages
English (en)
Other versions
CN107689054A (zh
Inventor
周忠
吴威
白思晨
邢畅
周颐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN201710732671.0A priority Critical patent/CN107689054B/zh
Publication of CN107689054A publication Critical patent/CN107689054A/zh
Application granted granted Critical
Publication of CN107689054B publication Critical patent/CN107689054B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本发明公开了一种多相机拓扑连通图建立与跨相机目标跟踪方法,属于计算机视觉领域。本方法包括多相机拓扑连通图建立和跨相机目标跟踪两部分内容。多相机拓扑连通图的建立,其步骤为:(1)利用K‑Means算法聚类出每个相机的出入口区域;(2)粗略估计出每两个对应出入口之间的转移时间期望和标准差;(3)根据步骤(2)细化估计转移时间,使其更为精确;(4)最终生成多相机拓扑连通图。跨相机目标跟踪,步骤为:(1)保存目标离开的信息;(2)根据相机拓扑连通图,监视目标可能再次出现的出入口;(3)在找到目标后继续进行单相机跟踪。本方法能够支撑高效地在无覆盖关系的一定范围相机内再次发现目标,可以用于安防监控、行为分析等场景。

Description

一种多相机拓扑连通图建立与跨相机目标跟踪方法
技术领域
本发明属于计算机视觉技术领域,具体涉及一种多相机拓扑连通图建立与跨相机目标跟踪方法。
背景技术
随着现实场景中相机数量的不断增加,多相机间的时空关系变的越来越复杂,监控人员在复杂且时空不连续的监控视频数据间准确的确定出相机之间的时空关系具有很大挑战。基于此,提出一种自动生成多相机间的连通关系的方法就变的尤为重要。根据研究策略的不同,用于估计多相机网络拓扑结构的方法可分为基于目标识别与跟踪的方法和基于互相关函数的方法两类。基于目标识别与跟踪的方法要求跨相机间运动目标的对应关系已知,这是建立在跨相机目标识别与跟踪的问题已经解决的前提下的,这类系统往往对输入数据要求较高,鲁棒性较低;基于互相关函数的相机拓扑估计方法则不要求跨相机的目标对应关系已知。该类方法通过计算一个相机出口的离开时间序列和另一个相机入口的进入时间序列的互相关性来估计两个出入口之间是否具有连通关系。
跨相机跟踪是智能监控中很重要的一部分,也是计算机视觉领域非常重要的研究方向之一。智能化的跨相机跟踪可以提供大量准确的相机间的时空信息,可以在大量的监控视频数据排查过程中大大减少人力的消耗。跨相机跟踪离不开单相机跟踪算法的日益成熟,如KCF、CN等方法准确率都比较高。对于跨相机跟踪,通常采用遍历搜索的方法,即当目标离开相机时,对所有其他的视频进行不间断的目标检测,并对所有检测出的目标进行特征提取,同时与目标特征进行一一比对,直到找到目标为止,但这种方法消耗计算资源较多,运行效率较慢。
本发明所提出的一种多相机拓扑连通图建立与跨相机目标跟踪方法,首先粗略估计出两个出入口之间的转移时间期望和标准差,在转移时间前后三倍标准差时间范围内进一步细化转移时间期望和标准差,使其更为精确,将所有对应出入口进行上述分析,建立多相机拓扑连通图。基于上述生成的多相机拓扑连通图,可以方便为监控人员提供较为可靠的跨相机跟踪服务。
发明内容
本发明的目的是提出了一种多相机拓扑连通图建立与跨相机目标跟踪方法,以提高在复杂的多监控视频中更为精确,正确的建立相机间的拓扑关系,并基于此,提出一种服务于监控人员的跨相机跟踪方法。
本发明采用的技术方案为:一种多相机拓扑连通图建立与跨相机目标跟踪方法,该方法包括多相机拓扑连通图建立和跨相机目标跟踪两个部分,多相机拓扑连通图建立步骤为:
(d1)采集时间同步的视频数据;
(d2)利用K-Means聚类算法得到每个相机的出入口区域;
(d3)对相机的每一帧进行目标检测;
(d4)根据目标检测的结果,得到每组对应出入口之间的互相关函数图;
(d5)分析互相关函数,对峰值进行合并,粗略的估计出转移时间的期望和标准差,确定出入口之间的连通关系;
(d6)如两个出入口之间有连通关系,则对互相关函数做进一步细化,得到更为精确的转移时间期望和标准差,执行步骤(d8);
(d7)如根据步骤(d5)确定两个出入口之间无连通关系,结束分析过程,将两个出入口之间的关系设置为“不连通”,转移时间期望和标准差设置为无穷大,执行步骤(d8);
(d8)重复步骤(d4)(d5)(d6)(d7),将其得到的两两出入口之间的关系、转移时间期望、标准差,最终生成多相机拓扑连通图;
基于上述生成的多相机拓扑连通图的跨相机目标跟踪步骤为:
(t1)保存目标最后离开相机时的特征与离开时所在的出入口;
(t2)根据多相机的拓扑连通图,得到各个出入口之间的连通关系,将转移时间小于一定阈值D的出入口加入出入口候选队列,在界面突出显示候选队列的出入口,以方便监控人员监视;
(t3)根据步骤(t2)得到的出入口关系,在一定时间范围内对目标可能出现的出入口进行检测,直到找到目标,如超时则目标丢失。
进一步地,所述步骤(d2)包括如下步骤:
(d2.1)利用Faster-RCNN进行目标检测,得到目标(如行人)的位置,作为训练集;
(d2.2)根据视频场景信息随机生成k个质心点,进行n次迭代得到k个类,即为相机的k个出入口区域。
进一步地,所述步骤(d4)包括如下步骤:
(d4.1)对于两个可能存在连通关系的出入口Ei、Ej,得到Ei的离开目标的时间序列和Ej的进入时间序列;
(d4.2)通过在转移时间窗口范围内比较目标Re-id特征进行目标匹配,该目标在Ej的进入时间和Ei的离开时间的差作为该目标转移时间;
(d4.3)根据步骤(d4.3)得到的每个目标的转移时间,定义关于转移时间的互相关函数,每出现一个匹配目标,其转移时间对应的互相关函数值增加一分;
(d4.4)以转移时间为横轴,以互相关函数值为纵轴,得到互相关函数分布图。
进一步地,所述步骤(d5)包括以下步骤:
(d5.1)根据步骤(d4)得到的互相关函数图,利用邻居累加算法对互相相关函数值进行累加处理;
(d5.2)根据步骤(d5.1)得到的累加处理后的互相关函数图,设定经验阈值threshold和β,当互相关函数值小于threshold时,被认为是噪音,连续大于threshold的宽度大于等于β时被认为是峰值,从而确定所有互相关函数中所有的峰值;
(d5.3)根据步骤(d5.2)得到的峰值,设定阈值α,当两个峰值所在的转移时间之差小于α时进行峰值合并,取两个转移时间的平均值作为新的峰值所在;
(d5.4)重复步骤(d5.3)将所有满足合并条件的峰值合并,如最后只剩下一个峰值,则认为两个出入口之间存在连通关系,峰值对应时间和宽度即分别为该对应出入口粗略的转移时间期望Tij和标准差Wij
进一步地,所述步骤(d6)包括以下步骤:
(d6.1)根据步骤(d5)得到的粗略的转移时间期望和标准差,在[T-3·W,T+3·W]时间区间内,对目标做特征提取;
(d6.2)通过比较目标的余弦距离,匹配目标,得到每一个目标的转移时间,得出在更小时间范围内的互相关函数;
(d6.3)对新得到的互相关函数做邻居累加处理,即设置滑动窗口为n,在转移时间窗口内进行滑动,滑动窗口的中值对应的互相关函数值为整个滑动窗口的对应互相关函数值的和;
(d6.4)合并峰值,得到峰值对应的转移时间和宽度,即为更为精确的转移时间期望
Figure BDA0001387439280000041
和标准差
Figure BDA0001387439280000042
进一步地,所述步骤(t3)包括以下步骤:
(t3.1)根据基于域引导压缩的深度学习算法对每一个候选出入口区域在转移时间前后三倍标准差时间范围内进行行人特征提取,与(t1)保存的目标特征进行比较,将余弦距离大于阈值的行人加入候选队列,由监控人员做确认,执行步骤(t3.2)。如不能找到候选目标,则目标丢失,跟踪过程结束;
(t3.2)如监控人员确认候选队列中没有目标,则将所有候选队列清空,输出目标丢失,跟踪过程结束,如监控人员确认候选队列中有目标,则将所有候选队列清空,对目标做KCF单相机跟踪,直到目标再次离开视域,回到步骤(t1)。
本发明的原理在于:一种多相机拓扑连通图建立与跨相机目标跟踪方法,将采集到的同步视频数据进行K-Means聚类,确定出入口区域,并获得每个出入口的离开和进入的时间序列;接着对每组对应出入口的进入和离开序列做互相关函数分析,确定互相关函数的峰值,得到粗略的转移时间期望和标准差;如两个出入口存在连通关系,则在粗略计算的转移时间的基础上,在转移时间期望前后三倍标准差时间范围内做特征提取,重新做目标匹配,由于在较小的时间范围内搜索匹配目标,所以匹配正确率会得到大幅提高,从而得到一个更为精确的互相关函数。重新对互相关函数进行峰值合并,最终得到细化后更精确的转移时间期望和标准差;对每组存在关联的相机出入口计算出细化后的转移时间期望和标准差,最终得到更为精确的多相机拓扑连通图。
跨相机跟踪是在多相机的拓扑连通图已经建立的情况下进行的。首先在目标离开相机时,保存其离开前的最后一帧的特征及离开时所在出入口区域;根据上文生成的多相机拓扑连通图,获得该出入口和哪些出入口相连,突出显示这些出入口所在视频,以方便监控人员做排查;然后根据转移时间期望和标准差对所有相应出入口做检测,检测出每个进入相应出入口的行人的特征,将其与保存的目标特征求余弦距离,当余弦距离大于阈值时,将其加入候选队列,并交由监控人员确认;如监控人员确认候选队列中有目标,则利用KCF算法对目标做单相机跟踪,直到目标再次离开视域,再次进行跨相机跟踪的过程;如监控人员确认候选队列中没有目标,则认为目标丢失。
本发明与现有技术相比的优点在于:在建立估计相机出入口之间的转移时间的过程中,使用由粗到细的互相关函数分析方法,综合利用时间阈值,行人特征,使互相关函数峰值更为明显,转移时间更为精确。使用基于本发明提出的多相机拓扑连通图建立方法的跨相机跟踪可以准确的帮监控人员快速排查大量复杂的监控视频数据,减少人力的消耗。
附图说明
图1为本发明一种多相机拓扑连通图建立与跨相机目标跟踪方法流程示意图;
图2为出入口区域示意图;
图3为具有峰值的互相关函数波形示意图;
图4为单相机跟踪的示意图;
图5为跨相机跟踪目标搜索逻辑流示意图。
具体实施方式
下面结合附图详细描述本发明的具体实施实例:
如图1所示,本发明所述的一种多相机拓扑连通图建立与跨相机目标跟踪方法,包括以下步骤:
步骤一:采集同步的视频监控数据。具体通过如下步骤实施:根据时间关系将不同步的监控视频裁剪,得到同步的视频监控数据。
步骤二:采用K-Means算法聚类出每个相机的出入口区域。具体通过以下步骤实施:
2.1利用Faster-RCNN进行目标检测,得出所有行人刚离开和刚进入的视域时的位置,作为训练集;
2.2根据视频场景信息随机生成k个质心点,进行n次迭代得到k个类,即为相机的k个出入口区域。K-Means聚类的出入口区域示意图如图2所示。
步骤三:粗略估计转移时间。具体通过如下步骤实施:
3.1根据Faster-RCNN检测结果,确定出入口Ei的离开时间序列Di和出入口Ej进入时间序列Ai
3.2设置τ0的值,具体设置如下:如果两个相机出入口Ei和出入口Ej存在连通关系,那么当目标在t1时刻从Ei离开,则有很大几率在t2时刻进入Ej,其中t2∈[t10,t10],这里τ0是转移时间窗口,即在2倍τ0时间内寻找t2的较为精确的值。τ0根据相机之间的距离来设置,两个相机相隔距离越远,τ0越大;
3.3定义互相关函数为Rij(τ)=E[Di(t)·Aj(t+τ0)],这里的τ0表示转移时间。当Rij(τ)具有明显唯一峰值时,则认为出入口Ei和Ej之间是有连通关系的。
一般的看,对于两个不同的出入口,只有当两个目标较为相似时才将其用于出入口之间互相关函数的分析,定义E[*,*]为:
Figure BDA0001387439280000061
上式中similiarity(Oi,Oj)表示两个目标之间的相似度,Oi为在出入口Ei的离开队列里的目标,Oj是出入口Ej的进入队列的目标。根据基于域引导压缩的深度学习算法对进入和离开时间序列的目标做特征提取,相似度高于阈值时,目标对应的转移时间在互相关函数中的累加一分。
3.4根据3.3计算出的各个目标的转移时间在互相关函数中的得分,得到互相关函数图。通过邻居累加方法对互相关函数做累加处理,设离开时间序列和进入时间序列中的匹配目标对的转移时间间隔为μ0每个时间序列处理公式如下:
Figure BDA0001387439280000062
上式中Tij(μ)为累加后的互相关函数值,累加后Tij(μ)值仍为1则认为是噪音被淘汰。
3.5根据步骤3.4得到的累加后互相关函数,设置阈值threshold=avg(Rij(τ))+ω·std(Rij(τ)),其中ω设置为经验值2。当Rij(τ)<threshold时,认为是噪音,不做考虑。设置阈值β=0.2*Width,Width为整个的转移时间窗口,当Rij(τ)>threshold且连续宽度Wij(tk)大于β时则认为找到了一个峰值。
3.6根据步骤3.5,当找到多个峰值时,规定Wij(tk)是转移时间为tk的峰值的宽度,设置阈值α,当两个峰值之间的距离小于α则合并它们,如(2)式所示:
Wij(tk)=Wij(tm)+Wij(tn)if tm-tn<α (2)
3.7重复步骤3.6直到合并所有满足(2)式条件的峰值,如存在多个峰值则将两个出入口关系设置为不连通。如最后只剩一个峰值,则两个出入口连通,转移时间期望即为峰值的中心对应的转移时间,标准差为峰值宽度,从而得到两个出入口之间粗略估计的转移时间期望Tij和标准差Wij。如图3所示,得到转移时间期望大约为100帧,标准差大约为20帧。
步骤四:细化互相关函数,具体通过如下步骤实施:
4.1假设目标在t时刻离开出入口Ei,则根据步骤三得到的粗略估计的转移时间期望和标准差,设置转移时间窗口为[t+Tij-3*Wij,t+Tij+3*Wij],只对进入序列和离开序列在当前转移窗口内做特征提取和目标匹配,得到所有目标的转移时间,并在互相关函数中相应转移时间上贡献一分。
4.2通过邻居累加方法对步骤4.1得到的互相关函数做累加和合并峰值处理,过程如步骤3.5、3.6、3.7。精确估计后互相关函数示意图如图4所示,峰值的中心对应转移时间为精细估计后的转移时间期望
Figure BDA0001387439280000071
峰值宽度为标准差
Figure BDA0001387439280000072
步骤五:建立多相机拓扑连通图,具体通过如下步骤实施:重复步骤三和步骤四,得到所有连通的出入口的连通信息,从而建立拓扑连通图。
步骤六:进行基于多相机拓扑连通图的跨相机跟踪,具体通过如下步骤实施:
6.1设目标在t时刻离开了视域,保存离开的目标直方图特征和所在出入口信息;
6.2根据步骤五得到的多相机拓扑连通图获得与该出入口有连通关系的所有出入口,在界面突出显示这些出入口所在的视频,以方便监控人员排查;
6.3计算机对步骤6.2获得的所有出入口进行检测,检测的时间窗口为
Figure BDA0001387439280000073
将检测出的每个行人特征与目标特征进行比对,特征余弦距离大于0.6时,则将行人加入到候选目标队列,并交由监控人员确认是否为目标。
6.4如监控人员确认候选队列中有目标,则清空候选队列,使用KCF单相机跟踪算法对目标进行单相机跟踪,直到目标再次离开视域,回到步骤6.1。
6.5如监控人员确认候选队列中没有目标,则认为目标已经丢失,结束程序。

Claims (6)

1.一种多相机拓扑连通图建立与跨相机目标跟踪方法,其特征在于:该方法包括多相机拓扑连通图建立和跨相机目标跟踪两个部分,多相机拓扑连通图建立步骤为:
步骤d1、采集时间同步的视频数据;
步骤d2、利用K-Means聚类算法得到每个相机的出入口区域;
步骤d3、对相机的每一帧进行目标检测;
步骤d4、根据目标检测的结果,得到每组对应出入口之间的互相关函数图;
步骤d5、分析互相关函数,对峰值进行合并,粗略的估计出转移时间的期望和标准差,确定出入口之间的连通关系;
步骤d6、如两个出入口之间有连通关系,则对互相关函数做进一步细化,得到更为精确的转移时间期望和标准差,执行步骤d8;
步骤d7、如根据步骤d5确定两个出入口之间无连通关系,结束分析过程,将两个出入口之间的关系设置为“不连通”,转移时间期望和标准差设置为无穷大,执行步骤d8;
步骤d8、重复步骤d4、步骤d5、步骤d6、步骤d7,将其得到的两两出入口之间的关系、转移时间期望、标准差,最终生成多相机拓扑连通图;
基于上述生成的多相机拓扑连通图的跨相机目标跟踪步骤为:
步骤t1、保存目标最后离开相机时的特征与离开时所在的出入口;
步骤t2、根据多相机的拓扑连通图,得到各个出入口之间的连通关系,将转移时间小于一定阈值D的出入口加入出入口候选队列,在界面突出显示候选队列的出入口,以方便监控人员监视;
步骤t3、根据步骤t2得到的出入口关系,在一定时间范围内对目标可能出现的出入口进行检测,直到找到目标,如超时则目标丢失。
2.根据权利要求1所述的一种多相机拓扑连通图建立与跨相机目标跟踪方法,其特征在于:所述步骤d2包括如下步骤:
步骤d2.1、利用Faster-RCNN进行目标检测,得到目标的位置,作为训练集;
步骤d2.2、根据视频场景信息随机生成k个质心点,进行n1次迭代得到k个类,即为相机的k个出入口区域。
3.根据权利要求1所述的一种多相机拓扑连通图建立与跨相机目标跟踪方法,其特征在于:所述步骤d4包括如下步骤:
步骤d4.1、对于两个可能存在连通关系的出入口Ei、Ej,得到Ei的离开目标的时间序列和Ej的进入时间序列;
步骤d4.2、通过在转移时间窗口范围内比较目标Re-id特征进行目标匹配,该目标在Ej的进入时间和Ei的离开时间的差作为该目标转移时间;
步骤d4.3、根据步骤d4.2得到的每个目标的转移时间,定义关于转移时间的互相关函数,每出现一个匹配目标,其转移时间对应的互相关函数值增加一分;
步骤d4.4、以转移时间为横轴,以互相关函数值为纵轴,得到互相关函数分布图。
4.根据权利要求1所述的一种多相机拓扑连通图建立与跨相机目标跟踪方法,其特征在于:所述步骤d5包括以下步骤:
步骤d5.1、根据步骤d4得到的互相关函数图,利用邻居累加算法对互相相关函数值进行累加处理;
步骤d5.2、根据步骤d5.1得到的累加处理后的互相关函数图,设定经验阈值threshold和β,当互相关函数值小于threshold时,被认为是噪音,连续大于threshold的宽度大于等于β时被认为是峰值,从而确定所有互相关函数中所有的峰值;
步骤d5.3、根据步骤d5.2得到的峰值,设定阈值α,当两个峰值所在的转移时间之差小于α时进行峰值合并,取两个转移时间的平均值作为新的峰值所在;
步骤d5.4、重复步骤d5.3将所有满足合并条件的峰值合并,如最后只剩下一个峰值,则认为两个出入口之间存在连通关系,峰值对应时间和宽度即分别为该对应出入口粗略的转移时间期望Tij和标准差Wij
5.根据权利要求1所述的一种多相机拓扑连通图建立与跨相机目标跟踪方法,其特征在于:所述步骤d6包括以下步骤:
步骤d6.1、根据步骤d5得到的粗略的转移时间期望和标准差,在[T-3·W,T+3·W]时间区间内,对目标做特征提取;
步骤d6.2、通过比较目标的余弦距离,匹配目标,得到每一个目标的转移时间,得出在更小时间范围内的互相关函数;
步骤d6.3、对新得到的互相关函数做邻居累加处理,即设置滑动窗口为n,在转移时间窗口内进行滑动,滑动窗口的中值对应的互相关函数值为整个滑动窗口的对应互相关函数值的和;
步骤d6.4、合并峰值,得到峰值对应的转移时间和宽度,即为更为精确的转移时间期望
Figure FDA0002536219030000031
和标准差
Figure FDA0002536219030000032
6.根据权利要求1所述的一种多相机拓扑连通图建立与跨相机目标跟踪方法,其特征在于:所述步骤t3包括以下步骤:
步骤t3.1、根据基于域引导压缩的深度学习算法对每一个候选出入口区域在转移时间前后三倍标准差时间范围内进行行人特征提取,与步骤t1保存的目标特征进行比较,将余弦距离大于阈值的行人加入候选队列,由监控人员做确认,执行步骤t3.2,如不能找到候选目标,则目标丢失,跟踪过程结束;
步骤t3.2、如监控人员确认候选队列中没有目标,则将所有候选队列清空,输出目标丢失,跟踪过程结束,如监控人员确认候选队列中有目标,则将所有候选队列清空,对目标做KCF单相机跟踪,直到目标再次离开视域,回到步骤t1。
CN201710732671.0A 2017-08-24 2017-08-24 一种多相机拓扑连通图建立与跨相机目标跟踪方法 Active CN107689054B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710732671.0A CN107689054B (zh) 2017-08-24 2017-08-24 一种多相机拓扑连通图建立与跨相机目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710732671.0A CN107689054B (zh) 2017-08-24 2017-08-24 一种多相机拓扑连通图建立与跨相机目标跟踪方法

Publications (2)

Publication Number Publication Date
CN107689054A CN107689054A (zh) 2018-02-13
CN107689054B true CN107689054B (zh) 2020-09-22

Family

ID=61153579

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710732671.0A Active CN107689054B (zh) 2017-08-24 2017-08-24 一种多相机拓扑连通图建立与跨相机目标跟踪方法

Country Status (1)

Country Link
CN (1) CN107689054B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109308718B (zh) * 2018-08-09 2022-09-23 上海青识智能科技有限公司 一种基于多深度相机的空间人员定位装置及方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101616309B (zh) * 2009-07-16 2010-12-29 上海交通大学 无重叠视域多摄像机人体目标跟踪方法
CN102156863B (zh) * 2011-05-16 2012-11-14 天津大学 跨摄像头的多运动目标跟踪方法
CN102436662B (zh) * 2011-11-29 2013-07-03 南京信息工程大学 一种非重叠视域多摄像机网络中的人体目标跟踪方法
US20140184803A1 (en) * 2012-12-31 2014-07-03 Microsoft Corporation Secure and Private Tracking Across Multiple Cameras
CN104010168B (zh) * 2014-06-13 2017-06-13 东南大学 一种无重叠视域多摄像机监控网络拓扑自适应学习方法
CN104065932B (zh) * 2014-06-30 2019-08-13 东南大学 一种基于修正加权二部图的无重叠视域目标匹配方法
CN104601964B (zh) * 2015-02-06 2018-09-21 武汉大学 非重叠视域跨摄像机室内行人目标跟踪方法及系统
CN104778690B (zh) * 2015-04-02 2017-06-06 中国电子科技集团公司第二十八研究所 一种基于摄像机网络的多目标定位方法
AU2015203591A1 (en) * 2015-06-26 2017-01-19 Canon Kabushiki Kaisha System and method for object matching
US9865072B2 (en) * 2015-07-23 2018-01-09 Disney Enterprises, Inc. Real-time high-quality facial performance capture
US9947107B2 (en) * 2015-09-16 2018-04-17 Agt International Gmbh Method and system for tracking objects between cameras
CN105472333A (zh) * 2015-12-04 2016-04-06 航天科工智慧产业发展有限公司 视频监控设备拓扑系统的建立方法及关联监控方法
CN106846378B (zh) * 2017-01-23 2019-12-03 中山大学 一种结合时空拓扑估计的跨摄像机目标匹配与跟踪方法

Also Published As

Publication number Publication date
CN107689054A (zh) 2018-02-13

Similar Documents

Publication Publication Date Title
CN107506684B (zh) 步态识别方法及装置
CN104751136B (zh) 一种基于人脸识别的多相机视频事件回溯追踪方法
Wang et al. iVAT and aVAT: enhanced visual analysis for cluster tendency assessment
Khan et al. Analyzing crowd behavior in naturalistic conditions: Identifying sources and sinks and characterizing main flows
Simonnet et al. Re-identification of pedestrians in crowds using dynamic time warping
CN111325089A (zh) 跟踪对象的方法和设备
CN111369596B (zh) 一种基于视频监控的手扶电梯客流量统计方法
WO2013075295A1 (zh) 低分辨率视频的服装识别方法及系统
CN110991397B (zh) 一种行进方向确定方法及相关设备
CN104408741A (zh) 一种时序一致性约束的视频全局运动估计方法
CN112132873A (zh) 一种基于计算机视觉的多镜头行人识别与跟踪
CN115100716A (zh) 一种智慧社区行人跟踪定位方法及系统
CN107689054B (zh) 一种多相机拓扑连通图建立与跨相机目标跟踪方法
CN102609729B (zh) 多机位人脸识别方法及系统
CN104463144A (zh) 基于局部主方向与能量分析策略的图像中行人头肩检测方法及系统
CN111681264A (zh) 一种监控场景的实时多目标跟踪方法
CN111062294B (zh) 一种客流排队时间的检测方法、装置及系统
CN107705327B (zh) 多相机网络时空模型的候选目标提取方法
Kapileswar et al. Automatic traffic monitoring system using lane centre edges
Yoshioka et al. Improving person re-identification based on human height information
CN112733576A (zh) 一种通过动态影像进行面部识别的方法
Gwak et al. Viewpoint invariant person re-identification for global multi-object tracking with non-overlapping cameras
Lee et al. Fast people counting using sampled motion statistics
CN111191524A (zh) 运动人群计数方法
CN112818922B (zh) 一种基于图像的店员识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant