CN106846358A - 基于稠密轨迹投票的多目标分割与跟踪方法 - Google Patents
基于稠密轨迹投票的多目标分割与跟踪方法 Download PDFInfo
- Publication number
- CN106846358A CN106846358A CN201710023822.5A CN201710023822A CN106846358A CN 106846358 A CN106846358 A CN 106846358A CN 201710023822 A CN201710023822 A CN 201710023822A CN 106846358 A CN106846358 A CN 106846358A
- Authority
- CN
- China
- Prior art keywords
- track
- target
- frame
- end points
- class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于稠密轨迹投票的多目标分割与跟踪方法,用于解决现有多目标跟踪方法跟踪准确率低的技术问题。技术方案是首先利用前景提取方法提取出目标连通域,然后根据轨迹所在连通域,对每帧中每条轨迹进行标记。根据轨迹的历史标记信息,计算轨迹间的相关性,然后利用区域增长的图割方法提取运动目标、分割并跟踪。本发明将多运动目标的跟踪问题转化为弱分类器累积问题,实现了更为简易精确的多运动目标的分割与跟踪。
Description
技术领域
本发明涉及一种多目标跟踪方法,特别是涉及一种基于稠密轨迹投票的多目标分割与跟踪方法。
背景技术
多目标跟踪技术是计算机视觉领域的一个传统问题,也是一个难点问题。文献“Robust object tracking by hierarchical association of detection responses.InEuropean Conference on Computer Vision,pages 788–801.”公开了一种多目标跟踪方法。该方法提出了一种由低到高的多层跟踪的基础性框架,其中最关键的是数据关联。目前基于数据关联的方法遇到了前所未有的挑战,遮挡问题尤其明显。当场景中物体被遮挡,检测器无法检测出目标,轨迹将中断。现有多数解决办法是大多基于目标匀速运动假设或者要求轨迹光滑连续,根据运动信息预测目标位置,但实际情况往往并非如此。如果目标出现急转或者回转,均会导致关联错误。故需要更加灵活、复杂的运动模型应对。
发明内容
为了克服现有多目标跟踪方法跟踪准确率低的不足,本发明提供一种基于稠密轨迹投票的多目标分割与跟踪方法。该方法首先利用前景提取方法提取出目标连通域,然后根据轨迹所在连通域,对每帧中每条轨迹进行标记。根据轨迹的历史标记信息,计算轨迹间的相关性,然后利用区域增长的图割方法提取运动目标、分割并跟踪。本发明将多运动目标的跟踪问题转化为弱分类器累积问题,实现了更为简易精确的多运动目标的分割与跟踪。
本发明解决其技术问题所采用的技术方案是:一种基于稠密轨迹投票的多目标分割与跟踪方法,其特点是包括以下步骤:
步骤一、前景提取以及目标连通域提取。
利用Vibe方法对当前视频帧Framej进行提取前景,生成前景二值图像;然后利用多项式拟合的连通域处理得到目标的连通区域Connecti,并对连通域Connecti进行编号Li。
步骤二、稠密轨迹标记以及累计投票。
每个连通域编号之后,根据当前第j帧Framej中,第i条稠密轨迹Trajectoryi端点vi所在的连通区域Connecti标记上相应的标号Ti=Li,不属于任何连通域的端点标号Ti=-1,i为轨迹计数编号。轨迹上的每个节点都携带每一帧中的标记信息当前帧的标记信息初始化为计算两条轨迹A,B的相关性时,比较当前帧中轨迹端点的差异值
对于三种不同的差异值,两两轨迹之间的相关性约束也不同。
(a)当时,表示在当前帧TA=TB,轨迹A,B的端点vA,vB属于同一连通域。然后根据历史轨迹标记情况判断A,B是否属于同一目标。轨迹上的每个节点都携带每一帧中的标记信息IDi,计算轨迹标记信息差异值
在历史帧中,计算两条轨迹的每帧差异并进行累计投票。
其中,m是两条轨迹共享的第一帧,n是两条轨迹所共享的连续帧数量,当投票累计的结果为非负数时,则两条轨迹在历史中属于同一目标的可能性大,则合并轨迹A,B,使当前帧中IDB=IDA。
(b)当时,为了避免前景提取所带来的误差,利用空间、色彩以及运动信息来判断两个轨迹的相关性。
其中,被定义为:
是光流的变化量,T是计算运动变化的时间区间,T=5。
两个轨迹间的差异定义如下:
Diff(A,B)=β1dmotion(A,B)+β2dspation(A,B)+β3dcolor(A,B) (7)
β1、β2与β3是三个限定权值,通过权值来调节时间空间和运动信息的重要程度,对于运动目标分割运动信息的权值应最大β1=0.7。
(c)当时,轨迹A,B属于不同目标。
步骤三、基于区域增长图的图像分割。
将Framej帧图像中的稠密轨迹端点作为图的节点S={v1,v2,...v3},对每一个节点vi,寻找与之最近的10个节点,构建稠密轨迹图G,MST为通过聚类形成的类。图的边的权重ei根据公式(7)计算,再将边权重非递减排序E={e1,e2...e3},遍历E,ei两个端点(vi,vj),若则计算ei两个端点之间的差异值
(d)若则两个端点分属不同的前景连通域,则两类轨迹分开。
(e)若根据上述投票累计算法判断轨迹的相关性,若轨迹相关则两类轨迹合并聚类,执行步骤(g)。
(f)若则判断ei与两类轨迹类间差异。类间差异定义为:
Diff(C)=min(Int(Ci)+r(Ci),Int(Cj)+r(Cj)), (8)
其中,|C|为MST中所包含轨迹数量,k为阈值其限定了类间差异的最初容忍度,并且随着聚类数量增多而作用减小。若ei≤Diff(C),则轨迹相关,执行步骤(g)。
(g)若轨迹相关,统一两类的类别号使并更新最大类内差Int(C):
Int(C)=maxe∈(MST,E)e (9)
MST为通过聚类形成的类。
循环上述过程直到遍历完整个轨迹图,完成对前景目标的分割,并用稠密轨迹进行目标的准确跟踪。
本发明的有益效果是:该方法首先利用前景提取方法提取出目标连通域,然后根据轨迹所在连通域,对每帧中每条轨迹进行标记。根据轨迹的历史标记信息,计算轨迹间的相关性,然后利用区域增长的图割方法提取运动目标、分割并跟踪。本发明将多运动目标的跟踪问题转化为弱分类器累积问题,实现了更为简易精确的多运动目标的分割与跟踪。
下面结合具体实施方式对本发明作详细说明。
具体实施方式
本发明基于稠密轨迹投票的多目标分割与跟踪方法具体步骤如下:
1.前景提取以及目标连通域提取。
利用Vibe方法对当前视频帧Framej进行提取前景,生成前景二值图像;然后利用多项式拟合的连通域处理得到目标的连通区域Connecti,并对连通域Connecti进行编号Li。
2.稠密轨迹标记以及累计投票。
每个连通域编号之后,根据当前第j帧Framej中,第i条稠密轨迹Trajectoryi端点vi所在的连通区域Connecti标记上相应的标号Ti=Li,不属于任何连通域的端点标号Ti=-1,i为轨迹计数编号。轨迹上的每个节点都携带每一帧中的标记信息当前帧的标记信息初始化为计算两条轨迹A,B的相关性时,首先比较当前帧中轨迹端点的差异值
对于三种不同的差异值,两两轨迹之间的相关性约束也不同。
(a)当时,表示在当前帧TA=TB,轨迹A,B的端点vA,vB属于同一连通域。然后根据历史轨迹标记情况判断A,B是否属于同一目标。轨迹上的每个节点都携带每一帧中的标记信息IDi,计算轨迹标记信息差异值
在历史帧中,计算两条轨迹的每帧差异并进行累计投票。
其中m是两条轨迹共享的第一帧,n是两条轨迹所共享的连续帧数量,当投票累计的结果为非负数时,则两条轨迹在历史中属于同一目标的可能性大,则合并轨迹A,B,使当前帧中IDB=IDA。
(b)当时,为了避免前景提取所带来的误差,利用空间、色彩以及运动信息来判断两个轨迹的相关性。
其中被定义为:
是光流的变化量,T是计算运动变化的时间区间T=5。
两个轨迹间的差异定义如下:
Diff(A,B)=β1dmotion(A,B)+β2dspation(A,B)+β3dcolor(A,B) (7)
β1、β2与β3是三个限定权值,通过权值来调节时间空间和运动信息的重要程度,对于运动目标分割运动信息的权值应最大β1=0.7。
(c)当时,轨迹A,B属于不同目标。
3.基于区域增长图的图像分割。
将Framej帧图像中的稠密轨迹端点作为图的节点S={v1,v2...v3},对每一个节点vi,寻找与之最近的10个节点,构建稠密轨迹图G,MST为通过聚类形成的类。图的边的权重ei根据公式(7)计算,再将边权重非递减排序E={e1,e2...e3},遍历E,ei两个端点(vi,vj),若则计算ei两个端点之间的差异值
(d)若则两个端点分属不同的前景连通域,则两类轨迹分开。
(e)若根据上述投票累计算法判断轨迹的相关性,若轨迹相关则两类轨迹合并聚类,执行步骤(g)。
(f)若则判断ei与两类轨迹类间差异。类间差异定义为:
Diff(C)=min(Int(Ci)+r(Ci),Int(Cj)+r(Cj)), (8)
其中|C|为MST中所包含轨迹数量,k为阈值其限定了类间差异的最初容忍度,并且随着聚类数量增多而作用减小。若ei≤Diff(C),则轨迹相关,执行步骤(g)。
(g)若轨迹相关,统一两类的类别号使并更新最大类内差Int(C):
Int(C)=maxe∈(MST,E)e (9)
MST为通过聚类形成的类。
循环上述过程直到遍历完整个轨迹图,完成对前景目标的分割,并用稠密轨迹进行目标的准确跟踪。
Claims (1)
1.一种基于稠密轨迹投票的多目标分割与跟踪方法,其特征在于包括以下步骤:
步骤一、前景提取以及目标连通域提取;
利用Vibe方法对当前视频帧Framej进行提取前景,生成前景二值图像;然后利用多项式拟合的连通域处理得到目标的连通区域Connecti,并对连通域Connecti进行编号Li;
步骤二、稠密轨迹标记以及累计投票;
每个连通域编号之后,根据当前第j帧Framej中,第i条稠密轨迹Trajectoryi端点vi所在的连通区域Connecti标记上相应的标号Ti=Li,不属于任何连通域的端点标号Ti=-1,i为轨迹计数编号;轨迹上的每个节点都携带每一帧中的标记信息当前帧的标记信息初始化为计算两条轨迹A,B的相关性时,比较当前帧中轨迹端点的差异值
对于三种不同的差异值,两两轨迹之间的相关性约束也不同;
(a)当时,表示在当前帧TA=TB,轨迹A,B的端点vA,vB属于同一连通域;然后根据历史轨迹标记情况判断A,B是否属于同一目标;轨迹上的每个节点都携带每一帧中的标记信息IDi,计算轨迹标记信息差异值
在历史帧中,计算两条轨迹的每帧差异并进行累计投票;
其中,m是两条轨迹共享的第一帧,n是两条轨迹所共享的连续帧数量,当投票累计的结果为非负数时,则两条轨迹在历史中属于同一目标的可能性大,则合并轨迹A,B,使当前帧中IDB=IDA;
(b)当时,为了避免前景提取所带来的误差,利用空间、色彩以及运动信息来判断两个轨迹的相关性;
其中,被定义为:
是光流的变化量,T是计算运动变化的时间区间,T=5;
两个轨迹间的差异定义如下:
Diff(A,B)=β1dmotion(A,B)+β2dspation(A,B)+β3dcolor(A,B) (7)
β1、β2与β3是三个限定权值,通过权值来调节时间空间和运动信息的重要程度,对于运动目标分割运动信息的权值应最大β1=0.7;
(c)当时,轨迹A,B属于不同目标;
步骤三、基于区域增长图的图像分割;
将Framej帧图像中的稠密轨迹端点作为图的节点S={v1,v2...v3},对每一个节点vi,寻找与之最近的10个节点,构建稠密轨迹图G,MST为通过聚类形成的类;图的边的权重ei根据公式(7)计算,再将边权重非递减排序E={e1,e2...e3},遍历E,ei两个端点(vi,vj),若则计算ei两个端点之间的差异值
(d)若则两个端点分属不同的前景连通域,则两类轨迹分开;
(e)若根据上述投票累计算法判断轨迹的相关性,若轨迹相关则两类轨迹合并聚类,执行步骤(g);
(f)若则判断ei与两类轨迹类间差异;类间差异定义为:
Diff(C)=min(Int(Ci)+r(Ci),Int(Cj)+r(Cj)), (8)
其中,|C|为MST中所包含轨迹数量,k为阈值其限定了类间差异的最初容忍度,并且随着聚类数量增多而作用减小;若ei≤Diff(C),则轨迹相关,执行步骤(g);
(g)若轨迹相关,统一两类的类别号使并更新最大类内差Int(C):
Int(C)=maxe∈(MST,E)e (9)
MST为通过聚类形成的类;
循环上述过程直到遍历完整个轨迹图,完成对前景目标的分割,并用稠密轨迹进行目标的准确跟踪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710023822.5A CN106846358A (zh) | 2017-01-13 | 2017-01-13 | 基于稠密轨迹投票的多目标分割与跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710023822.5A CN106846358A (zh) | 2017-01-13 | 2017-01-13 | 基于稠密轨迹投票的多目标分割与跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106846358A true CN106846358A (zh) | 2017-06-13 |
Family
ID=59124732
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710023822.5A Pending CN106846358A (zh) | 2017-01-13 | 2017-01-13 | 基于稠密轨迹投票的多目标分割与跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106846358A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111353452A (zh) * | 2020-03-06 | 2020-06-30 | 国网湖南省电力有限公司 | 一种基于rgb图像的行为识别方法、装置、介质及设备 |
CN112508999A (zh) * | 2020-11-20 | 2021-03-16 | 西北工业大学深圳研究院 | 一种基于协作观测图像序列的空间目标运动状态辨识方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102236901A (zh) * | 2011-06-30 | 2011-11-09 | 南京大学 | 基于图论聚类和色彩不变空间的目标跟踪方法 |
CN103617636A (zh) * | 2013-12-02 | 2014-03-05 | 西北工业大学 | 基于运动信息及稀疏投影的视频目标自动检测跟踪方法 |
CN104200492A (zh) * | 2014-08-25 | 2014-12-10 | 西北工业大学 | 基于轨迹约束的航拍视频目标自动检测跟踪方法 |
CN105761279A (zh) * | 2016-02-18 | 2016-07-13 | 西北工业大学 | 基于轨迹分割与拼接的目标跟踪方法 |
-
2017
- 2017-01-13 CN CN201710023822.5A patent/CN106846358A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102236901A (zh) * | 2011-06-30 | 2011-11-09 | 南京大学 | 基于图论聚类和色彩不变空间的目标跟踪方法 |
CN103617636A (zh) * | 2013-12-02 | 2014-03-05 | 西北工业大学 | 基于运动信息及稀疏投影的视频目标自动检测跟踪方法 |
CN104200492A (zh) * | 2014-08-25 | 2014-12-10 | 西北工业大学 | 基于轨迹约束的航拍视频目标自动检测跟踪方法 |
CN105761279A (zh) * | 2016-02-18 | 2016-07-13 | 西北工业大学 | 基于轨迹分割与拼接的目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
TAEK LYUL SONG ET AL.: "Distributed (Nonlinear) Target Tracking in Clutter", 《IEEE TRANSACTIONS ON AEROSPACE AND ELECTRONIC SYSTEMS》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111353452A (zh) * | 2020-03-06 | 2020-06-30 | 国网湖南省电力有限公司 | 一种基于rgb图像的行为识别方法、装置、介质及设备 |
CN112508999A (zh) * | 2020-11-20 | 2021-03-16 | 西北工业大学深圳研究院 | 一种基于协作观测图像序列的空间目标运动状态辨识方法 |
CN112508999B (zh) * | 2020-11-20 | 2024-02-13 | 西北工业大学深圳研究院 | 一种基于协作观测图像序列的空间目标运动状态辨识方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ke et al. | Multi-dimensional traffic congestion detection based on fusion of visual features and convolutional neural network | |
CN110472467A (zh) | 基于YOLO v3的针对交通枢纽关键物体的检测方法 | |
CN107506702A (zh) | 基于多角度的人脸识别模型训练及测试系统及方法 | |
CN103440668B (zh) | 一种在线视频目标跟踪方法和装置 | |
CN109325404A (zh) | 一种公交场景下的人数统计方法 | |
CN106875424A (zh) | 一种基于机器视觉的城市环境行驶车辆行为识别方法 | |
CN105844234A (zh) | 一种基于头肩检测的人数统计的方法及设备 | |
Ren et al. | A novel squeeze YOLO-based real-time people counting approach | |
CN102592138B (zh) | 基于多模块稀疏投影的密集场景目标跟踪方法 | |
CN104112282A (zh) | 一种基于在线学习跟踪监控视频中多个运动目标的方法 | |
CN103559237A (zh) | 基于目标跟踪的半自动图像标注样本生成方法 | |
CN103413324A (zh) | 航拍视频自动目标跟踪方法 | |
CN107689052A (zh) | 基于多模型融合和结构化深度特征的视觉目标跟踪方法 | |
CN103646257A (zh) | 一种基于视频监控图像的行人检测和计数方法 | |
CN107730889B (zh) | 一种基于交通视频的目标车辆检索方法 | |
CN110688905A (zh) | 一种基于关键帧的三维物体检测与跟踪方法 | |
CN104952073A (zh) | 基于深度学习的镜头边缘检测方法 | |
CN110458022B (zh) | 一种基于域适应的可自主学习目标检测方法 | |
CN110222579B (zh) | 一种结合运动规律和目标检测的视频对象计数方法 | |
CN103985257A (zh) | 一种智能交通视频分析方法 | |
Liu et al. | Dynamic RGB-D SLAM based on static probability and observation number | |
CN107609509A (zh) | 一种基于运动显著性区域检测的动作识别方法 | |
CN110032952A (zh) | 一种基于深度学习的道路边界点检测方法 | |
JP2017076394A (ja) | 移動物体の計数装置及び方法 | |
CN106846358A (zh) | 基于稠密轨迹投票的多目标分割与跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20170613 |