CN104463909A - 基于信度组合地图模型的视觉目标跟踪方法 - Google Patents

基于信度组合地图模型的视觉目标跟踪方法 Download PDF

Info

Publication number
CN104463909A
CN104463909A CN201410714033.2A CN201410714033A CN104463909A CN 104463909 A CN104463909 A CN 104463909A CN 201410714033 A CN201410714033 A CN 201410714033A CN 104463909 A CN104463909 A CN 104463909A
Authority
CN
China
Prior art keywords
reliability
sorter
frame
unit
combinatorial map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410714033.2A
Other languages
English (en)
Inventor
滕竹
张�杰
张宁
刘峰
李浥东
王涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yangtze River Delta Research Institute Of Beijing Jiaotong University
Original Assignee
Yangtze River Delta Research Institute Of Beijing Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yangtze River Delta Research Institute Of Beijing Jiaotong University filed Critical Yangtze River Delta Research Institute Of Beijing Jiaotong University
Priority to CN201410714033.2A priority Critical patent/CN104463909A/zh
Publication of CN104463909A publication Critical patent/CN104463909A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及计算机视频处理技术,具体是一种基于信度组合地图模型的视觉目标跟踪方法。该包括以下步骤:1)建立训练数据库;2)提取训练数据库的特征,训练二维析取单元分类器和二维析取分类器;3)建立首帧目标物体的信度组合地图;4)提取当前帧背景框的特征;5)得到信度图;6)定位目标,得到若干个候选窗口;7)将候选窗口的信度组合地图与前帧保存的信度组合地图进行匹配,得到最佳的目标位置信息;8)从组合地图匹配中得到更新样本,每五帧更新分类器,信度图模型,以及跟踪器状态等;9)重复步骤4)至步骤8)直到视频结束。本发明能够在计算机视觉目标跟踪过程中有效抑制目标漂移问题,提高跟踪器的稳定性。

Description

基于信度组合地图模型的视觉目标跟踪方法
技术领域
本发明涉及计算机视频处理技术,具体是一种基于信度组合地图模型的视觉目标跟踪方法。
背景技术
视觉跟踪技术是计算机视觉领域中最具产业化的部分,并大量应用于工业(例如,在自动化生产线上对物料进行校准和定位)、军事(如雷达领域需要估计目标的位置、速度等运动参数)、民用(如交通系统中视觉跟踪可以用来控制交通流量)等各产业中。具体应用包括视频安全监控、智能机器人、行为分析、人机交互等。
视觉跟踪是指在视频中跟踪一些感兴趣的点或物体,获得目标的位置以及运动轨迹,可以为后续处理(如目标行为分析,目标识别,图像检索等)建立基础。一般地,当给定一段视频时,在首帧用标定区域指定某一物体作为目标,视觉跟踪则是定位目标在之后所有帧中的位置。
一般应对视觉跟踪问题的解决思路可以是建立目标的运动模型定位目标,如光流法、卡尔曼滤波器、粒子滤波器等,也可以是基于学习算法得到分类器,利用目标定位算法得到目标位置。学习算法中的初始正训练集是第一帧中给定目标物体特征的样本集组成,初始负训练集是由第一帧背景特征的样本集组成。用已经训练好的分类器分类下一帧的特征样本,目标物体在下一帧的位置则一般是由优化算法得到。近年来基于学习法的跟踪算法倍受瞩目源于它的性能和实时可行性。
基于学习算法的跟踪器的基本思想是将跟踪问题看作是二值分类问题,视频内对目标的跟踪相当于在每一帧对目标物体的检测。根据学习策略的不同,跟踪算法中使用的学习算法可被分成在线学习和离线学习两类。在线学习算法一次只处理一个样本,而离线学习算法需要整个训练集。由于离线学习算法对目标物体外观变化有相对局限的适应能力,易产生漂移现象,本发明主要针对基于在线学习算法的跟踪器。
许多研究人员提出了基于在线学习的跟踪算法并且取得了相对不错的结果。一些跟踪器的实现是基于子空间表示的增量学习算法,还有一些是基于分类器。例如,Shai Avidan提出了整体跟踪,也就是将若干个弱分类器结合成一个强分类器,通过强分类器区分背景和目标;Danielsson等利用两种衍生的弱分类器抑制输出与目标物体相对无关的弱分类器的组合。B.Babenko引用boosting算法提出了多示例学习为了避免漂移问题。Jakob Santner描述了一个结合模板匹配、在线随机森林和光流法的跟踪器。为了更准确的定位目标,还有研究人员提出了在线拉普拉斯排序支持向量机以及基于稀疏性的区分式分类器和生成模型,其主要目的是为了解决目标漂移问题。J.Fan等开发了一个scribble跟踪器,但是它需要用户特别的涂画目标物体。D.Wang等提出了一个基于稀疏原型的在线跟踪算法,它主要是应用稀疏表示方案的主成分分析算法来有效的训练目标的外观模型。从以上分析可以看出,近年来跟踪算法的研究热点及难点是在如何更准确地利用跟踪过程中产生的新样本更新跟踪器适应变化的物体外观同时避免漂移现象。
视觉跟踪本身是一项十分困难的过程,很多因素影响它的性能。困难之一就是目标物体复杂突变的运动,目标的突发运动可能造成跟踪的失败因为它违反了一些运动模型平滑约束的假设。目标及背景的外观变化也是影响视觉跟踪性能的核心因素之一。如果视觉跟踪方法中没有自适应目标外观的模型,比如一些基于模板匹配方法的跟踪方式,那么在某些场合跟踪器很可能发生漂移,而样本更新时又选择了漂移后的目标,跟踪器则不会再回到原来目标上。跟踪问题的另一个挑战是目标的遮挡。如果目标被遮挡,目标的部分信息被遮盖而无法表示,也就是目标是用一些不完全信息进行表示的,这样跟踪器会很容易漂移到其他物体或背景。另外,还有许多其他因素限制跟踪器的性能,比如光照变化,摄像机的移动等等。目前的跟踪算法无法保证在复杂背景下目标遮挡及光照变化的实时跟踪效果,其中最大的一个瓶颈就是视觉跟踪的漂移问题。本发明针对漂移问题围绕样本更新和重置方案两个方面展开研究。
发明内容
本发明所要解决技术问题是:(1)提出一种方法,使其具有适用于视觉跟踪的在线学习算法,从而能够区分目标标定区域内目标样本和背景样本,提高分类器的分类能力;(2)提出一种方法,使其能够建立信度组合地图模型,开发信度组合地图匹配算法,提出基于信度组合地图算法框架的有效样本更新方案,能够针对目标的各种不同变化和行为自适应地跟踪,从而提升后续跟踪准确率;(3)提出一种方法,使其能够开发基于滑动窗口和信度组合地图匹配的目标定位算法,设计高效的跟踪器重置方案,与样本更新方案一起有效抑制目标漂移,提高跟踪器的鲁棒性。
本发明基于信度组合地图模型的视觉目标跟踪方法依次包括以下步骤:
1)根据视频中第一帧的目标物体标注,建立训练数据库;
2)提取训练数据库的特征(包括正特征和负特征),训练二维析取单元分类器和二维析取分类器(在线学习算法);
3)由2)得到的析取分类器判断首帧物体的信度值,建立首帧目标物体的信度组合地图;
4)针对下一帧,提取当前帧背景框的特征;
5)由析取分类器判断背景框特征的信度,得到信度图;
6)采用滑动窗口的方式定位目标,得到若干个候选窗口;
7)根据信度图建立候选窗口的信度组合地图,将候选窗口的信度组合地图与前帧保存的信度组合地图进行匹配,得到最佳的目标位置信息;
8)从组合地图匹配中得到更新样本,每五帧更新分类器,信度图模型,以及跟踪器状态等;
9)重复步骤4)至步骤8)直到视频结束。
所述步骤1)中,首帧目标物体的标注是视频跟踪的输入。
所述步骤2)中,
训练二维析取单元分类器的方法是:
所有二维析取单元分类器中使用到的不重复一维特征数据的集合由S={d1,d2,...,dw}表示,二维析取单元分类器的训练数据{pf}则是由集合S中两个不同一维特征两两组合构成的二维数据,也就是,pf是S的一个子集,表示为式(1),
{ p f } = &cup; 1 &le; i , j &le; w , i < j { d i , d j } - - - ( 1 ) ;
第f个二维析取单元分类器的训练样本由{pf,y}表示,其中N表示训练样本的总量,而y值是1或0,是弱分类器hi和hj中使用的一维数据;张成一个平面并被划分为m×m个单元,由bij,1≤i,j≤m表示,所有单元的析取式构成一个二维析取单元分类器,表达为式(2),
h 2 Dcf ( p fi ) = 1 , p fi &Element; &cup; 1 &le; i , j &le; m C b ij 0 , otherwise - - - ( 2 ) ;
针对每个单元的学习算法是计算单元内正特征和负特征的投票来决定这一单元的分类属性,表达为式(3),
|.|表示一个集合的势,当单元bij中正样本数目大于负样本数目时,Cbij表示单元bij,否则Cbij是一个空集;是所有正样本数量大于负样本数量的单元的并集;如果一个新样本(由pfi表示)落在这个并集中任意一个单元,它则被判定为正样本;
由于析取单元分类器的训练数据的构成不唯一,析取单元分类器的种类也不唯一;将所有两两不同一维特征组合而成的二维数据构成一个二维数据集pf,假设该集合的势是M,则搭建M个二维析取单元分类器。
训练二维析取分类器的方法是:
二维析取分类器被定义为所有二维析取单元分类器的线性组合,表达为式(4),
H 2 D ( x ) = &Sigma; f = 1 M &alpha; 2 Df h 2 Dcf ( p fi ) - - - ( 4 ) ,
其中, &alpha; 2 Df = 1 2 log 1 - err 2 Df err 2 Df , err 2 Df = &Sigma; i = 1 N w i | h 2 Dcf ( p fi ) - y i | , 而wi表示第i个样本的权值,在训练过程中由式(5)更新,
w i = w i e ( &alpha; 2 Df | h 2 Dcf ( p fi ) - y i | ) - - - ( 5 ) .
所述步骤4)中,当前帧的背景框定义为以目标物体为中心两倍大的区域,但但是当物体丢失时,背景框定义为整个帧的区域;
所述步骤6)中,候选窗口的获取是通过窗口的信度值大于一个设定阈值得到的;
所述步骤7)中,信度组合地图的匹配值是基于组合地图的编辑距离计算的,编辑距离越小,信度组合地图越相似;目标定位方法是由当前帧与前帧保存的信度组合地图的匹配度和自适应阈值比较得到的,即:
a.如当前帧没有候选窗口超过阈值,则将背景框扩散到整个帧重新检测,如果跟踪器仍然没有找到目标物体,将跟踪器状态确定为“丢失”,否则跟踪器状态更新为“找到”;
b.如果有多个候选窗口超过阈值,取最大信度值的候选窗口为当前目标,跟踪器状态更新为“找到”;
c.如果仅有一个候选窗口超过阈值,则此窗口为当前目标,跟踪器状态更新为“找到”。
所述步骤8)中,在组合地图的匹配过程中会产生匹配对,当匹配对的信度值大于某一阈值时,将当前帧中的匹配特征归为更新样本库;样本更新过程包括析取分类器的更新、信度图模型的更新、阈值的更新。
本发明活用跟踪过程中未标注的样本更新学习算法的学术思路,强调区别目标标定区域内目标样本与背景样本的重要性,注重可靠的样本更新方案与跟踪器重置策略的融合,旨在有效抑制目标漂移问题,提高跟踪器的稳定性,具体优点体现在:
(1)提出了适应于视觉跟踪的学习算法,该算法是基于boosting的二维析取算法,可用于区分目标标定区域内目标样本与背景样本,为准确进行样本标注提供基础;
(2)通过建立信度组合地图模型,利用信度组合地图匹配对无标注样本进行标注,挖掘跟踪过程中的无标注样本,增加样本数量,缓解小样本训练困难;
(3)针对跟踪过程中自适应目标物体外观的问题,提出了新的样本更新策略,在适应目标物体外观和产生目标漂移问题上做到平衡。同时,设置跟踪器的重置方案,结合样本更新策略,有效抑制目标漂移,提高跟踪器的稳定性。
具体实施方式
本发明基于信度组合地图模型的视觉目标跟踪方法依次包括以下步骤:
1)根据视频中第一帧的目标物体标注,建立训练数据库;首帧目标物体的标注是视频跟踪的输入。
2)提取训练数据库的特征(包括正特征和负特征),训练二维析取单元分类器和二维析取分类器(在线学习算法);提取训练数据库特征可以是已知的视觉特征提取算法,例如哈尔特征,梯度直方图特征等;
其中训练二维析取单元分类器的方法是:
所有二维析取单元分类器中使用到的不重复一维特征数据的集合由S={d1,d2,...,dw}表示,二维析取单元分类器的训练数据{pf}则是由集合S中两个不同一维特征两两组合构成的二维数据,也就是,pf是S的一个子集,表示为式(1),
{ p f } = &cup; 1 &le; i , j &le; w , i < j { d i , d j } - - - ( 1 ) ;
第f个二维析取单元分类器的训练样本由{pf,y}表示,其中N表示训练样本的总量,而y值是1或0,是弱分类器hi和hj中使用的一维数据;张成一个平面并被划分为m×m个单元,由bij,1≤i,j≤m表示,所有单元的析取式构成一个二维析取单元分类器,表达为式(2),
h 2 Dcf ( p fi ) = 1 , p fi &Element; &cup; 1 &le; i , j &le; m C b ij 0 , otherwise - - - ( 2 ) ;
针对每个单元的学习算法是计算单元内正特征和负特征的投票来决定这一单元的分类属性,表达为式(3),
|.|表示一个集合的势,当单元bij中正样本数目大于负样本数目时,Cbij表示单元bij,否则Cbij是一个空集;是所有正样本数量大于负样本数量的单元的并集;如果一个新样本(由pfi表示)落在这个并集中任意一个单元,它则被判定为正样本;
由于析取单元分类器的训练数据的构成不唯一,析取单元分类器的种类也不唯一;将所有两两不同一维特征组合而成的二维数据构成一个二维数据集pf,假设该集合的势是M,则搭建M个二维析取单元分类器。
训练二给析取分类器的方法是:
二维析取分类器被定义为所有二维析取单元分类器的线性组合,表达为式(4),
H 2 D ( x ) = &Sigma; f = 1 M &alpha; 2 Df h 2 Dcf ( p fi ) - - - ( 4 ) ,
其中, &alpha; 2 Df = 1 2 log 1 - err 2 Df err 2 Df , err 2 Df = &Sigma; i = 1 N w i | h 2 Dcf ( p fi ) - y i | , 而wi表示第i个样本的权值,在训练过程中由式(5)更新,
w i = w i e ( &alpha; 2 Df | h 2 Dcf ( p fi ) - y i | ) - - - ( 5 ) ; .
3)由2)得到的析取分类器判断首帧物体的信度值,建立首帧目标物体的信度组合地图;
4)针对下一帧,提取当前帧背景框的特征;当前帧的背景框定义为以目标物体为中心两倍大的区域,但是当物体丢失时,背景框定义为整个帧的区域;
5)由析取分类器判断背景框特征的信度,得到信度图;
6)采用滑动窗口的方式定位目标,得到若干个候选窗口;候选窗口的获取是通过窗口的信度值大于一个设定阈值得到的;
7)根据信度图建立候选窗口的信度组合地图,将候选窗口的信度组合地图与前帧保存的信度组合地图进行匹配,得到最佳的目标位置信息;
信度组合地图的匹配值是基于组合地图的编辑距离计算的,编辑距离越小,信度组合地图越相似;目标定位方法是由当前帧与前帧保存的信度组合地图的匹配度和自适应阈值比较得到的,即:
a.如当前帧没有候选窗口超过阈值,则将背景框扩散到整个帧重新检测,如果跟踪器仍然没有找到目标物体,将跟踪器状态确定为“丢失”,否则跟踪器状态更新为“找到”;
b.如果有多个候选窗口超过阈值,取最大信度值的候选窗口为当前目标,跟踪器状态更新为“找到”;
c.如果仅有一个候选窗口超过阈值,则此窗口为当前目标,跟踪器状态更新为“找到”。
8)从组合地图匹配中得到更新样本,每五帧更新分类器,信度图模型,以及跟踪器状态等;在组合地图的匹配过程中会产生匹配对,当匹配对的信度值大于某一阈值时,将当前帧中的匹配特征归为更新样本库;样本更新过程包括析取分类器的更新、信度图模型的更新、阈值的更新。
9)重复步骤4)至步骤8)直到视频结束。
本发明中主要涉及到的难点包括如下三个方面:
1)目标标定区域内目标样本与背景样本间的区分问题。
在绝大部分的视觉跟踪问题中,为简单起鉴,目标都是用一个矩形框在首帧标注出来,但是,这样就会产生一个问题,目标标定区域内的样本可能不全是目标物体(大部分属于这个情况)。这个问题对视觉跟踪算法会有很大的影响,例如,本应为背景的样本从训练一开始就被标注为目标样本,这会大大降低分类器的分类能力,造成目标漂移。现有的学习算法往往只考虑到了目标标定区域本身表现的变化而不考虑目标标定区域内目标样本与背景样本之间的差别,导致目标标定区域内目标与背景的不可分,最终可能致使漂移。首帧标定区域内的目标样本与背景样本无法被划分的主要原因是因为它否定了作为跟踪问题的输入给定的样本的正确性。针对此问题本发明的解决思路是拟通过析取范式的逻辑可表达性建立分类器,提出用于区别目标标定区域内的目标样本与背景样本的在线学习算法,该问题的解决为研究稳定的跟踪算法提供重要依据。
2)高可信度的样本选择问题。
跟踪问题中需要始终适应目标物体外观才能保证跟踪效果,而跟踪器对目标的外观适应问题则对选择的更新样本提出了更高的要求,因为低可信度的样本选择会造成分类器的错误判断以及错误累积,最终造成跟踪器的漂移。跟踪过程中的高可信度的样本选择问题是样本更新的一个重要阶段并且它也是一个极具挑战性的问题,针对该问题,本发明的解决思路是通过融合图论中组合地图的旋转不变性,提出可靠的样本选择算法,该问题的解决为本发明提供重要的技术支撑。
3)海量滑动窗口的高效准确定位问题。
目标定位是直接影响跟踪效果的决定性因素,定位的不准确会直接造成目标漂移,更甚者目标不可恢复。鉴于图像中滑动窗口大小的不确定性、滑动窗口位置的移动性,一帧图像中会产生海量滑动窗口。一般地,假设视频中一帧的大小为n×n,滑动窗口的数量是以n4增长的。例如,即使在一个低分辨率的视频(如320×240)中,每一帧也会包含超过十亿的滑动窗口。针对这样海量的滑动窗口需要计算每一个窗口内所有特征的信度值,比较所有窗口得到目标的位置,即使使用非常高效的分类器,视频中的视觉跟踪也很难做到实时。针对这个问题,本发明通过合理设置滑动窗口的分支定界条件,在保证定位准确性的基础上减少窗口的数量,另一方面拟融合积分图像技术,进行快速目标定位。

Claims (8)

1.一种基于信度组合地图模型的视觉目标跟踪方法,其特征是:依次包括以下步骤:
1)根据视频中第一帧的目标物体标注,建立训练数据库;
2)提取训练数据库的特征,训练二维析取单元分类器和二维析取分类器;
3)由2)得到的析取分类器判断首帧物体的信度值,建立首帧目标物体的信度组合地图;
4)针对下一帧,提取当前帧背景框的特征;
5)由析取分类器判断背景框特征的信度,得到信度图;
6)采用滑动窗口的方式定位目标,得到若干个候选窗口;
7)根据信度图建立候选窗口的信度组合地图,将候选窗口的信度组合地图与前帧保存的信度组合地图进行匹配,得到最佳的目标位置信息;
8)从组合地图匹配中得到更新样本,每五帧更新分类器,信度图模型,以及跟踪器状态等;
9)重复步骤4)至步骤8)直到视频结束。
2.根据权利要求1所述的基于信度组合地图模型的视觉目标跟踪方法,其特征是:所述步骤1)中,首帧目标物体的标注是视频跟踪的输入。
3.根据权利要求1所述的基于信度组合地图模型的视觉目标跟踪方法,其特征是:所述步骤2)中,
训练二维析取单元分类器的方法是:
所有二维析取单元分类器中使用到的不重复一维特征数据的集合由S={d1,d2,...,dw}表示,二维析取单元分类器的训练数据{pf}则是由集合S中两个不同一维特征两两组合构成的二维数据,也就是,pf是S的一个子集,表示为式(1),
{ p f } = &cup; 1 &le; i , j &le; w , i < j { d i , d j } - - - ( 1 ) ;
第f个二维析取单元分类器的训练样本由{pf,y}表示,其中N表示训练样本的总量,而y值是1或0,是弱分类器hi和hj中使用的一维数据;张成一个平面并被划分为m×m个单元,由bij,1≤i,j≤m表示,所有单元的析取式构成一个二维析取单元分类器,表达为式(2),
h 2 Dcf ( p fi ) = 1 , p fi &Element; &cup; 1 &le; i , j &le; m Cb ij 0 , otherwise - - - ( 2 ) ;
针对每个单元的学习算法是计算单元内正特征和负特征的投票来决定这一单元的分类属性,表达为式(3),
|.|表示一个集合的势,当单元bij中正样本数目大于负样本数目时,Cbij表示单元bij,否则Cbij是一个空集;是所有正样本数量大于负样本数量的单元的并集;如果一个新样本(由pfi表示)落在这个并集中任意一个单元,它则被判定为正样本;
由于析取单元分类器的训练数据的构成不唯一,析取单元分类器的种类也不唯一;将所有两两不同一维特征组合而成的二维数据构成一个二维数据集pf,假设该集合的势是M,则搭建M个二维析取单元分类器。
4.根据权利要求3所述的基于信度组合地图模型的视觉目标跟踪方法,其特征是:训练二维析取分类器的方法是:
二维析取分类器被定义为所有二维析取单元分类器的线性组合,表达为式(4),
H 2 D ( x ) = &Sigma; f = 1 M &alpha; 2 Df h 2 Dcf ( p fi ) - - - ( 4 ) ,
其中, &alpha; 2 Df = 1 2 log 1 - err 2 Df err 2 Df , err 2 Df = &Sigma; i = 1 N w i | h 2 Dcf ( p fi ) - y i | , 而wi表示第i个样本的权值,在训练过程中由式(5)更新,
w i = w i e ( &alpha; 2 Df | h 2 Dcf ( p fi ) - y i | ) - - - ( 5 ) .
5.根据权利要求1所述的基于信度组合地图模型的视觉目标跟踪方法,其特征是:所述步骤4)中,当前帧的背景框定义为以目标物体为中心两倍大的区域,但是当物体丢失时,背景框定义为整个帧的区域。
6.根据权利要求1所述的基于信度组合地图模型的视觉目标跟踪方法,其特征是:所述步骤6)中,候选窗口的获取是通过窗口的信度值大于一个设定阈值得到的。
7.根据权利要求1所述的基于信度组合地图模型的视觉目标跟踪方法,其特征是:所述步骤7)中,信度组合地图的匹配值是基于组合地图的编辑距离计算的,编辑距离越小,信度组合地图越相似;目标定位方法是由当前帧与前帧信度组合地图的匹配度和自适应阈值比较得到的,即:
a.如当前帧没有候选窗口超过阈值,则将背景框扩散到整个帧重新检测,如果跟踪器仍然没有找到目标物体,将跟踪器状态确定为“丢失”,否则跟踪器状态更新为“找到”;
b.如果有多个候选窗口超过阈值,取最大信度值的候选窗口为当前目标,跟踪器状态更新为“找到”;
c.如果仅有一个候选窗口超过阈值,则此窗口为当前目标,跟踪器状态更新为“找到”。
8.根据权利要求1所述的基于信度组合地图模型的视觉目标跟踪方法,其特征是:所述步骤8)中,在组合地图的匹配过程中会产生匹配对,当匹配对的信度值大于某一阈值时,将当前帧中的匹配特征归为更新样本库;样本更新过程包括析取分类器的更新、信度图模型的更新、阈值的更新。
CN201410714033.2A 2014-11-28 2014-11-28 基于信度组合地图模型的视觉目标跟踪方法 Pending CN104463909A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410714033.2A CN104463909A (zh) 2014-11-28 2014-11-28 基于信度组合地图模型的视觉目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410714033.2A CN104463909A (zh) 2014-11-28 2014-11-28 基于信度组合地图模型的视觉目标跟踪方法

Publications (1)

Publication Number Publication Date
CN104463909A true CN104463909A (zh) 2015-03-25

Family

ID=52909891

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410714033.2A Pending CN104463909A (zh) 2014-11-28 2014-11-28 基于信度组合地图模型的视觉目标跟踪方法

Country Status (1)

Country Link
CN (1) CN104463909A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105654139A (zh) * 2015-12-31 2016-06-08 北京理工大学 一种采用时间动态表观模型的实时在线多目标跟踪方法
CN106780558A (zh) * 2016-12-27 2017-05-31 成都通甲优博科技有限责任公司 基于计算机视觉的点生成无人机目标初始跟踪框的方法
CN106960568A (zh) * 2015-12-17 2017-07-18 国际商业机器公司 产生基于不确定性的交通拥堵指数的方法、介质和系统
CN109919974A (zh) * 2019-02-21 2019-06-21 上海理工大学 基于r-fcn框架多候选关联的在线多目标跟踪方法
CN113298904A (zh) * 2021-05-28 2021-08-24 内蒙古工业大学 一种基于单目视觉的定位与地图构建方法
CN113470071A (zh) * 2021-07-01 2021-10-01 哈尔滨工程大学 一种两层级联红外行人跟踪方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103985143A (zh) * 2014-05-30 2014-08-13 上海交通大学 基于字典学习的视频中判别性在线目标跟踪方法
CN104050684A (zh) * 2014-05-27 2014-09-17 华中科技大学 一种基于在线训练的视频运动目标分类方法与系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104050684A (zh) * 2014-05-27 2014-09-17 华中科技大学 一种基于在线训练的视频运动目标分类方法与系统
CN103985143A (zh) * 2014-05-30 2014-08-13 上海交通大学 基于字典学习的视频中判别性在线目标跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ZHU TENG 等: "Disjunctive Normal Form of Weak Classifiers for Online Learning based Object Tracking", 《IN PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON COMPUTER VISION THEORY AND APPLICATIONS (VISAPP-2013)》 *
崔芳园: "基于视频的车辆检测研究与应用", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106960568A (zh) * 2015-12-17 2017-07-18 国际商业机器公司 产生基于不确定性的交通拥堵指数的方法、介质和系统
CN105654139A (zh) * 2015-12-31 2016-06-08 北京理工大学 一种采用时间动态表观模型的实时在线多目标跟踪方法
CN105654139B (zh) * 2015-12-31 2019-04-05 北京理工大学 一种采用时间动态表观模型的实时在线多目标跟踪方法
CN106780558A (zh) * 2016-12-27 2017-05-31 成都通甲优博科技有限责任公司 基于计算机视觉的点生成无人机目标初始跟踪框的方法
CN106780558B (zh) * 2016-12-27 2020-05-12 成都通甲优博科技有限责任公司 基于计算机视觉的点生成无人机目标初始跟踪框的方法
CN109919974A (zh) * 2019-02-21 2019-06-21 上海理工大学 基于r-fcn框架多候选关联的在线多目标跟踪方法
CN113298904A (zh) * 2021-05-28 2021-08-24 内蒙古工业大学 一种基于单目视觉的定位与地图构建方法
CN113298904B (zh) * 2021-05-28 2022-12-02 内蒙古工业大学 一种基于单目视觉的定位与地图构建方法
CN113470071A (zh) * 2021-07-01 2021-10-01 哈尔滨工程大学 一种两层级联红外行人跟踪方法
CN113470071B (zh) * 2021-07-01 2022-05-31 哈尔滨工程大学 一种两层级联红外行人跟踪方法

Similar Documents

Publication Publication Date Title
CN102722725B (zh) 一种基于主动场景学习的对象跟踪方法
CN104112282B (zh) 一种基于在线学习跟踪监控视频中多个运动目标的方法
CN104463909A (zh) 基于信度组合地图模型的视觉目标跟踪方法
CN107145862B (zh) 一种基于霍夫森林的多特征匹配多目标跟踪方法
CN110472467A (zh) 基于YOLO v3的针对交通枢纽关键物体的检测方法
Lookingbill et al. Reverse optical flow for self-supervised adaptive autonomous robot navigation
CN104537673B (zh) 基于多阈值和自适应模糊聚类的红外图像分割方法
Romdhane et al. An improved traffic signs recognition and tracking method for driver assistance system
CN101867699A (zh) 基于分块的非特定目标实时跟踪方法
CN106952293B (zh) 一种基于非参数在线聚类的目标跟踪方法
CN104850865A (zh) 一种多特征迁移学习的实时压缩跟踪方法
CN103593679A (zh) 一种基于在线机器学习的视觉人手跟踪方法
CN109063625A (zh) 一种基于级联深度网络的人脸关键点检测方法
CN107798691B (zh) 一种基于视觉的无人机自主着陆地标实时检测跟踪方法
CN102799900A (zh) 一种基于检测中支持在线聚类学习的对象跟踪方法
Rajeshwari et al. Object detection: an overview
CN105809718B (zh) 一种轨迹熵最小化的对象跟踪方法
CN104616319A (zh) 基于支持向量机的多特征选择目标跟踪方法
CN104615986A (zh) 利用多检测器对场景变化的视频图像进行行人检测的方法
CN102855461A (zh) 在图像中检测手指的方法及设备
CN103886325A (zh) 一种分块的循环矩阵视频跟踪方法
CN104134078A (zh) 一种人流量统计系统中分类器的自动选择方法
CN102831396A (zh) 一种计算机人脸识别方法
CN106296743A (zh) 一种自适应运动目标跟踪方法及无人机跟踪系统
CN104156945A (zh) 基于多目标粒子群算法的灰度图像分割方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20150325