CN103150572B - 在线式视觉跟踪方法 - Google Patents

在线式视觉跟踪方法 Download PDF

Info

Publication number
CN103150572B
CN103150572B CN201210533131.7A CN201210533131A CN103150572B CN 103150572 B CN103150572 B CN 103150572B CN 201210533131 A CN201210533131 A CN 201210533131A CN 103150572 B CN103150572 B CN 103150572B
Authority
CN
China
Prior art keywords
sorter
support vector
target
image block
target area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201210533131.7A
Other languages
English (en)
Other versions
CN103150572A (zh
Inventor
杨田雨
李抱朴
胡超
孟庆虎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhuhai Zhongke advanced technology industry Co.,Ltd.
Original Assignee
Shenzhen Institute of Advanced Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Advanced Technology of CAS filed Critical Shenzhen Institute of Advanced Technology of CAS
Priority to CN201210533131.7A priority Critical patent/CN103150572B/zh
Publication of CN103150572A publication Critical patent/CN103150572A/zh
Application granted granted Critical
Publication of CN103150572B publication Critical patent/CN103150572B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及一种在线式视觉跟踪方法,包括以下步骤进行:(1)、初始化分类器:获取第一帧图像,标示待跟踪目标区域;计算所述目标区域中图像块的类哈尔特征,初始化第一分类器;计算所述目标区域中图像块的二进制编码特征,初始化第二分类器;(2)、自适应跟踪:基于结构化输出的支持向量机,并结合粒子滤波器的跟踪,建立运动模型;(3)、重新捕获目标:利用第一分类器更新训练样本,之后利用第二分类器建立全局网格,进行全局的搜索。本发明提供的在线式视觉跟踪方法,采用两个分类器,第一分类器用于自适应跟踪,第二分类器用于重捕获跟丢的目标,分别解决目标外观变化和目标暂时性消失需重新捕获的问题,无需在跟踪目标前进行大量训练。

Description

在线式视觉跟踪方法
【技术领域】
本发明涉及视觉跟踪技术,具体涉及具有自适应性和重捕获目标的在线式视觉跟踪方法。
【背景技术】
视觉跟踪是计算机视觉领域非常重要的一项研究,视觉跟踪在监控、人机交互、车载导航、视讯索引等方面都有重要的应用。监控方面如刑侦监控,可应用到对监控录像中可疑人员的跟踪,从而协助办案人员追踪可疑人员的踪迹;交通监控方面,视觉跟踪实时跟踪车辆的行驶方向,做出统计数据并给出实时的交通信息,合理管理交通状况;人机交互方面,可以利用对人手的姿势的跟踪识别以及人眼的跟踪来实现人与机器的信息交互;车载导航方面,视觉跟踪主要应用在利用车载摄像头实时跟踪道路上的车辆的行驶状况,对驾驶员的行驶做出辅助性的指示和帮助;同时,视觉跟踪在视讯索引方面也有一定的应用,如对视频中出现的目标进行自动标注等。
但是,视觉跟踪仍有需要解决的问题,主要有以下几个方面,首先是对特定目标的先验知识的要求限制了跟踪的应用范围,传统视觉跟踪要求目标为某一特定类别,如行人、车辆等,而现在应用的需求是不仅仅限于上述某一特定类别,如在人际交互中,机器人对感兴趣的目标的跟踪,由于在机器人的视野中可能出现各种目标是无法预知目标的先验知识,因此需要在线式学习的视觉跟踪。其次,是由于光照、视角变化、形变、旋转等引起的目标外观的变化而造成跟踪的漂移或是丢失。再次,是因遮挡造成的目标暂时性的消失而造成的跟踪的失败。
基于机器学习的跟踪算法可以分为两类:一类为生成模型类的跟踪器(generativetracker),简称生成跟踪器;另一类为判别模型类的跟踪器(discriminativetracker),简称判别跟踪器。生成跟踪器是从统计的角度表示数据的分布情况,能够反映同类数据本身的相似度,即通过输入跟踪目标的外观样本,训练出一个能表示目标外观模型,然后通过检查图像中和该模型相似度最高点区域以确定目标的位置,从而实现跟踪。生成模型类的跟踪器只关注目标外观,不关心决策边界在哪,因此容易产生错误判断,而且学习和计算过程较为复杂。判别跟踪器则既考虑目标的外观(前景),又考虑背景,并将前景和后景相结合,训练分类器。判别模型类的跟踪器通过寻找不同类别之间的最优分类面,反映的是异类数据之间的差异,即通过学习过程,找到一个决策边界把目标和背景分离开来,其优点在于分类边界更灵活,相比于使用纯概率方法或生成模型类的跟踪器更有区分性,能清晰的分辨出多类或某一类与其他类之间的差异特征;在目标外观发生视角变化、部分遮挡、尺度改变时效果较好;且判别模型的性能比生成模型要简单,较容易学习。判别模型类的跟踪器也存在一定缺点:一是不能反映训练数据本身的特性,即只能判断是哪一类,不能把目标的外观描述出来;二是缺少生成模型类的跟踪器的优点,即先验结构的不确定性。
目前,生成跟踪器的算法已有人提出,其为特征值跟踪方法。该方法基于特征空间表示的方法,认为目标的外观由基本的特征向量构成正交基,通过线性组合的方法来近似还原出目标的外观,因此,该方法需要用大量的训练样本训练出上述的正交基,构成一个目标的外观特征空间,然后判断帧图像中和此空间组成的目标外观相似的区域的位置,从而实现跟踪。该方法的优点在于不需要把目标所有可能出现的外观状态都表示出来,只需要把能产生目标外观的各个外观的特征向量基找出即可,故对适应目标外观的变换有一定的优势。但该方法由于属于生成跟踪器的算法,在训练过程中未考虑背景的因素,导致在背景较复杂的场景中跟踪效果并不理想。需说明的是,特征值跟踪不是在线更新学习过程。类似算法的例子还有一种增量学习的在线式视觉(IVT)跟踪算法,该方法基于特征值跟踪把视觉跟踪转化成基于蒙塔卡罗方法的状态推理过程,在线更新特征空间应用粒子滤波从而使其具有一定的鲁棒性;与现有的增量子空间方法相比,该方法提出了新的奇异值分解方法,能更好的更新特征空间的均值和特征向量。类似的还有多子空间的模型,即离线建立一定数量的子空间,然后利用新的样本进行在线更新以及非线性流形的学习方法,即采用多个特征空间来表示目标的外观。从上述罗列的算法中,可以看出,生成跟踪器就是充分利用目标的外观特征,选择适当的模型去模拟目标的外观变化,以图片中样本和外观模型的相似程度来判断目标的具体位置。而生成跟踪器这种方法的缺点也是很明显的,即没有充分利用背景的信息,使区分性差,易受到复杂环境的干扰。
判别跟踪器的算法例子也有很多,如在线多示例学习(MIL)的跟踪算法,该方法把跟踪过程分为三个部分:目标特征表示、特征模型、运动模型,采用haar-like(类哈尔)特征表示,以多示例学习方法训练分类器组成特征模型,而运动模型则采用简单的帧间关系,即以上一帧中目标的位置为原点,搜寻某一半径里的下一帧目标的位置。另外,综合跟踪(ET)算法也属于判别模型类的跟踪算法,其主要思想是把图像分为前景像素和背景像素,然后把跟踪看成一个两种像素分类的问题,在线训练一系列的弱分类器,利用AdaBoost(自适应增强算法)生成一个强分类器,从而区分出前景目标的位置。其他类似的算法还有在线选择有区别性的特征的跟踪算法、支持向量机跟踪算法等。在线选择区别性特征算法能较好的区分背景和前景的特征,现有的很多算法自始至终都是基于一个既定的特征进行跟踪,没有实时在线的挑选跟踪的特征,在线选择区别性特征算法的基本步骤是,首先给出一些列的特征,利用算法实时在线计算出最能表现目标外观的特征,之后继续跟踪;再利用两类方差比计算出区分性最好的特征作为候选;最后利用mean-shift方法对更新的特征进行跟踪。支持向量机跟踪算法结合支持向量机的机器学习方法,采用基于光流法的跟踪算法,由于目标检测实质为分类问题,因此利用支持向量机来进行背景前景的分类,且目标在帧与帧间的较大移动,该算法还采用了金字塔分层模式,通过由粗到细的方法实现分类。
一般而言,判别跟踪器算法比生成跟踪器算法效果好,但当训练样本少时,则恰恰相反,因此有人提出了结合上述两个分类的方法,利用协同训练的方法,用上述两类分类器识别的标记样本来相互训练对方的分类器以达到较好的效果。协同训练基于两类分类器的训练特征相互独立,即特征被分为两类且分别被两种分类器训练,之后利用各个分类器得出的标记样本来在线训练对方的分类。但是上述算法的实时性很差,跟踪的速率大约是2帧/秒。其他的类似结合两类模型的跟踪算法大都是利用判别跟踪算法的可区分性训练来得出一个更有效的生成跟踪器,通过拟合一个函数来结合两种算法的判别函数,最后求出使得该函数最大的状态,即可得目标的位置,但是,由于这上述结合函数的不对称性,得出的判别函数需要较多的参数来平衡,容易产生不恰当的结合,反而会导致比上述两种分类器更差的效果。
两类分类器的整合需要合适的参数来平衡两类分类器的判别函数,而合适的参数容易受到视频内容变化的影响;而通过协同训练的方法相互训练分类器,避免了参数的调节这一棘手的问题,但算法的实时性很难得到保证,而且两类分类器同时训练运算量将非常大,因此,如何有效的减小运算量是成为需要解决的问题。
【发明内容】
本发明要解决的技术问题在于解决现有技术存在跟踪目标前需大量训练,训练运算量大的问题。
为此,本发明一方面提供一种在线式视觉跟踪方法,包括以下步骤进行:
(1)、初始化分类器:获取第一帧图像,标示待跟踪目标区域;计算所述目标区域中图像块的类哈尔特征,初始化第一分类器;计算所述目标区域中图像块的二进制编码特征,初始化第二分类器;
(2)、自适应跟踪:基于结构化输出的支持向量机,并结合粒子滤波器的跟踪,建立运动模型;
(3)、重新捕获目标:利用第一分类器更新训练样本,之后利用第二分类器建立全局网格,进行全局的搜索。
进一步地,所述计算所述目标区域中图像块的类哈尔特征,初始化第一分类器的步骤包括,计算哈尔特征值;计算所述图像块的全部哈尔特征向量,利用所述哈尔特征向量初始化第一分类器。
进一步地,所述计算所述目标区域中图像块的二进制编码特征,初始化第二分类器的步骤包括,仿射变换所述图像块;计算所述仿射变换后的图像块的二进制编码特征;以目标区域为基准,创建全局范围内的方框群,用于第二分类器的全局搜索。
进一步地,步骤(2)具体包括,构建粒子滤波器的状态空间:以向量(x,y,s,w,h,C)表示状态空间,其中,(x,y)代表目标区域的点的坐标,w、h分别代表目标区域的宽度和高度,s代表尺度变化,C代表第一分类器;初始化状态空间:初始化x,y,w,h以及分类器,其中,x,y,w,h由第一帧图像标记区域的位置决定;分类器由第一帧图像标记区域内图像块的哈尔特征值训练获得;采用一阶自回归运动模型;建立观察模型:基于结构输出的支持向量机为第一分类器,以判定目标区域的位置,包括测试和训练。
进一步地,所述测试具体为,当获取新的特征向量时,计算所述特征向量与支持向量的加权和,得到判断值,对于判定值最大的特征向量,作为目标区域的正样本,用于第一分类器训练。
进一步地,所述训练包括,
(1)、作为目标区域的正样本的特征向量,将所述特征向量归入支持向量队列中作为正支持向量,以所述正样本的方框为中心构建方框群;(2)、计算方框群中各方框的梯度,选出梯度最小对应的方框,计算梯度最小对应的方框的特征向量,并归入支持向量队列作为相应的负支持向量;(3)、对支持向量队列最小优化;(4)、计算旧的支持向量队列相应的梯度,得到最大和最小的梯度,最大和最小的梯度分别作为正、负支持向量,并进行步骤(3)。
进一步地,所述对支持向量队列最小优化包括,(1)、计算正支持向量与负支持向量的相关度;(2)、更新正支持向量、负支持向量的权重系数;(3)、更新正支持向量、负支持向量对应的梯度值。
进一步地,所述重新捕获目标包括,(1)、初始化分类器,计算全局区域各个方框与标记方框的重叠率;(2)、训练过程中,正样本获取自第一分类器,负样本获取自第一分类器低于阈值方框;(3)、根据二进制码的数值,统计随机厥各个分支下正、负样本的比例;(4)、第二分类器检测与第一分类器跟踪同步,当第二分类器检测到目标位置与第一分类器跟踪的位置不同,则对目标位置重新初始化;(5)、根据所述特征向量与支持向量的加权和,得到判断值,进行整合目标的方框位置。
进一步地,所述训练过程包括,训练和测试,训练,仿射变换正样本图像块,检测阈值范围判定负样本图像块,并计算正样本、负样本的二进制特征值,统计二进制特征值对应的正样本、负样本的数量,并计算正样本的比例;测试,输入新的图像块,计算二进制特征值,匹配二进制特征值对应的正样本的比例,测试判断是否为正样本。
进一步地,所述阈值范围为第二分类器得出的判定值大于0.5,重叠率小于0.2。
本发明提供的在线式视觉跟踪方法,采用两个分类器,第一分类器用于自适应跟踪,第二分类器用于重捕获跟丢的目标,分别解决目标外观变化和目标暂时性消失需重新捕获的问题,无需在跟踪目标前进行大量训练,同时,有效地把支持向量机和粒子滤波器结合,提出了有效的运动模型搜索策略,使得目标的跟踪具有尺度可变性,从而保证跟踪分类器的分类效果不受错误样本训练的影响。
【附图说明】
图1示出本发明在线式视觉跟踪方法的类哈尔特征值的示意图。
图2示出本发明在线式视觉跟踪方法的图像块内类哈尔特征的分布图。
图3示出本发明在线式视觉跟踪方法的二进制特征的示意图。
图4示出本发明在线式视觉跟踪方法的正样本、负样本的方框群的分布图。
【具体实施方式】
本发明的技术方案提供一种在线式视觉跟踪方法,包括以下步骤进行:
S1、初始化分类器:步骤S11、获取第一帧图像,标示待跟踪目标区域;步骤S12、计算上述目标区域中图像块的类哈尔特征,初始化第一分类器;步骤S13、计算上述目标区域中图像块的二进制编码特征,初始化第二分类器;
S2、自适应跟踪:基于结构化输出的支持向量机,并结合粒子滤波器的跟踪,建立运动模型;
S3、重新捕获目标:利用第一分类器更新训练样本,之后利用第二分类器建立全局网格,进行全局的搜索。
本发明提供的在线式视觉跟踪方法,采用两个分类器,第一分类器用于自适应跟踪,第二分类器用于重捕获跟丢的目标,分别解决目标外观变化和目标暂时性消失需重新捕获的问题,无需在跟踪目标前进行大量训练,同时,有效地把支持向量机和粒子滤波器结合,提出了有效的运动模型搜索策略,使得目标的跟踪具有尺度可变性,从而保证跟踪分类器的分类效果不受错误样本训练的影响。
上述步骤S12中计算上述目标区域中图像块的类哈尔特征,初始化第一分类器包括,步骤S121:计算哈尔特征值,如图1所示,其中,a、b、c、d、e五个哈尔特征值是黑色区域像素值的和与白色区域像素值的和的加权值,f哈尔特征值是整个框的像素之和与白色区域的像素值和的加权值,上述六个哈尔特征的权值分别为(1,-1)、(1,-1)、(1,-2,1)、(1,-2,1)、(1,1,-1,-1)、(1,-4),由此得到六个哈尔特征值。
步骤S122:计算上述图像块的全部哈尔特征向量,利用上述哈尔特征向量初始化第一分类器。如图2所示,把上述图像块区域分成4×4网格点,以每个网格点为中心,计算该网格点的位置上两个尺寸下对应的六个哈尔特征值,上述两个尺寸分别是图像块大小的0.2和0.4倍,即得到4×4×2×6=192个特征值,构成一个哈尔特征向量,之后利用该哈尔特征向量初始化训练第一分类器。
上述第一、第二分类器的初始化,使得第一、第二分类器对后续图像帧中目标的位置能得到准确的判断。
上述步骤S13中计算上述目标区域中图像块的二进制编码特征,初始化第二分类器的步骤包括,步骤S131、仿射变换所述图像块;随机生成200幅仿射变换后的图像块,其中偏移变化范围±1%,尺度偏移变化范围±1%,角度变化范围为±10%。
步骤S132、计算上述仿射变换后的图像块的二进制编码特征;如图3所示,在图像块的方框内随机选取130个点对,比较点对的像素值的大小,大于则编码为1,小于编码为0,由此构成一个130位二进制编码作为特征值,即图像块的二进制编码特征。例如,第一像素的值为I(A),第二像素的值为I(B),如果I(A)>I(B),则编码为1,反之为0。
步骤S133、以目标区域为基准,创建全局范围内的方框群,用于第二分类器的全局搜索。具体为:尺度倍数为:1.2i,其中i=-10,-9……-2,-1,0,1,2,……9,10共21个尺度,方框每次移动的距离为当前尺度下方框长宽的最小值的0.1倍。
其中,步骤S2具体包括,步骤S21、构建粒子滤波器的状态空间:以向量(x,y,s,w,h,C)表示状态空间,其中,(x,y)代表目标区域的点的坐标,w、h分别代表目标区域的宽度和高度,s代表尺度变化,C代表第一分类器。
步骤S22、初始化状态空间:初始化x,y,w,h以及分类器,其中,x,y,w,h由第一帧图像标记区域的位置决定;分类器由第一帧图像标记区域内图像块的哈尔特征值训练获得。
步骤S23、采用一阶自回归运动模型;新状态生成的前一状态加上高斯噪声,具体的公式表达如下:
v x , t = v x , t - 1 + G ( 0 , σ x 2 )
v y , t = v y , t - 1 + G ( 0 , σ y 2 )
xt=xt-1+vx,t
yt=yt-1+vy,t
s t = s t - 1 + G ( 0 , σ s 2 )
wt=wt-1*st
ht=ht-1*st
其中,vx,t是x的速率,vv,t是y的速率,σx、σy、σs分别是x、y速率和s的高斯噪声方差,且σx=σy=10,σs=0.01。
步骤S24、建立观察模型:基于结构输出的支持向量机为第一分类器,以判定目标区域的位置,包括测试和训练。
判断函数:其中βi是各个支持向量的权重,Φ()是特征向量到高维空间的映射,x是测试特征向量,xi是支持向量。
特征向量相对于支持向量的梯度:g(x)=-loss(x,xi)-F(x),loss(x,xi)为x特征向量对应方框与正支持向量xi对应的方框的重叠率,表示如下:
所述测试具体为,当获取新的特征向量时,计算所述特征向量与支持向量的加权和,得到判断值,对于判定值最大的特征向量,作为目标区域的正样本,用于第一分类器训练。
所述训练包括:
步骤S241、作为目标区域的正样本的特征向量,将所述特征向量归入支持向量队列中作为正支持向量,以所述正样本的方框为中心构建方框群;具体为以该正样本的方框为中心,以一定半径(如30像素点),平均分配各个角度以及半径上的距离构成一个方框群,如图4所示,中间点为正样本方框的中心,
周围的点是其他方框群的中心。
步骤S242、计算方框群中各方框的梯度,选出梯度最小对应的方框,计算梯度最小对应的方框的特征向量,并归入支持向量队列作为相应的负支持向量;选择最大的梯度作为正支持向量,是基于新的特征向量中重叠率为0,初始化的权重系数也为0。
步骤S243、对支持向量队列最小优化;包括(1)、计算正支持向量与负支持向量的相关度;即分别计算k1、k2、k3三个值,x+代表正支持向量,x-代表负支持向量。
k1=Φ(x+)*Φ(x+)
k2=Φ(x-)*Φ(x-)
k3=Φ(x+)*Φ(x-)
(2)、更新正支持向量、负支持向量的权重系数;
λ = g ( x + ) - g ( x - ) k 1 + k 2 - k 3
其中,g(x)代表梯度。
μ=min(λ,C*δ(x+,xi)-β+))
其中,C是常数,δ(x+,xi)是判断正支持向量是否与原始未偏移的支持向量相同,相同为1,不相同为0,β+是正支持向量机的权重系数,更新权重:
β+=β+
β-=β-
(3)、更新正支持向量、负支持向量对应的梯度值。对于每个支持向量,计算其与x+和x-的内积用于更新每个支持向量对应的梯度值。
kj,+=Φ(xj)*Φ(x+)
kj,-=Φ(xj)*Φ(x-)
gj=gj-λ(kj,,+-kj,-)
步骤S244、计算旧的支持向量队列相应的梯度,得到最大和最小的梯度,最大和最小的梯度分别作为正、负支持向量,并进行步骤S243。
具体而言,粒子滤波器运行参照如下的步骤:
1)、上一帧各个粒子通过运动模型产生不同的状态空间,对应即多个目标可能出现的方框位置,之后计算上述方框中图像块的哈尔特征向量。
2)、第一分类器将哈尔特征向量与支持向量进行加权求和F(x),得出一系列的判定值,取判定值中最大的值作为目标预测位置。
3)、将预测位置的方框区域的哈尔特征向量用于第一分类器的更新训练中,并同步进行跟踪,使分类器的分类效果逐渐增强。
4)、基于当前帧的目标的预测位置进行重采样,即选取判定值中前10个方框为基准,按照判定值的比例,分配下一次跟踪各个粒子的状态空间,通过运动模型,各个粒子产生新的状态空间,重新执行步骤1)以循环执行该过程。
此外,还包括一模板匹配的步骤,其负责截取每帧图像中较可靠的图像块组成图像块的集合,并以此作为后续第一分类器得出的图像块是否可靠的标准,当模板匹配的值大于0.65时,则把该图像块用于第二分类器的训练更新。
本发明提出了模板匹配部分对所有的支持向量对应的图像块进行比较,得出匹配较差的支持向量进行剔除。这样可以保证后续跟踪中不受前面错误训练更新的影响。
步骤S3中所述重新捕获目标包括:
步骤S31、初始化分类器,计算全局区域各个方框与标记方框的重叠率;利用初始化过程中得到的标记图像块的二进制特征作为正样本训练,计算全局区域各个方框与标记方框的重叠率,例如,可以将低于0.2的100个方框的图像块用于负样本训练;
步骤S32、训练过程中,正样本获取自第一分类器,负样本获取自第一分类器低于阈值方框,本发明设定阈值为重叠率低于0.2;亦即,训练过程正样本的获取是来自第一分类器的可靠样本,负样本的获取是第二分类器得出的判定值大于0.5且与正样本的重叠率小于0.2的方框。
步骤S33、根据二进制码的数值,统计随机厥各个分支下正、负样本的比例;并在测试中,当输入图像块的二进制码对应的分支正样本的比例大于0.6,即判断为正样本。其中,随机厥就是通过判断条件,把输入的正、负样本分到不同的分支,然后计算各个分支中正、负样本的比例。
步骤S34、第二分类器检测与第一分类器跟踪同步,当第二分类器检测到目标位置与第一分类器跟踪的位置不同,则对目标位置重新初始化;具体而言,第二分类器的检测是和第一分类器跟踪同步进行,即随时检测目标可能出现的位置,当检测到一个目标位置和第一分类器跟踪的位置不同时,判定第一分类器发生了跟踪偏移,此时需要对对目标的位置重新初始化。因此,第二分类器2负责实时的纠正分类器的错误,当跟踪目标被部分遮挡时,第一分类器利用其自适应性仍能应对其外观的变化;当出现全遮挡时,第一分类器跟踪丢失,而当目标再次出现时,第二分类器负责检测到目标并把位置初始化给第一分类器,继续跟踪。
步骤S35、根据所述特征向量与支持向量的加权和,得到判断值,进行整合目标的方框位置。由于分类器可能得到的目标位置会很多,因此综合判断值前十个目标的方框,并按照比例进行整合最后目标的方框位置,如第一分类器得到的目标方框∶第二分类器得到的目标方框=10∶1。
上述步骤中,训练过程包括,训练和测试。
训练,仿射变换正样本图像块,检测阈值范围判定负样本图像块,并计算正样本、负样本的二进制特征值,统计二进制特征值对应的正样本、负样本的数量,并计算正样本的比例。其中,所述阈值范围为,第二分类器得出的判定值大于0.5,重叠率小于0.2。
测试,输入新的图像块,计算二进制特征值,匹配二进制特征值对应的正样本的比例,测试判断是否为正样本。
进一步,本发明的第一分类器可以用其他类似的自适应性较强的分类器替代,如自适应增强算法(AdaBoost);第二分类器可以用其他计算速度较快的机器学习算法代替,如随机森林法。
本发明提供的在线式视觉跟踪方法,该方法具有很好的自适应性,可以适应目标外观的多重变化,当出现目标跟踪失败时,又具有重新检测到目标的能力,且该方法是在线式的,即不需要指定特定物体,对视频中没有先验知识的任意物体具有较好的跟踪能力。
自适应跟踪对应的第一分类器把可靠的样本拿来训练负责重新捕捉的第二分类器,这样就可以避免自学习造成的错误样本的更新。
采用本发明的技术方案,只要第二分类器没有检测到目标在远离现在位置的地方出现,则判定第一分类器的自适应跟踪式正确,当第二分类器检测到目标的位置时,对分类器进行重新初始化位置,继续跟踪。这样可以既适应目标外观的较大变化,又不至于因为遮挡等原因使得目标跟踪偏移后无法再次跟踪目标。并有效地把支持向量机和粒子滤波器结合,提出了有效的运动模型搜索策略,使得目标的跟踪具有尺度可变性。其中,尺度可变,即指方框的大小随着目标离镜头的远近而造成的大小变化而变化。同时,还提供了改进错误更新训练的机制,对于重新初始化前的支持向量更新进行模板匹配的比较,剔除匹配度较低的支持向量,从而保证跟踪分类器的分类效果不受错误样本训练的影响。
以上所述本发明的具体实施方式,并不构成对本发明保护范围的限定。任何根据本发明的技术构思所作出的各种其他相应的改变与变形,均应包含在本发明权利要求的保护范围内。

Claims (6)

1.一种在线式视觉跟踪方法,其特征在于,包括以下步骤进行:
(1)、初始化分类器:
获取第一帧图像,标示待跟踪目标区域;
计算所述目标区域中图像块的类哈尔特征,初始化第一分类器;
计算所述目标区域中图像块的二进制编码特征,初始化第二分类器;
(2)、自适应跟踪:基于结构化输出的支持向量机,并结合粒子滤波器的跟踪,建立运动模型;
(3)、重新捕获目标:利用第一分类器更新训练样本,之后利用第二分类器建立全局网格,进行全局的搜索;
步骤(2)具体包括,
构建粒子滤波器的状态空间:以向量(x,y,s,w,h,C)表示状态空间,其中,(x,y)代表目标区域的点的坐标,w、h分别代表目标区域的宽度和高度,s代表尺度变化,C代表第一分类器;
初始化状态空间:初始化x,y,w,h以及分类器,其中,x,y,w,h由第一帧图像标记区域的位置决定;分类器由第一帧图像标记区域内图像块的哈尔特征值训练获得;
采用一阶自回归运动模型;
建立观察模型:基于结构输出的支持向量机为第一分类器,以判定目标区域的位置,包括测试和训练;
所述计算所述目标区域中图像块的类哈尔特征,初始化第一分类器的步骤包括,
计算哈尔特征值;
计算所述图像块的全部哈尔特征向量,利用所述哈尔特征向量初始化第一分类器;
所述计算所述目标区域中图像块的二进制编码特征,初始化第二分类器的步骤包括,
仿射变换所述图像块;
计算所述仿射变换后的图像块的二进制编码特征;
以目标区域为基准,创建全局范围内的方框群,用于第二分类器的全局搜索;
所述重新捕获目标包括,
(1)、初始化分类器,计算全局区域各个方框与标记方框的重叠率;
(2)、训练过程中,正样本获取自第一分类器,负样本获取自第一分类器低于阈值方框;
(3)、根据二进制码的数值,统计随机厥各个分支下正、负样本的比例;
(4)、第二分类器检测与第一分类器跟踪同步,当第二分类器检测到目标位置与第一分类器跟踪的位置不同,则对目标位置重新初始化;
(5)、根据特征向量与支持向量的加权和,得到判断值,进行整合目标的方框位置。
2.根据权利要求1所述的在线式视觉跟踪方法,其特征在于,所述测试具体为,当获取新的特征向量时,计算所述特征向量与支持向量的加权和,得到判断值,对于判定值最大的特征向量,作为目标区域的正样本,用于第一分类器训练。
3.根据权利要求2所述的在线式视觉跟踪方法,其特征在于,所述训练包括,
(1)、作为目标区域的正样本的特征向量,将所述特征向量归入支持向量队列中作为正支持向量,以所述正样本的方框为中心构建方框群;
(2)、计算方框群中各方框的梯度,选出梯度最小对应的方框,计算梯度最小对应的方框的特征向量,并归入支持向量队列作为相应的负支持向量;
(3)、对支持向量队列最小优化;
(4)、计算旧的支持向量队列相应的梯度,得到最大和最小的梯度,最大和最小的梯度分别作为正、负支持向量,并进行步骤(3)对支持向量队列最小优化。
4.根据权利要求3所述的在线式视觉跟踪方法,其特征在于,所述对支持向量队列最小优化包括,
(1)、计算正支持向量与负支持向量的相关度;
(2)、更新正支持向量、负支持向量的权重系数;
(3)、更新正支持向量、负支持向量对应的梯度值。
5.根据权利要求1所述的在线式视觉跟踪方法,其特征在于,所述训练过程包括,训练和测试,
训练,仿射变换正样本图像块,检测阈值范围判定负样本图像块,并计算正样本、负样本的二进制特征值,统计二进制特征值对应的正样本、负样本的数量,并计算正样本的比例;
测试,输入新的图像块,计算二进制特征值,匹配二进制特征值对应的正样本的比例,测试判断是否为正样本。
6.根据权利要求5所述的在线式视觉跟踪方法,其特征在于,所述阈值范围为第二分类器得出的判定值大于0.5,重叠率小于0.2。
CN201210533131.7A 2012-12-11 2012-12-11 在线式视觉跟踪方法 Active CN103150572B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210533131.7A CN103150572B (zh) 2012-12-11 2012-12-11 在线式视觉跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210533131.7A CN103150572B (zh) 2012-12-11 2012-12-11 在线式视觉跟踪方法

Publications (2)

Publication Number Publication Date
CN103150572A CN103150572A (zh) 2013-06-12
CN103150572B true CN103150572B (zh) 2016-04-13

Family

ID=48548634

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210533131.7A Active CN103150572B (zh) 2012-12-11 2012-12-11 在线式视觉跟踪方法

Country Status (1)

Country Link
CN (1) CN103150572B (zh)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104281852A (zh) * 2013-07-11 2015-01-14 上海瀛联体感智能科技有限公司 一种基于融合2d检测的目标跟踪算法
CN103617433A (zh) * 2013-12-02 2014-03-05 西北工业大学 基于简化直推式学习法的在线目标跟踪方法
CN105447435A (zh) * 2014-09-29 2016-03-30 株式会社理光 对象跟踪方法和设备、跟踪特征选择方法
EP3156952A1 (en) 2015-10-17 2017-04-19 Tata Consultancy Services Limited Goals standardization for performance appraisal
CN107273923B (zh) * 2017-06-02 2020-09-29 浙江理工大学 一种纺织面料摩擦声波辨别器的构建方法
CN108107913A (zh) * 2017-10-31 2018-06-01 深圳市博鑫创科科技有限公司 一种平衡车前置跟踪方法和系统
CN108416376B (zh) * 2018-02-27 2021-03-12 北京东方天得科技有限公司 一种基于svm的在途物流人车跟踪监控管理系统及方法
CN108898616A (zh) * 2018-05-14 2018-11-27 上海狮尾智能化科技有限公司 低帧率视频目标检测和跟踪方法及其在无人机中的应用
CN108921872B (zh) * 2018-05-15 2022-02-01 南京理工大学 一种适用于长程跟踪的鲁棒性视觉目标跟踪方法
CN109472767B (zh) * 2018-09-07 2022-02-08 浙江大丰实业股份有限公司 舞台灯具缺失状态分析系统
CN109743497B (zh) * 2018-12-21 2020-06-30 创新奇智(重庆)科技有限公司 一种数据集采集方法、系统及电子装置
CN110033473B (zh) * 2019-04-15 2021-04-20 西安电子科技大学 基于模板匹配和深度分类网络的运动目标跟踪方法
CN112102356B (zh) * 2019-06-18 2024-07-02 北京七鑫易维科技有限公司 一种目标跟踪方法、装置、终端设备及存储介质
CN112926689B (zh) * 2021-03-31 2024-07-12 珠海格力电器股份有限公司 目标的定位方法、装置、电子设备及存储介质
CN115578605B (zh) * 2022-11-16 2023-04-07 北京阿丘科技有限公司 基于增量学习的数据分类方法、装置、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102592135A (zh) * 2011-12-16 2012-07-18 温州大学 融合目标空间分布和时序分布特征子空间的视觉跟踪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8335348B2 (en) * 2009-12-14 2012-12-18 Indian Institute Of Technology Bombay Visual object tracking with scale and orientation adaptation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102592135A (zh) * 2011-12-16 2012-07-18 温州大学 融合目标空间分布和时序分布特征子空间的视觉跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Real-Time Human Detection Using Contour Cues;Jianxin Wu;《In Robotics and Automation(ICRA)》;20110513;第861-865页 *
基于粒子滤波和在线支持向量机的目标跟踪新方法;郑建宾;《电脑知识与技术》;20081115;第4卷(第5期);第1190-1193页 *

Also Published As

Publication number Publication date
CN103150572A (zh) 2013-06-12

Similar Documents

Publication Publication Date Title
CN103150572B (zh) 在线式视觉跟踪方法
CN104183127B (zh) 交通监控视频检测方法和装置
CN104200657B (zh) 一种基于视频和传感器的交通流量参数采集方法
CN103020986B (zh) 一种运动目标跟踪方法
CN101558996B (zh) 基于人体运动结构正投影三维重建的步态识别方法
CN103632382B (zh) 一种基于压缩感知的实时多尺度目标跟踪方法
CN111563469A (zh) 一种不规范停车行为识别方法及装置
CN103049751A (zh) 一种改进的加权区域匹配高空视频行人识别方法
CN103077423B (zh) 基于视频流的人群数量估计、局部人群聚集状态以及人群跑动状态检测方法
CN104008370A (zh) 一种视频人脸识别方法
CN105205486A (zh) 一种车标识别方法及装置
CN104318258A (zh) 一种基于时域模糊和卡尔曼滤波器的车道线检测方法
CN106570490B (zh) 一种基于快速聚类的行人实时跟踪方法
CN105608431A (zh) 一种基于车辆数目与车流速度的高速公路拥堵检测方法
CN103473539A (zh) 步态识别方法和装置
CN103593679A (zh) 一种基于在线机器学习的视觉人手跟踪方法
CN105426858A (zh) 一种基于视觉和振动信息融合的地面类型辨识方法
CN102169631A (zh) 基于流形学习的交通拥堵事件协同检测方法
CN107085703A (zh) 融合脸部检测与跟踪的汽车乘员计数方法
CN108090457A (zh) 一种基于视频的机动车不礼让行人检测方法
CN109636834A (zh) 基于tld改进算法的视频车辆目标跟踪算法
CN104123714A (zh) 一种人流量统计中最优目标检测尺度的生成方法
CN108520528A (zh) 基于改进差分阈值和位移匹配模型的移动车辆跟踪方法
CN104077591A (zh) 电脑智能自动监控系统
Cheng et al. A multi-feature fusion algorithm for driver fatigue detection based on a lightweight convolutional neural network

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20200703

Address after: Office building of Shenzhen Institute of advanced technology A-207 518000 in Guangdong city of Shenzhen province Nanshan District City Road No. 1068 Chinese Academy of Shenzhen University Academy of Sciences

Patentee after: Shenzhen advanced science and technology Cci Capital Ltd.

Address before: 1068 No. 518055 Guangdong city in Shenzhen Province, Nanshan District City Xili University School Avenue

Patentee before: SHENZHEN INSTITUTES OF ADVANCED TECHNOLOGY CHINESE ACADEMY OF SCIENCES

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20201104

Address after: 519000 the 12 floor of A District, No. 1, Port Road, Tangjia Bay, Zhuhai High-tech Zone, Guangdong.

Patentee after: ZHUHAI INSTITUTE OF ADVANCED TECHNOLOGY CHINESE ACADEMY OF SCIENCES Co.,Ltd.

Address before: Office building of Shenzhen Institute of advanced technology A-207 518000 in Guangdong city of Shenzhen province Nanshan District City Road No. 1068 Chinese Academy of Shenzhen University Academy of Sciences

Patentee before: Shenzhen advanced science and technology Cci Capital Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210420

Address after: Room 1102, building 5, Longyuan intelligent industrial park, No.2, hagongda Road, Tangjiawan Town, high tech Zone, Zhuhai City, Guangdong Province, 519000

Patentee after: Zhuhai Zhongke advanced technology industry Co.,Ltd.

Address before: 519000 the 12 floor of A District, No. 1, Port Road, Tangjia Bay, Zhuhai High-tech Zone, Guangdong.

Patentee before: ZHUHAI INSTITUTE OF ADVANCED TECHNOLOGY CHINESE ACADEMY OF SCIENCES Co.,Ltd.