CN104281852A - 一种基于融合2d检测的目标跟踪算法 - Google Patents
一种基于融合2d检测的目标跟踪算法 Download PDFInfo
- Publication number
- CN104281852A CN104281852A CN201310291434.7A CN201310291434A CN104281852A CN 104281852 A CN104281852 A CN 104281852A CN 201310291434 A CN201310291434 A CN 201310291434A CN 104281852 A CN104281852 A CN 104281852A
- Authority
- CN
- China
- Prior art keywords
- target object
- requirement
- tracking
- positive
- subimage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种融合2D检测方法的实时目标跟踪算法。所述方法包括:建立目标物体在当前背景下的外观模型,使用基于LK稀疏光流的方法对目标物体进行连续跟踪,利用目标物体的外观模型在画面中检测手掌的位置,以及融合跟踪与检测步骤的结果,以得到更为可靠、准确的目标物体位置。本发明提出的基于级联型分类器,半自动的线下训练方式,以及能够同时融合跟踪结果的检测方法克服了传统的单纯基于分类器的检测方法较难应付目标物体形变、训练过程中需要大量的手工标记,以及传统跟踪算法的“退化问题”。
Description
技术领域
本发明属于机器视觉相关技术领域,更具体的,涉及一种融合2D检测方法的实时目标跟踪算法。
背景技术
在计算机视觉领域里,实时运动目标的跟踪是一个核心的研究方向。广泛应用于视频监控,自然人机接口,增强现实,军事制导等领域。因此,如何实现对运动稳定、准确和实时的跟踪,是一个需要重点研究的问题。
传统的运动目标跟踪算法存在如下一些问题:1)事先需要初始化跟踪器,即标记目标在画面里的位置,而后跟踪算法才能开始工作;2)目标物体在画面中消失时,跟踪器不能及时感知;3)目标物体在画面中消失,再出现时,需要重新初始化;4)在跟踪过程中,由于误差是随时间累积的,因而跟踪算法极易出现“退化”现象。
由于传统的跟踪算法存在如上限制,人们提出了通过在线下训练目标物体外观统计模型,从而为跟踪器提供初始标记的方法。但是线下有监督学习往往需要大量的手工标记工作,并且鲁棒性不强,对光线、背景、目标物体形变等的适应能力较弱,因而很难得到实际应用。
发明内容
为解决上述由有监督学习带来的问题。本发明公开了一种线下半自动训练级联型分类器的方法,解决跟踪算法需要初始化和“退化”问题。
为了达到上述目的,本发明采用如下技术方案:
S1:通过线下学习,建立目标物体在当前背景下的外观模型,得到的模型会在S3中用于目标物体的检测。S1中的线下学习,是一种半自动的学习方法,即用户在提供目标物体的初始位置后,学习机构会自动提供相关特征对应的label,无需用户手动干预。
S2:使用基于LK稀疏光流的方法对目标物体进行连续跟踪。目标物体被表示为一个矩形子图像(patch),S2在连续的两帧图像之间跟踪该patch。
1)首先在当前图像帧It+1里通过LK光流法寻找上一帧图像It里定义的特征点(前向光流);同样在It中寻找前一步在It+1中被前向光流发现的特征点(后向光流)。
2)计算前向光流匹配到的特征点对周围7×7邻域子图像的归一化相关系数。取得到的归一化相关系数集合的中位数。归一化相关系数小于该中位数的点对,被认为是不可靠的匹配,予以滤除。
3)计算后向光流匹配到的特征点对之间的欧几里得距离,取欧式距离集合的中位数。相互之间欧式距离大于该中位数的点对,被认为是不可靠的匹配,同样予以滤除。
4)对上述三步得到的It+1中的点集做依据空间位置聚类分析,若这些点可以聚为一类,则取点集中个点空间横纵坐标的中位数为新的目标物体的位置,否则跟踪失败。
S3利用在步骤S1中得到的目标物体的外观模型,扫描被网格划分的各个patch,对patch进行分类,以检测目标物体的位置。在S3种我们用到了一种级联型的分类方法,以减少运算量。
1)使用高斯混合模型(GMM),提取前景,对被认为是背景的patch不做后续的处理。
2)使用随机森林(RF)分类器,对前景patch进行分类。
3)使用最近邻居(NN)分类器,结合LBP特征,对通过RF的patch进行分类。
4)对通过NN分类的patch,进行聚类,计算聚类中心作为目标物体的位置。
S4依据一定的规则,融合S2跟踪步骤与S3检测步骤的结果,得到更为可靠、准确的手掌位置。
附图说明
图1基于LK光流的跟踪方法流程
图2级联型检测方法流程
图3LBP特征提取示意图
图4检测与跟踪结果的融合规则
具体实施方式
下面对本发明的技术方案做进一步的详细说明:
S1:建立目标物体的外观统计模型。
S1a:在第一帧画面中标记出包含目标物体的矩形框。
S1b:利用滑窗,选择与标记的目标物体最近的10个patch,作为正例:在与目标物体patch重合面积小于目标物体patch面积20%的滑窗集合中随机选择100个patch,作为反例。
S1c:建立目标物体的统计模型。目标物体统计模型的建立包括两个部分,建立用于随机森林分类器的相关参数,以及建立用于最近邻居分类器的样本集合。
随机森林分类器中使用的特征定义如下:
我们使用的随机森林分类器包含10个子分类器,每个子分类器都会维护一个包含213=8192个项的后验概率pi(y|x),其中y∈{0,1},x是一个13×1维二进制值列向量,该向量的具体含义参考S3b。pi(y|x)依据下列公式建立:
其中pos和neg分别表示落入相应x的正例和反例的个数。
在最近邻居分类器中,我们定义两组样本集合,true-positive和false-positive样本集。其中,true-positive样本是指被定义为正例样本,并且按照S3c步骤所述方法得到的置信度小于0.65的一类patch集合,false_positive样本是指被定义为正例样本,并且按照S3c步骤所述方法得到的置信度大于0.5的一类patch集合。我们计算并存储true-positive和false-positive样本集合中各个patch的LBP特征。
S2:使用基于LK光流的方法跟踪手掌。该方法的输入是t时刻的图象It、t+1时刻的图像It+1和时刻包含手掌的矩形框Bt,输出是t+1时刻包含手掌的矩形框Bt+1。其处理流程如图1所示:
S2a:光流跟踪法一般基于特征点进行,本发明中为减少运算量,直接对patch进行网格划分,提取特征点。在patch边缘5个像素以内的区域里,水平方向和竖直方向等距离取10个像素作为特征点。得 到点集Pa={pa1,pa2,pa3…,pa100}。
S2b:利用Lucas-Kanade光流跟踪法在It+1中跟踪点集Pa,得到点集Pb={pb1,pb2,pb3…,Pbm},其中m≤100。
S2c:同上用LK光流法在It中跟踪点集Pb,得到点集Pc={pc1,pc2pc3…,pcn},其中n≤m。
S2d:滤除前两步跟丢的点,得到点集P′a={p′a1,p′a2,p′a3…,p′an},P′b={p′b1,p′b2,p′b3…,p′bn}和Pc={pc1,pc2,pc3…,pcn},注意此时P′a,P′a和Pc中的点按下标一一对应。
S2e:计算P′a和P′b中对应点7×7邻域图像像素的归一化相关系数(NCC),取NCC序列的中值Medncc,7×7邻域对应NCC小于Medncc的点周围像素的相似度较低,被认为是不可靠的,予以滤除。
S2f:计算P′a和Pc中对应点的欧几里得距离,取欧几里得距离序列Medeud。事实上,正确的跟踪结果是与实际采取的是前向跟踪,还是后向跟踪是不相关的,即前向跟踪与后向跟踪生成的应是同一条轨迹。因此,可以认为对应欧几里得距离大于Medeud的点是不可靠的,予以滤除。如果Medeud>10,则认为此轮跟踪的结果是不可靠的,跟踪失败。
S2g:经过上两步,得到点集P″a和P″b,他们分别是It和It+1中的点,并且是一一对应的。P″a和P″b可以被用来计算It+1中手掌空间位置的漂移,以得到Bt+1。Bt+1中心相对Bt中心的漂移为P″a和P″b中对应点空间位置漂移的中值。
S3:在It+1中检测手掌的位置,我们使用了级联型的检测方法,如图2所示:
S3a”对It+1进行基于高斯混合模型(GMM)的背景消去,之后两步的分类不对背景patch作处理,以减少运算量。
S3b:使用随机森林分类器(Random Forest),对patch进行分类。
我们的随机森林分类器包含10个子分类器,每个分类器进行13组像素灰度比较,得到一个13位的二进制编码xt,每个分类器都会维护一个后验概率pi(y|x)。
每个子分类器比较patch中的13组像素点,这13组像素点在patch中的位置是在线下随机生成的并且在整个检测过程中不再变化。
x的每一种状态都会映射到一个后验概率,因此pi(y|x)包含8192个项。S1c步骤中的“更新随机森林分类器”在此处即为,计算13位二进制码,并更新对应的后验概率。
经过特征映射后的后验概率项求和,如果小于50%,则拒绝该patch,否则接受该patch。
S3c:使用最近邻居分类器(NN),对patch进行分类。
1.首先将待分类patch归一化为15×15的norm_patch。提取norm_patch的LBP特征。LBP是一种从纹理局部近邻定义中衍生出来的,具有较强分类能力,较高计算效率的一类特征。本发明中使用的是原始LBP算子。基本LBP算子对图像上每一个像素点用其周围3×3邻域像素点的灰度值对该像素点进行纹理描述。其公式为:
其中,当门限设为0时,每个像素点生成的LBP特征如图3所示。
该像素的LBP特征是二进制值:11001011。
待分类patch依次和true-positive样本集和false-positive样本集中的patch求NCC,得到与true-positive样本集NCC的最大值ncc_max_tp和与false-positive样本集NCC的最大值ncc_max_fp,依据下列公式计算该patch的置信度conf:
置信度conf小于0.65则拒绝该patch。
S3d:对没有被上面三步拒绝的patch,采用k-mean算法进行聚类分析,如果最终得到一个聚类,计算patch的平均位置作为检测到的手掌的位置。两个patch间的距离定义为他们1减去他们重合面积的百分比。
S4:结合一定规则,融合S2和S3的结果,其规则如图4所示。
其中,conf_tracker和conf_detector为相应patch用NN分类输出的conf值。
Claims (11)
1.一种基于融合2D检测的目标跟踪算法,其特征在于,所述方法包括:
建立基于随机森林分类器和最近邻居分类器的目标物体外观统计模型;
在当前帧中跟踪前一帧的目标物体位置;
在当前帧中检测目标物体位置;
融合跟踪与检测的结果。
2.如权利1所要求的建立目标物体的外观模型,其特征在于,更新的信息包括用于随机森林分类器的一组后验概率pi(y|x)以及用于最近邻居分类器的一组true-positive子图像和一组false-positive子图像。
3.根据权利2要求,随机森林分类器包含10组子分类器,每个子分类器维护一个后验概率pi(y|x)。
4.根据权利3要求,用于子分类器的后验概率pi(y|x),其含义是一个13维二进制特征向量是目标物体的概率。
5.根据权利4要求,13维特征向量的计算方法为:在待分类子图像中随机抽取13组点对,各自比较它们之间灰度的大小,以形成该13维二进制向量。
6.根据权利2要求,true-positive样本是指被定义为正例样本,并且按照最近邻居分类器计算出的置信度小于0.65的一类patch集合,false_positive样本是指被定义为正例样本,并且按照最近邻居分类器计算出的置信度大于0.5的一类patch集合。
7.如权利1要求,跟踪目标物体位置,其特征在于,直接提取网格点作为特征点,做前后向的LK光流跟踪,以前后向跟踪前后匹配点周围7×7邻域的归一化相关系数和匹配点间欧式距离序列的中值为阀值,滤除不可靠的特征点以得到当前帧中目标物体的位置。
8.根据权利7要求,并当匹配点间的欧式距离中值小于10时,定义为跟踪失败。
9.如权利1要求,检测目标物体位置,其特征在于,通过基于GMM的前景检测,随机森林分类器和最近邻居分类器构成的级联型检测器检测目标物体的位置。通过K-mean聚类算法获取目标物体的位置。
10.根据权利9要求,随机森林分类器的分类边界为,在10个子分类器中,待分类子图像映射成的13维二进制向量为目标物体的概率和是否大于0.5,大于0.5则被定义为目标物体,否则被定义为背景。
11.根据权利9要求,最近邻居分类器的分类边界为,分别计算待分类子图像与true-positive和false-positive样本集中样本的最大归一化相关系数ncc_max_tp和ncc_max_fp,令:
conf小于0.65则认为该子图像为背景。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310291434.7A CN104281852A (zh) | 2013-07-11 | 2013-07-11 | 一种基于融合2d检测的目标跟踪算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310291434.7A CN104281852A (zh) | 2013-07-11 | 2013-07-11 | 一种基于融合2d检测的目标跟踪算法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104281852A true CN104281852A (zh) | 2015-01-14 |
Family
ID=52256712
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310291434.7A Pending CN104281852A (zh) | 2013-07-11 | 2013-07-11 | 一种基于融合2d检测的目标跟踪算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104281852A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104966307A (zh) * | 2015-07-10 | 2015-10-07 | 成都品果科技有限公司 | 一种基于实时跟踪的ar算法 |
CN107918772A (zh) * | 2017-12-10 | 2018-04-17 | 北京工业大学 | 基于压缩感知理论和gcForest的目标跟踪方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1780672A1 (en) * | 2005-10-25 | 2007-05-02 | Bracco Imaging, S.P.A. | Method of registering images, algorithm for carrying out the method of registering images, a program for registering images using the said algorithm and a method of treating biomedical images to reduce imaging artefacts caused by object movement |
CN102436590A (zh) * | 2011-11-04 | 2012-05-02 | 康佳集团股份有限公司 | 一种基于在线学习的实时跟踪方法及跟踪系统 |
CN102831618A (zh) * | 2012-07-20 | 2012-12-19 | 西安电子科技大学 | 基于霍夫森林的视频目标跟踪方法 |
CN102881022A (zh) * | 2012-07-20 | 2013-01-16 | 西安电子科技大学 | 基于在线学习的遮挡目标跟踪方法 |
CN103105924A (zh) * | 2011-11-15 | 2013-05-15 | 中国科学院深圳先进技术研究院 | 人机交互方法和装置 |
CN103150572A (zh) * | 2012-12-11 | 2013-06-12 | 中国科学院深圳先进技术研究院 | 在线式视觉跟踪方法 |
-
2013
- 2013-07-11 CN CN201310291434.7A patent/CN104281852A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1780672A1 (en) * | 2005-10-25 | 2007-05-02 | Bracco Imaging, S.P.A. | Method of registering images, algorithm for carrying out the method of registering images, a program for registering images using the said algorithm and a method of treating biomedical images to reduce imaging artefacts caused by object movement |
CN102436590A (zh) * | 2011-11-04 | 2012-05-02 | 康佳集团股份有限公司 | 一种基于在线学习的实时跟踪方法及跟踪系统 |
CN103105924A (zh) * | 2011-11-15 | 2013-05-15 | 中国科学院深圳先进技术研究院 | 人机交互方法和装置 |
CN102831618A (zh) * | 2012-07-20 | 2012-12-19 | 西安电子科技大学 | 基于霍夫森林的视频目标跟踪方法 |
CN102881022A (zh) * | 2012-07-20 | 2013-01-16 | 西安电子科技大学 | 基于在线学习的遮挡目标跟踪方法 |
CN103150572A (zh) * | 2012-12-11 | 2013-06-12 | 中国科学院深圳先进技术研究院 | 在线式视觉跟踪方法 |
Non-Patent Citations (1)
Title |
---|
WUAIHONG0309: ""TLD最终学习 文档"", 《百度文库》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104966307A (zh) * | 2015-07-10 | 2015-10-07 | 成都品果科技有限公司 | 一种基于实时跟踪的ar算法 |
CN104966307B (zh) * | 2015-07-10 | 2019-03-01 | 成都品果科技有限公司 | 一种基于实时跟踪的ar方法 |
CN107918772A (zh) * | 2017-12-10 | 2018-04-17 | 北京工业大学 | 基于压缩感知理论和gcForest的目标跟踪方法 |
CN107918772B (zh) * | 2017-12-10 | 2021-04-30 | 北京工业大学 | 基于压缩感知理论和gcForest的目标跟踪方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111401257B (zh) | 一种基于余弦损失在非约束条件下的人脸识别方法 | |
CN103116896B (zh) | 一种基于视觉显著性模型的自动检测跟踪方法 | |
CN104008370B (zh) | 一种视频人脸识别方法 | |
CN102831618B (zh) | 基于霍夫森林的视频目标跟踪方法 | |
CN103530599A (zh) | 一种真实人脸和图片人脸的区别方法和系统 | |
CN107909081B (zh) | 一种深度学习中图像数据集的快速获取和快速标定方法 | |
CN102270308B (zh) | 一种基于五官相关aam模型的面部特征定位方法 | |
CN105574505A (zh) | 一种多摄像机间人体目标再识别的方法及系统 | |
CN103971102A (zh) | 基于手指轮廓和决策树的静态手势识别方法 | |
CN104102920A (zh) | 一种基于形态学多特征融合的害虫图像分类方法及系统 | |
CN103345631B (zh) | 图像特征提取、训练、检测方法及模块、装置、系统 | |
CN103886589A (zh) | 面向目标的自动化高精度边缘提取方法 | |
CN103903013A (zh) | 一种无标记平面物体识别的优化算法 | |
CN105046245A (zh) | 视频人脸检测评价方法 | |
CN104091157A (zh) | 一种基于特征融合的行人检测方法 | |
CN102521565A (zh) | 低分辨率视频的服装识别方法及系统 | |
CN103824090B (zh) | 一种自适应的人脸低层特征选择方法及人脸属性识别方法 | |
Rouhi et al. | A review on feature extraction techniques in face recognition | |
CN103996018A (zh) | 基于4dlbp的人脸识别方法 | |
CN103136516A (zh) | 可见光与近红外信息融合的人脸识别方法及系统 | |
CN106682641A (zh) | 基于fhog‑lbph特征的图像行人识别方法 | |
CN104102904A (zh) | 一种静态手势识别方法 | |
Redondo-Cabrera et al. | All together now: Simultaneous object detection and continuous pose estimation using a hough forest with probabilistic locally enhanced voting | |
CN111191535B (zh) | 基于深度学习的行人检测模型构建方法及行人检测方法 | |
Kim et al. | Autonomous vehicle detection system using visible and infrared camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 200031 Shanghai, Hunan Road, No. 121, building 10, building Applicant after: Shanghai united information Polytron Technologies Inc Address before: 200031 Shanghai, Hunan Road, No. 121, building 10, building Applicant before: SHANGHAI YINGLIAN SOMATOSENSORY INTELLIGENT TECHNOLOGY CO., LTD. |
|
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20150114 |