CN108427960B - 基于改进Online Boosting和卡尔曼滤波器改进的TLD跟踪方法 - Google Patents

基于改进Online Boosting和卡尔曼滤波器改进的TLD跟踪方法 Download PDF

Info

Publication number
CN108427960B
CN108427960B CN201810137216.0A CN201810137216A CN108427960B CN 108427960 B CN108427960 B CN 108427960B CN 201810137216 A CN201810137216 A CN 201810137216A CN 108427960 B CN108427960 B CN 108427960B
Authority
CN
China
Prior art keywords
tracking
classifier
image
target
positive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810137216.0A
Other languages
English (en)
Other versions
CN108427960A (zh
Inventor
陈谋
李轶锟
胡鲲
丁晟辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN201810137216.0A priority Critical patent/CN108427960B/zh
Publication of CN108427960A publication Critical patent/CN108427960A/zh
Application granted granted Critical
Publication of CN108427960B publication Critical patent/CN108427960B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/02Affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种基于改进Online Boosting和卡尔曼滤波器改进的TLD跟踪方法,属于机器视觉、人工智能、人机交互、目标跟踪技术领域。该方法包括如下步骤:(1)初始化:利用选定目标并仿射变换形成的初始样本集初始化改进Online Boosting分类器和P‑N学习器;(2)图像跟踪:选取特征点,用两次L‑K光流法对其进行跟踪,两次跟踪误差与阈值比较,得出跟踪结果;(3)图像检测:经卡尔曼滤波器、方差分类器、Online Boosting分类器、KNN分类器后得出检测器结果;(4)综合跟踪与检测结果:评估跟踪器与检测器结果的置信度,得出最终采用哪一模块结果;(5)在线学习:P‑N学习器用来修正跟踪器、检测器结果,并丰富样本集。本发明可有效克服遮挡问题并提高原方法的速度,同时有效提高检测器精度和鲁棒性。

Description

基于改进Online Boosting和卡尔曼滤波器改进的TLD跟踪 方法
技术领域
本发明涉及一种基于改进Online Boosting(在线级联分类器)和卡尔曼滤波器改进的TLD(Tracking-Learning-Detection跟踪-学习-检测)跟踪方法,属于机器视觉、人工智能、人机交互和目标跟踪技术领域。
背景技术
视频图像跟踪一直是计算机和图像领域所关注的焦点。早期的视频跟踪主要使用的是基于特征匹配的目标跟踪技术,主要利用图像序列中运动目标的明暗、边缘、颜色、纹理和时空上的差异来检测出运动物体的。其中文献(Comaniciu D,Meer P提出的Meanshift:一种对于特征空间分析的鲁棒方法,发表于IEEE模式识别与机器智能方向)和文献(Allen J G,Xu R Y D,Jin J S提出的使用camshift算法和多量化特征空间的对象跟踪,发表于泛悉尼地区研讨会论文集的可视信息处理方向和澳大利亚电脑学会)提出的Meanshift和Camshift跟踪方法是基于颜色特征对目标进行跟踪的,其中Camshift方法是对meanshift方法的改进,其可以克服目标大小和形状的变化对跟踪效果的影响。但是当背景与目标颜色相近时,很容易跟踪失败。还有一种跟踪方法是基于模型的目标跟踪,主要是对目标物体的模型进行预测并利用其对目标进行跟踪,其中文献(Ristic B,ArulampalamS,Gordon N J提出的优于卡尔曼滤波器:粒子滤波器的跟踪应用)利用粒子滤波器对目标物体实现了跟踪,并证明了该方法比之前提出的基于卡尔曼滤波器的跟踪方法效果要好,但此类方法对外观变化和明暗变化的鲁棒性并不是很好。
近年随着计算机技术的快速发展,出现了很多人工智能相关的方法,这也大大促进了机器视觉领域的发展,基于检测的跟踪技术应运而生。文献(Kalal Z,Mikolajczyk K,Matas J提出的跟踪-学习-检测方法发表于IEEE模式识别与机器智能方向)提出的基于检测器和学习器的跟踪方法,该方法可以对单目标进行长时间有效的跟踪,而且可以克服尺度变化、旋转变化、光照变化、部分遮挡对跟踪效果造成的影响。但是当目标被大面积遮挡时该方法对目标跟踪精度严重下降,且当初始跟踪时,样本较少,检测器的鲁棒性较差。
现有TLD方法中检测器为随机蕨分类器,由于集成随机蕨分类器的弱分类器是单个随机蕨分类器。分类图像时,随机蕨分类器只简单地比较N组像素点间的亮度值,得到的结果和训练样本后的统计结果相对比得出分类结果。集成随机蕨分类器的每个弱分类器的训练样本是一样的,而且不管分类对错,样本的权重没有变化。
发明内容
本发明提出了一种基于改进Online Boosting和卡尔曼滤波器改进的TLD跟踪方法,将原TLD方法中检测器的随机蕨分类器改进为一种基于特征的改进Boosting分类器,并加入了卡尔曼滤波器来提高该方法效率,使得方法精度与素的都有提升,这对于跟踪方法的整体性能有很大程度的改善。
本发明为解决其技术问题采用如下技术方案:
一种基于改进Online Boosting和卡尔曼滤波器改进的TLD跟踪方法,包括如下步骤:
(1)初始化
圈定跟踪目标,并进行仿射变换,形成初始正负样本集;利用该样本集初始化改进Online Boosting分类器,对输入样本提取Harr-like和LBP特征,形成一个特征池,利用其训练一个Online Boosting分类器。然后利用初始样本集初始化P-N学习器中的分类器;
(2)图像跟踪
采集下一帧图像,在上一帧图像的选定范围中选取一些特征点,然后对前后两帧图像使用两次L-K光流法对特征点进行跟踪,并计算两次跟踪误差,小于预先设定阈值的特征点被保留下来,并根据跟踪误差得出本次跟踪成功还是失败;
(3)图像检测
将待跟踪图像输入至卡尔曼滤波器,预测目标的大致位置;将缩小范围后的图像通过方差分类器大致区分前景还是背景,并利用初始训练的Online Boosting分类器分类通过方差分类器的前景样本,然后将Online Boosting分类器输出的正样本作为KNN分类器的输入,通过KNN分类器判定的正样本,被认为最终的正样本,否则被认为负样本,最后将检测器形成的正负样本集加入到初始正负样本集中;
(4)综合跟踪与检测结果
根据正负样本集评估跟踪器结果与检测器结果的置信度,得出最终采用哪一模块的结果作为最终结果;若目标移出视场范围,跟踪器将跟踪失败,若检测器也未检测到目标,此时认为视场范围内没有目标;当目标再次移入视场范围时,检测器若检测到目标,便重新初始化跟踪器,让其继续工作;
(5)在线学习
将分类出的正负样本通过P-N学习器,修正跟踪器和检测器的结果,并将学习结果加入到正负样本集中。
本发明的有益效果如下:
(1)本发明可以有效地提高检测器精度和鲁棒性。
①改进Online Boosting分类器输入到每一个弱分类器的训练样本是不一样的。训练样本集是从所有正负样本中提取特征(如Harr-like和LBP(Local Binary Patterns局部二值模式))得到的一个特征池,每个弱分类器从特征池中随机选出一部分样本进行训练,这样在减少计算量的同时可有效避免过拟合。相比原TLD方法中的集成随机蕨分类器,该Boost分类方法针对不同情况下选取的不同特征进行分类,而不是随机产生的网格交点,对光照不敏感且具有尺度和旋转不变性。当跟踪开始时,训练样本较少,分类器过拟合现象比较明显,而基于改进Online Boosting改进的分类方法可有效解决过拟合问题。
②改进Online Boosting分类器先通过不同权重的训练样本训练出M个弱分类器,并从中挑选一个分类错误率最低的,称之为一个选择器。再用该方法产生N个选择器,Boost为一个强分类器。相比原TLD方法中的集成随机蕨分类器,优点在于:在特征池中选择特征,选择出一个最具区分度的特征来做分类,效果较随机产生亮度点做分类的效果要好。
③改进Online Boosting分类器对于每个样本的权重在每次训练中是变化的,即增加分类错误样本的权重而降低分类正确的样本的权重,这对于下次的正确分类是有好处的。
④改进Online Boosting分类器针对不同特征,选择了不同的弱分类器,这个选择是可变的,可选择针对该特征较好的分类器,本发明中针对Haar-like特征运用简单的阈值和贝叶斯决策器来进行分类,而对于LBP(局部二值模式)直方图,用最邻近分类器来进行分类。对于特征的选择亦是动态的,当目标的Haar-like特征变化较大时,运用Haar-like特征,而LBP特征变化较大时,运用LBP特征。运用了特征的分类器对光照、尺度、旋转和纹理变化的鲁棒性更好。
(2)本发明可以有效地克服遮挡问题并提高原方法的速度,由于加入了卡尔曼滤波器,一方面,卡尔曼滤波器可以预测目标的大致位置,从而克服目标被大面积遮挡甚至完全遮挡时的检测失败问题。另一方面,由于卡尔曼滤波器可以预测目标位置,从而缩小了检测区域,减少了大量的检测窗口,从而提高了原方法的运算速度。
附图说明
图1是本发明的基本流程图。
图2是本发明的检测器部分示意图。
图3是本发明的学习器部分示意图。
具体实施方式
以下将结合附图,对本发明的技术方案进行详细说明。
基于改进Online Boosting和卡尔曼滤波器的改进TLD跟踪方法的整体结构,如图1所示,包含三大模块:跟踪模块、检测模块、学习模块。
(1)跟踪模块:根据选定的目标,跟踪框内产生跟踪点,用两次L-K光流法对序列图像中的跟踪点进行跟踪;
(2)检测模块:首先,在一帧图像中产生大量的检测窗口,由卡尔曼滤波器对要跟踪的目标进行预测,在预测的位置产生一个之前跟踪框两倍大的窗口,检测窗口中和这个窗口有相交的被选中留下来,没有相交的被舍弃掉。然后将留下的检测窗口经过方差分类器、改进Online Boosting分类器、KNN(K-Nearest-Neighbor K最邻近)分类器进行分类,产生正负样本。
(3)学习模块:有两个“专家”,P-expert和N-expert,分别负责选出错误的正样本和负样本。评估跟踪器和检测器的性能,结合跟踪模块和检测模块的结果产生有效的训练样本完成对检测器的更新,消除检测器误差。
基于改进Online Boosting和卡尔曼滤波器的改进TLD方法,包括以下步骤:
(1)初始化:首先用鼠标圈定要跟踪的物体,画出一个矩形框,对矩形框内的图片做放射变换,目的是为了将不同尺度、不同角度的图片初始化为训练样本,来训练各个分类器。然后用初始化好的训练样本训练改进Online Boosting分类器,步骤:1○首先产生一个特征池(Haar-like、LBP特征池)(Harr-like和LBP特征在一个特征池中,在背景与目标差别很大时,Harr-like特征的表现很好,而纹理很多且背景与目标差别很小时,LBP特征的优势比较明显。而具体分类器采用哪个特征来分类取决于两种特征对于分类结果的影响,因为我们会选择分类错误率低的分类器作为弱分类器),随机产生N个选择器,通过EM(Expectation Maximization Algorithm最大期望算法)算法产生M个弱分类器;2○从特征池中选择一部分样本,对每个选择器通过带权重λ的样本(λ初始值为1),对M个弱分类其进行训练,选出分类错误率
Figure BDA0001576634490000051
最低的那个弱分类器代替这个选择器。
Figure BDA0001576634490000052
中m代表弱分类器编号,n代表选择器编号。③更新权重:若分类正确,则样本权重
Figure BDA0001576634490000053
若分类错误,则样本权重
Figure BDA0001576634490000054
选择器权重
Figure BDA0001576634490000055
循环N次即完成了对改进OnlineBoosting分类器的训练。
(2)将本帧图像转化为灰度图以克服光照的变化对图像处理的影响。
(3)跟踪器:首先,将圈定的跟踪框划分为10乘10的网格,网格的交点被随机选择为跟踪点,对上一帧图像和本帧图像运用两次L-K光流法,第一次求上一帧到本帧的光流误差,在求这一帧到上一帧的光流误差,得到两次跟踪后的误差FB_error,若误差大于某一阈值,则表示跟踪失败。保存跟踪成功的点。
(4)检测器:如图2,首先运行卡尔曼滤波器,根据本帧目标位置预测下一帧目标的位置,在预测的目标位置处圈定一个当前目标2-4倍的矩形框。产生一系列滑动窗口,公式如下:
Figure BDA0001576634490000061
其中s是缩放因子,a∈{-10......10},W、H为图片的宽和高,ω和h为初始窗口的宽和高,dω和dh为平移的尺度,大小为初始窗口的10%。若滑动窗口与预测目标位置的矩形框有交集,则保留,其余的剔除。保留下的滑动窗口首先经过方差分类器,若该窗口的方差大于某一阈值Tr,则被认为是正样本,否则是负样本。将正样本输入到初始化时训练好的改进Online Boosting分类器中,分类器将根据训练结果产生分类结果,产生一部分正样本和负样本。将正样本输入到KNN分类器中,首先每个图片都被归一化为15*15大小,两图像pi,pj间的相似度为S(pi,pj)=0.5(NCC(pi,pj)+1),其中NCC(pi,pj)为归一化相关系数,表征两张图相关度,表示为
Figure BDA0001576634490000062
式中:μ1、σ1分别pi的均值和方差。μ2、σ2为图像块pj的均值和方差,pi(x)、pj(x)为待比较相似度图像。待检测图像与正样本的相似度可以表示为
Figure BDA0001576634490000063
其中:p为待检测样本,
Figure BDA0001576634490000064
为样本集M中选出的负样本,与负样本的相似度
Figure BDA0001576634490000065
其中:
Figure BDA0001576634490000066
为样本集M中选出的负样本,最终的相关相似度
Figure BDA0001576634490000067
在0到1之间,若其大于给定的阈值就认为时正样本,否则认为是负样本。阈值选择一般为0.5-0.7。最后,通过以上三个分类器的正样本才被接受为正样本,被任意一个分类器所舍弃的都将划为负样本之列。
(5)综合跟踪器和检测器的结果,结合结果的权值、置信度等评判指标,选择出可信度更高的跟踪目标。如果跟踪器没有跟踪到目标但检测器检测到目标,则说明目标物体移出过摄像头范围,导致跟踪器报错、暂停工作。而检测器的任务就是在再次检测到物体时,重新初始化跟踪器,这也是TLD跟踪方法和传统跟踪方法的重要区别之一。
(6)学习器:又称P-N(Positive-Negative)学习,P指正约束(P-constraint),也称P-expert,N指负约束(N-constraint),也称N-expert。正约束和负约束用来限制和评估样本的标签赋值过程,找到分类器的分类结果与约束条件相矛盾的样本,调整训练样本的标签,并将其重新加入训练,反复迭代。很多学习方法都假设测试样本之间是相互独立的。但是在机器视觉领域,标签之间在很多情况下是存在依赖关系的,这里被称之为结构性的。在本方法中,每个视频帧中,目标值可能出现在一个区域,而且相邻的视频帧之间检测到的目标是连续的,运动不大的,且构成一个运动轨迹,这样的数据被称之为结构性的。P-N学习所利用的数据的关键性质就是结构性,根据结构性来判断检测器中分类器产生的错误标签。如图3,P-N学习器包含四个部分,(1)一个待分类的学习器;(2)训练样本集;(3)训练分类器的监督学习方法;(4)P-N expert;P-N学习的过程如下:①准备一个数量较少的训练样本集;②利用训练样本训练一个分类器,并将其赋予训练样本一个标签(正样本或者负样本);③用约束性条件,P-N专家找出分类器赋予标签与约束性条件相矛盾的样本;④将上述矛盾的样本重新赋予标签将其加入到训练样本中,重新训练分类器;学习器有以下特点和功能:由于目标在运动过程中,姿态和形状很容易发生变化,造成跟踪失败。用P-N学习模块对目标进行在线学习、检测,可有效的避免这一问题。
(7)采集下一帧图像,循环(2)到(6)过程。

Claims (1)

1.一种基于改进Online Boosting和卡尔曼滤波器改进的TLD跟踪方法,其特征在于,包括如下步骤:
(1) 初始化
圈定跟踪目标,并进行仿射变换,形成初始正负样本集;利用该样本集初始化OnlineBoosting分类器,对输入样本提取Harr-like和LBP特征,形成一个特征池,利用其训练一个Online Boosting分类器;然后利用初始样本集初始化P-N学习器中的分类器;
(2) 图像跟踪
采集下一帧图像,在上一帧图像的选定范围中选取一些特征点,然后对前后两帧图像使用两次L-K光流法对特征点进行跟踪,并计算两次跟踪误差,小于预先设定阈值的特征点被保留下来,并根据跟踪误差得出本次跟踪成功还是失败;
(3) 图像检测
将待跟踪图像输入至卡尔曼滤波器,预测目标的大致位置;将缩小范围后的图像通过方差分类器大致区分前景还是背景,并利用初始训练的Online Boosting分类器分类通过方差分类器的前景样本,然后将Online Boosting分类器输出的正样本作为KNN分类器的输入,通过KNN分类器判定的正样本,被认为最终的正样本,否则被认为负样本,最后将检测器形成的正负样本集加入到初始正负样本集中;
(4) 综合跟踪与检测结果
根据正负样本集评估图像跟踪结果与图像检测结果的置信度,得出最终采用哪一模块的结果作为最终结果;若目标移出视场范围,图像跟踪将跟踪失败,若图像检测也未检测到目标,此时认为视场范围内没有目标;当目标再次移入视场范围时,图像检测若检测到目标,便重新初始化图像更新部件,让其继续工作;
(5) 在线学习
将分类出的正负样本通过P-N学习器,修正图像跟踪和图像检测的结果,并将学习结果加入到正负样本集中。
CN201810137216.0A 2018-02-10 2018-02-10 基于改进Online Boosting和卡尔曼滤波器改进的TLD跟踪方法 Active CN108427960B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810137216.0A CN108427960B (zh) 2018-02-10 2018-02-10 基于改进Online Boosting和卡尔曼滤波器改进的TLD跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810137216.0A CN108427960B (zh) 2018-02-10 2018-02-10 基于改进Online Boosting和卡尔曼滤波器改进的TLD跟踪方法

Publications (2)

Publication Number Publication Date
CN108427960A CN108427960A (zh) 2018-08-21
CN108427960B true CN108427960B (zh) 2020-04-21

Family

ID=63156747

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810137216.0A Active CN108427960B (zh) 2018-02-10 2018-02-10 基于改进Online Boosting和卡尔曼滤波器改进的TLD跟踪方法

Country Status (1)

Country Link
CN (1) CN108427960B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109102519B (zh) * 2018-08-24 2021-12-14 周忠和 动目标及特征模板变化条件下的快速人物跟踪方法
CN109448021A (zh) * 2018-10-16 2019-03-08 北京理工大学 一种运动目标跟踪方法及系统
CN111079775B (zh) * 2018-10-18 2022-09-20 中国科学院长春光学精密机械与物理研究所 一种联合区域约束学习的实时跟踪方法
CN109767457B (zh) * 2019-01-10 2021-01-26 厦门理工学院 在线多示例学习目标跟踪方法、终端设备及存储介质
CN111160212B (zh) * 2019-12-24 2022-11-11 浙江大学 一种基于YOLOv3-Tiny改进的跟踪学习检测系统及方法
CN112598698B (zh) * 2021-03-08 2021-05-18 南京爱奇艺智能科技有限公司 长时间单目标跟踪方法及系统
CN113392777A (zh) * 2021-06-17 2021-09-14 西安应用光学研究所 一种基于在线学习策略的实时目标检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102881024A (zh) * 2012-08-24 2013-01-16 南京航空航天大学 一种基于tld的视频目标跟踪方法
CN104850865A (zh) * 2015-06-05 2015-08-19 三峡大学 一种多特征迁移学习的实时压缩跟踪方法
CN105279773A (zh) * 2015-10-27 2016-01-27 杭州电子科技大学 一种基于tld框架的改进型视频跟踪优化方法
WO2017030259A1 (ko) * 2015-08-19 2017-02-23 아이디어 주식회사 자동추적 기능을 갖는 무인항공기 및 그 제어방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102881024A (zh) * 2012-08-24 2013-01-16 南京航空航天大学 一种基于tld的视频目标跟踪方法
CN104850865A (zh) * 2015-06-05 2015-08-19 三峡大学 一种多特征迁移学习的实时压缩跟踪方法
WO2017030259A1 (ko) * 2015-08-19 2017-02-23 아이디어 주식회사 자동추적 기능을 갖는 무인항공기 및 그 제어방법
CN105279773A (zh) * 2015-10-27 2016-01-27 杭州电子科技大学 一种基于tld框架的改进型视频跟踪优化方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于AdaBoost-SVM级联分类器的行人检测;降爱莲等;《计算机工程与设计》;20130731;第34卷(第7期);第2547-2565段 *
复杂环境下高效物体跟踪级联分类器;江伟坚等;《中国图象图形学报》;20140228;第19卷(第2期);第0253-0265段 *

Also Published As

Publication number Publication date
CN108427960A (zh) 2018-08-21

Similar Documents

Publication Publication Date Title
CN108427960B (zh) 基于改进Online Boosting和卡尔曼滤波器改进的TLD跟踪方法
Sun et al. Research on the hand gesture recognition based on deep learning
Chen et al. Fast human detection using a novel boosted cascading structure with meta stages
Nebehay Robust object tracking based on tracking-learning-detection
Jia et al. Visual tracking via coarse and fine structural local sparse appearance models
CN108564598B (zh) 一种改进的在线Boosting目标跟踪方法
CN111160212B (zh) 一种基于YOLOv3-Tiny改进的跟踪学习检测系统及方法
CN113763424B (zh) 基于嵌入式平台的实时智能目标检测方法及系统
Lv et al. Few-shot learning combine attention mechanism-based defect detection in bar surface
CN110008899B (zh) 一种可见光遥感图像候选目标提取与分类方法
CN108320301B (zh) 一种基于跟踪学习检测的目标跟踪优化方法
Zhang et al. A classifier training method for face detection based on AdaBoost
Heydarzadeh et al. An efficient face detection method using adaboost and facial parts
Feris et al. Boosting object detection performance in crowded surveillance videos
Li et al. Ming-HsuanYang,“
Yu et al. Research on video face detection based on AdaBoost algorithm training classifier
Haritha et al. Multiple-Instance Learning Support Vector Machine Algorithm based Pedestrian Detection
Gao et al. Research on license plate detection and recognition based on deep learning
Thayananthan et al. Likelihood Models For Template Matching using the PDF Projection Theorem.
Zhan et al. Improved KCF Long-term Gesture Tracking Based On GMM And ELM
Zhang et al. Face detection system based on video stream
Fu et al. Research on Video Object Tracking Based on Improved Camshift Algorithm
Fang et al. Traffic sign detection based on co-training method
Zhang et al. Online human tracking via superpixel-based collaborative appearance model
Zimmermann et al. Improving cascade of classifiers by sliding window alignment in between

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant