CN107590821A - 一种基于轨迹优化的目标跟踪方法及系统 - Google Patents

一种基于轨迹优化的目标跟踪方法及系统 Download PDF

Info

Publication number
CN107590821A
CN107590821A CN201710876003.5A CN201710876003A CN107590821A CN 107590821 A CN107590821 A CN 107590821A CN 201710876003 A CN201710876003 A CN 201710876003A CN 107590821 A CN107590821 A CN 107590821A
Authority
CN
China
Prior art keywords
target
candidate
frame
track
grader
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710876003.5A
Other languages
English (en)
Other versions
CN107590821B (zh
Inventor
胡瑞敏
阮威健
闫素
梁超
陈军
黄文军
张精制
郑淇
孙志宏
陈金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201710876003.5A priority Critical patent/CN107590821B/zh
Publication of CN107590821A publication Critical patent/CN107590821A/zh
Application granted granted Critical
Publication of CN107590821B publication Critical patent/CN107590821B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供一种基于轨迹优化的目标跟踪方法及系统,在第一帧进行目标模型的构建,包括首先对目标进行样本的采样,进而根据与目标的覆盖率标记样本,提取多融合特征训练结构化的分类器,得到基础的目标模型;然后在后续帧图片中采取若干候选,利用每一个候选训练模型,选出下一帧中置信度最高的候选。如此迭代多帧之后,根据连续多帧中构成的多条轨迹的平均置信度,从而选出目标的最佳运动短轨迹。因此,本发明通过引入目标在连续帧的时序稳定性,克服了传统的基于静态检测方法因忽略时空信息导致模型判别力不足,从而无法选出最佳目标而导致模型漂移的问题,并且提出一种基于多特征融合的结构化输出分类模型,能有效地提高模型的辨别力。

Description

一种基于轨迹优化的目标跟踪方法及系统
技术领域
本发明属于计算机视觉领域,尤其涉及一种基于轨迹优化的目标跟踪方法及系统。
背景技术
目标跟踪的目标是在连续的图像或视频序列中估计出感兴趣目标的运动状态和运动轨迹。它是计算机视觉的一个重要分支,被广泛应用于行为分析、视频监控、智慧交通、国防建设等各个领域。近年来,尽管目标跟踪已经取得了很大的进展[1-5],但是由于光照变化、尺度变化、以及局部遮挡等环境因素的影响,当前的跟踪算法的鲁棒性和稳定性还具有一定的局限性。
现有的目标跟踪算法大致可归为生成式方法和判别式方法。生成式方法是指在图像区域中找到与运动目标模型最相似的区域以实现跟踪。而判别式跟踪方法把跟踪看成二分类问题,旨在构造一个分类器将目标和背景区分出来。如Kalal等人提出一种P-N学习方法以利用正负样本之间的结构关系来学习一个分类器从而实现跟踪[2]
然而,现有的大多数跟踪器通常将跟踪视为静态检测或匹配任务,即仅仅通过当前帧得到的某种判断依据来确定跟踪目标,比如分类器的分类分数等,忽略了目标在相邻帧之间的时空关系。而跟踪是一个定位在时空序列上的视觉任务,时间上下文和空间上下文信息都应该利用。举个例子,如果用一个分类器在当前帧中检测出了四个得分最高的候选,置信度分别为0.86,0.82,0.78和0.76,是无法保证置信度为0.86的候选就是最正确的跟踪目标的。因为这些置信度与所构建的观察模型有关。若模型的辨别力不足,它的估计可能还不够充分,需要对候选进一步确认。因此,如何通过目标在相邻帧以及连续多帧的时空关系来进一步选出最优目标,是值得探索的问题。针对这个问题,本发明提出了一种轨迹优化的目标跟踪技术方法。
此外,为了应用轨迹优化的目标跟踪后处理策略,首选需要构建一个基础分类模型。在构建分类器的过程中,如果只是简单地赋予训练样本二进制标签,会带来标签上的模糊性,模型也会因引入错误标记到的样本而大大降低判别力。另一方面,特征表示是一个鲁棒的跟踪算法中的重要组成部分之一,如何为目标构建鲁棒的目标表示模型也受到了研究者的广泛关注。针对这两个问题,本发明还构建了一个基于多特征融合的结构化输出分类器,以作为本发明的算法基础模型。其中,基础模型在训练和测试过程都是结构化输出的。
相关参考文献:
[1]Henriques J F,Caseiro R,Martins P,et al.High-speed tracking withkernelized correlation filters[J].IEEE Transactions on Pattern Analysis andMachine Intelligence,2015,37(3):583-596.
[2]Kalal Z,Mikolajczyk K,Matas J.Tracking-learning-detection[J].IEEEtransactions on pattern analysis and machine intelligence,2012,34(7):1409-1422.
[3]Zhang K,Zhang L,Yang M H,et al.Fast tracking via spatio-temporalcontext learning[J].arXiv preprint arXiv:1311.1939,2013.
[4]Danelljan M,Shahbaz Khan F,Felsberg M,et al.Adaptive colorattributes for real-time visual tracking[C].Proceedings of the IEEEConference on Computer Vision and Pattern Recognition.2014:1090-1097.
[5]Danelljan M,Hager G,Shahbaz Khan F,et al.Learning spatiallyregularized correlation filters for visual tracking[C].Proceedings of theIEEE International Conference on Computer Vision.2015:4310-4318.
[6]Wu Y,Lim J,Yang M H.Online object tracking:A benchmark[C].Proceedings of the IEEE conference on computer vision and patternrecognition.2013:2411-2418.
发明内容
针对现有判别式跟踪方法存在的问题:通常将跟踪视为静态检测或匹配任务,忽视其他置信度较高的样本,进而跟踪错误。同时引入了错误的新样本用于更新,从而降低了模型的判别力。因此,本发明创新性地提出了一种基于轨迹优化的目标跟踪技术方案。
本发明技术方案提供一种基于轨迹优化的目标跟踪方法,包括以下步骤,
步骤1,在第一帧进行目标模型的构建,包括首先对目标进行样本的采样,进而根据与目标的覆盖率标记样本,提取多融合特征训练结构化的分类器,得到基础的目标模型;
步骤2,基于目标在连续帧的时序稳定性进行跟踪,包括以下子步骤,
步骤2.1,在第一帧构建完目标模型后,在下一帧中采取Ω个候选,Ω为预设的取值;步骤2.2,令t=2t,记在第t帧采集的候选集为对于任一候选先采用第t=1t帧相应的分类器计算每个候选的置信度,选出置信度最高的M个候选,M为预设的取值;
步骤2.3,采用本次迭代中步骤2.2在当前帧中选出的M个候选,分别更新分类器;
步骤2.4,令t=t+1,返回步骤2.1针对下一帧进行迭代,直到迭代K轮之后,用第i个分类器在连续K帧中选出的最高置信度候选构成第i个轨迹,得到M个短轨迹,K为预设的取值;
步骤2.5,评估K帧之间的M个短轨迹分别的轨迹连续性,选择最优短轨迹,取最优短轨迹中的目标更新模型,然后作为下一个K帧初始的目标模型,返回步骤2.1继续跟踪。
而且,步骤1包括以下子步骤,
步骤1.1,样本采集,包括在初始的目标附近周围采集多个样本作为目标的正样本集,同时在远离初始目标的位置采集多个样本作为目标的负样本集;
步骤1.2,基于所采集样本提取特征,包括根据正样本集和负样本集,分别提取样本的特征HOG、LabColor和LBP,然后拼接得到样本的多特征描述子,训练得到一个结构化输出的分类器,作为基础的目标模型。
而且,步骤1.1中,基于与目标样本的覆盖率采集负样本集。
而且,步骤2.1中,基于粒子滤波框架在下一帧中采取Ω个候选。
而且,步骤2.2中,采用上一帧所得分类器计算每一个候选的分类得分,利用下式选出得分靠前的多个可信候选,
其中,表示目标框y中候选的特征描述,yt表示通过分类器在当前帧中估计出的跟踪结果框,w表示分类平面的归一化向量;
采用这个式子每选出一个,即从候选集中去掉,再利用这个式子继续选择,直到选出M个候选。
本发明还提供一种基于轨迹优化的目标跟踪系统,包括以下模块,
第一模块,用于在第一帧进行目标模型的构建,包括首先对目标进行样本的采样,进而根据与目标的覆盖率标记样本,提取多融合特征训练结构化的分类器,得到基础的目标模型;
第二模块,用于基于目标在连续帧的时序稳定性进行跟踪,包括以下单元,
第一单元,用于在第一帧构建完目标模型后,在下一帧中采取Ω个候选,Ω为预设的取值;
第二单元,用于令t=2,记在第t帧采集的候选集为对于任一候选先采用第t=1帧相应的分类器计算每个候选的置信度,选出置信度最高的M个候选,M为预设的取值;
第三单元,用于采用本次迭代中第二单元在当前帧中选出的M个候选,分别更新分类器;
第四单元,用于令t=2,命令第一单元针对下一帧进行迭代,直到迭代K轮之后,用第i个分类器在连续K帧中选出的最高置信度候选构成第i个轨迹,得到M个短轨迹,K为预设的取值;
第五单元,用于评估K帧之间的M个短轨迹分别的轨迹连续性,选择最优短轨迹,取最优短轨迹中的目标更新模型,然后作为下一个K帧初始的目标模型,命令第一单元继续跟踪。
而且,第一模块进行包括以下操作,
样本采集,包括在初始的目标附近周围采集多个样本作为目标的正样本集,同时在远离初始目标的位置采集多个样本作为目标的负样本集;
基于所采集样本提取特征,包括根据正样本集和负样本集,分别提取样本的特征HOG、LabColor和LBP,然后拼接得到样本的多特征描述子,训练得到一个结构化输出的分类器,作为基础的目标模型。
而且,基于与目标样本的覆盖率采集负样本集。
而且,第一单元中,基于粒子滤波框架在下一帧中采取Ω个候选。
而且,第二单元中,采用上一帧所得分类器计算每一个候选的分类得分,利用下式选出得分靠前的多个可信候选,
其中,表示目标框y中候选的特征描述,yt表示通过分类器在当前帧中估计出的跟踪结果框,w表示分类平面的归一化向量;
采用这个式子每选出一个,即从候选集中去掉,再利用这个式子继续选择,直到选出M个候选。
与现有目标跟踪技术相比,本发明具有以下优点和有益效果:
本发明提出了一个基于轨迹优化的目标跟踪框架,不同于传统方法将目标跟踪看成是一个逐帧检测或匹配的任务,以致于忽略了目标连续帧中的时空信息,本发明将跟踪看成是一个时空序列的视觉任务,通过评估目标在连续帧中的轨迹平稳性来估计目标的最佳运动轨迹,旨通过引入目标在时序上的关联性来进一步提高目标跟踪的准确性。
进一步地,本发明提出了一种结构化标签来标记样本,基于多特征融合的结构化输出分类模型,在构建鲁棒的特征描述子的同时,克服了传统方法中赋予样本二进制标签的模糊性,能有效地提高模型的辨别力,相对于传统方法的标记方法,提高了样本的可信度。
附图说明
图1为本发明原理示意图。
图2为本发明实施例中的目标模型构建流程图。
图3为本发明实施例中的选取最佳短轨迹示意图。
具体实施方式
下面通过附图结合实施例,对本发明的技术方案作进一步具体的说明。
参见图1,对基于静态检测或匹配任务和基于轨迹优化的跟踪算法进行了目标模糊时若干候选置信度较高的跟踪性能比较:若把待跟踪看作一个静态模型而建模,进而得到一个基于静态检测或匹配任务的分类器,当目标模糊时,若干候选的置信度都比较高,从而导致模型的判别力大大降低,最终跟踪结果发生错误。然而基于轨迹优化的跟踪模型是根据时域上的轨迹来判断跟踪结果,参见图3。即使目标模糊,而其时域上的稳定性仍能为跟踪可靠的线索,从而正确地定位目标。
本发明实施例采用MATLAB7作为仿真实验平台,在公共的数据集OTB50【6】上进行测试。选取了OTB数据集中的50段测试视频上进行了实验,这些视频包括了遮挡、光照、尺度变化、剧烈运动等跟踪难点。以下针对上述目标跟踪实施例对本发明做进一步的阐述,本发明实施例的流程包括:
步骤1,在第一帧进行目标模型的构建:
在目标跟踪中,只有在视频或图像序列的第一帧给出待跟踪目标,然后利用所设计的跟踪算法实现在后续视频帧中估计出目标的运动轨迹。因此要实现跟踪,首先得为目标建立目标模型。目标模型的构建流程图如附图2所示,首先对目标进行样本的采样,进而根据与目标的覆盖率标记样本,提取多融合特征进行训练分类器。实施例采用SVM分类器。
步骤1.1,样本采集
本发明方法属于判别式跟踪方法的一种,旨在设计一个分类器将目标和背景区分出来。那么要得到分类器,首先需要在已给出目标位置的第一帧中采集训练样本。本发明在初始目标附近周围采集多个样本作为目标的正样本集,同时在远离初始目标的位置采集多个样本作为目标的负样本集。具体实现如下:
在初始化阶段,需要完成结构化样本的采样。首先对于正样本采集,实施例在初始目标周围,距离目标中心以较小的采样半径采集正样本集A+={y|θ1>||l(y)-l*||},在本发明中,θ1为正样本的采样半径,为取离目标较近的区域,优选采用小于6个像素,实施例中θ1=5。l(y)表示样本y的中心位置,l*表示目标初始位置的中心。值得注意的是,需要统一样本的大小,实施例将所有的样本归一化到统一的大小(32x32)。具体实施时,本领域技术人员可自行预设样本大小和正样本的采样半径。
类似的,对于负样本集的采样,是在离目标中心距离的θ2像素内进行采集,将满足和目标样本y*的覆盖率小于0.3的样本,以作为模型的负样本集,即A-={y|θ2>||l(y)-l*||,overlapRate(y,y*)<0.3},其中θ2>θ1,覆盖率函数具体实施时,本领域技术人员可自行预设负样本的采样半径θ2。而其他样本的标签均由其与目标样本y*的覆盖率给出。
步骤1.2,基于所采集样本构建模型
用采集样本可训练目标分类器,本发明提出基于多特征融合的SVM分类器,从而根据步骤1.2分类器来估计下一帧目标候选的置信度,从而估计出目标候选为待跟踪目标的概率。具体步骤如下:
步骤1.2.1,设步骤1.1得到给定正样本集A+,给定负样本集A-
步骤1.2.2,分别提取样本的梯度直方图特征(HOG)、在Lab空间的原始特征(LabColor)和局部二值模式特征(LBP),然后将这三个特征拼接成一个向量,以作为该样本的多特征描述子Φ(x,y):
Φ(x,y)=[HT,LT,BT]
其中H,L,B分别表示HOG、LabColor和LBP三个特征,上标T表示转置,对特征归一化后,则Φ(x,y)是一个归一化的高维向量,即表示Φ(x,y)是目标框y中的原始像素内容x的特征表示,即特征描述。
具体实施时,本领域技术人员也可根据实际需求综合多个其他特征作为它的特征。
步骤1.2.3,通过支持向量机SVM便可训练得到一个结构化输出的分类器,以作为本发明方法的基础模型。结构化输出的分类器,即这个分类器是输出分值是连续的,是从0~1之间的连续分值,并不是二进制的分类器。在跟踪过程中,最大化分类器作用到候选样本上的得分,便可估计出当前帧的目标矩形框。
步骤2,基于目标在连续帧的时序稳定性进行跟踪:
基于目标在连续帧的时序稳定性进行跟踪,包括基于粒子滤波框架在后续帧图片中采取Ω个候选,Ω为预设的取值;采用步骤1中一致的方式,参见步骤1.2.3所得分类器,得到每个候选的置信度,本发明提出轨迹优化,在之后K帧中估计出M个最佳短轨迹,目标的位置更新为最佳短轨迹中的位置。
步骤2.1,在第一帧构建完目标模型后,包括基于粒子滤波框架在后续帧图片中采取Ω个候选,Ω为预设的取值。其中粒子滤波为现有的成熟框架,本发明中主要采用它在连续帧中采集目标候选。第一次执行步骤2.1时,在第2帧采取Ω个候选。
实施例中,在后续帧的跟踪过程中,实施例基于粒子滤波框架“Arulampalam M S,Maskell S,et al.A tutorial on particle filters for online nonlinear/non-Gaussian Bayesian tracking[J]”在后续每帧图片中采取Ω个候选,具体实施中Ω的取值,本领域技术人员可根据实际需求预先设定(建议设为优选的200~400)。
特别地,实施例采用表征目标矩形框的六个参数(α123456)的仿射变换来刻画目标相邻帧间的运动状态,分别为横向变化、纵向变化、尺度变化、旋转变化、宽高比变化、倾斜角度。在运动模型中,这些参数是互相独立的且变化状态符合高斯分布。
步骤2.2,设在第t帧采集的候选集为那么对于任一候选先采用第t-1帧已构建好的结构化输出SVM计算响应值,得到每个候选的置信度,选出置信度最高的M个候选。具体实施时,本发明技术人员可预设M的取值,M小于Ω,实施例中M=4。第一次执行步骤2.2时,t=2,在第2帧选出置信度最高的M个候选。
得到目标候选后,采用上一帧构建好的分类器计算每一个候选的分类得分,然后可以选出得分靠前的多个可信候选,即利用下式:
其中,表示目标框y中候选的特征描述,yt表示通过分类器在当前帧中(第t帧)估计出的跟踪结果框,w表示分类平面的归一化向量。在本发明中,由于要先选出多个得分高的结果,然后再确定最优的结果。采用这个式子每选出一个,就把它从候选集中去掉,再利用这个式子继续选择,直到选出M个为止。
设(x1,y1),...,(xn,yn)为采集到的训练样本(正样本集和负样本集中的所有样本),n为训练样本的数量,分类平面的归一化向量w可以基于训练样本集(x1,y1),...,(xn,yn)然后求解下面的最优化问题可得到:
其中,xi、yi分别表示第i个训练样本的内容和它的矩形框函数,Ψi(y)=Φ(xi,yi)-Φ(xi,y),L(yi,y)=1-overlapRate(yi,y)表示预测输出y的结构化误差,而不是观察输出yi的误差。松弛变量ξi≥0表示第i个训练样本(xi,yi)的代理损失,c是正则化参数。
对所有候选的得分排序后,选出排名靠前的M个候选。
步骤2.3,设步骤2.2在当前帧中,已选出置信度最高的M个候选,用此M个候选分别更新分类器,新得到M个分类器。第一次执行步骤2.3时,t=2,根据在第2帧选出置信度最高的M个候选,更新M个分类器。
得到M个候选后,会在每一个候选周围采集新的正负样本集,采样方式和步骤1一致。如此,便可得到M个不同的新训练样本集。然后将历史采集到的正负样本集都分别加入到新的训练样本集中,进而采用步骤1中的训练方式,重新分别训练出M个分类器。那么这些分类器便可用于下一帧的目标估计中。
步骤2.4,返回步骤2.1针对下一帧进行迭代,包括基于粒子滤波框架在后续帧图片中采取Ω个候选,令t=t+1,用M个新的分类器分别选出下一帧中置信度最高的候选,然后将其作为正样本,并在当前帧按照步骤1.1的方式采集部分负样本,加入到原来的训练集中,从而分别更新这M个分类器。如此迭代K轮之后,便可得到M条短轨迹。而本发明的进一步目的是如何从这M条短轨迹中选出最佳的一条作为目标在这连续K帧中的运动状态。
设当前跟踪的连续K帧中第1帧为第t帧,那么通过步骤2.4得到的M条短轨迹可表示为其中,是用第i个分类器在连续K帧中选出的最高置信度候选,然后连接得到第i条运动轨迹。M个短轨迹是由M个不断更新的分类器分别每次迭代选出的置信度最高的候选连接构成。
具体实施时,本领域技术人员可预设K的取值,实施例中K=8。
步骤2.5,评估K帧之间的轨迹连续性,最佳短轨迹为具有最高轨迹连续性的最短短轨迹。
最佳短轨迹可以被估计为保持轨迹连续性最好的短轨迹,即轨迹上的候选的平均置信度最高,其被表示为:其中f(·)表示由分类器确定的候选的置信度。选择最优短轨迹后,目标的位置可更新为最佳短轨迹中的候选的位置,观测模型将选择轨迹中的目标来更新模型,然后作为下一个K帧的新初始模型,返回步骤2.1继续跟踪,直到跟踪任务完成。
实施例中K=8,即是根据第1帧的模型得到第2~9帧的最优短轨迹,根据第9帧更新模型,再得到第10~17帧的最优短轨迹…
基于以上流程,可以进行评价目标跟踪算法效果。现有的目标跟踪算法评价指标主要有覆盖率和中心误差两大评价指标:
1.覆盖率:给定数据集标注结果(groundtruth),覆盖率表示跟踪结果框ROIT与标注目标框ROIG的交集与并集的比值,如下式:
本实施例中采用所有帧覆盖率的平均值作为算法在该视频序列的跟踪效果。
2.中心误差:中心误差是指跟踪结果框中心(xt,yt)与数据集标注框的中心(xg,yg)之间的欧氏距离。中心误差越小,则表示跟踪效果越准确。
本发明方法在公开的数据集OTB50上的50段视频的实验结果可知,表1和表2均为本发明方法和现有的6个主流且效果好的跟踪算法的效果对比,表1为平均中心误差对比,表2为平均覆盖率对比。其中,每段视频序列中,效果最好的两个结果加下划线表示,详细如下:
表1平均中心误差与平均覆盖率
具体实施时,本发明所提供方法可基于软件技术实现自动运行流程,也可采用模块化方式实现相应系统。
本发明实施例还提供一种基于轨迹优化的目标跟踪系统,包括以下模块,
第一模块,用于在第一帧进行目标模型的构建,包括首先对目标进行样本的采样,进而根据与目标的覆盖率标记样本,提取多融合特征训练结构化的分类器,得到基础的目标模型;
第二模块,用于基于目标在连续帧的时序稳定性进行跟踪,包括以下单元,
第一单元,用于在第一帧构建完目标模型后,在下一帧中采取Ω个候选,Ω为预设的取值;
第二单元,用于令t=2,记在第t帧采集的候选集为对于任一候选先采用第t-1帧相应的分类器计算每个候选的置信度,选出置信度最高的M个候选,M为预设的取值;
第三单元,用于采用本次迭代中第二单元在当前帧中选出的M个候选,分别更新分类器;
第四单元,用于令t=t+1,命令第一单元针对下一帧进行迭代,直到迭代K轮之后,用第i个分类器在连续K帧中选出的最高置信度候选构成第i个轨迹,得到M个短轨迹,K为预设的取值;
第五单元,用于评估K帧之间的M个短轨迹分别的轨迹连续性,选择最优短轨迹,取最优短轨迹中的目标更新模型,然后作为下一个K帧初始的目标模型,命令第一单元继续跟踪。
各模块具体实现可参见相应步骤,本发明不予赘述。
本发明所述的实施例是说明性的,而不是限定性的。因此本发明包括并不限于具体实施方式中所述的实施例,凡是由本领域技术人员根据本发明的技术方案得出的其他实施方式,同样属于本发明保护的范围。

Claims (10)

1.一种基于轨迹优化的目标跟踪方法,其特征在于:包括以下步骤,
步骤1,在第一帧进行目标模型的构建,包括首先对目标进行样本的采样,进而根据与目标的覆盖率标记样本,提取多融合特征训练结构化的分类器,得到基础的目标模型;
步骤2,基于目标在连续帧的时序稳定性进行跟踪,包括以下子步骤,
步骤2.1,在第一帧构建完目标模型后,在下一帧中采取Ω个候选,Ω为预设的取值;
步骤2.2,令t=2,记在第t帧采集的候选集为对于任一候选先采用第t-1帧相应的分类器计算每个候选的置信度,选出置信度最高的M个候选,M为预设的取值;
步骤2.3,采用本次迭代中步骤2.2在当前帧中选出的M个候选,分别更新分类器;
步骤2.4,令t=t+1,返回步骤2.1针对下一帧进行迭代,直到迭代K轮之后,用第i个分类器在连续K帧中选出的最高置信度候选构成第i个轨迹,得到M个短轨迹,K为预设的取值;
步骤2.5,评估K帧之间的M个短轨迹分别的轨迹连续性,选择最优短轨迹,取最优短轨迹中的目标更新模型,然后作为下一个K帧初始的目标模型,返回步骤2.1继续跟踪。
2.根据权利要求1所述基于轨迹优化的目标跟踪方法,其特征在于:步骤1包括以下子步骤,
步骤1.1,样本采集,包括在初始的目标附近周围采集多个样本作为目标的正样本集,同时在远离初始目标的位置采集多个样本作为目标的负样本集;
步骤1.2,基于所采集样本提取特征,包括根据正样本集和负样本集,分别提取样本的特征HOG、LabColor和LBP,然后拼接得到样本的多特征描述子,训练得到一个结构化输出的分类器,作为基础的目标模型。
3.根据权利要求2述基于轨迹优化的目标跟踪方法,其特征在于:步骤1.1中,基于与目标样本的覆盖率采集负样本集。
4.根据权利要求1或2或3所述基于轨迹优化的目标跟踪方法,其特征在于:步骤2.1中,基于粒子滤波框架在下一帧中采取Ω个候选。
5.根据权利要求1或2或3所述基于轨迹优化的目标跟踪方法,其特征在于:步骤2.2中,采用上一帧所得分类器计算每一个候选的分类得分,利用下式选出得分靠前的多个可信候选,
<mrow> <msup> <mi>y</mi> <mi>t</mi> </msup> <mo>=</mo> <munder> <mi>argmax</mi> <mi>y</mi> </munder> <mo>&lt;</mo> <mi>w</mi> <mo>,</mo> <mi>&amp;Phi;</mi> <mrow> <mo>(</mo> <msubsup> <mi>s</mi> <mi>t</mi> <mi>i</mi> </msubsup> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&gt;</mo> </mrow>
其中,表示目标框y中候选的特征描述,yt表示通过分类器在当前帧中估计出的跟踪结果框,w表示分类平面的归一化向量;
采用这个式子每选出一个,即从候选集中去掉,再利用这个式子继续选择,直到选出M个候选。
6.一种基于轨迹优化的目标跟踪系统,其特征在于:包括以下模块,
第一模块,用于在第一帧进行目标模型的构建,包括首先对目标进行样本的采样,进而根据与目标的覆盖率标记样本,提取多融合特征训练结构化的分类器,得到基础的目标模型;
第二模块,用于基于目标在连续帧的时序稳定性进行跟踪,包括以下单元,
第一单元,用于在第一帧构建完目标模型后,在下一帧中采取Ω个候选,Ω为预设的取值;
第二单元,用于令t=2,记在第t帧采集的候选集为对于任一候选先采用第t-1帧相应的分类器计算每个候选的置信度,选出置信度最高的M个候选,M为预设的取值;
第三单元,用于采用本次迭代中第二单元在当前帧中选出的M个候选,分别更新分类器;
第四单元,用于令t=t+1,命令第一单元针对下一帧进行迭代,直到迭代K轮之后,用第i个分类器在连续K帧中选出的最高置信度候选构成第i个轨迹,得到M个短轨迹,K为预设的取值;
第五单元,用于评估K帧之间的M个短轨迹分别的轨迹连续性,选择最优短轨迹,取最优短轨迹中的目标更新模型,然后作为下一个K帧初始的目标模型,命令第一单元继续跟踪。
7.根据权利要求6所述基于轨迹优化的目标跟踪系统,其特征在于:第一模块进行包括以下操作,
样本采集,包括在初始的目标附近周围采集多个样本作为目标的正样本集,同时在远离初始目标的位置采集多个样本作为目标的负样本集;
基于所采集样本提取特征,包括根据正样本集和负样本集,分别提取样本的特征HOG、LabColor和LBP,然后拼接得到样本的多特征描述子,训练得到一个结构化输出的分类器,作为基础的目标模型。
8.根据权利要求7述基于轨迹优化的目标跟踪系统,其特征在于:基于与目标样本的覆盖率采集负样本集。
9.根据权利要求6或7或8所述基于轨迹优化的目标跟踪系统,其特征在于:第一单元中,基于粒子滤波框架在下一帧中采取Ω个候选。
10.根据权利要求6或7或8所述基于轨迹优化的目标跟踪系统,其特征在于:第二单元中,采用上一帧所得分类器计算每一个候选的分类得分,利用下式选出得分靠前的多个可信候选,
<mrow> <msup> <mi>y</mi> <mi>t</mi> </msup> <mo>=</mo> <munder> <mi>argmax</mi> <mi>y</mi> </munder> <mo>&lt;</mo> <mi>w</mi> <mo>,</mo> <mi>&amp;Phi;</mi> <mrow> <mo>(</mo> <msubsup> <mi>s</mi> <mi>t</mi> <mi>i</mi> </msubsup> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&gt;</mo> </mrow>
其中,表示目标框y中候选的特征描述,yt表示通过分类器在当前帧中估计出的跟踪结果框,w表示分类平面的归一化向量;
采用这个式子每选出一个,即从候选集中去掉,再利用这个式子继续选择,直到选出M个候选。
CN201710876003.5A 2017-09-25 2017-09-25 一种基于轨迹优化的目标跟踪方法及系统 Active CN107590821B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710876003.5A CN107590821B (zh) 2017-09-25 2017-09-25 一种基于轨迹优化的目标跟踪方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710876003.5A CN107590821B (zh) 2017-09-25 2017-09-25 一种基于轨迹优化的目标跟踪方法及系统

Publications (2)

Publication Number Publication Date
CN107590821A true CN107590821A (zh) 2018-01-16
CN107590821B CN107590821B (zh) 2022-03-04

Family

ID=61047104

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710876003.5A Active CN107590821B (zh) 2017-09-25 2017-09-25 一种基于轨迹优化的目标跟踪方法及系统

Country Status (1)

Country Link
CN (1) CN107590821B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108460790A (zh) * 2018-03-29 2018-08-28 西南科技大学 一种基于一致性预测器模型的视觉跟踪方法
CN109934849A (zh) * 2019-03-08 2019-06-25 西北工业大学 基于轨迹度量学习的在线多目标跟踪方法
CN110414306A (zh) * 2019-04-26 2019-11-05 吉林大学 一种基于meanshift算法和SVM的婴儿异常行为检测方法
CN111126299A (zh) * 2019-12-25 2020-05-08 中国科学院自动化研究所 面向时序目标检测的优化方法和评估系统
CN111914653A (zh) * 2020-07-02 2020-11-10 泰康保险集团股份有限公司 一种人员标记方法和装置
CN112288775A (zh) * 2020-10-23 2021-01-29 武汉大学 一种基于长短期预测模型的多目标遮挡跟踪方法
CN113242958A (zh) * 2018-09-14 2021-08-10 华为技术有限公司 自动运载工具分层规划系统及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100195870A1 (en) * 2007-06-14 2010-08-05 Haizhou Ai Tracking method and device adopting a series of observation models with different life spans
CN103325125A (zh) * 2013-07-03 2013-09-25 北京工业大学 基于改进多示例学习算法的运动目标跟踪方法
CN104616319A (zh) * 2015-01-28 2015-05-13 南京信息工程大学 基于支持向量机的多特征选择目标跟踪方法
CN106127766A (zh) * 2016-06-24 2016-11-16 国家新闻出版广电总局广播科学研究院 基于空间耦合关系和历史模型的目标跟踪方法
CN106326924A (zh) * 2016-08-23 2017-01-11 武汉大学 一种基于局部分类的目标跟踪方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100195870A1 (en) * 2007-06-14 2010-08-05 Haizhou Ai Tracking method and device adopting a series of observation models with different life spans
CN103325125A (zh) * 2013-07-03 2013-09-25 北京工业大学 基于改进多示例学习算法的运动目标跟踪方法
CN104616319A (zh) * 2015-01-28 2015-05-13 南京信息工程大学 基于支持向量机的多特征选择目标跟踪方法
CN106127766A (zh) * 2016-06-24 2016-11-16 国家新闻出版广电总局广播科学研究院 基于空间耦合关系和历史模型的目标跟踪方法
CN106326924A (zh) * 2016-08-23 2017-01-11 武汉大学 一种基于局部分类的目标跟踪方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WEIJIAN RUAN ET AL.: "OBJECT TRACKING VIA ONLINE TRAJECTORY OPTIMIZATION WITH MULTI-FEATURE FUSION", 《PROCEEDINGS OF THE IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO (ICME) 2017》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108460790A (zh) * 2018-03-29 2018-08-28 西南科技大学 一种基于一致性预测器模型的视觉跟踪方法
CN113242958A (zh) * 2018-09-14 2021-08-10 华为技术有限公司 自动运载工具分层规划系统及方法
CN109934849A (zh) * 2019-03-08 2019-06-25 西北工业大学 基于轨迹度量学习的在线多目标跟踪方法
CN110414306A (zh) * 2019-04-26 2019-11-05 吉林大学 一种基于meanshift算法和SVM的婴儿异常行为检测方法
CN110414306B (zh) * 2019-04-26 2022-07-19 吉林大学 一种基于meanshift算法和SVM的婴儿异常行为检测方法
CN111126299A (zh) * 2019-12-25 2020-05-08 中国科学院自动化研究所 面向时序目标检测的优化方法和评估系统
CN111914653A (zh) * 2020-07-02 2020-11-10 泰康保险集团股份有限公司 一种人员标记方法和装置
CN111914653B (zh) * 2020-07-02 2023-11-07 泰康保险集团股份有限公司 一种人员标记方法和装置
CN112288775A (zh) * 2020-10-23 2021-01-29 武汉大学 一种基于长短期预测模型的多目标遮挡跟踪方法
CN112288775B (zh) * 2020-10-23 2022-04-15 武汉大学 一种基于长短期预测模型的多目标遮挡跟踪方法

Also Published As

Publication number Publication date
CN107590821B (zh) 2022-03-04

Similar Documents

Publication Publication Date Title
CN107590821A (zh) 一种基于轨迹优化的目标跟踪方法及系统
CN106557774B (zh) 多通道核相关滤波的实时跟踪方法
CN103295242B (zh) 一种多特征联合稀疏表示的目标跟踪方法
CN110414462A (zh) 一种无监督的跨域行人重识别方法及系统
CN108830188A (zh) 基于深度学习的车辆检测方法
CN107346420A (zh) 一种基于深度学习的自然场景下文字检测定位方法
CN109961024A (zh) 基于深度学习的小麦田间杂草检测方法
CN109902806A (zh) 基于卷积神经网络的噪声图像目标边界框确定方法
CN102175693B (zh) 医用药剂中可见异物的机器视觉检测方法
CN109635875A (zh) 一种基于深度学习的端到端网口检测方法
CN103544483B (zh) 一种基于局部稀疏表示的联合目标追踪方法及其系统
CN106557173B (zh) 动态手势识别方法及装置
CN103886619B (zh) 一种融合多尺度超像素的目标跟踪方法
CN105718879A (zh) 基于深度卷积神经网络的自由场景第一视角手指关键点检测方法
CN106326924A (zh) 一种基于局部分类的目标跟踪方法及系统
CN103996018A (zh) 基于4dlbp的人脸识别方法
CN105046197A (zh) 基于聚类的多模板行人检测方法
CN109341703A (zh) 一种全周期采用CNNs特征检测的视觉SLAM算法
CN110033007A (zh) 基于深度姿态预估和多特征融合的行人衣着属性识别方法
CN105512618B (zh) 视频跟踪方法
CN103295016A (zh) 基于深度与rgb信息和多尺度多方向等级层次特征的行为识别方法
CN103902989B (zh) 基于非负矩阵分解的人体动作视频识别方法
CN104077596A (zh) 一种无标志物跟踪注册方法
CN106408030A (zh) 基于中层语义属性和卷积神经网络的sar图像分类方法
CN102509085A (zh) 基于轮廓不变矩特征的猪行走姿态识别系统和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant