CN103617433A - 基于简化直推式学习法的在线目标跟踪方法 - Google Patents

基于简化直推式学习法的在线目标跟踪方法 Download PDF

Info

Publication number
CN103617433A
CN103617433A CN201310644150.1A CN201310644150A CN103617433A CN 103617433 A CN103617433 A CN 103617433A CN 201310644150 A CN201310644150 A CN 201310644150A CN 103617433 A CN103617433 A CN 103617433A
Authority
CN
China
Prior art keywords
sample
msub
target
mrow
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201310644150.1A
Other languages
English (en)
Inventor
张艳宁
张蓬
卓涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201310644150.1A priority Critical patent/CN103617433A/zh
Publication of CN103617433A publication Critical patent/CN103617433A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于简化直推式学习法的在线目标跟踪方法,用于解决现有在线目标跟踪方法应用受局限的技术问题。技术方案是使用一个矩形框表示目标,并在目标周围提取训练样本,提取样本的HOG特征作为目标表示,得到初始的目标检测器。在下一帧图像中,生成候选目标样本并提取HOG特征。分类器在每一帧图像上单独训练。给定一个分类器的最大空间尺度,如果分类器的大小没有超过最大空间尺度,则直接将当前训练结果加入到分类器集合中,然后将训练好的当前结果加入到分类器集合中。本发明通过图像的空间结构约束,生成准确的训练样本标签,提高了分类器的性能。此外,在每帧图像上单独训练分类器,与背景技术相比较,应用范围更广。

Description

基于简化直推式学习法的在线目标跟踪方法
技术领域
本发明涉及一种在线目标跟踪方法,特别是涉及一种基于简化直推式学习法的在线目标跟踪方法。
背景技术
目标跟踪是计算机视觉中非常重要的研究方向,其应用领域包括视频监控,人机交互,车辆自主导航等。然而,在实际应用中,有时事先不知道需要跟踪的目标类型,缺少目标的先验信息,并且目标外观及运动模式变化过程不可预测,因此很难实现精确的目标跟踪。
在缺少先验信息的情况下,基于先检测后跟踪的半监督学习方法,是最流行的目标跟踪方法之一,并且取得了很好的效果。Grabner等人提出了在线Boosting与特征选择的目标跟踪方法,可以有效的避免跟踪过程中的漂移现象,但不能适应目标外观的较大变化。MIL方法在一幅图像目标周围邻近区域,将多个样本认定为正样本,使用多个正样本进行分类器训练,提高了目标检测的成功率。但是在分类器的更新过程,很难得到准确的训练样本,分类器的性能在跟踪过程中不断下降。
为了得到更准确的训练样本,实现长时跟踪。Kalal等人提出了P-N学习的在线目标跟踪方法。该方法利用空间约束,将距离目标较近的样本认定为正样本,远离目标的区域认定为负样本;此外,该方法认为目标在相邻两帧的位置变化是连续的,使用光流计算的运动信息抑制负样本。Steven等将self-paced学习方法应用到目标跟踪过程中,根据关键帧学习分类器,可以处理长时间的目标遮挡,出视场等情况。
近年,结构化SVM在目标跟踪中有着越来越多的应用,Hare等通过给训练样本分配不同的权值,提出的Struck算法得到了更精确的目标位置。Zhang等利用图像中的结构约束与目标之间的关联约束,实现了多目标跟踪算法。
此外,无标签的样本对于分类器的学习有非常重要的作用,基于直接式SVM的机器学习方法,利用无标签的数据,得到了更为精确的分类器训练结果。
发明内容
为了克服现有在线目标跟踪方法应用受局限的不足,本发明提供一种基于简化直推式学习法的在线目标跟踪方法。该方法使用一个矩形框表示目标,并在目标周围提取训练样本。距离目标较近的样本认定为正样本,较远的认定为负样本。提取样本的HOG特征,将其作为目标表示,然后利用LibSVM训练分类器,得到初始的目标检测器。在下一帧图像中,生成候选目标样本并提取HOG特征。利用利用已训练好的分类器评价各样本,并将局部最大值作为目标位置输出。分类器在每一帧图像上单独训练。若候选目标样本的评价结果为正样本,则将距离目标较近的样本认定为正样本,距离较远的作为负样本,重新训练分类器;若候选目标的评价结果为负样本,则跳过。给定一个分类器的最大空间尺度,如果分类器的大小没有超过最大空间尺度,则直接将当前训练结果加入到分类器集合中;否则删除最早训练的分类器结果,然后将训练好的当前结果加入到分类器集合中。本发明通过图像的空间结构约束,在目标跟踪过程中生成准确的训练样本标签,提高了分类器的性能。此外,在每帧图像上单独训练分类器,并且使用加权平均结果作为目标检测器。与背景技术相比较,本发明的结果在所测试的13组视频总体上优于现有的其他方法,应用范围更广。
本发明解决其技术问题所采用的技术方案是:一种基于简化直推式学习法的在线目标跟踪方法,其特点是包括以下步骤:
步骤一、在图像上选定一个矩形标识框,框内的区域为目标区域。若该样本区域与目标的重叠率大于给定阈值,刚认定为正样本,否则为负样本。重叠率的定义为:
S = γ t ∩ γ α γ t ∪ γ α
其中,γt为目标区域所在的矩形框位置,γα为样本位置。如果s>0.5,刚该样本为正样本,否则为负样本。再提取样本的HOG特征,利用该特征向量用来训练分类器。
步骤二、生成测试样本,检测目标所在位置。采用训练样本的平均值评价测试样本,定义如下:
ω - t = Σ τ t = 1 γ τ · w - τ Σ τ t = 1 γ τ
其中,
Figure BDA0000428464180000023
为每帧图像单独训练出来的结果,t为分类器集合的大小,γτ为加权系数,γτ的值可由任意的关键帧选择策略给出。计算出每个样本的评价结果后,选择值最大的样本最终的目标样本输出。
步骤三、目标检测过程完成后,需要更新分类器适应目标当前的变化。若当前帧所有样本的评价结果最大值大于0,则认为检测成功,重新在该帧训练分类器,否则跳过。训练过程如步骤一。然后将训练结果加入到训练好的分类器集合中。若已经训练好的分类器结果集合大小于给定的最大空间尺度,则删除最早训练的结果。分类器更新完成后,转到步骤二,在下一帧图像上继续进行目标检测与跟踪。
本发明的有益效果是:该方法使用一个矩形框表示目标,并在目标周围提取训练样本。距离目标较近的样本认定为正样本,较远的认定为负样本。提取样本的HOG特征,将其作为目标表示,然后利用LibSVM训练分类器,得到初始的目标检测器。在下一帧图像中,生成候选目标样本并提取HOG特征。利用利用已训练好的分类器评价各样本,并将局部最大值作为目标位置输出。分类器在每一帧图像上单独训练。若候选目标样本的评价结果为正样本,则将距离目标较近的样本认定为正样本,距离较远的作为负样本,重新训练分类器;若候选目标的评价结果为负样本,则跳过。给定一个分类器的最大空间尺度,如果分类器的大小没有超过最大空间尺度,则直接将当前训练结果加入到分类器集合中;否则删除最早训练的分类器结果,然后将训练好的当前结果加入到分类器集合中。本发明通过图像的空间结构约束,在目标跟踪过程中生成准确的训练样本标签,提高了分类器的性能。此外,在每帧图像上单独训练分类器,并且使用加权平均结果作为目标检测器。与背景技术相比较,本发明的结果在所测试的13组视频总体上优于现有的其他方法,应用范围更广。
下面结合具体实施方式对本发明作详细说明。
具体实施方式
本发明基于简化直推式学习法的在线目标跟踪方法具体步骤如下:
1.目标初始化:在图像上选定一个矩形标识框,框内的区域为目标区域。在目标周围60像素半径区域选取训练样本。以5个方向,每个方向16个值生成训练样本(最多生成81个训练样本)。若该样本区域与目标的重叠率大于给定阈值,刚认定为正样本,否则为负样本。重叠率的定义为:
S = γ t ∩ γ α γ t ∪ γ α
其中,γt为目标区域所在的矩形框位置,γα为样本位置。如果s>0.5,刚该样本为正样本,否则为负样本。然后将提取样本归一化到大小为的图像块,再提取样本的HOG特征。其中HOG特征使用9个方向,块大小及步长均为8,生成一个324维的特征向量,利用该特征向量用来训练分类器。由于SVM的特征使用灵活性,以及SVM对于标签噪声较为鲁棒,使用LibSVM作为二值分类器进行训练。
2.目标预测:在半径为30个像素的范围内生成测试样本,检测目标所在位置。为了提高跟踪器的速度,使用自适应的步长采样方法生成测试样本。由于使用固定大小的矩形标识框检测目标,以0.1倍目标宽度为步长在水平方向采样,0.1倍目标高度为步长在竖直方向采样。并采用训练样本的平均值评价测试样本,定义如下:
ω - t = Σ τ t = 1 γ τ · w - τ Σ τ t = 1 γ τ
其中,
Figure BDA0000428464180000042
为每帧图像单独训练出来的结果,t为分类器集合的大小,γτ为加权系数,γτ的值可由任意的关键帧选择策略给出。计算出每个样本的评价结果后,选择值最大的样本最终的目标样本输出。
3.分类器更新:目标检测过程完成后,需要更新分类器适应目标当前的变化。若当前帧所有样本的评价结果最大值大于0,则认为检测成功,重新在该帧训练分类器,否则跳过。训练过程如步骤1所示。然后将训练结果加入到训练好的分类器集合中。若已经训练好的分类器结果集合大小于给定的阈值200,则删除最早训练的结果。分类器更新完成后,转到步骤2,在下一帧图像上继续进行目标检测与跟踪。

Claims (1)

1.一种基于简化直推式学习法的在线目标跟踪方法,其特征在于包括以下步骤:
步骤一、在图像上选定一个矩形标识框,框内的区域为目标区域;若该样本区域与目标的重叠率大于给定阈值,刚认定为正样本,否则为负样本;重叠率的定义为:
S = γ t ∩ γ α γ t ∪ γ α
其中,γt为目标区域所在的矩形框位置,γα为样本位置;如果s>0.5,刚该样本为正样本,否则为负样本;再提取样本的HOG特征,利用该特征向量用来训练分类器;
步骤二、生成测试样本,检测目标所在位置;采用训练样本的平均值评价测试样本,定义如下:
ω - t = Σ τ t = 1 γ τ · w - τ Σ τ t = 1 γ τ
其中,
Figure FDA0000428464170000013
为每帧图像单独训练出来的结果,t为分类器集合的大小,γτ为加权系数,γτ的值可由任意的关键帧选择策略给出;计算出每个样本的评价结果后,选择值最大的样本最终的目标样本输出;
步骤三、目标检测过程完成后,需要更新分类器适应目标当前的变化;若当前帧所有样本的评价结果最大值大于0,则认为检测成功,重新在该帧训练分类器,否则跳过;训练过程如步骤一;然后将训练结果加入到训练好的分类器集合中;若已经训练好的分类器结果集合大小于给定的最大空间尺度,则删除最早训练的结果;分类器更新完成后,转到步骤二,在下一帧图像上继续进行目标检测与跟踪。
CN201310644150.1A 2013-12-02 2013-12-02 基于简化直推式学习法的在线目标跟踪方法 Pending CN103617433A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310644150.1A CN103617433A (zh) 2013-12-02 2013-12-02 基于简化直推式学习法的在线目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310644150.1A CN103617433A (zh) 2013-12-02 2013-12-02 基于简化直推式学习法的在线目标跟踪方法

Publications (1)

Publication Number Publication Date
CN103617433A true CN103617433A (zh) 2014-03-05

Family

ID=50168136

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310644150.1A Pending CN103617433A (zh) 2013-12-02 2013-12-02 基于简化直推式学习法的在线目标跟踪方法

Country Status (1)

Country Link
CN (1) CN103617433A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107016443A (zh) * 2017-03-31 2017-08-04 惠州华阳通用电子有限公司 一种基于机器视觉的负样本采集方法
CN107633500A (zh) * 2016-07-14 2018-01-26 南京视察者图像识别科技有限公司 一种新的图像目标检测流程

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090110236A1 (en) * 2007-10-29 2009-04-30 Ching-Chun Huang Method And System For Object Detection And Tracking
US20110142282A1 (en) * 2009-12-14 2011-06-16 Indian Institute Of Technology Bombay Visual object tracking with scale and orientation adaptation
CN102982340A (zh) * 2012-10-31 2013-03-20 中国科学院长春光学精密机械与物理研究所 基于半监督学习和随机蕨类分类器的目标跟踪方法
CN103150572A (zh) * 2012-12-11 2013-06-12 中国科学院深圳先进技术研究院 在线式视觉跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090110236A1 (en) * 2007-10-29 2009-04-30 Ching-Chun Huang Method And System For Object Detection And Tracking
US20110142282A1 (en) * 2009-12-14 2011-06-16 Indian Institute Of Technology Bombay Visual object tracking with scale and orientation adaptation
CN102982340A (zh) * 2012-10-31 2013-03-20 中国科学院长春光学精密机械与物理研究所 基于半监督学习和随机蕨类分类器的目标跟踪方法
CN103150572A (zh) * 2012-12-11 2013-06-12 中国科学院深圳先进技术研究院 在线式视觉跟踪方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
TAO ZHUO 等: "Online Object Tracking based on L1-Loss SVMs with Motion Constraints", 《ORANGE TECHNOLOGIES (ICOT), 2014 IEEE INTERNATIONAL CONFERENCE ON》 *
ZDENEK KALAL 等: "Tracking-Learning-Detection", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
朱浩悦 等: "寻找轮廓实现视频流的运动目标检测", 《西部大开发.中旬》 *
百度文库: "TLD最终学习 文档", 《HTTP://WENKU.BAIDU.COM/VIEW/E78896BBD1F34693DAEF3E72.HTML###》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107633500A (zh) * 2016-07-14 2018-01-26 南京视察者图像识别科技有限公司 一种新的图像目标检测流程
CN107016443A (zh) * 2017-03-31 2017-08-04 惠州华阳通用电子有限公司 一种基于机器视觉的负样本采集方法

Similar Documents

Publication Publication Date Title
CN113688723B (zh) 一种基于改进YOLOv5的红外图像行人目标检测方法
US11643076B2 (en) Forward collision control method and apparatus, electronic device, program, and medium
WO2020173226A1 (zh) 一种时空行为检测方法
Chen et al. Object-level motion detection from moving cameras
US20160224833A1 (en) Method and apparatus for target acquisition
CN111191667B (zh) 基于多尺度生成对抗网络的人群计数方法
CN105654516B (zh) 基于目标显著性的卫星图像对地面弱小运动目标检测方法
CN107146238B (zh) 基于特征块优选的运动目标跟踪方法
CN110659550A (zh) 交通标志牌识别方法、装置、计算机设备和存储介质
CN112597815A (zh) 一种基于Group-G0模型的合成孔径雷达图像舰船检测方法
CN110298281B (zh) 视频结构化方法、装置、电子设备及存储介质
CN103729854A (zh) 一种基于张量模型的红外弱小目标检测方法
CN103886325A (zh) 一种分块的循环矩阵视频跟踪方法
CN113129336A (zh) 一种端到端多车辆跟踪方法、系统及计算机可读介质
CN104966095A (zh) 图像目标检测方法及装置
CN106845458A (zh) 一种基于核超限学习机的快速交通标识检测方法
CN104268595A (zh) 通用物件检测方法及系统
Guo et al. Save the tiny, save the all: hierarchical activation network for tiny object detection
Zhang et al. Green Apple Detection Method Based on Optimized YOLOv5 Under Orchard Environment [J]
CN111275733A (zh) 基于深度学习目标检测技术实现多艘船舶快速跟踪处理的方法
Kuppusamy et al. Traffic Sign Recognition for Autonomous Vehicle Using Optimized YOLOv7 and Convolutional Block Attention Module
CN103617433A (zh) 基于简化直推式学习法的在线目标跟踪方法
CN111161323B (zh) 一种基于相关滤波的复杂场景目标跟踪方法及系统
CN110751671A (zh) 一种基于核相关滤波与运动估计的目标跟踪方法
Grcić et al. Dense out-of-distribution detection by robust learning on synthetic negative data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20140305