CN102915450A - 一种在线自适应调整的目标图像区域跟踪方法 - Google Patents
一种在线自适应调整的目标图像区域跟踪方法 Download PDFInfo
- Publication number
- CN102915450A CN102915450A CN201210370300XA CN201210370300A CN102915450A CN 102915450 A CN102915450 A CN 102915450A CN 201210370300X A CN201210370300X A CN 201210370300XA CN 201210370300 A CN201210370300 A CN 201210370300A CN 102915450 A CN102915450 A CN 102915450A
- Authority
- CN
- China
- Prior art keywords
- sample
- weak classifier
- object region
- pond
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种在线自适应调整的目标图像区域跟踪方法,其步骤:在新输入视频帧中的不同预估位置上采集Haar特征,并利用Boosting构造的分类器对这些位置的图像区域进行似然度的计算,将具有最大似然度的图像区域作为当前帧中的目标图像区域。通过设置弱分类器池以及辅助分类器池使得分类器以在线的方式进行更新,进一步提高分类器对目标物外观变化的适应性;因为背景与目标物图像样本出现概率的非对称性,根据各弱分类器的分类误差调整样本的分布权值,使得分类器对于视频帧中目标物的出现具有较强的敏感性,因此该发明所设计的目标跟踪方法能够更为稳定地对视频中的目标物进行跟踪。
Description
技术领域
本发明涉及一种在线自适应调整的目标图像区域跟踪方法。
背景技术
目标跟踪可以认为是图像中背景与目标物的二分类器问题,在Boosting算法基础上所构造的分类器能够在图像中获取关于特定目标物的高判别性特征,一些学者提出了将该方法应用于目标跟踪领域,其中Grabner将Boosting方法用于特征的选取,籍此构造一个可增量更新的外观模型。Advian通过Adaboost方法从弱分类器池中选取一组分类器在视频图像中检测最可能为目标物的图像区域。上述方法是在背景样本与目标样本出现概率相等的假设前提下最小化分类误差,当背景样本出现的概率远大于目标物时,尤其在目标物受到遮挡时,这些方法所构造的分类器更易于将目标物判别为背景,从而直接导致跟踪的失败。
发明内容
本发明要解决的技术问题是提供一种通过调整弱分类器的投票权值来增强分类器对目标物与背景的分类能力,以提高目标跟踪的稳定性的目标图像区域跟踪方法。
本发明的基本思想:设计一个可在线更新的目标物外观模型;即,在每一帧视频中确定目标图像区域后,都会将确定的目标图像作为训练样本来训练分类器,包括调整投票权值;其思路是在新输入视频帧中的不同预估位置上采集Haar特征,并利用Boosting构造的分类器对这些位置的图像区域进行似然度的计算,将具有最大似然度的图像区域作为当前帧中的目标图像区域。为了提高分类器对目标物外观变化的适应性,通过设置弱分类器池以及辅助分类器池使得分类器以在线的方式进行更新,考虑到背景与目标物图像样本出现概率的非对称性,根据各弱分类器的分类误差调整样本的分布权值,使得分类器对于视频帧中目标物的出现具有较强的敏感性,因此该发明所设计的目标跟踪方法能够更为稳定地对视频中的目标物进行跟踪。
所以为解决上述技术问题,本发明提供了一种目标图像区域跟踪方法,包括:
步骤一、在一视频的第一帧图像中,选取任意一区域作为目标图像区域,并记录该目标图像区域在所述第一帧图像中的位置,在该目标图像区域周围随机采集背景图像区域。
步骤二、设置T个弱分类器池和一辅助分类器池,并设定每个弱分类器池和所述辅助分类器池中包括的弱分类器个数N。
步骤三、所述目标图像区域和背景图像区域作为分别目标图像区域样本和背景图像区域样本,以计算Haar特征值x,且设Haar特征值x都服从高斯分布,即目标图像区域样本的Haar特征值所服从的高斯分布函数为 ,而背景图像区域样本的Haar特征值所服从的高斯分布函数为 。
将所述目标图像区域样本和背景图像区域样本的Haar特征值输入各弱分类器,则各弱分类器以阈值分类器的形式对于Haar特征值的判别值h i (x)计算为:
上式中sign为数学标准中定义的符号函数。
步骤四、在目标图像区域样本和背景图像区域样本的基础上,通过累积重要性权值计算出各弱分类器的分类误差e,并以具有最小分类误差的弱分类器作为弱分类池中所选取的弱分类器,并计算相应弱分类器的投票权值 α:当分类误差 时, α为0;当分类误差 时, ;同时计算出分类误差高的弱分类器,并利用所述辅助分类器池中的弱分类器分别替换掉各弱分类器池中所述分类误差高的弱分类器。
步骤五、在所述视频的下一帧图像中,根据上一帧视频所记录的目标图像区域样本在该视频帧中的位置,在该位置周围随机采样可能成为当前帧图像中的目标图像区域的候选图像区域。
步骤六、累计各弱分类器池中所选出的弱分类器对于候选图像区域的判别值h i (x),并计算出每个候选图像区域的似然度conf(x i ),选取具有最大似然度conf(x i )的候选图像区域作为所述当前帧中的目标图像区域,其中似然度conf(x)的计算公式为:
其中α i 表示第i个弱分类器池中所选出的弱分类器的投票权值。
步骤七、根据所述步骤六选取的目标图像区域记录该目标图像区域样本在当前帧图像中的位置,在该目标图像区域周围随机采集背景图像区域。
返回步骤三,完成后续一帧图像中的目标图像区域跟踪。
进一步,所述步骤三中根据所述目标图像区域样本、背景图像区域样本进行训练,以分别调整所述目标图像区域样本的Haar特征值高斯分布的均值为 和背景图像区域样本的Haar特征值高斯分布的均值为 的方法包括:
;
进一步,所述步骤四中通过累积重要性权值计算出各弱分类器的分类误差e的方法包括:
分类误差e的计算公式为:
进一步,所述目标图像区域样本和背景图像区域样本构成训练样本。
所述重要性权值 的更新方法包括:
所述分类器池对训练样本的分布情况进行估计,并生成相应的估计值,即样本分布权值;在每一帧视频中完成目标跟踪任务后,对每一个弱分类器池的样本分布权值进行更新。
在样本分布权值更新过程中,每一个弱分类器池的样本分布权值计算都依赖于前一个已更新样本分布权值的分类器池; 依次通过对每个弱分类器池的样本分布权值进行更新计算以更新所有弱分类器池分布权值。
针对弱分类器分类,计算调整系数:
其中M为中间量,即 ,中间量 ;在此基础上,第i个弱分类器池分类误差的调整为:当弱分类器的判别结果与训练样本的实际类别不一致时,相应的分类误差为 ;当弱分类器的判别结果与训练样本的实际类别一致时,相应的分类误差为 。
在得到第i个弱分类器池的分类误差后,重要性权值为:当弱分类器池中所选弱分类器的判别结果与训练样本的实际类别不一致时, ;当弱分类器池中所选弱分类器的判别结果与训练样本的实际类别一致时, ;其中 为前一分类器池中所选弱分类器调整后的重要性权值。
本发明具有以下优点:(1)本发明通过Boosting算法构造目标物的外观模型,并在跟踪的过程中在线更新分类器,因此其在保持较高的跟踪效率的同时提高了目标跟踪的准确性和稳定性;(2)通过累积重要性权值计算能准确的得出各弱分类器的分类误差e,并以具有最小分类误差的弱分类器作为弱分类池中所选取的弱分类器,以计算出弱分类器的投票权值,满足似然度conf(x)的计算;(3)通过调整弱分类的投票权值,在步骤五中计算得到的似然度能够更为精确地反映候选图像区域为目标图像区域的可能性,从而提高了整个强分类器对目标图像区域与背景图像区域的判别能力,因此能在较为复杂的场景中对特定目标物进行连续跟踪;(4)通过在线分类器的训练,使得在每一帧视频中完成跟踪任务后可以及时利用当前的判别结果作为训练样本,即目标图像区域,来训练分类器,从而使强分类器能够充分利用当前视频图像中的信息来保持自身的判别能力;(5)通过样本分布权值的调整,克服训练过程中作为训练样本的背景图像区域在数量上远大于目标图像区域的问题,避免了训练所得的分类器对目标图像区域判别能力的下降;(6)设置辅助分类器,能替换掉弱分类器池中一些分类误差高的弱分类器,进一步保持了分类器能够提供具有一定判别性的弱分类器的能力。
附图说明
为了使本发明的内容更容易被清楚的理解,下面根据的具体实施例并结合附图,对本发明作进一步详细的说明,其中
图1是本发明的目标跟踪方法流程图;
图2是本发明用于人脸在外物遮挡情况下的跟踪结果;
图3是本发明用于人脸发生变化和遮挡情况下的跟踪结果;
图4是本发明用于车辆跟踪结果。
具体实施方式
下面结合附图及实施例对本发明进行详细说明:
如图1所示,一种目标图像区域跟踪方法,包括:
步骤一、在一视频的第一帧图像中,选取任意一区域作为目标图像区域,并记录该目标图像区域在所述第一帧图像中的位置,在该目标图像区域周围随机采集背景图像区域。
步骤二、设置T个弱分类器池和一辅助分类器池,并设定每个弱分类器池和所述辅助分类器池中包括的弱分类器个数N。
所述辅助分类器池其适于提供弱分类器以替换各弱分类器池中分类误差高的弱分类器,即将替换掉的弱分类器放入辅助弱分类器池,作为后续用于替换的弱分类器,其能保持分类器能够提供具有一定判别性的弱分类器的能力。
步骤三、所述目标图像区域和背景图像区域作为分别目标图像区域样本和背景图像区域样本,以计算Haar特征值x,且设Haar特征值x都服从高斯分布,即目标图像区域样本的Haar特征值所服从的高斯分布函数为 ,而背景图像区域样本的Haar特征值所服从的高斯分布函数为 。
其中,数学上,高斯分布也称为正态分布。高斯分布函数的具体形式为:
将所述目标图像区域样本和背景图像区域样本的Haar特征值输入各弱分类器,则各弱分类器以阈值分类器的形式对于Haar特征值的判别值h i (x)计算为:
上式中sign为数学标准中定义的符号函数。
步骤四、在目标图像区域样本和背景图像区域样本的基础上,通过累积重要性权值计算出各弱分类器的分类误差e,并以具有最小分类误差的弱分类器作为弱分类池中所选取的弱分类器,并计算相应弱分类器的投票权值 α:当分类误差 时, α为0;当分类误差 时, ;同时计算出分类误差高的弱分类器,并利用所述辅助分类器池中的弱分类器分别替换掉各弱分类器池中所述分类误差高的弱分类器。
步骤五、在所述视频的下一帧图像中,根据所记录的目标图像区域样本在所述第一帧图像中的位置,在该位置周围随机采样可能成为当前帧图像中的目标图像区域的候选图像区域;其中位置周围可以是一个圆形区域、方形区域或者是三角形区域。
步骤六、累计各弱分类器池中所选出的弱分类器对于候选图像区域的判别值h i (x),并计算出每个候选图像区域的似然度conf(x i ),选取具有最大似然度conf(x i )的候选图像区域作为所述当前帧中的目标图像区域,其中似然度conf(x)的计算公式为:
其中α i 表示第i个弱分类器池中所选出的弱分类器的投票权值。
步骤七、根据所述步骤六选取的目标图像区域记录该目标图像区域样本在当前帧图像中的位置,在该目标图像区域周围随机采集背景图像区域。
返回步骤三,完成后续一帧图像中的目标图像区域跟踪。
所述步骤四中通过累积重要性权值计算出各弱分类器的分类误差e的方法包括:
分类误差e的计算公式为:
所述目标图像区域样本和背景图像区域样本构成训练样本。
所述重要性权值 的更新方法包括:
所述分类器池对训练样本的分布情况进行估计,并生成相应的估计值,即样本分布权值;在每一帧视频中完成目标跟踪任务后,对每一个弱分类器池的样本分布权值进行更新。
在样本分布权值更新过程中,每一个弱分类器池的样本分布权值计算都依赖于前一个已更新样本分布权值的分类器池; 依次通过对每个弱分类器池的样本分布权值进行更新计算以更新所有弱分类器池分布权值。
针对弱分类器分类,计算调整系数:
其中M为中间量,即 ,中间量 ;在此基础上,第i个弱分类器池分类误差的调整为:当弱分类器的判别结果与训练样本的实际类别不一致时,相应的分类误差为 ;当弱分类器的判别结果与训练样本的实际类别一致时,相应的分类误差为 。
在得到第i个弱分类器池的分类误差后,重要性权值为:当弱分类器池中所选弱分类器的判别结果与训练样本的实际类别不一致时, ;当弱分类器池中所选弱分类器的判别结果与训练样本的实际类别一致时, ;其中 为前一分类器池中所选弱分类器调整后的重要性权值。
从图2、3、4可以看出,本发明在目标进行遮挡、目标发生改变或者共同作用时,都具有很好的跟踪效果,目标不会丢失。
显然,上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而这些属于本发明的精神所引伸出的显而易见的变化或变动仍处于本发明的保护范围之中。
Claims (4)
1.一种目标图像区域跟踪方法,包括:
步骤一、在一视频的第一帧图像中,选取任意一区域作为目标图像区域,并记录该目标图像区域在所述第一帧图像中的位置,在该目标图像区域周围随机采集背景图像区域;
步骤二、设置T个弱分类器池和一辅助分类器池,并设定每个弱分类器池和所述辅助分类器池中包括的弱分类器个数N;
步骤三、所述目标图像区域和背景图像区域作为分别目标图像区域样本和背景图像区域样本,以计算Haar特征值x,且设Haar特征值x都服从高斯分布,即目标图像区域样本的Haar特征值所服从的高斯分布函数为 ,而背景图像区域样本的Haar特征值所服从的高斯分布函数为 ;
将所述目标图像区域样本和背景图像区域样本的Haar特征值输入各弱分类器,则各弱分类器以阈值分类器的形式对于Haar特征值的判别值h i (x)计算为:
步骤四、在目标图像区域样本和背景图像区域样本的基础上,通过累积重要性权值计算出各弱分类器的分类误差e,并以具有最小分类误差的弱分类器作为弱分类池中所选取的弱分类器,并计算相应弱分类器的投票权值 α:当分类误差 时, α为0;当分类误差 时, ;同时计算出分类误差高的弱分类器,并利用所述辅助分类器池中的弱分类器分别替换掉各弱分类器池中所述分类误差高的弱分类器;
步骤五、在所述视频的下一帧图像中,根据上一帧视频所记录的目标图像区域样本在该视频帧中的位置,在该位置周围随机采样可能成为当前帧图像中的目标图像区域的候选图像区域;
步骤六、累计各弱分类器池中所选出的弱分类器对于候选图像区域的判别值h i (x),并计算出每个候选图像区域的似然度conf(x i ),选取具有最大似然度conf(x i )的候选图像区域作为所述当前帧中的目标图像区域,其中似然度conf(x)的计算公式为:
步骤七、根据所述步骤六选取的目标图像区域记录该目标图像区域样本在当前帧图像中的位置,在该目标图像区域周围随机采集背景图像区域;
返回步骤三,完成后续一帧图像中的目标图像区域跟踪。
4.根据权利要求3所述的目标图像区域跟踪方法,其特征在于,所述目标图像区域样本和背景图像区域样本构成训练样本;
所述分类器池对训练样本的分布情况进行估计,并生成相应的估计值,即样本分布权值;在每一帧视频中完成目标跟踪任务后,对每一个弱分类器池的样本分布权值进行更新;
在样本分布权值更新过程中,每一个弱分类器池的样本分布权值计算都依赖于前一个已更新样本分布权值的分类器池; 依次通过对每个弱分类器池的样本分布权值进行更新计算以更新所有弱分类器池分布权值;
针对弱分类器分类,计算调整系数;
其中M为中间量,即 ,中间量 ;在此基础上,第i个弱分类器池分类误差的调整为:当弱分类器的判别结果与训练样本的实际类别不一致时,相应的分类误差为 ;当弱分类器的判别结果与训练样本的实际类别一致时,相应的分类误差为 ;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210370300.XA CN102915450B (zh) | 2012-09-28 | 2012-09-28 | 一种在线自适应调整的目标图像区域跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210370300.XA CN102915450B (zh) | 2012-09-28 | 2012-09-28 | 一种在线自适应调整的目标图像区域跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102915450A true CN102915450A (zh) | 2013-02-06 |
CN102915450B CN102915450B (zh) | 2016-11-16 |
Family
ID=47613810
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210370300.XA Expired - Fee Related CN102915450B (zh) | 2012-09-28 | 2012-09-28 | 一种在线自适应调整的目标图像区域跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102915450B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106295666A (zh) * | 2015-05-14 | 2017-01-04 | 佳能株式会社 | 分类器生成、更新与对象检测方法和装置及图像处理设备 |
CN107004159A (zh) * | 2014-12-07 | 2017-08-01 | 微软技术许可有限责任公司 | 主动机器学习 |
CN109325583A (zh) * | 2017-07-31 | 2019-02-12 | 财团法人工业技术研究院 | 深度神经网络、使用深度神经网络的方法及可读媒体 |
WO2022247448A1 (zh) * | 2021-05-25 | 2022-12-01 | 华为云计算技术有限公司 | 数据处理方法、装置、计算设备和计算机可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060165258A1 (en) * | 2005-01-24 | 2006-07-27 | Shmuel Avidan | Tracking objects in videos with adaptive classifiers |
CN101398893A (zh) * | 2008-10-10 | 2009-04-01 | 北京科技大学 | 一种改进AdaBoost算法的鲁棒人耳检测方法 |
CN101620673A (zh) * | 2009-06-18 | 2010-01-06 | 北京航空航天大学 | 一种鲁棒的人脸检测及跟踪方法 |
CN101799875A (zh) * | 2010-02-10 | 2010-08-11 | 华中科技大学 | 一种目标检测方法 |
-
2012
- 2012-09-28 CN CN201210370300.XA patent/CN102915450B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060165258A1 (en) * | 2005-01-24 | 2006-07-27 | Shmuel Avidan | Tracking objects in videos with adaptive classifiers |
CN101398893A (zh) * | 2008-10-10 | 2009-04-01 | 北京科技大学 | 一种改进AdaBoost算法的鲁棒人耳检测方法 |
CN101620673A (zh) * | 2009-06-18 | 2010-01-06 | 北京航空航天大学 | 一种鲁棒的人脸检测及跟踪方法 |
CN101799875A (zh) * | 2010-02-10 | 2010-08-11 | 华中科技大学 | 一种目标检测方法 |
Non-Patent Citations (2)
Title |
---|
MINH-TRI PHAM ETC.: "Online learning Asymmetric Boosted Classifiers for Object Detection", 《IEEE》, 22 June 2007 (2007-06-22), pages 1 - 8, XP031114340 * |
钱诚: "增量型目标跟踪关键技术研究", 《浙江大学博士学位论文》, 15 July 2011 (2011-07-15) * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107004159A (zh) * | 2014-12-07 | 2017-08-01 | 微软技术许可有限责任公司 | 主动机器学习 |
CN107004159B (zh) * | 2014-12-07 | 2024-03-01 | 微软技术许可有限责任公司 | 主动机器学习 |
CN106295666A (zh) * | 2015-05-14 | 2017-01-04 | 佳能株式会社 | 分类器生成、更新与对象检测方法和装置及图像处理设备 |
US10242295B2 (en) | 2015-05-14 | 2019-03-26 | Canon Kabushiki Kaisha | Method and apparatus for generating, updating classifier, detecting objects and image processing device |
CN106295666B (zh) * | 2015-05-14 | 2020-03-03 | 佳能株式会社 | 获取分类器、检测对象的方法和装置及图像处理设备 |
CN109325583A (zh) * | 2017-07-31 | 2019-02-12 | 财团法人工业技术研究院 | 深度神经网络、使用深度神经网络的方法及可读媒体 |
CN109325583B (zh) * | 2017-07-31 | 2022-03-08 | 财团法人工业技术研究院 | 深度神经网络结构、使用深度神经网络的方法及可读媒体 |
WO2022247448A1 (zh) * | 2021-05-25 | 2022-12-01 | 华为云计算技术有限公司 | 数据处理方法、装置、计算设备和计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN102915450B (zh) | 2016-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111460926B (zh) | 一种融合多目标跟踪线索的视频行人检测方法 | |
US10769454B2 (en) | Camera blockage detection for autonomous driving systems | |
CN101470809B (zh) | 一种基于扩展混合高斯模型的运动目标检测方法 | |
CN104537673B (zh) | 基于多阈值和自适应模糊聚类的红外图像分割方法 | |
CN109886994B (zh) | 视频跟踪中自适应遮挡检测系统及方法 | |
CN105354791A (zh) | 一种改进的自适应混合高斯前景检测方法 | |
CN107424171A (zh) | 一种基于分块的抗遮挡目标跟踪方法 | |
CN103971386A (zh) | 一种动态背景场景下的前景检测方法 | |
CN105631895A (zh) | 结合粒子滤波的时空上下文视频目标跟踪方法 | |
CN106682603A (zh) | 一种基于多源信息融合的实时驾驶员疲劳预警系统 | |
CN106780557A (zh) | 一种基于光流法和关键点特征的运动目标跟踪方法 | |
CN104850865A (zh) | 一种多特征迁移学习的实时压缩跟踪方法 | |
CN102982340A (zh) | 基于半监督学习和随机蕨类分类器的目标跟踪方法 | |
CN100531405C (zh) | 体育视频目标跟踪方法 | |
CN103177454A (zh) | 一种动态图像运动目标检测方法 | |
CN105224285A (zh) | 眼睛开闭状态检测装置和方法 | |
CN104269028A (zh) | 一种疲劳驾驶检测方法及系统 | |
CN101930611A (zh) | 多视图面部追踪 | |
CN102915450A (zh) | 一种在线自适应调整的目标图像区域跟踪方法 | |
CN102999760A (zh) | 投票权值在线自适应调整的目标图像区域跟踪方法 | |
CN103136534A (zh) | 自适应的区域行人计数方法及装置 | |
CN105303571A (zh) | 用于视频处理的时空显著性检测方法 | |
CN103942542A (zh) | 人眼跟踪方法及装置 | |
CN104123714A (zh) | 一种人流量统计中最优目标检测尺度的生成方法 | |
CN105809713A (zh) | 基于在线Fisher判别机制增强特征选择的目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20161116 Termination date: 20170928 |