CN104866821A - 基于机器学习的视频物体跟踪方法 - Google Patents
基于机器学习的视频物体跟踪方法 Download PDFInfo
- Publication number
- CN104866821A CN104866821A CN201510222535.8A CN201510222535A CN104866821A CN 104866821 A CN104866821 A CN 104866821A CN 201510222535 A CN201510222535 A CN 201510222535A CN 104866821 A CN104866821 A CN 104866821A
- Authority
- CN
- China
- Prior art keywords
- tracking
- mode
- template
- detect
- posterior probability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 17
- 238000000034 method Methods 0.000 title claims abstract description 17
- 238000001514 detection method Methods 0.000 claims abstract description 9
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 230000008878 coupling Effects 0.000 claims description 5
- 238000010168 coupling process Methods 0.000 claims description 5
- 238000005859 coupling reaction Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 4
- 210000001747 pupil Anatomy 0.000 claims description 3
- 238000012546 transfer Methods 0.000 claims description 3
- 230000001186 cumulative effect Effects 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 claims description 2
- 238000005303 weighing Methods 0.000 claims 1
- 230000008859 change Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000009825 accumulation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000009415 formwork Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006740 morphological transformation Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 239000000700 radioactive tracer Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
基于机器学习的视频物体跟踪方法,用物体检测方式或者人眼手动标定的方式标定物的属性;跟踪物体选择,其中物体为视频序列中的一切物体;对视频序列采取直方图均衡化处理和去噪处理;将获得的物体模板信息参数传递给跟踪模板,进行模板匹配的跟踪,之后利用不同的预测方式对运动的物体位置进行预测;基于模板匹配的属性(预测则用Kalman和Camshift两种预测方式来预测;跟踪方式中两种预测的权重D选择贝叶斯决策来进行纠正;获取物体的真实属性S检测。
Description
一、技术领域
本发明涉及一种物体跟踪方法,特别是设计一种机器学习的跟踪算法,属于模式识别领域和机器视觉领域。
二、背景技术
随着信息技术与智能科学的迅速发展,计算机视觉已经成为IT产业和高新技术领域的前沿。视觉跟踪是当前计算机视觉领域的热点问题之一。
早在20世纪50年代初期,GAC公司已经为美国海军研制开发了自动地形识别的跟踪系统(Automatic Terrain Recognition and NavigationSystem,ATRAN)。70年代初期,随着Kalman滤波技术引入雷达跟踪中,目标检测与跟踪理论开始引起人们的极大关注。
相比之下,国内对视频运动目标检测与跟踪技术研究比较晚,由于物体在运动中属性(形状,位置,大小,颜色等)会发生改变,如果不能及时判定出对物体有利的跟踪方式和更新跟踪的物体的属性值,那么跟踪就会发生较大的偏差,这也是现阶段视频物体跟踪的难点。
有鉴于此,本发明所阐述的机器学习方式的物体跟踪方式,更具实时的学习物体属性变化,切换物体的跟踪方式和更新物体的属性值,使得物体的跟踪更加准确稳定。
三、发明内容
本发明的目的是:提出采用机器学习的算法,将物体检测和物体跟踪相结合,计算出哪一种跟踪方式更加适合当前物体的跟踪模式并且动态更新物体的属性(形状、位置、大小、颜色等),实时切换跟踪策略,使得对物体跟踪更加稳定,增强了跟踪物体的适应性。
为了达成上述目的,本发明所采用的技术方案如下:基于机器学习的视频物体跟踪方法,用物体检测方式或者人眼手动标定的方式标定物的属性;跟踪物体选择,其中物体为视频序列中的一切物体(不单是实例中的人脸瞳孔);对视频序列采取直方图均衡化处理和去噪处理(也可包括一些突出跟踪物体的图像处理);将获得的物体模板信息参数传递给跟踪模板,进行模板匹配的跟踪,之后利用不同的预测方式对运动的物体位置进行预测。
基于模板匹配的属性(跟踪框的位置大小)预测则用Kalman和Camshift两种预测方式来预测;Kalman对物体的的位置鲁棒性强,Camshift对物体的形状变化鲁棒性强,所以在跟踪方式中两种预测的权重D选择就用机器学习算法中的计算后验概率的方式即贝叶斯决策来进行纠正;(其方式采用了贝叶斯计算方式以及贝叶斯衍生出一系列的后验概率计算方式),最后将预测的准确位置传递给模板进行精确的匹配。
在预测期间利用检测值和预测值的贝叶斯概率公式计算出较为准确的跟踪方式:在跟踪物体的同时用低帧率的方式对物体进行检测,
获取物体的真实属性S检测,将不同方式预测出的跟踪属性S跟踪和检测出的真实属性S检测进行后验概率的计算即贝叶斯决策,通过计算出来的概率值大小调整所用预测方式的权重D,同时更新跟踪模板的信息。选择预测方式应用了机器学习的方式,实时地将预测值和检测值进行后验概率的运算,获得两种预测方式接近真实值得概率的大小。
机器学习的方式利用了计算后验概率的方式,其方式采用了贝叶斯计算方式以及贝叶斯衍生出一系列的后验概率计算方式。
采用的匹配模板也不唯一,可以用可变模板也可以用固定模版。
进一步,在此方法中有两条时序同时进行(检测时序和跟踪时序),其中检测时序的优先级高于跟踪时序,用检测时序纠正跟踪时序的累计误差。
进一步,在利用模板匹配进行匹配时候,利用当前帧匹配后模板和检测到的模板更新后帧匹配的模板参数。将获得的物体模板信息参数传递给跟踪模板,进行模板匹配(Match Template)的跟踪,基于模板匹配的属性(跟踪框的位置大小)预测则可以用Kalman和Camshift两种预测方式来预测,根据Kalman和Camshift两种预测的原理可以得知Kalman对物体的的位置鲁棒性比较强,Camshift对物体的形状变化鲁棒性比较强,所以在跟踪方式中两种预测的权重D选择就需要用到机器学习算法中的贝叶斯决策来进行纠正。
在跟踪物体的同时用低帧率的方式对物体进行检测,获取物体的真实属性S检测,将不同方式预测出的跟踪属性S跟踪和检测出的真实属性S检测进行后验概率的计算(贝叶斯决策),通过计算出来的概率值大小调整所用预测方式的权重D,同时更新跟踪模板的信息。这样的动态更新的策略使得跟踪适应性更广。
本发明的有益效果是:与现有技术相比,其显著优点是:
1.对于大多数的视频跟踪物体都有很强的适应性
2.对于物体在运动中的形态变换,颜色变化适应性强
3.长时间的跟踪不会产生误差累积,也不会产生跟踪偏移稳定
4对于遮挡物体也能很好跟踪。
四、附图说明
图1为本发明跟踪的整体流程图。
图2为本发明Camshift和Kalman预测算法权重计算的流程示意图。
图3为本发明Match Template跟踪模板更新算法流程示意图。
五、具体实施方式
为了更了解本发明的技术内容,特举具体实例说明如下(以人脸瞳孔跟位置踪为例子)。
如图1所示,用视频采集器对所需跟踪物体(人脸)进行采集,然后用人脸分类器对图片中的人脸进行检测并且记录检测到的人脸框位置X物体检测,Y检 测物体和像素I物体检测。将这些参数初始化Kalman和Camshift滤波器,在下一帧Kalman会预测出人脸可能出现位置Xk,Yk,同样Camshift也会预测出人脸可能出现位置Xc,Yc,如果人脸分类器如果能检测到人脸那么也会出现检测到的值X检测,Y检测这样就可以算出哪种预测更加符合检测值,那么就可以加大这种预测方法的权重,这样在用模板匹配的时候可以减少匹配时间。
计算权重的方法用到了机器学习的贝叶斯决策,也就是算出预测方式的后验概率。贝叶斯公式如下:
其公式表示:通过先验概率p(wi)、概率密度函数p(x|wi)以及证据因子p(x)可以求出后验概率p(wi|x)。根据公式可以算出后验概率分别如下:
pk=Bk(Xk,Yk,Xc,Yc,X检测,Y检测)
pc=Bc(Xk,Yk,Xc,Yc,X检测,Y检测)
其中Bk和Bc是后验概率的映射函数,根据属性的不同计算后验概率的方法可以不同,由于XY表示坐标那么后验概率可以用距离远近来衡量。最后得出的结果如下:
获得后验概率以后根据后验概率可以算出两种方式所占的权重Dk和Dc。那么最终的预测位置坐标为:
X=DkXk+DcXc
Y=DkYk+DkYk
具体的算法流程如图2所示。
如图3所示将基于机器学习算法预测属性参数传递给模板,让模板在传递的位置附近进行模板的匹配,衡量匹配符合的方法有很多例如平方差匹配、标准平方差匹配、相关匹配、标准相关匹配、相关匹配等根据不同的跟踪要求选择不同的跟踪匹配方式,最后将匹配到的模板进行更新作为下一帧的匹配模版。如果在前帧可以检测到物体那么优先采用检测获得的模板参数进行下一帧的模版匹配。
虽然本发明已以较佳实施例揭露如上,然其并非用以限定本发明。本发明所属技术领域中具有通常知识者,在不脱离本发明的精神范围内,当可作各种的更动与润饰。因此,本发明的保护范围当视权利要求书所界定者为准。
Claims (5)
1.基于机器学习的视频物体跟踪方法,用物体检测方式或者人眼手动标定的方式标定物的属性;跟踪物体选择,其中物体为视频序列中的一切物体(不单是实例中的人脸瞳孔);对视频序列采取直方图均衡化处理和去噪处理(也可包括一些突出跟踪物体的图像处理);将获得的物体模板信息参数传递给跟踪模板,进行模板匹配的跟踪,之后利用不同的预测方式对运动的物体位置进行预测;基于模板匹配的属性(跟踪框的位置大小)预测则用Kalman和Camshift两种预测方式来预测;跟踪方式中两种预测的权重D选择用机器学习算法中的计算后验概率的方式即贝叶斯决策来进行纠正;在跟踪物体的同时用低帧率的方式对物体进行检测,获取物体的真实属性S检测。
2.根据权利要求1所述的方法,其特征在于,衡量模板匹配的方式有欧式距离,马氏距离,相关系数等。
3.根据权利要求1所述的方法,其特征在于,在机器学习算法中的计算后验概率的方式中有两条时序同时进行(检测时序和跟踪时序),其中检测时序的优先级高于跟踪时序,用检测时序纠正跟踪时序的累计误差。
4.根据权利要求2的方法,其特征在于,在利用模板匹配进行匹配时候,利用当前帧匹配后模板和检测到的模板更新后帧匹配的模板参数。
5.根据权利要求1所述的方法,其特征在于,用视频采集器对所需跟踪物体(人脸)进行采集,然后用人脸分类器对图片中的人脸进行检测并且记录检测到的人脸框位置X物体检测,Y检测物体和像素I物体检测。将这些参数初始化Kalman和Camshift滤波器,在下一帧Kalman会预测出人脸可能出现位置Xk,Yk,同样Camshift也会预测出人脸可能出现位置Xc,Yc,如果人脸分类器如果能检测到人脸那么也会出现检测到的值X检测,Y检测这样就可以算出哪种预测更加符合检测值,那么就加大这种预测方法的权重,这样在用模板匹配的时候可以减少匹配时间;计算权重的方法用到了机器学习的贝叶斯决策,也就是算出预测方式的后验概率。贝叶斯公式如下:
其公式表示:通过先验概率P(wi)、概率密度函数P(xIwi)以及证据因子p(x)可以求出后验概率p(wiIx);根据公式算出后验概率分别如下:
pk=Bk(Xk,Yk,Xc,Yc,X检测,Y检测)
pc=Bc(Xk,Yk,Xc,Yc,X检测,Y检测)
其中Bk和Bc是后验概率的映射函数,根据属性的不同计算后验概率的方法不同,由于XY表示坐标那么后验概率可以用距离远近来衡量。最后得出的结果如下:
获得后验概率以后根据后验概率可以算出两种方式所占的权重Dk和Dc;那么最终的预测位置坐标为:
X=DkXk+DcXc
Y=DkYk+DkYk。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510222535.8A CN104866821B (zh) | 2015-05-04 | 2015-05-04 | 基于机器学习的视频物体跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510222535.8A CN104866821B (zh) | 2015-05-04 | 2015-05-04 | 基于机器学习的视频物体跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104866821A true CN104866821A (zh) | 2015-08-26 |
CN104866821B CN104866821B (zh) | 2018-09-14 |
Family
ID=53912642
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510222535.8A Active CN104866821B (zh) | 2015-05-04 | 2015-05-04 | 基于机器学习的视频物体跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104866821B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105424043A (zh) * | 2015-11-02 | 2016-03-23 | 北京航空航天大学 | 一种基于判断机动的运动状态估计方法 |
CN107527370A (zh) * | 2017-07-26 | 2017-12-29 | 南京理工大学 | 一种基于camshift的目标跟踪方法 |
CN109766809A (zh) * | 2018-12-29 | 2019-05-17 | 山东财经大学 | 一种改进的人眼检测及跟踪方法 |
CN110719487A (zh) * | 2018-07-13 | 2020-01-21 | 深圳地平线机器人科技有限公司 | 视频预测方法和装置、电子设备及车辆 |
CN110753239A (zh) * | 2018-07-23 | 2020-02-04 | 深圳地平线机器人科技有限公司 | 视频预测方法、视频预测装置、电子设备和车辆 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1885310A (zh) * | 2006-06-01 | 2006-12-27 | 北京中星微电子有限公司 | 人脸模型训练模块及方法、人脸实时认证系统及方法 |
CN101303726A (zh) * | 2008-06-06 | 2008-11-12 | 重庆大学 | 基于粒子动态采样模型的红外人体目标跟踪系统 |
US8041075B2 (en) * | 2005-02-04 | 2011-10-18 | British Telecommunications Public Limited Company | Identifying spurious regions in a video frame |
US8934665B2 (en) * | 2007-02-07 | 2015-01-13 | Samsung Electronics Co., Ltd. | Method and apparatus for tracking object, and method and apparatus for calculating object pose information |
CN104299248A (zh) * | 2014-11-04 | 2015-01-21 | 哈尔滨工程大学 | 利用前视声呐图像对水下多个动态目标运动预测的方法 |
-
2015
- 2015-05-04 CN CN201510222535.8A patent/CN104866821B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8041075B2 (en) * | 2005-02-04 | 2011-10-18 | British Telecommunications Public Limited Company | Identifying spurious regions in a video frame |
CN1885310A (zh) * | 2006-06-01 | 2006-12-27 | 北京中星微电子有限公司 | 人脸模型训练模块及方法、人脸实时认证系统及方法 |
US8934665B2 (en) * | 2007-02-07 | 2015-01-13 | Samsung Electronics Co., Ltd. | Method and apparatus for tracking object, and method and apparatus for calculating object pose information |
CN101303726A (zh) * | 2008-06-06 | 2008-11-12 | 重庆大学 | 基于粒子动态采样模型的红外人体目标跟踪系统 |
CN104299248A (zh) * | 2014-11-04 | 2015-01-21 | 哈尔滨工程大学 | 利用前视声呐图像对水下多个动态目标运动预测的方法 |
Non-Patent Citations (1)
Title |
---|
刘雪: "基于图像序列的运动目标检测与跟踪算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105424043A (zh) * | 2015-11-02 | 2016-03-23 | 北京航空航天大学 | 一种基于判断机动的运动状态估计方法 |
CN105424043B (zh) * | 2015-11-02 | 2018-03-09 | 北京航空航天大学 | 一种基于判断机动的运动状态估计方法 |
CN107527370A (zh) * | 2017-07-26 | 2017-12-29 | 南京理工大学 | 一种基于camshift的目标跟踪方法 |
CN107527370B (zh) * | 2017-07-26 | 2021-02-23 | 南京理工大学 | 一种基于camshift的目标跟踪方法 |
CN110719487A (zh) * | 2018-07-13 | 2020-01-21 | 深圳地平线机器人科技有限公司 | 视频预测方法和装置、电子设备及车辆 |
CN110719487B (zh) * | 2018-07-13 | 2021-11-09 | 深圳地平线机器人科技有限公司 | 视频预测方法和装置、电子设备及车辆 |
CN110753239A (zh) * | 2018-07-23 | 2020-02-04 | 深圳地平线机器人科技有限公司 | 视频预测方法、视频预测装置、电子设备和车辆 |
CN110753239B (zh) * | 2018-07-23 | 2022-03-08 | 深圳地平线机器人科技有限公司 | 视频预测方法、视频预测装置、电子设备和车辆 |
CN109766809A (zh) * | 2018-12-29 | 2019-05-17 | 山东财经大学 | 一种改进的人眼检测及跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104866821B (zh) | 2018-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ferrera et al. | OV $^{2} $ SLAM: A fully online and versatile visual SLAM for real-time applications | |
CN107480704B (zh) | 一种具有遮挡感知机制的实时视觉目标跟踪方法 | |
CN105678689B (zh) | 高精地图数据配准关系确定方法及装置 | |
CN104866821A (zh) | 基于机器学习的视频物体跟踪方法 | |
CN110782483B (zh) | 基于分布式相机网络的多视图多目标跟踪方法及系统 | |
CN103259962A (zh) | 一种目标追踪方法和相关装置 | |
CN109975798A (zh) | 一种基于毫米波雷达与摄像头的目标检测方法 | |
CN105224947A (zh) | 分类器训练方法和系统 | |
CN113192105B (zh) | 一种室内多人追踪及姿态估量的方法及装置 | |
CN110501671A (zh) | 一种基于测量分配的目标跟踪方法及装置 | |
CN115731268A (zh) | 基于视觉/毫米波雷达信息融合的无人机多目标跟踪方法 | |
CN103391430B (zh) | 基于dsp的相关跟踪方法及专用装置 | |
CN103559725B (zh) | 一种面向视觉跟踪的无线传感器节点优化选择方法 | |
US20230228593A1 (en) | Method, device and system for perceiving multi-site roadbed network and terminal | |
CN115063454B (zh) | 多目标跟踪匹配方法、装置、终端及存储介质 | |
CN110992424B (zh) | 基于双目视觉的定位方法和系统 | |
CN104021289A (zh) | 一种非高斯非稳态噪声建模方法 | |
US20220026557A1 (en) | Spatial sensor system with background scene subtraction | |
CN112949519A (zh) | 目标检测方法、装置、设备及存储介质 | |
CN109859243A (zh) | 一种基于尺度自适应块粒子的运动目标跟踪方法 | |
CN115797736A (zh) | 目标检测模型的训练和目标检测方法、装置、设备和介质 | |
Zhao et al. | Gaussian processes for flow modeling and prediction of positioned trajectories evaluated with sports data | |
CN106101640A (zh) | 自适应视频传感器融合方法及装置 | |
CN106570536B (zh) | 一种时差定位系统目标高精度跟踪滤波方法 | |
De Maio et al. | Deep bayesian icp covariance estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |