CN102129687B - 动态场景下基于局部背景剪除的自适应目标跟踪方法 - Google Patents
动态场景下基于局部背景剪除的自适应目标跟踪方法 Download PDFInfo
- Publication number
- CN102129687B CN102129687B CN201010034353.5A CN201010034353A CN102129687B CN 102129687 B CN102129687 B CN 102129687B CN 201010034353 A CN201010034353 A CN 201010034353A CN 102129687 B CN102129687 B CN 102129687B
- Authority
- CN
- China
- Prior art keywords
- target
- local background
- model
- input picture
- object module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000011156 evaluation Methods 0.000 claims abstract description 22
- 230000003044 adaptive effect Effects 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 abstract description 16
- 230000000007 visual effect Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明为一种动态场景下基于局部背景剪除的自适应目标跟踪方法,包括步骤:对于每一帧输入图像,根据当前时刻目标模型的特征分量的可分性评价函数计算输入图像的每一个像素属于目标的概率值,并生成一个输入图像对应的概率图;根据输入图像对应的概率图,利用局部背景剪除提取图像中的目标区域和目标周围的局部背景区域,并确定目标在输入图像中的位置和目标尺寸;分别建立目标的观测模型和局部背景的观测模型;根据目标的观测模型和局部背景的观测模型,对目标模型和局部背景模型进行更新;对更新后的目标模型的每一个特征分量进行可分性评价,得到一个新的目标模型的特征分量可分性评价函数,用于下一帧输入图像中目标的跟踪。
Description
技术领域
本发明属于图像处理技术领域的,具体涉及一种动态场景下基于局部背景剪除的自适应目标跟踪方法。
背景技术
视觉信息是人类从客观世界获得信息的主要来源之一,随着计算机技术的不断发展,利用计算机实现人类的视觉功能吸引了众多的研究者。目标跟踪是当前计算机视觉领域中的热点问题之一,并被广泛地应用到视频监控、智能交通、图像压缩、视频检索、机器人导航、人机交互、虚拟现实以及军事等众多领域中。
背景剪除是常用的目标检测和跟踪方法,这类方法往往先建立背景的高斯或混合高斯模型(Stauffer,C.,and Grimson,W.,“Learning patterns ofactivity using real-time tracking,”IEEE Trans.Pattern Anal.Mach.Intell.,Aug.2000.22,(8),pp.747-757;Haritaoglu,I.,Harwood D.,and Dacis L.S.,“W4:Real-Time Surveillance of People and Their Activities,”IEEE Trans.Pattern Anal.Mach.Intell.,2000,22,(8),pp.809-830),继而通过检测图像中像素值的变化来实现对目标的检测和跟踪。这类方法具有实时性好、可靠性高的特点,或得了广泛的应用。但这类方法往往基于背景不变或变化较为缓慢的假设,因而只适用于静态场景或场景变化较慢的情况。
对于动态场景下的目标跟踪,如移动机器人视觉跟踪系统,由于背景随时间存在较大的变化,传统的背景剪除方法不再适用。对于动态场景下的目标跟踪,目前常用的方法有均值漂移(Comaniciu,D.,Ramesh,V.,andMeer,P.,“Kernel-based object tracking,”IEEE Trans.Pattern Anal.Mach.Intell.,May 2003,25,(5),pp.564-577)、粒子滤波跟踪(Wang,H.,Suter,D.,,Schindler,K.,and Shen,C.,“Adaptive Object Tracking Based on anEffective Appearance Filter,”IEEE Trans.Pattern Anal.Mach.Intell.,2007,29,(9),pp.1661-1667;Y.Lao,J.Zhu and Y.F.Zheng,“Sequential ParticleGeneration for Visual Tracking,”IEEE Trans.Circuits Syst.Video Technol.,vol.19,no.9,pp.1365-1378,Sep.2009)等,这些方法容易受到背景的干扰,如当目标周围存在和目标相似的物体时,跟踪精度往往会下降,甚至错误地跟踪到其他物体。
动态场景下的目标跟踪的难点可以归结为以下因素:
(1)内在目标外观变化,包括:目标姿态变化、尺度变化、复杂运动、形变,以及部分或全部遮挡等;
(2)外在环境因素造成的干扰,包括:光线变化、杂乱背景、背景中存在和目标特征相似的物体、噪声、摄像机运动和振动等。
发明内容
(一)要解决的技术问题
有鉴于此,本发明的目的在于克服现有技术的不足,提供一种动态场景下基于局部背景剪除的自适应目标跟踪方法,该发明能够在动态场景下,将目标完整地从背景中提取出来,实现动态场景下对目标自适应提取和跟踪。
(二)技术方案
为达到上述目的,本发明提供动态场景下基于局部背景剪除的自适应目标跟踪方法,该方法包括步骤如下:
步骤S1:对于第t帧输入图像,根据当前时刻目标模型的特征分量的可分性评价函数计算输入图像的每一个像素属于目标的概率值,并生成一个输入图像对应的概率图;
步骤S2:根据输入图像对应的概率图,利用局部背景剪除提取图像中的目标区域和目标周围的局部背景区域,并确定输入图像中的目标状态,包括目标在输入图像中的位置和目标尺寸,从而实现在当前输入图像中对目标进行提取和跟踪,并输出目标在当前输入图像中的位置和目标尺寸;
步骤S3:根据目标区域和局部背景区域,分别建立目标的观测模型和局部背景的观测模型;
步骤S4:根据目标的观测模型和局部背景的观测模型,对目标模型和局部背景模型进行更新,得到新的目标模型和局部背景模型;
步骤S5:对更新后的目标模型的每一个特征分量的进行可分性评价,得到一个新的目标模型特征分量可分性评价函数,用于下一帧输入图像中目标的跟踪。
(三)有益效果:
本发明的有益效果在于:传统的背景剪除方法只适用于静态场景或场景变化较慢的情况下,对于动态场景下的目标跟踪,传统的背景剪除方法往往难以获得好的效果。本发明针对动态场景下,背景随时间变化较快的特点,在跟踪过程中除了建立和更新目标模型,同时在线建立并实时更新目标周围的局部背景模型。对于新输入的视频图像,利用目标运动的连续性和上一帧得到的目标模型和局部背景模型,通过对局部背景的剪除实现对当前图像中目标的提取和跟踪。该发明能够在动态场景下,将目标完整地从背景中提取出来,实现动态场景下对目标自适应提取和跟踪。大量实验证明了本发明的有效性。本发明(1)解决了传统背景剪除方法在动态场景下难以获得好的效果的缺陷,通过建立和更新局部背景模型来应对背景的快速变化;(2)能够快速适应环境和目标外观测变化;(3)实时性好,准确性和稳定性高。
附图说明
图1为本发明所提供方法的流程图。
图2为动态场景下基于局部背景剪除的自适应视觉跟踪实例。
具体实施方式
下面结合附图对本发明的实施例作详细的说明:本实施例在以本发明技术方案为前提下进行实施,结合详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述实施例。
如图1示出本发明所提供方法的流程图,在跟踪过程中除了建立和更新目标模型,同时在线建立并实时更新目标周围的局部背景模型,对于每一帧输入图像,通过对局部背景的剪除实现动态场景下对运动目标的提取和自适应跟踪,本发明包括以下步骤:
第一步:对于第t帧输入图像,根据当前时刻目标模型的特征分量的可分性评价函数计算输入图像的每一个像素属于目标的概率值,并生成一个输入图像对应的概率图;
第二步:根据输入图像对应的概率图,通过局部背景剪除提取图像中的目标区域和目标周围的局部背景区域,并确定输入图像中的目标状态,包括目标在输入图像中的位置和目标尺寸,从而实现在当前输入图像中对目标进行提取和跟踪,并输出目标在当前输入图像中的位置和目标尺寸;
第三步:根据目标区域和局部背景区域,分别建立目标的观测模型和局部背景的观测模型;
第四步:根据目标的观测模型和局部背景的观测模型,对目标模型和局部背景模型进行更新,得到新的目标模型和局部背景模型;
第五步:对更新后的目标模型的每一个特征分量的进行可分性评价,得到一个新的目标模型特征分量可分性评价函数,用于下一帧输入图像中目标的跟踪。
所述第一步,具体如下:
对于第t帧输入图像,目标模型和目标周围的局部背景模型采用具有H个区间的颜色直方图表示,分别表示为{ft[h]}h=1,...,H和{Bt[h]}h=1,...,H,且分别满足和每一个特征分量h对目标和局部背景的可分性利用评价函数Dt(h)来评价。
设{Xi}i=1,...,N表示输入图像所包含的像素,N为输入图像包含的像素的个数,我们首先将第i像素Xi通过映射函数b(Xi)转化到直方图的不同区间上,然后通过下式计算像素Xi属于目标的概率为:
其中,St(Xi)表示第t帧输入图像中第i个像素Xi属于目标的概率;Dt(·)表示目标模型中特征分量的可分性评价函数;目标模型采用直方图来表示;像素Xi通过映射函数b(Xi)转化到直方图的不同区间上;ε1和ε2表示设定的阈值,且ε1<ε2。
用HR,HG,HB分别为R,G,B颜色分量直方图的区间个数,且H=HR·HG·HB,用R(Xi),G(Xi),B(Xi)分别表示像素Xi的R,G,B颜色分量的值,则映射函数b(Xi)表示如下:
b(Xi)=R_ID(Xi)·HG·HB+G_ID(Xi)·HB+B_ID(Xi),
其中,
R_ID(Xi)=(R(Xi)-R(Xi)%(256/HR))/(256/HR)
G_ID(Xi)=(G(Xi)-G(Xi)%(256/HG))/(256/HG)
B_ID(Xi)=(B(Xi)-B(Xi)%(256/HB))/(256/HB),
上式中,%表示求余操作。
所述第二步,具体如下:
根据上一步得到的输入图像的第i个像素属于目标的概率值St(Xi),如果St(Xi)=1,则表示像素Xi属于目标,如果St(Xi)=0,则表示像素Xi属于背景,如果St(Xi)介于0和1之间,则表示像素Xi可能属于目标也可能属于背景。对于介于0和1之间的St(Xi),如果St(Xi)小于一个介于0和1之间的常数,则令St(Xi)=0,否则令St(Xi)=1。从而可以将输入图像的像素分为目标和背景两类,得到目标区域和目标周围的局部背景区域。为了提高目标的跟踪精度,这里采用均值漂移算法在生成的概率图上搜索目标在输入图像中的最优位置和目标尺寸。
所述第三步,具体如下:
根据第二步得到的目标区域和局部背景区域,分别建立目标的观测模型和局部背景的观测模型,表示如下:
其中,{ft o[h]}h=1,...,H和{Bt o[h]}h=1,...,H分别表示目标观测模型和局部背景的观测模型,目标观测模型和局部背景的观测模型采用具有H个区间的直方图来表示,h表示特征分量,且h=1,...,H;参数Cf和CB是归一化参数,分别用来满足和Rf和RB分别表示目标区域和目标周围的局部背景区域;δ(·)为狄拉克函数,当b(Xi)-h=0时,函数δ(b(Xi)-h)=1,反之当b(Xi)-h≠0时,则δ(b(Xi)-h)=0。
所述第四步,具体如下:
根据第三步得到的目标和局部背景的观测模型,对目标模型和局部背景模型进行更新。更新后的目标模型和局部背景模型表示如下:
其中,α∈[0,1]表示模型的学习因子,{ft+1[h]}h=1,...,H表示更新后的目标模型,{Bt+1[h]}i=1,...,H表示更新后的局部背景模型,目标模型和局部背景模型采用具有H个区间的直方图来表示。
所述第五步,具体如下:
对更新后的目标模型和局部背景模型的每一个特征分量进行可分性评价,得到一个新的目标模型特征分量的可分性评价函数,用于下一帧输入图像中目标的跟踪。新的目标模型特征分量的可分性评价函数表示如下:
其中,Dt+1(h)表示特征分量h对目标和背景的可分性评价函数,设定的常数η用来去掉较小的Bt+1[h]和ft+1[h],以提高算法的稳定性。
图2示出为动态场景下基于局部背景剪除的自适应视觉跟踪实例,本实施例具体实施过程如下:
步骤1:在第一帧图像上手动选取目标区域,目标区域采用矩形框表示,然后在目标框(表示目标的矩形框)的周围自动生成一个长和宽为目标框1.75倍的矩形框,两个矩形框间的区域作为局部背景区域。
步骤2:分别建立目标区域和局部背景区域的颜色直方图模型,颜色直方图模型采用RGB颜色空间,区间个数为16×16×16。
步骤3:对于新输入的图像,根据前一帧建立的目标模型和局部背景模型,利用公式(6)对每一个特征分量h∈[1,16×16×16]进行可分性评价,公式(6)中,设定的常数η取0.001。然后,利用公式(1)建立输入图像对应的概率图,概率图中每个像素的值被转换到[0,255]之间,概率图中像素值大于100的像素点属于目标,反之则属于背景,从而将目标从局部背景中提取出来,公式(1)中,阈值ε1的取值范围是0.001到0.01的任意值,阈值ε2的取值范围是0.1到0.6的任意值。
步骤4:为了精确定位目标,采用均值漂移算法在概率图上计算目标在输入图像中的最优位置和目标尺寸。
步骤5:目标在输入图像中的位置和目标尺寸确定后,利用公式(2)建立目标观测的颜色直方图模型,利用公式(3)建立局部背景观测的颜色直方图模型。
步骤6:利用公式(4)和(5)分别对目标模型和局部背景模型进行更新,并用于下一帧图像的跟踪。
本实例在配置为P4-3.0G CPU,1.5G内存的计算机上采用VC++6.0实施,在图像分辨率为320×240像素下,处理速度为25帧每秒,能够满足实时性要求。从实施例可以看出采用基于局部背景剪除的自适应跟踪方法能够在动态场景下,完整地将目标从局部背景中提取出来,能够获得稳定、准确的跟踪效果,且能适应由于目标姿态变化引起的目标外观变化,能够有效抑制背景中存在和目标相似物体的干扰。
图2示出动态场景下基于局部背景剪除的自适应视觉跟踪实例中:
(a)是动态场景中的第51,187和237帧的跟踪结果,白色框为跟踪框,黑色框和白色框之间的区域为选取的局部背景。
(b)是输入图像黑色框内部区域对应的概率图。
(c)是从局部背景中提取的目标。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内,因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (2)
1.一种动态场景下基于局部背景剪除的自适应目标跟踪方法,其特征是,在跟踪过程中除了建立和更新目标模型,同时在线建立并实时更新目标周围的局部背景模型,对于每一帧输入图像,通过对局部背景的剪除实现动态场景下对运动目标的提取和自适应跟踪,包括如下步骤:
步骤S1:对于第t帧输入图像,根据当前时刻目标模型的特征分量的可分性评价函数计算输入图像的每一个像素属于目标的概率值,并生成一个输入图像对应的概率图;
所述输入图像的每一个像素属于目标的概率值是由下式来计算:
其中,St(Xi)表示第t帧输入图像中第i个像素Xi属于目标的概率;Dt(·)表示目标模型中特征分量的可分性评价函数;目标模型采用直方图来表示;像素Xi通过映射函数b(Xi)转化到直方图的不同区间上,用HR,HG,HB分别表示为R,G,B颜色分量直方图的区间个数,且H=HR·HG·HB,用R(Xi),G(Xi),B(Xi)分别表示像素Xi的R,G,B颜色分量的值,则映射函数b(Xi)表示如下:
b(Xi)=R_ID(Xi)·HG·HB+G_ID(Xi)·HB+B_ID(Xi),
其中,
R_ID(Xi)=(R(Xi)-R(Xi)%(256/HR))/(256/HR)
G_ID(Xi)=(G(Xi)-G(Xi)%(256/HG))/(256/HG)
B_ID(Xi)=(B(Xi)-B(Xi)%(256/HB))/(256/HB),
上式中,%表示求余操作;ε1和ε2表示设定的阈值,且ε1<ε2;
步骤S2:根据输入图像对应的概率图,利用局部背景剪除提取图像中的目标区域和目标周围的局部背景区域,并确定输入图像中的目标状态,包括目标在输入图像中的位置和目标尺寸,从而实现在当前输入图像中对目标进行提取和跟踪,并输出目标在当前输入图像中的位置和目标尺寸,包括:
根据步骤S1得到的输入图像的第i个像素属于目标的概率值St(Xi),如果St(Xi)=1,则表示像素Xi属于目标,如果St(Xi)=0,则表示像素Xi属于背景,对于介于0和1之间的St(Xi),如果St(Xi)小于一个介于0和1之间的常数,则令St(Xi)=0,否则令St(Xi)=1,从而可以将输入图像的像素分为目标和背景两类,得到目标区域和目标周围的局部背景区域;
步骤S3:根据目标区域和局部背景区域,分别建立目标的观测模型和局部背景的观测模型;
所述目标的观测模型和局部背景的观测模型表示如下:
其中,和分别表示目标观测模型和局部背景的观测模型,目标观测模型和局部背景的观测模型采用具有H个区间的直方图来表示,h表示特征分量,且h=1,...,H;参数Cf和CB是归一化参数,分别用来满足和Rf和RB分别表示目标区域和目标周围的局部背景区域;δ(·)为狄拉克函数,当b(Xi)-h=0时,函数δ(b(Xi)-h)=1,反之当b(Xi)-h≠0时,则δ(b(Xi)-h)=0;
步骤S4:根据目标的观测模型和局部背景的观测模型,对目标模型和局部背景模型进行更新,得到更新后的目标模型和局部背景模型;
所述更新后的目标模型和局部背景模型表示如下:
其中,α∈[0,1]表示模型的学习因子,{ft+1[h]}h=1,...,H表示更新后的目标模型,{Bi+1[h]}i=1,...,H表示更新后的局部背景模型,目标模型和局部背景模型采用具有H个区间的直方图来表示;ft[h],Bt[h]分别表示第t帧输入图像对应的目标模型和目标周围的局部背景模型;
步骤S5:对更新后的目标模型的每一个特征分量进行可分性评价,得到一个新的目标模型的特征分量可分性评价函数,用于下一帧输入图像中目标的跟踪;
所述新的目标模型特征分量的可分性评价函数表示如下:
其中,Dt+1(h)表示特征分量h对目标和背景的可分性评价函数,设定的常数η用来去掉较小的Bt+1[h]和ft+1[h],以提高算法的稳定性。
2.根据权利要求1所述的动态场景下基于局部背景剪除的自适应目标跟踪方法,其特征在于,所述阈值ε1取值在0.001到0.01之间,所述阈值ε2取值在0.1到0.6之间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201010034353.5A CN102129687B (zh) | 2010-01-19 | 2010-01-19 | 动态场景下基于局部背景剪除的自适应目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201010034353.5A CN102129687B (zh) | 2010-01-19 | 2010-01-19 | 动态场景下基于局部背景剪除的自适应目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102129687A CN102129687A (zh) | 2011-07-20 |
CN102129687B true CN102129687B (zh) | 2014-03-19 |
Family
ID=44267762
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201010034353.5A Active CN102129687B (zh) | 2010-01-19 | 2010-01-19 | 动态场景下基于局部背景剪除的自适应目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102129687B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102324093B (zh) * | 2011-09-06 | 2013-08-07 | 清华大学 | 基于成组物体混合的图像合成方法 |
CN102722725B (zh) * | 2012-06-04 | 2014-05-21 | 西南交通大学 | 一种基于主动场景学习的对象跟踪方法 |
CN103390107B (zh) * | 2013-07-24 | 2016-08-10 | 深圳大学 | 一种基于狄拉克加权和的目标跟踪方法与目标跟踪系统 |
CN104063615B (zh) * | 2014-07-03 | 2017-02-15 | 深圳大学 | 一种基于变系数α‑β滤波器的目标跟踪方法与跟踪系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003003311A3 (en) * | 2001-06-29 | 2003-05-22 | Raytheon Co | Probability weighted centroid tracker |
CN101295405A (zh) * | 2008-06-13 | 2008-10-29 | 西北工业大学 | 人像与车辆识别报警跟踪方法 |
CN101447082A (zh) * | 2008-12-05 | 2009-06-03 | 华中科技大学 | 一种运动目标实时检测方法 |
CN101493943A (zh) * | 2008-01-25 | 2009-07-29 | 中国科学院计算技术研究所 | 一种粒子滤波跟踪方法和跟踪装置 |
CN101493944A (zh) * | 2009-03-06 | 2009-07-29 | 北京中星微电子有限公司 | 一种运动目标检测与跟踪的方法和系统 |
-
2010
- 2010-01-19 CN CN201010034353.5A patent/CN102129687B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003003311A3 (en) * | 2001-06-29 | 2003-05-22 | Raytheon Co | Probability weighted centroid tracker |
CN101493943A (zh) * | 2008-01-25 | 2009-07-29 | 中国科学院计算技术研究所 | 一种粒子滤波跟踪方法和跟踪装置 |
CN101295405A (zh) * | 2008-06-13 | 2008-10-29 | 西北工业大学 | 人像与车辆识别报警跟踪方法 |
CN101447082A (zh) * | 2008-12-05 | 2009-06-03 | 华中科技大学 | 一种运动目标实时检测方法 |
CN101493944A (zh) * | 2009-03-06 | 2009-07-29 | 北京中星微电子有限公司 | 一种运动目标检测与跟踪的方法和系统 |
Non-Patent Citations (4)
Title |
---|
刘振华.运动场景中目标检测与跟踪技术研究.《中国优秀硕士学位论文全文数据库》.2009, * |
刘洋等.基于动态目标建模的粒子滤波视觉跟踪算法.《光子学报》.2008,第37卷(第2期), * |
李恒晖.复杂背景动态建模与粒子滤波跟踪方法.《 中国优秀硕士学位论文全文数据库》.2009, |
李恒晖.复杂背景动态建模与粒子滤波跟踪方法.《 中国优秀硕士学位论文全文数据库》.2009, * |
Also Published As
Publication number | Publication date |
---|---|
CN102129687A (zh) | 2011-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106875415B (zh) | 一种动态背景中弱小动目标的连续稳定跟踪方法 | |
Rakibe et al. | Background subtraction algorithm based human motion detection | |
Wang et al. | A multi-view learning approach to foreground detection for traffic surveillance applications | |
CN101251928A (zh) | 基于核的对象跟踪方法 | |
Lian et al. | A novel method on moving-objects detection based on background subtraction and three frames differencing | |
Cheng et al. | A hybrid background subtraction method with background and foreground candidates detection | |
CN102194443A (zh) | 视频画中画窗口的显示方法、系统及视频处理设备 | |
CN102129687B (zh) | 动态场景下基于局部背景剪除的自适应目标跟踪方法 | |
Keivani et al. | Motion-based moving object detection and tracking using automatic K-means | |
Pawaskar et al. | Detection of moving object based on background subtraction | |
Zhang et al. | New mixed adaptive detection algorithm for moving target with big data | |
CN101477618B (zh) | 视频中行人步态周期自动提取方法 | |
Cheng et al. | A background model re-initialization method based on sudden luminance change detection | |
CN103489201B (zh) | 基于运动模糊信息的目标跟踪方法 | |
Lee et al. | Statistical and entropy based multi purpose human motion analysis | |
Lee et al. | Moving object detection using unstable camera for video surveillance systems | |
Wang et al. | Moving object detection and marking based on frame difference and train algorithm for teaching video | |
Meenatchi et al. | Multiple object tracking and segmentation in video sequences | |
Jianzhao et al. | A fast background subtraction method using kernel density estimation for people counting | |
Fakharian et al. | Hybrid object detection using improved Gaussian mixture model | |
Yuxi et al. | A new motion obstacle detection based monocular-vision algorithm | |
Guo et al. | Research on the detection and tracking technology of moving object in video images | |
Yu et al. | A moving target detection algorithm based on the dynamic background | |
Antić et al. | Robust detection and tracking of moving objects in traffic video surveillance | |
CN108257156A (zh) | 一种从视频中自动追踪目标物体的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C53 | Correction of patent for invention or patent application | ||
CB03 | Change of inventor or designer information |
Inventor after: Wang Peng Inventor after: Qiao Hong Inventor after: Su Jianhua Inventor after: Wang Min Inventor before: Wang Peng Inventor before: Qiao Hong Inventor before: Su Jianhua |
|
COR | Change of bibliographic data |
Free format text: CORRECT: INVENTOR; FROM: WANG PENG QIAO HONG SU JIANHUA TO: WANG PENG QIAO HONG SU JIANHUA WANG MIN |
|
GR01 | Patent grant | ||
GR01 | Patent grant |