CN101339655B - 基于目标特征和贝叶斯滤波的视觉跟踪方法 - Google Patents

基于目标特征和贝叶斯滤波的视觉跟踪方法 Download PDF

Info

Publication number
CN101339655B
CN101339655B CN2008100634406A CN200810063440A CN101339655B CN 101339655 B CN101339655 B CN 101339655B CN 2008100634406 A CN2008100634406 A CN 2008100634406A CN 200810063440 A CN200810063440 A CN 200810063440A CN 101339655 B CN101339655 B CN 101339655B
Authority
CN
China
Prior art keywords
target
gradient
particle
probability density
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2008100634406A
Other languages
English (en)
Other versions
CN101339655A (zh
Inventor
徐林忠
于慧敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN2008100634406A priority Critical patent/CN101339655B/zh
Publication of CN101339655A publication Critical patent/CN101339655A/zh
Application granted granted Critical
Publication of CN101339655B publication Critical patent/CN101339655B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了基于目标特征和贝叶斯滤波的视觉跟踪方法,该方法包括根据目标实际运动建立系统模型和观测模型,计算目标的颜色、梯度,并构造相似度函数,通过粒子滤波器获得目标当前的观测值,利用卡尔曼滤波对粒子集的状态均值和协方差进行处理,产生新的高斯分布,然后根据产生的高斯分布采样新的粒子集,计算权值和输出,最后重采样粒子集;同时,提出对目标分块检测方法以及相应的遮挡和非遮挡处理算法;完成视觉跟踪过程。相比于同类算法,本发明通过多信息的融合,实现特征间信息的互补,从而目标不易受光照等外界环境因素的影响,利用粒子滤波和卡尔曼滤波相结合,使得整个方法的跟踪精度较高,提高了跟踪的性能,并适应多种的复杂环境。

Description

基于目标特征和贝叶斯滤波的视觉跟踪方法
技术领域
本发明涉及一种基于目标不同特征和贝叶斯滤波的视频处理和机器视觉跟踪方法,特别适用于现代智能视频监控、感兴趣目标快速准确搜索等领域。
背景技术
视觉跟踪是计算机视觉领域的核心课题之一,在机器人视觉,视频监控,军事目标跟踪等领域内都有广泛的应用。智能视频监控系统在民用和军用中有着极大的应用前景。已融入到许多住宅小区、停车场、街道、尤其是在银行、机场安检等关系到人们生命财产安全的特殊场合。智能视频监控的最终目的就是利用计算机视觉和智能信号处理与分析等方法,在不需要人为控制的情况下,通过对摄像机拍摄的图像序列能进行自动分析,对被监控的场景中的变化进行定位、识别和跟踪,并基于此分析和判断目标的行为。
随着计算和存储成本的大幅度下降,使得以视频速率或近似视频速率采集存储图像序列成为可能,视频跟踪技术的极为广阔市场应用前景也是推动视觉跟踪的主要动力。近年来随着图像工程和计算机视觉研究的兴起,视觉跟踪在国际上再次引起关注,出现了众多的跟踪方法:基于特征的跟踪、基于变形模板的跟踪、基于网格的跟踪、以及基于贝叶斯推断的跟踪。
基于贝叶斯推断的跟踪是现在视觉跟踪领域中的重要方法,其思路是将目标跟踪问题转换为贝叶斯估计问题,已知目标状态的先验概率,在获得新的量测值后不断求解目标状态的最大后验概率过程。也就是说,将视觉跟踪问题看作是最优估计问题,但是现实场景中的视频目标的跟踪往往由于复杂的背景图像和目标本身的运动变得非常困难。针对复杂环境下的视频目标,开发出一套鲁棒的跟踪方法仍存在较多困难。
发明内容
本发明的目的针对智能监控领域内现有技术的不足,提出了一种基于目标特征和贝叶斯滤波的视觉跟踪方法,能有效的实现运动目标的准确跟踪,并处理遮挡、姿态变化等异常情况,提高了鲁棒性。
本发明的基于目标特征和贝叶斯滤波的视觉跟踪方法,其特征是利用目标的颜色、梯度、小波特征和贝叶斯滤波对视频的目标进行跟踪,包括如下步骤:
1)根据目标实际运动建立系统模型xk=Axk-1+vk和观测模型yk=Hxk+wk
A为系统状态转移矩阵;vk为高斯系统噪声,xk为k时刻目标状态,
H为观测矩阵;wk为高斯观测噪声,yk为k时刻目标观测值;
2)分别计算目标的颜色特征、梯度特征,并构造相似度函数:
计算目标的颜色特征:
将目标区域的颜色信息在红绿蓝空间划分为m个等级,使用Epanechikov函数作为概率密度的核函数,假设目标区域的中心为x0,区域内像素坐标为xi,i=1,2,...nh,nh为目标区域内像素的总和,δ()为狄拉克函数,b(xi)为特征向量映射函数,u∈[1,m],Cq为归一化常数,则目标区域的颜色概率密度可以表示为:
Figure G2008100634406D00021
计算梯度特征:
设I(x,y)表示坐标(x,y)的色度值,将图像通过一个均衡低通的高斯滤波器,分别计算水平和垂直方向上的梯度gx(x,y),gy(x,y):
g x ( x , y ) = I ( x + 1 , y ) - I ( x - 1 , y ) ∀ x , y
g y ( x , y ) = I ( x , y + 1 ) - I ( x , y - 1 ) ∀ x , y
计算I(x,y)的梯度幅度a(x,y)以及方向θ(x,y):
a ( x , y ) = g x ( x , y ) 2 + g y ( x , y ) 2
θ(x,y)=tan-1gy(x,y)/gx(x,y)
Figure G2008100634406D00025
为单位将梯度空间均匀地划为s个区域,以像素点的方向θ(x,y)作为分量和以梯度幅度a(x,y)作为量化值,构建运动目标的s位梯度直方图,梯度概率密度为:
Figure G2008100634406D00026
式中,区域半径为h,目标区域的中心为x0,区域内像素坐标为xi,i=1,2,...nh,nh为目标区域内像素的总和,δ()为狄拉克函数,b(xi)为特征向量映射函数,u∈[1,s]
构造相似度函数:
Figure G2008100634406D00027
其中p(u),q(u)分别表示候选模型概率密度和目标模型概率密度;
3)利用粒子滤波器获得当前的目标观测值yk
根据系统模型xk=Axk-1+vk得到粒子的时刻k状态,计算时刻k的颜色概率密度、梯度概率密度;采用相似度函数度量实际目标和候选目标的相似程度,同时自适应分配各特征权重系数,计算粒子权值,获得时刻k的观测值yk
4)判断目标是否遮挡:
把目标区域划分为若干个子块,开辟一个大小为l的记忆队列,记忆队列只保存时刻k前面l次正确跟踪的信息,统计出时刻k发生遮挡的子块数目:如果遮挡子块数目≤阈值,认为是部分遮挡,进行步骤5);如果遮挡子块数目>阈值,则目标受到遮挡,进入步骤6);
5)对于时刻k,根据时刻k-1的目标状态和当前目标观测值yk,进行卡尔曼滤波,计算粒子集的均值
Figure G2008100634406D00031
和协方差Pk,根据产生的高斯分布
Figure G2008100634406D00032
采样N个粒子,计算每个粒子的权值并做归一化;输出时刻k跟踪结果,对粒子进行编码、选择、交叉、变异,采样新的粒子;
6)对于遮挡目标的各个子块,利用记忆队列的信息进行卡尔曼滤波器预测,获得目标状态,并计算相似程度,如果相似度大于设定阈值,判定目标出现,回到步骤5),如果小于阈值,继续进行预测;
7)重复步骤3)-6)。
本发明步骤1)中所说的目标状态包括目标中心坐标、速度、宽高、加速度以及宽高变化率;观测值包括目标的中心坐标和宽高。
本发明系统模型中的高斯观测的噪声由粒子滤波器获得。
本发明的基于目标特征和贝叶斯滤波的视觉跟踪方法,通过多信息的融合,可以实现特征间信息的互补,从而目标不易受光照等外界环境以及背景扰动等因素的影响,利用粒子滤波和卡尔曼滤波相结合,使得整个方法的跟踪精度较高,提高了跟踪的性能,并适应多种的复杂环境。
附图说明
图1为本发明方法实现的流程图。
图2为目标跟踪效果分析图,曲线1为目标实际状态,曲线2为本发明的跟踪轨迹。
图3为本发明与粒子滤波、卡尔曼滤波以及目标实际状态的比较图:
图a为X轴的运动轨迹分析,图中,曲线1为目标实际状态,曲线2为粒子滤波方法得到的轨迹,曲线3为卡尔曼滤波方法得到的轨迹,曲线4为本发明方法的轨迹
图b为Y轴的运动轨迹分析,图中,曲线1为目标实际状态,曲线2为粒子滤波方法得到的轨迹,曲线3为卡尔曼滤波方法得到的轨迹,曲线4为本发明方法的轨迹
具体实施方式
下面结合实例对本发明做进一步的详细描述。
以人体跟踪为例,参照图1,基于目标特征和贝叶斯滤波的视觉跟踪方法,包括如下步骤:
1)根据目标实际运动建立系统模型和观测模型;
系统模型xk=Axk-1+vk
k时刻目标状态xk=(x,y,vx,vy,w,h,ow,oh,ax,ay)T,其中(x,y)为目标的中心坐标;(vx,vy)为目标中心坐标在X轴和Y轴方向上的运动速度;(w,h)为目标区域的宽度和高度;(ow,oh)为宽度和高度的变化率;(ax,ay)为目标在X轴和Y轴方向上的加速度。
系统状态转移矩阵A为:
A = 1 0 t 0 0 0 0 0 0 0 0 1 0 t 0 0 0 0 0 0 0 0 1 0 0 0 0 0 t 0 0 0 0 1 0 0 0 0 0 t 0 0 0 0 1 0 t 0 0 0 0 0 0 0 0 1 0 t 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 1
t=1,表示相邻两帧之间的间隔。vk为高斯系统噪声。
观测模型yk=Hxk+wk
k时刻目标观测值yk=(x,y,w,h);
观测矩阵H为:
H = 1 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0
wk为四维的高斯观测噪声
2)分别计算目标的颜色特征、梯度特征,并构造相似度函数:
计算目标的颜色特征:
将目标区域的颜色信息在红绿蓝空间划分为16×16×16个等级,使用Epanechikov函数作为概率密度的核函数,假设目标区域的中心为x0,区域内像素坐标为xi,i=1,2,...nh,nh为目标区域内像素的总和,δ()为狄拉克函数,b(xi)为特征向量映射函数,u∈[1,16×16×16],Cq为归一化常数,则目标区域的颜色概率密度可以表示为:
Figure G2008100634406D00043
计算梯度特征:
设I(x,y)表示坐标(x,y)的色度值,将图像通过一个均衡低通的高斯滤波器,分别计算水平和垂直方向上的梯度gx(x,y),gy(x,y):
g x ( x , y ) = I ( x + 1 , y ) - I ( x - 1 , y ) ∀ x , y
g y ( x , y ) = I ( x , y + 1 ) - I ( x , y - 1 ) ∀ x , y
计算I(x,y)的梯度幅度a(x,y)以及方向θ(x,y):
a ( x , y ) = g x ( x , y ) 2 + g y ( x , y ) 2
θ(x,y)=tan-1gy(x,y)/gx(x,y)
以45°为单位将梯度空间均匀地划为8个区域,以像素点的方向θ(x,y)作为分量和以梯度幅度a(x,y)作为量化值,构建运动目标的8位梯度直方图,梯度概率密度为:
Figure G2008100634406D00054
式中,区域半径为h,目标区域的中心为x0,区域内像素坐标为xi,i=1,2,...nh,nh为目标区域内像素的总和,δ()为狄拉克函数,b(xi)为特征向量映射函数,u∈[1,8]
构造相似度函数:其中p(u),q(u)分别表示候选模型概率密度和目标模型概率密度;
3)利用粒子滤波器获得当前的目标观测值yk
根据系统模型xk=Axk-1+vk得到粒子的时刻k状态,计算时刻k的颜色概率密度、梯度概率密度;采用相似度函数度量实际目标和候选目标的相似程度,同时自适应分配各特征权重系数,计算粒子权值,获得时刻k的观测值yk
4)判断目标是否遮挡:
把目标区域划分为4个子块,分别标记为block(i),i=1,2,3,4,相应的在离目标区域外5个像素处设一个大的窗口,分别产生4个子框,记为frame(i),i=1,2,3,4。选取目标的颜色、梯度、小波特征,统计4个子块和相应4个子框在k时刻的特征信息blo_qu(i,k)和fra_qu(i,k),开辟一个大小为3的记忆队列,记忆队列只保存时刻k前面3次正确跟踪的信息,统计出时刻k发生遮挡的子块数目:如果遮挡子块数目≤2,认为是部分遮挡,进行步骤5);如果遮挡子块数目>2,则目标受到遮挡,进入步骤6);
5)对于时刻k,根据时刻k-1的目标状态和当前目标观测值yk,进行卡尔曼滤波,计算粒子集的均值
Figure G2008100634406D00056
和协方差Pk,根据产生的高斯分布采样N个粒子,计算每个粒子的权值并做归一化;输出时刻k跟踪结果,对粒子进行编码、交叉、变异、选择,采样新的粒子。
编码的具体过程为:随机产生M个初始串结构数据,每个串结构数据称为一个个体,M个个体构成了一个群体。以这M个串结构数据作为初始点开始迭代。
交叉的具体过程为:
( x k i ) ′ = α x k i + ( 1 - α ) x k j + η
( x k j ) ′ = α x k j + ( 1 - α ) x k i + η
式中,α是均匀随机或确定性变量,α~U(0,1),xk j,xk i为种群中的父辈粒子,(xk i)′,(xk j)′为产生的新个体,η服从高斯分布。
变异的具体过程为:按照均匀概率分布从区间[0,1]中抽样得到门限值u,u~U(0,1);根据分布p(xk|xk-1 i)抽样得到新的粒子(xk *)i,p(xk|xk-1 i)为状态转移概率,即粒子时刻k-1状态xk-1 i到时刻k状态xk的转移概率;令如果u<α,
Figure G2008100634406D00064
否则保留xk i
选择的具体过程为:根据上面的结果,依据相似度大小选择相似度最大的N个粒子。
6)对于遮挡目标的各个子块,利用记忆队列的信息进行卡尔曼滤波器预测,获得目标状态,并计算相似程度,如果相似度大于设定阈值(0.75),判定目标出现,回到步骤5),如果小于阈值(0.75),继续进行预测;
7)重复步骤3)-6)。
图2是上述人体跟踪实例的效果图,实验视频的分辨率为640×480,从该图可以看到,本发明方法得到的估计轨迹与目标运动的真实轨迹吻合程度较高,并且在整个过程中都保持了很高的跟踪精度。整个过程中水平方向的平均误差为1.86个像素位置,垂直方向平均误差为1.6个像素位置。
图3(a)与图3(b)为一实际视频序列水平和垂直方向的跟踪效果对比图,该序列目标的速度、姿态均有变化,同时在目标运动过程中,有目标与景物、目标与目标之间的遮挡。从图3(a)图3(b)可以看出,与其他两种方法相比,本发明的方法明显提高了跟踪的性能,如前所述,本发明的方法考虑了颜色、梯度等多重特征信息的融合,在光照以及背景复杂等情况下仍然有效提取出目标,所以能够更好的保证跟踪性能。
通过图2与图3可以看出,本发明对于跟踪性能有很大提高。无论是光照好坏,目标之间遮挡以及背景扰动等情况下,使用颜色、梯度等特征的目标描述可以实现特征间信息的互补,从而保证获得准确的观测,使得本发明在诸多场景下均有较好的效果。

Claims (3)

1.一种基于目标特征和贝叶斯滤波的视觉跟踪方法,其特征是利用目标的颜色、梯度、小波特征和贝叶斯滤波对视频的目标进行跟踪,包括如下步骤:
1)根据目标实际运动建立系统模型xk=Axk-1+vk和观测模型yk=Hxk+wk
A为系统状态转移矩阵;vk为高斯系统噪声,xk为k时刻目标状态,
H为观测矩阵;wk为高斯观测噪声,yk为k时刻目标观测值;
2)分别计算目标的颜色特征、梯度特征,并构造相似度函数:
计算目标的颜色特征:
将目标区域的颜色信息在红绿蓝空间划分为m个等级,使用Epanechikov函数作为概率密度的核函数,假设目标区域的中心为x0,区域内像素坐标为xi,i=1,2,...nh,nh为目标区域内像素的总和,δ()为狄拉克函数,b(xi)为特征向量映射函数,u∈[1,m],Cq为归一化常数,则目标区域的颜色概率密度可以表示为:
Figure F2008100634406C00011
计算梯度特征:
设I(x,y)表示坐标(x,y)的色度值,将图像通过一个均衡低通的高斯滤波器,分别计算水平和垂直方向上的梯度gx(x,y),gy(x,y):
g x ( x , y ) = I ( x + 1 , y ) - I ( x - 1 , y ) ∀ x , y
g y ( x , y ) = I ( x , y + 1 ) - I ( x , y - 1 ) ∀ x , y
计算I(x,y)的梯度幅度a(x,y)以及方向θ(x,y):
a ( x , y ) = g x ( x , y ) 2 + g y ( x , y ) 2
θ(x,y)=tan-1gy(x,y)/gx(x,y)
为单位将梯度空间均匀地划为s个区域,以像素点的方向θ(x,y)作为分量和以梯度幅度a(x,y)作为量化值,构建运动目标的s位梯度直方图,梯度概率密度为:
Figure F2008100634406C00016
式中,区域半径为h,目标区域的中心为x0,区域内像素坐标为xi,i=1,2,...nh,nh为目标区域内像素的总和,δ()为狄拉克函数,b(xi)为特征向量映射函数,u∈[1,s]
构造相似度函数:其中p(u),q(u)分别表示候选模型概率密度和目标模型概率密度;
3)利用粒子滤波器获得当前的目标观测值yk:
根据系统模型xk=Axk-1+vk得到粒子的时刻k状态,计算时刻k的颜色概率密度、梯度概率密度;采用相似度函数度量实际目标和候选目标的相似程度,同时自适应分配各特征权重系数,计算粒子权值,获得时刻k的观测值yk
4)判断目标是否遮挡:
把目标区域划分为若干个子块,开辟一个大小为l的记忆队列,记忆队列只保存时刻k前面l次正确跟踪的信息,统计出时刻k发生遮挡的子块数目:如果遮挡子块数目≤阈值,认为是部分遮挡,进行步骤5);如果遮挡子块数目>阈值,则目标受到遮挡,进入步骤6);
5)对于时刻k,根据时刻k-1的目标状态和当前目标观测值yk,进行卡尔曼滤波,计算粒子集的均值
Figure F2008100634406C00021
和协方差Pk,根据产生的高斯分布采样N个粒子,计算每个粒子的权值并做归一化;输出时刻k跟踪结果,对粒子进行编码、选择、交叉、变异,采样新的粒子;
6)对于遮挡目标的各个子块,利用记忆队列的信息进行卡尔曼滤波器预测,获得目标状态,并计算相似程度,如果相似度大于设定阈值,判定目标出现,回到步骤5),如果小于阈值,继续进行预测;
7)重复步骤3)-6)。
2.如权利要求1所述的一种基于目标特征和贝叶斯滤波的视觉跟踪方法,其特征在于步骤1)中所说的目标状态包括目标中心坐标、速度、宽高、加速度以及宽高变化率;观测值包括目标的中心坐标和宽高。
3.如权利要求1所述的一种基于目标特征和贝叶斯滤波的视觉跟踪方法,其特征在于,系统模型中的高斯观测的噪声由粒子滤波器获得。
CN2008100634406A 2008-08-11 2008-08-11 基于目标特征和贝叶斯滤波的视觉跟踪方法 Expired - Fee Related CN101339655B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2008100634406A CN101339655B (zh) 2008-08-11 2008-08-11 基于目标特征和贝叶斯滤波的视觉跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2008100634406A CN101339655B (zh) 2008-08-11 2008-08-11 基于目标特征和贝叶斯滤波的视觉跟踪方法

Publications (2)

Publication Number Publication Date
CN101339655A CN101339655A (zh) 2009-01-07
CN101339655B true CN101339655B (zh) 2010-06-09

Family

ID=40213715

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008100634406A Expired - Fee Related CN101339655B (zh) 2008-08-11 2008-08-11 基于目标特征和贝叶斯滤波的视觉跟踪方法

Country Status (1)

Country Link
CN (1) CN101339655B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355204A (zh) * 2016-08-31 2017-01-25 武汉大学 基于贝叶斯学习和增量子空间学习的目标跟踪方法

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110235910A1 (en) * 2009-06-30 2011-09-29 Omri Soceanu Method circuit and system for matching an object or person present within two or more images
CN101807300B (zh) * 2010-03-05 2012-07-25 北京智安邦科技有限公司 一种目标碎片区域融合的方法及装置
CN101873121B (zh) * 2010-06-09 2012-06-27 浙江大学 一种基于直方图估计粒子滤波算法的非线性动态系统信号处理方法
CN101887588B (zh) * 2010-08-04 2012-07-25 中国科学院自动化研究所 一种基于表观分块的遮挡处理方法
CN102081801B (zh) * 2011-01-26 2014-04-16 上海交通大学 多特征自适应融合船舶跟踪和航迹检测方法
CN102184548B (zh) * 2011-04-22 2013-04-17 浙江工业大学 一种基于累加直方图粒子滤波的视频运动目标跟踪方法
CN103426179B (zh) * 2012-05-17 2016-12-14 深圳中兴力维技术有限公司 一种基于均值偏移多特征融合的目标跟踪方法及装置
CN103426178B (zh) * 2012-05-17 2017-02-15 深圳中兴力维技术有限公司 一种基于均值偏移的复杂场景下目标跟踪方法及装置
CN105023277B (zh) * 2014-04-15 2018-10-12 南京理工大学 基于复杂动态场景的卡尔曼粒子滤波跟踪方法
CN103985139B (zh) * 2014-05-20 2017-04-19 重庆大学 基于颜色模型与预测向量簇模型信息融合的粒子滤波目标跟踪方法
CN104050686B (zh) * 2014-06-24 2017-12-26 重庆硕奥科技有限公司 一种密集空间目标跟踪方法
CN105139418A (zh) * 2015-08-04 2015-12-09 山东大学 一种新型的基于分块策略的视频跟踪方法
CN105405151B (zh) * 2015-10-26 2018-01-23 西安电子科技大学 基于粒子滤波和加权Surf的抗遮挡目标跟踪方法
CN105427340B (zh) * 2015-11-09 2018-03-06 西安电子科技大学昆山创新研究院 基于改进箱粒子滤波的视频目标跟踪方法
CN105509755B (zh) * 2015-11-27 2018-10-12 重庆邮电大学 一种基于高斯分布的移动机器人同步定位与地图构建方法
CN107346538A (zh) * 2016-05-06 2017-11-14 株式会社理光 对象跟踪方法及设备
CN107424170B (zh) * 2017-06-17 2020-07-28 复旦大学 自动探测监控视频中局部异常行为的运动特征描述方法
CN107403222A (zh) * 2017-07-19 2017-11-28 燕山大学 一种基于辅助更新模型和有效性检验的运动跟踪方法
CN107527356B (zh) * 2017-07-21 2020-12-11 华南农业大学 一种基于懒交互方式的视频跟踪方法
CN108629935B (zh) * 2018-05-17 2020-03-24 山东深图智能科技有限公司 一种基于视频监控检测爬楼翻窗盗窃行为的方法及系统
CN109087332B (zh) * 2018-06-11 2022-06-17 西安电子科技大学 一种基于分块相关的遮挡检测方法
CN108831161A (zh) * 2018-06-27 2018-11-16 深圳大学 一种基于无人机的交通流量监测方法、智能系统及数据集
US10839524B2 (en) * 2018-11-27 2020-11-17 GM Global Technology Operations LLC Systems and methods for applying maps to improve object tracking, lane-assignment and classification
CN111578958A (zh) * 2020-05-19 2020-08-25 山东金惠新达智能制造科技有限公司 移动机器人导航实时定位方法、系统、介质及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1741069A (zh) * 2005-09-22 2006-03-01 上海交通大学 基于自适应表面模型的概率视频跟踪方法
CN101026759A (zh) * 2007-04-09 2007-08-29 华为技术有限公司 基于粒子滤波的视觉跟踪方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1741069A (zh) * 2005-09-22 2006-03-01 上海交通大学 基于自适应表面模型的概率视频跟踪方法
CN101026759A (zh) * 2007-04-09 2007-08-29 华为技术有限公司 基于粒子滤波的视觉跟踪方法及系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
刘贵喜,范春宇,高恩克.基于粒子滤波与多特征融合的视频目标跟踪.光电子·激光18 9.2007,18(9),1108-1111.
刘贵喜,范春宇,高恩克.基于粒子滤波与多特征融合的视频目标跟踪.光电子·激光18 9.2007,18(9),1108-1111. *
姚剑敏.粒子滤波跟踪方法研究.中国博士学位论文全文数据库(信息科技辑)2006年 5.2006,2006年(5),I136-36.
姚剑敏.粒子滤波跟踪方法研究.中国博士学位论文全文数据库(信息科技辑)2006年 5.2006,2006年(5),I136-36. *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355204A (zh) * 2016-08-31 2017-01-25 武汉大学 基于贝叶斯学习和增量子空间学习的目标跟踪方法
CN106355204B (zh) * 2016-08-31 2019-08-20 武汉大学 基于贝叶斯学习和增量子空间学习的目标跟踪方法

Also Published As

Publication number Publication date
CN101339655A (zh) 2009-01-07

Similar Documents

Publication Publication Date Title
CN101339655B (zh) 基于目标特征和贝叶斯滤波的视觉跟踪方法
CN107818326B (zh) 一种基于场景多维特征的船只检测方法及系统
CN107967451B (zh) 一种对静止图像进行人群计数的方法
CN112132119B (zh) 客流统计方法、装置、电子设备和存储介质
CN106778595B (zh) 基于高斯混合模型的人群中异常行为的检测方法
CN112396027B (zh) 基于图卷积神经网络的车辆重识别方法
CN109919981A (zh) 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法
CN103426179B (zh) 一种基于均值偏移多特征融合的目标跟踪方法及装置
CN109033950A (zh) 基于多特征融合级联深度模型的车辆违停检测方法
CN103593679A (zh) 一种基于在线机器学习的视觉人手跟踪方法
CN102034267A (zh) 基于关注度的目标物三维重建方法
CN110555868A (zh) 一种复杂地面背景下运动小目标检测方法
CN105469428B (zh) 一种基于形态学滤波和svd的弱小目标检测方法
CN105654516A (zh) 基于目标显著性的卫星图像对地面弱小运动目标检测方法
Ullah et al. Structured learning for crowd motion segmentation
CN113378649A (zh) 身份、位置和动作识别方法、系统、电子设备及存储介质
CN107085703A (zh) 融合脸部检测与跟踪的汽车乘员计数方法
Xia et al. Vision-based traffic accident detection using matrix approximation
CN106384359A (zh) 运动目标跟踪方法和电视
CN104778699A (zh) 一种自适应对象特征的跟踪方法
CN105046285B (zh) 一种基于运动约束的异常行为辨识方法
Ma et al. A lightweight neural network for crowd analysis of images with congested scenes
CN103426178B (zh) 一种基于均值偏移的复杂场景下目标跟踪方法及装置
CN113129336A (zh) 一种端到端多车辆跟踪方法、系统及计算机可读介质
Liu et al. Weighted sequence loss based spatial-temporal deep learning framework for human body orientation estimation

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20100609

Termination date: 20130811