CN102903121A - 基于运动目标跟踪的融合算法 - Google Patents

基于运动目标跟踪的融合算法 Download PDF

Info

Publication number
CN102903121A
CN102903121A CN2012103194692A CN201210319469A CN102903121A CN 102903121 A CN102903121 A CN 102903121A CN 2012103194692 A CN2012103194692 A CN 2012103194692A CN 201210319469 A CN201210319469 A CN 201210319469A CN 102903121 A CN102903121 A CN 102903121A
Authority
CN
China
Prior art keywords
particle
collection
particle collection
iteration
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2012103194692A
Other languages
English (en)
Inventor
姚黎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Jiuzhou Electric Group Co Ltd
Original Assignee
Sichuan Jiuzhou Electric Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Jiuzhou Electric Group Co Ltd filed Critical Sichuan Jiuzhou Electric Group Co Ltd
Priority to CN2012103194692A priority Critical patent/CN102903121A/zh
Publication of CN102903121A publication Critical patent/CN102903121A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及图像处理领域,尤其是涉及对单个运动目标特征或者多个运动目标特征的提取并进行运动目标建模、运动目标检测的融合算法。本方法通过改进的Camshift算法与改进的粒子滤波算法结合对运动目标进行快速有效跟踪跟。本方法通过步骤1基于粒子滤波算法,通过状态转移模型,得到目标初始状态附近随机分布粒子集,并通过改进的Camshift算法与改进的粒子滤波算法实现目标跟踪。本方法主要应用于图像处理领域。

Description

基于运动目标跟踪的融合算法
技术领域
本发明涉及图像处理领域,尤其是涉及对单个运动目标特征或者多个运动目标特征的提取并进行运动目标建模、运动目标检测的融合算法。
背景技术
目标跟踪中常用的目标特征表达主要包括:图像的纹理和形状特征(如轮廓、区域、边缘等)、变换系数特征(如傅里叶描述子)、统计特征(如直方图、各种矩特征)等。为了达到更好的跟踪效果,实际应用中也常常将多个特征结合起来考虑。跟踪算法的准确度与运动目标的表达密切相关,大致可以分为四类:基于主动轮廓模型的跟踪、基于模型的跟踪、基于特征的跟踪和基于区域的跟踪。
在跟踪过程中,采用一定的搜索算法预测运动目标在下一帧中可能出现的位置状态,只在相关区域中寻找最优点。这样就避免了直接对场景中所有内容进行匹配估计,从而大大削减计算量。在很多基于交互的实时系统中,跟踪常用的预测算法有卡尔曼滤波器(Kalman滤波器)、粒子滤波算法等。优化搜索方向也可以达到缩小目标搜索范围的目的,常用的包括均值漂移算法(Mean-shift算法)、连续自适应均值漂移算法(Camshift算法)等。其中Camshift(continuouslyadaptive mean-shift)算法是由Intel公司的Bradski提出的以颜色概率分布图为基础来进行的目标跟踪算法。其中的核心算法是Mean-shift算法。Camshift算法在最开始是为了对人脸进行跟踪而设计的。Camshift算法基于单一颜色分布模型,由于对目标外观先验知识利用不够充分,单一颜色分布模型对外观先验知识的描述不完备,当目标的外观发生改变时,效果不理想。在复杂背景中当运动目标运动过快或出现遮挡,由于只利用颜色信息,对运动物体不做任何预测,抗干扰能力比较差,容易导致跟踪失败,引入滤波预测窗口中心来解决这个问题,但是粒子滤波(particle filter)算法主要是来自于模拟蒙特卡洛方法,通过蒙特卡洛算法来最终实现贝叶斯滤波。由于粒子滤波算法拥有“多峰”性这一特点,因此虽然粒子滤波算法有很强的抗干扰能力和多模态处理能力,但是粒子滤波过程中粒子数目对对象跟踪有两个方面的影响:一是计算量;二是精度。当粒子传播半径确定以后,即确定了对象搜索区域。由于每个粒子即代表对象的一种可能运动状态,所有粒子越能充分的覆盖对象可能状态,则估计的越准确。那么粒子越多,就更能充分的覆盖搜索区域,跟踪精度更大。但当N太大远远可以覆盖搜索区域时,部分粒子所代表的状态有可能完全一样,那么这部分的运算量就是浪费的,且对精度提高也不会很大。就要找到搜索区域和粒子数目的最佳匹配点,即不浪费粒子也可以完全覆盖搜索区域的平衡点。另外当粒子数目增大时,算法的计算量也会增大,则跟踪的速度就会降低。
发明内容
本发明所要解决的技术问题是:针对上述存在的问题,提供一种基于运动目标跟踪的融合算法,对运动目标跟踪算法进行分析与比较,将基于HSV空间颜色特征和基于坐标系的运动信息表示相融合,改进Camshift算法,并且将改进的Camshift算法嵌入到粒子滤波中,用来重新分配粒子滤波样本。由此得到的样本集将收敛到靠近目标真实状态的区域内,最后用这些漂移的粒子来计算所估计的目标状态,实现更好的跟踪。
本发明采用的技术方案如下:
一种基于运动目标跟踪的融合算法,其特征在于包括:
步骤1:基于粒子滤波算法,通过状态转移模型,得到目标K时刻状态附近随机分布粒子集其中
Figure BDA00002086166700032
其中N为粒子数,k是粒子变化时刻值;
步骤2:提取粒子集
Figure BDA00002086166700033
粒子的颜色和运动信息,判断粒子集
Figure BDA00002086166700034
粒子质心坐标值是否满足迭代条件,将符合迭代条件的粒子组合成新的迭代粒子集
Figure BDA00002086166700035
步骤3:对迭代粒子集
Figure BDA00002086166700036
中的粒子与目标模板粒子进行相关度处理,通过观测函数计算粒子权值并进行重采样、归一化处理,得到当前帧目标的状态。
在步骤2中所述判断粒子集
Figure BDA00002086166700037
粒子质心坐标值是否满足迭代条件具体过程是:
步骤21:在Camshift算法基础上,设置粒子集
Figure BDA00002086166700038
中粒子初始质心坐标值是C0(x0,y0),根据颜色概率分布图中零阶矩
Figure BDA00002086166700039
运动概率分布图中零阶矩
Figure BDA000020861667000310
并结合Ic(x,y)、Im(x,y)计算粒子集中粒子的M00、M10、M01
M 00 = M = Σ x Σ y ( ( 1 - β ) × I c ( x 0 , y 0 ) + β I m ( x 0 , y 0 ) ) ,
M 10 = Σ x Σ y x ( ( 1 - β ) × I c ( x 0 , y 0 ) + β I m ( x 0 , y 0 ) ) ,
M 01 = Σ x Σ y y ( ( 1 - β ) × I c ( x 0 , y 0 ) + β I m ( x 0 , y 0 ) )
其中Ic(x,y)表示所述粒子集
Figure BDA00002086166700045
中粒子颜色概率分布图中(x0,y0)坐标像素值,Im(x,y)表示所述粒子集
Figure BDA00002086166700046
中粒子运动概率分布图中(x0,y0)坐标像素值,M00是所述粒子集
Figure BDA00002086166700047
中粒子融合零阶矩,M10是所述粒子集
Figure BDA00002086166700048
中粒子x方向坐标值一阶矩,M01是所述粒子y方向坐标值一阶矩,其中粒子迭代次数n1=0,β∈[0,1];
步骤:22:计算所述粒子集
Figure BDA00002086166700049
中粒子质心坐标值x1,y1,其中
Figure BDA000020861667000410
Figure BDA000020861667000411
则实际粒子质心坐标值是C1(x1,y1),并使得迭代次数n=n1+1;
步骤23:根据迭代终止条件||C1-C0||<ε或n1>n0,判断所述粒子集
Figure BDA000020861667000412
中粒子是否更新了质心坐标位置,若满足迭代条件,则所述粒子符合条件,若不满足迭代条件,则令C1(x1,y1)代替C0(x0,y0);将符合迭代条件的粒子组成迭代粒子集
Figure BDA000020861667000413
在步骤23中所述||C1-C0||<ε指的是粒子集
Figure BDA000020861667000414
中粒子质心坐标值与粒子集中粒子初始质心坐标值平均移动位置(x1-x0)2+(y1-y0)2小于阈值ε;当n1>n0指的是迭代次数大于阈值n0,所述n0是6到15。
所述步骤23中所述ε=2。
所述步骤23中所述n0=10.
所述步骤21中融合零阶矩β=0.8。
在步骤3中所述对迭代粒子集
Figure BDA00002086166700051
中的粒子与目标模板粒子进行相关度处理,具体过程是:基于迭代粒子集
Figure BDA00002086166700052
粒子的目标和颜色的运动信息,通过观测模型
Figure BDA00002086166700053
建立目标模板,根据目标模板对迭代粒子集
Figure BDA00002086166700054
每个粒子进行观测,计算迭代粒子集
Figure BDA00002086166700055
与目标模板粒子集的相关度观测函数
Figure BDA00002086166700056
步骤3中所述通过观测函数计算迭代粒子集粒子质心坐标值加权值具体过程是:通过观测函数计算迭代粒子集
Figure BDA00002086166700058
粒子质心坐标值距离目标模板粒子质心坐标值距离的加权值,其中
Figure BDA00002086166700059
表示目标模版粒子的质心坐标值;M表示迭代粒子集每个粒子的即时模版粒子质心坐标值,D表示迭代粒子集粒子距离目标模板粒子距离的加权值。
在步骤3中所述观测函数计算粒子权值具体步骤是:通过
Figure BDA000020861667000510
计算迭代粒子集
Figure BDA000020861667000511
中每个粒子的加权和,并对加权和进行归一化处理
Figure BDA00002086166700061
即可计算当前帧目标的状态:
s k &prime; = E ( s k , z 1 : k ) = &Sigma; i = 1 N w k ( i ) x k ( i ) , 其中i=1,....,N。
在步骤1中所述状态转移模型是sk-sk-1=sk-1-sk-2-ruk-1,N为粒子数,
Figure BDA00002086166700063
表示粒子随机传播半径;uk-1是[-1,1]之间的随机数。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
对运动目标跟踪算法进行分析与比较,将基于HSV空间颜色特征和基于坐标系的运动信息表示相融合,改进Camshift算法,并且将改进的Camshift算法嵌入到粒子滤波中,用来重新分配粒子滤波样本,使之向目标状态密度函数值增大的方向移动,由此得到的样本集将收敛到靠近目标真实状态的区域内,最后用这些漂移的粒子来计算所估计的目标状态,实现更好的跟踪。实验测试结果表明改进的融合算法在跟踪准确性和实时性方面比单独使用粒子滤波或Camshift算法性能更好。
附图说明
本发明将通过例子并参照附图的方式说明,其中:
图1改进的Camshift算法的流程图。
具体实施方式
本说明书中公开的所有特征,或公开的所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以以任何方式组合。
本说明书(包括任何附加权利要求、摘要和附图)中公开的任一特征,除非特别叙述,均可被其他等效或具有类似目的的替代特征加以替换。即,除非特别叙述,每个特征只是一系列等效或类似特征中的一个例子而已。
本设计相关说明:
一、Camshift算法
是MeanShift算法的改进,称为连续自适应的MeanShift算法,CamShift算法的全称是″Continuously Adaptive Mean-SHIFT″,它的基本思想是视频图像的所有帧作MeanShift运算,并将上一帧的结果(即Search Window的中心和大小)作为下一帧MeanShift算法的Search Window的初始值,如此迭代下去,Camshift是由Meanshift推导而来Meanshift主要是用在单张影像上,但是独立一张影像分析对追踪而言并无意义,Camshift就是利用MeanShift的方法,对影像串列进行分析,主要是将输入图像转化为HSV图像,再通过H分量阈值将趋于分割,自动提取输入图像的跟踪窗口大小位置,然后利用MeanShift演算法来收敛欲追踪的区域,集中收敛的区域,并标示之。Camshift关键就在于当目标的大小发生改变的时候,此算法可以自适应调整目标区域继续跟踪。其中HSV颜色模型就是一种与人眼的视觉特征相匹配的颜色模型,其中,H代表色调,用角度表述,其变化范围为0~360°;S表示色饱和度,变化范围为0~1,V为亮度,变化范围为0~1.他通过对RGB颜色空间进行转换,使信息结构更加紧凑各个分量的独立性增强,颜色信息丢失减少,通常情况下,人脸肤色区域H值变化范围比较集中,因此只要选择合适的H阈值就可以迅速的检测跟踪区域。根据大量H直方图统计得出经验值。考虑实际情况,并使选择的阈值具有一定的抗噪能力,选取用做肤色分割的H阈值为0.03-0.128。
二、粒子滤波器算法
(1)采样,从样本集
Figure BDA00002086166700081
中选择N个粒子给予
{ ( s t - 1 &prime; ( n ) , 1 N ) } n = 1 N ;
(2)预测,利用动态模型,对新产生的粒子进行漂移和扩散。动态模型通常可表示为:
p ( x t | x t - 1 = s t - 1 &prime; n )
(3)观测与更新,根据目标模型对每个粒子进行观测,得到观测特征Zt计算相似度。从而得到对应粒子的权重:
Figure BDA00002086166700084
归一化权重,从而使:
Figure BDA00002086166700085
(4)输出,输出t时刻的估计状态:
&epsiv; [ x t ] = &Sigma; n = 1 N &pi; t ( n ) s t ( n ) .
三、如图1所示改进的Camshift算法,
步骤21:在Camshift算法基础上,设置粒子集
Figure BDA00002086166700087
中粒子初始质心坐标值是C0(x0,y0),根据颜色概率分布图中零阶矩
Figure BDA00002086166700088
运动概率分布图中零阶矩
Figure BDA00002086166700089
并结合Ic(x,y)、Im(x,y)计算粒子集
Figure BDA000020861667000810
中粒子的M00、M10、M01
M 00 = M = &Sigma; x &Sigma; y ( ( 1 - &beta; ) &times; I c ( x 0 , y 0 ) + &beta; I m ( x 0 , y 0 ) ) ,
M 10 = &Sigma; x &Sigma; y x ( ( 1 - &beta; ) &times; I c ( x 0 , y 0 ) + &beta; I m ( x 0 , y 0 ) ) ,
M 01 = &Sigma; x &Sigma; y y ( ( 1 - &beta; ) &times; I c ( x 0 , y 0 ) + &beta; I m ( x 0 , y 0 ) )
其中Ic(x,y)表示所述粒子集
Figure BDA00002086166700091
中粒子颜色概率分布图中(x0,y0)坐标像素值,Im(x,y)表示所述粒子集
Figure BDA00002086166700092
中粒子运动概率分布图中(x0,y0)坐标像素值,M00是所述粒子集中粒子融合零阶矩,M10是所述粒子集
Figure BDA00002086166700094
中粒子x方向坐标值一阶矩,M01是所述粒子y方向坐标值一阶矩,其中粒子迭代次数n1=0,β∈[0,1];
步骤:22:计算所述粒子集
Figure BDA00002086166700095
中粒子质心坐标值x1,y1,其中
Figure BDA00002086166700097
则实际粒子质心坐标值是C1(x1,y1),并使得迭代次数n=n1+1;
步骤23:根据迭代终止条件||C1-C0||<ε或n1>n0,判断所述粒子集
Figure BDA00002086166700098
中粒子是否更新了质心坐标位置,若满足迭代条件,则所述粒子符合条件,若不满足迭代条件,则令C1(x1,y1)代替C0(x0,y0);将符合迭代条件的粒子组成迭代粒子集
Figure BDA00002086166700099
四、状态转移模型在得到目标初始状态附近随机粒子分部粒子集中的作用是:得到下一个时刻的粒子集。
五、随机分布粒子集
Figure BDA000020861667000911
指的是颜色与运动特征值,
Figure BDA000020861667000912
N的范围是从1……n;指的是当i从1到N时,wk从1、
Figure BDA000020861667000914
六、k时刻粒子集
Figure BDA00002086166700101
61)
Figure BDA00002086166700102
表示k时刻粒子集
Figure BDA00002086166700103
中i个粒子质心坐标值变化小于阈值ε粒子的颜色与运动特征值;
62)
Figure BDA00002086166700104
中N的范围是从1……n,表示对N个粒子取平均值。
七、 D = 1 - M M 0
71)
Figure BDA00002086166700106
表示目标模版粒子质心坐标值;
72)M表示迭代粒子集每个粒子的即时模版质心坐标值。
八、 s k &prime; = E ( s k , z 1 : k ) = &Sigma; i = 1 N w k ( i ) x k ( i )
81)
Figure BDA00002086166700108
表示每个粒子当前模型,取加权和;
82)
Figure BDA00002086166700109
N的范围是从1……n;指的是当i从1到N时,wk从1、
Figure BDA000020861667001010
九、sk-sk-1=sk-1-sk-2-ruk-1中sk、sk-1、sk-2分别指的是k时刻、k-1时刻、k-2时刻粒子状态。
本设计的原理是:通过目标粒子所述周围随机粒子集的状态来表征目标粒子的位置。
实施例一:基于运动目标跟踪的融合算法包括:
步骤1:基于粒子滤波算法,通过状态转移模型,得到目标k时刻附近随机分布粒子集
Figure BDA00002086166700111
其中其中N为粒子数,k是粒子变化时刻值;
步骤2:提取粒子集粒子的颜色和运动信息,判断粒子集粒子质心坐标值是否满足迭代条件,将符合迭代条件的粒子组合成新的迭代粒子集
Figure BDA00002086166700115
步骤3:对迭代粒子集
Figure BDA00002086166700116
中的粒子与目标模板粒子进行相关度处理,通过观测函数计算粒子权值并进行重采样、归一化处理,得到当前帧目标的状态。
实施例二:在实施例一基础上,所述步骤2中判断粒子集
Figure BDA00002086166700117
粒子质心坐标值是否满足迭代条件具体过程是:
步骤21:在Camshift算法基础上,设置粒子集
Figure BDA00002086166700118
中粒子初始质心坐标值是C0(x0,y0),根据颜色概率分布图中零阶矩
Figure BDA00002086166700119
运动概率分布图中零阶矩并结合Ic(x,y)、Im(x,y)计算粒子集
Figure BDA000020861667001111
中粒子的M00、M10、M01
M 00 = M = &Sigma; x &Sigma; y ( ( 1 - &beta; ) &times; I c ( x 0 , y 0 ) + &beta; I m ( x 0 , y 0 ) ) ,
M 10 = &Sigma; x &Sigma; y x ( ( 1 - &beta; ) &times; I c ( x 0 , y 0 ) + &beta; I m ( x 0 , y 0 ) ) ,
M 01 = &Sigma; x &Sigma; y y ( ( 1 - &beta; ) &times; I c ( x 0 , y 0 ) + &beta; I m ( x 0 , y 0 ) )
其中Ic(x,y)表示所述粒子集
Figure BDA000020861667001115
中粒子颜色概率分布图中(x0,y0)坐标像素值,Im(x,y)表示所述粒子集中粒子运动概率分布图中(x0,y0)坐标像素值,M00是所述粒子集
Figure BDA00002086166700122
中粒子融合零阶矩,M10是所述粒子集
Figure BDA00002086166700123
中粒子x方向坐标值一阶矩,M01是所述粒子y方向坐标值一阶矩,其中粒子迭代次数n1=0,β∈[0,1];
步骤:22:计算所述粒子集
Figure BDA00002086166700124
中粒子质心坐标值x1,y1,其中
Figure BDA00002086166700125
则实际粒子质心坐标值是C1(x1,y1),并使得迭代次数n=n1+1;
步骤23:根据迭代终止条件||C1-C0||<ε或n1>n0,判断所述粒子集
Figure BDA00002086166700127
中粒子是否更新了质心坐标位置,若满足迭代条件,则所述粒子符合条件,若不满足迭代条件,则令C1(x1,y1)代替C0(x0,y0);将符合迭代条件的粒子组成迭代粒子集
Figure BDA00002086166700128
实施例三:在实施例二基础上,步骤23中所述||C1-C0||<ε指的是粒子集
Figure BDA00002086166700129
中粒子质心坐标值与粒子集
Figure BDA000020861667001210
中粒子初始质心坐标值平均移动位置(x1-x0)2+(y1-y0)2小于阈值ε;
实施例四,在实施例二或三基础上,步骤23中所述n1>n0指的是迭代次数大于阈值n0,ε最好是2。
实施例五:在实施例四基础上,所述n0是6到15。
实施例六:在实施例五基础上,所述n0是10。
实施例七:在实施例二至六之一基础上,步骤21中融合零阶矩的β是0.8。
实施例八:在实施例一至七之一基础上,步骤3中对迭代粒子集中的粒子与目标模板粒子进行相关度处理,具体过程是:基于迭代粒子集
Figure BDA00002086166700132
粒子的目标和颜色的运动信息,通过观测模型
Figure BDA00002086166700133
建立目标模板,根据目标模板对迭代粒子集
Figure BDA00002086166700134
每个粒子进行观测,计算迭代粒子集与目标模板粒子集的相关度观测函数
Figure BDA00002086166700136
实施例九:在实施例八基础上,步骤3中所述通过观测函数计算迭代粒子集粒子质心坐标值加权值具体过程是:通过观测函数
Figure BDA00002086166700137
计算迭代粒子集
Figure BDA00002086166700138
粒子质心坐标值距离目标模板粒子质心坐标值距离的加权值,其中
Figure BDA00002086166700139
表示目标模版粒子的质心坐标值;M表示迭代粒子集每个粒子的即时模版粒子质心坐标值,D表示迭代粒子集粒子距离目标模板粒子距离的加权值。
实施例十:再实施例八或九基础上步骤3中所述观测函数计算粒子权值具体步骤是:通过
Figure BDA000020861667001310
计算迭代粒子集
Figure BDA000020861667001311
中每个粒子的加权和,并对加权和进行归一化处理
Figure BDA000020861667001312
即可计算当前帧目标的状态: s k &prime; = E ( s k , z 1 : k ) = &Sigma; i = 1 N w k ( i ) x k ( i ) , 其中i=1,....,N。
实施例十一:在实施例1至十之一基础上,步骤1中所述状态转移模型是sk-sk-1=sk-1-sk-2-ruk-1,N为粒子数,
Figure BDA00002086166700141
表示粒子随机传播半径;uk-1是[-1,1]之间的随机数。
实验测试:实验视频数据均采用AVI格式,其他格式视频需事先转化成AVI格式。视频分辨率为320×240,帧率为25fps。试为了验证上述介绍的粒子滤波与Camshift的融合算法,选取了手持相机拍摄的运动目标视频跟踪数据,并且在风吹光线变化较频繁的复杂环境下的情况下。分别采用粒子滤波算法,Camshift算法和粒子滤波与改进Camshift的融合算法。表一是三种算法的跟踪效果,可以看出本需要400个粒子,现用改进的Camshift算法只需60个粒子即可完成跟踪,大大改善了跟踪效率。改进的Camshift与粒子滤波的融合算法无论是跟踪视频流畅度,单帧用时火跟踪准确率,都比单独使用粒子滤波和Camshift算法要优化许多。如果仅使用粒子滤波跟踪的方式进行目标跟踪,在视频目标跟踪时,其计算复杂度高,实时性差,由于粒子滤波存在动态模型的不确定问题,从而对目标状态的估计不够理想,进而导致跟踪可能出现偏差。同时,Camshift由于只能得到局部最优解,Camshift采用色度分量直方图计算反向投射图,而色度分量受光照变化影响比较小,因此对于光照变化有一定的适应能力。但是对于噪声比较强的环境,其性能下降较多,并且当图像的灰度较低时,色度的区分能力急剧下降。并且当目标的颜色与背景的颜色大部分相近的时候,Camshift算法会很快发散,降低了跟踪效率。
Figure BDA00002086166700142
2、本发明并不局限于前述的具体实施方式。本发明扩展到任何在本说明书中披露的新特征或任何新的组合,以及披露的任一新的方法或过程的步骤或任何新的组合。

Claims (10)

1.一种基于运动目标跟踪的融合算法,其特征在于包括:
步骤1:基于粒子滤波算法,通过状态转移模型,得到目标K时刻状态附近随机分布粒子集 
Figure FDA00002086166600011
其中 
Figure FDA00002086166600012
其中N为粒子数,k是粒子变化时刻值;
步骤2:提取粒子集 
Figure FDA00002086166600013
粒子的颜色和运动信息,判断粒子集 
Figure FDA00002086166600014
粒子质心坐标值是否满足迭代条件,将符合迭代条件的粒子组合成新的迭代粒子集 
Figure FDA00002086166600015
步骤3:对迭代粒子集 中的粒子与目标模板粒子进行相关度处理,通过观测函数计算迭代粒子集粒子质心坐标值加权值并进行重采样、归一化处理,得到当前帧目标的状态。
2.根据权利要求1所述的基于运动目标跟踪的融合算法,其特征在于步骤2中所述判断粒子集 粒子质心坐标值是否满足迭代条件具体过程是:
步骤21:在Camshift算法基础上,设置粒子集 
Figure FDA00002086166600018
中粒子初始质心坐标值是C0(x0,y0),根据颜色概率分布图中零阶矩 
Figure FDA00002086166600019
运动概率分布图中零阶矩 
Figure FDA000020861666000110
并结合Ic(x,y)、Im(x,y)计算粒子集 
Figure FDA000020861666000111
中粒子的M00、M10、M01
Figure FDA000020861666000112
Figure FDA000020861666000113
Figure FDA00002086166600021
其中Ic(x,y)表示所述粒子集 
Figure FDA00002086166600022
中粒子颜色概率分布图中(x0,y0)坐标像素值,Im(x,y)表示所述粒子集 
Figure FDA00002086166600023
中粒子运动概率分布图中(x0,y0)坐标像素值,M00是所述粒子集 
Figure FDA00002086166600024
中粒子融合零阶矩,M10是所述粒子集 
Figure FDA00002086166600025
中粒子x方向坐标值一阶矩,M01是所述粒子y方向坐标值一阶矩,其中粒子迭代次数n1=0,β∈[0,1];
步骤:22:计算所述粒子集 
Figure FDA00002086166600026
中粒子质心坐标值x1,y1,其中 
Figure FDA00002086166600027
Figure FDA00002086166600028
则实际粒子质心坐标值是C1(x1,y1),并使得迭代次数n=n1+1;
步骤23:根据迭代终止条件||C1-C0||<ε或n1>n0,判断所述粒子集 
Figure FDA00002086166600029
中粒子是否更新了质心坐标位置,若满足迭代条件,则所述粒子符合条件,若不满足迭代条件,则令C1(x1,y1)代替C0(x0,y0);将符合迭代条件的粒子组成迭代粒子集 
Figure FDA000020861666000210
3.根据权利要求2所述的基于运动目标跟踪的融合算法,其特征在于步骤23中所述||C1-C0||<ε指的是粒子集 中粒子质心坐标值与粒子集 
Figure FDA000020861666000212
中粒子初始质心坐标值平均移动位置(x1-x0)2+(y1-y0)2小于阈值ε;当n1>n0指的是迭代次数大于阈值n0,所述n0是6到15。
4.根据权利要求2所述的基于运动目标跟踪的融合算法,其特征 在于所述步骤23中所述ε是2。
5.根据权利要求3所述的基于运动目标跟踪的融合算法,其特征在于所述步骤23中所述n0是10。
6.根据权利要求4所述的基于运动目标跟踪的融合算法,其特征在于所述步骤21中融合零阶矩β是0.8。
7.根据权利要求1至6之一所述的基于运动目标跟踪的融合算法,其特征在于步骤3中所述对迭代粒子集 
Figure FDA00002086166600031
中的粒子与目标模板粒子进行相关度处理,具体过程是:基于迭代粒子集 
Figure FDA00002086166600032
粒子的目标和颜色的运动信息,通过观测模型 建立目标模板,根据目标模板对迭代粒子集 
Figure FDA00002086166600034
每个粒子进行观测,计算迭代粒子集 
Figure FDA00002086166600035
与目标模板粒子集的相关度观测函数 
Figure FDA00002086166600036
8.根据权利要求7所述的基于运动目标跟踪的融合算法,其特征在于步骤3中所述通过观测函数计算迭代粒子集粒子质心坐标值加权值具体过程是:通过观测函数 计算迭代粒子集 粒子质心坐标值距离目标模板粒子质心坐标值距离的加权值,其中 
Figure FDA00002086166600039
表示目标模版粒子的质心坐标值;M表示迭代粒子集每个粒子的即时模版粒子质心坐标值,D表示迭代粒子集粒子距离目标模板粒子距离的加权值。 
9.根据权利要求4所述的基于运动目标跟踪的融合算法,其特征在于步骤3中所述观测函数计算粒子权值具体步骤是:通过 
Figure FDA00002086166600041
计算迭代粒子集 
Figure FDA00002086166600042
中每个粒子的加权和,并对加权和进行归一化处理 
Figure FDA00002086166600043
即可计算当前帧目标的状态: 
Figure FDA00002086166600044
其中i=1,....,N。
10.根据权利要求9所述的基于运动目标跟踪的融合算法,其特征在于步骤1中所述状态转移模型是sk-sk-1=sk-1-sk-2-ruk-1,N为粒子数, 
Figure FDA00002086166600045
表示粒子随机传播半径;uk-1是[-1,1]之间的随机数。 
CN2012103194692A 2012-08-31 2012-08-31 基于运动目标跟踪的融合算法 Pending CN102903121A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2012103194692A CN102903121A (zh) 2012-08-31 2012-08-31 基于运动目标跟踪的融合算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2012103194692A CN102903121A (zh) 2012-08-31 2012-08-31 基于运动目标跟踪的融合算法

Publications (1)

Publication Number Publication Date
CN102903121A true CN102903121A (zh) 2013-01-30

Family

ID=47575334

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2012103194692A Pending CN102903121A (zh) 2012-08-31 2012-08-31 基于运动目标跟踪的融合算法

Country Status (1)

Country Link
CN (1) CN102903121A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103400381A (zh) * 2013-07-25 2013-11-20 河海大学 一种基于光学成像的水下目标跟踪方法
CN103997624A (zh) * 2014-05-21 2014-08-20 江苏大学 重叠域双摄像头目标跟踪系统及方法
CN104182993A (zh) * 2014-09-10 2014-12-03 四川九洲电器集团有限责任公司 一种目标跟踪的方法
CN105844663A (zh) * 2016-03-21 2016-08-10 中国地质大学(武汉) 一种自适应orb目标跟踪方法
CN105868574A (zh) * 2016-04-25 2016-08-17 南京大学 一种摄像头跟踪人脸的优化方法及基于视频的智慧健康监视系统
CN107145167A (zh) * 2017-04-07 2017-09-08 南京邮电大学 一种基于数字图像处理技术的视频目标跟踪方法
CN107220993A (zh) * 2017-04-25 2017-09-29 西北工业大学 基于Mean shift聚类的粒子滤波机动目标追踪算法
CN110503665A (zh) * 2019-08-22 2019-11-26 湖南科技学院 一种改进Camshift的目标跟踪算法
CN112102356A (zh) * 2019-06-18 2020-12-18 北京七鑫易维科技有限公司 一种目标跟踪方法、装置、终端设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060045310A1 (en) * 2004-08-27 2006-03-02 General Electric Company System and method for tracking articulated body motion
CN101800890A (zh) * 2010-04-08 2010-08-11 北京航空航天大学 一种高速公路监控场景下多车辆视频跟踪方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060045310A1 (en) * 2004-08-27 2006-03-02 General Electric Company System and method for tracking articulated body motion
CN101800890A (zh) * 2010-04-08 2010-08-11 北京航空航天大学 一种高速公路监控场景下多车辆视频跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王鑫等: "一种改进的基于Camshift的粒子滤波实时目标跟踪算法", 《中国图象图形学报》, vol. 15, no. 10, 16 October 2010 (2010-10-16), pages 1507 - 1514 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103400381A (zh) * 2013-07-25 2013-11-20 河海大学 一种基于光学成像的水下目标跟踪方法
CN103400381B (zh) * 2013-07-25 2015-12-09 河海大学 一种基于光学成像的水下目标跟踪方法
CN103997624A (zh) * 2014-05-21 2014-08-20 江苏大学 重叠域双摄像头目标跟踪系统及方法
CN103997624B (zh) * 2014-05-21 2017-04-05 江苏大学 重叠域双摄像头目标跟踪系统及方法
CN104182993B (zh) * 2014-09-10 2017-02-15 四川九洲电器集团有限责任公司 一种目标跟踪的方法
CN104182993A (zh) * 2014-09-10 2014-12-03 四川九洲电器集团有限责任公司 一种目标跟踪的方法
CN105844663A (zh) * 2016-03-21 2016-08-10 中国地质大学(武汉) 一种自适应orb目标跟踪方法
CN105844663B (zh) * 2016-03-21 2018-11-27 中国地质大学(武汉) 一种自适应orb目标跟踪方法
CN105868574A (zh) * 2016-04-25 2016-08-17 南京大学 一种摄像头跟踪人脸的优化方法及基于视频的智慧健康监视系统
CN105868574B (zh) * 2016-04-25 2018-12-14 南京大学 一种摄像头跟踪人脸的优化方法及基于视频的智慧健康监视系统
CN107145167A (zh) * 2017-04-07 2017-09-08 南京邮电大学 一种基于数字图像处理技术的视频目标跟踪方法
CN107220993A (zh) * 2017-04-25 2017-09-29 西北工业大学 基于Mean shift聚类的粒子滤波机动目标追踪算法
CN107220993B (zh) * 2017-04-25 2019-11-01 西北工业大学 基于Mean shift聚类的粒子滤波机动目标追踪方法
CN112102356A (zh) * 2019-06-18 2020-12-18 北京七鑫易维科技有限公司 一种目标跟踪方法、装置、终端设备及存储介质
CN110503665A (zh) * 2019-08-22 2019-11-26 湖南科技学院 一种改进Camshift的目标跟踪算法

Similar Documents

Publication Publication Date Title
Wu et al. Helmet detection based on improved YOLO V3 deep model
CN102903121A (zh) 基于运动目标跟踪的融合算法
CN104574439A (zh) 一种融合卡尔曼滤波与tld算法的目标跟踪方法
CN105528794A (zh) 基于混合高斯模型与超像素分割的运动目标检测方法
CN102142085B (zh) 一种林区监控视频中运动火焰目标的鲁棒跟踪方法
Ren et al. A novel squeeze YOLO-based real-time people counting approach
CN105139420A (zh) 一种基于粒子滤波和感知哈希的视频目标跟踪方法
CN102663409A (zh) 一种基于hog-lbp描述的行人跟踪方法
Nguyen et al. Yolo based real-time human detection for smart video surveillance at the edge
CN103440645A (zh) 一种基于自适应粒子滤波和稀疏表示的目标跟踪算法
CN101923637B (zh) 一种移动终端及其人脸检测方法和装置
CN106815563B (zh) 一种基于人体表观结构的人群数量预测方法
CN104484890A (zh) 基于复合稀疏模型的视频目标跟踪方法
CN113763427B (zh) 一种基于从粗到精遮挡处理的多目标跟踪方法
CN103037140A (zh) 一种基于块匹配的鲁棒性极强的目标跟踪算法
CN104268902A (zh) 面向工业现场的多目标视频跟踪方法
Sharma et al. Scale-aware CNN for crowd density estimation and crowd behavior analysis
Weng et al. Weather-adaptive flying target detection and tracking from infrared video sequences
CN105139426A (zh) 一种基于非下采样小波变换和lbp的视频运动目标检测方法
CN110570450A (zh) 一种基于级联的上下文感知框架的目标跟踪方法
Jingyao et al. Gesture recognition matching based on dynamic skeleton
CN102054278A (zh) 基于网格收缩的对象跟踪方法
CN112053384B (zh) 基于边界框回归模型的目标跟踪方法
CN113963021A (zh) 一种基于时空特征和位置变化的单目标跟踪方法及系统
Xu et al. A novel method for detecting and tracking vehicles in traffic-image sequence

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C05 Deemed withdrawal (patent law before 1993)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20130130