CN112561945A - 一种动态背景目标跟踪方法 - Google Patents

一种动态背景目标跟踪方法 Download PDF

Info

Publication number
CN112561945A
CN112561945A CN202011396132.2A CN202011396132A CN112561945A CN 112561945 A CN112561945 A CN 112561945A CN 202011396132 A CN202011396132 A CN 202011396132A CN 112561945 A CN112561945 A CN 112561945A
Authority
CN
China
Prior art keywords
target
particle
histogram
color
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011396132.2A
Other languages
English (en)
Other versions
CN112561945B (zh
Inventor
郭健
叶雅婷
李胜
钱抒婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN202011396132.2A priority Critical patent/CN112561945B/zh
Publication of CN112561945A publication Critical patent/CN112561945A/zh
Application granted granted Critical
Publication of CN112561945B publication Critical patent/CN112561945B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种动态背景目标跟踪方法。该方法为:首先手动选择跟踪目标作为初始的目标状态模板,在此目标附近放置粒子集,并通过状态转移模型得到k时刻的粒子集;然后计算初始目标模型的H‑S联合颜色直方图和梯度方向直方图,并利用Camshift算法对粒子集的每个粒子进行漂移,得到漂移后的粒子集;接着根据目标的H‑S联合颜色直方图和梯度方向直方图建立观测模型,通过观测模型判断每个粒子状态与实际状态的相似度,计算粒子权值并归一化,根据归一化的粒子权值进行粒子重采样;最后对重采样后的粒子加权求和,得到当前目标的估计状态,确定目标位置。本发明系统稳健性强、跟踪效果好、抗干扰能力强、计算量小、实时性强。

Description

一种动态背景目标跟踪方法
技术领域
本发明涉及图像目标跟踪技术领域,特别是一种动态背景目标跟踪方法。
背景技术
运动目标的跟踪作为军事制导、安全监控等系统中的核心技术,是计算机视觉领域的一个研究热点。国内对视频运动目标检测和跟踪技术的研究相对较晚。近年来,国内许多研究机构在该领域也开展了大量研究工作,但是目前对视频目标跟踪理论和应用的研究还处于在一定的限制条件下设计特定方法的阶段,许多目标跟踪算法对复杂的背景或者变化的目标的跟踪常常会遇到很大的困难,甚至丢失目标导致跟踪失败,通常只适用于一些背景不太复杂、目标变换不大或者其他一些特定的工作场合。因此,如何有效、精准地表征目标,如何在运动目标发生变化和背景复杂地情况下实时精确地跟踪目标,是目前视频目标跟踪研究中的主要难题。
目前比较经典的跟踪算法有Meanshift、Camshift算法、粒子滤波、卡尔曼滤波算法等。Camshift比较简单,计算量较少,但是容易陷入局部最优,在背景比较复杂的视频中容易受到干扰,跟踪效果较差;粒子滤波运算复杂度较高,但是对于遮挡后再跟踪有比较好的效果。在复杂动态背景下,单一的传统跟踪算法并不能实现稳定的跟踪效果,因此多种跟踪算法融合的方式被提出并应用于实现稳定跟踪。
由于单一的传统目标跟踪算法在背景环境复杂时比较容易受到外界干扰,并且不可避免的存在目标被遮挡后难以继续跟踪的情况。此外,一些较为先进的基于深度学习的目标跟踪算法,需要事先训练大量样本集,而机场围界经过的运动目标类型较多,不利于统计样本,这些算法对平台性能要求较高,增加了应用成本。
发明内容
本发明的目的在于提供一种系统稳健性强、跟踪效果好、抗干扰能力强、计算量小、实时性强的基于粒子滤波与Camshift相结合的动态背景目标跟踪方法。
实现本发明目的的技术解决方案为:一种动态背景目标跟踪方法,包括以下步骤:
步骤1、手动选择跟踪目标作为初始的目标状态模板,并在跟踪目标所在区域放置粒子集;
步骤2、通过状态转移模型得到k时刻的粒子集;
步骤3、计算初始化后的目标状态模板的H-S联合颜色直方图和梯度方向直方图,并利用Camshift算法的迭代对k时刻粒子集中的每个粒子进行漂移,使粒子集中的粒子移动到目标当前所在的区域,得到漂移后的k时刻粒子集;
步骤4、根据目标的H-S联合颜色直方图和梯度方向直方图建立观测模型,通过观测模型判断漂移后的k时刻粒子集中每个粒子状态与实际状态的相似度,然后计算粒子权值并归一化;
步骤5、对权值小于阈值e的粒子,利用随机采样法复制从粒子集中随机选取的粒子取代原粒子,完成粒子重采样,其中e=1/N;
步骤6、对重采样后的粒子加权求和,得到当前目标的估计状态,确定目标位置。
本发明与现有技术相比,其显著优点在于:(1)解决了遮挡物与目标颜色相似时对跟踪效果的干扰问题,系统有较强的稳健性;(2)在网格围栏与遮挡物较多的复杂背景中,跟踪过程基本不受网格干扰,跟踪效果好;(3)能够实时反映目标框位于遮挡物体处时目标所处的位置;(4)利用Camshift迭代每个粒子使其漂移到目标区域,计算量小,实时性强。
附图说明
图1为本发明动态背景目标跟踪方法的流程示意图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步的详细说明。
结合图1,本发明一种动态背景目标跟踪方法,包括如下步骤:
步骤1、手动选择跟踪目标作为初始的目标状态模板,并在跟踪目标所在区域放置粒子集,具体如下:
在视频中手动选择需要跟踪的目标,作为初始的目标状态模板,在此目标附近随机放置粒子集
Figure BDA0002815307660000021
Figure BDA0002815307660000022
共有N个粒子样本。该粒子集为在目标附近通过加高斯噪声方式产生的N个粒子
Figure BDA0002815307660000023
其中
Figure BDA0002815307660000024
为各个粒子的初始权值,
Figure BDA0002815307660000025
表示初始状态下编号为i的粒子。
步骤2、通过状态转移模型得到k时刻的粒子集,具体如下:
通过状态转移模型得到的k时刻的粒子集记为
Figure BDA0002815307660000026
其中
Figure BDA0002815307660000027
代表粒子的随机传播半径,
Figure BDA0002815307660000028
表示k时刻第i个粒子的可能状态。
状态转移模型为:
xk=2xk-1-xk-2+ruk-1
其中,xk为k时刻的目标状态,uk-1为高斯噪声且uk-1∈[-1,1],
Figure BDA0002815307660000031
代表粒子的随机传播半径。
步骤3、计算初始化后的目标状态模板的H-S联合颜色直方图和梯度方向直方图,并利用Camshift算法的迭代对k时刻粒子集中的每个粒子进行漂移,使粒子集中的粒子移动到目标当前所在的区域,得到漂移后的k时刻粒子集,具体如下:
步骤3.1、计算初始目标模型的H-S联合颜色直方图,具体如下:
将RGB图像空间转换成HSV图像空间,再对其中的H-S色调分量计算直方图,作为目标的颜色特征参数。由于在框选目标时,选择框的边界部分有可能是背景图像,因此利用核函数k(r)对初始目标模型的颜色分布直方图进行加权处理,使得随着像素远离目标模型中心,该像素所占权重逐渐减小。当像素在目标框边缘部分视,像素权重为0。增强了颜色特征模型的可靠性;
核函数k(r)为:
Figure BDA0002815307660000032
式中r为像素点到目标框中心的距离;
设定目标框中的像素点为xi,中心点为y,则目标框内的颜色分布直方图
Figure BDA0002815307660000033
为:
Figure BDA0002815307660000034
Figure BDA0002815307660000035
Figure BDA0002815307660000036
其中m为目标的颜色分布直方图的维数,N为目标区域内像素总数;h(xi)为像素点xi点对应颜色分布直方图中的值,δ[h(xi)-u]为单位冲击函数,根据xi点的颜色值是否位于第u个颜色分布直方图的区间内进行取值,若在则为1,否则为0;a为目标区域自适应变量,
Figure BDA0002815307660000037
为目标框的宽和高;f为归一化因子;
分别构造跟踪目标的H分量直方图和S分量直方图,然后将上述两种直方图加权融合得到跟踪目标的H-S联合颜色直方图:
Figure BDA0002815307660000041
其中α∈(0.5,1)为加权系数;
Figure BDA0002815307660000042
分别为H分量直方图、S分量直方图和H-S联合颜色直方图,α∈(0.5,1)为加权系数;
步骤3.2、利用Sobel算子计算框选目标区域的梯度方向直方图,具体如下:
Sobel算子的横向和纵向梯度模板分别为Gx、Gy
Figure BDA0002815307660000043
利用Sobel算子的梯度模板计算图中目标区域所有像素点在x、y方向的梯度值,得到该框选目标在边缘区域的梯度幅值G和边缘方向θ为:
Figure BDA0002815307660000044
式中
Figure BDA0002815307660000045
然后对各个方向上的梯度幅值进行统计,构造目标区域的梯度方向直方图,公式如下:
Figure BDA0002815307660000046
其中u为目标的颜色分布直方图的维数,N为目标区域内像素总数;θ(xi)为像素点xi点对应颜色分布直方图中的值,δ[θ(xi)-u]为单位冲击函数;
步骤3.3、利用Camshift算法的迭代对k时刻粒子集中的每个粒子进行漂移,使粒子移动到目标当前所在的区域,得到漂移后的k时刻粒子集,具体如下:
步骤3.3.1、计算方向投影,根据步骤3.1得到的目标区域的H-S联合颜色直方图,计算输入图像的颜色概率密度分布图,即用输入图像的一位置上像素值对应在直方图上的值来代替该像素值,并将该数值归一化到0-255范围;通过对输入图像中的每个像素均采用以上步骤,得到当前图像的颜色概率密度分布图,在颜色概率密度分布图中,图像的像素越大,代表该像素值出现的概率越大;
步骤3.3.2、在当前帧图像的联合概率密度分布图中设置粒子i的初始搜索窗口,如果是第一帧图像则通过手动选择的方式确定跟踪目标,如果是其他帧图像则利用上一帧图像最终得到的粒子i窗口的质心位置和大小来设置粒子i在当前帧图像中搜索窗口的位置和尺寸;
步骤3.3.3、计算粒子i搜索区域的零阶矩M00和一阶矩M10、M01,公式为:
Figure BDA0002815307660000051
Figure BDA0002815307660000052
Figure BDA0002815307660000053
其中(x,y)为粒子i的在搜索区域中的像素位置,I(x,y)为粒子i所在像素位置在图像的颜色概率密度分布图中的值;
步骤3.3.4、计算粒子i的搜索区域的质心位置,并将粒子i新的搜索窗口的中心移动到质心(xc,yc)处,其中,
Figure BDA0002815307660000054
步骤3.3.5、调整粒子i新的搜索窗口大小,具体如下:
计算(x,y)的二阶矩M20、M02、M11,公式为:
Figure BDA0002815307660000055
Figure BDA0002815307660000056
Figure BDA0002815307660000057
根据(x,y)的二阶矩M20、M02、M11调整粒子i新搜索窗口,公式为:
Figure BDA0002815307660000058
Figure BDA0002815307660000059
Figure BDA00028153076600000510
其中l和w分别为粒子i新的搜索窗口的高和宽,θ为方向角;
步骤3.3.6、判断此时点(x0,y0)与质心(xc,yc)的距离,若小于ε,或者n>nε,则停止迭代,并将当前搜索框的大小与质心位置作为下一帧图像的粒子i位置输入,然后进入步骤3.3.7;反之,则返回步骤3.3.3;其中ε和nε分别为事先设定好的距离阈值和最大迭代次数;
步骤3.3.7、判断是否每个粒子是否都进行漂移,若是,则输出漂移后的k时刻粒子集
Figure BDA0002815307660000061
其中
Figure BDA0002815307660000062
表示k时刻下编号为i的粒子;反之,则返回步骤3.3.2。
步骤4、根据目标的H-S联合颜色直方图和梯度方向直方图建立观测模型,通过观测模型判断漂移后的k时刻粒子集中每个粒子状态与实际状态的相似度,然后计算粒子权值并归一化,具体如下:
步骤4.1、基于目标的H-S联合颜色直方图和梯度方向直方图建立观测模型,具体如下:
计算每个粒子的颜色直方图
Figure BDA0002815307660000063
与初始目标框区域的颜色直方图q(u)之间的Bhattacharyya距离d:
Figure BDA0002815307660000064
其中,u=1,…,m,m为目标区域的颜色直方图的维数,ρ为Bhattacharyya系数:
Figure BDA0002815307660000065
由Bhattacharyya距离d来衡量直方图
Figure BDA0002815307660000066
和q(u)之间的相似程度,d越小表示两种颜色直方图越相似,则赋予该粒子比较大的权值,d越大则相反;
由此得粒子滤波的观测函数
Figure BDA0002815307660000067
为:
Figure BDA0002815307660000068
其中zk为通过观测来判断每个粒子状态,
Figure BDA0002815307660000069
粒子i实际状态,σ为距离d对应的方差。
根据H-S联合颜色直方图
Figure BDA00028153076600000610
和目标区域的梯度方向直方图
Figure BDA00028153076600000611
分别求得其对应的观测函数
Figure BDA00028153076600000612
Figure BDA00028153076600000613
通过自适应融合目标的H-S联合颜色直方图的观测函数
Figure BDA00028153076600000614
和目标区域的梯度方向直方图的
Figure BDA00028153076600000615
得到最终改进后的观测函数:
Figure BDA00028153076600000616
其中β为加权系数;
步骤4.2、根据观测函数更新漂移后的k时刻粒子集中粒子的权值为:
Figure BDA00028153076600000617
步骤4.3、归一化漂移后的k时刻粒子集中粒子的权值为:
Figure BDA0002815307660000071
其中,
Figure BDA0002815307660000072
归一化漂移后粒子k时刻粒子i的权值,
Figure BDA0002815307660000073
为步骤4.1所述最终改进后的观测函数。
步骤5、对权值小于阈值e的粒子,利用随机采样法复制从粒子集中随机选取的粒子取代原粒子,完成粒子重采样,其中e=1/N;
对步骤4中权值小的粒子,利用随机采样法复制权值较大的粒子取代原粒子,完成粒子重采样,避免退化;
步骤6、对重采样后的粒子加权求和,得到当前目标的估计状态,确定目标位置;
当前时刻目标的估计状态的公式为:
Figure BDA0002815307660000074
其中,
Figure BDA0002815307660000075
归一化漂移后粒子k时刻粒子i的权值,其中
Figure BDA0002815307660000076
表示k时刻下编号为i的粒子,E[xk]为k时刻跟踪目标的估计位置。
本发明解决了遮挡物与目标颜色相似时对跟踪效果的干扰问题,系统有较强的稳健性;在网格围栏与遮挡物较多的复杂背景中,跟踪过程基本不受网格干扰,跟踪效果好;能够实时反映目标框位于遮挡物体处时目标所处的位置;利用Camshift迭代每个粒子使其漂移到目标区域,计算量小,实时性强。

Claims (7)

1.一种动态背景目标跟踪方法,其特征在于,包括以下步骤:
步骤1、手动选择跟踪目标作为初始的目标状态模板,并在跟踪目标所在区域放置粒子集;
步骤2、通过状态转移模型得到k时刻的粒子集;
步骤3、计算初始化后的目标状态模板的H-S联合颜色直方图和梯度方向直方图,并利用Camshift算法的迭代对k时刻粒子集中的每个粒子进行漂移,使粒子集中的粒子移动到目标当前所在的区域,得到漂移后的k时刻粒子集;
步骤4、根据目标的H-S联合颜色直方图和梯度方向直方图建立观测模型,通过观测模型判断漂移后的k时刻粒子集中每个粒子状态与实际状态的相似度,然后计算粒子权值并归一化;
步骤5、对权值小于阈值e的粒子,利用随机采样法复制从粒子集中随机选取的粒子取代原粒子,完成粒子重采样,其中e=1/N;
步骤6、对重采样后的粒子加权求和,得到当前目标的估计状态,确定目标位置。
2.根据权利要求1所述的动态背景目标跟踪方法,其特征在于,步骤1中所述的在跟踪目标所在区域放置粒子集,具体如下:
在跟踪目标所在区域通过加高斯噪声的方式产生N个粒子
Figure FDA0002815307650000011
其中
Figure FDA0002815307650000012
为各个粒子的初始权值,其中
Figure FDA0002815307650000013
表示初始状态下编号为i的粒子。
3.根据权利要求1所述的动态背景目标跟踪方法,其特征在于,步骤2中所述的状态转移模型,具体为:
xk=2xk-1-xk-2+ruk-1
其中,xk为k时刻的目标状态,uk-1为高斯噪声且uk-1∈[-1,1],
Figure FDA0002815307650000014
代表粒子的随机传播半径。
4.根据权利要求1所述的动态背景目标跟踪方法,其特征在于,步骤2所述的通过状态转移模型得到k时刻的粒子集,具体如下:
得到的k时刻的粒子集为
Figure FDA0002815307650000015
其中
Figure FDA0002815307650000016
代表粒子的随机传播半径,
Figure FDA0002815307650000017
表示k时刻第i个粒子的可能状态。
5.根据权利要求1所述的动态背景目标跟踪方法,其特征在于,步骤3所述的计算初始化后的目标状态模板的H-S联合颜色直方图和梯度方向直方图,并利用Camshift算法的迭代对k时刻粒子集中的每个粒子进行漂移,使粒子集中的粒子移动到目标当前所在的区域,得到漂移后的k时刻粒子集,具体如下:
步骤3.1、计算初始目标模型的H-S联合颜色直方图,具体如下:
将RGB图像空间转换成HSV图像空间,对其中的H-S色调分量计算直方图,作为目标的颜色特征参数,利用核函数k(r)对初始目标模型的颜色分布直方图进行加权处理,使得随着像素远离目标模型中心,该像素所占权重逐渐减小,当像素在目标框边缘部分视,像素权重为0;
核函数k(r)为:
Figure FDA0002815307650000021
式中r为像素点到目标框中心的距离;
设定目标框中的像素点为xi,中心点为y,则目标框内的颜色分布直方图
Figure FDA0002815307650000022
为:
Figure FDA0002815307650000023
Figure FDA0002815307650000024
Figure FDA0002815307650000025
其中m为目标的颜色分布直方图的维数,N为目标区域内像素总数;h(xi)为像素点xi点对应颜色分布直方图中的值,δ[h(xi)-u]为单位冲击函数,根据xi点的颜色值是否位于第u个颜色分布直方图的区间内进行取值,若在则为1,否则为0;a为目标区域自适应变量,
Figure FDA0002815307650000026
为目标框的宽和高;f为归一化因子;
分别构造跟踪目标的H分量直方图和S分量直方图,然后将上述两种直方图加权融合得到跟踪目标的H-S联合颜色直方图:
Figure FDA0002815307650000027
其中α∈(0.5,1)为加权系数;
Figure FDA0002815307650000028
分别为H分量直方图、S分量直方图和H-S联合颜色直方图,α∈(0.5,1)为加权系数;
步骤3.2、利用Sobel算子计算框选目标区域的梯度方向直方图,具体如下:
Sobel算子的横向和纵向梯度模板分别为Gx、Gy
Figure FDA0002815307650000031
利用Sobel算子的梯度模板计算图中目标区域所有像素点在x、y方向的梯度值,得到该框选目标在边缘区域的梯度幅值G和边缘方向θ为:
Figure FDA0002815307650000032
式中
Figure FDA0002815307650000033
然后对各个方向上的梯度幅值进行统计,构造目标区域的梯度方向直方图,公式如下:
Figure FDA0002815307650000034
其中u为目标的颜色分布直方图的维数,N为目标区域内像素总数;θ(xi)为像素点xi点对应颜色分布直方图中的值,δ[θ(xi)-u]为单位冲击函数;
步骤3.3、利用Camshift算法的迭代对k时刻粒子集中的每个粒子进行漂移,使粒子移动到目标当前所在的区域,得到漂移后的k时刻粒子集,具体如下:
步骤3.3.1、计算方向投影,根据步骤3.1得到的目标区域的H-S联合颜色直方图,计算输入图像的颜色概率密度分布图,即用输入图像的一位置上像素值对应在直方图上的值来代替该像素值,并将该数值归一化到0-255范围;通过对输入图像中的每个像素均采用以上步骤,得到当前图像的颜色概率密度分布图,在颜色概率密度分布图中,图像的像素越大,代表该像素值出现的概率越大;
步骤3.3.2、在当前帧图像的联合概率密度分布图中设置粒子i的初始搜索窗口,如果是第一帧图像则通过手动选择的方式确定跟踪目标,如果是其他帧图像则利用上一帧图像最终得到的粒子i窗口的质心位置和大小来设置粒子i在当前帧图像中搜索窗口的位置和尺寸;
步骤3.3.3、计算粒子i搜索区域的零阶矩M00和一阶矩M10、M01,公式为:
Figure FDA0002815307650000041
Figure FDA0002815307650000042
Figure FDA0002815307650000043
其中(x,y)为粒子i的在搜索区域中的像素位置,I(x,y)为粒子i所在像素位置在图像的颜色概率密度分布图中的值;
步骤3.3.4、计算粒子i的搜索区域的质心位置,并将粒子i新的搜索窗口的中心移动到质心(xc,yc)处,其中,
Figure FDA0002815307650000044
步骤3.3.5、调整粒子i新的搜索窗口大小,具体如下:
计算(x,y)的二阶矩M20、M02、M11,公式为:
Figure FDA0002815307650000045
Figure FDA0002815307650000046
Figure FDA0002815307650000047
根据(x,y)的二阶矩M20、M02、M11调整粒子i新搜索窗口,公式为:
Figure FDA0002815307650000048
Figure FDA0002815307650000049
Figure FDA00028153076500000410
其中l和w分别为粒子i新的搜索窗口的高和宽,θ为方向角;
步骤3.3.6、判断此时点(x0,y0)与质心(xc,yc)的距离,若小于ε,或者n>nε,则停止迭代,并将当前搜索框的大小与质心位置作为下一帧图像的粒子i位置输入,然后进入步骤3.3.7;反之,则返回步骤3.3.3;其中ε和nε分别为事先设定好的距离阈值和最大迭代次数;
步骤3.3.7、判断是否每个粒子是否都进行漂移,若是,则输出漂移后的k时刻粒子集
Figure FDA00028153076500000411
其中
Figure FDA00028153076500000412
表示k时刻下编号为i的粒子;反之,则返回步骤3.3.2。
6.根据权利要求1所述的动态背景目标跟踪方法,其特征在于,步骤4所述根据目标的H-S联合颜色直方图和梯度方向直方图建立观测模型,通过观测模型判断漂移后的k时刻粒子集中每个粒子状态与实际状态的相似度,然后计算粒子权值并归一化,具体如下:
步骤4.1、基于目标的H-S联合颜色直方图和梯度方向直方图建立观测模型,具体如下:
计算每个粒子的颜色直方图
Figure FDA0002815307650000051
与初始目标框区域的颜色直方图q(u)之间的Bhattacharyya距离d:
Figure FDA0002815307650000052
其中,u=1,…,m,m为目标区域的颜色直方图的维数,ρ为Bhattacharyya系数:
Figure FDA0002815307650000053
由Bhattacharyya距离d来衡量直方图
Figure FDA0002815307650000054
和q(u)之间的相似程度,d越小表示两种颜色直方图越相似,则赋予该粒子比较大的权值,d越大则相反;
由此得粒子滤波的观测函数
Figure FDA0002815307650000055
为:
Figure FDA0002815307650000056
其中zk为通过观测来判断每个粒子状态,
Figure FDA0002815307650000057
粒子i实际状态,σ为距离d对应的方差;
根据H-S联合颜色直方图
Figure FDA0002815307650000058
和目标区域的梯度方向直方图
Figure FDA0002815307650000059
分别求得其对应的观测函数
Figure FDA00028153076500000510
Figure FDA00028153076500000511
通过自适应融合目标的H-S联合颜色直方图的观测函数
Figure FDA00028153076500000512
和目标区域的梯度方向直方图的
Figure FDA00028153076500000513
得到最终改进后的观测函数:
Figure FDA00028153076500000514
其中β为加权系数;
步骤4.2、根据观测函数更新漂移后的k时刻粒子集中粒子的权值为:
Figure FDA00028153076500000515
步骤4.3、归一化漂移后的k时刻粒子集中粒子的权值为:
Figure FDA0002815307650000061
其中,
Figure FDA0002815307650000062
归一化漂移后粒子k时刻粒子i的权值,
Figure FDA0002815307650000063
为步骤4.1所述最终改进后的观测函数。
7.根据权利要求1所述的动态背景目标跟踪方法,其特征在于,步骤6中所述的对重采样后的粒子加权求和,得到当前时刻目标的估计状态,公式为:
Figure FDA0002815307650000064
其中,
Figure FDA0002815307650000065
归一化漂移后粒子k时刻粒子i的权值,其中
Figure FDA0002815307650000066
表示k时刻下编号为i的粒子,E[xk]为k时刻跟踪目标的估计位置。
CN202011396132.2A 2020-12-03 2020-12-03 一种动态背景目标跟踪方法 Active CN112561945B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011396132.2A CN112561945B (zh) 2020-12-03 2020-12-03 一种动态背景目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011396132.2A CN112561945B (zh) 2020-12-03 2020-12-03 一种动态背景目标跟踪方法

Publications (2)

Publication Number Publication Date
CN112561945A true CN112561945A (zh) 2021-03-26
CN112561945B CN112561945B (zh) 2022-09-13

Family

ID=75047532

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011396132.2A Active CN112561945B (zh) 2020-12-03 2020-12-03 一种动态背景目标跟踪方法

Country Status (1)

Country Link
CN (1) CN112561945B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106204651A (zh) * 2016-07-11 2016-12-07 上海凌科智能科技有限公司 一种基于改进的判决与生成联合模型的目标跟踪方法
CN107657628A (zh) * 2017-09-20 2018-02-02 中国科学院长春光学精密机械与物理研究所 一种实时彩色目标跟踪方法
CN107705321A (zh) * 2016-08-05 2018-02-16 南京理工大学 基于嵌入式系统的运动目标检测与跟踪方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106204651A (zh) * 2016-07-11 2016-12-07 上海凌科智能科技有限公司 一种基于改进的判决与生成联合模型的目标跟踪方法
CN107705321A (zh) * 2016-08-05 2018-02-16 南京理工大学 基于嵌入式系统的运动目标检测与跟踪方法
CN107657628A (zh) * 2017-09-20 2018-02-02 中国科学院长春光学精密机械与物理研究所 一种实时彩色目标跟踪方法

Also Published As

Publication number Publication date
CN112561945B (zh) 2022-09-13

Similar Documents

Publication Publication Date Title
CN110244322B (zh) 基于多源传感器的路面施工机器人环境感知系统及方法
CN111681197B (zh) 一种基于Siamese网络结构的遥感图像无监督变化检测方法
CN109919960B (zh) 一种基于多尺度Gabor滤波器的图像连续边缘检测方法
CN103262121A (zh) 移动物体的检测和跟踪
Li et al. Road lane detection with gabor filters
CN101916446A (zh) 基于边缘信息和均值移位的灰度目标跟踪算法
CN105321189A (zh) 基于连续自适应均值漂移多特征融合的复杂环境目标跟踪方法
CN110660065B (zh) 一种红外故障检测识别算法
CN111079518B (zh) 一种基于执法办案区场景下的倒地异常行为识别方法
CN111353371A (zh) 基于星载sar影像的海岸线提取方法
Chen et al. A color-guided, region-adaptive and depth-selective unified framework for Kinect depth recovery
CN112329764A (zh) 一种基于tv-l1模型的红外弱小目标检测方法
CN106778822B (zh) 基于漏斗变换的图像直线检测方法
CN112561945B (zh) 一种动态背景目标跟踪方法
Yi-Bo et al. A survey on feature extraction of SAR images
CN112348853B (zh) 基于红外显著性特征融合的粒子滤波跟踪的方法
Li et al. Depth segmentation using disparity and self-adaption fringe modulation analysis
Chi et al. Concrete Application of Computer Virtual Image Technology in Modern Sports Training
Jia et al. Research on Intelligent Monitoring Technology of Traffic Flow Based on Computer Vision
Sun et al. Image segmentation algorithm based on top-hat transformation
CN116958189B (zh) 基于线段关联的运动点目标时空域轨迹跟踪方法
Li et al. A high-resolution satellite DEM filtering method assisted with building segmentation
Abd Manap et al. Performance analysis on stereo matching algorithms based on local and global methods for 3d images application
Pan et al. Fast vanishing point estimation based on particle swarm optimization
Sadiq et al. A Particle Swarm Optimization Based Edge Detection Algorithm for Noisy Coloured Images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant