CN106920249A - 空间机动目标的快速追踪方法 - Google Patents

空间机动目标的快速追踪方法 Download PDF

Info

Publication number
CN106920249A
CN106920249A CN201710106455.5A CN201710106455A CN106920249A CN 106920249 A CN106920249 A CN 106920249A CN 201710106455 A CN201710106455 A CN 201710106455A CN 106920249 A CN106920249 A CN 106920249A
Authority
CN
China
Prior art keywords
target
template
blocked
pixel
bits
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710106455.5A
Other languages
English (en)
Inventor
屈耀红
吴佳驹
王卓雅
余自权
闫建国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201710106455.5A priority Critical patent/CN106920249A/zh
Publication of CN106920249A publication Critical patent/CN106920249A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种空间机动目标的快速追踪方法,用于解决现有空间机动目标追踪方法实用性差的技术问题。技术方案是采用色彩融合方法,并加入像素空间信息,根据色彩信息与像素点的空间位置确定不同像素点的权重,减少算法的计算复杂度,保证追踪准确性的同时提高追踪算法的实时性。在融合Meanshift追踪结果与Kalman预测结果阶段,定义一个参数描述目标被遮挡情况,设定门限值判断目标被遮挡的程度,当目标被完全遮挡或大范围遮挡时用Kalman预测结果作为目标位置,当目标未被遮挡或小范围遮挡时用改进的Meanshift算法追踪结果作为目标位置,动态性更好。

Description

空间机动目标的快速追踪方法
技术领域
本发明涉及一种空间机动目标追踪方法,特别是涉及一种空间机动目标的快速追踪方法。
背景技术
文献“提高Meanshift跟踪算法性能的方法,复旦学报(自然科学版),2007,Vol46(1),p85-90”针对Meanshift跟踪算法当干扰物体靠近目标时,易发生跟踪错误等问题,采用色彩融合模版和位置预测来提高Meanshift跟踪算法的性能,对图像的RGB三色进行了简单的线性融合,根据前景和背景直方图的相似度函数去选取目标特征最突出的融合图像,并据此建立3个目标模版。对目标的位置先进行Kalman预测,再用Meanshift算法对3个模板分别进行跟踪,最后融合跟踪结果。该方法在复杂背景下能较好的跟踪目标,具有一定的抗干扰能力。文献所述追踪算法中,Meanshift追踪结果与Kalman预测结果的融合方法为:取最接近预测值的目标位置作为实际的目标位置,对于初始几帧图像,取3个跟踪结果的中值作为融合结果。该融合方法无论目标被遮挡与否,都取最接近预测值的目标位置为实际位置,在目标运动过程中缺乏动态性,适应性不强。另外该文献在利用Meanshift追踪时,建立三个目标模板来提高追踪准确性,增加了算法复杂度,不满足目标追踪的实时性要求。
发明内容
为了克服现有空间机动目标追踪方法实用性差的不足,本发明提供一种空间机动目标的快速追踪方法。该方法采用色彩融合方法,并加入像素空间信息,根据色彩信息与像素点的空间位置确定不同像素点的权重,减少算法的计算复杂度,保证追踪准确性的同时提高追踪算法的实时性。在融合Meanshift追踪结果与Kalman预测结果阶段,定义一个参数描述目标被遮挡情况,设定门限值判断目标被遮挡的程度,当目标被完全遮挡或大范围遮挡时用Kalman预测结果作为目标位置,当目标未被遮挡或小范围遮挡时用改进的Meanshift算法追踪结果作为目标位置,动态性更好。
本发明解决其技术问题所采用的技术方案是:一种空间机动目标的快速追踪方法,其特点是包括以下步骤:
步骤一、对图像像素点的RGB分量进行线性融合,简化色彩直方图:
式中,R、G、B代表像素点的RGB值,将R、G、B分别右移五位得到r、g、b,从而将R、G、B从八比特降为三比特;得到像素点的颜色信息u,每个像素点颜色特征值位数从24比特降为9比特。
统计色彩直方图如下:
式中,N为目标模板内像素点总个数,δ[b(xi)-u]为直方图索引函数。
根据各像素点距离目标模板中心点的空间距离,加入空间信息核函数:
式中,xmid为目标模板的x轴中心坐标,ymid为目标模板的y轴中心坐标。xi,yi分别为目标模板内任一像素点x的横、纵坐标。(2*xmid)2+(2*ymid)2是核函数半径h的平方。
则相应的Meanshift向量变为:
式中,N为目标模板内像素点总个数,xi为目标区域内的像素点。wi是赋予采样点xi的权重,x为目标中心点位置。
步骤二、对空间机动目标建立运动方程,利用Kalman Filter进行目标运动预测:
xk′=Axk-1+Buk (5)
Pk′=APk-1AT+Q (6)
其中,xk′为目标预测状态,xk-1为目标前一步状态,A为状态转移矩阵,B为控制矩阵,uk为系统输入,Pk′为先验误差相关矩阵,Pk-1为后验误差相关矩阵,Q为系统噪声。
Kalman矫正如下:
Kk=Pk′HT(HPK′HT+R)-1 (7)
xk=x′k+Kk(zk-Hxk′) (8)
Pk=(I-KkH)Pk′ (9)
其中,Kk为Kalman增益矩阵,R为测量误差相关矩阵,H为测量矩阵,xk为目标矫正之后的状态,zk为系统状态测量向量,I为单位阵。
步骤三、Meanshift追踪与Kalman Filter预测融合。
引入Bhattacharyya相似函数,简称BH系数,来衡量目标模板和候选目标区域对应的直方图之间的相似性,设定门限值T,根据相似性系数判断目标是否被遮挡。当目标被完全遮挡或大范围遮挡时用Kalman预测结果作为目标位置,当目标未被遮挡或小范围遮挡时用追踪结果作为目标位置。BH系数的计算公式为:
式中,pu,qu分别为候选模板与目标模板的概率密度直方图,m为色彩直方图u的个数,y为候选模板中心。
本发明的有益效果是:该方法采用色彩融合方法,并加入像素空间信息,根据色彩信息与像素点的空间位置确定不同像素点的权重,减少算法的计算复杂度,保证追踪准确性的同时提高追踪算法的实时性。在融合Meanshift追踪结果与Kalman预测结果阶段,定义一个参数描述目标被遮挡情况,设定门限值判断目标被遮挡的程度,当目标被完全遮挡或大范围遮挡时用Kalman预测结果作为目标位置,当目标未被遮挡或小范围遮挡时用改进的Meanshift算法追踪结果作为目标位置。由于对像素点的RGB分量进行右移处理,对RGB分量进行融合,既简化了数据复杂度,提高目标追踪效率,又保留了RGB三种色彩特征值,在目标模板直方图里加入了空间信息,越接近模板中心的像素点赋予更高的权重,使目标追踪的准确性得到提高。将Meanshift追踪与Kalman预测融合,使算法在复杂环境下适应性更强,如在目标被完全遮挡或大范围遮挡时仍可准确追踪到目标,两种算法融合时定义参数描述目标被遮挡情况,设立了门槛值,不同遮挡情况有对应追踪方法,在目标运动过程中,算法融合更具有动态性。
下面结合具体实施方式对本发明作详细说明。
具体实施方式
本发明空间机动目标的快速追踪方法具体步骤如下:
1、改进的Meanshift算法。
为了降低追踪过程数据复杂度,首先对RGB做如下处理:
式中,R、G、B代表像素点的RGB值,将R、G、B分别右移五位得到r、g、b,从而将R、G、B从八比特降为三比特,r*64是将r分量的值左移6位,g*8将g分量的值左移3位,得到像素点的颜色信息u,每个像素点颜色特征值位数从24比特降为9比特。
统计色彩直方图如下:
式中,N为目标模板内像素点总个数,δ[b(xi)-u]为直方图索引函数。
其次加入像素点的空间位置信息,以目标模板的中心点为基准点,依据各像素点与基准点的距离,引进核函数为不同像素点赋予不同权重,采用以下核函数计算各点的权重:
式中,xmid为目标模板的x轴中心坐标,ymid为目标模板的y轴中心坐标。xi,yi分别点x的横、纵坐标,(2*xmid)2+(2*ymid)2是核函数半径的平方。当点x在目标模板中心时,K(x)的值为1,当点x在模板边界时,K(x)的值为3/4,距基准点越远的像素对应的权值越小。
相应的Mean Shift向量变为:
其中,N为目标模板内像素点总个数,xi为目标区域内的像素点,x为目标中心点位置。w(xi)是赋予采样点xi的权重,其计算公式是:
式中,qu为目标模板概率密度估计,pu(y)为中心点为y的候选模板概率密度估计,δ[b(xi)-u]为直方图索引函数,m为色彩直方图u的个数。
则新的目标中心位置为:
式中,xi+1为新的目标中心位置,xi为该次迭代前的目标中心位置,xj是候选模板的任一像素点。每迭代一次,迭代结果更接近真实目标,迭代次数越多追踪结果越准确。
如果||xi+1-xi||≤ε,ε≤10像素,停止迭代,此时xi+1为该次目标追踪最终结果。
2、Kalman Filter目标预测。
Kalman预测:
xk′=Axk-1+Buk (7)
Pk′=APk-1AT+Q (8)
其中,xk′为预测状态,xk-1为前一步状态,A为状态转移矩阵,B为控制矩阵,uk为系统输入,Pk′为先验误差相关矩阵,Pk-1为后验误差相关矩阵,Q为系统噪声。
Kalman矫正如下:
Kk=Pk′HT(HPK′HT+R)-1 (9)
xk=x′k+Kk(zk-Hxk′) (10)
Pk=(I-KkH)Pk′ (11)
其中,Kk为Kalman增益矩阵,R为测量误差相关矩阵,H为测量矩阵,xk为矫正之后的状态,zk为系统状态测量向量,I为单位阵。
实时视频流中相邻两帧时间间隔很短,为20ms,假设相邻两帧间目标满足匀速运动,建立目标匀速运动模型。系统的状态向量为:
xk=[x(k)vx(k)y(k)vy(k)]T (12)
其中,x(k)、y(k)代表k时刻目标水平方向的位置,vx(k)、vy(k)代表k时刻目标水平方向的速度分量。观测量为位置信息,表示如下:
zk=[x(k)y(k)]T (13)
运动方程为:
系统状态转移矩阵为:
系统的输出矩阵为:
初始时刻,按照取值规则,将后验误差相关矩阵取值较大:
系统噪声相关矩阵为:
测量噪声相关矩阵为:
3、Meanshift追踪与Kalman Filter预测融合。
目标模板概率密度估计为:
中心点为y的候选模板概率密度估计为:
归一化系数为:
式中,x为目标中心点位置,xi为模板中的样本点,h为核函数半径。N为模板内像素点总个数,δ[b(xi)-u]为色彩直方图索引函数。
利用BH系数衡量目标模板和候选目标区域对应的直方图之间的相似性,BH系数的计算公式为:
设定门限值T为0.4,根据相似性系数判断目标是否被遮挡。当BH系数小于门槛值,认为目标被完全遮挡或大范围遮挡,用Kalman Filter预测结果作为目标位置,当BH系数大于门槛值则认为目标未被遮挡或小范围遮挡,用改进的Meanshift算法追踪结果作为目标位置。

Claims (1)

1.一种空间机动目标的快速追踪方法,其特征在于包括以下步骤:
步骤一、对图像像素点的RGB分量进行线性融合,简化色彩直方图:
r = R > > 5 g = G > > 5 b = B > > 5 u = r * 64 + g * 8 + b - - - ( 1 )
式中,R、G、B代表像素点的RGB值,将R、G、B分别右移五位得到r、g、b,从而将R、G、B从八比特降为三比特;得到像素点的颜色信息u,每个像素点颜色特征值位数从24比特降为9比特;
统计色彩直方图如下:
H i s t [ u ] = 1 N Σ i = 1 N δ [ b ( x i ) - u ] - - - ( 2 )
式中,N为目标模板内像素点总个数,δ[b(xi)-u]为直方图索引函数;
根据各像素点距离目标模板中心点的空间距离,加入空间信息核函数:
K ( x ) = 1 - ( x i - x m i d ) 2 + ( y i - y m i d ) 2 ( 2 * x m i d ) 2 + ( 2 * y m i d ) 2 - - - ( 3 )
式中,xmid为目标模板的x轴中心坐标,ymid为目标模板的y轴中心坐标;xi,yi分别为目标模板内任一像素点x的横、纵坐标;(2*xmid)2+(2*ymid)2是核函数半径h的平方;
则相应的Meanshift向量变为:
M h ( x ) = Σ i = 1 N ( x i - x ) w ( x i ) K | | x i - x h | | 2 Σ i = 1 N w ( x i ) K | | x i - x h | | 2 - - - ( 4 )
式中,N为目标模板内像素点总个数,xi为目标区域内的像素点;wi是赋予采样点xi的权重,x为目标中心点位置;
步骤二、对空间机动目标建立运动方程,利用Kalman Filter进行目标运动预测:
x′k=Axk-1+Buk (5)
P′k=APk-1AT+Q (6)
其中,x′k为目标预测状态,xk-1为目标前一步状态,A为状态转移矩阵,B为控制矩阵,uk为系统输入,P′k为先验误差相关矩阵,Pk-1为后验误差相关矩阵,Q为系统噪声;
Kalman矫正如下:
Kk=P′kHT(HP′KHT+R)-1 (7)
xk=x′k+Kk(zk-Hx′k) (8)
Pk=(I-KkH)P′k (9)
其中,Kk为Kalman增益矩阵,R为测量误差相关矩阵,H为测量矩阵,xk为目标矫正之后的状态,zk为系统状态测量向量,I为单位阵;
步骤三、Meanshift追踪与Kalman Filter预测融合;
引入Bhattacharyya相似函数,简称BH系数,来衡量目标模板和候选目标区域对应的直方图之间的相似性,设定门限值T,根据相似性系数判断目标是否被遮挡;当目标被完全遮挡或大范围遮挡时用Kalman预测结果作为目标位置,当目标未被遮挡或小范围遮挡时用追踪结果作为目标位置;BH系数的计算公式为:
B H [ p , q ] = Σ u = 1 m p u ( y ) q u - - - ( 10 )
式中,pu,qu分别为候选模板与目标模板的概率密度直方图,m为色彩直方图u的个数,y为候选模板中心。
CN201710106455.5A 2017-02-27 2017-02-27 空间机动目标的快速追踪方法 Pending CN106920249A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710106455.5A CN106920249A (zh) 2017-02-27 2017-02-27 空间机动目标的快速追踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710106455.5A CN106920249A (zh) 2017-02-27 2017-02-27 空间机动目标的快速追踪方法

Publications (1)

Publication Number Publication Date
CN106920249A true CN106920249A (zh) 2017-07-04

Family

ID=59453786

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710106455.5A Pending CN106920249A (zh) 2017-02-27 2017-02-27 空间机动目标的快速追踪方法

Country Status (1)

Country Link
CN (1) CN106920249A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107909603A (zh) * 2017-12-01 2018-04-13 浙江工业大学 一种面向跟随机器人的视觉跟踪方法
CN111193496A (zh) * 2019-11-20 2020-05-22 北京空间机电研究所 一种应用于精密导星测量系统的亚像素目标跟踪方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101324956A (zh) * 2008-07-10 2008-12-17 上海交通大学 基于均值漂移的抗遮挡运动目标跟踪方法
CN104200485A (zh) * 2014-07-10 2014-12-10 浙江工业大学 一种面向视频监控的人体跟踪方法
CN105335986A (zh) * 2015-09-10 2016-02-17 西安电子科技大学 基于特征匹配和MeanShift算法的目标跟踪方法
CN105405151A (zh) * 2015-10-26 2016-03-16 西安电子科技大学 基于粒子滤波和加权Surf的抗遮挡目标跟踪方法
CN106023242A (zh) * 2015-04-09 2016-10-12 广东易富网络科技有限公司 一种基于量子均值漂移的抗遮挡多运动车辆追踪方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101324956A (zh) * 2008-07-10 2008-12-17 上海交通大学 基于均值漂移的抗遮挡运动目标跟踪方法
CN104200485A (zh) * 2014-07-10 2014-12-10 浙江工业大学 一种面向视频监控的人体跟踪方法
CN106023242A (zh) * 2015-04-09 2016-10-12 广东易富网络科技有限公司 一种基于量子均值漂移的抗遮挡多运动车辆追踪方法
CN105335986A (zh) * 2015-09-10 2016-02-17 西安电子科技大学 基于特征匹配和MeanShift算法的目标跟踪方法
CN105405151A (zh) * 2015-10-26 2016-03-16 西安电子科技大学 基于粒子滤波和加权Surf的抗遮挡目标跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
朱志宇著: "《流形粒子滤波算法及其在视频目标跟踪中的应用》", 31 May 2015, 国防工业出版社 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107909603A (zh) * 2017-12-01 2018-04-13 浙江工业大学 一种面向跟随机器人的视觉跟踪方法
CN111193496A (zh) * 2019-11-20 2020-05-22 北京空间机电研究所 一种应用于精密导星测量系统的亚像素目标跟踪方法

Similar Documents

Publication Publication Date Title
CN102881022B (zh) 基于在线学习的遮挡目标跟踪方法
CN104200485B (zh) 一种面向视频监控的人体跟踪方法
CN104616318B (zh) 一种视频序列图像中的运动目标跟踪方法
CN106408594B (zh) 基于多伯努利特征协方差的视频多目标跟踪方法
CN105405151B (zh) 基于粒子滤波和加权Surf的抗遮挡目标跟踪方法
CN104200494B (zh) 一种基于光流的实时视觉目标跟踪方法
CN110070565B (zh) 一种基于图像叠加的船舶轨迹预测方法
CN104574439A (zh) 一种融合卡尔曼滤波与tld算法的目标跟踪方法
CN102737385A (zh) 一种基于camshift和卡尔曼滤波的视频目标跟踪方法
CN113516713B (zh) 一种基于伪孪生网络的无人机自适应目标跟踪方法
CN101883209B (zh) 一种背景模型与三帧差分相结合进行视频背景检测的方法
CN107301657B (zh) 一种考虑目标运动信息的视频目标跟踪方法
CN108492324B (zh) 基于全连接网络和卡尔曼滤波器的飞机追踪方法
CN110827262B (zh) 一种基于连续有限帧红外图像的弱小目标检测方法
CN101408983A (zh) 基于粒子滤波和活动轮廓模型的多目标跟踪方法
CN101394546A (zh) 视频目标轮廓跟踪方法及装置
CN110349188B (zh) 基于tsk模糊模型的多目标跟踪方法、装置及存储介质
CN105913455A (zh) 基于局部图像增强的目标跟踪方法
CN112613565B (zh) 基于多特征融合与自适应学习率更新的抗遮挡跟踪方法
CN105321188A (zh) 基于前景概率的目标跟踪方法
CN103824305A (zh) 一种改进的Meanshift目标跟踪方法
CN107844739B (zh) 基于自适应同时稀疏表示的鲁棒性目标追踪方法
CN116993774A (zh) 一种视频移动目标的追踪方法
CN102930558B (zh) 一种多特征融合的红外图像目标实时跟踪方法
CN112132862B (zh) 一种基于无人机的自适应尺度估计目标跟踪算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170704