CN106920249A - 空间机动目标的快速追踪方法 - Google Patents
空间机动目标的快速追踪方法 Download PDFInfo
- Publication number
- CN106920249A CN106920249A CN201710106455.5A CN201710106455A CN106920249A CN 106920249 A CN106920249 A CN 106920249A CN 201710106455 A CN201710106455 A CN 201710106455A CN 106920249 A CN106920249 A CN 106920249A
- Authority
- CN
- China
- Prior art keywords
- target
- template
- blocked
- pixel
- kalman
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种空间机动目标的快速追踪方法,用于解决现有空间机动目标追踪方法实用性差的技术问题。技术方案是采用色彩融合方法,并加入像素空间信息,根据色彩信息与像素点的空间位置确定不同像素点的权重,减少算法的计算复杂度,保证追踪准确性的同时提高追踪算法的实时性。在融合Meanshift追踪结果与Kalman预测结果阶段,定义一个参数描述目标被遮挡情况,设定门限值判断目标被遮挡的程度,当目标被完全遮挡或大范围遮挡时用Kalman预测结果作为目标位置,当目标未被遮挡或小范围遮挡时用改进的Meanshift算法追踪结果作为目标位置,动态性更好。
Description
技术领域
本发明涉及一种空间机动目标追踪方法,特别是涉及一种空间机动目标的快速追踪方法。
背景技术
文献“提高Meanshift跟踪算法性能的方法,复旦学报(自然科学版),2007,Vol46(1),p85-90”针对Meanshift跟踪算法当干扰物体靠近目标时,易发生跟踪错误等问题,采用色彩融合模版和位置预测来提高Meanshift跟踪算法的性能,对图像的RGB三色进行了简单的线性融合,根据前景和背景直方图的相似度函数去选取目标特征最突出的融合图像,并据此建立3个目标模版。对目标的位置先进行Kalman预测,再用Meanshift算法对3个模板分别进行跟踪,最后融合跟踪结果。该方法在复杂背景下能较好的跟踪目标,具有一定的抗干扰能力。文献所述追踪算法中,Meanshift追踪结果与Kalman预测结果的融合方法为:取最接近预测值的目标位置作为实际的目标位置,对于初始几帧图像,取3个跟踪结果的中值作为融合结果。该融合方法无论目标被遮挡与否,都取最接近预测值的目标位置为实际位置,在目标运动过程中缺乏动态性,适应性不强。另外该文献在利用Meanshift追踪时,建立三个目标模板来提高追踪准确性,增加了算法复杂度,不满足目标追踪的实时性要求。
发明内容
为了克服现有空间机动目标追踪方法实用性差的不足,本发明提供一种空间机动目标的快速追踪方法。该方法采用色彩融合方法,并加入像素空间信息,根据色彩信息与像素点的空间位置确定不同像素点的权重,减少算法的计算复杂度,保证追踪准确性的同时提高追踪算法的实时性。在融合Meanshift追踪结果与Kalman预测结果阶段,定义一个参数描述目标被遮挡情况,设定门限值判断目标被遮挡的程度,当目标被完全遮挡或大范围遮挡时用Kalman预测结果作为目标位置,当目标未被遮挡或小范围遮挡时用改进的Meanshift算法追踪结果作为目标位置,动态性更好。
本发明解决其技术问题所采用的技术方案是:一种空间机动目标的快速追踪方法,其特点是包括以下步骤:
步骤一、对图像像素点的RGB分量进行线性融合,简化色彩直方图:
式中,R、G、B代表像素点的RGB值,将R、G、B分别右移五位得到r、g、b,从而将R、G、B从八比特降为三比特;得到像素点的颜色信息u,每个像素点颜色特征值位数从24比特降为9比特。
统计色彩直方图如下:
式中,N为目标模板内像素点总个数,δ[b(xi)-u]为直方图索引函数。
根据各像素点距离目标模板中心点的空间距离,加入空间信息核函数:
式中,xmid为目标模板的x轴中心坐标,ymid为目标模板的y轴中心坐标。xi,yi分别为目标模板内任一像素点x的横、纵坐标。(2*xmid)2+(2*ymid)2是核函数半径h的平方。
则相应的Meanshift向量变为:
式中,N为目标模板内像素点总个数,xi为目标区域内的像素点。wi是赋予采样点xi的权重,x为目标中心点位置。
步骤二、对空间机动目标建立运动方程,利用Kalman Filter进行目标运动预测:
xk′=Axk-1+Buk (5)
Pk′=APk-1AT+Q (6)
其中,xk′为目标预测状态,xk-1为目标前一步状态,A为状态转移矩阵,B为控制矩阵,uk为系统输入,Pk′为先验误差相关矩阵,Pk-1为后验误差相关矩阵,Q为系统噪声。
Kalman矫正如下:
Kk=Pk′HT(HPK′HT+R)-1 (7)
xk=x′k+Kk(zk-Hxk′) (8)
Pk=(I-KkH)Pk′ (9)
其中,Kk为Kalman增益矩阵,R为测量误差相关矩阵,H为测量矩阵,xk为目标矫正之后的状态,zk为系统状态测量向量,I为单位阵。
步骤三、Meanshift追踪与Kalman Filter预测融合。
引入Bhattacharyya相似函数,简称BH系数,来衡量目标模板和候选目标区域对应的直方图之间的相似性,设定门限值T,根据相似性系数判断目标是否被遮挡。当目标被完全遮挡或大范围遮挡时用Kalman预测结果作为目标位置,当目标未被遮挡或小范围遮挡时用追踪结果作为目标位置。BH系数的计算公式为:
式中,pu,qu分别为候选模板与目标模板的概率密度直方图,m为色彩直方图u的个数,y为候选模板中心。
本发明的有益效果是:该方法采用色彩融合方法,并加入像素空间信息,根据色彩信息与像素点的空间位置确定不同像素点的权重,减少算法的计算复杂度,保证追踪准确性的同时提高追踪算法的实时性。在融合Meanshift追踪结果与Kalman预测结果阶段,定义一个参数描述目标被遮挡情况,设定门限值判断目标被遮挡的程度,当目标被完全遮挡或大范围遮挡时用Kalman预测结果作为目标位置,当目标未被遮挡或小范围遮挡时用改进的Meanshift算法追踪结果作为目标位置。由于对像素点的RGB分量进行右移处理,对RGB分量进行融合,既简化了数据复杂度,提高目标追踪效率,又保留了RGB三种色彩特征值,在目标模板直方图里加入了空间信息,越接近模板中心的像素点赋予更高的权重,使目标追踪的准确性得到提高。将Meanshift追踪与Kalman预测融合,使算法在复杂环境下适应性更强,如在目标被完全遮挡或大范围遮挡时仍可准确追踪到目标,两种算法融合时定义参数描述目标被遮挡情况,设立了门槛值,不同遮挡情况有对应追踪方法,在目标运动过程中,算法融合更具有动态性。
下面结合具体实施方式对本发明作详细说明。
具体实施方式
本发明空间机动目标的快速追踪方法具体步骤如下:
1、改进的Meanshift算法。
为了降低追踪过程数据复杂度,首先对RGB做如下处理:
式中,R、G、B代表像素点的RGB值,将R、G、B分别右移五位得到r、g、b,从而将R、G、B从八比特降为三比特,r*64是将r分量的值左移6位,g*8将g分量的值左移3位,得到像素点的颜色信息u,每个像素点颜色特征值位数从24比特降为9比特。
统计色彩直方图如下:
式中,N为目标模板内像素点总个数,δ[b(xi)-u]为直方图索引函数。
其次加入像素点的空间位置信息,以目标模板的中心点为基准点,依据各像素点与基准点的距离,引进核函数为不同像素点赋予不同权重,采用以下核函数计算各点的权重:
式中,xmid为目标模板的x轴中心坐标,ymid为目标模板的y轴中心坐标。xi,yi分别点x的横、纵坐标,(2*xmid)2+(2*ymid)2是核函数半径的平方。当点x在目标模板中心时,K(x)的值为1,当点x在模板边界时,K(x)的值为3/4,距基准点越远的像素对应的权值越小。
相应的Mean Shift向量变为:
其中,N为目标模板内像素点总个数,xi为目标区域内的像素点,x为目标中心点位置。w(xi)是赋予采样点xi的权重,其计算公式是:
式中,qu为目标模板概率密度估计,pu(y)为中心点为y的候选模板概率密度估计,δ[b(xi)-u]为直方图索引函数,m为色彩直方图u的个数。
则新的目标中心位置为:
式中,xi+1为新的目标中心位置,xi为该次迭代前的目标中心位置,xj是候选模板的任一像素点。每迭代一次,迭代结果更接近真实目标,迭代次数越多追踪结果越准确。
如果||xi+1-xi||≤ε,ε≤10像素,停止迭代,此时xi+1为该次目标追踪最终结果。
2、Kalman Filter目标预测。
Kalman预测:
xk′=Axk-1+Buk (7)
Pk′=APk-1AT+Q (8)
其中,xk′为预测状态,xk-1为前一步状态,A为状态转移矩阵,B为控制矩阵,uk为系统输入,Pk′为先验误差相关矩阵,Pk-1为后验误差相关矩阵,Q为系统噪声。
Kalman矫正如下:
Kk=Pk′HT(HPK′HT+R)-1 (9)
xk=x′k+Kk(zk-Hxk′) (10)
Pk=(I-KkH)Pk′ (11)
其中,Kk为Kalman增益矩阵,R为测量误差相关矩阵,H为测量矩阵,xk为矫正之后的状态,zk为系统状态测量向量,I为单位阵。
实时视频流中相邻两帧时间间隔很短,为20ms,假设相邻两帧间目标满足匀速运动,建立目标匀速运动模型。系统的状态向量为:
xk=[x(k)vx(k)y(k)vy(k)]T (12)
其中,x(k)、y(k)代表k时刻目标水平方向的位置,vx(k)、vy(k)代表k时刻目标水平方向的速度分量。观测量为位置信息,表示如下:
zk=[x(k)y(k)]T (13)
运动方程为:
系统状态转移矩阵为:
系统的输出矩阵为:
初始时刻,按照取值规则,将后验误差相关矩阵取值较大:
系统噪声相关矩阵为:
测量噪声相关矩阵为:
3、Meanshift追踪与Kalman Filter预测融合。
目标模板概率密度估计为:
中心点为y的候选模板概率密度估计为:
归一化系数为:
式中,x为目标中心点位置,xi为模板中的样本点,h为核函数半径。N为模板内像素点总个数,δ[b(xi)-u]为色彩直方图索引函数。
利用BH系数衡量目标模板和候选目标区域对应的直方图之间的相似性,BH系数的计算公式为:
设定门限值T为0.4,根据相似性系数判断目标是否被遮挡。当BH系数小于门槛值,认为目标被完全遮挡或大范围遮挡,用Kalman Filter预测结果作为目标位置,当BH系数大于门槛值则认为目标未被遮挡或小范围遮挡,用改进的Meanshift算法追踪结果作为目标位置。
Claims (1)
1.一种空间机动目标的快速追踪方法,其特征在于包括以下步骤:
步骤一、对图像像素点的RGB分量进行线性融合,简化色彩直方图:
式中,R、G、B代表像素点的RGB值,将R、G、B分别右移五位得到r、g、b,从而将R、G、B从八比特降为三比特;得到像素点的颜色信息u,每个像素点颜色特征值位数从24比特降为9比特;
统计色彩直方图如下:
式中,N为目标模板内像素点总个数,δ[b(xi)-u]为直方图索引函数;
根据各像素点距离目标模板中心点的空间距离,加入空间信息核函数:
式中,xmid为目标模板的x轴中心坐标,ymid为目标模板的y轴中心坐标;xi,yi分别为目标模板内任一像素点x的横、纵坐标;(2*xmid)2+(2*ymid)2是核函数半径h的平方;
则相应的Meanshift向量变为:
式中,N为目标模板内像素点总个数,xi为目标区域内的像素点;wi是赋予采样点xi的权重,x为目标中心点位置;
步骤二、对空间机动目标建立运动方程,利用Kalman Filter进行目标运动预测:
x′k=Axk-1+Buk (5)
P′k=APk-1AT+Q (6)
其中,x′k为目标预测状态,xk-1为目标前一步状态,A为状态转移矩阵,B为控制矩阵,uk为系统输入,P′k为先验误差相关矩阵,Pk-1为后验误差相关矩阵,Q为系统噪声;
Kalman矫正如下:
Kk=P′kHT(HP′KHT+R)-1 (7)
xk=x′k+Kk(zk-Hx′k) (8)
Pk=(I-KkH)P′k (9)
其中,Kk为Kalman增益矩阵,R为测量误差相关矩阵,H为测量矩阵,xk为目标矫正之后的状态,zk为系统状态测量向量,I为单位阵;
步骤三、Meanshift追踪与Kalman Filter预测融合;
引入Bhattacharyya相似函数,简称BH系数,来衡量目标模板和候选目标区域对应的直方图之间的相似性,设定门限值T,根据相似性系数判断目标是否被遮挡;当目标被完全遮挡或大范围遮挡时用Kalman预测结果作为目标位置,当目标未被遮挡或小范围遮挡时用追踪结果作为目标位置;BH系数的计算公式为:
式中,pu,qu分别为候选模板与目标模板的概率密度直方图,m为色彩直方图u的个数,y为候选模板中心。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710106455.5A CN106920249A (zh) | 2017-02-27 | 2017-02-27 | 空间机动目标的快速追踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710106455.5A CN106920249A (zh) | 2017-02-27 | 2017-02-27 | 空间机动目标的快速追踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106920249A true CN106920249A (zh) | 2017-07-04 |
Family
ID=59453786
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710106455.5A Pending CN106920249A (zh) | 2017-02-27 | 2017-02-27 | 空间机动目标的快速追踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106920249A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107909603A (zh) * | 2017-12-01 | 2018-04-13 | 浙江工业大学 | 一种面向跟随机器人的视觉跟踪方法 |
CN111193496A (zh) * | 2019-11-20 | 2020-05-22 | 北京空间机电研究所 | 一种应用于精密导星测量系统的亚像素目标跟踪方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101324956A (zh) * | 2008-07-10 | 2008-12-17 | 上海交通大学 | 基于均值漂移的抗遮挡运动目标跟踪方法 |
CN104200485A (zh) * | 2014-07-10 | 2014-12-10 | 浙江工业大学 | 一种面向视频监控的人体跟踪方法 |
CN105335986A (zh) * | 2015-09-10 | 2016-02-17 | 西安电子科技大学 | 基于特征匹配和MeanShift算法的目标跟踪方法 |
CN105405151A (zh) * | 2015-10-26 | 2016-03-16 | 西安电子科技大学 | 基于粒子滤波和加权Surf的抗遮挡目标跟踪方法 |
CN106023242A (zh) * | 2015-04-09 | 2016-10-12 | 广东易富网络科技有限公司 | 一种基于量子均值漂移的抗遮挡多运动车辆追踪方法 |
-
2017
- 2017-02-27 CN CN201710106455.5A patent/CN106920249A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101324956A (zh) * | 2008-07-10 | 2008-12-17 | 上海交通大学 | 基于均值漂移的抗遮挡运动目标跟踪方法 |
CN104200485A (zh) * | 2014-07-10 | 2014-12-10 | 浙江工业大学 | 一种面向视频监控的人体跟踪方法 |
CN106023242A (zh) * | 2015-04-09 | 2016-10-12 | 广东易富网络科技有限公司 | 一种基于量子均值漂移的抗遮挡多运动车辆追踪方法 |
CN105335986A (zh) * | 2015-09-10 | 2016-02-17 | 西安电子科技大学 | 基于特征匹配和MeanShift算法的目标跟踪方法 |
CN105405151A (zh) * | 2015-10-26 | 2016-03-16 | 西安电子科技大学 | 基于粒子滤波和加权Surf的抗遮挡目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
朱志宇著: "《流形粒子滤波算法及其在视频目标跟踪中的应用》", 31 May 2015, 国防工业出版社 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107909603A (zh) * | 2017-12-01 | 2018-04-13 | 浙江工业大学 | 一种面向跟随机器人的视觉跟踪方法 |
CN111193496A (zh) * | 2019-11-20 | 2020-05-22 | 北京空间机电研究所 | 一种应用于精密导星测量系统的亚像素目标跟踪方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108319972B (zh) | 一种针对图像语义分割的端到端差异网络学习方法 | |
CN109784333B (zh) | 基于点云带权通道特征的三维目标检测方法及系统 | |
CN104200494B (zh) | 一种基于光流的实时视觉目标跟踪方法 | |
CN111428765B (zh) | 一种基于全局卷积、局部深度卷积融合的目标检测方法 | |
CN112233147B (zh) | 一种基于双路孪生网络的视频运动目标跟踪方法及装置 | |
CN106981073A (zh) | 一种基于无人机的地面运动目标实时跟踪方法及系统 | |
CN109102522A (zh) | 一种目标跟踪方法及装置 | |
CN111489394B (zh) | 物体姿态估计模型训练方法、系统、装置及介质 | |
CN111161309B (zh) | 一种车载视频动态目标的搜索与定位方法 | |
JP7263216B2 (ja) | ワッサースタイン距離を使用する物体形状回帰 | |
CN110580713A (zh) | 基于全卷积孪生网络和轨迹预测的卫星视频目标跟踪方法 | |
CN104299245B (zh) | 基于神经网络的增强现实跟踪方法 | |
CN110070565B (zh) | 一种基于图像叠加的船舶轨迹预测方法 | |
CN109448023B (zh) | 一种卫星视频小目标实时跟踪方法 | |
CN110006444B (zh) | 一种基于优化混合高斯模型的抗干扰视觉里程计构建方法 | |
CN109063549A (zh) | 基于深度神经网络的高分辨率航拍视频运动目标检测方法 | |
CN107301657A (zh) | 一种考虑目标运动信息的视频目标跟踪方法 | |
CN108876820A (zh) | 一种基于均值漂移的遮挡条件下移动目标追踪方法 | |
CN109543694A (zh) | 一种基于点特征稀疏策略的视觉同步定位与地图构建方法 | |
CN106920249A (zh) | 空间机动目标的快速追踪方法 | |
CN107895145A (zh) | 基于卷积神经网络结合超高斯去噪估测手指受力的方法 | |
CN105096343B (zh) | 一种移动目标跟踪方法及装置 | |
Liu et al. | Online multi-object tracking under moving unmanned aerial vehicle platform based on object detection and feature extraction network | |
CN112417948A (zh) | 一种基于单目视觉的水下航行器精确导引入环的方法 | |
CN113379787B (zh) | 基于3d卷积孪生神经网络和模板更新的目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20170704 |
|
WD01 | Invention patent application deemed withdrawn after publication |