CN107992677A - 基于惯导信息和亮度修正的红外弱小移动目标跟踪方法 - Google Patents
基于惯导信息和亮度修正的红外弱小移动目标跟踪方法 Download PDFInfo
- Publication number
- CN107992677A CN107992677A CN201711230797.4A CN201711230797A CN107992677A CN 107992677 A CN107992677 A CN 107992677A CN 201711230797 A CN201711230797 A CN 201711230797A CN 107992677 A CN107992677 A CN 107992677A
- Authority
- CN
- China
- Prior art keywords
- msub
- mrow
- msubsup
- mtd
- mtr
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Evolutionary Computation (AREA)
- Geometry (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
- Other Investigation Or Analysis Of Materials By Electrical Means (AREA)
Abstract
本发明基于惯导信息和亮度修正的红外弱小移动目标跟踪方法,包括以下步骤:步骤1:粗定位;在当前帧目标定位的基础上,根据红外探测器与飞行器固连的特点,利用飞行器惯性设备提供的惯导信息,对目标的下一帧图像的目标成像位置进行预测,实现对移动目标的粗定位;假设已知当前帧t时刻的目标成像位置为(ut,vt),当前飞行器对应的大地坐标位置为pt=[λt,Lt,ht],姿态用四元素表示下一帧t+1时刻的飞行器的大地坐标位置为pt+1=[λt+1,Lt+1,ht+1],姿态为预设目标移动的基准区域的大地坐标位置pm=[λm,Lm,hm];步骤2:精定位;利用图像中弱小移动目标的红外特性进行亮度修正定位,感兴趣的红外移动目标由于其自身的红外特性而在图像中呈现局部高亮区域,通过变步长自适应迭代进行局部区域亮度中心修正。
Description
技术领域
本发明属于飞行器视觉导航与红外成像制导仿真技术领域,具体涉及一种基于惯导信息和亮度修正的红外弱小移动目标跟踪方法。
背景技术
全捷联红外成像技术是飞行器精确导航与制导领域发展的重要方向之一,而尽快的识别和锁定目标对于飞行器视觉导航和红外成像制导有着重要的意义。当移动目标与飞行器距离较远时(通常两公里以上),目标只占几个或者十几个像素,没有轮廓和结构信息,并且在低信噪比的复杂背景下存在大量的噪声干扰,因此红外弱小移动目标的跟踪是计算机视觉和红外成像制导的研究难点。
经典的机器视觉目标跟踪算法,大都采用基于产生式和基于辨别式的跟踪模型。但是由于红外弱小目标的目标特性显著不同,使得经典的机器学习的目标跟踪方法在跟踪精度、可靠性和环境适应能力都无法取得令人满意的结果,会影响飞行器视觉导航定位的准确性和红外成像制导的精度。目前,大部分的飞行器都装有捷联惯性设备,惯导信息可以为成像制导提供一种有效的辅助信息,因此,有必要研究一种基于惯导信息和图像信息融合的方法实现对红外弱小目标的精确跟踪。
发明内容
为了克服经典的机器视觉跟踪算法在跟踪红外弱小目标时存在精度差、可靠性低以及环境适应能力差等缺点,本发明提供一种基于惯导信息和亮度修正的红外弱小移动目标跟踪方法,基于飞行器捷联的惯性设备,利用惯导信息和图像信息的融合来实现对红外弱小目标的定位,采取“先粗定位后精定位”的两步跟踪方法:首先利用两帧图像所对应的惯导信息对目标的位置进行预测,实现粗定位;然后在粗定位的基础上,根据弱小目标的亮度特性,通过迭代实现弱小目标的精准定位。本发明提出的红外弱小目标跟踪算法,可以大大提高跟踪的精度和鲁棒性。
本发明采用如下的技术方案来实现:
基于惯导信息和亮度修正的红外弱小移动目标跟踪方法,包括以下步骤:
步骤1:粗定位;
在当前帧目标定位的基础上,根据红外探测器与飞行器固连的特点,利用飞行器惯性设备提供的惯导信息,对目标的下一帧图像的目标成像位置进行预测,实现对移动目标的粗定位;假设已知当前帧t时刻的目标成像位置为(ut,vt),当前飞行器对应的大地坐标位置为pt=[λt,Lt,ht],姿态用四元素表示下一帧t+1时刻的飞行器的大地坐标位置为pt+1=[λt+1,Lt+1,ht+1],姿态为预设目标移动的基准区域的大地坐标位置pm=[λm,Lm,hm];
步骤2:精定位;
利用图像中弱小移动目标的红外特性进行亮度修正定位,感兴趣的红外移动目标由于其自身的红外特性而在图像中呈现局部高亮区域,通过变步长自适应迭代进行局部区域亮度中心修正。
本发明进一步的改进在于,步骤1的具体实现步骤如下:
步骤1.1:根据飞行器的位置变化,计算图像的缩放模型;
步骤1.2:根据飞行器的姿态变化,计算目标的位移变化模型;
步骤1.3:综合飞行器的位置变化和姿态变化,实现对弱小目标的粗定位
本发明进一步的改进在于,步骤1.1中,首先计算t时刻飞行器pt和基准区域点pm对应的卯酉圈和子午圈半径分别为和那么pt和pm在地心系下的坐标为E(pt)和E(pm),计算公式为:
两者相减得到对应的视线方向的投影:
ΔE(pt,pm)=[E(pt)-E(pm)]
那么pt和pm的空间距离表示为:
dis(pt,pm)=norm(ΔE(pt,pm),2)
同理,得到pt+1和pm的空间距离:
dis(pt+1,pm)=norm(ΔE(pt+1,pm),2)
那么t+1时刻图像相比t时刻图像的比例变化为:
步骤1.2中,在假设两帧之间的地理系相同的条件下,通过空间坐标系的转换,建立位移变化模型;
如果探测器的焦距为f,t时刻的目标在摄像机下坐标为:
其中(U0,V0)为成像平面坐标系的原点O在图像坐标系下的坐标;
同理,待求的t+1时刻粗标定的目标位置在摄像机下的坐标为:
那么t时刻探测器坐标系到地理系的转换矩阵为:
那么地理系到t+1时刻探测器坐标系的转换矩阵为得到视线在t+1时刻探测器下的三个分量为:
根据弹体系坐标系和焦距的定义,这三个分量与t+1时刻待求的粗定位位置的弹体系下的坐标成比例:
由此得到姿态变化的模型为:
步骤1.3中,根据比例模型和位移模型,得到目标的预测位置,目标的粗定位为:
本发明进一步的改进在于,步骤2的具体实现步骤如下:
步骤2.1:以粗定位的目标位置为初始点,选取以初始点为圆心,半径为h的圆形区域Sh,计算圆形区域的亮度中心得到:
其中为图像在粗定位的灰度值;
步骤2.2:比较区域灰度质心与初始点的距离若距离d≥ε,则将亮度质心赋予起始位置重复步骤2.1进行迭代;若d<ε,迭代结束,精定位的弱小目标的位置为:
步骤2.3:重复步骤1,进行下一帧的跟踪。
本发明具有以下有益的技术效果:
本发明针对成像飞行器中远距离条件下红外弱小移动目标的跟踪问题,设计了一种基于惯导信息和亮度修正的红外弱小移动目标跟踪方法。基于飞行器捷联的惯性设备,利用惯导信息和图像信息的融合,采取“先粗定位后精定位”的两步跟踪方法,实现了对红外弱小目标的精确定位。相比于传统红外弱小目标跟踪方法,例如基于Meanshift的弱小目标跟踪方法和基于互相关的弱小目标跟踪方法,本发明在跟踪的精度、可靠性和环境适应能力都有显著的提升,解决了飞行器高动态环境下的目标跟踪问题。本发明提出的红外弱小目标跟踪算法,可以大大提高跟踪的精度和鲁棒性,为飞行器视觉导航和成像制导提供技术参考和支撑。
附图说明
图1是本发明的总体流程示意图。
图2是飞行器目标成像示意图。
图3是探测器针孔成像示意图。
图4是变步长自适应迭代原理图。
图5是跟踪前本发明与传统的基于Meanshift的目标跟踪方法和基于互相关的目标跟踪算法对图像序列1的跟踪结果示意图。
图6是跟踪后本发明与传统的基于Meanshift的目标跟踪方法和基于互相关的目标跟踪算法对图像序列1的跟踪结果示意图。
图7是跟踪前本发明与传统的基于Meanshift的目标跟踪方法和基于互相关的目标跟踪算法对图像序列2的跟踪结果示意图。
图8是跟踪后本发明与传统的基于Meanshift的目标跟踪方法和基于互相关的目标跟踪算法对图像序列2的跟踪结果示意图。
具体实施方式
以下结合附图和仿真对本发明做出进一步的说明。
如图1至图4所示,本发明提供的基于惯导信息和亮度修正的红外弱小移动目标跟踪方法,具体包括如下步骤:
步骤1:粗定位。在当前帧目标定位的基础上,根据红外探测器与飞行器固连的特点,利用飞行器惯性设备提供的惯导信息,对目标的下一帧图像的目标成像位置进行预测。从而实现对移动目标的粗定位。假设已知当前帧t时刻的目标成像位置为(ut,vt),当前飞行器对应的大地坐标位置为pt=[λt,Lt,ht](经度,纬度,高度),姿态用四元素表示下一帧t+1时刻的飞行器的大地坐标位置为pt+1=[λt+1,Lt+1,ht+1],姿态为如果预设目标移动的基准区域的大地坐标位置pm=[λm,Lm,hm],那么粗定位包括以下几个步骤:
步骤1.1:根据飞行器的位置变化,计算图像的缩放模型。飞行器和目标之间距离的变化,反映着图像上尺度的缩放。为此,可以通过飞行器和目标的距离来对图像的比例参数进行建模。
首先计算t时刻飞行器pt和基准区域点pm对应的卯酉圈和子午圈半径分别为和那么pt和pm在地心系下的坐标为E(pt)和E(pm),计算公式为:
两者相减得到对应的视线方向的投影:
ΔE(pt,pm)=[E(pt)-E(pm)]
那么pt和pm的空间距离可以表示为:
dis(pt,pm)=norm(ΔE(pt,pm),2)
同理,可以得到pt+1和pm的空间距离:
dis(pt+1,pm)=norm(ΔE(pt+1,pm),2)
那么t+1时刻图像相比t时刻图像的比例变化为:
步骤1.2:根据飞行器的姿态变化,计算目标的位移变化模型。目标点的成像位置会随着飞行器姿态的改变而对应改变,因此,在假设两帧之间的地理系相同的条件下,可以通过空间坐标系的转换,建立位移变化模型。
如果探测器的焦距为f,t时刻的目标在摄像机下坐标为:
其中(U0,V0)为成像平面坐标系的原点O在图像坐标系下的坐标。同理,待求的t+1时刻粗标定的目标位置在摄像机下的坐标为:
那么t时刻探测器坐标系到地理系的转换矩阵为:
那么地理系到t+1时刻探测器坐标系的转换矩阵为可得视线在t+1时刻探测器下的三个分量为:
根据弹体系坐标系和焦距的定义,这三个分量与t+1时刻待求的粗定位位置的弹体系下的坐标成比例:
由此可得到姿态变化的模型为:
步骤1.3:综合飞行器的位置变化和姿态变化,实现对弱小目标的粗定位根据比例模型和位移模型,可以得到目标的预测位置。目标的粗定位为:
步骤2:精定位。由于安装的误差、惯性设备的漂移以及目标本身的移动等因素,粗定位会产生小范围的误差,因此必须利用图像中弱小移动目标的红外特性进行亮度修正定位。感兴趣的红外移动目标会由于其自身的红外特性而在图像中呈现局部高亮区域,可以通过变步长自适应迭代的思想进行局部区域亮度中心修正,具体的步骤如下:
步骤2.1:以粗定位的目标位置为初始点,选取以初始点为圆心,半径为h(h的大小与粗定位误差有关)的圆形区域Sh,计算圆形区域的亮度中心(即圆形区域的质心)可以得到:
其中为图像在粗定位的灰度值。
步骤2.2:比较区域灰度质心与初始点的距离若距离d≥ε,则将亮度质心赋予起始位置重复步骤2.1进行迭代;若d<ε,迭代结束,精定位的弱小目标的位置为:
步骤2.3:重复步骤1,进行下一帧的跟踪。
本发明的效果通过以下仿真进一步说明:
1.仿真条件
为验证本发明的有效性,利用本发明对两组含惯导数据的红外图像序列进行检测,红外图像序列为大小为480×640,弱小目标为移动的汽车,其中序列1中的目标为半径为6个像素的圆形区域,序列2位中的目标为半径为7个像素的圆形区域。实验环境是Intel(R)Core(TM)CPU 3.10GHz/2GB内存/MATLAB2011。在仿真实验中,精定位中的收敛区域半径为h=6,迭代的阈值选择ε=0.1。2.仿真实验为了充分验证本发明的显著性能,将本发明的实验效果与传统的基于Meanshift的目标跟踪方法和基于互相关的目标跟踪算法进行对比。图5和图6是本发明与传统的基于Meanshift的目标跟踪方法和基于互相关的目标跟踪算法对图像序列1的跟踪结果对比图,图7和图8是本发明与传统的基于Meanshift的目标跟踪方法和基于互相关的目标跟踪算法对图像序列2的跟踪结果对比图,其中a表示基于互相关方法的跟踪结果,b表示基于Meanshift的跟踪结果,c表示基于本发明的跟踪结果。从结果可以看出,本发明能够在复杂环境下实现对弱小移动目标的有效跟踪,比传统的Meanshift算法和互相关算法,具有更好的鲁棒性。
为了对本发明的优越性进行定量的说明,表1给出了三种方法的平均跟踪误差。平均误差的计算方法为累加每一帧图像的跟踪结果和真实位置的差的绝对值,然后除以总的图像帧数得到。从结果可以看出,相比于传统的弱小移动目标跟踪方法,本发明取得了较小的跟踪误差。
表1三种方法对两组红外图像序列的跟踪平均误差
视频 | Meanshift | 互相关 | 本发明 |
序列1 | 54.7 | 24.8 | 1.5 |
序列2 | 68.4 | 4.3 | 2.2 |
Claims (4)
1.基于惯导信息和亮度修正的红外弱小移动目标跟踪方法,其特征在于,包括以下步骤:
步骤1:粗定位;
在当前帧目标定位的基础上,根据红外探测器与飞行器固连的特点,利用飞行器惯性设备提供的惯导信息,对目标的下一帧图像的目标成像位置进行预测,实现对移动目标的粗定位;假设已知当前帧t时刻的目标成像位置为(ut,vt),当前飞行器对应的大地坐标位置为pt=[λt,Lt,ht],姿态用四元素表示下一帧t+1时刻的飞行器的大地坐标位置为pt+1=[λt+1,Lt+1,ht+1],姿态为预设目标移动的基准区域的大地坐标位置pm=[λm,Lm,hm];
步骤2:精定位;
利用图像中弱小移动目标的红外特性进行亮度修正定位,感兴趣的红外移动目标由于其自身的红外特性而在图像中呈现局部高亮区域,通过变步长自适应迭代进行局部区域亮度中心修正。
2.根据权利要求1所述的基于惯导信息和亮度修正的红外弱小移动目标跟踪方法,其特征在于,步骤1的具体实现步骤如下:
步骤1.1:根据飞行器的位置变化,计算图像的缩放模型;
步骤1.2:根据飞行器的姿态变化,计算目标的位移变化模型;
步骤1.3:综合飞行器的位置变化和姿态变化,实现对弱小目标的粗定位
3.根据权利要求2所述的基于惯导信息和亮度修正的红外弱小移动目标跟踪方法,其特征在于,
步骤1.1中,首先计算t时刻飞行器pt和基准区域点pm对应的卯酉圈和子午圈半径分别为和那么pt和pm在地心系下的坐标为E(pt)和E(pm),计算公式为:
<mrow>
<mi>E</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>p</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>E</mi>
<mi>x</mi>
</msub>
<mo>(</mo>
<msub>
<mi>p</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>E</mi>
<mi>y</mi>
</msub>
<mo>(</mo>
<msub>
<mi>p</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>E</mi>
<mi>z</mi>
</msub>
<mo>(</mo>
<msub>
<mi>p</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<mo>(</mo>
<msub>
<mi>R</mi>
<msub>
<mi>W</mi>
<mi>t</mi>
</msub>
</msub>
<mo>+</mo>
<msub>
<mi>h</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
<mi>cos</mi>
<mi> </mi>
<msub>
<mi>L</mi>
<mi>t</mi>
</msub>
<msub>
<mi>cos&lambda;</mi>
<mi>t</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>(</mo>
<msub>
<mi>R</mi>
<msub>
<mi>W</mi>
<mi>t</mi>
</msub>
</msub>
<mo>+</mo>
<msub>
<mi>h</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
<mi>cos</mi>
<mi> </mi>
<msub>
<mi>L</mi>
<mi>t</mi>
</msub>
<msub>
<mi>sin&lambda;</mi>
<mi>t</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>(</mo>
<msub>
<mi>R</mi>
<msub>
<mi>N</mi>
<mi>t</mi>
</msub>
</msub>
<mo>+</mo>
<msub>
<mi>h</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
<mi>sin</mi>
<mi> </mi>
<msub>
<mi>L</mi>
<mi>t</mi>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
<mrow>
<mi>E</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>p</mi>
<mi>m</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>E</mi>
<mi>x</mi>
</msub>
<mo>(</mo>
<msub>
<mi>p</mi>
<mi>m</mi>
</msub>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>E</mi>
<mi>y</mi>
</msub>
<mo>(</mo>
<msub>
<mi>p</mi>
<mi>m</mi>
</msub>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>E</mi>
<mi>z</mi>
</msub>
<mo>(</mo>
<msub>
<mi>p</mi>
<mi>m</mi>
</msub>
<mo>)</mo>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<mo>(</mo>
<msub>
<mi>R</mi>
<msub>
<mi>W</mi>
<mi>m</mi>
</msub>
</msub>
<mo>+</mo>
<msub>
<mi>h</mi>
<mi>m</mi>
</msub>
<mo>)</mo>
<mi>cos</mi>
<mi> </mi>
<msub>
<mi>L</mi>
<mi>m</mi>
</msub>
<msub>
<mi>cos&lambda;</mi>
<mi>m</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>(</mo>
<msub>
<mi>R</mi>
<msub>
<mi>W</mi>
<mi>m</mi>
</msub>
</msub>
<mo>+</mo>
<msub>
<mi>h</mi>
<mi>m</mi>
</msub>
<mo>)</mo>
<mi>cos</mi>
<mi> </mi>
<msub>
<mi>L</mi>
<mi>m</mi>
</msub>
<msub>
<mi>sin&lambda;</mi>
<mi>m</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>(</mo>
<msub>
<mi>R</mi>
<msub>
<mi>N</mi>
<mi>m</mi>
</msub>
</msub>
<mo>+</mo>
<msub>
<mi>h</mi>
<mi>m</mi>
</msub>
<mo>)</mo>
<mi>sin</mi>
<mi> </mi>
<msub>
<mi>L</mi>
<mi>m</mi>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
两者相减得到对应的视线方向的投影:
ΔE(pt,pm)=[E(pt)-E(pm)]
那么pt和pm的空间距离表示为:
dis(pt,pm)=norm(ΔE(pt,pm),2)
同理,得到pt+1和pm的空间距离:
dis(pt+1,pm)=norm(ΔE(pt+1,pm),2)
那么t+1时刻图像相比t时刻图像的比例变化为:
<mrow>
<mi>k</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mi>d</mi>
<mi>i</mi>
<mi>s</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>p</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>p</mi>
<mi>m</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>d</mi>
<mi>i</mi>
<mi>s</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>p</mi>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>p</mi>
<mi>m</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
步骤1.2中,在假设两帧之间的地理系相同的条件下,通过空间坐标系的转换,建立位移变化模型;
如果探测器的焦距为f,t时刻的目标在摄像机下坐标为:
<mrow>
<msub>
<mi>m</mi>
<mi>t</mi>
</msub>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mi>f</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>-</mo>
<msub>
<mi>u</mi>
<mi>t</mi>
</msub>
<mo>+</mo>
<msub>
<mi>U</mi>
<mn>0</mn>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>v</mi>
<mi>t</mi>
</msub>
<mo>-</mo>
<msub>
<mi>V</mi>
<mn>0</mn>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
其中(U0,V0)为成像平面坐标系的原点O在图像坐标系下的坐标;
同理,待求的t+1时刻粗标定的目标位置在摄像机下的坐标为:
<mrow>
<msub>
<mi>m</mi>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mi>f</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>-</mo>
<msub>
<mover>
<mi>u</mi>
<mo>~</mo>
</mover>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>+</mo>
<msub>
<mi>U</mi>
<mn>0</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mover>
<mi>v</mi>
<mo>~</mo>
</mover>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>V</mi>
<mn>0</mn>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
那么t时刻探测器坐标系到地理系的转换矩阵为:
<mrow>
<msubsup>
<mi>R</mi>
<mi>b</mi>
<mi>n</mi>
</msubsup>
<mrow>
<mo>(</mo>
<msup>
<mi>q</mi>
<mi>t</mi>
</msup>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<msubsup>
<mi>q</mi>
<mn>0</mn>
<mi>t</mi>
</msubsup>
<msubsup>
<mi>q</mi>
<mn>0</mn>
<mi>t</mi>
</msubsup>
<mo>+</mo>
<msubsup>
<mi>q</mi>
<mn>1</mn>
<mi>t</mi>
</msubsup>
<msubsup>
<mi>q</mi>
<mn>1</mn>
<mi>t</mi>
</msubsup>
<mo>-</mo>
<msubsup>
<mi>q</mi>
<mn>2</mn>
<mi>t</mi>
</msubsup>
<msubsup>
<mi>q</mi>
<mn>2</mn>
<mi>t</mi>
</msubsup>
<mo>-</mo>
<msubsup>
<mi>q</mi>
<mn>3</mn>
<mi>t</mi>
</msubsup>
<msubsup>
<mi>q</mi>
<mn>3</mn>
<mi>t</mi>
</msubsup>
</mrow>
</mtd>
<mtd>
<mrow>
<mn>2</mn>
<mrow>
<mo>(</mo>
<msubsup>
<mi>q</mi>
<mn>1</mn>
<mi>t</mi>
</msubsup>
<msubsup>
<mi>q</mi>
<mn>2</mn>
<mi>t</mi>
</msubsup>
<mo>+</mo>
<msubsup>
<mi>q</mi>
<mn>0</mn>
<mi>t</mi>
</msubsup>
<msubsup>
<mi>q</mi>
<mn>3</mn>
<mi>t</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mrow>
<mn>2</mn>
<mrow>
<mo>(</mo>
<msubsup>
<mi>q</mi>
<mn>1</mn>
<mi>t</mi>
</msubsup>
<msubsup>
<mi>q</mi>
<mn>3</mn>
<mi>t</mi>
</msubsup>
<mo>-</mo>
<msubsup>
<mi>q</mi>
<mn>0</mn>
<mi>t</mi>
</msubsup>
<msubsup>
<mi>q</mi>
<mn>2</mn>
<mi>t</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mn>2</mn>
<mrow>
<mo>(</mo>
<msubsup>
<mi>q</mi>
<mn>1</mn>
<mi>t</mi>
</msubsup>
<msubsup>
<mi>q</mi>
<mn>2</mn>
<mi>t</mi>
</msubsup>
<mo>-</mo>
<msubsup>
<mi>q</mi>
<mn>0</mn>
<mi>t</mi>
</msubsup>
<msubsup>
<mi>q</mi>
<mn>3</mn>
<mi>t</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mrow>
<msubsup>
<mi>q</mi>
<mn>0</mn>
<mi>t</mi>
</msubsup>
<msubsup>
<mi>q</mi>
<mn>0</mn>
<mi>t</mi>
</msubsup>
<mo>-</mo>
<msubsup>
<mi>q</mi>
<mn>1</mn>
<mi>t</mi>
</msubsup>
<msubsup>
<mi>q</mi>
<mn>1</mn>
<mi>t</mi>
</msubsup>
<mo>+</mo>
<msubsup>
<mi>q</mi>
<mn>2</mn>
<mi>t</mi>
</msubsup>
<msubsup>
<mi>q</mi>
<mn>2</mn>
<mi>t</mi>
</msubsup>
<mo>-</mo>
<msubsup>
<mi>q</mi>
<mn>3</mn>
<mi>t</mi>
</msubsup>
<msubsup>
<mi>q</mi>
<mn>3</mn>
<mi>t</mi>
</msubsup>
</mrow>
</mtd>
<mtd>
<mrow>
<mn>2</mn>
<mrow>
<mo>(</mo>
<msubsup>
<mi>q</mi>
<mn>2</mn>
<mi>t</mi>
</msubsup>
<msubsup>
<mi>q</mi>
<mn>3</mn>
<mi>t</mi>
</msubsup>
<mo>+</mo>
<msubsup>
<mi>q</mi>
<mn>0</mn>
<mi>t</mi>
</msubsup>
<msubsup>
<mi>q</mi>
<mn>1</mn>
<mi>t</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mn>2</mn>
<mrow>
<mo>(</mo>
<msubsup>
<mi>q</mi>
<mn>1</mn>
<mi>t</mi>
</msubsup>
<msubsup>
<mi>q</mi>
<mn>3</mn>
<mi>t</mi>
</msubsup>
<mo>+</mo>
<msubsup>
<mi>q</mi>
<mn>0</mn>
<mi>t</mi>
</msubsup>
<msubsup>
<mi>q</mi>
<mn>2</mn>
<mi>t</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mrow>
<mn>2</mn>
<mrow>
<mo>(</mo>
<msubsup>
<mi>q</mi>
<mn>2</mn>
<mi>t</mi>
</msubsup>
<msubsup>
<mi>q</mi>
<mn>3</mn>
<mi>t</mi>
</msubsup>
<mo>-</mo>
<msubsup>
<mi>q</mi>
<mn>0</mn>
<mi>t</mi>
</msubsup>
<msubsup>
<mi>q</mi>
<mn>1</mn>
<mi>t</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mrow>
<msubsup>
<mi>q</mi>
<mn>0</mn>
<mi>t</mi>
</msubsup>
<msubsup>
<mi>q</mi>
<mn>0</mn>
<mi>t</mi>
</msubsup>
<mo>-</mo>
<msubsup>
<mi>q</mi>
<mn>1</mn>
<mi>t</mi>
</msubsup>
<msubsup>
<mi>q</mi>
<mn>1</mn>
<mi>t</mi>
</msubsup>
<mo>-</mo>
<msubsup>
<mi>q</mi>
<mn>2</mn>
<mi>t</mi>
</msubsup>
<msubsup>
<mi>q</mi>
<mn>2</mn>
<mi>t</mi>
</msubsup>
<mo>+</mo>
<msubsup>
<mi>q</mi>
<mn>3</mn>
<mi>t</mi>
</msubsup>
<msubsup>
<mi>q</mi>
<mn>3</mn>
<mi>t</mi>
</msubsup>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
那么地理系到t+1时刻探测器坐标系的转换矩阵为得到视线在t+1时刻探测器下的三个分量为:
<mrow>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>s</mi>
<mi>x</mi>
</msub>
<mo>(</mo>
<msub>
<mi>u</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mn>1</mn>
</msub>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>s</mi>
<mi>y</mi>
</msub>
<mo>(</mo>
<msub>
<mi>u</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mn>1</mn>
</msub>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>s</mi>
<mi>z</mi>
</msub>
<mo>(</mo>
<msub>
<mi>u</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mn>1</mn>
</msub>
<mo>)</mo>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>=</mo>
<msubsup>
<mi>R</mi>
<mi>n</mi>
<mi>b</mi>
</msubsup>
<mrow>
<mo>(</mo>
<msup>
<mi>q</mi>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msup>
<mo>)</mo>
</mrow>
<msubsup>
<mi>R</mi>
<mi>b</mi>
<mi>n</mi>
</msubsup>
<mrow>
<mo>(</mo>
<msup>
<mi>q</mi>
<mi>t</mi>
</msup>
<mo>)</mo>
</mrow>
<msub>
<mi>m</mi>
<mi>t</mi>
</msub>
</mrow>
根据弹体系坐标系和焦距的定义,这三个分量与t+1时刻待求的粗定位位置的弹体系下的坐标成比例:
<mrow>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>s</mi>
<mi>x</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>u</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>s</mi>
<mi>y</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>u</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>s</mi>
<mi>z</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>u</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>=</mo>
<msub>
<mi>Km</mi>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>=</mo>
<mi>K</mi>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mi>f</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>-</mo>
<msub>
<mover>
<mi>u</mi>
<mo>~</mo>
</mover>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>+</mo>
<msub>
<mi>U</mi>
<mn>0</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mover>
<mi>v</mi>
<mo>~</mo>
</mover>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>V</mi>
<mn>0</mn>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
由此得到姿态变化的模型为:
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mo>-</mo>
<msub>
<mover>
<mi>u</mi>
<mo>~</mo>
</mover>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>+</mo>
<msub>
<mi>U</mi>
<mn>0</mn>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>s</mi>
<mi>y</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>u</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
<mi>f</mi>
</mrow>
<mrow>
<msub>
<mi>s</mi>
<mi>x</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>u</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mover>
<mi>v</mi>
<mo>~</mo>
</mover>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>V</mi>
<mn>0</mn>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>s</mi>
<mi>z</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>u</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
<mi>f</mi>
</mrow>
<mrow>
<msub>
<mi>s</mi>
<mi>x</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>u</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mtd>
</mtr>
</mtable>
</mfenced>
步骤1.3中,根据比例模型和位移模型,得到目标的预测位置,目标的粗定位为:
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<msub>
<mover>
<mi>u</mi>
<mo>~</mo>
</mover>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>=</mo>
<msub>
<mi>U</mi>
<mn>0</mn>
</msub>
<mo>-</mo>
<mi>k</mi>
<mfrac>
<mrow>
<msub>
<mi>s</mi>
<mi>y</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>u</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
<mi>f</mi>
</mrow>
<mrow>
<msub>
<mi>s</mi>
<mi>x</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>u</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mover>
<mi>v</mi>
<mo>~</mo>
</mover>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>=</mo>
<msub>
<mi>V</mi>
<mn>0</mn>
</msub>
<mo>+</mo>
<mi>k</mi>
<mfrac>
<mrow>
<msub>
<mi>s</mi>
<mi>z</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>u</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
<mi>f</mi>
</mrow>
<mrow>
<msub>
<mi>s</mi>
<mi>x</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>u</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mtd>
</mtr>
</mtable>
</mfenced>
4.根据权利要求3所述的基于惯导信息和亮度修正的红外弱小移动目标跟踪方法,其特征在于,步骤2的具体实现步骤如下:
步骤2.1:以粗定位的目标位置为初始点,选取以初始点为圆心,半径为h的圆形区域Sh,计算圆形区域的亮度中心得到:
<mrow>
<mi>C</mi>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>u</mi>
<mo>~</mo>
</mover>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mover>
<mi>v</mi>
<mo>~</mo>
</mover>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>C</mi>
<msub>
<mover>
<mi>u</mi>
<mo>~</mo>
</mover>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</msub>
<mo>,</mo>
<msub>
<mi>C</mi>
<msub>
<mover>
<mi>u</mi>
<mo>~</mo>
</mover>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mrow>
<mo>(</mo>
<mfrac>
<msub>
<mi>m</mi>
<mn>10</mn>
</msub>
<msub>
<mi>m</mi>
<mn>00</mn>
</msub>
</mfrac>
<mo>,</mo>
<mfrac>
<msub>
<mi>m</mi>
<mn>01</mn>
</msub>
<msub>
<mi>m</mi>
<mn>00</mn>
</msub>
</mfrac>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>m</mi>
<mrow>
<mi>p</mi>
<mi>q</mi>
</mrow>
</msub>
<mo>=</mo>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>&Element;</mo>
<msub>
<mi>S</mi>
<mi>h</mi>
</msub>
</mrow>
</munder>
<msup>
<mi>x</mi>
<mi>p</mi>
</msup>
<msup>
<mi>y</mi>
<mi>q</mi>
</msup>
<mi>I</mi>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>u</mi>
<mo>~</mo>
</mover>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mover>
<mi>v</mi>
<mo>~</mo>
</mover>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>)</mo>
</mrow>
</mrow>
其中为图像在粗定位的灰度值;
步骤2.2:比较区域灰度质心与初始点的距离若距离d≥ε,则将亮度质心赋予起始位置重复步骤2.1进行迭代;若d<ε,迭代结束,精定位的弱小目标的位置为:
<mrow>
<mo>(</mo>
<msub>
<mi>u</mi>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>)</mo>
<mo>=</mo>
<mi>C</mi>
<mo>(</mo>
<msub>
<mover>
<mi>u</mi>
<mo>~</mo>
</mover>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mover>
<mi>v</mi>
<mo>~</mo>
</mover>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>)</mo>
</mrow>
步骤2.3:重复步骤1,进行下一帧的跟踪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711230797.4A CN107992677B (zh) | 2017-11-29 | 2017-11-29 | 基于惯导信息和亮度修正的红外弱小移动目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711230797.4A CN107992677B (zh) | 2017-11-29 | 2017-11-29 | 基于惯导信息和亮度修正的红外弱小移动目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107992677A true CN107992677A (zh) | 2018-05-04 |
CN107992677B CN107992677B (zh) | 2020-11-17 |
Family
ID=62034272
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711230797.4A Active CN107992677B (zh) | 2017-11-29 | 2017-11-29 | 基于惯导信息和亮度修正的红外弱小移动目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107992677B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108981690A (zh) * | 2018-06-07 | 2018-12-11 | 北京轻威科技有限责任公司 | 一种光惯融合定位方法、设备及系统 |
CN110033472A (zh) * | 2019-03-15 | 2019-07-19 | 电子科技大学 | 一种复杂红外地面环境下的稳定目标跟踪方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060293854A1 (en) * | 2005-06-23 | 2006-12-28 | Raytheon Company | System and method for geo-registration with global positioning and inertial navigation |
CN102177709A (zh) * | 2008-10-15 | 2011-09-07 | 松下电器产业株式会社 | 亮度修正装置和亮度修正方法 |
CN104182575A (zh) * | 2014-08-19 | 2014-12-03 | 西安电子科技大学 | 一种机载红外稳瞄系统全链路全过程仿真系统及方法 |
CN105865272A (zh) * | 2016-05-27 | 2016-08-17 | 北京航空航天大学 | 一种用于半捷联制导导弹的一体化控制方法 |
CN106327517A (zh) * | 2015-06-30 | 2017-01-11 | 芋头科技(杭州)有限公司 | 一种目标跟踪装置及目标跟踪方法 |
US20170059354A1 (en) * | 2014-02-24 | 2017-03-02 | Lockheed Martin Corporation | Projected synthetic vision |
CN106940184A (zh) * | 2017-04-24 | 2017-07-11 | 湖南华诺星空电子技术有限公司 | 一种基于差分gps的惯导定位方法及系统 |
CN107238384A (zh) * | 2017-05-26 | 2017-10-10 | 高武保 | 一种基于多模式协同的军民两用智能导航系统 |
-
2017
- 2017-11-29 CN CN201711230797.4A patent/CN107992677B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060293854A1 (en) * | 2005-06-23 | 2006-12-28 | Raytheon Company | System and method for geo-registration with global positioning and inertial navigation |
CN102177709A (zh) * | 2008-10-15 | 2011-09-07 | 松下电器产业株式会社 | 亮度修正装置和亮度修正方法 |
US20170059354A1 (en) * | 2014-02-24 | 2017-03-02 | Lockheed Martin Corporation | Projected synthetic vision |
CN104182575A (zh) * | 2014-08-19 | 2014-12-03 | 西安电子科技大学 | 一种机载红外稳瞄系统全链路全过程仿真系统及方法 |
CN106327517A (zh) * | 2015-06-30 | 2017-01-11 | 芋头科技(杭州)有限公司 | 一种目标跟踪装置及目标跟踪方法 |
CN105865272A (zh) * | 2016-05-27 | 2016-08-17 | 北京航空航天大学 | 一种用于半捷联制导导弹的一体化控制方法 |
CN106940184A (zh) * | 2017-04-24 | 2017-07-11 | 湖南华诺星空电子技术有限公司 | 一种基于差分gps的惯导定位方法及系统 |
CN107238384A (zh) * | 2017-05-26 | 2017-10-10 | 高武保 | 一种基于多模式协同的军民两用智能导航系统 |
Non-Patent Citations (1)
Title |
---|
杨小冈: "动态景像匹配导航差分滤波估计定位融合算法", 《电光与控制》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108981690A (zh) * | 2018-06-07 | 2018-12-11 | 北京轻威科技有限责任公司 | 一种光惯融合定位方法、设备及系统 |
CN110033472A (zh) * | 2019-03-15 | 2019-07-19 | 电子科技大学 | 一种复杂红外地面环境下的稳定目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107992677B (zh) | 2020-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Alonso et al. | Accurate global localization using visual odometry and digital maps on urban environments | |
CN104637073B (zh) | 一种基于太阳照射阴影补偿的带状地下结构探测方法 | |
CN110285793A (zh) | 一种基于双目立体视觉系统的车辆智能测轨迹方法 | |
CN102646275B (zh) | 通过跟踪和定位算法实现虚拟三维叠加的方法 | |
CN108986037A (zh) | 基于半直接法的单目视觉里程计定位方法及定位系统 | |
CN104748750B (zh) | 一种模型约束下的在轨三维空间目标姿态估计方法及系统 | |
CN110930508B (zh) | 二维光电视频与三维场景融合方法 | |
CN108919262B (zh) | Dem辅助强度相关的冰川表面运动三维矢量反演方法 | |
CN105352509A (zh) | 地理信息时空约束下的无人机运动目标跟踪与定位方法 | |
CN103994765B (zh) | 一种惯性传感器的定位方法 | |
CN104899590A (zh) | 一种无人机视觉目标跟随方法及系统 | |
CN110033411A (zh) | 基于无人机的公路施工现场全景图像高效拼接方法 | |
CN104281148A (zh) | 基于双目立体视觉的移动机器人自主导航方法 | |
CN109596121A (zh) | 一种机动站自动目标检测与空间定位方法 | |
CN103697883B (zh) | 一种基于天际线成像的飞行器水平姿态确定方法 | |
CN115574816B (zh) | 仿生视觉多源信息智能感知无人平台 | |
US11367213B2 (en) | Method and apparatus with location estimation | |
CN108917753A (zh) | 基于从运动恢复结构的飞行器位置确定方法 | |
CN111536970A (zh) | 一种用于低能见度大尺度场景的红外惯性组合导航方法 | |
CN109871739A (zh) | 基于yolo-sioctl的机动站自动目标检测与空间定位方法 | |
KR101803340B1 (ko) | 영상 기반 주행거리 측정 시스템 및 방법 | |
CN108364279A (zh) | 确定静止轨道遥感卫星指向偏差的方法 | |
CN114708293A (zh) | 基于深度学习点线特征和imu紧耦合的机器人运动估计方法 | |
CN107992677A (zh) | 基于惯导信息和亮度修正的红外弱小移动目标跟踪方法 | |
Guo et al. | Research on DSO vision positioning technology based on binocular stereo panoramic vision system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |