CN114237053B - 一种基于交互式多模型的捷联导引头视线角速度估计方法 - Google Patents
一种基于交互式多模型的捷联导引头视线角速度估计方法 Download PDFInfo
- Publication number
- CN114237053B CN114237053B CN202111554353.2A CN202111554353A CN114237053B CN 114237053 B CN114237053 B CN 114237053B CN 202111554353 A CN202111554353 A CN 202111554353A CN 114237053 B CN114237053 B CN 114237053B
- Authority
- CN
- China
- Prior art keywords
- model
- angular velocity
- sight
- estimation
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 25
- 238000005259 measurement Methods 0.000 claims abstract description 29
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 20
- 230000007704 transition Effects 0.000 claims abstract description 20
- 238000001914 filtration Methods 0.000 claims abstract description 17
- 230000003993 interaction Effects 0.000 claims abstract description 12
- 230000008569 process Effects 0.000 claims abstract description 8
- 239000011159 matrix material Substances 0.000 claims description 21
- 230000001133 acceleration Effects 0.000 claims description 8
- 230000004927 fusion Effects 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 8
- 230000000007 visual effect Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000001502 supplementing effect Effects 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 230000000295 complement effect Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 229920001971 elastomer Polymers 0.000 claims 1
- 239000000806 elastomer Substances 0.000 claims 1
- 230000017105 transposition Effects 0.000 claims 1
- 238000013461 design Methods 0.000 abstract description 2
- WYTGDNHDOZPMIW-RCBQFDQVSA-N alstonine Natural products C1=CC2=C3C=CC=CC3=NC2=C2N1C[C@H]1[C@H](C)OC=C(C(=O)OC)[C@H]1C2 WYTGDNHDOZPMIW-RCBQFDQVSA-N 0.000 description 5
- 239000000306 component Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 210000003128 head Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/04—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
- G05B13/042—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
Abstract
本发明公开了一种基于交互式多模型的捷联导引头视线角速度估计方法,包括:针对目标不同运动模式,分别建立视线角速度估计模型并进行离散化,组成视线角速度估计模型集;设置模型集中模型间转移概率和模型初始概率,进行滤波初始化;利用上一时刻维度对齐后的各模型状态估计、协方差进行模型间的交互;建立导引头量测模型,利用各模型运行多个滤波器,使用容积卡尔曼滤波处理估计模型以及导引头量测模型的强非线性问题;更新模型概率,将各模型的状态估计与协方差进行维度对齐后,融合状态估计及协方差作为滤波结果。本发明提高了对机动目标的适应能力与视线角速度的估计精度,可用于捷联导引头滤波器算法设计领域。
Description
技术领域
本发明涉及捷联导引头视线角速度估计技术,特别是一种针对机动能力较强、机动方式具有随机性和不确定性的机动目标视线角速度估计方法。
背景技术
导引头是精确制导武器的核心部件,在很大程度上决定了制导武器的打击精度与成本。捷联导引头是一种将全部硬件刚性固定在弹体上的目标探测系统,相比于平台导引头,取消了万向平台,具有结构简单、可靠性高、体积小、重量轻等优点。然而,捷联导引头也引入了两个不足之处:首先,捷联导引头不能直接提供比例导引制导律所需的惯性瞄准线速度信息,其量测所得的视线角度信息与弹体姿态密切耦合;其次,由于捷联导引头瞬时视场更宽,造成测量噪声相较于平台式导引头更大,与平台式导引头相比,该测量噪声通常要大一个数量级。针对捷联导引头的结构特点,目前已有相应的视线角速度估计模型,但这些模型都有其适合描述的目标运动,当模型不匹配时,估计精度有待提升。
目前的视线角速度估计方法多是基于单模型的,没有考虑现实中目标的机动形式未知且时变的特性,而单一的模型往往因为无法描述机动目标不同的运动模式,无法满足视线角速度的估计精度需求。针对这类问题,构建一个合适的模型集,再用多模型算法去匹配目标运动是一个不错的选择,而现有的基于多模型的视线角速度估计方法对模型的构建不够充分,在模型的使用方面还可以继续改进。
发明内容
为解决现有技术中存在现有视线角速度估计方法在面对机动能力较强、机动方式具有随机性和不确定性的目标时,视线角速度精度有待提升的问题,本发明的目的在于提供一种通过构建合适的视线角速度估计模型集,并将多模型算法应用到导引头视线角速度估计算法中的方法。首先建立描述目标不同运动模式的模型集,并进行模型状态维度的对齐,采用交互式多模型算法实时匹配目标运动模式来提升视线角速度估计算法对机动目标的适应能力,并采用容积卡尔曼滤波来处理捷联导引头视线角速度估计系统的强非线性问题,进而提升视线角速度估计精度。
本发明是通过下述技术方案来实现的。
本发明提供的基于交互式多模型的捷联导引头视线角速度估计方法,包括:
步骤1,构建交互式多模型算法的模型集:通过分析所要跟踪目标可能存在的运动模式,建立能够描述目标不同运动模式的视线角速度估计模型,并获取对应的离散时间估计模型,得到离散时间估计模型集;
步骤2,对所得到的离散时间估计模型集设置模型间的转移概率和模型的初始概率,并对离散时间估计模型集中各模型进行滤波初始化,根据不同模型状态维度进行维度对齐;
步骤3,利用上一时刻离散时间估计模型集中各模型的目标状态、协方差、模型概率和模型概率转移矩阵进行模型间的交互;
步骤4,建立导引头量测模型,利用离散时间估计模型集中的模型并行运行多个滤波器,使用容积卡尔曼滤波法处理离散时间估计模型集中模型以及导引头量测模型的强非线性问题;
步骤5,根据贝叶斯概率公式,更新模型概率,将离散时间估计模型集中各模型的状态估计与协方差矩阵进行维度对齐,融合各模型的状态估计及协方差,作为滤波结果。
进一步,构建交互式多模型算法的模型集包括:非机动目标的扩维视线角速度离散时间估计模型,即CV-SC模型,以及机动目标的三维匀转弯目标视线角速度离散时间估计模型,即3D-CT-SC模型。
将惯性系下弹目相对距离r对时间求两次微分,可得弹目相对运动的动力学方程,进而得到CV-SC模型和3D-CT-SC模型。
进一步,所述步骤2包括:
21)确定离散时间估计模型集中模型间的转移概率和初始概率:
22)滤波初始化:
将离散时间估计模型集中低维模型向高维模型对齐;
CV-SC模型假设目标做近匀速运动,故补充的三维转弯角速度均可设零;3D-CT-SC模型的三维转弯角速度根据先验信息进行初始化,或设零;
对于CV-SC模型和3D-CT-SC模型的前六维,可根据初始时刻笛卡尔系下目标、己方传感器的状态信息以及球坐标系下模型状态的定义,进行转换求解。
进一步,步骤4包括:
建立导引头量测模型;捷联式惯性导引头获得的视线量测是在弹体系下的,量测信息为视线俯仰角、视线方位角,且耦合了导弹姿态角信息。导弹的姿态角为俯仰角θ,滚转角γ,航向角惯性系到弹体系的坐标转换矩阵为/>则由坐标转换及视线角速度估计模型状态定义可建立量测模型。
进一步,步骤5包括:
51)计算离散时间估计模型集中各模型似然函数,更新模型概率:在滤波器滤波算法中可以得到各模型的实际测量信息和预测测量信息的误差向量和相应的协方差矩阵,利用此信息可计算得到各模型的似然函数,进而根据贝叶斯概率公式,更新模型集中各模型概率。
52)融合各模型的状态估计和协方差:
对CV-SC模型和3D-CT-SC模型滤波后的状态估计和状态方差进行维度对齐,在CV-SC模型状态估计的七至九维处补零,在CV-SC模型状态估计的七至九维对应的方差处补充q倍的单位阵,用于保留CV-SC模型转弯角速度零均值的波动特性;使用对齐后的CV-SC模型和3D-CT-SC模型的状态估计协方差Pk j以及更新后的模型概率/>进行融合。
本发明由于采取以上技术方案,其具有以下有益效果:
1)充分考虑了目标的运动模式,其中3D-CT-SC模型可以描述目标的平面转弯机动以及三维转弯机动,CV-SC模型与3D-CT-SC模型的组合又可以描述目标的一些非规则机动模式,显著提升了对目标机动的适应能力;
2)对离散时间估计模型集中模型间的转移概率,模型概率以及模型的滤波初始化不需要过多的先验信息即可完成滤波器的启动;
3)交互式多模型算法的输入交互采用的是模型维度对齐后的目标状态与协方差,减小了因模型不同直接进行输入交互带来的不利影响;
4)使用非线性容积卡尔曼滤波器进行滤波估计,很好的处理了离散时间估计模型集中模型以及导引头量测模型的强非线性问题;
5)在模型状态估计与协方差融合前进行了维度对齐,保留了维度对齐后CV-SC模型转弯角速度的波动特性,提升了算法在面对目标的机动切换时估计的响应速度。
本发明提高了捷联导引头对机动目标视线角速度估计的适应能力,实现了比单模型估计方法更高精度的视线角速度估计。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,并不构成对本发明的不当限定,在附图中:
图1为本发明方法流程框图;
图2为惯性系下导弹与目标的相对位置及视线角示意图;
图3(a),图4(a),图5(a)分别为仿真场景1,场景2,场景3中传感器平台与目标相对运动图;
图3(b)和图3(c),图4(b)和图4(c),图5(b)和图5(c)分别为仿真场景1,场景2,场景3中本发明提出的多模型视线角速度估计方法与单模型估计方法的视线俯仰角速度、视线方位角速度估计结果的RMSE对比图;
图3(d),图4(d),图5(d)分别给出了对应场景中本发明提出的多模型方法模型选择的结果。
具体实施方式
下面将结合附图以及具体实施例来详细说明本发明,在此本发明的示意性实施例以及说明用来解释本发明,但并不作为对本发明的限定。
本发明提供的一种基于交互式多模型的捷联导引头视线角速度估计方法,实现流程如图1所示,其包括以下步骤:
步骤1:构建交互式多模型算法的模型集:通过分析所要跟踪目标可能存在的运动模式,建立能够描述目标不同运动模式的视线角速度估计模型,并获取对应的离散时间估计模型,得到离散时间估计模型集。
具体实施过程如下:
11)目标运动分析:三维空间内的目标最常见的运动为近匀速直线运动及转弯运动,本发明采用非机动目标扩维视线角速度估计模型,即CV-SC模型,以及三维匀转弯目标视线角速度估计模型,即3D-CT-SC模型来构建模型集,其中CV-SC模型适合描述无机动或机动性较小的近匀速直线运动,用以匹配目标常规的巡航飞行;3D-CT-SC模型适合描述机动性较强的近匀转弯运动,用以匹配目标发生在平面内、三维空间内的转弯机动;目标其它运动则由两种模型的加权来描述。
记r为惯性系下弹目相对距离,弹目相对运动的动力学方程可表示为:
其中qγ,qλ别为惯性系下视线俯仰角,视线方位角,如图2所示,M表示导弹,T表示目标,qγ,qλ表示了惯性系和视线系之间的旋转关系,和/>分别目标和导弹在视线系下三个坐标轴方向的加速度分量,/>为视线系下导弹和目标的三个坐标轴方向的相对加速度分量,/>分别为对应参数α的一阶导和二阶导。
式中T为采样周期,rk-1为k-1时刻的弹目距离,qγ,k-1,qλ,k-1分别为k-1时刻惯性系下视线俯仰角、视线方位角,分别k-1时刻导弹在视线系下三个坐标轴方向的加速度分量,/>分别为对应参数α的一阶导和二阶导,wk-1为服从均值为零,协方差为Q的高斯白噪声。
m11=0,m22=0,m33=0
m12=-sinqλwx-cosqλwz
m13=-sinqγcosqλwx+cosqγwy+sinqγsinqλwz
m23=-cosqγcosqλwx-sinqγwy+cosqγsinqλwz
m21=-m12,m31=-m13,m32=-m23
离散化后得到机动目标的三维匀转弯目标视线角速度离散时间的3D-CT-SC模型:
MBR计算如下:
m11=0,m22=0,m33=0
m12=-sinqλ,k-1wx,k-1-cosqλ,k-1wz,k-1
m13=-sinqγ,k-1cosqλ,k-1wx,k-1+cosqγ,k-1wy,k-1+sinqγ,k-1sinqλ,k-1wz,k-1
m23=-cosqγ,k-1cosqλ,k-1wx,k-1-sinqγ,k-1wy,k-1+cosqγ,k-1sinqλ,k-1wz,k-1
m21=-m12,m31=-m13,m32=-m23
步骤2:对所得到的离散时间估计模型集设置模型间的转移概率和模型的初始概率,并对离散时间估计模型集中各模型进行滤波初始化,根据不同模型状态维度进行维度对齐。
具体实施过程如下:
21)确定模型转移概率及初始模型概率:
模型概率转移矩阵Π的取值可由目标机动模式切换情况的先验知识获取,该参数的选择在一定程度上决定了目标机动切换时模型切换的快速性与非机动切换时模型保持的稳定性,即决定着机动切换时估计误差峰值与非机动切换时稳态估计误差之间的权衡。正确选择的准则是将转移概率与每个模式的实际平均逗留时间进行粗略匹配。IMM算法的性能对转移概率的选择不是很敏感,对于没有任何先验知识的情况,一种简单的且多被使用的设计方式是Π=(πij)M×M,其中πii=q,πij=(1-q)/(M-1),其中M为模型个数,同样对于初始模型概率可设为
22)滤波初始化:
模型集中模型维度不同,为使用交互式多模型算法,需首先进行维度对齐,由低维模型向高维模型对齐。由于CV-SC模型假设目标做近匀速运动,故补充的三维转弯角速度均可设零,3D-CT-SC模型的三维转弯角速度可根据先验信息进行初始化,或可设零;对于CV-SC模型和3D-CT-SC模型状态的前六维,可根据初始时刻笛卡尔系下目标、己方传感器的状态信息以及球坐标系下模型状态的定义,进行转换求解。
步骤3:利用上一时刻离散时间估计模型集中各模型的目标状态、协方差、模型概率和模型概率转移矩阵进行模型间的交互;交互后的目标状态与协方差作为视线角速度估计模型集中各模型滤波器当前时刻的输入,同时获得交互后目标处于各模型的概率。
步骤4:建立导引头量测模型,利用离散时间估计模型集中的模型并行运行多个滤波器,使用容积卡尔曼滤波法处理离散时间估计模型集中模型以及导引头量测模型的强非线性问题。
具体实施过程如下:
41)建立量测模型:
捷联式惯性导引头获得的视线量测是在弹体系下的,量测信息为视线俯仰角、视线方位角,且耦合了导弹姿态角信息。记R为惯性系到弹体系的坐标转换矩阵,设导弹的姿态角为俯仰角θ,滚转角γ,航向角相应的坐标变换基本旋转矩阵为:
惯性系到弹体系的坐标转换矩阵
记量测zk=h(xk)=[qα,qβ]T,则
其中,qα,qβ分别为捷联导引头在视线系下的俯仰角、方位角量测值,qγ,qλ分别为惯性系下的俯仰角、方位角,v1,v2为捷联导引头俯仰角,方位角量测噪声,Rij为坐标变换矩阵R的第i行j列的元素。
42)滤波器滤波:
预测阶段:首先应用容积卡尔曼算法计算容积点为:
其中m=2nx,nx为模型状态维数。根据上述动态模型进行容积点非线性变换:
则状态预测均值和预测协方差:
根据量测模型进行容积点非线性变换:
则量测预测均值,新息协方差,状态与量测间的互协方差,滤波增益,状态估计以及状态估计协方差分别为:
步骤5:根据贝叶斯概率公式,更新模型概率,将离散时间估计模型集中各模型的状态估计与协方差矩阵进行维度对齐后,融合各模型的状态估计及协方差,作为最终滤波结果。
具体实施过程如下:
各模型的似然函数计算如下:
其中:N是测量模型的维数。
更新模型概率:根据贝叶斯概率公式,各模型概率更新如下:
52)融合各模型的状态估计和协方差:对CV-SC模型和3D-CT-SC模型滤波后的状态估计和状态方差进行维度对齐,在CV-SC模型状态估计的七至九维处补零,在CV-SC模型状态估计的七至九维对应的方差处补充q倍的单位阵,q值取0.1,用于保留CV-SC模型转弯角速度在零均值处的波动特性。接着对齐后的CV-SC模型和3D-CT-SC模型的状态估计协方差/>以及模型概率/>进行以下融合:
本发明的估计效果可通过以下仿真实例说明:
为验证本发明提出的一种基于交互式多模型的捷联导引头机动目标视线角速度估计方法的效果,通过三种仿真场景对比了本发明提出的以CV-SC模型、3D-CT-SC模型为模型集的多模型方法与单独使用CV-SC模型、3D-CT-SC模型的估计精度。
图3(a)所示场景1中,目标以240米/秒的速度在水平面内做近似匀速直线运动4秒后,在水平面做匀转弯运动,转弯角速度为0.286弧度/秒,持续时间5.5秒,机动后再次做近似匀速直线运动4.5秒;
图4(a)所示场景2中,目标以240米/秒的速度在水平面内做近似匀速直线运动4秒后,在三维空间内做滚筒机动(某一方向上做近似匀速直线运动,在垂直于该方向的平面内做近似匀速转弯运动),角速度为0.517弧度/秒,持续时间17秒,机动后再次做近似匀速直线运动4秒;
图5(a)所示场景3中,目标以240米/秒的速度在水平面内做近似匀速直线运动4秒后,在水平面内蛇形机动,转弯角速度做幅值为0.286弧度/秒的正弦变化,持续时间17秒,机动后再次匀速直线运动4秒;
图3(b)和图3(c),图4(b)和图4(c),图5(b)和图5(c)分别给出了场景1-3中视线俯仰角速度、视线方位角速度估计结果的RMSE对比图。从图中对比结果来看,相比于CV-SC模型或3D-CT-SC模型,本发明提出的方法基本上可以达到整个跟踪阶段的最优效果。其中,在场景1和场景2中,本发明提出的方法分别在非机动阶段和机动阶段达到了CV-SC模型或3D-CT-SC模型的估计精度,特别是最后的估计阶段,本发明提出的方法明显好于其他两种单模型方法;在场景3中,本发明提出的方法在整体上表现得更好,比其他两种模型更适合估计蛇形机动目标的视线角速度。
图3(d),图4(d),图5(d)分别给出了对应场景中本发明提出的多模型方法模型选择的结果。3D-CT-SC模型是描述滚筒机动的模型,当角速度向量与速度向量垂直时,模型退化为能够描述平面CT运动的模型,场景1、场景2验证了这一结论,从图3(d)、图4(d)可以看出,场景1、场景2中的机动阶段均正确选择了3D-CT-SC模型。另外,尽管3D-CT-SC模型也可以退化来描述CV运动,但是此时退化了的高阶模型的估计精度不如CV-SC模型,因此从模型选择的结果来看本发明提出的方法能够自适应选择最适合目标当前运动模式的模型,从而提高估计精度。而对于场景3中的蛇形机动,由于所选模型集中没有与之完全匹配的运动模型,图5(d)中的模型选择结果呈现出交替变化的现象,这是由于目标在蛇形机动的不同阶段,其实际运动模式交替式的更加符合CV-SC模型或3D-CT-SC模型,在目标从一个方向的转弯向另一个方向转弯过渡时,目标运动接近匀速直线运动,此时更符合CV-SC模型,而在蛇形机动的其他阶段则更符合3D-CT-SC模型。
本发明并不局限于上述实施例,在本发明公开的技术方案的基础上,本领域的技术人员根据所公开的技术内容,不需要创造性的劳动就可以对其中的一些技术特征作出一些替换和变形,这些替换和变形均在本发明的保护范围内。
Claims (9)
1.一种基于交互式多模型的捷联导引头视线角速度估计方法,其特征在于,包括以下步骤:
步骤1,构建交互式多模型算法的模型集:通过分析所要跟踪目标可能存在的运动模式,建立能够描述目标不同运动模式的视线角速度估计模型,并获取对应的离散时间估计模型,得到离散时间估计模型集;
步骤2,对所得到的离散时间估计模型集设置模型间的转移概率和模型的初始概率,并对离散时间估计模型集中各模型进行滤波初始化,根据不同模型状态维度进行维度对齐;
步骤3,利用上一时刻离散时间估计模型集中各模型的目标状态、协方差、模型概率和模型概率转移矩阵进行模型间的交互;
步骤4,建立导引头量测模型,利用离散时间估计模型集中的模型并行运行多个滤波器,使用容积卡尔曼滤波法处理离散时间估计模型集中模型以及导引头量测模型的强非线性问题;
步骤5,根据贝叶斯概率公式,更新模型概率,将离散时间估计模型集中各模型的状态估计与协方差矩阵进行维度对齐,融合各模型的状态估计及协方差,作为滤波结果。
2.根据权利要求1所述的一种基于交互式多模型的捷联导引头视线角速度估计方法,其特征在于,所述步骤1中,构建交互式多模型算法的模型集包括:非机动目标的扩维视线角速度离散时间估计模型,即CV-SC模型,以及机动目标的三维匀转弯目标视线角速度离散时间估计模型,即3D-CT-SC模型。
MBR计算如下:
m11=0,m22=0,m33=0
m12=-sinqλ,k-1wx,k-1-cosqλ,k-1wz,k-1
m13=-sinqγ,k-1cosqλ,k-1wx,k-1+cosqγ,k-1wy,k-1+sinqγ,k-1sinqλ,k-1wz,k-1
m23=-cosqγ,k-1cosqλ,k-1wx,k-1-sinqγ,k-1wy,k-1+cosqγ,k-1sinqλ,k-1wz,k-1
m21=-m12,m31=-m13,m32=-m23
5.根据权利要求1所述的一种基于交互式多模型的捷联导引头视线角速度估计方法,其特征在于,所述步骤2包括:
21)确定离散时间估计模型集中模型间的转移概率和初始概率:
22)滤波初始化:
将离散时间估计模型集中低维模型向高维模型对齐;
CV-SC模型假设目标做近匀速运动,故补充的三维转弯角速度均可设零;3D-CT-SC模型的三维转弯角速度根据先验信息进行初始化,或设零;
对于CV-SC模型和3D-CT-SC模型的前六维,可根据初始时刻笛卡尔系下目标、己方传感器的状态信息以及球坐标系下模型状态的定义,进行转换求解。
8.根据权利要求1所述的一种基于交互式多模型的捷联导引头视线角速度估计方法,其特征在于,所述步骤4,包括如下过程:
41)建立导引头量测模型:
其中,qα,qβ分别为捷联导引头在视线系下的俯仰角、方位角量测值,qγ,qλ分别为惯性系下的俯仰角、方位角,v1,v2为捷联导引头俯仰角,方位角量测噪声,Rij为惯性系到弹体系的坐标变换矩阵R的第i行j列的元素;
42)滤波器滤波:
9.根据权利要求1所述的一种基于交互式多模型的捷联导引头视线角速度估计方法,其特征在于,所述步骤5,包括如下过程:
51)计算离散时间估计模型集中各模型似然函数,更新模型概率:
根据贝叶斯概率公式,各模型概率更新如下:
52)融合各模型的状态估计和协方差:
对CV-SC模型和3D-CT-SC模型滤波后的状态估计和状态方差进行维度对齐,在CV-SC模型状态估计的七至九维处补零,在CV-SC模型状态估计的七至九维对应的方差处补充q倍的单位阵,用于保留CV-SC模型转弯角速度零均值的波动特性;使用对齐后的CV-SC模型和3D-CT-SC模型的状态估计协方差/>以及更新后的模型概率/>进行以下融合:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111554353.2A CN114237053B (zh) | 2021-12-17 | 2021-12-17 | 一种基于交互式多模型的捷联导引头视线角速度估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111554353.2A CN114237053B (zh) | 2021-12-17 | 2021-12-17 | 一种基于交互式多模型的捷联导引头视线角速度估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114237053A CN114237053A (zh) | 2022-03-25 |
CN114237053B true CN114237053B (zh) | 2023-07-04 |
Family
ID=80758358
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111554353.2A Active CN114237053B (zh) | 2021-12-17 | 2021-12-17 | 一种基于交互式多模型的捷联导引头视线角速度估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114237053B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107255924A (zh) * | 2017-06-14 | 2017-10-17 | 哈尔滨工业大学 | 基于扩维模型的容积卡尔曼滤波提取捷联导引头制导信息的方法 |
WO2020173105A1 (zh) * | 2019-02-28 | 2020-09-03 | 深圳大学 | 机动目标跟踪方法及装置 |
-
2021
- 2021-12-17 CN CN202111554353.2A patent/CN114237053B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107255924A (zh) * | 2017-06-14 | 2017-10-17 | 哈尔滨工业大学 | 基于扩维模型的容积卡尔曼滤波提取捷联导引头制导信息的方法 |
WO2020173105A1 (zh) * | 2019-02-28 | 2020-09-03 | 深圳大学 | 机动目标跟踪方法及装置 |
Non-Patent Citations (1)
Title |
---|
全捷联导引头视线角速度STCKF提取技术;白瑞;夏群利;张道驰;;红外与激光工程(第11期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114237053A (zh) | 2022-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109029433B (zh) | 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法 | |
CN110030994B (zh) | 一种基于单目的鲁棒性视觉惯性紧耦合定位方法 | |
Weiss | Vision based navigation for micro helicopters | |
CN110726406A (zh) | 一种改进的非线性优化单目惯导slam的方法 | |
CN108981693B (zh) | 基于单目相机的vio快速联合初始化方法 | |
Qi et al. | Autonomous landing solution of low-cost quadrotor on a moving platform | |
CN109343550B (zh) | 一种基于滚动时域估计的航天器角速度的估计方法 | |
Omari et al. | Metric visual-inertial navigation system using single optical flow feature | |
CN108490433A (zh) | 基于序贯滤波的空时偏差联合估计与补偿方法及系统 | |
JP3179355B2 (ja) | 多目標追尾方法及び多目標追尾装置 | |
CN113137968B (zh) | 基于多传感器融合的重定位方法、重定位装置和电子设备 | |
Santamaria-Navarro et al. | High-frequency MAV state estimation using low-cost inertial and optical flow measurement units | |
CN108917755B (zh) | 一种成像导引头视线角零位误差估计方法及装置 | |
Sommer et al. | Continuous-time estimation of attitude using b-splines on lie groups | |
CN111121770B (zh) | 一种交互式多弹多模型航迹融合方法 | |
CN115790580A (zh) | 基于变分贝叶斯自适应滤波的直升机着舰相对导航方法 | |
Kang et al. | Pose estimation of a non-cooperative spacecraft without the detection and recognition of point cloud features | |
Kehoe et al. | State estimation using optical flow from parallax-weighted feature tracking | |
CN114237053B (zh) | 一种基于交互式多模型的捷联导引头视线角速度估计方法 | |
Jo et al. | Mixture density-PoseNet and its application to monocular camera-based global localization | |
CN117369507A (zh) | 一种自适应粒子群算法的无人机动态路径规划方法 | |
Kehoe et al. | Partial aircraft state estimation from optical flow using non-model-based optimization | |
Alenya et al. | Fusing Visual and Inertial Sensing to Recover Robot Ego‐motion | |
Tong et al. | Cascade-LSTM-based visual-inertial navigation for magnetic levitation haptic interaction | |
Wang et al. | A line-of-sight rate estimation method for roll-pitch gimballed infrared seeker |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |