CN107993257A - 一种智能imm卡尔曼滤波前馈补偿目标追踪方法及系统 - Google Patents
一种智能imm卡尔曼滤波前馈补偿目标追踪方法及系统 Download PDFInfo
- Publication number
- CN107993257A CN107993257A CN201711462387.2A CN201711462387A CN107993257A CN 107993257 A CN107993257 A CN 107993257A CN 201711462387 A CN201711462387 A CN 201711462387A CN 107993257 A CN107993257 A CN 107993257A
- Authority
- CN
- China
- Prior art keywords
- mrow
- mtd
- mtr
- mover
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
Abstract
本发明属于光电跟踪及精密测量,导航定位技术领域,具体涉及一种智能IMM卡尔曼滤波前馈补偿目标追踪方法及系统,神经网络智能目标识别器识别出被跟踪目标类型,并对改进的智能IMM卡尔曼滤波器中在线运行的状态方程参数进行调整,使该滤波器具有自适应特性,使在线运行的状态模型方程与跟踪目标相匹配,利用多个基于不同模型的滤波器并行工作,对机动目标速度、加速度估计实时准确,从而获得较传统滤波更高的估计精度,由此构造的前馈补偿控制器能够获得更高的前馈补偿精度和控制性能。
Description
技术领域
本发明属于光电跟踪及精密测量,导航定位技术领域,涉及一种使用智能IMM卡尔曼滤波前馈补偿目标跟踪的方法及系统。
背景技术
随着反恐和安保形势的变化,空中威胁已经成为一个必须防范的方面。城市空中安保面临的空中威胁往往是所谓的“低慢小”目标,雷达难以探测,固定翼目标机动飞行的速度可达30~50m/s,飞行角速度较大,且存在机动。由于需要对飞行目标进行实时测距,以获取目标准确的距离和三维坐标信息,因此对光电跟踪系统的跟踪精度提出了很高的要求。在这种情况下,一般采用复合控制来提高地面光电跟踪系统的跟踪精度,复合控制系统是在双闭环控制系统基础上通过增加开环控制支路改进得到的高精度控制系统,如图1所示,在数字引导方式下前馈开环控制支路用来提供跟踪目标信号的一阶导数(速度)、二阶导数(加速度)等信息作用于速度回路,有利于提高系统性能。若前馈支路的校正形式与速度闭环回路满足一定关系,理论上便可达到无误差的跟踪。
常用对目标角位置Xi(s)直接微分的方式来获取目标信号的一阶导数和二阶导数,直接微分会在控制系统中引入噪声,对控制回路带来不利影响。有文献采用单一的卡尔曼滤波器估计目标速度、加速度信息形成前馈补偿量,较直接微分方式估计精度高,但对机动目标的估计精度不够。由于空中“低慢小”目标种类繁多,包括低空探空气球和系留气球、多旋翼无人机、固定翼无人机、低空动力三角翼等,运动特性复杂多样,例如固定翼无人机、低空动力三角翼飞行速度快、机动半径大,其轨迹曲线频率低、幅值较大,四旋翼无人机飞行速度慢,机动半径小,其轨迹曲线频率较高、幅值较小。采用单一的运动模型不能适应所有目标的飞行特性。因此需要一种更加精确实时有效的目标跟踪器。
发明内容
本发明的目的是提供一种智能IMM卡尔曼滤波前馈补偿目标追踪方法及系统,改进的智能IMM卡尔曼滤波器来在线估计目标运动角速率和角加速度信息,导出光电搜索跟踪系统观测方程,并将估计输出作为伺服前馈补偿回路的输入量进行实时控制,可以更加精确的追踪测量空中“低慢小”目标。
本发明的技术解决方案是提供一种智能IMM卡尔曼滤波前馈补偿目标追踪方法,包括以下步骤:
步骤一、跟踪相机捕捉到运动目标后,经过相应的图像处理,获取运动目标在图像中的像素位置及运动目标的图像特征信息;
步骤二、将步骤一得到的运动目标在图像中的像素位置转化为脱靶量角度信息与当前时刻方位、俯仰码盘信息结合,得到目标在参考坐标系的方位角和俯仰角,将方位角和俯仰角信息输入IMM卡尔曼滤波器;
将步骤一得到的运动目标的图像特征信息发送至神经网络目标识别器;
步骤三、神经网络目标识别器识别运动目标类型,针对不同的运动目标类型配置不同的IMM卡尔曼滤波器运动模型参数Q1、Q2…Qr、R1、R2…Rr及ω1、ω2…ωm;其中Q1、Q2…Qr表示r个加速方程对应的扰动方差,R1、R2…Rr为观测噪声方差阵;ω1、ω2…ωm表示m个匀速转弯方程对应的转弯速率;
步骤四、IMM卡尔曼滤波器在线估计目标最优运动角速率和角加速度信息;
4.1)、IMM卡尔曼滤波器将目标可能的运动模式映射为卡尔曼滤波模型集,模型集中的各个模型代表不同的运动模式;IMM卡尔曼滤波器包括r个不同的卡尔曼滤波模型;
模型通式为:
Xj(k+1)=Φj(k)Xj(k)+Gj(k)Wj(k) (1.1)
Z(k)=Hj(k)Xj(k)+Vj(k) (1.2)
式中,公式(1.1)代表第j个运动模型状态方程,公式(1.2)代表第j个运动模型量测方程,Xj(k)为k时刻状态向量,Φj(k)为k时刻状态矩阵,Gj(k)为k时刻噪声驱动矩阵,Wj(k)为k时刻系统噪声,Vj(k)为k时刻观测噪声,Hj(k)为k时刻观测矩阵,Z(k)为k时刻观测量。j=1,2,…r,Qj为对应于Wj(k)的系统噪声方差阵,Rj为对应于Vj(k)的观测噪声方差阵;
上述具体的运动模式包括:目标匀速运动、目标匀加速机动运动、目标匀速转弯运动;
目标匀速运动状态方程:
目标匀加速机动运动状态方程:
目标匀速转弯运动状态方程:
式中,x(k)、y(k)分别为k时刻目标方位角、俯仰角,为分别为k时刻目标方位角速率、俯仰角速率,为分别为k时刻目标方位角加速度、俯仰角加速度,T为采样时间间隔,Wj(k)为状态噪声,ω为转弯速率;
设计有n1个匀速运动方程,n2个匀加速运动方程,n3个匀速转弯运动方程,满足n1+n2+n3=r,每个运动方程对应不同的Qj和Rj,每个目标匀速转弯运动状态方程对应不同的转弯速率ωm,m=1,2,…n3;
4.2)将步骤三得到的运动模型参数Q1、Q2…Qr、R1、R2…Rr及ω1、ω2…ωm带入步骤4.1)对应的公式中,进行目标最优运动角速率和角加速度信息的在线估计,得到每一种运动目标典型运动特征下的最优运动角速率和角加速度参数;
步骤五:根据步骤四得到的最优运动角速率和角加速度参数作为伺服前馈补偿回路的输入量进行实时控制,驱动转台旋转,使相机视轴实时指向目标;
步骤六:当相机拍摄到下一幅图像时,重复步骤一至步骤五,获得目标持续最优运动角速率和角加速度参数估计,并持续进行伺服随动控制,实现目标跟踪。
优选地,在步骤一之前还包括训练神经网络目标识别器中运动目标类型及对应的运动模型参数的步骤:
具体为:
运动模型参数训练:
a)、根据光电跟踪系统的实际采样数据提取出目标运动轨迹特征,由软件模拟出用于训练的目标运动轨迹,生成轨迹数据;
b)、将生成的轨迹数据分别送入IMM卡尔曼滤波器及神经网络参数估计器,在IMM卡尔曼滤波器中对轨迹数据进行滤波运算;
c)、将经IMM卡尔曼滤波器滤波后的数据也送入神经网络参数估计器,神经网络参数估计器根据理论角度、角速度、角加速度和IMM卡尔曼滤波器滤波估计出的角度、角速度、角加速度比较,观测其误差值来调整IMM卡尔曼滤波器的滤波参数,经过多次训练,获得每一种运动目标典型运动特征下的Q1、Q2…Qr、R1、R2…Rr及及ω1、ω2…ωm;
运动目标类型训练:
d)、根据光电跟踪系统的实际采样图像数据提取目标特征,送入神经网络进行目标类型识别训练。
优选地,步骤4.2)具体为:
4.21)、将步骤三得到的运动模型参数Q1、Q2…Qr、R1、R2…Rr及及ω1、ω2…ωm带入步骤4.1)对应的公式中,进行目标最优运动角速率和角加速度信息的在线估计,得到r个不同的目标运动角速率和角加速度估计值;
4.22)、根据公式(4)得到最优运动角速率和角加速度参数估计;
式中,为单个卡尔曼滤波器获得的k时刻状态估计向量,为总的k时刻状态最优估计向量,λj(k)为似然函数,k/k表示由k时刻观测值到k时刻的状态估计;
利用公式(5)评估步骤4.22)的估计精度;
其中,P(k/k)为k时刻总的协方差矩阵,Pj(k/k)为k时刻单个卡尔曼滤波器的协方差矩阵。
优选地,在训练神经网络目标识别器中运动目标类型及对应的运动模型参数的步骤中:
步骤c)中误差值为:
式中,θm(k)、分别为方位或俯仰典型轨迹理想角度、角速度及角加速度,θ(k)、分别为方位或俯仰经IMM卡尔曼滤波后的角度、角速度及角加速度信号。
优选地,在训练神经网络目标识别器中运动目标类型及对应的运动模型参数的步骤中:
步骤c)中采用最速下降法获得RBF神经网络中隐含层高斯基函数参数及权值,最终求得接近最优的模型参数Q1、Q2…Qr、R1、R2…Rr及ω1、ω2…ωm。
本发明还提供一种实现上述的智能IMM卡尔曼滤波前馈补偿目标追踪方法的系统,其特殊之处在于:包括跟踪转台、转台负载及电子箱;
上述跟踪转台包括方位俯仰调节装置;
上述转台负载位于方位俯仰调节装置上,包括跟踪相机、变焦镜头及激光测距仪,用于获取目标图像及测距;
上述电子箱包括电源模块、转台伺服控制单元、时序控制单元、图像采集控制单元及GPU图像处理单元;
上述电源模块用于给系统供电;
上述转台伺服控制单元与方位俯仰调节装置连接,用于控制方位俯仰调节装置偏转运动;
上述时序控制单元用于完成整个系统的相机与伺服控制单元之间的时序控制;时序控制单元使相机曝光、处理与转台运动保持严格时序以提高跟踪精度。
上述图像采集控制单元用于采集图像;
上述GPU图像处理单元分别与时序控制单元、图像采集控制单元连接,GPU图像处理单元中包括神经网络目标识别器及IMM卡尔曼滤波器,用于对图像进行智能分析识别。
优选地,上述方位俯仰调节装置包括方位轴、俯仰轴、方位U形架及负载总成;
上述方位轴与方位U形架固连,能够带动方位U形架绕方位轴转动;
上述俯仰轴的两端固定在方位U形架的两个侧壁上,上述负载总成固定在上述俯仰轴上,俯仰轴转动能够带动负载总成转动;
上述跟踪相机、变焦镜头及激光测距仪位于负载总成上;
上述方位俯仰调节装置还包括与方位轴及俯仰轴对应的电机及编码器。
优选地,本发明系统还包括光电滑环,用于将图像信号、电源及控制信号传输到电子箱。
优选地,上述跟踪相机为高分辨率相机。
IMM卡尔曼滤波器将目标可能的运动模式映射为模型集,集合中的各个模型代表不同的机动模式。
神经网络智能目标识别器识别出被跟踪目标类型,并对IMM卡尔曼滤波器中在线运行的状态方程参数进行调整,使该滤波器具有自适应特性,使在线运行的状态模型方程与跟踪目标相匹配,利用多个基于不同模型的滤波器并行工作,对机动目标速度、加速度估计实时准确,较常规卡尔曼滤波估计精度高,能够有效提高伺服系统跟踪精度。
本发明的有益效果是:
1、本发明智能IMM卡尔曼滤波前馈补偿控制器的优势在于能够根据目标类型实时调整IMM卡尔曼滤波器状态方程与观测方程参数,使得IMM卡尔曼滤波器在线状态方程更接近空中目标真实的运动状态,从而获得较传统滤波更高的估计精度,由此构造的前馈补偿控制器能够获得更高的前馈补偿精度和控制性能;
2、本发明目标角速度、角加速度估计精度较单一模型高,可提高伺服前馈补偿精度从而提高伺服系统整体的目标跟踪精度;
3、由于智能IMM卡尔曼滤波跟踪器的自适应特性,对所有类型的空中“低慢小”目标均具有较高跟踪精度,可实现实时准确测距和坐标观测。
附图说明
图1是现有技术中基本复合控制系统原理框图;
图2是本发明智能IMM卡尔曼滤波前馈补偿目标跟踪器总原理框图;
图3是本发明目标跟踪器基本硬件组成;
图4是四旋翼无人机和固定翼无人机的轨迹机动特点;
图5是本发明智能IMM卡尔曼滤波器原理框图;
图6是本发明神经网络IMM卡尔曼滤波器最优参数估计模型;
图7是单通道智能IMM卡尔曼滤波前馈补偿控制器;
图8角速度估计仿真结果对比图,图中*为常规卡尔曼滤波估计误差,+为智能IMM卡尔曼滤波估计误差;
图9角加速度估计偏差仿真结果对比图,(抽取估计结果若干点),图中*为常规卡尔曼滤波估计误差,+为智能IMM卡尔曼滤波估计误差。
具体实施方式
以下结合附图及具体实施例对本发明做进一步的描述。
从图3中可以看出,本发明系统主要包括跟踪转台、转台负载及电子箱;跟踪转台包括方位俯仰调节装置,方位轴与方位U形架固连,能够带动方位U形架绕方位轴转动;俯仰轴的两端固定在方位U形架的两个侧壁上,负载总成固定在所述俯仰轴上,俯仰轴转动能够带动负载总成转动;跟踪相机、变焦镜头及激光测距仪位于负载总成上;方位俯仰调节装置还包括与方位轴及俯仰轴对应的电机及编码器。跟踪转台主要用于产生方位俯仰的偏转运动,以驱动视轴对准目标。
转台负载包括跟踪相机、变焦镜头及激光测距仪,跟踪相机、变焦镜头及激光测距仪均位于负载总成上,主要用于对目标的图像获取及激光测距;
电子箱包括电源模块、转台伺服控制单元、时序控制单元、图像采集控制单元及GPU图像处理单元;主要完成伺服控制运算、图像处理、智能分析识别等功能。
GPU图像处理单元分别与时序控制单元、图像采集控制单元连接,GPU图像处理单元中包括神经网络目标识别器及IMM卡尔曼滤波器,用于对图像进行智能分析识别。
从图4可以看出,对于不同类型的目标,其典型机动轨迹特性不同,如四旋翼无人机,飞行速度慢,转弯半径小,其典型机动轨迹对应幅值小、频率相对较高的正弦轨迹;固定翼无人机,飞行速度快、转弯半径大,其典型机动轨迹对应幅值较大、频率较低得正弦轨迹。
因此,本发明IMM卡尔曼滤波器将目标可能的运动模式映射为卡尔曼滤波模型集,模型集中的各个模型代表不同的运动模式;IMM卡尔曼滤波器包括r个不同的卡尔曼滤波模型;
模型通式为:
Xj(k+1)=Φj(k)Xj(k)+Gj(k)Wj(k) (1.1)
Z(k)=Hj(k)Xj(k)+Vj(k) (1.2)
式中,(1.1)代表第j个运动模型状态方程,(1.2)代表第j个运动模型量测方程;Xj(k)为k时刻状态向量,Φj(k)为k时刻状态矩阵,Gj(k)为k时刻噪声驱动矩阵,Wj(k)为k时刻系统噪声,Vj(k)为k时刻观测噪声,Hj(k)为k时刻观测矩阵,Z(k)为k时刻观测量;j=1,2,…r,Qj为对应于Wj(k)的系统噪声方差阵,Rj为对应于Vj(k)的观测噪声方差阵;
目标匀速运动方程如式(1)所示,双通道,x(k)、y(k)分别为k时刻目标方位角、俯仰角,为分别目标方位角速率、俯仰角速率,为分别目标方位角加速度、俯仰角加速度,T为采样时间间隔,Wj(k)为k时刻系统噪声。
目标匀加速机动运动方程为:
令
取不同的系统扰动噪声方差,对应不同的机动模型。
目标匀速转弯运动方程:
式中,ω为转弯速率,ω<0表示顺时针转弯运动模型,ω>0表示逆时针转弯运动模型;过程噪声矩阵与CV模型相同。
设计有n1个匀速运动方程,n2个匀加速运动方程,n3个匀速转弯运动方程,满足n1+n2+n3=r,每个运动方程对应不同的Qj和Rj,每个目标匀速转弯运动状态方程对应不同的转弯速率ωm,m=1,2,…n3;
目标匀速、加速及转弯模型构成机动目标滤波模型,一共有r个卡尔曼滤波模型,各模型之间的转移由马尔可夫概率转移矩阵确定,其中的pij表示目标由第i个运动模型转移到第j个运动模型的概率。
其中,Q1、Q2…Qr表示r个运动方程对应的系统噪声方差,R1、R2…Rr表示r个运动方程对应的观测噪声方差,ω1、ω2…ωm表示m个匀速转弯方程对应的转弯速率。
从图5可以看出,本发明IMM卡尔曼滤波器和传统IMM卡尔曼滤波器的区别在于,智能IMM卡尔曼滤波器在线运行的目标状态方程类型是自动匹配的,其目标加速模型参数Q1、Q2…Qr、R1、R2…Rr和匀速转弯模型参数ω1、ω2…ωm是可调整的。
具体追踪过程如下:
步骤一、跟踪相机捕捉到运动目标后,经过相应的图像处理,获取运动目标在图像中的像素位置,再结合当前时刻方位、俯仰码盘信息得到目标在参考坐标系的方位角和俯仰角,将该信息作为IMM卡尔曼滤波器的输入量;
同时,若目标在图像可识别范围内,则图像处理会对目标进行多特征提取,比如提取颜色特征、纹理特征、角点特征等,以此特征作为神经网络目标识别器的输入信息,进而识别出运动目标类型,针对不同的运动目标类型配置不同的IMM卡尔曼滤波器运动模型参数Q1、Q2…Qr、R1、R2…Rr及ω1、ω2…ωm。
除了配置模型参数,也可以根据不同目标的类型来调整参与在线滤波的状态方程的数量,有些目标典型运动模型较简单,可以用较少的运动方程表示,有些目标典型运动轨迹较复杂,则需要用较多数量的状态方程来描述。
步骤二、神经网络目标识别器识别运动目标类型,针对不同的运动目标类型配置不同的IMM卡尔曼滤波器运动模型参数Q1、Q2…Qr、R1、R2…Rr及ω1、ω2…ωm;
步骤三、IMM卡尔曼滤波器在线估计目标最优运动角速率和角加速度信息;将步骤三得到的运动模型参数Q1、Q2…Qr、R1、R2…Rr及ω1、ω2…ωm带入r个不同的卡尔曼滤波模型对应的公式中,进行目标最优运动角速率和角加速度信息的在线估计,得到每一种运动目标典型运动特征下的最优运动角速率和角加速度参数;
采用似然函数来更新模型概率λj(k),模型j的似然函数为:
其中,
Mj(k)=H(k)Pj(k/k-1)H(k)T+R(k)(2.6)
模型j的概率为:
其中 为模型j的预测概率归一化常数。
则r个卡尔曼滤波的总的状态估计为:
总的协方差估计:
步骤四、根据步骤三得到的最优运动角速率和角加速度参数作为伺服前馈补偿回路的输入量进行实时控制,驱动转台旋转,使相机视轴实时指向目标;
步骤五、当相机拍摄到下一幅图像时,重复步骤五,获得目标持续最优运动角速率和角加速度参数估计,并持续进行伺服随动控制,实现目标跟踪。
在具体追踪过程之前,还需要对神经网络目标识别器进行运动目标类型识别训练及对应的运动模型参数识别过程;如图6所示,为获得每种典型目标运动模型IMM卡尔曼滤波的优质参数,采用神经网络训练来完成。
首先针对不同类型的目标,如四旋翼无人机、固定翼无人机、探空气球、动力三角翼等,由实际采样数据提取出轨迹特征,根据轨迹特征(如曲线运动幅值、频率范围、加减速范围等)由软件模拟出用于训练的目标运动轨迹,生成的轨迹数据一方面送入IMM卡尔曼滤波器进行滤波运算,另一方面送入神经网络参数估计器,IMM卡尔曼滤波后的数据也送入神经网络参数估计器,神经网络参数估计器根据理论角度、角速度、角加速度和IMM卡尔曼滤波估计出的角度、角速度、角加速度比较,观测其误差值来调整IMM卡尔曼滤波器的滤波参数,经过多次训练,获得每一种运动目标典型运动特征下的最优参数。
用于训练RBF神经网络的误差为:
式中,θm(k)、分别为方位或俯仰典型轨迹理想角度、角速度及角加速度,θ(k)、分别为方位或俯仰经IMM卡尔曼滤波后的角度、角速度及角加速度信号。
取性能指标函数为:
采用最速下降法求出RBF神经网络中隐含层高斯基函数参数及权值,最终求得接近最优的模型参数Q1、Q2…Qn及ω1、ω2…ωm。
采用直接微分方式获取一阶、二阶导数会产生较大的噪声,采用IMM卡尔曼滤波估计代替传统微分方式获取目标运动信息作为前馈补偿输入量,可以得到更好的跟踪控制效果和控制精度,其控制模型如图7所示。
图7中,Kp、Ki、Kd为PID控制参数,Kv、Ka、Kaa为角速度、角加速度、角加速度变化量前馈补偿控制系数。理论上,适当配置Kv、Ka可以做到输出对速度、加速度输入的无静差跟踪。适当配置Kv、Ka、Kaa可以实现对加速度变化量的无静差跟踪。
图2所示,相机捕捉目标图像后,经过图像处理,获取目标质心相对于相机中心的偏移量,结合方位俯仰码盘获得目标在光电跟踪系统坐标系中的角位置,连续角位置形成角轨迹,作为卡尔曼滤波器的输入;另一方面,图像处理获得的目标图像特征送入神经网络目标识别器进行目标识别及参数配置,可获得当前目标类型及与该类目标对应的较优的IMM卡尔曼滤波器参数,将该组参数配置到IMM卡尔曼滤波器中进行目标运动状态参数估计,IMM卡尔曼滤波器输出滤波后的视线方位角、视线俯仰角、方位角速度、角加速度及俯仰角速度、角加速度,作为伺服控制部分前馈控制器的输入量,伺服控制部分包括电流环(集成在功率放大中)、速度环、位置环及前馈控制部分,电流环采集母线电流进行反馈,速度环由方位角速率测量装置、俯仰角速率测量装置测得转台方位俯仰角速率进行反馈,位置环由方位角位置测量装置、俯仰角位置测量装置测得转台方位俯仰角位置进行反馈。前馈控制部分由方位前馈补偿控制器和俯仰前馈补偿控制器组成,能接收卡尔曼滤波输出信号形成前馈补偿控制量(具体如图7所示),方位角位置控制器和俯仰角位置控制器分别进行位置PID控制,方位角速率控制器和俯仰角速率控制器分别进行速度PID控制,速度PID控制信号经电流环及功率放大后驱动方位电机执行机构和俯仰电机执行机构旋转,使相机视轴指实时向目标方向。
采用MATLAB建立某型无人机目标S机动模型,并分别采用常规卡尔曼滤波与IMM卡尔曼滤波对目标运动角速度及角加速度进行估计,对比仿真结果如图8、图9所示。
仿真结果表明,采用智能IMM卡尔曼滤波器估计机动目标运动角速度与角加速度要比直接微分方式及常规卡尔曼滤波估计精度更高,因此更合适作为前馈控制补偿量。IMM滤波器组中的卡尔曼滤波单元由于采用了无迹卡尔曼滤波,所以对机动目标的非线性有一定的适应能力。
Claims (9)
1.一种智能IMM卡尔曼滤波前馈补偿目标追踪方法,其特征在于,包括以下步骤:
步骤一、跟踪相机捕捉到运动目标后,经过相应的图像处理,获取运动目标在图像中的像素位置及运动目标的图像特征信息;
步骤二、将步骤一得到的运动目标在图像中的像素位置转化为脱靶量角度信息与当前时刻方位、俯仰码盘信息结合,得到目标在参考坐标系的方位角和俯仰角,将方位角和俯仰角信息输入IMM卡尔曼滤波器;
将步骤一得到的运动目标的图像特征信息发送至神经网络目标识别器;
步骤三、神经网络目标识别器识别运动目标类型,针对不同的运动目标类型配置不同的IMM卡尔曼滤波器运动模型参数Q1、Q2…Qr、R1、R2…Rr及ω1、ω2…ωm;其中Q1、Q2…Qr表示r个运动方程对应的扰动方差,R1、R2…Rr为观测噪声方差阵;ω1、ω2…ωm表示m个匀速转弯方程对应的转弯速率;
步骤四、IMM卡尔曼滤波器在线估计目标最优运动角速率和角加速度信息;
4.1)、IMM卡尔曼滤波器将目标可能的运动模式映射为卡尔曼滤波模型集,模型集中的各个模型代表不同的运动模式;IMM卡尔曼滤波器包括r个不同的卡尔曼滤波模型;
所述具体的运动模式包括:目标匀速运动、目标匀加速机动运动、目标匀速转弯运动;
目标匀速运动状态方程:
<mrow>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>y</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mover>
<mi>x</mi>
<mo>&CenterDot;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mover>
<mi>y</mi>
<mo>&CenterDot;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mi>T</mi>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mi>T</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>y</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mover>
<mi>x</mi>
<mo>&CenterDot;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mover>
<mi>y</mi>
<mo>&CenterDot;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>+</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>T</mi>
<mo>/</mo>
<mn>2</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>T</mi>
<mo>/</mo>
<mn>2</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<msub>
<mi>W</mi>
<mi>j</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
目标匀加速机动运动状态方程:
<mrow>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>y</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mover>
<mi>x</mi>
<mo>&CenterDot;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mover>
<mi>y</mi>
<mo>&CenterDot;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mover>
<mi>x</mi>
<mo>&CenterDot;&CenterDot;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mover>
<mi>y</mi>
<mo>&CenterDot;&CenterDot;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mi>T</mi>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<msup>
<mi>T</mi>
<mn>2</mn>
</msup>
<mo>/</mo>
<mn>2</mn>
</mrow>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mi>T</mi>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<msup>
<mi>T</mi>
<mn>2</mn>
</msup>
<mo>/</mo>
<mn>2</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mi>T</mi>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mi>T</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>y</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mover>
<mi>x</mi>
<mo>&CenterDot;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mover>
<mi>y</mi>
<mo>&CenterDot;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mover>
<mi>x</mi>
<mo>&CenterDot;&CenterDot;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mover>
<mi>y</mi>
<mo>&CenterDot;&CenterDot;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>+</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<msup>
<mi>T</mi>
<mn>2</mn>
</msup>
<mo>/</mo>
<mn>4</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msup>
<mi>T</mi>
<mn>2</mn>
</msup>
<mo>/</mo>
<mn>4</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>T</mi>
<mo>/</mo>
<mn>2</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>T</mi>
<mo>/</mo>
<mn>2</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<msub>
<mi>W</mi>
<mi>j</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
目标匀速转弯运动状态方程:
<mrow>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>y</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mover>
<mi>x</mi>
<mo>&CenterDot;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mover>
<mi>y</mi>
<mo>&CenterDot;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<mi>s</mi>
<mi>i</mi>
<mi>n</mi>
<mrow>
<mo>(</mo>
<mi>&omega;</mi>
<mi>T</mi>
<mo>)</mo>
</mrow>
<mo>/</mo>
<mi>&omega;</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>(</mo>
<mi>c</mi>
<mi>o</mi>
<mi>s</mi>
<mo>(</mo>
<mrow>
<mi>&omega;</mi>
<mi>T</mi>
</mrow>
<mo>)</mo>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
<mo>/</mo>
<mi>&omega;</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<mi>c</mi>
<mi>o</mi>
<mi>s</mi>
<mo>(</mo>
<mrow>
<mi>&omega;</mi>
<mi>T</mi>
</mrow>
<mo>)</mo>
<mo>)</mo>
<mo>/</mo>
<mi>&omega;</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>sin</mi>
<mrow>
<mo>(</mo>
<mi>&omega;</mi>
<mi>T</mi>
<mo>)</mo>
</mrow>
<mo>/</mo>
<mi>&omega;</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<mi>cos</mi>
<mrow>
<mo>(</mo>
<mi>&omega;</mi>
<mi>T</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mi>sin</mi>
<mrow>
<mo>(</mo>
<mi>&omega;</mi>
<mi>T</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<mi>sin</mi>
<mrow>
<mo>(</mo>
<mi>&omega;</mi>
<mi>T</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>cos</mi>
<mrow>
<mo>(</mo>
<mi>&omega;</mi>
<mi>T</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>y</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mover>
<mi>x</mi>
<mo>&CenterDot;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mover>
<mi>y</mi>
<mo>&CenterDot;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>+</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>T</mi>
<mo>/</mo>
<mn>2</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>T</mi>
<mo>/</mo>
<mn>2</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<msub>
<mi>W</mi>
<mi>j</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
式中,x(k)、y(k)分别为k时刻目标方位角、俯仰角,为分别为k时刻目标方位角速率、俯仰角速率,为分别为k时刻目标方位角加速度、俯仰角加速度,T为采样时间间隔,Wj(k)为状态噪声,ω为转弯速率;
设计有n1个匀速运动方程,n2个匀加速运动方程,n3个匀速转弯运动方程,满足n1+n2+n3=r,每个运动方程对应不同的Qj和Rj,每个目标匀速转弯运动状态方程对应不同的转弯速率ωm,m=1,2,…n3;
4.2)将步骤三得到的运动模型参数Q1、Q2…Qr、R1、R2…Rr及ω1、ω2…ωm带入步骤4.1)对应的公式中,进行目标最优运动角速率和角加速度信息的在线估计,得到每一种运动目标典型运动特征下的最优运动角速率和角加速度,运动角速率包括方位角速率与俯仰角速率,角加速度包括方位角加速度与俯仰角加速度;
步骤五:根据步骤四得到的最优运动角速率和角加速度参数作为伺服前馈补偿回路的输入量进行实时控制,驱动转台旋转,使相机视轴实时指向目标;
步骤六:当相机拍摄到下一幅图像时,重复步骤一至步骤五,获得目标持续最优运动角速率和角加速度参数估计,并持续进行伺服随动控制,实现目标跟踪。
2.根据权利要求1所述的一种智能IMM卡尔曼滤波前馈补偿目标追踪方法,其特征在于:在步骤一之前还包括训练神经网络目标识别器中运动目标类型及对应的运动模型参数的步骤:
具体为:
a)、根据光电跟踪系统的实际采样数据提取出目标运动轨迹特征,由软件模拟出用于训练的目标运动轨迹,生成轨迹数据;
b)、将生成的轨迹数据分别送入IMM卡尔曼滤波器及神经网络参数估计器,在IMM卡尔曼滤波器中对轨迹数据进行滤波运算;
c)、将经IMM卡尔曼滤波器滤波后的数据也送入神经网络参数估计器,神经网络参数估计器根据理论角度、角速度、角加速度和IMM卡尔曼滤波器滤波估计出的角度、角速度、角加速度比较,观测其误差值来调整IMM卡尔曼滤波器的滤波参数,经过多次训练,获得每一种运动目标典型运动特征下的Q1、Q2…Qr、R1、R2…Rr及及ω1、ω2…ωm;
d)、根据光电跟踪系统的实际采样图像数据提取目标特征,送入神经网络进行目标类型识别训练。
3.根据权利要求2所述的一种智能IMM卡尔曼滤波前馈补偿目标追踪方法,其特征在于,步骤4.2)具体为:
4.21)、将步骤三得到的运动模型参数Q1、Q2…Qr、R1、R2…Rr及及ω1、ω2…ωm带入步骤4.1)对应的公式中,进行目标最优运动角速率和角加速度信息的在线估计,得到r个不同的目标运动角速率和角加速度估计值;
4.22)、根据公式(4)得到总的最优运动角速率和角加速度参数估计;
<mrow>
<mover>
<mi>X</mi>
<mo>^</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>/</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>r</mi>
</munderover>
<msub>
<mover>
<mi>X</mi>
<mo>^</mo>
</mover>
<mi>j</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>/</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<msub>
<mi>&lambda;</mi>
<mi>j</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
</mrow>
式中,为单个卡尔曼滤波器获得的k时刻状态估计向量,为总的k时刻状态最优估计向量,λj(k)为似然函数,k/k表示由k时刻观测值到k时刻的状态估计;
利用公式(5)评估步骤4.22)的估计精度;
<mrow>
<mtable>
<mtr>
<mtd>
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>/</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>r</mi>
</munderover>
<msub>
<mi>&lambda;</mi>
<mi>j</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>{</mo>
<msub>
<mi>P</mi>
<mi>j</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>/</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mo>&lsqb;</mo>
<msub>
<mover>
<mi>X</mi>
<mo>^</mo>
</mover>
<mi>j</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>/</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mover>
<mi>X</mi>
<mo>^</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>/</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
<mo>&CenterDot;</mo>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msup>
<mrow>
<mo>&lsqb;</mo>
<msub>
<mover>
<mi>X</mi>
<mo>^</mo>
</mover>
<mi>j</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>/</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mover>
<mi>X</mi>
<mo>^</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>/</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
</mrow>
<mi>T</mi>
</msup>
<mo>}</mo>
</mrow>
</mtd>
</mtr>
</mtable>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,P(k/k)为k时刻总的协方差矩阵,Pj(k/k)为k时刻单个卡尔曼滤波器的协方差矩阵。
4.根据权利要求3所述的一种智能IMM卡尔曼滤波前馈补偿目标追踪方法,其特征在于,步骤c)中误差值为:
<mrow>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>e</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>&theta;</mi>
<mi>m</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>&theta;</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mover>
<mi>e</mi>
<mo>&CenterDot;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mover>
<mi>&theta;</mi>
<mo>&CenterDot;</mo>
</mover>
<mi>m</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mover>
<mi>&theta;</mi>
<mo>&CenterDot;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mover>
<mi>e</mi>
<mo>&CenterDot;&CenterDot;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mover>
<mi>&theta;</mi>
<mo>&CenterDot;&CenterDot;</mo>
</mover>
<mi>m</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mover>
<mi>&theta;</mi>
<mo>&CenterDot;&CenterDot;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>6</mn>
<mo>)</mo>
</mrow>
</mrow>
式中,θm(k)、分别为方位或俯仰典型轨迹理想角度、角速度及角加速度,θ(k)、分别为方位或俯仰经IMM卡尔曼滤波后的角度、角速度及角加速度信号。
5.根据权利要求4所述的一种智能IMM卡尔曼滤波前馈补偿目标追踪方法,其特征在于:步骤c)中采用最速下降法获得RBF神经网络中隐含层高斯基函数参数及权值,最终求得接近最优的模型参数Q1、Q2…Qr、R1、R2…Rr及ω1、ω2…ωm。
6.一种实现权利要求1-5任一所述的智能IMM卡尔曼滤波前馈补偿目标追踪方法的系统,其特征在于:包括跟踪转台、转台负载及电子箱;
所述跟踪转台包括方位俯仰调节装置;
所述转台负载位于方位俯仰调节装置上,包括跟踪相机、变焦镜头及激光测距仪,用于获取目标图像及测距;
所述电子箱包括电源模块、转台伺服控制单元、时序控制单元、图像采集控制单元及GPU图像处理单元;
所述电源模块用于给系统供电;
所述转台伺服控制单元与方位俯仰调节装置连接,用于控制方位俯仰调节装置偏转运动;
所述时序控制单元用于完成整个系统的相机与伺服控制单元之间的时序控制;
所述图像采集控制单元用于采集图像;
所述GPU图像处理单元分别与时序控制单元、图像采集控制单元连接,GPU图像处理单元中包括神经网络目标识别器及IMM卡尔曼滤波器,用于对图像进行智能分析识别。
7.根据权利要求6所述的一种实现权利要求1-5任一所述的智能IMM卡尔曼滤波前馈补偿目标追踪方法的系统,其特征在于:所述方位俯仰调节装置包括方位轴、俯仰轴、方位U形架及负载总成;
所述方位轴与方位U形架固连,能够带动方位U形架绕方位轴转动;
所述俯仰轴的两端固定在方位U形架的两个侧壁上,所述负载总成固定在所述俯仰轴上,俯仰轴转动能够带动负载总成转动;
所述跟踪相机、变焦镜头及激光测距仪位于负载总成上;
所述方位俯仰调节装置还包括与方位轴及俯仰轴对应的电机及编码器。
8.根据权利要求7所述的一种实现权利要求1-5任一所述的智能IMM卡尔曼滤波前馈补偿目标追踪方法的系统,其特征在于:还包括光电滑环,用于将图像信号、电源及控制信号传输到电子箱。
9.根据权利要求8所述的一种实现权利要求1-5任一所述的智能IMM卡尔曼滤波前馈补偿目标追踪方法的系统,其特征在于:所述跟踪相机为高分辨率相机。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711462387.2A CN107993257B (zh) | 2017-12-28 | 2017-12-28 | 一种智能imm卡尔曼滤波前馈补偿目标追踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711462387.2A CN107993257B (zh) | 2017-12-28 | 2017-12-28 | 一种智能imm卡尔曼滤波前馈补偿目标追踪方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107993257A true CN107993257A (zh) | 2018-05-04 |
CN107993257B CN107993257B (zh) | 2020-05-19 |
Family
ID=62042084
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711462387.2A Active CN107993257B (zh) | 2017-12-28 | 2017-12-28 | 一种智能imm卡尔曼滤波前馈补偿目标追踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107993257B (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109102522A (zh) * | 2018-07-13 | 2018-12-28 | 北京航空航天大学 | 一种目标跟踪方法及装置 |
CN109597092A (zh) * | 2018-11-15 | 2019-04-09 | 上海宇航系统工程研究所 | 一种采用复合控制的空间高精度光电跟瞄系统 |
CN109781118A (zh) * | 2019-03-08 | 2019-05-21 | 兰州交通大学 | 一种无人车的位置跟踪方法 |
CN109886323A (zh) * | 2019-01-31 | 2019-06-14 | 中国地质大学(武汉) | 一种用于测试运动轨迹滤波算法的装置 |
CN110033047A (zh) * | 2019-04-18 | 2019-07-19 | 苏州临点三维科技有限公司 | 一种非接触式三维测量系统 |
CN110307841A (zh) * | 2019-06-14 | 2019-10-08 | 南京工程学院 | 一种基于信息量测不完全的车辆运动参数估计方法 |
CN110876275A (zh) * | 2019-04-30 | 2020-03-10 | 深圳市大疆创新科技有限公司 | 一种瞄准控制方法、移动机器人及计算机可读存储介质 |
CN111862165A (zh) * | 2020-06-17 | 2020-10-30 | 南京理工大学 | 一种基于深度强化学习更新卡尔曼滤波器的目标追踪方法 |
CN111913175A (zh) * | 2020-07-02 | 2020-11-10 | 哈尔滨工程大学 | 一种传感器短暂失效下带补偿机制的水面目标跟踪方法 |
CN112197803A (zh) * | 2020-09-29 | 2021-01-08 | 北京环境特性研究所 | 船载光电传感器控制方法和装置 |
CN112229405A (zh) * | 2020-01-10 | 2021-01-15 | 四川傲势科技有限公司 | 一种基于图像跟踪与激光测距的无人机目标运动估计方法 |
CN112444266A (zh) * | 2019-08-27 | 2021-03-05 | 北京初速度科技有限公司 | 一种参数的标定方法及装置 |
CN112465877A (zh) * | 2020-12-09 | 2021-03-09 | 北京航空航天大学 | 一种基于运动状态估计的卡尔曼滤波视觉追踪稳定方法 |
CN113269301A (zh) * | 2021-04-27 | 2021-08-17 | 北方工业大学 | 基于神经网络估计多目标跟踪系统参数的方法及系统 |
CN113848979A (zh) * | 2021-10-12 | 2021-12-28 | 苏州大学 | 基于前馈补偿pid控制的无人机复杂动态目标追踪方法 |
CN113890977A (zh) * | 2021-10-13 | 2022-01-04 | 中国电子科技集团公司第三研究所 | 机载视频处理装置及具有其的无人机 |
CN114123894A (zh) * | 2021-11-19 | 2022-03-01 | 九江精密测试技术研究所 | 一种基于卡尔曼的转位机构三环控制方法 |
CN114384535A (zh) * | 2022-01-11 | 2022-04-22 | 江苏亮点光电研究有限公司 | 目标追踪反窥探系统 |
WO2022087998A1 (zh) * | 2020-10-30 | 2022-05-05 | 网络通信与安全紫金山实验室 | 通信终端的定位跟踪方法、系统、设备和可读存储介质 |
US20220179094A1 (en) * | 2018-06-05 | 2022-06-09 | Pony Ai Inc. | Systems and methods for implementing a tracking camera system onboard an autonomous vehicle |
CN116030099A (zh) * | 2023-03-31 | 2023-04-28 | 北京尚优力达科技有限公司 | 一种基于ptz相机的多目标跟踪方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020177951A1 (en) * | 2001-05-23 | 2002-11-28 | Nokia Mobile Phones | Two-stage interacting multiple models filter for use in a global positioning system |
US20090243920A1 (en) * | 2008-04-01 | 2009-10-01 | Seiko Epson Corporation | Positioning method, program, and positioning apparatus |
CN102568004A (zh) * | 2011-12-22 | 2012-07-11 | 南昌航空大学 | 一种高机动目标跟踪算法 |
CN103363993A (zh) * | 2013-07-06 | 2013-10-23 | 西北工业大学 | 一种基于无迹卡尔曼滤波的飞机角速率信号重构方法 |
CN104777747A (zh) * | 2014-01-15 | 2015-07-15 | 中国人民解放军海军工程大学 | 基于平方根容积卡尔曼滤波的光电跟踪转台滑模控制方法 |
-
2017
- 2017-12-28 CN CN201711462387.2A patent/CN107993257B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020177951A1 (en) * | 2001-05-23 | 2002-11-28 | Nokia Mobile Phones | Two-stage interacting multiple models filter for use in a global positioning system |
US20090243920A1 (en) * | 2008-04-01 | 2009-10-01 | Seiko Epson Corporation | Positioning method, program, and positioning apparatus |
CN102568004A (zh) * | 2011-12-22 | 2012-07-11 | 南昌航空大学 | 一种高机动目标跟踪算法 |
CN103363993A (zh) * | 2013-07-06 | 2013-10-23 | 西北工业大学 | 一种基于无迹卡尔曼滤波的飞机角速率信号重构方法 |
CN104777747A (zh) * | 2014-01-15 | 2015-07-15 | 中国人民解放军海军工程大学 | 基于平方根容积卡尔曼滤波的光电跟踪转台滑模控制方法 |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220179094A1 (en) * | 2018-06-05 | 2022-06-09 | Pony Ai Inc. | Systems and methods for implementing a tracking camera system onboard an autonomous vehicle |
CN109102522A (zh) * | 2018-07-13 | 2018-12-28 | 北京航空航天大学 | 一种目标跟踪方法及装置 |
CN109102522B (zh) * | 2018-07-13 | 2021-08-31 | 北京航空航天大学 | 一种目标跟踪方法及装置 |
CN109597092A (zh) * | 2018-11-15 | 2019-04-09 | 上海宇航系统工程研究所 | 一种采用复合控制的空间高精度光电跟瞄系统 |
CN109886323A (zh) * | 2019-01-31 | 2019-06-14 | 中国地质大学(武汉) | 一种用于测试运动轨迹滤波算法的装置 |
CN109781118A (zh) * | 2019-03-08 | 2019-05-21 | 兰州交通大学 | 一种无人车的位置跟踪方法 |
CN110033047B (zh) * | 2019-04-18 | 2023-06-16 | 联恒光科(苏州)智能技术有限公司 | 一种非接触式三维测量系统 |
CN110033047A (zh) * | 2019-04-18 | 2019-07-19 | 苏州临点三维科技有限公司 | 一种非接触式三维测量系统 |
CN110876275A (zh) * | 2019-04-30 | 2020-03-10 | 深圳市大疆创新科技有限公司 | 一种瞄准控制方法、移动机器人及计算机可读存储介质 |
CN110307841A (zh) * | 2019-06-14 | 2019-10-08 | 南京工程学院 | 一种基于信息量测不完全的车辆运动参数估计方法 |
CN110307841B (zh) * | 2019-06-14 | 2023-02-03 | 南京工程学院 | 一种基于信息量测不完全的车辆运动参数估计方法 |
CN112444266A (zh) * | 2019-08-27 | 2021-03-05 | 北京初速度科技有限公司 | 一种参数的标定方法及装置 |
CN112444266B (zh) * | 2019-08-27 | 2023-04-14 | 北京魔门塔科技有限公司 | 一种参数的标定方法及装置 |
CN112229405B (zh) * | 2020-01-10 | 2024-03-26 | 四川傲势科技有限公司 | 一种基于图像跟踪与激光测距的无人机目标运动估计方法 |
CN112229405A (zh) * | 2020-01-10 | 2021-01-15 | 四川傲势科技有限公司 | 一种基于图像跟踪与激光测距的无人机目标运动估计方法 |
CN111862165A (zh) * | 2020-06-17 | 2020-10-30 | 南京理工大学 | 一种基于深度强化学习更新卡尔曼滤波器的目标追踪方法 |
CN111862165B (zh) * | 2020-06-17 | 2022-10-21 | 南京理工大学 | 一种基于深度强化学习更新卡尔曼滤波器的目标追踪方法 |
CN111913175A (zh) * | 2020-07-02 | 2020-11-10 | 哈尔滨工程大学 | 一种传感器短暂失效下带补偿机制的水面目标跟踪方法 |
CN112197803A (zh) * | 2020-09-29 | 2021-01-08 | 北京环境特性研究所 | 船载光电传感器控制方法和装置 |
WO2022087998A1 (zh) * | 2020-10-30 | 2022-05-05 | 网络通信与安全紫金山实验室 | 通信终端的定位跟踪方法、系统、设备和可读存储介质 |
CN112465877A (zh) * | 2020-12-09 | 2021-03-09 | 北京航空航天大学 | 一种基于运动状态估计的卡尔曼滤波视觉追踪稳定方法 |
CN113269301A (zh) * | 2021-04-27 | 2021-08-17 | 北方工业大学 | 基于神经网络估计多目标跟踪系统参数的方法及系统 |
CN113269301B (zh) * | 2021-04-27 | 2023-08-08 | 北方工业大学 | 基于神经网络估计多目标跟踪系统参数的方法及系统 |
CN113848979B (zh) * | 2021-10-12 | 2023-01-17 | 苏州大学 | 基于前馈补偿pid控制的无人机复杂动态目标追踪方法 |
CN113848979A (zh) * | 2021-10-12 | 2021-12-28 | 苏州大学 | 基于前馈补偿pid控制的无人机复杂动态目标追踪方法 |
CN113890977A (zh) * | 2021-10-13 | 2022-01-04 | 中国电子科技集团公司第三研究所 | 机载视频处理装置及具有其的无人机 |
CN114123894A (zh) * | 2021-11-19 | 2022-03-01 | 九江精密测试技术研究所 | 一种基于卡尔曼的转位机构三环控制方法 |
CN114384535A (zh) * | 2022-01-11 | 2022-04-22 | 江苏亮点光电研究有限公司 | 目标追踪反窥探系统 |
CN116030099A (zh) * | 2023-03-31 | 2023-04-28 | 北京尚优力达科技有限公司 | 一种基于ptz相机的多目标跟踪方法及装置 |
CN116030099B (zh) * | 2023-03-31 | 2023-08-08 | 北京尚优力达科技有限公司 | 一种基于ptz相机的多目标跟踪方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN107993257B (zh) | 2020-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107993257A (zh) | 一种智能imm卡尔曼滤波前馈补偿目标追踪方法及系统 | |
CN110222581B (zh) | 一种基于双目相机的四旋翼无人机视觉目标跟踪方法 | |
CN105549614B (zh) | 无人机目标跟踪方法 | |
Baca et al. | Autonomous landing on a moving car with unmanned aerial vehicle | |
CN207374643U (zh) | 一种基于自主循迹取物运输系统的四旋翼飞行器 | |
Shirzadeh et al. | Vision-based control of a quadrotor utilizing artificial neural networks for tracking of moving targets | |
CN108453738A (zh) | 一种基于Opencv图像处理的四旋翼飞行器空中自主抓取作业的控制方法 | |
Cai et al. | Path planning for UAV tracking target based on improved A-star algorithm | |
Hanover et al. | Autonomous drone racing: A survey | |
Zhao et al. | Vision-based tracking control of quadrotor with backstepping sliding mode control | |
Fu et al. | Autonomous landing of a quadrotor on an UGV | |
Hoang et al. | Vision-based target tracking and autonomous landing of a quadrotor on a ground vehicle | |
Battiato et al. | A system for autonomous landing of a UAV on a moving vehicle | |
Yang et al. | Image-based visual servo tracking control of a ground moving target for a fixed-wing unmanned aerial vehicle | |
Cristescu et al. | Leader-follower string formation using cascade control for mobile robots | |
Proctor et al. | Vision‐only control and guidance for aircraft | |
Lin et al. | Tracking strategy of unmanned aerial vehicle for tracking moving target | |
Koumis et al. | Estimating metric scale visual odometry from videos using 3d convolutional networks | |
CN113821054B (zh) | 基于鸽群智能优化动态逆控制的无人机轨迹跟踪制导方法 | |
Zhang et al. | Enhanced fiducial marker based precise landing for quadrotors | |
Kehoe et al. | Partial aircraft state estimation from optical flow using non-model-based optimization | |
Al-Jarrah et al. | Blimp based on embedded computer vision and fuzzy control for following ground vehicles | |
Guan et al. | A new integrated navigation system for the indoor unmanned aerial vehicles (UAVs) based on the neural network predictive compensation | |
Shastry et al. | Autonomous detection and tracking of a high-speed ground vehicle using a quadrotor UAV | |
CN109283942A (zh) | 用于控制无人机进行跟踪的飞行方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |