CN112966720A - 一种基于blue的雷达与红外观测数据融合方法、系统 - Google Patents

一种基于blue的雷达与红外观测数据融合方法、系统 Download PDF

Info

Publication number
CN112966720A
CN112966720A CN202110162733.5A CN202110162733A CN112966720A CN 112966720 A CN112966720 A CN 112966720A CN 202110162733 A CN202110162733 A CN 202110162733A CN 112966720 A CN112966720 A CN 112966720A
Authority
CN
China
Prior art keywords
radar
observation
infrared
target
follows
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110162733.5A
Other languages
English (en)
Other versions
CN112966720B (zh
Inventor
盛琥
庞博清
唐思圆
杨秀凯
单齐
任清安
陈磊
邓宇浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CETC 38 Research Institute
Original Assignee
CETC 38 Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CETC 38 Research Institute filed Critical CETC 38 Research Institute
Priority to CN202110162733.5A priority Critical patent/CN112966720B/zh
Publication of CN112966720A publication Critical patent/CN112966720A/zh
Application granted granted Critical
Publication of CN112966720B publication Critical patent/CN112966720B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开了一种基于BLUE的雷达与红外观测数据融合方法、系统,属于多传感器融合技术领域,包括以下步骤:S1:滤波器初始化;S2:一步状态估计;S3:最终状态估计;S4:递推估计目标状态。本发明通过引入方位观测权值,构造出更精确的方位估计,克服方位误差余弦的非线性影响,改善径向估计精度;通过改进和修正量测转换模型,实现两坐标雷达和红外传感器数据在BLUE滤波架构下的融合,具有很好的应用潜力,值得被推广使用。

Description

一种基于BLUE的雷达与红外观测数据融合方法、系统
技术领域
本发明涉及多传感器融合技术领域,具体涉及一种基于BLUE的雷达与红外观测数据融合方法、系统。
背景技术
分布式多传感器融合是当前研究的热点问题。以雷达和红外传感器数据融合为例,雷达具有方位和斜距观测,能够全天候工作,但容易被反辐射武器打击;红外传感器不辐射信号,抗毁伤性能好,方位精度高,但无法提供斜距信息。两种传感器优势互补,协同探测融合后,可以有效提升对目标的跟踪能力。
BLUE滤波器能以较小的计算量处理非线性滤波问题,在雷达目标跟踪中有广泛应用。现有BLUE滤波方法存在两个缺陷:1、方位观测误差较大时,雷达到目标的视线方向(径向)上会出现比较大的非线性误差,BLUE滤波对该非线性误差的处理不够精细,导致估计精度下降;2、BLUE滤波需要完备观测集(方位、斜距观测)构造出转换量测模型后,才能对目标实施跟踪,红外传感器只有方位观测,无法采用传统BLUE滤波器跟踪目标。下面分析这两个缺陷的产生原因。
BLUE滤波采用斜距观测rm和方位观测θm构建出采样时刻的转换量测zk,表达式如下:
Figure BDA0002936126000000011
其中,r是目标到雷达真实距离,
Figure BDA0002936126000000012
是斜距观测误差,θ是真实方位,
Figure BDA0002936126000000013
是方位观测误差。
Figure BDA0002936126000000014
较大时,在雷达视线方向会出现明显的精度下降,原因分析如下:
假设θ=0,即在视线坐标系内,式1变为如下形式:
Figure BDA0002936126000000015
Figure BDA0002936126000000016
表示视线坐标系内的转换量测。将方位误差的三角函数展开后,有:
Figure BDA0002936126000000017
忽略式3的二阶以上高阶项和测距误差,近似得到式4:
Figure BDA0002936126000000021
式4中
Figure BDA0002936126000000022
Figure BDA0002936126000000023
是线性关系,满足高斯分布;
Figure BDA0002936126000000024
Figure BDA0002936126000000025
的非线性函数,其误差特性呈现非高斯分布,导致径向滤波精度下降。
由式1可见传统转换量测模型需要斜距观测,红外传感器没有斜距观测,无法直接构造转换量测。因此,提出一种基于BLUE的雷达与红外观测数据融合方法、系统。
发明内容
本发明所要解决的技术问题在于:如何提高各传感器径向跟踪精度,并且实现红外传感器的BLUE滤波,提供一种基于BLUE的雷达与红外观测数据融合方法。
本发明是通过以下技术方案解决上述技术问题的。
雷达和红外传感器组网工作,组网中心位于原点,两坐标雷达位置XR=[xR yR]T,红外传感器位置XI=[xI yI]T,目标状态方程如下:
xk=Fkxk-1+Gkvk (5)
其中,xk、Fk为时刻k的目标状态和状态转移矩阵,目标匀速运动时,Fk表达式为:
Figure BDA0002936126000000026
Gk为噪声输入矩阵,系统噪声vk=[vx vy]T,vx、vy是沿着X轴、Y轴的零均值高斯过程噪声,其协方差阵为Qk
雷达对目标的观测方程为:
zk,1=Hk,1(xk-XR)+wk,1 (7)
其中,zk,1为雷达的转换量测向量,Hk,1为观测系数矩阵,wk,1为观测噪声向量;
红外传感器对目标的观测方程为:
zk,2=Hk,2(xk-XI)+wk,2 (8)
其中,zk,2为红外转换量测向量,Hk,2为观测系数矩阵,wk,2为观测噪声向量。
雷达和红外传感器对目标进行周期性同步采样,采样周期为T,雷达观测为斜距观测rm,1对应方差为
Figure BDA0002936126000000027
方位观测θm,1,对应方差为
Figure BDA0002936126000000028
红外传感器观测为方位观测θm,2,对应方差为
Figure BDA0002936126000000031
下标包含1表示为雷达观测,下标包含2表示为红外观测;目标采用匀速运动模型。
基于以下步骤,对目标融合跟踪:
步骤1:滤波器初始化
设时刻k(k=0,1)获得的雷达观测为
Figure BDA0002936126000000032
估计时刻1的状态
Figure BDA0002936126000000033
和协方差阵
Figure BDA0002936126000000034
步骤1.1:初始化状态估计
Figure BDA0002936126000000035
Figure BDA0002936126000000036
其中
Figure BDA0002936126000000037
步骤1.2:初始化协方差阵估计
Figure BDA0002936126000000038
估计转换误差协方差阵R1
Figure BDA0002936126000000039
转换误差协方差阵R1的组成元素如下:
Figure BDA00029361260000000310
状态协方差阵
Figure BDA00029361260000000311
的具体公式如下:
Figure BDA00029361260000000312
步骤2:设k(k>1)时刻收到雷达观测rm,1,θm,1和红外传感器观测θm,2,首先基于雷达观测rm,1和θm,1,采用改进BLUE滤波器,给出目标一步状态估计。
步骤2.1:基于k-1时刻的
Figure BDA0002936126000000041
Figure BDA0002936126000000042
计算k时刻状态预测
Figure BDA0002936126000000043
和协方差阵
Figure BDA0002936126000000044
Figure BDA0002936126000000045
其中,
Figure BDA0002936126000000046
xp、yp是目标在直角坐标系下沿X轴、Y轴的位置预测,
Figure BDA0002936126000000047
是目标速度预测;
步骤2.2:基于状态预测
Figure BDA0002936126000000048
和协方差阵
Figure BDA0002936126000000049
计算雷达方位预测θp,1及方差
Figure BDA00029361260000000410
计算雷达斜距预测rp,1及方差
Figure BDA00029361260000000411
Figure BDA00029361260000000412
Figure BDA00029361260000000413
步骤2.3:基于步骤2.2的计算结果,估计雷达融合方位,进而构造一步转换量测zk,1
Figure BDA00029361260000000414
雷达融合方位θf,1定义为:
θf,1=θp,1k,1m,1p,1) {0≤αk,1≤1} (18)
其中,αk,1是雷达方位观测权值,表达式如下:
αk,1=argmax{α1121} (19)
αk,1取值为α11和α21的最大值,α11和α21的表达式如下:
Figure BDA00029361260000000415
Figure BDA0002936126000000051
κ是比例系数,取值不小于5;
θf,1的方差
Figure BDA0002936126000000052
近似为:
Figure BDA0002936126000000053
由上式可见,αk,1<1时,
Figure BDA0002936126000000054
小于
Figure BDA0002936126000000055
一步转换量测zk,1的方差小于传统BLUE转换量测方差,从而能够提高径向估计精度。
步骤2.4:在线估计
Figure BDA0002936126000000056
Sk,1
Figure BDA0002936126000000057
参数:
Figure BDA0002936126000000058
其中,
Figure BDA0002936126000000059
Figure BDA00029361260000000510
Sk,1各元素定义如下:
Figure BDA00029361260000000511
其中,
Figure BDA00029361260000000512
Figure BDA00029361260000000513
步骤2.5:求解目标的一步状态估计:
Figure BDA00029361260000000514
步骤3:基于步骤2得到的
Figure BDA00029361260000000515
以及红外传感器观测θm,2,采用修正BLUE滤波器,给出目标最终状态估计。
步骤3.1:设
Figure BDA0002936126000000061
估计红外传感器斜距rp,2和方差
Figure BDA0002936126000000062
Figure BDA0002936126000000063
Figure BDA0002936126000000064
步骤3.2:估计红外方位预测θp,2和方差
Figure BDA0002936126000000065
具体表达式如下:
Figure BDA0002936126000000066
Figure BDA0002936126000000067
步骤3.3:基于步骤3.1、3.2的rp,2、θp,2和θm,2,构造红外融合方位θf,2,建立红外传感器转换量测zk,2
Figure BDA0002936126000000068
红外融合方位θf,2的定义如下:
θf,2=θp,2k,2m,2p,2) {0≤αk,2≤1} (33)
其中,αk,2是红外方位观测权值,表达式如下:
αk,2=argmax{α1222} (34)
Figure BDA0002936126000000069
Figure BDA00029361260000000610
θf,2的方差
Figure BDA00029361260000000611
近似为:
Figure BDA00029361260000000612
步骤3.4:在线估计
Figure BDA00029361260000000613
Sk,2
Figure BDA00029361260000000614
参数:
Figure BDA0002936126000000071
其中,
Figure BDA0002936126000000072
Figure BDA0002936126000000073
Sk,2各元素定义如下:
Figure BDA0002936126000000074
其中:
Figure BDA0002936126000000075
Figure BDA0002936126000000076
步骤3.5:基于步骤3.4的参数结果,求解目标最终状态估计:
Figure BDA0002936126000000077
步骤4:下一个采样时刻,重复步骤2、3,递推估计目标状态,实现雷达、红外观测数据融合。
本发明还提供了一种基于BLUE的雷达与红外观测数据融合系统,利用上述的融合方法对雷达与红外观测数据进行融合,包括:
初始化模块,用于设时刻k(k=0,1)获得的雷达观测为
Figure BDA0002936126000000078
估计时刻1的状态
Figure BDA0002936126000000079
和协方差阵
Figure BDA00029361260000000710
一步状态估计模块,用于设k(k>1)时刻收到雷达观测rm,1,θm,1和红外传感器观测θm,2,基于雷达观测rm,1和θm,1,采用改进BLUE滤波器,得到目标一步状态估计;
最终状态估计模块,用于利用目标一步状态估计,以及红外传感器观测θm,2,采用修正BLUE滤波器,得到目标最终状态估计;
递推估计模块,用于在下一个采样时刻,递推估计目标状态,实现雷达、红外观测数据融合;
控制模块,用于向各模块发送控制指令;
所述初始化模块、所述一步状态估计模块、所述最终状态估计模块、所述递推估计模块均与所述控制模块电连接。
本发明相比现有技术具有以下优点:该基于BLUE的雷达与红外观测数据融合方法,通过引入方位观测权值,构造出更精确的方位估计,克服方位误差余弦的非线性影响,改善径向估计精度;通过对量测转换模型的改进和修正,实现两坐标雷达和红外传感器数据在BLUE滤波架构下的有机融合,具有很好的应用潜力,值得被推广使用。
附图说明
图1是本发明基于BLUE的雷达与红外观测数据融合方法的流程示意图;
图2是本发明实施例中场景1下两种跟踪方法的跟踪性能对比,a、b、c、d依次为场景设置图、平均归一化估计误差平方(ANEES)对比图、方位观测权值变化曲线、位置精度对比图;
图3是本发明实施例中场景2下两种跟踪方法的跟踪性能对比,a、b、c、d依次为场景设置图、平均归一化估计误差平方(ANEES)对比图、方位观测权值变化曲线、位置精度对比图。
具体实施方式
下面对本发明的实施例作详细说明,本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
在本实施例中,对极坐标下的两种跟踪场景(场景1、场景2)进行仿真。
设雷达和红外传感器组网对目标同步观测,观测周期1s。目标全程做匀速运动,其初始位置均值为(0,70)km,初始位置误差为(1,1)km;初始速度均值(100,0)m/s,初始速度误差(10,10)m/s。蒙特卡洛仿真次数50次,仿真时长200s。目标沿直角坐标系各轴的过程噪声标准差0.1m/s2
场景1:雷达位置为(-70,0)km,红外传感器位置为(-63,0)km,雷达和红外传感器间距较近。雷达的方位观测噪声为σθ,1=0.1rad,斜距观测噪声为σr,1=4m。红外传感器的方位观测噪声为σθ,2=0.05rad。
场景2:雷达位置为(-70,0)km,红外传感器位置为(70,0)km,雷达和红外传感器间距较远。雷达的观测特性与场景1相同。红外传感器的方位观测噪声变为σθ,2=0.01rad。
图2和图3分别为本发明所述的序贯BLUE方法在场景1、2下,和传统BLUE方法的跟踪性能对比图。需要说明的是,本实施例的序贯BLUE方法中比例系数κ的取值为10。
所选比对方法是传统BLUE(见文献:Zhanlue Zhao.Best linear unbiasedfiltering with nonlinear measurements for target tracking[J].IEEE Trans.onAES,2004,40(4):1324-1336)和只测角BLUE(见文献:盛琥.基于量测和预测联合估计的单站只测角跟踪方法[J].现代雷达,2017,39(11):53-67)的结合,称为常规BLUE融合方法。将常规BLUE融合方法与本发明所提方法(序贯BLUE融合方法)仿真比较。仿真中使用相同的目标初始状态,目标跟踪性能指标包括平均归一化估计误差平方(ANEES)和位置均方根误差(RMSE),具体定义如下:
Figure BDA0002936126000000091
Figure BDA0002936126000000092
Figure BDA0002936126000000093
Figure BDA0002936126000000094
是第i次仿真时沿着X轴和Y轴的状态估计误差,N为仿真次数。xi为第i次仿真时目标真实状态,
Figure BDA0002936126000000095
为第i次仿真时目标估计状态,
Figure BDA0002936126000000096
是第i次仿真时目标状态估计的协方差阵。RMSE越小,算法跟踪精度越高。ANEES反映滤波器估计的可信程度,ANEES为1时,表明滤波实际误差和估计误差协方差完全一致,置信度最高。
图2是场景1中,本发明所述的序贯BLUE方法与常规BLUE方法对目标的跟踪性能对比。图a是场景1中传感器和目标的部署;图b是各方法的ANEES对比,可见两种方法的一致性都比较好;图c是序贯BLUE方法的方位观测权值变化情况,可见在滤波过程中,雷达方位观测权值和红外方位观测权值都逐渐小于1,因此雷达融合方位和红外融合方位的误差变小,定位精度相应提高,如图d所示。另外由于红外方位精度优于雷达方位精度,即红外方位观测相对精确,所以红外方位观测权值更接近于1。由图d的位置误差对比可见,序贯BLUE融合方法优于常规BLUE融合方法。
图3是场景2中,所提序贯BLUE方法与常规BLUE方法对目标的跟踪性能对比。图a是场景2中传感器和目标的部署;图b是各方法的ANEES对比,可见两种方法的一致性都比较好;图c是序贯BLUE融合方法方位观测权值变化情况,可见在滤波过程中,雷达方位观测权值逐渐小于1,由于红外方位精度较高(0.01rad),红外方位观测权值恒等于1。由于雷达融合方位误差的减小,序贯BLUE融合方法的定位精度仍然优于常规BLUE融合方法,如图d所示。
综合以上对比结果可见:在不同部署条件下,本发明方法的位置精度都高于比对方法,且滤波估计的置信度较高,因此综合性能更优。
从仿真结果可以看出,在两种不同场景中,本发明所提方法的估计精度均高于比对方法。
综上所述,上述实施例的基于BLUE的雷达与红外观测数据融合方法,通过改进和修正量测转换模型,在模型中引入更精确的加权方位估计,实现两坐标雷达和红外传感器数据在BLUE滤波架构下的融合,并且显著提高了各传感器的径向估计精度,具有很好的应用潜力,值得被推广使用。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (7)

1.一种基于BLUE的雷达与红外观测数据融合方法,其特征在于,包括以下步骤:
S1:滤波器初始化
设时刻k(k=0,1)获得的雷达观测为
Figure FDA0002936125990000011
估计时刻1的状态
Figure FDA0002936125990000012
和协方差阵
Figure FDA0002936125990000013
S2:一步状态估计
设k(k>1)时刻收到雷达观测rm,1,θm,1和红外传感器观测θm,2,基于雷达观测rm,1和θm,1,采用改进BLUE滤波器,得到目标一步状态估计;
S3:最终状态估计
基于步骤S2得到的目标一步状态估计,以及红外传感器观测θm,2,采用修正BLUE滤波器,得到目标最终状态估计;
S4:递推估计目标状态
下一个采样时刻,重复步骤S2~S3,递推估计目标状态,实现雷达、红外观测数据融合。
2.根据权利要求1所述的一种基于BLUE的雷达与红外观测数据融合方法,其特征在于:所述雷达和所述红外传感器组网工作,组网中心位于原点,雷达位置XR=[xR yR]T,红外传感器位置XI=[xI yI]T,目标状态方程如下:
xk=Fkxk-1+Gkvk
其中,xk、Fk为时刻k的目标状态和状态转移矩阵,目标匀速运动时,Fk表达式为:
Figure FDA0002936125990000014
Gk为噪声输入矩阵,系统噪声vk=[vx vy]T,vx、vy是沿着X轴、Y轴的零均值高斯过程噪声,其协方差阵为Qk
雷达对目标的观测方程为:
zk,1=Hk,1(xk-XR)+wk,1
其中,zk,1为雷达的转换量测向量,Hk,1为观测系数矩阵,wk,1为观测噪声向量;
红外传感器对目标的观测方程为:
zk,2=Hk,2(xk-XI)+wk,2
其中,zk,2为红外转换量测向量,Hk,2为观测系数矩阵,wk,2为观测噪声向量。
3.根据权利要求2所述的一种基于BLUE的雷达与红外观测数据融合方法,其特征在于:所述雷达和所述红外传感器对目标进行周期性同步采样,采样周期为T,雷达观测为斜距观测rm,1,对应方差为
Figure FDA0002936125990000021
方位观测θm,1,对应方差为
Figure FDA0002936125990000022
红外传感器观测为方位观测θm,2,对应方差为
Figure FDA0002936125990000023
下标包含1表示为雷达观测,下标包含2表示为红外观测;目标采用匀速运动模型。
4.根据权利要求3所述的一种基于BLUE的雷达与红外观测数据融合方法,其特征在于,所述步骤S1的具体过程如下:
S11:初始化状态估计
Figure FDA0002936125990000024
Figure FDA0002936125990000025
其中:
Figure FDA0002936125990000026
S12:初始化协方差阵估计
Figure FDA0002936125990000027
估计转换误差协方差阵R1
Figure FDA0002936125990000028
转换误差协方差阵R1的组成元素如下:
Figure FDA0002936125990000029
状态协方差阵
Figure FDA00029361259900000210
的具体公式如下:
Figure FDA00029361259900000211
5.根据权利要求4所述的一种基于BLUE的雷达与红外观测数据融合方法,其特征在于,所述步骤S2的具体过程如下:
S21:基于k-1时刻的
Figure FDA0002936125990000031
Figure FDA0002936125990000032
计算k时刻状态预测
Figure FDA0002936125990000033
和协方差阵
Figure FDA0002936125990000034
Figure FDA0002936125990000035
其中,
Figure FDA0002936125990000036
xp、yp是目标在直角坐标系下沿X轴、Y轴的位置预测,
Figure FDA0002936125990000037
是目标速度预测;
S22:基于状态预测
Figure FDA0002936125990000038
和协方差阵
Figure FDA0002936125990000039
计算雷达方位预测θp,1及方差
Figure FDA00029361259900000310
计算雷达斜距预测rp,1及方差
Figure FDA00029361259900000311
Figure FDA00029361259900000312
Figure FDA00029361259900000313
S23:基于步骤S22的计算结果,估计雷达融合方位,进而构造一步转换量测zk,1
Figure FDA00029361259900000314
雷达融合方位θf,1定义为:
θf,1=θp,1k,1m,1p,1) {0≤αk,1≤1}
其中,αk,1是雷达方位观测权值,表达式如下:
αk,1=argmax{α1121}
αk,1取值为α11和α21的最大值,α11和α21的表达式如下:
Figure FDA00029361259900000315
Figure FDA0002936125990000041
κ是比例系数,取值不小于5;
θf,1的方差
Figure FDA0002936125990000042
S24:在线估计
Figure FDA0002936125990000043
Sk,1
Figure FDA0002936125990000044
参数:
Figure FDA0002936125990000045
其中,
Figure FDA0002936125990000046
Figure FDA0002936125990000047
Sk,1各元素定义如下:
Figure FDA0002936125990000048
Figure FDA0002936125990000049
Figure FDA00029361259900000410
其中,
Figure FDA00029361259900000411
Figure FDA00029361259900000412
S25:计算求解目标的一步状态估计:
Figure FDA00029361259900000413
6.根据权利要求5所述的一种基于BLUE的雷达与红外观测数据融合方法,其特征在于:所述步骤S3的具体过程如下:
S31:设
Figure FDA00029361259900000414
估计红外传感器斜距rp,2和方差
Figure FDA00029361259900000415
Figure FDA00029361259900000416
Figure FDA0002936125990000051
S32:估计红外方位预测θp,2和方差
Figure FDA0002936125990000052
表达式如下:
Figure FDA0002936125990000053
Figure FDA0002936125990000054
S33:基于步骤S31、S32的rp,2、θp,2和θm,2,构造红外融合方位θf,2,建立红外传感器转换量测zk,2
Figure FDA0002936125990000055
红外融合方位θf,2的定义如下:
θf,2=θp,2k,2m,2p,2) {0≤αk,2≤1}
其中,αk,2是红外方位观测权值,表达式如下:
αk,2=argmax{α1222}
Figure FDA0002936125990000056
Figure FDA0002936125990000057
θf,2的方差
Figure FDA0002936125990000058
S34:在线估计
Figure FDA0002936125990000059
Sk,2
Figure FDA00029361259900000510
参数:
Figure FDA00029361259900000511
其中,
Figure FDA00029361259900000512
Figure FDA00029361259900000513
Sk,2各元素定义如下:
Figure FDA0002936125990000061
Figure FDA0002936125990000062
Figure FDA0002936125990000063
其中:
Figure FDA0002936125990000064
Figure FDA0002936125990000065
Figure FDA0002936125990000066
Figure FDA0002936125990000067
S35:基于步骤S34的参数结果,计算目标最终状态估计:
Figure FDA0002936125990000068
7.一种基于BLUE的雷达与红外观测数据融合系统,其特征在于,根据如权利要求1~6任一项所述的融合方法对雷达与红外观测数据进行融合,包括:
初始化模块,用于设时刻k(k=0,1)获得的雷达观测为
Figure FDA0002936125990000069
估计时刻1的状态
Figure FDA00029361259900000610
和协方差阵
Figure FDA00029361259900000611
一步状态估计模块,用于设k(k>1)时刻收到雷达观测rm,1,θm,1和红外传感器观测θm,2,基于雷达观测rm,1和θm,1,采用改进BLUE滤波器,得到目标一步状态估计;
最终状态估计模块,用于利用目标一步状态估计,以及红外传感器观测θm,2,采用修正BLUE滤波器,得到目标最终状态估计;
递推估计模块,用于在下一个采样时刻,递推估计目标状态,实现雷达、红外观测数据融合;
控制模块,用于向各模块发送控制指令;
所述初始化模块、所述一步状态估计模块、所述最终状态估计模块、所述递推估计模块均与所述控制模块电连接。
CN202110162733.5A 2021-02-05 2021-02-05 一种基于blue的雷达与红外观测数据融合方法、系统 Active CN112966720B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110162733.5A CN112966720B (zh) 2021-02-05 2021-02-05 一种基于blue的雷达与红外观测数据融合方法、系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110162733.5A CN112966720B (zh) 2021-02-05 2021-02-05 一种基于blue的雷达与红外观测数据融合方法、系统

Publications (2)

Publication Number Publication Date
CN112966720A true CN112966720A (zh) 2021-06-15
CN112966720B CN112966720B (zh) 2023-05-23

Family

ID=76274639

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110162733.5A Active CN112966720B (zh) 2021-02-05 2021-02-05 一种基于blue的雷达与红外观测数据融合方法、系统

Country Status (1)

Country Link
CN (1) CN112966720B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7181323B1 (en) * 2004-10-25 2007-02-20 Lockheed Martin Corporation Computerized method for generating low-bias estimates of position of a vehicle from sensor data
CN104730537A (zh) * 2015-02-13 2015-06-24 西安电子科技大学 基于多尺度模型的红外/激光雷达数据融合目标跟踪方法
US10168674B1 (en) * 2013-04-22 2019-01-01 National Technology & Engineering Solutions Of Sandia, Llc System and method for operator control of heterogeneous unmanned system teams
US20190204433A1 (en) * 2017-12-29 2019-07-04 Viettel Group Method of tracking target by using 2d radar with sensor
CN111624594A (zh) * 2020-05-12 2020-09-04 中国电子科技集团公司第三十八研究所 一种基于转换量测重构的组网雷达跟踪方法
CN111965618A (zh) * 2020-08-18 2020-11-20 中国电子科技集团公司第三十八研究所 一种融合多普勒量测的转换量测跟踪方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7181323B1 (en) * 2004-10-25 2007-02-20 Lockheed Martin Corporation Computerized method for generating low-bias estimates of position of a vehicle from sensor data
US10168674B1 (en) * 2013-04-22 2019-01-01 National Technology & Engineering Solutions Of Sandia, Llc System and method for operator control of heterogeneous unmanned system teams
CN104730537A (zh) * 2015-02-13 2015-06-24 西安电子科技大学 基于多尺度模型的红外/激光雷达数据融合目标跟踪方法
US20190204433A1 (en) * 2017-12-29 2019-07-04 Viettel Group Method of tracking target by using 2d radar with sensor
CN111624594A (zh) * 2020-05-12 2020-09-04 中国电子科技集团公司第三十八研究所 一种基于转换量测重构的组网雷达跟踪方法
CN111965618A (zh) * 2020-08-18 2020-11-20 中国电子科技集团公司第三十八研究所 一种融合多普勒量测的转换量测跟踪方法及系统

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
TIANTIAN BAO: "An Improved Radar and Infrared Sensor Tracking Fusion Algorithm Based on IMM-UKF", 《2019 IEEE 16TH INTERNATIONAL CONFERENCE ON NETWORKING, SENSING AND CONTROL (ICNSC)》 *
张腾: "基于IMM-GMPHD的多机动目标跟踪算法应用研究", 《中国优秀硕士学位论文全文数据库 (工程科技Ⅱ辑)》 *
王飞;雷虎民;: "红外/毫米波雷达双模制导跟踪融合算法的优化", 红外与激光工程 *
盛琥: "基于BLUE的双站纯方位跟踪算法", 《弹箭与制导学报》 *
陈鑫;牛晓川;朱收涛;: "基于EKF的MMW/IR空中机动目标融合跟踪仿真", 电光与控制 *

Also Published As

Publication number Publication date
CN112966720B (zh) 2023-05-23

Similar Documents

Publication Publication Date Title
US7180443B1 (en) Reduced state estimator for systems with physically bounded parameters
CN109472418B (zh) 基于卡尔曼滤波的机动目标状态预测优化方法
CN111212476B (zh) 基于调频连续波的多基站超宽带定位方法
CN107688179B (zh) 基于多普勒信息辅助的综合概率数据互联方法
CN111965618B (zh) 一种融合多普勒量测的转换量测跟踪方法及系统
CN110503071A (zh) 基于变分贝叶斯标签多伯努利叠加模型的多目标跟踪方法
CN108896986A (zh) 一种基于预测值的量测转换序贯滤波机动目标跟踪方法
CN111291471B (zh) 一种基于l1正则无迹变换的约束多模型滤波方法
CN115616937B (zh) 自动驾驶仿真测试方法、装置、设备和计算机可读介质
CN111624594A (zh) 一种基于转换量测重构的组网雷达跟踪方法
CN116047498A (zh) 基于最大相关熵扩展卡尔曼滤波的机动目标跟踪方法
CN109239704B (zh) 一种基于序贯滤波交互式多模型的自适应采样方法
CN112379350A (zh) 智能车辆毫米波雷达多目标跟踪方法、装置及设备
CN112966720A (zh) 一种基于blue的雷达与红外观测数据融合方法、系统
CN112034445A (zh) 基于毫米波雷达的车辆运动轨迹跟踪方法和系统
CN111624549A (zh) 非共视条件下无源滤波跟踪方法
CN115204212A (zh) 一种基于stm-pmbm滤波算法的多目标跟踪方法
CN113391285B (zh) 一种量测随机延迟下带闪烁噪声的目标跟踪平滑方法
CN115494450A (zh) 一种高精度的超宽带室内定位跟踪与控制方法及装置
Yunhong et al. Maneuvering target tracking based on adaptive turning rate interactive multiple model
CN112800889B (zh) 一种基于分布式矩阵加权融合高斯滤波的目标跟踪方法
CN114415157A (zh) 一种基于水声传感器网络的水下目标多模型跟踪方法
CN109840069B (zh) 一种改进的自适应快速迭代收敛解方法及系统
CN112083410A (zh) 机动目标跟踪方法
CN107590509B (zh) 基于最大期望近似的切尔诺夫融合方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant