CN101697006B - 基于机载雷达和红外成像传感器数据融合的目标识别方法 - Google Patents

基于机载雷达和红外成像传感器数据融合的目标识别方法 Download PDF

Info

Publication number
CN101697006B
CN101697006B CN200910092582XA CN200910092582A CN101697006B CN 101697006 B CN101697006 B CN 101697006B CN 200910092582X A CN200910092582X A CN 200910092582XA CN 200910092582 A CN200910092582 A CN 200910092582A CN 101697006 B CN101697006 B CN 101697006B
Authority
CN
China
Prior art keywords
target
radar
function
elementary probability
partition function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN200910092582XA
Other languages
English (en)
Other versions
CN101697006A (zh
Inventor
蒋宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN200910092582XA priority Critical patent/CN101697006B/zh
Publication of CN101697006A publication Critical patent/CN101697006A/zh
Application granted granted Critical
Publication of CN101697006B publication Critical patent/CN101697006B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开了一种基于机载雷达和红外成像传感器数据融合的目标识别方法,该方法首先由红外传感器对目标进行识别,并产生对应的基本概率分配函数M1;然后由雷达对目标进行识别,并产生对应的基本概率分配函数M2;运用D-S证据理论对雷达和红外传感器识别结果进行融合;最后识别目标并作出决策。本发明中雷达对目标进行识别采用基于模糊推理的目标识别方法,克服了由于雷达传感器测得的数据具有很大的不确定性的缺陷,最终实现了机载雷达和红外传感器的数据融合。仿真结果表明,基于雷达和红外传感器数据融合的智能目标识别算法的识别效果要比单个雷达或单个红外传感器的识别效果好很多。

Description

基于机载雷达和红外成像传感器数据融合的目标识别方法
技术领域
本发明属于目标识别技术领域,具体涉及一种基于机载雷达和红外成像传感器数据融合的目标识别方法。
背景技术
为了精确掌握战场态势环境,为航空火控中心提供所需作战信息,正确识别目标已成为取得战争胜利所要考虑的首要问题。目标识别技术在现代战争中的地位极为重要,世界各国均在进行深入的研究。传统的目标识别主要是基于雷达传感器的,但雷达的先天性缺陷使得其面临着“电子对抗、反辐射导弹、超低空突防和隐身飞机”等“四大威胁”,严重影响了其在目标识别中的应用。而红外传感器具有测角精度高、能提供目标图像和目标识别能力强等优点,但是其缺点是作用距离较近,受气候影响较大,不能提供目标的距离等信息。
发明内容
本发明为了提高机载传感器目标识别的性能,充分发挥机载雷达和红外传感器的优势,达到资源共享,功能、性能相互弥补,以实现高精度的目标识别,提供了一种基于机载雷达和红外成像传感器数据融合的能目标识别方法,具体包括如下步骤:
步骤一、由红外传感器对目标进行识别,并产生对应的基本概率分配函数M1
具体步骤为:
(1)利用小波的方法提取目标图像的特征;
(2)选择区分度大的特征;
(3)由步骤B得到区分度最大的特征,基于BP神经网络设计区分此区分度最大的特征的分类器;
(4)输出结果归一化得到基本概率分配函数M1
步骤二、由雷达对目标进行识别,并产生对应的基本概率分配函数M2
A、由雷达测得目标特征,并进行隶属度的计算;
B、模糊推理得到决策向量;
C、输出解模糊化;
D、输出结果归一化得到基本概率分配函数M2
步骤三、运用D-S证据理论对雷达和红外传感器识别结果进行融合;
通过机载雷达和红外成像传感器的数据融合,得到联合基本概率分配函数M(A):
M ( A ) = K - 1 × Σ x ∩ y = A M 1 ( x ) × M 2 ( y )
其中:
K = 1 - Σ x ∩ y = Φ M 1 ( x ) × M 2 ( y ) = Σ x ∩ y ≠ Φ M 1 ( x ) × M 2 ( y )
x和y分别为基本概率分配函数M1和M2的自变量。
步骤四、识别目标并作出决策。
依据联合基本概率分配函数,选取最大的联合基本概率分配函数识别目标并作出决策。
本发明的优点在于:
(1)利用红外成像传感器得到的目标图像比较准确的特点,采用了基于小波矩特征和BP神经网络的图像目标识别算法对目标进行识别;
(2)本发明提出的基于模糊推理的目标识别方法,克服了由于雷达传感器测得的数据具有很大的不确定性的缺陷;
(3)从雷达和红外传感器识别算法分别得到待识别目标所属类别的基本概率分配函数,用D-S证据组合规则将得到的两个基本概率分配函数组合,最终实现了机载雷达和红外传感器的数据融合。
(4)仿真结果表明,基于雷达和红外传感器数据融合的智能目标识别算法的识别效果要比单个雷达或单个红外传感器的识别效果好很多。
附图说明
图1是本发明方法的步骤流程图;
图2是红外传感器图像目标识别方法的流程图;
图3是基于雷达模糊推理的目标识别方法的流程图;
图4是D-S方法用于雷达和红外传感器目标识别的数据融合的示意图;
图5是6类飞机的原始二值bmp图像。
具体实施方式
下面将结合附图和实施例对本发明作进一步的详细说明。
本发明是一种基于机载雷达和红外成像传感器数据融合的目标识别方法,该方法采用D-S证据理论方法对雷达和红外传感器识别的结果进行融合,最后根据决策规则给出决策,解决飞机目标识别问题。
本发明提供的基于机载雷达和红外成像传感器数据融合的目标识别方法,具体通过如下步骤实现,流程图如图1所示:
步骤一、由红外传感器对目标进行识别,并产生对应的基本概率分配函数M1
小波矩特征既能反映目标的全局信息,又具有对图像结构精细特征的把握能力,因此把小波矩特征作为神经网络的输入,对图像目标进行识别,可以使图像识别的准确率和抗噪性都有较大的提高。该图像识别算法,对6类飞机图像目标(F15,F16,F4,F14,Su27,S35)进行识别,在图像目标发生平移、旋转、尺度变化、加噪变化后仍有很高的识别率。
红外传感器对目标进行识别的流程如图2所示,具体为:
步骤A、利用小波的方法提取目标图像的特征。
对红外传感器采集得到的图像进行归一化处理,将图像转化成标准大小(200*200像素),然后将归一化后的图像进行极坐标转换。
利用小波变换的方法来提取图像的特征。本文采用三次B样条函数作为母小波函数:
ψ ( r ) = 4 α n + 1 2 π ( n + 1 ) σ ω cos ( 2 π f 0 ( 2 r - 1 ) * exp ( - ( 2 r - 1 ) 2 2 σ ω 2 ( n + 1 ) ) ) - - - ( 6 )
其中,样条次数n=3,基准系数α=0.697066,初始频率f0=0.409177,方差 σ ω 2 = 0.561145 .
小波函数沿着轴向定义为:
ψ mn ( r ) = 2 m 2 ψ ( 2 m r - n ) - - - ( 7 )
小波矩提取由:
| | F m , n , q wavelet | | = | | ∫ S q ( r ) ψ m , n ( r ) rdr | | - - - ( 8 )
获得。其中,对角度积分Sq(r)的计算,必须把变换离散化,即选取适当的角度间隔Δθ=2π/N,N通常取180,则角度积分为:
S q ( r ) = 1 N Σ m = 0 N - 1 f ( r , m ) e - j 2 πmq / N - - - ( 9 )
对得到的角度积分Sq(r),利用小波函数在径向区域{0≤r≤1}内提取特征:
| | F m , n , q wavelet | | = | | Σ r = 0 1 S q ( r ) ψ m , n ( r ) r | | - - - ( 10 )
其中,m=0,1,2,3,n=0,1,2,...,2m+1,q=0,1,2,3。
步骤B、选择图像特征中区分度最大的特征组;
一个好的特征,必然在同类图像内部差别比较小,在不同类图像之间的差别比较大。
对于每个小波矩特征||Fm,n,q wavelet||,记第i类Si的特征||Fm,n,q wavelet||的均值为m(Si,||Fm,n,q wavelet||),标准方差为σ(Si,||Fm,n,q wavelet||),均值和标准方差的值可以通过大量的Si类别的样本来求得。本文将计算区分特征Q(m,n)。
Q ( | | F m , n , q wavelet | | , S i , S j ) = η ( σ ( S i , | | F m , n , q wavelet | | ) + σ ( S j , | | F m , n , q wavelet | | ) ) | m ( S i , | | F m , n , q wavelet | | ) - m ( S j , | | F m , n , q wavelet | | ) | - - - ( 11 )
式(11)和类间距的倒数的形式很相近,所以Q(||Fm,n,q wavelet||,Si,Sj)的值越小,则类间距越大,说明此区分特征对第i类目标和第j类目标的识别能力越强。假设有I类目标,则有
Q ( m , n ) = Σ i ≠ j I Q ( | | F m , n , q wavelet | | , S i , S j ) - - - ( 12 )
Q(m,n)的值越小,说明这个特征对I类目标的识别性能越好。因此,在得到所有样本的特征后,通过计算,选择Q(m,n)值最小的特征作为神经网络的输入。本文选择最小的4个Q(m,n)值所对应的特征作为最优特征组,即区分度大的特征。
步骤C、由步骤B得到区分度最大的特征组,基于BP神经网络设计区分此区分度最大的特征组的分类器;
本发明采用的BP神经网络是一个3层前馈网络,输出的节点在区间[-1,1]取连续值。训练相当于发现适当的互连权重,使得对应一个输入样本,能产生一个期望的输出。期望的输出是:对应于输入模式所属类别的那个节点的输出设为1,而其余所有的输出节点设置为0。
BP神经网络选用下列参数:
(a)输入层的节点数为4,即选择4个最优的小波矩特征;输出层因为有6类飞机目标,所以取6个节点,即输出维数是6;隐层节点数选为10。所述输入层的节点数为最优的小波矩特征向量的维数
(b)本文所选的训练方法为Levenberg-Marquardt法。
(c)隐层和输出层函数分别为tansig和purelin。
tansig(n)=2/(1+exp(-2*n))-1
purelin(n)=n
(d)最大训练次数定为1000次;最小均方误差定为1e-8;最小梯度定为1e-20。
设定上述参数即可得到分类器。
步骤D、输出结果归一化得到基本概率分配函数M1
将BP神经网络的输出进行归一化处理,可以得到红外传感器图像目标识别算法输出的待识别目标所属飞机类别的基本概率分配函数:
| c 1 | c | c 2 | c | c 3 | c . . . | c i | c . . . | c j | c . . . | c n | c T
其中ci为图像目标的神经网路输出,c=|c1|+|c2|+|c3|+…|ci|+…|cj|+…|cn|。
例如,对某个待识别的图像目标,神经网络输出为:
[cF15 cF16 cF4 cF14 cSu27 cSu35]T
令c=|cF15|+|cF16|+|cF4|+|cF14|+|cSu27|+|cSu35|,经过归一化处理,得到该目标分别属于各类飞机目标(F15,F16,F4,F14,Su27,S35)的基本概率分配函数为:
| c F 15 | c | c F 16 | c | c F 4 | c | c F 14 | c | c Su 27 | c | c Su 35 | c T
步骤二、由雷达对目标进行识别,并产生对应的基本概率分配函数M2
本发明采用基于模糊推理的雷达目标识别方法进行目标识别,将雷达测量系统测得的飞机的飞行速度、雷达散射截面,飞行高度和雷达跟踪系统估计的飞机的加速度等作为模糊推理识别系统的输入,对6类飞机目标(F15,F16,F4,F14,Su27,Su35)进行识别。
该模糊推理目标识别方法流程如图3所示,具体为:
(1)由雷达测得目标特征,并进行隶属度的计算;
对雷达测量系统测得的飞机的飞行速度、雷达散射截面、飞行高度和雷达跟踪系统所估计的飞机的加速度等输入,本发明通过高斯隶属度函数来确定未知目标对各类飞机的隶属度,所述的高斯隶属度函数如下式(13):
μ rcs ( Fi ) = e - 1 2 ( rcs - c σ ) 2 - - - ( 13 )
其中Fi为飞机目标,c为均值,σ为标准差。
例如,测得待识别目标的雷达散射截面为rcs,该目标对F15的隶属度μrcs(F15)可以这样确定:
μ rcs ( F 15 ) = e - 1 2 ( rcs - c σ ) 2
其中,σ=1,c=2。
同理可以得到μrcs(F16),μrcs(F4),μrcs(F14),μrcs(Su27),μrcs(Su35)。同样,对飞行速度、飞行高度和加速度等输入经过计算可以分别得到待识别目标对各类飞机的隶属度。
(2)模糊推理得到决策向量;
用上述步骤(1)计算得到的隶属度来构成推理规则矩阵R(即模糊关系):
R = μ rcs ( F 15 ) μ h ( F 15 ) μ v ( F 15 ) μ a ( F 15 ) μ rcs ( F 16 ) μ h ( F 16 ) μ v ( F 16 ) μ a ( F 16 ) μ rcs ( F 4 ) μ h ( F 4 ) μ v ( F 4 ) μ a ( F 4 ) μ rcs ( F 14 ) μ h ( F 14 ) μ v ( F 14 ) μ a ( F 14 ) μ rcs ( Su 27 ) μ h ( Su 27 ) μ v ( Su 27 ) μ a ( Su 27 ) μ rcs ( Su 35 ) μ h ( Su 35 ) μ v ( Su 35 ) μ a ( Su 35 ) - - - ( 14 )
确定四个输入量在决策中所占的比重(即它们的权值):rcs权值为ωrcs,飞行高度权值为ωh,速度权值为ωv,加速度权值为ωa。将这四个权值组成一个模糊向量A:
A=[ωrcs ωh ωv ωa]            (15)
由此,对该飞机目标识别的最后决策向量B为:
Figure G200910092582XD00054
(3)输出解模糊化;
本文采用最大隶属度法则进行解模糊。这种方法是将模糊推理得到的结论(模糊集合)中最大隶属度值所对应的元素作为模糊推理算法输出的精确值。
例如,对某个待识别目标,模糊推理输出为:
B=[μrcs(F15) μrcs(F16) μrcs(F4) μrcs(F14) μrcs(Su27) μrcs(Su35)]T=[0.6698 0.0965 0.0061 0.1039 0.0058 0.1179]T,则相应的输出为F15,因为它所对应的隶属度0.6698最大。
(4)输出结果归一化得到基本概率分配函数M2
将模糊推理的输出结果进行归一化处理,可以得到雷达模糊推理识别算法输出的待识别目标所属飞机类别的基本概率分配函数M2
步骤三、运用D-S证据理论对雷达和红外传感器识别结果进行融合;
D-S证据理论可以有效地处理不确定性信息,在信息融合中获得了广泛的应用。在D-S证据理论中,传感器输出的信息被表示为基本概率分配函数,即可信度分配函数;利用D-S证据组合规则可以将多个基本概率分配函数组合,从而产生一个联合基本概率分配函数,实现多传感器数据融合,最后根据决策规则进行决策。
所述的D-S证据理论具体如下:
设D为样本空间,领域内的命题都用D的子集表示,D中的元素是互斥的。
定义1:概率分配函数
设函数M:2D→[0,1],且满足:
M(Φ)=0                    (1)
Σ A ⊆ D M ( A ) = 1 - - - ( 2 )
则称M是2D上的概率分配函数,M(A)称为命题A的基本概率分配函数。
如图4所示,将由雷达和红外传感器获得的基本概率分配函数M1、M2进行数据融合。
对于上述步骤一和步骤二中得到的两个基本概率分配函数M1和M2,其正交和 M = M 1 ⊕ M 2 为:
M(Φ)=0                    (3)
M ( A ) = K - 1 × Σ x ∩ y = A M 1 ( x ) × M 2 ( y ) - - - ( 4 )
其中:
K = 1 - Σ x ∩ y = Φ M 1 ( x ) × M 2 ( y ) = Σ x ∩ y ≠ Φ M 1 ( x ) × M 2 ( y ) - - - ( 5 )
其中,x和y分别为基本概率分配函数M1和M2的自变量,M(A)表示联合基本概率分配函数。
步骤四、目标识别并作出决策。
通过将雷达和红外传感器获得的基本概率分配函数M1、M2,根据D-S证据理论合成得到联合基本概率分配函数。依据联合基本概率分配函数,选取最大的联合基本概率分配函数识别目标并作出决策。
把D-S证据理论应用到飞机目标识别中,有6种待识别飞机目标(F15,F16,F4,F14,Su27,Su35),先由雷达和红外传感器分别对目标进行识别,并产生对应的基本概率分配函数,再用D-S合成法则得到联合基本概率分配函数,按最大隶属度法则进行决策,即目标所属类别应具有最大的隶属度。
其中,基于红外传感器的图像目标识别算法所处理的原始二值bmp图像如图5所示。
表1为D-S数据融合前后的结果对比。表1中,“实际”一列为所选样本对应的实际目标种类,“结果”一列为识别决策结果。表中的数值为基本可信度分配值。“雷达”、“红外”各行分别为各传感器对同一目标进行识别的结果。“融合”一行表示经过D-S数据融合后的识别结果。
表1D-S数据融合前后的结果对比
Figure G200910092582XD00071
从表1可以看出,在第4行(不算标题行),由于所选取的待识别红外图像(实际为F16)噪声较大(为35%),导致红外图像目标识别算法对其错误识别(误识别为F14),而经过D-S证据理论数据融合后正确识别了目标,如第6行所示,这说明D-S证据理论在基于雷达和红外传感器数据融合的智能目标识别中的应用是有效的。
本发明提供的目标识别方法先由雷达和红外传感器分别对目标进行识别,并产生对应的基本概率分配函数,再用D-S合成法则得到联合基本概率分配函数,并依据最大隶属度法则进行决策,从而实现了智能目标识别。从融合前后的识别结果来看,融合后的识别精度相对于各传感器分别识别的结果好得多。

Claims (2)

1.基于机载雷达和红外成像传感器数据融合的目标识别方法,其特征在于如下步骤:
步骤一、由红外传感器对目标进行识别,并产生对应的基本概率分配函数M1
具体步骤为:
(1)利用小波的方法提取目标图像的特征;
(2)选择区分度最大的特征组;
(3)由步骤(2)得到区分度最大的特征组,基于BP神经网络设计区分此特征组的分类器;
其中,BP神经网络选用下列参数:
(a)确定输入层的节点数、输出层节点数、隐层节点数;所述输入层的节点数为最优的小波矩特征向量的维数;
(b)所选的训练方法为Levenberg-Marquardt法;
(c)隐层和输出层函数分别为tansig和purelin;
tansig(n)=2/(1+exp(-2*n))-1;
purelin(n)=n;
(d)最大训练次数定为1000次;最小均方误差定为1e-8;最小梯度定为1e-20;
通过设定上述参数得到分类器;
(4)输出结果归一化得到基本概率分配函数M1
基本概率分配函数M1
| c 1 | c | c 2 | c | c 3 | c · · · | c i | c · · · | c j | c · · · | c n | c T
其中ci为图像目标的神经网路输出,c=|c1|+|c2|+|c3|+…|ci|+…|cj|+…|cn|;
步骤二、由雷达对目标进行识别,并产生对应的基本概率分配函数M2
A、由雷达测得目标特征,并进行隶属度的计算;
通过高斯隶属度函数来确定未知目标对各类飞机的隶属度,所述的高斯隶属度函数如下式:
μ rcs ( Fi ) = e - 1 2 ( rcs - c σ ) 2
其中Fi为飞机目标,c为均值,σ为标准差,rcs为待识别目标的雷达散射截面;
B、模糊推理得到决策向量;
C、输出解模糊化,采用最大隶属度法则进行解模糊;
D、输出结果归一化得到基本概率分配函数M2
步骤三、运用D-S证据理论对雷达和红外传感器识别结果进行融合;
通过机载雷达和红外成像传感器的数据融合,得到联合基本概率分配函数M(A):
M ( A ) = K - 1 × Σ x ∩ y = A M 1 ( x ) × M 2 ( y )
其中:
K = 1 - Σ x ∩ y = Φ M 1 ( x ) × M 2 ( y ) = Σ x ∩ y ≠ Φ M 1 ( x ) × M 2 ( y )
x和y分别为基本概率分配函数M1和M2的自变量;
步骤四、识别目标并作出决策;
依据联合基本概率分配函数,选取最大的联合基本概率分配函数识别目标并作出决策。
2.根据权利要求1所述的基于机载雷达和红外成像传感器数据融合的目标识别方法,其特征在于:步骤一中所述的利用小波的方法提取目标图像的特征过程为:
对红外传感器采集得到的图像进行归一化处理,将图像转化成标准大小,然后将归一化后的图像进行极坐标转换;
采用三次B样条函数作为母小波函数:
ψ ( r ) = 4 α n + 1 2 π ( n + 1 ) σ ω cos ( 2 πf 0 ( 2 r - 1 ) * exp ( - ( 2 r - 1 ) 2 2 σ ω 2 ( n + 1 ) )
其中,样条次数n=3,基准系数α=0.697066,初始频率f0=0.409177,方差小波函数沿着轴向定义为:
ψ mm ( r ) = 2 m 2 ψ ( 2 m r - n )
小波矩提取由:
| | F m , n , q wavelet | | = | | ∫ S q ( r ) ψ m , n ( r ) rdr | |
获得,其中,角度积分Sq(r)为:
S q ( r ) = 1 N Σ m = 0 N - 1 f ( r , m ) e - j 2 πmq / N
N取180;对得到的角度积分Sq(r),利用小波函数在径向区域{0≤r≤1}内提取特征:
| | F m , n , q wavelet | | = | | Σ r = 0 1 S q ( r ) ψ m , n ( r ) r | |
其中,m=0,1,2,3,n=0,1,2,...,2m+1,q=0,1,2,3。
CN200910092582XA 2009-09-18 2009-09-18 基于机载雷达和红外成像传感器数据融合的目标识别方法 Expired - Fee Related CN101697006B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN200910092582XA CN101697006B (zh) 2009-09-18 2009-09-18 基于机载雷达和红外成像传感器数据融合的目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN200910092582XA CN101697006B (zh) 2009-09-18 2009-09-18 基于机载雷达和红外成像传感器数据融合的目标识别方法

Publications (2)

Publication Number Publication Date
CN101697006A CN101697006A (zh) 2010-04-21
CN101697006B true CN101697006B (zh) 2011-11-16

Family

ID=42142120

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200910092582XA Expired - Fee Related CN101697006B (zh) 2009-09-18 2009-09-18 基于机载雷达和红外成像传感器数据融合的目标识别方法

Country Status (1)

Country Link
CN (1) CN101697006B (zh)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8705797B2 (en) * 2012-03-07 2014-04-22 GM Global Technology Operations LLC Enhanced data association of fusion using weighted Bayesian filtering
US9429650B2 (en) * 2012-08-01 2016-08-30 Gm Global Technology Operations Fusion of obstacle detection using radar and camera
CN104236933B (zh) * 2013-06-13 2017-12-26 同济大学 一种针对列车牵引系统的故障隐患预警方法
CN103792515B (zh) * 2013-12-10 2016-09-28 中国船舶重工集团公司第七0九研究所 一种异平台2维雷达与红外传感器量测数据合成方法
CN104730537B (zh) * 2015-02-13 2017-04-26 西安电子科技大学 基于多尺度模型的红外/激光雷达数据融合目标跟踪方法
CN107271991B (zh) * 2017-05-25 2019-05-24 北京环境特性研究所 一种基于状态估计的光/电传感器目标关联方法
CN107656245B (zh) * 2017-08-22 2020-12-04 哈尔滨工程大学 一种将信息融合应用到雷达信号分选中的方法
CN108151806B (zh) * 2017-12-27 2020-11-10 成都西科微波通讯有限公司 基于目标距离的异类多传感器数据融合方法
CN108961203B (zh) * 2018-02-19 2023-07-18 江苏新时高温材料股份有限公司 一种融合超声和机器视觉技术的中空板式陶瓷膜缺陷的三维重建方法
US10468062B1 (en) * 2018-04-03 2019-11-05 Zoox, Inc. Detecting errors in sensor data
CN108983213B (zh) 2018-09-07 2021-01-01 百度在线网络技术(北京)有限公司 障碍物静止状态的确定方法、装置、设备及存储介质
CN109270525B (zh) * 2018-12-07 2020-06-30 电子科技大学 基于深度学习的穿墙雷达成像方法及系统
CN110007366B (zh) * 2019-03-04 2020-08-25 中国科学院深圳先进技术研究院 一种基于多传感器融合的生命搜寻方法以及系统
CN110766703A (zh) * 2019-10-21 2020-02-07 合肥成方信息技术有限公司 基于GPU的Compute Shader的智能图像识别方法
CN111239724B (zh) * 2020-01-20 2022-01-28 中国人民解放军国防科技大学 一种基于雷达传感网络的目标识别方法
CN112232375B (zh) * 2020-09-21 2023-05-12 西北工业大学 一种基于证据理论的未知类型目标识别方法
CN112415513B (zh) * 2020-10-26 2022-11-25 湖北航天技术研究院总体设计所 一种弹载双基前视sar接收弹目标识别与定位方法
CN113391282B (zh) * 2021-05-12 2022-06-17 南京航空航天大学 一种基于雷达多维特征融合的人体姿态识别方法
CN113327271B (zh) * 2021-05-28 2022-03-22 北京理工大学重庆创新中心 基于双光孪生网络决策级目标跟踪方法、系统及存储介质
CN113447923A (zh) * 2021-06-29 2021-09-28 上海高德威智能交通系统有限公司 目标检测方法、装置、系统、电子设备及存储介质
CN113505686B (zh) * 2021-07-07 2021-12-31 中国人民解放军空军预警学院 一种无人机目标威胁评估方法及装置
CN113534093B (zh) * 2021-08-13 2023-06-27 北京环境特性研究所 飞机目标的螺旋桨叶片数量反演方法及目标识别方法
CN114264361A (zh) * 2021-12-07 2022-04-01 深圳市博悠半导体科技有限公司 结合雷达和摄像头的物体识别方法、装置及智能电子秤
CN114998567B (zh) * 2022-07-18 2022-11-01 中国科学院长春光学精密机械与物理研究所 一种基于多模态特征判别的红外点群目标识别方法
CN115457351B (zh) * 2022-07-22 2023-10-20 中国人民解放军战略支援部队航天工程大学 一种多源信息融合不确定性判别方法
CN115630288A (zh) * 2022-12-20 2023-01-20 中国电子科技集团公司第十四研究所 一种多源特征多层次综合识别处理架构

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1361503A (zh) * 2000-12-29 2002-07-31 南开大学 基于神经网络的彩色多目标融合识别技术及其系统

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1361503A (zh) * 2000-12-29 2002-07-31 南开大学 基于神经网络的彩色多目标融合识别技术及其系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
任章等.基于红外图像序列的运动目标检测算法研究.《红外与激光工程》.2007,第36卷第136-140页. *
冯舒等.基于多分辨率分割的区域图像融合.《计算机仿真》.2007,第24卷(第5期),第183-185页. *

Also Published As

Publication number Publication date
CN101697006A (zh) 2010-04-21

Similar Documents

Publication Publication Date Title
CN101697006B (zh) 基于机载雷达和红外成像传感器数据融合的目标识别方法
CN1389710A (zh) 多传感器多目标信息融合方法
CN101944234B (zh) 特征迹驱动的多目标跟踪方法及装置
CN104007426B (zh) 一种基于lse(最小方差估计)的ads与雷达信息系统误差配准算法
CN104931960B (zh) 动向报文与雷达目标态势信息全航迹段数据关联方法
CN111898633B (zh) 一种基于高光谱图像的海上舰船目标检测方法
CN101853531B (zh) 基于预分类技术和rbf神经网络的直升机飞行状态识别方法
CN105139375B (zh) 一种结合全球dem与立体视觉的卫星影像云检测方法
CN110018453A (zh) 基于飞机航迹特征的智能机型识别方法
Tang et al. A bearing fault diagnosis method based on feature selection feedback network and improved DS evidence fusion
CN101853509A (zh) 基于Treelets和模糊C-均值聚类的SAR图像分割方法
CN103778441A (zh) 一种基于DSmT和HMM的序列飞机目标识别方法
CN107340514A (zh) 三维空间中高超声速弱目标rae‑ht‑tbd积累检测方法
CN104008403B (zh) 一种svm(矢量机)模式的多目标识别判定方法
CN104992140A (zh) 一种基于遥感图像的海面异常漂浮物检测方法
CN104103070A (zh) 一种基于光学图像的着陆点选取方法
CN107797101A (zh) 密集杂波环境下基于点迹多维筛选的航迹起始方法
Zhang et al. Multi-fault diagnosis for autonomous underwater vehicle based on fuzzy weighted support vector domain description
CN111007871B (zh) 无人机动态特征识别方法、介质、设备及装置
CN109034202A (zh) 一种深度信念网络的航电系统模式识别方法
CN111553421B (zh) 基于双层嵌套结构的sar装备任务失效成因推理方法
CN115017984A (zh) 一种航空发动机故障风险预警方法及系统
CN112800082A (zh) 一种基于置信规则库推理的空中目标识别方法
CN112269173A (zh) 一种多平台雷达一维图像信号进行融合的方法
Cao et al. Ocean Mesoscale Eddies Identification Based on Yolof

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20111116

Termination date: 20120918