CN114821335B - 基于深度特征与线性判别特征融合的未知目标判别方法 - Google Patents

基于深度特征与线性判别特征融合的未知目标判别方法 Download PDF

Info

Publication number
CN114821335B
CN114821335B CN202210548930.5A CN202210548930A CN114821335B CN 114821335 B CN114821335 B CN 114821335B CN 202210548930 A CN202210548930 A CN 202210548930A CN 114821335 B CN114821335 B CN 114821335B
Authority
CN
China
Prior art keywords
layer
feature
fusion
channel
residual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210548930.5A
Other languages
English (en)
Other versions
CN114821335A (zh
Inventor
周代英
易传莉雯
何彬宇
王特起
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202210548930.5A priority Critical patent/CN114821335B/zh
Publication of CN114821335A publication Critical patent/CN114821335A/zh
Application granted granted Critical
Publication of CN114821335B publication Critical patent/CN114821335B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于未知目标识别技术领域,具体涉及一种基于深度特征与线性判别特征融合的未知目标判别方法。本发明将预处理后的一维距离像通过并行双通道残差网络抽取局部高维特征,与全局线性判别特征以向量串联方式进行特征级融合,实现未知目标判别。本发明方法提取的融合特征既有全局差异信息也包含局部细节信息,因此改善了对未知目标的判别性能,实验结果验证了本方法的有效性。

Description

基于深度特征与线性判别特征融合的未知目标判别方法
技术领域
本发明属于未知目标识别技术领域,具体涉及一种基于深度特征与线性判别特征融合的未知目标判别方法。
背景技术
雷达一维距离像(HRRP)是宽带雷达获取的目标散射点子回波在雷达视线方向的投影矢量和,包含了目标的尺寸、散射分布等几何结构信息,有利于目标分类识别。常规的一维距离像目标识别方法首先必须利用训练样本建立模板库,通过匹配特征完成判别。但实际应用中,待识别目标可能是没有参与训练的库外目标,很显然会被错误识别为已知目标类别。因此,在常规目标识别之前,需首先进行未知目标判别,以保证后续目标类别的正确识别。
现有未知目标判别方法主要包括:基于支持向量判别、聚类判别、子空间学习法和人工神经网络判别方法等。其中基于支持向量判别、聚类判别、子空间学习等方法主要关注全局线性特征,忽略了有关目标的局部细节信息。而人工神经网络通过非线性变换隐层结构,抽取数据中的深层次局部特征,但是未考虑全局的目标特征。因此,以上方法的未知目标判别性能有进一步改善的余地。
发明内容
本发明的目的在于提出一种基于并行双通道残差网络深度特征与线性判别特征融合的未知目标判别方法。通过并行双通道残差网络抽取的局部高维特征,与全局线性判特征融合,得到分类性能更全面的特征,实现对未知目标的判别。
本发明的技术方案为:
基于深度特征与线性判别特征融合的未知目标判别方法,包括以下步骤:
S1、对获取的高分辨一维距离像样本数据进行能量归一化预处理,预处理后得到一维距离像训练样本集为X=[X1,X2,..,Xi,...,Xm],Xi表示第i幅一维距离像样本,1≤i≤m,m为总的样本数;
S2、采用并行双通道残差网络进行深度特征提取,并行双通道残差网络依次包括第一卷积层、第一批归一化层、第二卷积层、第二批归一化层、并行的第一通道和第二通道、第一上采样层、第三卷积层、第三批归一化层、第二上采样层、第四卷积层、第四批归一化层、第五卷积层、第五批归一化层、全连接层、输出层;并行的第一通道和第二通道结构相同,均包括第一残差块、第二残差块、第三残差块,第一残差块为通道的输入,第一残差块和第二残差块之间、第二残差块和第三残差块之间具有最大值池化层,第三残差块的输出通过卷积和批归一化后作为通道的输出;并行双通道残差网络对训练数据的具体处理过程为:
将单幅一维距离像样本数据Xi输入到并行双通道残差网络,通过二维的第一卷积层后得到特征图维度为(1,nc),其中,nc表示二维卷积后的特征图第二维长度,卷积步长设定为Sc,关系表述为:
Figure BDA0003653651950000021
经过第一批归一化层进行批归一化运算后,再通过二维的第二卷积层和第二批归一化层进行批归一化运算后提取的局部特征F0为:
F0=IBN(HC(IBN(HC(Xi))))
其中,HC(·)表示特征提取的卷积运算,IBN(·)为批归一化运算;
将提取的局部特征F0送入并列的双通道提取多层次的空间特征:首先输入F0到两个通道的第一个残差块,第一通道的输入表示为FA0、第二通道的输入表示为FB0,分别得到两个通道第一个残差块的输出FA1、FB1
Figure BDA0003653651950000022
第二个、第三个残差组输入前经过最大池化运算IP(·)后,第二个、第三个残差组的输入和输出关系如下:
Figure BDA0003653651950000023
其中,N=2,3,FA(N-1)、FB(N-1)分别为第一、第二通道第N个残差组的输入,FAN、FBN为对应第N个残差组的输出;由并行双通道中最后一个残差组的输出FA3、FB3进行相加融合得到:
F(K)=IBN(HC(FA3))+IBN(HC(FB3))
其中,F(k)为融合特征图,
Figure BDA0003653651950000031
H表示特征图F(k)的高度,W表示F(k)的宽度,D表示特征图F(k)的通道数,在融合的特征图F(k)后接一个9层卷积模块,第三卷积层、第四卷积层和第五卷积层为二维卷积层进一步提取新层次空间特征,再利用2倍的第一上采样层和第二上采样层将特征图维度扩充,使扩充后的特征图维度与输入层的维度C1相同,最后使用1个全连接层,将所有特征图节点连接成一个特征矢量,该矢量即为所提取的深度局部特征矢量,从而在输出层获得训练一维距离像样本Xi对应的深度局部特征FNi
S3、进行线性判别特征提取:通过对一维距离像的训练数据集X进行线性判别分析,得到变换矩阵W,将预处理后的一维距离像样本Xi向W投影:
FDi=WTXi
其中,FDi为Xi对应的线性判别特征;
S4、将深度局部特征FNi与线性判别特征FDi进行融合,得到融合特征矢量Fi
Fi=[FNi,FDi]
其中,1≤i≤m,设训练目标共有p类,对每类融合特征矢量进行平均:
Figure BDA0003653651950000032
其中,hq为第q类融合特征平均矢量,1≤q≤p,Nq为第q类样本的个数,Fq为第q类目标的特征融合矢量的集合;
S5、输入待识别目标的一维距离像Xt,同样由并行双通道残差网络提取深度局部特征FNt,与对应的线性判别特征FDt进行融合得到融合特征矢量Ft
Ft=[FNt,FDt]
计算待识别目标样本对应的融合特征矢量Ft与p个融合特征平均矢量之间的欧氏距离,取其中最小的欧氏距离与门限dth比较,如果大于门限dth,则将待识别目标判别为未知目标,反之判别为已知目标,其中,门限dth是采用统计方法得到。
获取特征后,即可利用最近邻分类器对目标进行分类识别。
本发明的有益效果为,本发明提取的融合特征既有全局差异信息也包含局部细节信息,因此改善了对未知目标的判别性能。
附图说明
图1为并行双通道残差卷积网络结构示意图。
具体实施方式
下面结合附图和仿真对本发明进行详细的说明:
图1为本发明构建的并行双通道深度网络结构,对高分辨一维距离像样本数据首先进行能量归一化预处理,预处理后一维距离像数据集为X=[X1,X2,..,Xi,...,Xm],Xi表示第i幅一维距离像(1≤i≤m)。每次输入为单幅一维距离像数据Xi(1≤i≤m),一维距离像长度为n维,维度为C1=(1,n)。
一维距离像样本数据预处理后,首先通过一个二维卷积层,此时特征图维度可表征为(1,nc),其中,nc表示二维卷积后的特征图第二维长度,卷积步长设定为Sc,关系表述为:
Figure BDA0003653651950000041
在卷积模块后增加批归一化运算IBN(·)以避免由于特征分布较散导致的学习速度缓慢。经两个二维卷积层后,从输入的单幅一维距离像样本数据Xi中提取的局部特征F0可表示为:
F0=IBN(HC(IBN(HC(Xi))))                  (2)
其中,HC(·)表示特征提取的卷积运算。提取的局部特征F0送入双通道A、B提取多层次的空间特征,添加残差组使每个单通道中进行跨层残差特征融合,提升网络深度同时避免梯度消失或梯度爆炸。A通道、B通道均包括3个残差组,首先输入F0到A、B通道的第一个残差组,输入分别表示为FA0、FB0,得到第1个残差组的输出FA1、FB1
Figure BDA0003653651950000051
基于最大池化层可以保持网络的局部平移不变性,在第二个、第三个残差组输入前添加最大池化运算IP(·),以减少计算量,避免训练时过拟合。
同理,第二个、第三个残差组的输入和输出关系如下:
Figure BDA0003653651950000052
其中,N=2,3,FA(N-1)、FB(N-1)分别为A、B通道第N个残差组的输入,FAN、FBN为对应第N个残差组的输出。由并行双通道A、B中最后一个残差组的输出FA3、FB3进行相加融合得到:
F(K)=IBN(HC(FA3))+IBN(HC(FB3))                 (5)
其中,F(k)为融合特征图,
Figure BDA0003653651950000053
H表示特征图F(k)的高度,W表示F(k)的宽度,D表示特征图F(k)的通道数,在融合的特征图F(k)后接一个9层卷积模块,其中有3个二维卷积层进一步提取新层次空间特征,再利用2个2倍上采样层将特征图维度扩充,使扩充后的特征图维度与输入层的维度C1相同,最后使用1个全连接层,将所有特征图节点连接成一个特征矢量,该矢量即为所提取的深度局部特征矢量。
通过以上的并行双通道残差网络,可获得训练一维距离像样本Xi对应的深度局部特征FNi
线性判别特征提取
通过对一维距离像的训练数据集X进行线性判别分析,得到变换矩阵W,将预处理后的一维距离像样本Xi向W投影:
FDi=WTXi                            (6)
其中,FDi为Xi对应的线性判别特征。
特征融合与未知目标判别
对训练一维距离像样本Xi,将由并行双通道残差网络提取的局部高维特征FNi与线性判别特征FDi进行融合,得到融合特征矢量Fi
Fi=[FNi,FDi]                           (7)
其中,1≤i≤m。设训练目标共有p类,对每类融合特征矢量进行平均:
Figure BDA0003653651950000061
其中,hq为第q(1≤q≤p)类融合特征平均矢量,Nq为第q类样本的个数,Fq为第q类目标的特征融合矢量的集合。
输入待识别目标的一维距离像Xt,同样由并行双通道残差网络提取深度局部特征FNt,与对应的线性判别特征FDt进行融合得到融合特征矢量Ft
Ft=[FNt,FDt]                           (9)
计算待识别目标的样本对应的融合特征矢量Ft与p个融合特征平均矢量之间的欧氏距离,取其中最小的欧氏距离与门限dth比较,如果大于门限dth,则将待识别目标判别为未知目标,反之判别为已知目标,其中,门限dth是采用统计方法得到。
仿真示例
采用电磁特性计算软件获得的AH64、AN26、F15、B1B、B52五类不同型号军用飞机的HRRP数据进行仿真实验。实验的测量雷达载频为6GHz,雷达的信号带宽为400MHz,飞机目标的仰角为3°,在方位角0°-180°范围中每间隔0.1°进行采集,每架飞机数据1801个HRRP样本,其中距离单元数目为320,即每架飞机的HRRP仿真数据实质为1801×320的矩阵。
对五类飞机HRRP数据选取其中的0-45°范围内的450个一维距离像数据,引入噪声使得信噪比为-5db时,以0.5°为间隔随机选取三类已知目标作为训练数据集,其余两类作为未知目标进行实验。实验选择学习率0.01,交叉熵损失函数及adam优化。深度卷积神经网络和基于并行双通道残差网络的深度特征及浅度特征融合方法对未知目标的平均判别结果如表1所示。
表1两种方法对未知目标的平均判别率(%)
Figure BDA0003653651950000071
由表1结果可知,随机抽取三种飞机作为库内数据,其余两类作为未知目标情况下,采用深度卷积神经网络在以0.5°为间隔、且信噪比为-5db时进行判别结果较差,本文通过基于并行双通道残差网络深度特征与线性判别特征融合方法,将提取全局高维组合特征与浅度局部低维特征进行串行融合得到更全面目标信息,在低信噪比下也可实现未知目标的高判别率,识别准确率均在96%以上,验证了本方法的有效性。

Claims (1)

1.基于深度特征与线性判别特征融合的未知目标判别方法,其特征在于,包括以下步骤:
S1、对获取的高分辨一维距离像样本数据进行能量归一化预处理,预处理后得到一维距离像训练样本集为X=[X1,X2,..,Xi,...,Xm],Xi表示第i幅一维距离像样本,1≤i≤m,m为总的样本数;
S2、采用并行双通道残差网络进行深度特征提取,并行双通道残差网络依次包括第一卷积层、第一批归一化层、第二卷积层、第二批归一化层、并行的第一通道和第二通道、第一上采样层、第三卷积层、第三批归一化层、第二上采样层、第四卷积层、第四批归一化层、第五卷积层、第五批归一化层、全连接层、输出层;并行的第一通道和第二通道结构相同,均包括第一残差块、第二残差块、第三残差块,第一残差块为通道的输入,第一残差块和第二残差块之间、第二残差块和第三残差块之间具有最大值池化层,第三残差块的输出通过卷积和批归一化后作为通道的输出;并行双通道残差网络对训练数据的具体处理过程为:
将单幅一维距离像样本数据Xi输入到并行双通道残差网络,通过二维的第一卷积层后得到特征图维度为(1,nc),其中,nc表示二维卷积后的特征图第二维长度,卷积步长设定为Sc,关系表述为:
Figure FDA0003653651940000011
经过第一批归一化层进行批归一化运算后,再通过二维的第二卷积层和第二批归一化层进行批归一化运算后提取的局部特征F0为:
F0=IBN(HC(IBN(HC(Xi))))
其中,HC(·)表示特征提取的卷积运算,IBN(·)为批归一化运算;
将提取的局部特征F0送入并列的双通道提取多层次的空间特征:首先输入F0到两个通道的第一个残差块,第一通道的输入表示为FA0、第二通道的输入表示为FB0,分别得到两个通道第一个残差块的输出FA1、FB1
Figure FDA0003653651940000021
第二个、第三个残差组输入前经过最大池化运算IP(·)后,第二个、第三个残差组的输入和输出关系如下:
Figure FDA0003653651940000022
其中,N=2,3,FA(N-1)、FB(N-1)分别为第一、第二通道第N个残差组的输入,FAN、FBN为对应第N个残差组的输出;由并行双通道中最后一个残差组的输出FA3、FB3进行相加融合得到:
F(K)=IBN(HC(FA3))+IBN(HC(FB3))
其中,F(k)为融合特征图,
Figure FDA0003653651940000023
H表示特征图F(k)的高度,W表示F(k)的宽度,D表示特征图F(k)的通道数,在融合的特征图F(k)后接一个9层卷积模块,第三卷积层、第四卷积层和第五卷积层为二维卷积层进一步提取新层次空间特征,再利用2倍的第一上采样层和第二上采样层将特征图维度扩充,使扩充后的特征图维度与输入层的维度C1相同,最后使用1个全连接层,将所有特征图节点连接成一个特征矢量,该矢量即为所提取的深度局部特征矢量,从而在输出层获得训练一维距离像样本Xi对应的深度局部特征FNi
S3、进行线性判别特征提取:通过对一维距离像的训练数据集X进行线性判别分析,得到变换矩阵W,将预处理后的一维距离像样本Xi向W投影:
FDi=WTXi
其中,FDi为Xi对应的线性判别特征;
S4、将深度局部特征FNi与线性判别特征FDi进行融合,得到融合特征矢量Fi
Fi=[FNi,FDi]
其中,1≤i≤m,设训练目标共有p类,对每类融合特征矢量进行平均:
Figure FDA0003653651940000031
其中,hq为第q类融合特征平均矢量,1≤q≤p,Nq为第q类样本的个数,Fq为第q类目标的特征融合矢量的集合;
S5、输入待识别目标的一维距离像Xt,同样由并行双通道残差网络提取深度局部特征FNt,与对应的线性判别特征FDt进行融合得到融合特征矢量Ft
Ft=[FNt,FDt]
计算待识别目标样本对应的融合特征矢量Ft与p个融合特征平均矢量之间的欧氏距离,取其中最小的欧氏距离与门限dth比较,如果大于门限dth,则将待识别目标判别为未知目标,反之判别为已知目标,其中,门限dth是采用统计方法得到。
CN202210548930.5A 2022-05-20 2022-05-20 基于深度特征与线性判别特征融合的未知目标判别方法 Active CN114821335B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210548930.5A CN114821335B (zh) 2022-05-20 2022-05-20 基于深度特征与线性判别特征融合的未知目标判别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210548930.5A CN114821335B (zh) 2022-05-20 2022-05-20 基于深度特征与线性判别特征融合的未知目标判别方法

Publications (2)

Publication Number Publication Date
CN114821335A CN114821335A (zh) 2022-07-29
CN114821335B true CN114821335B (zh) 2023-04-25

Family

ID=82514923

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210548930.5A Active CN114821335B (zh) 2022-05-20 2022-05-20 基于深度特征与线性判别特征融合的未知目标判别方法

Country Status (1)

Country Link
CN (1) CN114821335B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116091854B (zh) * 2022-12-14 2023-09-22 中国人民解放军空军预警学院 一种对hrrp序列进行空间目标分类的方法和系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111624570A (zh) * 2020-04-30 2020-09-04 南京理工大学 基于二维卷积神经网络的雷达目标识别方法
CN112966667A (zh) * 2021-04-06 2021-06-15 中国人民解放军海军航空大学 海面目标一维距离像降噪卷积神经网络识别方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110348356A (zh) * 2019-07-03 2019-10-18 北京遥感设备研究所 一种基于深度光流网络的连续帧rd图像目标识别方法
CN110969203B (zh) * 2019-11-28 2022-09-30 中国人民解放军战略支援部队航天工程大学 基于自相关和cam网络的hrrp数据去冗余方法
CN111352086B (zh) * 2020-03-06 2022-08-02 电子科技大学 一种基于深度卷积神经网络的未知目标识别方法
CN111273288B (zh) * 2020-03-06 2022-05-24 电子科技大学 一种基于长短期记忆网络的雷达未知目标识别方法
CN113281776A (zh) * 2021-01-08 2021-08-20 浙江大学 针对复杂水下动态目标的激光雷达目标智能检测仪
AU2021105247A4 (en) * 2021-08-10 2021-10-07 Naval Aviation University Deep transfer learning-based method for radar HRRP target recognition with small sample size

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111624570A (zh) * 2020-04-30 2020-09-04 南京理工大学 基于二维卷积神经网络的雷达目标识别方法
CN112966667A (zh) * 2021-04-06 2021-06-15 中国人民解放军海军航空大学 海面目标一维距离像降噪卷积神经网络识别方法

Also Published As

Publication number Publication date
CN114821335A (zh) 2022-07-29

Similar Documents

Publication Publication Date Title
CN108846426B (zh) 基于深度双向lstm孪生网络的极化sar分类方法
CN103942562B (zh) 基于多分类器组合的高光谱图像分类方法
CN107238822B (zh) 真假目标一维距离像正交非线性子空间特征提取方法
CN108256436A (zh) 一种基于联合分类的雷达hrrp目标识别方法
CN104408469A (zh) 基于图像深度学习的烟火识别方法及系统
CN114842264B (zh) 一种基于多尺度空谱特征联合学习的高光谱图像分类方法
CN106951915A (zh) 一种基于类别置信度的一维距离像多分类器融合识别法
CN112966544B (zh) 一种采用ICGAN与ResNet网络的雷达辐射源信号分类识别方法
CN111709313A (zh) 基于局部和通道组合特征的行人重识别方法
CN111352086A (zh) 一种基于深度卷积神经网络的未知目标识别方法
CN114821335B (zh) 基于深度特征与线性判别特征融合的未知目标判别方法
CN112684427A (zh) 基于串行二次强化训练的雷达目标识别方法
CN112712102A (zh) 可同时识别已知和未知雷达辐射源个体的识别仪
CN110852292B (zh) 一种基于跨模态多任务深度度量学习的草图人脸识别方法
CN113902969A (zh) 融合cnn与图像相似度的零样本sar目标识别方法
CN118154986A (zh) 基于多尺度稀疏交叉融合和语义增强的遥感图像分类方法
CN110046590A (zh) 一种基于粒子群优化深度学习特征选择的一维像识别方法
CN114137518A (zh) 一种雷达高分辨距离像开集识别方法及装置
CN113486917A (zh) 一种基于度量学习的雷达hrrp小样本目标识别方法
CN117131436A (zh) 面向开放环境的辐射源个体识别方法
CN116682015A (zh) 一种基于特征解耦的跨域小样本雷达一维像目标识别方法
CN112990279B (zh) 基于自动编码器的雷达高分辨距离像库外目标拒判方法
CN110780270B (zh) 一种目标库属性判别局部正则学习子空间特征提取方法
CN104537667A (zh) 基于方向多目标遗传聚类算法的图像分割方法
CN115393693A (zh) 一种基于icrn的序贯uwb-ir图像车辆目标识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant