CN107463966B - 基于双深度神经网络的雷达一维距离像目标识别方法 - Google Patents

基于双深度神经网络的雷达一维距离像目标识别方法 Download PDF

Info

Publication number
CN107463966B
CN107463966B CN201710705891.4A CN201710705891A CN107463966B CN 107463966 B CN107463966 B CN 107463966B CN 201710705891 A CN201710705891 A CN 201710705891A CN 107463966 B CN107463966 B CN 107463966B
Authority
CN
China
Prior art keywords
dnn
sub
fusion
sample
samples
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201710705891.4A
Other languages
English (en)
Other versions
CN107463966A (zh
Inventor
廖阔
司进修
周毅
何旭东
杨孟文
周代英
沈晓峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201710705891.4A priority Critical patent/CN107463966B/zh
Publication of CN107463966A publication Critical patent/CN107463966A/zh
Application granted granted Critical
Publication of CN107463966B publication Critical patent/CN107463966B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Remote Sensing (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明属于雷达技术领域,具体的说是涉及一种基于双深度神经网络的雷达一维距离像目标识别方法。本发明的方法首先对目标的一维距离像数据进行随机距离扰动、样本扩展、加噪声等预处理操作,以增强识别系统的鲁棒性;随后结合深度学习理论,提出了具有自适应性学习率的双深度神经网络(DDNN),对其进行无监督预训练和有监督微调,得到DDNN模型参数;然后利用DDNN对各测试样本进行预识别,得到各样本在两个子网络中的预识别结果;最后根据预识别结果,利用改进的DS证据理论对其进行时空多级决策融合,并得到目标识别结果。

Description

基于双深度神经网络的雷达一维距离像目标识别方法
技术领域个
本发明属于雷达技术领域,具体的说是涉及一种基于双深度神经网络的雷达一维距离像目标识别方法。
背景技术
随着深度学习理论的不断发展,以深度学习为基础的相关算法在众多目标识别领域得到广泛应用。但在基于一维距离像的目标识别中,由于训练样本数量较少,使得深度模型在学习过程中容易出现过拟合的问题,最终影响识别结果。因此,需根据一维像数据特点研究新的深度学习模型以进一步提高识别率。
发明内容
本发明的目的是,针对基于雷达一维距离像的目标识别问题,提供一种新的自适应学习率的双深度神经网络模型,并将模型给出的多组连续识别结果采用改进的DS策略进行时空多级决策融合,最终得到更好的目标识别效果。
本发明的技术方案是:提出一种基于双深度神经网络和改进DS决策融合的雷达一维距离像目标识别方法,其特征在于包括以下步骤:
S1、获取数据样本:
由高分辨率雷达获取飞行目标的一维距离像数据构成数据集:其中K表示目标类别总数,Mi代表第i类目标的一维距离像个数,为数据集合中样本总数,表示第i类目标的第j幅一维距离像,样本维数为320;采用1-of-K编码方式得到样本的标签矢量为yij=[yij(1),yij(2),...,yij(K)],则表示数据集合D(0)所对应的标签集合。
S2、数据样本的预处理:
首先对S1所述数据集D(0)进行样本扩展。将数据集中每个原始样本添加随机距离偏移,即在样本前后端随机插入总共80个0元素,对每个原始样本重复10次添加随机距离偏移的操作,每一幅一维像被扩展为10幅。则得到扩展及随机平移后的数据集合,记为:其中
随后,对D(1)中的每个样本添加最大信噪比22dB的高斯白噪声,并进行能量归一化,将归一化后的样本集记为:
将D(2)中同类目标的样本按照7:3比例随机划分构成训练集和测试集,记训练集为:其中K表示目标类别总数,Ni代表训练集中第i类目标的一维距离像数,为训练集中样本总数,表示第i类目标的第j幅一维距离像样本,且维数为400;同理,测试集记为:其中Bi代表测试集中第i类目标的一维距离像数,为测试集中样本总数,且为数据集样本总数;
S3、构建具有自适应学习率的双深度神经网络(DDNN):
根据深度学习理论,首先基于TensorFlow平台搭建两个结构相同的4层神经子网络(网络包含:输入层、两层隐含层、一个softmax输出层),设置两个子网络的优化目标函数分别为loss1、loss2,两个子网络分别记为DNN-1、DNN-2。
随后将S2中所述的样本训练集作为子网络DNN-1的第一层输入;对网络参数进行无监督的预训练,该过程中,使用了本发明提出的一种新的自适应学习率计算方法;随后结合样本标签集,对DNN-1子网络进行有监督微调。使用相同的数据集对子网络DNN-2进行上述参数训练操作。
由子网络DNN-1和DNN-2一起构成双深度神经网络DDNN。
S4、采用步骤S3中的双深度神经网络对测试样本集中的各个样本进行预识别。将各测试样本分别经DNN-1和DNN-2子网络进行识别输出,得到其在两个子网络中的输出结果分别记为矢量:
S5、提出一种改进的DS证据理论,对S4中所述各测试样本的预识别结果进行时空多级决策融合。首先,将第i类目标的连续三个时刻(t、t+1、t+2)的测试样本在两个子网络中的输出结果分别进行时域DS证据融合,得到分别表示子网络DNN-1、DNN-2对连续三个样本的时域DS融合输出。然后将两个子网络的时域DS融合结果进行空域DS融合,空域融合结果记为:pit_DS2。最后根据该时空DS多级融合输出pit_DS2进行目标识别,则目标判别输出为:即输出时空融合向量pit_DS2里最大分量对应的类别编号。
本发明的技术方案是,首先对目标的一维距离像数据进行随机距离扰动、样本扩展、加噪声等预处理操作,以增强识别系统的鲁棒性;随后结合深度学习理论,提出了具有自适应性学习率的双深度神经网络(DDNN),对其进行无监督预训练和有监督微调,得到DDNN模型参数;然后利用DDNN对各测试样本进行预识别,得到各样本在两个子网络中的预识别结果;最后根据预识别结果,利用改进的DS证据理论对其进行时空多级决策融合,并得到目标识别结果。
进一步的,所述步骤S3中构建DDNN的具体方法为:
S31、构建DDNN框架。首先搭建DNN-1和DNN-2子系统的结构框架,输入节点数为训练集中一维距离像的维数400,隐藏层节点数分别为h1=200、h2=100,输出层为softmax层,节点数为N=5,前两层的激活函数均设为RELU;
S32、构建DDNN的损失函数。不同的损失函数决定不同的分类器模型,为融合不同分类器系统的判别概率输出。
设DNN-1分类器的损失函数为loss1:
其中为均方误差经验损失函数,yij为样本xij所对应的标签,λξ(xij)为正则项,减少过拟合,f(·)为激活函数。
设DNN-2分类器的损失函数记为Loss2:
其中为正交叉熵经验损失函数,ζ为任意正无穷小常数,f(·)为激活函数。
S33、本发明提出了一种具有自适应性的学习率计算方法,从而加快识别系统网络在训练时的收敛速度。首先,对DNN-1分类器和DNN-2分类器的初始学习率Rate1、Rate2进行随机初始化;然后按下面公式对其学习率进行迭代变化:
Rate1(n+1)=α1·Rate1(n)+β1·|loss1(n)|2
Rate2(n+1)=α2·Rate2(n)+β2·|loss2(n)|2
其中α1、α2、β1、β2确定常数,可以根据实验确定,Rate(n)、loss(n)分别表示系统训练中第n次迭代后的学习率和损失误差值,随机初始化双系统的权重和偏差以及初始学习率Rate1、Rate2;
进一步的,所述步骤S5中DS时空多级融合的具体方法为:
S51、设测试样本空间中第i类目标在连续时刻t、t+1、t+2所对应的测试样本将其输入到已经训练好的DDNN的两个子网络DNN-1和DNN-2中,然后得到三个样本在子网络DNN-1中的判别概率输出记为:在子网络DNN-2中的判别概率输出记为:
根据DS概率融合策略对两组输出分别进行时域融合,融合策略为:
其中表示子分类器DNN-1对第i类目标的第t时刻一维距离像的判别概率输出向量,A代表任意目标类别。表示子网络DNN-1的时域DS融合输出;表示子网络DNN-2的时域DS融合输出。
S52、利用S51中测试样本的时域融合的结果,进行空域融合:
本发明的益处效果是:首先,通过对一维距离像原始数据的随机距离扰动、样本扩展以及加噪声等预处理操作,增强了识别系统的鲁棒性;其次,构建基于深度学习的双深度神经网络模型对雷达目标一维距离像进行目标识别,避免了单一识别系统的片面性,同时本发明给出了一种新的具有自适应性的学习率计算方法,可加快识别系统训练时的收敛速度;最后提出改进的DS证据理论,对DDNN的判别输出进行时间域和空间域的多级融合,有效的避免了多识别系统决策融合可能出现的“Zadeh悖论”现象,进一步提高识别率。本发明中以该模型对5类仿真飞机目标一维距离像数据进行目标识别测试,最终正确识别率为95.2%。
附图说明
图1为本发明的流程示意图。
具体实施方式
下面结合实例详细说明本发明的技术方案。
先利用雷达目标后向散射仿真软件产生5类飞机目标的一维距离像数据,其中每幅一维距离像数据的采样角度间隔为0.1度姿态角,每类目标共产生1800幅一维像数据,每幅距离像的维数是320维,记原始数据集为:其中第i类目标的第j幅距离像表示为:对每幅一维距离像通过前后端随机插0(其中插0总数为80),进行距离扰动,从而将每一幅距离像扩展为10幅像,然后对扩展后的数据集进行加噪声处理,加入22db高斯白噪声,并对数据集进行能量归一化处理,记处理后的数据集合为:其中
将D(2)中同类目标的样本按照7:3比例随机划分构成训练集和测试集,记训练集为:其中表示第i类目标的第j幅维数为400的一维距离像样本;用表示样本的类别标签向量,训练样本标签集合记为同理记测试集为:表示测试样本的类别标签向量,测试样本标签集合记为
基于TensorFlow平台搭建两个四层深度神经网络识别系统框架,记第一个子系统为DNN-1,则输入层节点数为400,隐含层节点数分别为200、100,输出层节点数为5,目标损失函数为S32中所述的loss1函数,自适应性学习率设为S33中所述Rate1,随机初始化系统其他参数;同理设置第二个子系统DNN-2,节点数设置同DNN-1,目标损失函数为S32中所述的loss2数,自适应性学习率设为S33中所述Rate2,随机初始化系统其他参数;
将训练集作为DDNN的输入,采用随机梯度下降法结合训练集标签,使用子分类器系统DNN-1、DNN-2对输入样本进行有监督训练,各迭代200次,分别得到两个子系统对训练集样本的判别概率输出;P(1),P(2),同时得到优化的DDNN模型;
将测试集样本作为DDNN中各子分类器模型的输入,然后利用该模型进行目标识别,并得到相应的测试集判别概率向量输出集
根据S5中改进的DS证据理论概率融合规则,对测试集的判别概率输出集进行时域融合,即对连续三个时刻的样本,经同一个子分类器识别后,对其判别概率输出向量进行DS融合,并把融合后的结果作为中间时刻所对应样本的概率判别输出,则子分类器DNN-1和DNN-2模型对测试集样本的判别概率输出集经时域DS融合后的结果记为:
接着对时域DS概率融合的输出进行空域DS融合,将空域DS融合的结果记为:
最后根据空域DS概率融合输出pit_DS2进行目标识别,其中预测样本的类别标号为,即所判类别为DS空域融合概率pit_DS2中最大值对应的类别。
采用仿真数据验证了本发明基于改进DS证据理论决策融合的雷达一维距离像目标识别方法的正确识别率。通过对5类飞机目标在不同姿态角度下的一维距离像数据进行随机距离扰动、扩展,以及加噪处理,将仿真数据按7:3的比例随机分为训练数据集和测试数据集。通过对测试集中各目标进行识别,得到本发明对5类目标的平均正确识别率为95.2%。

Claims (2)

1.基于双深度神经网络的雷达一维距离像目标识别方法,其特征在于,包括以下步骤:
S1、获取数据样本:
由高分辨率雷达获取飞行目标的一维距离像数据构成数据集:
其中,K表示目标类别总数,Mi代表第i类目标的一维距离像个数,为数据集合中样本总数,表示第i类目标的第j幅一维距离像,样本维数为320;
采用1-of-K编码方式得到样本的标签矢量为yij=[yij(1),yij(2),...,yij(K)],则表示数据集合D(0)所对应的标签集合;
S2、数据样本的预处理:
S21、对S1所述数据集D(0)进行样本扩展:
将数据集中每个原始样本添加随机距离偏移,即在样本前后端随机插入总共80个0元素,对每个原始样本重复10次添加随机距离偏移的操作,每一幅一维像被扩展为10幅,则得到扩展及随机平移后的数据集合,记为:
其中
S22、对D(1)中的每个样本添加最大信噪比22dB的高斯白噪声,并进行能量归一化,将归一化后的样本集记为:
S23、将D(2)中同类目标的样本按照7:3比例随机划分构成训练集和测试集,记训练集为:
其中,K表示目标类别总数,Ni代表训练集中第i类目标的一维距离像数,为训练集中样本总数,表示第i类目标的第j幅一维距离像样本,且维数为400;
同理,测试集记为:
其中,Bi代表测试集中第i类目标的一维距离像数,为测试集中样本总数,且为数据集样本总数;
S3、构建具有自适应学习率的双深度神经网络:
根据深度学习理论,基于TensorFlow平台搭建两个结构相同的4层神经子网络,网络包含:输入层、两层隐含层、一个softmax输出层,设置两个子网络的优化目标函数分别为loss1、loss2,两个子网络分别记为DNN-1、DNN-2;
将S2中所述的样本训练集作为子网络DNN-1的第一层输入,对网络参数进行无监督的预训练,随后结合样本标签集,对DNN-1子网络进行有监督微调;使用相同的数据集对子网络DNN-2进行上述参数训练操作;
由子网络DNN-1和DNN-2一起构成双深度神经网络DDNN,具体方法为:
S31、构建双深度神经网络框架:首先搭建DNN-1和DNN-2子系统的结构框架,输入节点数为训练集中一维距离像的维数400,隐藏层节点数分别为h1=200、h2=100,输出层为softmax层,节点数为N=5,前两层的激活函数均设为RELU;
S32、构建DDNN的损失函数:
设DNN-1分类器的损失函数为loss1:
其中,为均方误差经验损失函数,yij为样本xij所对应的标签,λξ(xij)为正则项,减少过拟合,f(·)为激活函数;
设DNN-2分类器的损失函数记为Loss2:
其中,为正交叉熵经验损失函数,yij(k)为第k个样本xij(k)所对应的标签,ζ为任意正无穷小常数,f(·)为激活函数;
S33、对DNN-1分类器和DNN-2分类器的初始学习率Rate1、Rate2进行随机初始化;然后按下面公式对其学习率进行迭代变化:
Rate1(n+1)=α1·Rate1(n)+β1·|loss1(n)|2
Rate2(n+1)=α2·Rate2(n)+β2·|loss2(n)|2
其中,α1、α2、β1、β2确定常数,可以根据实验确定,Rate(n)、loss(n)分别表示系统训练中第n次迭代后的学习率和损失误差值,随机初始化双系统的权重和偏差以及初始学习率Rate1、Rate2;
S4、采用步骤S3中的双深度神经网络对测试样本集中的各个样本进行预识别;将各测试样本分别经DNN-1和DNN-2子网络进行识别输出,得到其在两个子网络中的输出结果分别记为矢量:
S5、对S4中所述各测试样本的预识别结果进行时空多级决策融合:
S51、将第i类目标的连续三个时刻的测试样本在两个子网络中的输出结果分别进行时域DS证据融合,所述连续三个时刻记为t、t+1、t+2,得到分别表示子网络DNN-1、DNN-2对连续三个样本的时域DS融合输出;
S52、将两个子网络的时域DS融合结果进行空域DS融合,空域融合结果记为:pit_DS2
S53、根据该时空DS多级融合输出pit_DS2进行目标识别,则目标判别输出为:即输出时空融合向量pit_DS2里最大分量对应的类别编号。
2.根据权利要求1所述的基于双深度神经网络的雷达一维距离像目标识别方法,其特征在于,所述步骤S5中DS时空多级融合的具体方法为:
S51、设测试样本空间中第i类目标在连续时刻t、t+1、t+2所对应的测试样本为将其输入到已经训练好的DDNN的两个子网络DNN-1和DNN-2中,然后得到三个样本在子网络DNN-1中的判别概率输出记为:
在子网络DNN-2中的判别概率输出记为:
S52、根据DS概率融合策略对两组输出分别进行时域融合,融合策略为:
其中,表示子分类器DNN-1对第i类目标的第t时刻一维距离像的判别概率输出向量,表示子分类器DNN-2对第i类目标的第t时刻一维距离像的判别概率输出向量,A代表任意目标类别; 表示子网络DNN-1的时域DS融合输出;表示子网络DNN-2的时域DS融合输出;
S53、利用S52中测试样本的时域融合的结果,进行空域融合:
CN201710705891.4A 2017-08-17 2017-08-17 基于双深度神经网络的雷达一维距离像目标识别方法 Expired - Fee Related CN107463966B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710705891.4A CN107463966B (zh) 2017-08-17 2017-08-17 基于双深度神经网络的雷达一维距离像目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710705891.4A CN107463966B (zh) 2017-08-17 2017-08-17 基于双深度神经网络的雷达一维距离像目标识别方法

Publications (2)

Publication Number Publication Date
CN107463966A CN107463966A (zh) 2017-12-12
CN107463966B true CN107463966B (zh) 2019-06-18

Family

ID=60549996

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710705891.4A Expired - Fee Related CN107463966B (zh) 2017-08-17 2017-08-17 基于双深度神经网络的雷达一维距离像目标识别方法

Country Status (1)

Country Link
CN (1) CN107463966B (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107765240B (zh) * 2017-10-20 2020-11-06 中国人民解放军海军七〇一工厂 一种运动状态的判断方法、装置和电子设备
CN108226892B (zh) * 2018-03-27 2021-09-28 天津大学 一种基于深度学习的复杂噪声环境下的雷达信号恢复方法
CN108960281B (zh) * 2018-05-24 2020-05-05 浙江工业大学 一种黑色素瘤分类模型建立方法
CN109086700B (zh) * 2018-07-20 2021-08-13 杭州电子科技大学 基于深度卷积神经网络的雷达一维距离像目标识别方法
CN109117793B (zh) * 2018-08-16 2021-10-29 厦门大学 基于深度迁移学习的直推式雷达高分辨距离像识别方法
CN109188410B (zh) * 2018-08-27 2020-12-25 清华大学 一种非视距场景下的距离校准方法、装置及设备
CN109214452B (zh) * 2018-08-29 2020-06-23 杭州电子科技大学 基于注意深度双向循环神经网络的hrrp目标识别方法
CN109239670B (zh) * 2018-08-29 2020-08-04 杭州电子科技大学 基于结构嵌入和深度神经网络的雷达hrrp识别方法
CN109886415A (zh) * 2019-01-07 2019-06-14 鲁班嫡系机器人(深圳)有限公司 数据处理方法、装置、计算机设备和存储介质
CN109919862B (zh) * 2019-02-01 2021-08-20 北京佳格天地科技有限公司 雷达图像去噪系统、方法及计算机设备
CN110009006B (zh) * 2019-03-15 2021-03-26 华中科技大学 一种基于机器学习的点目标检测方法及系统
CN110046590B (zh) * 2019-04-22 2022-04-22 电子科技大学 一种基于粒子群优化深度学习特征选择的一维像识别方法
CN110197120B (zh) * 2019-04-23 2021-09-10 中国人民解放军国防科技大学 用于无人值守传感器系统的人员目标识别方法
CN110517180B (zh) * 2019-07-24 2023-09-19 北京旷视科技有限公司 基于高精度神经网络的图像处理方法、装置及电子设备
CN110991386B (zh) * 2019-12-14 2023-04-18 长沙芯连心智慧系统有限责任公司 一种鲁棒最近邻雷达目标一维距离像识别方法和装置
CN111273288B (zh) * 2020-03-06 2022-05-24 电子科技大学 一种基于长短期记忆网络的雷达未知目标识别方法
CN111610518B (zh) * 2020-06-09 2022-08-05 电子科技大学 基于深度残差分离卷积网络的二次雷达信号去噪方法
CN114114227B (zh) * 2022-01-27 2022-05-31 安徽京淮健锐电子科技有限公司 基于双通道异构融合网络的雷达信号调制类型识别方法
CN114943286B (zh) * 2022-05-20 2023-04-07 电子科技大学 一种基于时域特征与空域特征融合的未知目标判别方法
CN115201564A (zh) * 2022-08-29 2022-10-18 南方电网科学研究院有限责任公司 一种自适应同步相量测量方法和装置
CN116027294B (zh) * 2023-02-14 2023-11-03 深圳大学 基于决策级融合的单比特雷达微动目标识别方法、装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101241181B (zh) * 2008-03-12 2010-11-17 电子科技大学 非库属目标一维距离像判别方法
CN101598783B (zh) * 2009-07-08 2012-06-27 西安电子科技大学 基于ppca模型的强噪声背景下雷达距离像统计识别方法
CN102830404B (zh) * 2012-08-28 2014-01-08 中国人民解放军国防科学技术大学 基于距离像的激光成像雷达地面目标识别方法
CN103675787A (zh) * 2013-12-03 2014-03-26 电子科技大学 一种雷达目标一维距离像最优正交非线性子空间识别方法
CN104459668B (zh) * 2014-12-03 2017-03-29 西安电子科技大学 基于深度学习网络的雷达目标识别方法
US10497089B2 (en) * 2016-01-29 2019-12-03 Fotonation Limited Convolutional neural network
CN106951915B (zh) * 2017-02-23 2020-02-21 南京航空航天大学 一种基于类别置信度的一维距离像多分类器融合识别法

Also Published As

Publication number Publication date
CN107463966A (zh) 2017-12-12

Similar Documents

Publication Publication Date Title
CN107463966B (zh) 基于双深度神经网络的雷达一维距离像目标识别方法
Li et al. Independently recurrent neural network (indrnn): Building a longer and deeper rnn
CN109086700B (zh) 基于深度卷积神经网络的雷达一维距离像目标识别方法
KR102224253B1 (ko) 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법
CN105975931B (zh) 一种基于多尺度池化的卷积神经网络人脸识别方法
US10976429B1 (en) System and method for synthetic aperture radar target recognition utilizing spiking neuromorphic networks
Ullah et al. One-shot learning for surveillance anomaly recognition using siamese 3d cnn
Ablavatski et al. Enriched deep recurrent visual attention model for multiple object recognition
CN104537647A (zh) 一种目标检测方法及装置
CN108596327A (zh) 一种基于深度学习的地震速度谱人工智能拾取方法
Zhang et al. Self-blast state detection of glass insulators based on stochastic configuration networks and a feedback transfer learning mechanism
CN115100574A (zh) 基于融合图卷积网络与Transformer网络的动作识别方法及系统
CN111897353A (zh) 基于gru的飞行器机动轨迹预测方法
CN114155270A (zh) 行人轨迹预测方法、装置、设备及存储介质
CN112422493B (zh) SDN网络架构下基于多层感知神经网络MLDNN的DDoS攻击检测方法
CN113805561A (zh) 基于深度迁移学习的航天器智能故障诊断方法
CN107423705A (zh) 基于多层概率统计模型的sar图像目标识别方法
CN113723564A (zh) 一种对抗样本防御模型训练方法、系统及其应用
CN117035013A (zh) 一种采用脉冲神经网络预测动态网络链路的方法
CN109272036B (zh) 一种基于深度残差网络的随机蕨目标跟踪方法
Sun et al. HRRP target recognition based on soft-boundary deep SVDD with LSTM
CN118114734A (zh) 基于稀疏正则化理论的卷积神经网络优化方法及系统
CN116935196A (zh) 面向复杂环境下被遮挡目标的新型脑启发目标检测方法
CN111652021B (zh) 一种基于bp神经网络的人脸识别方法及系统
CN107229944B (zh) 基于认知信息粒子的半监督主动识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190618