CN107862329A - 一种基于深度置信网络的雷达一维距离像真假目标识别方法 - Google Patents
一种基于深度置信网络的雷达一维距离像真假目标识别方法 Download PDFInfo
- Publication number
- CN107862329A CN107862329A CN201711043264.5A CN201711043264A CN107862329A CN 107862329 A CN107862329 A CN 107862329A CN 201711043264 A CN201711043264 A CN 201711043264A CN 107862329 A CN107862329 A CN 107862329A
- Authority
- CN
- China
- Prior art keywords
- layer
- matrix
- sample
- frequency domain
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/285—Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度置信网络的雷达一维距离像真假目标识别方法,其技术方案为:首先对数据进行时频转换及能量归一化等预处理操作获得样本频域特征作为原始特征;其次对样本数据进行主成分分析,提取样本子空间特征向量;然后利用深度学习的方法,使用三个多层受限玻尔兹曼机来构建含三个隐含层的深度置信网络,采用非监督逐层贪婪训练法依次训练网络的每一层,其中在每个受限玻尔兹曼机的输入层之前增加一个链接层,链接层完成将前两层的输出拼接并构成新的融合特征矢量;随后在网络输出层接一层分类器,利用带标签样本数据采用BP算法对其进行全局参数微调;最后利用该深度网络对输入样本进行目标识别,其目标识别率高于已有识别方法。
Description
技术领域
本发明属于雷达目标识别方法,涉及使用雷达高分辨一维距离像进行真假目标识别的方法。
背景技术
通过雷达回波数据对目标类别进行判别是远距离目标识别的有效途径之一。其中,雷达一维距离像反映了目标散射中心在雷达视线上的分布,体现了目标的形状结构等物理信息,且可利用高分辨雷达方便的获取,因此被广泛用于雷达目标识别领域。近年来,基于深度学习的识别方法在图像识别领域取得良好的效果。有别于传统的人为设定特征的方式,使用深度模型可从一维距离像中自动学习到有利于分类的目标高阶特征,因此,研究基于深度网络模型的一维像真假目标识别方法有望进一步提高目标识别率。
发明内容
本发明的目的是:针对雷达目标一维距离像,提供一种新的基于深度置信网络模型的目标识别方法。
本发明的基于深度置信网络的雷达一维距离像真假目标识别方法,针对一维距离像的数据特点,首先对数据进行时频转换及能量归一化等预处理操作获得样本频域特征作为原始特征;其次对样本数据进行主成分分析,提取样本子空间特征向量;然后利用深度学习的方法,使用三个多层受限玻尔兹曼机(RBM)来构建含三个隐含层的深度置信网络(DBN),采用非监督逐层贪婪训练法依次训练网络的每一层,其中在每个RBM的输入层之前增加一个链接层,链接层完成将前两层的输出拼接并构成新的融合特征矢量;随后在网络输出层接一层softmax分类器,利用带标签样本数据采用BP算法(Error BackPropagation)对这个含三层隐含层的DBN网络进行全局参数微调;最后利用该深度网络对输入样本进行目标识别。其具体步骤如下:
S1、训练深度置信网络分类器:
S101、获取各目标在飞行过程中的一维距离像数据(例如通过宽带雷达获取),作为训练数据集:其中,K代表总的目标类别数,Ni为第i类目标的训练样本数,为训练样本集合中总样本数,表示第i类目标的第j幅一维距离像样本,l为一维距离像的维数,表示实数集,上标表示纬度。用表示样本的类别标签向量,则训练样本标签集记为。
S102、对训练数据集X(0)进行数据预处理,得到预处理后的训练数据集X(3):
首先,对X(0)进行频域变换及能量归一化处理,得到样本频域像集X(1):
对X(0)中的每幅一维距离像样本先进行FFT变换(例如256点的FFT变换)并保留变换后的正频率分量,得到频域数据,随后将所述频域数据进行能量(功率)归一化,得到样本频域像样本频域像集记为其中l1为正频率分量个数。
其次,对样本频域像集的每个样本频域像进行降维处理(例如采用主成分分析(PCA)的降维方式),得到降维后的样本频域像即将每幅一维像样本投影变换到低维的特征子空间中,得到其投影特征子像p为预设的特征子像维数。
最后,对样本频域像和投影特征子像进行拼接,得到样本融合特征矢量即从而得到预处理后的训练数据集
S103、依次构造三个受限玻尔兹曼机(RBM),分别记为RBM1、RBM2和RBM3,其中RBM1的输入为样本融合特征矢量RBM2的输入为RBM1的输出与样本融合特征矢量拼接矢量,RBM3的输入为RBM2的输出与RBM1的输出的拼接矢量。
即RBM1的可视层结点数v1=l+p,用h1表示RBM1的隐藏层结点数,以隐藏层各结点的激活值作为RBM1的输出,记为
则RBM2的输入即RBM2的可视层结点数v2=v1+h1;用h2表示RBM2的隐藏层结点数,以隐藏层各结点激活值作为RBM2的输出,记为
则RBM3的输入即RBM3的可视层结点数v3=h1+h2用h3表示RBM3的隐藏层结点数,以隐藏层各结点激活值作为RBM3的输出,记为
S104、依次对所述三个受限玻尔兹曼机进行参数训练,获取三个受限玻尔兹曼机的权值矩阵:例如采用matlabDeepLearnToolbox工具箱中的dbntrain.m函数对受限玻尔兹曼机进行参数训练。
S105、构造一个5层的深度神经网络(DNN),其中最后一层(输出层)为一个分类器(例如softmax分类器),所述5层从输入到输出层依次定义为:输入层、第二层、第三层、第四层,分类器层,其各层结点数目依次为:v1、v2、v3、h3、K。
输入层到第二层的权值矩阵的初始值由RBM1的权值矩阵进行矩阵扩展后得到,第二层到第三层的权值矩阵的初始值由RBM2权值矩阵进行矩阵扩展后得到,第三层到第四层的权值矩阵的初始值为分类器层的权值矩阵的初始权值随机生成。
S106、根据训练样本标签集Y,将样本融合特征矢量作为所述深度神经网络的输入,对深度神经网络的网络参数(权值矩阵)进行训练调整,得到训练好的深度置信网络分类器。其中,训练方式可以采用训练深度神经网络的任一惯用方式,例如梯度下降法。
S2:根据训练好的深度置信网络分类器获取识别结果:
S201、输入待识别目标的一维像数据并采用与训练数据集X(0)相同的预处理方式,对z(0)进行数据预处理,得到预处理后的目标一维像数据z(3);即首先将其变换到频域,得到z(1);再对其进行降维处理,得到z(1)降维后的频域像z(2)(即投影特征子像);最后,拼接z(1)和z(2)得到融合特征矢量:z(3)=[z(1),z(2)]T,即预处理后的目标一维像数据z(3)。
S202、将S201得到的融合特征矢量z(3)作为训练好的深度置信网络分类器的输入,获取对应的前向预测结果r=[r1,r2,...,rK]T,即输出层矢量,得到当前待识别目标的类别号即输出层的K个神经元输出值中最大值对应的类别。
进一步地,步骤S102中,利用主成分分析方法获取投影特征子像的具体处理为:
(1)计算样本频域像集X(1)的样本均值以及协方差矩阵
(2)对协方差矩阵C作奇异值分解:C=UΛVT,其中U和V分别为左、右奇异矩阵;Λ为奇异值对角矩阵;
(3)取Λ中前p个最大奇异值对应的p列左奇异向量构成特征子空间投影矩阵:Aeig=[u1u2…up],其中,p值的确定方式是取前p个特征值之和占全体特征值总和的比例大于预设门限ε(如ε=85%),即:其中k表示当前提取的特征值数,n表示全体特征值数量。为了简化运算,可先对Λ的对角元素按从大到小的顺序排列λ1≥λ2≥...λγ后再构造特征子空间投影矩阵Aeig,其中γ表示对角元素数;
(4)根据公式计算投影特征子像
对应的,在步骤S201中,降维后的频域像
进一步地,步骤S105中,的初始值和阵的初始值分别为: 其中E(·)表示单位矩阵,下标为矩阵纬度;0(·)表示零矩阵,下标为矩阵纬度。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
本发明将目标一维距离像的频域特征和子空间特征合并,构成的新特征矢量被作为输入数据对网络进行训练及识别,该合并特征矢量对样本信息进行了扩充有利于提高模型精度。构造的含三层隐含层的深度置信网络,其每一层输入都由前两层的输出并联而成,该结构可以使得学习到的网络参数并不独立依赖于当前层次而是取决于不同层次的特征信息,进一步提高输出特征对原始信息的表达能力,提高了识别率。
附图说明
图1为本发明实施例的处理流程示意图。
图2为深度置信网络的网络模型结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面结合实施方式和附图,对本发明作进一步地详细描述。
实施例
参见图1,首先利用雷达目标后向散射仿真软件产生5类弹道目标的一维距离像仿真数据。5类目标分别为:真目标、轻诱饵、重诱饵、碎片1、碎片2。对每类目标按姿态角0.01度为间隔,从0度到180度共产生18000幅一维像数据,每1度范围的100幅像中随机取70幅用于构成训练数据集,其余30幅构成测试数据集。每幅像的维数为320。
参见图2,对训练集中的每幅像(i=1,2,...,5,j=1,2,...,12600,l表示一维距离像的维数,本实施例中,取l=256),先进行256点的FFT变换并保留变换后的正频率分量(128维),随后将该128维的频域数据进行能量归一化,得到的样本频域像记为:用表示样本的类别标签向量。例如,样本的类别标签向量为y3j=[00100]。则训练样本标签集合记为
对训练数据集进行频域变换及归一化处理后,得到的样本矩阵为:其中,K=5,Nk=12600。
计算训练样本均值:样本协方差矩阵:N=12600×5=63000。
对矩阵C作奇异值分解:C=UΛVT,其中U和V分别为左、右奇异矩阵;Λ为奇异值对角矩阵,其对角元素按从大到小的顺序排列λ1≥λ2≥...λγ,其中γ表示对角元素数。
确定子空间维数p:本数据集运算后子空间维数确定为p=4,取U矩阵中前p列向量构成特征子空间投影矩阵:Aeig=[u1u2…up]。
计算训练集中每幅频域像在特征子空间的投影特征子像为:
用链接层将样本频域像和投影特征子像进行拼接,得到融合特征矢量:
构造第一个受限玻尔兹曼机,记为RBM1。参见图2,可视层结点数为v1=132,隐藏层结点数为h1=100,其输入是样本融合特征矢量隐层各结点激活值输出记为
用链接层将RBM1的输出与融合特征矢量进行拼接,得到新的特征矢量:
构造第二个受限玻尔兹曼机,记为RBM2。参见图2,可视层结点数为v2=v1+h1=232,隐藏层结点数为h2=100,其输入是拼接后特征矢量隐层各结点激活值输出记为
用链接层将RBM2的输出与RBM1的输出进行拼接,得到新的特征矢量:
构造第三个受限玻尔兹曼机,记为RBM3。参见图2,可视层结点数为v3=h1+h2=200,隐藏层结点数为h3=100,其输入是拼接后特征矢量隐层各结点激活值输出记为
使用matlabDeepLearnToolbox工具箱中的dbntrain.m函数依次对RBM1、RBM2、RBM3三个受限玻尔兹曼机进行参数训练,得到三个RBM的权值矩阵分别为
构造一个5层的深度神经网络DNN,参见图2,其中最后一层为一个softmax分类器。设置网络从输入层到输出层的各层结点数目依次为:v1=132、v2=232、v3=200、h3=100、K=5。第一层到第二层之间的网络权值矩阵初始化为:第二层到第三层之间的网络权值矩阵初始化为:第三层到第四层之间的网络权值矩阵初始化为:softmax分类器层的初始权值随机生成。
根据训练样本的类别标签Y,使用matlabDeepLearnToolbox工具箱中的nntrain.m函数采用梯度下降法对该5层的DNN网络参数进行微调,如迭代S=200步后,得到最后的网络模型。
对测试集合中的某待测试一维像数据对其进行时频变换和能量归一化处理操作,得到频域像z(1)。
通过特征子空间投影变换得到测试样本的投影特征子像:
将频域像与特征子像拼接得到测试样本的融合特征矢量:z(3)=[z(1),z(2)]T。
将融合特征矢量z(3)作为DNN网络的输入,使用matlabDeepLearnToolbox工具箱中的nnpredict.m函数对输入数据进行前向预测,得到输出层矢量为r=[r1,r2,...,rK]T,则预测待识别样本的类别号为即输出层的K个神经元输出值中最大值对应的类别。
采用仿真数据验证本发明的基于深度置信网络的一维像目标识别方法的正确识别率。仿真产生了5类真假目标在不同姿态角度下的一维距离像数据,将仿真数据按7:3的比例随机分为了训练数据集和测试数据集。则对测试数据集中的各样本进行识别,5类目标的平均正确识别率为92%。
以上所述,仅为本发明的具体实施方式,本说明书中所公开的任一特征,除非特别叙述,均可被其他等效或具有类似目的的替代特征加以替换;所公开的所有特征、或所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以任何方式组合。
Claims (6)
1.一种基于深度置信网络的雷达一维距离像真假目标识别方法,其特征在于,包括下列步骤:
S1、训练深度置信网络分类器:
S101、获取训练数据集:其中,K代表总的目标类别数,Ni为第i类目标的训练样本数,为训练样本集合中总样本数,表示第i类目标的第j幅一维距离像样本,l为一维距离像的维数,符号[·]T表示矩阵转置;
用yij表示样本的类别标签向量,则训练样本标签集记为Y={yij|i=1,2,...,K;j=1,2,...,Ni};
S102、对训练数据集X(0)进行数据预处理,得到预处理后的训练数据集X(3):
对X(0)进行频域变换及能量归一化处理,得到样本频域像集其中表示对进行频域变换及能量归一化处理后的样本频域像
对各样本频域像进行降维处理,得到降维后的样本频域像
再对样本频域像和降维后的样本频域像进行拼接,得到样本融合特征矢量
S103、依次构造三个受限玻尔兹曼机,分别记为RBM1、RBM2和RBM3,其中RBM1的输入为样本融合特征矢量RBM2的输入为RBM1的输出与样本融合特征矢量拼接矢量,RBM3的输入为RBM2的输出与RBM1的输出的拼接矢量;
S104、依次对所述三个受限玻尔兹曼机进行参数训练,获取三个受限玻尔兹曼机的权值矩阵:其中h1、h2和h3分别表示RBM1、RBM2和RBM3的隐藏层结点数;v1、v2和v3分别表示RBM1、RBM2和RBM3的可视层结点数;
S105、构造一个5层的深度神经网络:
其中输出层为分类器,各层网络从输入到输出的方向依次定义为:输入层、第二层、第三层、第四层,分类器层,其各层结点数目依次为:v1、v2、v3、h3、K;
输入层到第二层的权值矩阵的初始值由RBM1的权值矩阵进行矩阵扩展后得到,第二层到第三层的权值矩阵的初始值由RBM2权值矩阵进行矩阵扩展后得到,第三层到第四层的权值矩阵的初始值为分类器层的权值矩阵的初始权值随机生成;
S106、根据训练样本标签集Y,将样本融合特征矢量作为5层深度神经网络的输入,对深度神经网络各层的权值矩阵进行训练调整,得到训练好的深度置信网络分类器;
S2:根据训练好的深度置信网络分类器获取识别结果:
S201、输入待识别目标的一维像数据并采用与训练数据集X(0)相同的预处理方式,对z(0)进行数据预处理,得到预处理后的目标一维像数据z(3);
S202、将S201得到的z(3)作为训练好的深度置信网络分类器的输入,获取对应的前向预测结果r=[r1,r2,...,rK]T,得到当前待识别目标的类别号
2.如权利要求1所述的方法,其特征在于,步骤S102中,获取降维后的样本频域像具体处理为:
计算样本频域像集X(1)的样本均值以及协方差矩阵C;
对协方差矩阵C作奇异值分解:C=UΛVT,其中U和V分别为左、右奇异矩阵;Λ为奇异值对角矩阵;
取Λ中前p个最大奇异值对应的p列左奇异向量构成特征子空间投影矩阵:Aeig=[u1u2…up],其中p值的确定方式为:取前p个特征值之和占全体特征值总和的比例大于预设门限ε,即其中k表示当前提取的特征值数,n表示全体特征值数量;
根据公式计算投影特征子像
对应的,步骤S201中,降维后的频域像
3.如权利要求1或2所述的方法,其特征在于,步骤S105中,的初始值和阵的初始值分别为:其中E(·)表示单位矩阵,下标为纬度,0(·)表示零矩阵,下标为纬度。
4.如权利要求1所述的方法,其特征在于,受限玻尔兹曼机RBM1的可视层和隐藏层节点数分别为v1=132,h1=100。
5.如权利要求1所述的方法,其特征在于,受限玻尔兹曼机RBM2的可视层和隐藏层节点数分别为v2=232,h2=100。
6.如权利要求1所述的方法,其特征在于,受限玻尔兹曼机RBM3的可视层和隐藏层节点数分别为v3=200,h3=100。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711043264.5A CN107862329A (zh) | 2017-10-31 | 2017-10-31 | 一种基于深度置信网络的雷达一维距离像真假目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711043264.5A CN107862329A (zh) | 2017-10-31 | 2017-10-31 | 一种基于深度置信网络的雷达一维距离像真假目标识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107862329A true CN107862329A (zh) | 2018-03-30 |
Family
ID=61696941
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711043264.5A Withdrawn CN107862329A (zh) | 2017-10-31 | 2017-10-31 | 一种基于深度置信网络的雷达一维距离像真假目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107862329A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111103594A (zh) * | 2018-10-10 | 2020-05-05 | 现代自动车株式会社 | 车辆中区分虚假目标的装置和方法及包括其的车辆 |
CN111273288A (zh) * | 2020-03-06 | 2020-06-12 | 电子科技大学 | 一种基于长短期记忆网络的雷达未知目标识别方法 |
CN111737521A (zh) * | 2020-08-04 | 2020-10-02 | 北京微播易科技股份有限公司 | 一种视频分类方法和装置 |
CN113285758A (zh) * | 2021-05-18 | 2021-08-20 | 成都信息工程大学 | 一种基于ipca-dnn算法的光纤非线性均衡方法 |
CN117407824A (zh) * | 2023-12-14 | 2024-01-16 | 四川蜀能电科能源技术有限公司 | 一种电力时间同步装置的健康检测方法、设备和介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107132516A (zh) * | 2017-05-16 | 2017-09-05 | 电子科技大学 | 一种基于深度置信网络的雷达一维距离像目标识别方法 |
CN107194433A (zh) * | 2017-06-14 | 2017-09-22 | 电子科技大学 | 一种基于深度自编码网络的雷达一维距离像目标识别方法 |
-
2017
- 2017-10-31 CN CN201711043264.5A patent/CN107862329A/zh not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107132516A (zh) * | 2017-05-16 | 2017-09-05 | 电子科技大学 | 一种基于深度置信网络的雷达一维距离像目标识别方法 |
CN107194433A (zh) * | 2017-06-14 | 2017-09-22 | 电子科技大学 | 一种基于深度自编码网络的雷达一维距离像目标识别方法 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111103594A (zh) * | 2018-10-10 | 2020-05-05 | 现代自动车株式会社 | 车辆中区分虚假目标的装置和方法及包括其的车辆 |
CN111273288A (zh) * | 2020-03-06 | 2020-06-12 | 电子科技大学 | 一种基于长短期记忆网络的雷达未知目标识别方法 |
CN111273288B (zh) * | 2020-03-06 | 2022-05-24 | 电子科技大学 | 一种基于长短期记忆网络的雷达未知目标识别方法 |
CN111737521A (zh) * | 2020-08-04 | 2020-10-02 | 北京微播易科技股份有限公司 | 一种视频分类方法和装置 |
CN111737521B (zh) * | 2020-08-04 | 2020-11-24 | 北京微播易科技股份有限公司 | 一种视频分类方法和装置 |
CN113285758A (zh) * | 2021-05-18 | 2021-08-20 | 成都信息工程大学 | 一种基于ipca-dnn算法的光纤非线性均衡方法 |
CN113285758B (zh) * | 2021-05-18 | 2022-06-14 | 成都信息工程大学 | 一种基于ipca-dnn算法的光纤非线性均衡方法 |
CN117407824A (zh) * | 2023-12-14 | 2024-01-16 | 四川蜀能电科能源技术有限公司 | 一种电力时间同步装置的健康检测方法、设备和介质 |
CN117407824B (zh) * | 2023-12-14 | 2024-02-27 | 四川蜀能电科能源技术有限公司 | 一种电力时间同步装置的健康检测方法、设备和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107132516B (zh) | 一种基于深度置信网络的雷达一维距离像目标识别方法 | |
CN109086700B (zh) | 基于深度卷积神经网络的雷达一维距离像目标识别方法 | |
CN107862329A (zh) | 一种基于深度置信网络的雷达一维距离像真假目标识别方法 | |
CN108229444B (zh) | 一种基于整体和局部深度特征融合的行人再识别方法 | |
US11402496B2 (en) | Method and apparatus for enhancing semantic features of SAR image oriented small set of samples | |
CN107194433B (zh) | 一种基于深度自编码网络的雷达一维距离像目标识别方法 | |
CN111860826B (zh) | 一种神经网络剪枝方法及装置 | |
KR102318772B1 (ko) | 도메인 분리 뉴럴 네트워크들 | |
CN109522553A (zh) | 命名实体的识别方法及装置 | |
CN108509910A (zh) | 基于fmcw雷达信号的深度学习手势识别方法 | |
EP3029606A2 (en) | Method and apparatus for image classification with joint feature adaptation and classifier learning | |
US20220215259A1 (en) | Neural network training method, data processing method, and related apparatus | |
CN110021051A (zh) | 一种基于生成对抗网络通过文本指导的人物图像生成方法 | |
CN109389207A (zh) | 一种自适应神经网络学习方法及神经网络系统 | |
CN111681178B (zh) | 一种基于知识蒸馏的图像去雾方法 | |
CN110097178A (zh) | 一种基于熵注意的神经网络模型压缩与加速方法 | |
CN109583322A (zh) | 一种人脸识别深度网络训练方法和系统 | |
CN105787557A (zh) | 一种计算机智能识别的深层神经网络结构设计方法 | |
CN106777402B (zh) | 一种基于稀疏神经网络的图像检索文本方法 | |
CN108596274A (zh) | 基于卷积神经网络的图像分类方法 | |
CN110188794A (zh) | 一种深度学习模型的训练方法、装置、设备及存储介质 | |
CN109978021A (zh) | 一种基于文本不同特征空间的双流式视频生成方法 | |
CN114332545A (zh) | 一种基于低比特脉冲神经网络的图像数据分类方法和装置 | |
CN117236421B (zh) | 一种基于联邦知识蒸馏的大模型训练方法 | |
CN107169031A (zh) | 一种基于深度表达的图片素材推荐方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20180330 |
|
WW01 | Invention patent application withdrawn after publication |