CN114970595A - 一种基于深度学习的单快拍多目标角度估计方法 - Google Patents
一种基于深度学习的单快拍多目标角度估计方法 Download PDFInfo
- Publication number
- CN114970595A CN114970595A CN202111673162.8A CN202111673162A CN114970595A CN 114970595 A CN114970595 A CN 114970595A CN 202111673162 A CN202111673162 A CN 202111673162A CN 114970595 A CN114970595 A CN 114970595A
- Authority
- CN
- China
- Prior art keywords
- angle
- estimation
- network
- data
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000013135 deep learning Methods 0.000 title claims abstract description 25
- 238000012549 training Methods 0.000 claims abstract description 37
- 230000004927 fusion Effects 0.000 claims abstract description 12
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 238000012360 testing method Methods 0.000 claims description 46
- 230000006870 function Effects 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 10
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 7
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明涉及一种基于深度学习的单快拍多目标角度估计方法,包括:对单快拍回波数据进行预处理;将视场角划分为一系列角度区间;基于DNN网络架构,设计与步骤S2中的角度区间一一对应的滤波器和估计子网络;其中,滤波器的输入为步骤S1预处理后的数据,并将只属于本角度区间的数据输出至对应的估计子网络;所述估计子网络根据其输入的数据进行角度估计;基于样本集对构建的各滤波器和估计子网络进行训练,得到训练好的各滤波器和估计子网络;将待估计的单快拍数据预处理后,输入至各滤波器,得到各估计子网络的角度估计结果,将所有所述估计子网络的输出结果进行角度融合,最终得到目标数量及目标角度。
Description
技术领域
本发明属于阵列信号处理领域,尤其涉及一种基于深度学习的单快拍多目标角度估计方法。
背景技术
阵列信号处理是利用不同位置上天线接收到的信号之间的差异,提取有用信息的过程。角度估计作为阵列信号处理的主要研究内容,其目的是为了确定接收天线各信号的入射方向,被广泛应用于雷达、通信和语音等领域。传统基于统计理论的角度估计方法利用阵列多个观测时刻(多快拍) 数据,在给定信号数量的情况下能保证较高的估计精度,代表方法有多重信号分类算法,最大似然估计法等。但由于目前应用场景空间电磁环境复杂多变,需要实时估计目标角度,并且难以预知目标数量,这会导致传统方法性能急剧恶化,所以需要提出一种新的角度估计算法来解决当前面临的问题。
近年来,由于深度学习具有优秀的特征提取能力,基于深度学习的角度估计逐渐成为研究热点。现有方法一般利用多快拍数据,构建基于深度神经网络(DNN)等结构的网络,通过遍历可能出现的角度组合来训练网络参数,利用训练完成的网络来实现角度估计。相比于传统基于统计理论的角度估计方法,在相同快拍数,目标数等条件下能进一步提高角度估计精度。但是目前基于深度学习的角度估计方法存在以下两方面局限:一是对于数据有较高的要求,一般利用多快拍数据构建协方差矩阵作为输入,无法实时估计目标角度,同时,训练样本需要遍历可能出现的角度组合,即需要对完备样本集进行训练以获得性能较好的模型;二是在测试时需要预知目标数量,而此参数在实际场景中不易获取。
因此,为了解决上述局限性,本发明提出了一种基于深度学习的单快拍多目标角度估计方法。
发明内容
本发明的目的是通过构建一个端到端的神经网络,利用阵列单快拍回波数据,自适应地估计出目标数量和目标角度。
为解决上述技术问题,本发明提供了一种基于深度学习的单快拍多目标角度估计方法,包括:
步骤S1:对单快拍回波数据进行预处理;
步骤S2:将视场角划分为一系列角度区间;
步骤S3:基于DNN网络架构,设计与步骤S2中的角度区间一一对应的滤波器和估计子网络;其中,滤波器的输入为步骤S1预处理后的数据,并将只属于本角度区间的数据输出至对应的估计子网络;所述估计子网络根据其输入的数据进行角度估计;
步骤S4:基于样本集对构建的各滤波器和估计子网络进行训练,得到训练好的各滤波器和估计子网络;
步骤S5:将待估计的单快拍数据预处理后,输入至各滤波器,得到各估计子网络的角度估计结果,将所有所述估计子网络的输出结果进行角度融合,最终得到目标数量及目标角度。
可选的,通过设置步长为δ2对所述视场角进行滑窗,得到L1个角度区间,每个所述角度区间大小为δ1,且δ1≥θ3dB,θ3dB表示阵列对应的瑞利限,即阵列主瓣宽度:
其中,λ表示发射信号波长,D表示阵列长度,其中,δ2<δ1/2。
可选的,所述融合通过下列方法进行:
所以第i个样本最终输出为:
其中M表示第i个样本经过网络测试和角度融合后,估计得到的目标角度数量。
可选的,所述步骤S2中,相邻的角度区间存在一部分重叠区间。
可选的,每个所述滤波器由多层全连接层构成;每个所述估计子网络的网络结构由多层全连接层构成。
可选的,所述步骤S4中,采用视场角内所有单目标角度数据对每个滤波器进行单独训练,使得其只输出对应角度区间内的样本数据;
采用视场角内所有单目标角度数据对单目标角度数据,对每个估计子网络进行单独训练。
可选的,在训练第j个滤波器的过程中,网络通过前向传播得到预测值并采用均方误差损失函数MSE计算预测值和标签y1的损失,然后通过Adam优化器及反向传播算法更新网络参数,以最小化损失函数使模型收敛,其中MSE表示为:
其中,n表示第j个滤波器的训练样本总数。
可选的,在训练所述估计子网络时,数据标签采用one-hot编码,即当目标位于该角度区间时,设置为1;否则,设置为0;
在训练第j个估计子网络的过程中,网络通过前向传播得到预测值并采用交叉熵损失函数CE计算预测值和标签y2的损失,然后通过Adam 优化器及反向传播算法更新网络参数,以最小化损失函数使模型收敛,其中CE可表示为:
其中,n表示第j个估计子网络的训练样本总数。
可选的,在步骤S4和步骤S5之间还包括:
步骤S41:测试所述滤波器和所述估计子网络,包括:将测试数据输入每个滤波器,当滤波器输出为1时,有测试数据输入对应的估计子网络进行估计,得到对应的估计角度;当滤波器输出为0时,对应的估计子网络不存在数据输入。
可选的,所述步骤S1包括:对于一个N阵元的均匀阵列,假设存在K 个目标,则回波信号可表示为:
本发明方法,对比现有技术,具有如下优点:
(1)区别于现有基于深度学习的角度估计方法利用多快拍数据所构成协方差矩阵估计目标角度,本发明方法使用预处理后的阵列单快拍回波数据估计目标角度,具有较高的实时性。
(2)现有基于深度学习的角度估计方法难以利用单目标数据训练实现对多目标的角度估计。本方法设计网络结构时,采用了滑窗的思想将视场角划分为一系列子区间,所以可以估计任意目标角度组合;并且,因为有滑窗的操作,将一个多标签估计问题转化为多个分类问题,从而可以估计角度数量;通过将视场角划分为一系列角度区间,对每个角度区间单独进行角度估计,从而在测试时能够自适应的估计目标数量和目标角度,因此可有效解决上述问题。
附图说明
图1是本发明提供的基于深度学习的单快拍多目标角度估计方法示意图;
图2是本发明提供的角度区间划分示意图;
图3是本发明提供的空间滤波模块训练示意图;
图4是本发明提供的角度估计模块训练示意图;
图5是本发明提供的测试集四预测结果图;
图6是本发明提供的测试集五预测结果图;
图7是本发明提供的测试集六预测结果图。
具体实施方式
以下结合附图和具体实施例对本发明提出的一种基于深度学习的单快拍多目标角度估计方法作进一步详细说明。根据下面说明和权利要求书,本发明的优点和特征将更清楚。需说明的是,附图均采用非常简化的形式且均使用非精准的比例,仅用以方便、明晰地辅助说明本发明实施例的目的。
本发明提供了一种基于深度学习的单快拍多目标角度估计方法,其流程如图1所示,单快拍回波数据先经过预处理,然后投入空间滤波模块判断目标位于哪几个角度区间,接着利用角度估计模块对存在目标的角度区间进行角度估计,再对角度估计模块的输出结果进行角度融合,最后输出估计的目标数量和对应的角度值,具体过程为:
步骤一、数据预处理
对于一个N阵元的均匀阵列,假设存在K个目标,则回波信号可表示为:
其中,θ=[θ1,...,θK]T为K个未知目标角度构成的向量,s(t)和n(t)为目标信号和噪声信号,T为快拍数。此时阵列流行矩阵列向量可表示为:
其中,d代表阵元间距,λ代表发射信号的波长。本发明方法利用单快拍回波数据,所以快拍数T=1。为了充分利用目标所有信息,将x向量实部xRe、虚部xIm、角度x∠和模值xabs分别进行归一化,然后将四部分信息组合起来,得到矩阵作为网络输入:
步骤二、划分角度区间
其中,λ表示发射信号波长,D表示阵列长度。设置步长为δ2对视场角进行滑窗,共计有L1个角度区间,一般而言,δ2<δ1/2。通过设置相邻角度区间存在一部分重叠区间,使得大部分目标角度都存在多个对应的相邻角度区间,从而降低角度漏检概率。其中,
步骤三、训练过程
步骤301、训练空间滤波模块
如图3所示,空间滤波模块由L1个滤波器组成,与角度区间一一对应,每个滤波器由多层全连接层构成。在训练阶段,采用视场角内所有单目标角度数据对每个滤波器进行单独训练,从而确定样本角度是否位于该角度区间。因此,对于每个滤波器,数据标签设置为:样本角度属于该角度区间时标签为1,反之为0。
训练第j个滤波器时,将预处理之后的信号矩阵X输入该滤波器网络,每个训练样本的标签设置为(y1=0或1)。在训练过程中,网络通过前向传播得到预测值并采用均方误差损失函数(MSE)计算预测值和标签y1的损失,然后通过Adam优化器及反向传播算法更新网络参数,以最小化损失函数使模型收敛。其中MSE可表示为:
其中,n表示第j个滤波器的训练样本总数。对于每个滤波器来说都是二分类问题,因此每个滤波器的输出结果均为0或1。
步骤302、训练估计子网络模块
如图4所示,估计模块由L1个子网络组成,同样与角度区间一一对应,每个估计子网络的网络结构由多层全连接层构成。本发明方法将不同角度区间的单目标角度数据,分别输入到对应的估计子网络,单独对这些子网络进行训练。假设第j个子区间对应的角度区间为:
则将该角度范围的输入数据放入相应的第j个估计子网络,进行训练。
对于每个估计子网络,角度采样间隔为δ3,所以其包含的类别数均为 L2=δ1/δ3。在训练此模块时,数据标签采用one-hot编码,即当目标位于该角度值时,设置为1;否则,设置为0。
训练第j个子网络时,将位于该角度区间的单目标角度数据经过预处理之后输入网络,每个训练样本的标签设置为在训练过程中,网络通过前向传播得到预测值并采用交叉熵损失函数(CE)计算预测值和标签y2的损失,然后通过Adam优化器及反向传播算法更新网络参数,以最小化损失函数使模型收敛。其中Cross Entropy可表示为:
步骤四、测试过程
步骤401、网络测试过程
如图1所示,测试数据先经过每个滤波器,引入滤波器阈值Th1,假设对于某一测试样本,第i滤波器输出为当判定该子区间存在目标,为1,此时再将数据输入对应的估计子网络进行估计,得到对应的估计角度当滤波器输出为时,为0,对应的估计子网络不存在数据输入;最终能得到一系列估计角度。
步骤402、角度融合
根据图2中划分角度区间的方式可知,当目标角度位于时,数据经过空间滤波模块后,存在多个滤波器输出均为1。此时,该样本会进入对应的估计子网络进行角度估计,分别得到估计角度值由于估计角度会存在角度差所以需要对其进行角度融合:当时(Th2为两个角度合并所能接受的最大间隔,一般小于瑞利限),将两个角度加权合并为一个新的角度估计结果即:
所以第i个样本最终输出为:
其中M表示第i个样本经过网络测试和角度融合后,估计得到的目标角度数量。
下面结合仿真测试实例,对本发明的应用效果进行说明。
具体仿真参数说明如表1所示。阵列采用均匀阵列结构,阵元数为40,阵元间距为λ/2。在该阵列结构下,瑞利限为2.6°,因此设置角度区间大小δ1为3°,滤波器输出阈值Th1为0.5,融合阈值Th2为2°,滑窗步长δ2为1.5°。训练数据中的每个样本只包含一个目标角度,设置视场角为 [-60°,60°),间隔δ3=0.1°对视场角进行采样。训练集信噪比为15dB,每个角度有40个样本,共计48000个训练样本。
表1参数说明
滤波器模块和角度估计模块的网络结构由表2所示。滤波器模块的网络结构由两层全连接和一层Tanh激活函数构成,角度估计模块的网络结构由三层全连接层和一层Softmax激活函数构成。采用图2和图3所示的网络训练方法,设置学习率为0.001,迭代次数为200次,最小批处理数为 512,利用训练数据训练网络参数。
表2两个模块网络结构
层数 | 滤波器模块子网络结构 | 角度估计模块子网络结构 |
L1 | FC-16 | FC-128 |
L2 | FC-1 | FC-256 |
L3 | Tanh | FC-30 |
L4 | \ | Softmax |
本发明利用以下两个指标评估方法性能:数量估计正确率(AccNum) 和均方根误差(RMSE)。数量估计正确率是指在一个测试集中样本数量估计正确的比例,即:
由于本发明在测试目标数量未知时,会存在目标数量估计错误的情况,此时难以统计该样本的RMSE,所以本发明仅计算目标数量估计正确样本的RMSE,即:
本发明首先构建三个测试集,随机设置目标角度,分析网络总体性能。三个测试集中的每个样本分别包含一个,两个和三个目标,其中每个目标信噪比均为15dB。对于测试集一,目标数量为一个,目标角度在[-60°,-25°] 中随机选取;对于测试集二,目标数量为两个,两个目标角度分别在 [-60°,-25°]和[-20°,20°]中随机选取进行组合;对于测试集三,目标数量为三个,目标角度分别在[-60°,-25°]、[-20°,20°]和[25°,60°)中随机选取进行组合。每个测试集各包含20000个测试样本。基于训练后的网络,利用上述三个测试集进行测试,结果如表3所示。
表3不同目标数量估计结果
测试集一 | 测试集二 | 测试集三 | |
AccNum(%) | 99.98 | 97.70 | 90.12 |
RMSE(°) | 0.06 | 0.12 | 0.59 |
通过分析表3数据,可以看出目标数量识别正确率均大于90%,RMSE 均小于0.6°,说明本发明方法可以有效估计目标数量及角度信息。
为了更直观的展示角度估计结果,本发明构建以下三个测试集,给出了预测结果图。对于测试集四,每个样本包含一个目标,目标角度在 [-60°,40°)中间隔1°选取;对于测试集五,每个样本包含两个目标,目标角度间隔固定为10°,[-60°,40°)和[-50°,50°)中间隔1°选取进行组合;对于测试集六,每个样本包含三个目标,目标角度间隔固定为10°,目标角度分别在[-60°,40°)、[-50°,50°)和[-40°,60°)中间隔1°选取进行组合。每个目标信噪比均为15dB,每个测试集包含100个测试样本。基于训练后的网络,利用上述三个测试集进行测试,结果如图5至图7所示。
通过分析图5至图7,可以看出目标数量基本识别正确,且估计值和标签基本保持一致,说明本发明方法可以有效识别目标数量和估计目标角度。
本发明基于DNN网络对阵列单快拍回波数据进行角度估计,首先将观测视角范围(视场角)划分为一系列有重叠的角度区间,再利用对应滤波器判断目标是否位于该角度区间,接着利用角度估计模块对存在目标的角度区间进行角度估计,然后利用角度融合算法将估计结果进行融合,最终实现单目标训练,多目标测试(测试时目标数量未知)。区别于传统基于深度学习的角度估计方法需要遍历可能出现的角度组合,本发明方法采用单目标角度训练,能够在降低训练样本量的同时保证了目标数量估计的正确率和角度估计的精度。
上述描述仅是对本发明较佳实施例的描述,并非对本发明范围的任何限定,本发明领域的普通技术人员根据上述揭示内容做的任何变更、修饰,均属于权利要求书的保护范围。
Claims (10)
1.一种基于深度学习的单快拍多目标角度估计方法,其特征在于,包括:
步骤S1:对单快拍回波数据进行预处理;
步骤S2:将视场角划分为一系列角度区间;
步骤S3:基于DNN网络架构,设计与步骤S2中的角度区间一一对应的滤波器和估计子网络;其中,滤波器的输入为步骤S1预处理后的数据,并将只属于本角度区间的数据输出至对应的估计子网络;所述估计子网络根据其输入的数据进行角度估计;
步骤S4:基于样本集对构建的各滤波器和估计子网络进行训练,得到训练好的各滤波器和估计子网络;
步骤S5:将待估计的单快拍数据预处理后,输入至各滤波器,得到各估计子网络的角度估计结果,将所有所述估计子网络的输出结果进行角度融合,最终得到目标数量及目标角度。
4.如权利要求1或2或3所述的基于深度学习的单快拍多目标角度估计方法,其特征在于,所述步骤S2中,相邻的角度区间存在一部分重叠区间。
5.如权利要求1或2或3所述的基于深度学习的单快拍多目标角度估计方法,其特征在于,每个所述滤波器由多层全连接层构成;每个所述估计子网络的网络结构由多层全连接层构成。
6.如权利要求1或2或3所述的基于深度学习的单快拍多目标角度估计方法,其特征在于,所述步骤S4中,采用视场角内所有单目标角度数据对每个滤波器进行单独训练,使得其只输出对应角度区间内的样本数据;
采用视场角内所有单目标角度数据对单目标角度数据,对每个估计子网络进行单独训练。
9.如权利要求6所述的基于深度学习的单快拍多目标角度估计方法,其特征在于,在步骤S4和步骤S5之间还包括:
步骤S41:测试所述滤波器和所述估计子网络,包括:将测试数据输入每个滤波器,当滤波器输出为1时,有测试数据输入对应的估计子网络进行估计,得到对应的估计角度;当滤波器输出为0时,对应的估计子网络不存在数据输入。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111673162.8A CN114970595B (zh) | 2021-12-31 | 2021-12-31 | 一种基于深度学习的单快拍多目标角度估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111673162.8A CN114970595B (zh) | 2021-12-31 | 2021-12-31 | 一种基于深度学习的单快拍多目标角度估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114970595A true CN114970595A (zh) | 2022-08-30 |
CN114970595B CN114970595B (zh) | 2023-04-18 |
Family
ID=82974516
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111673162.8A Active CN114970595B (zh) | 2021-12-31 | 2021-12-31 | 一种基于深度学习的单快拍多目标角度估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114970595B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7671789B1 (en) * | 2008-10-03 | 2010-03-02 | Lockheed Martin Corporation | Method and system for target detection and angle estimation based on a radar signal |
EP2602637A2 (en) * | 2011-12-08 | 2013-06-12 | Fujitsu Limited | Detection and ranging system and angle estimation method |
CN106872969A (zh) * | 2017-03-22 | 2017-06-20 | 西安电子科技大学 | 基于mtd脉冲积累及滑动处理的雷达目标角度估计方法 |
CN107870314A (zh) * | 2017-10-31 | 2018-04-03 | 西安电子科技大学 | 基于极化敏感阵列的完备电磁分量加权融合测向优化方法 |
CN111273263A (zh) * | 2019-06-25 | 2020-06-12 | 哈尔滨工程大学 | 基于信息融合的自主探测声纳多目标doa估计方法 |
CN111767791A (zh) * | 2020-05-21 | 2020-10-13 | 中国地质大学(武汉) | 一种基于对抗正则化深度神经网络的到达角估计方法 |
-
2021
- 2021-12-31 CN CN202111673162.8A patent/CN114970595B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7671789B1 (en) * | 2008-10-03 | 2010-03-02 | Lockheed Martin Corporation | Method and system for target detection and angle estimation based on a radar signal |
EP2602637A2 (en) * | 2011-12-08 | 2013-06-12 | Fujitsu Limited | Detection and ranging system and angle estimation method |
CN106872969A (zh) * | 2017-03-22 | 2017-06-20 | 西安电子科技大学 | 基于mtd脉冲积累及滑动处理的雷达目标角度估计方法 |
CN107870314A (zh) * | 2017-10-31 | 2018-04-03 | 西安电子科技大学 | 基于极化敏感阵列的完备电磁分量加权融合测向优化方法 |
CN111273263A (zh) * | 2019-06-25 | 2020-06-12 | 哈尔滨工程大学 | 基于信息融合的自主探测声纳多目标doa估计方法 |
CN111767791A (zh) * | 2020-05-21 | 2020-10-13 | 中国地质大学(武汉) | 一种基于对抗正则化深度神经网络的到达角估计方法 |
Non-Patent Citations (3)
Title |
---|
XUEYAO HU 等: "High‐resolution velocity‐azimuth joint estimation for randomtime‐division‐multiplexing multiple‐input‐multiple‐output automotive radar using matrix completion", 《IET RADAR, SONAR & NAVIGATION》 * |
刘小强: "基于单快拍的相干信源DOA估计算法研究", 《万方数据知识服务平台》 * |
葛晓凯 等: "利用深度学习方法的相干源DOA 估计", 《信号处理》 * |
Also Published As
Publication number | Publication date |
---|---|
CN114970595B (zh) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111913156B (zh) | 基于深度学习模型与特征联合的雷达辐射源个体识别方法 | |
CN108388927B (zh) | 基于深度卷积孪生网络的小样本极化sar地物分类方法 | |
CN107292317B (zh) | 基于浅层特征与t矩阵深度学习的极化sar分类方法 | |
CN110334741A (zh) | 基于循环神经网络的雷达一维距离像识别方法 | |
CN107015205B (zh) | 一种分布式mimo雷达检测的虚假目标消除方法 | |
CN108280395B (zh) | 一种对低小慢无人机飞控信号的高效识别方法 | |
CN112965062B (zh) | 基于lstm-dam网络的雷达距离像目标识别方法 | |
CN110133599A (zh) | 基于长短时记忆模型的智能雷达辐射源信号分类方法 | |
CN110376581B (zh) | 基于高斯混合概率假设密度滤波器的显式多目标跟踪方法 | |
CN111880158A (zh) | 一种基于卷积神经网络序列分类的雷达目标检测方法及系统 | |
CN106405537A (zh) | 基于位置信息和多普勒信息的雷达航迹起始方法 | |
CN110427878A (zh) | 一种快速射电暴信号识别方法与系统 | |
CN109521412B (zh) | 基于局部统计量融合的雷达组网空域目标检测方法 | |
CN110940971A (zh) | 一种雷达目标点迹录取方法、装置及存储介质 | |
CN110596687A (zh) | 一种基于黎曼流形的单基地mimo雷达目标检测方法 | |
CN104680169A (zh) | 一种面向高空间分辨率遥感图像专题信息提取的半监督诊断性特征选择方法 | |
CN104881521A (zh) | 一种标号随机集滤波器分布式融合方法 | |
CN112036239A (zh) | 一种基于深度学习网络的雷达信号工作模式识别方法及系统 | |
CN111985684B (zh) | 一种应用于远距离的长波地波传播时延时变特性预测方法 | |
CN113126038A (zh) | 高频地波雷达工作频率优选方法、系统、存储介质及应用 | |
CN111368653A (zh) | 一种基于r-d图与深度神经网络的低空小目标检测方法 | |
CN114970595B (zh) | 一种基于深度学习的单快拍多目标角度估计方法 | |
CN103076595B (zh) | 一种多元离散雷达辐射源信号的异常类型识别方法 | |
CN110045363B (zh) | 基于相对熵的多雷达航迹关联方法 | |
CN116643251A (zh) | 非均匀杂波环境中的宽带雷达运动目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |