CN114994627A - 一种基于深度神经网络与子空间原理的测向方法 - Google Patents

一种基于深度神经网络与子空间原理的测向方法 Download PDF

Info

Publication number
CN114994627A
CN114994627A CN202210525049.3A CN202210525049A CN114994627A CN 114994627 A CN114994627 A CN 114994627A CN 202210525049 A CN202210525049 A CN 202210525049A CN 114994627 A CN114994627 A CN 114994627A
Authority
CN
China
Prior art keywords
array
data
vector
neural network
deep neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210525049.3A
Other languages
English (en)
Other versions
CN114994627B (zh
Inventor
柳艾飞
高徐裕
熊宇涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202210525049.3A priority Critical patent/CN114994627B/zh
Publication of CN114994627A publication Critical patent/CN114994627A/zh
Application granted granted Critical
Publication of CN114994627B publication Critical patent/CN114994627B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/418Theoretical aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开了一种基于深度神经网络与子空间原理的测向方法,首先构建具有多个阵元的阵列,得到阵列观测数据向量,然后估计并补偿幅度误差,构造不包含相位信息的向量;再构造协方差矩阵,获得由数据‑标签对组成的训练数据‑标签集合;利用训练数据‑标签集合训练深度神经网络;经过测试后,利用联合迭代方式获得目标角度细估计值。本发明提升了深度神经网络的泛化能力,获得了稳健高精度的目标角度估计,可以应用于阵列幅相误差条件下的目标探测。

Description

一种基于深度神经网络与子空间原理的测向方法
技术领域
本发明属于信号处理技术领域,具体涉及一种基于深度神经网络与子空间原理的测向方法。
背景技术
测向技术是阵列信号的重要内容,在雷达和声呐中已有广泛应用。MUSIC测向技术是一种超分辨测向技术,由R.O.Schmidt在文献“Multiple emitter location and signalparameter estimation[J].IEEE Transactions on Antennas and Propagation.1986,34(3),pp:276-280”中提出,最初其被用于无线电测向中;MUSIC方法根据目标导向向量和协方差矩阵噪声子空间的正交性构造空间谱;但是在阵列幅相误差情况下,上述正交性不成立,从而测向性能下降。Z.Liu,C.Zhang and P.S.Yu在文献“Direction-of-ArrivalEstimation Based on Deep Neural Networks With Robustness to ArrayImperfections[J],IEEE Transactions on Antennas and Propagation,2018,66(12),pp:7315-7327”提出了运用深度神经网络对目标进行测向的方法(记为DNN方法);当测试阶段的阵列幅相误差不同于训练阶段的幅相误差条件时,DNN方法性能明显下降。A.J.Weissand B.Friedlander在文献“Eigenstructure methods for direction finding withsensor gain and phase uncertainties[J].Circuits System Signal Processing,1990,9(3),pp:271-300”提出了运用联合迭代的方式对目标角度和幅相误差分别估计(记为WF方法),WF方法在幅相误差较大时候容易陷入局部最优解。
发明内容
为了克服现有技术的不足,本发明提供了一种基于深度神经网络与子空间原理的测向方法,首先构建具有多个阵元的阵列,得到阵列观测数据向量,然后估计并补偿幅度误差,构造不包含相位信息的向量;再构造协方差矩阵,获得由数据-标签对组成的训练数据-标签集合;利用训练数据-标签集合训练深度神经网络;经过测试后,利用联合迭代方式获得目标角度细估计值。本发明提升了深度神经网络的泛化能力,获得了稳健高精度的目标角度估计,可以应用于阵列幅相误差条件下的目标探测。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤1:阵列由M个标量传感器组成,每个标量传感器为一个阵元;K个远场、窄带目标信号入射到阵列,第k个目标信号的波达角为θk,k=1,2,…,K;第m个阵元的接收信号为rm(n);M个阵元的观测数据向量为r(n)=[r1(n),r2(n),…,rM(n)]T,其中,(·)T表示转置操作,m=1,2,…,M;
步骤2:根据r(n),估计并补偿幅度误差,得到rca(n);
步骤2-1:根据阵列观测数据向量r(n),估计协方差矩阵
Figure BDA0003643976310000021
(·)H表示共轭转置操作,Ns表示采样数;
步骤2-2:对
Figure BDA0003643976310000022
特征分解得到:
Figure BDA0003643976310000023
其中,特征值
Figure BDA0003643976310000024
按降序排列;βm为噪声特征值,m>K;um为βm对应的特征向量;
步骤2-3:根据噪声特征值估计幅度误差:
Figure BDA0003643976310000025
其中,
Figure BDA0003643976310000026
为m个阵元的幅度误差估计值,
Figure BDA0003643976310000027
Figure BDA0003643976310000028
表示矩阵表示矩阵
Figure BDA0003643976310000029
第m行第m列的元素,
Figure BDA00036439763100000210
表示矩阵
Figure BDA00036439763100000211
第1行第1列的元素;
步骤2-4:对阵列观测数据向量r(n)进行幅度补偿得到
Figure BDA00036439763100000212
其中,
Figure BDA00036439763100000213
步骤3:根据rca(n),构造不包含相位信息的向量rd(n)=rca(n)⊙(rca(n))*,其中⊙表示向量对应元素相乘,(·)*表示取共轭操作;
步骤4:构造协方差矩阵
Figure BDA00036439763100000214
步骤5:根据
Figure BDA00036439763100000215
获得由N组数据-标签对组成的训练数据-标签集合{(x1,y1),(x2,y2),…,(xN,yN)};
步骤5-1:取
Figure BDA0003643976310000031
的上三角元素排列组成一个
Figure BDA0003643976310000032
维的向量
Figure BDA0003643976310000033
步骤5-2:对x0进行归一化得到一个
Figure BDA0003643976310000034
维的向量xi=(x0-mean(x0))/||x0-mean(x0)||2,其中mean(·)表示取均值,||·||2表示2范数;对应的标签数据为L维的向量yi,其中L为深度神经网络的输出维度;定义yi的第l个元素为yi(l),yi(l)由下式计算得到:
Figure BDA0003643976310000035
其中η为角度搜索步长,i=1,2,…,N;
获取数据-标签对(xi,yi);
步骤5-3:在不同场景下获得N组观测数据r(n),并根据步骤4,获得N组相应的
Figure BDA0003643976310000036
根据步骤5-1和5-2获得由N组数据-标签对组成的训练数据-标签集合{(x1,y1),(x2,y2),…,(xN,yN)};
步骤6:利用训练数据-标签集合{(x1,y1),(x2,y2),…,(xN,yN)}训练深度神经网络;
步骤7:测试阶段,获得不在训练数据集合中的输入数据xt,输入到经过步骤(6)训练后的深度神经网络中,获得输出空间谱;通过谱峰搜索获得目标角度粗估计值
Figure BDA0003643976310000037
步骤8:利用联合迭代方式获得目标角度细估计值
Figure BDA0003643976310000038
步骤8-1:根据阵列观测数据向量r(n)估计协方差矩阵
Figure BDA0003643976310000039
步骤8-2:对协方差矩阵
Figure BDA00036439763100000310
特征值分解,得到
Figure BDA00036439763100000311
其中特征值λm按降序排列;λm为特征值,vm为λm对应的特征向量;噪声子空间Unoise=[vK+1,vK+2,...,vM];
步骤8-3:初始化迭代次数e=0、目标角度为
Figure BDA0003643976310000041
计算
Figure BDA0003643976310000042
diag{·}表示把向量转化为对角矩阵;
步骤8-4:使e加1;估计阵列幅相误差如下:
Figure BDA0003643976310000043
其中,w=[1,0,0,...,0]T
步骤8-5:通过搜索空间谱的谱峰位置,估计目标的角度如下:
Figure BDA0003643976310000044
其中,
Figure BDA0003643976310000045
表示函数取最小值时的θ值,
Figure BDA0003643976310000046
△为角度范围值;
步骤8-6:若满足迭代终止条件abs{Je-Je-1}<ε,其中,ε为常数,Je=(δe)HQeδe,abs{·}表示对函数取绝对值,返回角度细估计值
Figure BDA0003643976310000047
迭代终止;否则,返回步骤8-4,继续迭代。
本发明的有益效果如下:
本发明提出了一种基于深度神经网络和子空间原理的测向方法,补偿了阵列幅度误差,消除了阵列相位误差,提升了深度神经网络的泛化能力,获得了稳健高精度的目标角度估计。本发明主要应用于阵列幅相误差条件下的目标探测。
附图说明
图1为本发明方法的流程示意图。
图2为本发明实施例角度估计RMSE随相位误差的标准差
Figure BDA0003643976310000048
的变化曲线。
图3为本发明实施例角度估计RMSE随幅度误差的标准差σα的变化曲线。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
本发明针对阵列幅相误差的条件下,已有方法不能准确进行目标测向的问题,提出了一种稳健且高精度的阵列测向方法,该方法利用深度神经网络和子空间原理,在阵列幅相误差条件下仍旧能获得尖锐的谱峰,角度估计误差较小。
一种基于深度神经网络与子空间原理的测向方法,包括如下步骤:
步骤1:阵列由M个标量传感器组成,每个标量传感器为一个阵元;K个远场、窄带目标信号入射到阵列,第k个目标信号的波达角为θk,k=1,2,…,K;第m个阵元的接收信号为rm(n);M个阵元的观测数据向量为r(n)=[r1(n),r2(n),…,rM(n)]T,其中,(·)T表示转置操作,m=1,2,…,M;
步骤2:根据r(n),估计并补偿幅度误差,得到rca(n);;
步骤2-1:根据阵列观测数据向量r(n),估计协方差矩阵
Figure BDA0003643976310000051
(·)H表示共轭转置操作,Ns表示采样数;
步骤2-2:对
Figure BDA0003643976310000052
特征分解得到:
Figure BDA0003643976310000053
其中,特征值
Figure BDA0003643976310000054
按降序排列;βm为噪声特征值,m>K;um为βm对应的特征向量。
步骤2-3:根据噪声特征值估计幅度误差:
Figure BDA0003643976310000055
其中,
Figure BDA0003643976310000056
为m个阵元的幅度误差估计值,
Figure BDA0003643976310000057
Figure BDA0003643976310000058
表示矩阵表示矩阵
Figure BDA0003643976310000059
第m行第m列的元素,
Figure BDA00036439763100000510
表示矩阵
Figure BDA00036439763100000511
第1行第1列的元素;
步骤2-4:对阵列观测数据向量r(n)进行幅度补偿得到
Figure BDA00036439763100000512
其中,
Figure BDA00036439763100000513
步骤3:根据rca(n),构造不包含相位信息的向量rd(n)=rca(n)⊙(rca(n))*,其中⊙表示向量对应元素相乘,(·)*表示取共轭操作;;
步骤4:构造协方差矩阵
Figure BDA0003643976310000061
步骤5:根据
Figure BDA0003643976310000062
获得由N组数据-标签对组成的训练数据-标签集合{(x1,y1),(x2,y2),…,(xN,yN)};
步骤5-1:取
Figure BDA0003643976310000063
的上三角元素排列组成一个
Figure BDA0003643976310000064
维的向量
Figure BDA0003643976310000065
步骤5-2:对x0进行归一化得到一个
Figure BDA0003643976310000066
维的向量xi=(x0-mean(x0))/||x0-mean(x0)||2,其中mean(·)表示取均值,||·||2表示2范数;对应的标签数据为L维的向量yi(其中L为深度神经网络的输出维度),定义yi的第l个元素为yi(l),yi(l)由下式计算得到:
Figure BDA0003643976310000067
其中η为角度搜索步长,i=1,2,…,N;
获取数据-标签对(xi,yi);
步骤5-3:在不同场景下获得N组观测数据r(n),并根据步骤4,获得N组相应的
Figure BDA0003643976310000068
根据步骤5-1和5-2获得由N组数据-标签对组成的训练数据-标签集合{(x1,y1),(x2,y2),…,(xN,yN)};
步骤6:利用训练数据-标签集合{(x1,y1),(x2,y2),…,(xN,yN)}训练深度神经网络;
步骤7:测试阶段,获得不在训练数据集合中的输入数据xt,输入到经过步骤(6)训练后的深度神经网络中,获得输出空间谱;通过谱峰搜索获得目标角度粗估计值
Figure BDA0003643976310000071
步骤8:利用联合迭代方式获得目标角度细估计值
Figure BDA0003643976310000072
步骤8-1:根据阵列观测数据向量r(n)估计协方差矩阵
Figure BDA0003643976310000073
步骤8-2:对协方差矩阵
Figure BDA0003643976310000074
特征值分解,得到
Figure BDA0003643976310000075
其中特征值λm按降序排列;λm为特征值,vm为λm对应的特征向量;噪声子空间Unoise=[vK+1,vK+2,...,vM];
步骤8-3:初始化迭代次数e=0、目标角度为
Figure BDA0003643976310000076
计算
Figure BDA0003643976310000077
diag{·}表示把向量转化为对角矩阵;
步骤8-4:使e加1;估计阵列幅相误差如下:
Figure BDA0003643976310000078
其中,w=[1,0,0,...,0]T
步骤8-5:通过搜索空间谱的谱峰位置,估计目标的角度如下:
Figure BDA0003643976310000079
其中,
Figure BDA00036439763100000710
表示函数取最小值时的θ值,
Figure BDA00036439763100000711
△为一个小的角度范围值;
步骤8-6:若满足迭代终止条件abs{Je-Je-1}<ε(其中,ε为一个很小的值,Je=(δe)HQeδe,abs{·}表示对函数取绝对值),返回角度细估计值
Figure BDA00036439763100000712
迭代终止;否则,返回步骤8-4,继续迭代。
具体实施例:
传感器阵列由11个阵元组成,包括一个边长为λ/4的矩形阵和一个半径为λ/2的均匀圆阵;目标信号为远场、窄带信号;噪声为高斯白噪声,目标信号与噪声不相关;不同目标信号的功率相等,信噪比SNR=10dB,其中,
Figure BDA0003643976310000081
Figure BDA0003643976310000082
为目标信号功率,
Figure BDA0003643976310000083
为噪声功率;Monte-Carlo次数为100;阵元的幅度误差
Figure BDA0003643976310000084
和相位误差
Figure BDA0003643976310000085
分别根据下式产生
Figure BDA0003643976310000086
Figure BDA0003643976310000087
其中,γm和ηm是在[-0.5,0.5]上均匀分布的独立同分布随机变量。σα是αm的标准差,
Figure BDA0003643976310000088
Figure BDA0003643976310000089
的标准差;本发明方法和DNN方法的深度神经网络在σα=0.1、
Figure BDA00036439763100000810
和采样数为400的条件下进行训练。
本发明方法的深度神经网络由输入层、两层隐藏层和输出层组成;输入层神经元个数为M×(M-1)/2,隐藏层神经元个数分别为M×(M-1)/3和2M×(M-1)/9,每个隐藏层后面都接一个tanh非线性激活函数;输出层神经元个数为AngleScope/η,其中AngleScope代表角度搜索范围。
训练数据集合构造:目标角度搜索区间为[-60°,60°),即AngleScope=120°,设定搜索步长η=1°。考虑两个目标信号场景,这两个目标角度间隔集合是S={3°,6°,...,60°},覆盖了从目标信号间隔相隔较近到相隔较远的场景。第一个目标角度范围θ1∈[-60°,60°-△s),其中△s表示S中选取的两目标间隔角度,第二个角度设置为θ2=θ1+△s,对每组目标角度都设置随机噪声并收集10组数据,每组数据标记为xi,其中下标i为数据序号。xi数据的标签yi为120个元素组成的数列。另外,考虑利用多个信噪比场景下的数据同时训练网络,多个信噪为[0dB,5dB,10dB,20dB]。最终数据集里收集(117+114+…+60)×10×4=70800个协方差向量与它们的标签组成的数据-标签集合{(x1,y1),(x2,y2),…,(xN,yN)}。
在测试阶段,阵列接收数据和幅相误差不在训练数据集合中。固定σα=0.1,信噪比为10dB,快拍数为400,本发明方法、WF方法和DNN方法的角度估计均方根误差曲线(RootMean Square Error,RMSE)随相位误差的标准差
Figure BDA0003643976310000091
的变化如图2所示。结合图2,本发明方法不受相位误差影响,无论在大相位误差还是小相位误差的条件下,都能得到高精度的目标角度估计结果。而WF方法和DNN方法在大相位误差条件下失效。
在测试阶段,固定
Figure BDA0003643976310000092
本发明方法、WF方法和DNN方法的角度估计RMSE随幅度误差的标准差σα的变化如图3所示。结合图3,本发明方法性能受幅度误差影响小。而WF方法和DNN方法在大幅度误差条件下角度估计性能明显下降。

Claims (1)

1.一种基于深度神经网络与子空间原理的测向方法,其特征在于,包括如下步骤:
步骤1:阵列由M个标量传感器组成,每个标量传感器为一个阵元;K个远场、窄带目标信号入射到阵列,第k个目标信号的波达角为θk,k=1,2,…,K;第m个阵元的接收信号为rm(n);M个阵元的观测数据向量为r(n)=[r1(n),r2(n),…,rM(n)]T,其中,(·)T表示转置操作,m=1,2,…,M;
步骤2:根据r(n),估计并补偿幅度误差,得到rca(n);
步骤2-1:根据阵列观测数据向量r(n),估计协方差矩阵
Figure FDA0003643976300000011
(·)H表示共轭转置操作,Ns表示采样数;
步骤2-2:对
Figure FDA0003643976300000012
特征分解得到:
Figure FDA0003643976300000013
其中,特征值
Figure FDA0003643976300000014
按降序排列;βm为噪声特征值,m>K;um为βm对应的特征向量;
步骤2-3:根据噪声特征值估计幅度误差:
Figure FDA0003643976300000015
其中,
Figure FDA0003643976300000016
为m个阵元的幅度误差估计值,
Figure FDA0003643976300000017
Figure FDA0003643976300000018
表示矩阵表示矩阵
Figure FDA0003643976300000019
第m行第m列的元素,
Figure FDA00036439763000000110
表示矩阵
Figure FDA00036439763000000111
第1行第1列的元素;
步骤2-4:对阵列观测数据向量r(n)进行幅度补偿得到
Figure FDA00036439763000000112
其中,
Figure FDA00036439763000000113
步骤3:根据rca(n),构造不包含相位信息的向量rd(n)=rca(n)⊙(rca(n))*,其中⊙表示向量对应元素相乘,(·)*表示取共轭操作;
步骤4:构造协方差矩阵
Figure FDA00036439763000000114
步骤5:根据
Figure FDA0003643976300000021
获得由N组数据-标签对组成的训练数据-标签集合{(x1,y1),(x2,y2),…,(xN,yN)};
步骤5-1:取
Figure FDA0003643976300000022
的上三角元素排列组成一个
Figure FDA0003643976300000023
维的向量
Figure FDA0003643976300000024
步骤5-2:对x0进行归一化得到一个
Figure FDA0003643976300000025
维的向量xi=(x0-mean(x0))/||x0-mean(x0)||2,其中mean(·)表示取均值,||·||2表示2范数;对应的标签数据为L维的向量yi,其中L为深度神经网络的输出维度;定义yi的第l个元素为yi(l),yi(l)由下式计算得到:
Figure FDA0003643976300000026
其中η为角度搜索步长,i=1,2,…,N;
获取数据-标签对(xi,yi);
步骤5-3:在不同场景下获得N组观测数据r(n),并根据步骤4,获得N组相应的
Figure FDA0003643976300000027
根据步骤5-1和5-2获得由N组数据-标签对组成的训练数据-标签集合{(x1,y1),(x2,y2),…,(xN,yN)};
步骤6:利用训练数据-标签集合{(x1,y1),(x2,y2),…,(xN,yN)}训练深度神经网络;
步骤7:测试阶段,获得不在训练数据集合中的输入数据xt,输入到经过步骤(6)训练后的深度神经网络中,获得输出空间谱;通过谱峰搜索获得目标角度粗估计值
Figure FDA0003643976300000028
步骤8:利用联合迭代方式获得目标角度细估计值
Figure FDA0003643976300000029
步骤8-1:根据阵列观测数据向量r(n)估计协方差矩阵
Figure FDA0003643976300000031
步骤8-2:对协方差矩阵
Figure FDA0003643976300000032
特征值分解,得到
Figure FDA0003643976300000033
其中特征值λm按降序排列;λm为特征值,vm为λm对应的特征向量;噪声子空间Unoise=[vK+1,vK+2,…,vM];
步骤8-3:初始化迭代次数e=0、目标角度为
Figure FDA0003643976300000034
计算
Figure FDA0003643976300000035
diag{·}表示把向量转化为对角矩阵;
步骤8-4:使e加1;估计阵列幅相误差如下:
Figure FDA0003643976300000036
其中,w=[1,0,0,...,0]T
步骤8-5:通过搜索空间谱的谱峰位置,估计目标的角度如下:
Figure FDA0003643976300000037
其中,
Figure FDA0003643976300000038
表示函数取最小值时的θ值,
Figure FDA0003643976300000039
△为角度范围值;
步骤8-6:若满足迭代终止条件abs{Je-Je-1}<ε,其中,ε为常数,Je=(δe)HQeδe,abs{·}表示对函数取绝对值,返回角度细估计值
Figure FDA00036439763000000310
迭代终止;否则,返回步骤8-4,继续迭代。
CN202210525049.3A 2022-05-14 2022-05-14 一种基于深度神经网络与子空间原理的测向方法 Active CN114994627B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210525049.3A CN114994627B (zh) 2022-05-14 2022-05-14 一种基于深度神经网络与子空间原理的测向方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210525049.3A CN114994627B (zh) 2022-05-14 2022-05-14 一种基于深度神经网络与子空间原理的测向方法

Publications (2)

Publication Number Publication Date
CN114994627A true CN114994627A (zh) 2022-09-02
CN114994627B CN114994627B (zh) 2024-04-23

Family

ID=83027127

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210525049.3A Active CN114994627B (zh) 2022-05-14 2022-05-14 一种基于深度神经网络与子空间原理的测向方法

Country Status (1)

Country Link
CN (1) CN114994627B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160097853A1 (en) * 2014-10-06 2016-04-07 Nidec Elesys Corporation Neural network-based radar system
CN108037520A (zh) * 2017-12-27 2018-05-15 中国人民解放军战略支援部队信息工程大学 阵列幅相误差条件下基于神经网络的直接定位偏差修正方法
US10769528B1 (en) * 2019-06-07 2020-09-08 Sas Institute Inc. Deep learning model training system
CN112881972A (zh) * 2021-01-15 2021-06-01 电子科技大学 一种阵列模型误差下基于神经网络的波达方向估计方法
CN113255171A (zh) * 2021-07-09 2021-08-13 中国人民解放军国防科技大学 一种基于迁移学习的测向误差校正方法与装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160097853A1 (en) * 2014-10-06 2016-04-07 Nidec Elesys Corporation Neural network-based radar system
CN108037520A (zh) * 2017-12-27 2018-05-15 中国人民解放军战略支援部队信息工程大学 阵列幅相误差条件下基于神经网络的直接定位偏差修正方法
US10769528B1 (en) * 2019-06-07 2020-09-08 Sas Institute Inc. Deep learning model training system
CN112881972A (zh) * 2021-01-15 2021-06-01 电子科技大学 一种阵列模型误差下基于神经网络的波达方向估计方法
CN113255171A (zh) * 2021-07-09 2021-08-13 中国人民解放军国防科技大学 一种基于迁移学习的测向误差校正方法与装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
丛迅超;: "基于深度学习的数据级多源融合定位增强算法", 电子质量, no. 04, 20 April 2020 (2020-04-20) *

Also Published As

Publication number Publication date
CN114994627B (zh) 2024-04-23

Similar Documents

Publication Publication Date Title
Cong et al. Robust DOA estimation method for MIMO radar via deep neural networks
CN109085531B (zh) 基于神经网络的近场源到达角估计方法
CN110208735B (zh) 一种基于稀疏贝叶斯学习的相干信号doa估计方法
Xiang et al. Improved de-multipath neural network models with self-paced feature-to-feature learning for DOA estimation in multipath environment
US5345539A (en) Radar apparatus using neural network for azimuth and elevation detection
CN109298383B (zh) 一种基于变分贝叶斯推断的互质阵波达方向角估计方法
CN108169708B (zh) 模块化神经网络的直接定位方法
CN108375752A (zh) 基于全角度搜索的幅相误差单辐射源测向方法
CN111487478B (zh) 基于深度神经网络的角度依赖型复杂阵列误差校准方法
CN110888105B (zh) 一种基于卷积神经网络和接收信号强度的doa估计方法
Zhu et al. A deep learning architecture for broadband DOA estimation
US11681006B2 (en) Method for jointly estimating gain-phase error and direction of arrival (DOA) based on unmanned aerial vehicle (UAV) array
CN109725298B (zh) 一种基于秩损求根的阵列流型误差校准和波达方向估计方法
CN112487703A (zh) 基于稀疏贝叶斯在未知噪声场的欠定宽带信号doa估计方法
CN111610488B (zh) 基于深度学习的任意阵列波达角估计方法
CN111580042B (zh) 一种基于相位优化的深度学习测向方法
CN115236584A (zh) 基于深度学习的米波雷达低仰角估计方法
Chen et al. SDOA-Net: An Efficient Deep Learning-Based DOA Estimation Network for Imperfect Array
CN114460531A (zh) 一种均匀线阵music空间谱估计方法
CN114994627A (zh) 一种基于深度神经网络与子空间原理的测向方法
Chen et al. Robust direction-of-arrival estimation via sparse representation and deep residual convolutional network for co-prime arrays
CN114184999B (zh) 一种互耦小孔径阵列的生成式模型处理方法
CN112255625B (zh) 基于深度学习的二维角度依赖误差下的一维线阵测向方法
CN109298384B (zh) 一种基于变分贝叶斯推断的非均匀直线阵波达方向角估计方法
Chen et al. Joint angle and range estimation for frequency diverse array using multi-layer perceptron neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant