CN112505628B - 一种基于图卷积神经网络的自适应波束形成方法 - Google Patents
一种基于图卷积神经网络的自适应波束形成方法 Download PDFInfo
- Publication number
- CN112505628B CN112505628B CN202011177136.1A CN202011177136A CN112505628B CN 112505628 B CN112505628 B CN 112505628B CN 202011177136 A CN202011177136 A CN 202011177136A CN 112505628 B CN112505628 B CN 112505628B
- Authority
- CN
- China
- Prior art keywords
- neural network
- teacher
- data
- square error
- mean square
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 357
- 238000000034 method Methods 0.000 title claims abstract description 74
- 238000012549 training Methods 0.000 claims abstract description 194
- 238000003062 neural network model Methods 0.000 claims abstract description 44
- 230000009466 transformation Effects 0.000 claims abstract description 11
- 230000009467 reduction Effects 0.000 claims abstract description 8
- 238000010606 normalization Methods 0.000 claims abstract description 7
- 238000012360 testing method Methods 0.000 claims description 72
- 210000002569 neuron Anatomy 0.000 claims description 45
- 230000003044 adaptive effect Effects 0.000 claims description 28
- 238000013527 convolutional neural network Methods 0.000 claims description 18
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 16
- 230000004913 activation Effects 0.000 claims description 14
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000013507 mapping Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 5
- 238000004891 communication Methods 0.000 abstract description 4
- 239000010410 layer Substances 0.000 description 51
- 230000006870 function Effects 0.000 description 24
- 238000005516 engineering process Methods 0.000 description 6
- 238000013140 knowledge distillation Methods 0.000 description 6
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 229940034880 tencon Drugs 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Radar, Positioning & Navigation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Remote Sensing (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Filters That Use Time-Delay Elements (AREA)
- Variable-Direction Aerials And Aerial Arrays (AREA)
Abstract
本发明提供一种基于图卷积神经网络的自适应波束形成方法,将接收到的回波数据进行扩维和归一化后采用图卷积神经网络进行特征变换和降维,得到去耦合后的回波数据;建立并训练教师神经网络模型;建立并训练学生神经网络模型:将实际得到的回波数据和期望波束方向输入到学生神经网络模型中,形成期望合成的波束。本发明是为了解决回波量大难以处理并且回波之间耦合的问题,提出一种适用于雷达通信领域旁瓣抗干扰应用的基于图卷积神经网络的自适应波束形成方法,根据回波数据和期望合成方向应用图卷积神经网络模型对波束进行合成,并利用知识蒸馏技术进行压缩,是一种适用于回波信号中存在耦合的情况下的雷达通信领域中自适应波束形成算法。
Description
技术领域
本发明涉及阵列信号处理技术领域,具体涉及一种基于图卷积神经网络的自适应波束形成方法。
背景技术
自适应波束形成技术是阵列信号处理的重要分支,其广泛应用于航天领域中的导航、飞行器测控和精确制导等的旁瓣抗干扰中,近年来已经成为新一代航天、雷达和通信领域的关键技术之一。自适应波束形成技术能够通过调整接收通道权系数有效地实现干扰抑制等功能,在航天、雷达、无线通信、声纳、地震勘测等系统中得到了广泛的应用。传统的自适应波束形成基于最大信噪比(SNR:Signal-to-Noise Ratio)、最小均方误差(MMSE:Minimum Mean Squared Error)和最小方差无失真响应(MVDR:Minimum VarianceDistortionless Response)等准则来设计波束形成器。但是当所得到的回波数据量增多时,传统的波束形成算法无法进行及时处理,并且接收到的回波信号之间存在耦合关系时,会导致波束形成的效果很差。
现有技术一:Bayu Suksmono A,Hirose A.Intelligent beamforming by usinga complex-valued neural network[J].Journal of Intelligent and Fuzzy Systems,2004,15(3-4):139-147.该文献中引入了多层感知机来替换传统的LMS算法的单层模型,在收敛速度上有所提升,但是依然采用的是迭代的方法,没有充分利用神经网络的非线性拟合能力。
现有技术二:Savitha R,Vigneswaran S,Suresh S,et al.Adaptivebeamforming using complex-valued Radial Basis Function neural networks[C]//Tencon IEEE Region 10Conference.2009.该文献中研究了利用径向基神经网络进行波束形成的方法,但是这种方法的神经网络训练过程较为复杂,需要进行额外的k-means聚类等操作,并且为了不使用更深层的神经网络引入了过多的人工先验假设。
现有技术三:冯晓宇,谢军伟,张晶,等.低快拍下模糊径向基神经网络波束形成算法[J].火力与指挥控制,2018(4).该文献中提出了在低快拍情况下利用径向基神经网络进行波束形成的方法,这种方法仅仅是对低快拍情况下的改进,并没有对径向基神经网络存在的问题进行解决。
目前亟需一种快速稳定的自适应波束形成方法。
发明内容
本发明是为了解决回波量大难以处理并且回波之间耦合的问题,提出一种适用于雷达通信领域旁瓣抗干扰应用的基于图卷积神经网络的自适应波束形成方法,根据回波数据和期望合成方向应用图卷积神经网络模型对波束进行合成,并利用知识蒸馏技术进行压缩,提出一种适用于回波信号中存在耦合的情况下的雷达通信领域中自适应波束形成算法。
本发明提供一种基于图卷积神经网络的自适应波束形成方法,包括如下步骤:
S1、去耦合:将接收到的回波数据X进行扩维和归一化后采用图卷积神经网络进行特征变换和降维,得到去耦合回波数据Xo;
S2、建立并训练教师神经网络模型:建立一个N层教师神经网络,每一层教师神经网络的激活函数均为Leaky-Relu函数,并对各层神经元应用dropout方式进行泛化处理;将去耦合回波数据Xo作为教师神经网络训练数据,将期望权重数据Z作为教师神经网络测试数据,训练教师神经网络模型,当教师神经网络训练数据总均方误差平均值小于等于设定值m时,进行教师神经网络测试数据计算,当教师神经网络测试数据总均方误差平均值小于等于设定值n时,教师神经网络模型建立完成;当训练数据总均方误差平均值大于m,则重新进行步骤S2;
S3、建立并训练学生神经网络模型:建立一个M层学生神经网络,每一层学生神经网络的激活函数均为Leaky-Relu函数;建立泛化训练样本,将去耦合回波数据Xo和泛化训练样本作为学生神经网络训练数据,将学生神经网络训练数据分别输入教师神经网络和学生神经网络中,计算得到教师-学生神经网络总均方误差平均值,当教师-学生神经网络总均方误差平均值小于等于设定值m时,则学生神经网络模型确定;当教师-学生神经网络总均方误差平均值大于m,则重新进行步骤S3并增加学生神经网络层数和学生神经网络各层神经元数量;
S4、形成波束:将实际得到的回波数据和期望波束方向输入到学生神经网络模型中,形成期望合成的波束。
本发明所述的一种基于图卷积神经网络的自适应波束形成方法,作为优选方式,步骤S1包括:
S11、回波数据扩维:将雷达天线接收到的回波数据X通过特征矩阵F映射,得到输入特征向量Xf和输入特征转置向量
Xf=X⊙F,⊙表示对应元素相乘;
表示输入特征向量Xf的转置;
S12、归一化:利用softmax函数计算所述输入特征向量Xf与输入特征转置向量的关系权重S:
其中关系权重S的元素Sij表示第i个阵源和第j个阵源之间的关系权重;
S13、特征变换:采用图卷积神经网络,计算得到回波数据X的输出信号特征向量Xu:
Xu=S·Xf+Ws⊙Xf,
其中Ws是针对中央节点的权重变换矩阵;
S14、输出信号特征向量降维:将输出信号特征向量Xu与参数矩阵D相乘,得到去耦合回波数据Xo:
Xo=Xu·D;
去耦合回波数据Xo即为经过图卷积神经网络GAT模型后去耦合后的输入回波信号。
本发明所述的一种基于图卷积神经网络的自适应波束形成方法,作为优选方式,步骤S2包括:
S21、建立教师神经网络:建立一个N层教师神经网络,每一层教师神经网络的激活函数均为Leaky-Relu函数,并对各层神经元应用dropout方式进行泛化处理;
S22、教师神经网络初始化:初始化教师神经网络各层神经元的权重w和偏置b;
S23、建立训练数据和测试数据:将去耦合回波数据Xo作为教师神经网络训练数据,将天线各阵元期望权重数据Z作为教师神经网络测试数据,教师神经网络训练数据包含P个数据,教师神经网络测试数据包含Q个数据;将教师神经网络训练数据分组,每组包含k个数据,共有f组;将教师神经网络测试数据分组,每组包含e个数据,共有g组;
S24、使用训练数据训练教师神经网络:将教师神经网络训练数据分组输入到教师神经网络中,计算教师神经网络训练数据的实际天线各阵元权重Y、教师神经网络训练数据的均方误差Li,应用Adam方法进行反向误差传播,计算教师神经网络训练数据的总均方误差L和教师神经网络训练数据的总均方误差平均值当总均方误差平均值小于等于设定值m时,使用训练数据训练教师神经网络完成;当总均方误差平均值大于m,则返回步骤S21;
S25、使用测试数据测试教师神经网络;将教师神经网络测试数据分组输入到教师神经网络中,计算教师神经网络测试数据的实际天线各阵元权重Y、测试数据均方误差Li,计算测试数据总均方误差L和测试数据总均方误差平均值并当测试数据总均方误差平均值小于等于设定值n时,则教师神经网络模型确定;当测试数据总均方误差平均值大于n,则返回步骤S21进行参数更新。
本发明所述的一种基于图卷积神经网络的自适应波束形成方法,作为优选方式,步骤S24包括:
S241、训练数据实际天线各阵元权重计算:将一组教师神经网络训练数据分组输入到教师神经网络中,按照教师神经网络的结构经过各个神经元计算,得到教师神经网络训练数据的实际天线各阵元权重Y,各神经元输出hn:
hn=dropout[σ(whn-1+bn-1)],
其中σ为Leaky-Relu函数a为100;
S242、训练数据均方误差计算:计算教师神经网络训练数据的实际天线各阵元权重Y和期望权重数据Z之间的均方误差Li:
Li=||Y-Z||2,其中i=1,…,f;
按照均方误差Li的大小进行迭代操作,并记下本组数据的均方误差Li;
计算总均方误差L:L=L1+L+Li;
S243、训练数据反向误差传播:应用Adam方法进行反向误差传播,更新各层神经元的权重w和偏置b;
S244、继续训练数据计算:将下组教师神经网络训练数据输入到教师神经网络中,重复步骤S241-S243,直至所有教师神经网络训练数据计算完毕,得到教师神经网络训练数据的总均方误差L;
S245、判断是否达到训练终止条件:计算总均方误差平均值当总均方误差平均值小于等于m,则保持各层神经元的权重w和偏置b的值不变并记录,使用教师神经网络训练数据训练教师神经网络完成;当总均方误差平均值大于m,则返回步骤S21进行参数更新。
本发明所述的一种基于图卷积神经网络的自适应波束形成方法,作为优选方式,其特征在于:
步骤S245中m为0.01。
本发明所述的一种基于图卷积神经网络的自适应波束形成方法,作为优选方式,其特征在于:步骤S25包括:
S251、测试数据实际天线各阵元权重计算:将教师神经网络测试数据分组输入到教师神经网络模型中,按照神经网络的结构经过各个神经元计算,计算得到教师神经网络测试数据的实际天线各阵元权重Y;
S252、测试数据均方误差计算:将测试数据输入到教师神经网络中,计算教师神经网络测试数据实际天线各阵元权重Y和期望权重数据Z之间的均方误差Li:
Li=||Y-Z||2,其中i=1,…,f;
计算总均方误差L:L=L1+L+Li;
S253、判断是否达到测试终止条件:计算总均方误差平均值当测试数据总均方误差值平均值小于等于n,则教师神经网络模型确定;当测试数据总均方误差值平均值大于n,则返回步骤S21进行参数更新。
本发明所述的一种基于图卷积神经网络的自适应波束形成方法,作为优选方式,步骤S253中n为0.01。
本发明所述的一种基于图卷积神经网络的自适应波束形成方法,作为优选方式,步骤S3包括:
S31、建立学生神经网络:建立一个M层学生神经网络,每一层学生神经网络的激活函数均为Leaky-Relu函数;
S32、学生神经网络初始化:初始化学生神经网络各层神经元的权重v和偏置c;
S33、生成泛化训练样本:生成泛化训练样本X'o:
Xo'=Xo+No,No~N(0,F),其中No是均值为0、方差为F的正态分布中生成的随机向量;
S34、建立训练数据:将去耦合回波数据Xo和泛化训练样本Xo'作为学生神经网络训练数据,学生神经网络训练数据包含2*P个数据,并将学生神经网络训练数据分组,每组包含k个数据,共有2*f组;
S35、使用训练数据训练学生神经网络:将学生神经网络训练数据分别输入教师神经网络和学生神经网络中,计算教师神经网络实际天线各阵元权重Zt、学生神经网络实际天线各阵元权重Zs、教师神经网络和学生神经网络均方误差LSi,应用Adam方法进行反向误差传播,计算教师-学生神经网络总均方误差LS、教师-学生神经网络总均方误差平均值当教师-学生神经网络总均方误差平均值小于等于设定值m时,学生神经网络模型确定;当教师-学生神经网络总均方误差平均值大于m,则返回步骤S31。
本发明所述的一种基于图卷积神经网络的自适应波束形成方法,作为优选方式,步骤S35包括:
S351、训练数据实际天线各阵元权重计算:将一组学生神经网络训练数据分别输入教师神经网络和学生神经网络中,计算得到教师神经网络实际天线各阵元权重Zt和学生神经网络实际天线各阵元权重Zs,
学生神经网络各层神经元的输出结果为rm=σ(vrm-1+cm-1),
其中σ为Leaky-Relu函数a为100;
S352、训练数据均方误差计算:计算教师神经网络和学生神经网络均方误差LSi:
Lsi=||Zs-Zt||2,
按照教师神经网络和学生神经网络均方误差LSi的大小进行迭代操作,并记下本组数据的教师神经网络和学生神经网络均方误差Lsi;
计算教师-学生神经网络总均方误差LS:Ls=Ls1+L+Lsi;
S353、训练数据反向误差传播:应用Adam方法进行反向误差传播,更新各层神经元的权重v和偏置c的值;
S354、继续训练数据计算:将下组学生神经网络训练数据输入到教师神经网络和学生神经网络中,重复步骤S351-S353,直至所有学生神经网络训练数据计算完毕,得到所有训练数据的教师-学生神经网络总均方误差LS;
S355、判断是否达到训练终止条件:计算教师-学生神经网络总均方误差平均值当教师-学生神经网络总均方误差平均值小于等于m,则保持各层学生网络神经元的权重v和偏置c不变,学生神经网络模型确定;当教师-学生神经网络总均方误差平均值大于m,则返回步骤S31并增加学生神经网络层数和学生神经网络各层神经元数量。
本发明所述的一种基于图卷积神经网络的自适应波束形成方法,作为优选方式,步骤S355中m为0.01。
本发明中一些现有技术的解释如下:
1、图卷积神经网络:图卷积神经网络(Graph Convolutional Network)是一种能对图数据进行深度学习的方法。图卷积神经网络精妙地设计了一种从图数据中提取特征的方法,从而让我们可以使用这些特征去对图数据进行节点分类(node classification)、图分类(graph classification)、边预测(link prediction),还可以顺便得到图的嵌入表示(graph embedding)。
2、GAT模型:是一种通过注意力机制来对邻居节点做聚合的操作,从而实现对不同邻居权重的自适应分配,可以大大提高图神经网络模型的表达能力。
3、Adam方法是一种可以替代传统随机梯度下降过程的一阶优化算法,它能基于训练数据迭代地更新神经网络权重。Adam方法所需内存少,适合解决含大规模数据和参数的优化问题。
Adam算法和传统的随机梯度下降不同。随机梯度下降保持单一的学习率更新所有的权重,学习率在训练过程中并不会改变。而Adam方法通过计算梯度的一阶矩估计和二阶矩估计从而为不同的参数设计独立的自适应性学习率。
4、知识蒸馏压缩技术:一般地,大模型往往是单个复杂网络或者是若干网络的集合,其拥有良好的性能和泛化能力,而小模型因为网络规模较小,表达能力有限。因此,知识蒸馏技术就是利用大模型学习到的知识去指导小模型训练,使得小模型具有与大模型相当的性能,但是参数数量大幅降低,从而可以实现模型压缩与加速。
Hinton等人最早在文章“Distilling the knowledge in a neural network”[1]中提出了知识蒸馏这个概念,由于其核心思想是一旦复杂网络模型训练完成,便可以利用训练的方法从复杂模型中提取出来更小的模型,因此知识蒸馏框架通常包含了一个大模型(被称为teacher模型),和一个小模型(被称为student模型)。
本发明与现有技术相比的有益效果是:
(1)本发明方案更具稳健性。本发明采用图卷积神经网络模型进行自适应波束形成,可以有效的解决由于回波信号间的耦合导致的波束形成效果不好的问题,提高了波束形成算法的稳健性。图卷积神经网络模型可以对接收到的回波数据进行去耦合处理,将去耦合后的回波数据进行训练,形成教师神经网络模型,之后通过知识蒸馏技术生成学生神经网络模型,最后利用训练好的模型就可以快速准确的进行波束形成,同时更具稳健性。
(2)本发明方案的实时性高。相比于传统的波束形成算法而言,本发明算法应用了知识蒸馏压缩技术使算法的运行速度更快,可以对旁瓣干扰很好地进行抑制,满足了在大数据的情况下进行快速波束形成的需求。
(3)本发明方案效率高。本发明利用训练数据集和测试数据集不断地对模型进行优化,使这种模型在大数据的情况下可以有效地进行波束合成,同时在旁瓣对干扰进行抑制。
附图说明
图1为一种基于图卷积神经网络的自适应波束形成方法实施例1-2流程图;
图2为一种基于图卷积神经网络的自适应波束形成方法步骤S1流程图;
图3为一种基于图卷积神经网络的自适应波束形成方法步骤S2流程图;
图4为一种基于图卷积神经网络的自适应波束形成方法步骤S24流程图;
图5为一种基于图卷积神经网络的自适应波束形成方法步骤S25流程图;
图6为一种基于图卷积神经网络的自适应波束形成方法步骤S3流程图;
图7为一种基于图卷积神经网络的自适应波束形成方法步骤S35流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
实施例1
如图1所示,一种基于图卷积神经网络的自适应波束形成方法,包括如下步骤:
S1、去耦合:将接收到的回波数据X进行扩维和归一化后采用图卷积神经网络进行特征变换和降维,得到去耦合回波数据Xo;
S2、建立并训练教师神经网络模型:建立一个N层教师神经网络,每一层教师神经网络的激活函数均为Leaky-Relu函数,并对各层神经元应用dropout方式进行泛化处理;将去耦合回波数据Xo作为教师神经网络训练数据,将期望权重数据Z作为教师神经网络测试数据,训练教师神经网络模型,当教师神经网络训练数据总均方误差平均值小于等于设定值m时,进行教师神经网络测试数据计算,当教师神经网络测试数据总均方误差平均值小于等于设定值n时,教师神经网络模型建立完成;当训练数据总均方误差平均值大于m,则重新进行S2;
S3、建立并训练学生神经网络模型:建立一个M层学生神经网络,每一层学生神经网络的激活函数均为Leaky-Relu函数;建立泛化训练样本,将去耦合回波数据Xo和泛化训练样本作为学生神经网络训练数据,将学生神经网络训练数据分别输入教师神经网络和学生神经网络中,计算得到教师-学生神经网络总均方误差平均值,当教师-学生神经网络总均方误差平均值小于等于设定值m时,则学生神经网络模型确定;当教师-学生神经网络总均方误差平均值大于m,则重新进行步骤S3并增加学生神经网络层数和学生神经网络各层神经元数量;
S4、形成波束:将实际得到的回波数据和期望波束方向输入到学生神经网络模型中,形成期望合成的波束。
实施例2
如图1所示,一种基于图卷积神经网络的自适应波束形成方法,包括如下步骤:
S1、去耦合:将接收到的回波数据X进行扩维和归一化后采用图卷积神经网络进行特征变换和降维,得到去耦合回波数据Xo;如图2所示,包括以下步骤:
S11、回波数据扩维:将雷达天线接收到的回波数据X通过特征矩阵F映射,得到输入特征向量Xf和输入特征转置向量
Xf=X⊙F,⊙表示对应元素相乘;
表示输入特征向量Xf的转置;
S12、归一化:利用softmax函数计算输入特征向量Xf与输入特征转置向量的关系权重S:
其中关系权重S的元素Sij表示第i个阵源和第j个阵源之间的关系权重;此步骤可以防止通过反向传播算法更新网络参数时梯度爆炸;
S13、特征变换:采用图卷积神经网络,计算得到回波数据X的输出信号特征向量Xu:
Xu=S·Xf+Ws⊙Xf,
其中Ws是针对中央节点的权重变换矩阵;
S14、输出信号特征向量降维:将输出信号特征向量Xu与参数矩阵D相乘,得到去耦合回波数据Xo:
Xo=Xu·D;
去耦合回波数据Xσ即为经过图卷积神经网络GAT模型后去耦合的输入回波信号;
S2、建立并训练教师神经网络模型:建立一个N层教师神经网络,每一层教师神经网络的激活函数均为Leaky-Relu函数,并对各层神经元应用dropout方式进行泛化处理;将去耦合回波数据Xo作为教师神经网络训练数据,将期望权重数据Z作为教师神经网络测试数据,训练教师神经网络模型,当教师神经网络训练数据总均方误差平均值小于等于设定值m时,进行教师神经网络测试数据计算,当教师神经网络测试数据总均方误差平均值小于等于设定值n时,教师神经网络模型建立完成;当训练数据总均方误差平均值大于m,则返回步骤S21;如图3所示,包括以下步骤:
S21、建立教师神经网络:建立一个N层教师神经网络,每一层教师神经网络的激活函数均为Leaky-Relu函数,并对各层神经元应用dropout方式进行泛化处理;
S22、教师神经网络初始化:初始化教师神经网络各层神经元的权重w和偏置b;
S23、建立训练数据和测试数据:将去耦合回波数据Xo作为教师神经网络训练数据,将天线各阵元期望权重数据Z作为教师神经网络测试数据,教师神经网络训练数据包含P个数据,教师神经网络测试数据包含Q个数据;将教师神经网络训练数据分组,每组包含k个数据,共有f组;将教师神经网络测试数据分组,每组包含e个数据,共有g组;
S24、使用训练数据训练教师神经网络:将教师神经网络训练数据分组输入到教师神经网络中,计算教师神经网络训练数据的实际天线各阵元权重Y、教师神经网络训练数据的均方误差Li,应用Adam方法进行反向误差传播,计算教师神经网络训练数据的总均方误差L和教师神经网络训练数据的总均方误差平均值当总均方误差平均值小于等于设定值m时,使用训练数据训练教师神经网络完成;当总均方误差平均值大于m,则返回步骤S21;如图4所示,包括以下步骤:
S241、训练数据实际天线各阵元权重计算:将一组教师神经网络训练数据分组输入到教师神经网络中,按照教师神经网络的结构经过各个神经元计算,得到教师神经网络训练数据的实际天线各阵元权重Y,各神经元输出hn:
hn=dropout[σ(whn-1+bn-1)],
其中σ为Leaky-Relu函数a为100;
S242、训练数据均方误差计算:计算教师神经网络训练数据的实际天线各阵元权重Y和期望权重数据Z之间的均方误差Li:
Li=||Y-Z||2,其中i=1,…,f;
按照均方误差Li的大小进行迭代操作,并记下本组数据的均方误差Li;
计算总均方误差L:L=L1+L+Li;
S243、训练数据反向误差传播:应用Adam方法进行反向误差传播,更新各层神经元的权重w和偏置b;
S244、继续训练数据计算:将下组教师神经网络训练数据输入到教师神经网络中,重复步骤S241-S243,直至所有教师神经网络训练数据计算完毕,得到教师神经网络训练数据的总均方误差L;
S245、判断是否达到训练终止条件:计算总均方误差平均值当总均方误差平均值小于等于m,m为0.01,则保持各层神经元的权重w和偏置b的值不变并记录,使用教师神经网络训练数据训练教师神经网络完成;当总均方误差平均值大于m,m为0.01,则返回步骤S21进行参数更新;如图5所示,包括以下步骤:
S25、使用测试数据测试教师神经网络;将教师神经网络测试数据分组输入到教师神经网络中,计算教师神经网络测试数据的实际天线各阵元权重Y、测试数据均方误差Li,计算测试数据总均方误差L和测试数据总均方误差平均值并当测试数据总均方误差平均值小于等于设定值n时,则教师神经网络模型确定;当测试数据总均方误差平均值大于n,则返回步骤S21进行参数更新;
S251、测试数据实际天线各阵元权重计算:将教师神经网络测试数据分组输入到教师神经网络模型中,按照神经网络的结构经过各个神经元计算,计算得到教师神经网络测试数据的实际天线各阵元权重Y;
S252、测试数据均方误差计算:将测试数据输入到教师神经网络中,计算教师神经网络测试数据实际天线各阵元权重Y和期望权重数据Z之间的均方误差Li:
Li=||Y-Z||2,其中i=1,…,f;
计算总均方误差L:L=L1+L+Li;
S253、判断是否达到测试终止条件:计算总均方误差平均值当测试数据总均方误差值平均值小于等于n,n为0.01,则教师神经网络模型确定;当测试数据总均方误差值平均值大于n,n为0.01则返回步骤S21进行参数更新;
S3、建立并训练学生神经网络模型:建立一个M层学生神经网络,每一层学生神经网络的激活函数均为Leaky-Relu函数;建立泛化训练样本,将去耦合回波数据Xo和泛化训练样本作为学生神经网络训练数据,将学生神经网络训练数据分别输入教师神经网络和学生神经网络中,计算得到教师-学生神经网络总均方误差平均值,当教师-学生神经网络总均方误差平均值小于等于设定值m时,则学生神经网络模型确定;当教师-学生神经网络总均方误差平均值大于m,则返回步骤S31并增加学生神经网络层数和学生神经网络各层神经元数量;如图6所示,包括以下步骤:
S31、建立学生神经网络:建立一个M层学生神经网络,每一层学生神经网络的激活函数均为Leaky-Relu函数;
S32、学生神经网络初始化:初始化学生神经网络各层神经元的权重v和偏置c;
S33、生成泛化训练样本:生成泛化训练样本X'o:
Xo'=Xo+No,No~N(0,F),其中No是均值为0、方差为F的正态分布中生成的随机向量;
S34、建立训练数据:将去耦合回波数据Xo和泛化训练样本Xo'作为学生神经网络训练数据,学生神经网络训练数据包含2*P个数据,并将学生神经网络训练数据分组,每组包含k个数据,共有2*f组;
S35、使用训练数据训练学生神经网络:将学生神经网络训练数据分别输入教师神经网络和学生神经网络中,计算教师神经网络实际天线各阵元权重Zt、学生神经网络实际天线各阵元权重Zs、教师神经网络和学生神经网络均方误差LSi,应用Adam方法进行反向误差传播,计算教师-学生神经网络总均方误差LS、教师-学生神经网络总均方误差平均值当教师-学生神经网络总均方误差平均值小于等于设定值m时,学生神经网络模型确定;当教师-学生神经网络总均方误差平均值大于m,则返回步骤S31;如图7所示,包括以下步骤:
S351、训练数据实际天线各阵元权重计算:将一组学生神经网络训练数据分别输入教师神经网络和学生神经网络中,计算得到教师神经网络实际天线各阵元权重Zt和学生神经网络实际天线各阵元权重Zs,
学生神经网络各层神经元的输出结果为rm=σ(vrm-1+cm-1),
其中σ为Leaky-Relu函数a为100;
S352、训练数据均方误差计算:计算教师神经网络和学生神经网络均方误差LSi:
Lsi=||Zs-Zt||2,
按照教师神经网络和学生神经网络均方误差LSi的大小进行迭代操作,并记下本组数据的教师神经网络和学生神经网络均方误差Lsi;
计算教师-学生神经网络总均方误差LS:Ls=Ls1+L+Lsi;
S353、训练数据反向误差传播:应用Adam方法进行反向误差传播,更新各层神经元的权重v和偏置c的值;
S354、继续训练数据计算:将下组学生神经网络训练数据输入到教师神经网络和学生神经网络中,重复步骤S351-S353,直至所有学生神经网络训练数据计算完毕,得到所有训练数据的教师-学生神经网络总均方误差LS;
S355、判断是否达到训练终止条件:计算教师-学生神经网络总均方误差平均值当教师-学生神经网络总均方误差平均值小于等于m,m为0.01,则保持各层学生网络神经元的权重v和偏置c不变,学生神经网络模型确定;当教师-学生神经网络总均方误差平均值大于m,m为0.01则返回步骤S31并增加学生神经网络层数和学生神经网络各层神经元数量;
S4、形成波束:将实际得到的回波数据和期望波束方向输入到学生神经网络模型中,形成期望合成的波束。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。
Claims (10)
1.一种基于图卷积神经网络的自适应波束形成方法,其特征在于:包括如下步骤:
S1、去耦合:将接收到的回波数据X进行扩维和归一化后采用图卷积神经网络进行特征变换和降维,得到去耦合回波数据Xo;
S2、建立并训练教师神经网络模型:建立一个N层教师神经网络,每一层所述教师神经网络的激活函数均为Leaky-Relu函数,并对各层神经元应用dropout方式进行泛化处理;将所述去耦合回波数据Xo作为教师神经网络训练数据,将期望权重数据Z作为教师神经网络测试数据,训练教师神经网络模型;当教师神经网络训练数据总均方误差平均值小于等于设定值m时,进行所述教师神经网络测试数据计算,当所述教师神经网络测试数据总均方误差平均值小于等于设定值n时,教师神经网络模型建立完成;当所述训练数据总均方误差平均值大于m,则重新进行步骤S2;
S3、建立并训练学生神经网络模型:建立一个M层学生神经网络,每一层所述学生神经网络的激活函数均为Leaky-Relu函数;建立泛化训练样本,将所述去耦合回波数据Xo和所述泛化训练样本作为学生神经网络训练数据,将所述学生神经网络训练数据分别输入所述教师神经网络和所述学生神经网络中,计算得到教师-学生神经网络总均方误差平均值,当所述教师-学生神经网络总均方误差平均值小于等于设定值m时,则学生神经网络模型确定;当所述教师-学生神经网络总均方误差平均值大于m,则重新进行步骤S3并增加所述学生神经网络层数和所述学生神经网络各层所述神经元数量;
S4、形成波束:将实际得到的回波数据和期望波束方向输入到所述学生神经网络模型中,形成期望合成的波束。
2.根据权利要求1所述的一种基于图卷积神经网络的自适应波束形成方法,其特征在于:步骤S1包括:
S11、回波数据扩维:将雷达天线接收到的所述回波数据X通过特征矩阵F映射,得到输入特征向量Xf和输入特征转置向量
Xf=X⊙F,⊙表示对应元素相乘;
表示所述输入特征向量Xf的转置;
S12、归一化:利用softmax函数计算所述输入特征向量Xf与所述输入特征转置向量的关系权重S:
其中所述关系权重S的元素Sij表示第i个阵源和第j个阵源之间的所述关系权重;
S13、特征变换:采用图卷积神经网络,计算得到所述回波数据X的输出信号特征向量Xu:
Xu=S·Xf+Ws⊙Xf,
其中Ws是针对中央节点的权重变换矩阵;
S14、输出信号特征向量降维:将所述输出信号特征向量Xu与参数矩阵D相乘,得到去耦合回波数据Xo:
Xo=Xu·D。
3.根据权利要求1所述的一种基于图卷积神经网络的自适应波束形成方法,其特征在于:步骤S2包括:
S21、建立教师神经网络:建立一个N层所述教师神经网络,每一层所述教师神经网络的激活函数均为Leaky-Relu函数,并对各层所述神经元应用dropout方式进行泛化处理;
S22、教师神经网络初始化:初始化所述教师神经网络各层所述神经元的权重w和偏置b;
S23、建立训练数据和测试数据:将所述去耦合回波数据Xo作为所述教师神经网络训练数据,将天线各阵元所述期望权重数据Z作为所述教师神经网络测试数据,所述教师神经网络训练数据包含P个数据,所述教师神经网络测试数据包含Q个数据;将所述教师神经网络训练数据分组,每组包含k个数据,共有f组;将所述教师神经网络测试数据分组,每组包含e个数据,共有g组;
S24、使用训练数据训练教师神经网络:将所述教师神经网络训练数据分组输入到所述教师神经网络中,计算所述教师神经网络训练数据的实际天线各阵元权重Y、所述教师神经网络训练数据的均方误差Li,应用Adam方法进行反向误差传播,计算所述教师神经网络训练数据的总均方误差L和所述教师神经网络训练数据的总均方误差平均值当所述总均方误差平均值小于等于设定值m时,使用训练数据训练教师神经网络完成;当所述总均方误差平均值大于m,则返回步骤S21;
S25、使用测试数据测试教师神经网络;将所述教师神经网络测试数据分组输入到所述教师神经网络中,计算所述教师神经网络测试数据的实际天线各阵元权重Y、测试数据均方误差Li,计算测试数据总均方误差L和测试数据总均方误差平均值并当所述测试数据总均方误差平均值小于等于设定值n时,则所述教师神经网络模型确定;当所述测试数据总均方误差平均值大于n,则返回步骤S21进行参数更新。
4.根据权利要求3所述的一种基于图卷积神经网络的自适应波束形成方法,其特征在于:步骤S24包括:
S241、训练数据实际天线各阵元权重计算:将一组所述教师神经网络训练数据分组输入到所述教师神经网络中,按照所述教师神经网络的结构经过各个所述神经元计算,得到所述教师神经网络训练数据的实际天线各阵元权重Y,各所述神经元输出hn:
hn=dropout[σ(whn-1+bn-1)],
其中σ为Leaky-Relu函数a为100;
S242、训练数据均方误差计算:计算所述教师神经网络训练数据的所述实际天线各阵元权重Y和所述期望权重数据Z之间的均方误差Li:
Li=||Y-Z||2,其中i=1,…,f;
按照所述均方误差Li的大小进行迭代操作,并记下本组数据的所述均方误差Li;
计算总均方误差L:L=L1+L+Li;
S243、训练数据反向误差传播:应用Adam方法进行反向误差传播,更新各层所述神经元的所述权重w和所述偏置b;
S244、继续训练数据计算:将下组所述教师神经网络训练数据输入到所述教师神经网络中,重复步骤S241-S243,直至所有所述教师神经网络训练数据计算完毕,得到所述教师神经网络训练数据的所述总均方误差L;
S245、判断是否达到训练终止条件:计算所述总均方误差平均值当所述总均方误差平均值小于等于m,则保持各层所述神经元的所述权重w和所述偏置b的值不变并记录,使用所述教师神经网络训练数据训练所述教师神经网络完成;当所述总均方误差平均值大于m,则返回步骤S21进行参数更新。
5.根据权利要求4所述的一种基于图卷积神经网络的自适应波束形成方法,其特征在于:
步骤S245中m为0.01。
6.根据权利要求3所述的一种基于图卷积神经网络的自适应波束形成方法,其特征在于:步骤S25包括:
S251、测试数据实际天线各阵元权重计算:将所述教师神经网络测试数据分组输入到所述教师神经网络模型中,按照所述神经网络的结构经过各个所述神经元计算,计算得到所述教师神经网络测试数据的实际天线各阵元权重Y;
S252、测试数据均方误差计算:将所述测试数据输入到所述教师神经网络中,计算所述教师神经网络测试数据实际天线各阵元权重Y和所述期望权重数据Z之间的均方误差Li:
Li=||Y-Z||2,其中i=1,…,f;
计算总均方误差L:L=L1+L+Li;
S253、判断是否达到测试终止条件:计算所述总均方误差平均值当所述测试数据总均方误差值平均值小于等于n,则所述教师神经网络模型确定;当所述测试数据总均方误差值平均值大于n,则返回步骤S21进行参数更新。
7.根据权利要求6所述的一种基于图卷积神经网络的自适应波束形成方法,其特征在于:
步骤S253中n为0.01。
8.根据权利要求1所述的一种基于图卷积神经网络的自适应波束形成方法,其特征在于:步骤S3包括:
S31、建立学生神经网络:建立一个M层学生神经网络,每一层所述学生神经网络的激活函数均为Leaky-Relu函数;
S32、学生神经网络初始化:初始化所述学生神经网络各层神经元的权重v和偏置c;
S33、生成泛化训练样本:生成泛化训练样本X'o:
Xo'=Xo+No,No~N(0,F),其中No是均值为0、方差为F的正态分布中生成的随机向量;
S34、建立训练数据:将所述去耦合回波数据Xo和所述泛化训练样本Xo'作为所述学生神经网络训练数据,所述学生神经网络训练数据包含2*P个数据,并将所述学生神经网络训练数据分组,每组包含k个数据,共有2*f组;
S35、使用训练数据训练学生神经网络:将所述学生神经网络训练数据分别输入所述教师神经网络和所述学生神经网络中,计算教师神经网络实际天线各阵元权重Zt、学生神经网络实际天线各阵元权重Zs、教师神经网络和学生神经网络均方误差LSi,应用Adam方法进行反向误差传播,计算教师-学生神经网络总均方误差LS、所述教师-学生神经网络总均方误差平均值当所述教师-学生神经网络总均方误差平均值小于等于设定值m时,所述学生神经网络模型确定;当所述教师-学生神经网络总均方误差平均值大于m,则返回步骤S31。
9.根据权利要求8所述的一种基于图卷积神经网络的自适应波束形成方法,其特征在于:步骤S35包括:
S351、训练数据实际天线各阵元权重计算:将一组所述学生神经网络训练数据分别输入所述教师神经网络和所述学生神经网络中,计算得到所述教师神经网络实际天线各阵元权重Zt和所述学生神经网络实际天线各阵元权重Zs,
所述学生神经网络各层所述神经元的输出结果为
其中σ为Leaky-Relu函数a为100;
S352、训练数据均方误差计算:计算所述教师神经网络和学生神经网络均方误差LSi:
Lsi=||Zs-Zt||2,
按照所述教师神经网络和学生神经网络均方误差LSi的大小进行迭代操作,并记下本组数据的所述教师神经网络和学生神经网络均方误差Lsi;
计算所述教师-学生神经网络总均方误差LS:Ls=Ls1+L+Lsi;
S353、训练数据反向误差传播:应用Adam方法进行反向误差传播,更新各层所述神经元的所述权重v和所述偏置c的值;
S354、继续训练数据计算:将下组所述学生神经网络训练数据输入到所述教师神经网络和所述学生神经网络中,重复步骤S351-S353,直至所有所述学生神经网络训练数据计算完毕,得到所有所述训练数据的所述教师-学生神经网络总均方误差LS;
S355、判断是否达到训练终止条件:计算所述教师-学生神经网络总均方误差平均值当所述教师-学生神经网络总均方误差平均值小于等于m,则保持各层所述学生网络神经元的所述权重v和所述偏置c不变,所述学生神经网络模型确定;当所述教师-学生神经网络总均方误差平均值大于m,则返回步骤S31并增加所述学生神经网络层数和所述学生神经网络各层所述神经元数量。
10.根据权利要求9所述的一种基于图卷积神经网络的自适应波束形成方法,其特征在于:
步骤S355中m为0.01。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011177136.1A CN112505628B (zh) | 2020-10-29 | 2020-10-29 | 一种基于图卷积神经网络的自适应波束形成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011177136.1A CN112505628B (zh) | 2020-10-29 | 2020-10-29 | 一种基于图卷积神经网络的自适应波束形成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112505628A CN112505628A (zh) | 2021-03-16 |
CN112505628B true CN112505628B (zh) | 2023-09-29 |
Family
ID=74954417
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011177136.1A Active CN112505628B (zh) | 2020-10-29 | 2020-10-29 | 一种基于图卷积神经网络的自适应波束形成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112505628B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113380268A (zh) * | 2021-08-12 | 2021-09-10 | 北京世纪好未来教育科技有限公司 | 模型训练的方法、装置和语音信号的处理方法、装置 |
CN114142900B (zh) * | 2021-10-18 | 2023-08-01 | 北京遥测技术研究所 | 一种基于lcmv准则的多通道自适应波束形成方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111181619A (zh) * | 2020-01-03 | 2020-05-19 | 东南大学 | 基于深度强化学习的毫米波混合波束成形设计方法 |
CN111277312A (zh) * | 2020-02-26 | 2020-06-12 | 电子科技大学 | 基于深度复数网络的固定子阵空基毫米波波束成形方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11832969B2 (en) * | 2016-12-22 | 2023-12-05 | The Johns Hopkins University | Machine learning approach to beamforming |
-
2020
- 2020-10-29 CN CN202011177136.1A patent/CN112505628B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111181619A (zh) * | 2020-01-03 | 2020-05-19 | 东南大学 | 基于深度强化学习的毫米波混合波束成形设计方法 |
CN111277312A (zh) * | 2020-02-26 | 2020-06-12 | 电子科技大学 | 基于深度复数网络的固定子阵空基毫米波波束成形方法 |
Non-Patent Citations (2)
Title |
---|
基于深度神经网络的自适应波束形成算法;柏沫羽;刘昊;陈浩川;张振华;;遥测遥控(06);全文 * |
应用知识蒸馏的深度神经网络波束形成算法;柏沫羽;刘昊;陈浩川;张振华;;遥测遥控(01);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112505628A (zh) | 2021-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109993280B (zh) | 一种基于深度学习的水下声源定位方法 | |
WO2020253690A1 (zh) | 一种基于近似消息传递算法的深度学习波束域信道估计方法 | |
CN105142177B (zh) | 复数神经网络信道预测方法 | |
CN110443364A (zh) | 一种深度神经网络多任务超参数优化方法及装置 | |
CN112505628B (zh) | 一种基于图卷积神经网络的自适应波束形成方法 | |
CN107703486A (zh) | 一种基于卷积神经网络cnn的声源定位算法 | |
WO2021036414A1 (zh) | 一种低轨移动卫星星座下星地下行链路同频干扰预测方法 | |
CN112904279B (zh) | 基于卷积神经网络和子带srp-phat空间谱的声源定位方法 | |
CN111767791A (zh) | 一种基于对抗正则化深度神经网络的到达角估计方法 | |
CN112733447A (zh) | 一种基于域自适应网络的水下声源定位方法及系统 | |
CN111355633A (zh) | 一种基于pso-delm算法的比赛场馆内手机上网流量预测方法 | |
CN110888105A (zh) | 一种基于卷积神经网络和接收信号强度的doa估计方法 | |
CN115099133A (zh) | 一种基于tlmpa-bp的集群系统可靠性评估方法 | |
CN112257847A (zh) | 一种基于CNN和LSTM预测地磁Kp指数的方法 | |
CN109344751A (zh) | 一种车内噪声信号的重构方法 | |
CN115758866A (zh) | 一种电动汽车无线电能传输系统传输性能优化方法 | |
CN108538301B (zh) | 一种基于神经网络音频技术的智能数码乐器 | |
CN112257648A (zh) | 基于改进的循环神经网络的信号分类识别方法 | |
CN113406570B (zh) | 一种平稳干扰环境下的贝叶斯稳健波束形成方法 | |
CN115906959A (zh) | 基于de-bp算法的神经网络模型的参数训练方法 | |
CN113851119A (zh) | 一种基于Min-Max单分类深度神经网络的城市噪声识别方法 | |
Jia et al. | Deep-sea source ranging method using modified general regression neural network | |
CN113033695A (zh) | 一种电子器件故障的预测方法 | |
CN115510593B (zh) | 一种基于lstm的mr阻尼器逆向映射模型计算方法 | |
Zang et al. | A Multi Feature Fusion Aided Positioning for INS/Beidou with Combination of BP Neural Network and Differential Evolution Kalman Filter |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |