CN115310512A - 一种基于一阶卷积神经网络的自适应波束成形方法 - Google Patents

一种基于一阶卷积神经网络的自适应波束成形方法 Download PDF

Info

Publication number
CN115310512A
CN115310512A CN202210781154.3A CN202210781154A CN115310512A CN 115310512 A CN115310512 A CN 115310512A CN 202210781154 A CN202210781154 A CN 202210781154A CN 115310512 A CN115310512 A CN 115310512A
Authority
CN
China
Prior art keywords
neural network
array
order
convolutional neural
order convolutional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210781154.3A
Other languages
English (en)
Inventor
雷世文
张英豪
李天阳
胡皓全
陈波
田径
杨伟
何子远
唐璞
包永芳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202210781154.3A priority Critical patent/CN115310512A/zh
Publication of CN115310512A publication Critical patent/CN115310512A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Variable-Direction Aerials And Aerial Arrays (AREA)

Abstract

本发明提供一种基于一阶卷积神经网络的自适应波束成形方法,针对大型阵列波束赋形计算复杂度高,实时响应慢的问题,分析阵列结构、波束特性等参量与子阵激励的映射关系,构建自适应波束赋形问题的一阶卷积神经网络框架对阵元激励特征的强化表征方法,通过一阶卷积神经网络自适应实时预测阵元激励,针对不同赋形波束指标要求生成理想波束方向图,满足实时响应场景需求。同时针对现有深度学习方法占用内存大,样本需求大的问题,为了在样本量不变的前提下,进一步提高神经网络预测阵元激励的精度,在全连接层基础上连接一阶卷积层,通过将低维特征向高维转换,丰富特征的多样性,强化神经网络的特征映射能力,实现非线性关系的多样性表征。

Description

一种基于一阶卷积神经网络的自适应波束成形方法
技术领域
本发明涉及阵列波束赋形技术,特别涉及基于神经网络的自适应波束成形技术。
现有技术
阵列波束赋形的目的是通过控制阵元激励的幅度与相位合成不同形状与指向的方向图,此技术被广泛应用于雷达,声呐,阵列天线以及无线通信系统。在过去几十年中,有大量的波束赋形算法被提出,现有的波束赋形方法主要包括进化类算法(如遗传算法、蚁群算法、粒子群算法等等)、优化类算法(如梯度下降法、牛顿法、二次规划法、对偶内点法等等)以及其它数值方法(如快速傅里叶变换法、矩阵束法、锥削密度法等等)。然而,当阵列规模较大时,现有方法也存在着明显的缺陷,即内存需求大,计算时间长。这使得传统方法越来越难以满足规模越来越庞大的阵列天线的快速波束赋形需求。
以线阵列天线为例,平面阵列天线或更高维阵列天线的结论可以以此类推。假定天线具有同性等间距分布的N个阵元,则阵列天线的远场辐射f(θ)为:
f(θ)=a(θ)Hw
其中
Figure BDA0003727791140000011
为来波信号角度为θ时的阵列导向矢量,λ为波长,d为阵元间距,w=[w1,w2,...,wN]T为阵元激励,H为共轭转置,T为转置。
天线辐射的能量可以表示为:
|f(θ)|2=wHa(θ)a(θ)Hw
以实值向量,天线辐射能量的矩阵形式同样可以表示:
|f(θ)|2=xHA(θ)A(θ)Hx=xTQx
Figure BDA0003727791140000012
由于Q=A(θ)TA(θ)为阵列导向矢量矩阵A(θ)的实对称矩阵,x为实值向量,故可以满足以下性质:
xTQx=Tr(xTQx)=Tr(QxxT)
其中Tr(·)为矩阵的迹,因此辐射能量变为:
|f(θ)|2=Tr(QX),with X=xxT∈R2N×2N
现有波束成形方法:
以半正定规划SDR(SemiDefinite Relaxation)算法为例,在方向图合成的问题中,往往根据阵列辐射的功率约束去求解阵元激励,而在此过程中受秩为1的约束,方向图模型X表示为:
Figure BDA0003727791140000021
其中,Ck为来波信号角度为θk时的辐射能量约束,Qk为来波信号角度为θk时的阵列导向矢量矩阵的实对称矩阵;然而由于秩为1的约束,此模型为非凸模型。SDR算法通过丢弃秩为1的约束,此模型被转换为一个凸问题。模型可以表示为:
Figure BDA0003727791140000022
在凸优化理论中,最小化矩阵的迹相当于最小化其特征值之和以及矩阵的秩,而为了在凸优化模型中获得低秩解,引用文献B.Fuchs,"Application of ConvexRelaxation to Array Synthesis Problems,"in IEEE Transactions on Antennas andPropagation,vol.62,no.2,pp.634-640,Feb.2014,doi:10.1109/TAP.2013.2290797.公开的凸松弛在阵列综合问题中的应用的方法:
Figure BDA0003727791140000023
其中δ是正则化常数,I为本征矩阵并且X0=I,Xt表示第t次迭代的X。将X以特征值分解的形式表示:
Figure BDA0003727791140000031
其中σ1≥...≥σ2N为特征值,un为第n个特征向量。而向量
Figure BDA0003727791140000032
则是模型的潜在解,第n个特征的阵元激励wn可以表示为:
wn=x(n)+jx(n+N)
在最近几年,随着深度学习的快速发展,由于其优秀的线下学习能力,在阵列天线以及无线通信领域,越来越多基于深度学习的波束成形算法被研究。现有方法基于机器学习的波束赋形方法主要使用全连接神经网络,径向基神经网络以及广义回归神经网络,针对不同的应用场景,展开了基于多种不同神经网络的阵列波束赋形方法研究,包括低副瓣性能、低零陷性能、宽波束赋形能力、自适应最大化信噪比接收以及共形天线的波束赋形等等,并取得了一定的进展。
相对而言,基于卷积神经网络的波束赋形方法研究也较少,卷积神经网络很少被用于拟合问题当中。虽然径向基神经网络与广义回归神经网络在训练过程中仅需要少量样本就可实现较好的性能,但是在推理过程中训练集将参与运算,会占用极大的硬盘内存,对于嵌入式,单片机系统以及FPGA负担较大。而相对于全连接神经网络,卷积神经网络可以将相近元素联系起来,具有优秀的特征映射能力,丰富特征的多样性。同时,针对大型阵列天线,卷积核具备强化神经网络回归阵元激励特征的能力,相对于其他神经网络可以实现更高精度的实时波束赋形。
发明内容
本发明所要解决的技术问题是,提供一种通过卷积神经网络对阵元激励特征进行强化表征,构建自适应波束赋形的方法。
本发明为解决上述技术问题所采用的技术方案是,一种基于一阶卷积神经网络的自适应波束成形方法,包括步骤:
步骤一:设置波束变量参数,所述波束变量参数包括零陷方向、零陷数量以及零陷宽度,通过半正定规划算法生成对应的阵元激励;将进行了实部、虚部的分离与归一化处理的零陷方向的阵列导向矢量矩阵的向量形式r以及阵元激励z构建训练集{r,z};
步骤二:构建实现阵列导向矢量与阵元激励之间映射关系的一阶卷积神经网络;一阶卷积神经网络是由多层一阶卷积层与全连接深度神经网络组成;前者用来丰富输入数据的特征维数,后者根据前者学习到的数据特征预测阵元激励;
步骤三:确定一阶卷积神经网络的最优结构,输入训练集完成对一阶卷积神经网络的训练;
步骤四:根据需要的波束变量参数生成阵列导向矢量矩阵的向量形式并输入至训练好的一阶卷积神经网络,再根据从一阶卷积神经网络输出的阵元激励来完成波束合成。
本发明针对大型阵列波束赋形计算复杂度高,实时响应慢的问题,分析阵列结构、波束特性等参量与子阵激励的映射关系,构建自适应波束赋形问题的一阶卷积神经网络框架对阵元激励特征的强化表征方法,通过一阶卷积神经网络自适应实时预测阵元激励,针对不同赋形波束指标要求生成理想波束方向图,满足实时响应场景需求。同时针对现有深度学习方法占用内存大,样本需求大的问题,为了在样本量不变的前提下,进一步提高神经网络预测阵元激励的精度,在全连接层基础上连接一阶卷积层,通过将低维特征向高维转换,丰富特征的多样性,强化神经网络的特征映射能力,实现非线性关系的多样性表征。
本发明的有益效果是,能实现质量更好、更快速的波束赋形。
附图说明
图1为本发明流程图;
图2为实施例一阶卷积操作图;
图3为现有DNN与本发明1-D CNN不同结构的拟合优度对比;
图4为实施例实现的窄波束零陷图;
图5为实施例实现的宽波束零陷图。
具体实施方式
本方法提供的基于一阶卷积神经网络的自适应波束成形方法主要包括如图1所示的步骤:
步骤一:设置波束变量参数(阵列参数):所述波束变量参数包括零陷方向、零陷数量以及零陷宽度,通过SDR算法生成对应的阵元激励。构建训练集:将零陷方向的阵列导向矢量矩阵转换为向量形式r′作为神经网络输入,阵元激励z′作为神经网络输出。为满足神经网络实数输入需求,对r′,z′进行实部,虚部的分离与归一化处理得到r,z,完成训练集{r,z}的构建。
通过半正定规划(SDR)算法实现神经网络训练集的生成。为了实现自适应波束成形,设置零陷角度,零陷数量和零陷宽度产生零陷区间作为训练集样本的波束变量参数。
对于包含有N个阵元的阵列导向矢量的协方差矩阵R:
Figure BDA0003727791140000051
θk为理想波束图中零陷区间对应的第k个信号角度。因神经网络只接收实值输入,对信号协方差矩阵R进行数据分解处理,将其中的复值分解为实数Re与虚数Im,从而N×N的矩阵转换为(N2-N)×1向量r′,其表示为
r′=[Re(R12),Im(R12),...,Re(R1N),Im(R1N),...,Re(R(N-1),N),Im(R(N-1),N)]T
R(N-1),N为协方差矩阵R中第N-1行第N列的元素;T为转置;
同样,阵元激励wn(n=1,…,N)也进行分离实数Re与虚数Im的处理。作为神经网络的输出,其表示为:
z′=[Re(w1),Im(w1),...,Re(wN),Im(wN)]T
为了使输入输出范围收敛在[0,1]之间,神经网络输入输出进行最大-最小值归一化处理
Figure BDA0003727791140000052
Figure BDA0003727791140000053
rmin、rmax分别为训练集中r′的最小值、最大值。经过上述处理,得到神经网络训练集结构{r(d),z(d)},d=1,...,D。D为训练样本数量。
步骤二:构一阶卷积网络进行特征映射处理,丰富输入数据的特征维数。一阶卷积网络对输入进行特征映射处理,全连接型的深度神经网络DNN连接在一阶卷积网络后,进行阵元激励的预测,得到实现阵列导向矢量与阵元激励之间映射关系的一阶卷积神经网络。重构实际输出与预测输出之间误差的平方为损失函数,利用优化器在反向传播的过程中更新网络参数,以不断缩小损失函数值,使得实际输出不断接近预测输出,完成一阶卷积神经网络的模型建立。
全连接型DNN中包含输入层,多层隐藏层和输出层,每一层都由全连接的神经元结构构成。假设DNN的层数量为NF,每层神经元数量为nF,因此,第p层全连接层输出为:
o[p]=f(W[p]o[p-1]+b[p])
其中W[p],b[p]为第p层的权重系数与偏置系数。o[p]为第p层的输出。f(·)为激活函数,实施例中除最后一层之外的均采用Relu函数(Relu(x)=max(0,x))来避免梯度消失问题,最后一层的激活函数采用
Figure BDA0003727791140000061
函数,将输出范围控制在[0,1]中。同时,为了防止过拟合,在后几层隐藏层中加上dropout层。其失效单元概率设置为10%。
对于深度神经网络DNN与本发明的一阶卷积神经网络,其训练集格式是一样的,但是一阶卷积神经网络比DNN多了一阶卷积层。一阶卷积神经网络的输入为向量形式,卷积核为向量形式。
输入向量
Figure BDA0003727791140000062
先输入至一阶卷积网路中,一次一阶卷积操作使用到3个卷积核的尺寸为3×1,输出通道数为3,步长设置为1,填充方式设置为valid。一阶卷积网路由2个以上一阶卷积层组成。
在第l个一阶卷积层中第q个过滤器的卷积操作如图2所示,有以下参数:
输入向量Input vector:
Figure BDA0003727791140000063
其中
Figure BDA0003727791140000064
表示第l-1个一阶卷积层的输出的数据尺寸,[l-1]表示第l-1个一阶卷积层,M [l-1]表示第l-1个一阶卷积层每个通道的输出向量长度,
Figure BDA0003727791140000065
表示第l-1个一阶卷积层的输出通道个数,C[l-1]为第l个一阶卷积层的输入向量来自上一层l-1的输出;
第一层(l=1)的参数:C[0]=r,M[0]=N×(N-1),
Figure BDA0003727791140000071
[0]表示初始量;r为设置的零陷方向的阵列导向矢量矩阵的向量形式;
过滤器的参数:
Figure BDA0003727791140000072
输出长度v[l]=3。v[l]为第l层的每个过滤器中每个通道向量的长度,q为过滤器的序号变量;
步长:ξ,图2中的一阶卷积操作的步长为1;
输出向量Output vector:上一层的输出向量作为本层输入与过滤器参数通过元素乘法Element multiplication再求和Summation得到输出
Figure BDA0003727791140000078
其矩阵计算表示为:
Figure BDA0003727791140000073
其中,m表示输出向量的第m个元素,m=1,...,M[l]
Figure BDA0003727791140000074
Figure BDA0003727791140000075
表示第l层第q个过滤器,i和k表示过滤器的尺寸,i是过滤器的长度,k是过滤器的通道数;
Figure BDA0003727791140000076
表示第l层输入向量,ξ(m-1)+i表示输入至第l层第q个过滤器中输入向量对应的第ξ(m-1)+i位元素;
激活函数设置为ReLU函数,第l层输出向量O[l]经过激活函数f后作为第l+1层的输入向量C[l]
图2中,C[l-1]中各通道向量中每三个元素乘以卷积核并求和,得到Oq,[l]中对应的元素。
一阶卷积神经网络是一个回归模型,在回归问题中,每个位置的特征映射对于结果都有很大的影响,所以不考虑使用池化层进行降维操作,防止信息丢失。
损失函数设置为实际输出zact与预测输出zpre的误差的平方,即均方误差。
Figure BDA0003727791140000077
设置优化器为Adam优化器,通过反向传播算法不断最小化损失函数优化网络参数。由此完成神经网络的构建。
步骤三:通过分析神经网络神经层数与神经元数等结构参数对神经网络性能的影响来最优网络结构。将深度神经网络的层数与各隐藏层的神经元数作为结构变量分析最优结构,得到深度神经网络的各隐藏层最优神经元数以及网络层数。将最优结构的深度神经网络放入一阶卷积神经网络分析一阶卷积神经网络的拟合优度与神经网络层数之间的数学关系,得到最优网络结构。
为了验证自适应波束成形下本发明的有效性,对比实验主要包括现有机器学习与实施例方法1D CNN的对比。现有神经网络采用的机器学习方法为Z.Zhao,H.Zhao,andM.Zheng.Real-time phase-only nulling based on deep neural network withrobustness.IEEE Access,7:142287–142294,2019.中的深度神经网络DNN算法。
所有的仿真都基于30阵元半波长等距直线阵列实现。仿真中神经网络参数设置在表1中展示。
表1神经网络参数设置
Figure BDA0003727791140000081
在神经网络的训练过程中,神经网络层数以及神经元数量对于神经网络的性能有着重大的影响。为了得到最优网络结构,定义拟合优度GOF作为评价函数来分析神经网络的拟合性能:
Figure BDA0003727791140000082
其中
Figure BDA0003727791140000083
为预测输出的平均值,可以发现当神经网络输出zact越接近zpre时,拟合优度值R2越接近于1。因此,神经网络结构对于拟合优度有着莫大的影响。
在神经网络结构分析仿真中,以点零陷为案例分析最优网络结构,得到的最优结构同样适用于宽零陷问题。在结构对比中,深度神经网络以神经元数量nf以及全连接的神经网络元结构的层数Nf为变量分析拟合优度。深度神经网DNN以及一阶卷积神经网络1DCNN的拟合优度如图3所示。
由图可以发现,深度神经网络在全连接层神经元为600时可以得到更高的GOF值,而当神经网络隐藏层层数大于4时,GOF的值并没有继续提升,说明拟合优度与神经网络层数并不是线性正比关系。由此得到深度神经网络的最优结构包含4层隐藏层,全连接层神经元为600,其拟合优度值为0.999932。在此基础上,设置一阶卷积神经网络中全连接层神经元数量为600。同样,由图可知,一阶卷积网络的最优结构由2层一阶卷积层组成以及拥有1层输入层,4层隐藏层以及1层输出层的DNN组成,其拟合优度为0.999990。
将输入训练集至最优结构的网络完成对一阶卷积神经网络的训练。
步骤四:一阶卷积神经网络最优结构确定后,根据波束变量参数计算阵列导向矢量矩阵并转化为向量形式后输入神经网络中,从而快速得到阵元激励,合成理想方向图。
神经网络性能评估:
最优神经网络结构确定后,对比深度神经网络DNN和本发明一阶卷积神经网络1-DCNN的测试集损失。测试集损失是神经网络泛化能力的重要评价函数。如果测试集损失与训练集损失相差过大,意味着神经网络出现了过拟合,泛化能力差。因此,测试集损失越小,神经网络的泛化能力越好。神经网络的测试集损失展示在表2中。
表2神经网络测试集损失对比
Figure BDA0003727791140000091
可以从表中发现无论是对于点零陷还是宽零陷模型,1-D CNN的测试集损失都要远小于DNN,意味着1-D CNN相对于DNN有着更好的学习能力以及泛化能力。之后通过DNN与1-D CNN针对不同的零陷方向,零陷数量以及零陷宽度生成方向图。首先,将对于神经网络在窄零陷模型中的自适应波束成形进行仿真。在案例1中,设置窄零陷数量为1,零陷方向为47°,而在案例2中,设置窄零陷数量为2,零陷方向分别为-48°,50°。根据其波束参量生成阵列导向矢量矩阵,转化为向量输入神经网络中,从而输出阵元激励。实现窄零陷的方向图如图4.(a),图4.(b)所示。可以发现,在两个图中,1-D CNN得到的阵元激励合成的方向图曲线与SDR算法合成的方向图曲线重合度更高,1-D CNN合成的零陷电平普遍能达到-80dB,而在图4.(b)中DNN合成的零陷电平只能达到-60dB。同时在合成方向图的零陷方向上,在图4.(a)中DNN的零陷角度误差达到了1°之多,相反,1-D CNN的零陷角度误差控制在0.5°范围,远小于DNN误差。由此可以得出,在窄零陷模型中,无论是从零陷电平深度还是从零陷方向上分析,1-D CNN合成的方向图都更接近理想波束方向图。
之后,将神经网络算法对于宽零陷模型中的自适应波束成形进行仿真,在案例3中,设置零陷数量为2,零陷角度为-41°,34°,零陷宽度为28°。而在案例4中,设置零陷数量为2,零陷角度为-33°,32°,零陷宽度为6°。实现宽零陷的方向图如下所示。在图5.(a)中以及图5.(b)中可以发现无论零陷宽度值的大小,1-D CNN在规定的零陷宽度下都保持在-50dB左右,而反观同样数量样本训练下的DNN,零陷电平时常会高于-40dB。与实际SDR算法合成的方向图零陷电平相差较多。因此,在宽零陷模型中,1-D CNN的拟合性能优于DNN。
由以上窄零陷模型与宽零陷模型中的神经网络性能分析,可以得到结论与DNN相比,由1-D CNN实现的方向图曲线更接近于SDR算法实现的方向图曲线,意味着1-D CNN在自适应波束成形中具有更好的拟合能力。值得注意的是神经网络算法只用花费少于0.01s的时间得到阵元激励,而SDR算法进行5次迭代得到阵元激励就要花费1.2s的时间,远远大于神经网络算法花费时间。

Claims (3)

1.一种基于一阶卷积神经网络的自适应波束成形方法,其特征在于,包括以下步骤:
步骤一:设置波束变量参数,所述波束变量参数包括零陷方向、零陷数量以及零陷宽度,通过半正定规划算法生成对应的阵元激励;将进行了实部、虚部的分离与归一化处理的零陷方向的阵列导向矢量矩阵的向量形式r以及阵元激励z构建训练集{r,z};
步骤二:构建实现阵列导向矢量与阵元激励之间映射关系的一阶卷积神经网络;一阶卷积神经网络是由多层一阶卷积层与全连接深度神经网络组成,多层一阶卷积层用于丰富输入数据的特征维数,全连接深度神经网络用于根据前者学习到的数据特征预测阵元激励;
步骤三:确定一阶卷积神经网络的最优结构,输入训练集完成对一阶卷积神经网络的训练;
步骤四:根据需要的波束变量参数生成阵列导向矢量矩阵的向量形式并输入至训练好的一阶卷积神经网络,再根据从一阶卷积神经网络输出的阵元激励来完成波束合成。
2.如权利要求1所述方法,其特征在于,训练集中每一对r,w为:
Figure FDA0003727791130000011
Figure FDA0003727791130000012
其中,r′为进行了实部Re、虚部Im分离的零陷方向的阵列导向矢量矩阵的向量形式,rmin、rmax分别为全部r′中的最小值、最大值;z′为进行了实部Re、虚部Im分离的阵元激励z′;zmin、zmax分别为生成的全部z′中的最小值、最大值;
r′=[Re(R12),Im(R12),...,Re(R1N),Im(R1N),...,Re(R(N-1),N),Im(R(N-1),N)]T
z′=[Re(w1),Im(w1),...,Re(wN),Im(wN)]T
R为N个阵元的阵列导向矢量的协方差矩阵,R(N-1),N为协方差矩阵R中第N-1行第N列的元素;wn为第n个天线的阵元激励,n=1,…,N;T为转置。
3.如权利要求1所述方法,其特征在于,一阶卷积神经网络的最优结构为:所述多层一阶卷积层由2层一阶卷积层组成,全连接型深度神经网络由1层输入层、4层隐藏层以及1层输出层组成,各隐藏层中的神经元数量为600。
CN202210781154.3A 2022-07-04 2022-07-04 一种基于一阶卷积神经网络的自适应波束成形方法 Pending CN115310512A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210781154.3A CN115310512A (zh) 2022-07-04 2022-07-04 一种基于一阶卷积神经网络的自适应波束成形方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210781154.3A CN115310512A (zh) 2022-07-04 2022-07-04 一种基于一阶卷积神经网络的自适应波束成形方法

Publications (1)

Publication Number Publication Date
CN115310512A true CN115310512A (zh) 2022-11-08

Family

ID=83857764

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210781154.3A Pending CN115310512A (zh) 2022-07-04 2022-07-04 一种基于一阶卷积神经网络的自适应波束成形方法

Country Status (1)

Country Link
CN (1) CN115310512A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116192206A (zh) * 2023-03-03 2023-05-30 电子科技大学 基于广义回归神经网络的大规模共形阵实时波束综合方法
CN117010285A (zh) * 2023-10-07 2023-11-07 山东科技大学 一种基于卷积神经网络的唯相阵列置零方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116192206A (zh) * 2023-03-03 2023-05-30 电子科技大学 基于广义回归神经网络的大规模共形阵实时波束综合方法
CN116192206B (zh) * 2023-03-03 2023-09-12 电子科技大学 基于广义回归神经网络的大规模共形阵实时波束综合方法
CN117010285A (zh) * 2023-10-07 2023-11-07 山东科技大学 一种基于卷积神经网络的唯相阵列置零方法
CN117010285B (zh) * 2023-10-07 2024-01-02 山东科技大学 一种基于卷积神经网络的唯相阵列置零方法

Similar Documents

Publication Publication Date Title
CN115310512A (zh) 一种基于一阶卷积神经网络的自适应波束成形方法
Shen et al. Q-bert: Hessian based ultra low precision quantization of bert
Haykin Neural networks and learning machines, 3/E
CN113300746B (zh) 毫米波mimo天线与混合波束成形优化方法及系统
Becker Unsupervised learning procedures for neural networks
Luo et al. Applied neural networks for signal processing
Du et al. Radial basis function networks
Karami et al. Invertible convolutional flow
Plumbley Efficient information transfer and anti-Hebbian neural networks
CN109670580A (zh) 一种基于时间序列的数据修复方法
Qiu et al. Neural network implementations for PCA and its extensions
CN104020448A (zh) 等阵元约束的雷达子阵级和波束/差波束形成优化方法
CN111693976B (zh) 一种基于残差网络的mimo雷达波束赋形方法
Merad et al. Neural networks for synthesis and optimization of antenna arrays
CN114330695A (zh) 一种基于多层感知神经网络的相控阵驱动方法
Specht GRNN with double clustering
US6965885B2 (en) Self-organizing feature map with improved performance by non-monotonic variation of the learning rate
CN116192206B (zh) 基于广义回归神经网络的大规模共形阵实时波束综合方法
Gong et al. Synthesis of sparse arrays in presence of coupling effects based on ANN and IWO
Hu et al. Robust DOA estimation using deep complex-valued convolutional networks with sparse prior
Chauhan et al. Soft computing methods for microwave and millimeter-wave design problems
Konishi et al. Stable invariant models via Koopman spectra
Cano-Rocha et al. Stochastic one-step training for feedforward artificial neural networks
Shadi et al. Meta-heuristic multi-objective as an affordable method for improving the grating lobe in a wide scan phased array antenna
CN114184999A (zh) 一种互耦小孔径阵列的生成式模型处理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination