CN110765704A - 一种应用于微波器件的新型深层神经网络自动建模方法 - Google Patents

一种应用于微波器件的新型深层神经网络自动建模方法 Download PDF

Info

Publication number
CN110765704A
CN110765704A CN201911210240.3A CN201911210240A CN110765704A CN 110765704 A CN110765704 A CN 110765704A CN 201911210240 A CN201911210240 A CN 201911210240A CN 110765704 A CN110765704 A CN 110765704A
Authority
CN
China
Prior art keywords
neural network
deep neural
layer
ith
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911210240.3A
Other languages
English (en)
Other versions
CN110765704B (zh
Inventor
那伟聪
张万荣
谢红云
金冬月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201911210240.3A priority Critical patent/CN110765704B/zh
Publication of CN110765704A publication Critical patent/CN110765704A/zh
Application granted granted Critical
Publication of CN110765704B publication Critical patent/CN110765704B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明涉及一种应用于微波器件的新型深层神经网络自动建模方法,属于微波器件建模领域,用于解决现有的浅层神经网络建模方法不能满足微波器件建模领域面临的模型维度高、工作范围大、可靠性高等新需求的问题。本发明具体提出了一种新型的包含Batch Normalization(BN,批量归一化)层和Sigmoid隐藏层的混合型深层神经网络结构及其训练方法,能够解决由于神经网络层数增多而引起的梯度消失和训练被阻止的问题;并采用自适应算法自动确定深层神经网络中BN层和Sigmoid隐藏层的层数,实现训练过程自动化。采用本发明得到的深层神经网络模型能够精确表示微波器件复杂、连续、高度非线性的器件特性,计算速度快,能有效代替原始器件进行后续电路或系统的仿真与设计。

Description

一种应用于微波器件的新型深层神经网络自动建模方法
技术领域
本发明涉及微波器件建模领域,尤其涉及人工神经网络技术在微波器件建模领域的应用。
背景技术
随着通讯技术的快速发展,微波电路的设计越来越依赖于计算机辅助设计技术,精确高效的微波器件模型在微波电路仿真和设计中至关重要。基于人工神经网络的建模方法被公认为是一种代替传统建模技术的有效方法[1]。神经网络模型不但能精确表示微波器件的非线性输入输出关系,而且从输入到输出的计算速度极快,能大大缩短微波电路或系统的仿真周期。
然而近几年随着微波技术的不断发展,电路规模、性能指标和工作频段不断提高,新工艺、新材料、新结构的电子器件不断涌现,现有的浅层神经网络建模方法已不能满足微波器件建模领域面临的模型维度高、工作范围大、可靠性高等新需求。目前,国内外科研人员普遍采用分解建模法来解决这类复杂的建模问题。分解建模法主要包括对器件复杂结构的分解[2]、对模型输入变量的分解[3]和对建模区域的分解[4],生成多个子模型,从而把单个复杂建模问题转化成多个简单建模问题。但是,分解建模法具有一定的应用局限性,采用该方法建立的神经网络模型普遍无法有效地保证各个子模型之间的数值连续和导数连续,导致模型在后续的电路设计和仿真优化过程中的可靠性降低。因此,仍需要开发新的神经网络建模方法来解决这类复杂的建模问题。
近年来,在浅层神经网络的基础上,含有更多(三个及三个以上)隐藏层的深层神经网络和深度学习概念已经逐渐引起学术界和工业界的关注。深层神经网络被认为在大数据、复杂关系建模等方面非常有效[5],已经在许多具有挑战性的领域获得了成功,例如图像识别[6]、语音识别[7]、语言处理[8]等。实验表明[9],在具有相同数目的神经网络训练参数的情况下,深层神经网络比浅层神经网络具有更高的精确度和更好的预测性能,更适合处理具有高复杂度的非线性建模问题。因此,深层神经网络技术为解决微波器件建模领域高维度、大范围、高度非线性的微波器件建模问题提供了一种可行性方案。
本发明结合深层神经网络的优点和微波器件建模问题的特点,提出一种新型的包含Batch Normalization(BN,批量归一化)层和Sigmoid隐藏层的混合型深层神经网络结构及其训练方法,并采用自适应算法自动确定深层神经网络中BN层和Sigmoid隐藏层的层数,实现训练过程自动化。训练好的深层神经网络模型精度高,计算速度快,能有效代替原始器件进行后续电路或系统的仿真与设计。
参考文献:
[1]Q.J.Zhang,K.C.Kupta.Neural networks for RF and microwave design[M].Norwood,MA:Artech House,2000.
[2]Y.Cao,S.Reitzinger,Q.J.Zhang.Simple and efficient high-dimensionalparametric modeling for microwave cavity filters using modular neural network[J].IEEE Microwave Wireless Component Letters,2011,21(5):258-260.
[3]V.M.R.Gongal-Reddy,F.Feng,C.Zhang,et al.Parallel decompositionapproach to gradient-based EM optimization[J].IEEE Transactions on MicrowaveTheory and Techniques,2016,64(11):3380-3399.
[4]W.Zhang,F.Feng,J.Zhang,et al.Space mapping approach toelectromagnetic centric Multiphysics parametric modeling of microwavecomponents[J].IEEE Transactions on Microwave Theory and Techniques,2018,66(7):3169-3185.
[5]Y.LeCun,Y.Bengio,G.Hinton.Deep learning[J].Nature,2015,521:436-444.
[6]C.Farabet,C.Couprie,L.Najman,et al.Learning hierarchical featuresfor scene labeling[J].IEEE Transactions on Pattern Analysis and MachineIntelligence,2013,35(8):1915-1929.
[7]D.Chen,B.K.Mak.Multitasking learning of deep neural networks forlow-resource speech recognition[J].IEEE Transactions on Audio,Speech,andLanguage Processing,2015,23(7):1172-1183.
[8]R.Collobert,J.Weston.A unified architecture for natural languageprocessing:Deep neural networks with multitask learning[C].InternationalConference on Machine Learning.2008:160-167.
[9]F.Seide,G.Li,D.Yu.Conversational speech transcription usingcontext-dependent deep neural networks[C].Conference of the InternationalSpeech Communication Association.2011:437-440.
发明内容
本发明提出一种应用于微波器件的结合批量归一化的新型深层神经网络自动建模方法。具体包括提出了一种新型的包含Batch Normalization(BN,批量归一化)层和Sigmoid隐藏层的混合型深层神经网络结构及其训练方法,并采用自适应算法自动确定深层神经网络中BN层和Sigmoid隐藏层的层数,实现训练过程自动化。本发明能够满足微波器件建模领域面临的模型维度高、工作范围大、可靠性高等新需求,同时有效解决现有的深层神经网络结构及神经元激活函数在微波器件建模过程中存在的以下问题:(1)在图像处理领域深层神经网络常用的Rectified Linear Unit(ReLU)激活函数及其一阶导数不连续,无法被直接用来表示微波器件建模问题中连续的输入输出响应;(2)浅层神经网络常用的Sigmoid激活函数在深层神经网络训练中会出现梯度消失的现象,导致训练被阻止。本发明所提出的建模方法能够有效解决以上问题,得到的深层神经网络模型能够精确表示微波器件复杂、连续、高度非线性的器件特性,计算速度快,能有效代替原始器件进行后续电路或系统的仿真与设计。
本发明提出的一种应用于微波器件的结合批量归一化的新型深层神经网络自动建模方法,主要包括以下步骤:
步骤1:根据实际的微波建模问题,确定深层神经网络模型中输入变量x和输出变量y的数目,构建结合批量归一化的混合型深层神经网络结构。该深层神经网络包含1个输入层,L个BN层,L个Sigmoid隐藏层(L≥3)和1个输出层,其中每个Sigmoid隐藏层前均连接一个BN层,该BN层相当于一个归一化器,用于对其后连接的Sigmoid隐藏层的输入数值进行归一化处理。每个BN层和Sigmoid隐藏层中神经元的数目是根据建模问题的难易程度预先确定的,且在训练过程中固定不变:如果建模范围大、输入变量多,则每层神经元的数目大;反之,则每层神经元的数目小;建议其数量范围在50到150之间。
步骤2:初始化计数k=1。通过测量或者仿真,获取建模所需的训练数据和验证数据,分别用于深层神经网络的训练和验证。
步骤3:k=k+1。初始化深层神经网络的权重参数,采用结合BN层和Sigmoid隐藏层的混合型神经网络反向传播算法,分别输入训练数据和验证数据对深层神经网络进行训练和验证,得到当前阶段(即第k个阶段)神经网络的训练误差
Figure BDA0002293455390000031
和验证误差
Figure BDA0002293455390000032
步骤4:采用自适应算法确定深层神经网络中BN层和Sigmoid隐藏层的层数:如果当前深层神经网络的训练误差
Figure BDA0002293455390000033
大于用户期望的测试误差阈值Ed,说明当前深层神经网络欠学习,在原有深层神经网络结构中增加一个BN层和一个Sigmoid隐藏层,然后返回步骤3;如果当前深层神经网络的训练误差
Figure BDA0002293455390000034
小于等于用户期望的测试误差阈值Ed,但测试误差
Figure BDA0002293455390000035
大于用户期望的测试误差阈值Ed,说明当前深层神经网络过度学习,增加训练数据,然后返回步骤3;如果当前深层神经网络的训练误差
Figure BDA0002293455390000041
小于等于用户期望的测试误差阈值Ed,且测试误差
Figure BDA0002293455390000042
小于等于用户期望的测试误差阈值Ed,说明当前深层神经网络良好学习,训练结束。
该过程为自适应训练算法,自动确定深层神经网络中BN层和Sigmoid隐藏层的层数,实现训练过程自动化。
步骤5:得到模型,训练好的深层神经网络模型可代替原始器件进行后续电路或系统的仿真与设计。
本发明区别于现有技术的发明点有以下几点:
1.本发明步骤1中,提出了一种全新的包含BN层和Sigmoid隐藏层的混合型深层神经网络结构,该结构是首次应用在微波器件建模领域。本发明在传统的全连接Sigmoid隐藏层中加入BN层,每个BN层相当于一个归一化器,对每个Sigmoid隐藏层的输入进行归一化处理,从而解决了传统的全连接Sigmoid隐藏层的深层神经网络在使用反向传播算法进行训练过程中会出现梯度消失的问题,使深层神经网络模型能够准确反映微波器件的特性。
该结构中第l个BN层的第i个神经元输出
Figure BDA0002293455390000043
第l个Sigmoid隐藏层的第i个神经元输出
Figure BDA0002293455390000044
以及输出层的第i个神经元输出yi分别为
Figure BDA0002293455390000045
Figure BDA0002293455390000046
Figure BDA0002293455390000047
其中n表示输入变量的个数,Nl-1表示第l-1个Sigmoid隐藏层神经元的个数(l=2,3,…,L),f(·)表示Sigmoid激活函数,
Figure BDA0002293455390000051
表示深层神经网络第l个Sigmoid隐藏层中第j个神经元与第l+1个BN层中第i个神经元之间的权值,
Figure BDA0002293455390000052
表示第l个Sigmoid隐藏层中第j个神经元的偏差,
Figure BDA0002293455390000053
Figure BDA0002293455390000054
分别表示第l个BN层中i个神经元输出的缩放量和平移量,
Figure BDA0002293455390000055
Figure BDA0002293455390000056
分别表示通过所有训练数据计算得到的第l个BN层中第i个神经元输出的期望值和方差。
2.本发明步骤3中,将传统的基于梯度的反向传播算法推广到本发明提出的混合型深层神经网络训练中,具体的发明点如下:
误差函数相对于神经网络的第i个输出yi的局部梯度
Figure BDA0002293455390000057
以及误差函数相对于第l个BN层中第i个神经元的局部梯度
Figure BDA0002293455390000058
的计算公式分别为
Figure BDA0002293455390000059
其中yi表示深层神经网络对训练数据x的第i个输出的预测值,di表示训练数据中x对应的第i个输出的实际值。由于批量归一化是一种可微变换,本发明保证了基于梯度反向传播的深层神经网络训练能够顺利进行,并通过批量归一化使Sigmoid激活函数的输入分布趋近于Sigmoid函数的非线性饱和区域,从而有效解决深层神经网络梯度消失的问题。
3.本发明步骤4中,提出了适用于微波器件深层神经网络模型的自适应算法,自动确定深层神经网络中BN层和Sigmoid隐藏层的层数,自动调用深层神经网络训练工具,从而实现训练过程自动化。本发明的自适应算法中,深层神经网络的BN层和Sigmoid隐藏层的初始层数L≥3。根据微波器件建模问题的复杂程度,每个BN层和Sigmoid隐藏层的神经元数目是预先确定的。微波器件建模问题复杂度高,每个BN层和Sigmoid隐藏层的神经元数目大;微波器件建模问题复杂度高,每个BN层和Sigmoid隐藏层的神经元数目少;建议每个BN层和Sigmoid隐藏层的神经元数目的取值在50至150之间。
有益效果
综上所述,本发明提出的应用于微波器件的结合批量归一化的新型深层神经网络自动建模方法能够有效解决微波器件建模领域不断涌现的高复杂度的建模问题,在避免深层神经网络训练中梯度消失问题的同时,自动确定模型结构,最终得到的深层神经网络模型能够精确表示微波器件复杂、连续、高度非线性的器件特性,计算速度快,能有效代替原始器件进行后续电路或系统的仿真与设计。
附图说明
图1是本发明提出的结合批量归一化的混合型深层神经网络结构图;
图2是本发明提出的应用于微波器件的深层神经网络自动建模算法流程图;
图3是本发明实施例(波导滤波器)的器件结构;
图4是本发明实施例(波导滤波器)的验证数据和模型输出特性曲线。
具体实施方式
本发明提出的新型深层神经网络自动建模方法可应用于各种微波器件的建模与设计,如微波滤波器的参数化建模、天线的电磁优化设计、晶体管建模等。为使本发明的目的、技术方案和优点更加清楚明确,下面将结合附图对本发明的实施例(波导滤波器建模)作详细描述。
如图1所示,本发明提出一种新型的包含BN层和Sigmoid隐藏层的混合型深层神经网络结构。采用该结构对如图3所示的波导滤波器建模时,深层神经网络的输入变量x是滤波器的几何参数h1,h2,h3,hc1,hc2和频率ω,记为x=[h1 h2 h3 hc1 hc2ω]T;输出变量y是S11的实部和虚部,记为y=[RS11 IS11]T
采用如图2所示的深层神经网络自动建模算法对该波导滤波器进行建模,建模范围是h1=3.08~3.824mm,h2=3.96~4.704mm,h3=3.63~4.374mm,hc1=2.82~3.564mm,hc2=2.65~3.394mm,ω=10.5~11.5GHz,训练数据和验证数据是在该建模范围中通过Design of Experiment(DoE,试验设计)采样方法获得的两组不同的数据集,其中训练数据用于训练模型,验证数据用于检验模型。该建模问题由于建模范围较大,如果采用只包含一个或两个隐藏层的浅层神经网络进行建模,无法得到能够满足用户期望的测试误差阈值的模型。因此,需要采用本发明提出的深层神经网络建模方法。此实施例中用户期望的测试误差阈值为1%到2%。在模型开发过程中,利用各阶段的模型训练误差和测试误差与用户期望的测试误差阈值之间的关系,来确定深层神经网络中BN层和Sigmoid隐藏层的层数。通过自适应算法,最终得到该实施例的深层神经网络模型包含1个输入层、9个BN层、9个Sigmoid隐藏层和1个输出层,其中每个BN层和Sigmoid隐藏层均包含100个神经元。
图4为利用本发明建模方法建立模型输出特性(|S11|)曲线与验证数据比较图,可以看出深层神经网络模型的输出曲线与验证数据拟合度良好。

Claims (3)

1.一种应用于微波器件的新型深层神经网络自动建模方法,其特征在于:
步骤1:根据实际的微波建模问题,确定深层神经网络模型中输入变量x和输出变量y的数目,构建混合型深层神经网络结构,所述的混合型深层神经网络结构包含1个输入层,L个Batch Normalization(BN)层,L个Sigmoid隐藏层(L≥3)和1个输出层,其中每个Sigmoid隐藏层前均连接一个BN层,该BN层相当于一个归一化器,用于对其后连接的Sigmoid隐藏层的输入数值进行归一化处理,每个BN层和Sigmoid隐藏层中神经元的数目是根据建模问题的难易程度预先确定的,且在训练过程中固定不变,其数量范围在50到150之间;
步骤2:初始化计数k=1,通过测量或者仿真,获取建模所需的训练数据和验证数据,分别用于深层神经网络的训练和验证;
步骤3:k=k+1,初始化深层神经网络的权重参数,采用结合BN层和Sigmoid隐藏层的混合型神经网络反向传播算法,分别输入训练数据和验证数据对深层神经网络进行训练和验证,得到当前阶段(即第k个阶段)神经网络的训练误差
Figure FDA0002293455380000011
和验证误差
步骤4:采用自适应算法确定深层神经网络中BN层和Sigmoid隐藏层的层数:
如果系统训练过程中,当前深层神经网络的训练误差
Figure FDA0002293455380000013
大于用户期望的测试误差阈值Ed,则在原有深层神经网络结构中增加一个BN层和一个Sigmoid隐藏层,然后返回步骤3;
如果当前深层神经网络的训练误差
Figure FDA0002293455380000014
小于等于用户期望的测试误差阈值Ed,但测试误差
Figure FDA0002293455380000015
大于用户期望的测试误差阈值Ed,增加训练数据,然后返回步骤3;
如果当前深层神经网络的训练误差
Figure FDA0002293455380000016
小于等于用户期望的测试误差阈值Ed,且测试误差
Figure FDA0002293455380000017
小于等于用户期望的测试误差阈值Ed,训练结束;
步骤5:得到模型,训练好的深层神经网络模型可代替原始器件进行后续电路或系统的仿真与设计。
2.根据权利要求1所述的一种应用于微波器件的新型深层神经网络自动建模方法,其特征在于:
所述的混合型深层神经网络结构中第l个BN层的第i个神经元输出
Figure FDA0002293455380000018
第l个Sigmoid隐藏层的第i个神经元输出以及输出层的第i个神经元输出yi分别为
Figure FDA0002293455380000022
Figure FDA0002293455380000023
其中n表示输入变量的个数,Nl-1表示第l-1个Sigmoid隐藏层神经元的个数(l=2,3,…,L),f(·)表示Sigmoid激活函数,
Figure FDA0002293455380000024
表示深层神经网络第l个Sigmoid隐藏层中第j个神经元与第l+1个BN层中第i个神经元之间的权值,
Figure FDA0002293455380000025
表示深层神经网络第l个Sigmoid隐藏层中第j个神经元的偏差,
Figure FDA0002293455380000026
分别表示第l个BN层中i个神经元输出的缩放量和平移量,
Figure FDA0002293455380000028
Figure FDA0002293455380000029
分别表示通过所有训练数据计算得到的第l个BN层中第i个神经元输出的期望值和方差。
3.根据权利要求1所述的一种应用于微波器件的新型深层神经网络自动建模方法,其特征在于:所述的结合BN层和Sigmoid隐藏层的混合型神经网络反向传播算法中,误差函数相对于神经网络的第i个输出yi的局部梯度
Figure FDA00022934553800000210
以及误差函数相对于第l个BN层中第i个神经元的局部梯度
Figure FDA00022934553800000211
的计算公式分别为
Figure FDA00022934553800000212
Figure FDA0002293455380000031
其中,yi表示深层神经网络对训练数据x的第i个输出的预测值,di表示训练数据中x对应的第i个输出的实际值,Nl表示第l个Sigmoid隐藏层神经元的个数(l=1,2,…,L-1)。
CN201911210240.3A 2019-11-28 2019-11-28 一种应用于微波器件的新型深层神经网络自动建模方法 Active CN110765704B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911210240.3A CN110765704B (zh) 2019-11-28 2019-11-28 一种应用于微波器件的新型深层神经网络自动建模方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911210240.3A CN110765704B (zh) 2019-11-28 2019-11-28 一种应用于微波器件的新型深层神经网络自动建模方法

Publications (2)

Publication Number Publication Date
CN110765704A true CN110765704A (zh) 2020-02-07
CN110765704B CN110765704B (zh) 2024-02-06

Family

ID=69340595

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911210240.3A Active CN110765704B (zh) 2019-11-28 2019-11-28 一种应用于微波器件的新型深层神经网络自动建模方法

Country Status (1)

Country Link
CN (1) CN110765704B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111460734A (zh) * 2020-04-02 2020-07-28 北京工业大学 一种结合先进自适应采样和人工神经网络的微波器件自动建模方法
CN112149351A (zh) * 2020-09-22 2020-12-29 吉林大学 一种基于深度学习的微波电路物理尺寸估算方法
CN112347704A (zh) * 2020-12-03 2021-02-09 北京工业大学 一种高效的基于贝叶斯理论的人工神经网络微波器件建模方法
CN114067007A (zh) * 2020-07-30 2022-02-18 华为技术有限公司 图像处理方法与装置、神经网络训练的方法与装置
WO2022142026A1 (zh) * 2020-12-31 2022-07-07 平安科技(深圳)有限公司 分类网络构建方法以及基于分类网络的分类方法
WO2023093229A1 (zh) * 2021-11-29 2023-06-01 新智我来网络科技有限公司 一种联合学习参数聚合方法、装置及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109284541A (zh) * 2018-08-31 2019-01-29 天津工业大学 一种用于微波无源器件的神经网络多物理建模方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109284541A (zh) * 2018-08-31 2019-01-29 天津工业大学 一种用于微波无源器件的神经网络多物理建模方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
XIAOYONG YUAN等: "Generalized Batch Normalization: Towards Accelerating Deep Neural Networks", ARXIV, pages 1 - 9 *
YINTAI MA等: "Diminishing Batch Normalization", ARXIV, pages 1 - 23 *
王岩等: "深度神经网络训练中适用于小批次的归一化算法", 计算机科学, vol. 46, no. 11, pages 273 - 276 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111460734A (zh) * 2020-04-02 2020-07-28 北京工业大学 一种结合先进自适应采样和人工神经网络的微波器件自动建模方法
CN114067007A (zh) * 2020-07-30 2022-02-18 华为技术有限公司 图像处理方法与装置、神经网络训练的方法与装置
CN112149351A (zh) * 2020-09-22 2020-12-29 吉林大学 一种基于深度学习的微波电路物理尺寸估算方法
CN112149351B (zh) * 2020-09-22 2023-04-18 吉林大学 一种基于深度学习的微波电路物理尺寸估算方法
CN112347704A (zh) * 2020-12-03 2021-02-09 北京工业大学 一种高效的基于贝叶斯理论的人工神经网络微波器件建模方法
CN112347704B (zh) * 2020-12-03 2023-10-20 北京工业大学 一种高效的基于贝叶斯理论的人工神经网络微波器件建模方法
WO2022142026A1 (zh) * 2020-12-31 2022-07-07 平安科技(深圳)有限公司 分类网络构建方法以及基于分类网络的分类方法
WO2023093229A1 (zh) * 2021-11-29 2023-06-01 新智我来网络科技有限公司 一种联合学习参数聚合方法、装置及系统

Also Published As

Publication number Publication date
CN110765704B (zh) 2024-02-06

Similar Documents

Publication Publication Date Title
CN110765704B (zh) 一种应用于微波器件的新型深层神经网络自动建模方法
CN108962247B (zh) 基于渐进式神经网络多维语音信息识别系统及其方法
CN108053840A (zh) 一种基于pca-bp的情绪识别方法及系统
CN114006370B (zh) 一种电力系统暂态稳定分析评估方法及系统
Burrascano et al. A neural network model for CAD and optimization of microwave filters
Singh Noise impact on time-series forecasting using an intelligent pattern matching technique
Machado et al. Takagi–Sugeno fuzzy models in the framework of orthonormal basis functions
CN114548532A (zh) 一种基于vmd的tgcn-gru超短期负荷预测方法、装置和电子设备
Gao et al. Vacl: Variance-aware cross-layer regularization for pruning deep residual networks
CN113962163A (zh) 一种实现无源微波器件高效设计的优化方法、装置和设备
CN115906303A (zh) 一种基于机器学习的平面微波滤波器设计方法及装置
Astawa et al. Face Images Classification using VGG-CNN.
Kim et al. Characterization of the quality factor in spiral coil designs for high-frequency wireless power transfer systems using machine learning
CN112966429B (zh) 基于WGANs数据增强的非线性工业过程建模方法
CN113987924A (zh) 一种基于目标特征自学习的复杂电磁信号模拟发生方法
CN117633184A (zh) 一种模型构建和智能回复方法、设备及介质
CN111460734A (zh) 一种结合先进自适应采样和人工神经网络的微波器件自动建模方法
Fischer et al. Increasing the performance of a training algorithm for local model networks
CN110610140A (zh) 人脸识别模型的训练方法、装置、设备及可读存储介质
CN115879412A (zh) 一种基于迁移学习的版图层级电路图尺寸参数优化方法
CN115759179A (zh) 一种应用于多任务学习的策略模型训练方法、装置及设备
CN110766144B (zh) 基于多层分解模糊神经网络的原子之间标量耦合常数预测系统
CN112347704A (zh) 一种高效的基于贝叶斯理论的人工神经网络微波器件建模方法
CN113299302A (zh) 音频降噪方法、装置及电子设备
CN108229026B (zh) 一种基于动态内核极限学习机的电磁场建模仿真方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant