CN108153943B - 基于时钟循环神经网络的功率放大器的行为建模方法 - Google Patents

基于时钟循环神经网络的功率放大器的行为建模方法 Download PDF

Info

Publication number
CN108153943B
CN108153943B CN201711289895.5A CN201711289895A CN108153943B CN 108153943 B CN108153943 B CN 108153943B CN 201711289895 A CN201711289895 A CN 201711289895A CN 108153943 B CN108153943 B CN 108153943B
Authority
CN
China
Prior art keywords
hidden layer
neural network
iteration
layer
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711289895.5A
Other languages
English (en)
Other versions
CN108153943A (zh
Inventor
邵杰
赵一鹤
刘姝
张善章
张颐婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN201711289895.5A priority Critical patent/CN108153943B/zh
Publication of CN108153943A publication Critical patent/CN108153943A/zh
Application granted granted Critical
Publication of CN108153943B publication Critical patent/CN108153943B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/30Circuit design
    • G06F30/36Circuit design at the analogue level
    • G06F30/367Design verification, e.g. using simulation, simulation program with integrated circuit emphasis [SPICE], direct methods or relaxation methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Geometry (AREA)
  • Amplifiers (AREA)
  • Feedback Control In General (AREA)

Abstract

本发明公开了一种基于时钟循环神经网络的功率放大器的行为建模方法,克服普通的神经网络模型迭代次数较多、对于长期记忆效应表现差等问题。本方法利用循环神经网络的输出除了与即时输入有关,也与历史输入有关的特点,用来描述功率放大器的记忆效应。在此基础上又将普通循环神经网络隐含层的权重划分为若干个模块,每个模块拥有自己的周期,本模块的权重只在自己的周期时更新权重,从而减少权重更新的次数以加快神经网络模型的训练。本方法能够很好地描述功率放大器的非线性特性和记忆效应,具有较高的精度。

Description

基于时钟循环神经网络的功率放大器的行为建模方法
技术领域
本发明涉及一种基于时钟循环神经网络的功率放大器行为建模方法,属于非线性系统建模与分析应用技术领域。
背景技术
功率放大器是发射机的重要模块,是一个复杂的非线性系统。为了能使功率放大器高效率的工作,功率放大器中的晶体管多工作在接近饱和区甚至截止区,因此功率放大器经常会产生严重的非线性失真,并且因为器件的等效电抗影响,功率放大器会产生记忆效应。
功放的建模方法可分为物理建模和行为建模两种。物理建模需要知道电路内部的具体结构外加对电路知识的熟练掌握才能建立;而行为建模则仅需功放的输入输出数据,将功率放大器当作一个整体就可以描述系统响应特性,相比物理建模简单得多。
一般来说,功率放大器行为建模可以分为无记忆模型和记忆模型两种。无记忆功放模型的种类很多,例如Saleh模型,无记忆多项式模型等。无记忆功放模型相对简单,对于窄带系统建模有很好的效果。然而随着系统带宽的增加,功率放大器的记忆效应明显,无记忆模型无法很好地描述记忆效应,所以现在大多采用有记忆功放模型。有记忆模型一般采用Volterra级数模型和神经网络模型等。Volterra级数是对泰勒级数的扩展,该模型适用于弱非线性系统。不过系统的参数会随着阶次和记忆深度的增加而迅速增加,故计算量和收敛性受到了影响。而神经网络能够逼近任意非线性的函数,并且具有灵活有效的自组织学习能力,因而被广泛用于功率放大器系统的行为建模。
但是传统的神经网络模型只在描述短期记忆效应上表现良好,对于长期记忆效应的描述表现很差。
发明内容
为解决现有技术的不足,本发明的目的在于提供一种基于时钟循环神经网络的功率放大器行为建模方法,解决传统的神经网络模型只在描述短期记忆效应上表现良好,对于长期记忆效应的描述表现很差的问题,能很好描述功率放大器非线性特性和记忆效应。
为了实现上述目标,本发明采用如下的技术方案:
一种基于时钟循环神经网络的功率放大器的行为建模方法,其特征是,包括如下步骤:
步骤1)采集功率放大器的输入信号数据向量 xin=[xin(1),xin(2),…xin(N)]和输出信号数据向量 yout=[yout(1),yout(2),…yout(N)],其中,N为数据长度。
步骤2)初始化时钟循环神经网络,其中时钟循环神经网络的模型结构有四层:输入层、第一隐含层、第二隐含层和输出层;
步骤3):利用时钟循环神经网络对行为模型进行建模,包括如下步骤:
步骤31)根据时钟循环神经网络结构,计算时钟循环神经网络各层的输出;
步骤32)计算目标误差函数,其定义为:
Figure BDA0001499194480000021
Figure BDA0001499194480000022
其中y(t)为第t次迭代的时钟循环神经网络模型的输出,上标T为矩阵的转置运算;
步骤33)用RMSprop算法训练网络,得到模型的权值矩阵的变化量;
步骤34)迭代次数加1,即t=t+1,并对下一步进行判定:
当目标误差函数大于误差阈值或者迭代次数小于最大迭代次数 Nmax时,继续步骤35);
当目标误差函数不大于误差阈值或者迭代次数等于最大迭代次数Nmax时,停止迭代,执行步骤4);
步骤35)根据权值矩阵的变化量更新权值系数;
步骤36)返回步骤31);
步骤4)通过步骤3)得到的权系数,计算时钟循环神经网络模型最终的输出y。
前述的一种基于时钟循环神经网络的功率放大器的行为建模方法,其特征是,所述步骤2)具体过程如下:
步骤21)设置时钟循环神经网络输入层有P个神经元,接受输入信号数据向量并将其传递到第一隐含层;
所述第一隐含层有L1个神经元,每个神经元有传递函数 fR=Rh(T),h=1,2,…L1,第一隐含层向量
Figure BDA0001499194480000031
所述第二隐含层有L2个神经元,每个神经元有传递函数 fS=Sj(T),j=1,2,…L2,第二隐含层向量
Figure BDA0001499194480000032
所述输出层有M个神经元,该层神经元的输出ym,m=1,2,…,M,是第二隐含层神经元输出的线性组合;
步骤22)在时钟循环神经网络模型中,设置五种权系数矩阵:
从第二隐含层到输出层的L2×M维权系数矩阵Wy
第二隐含层的L2×1维自循环权系数矩阵W22
从第一隐含层到第二隐含层的L1×L2维权系数矩阵W21
第一隐含层的L1×1维自循环权系数矩阵W11
从输入层到隐含层的P×L1维权系数矩阵Wx
其中Wy,W21,Wx的初始权值均采用Glorot均匀分布;W22,W11的初始权值均采用He均匀分布;
步骤23)设置时钟循环神经网络中的各个参数值。
前述的一种基于时钟循环神经网络的功率放大器的行为建模方法,其特征是,所述步骤23)中参数值包括:
第一隐含层的自循环权系数矩阵W11、从输入层到隐含层的权系数矩阵Wx平均分为g1个模块,每个模块拥有周期
Figure BDA0001499194480000041
第二隐含层的自循环权系数矩阵W22、从第一隐含层到第二隐含层的权系数矩阵W21平均分为g2个模块,每个模块拥有周期
Figure BDA0001499194480000042
训练最大迭代次为Nmax
学习速率为η;
误差函数阈值为ε。
前述的一种基于时钟循环神经网络的功率放大器的行为建模方法,其特征是,所述步骤31)中各层输出为:y(t)=Wy(t)S(t);
S(t)=fs[W21(t)R(t)+W22(t)S(t-1)];
R(t)=fR[Wx(t)xin(t)+W11(t)R(t-1)];
其中,xin(t)表示第t次迭代时的输入;
Wy(t)表示第t次迭代时从第二隐含层到输出层的权系数矩阵;
S(t)表示第t次迭代时第二隐含层的输出;
R(t)表示第t次迭代时第一隐含层的输出;
W22(t)表示第t次迭代时第二隐含层的自循环权系数矩阵;
W21(t)表示第t次迭代时从第一隐含层到第二隐含层的权系数矩阵;W11(t)表示第t次迭代时第一隐含层的自循环权系数矩阵;
Wx(t)表示第t次迭代时从输入层到隐含层的权系数矩阵;
Figure BDA0001499194480000051
S(0)=1,R(0)=1;
前述的一种基于时钟循环神经网络的功率放大器的行为建模方法,其特征是,所述步骤33)中模型的权值矩阵的变化量为:
Figure BDA0001499194480000052
Figure BDA0001499194480000053
Figure BDA0001499194480000054
Figure BDA0001499194480000055
Figure BDA0001499194480000056
其中,
Figure BDA0001499194480000057
E[g2]t=0.9×E[g2]t-1+0.1×(gt)2,gt表示第t次迭代时的梯度,E[g2]0=0;μ=10-8
Figure BDA0001499194480000061
表示第t次迭代时输入层第q个神经元到第一隐含层第h个神经元的权值矩阵的变化量;
Figure BDA0001499194480000062
表示第t次迭代时第一隐含层第h个神经元的自循环权值矩阵的变化量;
Figure BDA0001499194480000063
表示第t次迭代时第一隐含层第h个神经元到第二隐含层第j个神经元的权值矩阵的变化量;
Figure BDA0001499194480000064
表示第t次迭代时第二隐含层第j个神经元的自循环权值矩阵的变化量;
Figure BDA0001499194480000065
表示第t次迭代时第二隐含层第j个神经元到输出层第m个神经元的权值矩阵的变化量。
前述的一种基于时钟循环神经网络的功率放大器的行为建模方法,其特征是,所述步骤35)中权值矩阵更新方式为:同一权系数矩阵中的每个模块内部的神经元是全连接的,模块之间由周期大的模块神经元连接到周期小的模块神经元;只有当时钟循环神经网络的迭代次数t是第一隐含层中各模块的周期Ti的整数倍时,W11、Wx中本模块的隐层权值才得以更新;只有当时钟循环神经网络的迭代次数t 是第二隐含层中各模块的周期Tk的整数倍时,W22、W21中本模块的隐层权值才得以更新。
本发明的有益效果:1)本发明利用循环神经网络的输出除了与即时输入有关,也与历史输入有关的特点,用来描述功率放大器的记忆效应。在此基础上又将普通循环神经网络隐含层的权重划分为若干个模块,每个模块拥有自己的周期,本模块的权重只在自己的周期时更新权重,避免了在每个迭代次数所有权重一起更新的庞大运算量,在减少了权重更新次数的同时也加快了神经网络模型的训练;
2)在相同的迭代次数下,时钟循环神经网络比普通神经网络具有更高的精度。
附图说明
图1是D类功率放大器黑盒模型图;
图2是时钟循环神经网络模型结构图;
图3(a)是时钟循环神经网络模型输出的时域波形示意图,(b) 是(a)的误差结果图;
图4(a)是时钟循环神经网络模型输出的频谱示意图,(b)是 (a)的误差结果图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围
本实施例以D类功率放大器为例,结合附图,详细说明本发明的实施方式。
D类功率放大器工作在开关状态,功率转换效率较高,是一种典型的非线性系统。如图1所示为D类功率放大器电路的黑盒模型。其中,输入的2PSK调相信号xin幅度为8.5V,频率为2kHz,码元宽度 0.25ms。经过D类功率放大器后输出信号为yout,并带有失真。利用PSpice仿真软件对功率放大器电路进行仿真后,采集1751个输入信号和输出信号作为实验数据进行行为建模,采样频率为100kHz。
如图2所示为时钟循环神经网络模型结构图。
本发明是一种基于时钟循环神经网络的功率放大器的行为建模方法,包括如下步骤:
步骤1)采集功率放大器的输入信号数据向量 xin=[xin(1),xin(2),…xin(N)]和输出信号数据向量 yout=[yout(1),yout(2),…yout(N)],其中,N为数据长度。
步骤2)初始化时钟循环神经网络。时钟循环神经网络的模型结构有四层:输入层、第一隐含层、第二隐含层和输出层。其过程如下:
步骤21)设置时钟循环神经网络输入层有P=1000个神经元,接受输入信号数据向量并将其传递到第一隐含层;第一隐含层有L1个神经元,每个神经元有传递函数fR=Rh(T)(h=1,2,…L1),第一隐含层向量
Figure BDA0001499194480000081
第二隐含层有L2个神经元,每个神经元有传递函数fS=Sj(T)(j=1,2,…L2),第二隐含层向量
Figure BDA0001499194480000082
输出层有M=1000个神经元,该层神经元的输出ym(m=1,2,…,M)是第二隐含层神经元输出的线性组合。
步骤22)在时钟循环神经网络模型中,有五种权系数矩阵:从第二隐含层到输出层的L2×M维权系数矩阵Wy;第二隐含层的L2×1 维自循环权系数矩阵W22;从第一隐含层到第二隐含层的L1×L2维权系数矩阵W21;第一隐含层的L1×1维自循环权系数矩阵W11;从输入层到隐含层的P×L1维权系数矩阵Wx。其中Wy,W21,Wx的初始权值均采用Glorot均匀分布;W22,W11的初始权值均采用He均匀分布。
步骤23)设置时钟循环神经网络第一隐含层的周期T1= {1,2,4,8,16};第二隐含层的周期T2={1,2,4,8,16};训练最大迭代次数Nmax=80;学习速率η=0.002。误差函数阈值为ε=0.5。
步骤3)利用时钟循环神经网络对行为模型进行建模,其过程如下:
步骤31)根据时钟循环神经网络结构,计算时钟循环神经网络各层的输出:
y(t)=Wy(t)S(t)
S(t)=fs[W21(t)R(t)+W22(t)S(t-1)]
R(t)=fR[Wx(t)xin(t)+W11(t)R(t-1)]
其中xin(t)表示第t次迭代时的输入;Wy(t)表示第t次迭代时从第二隐含层到输出层的权系数矩阵;S(t)表示第t次迭代时第二隐含层的输出;R(t)表示第t次迭代时第一隐含层的输出;W22(t)表示第t次迭代时第二隐含层的自循环权系数矩阵;W21(t)表示第t次迭代时从第一隐含层到第二隐含层的权系数矩阵;W11(t)表示第t次迭代时第一隐含层的自循环权系数矩阵;Wx(t)表示第t次迭代时从输入层到隐含层的权系数矩阵;t为迭代次数,
Figure BDA0001499194480000091
S(0)=1, R(0)=1;
步骤32)计算目标误差函数,其定义为:
Figure BDA0001499194480000092
其中y(t)为第t次迭代的时钟循环神经网络模型的输出,yout为系统的实际输出,上标T表示矩阵的转置运算。
步骤33)用RMSprop算法训练网络,得到模型的权值矩阵的变化量:
Figure BDA0001499194480000101
Figure BDA0001499194480000102
Figure BDA0001499194480000103
Figure BDA0001499194480000104
Figure BDA0001499194480000105
其中
Figure BDA0001499194480000106
E[g2]t=0.9×E[g2]t-1+0.1×(gt)2, gt表示第t次迭代时的梯度,E[g2]0=0;μ=10-8
Figure BDA0001499194480000107
表示第 t次迭代时输入层第q个神经元到第一隐含层第h个神经元的权值矩阵的变化量;
Figure BDA0001499194480000108
表示第t次迭代时第一隐含层第h个神经元的自循环权值矩阵的变化量;
Figure BDA0001499194480000109
表示第t次迭代时第一隐含层第 h个神经元到第二隐含层第j个神经元的权值矩阵的变化量;
Figure BDA00014991944800001010
表示第t次迭代时第二隐含层第j个神经元的自循环权值矩阵的变化量;
Figure BDA00014991944800001011
表示第t次迭代时第二隐含层第j个神经元到输出层第m 个神经元的权值矩阵的变化量。
步骤34)迭代次数加1,即t=t+1,并对下一步进行判定:
当目标误差函数大于误差阈值或者迭代次数小于最大迭代次数 Nmax时,继续步骤35);
当目标误差函数不大于误差阈值或者迭代次数等于最大迭代次数Nmax时,停止迭代,执行步骤4);
步骤35)在时钟循环神经网络中,第一隐含层的自循环权系数矩阵W11、从输入层到隐含层的权系数矩阵Wx平均分为g1=5个模块,每个模块拥有周期T1={1,2,4,8,16};第二隐含层的自循环权系数矩阵 W22、从第一隐含层到第二隐含层的权系数矩阵W21平均分为g2=5个模块,每个模块拥有周期T2={1,2,4,8,16}。同一权系数矩阵中的每个模块内部的神经元是全连接的,模块之间由周期大的模块神经元连接到周期小的模块神经元。只有当时钟循环神经网络的迭代次数t是第一隐含层中各模块的周期Ti的整数倍时,W11、Wx中本模块的隐层权值才得以更新;只有当时钟循环神经网络的迭代次数t是第二隐含层中各模块的周期Tk的整数倍时,W22、W21中本模块的隐层权值才得以更新。
步骤36):返回步骤31)。
步骤4):通过步骤3)得到的权系数,计算时钟循环神经网络模型最终的输出y。
在隐含层神经元L1=L2=50,迭代次数为80的情况下,时钟循环神经网络模型的平均误差为0.0147V,最大瞬时误差为0.1308V;平均频域误差为0.6885dB。可以看到始终循环神经网络模型很好地描述了功率放大器的记忆效应与非线性特性,具有较高的精度。
综上所述,以上实施例仅用以说明本发明的技术方案,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,其均应涵盖在本发明的权利要求范围当中。

Claims (5)

1.一种基于时钟循环神经网络的功率放大器的行为建模方法,其特征是,包括如下步骤:
步骤1)采集功率放大器的输入信号数据向量xin=[xin(1),xin(2),…xin(N)]和输出信号数据向量yout=[yout(1),yout(2),…yout(N)],其中,N为数据长度;
步骤2)初始化时钟循环神经网络,其中时钟循环神经网络的模型结构有四层:输入层、第一隐含层、第二隐含层和输出层;
步骤3):利用时钟循环神经网络对行为模型进行建模,包括如下步骤:
步骤31)根据时钟循环神经网络结构,计算时钟循环神经网络各层的输出;
步骤32)计算目标误差函数,其定义为:
Figure FDA0002958493680000011
其中y(t)为第t次迭代的时钟循环神经网络模型的输出,上标T为矩阵的转置运算;
步骤33)用RMSprop算法训练网络,得到模型的权值矩阵的变化量;
步骤34)迭代次数加1,即t=t+1,并对下一步进行判定:
当目标误差函数大于误差阈值或者迭代次数小于最大迭代次数Nmax时,继续步骤35);
当目标误差函数不大于误差阈值或者迭代次数等于最大迭代次数Nmax时,停止迭代,执行步骤4);
步骤35)根据权值矩阵的变化量更新权值系数;
步骤36)返回步骤31);
步骤4)通过步骤3)得到的权系数,计算时钟循环神经网络模型最终的输出y;
所述步骤2)具体过程如下:
步骤21)设置时钟循环神经网络输入层有P个神经元,接受输入信号数据向量并将其传递到第一隐含层;
所述第一隐含层有L1个神经元,每个神经元有传递函数fR=Rh(T),h=1,2,...L1,第一隐含层向量
Figure FDA0002958493680000012
所述第二隐含层有L2个神经元,每个神经元有传递函数fS=Sj(T),j=1,2,...L2,第二隐含层向量
Figure FDA0002958493680000013
所述输出层有M个神经元,该层神经元的输出ym,m=1,2,…,M,是第二隐含层神经元输出的线性组合;
步骤22)在时钟循环神经网络模型中,设置五种权系数矩阵:
从第二隐含层到输出层的L2×M维权系数矩阵Wy
第二隐含层的L2×1维自循环权系数矩阵W22
从第一隐含层到第二隐含层的L1×L2维权系数矩阵W21
第一隐含层的L1×1维自循环权系数矩阵W11
从输入层到隐含层的P×L1维权系数矩阵Wx
其中Wy,W21,Wx的初始权值均采用Glorot均匀分布;W22,W11的初始权值均采用He均匀分布;
步骤23)设置时钟循环神经网络中的各个参数值。
2.根据权利要求1所述的一种基于时钟循环神经网络的功率放大器的行为建模方法,其特征是,所述步骤23)中参数值包括:
第一隐含层的自循环权系数矩阵W11、从输入层到隐含层的权系数矩阵Wx平均分为g1个模块,每个模块拥有周期
Figure FDA0002958493680000021
第二隐含层的自循环权系数矩阵W22、从第一隐含层到第二隐含层的权系数矩阵W21平均分为g2个模块,每个模块拥有周期
Figure FDA0002958493680000022
训练最大迭代次为Nmax
学习速率为η;
误差函数阈值为ε。
3.根据权利要求1所述的一种基于时钟循环神经网络的功率放大器的行为建模方法,其特征是,所述步骤31)中各层输出为:y(t)=Wy(t)S(t);
S(t)=fs[W21(t)R(t)+W22(t)S(t-1)];
R(t)=fR[Wx(t)xin(t)+W11(t)R(t-1)];
其中,xin(t)表示第t次迭代时的输入;
Wy(t)表示第t次迭代时从第二隐含层到输出层的权系数矩阵;
S(t)表示第t次迭代时第二隐含层的输出;
R(t)表示第t次迭代时第一隐含层的输出;
W22(t)表示第t次迭代时第二隐含层的自循环权系数矩阵;
W21(t)表示第t次迭代时从第一隐含层到第二隐含层的权系数矩阵;
W11(t)表示第t次迭代时第一隐含层的自循环权系数矩阵;
Wx(t)表示第t次迭代时从输入层到隐含层的权系数矩阵;
Figure FDA0002958493680000031
S(0)=1,R(0)=1。
4.根据权利要求3所述的一种基于时钟循环神经网络的功率放大器的行为建模方法,其特征是,所述步骤33)中模型的权值矩阵的变化量为:
Figure FDA0002958493680000032
Figure FDA0002958493680000033
Figure FDA0002958493680000034
Figure FDA0002958493680000035
Figure FDA0002958493680000036
其中,
Figure FDA0002958493680000037
E[g2]t=0.9×E[g2]t-1+0.1×(gt)2,gt表示第t次迭代时的梯度,E[g2]0=0;μ=10-8
Figure FDA0002958493680000038
表示第t次迭代时输入层第q个神经元到第一隐含层第h个神经元的权值矩阵的变化量;
Figure FDA0002958493680000039
表示第t次迭代时第一隐含层第h个神经元的自循环权值矩阵的变化量;
Figure FDA00029584936800000310
表示第t次迭代时第一隐含层第h个神经元到第二隐含层第j个神经元的权值矩阵的变化量;
Figure FDA00029584936800000311
表示第t次迭代时第二隐含层第j个神经元的自循环权值矩阵的变化量;
Figure FDA00029584936800000312
表示第t次迭代时第二隐含层第j个神经元到输出层第m个神经元的权值矩阵的变化量。
5.根据权利要求4所述的一种基于时钟循环神经网络的功率放大器的行为建模方法,其特征是,所述步骤35)中权值矩阵更新方式为:
同一权系数矩阵中的每个模块内部的神经元是全连接的,模块之间由周期大的模块神经元连接到周期小的模块神经元;
只有当时钟循环神经网络的迭代次数t是第一隐含层中各模块的周期Ti的整数倍时,W11、Wx中本模块的隐层权值才得以更新;
只有当时钟循环神经网络的迭代次数t是第二隐含层中各模块的周期Tk的整数倍时,W22、W21中本模块的隐层权值才得以更新。
CN201711289895.5A 2017-12-08 2017-12-08 基于时钟循环神经网络的功率放大器的行为建模方法 Active CN108153943B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711289895.5A CN108153943B (zh) 2017-12-08 2017-12-08 基于时钟循环神经网络的功率放大器的行为建模方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711289895.5A CN108153943B (zh) 2017-12-08 2017-12-08 基于时钟循环神经网络的功率放大器的行为建模方法

Publications (2)

Publication Number Publication Date
CN108153943A CN108153943A (zh) 2018-06-12
CN108153943B true CN108153943B (zh) 2021-07-23

Family

ID=62466298

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711289895.5A Active CN108153943B (zh) 2017-12-08 2017-12-08 基于时钟循环神经网络的功率放大器的行为建模方法

Country Status (1)

Country Link
CN (1) CN108153943B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111274752B (zh) * 2018-12-05 2022-05-03 北京大学 一种基于两级开环和二元函数的功率放大器行为建模方法
CN110188382B (zh) * 2019-04-22 2023-07-28 南京航空航天大学 基于fft与bp神经网络模型的功率放大器频域行为建模方法
CN110472280B (zh) * 2019-07-10 2024-01-12 广东工业大学 一种基于生成对抗神经网络的功率放大器行为建模方法
CN110598261B (zh) * 2019-08-16 2021-03-30 南京航空航天大学 一种基于复数反向神经网络的功率放大器频域建模方法
CN110610030B (zh) * 2019-08-19 2021-06-22 南京航空航天大学 一种基于WaveNet神经网络结构的功率放大器行为建模方法
CN111092602B (zh) * 2019-12-27 2023-10-20 京信网络系统股份有限公司 功率放大器的建模方法、装置、计算机设备和存储介质
CN112784331B (zh) * 2020-09-25 2022-09-13 汕头大学 基于改进lstm深度学习方法的土体应力应变关系确定方法
CN112214915B (zh) * 2020-09-25 2024-03-12 汕头大学 一种确定材料非线性应力应变关系的方法
CN116491938B (zh) * 2023-06-27 2023-10-03 亿慧云智能科技(深圳)股份有限公司 一种ecg无创血糖测量方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102983819A (zh) * 2012-11-08 2013-03-20 南京航空航天大学 一种功率放大器的模拟方法及功率放大器模拟装置
CN105224985A (zh) * 2015-09-28 2016-01-06 南京航空航天大学 一种基于深度重构模型的功率放大器行为建模方法
CN105512680A (zh) * 2015-12-02 2016-04-20 北京航空航天大学 一种基于深度神经网络的多视sar图像目标识别方法
CN106126804A (zh) * 2016-06-21 2016-11-16 上海无线电设备研究所 一种功放底层电路的行为级建模与验证方法
CN106782518A (zh) * 2016-11-25 2017-05-31 深圳市唯特视科技有限公司 一种基于分层循环神经网络语言模型的语音识别方法
CN107122479A (zh) * 2017-05-03 2017-09-01 西安交通大学 一种基于深度学习的用户密码猜测系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8976893B2 (en) * 2012-06-25 2015-03-10 Telefonaktiebolaget L M Ericsson (Publ) Predistortion according to an artificial neural network (ANN)-based model
US9495633B2 (en) * 2015-04-16 2016-11-15 Cylance, Inc. Recurrent neural networks for malware analysis

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102983819A (zh) * 2012-11-08 2013-03-20 南京航空航天大学 一种功率放大器的模拟方法及功率放大器模拟装置
CN105224985A (zh) * 2015-09-28 2016-01-06 南京航空航天大学 一种基于深度重构模型的功率放大器行为建模方法
CN105512680A (zh) * 2015-12-02 2016-04-20 北京航空航天大学 一种基于深度神经网络的多视sar图像目标识别方法
CN106126804A (zh) * 2016-06-21 2016-11-16 上海无线电设备研究所 一种功放底层电路的行为级建模与验证方法
CN106782518A (zh) * 2016-11-25 2017-05-31 深圳市唯特视科技有限公司 一种基于分层循环神经网络语言模型的语音识别方法
CN107122479A (zh) * 2017-05-03 2017-09-01 西安交通大学 一种基于深度学习的用户密码猜测系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
IMPROVING PERFORMANCE OF RECURRENT NEURAL NETWORK WITH RELU NONLINEARITY;Sachin S.Talathi & Aniket Vartak;《arXiv》;20160623;1-8页 *
Numerical Analysis of Modeling Based on Improved Elman Neural Network;Shao Jie et al.;《The Scientific World Journal》;20140618;第2014卷;1-10页 *
基于机器人视觉的手势识别关键技术的研究;王铭航;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170215(第02期);I138-4132 *
递归神经网络对功率放大器的行为级建模;张川;《中国优秀硕士学位论文全文数据库 信息科技辑》;20150615;I140-39 *

Also Published As

Publication number Publication date
CN108153943A (zh) 2018-06-12

Similar Documents

Publication Publication Date Title
CN108153943B (zh) 基于时钟循环神经网络的功率放大器的行为建模方法
CN105224986A (zh) 基于忆阻器件的深度神经网络系统
CN108256257B (zh) 一种基于编码-解码神经网络模型的功率放大器行为建模方法
Park Structure optimization of BiLinear Recurrent Neural Networks and its application to Ethernet network traffic prediction
JP7451720B2 (ja) プリディストーション方法、システム、装置及び記憶媒体
Ye et al. Online sequential extreme learning machine in nonstationary environments
CN108009640A (zh) 基于忆阻器的神经网络的训练装置及其训练方法
CN105224985B (zh) 一种基于深度重构模型的功率放大器行为建模方法
CN110414565B (zh) 一种用于功率放大器的基于Group Lasso的神经网络裁剪方法
Phartiyal et al. LSTM-deep neural networks based predistortion linearizer for high power amplifiers
CN111859795A (zh) 针对功率放大器的多项式辅助神经网络行为建模系统及方法
CN108009635A (zh) 一种支持增量更新的深度卷积计算模型
CN113676426A (zh) 面向动态传输的智能数字预失真系统及方法
Zhang et al. Pipelined set-membership approach to adaptive Volterra filtering
CN110610030B (zh) 一种基于WaveNet神经网络结构的功率放大器行为建模方法
CN110362881A (zh) 基于极限学习机的微波功率器件非线性模型方法
Wang et al. Memristor-based in-circuit computation for trace-based STDP
CN110188382B (zh) 基于fft与bp神经网络模型的功率放大器频域行为建模方法
CN113033795B (zh) 基于时间步的二值脉冲图的脉冲卷积神经网络硬件加速器
Mišić et al. Volterra kernels extraction from neural networks for amplifier behavioral modeling
CN110598261B (zh) 一种基于复数反向神经网络的功率放大器频域建模方法
CN114004353A (zh) 减少光器件数量的光神经网络芯片构建方法及系统
Renteria-Cedano et al. Implementation of a NARX neural network in a FPGA for modeling the inverse characteristics of power amplifiers
Zhang et al. A Novel Power Amplifier Model Based on Simplified Neural Network
Bureneva Element Base of Pulse Neural Network Units

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant