CN108256257A - 一种基于编码-解码神经网络模型的功率放大器行为建模方法 - Google Patents
一种基于编码-解码神经网络模型的功率放大器行为建模方法 Download PDFInfo
- Publication number
- CN108256257A CN108256257A CN201810095930.8A CN201810095930A CN108256257A CN 108256257 A CN108256257 A CN 108256257A CN 201810095930 A CN201810095930 A CN 201810095930A CN 108256257 A CN108256257 A CN 108256257A
- Authority
- CN
- China
- Prior art keywords
- layer
- output
- decoding
- coding
- during
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/30—Circuit design
- G06F30/36—Circuit design at the analogue level
- G06F30/367—Design verification, e.g. using simulation, simulation program with integrated circuit emphasis [SPICE], direct methods or relaxation methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/10—Numerical modelling
Landscapes
- Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Geometry (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明公开了一种基于编码‑解码神经网络模型的功率放大器行为建模方法,该方法利用的编码‑解码神经网络模型对于序列具有良好的描述能力且模型收敛速度快,同时在模型内部使用长短时记忆单元,利用长短时记忆单元的输出不仅与即时输入有关、也与历史输入有关的特点,用来描述功率放大器的记忆效应;该方法能够很好地描述功率放大器的非线性特性和记忆效应,具有较快的模型收敛速度和较高的精度。
Description
技术领域
本发明涉及非线性系统建模与分析应用技术领域,尤其是一种基于编码-解码神经网络模型的功率放大器行为建模方法。
背景技术
功率放大器是发射机的重要模块,是一个复杂的非线性系统,功率放大器经常会产生严重的非线性失真,并且随着系统带宽的增加,功率放大器也会产生记忆效应。
发射机的内部结构大多比较复杂,对发射机的行为建模可以在不知道发射机内部组成的情况下,只依据系统的输入、输出测试数据就可以模拟出它的非线性和记忆效应。行为模型可以用来分析不同发射机所对应的模型参数差异,通过修改模型参数获取不同的发射机发射信号。在系统级仿真中,这种方法被广泛使用,并且经大量实验证明,这种方法能够精确地对功放进行建模。
一般来说,功率放大器行为建模可以分为无记忆模型和记忆模型两种。无记忆功放模型的种类很多,例如Saleh模型、无记忆多项式模型等。无记忆功放模型相对简单,对于窄带系统建模有很好的效果。然而随着系统带宽的增加,功率放大器的记忆效应明显,无记忆模型无法很好地描述记忆效应,所以现在大多采用有记忆功放模型。有记忆模型一般采用Volterra级数模型和神经网络模型等。Volterra级数是对泰勒级数的扩展,该模型适用于弱非线性系统,而且系统的参数会随着阶次和记忆深度的增加而迅速增加,故计算量和收敛性受到了影响。而神经网络能够逼近任意非线性的函数,并且具有灵活有效的自组织学习能力,因而被广泛用于功率放大器系统的行为建模。普通的神经网络模型收敛速度较慢,建模的精度也一般。随着循环神经网络的提出,由于其将时序的概念引入到神经元结构设计中,使其在时序数据分析中表现出更强的适应性。循环神经网络的输出不仅与当前时刻的输入有关,也与前一个时刻的输入有关,模型带有很强的记忆效应。但是,传统的循环神经网络虽然可以利用上下文信息对当前时刻的输入进行建模得到相应的输出,然而在实际实验中发现,普通循环神经网络难以学到长时间跨度的依赖关系,也就是说,能够利用的上下文信息是有限的,因此普通循环神经网络在描述功放的长期记忆效应上表现一般。
发明内容
本发明所要解决的技术问题在于,提供一种基于编码-解码神经网络模型的功率放大器行为建模方法,收敛速度较快,在相同的迭代次数下具有更高的精度。
为解决上述技术问题,本发明提供一种基于编码-解码神经网络模型的功率放大器行为建模方法,包括如下步骤:
(1)采集功率放大器的输入信号数据向量xin=[xin(1),xin(2),…,xin(N)]和输出信号数据向量yout=[yout(1),yout(2),…,yout(N)],其中,N为数据长度;
(2)将输入和输出数据进行归一化;得到归一化输入信号数据向量 和归一化输出信号数据向量
(3)初始化编码-解码神经网络模型;编码-解码神经网络模型的模型结构有四层:输入层、编码层、解码层和输出层;
(4)利用编码-解码神经网络模型对行为模型进行建模;
(5)通过步骤D得到的权系数,计算编码-解码神经网络模型最终的输出ym。
优选的,步骤(2)中,输入和输出数据进行归一化具体为:
其中max(·)表示求向量中最大值的运算。
优选的,步骤(3)中,初始化编码-解码神经网络模型具体包括如下步骤:
(31)设置编码-解码神经网络模型输入层有P个神经元,接收归一化输入信号数据向量并将其传递到编码层;编码层有L1个长短时记忆单元,每个编码层的长短时记忆单元有遗忘门传递函数fef(u)、输入门传递函数fei(u)、单元状态传递函数fec(u)、输出门传递函数feo(u);解码层有L2个长短时记忆单元,每个解码层的长短时记忆单元有遗忘门传递函数fdf(u)、输入门传递函数fdi(u)、单元状态传递函数fdc(u)、输出门传递函数fdo(u);其中u为函数的输入变量;输出层有M个神经元,该层神经元的输出ym(m=1,2…M)是解码层神经元输出的线性组合;
(32)在编码-解码神经网络模型中,有18种权系数矩阵:从输入层到编码层的N×1维权系数矩阵Wx;编码层前一时刻的输出到遗忘门的L1×L1维权系数矩阵Wefh;编码层的输入到遗忘门的L1×N维权系数矩阵Wefx;编码层前一时刻的输出到输入门的L1×L1维权系数矩阵Weih;编码层的输入到输入门的L1×N维权系数矩阵Weix;编码层前一时刻的输出到长短时记忆单元的L1×L1维权系数矩阵Wech;编码层的输入到长短时记忆单元的L1×N维权系数矩阵Wecx;编码层前一时刻的输出到输出门的L1×L1维权系数矩阵Weoh;编码层的输入到输出门的L1×N维权系数矩阵Wefx;解码层前一时刻的输出到遗忘门的L2×L2维权系数矩阵Wdfh;解码层语义向量到遗忘门的L2×L1维权系数矩阵Wdfx;解码层前一时刻的输出到输入门的L2×L2维权系数矩阵Wdih;解码层语义向量到输入门的L2×L1维权系数矩阵Wdix;解码层前一时刻的输出到长短时记忆单元的L2×L2维权系数矩阵Wdch;解码层语义向量到长短时记忆单元的L2×L1维权系数矩阵Wdcx;解码层前一时刻的输出到输出门的L2×L2维权系数矩阵Wdoh;解码层语义向量到输出门的L2×L1维权系数矩阵Wdox;从解码层到输出层的L2×M维权系数矩阵Wy。所有权系数矩阵均采用Lecun均匀分布进行初始化;
(33)设置编码-解码神经网络模型训练最大迭代次为Nmax;学习速率为η;误差函数阈值为ε。
优选的,步骤(4)中,利用编码-解码神经网络模型对行为模型进行建模具体包括如下步骤:
(41)根据编码-解码神经网络模型结构,计算编码-解码神经网络模型各层的输出:
ym(t)=Wy(t)D(t)
D(t)=Do(t)fdh[cd(t)]
Do(t)=fdo[Wdoh(t)D(t-1)+Wdox(t)c(t)]
cd(t)=cd(t-1)Df(t)+Di(t)Dc(t)
Dc(t)=fdc[Wdch(t)D(t-1)+Wdcx(t)c(t)]
Di(t)=fdi[Wdih(t)D(t-1)+Wdix(t)c(t)]
Df(t)=fdf[Wdfh(t)D(t-1)+Wdfx(t)c(t)]
c(t)=E(t)
E(t)=Eo(t)feh[ce(t)]
Eo(t)=feo[Weoh(t)E(t-1)+Weox(t)xde(t)]
ce(t)=ce(t-1)Ef(t)+Ei(t)Ec(t)
Ec(t)=fec[Wech(t)E(t-1)+Wecx(t)xde(t)]
Ei(t)=fei[Weih(t)E(t-1)+Weix(t)xde(t)]
Ef(t)=fef[Wefh(t)E(t-1)+Wefx(t)xde(t)]
其中,表示第t次迭代时的归一化输入;xde(t)表示第t次迭代时输入层的输出;Ef(t)表示第t次迭代时编码层遗忘门的输出;Ei(t)表示第t次迭代时编码层输入门的输出;Ec(t)表示第t次迭代时编码层的输入单元状态;ce(t)表示第t次迭代时编码层的单元状态;Eo(t)表示第t次迭代时编码层输出门的输出;E(t)表示第t次迭代时编码层的输出;c(t)表示第t次迭代时的语义向量;Df(t)表示第t次迭代时解码层遗忘门的输出;Di(t)表示第t次迭代时解码层输入门的输出;Dc(t)表示第t次迭代时解码层的输入单元状态;cd(t)表示第t次迭代时解码层的单元状态;Do(t)表示第t次迭代时解码层输出门的输出;D(t)表示第t次迭代时解码层的输出;ym(t)表示第t次迭代时编码-解码神经网络模型的最终输出;Wx(t)表示第t次迭代时从输入层到编码层的权系数矩阵,Wefh(t)表示第t次迭代时编码层前一时刻的输出到遗忘门的权系数矩阵;Wefx(t)表示第t次迭代时编码层的输入到遗忘门的权系数矩阵;Weih(t)表示第t次迭代时编码层前一时刻的输出到输入门的权系数矩阵;Weix(t)表示第t次迭代时编码层的输入到输入门的权系数矩阵;Wech(t)表示第t次迭代时编码层前一时刻的输出到长短时记忆单元的权系数矩阵;Wecx(t)表示第t次迭代时编码层的输入到长短时记忆单元的权系数矩阵;Weoh(t)表示第t次迭代时编码层前一时刻的输出到输出门的权系数矩阵;Weox(t)表示第t次迭代时编码层的输入到输出门的权系数矩阵;Wdfh(t)表示第t次迭代时解码层前一时刻的输出到遗忘门的权系数矩阵;Wdfx(t)表示第t次迭代时解码层语义向量到遗忘门的权系数矩阵;Wdih(t)表示第t次迭代时解码层前一时刻的输出到输入门的权系数矩阵;Wdix(t)表示第t次迭代时解码层语义向量到输入门的权系数矩阵;Wdch(t)表示第t次迭代时解码层前一时刻的输出到长短时记忆单元的权系数矩阵;Wdcx(t)表示第t次迭代时解码层语义向量到长短时记忆单元的权系数矩阵;Wdoh(t)表示第t次迭代时解码层前一时刻的输出到输出门的权系数矩阵;Wdox(t)表示第t次迭代时解码层语义向量到遗忘输出门的权系数矩阵;Wy(t)表示第t次迭代时从解码层到输出层的权系数矩阵;传递函数 初始值E(0)=1,D(0)=1;
(42)计算目标误差函数,其定义为:
其中ym(t)为第t次迭代时编码-解码神经网络模型的最终输出,为归一化的系统的实际输出,上标T为矩阵的转置运算;
(43)用自适应矩估计算法训练编码-解码神经网络模型,得到模型的权值矩阵的变化量:
其中,at=β1at-1+(1-β1)gt,bt=β2bt-1+(1-β2)(gt)2,β1=0.9,β2=0.999,μ=10-8,a0=1,b0=1,gt表示第t次迭代时的梯度;
δdec=[δdf(t)]TWdfx(t)+[δdi(t)]TWdix(t)+[δdc(t)]TWdcx(t)+[δdo(t)]TWdox(t)
初始值ce(0)=1,cd(0)=1,ΔWy(t)表示第t次迭代时解码层到输出层的权值矩阵的变化量,ΔWx(t)表示第t次迭代时从输入层到编码层的权值矩阵的变化量,ΔWdfh(t)表示第t次迭代时解码层前一时刻的输出到遗忘门的权值矩阵的变化量,ΔWdfx(t)表示第t次迭代时解码层语义向量到遗忘门的权值矩阵的变化量,ΔWdih(t)表示第t次迭代时解码层前一时刻的输出到输入门的权值矩阵的变化量,ΔWdix(t)表示第t次迭代时解码层语义向量到输入门的权值矩阵的变化量,ΔWdch(t)表示第t次迭代时解码层前一时刻的输出到长短时记忆单元的权值矩阵的变化量,ΔWdcx(t)表示第t次迭代时解码层语义向量到长短时记忆单元门的权值矩阵的变化量,ΔWdoh(t)表示第t次迭代时解码层前一时刻的输出到输出门的权值矩阵的变化量,ΔWdox(t)表示第t次迭代时解码层语义向量到输出门的权值矩阵的变化量,ΔWefh(t)表示第t次迭代时编码层前一时刻的输出到遗忘门的权值矩阵的变化量,ΔWefx(t)表示第t次迭代时编码层输入到遗忘门的权值矩阵的变化量,ΔWeih(t)表示第t次迭代时编码层前一时刻的输出到输入门的权值矩阵的变化量,ΔWeix(t)表示第t次迭代时编码层输入到遗忘门的权值矩阵的变化量,ΔWech(t)表示第t次迭代时编码层前一时刻的输出到长短时记忆单元的权值矩阵的变化量,ΔWecx(t)表示第t次迭代时编码层输入到长短时记忆单元的权值矩阵的变化量,ΔWeoh(t)表示第t次迭代时编码层前一时刻的输出到输出门的权值矩阵的变化量,ΔWeox(t)表示第t次迭代时编码层输入到输出门的权值矩阵的变化量;
(44)迭代次数加1,即t=t+1;当目标误差函数大于误差阈值或者迭代次数小于最大迭代次数Nmax时,继续步骤D-5;当目标误差函数小于误差阈值或者迭代次数大于最大迭代次数Nmax时,停止迭代,执行步骤(5);
(45)根据ΔWy(t),ΔWdfh(t),ΔWdfx(t),ΔWdih(t),ΔWdix(t),ΔWdch(t),ΔWdcx(t),ΔWdoh(t),ΔWdox(t),ΔWefh(t),ΔWefx(t),ΔWeih(t),ΔWeix(t),ΔWech(t),ΔWecx(t),ΔWeoh(t),ΔWeox(t),ΔWx(t)更新权值系数;
(46)返回步骤(41)。
本发明的有益效果为:本发明利用长短时记忆单元的输出除了与即时输入有关,也与历史输入有关的特点,用来描述功率放大器的记忆效应,同时在单元内部加入遗忘门、输入门、输出门等结构,加强了长短时记忆单元对长期记忆效应的描述能力;在此基础上又使用编码层将输入向量编码为语义向量,该语义向量包含大部分输入向量的特征,使用解码层解码语义向量得到输出,这种网络结构可以利用输入向量的大部分信息,在加快了模型收敛速度的同时又保证了模型的精度,非常有利于功放的行为建模;模型收敛速度较快,在相同的误差阈值下,编码-解码神经网络模型需要的迭代次数远小于普通的神经网络模型;在相同的迭代次数下,编码-解码神经网络模型比普通的神经网络模型具有更高的精度。
附图说明
图1为本发明的D类功率放大器黑盒模型示意图。
图2为本发明的编码-解码神经网络模型结构示意图。
图3为本发明的第t次迭代时单个编码层长短时记忆单元结构示意图。
图4为本发明的第t次迭代时单个解码层长短时记忆单元结构示意图。
图5为本发明的编码-解码神经网络模型输出的时域波形及误差结果示意图。
图6为本发明的编码-解码神经网络模型输出的频谱及误差结果示意图。
具体实施方式
以下以D类功率放大器为例,结合附图,详细说明本发明的实施方式。
D类功率放大器工作在开关状态,功率转换效率较高,是一种典型的非线性系统。如图1所示为D类功率放大器电路的黑盒模型。其中,输入的线性调频信号xin幅度为8.5V,线性调频起始频率为2800Hz,调频带宽为400Hz。经过D类功率放大器后输出信号为yout,并带有失真。利用PSpice仿真软件对功率放大器电路进行仿真后,采集2000个输入信号和输出信号作为实验数据进行行为建模,采样频率为100kHz。
本发明是一种基于编码-解码神经网络模型的功率放大器的行为建模方法,包括如下步骤:
步骤A:采集功率放大器的输入信号数据向量xin=[xin(1),xin(2),…,xin(N)]和输出信号数据向量yout=[yout(1),yout(2),…,yout(N)],其中,N为数据长度。
步骤B:将输入和输出数据进行归一化;
其中max(·)表示求向量中最大值的运算。
得到归一化输入信号数据向量和归一化输出信号数据向量
步骤C:初始化编码-解码神经网络模型。编码-解码神经网络模型的模型结构有四层:输入层、编码层、解码层和输出层,如图2所示。其过程如下:
步骤C-1:设置编码-解码神经网络模型输入层有P=2000个神经元,接收归一化输入信号数据向量并将其传递到编码层;编码层有L1=30个长短时记忆单元,每个编码层的长短时记忆单元有遗忘门传递函数fef(u)、输入门传递函数fei(u)、单元状态传递函数fec(u)、输出门传递函数feo(u),如图3所示;解码层有L2=30个长短时记忆单元,每个解码层的长短时记忆单元有遗忘门传递函数fdf(u)、输入门传递函数fdi(u)、单元状态传递函数fdc(u)、输出门传递函数fdo(u),如图4所示;其中u为函数的输入变量。输出层有M=2000个神经元,该层神经元的输出ym(m=1,2…M)是解码层神经元输出的线性组合。
步骤C-2:在编码-解码神经网络模型中,有18种权系数矩阵:从输入层到编码层的N×1维权系数矩阵Wx;编码层前一时刻的输出到遗忘门的L1×L1维权系数矩阵Wefh;编码层的输入到遗忘门的L1×N维权系数矩阵Wefx;编码层前一时刻的输出到输入门的L1×L1维权系数矩阵Weih;编码层的输入到输入门的L1×N维权系数矩阵Weix;编码层前一时刻的输出到长短时记忆单元的L1×L1维权系数矩阵Wech;编码层的输入到长短时记忆单元的L1×N维权系数矩阵Wecx;编码层前一时刻的输出到输出门的L1×L1维权系数矩阵Weoh;编码层的输入到输出门的L1×N维权系数矩阵Wefx;解码层前一时刻的输出到遗忘门的L2×L2维权系数矩阵Wdfh;解码层语义向量到遗忘门的L2×L1维权系数矩阵Wdfx;解码层前一时刻的输出到输入门的L2×L2维权系数矩阵Wdih;解码层语义向量到输入门的L2×L1维权系数矩阵Wdix;解码层前一时刻的输出到长短时记忆单元的L2×L2维权系数矩阵Wdch;解码层语义向量到长短时记忆单元的L2×L1维权系数矩阵Wdcx;解码层前一时刻的输出到输出门的L2×L2维权系数矩阵Wdoh;解码层语义向量到输出门的L2×L1维权系数矩阵Wdox;从解码层到输出层的L2×M维权系数矩阵Wy。所有权系数矩阵均采用Lecun均匀分布进行初始化。
步骤C-3:设置编码-解码神经网络模型训练最大迭代次为Nmax=30;学习速率为η=0.04;误差函数阈值为ε=0.01。
步骤D:利用编码-解码神经网络模型对行为模型进行建模,其过程如下:
步骤D-1:根据编码-解码神经网络模型结构,计算编码-解码神经网络模型各层的输出:
ym(t)=Wy(t)D(t)
D(t)=Do(t)fdh[cd(t)]
Do(t)=fdo[Wdoh(t)D(t-1)+Wdox(t)c(t)]
cd(t)=cd(t-1)Df(t)+Di(t)Dc(t)
Dc(t)=fdc[Wdch(t)D(t-1)+Wdcx(t)c(t)]
Di(t)=fdi[Wdih(t)D(t-1)+Wdix(t)c(t)]
Df(t)=fdf[Wdfh(t)D(t-1)+Wdfx(t)c(t)]
c(t)=E(t)
E(t)=Eo(t)feh[ce(t)]
Eo(t)=feo[Weoh(t)E(t-1)+Weox(t)xde(t)]
ce(t)=ce(t-1)Ef(t)+Ei(t)Ec(t)
Ec(t)=fec[Wech(t)E(t-1)+Wecx(t)xde(t)]
Ei(t)=fei[Weih(t)E(t-1)+Weix(t)xde(t)]
Ef(t)=fef[Wefh(t)E(t-1)+Wefx(t)xde(t)]
其中,表示第t次迭代时的归一化输入;xde(t)表示第t次迭代时输入层的输出;Ef(t)表示第t次迭代时编码层遗忘门的输出;Ei(t)表示第t次迭代时编码层输入门的输出;Ec(t)表示第t次迭代时编码层的输入单元状态;ce(t)表示第t次迭代时编码层的单元状态;Eo(t)表示第t次迭代时编码层输出门的输出;E(t)表示第t次迭代时编码层的输出;c(t)表示第t次迭代时的语义向量;Df(t)表示第t次迭代时解码层遗忘门的输出;Di(t)表示第t次迭代时解码层输入门的输出;Dc(t)表示第t次迭代时解码层的输入单元状态;cd(t)表示第t次迭代时解码层的单元状态;Do(t)表示第t次迭代时解码层输出门的输出;D(t)表示第t次迭代时解码层的输出;ym(t)表示第t次迭代时编码-解码神经网络模型的最终输出;Wx(t)表示第t次迭代时从输入层到编码层的权系数矩阵,Wefh(t)表示第t次迭代时编码层前一时刻的输出到遗忘门的权系数矩阵;Wefx(t)表示第t次迭代时编码层的输入到遗忘门的权系数矩阵;Weih(t)表示第t次迭代时编码层前一时刻的输出到输入门的权系数矩阵;Weix(t)表示第t次迭代时编码层的输入到输入门的权系数矩阵;Wech(t)表示第t次迭代时编码层前一时刻的输出到长短时记忆单元的权系数矩阵;Wecx(t)表示第t次迭代时编码层的输入到长短时记忆单元的权系数矩阵;Weoh(t)表示第t次迭代时编码层前一时刻的输出到输出门的权系数矩阵;Weox(t)表示第t次迭代时编码层的输入到输出门的权系数矩阵;Wdfh(t)表示第t次迭代时解码层前一时刻的输出到遗忘门的权系数矩阵;Wdfx(t)表示第t次迭代时解码层语义向量到遗忘门的权系数矩阵;Wdih(t)表示第t次迭代时解码层前一时刻的输出到输入门的权系数矩阵;Wdix(t)表示第t次迭代时解码层语义向量到输入门的权系数矩阵;Wdch(t)表示第t次迭代时解码层前一时刻的输出到长短时记忆单元的权系数矩阵;Wdcx(t)表示第t次迭代时解码层语义向量到长短时记忆单元的权系数矩阵;Wdoh(t)表示第t次迭代时解码层前一时刻的输出到输出门的权系数矩阵;Wdox(t)表示第t次迭代时解码层语义向量到遗忘输出门的权系数矩阵;Wy(t)表示第t次迭代时从解码层到输出层的权系数矩阵;
传递函数初始值E(0)=1,D(0)=1。
步骤D-2:计算目标误差函数,其定义为:
其中ym(t)为第t次迭代时编码-解码神经网络模型的最终输出,为归一化的系统的实际输出,上标T为矩阵的转置运算。
步骤D-3:用自适应矩估计算法训练编码-解码神经网络模型,得到模型的权值矩阵的变化量:
其中,at=β1at-1+(1-β1)gt,bt=β2bt-1+(1-β2)(gt)2,β1=0.9,β2=0.999,μ=10-8,a0=1,b0=1,gt表示第t次迭代时的梯度。
δdec=[δdf(t)]TWdfx(t)+[δdi(t)]TWdix(t)+[δdc(t)]TWdcx(t)+[δdo(t)]TWdox(t)
初始值ce(0)=1,cd(0)=1,ΔWy(t)表示第t次迭代时解码层到输出层的权值矩阵的变化量,ΔWx(t)表示第t次迭代时从输入层到编码层的权值矩阵的变化量,ΔWdfh(t)表示第t次迭代时解码层前一时刻的输出到遗忘门的权值矩阵的变化量,ΔWdfx(t)表示第t次迭代时解码层语义向量到遗忘门的权值矩阵的变化量,ΔWdih(t)表示第t次迭代时解码层前一时刻的输出到输入门的权值矩阵的变化量,ΔWdix(t)表示第t次迭代时解码层语义向量到输入门的权值矩阵的变化量,ΔWdch(t)表示第t次迭代时解码层前一时刻的输出到长短时记忆单元的权值矩阵的变化量,ΔWdcx(t)表示第t次迭代时解码层语义向量到长短时记忆单元门的权值矩阵的变化量,ΔWdoh(t)表示第t次迭代时解码层前一时刻的输出到输出门的权值矩阵的变化量,ΔWdox(t)表示第t次迭代时解码层语义向量到输出门的权值矩阵的变化量,ΔWefh(t)表示第t次迭代时编码层前一时刻的输出到遗忘门的权值矩阵的变化量,ΔWefx(t)表示第t次迭代时编码层输入到遗忘门的权值矩阵的变化量,ΔWeih(t)表示第t次迭代时编码层前一时刻的输出到输入门的权值矩阵的变化量,ΔWeix(t)表示第t次迭代时编码层输入到遗忘门的权值矩阵的变化量,ΔWech(t)表示第t次迭代时编码层前一时刻的输出到长短时记忆单元的权值矩阵的变化量,ΔWecx(t)表示第t次迭代时编码层输入到长短时记忆单元的权值矩阵的变化量,ΔWeoh(t)表示第t次迭代时编码层前一时刻的输出到输出门的权值矩阵的变化量,ΔWeox(t)表示第t次迭代时编码层输入到输出门的权值矩阵的变化量。
步骤D-4:迭代次数加1,即t=t+1。当目标误差函数大于误差阈值或者迭代次数小于最大迭代次数Nmax时,继续步骤D-5;当目标误差函数小于误差阈值或者迭代次数大于最大迭代次数Nmax时,停止迭代,执行步骤E。
步骤D-5:根据ΔWy(t),ΔWdfh(t),ΔWdfx(t),ΔWdih(t),ΔWdix(t),ΔWdch(t),ΔWdcx(t),ΔWdoh(t),ΔWdox(t),ΔWefh(t),ΔWefx(t),ΔWeih(t),ΔWeix(t),ΔWech(t),ΔWecx(t),ΔWeoh(t),ΔWeox(t),ΔWx(t)更新权值系数。
步骤D-6:返回步骤D-1。
步骤E:通过步骤D得到的权系数,计算编码-解码神经网络模型最终的输出ym。
在隐含层神经元L1=L2=25,迭代次数为20的情况下,得到仿真电路输出信号时域波形、编码-解码神经网络模型输出信号时域波形以及时域误差曲线如图5所示,编码-解码神经网络模型的时域平均误差为0.0128V,时域最大瞬时误差为-0.1154V。仿真电路输出信号输出频谱、编码-解码神经网络模型输出信号频谱以及频谱误差曲线如图6所示,频域平均误差为4.0869dB。可以看到编码-解码神经网络模型很好地描述了功率放大器的记忆效应与非线性特性,具有较高的精度。
Claims (4)
1.一种基于编码-解码神经网络模型的功率放大器行为建模方法,其特征在于,包括如下步骤:
(1)采集功率放大器的输入信号数据向量xin=[xin(1),xin(2),,xin(N)]和输出信号数据向量yout=[yout(1),yout(2),,yout(N)],其中,N为数据长度;
(2)将输入和输出数据进行归一化;得到归一化输入信号数据向量 和归一化输出信号数据向量
(3)初始化编码-解码神经网络模型;编码-解码神经网络模型的模型结构有四层:输入层、编码层、解码层和输出层;
(4)利用编码-解码神经网络模型对行为模型进行建模;
(5)通过步骤D得到的权系数,计算编码-解码神经网络模型最终的输出ym。
2.如权利要求1所述的基于编码-解码神经网络模型的功率放大器行为建模方法,其特征在于,步骤(2)中,输入和输出数据进行归一化具体为:
其中max(·)表示求向量中最大值的运算。
3.如权利要求1所述的基于编码-解码神经网络模型的功率放大器行为建模方法,其特征在于,步骤(3)中,初始化编码-解码神经网络模型具体包括如下步骤:
(31)设置编码-解码神经网络模型输入层有P个神经元,接收归一化输入信号数据向量并将其传递到编码层;编码层有L1个长短时记忆单元,每个编码层的长短时记忆单元有遗忘门传递函数fef(u)、输入门传递函数fei(u)、单元状态传递函数fec(u)、输出门传递函数feo(u);解码层有L2个长短时记忆单元,每个解码层的长短时记忆单元有遗忘门传递函数fdf(u)、输入门传递函数fdi(u)、单元状态传递函数fdc(u)、输出门传递函数fdo(u);其中u为函数的输入变量;输出层有M个神经元,该层神经元的输出ym(m=1,2…M)是解码层神经元输出的线性组合;
(32)在编码-解码神经网络模型中,有18种权系数矩阵:从输入层到编码层的N×1维权系数矩阵Wx;编码层前一时刻的输出到遗忘门的L1×L1维权系数矩阵Wefh;编码层的输入到遗忘门的L1×N维权系数矩阵Wefx;编码层前一时刻的输出到输入门的L1×L1维权系数矩阵Weih;编码层的输入到输入门的L1×N维权系数矩阵Weix;编码层前一时刻的输出到长短时记忆单元的L1×L1维权系数矩阵Wech;编码层的输入到长短时记忆单元的L1×N维权系数矩阵Wecx;编码层前一时刻的输出到输出门的L1×L1维权系数矩阵Weoh;编码层的输入到输出门的L1×N维权系数矩阵Wefx;解码层前一时刻的输出到遗忘门的L2×L2维权系数矩阵Wdfh;解码层语义向量到遗忘门的L2×L1维权系数矩阵Wdfx;解码层前一时刻的输出到输入门的L2×L2维权系数矩阵Wdih;解码层语义向量到输入门的L2×L1维权系数矩阵Wdix;解码层前一时刻的输出到长短时记忆单元的L2×L2维权系数矩阵Wdch;解码层语义向量到长短时记忆单元的L2×L1维权系数矩阵Wdcx;解码层前一时刻的输出到输出门的L2×L2维权系数矩阵Wdoh;解码层语义向量到输出门的L2×L1维权系数矩阵Wdox;从解码层到输出层的L2×M维权系数矩阵Wy。所有权系数矩阵均采用Lecun均匀分布进行初始化;
(33)设置编码-解码神经网络模型训练最大迭代次为Nmax;学习速率为η;误差函数阈值为ε。
4.如权利要求1所述的基于编码-解码神经网络模型的功率放大器行为建模方法,其特征在于,步骤(4)中,利用编码-解码神经网络模型对行为模型进行建模具体包括如下步骤:
(41)根据编码-解码神经网络模型结构,计算编码-解码神经网络模型各层的输出:
ym(t)=Wy(t)D(t)
D(t)=Do(t)fdh[cd(t)]
Do(t)=fdo[Wdoh(t)D(t-1)+Wdox(t)c(t)]
cd(t)=cd(t-1)Df(t)+Di(t)Dc(t)
Dc(t)=fdc[Wdch(t)D(t-1)+Wdcx(t)c(t)]
Di(t)=fdi[Wdih(t)D(t-1)+Wdix(t)c(t)]
Df(t)=fdf[Wdfh(t)D(t-1)+Wdfx(t)c(t)[
c(t)=E(t)
E(t)=Eo(t)feh[ce(t)]
Eo(t)=feo[Weoh(t)E(t-1)+Weox(t)xde(t)]
ce(t)=ce(t-1)Ef(t)+Ei(t)Ec(t)
Ec(t)=fec[Wech(t)E(t-1)6Wecx(t)xde(t)]
Ei(t)=fei[Weih(t)E(t-1)+Weix(t)xde(t)]
Ef(t)=fef[Wefh(t)E(t-1)+Wefx(t)xde(t)]
其中,表示第t次迭代时的归一化输入;xde(t)表示第t次迭代时输入层的输出;Ef(t)表示第t次迭代时编码层遗忘门的输出;Ei(t)表示第t次迭代时编码层输入门的输出;Ec(t)表示第t次迭代时编码层的输入单元状态;ce(t)表示第t次迭代时编码层的单元状态;Eo(t)表示第t次迭代时编码层输出门的输出;E(t)表示第t次迭代时编码层的输出;c(t)表示第t次迭代时的语义向量;Df(t)表示第t次迭代时解码层遗忘门的输出;Di(t)表示第t次迭代时解码层输入门的输出;Dc(t)表示第t次迭代时解码层的输入单元状态;cd(t)表示第t次迭代时解码层的单元状态;Do(t)表示第t次迭代时解码层输出门的输出;D(t)表示第t次迭代时解码层的输出;ym(t)表示第t次迭代时编码-解码神经网络模型的最终输出;Wx(t)表示第t次迭代时从输入层到编码层的权系数矩阵,Wefh(t)表示第t次迭代时编码层前一时刻的输出到遗忘门的权系数矩阵;Wefx(t)表示第t次迭代时编码层的输入到遗忘门的权系数矩阵;Weih(t)表示第t次迭代时编码层前一时刻的输出到输入门的权系数矩阵;Weix(t)表示第t次迭代时编码层的输入到输入门的权系数矩阵;Wech(t)表示第t次迭代时编码层前一时刻的输出到长短时记忆单元的权系数矩阵;Wecx(t)表示第t次迭代时编码层的输入到长短时记忆单元的权系数矩阵;Weoh(t)表示第t次迭代时编码层前一时刻的输出到输出门的权系数矩阵;Weox(t)表示第t次迭代时编码层的输入到输出门的权系数矩阵;Wdf(t)表示第t次迭代时解码层前一时刻的输出到遗忘门的权系数矩阵;Wdfx(t)表示第t次迭代时解码层语义向量到遗忘门的权系数矩阵;Wdih(t)表示第t次迭代时解码层前一时刻的输出到输入门的权系数矩阵;Wdix(t)表示第t次迭代时解码层语义向量到输入门的权系数矩阵;Wdch(t)表示第t次迭代时解码层前一时刻的输出到长短时记忆单元的权系数矩阵;Wdcx(t)表示第t次迭代时解码层语义向量到长短时记忆单元的权系数矩阵;Wdoh(t)表示第t次迭代时解码层前一时刻的输出到输出门的权系数矩阵;Wdox(t)表示第t次迭代时解码层语义向量到遗忘输出门的权系数矩阵;Wy(t)表示第t次迭代时从解码层到输出层的权系数矩阵;传递函数 初始值E(0)=1,D(0)=1;
(42)计算目标误差函数,其定义为:
其中ym(t)为第t次迭代时编码-解码神经网络模型的最终输出,为归一化的系统的实际输出,上标T为矩阵的转置运算;
(43)用自适应矩估计算法训练编码-解码神经网络模型,得到模型的权值矩阵的变化量:
其中,at=β1at-1+(1-β1)gt,bt=β2bt-1+(1β2)(gt)2,β1=0.9,β2=0.999,μ=10-8,a0=1,b0=1,gt表示第t次迭代时的梯度;
δdec=[δdf(t)]TWdfx(t)+[δdi(t)]TWdix(t)+[δdc(t)]TWdcx(t)+[δdo(t)]TWdox(t)
初始值ce(0)=1,cd(0)=1,ΔWy(t)表示第t次迭代时解码层到输出层的权值矩阵的变化量,ΔWx(t)表示第t次迭代时从输入层到编码层的权值矩阵的变化量,ΔWdfh(t)表示第t次迭代时解码层前一时刻的输出到遗忘门的权值矩阵的变化量,ΔWdfx(t)表示第t次迭代时解码层语义向量到遗忘门的权值矩阵的变化量,ΔWdih(t)表示第t次迭代时解码层前一时刻的输出到输入门的权值矩阵的变化量,ΔWdix(t)表示第t次迭代时解码层语义向量到输入门的权值矩阵的变化量,ΔWdch(t)表示第t次迭代时解码层前一时刻的输出到长短时记忆单元的权值矩阵的变化量,ΔWdcx(t)表示第t次迭代时解码层语义向量到长短时记忆单元门的权值矩阵的变化量,ΔWdoh(t)表示第t次迭代时解码层前一时刻的输出到输出门的权值矩阵的变化量,ΔWdox(t)表示第t次迭代时解码层语义向量到输出门的权值矩阵的变化量,ΔWef(t)表示第t次迭代时编码层前一时刻的输出到遗忘门的权值矩阵的变化量,ΔWefx(t)表示第t次迭代时编码层输入到遗忘门的权值矩阵的变化量,ΔWeih(t)表示第t次迭代时编码层前一时刻的输出到输入门的权值矩阵的变化量,ΔWeix(t)表示第t次迭代时编码层输入到遗忘门的权值矩阵的变化量,ΔWech(t)表示第t次迭代时编码层前一时刻的输出到长短时记忆单元的权值矩阵的变化量,ΔWecx(t)表示第t次迭代时编码层输入到长短时记忆单元的权值矩阵的变化量,ΔWeoh(t)表示第t次迭代时编码层前一时刻的输出到输出门的权值矩阵的变化量,ΔWeox(t)表示第t次迭代时编码层输入到输出门的权值矩阵的变化量;
(44)迭代次数加1,即t=t+1;当目标误差函数大于误差阈值或者迭代次数小于最大迭代次数Nmax时,继续步骤D-5;当目标误差函数小于误差阈值或者迭代次数大于最大迭代次数Nmax时,停止迭代,执行步骤(5);
(45)根据ΔWy(t),ΔWdf(t),ΔWdfx(t),ΔWdih(t),ΔWdix(t),ΔWdch(t),ΔWdcx(t),ΔWdoh(t),ΔWdox(t),ΔWef(t),ΔWefx(t),ΔWeih(t),ΔWeix(t),ΔWech(t),ΔWecx(t),ΔWeoh(t),ΔWeox(t),ΔWx(t)更新权值系数;
(46)返回步骤(41)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810095930.8A CN108256257B (zh) | 2018-01-31 | 2018-01-31 | 一种基于编码-解码神经网络模型的功率放大器行为建模方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810095930.8A CN108256257B (zh) | 2018-01-31 | 2018-01-31 | 一种基于编码-解码神经网络模型的功率放大器行为建模方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108256257A true CN108256257A (zh) | 2018-07-06 |
CN108256257B CN108256257B (zh) | 2021-04-06 |
Family
ID=62743873
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810095930.8A Active CN108256257B (zh) | 2018-01-31 | 2018-01-31 | 一种基于编码-解码神经网络模型的功率放大器行为建模方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108256257B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109033094A (zh) * | 2018-07-18 | 2018-12-18 | 五邑大学 | 一种基于序列到序列神经网络模型的文言文白话文互译方法及系统 |
CN110472280A (zh) * | 2019-07-10 | 2019-11-19 | 广东工业大学 | 一种基于生成对抗神经网络的功率放大器行为建模方法 |
CN110598261A (zh) * | 2019-08-16 | 2019-12-20 | 南京航空航天大学 | 一种基于复数反向神经网络的功率放大器频域建模方法 |
CN110610030A (zh) * | 2019-08-19 | 2019-12-24 | 南京航空航天大学 | 一种基于WaveNet神经网络结构的功率放大器行为建模方法 |
CN111274752A (zh) * | 2018-12-05 | 2020-06-12 | 北京大学 | 一种基于两级开环结构和二元函数单元的功率放大器行为建模方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5532950A (en) * | 1994-04-25 | 1996-07-02 | Wadia Digital Corporation | Dynamic digital filter using neural networks |
CN102983819A (zh) * | 2012-11-08 | 2013-03-20 | 南京航空航天大学 | 一种功率放大器的模拟方法及功率放大器模拟装置 |
CN105224985A (zh) * | 2015-09-28 | 2016-01-06 | 南京航空航天大学 | 一种基于深度重构模型的功率放大器行为建模方法 |
-
2018
- 2018-01-31 CN CN201810095930.8A patent/CN108256257B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5532950A (en) * | 1994-04-25 | 1996-07-02 | Wadia Digital Corporation | Dynamic digital filter using neural networks |
CN102983819A (zh) * | 2012-11-08 | 2013-03-20 | 南京航空航天大学 | 一种功率放大器的模拟方法及功率放大器模拟装置 |
CN105224985A (zh) * | 2015-09-28 | 2016-01-06 | 南京航空航天大学 | 一种基于深度重构模型的功率放大器行为建模方法 |
Non-Patent Citations (2)
Title |
---|
ZHENYU WANG等: "Deep neural nets based power amplifier non-linear predistortion", 《JOURNAL OF PHYSICS: CONFERENCE SERIES》 * |
丁芳军: "基于遗传神经网络的射频功放行为模型研究", 《中国优秀硕士学位论文全文数据库.信息科技辑》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109033094A (zh) * | 2018-07-18 | 2018-12-18 | 五邑大学 | 一种基于序列到序列神经网络模型的文言文白话文互译方法及系统 |
CN111274752A (zh) * | 2018-12-05 | 2020-06-12 | 北京大学 | 一种基于两级开环结构和二元函数单元的功率放大器行为建模方法 |
CN111274752B (zh) * | 2018-12-05 | 2022-05-03 | 北京大学 | 一种基于两级开环和二元函数的功率放大器行为建模方法 |
CN110472280A (zh) * | 2019-07-10 | 2019-11-19 | 广东工业大学 | 一种基于生成对抗神经网络的功率放大器行为建模方法 |
CN110472280B (zh) * | 2019-07-10 | 2024-01-12 | 广东工业大学 | 一种基于生成对抗神经网络的功率放大器行为建模方法 |
CN110598261A (zh) * | 2019-08-16 | 2019-12-20 | 南京航空航天大学 | 一种基于复数反向神经网络的功率放大器频域建模方法 |
CN110598261B (zh) * | 2019-08-16 | 2021-03-30 | 南京航空航天大学 | 一种基于复数反向神经网络的功率放大器频域建模方法 |
CN110610030A (zh) * | 2019-08-19 | 2019-12-24 | 南京航空航天大学 | 一种基于WaveNet神经网络结构的功率放大器行为建模方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108256257B (zh) | 2021-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108256257A (zh) | 一种基于编码-解码神经网络模型的功率放大器行为建模方法 | |
CN108153943B (zh) | 基于时钟循环神经网络的功率放大器的行为建模方法 | |
Huang et al. | Can threshold networks be trained directly? | |
CN105224985B (zh) | 一种基于深度重构模型的功率放大器行为建模方法 | |
CN113642653B (zh) | 基于结构优化算法的复值神经网络的信号调制识别方法 | |
CN109685314B (zh) | 一种基于长短期记忆网络的非侵入负荷分解方法和系统 | |
KR101700145B1 (ko) | 뉴럴 역학을 수정하기 위한 자동화 방법 | |
Shiri et al. | Estimation of daily suspended sediment load by using wavelet conjunction models | |
CN107730006A (zh) | 一种基于可再生能源大数据深度学习的建筑近零能耗控制器 | |
CN107730003A (zh) | 一种支持多电器类型高精度的nilm实现方法 | |
CN110120926A (zh) | 基于演化bp神经网络的通信信号调制方式识别方法 | |
CN111539132B (zh) | 一种基于卷积神经网络的动载荷时域识别方法 | |
CN109766853A (zh) | 基于lstm的电压暂降扰动分类方法 | |
Lun et al. | The modified sufficient conditions for echo state property and parameter optimization of leaky integrator echo state network | |
Han et al. | Identification of dynamical systems using a broad neural network and particle swarm optimization | |
CN109408896B (zh) | 一种污水厌氧处理产气量多元智能实时监控方法 | |
Mohammadi et al. | Online solving of economic dispatch problem using neural network approach and comparing it with classical method | |
Butcher et al. | Extending reservoir computing with random static projections: a hybrid between extreme learning and RC | |
Tang et al. | Expectation maximization based sparse identification of cyberphysical system | |
CN113987924A (zh) | 一种基于目标特征自学习的复杂电磁信号模拟发生方法 | |
CN112016684B (zh) | 一种深度并行柔性发射网络的电力终端指纹识别方法 | |
CN114520758A (zh) | 一种基于瞬时特征的信号调制识别方法 | |
CN110188382A (zh) | 基于fft与bp神经网络的功率放大器频域行为建模方法 | |
CN110829434A (zh) | 一种提高深度神经网络潮流模型扩展性的方法 | |
Jun et al. | Study on image recognition based on PCNN and LVQ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |