CN108256257B - 一种基于编码-解码神经网络模型的功率放大器行为建模方法 - Google Patents

一种基于编码-解码神经网络模型的功率放大器行为建模方法 Download PDF

Info

Publication number
CN108256257B
CN108256257B CN201810095930.8A CN201810095930A CN108256257B CN 108256257 B CN108256257 B CN 108256257B CN 201810095930 A CN201810095930 A CN 201810095930A CN 108256257 B CN108256257 B CN 108256257B
Authority
CN
China
Prior art keywords
layer
output
iteration
decoding
gate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810095930.8A
Other languages
English (en)
Other versions
CN108256257A (zh
Inventor
邵杰
赵一鹤
张善章
张颐婷
刘姝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN201810095930.8A priority Critical patent/CN108256257B/zh
Publication of CN108256257A publication Critical patent/CN108256257A/zh
Application granted granted Critical
Publication of CN108256257B publication Critical patent/CN108256257B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/30Circuit design
    • G06F30/36Circuit design at the analogue level
    • G06F30/367Design verification, e.g. using simulation, simulation program with integrated circuit emphasis [SPICE], direct methods or relaxation methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/10Numerical modelling

Abstract

本发明公开了一种基于编码‑解码神经网络模型的功率放大器行为建模方法,该方法利用的编码‑解码神经网络模型对于序列具有良好的描述能力且模型收敛速度快,同时在模型内部使用长短时记忆单元,利用长短时记忆单元的输出不仅与即时输入有关、也与历史输入有关的特点,用来描述功率放大器的记忆效应;该方法能够很好地描述功率放大器的非线性特性和记忆效应,具有较快的模型收敛速度和较高的精度。

Description

一种基于编码-解码神经网络模型的功率放大器行为建模 方法
技术领域
本发明涉及非线性系统建模与分析应用技术领域,尤其是一种基于编码-解码神经网络模型的功率放大器行为建模方法。
背景技术
功率放大器是发射机的重要模块,是一个复杂的非线性系统,功率放大器经常会产生严重的非线性失真,并且随着系统带宽的增加,功率放大器也会产生记忆效应。
发射机的内部结构大多比较复杂,对发射机的行为建模可以在不知道发射机内部组成的情况下,只依据系统的输入、输出测试数据就可以模拟出它的非线性和记忆效应。行为模型可以用来分析不同发射机所对应的模型参数差异,通过修改模型参数获取不同的发射机发射信号。在系统级仿真中,这种方法被广泛使用,并且经大量实验证明,这种方法能够精确地对功放进行建模。
一般来说,功率放大器行为建模可以分为无记忆模型和记忆模型两种。无记忆功放模型的种类很多,例如Saleh模型、无记忆多项式模型等。无记忆功放模型相对简单,对于窄带系统建模有很好的效果。然而随着系统带宽的增加,功率放大器的记忆效应明显,无记忆模型无法很好地描述记忆效应,所以现在大多采用有记忆功放模型。有记忆模型一般采用Volterra级数模型和神经网络模型等。Volterra级数是对泰勒级数的扩展,该模型适用于弱非线性系统,而且系统的参数会随着阶次和记忆深度的增加而迅速增加,故计算量和收敛性受到了影响。而神经网络能够逼近任意非线性的函数,并且具有灵活有效的自组织学习能力,因而被广泛用于功率放大器系统的行为建模。普通的神经网络模型收敛速度较慢,建模的精度也一般。随着循环神经网络的提出,由于其将时序的概念引入到神经元结构设计中,使其在时序数据分析中表现出更强的适应性。循环神经网络的输出不仅与当前时刻的输入有关,也与前一个时刻的输入有关,模型带有很强的记忆效应。但是,传统的循环神经网络虽然可以利用上下文信息对当前时刻的输入进行建模得到相应的输出,然而在实际实验中发现,普通循环神经网络难以学到长时间跨度的依赖关系,也就是说,能够利用的上下文信息是有限的,因此普通循环神经网络在描述功放的长期记忆效应上表现一般。
发明内容
本发明所要解决的技术问题在于,提供一种基于编码-解码神经网络模型的功率放大器行为建模方法,收敛速度较快,在相同的迭代次数下具有更高的精度。
为解决上述技术问题,本发明提供一种基于编码-解码神经网络模型的功率放大器行为建模方法,包括如下步骤:
(1)采集功率放大器的输入信号数据向量xin=[xin(1),xin(2),…,xin(N)]和输出信号数据向量yout=[yout(1),yout(2),…,yout(N)],其中,N为数据长度;
(2)将输入和输出数据进行归一化;得到归一化输入信号数据向量
Figure BDA0001565031890000021
Figure BDA0001565031890000022
和归一化输出信号数据向量
Figure BDA0001565031890000023
(3)初始化编码-解码神经网络模型;编码-解码神经网络模型的模型结构有四层:输入层、编码层、解码层和输出层;
(4)利用编码-解码神经网络模型对行为模型进行建模;
(5)通过步骤D得到的权系数,计算编码-解码神经网络模型最终的输出ym
优选的,步骤(2)中,输入和输出数据进行归一化具体为:
Figure BDA0001565031890000024
Figure BDA0001565031890000025
其中max(·)表示求向量中最大值的运算。
优选的,步骤(3)中,初始化编码-解码神经网络模型具体包括如下步骤:
(31)设置编码-解码神经网络模型输入层有P个神经元,接收归一化输入信号数据向量并将其传递到编码层;编码层有L1个长短时记忆单元,每个编码层的长短时记忆单元有遗忘门传递函数fef(u)、输入门传递函数fei(u)、单元状态传递函数fec(u)、输出门传递函数feo(u);解码层有L2个长短时记忆单元,每个解码层的长短时记忆单元有遗忘门传递函数fdf(u)、输入门传递函数fdi(u)、单元状态传递函数fdc(u)、输出门传递函数fdo(u);其中u为函数的输入变量;输出层有M个神经元,该层神经元的输出ym(m=1,2…M)是解码层神经元输出的线性组合;
(32)在编码-解码神经网络模型中,有18种权系数矩阵:从输入层到编码层的N×1维权系数矩阵Wx;编码层前一时刻的输出到遗忘门的L1×L1维权系数矩阵Wefh;编码层的输入到遗忘门的L1×N维权系数矩阵Wefx;编码层前一时刻的输出到输入门的L1×L1维权系数矩阵Weih;编码层的输入到输入门的L1×N维权系数矩阵Weix;编码层前一时刻的输出到长短时记忆单元的L1×L1维权系数矩阵Wech;编码层的输入到长短时记忆单元的L1×N维权系数矩阵Wecx;编码层前一时刻的输出到输出门的L1×L1维权系数矩阵Weoh;编码层的输入到输出门的L1×N维权系数矩阵Wefx;解码层前一时刻的输出到遗忘门的L2×L2维权系数矩阵Wdfh;解码层语义向量到遗忘门的L2×L1维权系数矩阵Wdfx;解码层前一时刻的输出到输入门的L2×L2维权系数矩阵Wdih;解码层语义向量到输入门的L2×L1维权系数矩阵Wdix;解码层前一时刻的输出到长短时记忆单元的L2×L2维权系数矩阵Wdch;解码层语义向量到长短时记忆单元的L2×L1维权系数矩阵Wdcx;解码层前一时刻的输出到输出门的L2×L2维权系数矩阵Wdoh;解码层语义向量到输出门的L2×L1维权系数矩阵Wdox;从解码层到输出层的L2×M维权系数矩阵Wy。所有权系数矩阵均采用Lecun均匀分布进行初始化;
(33)设置编码-解码神经网络模型训练最大迭代次为Nmax;学习速率为η;误差函数阈值为ε。
优选的,步骤(4)中,利用编码-解码神经网络模型对行为模型进行建模具体包括如下步骤:
(41)根据编码-解码神经网络模型结构,计算编码-解码神经网络模型各层的输出:
ym(t)=Wy(t)D(t)
D(t)=Do(t)fdh[cd(t)]
Do(t)=fdo[Wdoh(t)D(t-1)+Wdox(t)c(t)]
cd(t)=cd(t-1)Df(t)+Di(t)Dc(t)
Dc(t)=fdc[Wdch(t)D(t-1)+Wdcx(t)c(t)]
Di(t)=fdi[Wdih(t)D(t-1)+Wdix(t)c(t)]
Df(t)=fdf[Wdfh(t)D(t-1)+Wdfx(t)c(t)]
c(t)=E(t)
E(t)=Eo(t)feh[ce(t)]
Eo(t)=feo[Weoh(t)E(t-1)+Weox(t)xde(t)]
ce(t)=ce(t-1)Ef(t)+Ei(t)Ec(t)
Ec(t)=fec[Wech(t)E(t-1)+Wecx(t)xde(t)]
Ei(t)=fei[Weih(t)E(t-1)+Weix(t)xde(t)]
Ef(t)=fef[Wefh(t)E(t-1)+Wefx(t)xde(t)]
Figure BDA0001565031890000041
其中,
Figure BDA0001565031890000042
表示第t次迭代时的归一化输入;xde(t)表示第t次迭代时输入层的输出;Ef(t)表示第t次迭代时编码层遗忘门的输出;Ei(t)表示第t次迭代时编码层输入门的输出;Ec(t)表示第t次迭代时编码层的输入单元状态;ce(t)表示第t次迭代时编码层的单元状态;Eo(t)表示第t次迭代时编码层输出门的输出;E(t)表示第t次迭代时编码层的输出;c(t)表示第t次迭代时的语义向量;Df(t)表示第t次迭代时解码层遗忘门的输出;Di(t)表示第t次迭代时解码层输入门的输出;Dc(t)表示第t次迭代时解码层的输入单元状态;cd(t)表示第t次迭代时解码层的单元状态;Do(t)表示第t次迭代时解码层输出门的输出;D(t)表示第t次迭代时解码层的输出;ym(t)表示第t次迭代时编码-解码神经网络模型的最终输出;Wx(t)表示第t次迭代时从输入层到编码层的权系数矩阵,Wefh(t)表示第t次迭代时编码层前一时刻的输出到遗忘门的权系数矩阵;Wefx(t)表示第t次迭代时编码层的输入到遗忘门的权系数矩阵;Weih(t)表示第t次迭代时编码层前一时刻的输出到输入门的权系数矩阵;Weix(t)表示第t次迭代时编码层的输入到输入门的权系数矩阵;Wech(t)表示第t次迭代时编码层前一时刻的输出到长短时记忆单元的权系数矩阵;Wecx(t)表示第t次迭代时编码层的输入到长短时记忆单元的权系数矩阵;Weoh(t)表示第t次迭代时编码层前一时刻的输出到输出门的权系数矩阵;Weox(t)表示第t次迭代时编码层的输入到输出门的权系数矩阵;Wdfh(t)表示第t次迭代时解码层前一时刻的输出到遗忘门的权系数矩阵;Wdfx(t)表示第t次迭代时解码层语义向量到遗忘门的权系数矩阵;Wdih(t)表示第t次迭代时解码层前一时刻的输出到输入门的权系数矩阵;Wdix(t)表示第t次迭代时解码层语义向量到输入门的权系数矩阵;Wdch(t)表示第t次迭代时解码层前一时刻的输出到长短时记忆单元的权系数矩阵;Wdcx(t)表示第t次迭代时解码层语义向量到长短时记忆单元的权系数矩阵;Wdoh(t)表示第t次迭代时解码层前一时刻的输出到输出门的权系数矩阵;Wdox(t)表示第t次迭代时解码层语义向量到遗忘输出门的权系数矩阵;Wy(t)表示第t次迭代时从解码层到输出层的权系数矩阵;传递函数
Figure BDA0001565031890000051
Figure BDA0001565031890000052
初始值E(0)=1,D(0)=1;
(42)计算目标误差函数,其定义为:
Figure BDA0001565031890000053
其中ym(t)为第t次迭代时编码-解码神经网络模型的最终输出,
Figure BDA0001565031890000054
为归一化的系统的实际输出,上标T为矩阵的转置运算;
(43)用自适应矩估计算法训练编码-解码神经网络模型,得到模型的权值矩阵的变化量:
Figure BDA0001565031890000055
Figure BDA0001565031890000056
Figure BDA0001565031890000057
Figure BDA0001565031890000058
Figure BDA0001565031890000059
Figure BDA00015650318900000510
Figure BDA00015650318900000511
Figure BDA0001565031890000061
Figure BDA0001565031890000062
Figure BDA0001565031890000063
Figure BDA0001565031890000064
Figure BDA0001565031890000065
Figure BDA0001565031890000066
Figure BDA0001565031890000067
Figure BDA0001565031890000068
Figure BDA0001565031890000069
Figure BDA00015650318900000610
Figure BDA00015650318900000611
其中,
Figure BDA00015650318900000612
at=β1at-1+(1-β1)gt,bt=β2bt-1+(1-β2)(gt)2,β1=0.9,β2=0.999,μ=10-8,a0=1,b0=1,gt表示第t次迭代时的梯度;
δdec=[δdf(t)]TWdfx(t)+[δdi(t)]TWdix(t)+[δdc(t)]TWdcx(t)+[δdo(t)]TWdox(t)
Figure BDA00015650318900000613
Figure BDA00015650318900000614
Figure BDA0001565031890000071
Figure BDA0001565031890000072
Figure BDA0001565031890000073
Figure BDA0001565031890000074
Figure BDA0001565031890000075
Figure BDA0001565031890000076
初始值ce(0)=1,cd(0)=1,ΔWy(t)表示第t次迭代时解码层到输出层的权值矩阵的变化量,ΔWx(t)表示第t次迭代时从输入层到编码层的权值矩阵的变化量,ΔWdfh(t)表示第t次迭代时解码层前一时刻的输出到遗忘门的权值矩阵的变化量,ΔWdfx(t)表示第t次迭代时解码层语义向量到遗忘门的权值矩阵的变化量,ΔWdih(t)表示第t次迭代时解码层前一时刻的输出到输入门的权值矩阵的变化量,ΔWdix(t)表示第t次迭代时解码层语义向量到输入门的权值矩阵的变化量,ΔWdch(t)表示第t次迭代时解码层前一时刻的输出到长短时记忆单元的权值矩阵的变化量,ΔWdcx(t)表示第t次迭代时解码层语义向量到长短时记忆单元门的权值矩阵的变化量,ΔWdoh(t)表示第t次迭代时解码层前一时刻的输出到输出门的权值矩阵的变化量,ΔWdox(t)表示第t次迭代时解码层语义向量到输出门的权值矩阵的变化量,ΔWefh(t)表示第t次迭代时编码层前一时刻的输出到遗忘门的权值矩阵的变化量,ΔWefx(t)表示第t次迭代时编码层输入到遗忘门的权值矩阵的变化量,ΔWeih(t)表示第t次迭代时编码层前一时刻的输出到输入门的权值矩阵的变化量,ΔWeix(t)表示第t次迭代时编码层输入到遗忘门的权值矩阵的变化量,ΔWech(t)表示第t次迭代时编码层前一时刻的输出到长短时记忆单元的权值矩阵的变化量,ΔWecx(t)表示第t次迭代时编码层输入到长短时记忆单元的权值矩阵的变化量,ΔWeoh(t)表示第t次迭代时编码层前一时刻的输出到输出门的权值矩阵的变化量,ΔWeox(t)表示第t次迭代时编码层输入到输出门的权值矩阵的变化量;
(44)迭代次数加1,即t=t+1;当目标误差函数大于误差阈值或者迭代次数小于最大迭代次数Nmax时,继续步骤D-5;当目标误差函数小于误差阈值或者迭代次数大于最大迭代次数Nmax时,停止迭代,执行步骤(5);
(45)根据ΔWy(t),ΔWdfh(t),ΔWdfx(t),ΔWdih(t),ΔWdix(t),ΔWdch(t),ΔWdcx(t),ΔWdoh(t),ΔWdox(t),ΔWefh(t),ΔWefx(t),ΔWeih(t),ΔWeix(t),ΔWech(t),ΔWecx(t),ΔWeoh(t),ΔWeox(t),ΔWx(t)更新权值系数;
(46)返回步骤(41)。
本发明的有益效果为:本发明利用长短时记忆单元的输出除了与即时输入有关,也与历史输入有关的特点,用来描述功率放大器的记忆效应,同时在单元内部加入遗忘门、输入门、输出门等结构,加强了长短时记忆单元对长期记忆效应的描述能力;在此基础上又使用编码层将输入向量编码为语义向量,该语义向量包含大部分输入向量的特征,使用解码层解码语义向量得到输出,这种网络结构可以利用输入向量的大部分信息,在加快了模型收敛速度的同时又保证了模型的精度,非常有利于功放的行为建模;模型收敛速度较快,在相同的误差阈值下,编码-解码神经网络模型需要的迭代次数远小于普通的神经网络模型;在相同的迭代次数下,编码-解码神经网络模型比普通的神经网络模型具有更高的精度。
附图说明
图1为本发明的D类功率放大器黑盒模型示意图。
图2为本发明的编码-解码神经网络模型结构示意图。
图3为本发明的第t次迭代时单个编码层长短时记忆单元结构示意图。
图4为本发明的第t次迭代时单个解码层长短时记忆单元结构示意图。
图5为本发明的编码-解码神经网络模型输出的时域波形及误差结果示意图。
图6为本发明的编码-解码神经网络模型输出的频谱及误差结果示意图。
具体实施方式
以下以D类功率放大器为例,结合附图,详细说明本发明的实施方式。
D类功率放大器工作在开关状态,功率转换效率较高,是一种典型的非线性系统。如图1所示为D类功率放大器电路的黑盒模型。其中,输入的线性调频信号xin幅度为8.5V,线性调频起始频率为2800Hz,调频带宽为400Hz。经过D类功率放大器后输出信号为yout,并带有失真。利用PSpice仿真软件对功率放大器电路进行仿真后,采集2000个输入信号和输出信号作为实验数据进行行为建模,采样频率为100kHz。
本发明是一种基于编码-解码神经网络模型的功率放大器的行为建模方法,包括如下步骤:
步骤A:采集功率放大器的输入信号数据向量xin=[xin(1),xin(2),…,xin(N)]和输出信号数据向量yout=[yout(1),yout(2),…,yout(N)],其中,N为数据长度。
步骤B:将输入和输出数据进行归一化;
Figure BDA0001565031890000091
Figure BDA0001565031890000092
其中max(·)表示求向量中最大值的运算。
得到归一化输入信号数据向量
Figure BDA0001565031890000093
和归一化输出信号数据向量
Figure BDA0001565031890000094
步骤C:初始化编码-解码神经网络模型。编码-解码神经网络模型的模型结构有四层:输入层、编码层、解码层和输出层,如图2所示。其过程如下:
步骤C-1:设置编码-解码神经网络模型输入层有P=2000个神经元,接收归一化输入信号数据向量并将其传递到编码层;编码层有L1=30个长短时记忆单元,每个编码层的长短时记忆单元有遗忘门传递函数fef(u)、输入门传递函数fei(u)、单元状态传递函数fec(u)、输出门传递函数feo(u),如图3所示;解码层有L2=30个长短时记忆单元,每个解码层的长短时记忆单元有遗忘门传递函数fdf(u)、输入门传递函数fdi(u)、单元状态传递函数fdc(u)、输出门传递函数fdo(u),如图4所示;其中u为函数的输入变量。输出层有M=2000个神经元,该层神经元的输出ym(m=1,2…M)是解码层神经元输出的线性组合。
步骤C-2:在编码-解码神经网络模型中,有18种权系数矩阵:从输入层到编码层的N×1维权系数矩阵Wx;编码层前一时刻的输出到遗忘门的L1×L1维权系数矩阵Wefh;编码层的输入到遗忘门的L1×N维权系数矩阵Wefx;编码层前一时刻的输出到输入门的L1×L1维权系数矩阵Weih;编码层的输入到输入门的L1×N维权系数矩阵Weix;编码层前一时刻的输出到长短时记忆单元的L1×L1维权系数矩阵Wech;编码层的输入到长短时记忆单元的L1×N维权系数矩阵Wecx;编码层前一时刻的输出到输出门的L1×L1维权系数矩阵Weoh;编码层的输入到输出门的L1×N维权系数矩阵Wefx;解码层前一时刻的输出到遗忘门的L2×L2维权系数矩阵Wdfh;解码层语义向量到遗忘门的L2×L1维权系数矩阵Wdfx;解码层前一时刻的输出到输入门的L2×L2维权系数矩阵Wdih;解码层语义向量到输入门的L2×L1维权系数矩阵Wdix;解码层前一时刻的输出到长短时记忆单元的L2×L2维权系数矩阵Wdch;解码层语义向量到长短时记忆单元的L2×L1维权系数矩阵Wdcx;解码层前一时刻的输出到输出门的L2×L2维权系数矩阵Wdoh;解码层语义向量到输出门的L2×L1维权系数矩阵Wdox;从解码层到输出层的L2×M维权系数矩阵Wy。所有权系数矩阵均采用Lecun均匀分布进行初始化。
步骤C-3:设置编码-解码神经网络模型训练最大迭代次为Nmax=30;学习速率为η=0.04;误差函数阈值为ε=0.01。
步骤D:利用编码-解码神经网络模型对行为模型进行建模,其过程如下:
步骤D-1:根据编码-解码神经网络模型结构,计算编码-解码神经网络模型各层的输出:
ym(t)=Wy(t)D(t)
D(t)=Do(t)fdh[cd(t)]
Do(t)=fdo[Wdoh(t)D(t-1)+Wdox(t)c(t)]
cd(t)=cd(t-1)Df(t)+Di(t)Dc(t)
Dc(t)=fdc[Wdch(t)D(t-1)+Wdcx(t)c(t)]
Di(t)=fdi[Wdih(t)D(t-1)+Wdix(t)c(t)]
Df(t)=fdf[Wdfh(t)D(t-1)+Wdfx(t)c(t)]
c(t)=E(t)
E(t)=Eo(t)feh[ce(t)]
Eo(t)=feo[Weoh(t)E(t-1)+Weox(t)xde(t)]
ce(t)=ce(t-1)Ef(t)+Ei(t)Ec(t)
Ec(t)=fec[Wech(t)E(t-1)+Wecx(t)xde(t)]
Ei(t)=fei[Weih(t)E(t-1)+Weix(t)xde(t)]
Ef(t)=fef[Wefh(t)E(t-1)+Wefx(t)xde(t)]
Figure BDA0001565031890000111
其中,
Figure BDA0001565031890000112
表示第t次迭代时的归一化输入;xde(t)表示第t次迭代时输入层的输出;Ef(t)表示第t次迭代时编码层遗忘门的输出;Ei(t)表示第t次迭代时编码层输入门的输出;Ec(t)表示第t次迭代时编码层的输入单元状态;ce(t)表示第t次迭代时编码层的单元状态;Eo(t)表示第t次迭代时编码层输出门的输出;E(t)表示第t次迭代时编码层的输出;c(t)表示第t次迭代时的语义向量;Df(t)表示第t次迭代时解码层遗忘门的输出;Di(t)表示第t次迭代时解码层输入门的输出;Dc(t)表示第t次迭代时解码层的输入单元状态;cd(t)表示第t次迭代时解码层的单元状态;Do(t)表示第t次迭代时解码层输出门的输出;D(t)表示第t次迭代时解码层的输出;ym(t)表示第t次迭代时编码-解码神经网络模型的最终输出;Wx(t)表示第t次迭代时从输入层到编码层的权系数矩阵,Wefh(t)表示第t次迭代时编码层前一时刻的输出到遗忘门的权系数矩阵;Wefx(t)表示第t次迭代时编码层的输入到遗忘门的权系数矩阵;Weih(t)表示第t次迭代时编码层前一时刻的输出到输入门的权系数矩阵;Weix(t)表示第t次迭代时编码层的输入到输入门的权系数矩阵;Wech(t)表示第t次迭代时编码层前一时刻的输出到长短时记忆单元的权系数矩阵;Wecx(t)表示第t次迭代时编码层的输入到长短时记忆单元的权系数矩阵;Weoh(t)表示第t次迭代时编码层前一时刻的输出到输出门的权系数矩阵;Weox(t)表示第t次迭代时编码层的输入到输出门的权系数矩阵;Wdfh(t)表示第t次迭代时解码层前一时刻的输出到遗忘门的权系数矩阵;Wdfx(t)表示第t次迭代时解码层语义向量到遗忘门的权系数矩阵;Wdih(t)表示第t次迭代时解码层前一时刻的输出到输入门的权系数矩阵;Wdix(t)表示第t次迭代时解码层语义向量到输入门的权系数矩阵;Wdch(t)表示第t次迭代时解码层前一时刻的输出到长短时记忆单元的权系数矩阵;Wdcx(t)表示第t次迭代时解码层语义向量到长短时记忆单元的权系数矩阵;Wdoh(t)表示第t次迭代时解码层前一时刻的输出到输出门的权系数矩阵;Wdox(t)表示第t次迭代时解码层语义向量到遗忘输出门的权系数矩阵;Wy(t)表示第t次迭代时从解码层到输出层的权系数矩阵;
传递函数
Figure BDA0001565031890000121
初始值E(0)=1,D(0)=1。
步骤D-2:计算目标误差函数,其定义为:
Figure BDA0001565031890000122
其中ym(t)为第t次迭代时编码-解码神经网络模型的最终输出,
Figure BDA0001565031890000123
为归一化的系统的实际输出,上标T为矩阵的转置运算。
步骤D-3:用自适应矩估计算法训练编码-解码神经网络模型,得到模型的权值矩阵的变化量:
Figure BDA0001565031890000124
Figure BDA0001565031890000125
Figure BDA0001565031890000126
Figure BDA0001565031890000127
Figure BDA0001565031890000128
Figure BDA0001565031890000129
Figure BDA00015650318900001210
Figure BDA0001565031890000131
Figure BDA0001565031890000132
Figure BDA0001565031890000133
Figure BDA0001565031890000134
Figure BDA0001565031890000135
Figure BDA0001565031890000136
Figure BDA0001565031890000137
Figure BDA0001565031890000138
Figure BDA0001565031890000139
Figure BDA00015650318900001310
Figure BDA00015650318900001311
其中,
Figure BDA00015650318900001312
at=β1at-1+(1-β1)gt,bt=β2bt-1+(1-β2)(gt)2,β1=0.9,β2=0.999,μ=10-8,a0=1,b0=1,gt表示第t次迭代时的梯度。
δdec=[δdf(t)]TWdfx(t)+[δdi(t)]TWdix(t)+[δdc(t)]TWdcx(t)+[δdo(t)]TWdox(t)
Figure BDA00015650318900001313
Figure BDA00015650318900001314
Figure BDA0001565031890000141
Figure BDA0001565031890000142
Figure BDA0001565031890000143
Figure BDA0001565031890000144
Figure BDA0001565031890000145
Figure BDA0001565031890000146
初始值ce(0)=1,cd(0)=1,ΔWy(t)表示第t次迭代时解码层到输出层的权值矩阵的变化量,ΔWx(t)表示第t次迭代时从输入层到编码层的权值矩阵的变化量,ΔWdfh(t)表示第t次迭代时解码层前一时刻的输出到遗忘门的权值矩阵的变化量,ΔWdfx(t)表示第t次迭代时解码层语义向量到遗忘门的权值矩阵的变化量,ΔWdih(t)表示第t次迭代时解码层前一时刻的输出到输入门的权值矩阵的变化量,ΔWdix(t)表示第t次迭代时解码层语义向量到输入门的权值矩阵的变化量,ΔWdch(t)表示第t次迭代时解码层前一时刻的输出到长短时记忆单元的权值矩阵的变化量,ΔWdcx(t)表示第t次迭代时解码层语义向量到长短时记忆单元门的权值矩阵的变化量,ΔWdoh(t)表示第t次迭代时解码层前一时刻的输出到输出门的权值矩阵的变化量,ΔWdox(t)表示第t次迭代时解码层语义向量到输出门的权值矩阵的变化量,ΔWefh(t)表示第t次迭代时编码层前一时刻的输出到遗忘门的权值矩阵的变化量,ΔWefx(t)表示第t次迭代时编码层输入到遗忘门的权值矩阵的变化量,ΔWeih(t)表示第t次迭代时编码层前一时刻的输出到输入门的权值矩阵的变化量,ΔWeix(t)表示第t次迭代时编码层输入到遗忘门的权值矩阵的变化量,ΔWech(t)表示第t次迭代时编码层前一时刻的输出到长短时记忆单元的权值矩阵的变化量,ΔWecx(t)表示第t次迭代时编码层输入到长短时记忆单元的权值矩阵的变化量,ΔWeoh(t)表示第t次迭代时编码层前一时刻的输出到输出门的权值矩阵的变化量,ΔWeox(t)表示第t次迭代时编码层输入到输出门的权值矩阵的变化量。
步骤D-4:迭代次数加1,即t=t+1。当目标误差函数大于误差阈值或者迭代次数小于最大迭代次数Nmax时,继续步骤D-5;当目标误差函数小于误差阈值或者迭代次数大于最大迭代次数Nmax时,停止迭代,执行步骤E。
步骤D-5:根据ΔWy(t),ΔWdfh(t),ΔWdfx(t),ΔWdih(t),ΔWdix(t),ΔWdch(t),ΔWdcx(t),ΔWdoh(t),ΔWdox(t),ΔWefh(t),ΔWefx(t),ΔWeih(t),ΔWeix(t),ΔWech(t),ΔWecx(t),ΔWeoh(t),ΔWeox(t),ΔWx(t)更新权值系数。
步骤D-6:返回步骤D-1。
步骤E:通过步骤D得到的权系数,计算编码-解码神经网络模型最终的输出ym
在隐含层神经元L1=L2=25,迭代次数为20的情况下,得到仿真电路输出信号时域波形、编码-解码神经网络模型输出信号时域波形以及时域误差曲线如图5所示,编码-解码神经网络模型的时域平均误差为0.0128V,时域最大瞬时误差为-0.1154V。仿真电路输出信号输出频谱、编码-解码神经网络模型输出信号频谱以及频谱误差曲线如图6所示,频域平均误差为4.0869dB。可以看到编码-解码神经网络模型很好地描述了功率放大器的记忆效应与非线性特性,具有较高的精度。

Claims (3)

1.一种基于编码-解码神经网络模型的功率放大器行为建模方法,其特征在于,包括如下步骤:
(1)采集功率放大器的输入信号数据向量xin=[xin(1),xin(2),…,xin(N)]和输出信号数据向量yout=[yout(1),yout(2),…,yout(N)],其中,N为数据长度;
(2)将输入和输出数据进行归一化;得到归一化输入信号数据向量
Figure FDA0002902535200000011
Figure FDA0002902535200000012
和归一化输出信号数据向量
Figure FDA0002902535200000013
(3)初始化编码-解码神经网络模型;编码-解码神经网络模型的模型结构有四层:输入层、编码层、解码层和输出层;
(4)利用编码-解码神经网络模型对行为模型进行建模;具体包括如下步骤:
(41)根据编码-解码神经网络模型结构,计算编码-解码神经网络模型各层的输出:
ym(t)=Wy(t)D(t)
D(t)=Do(t)fdh[cd(t)]
Do(t)=fdo[Wdoh(t)D(t-1)+Wdox(t)c(t)]
cd(t)=cd(t-1)Df(t)+Di(t)Dc(t)
Dc(t)=fdc[Wdch(t)D(t-1)+Wdcx(t)c(t)]
Di(t)=fdi[Wdih(t)D(t-1)+Wdix(t)c(t)]
Df(t)=fdf[Wdfh(t)D(t-1)+Wdfx(t)c(t)]
c(t)=E(t)
E(t)=Eo(t)feh[ce(t)]
Eo(t)=feo[Weoh(t)E(t-1)+Weox(t)xde(t)]
ce(t)=ce(t-1)Ef(t)+Ei(t)Ec(t)
Ec(t)=fec[Wech(t)E(t-1)+Wecx(t)xde(t)]
Ei(t)=fei[Weih(t)E(t-1)+Weix(t)xde(t)]
Ef(t)=fef[Wefh(t)E(t-1)+Wefx(t)xde(t)]
Figure FDA0002902535200000014
其中,
Figure FDA0002902535200000015
表示第t次迭代时的归一化输入;xde(t)表示第t次迭代时输入层的输出;Ef(t)表示第t次迭代时编码层遗忘门的输出;Ei(t)表示第t次迭代时编码层输入门的输出;Ec(t)表示第t次迭代时编码层的输入单元状态;ce(t)表示第t次迭代时编码层的单元状态;Eo(t)表示第t次迭代时编码层输出门的输出;E(t)表示第t次迭代时编码层的输出;c(t)表示第t次迭代时的语义向量;Df(t)表示第t次迭代时解码层遗忘门的输出;Di(t)表示第t次迭代时解码层输入门的输出;Dc(t)表示第t次迭代时解码层的输入单元状态;cd(t)表示第t次迭代时解码层的单元状态;Do(t)表示第t次迭代时解码层输出门的输出;D(t)表示第t次迭代时解码层的输出;ym(t)表示第t次迭代时编码-解码神经网络模型的最终输出;Wx(t)表示第t次迭代时从输入层到编码层的权系数矩阵,Wefh(t)表示第t次迭代时编码层前一时刻的输出到遗忘门的权系数矩阵;Wefx(t)表示第t次迭代时编码层的输入到遗忘门的权系数矩阵;Weih(t)表示第t次迭代时编码层前一时刻的输出到输入门的权系数矩阵;Weix(t)表示第t次迭代时编码层的输入到输入门的权系数矩阵;Wech(t)表示第t次迭代时编码层前一时刻的输出到长短时记忆单元的权系数矩阵;Wecx(t)表示第t次迭代时编码层的输入到长短时记忆单元的权系数矩阵;Weoh(t)表示第t次迭代时编码层前一时刻的输出到输出门的权系数矩阵;Weox(t)表示第t次迭代时编码层的输入到输出门的权系数矩阵;Wdfh(t)表示第t次迭代时解码层前一时刻的输出到遗忘门的权系数矩阵;Wdfx(t)表示第t次迭代时解码层语义向量到遗忘门的权系数矩阵;Wdih(t)表示第t次迭代时解码层前一时刻的输出到输入门的权系数矩阵;Wdix(t)表示第t次迭代时解码层语义向量到输入门的权系数矩阵;Wdch(t)表示第t次迭代时解码层前一时刻的输出到长短时记忆单元的权系数矩阵;Wdcx(t)表示第t次迭代时解码层语义向量到长短时记忆单元的权系数矩阵;Wdoh(t)表示第t次迭代时解码层前一时刻的输出到输出门的权系数矩阵;Wdox(t)表示第t次迭代时解码层语义向量到遗忘输出门的权系数矩阵;Wy(t)表示第t次迭代时从解码层到输出层的权系数矩阵;传递函数
Figure FDA0002902535200000021
Figure FDA0002902535200000022
初始值E(0)=1,D(0)=1;
(42)计算目标误差函数,其定义为:
Figure FDA0002902535200000031
其中ym(t)为第t次迭代时编码-解码神经网络模型的最终输出,
Figure FDA0002902535200000032
为归一化的系统的实际输出,上标T为矩阵的转置运算;
(43)用自适应矩估计算法训练编码-解码神经网络模型,得到模型的权值矩阵的变化量:
Figure FDA0002902535200000033
Figure FDA0002902535200000034
Figure FDA0002902535200000035
Figure FDA0002902535200000036
Figure FDA0002902535200000037
Figure FDA0002902535200000038
Figure FDA0002902535200000039
Figure FDA00029025352000000310
Figure FDA00029025352000000311
Figure FDA00029025352000000312
Figure FDA00029025352000000313
Figure FDA0002902535200000041
Figure FDA0002902535200000042
Figure FDA0002902535200000043
Figure FDA0002902535200000044
Figure FDA0002902535200000045
Figure FDA0002902535200000046
Figure FDA0002902535200000047
其中,
Figure FDA0002902535200000048
at=β1at-1+(1-β1)gt,bt=β2bt-1+(1-β2)(gt)2,β1=0.9,β2=0.999,μ=10-8,a0=1,b0=1,gt表示第t次迭代时的梯度;
δdec=[δdf(t)]TWdfx(t)+[δdi(t)]TWdix(t)+[δdc(t)]TWdcx(t)+[δdo(t)]TWdox(t)
Figure FDA0002902535200000049
Figure FDA00029025352000000410
Figure FDA00029025352000000411
Figure FDA00029025352000000412
Figure FDA00029025352000000413
Figure FDA00029025352000000414
Figure FDA00029025352000000415
Figure FDA00029025352000000416
初始值ce(0)=1,cd(0)=1,ΔWy(t)表示第t次迭代时解码层到输出层的权值矩阵的变化量,ΔWx(t)表示第t次迭代时从输入层到编码层的权值矩阵的变化量,ΔWdfh(t)表示第t次迭代时解码层前一时刻的输出到遗忘门的权值矩阵的变化量,ΔWdfx(t)表示第t次迭代时解码层语义向量到遗忘门的权值矩阵的变化量,ΔWdih(t)表示第t次迭代时解码层前一时刻的输出到输入门的权值矩阵的变化量,ΔWdix(t)表示第t次迭代时解码层语义向量到输入门的权值矩阵的变化量,ΔWdch(t)表示第t次迭代时解码层前一时刻的输出到长短时记忆单元的权值矩阵的变化量,ΔWdcx(t)表示第t次迭代时解码层语义向量到长短时记忆单元门的权值矩阵的变化量,ΔWdoh(t)表示第t次迭代时解码层前一时刻的输出到输出门的权值矩阵的变化量,ΔWdox(t)表示第t次迭代时解码层语义向量到输出门的权值矩阵的变化量,ΔWefh(t)表示第t次迭代时编码层前一时刻的输出到遗忘门的权值矩阵的变化量,ΔWefx(t)表示第t次迭代时编码层输入到遗忘门的权值矩阵的变化量,ΔWeih(t)表示第t次迭代时编码层前一时刻的输出到输入门的权值矩阵的变化量,ΔWeix(t)表示第t次迭代时编码层输入到遗忘门的权值矩阵的变化量,ΔWech(t)表示第t次迭代时编码层前一时刻的输出到长短时记忆单元的权值矩阵的变化量,ΔWecx(t)表示第t次迭代时编码层输入到长短时记忆单元的权值矩阵的变化量,ΔWeoh(t)表示第t次迭代时编码层前一时刻的输出到输出门的权值矩阵的变化量,ΔWeox(t)表示第t次迭代时编码层输入到输出门的权值矩阵的变化量;
(44)迭代次数加1,即t=t+1;当目标误差函数大于误差阈值或者迭代次数小于最大迭代次数Nmax时,继续步骤(45);当目标误差函数小于误差阈值或者迭代次数大于最大迭代次数Nmax时,停止迭代,执行步骤(5);
(45)根据ΔWy(t),ΔWdfh(t),ΔWdfx(t),ΔWdih(t),ΔWdix(t),ΔWdch(t),ΔWdcx(t),ΔWdoh(t),ΔWdox(t),ΔWefh(t),ΔWefx(t),ΔWeih(t),ΔWeix(t),ΔWech(t),ΔWecx(t),ΔWeoh(t),ΔWeox(t),ΔWx(t)更新权值系数;
(46)返回步骤(41);
(5)通过步骤(4)得到的权系数,计算编码-解码神经网络模型最终的输出ym
2.如权利要求1所述的基于编码-解码神经网络模型的功率放大器行为建模方法,其特征在于,步骤(2)中,输入和输出数据进行归一化具体为:
Figure FDA0002902535200000061
Figure FDA0002902535200000062
其中max(·)表示求向量中最大值的运算。
3.如权利要求1所述的基于编码-解码神经网络模型的功率放大器行为建模方法,其特征在于,步骤(3)中,初始化编码-解码神经网络模型具体包括如下步骤:
(31)设置编码-解码神经网络模型输入层有P个神经元,接收归一化输入信号数据向量并将其传递到编码层;编码层有L1个长短时记忆单元,每个编码层的长短时记忆单元有遗忘门传递函数fef(u)、输入门传递函数fei(u)、单元状态传递函数fec(u)、输出门传递函数feo(u);解码层有L2个长短时记忆单元,每个解码层的长短时记忆单元有遗忘门传递函数fdf(u)、输入门传递函数fdi(u)、单元状态传递函数fdc(u)、输出门传递函数fdo(u);其中u为函数的输入变量;输出层有M个神经元,该层神经元的输出ym是解码层神经元输出的线性组合,m=1,2...M;
(32)在编码-解码神经网络模型中,有18种权系数矩阵:从输入层到编码层的N×1维权系数矩阵Wx;编码层前一时刻的输出到遗忘门的L1×L1维权系数矩阵Wefh;编码层的输入到遗忘门的L1×N维权系数矩阵Wefx;编码层前一时刻的输出到输入门的L1×L1维权系数矩阵Weih;编码层的输入到输入门的L1×N维权系数矩阵Weix;编码层前一时刻的输出到长短时记忆单元的L1×L1维权系数矩阵Wech;编码层的输入到长短时记忆单元的L1×N维权系数矩阵Wecx;编码层前一时刻的输出到输出门的L1×L1维权系数矩阵Weoh;编码层的输入到输出门的L1×N维权系数矩阵Wefx;解码层前一时刻的输出到遗忘门的L2×L2维权系数矩阵Wdfh;解码层语义向量到遗忘门的L2×L1维权系数矩阵Wdfx;解码层前一时刻的输出到输入门的L2×L2维权系数矩阵Wdih;解码层语义向量到输入门的L2×L1维权系数矩阵Wdix;解码层前一时刻的输出到长短时记忆单元的L2×L2维权系数矩阵Wdch;解码层语义向量到长短时记忆单元的L2×L1维权系数矩阵Wdcx;解码层前一时刻的输出到输出门的L2×L2维权系数矩阵Wdoh;解码层语义向量到输出门的L2×L1维权系数矩阵Wdox;从解码层到输出层的L2×M维权系数矩阵Wy,所有权系数矩阵均采用Lecun均匀分布进行初始化;
(33)设置编码-解码神经网络模型训练最大迭代次为Nmax;学习速率为η;误差函数阈值为ε。
CN201810095930.8A 2018-01-31 2018-01-31 一种基于编码-解码神经网络模型的功率放大器行为建模方法 Active CN108256257B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810095930.8A CN108256257B (zh) 2018-01-31 2018-01-31 一种基于编码-解码神经网络模型的功率放大器行为建模方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810095930.8A CN108256257B (zh) 2018-01-31 2018-01-31 一种基于编码-解码神经网络模型的功率放大器行为建模方法

Publications (2)

Publication Number Publication Date
CN108256257A CN108256257A (zh) 2018-07-06
CN108256257B true CN108256257B (zh) 2021-04-06

Family

ID=62743873

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810095930.8A Active CN108256257B (zh) 2018-01-31 2018-01-31 一种基于编码-解码神经网络模型的功率放大器行为建模方法

Country Status (1)

Country Link
CN (1) CN108256257B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109033094A (zh) * 2018-07-18 2018-12-18 五邑大学 一种基于序列到序列神经网络模型的文言文白话文互译方法及系统
CN111274752B (zh) * 2018-12-05 2022-05-03 北京大学 一种基于两级开环和二元函数的功率放大器行为建模方法
CN110472280B (zh) * 2019-07-10 2024-01-12 广东工业大学 一种基于生成对抗神经网络的功率放大器行为建模方法
CN110598261B (zh) * 2019-08-16 2021-03-30 南京航空航天大学 一种基于复数反向神经网络的功率放大器频域建模方法
CN110610030B (zh) * 2019-08-19 2021-06-22 南京航空航天大学 一种基于WaveNet神经网络结构的功率放大器行为建模方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5532950A (en) * 1994-04-25 1996-07-02 Wadia Digital Corporation Dynamic digital filter using neural networks
CN102983819A (zh) * 2012-11-08 2013-03-20 南京航空航天大学 一种功率放大器的模拟方法及功率放大器模拟装置
CN105224985A (zh) * 2015-09-28 2016-01-06 南京航空航天大学 一种基于深度重构模型的功率放大器行为建模方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5532950A (en) * 1994-04-25 1996-07-02 Wadia Digital Corporation Dynamic digital filter using neural networks
CN102983819A (zh) * 2012-11-08 2013-03-20 南京航空航天大学 一种功率放大器的模拟方法及功率放大器模拟装置
CN105224985A (zh) * 2015-09-28 2016-01-06 南京航空航天大学 一种基于深度重构模型的功率放大器行为建模方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Deep neural nets based power amplifier non-linear predistortion;Zhenyu Wang等;《Journal of Physics: Conference Series》;20171231;第1-6页 *
基于遗传神经网络的射频功放行为模型研究;丁芳军;《中国优秀硕士学位论文全文数据库.信息科技辑》;20160315(第3期);第I135-1226页 *

Also Published As

Publication number Publication date
CN108256257A (zh) 2018-07-06

Similar Documents

Publication Publication Date Title
CN108256257B (zh) 一种基于编码-解码神经网络模型的功率放大器行为建模方法
CN108153943B (zh) 基于时钟循环神经网络的功率放大器的行为建模方法
Liang et al. Stacked denoising autoencoder and dropout together to prevent overfitting in deep neural network
CN110632572B (zh) 基于无意调相特性的雷达辐射源个体识别方法及装置
US20160042271A1 (en) Artificial neurons and spiking neurons with asynchronous pulse modulation
Shiri et al. Estimation of daily suspended sediment load by using wavelet conjunction models
CN110472280B (zh) 一种基于生成对抗神经网络的功率放大器行为建模方法
CN111985523A (zh) 基于知识蒸馏训练的2指数幂深度神经网络量化方法
CN104598611A (zh) 对搜索条目进行排序的方法及系统
KR102592585B1 (ko) 번역 모델 구축 방법 및 장치
CN112086100B (zh) 基于量化误差熵的多层随机神经网络的城市噪音识别方法
CN115398450A (zh) 使用基于样本的正则化技术的迁移学习设备和方法
CN113935475A (zh) 具有脉冲时刻偏移量的脉冲神经网络的仿真与训练方法
CN114611415B (zh) 一种基于SL-TrellisNets网络的超视距传播损耗预测方法
US10956811B2 (en) Variable epoch spike train filtering
CN110610030B (zh) 一种基于WaveNet神经网络结构的功率放大器行为建模方法
CN110362881A (zh) 基于极限学习机的微波功率器件非线性模型方法
Li et al. Separation identification approach for the Hammerstein‐Wiener nonlinear systems with process noise using correlation analysis
Wang et al. Memristor-based in-circuit computation for trace-based STDP
CN115348182A (zh) 一种基于深度堆栈自编码器的长期频谱预测方法
CN109671440B (zh) 一种模拟音频失真方法、装置、服务器及存储介质
CN110188382B (zh) 基于fft与bp神经网络模型的功率放大器频域行为建模方法
CN110598261B (zh) 一种基于复数反向神经网络的功率放大器频域建模方法
Zhang et al. Reconfigurable multivalued memristor FPGA model for digital recognition
CN109474258B (zh) 基于核极化策略的随机傅立叶特征核lms的核参数优化方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant