CN110472280B - 一种基于生成对抗神经网络的功率放大器行为建模方法 - Google Patents
一种基于生成对抗神经网络的功率放大器行为建模方法 Download PDFInfo
- Publication number
- CN110472280B CN110472280B CN201910620052.1A CN201910620052A CN110472280B CN 110472280 B CN110472280 B CN 110472280B CN 201910620052 A CN201910620052 A CN 201910620052A CN 110472280 B CN110472280 B CN 110472280B
- Authority
- CN
- China
- Prior art keywords
- layer
- input
- output
- neural network
- generator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 43
- 230000003042 antagnostic effect Effects 0.000 title claims abstract description 42
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000006870 function Effects 0.000 claims abstract description 84
- 239000011159 matrix material Substances 0.000 claims abstract description 54
- 238000003062 neural network model Methods 0.000 claims abstract description 27
- 230000006399 behavior Effects 0.000 claims abstract description 24
- 238000012549 training Methods 0.000 claims abstract description 16
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims abstract description 6
- 238000005457 optimization Methods 0.000 claims abstract description 6
- 238000012546 transfer Methods 0.000 claims description 48
- 210000002569 neuron Anatomy 0.000 claims description 38
- 125000004122 cyclic group Chemical group 0.000 claims description 27
- 210000004027 cell Anatomy 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 15
- 210000005036 nerve Anatomy 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 11
- 230000001537 neural effect Effects 0.000 claims description 10
- 238000010606 normalization Methods 0.000 claims description 9
- 230000005284 excitation Effects 0.000 claims description 8
- 230000015654 memory Effects 0.000 claims description 8
- 238000010586 diagram Methods 0.000 claims description 7
- 230000000306 recurrent effect Effects 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 230000003446 memory effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000006386 memory function Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000001311 chemical methods and process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 235000003642 hunger Nutrition 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03F—AMPLIFIERS
- H03F3/00—Amplifiers with only discharge tubes or only semiconductor devices as amplifying elements
- H03F3/20—Power amplifiers, e.g. Class B amplifiers, Class C amplifiers
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Power Engineering (AREA)
- Amplifiers (AREA)
- Feedback Control In General (AREA)
Abstract
本发明公开了一种基于生成对抗神经网络的功率放大器行为建模方法,包括如下步骤:采集功率放大器的输入信号Xin和输出信号yout,并归一化处理,分别得到和构建包括生成器、判别器的生成对抗神经网络模型,并初始化;设置生成对抗神经网络模型的权系数矩阵、最大迭代次数num_epochs、学习率η、误差阈值;将输入生成器并生成数据yt,将yt和功输入判别器提取特征信息;分别计算生成器模块和判别器模块的目标误差损失函数;用Adam优化算法训练生成对抗神经网络;迭代次数加1;判断是否满足:目标误差损失函数不大于误差阀值或迭代次数大于迭代次数num_epochs,否,则根据权值矩阵的变化量更新权值系数,返回上述步骤;是,则停止迭代,保存权值系数,得到功率放大器行为模型。
Description
技术领域
本发明涉及无线通信技术领域,更具体的,涉及一种基于生成对抗神经网络的功率放大器行为建模方法。
背景技术
目前功率放大器非线性行为模型主要有两种:无记忆射频功放行为模型和有记忆射频功放行为模型。无记忆模型主要有查找表(look up table,LUT)模型、Saleh模型、复数单输入单输出前馈神经网络和双输入双输出实数神经网络等,这些模型对无记忆功放模型的拟合精度较高,且线性化效果比较明显,但是无法精确的刻画有记忆效应的功放非线性特性。目前广泛使用的是有记忆的非线性模型,如:径向基函数神经网络模型和不同拓扑结构的BP神经网路模型。记忆多项式模型是简化版的Volterra模型,其大大简化了Volterra模型饿系数。Wiener、Hammerstein模型以及其改进型模型在对功放建模的时候,功放的记忆效应部分忽略了高阶分量,因此这些模型的建模能力对于大功率带宽的功放建模精度不高。
在当今的4G、5G通信系统中,移动通信的带宽和传输速率都将有极大的提升,由于目前AD采集速率的限制,AD只能采集到通信系统中带内或者带内的一部分信号,造成一定数据丢失的问题。
发明内容
本发明为了解决由于目前AD采集速率的限制,AD只能采集到通信系统中带内或者带内的一部分信号,造成一定数据丢失的问题,提出一种基于生成对抗神经网络模型的功率放大器行为建模方法,其能防止数据丢失问题,同时具有记忆功能的特点,能用来描述功率放大器的记忆效应和非线性。
为实现上述本发明目的,采用的技术方案如下:一种基于生成对抗神经网络的功率放大器行为建模方法,所述该方法包括如下步骤:
S1:采集功率放大器的输入信号数据向量Xin=[xin(1),xin(2),…,xin(N)]和输出信号数据向量yout=[yout(1),yout(2),…,yout(N)],其中,N为数据长度;
S2:对输入信号数据向量Xin和输出信号数据向量yout进行归一化处理:得到归一化输入信号数据向量和输出信号数据向量/>
S3:构建生成对抗神经网络模型,并初始化生成对抗神经网络模型,其中生成对抗神经网路模型包括生成器、判别器;
S4:设置生成对抗神经网络模型中的权系数矩阵、训练最大迭代次数num_epochs、学习率η、误差阈值;
S5:将归一化输入信号数据向量输入生成器并生成数据yt,将数据yt和功率放大器的归一化输出信号数据向量/>输入到判别器中提取特征信息;
S6:分别计算生成器模块和判别器模块的目标误差损失函数;
S7:用Adam优化算法训练生成对抗神经网络;将学习率η上传Adam优化算法,完成训练生成对抗神经网络;
S8:迭代次数加1,即t=t+1;
S9:判断是否满足:目标误差损失函数不大于误差阀值或者迭代次数大于迭代次数num_epochs,
S10:若不满足,则根据权值矩阵的变化量更新权系数矩阵,返回步骤S5;
S11:若满足,则停止迭代,保存权系数矩阵,得到功率放大器行为模型。
优选地,步骤S2,所述归一化的计算公式如下:
式中,i=1,2,3···,N;max(·)表示求向量中最大值的运算。
进一步地,所述生成器包括第一输入层、循环神经隐含层、全连接隐含层、第一输出层;所述判别器包括第二输入层、三个卷积层、两个全连接层、第二输出层。
再进一步地,构建生成对抗神经网络模型的具体如下:
设置生成器的第一输入层有P个神经元,用于接收输入数据,并将其传递到循环神经网络隐含层;
所述循环神经网络隐含层有s个长短时记忆单元且神经元个数为Hidden,每个长短时记忆单元有遗忘门传递函数ft=σ(Wf·[ht-1,xint]+bf),其中Wf表示遗忘门传递函数的权系数矩阵,bf表示遗忘门传递函数的偏置,xint表示t时刻输入数据;
所述循环神经网络隐含层的输入分为两部分,一部分是传递函数it=σ(Wi·[ht-1,xint]+bi),其中Wi为输入门传递函数的权系数矩阵,bi为输入门传递函数的偏置;另一部分是细胞单元状态传递函数 作为存放在细胞单元的候选值,其中Wc为细胞单元状态传递函数的权系数矩阵,bc为细胞单元状态传递函数的偏置;
所述循环神经网络隐含层设有输出门传递函数ot=σ(Wo·[ht-1,xint]+bo),其中Wo为输出门传递函数的权系数矩阵,bo为输出门传递函数的偏置;ht-1为上一时刻即t-1时刻的输出值;
所述循环神经隐含层后面接一个全连接隐含层,所述全连接隐含层的神经元个数设置为Hidden个;
所述生成器的第一输出层有M个神经元,该层神经元的输出数据为yt,即生成器生成的数据;
设置判别器的第二输入层有K个神经元;第一个卷积层包括32个一维的卷积核,其输出结果经过LeakyRelu非线性函数处理;第二个卷积层包括64个一维的卷积核,先将第一卷积层的输出结果经过归一化处理后输入此层,输出结果经过LeakyRelu非线性函数处理;同样的,第三个卷积层包括128个一维的卷积核,先将第二卷积层的输出结果经过归一化处理后输入此层,输出结果经过LeakyRelu非线性函数处理;
所述第一全连接层的神经元个数设置为L1个,其输出结果经过LeakyRelu非线性处理;第二全连接层的神经元个数同样为L2,结果经过Relu非线性激活函数;所述判别器的第二输出层为单个神经元的全连接层。
再进一步地,步骤S4,在生成对抗神经网络模型中,设置如下权系数矩阵:
在生成器中,从输入层到循环神经隐含层设有包括以下权系数矩阵,分别是第一输入层到循环神经隐含层的输入门hidden×(hidden+P)维的权系数矩阵Wi,第一输入层到循环神经隐含层的遗忘门hidden×(hidden+P)维的权系数矩阵Wf,第一输入层到循环神经隐含层的输出门hidden×(hidden+P)维的权系数矩阵Wo;所述循环神经隐含层到第一输出层的1×hidden维的权系数矩阵;
在判别器中,先通过三层卷积神经网络对输入的数据进行特征提取,三层的卷积核filter_num的个数分别为32、64、128,卷积核的大小filter_size=5,strides=1,三个卷积层后接两个全连接层,最后一个卷积层到第一个全连接层的权系数矩阵W11,维度为L2×filter-num*S,其中S为输入序列的长度;第一个全连接层到第二个全连接层权系数矩阵W12,维度为L2×L1;第二个全连接层到输出层的权系数矩阵W13,维度为1×L2,其中,L2表示第二个全连接层的神经元个数;L1表示第一个全连接层的神经元个数。
再进一步地,所述生成器的初始权值Wf、Wi、Wc、Wo和判别器中的初始权值W11、W12、W13均采用Glorot分布。
再进一步地,步骤S5,将归一化输入信号数据向量通过生成器的输入层输入循环神经隐含层,进行以下计算:
第t迭代时遗忘门传递函数输出ft:
第t迭代时输入门传递函数输出it、输入门细胞单元状态传递函数细胞单元状态输出Ct:
其中, 其中Ct-1为上一个时刻即t-1的细胞单元状态输出;
第t迭代时输出门传递函数输入ot、该层的输出ht:
ot=σ(Wo·[ht-1,xt]+bo)、ht=ot*tanh(Ct);
生成器的全连接隐含层输出数据:yt=g(ht·wd+bd),其中yt表示全连接隐含层的输出向量,wd表示全连接层的权值向量,运算符号“·”表示元素相乘,bd为偏移向量,g(x)是神经元激励函数。
再进一步地,所述步骤S5,判别器分别对生成器生成的数据yt和功率放大器真实的输出数据进行提取特征信息处理,并通过不同卷积核提取数据中的不同特征Hi;
其中,Hi表示第i层的特征图,Wi表示第i层卷积核的权值向量,运算符号表示卷积核与第i-1层图像或特征图进行卷积操作,bi为偏移向量,f(x)是非线性激励函数;
全连接层输出:Yi=g(Hi·wi+bi),其中Yi表示第二全连接层的输出向量,wi表示全连接层的权系数矩阵,运算符号“·”表示元素相乘,bi为偏移向量,g(x)是神经元激励函数。
再进一步地,步骤S6,所述计算生成器模块和判别器模块的目标误差损失函数的计算公式如下:
其中:式(1)为判别器的目标误差损失函数,其中Pr为功率放大器的输出经过归一化处理的真实数据的概率分布,xr为在Pr的概率分布中的随机抽样的样本;Pg为生成器生成的假数据分布,即为yt,xg为在Pg的概率分布中的随机抽样的样本;为/>满足在xr和xg之间随机插值取样的数据分布,/>为在/>的概率分布中的随机抽样的样本;/>是将功率放大器真实的输出数据输入到判别器中求其期望值,/>是将生成器生成的假数据输入到判别器求其期望值,/>为梯度惩罚,λ为梯度惩罚参数;式(2)为生成器的目标误差损失函数,/>为生成器生成的假数据输入到判别器求其期望值。
再进一步地,步骤S,所述训练生成对抗神经网络时,设置判别器每训练Y次,生成器优化1次,其中Y≥2。
本发明的有益效果如下:
1.本发明提出一种基于生成对抗神经网络的功率放大器行为建模方法,训练一个生成器,从功率放大器输入数据中生成逼真的样本数据,同时训练一个判别器,并通过目标误差损失函数来判别真实数据和生成数据,解决了由于目前AD采集速率的限制,AD只能采集到通信系统中带内或者带内的一部分信号,造成一定数据丢失的问题。
2.在生成器内部使用了循环神经网络,利用了循环神经网络的输出不仅与即时的输入有关、也与历史输入有关的特点,用来描述功率放大器的记忆效应,解决了传统的神经网路模型只在描述短期记忆效应表现良好,对长期记忆效应描述表现很差的问题,因此它很好的描述功率放大器的非线性特性和记忆效应,且具有较快的模型收敛速度和较高的精度。
3.本发明提出一种基于生成对抗神经网络模型的功率放大器行为建模方法,此方法通过生成器和判别器对抗的训练机制,使生成的样本数据概率分布去逼近功率放大器输出真实样本数据的概率分布,隐形的从训练数据进行网络学习并且提取出其特征,能够有效的避免人工选择特征的困难。
附图说明
图1是本实施例所述生成对抗神经网路模型的结构图。
图2是本实施例所述功率放大器结构模型图。
图3是本实施例所述生成器的结构示意图。
图4是本实施例所述判别器的结构示意图。
具体实施方式
下面结合附图和具体实施方式对本发明做详细描述。
实施例1
如图1所示,一种基于生成对抗神经网络的功率放大器行为建模方法,所述该方法包括如下步骤:
S1:采集功率放大器的输入信号数据向量Xin=[xin(1),xin(2),…,xin(N)]和输出信号数据向量yout=[yout(1),yout(2),…,yout(N)],其中,N为数据长度,如图2所示,为功率放大器的输入信号数据向量Xin与输出信号数据向量yout的示意图;
S2:对输入信号数据向量Xin和输出信号数据向量yout进行归一化处理:得到归一化输入信号数据向量和输出信号数据向量/>
其中,所述归一化的计算公式如下:
式中,i=1,2,3···,N;max(·)表示求向量中最大值的运算。
S3:构建生成对抗神经网络模型,并初始化生成对抗神经网络模型,其中生成对抗神经网路模型包括生成器、判别器;
如图3所示,本实施例所述的生成器包括第一输入层、循环神经隐含层、全连接隐含层、第一输出层;所述判别器包括第二输入层、三个卷积层、两个全连接层、第二输出层,如图4所示。
本实施例所述构建生成对抗神经网络模型的具体如下:
设置生成器的第一输入层有P个神经元,用于接收输入数据,并将其传递到循环神经网络隐含层;其中P≥1;
所述循环神经网络隐含层有s个长短时记忆单元且神经元个数为Hidden,每个长短时记忆单元有遗忘门传递函数ft=σ(Wf·[ht-1,xint]+bf),其中,S≥1,Hidden≥1;Wf表示遗忘门传递函数的权系数矩阵,bf表示遗忘门传递函数的偏置,xint表示t时刻输入数据;
所述循环神经网络隐含层的输入分为两部分,一部分是传递函数it=σ(Wi·[ht-1,xint]+bi),其中Wi为输入门传递函数的权系数矩阵,bi为输入门传递函数的偏置;另一部分是细胞单元状态传递函数 作为存放在细胞单元的候选值,其中Wc为细胞单元状态传递函数的权系数矩阵,bc为细胞单元状态传递函数的偏置;
所述循环神经网络隐含层设有输出门传递函数ot=o(Wo·[ht-1,xint]+bo),其中Wo为输出门传递函数的权系数矩阵,bo为输出门传递函数的偏置;ht-1为上一时刻即t-1时刻的输出值;
所述循环神经隐含层后面接一个全连接隐含层,所述全连接隐含层的神经元个数设置为Hidden个;
所述生成器的第一输出层有M个神经元,该层神经元的输出数据为yt,即生成器生成的数据。
设置判别器的第二输入层有K个神经元,其中K≥1;第一个卷积层包括32个一维的卷积核,其输出结果经过LeakyRelu非线性函数处理;第二个卷积层包括64个一维的卷积核,先将第一卷积层的输出结果经过归一化处理后输入此层,输出结果经过LeakyRelu非线性函数处理;同样的,第三个卷积层包括128个一维的卷积核,先将第二卷积层的输出结果经过归一化处理后输入此层,输出结果经过LeakyRelu非线性函数处理;
第一全连接层的神经元个数设置为L1个,其输出结果经过LeakyRelu非线性处理;第二全连接层的神经元个数同样为L2,结果经过Relu非线性激活函数;所述判别器的第二输出层为单个神经元的全连接层,其中L1≥1、L2≥1。
S4:设置生成对抗神经网络模型中的权系数矩阵、训练最大迭代次数num_epochs、学习率η、误差阈值;
本实施例在生成对抗神经网络模型中,设置如下权系数矩阵:
在生成器中,从输入层到循环神经隐含层设有包括以下权系数矩阵,分别是第一输入层到循环神经隐含层的输入门hidden×(hidden+P)维的权系数矩阵Wi,第一输入层到循环神经隐含层的遗忘门hidden×(hidden+P)维的权系数矩阵Wf,第一输入层到循环神经隐含层的输出门hidden×(hidden+P)维的权系数矩阵Wo;所述循环神经隐含层到第一输出层的1×hidden维的权系数矩阵;
在判别器中,先通过三层卷积神经网络对输入的数据进行特征提取,三层的卷积核filter_num的个数分别为32、64、128,卷积核的大小filter_size=5,strides=1,三个卷积层后接两个全连接层,最后一个卷积层到第一个全连接层的权系数矩阵W11,维度为L2×filter_num*S,其中S为输入序列的长度;第一个全连接层到第二个全连接层权系数矩阵W12,维度为L2×L1;第二个全连接层到输出层的权系数矩阵W13,维度为1×L2,其中,L2表示第二个全连接层的神经元个数;L1表示第一个全连接层的神经元个数。
S5:将归一化输入信号数据向量通过生成器的输入层输入循环神经隐含层,进行以下计算:
第t迭代时遗忘门传递函数输出ft:
第t迭代时输入门传递函数输出it、输入门细胞单元状态传递函数细胞单元状态输出Ct:
其中, 其中Ct-1为上一个时刻即t-1的细胞单元状态输出;
第t迭代时输出门传递函数输入ot、该层的输出ht:
ot=σ(Wo·[ht-1,xt]+bo)、ht=ot*tanh(Ct);
生成器的全连接隐含层输出数据:yt=g(ht·wd+bd),其中yt表示全连接隐含层的输出向量,wd表示全连接层的权系数矩阵,运算符号“·”表示元素相乘,bd为偏移向量,g(x)是神经元激励函数;生成器最终生成数据yt并从第一输出层输出。
本实施例所述的判别器分别对生成器生成的数据yt和功率放大器真实的输出数据向量进行提取特征信息处理,并通过不同卷积核提取数据中的不同特征Hi;
其中,Hi表示第i层的特征图,Wi表示第i层卷积核的权系数矩阵,运算符号表示卷积核与第i-1层图像或特征图进行卷积操作,bi为偏移向量,f(x)是非线性激励函数;
全连接层输出:Yi=g(Hi·wi+bi),其中Yi表示第二全连接层的输出向量,wi表示全连接层的权系数矩阵,运算符号“·”表示元素相乘,bi为偏移向量,g(x)是神经元激励函数。
S6:分别计算生成器模块和判别器模块的目标误差损失函数,具体计算公式如下:
其中:式(1)为判别器的目标误差损失函数,其中Pr为功率放大器的输出经过归一化处理的真实数据的概率分布,xr为在Pr的概率分布中的随机抽样的样本;Pg为生成器生成的假数据分布,即为yt,xg为在Pg的概率分布中的随机抽样的样本;为/>满足在xr和xg之间随机插值取样的数据分布,/>为在/>的概率分布中的随机抽样的样本;/>是将功率放大器真实的输出数据输入到判别器中求其期望值,/>是将生成器生成的假数据输入到判别器求其期望值,/>为梯度惩罚,λ为梯度惩罚参数;式(2)为生成器的目标误差损失函数,/>为生成器生成的假数据输入到判别器求其期望值。
S7:用Adam优化算法训练生成对抗神经网络;将学习率η上传Adam优化算法,完成训练生成对抗神经网络;
在训练中优先让判别器学习次数多一点,设置判别器每训练5次,生成器优化一次,以此得到模型的权值矩阵变化量;
S8:迭代次数加1,即t=t+1;
S9:判断是否满足:目标误差损失函数不大于误差阀值或者迭代次数大于迭代次数num_epochs,
S10:若不满足,则根据权值矩阵的变化量更新权系数矩阵,返回步骤S5;
S11:若满足,则停止迭代,保存权系数矩阵,得到功率放大器行为模型。
本实施例所述的一种基于生成对抗神经网络模型的功率放大器行为建模方法,该方法中使用循环神经网路作为生成器,卷积神经网络作为判别器,其对序列具有良好的描述能力且能生成丢失的一部分信号的同时,生成器利用循环神经网络具有记忆功能的特点,很好用来描述功率放大器的记忆效应和非线性。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (8)
1.一种基于生成对抗神经网络的功率放大器行为建模方法,其特征在于:该方法包括如下步骤:
S1:采集功率放大器的输入信号数据向量Xin=[xin(1),xin(2),…,xin(N)]和输出信号数据向量yout=[yout(1),yout(2),…,yout(N)],其中,N为数据长度;
S2:对输入信号数据向量Xin和输出信号数据向量yout进行归一化处理:得到归一化输入信号数据向量和归一化输出信号数据向量/>
S3:构建生成对抗神经网络模型,并初始化生成对抗神经网络模型,其中生成对抗神经网路模型包括生成器、判别器;
S4:设置生成对抗神经网络模型中的权系数矩阵、训练最大迭代次数num_epochs、学习率η、误差阈值;
S5:将归一化输入信号数据向量输入生成器并生成数据yt,将数据yt和功率放大器的归一化输出信号数据向量/>输入到判别器中提取特征信息;
S6:分别计算生成器模块和判别器模块的目标误差损失函数;
S7:用Adam优化算法训练生成对抗神经网络;
S8:迭代次数加1,即n=n+1;
S9:判断是否满足:目标误差损失函数不大于误差阀值或者迭代次数大于迭代次数num_epochs,
S10:若不满足,则根据权值矩阵的变化量更新权系数矩阵,返回步骤S5;
S11:若满足,则停止迭代,保存权系数矩阵,得到功率放大器行为模型;
所述生成器包括第一输入层、循环神经隐含层、全连接隐含层、第一输出层;所述判别器包括第二输入层、三个卷积层、两个全连接层、第二输出层;
构建生成对抗神经网络模型的具体如下:
设置生成器的第一输入层有P个神经元,用于接收输入数据,并将其传递到循环神经网络隐含层;
所述循环神经网络隐含层有s个长短时记忆单元且神经元个数为Hidden,每个长短时记忆单元有遗忘门传递函数ft=σ(Wf·[ht-1,xint]+bf),Wf表示遗忘门传递函数的权系数矩阵,bf表示遗忘门传递函数的偏置,xint表示t时刻输入数据;运算符号“·”表示元素相乘;
所述循环神经网络隐含层的输入分为两部分,一部分是传递函数it=σ(Wi·[ht-1,xint]+bi),其中Wi为输入门传递函数的权系数矩阵,bi为输入门传递函数的偏置;另一部分是细胞单元状态传递函数 作为存放在细胞单元的候选值,其中Wc为细胞单元状态传递函数的权系数矩阵,bc为细胞单元状态传递函数的偏置;
所述循环神经网络隐含层设有输出门传递函数ot=σ(Wo·[ht-1,xint]+bo),其中Wo为输出门传递函数的权系数矩阵,bo为输出门传递函数的偏置;ht-1为上一时刻即t-1时刻的LSTM网络输出值;
所述循环神经隐含层后面接一个全连接隐含层,所述全连接隐含层的神经元个数设置为Hidden个;
所述生成器的第一输出层有M个神经元,该层神经元的输出数据为yt,即生成器生成的数据;
设置判别器的第二输入层有K个神经元;第一个卷积层包括32个一维的卷积核,其输出结果经过LeakyRelu非线性函数处理;第二个卷积层包括64个一维的卷积核,先将第一卷积层的输出结果经过归一化处理后输入此层,输出结果经过LeakyRelu非线性函数处理;同样的,第三个卷积层包括128个一维的卷积核,先将第二卷积层的输出结果经过归一化处理后输入此层,输出结果经过LeakyRelu非线性函数处理;
第一全连接层的神经元个数设置为L1个,其输出结果经过LeakyRelu非线性处理;第二全连接层的神经元个数同样为L2,结果经过Relu非线性激活函数;所述判别器的第二输出层为单个神经元的全连接层。
2.根据权利要求1所述的基于生成对抗神经网络的功率放大器行为建模方法,其特征在于:步骤S2,所述归一化的计算公式如下:
式中,i=1,2,3···,N;max(·)表示求向量中最大值的运算。
3.根据权利要求1所述的基于生成对抗神经网络的功率放大器行为建模方法,其特征在于:步骤S4,在生成对抗神经网络模型中,设置如下权系数矩阵:
在生成器中,从输入层到循环神经隐含层设有包括以下权系数矩阵,分别是第一输入层到循环神经隐含层的输入门hidden×(hidden+P)维的权系数矩阵Wi,第一输入层到循环神经隐含层的遗忘门hidden×(hidden+P)维的权系数矩阵Wf,第一输入层到循环神经隐含层的输出门hidden×(hidden+P)维的权系数矩阵Wo;所述循环神经隐含层到第一输出层的1×hidden维的权系数矩阵;
在判别器中,先通过三层卷积神经网络对输入的数据进行特征提取,三层的卷积核filter_num的个数分别为32、64、128,卷积核的大小filter_size=5,strides=1,三个卷积层后接两个全连接层,最后一个卷积层到第一个全连接层的权系数矩阵W11,维度为L2×filter_num*S,其中S为输入序列的长度;第一个全连接层到第二个全连接层权系数矩阵W12,维度为L2×L1;第二个全连接层到输出层的权系数矩阵W13,维度为1×L2,其中,L2表示第二个全连接层的神经元个数;L1表示第一个全连接层的神经元个数。
4.根据权利要求3所述的基于生成对抗神经网络的功率放大器行为建模方法,其特征在于:所述生成器的初始权值Wf、Wi、Wc、Wo和判别器中的初始权值W11、W12、W13均采用Glorot分布。
5.根据权利要求3所述的基于生成对抗神经网络的功率放大器行为建模方法,其特征在于:步骤S5,将归一化输入信号数据向量通过生成器的输入层输入循环神经隐含层,进行以下计算:
第t次迭代时遗忘门传递函数输出ft:
第t次迭代时输入门传递函数输出it、输入门细胞单元状态传递函数细胞单元状态输出Ct:
其中, 其中Ct-1为上一个时刻即t-1的细胞单元状态输出;
第t次迭代时输出门传递函数输入ot、该层的输出ht:
ht=ot*tanh(Ct);
生成器的全连接隐含层输出数据:yt=g(ht·wd+bd),其中yt表示全连接隐含层的输出向量,wd表示全连接层的权值向量,bd为偏移向量,g(x)是神经元激励函数。
6.根据权利要求5所述的基于生成对抗神经网络的功率放大器行为建模方法,其特征在于:所述步骤S5,判别器分别对生成器生成的数据yt和功率放大器真实的归一化输出信号数据向量进行提取特征信息处理,并通过不同卷积核提取数据中的不同特征Hi;
其中,Hi表示第i层的特征图,WTi表示第i层卷积核的权值向量,运算符号表示卷积核与第i-1层图像或特征图进行卷积操作,bk为判别器第一个全连接层的偏置,f(x)是非线性激励函数;
全连接层输出:Yi=g(Hi·wi+bk),其中Yi表示第二全连接层的输出向量,wi表示全连接层的权值向量,g(x)是神经元激励函数。
7.根据权利要求6所述的基于生成对抗神经网络的功率放大器行为建模方法,其特征在于:步骤S6,所述计算生成器模块和判别器模块的目标误差损失函数的计算公式如下:
其中:式(1)为判别器的目标误差损失函数,其中Pr为功率放大器的输出经过归一化处理的真实数据的概率分布,xr为在Pr的概率分布中的随机抽样的样本;Pg为生成器生成的假数据分布,xg为在Pg的概率分布中的随机抽样的样本;为/>满足在xr和xg之间随机插值取样的数据分布,/>为在/>的概率分布中的随机抽样的样本;/>是将功率放大器真实的输出数据输入到判别器中求其期望值,/>是将生成器生成的假数据输入到判别器求其期望值,/>为梯度惩罚,λ为梯度惩罚参数;式(2)为生成器的目标误差损失函数,/>为生成器生成的假数据输入到判别器求其期望值。
8.根据权利要求7所述的基于生成对抗神经网络的功率放大器行为建模方法,其特征在于:步骤S7,所述训练生成对抗神经网络时,设置判别器每训练Y次,生成器优化1次,其中Y≥2。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910620052.1A CN110472280B (zh) | 2019-07-10 | 2019-07-10 | 一种基于生成对抗神经网络的功率放大器行为建模方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910620052.1A CN110472280B (zh) | 2019-07-10 | 2019-07-10 | 一种基于生成对抗神经网络的功率放大器行为建模方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110472280A CN110472280A (zh) | 2019-11-19 |
CN110472280B true CN110472280B (zh) | 2024-01-12 |
Family
ID=68507215
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910620052.1A Active CN110472280B (zh) | 2019-07-10 | 2019-07-10 | 一种基于生成对抗神经网络的功率放大器行为建模方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110472280B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110942101B (zh) * | 2019-11-29 | 2023-06-27 | 湖南科技大学 | 基于深度生成式对抗网络的滚动轴承剩余寿命预测方法 |
CN111859795A (zh) * | 2020-07-14 | 2020-10-30 | 东南大学 | 针对功率放大器的多项式辅助神经网络行为建模系统及方法 |
CN112597702B (zh) * | 2020-12-21 | 2022-07-19 | 电子科技大学 | 基于径向基函数的气动建模生成式对抗网络模型训练方法 |
CN112909954B (zh) * | 2020-12-30 | 2023-12-15 | 燕山大学 | 一种基于生成对抗神经网络的微电网分层控制策略 |
CN113487107B (zh) * | 2021-07-28 | 2024-04-12 | 华南农业大学 | 基于多层径向基网络的大型动物体重自动评估方法、系统及介质 |
CN114362859B (zh) * | 2021-12-28 | 2024-03-29 | 杭州电子科技大学 | 增强条件生成对抗网络的自适应信道建模方法及系统 |
CN115270891A (zh) * | 2022-08-22 | 2022-11-01 | 苏州大学 | 一种信号对抗样本的生成方法、装置、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018093910A1 (en) * | 2016-11-17 | 2018-05-24 | Xilinx, Inc. | Method of and circuit for predistortion for a power amplifier |
CN108153943A (zh) * | 2017-12-08 | 2018-06-12 | 南京航空航天大学 | 基于时钟循环神经网络的功率放大器的行为建模方法 |
CN108256257A (zh) * | 2018-01-31 | 2018-07-06 | 南京航空航天大学 | 一种基于编码-解码神经网络模型的功率放大器行为建模方法 |
CN108734276A (zh) * | 2018-04-28 | 2018-11-02 | 同济大学 | 一种基于对抗生成网络的模仿学习对话生成方法 |
CN109523014A (zh) * | 2018-10-22 | 2019-03-26 | 广州大学 | 基于生成式对抗网络模型的新闻评论自动生成方法及系统 |
-
2019
- 2019-07-10 CN CN201910620052.1A patent/CN110472280B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018093910A1 (en) * | 2016-11-17 | 2018-05-24 | Xilinx, Inc. | Method of and circuit for predistortion for a power amplifier |
CN108153943A (zh) * | 2017-12-08 | 2018-06-12 | 南京航空航天大学 | 基于时钟循环神经网络的功率放大器的行为建模方法 |
CN108256257A (zh) * | 2018-01-31 | 2018-07-06 | 南京航空航天大学 | 一种基于编码-解码神经网络模型的功率放大器行为建模方法 |
CN108734276A (zh) * | 2018-04-28 | 2018-11-02 | 同济大学 | 一种基于对抗生成网络的模仿学习对话生成方法 |
CN109523014A (zh) * | 2018-10-22 | 2019-03-26 | 广州大学 | 基于生成式对抗网络模型的新闻评论自动生成方法及系统 |
Non-Patent Citations (2)
Title |
---|
Dynamic Behavioral Modeling of Power Amplifiers Using ANFIS-Based Hammerstein;Jianfeng Zhai .et;IEEE MICROWAVE AND WIRELESS COMPONENTS LETTERS;第10卷(第10期);第704-706页 * |
Modeling of Long Term Memory Effects in RF Power Amplifiers with Dynamic Parameters;Ali Soltani Tehrani .et;2012 IEEE/MTT-S International Microwave Symposium-MTT 2012;正文第1-3页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110472280A (zh) | 2019-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110472280B (zh) | 一种基于生成对抗神经网络的功率放大器行为建模方法 | |
Ma et al. | Partially‐coupled least squares based iterative parameter estimation for multi‐variable output‐error‐like autoregressive moving average systems | |
Ergen et al. | Efficient online learning algorithms based on LSTM neural networks | |
CN110515456B (zh) | 基于注意力机制的脑电信号情感判别方法及装置 | |
CN110926782B (zh) | 断路器故障类型判断方法、装置、电子设备及存储介质 | |
CN109657890B (zh) | 一种转账欺诈的风险确定方法及装置 | |
Yang et al. | Online sequential echo state network with sparse RLS algorithm for time series prediction | |
CN112667080A (zh) | 基于深度卷积对抗网络的脑电信号无人平台智能控制方法 | |
US11062208B2 (en) | Update management for RPU array | |
CN112288086A (zh) | 一种神经网络的训练方法、装置以及计算机设备 | |
Raja et al. | Adaptive strategies for parameter estimation of Box–Jenkins systems | |
CN114417427A (zh) | 一种面向深度学习的数据敏感属性脱敏系统及方法 | |
CN112651519A (zh) | 一种基于深度学习理论的二次设备故障定位方法及系统 | |
Al-Ridha et al. | Expecting confirmed and death cases of covid-19 in Iraq by utilizing backpropagation neural network | |
Miao et al. | Learning robust state observers using neural odes | |
CN113449815A (zh) | 一种基于深度包分析的异常包检测方法及系统 | |
CN117290700A (zh) | 基于双模图特征融合的无线通信网络异常检测方法 | |
Kim et al. | Deep neural network based matrix completion for Internet of Things network localization | |
CN115348182A (zh) | 一种基于深度堆栈自编码器的长期频谱预测方法 | |
Kumar et al. | QR‐based robust diffusion strategies for wireless sensor networks using minimum‐Wilcoxon‐norm | |
CN114519430A (zh) | 一种软量子神经网络系统及模式识别方法 | |
JP7148445B2 (ja) | 情報推定装置及び情報推定方法 | |
CN110598261A (zh) | 一种基于复数反向神经网络的功率放大器频域建模方法 | |
CN115879513B (zh) | 一种数据的层次化标准化方法、装置和电子设备 | |
Zhang et al. | Using orthogonal grey wolf optimizer with mutation for training multi-layer perceptron neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |