CN110472280A - 一种基于生成对抗神经网络的功率放大器行为建模方法 - Google Patents
一种基于生成对抗神经网络的功率放大器行为建模方法 Download PDFInfo
- Publication number
- CN110472280A CN110472280A CN201910620052.1A CN201910620052A CN110472280A CN 110472280 A CN110472280 A CN 110472280A CN 201910620052 A CN201910620052 A CN 201910620052A CN 110472280 A CN110472280 A CN 110472280A
- Authority
- CN
- China
- Prior art keywords
- layer
- neural network
- output
- input
- power amplifier
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 44
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000006870 function Effects 0.000 claims abstract description 82
- 239000011159 matrix material Substances 0.000 claims abstract description 36
- 230000006399 behavior Effects 0.000 claims abstract description 26
- 238000003062 neural network model Methods 0.000 claims abstract description 25
- 238000012549 training Methods 0.000 claims abstract description 17
- 238000005457 optimization Methods 0.000 claims abstract description 8
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims abstract description 6
- 239000000284 extract Substances 0.000 claims abstract description 5
- 210000002569 neuron Anatomy 0.000 claims description 38
- 238000012546 transfer Methods 0.000 claims description 33
- 230000001537 neural effect Effects 0.000 claims description 19
- 210000004027 cell Anatomy 0.000 claims description 18
- 230000005540 biological transmission Effects 0.000 claims description 16
- 230000000306 recurrent effect Effects 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 9
- 230000005284 excitation Effects 0.000 claims description 7
- 210000005036 nerve Anatomy 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000015654 memory Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000004064 recycling Methods 0.000 claims description 6
- 230000006403 short-term memory Effects 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 3
- 230000003321 amplification Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 230000010365 information processing Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 3
- 230000004069 differentiation Effects 0.000 claims 1
- 210000004218 nerve net Anatomy 0.000 claims 1
- 230000000694 effects Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 230000003446 memory effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000007787 long-term memory Effects 0.000 description 2
- 230000006386 memory function Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000009394 selective breeding Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03F—AMPLIFIERS
- H03F3/00—Amplifiers with only discharge tubes or only semiconductor devices as amplifying elements
- H03F3/20—Power amplifiers, e.g. Class B amplifiers, Class C amplifiers
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Power Engineering (AREA)
- Feedback Control In General (AREA)
- Amplifiers (AREA)
Abstract
本发明公开了一种基于生成对抗神经网络的功率放大器行为建模方法,包括如下步骤:采集功率放大器的输入信号Xin和输出信号yout,并归一化处理,分别得到和构建包括生成器、判别器的生成对抗神经网络模型,并初始化;设置生成对抗神经网络模型的权系数矩阵、最大迭代次数num_epochs、学习率η、误差阈值;将输入生成器并生成数据yt,将yt和功输入判别器提取特征信息;分别计算生成器模块和判别器模块的目标误差损失函数;用Adam优化算法训练生成对抗神经网络;迭代次数加1;判断是否满足:目标误差损失函数不大于误差阀值或迭代次数大于迭代次数num_epochs,否,则根据权值矩阵的变化量更新权值系数,返回上述步骤;是,则停止迭代,保存权值系数,得到功率放大器行为模型。
Description
技术领域
本发明涉及无线通信技术领域,更具体的,涉及一种基于生成对抗神经网络的功率放大器行为建模方法。
背景技术
目前功率放大器非线性行为模型主要有两种:无记忆射频功放行为模型和有记忆射频功放行为模型。无记忆模型主要有查找表(look up table,LUT)模型、Saleh模型、复数单输入单输出前馈神经网络和双输入双输出实数神经网络等,这些模型对无记忆功放模型的拟合精度较高,且线性化效果比较明显,但是无法精确的刻画有记忆效应的功放非线性特性。目前广泛使用的是有记忆的非线性模型,如:径向基函数神经网络模型和不同拓扑结构的BP神经网路模型。记忆多项式模型是简化版的Volterra模型,其大大简化了Volterra模型饿系数。Wiener、Hammerstein模型以及其改进型模型在对功放建模的时候,功放的记忆效应部分忽略了高阶分量,因此这些模型的建模能力对于大功率带宽的功放建模精度不高。
在当今的4G、5G通信系统中,移动通信的带宽和传输速率都将有极大的提升,由于目前AD采集速率的限制,AD只能采集到通信系统中带内或者带内的一部分信号,造成一定数据丢失的问题。
发明内容
本发明为了解决由于目前AD采集速率的限制,AD只能采集到通信系统中带内或者带内的一部分信号,造成一定数据丢失的问题,对传统的神经网路模型只在描述短期记忆效应表现良好,对长期记忆效应描述表现很差的问题,提出一种基于生成对抗神经网络模型的功率放大器行为建模方法,其能防止数据丢失问题,同时具有记忆功能的特点,能用来描述功率放大器的记忆效应和非线性。
为实现上述本发明目的,采用的技术方案如下:一种基于生成对抗神经网络的功率放大器行为建模方法,所述该方法包括如下步骤:
S1:采集功率放大器的输入信号数据向量Xin=[xin(1),xin(2),…,xin(N)]和输出信号数据向量yout=[yout(1),yout(2),…,yout(N)],其中,N为数据长度;
S2:对输入信号数据向量Xin和输出信号数据向量yout进行归一化处理:得到归一化输入信号数据向量和输出信号数据向量
S3:构建生成对抗神经网络模型,并初始化生成对抗神经网络模型,其中生成对抗神经网路模型包括生成器、判别器;
S4:设置生成对抗神经网络模型中的权系数矩阵、训练最大迭代次数num_epochs、学习率η、误差阈值;
S5:将输入信号数据向量输入生成器并生成数据yt,将数据yt和功率放大器的输出数据向量输入到判别器中提取特征信息;
S6:分别计算生成器模块和判别器模块的目标误差损失函数;
S7:用Adam优化算法训练生成对抗神经网络;将学习率η上传Adam优化算法,完成训练生成对抗神经网络;
S8:迭代次数加1,即t=t+1;
S9:判断是否满足:目标误差损失函数不大于误差阀值或者迭代次数大于迭代次数num_epochs,
S10:若不满足,则根据权值矩阵的变化量更新权值系数,返回步骤S5;
S11:若满足,则停止迭代,保存权值系数,得到功率放大器行为模型。
优选地,步骤S2,所述归一化的计算公式如下:
式中,i=1,2,3…,N;max(·)表示求向量中最大值的运算。
进一步地,所述生成器包括第一输入层、循环神经隐含层、全连接隐含层、第一输出层;所述判别器包括第二输入层、三个卷积层、两个全连接层、第二输出层。
再进一步地,构建生成对抗神经网络模型的具体如下:
设置生成器的第一输入层有P个神经元,用于接收输入数据,并将其传递到循环神经网络隐含层;
所述循环神经网络隐含层有S个长短时记忆单元且神经元个数为Hidden,每个长短时记忆单元有遗忘门传递函数ft=σ(Wf·[ht-1,xint]+bf),其中Wf表示遗忘门传递函数的权重,bf表示遗忘门传递函数的偏置,xint表示t时刻输入数据;
所述循环神经网络隐含层的输入分为两部分,一部分是传递函数其中Wi为输入门传递函数的权重,bi为输入门传递函数的偏置;另一部分是细胞单元状态传递函数 作为存放在细胞单元的候选值,其中Wc为细胞单元状态传递函数的权重,bc为细胞单元状态传递函数的偏置;
所述循环神经网络隐含层设有输出门传递函数ot=σ(Wo·[ht-1,xint]+bo),其中Wo为输出门传递函数的权重,bo为输出门传递函数的偏置;ht-1为上一时刻即t-1时刻的输出值;
所述循环神经隐含层后面接一个全连接隐含层,所述全连接隐含层的神经元个数设置为Hidden个;
所述生成器的第一输出层有M个神经元,该层神经元的输出数据为yt,即生成器生成的数据;
设置判别器的第二输入层有K个神经元;第一个卷积层包括32个一维的卷积核,其输出结果经过LeakyRelu非线性函数处理;第二个卷积层包括64个一维的卷积核,先将第一卷积层的输出结果经过归一化处理后输入此层,输出结果经过LeakyRelu非线性函数处理;同样的,第三个卷积层包括128个一维的卷积核,先将第二卷积层的输出结果经过归一化处理后输入此层,输出结果经过LeakyRelu非线性函数处理;
所述第一全连接层的神经元个数设置为L1个,其输出结果经过LeakyRelu非线性处理;第二全连接层的神经元个数同样为L2,结果经过Relu非线性激活函数;所述判别器的第二输出层为单个神经元的全连接层。
再进一步地,步骤S4,在生成对抗神经网络模型中,设置如下权系数矩阵:
在生成器中,从输入层到循环神经隐含层设有包括以下权系数矩阵,分别是第一输入层到循环神经隐含层的输入门hidden×(hidden+P)维的权系数矩阵Wi,第一输入层到循环神经隐含层的遗忘门hidden×(hidden+P)维的权系数矩阵Wf,第一输入层到循环神经隐含层的输出门hidden×(hidden+P)维的权系数矩阵Wo;所述循环神经隐含层到第一输出层的1×hidden维的权系数矩阵;
在判别器中,先通过三层卷积神经网络对输入的数据进行特征提取,三层的卷积核filt_er的个数分别为32、64、128,卷积核的大小filter_size=5,strides=1,三个卷积层后接两个全连接层,最后一个卷积层到第一个全连接层的权系数矩阵W11,维度为L2×filter_num*S,其中S为输入序列的长度;第一个全连接层到第二个全连接层权系数矩阵W12,维度为L2×L1;第二个全连接层到输出层的权系数矩阵W13,维度为1×L2,其中,L2表示第二个全连接层的神经元个数;L1表示第一个全连接层的神经元个数。
再进一步地,所述生成器的初始权值Wf、Wi、Wc、Wo和判别器中的初始权值W11、W12、W13均采用Glorot分布。
再进一步地,步骤S5,将输入信号数据向量通过生成器的输入层输入循环神经隐含层,进行以下计算:
第t迭代时遗忘门传递函数输出ft:
第t迭代时输入门传递函数输出it、输入门细胞单元状态传递函数细胞单元状态输出Ct:
其中, 其中Ct-1为上一个时刻即t-1的细胞单元状态输出;
第t迭代时输出门传递函数输入ot、该层的输出ht:
ot=σ(Wo·[ht-1,xt]+bo)、ht=ot*tanh(Ct);
生成器的全连接隐含层输出数据:yt=g(ht·wd+bd),其中yt表示全连接隐含层的输出向量,wd表示全连接层的权值向量,运算符号“·”表示元素相乘,bd为偏移向量,g(x)是神经元激励函数。
再进一步地,所述步骤S5,判别器分别对生成器生成的数据yt和功率放大器真实的输出数据进行提取特征信息处理,并通过不同卷积核提取数据中的不同特征Hi;
其中,Hi表示第i层的特征图,H0=Rn×n,Wi表示第i层卷积核的权值向量,运算符号表示卷积核与第i-1层图像或特征图进行卷积操作,bi为偏移向量,f(x)是非线性激励函数;
全连接层输出:Yi=g(Hi·wi+bi),其中Yi表示第二全连接层的输出向量,wi表示全连接层的权值向量,运算符号“·”表示元素相乘,bi为偏移向量,g(x)是神经元激励函数。
再进一步地,步骤S6,所述计算生成器模块和判别器模块的目标误差损失函数的计算公式如下:
其中:式(1)为判别器的目标误差损失函数,其中Pr为功率放大器的输出经过归一化处理的真实数据的概率分布,xr为在Pr的概率分布中的随机抽样的样本;Pg为生成器生成的假数据分布,即为yt,xg为在Pg的概率分布中的随机抽样的样本;为满足在xr和xg之间随机插值取样的数据分布,为在的概率分布中的随机抽样的样本;是将功率放大器真实的输出数据输入到判别器中求其期望值,是将生成器生成的假数据输入到判别器求其期望值,为梯度惩罚,λ为梯度惩罚参数;式(2)为生成器的目标误差损失函数,为生成器生成的假数据输入到判别器求其期望值。
再进一步地,步骤S,所述训练生成对抗神经网络时,设置判别器每训练Y次,生成器优化1次,其中Y≥2。
本发明的有益效果如下:
1.本发明提出一种基于生成对抗神经网络的功率放大器行为建模方法,训练一个生成器,从功率放大器输入数据中生成逼真的样本数据,同时训练一个判别器,并通过目标误差损失函数来判别真实数据和生成数据,解决了由于目前AD采集速率的限制,AD只能采集到通信系统中带内或者带内的一部分信号,造成一定数据丢失的问题。
2.在生成器内部使用了循环神经网络,利用了循环神经网络的输出不仅与即时的输入有关、也与历史输入有关的特点,用来描述功率放大器的记忆效应,解决了传统的神经网路模型只在描述短期记忆效应表现良好,对长期记忆效应描述表现很差的问题,因此它很好的描述功率放大器的非线性特性和记忆效应,且具有较快的模型收敛速度和较高的精度。
3.本发明提出一种基于生成对抗神经网络模型的功率放大器行为建模方法,此方法通过生成器和判别器对抗的训练机制,使生成的样本数据概率分布去逼近功率放大器输出真实样本数据的概率分布,隐形的从训练数据进行网络学习并且提取出其特征,能够有效的避免人工选择特征的困难。
附图说明
图1是本实施例所述生成对抗神经网路模型的结构图。
图2是本实施例所述功率放大器结构模型图。
图3是本实施例所述生成器的结构示意图。
图4是本实施例所述判别器的结构示意图。
具体实施方式
下面结合附图和具体实施方式对本发明做详细描述。
实施例1
如图1所示,一种基于生成对抗神经网络的功率放大器行为建模方法,所述该方法包括如下步骤:
S1:采集功率放大器的输入信号数据向量Xin=[xin(1),xin(2),…,xin(N)]和输出信号数据向量yout=[yout(1),yout(2),…,yout(N)],其中,N为数据长度,如图2所示,为功率放大器的输入信号数据向量Xin与输出信号数据向量yout的示意图;
S2:对输入信号数据向量Xin和输出信号数据向量yout进行归一化处理:得到归一化输入信号数据向量和输出信号数据向量
其中,所述归一化的计算公式如下:
式中,i=1,2,3…,N;max(·)表示求向量中最大值的运算。
S3:构建生成对抗神经网络模型,并初始化生成对抗神经网络模型,其中生成对抗神经网路模型包括生成器、判别器;
如图3所示,本实施例所述的生成器包括第一输入层、循环神经隐含层、全连接隐含层、第一输出层;所述判别器包括第二输入层、三个卷积层、两个全连接层、第二输出层,如图4所示。
本实施例所述构建生成对抗神经网络模型的具体如下:
设置生成器的第一输入层有P个神经元,用于接收输入数据,并将其传递到循环神经网络隐含层;其中P≥1;
所述循环神经网络隐含层有S个长短时记忆单元且神经元个数为Hidden,每个长短时记忆单元有遗忘门传递函数ft=σ(Wf·[ht-1,xint]+bf),其中,S≥1,Hidden≥1;Wf表示遗忘门传递函数的权重,bf表示遗忘门传递函数的偏置,xint表示t时刻输入数据;
所述循环神经网络隐含层的输入分为两部分,一部分是传递函数其中Wi为输入门传递函数的权重,bi为输入门传递函数的偏置;另一部分是细胞单元状态传递函数 作为存放在细胞单元的候选值,其中Wc为细胞单元状态传递函数的权重,bc为细胞单元状态传递函数的偏置;
所述循环神经网络隐含层设有输出门传递函数ot=σ(Wo·[ht-1,xint]+bo),其中Wo为输出门传递函数的权重,bo为输出门传递函数的偏置;ht-1为上一时刻即t-1时刻的输出值;
所述循环神经隐含层后面接一个全连接隐含层,所述全连接隐含层的神经元个数设置为Hidden个;
所述生成器的第一输出层有M个神经元,该层神经元的输出数据为yt,即生成器生成的数据。
设置判别器的第二输入层有K个神经元,其中K≥1;第一个卷积层包括32个一维的卷积核,其输出结果经过LeakyRelu非线性函数处理;第二个卷积层包括64个一维的卷积核,先将第一卷积层的输出结果经过归一化处理后输入此层,输出结果经过LeakyRelu非线性函数处理;同样的,第三个卷积层包括128个一维的卷积核,先将第二卷积层的输出结果经过归一化处理后输入此层,输出结果经过LeakyRelu非线性函数处理;
所述第一全连接层的神经元个数设置为L1个,其输出结果经过LeakyRelu非线性处理;第二全连接层的神经元个数同样为L2,结果经过Relu非线性激活函数;所述判别器的第二输出层为单个神经元的全连接层,其中L1≥1、L2≥1。
S4:设置生成对抗神经网络模型中的权系数矩阵、训练最大迭代次数num_epochs、学习率η、误差阈值;
本实施例在生成对抗神经网络模型中,设置如下权系数矩阵:
在生成器中,从输入层到循环神经隐含层设有包括以下权系数矩阵,分别是第一输入层到循环神经隐含层的输入门hidden×(hidden+P)维的权系数矩阵Wi,第一输入层到循环神经隐含层的遗忘门hidden×(hidden+P)维的权系数矩阵Wf,第一输入层到循环神经隐含层的输出门hidden×(hidden+P)维的权系数矩阵Wo;所述循环神经隐含层到第一输出层的1×hidden维的权系数矩阵;
在判别器中,先通过三层卷积神经网络对输入的数据进行特征提取,三层的卷积核filt_er的个数分别为32、64、128,卷积核的大小filter_size=5,strides=1,三个卷积层后接两个全连接层,最后一个卷积层到第一个全连接层的权系数矩阵W11,维度为L2×filter-num*S,其中S为输入序列的长度;第一个全连接层到第二个全连接层权系数矩阵W12,维度为L2×L1;第二个全连接层到输出层的权系数矩阵W13,维度为1×L2,其中,L2表示第二个全连接层的神经元个数;L1表示第一个全连接层的神经元个数。
S5:将输入信号数据向量通过生成器的输入层输入循环神经隐含层,进行以下计算:
第t迭代时遗忘门传递函数输出ft:
第t迭代时输入门传递函数输出it、输入门细胞单元状态传递函数细胞单元状态输出Ct:
其中, 其中Ct-1为上一个时刻即t-1的细胞单元状态输出;
第t迭代时输出门传递函数输入ot、该层的输出ht:
ot=σ(Wo·[ht-1,xt]+bo)、ht=ot*tanh(Ct);
生成器的全连接隐含层输出数据:yt=g(ht·wd+bd),其中yt表示全连接隐含层的输出向量,wd表示全连接层的权值向量,运算符号“·”表示元素相乘,bd为偏移向量,g(x)是神经元激励函数;生成器最终生成数据yt并从第一输出层输出。
本实施例所述的判别器分别对生成器生成的数据yt和功率放大器真实的输出数据向量进行提取特征信息处理,并通过不同卷积核提取数据中的不同特征Hi;
其中,Hi表示第i层的特征图,H0=Rn×n,Wi表示第i层卷积核的权值向量,运算符号表示卷积核与第i-1层图像或特征图进行卷积操作,bi为偏移向量,f(x)是非线性激励函数;
全连接层输出:Yi=g(Hi·wi+bi),其中Yi表示第二全连接层的输出向量,wi表示全连接层的权值向量,运算符号“·”表示元素相乘,bi为偏移向量,g(x)是神经元激励函数。
S6:分别计算生成器模块和判别器模块的目标误差损失函数,具体计算公式如下:
其中:式(1)为判别器的目标误差损失函数,其中Pr为功率放大器的输出经过归一化处理的真实数据的概率分布,xr为在Pr的概率分布中的随机抽样的样本;Pg为生成器生成的假数据分布,即为yt,xg为在Pg的概率分布中的随机抽样的样本;为满足在xr和xg之间随机插值取样的数据分布,为在的概率分布中的随机抽样的样本;是将功率放大器真实的输出数据输入到判别器中求其期望值,是将生成器生成的假数据输入到判别器求其期望值,为梯度惩罚,λ为梯度惩罚参数;式(2)为生成器的目标误差损失函数,为生成器生成的假数据输入到判别器求其期望值。
S7:用Adam优化算法训练生成对抗神经网络;将学习率η上传Adam优化算法,完成训练生成对抗神经网络;
在训练中优先让判别器学习次数多一点,设置判别器每训练5次,生成器优化一次,以此得到模型的权值矩阵变化量;
S8:迭代次数加1,即t=t+1;
S9:判断是否满足:目标误差损失函数不大于误差阀值或者迭代次数大于迭代次数num_epochs,
S10:若不满足,则根据权值矩阵的变化量更新权值系数,返回步骤S5;
S11:若满足,则停止迭代,保存权值系数,得到功率放大器行为模型。
本实施例所述的一种基于生成对抗神经网络模型的功率放大器行为建模方法,该方法中使用循环神经网路作为生成器,卷积神经网络作为判别器,其对序列具有良好的描述能力且能生成丢失的一部分信号的同时,生成器利用循环神经网络具有记忆功能的特点,很好用来描述功率放大器的记忆效应和非线性。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (10)
1.一种基于生成对抗神经网络的功率放大器行为建模方法,其特征在于:所述该方法包括如下步骤:
S1:采集功率放大器的输入信号数据向量Xin=[xin(1),xin(2),…,xin(N)]和输出信号数据向量yout=[yout(1),yout(2),…,yout(N)],其中,N为数据长度;
S2:对输入信号数据向量Xin和输出信号数据向量yout进行归一化处理:得到归一化输入信号数据向量和输出信号数据向量
S3:构建生成对抗神经网络模型,并初始化生成对抗神经网络模型,其中生成对抗神经网路模型包括生成器、判别器;
S4:设置生成对抗神经网络模型中的权系数矩阵、训练最大迭代次数num_epochs、学习率η、误差阈值;
S5:将输入信号数据向量输入生成器并生成数据yt,将数据yt和功率放大器的输出数据向量输入到判别器中提取特征信息;
S6:分别计算生成器模块和判别器模块的目标误差损失函数;
S7:用Adam优化算法训练生成对抗神经网络;
S8:迭代次数加1,即t=t+1;
S9:判断是否满足:目标误差损失函数不大于误差阀值或者迭代次数大于迭代次数num_epochs,
S10:若不满足,则根据权值矩阵的变化量更新权值系数,返回步骤S5;
S11:若满足,则停止迭代,保存权值系数,得到功率放大器行为模型。
2.根据权利要求1所述的基于生成对抗神经网络的功率放大器行为建模方法,其特征在于:步骤S2,所述归一化的计算公式如下:
式中,i=1,2,3…,N;max(·)表示求向量中最大值的运算。
3.根据权利要求1所述的基于生成对抗神经网络的功率放大器行为建模方法,其特征在于:所述生成器包括第一输入层、循环神经隐含层、全连接隐含层、第一输出层;所述判别器包括第二输入层、三个卷积层、两个全连接层、第二输出层。
4.根据权利要求3所述的基于生成对抗神经网络的功率放大器行为建模方法,其特征在于:构建生成对抗神经网络模型的具体如下:
设置生成器的第一输入层有P个神经元,用于接收输入数据,并将其传递到循环神经网络隐含层;
所述循环神经网络隐含层有S个长短时记忆单元且神经元个数为Hidden,每个长短时记忆单元有遗忘门传递函数ft=σ(Wf·[ht-1,xint]+bf),其中Wf表示遗忘门传递函数的权重,bf表示遗忘门传递函数的偏置,xint表示t时刻输入数据;
所述循环神经网络隐含层的输入分为两部分,一部分是传递函数其中Wi为输入门传递函数的权重,bi为输入门传递函数的偏置;另一部分是细胞单元状态传递函数 作为存放在细胞单元的候选值,其中Wc为细胞单元状态传递函数的权重,bc为细胞单元状态传递函数的偏置;
所述循环神经网络隐含层设有输出门传递函数ot=σ(Wo·[ht-1,xint]+bo),其中Wo为输出门传递函数的权重,bo为输出门传递函数的偏置;ht-1为上一时刻即t-1时刻的输出值;
所述循环神经隐含层后面接一个全连接隐含层,所述全连接隐含层的神经元个数设置为Hidden个;
所述生成器的第一输出层有M个神经元,该层神经元的输出数据为yt,即生成器生成的数据;
设置判别器的第二输入层有K个神经元;第一个卷积层包括32个一维的卷积核,其输出结果经过LeakyRelu非线性函数处理;第二个卷积层包括64个一维的卷积核,先将第一卷积层的输出结果经过归一化处理后输入此层,输出结果经过LeakyRelu非线性函数处理;同样的,第三个卷积层包括128个一维的卷积核,先将第二卷积层的输出结果经过归一化处理后输入此层,输出结果经过LeakyRelu非线性函数处理;
所述第一全连接层的神经元个数设置为L1个,其输出结果经过LeakyRelu非线性处理;第二全连接层的神经元个数同样为L2,结果经过Relu非线性激活函数;所述判别器的第二输出层为单个神经元的全连接层。
5.根据权利要求4所述的基于生成对抗神经网络的功率放大器行为建模方法,其特征在于:步骤S4,在生成对抗神经网络模型中,设置如下权系数矩阵:
在生成器中,从输入层到循环神经隐含层设有包括以下权系数矩阵,分别是第一输入层到循环神经隐含层的输入门hidden×(hidden+P)维的权系数矩阵Wi,第一输入层到循环神经隐含层的遗忘门hidden×(hidden+P)维的权系数矩阵Wf,第一输入层到循环神经隐含层的输出门hidden×(hidden+P)维的权系数矩阵Wo;所述循环神经隐含层到第一输出层的1×hidden维的权系数矩阵;
在判别器中,先通过三层卷积神经网络对输入的数据进行特征提取,三层的卷积核的个数分别为32、64、128,卷积核的大小filter_size=5,strides=1,三个卷积层后接两个全连接层,最后一个卷积层到第一个全连接层的权系数矩阵W11,维度为L2×filter_num*S,其中S为输入序列的长度;第一个全连接层到第二个全连接层权系数矩阵W12,维度为L2×L1;第二个全连接层到输出层的权系数矩阵W13,维度为1×L2,其中,L2表示第二个全连接层的神经元个数;L1表示第一个全连接层的神经元个数。
6.根据权利要求5所述的基于生成对抗神经网络的功率放大器行为建模方法,其特征在于:所述生成器的初始权值Wf、Wi、Wc、Wo和判别器中的初始权值W11、W12、W13均采用Glorot分布。
7.根据权利要求5所述的基于生成对抗神经网络的功率放大器行为建模方法,其特征在于:步骤S5,将输入信号数据向量通过生成器的输入层输入循环神经隐含层,进行以下计算:
第t迭代时遗忘门传递函数输出ft:
第t迭代时输入门传递函数输出it、输入门细胞单元状态传递函数细胞单元状态输出Ct:
其中, 其中Ct-1为上一个时刻即t-1的细胞单元状态输出;
第t迭代时输出门传递函数输入ot、该层的输出ht:
ot=σ(Wo·[ht-1,xt]+bo)、ht=ot *tanh(Ct);
生成器的全连接隐含层输出数据:yt=g(ht·wd+bd),其中yt表示全连接隐含层的输出向量,wd表示全连接层的权值向量,运算符号“·”表示元素相乘,bd为偏移向量,g(x)是神经元激励函数。
8.根据权利要求7所述的基于生成对抗神经网络的功率放大器行为建模方法,其特征在于:所述步骤S5,判别器分别对生成器生成的数据yt和功率放大器真实的输出数据进行提取特征信息处理,并通过不同卷积核提取数据中的不同特征Hi;
其中,Hi表示第i层的特征图,H0=Rn×n,Wi表示第i层卷积核的权值向量,运算符号表示卷积核与第i-1层图像或特征图进行卷积操作,bi为偏移向量,f(x)是非线性激励函数;
全连接层输出:Yi=g(Hi·wi+bi),其中Yi表示第二全连接层的输出向量,wi表示全连接层的权值向量,运算符号“·”表示元素相乘,bi为偏移向量,g(x)是神经元激励函数。
9.根据权利要求8所述的基于生成对抗神经网络的功率放大器行为建模方法,其特征在于:步骤S6,所述计算生成器模块和判别器模块的目标误差损失函数的计算公式如下:
其中:式(1)为判别器的目标误差损失函数,其中Pr为功率放大器的输出经过归一化处理的真实数据的概率分布,xr为在Pr的概率分布中的随机抽样的样本;Pg为生成器生成的假数据分布,即为yt,xg为在Pg的概率分布中的随机抽样的样本;为满足在xr和xg之间随机插值取样的数据分布,为在的概率分布中的随机抽样的样本;是将功率放大器真实的输出数据输入到判别器中求其期望值,是将生成器生成的假数据输入到判别器求其期望值,为梯度惩罚,λ为梯度惩罚参数;式(2)为生成器的目标误差损失函数,为生成器生成的假数据输入到判别器求其期望值。
10.根据权利要求9所述的基于生成对抗神经网络的功率放大器行为建模方法,其特征在于:步骤S,所述训练生成对抗神经网络时,设置判别器每训练Y次,生成器优化1次,其中Y≥2。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910620052.1A CN110472280B (zh) | 2019-07-10 | 2019-07-10 | 一种基于生成对抗神经网络的功率放大器行为建模方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910620052.1A CN110472280B (zh) | 2019-07-10 | 2019-07-10 | 一种基于生成对抗神经网络的功率放大器行为建模方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110472280A true CN110472280A (zh) | 2019-11-19 |
CN110472280B CN110472280B (zh) | 2024-01-12 |
Family
ID=68507215
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910620052.1A Active CN110472280B (zh) | 2019-07-10 | 2019-07-10 | 一种基于生成对抗神经网络的功率放大器行为建模方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110472280B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110942101A (zh) * | 2019-11-29 | 2020-03-31 | 湖南科技大学 | 基于深度生成式对抗网络的滚动轴承剩余寿命预测方法 |
CN111859795A (zh) * | 2020-07-14 | 2020-10-30 | 东南大学 | 针对功率放大器的多项式辅助神经网络行为建模系统及方法 |
CN112597702A (zh) * | 2020-12-21 | 2021-04-02 | 电子科技大学 | 基于径向基函数的气动建模生成式对抗网络模型训练方法 |
CN112909954A (zh) * | 2020-12-30 | 2021-06-04 | 燕山大学 | 一种基于生成对抗神经网络的微电网分层控制策略 |
CN113487107A (zh) * | 2021-07-28 | 2021-10-08 | 华南农业大学 | 基于多层径向基网络的大型动物体重自动评估方法、系统及介质 |
CN114362859A (zh) * | 2021-12-28 | 2022-04-15 | 杭州电子科技大学 | 增强条件生成对抗网络的自适应信道建模方法及系统 |
CN115270891A (zh) * | 2022-08-22 | 2022-11-01 | 苏州大学 | 一种信号对抗样本的生成方法、装置、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018093910A1 (en) * | 2016-11-17 | 2018-05-24 | Xilinx, Inc. | Method of and circuit for predistortion for a power amplifier |
CN108153943A (zh) * | 2017-12-08 | 2018-06-12 | 南京航空航天大学 | 基于时钟循环神经网络的功率放大器的行为建模方法 |
CN108256257A (zh) * | 2018-01-31 | 2018-07-06 | 南京航空航天大学 | 一种基于编码-解码神经网络模型的功率放大器行为建模方法 |
CN108734276A (zh) * | 2018-04-28 | 2018-11-02 | 同济大学 | 一种基于对抗生成网络的模仿学习对话生成方法 |
CN109523014A (zh) * | 2018-10-22 | 2019-03-26 | 广州大学 | 基于生成式对抗网络模型的新闻评论自动生成方法及系统 |
-
2019
- 2019-07-10 CN CN201910620052.1A patent/CN110472280B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018093910A1 (en) * | 2016-11-17 | 2018-05-24 | Xilinx, Inc. | Method of and circuit for predistortion for a power amplifier |
CN108153943A (zh) * | 2017-12-08 | 2018-06-12 | 南京航空航天大学 | 基于时钟循环神经网络的功率放大器的行为建模方法 |
CN108256257A (zh) * | 2018-01-31 | 2018-07-06 | 南京航空航天大学 | 一种基于编码-解码神经网络模型的功率放大器行为建模方法 |
CN108734276A (zh) * | 2018-04-28 | 2018-11-02 | 同济大学 | 一种基于对抗生成网络的模仿学习对话生成方法 |
CN109523014A (zh) * | 2018-10-22 | 2019-03-26 | 广州大学 | 基于生成式对抗网络模型的新闻评论自动生成方法及系统 |
Non-Patent Citations (2)
Title |
---|
ALI SOLTANI TEHRANI .ET: "Modeling of Long Term Memory Effects in RF Power Amplifiers with Dynamic Parameters", 2012 IEEE/MTT-S INTERNATIONAL MICROWAVE SYMPOSIUM-MTT 2012, pages 1 - 3 * |
JIANFENG ZHAI .ET: "Dynamic Behavioral Modeling of Power Amplifiers Using ANFIS-Based Hammerstein", IEEE MICROWAVE AND WIRELESS COMPONENTS LETTERS, vol. 10, no. 10, pages 704 - 706, XP011235972, DOI: 10.1109/LMWC.2008.2003483 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110942101A (zh) * | 2019-11-29 | 2020-03-31 | 湖南科技大学 | 基于深度生成式对抗网络的滚动轴承剩余寿命预测方法 |
CN111859795A (zh) * | 2020-07-14 | 2020-10-30 | 东南大学 | 针对功率放大器的多项式辅助神经网络行为建模系统及方法 |
CN111859795B (zh) * | 2020-07-14 | 2024-06-07 | 东南大学 | 针对功率放大器的多项式辅助神经网络行为建模系统及方法 |
CN112597702A (zh) * | 2020-12-21 | 2021-04-02 | 电子科技大学 | 基于径向基函数的气动建模生成式对抗网络模型训练方法 |
CN112597702B (zh) * | 2020-12-21 | 2022-07-19 | 电子科技大学 | 基于径向基函数的气动建模生成式对抗网络模型训练方法 |
CN112909954A (zh) * | 2020-12-30 | 2021-06-04 | 燕山大学 | 一种基于生成对抗神经网络的微电网分层控制策略 |
CN112909954B (zh) * | 2020-12-30 | 2023-12-15 | 燕山大学 | 一种基于生成对抗神经网络的微电网分层控制策略 |
CN113487107A (zh) * | 2021-07-28 | 2021-10-08 | 华南农业大学 | 基于多层径向基网络的大型动物体重自动评估方法、系统及介质 |
CN113487107B (zh) * | 2021-07-28 | 2024-04-12 | 华南农业大学 | 基于多层径向基网络的大型动物体重自动评估方法、系统及介质 |
CN114362859A (zh) * | 2021-12-28 | 2022-04-15 | 杭州电子科技大学 | 增强条件生成对抗网络的自适应信道建模方法及系统 |
CN114362859B (zh) * | 2021-12-28 | 2024-03-29 | 杭州电子科技大学 | 增强条件生成对抗网络的自适应信道建模方法及系统 |
CN115270891A (zh) * | 2022-08-22 | 2022-11-01 | 苏州大学 | 一种信号对抗样本的生成方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110472280B (zh) | 2024-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110472280A (zh) | 一种基于生成对抗神经网络的功率放大器行为建模方法 | |
CN107688850B (zh) | 一种深度神经网络压缩方法 | |
Moreno et al. | Wind speed forecasting approach based on singular spectrum analysis and adaptive neuro fuzzy inference system | |
CN107679557A (zh) | 驾驶模型训练方法、驾驶人识别方法、装置、设备及介质 | |
CN109002917A (zh) | 基于lstm神经网络的粮食总产量多维时间序列预测方法 | |
CN108900346A (zh) | 基于lstm网络的无线网络流量预测方法 | |
CN106600050A (zh) | 一种基于bp神经网络的超短期负荷预测方法 | |
CN106022954B (zh) | 基于灰色关联度的多重bp神经网络负荷预测方法 | |
CN111401547B (zh) | 一种面向乘客流分析的基于循环学习单元的htm设计方法 | |
CN110874410A (zh) | 一种基于长短时记忆网络和卷积神经网络的文本分类方法 | |
CN106527757A (zh) | 一种输入纠错方法及装置 | |
Guo et al. | Robust echo state networks based on correntropy induced loss function | |
CN107886193A (zh) | 一种基于灰狼优化回声状态网络的时序预测方法 | |
CN108021934A (zh) | 多要素识别的方法及装置 | |
Ahmad et al. | Intelligent breast cancer diagnosis using hybrid GA-ANN | |
CN108133085B (zh) | 一种电子设备舱内设备温度预测方法及系统 | |
CN108268890A (zh) | 一种高光谱图像分类方法 | |
CN111382840B (zh) | 一种面向自然语言处理的基于循环学习单元的htm设计方法 | |
CN110660045B (zh) | 基于卷积神经网络的淋巴结识别的半监督方法 | |
CN117670586A (zh) | 一种基于图神经网络的电网节点碳因子预测方法及系统 | |
CN112232129A (zh) | 基于生成对抗网络的电磁信息泄漏信号仿真系统及方法 | |
CN117078312A (zh) | 一种基于人工智能的广告投放管理方法及系统 | |
CN116384450A (zh) | 面向医疗数据的深度卷积模糊神经网络及其训练方法 | |
CN109697511B (zh) | 数据推理方法、装置及计算机设备 | |
CN112149351B (zh) | 一种基于深度学习的微波电路物理尺寸估算方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |