CN110610030B - 一种基于WaveNet神经网络结构的功率放大器行为建模方法 - Google Patents
一种基于WaveNet神经网络结构的功率放大器行为建模方法 Download PDFInfo
- Publication number
- CN110610030B CN110610030B CN201910762293.XA CN201910762293A CN110610030B CN 110610030 B CN110610030 B CN 110610030B CN 201910762293 A CN201910762293 A CN 201910762293A CN 110610030 B CN110610030 B CN 110610030B
- Authority
- CN
- China
- Prior art keywords
- network
- data
- output
- vector
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于WaveNet神经网络结构的功率放大器行为建模方法,相较于当下常用的RNN、LSTM等记忆神经单元,本方法所采用的WaveNet网络每次迭代无需等待之前序列的预测结果,具备并行特点,所以模型训练和收敛十分迅速。同时,模型内部采用了时间卷积网络结构,卷积运算能提取序列的内在特征;而时间卷积又具备因果性质,模型当前的输出只与历史数据和即时数据相关,能够描述放大器的记忆效应。本方法在表征功率放大器的非线性特性和记忆效应上,具备较高的精度;而在模型训练上,拥有惊人的训练和收敛速度。
Description
技术领域
本发明涉及非线性系统建模与分析应用领域,尤其涉及一种基于WaveNet神经网络结构的功率放大器行为建模方法。
背景技术
功率放大器是发射机的重要模块,是一个复杂的非线性系统,功率放大器经常会产生严重的非线性失真,并且随着系统带宽的增加,功率放大器也会产生记忆效应。
发射机的内部结构大多比较复杂,对发射机的行为建模可以在不知道发射机内部组成的情况下,只依据系统的输入、输出测试数据就可以模拟出它的非线性和记忆效应。行为模型可以用来分析不同发射机所对应的模型参数差异,通过修改模型参数获取不同的发射机发射信号。在系统级仿真中,这种方法被广泛使用,并且经大量实验证明,这种方法能够精确地对功放进行建模。
一般来说,功率放大器行为建模可以分为无记忆模型和记忆模型两种。无记忆功放模型的种类很多,例如Saleh模型,无记忆多项式模型等。无记忆功放模型相对简单,对于窄带系统建模有很好的效果。然而随着系统带宽的增加,功率放大器的记忆效应明显,无记忆模型无法很好地描述记忆效应,所以现在大多采用有记忆功放模型。有记忆模型一般采用Volterra级数模型和神经网络模型等。Volterra级数是对泰勒级数的扩展,该模型适用于弱非线性系统,而且系统的参数会随着阶次和记忆深度的增加而迅速增加,故计算量和收敛性受到了影响。而神经网络能够逼近任意非线性的函数,并且具有灵活有效的自组织学习能力,因而被广泛用于功率放大器系统的行为建模。在神经网络中常被用于建模的是循环神经网络——RNN以及相关变体LSTM和GRU,但是循环神经网络训练时间序列时,每次循环需要等待前一次结果,致使该网络存在训练速率低下、收敛缓慢等问题。同时,循环神经网络对于长时间跨度的依赖关系不敏感,也就是说,能够利用的上下文信息是有限的,因此循环神经网络在描述功放的长期记忆效应上表现一般。
发明内容
发明目的:针对上述现有技术,提出一种能很好描述功率放大器非线性特性和记忆效应的功率放大器行为建模方法。
技术方案:一种基于WaveNet神经网络结构的功率放大器行为建模方法,包括如下步骤:
步骤A:采集功率放大器的输入信号数据向量xin=[xin(1),xin(2),…,xin(N)]和输出信号数据向量yout=[yout(1),yout(2),…,yout(N)],其中,N为数据长度;
步骤B:将输入和输出数据进行归一化:
其中,max(·)表示求向量中最大值的运算,min(·)表示求向量中最小值的运算,t表示时间节点;
步骤C:构建WaveNet神经网络结构模型,所述WaveNet神经网络结构模型由3组网络构成:高维映射网络、时间卷积网络、全连接输出网络;
步骤D:对构建好的所述WaveNet神经网络结构模型进行训练;
步骤E:模型训练完毕,根据给定的输入,得到所述WaveNet神经网络结构模型的输出序列ypred。
进一步的,所述步骤C包括如下具体步骤:
步骤C-1:构建一维数据向多维数据的高维映射网络:设定映射维度为D,输入节点数为输入序列长度,隐含节点数为D,将输入数据一一映射成D维空间向量,输入序列中t时间节点的数据的映射操作为:
z(t)D为映射的D维向量;fd1为激活函数,采用RELU修正线性单元作为激活函数;Wd1为第一层的权值矩阵,采用服从[0,1]上的均匀分布进行初始化;Bd1为第一层网络偏置,初始化为0;
步骤C-2:构建TCN时间卷积网络:所述TCN时间卷积网络为深度卷积神经网络,包括L层因果扩展卷积层以及L层因果卷积层;所述TCN时间卷积网络整体的感受野大小为2L +1,即一个输出由长度为2L+1的序列堆栈多层映射所得;所述TCN时间卷积网络的输入为D维向量序列zD,序列长度为N;输入首先经过因果扩展卷积层,然后经过因果卷积层,直到将序列长度映射为1;
步骤C-3:批标准化处理:在每个卷积层之后,添加批标准化,使得这一层输出数据的每个维度均值都为0,方差都为1;
步骤C-4:构建全连接输出网络,通过所述全连接网络将输出向量映射为标量数据,作为当前时间节点的预测值:
ypred(t)=f2×L+2(W2×L+2·z2×L+2(t)D+B2×L+2)
其中,f2×L+2为最后一层激活函数——sigmoid函数;z2×L+2(t)D为第t个时间节点卷积网络的最后一层输出;ypred(t)为模型输出,W2×L+2为该全连接层的权值矩阵,采用服从[0,1]上的均匀分布进行初始化;B2×L+2为该全连接层的偏置,初始化为0。
进一步的,所述步骤D包括如下具体步骤:
设置WaveNet神经网络结构模型相关训练参数:设置训练最大迭代次为Cntmax;学习速率为η;时间节点t为1;迭代次数i为1;训练整体采用早停法,早停重复阈值为γ次,参考标准为训练集损失,即当训练集损失出现γ次相同数值时,网络停止训练;设置重复次数计数器p为0;
步骤D-1:根据当前网络,计算t时刻的模型输出ypred(t)以及t时刻的损失L(t),损失函数采用平方差函数:
步骤D-2:判断时间节点t是否小于N,若t<N,则t+1,返回步骤D-1;若相等则计算第i次迭代的总损失Li,总损失为所有时间节点的累计损失:
步骤D-3:判断Li是否等于上次迭代损失Li-1,若相等则计数器p+1,若不相等,则p归为0;
步骤D-4:判断p是否等于阈值γ,若相等,则结束训练跳至步骤E;
步骤D-5:训练优化器采用Adam优化器,采用动态策略计算更新梯度,计算顺序如下:
首先,计算梯度的矩估计量:
mi=β1mi-1+(1+β1)gi
vi=β2vi-1+(1+β2)gi 2
式中,i表示当前迭代次数;mi为第i次迭代之后梯度的一阶矩矢量;vi为第i次迭代后梯度二阶矩矢量;β1和β2为两个超参数,用于调节当前梯度和上一次的矩估计所占的比重;gi为本次迭代的梯度矩阵,即损失Li对当前权值矩阵的偏导;
然后,作偏差校正:
最后,利用矩估计量更新权值矩阵:
Wi为第i次迭代的权值矩阵,即此刻所使用的权值;Wi+1为梯度下降计算出的权值矩阵;ε是为了避免除数为零的小量。
步骤D-6:判断迭代次数i是否大于最大值Cntmax。若迭代次数i小于最大迭代次数Cntmax,迭代次数i+1,t=1,返回步骤D-1。
进一步的,所述TCN时间卷积网络的L层因果扩展卷积层的卷积核长度为2,扩展倍率分别为:1,2,4,8,…,2L-1。
有益效果:本发明采用WaveNet结构的时间卷积神经网络来对功率放大器的非线性特性和记忆效应进行建模。时间卷积网络在保证了因果特性的基础上,能够较好地提取出序列的非线性特征。而深层时间卷积网络又可以大幅拓展网络的感受野,从而提取序列的记忆效应。但是网络层数增长带来的梯度弥散、性能恶化等问题,也使得深层网络训练难以进行,所以本发明中增大了卷积步长并且加入了因果扩展卷积来减少网络深度,加入批标准化来较少梯度弥散。在输入数据处理上,采用了高维映射的方法,提升了网络的泛化性能和表征性能。由于大部分计算只使用了卷积操作,所以这种网络相较于循环神经网络具有训练、收敛迅速的优势。本发明中的WaveNet结构神经网络能够提取输入序列的大部分特征,实现快速建模的同时又保证了高精度。因此,本发明模型训练速度非常快,在相同的时间里,WaveNet神经网络结构模型训练次数要远大于普通的神经网络模型;精度要远高于普通神经网络。
附图说明
图1为功率放大器黑盒模型图;
图2为多维数据下的,增大步进长度的因果卷积示意图;
图3为L=3的时间卷积网络示意图;
图4为本发明中所用网络结构图;
图5为WaveNet神经网络结构模型输出的时域波形及误差结果图;
图6为WaveNet神经网络结构模型输出的频谱及误差结果图。
具体实施方式
下面结合附图对本发明做更进一步的解释。
功率放大器工作在开关状态,功率转换效率较高,是一种典型的非线性系统。如图1所示为功率放大器电路的黑盒模型。其中,输入的线性调频信号xin幅度为8.5V,线性调频起始频率为2800Hz,调频带宽为400Hz。经过功率放大器后输出信号为yout,并带有失真。利用PSpice仿真软件对功率放大器电路进行仿真后,采集2000个输入信号和输出信号作为实验数据进行行为建模,采样频率为100kHz。
本发明的一种基于WaveNet神经网络结构的功率放大器行为建模方法,包括如下步骤:
步骤A:采集功率放大器的输入信号数据向量xin=[xin(1),xin(2),…,xin(N)]和输出信号数据向量yout=[yout(1),yout(2),…,yout(N)],其中,N为数据长度,大小为2000。
步骤B:将输入和输出数据进行归一化:
其中,max(·)表示求向量中最大值的运算,min(·)表示求向量中最小值的运算,t表示时间节点。
步骤C:构建WaveNet神经网络结构模型:本方法中WaveNet神经网络结构模型由3组网络构成:高维映射网络、时间卷积网络、全连接输出网络。如图4所示。构建过程如下:
步骤C-1:构建一维数据向高维数据的映射网络:设定映射维度为64,输入节点数为64,隐含节点数为64,激活函数采用RELU修正线性单元作。将输入数据一一映射成64维空间向量,网络输出为64个64维向量。其中,输入序列中t时间节点的数据的映射操作为:
z(t)64为映射的64维向量;fd1为激活函数;为输入序列中的一个输入数据;Wd1为第一层的权值矩阵,采用服从[0,1]上的均匀分布进行初始化;Bd1为第一层网络偏置,初始化为0。经过高维映射网络之后,输入数据由映射为z64=[z(1)64,z(2)64,…z(N)64]。
步骤C-2:构建TCN时间卷积网络:TCN时间卷积网络为深度卷积神经网络,设定网络总层数为10层,包括5层因果扩展卷积层以及5层因果卷积层。TCN时间卷积网络的整体的感受野大小就为64,即一个输出由长度为64的序列堆栈多层映射所得。TCN时间卷积网络的输入为64维向量序列z64,序列长度为2000。输入首先经过因果扩展卷积层,然后经过因果卷积层,直到将序列长度映射为1。
扩展卷积又称空洞卷积,是指跳过部分输入数据来让卷积核可以应用于大于卷积核本身长度的区域。扩展卷积中的扩展倍率参数,可以影响卷积之间的距离和卷积中空洞数据点的数量,适当的扩展倍率可以大大减少网络层数和运算量。而因果扩展卷积是指一种输出只取决于输出之前时间节点的扩展卷积方法,符合时序模型的客观规律。本实施例中采用5层因果扩展卷积层,扩展倍率分别为1,2,4,8,16,连接5层因果卷积层,卷积核长度为2,即步进长度为2,每个卷积层卷积核数量和维度相等,均为64。后5层采用增加步进长度的因果卷积,虽然也可以减少网络层数和计算量,但是增加步进长度会导致卷积核稀疏,所以把因果卷积层放在了高层,底层采用扩展卷积提取数据特征,每个卷积层的输出为下一层的输入。本方法中的多维卷积示意图如图2所示;6层时间卷积网络整体结构如图3所示。
步骤C-3:批标准化处理:由于网络层数很大,网络很深,训练时必定存在收敛缓慢、梯度消失等问题,所以在每层卷积层之后,添加批标准化,使得这一层输出数据的每个维度均值都为0,方差都为1;作为下一层的输入数据,这样的标准化能保证梯度正常传递。
步骤C-4:构建全连接输出层。由于之前数据映射到了64维空间,时间卷积网络并不改变数据维度,所以时间卷积网络的输出为一个1×1×64向量,最后添加一个全连接网络将输出向量映射为标量数据,作为当前时间节点的预测值:
ypred(t)=f2×L+2(W2×L+2·z2×L+2(t)D64+B2×L+2)
其中,f2×L+2为最后一层激活函数——sigmoid函数;z2×L+2(t)64为第t个时间节点卷积网络的最后一层输出;ypred(t)为模型输出,W2×L+2为该全连接层的权值矩阵,采用服从[0,1]上的均匀分布进行初始化;B2×L+2为该全连接层的偏置,初始化为0。即将64维输出数据映射到1维数据,输入节点为64,隐含节点为1。
步骤D:网络搭建完毕,设置WaveNet神经网络结构模型相关训练参数:设置训练最大迭代次数为2000;学习速率为1E-4;时间节点t为1;迭代次数i为1。训练整体采用早停法,设置早停重复阈值为γ=3次,参考标准为训练集损失,即当训练集损失出现γ次相同数值时,网络停止训练;重复次数计数器p为0。
步骤D-1:根据当前网络,计算t时刻的模型输出ypred(t)以及t时刻的损失L(t),损失函数采用平方差函数:
步骤D-2:判断时间节点t是否小于N。若t<N,则t+1,返回步骤D-1;若相等则计算第i次迭代的总损失Li,总损失为所有时间节点的累计损失:
步骤D-3:判断Li是否等于上次迭代损失Li-1,若相等则计数器p+1,若不相等,则p归为0。
步骤D-4:判断p是否等于阈值γ,若相等,则结束训练跳至步骤E。
步骤D-5:训练优化器采用Adam优化器,Adam优化器具备自适应特点,能对梯度的矩估计进行综合考虑,采用动态策略计算更新梯度,计算顺序如下:
首先,计算梯度的矩估计量,
mi=β1mi-1+(1+β1)gi
vi=β2vi-1+(1+β2)gi 2
式中,i表示当前迭代次数;mi为第i次迭代之后梯度的一阶矩矢量;vi为第i次迭代后梯度二阶矩矢量;梯度初始化值分别为m0=0、v0=0;β1和β2为两个超参数,取值为β1=0.9、β2=0.999。用于调节当前梯度和上一次的矩估计所占的比重;gi为本次迭代的梯度矩阵,即损失Li对当前权值矩阵的偏导。
然后,因为矩估计量初始化为0,那么迭代之后会存在向0偏置的现象,为了减少矩估计量的零偏现象,需要作偏差校正:
最后,利用矩估计量更新权值矩阵:
Wi为第i次迭代的权值矩阵,即此刻所使用的权值;Wi+1为梯度下降计算出的权值矩阵;ε是为了避免除数为零的小量,取值为ε=1e-8。
步骤D-6:判断迭代次数i是否大于最大值Cntmax。若迭代次数i小于最大迭代次数Cntmax,迭代次数i+1,t=1,返回步骤D-1。
步骤E:训练完毕,根据给定的输入,得到神经网络模型的输出序列ypred。
本次实施方式所用硬件配置及软件环境为:
所测得的总训练时间为133.716秒,训练迭代次数为616次,时域预测结果以及误差如图5所示,时域平均误差为-0.00565V,时域最大瞬时误差绝对值为0.0772V;对应的频域以及误差如图6所示,频域平均误差为0.0599dB,频域最大误差绝对值为2.78dB。可以看出WaveNet神经网络结构模型训练非常迅速,在很短的时间内训练了相当大的周期数,且达到了很高的预测精度。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (3)
1.一种基于WaveNet神经网络结构的功率放大器行为建模方法,其特征在于,包括如下步骤:
步骤A:采集功率放大器的输入信号数据向量xin=[xin(1),xin(2),…,xin(N)]和输出信号数据向量yout=[yout(1),yout(2),…,yout(N)],其中,N为数据长度;
步骤B:将输入和输出数据进行归一化:
其中,max(·)表示求向量中最大值的运算,min(·)表示求向量中最小值的运算,t表示时间节点;
步骤C:构建WaveNet神经网络结构模型,所述WaveNet神经网络结构模型由3组网络构成:高维映射网络、时间卷积网络、全连接输出网络;
步骤D:对构建好的所述WaveNet神经网络结构模型进行训练;
步骤E:模型训练完毕,根据给定的输入,得到所述WaveNet神经网络结构模型的输出序列ypred;
所述步骤C包括如下具体步骤:
步骤C-1:构建一维数据向多维数据的高维映射网络:设定映射维度为D,输入节点数为输入序列长度,隐含节点数为D,将输入数据一一映射成D维空间向量,输入序列中t时间节点的数据的映射操作为:
z(t)D为映射的D维向量;fd1为激活函数,采用RELU修正线性单元作为激活函数;Wd1为第一层的权值矩阵,采用服从[0,1]上的均匀分布进行初始化;Bd1为第一层网络偏置,初始化为0;
步骤C-2:构建TCN时间卷积网络:所述TCN时间卷积网络为深度卷积神经网络,包括L层因果扩展卷积层以及L层因果卷积层;所述TCN时间卷积网络整体的感受野大小为2L+1,即一个输出由长度为2L+1的序列堆栈多层映射所得;所述TCN时间卷积网络的输入为D维向量序列zD,序列长度为N;输入首先经过因果扩展卷积层,然后经过因果卷积层,直到将序列长度映射为1;
步骤C-3:批标准化处理:在每个卷积层之后,添加批标准化,使得这一层输出数据的每个维度均值都为0,方差都为1;
步骤C-4:构建全连接输出网络,通过所述全连接输出网络将输出向量映射为标量数据,作为当前时间节点的预测值:
ypred(t)=f2×L+2(W2×L+2·z2×L+2(t)D+B2×L+2)
其中,f2×L+2为最后一层激活函数——sigmoid函数;z2×L+2(t)D为第t个时间节点卷积网络的最后一层输出;ypred(t)为模型输出,W2×L+2为该全连接输出网络的权值矩阵,采用服从[0,1]上的均匀分布进行初始化;B2×L+2为该全连接输出网络的偏置,初始化为0。
2.根据权利要求1所述的基于WaveNet神经网络结构的功率放大器行为建模方法,其特征在于,所述步骤D包括如下具体步骤:
设置WaveNet神经网络结构模型相关训练参数:设置训练最大迭代次为Cntmax;学习速率为η;时间节点t为1;迭代次数i为1;训练整体采用早停法,早停重复阈值为γ次,参考标准为训练集损失,即当训练集损失出现γ次相同数值时,网络停止训练;设置重复次数计数器p为0;
步骤D-1:根据当前网络,计算t时刻的模型输出ypred(t)以及t时刻的损失L(t),损失函数采用平方差函数:
步骤D-2:判断时间节点t是否小于N,若t<N,则t+1,返回步骤D-1;若相等则计算第i次迭代的总损失Li,总损失为所有时间节点的累计损失:
步骤D-3:判断Li是否等于上次迭代损失Li-1,若相等则计数器p+1,若不相等,则p归为0;
步骤D-4:判断p是否等于阈值γ,若相等,则结束训练跳至步骤E;
步骤D-5:训练优化器采用Adam优化器,采用动态策略计算更新梯度,计算顺序如下:
首先,计算梯度的矩估计量:
mi=β1mi-1+(1+β1)gi
vi=β2vi-1+(1+β2)gi 2
式中,i表示当前迭代次数;mi为第i次迭代之后梯度的一阶矩矢量;vi为第i次迭代后梯度二阶矩矢量;β1和β2为两个超参数,用于调节当前梯度和上一次的矩估计所占的比重;gi为本次迭代的梯度矩阵,即损失Li对当前权值矩阵的偏导;
然后,作偏差校正:
最后,利用矩估计量更新权值矩阵:
Wi为第i次迭代的权值矩阵,即此刻所使用的权值;Wi+1为梯度下降计算出的权值矩阵;ε是为了避免除数为零的小量;
步骤D-6:判断迭代次数i是否大于最大值Cntmax;若迭代次数i小于最大迭代次数Cntmax,迭代次数i+1,t=1,返回步骤D-1。
3.根据权利要求1所述的基于WaveNet神经网络结构的功率放大器行为建模方法,其特征在于,所述TCN时间卷积网络的L层因果扩展卷积层的卷积核长度为2,扩展倍率分别为:1,2,4,8,...,2L-1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910762293.XA CN110610030B (zh) | 2019-08-19 | 2019-08-19 | 一种基于WaveNet神经网络结构的功率放大器行为建模方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910762293.XA CN110610030B (zh) | 2019-08-19 | 2019-08-19 | 一种基于WaveNet神经网络结构的功率放大器行为建模方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110610030A CN110610030A (zh) | 2019-12-24 |
CN110610030B true CN110610030B (zh) | 2021-06-22 |
Family
ID=68890235
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910762293.XA Active CN110610030B (zh) | 2019-08-19 | 2019-08-19 | 一种基于WaveNet神经网络结构的功率放大器行为建模方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110610030B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111882045B (zh) * | 2020-08-12 | 2023-10-17 | 北京师范大学 | 基于可微神经结构搜索的大脑时-空网络分解方法及系统 |
CN113804997B (zh) * | 2021-08-23 | 2023-12-26 | 西安理工大学 | 基于双向WaveNet深度学习的电压暂降源定位方法 |
CN113780428A (zh) * | 2021-09-14 | 2021-12-10 | 天津国科医工科技发展有限公司 | 一种基于径向基函数网络的质谱仪透镜参数拟合方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106997767A (zh) * | 2017-03-24 | 2017-08-01 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音处理方法及装置 |
US10872596B2 (en) * | 2017-10-19 | 2020-12-22 | Baidu Usa Llc | Systems and methods for parallel wave generation in end-to-end text-to-speech |
CN108153943B (zh) * | 2017-12-08 | 2021-07-23 | 南京航空航天大学 | 基于时钟循环神经网络的功率放大器的行为建模方法 |
CN108256257B (zh) * | 2018-01-31 | 2021-04-06 | 南京航空航天大学 | 一种基于编码-解码神经网络模型的功率放大器行为建模方法 |
CN109919205A (zh) * | 2019-02-25 | 2019-06-21 | 华南理工大学 | 基于多头自注意力机制的卷积回声状态网络时序分类方法 |
-
2019
- 2019-08-19 CN CN201910762293.XA patent/CN110610030B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110610030A (zh) | 2019-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110610030B (zh) | 一种基于WaveNet神经网络结构的功率放大器行为建模方法 | |
CN108153943B (zh) | 基于时钟循环神经网络的功率放大器的行为建模方法 | |
CN110632572B (zh) | 基于无意调相特性的雷达辐射源个体识别方法及装置 | |
CN105224985B (zh) | 一种基于深度重构模型的功率放大器行为建模方法 | |
CN110070172B (zh) | 基于双向独立循环神经网络的序列预测模型的建立方法 | |
CN109299430A (zh) | 基于两阶段分解与极限学习机的短期风速预测方法 | |
CN108256257B (zh) | 一种基于编码-解码神经网络模型的功率放大器行为建模方法 | |
KR20180048109A (ko) | 뉴럴 네트워크 변환 방법 및 이를 이용한 인식 장치 | |
CN110443724B (zh) | 一种基于深度学习的电力系统快速状态估计方法 | |
CN111985523A (zh) | 基于知识蒸馏训练的2指数幂深度神经网络量化方法 | |
CN111539132A (zh) | 一种基于卷积神经网络的动载荷时域识别方法 | |
CN109900309B (zh) | 一种基于混合状态空间模型的传感器数据盲校正方法 | |
CN107462875B (zh) | 基于iga-np算法的认知雷达最大mi波形优化方法 | |
Rawat et al. | Minimizing validation error with respect to network size and number of training epochs | |
CN113935489A (zh) | 基于量子神经网络的变分量子模型tfq-vqa及其两级优化方法 | |
CN114201987A (zh) | 一种基于自适应识别网络的有源干扰识别方法 | |
CN110362881B (zh) | 基于极限学习机的微波功率器件非线性模型方法 | |
CN108228978A (zh) | 结合互补集合经验模态分解的Xgboost时间序列预测方法 | |
CN114325245A (zh) | 基于行波数据深度学习的输电线路故障选线与定位方法 | |
Yang et al. | A neural network learning algorithm of chemical process modeling based on the extended Kalman filter | |
CN117220278A (zh) | 一种考虑非平稳时空依赖的长期风电功率预测方法 | |
CN111462479A (zh) | 一种基于傅里叶-递归神经网络的交通流预测方法 | |
CN108509933B (zh) | 一种基于多小波基函数展开的锋电位时变格兰杰因果准确辨识方法 | |
CN116403054A (zh) | 基于类脑网络模型的图像优化分类方法 | |
CN114172770B (zh) | 量子根树机制演化极限学习机的调制信号识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |