CN110533169A - 一种基于复值神经网络模型的数字预失真方法及系统 - Google Patents

一种基于复值神经网络模型的数字预失真方法及系统 Download PDF

Info

Publication number
CN110533169A
CN110533169A CN201910811849.XA CN201910811849A CN110533169A CN 110533169 A CN110533169 A CN 110533169A CN 201910811849 A CN201910811849 A CN 201910811849A CN 110533169 A CN110533169 A CN 110533169A
Authority
CN
China
Prior art keywords
neural network
complex value
network model
neuron
weight coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910811849.XA
Other languages
English (en)
Inventor
李博
刘小敏
何书毅
吴伟明
姚君旺
张焕域
林密
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HAINAN STATE GRID Co Ltd
Hainan Power Grid Co Ltd
Original Assignee
HAINAN STATE GRID Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HAINAN STATE GRID Co Ltd filed Critical HAINAN STATE GRID Co Ltd
Priority to CN201910811849.XA priority Critical patent/CN110533169A/zh
Publication of CN110533169A publication Critical patent/CN110533169A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03FAMPLIFIERS
    • H03F1/00Details of amplifiers with only discharge tubes, only semiconductor devices or only unspecified devices as amplifying elements
    • H03F1/32Modifications of amplifiers to reduce non-linear distortion
    • H03F1/3241Modifications of amplifiers to reduce non-linear distortion using predistortion circuits
    • H03F1/3247Modifications of amplifiers to reduce non-linear distortion using predistortion circuits using feedback acting on predistortion circuits

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Nonlinear Science (AREA)
  • Power Engineering (AREA)
  • Amplifiers (AREA)

Abstract

本发明公开了一种基于复值神经网络模型的数字预失真方法及系统,涉及无线通信领域,包括:建立功率放大器的复值神经网络模型;其中,复值神经网络模型中的的参数和变量均为复数,复值神经网络模型包括:总输入向量P(k)、N个神经元、第l个神经元的输出向量yl(k)、单个神经元的输出误差et(k)、第l个神经元的权重系数wl,n;基于复实时递归学习算法更新权重系数wl,n,包括:对权重系数wl,n的实部和虚部求偏导数,获得敏感度参数;根据敏感度参数获得敏感函数和权重系数wl,n的更新参数。建立的复值神经网络模型能够处理功放模型中出现的复数值信号,复值神经网络模型输出的实部与功率放大器的实际输出信号的实部曲线有着较好的吻合度。

Description

一种基于复值神经网络模型的数字预失真方法及系统
技术领域
本发明涉及无线通信技术领域,特别涉及一种基于复值神经网络模型的数字预失真方法及系统。
背景技术
随着无线通信领域的发展,射频功率放大器线性化需求越来越高,为了提高功放效率的同时保持高线性度,数字预失真(Digital Predistortion,DPD)技术成为了目前最重要的解决方案。
近年来,由于神经网络的应用越来越广,以及其具有良好的非线性系统逼近能力、较强的学习能力、较好的鲁棒性和自适应能力,也吸引了功放建模领域的目光,将人工神经网络(Artificial Neural network,ANN)被作为功率放大器和发射机的建模和预失真技术之一进行了研究,在功放建模方面的理论和实践也越来越多。神经网络技术与功率放大器预失真技术的融合,得益于神经网络在非线性系统建模上强大的逼近效果,用于功放行为模型建模和数字预失真的神经网络模型主要包括前馈(Feedforward)神经网络、径向基(Radial BasisFunction,RBF)神经网络、时延神经网络(Time Delay Neural Network,TDNN)等。
上述神经网络模型采用的是基于实值信息处理的神经网络学习方法,基于实值神经网络的功放模型建模,即功放模型中的神经网络信号(输入信号和输出信号以及权值参数)为实数值。然而在实际应用中,功放模型越来越频繁地出现复数值信号。因此,仅考虑实值的计算未能够解决实际问题。
发明内容
针对上述现有技术,本发明在于提供一种基于复值神经网络模型的数字预失真方法及系统,能够对功放模型中出现的复数值信号进行处理。
本发明的技术方案是这样实现的:
本发明第一方面提出一种基于复值神经网络模型的数字预失真方法,包括:建立功率放大器的复值神经网络模型;其中,所述复值神经网络模型中的的参数和变量均为复数,所述复值神经网络模型包括:总输入向量P(k)、N个神经元、第l个所述神经元的输出向量yl(k)、单个所述神经元的输出误差et(k)、第l个所述神经元的权重系数wl,n;基于复实时递归学习算法更新所述权重系数wl,n,包括:对所述权重系数wl,n的实部和虚部求偏导数,获得敏感度参数;根据所述敏感度参数获得敏感函数和所述权重系数wl,n的更新参数。
可选的,所述总输入向量P(k)包括:外部输入样本序列s(k)、偏置输入(1+j)和N个所述神经元的输出向量yl(k)串联组成;其中,所述外部输入样本序列s(k)包括p个延迟项,所述外部输入样本序列s(k)为(1×p)的向量;所述总输入向量P(k)的表达式为:
其中,[]T为向量的转置;()r为复值或复向量的实部;()i为复值或复向量的虚部。
可选的,每个所述神经元的输出向量yl(k)为;yl(k)=Φ(netl(k))l=1,...,N;其中,Φ为所述神经元的复值非线性激活函数;netl(k)为k时刻的所述复值非线性激活函数的输入;相应的,netl(k)为k时刻的第l个所述神经元的所述总输入向量P(k)与所述权重系数wl,n乘积的线性加和:每个所述神经元的输出向量yl(k)优化为:yl(k)=Φr(netl(k))+jΦi(netl(k))=ul(k)+jvl(k)。
可选的,单个所述神经元的输出误差et(k)包括:实部和虚部
其中,d(k)表示学习信号或参考信号;相应的,根据所述神经元的输出误差et(k)获得的代价函数为:
其中,()*为复数共轭算子。
可选的,所述权重系数wl,n为(p+N+1)×1维的向量;相应的,以所述权重系数wl,n搭建的复值矩阵为:所述权重系数wl,n的更新公式为:其中,η为学习速率,E(k)为实值函数。
可选的,所述对所述权重系数wl,n的实部和虚部求偏导数,获得敏感度参数,包括: 其中,所述敏感度参数包括:所述敏感度参数为k时刻的第l个所述神经元的输出向量yl(k)相对于所述第l个所述神经元的权重系数wl,n的变化程度。
可选的,所述根据所述敏感度参数获得敏感函数包括:
其中,初始条件为:所述根据所述敏感度参数获得所述权重系数wl,n的更新参数包括:
本发明第二方面提出一种基于复值神经网络模型的数字预失真系统,包括:模型建立单元,用于建立功率放大器的复值神经网络模型;其中,所述复值神经网络模型中的的参数和变量均为复数,所述复值神经网络模型包括:总输入向量P(k)、N个神经元、第l个所述神经元的输出向量yl(k)、单个所述神经元的输出误差et(k)、第l个所述神经元的权重系数wl,n;更新单元,用于基于复实时递归学习算法更新所述权重系数wl,n,包括:对所述权重系数wl,n的实部和虚部求偏导数,获得敏感度参数;根据所述敏感度参数获得敏感函数和所述权重系数wl,n的更新参数。
本发明的有益效果在于:通过基于复值神经网络模型的数字预失真方法建立的复值神经网络模型,能够对功放模型中出现的复数值信号进行处理,复值神经网络模型输出的实部与功率放大器的实际输出信号的实部曲线有着较好的吻合度。从而能够改善大带宽环境下带有强记忆效应的功率放大器的性能,提高频谱利用率,让射频功率放大器保持良好的线性度,降低系统邻信道功率比。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的优选实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基于复值神经网络模型的数字预失真方法的步骤图。
图2为本发明实施例提供的复值神经网络模型的网络结构图。
图3为本发明实施例提供的基于复实时递归学习算法更新权重系数的步骤图。
图4为本发明实施例提供的一种基于复值神经网络模型的数字预失真系统的结构图。
图5为本发明实施例提供的复值神经网络模型与功率放大器的实际测量输出实部比较图。
图6为本发明实施例提供的功率放大器的实际输出功率与复值神经网络模型的输出功率的功率谱比较图。
图7为本发明实施例提供的功率放大器的实际输出功率与复值神经网络模型的输出功率的动态AM/AM特性比较图。
图8为本发明实施例提供的功率放大器的实际输出功率与复值神经网络模型的输出功率的动态AM/PM特性比较图。
图9为本发明实施例提供的功率放大器的实际输出功率与复值神经网络模型的输出功率的增益比较图。
图标:100-模型建立单元;300-更新单元。
具体实施方式
为了更好理解本发明技术内容,下面提供具体实施例,并结合附图对本发明做进一步的说明。
请参照图1和图2所示,图1为本发明实施例提供的一种基于复值神经网络模型的数字预失真方法的步骤图。图2为本发明实施例提供的复值神经网络模型的网络结构图。包括:步骤S1,建立功率放大器的复值神经网络模型;其中,复值神经网络模型中的的参数和变量均为复数,复值神经网络模型包括:总输入向量P(k)、N个神经元、第l个神经元的输出向量yl(k)、单个神经元的输出误差et(k)、第l个神经元的权重系数wl,n
可理解的,在复值神经网络中的输入、权值和输出均为复数,并且网络结构处于复数域。复值神经网络模型包括外部输入反馈层和输出处理层两层结构。具体而言,复值神经网络模型由N个神经元、p个外部输入和N个神经元的反馈连接线组成。
可选的,总输入向量P(k)包括:外部输入样本序列s(k)、偏置输入(1+j)和N个神经元的输出向量yl(k)串联组成;其中,外部输入样本序列s(k)包括p个延迟项,外部输入样本序列s(k)为(1×p)的向量;总输入向量P(k)的表达式为:
其中,PN(k)为N个所述神经元的输入总量;[]T为向量的转置;()r为复值或复向量的实部;()i为复值或复向量的虚部。可理解的,Pl(k)为第l个神经元的输入总量。因为总输入向量包括N个神经元上一时刻的输出结果,所以每个神经元能够通过反馈调节的方式,根据上一时刻的输出结果修正自身的权重系数。
可选的,对于第l个神经元,权重系数wl,n为(p+N+1)×1维的向量;相应的,以权重系数wl,n搭建的复值矩阵为:
W=[w1,...,wN]; (3)
权重系数wln的更新公式为:
其中,η为学习速率,E(k)为实值函数。
可选的,每个神经元的输出向量yl(k)为:
yl(k)=Φ(netl(k)) l=1,...,N; (5)
其中,Φ为神经元的复值非线性激活函数;netl(k)为k时刻的复值非线性激活函数的输入;相应的,netl(k)为k时刻的第l个神经元的总输入向量P(k)与权重系数wl,n乘积的线性加和:
因此,每个神经元的输出向量yl(k)能够优化为如下形式:
yl(k)=Φr(netl(k))+jΦi(netl(k))=ul(k)+jvl(k)。 (7)
并且,根据复数域的特性,将每个神经元的输出向量yl(k)转化为ul(k)+jvl(k)的复数形式。由上述内容可知,复值神经网络模型不仅包含了输入的记忆深度信息,同时保留了来自输出的反馈信号的记忆信息,因此很适合用作功放行为模型。
请参照图3所示,图3为本发明实施例提供的基于复实时递归学习算法更新权重系数的步骤图。步骤S2,基于复实时递归学习算法更新所述权重系数wl,n,包括:步骤S21,对所述权重系数wl,n的实部和虚部求偏导数,获得敏感度参数;步骤S23,根据所述敏感度参数获得敏感函数和所述权重系数wl,n的更新参数。
可理解的,在建立功率放大器的复值神经网络模型之后,需要对该复值神经网络模型进行训练。现有技术中采用实时递归学习(Real-Time Recurrent Learning,RTRL)算法训练神经网络模型,但是实时递归学习算法是针对RNN结构模型的实值的递归学习算法。对于在复数域内的复值激活函数,不能够直接套用仅处理实值的实时递归学习算法。所以,本申请实施例通过使用复实时递归学习(Complex Real-Time Recurrent Learning,CRTRL)算法训练功率放大器的复值神经网络模型。复实时递归学习算法属于实时递归学习算法的一种拓展,下面对复实时递归学习算法进行推导。
可选的,单个神经元的输出误差et(k)包括:实部和虚部
d(k)=dr(k)+jdi(k); (11)
其中,d(k)表示学习信号或参考信号;相应的,根据神经元的输出误差et(k)获得的代价函数E(k)为:
其中,()*为复数共轭算子。又因为复实时递归学习算法是通过递归的方式改变基于梯度下降的权重系数,从而达到最小化误差的目的。因此,对于复值神经网络模型中的每一个权重系数wl,n如公式(4)所示:
其中,η为学习速率,通常是一个很小的常数。E(k)为实值函数。所以在计算梯度时,对权重系数wl,n的实部和虚部求E(k)的偏导数,即:
在代价函数E(k)的梯度计算中,关于权重系数wl,n的实部为:
同理,代价函数E(k)对于权重系数wl,n的虚部为:
其中,为敏感度参数,敏感度参数为k时刻的第l个神经元的输出向量yl(k)相对于第l个神经元本身的权重系数wl,n的变化程度。进一步的,为了方便后续的使用,将上述敏感度参数转化为:
由于梯度的计算在复数域内进行,所以复激活函数在复数域内解析时,满足柯西-黎曼方程。为了满足柯西-黎曼方程,代价函数E(k)的沿实轴和虚轴的偏导数相等,即敏感度参数相等,所以每一个神经元满足关系如公式(20):
将公式(20)两边的实部和虚部等价,获得公式(21)和公式(22):
通过将公式(14)-(19)带入公式(13),进行如下计算获得的值:
其中,为敏感函数,展开为:
敏感函数的进一步展开为:
所以,权重系数wl,n的更新参数为:
并且,初始条件为:
根据公式(14)-(19)及公式(24)-(25),能够推导出敏感函数的更新公式,见公式(28):
将公式(28)简化为下述的表达形式:
其中,δln为克罗内克函数:
因此,权重系数wl,n的更新参数为:
在复值神经网络模型的训练过程中,经过时延的功率放大器的输入数据和N个神经元前一时刻的反馈信号作为复值神经网络模型的输入,为(p+N+1)×1维的向量,功率放大器的输出数据作为参考信号,调整复值神经网络模型中的N个神经元的权重参数,通过上述推导的参数更新方程来完成复值神经网络模型权重参数的建立和更新。
请参照图4所示,图4为本发明实施例提供的一种基于复值神经网络模型的数字预失真系统的结构图。包括:模型建立单元100,用于建立功率放大器的复值神经网络模型;其中,所述复值神经网络模型中的的参数和变量均为复数,所述复值神经网络模型包括:总输入向量P(k)、N个神经元、第l个所述神经元的输出向量yl(k)、单个所述神经元的输出误差et(k)、第l个所述神经元的权重系数wl,n;更新单元300,用于基于复实时递归学习算法更新所述权重系数wl,n,包括:对所述权重系数wl,n的实部和虚部求偏导数,获得敏感度参数;根据所述敏感度参数获得敏感函数和所述权重系数wl,n的更新参数。
请参照图5所示,图5为本发明实施例提供的复值神经网络模型与实际测量输出实部比较图。在获得训练完成的复值神经网络模型后,通过仿真证明复值神经网络模型在功率放大器的建模上的优良性能。采用功放输入输出数据中一段连续4000个样本作为训练数据,取另一段连续4000个样本作为测试数据,记忆深度为3,反馈通道为5的情况下的仿真结果,将归一化均方误差值计算出来:NMSE=-46.51dB。复值神经网络模型与实际测量输出实部比较图,可见复值神经网络模型输出的实部与功放的实际输出信号的实部曲线有着较好的吻合度。
请参照图6所示,图6为本发明实施例提供的功率放大器的实际输出功率与复值神经网络模型的输出功率的功率谱比较图。可以看出,复值神经网络模型的预测输出与功放实际输出的误差很小,误差信号功率谱密度显著降低,边带的拟合度也相较更高,说明该模型可以很好地拟合功放的非线性特性。
请参照图7、图8和图9所示,图7为本发明实施例提供的功率放大器的实际输出功率与复值神经网络模型的输出功率的动态AM/AM特性比较图。图8为本发明实施例提供的功率放大器的实际输出功率与复值神经网络模型的输出功率的动态AM/PM特性比较图。图9为本发明实施例提供的功率放大器的实际输出功率与复值神经网络模型的输出功率的增益比较图。
从图7和图8中可以看出功率放大器的实际输出功率与复值神经网络模型输出功率的特性较为吻合,进而可以看出复值神经网络模型在预测实际功率放大器的动态特性方面有着较好的效果。从图9中可以看出复值神经网络模型对功率放大器的归一化增益逼近程度显著,说明复值神经网络模型即使面对功率放大器的记忆效应,也能保证优良的性能。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于复值神经网络模型的数字预失真方法,其特征在于,包括:
建立功率放大器的复值神经网络模型;其中,所述复值神经网络模型中的的参数和变量均为复数,所述复值神经网络模型包括:总输入向量P(k)、N个神经元、第l个所述神经元的输出向量yl(k)、单个所述神经元的输出误差et(k)、第l个所述神经元的权重系数wl,n
基于复实时递归学习算法更新所述权重系数wl,n,包括:
对所述权重系数wl,n的实部和虚部求偏导数,获得敏感度参数;
根据所述敏感度参数获得敏感函数和所述权重系数wl,n的更新参数。
2.根据权利要求1所述的一种基于复值神经网络模型的数字预失真方法,其特征在于,所述总输入向量P(k)包括:外部输入样本序列s(k)、偏置输入(1+j)和N个所述神经元的输出向量yl(k)串联组成;其中,所述外部输入样本序列s(k)包括p个延迟项,所述外部输入样本序列s(k)为(1×p)的向量;
所述总输入向量P(k)的表达式为:
n=1,...,p+N+1;
其中,[]T为向量的转置;()r为复值或复向量的实部;()i为复值或复向量的虚部。
3.根据权利要求2所述的一种基于复值神经网络模型的数字预失真方法,其特征在于,每个所述神经元的输出向量yl(k)为:
yl(k)=Φ(netl(k)) l=1,...,N;
其中,Φ为所述神经元的复值非线性激活函数;netl(k)为k时刻的所述复值非线性激活函数的输入;
相应的,netl(k)为k时刻的第l个所述神经元的所述总输入向量P(k)与所述权重系数wl,n乘积的线性加和:
每个所述神经元的输出向量yl(k)优化为:
yl(k)=Φr(netl(k))+jΦi(netl(k))=ul(k)+jvl(k)。
4.根据权利要求3所述的一种基于复值神经网络模型的数字预失真方法,其特征在于,单个所述神经元的输出误差et(k)包括:实部和虚部
d(k)=dr(k)+jdi(k);
其中,d(k)表示学习信号或参考信号;
相应的,根据所述神经元的输出误差et(k)获得的代价函数为:其中,()*为复数共轭算子。
5.根据权利要求4所述的一种基于复值神经网络模型的数字预失真方法,其特征在于,所述权重系数wl,n为(p+N+1)×1维的向量;相应的,以所述权重系数wl,n搭建的复值矩阵为:W=[w1,...,wN];
所述权重系数wl,n的更新公式为:
其中,η为学习速率,E(k)为实值函数。
6.根据权利要求5所述的一种基于复值神经网络模型的数字预失真方法,其特征在于,所述对所述权重系数wl,n的实部和虚部求偏导数,获得敏感度参数,包括:
其中,所述敏感度参数包括:所述敏感度参数为k时刻的第l个所述神经元的输出向量yl(k)相对于所述第l个所述神经元的权重系数wl,n的变化程度。
7.根据权利要求6所述的一种基于复值神经网络模型的数字预失真方法,其特征在于,所述根据所述敏感度参数获得敏感函数包括:
其中,初始条件为:
所述根据所述敏感度参数获得所述权重系数wl,n的更新参数包括:
8.一种基于复值神经网络模型的数字预失真系统,其特征在于,包括:
模型建立单元,用于建立功率放大器的复值神经网络模型;其中,所述复值神经网络模型中的的参数和变量均为复数,所述复值神经网络模型包括:总输入向量P(k)、N个神经元、第l个所述神经元的输出向量yl(k)、单个所述神经元的输出误差et(k)、第l个所述神经元的权重系数wl,n
更新单元,用于基于复实时递归学习算法更新所述权重系数wl,n,包括:对所述权重系数wl,n的实部和虚部求偏导数,获得敏感度参数;根据所述敏感度参数获得敏感函数和所述权重系数wl,n的更新参数。
CN201910811849.XA 2019-08-30 2019-08-30 一种基于复值神经网络模型的数字预失真方法及系统 Pending CN110533169A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910811849.XA CN110533169A (zh) 2019-08-30 2019-08-30 一种基于复值神经网络模型的数字预失真方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910811849.XA CN110533169A (zh) 2019-08-30 2019-08-30 一种基于复值神经网络模型的数字预失真方法及系统

Publications (1)

Publication Number Publication Date
CN110533169A true CN110533169A (zh) 2019-12-03

Family

ID=68665367

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910811849.XA Pending CN110533169A (zh) 2019-08-30 2019-08-30 一种基于复值神经网络模型的数字预失真方法及系统

Country Status (1)

Country Link
CN (1) CN110533169A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111490799A (zh) * 2019-01-29 2020-08-04 中国移动通信有限公司研究院 一种信息传输的方法和装置
CN111859795A (zh) * 2020-07-14 2020-10-30 东南大学 针对功率放大器的多项式辅助神经网络行为建模系统及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030076896A1 (en) * 2000-01-13 2003-04-24 Carsten Ball Method and apparatus for the linearization of a radio frequency high-power amplifier
CN103051293A (zh) * 2012-12-03 2013-04-17 广东省电信规划设计院有限公司 射频放大器预失真处理方法及其系统
CN103731105A (zh) * 2014-01-03 2014-04-16 东南大学 基于动态模糊神经网络的功放数字预失真装置及方法
CN104579187A (zh) * 2014-12-02 2015-04-29 南阳师范学院 用于建模宽带射频功放非线性的神经网络模型

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030076896A1 (en) * 2000-01-13 2003-04-24 Carsten Ball Method and apparatus for the linearization of a radio frequency high-power amplifier
CN103051293A (zh) * 2012-12-03 2013-04-17 广东省电信规划设计院有限公司 射频放大器预失真处理方法及其系统
CN103731105A (zh) * 2014-01-03 2014-04-16 东南大学 基于动态模糊神经网络的功放数字预失真装置及方法
CN104579187A (zh) * 2014-12-02 2015-04-29 南阳师范学院 用于建模宽带射频功放非线性的神经网络模型

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SU LEE GOH ET AL.: ""A Complex-Valued RTRL Algorithm for Recurrent Neural Networks"", 《NEURAL COMPUTATION》 *
荀海恩: ""基于神经网络的功放数字预失真技术的研究"", 《万方学位论文》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111490799A (zh) * 2019-01-29 2020-08-04 中国移动通信有限公司研究院 一种信息传输的方法和装置
CN111490799B (zh) * 2019-01-29 2021-08-06 中国移动通信有限公司研究院 一种信息传输的方法和装置
CN111859795A (zh) * 2020-07-14 2020-10-30 东南大学 针对功率放大器的多项式辅助神经网络行为建模系统及方法
CN111859795B (zh) * 2020-07-14 2024-06-07 东南大学 针对功率放大器的多项式辅助神经网络行为建模系统及方法

Similar Documents

Publication Publication Date Title
Kim et al. Fully complex multi-layer perceptron network for nonlinear signal processing
Ibukahla et al. Neural networks for modeling nonlinear memoryless communication channels
CN110765720B (zh) 一种复值流水线递归神经网络模型的功放预失真方法
CN111245375A (zh) 一种复值全连接递归神经网络模型的功放数字预失真方法
CN108153943A (zh) 基于时钟循环神经网络的功率放大器的行为建模方法
CN110414565B (zh) 一种用于功率放大器的基于Group Lasso的神经网络裁剪方法
CN110533169A (zh) 一种基于复值神经网络模型的数字预失真方法及系统
CN111859795A (zh) 针对功率放大器的多项式辅助神经网络行为建模系统及方法
CN112865721B (zh) 信号处理方法、装置、设备及存储介质、芯片、模组设备
Langlet et al. Comparison of neural network adaptive predistortion techniques for satellite down links
CN114911837A (zh) 预失真处理方法和装置
Bhuyan et al. Learning aided behavioral modeling and adaptive digital predistortion design for nonlinear power amplifier
Falempin et al. Low-complexity adaptive digital pre-distortion with meta-learning based neural networks
CN110598261B (zh) 一种基于复数反向神经网络的功率放大器频域建模方法
Mišić et al. Volterra kernels extraction from neural networks for amplifier behavioral modeling
Langlet et al. Adaptive predistortion for solid state power amplifier using multilayer perceptron
Liu et al. Digital predistortion for wideband wireless power amplifiers using real-value neural network with attention mechanism
Hadi et al. Digital Predistortion Based Experimental Evaluation of Optimized Recurrent Neural Network for 5G Analog Radio Over Fiber Links
Liang et al. A novel RTRLNN model for passive intermodulation cancellation in satellite communications
Xie et al. An Improved Adaptive Algorithm for Digital Predistortion
TWI830276B (zh) 補償功率放大器失真的方法以及系統
Zhang et al. Block-Oriented Recurrent Neural Network for Digital Predistortion of RF Power Amplifiers
TWI810056B (zh) Rf通信組件執行的方法和rf通信組件
CN117895904A (zh) 数字预失真方法及装置
Wang et al. Dual-band transmitter linearization using spiking neural networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20191203