CN112865721B - 信号处理方法、装置、设备及存储介质、芯片、模组设备 - Google Patents

信号处理方法、装置、设备及存储介质、芯片、模组设备 Download PDF

Info

Publication number
CN112865721B
CN112865721B CN202110009322.2A CN202110009322A CN112865721B CN 112865721 B CN112865721 B CN 112865721B CN 202110009322 A CN202110009322 A CN 202110009322A CN 112865721 B CN112865721 B CN 112865721B
Authority
CN
China
Prior art keywords
signal
neural network
training
memory neural
sample set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110009322.2A
Other languages
English (en)
Other versions
CN112865721A (zh
Inventor
陈恒毅
柯兰艳
谭舒
桂竟晶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Unisoc Chongqing Technology Co Ltd
Original Assignee
Unisoc Chongqing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Unisoc Chongqing Technology Co Ltd filed Critical Unisoc Chongqing Technology Co Ltd
Priority to CN202110009322.2A priority Critical patent/CN112865721B/zh
Publication of CN112865721A publication Critical patent/CN112865721A/zh
Application granted granted Critical
Publication of CN112865721B publication Critical patent/CN112865721B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03FAMPLIFIERS
    • H03F3/00Amplifiers with only discharge tubes or only semiconductor devices as amplifying elements
    • H03F3/20Power amplifiers, e.g. Class B amplifiers, Class C amplifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03FAMPLIFIERS
    • H03F1/00Details of amplifiers with only discharge tubes, only semiconductor devices or only unspecified devices as amplifying elements
    • H03F1/02Modifications of amplifiers to raise the efficiency, e.g. gliding Class A stages, use of an auxiliary oscillation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Amplifiers (AREA)

Abstract

本申请实施例公开了一种信号处理方法、装置、设备及存储介质、芯片、模组设备,该方法包括:获取待处理信号;将所述待处理信号输入数字预失真网络中进行处理,得到预失真信号,所述数字预失真网络是利用功率放大器的历史输入信号和历史输出信号对记忆神经网络进行训练得到的;将所述预失真信号输入功率放大器中进行处理,得到处理后的信号,其中,所述处理后的信号与所述待处理信号呈线性关系。通过本申请实施例,可以提高对信号进行线性化处理的准确度。

Description

信号处理方法、装置、设备及存储介质、芯片、模组设备
技术领域
本申请涉及计算机技术领域,尤其涉及一种信号处理方法、装置、计算机设备以及存储介质、芯片、模组设备。
背景技术
功率放大器(Power Amplifier,PA)作为基站发射机的重要部件,能够将信号经过放大后发射出去。通常,由于PA的非线性特性,信号经过PA会产生失真,因而多采用数字预失真(Digital Pre-Distortion,DPD)实现PA线性化。具体的,通过采用传统的多项式模型模拟出功率放大器的非线性特性,再进行相应逆矩阵运算后作为数字预失真技术,处理宽带调制信号。
通信技术发展的日新月异,所要求的通信速率越来越快,功率放大器作为通信系统中不可或缺的组件,其动态范围也在扩大,非线性特性和记忆性的复杂度也在增加,传统的多项式模型模拟PA非线性特性的准确度有待提升。
发明内容
本申请实施例提供一种信号处理方法、装置、计算机设备以及存储介质、芯片、模组设备,可以提高对信号进行线性化处理的准确度。
本申请实施例一方面提供了一种信号处理方法,包括:
获取待处理信号;
将所述待处理信号输入数字预失真网络中进行处理,得到预失真信号,所述数字预失真网络是利用功率放大器的历史输入信号和历史输出信号对记忆神经网络进行训练得到的;
将所述预失真信号输入功率放大器中进行处理,得到处理后的信号,其中,所述处理后的信号与所述待处理信号呈线性关系。
本申请实施例一方面提供了一种信号处理装置,包括:
获取模块,用于获取待处理信号;
输入模块,用于将所述待处理信号输入数字预失真网络中进行处理,得到预失真信号,所述数字预失真网络是利用功率放大器的历史输入信号和历史输出信号对记忆神经网络进行训练得到的;
处理模块,用于将所述预失真信号输入功率放大器中进行处理,得到处理后的信号,其中,所述处理后的信号与所述待处理信号呈线性关系。
可选的,所述装置还包括:训练模块,其中:
所述获取模块,还用于获取训练样本集,所述训练样本集包括功率放大器的多组历史输入信号和历史输出信号;
训练模块,用于以所述训练样本集中的历史输入信号作为记忆神经网络的输入,以所述训练样本集中的历史输出信号作为所述记忆神经网络的输出,对所述记忆神经网络进行正向训练,得到初次训练后的记忆神经网络;
所述训练模块,还用于利用所述训练样本集对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络。
可选的,所述训练模块,还用于:
保持所述初次训练后的记忆神经网络的网络结构不变,以所述训练样本集中的历史输出信号作为所述初次训练后的记忆神经网络的输入,以所述训练样本集中的历史输入信号作为所述初次训练后的记忆神经网络的输出,对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络。
可选的,所述装置还包括:确定模块以及执行模块,其中:
所述获取模块,还用于获取测试样本集,所述测试样本集包括测试输入信号和测试输出信号;
所述处理模块,还用于将所述测试输入信号输入所述初次训练后的记忆神经网络中进行处理,得到预测信号;
确定模块,用于根据所述预测信号和所述测试输出信号确定所述初次训练后的记忆神经网络是否满足初次训练停止条件;
执行模块,用于若满足所述初次训练停止条件,则执行所述利用所述训练样本集对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络的步骤。
本申请实施例一方面提供了一种计算机设备,包括:处理器和存储器;
存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行本申请实施例中的方法。
相应的,本申请实施例提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序包括程序指令,程序指令当被处理器执行时,执行本申请实施例中的方法。
相应的,本申请实施例提供了一种芯片,所述芯片,用于:
接收待处理信号;
将所述待处理信号输入数字预失真网络中进行处理,得到预失真信号,所述数字预失真网络是利用功率放大器的历史输入信号和历史输出信号对记忆神经网络进行训练得到的;
将所述预失真信号输入功率放大器中进行处理,得到处理后的信号,其中,所述处理后的信号与所述待处理信号呈线性关系。
相应的,本申请实施例提供了一种模组设备,其特征在于,所述模组设备包括通信模组、电源模组、存储模组以及芯片模组,其中:
所述电源模组用于为所述模组设备提供电能;
所述存储模组用于存储数据和指令;
所述通信模组用于进行模组设备内部通信,或者用于所述模组设备与外部设备进行通信;
所述芯片模组用于:
通过所述通信模组获取待处理信号;
将所述待处理信号输入数字预失真网络中进行处理,得到预失真信号,所述数字预失真网络是利用功率放大器的历史输入信号和历史输出信号对记忆神经网络进行训练得到的;
将所述预失真信号输入功率放大器中进行处理,得到处理后的信号,其中,所述处理后的信号与所述待处理信号呈线性关系。该芯片包括处理器与数据接口,该处理器通过该数据接口读取存储器上存储的指令,以执行上述一方面及其任一种可能的实现方式中的方法。
相应的,本申请实施例提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行本申请实施例中一方面提供的方法。
在本申请实施例中,基于功率放大器的历史输入信号和历史输出信号训练记忆神经网络,使其进行深度学习构建数字预失真网络,得到对应的网络参数,将该数字预失真网络用于实现功率放大器线性化处理,可以改善信号失真程度,有效提高功放的线性化程度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种信号处理方法的流程示意图;
图2是本申请实施例提供的一种预失真原理的示意图;
图3是本申请实施例提供的另一种信号处理方法的流程示意图;
图4a是本申请实施例提供的一种LSTM神经网络结构的示意图;
图4b是本申请实施例提供的一种LSTM神经网络中神经元的结构示意图;
图5是本申请实施例提供的一种信号处理装置的结构示意图;
图6是本申请实施例提供的一种计算机设备的结构示意图;
图7为本申请实施例提供的一种模组设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例通过使用具备记忆性的神经网络(即记忆神经网络),模拟功率放大器的记忆效应,同时利用该记忆神经网络模拟功率放大器的行为模型,和功率放大器的非线性特性进行匹配,得到行为模型参数,然后再利用和PA特性匹配的记忆神经网络构建数字预失真网络,使得信号通过该数字预失真网络和PA达到良好的线性化效果。
请参见图1,图1是本申请实施例提供的一种信号处理方法的流程示意图。如图1所示,该流程可以包括:
S101,获取待处理信号。
在一种可能的实施例中,待处理信号是宽带信号,在通信系统中,根据信号带宽的不同,可将信号划分为宽带信号和窄带信号,这两者的概念具有相对性。通常,宽带信号相对于窄带信号可以定义为信号带宽与中心频率相比不可以忽略(WB/f0≥0.1)的信号。由于信号传输的过程,会受到不同程度的干扰,使得信号衰减严重,在这种情况下,有必要对待处理信号进行一定的处理,使得其在空间中进行有效传输。进一步的,通常采用的方式都是对待信号进行放大处理,使其传输距离和范围扩大,但是经过放大后的待处理信号会产生失真,影响数据传输,因此对待处理信号的处理方式需要改进,具体改进方式可参阅后续详细步骤介绍的内容。获取待处理信号具体的方式在此不做限制。
S102,将所述待处理信号输入数字预失真网络中进行处理,得到预失真信号,所述数字预失真网络是利用功率放大器的历史输入信号和历史输出信号对记忆神经网络进行训练得到的。
在一种可能的实施例中,数字预失真网络是对功率放大器进行线性化处理的一种方法。在现代通信系统中,为了获得更大的输出功率信号,功率放大器(简称功放)一般会工作在接近饱和点的工作范围,这样功放的非线性失真会产生新的频率分量,这些频率分量落入宽带信号的通带内外都对信号有不利的影响,使得天线的性能指标变差。特别是在5G通信系统,采用了一些高效率的调制方式,这些调制方式在功放工作接近饱和区时会产生严重的三阶交调干扰,影响信号发送,最终造成基站资源浪费。而功率放大器作为发射端的核心模块,有必要采用一定的技术解决上述问题,使得经过功率放大器的信号能够被线性放大。由此在各种功放线性化的方法中,预失真技术以其效率高、实现难度小、成本低成为最热门的技术。采用数字预失真器(其中包括嵌入相关数字预失真算法的模块/系统)对待处理信号进行预失真处理,使得功率放大器在非线性特性下,面对信号的失真具有更好的鲁棒性,也就是信号失真度更小。在此步骤中,数字预失真网络是一种经过功率放大器的历史输入信号和历史输出信号训练之后的记忆神经网络,由于数字预失真网络的失真特性和功放的失真特性相反,因此待处理信号输入该数字预失真网络进行处理,会进行与功放的非线性特性相反的补偿,从而得到预失真信号,作为功放线性化关键的一步,预失真信号关系到最终功放输出信号的线性度是否准确。
其中,预失真技术的具体原理可以如图2所示,该图中的三条曲线分别表示数字预失真增益扩展,也就是数字预失真器的输入信号和输出信号的功率的关系;线性增益,即输入信号和输出信号在理想情况下的关系;以及伴随增益压缩的功率放大器曲线,也就是功率放大器的输入信号和输出信号的功率关系,根据各个增益曲线可以发现,数字预失真的增益曲线可以补偿功率放大器的增益曲线,即结合数字预失真的增益曲线和功率放大器的增益曲线可以让信号达到线性增益。伴随增益压缩的功率放大器曲线中,当输入功率达到最大矫正功率,功率放大器的输出功率基本就不改变了,这对信号的放大处理具有很大的局限性。此外,可以发现,将数字预失真器和功率放大器串联起来,对信号进行处理,可以实现功放的线性化,如图2所示的x(t),即输入的信号,具体可以是输入信号的功率,z(t)是输入信号经过数字预失真器处理之后的信号,在本申请实施例中对应预失真信号,y(t)为功率放大器对预失真信号处理之后的结果。可以发现,如果将输入信号直接输入功率放大器,则信号会出现如随增益压缩的功率放大器曲线那样的失真,信号不能被放大到理想的线性增益值,但是若将该输入信号通过数字预失真器,经过数字预失真增益扩展先进行反向补偿,再通过功率放大器,可以达到线性增益的数值。
S103,将所述预失真信号输入功率放大器中进行处理,得到处理后的信号,其中,所述处理后的信号与所述待处理信号呈线性关系。
在一种可能的实施例中,当待处理信号经过数字预失真网络处理得到预失真信号后,再将该预失真信号经过功率放大器处理,得到处理后的信号。也就是将待处理信号依次经过数字预失真网络和功放后输出信号,理想情况下,该处理后的信号是无失真的线性信号,但是在实际工程中,处理后的信号一般不是完全无失真的线性信号,只能将其视为无限接近无失真的线性信号。其中,待处理信号和处理后的信号呈线性关系,这里线性关系可以是将待处理信号放大K倍后得到输出信号(即处理后的信号)。
综上所述,本申请实施例至少包含如下优点:
使用具有记忆功能的神经网络进行深度学习提高数字预失真网络搭建的准确度,利用数字预失真网络对待处理信号进行预失真处理,即反向补偿待处理信号,再通过功率放大器使得待处理信号线性放大得到处理后的信号,可以提高功率放大器的线性化的精确度,减小处理后的信号失真程度。
请参见图3,图3是本申请实施例提供的另一种信号处理方法的流程示意图。如图3所示,该流程可以包括:
S301,获取训练样本集,所述训练样本集包括功率放大器的多组历史输入信号和历史输出信号。
在人工智能领域,例如机器学习任务中,样本集具有非常重要的作用,特别是在神经网络中,通过使用样本集对模型进行训练,可以匹配重要的参数来建立初始的模型,然后在训练的过程中不断对参数进行优化,使得最终训练出来的模型具备良好的学习能力。在一种可能的实施例中,本申请实施例的训练样本集也有类似的作用,相应的,训练样本集中包括功率放大器的多组历史输入信号和历史输出信号。其中,功率放大器的历史输入信号和历史输出信号是一一对应的关系,例如多个输入信号{x1,x2,x3,...,xn},对应有{y1,y2,y3,...,yn},其中每一个输入信号x都对应了一个输出信号y,这样多组输入输出信号构成一个训练样本集。进一步的,由于功率放大器的非线性特性,这些输入信号经过功率放大器得到的输出信号都是非线性信号。这些非线性信号是功率放大器工作在接近饱和点的区域的失真信号。获取多组历史输入信号和历史输出信号会可以通过相关设备进行采样得到,也可以通过相关设备采样的当前时刻以前的输入信号和输出信号后存储到其他设备中,再进一步获取,具体的获取方式在此不做限制。
此外,为了对功率放大器的行为模型进行精确的建模,训练样本集中的功率放大器输入信号和输出信号需要非常高的准确性,因为这样才可以保证系统实际应用的意义。
需要说明的是,在实验搭建中,数字预失真器输出经过多个模块作为PA的输入信号,和功率放大器的反馈信号(PA的输出信号)之间存在时延,而这个时延的存在反过来又会影响数字预失真的性能,因此在输入神经网络之前需要对功率放大器的输入信号和输出信号进行预处理以减小或消除时延。例如,对同一组输入输出数据进行同步对齐处理。
S302,以所述训练样本集中的历史输入信号作为记忆神经网络的输入,以所述训练样本集中的历史输出信号作为所述记忆神经网络的输出,对所述记忆神经网络进行正向训练,得到初次训练后的记忆神经网络。
在一种可能的实施例中,通信系统的研究和设计需要使用模型进行仿真,确保实际使用验证时的合理性和可能性,这个模型要能够反映实际物体的大多数性能,因此针对功率放大器,首先要建立相关模型,可以是等效电路模型、物理模型和行为模型,其中,功率放大器的行为模型由于抛开了功率放大器的内部物理结构和原理,根据输入输出关系建立模型,类似于黑盒子,也就和神经网络实质相同,因此可以利用功放的历史输入信号和历史输出信号训练,从而建立较佳的行为模型。由于功放的记忆效应使得功放的输出不仅与当前时刻的输入有关,还与之前时刻的输入有关,特别是在宽带调制信号的激励下,记忆效应非常明显,所有这里的神经网络我们可以采用长短期记忆神经网络(Long Short-TermMemory,LSTM)。和功放类似,LSTM也具有记忆特性,适合对时间序列数据进行处理,利用它可以精确刻画出功放记忆效应的行为模型。具体的LSTM时序结构可以参见图4a,包括3个神经单元,每个神经单元处理不同时刻的数据{xt,xt-1,xt+1},但是每个神经单元处理的数据也有和前一时刻的数据有关联。其中,每个神经单元(LSTM cell)的结构可以参见图4b。
对于每个LSTM cell,其结构中包括遗忘门、输入门、更新门、输出门,对应有四层数据处理函数,各个门之间有不用的功能,但又相互作用以实现对时间相隔较远的数据记忆的功能,避免长期依赖问题。
具体的,遗忘门决定从状态单元中扔掉哪些信息,利用sigmoid函数对输入的数据处理,通过查看ht-1和xt信息来输出一个0-1之间的向量,主要目的是对数据进行处理,转化为0-1之间的向量,具体处理是将ht-1和xt拼接为一个矩阵,遗忘门的输出:
ft=sigmod(Wf.[ht-1,xt]+bf)
其中,Wf表示遗忘门的权重矩阵,bf为偏置项。这里的sigmoid函数σ的公式如下:
Figure BDA0002884447200000091
输入门处理当前序列位置的输入,首先由sigmoid函数决定更新哪些信息,然后将ht-1和xt通过一个tanh处理函数得到新的候选神经单元信息
Figure BDA0002884447200000094
输入门的输出:
it=sig mod(Wi.[ht-1,xt]+bi)
其中,Wi表示输入门的权重矩阵,bi为偏置项。
状态单元的输出:
Figure BDA0002884447200000092
其中,Wc表示该层对应的权重矩阵,bc为偏置项,,tanh是双曲正切函数。
更新门结合遗忘门的输出结果与要更新的新信息得到新细胞的状态,通过遗忘门选择忘记旧神经单元信息的一部分以及输入门选择添加候选神经单元信息的一部分得到新的神经单元信息,即新的细胞信息:
Figure BDA0002884447200000093
其中,ct-1表示上一个LSTM cell的状态,运算符“
Figure BDA0002884447200000095
”表示矩阵对应元素相乘。
输出门基于神经单元信息决定要输出的内容,根据输入的ht-1和xt来判断输出神经单元的哪些状态特征,具体处理是将输入经过一个称为输出门的sigmoid处理函数得到判断条件,然后将神经单元状态经过tanh处理函数得到一个-1~1之间值的向量,输出门的输出:
Figure BDA0002884447200000096
其中,ot=sigmod(Wo.[ht-1,xt]+bo),其中,Wo表示输出门的权重矩阵,bo为偏置项。运算符“
Figure BDA0002884447200000097
”表示矩阵对应元素相乘。
将训练样本集输入LSTM,可以对该记忆神经网络LSTM进行训练,进而对功放行为模型进行建模。
在进一步的训练过程中,将获得的功率放大器的历史输入信号和历史输出信号均输入记忆神经网络中,将历史输入信号作为记忆神经网络的输入,最终得到输出结果,这个输出结果是和历史输出信号存在一定差异的值,将历史输出信号作为记忆神经网络的输出,根据这个输出和历史输出信号可以对记忆神经网络的结构以及参数进行初步调整,以使得该记忆神经网络参数达到最佳值,从而更准确模拟出功放的非线性特性。将这个训练过程视为正向训练,可以得到初次训练后的记忆神经网络,初次训练后的记忆神经网络中的网络参数大多能够很好地模拟功放的记忆效应和非线性特性。
在一种可能的实施例中,由于初次训练后的记忆神经网络可能避免不了存在过拟合的情况,使得模型不具备泛化能力,也就是说已训练过的历史输入信号输入该初次训练后的记忆神经网络后得到的输出结果基本上可以视为功率放大器的实际输出信号,但对其他未经过该记忆神经网络的功放输入信号则不一定有较为接近的输出结果,因此需要用测试集对训练出来的记忆神经网络检验性能如何。机器学习中,一般需要将样本分为训练集、验证集和测试集,训练集用来拟合模型,验证集用来确定网络结构或者控制模型复杂程度的参数,而测试集则检验最终选择最优的模型的性能如何,其中,验证集也不一定是必须的,使用训练集也可以对网络的结构和参数进行调整,但是训练集由于参与了模型调参过程,不能反映模型真实的能力,所以预留样本数据的一部分作为测试集,考察初次训练后的记忆神经网络的能力。
相应的,可以将上述一部分功放的样本集中历史输入信号与历史输出信号作为测试集。也就是将未纳入训练集的历史输入信号和历史输出信号作为测试样本集中的测试输入信号和测试输出信号,作为另一种可行的实施例,也可以将采集实时的功率输入信号和输出信号作为测试输入信号和测试输出信号。随后将测试输入信号输入初次训练后的记忆神经网络中进行处理,得到预测信号,该预测信号用于和测试输出信号一起确定初次训练后的记忆神经网络是否满足初次训练停止条件,也就是说,如果预测信号和测试输出信号之间的误差超过预设阈值,即不满足初次训练停止条件,则说明该初次训练后的记忆神经网络的学习能力不达标,从而还需要进一步训练。反之,则证明该初次训练后的记忆神经网络可以对功放的行为模型进行接近的模拟,根据模拟出来的行为模型能够进一步实现数字预失真网络的建立。
其中,为了验证功率放大器行为模型的复杂度以及不同结构参数下的精确度,可以采用归一化的均方误差准则来表征功率放大器行为模型的准确度。对应归一化的均方误差准则定义为:
Figure BDA0002884447200000111
其中,yr代表功放的测量输出信号,yi表示记忆神经网络的输出信号,N表示验证的信号组数。
S303,利用所述训练样本集对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络。
在一种可能的实施例中,保持初次训练后的记忆神经网络的网络结构不变,以训练样本集中的历史输出信号作为初次训练后的记忆神经网络的输入,以训练样本集中的历史输入信号作为初次训练后的记忆神经网络的输出,对初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络。具体的,记忆神经网络的网络结构是在前述步骤经过训练、测试之后的记忆神经网络的网络结构,例如利用长短期记忆(Long Short-TermMemory,LSTM)神经网络作为记忆神经网络,其所包含的LSTM细胞数的多少,在上述步骤S302完成时就可以确定,而此步骤利用训练样本集反向训练相同结构的记忆神经结构,是为了在准确模拟功放行为模型的前提下,利用该记忆神经网络进行深度学习,从而建立具有功放逆向行为模型参数的数字预失真网络。和初次训练记忆神经网络进行功放建模相反,功放的历史输出信号是作为初次训练后的记忆神经网络的输入,而历史输入信号是作为初次训练后的记忆神经网络的输出进行反向训练,得到数字预失真网络。
具体的,首先通过初始化网络参数(也就是初次训练后的记忆神经网络中的网络参数,可用于表示功放的行为模型参数)和输入数据(即功放的历史输出信号)前向计算每个神经元的数值,即前述图4b中的ft,it,ct,ht,ot五个值,具体计算可参见步骤S302中的详细内容;然后反向计算误差项值,主要包括沿时间的反向传播和向上一层传播,其中:
时间反向计算式为:
Figure BDA0002884447200000112
其中,权重矩阵Wi,Wc,Wo,Wf可分别拆分为Wih,Wch,Woh,Wfh和Wix,Wcx,Wox,Wfx
误差传向上一层计算式为:
Figure BDA0002884447200000121
其中,
Figure BDA0002884447200000122
表示上一层的加权输入。
之后根据相应的误差项,计算每个权重的梯度,其中,主要计算权重系数和偏置项的更新梯度。具体表达式如下:
计算权系数Wih,Wch,Woh,Wfh的更新梯度:
Figure BDA0002884447200000123
计算权系数Wix,Wcx,Wox,Wfx的更新梯度:
Figure BDA0002884447200000124
计算偏置项bf,bi,bc,bo更新梯度:
Figure BDA0002884447200000125
其中,E为损失函数。
最后基于上述训练后的记忆网络,获取收敛后的PA逆向行为的参数,从而实现PA的线性化。
需要说明的是,上述记忆神经网络可以包括长短期记忆神经网络或双向长短期记忆神经网络中的任意一种,可选的,具体的模型搭建和训练可以基于MATLAB实现。
综上所述,本申请实施例至少包含如下优点:
通过功率放大器的历史输入信号和历史输出信号对记忆神经模型进行正向训练,充分模拟功率放大器的行为模型参数,匹配功放的非线性特性,提高功放的行为模型的准确度,然后通过将历史输入信号作为网络输出,历史输出信号作为输入进行反向训练,得到数字预失真网络,和传统的多项式建模相比,利用记忆神经网络对非线性的功放建模优势更明显,对功放的非线性改善效果更好。
请参见图5,图5是本申请实施例提供的一种信号处理装置的结构示意图。该装置可以包括:获取模块501、输入模块502、处理模块503、训练模块504、确定模块505、执行模块506。其中:
获取模块501,用于获取待处理信号;
输入模块502,用于将所述待处理信号输入数字预失真网络中进行处理,得到预失真信号,所述数字预失真网络是利用功率放大器的历史输入信号和历史输出信号对记忆神经网络进行训练得到的;
处理模块503,用于将所述预失真信号输入功率放大器中进行处理,得到处理后的信号,其中,所述处理后的信号与所述待处理信号呈线性关系。
可选的,所述装置还包括训练模块504,其中:
所述获取模块501,还用于获取训练样本集,所述训练样本集包括功率放大器的多组历史输入信号和历史输出信号;
训练模块504,用于以所述训练样本集中的历史输入信号作为记忆神经网络的输入,以所述训练样本集中的历史输出信号作为所述记忆神经网络的输出,对所述记忆神经网络进行正向训练,得到初次训练后的记忆神经网络;
所述训练模块504,还用于利用所述训练样本集对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络。
可选的,所述训练模块504,还用于:
保持所述初次训练后的记忆神经网络的网络结构不变,以所述训练样本集中的历史输出信号作为所述初次训练后的记忆神经网络的输入,以所述训练样本集中的历史输入信号作为所述初次训练后的记忆神经网络的输出,对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络。
可选的,所述装置还包括确定模块505和执行模块506,其中:
所述获取模块501,还用于获取测试样本集,所述测试样本集包括测试输入信号和测试输出信号;
所述输入模块502,还用于将所述测试输入信号输入所述初次训练后的记忆神经网络中进行处理,得到预测信号;
确定模块505,用于根据所述预测信号和所述测试输出信号确定所述初次训练后的记忆神经网络是否满足初次训练停止条件;
执行模块506,用于若满足所述初次训练停止条件,则执行所述利用所述训练样本集对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络的步骤。
上述信号处理装置可以是运行于计算机设备中的一个计算机程序(包括程序代码),例如该信号处理装置为一个应用软件;该装置可以用于执行本申请实施例提供的方法中的相应步骤。
可以理解的是,本申请实施例所描述的信号处理装置的各功能单元的功能可根据上述方法实施例中的方法具体实现,其具体实现过程可以参照上述方法实施例的相关描述,此处不再赘述。
所述信号处理装置例如可以是:芯片、或者芯片模组。关于上述实施例中描述的各个装置、产品包含的各个模块/单元,其可以是软件模块/单元,也可以是硬件模块/单元,或者也可以部分是软件模块/单元,部分是硬件模块/单元。例如,对于应用于或集成于芯片的各个装置、产品,其包含的各个模块/单元可以都采用电路等硬件的方式实现,或者,至少部分模块/单元可以采用软件程序的方式实现,该软件程序运行于芯片内部集成的处理器,剩余的(如果有)部分模块/单元可以采用电路等硬件方式实现;对于应用于或集成于芯片模组的各个装置、产品,其包含的各个模块/单元可以都采用电路等硬件的方式实现,不同的模块/单元可以位于芯片模组的同一组件(例如芯片、电路模块等)或者不同组件中,或者,至少部分模块/单元可以采用软件程序的方式实现,该软件程序运行于芯片模组内部集成的处理器,剩余的(如果有)部分模块/单元可以采用电路等硬件方式实现;对于应用于或集成于终端的各个装置、产品,其包含的各个模块/单元可以都采用电路等硬件的方式实现,不同的模块/单元可以位于终端内同一组件(例如,芯片、电路模块等)或者不同组件中,或者,至少部分模块/单元可以采用软件程序的方式实现,该软件程序运行于终端内部集成的处理器,剩余的(如果有)部分模块/单元可以采用电路等硬件方式实现。
请参见图6,是本申请实施例提供的一种计算机设备的结构示意图。如图6所示,该计算机设备可以包括处理器601、存储器602、网络接口603和至少一个通信总线604。其中,处理器601用于调度计算机程序,可以包括中央处理器、控制器、微处理器;存储器602用于存储计算机程序,可以包括高速随机存取存储器,非易失性存储器,例如磁盘存储器件、闪存器件;网络接口603提供数据通信功能,通信总线604负责连接各个通信元件。
其中,处理器601可以用于调用存储器中的计算机程序,以执行如下操作:
获取待处理信号;
将所述待处理信号输入数字预失真网络中进行处理,得到预失真信号,所述数字预失真网络是利用功率放大器的历史输入信号和历史输出信号对记忆神经网络进行训练得到的;
将所述预失真信号输入功率放大器中进行处理,得到处理后的信号,其中,所述处理后的信号与所述待处理信号呈线性关系。
可选的,所述处理器601,具体用于:获取训练样本集,所述训练样本集包括功率放大器的多组历史输入信号和历史输出信号;以所述训练样本集中的历史输入信号作为记忆神经网络的输入,以所述训练样本集中的历史输出信号作为所述记忆神经网络的输出,对所述记忆神经网络进行正向训练,得到初次训练后的记忆神经网络;利用所述训练样本集对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络。
可选的,所述处理器601,具体用于:保持所述初次训练后的记忆神经网络的网络结构不变,以所述训练样本集中的历史输出信号作为所述初次训练后的记忆神经网络的输入,以所述训练样本集中的历史输入信号作为所述初次训练后的记忆神经网络的输出,对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络。
可选的,所述处理器601,具体用于:获取测试样本集,所述测试样本集包括测试输入信号和测试输出信号;将所述测试输入信号输入所述初次训练后的记忆神经网络中进行处理,得到预测信号;根据所述预测信号和所述测试输出信号确定所述初次训练后的记忆神经网络是否满足初次训练停止条件;若满足所述初次训练停止条件,则执行所述利用所述训练样本集对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络的步骤。
应当理解,本申请实施例中所描述的计算机设备可执行前文图1所对应实施例中对该信号处理方法的描述,也可执行前文图5所对应实施例中对该信号处理装置的描述,在此不再赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。
对于应用于或集成于计算机设备的各个装置、产品,其包含的各个模块可以都采用电路等硬件的方式实现,不同的模块可以位于终端内同一组件(例如,芯片、电路模块等)或者不同组件中,或者,至少部分模块可以采用软件程序的方式实现,该软件程序运行于终端内部集成的处理器,剩余的(如果有)部分模块可以采用电路等硬件方式实现。
此外,这里需要指出的是:本申请实施例还提供了一种计算机可读存储介质,且上述计算机可读存储介质中存储有前文提及的信号处理的计算机设备所执行的计算机程序,且上述计算机程序包括程序指令,当上述处理器执行上述程序指令时,能够执行前文图1所对应实施例中对上述信号处理方法的描述,因此,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。对于本申请所涉及的计算机可读存储介质实施例中未披露的技术细节,请参照本申请方法实施例的描述。
上述计算机可读存储介质可以是前述任一实施例提供的信号处理装置或者上述计算机设备的内部存储单元,例如计算机设备的硬盘或内存。该计算机可读存储介质也可以是该计算机设备的外部存储设备,例如该计算机设备上配备的插接式硬盘,智能存储卡(smart media card,SMC),安全数字(secure digital,SD)卡,闪存卡(flash card)等。进一步地,该计算机可读存储介质还可以既包括该计算机设备的内部存储单元也包括外部存储设备。该计算机可读存储介质用于存储该计算机程序以及该计算机设备所需的其他程序和数据。该计算机可读存储介质还可以用于暂时地存储已经输出或者将要输出的数据。
在可行的实施例中,本申请实施例还提供一种芯片,所述芯片,用于:
接收待处理信号;
将所述待处理信号输入数字预失真网络中进行处理,得到预失真信号,所述数字预失真网络是利用功率放大器的历史输入信号和历史输出信号对记忆神经网络进行训练得到的;
将所述预失真信号输入功率放大器中进行处理,得到处理后的信号,其中,所述处理后的信号与所述待处理信号呈线性关系。
在一实施例中,所述芯片还用于:
接收训练样本集,所述训练样本集包括功率放大器的多组历史输入信号和历史输出信号;以所述训练样本集中的历史输入信号作为记忆神经网络的输入,以所述训练样本集中的历史输出信号作为所述记忆神经网络的输出,对所述记忆神经网络进行正向训练,得到初次训练后的记忆神经网络;利用所述训练样本集对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络。
在一实施例中,所述芯片利用所述训练样本集对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络时,具体用于:
保持所述初次训练后的记忆神经网络的网络结构不变,以所述训练样本集中的历史输出信号作为所述初次训练后的记忆神经网络的输入,以所述训练样本集中的历史输入信号作为所述初次训练后的记忆神经网络的输出,对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络。
在一实施例中,所述芯片利用所述训练样本集对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络之前,还用于:
接收测试样本集,所述测试样本集包括测试输入信号和测试输出信号;将所述测试输入信号输入所述初次训练后的记忆神经网络中进行处理,得到预测信号;根据所述预测信号和所述测试输出信号确定所述初次训练后的记忆神经网络是否满足初次训练停止条件;若满足所述初次训练停止条件,则执行所述利用所述训练样本集对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络的步骤。
需要说明的是,所述芯片可以执行前述方法实施例中的相关步骤,具体可参见上述各个步骤所提供的实现方式,在此不再赘述。
在一个实施例中,上述芯片包括至少一个处理器、至少一个第一存储器和至少一个第二存储器;其中,前述至少一个第一存储器和前述至少一个处理器通过线路互联,前述第一存储器中存储有指令;前述至少一个第二存储器和前述至少一个处理器通过线路互联,前述第二存储器中存储前述方法实施例中需要存储的数据。
对于应用于或集成于芯片的各个装置、产品,其包含的各个模块可以都采用电路等硬件的方式实现,或者,至少部分模块可以采用软件程序的方式实现,该软件程序运行于芯片内部集成的处理器,剩余的(如果有)部分模块可以采用电路等硬件方式实现。
如图7所示,图7是本申请实施例提供的一种模组设备的结构示意图,该模组设备包括:通信模组701、电源模组702、存储模组703以及芯片模组704,其中:
所述电源模组702用于为所述模组设备提供电能;所述存储模组703用于存储数据和指令;所述通信模组701用于进行模组设备内部通信,或者用于所述模组设备与外部设备进行通信;所述芯片模组704用于:
通过所述通信模组701获取待处理信号;
将所述待处理信号输入数字预失真网络中进行处理,得到预失真信号,所述数字预失真网络是利用功率放大器的历史输入信号和历史输出信号对记忆神经网络进行训练得到的;
将所述预失真信号输入功率放大器中进行处理,得到处理后的信号,其中,所述处理后的信号与所述待处理信号呈线性关系。该芯片包括处理器与数据接口,该处理器通过该数据接口读取存储器上存储的指令,以执行上述一方面及其任一种可能的实现方式中的方法。
在一实施例中,所述芯片模组704,还用于:
通过所述通信模组701获取训练样本集,所述训练样本集包括功率放大器的多组历史输入信号和历史输出信号;以所述训练样本集中的历史输入信号作为记忆神经网络的输入,以所述训练样本集中的历史输出信号作为所述记忆神经网络的输出,对所述记忆神经网络进行正向训练,得到初次训练后的记忆神经网络;利用所述训练样本集对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络。
在一实施例中,所述芯片模组704利用所述训练样本集对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络时,具体用于:
保持所述初次训练后的记忆神经网络的网络结构不变,以所述训练样本集中的历史输出信号作为所述初次训练后的记忆神经网络的输入,以所述训练样本集中的历史输入信号作为所述初次训练后的记忆神经网络的输出,对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络。
在一实施例中,所述芯片模组704利用所述训练样本集对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络之前,还用于:
通过所述通信模组701获取测试样本集,所述测试样本集包括测试输入信号和测试输出信号;将所述测试输入信号输入所述初次训练后的记忆神经网络中进行处理,得到预测信号;根据所述预测信号和所述测试输出信号确定所述初次训练后的记忆神经网络是否满足初次训练停止条件;若满足所述初次训练停止条件,则执行所述利用所述训练样本集对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络的步骤。
需要说明的是,所述模组设备可以执行前述方法实施例中的相关步骤,具体可参见上述各个步骤所提供的实现方式,在此不再赘述。
对于应用于或集成于芯片模组的各个装置、产品,其包含的各个模块可以都采用电路等硬件的方式实现,不同的模块可以位于芯片模组的同一组件(例如芯片、电路模块等)或者不同组件中,或者,至少部分模块可以采用软件程序的方式实现,该软件程序运行于芯片模组内部集成的处理器,剩余的(如果有)部分模块可以采用电路等硬件方式实现。
本申请实施例的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行本申请实施例中一方面提供的方法。
本申请实施例的说明书和权利要求书及附图中的术语“第一”、“第二”等是用于区别不同对象,而非用于描述特定顺序。此外,术语“包括”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、装置、产品或设备没有限定于已列出的步骤或模块,而是可选地还包括没有列出的步骤或模块,或可选地还包括对于这些过程、方法、装置、产品或设备固有的其他步骤单元。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例提供的方法及相关装置是参照本申请实施例提供的方法流程图和/或结构示意图来描述的,具体可由计算机程序指令实现方法流程图和/或结构示意图的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。这些计算机程序指令可提供到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或结构示意图一个方框或多个方框中指定的功能的装置。这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或结构示意图一个方框或多个方框中指定的功能。这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或结构示意一个方框或多个方框中指定的功能的步骤。
以上所揭露的仅为本申请较佳实施例而已,当然不能以此来限定本申请之权利范围,因此依本申请权利要求所作的等同变化,仍属本申请所涵盖的范围。

Claims (12)

1.一种信号处理方法,其特征在于,包括:
获取待处理信号;
将所述待处理信号输入数字预失真网络中进行处理,得到预失真信号;
将所述预失真信号输入功率放大器中进行处理,得到处理后的信号,其中,所述处理后的信号与所述待处理信号呈线性关系;
其中,所述数字预失真网络是利用训练样本集对初次训练后的记忆神经网络进行反向训练得到的,所述训练样本集包括功率放大器的多组历史输入信号和历史输出信号,所述初次后的记忆神经网络是利用所述训练样本集中的历史输入信号作为记忆神经网络的输入,所述训练样本集中的历史输出信号作为所述记忆神经网络的输出,对所述记忆神经网络进行正向训练得到的。
2.如权利要求1所述的方法,其特征在于,所述方法还包括:
获取训练样本集,所述训练样本集包括功率放大器的多组历史输入信号和历史输出信号;
以所述训练样本集中的历史输入信号作为记忆神经网络的输入,以所述训练样本集中的历史输出信号作为所述记忆神经网络的输出,对所述记忆神经网络进行正向训练,得到初次训练后的记忆神经网络;
利用所述训练样本集对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络。
3.如权利要求2所述的方法,其特征在于,所述利用所述训练样本集对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络,包括:
保持所述初次训练后的记忆神经网络的网络结构不变,以所述训练样本集中的历史输出信号作为所述初次训练后的记忆神经网络的输入,以所述训练样本集中的历史输入信号作为所述初次训练后的记忆神经网络的输出,对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络。
4.如权利要求2所述的方法,其特征在于,所述利用所述训练样本集对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络之前,所述方法还包括:
获取测试样本集,所述测试样本集包括测试输入信号和测试输出信号;
将所述测试输入信号输入所述初次训练后的记忆神经网络中进行处理,得到预测信号;
根据所述预测信号和所述测试输出信号确定所述初次训练后的记忆神经网络是否满足初次训练停止条件;
若满足所述初次训练停止条件,则执行所述利用所述训练样本集对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络的步骤。
5.如权利要求1至4任一项所述的方法,其特征在于,所述记忆神经网络包括长短期记忆神经网络或双向长短期记忆神经网络中的任意一种。
6.一种信号处理装置,其特征在于,包括:
获取模块,用于获取待处理信号;
输入模块,用于将所述待处理信号输入数字预失真网络中进行处理,得到预失真信号,所述数字预失真网络是利用功率放大器的历史输入信号和历史输出信号对记忆神经网络进行训练得到的;
处理模块,用于将所述预失真信号输入功率放大器中进行处理,得到处理后的信号,其中,所述处理后的信号与所述待处理信号呈线性关系;
其中,所述数字预失真网络是利用训练样本集对初次训练后的记忆神经网络进行反向训练得到的,所述训练样本集包括功率放大器的多组历史输入信号和历史输出信号,所述初次后的记忆神经网络是利用所述训练样本集中的历史输入信号作为记忆神经网络的输入,所述训练样本集中的历史输出信号作为所述记忆神经网络的输出,对所述记忆神经网络进行正向训练得到的。
7.如权利要求6所述的装置,其特征在于,还包括:
所述获取模块,还用于获取训练样本集,所述训练样本集包括功率放大器的多组历史输入信号和历史输出信号;
训练模块,用于以所述训练样本集中的历史输入信号作为记忆神经网络的输入,以所述训练样本集中的历史输出信号作为所述记忆神经网络的输出,对所述记忆神经网络进行正向训练,得到初次训练后的记忆神经网络;
所述训练模块,还用于利用所述训练样本集对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络。
8.如权利要求7所述的装置,其特征在于,包括:
所述训练模块,还用于保持所述初次训练后的记忆神经网络的网络结构不变,以所述训练样本集中的历史输出信号作为所述初次训练后的记忆神经网络的输入,以所述训练样本集中的历史输入信号作为所述初次训练后的记忆神经网络的输出,对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络。
9.如权利要求7所述的装置,其特征在于,还包括:
所述获取模块,还用于获取测试样本集,所述测试样本集包括测试输入信号和测试输出信号;
所述处理模块,还用于将所述测试输入信号输入所述初次训练后的记忆神经网络中进行处理,得到预测信号;
确定模块,用于根据所述预测信号和所述测试输出信号确定所述初次训练后的记忆神经网络是否满足初次训练停止条件;
执行模块,用于若满足所述初次训练停止条件,则执行所述利用所述训练样本集对所述初次训练后的记忆神经网络进行反向训练,得到所述数字预失真网络的步骤。
10.一种计算机设备,其特征在于,包括:处理器、存储器以及网络接口;
所述处理器与所述存储器、所述网络接口相连,其中,所述网络接口用于提供网络通信功能,所述存储器用于存储程序代码,所述处理器用于调用所述程序代码,以执行权利要求1-5任一项所述的方法。
11.一种芯片,其特征在于,
所述芯片,用于接收待处理信号;
所述芯片,还用于将所述待处理信号输入数字预失真网络中进行处理,得到预失真信号,所述数字预失真网络是利用功率放大器的历史输入信号和历史输出信号对记忆神经网络进行训练得到的;
所述芯片,还用于将所述预失真信号输入功率放大器中进行处理,得到处理后的信号,其中,所述处理后的信号与所述待处理信号呈线性关系;
其中,所述数字预失真网络是利用训练样本集对初次训练后的记忆神经网络进行反向训练得到的,所述训练样本集包括功率放大器的多组历史输入信号和历史输出信号,所述初次后的记忆神经网络是利用所述训练样本集中的历史输入信号作为记忆神经网络的输入,所述训练样本集中的历史输出信号作为所述记忆神经网络的输出,对所述记忆神经网络进行正向训练得到的。
12.一种模组设备,其特征在于,所述模组设备包括通信模组、电源模组、存储模组以及芯片模组,其中:
所述电源模组用于为所述模组设备提供电能;
所述存储模组用于存储数据和指令;
所述通信模组用于进行模组设备内部通信,或者用于所述模组设备与外部设备进行通信;
所述芯片模组用于:
通过所述通信模组获取待处理信号;
将所述待处理信号输入数字预失真网络中进行处理,得到预失真信号,所述数字预失真网络是利用功率放大器的历史输入信号和历史输出信号对记忆神经网络进行训练得到的;
将所述预失真信号输入功率放大器中进行处理,得到处理后的信号,其中,所述处理后的信号与所述待处理信号呈线性关系;
其中,所述数字预失真网络是利用训练样本集对初次训练后的记忆神经网络进行反向训练得到的,所述训练样本集包括功率放大器的多组历史输入信号和历史输出信号,所述初次后的记忆神经网络是利用所述训练样本集中的历史输入信号作为记忆神经网络的输入,所述训练样本集中的历史输出信号作为所述记忆神经网络的输出,对所述记忆神经网络进行正向训练得到的。
CN202110009322.2A 2021-01-05 2021-01-05 信号处理方法、装置、设备及存储介质、芯片、模组设备 Active CN112865721B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110009322.2A CN112865721B (zh) 2021-01-05 2021-01-05 信号处理方法、装置、设备及存储介质、芯片、模组设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110009322.2A CN112865721B (zh) 2021-01-05 2021-01-05 信号处理方法、装置、设备及存储介质、芯片、模组设备

Publications (2)

Publication Number Publication Date
CN112865721A CN112865721A (zh) 2021-05-28
CN112865721B true CN112865721B (zh) 2023-05-16

Family

ID=76003946

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110009322.2A Active CN112865721B (zh) 2021-01-05 2021-01-05 信号处理方法、装置、设备及存储介质、芯片、模组设备

Country Status (1)

Country Link
CN (1) CN112865721B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113411056B (zh) * 2021-07-12 2022-11-29 电子科技大学 一种基于广义多项式和神经网络的非线性预失真方法
CN115378446B (zh) * 2022-10-25 2023-01-10 北京力通通信有限公司 基于神经网络的宽带数字预失真系统和方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007068123A1 (en) * 2005-12-16 2007-06-21 National Research Council Of Canada Method and system for training and applying a distortion component to machine translation
CN101741787A (zh) * 2008-11-19 2010-06-16 中兴通讯股份有限公司 一种预失真快速收敛的训练数据采集方法及系统
CN102427336A (zh) * 2011-11-30 2012-04-25 上海瑞和安琦通信科技有限公司 一种实现自适应数字预失真线性化的射频功率放大系统
CN110224687A (zh) * 2019-05-14 2019-09-10 电子科技大学 一种基于人工神经网络预失真器的Gm_C滤波器
CN111900937A (zh) * 2020-06-02 2020-11-06 中兴通讯股份有限公司 一种预失真方法、系统、设备及存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8989307B2 (en) * 2013-03-05 2015-03-24 Qualcomm Incorporated Power amplifier system including a composite digital predistorter
CN105224985B (zh) * 2015-09-28 2017-10-31 南京航空航天大学 一种基于深度重构模型的功率放大器行为建模方法
CN105763503B (zh) * 2016-04-25 2019-11-19 京信通信系统(中国)有限公司 一种数字预失真处理方法及装置
US20190068429A1 (en) * 2017-08-28 2019-02-28 Qualcomm Incorporated Method and apparatus with common digital pre-distortion component for multiple transmit chains
AU2019374148A1 (en) * 2018-11-02 2021-05-27 Inkbit, LLC Intelligent additive manufacturing
CN111490737B (zh) * 2019-01-28 2023-07-21 中国移动通信有限公司研究院 一种用于功率放大器的非线性补偿方法和设备
CN110738984B (zh) * 2019-05-13 2020-12-11 苏州闪驰数控系统集成有限公司 人工智能cnn、lstm神经网络语音识别系统
CN110765720B (zh) * 2019-09-12 2024-05-24 重庆大学 一种复值流水线递归神经网络模型的功放预失真方法
CN111245750B (zh) * 2020-01-08 2023-03-31 紫光展锐(重庆)科技有限公司 频偏估计方法、装置及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007068123A1 (en) * 2005-12-16 2007-06-21 National Research Council Of Canada Method and system for training and applying a distortion component to machine translation
CN101741787A (zh) * 2008-11-19 2010-06-16 中兴通讯股份有限公司 一种预失真快速收敛的训练数据采集方法及系统
CN102427336A (zh) * 2011-11-30 2012-04-25 上海瑞和安琦通信科技有限公司 一种实现自适应数字预失真线性化的射频功率放大系统
CN110224687A (zh) * 2019-05-14 2019-09-10 电子科技大学 一种基于人工神经网络预失真器的Gm_C滤波器
CN111900937A (zh) * 2020-06-02 2020-11-06 中兴通讯股份有限公司 一种预失真方法、系统、设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Deep Neural Network-based Digital Predistorter for Doherty Power Amplifiers;Hongyo, R 等;《IEEE Microwave and Wireless Components Letters》;第29卷(第2期);146-148 *
基于神经网络的宽带功放动态非线性行为建模;刘太君 等;《微波学报》;第36卷(第1期);131-136 *

Also Published As

Publication number Publication date
CN112865721A (zh) 2021-05-28

Similar Documents

Publication Publication Date Title
JP7451720B2 (ja) プリディストーション方法、システム、装置及び記憶媒体
CN112865721B (zh) 信号处理方法、装置、设备及存储介质、芯片、模组设备
CN103685111A (zh) 一种数字预失真参数的求取方法及预失真系统
CN110765720B (zh) 一种复值流水线递归神经网络模型的功放预失真方法
Garanayak et al. Fast and accurate measurement of harmonic parameters employing hybrid adaptive linear neural network and filtered‐x least mean square algorithm
CN102983819A (zh) 一种功率放大器的模拟方法及功率放大器模拟装置
CN103701414B (zh) 非线性项的选择装置及方法、辨识系统及补偿系统
Qian et al. Fixed-point maximum total complex correntropy algorithm for adaptive filter
CN111030644B (zh) 一种非线性网络化控制系统的有限时间耗散滤波方法
CN110533169A (zh) 一种基于复值神经网络模型的数字预失真方法及系统
CN108574649B (zh) 一种数字预失真系数的确定方法及装置
CN113553771B (zh) 基于rnn网络的动态x参数核计算方法
CN112398543B (zh) 用于光通信的方法、设备、系统、装置和计算机可读介质
CN104168238A (zh) 一种降低自适应数字预失真算法计算复杂度的方法
CN110188382B (zh) 基于fft与bp神经网络模型的功率放大器频域行为建模方法
CN110598261A (zh) 一种基于复数反向神经网络的功率放大器频域建模方法
Gan Adaptive digital predistortion of nonlinear systems
Averina et al. Two-block model of a digital corrector for linearization of an analog radio channel
Nevzorov et al. A neural network simulator of a nonstationary medium in an adaptive data transmission system
CN112131792B (zh) 一种地表电位还原方法、装置、设备及存储介质
JP5238461B2 (ja) プリディストータ
CN112134631B (zh) 无线通信系统平均容量评估方法及系统
CN114566227B (zh) 一种基于牛顿迭代算法的ph中和过程模型辨识方法
Casenave et al. Identification and state realisation of non-rational convolution models by means of diffusive representation
WO2024065725A1 (en) Methods and apparatuses for perfoming digital predistortion using a combintion model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant