CN112036543A - 神经网络均衡与线性均衡相结合的时域均衡器及均衡方法 - Google Patents

神经网络均衡与线性均衡相结合的时域均衡器及均衡方法 Download PDF

Info

Publication number
CN112036543A
CN112036543A CN202010686983.4A CN202010686983A CN112036543A CN 112036543 A CN112036543 A CN 112036543A CN 202010686983 A CN202010686983 A CN 202010686983A CN 112036543 A CN112036543 A CN 112036543A
Authority
CN
China
Prior art keywords
symbol
neural network
output
equalization
equalization module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010686983.4A
Other languages
English (en)
Other versions
CN112036543B (zh
Inventor
张帆
阮小可
明浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University
Original Assignee
Peking University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University filed Critical Peking University
Priority to CN202010686983.4A priority Critical patent/CN112036543B/zh
Publication of CN112036543A publication Critical patent/CN112036543A/zh
Application granted granted Critical
Publication of CN112036543B publication Critical patent/CN112036543B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/067Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using optical means
    • G06N3/0675Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using optical means using electro-optical, acousto-optical or opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/25Arrangements specific to fibre transmission

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Neurology (AREA)
  • Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)

Abstract

本发明公开了一种神经网络均衡与线性均衡相结合的时域均衡器及均衡方法。本方法为:1)向时域均衡器的输入寄存模块输入一段长度为L1符号序列;2)将序列中的L2个符号构成向量XNN并传入神经网络均衡模块进行处理,得到输出结果
Figure DDA0002587926530000011
3)将L1‑L2个符号构成向量XLN并传入线性均衡模块进行处理;4)将输入向量XLN进行加权求和作为输出值
Figure DDA0002587926530000012
5)将线性均衡模块、神经网络均衡模块的输出进行加和,得到最终均衡输出符号
Figure DDA0002587926530000013

Description

神经网络均衡与线性均衡相结合的时域均衡器及均衡方法
技术领域
本发明属于光通信传输领域,涉及一种将神经网络均衡与线性均衡相结合的时域均衡器及均衡方法。
背景技术
光信号在光纤传输系统中容易受到各类非线性的影响,如光纤非线性效应、电光器件非线性响应等。这些非线性会对信号造成畸变,导致误码的产生。如何减轻光纤传输系统的非线性损伤以提高系统性能是需要解决的重要课题。
采用非线性时域均衡器是解决上述问题的常用手段。目前,非线性时域均衡器主要有两类,一类是基于沃特尔级数的时域均衡器,另一类是基于神经网络的时域均衡器。
1)基于沃特尔级数的时域均衡器。沃特尔级数模型是其中一种常见的模型,这种模型对非线性自适应均衡非常有用。一方面线性自适应均衡器的经典公式都可以很容易推广到这种模型。另一方面,沃特尔级数在输入能量有限的条件下可以以任意精度逼近绝大多数非线性系统。其缺点是:算法复杂度随着考虑的级数项的增加而急剧增大。
2)基于神经网络的时域均衡器。神经网络算法拥有强大的非线性拟合能力,得益于其隐藏层非线性激活函数的使用。基于神经网络的时域均衡算法的非线性补偿能力很强,但缺点是由于神经网络拓扑层数较多,算法复杂度往往较高。
发明内容
本发明提供一种神经网络均衡与线性均衡相结合的时域均衡器及其均衡方法,能够有效地补偿光纤传输系统中的各类非线性损伤,并降低传统全连接神经网络算法的计算复杂度。
所述时域均衡器的结构如图1所示,主要包括:一个输入寄存模块,一个神经网络均衡模块,一个线性均衡模块以及一个加和输出模块。具体均衡步骤如下:
(1)每均衡一个符号,向时域均衡器的输入寄存模块输入一段符号序列,符号序列的长度记为L1,包括待均衡符号本身,及其时域上前后若干个延迟符号;优选地,应尽量保证待均衡符号本身位于序列的中心位置,前、后延迟符号数目尽可能接近;
(2)上述输入寄存模块,将时域上最接近待均衡符号的L2个符号(L2<=L1,包含待均衡符号本身及若干前后延迟符号)组成向量XNN,输入神经网络均衡模块的输入层缓存;本发明并不是将全部符号(即L1个符号)输入神经网络是本专利的创新点所在,好处是可以使贡献小的延迟符号不参与神经网络均衡,从而减小计算复杂度。
(3)上述输入寄存模块,将(2)中未进入神经网络均衡模块的L1-L2个符号,输入线性均衡模块的输入层缓存,可选择地,也可将全部L1个符号输入线性均衡模块缓存,输入上述线性均衡模块的符号构成的向量记为XLN
(4)上述神经网络均衡模块采用传统全连接神经网络结构,包含:1个输入层,h个(h>0)隐藏层和1个输出层。输入层神经元数量和传入的符号数对应,各隐藏层神经元数应综合考量计算复杂度与均衡效果而定,输出层仅设置一个神经元。各层之间的权重连接矩阵分别定义为w1,w2,…,wh+1,相应的偏置向量分别记为b1,b2,…,bh+1,加粗字母表示矩阵或向量。可选地,也可不添加任何偏置。每个隐藏层都会对输入的数据作用一个非线性激活函数,非线性激活函数的种类包括但不局限于ReLU函数,第1至第h层隐藏层的激活函数分别定义为f1(·),f2(·),…,fh(·),输出层不作用任何激活函数。在均衡开始前,需要对所有权重连接矩阵和偏置向量的取值进行随机初始化。神经网络的前向传播过程可描述为:输入层每个神经元直接将(2)中缓存的符号作为该神经元的输出;自第一隐藏层开始至最后的输出层,每个神经元会接收来自上一层所有神经元各自输出的并分别乘以对应权重系数的信号,进一步地,神经元会对这些信号求和、加上偏置项并作用相应的非线性激活函数(输出层没有激活函数),作为该神经元的输出。因此,神经网络均衡模块的输出可表示为:
Figure BDA0002587926510000021
(5)上述线性均衡模块,将该模块输入层的每个符号分别乘以一个相应的权重系数,并全部求和得到该模块的输出层,权重系数构成的向量记为wLN,在均衡开始前同样需要对该权重向量进行随机初始化。因此,线性均衡模块的输出可表示为:
Figure BDA0002587926510000022
(6)线性均衡模块和神经网络均衡模块的输出分别传入加和输出模块,通过加和作用,得到均衡器的最终均衡输出符号:
Figure BDA0002587926510000023
(7)在训练模式中,均衡器的输出符号
Figure BDA0002587926510000024
会与参考符号y进行比对,计算出相应误差代价,上述参考符号是事先提供的待均衡符号对应的的发端原始符号。优选地,可选择最小均方误差(MSE)函数作为代价函数。算出代价之后,通过经典的反向传输算法(BackPropagation Algorithm)计算线性均衡模块、神经网络均衡模块中的参数梯度,包括权重连接参数和偏置参数,进一步地,可选择包括但不局限于Adam算法在内的优化器,调整并优化上述参数。直到各参数收敛,完成训练过程。
(8)完成训练后,均衡器直接将每次均衡后的符号输出,用于后续判决等处理。
与现有技术相比,本发明的有益效果:
采用本发明所述均衡结构,与传统全连接神经网络均衡结构相比,具有以下两个优点:
(1)算法复杂度更小。因为输入符号序列中传入计算量相对更大的神经网络均衡模块的符号数减少,而传入线性均衡模块的符号消耗的计算量很小。
(2)补偿非线性的效果更好。因为待均衡符号本身及其邻近的符号受到的非线性影响更严重,含有的非线性畸变信息最多,而在时域上相距待均衡符号较远的符号几乎不含有非线性畸变信息,传入神经网络均衡会引起一定程度的均衡噪声,反而恶化均衡性能。而在时域上相距待均衡符号较远的符号仍含有线性畸变信息,通过线性均衡网络均衡可以更好地提升系统性能。因此可以合理优化传入神经网络均衡模块的符号数L2使均衡性能达到最佳。
附图说明
图1是本发明所述的时域均衡器的整体结构图。
图2是本发明在单边带PAM4信号高速光纤传输系统中的实施例。
图3是104G波特率单边带PAM4信号80公里的传输实验结果。
具体实施方式
下面结合附图2,详细描述本发明所述的均衡方案在单边带PAM4信号高速光纤传输系统中的应用。
该实施例包括以下步骤:
(1)通过发端数字信号处理(DSP)生成单边带PAM4信号,主要流程包括:PAM-4符号映射、上采样、根升余弦滤波、单边带滤波、数字域光纤色散预补偿、下采样等操作,生成104G波特率的单边带PAM4数字信号。
(2)将上述生成的单边带PAM4数字信号传入光发射机,调制成光域上的单边带PAM-4信号,将光信号送入80公里的标准单模光纤进行传输,进一步地,传输后的光信号传入光接收机将光信号转化电信号,进一步地转为数字信号,传入收端DSP处理。
(3)通过收端DSP恢复发端符号,在经过重采样、Kramers-Kronig接收、相位纠正、取实部、匹配滤波、帧同步等步骤后,进一步地,将符号序列传入本发明所述的均衡器进行均衡处理,同时作为对照,也将相同的符号序列传入传统的线性均衡器和传统的神经网络均衡器进行处理,为了公平比较,每个均衡器都使用相同长度的符号序列进行训练,并在训练后恢复相同长度的符号序列;
进一步地,将三种均衡器恢复出的符号序列进行判决、解调、误码统计,并进行对比。
本发明所述的均衡器在该实施例中的具体应用步骤为:
1.对于每一个待均衡符号,向时域均衡器的输入寄存模块输入待均衡符号本身,及其时域上前后各40个延迟符号,共81个符号;
2.将待均衡符号本身及其时域上前后各15个延迟符号,共31个符号,传入神经网络均衡模块的输入层;
3.将步骤1中全部81个符号传入线性均衡模块的输入层;
4.上述神经网络均衡模块采用传统全连接神经网络结构,具体参数配置为:包含1个输入层,1个隐藏层和1个输出层。输入层神经元数量为31(和传入的符号数对应),单隐藏层神经元数被优化为8,输出层仅设置一个神经元。隐藏层激活函数为ReLU,输出层不复合任何激活函数。在均衡开始前,对所有权重连接矩阵和偏置向量的取值进行随机初始化。神经网络通过前向传播得到神经网络均衡模块的输出值。
5.上述线性均衡模块将输入层的81个符号分别乘以权重系数,并全部求和得到该模块的输出值,在均衡开始前同样需要权重向量进行随机初始化。
6.线性均衡模块和神经网络均衡模块的输出分别传入加和输出模块,通过加和作用,得到均衡器的最终均衡输出符号。
7.首先在训练模式中,提供6400个发端初始符号作为均衡器输出符号的参考,计算相应误差代价,这里选择最小均方误差(MSE)函数作为代价函数。算出代价之后,通过经典的反向传输算法(Back Propagation Algorithm)计算线性均衡模块、神经网络均衡模块中的参数梯度,包括权重连接参数和偏置参数,这里选用Adam算法优化器,调整并优化上述参数。迭代以上过程直到各参数收敛,完成训练过程。
8.完成训练后,均衡器将每次均衡后的符号直接输出,用于后续判决等处理。
图3为104G波特率单边带PAM4信号80公里的传输实验结果,纵轴为误码率(BER),横轴为接收信号光信噪比(OSNR)。为公平比较,三种均衡方案的输入寄存模块的长度统一优化为81。
对于参考用的传统神经网络均衡方案,也采用单隐藏层、单输出神经元结构,隐藏层神经元数优化为8,隐藏层激活函数同样为ReLU。
通过对比3条BER曲线可以发现,本发明的均衡算法优于常用的线性均衡算法和神经网络算法,原因在于L2被合理的优化。另外从复杂度方面考虑,在本实施例中,本发明所述的均衡方案每均衡一个符号需要的乘法次数为337,而传统的神经网络算法需要656次,本发明所述的均衡方案大幅度降低了非线性均衡的计算复杂度。
以上实施例仅用以说明本发明的技术方案而非对其进行限制,本领域的普通技术人员可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明的精神和范围,本发明的保护范围应以权利要求所述为准。

Claims (8)

1.一种神经网络均衡与线性均衡相结合的时域均衡方法,其步骤包括:
1)向时域均衡器的输入寄存模块输入一段符号序列;所述符号序列的长度记为L1,所述符号序列包括待均衡符号及其时域上前后多个延迟符号;
2)将所述符号序列中的L2个符号构成向量XNN,并将其传入神经网络均衡模块进行处理,得到输出结果
Figure FDA0002587926500000011
其中该L2个符号包括待均衡符号及在时域上最接近待均衡符号的若干延迟符号;
3)将所述符号序列中未进入神经网络均衡模块的L1-L2个符号构成向量XLN,并将其传入线性均衡模块进行处理;或者将所述符号序列的全部L1个符号构成向量XLN,并将其传入线性均衡模块进行处理;
4)所述线性均衡模块将输入向量XLN进行加权求和作为输出值
Figure FDA0002587926500000012
向量XLN中各符号对应的权重系数构成的向量记为wLN
5)将所述线性均衡模块的输出和所述神经网络均衡模块的输出分别传入加和输出模块进行加和,得到最终均衡输出符号
Figure FDA0002587926500000013
2.如权利要求1所述的方法,其特征在于,所述待均衡符号位于所述符号序列的中心位置。
3.如权利要求1所述的方法,其特征在于,所述神经网络均衡模块采用全连接神经网络结构,其包含1个输入层、h个隐藏层和1个输出层,h>0;其中输入层神经元数量和传入的符号数对应,输出层设置一个神经元;各层之间的权重连接矩阵分别定义为w1,w2,…,wh+1,相应的偏置向量分别记为b1,b2,…,bh+1;每个隐藏层对输入的数据作用一个非线性激活函数,第1至第h层隐藏层的激活函数分别定义为f1(·),f2(·),…,fh(·);所述输入层每个神经元接收一个传入的原始符号,并直接作为该神经元的输出;自第一隐藏层开始至最后的输出层,每个神经元会接收来自上一层所有神经元输出的并乘以对应权重系数的信号,然后将所接收信号加上偏置项并作用相应的非线性激活函数,作为该神经元的输出。
4.如权利要求1所述的方法,其特征在于,对时域均衡器进行训练,训练方法为:将训练样本输入时域均衡器,然后将所得输出符号
Figure FDA0002587926500000014
与对应参考符号y进行比对,计算出相应误差代价,所述参考符号是训练样本对应的发端原始符号;然后通过反向传输算法根据误差代价计算线性均衡模块、神经网络均衡模块中各参数的参数梯度,根据参数梯度对线性均衡模块、神经网络均衡模块中的对应参数进行调整优化,直到各参数收敛。
5.一种神经网络均衡与线性均衡相结合的时域均衡器,其特征在于,包括一个输入寄存模块、一个神经网络均衡模块、一个线性均衡模块以及一个加和输出模块;其中,
所述输入寄存模块,用于接收输入的符号序列,将所述符号序列中的L2个符号构成一向量XNN并输入神经网络均衡模块的输入层缓存,以及将所述符号序列中未进入所述神经网络均衡模块的L1-L2个符号构成向量XLN或者将所述符号序列的全部L1个符号构成向量XLN并输入线性均衡模块的输入层缓存;所述符号序列的长度记为L1,所述符号序列包括待均衡符号及其时域上前后多个延迟符号;其中该L2个符号包括待均衡符号及在时域上最接近待均衡符号的若干延迟符号;
所述神经网络均衡模块,用于对向量XNN进行处理,得到输出结果
Figure FDA0002587926500000021
所述线性均衡模块,用于对向量XLN进行处理;其中,所述线性均衡模块将输入向量XLN进行加权求和作为输出值
Figure FDA0002587926500000022
向量XLN中各符号对应的权重系数构成的向量记为wLN
所述加和输出模块,用于对所述线性均衡模块的输出和所述神经网络均衡模块的输出进行加和,得到最终均衡输出符号
Figure FDA0002587926500000023
6.如权利要求5所述的时域均衡器,其特征在于,所述待均衡符号位于所述符号序列的中心位置。
7.如权利要求5所述的时域均衡器,其特征在于,所述神经网络均衡模块采用全连接神经网络结构,其包含1个输入层、h个隐藏层和1个输出层,h>0;其中输入层神经元数量和传入的符号数对应,输出层设置一个神经元;各层之间的权重连接矩阵分别定义为w1,w2,…,wh+1,相应的偏置向量分别记为b1,b2,…,bh+1;每个隐藏层对输入的数据作用一个非线性激活函数,第1至第h层隐藏层的激活函数分别定义为f1(·),f2(·),…,fh(·);所述输入层每个神经元接收一个传入的原始符号,并直接作为该神经元的输出;自第一隐藏层开始至最后的输出层,每个神经元会接收来自上一层所有神经元输出的并乘以对应权重系数的信号,然后将所接收信号加上偏置项并作用相应的非线性激活函数,作为该神经元的输出。
8.如权利要求5所述的时域均衡器,其特征在于,对时域均衡器进行训练,训练方法为:将训练样本输入时域均衡器,然后将所得输出符号
Figure FDA0002587926500000024
与对应参考符号y进行比对,计算出相应误差代价,所述参考符号是训练样本对应的发端原始符号;然后通过反向传输算法根据误差代价计算线性均衡模块、神经网络均衡模块中各参数的参数梯度,根据参数梯度对线性均衡模块、神经网络均衡模块中的对应参数进行调整优化,直到各参数收敛。
CN202010686983.4A 2020-07-16 2020-07-16 神经网络均衡与线性均衡相结合的时域均衡器及均衡方法 Active CN112036543B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010686983.4A CN112036543B (zh) 2020-07-16 2020-07-16 神经网络均衡与线性均衡相结合的时域均衡器及均衡方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010686983.4A CN112036543B (zh) 2020-07-16 2020-07-16 神经网络均衡与线性均衡相结合的时域均衡器及均衡方法

Publications (2)

Publication Number Publication Date
CN112036543A true CN112036543A (zh) 2020-12-04
CN112036543B CN112036543B (zh) 2022-05-03

Family

ID=73579557

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010686983.4A Active CN112036543B (zh) 2020-07-16 2020-07-16 神经网络均衡与线性均衡相结合的时域均衡器及均衡方法

Country Status (1)

Country Link
CN (1) CN112036543B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112865866A (zh) * 2021-01-20 2021-05-28 重庆邮电大学 基于gsn的可见光pam系统非线性补偿方法
CN114070399A (zh) * 2022-01-17 2022-02-18 网络通信与安全紫金山实验室 矢量信号直接探测系统、方法、电子设备及存储介质
WO2022121386A1 (zh) * 2020-12-07 2022-06-16 华为技术有限公司 信号处理方法及装置、通信系统
CN115208721A (zh) * 2022-06-23 2022-10-18 上海交通大学 类Volterra的神经网络均衡器构建方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6052349A (en) * 1996-09-30 2000-04-18 Kabushiki Kaisha Toshiba Waveform equalizer and memory device having a waveform equalizer
US20150249554A1 (en) * 2013-06-21 2015-09-03 Dhadesugoor Vaman Adaptive demodulation method and apparatus using an artificial neural network to improve data recovery in high speed channels
WO2019082239A1 (ja) * 2017-10-23 2019-05-02 三菱電機株式会社 等化装置および等化方法
CN109905337A (zh) * 2019-01-13 2019-06-18 浙江大学 一种基于narx神经网络与块状反馈的信道均衡方法
CN110392006A (zh) * 2019-06-20 2019-10-29 东南大学 基于集成学习和神经网络的自适应信道均衡器及方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6052349A (en) * 1996-09-30 2000-04-18 Kabushiki Kaisha Toshiba Waveform equalizer and memory device having a waveform equalizer
US20150249554A1 (en) * 2013-06-21 2015-09-03 Dhadesugoor Vaman Adaptive demodulation method and apparatus using an artificial neural network to improve data recovery in high speed channels
WO2019082239A1 (ja) * 2017-10-23 2019-05-02 三菱電機株式会社 等化装置および等化方法
CN109905337A (zh) * 2019-01-13 2019-06-18 浙江大学 一种基于narx神经网络与块状反馈的信道均衡方法
CN110392006A (zh) * 2019-06-20 2019-10-29 东南大学 基于集成学习和神经网络的自适应信道均衡器及方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
AMI KUMAR PARIDA ETC.: "A Strategy on Channel Equalization for Digital Communication Based on Neural Network System", 《2019 5TH INTERNATIONAL CONFERENCE ON ADVANCED COMPUTING & COMMUNICATION SYSTEMS (ICACCS)》 *
QINGYI ZHOU ETC.: "AdaNN: Adaptive Neural Network-based Equalizer via Online Semi-supervised Learning", 《HTTPS://ARXIV.ORG/PDF/1907.10258.PDF》 *
肖瑛等: "线性修正下的神经网络盲均衡算法", 《声学技术》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022121386A1 (zh) * 2020-12-07 2022-06-16 华为技术有限公司 信号处理方法及装置、通信系统
CN112865866A (zh) * 2021-01-20 2021-05-28 重庆邮电大学 基于gsn的可见光pam系统非线性补偿方法
CN114070399A (zh) * 2022-01-17 2022-02-18 网络通信与安全紫金山实验室 矢量信号直接探测系统、方法、电子设备及存储介质
CN114070399B (zh) * 2022-01-17 2022-05-03 网络通信与安全紫金山实验室 矢量信号直接探测系统、方法、电子设备及存储介质
CN115208721A (zh) * 2022-06-23 2022-10-18 上海交通大学 类Volterra的神经网络均衡器构建方法及系统
CN115208721B (zh) * 2022-06-23 2024-01-23 上海交通大学 类Volterra的神经网络均衡器构建方法及系统

Also Published As

Publication number Publication date
CN112036543B (zh) 2022-05-03

Similar Documents

Publication Publication Date Title
CN112036543B (zh) 神经网络均衡与线性均衡相结合的时域均衡器及均衡方法
EP1392013B1 (en) Hybrid adaptive equalizer for optical communication systems
CN103780519B (zh) 基于lms的信道均衡和频偏估计联合并行方法
CN112468419B (zh) 一种自适应的双模式盲均衡方法及系统
CN103812806A (zh) 一种基于时域信道估计的信道均衡方法和系统
CN111181655A (zh) 一种基于bp算法和非线性dfe算法的光接收机
US6430287B1 (en) Combined parallel adaptive equalizer/echo canceller
CN113938198B (zh) 光纤传输系统、基于lda简化非线性均衡器的方法及模块
CN110266388B (zh) 一种pmd均衡方法、装置、电子设备及存储介质
CN112887237B (zh) 光纤通信系统的复信道均衡器设计方法
CN111988249B (zh) 一种基于自适应神经网络的接收端均衡方法及接收端
CN115882959B (zh) 一种基于机器学习的非线性补偿方法
CN114204993B (zh) 基于多项式映射的特征构建的非线性均衡方法及系统
Schädler et al. Nonlinear Component Equalization: A Comparison of Deep Neural Networks and Volterra Series
CN114124223B (zh) 一种卷积神经网络光纤均衡器生成方法及系统
WO2022048355A1 (zh) 频域广义线性均衡方法、装置、系统及非易失性存储介质
Glentis et al. Electronic dispersion compensation of fiber links using sparsity induced volterra equalizers
JP7055268B2 (ja) 適応等化器、適応等化方法及び光通信システム
Yadav et al. Dynamic complex deep neural network nonlinear equalizer for 64 QAM long-haul transmission systems
Chen et al. Computationally efficient pre-distortion based on adaptive partitioning neural network in underwater visible light communication
Srivallapanondh et al. Low complexity neural network equalizer for nonlinear mitigation in digital subcarrier multiplexing systems
CN113283592B (zh) 基于低复杂度lstm的接收端均衡方法及系统
Li et al. Hybrid time–frequency domain equalization based on sign–sign joint decision multimodulus algorithm for 6× 6 mode division multiplexing system
CN118337293A (zh) 一种带宽限制下的pam4均衡传输系统及方法
CN113904732B (zh) 一种光互连信号损伤抑制方法、接收装置及光互连系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant