CN108650201B - 基于神经网络的信道均衡方法、译码方法及对应设备 - Google Patents
基于神经网络的信道均衡方法、译码方法及对应设备 Download PDFInfo
- Publication number
- CN108650201B CN108650201B CN201810440913.3A CN201810440913A CN108650201B CN 108650201 B CN108650201 B CN 108650201B CN 201810440913 A CN201810440913 A CN 201810440913A CN 108650201 B CN108650201 B CN 108650201B
- Authority
- CN
- China
- Prior art keywords
- layer
- neural network
- convolutional
- trained
- nth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 50
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 45
- 238000012549 training Methods 0.000 claims abstract description 31
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 18
- 238000010586 diagram Methods 0.000 claims description 37
- 238000013135 deep learning Methods 0.000 claims description 17
- 239000011159 matrix material Substances 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 7
- 238000007476 Maximum Likelihood Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012706 support-vector machine Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000005562 fading Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L25/00—Baseband systems
- H04L25/02—Details ; arrangements for supplying electrical power along data transmission lines
- H04L25/03—Shaping networks in transmitter or receiver, e.g. adaptive shaping networks
- H04L25/03006—Arrangements for removing intersymbol interference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L25/00—Baseband systems
- H04L25/02—Details ; arrangements for supplying electrical power along data transmission lines
- H04L25/03—Shaping networks in transmitter or receiver, e.g. adaptive shaping networks
- H04L25/03006—Arrangements for removing intersymbol interference
- H04L25/03165—Arrangements for removing intersymbol interference using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Power Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Filters That Use Time-Delay Elements (AREA)
- Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)
Abstract
本发明公开了一种基于神经网络的信道均衡方法和译码方法以及对应的设备,其中译码方法包括:S1:基于卷积神经网络,构建适用于存在码间干扰的线性信道均衡器以及非线性信道均衡器,利用反向传播算法对其进行训练得到最优解;S2:在卷积神经网络信道均衡器后面级联一个全连接的神经网络译码器,对经过信道均衡器后的恢复信号进行信道译码。本发明能够有效提升误码率性能,并且具有较强的自适应性。
Description
技术领域
本发明涉及通信技术领域,尤其涉及一种基于神经网络的信道均衡方法、译码方法及对应设备。
背景技术
人工神经网络(Artificial Neural Network,ANN)是机器学习(MachineLearning,DL)中一种重要的数学模型,其具有强大的提取高维数据隐藏特征的能力,近几年在:目标识别、图像分类、药物发现、自然语言处理以及围棋等诸多领域,都取得了重大突破并且大大改善了原有的系统性能。因而人工神经网络被全世界学者广泛研究并且在商业应用中广泛部署。
信道均衡技术(Channel Equalization)是为了提高衰落信道中系统的传输性能而采取的一种抗衰落措施。它主要是为了消除或是减弱无线通信时的多径时延带来的码间串扰(Inter-symbol Interference,ISI)。大体上分为:线性与非线性均衡。对于带通信道的均衡较为困难,一般都是待接收端解调后在基带进行均衡,因此基带均衡技术有广泛应用。在实际中一般是加入自适应滤波器来实现信道均衡。近几年机器学习领域的一些非线性方法被用于一些复杂信道的均衡器实现,比如:支持向量机(Support Vector Machine,SVM)、高斯过程分类(Gaussian Process Classification,GPC)。
下面对信道均衡进行简单介绍。
通信网络信道模型如图1所示,其中,发送端的信号m经过信道编码器编码和调制后形成信号s,经由信道传输,接收端接收到的信号为r,均衡器的任务是将r尽可能大的概率恢复到原始传输信号s,实际恢复估计的信号为译码器的任务是将尽可能大的概率恢复到原始发送信号m,最后实际译码得到的信号为
其中,多径衰落信道的码间干扰可以用以下有限长度的FIR滤波器与传输信号的线性卷积来表示:v=s*h,其中s表示经过信道编码器编码和调制后的信道输入,h为等效的滤波器系数向量,*表示线性卷积运算,而v表示带有码间干扰的传输信号。
由于通信系统中具有各种放大器和混合气等非线性器件,因此可能会对信号造成非线性失真效应,通常非线性失真用以下的函数来表示:ri=g[vi]+ni,其中g[·]表示等效的非线性失真函数,而ni表示所传输信号第i位vi上收到的高斯白噪声,ri表示接收到的第i位信号。存在非线性失真、码间干扰和噪声的信道简称为非线性信道,而不存在非线性失真,只存在码间干扰和噪声的信道简称为线性信道。
信道均衡器的任务是将接收到的信号矢量r=[r1,r2,...]尽可能以大的概率恢复到原始传输信号s。最大似然估计方法中是首先传输一段训练序列s0和r0,之后利用以下的最大似然估计估计出信道参数的最优估计经过训练之后,利用估计的信道参数可以按照以下概率恢复出接收信号:i=1,2,...,N,虽然最大似然估计取得的性能较优,但是需要每次传输之前先传输训练序列对信道进行估计,并且需要较为准确地知道信道条件,无法实现盲均衡。
发明内容
发明目的:本发明针对现有技术存在的问题,提供一种基于神经网络的信道均衡方法、译码方法及对应设备,本发明具有高性能和强自适应性,还可以实现盲均衡。
技术方案:本发明所述的基于神经网络的信道均衡方法包括:
(1-1)构建包含L个卷积层的卷积神经网络模型,其中:
第一个卷积卷积层到第L-1卷积层中每层实现以下操作:
式中,是第n层卷积层的系数矩阵W(n)中所包含的第i个滤波器的第c行第k个元素,为未知的待训练参数,每个滤波器尺寸都为1×K,是第n层卷积层的输出特征图第i行第j列的元素,且I(0)=r,r是接收端接收到的信号矢量,为第n层卷积层的第i个偏置系数,为未知的待训练参数,Cn为第n层卷积层的输入特征图的行数,此外第n-1层的输出特征图即为第n层的输入特征图,σ(·)表示ReLU非线性单元,并且σ(·)=max(0,·);
第L层卷积层实现以下操作:
(1-2)对构建的卷积神经网络模型进行训练,得到待训练参数的最优值,进而得到训练好的卷积神经网络;
进一步的,步骤(1-2)中训练所采用的方法为深度学习中后向传播和Mini-batch随机梯度下降算法。
本发明所述的基于神经网络的译码方法包括:
(2-1)构建包含L个卷积层的卷积神经网络模型,其中:
第一个卷积卷积层到第L-1卷积层中每层实现以下操作:
式中,是第n层卷积层的系数矩阵W(n)中所包含的第i个滤波器的第c行第k个元素,为未知的待训练参数,每个滤波器尺寸都为1×K,是第n层卷积层的输出特征图第i行第j列的元素,且I(0)=r,r是接收端接收到的信号矢量,为第n层卷积层的第i个偏置系数,为未知的待训练参数,Cn为第n层卷积层的输入特征图的行数,此外第n-1层的输出特征图即为第n层的输入特征图,σ(·)表示ReLU非线性单元,并且σ(·)=max(0,·);
第L层卷积层实现以下操作:
(2-2)构建包含D层隐藏层的全连接神经网络译码模型,每层实现以下操作:
X(d)=σ(V(d)X(d-1)+a(d)),d=1,...,D
(2-3)对构建的卷积神经网络模型和全连接神经网络译码模型进行单独训练或联合训练,得到待训练参数的最优值,进而得到训练好的卷积神经网络和全连接神经网络译码模型;
(2-4)采用训练好的卷积神经网络模型进行均衡,采用全连接神经网络译码模型对均衡后得到信号进行译码。
进一步的,步骤(2-3)中训练所采用的方法为深度学习中后向传播和Mini-batch随机梯度下降算法。
本发明所述的基于神经网络的信道均衡设备具体为包含L个卷积层的卷积神经网络,其中:
第一个卷积卷积层到第L-1卷积层中每层实现以下操作:
式中,是第n层卷积层的系数矩阵W(n)中所包含的第i个滤波器的第c行第k个元素,每个滤波器尺寸都为1×K,是第n层卷积层的输出特征图第i行第j列的元素,且I(0)=r,r是接收端接收到的信号矢量,为第n层卷积层的第i个偏置系数,Cn为第n层卷积层的输入特征图的行数,此外第n-1层的输出特征图即为第n层的输入特征图,σ(·)表示ReLU非线性单元,并且σ(·)=max(0,·);
第L层卷积层实现以下操作:
本发明所述的基于神经网络的译码设备,包括上述的信道均衡设备和一译码器,所述译码器具体为包含D层隐藏层的全连接神经网络,每层实现以下操作:
X(d)=σ(V(d)X(d-1)+a(d)),d=1,...,D
进一步的,所述全连接神经网络中的参数V(d)和a(d)通过采用深度学习中后向传播和Mini-batch随机梯度下降算法训练后得到。
有益效果:本发明与现有技术相比,其显著优点是:
1)对于卷积神经网络均衡器:在线性信道下,比贝叶斯和最大似然估计算法有0.2至0.5dB的误码率性能增益,在非线性信道下,比支持向量机方法和高斯过程分类算法有0.5dB左右的误码率性能增益;
2)所提出的卷积神经网络信道均衡器适用于任意码长的应用场景,并且算术复杂度与码长成线性增长关系;
3)所提出的联合信道均衡器和译码器相比于目前基于神经网络的算法,参数量大约减少了68%。
附图说明
图1为本发明具体实施方式中的信道模型示意图;
图2为本发明具体实施方式中所构建的均衡设备和译码设备以及训练方法的参数总结;
图3为本发明具体实施方式中不同结构的卷积神经网络均衡设备的性能对比图;
图4为本发明具体实施方式中在线性信道下同传统方法(贝叶斯和最大似然估计)误码率性能的对比图;
图5为本发明具体实施方式中在非线性信道下同传统方法(支持向量机以及高斯过程分类)误码率性能的对比图;
图6为采用了本发明具体实施方式与高斯过程分类和连续消除译码算法(GPC+SC)以及深度学习算法(DL)的误码率性能对比图。
具体实施方式
实施例1
本实施例提供了一种基于神经网络的信道均衡方法,包括以下步骤:
(1-1)构建包含L个卷积层的卷积神经网络模型,其中:
第一个卷积卷积层到第L-1卷积层中每层实现以下操作:
式中,是第n层卷积层的系数矩阵W(n)中所包含的第i个滤波器的第c行第k个元素,为未知的待训练参数,每个滤波器尺寸都为1×K,是第n层卷积层的输出特征图第i行第j列的元素,且I(0)=r,r是接收端接收到的信号矢量,为第n层卷积层的第i个偏置系数,为未知的待训练参数,Cn为第n层卷积层的输入特征图的行数,此外第n-1层的输出特征图即为第n层的输入特征图,σ(·)表示ReLU非线性单元,并且σ(·)=max(0,·);
第L层卷积层实现以下操作:
其中,对于一个L层的卷积神经网络,第n层包含Mn个尺寸为1×K的滤波器,所有层的滤波器表示为{M1,...,Mn,...,ML},在这种表示形式下第n层的卷积系数矩阵W(n)尺寸为Mn×Cn×K;
(1-2)对构建的卷积神经网络模型采用深度学习中后向传播(Back propagation)和Mini-batch随机梯度下降(Mini-batch stochastic gradient descent)方法(具体方法参考文献[1])进行训练,得到待训练参数的最优值,进而得到训练好的卷积神经网络;
实施例2
本实施例提供了一种基于神经网络的译码方法,该方法包括:
(2-1)构建包含L个卷积层的卷积神经网络模型,其中:
第一个卷积卷积层到第L-1卷积层中每层实现以下操作:
式中,是第n层卷积层的系数矩阵W(n)中所包含的第i个滤波器的第c行第k个元素,为未知的待训练参数,每个滤波器尺寸都为1×K,是第n层卷积层的输出特征图第i行第j列的元素,且I(0)=r,r是接收端接收到的信号矢量,为第n层卷积层的第i个偏置系数,为未知的待训练参数,Cn为第n层卷积层的输入特征图的行数,此外第n-1层的输出特征图即为第n层的输入特征图,σ(·)表示ReLU非线性单元,并且σ(·)=max(0,·);
第L层卷积层实现以下操作:
(2-2)构建包含D层隐藏层的全连接神经网络译码模型,每层实现以下操作:
X(d)=σ(V(d)X(d-1)+a(d)),d=1,...,D
(2-3)对构建的卷积神经网络模型和全连接神经网络译码模型进行单独训练或联合训练,得到待训练参数的最优值,进而得到训练好的卷积神经网络和全连接神经网络译码模型;训练所采用的方法为深度学习中后向传播和Mini-batch随机梯度下降算法。由于信道均衡设备输出数据的概率分布特性与单独的神经网络译码设备输入的概率分布不一致,因此采用联合训练的方式会有更优性能,具体实施步骤如下:1)首先利用接收信号r,训练卷积神经网络信道均衡设备收敛至最优解;2)固定卷积神经网络信道均衡设备的参数不再迭代更新,使接收的信道输出信号r通过卷积神经网络信道均衡设备进行恢复,将恢复后的信号再通过全连接神经网络译码模型,单独训练并更新全连接神经网络译码模型的参数收敛至最优解。
(2-4)采用训练好的卷积神经网络模型进行均衡,采用全连接神经网络译码模型对均衡后得到信号进行译码。
实施例3
本实施例提供一种基于神经网络的信道均衡设备,该设备具体为包含L个卷积层的卷积神经网络,其中:
第一个卷积卷积层到第L-1卷积层中每层实现以下操作:
式中,是第n层卷积层的系数矩阵W(n)中所包含的第i个滤波器的第c行第k个元素,每个滤波器尺寸都为1×K,是第n层卷积层的输出特征图第i行第j列的元素,且I(0)=r,r是接收端接收到的信号矢量,为第n层卷积层的第i个偏置系数,Cn为第n层卷积层的输入特征图的行数,此外第n-1层的输出特征图即为第n层的输入特征图,σ(·)表示ReLU非线性单元,并且σ(·)=max(0,·);
第L层卷积层实现以下操作:
本实施例与实施例1一一对应,未详尽之处请参考实施例1。
实施例4
本实施例提供了一种基于神经网络的译码设备,该设备包括实施例3的信道均衡设备和一译码器,所述译码器具体为包含D层隐藏层的全连接神经网络,每层实现以下操作:
X(d)=σ(V(d)X(d-1)+a(d)),d=1,...,D
其中,所述全连接神经网络中的参数V(d)和a(d)通过采用深度学习中后向传播和Mini-batch随机梯度下降算法训练后得到。
本实施例与实施例2一一对应,未详尽之处请参考实施例1。
下面对本发明的几个实施例进行仿真验证。
损失函数(Loss Function)可以用来衡量训练效果的好坏,对于均衡方法和设备,使用以下的均方误差函数:
对于神经网络译码方法和设备,使用如下的交叉熵(Cross entropy)函数来度量译码效果好坏:
为了选择合适的卷积神经网络结构,本发明研究了结构对最终性能的影响,图2为仿真过程中设置的各参数值。图3给出了针对不同配置下卷积神经网络均衡器的性能比较,可以看到6层的网络相比于4层的网络具有更优的误码率性能,而增大网络规模不一定能保证性能更优,因此综合计算复杂度和性能后选择{6,12,24,12,6,1}的网络较为合理,此外神经网络译码器结构为{16,128,64,32,8}。
与其他经典实验配置一致,使用了h={0.3472,0.8704,0.3482}作为等效码间干扰的FIR滤波器系数,由系统非线性效应造成的非线性函数等效为|g(v)|=|v|+0.2|v|2-0.1|v|3+0.5cos(π|v|),以及加性高斯信道。图4给出了在线性信道下卷积神经网络均衡器与其他经典方法(ML-BCJR,Bayesian)的误码率性能比较,可以看到所提出的CNN方法最多有0.5dB的增益效果。图5给出了在非线性信道下所提出的CNN方法与其他方法(SVM,GPC)的对比,可以看到所提出的算法有0.5dB左右的性能增益。图6给出了所提出的方法与[2]基于深度学习方法的误码率性能效果对比图,可以看出联合训练方法(CNN+NND-Joint)比非联合训练方法(CNN+NND)大约有0.5dB的增益,效果略优于[2]中深度学习方法(DL)。所提出模型的有点在于极大地减少了网络的参数规模,所提出的模型大约需要15000个参数,而深度学习方法需要大约48000个参数,减少了约68%。
以上所揭露的仅为本发明一种较佳实施例而已,不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。
参考文献
[1]I.Goodfellow,Y.Bengio,and A.Courville,“Deep Learning.”MIT Press,2016.
[2]H.Ye and G.Y.Li,“Initial results on deep learning for jointchannel equalization and decoding,”in IEEE Vehicular Technology Conference(VTC-Fall),2017,pp.1–5.
Claims (8)
1.一种基于神经网络的信道均衡方法,其特征在于包括:
(1-1)构建包含L个卷积层的卷积神经网络模型,其中:
第一个卷积卷积层到第L-1卷积层中每层实现以下操作:
式中,是第n层卷积层的系数矩阵W(n)中所包含的第i个滤波器的第c行第k个元素,为未知的待训练参数,每个滤波器尺寸都为1×K,是第n层卷积层的输出特征图第i行第j列的元素,且I(0)=r,r是接收端接收到的信号矢量,为第n层卷积层的第i个偏置系数,为未知的待训练参数,Cn为第n层卷积层的输入特征图的行数,此外第n-1层的输出特征图即为第n层的输入特征图,σ(·)表示ReLU非线性单元,并且σ(·)=max(0,·);
第L层卷积层实现以下操作:
(1-2)对构建的卷积神经网络模型进行训练,得到待训练参数的最优值,进而得到训练好的卷积神经网络;
2.根据权利要求1所述的基于神经网络的信道均衡方法,其特征在于:步骤(1-2)中训练所采用的方法为深度学习中后向传播和Mini-batch随机梯度下降算法。
3.一种基于神经网络的译码方法,其特征在于包括:
(2-1)构建包含L个卷积层的卷积神经网络模型,其中:
第一个卷积卷积层到第L-1卷积层中每层实现以下操作:
式中,是第n层卷积层的系数矩阵W(n)中所包含的第i个滤波器的第c行第k个元素,为未知的待训练参数,每个滤波器尺寸都为1×K,是第n层卷积层的输出特征图第i行第j列的元素,且I(0)=r,r是接收端接收到的信号矢量,为第n层卷积层的第i个偏置系数,为未知的待训练参数,Cn为第n层卷积层的输入特征图的行数,此外第n-1层的输出特征图即为第n层的输入特征图,σ(·)表示ReLU非线性单元,并且σ(·)=max(0,·);
第L层卷积层实现以下操作:
(2-2)构建包含D层隐藏层的全连接神经网络译码模型,每层实现以下操作:
X(d)=σ(V(d)X(d-1)+a(d)),d=1,...,D
式中,V(d)是第d层的二维系数矩阵W(d),为未知的待训练参数,X(d)是第d层的输出向量,X(d-1)是第d层的输入向量,且 为译码得到的信号,a(d)为第d层的偏置系数向量,为未知的待训练参数;
(2-3)对构建的卷积神经网络模型和全连接神经网络译码模型进行单独训练或联合训练,得到待训练参数的最优值,进而得到训练好的卷积神经网络和全连接神经网络译码模型;
(2-4)采用训练好的卷积神经网络模型进行均衡,采用全连接神经网络译码模型对均衡后得到信号进行译码。
4.根据权利要求3所述的基于神经网络的译码方法,其特征在于:步骤(2-3)中训练所采用的方法为深度学习中后向传播和Mini-batch随机梯度下降算法。
8.根据权利要求7所述的基于神经网络的译码设备,其特征在于:所述全连接神经网络中的参数V(d)和a(d)通过采用深度学习中后向传播和Mini-batch随机梯度下降算法训练后得到。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810440913.3A CN108650201B (zh) | 2018-05-10 | 2018-05-10 | 基于神经网络的信道均衡方法、译码方法及对应设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810440913.3A CN108650201B (zh) | 2018-05-10 | 2018-05-10 | 基于神经网络的信道均衡方法、译码方法及对应设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108650201A CN108650201A (zh) | 2018-10-12 |
CN108650201B true CN108650201B (zh) | 2020-11-03 |
Family
ID=63753913
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810440913.3A Active CN108650201B (zh) | 2018-05-10 | 2018-05-10 | 基于神经网络的信道均衡方法、译码方法及对应设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108650201B (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109905337B (zh) * | 2019-01-13 | 2020-07-10 | 浙江大学 | 一种基于narx神经网络与块状反馈的信道均衡方法 |
CN109932617B (zh) * | 2019-04-11 | 2021-02-26 | 东南大学 | 一种基于深度学习的自适应电网故障诊断方法 |
CN110392006B (zh) * | 2019-06-20 | 2022-01-28 | 东南大学 | 基于集成学习和神经网络的自适应信道均衡器及方法 |
CN110598859B (zh) * | 2019-08-01 | 2022-12-13 | 北京光锁科技有限公司 | 基于门控循环神经网络的非线性均衡方法 |
CN110636020B (zh) * | 2019-08-05 | 2021-01-19 | 北京大学 | 一种自适应通信系统神经网络均衡方法 |
CN110351212A (zh) * | 2019-08-10 | 2019-10-18 | 南京理工大学 | 快衰落信道下基于卷积神经网络的信道估计方法 |
US12003277B2 (en) | 2019-08-20 | 2024-06-04 | Lg Electronics Inc. | Method for transmitting or receiving signal in low-bit quantization system and device therefor |
EP4173244A4 (en) * | 2020-06-25 | 2023-07-26 | Telefonaktiebolaget LM Ericsson (publ) | CONTEXT-SENSITIVE DATA RECEIVER FOR COMMUNICATION SIGNALS BASED ON MACHINE LEARNING |
CN112215335B (zh) * | 2020-09-25 | 2023-05-23 | 湖南理工学院 | 一种基于深度学习的系统检测方法 |
CN112598106B (zh) * | 2020-12-17 | 2024-03-15 | 苏州大学 | 基于复数值前向神经网络的复信道均衡器设计方法 |
CN112532548B (zh) * | 2020-12-23 | 2024-02-27 | 国网信息通信产业集团有限公司 | 一种信号优化方法及装置 |
CN112953565B (zh) * | 2021-01-19 | 2022-06-14 | 华南理工大学 | 一种基于卷积神经网络的归零卷积码译码方法和系统 |
EP4282078A1 (en) * | 2021-01-25 | 2023-11-29 | Marvell Asia Pte, Ltd. | Ethernet physical layer transceiver with non-linear neural network equalizers |
CN113344187B (zh) * | 2021-06-18 | 2022-07-26 | 东南大学 | 一种单小区多用户mimo系统的机器学习预编码方法 |
CN115804067A (zh) * | 2021-07-02 | 2023-03-14 | 北京小米移动软件有限公司 | 信道译码方法及装置、用于信道译码的神经网络模型的训练方法及装置 |
CN113610216B (zh) * | 2021-07-13 | 2022-04-01 | 上海交通大学 | 基于极性转变软信息辅助的多任务神经网络及多磁道检测方法 |
CN114065908A (zh) * | 2021-09-30 | 2022-02-18 | 网络通信与安全紫金山实验室 | 用于数据处理的卷积神经网络加速器 |
CN114124223B (zh) * | 2021-11-26 | 2023-05-12 | 北京邮电大学 | 一种卷积神经网络光纤均衡器生成方法及系统 |
CN114070415A (zh) * | 2021-11-30 | 2022-02-18 | 北京邮电大学 | 一种光纤非线性均衡方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106507188A (zh) * | 2016-11-25 | 2017-03-15 | 南京中密信息科技有限公司 | 一种基于卷积神经网络的视频台标识别装置及工作方法 |
CN107239823A (zh) * | 2016-08-12 | 2017-10-10 | 北京深鉴科技有限公司 | 一种用于实现稀疏神经网络的装置和方法 |
US9875440B1 (en) * | 2010-10-26 | 2018-01-23 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
CN107767413A (zh) * | 2017-09-20 | 2018-03-06 | 华南理工大学 | 一种基于卷积神经网络的图像深度估计方法 |
-
2018
- 2018-05-10 CN CN201810440913.3A patent/CN108650201B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9875440B1 (en) * | 2010-10-26 | 2018-01-23 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
CN107239823A (zh) * | 2016-08-12 | 2017-10-10 | 北京深鉴科技有限公司 | 一种用于实现稀疏神经网络的装置和方法 |
CN106507188A (zh) * | 2016-11-25 | 2017-03-15 | 南京中密信息科技有限公司 | 一种基于卷积神经网络的视频台标识别装置及工作方法 |
CN107767413A (zh) * | 2017-09-20 | 2018-03-06 | 华南理工大学 | 一种基于卷积神经网络的图像深度估计方法 |
Non-Patent Citations (2)
Title |
---|
"The Use of Neural Nets to Combine Equalization with Decoding for Severe Intersymbol Interference Channels";Khalid A. Al-Mashouq,Irving S. Reed,;《IEEE transactions on neural nertworks》;19941130;全文 * |
"一种用于GSM系统的神经网络均衡器";薛建军,尤肖虎;《电路与系统学报》;19960331;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN108650201A (zh) | 2018-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108650201B (zh) | 基于神经网络的信道均衡方法、译码方法及对应设备 | |
Xu et al. | Joint neural network equalizer and decoder | |
CN109246039B (zh) | 一种基于双向时域均衡的软信息迭代接收方法 | |
CN109905337B (zh) | 一种基于narx神经网络与块状反馈的信道均衡方法 | |
CN112637094A (zh) | 一种基于模型驱动深度学习的多用户mimo接收方法 | |
CN114499601B (zh) | 一种基于深度学习的大规模mimo信号检测方法 | |
CN112291005A (zh) | 一种基于Bi-LSTM神经网络的接收端信号检测方法 | |
CN104410593B (zh) | 基于判决反馈模型的数字符号非线性误差修正均衡方法 | |
CN111200470A (zh) | 一种适用于受非线性干扰的高阶调制信号传输控制方法 | |
CN113347128B (zh) | 基于神经网络均衡的qpsk调制超奈奎斯特传输方法及系统 | |
Lu et al. | Attention-empowered residual autoencoder for end-to-end communication systems | |
Vahdat et al. | PAPR reduction scheme for deep learning-based communication systems using autoencoders | |
Ali et al. | Legendre based equalization for nonlinear wireless communication channels | |
Huang et al. | Extrinsic neural network equalizer for channels with high inter-symbol-interference | |
CN113660016B (zh) | 基于epa的mimo检测方法、装置、设备和存储介质 | |
Jing et al. | A Learned Denoising-Based Sparse Adaptive Channel Estimation for OTFS Underwater Acoustic Communications | |
Zhao et al. | An End-to-End Demodulation System Based on Convolutional Neural Networks | |
Majumder et al. | Nonlinear channel equalization using wavelet neural network trained using PSO | |
Zarzoso et al. | Semi-blind constant modulus equalization with optimal step size | |
Gorday et al. | LMS to deep learning: How DSP analysis adds depth to learning | |
Al-Baidhani et al. | Deep ensemble learning: A communications receiver over wireless fading channels | |
CN111682924A (zh) | 一种采用期望传播的双向频域Turbo均衡方法 | |
Zeng et al. | Deep Learning Based Pilot-Free Transmission: Error Correction Coding for Low-Resolution Reception Under Time-Varying Channels | |
CN114528925B (zh) | 一种基于深层分类网络的时变信道ofdm信号均衡方法 | |
CN114189409B (zh) | 一种基于bootstrap的短突发信号均衡方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |