CN110739977B - 一种基于深度学习的bch码译码方法 - Google Patents
一种基于深度学习的bch码译码方法 Download PDFInfo
- Publication number
- CN110739977B CN110739977B CN201911043331.2A CN201911043331A CN110739977B CN 110739977 B CN110739977 B CN 110739977B CN 201911043331 A CN201911043331 A CN 201911043331A CN 110739977 B CN110739977 B CN 110739977B
- Authority
- CN
- China
- Prior art keywords
- bch code
- neural network
- information bit
- classification model
- decoding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/03—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
- H03M13/05—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
- H03M13/13—Linear codes
- H03M13/15—Cyclic codes, i.e. cyclic shifts of codewords produce other codewords, e.g. codes defined by a generator polynomial, Bose-Chaudhuri-Hocquenghem [BCH] codes
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Physics & Mathematics (AREA)
- Algebra (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Error Detection And Correction (AREA)
Abstract
本发明提供一种基于深度学习的BCH码译码方法,其特征在于:包括模型构建阶段和编译码阶段;模型构建阶段包括以下步骤:建立BCH码数据集,建立神经网络分类模型,并对神经网络分类模型进行训练和验证校验。该BCH译码方法可以实现并行译码,提高译码的吞吐率,并且有效减少了译码计算量和译码迭代次数,降低了模型复杂度。
Description
技术领域
本发明涉及电子通信技术领域,更具体来说,特别涉及一种基于深度学习的BCH码译码方法。
背景技术
BCH码,由R.C.Bose、D.K.Chaudhuri和A.Hocquenghem共同提出,是一种能够纠正多个随机错误的循环码,同时也是一类很好的线性纠错码类。基于以往研究成果表明,BCH码在短和中等码长下,其性能很接近于理论值。由于BCH码具有严格的代数结构,使得其码字构造方便,编程简单,性能优良,编译设备也不复杂,因此它在各种数据传输系统,特别是卫星通信系统中,受到工程技术人员的欢迎。
BM迭代译码算法是由伯利坎普(Berlekamp)和梅西(Massey)共同提出来的一种译码算法,是目前来说使用较多的一种译码算法。但其译码速度还不够快,迭代次数较多。因此,亟待设计出另一种BCH码译码方法,以提高译码速度和减少迭代次数。
发明内容
本发明的目的在于克服现有译码技术中的缺点与不足,提供一种基于深度学习的BCH码译码方法。该BCH译码方法可以实现并行译码,提高译码的吞吐率,并且有效减少了译码计算量和译码迭代次数,降低了模型复杂度。
为了达到上述目的,本发明通过下述技术方案予以实现:一种基于深度学习的BCH码译码方法,其特征在于:包括模型构建阶段和编译码阶段;
所述模型构建阶段包括以下步骤:
S1步,建立BCH码数据集:
将信息比特矩阵Y通过BCH码的编码方式来得到BCH码字信息比特序列X:
X=Y×G;
其中,对于BCH码(n,k,t),n为BCH码的码字长度,k为原始发送信息比特矩阵Y的长度,t为BCH码的纠错个数;G为BCH码的生成矩阵,大小为k×n;
将BCH码字信息比特序列X进行高斯白噪声处理得到带噪码字信息比特序列X’,以模拟BCH码字信息比特序列X经过BPSK调制后经过AWGN信道的变化:设定高斯白噪声的大小范围以及步长,并根据高斯白噪声的大小范围以及步长计算得到高斯白噪声的种类数c,则带噪码字信息比特序列X’为(c×num,n)的矩阵,该矩阵作为BCH码数据集,并打上信息比特矩阵Y对应的标签;其中,num为每种噪声随机生成的次数;
S2步,将BCH码数据集划分为若干批次,每批次BCH码数据集按照设定比例划分为训练集和验证集;
S3步,对BCH码建立神经网络分类模型:设定神经网络分类模型的输入大小为n,输出大小为k,隐藏层数以及网络层节点数,各隐藏层的激活函数和损失函数,通过预训练神经网络分类模型从而初始化各层网络的权值w和bias;
S4步,将当前批次BCH码数据集的训练集输入神经网络分类模型,用前馈计算和后向传播两个过程更新权重来训练神经网络分类模型,并采用随机梯度下降法作为优化策略,对神经网络分类模型进行训练得到局部最优的权值w和bias;
S5步,将BCH码数据集的验证集输入神经网络分类模型进行验证校验,并从输出结果与真实结果的差异损失来得到准确率和误差值;判断准确率和误差值是否达到稳定:若是,则完成神经网络分类模型训练,并保存神经网络分类模型;否则优化各层网络的权值w和bias,跳至S4步以采用下一批次数据BCH码数据集对神经网络分类模型进行训练和验证校验;
所述编译码阶段包括如下步骤:
L1步,将原始发送信息比特矩阵Y通过BCH码的编码方式来得到BCH码字信息比特序列X:
X=Y×G;
L2步,BCH码字信息比特序列X经过BPSK调制后经过AWGN信道进行通信;
L3步,接收得到带噪码字信息比特序列X’;将带噪码字信息比特序列X’输入神经网络分类模型中进行译码得到译码信息比特矩阵Y。
提出神经网络来解决BCH译码问题,是因为神经网络能够拟合任意非线性函数。从深度学习的角度来看,AWGN信道为非理想信道,BCH码经过非理想信道成为带噪码字,通过译码处理得到原来码字的过程,可以看成是一个分类问题。其中,带噪码字信息段可以为信息数据特征,而初始码字通过标签化当做此次分类任务的标签。基于深度学习的BCH神经网络译码方法是通过构建一定深度神经网络模型和训练大批训练数据,以学习到更有用的特征,从而提高分类模型的准确性,进而提高BCH译码的准确性。采用神经网络BCH译码方法可以大大降低译码计算量,并降低译码迭代次数和复杂度,实现译码并行性,从而大大提高译码的吞吐率。
优选地,所述S1步中,BCH码的生成矩阵G为:
G(x)=x4+x+1;
其中,x为码元。
优选地,所述S3步中,设定神经网络分类模型各隐藏层的激活函数为ReLU函数,损失函数为交叉熵函数。
优选地,所述S2步中,每批次BCH码数据集按照设定比例7:2划分为训练集和验证集。
与现有技术相比,本发明具有如下优点与有益效果:
本发明基于深度学习的BCH译码方法可并行译码,并且可以降低译码迭代次数和模型复杂度,降低最大似然译码的计算量和复杂度,从而提高译码效率,实现从含有噪声和干扰的序列中还原发送端的数据。
附图说明
图1是本发明基于深度学习的BCH码译码方法的流程图;
图2是本发明的神经网络分类模型的等价结构图;
图3是本发明中神经网络分类模型译码的流程图;
图4是实施例中译码方法与传统译码方法的性能比较图。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细的描述。
实施例一
本实施例一种基于深度学习的BCH码译码方法,其流程如图1所示;包括模型构建阶段和编译码阶段;
所述模型构建阶段包括以下步骤:
S1步,建立BCH码数据集:
将信息比特矩阵Y通过BCH码的编码方式来得到BCH码字信息比特序列X:
X=Y×G;
其中,对于BCH码(n,k,t),n为BCH码的码字长度,k为原始发送信息比特矩阵Y的长度,t为BCH码的纠错个数;G为BCH码的生成矩阵,大小为k×n;
BCH码的生成矩阵G可采用现有方式;本实施例中,BCH码的生成矩阵G优选为:G(x)=x4+x+1;其中,x为码元;
将BCH码字信息比特序列X进行高斯白噪声处理得到带噪码字信息比特序列X’,以模拟BCH码字信息比特序列X经过BPSK调制后经过AWGN信道的变化:设定高斯白噪声的大小范围以及步长,并根据高斯白噪声的大小范围以及步长计算得到高斯白噪声的种类数c,则带噪码字信息比特序列X’为(c×num,n)的矩阵,该矩阵作为BCH码数据集,并打上信息比特矩阵Y对应的标签;其中,n为BCH码的码字长度,num为每种噪声随机生成的次数;
S2步,将BCH码数据集划分为若干批次,每批次BCH码数据集按照设定比例划分为训练集和验证集;训练集和验证集的比例优选为7:2;
S3步,对BCH码建立神经网络分类模型:设定神经网络分类模型的输入大小为n,输出大小为k,隐藏层数以及网络层节点数,各隐藏层的激活函数和损失函数,通过预训练神经网络分类模型从而初始化各层网络的权值w和bias;
其中,神经网络分类模型各隐藏层的激活函数设定为ReLU函数,损失函数设定为交叉熵函数:
x为隐藏层的输出结果;y为真实码元;n为码字长度;a为网络输出结果;
S4步,将当前批次BCH码数据集的训练集输入神经网络分类模型,用前馈计算和后向传播两个过程更新权重来训练神经网络分类模型,并采用随机梯度下降法作为优化策略,对神经网络分类模型进行训练得到局部最优的权值w和bias;
S5步,将BCH码数据集的验证集输入神经网络分类模型进行验证校验,并从输出结果与真实结果的差异损失来得到准确率和误差值;判断准确率和误差值是否达到稳定:若是,则完成神经网络分类模型训练,并保存神经网络分类模型;否则优化各层网络的权值w和bias,跳至S4步以采用下一批次数据BCH码数据集对神经网络分类模型进行训练和验证校验;
所述编译码阶段包括如下步骤:
L1步,将原始发送信息比特矩阵Y通过BCH码的编码方式来得到BCH码字信息比特序列X:
X=Y×G;
L2步,BCH码字信息比特序列X经过BPSK调制后经过AWGN信道进行通信;
L3步,接收得到带噪码字信息比特序列X’;将带噪码字信息比特序列X’输入神经网络分类模型中进行译码得到译码信息比特矩阵Y。
提出神经网络来解决BCH译码问题,是因为神经网络能够拟合任意非线性函数。从深度学习的角度来看,AWGN信道为非理想信道,BCH码经过非理想信道成为带噪码字,通过译码处理得到原来码字的过程,可以看成是一个分类问题。其中,带噪码字信息段可以为信息数据特征,而初始码字通过标签化当做此次分类任务的标签。基于深度学习的BCH神经网络译码方法是通过构建一定深度神经网络模型和训练大批训练数据,以学习到更有用的特征,从而提高分类模型的准确性,进而提高BCH译码的准确性。采用神经网络BCH译码方法可以大大降低译码计算量,并降低译码迭代次数和复杂度,实现译码并行性,从而大大提高译码的吞吐率。
实施例二
本实施例一种基于深度学习的BCH码译码方法,采用(15,11,1)BCH码为实例进行说明。
如图1,2,3所示,一种基于深度学习的BCH神经网络译码方法,其首先要通过随机生成部分信息序列Y及Y对应的经过编码后的信息比特序列X,X序列经过BPSK加入高斯白噪声,初始化后为X’后,根据图3所示的网络构造从x’中会选择部分或者全部相关的信息码字,选择与之对应的Y中某一位码字进行神经网络分类模型构造。
具体地说,BCH码译码方法包括模型构建阶段和编译码阶段;
模型构建阶段包括如下步骤:
S1步,建立BCH码数据集:根据示例码字是(15,11,1)的BCH码,生成多组带标签的数据。具体如下:信息比特矩阵Y经过BCH编码后得到BCH码字信息比特序列X,加入高斯白噪声,高斯白噪声大小为1db-6db,其步长为1db,每一个db加入若干组数据。
举例说明,例如此次BCH码数据集大小为6×1000×15=90000。这里的6代表噪声种类为6,1000表示每一种噪声随机1000次,15代表码字长度是15,因此BCH码数据集的大小为6000*15的一个矩阵。此外,还需要给BCH码数据集打上信息比特矩阵Y对应的标签,使每一个样本对应的是原始的信息比特矩阵Y。由于采用的是神经网络分类模型,因此需要将原始码字看做是二进制的数据格式转换为十进制,再将十进制数字转换为One hot码的形式。
S2步,将BCH码数据集划分为若干批次,每批次BCH码数据集按照设定比例划分为训练集和验证集;训练集和验证集的比例优选为7:2;
S3步,建立神经网络分类模型:对于(15,11,1)的BCH码,建立神经网络分类模型,神经网络分类模型的输入大小为n,输出大小为k,网络层数设置为3层全连接。
例如,当BCH码数据集为6000×15大小的矩阵输入进神经网络分类模型中,从神经网络分类模型出来的结果是6000×211大小的矩阵,此时,这里的每一行都是类似于One hot码形式的序列,将每一行转换回十进制在转换为二进制从而实现整一个译码过程。
设定神经网络各隐藏层采用的激活函数是ReLU函数。采用ReLU函数是由于ReLU(x)求导计算量小,简化了深度神经网络训练过程的计算量。损失函数采用分类模型常用的交叉熵函数。通过预训练神经网络模型从而初始化各层网络的权值w和bias。
S4步,将当前批次BCH码数据集的训练集输入神经网络分类模型,用前馈计算和后向传播两个过程更新权重来训练神经网络分类模型,并采用随机梯度下降法作为优化策略,对神经网络分类模型进行训练得到局部最优的权值w和bias;
S5步,将BCH码数据集的验证集输入神经网络分类模型进行验证校验,并从输出结果与真实结果的差异损失来得到准确率和误差值;判断准确率和误差值是否达到稳定:若是,则完成神经网络分类模型训练,并保存神经网络分类模型;否则优化各层网络的权值w和bias,跳至S4步以采用下一批次数据BCH码数据集对神经网络分类模型进行训练和验证校验;
所述编译码阶段包括如下步骤:
L1步,将原始发送信息比特矩阵Y通过BCH码的编码方式来得到BCH码字信息比特序列X:
X=Y×G;
L2步,BCH码字信息比特序列X经过BPSK调制后经过AWGN信道进行通信;
L3步,接收得到带噪码字信息比特序列X’;将带噪码字信息比特序列X’输入神经网络分类模型中进行译码得到译码信息比特矩阵Y。
如图4所示,在Eb/N0小于4时,本发明BCH码译码方法性能与传统BM译码算法的译码结果比较接近;在Eb/N0大于等于4时,本发明BCH码译码方法的性能超过传统BM译码算法,并且有瀑布曲线的趋势。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (4)
1.一种基于深度学习的BCH码译码方法,其特征在于:包括模型构建阶段和编译码阶段;
所述模型构建阶段包括以下步骤:
S1步,建立BCH码数据集:
将信息比特矩阵Y通过BCH码的编码方式来得到BCH码字信息比特序列X:
X=Y×G;
其中,对于BCH码(n,k,t),n为BCH码的码字长度,k为原始发送信息比特矩阵Y的长度,t为BCH码的纠错个数;G为BCH码的生成矩阵,大小为k×n;
将BCH码字信息比特序列X进行高斯白噪声处理得到带噪码字信息比特序列X’,以模拟BCH码字信息比特序列X经过BPSK调制后经过AWGN信道的变化:设定高斯白噪声的大小范围以及步长,并根据高斯白噪声的大小范围以及步长计算得到高斯白噪声的种类数c,则带噪码字信息比特序列X’为(c×num,n)的矩阵,该矩阵作为BCH码数据集,并打上信息比特矩阵Y对应的标签;其中,num为每种噪声随机生成的次数;
S2步,将BCH码数据集划分为若干批次,每批次BCH码数据集按照设定比例划分为训练集和验证集;
S3步,对BCH码建立神经网络分类模型:设定神经网络分类模型的输入大小为n,输出大小为k,隐藏层数以及网络层节点数,各隐藏层的激活函数和损失函数,通过预训练神经网络分类模型从而初始化各层网络的权值w和bias;
S4步,将当前批次BCH码数据集的训练集输入神经网络分类模型,用前馈计算和后向传播两个过程更新权重来训练神经网络分类模型,并采用随机梯度下降法作为优化策略,对神经网络分类模型进行训练得到局部最优的权值w和bias;
S5步,将BCH码数据集的验证集输入神经网络分类模型进行验证校验,并从输出结果与真实结果的差异损失来得到准确率和误差值;判断准确率和误差值是否达到稳定:若是,则完成神经网络分类模型训练,并保存神经网络分类模型;否则优化各层网络的权值w和bias,跳至S4步以采用下一批次数据BCH码数据集对神经网络分类模型进行训练和验证校验;
所述编译码阶段包括如下步骤:
L1步,将原始发送信息比特矩阵Y通过BCH码的编码方式来得到BCH码字信息比特序列X:
X=Y×G;
L2步,BCH码字信息比特序列X经过BPSK调制后经过AWGN信道进行通信;
L3步,接收得到带噪码字信息比特序列X’;将带噪码字信息比特序列X’输入神经网络分类模型中进行译码得到译码信息比特矩阵Y。
2.根据权利要求1所述的基于深度学习的BCH码译码方法,其特征在于:所述S1步中,BCH码的生成矩阵G为:
G(x)=x4+x+1;
其中,x为码元。
3.根据权利要求1所述的基于深度学习的BCH码译码方法,其特征在于:所述S3步中,设定神经网络分类模型各隐藏层的激活函数为ReLU函数,损失函数为交叉熵函数。
4.根据权利要求1所述的基于深度学习的BCH码译码方法,其特征在于:所述S2步中,每批次BCH码数据集按照设定比例7:2划分为训练集和验证集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911043331.2A CN110739977B (zh) | 2019-10-30 | 2019-10-30 | 一种基于深度学习的bch码译码方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911043331.2A CN110739977B (zh) | 2019-10-30 | 2019-10-30 | 一种基于深度学习的bch码译码方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110739977A CN110739977A (zh) | 2020-01-31 |
CN110739977B true CN110739977B (zh) | 2023-03-21 |
Family
ID=69270445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911043331.2A Active CN110739977B (zh) | 2019-10-30 | 2019-10-30 | 一种基于深度学习的bch码译码方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110739977B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113438049A (zh) * | 2021-05-31 | 2021-09-24 | 杭州电子科技大学 | 一种基于dnn模型分析的汉明码译码方法及系统 |
CN113839743A (zh) * | 2021-09-18 | 2021-12-24 | 电子科技大学 | 一种用于无线通信接收端的rll码译码器 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101087180A (zh) * | 2006-06-08 | 2007-12-12 | 华为技术有限公司 | 无线信道的译码方法、装置及其应用 |
CN101459431A (zh) * | 2008-12-30 | 2009-06-17 | 北京大学 | 一种信道纠错码bch码和rs码的译码方法 |
JP2016213701A (ja) * | 2015-05-11 | 2016-12-15 | 富士通株式会社 | 誤り訂正方法、半導体装置、送受信モジュールおよび伝送装置 |
CN106992841A (zh) * | 2017-03-21 | 2017-07-28 | 中山大学 | 一种分组马尔可夫叠加编码的硬判决迭代译码方法 |
CN107612557A (zh) * | 2017-07-28 | 2018-01-19 | 华南理工大学 | 一种改进型Shuffled BP算法 |
CN109525254A (zh) * | 2018-10-25 | 2019-03-26 | 华南理工大学 | 基于深度学习的卷积码软判决译码方法 |
CN109525253A (zh) * | 2018-10-25 | 2019-03-26 | 华南理工大学 | 基于深度学习和集成方法的卷积码译码方法 |
CN109547032A (zh) * | 2018-10-12 | 2019-03-29 | 华南理工大学 | 一种基于深度学习的置信度传播ldpc译码方法 |
CN109728824A (zh) * | 2018-12-06 | 2019-05-07 | 杭州电子科技大学 | 一种基于深度学习的ldpc码迭代译码方法 |
CN109995380A (zh) * | 2018-01-02 | 2019-07-09 | 华为技术有限公司 | 译码方法及设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9191256B2 (en) * | 2012-12-03 | 2015-11-17 | Digital PowerRadio, LLC | Systems and methods for advanced iterative decoding and channel estimation of concatenated coding systems |
-
2019
- 2019-10-30 CN CN201911043331.2A patent/CN110739977B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101087180A (zh) * | 2006-06-08 | 2007-12-12 | 华为技术有限公司 | 无线信道的译码方法、装置及其应用 |
CN101459431A (zh) * | 2008-12-30 | 2009-06-17 | 北京大学 | 一种信道纠错码bch码和rs码的译码方法 |
JP2016213701A (ja) * | 2015-05-11 | 2016-12-15 | 富士通株式会社 | 誤り訂正方法、半導体装置、送受信モジュールおよび伝送装置 |
CN106992841A (zh) * | 2017-03-21 | 2017-07-28 | 中山大学 | 一种分组马尔可夫叠加编码的硬判决迭代译码方法 |
CN107612557A (zh) * | 2017-07-28 | 2018-01-19 | 华南理工大学 | 一种改进型Shuffled BP算法 |
CN109995380A (zh) * | 2018-01-02 | 2019-07-09 | 华为技术有限公司 | 译码方法及设备 |
CN109547032A (zh) * | 2018-10-12 | 2019-03-29 | 华南理工大学 | 一种基于深度学习的置信度传播ldpc译码方法 |
CN109525254A (zh) * | 2018-10-25 | 2019-03-26 | 华南理工大学 | 基于深度学习的卷积码软判决译码方法 |
CN109525253A (zh) * | 2018-10-25 | 2019-03-26 | 华南理工大学 | 基于深度学习和集成方法的卷积码译码方法 |
CN109728824A (zh) * | 2018-12-06 | 2019-05-07 | 杭州电子科技大学 | 一种基于深度学习的ldpc码迭代译码方法 |
Non-Patent Citations (2)
Title |
---|
An improved RS encoding algorithm;Xiaojun Wu et al.;《2012 2nd International Conference on Consumer Electronics, Communications and Networks》;20120430;第1648-1652页 * |
基于深度机器学习模型的信道译码算法研究;胡超超;《中国新通信》;20181231;第20卷(第15期);第189页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110739977A (zh) | 2020-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Duffy et al. | Ordered reliability bits guessing random additive noise decoding | |
JP4627317B2 (ja) | 通信装置および復号方法 | |
US20030229843A1 (en) | Forward error correction apparatus and method in a high-speed data transmission system | |
CN110730008B (zh) | 一种基于深度学习的rs码置信传播译码方法 | |
CN110278002A (zh) | 基于比特翻转的极化码置信传播列表译码方法 | |
CN109921803B (zh) | 基于神经网络的高密度线性分组码译码方法 | |
CN106301388B (zh) | 多进制ldpc码译码方法 | |
CN110233628B (zh) | 极化码的自适应置信传播列表译码方法 | |
CN104393877B (zh) | 基于加权的非规则ldpc码线性规划译码方法 | |
CN109547032B (zh) | 一种基于深度学习的置信度传播ldpc译码方法 | |
CN110739977B (zh) | 一种基于深度学习的bch码译码方法 | |
US10892783B2 (en) | Apparatus and method for decoding polar codes | |
CN111106839A (zh) | 一种基于神经网络的极化码译码方法及装置 | |
CN113890543A (zh) | 基于多层感知神经网络的多进制ldpc码的译码方法 | |
CN111130567B (zh) | 添加噪声扰动和比特翻转的极化码置信传播列表译码方法 | |
CN111555760B (zh) | 纠正随机错误和长突发删除的多进制符号级乘积码方法 | |
CN101707486A (zh) | 单向纠正的多状态置信传播迭代的ldpc译码方法 | |
Tian et al. | A scalable graph neural network decoder for short block codes | |
CN113556135B (zh) | 基于冻结翻转列表的极化码置信传播比特翻转译码方法 | |
CN110212924B (zh) | 一种lt码编解码方法及系统 | |
CN106603087A (zh) | 一种无线信道下基于可译集的喷泉码增量译码算法 | |
EP4333310A1 (en) | Methods and systems for data transfer via a communication channel | |
GB2487232A (en) | Bit Flipping in LDPC/Turbo Decoding | |
Zheng et al. | A Universal List Decoding Algorithm with Application to Decoding of Polar Codes | |
CN113872614B (zh) | 一种基于深度神经网络的里德-所罗门码译码方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |