CN112290954B - 一种基于深度学习后处理的ldpc码的译码算法 - Google Patents
一种基于深度学习后处理的ldpc码的译码算法 Download PDFInfo
- Publication number
- CN112290954B CN112290954B CN202010965303.2A CN202010965303A CN112290954B CN 112290954 B CN112290954 B CN 112290954B CN 202010965303 A CN202010965303 A CN 202010965303A CN 112290954 B CN112290954 B CN 112290954B
- Authority
- CN
- China
- Prior art keywords
- decoding
- iteration
- information
- bit
- llr
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 17
- 238000012805 post-processing Methods 0.000 title claims abstract description 17
- 238000012795 verification Methods 0.000 claims abstract description 5
- 238000000034 method Methods 0.000 claims description 16
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 6
- 230000007306 turnover Effects 0.000 claims description 6
- 230000003321 amplification Effects 0.000 claims description 5
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 3
- 230000001174 ascending effect Effects 0.000 claims description 2
- 125000004122 cyclic group Chemical group 0.000 claims description 2
- 238000001514 detection method Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 claims description 2
- 238000011084 recovery Methods 0.000 abstract description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/03—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
- H03M13/05—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
- H03M13/11—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits using multiple parity bits
- H03M13/1102—Codes on graphs and decoding on graphs, e.g. low-density parity check [LDPC] codes
- H03M13/1105—Decoding
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Error Detection And Correction (AREA)
Abstract
本发明涉及一种基于深度学习后处理的LDPC码的译码算法,包括以下步骤:S1、归一化分层最小和迭代译码;S2、对每次迭代的判决结果进行校验,若满足则将判决结果输出,若未通过校验,且迭代次数小于最大迭代次数,则进行下一次迭代译码,若迭代次数达到最大迭代次数仍未满足则进入步骤S3;S3、执行深度学习后处理。本发明LDPC译码算法可进一步提高归一化分层最小和译码算法在LDPC码译码中的性能,从而降低错误平层,实现从含有噪声和干扰的序列中更好的还原发送端的数据。
Description
技术领域
本发明涉及电子通信技术领域,具体为一种基于深度学习后处理的LDPC码的译码算法。
背景技术
由Gallager首先提出的LDPC码已被证实在多种信道下可获得接近香农极限的性能,是目前纠错编码界的重要技术成果之一。现有的归一化分层最小和译码算法精度很高,但是硬件实现比较复杂。最小和译码算法(MSA)是对现有的归一化分层最小和译码算法的近似简化,虽然性能比现有的归一化分层最小和译码算法差,特别是对于不规则码,但是可以极大地减少硬件实现的复杂度,因此得到了广泛的应用。
最小和译码算法的错误平层现象很明显,其特征表现为在从中等信噪比瀑布区域到高信噪比错误平层区域误码性能曲线斜率的突然降低。许多应用研究,例如深空通信、有线网络传输以及数据存储等都需要极低的误码率(要求误比特率在10-12~10-15以下),因此如何有效地降低LDPC码的错误平层是其在实际应用的关键问题之一。
在高信噪比区域中,错误平层的出现主要是由小陷阱集造成的。针对陷阱集问题,在现有的技术中,通过不断改进归一化分层最小和译码算法并取得重要成果,其中包括平均译码算法和两级译码算法。平均译码算法削弱迭代过程中信息节点置信度变化的幅度,防止陷阱集内信息节点快速收敛为错误比特,该算法有效地缓解了Margulis码的错误平层问题,但需要较多的迭代次数才能完成译码。两级译码算法第一阶段采用归一化分层最小和常规译码,第二阶段通过翻转近似陷阱集内的错误信息节点打破陷阱集,达到降低错误平层的目的,但实现过程也较为繁琐。
发明内容
为解决现有技术所存在的技术问题,本发明提供一种基于深度学习后处理的LDPC码的译码算法,该LDPC译码算法可进一步提高归一化分层最小和译码算法在LDPC码译码中的性能,从而降低错误平层,实现从含有噪声和干扰的序列中更好的还原发送端的数据。
本发明采用以下技术方案来实现:一种基于深度学习后处理的LDPC码的译码算法,包括以下步骤:
S1、归一化分层最小和迭代译码,通过生成信息序列Y及Y对应的编码后的信息比特序列X,信息比特序列X经过归一化分层最小和BPSK调制后加入高斯白噪声,并初始化为L,收到信道信息后,初始化迭代次数、翻转次数、最大迭代次数和最大翻转次数,利用归一化分层最小和译码算法对接收码字进行迭代译码;
S2、对每次迭代的判决结果进行校验,若满足/>则将判决结果输出,若未通过校验,且迭代次数小于最大迭代次数,则进行下一次迭代译码,若迭代次数达到最大迭代次数仍未满足/>则进入步骤S3;其中H是校验矩阵,/>是译码后的码字,表示矩阵的转置;
S3、执行深度学习后处理。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明基于深度学习后处理的LDPC码的译码算法,通过分层最小和迭代译码,校验每次迭代的判决结果,执行深度学习后处理步骤,提供了译码增益,进一步降低了LDPC码的错误平层。
2、本发明提出的译码算法并非锁定每个陷阱集中的信息节点,而是根据预先训练好的深度神经网络来评估错误帧中的每一个信息节点的译码正确性,从而降低LPDC码的误帧率。
3、本发明的译码算法,每层译码都会利用上一层迭代后的后验信息,从而加快了译码收敛速度。
附图说明
图1是本发明译码算法流程图;
图2是Tanner示例图;
图3是深度神经网络示意图;
图4是本发明实施例中译码算法与现有的分层最小和译码算法的误帧率性能比较图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
如图1所示,本实施例一种基于深度学习后处理的LDPC码的译码算法,通过采用分层的修正最小和译码算法的LDPC译码模块实现,主要包括以下步骤:
步骤S1、分层最小和迭代译码,通过随机生成部分信息序列Y及Y对应的编码后的信息比特序列X,X序列经过归一化分层最小和BPSK调制后加入高斯白噪声,并初始化为L,收到信道信息后,初始化迭代次数、翻转次数、最大迭代次数和最大翻转次数,并根据如图2所示的LDPC码的Tanner示例图,利用归一化分层最小和译码算法对接收码字进行迭代译码。
具体地,假设i表示当前迭代次数,Imax表示设定的最大迭代次数,定义l为迭代的层数,基于归一化分层最小和译码算法包括以下步骤:
步骤S11、初始化:令i=1,针对每个m、n,进行初始化变量信息、校验信息:
其中,Zmn是第n个变量节点传给第m个校验节点的变量信息;Fn是第n个后验LLR信息;Pn是第n个变量节点的对数似然比;Lmn是第m个校验节点传给第n个变量节点的校验信息;m和n是变量;
步骤S12、迭代译码:
第l层,第i次迭代:
其中,a是缩放因子,本实施例中取值为0.75;n′是集合N(m)中去掉变量节点n时剩下的校验节点集合中的元素;Zn′,m是第m个变量节点传给第n′个校验节点的变量信息;
步骤S13、硬判决:
其中,表示译码后第n比特输出;/>为最后一层输出,如果不是最后一层,继续第i次迭代的第l+1层译码。如果/>或者i=Imax,译码过程结束,并输出译码后的码字否则i+1,再次重复译码;其中H是校验矩阵,/>是译码后的码字,/>表示矩阵的转置。本实施例中,基于分层的修正最小和译码算法,每层译码都会利用上一层迭代后的后验信息,加快译码收敛速度。
步骤S2、进行校验,对每次迭代的判决结果进行/>校验,若满足则将判决结果输出,若未通过校验,且迭代次数小于最大迭代次数,则进行下一次迭代译码,若迭代次数达到最大迭代次数仍未满足/>则进入步骤S3;
步骤S3、执行深度学习后处理。
具体来说,步骤S3具体步骤如下:
步骤S31、归一化分层最小和译码算法,将译码算法的迭代次数设定为若干次(例如50次),每迭代2次取一次迭代LLR值,当第18次迭代时取得9组间隔为2的迭代LLR值,再取最后一次迭代(即第50次迭代)的LLR值,对这10组LLR值取LLR平均值和LLR方差值,并将10组迭代LLR值、LLR平均值和LLR方差值这12个特征作为每个比特的数据特征。
步骤S32、将每个比特数据特征输入基于深度神经网络的二分类器,对每个比特数据进行分类,分为正确比特和错误比特,并将其作为标签进行神经网络训练,训练一个能分类出正确比特和错误比特的深度神经网络。
如图3所示,具体地,步骤S32中基于深度神经网络的二分类器通过从归一化最小和译码学习过程中提取的数据集内的正确比特集和错误比特集训练而成。然而,比特集训练的两类数据明显不平衡,正确比特样本数量远大于错误比特样本数量,导致训练结果用来做预测,网络倾向于将样本判断为正确比特。因此,通过处理损失函数来解决类别不平衡的情况,用一个系数描述样本在loss中的重要性。对于小数目样本,通过加强其对loss的贡献,对于大数目的样本则削减其对loss的贡献,所对应的损失函数的公式如下:
其中,y是真实样本标签0或1,是当前样本标签为1的概率,w1和w2是权重因子,w1和w2是需要提供的,需要预先根据数据集计算。
步骤S33、将新数据输入训练好的深度神经网络,根据分类结果,创建一个错误比特集合和一个正确比特集合。
步骤S34、将获取的错误比特集合中的比特按LLR平均值绝对值大小进行升序排列,所获取的正确比特集合中的比特按LLR平均值绝对值大小进行降序排列。
步骤S35、在排序后的错误比特集合中,置信度越小说明该节点可疑程度越大,因此对该节点进行比特翻转;在排序后的正确比特集合中,放大节点的信息以加强节点的可靠性,即至少选择一个靠前排列的估计比特信息放大β倍,关于放大倍数β的取值,β越大,收敛速度越快,但可能会导致错误翻转后的不良影响越大,因此β的取值最好在1至2之间,在本实施例中β取值为1.5。
本实施例中,错误比特集合中选取的估计比特信息进行比特翻转的方式为:
正确比特集合中选取的估计比特信息进行信息放大的方式为:
其中,mout为第一阶段译码输出LLR值,j为第j个比特,为翻转后的LLR值,β为放大倍数。
步骤S36、将信息翻转和信息放大后的估计比特信息重新进行归一化分层最小和迭代译码,对每次迭代的判决结果进行校验,若通过校验,则输出判决结果,否则继续进行迭代译码直到迭代次数达到最大迭代次数,将判决结果输出。判决检测后,若译码不成功,再翻转下一个节点,重复循环过程直至译码成功或者错误比特集合中的节点均已处理。
如图4所示,本实施例中,以IEEE 802.16e中3/4A码率的(576,432)LDPC码为例,归一化分层最小和算法的迭代次数为50。在相同信噪比SNR的情况下,误帧率越低,译码性能越好,获得的译码增益越大。在误帧率FER为10-4时,本实施例中所提出的深度学习后处理LDPC译码算法与现有的归一化分层最小和译码算法相比,获得了1.3dB的译码增益。此外,译码增益在较高的信噪比SNR区域变得越来越大。因此,在较高的信噪比SNR下,通过本实施例提出的译码算法可以解决更多的小陷阱集。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (4)
1.一种基于深度学习后处理的LDPC码的译码方法,其特征在于,包括以下步骤:
S1、归一化分层最小和迭代译码,通过生成信息序列Y及Y对应的编码后的信息比特序列X,信息比特序列X经过归一化分层最小和BPSK调制后加入高斯白噪声,并初始化为L,收到信道信息后,初始化迭代次数、翻转次数、最大迭代次数和最大翻转次数,利用归一化分层最小和译码算法对接收码字进行迭代译码;
S2、对每次迭代的判决结果进行校验,若满足/>则将判决结果输出,若未通过校验,且迭代次数小于最大迭代次数,则进行下一次迭代译码,若迭代次数达到最大迭代次数仍未满足/>则进入步骤S3;其中H是校验矩阵,/>是译码后的码字,/>表示矩阵的转置;
S3、执行深度学习后处理;
所述步骤S3包括以下步骤:
S31、归一化分层最小和译码算法,将译码算法的迭代次数设定为若干次,每迭代2次取一次迭代LLR值,当第18次迭代时取得9组间隔为2的迭代LLR值,再取最后一次迭代的LLR值,对这10组LLR值取LLR平均值和LLR方差值,并将10组迭代LLR值、LLR平均值和LLR方差值这12个特征作为每个比特的数据特征;
S32、将每个比特数据特征输入基于深度神经网络的二分类器,对每个比特数据进行分类,分为正确比特和错误比特,并将其作为标签进行神经网络训练,训练出一个分类正确比特和错误比特的深度神经网络;
S33、将新数据输入训练好的深度神经网络,根据分类结果,创建一个错误比特集合和一个正确比特集合;
S34、将获取的错误比特集合中的比特按LLR平均值绝对值大小进行升序排列,所获取的正确比特集合中的比特按LLR平均值绝对值大小进行降序排列;
S35、在排序后的错误比特集合中,对置信度小的节点进行比特翻转;在排序后的正确比特集合中,放大节点的信息,即选择一个靠前排列的估计比特信息放大β倍;
S36、将信息翻转和信息放大后的估计比特信息重新进行归一化分层最小和迭代译码,对每次迭代的判决结果进行校验,若通过校验,则输出判决结果,否则继续进行迭代译码直到迭代次数达到最大迭代次数,将判决结果输出,判决检测后,若译码不成功,再翻转下一个节点,重复循环过程直至译码成功或者错误比特集合中的节点均已处理;
所述步骤S1中归一化分层最小和译码算法包括以下步骤:
S11、初始化:令i=1,针对每个m、n,进行初始化变量信息、校验信息:
其中,i是当前迭代次数;Zmn是第n个变量节点传给第m个校验节点的变量信息;Fn是第n个后验LLR信息;Pn是第n个变量节点的对数似然比;Lmn是第m个校验节点传给第n个变量节点的校验信息;m和n是变量;
S12、迭代译码:
第l层,第i次迭代:
其中,l是迭代的层数;a是缩放因子;n′是集合N(m)中去掉变量节点n时剩下的校验节点集合中的元素;Zn′,m是第m个变量节点传给第n′个校验节点的变量信息;
S13、硬判决:
其中,表示译码后第n比特输出;/>为最后一层输出,如果不是最后一层,继续第i次迭代的第l+1层译码;若/>或者i=Imax,译码过程结束,并输出译码后的码字/>否则i+1,再次重复译码;Imax是设定的最大迭代次数;其中H是校验矩阵,/>是译码后的码字,/>表示矩阵的转置。
2.根据权利要求1所述的基于深度学习后处理的LDPC码的译码方法,其特征在于,所述步骤S32中基于深度神经网络的二分类器通过从归一化最小和译码学习过程中获取的数据集内的正确比特集和错误比特集训练而成。
3.根据权利要求2所述的基于深度学习后处理的LDPC码的译码方法,其特征在于,比特集训练的数据利用的处理损失函数公式如下:
其中,y是真实样本标签0或1,是当前样本标签为1的概率,w1和w2是权重因子。
4.根据权利要求1所述的基于深度学习后处理的LDPC码的译码方法,其特征在于,所述错误比特集合中选取的估计比特信息进行比特翻转的方式为:
正确比特集合中选取的估计比特信息进行信息放大的方式为:
其中,mout为第一阶段译码输出LLR值,j为第j个比特,为翻转后的LLR值,β为放大倍数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010965303.2A CN112290954B (zh) | 2020-09-15 | 2020-09-15 | 一种基于深度学习后处理的ldpc码的译码算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010965303.2A CN112290954B (zh) | 2020-09-15 | 2020-09-15 | 一种基于深度学习后处理的ldpc码的译码算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112290954A CN112290954A (zh) | 2021-01-29 |
CN112290954B true CN112290954B (zh) | 2023-09-08 |
Family
ID=74419938
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010965303.2A Active CN112290954B (zh) | 2020-09-15 | 2020-09-15 | 一种基于深度学习后处理的ldpc码的译码算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112290954B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112953569B (zh) * | 2021-02-03 | 2023-06-30 | Oppo广东移动通信有限公司 | 译码方法及装置、存储介质、电子设备、译码器 |
CN113271111B (zh) * | 2021-06-03 | 2022-08-02 | 北京邮电大学 | 一种基于改进的最小和算法的译码方法及系统 |
CN113872614A (zh) * | 2021-10-09 | 2021-12-31 | 西安电子科技大学 | 一种基于深度神经网络的里德-所罗门码译码方法及系统 |
CN114900268B (zh) * | 2022-04-19 | 2024-07-26 | 成都中科微信息技术研究院有限公司 | 一种基于5g的ldpc高性能译码软信息权重分配方法 |
CN117220689A (zh) * | 2023-10-19 | 2023-12-12 | 澳门理工大学 | 一种基于模型驱动深度学习的非二进制ldpc译码方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109586730A (zh) * | 2018-12-06 | 2019-04-05 | 电子科技大学 | 一种基于智能后处理的极化码bp译码算法 |
CN110535475A (zh) * | 2019-08-30 | 2019-12-03 | 哈尔滨工程大学 | 一种分层自适应归一化最小和译码算法 |
CN111245444A (zh) * | 2020-03-20 | 2020-06-05 | 清华大学 | 归一化最小和ldpc译码方法及译码器 |
CN111565051A (zh) * | 2020-04-10 | 2020-08-21 | 北京邮电大学 | 一种用于ldpc码的自学习归一化偏置最小和译码方法 |
-
2020
- 2020-09-15 CN CN202010965303.2A patent/CN112290954B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109586730A (zh) * | 2018-12-06 | 2019-04-05 | 电子科技大学 | 一种基于智能后处理的极化码bp译码算法 |
CN110535475A (zh) * | 2019-08-30 | 2019-12-03 | 哈尔滨工程大学 | 一种分层自适应归一化最小和译码算法 |
CN111245444A (zh) * | 2020-03-20 | 2020-06-05 | 清华大学 | 归一化最小和ldpc译码方法及译码器 |
CN111565051A (zh) * | 2020-04-10 | 2020-08-21 | 北京邮电大学 | 一种用于ldpc码的自学习归一化偏置最小和译码方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112290954A (zh) | 2021-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112290954B (zh) | 一种基于深度学习后处理的ldpc码的译码算法 | |
Nachmani et al. | Deep learning methods for improved decoding of linear codes | |
USRE44421E1 (en) | Decoding apparatus for low-density parity-check codes using sequential decoding, and method thereof | |
EP1884023B1 (en) | Normalized belief propagation decoding | |
CN109586730B (zh) | 一种基于智能后处理的极化码bp译码算法 | |
US10742239B2 (en) | Method for decoding a polar code with inversion of unreliable bits | |
US8468430B2 (en) | Product code decoding method and device | |
Lugosch et al. | Learning from the syndrome | |
CN110022159B (zh) | 一种快速收敛的ldpc码译码算法 | |
CN109547032B (zh) | 一种基于深度学习的置信度传播ldpc译码方法 | |
US8468438B2 (en) | Method and apparatus for elementary updating a check node during decoding of a block encoded with a non-binary LDPC code | |
Teng et al. | Convolutional neural network-aided tree-based bit-flipping framework for polar decoder using imitation learning | |
Buchberger et al. | Learned decimation for neural belief propagation decoders | |
Tonnellier et al. | Towards practical near-maximum-likelihood decoding of error-correcting codes: An overview | |
Jing et al. | Improved adaptive belief propagation decoding of Reed-Solomon codes with SPC codes | |
Raviv et al. | Crc-aided learned ensembles of belief-propagation polar decoders | |
Shrinidhi et al. | Modified min sum decoding algorithm for low density parity check codes | |
Trifonov et al. | Recursive processing algorithm for low complexity decoding of polar codes with large kernels | |
Han et al. | Deep-learning for breaking the trapping sets in low-density parity-check codes | |
Abotabl et al. | Offset min-sum optimization for general decoding scheduling: A deep learning approach | |
Tian et al. | A scalable graph neural network decoder for short block codes | |
Chen et al. | Semi-LDPC convolutional codes with low-latency decoding algorithm | |
Artemasov et al. | Soft-output deep neural network-based decoding | |
Tang et al. | Normalized Neural Network for Belief Propagation LDPC Decoding | |
CN112929036A (zh) | 一种基于对数似然比的置信度传播动态翻转译码方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |