CN117914446A - 针对代数码的解码方法及系统 - Google Patents

针对代数码的解码方法及系统 Download PDF

Info

Publication number
CN117914446A
CN117914446A CN202311873804.8A CN202311873804A CN117914446A CN 117914446 A CN117914446 A CN 117914446A CN 202311873804 A CN202311873804 A CN 202311873804A CN 117914446 A CN117914446 A CN 117914446A
Authority
CN
China
Prior art keywords
decoding
neural network
node
likelihood
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311873804.8A
Other languages
English (en)
Inventor
黎勇
王铭
刘燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Haiyan Technology Co ltd
Original Assignee
Hangzhou Haiyan Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Haiyan Technology Co ltd filed Critical Hangzhou Haiyan Technology Co ltd
Priority to CN202311873804.8A priority Critical patent/CN117914446A/zh
Publication of CN117914446A publication Critical patent/CN117914446A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Error Detection And Correction (AREA)

Abstract

本发明涉及信道解码技术领域,具体涉及一种针对代数码的解码方法及系统。该方法包括:步骤1)获得代数码的因子图,步骤2)依照因子图建立可迭代解码的神经网络解码器,该神经网络解码其中,每次迭代时会分配不同的权重。步骤3)向神经网络解码器输入接收向量r,在最大迭代次数Imax次迭代译码后,基于得到解码后的码字。针对代数码的解码方法及系统中包含了前述的神经网络解码器,并按照前述方法执行解码。该方法和系统有效的降低了针对代数码的BP解码的误码率。

Description

针对代数码的解码方法及系统
技术领域
本发明涉及信道解码技术领域,具体涉及一种针对代数码的解码方法及系统。
背景技术
超可靠低延迟通信(Ultra-Reliable and Low Latency Communications,URLLC)作为新一代通信技术5G中的重要一环,可以对工业、物联网等对可靠性以及延迟要求极高的应用场景提供技术支持。为了达到对于该场景所制定的技术指标,需要采用在码长较短时也有较好纠错能力的信道编码。而低密度奇偶校验码(Low Density Parity Check,LDPC,LDPC)作为目前比较先进的编码,其在码长较长时有优异的解码速度以及误码率,在码长较短时误码率则有待改进。为了解决这个问题,研究者们将目光转回到了经典的代数码,例如Bose–Chaudhuri–Hocquenghem(BCH)码以及平方剩余码(Quadratic residue,QR)码等等。这些代数码已经被证明在码长较短时有着很好的性能表现,但是由于代数码算法很复杂,这些代数码在移动通讯中的应用范围一直很受限。
为了提高代数码的误码率性能同时降低复杂度,现有技术中希望使用基于BP(Belief propagation)的算法加速译码并降低误码率,然而由于代数码的校验矩阵密度很高,传统的基于BP的算法尽管速度较快,但是误码率很不理想。
发明内容
本发明的目的之一,是提出针对传统BP类算法误码率高的问题,提出一种针对代数码的解码方法。
本发明中针对代数码的解码方法,包括:
步骤1)获得代数码的因子图其中/>表示变量节点集合,第i个变量节点表示为vi;/>表示校验节点集合,第j个校验节点表示为cj;/>表示边的集合,第i个变量节点与第j个校验节点间的边表示为cj(vi,cj);
步骤2)依照因子图以及以下叙述展开神经网络,建立可迭代解码的神经网络解码器:
各校验节点cj建模为校验节点模块,每个模块中包含由一输入层和一输出层组成的神经网络,输入层和输出层中的节点数量一致,输入层/输出层中各个节点对应于该校验节点cj所连接的一条边(vi,cj),vi∈N(cj),N(cj)表示因子图中与cj连接的变量节点的集合;
对每个校验点模块的第k次迭代,其输入层中对应边(vi,cj)的节点输入前一次迭代给出的变量节点vi对校验节点cj的似然率输入输出层中对应边(vi,cj)的节点从输出方向连接至对应于变量节点vi的似然率计算节点;输入层和输出层之间的连接对应于以下似然率输出计算展开;
其中,为输出层中对应边(vi,cj)的节点的似然率输出,min表示取最小值,sign为符号函数,/>为通过训练得到的当次迭代的权重,/>为变量节点vi的输出似然率;
变量节点vi的似然率计算节点处的似然率输出计算如下:
其中,N(vj)表示因子图中与vi连接的校验节点的集合;
对于解码器的第一次迭代,有,ri∈r,/>为变量节点vi的信道接收似然比,r为从信道解调得到的接收对数似然比(LLR)接收向量;
对于最后一个迭代,有最终的变量节点vi的最终似然比输出如下:
步骤3)向神经网络解码器输入接收向量r,在最大迭代次数Imax次迭代译码后,基于得到解码后的码字。
进一步的,步骤3)包括:将接收向量r的比特位置顺序打乱,并对打乱后得到的多个接收向量分别利用神经网络解码器进行解码,得到多个候选码字;
对候选码字恢复顺序并挑选出最佳结果作为输出码字。
进一步的,步骤3中对接收向量r的打乱、解码并挑选最佳结果的过程具体包括:
步骤31):从置换群Per(C)中随机抽取W个置换,分别应用到r上,得到:
π1(r),π2(r),…πW(r);
步骤32):利用神经网络解码器对π1(r),π2(r),…πW(r)分别做最大迭代次数为Imax的译码;
从置换群中再次随机抽取W个置换,对译码输出的各LLR向量再进行一次随机置换,并对置换后的LLR做最大迭代次数为Imax的译码,直到置换和译码L次后,输出W个候选译码结果;
步骤33):对于各候选译码结果将它们回复原来的顺序并输出其中相关差最小的一个作为译码结果,即:
其中,λ(·)表示相关差计算。
进一步的,步骤32)中还包括,若快速终止条件被满足,则将码字恢复原来的顺序并直接输出此时满足快速终止条件的译码结果;
所述快速终止条件判断过程包括:
步骤321),对接收序列r执行硬判决如下:
步骤322),建立根据当前译码码字与所述硬判决结果的关系,建立两个索引集合如下:
步骤323),计算接受序列与候选码字序列的相关差如下:
步骤324),排序:令为/>中元素的个数,则/>中元素的个数为/>
根据接收向量r的每一位绝对值大小,将集合中的对应元素进行排序,使得排序后/>对应接收向量位置绝对值按升序排列,即:
且/>
记排序后的前j位为/>
步骤325),计算GT
步骤326),判定:若则说明/>是最佳码字,可以提前退出。
本发明的另一目的是提出一种针对代数码的解码系统,包括前述的神经网络解码器。
进一步的,该解码系统包括多个神经网络解码器,每个解码神经网络解码器前连接有一随机置换模块,用于在每次译码前执行对解码器的外部输入序列执行一次随机置换;
该系统按照前述的方案步骤进行译码。
本发明中的方法中基于分层Min-sum算法的迭代过程构建神经网络,其中分配给神经网络的可训练权重对应于分配给因子图中边的权重,且每次迭代的权重相互独立,从而形成一种神经网络译码器,该方法有效的降低了解码误码率,另外,在一些实施例中,随之置换解码可进一步带来误码率的降低;在有一些实施例中,快速终止条件的使用,使得在保证解码性能的前提下,有效减少迭代次数,降低解码计算的复杂程度。
附图说明
图1为本发明实施例中的(7,4)汉明码的因子图以及对应的神经网络解码器结构。
图2为本发明实施例中的神经网络mRRD解码系统的示意图。
图3为本发明实施例中的神经网络译码器对比非神经译码器在不同矩阵上的BER性能。
图4为不同网络规模的神经网络mRRD解码系统的平均复杂度。
图5为不同网络规模的神经网络mRRD解码系统的FER性能。
具体实施方式
本实施例中以(7,4)汉明码为例,对应的因子图以及Min-sum神经网络译码器结构如图1所示,该因子图又可以表示为其中/>表示变量节点集合,本例中包括v1-v7,/>表示校验节点集合,/>表示边的集合;从图中可以看到,在该译码器中,校验检点c1、c2和c3被建模为三个校验点模块,每个模块中包含由一输入层和一输出层组成可训练的神经网络,输入层和输出层中各节点对应于该校验点所连接的一条边(vi,cj),于是,对于(7,4)汉明码,图中的输入层和输出层均有4个节点,对应于每个校验节点的四条边;对每个校验点模块,其输入层中对应边(vi,cj)的节点从输入方向连接至对应于变量节点vi的计算节点,该连接对应于变量节点vi到校验节点cj的置信传播;输出层中对应边(vi,cj)的节点从输出方向连接至对应于变量节点vi的计算节点,该连接对应于校验节点cj到变量节点vi的置信传播;输入层和输出层之间的连接对应于Min-sum算法的展开;本例中,译码器从外界的输入为根据从信道接受到的(7,4)汉明码信号解调得到的接收对数似然比(LLR)向量r,简称接收向量,变量节点vi的信道接收似然比/>
于是在本例中,对于第一次迭代中的第一个校验点模块c1,有输入并且只涉及c1所连接的变量节点,这些变量节点的集合记作N(c1),本例中为v1、v4、v6和v7,校验点模块c1再基于自身以及Min-sum算法计算出本次迭代中校验节点c1传递给变量节点vi的似然率/>如下:
其中,min表示取最小值,sign为符号函数,为校验点模块c1中的神经网络中,输出层节点(vi,c1)与/>计算结果所对应的输入层节点(vi′,c1)间的连接在第一次迭代时被分配的权重,该权重通过对神经网络的训练得到;同理,另外两个校验点模块可以得出/>此时,可以得到第二次迭代的输入似然率如下:
其中N(vi)表示变量节点vi所连接的校验节点的集合。
本实施例中,神经网络分层Min-sum的具体迭代算法如下:
针对上述的神经网络译码算法,本例中还提出了一种基于mRRD算法用于进一步降低神经网络译码器的误码率的算法。mRRD算法利用码字的置换群对接收向量进行多次置换。在这个过程中,接收向量的比特位置顺序被打乱,导致同样的接收向量经过不同的置换后解码也会得到不同的结果,增加了产生正确码字的可能性。此外,对码字进行置换同样可以防止错误的信息一直停留在陷阱集中并向外扩散。在得到多个解码结果后,将各候选码字恢复顺序并挑选出最佳结果作为输出码字。在这个过程中,本例还可以使用如下的快速终止条件加速解码。
为了进一步降低错误率,本例使用了循环冗余矩阵而不是常规的校验矩阵进行译码。对于循环码来说,常规校验矩阵可以记为H,其中“>>”为循环右移运算符:
其中H1对应矩阵H的第一行。
假设矩阵H的第x行的第一位是1,那么循环冗余矩阵Hcyc可以表示为:
本例中,神经网络mRRD的过程描述如下:
神经网络mRRD解码系统的结构如图2所示,其中带“p”的圆圈代表随机置换模块,用于在每次译码前执行一次随机置换,带“MS”的方块代表神经网络Min-sum解码器,系统中采用W行并行的解码器-随机置换模快组合,在一些实施例中,每行中的采用L的串联的码器-随机置换模快组合,通过增加算力资源提高计算效率,可以设置小于L个串联的码器-随机置换模快组合,通过循环使用解码器来平衡算力资源的占用和译码效率。
本例中的神经网络分层Min-sum(NLMS)算法和普通的分层Min-sum(LMS)算法在(63,45)BCH码的不同校验矩阵上的比特错误率如图3所示,可以看到本例中的神经网络分层Min-sum(NLMS)算法在不同校验矩阵上的比特错误率均好于普通的分层Min-sum(LMS)算法。
根据前文的算法介绍可知,一个大小为(W,L,Imax)的神经网络mRRD解码系统在最坏情况下需要W×L×Imax次Min-sum译码,但是由于快速终止条件的加入,平均迭代次数会随着信噪比的提升会迅速下降。
使用了快速终止条件的神经网络mRRD译码系统在解码(63,45)BCH码时所需的平均迭代次数如图4所示,不同曲线代表了不同规模的神经网络mRRD译码系统在不同信噪比下解码10,000帧所需要的平均迭代次数。
同样的,图4中相同规模的神经网络mRRD译码器在解码(63,45)BCH码时的帧错误率(FER)如图5所示。

Claims (6)

1.针对代数码的解码方法,其特征在于,包括:
步骤1)获得代数码的因子图其中/>表示变量节点集合,第i个变量节点表示为vi;/>表示校验节点集合,第j个校验节点表示为cj;/>表示边的集合,第i个变量节点与第j个校验节点间的边表示为cj(vi,cj);
步骤2)依照因子图以及以下叙述展开神经网络,建立可迭代解码的神经网络解码器:
各校验节点cj建模为校验节点模块,每个模块中包含由一输入层和一输出层组成的神经网络,输入层和输出层中的节点数量一致,输入层/输出层中各个节点对应于该校验节点cj所连接的一条边(vi,cj),vi∈N(cj),N(cj)表示因子图中与cj连接的变量节点的集合;
对每个校验点模块的第k次迭代,其输入层中对应边(vi,cj)的节点输入前一次迭代给出的变量节点vi对校验节点cj的似然率输入输出层中对应边(vi,cj)的节点从输出方向连接至对应于变量节点vi的似然率计算节点;输入层和输出层之间的连接对应于以下似然率输出计算展开;
其中,为输出层中对应边(vi,cj)的节点的似然率输出,min表示取最小值,sign为符号函数,/>为通过训练得到的当次迭代的权重,/>为变量节点vi的输出似然率;
变量节点vi的似然率计算节点处的似然率输出计算如下:
其中,N(vj)表示因子图中与vi连接的校验节点的集合;
对于解码器的第一次迭代,有,ri∈r,/>为变量节点vi的信道接收似然比,r为从信道解调得到的接收对数似然比(LLR)接收向量;
对于最后一个迭代,有最终的变量节点vi的最终似然比输出如下:
步骤3)向神经网络解码器输入接收向量r,在最大迭代次数Imax次迭代译码后,基于oik得到解码后的码字。
2.根据权利要去1中所述的方法,其特征在于,步骤3)包括:将接收向量r的比特位置顺序打乱,并对打乱后得到的多个接收向量分别利用神经网络解码器进行解码,得到多个候选码字;
对候选码字恢复顺序并挑选出最佳结果作为输出码字。
3.根据权利要去2中所述的方法,其特征在于,步骤3中对接收向量r的打乱、解码并挑选最佳结果的过程具体包括:
步骤31):从置换群Per(C)中随机抽取W个置换,分别应用到r上,得到:
π1(r),π2(r),…πW(r);
步骤32):利用神经网络解码器对π1(r),π2(r),…πW(r)分别做最大迭代次数为Imax的译码;
从置换群Per(C)中再次随机抽取W个置换,对译码输出的各LLR向量再进行一次随机置换,并对置换后的LLR做最大迭代次数为Imax的译码,直到置换和译码L次后,输出W个候选译码结果;
步骤33):对于各候选译码结果将它们回复原来的顺序并输出其中相关差最小的一个作为译码结果,即:
其中,λ(·)表示相关差计算。
4.根据权利要去3中所述的方法,其特征在于,步骤32)中还包括,若快速终止条件被满足,则将码字恢复原来的顺序并直接输出此时满足快速终止条件的译码结果;
所述快速终止条件判断过程包括:
步骤321),对接收序列r执行硬判决如下:
步骤322),建立根据当前译码码字与所述硬判决结果的关系,建立两个索引集合如下:
步骤323),计算接受序列与候选码字序列的相关差如下:
步骤324),排序:令为/>中元素的个数,则/>中元素的个数为/>
根据接收向量r的每一位绝对值大小,将集合中的对应元素进行排序,使得排序后/>对应接收向量位置绝对值按升序排列,即:
记排序后的前j位为/>
步骤325),计算GT
步骤326),判定:若则说明/>是最佳码字,可以提前退出。
5.针对代数码的解码系统,其特征在于,包括如权利要求1中所述的神经网络解码器。
6.根据权利要求5所述的系统,其特征在于,该解码系统包括多个神经网络解码器,每个解码神经网络解码器前连接有一随机置换模块,用于在每次译码前执行对解码器的外部输入序列执行一次随机置换;
该系统按照如权利要求2-4中所述的方法步骤进行译码。
CN202311873804.8A 2023-12-31 2023-12-31 针对代数码的解码方法及系统 Pending CN117914446A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311873804.8A CN117914446A (zh) 2023-12-31 2023-12-31 针对代数码的解码方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311873804.8A CN117914446A (zh) 2023-12-31 2023-12-31 针对代数码的解码方法及系统

Publications (1)

Publication Number Publication Date
CN117914446A true CN117914446A (zh) 2024-04-19

Family

ID=90694474

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311873804.8A Pending CN117914446A (zh) 2023-12-31 2023-12-31 针对代数码的解码方法及系统

Country Status (1)

Country Link
CN (1) CN117914446A (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107241106A (zh) * 2017-05-24 2017-10-10 东南大学 基于深度学习的极化码译码算法
WO2020160167A1 (en) * 2019-01-29 2020-08-06 Idac Holdings, Inc. Methods and procedures for flexible and highly-parallel polar encoding and decoding
CN113228520A (zh) * 2018-12-03 2021-08-06 南布列塔尼大学 用于对由至少两个约束节点组成的代码进行解码的迭代解码器
CN115664899A (zh) * 2022-10-25 2023-01-31 浙江大学 一种基于图神经网络的信道解码方法及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107241106A (zh) * 2017-05-24 2017-10-10 东南大学 基于深度学习的极化码译码算法
CN113228520A (zh) * 2018-12-03 2021-08-06 南布列塔尼大学 用于对由至少两个约束节点组成的代码进行解码的迭代解码器
WO2020160167A1 (en) * 2019-01-29 2020-08-06 Idac Holdings, Inc. Methods and procedures for flexible and highly-parallel polar encoding and decoding
CN115664899A (zh) * 2022-10-25 2023-01-31 浙江大学 一种基于图神经网络的信道解码方法及系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
QING WANG ET.AL: "Normalized Min-Sum Neural Network for LDPC Decoding", 《NORMALIZED MIN-SUM NEURAL NETWORK FOR LDPC DECODING》, vol. 09, no. 01, 28 February 2023 (2023-02-28), pages 70 - 81 *
YUANHUI LIANG ET.AL: "A Low-Complexity Neural Normalized Min-Sum LDPC Decoding Algorithm Using Tensor-Train Decomposition", 《IEEE COMMUNICATIONS LETTERS 》, vol. 26, no. 12, 16 September 2022 (2022-09-16) *
ZHEN ZHANG ET.AL: "Factor Graph Neural Networks", 《FACTOR JOURNAL OF MACHINE LEARNING RESEARCH》, 2 August 2023 (2023-08-02) *
樊姣: "有记忆信道下极化码的联合信道估计与译码", 《中国优秀硕士学位论文全文数据库》, no. 03, 15 March 2022 (2022-03-15) *

Similar Documents

Publication Publication Date Title
JP4389373B2 (ja) 2元巡回符号を反復型復号するための復号器
TWI758748B (zh) 使用於低密度奇偶檢查碼解碼器的方法及解碼器
CN107919874B (zh) 校验子计算基本校验节点处理单元、方法及其计算机程序
CN105763203B (zh) 一种基于硬可靠度信息的多元ldpc码译码方法
US11316540B2 (en) Method of decoding polar codes based on belief propagation
US20130283119A1 (en) Method and Apparatus for Elementary Updating a Check Node During Decoding of a Block Encoded with a Non-binary LDPC Code
CN107565978B (zh) 基于Tanner图边调度策略的BP译码方法
WO2007034870A1 (ja) 復号装置および受信装置
CN111541517B (zh) 一种列表极化码传播译码方法
CN107404321B (zh) 用于纠错码解码的方法和设备
Abbas et al. List-GRAND: A practical way to achieve maximum likelihood decoding
Garcia-Herrero et al. Multiple-vote symbol-flipping decoder for nonbinary LDPC codes
CN110999092A (zh) 非二进制ldpc码的简化的预排序的基于校正子的扩展最小和(ems)解码
Deng et al. Reduced-complexity deep neural network-aided channel code decoder: A case study for BCH decoder
Yuan et al. On the role of quantization of soft information in GRAND
CN112104412B (zh) 一种适用于低轨卫星宽带通信的加速器
CN111446973B (zh) 基于多翻转比特集合的极化码置信传播译码方法
CN111034055A (zh) 在非二进制ldpc解码器中简化的校验节点处理
CN110890896B (zh) 可重构的极化码与低密度奇偶校验码联合译码单元
Jamali et al. Low-complexity decoding of a class of Reed-Muller subcodes for low-capacity channels
Liang et al. Efficient stochastic successive cancellation list decoder for polar codes
CN112104379B (zh) 一种基于关键集的极化码置信度传播动态翻转译码方法
Chu et al. An efficient short high-order non-binary LDPC decoder architecture using a message-adaptation EMS algorithm
CN117914446A (zh) 针对代数码的解码方法及系统
CN115037310A (zh) 一种基于随机计算的5g ldpc译码器性能优化方法及架构

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination