CN115694730A - 基于智能路径选择的极化码译码方法及相关设备 - Google Patents
基于智能路径选择的极化码译码方法及相关设备 Download PDFInfo
- Publication number
- CN115694730A CN115694730A CN202211249158.3A CN202211249158A CN115694730A CN 115694730 A CN115694730 A CN 115694730A CN 202211249158 A CN202211249158 A CN 202211249158A CN 115694730 A CN115694730 A CN 115694730A
- Authority
- CN
- China
- Prior art keywords
- path
- result
- path selection
- code
- decoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Error Detection And Correction (AREA)
Abstract
本公开提供一种基于智能路径选择的极化码译码方法及相关设备包括:获取极化码,并确定所述极化码的参数;将所述参数输入至预先训练的神经网络模型中对所述极化码进行路径选择,以得到路径选择结果;对所述路径选择结果进行判定,得到判定结果,并将所述判定结果输入至译码器;通过所述译码器对所述极化码进行译码。本公开通过使用预设的神经网络模型对极化码进行路径选择,从而降低了对极化码译码过程中所产生的时延,同时还进一步提高了极化码译码器的性能。
Description
技术领域
本发明涉及通信技术领域,尤其涉及一种基于智能路径选择的极化码译码方法及相关设备。
背景技术
在通信系统中,由Arikan所提出的极化码是信道编码领域一次新的突破,其也是可证明能达到香农信道容量的编码方案,因此引起了广大学者们的兴趣。同时,凭借其低复杂度的编译码方案,极化码已成为编码领域最重要的码之一。
现有技术中,在对极化码进行译码时,当极化码码长无限长时,在串行抵消(Successive Cancellation,SC)译码算法下可以达到二进制输入离散无记忆信道(Binary-input discrete memoryless channel,BMCs)的信道容量。当极化码为有限码长时,通过循环冗余校验码(Cyclic Redundancy Check,CRC)辅助的串行抵消列表(Successive Cancellation List,SCL)来进行译码。
在传统SCL/CA-SCL译码算法中,对极化码进行路径选择时,通常使用路径度量值为准则。通过对路径度量值进行度量排序,进而选择度量值较小的L条路径作为候选路径。
但是,在实际译码过程中,对路径度量值进行度量排序严重影响了译码器的吞吐率,并且在列表大小增加时,译码过程的的时延也会呈指数增加,进而也限制了高性能极化码译码器的发展。
发明内容
有鉴于此,本公开的目的在于提出一种基于智能路径选择的极化码译码方法及相关设备。
作为本公开的一个方面,提供了一种基于智能路径选择的极化码译码方法,其特征在于,包括:
获取极化码,并确定所述极化码的参数;
将所述参数输入至预先训练的神经网络模型中对所述极化码进行路径选择,以得到路径选择结果;
对所述路径选择结果进行判定,得到判定结果,并将所述判定结果输入至译码器;
通过所述译码器对所述极化码进行译码。
可选的,所述获取极化码,并对所述极化码的参数进行设定,包括:
确定所述极化码的码长,并通过所述码长计算所述极化码的码字;
对所述码字进行调制,得到所述码字的发送向量,并将所述发送向量输入至传输信道,得到接收向量;
根据所述接收向量计算所述极化码的各个路径中每个译码比特的对数似然比,并通过所述各个路径中每个译码比特的对数似然比计算相应路径的路径度量值。
可选的,所述将所述参数输入至预设的神经网络模型中对所述极化码进行路径选择,包括:
对所述路径度量值进行特征提取,确定与所述路径度量值相对应的路径的长度;
响应于所述路径的长度,对所述路径进行分类;
基于所述分类的结果,对所述极化码进行所述路径选择。
可选的,所述将所述参数输入至预设的神经网络模型中对所述极化码进行路径选择还包括:
基于所述分类的结果计算所述神经网络模型的损失;
通过所述损失对所述神经网络模型进行优化。
可选的,所述对所述路径选择的结果进行判定,并将所述判定的结果输入至译码器,包括:
通过预设的门限值对所述路径选择的结果进行判定;
响应于确定所述路径选择的结果小于所述预设的门限值,将所述路径选择的结果输入至所述译码器;
响应于确定所述路径选择的结果大于所述预设的门限值,对所述路径选择的结果进行舍弃。
可选的,所述对所述路径选择的结果进行判定,并将所述判定的结果输入至译码器还包括:响应于确定所述判定的结果小于所述译码器的路径需求,对所述判定的结果进行补全。
可选的,所述神经网络模型包括输入层、输出层和隐藏层,其中所述输入层和所述输出层的神经元个数与所述译码器规模相同。
作为本公开的第二个方面,本公开还提供了一种基于智能路径选择的极化码译码器,包括:
参数设定模块,对极化码的参数进行设定;
路径选择模块,将所述参数输入至预设的神经网络模型中对所述极化码进行路径选择;
路径判定模块,对所述路径选择的结果进行判定;
路径补全模块,响应于确定所述判定的结果小于译码器的路径需求,则通过所述路径补全模块对所述判定的结果进行补全。
作为本公开的第三个方面,本公开还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现本公开所提供的上述基于智能路径选择的极化码译码方法。
作为本公开的第四个方面,本公开还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使计算机执行如上任意一项所述的方法。
如上所述,本公开提供一种基于智能路径选择的极化码译码方法及相关设备。在本公开中,通过对极化码的参数进行设定得到了关于极化码的路径度量值,再将路径度量值输入至预设的神经网络模型中,进而实现了关于极化码的智能路径选择,以此降低了极化码译码过程所产生的时延,进而减少了极化码译码过程的时间。并且本公开中的预设的神经网络模型还可以被不断更新和优化,这使得在实际应用过程中通过此神经网络模型在进行极化码路径选择时,还可以更加的快速,极大地节省了路径选择的时间。
附图说明
为了更清楚地说明本公开或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1A为本公开实施例所提供的一种基于智能路径选择的极化码译码方法示意图。
图1B为本公开实施例所提供的一种确定极化码参数的方法示意图。
图1C为本公开实施例所提供的一种极化码路径选择的方法示意图。
图1D为本公开实施例所提供的一种对路径选择的结果进行判定的方法示意图。
图2为本公开实施例所提供的一种基于智能路径选择的极化码译码器的示意图。
图3为本公开实施例所提供的一种基于智能路径选择的极化码译码方法的电子设备结构示意图。
具体实施方式
为使本公开的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本公开进一步详细说明。
需要说明的是,除非另外定义,本公开实施例使用的技术术语或者科学术语应当为本公开所属领域内具有一般技能的人士所理解的通常意义。本公开实施例中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
现有技术中,对极化码进行译码主要是通过SCL/CA-SCL译码算法来实现的。当通过上述的译码算法进行译码时,其均需要通过对路径度量值进行度量排序以此得出度量值较小的多条路径作为输入至译码器中的候选路径。
本公开的发明人发现,通过上述的度量排序方法选择候选路径,将限制了译码器的吞吐效率。同时,在译码列表较大的情况下,还将极大地增加译码过程的时延。
为了解决上述问题,本公开提供了一种基于智能路径选择的极化码译码方法及相关设备。通过上述方法,本公开首先对极化码的参数进行了设定,并通过所设定的参数得到极化码的路径度量值,然后将极化码的路径度量值输入至预设的神经网络模型中,通过神经网络模型进行智能路径的选择,最后将所选择到的路径输入至译码器中进行译码。
在介绍了本公开的基本原理之后,下面具体介绍本公开的各种非限制性实施方式。
图1A为本公开实施例所提供的一种基于智能路径选择的极化码译码方法示意图。
图1A所示的基于智能路径选择的极化码译码方法进一步包括以下步骤:
步骤S10:获取极化码,并确定所述极化码的参数。
在一些实施例中,当我们需要对所接收到的极化码进行译码时,我们可以先对极化码的相关参数进行初始化的设定。进而通过对这些参数的计算,确定在极化码中各个路径的路径度量值,进而再根据路径度量值的大小,确定最终输入到译码器中的多条路径,然后再通过译码器对所输入的多条路径进行译码。
图1B为本公开实施例所提供的一种确定极化码参数的方法示意图。
在一些实施例中,如图1B所示,是对步骤S10中确定极化码参数的进一步展开说明,具体包括以下步骤:
S101:确定所述极化码的码长,并通过所述码长计算所述极化码的码字。
在一些实施例中,当我们接收到需要进行译码的极化码时,我们首先可以对其码长进行设定,并通过所设定的码长对极化码的码字能力计算。具体来讲,我们可以将长度为2的幂的极化码的长度设定为N,极化码信息位的长度可以表示为K,进而此极化码的码率则可以表示为:R=K/N。经过一个编码后的极化码码字则可以表示为:c=uF,其中c={c0,c1,...,cN-1},F是极化核矩阵, 表示n次克罗内克积,u={u0,u1,...,uN-1}是原始向量。
S102:对所述码字进行调制,得到所述码字的发送向量,并将所述发送向量输入至传输信道,得到接收向量。
在一些实施例中,当我们得到极化码的码字后,我们还可以将所述码字通过二进制相移键控(BPSK)进行调制。调制过程中通过使用基准的正弦波和相位反转的波浪,使一方为0,另一方为1,从而使得调制后的极化码,可以同时传送/接收2值(1比特)的信息,把极化码的模拟信号转换成准确的数据值。
在一些实施例中,当前述的码字c经过二进制相移键控(BPSK)调制后,还可以获得发送向量。发送向量可以表示为:x=1N-2c,其中x={x0,x1,...,xN-1},1N表示长度为N的全1向量。
在一些实施例中,当通过上述过程获取到发送向量后,还可以对发送向量进行加噪处理。例如,可以将发送向量经过高斯白噪声(AWGN)的信道进行传输。当发送向量经过高斯白噪声(AWGN)的信道进行传输后,在与发送端对应的接收端上可以接收到相应的接收向量。接收向量则可以表示为:y=x+z,其中y={y0,y1,...,yN-1},z={z0,z1,...,zN-1}表示AWGN噪声向量。可以理解的是,对发送向量进行加噪时,还可以使用其他的加噪方法,本实施例中仅以高斯白噪声(AWGN)为例进行说明。
S103:根据所述接收向量计算所述极化码的各个路径中每个译码比特的对数似然比,并通过所述各个路径中每个译码比特的对数似然比计算相应路径的路径度量值。
在一些实施例中,当发送向量经过加噪处理后可以得到含有噪声的接收向量。接下来,我们可以通过对接收向量进行计算,进而得到在极化码的各个路径中每个译码比特的对数似然比。
在一些实施例中,我们首先可以通过接收向量计算得到的对数似然比,对数似然比可以表示为:其中L={L0,L1,...,LN-1},σ2是AWGN噪声向量的方差,y表示接收向量。当通过计算得到对数似然比的数值后,我们可以进一步根据对数似然比求得极化码中各个路径的路径度量值。
在一些实施例中,在对路径度量值进行计算之前,我们还可以先确定对极化码进行译码时所使用的译码算法。本实施例中,我们选择SCL/CA-SCL译码算法。可以理解的是,还可以使用其他的译码算法对极化码进行译码,例如串行抵消译码(SC)等,本公开中仅以SCL/CA-SCL译码算法为例进行说明。
在一些实施例中,当我们确定译码算法为SCL/CA-SCL后,我们还可以确定译码算法的列表大小为L。此时,基于我们所选择的译码算法与前述得到的对数似然比,我们还可以通过计算求得极化码中各个路径的路径度量值。其中,路径度量值PM则可以表示为:
在一些实施例中,路径度量值PM还可以经过路径扩展得到2L个PM度量值,将其中度量值较小的L个PM值标签设置为di=0,度量值较大的标签设置为di=1,按照顺序组成向量d。
如上所述,在本公开中,通过对获取到的极化码的相关参数进行确定,最终计算得出了在极化码中各个路径的路径度量值。接下来,我们可以将所得到的路径度量值输入至预设的神经网络模型中进行特征提取,以确定出多条候选路径。
步骤S20:将所述参数输入至预先训练的神经网络模型中对所述极化码进行路径选择,以得到路径选择结果。
在一些实施例中,当我们确定了极化码中各个路径的路径度量值后,我们可以将多个路径度量值作为输入量输入至预设的神经网络模型中进行路径选择。
在一些实施例中,对于预设的神经网络模型,我们可以先对其参数进行确定。通常来讲,我们可以先将神经网络模型的参数列表确定为L,既与译码算法列表的大小相同。如此设计可以使得此预设的神经网络模型可以与前述的在译码算法下所求得的相关参数进行完全匹配的对接。可以理解的是,在本公开中所设计的神经网络模型可以是通用型的神经网络,这样设计还可以使得,本公开中所使用的神经网络模型在理论上,可以对所有码长N和码率R的极化码都适配,且还可以随译码算法列表大小L进行变化。
在一些实施例中,本公开中预设的神经网络模型还可以包括输入层、输出层和隐藏层,其中所述输入层和所述输出层的神经元个数与所述译码器规模相同。如此设计可以使得从此预设的神经网络模型中输出的路径选择的结果可以与译码器进行匹配,不会出现数量上的误差。
在一些实施例中,本实施例中预设的神经网络模型的输入层和输出层的数量应该均由一层,但是隐藏层却可以由多层构成,本实施例对此则不作出具体限制。相应的,在本公开的神经网络模型中的输入层的神经元个数可以为2L,与译码器列表大小相同,输出层的神经元个数同样为2L,与极化码的信息位个数相同,隐藏层数量和每个隐藏层的神经元数量可以根据具体情况进行确定。
在一些实施例中,本公开中的基于智能路径选择的神经网络模型还可以将输入的路径度量值转换成(0,1)范围的离散值。可以理解的是,本公开的基于智能路径选择的神经网络模型可以包含所有相同输入输出的神经网络模型,包括但不仅限定于全连接神经网络。
图1C为本公开实施例所提供的一种极化码路径选择的方法示意图。
在一些实施例中,如图1C所示,是对步骤S20的进一步展开说明,具体包括以下步骤:
S201:对所述路径度量值进行特征提取,确定与所述路径度量值相对应的路径的长度。
在一些实施例中,当多个路径度量值输入至预设的神经网络模型的输入层后,神经网络模型将对多个路径度量值进行特征提取,以确定与多个路径度量值相对应的路径的长度,既该路径的可靠度,可以理解的是,路径可靠度的数值越小,则表示该路径的可靠性越高。
在一些实施例中,预设的神经网络模型可以获取路径度量值的数值并经由隐藏层进行特征提取的相应计算。具体的计算过程则可以表示为:oi=f(Wi-1,i[oi-1]T+bi),i=1,2,...,I-1其中[oi-1]T为第i-1层输出向量的转置,Wi-1,i为第i-1层到第i层之间的权重矩阵,维度是(Ji,Ji-1),矩阵Wi-1,i有Ji行Ji-1列,矩阵中是可训练的权重,在训练时全部初始化为1,bi为第i层的偏置向量,长度为Ji,即bi有Ji个元素,训练时同样全部初始化为1。
在一些实施例中,预设的神经网络模型基于上述的计算转化过程,可以确定出与多个路径度量值所对应的多个路径的长度。接下来可以通过所确定路径的长度进一步确定出路径选择的结果,既候选路径。
S202:响应于所述路径的长度,对所述路径进行分类。
在一些实施例中,我们通过预设的神经网络模型,确定了与多个路径度量值所对应的多条路径的长度。接下来我们可以基于所确定多条路径的长度对多条路径进行分类。
在一些实施例中,我们可以根据路径长度的数值,确定出关于路径长度的中间值。具体来讲,我们可以对所有的路径长度进行均值计算,得到关于路径长度的均值,并基于所的到的均值对所有的路径长度进行分类,将长度小于均值的路径分设为第一类,将长度大于均值的路径设为第二类。
S203:基于所述分类的结果,对所述极化码进行所述路径选择。
在一些实施例中,当预设的神经网络模型对路径的长度进行分类后,还可以根据分类的结果对极化码进行路径选择,最终确定出可以输入至译码器的多条候选路径。
在一些实施例中,预设的神经网络模型可以选择多条路径长度较小的路径作为候选路径。具体来讲,预设的神经网络模型可以对第二类分类结果进行舍弃,并保留第一类分类的结果且将第一类分类的结果中的多条路径作为最终的候选路径。可以理解的是,对于候选路径的确定与前述的标签d的数值还存在对应的关系。
在一些实施例中,前述的预设的神经网络模型还可以通过分类的结果进行自我的优化。具体来讲,预设的神经网络模型可以基于分类的结果计算神经网络模型的损失,在本公开中神经网络模型的损失可以采用交叉熵作为损失函数,可以表示为:其中,di是标签向量,是信息向量的估值中的元素,并且
在一些实施例中,神经网络模型可以将计算得到损失进行自我反馈,并通过反馈的结果进行自我优化。通过不断地优化可以使得,此预设的神经网络模型在对前述的路径度量值进行特征提取时,可以更加准确的提取到相应的特征,进而使得在误码率相同的情况下可以节省译码过程的时延,使得译码过程的时间变得更短。
如上所述,本公开中通过使用预设神经网络模型对前述的路径度量值进行分类,最终确定多条候选路径。通过使用预设的神经网络模型省去了现有技术中路径度量值排序的时间,极大地节省了译码过程的时延,且增加了译码器的吞吐效率,提高了译码器的性能。
接下来,本公开将对最终所确定的多条候选路径进行门限判定,以确定出多条可以输入至译码器中的极化码路径,进而再通过译码器对极化码进行译码。
步骤S30:对所述路径选择结果进行判定,得到判定结果,并将所述判定结果输入至译码器。
在一些实施例中,当我们通过预设的神经网络模型得到多条候选路径后,由于所得到的候选路径的数值可能无法满足译码器中二进制离散值的要求,因此我们可能需要通过预设的门限值,对所得到的多条候选路径进行门限值判定。
在一些实施例中,我们可以先对门限值的数值加以确定。在实际使用过程中,每个神经网络模型的输出节点都可以连接一个门限,由此则可以诞生出多种判决方式。具体来讲,本公开中基于智能路径的选择门限可以包含门限值T以及2L个比较器,负责选择出可靠度较高的路径(网络输出大于T)。智能路径选择还可以包含多个实施方案,例如:1.统一使用固定门限T,根据不同门限值进行仿真,选定性能最好的作为固定门限值;2.统一使用可变门限T,在不同的译码比特,动态调整门限值,使其大于T的输出尽可能等于L,具体调整方法多样,例如,可以为二分法动态调整,表示为:预先设置门限T=0.5,判断大于T的输出数量,大于L就调低门限,小于L就调高门限;3.不同固定门限,对不同的列表位置,使用不同的门限值,此门限值同样可以根据译码位置变化。
图1D为本公开实施例所提供的一种对路径选择的结果进行判定的方法示意图。
在一些实施例中,如图1D所示,是对步骤S30的进一步展开说明,具体包括以下步骤:
S301:通过预设的门限值对所述路径选择的结果进行判定。
在一些实施例中,可以通过前述的方法设定相应的门限值,当经由预设的神经网络模型所选择的多条候选路径经由门线模块时,可以通过预设的门限值对其进行判定。
S302:响应于确定所述路径选择的结果小于所述预设的门限值,将所述路径选择的结果输入至所述译码器。
在一些实施例中,当多条候选路径中的路径长度小于预设的门限值时,可以将此候选路径作为最终路径输入至译码器中进行译码。具体来讲,还可以将小于预设的门限值的多条候选路径赋予0值,并将其输入至译码器中进行译码。
S303:响应于确定所述路径选择的结果大于所述预设的门限值,对所述路径选择的结果进行舍弃。
在一些实施例中,当多条候选路径中的路径长度小于预设的门限值时,则可以对大于门限值的候选路径进行舍弃。具体来讲,还可以将大于预设的门限值的多条候选路径赋予1值,从而对其进行丢弃。通过上述的在门限值判定中进行赋值的操作,可以使得判定的过程更加的自动化。
S40:通过所述译码器对所述极化码进行译码。
在一些实施例中,当路径选择的结果经由门限值判定后,可以得最终判定的结果。接下来,可以将最终通过判定的结果输入至译码器中,对最终判定的结果进行译码。
在一些实施例中,最终判定的结果可能小于译码器的路径需求,针对此种情况,可以通过对最终判定的结果进行补全,以使得最终进入译码器的路径数量可以符合译码器吞吐量的需求。
在一些实施例中,对最终的判定结果进行补全也可以有多种方法。例如:直接丢弃补全匹配策略,具体来讲,若最终通过判定的路径的数量大于译码器所需要的路径数量,则直接按照顺序丢弃大于的部分,若小于译码器所需要的路径的数量,则可以按照顺序前往后对路径进行补全补齐直至译码器所需要的路径数量。可以理解的是,对最终通过判定的路径进行补全的方法还可以采用随机丢弃补全匹配策略等,本实施例中仅以直接丢弃补全策略为例进行了说明。
综上所述,在本公开中,首先通过对获取的极化码进行参数确定,最终计算得出了路径度量值,接下来通过将多个路径度量值输入至预设的神经网络模型中进行特征提取,确定了多条候选路径,之后再将多条候选路径经由门限值判定,得到了最终的确定路径,最后将确定路径输入至译码器中完成了对所获取的极化码的译码。
通过上述的方法,省略了在现有技术中对路径度量值进行排序的时间的时间,极大地降低了极化码译码过程的时延,且还可以增加了译码器的吞吐量,同时对译码器的改进和创新也起到了很大的作用。
基于同一技术构思,与上述任意实施例方法相对应的,本公开还提供了一种基于智能路径选择的极化码译码器,通过本公开所提供的基于智能路径选择的极化码译码器可以实现以上任意一实施例所述的基于智能路径选择的极化码译码方法。
图2为本公开实施例所提供的一种基于智能路径选择的极化码译码器的示意图。
在一些实施例中,如图2所示,该基于智能路径选择的极化码译码器包括:
参数设定模块100,对极化码的参数进行设定;
路径选择模块200,将参数输入至预设的神经网络模型中对极化码进行路径选择;
路径判定模块300,对路径选择的结果进行判定;
路径补全模块400,响应于确定判定的结果小于译码器的路径需求,则通过路径补全模块对判定的结果进行补全。
基于同一技术构思,与上述任意实施例方法相对应的,本公开还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现以上任意一实施例所述的基于智能路径选择的极化码译码方法。
图3示出了本实施例所提供的一种更为具体的电子设备硬件结构示意图,该设备可以包括:处理器1010、存储器1020、输入/输出接口1030、通信接口1040和总线1050。其中处理器1010、存储器1020、输入/输出接口1030和通信接口1040通过总线1050实现彼此之间在设备内部的通信连接。
处理器1010可以采用通用的CPU(Central Processing Unit,中央处理器)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本说明书实施例所提供的技术方案。
存储器1020可以采用ROM(Read Only Memory,只读存储器)、RAM(Random AccessMemory,随机存取存储器)、静态存储设备,动态存储设备等形式实现。存储器1020可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器1020中,并由处理器1010来调用执行。
输入/输出接口1030用于连接输入/输出模块,以实现信息输入及输出。输入输出/模块可以作为组件配置在设备中(图中未示出),也可以外接于设备以提供相应功能。其中输入设备可以包括键盘、鼠标、触摸屏、麦克风、各类传感器等,输出设备可以包括显示器、扬声器、振动器、指示灯等。
通信接口1040用于连接通信模块(图中未示出),以实现本设备与其他设备的通信交互。其中通信模块可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信。
总线1050包括一通路,在设备的各个组件(例如处理器1010、存储器1020、输入/输出接口1030和通信接口1040)之间传输信息。
需要说明的是,尽管上述设备仅示出了处理器1010、存储器1020、输入/输出接口1030、通信接口1040以及总线1050,但是在具体实施过程中,该设备还可以包括实现正常运行所必需的其他组件。此外,本领域的技术人员可以理解的是,上述设备中也可以仅包含实现本说明书实施例方案所必需的组件,而不必包含图中所示的全部组件。
上述实施例的电子设备用于实现前述任一实施例中相应的基于智能路径选择的极化码译码方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
基于同一技术构思,与上述任意实施例方法相对应的,本公开还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行如上任一实施例所述的基于智能路径选择的极化码译码方法。
本实施例的计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
上述实施例的存储介质存储的计算机指令用于使所述计算机执行如上任一实施例所述的基于智能路径选择的极化码译码方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本公开的范围(包括权利要求)被限于这些例子;在本公开的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本公开实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。
另外,为简化说明和讨论,并且为了不会使本公开实施例难以理解,在所提供的附图中可以示出或可以不示出与集成电路(IC)芯片和其它部件的公知的电源/接地连接。此外,可以以框图的形式示出装置,以便避免使本公开实施例难以理解,并且这也考虑了以下事实,即关于这些框图装置的实施方式的细节是高度取决于将要实施本公开实施例的平台的(即,这些细节应当完全处于本领域技术人员的理解范围内)。在阐述了具体细节(例如,电路)以描述本公开的示例性实施例的情况下,对本领域技术人员来说显而易见的是,可以在没有这些具体细节的情况下或者这些具体细节有变化的情况下实施本公开实施例。因此,这些描述应被认为是说明性的而不是限制性的。
尽管已经结合了本公开的具体实施例对本公开进行了描述,但是根据前面的描述,这些实施例的很多替换、修改和变型对本领域普通技术人员来说将是显而易见的。例如,其它存储器架构(例如,动态RAM(DRAM))可以使用所讨论的实施例。
本公开实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本公开实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本公开的保护范围之内。
Claims (10)
1.一种基于智能路径选择的极化码译码方法,其特征在于,包括:
获取极化码,并确定所述极化码的参数;
将所述参数输入至预先训练的神经网络模型中对所述极化码进行路径选择,以得到路径选择结果;
对所述路径选择结果进行判定,得到判定结果,并将所述判定结果输入至译码器;
通过所述译码器对所述极化码进行译码。
2.根据权利要求1所述的方法,其特征在于,所述获取极化码,并对所述极化码的参数进行设定,包括:
确定所述极化码的码长,并通过所述码长计算所述极化码的码字;
对所述码字进行调制,得到所述码字的发送向量,并将所述发送向量输入至传输信道,得到接收向量;
根据所述接收向量计算所述极化码的各个路径中每个译码比特的对数似然比,并通过所述各个路径中每个译码比特的对数似然比计算相应路径的路径度量值。
3.根据权利要求2所述的方法,其特征在于,所述将所述参数输入至预设的神经网络模型中对所述极化码进行路径选择,包括:
对所述路径度量值进行特征提取,确定与所述路径度量值相对应的路径的长度;
响应于所述路径的长度,对所述路径进行分类;
基于所述分类的结果,对所述极化码进行所述路径选择。
4.根据权利要求3所述的方法,其特征在于,所述将所述参数输入至预设的神经网络模型中对所述极化码进行路径选择还包括:
基于所述分类的结果计算所述神经网络模型的损失;
通过所述损失对所述神经网络模型进行优化。
5.根据权利要求1所述的方法,其特征在于,所述对所述路径选择的结果进行判定,并将所述判定的结果输入至译码器,包括:
通过预设的门限值对所述路径选择的结果进行判定;
响应于确定所述路径选择的结果小于所述预设的门限值,将所述路径选择的结果输入至所述译码器;
响应于确定所述路径选择的结果大于所述预设的门限值,对所述路径选择的结果进行舍弃。
6.根据权利要求5所述的方法,其特征在于,所述对所述路径选择的结果进行判定,并将所述判定的结果输入至译码器还包括:响应于确定所述判定的结果小于所述译码器的路径需求,对所述判定的结果进行补全。
7.根据权利要求3所述的方法,其特征在于,所述神经网络模型包括输入层、输出层和隐藏层,其中所述输入层和所述输出层的神经元个数与所述译码器规模相同。
8.一种基于智能路径选择的极化码译码器,其特征在于,包括:
参数设定模块,对极化码的参数进行设定;
路径选择模块,将所述参数输入至预设的神经网络模型中对所述极化码进行路径选择;
路径判定模块,对所述路径选择的结果进行判定;
路径补全模块,响应于确定所述判定的结果小于译码器的路径需求,则通过所述路径补全模块对所述判定的结果进行补全。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任意一项所述的方法。
10.一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使计算机执行权利要求1至7任一所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211249158.3A CN115694730A (zh) | 2022-10-11 | 2022-10-11 | 基于智能路径选择的极化码译码方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211249158.3A CN115694730A (zh) | 2022-10-11 | 2022-10-11 | 基于智能路径选择的极化码译码方法及相关设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115694730A true CN115694730A (zh) | 2023-02-03 |
Family
ID=85064221
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211249158.3A Pending CN115694730A (zh) | 2022-10-11 | 2022-10-11 | 基于智能路径选择的极化码译码方法及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115694730A (zh) |
-
2022
- 2022-10-11 CN CN202211249158.3A patent/CN115694730A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102519076B1 (ko) | 극성 코드를 구성하는 장치 및 방법 | |
JP2019530333A (ja) | Polar符号を用いてデータを符号化する方法及び装置 | |
US20150349909A1 (en) | System and method for encoding and decoding of data with channel polarization mechanism | |
CN109257140B (zh) | 一种极化信道可靠度排序的方法、极化码编码方法及装置 | |
JP7228042B2 (ja) | 符号化方法及び装置並びに復号化方法及び装置 | |
KR102287176B1 (ko) | 폴라 코딩 방법 및 장치 | |
WO2019141902A1 (en) | An apparatus, a method and a computer program for running a neural network | |
US11080500B2 (en) | Two-dimensional code error correction decoding | |
JP5723975B2 (ja) | Ldpcコードの復号のための方法、システム、およびプログラム | |
CN113327599B (zh) | 语音识别方法、装置、介质及电子设备 | |
US20220114454A1 (en) | Electronic apparatus for decompressing a compressed artificial intelligence model and control method therefor | |
CN115694730A (zh) | 基于智能路径选择的极化码译码方法及相关设备 | |
CN113271110B (zh) | 一种文本的语义信源信道联合编译码方法及装置 | |
CN116707707A (zh) | 联合极化检测译码方法及相关设备 | |
CN111970086B (zh) | 一种相关瑞利块衰落信道下的极化码构造方法及装置 | |
CN112584144B (zh) | 一种图像信号处理方法及装置 | |
CN111582456B (zh) | 用于生成网络模型信息的方法、装置、设备和介质 | |
CN114362763A (zh) | 联合译码方法及装置、存储介质及电子设备 | |
CN110380737B (zh) | 一种极化码距离谱分析的方法及装置 | |
CN113794479A (zh) | 极化调节卷积码的生成方法及相关设备 | |
CN115276900B (zh) | 分布式信源的信源信道联合极化的信息传输方法和系统 | |
CN112332861B (zh) | 一种优化误比特率性能的极化码构造方法及装置 | |
JPH0537397A (ja) | ベクトル量子化器の符号帳設計方法 | |
CN117577121B (zh) | 基于扩散模型的音频编解码方法及装置、存储介质及设备 | |
CN112087282B (zh) | 比特交织极化编码调制中的极化码构造方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |