CN116827359A - 一种鲁棒的信号解码纠错方法及系统 - Google Patents

一种鲁棒的信号解码纠错方法及系统 Download PDF

Info

Publication number
CN116827359A
CN116827359A CN202311091891.1A CN202311091891A CN116827359A CN 116827359 A CN116827359 A CN 116827359A CN 202311091891 A CN202311091891 A CN 202311091891A CN 116827359 A CN116827359 A CN 116827359A
Authority
CN
China
Prior art keywords
error correction
layer
training
signal
signal decoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311091891.1A
Other languages
English (en)
Inventor
常兴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Cpctech Co ltd
Original Assignee
Wuhan Cpctech Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Cpctech Co ltd filed Critical Wuhan Cpctech Co ltd
Priority to CN202311091891.1A priority Critical patent/CN116827359A/zh
Publication of CN116827359A publication Critical patent/CN116827359A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/05Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
    • H03M13/11Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits using multiple parity bits
    • H03M13/1102Codes on graphs and decoding on graphs, e.g. low-density parity check [LDPC] codes
    • H03M13/1148Structural properties of the code parity-check or generator matrix
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Error Detection And Correction (AREA)

Abstract

本发明属于信号解码纠错技术领域,具体提供了一种鲁棒的信号解码纠错方法及系统,其中方法包括以下步骤:基于Inception构建卷积神经网络模型,以识别当前接收信号的编码类型;基于逐次松弛算法构建RNN模型,首先将识别类型后的信号输入到RNN模型中进行迭代后输出Tanner图,然后将Tanner图还原为奇偶检验矩阵并与信号进行正常的矩阵相乘即可得到解码后的信号;对卷积神经网络模型及RNN模型进行训练并自我更新。本发明能有效地识别和纠正传输过程中的错误,从而提高传输的可靠性;还可以减少由于误码产生的重传或再次编码等过程,并节约通信资源。

Description

一种鲁棒的信号解码纠错方法及系统
技术领域
本发明涉及卫星信号解码纠错技术领域,更具体地,涉及一种鲁棒的信号解码纠错方法及系统。
背景技术
信号解码纠错是在信息传输和数据存储等领域中的一个重要问题。在卫星通信系统中,由于信道噪声、干扰、衰减等原因,传输的卫星信号可能会出现误码。为了提高卫星通信系统的可靠性和鲁棒性,需要使用可靠的卫星编码和纠错技术来纠正传输中的错误。其中,线性纠错码编码是常用的一种信号纠错方法,它的主要目的是通过增加一些冗余信息,让接收端能够检测和纠正一定数量的传输错误,并且在数据传输过程中增强数据的完整性和可靠性。常见的线性纠错码有奇偶校验码(Parity Check Code)、海明码(HammingCode)、BCH码(Bose-Chaudhuri-Hocquenghem Code)等。
线性纠错码提高了卫星通信系统的稳定性和可靠性,现有线性纠错码的解码技术主要包括最小距离解码算法、维特比算法和最大似然译码算法。这些算法通常情况下都能有比较好的解码效果,但也存在一些缺陷,如:
最小距离解码算法:该算法的基本思想是在编码空间中找到相似度最小的码字进行解码。然而,最小距离解码算法的缺陷也十分明显,其中最大的问题是其时间复杂度较高,在码字较长时消耗较多计算资源,并且当冲突码字存在时,该算法的准确率会较低。
维特比算法:该算法是一种基于动态规划的解码算法,它可以有效地解码码长较长的线性码。然而,由于该算法忽略了码字间的相关性,因此在某些情况下,其解码效果可能不如其他更加精确的算法。
最大似然算法:最大似然译码算法在处理比特错误率较高的信道时会出现严重的性能退化问题。且码长较大时,最大似然译码算法的运算复杂度非常高,时间和空间开销大。
发明内容
本发明针对现有技术中存在的在对卫星信号解长码时算法复杂度高且解码精度差的技术问题。
本发明提供了一种鲁棒的信号解码纠错方法,包括以下步骤:
S1,基于Inception构建卷积神经网络模型,以识别当前接收的卫星信号的编码类型;
S2,基于逐次松弛算法构建RNN模型,首先将识别类型后的卫星信号输入到RNN模型中进行迭代后输出Tanner图,然后将Tanner图还原为奇偶检验矩阵并与信号进行正常的矩阵相乘即可得到解码后的卫星信号;
S3,对卷积神经网络模型及RNN模型进行训练并自我更新。
优选地,所述S1具体包括:
S11,将信号输入卷积层,随后再进入Inception(深度学习)模块,以提取信号的高维特征;
S12,利用平均池化层以减少高维特征的特征图的大小和复杂度;
S13,全连接层将平均池化层的输出结果输入到softmax分类器中,由softmax分类器确定输入信号的编码类型。
优选地,所述卷积神经网络模型包括沿着信号处理先后顺序依次排列的2层卷积层convolutions、1层最大池化层Max Pooling、4层Inception模块、1层平均池化层AveragePooling、1层全连接层Fully Connected;
且在每层卷积层convolutions后使用ReLU线性整流函数(Rectified LinearUnit)作为非线性激活函数进行处理;
其中,所述平均池化层Average Pooling中嵌入Dropout层,使每个神经元随机保持自身原始状态;当神经元受到抑制时,相应的节点不参与正向传播和反向传播。
优选地,所述S2中奖识别类别后的信号输入到RNN模型中的传输表示如下:
其中,为变量节点的对数比率,/>为正整数表示迭代次数,/>具体表示了在Tanner图中,在迭代/>次时,边/>上的传输过程,/>具体表示了在Tanner图中,在迭代/>次时,/>上的传输过程,/>代表连接变量节点/>和校验节点/>的边,/>表示当前变量节点/>到上一层变量节点/>的边,或为校验节点/>连接到上一层变量节点/>的边,w为RNN模型的权重。
优选地,所述S2中变量节点的对数比率的计算过程如下:
对应于第/>个最小编码单元/>,即第/>个最小编码单元的真实值。
优选地,所述S2中迭代后输出Tanner图为:
其中,为Tanner图。
优选地,所述S3中对卷积神经网络模型进行训练具体包括:
将未解码的信号作为训练数据,解码后的信号作为标签,在训练时,将对于所有的边/>设置为0,损失函数为多变体交叉熵损失函数:
其中,分别为在连接变量节点/>时模型输出集合和真实值集合,I为最大训练次数,N为变量节点总数,t为迭代次数。
优选地,所述S3中对RNN模型进行训练具体包括:
将未解码信号作为训练数据,识别出的编码类型作为标签,损失函数为交叉熵损失函数:
其中,为标签集合,/>为预测值,/>为第i次训练后对编码类别class的预测值,/>为编码类别class的标签,I为最大训练次数,M为类别总数。
本发明还提供了一种鲁棒的信号解码纠错系统,所述系统用于实现鲁棒的信号解码纠错方法,包括:
编码类型识别模块,用于基于Inception构建卷积神经网络模型,以识别当前接收信号的编码类型;
信号解码模块,用于基于逐次松弛算法构建RNN模型,首先将识别类型后的信号输入到RNN模型中进行迭代后输出Tanner图,然后将Tanner图还原为奇偶检验矩阵并与信号进行正常的矩阵相乘即可得到解码后的信号;
训练模块,用于对卷积神经网络模型及RNN模型进行训练并自我更新。
有益效果:本发明提供的一种鲁棒的信号解码纠错方法及系统,其中方法包括以下步骤:基于Inception构建卷积神经网络模型,以识别当前接收的卫星信号的编码类型;基于逐次松弛算法构建RNN模型,首先将识别类型后的信号输入到RNN模型中进行迭代后输出Tanner图,然后将Tanner图还原为奇偶检验矩阵并与信号进行正常的矩阵相乘即可得到解码后的信号;对卷积神经网络模型及RNN模型进行训练并自我更新。本发明能有效地识别和纠正卫星信号传输过程中的错误,从而提高卫星信号传输的可靠性;还可以减少由于误码产生的重传或再次编码等过程,并节约通信资源。
附图说明
图1为本发明提供的一种鲁棒的信号解码纠错方法流程图;
图2为本发明提供的神经网络模型识别信号的编码类型示意图;
图3为本发明提供的Inception模块的示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
线性纠错码提高了通信系统的稳定性和可靠性,且现有线性纠错码的解码技术主要包括最小距离解码算法、维特比算法和最大似然译码算法。这些算法通常情况下都能有比较好的解码效果,但也存在一些缺陷:在解长码时算法复杂度高且解码精度差的技术问题。
为此,如图1所示,本发明实施例采用一种鲁棒的信号解码纠错方法,包括以下步骤:
S1,基于Inception构建卷积神经网络模型,以识别当前接收信号的编码类型。其中,卷积神经网络模型由2层卷积层convolutions、1层最大池化层Max Pooling、4层Inception模块、1层平均池化层、1层全连接层、拼接函数Concat组成。其中,卷积层为一维卷积即1*1 convolutions。
需要特别指出的是,本发明实施例中的输入的信号可以是长码,此时更能发挥出本方案兼容算法复杂度与解码精度的特点。本申请中的信号一般是指卫星通信中的信号,本申请具体针对的是卫星通信信号解码技术领域。其中当前可以接受信号的编码类型常见的包括但不限于:奇偶校验码、循环冗余校验码、海明码、块编码等等。
S2,基于逐次松弛算法构建RNN模型,首先将识别类型后的信号输入到RNN模型中进行迭代后输出Tanner图,然后将Tanner图还原为奇偶检验矩阵并与信号进行正常的矩阵相乘即可得到解码后的信号。通过使用BP算法思想,BP算法在线性纠错码解码过程中是将奇偶校验矩阵以Tanner图进行表示。Tanner图由变量节点、校验节点和权值边构成。本发明利用基于逐次松弛技术的RNN模型(循环神经网络模型)对Tanner图进行求解,从而实现对信号的解码。通过逐次松弛技术:提高运算效率和求解精度。RNN模型能够更好地适应非理想信道环境。
S3,对卷积神经网络模型及RNN模型进行训练并自我更新。
通过设计基于逐次松弛技术的RNN信号解码器,通过将校验节点和变量节点的边权重进行约束,依靠逐次松弛技术通过处理历史信息来引导当前的决策。一方面,能够更好地区分各个解,从而提高解码的准确性;另一方面,可以减少由于误码产生的重传或再次编码等过程,并节约通信资源。权衡了解码器的纠错性能和算法复杂度,使其能适应不同处理能力的解码设备。
其中,步骤S2中信号解码具体过程如下:
首先,经过前面编码类型识别模块识别出当前接收信号的编码类型后,将识别后信号输入到RNN模型中进行迭代后输出Tanner图。
识别信号在RNN模型中的传输可以表示为如下:
其中,为变量节点的对数比率,/>为正整数表示迭代次数,/>具体表示了在Tanner图中,在迭代/>次时,边/>上的传输过程,/>具体表示了在Tanner图中,在迭代/>次时,/>上的传输过程,/>代表连接变量节点/>和校验节点/>的边,/>表示当前变量节点/>到上一层变量节点/>的边,或为校验节点/>连接到上一层变量节点/>的边,w为RNN模型的权重,该值通过RNN模型训练得到。
其中,=1,2,…是迭代次数,/>具体表示了在Tanner图中,在迭代/>次时,从校验节点/>到变量节点/>的特征。
在(1)和(2)中,为变量节点的对数比率,具体为:
对应于第/>个最小编码单元/>,即第/>个最小编码单元的真实值。RNN模型的输出Tanner图为:
其中,为Tanner图。
然后,将Tanner图还原为奇偶检验矩阵并与信号进行正常的矩阵相乘即可得到解码后的信号。
在一个具体的实施场景中,常见的线性纠错码有奇偶校验码(Parity CheckCode)、海明码(Hamming Code)、BCH码(Bose-Chaudhuri-Hocquenghem Code)等,编码和解码种类繁多,传统算法都是单一固定的解码和编码,无法做到自动识别甚至兼容多种类型。
为此,本实施例采用的具体的识别过程包括:
首先,将信号输入卷积层,随后再进入Inception模块,目的是提取信号的高维特征。
然后,利用平均池化层以减少高维特征的特征图的大小和复杂度。
最后,全连接层将平均池化层的输出结果输入到softmax分类器中,由softmax分类器确定输入信号的编码类型。
通过基于Inception模块的编码类型识别模型,识别所接收信号的编码类型,识别所接收信号的编码类型并让RNN信号解码器加载不同类型的权重以适应多种类型的线性纠错码编码。能兼容识别并解码多种类型的线性纠错码编码。
在编码类型识别的过程中,会因为自身卷积神经网络模型的梯度消失而造成多维特征提取偏差的问题。因此,为了防止卷积神经网络模型梯度的消失,在每个卷积层之后使用ReLU作为非线性激活函数。
如图2所示,信号先后依次经过1*1卷积层convolutions、ReLU、1*1卷积层convolutions、ReLU、1*2最大池化层Max Pooling、Inception模块、Inception模块、Inception模块、Inception模块、1*2平均池化层Average Pooling、1层全连接层FullyConnected、 Concat。
在一个具体的实施场景中,提取信号的特征时会造成特征的损失,如果通过不断增加模型参数来降低损失,这样会使得模型更加复杂,计算过程需要消耗更多的资源,且随着参数的增加,精度也无法控制。
为此,如图3所示,Inception模块结构采用了多分支结构,并在不同分支中使用不同尺度的卷积核进行卷积操作,从而可以并行学习不同尺度的特征。这种方法在提取特征时,既能够尽可能地减少特征的损失,同时又能够减小模型的参数数量。
此外,为了更进一步的提高信号识别及解码的精度,需要对卷积神经网络模型及RNN模型进行训练并自我更新。具体过程如下:
(1)信号解码模块:未解码的信号作为训练数据,解码后的信号作为标签。在训练时,将对于所有的边/>设置为0,损失函数为多变体交叉熵损失函数:
其中,分别为在连接变量节点/>时模型输出集合和真实值集合,I为最大训练次数,N为变量节点总数,t为迭代次数。直到训练得到想要的精度或者达到最大训练次数I为止。
(2)编码类型识别模块:将未解码信号作为训练数据,识别出的编码类型作为标签,损失函数为交叉熵损失函数:
其中,为标签集合,/>为预测值,/>为第i次训练后对编码类别class的预测值,/>为编码类别class的标签,I为最大训练次数,M为类别总数。直到训练得到想要的精度或者达到最大训练次数I为止。
在一个具体的实施场景中,现有的信道环境多为非理想信道环境,传统技术在处理非理性信道环境时,由于噪声的存在而导致解码鲁棒性较差。
因此,为了增强鲁棒性,可以人为的对未解码信号添加噪声。具体地,在RNN信号解码模型训练过程中,以未解码信号作为训练数据,解码后的信号作为标签,进行损失函数为多变体交叉熵损失函数的计算,且在未解码信号中添加噪声。使得RNN信号解码模型能够对噪声的统计特性进行学习,以能更好地适应非理想信道环境,增强了鲁棒性。
此外,在卷积神经网络模型的训练学习过程中,可能会因为过度拟合而反过来影响模型本身的精度。因此为了防止过度拟合,本发明在平均池化层使用了Dropout技术,使每个神经元随机保持其原始状态。当神经元受到抑制时,相应的节点不参与正向传播和反向传播。这可以降低神经元之间相互作用的复杂性,使学习到的特征更具鲁棒性。
本发明实施例还提供了一种鲁棒的信号解码纠错系统,所述系统用于实现如前所述的鲁棒的信号解码纠错方法,包括:
编码类型识别模块,用于基于Inception构建卷积神经网络模型,以识别当前接收信号的编码类型;
信号解码模块,用于基于逐次松弛算法构建RNN模型,首先将识别类型后的信号输入到RNN模型中进行迭代后输出Tanner图,然后将Tanner图还原为奇偶检验矩阵并与信号进行正常的矩阵相乘即可得到解码后的信号;
训练模块,用于对卷积神经网络模型及RNN模型进行训练并自我更新。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包括这些改动和变型在内。

Claims (9)

1.一种鲁棒的信号解码纠错方法,其特征在于,包括以下步骤:
S1,基于Inception构建卷积神经网络模型,以识别当前接收的卫星信号的编码类型;
S2,基于逐次松弛算法构建RNN模型,首先将识别类型后的卫星信号输入到RNN模型中进行迭代后输出Tanner图,然后将Tanner图还原为奇偶检验矩阵并与信号进行正常的矩阵相乘即可得到解码后的信号;
S3,对卷积神经网络模型及RNN模型进行训练并自我更新。
2.根据权利要求1所述的鲁棒的信号解码纠错方法,其特征在于,所述S1具体包括:
S11,将卫星信号输入卷积层,随后再进入Inception模块,以提取卫星信号的高维特征;
S12,利用平均池化层以减少高维特征的特征图的大小和复杂度;
S13,全连接层将平均池化层的输出结果输入到softmax分类器中,由softmax分类器确定输入卫星信号的编码类型。
3.根据权利要求1所述的鲁棒的信号解码纠错方法,其特征在于,所述卷积神经网络模型包括沿着信号处理先后顺序依次排列的2层卷积层convolutions、1层最大池化层MaxPooling、4层Inception模块、1层平均池化层Average Pooling、1层全连接层FullyConnected;
且在每层卷积层convolutions后使用ReLU作为非线性激活函数进行处理;
其中,所述平均池化层Average Pooling中嵌入Dropout层,使每个神经元随机保持自身原始状态;当神经元受到抑制时,相应的节点不参与正向传播和反向传播。
4.根据权利要求1所述的鲁棒的信号解码纠错方法,其特征在于,所述S2中将识别类别后的信号输入到RNN模型中的传输表示如下:
其中,为变量节点的对数比率,/>为正整数表示迭代次数,/>具体表示了在Tanner图中,在迭代/>次时,边/>上的传输过程,/>具体表示了在Tanner图中,在迭代/>次时,/>上的传输过程,/>代表连接变量节点/>和校验节点/>的边,/>表示当前变量节点/>到上一层变量节点/>的边,或为校验节点/>连接到上一层变量节点/>的边,w为RNN模型的权重。
5.根据权利要求4所述的鲁棒的信号解码纠错方法,其特征在于,所述S2中变量节点的对数比率的计算过程如下:
对应于第/>个最小编码单元/>,即第/>个最小编码单元的真实值。
6.根据权利要求5所述的鲁棒的信号解码纠错方法,其特征在于,所述S2中迭代后输出Tanner图为:
其中,为Tanner图。
7.根据权利要求6所述的鲁棒的信号解码纠错方法,其特征在于,所述S3中对卷积神经网络模型进行训练具体包括:
将未解码的信号作为训练数据,解码后的信号作为标签,在训练时,将对于所有的边/>设置为0,损失函数为多变体交叉熵损失函数:
其中,分别为在连接变量节点/>时模型输出集合和真实值集合,I为最大训练次数,N为变量节点总数,t为迭代次数。
8.根据权利要求7所述的鲁棒的信号解码纠错方法,其特征在于,所述S3中对RNN模型进行训练具体包括:
将未解码信号作为训练数据,识别出的编码类型作为标签,损失函数为交叉熵损失函数:
其中,为标签集合,/>为预测值,/>为第i次训练后对编码类别class的预测值,/>为编码类别class的标签,I为最大训练次数,M为类别总数。
9.一种鲁棒的信号解码纠错系统,其特征在于,所述系统用于实现如权利要求1-8任一项所述的鲁棒的信号解码纠错方法,包括:
编码类型识别模块,用于基于Inception构建卷积神经网络模型,以识别当前接收信号的编码类型;
信号解码模块,用于基于逐次松弛算法构建RNN模型,首先将识别类型后的信号输入到RNN模型中进行迭代后输出Tanner图,然后将Tanner图还原为奇偶检验矩阵并与信号进行正常的矩阵相乘即可得到解码后的信号;
训练模块,用于对卷积神经网络模型及RNN模型进行训练并自我更新。
CN202311091891.1A 2023-08-29 2023-08-29 一种鲁棒的信号解码纠错方法及系统 Pending CN116827359A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311091891.1A CN116827359A (zh) 2023-08-29 2023-08-29 一种鲁棒的信号解码纠错方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311091891.1A CN116827359A (zh) 2023-08-29 2023-08-29 一种鲁棒的信号解码纠错方法及系统

Publications (1)

Publication Number Publication Date
CN116827359A true CN116827359A (zh) 2023-09-29

Family

ID=88116978

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311091891.1A Pending CN116827359A (zh) 2023-08-29 2023-08-29 一种鲁棒的信号解码纠错方法及系统

Country Status (1)

Country Link
CN (1) CN116827359A (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113111772A (zh) * 2021-04-12 2021-07-13 电子科技大学 基于一维多核并行结构的信道编码结构识别方法
CN113206808A (zh) * 2021-04-01 2021-08-03 中国电子科技集团公司第五十二研究所 一种基于一维多输入卷积神经网络的信道编码盲识别方法
CN115664899A (zh) * 2022-10-25 2023-01-31 浙江大学 一种基于图神经网络的信道解码方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113206808A (zh) * 2021-04-01 2021-08-03 中国电子科技集团公司第五十二研究所 一种基于一维多输入卷积神经网络的信道编码盲识别方法
CN113111772A (zh) * 2021-04-12 2021-07-13 电子科技大学 基于一维多核并行结构的信道编码结构识别方法
CN115664899A (zh) * 2022-10-25 2023-01-31 浙江大学 一种基于图神经网络的信道解码方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ELIYA NACHMANI: "Deep Learning Methods for Improved Decoding of Linear Codes", IEEE JOURNAL OF SELECTED TOPICS IN SIGNAL PROCESSING, pages 1 - 13 *
JIAOWANG: "Fine-grained recognition of error correcting codes based on 1-D convolutional neural network", 《DIGITAL SIGNAL PROCESSING》, pages 1 - 8 *
张明月: "考虑产品特征的个性化推荐及应用", 企业管理出版社, pages: 120 *

Similar Documents

Publication Publication Date Title
Be’Ery et al. Active deep decoding of linear codes
CN102611459A (zh) 解码装置以及解码方法
CN111294058B (zh) 一种信道编码和纠错译码方法、设备以及存储介质
CN107147400B (zh) 一种ira码开集盲识别方法
Choukroun et al. Error correction code transformer
CN111200441B (zh) 一种Polar码译码方法、装置、设备及可读存储介质
CN104242957A (zh) 译码处理方法及译码器
WO2020108586A1 (zh) 一种极化码译码方法及装置、多级译码器、存储介质
CN115664899A (zh) 一种基于图神经网络的信道解码方法及系统
CN110661535B (zh) 一种提高Turbo译码性能的方法、装置及计算机设备
US9026881B2 (en) Soft input, soft output mappers and demappers for block codes
CN112491422A (zh) 基于高斯优化的比特翻转串行消除列表译码方法和系统
CN111130567B (zh) 添加噪声扰动和比特翻转的极化码置信传播列表译码方法
CN110739977B (zh) 一种基于深度学习的bch码译码方法
CN116827359A (zh) 一种鲁棒的信号解码纠错方法及系统
CN101707486A (zh) 单向纠正的多状态置信传播迭代的ldpc译码方法
CN112332866B (zh) 一种基于dvb-s与dvb-s2信号的级联码参数识别方法
Huang et al. Functional error correction for reliable neural networks
US6990626B2 (en) Method and apparatus for MAP decoding of first-order reed muller codes and related error correction codes
CN112953565B (zh) 一种基于卷积神经网络的归零卷积码译码方法和系统
CN110708077B (zh) Ldpc码大数逻辑译码方法、装置和译码器
Upadhyaya et al. Machine learning for error correction with natural redundancy
CN114421974A (zh) 一种具有改进因子图选择方式的极化码bpl译码方法
CN112821895A (zh) 一种实现信号高误码率下的编码识别方法
Isroil et al. Increasing the Reliability of Full Text Documents Based on the Use of Mechanisms for Extraction of Statistical and Semantic Links of Elements

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination