CN114448570A - 一种分布式联合信源信道编码系统的深度学习译码方法 - Google Patents

一种分布式联合信源信道编码系统的深度学习译码方法 Download PDF

Info

Publication number
CN114448570A
CN114448570A CN202210104626.1A CN202210104626A CN114448570A CN 114448570 A CN114448570 A CN 114448570A CN 202210104626 A CN202210104626 A CN 202210104626A CN 114448570 A CN114448570 A CN 114448570A
Authority
CN
China
Prior art keywords
information
distributed
decoding
source
hidden layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210104626.1A
Other languages
English (en)
Other versions
CN114448570B (zh
Inventor
洪少华
杨建红
徐位凯
王琳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN202210104626.1A priority Critical patent/CN114448570B/zh
Publication of CN114448570A publication Critical patent/CN114448570A/zh
Application granted granted Critical
Publication of CN114448570B publication Critical patent/CN114448570B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0045Arrangements at the receiver end
    • H04L1/0047Decoding adapted to other signal detection operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/05Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
    • H03M13/11Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits using multiple parity bits
    • H03M13/1102Codes on graphs and decoding on graphs, e.g. low-density parity check [LDPC] codes
    • H03M13/1105Decoding
    • H03M13/1108Hard decision decoding, e.g. bit flipping, modified or weighted bit flipping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0045Arrangements at the receiver end
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0045Arrangements at the receiver end
    • H04L1/0047Decoding adapted to other signal detection operation
    • H04L1/005Iterative decoding, including iteration between signal detection and decoding operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Error Detection And Correction (AREA)

Abstract

一种分布式联合信源信道编码系统的深度学习译码方法,涉及电子通信中的数据传输。包括以下步骤:1)确定分布式联合信源信道编码系统译码的训练样本集;2)确定深度学习译码模型;3)确定深度学习网络模型的loss函数;4)确定需要增加信息交互单元的隐藏层位置并插入信息交互单元隐藏层;5)确定深度学习译码训练模型的隐藏层的激活函数;6)确定输入的训练样本集梯度下降的方式训练模型,调整训练的参数确定最后网络模型;7)将需要译码样本集输入模型完成分布式联合信源信道系统信源的译码。针对分布式联合信源信道编码系统可以实现并行译码,并能挖掘分布式信源间的相关性进而提高系统的译码性能。

Description

一种分布式联合信源信道编码系统的深度学习译码方法
技术领域
本发明涉及电子通信中的数据传输,尤其是涉及一种基于LDPC码的分布式联合信源信道编码系统的深度学习译码方法。
背景技术
第五代5G蜂窝网络具有高速率、低延时和支持大量设备互联的特点,5G促进物联网的大量实际运用。同时,物联网的出现也推动5G网络呈现指数级增长。其中传感器网络能够高准确率,低功耗地实现数据传输是物联网中的关键一环。分布式联合信源信道编码系统是一种对多个传感器相关输出在不相互通信进行压缩编码在译码端进行联合译码的技术,它将信道编码和分布式信源编码联合起来,更适用于传感器节点能量受限以及更复杂的实际应用场景。如何设计译码端的结构得到信源信息显得尤其关键。
Min-Sum算法性能虽然不及置信传播迭代译码算法,但其结构简单且易于硬件实现而被广泛使用。随着深度学习的快速发展,有大量的研究者开始将深度学习运用在通信的物理层的译码问题上,进而提高Min-Sum算法的译码性能。但是针对分布式信源信道编码系统的译码网络结构还没有被提出。
发明内容
本发明的目的在于针对分布式联合信源信道编码系统提供可以并行译码并只增加和迭代次数一样的额外权值参数,为了挖掘分布式信源之间的相关性,增加信息交互单元,获得额外的性能增益的一种分布式联合信源信道编码系统的深度学习译码方法。
为了达到上述目的,本发明包括以下步骤:
1)建立分布式联合信源信道编码系统译码的训练样本集,获得对应的校验矩阵Hi,i=1,2,…S,其中S为分布式信源个数;
2)建立分布式联合信源信道编码系统的深度学习译码模型;
3)确定深度学习网络模型的loss函数;
4)确定需要增加交互单元的隐藏层位置并插入信息交互单元隐藏层;
5)确定模型的激活函数,初始化权值w;
6)对步骤1)中输入的样本采用随机梯度下降的方式对模型进行训练,得最优的权值w,确定最终的网络模型;
7)将需要译码的样本集输入到步骤6)最终确定的模型中,通过最终的硬判决完成分布式联合信源信道的译码。
在步骤1)中,所述建立分布式联合信源信道编码系统译码的训练样本集的具体方法可为:首先不失一般性地假设有两个相关信源X和Y,其中信源概率为p[x=0]=p[y=0]=1/2,两个信源之间的相关性定义为ρ,这两个信源可看作是通过转移概率为P[Y=X|X]=ρ的BSC信道产生的相关信源,通过获得的校验矩阵H1,H2得到生成矩阵G1,G2后,实现X'=X*G1与Y'=Y*G2,其中X',Y'是经过编码之后的信息序列;假设信源X和Y信息序列长度均为k比特,经过编码后得到长度为n比特的信息序列;为了同时实现压缩及纠错功能,分布式信源X只发送信息比特前αk部分及校验比特,其中α是介于[0,1]之间的常数;分布式信源Y只发送信息比特的后(1-α)k部分及校验比特;需要发送的信息序列经过BPSK调制后通过AWGN信道得到rX与rY
其次,计算分布式信源各个变量节点的初始似然信息L(ui,X),L(ui,Y),其中未发送部分需要利用信源之间的相关性获得。假设信源X发送信息位的前一部分和校验节点,信源Y发送信息位的后一部分和校验节点,不失一般性以X为例,其信道初始似然信息计算为以下步骤:
Figure BDA0003493533680000021
其中,σ2为AWGN信道噪声的方差,之后将计算得到的L(ui,X)与L(ui,Y)整合为一个大小为(2n,c×num)的矩阵,其中c表示信噪比的类别个数,num表示训练过程中不同信噪比的帧数,该矩阵即为训练样本集。
在步骤2)中,所述建立分布式联合信源信道编码系统的深度学习译码模型,是将分布式信源通过检验矩阵Hi(i=1,2,…S)获得的深度学习的译码网络整合在同一个隐藏层建立分布式联合信源信道编码系统的深度学习译码模型,具体方法为:假设有两个相关信源X和Y,根据校验矩阵H1,H2采用迭代译码Min-Sum算法确定隐藏层中各个神经元的连接关系,其中的连接关系对应H矩阵中'1'的位置,并通过给'1'的位置进行更新神经元的输入和输出。然后将两个信源同一层的变量节点神经元整合为网络的一层变量节点隐藏层,两个信源同一层的校验节点神经元整合为网络的一层校验节点隐藏层。确定迭代次数lmax后,可以得到隐藏层的个数为2lmax,每一隐藏层都分别对应两个信源的迭代译码的连接关系。
在步骤3)中,所述确定深度学习网络模型的loss函数的具体步骤可为:为了避免将分布式信源的译码过程整合为一个网络时训练向其中任何一个信源译码任务倾斜,综合考虑分布式信源译码任务的loss,两相关信源选择的loss函数如下:
L(u,o)=λ(l)LX(u,o)+(1-λ(l))LY(u,o),λ∈(0,1)
其中,
Figure BDA0003493533680000031
LX(u,o)与LY(u,o)分别是分布式信源X与Y译码任务的multi-loss函数。
在步骤4)中,所述确定需要增加交互单元的隐藏层位置并插入信息交互单元隐藏层的具体方法为:选择对应的迭代次数t,即在对应的第2t层隐藏层之后插入信息交互单元隐藏层实现信息交互,两相关信源其信息交互单元具体操作如下:
Figure BDA0003493533680000032
Figure BDA0003493533680000033
其中,
Figure BDA0003493533680000034
Figure BDA0003493533680000035
表示第t次迭代,即对应2t层隐藏层的变量节点的信息,LX(qi,X)与LY(qi,Y)是信息交互单元隐藏层的输出。
在步骤5)中,所述确定模型的激活函数,初始化权值w的具体方法可为:确定激活函数为σ(x)=(1+e-x)-1,初始化最初的权值w为均值为0、方差为1的高斯分布的随机变量。
在步骤7)中,所述将需要译码的样本集输入到步骤6)最终确定的模型中,通过最终的硬判决完成分布式联合信源信道的译码,具体可为:
Figure BDA0003493533680000041
其中,L(qi)是输出层的似然信息。
本发明的有益效果如下:
本发明基于深度学习的分布式联合信源信道编码系统的译码方法可以实现并行译码,并能通过信息交互单元隐藏层实现分布式信源间的信息交互,充分挖掘分布式信源间的相关性以提高系统的译码性能。计算机仿真表明本发明性能明显优于传统的Min-Sum译码方法。
附图说明
图1为本发明分布式联合信源信道编码系统基于深度学习的译码方法流程图;
图2为本发明分布式联合信源信道编码系统基于深度学习译码的模型结构图;
图3为分布式信源间相关性ρ=0.02,本发明与传统的Min-Sum算法的BER性能曲线对比图;
图4为分布式信源间相关性ρ=0.04,本发明与传统的Min-Sum算法的BER性能曲线对比图。
具体实施方式
为使本发明实现的技术手段、特征易于明白了解,下面结合附图与具体实施方式,进一步详细阐述。
图1给出本发明分布式联合信源信道编码系统基于深度学习的译码方法流程图,参见图1,本发明实施例包括以下步骤:
1)建立分布式联合信源信道编码系统译码的训练样本集,获得对应的校验矩阵Hi,i=1,2,…S,其中S为分布式信源个数;
2)建立分布式联合信源信道编码系统的深度学习译码模型;
3)确定深度学习网络模型的loss函数;
4)确定需要增加交互单元的隐藏层位置并插入信息交互单元隐藏层;
5)确定模型的激活函数,初始化权值w;
6)对步骤1)中输入的样本采用随机梯度下降的方式对模型进行训练,得最优的权值w,确定最终的网络模型;
7)将需要译码的样本集输入到步骤6)最终确定的模型中,通过最终的硬判决完成分布式联合信源信道的译码。
在步骤1)中,建立分布式联合信源信道编码系统译码的训练样本集是指:
首先不失一般性地假设有两个相关信源X和Y,其中信源概率为p[x=0]=p[y=0]=1/2,两个信源之间的相关性定义为ρ,这两个信源可以看作是通过转移概率为P[Y=X|X]=ρ的BSC信道产生的相关信源,通过获得的校验矩阵H1与H2得到生成矩阵G1与G2后,实现X'=X*G1与Y'=Y*G2,其中,X',Y'是经过编码之后的信息序列。假设信源X和Y信息序列长度均为k比特,经过编码后得到长度为n比特的信息序列。为了同时实现压缩及纠错功能,分布式信源X只发送信息比特前αk部分及校验比特,其中α是介于[0,1]之间的常数;分布式信源Y只发送信息比特的后(1-α)k部分及校验比特。需要发送的信息序列经过BPSK调制后通过AWGN信道得到rX与rY
其次,计算分布式信源各个变量节点的初始似然信息L(ui,X),L(ui,Y),其中未发送部分需要利用分布式信源之间的相关性获得。假设信源X发送信息位的前一部分和校验节点,信源Y发送信息位的后一部分和校验节点,不失一般性以X为例,其信道初始似然信息计算为以下步骤:
Figure BDA0003493533680000051
其中,σ2为AWGN信道噪声的方差。给定训练过程中信噪比类别个数c以及每一信噪比的帧数num基础上,将计算得到的L(ui,X)与L(ui,Y)整合为一个大小为(2n,c×num)的矩阵,该矩阵即为训练样本集。
步骤2)中,所述将分布式信源通过检验矩阵Hi(i=1,2,…S)获得的深度学习的译码网络整合在同一个隐藏层来建立分布式联合信源信道编码系统的深度学习译码模型是指:假设有两个相关信源X和Y,根据校验矩阵H1,H2采用迭代译码Min-Sum算法确定隐藏层中各个神经元的连接关系,其中的连接关系对应H矩阵中'1'的位置,并通过给'1'的位置进行更新神经元的输入和输出。然后将两个信源同一层的变量节点神经元整合为网络的一层变量节点隐藏层,两个信源同一层的校验节点神经元整合为网络的一层校验节点隐藏层。确定迭代次数lmax后,可以得到隐藏层的个数为2lmax,每一隐藏层都分别对应两个信源的迭代译码的连接关系。
步骤3)中,确定该深度学习网络模型的loss函数是指,为了避免将分布式信源的译码过程整合为一个网络时训练向其中任何一个信源译码任务倾斜,综合考虑分布式信源译码任务的loss,两相关信源选择的loss函数如下:
L(u,o)=λ(l)LX(u,o)+(1-λ(l))LY(u,o),λ∈(0,1),
其中,
Figure BDA0003493533680000061
LX(u,o)与LY(u,o)分别是分布式信源X与Y译码任务的multi-loss函数。
步骤4)中,确定需要增加交互单元的隐藏层位置并插入信息交互单元隐藏层是指,选择对应的迭代次数t,即在对应的第2t层隐藏层之后插入信息交互单元隐藏层实现信息交互,两相关信源其信息交互单元具体操作如下:
Figure BDA0003493533680000062
Figure BDA0003493533680000063
其中,
Figure BDA0003493533680000064
Figure BDA0003493533680000065
表示第t次迭代,即对应2t层隐藏层的变量节点的信息,LX(qi,X)与LY(qi,Y)是信息交互单元隐藏层的输出。
步骤5)中,确定激活函数为σ(x)=(1+e-x)-1,初始化最初的权值w,其中权值w满足均值为0、方差为1的高斯分布。
步骤6)中,对步骤1)中输入的样本采用随机梯度下降的方式对模型进行训练并确定更新的步长和学习率,最终得到最优的权值w;
步骤7)中,将需要译码的样本集输入到6)中最终确定的模型中,通过最终的硬判决完成分布式联合信源信道编码系统的译码。具体操作如下:
Figure BDA0003493533680000071
其中,L(qi)是输出层的似然信息。
如图2所示,产生的输入样本集经过对应的变量节点隐藏层和校验节点隐藏层以及似然信息值交互单元隐藏层,每一次的迭代过程就对应两层隐藏层,最后到达输出层进行硬判决。
通过如下的技术方案实现:
第一步,确定分布式联合信源信道编码系统译码的训练样本集;
第二步,确定深度学习译码模型;
第三步,确定深度学习网络模型的loss函数;
第四步,确定需要增加信息交互单元的隐藏层位置并插入信息交互单元隐藏层;
第五步,确定深度学习译码训练模型的隐藏层的激活函数;
第六步,确定输入的训练样本集梯度下降的方式来训练模型,调整训练的参数来确定最后网络模型;
第七步,将需要译码样本集输入模型完成分布式联合信源信道系统信源的译码。
具体步骤为:
步骤1),对每一个分布式信源计算各个变量节点的初始似然信息,其中发送变量节点的初始似然信息基于接收的码字计算获得,而未发送部分则利用分布式信源间的相关性获得。假设信源X发送信息位的前αk部分和校验节点,信源Y发送信息位的后(1-α)k部分和校验节点,其中k为信源X和Y信息序列长度,α是介于[0,1]之间的常数。不失一般性以X为例,其信道初始似然信息计算为以下步骤:
Figure BDA0003493533680000072
给定信噪比类别个数c以及每个信噪比的训练帧数num,将计算得到的L(ui,X)与L(ui,Y)整合为一个大小为(2n,c×num)的矩阵,该矩阵作为训练样本集。
步骤2),两个分布式信源X和Y根据校验矩阵H1,H2采用迭代译码Min-Sum算法确定隐藏层中各个神经元的连接关系,其中的连接关系对应H矩阵中'1'的位置,并通过给'1'的位置来进行更新神经元的输入和输出。然后将两个信源同一层的变量节点神经元整合为网络的一层变量节点隐藏层,两个信源同一层的校验节点神经元整合为网络的一层校验节点隐藏层。确定迭代次数lmax后,可以得到隐藏层的个数为2lmax,每一隐藏层都分别对应两个信源的迭代译码的连接关系。
步骤3),确定该深度学习网络模型的loss函数。为了避免将分布式信源的译码过程整合为一个网络时训练向其中任何一个信源译码任务倾斜,综合考虑分布式信源译码任务的loss,两相关信源选择的loss函数如下:
L(u,o)=λ(l)LX(u,o)+(1-λ(l))LY(u,o),λ∈(0,1)
步骤4),确定需要增加交互单元的隐藏层位置并插入信息交互单元隐藏层。选择对应的迭代次数t,即在对应的第2t层隐藏层之后插入信息交互单元隐藏层来实现信息交互,两相关信源其信息交互单元具体操作如下:
Figure BDA0003493533680000081
Figure BDA0003493533680000082
步骤5),确定激活函数为σ(x)=(1+e-x)-1,初始化最初的权值w,其中权值w满足均值为0、方差为1的高斯分布。
步骤6),对步骤1)中输入的样本采用随机梯度下降的方式来对模型进行训练并确定更新的步长和学习率,最终得到最优的权值w;
步骤7),将需要译码的样本集输入到6)中最终确定的模型中,通过最终的硬判决来完成分布式联合信源信道编码系统的译码。具体操作如下:
Figure BDA0003493533680000083
本发明针对分布式联合信源信道编码系统提出的基于深度学习的译码方法与传统的Min-Sum算法的对比如下,相应的仿真参数为:H1=H2,G1=G2,选择1/2码率的LDPC码,帧长为800比特,参数α=1/2,即对称压缩,信源X发送前一半信息比特和校验比特,信源Y发送后一半信息比较和校验比特。信噪比范围为[1.25dB,3.25dB],其中步进长度为0.25dB,即c=9,训练过程帧数设为num=180。
相关系数ρ分别取0.02和0.04,迭代次数lmax=30,加入信息交换单元的位置为t=15,即似然信息交互单位对应的隐藏层位置为2t+1,因此最终整个网络模型的隐藏层数为2lmax+1。
图3和4分别展示该条件下与传统Min-Sum算法的BER性能对比图,可以看出本发明与传统Min-Sum算法相比具有明显的性能增益。

Claims (7)

1.一种分布式联合信源信道编码系统的深度学习译码方法,其特征在于包括以下步骤:
1)建立分布式联合信源信道编码系统译码的训练样本集,获得对应的校验矩阵Hi,i=1,2,…S,其中S为分布式信源个数;
2)建立分布式联合信源信道编码系统的深度学习译码模型;
3)确定深度学习网络模型的loss函数;
4)确定需要增加交互单元的隐藏层位置并插入信息交互单元隐藏层;
5)确定模型的激活函数,初始化权值w;
6)对步骤1)中输入的样本采用随机梯度下降的方式对模型进行训练,得最优的权值w,确定最终的网络模型;
7)将需要译码的样本集输入到步骤6)最终确定的模型中,通过最终的硬判决完成分布式联合信源信道的译码。
2.如权利要求1所述一种分布式联合信源信道编码系统的深度学习译码方法,其特征在于在步骤1)中,所述建立分布式联合信源信道编码系统译码的训练样本集的具体方法为:首先不失一般性地假设有两个相关信源X和Y,其中信源概率为p[x=0]=p[y=0]=1/2,两个信源之间的相关性定义为ρ,这两个信源可看作是通过转移概率为P[Y=X|X]=ρ的BSC信道产生的相关信源,通过获得的校验矩阵H1,H2得到生成矩阵G1,G2后,实现X'=X*G1与Y'=Y*G2,其中X',Y'是经过编码之后的信息序列;假设信源X和Y信息序列长度均为k比特,经过编码后得到长度为n比特的信息序列;为了同时实现压缩及纠错功能,分布式信源X只发送信息比特前αk部分及校验比特,其中α是介于[0,1]之间的常数;分布式信源Y只发送信息比特的后(1-α)k部分及校验比特;需要发送的信息序列经过BPSK调制后通过AWGN信道得到rX与rY
其次,计算分布式信源各个变量节点的初始似然信息L(ui,X),L(ui,Y),其中未发送部分需要利用信源之间的相关性获得;假设信源X发送信息位的前一部分和校验节点,信源Y发送信息位的后一部分和校验节点,不失一般性以X为例,其信道初始似然信息计算为以下步骤:
Figure FDA0003493533670000021
其中,σ2为AWGN信道噪声的方差,之后将计算得到的L(ui,X)与L(ui,Y)整合为一个大小为(2n,c×num)的矩阵,其中c表示信噪比的类别个数,num表示训练过程中不同信噪比的帧数,该矩阵即为训练样本集。
3.如权利要求1所述一种分布式联合信源信道编码系统的深度学习译码方法,其特征在于在步骤2)中,所述建立分布式联合信源信道编码系统的深度学习译码模型,是将分布式信源通过检验矩阵Hi(i=1,2,…S)获得的深度学习的译码网络整合在同一个隐藏层建立分布式联合信源信道编码系统的深度学习译码模型,具体方法为:假设有两个相关信源X和Y,根据校验矩阵H1,H2采用迭代译码Min-Sum算法确定隐藏层中各个神经元的连接关系,其中的连接关系对应H矩阵中'1'的位置,并通过给'1'的位置进行更新神经元的输入和输出;然后将两个信源同一层的变量节点神经元整合为网络的一层变量节点隐藏层,两个信源同一层的校验节点神经元整合为网络的一层校验节点隐藏层;确定迭代次数lmax后,可以得到隐藏层的个数为2lmax,每一隐藏层都分别对应两个信源的迭代译码的连接关系。
4.如权利要求1所述一种分布式联合信源信道编码系统的深度学习译码方法,其特征在于在步骤3)中,所述确定深度学习网络模型的loss函数的具体步骤可为:为了避免将分布式信源的译码过程整合为一个网络时训练向其中任何一个信源译码任务倾斜,综合考虑分布式信源译码任务的loss,两相关信源选择的loss函数如下:
L(u,o)=λ(l)LX(u,o)+(1-λ(l))LY(u,o),λ∈(0,1),
其中,
Figure FDA0003493533670000022
LX(u,o)与LY(u,o)分别是分布式信源X与Y译码任务的multi-loss函数。
5.如权利要求1所述一种分布式联合信源信道编码系统的深度学习译码方法,其特征在于在步骤4)中,所述确定需要增加交互单元的隐藏层位置并插入信息交互单元隐藏层的具体方法为:选择对应的迭代次数t,即在对应的第2t层隐藏层之后插入信息交互单元隐藏层实现信息交互,两相关信源其信息交互单元具体操作如下:
Figure FDA0003493533670000031
Figure FDA0003493533670000032
其中,
Figure FDA0003493533670000033
Figure FDA0003493533670000034
表示第t次迭代,即对应2t层隐藏层的变量节点的信息,LX(qi,X)与LY(qi,Y)是信息交互单元隐藏层的输出。
6.如权利要求1所述一种分布式联合信源信道编码系统的深度学习译码方法,其特征在于在步骤5)中,所述确定模型的激活函数,初始化权值w的具体方法可为:确定激活函数为σ(x)=(1+e-x)-1,初始化最初的权值w为均值为0、方差为1的高斯分布的随机变量。
7.如权利要求1所述一种分布式联合信源信道编码系统的深度学习译码方法,其特征在于在步骤7)中,所述将需要译码的样本集输入到步骤6)最终确定的模型中,通过最终的硬判决完成分布式联合信源信道的译码,具体可为:
Figure FDA0003493533670000035
其中,L(qi)是输出层的似然信息。
CN202210104626.1A 2022-01-28 2022-01-28 一种分布式联合信源信道编码系统的深度学习译码方法 Active CN114448570B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210104626.1A CN114448570B (zh) 2022-01-28 2022-01-28 一种分布式联合信源信道编码系统的深度学习译码方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210104626.1A CN114448570B (zh) 2022-01-28 2022-01-28 一种分布式联合信源信道编码系统的深度学习译码方法

Publications (2)

Publication Number Publication Date
CN114448570A true CN114448570A (zh) 2022-05-06
CN114448570B CN114448570B (zh) 2024-02-13

Family

ID=81370330

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210104626.1A Active CN114448570B (zh) 2022-01-28 2022-01-28 一种分布式联合信源信道编码系统的深度学习译码方法

Country Status (1)

Country Link
CN (1) CN114448570B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117650873A (zh) * 2024-01-30 2024-03-05 集美大学 一种信源信道联合编码系统的性能分析方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108155972A (zh) * 2017-12-26 2018-06-12 厦门大学 分布式联合信源信道编码系统的译码优化方法
CN108282263A (zh) * 2017-12-15 2018-07-13 西安电子科技大学 基于一维深度残差轻量网络的编码调制联合识别方法
CN109547032A (zh) * 2018-10-12 2019-03-29 华南理工大学 一种基于深度学习的置信度传播ldpc译码方法
CN111565051A (zh) * 2020-04-10 2020-08-21 北京邮电大学 一种用于ldpc码的自学习归一化偏置最小和译码方法
CN112702070A (zh) * 2020-12-29 2021-04-23 厦门大学 一种分布式联合信源信道编码系统的译码优化方法
CN113300813A (zh) * 2021-05-27 2021-08-24 中南大学 基于注意力的针对文本的联合信源信道方法
WO2021204163A1 (zh) * 2020-04-10 2021-10-14 北京邮电大学 原模图低密度奇偶校验码的自学习译码方法及其相关设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108282263A (zh) * 2017-12-15 2018-07-13 西安电子科技大学 基于一维深度残差轻量网络的编码调制联合识别方法
CN108155972A (zh) * 2017-12-26 2018-06-12 厦门大学 分布式联合信源信道编码系统的译码优化方法
CN109547032A (zh) * 2018-10-12 2019-03-29 华南理工大学 一种基于深度学习的置信度传播ldpc译码方法
CN111565051A (zh) * 2020-04-10 2020-08-21 北京邮电大学 一种用于ldpc码的自学习归一化偏置最小和译码方法
WO2021204163A1 (zh) * 2020-04-10 2021-10-14 北京邮电大学 原模图低密度奇偶校验码的自学习译码方法及其相关设备
CN112702070A (zh) * 2020-12-29 2021-04-23 厦门大学 一种分布式联合信源信道编码系统的译码优化方法
CN113300813A (zh) * 2021-05-27 2021-08-24 中南大学 基于注意力的针对文本的联合信源信道方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
洪少华;王琳;: "基于原模图LDPC码的分布式联合信源信道编码", 电子与信息学报, no. 11, pages 96 - 101 *
潘睿;袁磊;: "脉冲信道下基于深度学习的BP译码方法", 系统工程与电子技术, no. 09, pages 242 - 248 *
路嫣茹;姚建国;: "采用LDPC码的分布式联合信源信道网络编码", 电视技术, no. 04, pages 96 - 101 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117650873A (zh) * 2024-01-30 2024-03-05 集美大学 一种信源信道联合编码系统的性能分析方法
CN117650873B (zh) * 2024-01-30 2024-03-29 集美大学 一种信源信道联合编码系统的性能分析方法

Also Published As

Publication number Publication date
CN114448570B (zh) 2024-02-13

Similar Documents

Publication Publication Date Title
CN110474716B (zh) 基于降噪自编码器的scma编解码器模型的建立方法
CN108847848B (zh) 一种基于信息后处理的极化码的bp译码算法
US20060136799A1 (en) LDPC decoding apparatus and method with low computational complexity algorithm
CN109547032B (zh) 一种基于深度学习的置信度传播ldpc译码方法
CN107204780B (zh) polar-LDPC级联码的合并BP解码算法及装置
CN110932734B (zh) 一种基于交替方向乘子法的深度学习信道译码方法
CN110535475B (zh) 一种分层自适应归一化最小和译码算法
CN110752918B (zh) 一种用于连续变量量子密钥分发的快速译码装置及方法
CN109728824B (zh) 一种基于深度学习的ldpc码迭代译码方法
CN110730008B (zh) 一种基于深度学习的rs码置信传播译码方法
US10892783B2 (en) Apparatus and method for decoding polar codes
CN114244375B (zh) 基于神经网络的ldpc归一化最小和译码方法及装置
CN111835364B (zh) 一种极化码的低复杂度神经bp译码方法
CN114448570B (zh) 一种分布式联合信源信道编码系统的深度学习译码方法
CN109586732A (zh) 中短码ldpc编解码系统和方法
CN110113057A (zh) 一种利用深度学习的极化码译码器
CN114268328A (zh) 一种基于双向lstm的卷积码译码方法与卷积码编码和译码方法
CN110995277B (zh) 一种多层神经网络辅助的罚对偶分解信道译码方法
Teng et al. Convolutional neural network-aided tree-based bit-flipping framework for polar decoder using imitation learning
CN110299921B (zh) 一种模型驱动的Turbo码深度学习译码方法
CN113114269A (zh) 一种置信传播-信息修正译码方法
CN110995279A (zh) 一种极化码联合scf球形列表翻转译码方法
CN115309869A (zh) 一种一对多的多用户语义通信模型及通信方法
CN111049531B (zh) 一种基于分段线性惩罚函数的交替方向乘子法的深度学习信道译码方法
CN115276668A (zh) 一种基于crc的ldpc码混合译码方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant