CN110430013A - 一种基于深度学习的rcm方法 - Google Patents
一种基于深度学习的rcm方法 Download PDFInfo
- Publication number
- CN110430013A CN110430013A CN201910637537.1A CN201910637537A CN110430013A CN 110430013 A CN110430013 A CN 110430013A CN 201910637537 A CN201910637537 A CN 201910637537A CN 110430013 A CN110430013 A CN 110430013A
- Authority
- CN
- China
- Prior art keywords
- deep learning
- rcm
- decoding model
- sequence
- decoding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L1/00—Arrangements for detecting or preventing errors in the information received
- H04L1/0001—Systems modifying transmission characteristics according to link quality, e.g. power backoff
- H04L1/0002—Systems modifying transmission characteristics according to link quality, e.g. power backoff by adapting the transmission rate
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L1/00—Arrangements for detecting or preventing errors in the information received
- H04L1/004—Arrangements for detecting or preventing errors in the information received by using forward error control
- H04L1/0045—Arrangements at the receiver end
- H04L1/0047—Decoding adapted to other signal detection operation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Error Detection And Correction (AREA)
Abstract
本发明公开了一种基于深度学习的RCM方法,属于无线通信中的速率自适应传输技术领域,所述方法包括:在不同信噪比条件下生成多组带标签的数据集(r,b);建立深度学习译码模型;将码字序列r作为深度学习译码模型的输入,将原始信息比特序列b作为深度学习译码模型的目标输出,对构建好的深度学习译码模型进行训练,当所述深度学习译码模型的输出与期望输出的误差小于设定阈值或达到最大训练迭代次数时,停止训练,得到训练好的深度学习译码模型;将待译码的RCM码字序列输入训练好的深度学习译码模型,得到信息比特序列。本发明从含有噪声干扰的RCM编码符号中恢复出原始编码信息比特,实现高性能、高速译码,对于推动RCM技术的实际应用具有重要价值。
Description
技术领域
本发明属于无线通信中的速率自适应传输技术领域,更具体地,涉及一种基于深度学习的RCM方法。
背景技术
在无线传输系统中,为了提高时变信道下的频谱效率,需要根据信道条件进行传输速率的自适应调节,从而在保证信息可靠传输的基础上尽可能地提高信息传输速率。基于速率兼容调制(Rate Compatible Modulation,RCM)技术设计的速率自适应传输系统,无需准确、及时的信道状态信息,即可实现无缝平滑的盲速率自适应传输,且可以在很大的信噪比(Signal Noise Ratio,SNR)范围内获得接近信道容量的频谱效率。
RCM通过稀疏映射矩阵对信息比特进行加权求和操作从而生成编码符号,然后使用基于Tanner图的置信传播(Belief Propagation,BP)算法进行译码,Tanner图中的变量节点表示原始信息比特序列,校验节点表示经信道传输后的RCM码字序列。译码第一步,根据信息比特的稀疏度初始化所有变量节点为0或为1的置信度;第二步校验节点根据接收到的符号值及噪声分布概率进行卷积计算得到与之相连的各个变量节点的置信度并传递给变量节点;第三步变量节点根据第二步得到的置信信息统计出更新后的变量节点的置信度;第四步,判决输出,根据变量节点的置信度得到原始信息比特的估计值,重复迭代二三步直至达到最大译码周期数或原始信息比特的估计值满足校验条件。
BP译码算法虽然具有优良的译码性能,但迭代过程中校验节点的更新需要大量卷积运算导致其计算复杂度很高;译码过程中需要多次迭代,且每次迭代都需要存储所有参加更新的节点的信息,导致译码占用的内存空间过大;译码过程中多次迭代运算限制了BP译码算法的译码速度,降低了译码吞吐率,限制了RCM在高速无线通信中的应用。
发明内容
针对现有技术的缺陷,本发明的目的在于提供一种基于深度学习的RCM方法,旨在解决现有BP译码算法收敛速度慢,且需要多次迭代,导致内存开销大、译码速度低以及吞吐率低的问题。
为实现上述目的,本发明提供了一种基于深度学习的RCM方法,包括:
(1)在不同信噪比条件下生成多组带标签的数据集(r,b);其中,b表示随机生成的原始信息比特序列,r表示b经过稀疏编码矩阵编码以及信道传输后的码字序列;
(2)建立深度学习译码模型;
所述深度学习译码模型包括输入层、隐藏层、输出层;
所述输入层,用于接收信道传输后的码字序列;所述隐藏层,用于提取所述码字序列之间的时序相关特征,并学习所述码字序列与原始信息比特之间的非线性关系;所述输出层,用于根据所述非线性关系,输出所述码字序列经过译码后的信息比特序列;
(3)将码字序列r作为深度学习译码模型的输入,将原始信息比特序列b作为深度学习译码模型的目标输出,对构建好的深度学习译码模型进行训练,当所述深度学习译码模型的输出与期望输出的误差小于设定阈值或达到最大训练迭代次数时,停止训练,得到训练好的深度学习译码模型;
(4)将待译码的RCM码字序列输入训练好的深度学习译码模型,得到信息比特序列。
进一步地,所述输入层大小根据不同信噪比条件下译码所需的码字序列的长度确定。
进一步地,所述隐藏层包括多个依次连接的LSTM层,每个LSTM层包括多个并列的LSTM神经元。
进一步地,所述隐藏层中包含的LSTM层数以及每层包含的LSTM神经元数量根据待译码的RCM码字序列长度确定。
进一步地,所述LSTM神经元包括:遗忘门、输入门和输出门;
所述遗忘门,用于选择性的忘记之前的状态信息;
所述输入门,用于确认当前时刻的输入信息;
所述输出门,用于输出当前时刻的信息。
进一步地,所述遗忘门、输入门和输出门均包括一个sigmoid函数和一个点乘运算。
进一步地,所述输出层采用sigmoid函数作为激活函数:
其中,z=w·x+b,表示神经网络非线性映射之前的值,σ(z)表示神经网络的预测值。
进一步地,根据所述激活函数的特征将输出的译码信息序列判决为0或1,判决方式如下:
进一步地,所述输出层的大小为原始信息比特序列b的数目。
进一步地,训练所述深度学习译码模型时采用的损失函数为:
其中,lBCE为损失函数的均值,k为样本数量。
通过本发明所构思的以上技术方案,与现有技术相比,能够取得以下有益效果:
本发明利用训练好的深度学习译码模型从含有噪声干扰的RCM编码符号中恢复出原始编码信息比特,只需要简单的乘法和加法运算即可实现译码,实现了无需迭代的高吞吐量译码,译码速度远远快于RCM-BP译码算法,可以解决现有RCM-BP译码算法译码复杂度高,多次迭代造成的译码时延大以及吞吐率低的问题,有效提高了译码器的译码吞吐率,对于推动RCM在高速无线通信中的应用具有重要价值。
附图说明
图1表示本发明的基于深度学习的RCM方法流程图;
图2表示信息比特到RCM码字序列的映射示意图;
图3表示本发明提出的深度学习译码模型结构示意图;
图4表示长短时记忆网络LSTM的内部结构构成;
图5表示本发明的深度学习译码模型训练流程图;
图6表示基于深度学习的RCM译码方法与BP译码方法的误码率性能对比。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
RCM属于非一一映射方式,一个RCM符号由多个信息比特加权求和获得,一个信息比特可以被多个RCM采样编码,RCM符号和符号之间存在明显的时序相关性。LSTM非常适合解决RCM的译码问题,将长短时记忆网络应用于RCM译码中可以有效降低译码计算量和复杂度。
参考图1,本发明实施例提供了一种基于深度学习的RCM方法,包括:
(1)在不同信噪比条件下生成多组带标签的数据集(r,b);其中,b表示随机生成的原始信息比特序列,r表示b经过稀疏编码矩阵编码以及信道传输后的码字序列;
具体地,如图2所示,b表示物理层输入的长度为N的原始二进制比特块r表示b经过稀疏编码矩阵G编码以及信道传输后的RCM信号r=G·b+n,其中,稀疏编码矩阵G大小为M×N、每行有L个非零元素W={w1,w2,...,wL},n为信道高斯白噪声向量。为了确定不同信噪比条件下译码所需的RCM符号数,即RCM码字序列r的长度,建立RCM成功译码概率模型(SNR-CDF模型),当成功解码概率大于等于99.99%时,即认为译码成功,根据SNR-CDF模型确定不同信噪比条件下译码成功所需的RCM符号数。
本实施例在信噪比为10~18dB的条件下,使用32个RCM符号进行译码。根据RCM编码,在不同的信噪比SNR条件下(10dB~18dB,间隔1dB)分别生成108组带标签的样本,从而构成译码的训练样本集(r,b,Ntrain),Ntrain=9*108表示该样本集中总有9*108个样本。同理,在不同的信噪比SNR条件下(10dB~18dB,间隔1dB)分别生成106组样本,从而构建译码的测试样本集(r,b,Ntest),测试样本集包含的样本数为9*106个。
(2)建立深度学习译码模型;
具体地,如图3所示,深度学习译码模型包括输入层Input Layer、隐藏层HiddenLayer、输出层Output Layer;输入层,用于接收信道传输后的码字序列;隐藏层,用于提取码字序列r之间的时序相关特征,并学习码字序列与原始信息比特b之间的非线性关系;隐藏层包括多个依次连接的LSTM层,每个LSTM层包括多个并列的LSTM神经元;输出层,用于根据非线性关系,输出码字序列经过译码后的信息比特序列图3中,输入是长度为32的RCM码字序列r,实际应用中输入层大小根据不同信噪比条件下译码所需的码字序列的长度确定;隐藏层包括2层LSTM层,每层长短时记忆网络包含964个LSTM Cell,实际应用中,隐藏层中包含的LSTM层数以及每层包含的LSTM神经元数量根据待译码的RCM码字序列长度确定;输出为长度为32的信息比特序列实际应用中,输出层的大小为原始信息比特序列b的数目。
如图4所示,ht-1表示上一时刻LSTM Cell的输出,xt表示当前时刻LSTM Cell的输入,Ct-1表示上一时刻LSTM Cell的状态,Ct表示当前时刻的状态,LSTM神经元主要包括:遗忘门、输入门和输出门,对应的输出分别为:ft、it和Ot,相应的权重参数为Wf、Wi和Wo;
遗忘门,用于选择性的忘记之前的状态信息Ct-1,其输出ft:
ft=sigmoid(Wf·[ht-1,xt]+bf);
输入门,用于确认当前时刻的输入信息:
it=sigmoid(Wi·[ht-1,xt]+bi)
状态更新阶段,将状态信息Ct-1更新为Ct,通过ft控制Ct-1保留的信息,通过it控制输入的信息:
输出门,输出当前时刻的信息:
Ot=sigmoid(Wo·[ht-1,xt]+bo)
ht=Ottanh(Ct)
当前时刻的输出ht作为下一时刻的输入,当前时刻的状态Ct参与下一时刻的状态更新。
“门”结构解决了RNN存在的梯度消失和长时间依赖问题,上述“门”结构均由一个sigmoid函数和一个点乘运算构成。
输出层采用sigmoid函数作为激活函数:其中,z=w·x+b,表示神经网络非线性映射之前的值,σ(z)表示神经网络的预测值,为了输出得到译码信息序列,根据神经网络输出层激活函数的特征将其输出判决为0/1,判决方式如下:
(3)将码字序列r作为深度学习译码模型的输入,原始信息比特序列b作为深度学习译码模型的目标输出,对构建好的深度学习译码模型进行训练,当所述深度学习译码模型的输出与期望输出的误差小于设定阈值或达到最大训练迭代次数时,停止训练,得到训练好的深度学习译码模型;
具体地,深度学习译码模型的训练过程如图5所示,首先由计算机仿真得到步骤(1)所述的训练数据集,然后建立步骤2所述的神经网络译码模型,模型的输入为标签样本(r,b)中的r,b为模型的目标输出,以交叉熵函数作为损失函数,利用Adam优化算法对深度学习译码模型进行训练,当模型的训练误差小于10-5或达到设定的最大训练次数时停止训练,否则继续训练,使得该译码模型获得良好的网络参数,最后将训练得到的网络参数保存;
采用的损失函数为:
其中,lBCE为损失函数的均值,k为样本数量。
(4)将待译码的RCM码字序列输入训练好的深度学习译码模型,得到信息比特序列。
具体地,利用训练好的深度学习译码模型对经过信道噪声干扰的RCM码字序列进行相关运算即可实现译码,输出为信息比特序列
图6比较了本发明的基于深度学习的RCM译码方法与原始RCM-BP译码方法的误码率性能,由图可知,本发明的基于深度学习的RCM译码算法的误码率性能明显优于RCM-BP算法的性能。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于深度学习的RCM方法,其特征在于,包括:
(1)在不同信噪比条件下生成多组带标签的数据集(r,b);其中,b表示随机生成的原始信息比特序列,r表示b经过稀疏编码矩阵编码以及信道传输后的码字序列;
(2)建立深度学习译码模型;
所述深度学习译码模型包括输入层、隐藏层、输出层;
所述输入层,用于接收信道传输后的码字序列;所述隐藏层,用于提取所述码字序列之间的时序相关特征,并学习所述码字序列与原始信息比特之间的非线性关系;所述输出层,用于根据所述非线性关系,输出所述码字序列经过译码后的信息比特序列;
(3)将码字序列r作为深度学习译码模型的输入,将原始信息比特序列b作为深度学习译码模型的目标输出,对构建好的深度学习译码模型进行训练,当所述深度学习译码模型的输出与期望输出的误差小于设定阈值或达到最大训练迭代次数时,停止训练,得到训练好的深度学习译码模型;
(4)将待译码的RCM码字序列输入训练好的深度学习译码模型,得到信息比特序列。
2.根据权利要求1所述的一种基于深度学习的RCM方法,其特征在于,所述输入层大小根据不同信噪比条件下译码所需的码字序列的长度确定。
3.根据权利要求1所述的一种基于深度学习的RCM方法,其特征在于,所述隐藏层包括多个依次连接的LSTM层,每个LSTM层包括多个并列的LSTM神经元。
4.根据权利要求3所述的一种基于深度学习的RCM方法,其特征在于,所述隐藏层中包含的LSTM层数以及每层包含的LSTM神经元数量根据待译码的RCM码字序列长度确定。
5.根据权利要求3所述的一种基于深度学习的RCM方法,其特征在于,所述LSTM神经元包括:遗忘门、输入门和输出门;
所述遗忘门,用于选择性的忘记之前的状态信息;
所述输入门,用于确认当前时刻的输入信息;
所述输出门,用于输出当前时刻的信息。
6.根据权利要求5所述的一种基于深度学习的RCM方法,其特征在于,所述遗忘门、输入门和输出门均包括一个sigmoid函数和一个点乘运算。
7.根据权利要求1所述的一种基于深度学习的RCM方法,其特征在于,所述输出层采用sigmoid函数作为激活函数:
其中,z=w·x+b,表示神经网络非线性映射之前的值,σ(z)表示神经网络的预测值。
8.根据权利要求7所述的一种基于深度学习的RCM方法,其特征在于,根据所述激活函数的特征将输出的译码信息序列判决为0或1,判决方式如下:
9.根据权利要求7所述的一种基于深度学习的RCM方法,其特征在于,所述输出层的大小为原始信息比特序列b的数目。
10.根据权利要求1-9任一项所述的一种基于深度学习的RCM方法,其特征在于,训练所述深度学习译码模型时采用的损失函数为:
其中,lBCE为损失函数的均值,k为样本数量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910637537.1A CN110430013B (zh) | 2019-07-15 | 2019-07-15 | 一种基于深度学习的rcm方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910637537.1A CN110430013B (zh) | 2019-07-15 | 2019-07-15 | 一种基于深度学习的rcm方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110430013A true CN110430013A (zh) | 2019-11-08 |
CN110430013B CN110430013B (zh) | 2020-10-02 |
Family
ID=68409652
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910637537.1A Active CN110430013B (zh) | 2019-07-15 | 2019-07-15 | 一种基于深度学习的rcm方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110430013B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112235023A (zh) * | 2020-10-09 | 2021-01-15 | 齐鲁工业大学 | 一种基于模型驱动深度学习的mimo-scfde自适应传输方法 |
CN113114400A (zh) * | 2021-04-14 | 2021-07-13 | 中南大学 | 基于时序注意力机制和lstm模型的信号频谱空洞感知方法 |
CN115208722A (zh) * | 2022-07-28 | 2022-10-18 | 电子科技大学 | 一种新的帧同步扰码解扰方法 |
CN115865129A (zh) * | 2022-12-01 | 2023-03-28 | 电子科技大学 | 一种基于去噪自编码器的窄带干扰智能消除方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180343017A1 (en) * | 2017-05-26 | 2018-11-29 | SK Hynix Inc. | Deep learning for low-density parity-check (ldpc) decoding |
CN109361404A (zh) * | 2018-09-28 | 2019-02-19 | 华南理工大学 | 一种基于半监督深度学习网络的ldpc译码系统及译码方法 |
CN109547032A (zh) * | 2018-10-12 | 2019-03-29 | 华南理工大学 | 一种基于深度学习的置信度传播ldpc译码方法 |
-
2019
- 2019-07-15 CN CN201910637537.1A patent/CN110430013B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180343017A1 (en) * | 2017-05-26 | 2018-11-29 | SK Hynix Inc. | Deep learning for low-density parity-check (ldpc) decoding |
CN109361404A (zh) * | 2018-09-28 | 2019-02-19 | 华南理工大学 | 一种基于半监督深度学习网络的ldpc译码系统及译码方法 |
CN109547032A (zh) * | 2018-10-12 | 2019-03-29 | 华南理工大学 | 一种基于深度学习的置信度传播ldpc译码方法 |
Non-Patent Citations (1)
Title |
---|
鲁放: ""Low Complexity Decoding Algorithms for Rate Compatible Modulation"", 《IEEE》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112235023A (zh) * | 2020-10-09 | 2021-01-15 | 齐鲁工业大学 | 一种基于模型驱动深度学习的mimo-scfde自适应传输方法 |
CN113114400A (zh) * | 2021-04-14 | 2021-07-13 | 中南大学 | 基于时序注意力机制和lstm模型的信号频谱空洞感知方法 |
CN113114400B (zh) * | 2021-04-14 | 2022-01-28 | 中南大学 | 基于时序注意力机制和lstm模型的信号频谱空洞感知方法 |
CN115208722A (zh) * | 2022-07-28 | 2022-10-18 | 电子科技大学 | 一种新的帧同步扰码解扰方法 |
CN115208722B (zh) * | 2022-07-28 | 2024-03-01 | 电子科技大学 | 一种新的帧同步扰码解扰方法 |
CN115865129A (zh) * | 2022-12-01 | 2023-03-28 | 电子科技大学 | 一种基于去噪自编码器的窄带干扰智能消除方法 |
CN115865129B (zh) * | 2022-12-01 | 2024-03-29 | 电子科技大学 | 一种基于去噪自编码器的窄带干扰智能消除方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110430013B (zh) | 2020-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110430013A (zh) | 一种基于深度学习的rcm方法 | |
CN110120926B (zh) | 基于演化bp神经网络的通信信号调制方式识别方法 | |
CN110445581B (zh) | 基于卷积神经网络降低信道译码误码率的方法 | |
CN109361404B (zh) | 一种基于半监督深度学习网络的ldpc译码系统及译码方法 | |
Ye et al. | Circular convolutional auto-encoder for channel coding | |
CN109921803B (zh) | 基于神经网络的高密度线性分组码译码方法 | |
CN109728824B (zh) | 一种基于深度学习的ldpc码迭代译码方法 | |
CN110730008B (zh) | 一种基于深度学习的rs码置信传播译码方法 | |
CN109450459B (zh) | 一种基于深度学习的极化码fnsc译码器 | |
CN113206808B (zh) | 一种基于一维多输入卷积神经网络的信道编码盲识别方法 | |
CN116436567A (zh) | 一种基于深度神经网络的语义通信方法 | |
CN109525254A (zh) | 基于深度学习的卷积码软判决译码方法 | |
CN110299921A (zh) | 一种模型驱动的Turbo码深度学习译码方法 | |
CN108964672A (zh) | 一种基于深度神经网络的极化码译码方法 | |
CN110378467A (zh) | 一种针对深度学习网络参数的量化方法 | |
CN115273853B (zh) | 一种基于仿生神经网络的语音识别系统与方法 | |
CN110705704A (zh) | 一种基于相关性分析的神经网络自组织遗传进化算法 | |
Liu et al. | A new LDPC decoding scheme based on BP and Gated Neural Network | |
CN110474798A (zh) | 一种利用回声状态网络预测无线通信未来信号的方法 | |
Qin et al. | Convolutional neural network-based polar decoding | |
CN114584151A (zh) | 基于概率计算的模拟译码电路停止准则的译码方法 | |
Aghamalek et al. | An Improved soft decision method in Viterbi decoder using artificial neural networks | |
Gao et al. | A ldpc decoding algorithm based on convolutional neural network | |
CN115314158A (zh) | 基于长短期记忆神经网络的编码特征识别方法 | |
Li et al. | Notice of Violation of IEEE Publication Principles: Channel Decoding Based on Complex-valued Convolutional Neural Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |