CN116192340B - 光通信网络中的差错控制方法和装置 - Google Patents
光通信网络中的差错控制方法和装置 Download PDFInfo
- Publication number
- CN116192340B CN116192340B CN202310468348.2A CN202310468348A CN116192340B CN 116192340 B CN116192340 B CN 116192340B CN 202310468348 A CN202310468348 A CN 202310468348A CN 116192340 B CN116192340 B CN 116192340B
- Authority
- CN
- China
- Prior art keywords
- ldpc code
- neural network
- sample
- length
- bit sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 230000006854 communication Effects 0.000 title claims abstract description 42
- 238000004891 communication Methods 0.000 title claims abstract description 41
- 230000003287 optical effect Effects 0.000 title claims abstract description 38
- 238000013528 artificial neural network Methods 0.000 claims abstract description 91
- 238000010276 construction Methods 0.000 claims abstract description 15
- 230000006870 function Effects 0.000 claims description 59
- 238000012549 training Methods 0.000 claims description 23
- 238000005259 measurement Methods 0.000 claims description 9
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 238000003050 experimental design method Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 3
- 230000006798 recombination Effects 0.000 claims description 3
- 238000005215 recombination Methods 0.000 claims description 3
- 238000006467 substitution reaction Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 21
- 239000011159 matrix material Substances 0.000 description 12
- 238000012937 correction Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000008485 antagonism Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000003042 antagnostic effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L1/00—Arrangements for detecting or preventing errors in the information received
- H04L1/004—Arrangements for detecting or preventing errors in the information received by using forward error control
- H04L1/0056—Systems characterized by the type of code used
- H04L1/0057—Block codes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04Q—SELECTING
- H04Q11/00—Selecting arrangements for multiplex systems
- H04Q11/0001—Selecting arrangements for multiplex systems using optical switching
- H04Q11/0062—Network aspects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Optical Communication System (AREA)
Abstract
本发明涉及一种光通信网络中的差错控制方法和装置,属于光通信技术领域。所述方法包括:获取所述光通信网络的输入信号,并将所述输入信号编码成比特序列;将所述比特序列输入到预训练的第一神经网络中以输出LDPC码长度;将所述比特序列和所述LDPC码长度输入到预训练的第二神经网络中以输出LDPC码;在所述光通信网络中传输所述LDPC码。通过本发明的技术方案,能够简化LDPC码的构建过程,提高LDPC码的生成效率,并根据不同应用场景和性能要求灵活地调整所生成的LDPC码以适应各种应用场景和性能要求。
Description
技术领域
本发明一般地涉及光通信技术领域,尤其涉及一种光通信网络中的差错控制方法。
背景技术
在光通信系统中,为了减少差错(误码),提高通信的可靠性,一般均采用信道编码技术对输入信号进行编码。其中信道编码是用来纠错或者检错以提高传输可靠性的技术,如前向纠错编码(Forward Error Correction,FEC)技术在光纤通信中可以确保信号的长距可靠传输。
LDPC(低密度奇偶校验,Low-Density Parity-Check)码是目前被广泛应用的一种FEC码,在LDPC码构建过程中一般需要通过先设计构建出合适的校验矩阵或生成矩阵,再由校验矩阵或生成矩阵来唯一确定出对应的LDPC码。然而这种LDPC码的构建过程较为复杂,计算量较大,导致LDPC码的生成效率较低。
虽然目前如《基于深度学习的信源信道联合编码方法综述》中概述了一些信源信道联合编码的方法。但是由于在一个神经网络中需要同时进行信源编码和信道编码甚至调制编码,造成这种方法下的神经网络结构复杂,且无法根据具体应用场景和性能要求灵活地调整神经网络的结构,导致生成的LDPC码对不同应用场景和性能要求的适用度不够理想。
发明内容
为了解决现有技术中的上述一个或多个技术问题,本发明提供了一种光通信网络中的差错控制方法,以期简化LDPC码的构建过程,提高LDPC码的生成效率,并根据不同应用场景和性能要求灵活地调整所生成的LDPC码以适应各种应用场景和性能要求。
本发明提供了一种光通信网络中的差错控制方法,包括:获取所述光通信网络的输入信号,并将所述输入信号编码成比特序列,其中所述输入信号包括文本信号、语音信号或图像信号;将所述比特序列输入到预训练的第一神经网络中以输出LDPC码长度,其中所述第一神经网络包括自编码神经网络和全连接神经网络,所述自编码神经网络包括编码器和解码器,其中所述第一神经网络的训练包括:获取所述光通信网络的样本输入信号,并将所述样本输入信号编码成样本比特序列;将所述样本比特序列输入到所述自编码神经网络的所述编码器中以进行特征提取;将提取的特征输入到所述解码器中进行特征重组;将重组后比特序列输入到所述全连接神经网络中以输出样本LDPC码长度,使得所述样本LDPC码长度使所述第一神经网络的目标函数的值达到预定目标值,其中所述第一神经网络的目标函数的预定目标值包括第一目标函数和第二目标函数的预定目标值,其中所述第一目标函数的预定目标值为:,其中,/>表示净编码增益,表示取最大值函数,/>表示编码增益,/>表示编码速率,R=k/L,其中L为所述样本LDPC码长度,k表示所述样本LDPC码中的信息位的长度;所述第二目标函数的预定目标值为:/>,其中,/>表示编码开销,/>表示取最小值函数;将所述比特序列和所述LDPC码长度输入到预训练的第二神经网络中以输出LDPC码,其中所述第二神经网络为生成对抗神经网络,所述对抗神经网络包括生成器和判别器,其中所述第二神经网络的训练包括:根据所述样本LDPC码长度,构建对应长度的LDPC码作为参考LDPC码;将所述样本比特序列和所述样本LDPC码长度输入到所述生成器中以生成样本LDPC码;将所述样本LDPC码和所述参考LDPC码输入到所述判别器中以生成判别结果;将所述判别结果反馈到所述生成器中以训练所述生成器,使得所述生成器输出的样本LDPC码使所述判别器的损失函数的值最大;在所述光通信网络中传输所述LDPC码。
在一个实施例中,所述根据所述样本LDPC码长度,构建对应长度的LDPC码作为参考LDPC码包括:根据所述LDPC码长度,分别使用多种LDPC码构建方法构建对应长度的LDPC码,其中所述LDPC码构建方法包括随机构造法、实验设计法、置换法、RU算法编码法、准循环码快速编码法和QC-LDPC编码法;计算所述LDPC码对应的净编码增益;选择净编码增益最大的LDPC码作为所述参考LDPC码。
在一个实施例中,所述第一神经网络的目标函数的预定目标值还包括第三目标函数的预定目标值:
在一个实施例中,所述计算所述LDPC码对应的净编码增益包括:使用Q因子测量法、Eb/No测量法或OSNR测量法计算所述净编码增益。
根据本发明的第二方面,提供了一种光通信网络中的差错控制装置,包括存储器和处理器,所述存储器上存储有计算机可执行指令,其中所述计算机可执行指令在被所述处理器执行时,实现根据本发明第一方面所述的光通信网络中的差错控制方法。
本发明的上述技术方案具有以下有益技术效果:
在本发明的技术方案中,通过设计合适的损失函数,将LDPC码构建过程分为两个阶段:首先将输入信号的编码后比特序列输入第一神经网络以输出LDPC码长度,然后将所述LDPC码长度和所述编码后比特序列输入到第二神经网络中以输出LDPC码。首先,这种LDPC码构建方法无需人为设计和构建校验矩阵或生成矩阵,大大简化了LDPC码构建过程,提高了LDPC码的生成效率。其次,通过首先确定LDPC码长度,然后据此生成LDPC码,避免LDPC码长度不定导致第二神经网络的计算过程的分叉点过多,从而减少第二神经网络的计算量,进一步提高了LDPC码的生成效率。再次,第一神经网络和第二神经网络可以交替并行训练,提高了两个神经网络的训练速度。最后,相对于背景技术中提到的基于深度学习的信源信道联合编码方法,本发明的技术方案通过合理设计损失函数将LDPC码构建过程拆分成两个阶段分别在第一神经网络和第二神经网络中完成,可以根据不同应用场景和性能要求改变损失函数的参数来灵活调整LDPC码长度,以生成不同长度的LDPC码,从而适应各种应用场景,满足不同性能要求,增强了LDPC码构建的灵活性。
附图说明
通过参考附图阅读下文的详细描述,本发明示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本发明的若干实施方式,并且相同或对应的标号表示相同或对应的部分,其中:
图1是根据本发明实施例的光通信网络中的差错控制方法的流程图;
图2是根据本发明实施例的光通信网络中的差错控制方法的数据流动示意图;
图3是根据本发明实施例的光通信网络中的差错控制装置的结构框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当本发明的权利要求、说明书及附图使用术语“第一”、“第二”等时,其仅是用于区别不同对象,而不是用于描述特定顺序。本发明的说明书和权利要求书中使用的术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
根据本发明的第一方面,本发明提供了一种光通信网络中的差错控制方法。图1是根据本发明实施例的光通信网络中的差错控制方法的流程图。如图1所示,所述方法包括步骤S101至S104,具体说明如下。
S101,获取所述光通信网络的输入信号,并将所述输入信号编码成比特序列。
具体而言,所述输入信号可以为光通信传输过程中的常见信号,包括但不限于文本信号、语音信号或图像信号。在一个实例中,所述输入信号为图像信号。
首先将输入信号进行信源编码。信源编码是一个数据压缩的过程,其目的是尽可能地将信源中的冗余度去掉,在尽量保证信号完整的前提下对信源进行尽可能地压缩,从而节省传输带宽。可以采用各种信源编码方法对输入信号进行编码,例如Huffman编码、算术编码或L-Z编码等,本发明对此不作特别限定。
上述信源编码是一个减少信息冗余的过程。在信源编码完成之后,为了提高数据传输的可靠性,随后一般会执行信道编码。与信源编码相反,信道编码是一个增加信息冗余的过程,目的是通过增加冗余度来抵抗信道噪声,从而保护传输数据。在上述实例中,通过信源编码将所述输入信号编码为比特序列的比特流,其长度为k。接着对输出的比特序列进行信道编码。以下将详细描述所述比特序列的信道编码过程。
S102,将所述比特序列输入到预训练的第一神经网络中以输出LDPC码长度。
本发明中通过设计神经网络结构来代替传统方式下的信道编码。具体而言,经过信源编码输出的比特序列将输入到第一神经网络中。作为示例,所述第一神经网络可以包括自编码神经网络和全连接神经网络,所述自编码神经网络包括编码器和解码器。图2是根据本发明实施例的光通信网络中的差错控制方法的数据流动示意图。如图2所示,步骤S101中生成的比特序列输入到所述自编码神经网络的编码器中。
自编码神经网络也叫自编码器(autoencoder,AE),是一类在半监督学习和非监督学习中使用的人工神经网络,其功能是通过将输入信息作为学习目标,对输入信息进行表征学习。全连接神经网络(Multi-Layer Perception,MLP)或者叫多层感知机,是一种连接方式较为简单的人工神经网络结构,属于前馈神经网络的一种,主要由输入层、隐藏层和输出层构成,并且在每个隐藏层中可以有多个神经元。本发明中利用全连接神经网络输出重组后比特序列的长度。
所述第一神经网络的训练包括:获取所述光通信网络的样本输入信号,并将所述样本输入信号编码成样本比特序列;将所述样本比特序列输入到所述自编码神经网络的所述编码器中以进行特征提取;将提取的特征输入到所述解码器中进行特征重组;将重组后比特序列输入到所述全连接神经网络中以输出样本LDPC码长度,使得所述样本LDPC码长度使所述第一神经网络的目标函数的值达到预定目标值。其中编码器对输入的比特序列进行特征提取,并通过解码器对提取到的特征进行重组,并在解码器后加一层全连接网络用于输出合适的LDPC码长度。
为了使所述自编码神经网络能够输出LDPC码的具体长度,构建目标函数对所述自编码神经网络进行训练,使得所述第一神经网络的目标函数的值达到预定目标值。作为示例,所述第一神经网络的目标函数的预定目标值包括第一目标函数的预定目标值:
第一目标函数用于保证在神经网络的训练过程中使编码所带来的净编码增益尽量接近香农极限,即误码率尽可能地小。表示编码增益,编码增益定义为:在误码率一定的条件下,非编码系统需要的输入信噪比与采用了纠错编码的系统所需的输入信噪比之间的差值(用dB表示)。编码增益描述的是在采用了纠错编码之后,对原先非编码系统的性能改善程度。计算编码增益常用的有三种方法,分别为Q因子测量、Eb/No测量和OSNR测量。R为编码速率,R=k/L,用于反映编码后的数据流中有用部分的比例。例如,在以Q因子测量编码增益时,编码增益指的是BER为/>时所对应的Q值(/>=18dB)和纠前BER容限所对应的Q值(/>)之间的差异,即/>。由于增加FEC也会带来开销,使得传输速率增加,并在接收时带来一定的Q值代价,因此通常用NCG来表示FEC的真实纠错能力。
进一步,为了保证编码开销不会因为需要提升净编码增益而过大,使得编码开销与净编码增益之间取得平衡,可进一步构建第二目标函数。所述第一神经网络的目标函数的预定目标值还包括第二目标函数的预定目标值:
信道编码的功能在于向原有的信号数据中加入冗余校验信息,编码开销的定义为校验位长度与信息位长度的比值,设信息位长度为k,LDPC码的长度为L,则校验位长度为L−k,即编码开销为L−k/k,编码开销越大,则信道编码所带来的理论极限性能(香农极限)越高,然而这种增加并不是线性的,编码开销越大,所带来的性能提高的越小,同时编码开销越大,也会导致编码冗余度越大,由于带宽是一定的,因此编码冗余度增大意味着有效信息的减少,因此编码冗余度不能过大,否则会导致光通信效率出现明显下降。第二目标函数保证了编码开销不会过大,实现编码开销与净编码增益之间的相对平衡。
进一步,为了保证在第一神经网络的训练过程中,输入所述编码器的样本比特序列与所述解码器输出的重组后比特序列的前k位所构成的比特序列相一致,可进一步构建第三目标函数。所述第一神经网络的目标函数的预定目标值还包括第三目标函数的预定目标值:
其中,表示编码偏移,/>表示所述样本比特序列,/>表示所述重组后比特序列中的前k位比特组成的比特序列,/>表示/>与/>之间的距离。其中所述距离可以用于评价所述样本比特序列与所述k比特序列之间的一致性。作为示例,/>为/>与/>之间的均方误差。所述距离还可以通过其他方式计算,如欧式距离,本发明对此不作特别限定。
第三目标函数用于保证在第一神经网络的训练过程中,输入的所述样本比特序列与输出的所述重组后比特序列的前k位所构成的比特序列相一致,即在训练的过程中信息位的顺序保持不变。
本发明中可利用反向传播算法对第一神经网络进行训练,并将上述三个目标函数作为目标函数对训练过程进行优化,通过多次迭代训练使三个目标函数的值达到预定的目标值。
上述过程可以使全连接神经网络输出的LDPC码长度在尽量提升净编码增益的基础上尽可能地短,并保证得到的LDPC码长度L中的前k位数据序列与输入的数据序列保持一致。
值得注意的是,可看到以上三个目标函数均是可导函数,这为本发明中的两阶段神经网络训练奠定了基础。此外,视具体应用场景和性能要求的需要,以上三个目标函数可以单独使用,也可以组合使用,根据组合后的目标函数构建第一神经网络的损失函数对第一神经网络进行训练。另外,可以根据需要调整所述损失函数的参数,如目标函数的数量和组合方式以及其中的变量值,以适应各种应用场景和满足不同性能要求。
S103,将所述比特序列和所述LDPC码长度输入到预训练的第二神经网络中以输出LDPC码。
具体而言,所述第二神经网络可以为生成对抗神经网络。生成对抗网络(GAN,Generative Adversarial Network)是一种深度学习模型,通过两个模块:生成模型(Generative Model)和判别模型(Discriminative Model)的互相博弈学习产生相当好的输出。生成模型的任务是生成看起来自然真实的、和原始数据相似的实例,判别模型的任务是判断给定的实例看起来是自然真实的还是人为伪造的,这个实例分为真实实例和伪造实例,即真实实例来源于数据集,伪造实例来源于生成模型。生成器试图欺骗判别器,判别器则努力不被生成器欺骗,模型经过交替优化训练,两种模型都能得到提升,但最终想要得到的是效果提升到很好的生成模型,这个生成模型所生成的产品能达到真假难分的地步。
所述第二神经网络的训练包括:根据所述样本LDPC码长度,构建对应长度的LDPC码作为参考LDPC码;将所述样本比特序列和所述样本LDPC码长度输入到所述生成器中以生成样本LDPC码;将所述样本LDPC码和所述参考LDPC码输入到所述判别器中以生成判别结果;将所述判别结果反馈到所述生成器中以训练所述生成器,使得所述生成器输出的样本LDPC码使所述判别器的损失函数的值最大。
具体而言,在获得LDPC码的长度L后,由于信息位的长度k是确定的,因此可获知校验位的长度,由此可确定当前LDPC码的长度L对应的校验矩阵大小为/>。可以根据LDPC码的多种生成算法生成对应大小的LDPC码,如随机构造法、实验设计方法、置换方法、RU算法编码、准循环码快速编码等,其中,由于利用校验矩阵可以生成唯一对应的生成矩阵,从而可以生成码字,即LDPC码,因此也可使用多种构建校验矩阵的方法来生成相应的LDPC码。
相应地,所述根据所述样本LDPC码长度,构建对应长度的LDPC码作为参考LDPC码包括:根据所述LDPC码长度,分别使用多种LDPC码构建方法构建对应长度的LDPC码,其中所述LDPC码构建方法包括随机构造法、实验设计法、置换法、RU算法编码法、准循环码快速编码法和QC-LDPC编码法;计算所述LDPC码对应的净编码增益;选择净编码增益最大的LDPC码作为所述参考LDPC码。
在本发明中,可以通过多种传统算法计算出多个LDPC码值,并选取其中可以使净编码增益最大的LDPC码作为参考LDPC码,也可以直接采用目前比较流行的LDPC码计算方法如QC-LDPC码生成参考LDPC码值。本发明对此不作特别限定。
在确定参考LDPC码之后,如图1所示,将LDPC码长度L与信源编码后的比特序列一起输入至生成器中,使生成器能够根据输入生成对应的LDPC码,并将生成的LDPC码和参考LDPC码一起输入至判别器中进行判别,通过将判别结果不断反馈至生成器来对生成器进行迭代训练,最终在判别器对生成器生成的LDPC码的判断正确率在50%时停止训练,使最终生成器能够生成与参考LDPC码相一致的LDPC码。
根据每次第一神经网络输出的LDPC码长度L计算出对应的参考LDPC码作为标签,同时将L与信源编码后的比特序列一起作为训练样本输入至生成器中生成长度为L的LDPC码,接着将该LDPC码和对应的标签一起输入至判别器中进行判别,从而获得相应的误差梯度。
简单来说,对于判别器,如果输入是生成器输入的LDPC码,应该输出0,如果是参考LDPC码应该输出1,得到误差梯度进行反向传播来更新参数;对于生成器,首先由生成器生成长度为L的LDPC码,然后输入给判别器判别并得到相应的误差梯度,然后反向传播这些误差梯度来组成生成器的权重。
其中,设生成器的输入为z,输出为G(z),判别器的输出为D(x),用于表示输入x是否为参考LDPC码的概率,如果为1,则表示100%是参考LDPC码,而输出为0则代表不可能是参考LDPC码。则生成器的损失函数为:
判别器D的训练是一个二分类过程,目标是分清参考LDPC码和生成器生成的LDPC码,也就是希望参考LDPC码的输出趋近于1,而生成的LDPC码的输出即趋近于0,或是负类,这里也体现出对抗的思想。训练网络G最小化/>也即是最大化网络D的损失,在训练的过程中固定其中一方,更新另一个网络的参数,交替迭代,使得对方的错误最大化,从而使生成网络生成的LDPC码逐步更加接近参考LDPC码,最终舍弃判别器仅保留生成器,即最终通过生成器即可生成最终的LDPC码。
S104,在所述光通信网络中传输所述LDPC码。
通过上述过程,针对任一输入信号,在经过信源编码后首先由第一神经网络确定LDPC码的长度,接着由第二神经网络确定具体的LDPC码,并应用该LDPC码进行光通信过程的差错控制。
以上通过具体实施例介绍了本发明的光通信网络中的差错控制方法的技术原理和实施细节。在本发明的技术方案中,通过设计合适的损失函数,将LDPC码构建过程分为两个阶段:首先将输入信号的编码后比特序列输入第一神经网络以输出LDPC码长度,然后将所述LDPC码长度和所述编码后比特序列输入到第二神经网络中以输出LDPC码。首先,这种LDPC码构建方法无需人为设计和构建校验矩阵或生成矩阵,大大简化了LDPC码构建过程,提高了LDPC码的生成效率。其次,通过首先确定LDPC码长度,然后据此生成LDPC码,避免LDPC码长度不定导致第二神经网络的计算过程的分叉点过多,从而减少第二神经网络的计算量,进一步提高了LDPC码的生成效率。再次,第一神经网络和第二神经网络可以交替并行训练,提高了两个神经网络的训练速度。最后,可以根据不同应用场景和性能要求改变损失函数的参数来灵活调整LDPC码长度,以生成不同长度的LDPC码,从而适应各种应用场景,满足不同性能要求,增强了LDPC码构建的灵活性。
根据本发明的第二方面,本发明还提供了一种光通信网络中的差错控制装置。
图3是根据本发明实施例的光通信网络中的差错控制装置30的结构示意图。所述装置包括处理器和存储器,所述存储器存储有计算机程序指令,当所述计算机程序指令被所述处理器执行时实现根据本发明第一方面所述的在协同办公系统中集成电子白板的方法。所述装置还包括通信总线和通信接口等本领域技术人员熟知的其他组件,其设置和功能为本领域中已知,因此在此不再赘述。
在本发明中,前述的存储器可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。例如,计算机可读存储介质可以是任何适当的磁存储介质或者磁光存储介质,比如,阻变式存储器RRAM(Resistive RandomAccess Memory)、动态随机存取存储器DRAM(Dynamic Random Access Memory)、静态随机存取存储器SRAM(Static Random-Access Memory)、增强动态随机存取存储器EDRAM(Enhanced Dynamic Random Access Memory)、高带宽内存HBM(High-Bandwidth Memory)、混合存储立方HMC(Hybrid Memory Cube)等等,或者可以用于存储所需信息并且可以由应用程序、模块或两者访问的任何其他介质。任何这样的计算机存储介质可以是设备的一部分或可访问或可连接到设备。本发明描述的任何应用或模块可以使用可以由这样的计算机可读介质存储或以其他方式保持的计算机可读/可执行指令来实现。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (6)
1.一种光通信网络中的差错控制方法,其特征在于,包括:
获取所述光通信网络的输入信号,并将所述输入信号编码成比特序列,其中所述输入信号包括文本信号、语音信号或图像信号;
将所述比特序列输入到预训练的第一神经网络中以输出LDPC码长度,其中所述第一神经网络包括自编码神经网络和全连接神经网络,所述自编码神经网络包括编码器和解码器,其中所述第一神经网络的训练包括:获取所述光通信网络的样本输入信号,并将所述样本输入信号编码成样本比特序列;将所述样本比特序列输入到所述自编码神经网络的所述编码器中以进行特征提取;将提取的特征输入到所述解码器中进行特征重组;将重组后比特序列输入到所述全连接神经网络中以输出样本LDPC码长度,使得所述样本LDPC码长度使所述第一神经网络的目标函数的值达到预定目标值,其中所述第一神经网络的目标函数的预定目标值包括第一目标函数和第二目标函数的预定目标值,其中所述第一目标函数的预定目标值为:
所述第二目标函数的预定目标值为:
将所述比特序列和所述LDPC码长度输入到预训练的第二神经网络中以输出LDPC码,其中所述第二神经网络为生成对抗神经网络,所述对抗神经网络包括生成器和判别器,其中所述第二神经网络的训练包括:根据所述样本LDPC码长度,构建对应长度的LDPC码作为参考LDPC码;将所述样本比特序列和所述样本LDPC码长度输入到所述生成器中以生成样本LDPC码;将所述样本LDPC码和所述参考LDPC码输入到所述判别器中以生成判别结果;将所述判别结果反馈到所述生成器中以训练所述生成器,使得所述生成器输出的样本LDPC码使所述判别器的损失函数的值最大;
在所述光通信网络中传输所述LDPC码。
2.根据权利要求1所述的光通信网络中的差错控制方法,其特征在于,所述根据所述样本LDPC码长度,构建对应长度的LDPC码作为参考LDPC码包括:
根据所述LDPC码长度,分别使用多种LDPC码构建方法构建对应长度的LDPC码,其中所述LDPC码构建方法包括随机构造法、实验设计法、置换法、RU算法编码法、准循环码快速编码法和QC-LDPC编码法;
计算所述LDPC码对应的净编码增益;
选择净编码增益最大的LDPC码作为所述参考LDPC码。
5.根据权利要求2所述的光通信网络中的差错控制方法,其特征在于,所述计算所述LDPC码对应的净编码增益包括:使用Q因子测量法、Eb/No测量法或OSNR测量法计算所述净编码增益。
6.一种光通信网络中的差错控制装置,包括存储器和处理器,所述存储器上存储有计算机可执行指令,其特征在于,所述计算机可执行指令在被所述处理器执行时,实现根据权利要求1至5中任一项所述的光通信网络中的差错控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310468348.2A CN116192340B (zh) | 2023-04-27 | 2023-04-27 | 光通信网络中的差错控制方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310468348.2A CN116192340B (zh) | 2023-04-27 | 2023-04-27 | 光通信网络中的差错控制方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116192340A CN116192340A (zh) | 2023-05-30 |
CN116192340B true CN116192340B (zh) | 2023-06-30 |
Family
ID=86452668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310468348.2A Active CN116192340B (zh) | 2023-04-27 | 2023-04-27 | 光通信网络中的差错控制方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116192340B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106571831A (zh) * | 2016-10-28 | 2017-04-19 | 华南理工大学 | 一种基于深度学习的ldpc硬判决译码方法及译码器 |
CN112615629A (zh) * | 2020-11-26 | 2021-04-06 | 西安电子科技大学 | 多元ldpc码的译码方法、系统、介质、设备及应用 |
CN113890543A (zh) * | 2021-10-09 | 2022-01-04 | 吉林大学 | 基于多层感知神经网络的多进制ldpc码的译码方法 |
WO2022248891A1 (en) * | 2021-05-28 | 2022-12-01 | Imperial College Innovations Ltd | Communication system, transmitter, and receiver for conveying data from an information source across a communication channel using joint source and channel coding, and method of training an encoder neural network and decoder neural network for use in a communication system |
CN115441993A (zh) * | 2022-09-01 | 2022-12-06 | 中国人民解放军国防科技大学 | 一种信道编解码方法、装置、设备及存储介质 |
CN115483936A (zh) * | 2022-08-23 | 2022-12-16 | 北京大学 | 一种光纤通信系统中基于神经网络的ldpc码译码方法 |
WO2023031632A1 (en) * | 2021-09-06 | 2023-03-09 | Imperial College Innovations Ltd | Encoder, decoder and communication system and method for conveying sequences of correlated data items from an information source across a communication channel using joint source and channel coding, and method of training an encoder neural network and decoder neural network for use in a communication system |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10491243B2 (en) * | 2017-05-26 | 2019-11-26 | SK Hynix Inc. | Deep learning for low-density parity-check (LDPC) decoding |
-
2023
- 2023-04-27 CN CN202310468348.2A patent/CN116192340B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106571831A (zh) * | 2016-10-28 | 2017-04-19 | 华南理工大学 | 一种基于深度学习的ldpc硬判决译码方法及译码器 |
CN112615629A (zh) * | 2020-11-26 | 2021-04-06 | 西安电子科技大学 | 多元ldpc码的译码方法、系统、介质、设备及应用 |
WO2022248891A1 (en) * | 2021-05-28 | 2022-12-01 | Imperial College Innovations Ltd | Communication system, transmitter, and receiver for conveying data from an information source across a communication channel using joint source and channel coding, and method of training an encoder neural network and decoder neural network for use in a communication system |
WO2023031632A1 (en) * | 2021-09-06 | 2023-03-09 | Imperial College Innovations Ltd | Encoder, decoder and communication system and method for conveying sequences of correlated data items from an information source across a communication channel using joint source and channel coding, and method of training an encoder neural network and decoder neural network for use in a communication system |
CN113890543A (zh) * | 2021-10-09 | 2022-01-04 | 吉林大学 | 基于多层感知神经网络的多进制ldpc码的译码方法 |
CN115483936A (zh) * | 2022-08-23 | 2022-12-16 | 北京大学 | 一种光纤通信系统中基于神经网络的ldpc码译码方法 |
CN115441993A (zh) * | 2022-09-01 | 2022-12-06 | 中国人民解放军国防科技大学 | 一种信道编解码方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN116192340A (zh) | 2023-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Doan et al. | Neural successive cancellation decoding of polar codes | |
CN106888026B (zh) | 基于lsc-crc译码的分段极化码编译码方法及系统 | |
CN109361404A (zh) | 一种基于半监督深度学习网络的ldpc译码系统及译码方法 | |
CN111294058B (zh) | 一种信道编码和纠错译码方法、设备以及存储介质 | |
CN110515760A (zh) | 一种基于机器学习的ldpc闪存纠错方法 | |
Gripon et al. | A simple and efficient way to store many messages using neural cliques | |
CN110362683A (zh) | 一种基于递归神经网络的信息隐写方法、装置及存储介质 | |
KR20200095789A (ko) | 번역 모델 구축 방법 및 장치 | |
Buchberger et al. | Learned decimation for neural belief propagation decoders | |
CN114448446A (zh) | 水下光通信ldpc编码处理方法、装置及计算机可读存储介质 | |
Teng et al. | Convolutional neural network-aided bit-flipping for belief propagation decoding of polar codes | |
CN113852443B (zh) | Scma系统中一种低复杂度多用户检测方法 | |
CN116192340B (zh) | 光通信网络中的差错控制方法和装置 | |
CN105656603B (zh) | 一种基于树修剪的scma译码方法及系统 | |
CN112953565B (zh) | 一种基于卷积神经网络的归零卷积码译码方法和系统 | |
Leung et al. | Low-Latency neural decoders for linear and non-linear block codes | |
CN113114269A (zh) | 一种置信传播-信息修正译码方法 | |
CN108809330A (zh) | 一种针对NAND-Flash存储介质的LDPC码译码方法 | |
CN109525252B (zh) | 基于简化三阶关键集合的极化码串行抵消列表译码方法 | |
CN115396064B (zh) | 检测译码方法、装置、计算机设备及可读存储介质 | |
CN113157255B (zh) | 一种面向语法树解码器的代码生成方法 | |
Huang et al. | Recognition of channel codes based on BiLSTM-CNN | |
CN113630127A (zh) | 一种基于遗传算法的快速极化码构造方法、装置和设备 | |
Chen et al. | A novel labeling scheme for neural belief propagation in polar codes | |
Dhok et al. | ATRNN: Using seq2seq approach for decoding polar codes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: Error control methods and devices in optical communication networks Granted publication date: 20230630 Pledgee: Huaxia Bank Co.,Ltd. Jinan Branch Pledgor: Jinan Anxun Technology Co.,Ltd. Registration number: Y2024980007588 |