KR102547443B1 - Deep learning based belief propagation decoder with fast convergence and the learning method thereof - Google Patents

Deep learning based belief propagation decoder with fast convergence and the learning method thereof Download PDF

Info

Publication number
KR102547443B1
KR102547443B1 KR1020210041527A KR20210041527A KR102547443B1 KR 102547443 B1 KR102547443 B1 KR 102547443B1 KR 1020210041527 A KR1020210041527 A KR 1020210041527A KR 20210041527 A KR20210041527 A KR 20210041527A KR 102547443 B1 KR102547443 B1 KR 102547443B1
Authority
KR
South Korea
Prior art keywords
decoder
learning
deep learning
propagation
deep
Prior art date
Application number
KR1020210041527A
Other languages
Korean (ko)
Other versions
KR20220135609A (en
Inventor
하정석
한석주
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020210041527A priority Critical patent/KR102547443B1/en
Publication of KR20220135609A publication Critical patent/KR20220135609A/en
Application granted granted Critical
Publication of KR102547443B1 publication Critical patent/KR102547443B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/05Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
    • H03M13/11Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits using multiple parity bits
    • H03M13/1102Codes on graphs and decoding on graphs, e.g. low-density parity check [LDPC] codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/37Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
    • H03M13/45Soft decoding, i.e. using symbol reliability information
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/61Aspects and characteristics of methods and arrangements for error correction or error detection, not provided for otherwise
    • H03M13/615Use of computational or mathematical techniques
    • H03M13/617Polynomial operations, e.g. operations related to generator polynomials or parity-check polynomials
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/65Purpose and implementation aspects
    • H03M13/6502Reduction of hardware complexity or efficient processing

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Algebra (AREA)
  • Error Detection And Correction (AREA)

Abstract

본 발명은 딥러닝 기반 신뢰전파 복호기 및 이의 학습 방법에 관한 것으로서, 딥러닝 기반 복호기에서 중간 출력값을 갖는 채널 복호기의 특성을 반영한 그리디 알고리즘(Greedy algorithm)을 기반으로 손실 함수를 재정의하는 단계 및 상기 재정의된 손실 함수를 통해 각 은닉 층의 학습을 수행하여 복호 결과를 출력하는 단계를 포함한다.The present invention relates to a deep learning-based trust propagation decoder and a method for learning the same, which includes redefining a loss function based on a greedy algorithm reflecting the characteristics of a channel decoder having an intermediate output value in a deep learning-based decoder and the above and outputting a decoding result by performing learning of each hidden layer through the redefined loss function.

Description

고속 수렴성을 갖는 딥러닝 기반 신뢰전파 복호기 및 이의 학습 방법{DEEP LEARNING BASED BELIEF PROPAGATION DECODER WITH FAST CONVERGENCE AND THE LEARNING METHOD THEREOF}Deep learning-based propagation decoder with high-speed convergence and its learning method

본 발명은 딥러닝 기반 신뢰전파 복호기 및 이의 학습 방법에 관한 것으로서, 보다 상세하게는 향상된 수렴 속도를 갖는 선형 부호(Linear Code)의 딥러닝 기반 신뢰전파 복호기(Belief Propagation; BP)에 관한 것이다. The present invention relates to a deep learning-based belief propagation decoder and a learning method thereof, and more particularly, to a deep learning-based belief propagation decoder (BP) of a linear code having an improved convergence speed.

최근 5G 통신 기술, 더 나아가 6G의 URLLC(Ultra Reliable Low Latency Communication) 기술에 관한 연구가 중요한 문제로 다뤄지고 있다. 이는 자율주행, 사물인터넷(IoT) 기기 등 짧은 패킷을 주고받으며, 낮은 지연 시간과 높은 신뢰도를 요구하는 것으로 관련 통신 기술에 대한 연구의 개발이 요구되고 있다. 통신 기술 내 채널 부호는 통신 과정에서 발생하는 오류를 정정하기 위한 기술로, 그 중에서도 선형 부호는 패리티 검사 행렬의 영공간으로 정의되는 특성을 갖는다.Recently, research on 5G communication technology and furthermore, 6G URLLC (Ultra Reliable Low Latency Communication) technology is being treated as an important issue. This requires low latency and high reliability by sending and receiving short packets such as autonomous driving and Internet of Things (IoT) devices, and research and development on related communication technologies is required. A channel code in a communication technology is a technology for correcting an error occurring in a communication process, and among them, a linear code has a characteristic defined by the null space of a parity check matrix.

선형 부호는 변수 노드(Variable Node), 검사 노드(Check Node) 그리고 선분(Edge)으로 구성되며, 테너(Tanner) 그래프로 표현이 가능하다. 신뢰전파 복호 알고리즘은 변수 노드와 검사 노드 사이의 반복적인 메시지 전파를 통해 진행된다. 이때, 저지연 고신뢰성 통신을 위해 높은 오류 정정 능력을 갖는 채널 부호 기술이 필요하다. 이에 대한 선행 특허 US20180357530A1은 도 1에 도시된 바와 같이 신뢰전파 복호 알고리즘을 심층 신경망(Deep Neural Network; DNN)으로 구성하여 학습을 통해 그 성능을 향상시킨다. 구체적으로, 선행 특허는 신뢰전파 복호 알고리즘의 반복적인 메시지 전파를 다계층의 신경망으로 구성한 후, 개별 메시지 전파에 가중치(Weight)를 부여하며, 학습을 통해 개별 메시지의 중요도에 따라 다른 가중치의 메시지 전파를 가능하게 하여 오류 정정 성능을 향상시키는 기술이다. A linear code is composed of a variable node, a check node, and an edge, and can be expressed as a tanner graph. The confidence propagation decoding algorithm proceeds through repetitive message propagation between the variable node and the check node. At this time, a channel code technology having high error correction capability is required for low-latency and high-reliability communication. As shown in FIG. 1, the prior patent US20180357530A1 for this is composed of a deep neural network (DNN) for a propagation-relief decoding algorithm to improve its performance through learning. Specifically, prior patents configure the repetitive message propagation of the propagation-of-reliance decoding algorithm with a multi-layered neural network, assign weights to individual message propagation, and propagate messages with different weights according to the importance of individual messages through learning. It is a technology that enables error correction performance to be improved.

선행 특허에서 제안된 딥러닝 기반 신뢰전파 복호 알고리즘은 학습 과정에서 그래디언트 소멸(Vanishing Gradient) 문제를 해결하기 위해 하기의 [수식 1]과 같은 다중 손실 함수를 사용한다.The deep learning-based propagation-of-confidence decoding algorithm proposed in the prior patent uses a multiple loss function such as [Equation 1] below to solve the vanishing gradient problem in the learning process.

[수식 1][Formula 1]

Figure 112021037575891-pat00001
Figure 112021037575891-pat00001

다중 손실 함수는 도 2에 도시된 바와 같이 복호기의 각 반복 횟수 이후에 출력된 결과 값들을 활용해 손실 함수를 정의하고, 이를 통해 학습 과정에서 초기 은닉층까지 결과 값에 대한 그래디언트가 전파될 수 있도록 한다.As shown in FIG. 2, the multiple loss function defines a loss function using the result values output after each iteration of the decoder, and through this, the gradient for the result value can be propagated from the learning process to the initial hidden layer. .

선형 부호의 신뢰전파 복호기는 각 반복 횟수 이후 출력된 신뢰도 값을 사용해 중간 복호 결과를 출력한다. 만일 중간 반복 횟수에서의 출력값(oi)을 견판정한 값(si)이 패리티 검사(Parity Check)를 만족(siH=0)하면 이후 반복 횟수에 대한 연산 없이 복호 결과를 출력할 수 있다. 복호기의 복호 복잡도 및 지연시간은 평균 필요 반복 횟수에 비례하며, 빠른 수렴은 불필요한 연산 과정을 제거하여 복호기의 동작에 필요한 전력 및 지연 시간의 감소로 이어질 수 있다. 하지만 딥러닝 기반 신뢰전파 복호기의 경우 다중 손실 함수를 사용하며, 후반 은닉층 결과에 대한 그래디언트가 초반 은닉층의 가중치 값들에 크게 반영된다. 이는 주어진 메시지에 대한 초반 은닉층에서의 빠른 복호 수렴을 방해하는 문제로 이어지고, 복호에 필요한 반복 횟수의 증가로 이어진다. 그러므로, 기존 신뢰전파 복호기에 비해 심층 신경망의 높은 연산 복잡도로 인해 딥러닝 기반 신뢰전파 복호기의 사용에 있어서 더 큰 문제로 다뤄진다. The reliability propagation decoder of the linear code outputs an intermediate decoding result using the reliability value output after each repetition. If the value (s i ) obtained by determining the output value (o i ) at the intermediate number of iterations satisfies the parity check (s i H=0), then the decoding result can be output without calculating the number of iterations. there is. Decoding complexity and delay time of the decoder are proportional to the average required number of iterations, and fast convergence can lead to reduction of power and delay time required for operation of the decoder by eliminating unnecessary calculation processes. However, in the case of a deep learning-based trust propagation decoder, multiple loss functions are used, and the gradient of the result of the late hidden layer is greatly reflected in the weight values of the early hidden layer. This leads to a problem that prevents fast decoding convergence in the initial hidden layer for a given message, and leads to an increase in the number of iterations required for decoding. Therefore, it is a bigger problem in the use of a deep learning-based trust wave decoder due to the high computational complexity of a deep neural network compared to conventional trust wave decoders.

본 발명의 목적은 딥러닝 기반 신뢰 전파 복호기의 향상된 학습 기술을 제안하고자 하며, 학습 과정에서 요구되는 손실 함수를 재정의하고 이를 바탕으로 새로운 그래디언트를 네트워크에 제공하고자 한다. The purpose of the present invention is to propose an improved learning technique for a deep learning-based trust propagation decoder, to redefine the loss function required in the learning process, and to provide a new gradient to the network based on this.

본 발명의 실시예에 따른 고속 수렴성을 갖는 딥러닝 기반 신뢰전파 복호기의 학습 방법에 있어서, 딥러닝 기반 복호기에서 중간 출력값을 갖는 채널 복호기의 특성을 반영한 그리디 알고리즘(Greedy algorithm)을 기반으로 손실 함수를 재정의하는 단계 및 상기 재정의된 손실 함수를 통해 각 은닉 층의 학습을 수행하여 복호 결과를 출력하는 단계를 포함한다.In the method for learning a deep learning-based trust propagation decoder having high-speed convergence according to an embodiment of the present invention, a loss function based on a greedy algorithm reflecting the characteristics of a channel decoder having an intermediate output value in a deep learning-based decoder and outputting a decoding result by performing learning of each hidden layer through the redefined loss function.

본 발명의 실시예에 따른 고속 수렴성을 갖는 딥러닝 기반 신뢰전파 복호기에 있어서, 딥러닝 기반 복호기에서 중간 출력값을 갖는 채널 복호기의 특성을 반영한 그리디 알고리즘(Greedy algorithm)을 기반으로 손실 함수를 재정의하는 것을 특징으로 한다.In the deep learning-based trust propagation decoder having high-speed convergence according to an embodiment of the present invention, redefining the loss function based on the greedy algorithm reflecting the characteristics of the channel decoder having an intermediate output value in the deep learning-based decoder characterized by

본 발명의 실시예에 따르면, 재정의된 손실 함수를 바탕으로 신뢰전파 복호기의 학습 과정에서 초반 반복 횟수의 복호 결과에 대한 가중을 두어, 신뢰전파 복호기의 빠른 수렴을 가능하게 할 수 있다. 또한, 본 발명의 실시예에 따라 제안하는 딥러닝 신뢰전파 복호기는 도 1과 같은 기존 다중 손실 함수 기반 복호기의 초기 오류율을 감소시킬 뿐 아니라, 최종 복호 오류율을 감소시킴으로써, 복호기의 복잡도 및 오류 정정 성능을 향상시킬 수 있다. According to an embodiment of the present invention, it is possible to enable fast convergence of the trustworthy wave decoder by weighting the decoding result of the initial number of iterations in the learning process of the trustworthy wave decoder based on the redefined loss function. In addition, the deep learning radio wave decoder proposed according to an embodiment of the present invention not only reduces the initial error rate of the existing multiple loss function-based decoder as shown in FIG. 1, but also reduces the final decoding error rate, thereby reducing the complexity and error correction performance of the decoder. can improve

도 1은 테너 그래프로 표현된 선형 코드에 대해 반복적인 메시지 전파를 심층 신경망 레이어로 구성하여 가중치가 할당된 심층 신경망의 형태로 도시한 것이다.
도 2는 딥러닝 기반 신뢰전파 복호기가 사용하는 다중 손실 함수를 도식화한 것이다.
도 3은 본 발명의 실시예에 따른 딥러닝 기반 신뢰전파 복호기의 학습 방법에 대한 동작 흐름도를 도시한 것이다.
도 4는 본 발명의 실시예에 따라 제안된 알고리즘의 성능을 나타낸 그래프로, 신뢰전파 복호기의 반복 횟수에 따른 기존 다중 손실 함수 기반 딥러닝 복호기와의 오류 정정 성능을 비교한 결과를 도시한 것이다.
도 5는 본 발명의 실시예에 따라 제안된 알고리즘의 복잡도 성능을 나타낸 그래프로, 복호에 필요한 신뢰전파 복호기의 평균 반복 횟수를 도시한 것이다.
1 shows a deep neural network in which repetitive message propagation for a linear code expressed as a tenor graph is composed of deep neural network layers and weights are assigned.
2 is a schematic diagram of a multiple loss function used by a deep learning-based radio propagation decoder.
3 is a flowchart illustrating an operation of a method for learning a deep learning-based radio wave decoder according to an embodiment of the present invention.
4 is a graph showing the performance of the proposed algorithm according to an embodiment of the present invention, and shows the result of comparing the error correction performance with the existing deep learning decoder based on multiple loss functions according to the number of iterations of the propagation-relief decoder.
5 is a graph showing the complexity performance of the proposed algorithm according to an embodiment of the present invention, and shows the average number of iterations of the radio wave decoder required for decoding.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and will be implemented in various forms different from each other, only these embodiments make the disclosure of the present invention complete, and common knowledge in the art to which the present invention pertains. It is provided to completely inform the person who has the scope of the invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.Terms used in this specification are for describing the embodiments and are not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" and/or "comprising" means that a stated component, step, operation, and/or element is present in the presence of one or more other components, steps, operations, and/or elements. or do not rule out additions.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used in a meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예들을 보다 상세하게 설명하고자 한다. 도면 상의 동일한 구성요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention will be described in more detail. The same reference numerals are used for the same components in the drawings, and redundant descriptions of the same components are omitted.

본 발명의 실시예들은, 신뢰전파 알고리즘을 기반으로 설계된 선형 부호의 딥러닝 기반 복호기의 손실 함수의 재설계를 통해 적은 반복 횟수에서 복호를 가능하게 하는 것을 그 요지로 한다. The gist of the embodiments of the present invention is to enable decoding with a small number of iterations through redesign of a loss function of a deep learning-based decoder of a linear code designed based on a confidence propagation algorithm.

딥러닝 신뢰전파 복호기는 노드 사이의 메시지 전파 간 가중치의 할당을 통해 기존 신뢰전파 알고리즘의 복호 성능을 향상시킨다. 딥러닝 기반 복호기는 학습 과정에서 중간 출력 값을 갖는 채널 복호기의 특성을 반영한 손실 함수의 설계를 통해 그 성능을 더 향상시킬 수 있으며, 본 발명에서는 채널 복호기의 특성을 반영한 그리디 알고리즘 기반의 손실 함수를 정의함으로써, 딥러닝 기반 신뢰전파 복호기의 수렴 속도 향상을 통한 복잡도 및 오류 정정 성능을 개선하는 방법을 제안한다. 제안된 손실 함수는 인접 반복 횟수에서 손실에 더 큰 가중을 두어 개별 은닉층이 인접 반복 횟수에서 올바른 결과값을 출력하도록 학습된다. 이를 통하여, 기존 딥러닝 기반 채널 복호기가 갖는 높은 오류 정정 성능을 향상시키고, 복호 수렴 속도의 향상으로 기존 복호기의 한계점으로 주목받는 높은 복잡도를 효과적으로 감소시킬 수 있을 것으로 기대된다. The deep learning propagation propagation decoder improves the decoding performance of the existing propagation propagation algorithm by assigning weights between message propagation between nodes. The performance of the deep learning-based decoder can be further improved by designing a loss function reflecting the characteristics of a channel decoder having an intermediate output value in the learning process. In the present invention, the loss function based on the greedy algorithm reflecting the characteristics of the channel decoder By defining , we propose a method to improve the complexity and error correction performance through the convergence speed improvement of the deep learning based radio wave decoder. The proposed loss function places a higher weight on the loss at adjacent iterations so that individual hidden layers are trained to output correct results at adjacent iterations. Through this, it is expected to improve the high error correction performance of the existing deep learning-based channel decoder and effectively reduce the high complexity, which is noted as a limitation of the existing decoder, by improving the decoding convergence speed.

이를 위해, 본 발명의 실시예들은 학습 과정에서 요구되는 손실 함수를 재정의하며, 재정의된 손실 함수는 신뢰전파 복호기의 반복 횟수에 따라, [수식 1]의 다중 손실 함수에서 반복 횟수에 따른 가중치를 반영하여, 초반 반복 횟수에서 손실 함수에 더 높은 가중을 둔다. 이에, 딥러닝 기반 신뢰전파 복호기는 각 반복 횟수의 출력 값으로부터 손실을 계산하여 이를 모두 학습 과정에서 활용한다. To this end, the embodiments of the present invention redefine the loss function required in the learning process, and the redefined loss function reflects the weight according to the number of iterations in the multiple loss function of [Equation 1] according to the number of iterations of the radio wave decoder. So, we put a higher weight on the loss function at the initial number of iterations. Therefore, the deep learning-based trust propagation decoder calculates the loss from the output value of each iteration and uses all of them in the learning process.

본 발명은 신뢰전파 복호기의 특정 은닉층에 대한 학습 과정에서 인접한 은닉층의 출력 결과에 대해 가중을 둔 학습을 진행함으로써, 개별 은닉층은 데이터의 복호 과정에서 초반 은닉층의 결과에 대해 높은 신뢰도를 갖도록 학습되며, 인접 은닉층으로의 빠른 수렴성을 학습하여 신뢰 전파 복호기의 복호에 필요한 반복 횟수를 낮춰 빠른 수렴을 달성할 수 있도록 한다. 그리하여, 빠른 수렴을 통해 기존 딥러닝 기반 복호기의 복잡도 및 지연시간 문제를 해결하며, 딥러닝 기반 신뢰 전파 복호기의 높은 오류정정 성능을 유지하며 지연 시간을 획기적으로 줄일 수 있는 실용적이 복호기 구조를 설계할 수 있다. In the present invention, in the process of learning a specific hidden layer of the trust wave decoder, weighted learning is performed on the output result of the adjacent hidden layer, so that each hidden layer is learned to have high reliability for the result of the initial hidden layer in the data decoding process, By learning the fast convergence to the adjacent hidden layer, it is possible to achieve fast convergence by reducing the number of iterations required for decoding of the trust propagation decoder. Therefore, it is possible to design a practical decoder structure that solves the complexity and latency problems of existing deep learning-based decoders through fast convergence, maintains high error correction performance of deep learning-based trust propagation decoders, and dramatically reduces latency. can

이하에서는 도 3 내지 도 5을 참조하여 전술한 본 발명의 실시예들에 대해 상세히 설명한다. Hereinafter, embodiments of the present invention described above will be described in detail with reference to FIGS. 3 to 5 .

본 발명에서는 일반적인 선형 부호의 신뢰전파 복호 알고리즘을 기반으로 딥러닝 기반 신뢰전파 복호기를 설계한다. 신뢰전파 복호 알고리즘은 선형 부호를 테너 그래프로 표현하여 변수 노드(variable node, VN)와 검사 노드(check node, CN) 간 신뢰도 메시지를 전파하며 복호가 진행된다. 신뢰전파 복호기의 입력은 채널로부터 받은 입력을 하기의 [수식 2]와 같이 로그 우도비(log likelihood ratio, LLR)로 변환하여 사용한다.In the present invention, a deep learning based trust wave decoder is designed based on a general linear code trust wave decoding algorithm. In the reliability propagation decoding algorithm, a linear code is expressed as a tenor graph, and a reliability message is propagated between a variable node (VN) and a check node (CN), and decoding is performed. As an input of the reliability propagation decoder, the input received from the channel is converted into a log likelihood ratio (LLR) as shown in [Equation 2] below and used.

[수식 2][Formula 2]

Figure 112021037575891-pat00002
Figure 112021037575891-pat00002

[수식 2]에서 v는 비트의 위치, yv는 채널로부터 받은 입력, cv는 실제 부호 값을 나타낸다.In [Equation 2], v is the bit position, y v is the input received from the channel, and c v is the actual sign value.

신뢰 복호기의 복호 과정은 반복적인 메시지 전파로 진행된다. 본 발명에서는 메시지 전파의 반복 횟수를 i로 표시하며, 최대 반복 횟수를 Imax로 설정한다. 변수 노드에서 검사 노드로의 메시지 전파는 홀수 번째 반복 횟수에 진행되고 검사 노드에서 변수 노드로의 메시지 전파는 짝수 번째 반복 횟수에서 진행되며 각각 하기의 [수식 3] 및 [수식 4]로 계산된다.The decoding process of the trusted decoder proceeds through repetitive message propagation. In the present invention, the repetition number of message propagation is denoted by i, and the maximum repetition number is set to I max . Message propagation from the variable node to the check node proceeds at an odd number of iterations, and message propagation from the check node to the variable node proceeds at an even number of iterations, and is calculated by [Equation 3] and [Equation 4] below, respectively.

[수식 3][Formula 3]

Figure 112021037575891-pat00003
Figure 112021037575891-pat00003

[수식 4][Formula 4]

Figure 112021037575891-pat00004
Figure 112021037575891-pat00004

각 반복 횟수 이후의 복호 결과, ov,i는 연결된 검사 노드로부터의 메시지를 더해 [수식 5]로 계산된다.The decoding result after each iteration, o v,i is calculated by [Equation 5] by adding the messages from the connected check nodes.

[수식 5][Formula 5]

Figure 112021037575891-pat00005
Figure 112021037575891-pat00005

신뢰전파 복호 알고리즘의 반복적인 메시지 전파 구조는 각 메시지 전파를 신경망 층으로 구성하여 이를 심층 신경망으로 표현할 수 있다. The iterative message propagation structure of the trust propagation decoding algorithm configures each message propagation as a neural network layer and can be expressed as a deep neural network.

도 3은 본 발명의 실시예에 따른 딥러닝 기반 신뢰전파 복호기의 학습 방법에 대한 동작 흐름도를 도시한 것이다.3 is a flowchart illustrating an operation of a method for learning a deep learning-based radio wave decoder according to an embodiment of the present invention.

도 2에 도시된 바와 같이 신뢰전파 복호기는 각 반복 횟수 이후 출력된 결과 값을 활용해 복호 결과를 출력한다. 만일 중간층에서의 출력값이 패리티 검사를 만족하면 이후 층에 대한 연산 없이 복호 결과를 출력할 수 있다. 본 발명에서는 이러한 채널 복호기(또는, 신뢰전파 복호기)의 특성을 활용하며, 초기 은닉 층에서의 경사 사라짐 문제(vanishing gradient problem, VGP)를 해결하기 위해, 다중 손실 함수를 사용한다. 본 발명은 도 3의 단계 S310에서, 딥러닝 기반 복호기에서 중간 출력값을 갖는 채널 복호기의 특성을 반영한 그리디 알고리즘(Greedy algorithm)을 기반으로 다중 손실 함수(L)를 하기의 [수식 6]과 같이 재정의한다. As shown in FIG. 2, the trustworthy wave decoder outputs a decoding result using the result value output after each repetition. If the output value of the middle layer satisfies the parity check, the decoding result may be output without calculation for the next layer. In the present invention, the characteristics of such a channel decoder (or trust propagation decoder) are utilized, and a multiple loss function is used to solve the vanishing gradient problem (VGP) in the initial hidden layer. In step S310 of FIG. 3, the present invention calculates a multiple loss function (L) as shown in [Equation 6] below based on a greedy algorithm that reflects the characteristics of a channel decoder having an intermediate output value in a deep learning-based decoder. redefine

[수식 6][Formula 6]

Figure 112021037575891-pat00006
Figure 112021037575891-pat00006

단계 S310은 재정의된 손실 함수에서, 반복 횟수에 따른 가중치 0 < α ≤ 1를 설정하여 적은 반복 횟수의 출력 값에 대한 손실을 학습 과정에서 가중을 두어 반영할 수 있다. 가중치(α)의 선택은 수렴 속도와 오류 정정 성능 간의 트레이드 오프(Trade-off) 관계를 고려하여 목표 적용 분야에 따라 적응적으로 선택할 수 있다. In step S310, in the redefined loss function, a weight 0 < α ≤ 1 according to the number of iterations may be set to reflect the loss for output values having a small number of iterations in a learning process. The selection of the weight (α) can be adaptively selected according to the target application field by considering the trade-off relationship between the convergence speed and the error correction performance.

단계 S310은 신뢰 전파 복호기의 특정 은닉층에 대한 학습 과정에서 인접한 은닉층의 출력 결과에 대해 가중치를 둔 학습을 진행할 수 있다. 개별 은닉층의 학습은 재정의된 손실 함수를 통해 인접 은닉층의 중간 출력값까지의 거리에 가중을 두어 학습이 진행되고, 이를 통해 적은 반복 횟수 이후에 올바른 복호 결과를 출력할 수 있도록 학습된다. 이는 신경망 신뢰전파 복호기의 수렴 속도를 향상시키고 향상된 수렴 속도는 복잡도 및 지연시간을 감소시킨다.In step S310, in a process of learning a specific hidden layer of the trust propagation decoder, weighted learning may be performed for an output result of an adjacent hidden layer. Learning of each hidden layer is performed by weighting the distance to the intermediate output value of the adjacent hidden layer through the redefined loss function, and through this, it is learned to output the correct decoding result after a small number of iterations. This improves the convergence speed of the neural network propagation decoder, and the improved convergence speed reduces complexity and latency.

또한, 그리디한 알고리즘을 통한 중간 은닉 층에서의 신뢰도 향상은 후반 은닉 층으로 더 높은 신뢰도의 메시지를 전파하여 최종적인 오류 정정 성능도 향상시킬 수 있다. In addition, the reliability improvement in the middle hidden layer through the greedy algorithm propagates a message with higher reliability to the later hidden layer, so that the final error correction performance can be improved.

단계 S320에서, 재정의된 손실 함수를 통해 신뢰전파 복호기에서 각 은닉 층의 학습을 수행하여 복호 결과를 출력한다. In step S320, each hidden layer is learned in the reliability propagation decoder through the redefined loss function, and a decoding result is output.

단계 S320을 통한 가중치의 도입으로 신뢰전파 복호기의 각 은닉 층이 적은 반복 횟수 이후에 복호 결과를 출력하도록 학습하며, 복호 결과를 출력할 수 있다. By introducing a weight through step S320, each hidden layer of the trust wave decoder learns to output a decoding result after a small number of iterations, and outputs the decoding result.

도 4는 본 발명의 실시예에 따라 제안된 알고리즘의 성능을 나타낸 그래프로, 신뢰전파 복호기의 반복 횟수에 따른 기존 다중 손실 함수 기반 딥러닝 복호기와의 오류 정정 성능을 비교한 결과를 도시한 것이다.4 is a graph showing the performance of the proposed algorithm according to an embodiment of the present invention, and shows the result of comparing the error correction performance with the existing deep learning decoder based on multiple loss functions according to the number of iterations of the propagation-relief decoder.

도 4는 기존 딥러닝 기반 신뢰전파 복호기와 제안한 복호기의 가중치 α값(α=1, 0.8, 0.5, 0.3, 0.1)과 반복 횟수에 따른 평균 비트 오류율 성능을 나타낸 그래프이다. 실험은 (n,k)=(63,45)인 BCH 부호를 사용하여 EbNo = 4dB인 AWGN 채널 환경에서 측정되었다. 그래프의 결과에 따르면 본 발명에서 제안한 알고리즘은 기존 다중 손실 함수(α=1)을 사용한 복호기에 비해, 초반 복호 반복 횟수에서 빠른 수렴을 통해 더 낮은 비트 오류율을 달성하는 것을 확인할 수 있다. 또한, 그래프의 결과로부터 초반 반복 횟수에서의 높은 신뢰도를 통해, 높은 신뢰도를 이후 반복 횟수에서 전파하며 제안하는 알고리즘이 후반 반복 횟수에서도 기존 제안된 기술에 비해 향상된 오류 정정 성능을 가짐을 나타낸다. 4 is a graph showing average bit error rate performance according to weight α values (α=1, 0.8, 0.5, 0.3, 0.1) and the number of iterations of the conventional deep learning-based trustworthy wave decoder and the proposed decoder. The experiment was measured in an AWGN channel environment with EbNo = 4dB using BCH codes with (n,k) = (63,45). According to the results of the graph, it can be confirmed that the algorithm proposed in the present invention achieves a lower bit error rate through faster convergence in the initial number of decoding iterations than a decoder using a conventional multiple loss function (α=1). In addition, from the results of the graph, high reliability is propagated in subsequent iterations through high reliability at the initial number of iterations, indicating that the proposed algorithm has improved error correction performance compared to the existing proposed technique even in the second half of iterations.

도 5는 본 발명의 실시예에 따라 제안된 알고리즘의 복잡도 성능을 나타낸 그래프로, 복호에 필요한 신뢰전파 복호기의 평균 반복 횟수를 도시한 것이다. 그래프의 평균 반복 횟수는 기존 다중 손실 함수 기반의 딥러닝 복호기의 필요 반복 횟수와의 상대적인 값을 표현한다. 5 is a graph showing the complexity performance of the proposed algorithm according to an embodiment of the present invention, and shows the average number of iterations of the radio wave decoder required for decoding. The average number of iterations of the graph expresses a relative value with the number of required iterations of an existing multi-loss function-based deep learning decoder.

도 5는 본 발명에서 제안한 알고리즘의 상대적 복잡도를 나타낸다.5 shows the relative complexity of the algorithm proposed in the present invention.

그래프에서 표현된 상대적 복잡도(CRel)는 기존 제안된 기술의 평균 필요 복호 반복 횟수(Iml)와 제안하는 알고리즘을 사용했을 때의 평균 복호 반복 횟수(

Figure 112021037575891-pat00007
)의 비율(
Figure 112021037575891-pat00008
)로 계산하였다. 그래프의 결과에 따르면 제안하는 알고리즘은 값의 설정에 따라 최대 10% 이상의 수렴 속도 향상을 통한 복잡도 이득을 얻을 수 있음을 확인할 수 있다. The relative complexity (C Rel ) expressed in the graph is the average number of required decoding iterations (I ml ) of the existing proposed technique and the average number of decoding iterations (when using the proposed algorithm).
Figure 112021037575891-pat00007
) of the ratio (
Figure 112021037575891-pat00008
) was calculated. According to the results of the graph, it can be confirmed that the proposed algorithm can obtain a complexity gain through convergence speed improvement of up to 10% or more depending on the value setting.

도 4 및 도 5를 통해 제안한 알고리즘은 복잡도 및 오류 정정 성능에 있어서 기존 알고리즘의 성능을 향상시킴을 알 수 있으며, 이는 기존 딥러닝 기반 신뢰전파 복호기의 높은 오류정정 성능을 유지하며, 딥러닝의 적용에 있어서 문제점으로 지적 받는 심층 신경망의 연산에 높은 복잡도를 줄여 딥러닝 기반 복호기의 실제적인 환경에서의 사용에 기여할 것으로 기대된다. 또한, 본 발명의 실시예에 따른 기술은 학습 과정을 개선하는 방식이므로, 선행 특허의 구조에 한정되는 것이 아닌, 딥러닝 기반 복호기의 내부 구조가 변경되더라도 학습 과정에서 적용되어 복호기의 복잡도 감소 및 성능을 향상시킬 수 있다. It can be seen from FIGS. 4 and 5 that the proposed algorithm improves the performance of existing algorithms in terms of complexity and error correction performance, which maintains high error correction performance of existing deep learning-based trust propagation decoders and applies deep learning. It is expected to contribute to the use of deep learning-based decoders in a practical environment by reducing the high complexity of deep neural network calculations, which is pointed out as a problem in In addition, since the technology according to the embodiment of the present invention is a method of improving the learning process, it is not limited to the structure of the prior patent, and even if the internal structure of the deep learning-based decoder is changed, it is applied in the learning process to reduce the complexity and performance of the decoder. can improve

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (9)

고속 수렴성을 갖는 딥러닝 기반 신뢰전파 복호기의 학습 방법에 있어서,
딥러닝 기반 신뢰전파 복호기에서 상기 딥러닝 기반 신뢰전파 복호기의 심층 신경망에 포함되는 중간층의 출력 값이 패리티 검사를 만족하는 경우 상기 중간층 이후의 층들에 대한 연산 없이 상기 중간층의 출력 값을 복호 결과로 출력하는 특성을 반영한 그리디 알고리즘(Greedy algorithm)을 기반으로 그래디언트 소멸 문제를 해결하기 위한 손실 함수를 재정의하는 단계; 및
상기 재정의된 손실 함수를 통해 상기 심층 신경망에 포함되는 각 은닉층의 학습을 수행하여 복호 결과를 출력하는 단계
를 포함하는, 딥러닝 기반 신뢰전파 복호기의 학습 방법.
In the learning method of a deep learning-based radio propagation decoder having high-speed convergence,
In the deep learning-based trustworthy wave decoder, if the output value of the middle layer included in the deep neural network of the deep learning-based trustworthy wave decoder satisfies the parity check, the output value of the middle layer is output as a decoding result without calculation of layers after the middle layer. Redefining a loss function to solve the gradient vanishing problem based on a greedy algorithm that reflects the characteristics of; and
Outputting a decoding result by performing learning of each hidden layer included in the deep neural network through the redefined loss function
A learning method of a deep learning-based propagation trust decoder including a.
제1항에 있어서,
상기 재정의하는 단계는
상기 딥러닝 기반 신뢰전파 복호기의 반복 횟수에 따른 가중치를 상기 손실 함수에 설정하며, 상기 반복 횟수가 낮을수록 출력 값에 대한 손실에 큰 가중치를 반영하여 손실 함수를 재정의하는, 딥러닝 기반 신뢰전파 복호기의 학습 방법.
According to claim 1,
The above redefining step is
A deep learning-based trust wave decoder that sets a weight according to the number of iterations of the deep learning-based trust wave decoder to the loss function, and redefines the loss function by reflecting a large weight on the loss for an output value as the number of iterations decreases. learning method.
제2항에 있어서,
상기 재정의하는 단계는
상기 딥러닝 기반 신뢰전파 복호기의 상기 심층 신경망에 포함되는 특정 은닉층에 대한 학습 과정에서 상기 특정 은닉층에 인접한 은닉층의 출력 결과에 대해 가중치를 둔 학습을 진행하는 것을 특징으로 하는, 딥러닝 기반 신뢰전파 복호기의 학습 방법.
According to claim 2,
The above redefining step is
In the process of learning a specific hidden layer included in the deep neural network of the deep learning-based trust wave decoder, weighted learning is performed on an output result of a hidden layer adjacent to the specific hidden layer. Deep learning based trust wave decoder learning method.
제1항에 있어서,
상기 그리디 알고리즘을 통한 상기 딥러닝 기반 신뢰전파 복호기의 상기 심층 신경망에 포함되는 중간에 위치하는 은닉층은, 상기 심층 신경망에 포함되는 후반에 위치하는 은닉층으로 기 설정된 신뢰도 이상의 메시지를 전파하는, 딥러닝 기반 신뢰전파 복호기의 학습 방법.
According to claim 1,
The hidden layer located in the middle included in the deep neural network of the deep learning-based trust propagation decoder through the greedy algorithm propagates a message having a predetermined reliability or higher to the hidden layer located in the second half included in the deep neural network. Deep learning A method for learning based propagation-based propagation decoder.
제2항에 있어서,
상기 출력하는 단계는
상기 손실 함수에 대한 가중치의 도입으로 상기 딥러닝 기반 신뢰전파 복호기의 상기 심층 신경망에 포함되는 각 은닉층이 기 설정된 반복 횟수 이후에 복호 결과를 출력하도록 학습하며, 상기 복호 결과를 출력하는, 딥러닝 기반 신뢰전파 복호기의 학습 방법.
According to claim 2,
The output step is
By introducing a weight for the loss function, each hidden layer included in the deep neural network of the deep learning-based trust wave decoder learns to output a decoding result after a predetermined number of iterations, and outputs the decoding result. Based on deep learning Learning method of propagation propagation decoder.
고속 수렴성을 갖는 딥러닝 기반 신뢰전파 복호기에 있어서,
딥러닝 기반 신뢰전파 복호기에서 상기 딥러닝 기반 신뢰전파 복호기의 심층 신경망에 포함되는 중간층의 출력 값이 패리티 검사를 만족하는 경우 상기 중간층 이후의 층들에 대한 연산 없이 상기 중간층의 출력 값을 복호 결과로 출력하는 특성을 반영한 그리디 알고리즘(Greedy algorithm)을 기반으로 그래디언트 소멸 문제를 해결하기 위한 손실 함수를 재정의하는 것을 특징으로 하는, 딥러닝 기반 신뢰전파 복호기.
In a deep learning-based reliability propagation decoder having high-speed convergence,
In the deep learning-based trustworthy wave decoder, if the output value of the middle layer included in the deep neural network of the deep learning-based trustworthy wave decoder satisfies the parity check, the output value of the middle layer is output as a decoding result without calculation of layers after the middle layer. A deep learning-based propagation decoder characterized by redefining a loss function to solve the gradient extinction problem based on a greedy algorithm that reflects the characteristics of.
제6항에 있어서,
상기 딥러닝 기반 신뢰전파 복호기는
상기 딥러닝 기반 신뢰전파 복호기의 반복 횟수에 따른 가중치를 상기 손실 함수에 설정하며, 상기 반복 횟수가 낮을수록 출력 값에 대한 손실에 큰 가중치를 반영하여 손실 함수를 재정의하는, 딥러닝 기반 신뢰전파 복호기.
According to claim 6,
The deep learning-based propagation trust decoder
A deep learning-based trust wave decoder that sets a weight according to the number of iterations of the deep learning-based trust wave decoder to the loss function, and redefines the loss function by reflecting a large weight on the loss for an output value as the number of iterations decreases. .
제7항에 있어서,
상기 재정의된 손실 함수는
상기 손실 함수에 대한 가중치의 도입을 통해 상기 딥러닝 기반 신뢰전파 복호기의 상기 심층 신경망에 포함되는 각 은닉층의 학습이 상기 각 은닉층에 인접한 은닉층의 출력 결과에 대해 가중치를 둔 학습으로 진행되도록 하는, 딥러닝 기반 신뢰전파 복호기.
According to claim 7,
The redefined loss function is
Through the introduction of weights for the loss function, learning of each hidden layer included in the deep neural network of the deep learning-based radio wave decoder proceeds with weighted learning for the output result of the hidden layer adjacent to each hidden layer. Deep, A running-based propagation propagation decoder.
제8항에 있어서,
상기 각 은닉층은
기 설정된 반복 횟수 이후에 복호 결과를 출력하도록 학습되는 것을 특징으로 하는, 딥러닝 기반 신뢰전파 복호기.
According to claim 8,
Each of the hidden layers
Characterized in that it is learned to output a decoding result after a predetermined number of iterations, a deep learning-based radio-relief decoder.
KR1020210041527A 2021-03-31 2021-03-31 Deep learning based belief propagation decoder with fast convergence and the learning method thereof KR102547443B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210041527A KR102547443B1 (en) 2021-03-31 2021-03-31 Deep learning based belief propagation decoder with fast convergence and the learning method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210041527A KR102547443B1 (en) 2021-03-31 2021-03-31 Deep learning based belief propagation decoder with fast convergence and the learning method thereof

Publications (2)

Publication Number Publication Date
KR20220135609A KR20220135609A (en) 2022-10-07
KR102547443B1 true KR102547443B1 (en) 2023-06-27

Family

ID=83595915

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210041527A KR102547443B1 (en) 2021-03-31 2021-03-31 Deep learning based belief propagation decoder with fast convergence and the learning method thereof

Country Status (1)

Country Link
KR (1) KR102547443B1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102262554B1 (en) * 2017-12-14 2021-06-09 한국전자통신연구원 Method and apparatus for encoding and decoding image using prediction network
KR20210015512A (en) * 2019-08-02 2021-02-10 한국전자통신연구원 Server, system and method for recognizing gesture based on deep neural network algorithm

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
A study of greedy layer-wise training on deep neural networks (semantic scholar, 2014년 12월)

Also Published As

Publication number Publication date
KR20220135609A (en) 2022-10-07

Similar Documents

Publication Publication Date Title
CN109660264B (en) High performance polar code decoding algorithm
US8321747B2 (en) QC-LDPC code decoder and corresponding decoding method
KR100891782B1 (en) Apparatus and method for correcting of forward error in high data transmission system
WO2021164064A1 (en) Method and device for channel coding and error correction decoding, and storage medium
CN105763203B (en) Multi-element LDPC code decoding method based on hard reliability information
US10892783B2 (en) Apparatus and method for decoding polar codes
CN110233628B (en) Self-adaptive belief propagation list decoding method for polarization code
TWI731696B (en) A method of decoding the polar codes based on belief propagation
CN110798228A (en) Polarization code turning decoding method and system based on deep learning
CN111669187B (en) Decoding method and device, equipment and storage medium
CN104184480B (en) A kind of LDPC for reducing complexity improves interpretation method
KR102092634B1 (en) Low density parity check code decoder and method for decoding ldpc code
WO2019096184A1 (en) Method and device for decoding staircase code, and storage medium
WO2017045142A1 (en) Decoding method and decoding device for ldpc truncated code
KR102547443B1 (en) Deep learning based belief propagation decoder with fast convergence and the learning method thereof
CN116614142A (en) Combined decoding method based on BPL decoding and OSD decoding
KR20210099388A (en) Ldpc decoding method and ldpc decoding apparatus
Teng et al. Convolutional neural network-aided bit-flipping for belief propagation decoding of polar codes
CN115694515A (en) Neural network assisted polarization code decoding method and device based on key bits
WO2021073338A1 (en) Decoding method and decoder
CN113014271A (en) Polarization code BP decoding method for reducing turnover set
EP4072023A1 (en) Decoding method, decoder, and decoding device
GB2487232A (en) Bit Flipping in LDPC/Turbo Decoding
de Oliveira et al. Q-Learning-Driven BP decoding for Polar Codes
Li et al. Deep Learning-Assisted Adaptive Dynamic-SCLF Decoding of Polar Codes

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right