WO2020145430A1 - Ldpc (low density parity check) 코딩된 신호를 디코딩하는 방법 및 이를 위한 단말 - Google Patents

Ldpc (low density parity check) 코딩된 신호를 디코딩하는 방법 및 이를 위한 단말 Download PDF

Info

Publication number
WO2020145430A1
WO2020145430A1 PCT/KR2019/000319 KR2019000319W WO2020145430A1 WO 2020145430 A1 WO2020145430 A1 WO 2020145430A1 KR 2019000319 W KR2019000319 W KR 2019000319W WO 2020145430 A1 WO2020145430 A1 WO 2020145430A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
neural network
terminal
sequence
decoding
Prior art date
Application number
PCT/KR2019/000319
Other languages
English (en)
French (fr)
Inventor
전기준
이상림
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2019/000319 priority Critical patent/WO2020145430A1/ko
Priority to US17/309,931 priority patent/US11595155B2/en
Publication of WO2020145430A1 publication Critical patent/WO2020145430A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0056Systems characterized by the type of code used
    • H04L1/0057Block codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/05Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
    • H03M13/11Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits using multiple parity bits
    • H03M13/1102Codes on graphs and decoding on graphs, e.g. low-density parity check [LDPC] codes
    • H03M13/1105Decoding
    • H03M13/1111Soft-decision decoding, e.g. by means of message passing or belief propagation algorithms
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/05Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
    • H03M13/11Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits using multiple parity bits
    • H03M13/1102Codes on graphs and decoding on graphs, e.g. low-density parity check [LDPC] codes
    • H03M13/1105Decoding
    • H03M13/1111Soft-decision decoding, e.g. by means of message passing or belief propagation algorithms
    • H03M13/1125Soft-decision decoding, e.g. by means of message passing or belief propagation algorithms using different domains for check node and bit node processing, wherein the different domains include probabilities, likelihood ratios, likelihood differences, log-likelihood ratios or log-likelihood difference pairs
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/63Joint error correction and other techniques
    • H03M13/635Error control coding in combination with rate matching
    • H03M13/6362Error control coding in combination with rate matching by puncturing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0045Arrangements at the receiver end
    • H04L1/0047Decoding adapted to other signal detection operation
    • H04L1/005Iterative decoding, including iteration between signal detection and decoding operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0056Systems characterized by the type of code used
    • H04L1/0067Rate matching
    • H04L1/0068Rate matching by puncturing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Definitions

  • the present invention relates to wireless communication, and more particularly, to a method for decoding an LDPC coded signal using a trained neural network and a terminal therefor.
  • next generation mobile communication system after 4G, multiple senders and receivers are assuming multi-way cooperative communication by exchanging information by constructing a network, which is intended to maximize information transmission rate and prevent communication shadow areas from occurring.
  • the information theory it is a way to increase the transmission speed by dynamically forming multi-point channels on a network and transmitting information more flexibly than to form and transmit all information in a point-to-point channel in this communication environment. It becomes possible to approach the channel capacity.
  • the design of the code close to the network channel capacity from a practical non-theoretical aspect is a difficult problem that has not yet been solved and is one of the important problems to be solved in the future. Accordingly, it is expected that turbo codes or LDPC (Low Density Parity Check) codes optimized for point-to-point channels will be used in communication systems in the near future such as 5G.
  • LDPC Low Density Parity Check
  • LDPC code has good error correction performance and is capable of high parallelism.
  • LDPC codes have been commercialized in many standards such as DVB-T2, WLAN, and NR due to advantages such as high data throughput and ease of hardware implementation.
  • VNs high degree variable nodes
  • degree-2 VNs degree-2 VNs
  • degree-1 VNs degree-1 VNs
  • punctured VNs should be included to have good waterfall performance.
  • iterative decoder based on belief propagation (BP) such as sum product algorithm and min-sum algorithm is used as a decoder of LDPC code. Iterative decoder is a low complexity decoder with linear complexity.
  • Iterative decoder is known as an optimal decoder approaching maximum-likelihood from an asymptotic point of view, such as when the codeword length is infinite.
  • it is a suboptimal decoder. This is because there are cycles in the parity check matrix (PCM) used for sequences with finite codeword lengths, and these cycles cause a dependency on messages when iterative decoding is performed.
  • PCM parity check matrix
  • the shorter the codeword length the worse the performance loss of the PCM.
  • polar codes have been adopted in NRs instead of LDPC codes as channel coding schemes for control channels.
  • the technical problem to be achieved in the present invention is to provide a method for a terminal to decode an LDPC coded signal.
  • the present invention provides a method for a terminal to decode a signal coded with a short low density parity check (LDPC) code having a relatively short codeword length using a trained neural network.
  • LDPC low density parity check
  • a method for a UE to decode an LDPC coded signal comprises demodulating a LDPC (Low Density Parity Check) coded first signal, and the demodulated through a trained neural network. And decoding the second signal obtained from the first signal. Meanwhile, the second signal may be obtained using an output sequence generated based on the learned neural network and a log likelihood ratio (LLR) sequence of the first signal.
  • LDPC Low Density Parity Check
  • the LDPC coded first signal may be a short LDPC coded signal having a codeword length smaller than a predetermined value.
  • an output sequence generated based on the learned neural network may include a punctured bit
  • the second signal may be composed of a combination of the punctured bit and the LLR sequence of the first signal.
  • the second signal may include a combination of an output sequence generated based on the learned neural network and a parity bit included in the first signal.
  • an output sequence generated based on the learned neural network includes a punctured bit and a codeword sequence
  • the second signal is a weighted sum of the LLR sequence of the codeword sequence and the first signal. (weighted sum) and a combination of the punctured bits.
  • the neural network may be learned through setting parameters for learning and configuring a hidden layer of the neural network.
  • the step of configuring the hidden layer may include determining the number of layers, the size of each layer, and a cost function.
  • the size of the first layer of the hidden layer may be the same as the sequence size of the demodulated first signal.
  • FIG. 1 is a diagram illustrating a system for implementing the present invention.
  • FIG. 2 exemplarily shows a structure of a subframe in which a data channel and a control channel are TDM.
  • FIG. 3 is a diagram showing the structure of a terminal for decoding an LDPC coded signal according to an aspect of the present invention.
  • FIG. 4 is a diagram illustrating a deep learning-based preprocessor design of a terminal according to an aspect of the present invention.
  • FIG. 5 is a diagram showing a protograph and encoder input/output of a specific LDPC code in a terminal according to an aspect of the present invention.
  • 6 to 7 are diagrams for explaining a method in which a terminal utilizes an original LLR and a preprocessor output according to an aspect of the present invention.
  • FIG. 10 is a diagram illustrating a training process of a deep learning based preprocessor according to an aspect of the present invention.
  • FIG. 11 is a diagram showing block error rate (BLER) performance according to a decoder type.
  • FIG. 12 is a diagram for explaining a method for a terminal to decode a signal according to an aspect of the present invention.
  • the terminal collectively refers to a mobile or fixed user end device such as a user equipment (UE), a mobile station (MS), or an advanced mobile station (AMS).
  • UE user equipment
  • MS mobile station
  • AMS advanced mobile station
  • the base station refers to any node of a network terminal communicating with a terminal such as Node B, eNode B, Base Station, AP (Access Point), gNode B (gNB).
  • a user equipment In a mobile communication system, a user equipment (User Equipment) can receive information through a downlink from a base station, and the user equipment can also transmit information through an uplink.
  • the information transmitted or received by the terminal includes data and various control information, and various physical channels exist according to the type and purpose of the information transmitted or received by the terminal.
  • CDMA code division multiple access
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • OFDMA orthogonal frequency division multiple access
  • SC-FDMA single carrier frequency division multiple access
  • CDMA may be implemented by radio technology such as Universal Terrestrial Radio Access (UTRA) or CDMA2000.
  • TDMA may be implemented with wireless technologies such as Global System for Mobile communications (GSM)/General Packet Radio Service (GPRS)/Enhanced Data Rates for GSM Evolution (EDGE).
  • GPRS General Packet Radio Service
  • EDGE Enhanced Data Rates for GSM Evolution
  • OFDMA may be implemented with wireless technologies such as IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802-20, and Evolved UTRA (E-UTRA).
  • UTRA is part of the Universal Mobile Telecommunications System (UMTS).
  • UMTS Universal Mobile Telecommunications System
  • 3GPP 3rd Generation Partnership Project
  • LTE long term evolution
  • E-UMTS Evolved UMTS
  • LTE-A Advanced
  • 3GPP LTE Advanced
  • FIG. 1 is a diagram illustrating a system for implementing the present invention.
  • a wireless communication system includes a base station (BS) 10 and one or more terminals (UE) 20.
  • the transmitter can be part of the BS 10, and the receiver can be part of the UE 20.
  • the BS 10 may include a processor 11, a memory 12, and a radio frequency (RF) unit 13 (transmitter and receiver).
  • the processor 11 may be configured to implement the proposed procedures and/or methods described in the UE 20 herein.
  • the memory 12 is combined with the processor 11 to store various information for operating the processor 11.
  • the RF unit 13 is coupled to the processor 11 to transmit and/or receive radio signals.
  • the UE 20 may include a processor 21, a memory 22, and an RF unit 23 (transmitter and receiver).
  • the processor 21 can be configured to implement the proposed procedures and/or methods described in this application.
  • the memory 22 is combined with the processor 21 to store various information for operating the processor 21.
  • the RF unit 23 is coupled to the processor 21 to transmit and/or receive radio signals.
  • BS 10 and/or UE 20 may have a single antenna and multiple antennas. When at least one of BS 10 and UE 20 has multiple antennas, the wireless communication system may be referred to as a multiple input multiple output (MIMO) system.
  • MIMO multiple input multiple output
  • the processor 21 of the terminal and the processor 11 of the base station process signals and data except for functions and storage functions of the terminal 20 and the base station 10 to receive or transmit signals, respectively.
  • the processors 11 and 21 are not specifically mentioned below. It can be said that even if there is no mention of the processors 11 and 21, it performs a series of operations such as data processing, not a function of receiving or transmitting a signal.
  • next-generation 5G systems scenarios can be classified into Enhanced Mobile BroadBand (eMBB)/Ultra-reliable Machine-Type Communications (uMTC)/Massive Machine-Type Communications (mMTC).
  • eMBB is a next-generation mobile communication scenario with characteristics such as High Spectrum Efficiency, High User Experienced Data Rate, High Peak Data Rate
  • uMTC is a next-generation mobile communication scenario with characteristics such as Ultra Reliable, Ultra Low Latency, and Ultra High Availability ( For example, V2X, Emergency Service, Remote Control)
  • mMTC are next-generation mobile communication scenarios having low cost, low energy, short packet, and mass connectivity characteristics (for example, IoT).
  • FIG. 2 exemplarily shows a structure of a subframe in which a data channel and a control channel are TDM.
  • a structure in which a control channel and a data channel as shown in FIG. 2 are time-division multiplexed (TDM) as a purpose of minimizing latency may be considered as one of the frame structures. .
  • the hatched area indicates a transmission region of a physical downlink control channel (eg, Physical Downlink Control Channel (PDCCH)) for DCI (Downlink Control Information) delivery, and the last symbol is UCI (Uplink Control Information) delivery. It represents a transmission region of a physical uplink control channel (eg, Physical Uplink Control CHannel (PUCCH)).
  • the DCI which is control information that the eNB delivers to the UE, may include information about cell configuration that the UE needs to know, DL specific information such as DL scheduling, and UL specific information such as UL grant.
  • UCI which is control information that the UE transmits to the base station, may include ACK/NACK report of HARQ for DL data, CSI report for DL channel status, and scheduling request (SR).
  • a DL or UL section may be flexibly set for DL/UL flexibility in an area without hatching marks.
  • a data channel for DL data transmission eg, a physical downlink shared channel
  • a data channel for UL data transmission eg, a physical uplink shared channel (Physical Uplink Shared CHannel, PUSCH)
  • PUSCH Physical Uplink Shared CHannel
  • the feature of this structure is that the DL transmission and the UL transmission are sequentially performed in one subframe, and the eNB can transmit DL data in the subframe and receive HARQ ACK/NACK signals for the DL data from the UE. As a result, when a data transmission error occurs, it takes less time to retransmit the data, thereby minimizing the latency of the final data transmission.
  • a time gap is required for a base station and a UE to switch from a transmission mode to a reception mode or a process to switch from a reception mode to a transmission mode.
  • some OFDM symbols at a time point of switching from DL to UL are set as a guard period (GP).
  • LDPC code is advantageous for error correction and features high parallelism.
  • LDPC code has been commercialized in many standards such as DVB-T2, WLAN, and NR due to advantages such as high data throughput and ease of hardware implementation.
  • parity check matrix (PCM) of LDPC code high degree variable nodes (VNs), degree-2 VNs, degree-1 VNs and punctured VNs should be included to have good waterfall performance.
  • iterative decoders based on belief propagation such as sum product algorithm and min-sum algorithm, can be used as LDPC code decoder, which is a low complexity decoder with linear complexity.
  • Iterative decoder is known as an optimal decoder approaching maximum-likelihood from an asymptotic point of view, such as when the codeword length is infinite.
  • it is a suboptimal decoder in a practical system such as the case where the codeword length is finite. This is because there is a cycle in the actual parity check matrix (PCM) used for the finite codeword length, which causes a dependency on the message during iterative decoding. Therefore, the shorter the codeword length, the more severe the PCM performance loss. For this reason, polar codes have been adopted in NRs instead of LDPC codes as channel coding schemes for control channels.
  • PCM parity check matrix
  • the preprocessor can be a component of the processor.
  • a preprocessing aided decoder based on deep learning is described.
  • a training algorithm of a preprocessor aided decoder for decoding a short LDPC coded signal is described.
  • performance evaluation of a terminal according to an aspect of the present invention will be described.
  • the belief propagation-based iterative decoding algorithm has clear limitations for PCM where there are multiple short cycles. Specifically, upon iterative decoding, a message dependency occurs by converging to a local optimum due to the reception of a self message, and as a result, performance degradation occurs. In order to solve this problem, it is necessary to improve the reliability of the soft value input sequence (eg log-likelihood ratio, LLR) of the iterative decoder.
  • LLR log-likelihood ratio
  • the present invention proposes a preprocessor that performs this LLR enhancer function. Because the characteristics of LDPC code where punctured bits are essential for good performance, the fact that the soft value of the punctured bit part through the preprocessor can be predicted means that the preprocessor can greatly improve performance.
  • the preprocessor aided decoder can be designed with the structure shown in FIG. 3.
  • the preprocessor is not easily modeled mathematically, and has a property of being constructed by using deep learning (DL).
  • DL deep learning
  • a deep learning-based preprocessor design may be divided into 1) training set generation and 2) Dense layer construction according to a supervised learning method.
  • the training set generation can consider the following four.
  • PCM characteristics are represented by possible codeword ensembles. Batch size is a hyper parameter as to whether to train all distinct codewords or some distinct codewords, and there is a trade-off between performance and training phase complexity.
  • the number of epochs determines training accuracy and it is important to determine the appropriate number of epochs. If the number of epochs is increased excessively, overfitting may occur. Covering SNR range affects practical performance evaluation. Also, since the deep learning algorithm of the present invention is supervised learning, the input/label sequence must be determined accordingly.
  • the label sequence may be a length K information sequence, a length N codeword or a punctured intermediate parity bit sequence length N+N p codeword.
  • Dense layer construction can consider the following three things.
  • the above three parameters are hyper parameters that are generally considered in deep layer-based deep learning. Since the Dense layer configuration will consist of applying the reLU (rectified linear unit) functions and sigmoid function in the final output layer, the cross entropy function is used as the cost function. It is important to properly find the remaining hyper parameters as trial and error based on training accuracy, overfitting, and performance evaluation results.
  • the Dense layer configuration will consist of applying the reLU (rectified linear unit) functions and sigmoid function in the final output layer, the cross entropy function is used as the cost function. It is important to properly find the remaining hyper parameters as trial and error based on training accuracy, overfitting, and performance evaluation results.
  • the preprocessor can be considered an LLR enhancer or LLR initializer.
  • 5 is a diagram showing a specific LDPC code protograph and encoder input/output. Referring to FIGS. 5 to 9, the following four methods are proposed as a method of utilizing the original LLR and the preprocessor output.
  • FIG. 6 is an example of a deep learning based preprocessor aided iterative decoder according to method 1). According to method 1), considering a labeled output sequence of length N+N p (targeting an encoded bit sequence), a soft value of length N+N p is extracted as a preprocessor output and used as an LLR input.
  • FIG. 7 is an example of a deep learning based preprocessor aided iterative decoder according to method 2).
  • the LLR input corresponding to the punctured bit is used as the preprocessor output by considering the labeled output sequence of length N p (targeting the punctured bit sequence).
  • N p targeting the punctured bit sequence.
  • LLR values in punctured bits are initialized to zero due to uncertainty.
  • FIG. 8 is an example of a deep learning based preprocessor aided iterative decoder according to method 3).
  • a soft value of length K is extracted as a preprocessor output in consideration of a labeled output sequence of length K (targeting a systematic information bit sequence) and used as an LLR input of a systematic bit.
  • the parity (P 1 -P 6 ) bit of the demodulated signal can be used as an input of an iterative decoder.
  • FIG. 9 is an example of a deep learning based preprocessor aided iterative decoder according to method 4).
  • a soft value of length N+N p is extracted as a preprocessor output by considering a labeled output sequence of length N+N p (targeting an encoded bit sequence), and a punctured bit (e.g., S 1 , S 2 ), replace the LLR value corresponding to the preprocessor output.
  • the LLR input of the remaining length N codeword sequence uses the original LLR value and the weighted sum of the preprocessor output as the LLR input.
  • the Regular character represents a scalar and the Bold character represents a vector or matrix.
  • Blackboard bold character means set.
  • bias vector Is defined as, The matrix The It is a vector.
  • L means maximum layer index.
  • sigmoid operation of L lyaer is omitted. (Sigmoid operation is excluded because soft values with positive and negative values are required). However, in the training process, a sigmoid operation is required to obtain the cost function based on cross-entropy, and the related training algorithm description will be described.
  • Input log-likelihood ratio (LLR) sequence to iterative decoder according to method 1 to method 4 Is defined as follows.
  • Decoding is performed in the conventional manner by using as an input.
  • FIG. 10 is a diagram illustrating a deep learning-based preprocessor training process.
  • the hyper-parameter setting (s1010), system-parameter setting (s1020) and input/label sequence setting (s1030) are performed.
  • the batch size, the number of epochs, and the depth and width of the layer are set.
  • Table 1 below summarizes the training process (s1040).
  • FIG. 11 is a diagram showing block error rate (BLER) performance according to a decoder type. More specifically, FIG. 11 shows a block error rate (BLER) performance according to a decoder type in an AWGN channel environment when an information sequence having a length of 8 and an NR-LDPC code having a code rate of 1/2 are used and QPSK modulation is applied. will be.
  • the preprocessor aided BP decoder assumes the above-described method 1, shows better performance than using a BP (Belief Propagation) decoder or a DL (deep learning) decoder alone, and approaches the maximum-likelihood decoder performance. Can be confirmed. In other words, it can be said that the performance of the iterative decoder for short LDPC code is improved.
  • BP Belief Propagation
  • DL deep learning
  • FIG. 12 is a diagram for explaining a method for a terminal to decode a signal according to an aspect of the present invention.
  • a method for a UE to decode a signal includes demodulating a LDPC (Low Density Parity Check) coded first signal (s1210), and the demodulated first signal through a trained neural network. It may include the step of decoding the second signal obtained from (s1220). Meanwhile, the second signal may be obtained using an output sequence generated based on the learned neural network and a log likelihood ratio (LLR) sequence of the first signal.
  • LDPC Low Density Parity Check
  • the LDPC coded first signal may be a short LDPC coded signal having a codeword length smaller than a predetermined value.
  • an output sequence generated based on the learned neural network may include a punctured bit
  • the second signal may be composed of a combination of the punctured bit and the LLR sequence of the first signal.
  • the second signal may include a combination of an output sequence generated based on the learned neural network and a parity bit included in the first signal.
  • an output sequence generated based on the learned neural network includes a punctured bit and a codeword sequence
  • the second signal is a weighted sum of the LLR sequence of the codeword sequence and the first signal. (weighted sum) and a combination of the punctured bits.
  • the neural network may be learned through setting parameters for learning and configuring a hidden layer of the neural network.
  • the step of configuring the hidden layer may include determining the number of layers, the size of each layer, and a cost function.
  • the size of the first layer of the hidden layer may be the same as the sequence size of the demodulated first signal.
  • a terminal for decoding a signal may include a decoder and a processor for decoding a signal.
  • the processor demodulates a LDPC (Low Density Parity Check) coded first signal and controls the decoder to decode a second signal obtained from the demodulated first signal through a trained neural network.
  • the second signal may be obtained using an output sequence generated based on the learned neural network and a log likelihood ratio (LRR) sequence of the first signal.
  • LRR log likelihood ratio
  • the LDPC coded first signal may be a short LDPC coded signal having a codeword length smaller than a predetermined value.
  • an output sequence generated based on the learned neural network may include a punctured bit
  • the second signal may be composed of a combination of the punctured bit and the LLR sequence of the first signal.
  • the second signal may include a combination of an output sequence generated based on the learned neural network and a parity bit included in the first signal.
  • an output sequence generated based on the learned neural network includes a punctured bit and a codeword sequence
  • the second signal is a weighted sum of the LLR sequence of the codeword sequence and the first signal. (weighted sum) and a combination of the punctured bits.
  • the neural network may be learned through setting parameters for learning and configuring a hidden layer of the neural network.
  • the processor may configure the hidden layer based on determining the number of layers, the size of each layer, and a cost function.
  • the size of the first layer of the hidden layer may be the same as the sequence size of the demodulated first signal.
  • the present invention can be applied industrially in various wireless communication systems such as 3GPP LTE/LTE-A and 5G systems.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Probability & Statistics with Applications (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Error Detection And Correction (AREA)

Abstract

단말이 신호를 디코딩하는 방법이 제안된다. 특히, 단말이 신호를 디코딩하는 방법은 LDPC (Low Density Parity Check) 코딩된 제 1 신호를 복조하는 단계, 학습된 신경망(trained neural network)을 통해 상기 복조된 제 1 신호로부터 획득되는 제 2 신호를 디코딩하는 단계를 포함한다. 상기 제 2 신호는 상기 학습된 신경망에 기초하여 생성되는 출력 시퀀스 및 상기 제 1 신호의 LLR (Log Likelihood Ratio) 시퀀스를 이용하여 획득된다.

Description

LDPC (LOW DENSITY PARITY CHECK) 코딩된 신호를 디코딩하는 방법 및 이를 위한 단말
본 발명은 무선통신에 관한 것으로, 보다 상세하게는, 학습된 신경망 (trained neural network)를 이용하여 LDPC 코딩된 신호를 디코딩하는 방법 및 이를 위한 단말에 관한 것이다.
4G 이후의 차세대 이동통신 시스템에서는 다수의 송신자와 수신자가 네트워크를 구성하여 정보를 주고 받는 다자간 협력 통신을 가정하고 있는데 이는 정보 전송률을 극대화하고 통신 음영 지역이 잘 발생하지 않게 하고자 함이다. 정보이론에 따르면 이러한 통신 환경에서 모든 정보를 점대점 채널을 형성해서 전송하는 것보다 네트워크 상에서 다중점 채널을 적절히 형성해서 정보를 유동적으로 전송하는 것이 전송 속도를 더 높일 수 있는 방법이 되며 전체 네트워크의 채널 용량에 근접할 수 있게 된다. 그러나 이론적이 아닌 실용적인 측면에서 네트워크 채널 용량에 근접하는 부호의 설계는 아직까지 해결하지 못한 어려운 문제이며 앞으로 해결해야 할 중요한 문제 중 하나이다. 이에 따라 5G 등 가까운 미래의 통신 시스템에서는 여전히 점대점 채널에 최적화되어 있는 터보 코드나 LDPC (Low Density Parity Check) 코드가 사용될 것으로 예상된다.
한편, LDPC code는 좋은 error correction 성능을 가지고, high parallelism이 가능한 것이 특징이다. 또한, 높은 data throughput 제공, hardware implementation 용이성 등의 강점들로 인해서 LDPC code는 DVB-T2, WLAN, NR과 같은 많은 표준에서 상용화 되었다. 일반적으로 LDPC code parity check matrix의 설계 시 좋은 waterfall performance를 가지려면 high degree variable nodes (VNs), degree-2 VNs과 degree-1 VNs 그리고 punctured VNs들이 포함되어야 한다. 또한, LDPC code의 decoder로는 sum product algorithm, min-sum algorithm 등 belief propagation (BP)에 기반한 iterative decoder가 사용된다. iterative decoder는 linear complexity를 가지는 저복잡도 decoder이다.
Iterative decoder는 코드워드의 길이 (codeword length)가 무한한 경우와 같이 점근적인 (asymptotic) 관점에서는 maximum-likelihood에 접근하는 최적인 (optimal) decoder로 알려져 있다. 그러나 코드워드 길이가 유한한 실제 system에서는 최적이 아닌 (suboptimal) decoder이다. 이는 코드워드 길이가 유한한 시퀀스에 사용되는 parity check matrix (PCM)에 cycle이 존재하고, 이러한 cycle이 iterative decoding 시 메시지에 dependency를 발생시키기 때문이다. 결과적으로, 코드워드 길이가 짧을수록 PCM의 성능 열화 (performance loss)는 더욱 심해진다. 이러한 이유로 NR에서는 control channel의 channel coding scheme으로 LDPC code 대신 polar code가 채택된 바 있다.
본 발명에서 이루고자 하는 기술적 과제는 단말이 LDPC 코딩된 신호를 디코딩하는 방법을 제공하는 데 있다. 구체적으로, 본 발명은 학습된 신경망 (trained neural network)를 이용하여, 코드워드 길이가 상대적으로 짧은 short LDPC (low density parity check) code로 코딩된 신호를 단말이 디코딩하는 방법을 제공한다.
본 발명에서 이루고자 하는 기술적 과제들은 상기 기술적 과제로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기의 기술적 과제를 달성하기 위한, 단말이 LDPC 코딩된 신호를 디코딩하는 방법은 LDPC (Low Density Parity Check) 코딩된 제 1 신호를 복조하는 단계, 학습된 신경망(trained neural network)을 통해 상기 복조된 제 1 신호로부터 획득되는 제 2 신호를 디코딩하는 단계를 포함할 수 있다. 한편, 상기 제 2 신호는 상기 학습된 신경망에 기초하여 생성되는 출력 시퀀스 및 상기 제 1 신호의 LLR (Log Likelihood Ratio) 시퀀스를 이용하여 획득될 수 있다.
한편, 상기 LDPC 코딩된 제 1 신호는 코드워드 길이 (codeword length)가 소정 값보다 작은 short LDPC 코딩된 신호일 수 있다.
한편, 상기 학습된 신경망에 기초하여 생성되는 출력 시퀀스는 펑쳐링된 비트 (punctured bit)를 포함하고, 상기 제 2 신호는 상기 펑쳐링된 비트 및 상기 제 1 신호의 LLR 시퀀스의 조합으로 구성될 수 있다.
한편, 상기 제 2 신호는 상기 학습된 신경망에 기초하여 생성되는 출력 시퀀스 및 상기 제 1 신호에 포함된 패리티 비트 (parity bit)의 조합으로 구성될 수 있다.
한편, 상기 학습된 신경망에 기초하여 생성되는 출력 시퀀스는 펑쳐링된 비트 (punctured bit) 및 코드워드 시퀀스를 포함하고, 상기 제 2 신호는 상기 코드워드 시퀀스와 상기 제 1 신호의 LLR 시퀀스의 가중 합 (weighted sum) 및 상기 펑쳐링된 비트의 조합으로 구성될 수 있다.
한편, 상기 신경망은 학습을 위한 파라미터를 셋팅하는 단계 및 상기 신경망의 히든 레이어 (hidden layer)를 구성하는 단계를 통해 학습될 수 있다.
한편, 상기 히든 레이어를 구성하는 단계는 레이어의 개수, 각 레이어의 사이즈 및 비용 함수 (cost function)을 결정하는 단계를 포함할 수 있다.
한편, 상기 히든 레이어의 첫 번째 레이어의 사이즈는 상기 복조된 제 1 신호의 시퀀스 사이즈와 동일할 수 있다.
본 발명의 일 측면에 따른 단말이 LDPC 코딩된 신호를 디코딩하는 방법에 따르면, codeword length가 상대적으로 짧은 short LDPC code에서 기존의 iterative decoder의 성능 열화 (performance loss)를 개선시키는 효과가 있다.
본 발명에서 얻은 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 발명에 대한 실시예를 제공하고, 상세한 설명과 함께 본 발명의 기술적 사상을 설명한다.
도 1은 본 발명을 구현하기 위한 시스템을 예시한 도면이다.
도 2는 데이터 채널과 제어 채널이 TDM된 서브프레임의 구조를 예시적으로 나타낸 도면이다.
도 3은 본 발명의 일 측면에 따른 LDPC 코딩된 신호를 디코딩하기 위한 단말의 구조를 나타낸 도면이다.
도 4는 본 발명의 일 측면에 따른 단말의 Deep learning 기반의 preprocessor design을 나타낸 도면이다.
도 5는 본 발명의 일 측면에 따른 단말에서 특정 LDPC code의 protograph와 encoder input/output을 나타낸 도면이다.
도 6 내지 도 7은 본 발명의 일 측면에 따른 단말이 original LLR과 preprocessor output을 활용하는 방법을 설명하기 위한 도면이다.
도 10은 본 발명의 일 측면에 따른 Deep learning 기반의 preprocessor의 학습 (training) 과정을 나타낸 도면이다.
도 11은 decoder type에 따른 block error rate (BLER) 성능을 나타낸 도면이다.
도 12는 본 발명의 일 측면에 따른 단말이 신호를 디코딩하는 방법을 설명하기 위한 도면이다.
이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다. 이하의 상세한 설명은 본 발명의 완전한 이해를 제공하기 위해서 구체적 세부사항을 포함한다. 그러나, 당업자는 본 발명이 이러한 구체적 세부사항 없이도 실시될 수 있음을 안다. 예를 들어, 이하의 상세한 설명은 이동통신 시스템이 3GPP LTE, LTE-A, 5G 시스템인 경우를 가정하여 구체적으로 설명하나, 3GPP LTE, LTE-A의 특유한 사항을 제외하고는 다른 임의의 이동통신 시스템에도 적용 가능하다.
몇몇 경우, 본 발명의 개념이 모호해지는 것을 피하기 위하여 공지의 구조 및 장치는 생략되거나, 각 구조 및 장치의 핵심기능을 중심으로 한 블록도 형식으로 도시될 수 있다. 또한, 본 명세서 전체에서 동일한 구성요소에 대해서는 동일한 도면 부호를 사용하여 설명한다.
아울러, 이하의 설명에 있어서 단말은 UE(User Equipment), MS(Mobile Station), AMS(Advanced Mobile Station) 등 이동 또는 고정형의 사용자단 기기를 통칭하는 것을 가정한다. 또한, 기지국은 Node B, eNode B, Base Station, AP(Access Point), gNode B (gNB) 등 단말과 통신하는 네트워크 단의 임의의 노드를 통칭하는 것을 가정한다.
이동 통신 시스템에서 단말(User Equipment)은 기지국으로부터 하향링크(Downlink)를 통해 정보를 수신할 수 있으며, 단말은 또한 상향링크(Uplink)를 통해 정보를 전송할 수 있다. 단말이 전송 또는 수신하는 정보로는 데이터 및 다양한 제어 정보가 있으며, 단말이 전송 또는 수신하는 정보의 종류 용도에 따라 다양한 물리 채널이 존재한다.
이하의 기술은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 접속 시스템에 사용될 수 있다. CDMA는 UTRA(Universal Terrestrial Radio Access)나 CDMA2000과 같은 무선 기술(radio technology)로 구현될 수 있다. TDMA는 GSM(Global System for Mobile communications)/GPRS(General Packet Radio Service)/EDGE(Enhanced 데이터 Rates for GSM Evolution)와 같은 무선 기술로 구현될 수 있다. OFDMA는 IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802-20, E-UTRA(Evolved UTRA) 등과 같은 무선 기술로 구현될 수 있다. UTRA는 UMTS(Universal Mobile Telecommunications System)의 일부이다. 3GPP(3rd Generation Partnership Project) LTE(long term evolution)는 E-UTRA를 사용하는 E-UMTS(Evolved UMTS)의 일부로서 하향링크에서 OFDMA를 채용하고 상향링크에서 SC-FDMA를 채용한다. LTE-A(Advanced)는 3GPP LTE의 진화된 버전이다.
또한, 이하의 설명에서 사용되는 특정 용어들은 본 발명의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 발명의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.
도 1은 본 발명을 구현하기 위한 시스템을 예시한 도면이다.
도 1을 참조하면, 무선 통신 시스템은 기지국(BS) (10) 및 하나 이상의 단말(UE) (20)를 포함한다. 하향링크에서, 송신기는 BS (10)의 일부일 수 있고, 수신기는 UE (20)의 일부일 수 있다. 상향링크에서, BS (10)는 프로세서 (11), 메모리 (12), 및 무선 주파수 (RF) 유닛 (13)(송신기 및 수신기)을 포함 할 수 있다. 프로세서 (11)는 UE (20) 본 출원에 기재된 제안된 절차들 및/또는 방법들을 구현하도록 구성될 수 있다. 메모리 (12)는 프로세서 (11)와 결합되어 프로세서 (11)를 동작시키기 위한 다양한 정보를 저장한다. RF 유닛 (13)은 프로세서 (11)와 결합되어 무선 신호를 송신 및/또는 수신한다. UE (20)는 프로세서 (21), 메모리 (22) 및 RF 유닛 (23)(송신기 및 수신기)을 포함 할 수 있다. 프로세서 (21)는 본 출원에서 설명된 제안된 절차 및/또는 방법을 구현하도록 구성 될 수 있다. 메모리 (22)는 프로세서 (21)와 결합되어 프로세서 (21)를 동작시키기 위한 다양한 정보를 저장한다. RF 유닛 (23)은 프로세서 (21)와 결합되어 무선 신호를 송신 및/또는 수신한다. BS (10) 및/또는 UE (20)는 단일 안테나 및 다중 안테나를 가질 수 있다. BS (10) 및 UE (20) 중 적어도 하나가 다중 안테나를 갖는 경우, 무선 통신 시스템은 MIMO (multiple input multiple output) 시스템으로 불릴 수 있다.
본 명세서에서 단말의 프로세서(21)와 기지국의 프로세서(11)는 각각 단말(20) 및 기지국(10)이 신호를 수신하거나 송신하는 기능 및 저장 기능 등을 제외하고, 신호 및 데이터를 처리하는 동작을 수행하지만, 설명의 편의를 위하여 이하에서 특별히 프로세서(11, 21)를 언급하지 않는다. 특별히 프로세서(11, 21)의 언급이 없더라도 신호를 수신하거나 송신하는 기능이 아닌 데이터 처리 등의 일련의 동작들을 수행한다고 할 수 있다.
본 발명에서는 5세대(5G) 통신 시스템을 위한 새롭고 다양한 프레임 구조를 제안한다. 차세대 5G 시스템에서는 Enhanced Mobile BroadBand (eMBB)/Ultra-reliable Machine-Type Communications (uMTC)/Massive Machine-Type Communications (mMTC) 등으로 시나리오를 구분할 수 있다. eMBB는 High Spectrum Efficiency, High User Experienced Data Rate, High Peak Data Rate 등의 특성을 갖는 차세대 이동통신 시나리오이고, uMTC는 Ultra Reliable, Ultra Low Latency, Ultra High Availability 등의 특성을 갖는 차세대 이동통신 시나리오이며 (예를 들어, V2X, Emergency Service, Remote Control), mMTC는 Low Cost, Low Energy, Short Packet, Massive Connectivity 특성을 갖는 차세대 이동통신 시나리오이다(예를 들어, IoT).
도 2는 데이터 채널과 제어 채널이 TDM된 서브프레임의 구조를 예시적으로 나타낸 도면이다. 5G new RAT (NR)에서는 지연(latency)를 최소화하기 위한 목적으로서 도 2와 같은 제어 채널과 데이터 채널이 시간분할다중화(Time Division Multiplexing, TDM)되는 구조가 프레임 구조의 한 가지로서 고려될 수 있다.
도 2에서 빗금 친 영역은 DCI(Downlink Control Information) 전달을 위한 물리 하향링크 제어 채널 (예를 들어, Physical Downlink Control Channel (PDCCH))의 전송 영역을 나타내고, 마지막 심볼은 UCI(Uplink Control Information) 전달을 위한 물리 상향링크 제어 채널 (예를 들어, Physical Uplink Control CHannel (PUCCH))의 전송 영역을 나타낸다. 여기서 eNB가 UE에게 전달하는 제어 정보인 DCI는 UE가 알아야 하는 cell configuration 에 관한 정보, DL scheduling 등의 DL specific한 정보, 그리고 UL grant 등과 같은 UL specific 정보 등을 포함할 수 있다. 또한 UE가 기지국에게 전달하는 제어 정보인 UCI는 DL data에 대한 HARQ의 ACK/NACK report, DL 채널 상태에 대한 CSI report, 그리고 SR(Scheduling Request) 등을 포함할 수 있다.
도 2에서 해칭 표시가 없는 영역은 DL/UL flexibility 를 위해 DL 또는 UL 구간이 flexible하게 설정될 수 있다. 일 예로서, DL 데이터 전송을 위한 데이터 채널(예를 들어, 물리 하향링크 공유 채널 (Physical Downlink Shared Channel))로 사용될 수도 있고, UL 데이터 전송을 위한 데이터 채널(예를 들어, 물리 상향링크 공유 채널(Physical Uplink Shared CHannel, PUSCH))가 사용될 수도 있다. 이러한 구조의 특징은 한 개의 subframe 내에서 DL 전송과 UL 전송의 순차적으로 진행되어, eNB가 subframe 내에서 DL data를 보내고, UE로부터 상기 DL data에 대한 HARQ ACK/NACK 신호를 수신할 수 있다. 결과적으로 데이터 전송 에러 발생시에 데이터 재전송까지 걸리는 시간을 줄이게 되며, 이로 인해 최종 데이터 전달의 latency를 최소화할 수 있다.
이러한 self-contained subframe 구조에서 기지국과 UE가 송신 모드에서 수신모드로 전환 과정 또는 수신모드에서 송신모드로 전환 과정을 위한 time gap이 필요하다. 이를 위하여 self-contained subframe 구조에서 DL에서 UL로 전환되는 시점의 일부 OFDM symbol이 guard period(GP)로 설정되게 된다.
Low Density Parity Check ( LDPC ) code
LDPC code는 오류 정정 (error correction)에 있어 유리하고, 높은 병렬처리 (high parallelism)가 가능한 것이 특징이다. 또한, LDPC code는 높은 data throughput 제공, 하드웨어 구현 (hardware implementation)의 용이성 등의 장점들로 인해서 DVB-T2, WLAN, NR과 같은 많은 표준에서 상용화 되었다.
LDPC code의 parity check matrix (PCM) 설계 시 좋은 waterfall performance를 가지려면 high degree variable nodes (VNs), degree-2 VNs과 degree-1 VNs 그리고 punctured VNs들이 포함되어야 한다. 또한, LDPC code의 decoder로 sum product algorithm, min-sum algorithm 등 belief propagation에 기반한 iterative decoder가 사용될 수 있으며, 이는 linear complexity를 가지는 저복잡도 (low complexity) decoder이다.
Iterative decoder는 codeword length가 무한한 경우와 같이 점근적인 (asymptotic) 관점에서는 maximum-likelihood에 접근하는 최적인 (optimal) decoder로 알려져 있다. 그러나 codeword length가 유한한 경우와 같이 실제 practical system에서는 최적이 아닌 (suboptimal) decoder이다. 이는 유한한 codeword length에 사용되는 실제 parity check matrix (PCM)에 cycle이 존재하며, 이는 iterative decoding 시 message에 dependency를 발생시키기 때문이다. 따라서 codeword length가 짧으면 짧을수록 PCM의 performance loss는 더욱 심해진다. 이러한 이유로 NR에서는 control channel의 channel coding scheme으로 LDPC code 대신 polar code가 채택된 바 있다.
이하에서는 preprocessing aided decoder 구조에 대해서 설명하도록 한다. preprocessor는 프로세서의 일 구성요소일 수 있다. 또한, 이하에서는 딥 러닝 (deep learning)에 기초한 preprocessing aided decoder가 설명된다. 또한, 이하에서는 short LDPC 코딩된 신호의 디코딩을 위한 preprocessor aided decoder의 학습 알고리즘 (Training algorithm)이 설명된다. 또한, 이하에서는 본 발명의 일 측면에 따른 단말의 성능 개선 (Performance evaluation)이 설명된다.
Preprocessor aided Decoder for Short LDPC Code
Belief propagation 기반 iterative decoding algorithm은 다수의 short cycle이 존재하는 PCM에 대해서 명확한 한계를 가진다. 구체적으로, Iterative decoding 시 self message 수신으로 인하여 local optimum으로 수렴하여 message dependency의 발생하고, 결과적으로 성능 열화 (performance degradation)가 발생한다. 이러한 문제를 해결하기 위해서는 iterative decoder의 soft value input sequence (예를 들면, log-likelihood ratio, LLR)의 신뢰도 (reliability)를 개선하는 것이 필요하다. 본 발명은 이러한 LLR enhancer 기능을 수행하는 preprocessor를 제안한다. 좋은 성능을 위해서는 punctured bit들이 필수적인 LDPC code 특성 상, preprocessor를 통한 punctured bit part의 soft value을 예측 (prediction)할 수 있다는 점은 preprocessor가 성능 개선에 큰 도움을 줄 수 있음을 의미한다.
preprocessor aided decoder는 도 3에 도시된 구조로 설계될 수 있다. 도 3에서 preprocessor는 수학적으로 modeling하기 쉽지 않고, deep learning (DL)을 활용하여 구성하기 좋은 성질을 가지고 있다. 이하에서는, Deep-Learning 기반의 preprocessor 설계 방법에 대해서 설명하도록 한다.
Deep learning based Preprocessor aided Decoder for Short LDPC Code
도 4에 도시된 것과 같이, Deep learning 기반의 preprocessor design은 supervised learning 방법에 따라 1) training set generation, 2) Dense layer construction 의 2 가지로 구분될 수 있다.
먼저, Training set generation은 다음 4 가지를 고려할 수 있다.
1) Batch size (training할 distinct codeword의 개수)
2) maximum epoch의 수 (여기서, epoch는 batch 전체를 한번 보여주는 것을 의미함)
3) Cover하고자 하는 signal-to-noise ratio (SNR) range
4) Input/label sequence set
PCM 특성은 가능한 codeword ensemble로 대표된다. Batch size는 모든 distinct codeword들을 training시킬 것인지, 또는 일부의 distinct codeword들을 training시킬 것인지에 대한 hyper parameter로서, 성능과 training phase complexity간의 trade-off가 존재한다. Epoch의 수는 training accuracy를 결정하며 적절한 epoch의 수를 정하는 것이 중요하다. epoch수를 과도하게 증가시키면 overfitting될 수 있다. Cover하는 SNR range는 practical performance evaluation에 영향을 준다. 또한 본 발명의 deep learning algorithm은 supervised learning이므로 이에 따른 input/label sequence가 결정되어야 한다. Label sequence는 길이 K인 information sequence가 될 수도 있고, 길이 N인 codeword 혹은 punctured intermediate parity bit sequence를 포함하는 길이 N+N p인 codeword가 될 수도 있다.
Dense layer construction은 다음 3 가지 것들을 고려할 수 있다.
1) layer의 depth (개수)
2) layer별 width
3) cost function
위 3가지 parameter들은 일반적으로 Dense layer 기반의 deep learning에서 고려하는 hyper parameter들이다. Dense layer 구성은 reLU (rectified linear unit) 함수들과 최종 output layer에서 sigmoid 함수를 적용하는 형태로 구성될 것이기 때문에 cost function으로는 cross entropy function이 이용된다. 나머지 hyper parameter는 training의 accuracy와 overfitting 그리고 performance evaluation result등을 근거로 trial and error로 적절하게 찾는 것이 중요하다.
다음으로는, 훈련 (training)을 통해서 획득한 dense layer로 설계된 preprocessor를 decoder에 구현하는 방법에 대하여 설명하도록 한다. preprocessor는 LLR enhancer 혹은 LLR initializer로 간주될 수 있다. 도 5는 특정 LDPC code의 protograph와 encoder input/output을 나타낸 도면이다. 도 5 내지 도 9를 참조하여, original LLR과 preprocessor output을 활용하는 방법으로 다음의 4가지를 제안한다.
method 1) 도 6은 method 1)에 따른 deep learning based preprocessor aided iterative decoder의 예시이다. method 1)에 따르면, 길이 N+N p인 labeled output sequence를 (encoded bit sequence를 target으로 함) 고려하여 preprocessor output으로 길이 N+N p인 soft value를 추출하여 이를 LLR input으로 활용한다.
method 2) 도 7은 method 2)에 따른 deep learning based preprocessor aided iterative decoder의 예시이다. method 2)에 따르면, 길이 N p인 labeled output sequence를 (punctured bit sequence를 target으로 함) 고려하여 punctured bit에 해당되는 LLR input을 preprocessor output으로 활용한다. 원칙적으로, punctured bit에 LLR value는 불확실성으로 인하여 zero로 initialization 한다.
method 3) 도 8은 method 3)에 따른 deep learning based preprocessor aided iterative decoder의 예시이다. method 3)에 따르면, 길이 K인 labeled output sequence를 (systematic information bit sequence를 target으로함) 고려하여 preprocessor output으로 길이 K인 soft value를 추출하여 이를 systematic bit의 LLR input으로 활용한다. method 3)에 따르면, demodulated signal의 parity (P 1-P 6) bit는 Iterative decoder의 입력으로 사용될 수 있다.
method 4) 도 9는 method 4)에 따른 deep learning based preprocessor aided iterative decoder의 예시이다. method 4)에 따르면, 길이 N+N p인 labeled output sequence를 (encoded bit sequence를 target으로 함) 고려하여 preprocessor output으로 길이 N+N p인 soft value를 추출하여 punctured bit (예를 들면, S 1, S 2)에 해당되는 LLR value는 preprocessor output으로 대체한다. 나머지 길이 N codeword sequence의 LLR input은 original LLR value와 preprocessor output의 가중 합 (weighted sum)을 LLR input으로 활용한다.
수식으로 전술한 본 발명의 제안에 대하여 설명하기에 앞서, notation을 정리한다. 이하에서, Regular character는 scalar를 나타내고 Bold character는 vector 혹은 matrix를 나타낸다. Blackboard bold character는 집합을 의미한다. 일 예로,
Figure PCTKR2019000319-appb-img-000001
그리고
Figure PCTKR2019000319-appb-img-000002
는 각각 scalar, vector (matrix) 그리고 집합을 의미한다. 또한
Figure PCTKR2019000319-appb-img-000003
은 집합
Figure PCTKR2019000319-appb-img-000004
의 cardinality를 의미하며
Figure PCTKR2019000319-appb-img-000005
는 sigmoid function을 의미한다. 한편,
Figure PCTKR2019000319-appb-img-000006
Figure PCTKR2019000319-appb-img-000007
은 binary field와 real number field를 나타낸다.
Information index 집합을
Figure PCTKR2019000319-appb-img-000008
라 하자.
Figure PCTKR2019000319-appb-img-000009
는 index
Figure PCTKR2019000319-appb-img-000010
가 mapping되는 길이 K binary information sequence를 의미한다. 이러한 binary information sequence를 collect한 집합을
Figure PCTKR2019000319-appb-img-000011
라 한다.
Figure PCTKR2019000319-appb-img-000012
는 punctured bit들을 포함한 실제
Figure PCTKR2019000319-appb-img-000013
번 째 codeword를 의미하고,
Figure PCTKR2019000319-appb-img-000014
는 punctured bit을 제외한 길이 N인 transmitted codeword를 의미한다. 또한 punctured bit을 포함한 가능한 codeword 집합과 transmitted codeword 집합을
Figure PCTKR2019000319-appb-img-000015
Figure PCTKR2019000319-appb-img-000016
라 정의한다. Modulated symbol sequence를
Figure PCTKR2019000319-appb-img-000017
라 정의한다. Received sequence Y (observation) 를 아래와 같이 정의한다.
Figure PCTKR2019000319-appb-img-000018
여기서
Figure PCTKR2019000319-appb-img-000019
는 additive white Gaussian noise (awgn)의 standard deviation을 의미한다. 또한, Demodulated sequence를
Figure PCTKR2019000319-appb-img-000020
라 표기하도록 한다.
Dense layer parameter
Figure PCTKR2019000319-appb-img-000021
는 각 layer의 dense matrix
Figure PCTKR2019000319-appb-img-000022
과 bias vector
Figure PCTKR2019000319-appb-img-000023
로 정의되며,
Figure PCTKR2019000319-appb-img-000024
Figure PCTKR2019000319-appb-img-000025
matrix이며
Figure PCTKR2019000319-appb-img-000026
Figure PCTKR2019000319-appb-img-000027
vector이다. 또한
Figure PCTKR2019000319-appb-img-000028
bias vector를
Figure PCTKR2019000319-appb-img-000029
라 정의한다.
Figure PCTKR2019000319-appb-img-000030
번 째 layer의 mapping function은
Figure PCTKR2019000319-appb-img-000031
이며 다음과 같이 정의된다.
Figure PCTKR2019000319-appb-img-000032
여기서 L 는 maximum layer index를 의미한다. 실제 decoder implementation 시에는 L lyaer의 sigmoid operation은 생략하도록 한다. (positive와 negative 값을 갖는soft value가 필요하기 때문에 sigmoid operation을 배제). 하지만 training 과정에서는 cross-entropy에 기반한 cost function을 구하기 위해서 sigmoid operation이 필요하며 관련해서는 다음의 training algorithm description에서 기술하도록 하겠다. method 1 내지 method 4에 따른 iterative decoder로의 input log-likelihood ratio (LLR) sequence
Figure PCTKR2019000319-appb-img-000033
는 아래와 같이 정의된다.
Figure PCTKR2019000319-appb-img-000034
Iterative decoder에서는 위에서 획득한
Figure PCTKR2019000319-appb-img-000035
를 input으로하여 기존의 방식으로 decoding을 수행한다.
Training algorithm of Deep learning based Preprocessor aided Decoder for Short LDPC Code
도 10은 Deep learning 기반의 preprocessor의 학습 (training) 과정을 나타낸 도면이다. 학습 알고리즘 (Training algorithm)을 동작시키기에 앞서 hyper-parameter setting (s1010), system-parameter setting (s1020)과 input/label sequence setting (s1030)이 수행된다. 전술한 바와 같이, hyper-parameter setting (s1010)에서는 batch size, epoch 수, layer의 depth와 width가 설정된다. training 과정 (s1040)을 정리하면 아래 표 1과 같다.
Figure PCTKR2019000319-appb-img-000036
Performance evaluation
도 11은 decoder type에 따른 block error rate (BLER) 성능을 나타낸 도면이다. 보다 구체적으로, 도 11은 길이 8인 information sequence와 부호율 1/2 인 NR-LDPC code를 이용하고 QPSK modulation을 적용하였을 때, AWGN channel환경에서 decoder type에 따른 block error rate (BLER) 성능을 나타낸 것이다.
도 11에서 Preprocessor aided BP decoder는 전술한 method 1을 가정한 것으로, BP (Belief Propagation) decoder 혹은 DL (deep learning) decoder를 단독으로 사용한 것보다 더 좋은 성능을 보이며 maximum-likelihood decoder 성능에 근접하는 것을 확인할 수 있다. 다시 말해, short LDPC code에 대한 iterative decoder의 성능이 향상된다고 할 수 있다.
도 12는 본 발명의 일 측면에 따른 단말이 신호를 디코딩하는 방법을 설명하기 위한 도면이다.
도 12를 참조하면, 단말이 신호를 디코딩하는 방법은 LDPC (Low Density Parity Check) 코딩된 제 1 신호를 복조하는 단계 (s1210), 학습된 신경망(trained neural network)을 통해 상기 복조된 제 1 신호로부터 획득되는 제 2 신호를 디코딩하는 단계 (s1220)를 포함할 수 있다. 한편, 상기 제 2 신호는 상기 학습된 신경망에 기초하여 생성되는 출력 시퀀스 및 상기 제 1 신호의 LLR (Log Likelihood Ratio) 시퀀스를 이용하여 획득될 수 있다.
한편, 상기 LDPC 코딩된 제 1 신호는 코드워드 길이 (codeword length)가 소정 값보다 작은 short LDPC 코딩된 신호일 수 있다.
한편, 상기 학습된 신경망에 기초하여 생성되는 출력 시퀀스는 펑쳐링된 비트 (punctured bit)를 포함하고, 상기 제 2 신호는 상기 펑쳐링된 비트 및 상기 제 1 신호의 LLR 시퀀스의 조합으로 구성될 수 있다.
한편, 상기 제 2 신호는 상기 학습된 신경망에 기초하여 생성되는 출력 시퀀스 및 상기 제 1 신호에 포함된 패리티 비트 (parity bit)의 조합으로 구성될 수 있다.
한편, 상기 학습된 신경망에 기초하여 생성되는 출력 시퀀스는 펑쳐링된 비트 (punctured bit) 및 코드워드 시퀀스를 포함하고, 상기 제 2 신호는 상기 코드워드 시퀀스와 상기 제 1 신호의 LLR 시퀀스의 가중 합 (weighted sum) 및 상기 펑쳐링된 비트의 조합으로 구성될 수 있다.
한편, 상기 신경망은 학습을 위한 파라미터를 셋팅하는 단계 및 상기 신경망의 히든 레이어 (hidden layer)를 구성하는 단계를 통해 학습될 수 있다.
한편, 상기 히든 레이어를 구성하는 단계는 레이어의 개수, 각 레이어의 사이즈 및 비용 함수 (cost function)을 결정하는 단계를 포함할 수 있다.
한편, 상기 히든 레이어의 첫 번째 레이어의 사이즈는 상기 복조된 제 1 신호의 시퀀스 사이즈와 동일할 수 있다.
본 발명의 일 측면에 따른 신호를 디코딩하는 단말은 신호를 디코딩하는 디코더 및 프로세서를 포함할 수 있다. 상기 프로세서는 LDPC (Low Density Parity Check) 코딩된 제 1 신호를 복조하고, 상기 디코더를 제어하여, 학습된 신경망(trained neural network)을 통해 상기 복조된 제 1 신호로부터 획득되는 제 2 신호를 디코딩할 수 있다. 상기 제 2 신호는 상기 학습된 신경망에 기초하여 생성되는 출력 시퀀스 및 상기 제 1 신호의 LLR (Log Likelihood Ratio) 시퀀스를 이용하여 획득될 수 있다.
한편, 상기 LDPC 코딩된 제 1 신호는 코드워드 길이 (codeword length)가 소정 값보다 작은 short LDPC 코딩된 신호일 수 있다.
한편, 상기 학습된 신경망에 기초하여 생성되는 출력 시퀀스는 펑쳐링된 비트 (punctured bit)를 포함하고, 상기 제 2 신호는 상기 펑쳐링된 비트 및 상기 제 1 신호의 LLR 시퀀스의 조합으로 구성될 수 있다.
한편, 상기 제 2 신호는 상기 학습된 신경망에 기초하여 생성되는 출력 시퀀스 및 상기 제 1 신호에 포함된 패리티 비트 (parity bit)의 조합으로 구성될 수 있다.
한편, 상기 학습된 신경망에 기초하여 생성되는 출력 시퀀스는 펑쳐링된 비트 (punctured bit) 및 코드워드 시퀀스를 포함하고, 상기 제 2 신호는 상기 코드워드 시퀀스와 상기 제 1 신호의 LLR 시퀀스의 가중 합 (weighted sum) 및 상기 펑쳐링된 비트의 조합으로 구성될 수 있다.
한편, 상기 신경망은 학습을 위한 파라미터를 셋팅하는 단계 및 상기 신경망의 히든 레이어 (hidden layer)를 구성하는 단계를 통해 학습될 수 있다.
한편, 상기 프로세서는 레이어의 개수, 각 레이어의 사이즈 및 비용 함수 (cost function)을 결정하는 것에 기초하여 상기 히든 레이어를 구성할 수 있다.
한편, 상기 히든 레이어의 첫 번째 레이어의 사이즈는 상기 복조된 제 1 신호의 시퀀스 사이즈와 동일할 수 있다.
이상에서 설명된 실시예들은 본 발명의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시예를 구성하는 것도 가능하다. 본 발명의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.
본 발명은 본 발명의 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
발명의 실시를 위한 다양한 형태가 상기 발명의 실시를 위한 최선의 형태에서 설명되었다.
상기 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
본 발명은 3GPP LTE/LTE-A, 5G 시스템 등 다양한 무선통신 시스템에서 산업상으로 적용이 가능하다.

Claims (16)

  1. 단말이 신호를 디코딩하는 방법에 있어서,
    LDPC (Low Density Parity Check) 코딩된 제 1 신호를 복조하는 단계;
    학습된 신경망(trained neural network)을 통해 상기 복조된 제 1 신호로부터 획득되는 제 2 신호를 디코딩하는 단계를 포함하고,
    상기 제 2 신호는 상기 학습된 신경망에 기초하여 생성되는 출력 시퀀스 및 상기 제 1 신호의 LLR (Log Likelihood Ratio) 시퀀스를 이용하여 획득되는, 단말이 신호를 디코딩하는 방법.
  2. 제 1 항에 있어서,
    상기 LDPC 코딩된 제 1 신호는 코드워드 길이 (codeword length)가 소정 값보다 작은 short LDPC 코딩된 신호인, 단말이 신호를 디코딩하는 방법.
  3. 제 1 항에 있어서,
    상기 학습된 신경망에 기초하여 생성되는 출력 시퀀스는 펑쳐링된 비트 (punctured bit)를 포함하고,
    상기 제 2 신호는 상기 펑쳐링된 비트 및 상기 제 1 신호의 LLR 시퀀스의 조합으로 구성되는, 단말이 신호를 디코딩하는 방법.
  4. 제 1 항에 있어서,
    상기 제 2 신호는 상기 학습된 신경망에 기초하여 생성되는 출력 시퀀스 및 상기 제 1 신호에 포함된 패리티 비트 (parity bit)의 조합으로 구성되는, 단말이 신호를 디코딩하는 방법.
  5. 제 1 항에 있어서,
    상기 학습된 신경망에 기초하여 생성되는 출력 시퀀스는 펑쳐링된 비트 (punctured bit) 및 코드워드 시퀀스를 포함하고,
    상기 제 2 신호는 상기 코드워드 시퀀스와 상기 제 1 신호의 LLR 시퀀스의 가중 합 (weighted sum) 및 상기 펑쳐링된 비트의 조합으로 구성되는, 단말이 신호를 디코딩하는 방법.
  6. 제 1 항에 있어서,
    상기 신경망은, 학습을 위한 파라미터를 셋팅하는 단계 및 상기 신경망의 히든 레이어 (hidden layer)를 구성하는 단계를 통해 학습되는, 단말이 신호를 디코딩하는 방법.
  7. 제 6 항에 있어서,
    상기 히든 레이어를 구성하는 단계는,
    레이어의 개수, 각 레이어의 사이즈 및 비용 함수 (cost function)을 결정하는 단계를 포함하는, 단말이 신호를 디코딩하는 방법.
  8. 제 6 항에 있어서,
    상기 히든 레이어의 첫 번째 레이어의 사이즈는 상기 복조된 제 1 신호의 시퀀스 사이즈와 동일한, 단말이 신호를 디코딩하는 방법.
  9. 신호를 디코딩하는 단말에 있어서,
    신호를 디코딩하는 디코더; 및
    프로세서를 포함하고,
    상기 프로세서는,
    LDPC (Low Density Parity Check) 코딩된 제 1 신호를 복조하고,
    상기 디코더를 제어하여, 학습된 신경망(trained neural network)을 통해 상기 복조된 제 1 신호로부터 획득되는 제 2 신호를 디코딩하되,
    상기 제 2 신호는 상기 학습된 신경망에 기초하여 생성되는 출력 시퀀스 및 상기 제 1 신호의 LLR (Log Likelihood Ratio) 시퀀스를 이용하여 획득되는, 신호를 디코딩하는 단말.
  10. 제 9 항에 있어서,
    상기 LDPC 코딩된 제 1 신호는 코드워드 길이 (codeword length)가 소정 값보다 작은 short LDPC 코딩된 신호인, 단말이 신호를 디코딩하는 방법.
  11. 제 9 항에 있어서,
    상기 학습된 신경망에 기초하여 생성되는 출력 시퀀스는 펑쳐링된 비트 (punctured bit)를 포함하고,
    상기 제 2 신호는 상기 펑쳐링된 비트 및 상기 제 1 신호의 LLR 시퀀스의 조합으로 구성되는, 신호를 디코딩하는 단말.
  12. 제 9 항에 있어서,
    상기 제 2 신호는 상기 학습된 신경망에 기초하여 생성되는 출력 시퀀스 및 상기 제 1 신호에 포함된 패리티 비트 (parity bit)의 조합으로 구성되는, 신호를 디코딩하는 단말.
  13. 제 9 항에 있어서,
    상기 학습된 신경망에 기초하여 생성되는 출력 시퀀스는 펑쳐링된 비트 (punctured bit) 및 코드워드 시퀀스를 포함하고,
    상기 제 2 신호는 상기 코드워드 시퀀스와 상기 제 1 신호의 LLR 시퀀스의 가중 합 (weighted sum) 및 상기 펑쳐링된 비트의 조합으로 구성되는, 신호를 디코딩하는 단말.
  14. 제 9 항에 있어서,
    상기 신경망은, 학습을 위한 파라미터를 셋팅하는 단계 및 상기 신경망의 히든 레이어 (hidden layer)를 구성하는 단계를 통해 학습되는, 신호를 디코딩하는 단말.
  15. 제 14 항에 있어서,
    상기 프로세서는,
    레이어의 개수, 각 레이어의 사이즈 및 비용 함수 (cost function)을 결정하는 것에 기초하여 상기 히든 레이어를 구성하는, 신호를 디코딩하는 단말.
  16. 제 14 항에 있어서,
    상기 히든 레이어의 첫 번째 레이어의 사이즈는 상기 복조된 제 1 신호의 시퀀스 사이즈와 동일한, 단말이 신호를 디코딩하는 방법.
PCT/KR2019/000319 2019-01-09 2019-01-09 Ldpc (low density parity check) 코딩된 신호를 디코딩하는 방법 및 이를 위한 단말 WO2020145430A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2019/000319 WO2020145430A1 (ko) 2019-01-09 2019-01-09 Ldpc (low density parity check) 코딩된 신호를 디코딩하는 방법 및 이를 위한 단말
US17/309,931 US11595155B2 (en) 2019-01-09 2019-01-09 Method for decoding low density parity check (LDPC)-coded signal, and terminal therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/000319 WO2020145430A1 (ko) 2019-01-09 2019-01-09 Ldpc (low density parity check) 코딩된 신호를 디코딩하는 방법 및 이를 위한 단말

Publications (1)

Publication Number Publication Date
WO2020145430A1 true WO2020145430A1 (ko) 2020-07-16

Family

ID=71520975

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/000319 WO2020145430A1 (ko) 2019-01-09 2019-01-09 Ldpc (low density parity check) 코딩된 신호를 디코딩하는 방법 및 이를 위한 단말

Country Status (2)

Country Link
US (1) US11595155B2 (ko)
WO (1) WO2020145430A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112615629A (zh) * 2020-11-26 2021-04-06 西安电子科技大学 多元ldpc码的译码方法、系统、介质、设备及应用

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021101315A1 (en) * 2019-11-22 2021-05-27 Samsung Electronics Co., Ltd. Method and apparatus to decode packets to compute log likelihood ratio in wireless network
CN114465853B (zh) * 2022-03-18 2023-09-08 河南科技大学 一种基于神经网络的多符号非相干检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130012549A (ko) * 2011-07-25 2013-02-04 한양대학교 산학협력단 Ldpc 부호화, 복호화 방법 및 그 방법을 이용하는 장치
KR20150004489A (ko) * 2013-07-02 2015-01-13 한양대학교 산학협력단 Ldpc 부호화, 복호화 방법 및 그 방법을 이용하는 장치
KR101740316B1 (ko) * 2009-12-07 2017-05-29 삼성전자주식회사 저밀도 패리티 검사 부호를 사용하는 통신 시스템에서 채널 부호화/복호화 방법 및 장치
KR101792243B1 (ko) * 2010-10-27 2017-11-01 한국전자통신연구원 통신 시스템에서 데이터 송수신 장치 및 방법
US20180343017A1 (en) * 2017-05-26 2018-11-29 SK Hynix Inc. Deep learning for low-density parity-check (ldpc) decoding

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090003164A (ko) * 2006-01-10 2009-01-09 미쓰비시덴키 가부시키가이샤 검사 행렬 생성 방법
CN110741553B (zh) * 2017-06-22 2023-11-03 瑞典爱立信有限公司 用于前向纠错解码的神经网络
US11568214B2 (en) * 2017-08-23 2023-01-31 Telefonaktiebolaget Lm Ericsson (Publ) Neural networks for decoding
CN113169752B (zh) * 2018-11-22 2022-09-13 诺基亚技术有限公司 通信系统中的学习

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101740316B1 (ko) * 2009-12-07 2017-05-29 삼성전자주식회사 저밀도 패리티 검사 부호를 사용하는 통신 시스템에서 채널 부호화/복호화 방법 및 장치
KR101792243B1 (ko) * 2010-10-27 2017-11-01 한국전자통신연구원 통신 시스템에서 데이터 송수신 장치 및 방법
KR20130012549A (ko) * 2011-07-25 2013-02-04 한양대학교 산학협력단 Ldpc 부호화, 복호화 방법 및 그 방법을 이용하는 장치
KR20150004489A (ko) * 2013-07-02 2015-01-13 한양대학교 산학협력단 Ldpc 부호화, 복호화 방법 및 그 방법을 이용하는 장치
US20180343017A1 (en) * 2017-05-26 2018-11-29 SK Hynix Inc. Deep learning for low-density parity-check (ldpc) decoding

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112615629A (zh) * 2020-11-26 2021-04-06 西安电子科技大学 多元ldpc码的译码方法、系统、介质、设备及应用
CN112615629B (zh) * 2020-11-26 2023-09-26 西安电子科技大学 多元ldpc码的译码方法、系统、介质、设备及应用

Also Published As

Publication number Publication date
US20220077957A1 (en) 2022-03-10
US11595155B2 (en) 2023-02-28

Similar Documents

Publication Publication Date Title
CN110089057B (zh) 用于对使用极化码的控制信息的联合解码和验证的crc比特
WO2019194635A1 (en) Apparatus and method for encoding and decoding using polar code in wireless communication system and broadcasting system
WO2017086662A1 (ko) 무선 통신 시스템에서 방송 정보 수신을 위한 방법 및 장치
EP3552314B1 (en) Efficient control channel design using polar codes
WO2020145430A1 (ko) Ldpc (low density parity check) 코딩된 신호를 디코딩하는 방법 및 이를 위한 단말
TWI755532B (zh) 將通道編碼位元映射到符號以用於重傳
WO2018101805A1 (ko) 단말이 디코딩을 수행하는 방법 및 그 방법을 수행하는 단말
WO2018174672A2 (ko) 하향링크 신호 수신 방법 및 사용자기기, 그리고 하향링크 신호 전송 방법 및 기지국
WO2022191644A1 (en) Methods and apparatuses for search space set group switching enhancements
US10476525B2 (en) Low latency bit-reversed polar codes
WO2011031079A2 (ko) MU-MIMO 방식을 지원하는 무선 통신 시스템에서 CoMP 동작에서의 참조신호 송수신 방법 및 이를 이용하는 단말 장치와 기지국 장치
WO2018230994A1 (ko) 무선 통신 시스템에서 하향링크 제어 채널을 송신하기 위한 장치 및 방법
JP2020524927A (ja) ブロードキャストチャネルのための同期信号
CN113169814A (zh) 用于极化编码重传的等效穿孔集合
US20210288668A1 (en) Efficient control channel design using polar codes
WO2019042897A1 (en) HYBRID DECODER FOR ALOHA SYNCRHONIZED CODED
WO2018143772A1 (ko) 수송 블록 전송 방법 및 전송 장치
WO2018097688A1 (ko) 무선 통신 시스템에서 제어 채널의 디코딩을 위한 장치 및 방법
WO2019098689A1 (ko) 무선 통신 시스템에서 부호화 및 복호화를 위한 방법 및 장치
WO2018070853A1 (ko) 무선 셀룰러 통신 시스템에서 네트워크 지원 간섭 제거 및 억제를 위한 방법 및 장치
WO2022203331A1 (en) Transmission of uplink channels with repetitions
WO2018151545A1 (ko) 정보 전송 방법 및 전송장치
EP4318991A1 (en) Method and apparatus used in node for wireless communication
WO2013051867A2 (en) Apparatus and method for channel quality feedback with a k-best detector in a wireless network
WO2018128367A1 (ko) 극 부호를 이용한 채널 인코딩 방법 및 단말

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19908122

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19908122

Country of ref document: EP

Kind code of ref document: A1