WO2022231026A1 - Method for transmitting/receiving signal in wireless communication system using auto encoder, and device therefor - Google Patents

Method for transmitting/receiving signal in wireless communication system using auto encoder, and device therefor Download PDF

Info

Publication number
WO2022231026A1
WO2022231026A1 PCT/KR2021/005384 KR2021005384W WO2022231026A1 WO 2022231026 A1 WO2022231026 A1 WO 2022231026A1 KR 2021005384 W KR2021005384 W KR 2021005384W WO 2022231026 A1 WO2022231026 A1 WO 2022231026A1
Authority
WO
WIPO (PCT)
Prior art keywords
neural network
encoder
codeword
receiving
signal
Prior art date
Application number
PCT/KR2021/005384
Other languages
French (fr)
Korean (ko)
Inventor
신종웅
김봉회
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020237035662A priority Critical patent/KR20240001134A/en
Priority to PCT/KR2021/005384 priority patent/WO2022231026A1/en
Publication of WO2022231026A1 publication Critical patent/WO2022231026A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0056Systems characterized by the type of code used
    • H04L1/0071Use of interleaving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/27Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes using interleaving techniques
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/29Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes combining two or more codes or code structures, e.g. product codes, generalised product codes, concatenated codes, inner and outer codes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/0001Systems modifying transmission characteristics according to link quality, e.g. power backoff
    • H04L1/0009Systems modifying transmission characteristics according to link quality, e.g. power backoff by adapting the channel coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0056Systems characterized by the type of code used
    • H04L1/0064Concatenated codes
    • H04L1/0065Serial concatenated codes

Definitions

  • the present specification relates to a method for transmitting and receiving a signal using an auto-encoder, and more particularly, to a method for transmitting and receiving a signal in a wireless communication system using an auto-encoder, and an apparatus therefor.
  • a wireless communication system is a multiple access system that can support communication with multiple users by sharing available system resources (bandwidth, transmission power, etc.).
  • multiple access systems include a Code Division Multiple Access (CDMA) system, a Frequency Division Multiple Access (FDMA) system, a Time Division Multiple Access (TDMA) system, a Space Division Multiple Access (SDMA), or an Orthogonal Frequency Division Multiple Access (OFDMA) system.
  • CDMA Code Division Multiple Access
  • FDMA Frequency Division Multiple Access
  • TDMA Time Division Multiple Access
  • SDMA Space Division Multiple Access
  • OFDMA Orthogonal Frequency Division Multiple Access
  • SC-FDMA Single Carrier Frequency Division Multiple Access
  • IDMA Interleave Division Multiple Access
  • An object of the present specification is to provide a method for correcting a transmission error occurring in communication using a neural network and an apparatus therefor.
  • An object of the present specification is to provide a method and apparatus for reducing the complexity of a neural network for correcting a transmission error occurring in communication.
  • the present specification provides a method for transmitting and receiving a signal in a wireless communication system using an auto encoder and an apparatus therefor.
  • the present specification provides a method for a transmitting end to transmit a signal in a wireless communication system using an auto-encoder, the method comprising: encoding input data based on a pre-trained transmitting end encoder neural network; and transmitting the signal to a receiving end based on the encoded input data, wherein the transmitting end encoder neural network (i) receives the input data and outputs a first codeword. a network, (ii) an interleaver that receives and interleaves the first codeword, and outputs the interleaved first codeword; and (iii) receives the interleaved first codeword and performs the encoding. and a second encoder neural network for outputting a second codeword constituting input data serially.
  • the first encoder neural network consists of n1 first encoder component neural networks
  • the second encoder neural network includes n2 first encoder component neural networks and n3 second encoder component neural networks.
  • n1, n2 and n3 may be non-zero positive integers.
  • the code rate of the first encoder neural network is k/n1
  • the code rate of the second encoder neural network is n1/( n2+n3)
  • the overall code rate of the transmitter-end encoder neural network may be k/(n2+n3).
  • each of the first encoder component neural network and the second encoder component neural network consists of at least one layer
  • the first encoder component neural network and the second encoder component neural network are It may be characterized in that it is configured based on a neural network structural unit including (i) a filtering function for filtering an input value and (ii) an activation function receiving an output of the filtering function as an input. have.
  • each of the first encoder component neural network and the second encoder component neural network may be characterized in that it consists of two layers.
  • n1 and n2 may be the same, and n3 may be 1.
  • the first encoder component neural network includes a first neural network constituent unit receiving one input value and a second neural network constituent unit receiving an output of the first neural network constituent unit, Linear regression is applied to the output of the second neural network structural unit, and an exponential linear unit (eLu) function is applied to the output of the second neural network structural unit to which the linear regression is applied.
  • eLu exponential linear unit
  • the second encoder component neural network includes a third neural network constituent unit receiving the n1 input values and a fourth neural network constituent unit receiving output values of the third neural network constituent unit. and applying the linear regression to the output value of the fourth neural network structural unit, and applying the eLu function to the output value of the fourth neural network structural unit to which the linear regression is applied.
  • the first neural network structural unit and the third neural network structural unit constitute a first layer that is one of the two layers
  • the second neural network structural unit and the fourth neural network configuration unit may constitute a second layer, which is the other one of the two layers.
  • the present specification may be characterized in that the number of output channels through which output values of each of the first to the fourth neural network constituent units are output is 100.
  • the i+1th bit in the first codeword bit stream input to the interleaver is interleaved based on the following equation,
  • L is the size of the interleaver
  • f0 is a constant offset
  • f1 is a prime number that satisfies L and a relative relation
  • f2 is a power of 2 among L fractions. It may be characterized as a number corresponding to a power of 2 .
  • the f0 may be 0, and a parallel operation is performed on the bit string of the first codeword by the value of f2.
  • a specific neural network configuration unit constituting a layer located first among the at least one or more layers further includes a pooling layer for reducing the number of output channels of the filtering function, and the The pooling layer may be positioned between the filtering function and the activation function.
  • each of the neural network constituent units constituting the layers positioned after the first positioned layer may further include the pooling layer.
  • the present specification provides a transmitter for transmitting and receiving a signal in a wireless communication system using an auto encoder, comprising: a transmitter for transmitting a wireless signal; a receiver for receiving a radio signal; at least one processor; and at least one computer memory operably connectable to the at least one processor and storing instructions for performing operations when executed by the at least one processor, the operations comprising: encoding input data based on the transmitted-end encoder neural network; and transmitting the signal to a receiving end based on the encoded input data, wherein the transmitting end encoder neural network (i) receives the input data and outputs a first codeword.
  • a network (ii) an interleaver that receives and interleaves the first codeword, and outputs the interleaved first codeword; and (iii) receives the interleaved first codeword and performs the encoding. and a second encoder neural network for outputting a second codeword constituting input data serially.
  • the present specification provides a method for a receiving end to receive a signal in a wireless communication system using an auto encoder, a signal including encoded data based on a pre-trained transmitting end encoder neural network.
  • receiving from a transmitting end Decoding the encoded data included in the signal based on a pre-trained receiving end decoder neural network, wherein the receiving end decoder neural network is at least one sequentially connected basic decoder neural network
  • Each of the at least one or more basic decoder neural networks (i) performs decoding on a second codeword output from a second encoder neural network included in the transmitter-end encoder neural network, and receives the second decoded codeword a second decoder neural network outputting the second decoder neural network, (ii) receiving the second decoded codeword, de-interleaving it, and outputting the de-interleaved second decoded codeword de-interleaver (de) -interleaver) and (iii) performing decoding on the
  • a transmitting end storing one or more instructions
  • the one or more instructions executable by one or more processors are transmitted by a transmitting end, a pre-trained transmitting end encoder neural network Encoding input data based on a neural network and transmitting the signal to a receiving end based on the encoded input data
  • the transmitting end encoder neural network (i) receives the input data and first a first encoder neural network for outputting one codeword, (ii) an interleaver for receiving the first codeword and interleaving it, and outputting the interleaved first codeword; and (iii) and a second encoder neural network that receives the first interleaved codeword and outputs a second codeword constituting the encoded input data serially.
  • the present specification provides a device comprising one or more memories and one or more processors operatively connected to the one or more memories, wherein the one or more processors enable the device to perform a pre-trained transmitter-end encoder neural of the device.
  • the present specification has an effect of effectively correcting a transmission error occurring in communication by utilizing a neural network.
  • the present specification has an effect of reducing the complexity of a neural network for correcting a transmission error occurring in communication.
  • 1 illustrates physical channels and general signal transmission used in a 3GPP system.
  • FIG. 2 is a diagram illustrating an example of a communication structure that can be provided in a 6G system.
  • FIG 3 is a view showing an example of a perceptron structure.
  • FIG. 4 is a diagram illustrating an example of a multilayer perceptron structure.
  • 5 is a diagram illustrating an example of a deep neural network.
  • FIG. 6 is a diagram illustrating an example of a convolutional neural network.
  • FIG. 7 is a diagram illustrating an example of a filter operation in a convolutional neural network.
  • FIG. 8 shows an example of a neural network structure in which a cyclic loop exists.
  • FIG. 9 shows an example of the operation structure of a recurrent neural network.
  • FIG. 10 is a diagram illustrating an example of a wireless communication system using an auto encoder.
  • 11 is a diagram illustrating an example of a conceptual structure of a communication chain using an auto-encoder.
  • FIG. 12 is a conceptual diagram illustrating an example of a communication system based on an auto encoder proposed in the present specification.
  • 13 and 14 are diagrams illustrating examples of turbo codes to help the understanding of the method proposed in the present specification.
  • 15 is a diagram illustrating an example of the overall structure of a serial-connected neural network auto-encoder proposed in the present specification.
  • 16 is a diagram illustrating an example of a transmitter-end encoder neural network to which the method proposed in the present specification can be applied.
  • 17 is a diagram illustrating an example of a receiver decoder neural network to which the method proposed in the present specification can be applied.
  • FIG. 18 is a diagram illustrating an example of a receiver decoder neural network to which the method proposed in the present specification can be applied.
  • 19 is a diagram illustrating an example of a basic neural network configuration unit for configuring a neural network to which the method proposed in the present specification can be applied.
  • 20 and 21 are diagrams illustrating an example of a transmitter-end encoder neural network configured based on a neural network configuration unit proposed in the present specification.
  • FIG. 22 is a diagram illustrating an example of a receiver decoder neural network configured based on a neural network configuration unit proposed in the present specification.
  • FIG. 23 is a diagram illustrating examples of various activation functions that can be used in the method for constructing a neural network proposed in the present specification.
  • 24 and 25 are diagrams illustrating an example of an interleaver design method proposed in the present specification.
  • 26 is a diagram to help understand the pooling layer configuration method proposed in the present specification.
  • 27 is a diagram illustrating a change in learning ability of a neural network according to an increase in the number of filters used in the neural network.
  • FIG. 28 is a diagram illustrating an example of a method for configuring a pooling layer proposed in the present specification.
  • 29 is a diagram illustrating an example of a structure of a neural network configuration unit (Conv1dCode) to which a pooling layer is applied.
  • Conv1dCode neural network configuration unit
  • FIG. 30 is a diagram illustrating a comparison analysis result of complexity based on whether or not the method for constructing a pooling layer proposed in the present specification is applied to a receiver-end decoder neural network.
  • 31 is a diagram illustrating an example of a rate-matching method for achieving a high code rate proposed in the present specification.
  • 32 is a diagram illustrating channel coding performance when the pooling layer configuration method proposed in the present specification is applied.
  • 33 and 34 are diagrams illustrating channel coding performance when the interleaver design method proposed in the present specification is applied.
  • 35 is a diagram illustrating channel coding performance according to the use of various activation functions proposed in the present specification.
  • 36 is a flowchart illustrating an example of a method for transmitting and receiving a signal in a wireless communication system using an auto encoder proposed in the present specification.
  • 39 illustrates a signal processing circuit for a transmission signal.
  • FIG 40 shows another example of a wireless device to which the present invention is applied.
  • 46 illustrates an AI device applied to the present invention.
  • CDMA may be implemented with a radio technology such as Universal Terrestrial Radio Access (UTRA) or CDMA2000.
  • TDMA may be implemented with a radio technology such as Global System for Mobile communications (GSM)/General Packet Radio Service (GPRS)/Enhanced Data Rates for GSM Evolution (EDGE).
  • GSM Global System for Mobile communications
  • GPRS General Packet Radio Service
  • EDGE Enhanced Data Rates for GSM Evolution
  • OFDMA may be implemented with a radio technology such as IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802-20, Evolved UTRA (E-UTRA), and the like.
  • UTRA is part of the Universal Mobile Telecommunications System (UMTS).
  • 3GPP 3rd Generation Partnership Project
  • Long Term Evolution is a part of Evolved UMTS (E-UMTS) using E-UTRA and LTE-A (Advanced)/LTE-A pro is an evolved version of 3GPP LTE.
  • 3GPP NR New Radio or New Radio Access Technology
  • 3GPP 6G may be an evolved version of 3GPP NR.
  • LTE refers to technology after 3GPP TS 36.xxx Release 8.
  • LTE technology after 3GPP TS 36.xxx Release 10 is referred to as LTE-A
  • LTE technology after 3GPP TS 36.xxx Release 13 is referred to as LTE-A pro
  • 3GPP NR refers to technology after TS 38.
  • 3GPP 6G may refer to technology after TS Release 17 and/or Release 18.
  • xxx stands for standard document detail number.
  • LTE/NR/6G may be collectively referred to as a 3GPP system.
  • RRC Radio Resource Control
  • RRC Radio Resource Control
  • a terminal receives information through a downlink (DL) from a base station, and the terminal transmits information through an uplink (UL) to the base station.
  • Information transmitted and received between the base station and the terminal includes data and various control information, and various physical channels exist according to the type/use of the information they transmit and receive.
  • the terminal When the terminal is powered on or newly enters a cell, the terminal performs an initial cell search operation, such as synchronizing with the base station (S11). To this end, the terminal receives a primary synchronization signal (PSS) and a secondary synchronization signal (SSS) from the base station, synchronizes with the base station, and obtains information such as a cell ID. Thereafter, the terminal may receive a physical broadcast channel (PBCH) from the base station to obtain intra-cell broadcast information. On the other hand, the terminal may receive a downlink reference signal (DL RS) in the initial cell search step to check the downlink channel state.
  • PSS primary synchronization signal
  • SSS secondary synchronization signal
  • PBCH physical broadcast channel
  • DL RS downlink reference signal
  • the UE After the initial cell search, the UE receives a Physical Downlink Control Channel (PDCCH) and a Physical Downlink Control Channel (PDSCH) according to information carried on the PDCCH to obtain more specific system information. It can be done (S12).
  • PDCH Physical Downlink Control Channel
  • PDSCH Physical Downlink Control Channel
  • the terminal may perform a random access procedure (RACH) for the base station (S13 to S16).
  • RACH Random Access procedure
  • the UE transmits a specific sequence as a preamble through a Physical Random Access Channel (PRACH) (S13 and S15), and a response message to the preamble through the PDCCH and the corresponding PDSCH ((Random Access (RAR)) Response) message)
  • PRACH Physical Random Access Channel
  • RAR Random Access
  • a contention resolution procedure may be additionally performed (S16).
  • the UE After performing the procedure as described above, the UE performs PDCCH/PDSCH reception (S17) and Physical Uplink Shared Channel (PUSCH)/Physical Uplink Control Channel (Physical Uplink) as a general uplink/downlink signal transmission procedure.
  • Control Channel (PUCCH) transmission (S18) may be performed.
  • the UE may receive downlink control information (DCI) through the PDCCH.
  • DCI downlink control information
  • the DCI includes control information such as resource allocation information for the terminal, and different formats may be applied according to the purpose of use.
  • the control information transmitted by the terminal to the base station through the uplink or received by the terminal from the base station is a downlink/uplink ACK/NACK signal, a channel quality indicator (CQI), a precoding matrix index (PMI), and a rank indicator (RI). ) and the like.
  • the UE may transmit the above-described control information such as CQI/PMI/RI through PUSCH and/or PUCCH.
  • the base station transmits a related signal to the terminal through a downlink channel to be described later, and the terminal receives the related signal from the base station through a downlink channel to be described later.
  • PDSCH Physical Downlink Shared Channel
  • PDSCH carries downlink data (eg, DL-shared channel transport block, DL-SCH TB), and modulation methods such as Quadrature Phase Shift Keying (QPSK), 16 Quadrature Amplitude Modulation (QAM), 64 QAM, and 256 QAM are available. applies.
  • QPSK Quadrature Phase Shift Keying
  • QAM 16 Quadrature Amplitude Modulation
  • a codeword is generated by encoding the TB.
  • a PDSCH can carry multiple codewords. Scrambling and modulation mapping are performed for each codeword, and modulation symbols generated from each codeword are mapped to one or more layers (Layer mapping). Each layer is mapped to a resource together with a demodulation reference signal (DMRS), is generated as an OFDM symbol signal, and is transmitted through a corresponding antenna port.
  • DMRS demodulation reference signal
  • the PDCCH carries downlink control information (DCI) and a QPSK modulation method is applied.
  • DCI downlink control information
  • One PDCCH is composed of 1, 2, 4, 8, 16 CCEs (Control Channel Elements) according to an Aggregation Level (AL).
  • One CCE consists of six REGs (Resource Element Groups).
  • One REG is defined as one OFDM symbol and one (P)RB.
  • the UE obtains DCI transmitted through the PDCCH by performing decoding (aka, blind decoding) on the set of PDCCH candidates.
  • a set of PDCCH candidates decoded by the UE is defined as a PDCCH search space set.
  • the search space set may be a common search space or a UE-specific search space.
  • the UE may acquire DCI by monitoring PDCCH candidates in one or more search space sets configured by MIB or higher layer signaling.
  • the terminal transmits a related signal to the base station through an uplink channel to be described later, and the base station receives the related signal from the terminal through an uplink channel to be described later.
  • PUSCH Physical Uplink Shared Channel
  • PUSCH carries uplink data (eg, UL-shared channel transport block, UL-SCH TB) and/or uplink control information (UCI), and CP-OFDM (Cyclic Prefix - Orthogonal Frequency Division Multiplexing) waveform.
  • CP-OFDM Cyclic Prefix - Orthogonal Frequency Division Multiplexing
  • DFT-s-OFDM Discrete Fourier Transform - spread - Orthogonal Frequency Division Multiplexing
  • the UE transmits the PUSCH by applying transform precoding.
  • the UE when transform precoding is not possible (eg, transform precoding is disabled), the UE transmits a PUSCH based on the CP-OFDM waveform, and when transform precoding is possible (eg, transform precoding is enabled), the UE transmits the CP-OFDM PUSCH may be transmitted based on a waveform or a DFT-s-OFDM waveform.
  • PUSCH transmission is dynamically scheduled by a UL grant in DCI, or semi-static based on higher layer (eg, RRC) signaling (and/or Layer 1 (L1) signaling (eg, PDCCH)). Can be scheduled (configured grant).
  • PUSCH transmission may be performed on a codebook-based or non-codebook-based basis.
  • the PUCCH carries uplink control information, HARQ-ACK and/or a scheduling request (SR), and may be divided into a plurality of PUCCHs according to a PUCCH transmission length.
  • SR scheduling request
  • 6G (wireless) systems have (i) very high data rates per device, (ii) very large number of connected devices, (iii) global connectivity, (iv) very low latency, (v) battery- It aims to reduce energy consumption of battery-free IoT devices, (vi) ultra-reliable connections, and (vii) connected intelligence with machine learning capabilities.
  • the vision of the 6G system can be in four aspects: intelligent connectivity, deep connectivity, holographic connectivity, and ubiquitous connectivity, and the 6G system can satisfy the requirements shown in Table 1 below. That is, Table 1 is a table showing an example of the requirements of the 6G system.
  • 6G systems include Enhanced mobile broadband (eMBB), Ultra-reliable low latency communications (URLLC), massive machine-type communication (mMTC), AI integrated communication, Tactile internet, High throughput, High network capacity, High energy efficiency, Low backhaul and It may have key factors such as access network congestion and enhanced data security.
  • eMBB Enhanced mobile broadband
  • URLLC Ultra-reliable low latency communications
  • mMTC massive machine-type communication
  • AI integrated communication Tactile internet
  • High throughput High network capacity
  • High energy efficiency High energy efficiency
  • Low backhaul Low backhaul and It may have key factors such as access network congestion and enhanced data security.
  • FIG. 2 is a diagram illustrating an example of a communication structure that can be provided in a 6G system.
  • 6G systems are expected to have 50 times higher simultaneous wireless connectivity than 5G wireless communication systems.
  • URLLC a key feature of 5G, will become an even more important technology by providing an end-to-end delay of less than 1ms in 6G communication.
  • 6G systems will have much better volumetric spectral efficiencies as opposed to frequently used areal spectral efficiencies.
  • the 6G system can provide very long battery life and advanced battery technology for energy harvesting, so mobile devices will not need to be charged separately in the 6G system.
  • New network characteristics in 6G may be as follows.
  • 6G is expected to be integrated with satellites to provide a global mobile population.
  • the integration of terrestrial, satellite and public networks into one wireless communication system is very important for 6G.
  • the 6G wireless network will deliver power to charge the batteries of devices such as smartphones and sensors. Therefore, wireless information and energy transfer (WIET) will be integrated.
  • WIET wireless information and energy transfer
  • Small cell networks The idea of small cell networks was introduced to improve the received signal quality as a result of improved throughput, energy efficiency and spectral efficiency in cellular systems. As a result, small cell networks are essential characteristics for communication systems beyond 5G and Beyond 5G (5GB). Accordingly, the 6G communication system also adopts the characteristics of the small cell network.
  • Ultra-dense heterogeneous networks will be another important characteristic of 6G communication systems.
  • a multi-tier network composed of heterogeneous networks improves overall QoS and reduces costs.
  • a backhaul connection is characterized as a high-capacity backhaul network to support high-capacity traffic.
  • High-speed fiber optics and free-space optics (FSO) systems may be possible solutions to this problem.
  • High-precision localization (or location-based service) through communication is one of the functions of the 6G wireless communication system. Therefore, the radar system will be integrated with the 6G network.
  • Softening and virtualization are two important features that underlie the design process in 5GB networks to ensure flexibility, reconfigurability and programmability. In addition, billions of devices can be shared in a shared physical infrastructure.
  • AI The most important and new technology to be introduced in 6G systems is AI.
  • AI was not involved in the 4G system.
  • 5G systems will support partial or very limited AI.
  • the 6G system will be AI-enabled for full automation.
  • Advances in machine learning will create more intelligent networks for real-time communication in 6G.
  • Incorporating AI into communications can simplify and enhance real-time data transmission.
  • AI can use numerous analytics to determine how complex target tasks are performed. In other words, AI can increase efficiency and reduce processing delays.
  • AI can also play an important role in M2M, machine-to-human and human-to-machine communication.
  • AI can be a rapid communication in BCI (Brain Computer Interface).
  • BCI Brain Computer Interface
  • AI-based communication systems can be supported by metamaterials, intelligent structures, intelligent networks, intelligent devices, intelligent cognitive radios, self-sustaining wireless networks, and machine learning.
  • AI-based physical layer transmission means applying a signal processing and communication mechanism based on an AI driver rather than a traditional communication framework in a fundamental signal processing and communication mechanism.
  • deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO mechanism, AI-based resource scheduling and It may include an allocation (allocation) and the like.
  • Machine learning may be used for channel estimation and channel tracking, and may be used for power allocation, interference cancellation, etc. in a physical layer of a downlink (DL). In addition, machine learning may be used for antenna selection, power control, symbol detection, and the like in a MIMO system.
  • DL downlink
  • machine learning may be used for antenna selection, power control, symbol detection, and the like in a MIMO system.
  • Deep learning-based AI algorithms require large amounts of training data to optimize training parameters.
  • a lot of training data is used offline. This means that static training on training data in a specific channel environment may cause a contradiction between dynamic characteristics and diversity of a wireless channel.
  • signals of the physical layer of wireless communication are complex signals.
  • further research on a neural network for detecting a complex domain signal is needed.
  • Machine learning refers to a set of actions that trains a machine to create a machine that can perform tasks that humans can or cannot do.
  • Machine learning requires data and a learning model.
  • data learning methods can be roughly divided into three types: supervised learning, unsupervised learning, and reinforcement learning.
  • Neural network learning is to minimize errors in output. Neural network learning repeatedly inputs learning data to the neural network, calculates the output and target errors of the neural network for the training data, and backpropagates the neural network error from the output layer of the neural network to the input layer in the direction to reduce the error. ) to update the weights of each node in the neural network.
  • Supervised learning uses training data in which the correct answer is labeled in the training data, and in unsupervised learning, the correct answer may not be labeled in the training data. That is, for example, the training data in the case of supervised learning related to data classification may be data in which categories are labeled for each of the training data.
  • the labeled training data is input to the neural network, and an error can be calculated by comparing the output (category) of the neural network with the label of the training data.
  • the calculated error is back propagated in the reverse direction (ie, from the output layer to the input layer) in the neural network, and the connection weight of each node of each layer of the neural network may be updated according to the back propagation.
  • the change amount of the connection weight of each node to be updated may be determined according to a learning rate.
  • the computation of the neural network on the input data and the backpropagation of errors can constitute a learning cycle (epoch).
  • the learning rate may be applied differently depending on the number of repetitions of the learning cycle of the neural network. For example, in the early stages of learning of a neural network, a high learning rate can be used to increase the efficiency by allowing the neural network to quickly obtain a certain level of performance, and in the late learning period, a low learning rate can be used to increase the accuracy.
  • the learning method may vary depending on the characteristics of the data. For example, in a case where the purpose of accurately predicting data transmitted from a transmitter in a communication system is accurately predicted by a receiver, it is preferable to perform learning using supervised learning rather than unsupervised learning or reinforcement learning.
  • the learning model corresponds to the human brain, and the most basic linear model can be considered. ) is called
  • the neural network cord used as a learning method is largely divided into deep neural networks (DNN), convolutional deep neural networks (CNN), and Recurrent Boltzmann Machine (RNN) methods. have.
  • DNN deep neural networks
  • CNN convolutional deep neural networks
  • RNN Recurrent Boltzmann Machine
  • An artificial neural network is an example of connecting several perceptrons.
  • the huge artificial neural network structure may extend the simplified perceptron structure shown in FIG. 3 to apply input vectors to different multidimensional perceptrons.
  • an input value or an output value is referred to as a node.
  • the perceptron structure shown in FIG. 3 can be described as being composed of a total of three layers based on an input value and an output value.
  • An artificial neural network in which H (d+1)-dimensional perceptrons exist between the 1st layer and the 2nd layer and K (H+1)-dimensional perceptrons exist between the 2nd layer and the 3rd layer can be expressed as shown in FIG. 4 .
  • the layer where the input vector is located is called the input layer
  • the layer where the final output value is located is called the output layer
  • all the layers located between the input layer and the output layer are called the hidden layer.
  • the input layer is counted excluding the input layer, so it can be viewed as a total of two layers.
  • the artificial neural network is constructed by connecting the perceptrons of the basic blocks in two dimensions.
  • the aforementioned input layer, hidden layer, and output layer can be jointly applied in various artificial neural network structures such as CNN and RNN to be described later as well as multi-layer perceptron.
  • various artificial neural network structures such as CNN and RNN to be described later as well as multi-layer perceptron.
  • the artificial neural network becomes deeper, and a machine learning paradigm that uses a sufficiently deep artificial neural network as a learning model is called deep learning.
  • an artificial neural network used for deep learning is called a deep neural network (DNN).
  • DNN deep neural network
  • the deep neural network shown in FIG. 5 is a multi-layer perceptron composed of eight hidden layers and eight output layers.
  • the multilayer perceptron structure is referred to as a fully-connected neural network.
  • a connection relationship does not exist between nodes located in the same layer, and a connection relationship exists only between nodes located in adjacent layers.
  • DNN has a fully connected neural network structure and is composed of a combination of a number of hidden layers and activation functions, so it can be usefully applied to figure out the correlation between input and output.
  • the correlation characteristic may mean a joint probability of input/output.
  • 5 is a diagram illustrating an example of a deep neural network.
  • nodes located inside one layer are arranged in a one-dimensional vertical direction.
  • the nodes are two-dimensionally arranged with w horizontally and h vertical nodes (convolutional neural network structure of FIG. 6 ).
  • a weight is added per connection in the connection process from one input node to the hidden layer, a total of h ⁇ w weights must be considered.
  • h ⁇ w nodes in the input layer a total of h2w2 weights are needed between two adjacent layers.
  • FIG. 6 is a diagram illustrating an example of a convolutional neural network.
  • the convolutional neural network of FIG. 6 has a problem in that the number of weights increases exponentially according to the number of connections, so instead of considering the connection of all modes between adjacent layers, it is assumed that a filter with a small size exists in FIG. As in Fig., the weighted sum and activation function calculations are performed on the overlapping filters.
  • One filter has a weight corresponding to the number of its size, and weight learning can be performed so that a specific feature on an image can be extracted and output as a factor.
  • a filter having a size of 3 ⁇ 3 is applied to the upper leftmost region 3 ⁇ 3 of the input layer, and an output value obtained by performing weighted sum and activation function operations on the corresponding node is stored in z22.
  • the filter performs weight sum and activation function calculations while moving horizontally and vertically by a predetermined interval while scanning the input layer, and places the output value at the current filter position.
  • This calculation method is similar to a convolution operation on an image in the field of computer vision, so a deep neural network with such a structure is called a convolutional neural network (CNN), and a hidden layer generated as a result of the convolution operation is called a convolutional layer.
  • a neural network having a plurality of convolutional layers is called a deep convolutional neural network (DCNN).
  • FIG. 7 is a diagram illustrating an example of a filter operation in a convolutional neural network.
  • the number of weights can be reduced by calculating the weighted sum by including only nodes located in the region covered by the filter in the node where the filter is currently located. Due to this, one filter can be used to focus on features for the local area. Accordingly, CNN can be effectively applied to image data processing in which physical distance in a two-dimensional domain is an important criterion. Meanwhile, in CNN, a plurality of filters may be applied immediately before the convolution layer, and a plurality of output results may be generated through a convolution operation of each filter.
  • a structure in which this method is applied to an artificial neural network is called a recurrent neural network structure.
  • a recurrent neural network connects elements (x1(t), x2(t), ,..., xd(t)) of a certain gaze t on a data sequence to a fully connected neural network.
  • the immediately preceding time point t-1 is a structure in which a weighted sum and an activation function are applied by inputting the hidden vectors (z1(t1), z2(t1), ..., zH(t1)) together.
  • the reason why the hidden vector is transferred to the next time in this way is because it is considered that information in the input vector at the previous time is accumulated in the hidden vector of the current time.
  • FIG. 8 shows an example of a neural network structure in which a cyclic loop exists.
  • the recurrent neural network operates in a predetermined time sequence with respect to an input data sequence.
  • the hidden vector (z1(1), z2(1),.. .,zH(1)) is input with the input vector of time 2 (x1(2),x2(2),...,xd(2)), and through the weighted sum and activation functions, the vector of the hidden layer (z1( 2),z2(2) ,...,zH(2)) are determined. This process is repeatedly performed until time point 2, time point 3, ,,, and time T.
  • FIG. 9 shows an example of the operation structure of a recurrent neural network.
  • a deep recurrent neural network (DRNN)
  • the recurrent neural network is designed to be usefully applied to sequence data (eg, natural language processing).
  • Deep Q-Network As a neural network core used as a learning method, in addition to DNN, CNN, and RNN, Restricted Boltzmann Machine (RBM), deep belief networks (DBN), Deep Q-Network and It includes various deep learning techniques such as, and can be applied to fields such as computer vision, voice recognition, natural language processing, and voice/signal processing.
  • RBM Restricted Boltzmann Machine
  • DNN deep belief networks
  • Deep Q-Network includes various deep learning techniques such as, and can be applied to fields such as computer vision, voice recognition, natural language processing, and voice/signal processing.
  • AI-based physical layer transmission means applying a signal processing and communication mechanism based on an AI driver rather than a traditional communication framework in a fundamental signal processing and communication mechanism.
  • deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO mechanism, AI-based resource scheduling and It may include an allocation (allocation) and the like.
  • Various attempts have been made to apply a neural network to a communication system.
  • an attempt to apply a neural network to a physical layer has mainly focused on optimizing a specific function of a receiver.
  • the performance of the receiving end can be improved by configuring a channel decoder as a neural network.
  • performance improvement may be achieved by implementing a MIMO detector as a neural network.
  • the auto-encoder is a type of artificial neural network having a characteristic of outputting the same information as the information input to the auto-encoder. Since the goal of the communication system is to restore the signal transmitted by the transmitting end to the receiving end without distortion, the characteristics of the auto-encoder can suitably meet the goal of the communication system.
  • the transmitting end and the receiving end of the communication system are each configured with a neural network, and through this, optimization is performed from an end-to-end point of view to achieve performance improvement.
  • the transmitting end 101 is composed of a neural network expressed by f(s)
  • the receiving end 103 is composed of a neural network expressed by g(s). That is, the neural networks f(s) and g(s) are components of the transmitting end 101 and the receiving end 103, respectively.
  • each of the transmitting end 101 and the receiving end 103 is configured as a neural network (or based on a neural network).
  • AI artificial intelligence
  • ML machine learning
  • New channel coding technologies such as low-density parity-check (LDPC) and polar coding have been introduced in 5G.
  • the channel coding performance of the LDPC and the polar coding exceeds that of a turbo code or tail-biting convolutional code (TBCC) used in 4G.
  • TBCC turbo code or tail-biting convolutional code
  • the channel coding using the LDPC and polar coding is designed to be optimized for an additive white Gaussian noise (AWGN) channel when the technology is developed and reflected in the 5G standard.
  • AWGN additive white Gaussian noise
  • a modulation and code-rate set (MCS) is defined by combining modulation and code-rate, and the MCS is adapted to the characteristics of the channel. set and used for communication.
  • MCS modulation and code-rate set
  • the communication is used to include both wired/wireless communication, and is as follows.
  • FER Full Error Rate
  • BLER Block Error Rate
  • MCS MCS
  • An FER value of 10 ⁇ (-1) indicates that an average of 1 transmission error occurs when transmitting 10 signals
  • a BLER value of 10 ⁇ (-2) indicates that an average of 1 transmission error occurs when transmitting 100 signals. Indicates that a transmission error has occurred.
  • a retransmission operation is defined in the 3GPP standard, and a hybrid automatic repeat request (HARQ) technique is used to increase the efficiency of the retransmission operation.
  • HARQ hybrid automatic repeat request
  • the base station For retransmission, the base station must store data to be retransmitted. In addition, the terminal must store the previously received data in order to combine the previously received data and the retransmitted data. Accordingly, the memory of the base station/terminal for storing the data to be retransmitted/the previously received data is wasted.
  • the present specification proposes a method of configuring a coding scheme optimized for a channel between a transmitter and a receiver through a neural network using an auto-encoder architecture. More specifically, the method proposed in the present specification relates to a coding technique for correcting an error occurring in a communication channel using an auto-encoder neural network.
  • BLER and retransmission rate can be improved through the method proposed in this specification.
  • the data throughput of the system can be increased, and the end-to-end delay can be reduced by reducing the turn-around delay. ) can be improved.
  • 11 is a diagram illustrating an example of a conceptual structure of a communication chain using an auto-encoder.
  • the transmitting end 101 may be interpreted as an encoder f(.), which is one of the components constituting the auto-encoder, and the receiving end 103 is It can be interpreted as a decoder g(.), which is one of the components constituting the auto-encoder.
  • a channel exists between the transmitter 101 which is the encoder f(.) constituting the auto-encoder and the receiving end 103 which is the decoder g(.) constituting the auto-encoder.
  • the transmitting end 101 may be referred to as a 'transmitting end encoder'
  • the receiving end 103 may be referred to as a 'receiving end decoder', and variously named within a range that can be interpreted in the same/similar manner.
  • the structure of the auto encoder can be divided into two structures: under-complete AE and over-complete AE.
  • the under-complete AE has a structure in which X, which is output data of the transmitter f(.), is expressed in an amount smaller than U, which is input data to the transmitter f(.), which is a feature compression/extraction (Feature compression/extraction). ) can be used in techniques such as
  • over-complete AE has a structure in which X, which is the output data of the transmitter f(.), is expressed in a larger amount than U, which is the input data to the transmitter f(.).
  • the input data U Redundancy is added to , and output data X is output.
  • This may be used in a technique for adding parity, such as channel coding.
  • an auto-encoder based on an over-complete AE structure is used. In this case, the amount of redundancy added to the input data may be adjusted based on the code-rate (R).
  • the transmitter encoder f(.) 101 encodes (over-complete) the input data U in an amount inversely proportional to the code-rate (R).
  • the encoded input data is transmitted to the receiving end decoder g(.) 103 through a channel, and the receiving end decoder g(.) 103 decodes the encoded data to restore the input data before encoding.
  • the method proposed in the present specification relates to a (channel) coding technique for correcting an error occurring in a communication channel using an Autoencoder Neural Network (AE-NN). More specifically, the present specification proposes a specific AE-NN structure so that a (channel) coding technique for correcting an error occurring in a communication channel can be efficiently performed.
  • the construction of the specific AE-NN structure is based on (i) the structure of the transmitting end encoder neural network of the transmitting end constituting the communication system and (ii) the structure of the receiving end encoder neural network of the receiving end constituting the communication system. It may mean to configure
  • FIG. 12 is a conceptual diagram illustrating an example of a communication system based on an auto encoder proposed in the present specification.
  • u 1201 is information to be transmitted by the transmitting end 101 , and the information is coded through the transmitting end encoder neural network (NN-encoder) of the transmitting end 101 .
  • the information coded based on the transmitter encoder neural network is transmitted from the transmitter 101 to the receiver 103 through a channel between the transmitter 101 and the receiver 103 . Thereafter, the receiving end 103 receives the coded information that has passed through the channel, and restores the coded information based on the receiving end decoder neural network (NN-decoder).
  • the receiving end 103 restores the coded information means that the receiving end 103, based on the receiving end decoder neural network, (i) estimates a channel through which the coded information is transmitted, (ii) the It may be interpreted as including operations of decoding the coded information based on the estimated channel, and the above interpretation may be equally applied below.
  • the transmitting end encoder neural network and the receiving end encoder neural network are pre-trained to be optimized for a channel condition, and the transmitting end 101 and the receiving end 103 are pre-trained in the transmitting end encoder neural network and the receiving end encoder neural network based on the channel condition. communication can be optimized for
  • the auto encoder-based coding method proposed in the present specification applies a turbo code method, which is one of error correction codes, to artificial intelligence.
  • FIGS. 13 and 13 and 14 are diagrams illustrating examples of turbo codes to help understand the method proposed in the present specification.
  • the turbo code is basically two component codes and an interleaver (interleaver) between the two component codes. ) is located.
  • FIG. 13 relates to a parallel concatenated convolutional code (PCCC) turbo code.
  • PCCC parallel concatenated convolutional code
  • a first component code 1301 denoted by ENC 1 and a second component code 1302 denoted by ENC 2 are positioned in parallel, and the component codes 1301 and 1302) amongst
  • the interleaver 1303 denoted by is configured in a form in which it is located.
  • the input u1 of the PCCC turbo code is outputted by being composed of x0, x1 and x2, where x0 is the same as the input u1, and the x1 is the input u1 encoded by the first component code 1301 and output. will be.
  • the x2 is output by encoding the input u1 interleaved by the interleaver 1303 and u2 using the second component code 1302 . Since the PCCC turbo code receives one input u1 and outputs three values (x0, x1, and x2), the value of the code rate of the PCCC turbo code is 1/3.
  • FIG. 14 relates to a serial concatenated convolutional codes (SCCC) turbo code.
  • SCCC serial concatenated convolutional codes
  • a first component code 1401 denoted as ENC 1 and a second component code 1402 denoted as ENC 2 are located, and the component codes 1401 and 1402 are Between
  • the interleaver 1403 denoted by <RTI ID 0.0>
  • the input u1 of the SCCC turbo code is composed of x0, x1, and x2 and is output. More specifically, the input u1 is encoded by the first component code 1401 and output as c1.
  • the c1 is interleaved by the interleaver 1403, and the second component code 1402 receives the interleaved c1 as an input u2.
  • the u2 is encoded by the second component code 1402, and as a result, c2 composed of x0, x1 and x2 is output. Since the SCCC turbo code receives one input u1 and outputs three values (x0, x1, and x2), the value of the code rate of the SCCC turbo code is 1/3.
  • the SCCC turbo code has somewhat lower waterfall performance than the PCCC turbo code, but may have better error floor performance than the PCCC turbo code.
  • SCCC turbo code Since the SCCC turbo code has better error floor performance than the PCCC turbo code, in this specification, a method in which the form of the SCCC-turbo code is applied to artificial intelligence is proposed for stable data transmission.
  • the method in which the form of the SCCC-turbo code is applied to artificial intelligence may be referred to as a Serially Concatenated Neural-Network AutoEncoder (SCNN-AE).
  • 15 is a diagram illustrating an example of the overall structure of a serial-connected neural network auto-encoder proposed in the present specification.
  • a transmitting end 101 is configured based on a transmitting end encoder neural network having a specific structure.
  • the transmitting end 101 encodes input data u based on the transmitting end encoder neural network, and the encoded input data (x0, x1, and x2) are included in a signal transmitted by the transmitter and transmitted to the receiver 103 over a channel.
  • the transmitting end encoder neural network of the transmitting end 101 includes a neural network f1 (101-1), a neural network f2 (101-2), and an interleaver ( ) (101-3) contains (consisting of).
  • f1 (101-1) receives input data of the transmitter-end encoder neural network, encodes it, and outputs a first codeword.
  • the interleaver 101-3 receives the first codeword from f1 101-2, interleaves it, and outputs the interleaved first codeword.
  • f2 (101-3) receives the interleaved first codeword from the interleaver 101-3 and outputs second codewords (x0, x1, and x2).
  • the second codeword is transmitted on a channel through a power normalizer 101-4 included in the transmitter-end encoder neural network.
  • the power normalizer serves to adjust the size of the output power of the transmitter 101 to be 1.
  • the transmitter-end encoder neural network includes (i) a first encoder neural network that receives input data and outputs a first codeword, (ii) receives the first codeword and interleaving (interleaving) and outputting the first interleaved codeword (interleaver) and (iii) receiving the first interleaved codeword as input and outputting a second codeword constituting the encoded input data
  • a first encoder neural network that receives input data and outputs a first codeword
  • iii) receiving the first interleaved codeword as input and outputting a second codeword constituting the encoded input data
  • the transmitter encoder neural network may be described as further including a power normalizer that adjusts the output power of the signal transmitted by the transmitter 101 to be 1.
  • the receiving end 103 is configured in a form in which at least one or more basic receiving end decoder neural networks having a specific structure are sequentially connected. to receive the signal transmitted by the transmitter 101, and restore the encoded input data (x0, x1, and x2) of the transmitter 101 included in the signal.
  • Imax represents the maximum value (ie, maximum decoding iteration) of a basic receiving-end decoder neural network that can be included (configurable) in the receiving-end decoder neural network.
  • the basic receiving end decoder neural network located first among at least one or more basic receiving end decoder neural networks included in the receiving end decoder neural network (constituting the receiving end decoder neural network) will be described as an example.
  • the basic receiving end decoder neural network of the receiving end 103 includes a neural network g2 (103-2), a neural network g1 (103-1) and a de-interleaver ( ) (103-3).
  • g2 (103-2) is the decoding of the codeword (second codewords (x0, x1, and x2)) related to f2 (101-2) included in the signal of the transmitter 101 transmitted over the channel.
  • the de-interleaver 103-3 receives the second decoded codeword from g2 103-2, de-interleaves it, and the de-interleaved second decoded codeword. to output At this time, since decoding and de-interleaving are sequentially performed on the codeword related to f2 (101-2) for the de-interleaved second decoded codeword, the de-interleaved second decoded codeword is It may be a codeword (first codeword) related to f1 (101-1).
  • the g1 (103-1) receives the codeword related to the f1 (101-1) from the de-interleaver 103-3, decodes it, and outputs a first decoded codeword.
  • the first decoded codeword is interleaved and input to a basic receiving-end decoder neural network connected next to the first-located basic receiving-end decoder neural network.
  • the interleaving of the first decoded codeword is performed between (i) the first-located basic receiving-end decoder neural network and (ii) the basic receiving-end decoder neural network connected to the next of the first-located basic receiving-end decoder neural network. It is performed by an interleaver located in .
  • the decoder neural network receives the signal transmitted by the transmitter 101 transmitted over the channel together. It goes without saying that the above description may also be applied to g2 and g1 respectively included in at least one or more basic receiving end decoder neural networks included in the receiving end decoder neural network.
  • the receiver decoder neural network includes at least one or more basic decoder neural networks sequentially connected.
  • each of the at least one basic decoder neural network (i) performs decoding on the second codeword output from the second encoder neural network included in the transmitter encoder neural network, and outputs the second decoded codeword
  • a second decoder neural network (ii) a de-interleaver that receives the second decoded codeword, de-interleaves it, and outputs the de-interleaved second decoded codeword ) and (iii) performing decoding on the de-interleaved second decoded codeword, and outputting a first decoded codeword based on the decoding on the de-interleaved second decoded codeword. It can be described as including a decoder neural network serially.
  • the basic receiving end decoder neural network located first in the receiving end decoder neural network among the at least one or more basic decoder neural networks is a codeword (second codeword (x0) , x1 and x2)) are only input.
  • the basic receiving end decoder neural networks other than the first located basic receiving end decoder neural network have (i) the first decoded codeword output from the basic decoder neural network located immediately before itself and (ii) the receiving end 103 is transmitted on the channel. All codewords (second codewords (x0, x1, and x2)) included in the received signal from the transmitter are received as input.
  • the fact that the first-located basic receiving end decoder neural network receives only the codewords (second codewords (x0, x1 and x2)) included in the transmitting end signal received by the receiving end 103 on the channel means that its It may be understood that the codeword received from the basic receiving end decoder neural network located immediately before is 0.
  • 16 is a diagram illustrating an example of a transmitter-end encoder neural network to which the method proposed in the present specification can be applied.
  • FIG. 16 is a diagram related to a specific implementation form of the first encoder neural network and the second encoder neural network included in (constituting) the transmitter-end encoder neural network.
  • the transmitter encoder neural network in FIG. 16 includes a first encoder neural network 101-1, an interleaver 101-3, and a second encoder neural network 101-2 serially. can be composed of
  • a first encoder neural network (f1) 101-1 is composed of two encoder component neural networks (f1(1) (101-1a) and f1(2) (101-1b)),
  • a two encoder neural network (f2) 101-2 is a three encoder component neural network (f2(1) 101-2a, f2(2) 101-2b and f2(3) 101-2c) can be composed of
  • f1(1)(101-1a), f1(2)(101-1b), f2(1)(101-2a), and f2(2)(101-2b) may be composed of the same type of neural network.
  • f1(1)(101-1a), f1(2)(101-1b), f2(1)(101-2a), and f2(2)(101-2b) of the same type of neural network. may be referred to as a first encoder component neural network.
  • f2(3) 101-2c may be configured as a neural network different from the first encoder component neural network, which may be referred to as a second encoder component neural network.
  • the first encoder neural network (f1(1,2)) 101-1 receives an input u and generates a codeword c1 with respect to the received input u.
  • the codeword c1 may be generated based on the encoding of the input u received by the first encoder neural network f1(1,2) 101-1.
  • the first encoder neural network (f1(1,2)) 101-1 is configured such that the value of the code-rate of the codeword c1 is 1/2. That is, the first encoder neural network (f1(1,2)) 101-1 receives an input u having a length of 1 and outputs a codeword c1 having a length of 2.
  • the second encoder neural network (f2(1,2,3)) 101-2 receives a codeword c1 and generates a codeword c2 with respect to the received codeword c1.
  • the codeword c2 may be generated based on the encoding of the codeword c1 received by the second encoder neural network f2(1,2,3) 101-2.
  • the second encoder neural network f2(1,2,3) 101-2 is configured such that the code-rate value of the codeword c2 is 2/3. That is, the second encoder neural network (f2(1,2,3)) 101-1 receives a codeword c1 having a length of 2 and outputs a codeword c2 having a length of 3.
  • the number of encoder component neural networks constituting the first encoder neural network 101-1 is two, and encoder component neural networks constituting the second encoder neural network 101-2
  • the number of is described as an example of three, it goes without saying that the first encoder neural network 101-1 and the second encoder neural network 101-2 may be configured in various forms. That is, the first encoder neural network 101-1 includes n1 first encoder component neural networks, and the second encoder neural network 101-2 includes n2 first encoder component neural networks and n3 second encoder component neural networks. It may be composed of an encoder component neural network. In this case, n1, n2, and n3 may be non-zero positive integers.
  • the input u of the first encoder neural network 101-1 may be k
  • the code rate becomes k/n1
  • the second encoder neural network 101-2 The code rate may be n1/(n2+n3).
  • the values of n1 and n2 may be the same, and the value of n3 may be different from the values of n1 and n2.
  • the value of n3 may be 1.
  • the total code-rate becomes k/(n2+n3).
  • 17 is a diagram illustrating an example of a receiver decoder neural network to which the method proposed in the present specification can be applied.
  • FIG. 17 shows a detailed operation of a basic receiving end decoder neural network constituting a receiving end decoder neural network.
  • g2 denotes the second decoder neural network 103-2 described with reference to FIG. 15
  • g1 denotes the first decoder neural network 103-1 described with reference to FIG. 15 .
  • Reference numeral 103-3 denotes the de-interleaver described in FIG. 15, denotes the interleaver described with reference to FIG. 15 .
  • the second decoder neural network 103-2 performs decoding on the data (x0, x1, x2) transmitted from the transmitter 101 on the channel, and is an input of the second encoder neural network constituting the encoder neural network of the transmitter. Create A Posteriori u2 corresponding to . From the generated A Posteriori u2, u2 (A Priori) having correlation with the inputs (x0, x1 and x2) is removed (+: operation) (103-5), and the de-interleaver ( ⁇ -1) ( 103-3), the codeword c1 (extrinsic information) corresponding to the output of the first encoder neural network constituting the transmitter-end encoder neural network is obtained.
  • the first decoder neural network (g1) 103-1 receives the codeword c1 (A Priori) and generates A Posteriori c1 by decoding the codeword c1 (A Priori). do.
  • the first decoder neural network 103-1 is removed from A posterior c1 generated by A Priori c1 (103-6), and then interleaved (103-4).
  • the interleaved data is transmitted to the input of the basic receiving-end decoder neural network connected immediately after the basic receiving-end decoder neural network that has performed the above-described operations.
  • FIG. 18 is a diagram illustrating an example of a receiver decoder neural network to which the method proposed in the present specification can be applied.
  • FIG. 18 shows an example of a receiver decoder neural network configured by successively n-iteration of the n basic receiver decoder neural networks described in FIG. 17 .
  • the subtraction operations 103-5 and 103-6 for generating extrinsic information described in FIG. 17 are included in g2,i and g1,i.
  • the rest of the basic receiver decoder neural networks except for the first basic receiver decoder neural network are (i) data transmitted on the channel and (ii) the basic receiver decoder neural network located immediately in front of itself. Data generated based on the decoding is received together, and decoding is performed based on the data of (i) and (ii).
  • Decoding is repeatedly performed based on the data of (i) and (ii), so that (a) data reconstructed in the basic receiving end decoder neural network located at the end and (b) input data (u) transmitted by the transmitting end encoder error can be reduced.
  • the transmitter-end encoder neural network/receive-end decoder neural network can be configured to have specific structural limitations and , the neural network can learn the specific structure.
  • CNN convolutional neural network
  • a convolutional neural network is used to configure a transmitter encoder and a receiver decoder. This is because filtering using CNN's Kernel works like a convolution code. From the viewpoint of the encoder of the transmitter, the more hidden layers of the neural network constituting the encoder of the transmitter, the better the input is separated. On the other hand, as the number of hidden layers increases, the complexity of the neural network increases, and the degree of performance improvement becomes insignificant compared to the degree of increase in the number, so it is important to configure an appropriate number of hidden layers.
  • 19 is a diagram illustrating an example of a basic neural network configuration unit for configuring a neural network to which the method proposed in the present specification can be applied.
  • a first decoder neural network g1 constituting a receiver-end decoder neural network and a method of configuring the second decoder neural network g2 is a method of configuring the f1, f2, g1 and g2 based on the same structure, but applying only the parameters applied to each differently. That is, to configure the f1, f2, g1, and g2, the neural network structural units shown in FIG.
  • a parameter such as the number of filters may be differently applied to each of f1, f2, g1, and g2.
  • Cin denotes a dimension of input data
  • k denotes a kernel-size (filter-size)
  • Cout denotes a dimension of output data
  • the f1, f2, and g1 and a neural network constituting unit that is the basis of the g2 configuration is a filtering function (Conv1d) 1910 for filtering input data
  • an activation function (ACT) activation function
  • ACT activation function
  • a neural network uses a function with non-linearity as an activation function to maintain independence between layers.
  • a Rectified Linear Unit (ReLu) function or a modified ReLu function is used as an activation function.
  • ReLu Rectified Linear Unit
  • f1(1,2), f2(1,2,3)/g1, g2 of the transmitter encoder/receiver decoder one neural network constituent unit (Conv1dCode) constitutes one hidden layer, and Cin/Cout has different parameters.
  • 20 and 21 are diagrams illustrating an example of a transmitter-end encoder neural network configured based on a neural network configuration unit proposed in the present specification.
  • FIG. 20 is a diagram illustrating an example of a first encoder component neural network constituting the first encoder neural network and the second encoder neural network of FIG. 16 .
  • the first encoder component neural network may be composed of two layers, and in the last stage, a linear regression and an exponential linear unit (eLu) function are used as activation functions.
  • Co represents the number of filters used for convolution of CNN in the transmitter encoder. More specifically, in the first encoder component neural network, a first layer among two layers receives one input data and outputs output data having Co number of output channels. Also, the second layer receives output data having Co output channels output from the first layer, and outputs output data having Co output channels. Thereafter, linear regression may be applied to the output data output from the second layer, and the eLu function may be applied and output to the output data of the second layer to which the linear regression is applied.
  • eLu exponential linear unit
  • FIG. 21 is a diagram illustrating an example of a second encoder component neural network constituting the second encoder neural network of FIG. 16 .
  • the second encoder component neural network may consist of two layers, and in the last stage, a linear regression and an eLu function are used as activation functions.
  • Co represents the number of filters used for convolution of CNN in the transmitter encoder. More specifically, in the second encoder component neural network, a first layer among two layers receives input data having two input channels and outputs output data having a number of output channels Co. Also, the second layer receives output data having Co output channels output from the first layer, and outputs output data having Co output channels. Thereafter, linear regression may be applied to the output data output from the second layer, and the eLu function may be applied and output to the output data of the second layer to which the linear regression is applied.
  • FIG. 22 is a diagram illustrating an example of a receiver decoder neural network configured based on a neural network configuration unit proposed in the present specification.
  • FIG. 22 is a diagram illustrating an example of configuring the first decoder neural network g1 and the second decoder neural network g2 of FIG. 17 .
  • the first encoder component neural network may be composed of five layers, and a linear regression and a sigmoid function are used as activation functions in the last stage.
  • Co and FT are values set before learning of the receiver-end decoder neural network, and as Co and FT values increase, the accuracy of the neural network increases, but the learning time and complexity increase.
  • This proposal relates to a method for selecting an activation function that can be applied to the method for constructing a neural network proposed in the present specification.
  • ReLu Rectified Linear Unit
  • the ReLu function has advantages in that the operation is fast and the convergence speed is fast, but when the input is negative, the gradient becomes '0' and thus learning is not performed.
  • three modified ReLu functions can be used.
  • FIG. 23 is a diagram illustrating examples of various activation functions that can be used in the method for constructing a neural network proposed in the present specification.
  • FIG. 23 three functions for compensating for the shortcomings of the ReLu function, that is, a PReLu function 2320 , a LeakyRelu function 2330 , and an eRelu function 2340 are shown. It can be seen that the inclinations of the activation functions 2320 , 2330 , and 2340 shown in FIG. 23 are not 0 even when the input value is negative.
  • the SCNN-AE proposed in this specification can be designed to determine an appropriate activation function based on the experimental results and performance and complexity of various ReLu-based functions.
  • This proposal proposes to select an activation function to be used in a neural network based on experimental results, performance, and complexity based on ReLu 2310 , PReLu 2320 , and eReLu 2340 among the functions shown in FIG. 23 .
  • Table 2 above is a table summarizing the equations of the ReLu (2310), PReLu (2320), and eReLu (2340) functions, and advantages/disadvantages of each.
  • the eReLu function uses an exponential function to increase the complexity of the function, but for negative values, the nonlinearity is stronger than the other two functions, so it can perform better than the other two functions at negative values.
  • PReLu is a form that can give benefits both in terms of performance and complexity, and can be expected to have intermediate performance of the other two functions.
  • the value of the constant 'a' of PReLu may be determined through training of the neural network.
  • This proposal relates to the design of an interleaver used in a transmitter-end encoder neural network and a receiver-end decoder neural network.
  • the following benefits can be obtained through the use of the interleaver.
  • the interleaver is designed to satisfy the following two requirements.
  • Randomness must be guaranteed over a certain level.
  • Quadratic Polynomial Permutation (QPP) interleaver As an interleaver generation method satisfying the above requirements, there may be a Quadratic Polynomial Permutation (QPP) interleaver.
  • the QPP interleaver may be generated based on the following equation.
  • L is the size of the interleaver
  • f0 is a constant offset.
  • f1 is a prime number that satisfies the relation with L.
  • the value of f1 may be determined to be a prime number.
  • f2 is a number corresponding to a power of 2 among fractions of L. Setting f2 to a power of 2 is to simplify the formula.
  • the maximum parallel operation unit may be determined based on the value of f2.
  • 24 and 25 are diagrams illustrating an example of an interleaver design method proposed in the present specification.
  • 24 is a diagram illustrating a case in which parallel operation is not performed, that is, a single bank memory.
  • FIG. 25 is a diagram illustrating a case in which two interleaving operations are performed in parallel, that is, a 2-bank memory.
  • a 2-bank memory when the 1st bank (0-7) and the 2nd bank (8-15) are simultaneously activated (that is, a memory conflict) does not occur. i.e. 1st If any one of 0 ⁇ 7 is activated in the bank, only one of 8 ⁇ 15 is activated in the 2nd bank. Conversely, 1st If one of the values from 8 to 15 is activated in the bank, only one value from 0 to 7 is activated in the 2nd bank.
  • the pooling technique is used for the following two reasons.
  • overfitting refers to a phenomenon in which the neural network over-learns the training data, and thus the error with respect to the actual data increases.
  • the complexity of the neural network can be reduced because the dimension of the extracted feature can be reduced while maintaining the feature extracted from the input data.
  • CNN-type neural networks are widely used in image processing (recognition, classification, etc.).
  • the use of pooling in the CNN of image processing is a feature extracted from the single image in each channel without changing Cout (Number of out channels) in one image (input data). It can be understood as reducing the dimension of (output data).
  • 26 is a diagram to help understand the pooling layer configuration method proposed in the present specification.
  • FIG. 26 relates to an example of an existing method of reducing the dimension of output data in each channel by applying pooling in CNN.
  • a convolutional layer generates a feature map by filtering input data, and an activation function is applied to the feature map to generate an activation map. That is, an activation map may be generated as a final output result of one convolutional layer.
  • the number of channels of the feature map/activation map has a value equal to the number of filters applied to the input data. Pooling is applied to the activation map. By applying pooling, the size (dimension) of the activation map may be reduced.
  • a pooling of a size of 2*2 is applied to an activation map 2610 of a size of 4*4, and as a result, the size of the activation map 2610 is reduced to generate output data of a size of 2*2.
  • 2620 indicates a max pooling method that generates output data of a pooling layer in a manner of selecting the largest value within the pooling window
  • 2630 indicates an average of values included in the pooling window. An average pooling method for generating output data of a pooling layer is shown.
  • the feature of the output data is maintained even if the dimension of the output data of the convolutional layer is reduced by applying the pooling according to the method described in FIG. it can be easy
  • FIG. 27 is a diagram illustrating a change in learning ability of a neural network according to an increase in the number of filters used in the neural network. More specifically, FIG. 27 relates to a case in which the transmitter-end encoder neural network is composed of a two-layer CNN, and the receiver-end decoder neural network is composed of a five-layer CNN.
  • the learning ability of the neural network may be increased, but the number of filters is directly related to the complexity of the CNN.
  • This proposal applies a pooling technique to reduce the number of output channels.
  • the existing CNN pooling technique is a method of reducing the data size of each channel while maintaining the number of output channels of the convolutional layer
  • the pooling technique of this proposal maintains the data size of each channel and reduces the size of the convolutional layer. This is a way to reduce the number of output channels.
  • this proposal additionally proposes to configure the position of the pooling layer differently from the position in the existing CNN.
  • FIG. 28 is a diagram illustrating an example of a method for configuring a pooling layer proposed in the present specification.
  • 2810 shows a conventional CNN form in which a filtering function, an activation function, and a pooling layer for filtering input data are sequentially located.
  • the positions of the activation function and the pooling layer are exchanged, so that the CNN has a form in which the filtering function for filtering input data, the pooling layer, and the activation function are sequentially located.
  • the pooling layer may reduce the number of channels of output data of the filtering function. When pooling is applied to the output data of the filtering function by the pooling layer, the number of output channels of the output data of the filtering function is reduced, so that the number of activation functions is also reduced by the reduced number of output channels.
  • the present proposal can be preferably applied to a case where pooling is applied only to the first convolutional layer among at least one or more convolutional layers constituting the transmitter-end encoder neural network and the receiver-end decoder neural network.
  • 29 is a diagram illustrating an example of a structure of a neural network configuration unit (Conv1dCode) to which a pooling layer is applied.
  • Conv1dCode neural network configuration unit
  • FIG. 29 illustrates a case in which the pooling of the present proposal is applied to the neural network configuration unit (Conv1dCode) described in FIG. 19 .
  • 2910 represents the neural network configuration unit described in FIG. 19 .
  • a pooling layer using a method of reducing the number of channels of the output data of the present proposal is further included in the neural network constituent unit, and the neural network constituent unit is a filtering function (Conv1d) for filtering input data, an activation function, and a pooling It consists of a structure in which the layers are sequentially located.
  • Conv1d filtering function
  • a pooling layer using a method of reducing the number of channels of the output data of the present proposal is further included in the neural network constituent unit, wherein the neural network constituent unit has a filtering function, a pooling layer, and an activation function for filtering input data sequentially It consists of a structure in which Since the number of channels of the filtering function output data is reduced by placing the pooling layer before the activation function, the complexity of the CNN can be reduced.
  • Cin is the number of input channels of input data
  • k is a kernel-size
  • Cout is the number of output channels of output data of the filtering function.
  • One of the maximum pooling and average pooling described above may be selected as the pooling method. In order to reduce the noise effect, this proposal can be preferably applied to the case where average pooling is used.
  • the pooling applied in the receiving-end decoder neural network 3020 is 2 output channels for a total of 100 output channels. Since average pooling of a method of adding and taking an average is used, 50 addition operations are additionally performed compared to the case of the receiver decoder neural network 3010 to which pooling is not applied. On the other hand, referring to the number of activation functions (ACT) of the first layer in the receiving-end decoder neural network 3020 to which the pooling is applied only to the first layer, the number of output channels is reduced from 100 to 50 through pooling. Compared to the case of the receiver decoder neural network 3010 to which this is not applied, 50 fewer activation functions are used.
  • ACT activation functions
  • pooling is also applicable to the layers after the second layer (Layer #2).
  • Layer #2 layers after the second layer
  • complexity may be greatly reduced, but performance may be degraded. Accordingly, a layer to which pooling is applied may be determined in consideration of the trade-off of performance and complexity.
  • Rate-Matching for higher code-rate method - (Proposition 5)
  • FIG. 31 is a diagram illustrating an example of a rate-matching method for achieving a high code rate proposed in the present specification.
  • punching is performed in a rate-matching block 3104 , and the receiving-end decoder 103 receives greater than 1/3 through a de-rate matching block 3105 . It is possible to recover the encoded transmission signal at the code-rate of the value.
  • puncturing patterns may be provided to the transmitter encoder 101 and the receiver decoder 103 for rate matching of the transmitter encoder 101/de-rate matching of the receiver decoder 103 .
  • the punching pattern may be provided to the transmitter/receiver through a predefined signal.
  • 32 is a diagram illustrating channel coding performance when the pooling layer configuration method proposed in the present specification is applied.
  • FIG. 32 is a diagram illustrating channel coding performance when the pooling layer configuration method proposed in the present specification is applied and channel coding performance when the pooling layer configuration method is not applied.
  • the y-axis represents BER
  • x represents SNR. Since it can be interpreted that the performance of the channel coding is excellent as the value of the BER is small, it can be seen that the graph located further below the same SNR value has the excellent performance of the channel coding.
  • 3210 indicates the channel coding performance in the case of using the traditional LTE turbo code.
  • 3220 indicates channel coding performance when PCCC-AE is used
  • 3230 indicates channel coding performance when SCCC-AE is used.
  • 3240 indicates channel coding performance when PCCC-AE to which pooling is applied is used in the receiver decoder
  • 3250 indicates channel coding performance when SCCC-AE to which pooling is applied is used in the receiver decoder.
  • 3260 shows the channel coding performance when SCCC-AE to which pooling is applied is used in the receiver decoder and the pooling layer is located before the activation function (ie, proposal 4).
  • the pooling refers to average pooling performed by reducing the number of channels of an output channel.
  • 33 and 34 are diagrams illustrating channel coding performance when the interleaver design method proposed in the present specification is applied.
  • FIG. 33 is a diagram illustrating channel coding performance when an interleaver is not used and channel coding performance when an interleaver is used in a transmitter-end encoder neural network/receive-end decoder neural network.
  • the y-axis represents BER
  • x represents SNR. Since it can be interpreted that the performance of the channel coding is excellent as the value of the BER is small, it can be seen that the graph located further below the same SNR value has the excellent performance of the channel coding.
  • 3310 represents the channel coding performance in the case of using the traditional LTE turbo code.
  • 3320 indicates channel coding performance when PCCC-AE is used
  • 3330 indicates channel coding performance when SCCC-AE is used.
  • 3340 indicates channel coding performance when SCCC-AE to which pooling is applied is used in the receiver decoder and a pooling layer is located before the activation function.
  • the interleaver is used in all of 3310 to 3340.
  • 3350 is the same as 3340, but represents the channel coding performance when the interleaver is not used. Referring to the result of FIG. 33 , it can be seen that the case in which the interleaver is not used shows the lowest channel coding performance compared to other cases as the SNR value changes. In light of the results of FIG. 33 , it can be seen that an interleaver should be used to ensure good channel coding performance.
  • legends corresponding to 3320 to 3350 are indicated by dashed lines/solid lines, respectively, depending on the number of filters used in the neural network. That is, it can be understood that the difference in the number of filters used in the neural network is reflected by dividing the same legend by a dotted line/solid line.
  • FIG. 34 is a diagram illustrating channel coding performance according to cases in which an interleaver pattern is variously set and applied to the case of 3350 of FIG. 33 .
  • 35 is a diagram illustrating channel coding performance according to the use of various activation functions proposed in the present specification.
  • the y-axis represents BER
  • x represents SNR
  • 3510 represents the channel coding performance in the case of using the traditional LTE turbo code.
  • 3520 indicates channel coding performance when PCCC-AE is used
  • 3530 indicates channel coding performance when SCCC-AE is used.
  • the eLu function is used as the activation function.
  • 3540 indicates channel coding performance when pooling is applied to the receiver decoder and SCCC-AE in which the pooling layer is located before the activation function is used.
  • the eRelu function is used as the activation function.
  • 3550 indicates channel coding performance when pooling is applied to the receiver decoder and SCCC-AE in which the pooling layer is located before the activation function is used.
  • the Relu function is used as the activation function.
  • 3560 indicates channel coding performance when SCCC-AE in which multiple PRelu is used as an activation function is used, and 3570 indicates channel coding performance when SCCC-AE in which single PRelu is used as an activation function is used.
  • the evaluated ACT functions were eLu, ReLu, Single-PReLu, and Multiple-PReLu.
  • the channel coding performance is the best when the eRelu function is used as the activation function (3540).
  • the Single-PReLu function is used as an activation function (3580)
  • 36 is a flowchart illustrating an example of a method for transmitting and receiving a signal in a wireless communication system using an auto encoder proposed in the present specification.
  • the transmitting end encodes input data based on a pre-learned transmitting end encoder neural network ( S3610 ).
  • the transmitting end transmits the signal to the receiving end based on the encoded input data (S3620).
  • the encoder neural network at the transmitting end (i) a first encoder neural network that receives the input data and outputs a first codeword, (ii) receives the first codeword and interleaves it , an interleaver for outputting the first interleaved codeword, and (iii) a second encoder neural network for receiving the interleaved first codeword and outputting a second codeword constituting the encoded input data.
  • the first encoder neural network consists of n1 first encoder component neural networks
  • the second encoder neural network consists of n2 first encoder component neural networks and n3 second encoder component neural networks,
  • the n1, n2, and n3 may be non-zero positive integers.
  • the code rate of the first encoder neural network may be 1/n1
  • the code rate of the second encoder neural network may be n1/(n2+n3).
  • each of the first encoder component neural network and the second encoder component neural network consists of at least one or more layers, and the first encoder component neural network and the second encoder component neural network correspond to an input value. It may be configured based on a neural network configuration unit including (i) a filtering function for filtering and (ii) an activation function receiving an output of the filtering function as an input.
  • each of the first encoder component neural network and the second encoder component neural network may consist of two layers.
  • n1 and n2 may be the same, and n3 may be 1.
  • the first encoder component neural network includes a first neural network constituent unit receiving one input value and a second neural network constituent unit receiving an output of the first neural network constituent unit, and the second neural network Linear regression may be applied to the output of the network constituent unit, and an exponential linear unit (eLu) function may be applied to the output of the second neural network constituent unit to which the linear regression is applied.
  • eLu exponential linear unit
  • the second encoder component neural network includes a third neural network constituent unit receiving the n1 input values and a fourth neural network constituent unit receiving output values of the third neural network constituent unit,
  • the linear regression may be applied to an output value of four neural network constituent units, and the eLu function may be applied to an output value of the fourth neural network constituent unit to which the linear regression is applied.
  • first neural network constituent unit and the third neural network constituent unit constitute a first layer that is one of the two layers
  • second neural network constituent unit and the fourth neural network constituent unit are the second A second layer, which is the other one of the layers, may be configured.
  • the number of output channels through which output values of each of the first to fourth neural network constituent units are output may be 100.
  • the i+1th bit in the first codeword bit stream input to the interleaver is interleaved based on the following equation,
  • L is the size of the interleaver
  • f0 is a constant offset
  • f1 is a prime number that satisfies L and a relative relation
  • f2 is a power of 2 among L fractions. It may be a number corresponding to a power of 2.
  • f0 is 0, and a parallel operation may be performed on the bit string of the first codeword by the value of f2.
  • a specific neural network configuration unit constituting a layer located first among the at least one or more layers further includes a pooling layer for reducing the number of output channels of the filtering function, wherein the pooling layer includes the It may be located between the filtering function and the activation function.
  • each of the neural network constituent units constituting the layers positioned after the first positioned layer may further include the pooling layer.
  • the communication system 1 applied to the present invention includes a wireless device, a base station, and a network.
  • the wireless device means a device that performs communication using a wireless access technology (eg, 5G NR (New RAT), LTE (Long Term Evolution)), and may be referred to as a communication/wireless/5G device.
  • a wireless access technology eg, 5G NR (New RAT), LTE (Long Term Evolution)
  • the wireless device includes a robot 100a, a vehicle 100b-1, 100b-2, an eXtended Reality (XR) device 100c, a hand-held device 100d, and a home appliance 100e. ), an Internet of Thing (IoT) device 100f, and an AI device/server 400 .
  • the vehicle may include a vehicle equipped with a wireless communication function, an autonomous driving vehicle, a vehicle capable of performing inter-vehicle communication, and the like.
  • the vehicle may include an Unmanned Aerial Vehicle (UAV) (eg, a drone).
  • UAV Unmanned Aerial Vehicle
  • XR devices include AR (Augmented Reality)/VR (Virtual Reality)/MR (Mixed Reality) devices, and include a Head-Mounted Device (HMD), a Head-Up Display (HUD) provided in a vehicle, a television, a smartphone, It may be implemented in the form of a computer, a wearable device, a home appliance, a digital signage, a vehicle, a robot, and the like.
  • the mobile device may include a smart phone, a smart pad, a wearable device (eg, a smart watch, smart glasses), a computer (eg, a laptop computer), and the like.
  • Home appliances may include a TV, a refrigerator, a washing machine, and the like.
  • the IoT device may include a sensor, a smart meter, and the like.
  • the base station and the network may be implemented as a wireless device, and a specific wireless device 200a may operate as a base station/network node to other wireless devices.
  • the wireless devices 100a to 100f may be connected to the network 300 through the base station 200 .
  • Artificial intelligence (AI) technology may be applied to the wireless devices 100a to 100f , and the wireless devices 100a to 100f may be connected to the AI server 400 through the network 300 .
  • the network 300 may be configured using a 3G network, a 4G (eg, LTE) network, or a 5G (eg, NR) network.
  • the wireless devices 100a to 100f may communicate with each other through the base station 200/network 300, but may also communicate directly (e.g. sidelink communication) without passing through the base station/network.
  • the vehicles 100b-1 and 100b-2 may perform direct communication (eg, Vehicle to Vehicle (V2V)/Vehicle to everything (V2X) communication).
  • the IoT device eg, sensor
  • the IoT device may directly communicate with other IoT devices (eg, sensor) or other wireless devices 100a to 100f.
  • Wireless communication/connection 150a and 150b may be performed between the wireless devices 100a to 100f/base station 200 - the base station 200/wireless devices 100a to 100f.
  • the wireless communication/connection may be performed through various radio access technologies (eg, 5G NR) for the uplink/downlink communication 150a and the sidelink communication 150b (or D2D communication).
  • the wireless device and the base station/wireless device may transmit/receive wireless signals to each other.
  • the wireless communication/connection 150a and 150b may transmit/receive signals through various physical channels based on all/part of the process of FIG. 1 .
  • various configuration information setting processes for wireless signal transmission/reception various signal processing processes (eg, channel encoding/decoding, modulation/demodulation, resource mapping/demapping, etc.) , at least a part of a resource allocation process, etc. may be performed.
  • various signal processing processes eg, channel encoding/decoding, modulation/demodulation, resource mapping/demapping, etc.
  • at least a part of a resource allocation process, etc. may be performed.
  • the first wireless device 100 and the second wireless device 200 may transmit and receive wireless signals through various wireless access technologies (eg, LTE, NR).
  • ⁇ first wireless device 100, second wireless device 200 ⁇ is ⁇ wireless device 100x, base station 200 ⁇ of FIG. 37 and/or ⁇ wireless device 100x, wireless device 100x) ⁇ can be matched.
  • the first wireless device 100 includes one or more processors 102 and one or more memories 104 , and may further include one or more transceivers 106 and/or one or more antennas 108 .
  • the processor 102 controls the memory 104 and/or the transceiver 106 and may be configured to implement the functions, procedures and/or methods described/suggested above. For example, the processor 102 may process the information in the memory 104 to generate the first information/signal, and then transmit a wireless signal including the first information/signal through the transceiver 106 . In addition, the processor 102 may receive the radio signal including the second information/signal through the transceiver 106 , and then store the information obtained from the signal processing of the second information/signal in the memory 104 .
  • the memory 104 may be connected to the processor 102 and may store various information related to the operation of the processor 102 .
  • the memory 104 may store software code including instructions for performing some or all of the processes controlled by the processor 102 , or for performing the procedures and/or methods described/suggested above.
  • the processor 102 and the memory 104 may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
  • the transceiver 106 may be coupled with the processor 102 and may transmit and/or receive wireless signals via one or more antennas 108 .
  • the transceiver 106 may include a transmitter and/or a receiver.
  • the transceiver 106 may be used interchangeably with a radio frequency (RF) unit.
  • a wireless device may refer to a communication modem/circuit/chip.
  • the second wireless device 200 includes one or more processors 202 , one or more memories 204 , and may further include one or more transceivers 206 and/or one or more antennas 208 .
  • the processor 202 controls the memory 204 and/or the transceiver 206 and may be configured to implement the functions, procedures and/or methods described/suggested above. For example, the processor 202 may process the information in the memory 204 to generate third information/signal, and then transmit a wireless signal including the third information/signal through the transceiver 206 . In addition, the processor 202 may receive the radio signal including the fourth information/signal through the transceiver 206 , and then store information obtained from signal processing of the fourth information/signal in the memory 204 .
  • the memory 204 may be connected to the processor 202 and may store various information related to the operation of the processor 202 .
  • the memory 204 may store software code including instructions for performing some or all of the processes controlled by the processor 202, or for performing the procedures and/or methods described/suggested above.
  • the processor 202 and the memory 204 may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
  • the transceiver 206 may be coupled to the processor 202 and may transmit and/or receive wireless signals via one or more antennas 208 .
  • the transceiver 206 may include a transmitter and/or a receiver.
  • the transceiver 206 may be used interchangeably with an RF unit.
  • a wireless device may refer to a communication modem/circuit/chip.
  • one or more protocol layers may be implemented by one or more processors 102 , 202 .
  • one or more processors 102 , 202 may implement one or more layers (eg, functional layers such as PHY, MAC, RLC, PDCP, RRC, SDAP).
  • the one or more processors 102 and 202 may generate one or more Protocol Data Units (PDUs) and/or one or more Service Data Units (SDUs) according to the functions, procedures, proposals and/or methods disclosed herein.
  • PDUs Protocol Data Units
  • SDUs Service Data Units
  • One or more processors 102 , 202 may generate messages, control information, data or information according to the functions, procedures, proposals and/or methods disclosed herein.
  • the one or more processors 102 and 202 generate a signal (eg, a baseband signal) including PDUs, SDUs, messages, control information, data or information according to the functions, procedures, proposals and/or methods disclosed herein. , to one or more transceivers 106 and 206 .
  • the one or more processors 102 , 202 may receive signals (eg, baseband signals) from one or more transceivers 106 , 206 , PDUs, SDUs, and/or SDUs according to the functions, procedures, proposals and/or methods disclosed herein. , a message, control information, data or information can be obtained.
  • One or more processors 102 , 202 may be referred to as a controller, microcontroller, microprocessor, or microcomputer.
  • One or more processors 102 , 202 may be implemented by hardware, firmware, software, or a combination thereof.
  • ASICs Application Specific Integrated Circuits
  • DSPs Digital Signal Processors
  • DSPDs Digital Signal Processing Devices
  • PLDs Programmable Logic Devices
  • FPGAs Field Programmable Gate Arrays
  • the functions, procedures, proposals and/or methods disclosed in this document may be implemented using firmware or software, and the firmware or software may be implemented to include modules, procedures, functions, and the like.
  • Firmware or software configured to perform the functions, procedures, proposals, and/or methods disclosed herein may be included in one or more processors 102, 202, or stored in one or more memories 104, 204, such that one or more processors 102, 202) can be driven.
  • the functions, procedures, proposals and/or methods disclosed in this document may be implemented using firmware or software in the form of code, instructions, and/or a set of instructions.
  • One or more memories 104 , 204 may be coupled to one or more processors 102 , 202 and may store various forms of data, signals, messages, information, programs, code, instructions, and/or instructions.
  • the one or more memories 104 and 204 may be comprised of ROM, RAM, EPROM, flash memory, hard drives, registers, cache memory, computer readable storage media, and/or combinations thereof.
  • One or more memories 104 , 204 may be located inside and/or external to one or more processors 102 , 202 .
  • one or more memories 104 , 204 may be coupled to one or more processors 102 , 202 through various technologies, such as wired or wireless connections.
  • One or more transceivers 106 , 206 may transmit user data, control information, radio signals/channels, etc. referred to in the methods and/or operational flowcharts of this document to one or more other devices.
  • the one or more transceivers 106 and 206 may receive user data, control information, radio signals/channels, etc. referred to in the functions, procedures, proposals, methods, and/or flowcharts of operations disclosed herein, and the like, from one or more other devices.
  • one or more transceivers 106 , 206 may be coupled to one or more processors 102 , 202 and may transmit and receive wireless signals.
  • one or more processors 102 , 202 may control one or more transceivers 106 , 206 to transmit user data, control information, or wireless signals to one or more other devices.
  • one or more processors 102 , 202 may control one or more transceivers 106 , 206 to receive user data, control information, or wireless signals from one or more other devices.
  • one or more transceivers 106, 206 may be coupled to one or more antennas 108, 208, and the one or more transceivers 106, 206 may be connected via one or more antennas 108, 208 to the functions, procedures, and procedures disclosed herein. , suggestions, methods and/or operation flowcharts, etc.
  • one or more antennas may be a plurality of physical antennas or a plurality of logical antennas (eg, antenna ports).
  • the one or more transceivers 106, 206 convert the received radio signal/channel, etc. from the RF band signal to process the received user data, control information, radio signal/channel, etc. using the one or more processors 102, 202. It can be converted into a baseband signal.
  • One or more transceivers 106 and 206 may convert user data, control information, radio signals/channels, etc. processed using one or more processors 102 and 202 from baseband signals to RF band signals.
  • one or more transceivers 106 , 206 may include (analog) oscillators and/or filters.
  • 39 illustrates a signal processing circuit for a transmission signal.
  • the signal processing circuit 1000 may include a scrambler 1010 , a modulator 1020 , a layer mapper 1030 , a precoder 1040 , a resource mapper 1050 , and a signal generator 1060 .
  • the operations/functions of FIG. 39 may be performed by the processors 102 , 202 and/or transceivers 106 , 206 of FIG. 39 .
  • the hardware elements of FIG. 39 may be implemented in the processors 102 , 202 and/or transceivers 106 , 206 of FIG. 38 .
  • blocks 1010 to 1060 may be implemented in the processors 102 and 202 of FIG. 38 .
  • blocks 1010 to 1050 may be implemented in the processors 102 and 202 of FIG. 38
  • block 1060 may be implemented in the transceivers 106 and 206 of FIG. 38 .
  • the codeword may be converted into a wireless signal through the signal processing circuit 1000 of FIG. 39 .
  • the codeword is a coded bit sequence of an information block.
  • the information block may include a transport block (eg, a UL-SCH transport block, a DL-SCH transport block).
  • the radio signal may be transmitted through various physical channels (eg, PUSCH, PDSCH) of FIG. 1 .
  • the codeword may be converted into a scrambled bit sequence by the scrambler 1010 .
  • a scramble sequence used for scrambling is generated based on an initialization value, and the initialization value may include ID information of a wireless device, and the like.
  • the scrambled bit sequence may be modulated by a modulator 1020 into a modulation symbol sequence.
  • the modulation method may include pi/2-Binary Phase Shift Keying (pi/2-BPSK), m-Phase Shift Keying (m-PSK), m-Quadrature Amplitude Modulation (m-QAM), and the like.
  • the complex modulation symbol sequence may be mapped to one or more transport layers by the layer mapper 1030 .
  • Modulation symbols of each transport layer may be mapped to corresponding antenna port(s) by the precoder 1040 (precoding).
  • the output z of the precoder 1040 may be obtained by multiplying the output y of the layer mapper 1030 by the precoding matrix W of N*M.
  • N is the number of antenna ports
  • M is the number of transport layers.
  • the precoder 1040 may perform precoding after performing transform precoding (eg, DFT transform) on the complex modulation symbols. Also, the precoder 1040 may perform precoding without performing transform precoding.
  • the resource mapper 1050 may map modulation symbols of each antenna port to a time-frequency resource.
  • the time-frequency resource may include a plurality of symbols (eg, a CP-OFDMA symbol, a DFT-s-OFDMA symbol) in the time domain and a plurality of subcarriers in the frequency domain.
  • CP Cyclic Prefix
  • DAC Digital-to-Analog Converter
  • the signal processing process for the received signal in the wireless device may be configured in reverse of the signal processing process 1010 to 1060 of FIG. 39 .
  • the wireless device eg, 100 and 200 in FIG. 38
  • the received radio signal may be converted into a baseband signal through a signal restorer.
  • the signal restorer may include a frequency downlink converter, an analog-to-digital converter (ADC), a CP remover, and a Fast Fourier Transform (FFT) module.
  • ADC analog-to-digital converter
  • FFT Fast Fourier Transform
  • the baseband signal may be restored to a codeword through a resource de-mapper process, a postcoding process, a demodulation process, and a descrambling process.
  • the codeword may be restored to the original information block through decoding.
  • the signal processing circuit (not shown) for the received signal may include a signal reconstructor, a resource de-mapper, a post coder, a demodulator, a de-scrambler, and a decoder.
  • the wireless device 40 shows another example of a wireless device to which the present invention is applied.
  • the wireless device may be implemented in various forms according to use-examples/services.
  • the wireless devices 100 and 200 correspond to the wireless devices 100 and 200 of FIG. 38 and include various elements, components, units/units, and/or modules. ) may consist of
  • the wireless devices 100 and 200 may include a communication unit 110 , a control unit 120 , a memory unit 130 , and an additional element 140 .
  • the communication unit may include communication circuitry 112 and transceiver(s) 114 .
  • communication circuitry 112 may include one or more processors 102 and 202 and/or one or more memories 104 and 204 of FIG. 38 .
  • transceiver(s) 114 may include one or more transceivers 106 , 206 and/or one or more antennas 108 , 208 of FIG.
  • the control unit 120 is electrically connected to the communication unit 110 , the memory unit 130 , and the additional element 140 , and controls general operations of the wireless device. For example, the controller 120 may control the electrical/mechanical operation of the wireless device based on the program/code/command/information stored in the memory unit 130 . In addition, the control unit 120 transmits the information stored in the memory unit 130 to the outside (eg, another communication device) through the communication unit 110 through a wireless/wired interface, or through the communication unit 110 to the outside (eg, Information received through a wireless/wired interface from another communication device) may be stored in the memory unit 130 .
  • the outside eg, another communication device
  • Information received through a wireless/wired interface from another communication device may be stored in the memory unit 130 .
  • the additional element 140 may be configured in various ways according to the type of the wireless device.
  • the additional element 140 may include at least one of a power unit/battery, an input/output unit (I/O unit), a driving unit, and a computing unit.
  • the wireless device includes a robot ( FIGS. 37 and 100a ), a vehicle ( FIGS. 37 , 100b-1 , 100b-2 ), an XR device ( FIGS. 37 and 100c ), a mobile device ( FIGS. 37 and 100d ), and a home appliance. (FIG. 37, 100e), IoT device (FIG.
  • the wireless device may be mobile or used in a fixed location depending on the use-example/service.
  • various elements, components, units/units, and/or modules in the wireless devices 100 and 200 may be entirely interconnected through a wired interface, or at least some of them may be wirelessly connected through the communication unit 110 .
  • the control unit 120 and the communication unit 110 are connected by wire, and the control unit 120 and the first unit (eg, 130 , 140 ) are connected to the communication unit 110 through the communication unit 110 . It can be connected wirelessly.
  • each element, component, unit/unit, and/or module within the wireless device 100 , 200 may further include one or more elements.
  • the controller 120 may be configured with one or more processor sets.
  • control unit 120 may be configured as a set of a communication control processor, an application processor, an electronic control unit (ECU), a graphic processing processor, a memory control processor, and the like.
  • memory unit 130 may include random access memory (RAM), dynamic RAM (DRAM), read only memory (ROM), flash memory, volatile memory, and non-volatile memory. volatile memory) and/or a combination thereof.
  • FIG. 40 will be described in more detail with reference to the drawings.
  • the portable device may include a smart phone, a smart pad, a wearable device (eg, a smart watch, smart glasses), and a portable computer (eg, a laptop computer).
  • a mobile device may be referred to as a mobile station (MS), a user terminal (UT), a mobile subscriber station (MSS), a subscriber station (SS), an advanced mobile station (AMS), or a wireless terminal (WT).
  • MS mobile station
  • UT user terminal
  • MSS mobile subscriber station
  • SS subscriber station
  • AMS advanced mobile station
  • WT wireless terminal
  • the portable device 100 includes an antenna unit 108 , a communication unit 110 , a control unit 120 , a memory unit 130 , a power supply unit 140a , an interface unit 140b , and an input/output unit 140c . ) may be included.
  • the antenna unit 108 may be configured as a part of the communication unit 110 .
  • Blocks 110 to 130/140a to 140c respectively correspond to blocks 110 to 130/140 of FIG. 40 .
  • the communication unit 110 may transmit and receive signals (eg, data, control signals, etc.) with other wireless devices and base stations.
  • the controller 120 may control components of the portable device 100 to perform various operations.
  • the controller 120 may include an application processor (AP).
  • the memory unit 130 may store data/parameters/programs/codes/commands necessary for driving the portable device 100 . Also, the memory unit 130 may store input/output data/information.
  • the power supply unit 140a supplies power to the portable device 100 and may include a wired/wireless charging circuit, a battery, and the like.
  • the interface unit 140b may support the connection between the portable device 100 and other external devices.
  • the interface unit 140b may include various ports (eg, an audio input/output port and a video input/output port) for connection with an external device.
  • the input/output unit 140c may receive or output image information/signal, audio information/signal, data, and/or information input from a user.
  • the input/output unit 140c may include a camera, a microphone, a user input unit, a display unit 140d, a speaker, and/or a haptic module.
  • the input/output unit 140c obtains information/signals (eg, touch, text, voice, image, video) input from the user, and the obtained information/signals are stored in the memory unit 130 . can be saved.
  • the communication unit 110 may convert the information/signal stored in the memory into a wireless signal, and transmit the converted wireless signal directly to another wireless device or to a base station. Also, after receiving a radio signal from another radio device or base station, the communication unit 110 may restore the received radio signal to original information/signal.
  • the restored information/signal may be stored in the memory unit 130 and output in various forms (eg, text, voice, image, video, haptic) through the input/output unit 140c.
  • the vehicle or autonomous driving vehicle may be implemented as a mobile robot, vehicle, train, manned/unmanned aerial vehicle (AV), ship, or the like.
  • the vehicle or autonomous driving vehicle 100 includes an antenna unit 108 , a communication unit 110 , a control unit 120 , a driving unit 140a , a power supply unit 140b , a sensor unit 140c , and autonomous driving. It may include a part 140d.
  • the antenna unit 108 may be configured as a part of the communication unit 110 .
  • Blocks 110/130/140a-140d correspond to blocks 110/130/140 of FIG. 40, respectively.
  • the communication unit 110 may transmit/receive signals (eg, data, control signals, etc.) to and from external devices such as other vehicles, base stations (eg, base stations, roadside units, etc.), servers, and the like.
  • the controller 120 may control elements of the vehicle or the autonomous driving vehicle 100 to perform various operations.
  • the controller 120 may include an Electronic Control Unit (ECU).
  • the driving unit 140a may make the vehicle or the autonomous driving vehicle 100 run on the ground.
  • the driving unit 140a may include an engine, a motor, a power train, a wheel, a brake, a steering device, and the like.
  • the power supply unit 140b supplies power to the vehicle or the autonomous driving vehicle 100 , and may include a wired/wireless charging circuit, a battery, and the like.
  • the sensor unit 140c may obtain vehicle status, surrounding environment information, user information, and the like.
  • the sensor unit 140c includes an inertial measurement unit (IMU) sensor, a collision sensor, a wheel sensor, a speed sensor, an inclination sensor, a weight sensor, a heading sensor, a position module, and a vehicle forward movement.
  • IMU inertial measurement unit
  • a collision sensor a wheel sensor
  • a speed sensor a speed sensor
  • an inclination sensor a weight sensor
  • a heading sensor a position module
  • a vehicle forward movement / may include a reverse sensor, a battery sensor, a fuel sensor, a tire sensor, a steering sensor, a temperature sensor, a humidity sensor, an ultrasonic sensor, an illuminance sensor, a pedal position sensor, and the like.
  • the autonomous driving unit 140d includes a technology for maintaining a driving lane, a technology for automatically adjusting speed such as adaptive cruise control, a technology for automatically driving along a predetermined route, and a technology for automatically setting a route when a destination is set. technology can be implemented.
  • the communication unit 110 may receive map data, traffic information data, and the like from an external server.
  • the autonomous driving unit 140d may generate an autonomous driving route and a driving plan based on the acquired data.
  • the controller 120 may control the driving unit 140a to move the vehicle or the autonomous driving vehicle 100 along the autonomous driving path (eg, speed/direction adjustment) according to the driving plan.
  • the communication unit 110 may non/periodically acquire the latest traffic information data from an external server, and may acquire surrounding traffic information data from surrounding vehicles.
  • the sensor unit 140c may acquire vehicle state and surrounding environment information.
  • the autonomous driving unit 140d may update the autonomous driving route and the driving plan based on the newly acquired data/information.
  • the communication unit 110 may transmit information about a vehicle location, an autonomous driving route, a driving plan, and the like to an external server.
  • the external server may predict traffic information data in advance using AI technology or the like based on information collected from the vehicle or autonomous vehicles, and may provide the predicted traffic information data to the vehicle or autonomous vehicles.
  • the vehicle 43 illustrates a vehicle to which the present invention is applied.
  • the vehicle may also be implemented as a means of transportation, a train, an air vehicle, a ship, and the like.
  • the vehicle 100 may include a communication unit 110 , a control unit 120 , a memory unit 130 , an input/output unit 140a , and a position measurement unit 140b .
  • blocks 110 to 130/140a to 140b correspond to blocks 110 to 130/140 of FIG. 40 , respectively.
  • the communication unit 110 may transmit and receive signals (eg, data, control signals, etc.) with other vehicles or external devices such as a base station.
  • the controller 120 may control components of the vehicle 100 to perform various operations.
  • the memory unit 130 may store data/parameters/programs/codes/commands supporting various functions of the vehicle 100 .
  • the input/output unit 140a may output an AR/VR object based on information in the memory unit 130 .
  • the input/output unit 140a may include a HUD.
  • the position measuring unit 140b may acquire position information of the vehicle 100 .
  • the location information may include absolute location information of the vehicle 100 , location information within a driving line, acceleration information, location information with a neighboring vehicle, and the like.
  • the position measuring unit 140b may include a GPS and various sensors.
  • the communication unit 110 of the vehicle 100 may receive map information, traffic information, and the like from an external server and store it in the memory unit 130 .
  • the position measuring unit 140b may obtain vehicle position information through GPS and various sensors and store it in the memory unit 130 .
  • the controller 120 may generate a virtual object based on map information, traffic information, and vehicle location information, and the input/output unit 140a may display the generated virtual object on a window inside the vehicle ( 1410 and 1420 ).
  • the controller 120 may determine whether the vehicle 100 is normally operating within the driving line based on the vehicle location information. When the vehicle 100 deviates from the driving line abnormally, the controller 120 may display a warning on the windshield of the vehicle through the input/output unit 140a.
  • control unit 120 may broadcast a warning message regarding the driving abnormality to surrounding vehicles through the communication unit 110 .
  • control unit 120 may transmit the location information of the vehicle and information on driving/vehicle abnormality to the related organization through the communication unit 110 .
  • the XR device may be implemented as an HMD, a head-up display (HUD) provided in a vehicle, a television, a smart phone, a computer, a wearable device, a home appliance, a digital signage, a vehicle, a robot, and the like.
  • HMD head-up display
  • a television a smart phone
  • a computer a wearable device
  • a home appliance a digital signage
  • a vehicle a robot, and the like.
  • the XR device 100a may include a communication unit 110 , a control unit 120 , a memory unit 130 , an input/output unit 140a , a sensor unit 140b , and a power supply unit 140c .
  • blocks 110 to 130/140a to 140c correspond to blocks 110 to 130/140 of FIG. 40 , respectively.
  • the communication unit 110 may transmit/receive signals (eg, media data, control signals, etc.) to/from external devices such as other wireless devices, portable devices, or media servers.
  • Media data may include images, images, sounds, and the like.
  • the controller 120 may perform various operations by controlling the components of the XR device 100a.
  • the controller 120 may be configured to control and/or perform procedures such as video/image acquisition, (video/image) encoding, and metadata generation and processing.
  • the memory unit 130 may store data/parameters/programs/codes/commands necessary for driving the XR device 100a/creating an XR object.
  • the input/output unit 140a may obtain control information, data, and the like from the outside, and may output the generated XR object.
  • the input/output unit 140a may include a camera, a microphone, a user input unit, a display unit, a speaker, and/or a haptic module.
  • the sensor unit 140b may obtain an XR device state, surrounding environment information, user information, and the like.
  • the sensor unit 140b may include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and/or a radar. have.
  • the power supply unit 140c supplies power to the XR device 100a, and may include a wired/wireless charging circuit, a battery, and the like.
  • the memory unit 130 of the XR device 100a may include information (eg, data, etc.) necessary for generating an XR object (eg, AR/VR/MR object).
  • the input/output unit 140a may obtain a command to operate the XR device 100a from the user, and the controller 120 may drive the XR device 100a according to the user's driving command. For example, when the user wants to watch a movie or news through the XR device 100a, the controller 120 transmits the content request information to another device (eg, the mobile device 100b) through the communication unit 130 or can be sent to the media server.
  • another device eg, the mobile device 100b
  • the communication unit 130 may download/stream contents such as movies and news from another device (eg, the portable device 100b) or a media server to the memory unit 130 .
  • the controller 120 controls and/or performs procedures such as video/image acquisition, (video/image) encoding, and metadata generation/processing for the content, and is acquired through the input/output unit 140a/sensor unit 140b
  • An XR object can be generated/output based on information about one surrounding space or a real object.
  • the XR device 100a is wirelessly connected to the portable device 100b through the communication unit 110 , and the operation of the XR device 100a may be controlled by the portable device 100b.
  • the portable device 100b may operate as a controller for the XR device 100a.
  • the XR device 100a may obtain 3D location information of the portable device 100b, and then generate and output an XR object corresponding to the portable device 100b.
  • Robots can be classified into industrial, medical, home, military, etc. depending on the purpose or field of use.
  • the robot 100 may include a communication unit 110 , a control unit 120 , a memory unit 130 , an input/output unit 140a , a sensor unit 140b , and a driving unit 140c .
  • blocks 110 to 130/140a to 140c correspond to blocks 110 to 130/140 of FIG. 40 , respectively.
  • the communication unit 110 may transmit/receive signals (eg, driving information, control signals, etc.) with external devices such as other wireless devices, other robots, or control servers.
  • the controller 120 may control the components of the robot 100 to perform various operations.
  • the memory unit 130 may store data/parameters/programs/codes/commands supporting various functions of the robot 100 .
  • the input/output unit 140a may obtain information from the outside of the robot 100 and may output the information to the outside of the robot 100 .
  • the input/output unit 140a may include a camera, a microphone, a user input unit, a display unit, a speaker, and/or a haptic module.
  • the sensor unit 140b may obtain internal information, surrounding environment information, user information, and the like of the robot 100 .
  • the sensor unit 140b may include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, a radar, and the like.
  • the driving unit 140c may perform various physical operations such as moving a robot joint. In addition, the driving unit 140c may make the robot 100 travel on the ground or fly in the air.
  • the driving unit 140c may include an actuator, a motor, a wheel, a brake, a propeller, and the like.
  • AI devices are fixed or mobile devices such as TVs, projectors, smartphones, PCs, laptops, digital broadcasting terminals, tablet PCs, wearable devices, set-top boxes (STBs), radios, washing machines, refrigerators, digital signage, robots, vehicles, etc. It may be implemented in any possible device or the like.
  • the AI device 100 includes a communication unit 110 , a control unit 120 , a memory unit 130 , input/output units 140a/140b , a learning processor unit 140c and a sensor unit 140d). may include.
  • Blocks 110 to 130/140a to 140d correspond to blocks 110 to 130/140 of FIG. 40, respectively.
  • the communication unit 110 uses wired/wireless communication technology to communicate with external devices such as other AI devices (eg, FIGS. 37, 100x, 200, 400) or the AI server 200 and wired/wireless signals (eg, sensor information, user input, learning). models, control signals, etc.). To this end, the communication unit 110 may transmit information in the memory unit 130 to an external device or transmit a signal received from the external device to the memory unit 130 .
  • external devices such as other AI devices (eg, FIGS. 37, 100x, 200, 400) or the AI server 200 and wired/wireless signals (eg, sensor information, user input, learning). models, control signals, etc.).
  • the communication unit 110 may transmit information in the memory unit 130 to an external device or transmit a signal received from the external device to the memory unit 130 .
  • the controller 120 may determine at least one executable operation of the AI device 100 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. In addition, the controller 120 may control the components of the AI device 100 to perform the determined operation. For example, the control unit 120 may request, search, receive, or utilize the data of the learning processor unit 140c or the memory unit 130 , and may be a predicted operation among at least one executable operation or determined to be preferable. Components of the AI device 100 may be controlled to execute the operation. In addition, the control unit 120 collects history information including the user's feedback on the operation contents or operation of the AI device 100 and stores it in the memory unit 130 or the learning processor unit 140c, or the AI server ( 37 and 400), and the like, may be transmitted to an external device. The collected historical information may be used to update the learning model.
  • the memory unit 130 may store data supporting various functions of the AI device 100 .
  • the memory unit 130 may store data obtained from the input unit 140a , data obtained from the communication unit 110 , output data of the learning processor unit 140c , and data obtained from the sensing unit 140 .
  • the memory unit 130 may store control information and/or software codes necessary for the operation/execution of the control unit 120 .
  • the input unit 140a may acquire various types of data from the outside of the AI device 100 .
  • the input unit 120 may obtain training data for model learning, input data to which the learning model is applied, and the like.
  • the input unit 140a may include a camera, a microphone, and/or a user input unit.
  • the output unit 140b may generate an output related to visual, auditory or tactile sense.
  • the output unit 140b may include a display unit, a speaker, and/or a haptic module.
  • the sensing unit 140 may obtain at least one of internal information of the AI device 100 , surrounding environment information of the AI device 100 , and user information by using various sensors.
  • the sensing unit 140 may include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and/or a radar. have.
  • the learning processor unit 140c may train a model composed of an artificial neural network by using the training data.
  • the learning processor unit 140c may perform AI processing together with the learning processor unit of the AI server ( FIGS. 37 and 400 ).
  • the learning processor unit 140c may process information received from an external device through the communication unit 110 and/or information stored in the memory unit 130 . Also, the output value of the learning processor unit 140c may be transmitted to an external device through the communication unit 110 and/or stored in the memory unit 130 .
  • Embodiments according to the present invention may be implemented by various means, for example, hardware, firmware, software, or a combination thereof.
  • an embodiment of the present invention provides one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), FPGAs ( field programmable gate arrays), a processor, a controller, a microcontroller, a microprocessor, and the like.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • an embodiment of the present invention may be implemented in the form of modules, procedures, functions, etc. that perform the functions or operations described above.
  • the software code may be stored in the memory and driven by the processor.
  • the memory may be located inside or outside the processor, and may transmit/receive data to and from the processor by various known means.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

The present specification provides a method for a transmitting end transmitting a signal in a wireless communication system using an auto encoder. More specifically, the method carried out by a transmitting end comprises the steps of: encoding input data on the basis of a pre-trained transmitting end encoder neural network; and transmitting a signal to a receiving end on the basis of the encoded input data, wherein the transmitting end encoder neural network serially comprises (i) a first encoder neural network for receiving the input data and outputting a first codeword, (ii) an interleaver for receiving the first codeword, interleaving same, and outputting the interleaved first codeword, and (iii) a second encoder neural network for receiving the interleaved first codeword and outputting a second codeword constituting the encoded input data.

Description

오토 인코더를 이용하는 무선 통신 시스템에서 신호를 송수신하기 위한 방법 및 이를 위한 장치Method for transmitting and receiving a signal in a wireless communication system using an auto-encoder and an apparatus therefor
본 명세서는 오토 인코더를 이용하여 신호를 송수신하기 위한 것으로, 보다 구체적으로 오토 인코더를 이용하는 무선 통신 시스템에서 신호를 송수신하기 위한 방법 및 이를 위한 장치에 관한 것이다. The present specification relates to a method for transmitting and receiving a signal using an auto-encoder, and more particularly, to a method for transmitting and receiving a signal in a wireless communication system using an auto-encoder, and an apparatus therefor.
무선 통신 시스템이 음성이나 데이터 등과 같은 다양한 종류의 통신 서비스를 제공하기 위해 광범위하게 전개되고 있다. 일반적으로 무선통신 시스템은 가용한 시스템 자원(대역폭, 전송 파워 등)을 공유하여 다중 사용자와의 통신을 지원할 수 있는 다중 접속(multiple access) 시스템이다. 다중 접속 시스템의 예들로는 CDMA(Code Division Multiple Access) 시스템, FDMA(Frequency Division Multiple Access) 시스템, TDMA(Time Division Multiple Access) 시스템, SDMA(Space Division Multiple Access), OFDMA(Orthogonal Frequency Division Multiple Access) 시스템, SC-FDMA(Single Carrier Frequency Division Multiple Access) 시스템, IDMA (Interleave Division Multiple Access) 시스템 등이 있다. Wireless communication systems have been widely deployed to provide various types of communication services such as voice and data. In general, a wireless communication system is a multiple access system that can support communication with multiple users by sharing available system resources (bandwidth, transmission power, etc.). Examples of multiple access systems include a Code Division Multiple Access (CDMA) system, a Frequency Division Multiple Access (FDMA) system, a Time Division Multiple Access (TDMA) system, a Space Division Multiple Access (SDMA), or an Orthogonal Frequency Division Multiple Access (OFDMA) system. , SC-FDMA (Single Carrier Frequency Division Multiple Access) system, IDMA (Interleave Division Multiple Access) system, and the like.
본 명세서는 뉴럴 네트워크를 활용하여 통신에서 발생하는 전송 오류를 정정하기 위한 방법 및 이를 위한 장치를 제공함에 목적이 있다.An object of the present specification is to provide a method for correcting a transmission error occurring in communication using a neural network and an apparatus therefor.
본 명세서는 통신에서 발생하는 전송 오류를 정정하기 위한 뉴럴 네트워크의 복잡도를 감소시키는 방법 및 이를 위한 장치를 제공함에 목적이 있다.An object of the present specification is to provide a method and apparatus for reducing the complexity of a neural network for correcting a transmission error occurring in communication.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. will be able
본 명세서는 오토 인코더(auto encoder)를 이용하는 무선 통신 시스템에서 신호를 송수신하기 위한 방법 및 이를 위한 장치를 제공한다.The present specification provides a method for transmitting and receiving a signal in a wireless communication system using an auto encoder and an apparatus therefor.
보다 구체적으로, 본 명세서는, 오토 인코더를 이용하는 무선 통신 시스템에서 송신단이 신호를 전송하기 위한 방법은, 사전 학습된 송신단 인코더 뉴럴 네트워크(neural network)에 기초하여 입력 데이터를 인코딩(encoding)하는 단계; 및 상기 인코딩된 입력 데이터에 기초하여 상기 신호를 수신단으로 전송하는 단계를 포함하되, 상기 송신단 인코더 뉴럴 네트워크는 (i) 상기 입력 데이터를 입력 받아 제 1 코드워드(codeword)를 출력하는 제 1 인코더 뉴럴 네트워크, (ii) 상기 제 1 코드워드를 입력 받아 인터리빙(interleaving)하고, 상기 인터리빙된 제 1 코드워드를 출력하는 인터리버(interleaver) 및 (iii) 상기 인터리빙된 제 1 코드워드를 입력 받아 상기 인코딩된 입력 데이터를 구성하는 제 2 코드워드를 출력하는 제 2 인코더 뉴럴 네트워크를 직렬적으로(serially) 포함하는 것을 특징으로 한다.More specifically, the present specification provides a method for a transmitting end to transmit a signal in a wireless communication system using an auto-encoder, the method comprising: encoding input data based on a pre-trained transmitting end encoder neural network; and transmitting the signal to a receiving end based on the encoded input data, wherein the transmitting end encoder neural network (i) receives the input data and outputs a first codeword. a network, (ii) an interleaver that receives and interleaves the first codeword, and outputs the interleaved first codeword; and (iii) receives the interleaved first codeword and performs the encoding. and a second encoder neural network for outputting a second codeword constituting input data serially.
또한, 본 명세서는, 상기 제 1 인코더 뉴럴 네트워크는 n1개의 제 1 인코더 컴포넌트 뉴럴 네트워크로 구성되고, 상기 제 2 인코더 뉴럴 네트워크는 n2개의 상기 제 1 인코더 컴포넌트 뉴럴 네트워크 및 n3개의 제 2 인코더 컴포넌트 뉴럴 네트워크로 구성되고, 상기 n1, n2 및 n3는 0이 아닌 양의 정수인 것을 특징으로 할 수 있다.In addition, in this specification, the first encoder neural network consists of n1 first encoder component neural networks, and the second encoder neural network includes n2 first encoder component neural networks and n3 second encoder component neural networks. , and n1, n2 and n3 may be non-zero positive integers.
또한, 본 명세서는, 상기 입력 데이터의 길이가 k인 것에 기초하여, 상기 제 1 인코더 뉴럴 네트워트의 코드 레이트(code rate)는 k/n1이고, 상기 제 2 인코더 뉴럴 네트워크의 코드 레이트는 n1/(n2+n3)이고, 상기 송신단 인코더 뉴럴 네트워크의 전체 코드 레이트는 k/(n2+n3)인 것을 특징으로 할 수 있다.In addition, according to the present specification, based on the length of the input data being k, the code rate of the first encoder neural network is k/n1, and the code rate of the second encoder neural network is n1/( n2+n3), and the overall code rate of the transmitter-end encoder neural network may be k/(n2+n3).
또한, 본 명세서는, 상기 제 1 인코더 컴포넌트 뉴럴 네트워크 및 상기 제 2 인코더 컴포넌트 뉴럴 네트워크 각각은 적어도 하나 이상의 계층(layer)으로 구성되고, 상기 제 1 인코더 컴포넌트 뉴럴 네트워크 및 상기 제 2 인코더 컴포넌트 뉴럴 네트워크는 입력 값에 대한 필터링(filtering)을 위한 (i) 필터링 함수 및 (ii) 상기 필터링 함수의 출력을 입력 받는 활성화 함수(activation function)를 포함하는 뉴럴 네트워크 구성 단위에 기초하여 구성되는 것을 특징으로 할 수 있다.In addition, in the present specification, each of the first encoder component neural network and the second encoder component neural network consists of at least one layer, and the first encoder component neural network and the second encoder component neural network are It may be characterized in that it is configured based on a neural network structural unit including (i) a filtering function for filtering an input value and (ii) an activation function receiving an output of the filtering function as an input. have.
또한, 본 명세서는, 상기 제 1 인코더 컴포넌트 뉴럴 네트워크 및 상기 제 2 인코더 컴포넌트 뉴럴 네트워크 각각은 2개의 계층(layer)으로 구성되는 것을 특징으로 할 수 있다.In addition, in the present specification, each of the first encoder component neural network and the second encoder component neural network may be characterized in that it consists of two layers.
또한, 본 명세서는, 상기 n1 및 상기 n2의 값은 동일하고, 상기 n3는 1인 것을 특징으로 할 수 있다.Also, in the present specification, the values of n1 and n2 may be the same, and n3 may be 1.
또한, 본 명세서는, 상기 제 1 인코더 컴포넌트 뉴럴 네트워크는 하나의 입력 값을 입력 받는 제 1 뉴럴 네트워크 구성 단위 및 상기 제 1 뉴럴 네트워크 구성 단위의 출력을 입력 받는 제 2 뉴럴 네트워크 구성 단위를 포함하고, 상기 제 2 뉴럴 네트워크 구성 단위의 출력에 선형 회귀(Linear regression)를 적용하고, 상기 선형 회귀가 적용된 상기 제 2 뉴럴 네트워크 구성 단위의 출력에 eLu(exponential linear unit) 함수를 적용하는 것을 특징으로 할 수 있다.In addition, the present specification provides that the first encoder component neural network includes a first neural network constituent unit receiving one input value and a second neural network constituent unit receiving an output of the first neural network constituent unit, Linear regression is applied to the output of the second neural network structural unit, and an exponential linear unit (eLu) function is applied to the output of the second neural network structural unit to which the linear regression is applied. have.
또한, 본 명세서는, 상기 제 2 인코더 컴포넌트 뉴럴 네트워크는 상기 n1개의 입력 값을 입력 받는 제 3 뉴럴 네트워크 구성 단위 및 상기 제 3 뉴럴 네트워크 구성 단위의 출력 값을 입력 받는 제 4 뉴럴 네트워크 구성 단위를 포함하고, 상기 제 4 뉴럴 네트워크 구성 단위의 출력 값에 상기 선형 회귀를 적용하고, 상기 선형 회귀가 적용된 상기 제 4 뉴럴 네트워크 구성 단위의 출력값에 상기 eLu 함수를 적용하는 것을 특징으로 할 수 있다.Also, in the present specification, the second encoder component neural network includes a third neural network constituent unit receiving the n1 input values and a fourth neural network constituent unit receiving output values of the third neural network constituent unit. and applying the linear regression to the output value of the fourth neural network structural unit, and applying the eLu function to the output value of the fourth neural network structural unit to which the linear regression is applied.
또한, 본 명세서는, 상기 제 1 뉴럴 네트워크 구성 단위 및 상기 제 3 뉴럴 네트워크 구성 단위는 상기 2개의 계층 중 하나인 제 1 계층을 구성하고, 상기 제 2 뉴럴 네트워크 구성 단위 및 상기 제 4 뉴럴 네트워크 구성 단위는 상기 2개의 계층 중 나머지 하나인 제 2 계층을 구성하는 것을 특징으로 할 수 있다.Also, in the present specification, the first neural network structural unit and the third neural network structural unit constitute a first layer that is one of the two layers, and the second neural network structural unit and the fourth neural network configuration unit The unit may constitute a second layer, which is the other one of the two layers.
또한, 본 명세서는, 상기 제 1 뉴럴 네트워크 구성 단위 내지 상기 제 4 뉴럴 네트워크 구성 단위 각각의 출력 값이 출력되는 출력 채널의 개수는 100인 것을 특징으로 할 수 있다.In addition, the present specification may be characterized in that the number of output channels through which output values of each of the first to the fourth neural network constituent units are output is 100.
또한, 본 명세서는, 상기 인터리버에 입력되는 상기 제 1 코드워드 비트열(bit stream) 내의 i+1번째 비트(bit)는 아래의 수학식에 기초하여 인터리빙되고,In addition, according to the present specification, the i+1th bit in the first codeword bit stream input to the interleaver is interleaved based on the following equation,
[수학식][Equation]
Figure PCTKR2021005384-appb-img-000001
Figure PCTKR2021005384-appb-img-000001
여기서, L은 인터리버의 크기이고, f0은 상수 오프셋(constant offset)이고, f1은 상기 L과 서로소 관계를 만족하는 소수(prime number)이고, f2는 L의 약수(fraction)들 중 2의 거듭 제곱 수(power of 2)에 해당하는 수인 것을 특징으로 할 수 있다.Here, L is the size of the interleaver, f0 is a constant offset, f1 is a prime number that satisfies L and a relative relation, and f2 is a power of 2 among L fractions. It may be characterized as a number corresponding to a power of 2 .
또한, 본 명세서는, 상기 f0 은 0이고, 상기 제 1 코드워드의 비트열에 대하여 상기 f2의 값만큼 병렬(parallel) 연산이 수행되는 것을 특징으로 할 수 있다.Also, in the present specification, the f0 may be 0, and a parallel operation is performed on the bit string of the first codeword by the value of f2.
또한, 본 명세서는, 상기 적어도 하나 이상의 계층 중 가장 먼저 위치하는 계층을 구성하는 특정 뉴럴 네트워크 구성 단위는 상기 필터링 함수의 출력 채널의 수를 감소시키기 위한 풀링 계층(pooling layer)을 더 포함하고, 상기 풀링 계층은 상기 필터링 함수 및 상기 활성화 함수 사이에 위치하는 것을 특징으로 할 수 있다.In addition, in the present specification, a specific neural network configuration unit constituting a layer located first among the at least one or more layers further includes a pooling layer for reducing the number of output channels of the filtering function, and the The pooling layer may be positioned between the filtering function and the activation function.
또한, 본 명세서는, 상기 가장 먼저 위치하는 계층 이후에 위치하는 계층들을 구성하는 각각의 뉴럴 네트워크 구성 단위들은 상기 풀링 계층(pooling layer)을 더 포함하는 것을 특징으로 할 수 있다.In addition, the present specification may be characterized in that each of the neural network constituent units constituting the layers positioned after the first positioned layer may further include the pooling layer.
또한, 본 명세서는, 오토 인코더(auto encoder)를 이용하는 무선 통신 시스템에서 신호를 송수신하기 위한 송신단에 있어서, 무선 신호를 전송하기 위한 전송기(transmitter); 무선 신호를 수신하기 위한 수신기(receiver); 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서에 동작 가능하게 접속 가능하고, 상기 적어도 하나의 프로세서에 의해 실행될 때, 동작들을 수행하는 지시(instruction)들을 저장하는 적어도 하나의 컴퓨터 메모리를 포함하며, 상기 동작들은, 사전 학습된 송신단 인코더 뉴럴 네트워크(neural network)에 기초하여 입력 데이터를 인코딩(encoding)하는 단계; 및 상기 인코딩된 입력 데이터에 기초하여 상기 신호를 수신단으로 전송하는 단계를 포함하되, 상기 송신단 인코더 뉴럴 네트워크는 (i) 상기 입력 데이터를 입력 받아 제 1 코드워드(codeword)를 출력하는 제 1 인코더 뉴럴 네트워크, (ii) 상기 제 1 코드워드를 입력 받아 인터리빙(interleaving)하고, 상기 인터리빙된 제 1 코드워드를 출력하는 인터리버(interleaver) 및 (iii) 상기 인터리빙된 제 1 코드워드를 입력 받아 상기 인코딩된 입력 데이터를 구성하는 제 2 코드워드를 출력하는 제 2 인코더 뉴럴 네트워크를 직렬적으로(serially) 포함하는 것을 특징으로 한다.In addition, the present specification provides a transmitter for transmitting and receiving a signal in a wireless communication system using an auto encoder, comprising: a transmitter for transmitting a wireless signal; a receiver for receiving a radio signal; at least one processor; and at least one computer memory operably connectable to the at least one processor and storing instructions for performing operations when executed by the at least one processor, the operations comprising: encoding input data based on the transmitted-end encoder neural network; and transmitting the signal to a receiving end based on the encoded input data, wherein the transmitting end encoder neural network (i) receives the input data and outputs a first codeword. a network, (ii) an interleaver that receives and interleaves the first codeword, and outputs the interleaved first codeword; and (iii) receives the interleaved first codeword and performs the encoding. and a second encoder neural network for outputting a second codeword constituting input data serially.
또한, 본 명세서는, 오토 인코더(auto encoder)를 이용하는 무선 통신 시스템에서 수신단이 신호를 수신하기 위한 방법은, 사전 학습된 송신단 인코더 뉴럴 네트워크(neural network)에 기초하여 인코딩된 데이터를 포함하는 신호를 송신단으로부터 수신하는 단계; 사전 학습된 수신단 디코더 뉴럴 네트워크(neural network)에 기초하여 상기 신호에 포함된 상기 인코딩된 데이터를 디코딩(decoding)하는 단계를 포함하되, 상기 수신단 디코더 뉴럴 네트워크는 순차적으로 연결된 적어도 하나 이상의 기본 디코더 뉴럴 네트워크를 포함하고, 상기 적어도 하나 이상의 기본 디코더 뉴럴 네트워크 각각은 (i) 송신단 인코더 뉴럴 네트워크에 포함된 제 2 인코더 뉴럴 네트워크에서 출력된 제 2 코드워드에 대한 디코딩을 수행하고, 제 2 디코딩된 코드워드를 출력하는 제 2 디코더 뉴럴 네트워크, (ii) 상기 제 2 디코딩된 코드워드를 입력 받아 디-인터리빙(de-interleaving)하고, 상기 디-인터리빙된 제 2 디코딩된 코드워드를 출력하는 디-인터리버(de-interleaver) 및 (iii) 상기 디-인터리빙된 제 2 디코딩된 코드워드에 대한 디코딩을 수행하고, 상기 디-인터리빙된 제 2 디코딩된 코드워드에 대한 디코딩에 기초한 제 1 디코딩된 코드워드를 출력하는 제 1 디코더 뉴럴 네트워크를 직렬적으로(serially) 포함하는 것을 특징으로 한다. In addition, the present specification provides a method for a receiving end to receive a signal in a wireless communication system using an auto encoder, a signal including encoded data based on a pre-trained transmitting end encoder neural network. receiving from a transmitting end; Decoding the encoded data included in the signal based on a pre-trained receiving end decoder neural network, wherein the receiving end decoder neural network is at least one sequentially connected basic decoder neural network Each of the at least one or more basic decoder neural networks (i) performs decoding on a second codeword output from a second encoder neural network included in the transmitter-end encoder neural network, and receives the second decoded codeword a second decoder neural network outputting the second decoder neural network, (ii) receiving the second decoded codeword, de-interleaving it, and outputting the de-interleaved second decoded codeword de-interleaver (de) -interleaver) and (iii) performing decoding on the de-interleaved second decoded codeword, and outputting a first decoded codeword based on the decoding on the de-interleaved second decoded codeword It is characterized in that it includes serially the first decoder neural network.
또한, 본 명세서는, 무선 통신 시스템에서 신호를 송수신하기 위한 송신단에 있어서, 무선 신호를 전송하기 위한 전송기(transmitter); 무선 신호를 수신하기 위한 수신기(receiver); 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서에 동작 가능하게 접속 가능하고, 상기 적어도 하나의 프로세서에 의해 실행될 때, 동작들을 수행하는 지시(instruction)들을 저장하는 적어도 하나의 컴퓨터 메모리를 포함하며, 상기 동작들은, 사전 학습된 송신단 인코더 뉴럴 네트워크(neural network)에 기초하여 인코딩된 데이터를 포함하는 신호를 송신단으로부터 수신하는 단계; 사전 학습된 수신단 디코더 뉴럴 네트워크(neural network)에 기초하여 상기 신호에 포함된 상기 인코딩된 데이터를 디코딩(decoding)하는 단계를 포함하되, 상기 수신단 디코더 뉴럴 네트워크는 순차적으로 연결된 적어도 하나 이상의 기본 디코더 뉴럴 네트워크를 포함하고, 상기 적어도 하나 이상의 기본 디코더 뉴럴 네트워크 각각은 (i) 송신단 인코더 뉴럴 네트워크에 포함된 제 2 인코더 뉴럴 네트워크에서 출력된 제 2 코드워드에 대한 디코딩을 수행하고, 제 2 디코딩된 코드워드를 출력하는 제 2 디코더 뉴럴 네트워크, (ii) 상기 제 2 디코딩된 코드워드를 입력 받아 디-인터리빙(de-interleaving)하고, 상기 디-인터리빙된 제 2 디코딩된 코드워드를 출력하는 디-인터리버(de-interleaver) 및 (iii) 상기 디-인터리빙된 제 2 디코딩된 코드워드에 대한 디코딩을 수행하고, 상기 디-인터리빙된 제 2 디코딩된 코드워드에 대한 디코딩에 기초한 제 1 디코딩된 코드워드를 출력하는 제 1 디코더 뉴럴 네트워크를 직렬적으로(serially) 포함하는 것을 특징으로 한다. In addition, in the present specification, a transmitter for transmitting and receiving a signal in a wireless communication system, a transmitter for transmitting a wireless signal; a receiver for receiving a radio signal; at least one processor; and at least one computer memory operably connectable to the at least one processor and storing instructions for performing operations when executed by the at least one processor, the operations comprising: Receiving a signal including data encoded based on the transmitted-end encoder neural network from the transmitting end; Decoding the encoded data included in the signal based on a pre-trained receiving end decoder neural network, wherein the receiving end decoder neural network is at least one sequentially connected basic decoder neural network Each of the at least one or more basic decoder neural networks (i) performs decoding on a second codeword output from a second encoder neural network included in the transmitter-end encoder neural network, and receives the second decoded codeword a second decoder neural network outputting the second decoder neural network, (ii) receiving the second decoded codeword, de-interleaving it, and outputting the de-interleaved second decoded codeword de-interleaver (de) -interleaver) and (iii) performing decoding on the de-interleaved second decoded codeword, and outputting a first decoded codeword based on the decoding on the de-interleaved second decoded codeword It is characterized in that it includes serially the first decoder neural network.
또한, 본 명세서는, 하나 이상의 명령어들을 저장하는 비일시적 컴퓨터 판독 가능 매체(computer readable medium, CRM)에 있어서, 하나 이상의 프로세서들에 의해 실행 가능한 하나 이상의 명령어들은 송신단이, 사전 학습된 송신단 인코더 뉴럴 네트워크(neural network)에 기초하여 입력 데이터를 인코딩(encoding)하도록 하고, 상기 인코딩된 입력 데이터에 기초하여 상기 신호를 수신단으로 전송하도록 하되, 상기 송신단 인코더 뉴럴 네트워크는 (i) 상기 입력 데이터를 입력 받아 제 1 코드워드(codeword)를 출력하는 제 1 인코더 뉴럴 네트워크, (ii) 상기 제 1 코드워드를 입력 받아 인터리빙(interleaving)하고, 상기 인터리빙된 제 1 코드워드를 출력하는 인터리버(interleaver) 및 (iii) 상기 인터리빙된 제 1 코드워드를 입력 받아 상기 인코딩된 입력 데이터를 구성하는 제 2 코드워드를 출력하는 제 2 인코더 뉴럴 네트워크를 직렬적으로(serially) 포함하는 것을 특징으로 한다.In addition, in the present specification, in a non-transitory computer readable medium (CRM) storing one or more instructions, the one or more instructions executable by one or more processors are transmitted by a transmitting end, a pre-trained transmitting end encoder neural network Encoding input data based on a neural network and transmitting the signal to a receiving end based on the encoded input data, wherein the transmitting end encoder neural network (i) receives the input data and first a first encoder neural network for outputting one codeword, (ii) an interleaver for receiving the first codeword and interleaving it, and outputting the interleaved first codeword; and (iii) and a second encoder neural network that receives the first interleaved codeword and outputs a second codeword constituting the encoded input data serially.
또한, 본 명세서는, 하나 이상의 메모리들 및 상기 하나 이상의 메모리들과 기능적으로 연결되어 있는 하나 이상의 프로세서들을 포함하는 장치에 있어서, 상기 하나 이상의 프로세서들은 상기 장치가, 상기 장치의 사전 학습된 송신단 인코더 뉴럴 네트워크(neural network)에 기초하여 입력 데이터를 인코딩(encoding)하도록 상기 장치를 제어하고, 상기 인코딩된 입력 데이터에 기초하여 상기 신호를 수신단으로 전송하도록 하되 상기 장치를 제어하되, 상기 송신단 인코더 뉴럴 네트워크는 (i) 상기 입력 데이터를 입력 받아 제 1 코드워드(codeword)를 출력하는 제 1 인코더 뉴럴 네트워크, (ii) 상기 제 1 코드워드를 입력 받아 인터리빙(interleaving)하고, 상기 인터리빙된 제 1 코드워드를 출력하는 인터리버(interleaver) 및 (iii) 상기 인터리빙된 제 1 코드워드를 입력 받아 상기 인코딩된 입력 데이터를 구성하는 제 2 코드워드를 출력하는 제 2 인코더 뉴럴 네트워크를 직렬적으로(serially) 포함하는 것을 특징으로 한다.In addition, the present specification provides a device comprising one or more memories and one or more processors operatively connected to the one or more memories, wherein the one or more processors enable the device to perform a pre-trained transmitter-end encoder neural of the device. Control the device to encode input data based on a network, and control the device to transmit the signal to a receiving end based on the encoded input data, wherein the transmitting end encoder neural network comprises: (i) a first encoder neural network receiving the input data and outputting a first codeword, (ii) receiving the first codeword and interleaving the first codeword, and generating the interleaved first codeword Serially comprising an interleaver for outputting and (iii) a second encoder neural network for receiving the interleaved first codeword and outputting a second codeword constituting the encoded input data characterized.
본 명세서는 뉴럴 네트워크를 활용하여 통신에서 발생하는 전송 오류를 효과적으로 정정할 수 있는 효과가 있다.The present specification has an effect of effectively correcting a transmission error occurring in communication by utilizing a neural network.
본 명세서는 통신에서 발생하는 전송 오류를 정정하기 위한 뉴럴 네트워크의 복잡도를 감소시킬 수 있는 효과가 있다.The present specification has an effect of reducing the complexity of a neural network for correcting a transmission error occurring in communication.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. .
본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 발명에 대한 실시예를 제공하고, 상세한 설명과 함께 본 발명의 기술적 특징을 설명한다.BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included as a part of the detailed description to facilitate the understanding of the present invention, provide embodiments of the present invention, and together with the detailed description, explain the technical features of the present invention.
도 1은 3GPP 시스템에 이용되는 물리 채널들 및 일반적인 신호 전송을 예시한다.1 illustrates physical channels and general signal transmission used in a 3GPP system.
도 2는 6G 시스템에서 제공 가능한 통신 구조의 일례를 나타낸 도이다.2 is a diagram illustrating an example of a communication structure that can be provided in a 6G system.
도 3은 퍼셉트론 구조의 일례를 나타낸 도이다.3 is a view showing an example of a perceptron structure.
도 4는 다층 퍼셉트론 구조의 일례를 나타낸 도이다.4 is a diagram illustrating an example of a multilayer perceptron structure.
도 5는 심층 신경망의 일례를 나타낸 도이다.5 is a diagram illustrating an example of a deep neural network.
도 6은 컨볼루션 신경망의 일례를 나타낸 도이다.6 is a diagram illustrating an example of a convolutional neural network.
도 7은 컨볼루션 신경망에서의 필터 연산의 일례를 나타낸 도이다.7 is a diagram illustrating an example of a filter operation in a convolutional neural network.
도 8은 순환 루프가 존재하는 신경망 구조의 일례를 나타낸다.8 shows an example of a neural network structure in which a cyclic loop exists.
도 9는 순환 신경망의 동작 구조의 일례를 나타낸다.9 shows an example of the operation structure of a recurrent neural network.
도 10은 오토 인코더를 사용하는 무선 통신 시스템의 일 예를 나타낸 도이다.10 is a diagram illustrating an example of a wireless communication system using an auto encoder.
도 11은 오토 인코더를 이용한 통신 체인(chain)의 개념적 구조의 일 예를 나타낸 도이다.11 is a diagram illustrating an example of a conceptual structure of a communication chain using an auto-encoder.
도 12는 본 명세서에서 제안하는 오토 인코더에 기반한 통신 시스템의 일 예를 나타낸 개념도이다.12 is a conceptual diagram illustrating an example of a communication system based on an auto encoder proposed in the present specification.
도 13 및 도 14는 본 명세서에서 제안한 방법의 이해를 돕기 위한 터보 코드의 예시를 나타낸 도이다.13 and 14 are diagrams illustrating examples of turbo codes to help the understanding of the method proposed in the present specification.
도 15는 본 명세서에서 제안하는 직렬 연결 뉴럴 네트워크 오토 인코더의 전체적인 구조의 일 예를 나타낸 도이다.15 is a diagram illustrating an example of the overall structure of a serial-connected neural network auto-encoder proposed in the present specification.
도 16은 본 명세서에서 제안된 방법이 적용될 수 있는 송신단 인코더 뉴럴 네트워크의 일 예를 나타낸 도이다.16 is a diagram illustrating an example of a transmitter-end encoder neural network to which the method proposed in the present specification can be applied.
도 17은 본 명세서에서 제안된 방법이 적용될 수 있는 수신단 디코더 뉴럴 네트워크의 일 예를 나타낸 도이다.17 is a diagram illustrating an example of a receiver decoder neural network to which the method proposed in the present specification can be applied.
도 18은 본 명세서에서 제안된 방법이 적용될 수 있는 수신단 디코더 뉴럴 네트워크의 일 예를 나타낸 도이다.18 is a diagram illustrating an example of a receiver decoder neural network to which the method proposed in the present specification can be applied.
도 19는 본 명세서에서 제안하는 방법이 적용될 수 있는 뉴럴 네트워크를 구성하기 위한 기본 뉴럴 네트워크 구성 단위의 일 예를 나타낸 도이다.19 is a diagram illustrating an example of a basic neural network configuration unit for configuring a neural network to which the method proposed in the present specification can be applied.
도 20 및 도 21은 본 명세서에서 제안하는 뉴럴 네트워크 구성 단위에 기초하여 구성되는 송신단 인코더 뉴럴 네트워크의 일 예를 나타낸 도이다.20 and 21 are diagrams illustrating an example of a transmitter-end encoder neural network configured based on a neural network configuration unit proposed in the present specification.
도 22는 본 명세서에서 제안하는 뉴럴 네트워크 구성 단위에 기초하여 구성되는 수신단 디코더 뉴럴 네트워크의 일 예를 나타낸 도이다.22 is a diagram illustrating an example of a receiver decoder neural network configured based on a neural network configuration unit proposed in the present specification.
도 23은 본 명세서에서 제안하는 뉴럴 네트워크 구성 방법에서 사용될 수 있는 다양한 활성화 함수들의 예시를 나타낸 도면이다. 23 is a diagram illustrating examples of various activation functions that can be used in the method for constructing a neural network proposed in the present specification.
도 24 및 도 25는 본 명세서에서 제안하는 인터리버 디자인 방법의 일 예를 나타낸 도이다. 24 and 25 are diagrams illustrating an example of an interleaver design method proposed in the present specification.
도 26은 본 명세서에서 제안하는 풀링 계층 구성 방법의 이해를 돕기 위한 도이다. 26 is a diagram to help understand the pooling layer configuration method proposed in the present specification.
도 27은 뉴럴 네트워크에 사용되는 필터 수의 증가에 따른 뉴럴 네트워크의 학습 능력의 변화를 나타낸 도이다.27 is a diagram illustrating a change in learning ability of a neural network according to an increase in the number of filters used in the neural network.
도 28은 본 명세서에서 제안하는 풀링 계층 구성 방법의 일 예를 나타낸 도이다.28 is a diagram illustrating an example of a method for configuring a pooling layer proposed in the present specification.
도 29는 풀링 계층이 적용된 뉴럴 네트워크 구성 단위(Conv1dCode) 구조의 일 예를 나타낸 도이다.29 is a diagram illustrating an example of a structure of a neural network configuration unit (Conv1dCode) to which a pooling layer is applied.
도 30은 본 명세서에서 제안하는 풀링 계층 구성 방법의 수신단 디코더 뉴럴 네트워크에의 적용 여부에 기초한 복잡도의 비교 분석 결과를 나타낸 도이다.30 is a diagram illustrating a comparison analysis result of complexity based on whether or not the method for constructing a pooling layer proposed in the present specification is applied to a receiver-end decoder neural network.
도 31은 본 명세서에서 제안하는 높은 코드 레이트 달성을 위한 레이트-매칭 방법의 일 예를 나타낸 도이다.31 is a diagram illustrating an example of a rate-matching method for achieving a high code rate proposed in the present specification.
도 32는 본 명세서에서 제안하는 풀링 계층 구성 방법 적용 시의 채널 코딩 성능을 나타낸 도이다.32 is a diagram illustrating channel coding performance when the pooling layer configuration method proposed in the present specification is applied.
도 33 및 도 34는 본 명세서에서 제안하는 인터리버 디자인 방법 적용 시의 채널 코딩 성능을 나타낸 도이다.33 and 34 are diagrams illustrating channel coding performance when the interleaver design method proposed in the present specification is applied.
도 35는 본 명세서에서 제안하는 다양한 활성화 함수의 사용에 따른 채널 코딩 성능을 나타낸 도이다.35 is a diagram illustrating channel coding performance according to the use of various activation functions proposed in the present specification.
도 36은 본 명세서에서 제안하는 오토 인코더를 이용하는 무선 통신 시스템에서 신호를 송수신하기 위한 방법의 일례를 나타낸 순서도이다.36 is a flowchart illustrating an example of a method for transmitting and receiving a signal in a wireless communication system using an auto encoder proposed in the present specification.
도 37은 본 발명에 적용되는 통신 시스템을 예시한다.37 illustrates a communication system applied to the present invention.
도 38은 본 발명에 적용될 수 있는 무선 기기를 예시한다.38 illustrates a wireless device applicable to the present invention.
도 39는 전송 신호를 위한 신호 처리 회로를 예시한다.39 illustrates a signal processing circuit for a transmission signal.
도 40은 본 발명에 적용되는 무선 기기의 다른 예를 나타낸다.40 shows another example of a wireless device to which the present invention is applied.
도 41은 본 발명에 적용되는 휴대 기기를 예시한다.41 illustrates a portable device to which the present invention is applied.
도 42는 본 발명에 적용되는 차량 또는 자율 주행 차량을 예시한다.42 illustrates a vehicle or an autonomous driving vehicle to which the present invention is applied.
도 43은 본 발명에 적용되는 차량을 예시한다.43 illustrates a vehicle to which the present invention is applied.
도 44는 본 발명에 적용되는 XR 기기를 예시한다.44 illustrates an XR device applied to the present invention.
도 45는 본 발명에 적용되는 로봇을 예시한다.45 illustrates a robot applied to the present invention.
도 46은 본 발명에 적용되는 AI 기기를 예시한다.46 illustrates an AI device applied to the present invention.
이하의 기술은 CDMA, FDMA, TDMA, OFDMA, SC-FDMA 등과 같은 다양한 무선 접속 시스템에 사용될 수 있다. CDMA는 UTRA(Universal Terrestrial Radio Access)나 CDMA2000과 같은 무선 기술로 구현될 수 있다. TDMA는 GSM(Global System for Mobile communications)/GPRS(General Packet Radio Service)/EDGE(Enhanced Data Rates for GSM Evolution)와 같은 무선 기술로 구현될 수 있다. OFDMA는 IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802-20, E-UTRA(Evolved UTRA) 등과 같은 무선 기술로 구현될 수 있다. UTRA는 UMTS(Universal Mobile Telecommunications System)의 일부이다. 3GPP(3rd Generation Partnership Project) LTE(Long Term Evolution)은 E-UTRA를 사용하는 E-UMTS(Evolved UMTS)의 일부이고 LTE-A(Advanced)/LTE-A pro는 3GPP LTE의 진화된 버전이다. 3GPP NR(New Radio or New Radio Access Technology)는 3GPP LTE/LTE-A/LTE-A pro의 진화된 버전이다. 3GPP 6G는 3GPP NR의 진화된 버전일 수 있다.The following techniques can be used in various radio access systems such as CDMA, FDMA, TDMA, OFDMA, SC-FDMA, and the like. CDMA may be implemented with a radio technology such as Universal Terrestrial Radio Access (UTRA) or CDMA2000. TDMA may be implemented with a radio technology such as Global System for Mobile communications (GSM)/General Packet Radio Service (GPRS)/Enhanced Data Rates for GSM Evolution (EDGE). OFDMA may be implemented with a radio technology such as IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802-20, Evolved UTRA (E-UTRA), and the like. UTRA is part of the Universal Mobile Telecommunications System (UMTS). 3GPP (3rd Generation Partnership Project) Long Term Evolution (LTE) is a part of Evolved UMTS (E-UMTS) using E-UTRA and LTE-A (Advanced)/LTE-A pro is an evolved version of 3GPP LTE. 3GPP NR (New Radio or New Radio Access Technology) is an evolved version of 3GPP LTE/LTE-A/LTE-A pro. 3GPP 6G may be an evolved version of 3GPP NR.
설명을 명확하게 하기 위해, 3GPP 통신 시스템(예, LTE, NR 등)을 기반으로 설명하지만 본 발명의 기술적 사상이 이에 제한되는 것은 아니다. LTE는 3GPP TS 36.xxx Release 8 이후의 기술을 의미한다. 세부적으로, 3GPP TS 36.xxx Release 10 이후의 LTE 기술은 LTE-A로 지칭되고, 3GPP TS 36.xxx Release 13 이후의 LTE 기술은 LTE-A pro로 지칭된다. 3GPP NR은 TS 38.xxx Release 15 이후의 기술을 의미한다. 3GPP 6G는 TS Release 17 및/또는 Release 18 이후의 기술을 의미할 수 있다. "xxx"는 표준 문서 세부 번호를 의미한다. LTE/NR/6G는 3GPP 시스템으로 통칭될 수 있다. 본 발명의 설명에 사용된 배경기술, 용어, 약어 등에 관해서는 본 발명 이전에 공개된 표준 문서에 기재된 사항을 참조할 수 있다. 예를 들어, 다음 문서를 참조할 수 있다.For clarity of description, although description is based on a 3GPP communication system (eg, LTE, NR, etc.), the technical spirit of the present invention is not limited thereto. LTE refers to technology after 3GPP TS 36.xxx Release 8. In detail, LTE technology after 3GPP TS 36.xxx Release 10 is referred to as LTE-A, and LTE technology after 3GPP TS 36.xxx Release 13 is referred to as LTE-A pro. 3GPP NR refers to technology after TS 38.xxx Release 15. 3GPP 6G may refer to technology after TS Release 17 and/or Release 18. "xxx" stands for standard document detail number. LTE/NR/6G may be collectively referred to as a 3GPP system. For backgrounds, terms, abbreviations, etc. used in the description of the present invention, reference may be made to matters described in standard documents published before the present invention. For example, you can refer to the following documents:
3GPP LTE3GPP LTE
- 36.211: Physical channels and modulation- 36.211: Physical channels and modulation
- 36.212: Multiplexing and channel coding- 36.212: Multiplexing and channel coding
- 36.213: Physical layer procedures- 36.213: Physical layer procedures
- 36.300: Overall description- 36.300: Overall description
- 36.331: Radio Resource Control (RRC)- 36.331: Radio Resource Control (RRC)
3GPP NR3GPP NR
- 38.211: Physical channels and modulation- 38.211: Physical channels and modulation
- 38.212: Multiplexing and channel coding- 38.212: Multiplexing and channel coding
- 38.213: Physical layer procedures for control- 38.213: Physical layer procedures for control
- 38.214: Physical layer procedures for data- 38.214: Physical layer procedures for data
- 38.300: NR and NG-RAN Overall Description- 38.300: NR and NG-RAN Overall Description
- 38.331: Radio Resource Control (RRC) protocol specification- 38.331: Radio Resource Control (RRC) protocol specification
물리 채널 및 프레임 구조Physical Channels and Frame Structure
물리 채널 및 일반적인 신호 전송Physical channels and general signal transmission
도 1은 3GPP 시스템에 이용되는 물리 채널들 및 일반적인 신호 전송을 예시한다. 무선 통신 시스템에서 단말은 기지국으로부터 하향링크(Downlink, DL)를 통해 정보를 수신하고, 단말은 기지국으로 상향링크(Uplink, UL)를 통해 정보를 전송한다. 기지국과 단말이 송수신하는 정보는 데이터 및 다양한 제어 정보를 포함하고, 이들이 송수신 하는 정보의 종류/용도에 따라 다양한 물리 채널이 존재한다.1 illustrates physical channels and general signal transmission used in a 3GPP system. In a wireless communication system, a terminal receives information through a downlink (DL) from a base station, and the terminal transmits information through an uplink (UL) to the base station. Information transmitted and received between the base station and the terminal includes data and various control information, and various physical channels exist according to the type/use of the information they transmit and receive.
단말은 전원이 켜지거나 새로이 셀에 진입한 경우 기지국과 동기를 맞추는 등의 초기 셀 탐색(Initial cell search) 작업을 수행한다(S11). 이를 위해, 단말은 기지국으로부터 주 동기 신호(Primary Synchronization Signal, PSS) 및 부 동기 신호(Secondary Synchronization Signal, SSS)을 수신하여 기지국과 동기를 맞추고, 셀 ID 등의 정보를 획득할 수 있다. 그 후, 단말은 기지국으로부터 물리 방송 채널(Physical Broadcast Channel, PBCH)를 수신하여 셀 내 방송 정보를 획득할 수 있다. 한편, 단말은 초기 셀 탐색 단계에서 하향링크 참조 신호(Downlink Reference Signal, DL RS)를 수신하여 하향링크 채널 상태를 확인할 수 있다.When the terminal is powered on or newly enters a cell, the terminal performs an initial cell search operation, such as synchronizing with the base station (S11). To this end, the terminal receives a primary synchronization signal (PSS) and a secondary synchronization signal (SSS) from the base station, synchronizes with the base station, and obtains information such as a cell ID. Thereafter, the terminal may receive a physical broadcast channel (PBCH) from the base station to obtain intra-cell broadcast information. On the other hand, the terminal may receive a downlink reference signal (DL RS) in the initial cell search step to check the downlink channel state.
초기 셀 탐색을 마친 단말은 물리 하향링크 제어 채널(Physical Downlink Control Channel, PDCCH) 및 상기 PDCCH에 실린 정보에 따라 물리 하향링크 공유 채널(Physical Downlink Control Channel; PDSCH)을 수신함으로써 좀더 구체적인 시스템 정보를 획득할 수 있다(S12).After the initial cell search, the UE receives a Physical Downlink Control Channel (PDCCH) and a Physical Downlink Control Channel (PDSCH) according to information carried on the PDCCH to obtain more specific system information. It can be done (S12).
한편, 기지국에 최초로 접속하거나 신호 송신을 위한 무선 자원이 없는 경우, 단말은 기지국에 대해 임의 접속 과정(Random Access Procedure, RACH)을 수행할 수 있다(S13 내지 S16). 이를 위해, 단말은 물리 임의 접속 채널(Physical Random Access Channel, PRACH)을 통해 특정 시퀀스를 프리앰블로 송신하고(S13 및 S15), PDCCH 및 대응하는 PDSCH를 통해 프리앰블에 대한 응답 메시지((RAR(Random Access Response) message)를 수신할 수 있다. 경쟁 기반 RACH의 경우, 추가적으로 충돌 해결 절차(Contention Resolution Procedure)를 수행할 수 있다(S16).On the other hand, when first accessing the base station or when there is no radio resource for signal transmission, the terminal may perform a random access procedure (RACH) for the base station (S13 to S16). To this end, the UE transmits a specific sequence as a preamble through a Physical Random Access Channel (PRACH) (S13 and S15), and a response message to the preamble through the PDCCH and the corresponding PDSCH ((Random Access (RAR)) Response) message) In the case of contention-based RACH, a contention resolution procedure may be additionally performed (S16).
상술한 바와 같은 절차를 수행한 단말은 이후 일반적인 상/하향링크 신호 송신 절차로서 PDCCH/PDSCH 수신(S17) 및 물리 상향링크 공유 채널(Physical Uplink Shared Channel, PUSCH)/물리 상향링크 제어 채널(Physical Uplink Control Channel; PUCCH) 송신(S18)을 수행할 수 있다. 특히 단말은 PDCCH를 통하여 하향링크 제어 정보(Downlink Control Information, DCI)를 수신할 수 있다. 여기서, DCI는 단말에 대한 자원 할당 정보와 같은 제어 정보를 포함하며, 사용 목적에 따라 포맷이 서로 다르게 적용될 수 있다. After performing the procedure as described above, the UE performs PDCCH/PDSCH reception (S17) and Physical Uplink Shared Channel (PUSCH)/Physical Uplink Control Channel (Physical Uplink) as a general uplink/downlink signal transmission procedure. Control Channel (PUCCH) transmission (S18) may be performed. In particular, the UE may receive downlink control information (DCI) through the PDCCH. Here, the DCI includes control information such as resource allocation information for the terminal, and different formats may be applied according to the purpose of use.
한편, 단말이 상향링크를 통해 기지국에 송신하는 또는 단말이 기지국으로부터 수신하는 제어 정보는 하향링크/상향링크 ACK/NACK 신호, CQI(Channel Quality Indicator), PMI(Precoding Matrix 인덱스), RI(Rank Indicator) 등을 포함할 수 있다. 단말은 상술한 CQI/PMI/RI 등의 제어 정보를 PUSCH 및/또는 PUCCH를 통해 송신할 수 있다. On the other hand, the control information transmitted by the terminal to the base station through the uplink or received by the terminal from the base station is a downlink/uplink ACK/NACK signal, a channel quality indicator (CQI), a precoding matrix index (PMI), and a rank indicator (RI). ) and the like. The UE may transmit the above-described control information such as CQI/PMI/RI through PUSCH and/or PUCCH.
상향링크 및 하향링크 채널의 구조Structures of uplink and downlink channels
하향링크 채널 구조Downlink Channel Structure
기지국은 후술하는 하향링크 채널을 통해 관련 신호를 단말에게 전송하고, 단말은 후술하는 하향링크 채널을 통해 관련 신호를 기지국으로부터 수신한다.The base station transmits a related signal to the terminal through a downlink channel to be described later, and the terminal receives the related signal from the base station through a downlink channel to be described later.
(1) 물리 하향링크 공유 채널(PDSCH)(1) Physical Downlink Shared Channel (PDSCH)
PDSCH는 하향링크 데이터(예, DL-shared channel transport block, DL-SCH TB)를 운반하고, QPSK(Quadrature Phase Shift Keying), 16 QAM(Quadrature Amplitude Modulation), 64 QAM, 256 QAM 등의 변조 방법이 적용된다. TB를 인코딩하여 코드워드(codeword)가 생성된다. PDSCH는 다수의 코드워드들을 나를 수 있다. 코드워드(codeword) 별로 스크램블링(scrambling) 및 변조 매핑(modulation mapping)이 수행되고, 각 코드워드로부터 생성된 변조 심볼들은 하나 이상의 레이어로 매핑된다(Layer mapping). 각 레이어는 DMRS(Demodulation Reference Signal)과 함께 자원에 매핑되어 OFDM 심볼 신호로 생성되고, 해당 안테나 포트를 통해 전송된다.PDSCH carries downlink data (eg, DL-shared channel transport block, DL-SCH TB), and modulation methods such as Quadrature Phase Shift Keying (QPSK), 16 Quadrature Amplitude Modulation (QAM), 64 QAM, and 256 QAM are available. applies. A codeword is generated by encoding the TB. A PDSCH can carry multiple codewords. Scrambling and modulation mapping are performed for each codeword, and modulation symbols generated from each codeword are mapped to one or more layers (Layer mapping). Each layer is mapped to a resource together with a demodulation reference signal (DMRS), is generated as an OFDM symbol signal, and is transmitted through a corresponding antenna port.
(2) 물리 하향링크 제어 채널(PDCCH)(2) Physical Downlink Control Channel (PDCCH)
PDCCH는 하향링크 제어 정보(DCI)를 운반하고 QPSK 변조 방법 등이 적용된다. 하나의 PDCCH는 AL(Aggregation Level)에 따라 1, 2, 4, 8, 16 개 등의 CCE(Control Channel Element)로 구성된다. 하나의 CCE는 6개의 REG(Resource Element Group)로 구성된다. 하나의 REG는 하나의 OFDM 심볼과 하나의 (P)RB로 정의된다. The PDCCH carries downlink control information (DCI) and a QPSK modulation method is applied. One PDCCH is composed of 1, 2, 4, 8, 16 CCEs (Control Channel Elements) according to an Aggregation Level (AL). One CCE consists of six REGs (Resource Element Groups). One REG is defined as one OFDM symbol and one (P)RB.
단말은 PDCCH 후보들의 세트에 대한 디코딩(일명, 블라인드 디코딩)을 수행하여 PDCCH를 통해 전송되는 DCI를 획득한다. 단말이 디코딩하는 PDCCH 후보들의 세트는 PDCCH 검색 공간(Search Space) 세트라 정의한다. 검색 공간 세트는 공통 검색 공간 (common search space) 또는 단말-특정 검색 공간 (UE-specific search space)일 수 있다. 단말은 MIB 또는 상위 계층 시그널링에 의해 설정된 하나 이상의 검색 공간 세트 내 PDCCH 후보를 모니터링하여 DCI를 획득할 수 있다. The UE obtains DCI transmitted through the PDCCH by performing decoding (aka, blind decoding) on the set of PDCCH candidates. A set of PDCCH candidates decoded by the UE is defined as a PDCCH search space set. The search space set may be a common search space or a UE-specific search space. The UE may acquire DCI by monitoring PDCCH candidates in one or more search space sets configured by MIB or higher layer signaling.
상향링크 채널 구조Uplink Channel Structure
단말은 후술하는 상향링크 채널을 통해 관련 신호를 기지국으로 전송하고, 기지국은 후술하는 상향링크 채널을 통해 관련 신호를 단말로부터 수신한다.The terminal transmits a related signal to the base station through an uplink channel to be described later, and the base station receives the related signal from the terminal through an uplink channel to be described later.
(1) 물리 상향링크 공유 채널(PUSCH)(1) Physical Uplink Shared Channel (PUSCH)
PUSCH는 상향링크 데이터(예, UL-shared channel transport block, UL-SCH TB) 및/또는 상향링크 제어 정보(UCI)를 운반하고, CP-OFDM (Cyclic Prefix - Orthogonal Frequency Division Multiplexing) 파형(waveform), DFT-s-OFDM (Discrete Fourier Transform - spread - Orthogonal Frequency Division Multiplexing) 파형 등에 기초하여 전송된다. PUSCH가 DFT-s-OFDM 파형에 기초하여 전송되는 경우, 단말은 변환 프리코딩(transform precoding)을 적용하여 PUSCH를 전송한다. 일 예로, 변환 프리코딩이 불가능한 경우(예, transform precoding is disabled) 단말은 CP-OFDM 파형에 기초하여 PUSCH를 전송하고, 변환 프리코딩이 가능한 경우(예, transform precoding is enabled) 단말은 CP-OFDM 파형 또는 DFT-s-OFDM 파형에 기초하여 PUSCH를 전송할 수 있다. PUSCH 전송은 DCI 내 UL 그랜트에 의해 동적으로 스케줄링 되거나, 상위 계층(예, RRC) 시그널링 (및/또는 Layer 1(L1) 시그널링(예, PDCCH))에 기초하여 반-정적(semi-static)으로 스케줄링 될 수 있다(configured grant). PUSCH 전송은 코드북 기반 또는 비-코드북 기반으로 수행될 수 있다.PUSCH carries uplink data (eg, UL-shared channel transport block, UL-SCH TB) and/or uplink control information (UCI), and CP-OFDM (Cyclic Prefix - Orthogonal Frequency Division Multiplexing) waveform. , DFT-s-OFDM (Discrete Fourier Transform - spread - Orthogonal Frequency Division Multiplexing) is transmitted based on the waveform. When the PUSCH is transmitted based on the DFT-s-OFDM waveform, the UE transmits the PUSCH by applying transform precoding. For example, when transform precoding is not possible (eg, transform precoding is disabled), the UE transmits a PUSCH based on the CP-OFDM waveform, and when transform precoding is possible (eg, transform precoding is enabled), the UE transmits the CP-OFDM PUSCH may be transmitted based on a waveform or a DFT-s-OFDM waveform. PUSCH transmission is dynamically scheduled by a UL grant in DCI, or semi-static based on higher layer (eg, RRC) signaling (and/or Layer 1 (L1) signaling (eg, PDCCH)). Can be scheduled (configured grant). PUSCH transmission may be performed on a codebook-based or non-codebook-based basis.
(2) 물리 상향링크 제어 채널(PUCCH)(2) Physical Uplink Control Channel (PUCCH)
PUCCH는 상향링크 제어 정보, HARQ-ACK 및/또는 스케줄링 요청(SR)을 운반하고, PUCCH 전송 길이에 따라 다수의 PUCCH들로 구분될 수 있다.The PUCCH carries uplink control information, HARQ-ACK and/or a scheduling request (SR), and may be divided into a plurality of PUCCHs according to a PUCCH transmission length.
6G 시스템 일반6G system general
6G (무선통신) 시스템은 (i) 디바이스 당 매우 높은 데이터 속도, (ii) 매우 많은 수의 연결된 디바이스들, (iii) 글로벌 연결성(global connectivity), (iv) 매우 낮은 지연, (v) 배터리-프리(battery-free) IoT 디바이스들의 에너지 소비를 낮추고, (vi) 초고신뢰성 연결, (vii) 머신 러닝 능력을 가지는 연결된 지능 등에 목적이 있다. 6G 시스템의 비젼은 intelligent connectivity, deep connectivity, holographic connectivity, ubiquitous connectivity와 같은 4가지 측면일 수 있으며, 6G 시스템은 아래 표 1과 같은 요구 사항을 만족시킬 수 있다. 즉, 표 1은 6G 시스템의 요구 사항의 일례를 나타낸 표이다.6G (wireless) systems have (i) very high data rates per device, (ii) very large number of connected devices, (iii) global connectivity, (iv) very low latency, (v) battery- It aims to reduce energy consumption of battery-free IoT devices, (vi) ultra-reliable connections, and (vii) connected intelligence with machine learning capabilities. The vision of the 6G system can be in four aspects: intelligent connectivity, deep connectivity, holographic connectivity, and ubiquitous connectivity, and the 6G system can satisfy the requirements shown in Table 1 below. That is, Table 1 is a table showing an example of the requirements of the 6G system.
Figure PCTKR2021005384-appb-img-000002
Figure PCTKR2021005384-appb-img-000002
6G 시스템은 Enhanced mobile broadband (eMBB), Ultra-reliable low latency communications (URLLC), massive machine-type communication (mMTC), AI integrated communication, Tactile internet, High throughput, High network capacity, High energy efficiency, Low backhaul and access network congestion, Enhanced data security와 같은 핵심 요소(key factor)들을 가질 수 있다.6G systems include Enhanced mobile broadband (eMBB), Ultra-reliable low latency communications (URLLC), massive machine-type communication (mMTC), AI integrated communication, Tactile internet, High throughput, High network capacity, High energy efficiency, Low backhaul and It may have key factors such as access network congestion and enhanced data security.
도 2는 6G 시스템에서 제공 가능한 통신 구조의 일례를 나타낸 도이다.2 is a diagram illustrating an example of a communication structure that can be provided in a 6G system.
6G 시스템은 5G 무선통신 시스템보다 50배 더 높은 동시 무선통신 연결성을 가질 것으로 예상된다. 5G의 key feature인 URLLC는 6G 통신에서 1ms보다 적은 단-대-단(end-to-end) 지연을 제공함으로써 보다 더 주요한 기술이 될 것이다. 6G 시스템은 자주 사용되는 영역 스펙트럼 효율과 달리 체적 스펙트럼 효율이 훨씬 우수할 것이다. 6G 시스템은 매우 긴 배터리 수명과 에너지 수확을 위한 고급 배터리 기술을 제공할 수 있어, 6G 시스템에서 모바일 디바이스들은 별도로 충전될 필요가 없을 것이다. 6G에서 새로운 네트워크 특성들은 다음과 같을 수 있다.6G systems are expected to have 50 times higher simultaneous wireless connectivity than 5G wireless communication systems. URLLC, a key feature of 5G, will become an even more important technology by providing an end-to-end delay of less than 1ms in 6G communication. 6G systems will have much better volumetric spectral efficiencies as opposed to frequently used areal spectral efficiencies. The 6G system can provide very long battery life and advanced battery technology for energy harvesting, so mobile devices will not need to be charged separately in the 6G system. New network characteristics in 6G may be as follows.
- 위성 통합 네트워크(Satellites integrated network): 글로벌 모바일 집단을 제공하기 위해 6G는 위성과 통합될 것으로 예상된다. 지상파, 위성 및 공중 네트워크를 하나의 무선통신 시스템으로 통합은 6G에 매우 중요하다.- Satellites integrated network: 6G is expected to be integrated with satellites to provide a global mobile population. The integration of terrestrial, satellite and public networks into one wireless communication system is very important for 6G.
- 연결된 인텔리전스(Connected intelligence): 이전 세대의 무선 통신 시스템과 달리 6G는 혁신적이며, "연결된 사물”에서 "연결된 지능"으로 무선 진화가 업데이트될 것이다. AI는 통신 절차의 각 단계(또는 후술할 신호 처리의 각 절차)에서 적용될 수 있다.- Connected intelligence: Unlike previous generations of wireless communication systems, 6G is revolutionary and will update the wireless evolution from “connected things” to “connected intelligence.” in each procedure of treatment).
- 무선 정보 및 에너지 전달의 완벽한 통합(Seamless integration wireless information and energy transfer): 6G 무선 네트워크는 스마트폰들과 센서들과 같이 디바이스들의 배터리를 충전하기 위해 전력을 전달할 것이다. 그러므로, 무선 정보 및 에너지 전송 (WIET)은 통합될 것이다.- Seamless integration wireless information and energy transfer: The 6G wireless network will deliver power to charge the batteries of devices such as smartphones and sensors. Therefore, wireless information and energy transfer (WIET) will be integrated.
- 유비쿼터스 슈퍼 3D 연결(Ubiquitous super 3D connectivity): 드론 및 매우 낮은 지구 궤도 위성의 네트워크 및 핵심 네트워크 기능에 접속은 6G 유비쿼터스에서 슈퍼 3D 연결을 만들 것이다.- Ubiquitous super 3D connectivity: access to networks and core network functions of drones and very low Earth orbit satellites will create super 3D connectivity in 6G ubiquitous.
위와 같은 6G의 새로운 네트워크 특성들에서 몇 가지 일반적인 요구 사항은 다음과 같을 수 있다.Some general requirements in the above new network characteristics of 6G may be as follows.
- 스몰 셀 네트워크(small cell networks): 스몰 셀 네트워크의 아이디어는 셀룰러 시스템에서 처리량, 에너지 효율 및 스펙트럼 효율 향상의 결과로 수신 신호 품질을 향상시키기 위해 도입되었다. 결과적으로, 스몰 셀 네트워크는 5G 및 비욘드 5G (5GB) 이상의 통신 시스템에 필수적인 특성이다. 따라서, 6G 통신 시스템 역시 스몰 셀 네트워크의 특성을 채택한다.- Small cell networks: The idea of small cell networks was introduced to improve the received signal quality as a result of improved throughput, energy efficiency and spectral efficiency in cellular systems. As a result, small cell networks are essential characteristics for communication systems beyond 5G and Beyond 5G (5GB). Accordingly, the 6G communication system also adopts the characteristics of the small cell network.
- 초 고밀도 이기종 네트워크(Ultra-dense heterogeneous network): 초 고밀도 이기종 네트워크들은 6G 통신 시스템의 또 다른 중요한 특성이 될 것이다. 이기종 네트워크로 구성된 멀티-티어 네트워크는 전체 QoS를 개선하고 비용을 줄인다.- Ultra-dense heterogeneous network: Ultra-dense heterogeneous networks will be another important characteristic of 6G communication systems. A multi-tier network composed of heterogeneous networks improves overall QoS and reduces costs.
- 대용량 백홀(High-capacity backhaul): 백홀 연결은 대용량 트래픽을 지원하기 위해 대용량 백홀 네트워크로 특징 지어진다. 고속 광섬유 및 자유 공간 광학 (FSO) 시스템이 이 문제에 대한 가능한 솔루션일 수 있다.- High-capacity backhaul: A backhaul connection is characterized as a high-capacity backhaul network to support high-capacity traffic. High-speed fiber optics and free-space optics (FSO) systems may be possible solutions to this problem.
- 모바일 기술과 통합된 레이더 기술: 통신을 통한 고정밀 지역화(또는 위치 기반 서비스)는 6G 무선통신 시스템의 기능 중 하나이다. 따라서, 레이더 시스템은 6G 네트워크와 통합될 것이다.- Radar technology integrated with mobile technology: High-precision localization (or location-based service) through communication is one of the functions of the 6G wireless communication system. Therefore, the radar system will be integrated with the 6G network.
- 소프트화 및 가상화(Softwarization and virtualization): 소프트화 및 가상화는 유연성, 재구성성 및 프로그래밍 가능성을 보장하기 위해 5GB 네트워크에서 설계 프로세스의 기초가 되는 두 가지 중요한 기능이다. 또한, 공유 물리적 인프라에서 수십억 개의 장치가 공유될 수 있다.- Softwarization and virtualization: Softening and virtualization are two important features that underlie the design process in 5GB networks to ensure flexibility, reconfigurability and programmability. In addition, billions of devices can be shared in a shared physical infrastructure.
6G 시스템의 핵심 구현 기술Core implementation technology of 6G system
인공 지능(Artificial Intelligence)Artificial Intelligence
6G 시스템에 가장 중요하며, 새로 도입될 기술은 AI이다. 4G 시스템에는 AI가 관여하지 않았다. 5G 시스템은 부분 또는 매우 제한된 AI를 지원할 것이다. 그러나, 6G 시스템은 완전히 자동화를 위해 AI가 지원될 것이다. 머신 러닝의 발전은 6G에서 실시간 통신을 위해 보다 지능적인 네트워크를 만들 것이다. 통신에 AI를 도입하면 실시간 데이터 전송이 간소화되고 향상될 수 있다. AI는 수많은 분석을 사용하여 복잡한 대상 작업이 수행되는 방식을 결정할 수 있다. 즉, AI는 효율성을 높이고 처리 지연을 줄일 수 있다.The most important and new technology to be introduced in 6G systems is AI. AI was not involved in the 4G system. 5G systems will support partial or very limited AI. However, the 6G system will be AI-enabled for full automation. Advances in machine learning will create more intelligent networks for real-time communication in 6G. Incorporating AI into communications can simplify and enhance real-time data transmission. AI can use numerous analytics to determine how complex target tasks are performed. In other words, AI can increase efficiency and reduce processing delays.
핸드 오버, 네트워크 선택, 자원 스케쥴링과 같은 시간 소모적인 작업은 AI를 사용함으로써 즉시 수행될 수 있다. AI는 M2M, 기계-대-인간 및 인간-대-기계 통신에서도 중요한 역할을 할 수 있다. 또한, AI는 BCI(Brain Computer Interface)에서 신속한 통신이 될 수 있다. AI 기반 통신 시스템은 메타 물질, 지능형 구조, 지능형 네트워크, 지능형 장치, 지능형 인지 라디오(radio), 자체 유지 무선 네트워크 및 머신 러닝에 의해 지원될 수 있다.Time-consuming tasks such as handovers, network selection, and resource scheduling can be performed instantly by using AI. AI can also play an important role in M2M, machine-to-human and human-to-machine communication. In addition, AI can be a rapid communication in BCI (Brain Computer Interface). AI-based communication systems can be supported by metamaterials, intelligent structures, intelligent networks, intelligent devices, intelligent cognitive radios, self-sustaining wireless networks, and machine learning.
최근에는 AI를 무선 통신 시스템과 통합하려고 하는 시도들이 나타나고 있으나, 이는 application layer, network layer 특히, 딥러닝을 wireless resource management and allocation 분야에 집중되어 왔다. 그러나, 이러한 연구는 점점 MAC layer 와 Physical layer로 발전하고 있으며, 특히 물리계층에서 딥러닝을 무선 전송(wireless transmission)과 결합하고자 하는 시도들이 나타나고 있다. AI 기반의 물리계층 전송은, 근본적인 신호 처리 및 통신 메커니즘에 있어서, 전통적인 통신 프레임워크가 아니라 AI 드라이버에 기초한 신호 처리 및 통신 메커니즘을 적용하는 것을 의미한다. 예를 들어, 딥러닝 기반의 채널 코딩 및 디코딩(channel coding and decoding), 딥러닝 기반의 신호 추정(estimation) 및 검출(detection), 딥러닝 기반의 MIMO mechanism, AI 기반의 자원 스케줄링(scheduling) 및 할당(allocation) 등을 포함할 수 있다.Recently, attempts have been made to integrate AI with wireless communication systems, but these have been focused on the application layer and network layer, especially deep learning, in the field of wireless resource management and allocation. However, these studies are gradually developing into the MAC layer and the physical layer, and attempts are being made to combine deep learning with wireless transmission, especially in the physical layer. AI-based physical layer transmission means applying a signal processing and communication mechanism based on an AI driver rather than a traditional communication framework in a fundamental signal processing and communication mechanism. For example, deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO mechanism, AI-based resource scheduling and It may include an allocation (allocation) and the like.
머신 러닝은 채널 추정 및 채널 트래킹을 위해 사용될 수 있으며, DL(downlink)의 물리 계층(physical layer)에서 전력 할당(power allocation), 간섭 제거 (interference cancellation) 등에 사용될 수 있다. 또한, 머신 러닝은 MIMO 시스템에서 안테나 선택, 전력 제어(power control), 심볼 검출(symbol detection) 등에도 사용될 수 있다.Machine learning may be used for channel estimation and channel tracking, and may be used for power allocation, interference cancellation, etc. in a physical layer of a downlink (DL). In addition, machine learning may be used for antenna selection, power control, symbol detection, and the like in a MIMO system.
그러나 물리계층에서의 전송을 위한 DNN의 적용은 아래와 같은 문제점이 있을 수 있다.However, the application of DNN for transmission in the physical layer may have the following problems.
딥러닝 기반의 AI 알고리즘은 훈련 파라미터를 최적화하기 위해 수많은 훈련 데이터가 필요하다. 그러나 특정 채널 환경에서의 데이터를 훈련 데이터로 획득하는데 있어서의 한계로 인해, 오프라인 상에서 많은 훈련 데이터를 사용한다. 이는 특정 채널 환경에서 훈련 데이터에 대한 정적 훈련(static training)은, 무선 채널의 동적 특성 및 다이버시티(diversity) 사이에 모순(contradiction)이 생길 수 있다.Deep learning-based AI algorithms require large amounts of training data to optimize training parameters. However, due to a limitation in acquiring data in a specific channel environment as training data, a lot of training data is used offline. This means that static training on training data in a specific channel environment may cause a contradiction between dynamic characteristics and diversity of a wireless channel.
또한, 현재 딥러닝은 주로 실제 신호(real signal)을 대상으로 한다. 그러나, 무선 통신의 물리 계층의 신호들은 복소 신호(complex signal)이다. 무선 통신 신호의 특성을 매칭시키기 위해 복소 도메인 신호의 검출하는 신경망(neural network)에 대한 연구가 더 필요하다.In addition, current deep learning mainly targets real signals. However, signals of the physical layer of wireless communication are complex signals. In order to match the characteristics of a wireless communication signal, further research on a neural network for detecting a complex domain signal is needed.
이하, 머신 러닝에 대해 보다 구체적으로 살펴본다.Hereinafter, machine learning will be described in more detail.
머신 러닝은 사람이 할 수 있거나 혹은 하기 어려운 작업을 대신해낼 수 있는 기계를 만들어내기 위해 기계를 학습시키는 일련의 동작을 의미한다. 머신 러닝을 위해서는 데이터와 러닝 모델이 필요하다. 머신 러닝에서 데이터의 학습 방법은 크게 3가지 즉, 지도 학습(supervised learning), 비지도 학습(unsupervised learning) 그리고 강화 학습(reinforcement learning)으로 구분될 수 있다.Machine learning refers to a set of actions that trains a machine to create a machine that can perform tasks that humans can or cannot do. Machine learning requires data and a learning model. In machine learning, data learning methods can be roughly divided into three types: supervised learning, unsupervised learning, and reinforcement learning.
신경망 학습은 출력의 오류를 최소화하기 위한 것이다. 신경망 학습은 반복적으로 학습 데이터를 신경망에 입력시키고 학습 데이터에 대한 신경망의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 신경망의 에러를 신경망의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation) 하여 신경망의 각 노드의 가중치를 업데이트하는 과정이다.Neural network learning is to minimize errors in output. Neural network learning repeatedly inputs learning data to the neural network, calculates the output and target errors of the neural network for the training data, and backpropagates the neural network error from the output layer of the neural network to the input layer in the direction to reduce the error. ) to update the weights of each node in the neural network.
지도 학습은 학습 데이터에 정답이 라벨링된 학습 데이터를 사용하며 비지도 학습은 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 지도 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링된 데이터 일 수 있다. 라벨링된 학습 데이터가 신경망에 입력되고 신경망의 출력(카테고리)과 학습 데이터의 라벨을 비교하여 오차(error)가 계산될 수 있다. 계산된 오차는 신경망에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 신경망의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learing rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 신경망의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 신경망의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 신경망의 학습 초기에는 높은 학습률을 사용하여 신경망이 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다Supervised learning uses training data in which the correct answer is labeled in the training data, and in unsupervised learning, the correct answer may not be labeled in the training data. That is, for example, the training data in the case of supervised learning related to data classification may be data in which categories are labeled for each of the training data. The labeled training data is input to the neural network, and an error can be calculated by comparing the output (category) of the neural network with the label of the training data. The calculated error is back propagated in the reverse direction (ie, from the output layer to the input layer) in the neural network, and the connection weight of each node of each layer of the neural network may be updated according to the back propagation. The change amount of the connection weight of each node to be updated may be determined according to a learning rate. The computation of the neural network on the input data and the backpropagation of errors can constitute a learning cycle (epoch). The learning rate may be applied differently depending on the number of repetitions of the learning cycle of the neural network. For example, in the early stages of learning of a neural network, a high learning rate can be used to increase the efficiency by allowing the neural network to quickly obtain a certain level of performance, and in the late learning period, a low learning rate can be used to increase the accuracy.
데이터의 특징에 따라 학습 방법은 달라질 수 있다. 예를 들어, 통신 시스템 상에서 송신단에서 전송한 데이터를 수신단에서 정확하게 예측하는 것을 목적으로 하는 경우, 비지도 학습 또는 강화 학습 보다는 지도 학습을 이용하여 학습을 수행하는 것이 바람직하다.The learning method may vary depending on the characteristics of the data. For example, in a case where the purpose of accurately predicting data transmitted from a transmitter in a communication system is accurately predicted by a receiver, it is preferable to perform learning using supervised learning rather than unsupervised learning or reinforcement learning.
러닝 모델은 인간의 뇌에 해당하는 것으로서, 가장 기본적인 선형 모델을 생각할 수 있으나, 인공 신경망(artificial neural networks)와 같은 복잡성이 높은 신경망 구조를 러닝 모델로 사용하는 머신 러닝의 패러다임을 딥러닝(deep learning)이라 한다.The learning model corresponds to the human brain, and the most basic linear model can be considered. ) is called
학습(learning) 방식으로 사용하는 신경망 코어(neural network cord)는 크게 심층 신경망(DNN, deep neural networks), 합성곱 신경망(CNN, convolutional deep neural networks), 순환 신경망(RNN, Recurrent Boltzmann Machine) 방식이 있다.The neural network cord used as a learning method is largely divided into deep neural networks (DNN), convolutional deep neural networks (CNN), and Recurrent Boltzmann Machine (RNN) methods. have.
인공 신경망(artificial neural network)은 여러 개의 퍼셉트론을 연결한 예시이다.An artificial neural network is an example of connecting several perceptrons.
도 3을 참조하면, 입력 벡터 x=(x1,x2,...,xd) 가 입력되면 각 성분에 가중치(W1,W2,...,Wd)를 곱하고, 그 결과를 모두 합산한 후, 활성함수 σ() 를 적용하는 전체 과정을 퍼셉트론(perceptron)이라 한다. 거대한 인공 신경망 구조는 도 3에 도시한 단순화된 퍼셉트론 구조를 확장하여 입력벡터를 서로 다른 다 차원의 퍼셉트론에 적용할 수도 있다. 설명의 편의를 위해 입력값 또는 출력값을 노드(node)라 칭한다.Referring to FIG. 3, when an input vector x=(x1,x2,...,xd) is input, each component is multiplied by a weight (W1,W2,...,Wd), and after summing all the results, The whole process of applying the activation function σ() is called a perceptron. The huge artificial neural network structure may extend the simplified perceptron structure shown in FIG. 3 to apply input vectors to different multidimensional perceptrons. For convenience of description, an input value or an output value is referred to as a node.
한편, 도 3에 도시된 퍼셉트론 구조는 입력값, 출력값을 기준으로 총 3개의 층(layer)로 구성되는 것으로 설명할 수 있다. 1st layer와 2nd layer 사이에는 (d+1) 차원의 퍼셉트론 H개, 2nd layer와 3rd layer 사이에는 (H+1)차원 퍼셉트론이 K 개 존재하는 인공신경망을 도 4와 같이 표현할 수 있다. Meanwhile, the perceptron structure shown in FIG. 3 can be described as being composed of a total of three layers based on an input value and an output value. An artificial neural network in which H (d+1)-dimensional perceptrons exist between the 1st layer and the 2nd layer and K (H+1)-dimensional perceptrons exist between the 2nd layer and the 3rd layer can be expressed as shown in FIG. 4 .
입력벡터가 위치하는 층을 입력층(input layer), 최종 출력값이 위치하는 층을 출력층(output layer), 입력층과 출력층 사이에 위치하는 모든 층을 은닉층(hidden layer)라 한다. 도 4의 예시는 3개의 층이 개시되나, 실제 인공신경망 층의 개수를 카운트할 때는 입력층을 제외하고 카운트하므로 총 2개의 층으로 볼 수 있다. 인공신경망은 기본 블록의 퍼셉트론을 2차원적으로 연결되어 구성된다.The layer where the input vector is located is called the input layer, the layer where the final output value is located is called the output layer, and all the layers located between the input layer and the output layer are called the hidden layer. In the example of FIG. 4 , three layers are disclosed, but when counting the actual number of artificial neural network layers, the input layer is counted excluding the input layer, so it can be viewed as a total of two layers. The artificial neural network is constructed by connecting the perceptrons of the basic blocks in two dimensions.
전술한 입력층, 은닉층, 출력층은 다층 퍼셉트론 뿐 아니라 후술할 CNN, RNN 등 다양한 인공신경망 구조에서 공동적으로 적용될 수 있다. 은닉층의 개수가 많아질수록 인공신경망이 깊어진 것이며, 충분히 깊어진 인공신경망을 러닝모델로 사용하는 머신러닝 패러다임을 딥러닝(Deep Learning)이라 한다. 또한 딥러닝을 위해 사용하는 인공신경망을 심층 신경망(DNN: Deep neural network)라 한다.The aforementioned input layer, hidden layer, and output layer can be jointly applied in various artificial neural network structures such as CNN and RNN to be described later as well as multi-layer perceptron. As the number of hidden layers increases, the artificial neural network becomes deeper, and a machine learning paradigm that uses a sufficiently deep artificial neural network as a learning model is called deep learning. Also, an artificial neural network used for deep learning is called a deep neural network (DNN).
도 5에 도시된 심층 신경망은 은닉층+출력층이 8개로 구성된 다층 퍼셉트론이다. 상기 다층 퍼셉트론 구조를 완전 연결 신경망(fully-connected neural network)이라 표현한다. 완전 연결 신경망은 서로 같은 층에 위치하는 노드 간에는 연결 관계가 존재하지 않으며, 인접한 층에 위치한 노드들 간에만 연결 관계가 존재한다. DNN은 완전 연결 신경망 구조를 가지고 다수의 은닉층과 활성함수들의 조합으로 구성되어 입력과 출력 사이의 상관관계 특성을 파악하는데 유용하게 적용될 수 있다. 여기서 상관관계 특성은 입출력의 결합확률(joint probability)을 의미할 수 있다. 도 5는 심층 신경망 예시를 나타낸 도이다.The deep neural network shown in FIG. 5 is a multi-layer perceptron composed of eight hidden layers and eight output layers. The multilayer perceptron structure is referred to as a fully-connected neural network. In a fully connected neural network, a connection relationship does not exist between nodes located in the same layer, and a connection relationship exists only between nodes located in adjacent layers. DNN has a fully connected neural network structure and is composed of a combination of a number of hidden layers and activation functions, so it can be usefully applied to figure out the correlation between input and output. Here, the correlation characteristic may mean a joint probability of input/output. 5 is a diagram illustrating an example of a deep neural network.
한편, 복수의 퍼셉트론을 서로 어떻게 연결하느냐에 따라 전술한 DNN과 다른 다양한 인공 신경망 구조를 형성할 수 있다. On the other hand, depending on how a plurality of perceptrons are connected to each other, various artificial neural network structures different from the above-described DNN can be formed.
DNN은 하나의 층 내부에 위치한 노드들이 1차원적의 세로 방향으로 배치되어 있다. 그러나, 도 6은 노드들이 2차원적으로 가로 w개, 세로 h개의 노드가 배치할 경우를 가정할 수 있다(도 6의 컨볼루션 신경망 구조). 이 경우, 하나의 입력노드에서 은닉층으로 이어지는 연결과정에서 연결 하나당 가중치가 부가되므로 총 hХw 개의 가중치를 고려해야한다. 입력층에 hХw 개의 노드가 존재하므로 인접한 두 층 사이에는 총 h2w2 개의 가중치가 필요하다.In DNN, nodes located inside one layer are arranged in a one-dimensional vertical direction. However, in FIG. 6 , it can be assumed that the nodes are two-dimensionally arranged with w horizontally and h vertical nodes (convolutional neural network structure of FIG. 6 ). In this case, since a weight is added per connection in the connection process from one input node to the hidden layer, a total of hХw weights must be considered. Since there are hХw nodes in the input layer, a total of h2w2 weights are needed between two adjacent layers.
도 6은 컨볼루션 신경망의 일례를 나타낸 도이다.6 is a diagram illustrating an example of a convolutional neural network.
도 6의 컨볼루션 신경망은 연결개수에 따라 가중치의 개수가 기하급수적으로 증가하는 문제가 있어 인접한 층 간의 모든 모드의 연결을 고려하는 대신, 크기가 작은 필터(filter)가 존재하는 것으로 가정하여 도 6에서와 같이 필터가 겹치는 부분에 대해서는 가중합 및 활성함수 연산을 수행하도록 한다.The convolutional neural network of FIG. 6 has a problem in that the number of weights increases exponentially according to the number of connections, so instead of considering the connection of all modes between adjacent layers, it is assumed that a filter with a small size exists in FIG. As in Fig., the weighted sum and activation function calculations are performed on the overlapping filters.
하나의 필터는 그 크기만큼의 개수에 해당하는 가중치를 가지며, 이미지 상의 어느 특정한 특징을 요인으로 추출하여 출력할 수 있도록 가중치의 학습이 이루어질 수 있다. 도 6에서는 3Х3 크기의 필터가 입력층의 가장 좌측 상단 3Х3 영역에 적용되고, 해당 노드에 대한 가중합 및 활성함수 연산을 수행한 결과 출력값을 z22에 저장한다.One filter has a weight corresponding to the number of its size, and weight learning can be performed so that a specific feature on an image can be extracted and output as a factor. In FIG. 6 , a filter having a size of 3Х3 is applied to the upper leftmost region 3Х3 of the input layer, and an output value obtained by performing weighted sum and activation function operations on the corresponding node is stored in z22.
상기 필터는 입력층을 스캔하면서 가로,세로 일정 간격 만큼 이동하면서 가중합 및 활성함수 연산을 수행하고 그 출력값을 현재 필터의 위치에 위치시킨다. 이러한 연산 방식은 컴퓨터 비전(computer vision) 분야에서 이미지에 대한 컨볼루션(convolution) 연산과 유사하여 이러한 구조의 심층 신경망을 컨볼루션 신경망(CNN: convolutional neural network)라 하고, 컨볼루션 연산 결과 생성되는 은닉층을 컨볼루션 층(convolutional layer)라 한다. 또한, 복수의 컨볼루션 층이 존재하는 신경망을 심층 컨볼루션 신경망(DCNN: Deep convolutional)이라 한다.The filter performs weight sum and activation function calculations while moving horizontally and vertically by a predetermined interval while scanning the input layer, and places the output value at the current filter position. This calculation method is similar to a convolution operation on an image in the field of computer vision, so a deep neural network with such a structure is called a convolutional neural network (CNN), and a hidden layer generated as a result of the convolution operation is called a convolutional layer. Also, a neural network having a plurality of convolutional layers is called a deep convolutional neural network (DCNN).
도 7은 컨볼루션 신경망에서의 필터 연산의 일례를 나타낸 도이다.7 is a diagram illustrating an example of a filter operation in a convolutional neural network.
컨볼루션 층에서는 현재 필터가 위치한 노드에서, 상기 필터가 커버하는 영역에 위치한 노드만을 포괄하여 가중합을 계산함으로써, 가중치의 개수를 줄여줄 수 있다. 이로 인해, 하나의 필터가 로컬(local) 영역에 대한 특징에 집중하도록 이용될 수 있다. 이에 따라 CNN은 2차원 영역 상의 물리적 거리가 중요한 판단 기준이 되는 이미지 데이터 처리에 효과적으로 적용될 수 있다. 한편, CNN은 컨볼루션 층의 직전에 복수의 필터가 적용될 수 있으며, 각 필터의 컨볼루션 연산을 통해 복수의 출력 결과를 생성할 수도 있다.In the convolution layer, the number of weights can be reduced by calculating the weighted sum by including only nodes located in the region covered by the filter in the node where the filter is currently located. Due to this, one filter can be used to focus on features for the local area. Accordingly, CNN can be effectively applied to image data processing in which physical distance in a two-dimensional domain is an important criterion. Meanwhile, in CNN, a plurality of filters may be applied immediately before the convolution layer, and a plurality of output results may be generated through a convolution operation of each filter.
한편, 데이터 속성에 따라 시퀀스(sequence) 특성이 중요한 데이터들이 있을 수 있다. 이러한 시퀀스 데이터들의 길이 가변성, 선후 관계를 고려하여 데이터 시퀀스 상의 원소를 매 시점(timestep) 마다 하나씩 입력하고, 특정 시점에 출력된 은닉층의 출력 벡터(은닉 벡터)를, 시퀀스 상의 바로 다음 원소와 함께 입력하는 방식을 인공 신경망에 적용한 구조를 순환 신경망 구조라 한다.Meanwhile, there may be data whose sequence characteristics are important according to data properties. Considering the length variability and precedence relationship of the sequence data, one element in the data sequence is input at each timestep, and the output vector (hidden vector) of the hidden layer output at a specific time is input together with the next element in the sequence. A structure in which this method is applied to an artificial neural network is called a recurrent neural network structure.
도 8을 참조하면, 순환 신경망(RNN: recurrent neural netwok)은 데이터 시퀀스 상의 어느 시선 t의 원소 (x1(t), x2(t), ,..., xd(t))를 완전 연결 신경망에 입력하는 과정에서, 바로 이전 시점 t-1은 은닉 벡터 (z1(t1), z2(t1),..., zH(t1))을 함께 입력하여 가중합 및 활성함수를 적용하는 구조이다. 이와 같이 은닉 벡터를 다음 시점으로 전달하는 이유는 앞선 시점들에서의 입력 벡터속 정보들이 현재 시점의 은닉 벡터에 누적된 것으로 간주하기 때문이다.Referring to FIG. 8 , a recurrent neural network (RNN) connects elements (x1(t), x2(t), ,..., xd(t)) of a certain gaze t on a data sequence to a fully connected neural network. In the input process, the immediately preceding time point t-1 is a structure in which a weighted sum and an activation function are applied by inputting the hidden vectors (z1(t1), z2(t1), ..., zH(t1)) together. The reason why the hidden vector is transferred to the next time in this way is because it is considered that information in the input vector at the previous time is accumulated in the hidden vector of the current time.
도 8은 순환 루프가 존재하는 신경망 구조의 일례를 나타낸다.8 shows an example of a neural network structure in which a cyclic loop exists.
도 8을 참조하면, 순환 신경망은 입력되는 데이터 시퀀스에 대하여 소정의 시점 순서대로 동작한다.Referring to FIG. 8 , the recurrent neural network operates in a predetermined time sequence with respect to an input data sequence.
시점 1에서의 입력 벡터  (x1(t), x2(t), ,..., xd(t))가 순환 신경망에 입력되었을 때의 은닉 벡터 (z1(1),z2(1),...,zH(1))가 시점 2의 입력 벡터  (x1(2),x2(2),...,xd(2))와 함께 입력되어 가중합 및 활성 함수를 통해 은닉층의 벡터  (z1(2),z2(2) ,...,zH(2))를 결정한다. 이러한 과정은 시점 2, 시점 3, ,,, 시점 T 까지 반복적으로 수행된다.When the input vector at time  1 (x1(t), x2(t), ,..., xd(t)) is input to the recurrent neural network, the hidden vector   (z1(1), z2(1),.. .,zH(1)) is input with the input vector of time  2   (x1(2),x2(2),...,xd(2)), and through the weighted sum and activation functions, the vector of the hidden layer   (z1( 2),z2(2) ,...,zH(2)) are determined. This process is repeatedly performed until time point  2, time point 3, ,,, and time T.
도 9는 순환 신경망의 동작 구조의 일례를 나타낸다.9 shows an example of the operation structure of a recurrent neural network.
한편, 순환 신경망 내에서 복수의 은닉층이 배치될 경우, 이를 심층 순환 신경망(DRNN: Deep recurrent neural network)라 한다. 순환 신경망은 시퀀스 데이터(예를 들어, 자연어 처리(natural language processing)에 유용하게 적용되도록 설계되어 있다.Meanwhile, when a plurality of hidden layers are disposed in a recurrent neural network, this is called a deep recurrent neural network (DRNN). The recurrent neural network is designed to be usefully applied to sequence data (eg, natural language processing).
학습(learning) 방식으로 사용하는 신경망 코어로서 DNN, CNN, RNN 외에 제한 볼츠만 머신(RBM, Restricted Boltzmann Machine), 심층 신뢰 신경망(DBN, deep belief networks), 심층 Q-네트워크(Deep Q-Network)와 같은 다양한 딥 러닝 기법들을 포함하며, 컴퓨터비젼, 음성인식, 자연어처리, 음성/신호처리 등의 분야에 적용될 수 있다.As a neural network core used as a learning method, in addition to DNN, CNN, and RNN, Restricted Boltzmann Machine (RBM), deep belief networks (DBN), Deep Q-Network and It includes various deep learning techniques such as, and can be applied to fields such as computer vision, voice recognition, natural language processing, and voice/signal processing.
최근에는 AI를 무선 통신 시스템과 통합하려고 하는 시도들이 나타나고 있으나, 이는 application layer, network layer 특히, 딥러닝을 wireless resource management and allocation 분야에 집중되어 왔다. 그러나, 이러한 연구는 점점 MAC layer 와 Physical layer로 발전하고 있으며, 특히 물리계층에서 딥러닝을 무선 전송(wireless transmission)과 결합하고자 하는 시도들이 나타나고 있다. AI 기반의 물리계층 전송은, 근본적인 신호 처리 및 통신 메커니즘에 있어서, 전통적인 통신 프레임워크가 아니라 AI 드라이버에 기초한 신호 처리 및 통신 메커니즘을 적용하는 것을 의미한다. 예를 들어, 딥러닝 기반의 채널 코딩 및 디코딩(channel coding and decoding), 딥러닝 기반의 신호 추정(estimation) 및 검출(detection), 딥러닝 기반의 MIMO mechanism, AI 기반의 자원 스케줄링(scheduling) 및 할당(allocation) 등을 포함할 수 있다.Recently, attempts have been made to integrate AI with wireless communication systems, but these have been focused on the application layer and network layer, especially deep learning, in the field of wireless resource management and allocation. However, these studies are gradually developing into the MAC layer and the physical layer, and attempts are being made to combine deep learning with wireless transmission, especially in the physical layer. AI-based physical layer transmission means applying a signal processing and communication mechanism based on an AI driver rather than a traditional communication framework in a fundamental signal processing and communication mechanism. For example, deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO mechanism, AI-based resource scheduling and It may include an allocation (allocation) and the like.
용어 정의Term Definition
설명의 편의를 위해, 본 명세서에서는 아래와 같은 기호/약어/용어가 혼용될 수 있다.For convenience of description, the following symbols/abbreviations/terms may be used interchangeably herein.
- AE: Auto Encoder- AE: Auto Encoder
- FC: Fully Connected- FC: Fully Connected
- IR: Incremental Redundancy- IR: Incremental Redundancy
- LDPC: Low Density Parity Check- LDPC: Low Density Parity Check
- SCNN-AE: Serially Concatenated Neural-Network AutoEncoder- SCNN-AE: Serially Concatenated Neural-Network AutoEncoder
- NN: Neural Network- NN: Neural Network
- Tx: Transmitter- Tx: Transmitter
- Rx: Receiver- Rx: Receiver
- RS: Reference Symbols- RS: Reference Symbols
오토 인코더(Auto encoder)Auto encoder
뉴럴 네트워크(Neural network)를 통신 시스템(communication system)에 적용하기 위해서 다양한 시도들이 이루어지고 있다. 특히, 뉴럴 네트워크를 통신 시스템에 적용하기 위한 다양한 시도들 중 물리 계층(physical layer)에 뉴럴 네트워크를 적용하려는 시도는 주로 수신단(receiver)의 특정 기능을 최적화하는 것에 중점을 두었다. 예를 들어, 채널 디코더(channel decoder)를 뉴럴 네트워크로 구성하여 수신단의 성능 향상을 달성할 수 있다. 또 다른 예로, 다수 개의 송수신 안테나(antenna)를 가진 MIMO 시스템에서, MIMO 디텍터(detector)를 뉴럴 네트워크로 구현하여 성능 향상을 달성할 수도 있다. Various attempts have been made to apply a neural network to a communication system. In particular, among various attempts to apply a neural network to a communication system, an attempt to apply a neural network to a physical layer has mainly focused on optimizing a specific function of a receiver. For example, the performance of the receiving end can be improved by configuring a channel decoder as a neural network. As another example, in a MIMO system having a plurality of transmit/receive antennas, performance improvement may be achieved by implementing a MIMO detector as a neural network.
뉴럴 네트워크(Neural network)를 통신 시스템에 적용하기 위한 또 다른 접근 방식으로, 통신 시스템에서 오토 인코더(autoencoder)를 사용하는 방식이 있다. 여기서, 오토 인코더란 오토 인코더에 입력된 정보와 동일한 정보를 출력하는 특성을 갖는 인공 신경망의 한 유형이다. 송신단이 전송한 신호가 왜곡 없이 수신단에서 복원되도록 하는 것이 통신 시스템에서의 목표이므로, 오토 인코더의 특성은 상기 통신 시스템의 목표에 바람직하게 부합할 수 있다.As another approach for applying a neural network to a communication system, there is a method of using an autoencoder in the communication system. Here, the auto-encoder is a type of artificial neural network having a characteristic of outputting the same information as the information input to the auto-encoder. Since the goal of the communication system is to restore the signal transmitted by the transmitting end to the receiving end without distortion, the characteristics of the auto-encoder can suitably meet the goal of the communication system.
상기 오토 인코더를 통신 시스템에 적용하는 경우, 통신 시스템의 송신단 및 수신단은 각각 뉴럴 네트워크로 구성되며, 이를 통해 단-대-단(end-to-end) 관점에서 최적화를 수행하여 성능 향상이 달성될 수 있다.When the auto-encoder is applied to a communication system, the transmitting end and the receiving end of the communication system are each configured with a neural network, and through this, optimization is performed from an end-to-end point of view to achieve performance improvement. can
도 10은 오토 인코더를 사용하는 무선 통신 시스템의 일 예를 나타낸 도이다. 송신단(101)은 f(s)로 표현되는 뉴럴 네트워크로 구성되고, 수신단(103)은 g(s)로 표현되는 뉴럴 네트워크로 구성된다. 즉, 상기 뉴럴 네트워크들(f(s) 및 g(s))은 각각 송신단(101)과 수신단(103)의 구성요소(component)이다. 다시 말해, 송신단(101)과 수신단(103) 각각은 뉴럴 네트워크로(또는, 뉴럴 네트워크에 기초하여) 구성된다.10 is a diagram illustrating an example of a wireless communication system using an auto encoder. The transmitting end 101 is composed of a neural network expressed by f(s), and the receiving end 103 is composed of a neural network expressed by g(s). That is, the neural networks f(s) and g(s) are components of the transmitting end 101 and the receiving end 103, respectively. In other words, each of the transmitting end 101 and the receiving end 103 is configured as a neural network (or based on a neural network).
최근 심층 학습(Deep Learning) 기술이 발달하여, 많은 영역에서 AI(artificial intelligence)/ML(machine learning)이 적용되고 있다. 특히, 상기 AI/ML이 반복성/지속성이 요구되는 과제에 적용되는 경우, 상기 AI/ML은 매우 효율적일 수 있다.With the recent development of deep learning technology, artificial intelligence (AI)/machine learning (ML) has been applied in many areas. In particular, when the AI/ML is applied to a task requiring repeatability/continuity, the AI/ML can be very efficient.
LDPC(low-density parity-check) 및 폴라 코딩(Polar Coding)이라는 새로운 채널 코딩(channel coding)기술이 5G에 이르러 도입되었다. 상기 LDPC 및 폴라 코딩의 채널 코딩 성능은 4G에서 사용되던 터보 코드(Turbo code) 또는 TBCC(Tail-biting convolutional codes)의 채널 코딩 성능을 능가한다. 그러나, 상기 LDPC 및 폴라 코딩을 사용하는 채널 코딩은 기술은 개발 및 5G 표준에 반영될 때, 가산성 백색 가우시안 잡음(Additive white Gaussian noise, AWGN) 채널에 최적화되도록 설계 되었다. New channel coding technologies such as low-density parity-check (LDPC) and polar coding have been introduced in 5G. The channel coding performance of the LDPC and the polar coding exceeds that of a turbo code or tail-biting convolutional code (TBCC) used in 4G. However, the channel coding using the LDPC and polar coding is designed to be optimized for an additive white Gaussian noise (AWGN) channel when the technology is developed and reflected in the 5G standard.
통신에서, 오버헤드(Overhead)를 최소화 하기 위해, 변조(Modulation)와 코드-레이트(Code-rate)를 조합하여 MCS(Modulation and code-rate Set)가 정의되고, 상기 MCS는 채널의 특성에 맞게 설정되어 통신에 사용된다. 여기서, 상기 통신은 유/무선 통신을 모두 포함하는 의미로 사용되며, 이하 같다. In communication, in order to minimize overhead, a modulation and code-rate set (MCS) is defined by combining modulation and code-rate, and the MCS is adapted to the characteristics of the channel. set and used for communication. Here, the communication is used to include both wired/wireless communication, and is as follows.
3GPP 통신에서는 데이터 에러율(Data error rate)을 나타내는 FER(Frame Error Rate)(또는, BLER(Block Error Rate))의 값이 10^(-1)(또는, 10^(-2))을 만족하는 MCS가 사용된다. FER의 값이 10^(-1)라는 것은 10번의 신호 전송 시 평균적으로 1번의 전송 오류가 발생한다는 것을 나타내며, BLER의 값이 10^(-2)라는 것은 100번의 신호 전송 시 평균적으로 1번의 전송 오류가 발생한다는 것을 나타낸다. 전송 오류의 발생으로 인한 문제를 해결하기 위해, 3GPP 표준에서는 재전송(retransmission) 동작이 정의되며, 상기 재전송 동작의 효율을 높이기 위해 HARQ(Hybrid automatic repeat request) 기법이 사용된다. 이 때, 뉴럴 네트워크를 이용한 통신에서 채널에 최적화 되지 않은 코딩 기법이 사용되는 경우, 다음과 같은 문제들이 발생 할 수 있다. In 3GPP communication, the value of FER (Frame Error Rate) (or BLER (Block Error Rate)) indicating the data error rate satisfies 10^(-1) (or 10^(-2)). MCS is used. An FER value of 10^(-1) indicates that an average of 1 transmission error occurs when transmitting 10 signals, and a BLER value of 10^(-2) indicates that an average of 1 transmission error occurs when transmitting 100 signals. Indicates that a transmission error has occurred. In order to solve a problem caused by the occurrence of a transmission error, a retransmission operation is defined in the 3GPP standard, and a hybrid automatic repeat request (HARQ) technique is used to increase the efficiency of the retransmission operation. In this case, when a coding technique that is not optimized for a channel is used in communication using a neural network, the following problems may occur.
- 신호 전송 중에 오류가 발생할 확률이 증가하고, 이를 정정하기 위해서 재전송(HARQ, ARQ)이 수행되어야만 한다.- The probability of an error occurring during signal transmission increases, and retransmission (HARQ, ARQ) must be performed to correct it.
- 재전송을 위해 기지국은 재전송할 데이터(data)를 저장해야 한다. 또한, 단말은 먼저 수신한 데이터와 재전송된 데이터를 컴바이닝(combining)하기 위해 상기 먼저 수신된 데이터를 저장해야 한다. 따라서, 재전송할 데이터/먼저 수신한 데이터를 저장하기 위한 기지국/단말의 메모리가 낭비된다.- For retransmission, the base station must store data to be retransmitted. In addition, the terminal must store the previously received data in order to combine the previously received data and the retransmitted data. Accordingly, the memory of the base station/terminal for storing the data to be retransmitted/the previously received data is wasted.
- 전송 오류가 발생한 데이터의 재전송으로 인해 데이터 쓰루풋(throughput)이 감소된다. - Data throughput is reduced due to retransmission of data in which a transmission error has occurred.
- 데이터의 재전송을 위한 자원이 낭비 된다.- Resources for data retransmission are wasted.
본 명세서는 오토 인코더 아키텍쳐(Architecture)를 이용하는 뉴럴 네트워크를 통해서 송신단과 수신단사이의 채널에 최적화된 코딩 기법(Coding scheme)을 구성하는 방법을 제안한다. 보다 구체적으로, 본 명세서에서 제안하는 방법은, 통신 채널에서 발생한 오류를 오토 인코더 뉴럴 네트워크를 이용하여 정정하는 코딩 기법에 관한 것이다.The present specification proposes a method of configuring a coding scheme optimized for a channel between a transmitter and a receiver through a neural network using an auto-encoder architecture. More specifically, the method proposed in the present specification relates to a coding technique for correcting an error occurring in a communication channel using an auto-encoder neural network.
본 명세서에서 제안하는 방법을 통해 BLER과 재전송률이 개선될 수 있다. 또한, 개선된 BLER과 재전송률에 기초하여 시스템의 데이터 쓰트풋(Throughput)이 증가될 수 있으며, 턴-어라운드 지연(Turn-around delay)을 감소시킴으로써 단-대-단 지연(end-to end delay)이 개선될 수 있다.BLER and retransmission rate can be improved through the method proposed in this specification. In addition, based on the improved BLER and retransmission rate, the data throughput of the system can be increased, and the end-to-end delay can be reduced by reducing the turn-around delay. ) can be improved.
도 11은 오토 인코더를 이용한 통신 체인(chain)의 개념적 구조의 일 예를 나타낸 도이다.11 is a diagram illustrating an example of a conceptual structure of a communication chain using an auto-encoder.
보다 구체적으로, 도 11에서, 오토 인코더라는 구조적인 관점에 기초하면, 송신단(101)은 상기 오토 인코더를 구성하는 구성요소 중 하나인 인코더 f(.)로 해석될 수 있고, 수신단(103)은 상기 오토 인코더를 구성하는 구성요소 중 하나인 디코더 g(.)로 해석될 수 있다. 또한, 상기 오토 인코더를 구성하는 인코더 f(.)인 송신단(101)과 상기 오토 인코더를 구성하는 디코더 g(.)인 수신단(103) 사이에는 채널이 존재한다. 위와 같은 해석에 따라, 송신단(101)은 '송신단 인코더'로 호칭될 수 있고, 수신단(103)은 '수신단 디코더'라고 호칭될 수 있으며, 이와 동일/유사하게 해석될 수 있는 범위에서 다양하게 호칭될 수 있다.More specifically, in FIG. 11 , based on the structural point of view of an auto-encoder, the transmitting end 101 may be interpreted as an encoder f(.), which is one of the components constituting the auto-encoder, and the receiving end 103 is It can be interpreted as a decoder g(.), which is one of the components constituting the auto-encoder. In addition, a channel exists between the transmitter 101 which is the encoder f(.) constituting the auto-encoder and the receiving end 103 which is the decoder g(.) constituting the auto-encoder. According to the above interpretation, the transmitting end 101 may be referred to as a 'transmitting end encoder', and the receiving end 103 may be referred to as a 'receiving end decoder', and variously named within a range that can be interpreted in the same/similar manner. can be
오토 인코더의 구조는 Under-complete AE 및 Over-complete AE의 2가지 구조로 구분될 수 있다. 상기 Under-complete AE는 송신단 인코더 f(.)의 출력 데이터인 X가 송신단 인코더 f(.)에 대한 입력 데이터인 U보다 작은 양으로 표현이 되는 구조인데, 이는 특징 압출/추출(Feature compression/extraction) 등과 같은 기술에서 사용될 수 있다. The structure of the auto encoder can be divided into two structures: under-complete AE and over-complete AE. The under-complete AE has a structure in which X, which is output data of the transmitter f(.), is expressed in an amount smaller than U, which is input data to the transmitter f(.), which is a feature compression/extraction (Feature compression/extraction). ) can be used in techniques such as
반면, Over-complete AE는 송신단 인코더 f(.)의 출력 데이터인 X가 송신단 인코더 f(.)에 대한 입력 데이터인 U보다 많은 양으로 표현되는 구조인데, 본 구조에 기초한 송신단 인코더에서는 입력 데이터 U에 redundancy가 추가되어 출력 데이터 X가 출력된다. 이는 채널 코딩 등과 같이 패리티(Parity)를 추가하는 기술 등에서 사용될 수 있다. 본 명세서에서 제안하는 방법들에는 Over-complete AE 구조에 기초하는 오토 인코더가 사용된다. 이 때, 입력 데이터에 추가되는 Redundancy의 양은 코드-레이트(Code-Rate)(R)에 기초하여 조절 될 수 있다. On the other hand, over-complete AE has a structure in which X, which is the output data of the transmitter f(.), is expressed in a larger amount than U, which is the input data to the transmitter f(.). In the transmitter encoder based on this structure, the input data U Redundancy is added to , and output data X is output. This may be used in a technique for adding parity, such as channel coding. In the methods proposed in this specification, an auto-encoder based on an over-complete AE structure is used. In this case, the amount of redundancy added to the input data may be adjusted based on the code-rate (R).
U, X 및 R 사이의 관계는 아래의 수학식에 따라서 정의된다. The relationship between U, X and R is defined according to the following equation.
Figure PCTKR2021005384-appb-img-000003
Figure PCTKR2021005384-appb-img-000003
다시 도 11에서, 송신단 인코더 f(.)(101)는 코드-레이트(R)에 반비례하는 양으로 입력 데이터 U를 인코딩(Over-complete)한다. 상기 인코딩된 입력 데이터는 채널을 통하여 수신단 디코더 g(.)(103)에 전달되고, 수신단 디코더 g(.)(103)는 인코딩된 데이터를 디코딩하여 인코딩 되기 전의 입력 데이터를 복원한다. 11 again, the transmitter encoder f(.) 101 encodes (over-complete) the input data U in an amount inversely proportional to the code-rate (R). The encoded input data is transmitted to the receiving end decoder g(.) 103 through a channel, and the receiving end decoder g(.) 103 decodes the encoded data to restore the input data before encoding.
송신단 인코더/수신단 디코더의 뉴럴 네트워크 구성 방법How to configure the neural network of the transmitter encoder/receiver decoder
본 명세서에서 제안하는 방법은, 통신 채널에서 발생한 오류를 오토 인코더 뉴럴 네트워크(Autoencoder Neural Network: AE-NN)를 이용하여 정정하는 (채널) 코딩 기법에 관한 것이다. 보다 구체적으로, 본 명세서는 통신 채널에서 발생한 오류를 정정하는 (채널) 코딩 기법이 효율적으로 수행될 수 있도록 하기 위한 특정한 AE-NN의 구조를 제안한다. 상기 특정한 AE-NN의 구조를 구성한다는 것은 (i) 통신 시스템을 구성하는 송신단의 송신단 인코더 뉴럴 네트워크의 구조 및 (ii) 상기 통신 시스템을 구성하는 수신단의 수신단 인코더 뉴럴 네트워크의 구조를 특정한 방식에 기초하여 구성한다는 것을 의미할 수 있다.The method proposed in the present specification relates to a (channel) coding technique for correcting an error occurring in a communication channel using an Autoencoder Neural Network (AE-NN). More specifically, the present specification proposes a specific AE-NN structure so that a (channel) coding technique for correcting an error occurring in a communication channel can be efficiently performed. The construction of the specific AE-NN structure is based on (i) the structure of the transmitting end encoder neural network of the transmitting end constituting the communication system and (ii) the structure of the receiving end encoder neural network of the receiving end constituting the communication system. It may mean to configure
도 12는 본 명세서에서 제안하는 오토 인코더에 기반한 통신 시스템의 일 예를 나타낸 개념도이다.12 is a conceptual diagram illustrating an example of a communication system based on an auto encoder proposed in the present specification.
보다 구체적으로, 도 12에서, u(1201)은 송신단(101)에서 전송하고자 하는 정보이고, 상기 정보는 송신단(101)의 송신단 인코더 뉴럴 네트워크(NN-encoder)를 통해서 코딩된다. 상기 송신단 인코더 뉴럴 네트워크에 기초해서 코딩된 상기 정보는 송신단(101)과 수신단(103) 사이의 채널을 통해서 송신단(101)으로부터 수신단(103)으로 전달된다. 이후, 수신단(103)은 채널을 통과한 상기 코딩된 정보를 수신하고, 수신단 디코더 뉴럴 네트워크(NN-decoder)에 기초해서 상기 코딩된 정보를 복원한다. 여기서, 수신단(103)이 상기 코딩된 정보를 복원한다는 것은, 수신단(103)이, 상기 수신단 디코더 뉴럴 네트워크에 기초해서, (i) 상기 코딩된 정보가 전송되는 채널을 추정하고, (ii) 상기 추정된 채널에 기초하여 상기 코딩된 정보를 디코딩하는 동작들을 포함하는 것으로 해석될 수 있으며, 상기와 같은 해석은 이하에서 동일하게 적용될 수 있다. More specifically, in FIG. 12 , u 1201 is information to be transmitted by the transmitting end 101 , and the information is coded through the transmitting end encoder neural network (NN-encoder) of the transmitting end 101 . The information coded based on the transmitter encoder neural network is transmitted from the transmitter 101 to the receiver 103 through a channel between the transmitter 101 and the receiver 103 . Thereafter, the receiving end 103 receives the coded information that has passed through the channel, and restores the coded information based on the receiving end decoder neural network (NN-decoder). Here, that the receiving end 103 restores the coded information means that the receiving end 103, based on the receiving end decoder neural network, (i) estimates a channel through which the coded information is transmitted, (ii) the It may be interpreted as including operations of decoding the coded information based on the estimated channel, and the above interpretation may be equally applied below.
상기 송신단 인코더 뉴럴 네트워크와 상기 수신단 인코더 뉴럴 네트워크는 채널 상황에 최적화되도록 사전 학습되며, 송신단(101)과 수신단(103)은 사전 학습된 상기 송신단 인코더 뉴럴 네트워크와 상기 수신단 인코더 뉴럴 네트워크에 기초하여 채널 상황에 최적화된 통신을 수행할 수 있다.The transmitting end encoder neural network and the receiving end encoder neural network are pre-trained to be optimized for a channel condition, and the transmitting end 101 and the receiving end 103 are pre-trained in the transmitting end encoder neural network and the receiving end encoder neural network based on the channel condition. communication can be optimized for
본 명세서에서 제안하는 오토 인코더 기반의 코딩(coding) 방법은 오류 정정 부호 중의 하나인 터보 코드(Turbo code) 방식을 인공지능에 적용한 것이다. The auto encoder-based coding method proposed in the present specification applies a turbo code method, which is one of error correction codes, to artificial intelligence.
터보 코드 방식의 인공지능에의 적용에 대한 구체적인 설명에 앞서, 도 13 및 도 도 13 및 도 14는 본 명세서에서 제안한 방법의 이해를 돕기 위한 터보 코드의 예시를 나타낸 도이다.Prior to a detailed description of the application of the turbo code method to artificial intelligence, FIGS. 13 and 13 and 14 are diagrams illustrating examples of turbo codes to help understand the method proposed in the present specification.
도 13 및 도 14에 도시된 것과 같이, 터보 코드는 기본적으로 2개의 구성요소 코드(component code)와 상기 2개의 구성요소 코드들 사이에 인터리버(interleaver)(
Figure PCTKR2021005384-appb-img-000004
)가 위치하는 형태로 구성이 된다.
13 and 14, the turbo code is basically two component codes and an interleaver (interleaver) between the two component codes.
Figure PCTKR2021005384-appb-img-000004
) is located.
보다 구체적으로, 도 13은 PCCC(parallel concatenated convolutional code) 터보 코드에 관련된 것이다. 도 13을 참조하면, 상기 PCCC 터보 코드는 ENC 1로 표시된 제 1 구성요소 코드(1301) 및 ENC 2로 표시된 제 2 구성요소 코드(1302)가 병렬적으로 위치하고, 상기 구성요소 코드들(1301 및 1302)의 사이에
Figure PCTKR2021005384-appb-img-000005
로 표시되는 인터리버(1303)가 위치하는 형태로 구성되는 것을 알 수 있다. 여기서, 상기 PCCC 터보 코드의 입력 u1은 x0, x1 및 x2로 구성되어 출력되는데, 상기 x0은 입력 u1과 동일하고, 상기 x1은 입력 u1이 제 1 구성요소 코드(1301)에 의하여 인코딩되어 출력된 것이다. 또한, 상기 x2는 입력 u1이 인터리버(1303)에 의해서 인터리빙된 u2가 제 2 구성요소 코드(1302)에 의하여 인코딩되어 출력된 것이다. 상기 PCCC 터보 코드는 하나의 입력 u1을 입력 받아 3개의 값(x0, x1 및 x2)을 출력하므로, 상기 PCCC 터보 코드의 코드 레이트의 값은 1/3이다.
More specifically, FIG. 13 relates to a parallel concatenated convolutional code (PCCC) turbo code. Referring to FIG. 13 , in the PCCC turbo code, a first component code 1301 denoted by ENC 1 and a second component code 1302 denoted by ENC 2 are positioned in parallel, and the component codes 1301 and 1302) amongst
Figure PCTKR2021005384-appb-img-000005
It can be seen that the interleaver 1303 denoted by is configured in a form in which it is located. Here, the input u1 of the PCCC turbo code is outputted by being composed of x0, x1 and x2, where x0 is the same as the input u1, and the x1 is the input u1 encoded by the first component code 1301 and output. will be. In addition, the x2 is output by encoding the input u1 interleaved by the interleaver 1303 and u2 using the second component code 1302 . Since the PCCC turbo code receives one input u1 and outputs three values (x0, x1, and x2), the value of the code rate of the PCCC turbo code is 1/3.
또한, 도 14은 SCCC(Serial concatenated convolutional codes) 터보 코드에 관련된 것이다. 도 14를 참조하면, 상기 SCCC 터보 코드는 ENC 1로 표시된 제 1 구성요소 코드(1401) 및 ENC 2로 표시된 제 2 구성요소 코드(1402)가 위치하고, 상기 구성요소 코드들(1401 및 1402)의 사이에
Figure PCTKR2021005384-appb-img-000006
로 표시되는 인터리버(1403)가 직렬적으로 위치하는 형태로 구성되는 것을 알 수 있다. 여기서, 상기 SCCC 터보 코드의 입력 u1은 x0, x1 및 x2로 구성되어 출력된다. 보다 구체적으로, 입력 u1은 제 1 구성요소 코드(1401)에 의하여 인코딩되어 c1으로 출력된다. 이후, 상기 c1은 인터리버(1403)에 의해서 인터리빙 되고, 제 2 구성요소 코드(1402)는 상기 인터리빙된 c1을 입력 u2를 입력 받는다. 상기 u2는 제 2 구성요소 코드(1402)에 의하여 인코딩되고, 결과적으로 x0, x1 및 x2로 구성된 c2가 출력된다. 상기 SCCC 터보 코드는 하나의 입력 u1을 입력 받아 3개의 값(x0, x1 및 x2)을 출력하므로, 상기 SCCC 터보 코드의 코드 레이트의 값은 1/3이다.
Also, FIG. 14 relates to a serial concatenated convolutional codes (SCCC) turbo code. Referring to FIG. 14 , in the SCCC turbo code, a first component code 1401 denoted as ENC 1 and a second component code 1402 denoted as ENC 2 are located, and the component codes 1401 and 1402 are Between
Figure PCTKR2021005384-appb-img-000006
It can be seen that the interleaver 1403 denoted by <RTI ID=0.0> Here, the input u1 of the SCCC turbo code is composed of x0, x1, and x2 and is output. More specifically, the input u1 is encoded by the first component code 1401 and output as c1. Thereafter, the c1 is interleaved by the interleaver 1403, and the second component code 1402 receives the interleaved c1 as an input u2. The u2 is encoded by the second component code 1402, and as a result, c2 composed of x0, x1 and x2 is output. Since the SCCC turbo code receives one input u1 and outputs three values (x0, x1, and x2), the value of the code rate of the SCCC turbo code is 1/3.
일반적으로, SCCC 터보 코드는 PCCC 터보 코드에 비하여 다소 낮은 Waterfall 성능을 가지나, PCCC 터보 코드에 비하여 더 뛰어난 Error floor 성능을 가질 수 있다. In general, the SCCC turbo code has somewhat lower waterfall performance than the PCCC turbo code, but may have better error floor performance than the PCCC turbo code.
SCCC 터보 코드는 PCCC 터보 코드에 비하여 더 뛰어난 Error floor 성능을 가지므로, 본 명세서에서는 안정적인 데이터 전송을 위해서 SCCC-터보 코드의 형태를 인공지능에 적용한 방식이 제안된다. 여기서, SCCC-터보 코드의 형태가 인공지능에 적용된 방식은 직렬 연결 뉴럴 네트워크 오토 인코더 (Serially Concatenated Neural-Network AutoEncoder: SCNN-AE)로 호칭될 수 있다. Since the SCCC turbo code has better error floor performance than the PCCC turbo code, in this specification, a method in which the form of the SCCC-turbo code is applied to artificial intelligence is proposed for stable data transmission. Here, the method in which the form of the SCCC-turbo code is applied to artificial intelligence may be referred to as a Serially Concatenated Neural-Network AutoEncoder (SCNN-AE).
도 15는 본 명세서에서 제안하는 직렬 연결 뉴럴 네트워크 오토 인코더의 전체적인 구조의 일 예를 나타낸 도이다.15 is a diagram illustrating an example of the overall structure of a serial-connected neural network auto-encoder proposed in the present specification.
도 15에서, 송신단(101)은 특정한 구조를 갖는 송신단 인코더 뉴럴 네트워크에 기초하여 구성되는데, 송신단(101)은 상기 송신단 인코더 뉴럴 네트워크에 기초하여 입력 데이터(u)를 인코딩하고, 상기 인코딩된 입력 데이터(x0, x1 및 x2)는 송신단이 전송하는 신호에 포함되어 채널 상으로 수신단(103)으로 전달된다. In FIG. 15 , a transmitting end 101 is configured based on a transmitting end encoder neural network having a specific structure. The transmitting end 101 encodes input data u based on the transmitting end encoder neural network, and the encoded input data (x0, x1, and x2) are included in a signal transmitted by the transmitter and transmitted to the receiver 103 over a channel.
보다 구체적으로, 송신단(101)의 송신단 인코더 뉴럴 네트워크는 뉴럴 네트워크 f1(101-1), 뉴럴 네트워크 f2(101-2) 및 인터리버(interleaver)(
Figure PCTKR2021005384-appb-img-000007
)(101-3)를 포함한다(로 구성된다). 여기서, f1(101-1)은 상기 송신단 인코더 뉴럴 네트워크의 입력 데이터를 입력 받고, 이를 인코딩하여 제 1 코드워드(codeword)를 출력한다. 인터리버(101-3)는 상기 제 1 코드워드를 f1(101-2)로부터 입력 받아 이를 인터리빙(interleaving)하고, 상기 인터리빙된 제 1 코드워드를 출력한다. 또한, f2(101-3)는 상기 인터리빙된 제 1 코드워드를 인터리버(101-3)로부터 입력 받아 제 2 코드워드(x0, x1 및 x2)를 출력한다. 상기 제 2 코드워드는 상기 송신단 인코더 뉴럴 네트워크에 포함된 전력 노멀라이저(Power Normalizer)(101-4)를 거쳐서 채널 상으로 전송된다. 이 때, 전력 노멀라이저는 송신단(101)의 출력 전력의 크기가 1이 되도록 조정하는 역할을 한다.
More specifically, the transmitting end encoder neural network of the transmitting end 101 includes a neural network f1 (101-1), a neural network f2 (101-2), and an interleaver (
Figure PCTKR2021005384-appb-img-000007
) (101-3) contains (consisting of). Here, f1 (101-1) receives input data of the transmitter-end encoder neural network, encodes it, and outputs a first codeword. The interleaver 101-3 receives the first codeword from f1 101-2, interleaves it, and outputs the interleaved first codeword. Also, f2 (101-3) receives the interleaved first codeword from the interleaver 101-3 and outputs second codewords (x0, x1, and x2). The second codeword is transmitted on a channel through a power normalizer 101-4 included in the transmitter-end encoder neural network. At this time, the power normalizer serves to adjust the size of the output power of the transmitter 101 to be 1.
상기 설명된 내용을 요약하면, 상기 송신단 인코더 뉴럴 네트워크는 (i) 입력 데이터를 입력 받아 제 1 코드워드(codeword)를 출력하는 제 1 인코더 뉴럴 네트워크, (ii) 상기 제 1 코드워드를 입력 받아 인터리빙(interleaving)하고, 상기 인터리빙된 제 1 코드워드를 출력하는 인터리버(interleaver) 및 (iii) 상기 인터리빙된 제 1 코드워드를 입력 받아 상기 인코딩된 입력 데이터를 구성하는 제 2 코드워드를 출력하는 제 2 인코더 뉴럴 네트워크를 직렬적으로(serially) 포함하는 것으로 설명될 수 있다. 또한, 상기 송신단 인코더 뉴럴 네트워크는 송신단(101)이 전송하는 신호의 출력 전력의 크기가 1이 되도록 조정하는 전력 노멀라이저를 더 포함하는 것으로 설명될 수 있다.In summary, the transmitter-end encoder neural network includes (i) a first encoder neural network that receives input data and outputs a first codeword, (ii) receives the first codeword and interleaving (interleaving) and outputting the first interleaved codeword (interleaver) and (iii) receiving the first interleaved codeword as input and outputting a second codeword constituting the encoded input data It can be described as including an encoder neural network serially. In addition, the transmitter encoder neural network may be described as further including a power normalizer that adjusts the output power of the signal transmitted by the transmitter 101 to be 1.
다시 도 15로 돌아와서, 수신단(103)은 특정한 구조를 갖는 적어도 하나 이상의 기본(basic) 수신단 디코더 뉴럴 네트워크가 순차적으로 연결된 형태로 구성되는데, 수신단(103)은 상기 수신단 디코더 뉴럴 네트워크에 기초하여 채널상으로 송신단(101)이 전송한 신호를 수신하고, 상기 신호에 포함된 인코딩된 송신단(101)의 입력 데이터(x0, x1 및 x2)를 복원한다. 도 15에서, Imax는 수신단 디코더 뉴럴 네트워크에 포함될 수 있는(구성할 수 있는) 기본 수신단 디코더 뉴럴 네트워크의 최대값(즉, 최대 decoding iteration)을 나타낸다. Returning to FIG. 15 again, the receiving end 103 is configured in a form in which at least one or more basic receiving end decoder neural networks having a specific structure are sequentially connected. to receive the signal transmitted by the transmitter 101, and restore the encoded input data (x0, x1, and x2) of the transmitter 101 included in the signal. In FIG. 15 , Imax represents the maximum value (ie, maximum decoding iteration) of a basic receiving-end decoder neural network that can be included (configurable) in the receiving-end decoder neural network.
보다 구체적인 설명을 위한 편의를 위해, 수신단 디코더 뉴럴 네트워크에 포함된(수신단 디코더 뉴럴 네트워크를 구성하는) 적어도 하나 이상의 기본 수신단 디코더 뉴럴 네트워크들 중 가장 먼저 위치하는 기본 수신단 디코더 뉴럴 네트워크를 예시로 설명하도록 한다. 수신단(103)의 기본 수신단 디코더 뉴럴 네트워크는 뉴럴 네트워크 g2(103-2), 뉴럴 네트워크 g1(103-1) 및 디-인터리버(de-interleaver)(
Figure PCTKR2021005384-appb-img-000008
)(103-3)를 포함한다. 여기서, g2(103-2)는 상기 채널상으로 전송된 송신단(101)의 신호에 포함된 f2(101-2)와 관련된 코드워드(제 2 코드워드(x0, x1 및 x2))에 대한 디코딩(decoding)을 수행하고, 제 2 디코딩된 코드워드를 출력한다. 또한, 디-인터리버(103-3)는 g2(103-2)로부터 상기 제 2 디코딩된 코드워드를 입력 받아 이를 디-인터리빙(de-interleaving)하고, 상기 디-인터리빙된 제 2 디코딩된 코드워드를 출력한다. 이 때, 상기 디-인터리빙된 제 2 디코딩된 코드워드는 f2(101-2)와 관련된 코드워드에 디코딩과 디-인터리빙이 순차적으로 수행된 것이므로, 상기 디-인터리빙된 제 2 디코딩된 코드워드는 f1(101-1)과 관련된 코드워드(제 1 코드워드)일 수 있다. g1(103-1)은 상기 f1(101-1)과 관련된 코드워드를 디-인터리버(103-3)로부터 입력 받아 이를 디코딩하고, 제 1 디코딩된 코드워드를 출력한다. 상기 제 1 디코딩된 코드워드는 인터리빙되어 상기 가장 먼저 위치하는 기본 수신단 디코더 뉴럴 네트워크의 다음에 연결된 기본 수신단 디코더 뉴럴 네트워크로 입력된다. 이 때, 상기 제 1 디코딩된 코드워드의 인터리빙은 (i) 상기 가장 먼저 위치하는 기본 수신단 디코더 뉴럴 네트워크 및 (ii) 상기 가장 먼저 위치하는 기본 수신단 디코더 뉴럴 네트워크의 다음에 연결된 기본 수신단 디코더 뉴럴 네트워크 사이에 위치하는 인터리버에 의하여 수행된다. 상기 제 1 디코딩된 코드워드가 인터리빙되어 상기 가장 먼저 위치하는 기본 수신단 디코더 뉴럴 네트워크의 다음에 연결된 기본 수신단 디코더 뉴럴 네트워크로 입력될 때, 상기 가장 먼저 위치하는 기본 수신단 디코더 뉴럴 네트워크의 다음에 연결된 기본 수신단 디코더 뉴럴 네트워크는 채널 상으로 전송된 송신단(101)이 전송한 신호를 함께 입력 받는다. 상기 설명된 내용은 수신단 디코더 뉴럴 네트워크에 포함된 적어도 하나 이상의 기본 수신단 디코더 뉴럴 네트워크들에 각각 포함된 g2 및 g1에 대해서도 적용될 수 있음은 물론이다.
For the convenience of a more detailed description, the basic receiving end decoder neural network located first among at least one or more basic receiving end decoder neural networks included in the receiving end decoder neural network (constituting the receiving end decoder neural network) will be described as an example. . The basic receiving end decoder neural network of the receiving end 103 includes a neural network g2 (103-2), a neural network g1 (103-1) and a de-interleaver (
Figure PCTKR2021005384-appb-img-000008
) (103-3). Here, g2 (103-2) is the decoding of the codeword (second codewords (x0, x1, and x2)) related to f2 (101-2) included in the signal of the transmitter 101 transmitted over the channel. (decoding) is performed, and a second decoded codeword is output. Also, the de-interleaver 103-3 receives the second decoded codeword from g2 103-2, de-interleaves it, and the de-interleaved second decoded codeword. to output At this time, since decoding and de-interleaving are sequentially performed on the codeword related to f2 (101-2) for the de-interleaved second decoded codeword, the de-interleaved second decoded codeword is It may be a codeword (first codeword) related to f1 (101-1). The g1 (103-1) receives the codeword related to the f1 (101-1) from the de-interleaver 103-3, decodes it, and outputs a first decoded codeword. The first decoded codeword is interleaved and input to a basic receiving-end decoder neural network connected next to the first-located basic receiving-end decoder neural network. In this case, the interleaving of the first decoded codeword is performed between (i) the first-located basic receiving-end decoder neural network and (ii) the basic receiving-end decoder neural network connected to the next of the first-located basic receiving-end decoder neural network. It is performed by an interleaver located in . When the first decoded codeword is interleaved and input to a basic receiving end decoder neural network connected next to the first located basic receiving end decoder neural network, a basic receiving end connected to the next of the first located basic receiving end decoder neural network The decoder neural network receives the signal transmitted by the transmitter 101 transmitted over the channel together. It goes without saying that the above description may also be applied to g2 and g1 respectively included in at least one or more basic receiving end decoder neural networks included in the receiving end decoder neural network.
상기 설명된 내용을 요약하면, 상기 수신단 디코더 뉴럴 네트워크는 순차적으로 연결된 적어도 하나 이상의 기본 디코더 뉴럴 네트워크를 포함한다. 여기서, 상기 적어도 하나 이상의 기본 디코더 뉴럴 네트워크 각각은 (i) 송신단 인코더 뉴럴 네트워크에 포함된 제 2 인코더 뉴럴 네트워크에서 출력된 제 2 코드워드에 대한 디코딩을 수행하고, 제 2 디코딩된 코드워드를 출력하는 제 2 디코더 뉴럴 네트워크, (ii) 상기 제 2 디코딩된 코드워드를 입력 받아 디-인터리빙(de-interleaving)하고, 상기 디-인터리빙된 제 2 디코딩된 코드워드를 출력하는 디-인터리버(de-interleaver) 및 (iii) 상기 디-인터리빙된 제 2 디코딩된 코드워드에 대한 디코딩을 수행하고, 상기 디-인터리빙된 제 2 디코딩된 코드워드에 대한 디코딩에 기초한 제 1 디코딩된 코드워드를 출력하는 제 1 디코더 뉴럴 네트워크를 직렬적으로(serially) 포함하는 것으로 설명될 수 있다. To summarize the above description, the receiver decoder neural network includes at least one or more basic decoder neural networks sequentially connected. Here, each of the at least one basic decoder neural network (i) performs decoding on the second codeword output from the second encoder neural network included in the transmitter encoder neural network, and outputs the second decoded codeword A second decoder neural network, (ii) a de-interleaver that receives the second decoded codeword, de-interleaves it, and outputs the de-interleaved second decoded codeword ) and (iii) performing decoding on the de-interleaved second decoded codeword, and outputting a first decoded codeword based on the decoding on the de-interleaved second decoded codeword. It can be described as including a decoder neural network serially.
또한, 상기 적어도 하나 이상의 기본 디코더 뉴럴 네트워크 중 상기 수신단 디코더 뉴럴 네트워크에서 가장 먼저 위치한 기본 수신단 디코더 뉴럴 네트워크는 수신단(103)이 채널 상으로 수신한 송신단 신호에 포함된 코드워드(제 2 코드워드(x0, x1 및 x2))만을 입력 받는다. 반면, 상기 가장 먼저 위치한 기본 수신단 디코더 뉴럴 네트워크 외의 기본 수신단 디코더 뉴럴 네트워크들은 (i) 자신 바로 이전에 위치한 기본 디코더 뉴럴 네트워크에서 출력되는 제 1 디코딩된 코드워드 및 (ii) 수신단(103)이 채널 상으로 수신한 송신단 신호에 포함된 코드워드(제 2 코드워드(x0, x1 및 x2))를 모두 입력 받는다. 이 때, 상기 가장 먼저 위치한 기본 수신단 디코더 뉴럴 네트워크가 수신단(103)이 채널 상으로 수신한 송신단 신호에 포함된 코드워드(제 2 코드워드(x0, x1 및 x2))만을 입력 받는다는 것은, 자신의 바로 이전에 위치한 기본 수신단 디코더 뉴럴 네트워크로부터 입력 받는 코드워드가 0인 것으로 이해될 수도 있다.In addition, the basic receiving end decoder neural network located first in the receiving end decoder neural network among the at least one or more basic decoder neural networks is a codeword (second codeword (x0) , x1 and x2)) are only input. On the other hand, the basic receiving end decoder neural networks other than the first located basic receiving end decoder neural network have (i) the first decoded codeword output from the basic decoder neural network located immediately before itself and (ii) the receiving end 103 is transmitted on the channel. All codewords (second codewords (x0, x1, and x2)) included in the received signal from the transmitter are received as input. At this time, the fact that the first-located basic receiving end decoder neural network receives only the codewords (second codewords (x0, x1 and x2)) included in the transmitting end signal received by the receiving end 103 on the channel means that its It may be understood that the codeword received from the basic receiving end decoder neural network located immediately before is 0.
도 16은 본 명세서에서 제안된 방법이 적용될 수 있는 송신단 인코더 뉴럴 네트워크의 일 예를 나타낸 도이다.16 is a diagram illustrating an example of a transmitter-end encoder neural network to which the method proposed in the present specification can be applied.
보다 구체적으로, 도 16은 송신단 인코더 뉴럴 네트워크에 포함된(를 구성하는) 제 1 인코더 뉴럴 네트워크 및 제 2 인코더 뉴럴 네트워크의 구체적인 구현 형태와 관련된 도이다. 도 15에서와 같이, 도 16에서의 송신단 인코더 뉴럴 네트워크는 제 1 인코더 뉴럴 네트워크(101-1), 인터리버(101-3) 및 제 2 인코더 뉴럴 네트워크(101-2)를 직렬적으로 포함하는 형태로 구성될 수 있다.More specifically, FIG. 16 is a diagram related to a specific implementation form of the first encoder neural network and the second encoder neural network included in (constituting) the transmitter-end encoder neural network. As in FIG. 15 , the transmitter encoder neural network in FIG. 16 includes a first encoder neural network 101-1, an interleaver 101-3, and a second encoder neural network 101-2 serially. can be composed of
도 16에서, 제 1 인코더 뉴럴 네트워크(f1)(101-1)는 2개의 인코더 컴포넌트 뉴럴 네트워크(f1(1)(101-1a) 및 f1(2)(101-1b))로 구성되고, 제 2 인코더 뉴럴 네트워크(f2)(101-2)는 3개의 인코더 컴포넌트 뉴럴 네트워크(f2(1)(101-2a), f2(2)(101-2b) 및 f2(3)(101-2c))로 구성될 수 있다. 여기서, f1(1)(101-1a), f1(2)(101-1b), f2(1)(101-2a) 및 f2(2)(101-2b)는 동일한 형태의 뉴럴 네트워크로 구성될 수 있으며, f1(1)(101-1a), f1(2)(101-1b), f2(1)(101-2a) 및 f2(2)(101-2b)를 구성하는 동일한 형태의 뉴럴 네트워크는 제 1 인코더 컴포넌트 뉴럴 네트워크로 호칭될 수 있다. 또한, f2(3)(101-2c)는 상기 제 1 인코더 컴포넌트 뉴럴 네트워크와는 다른 형태의 뉴럴 네트워크로 구성될 수 있으며, 이는 제 2 인코더 컴포넌트 뉴럴 네트워크로 호칭될 수 있다. In FIG. 16, a first encoder neural network (f1) 101-1 is composed of two encoder component neural networks (f1(1) (101-1a) and f1(2) (101-1b)), A two encoder neural network (f2) 101-2 is a three encoder component neural network (f2(1) 101-2a, f2(2) 101-2b and f2(3) 101-2c) can be composed of Here, f1(1)(101-1a), f1(2)(101-1b), f2(1)(101-2a), and f2(2)(101-2b) may be composed of the same type of neural network. and f1(1)(101-1a), f1(2)(101-1b), f2(1)(101-2a), and f2(2)(101-2b) of the same type of neural network. may be referred to as a first encoder component neural network. Also, f2(3) 101-2c may be configured as a neural network different from the first encoder component neural network, which may be referred to as a second encoder component neural network.
또한, 도 16에서, 제 1 인코더 뉴럴 네트워크(f1(1,2))(101-1)는 입력(u)을 입력 받고, 입력 받은 입력(u)에 대해서 코드워드(c1)을 생성한다. 상기 코드워드(c1)는 제 1 인코더 뉴럴 네트워크(f1(1,2))(101-1)가 입력 받은 입력(u)에 대한 인코딩에 기초하여 생성되는 것일 수 있다. 여기서, 제 1 인코더 뉴럴 네트워크(f1(1,2))(101-1)는 상기 코드워드(c1)의 코드-레이트(code-rate)의 값이 1/2이 되도록 구성 되어있다. 즉, 제 1 인코더 뉴럴 네트워크(f1(1,2))(101-1)는 길이가 1인 입력(u)을 입력 받아, 길이가 2인 코드워드(c1)를 출력한다. 또한, 제 2 인코더 뉴럴 네트워크(f2(1,2,3))(101-2)는 코드워드(c1)을 입력 받고, 입력 받은 코드워드(c1)에 대하여 코드워드(c2)를 생성한다. 상기 코드워드(c2)는 제 2 인코더 뉴럴 네트워크(f2(1,2,3))(101-2)가 입력 받은 코드워드(c1)에 대한 인코딩에 기초하여 생성되는 것일 수 있다. 여기서, 제 2 인코더 뉴럴 네트워크(f2(1,2,3))(101-2)는 상기 코드워드(c2)의 코드-레이트(code-rate)의 값이 2/3이 되도록 구성 되어있다. 즉, 제 2 인코더 뉴럴 네트워크(f2(1,2,3))(101-1)는 길이가 2인 코드워드(c1)을 입력 받아, 길이가 3인 코드워드(c2)를 출력한다. In addition, in FIG. 16 , the first encoder neural network (f1(1,2)) 101-1 receives an input u and generates a codeword c1 with respect to the received input u. The codeword c1 may be generated based on the encoding of the input u received by the first encoder neural network f1(1,2) 101-1. Here, the first encoder neural network (f1(1,2)) 101-1 is configured such that the value of the code-rate of the codeword c1 is 1/2. That is, the first encoder neural network (f1(1,2)) 101-1 receives an input u having a length of 1 and outputs a codeword c1 having a length of 2. In addition, the second encoder neural network (f2(1,2,3)) 101-2 receives a codeword c1 and generates a codeword c2 with respect to the received codeword c1. The codeword c2 may be generated based on the encoding of the codeword c1 received by the second encoder neural network f2(1,2,3) 101-2. Here, the second encoder neural network f2(1,2,3) 101-2 is configured such that the code-rate value of the codeword c2 is 2/3. That is, the second encoder neural network (f2(1,2,3)) 101-1 receives a codeword c1 having a length of 2 and outputs a codeword c2 having a length of 3.
도 16에서, 설명의 편의를 위해, 제 1 인코더 뉴럴 네트워크(101-1)를 구성하는 인코더 컴포넌트 뉴럴 네트워크의 개수는 2개이고, 제 2 인코더 뉴럴 네트워크(101-2)를 구성하는 인코더 컴포넌트 뉴럴 네트워크의 개수는 3개인 경우의 예시로 설명했지만, 제 1 인코더 뉴럴 네트워크(101-1) 및 제 2 인코더 뉴럴 네트워크(101-2)는 다양한 형태로 구성될 수 있음은 물론이다. 즉, 제 1 인코더 뉴럴 네트워크(101-1)는 n1개의 제 1 인코더 컴포넌트 뉴럴 네트워크로 구성되고, 제 2 인코더 뉴럴 네트워크(101-2)는 n2개의 상기 제 1 인코더 컴포넌트 뉴럴 네트워크 및 n3개의 제 2 인코더 컴포넌트 뉴럴 네트워크로 구성될 수 있다. 이 때, n1, n2 및 n3는 0이 아닌 양의 정수일 수 있다. 이 때, 제 1 인코더 뉴럴 네트워트(101-1)의 입력(u)이 k가 될 수 있고, 코드 레이트(code rate)는 k/n1이 되고, 상기 제 2 인코더 뉴럴 네트워크(101-2)의 코드 레이트는 n1/(n2+n3)일 수 있다. 여기서, 상기 n1 및 상기 n2의 값은 동일하고, 상기 n3의 값은 상기 n1 및 n2와 다른 값일 수 있다. 특히, 상기 n3의 값은 1일 수 있다. 전체 code-rate은 k/(n2+n3)가 된다.In FIG. 16 , for convenience of description, the number of encoder component neural networks constituting the first encoder neural network 101-1 is two, and encoder component neural networks constituting the second encoder neural network 101-2 Although the number of is described as an example of three, it goes without saying that the first encoder neural network 101-1 and the second encoder neural network 101-2 may be configured in various forms. That is, the first encoder neural network 101-1 includes n1 first encoder component neural networks, and the second encoder neural network 101-2 includes n2 first encoder component neural networks and n3 second encoder component neural networks. It may be composed of an encoder component neural network. In this case, n1, n2, and n3 may be non-zero positive integers. At this time, the input u of the first encoder neural network 101-1 may be k, the code rate becomes k/n1, and the second encoder neural network 101-2 The code rate may be n1/(n2+n3). Here, the values of n1 and n2 may be the same, and the value of n3 may be different from the values of n1 and n2. In particular, the value of n3 may be 1. The total code-rate becomes k/(n2+n3).
도 17은 본 명세서에서 제안된 방법이 적용될 수 있는 수신단 디코더 뉴럴 네트워크의 일 예를 나타낸 도이다.17 is a diagram illustrating an example of a receiver decoder neural network to which the method proposed in the present specification can be applied.
보다 구체적으로, 도 17은 수신단 디코더 뉴럴 네트워크를 구성하는 기본 수신단 디코더 뉴럴 네트워크의 구체적인 동작을 보여준다. 도 17에서, g2는 도 15에서 설명한 제 2 디코더 뉴럴 네트워크(103-2)를 나타내고, g1는 도 15에서 설명한 제 1 디코더 뉴럴 네트워크(103-1)를 나타낸다. 또한,
Figure PCTKR2021005384-appb-img-000009
(103-3)는 도 15에서 설명한 디-인터리버를 나타내고,
Figure PCTKR2021005384-appb-img-000010
는 도 15에서 설명한 인터리버를 나타낸다.
More specifically, FIG. 17 shows a detailed operation of a basic receiving end decoder neural network constituting a receiving end decoder neural network. In FIG. 17 , g2 denotes the second decoder neural network 103-2 described with reference to FIG. 15 , and g1 denotes the first decoder neural network 103-1 described with reference to FIG. 15 . In addition,
Figure PCTKR2021005384-appb-img-000009
Reference numeral 103-3 denotes the de-interleaver described in FIG. 15,
Figure PCTKR2021005384-appb-img-000010
denotes the interleaver described with reference to FIG. 15 .
제 2 디코더 뉴럴 네트워크(103-2)는 채널상으로 송신단(101)으로부터 전송된 데이터(x0, x1, x2)에 대한 디코딩을 수행하여, 송신단 인코더 뉴럴 네트워크를 구성하는 제 2 인코더 뉴럴 네트워크의 입력에 대응되는 A Posteriori u2를 생성한다. 상기 생성된 A Posteriori u2로부터 입력(x0, x1 및 x2)와 상관성(correlation)이 있는 u2(A Priori)가 제거되고(+: 동작)(103-5), 디-인터리버(π-1)(103-3)를 거치면, 송신단 인코더 뉴럴 네트워크를 구성하는 제 1 인코더 뉴럴 네트워크의 출력에 대응되는 코드워드(c1)(Extrinsic information)이 획득된다. The second decoder neural network 103-2 performs decoding on the data (x0, x1, x2) transmitted from the transmitter 101 on the channel, and is an input of the second encoder neural network constituting the encoder neural network of the transmitter. Create A Posteriori u2 corresponding to . From the generated A Posteriori u2, u2 (A Priori) having correlation with the inputs (x0, x1 and x2) is removed (+: operation) (103-5), and the de-interleaver (π-1) ( 103-3), the codeword c1 (extrinsic information) corresponding to the output of the first encoder neural network constituting the transmitter-end encoder neural network is obtained.
이후, 제 1 디코더 뉴럴 네트워크(g1)(103-1)는 상기 코드워드(c1)(A Priori)를 입력 받고, 상기 코드워드(c1)(A Priori)에 대한 디코딩을 통해 A Posteriori c1을 생성한다. 다음, Extrinsic c1을 생성하기 위해서, 제 1 디코더 뉴럴 네트워크(103-1)이 생성한 A posteriori c1로부터 A Priori c1에 제거된 후(103-6), 인터리빙(103-4)된다. 여기서, 상기 인터리빙된 데이터는 상기 설명한 동작들을 수행한 기본 수신단 디코더 뉴럴 네트워크의 바로 다음에 연결된 기본 수신단 디코더 뉴럴 네트워크의 입력으로 전달된다.Thereafter, the first decoder neural network (g1) 103-1 receives the codeword c1 (A Priori) and generates A Posteriori c1 by decoding the codeword c1 (A Priori). do. Next, to generate Extrinsic c1, the first decoder neural network 103-1 is removed from A posterior c1 generated by A Priori c1 (103-6), and then interleaved (103-4). Here, the interleaved data is transmitted to the input of the basic receiving-end decoder neural network connected immediately after the basic receiving-end decoder neural network that has performed the above-described operations.
도 18은 본 명세서에서 제안된 방법이 적용될 수 있는 수신단 디코더 뉴럴 네트워크의 일 예를 나타낸 도이다.18 is a diagram illustrating an example of a receiver decoder neural network to which the method proposed in the present specification can be applied.
보다 구체적으로, 도 18은 도 17에서 설명한 기본 수신단 디코더 뉴럴 네트워크들 n개가 연속적으로 연결(n-iteration)되어 구성된 수신단 디코더 뉴럴 네트워크의 일 예를 나타낸다. 도 18에서, 도 17에서 설명된 Extrinsic information 생성을 위한 뺄셈 연산(103-5 및 103-6)은 g2,i, g1,i에 포함된다. 연속적으로 연결된 기본 수신단 디코더 뉴럴 네트워크들 중 첫 번째 기본 수신단 디코더 뉴럴 네트워크를 제외한 나머지 기본 수신단 디코더 뉴럴 네트워크들은 (i) 채널 상으로 전송된 데이터와 (ii) 자신의 바로 앞에 위치한 기본 수신단 디코더 뉴럴 네트워크에서 수행된 디코딩에 기초하여 생성된 데이터를 함께 입력 받고, 상기 (i) 및 (ii)의 데이터에 기초하여 디코딩을 수행한다. 상기 (i) 및 (ii)의 데이터에 기초하여 디코딩이 반복되어 수행됨으로써, (a) 마지막에 위치한 기본 수신단 디코더 뉴럴 네트워크에서 복원되는 데이터와 (b) 송신단 인코더가 전송한 입력 데이터(u) 간의 오차가 감소할 수 있다.More specifically, FIG. 18 shows an example of a receiver decoder neural network configured by successively n-iteration of the n basic receiver decoder neural networks described in FIG. 17 . In FIG. 18, the subtraction operations 103-5 and 103-6 for generating extrinsic information described in FIG. 17 are included in g2,i and g1,i. Among the consecutively connected basic receiver decoder neural networks, the rest of the basic receiver decoder neural networks except for the first basic receiver decoder neural network are (i) data transmitted on the channel and (ii) the basic receiver decoder neural network located immediately in front of itself. Data generated based on the decoding is received together, and decoding is performed based on the data of (i) and (ii). Decoding is repeatedly performed based on the data of (i) and (ii), so that (a) data reconstructed in the basic receiving end decoder neural network located at the end and (b) input data (u) transmitted by the transmitting end encoder error can be reduced.
구체적인 뉴럴 네트워크 구조 - (제안 1)Concrete Neural Network Architecture - (Proposal 1)
이하에서는, 앞서 살펴본 (i) 송신단 인코더 뉴럴 네트워크를 구성하는 제 1 인코더 뉴럴 네트워크 및 제 2 인코더 뉴럴 네트워크와 (ii) 수신단 디코더 뉴럴 네트워크를 구성하는 제 1 디코더 뉴럴 네트워크 및 제 2 디코더 뉴럴 네트워크의 보다 구체적인 구조에 대해 살펴본다.Hereinafter, (i) the first encoder neural network and the second encoder neural network constituting the transmitter-end encoder neural network and (ii) the first decoder neural network and the second decoder neural network constituting the receiver-end decoder neural network described above Let's take a look at the specific structure.
(채널)코딩에 AI를 적용하는 경우, AI가 학습해야 할 정보의 공간(Space)이 중요한 문제가 된다. 보다 구체적으로, 정보는 임의적인(Random) 특성을 가지므로, 길이가 k인 정보의 경우, AI는 2k경우에 대해서 학습해야 한다. 정보의 길이(크기)가 커질수록 AI가 학습해야 할 공간의 크기가 기하급수적으로 증가하는 문제를 해결하기 위해, 송신단 인코더 뉴럴 네트워크/수신단 디코더 뉴럴 네트워크는 특정한 구조적인 제한을 가지도록 구성될 수 있고, 뉴럴 네트워크는 상기 특정한 구조를 학습할 수 있다. When AI is applied to (channel) coding, the space of information that AI needs to learn becomes an important issue. More specifically, since information has a random property, for information of length k, AI must learn for 2k cases. In order to solve the problem that the size of the space to be learned by AI increases exponentially as the length (size) of information increases, the transmitter-end encoder neural network/receive-end decoder neural network can be configured to have specific structural limitations and , the neural network can learn the specific structure.
본 명세서에서 제안하는 SCNN-AE의 경우, 송신단 인코더와 수신단 디코더를 구성하기 위해 컨볼루션 뉴럴 네트워크(Convolutional Neural Network: CNN)가 사용된다. CNN의 Kernel을 이용한 필터링(filtering)은 마치 convolution code와 비슷한 역할을 하기 때문이다. 송신단 인코더 단의 관점에서, 송신단 인코더를 구성하는 뉴럴 네트워크의 은닉층(Hidden layer)이 많을수록 입력이 더 잘 분리되는 특성이 있다. 반면, 은닉층의 개수가 늘어나면, 뉴럴 네트워크의 복잡도가 증가하고, 개수가 증가하는 정도에 비하여 성능의 개선의 정도가 미미해 지므로, 적절한 개수의 은닉층을 구성하는 것이 중요하다.In the case of SCNN-AE proposed in this specification, a convolutional neural network (CNN) is used to configure a transmitter encoder and a receiver decoder. This is because filtering using CNN's Kernel works like a convolution code. From the viewpoint of the encoder of the transmitter, the more hidden layers of the neural network constituting the encoder of the transmitter, the better the input is separated. On the other hand, as the number of hidden layers increases, the complexity of the neural network increases, and the degree of performance improvement becomes insignificant compared to the degree of increase in the number, so it is important to configure an appropriate number of hidden layers.
도 19는 본 명세서에서 제안하는 방법이 적용될 수 있는 뉴럴 네트워크를 구성하기 위한 기본 뉴럴 네트워크 구성 단위의 일 예를 나타낸 도이다.19 is a diagram illustrating an example of a basic neural network configuration unit for configuring a neural network to which the method proposed in the present specification can be applied.
본 명세서에서, (i) 송신단 인코더 뉴럴 네트워크를 구성하는 제 1 인코더 뉴럴 네트워크(f1) 및 제 2 인코더 뉴럴 네트워크(f2)와 (ii) 수신단 디코더 뉴럴 네트워크를 구성하는 제 1 디코더 뉴럴 네트워크(g1) 및 제 2 디코더 뉴럴 네트워크(g2)를 구성하는 방법은, 상기 f1, f2, g1 및 g2를 동일한 구조에 기초하여 구성하되, 각각에 적용되는 파라미터만을 다르게 적용하는 방법이다. 즉, 상기 f1, f2, g1 및 g2를 구성하기 위해 도 19에 도시된 뉴럴 네트워크 구성 단위가 동일하게 사용되고, 상기 f1, f2, g1 및 g2 각각의 은닉층의 개수(뉴럴 네트워크 구성 단위의 개수), 필터 개수 등의 파라미터가 상기 f1, f2, g1 및 g2 각각에 대하여 다르게 적용될 수 있다.In the present specification, (i) a first encoder neural network f1 and a second encoder neural network f2 constituting a transmitter-end encoder neural network, and (ii) a first decoder neural network g1 constituting a receiver-end decoder neural network and a method of configuring the second decoder neural network g2 is a method of configuring the f1, f2, g1 and g2 based on the same structure, but applying only the parameters applied to each differently. That is, to configure the f1, f2, g1, and g2, the neural network structural units shown in FIG. 19 are identically used, and the number of hidden layers of each of the f1, f2, g1 and g2 (the number of neural network structural units), A parameter such as the number of filters may be differently applied to each of f1, f2, g1, and g2.
도 19에서, Cin은 입력 데이터의 디멘젼(dimension)을 나타내고, k는 커널 크기(kernel-size)[필터 크기(filter-size)], Cout은 출력 데이터의 디멘젼을 나타내며, 상기 f1, f2, g1 및 g2 구성의 기초가 되는 뉴럴 네트워크 구성 단위는 입력 데이터에 대한 필터링(filtering)을 위한 필터링 함수(Conv1d)(1910) 및 상기 필터링 함수의 출력을 입력 받아 비선형화하는 활성화 함수(ACT)(activation function)(1920)로 구성된다. 뉴럴 네트워크는 계층(Layer) 간의 독립성을 유지하기 비-선형성(non-linearity) 기능이 있는 함수를 활성화 함수로 사용한다. 또한, 뉴럴 네트워크 학습에서 필수적인 역-전파(Back-propagation) 시 기울기 소멸(Vanishing Gradient) 문제를 해결하기 위해서, ReLu(Rectified Linear Unit) 함수 또는 ReLu 함수를 변형시킨 함수가 활성화 함수로 사용된다. 송신단 인코더/수신단 디코더의 f1(1,2), f2(1,2,3)/g1, g2는 하나의 뉴럴 네트워크 구성 단위(Conv1dCode)가 하나의 은닉층(Hidden layer)을 구성하고, Cin/Cout은 서로 다른 파라미터를 가진다. In FIG. 19 , Cin denotes a dimension of input data, k denotes a kernel-size (filter-size), and Cout denotes a dimension of output data, and the f1, f2, and g1 and a neural network constituting unit that is the basis of the g2 configuration is a filtering function (Conv1d) 1910 for filtering input data, and an activation function (ACT) (activation function) (activation function) that receives an output of the filtering function and non-linearizes it ) (1920). A neural network uses a function with non-linearity as an activation function to maintain independence between layers. In addition, in order to solve the problem of vanishing gradient during back-propagation, which is essential in neural network learning, a Rectified Linear Unit (ReLu) function or a modified ReLu function is used as an activation function. In f1(1,2), f2(1,2,3)/g1, g2 of the transmitter encoder/receiver decoder, one neural network constituent unit (Conv1dCode) constitutes one hidden layer, and Cin/Cout has different parameters.
도 20 및 도 21은 본 명세서에서 제안하는 뉴럴 네트워크 구성 단위에 기초하여 구성되는 송신단 인코더 뉴럴 네트워크의 일 예를 나타낸 도이다.20 and 21 are diagrams illustrating an example of a transmitter-end encoder neural network configured based on a neural network configuration unit proposed in the present specification.
먼저, 도 20는 도 16의 제 1 인코더 뉴럴 네트워크 및 제 2 인코더 뉴럴 네트워크를 구성하는 제 1 인코더 컴포넌트 뉴럴 네트워크의 일 예에 관한 도이다. 도 20에 도시된 것과 같이, 제 1 인코더 컴포넌트 뉴럴 네트워크는 2개의 계층으로 구성될 수 있고, 마지막단에서 선형 회귀(Linear regression)와 eLu(exponential linear unit) 함수가 활성화 함수로 사용된다. Co는 송신단 인코더에서 CNN의 컨볼루션을 위해 사용된 필터의 수를 나타낸다. 보다 구체적으로, 제 1 인코더 컴포넌트 뉴럴 네트워크에서, 2개의 계층 중 첫 번째 계층은 하나의 입력 데이터를 입력 받고, 출력 채널의 수가 Co개인 출력 데이터를 출력한다. 또한, 두 번째 계층은 첫 번째 계층으로부터 출력된 출력 채널의 수가 Co개인 출력 데이터를 입력 받고, 출력 채널의 수가 Co개인 출력 데이터를 출력한다. 이후, 두 번째 계층으로부터 출력된 출력 데이터에 선형 회귀가 적용되고, 상기 선형 회귀가 적용된 상기 두 번째 계층의 출력 데이터에 eLu함수가 적용되어 출력될 수 있다.First, FIG. 20 is a diagram illustrating an example of a first encoder component neural network constituting the first encoder neural network and the second encoder neural network of FIG. 16 . As shown in FIG. 20 , the first encoder component neural network may be composed of two layers, and in the last stage, a linear regression and an exponential linear unit (eLu) function are used as activation functions. Co represents the number of filters used for convolution of CNN in the transmitter encoder. More specifically, in the first encoder component neural network, a first layer among two layers receives one input data and outputs output data having Co number of output channels. Also, the second layer receives output data having Co output channels output from the first layer, and outputs output data having Co output channels. Thereafter, linear regression may be applied to the output data output from the second layer, and the eLu function may be applied and output to the output data of the second layer to which the linear regression is applied.
다음, 도 21은 도 16의 제 2 인코더 뉴럴 네트워크를 구성하는 제 2 인코더 컴포넌트 뉴럴 네트워크의 일 예에 관한 도이다. 도 21에 도시된 것과 같이, 제 2 인코더 컴포넌트 뉴럴 네트워크는 2개의 계층으로 구성될 수 있고, 마지막단에서 선형 회귀(Linear regression)와 eLu함수가 활성화 함수로 사용된다. Co는 송신단 인코더에서 CNN의 컨볼루션을 위해 사용된 필터의 수를 나타낸다. 보다 구체적으로, 제 2 인코더 컴포넌트 뉴럴 네트워크에서, 2개의 계층 중 첫 번째 계층은 입력 채널의 개수가 2개인 입력 데이터를 입력 받고, 출력 채널의 수가 Co개인 출력 데이터를 출력한다. 또한, 두 번째 계층은 첫 번째 계층으로부터 출력된 출력 채널의 수가 Co개인 출력 데이터를 입력 받고, 출력 채널의 수가 Co개인 출력 데이터를 출력한다. 이후, 두 번째 계층으로부터 출력된 출력 데이터에 선형 회귀가 적용되고, 상기 선형 회귀가 적용된 상기 두 번째 계층의 출력 데이터에 eLu 함수가 적용되어 출력될 수 있다.Next, FIG. 21 is a diagram illustrating an example of a second encoder component neural network constituting the second encoder neural network of FIG. 16 . As shown in FIG. 21 , the second encoder component neural network may consist of two layers, and in the last stage, a linear regression and an eLu function are used as activation functions. Co represents the number of filters used for convolution of CNN in the transmitter encoder. More specifically, in the second encoder component neural network, a first layer among two layers receives input data having two input channels and outputs output data having a number of output channels Co. Also, the second layer receives output data having Co output channels output from the first layer, and outputs output data having Co output channels. Thereafter, linear regression may be applied to the output data output from the second layer, and the eLu function may be applied and output to the output data of the second layer to which the linear regression is applied.
도 20 및 도 21에서, Co의 값을 증가 시키면, 뉴럴 네트워크의 정확도는 증가하나, 학습시간과 복잡도가 함께 증가하게 되므로, 본 명세서에서 제안하는 방법은 Co=100인 경우에 바람직하게 적용될 수 있다.20 and 21 , if the value of Co is increased, the accuracy of the neural network increases, but the learning time and complexity increase together. .
도 22는 본 명세서에서 제안하는 뉴럴 네트워크 구성 단위에 기초하여 구성되는 수신단 디코더 뉴럴 네트워크의 일 예를 나타낸 도이다.22 is a diagram illustrating an example of a receiver decoder neural network configured based on a neural network configuration unit proposed in the present specification.
먼저, 도 22는 도 17의 제 1 디코더 뉴럴 네트워크(g1) 및 제 2 디코더 뉴럴 네트워크(g2)를 구성하는 일 예에 관한 도이다. 도 22에 도시된 것과 같이, 제 1 인코더 컴포넌트 뉴럴 네트워크는 5개의 계층으로 구성될 수 있고, 마지막단에서 선형 회귀(Linear regression)와 sigmoid 함수가 활성화 함수로 사용된다. Ci는 제 1 디코더 뉴럴 네트워크(g1) 및 제 2 디코더 뉴럴 네트워크(g2)에서의 입력 디멘젼을 나타내는데, 제 1 디코더 뉴럴 네트워크(g1) 의 경우 Ci=5이고 Co=100, FT=5이다. 제 2 디코더 뉴럴 네트워크(g2)의 경우 Ci=8이고 Co=100, FT=5이다. 여기서, g2의 Ci=8인 이유는 채널로부터 수신하는 입력(x0, x1, x2)와 해당 기본 수신단 디코더 뉴럴 네트워크의 바로 이전에 연결된 기본 수신단 디코더 뉴럴 네트워크로부터 입력 받은 A priori data가 (FT, dimension=5)이기 때문이다. g1이 경우, 채널로부터 입력 데이터를 입력 받지 않으므로, Ci=5 이다.First, FIG. 22 is a diagram illustrating an example of configuring the first decoder neural network g1 and the second decoder neural network g2 of FIG. 17 . As shown in FIG. 22 , the first encoder component neural network may be composed of five layers, and a linear regression and a sigmoid function are used as activation functions in the last stage. Ci denotes input dimensions in the first decoder neural network g1 and the second decoder neural network g2. In the case of the first decoder neural network g1, Ci=5, Co=100, FT=5. For the second decoder neural network g2, Ci=8, Co=100, and FT=5. Here, the reason that Ci=8 of g2 is that the input (x0, x1, x2) received from the channel and the A priori data received from the basic receiving-end decoder neural network connected immediately before the corresponding basic receiving-end decoder neural network are (FT, dimension) =5) because In the case of g1, since no input data is received from the channel, Ci=5.
여기서, Co 와 FT는 수신단 디코더 뉴럴 네트워크의 학습 전에 설정되는 값으로, Co 와 FT는 값이 커질수록 뉴럴 네트워크의 정확도는 증가하나, 학습시간과 복잡도가 증가된다. Here, Co and FT are values set before learning of the receiver-end decoder neural network, and as Co and FT values increase, the accuracy of the neural network increases, but the learning time and complexity increase.
활성화 함수(Activation functions) 결정 방법 - (제안 2)How to Determine Activation Functions - (Proposal 2)
본 제안은 본 명세서에서 제안하는 뉴럴 네트워크 구성 방법에 적용될 수 있는 활성화 함수 선정 방법에 관한 것이다. This proposal relates to a method for selecting an activation function that can be applied to the method for constructing a neural network proposed in the present specification.
뉴럴 네트워크에 사용되는 활성화 함수와 관련하여 아래와 같은 요구사항이 존재한다.Regarding the activation function used in the neural network, the following requirements exist.
1. 뉴럴 네트워크에서 계층(Layer)을 깊게 쌓기 위해서는 비선형함수를 필요로 한다.1. In order to build deep layers in a neural network, a nonlinear function is required.
2. 역-전파(Back-propagation) 시 기울기 소멸(Vanishing Gradient) 문제가 없는 함수를 사용해야 한다.2. When back-propagation, a function that does not have the problem of vanishing gradient should be used.
위의 요구 사항을 만족하는 활성화 함수로 ReLu(Rectified Linear Unit)함수가 있다. 상기 ReLu 함수는 연산이 빠르고, 수렴속도가 빠르다는 장점이 있으나, 입력이 음수일 때, 기울기(Gradient)가 '0'이 되어 학습이 되지 않는다는 단점이 있다. 위와 같은 ReLu 함수의 단점을 보완하기 위해 3가지의 수정된 ReLu 함수가 사용될 수 있다.As an activation function that satisfies the above requirements, there is a Rectified Linear Unit (ReLu) function. The ReLu function has advantages in that the operation is fast and the convergence speed is fast, but when the input is negative, the gradient becomes '0' and thus learning is not performed. In order to compensate for the above disadvantages of the ReLu function, three modified ReLu functions can be used.
도 23은 본 명세서에서 제안하는 뉴럴 네트워크 구성 방법에서 사용될 수 있는 다양한 활성화 함수들의 예시를 나타낸 도면이다. 23 is a diagram illustrating examples of various activation functions that can be used in the method for constructing a neural network proposed in the present specification.
도 23을 참조하면, ReLu 함수의 단점을 보완하기 위한 3가지 함수, 즉 PReLu 함수(2320), LeakyRelu 함수(2330) 및 eRelu 함수(2340)가 도시되어 있다. 도 23에서 도시된 활성화 함수들(2320, 2330, 2340)은 입력 값이 음인 경우에도 기울기가 0아님을 알 수 있다.Referring to FIG. 23 , three functions for compensating for the shortcomings of the ReLu function, that is, a PReLu function 2320 , a LeakyRelu function 2330 , and an eRelu function 2340 are shown. It can be seen that the inclinations of the activation functions 2320 , 2330 , and 2340 shown in FIG. 23 are not 0 even when the input value is negative.
본 명세서에서 제안하는 SCNN-AE는 ReLu기반 다양한 함수에 대한 실험 결과 및 성능과 복잡도에 기초하여 적절한 활성화 함수를 결정할 수 있도록 설계될 수 있다. 본 제안에서는 도 23에서 도시된 함수들 중 ReLu(2310), PReLu(2320), eReLu(2340)에 기초하여 실험 결과 및 성능과 복잡도에 기초하여 뉴럴 네트워크에서 사용될 활성화 함수를 선택하는 것을 제안한다. The SCNN-AE proposed in this specification can be designed to determine an appropriate activation function based on the experimental results and performance and complexity of various ReLu-based functions. This proposal proposes to select an activation function to be used in a neural network based on experimental results, performance, and complexity based on ReLu 2310 , PReLu 2320 , and eReLu 2340 among the functions shown in FIG. 23 .
상기 표 2는 ReLu(2310), PReLu(2320), eReLu(2340) 함수들의 수학식, 각각의 장/단점을 정리한 표이다.Table 2 above is a table summarizing the equations of the ReLu (2310), PReLu (2320), and eReLu (2340) functions, and advantages/disadvantages of each.
Figure PCTKR2021005384-appb-img-000011
Figure PCTKR2021005384-appb-img-000011
eReLu 함수는 exponential 함수가 사용되어 함수의 복잡도는 증가하지만, 음수 값에 대해서 비선형성이 나머지 2개의 함수들에 비해 강하므로 음수 값에서 나머지 2개의 함수들에 비해서 더 좋은 성능을 낼 수 있다. PReLu는 성능과 복잡도 측면에서 모두 이득을 줄 수 있는 형태로, 나머지 2개의 함수들의 중간 성능을 가질 것을 기대할 수 있다. 특히, PReLu의 상수 'a'의 값은 뉴럴 네트워크의 학습(Training)을 통해 결정될 수 있다. The eReLu function uses an exponential function to increase the complexity of the function, but for negative values, the nonlinearity is stronger than the other two functions, so it can perform better than the other two functions at negative values. PReLu is a form that can give benefits both in terms of performance and complexity, and can be expected to have intermediate performance of the other two functions. In particular, the value of the constant 'a' of PReLu may be determined through training of the neural network.
인터리버 디자인(Interleaver Design) 방법 - (제안 3)Interleaver Design Method - (Proposition 3)
본 제안은 송신단 인코더 뉴럴 네트워크 및 수신단 디코더 뉴럴 네트워크에서 사용되는 인터리버의 디자인에 관한 것인데, 인터리버의 사용을 통하여 아래와 같은 이득을 얻을 수 있다.This proposal relates to the design of an interleaver used in a transmitter-end encoder neural network and a receiver-end decoder neural network. The following benefits can be obtained through the use of the interleaver.
1) 인코딩에서 인터리버를 사용함으로써, 코딩의 성능에 가장 큰 영향을 미치는 Block length가 커지는 효과가 있다. 1) By using an interleaver in encoding, there is an effect that the block length, which has the greatest influence on the performance of coding, increases.
2) 디코딩에서 인터리버/디-인터리버를 사용함으로써, 수신단 디코더 뉴럴 네트워크를 구성하는 제 1 디코더 뉴럴 네트워크(g1)과 제 2 디코더 뉴럴 네트워크(g2) 간의 반복 디코딩(iterative decoding)이 가능해 진다. 디코더 단에서는 2개의 디코더가 서로 상관되지 않은(uncorrelated) 정보를 사용해서 디코딩 한다. 일반적으로 인터리버의 크기가 커질수록, 임의성(randomness)이 증가해서 디코더 성능이 증가할 수 있다.2) By using the interleaver/de-interleaver in decoding, iterative decoding between the first decoder neural network g1 and the second decoder neural network g2 constituting the receiver-end decoder neural network is possible. At the decoder stage, two decoders decode using uncorrelated information. In general, as the size of the interleaver increases, randomness may increase and thus decoder performance may increase.
본 제안에서는 아래의 2가지 요구 사항을 만족하도록 인터리버를 디자인 하도록 한다. In this proposal, the interleaver is designed to satisfy the following two requirements.
1. 임의성(Randomness)이 일정 수준 이상 보장될 것.1. Randomness must be guaranteed over a certain level.
2. 구현의 용이성을 고려하여, 인터리버 패턴(Interleaver pattern) 생성을 위해 테이블(Table)이 아닌 수식으로 표현 가능할 것. 이는 정보 크기(Information size)별로 테이블을 구성하는 경우 구현의 복잡도가 증가되기 때문이다. 2. Considering the ease of implementation, it should be possible to express the interleaver pattern as a formula rather than a table. This is because the complexity of implementation increases when tables are organized by information size.
3. 하드웨어(H/W)가 지원될 경우, 병렬 프로세싱(Parallel processing)이 가능한 구조일 것.3. If hardware (H/W) is supported, the structure must be capable of parallel processing.
위의 요구사항을 만족하는 인터리버 생성 방법으로 QPP(Quadratic Polynomial Permutation) 인터리버가 있을 수 있다. 상기 QPP 인터리버는 아래와 같은 수학식에 기초하여 생성될 수 있다.As an interleaver generation method satisfying the above requirements, there may be a Quadratic Polynomial Permutation (QPP) interleaver. The QPP interleaver may be generated based on the following equation.
Figure PCTKR2021005384-appb-img-000012
Figure PCTKR2021005384-appb-img-000012
여기서, L은 인터리버의 크기이고, f0은 상수 오프셋(constant offset)인데, 특히, 본 제안에서는 상기 f0=0으로 정의한다. f1은 상기 L과 서로소 관계를 만족하는 소수(prime number)이다. f1이 상기 L의 값과 상관 없이 L과 서로소 관계에 있도록 하기 위해, 상기 f1의 값은 소수로 결정될 수 있다. f2는 L의 약수(fraction)들 중 2의 거듭 제곱 수(power of 2)에 해당하는 수이다. f2를 2의 거듭 제곱 수로 설정하는 것은 수식을 단순하게 구성하기 위함이다. 여기서, f2의 값에 기초하여 최대 병렬 연산 단위가 결정될 수 있다. 가능한 Parallel fact는 f2의 공약수들로 구성될 수 있다. 예를 들어, f2=16인 경우, 16의 약수는 (1,2,4,8,16)이고, 이 약수들이 가능한 parallel fact가 된다. Here, L is the size of the interleaver, and f0 is a constant offset. In particular, in the present proposal, f0=0 is defined. f1 is a prime number that satisfies the relation with L. In order for f1 to be in a mutual relationship with L regardless of the value of L, the value of f1 may be determined to be a prime number. f2 is a number corresponding to a power of 2 among fractions of L. Setting f2 to a power of 2 is to simplify the formula. Here, the maximum parallel operation unit may be determined based on the value of f2. A possible parallel fact can be composed of the common divisors of f2. For example, when f2=16, the divisors of 16 are (1,2,4,8,16), and these divisors are possible parallel facts.
이 때, 모든 인터리버 길이 L에 대해서 QPP 파라미터들을 정의하는 복잡하므로, 피벗(pivot)에 해당하는 인터리버 사이즈 L을 정의하고, 피벗 사이의 정보 크기(information size) K는 L >= K와 같은 관계로 정의한다. 즉, K보다 큰 수중 가장 작은 L이 인터리버의 크기로 결정된다. 아래의 표 3의 규칙에 따라서 인터리빙이 수행될 수 있다.At this time, since it is complicated to define QPP parameters for all interleaver lengths L, the interleaver size L corresponding to the pivot is defined, and the information size K between the pivots has the same relationship as L >= K. define. That is, the smallest L among the numbers larger than K is determined as the size of the interleaver. Interleaving may be performed according to the rules of Table 3 below.
Figure PCTKR2021005384-appb-img-000013
Figure PCTKR2021005384-appb-img-000013
도 24 및 도 25는 본 명세서에서 제안하는 인터리버 디자인 방법의 일 예를 나타낸 도이다. 24 and 25 are diagrams illustrating an example of an interleaver design method proposed in the present specification.
보다 구체적으로, 도 24 및 도 25는 인터리버의 길이 L = 16이고, 상기 수학식 2의 f0=0, f1=3, f2=4이며, 정보 크기(information size) K=16인 경우에 관한 것이다. 상기 수학식 2에 L = 16, f0=0, f1=3, f2=4가 적용되어 아래와 같은 수식에 기초하여 인터리빙이 수행될 수 있다.More specifically, FIGS. 24 and 25 relate to a case where the interleaver length L = 16, f0 = 0, f1 = 3, f2 = 4 in Equation 2, and information size K = 16 . L = 16, f0 = 0, f1 = 3, and f2 = 4 are applied to Equation 2 above, so that interleaving can be performed based on the following Equation.
Figure PCTKR2021005384-appb-img-000014
Figure PCTKR2021005384-appb-img-000014
보다 구체적으로, 도 24 및 도 25는 인터리버의 길이 L = 16이고, 상기 수학식 2의 f0=0, f1=3, f2=4이며, 정보 크기(information size) K=16인 경우에 관한 것이다. 상기 수학식 2에 L = 16, f0=0, f1=3, f2=4가 적용되어 아래와 같은 수식에 기초하여 인터리빙이 수행될 수 있다.More specifically, FIGS. 24 and 25 relate to a case where the interleaver length L = 16, f0 = 0, f1 = 3, f2 = 4 in Equation 2, and information size K = 16 . L = 16, f0 = 0, f1 = 3, and f2 = 4 are applied to Equation 2 above, so that interleaving can be performed based on the following Equation.
도 24는 병렬 연산이 수행되지 않는, 즉 single bank memory의 경우를 나타낸 도이다.24 is a diagram illustrating a case in which parallel operation is not performed, that is, a single bank memory.
도 25는 2개의 인터리빙 연산이 병렬적으로 수행되는, 즉 2-bank memory의 경우를 나타낸 도이다. 도 25를 참조하면, 2-bank memory인 경우, 1st bank(0~7)과 2nd bank(8~15)가 동시에 활성화 되는 경우(즉, memory conflict)가 생기기 않음을 알 수 있다. 즉, 1st bank에서 0~7 중 하나의 값이 활성화되는 경우, 2nd bank에서는 8~15 중 하나의 값만이 활성화된다. 반대로, 1st bank에서 8~15 중 하나의 값이 활성화되는 경우, 2nd bank에서는 0~7 중 하나의 값만이 활성화된다.25 is a diagram illustrating a case in which two interleaving operations are performed in parallel, that is, a 2-bank memory. Referring to FIG. 25 , it can be seen that, in the case of 2-bank memory, when the 1st bank (0-7) and the 2nd bank (8-15) are simultaneously activated (that is, a memory conflict) does not occur. i.e. 1st If any one of 0~7 is activated in the bank, only one of 8~15 is activated in the 2nd bank. Conversely, 1st If one of the values from 8 to 15 is activated in the bank, only one value from 0 to 7 is activated in the 2nd bank.
풀링 계층(Pooling layer) 구성 방법-(제안 4)How to configure a pooling layer - (Proposal 4)
CNN의 형태를 갖는 딥 러닝(Deep Learning) 구조에서 아래와 같은 2가지 이유로 풀링(Pooling) 기법이 사용된다. In the deep learning structure in the form of CNN, the pooling technique is used for the following two reasons.
1) 과적합(Over fitting)을 방지할 수 있음. 여기서, 과적합이란 뉴럴 네트워크가 학습 데이터에 대해 과하게 학습하게 되어, 실제 데이터에 대한 오차가 증가하는 현상을 의미한다.1) It can prevent overfitting. Here, overfitting refers to a phenomenon in which the neural network over-learns the training data, and thus the error with respect to the actual data increases.
2) 입력 데이터로부터 추출된 특징(Feature)을 유지하면서도 추출된 특징의 디멘젼(dimension)을 줄일 수 있기 때문에 뉴럴 네트워크의 복잡도를 줄일 수 있음.2) The complexity of the neural network can be reduced because the dimension of the extracted feature can be reduced while maintaining the feature extracted from the input data.
일반적으로, CNN 형태의 뉴럴 네트워크는 영상처리(인식, 분류 등)에서 많이 사용된다. 이 때, 영상처리의 CNN에서 풀링을 사용하는 것은, 한 장의 이미지(Image)(입력 데이터)에서 Cout(Number of out channels)는 변경하지 않고, 각각의 채널에서의 상기 한 장의 이미지로부터 추출된 특징(출력 데이터)의 디멘젼(Dimension)을 줄이는 것으로 이해될 수 있다.In general, CNN-type neural networks are widely used in image processing (recognition, classification, etc.). At this time, the use of pooling in the CNN of image processing is a feature extracted from the single image in each channel without changing Cout (Number of out channels) in one image (input data). It can be understood as reducing the dimension of (output data).
도 26은 본 명세서에서 제안하는 풀링 계층 구성 방법의 이해를 돕기 위한 도이다. 26 is a diagram to help understand the pooling layer configuration method proposed in the present specification.
보다 구체적으로, 도 26은 CNN에서 풀링을 적용하여 각 채널에서의 출력 데이터의 디멘젼을 줄이는 기존 방식의 일 예에 관한 것이다. CNN에서, 컨볼루션 계층은 입력 데이터에 필터링을 수행하여 특징 맵(Feature map)을 생성하고, 상기 특징 맵에 활성화 함수가 적용되어 활성화 맵(Activation Map)을 생성한다. 즉, 하나의 컨볼루션 계층의 최종 출력 결과로서 활성화 맵이 생성될 수 있다. 이 때, 특징 맵/활성화 맵의 채널 개수는 입력 데이터에 적용된 필터의 개수만큼의 값을 갖는다. 풀링은 상기 활성화 맵에 적용되는데, 풀링을 적용함으로써 상기 활성화 맵의 크기(디멘젼)가 감소될 수 있다. More specifically, FIG. 26 relates to an example of an existing method of reducing the dimension of output data in each channel by applying pooling in CNN. In CNN, a convolutional layer generates a feature map by filtering input data, and an activation function is applied to the feature map to generate an activation map. That is, an activation map may be generated as a final output result of one convolutional layer. In this case, the number of channels of the feature map/activation map has a value equal to the number of filters applied to the input data. Pooling is applied to the activation map. By applying pooling, the size (dimension) of the activation map may be reduced.
도 26을 참조하면, 4*4 크기의 활성화 맵(2610)에 2*2 크기의 풀링이 적용되고, 그 결과로서 활성화 맵(2610)의 크기가 감소되어 2*2 크기의 출력 데이터가 생성될 수 있다. 도 26에서, 2620은 풀링 윈도우 내에서 가장 큰 값을 선택하는 방식으로 풀링 계층의 출력 데이터를 생성하는 최대 풀링(max pooling) 방식을 나타내고, 2630은 풀링 윈도우 내에 포함된 값들의 평균을 취하는 방식으로 풀링 계층의 출력 데이터를 생성하는 평균 풀링(average pooling) 방식을 나타낸다.Referring to FIG. 26 , a pooling of a size of 2*2 is applied to an activation map 2610 of a size of 4*4, and as a result, the size of the activation map 2610 is reduced to generate output data of a size of 2*2. can In FIG. 26, 2620 indicates a max pooling method that generates output data of a pooling layer in a manner of selecting the largest value within the pooling window, and 2630 indicates an average of values included in the pooling window. An average pooling method for generating output data of a pooling layer is shown.
영상 이미지는 상하좌우 픽셀 간의 상관성(correlation)이 크기 때문에, 도 26에서 설명한 방식에 따라 풀링을 적용하여 컨볼루션 레이어의 출력 데이터의 디멘젼(dimension)을 줄이더라도 출력 데이터의 특징(feature)을 유지하는 것이 용이할 수 있다.Since the video image has a large correlation between the upper, lower, left, and right pixels, the feature of the output data is maintained even if the dimension of the output data of the convolutional layer is reduced by applying the pooling according to the method described in FIG. it can be easy
반면, 영상 이미지 처리의 경우와 달리, 본 명세서에서 제안하는 방법들이 적용되는 코딩(coding)에서는 입력 데이터가 랜덤(random)하다. 따라서, 입력 데이터의 전후(또는 좌우)간에 상관성이 존재하지 않는다. 이와 같은 이유로, 본 명세서에서 제안하는 방법들이 적용되는 코딩에서는 풀링을 도 26에서 설명한 방식으로는 적용하기 어려울 수 있다. On the other hand, unlike the case of image processing, input data is random in the coding to which the methods proposed in this specification are applied. Therefore, there is no correlation between the front and rear (or left and right) of the input data. For this reason, in coding to which the methods proposed in this specification are applied, it may be difficult to apply pooling in the manner described in FIG. 26 .
도 27은 뉴럴 네트워크에 사용되는 필터 수의 증가에 따른 뉴럴 네트워크의 학습 능력의 변화를 나타낸 도이다. 보다 구체적으로, 도 27은 송신단 인코더 뉴럴 네트워크는 2 계층의 CNN으로 구성되고, 수신단 디코더 뉴럴 네트워크는 5 계층의 CNN으로 구성된 경우에 관한 것이다.27 is a diagram illustrating a change in learning ability of a neural network according to an increase in the number of filters used in the neural network. More specifically, FIG. 27 relates to a case in which the transmitter-end encoder neural network is composed of a two-layer CNN, and the receiver-end decoder neural network is composed of a five-layer CNN.
도 27에 도시된 것과 같이, 많은 수의 필터가 사용될수록 뉴럴 네트워크의 학습 능력이 증가될 수 있으나, 필터의 수는 CNN에서의 복잡도와 직결된다.As shown in FIG. 27 , as a large number of filters are used, the learning ability of the neural network may be increased, but the number of filters is directly related to the complexity of the CNN.
본 제안은 출력 채널의 수를 줄이기 위해 풀링 기법을 적용하는 것인데, 이를 통해 성능의 감소(Loss)는 최소화 하면서 뉴럴 네트워크의 복잡도를 감소시킬 수 있다. 즉, 기존 CNN 풀링 기법은 컨볼루션 계층의 출력 채널 수는 유지하면서, 각 채널의 데이터의 크기를 줄이는 방식인 반면, 본 제안의 풀링 기법은 각 채널의 데이터의 크기는 유지하고, 컨볼루션 계층의 출력 채널 수를 줄이는 방식이다. This proposal applies a pooling technique to reduce the number of output channels. Through this, the complexity of the neural network can be reduced while minimizing performance loss. That is, the existing CNN pooling technique is a method of reducing the data size of each channel while maintaining the number of output channels of the convolutional layer, whereas the pooling technique of this proposal maintains the data size of each channel and reduces the size of the convolutional layer. This is a way to reduce the number of output channels.
또한, 본 제안은 풀링 계층의 위치를 기존의 CNN에서의 위치와 달리 구성하는 것을 추가적으로 제안한다.In addition, this proposal additionally proposes to configure the position of the pooling layer differently from the position in the existing CNN.
도 28은 본 명세서에서 제안하는 풀링 계층 구성 방법의 일 예를 나타낸 도이다.28 is a diagram illustrating an example of a method for configuring a pooling layer proposed in the present specification.
도 28을 참조하면, 2810은 입력 데이터의 필터링을 위한 필터링 함수, 활성화 함수 및 풀링 계층이 순차적으로 위치하는 기존의 CNN 형태를 나타낸 것이다. Referring to FIG. 28 , 2810 shows a conventional CNN form in which a filtering function, an activation function, and a pooling layer for filtering input data are sequentially located.
반면, 2820에서는, 활성화 함수 및 풀링 계층의 위치가 서로 바뀌게 되어, CNN은 입력 데이터의 필터링을 위한 필터링 함수, 풀링 계층 및 활성화 함수가 순차적으로 위치하는 형태를 갖는다. 2820에서, 풀링 계층은 필터링 함수의 출력 데이터의 채널 수를 감소시킬 수 있다. 풀링 계층에 의하여 필터링 함수의 출력 데이터에 풀링이 적용된 경우, 상기 필터링 함수의 출력 데이터는 출력 채널의 수가 감소되므로, 활성화 함수의 수도 감소된 출력 채널의 수만큼 감소하게 된다. On the other hand, in 2820, the positions of the activation function and the pooling layer are exchanged, so that the CNN has a form in which the filtering function for filtering input data, the pooling layer, and the activation function are sequentially located. At 2820 , the pooling layer may reduce the number of channels of output data of the filtering function. When pooling is applied to the output data of the filtering function by the pooling layer, the number of output channels of the output data of the filtering function is reduced, so that the number of activation functions is also reduced by the reduced number of output channels.
본 제안에서의 풀링이 적용되면 뉴럴 네트워크의 복잡도가 감소되는 장점이 있으나, 풀링이 과도하게 적용되는 경우, 출력 데이터의 특징(Feature)이 사라지는 문제가 생길 수 있다. 따라서, 본 제안은 송신단 인코더 뉴럴 네트워크 및 수신단 디코더 뉴럴 네트워크를 구성하는 적어도 하나 이상의 컨볼루션 계층들 중 첫 번째 컨볼루션 계층에서만 풀링을 적용하는 경우에 바람직하게 적용될 수 있다. When pooling in the present proposal is applied, there is an advantage in that the complexity of the neural network is reduced. However, when pooling is applied excessively, there may be a problem in that a feature of the output data disappears. Therefore, the present proposal can be preferably applied to a case where pooling is applied only to the first convolutional layer among at least one or more convolutional layers constituting the transmitter-end encoder neural network and the receiver-end decoder neural network.
도 29는 풀링 계층이 적용된 뉴럴 네트워크 구성 단위(Conv1dCode) 구조의 일 예를 나타낸 도이다.29 is a diagram illustrating an example of a structure of a neural network configuration unit (Conv1dCode) to which a pooling layer is applied.
보다 구체적으로, 도 29는 도 19에서 설명된 뉴럴 네트워크 구성 단위(Conv1dCode)에 본 제안의 풀링이 적용된 경우를 예시한다.More specifically, FIG. 29 illustrates a case in which the pooling of the present proposal is applied to the neural network configuration unit (Conv1dCode) described in FIG. 19 .
도 29에서, 2910은 도 19에서 설명된 뉴럴 네트워크 구성 단위를 나타낸다. 2920은 본 제안의 출력 데이터의 채널 수를 감소시키는 방식을 사용하는 풀링 계층이 뉴럴 네트워크 구성 단위에 더 포함되되, 뉴럴 네트워크 구성 단위는 입력 데이터의 필터링을 위한 필터링 함수(Conv1d), 활성화 함수 및 풀링 계층이 순차적으로 위치하는 구조로 구성된다. 2930은 본 제안의 출력 데이터의 채널 수를 감소시키는 방식을 사용하는 풀링 계층이 뉴럴 네트워크 구성 단위에 더 포함되되, 뉴럴 네트워크 구성 단위는 입력 데이터의 필터링을 위한 필터링 함수, 풀링 계층 및 활성화 함수가 순차적으로 위치하는 구조로 구성된다. 풀링 계층을 활성화 함수 앞에 위치시킴으로써 필터링 함수 출력 데이터의 채널의 수가 감소되므로, CNN의 복잡도가 감소될 수 있다. 도 29에서, Cin은 입력 데이터의 입력 채널의 수, k는 커널 크기(kernel-size), Cout은 필터링 함수의 출력 데이터의 출력 채널 수이다. 앞서 설명된 최대 풀링과 평균 풀링 중에서 하나가 풀링 방법으로 선택될 수 있다. 잡음(Noise) 효과를 감소시키기 위해, 본 제안은 평균 풀링이 사용되는 경우에 대하여 바람직하게 적용될 수 있다.In FIG. 29 , 2910 represents the neural network configuration unit described in FIG. 19 . In 2920, a pooling layer using a method of reducing the number of channels of the output data of the present proposal is further included in the neural network constituent unit, and the neural network constituent unit is a filtering function (Conv1d) for filtering input data, an activation function, and a pooling It consists of a structure in which the layers are sequentially located. In 2930, a pooling layer using a method of reducing the number of channels of the output data of the present proposal is further included in the neural network constituent unit, wherein the neural network constituent unit has a filtering function, a pooling layer, and an activation function for filtering input data sequentially It consists of a structure in which Since the number of channels of the filtering function output data is reduced by placing the pooling layer before the activation function, the complexity of the CNN can be reduced. In FIG. 29 , Cin is the number of input channels of input data, k is a kernel-size, and Cout is the number of output channels of output data of the filtering function. One of the maximum pooling and average pooling described above may be selected as the pooling method. In order to reduce the noise effect, this proposal can be preferably applied to the case where average pooling is used.
도 30은 본 명세서에서 제안하는 풀링 계층 구성 방법의 수신단 디코더 뉴럴 네트워크에의 적용 여부에 기초한 복잡도의 비교 분석 결과를 나타낸 도이다. 보다 구체적으로, 도 30은 Block length=100, 디코더 특징 크기(Decoder feature size)=5, 커널 크기(kernel_size)=5, 필터의 개수(# of filter)=100로 설정된 경우에 관한 것며, 풀링이 적용되지 않은 수신단 디코더 뉴럴 네트워크(3010)와 첫 번째 계층에서만 풀링이 적용된 수신단 디코더 뉴럴 네트워크(3020)의 복잡도를 비교 분석한 결과에 관한 것이다. 30 is a diagram illustrating a comparison analysis result of complexity based on whether or not the method for constructing a pooling layer proposed in the present specification is applied to a receiver-end decoder neural network. More specifically, FIG. 30 relates to a case where Block length=100, Decoder feature size=5, Kernel_size=5, Number of filters=100, and the pooling is It relates to a result of comparing and analyzing the complexity of the unapplied receiver decoder neural network 3010 and the receiver decoder neural network 3020 to which pooling is applied only in the first layer.
첫 번째 계층에서만 풀링이 적용된 수신단 디코더 뉴럴 네트워크(3020)에서의 첫 번째 계층의 덧셈 연산을 참고하면, 수신단 디코더 뉴럴 네트워크(3020)에서 적용되는 풀링은 전체 100개의 출력 채널들에 대하여 2개의 출력 채널씩 더하여 평균을 취하는 방식의 평균 풀링을 사용하므로, 풀링이 적용되지 않은 수신단 디코더 뉴럴 네트워크(3010)의 경우와 비교하여 50회의 덧셈 연산이 추가적으로 수행된다. 반면, 첫 번째 계층에서만 풀링이 적용된 수신단 디코더 뉴럴 네트워크(3020)에서의 첫 번째 계층의 활성화 함수의 개수(ACT)를 참고하면, 풀링을 통해 출력 채널의 개수가 100개에서 50개로 감소되므로, 풀링이 적용되지 않은 수신단 디코더 뉴럴 네트워크(3010)의 경우와 비교하여, 활성화 함수의 개수가 50개 덜 사용된다.Referring to the addition operation of the first layer in the receiving-end decoder neural network 3020 to which the pooling is applied only to the first layer, the pooling applied in the receiving-end decoder neural network 3020 is 2 output channels for a total of 100 output channels. Since average pooling of a method of adding and taking an average is used, 50 addition operations are additionally performed compared to the case of the receiver decoder neural network 3010 to which pooling is not applied. On the other hand, referring to the number of activation functions (ACT) of the first layer in the receiving-end decoder neural network 3020 to which the pooling is applied only to the first layer, the number of output channels is reduced from 100 to 50 through pooling. Compared to the case of the receiver decoder neural network 3010 to which this is not applied, 50 fewer activation functions are used.
도 30에서, 두 번째 계층부터 다섯 번째 계층 및 최종 결과에 대한 비교 분석 결과를 살펴보면, 곱셈(Mul), 덧셈(Add), 활성화 함수의 수(ACT)가 풀링을 적용하지 않은 경우에 비하여 전체적으로 약 50%정도 감소된다.In FIG. 30 , looking at the results of comparative analysis of the second to fifth layers and the final result, the number of multiplication (Mul), addition (Add), and activation functions (ACT) is approximately overall compared to the case where pooling is not applied. reduced by about 50%.
도 30에서는 첫 번째 계층에만 풀링이 적용된 경우를 설명하였으나, 두 번째 계층(Layer#2)이후의 계층에도 풀링이 적용 가능함은 물론이다. 두 번째 계층 이후의 계층에도 풀링을 적용하는 경우, 복잡도가 크게 감소할 수 있으나 성능저하가 야기될 수 있다. 따라서, 성능과 복잡도의 Trade-off를 고려하여 풀링을 적용할 계층이 결정될 수 있다.Although the case where the pooling is applied only to the first layer has been described in FIG. 30 , it goes without saying that the pooling is also applicable to the layers after the second layer (Layer #2). When pooling is also applied to layers after the second layer, complexity may be greatly reduced, but performance may be degraded. Accordingly, a layer to which pooling is applied may be determined in consideration of the trade-off of performance and complexity.
높은 코드 레이트 달성을 위한 레이트-매칭(Rate-Matching for higher code-rate) 방법 - (제안 5)Rate-Matching for higher code-rate method - (Proposition 5)
본 명세서에서 제안하는 SCNN-AE 구조에서, 송신단 인코더 뉴럴 네트워크(101)는 코드-레이트(Code-rate)가 1/3인 코드를 사용하는 경우에 대하여 앞서 설명하였다. 송신단 인코더 뉴럴 네트워크에서 1/3보다 큰 값의 코드-레이트가 사용되어야 하는 경우, 이 때 펀쳐링(Puncturing)을 통해서1/3보다 큰 값의 코드-레이트가 생성될 수 있다. In the SCNN-AE structure proposed in this specification, the case where the transmitter encoder neural network 101 uses a code having a code-rate of 1/3 has been described above. When a code-rate of greater than 1/3 is to be used in the transmitting-end encoder neural network, a code-rate of greater than 1/3 may be generated through puncturing at this time.
도 31은 본 명세서에서 제안하는 높은 코드 레이트 달성을 위한 레이트-매칭 방법의 일 예를 나타낸 도이다. 도 31에서, 레이트-매칭(rate-matching)(3104) 블록에서 펀쳐링이 수행되고, 수신단 디코더(103)는 디-레이트 매칭(de-rate matching) 블록(3105)을 통해 1/3보다 큰 값의 코드-레이트로 인코딩된 송신 신호를 복원할 수 있다. 이 때, 송신단 인코더(101)의 레이트 매칭/수신단 디코더(103)의 디-레이트 매칭을 위해 펀쳐링 패턴(Puncturing patterns)이 송신단 인코더(101) 및 수신단 디코더(103)에 제공될 수 있다. 여기서, 상기 펀쳐링 패턴은 송신단/수신단 에게 사전에 정의된 신호를 통해 제공될 수 있다.31 is a diagram illustrating an example of a rate-matching method for achieving a high code rate proposed in the present specification. In FIG. 31 , punching is performed in a rate-matching block 3104 , and the receiving-end decoder 103 receives greater than 1/3 through a de-rate matching block 3105 . It is possible to recover the encoded transmission signal at the code-rate of the value. In this case, puncturing patterns may be provided to the transmitter encoder 101 and the receiver decoder 103 for rate matching of the transmitter encoder 101/de-rate matching of the receiver decoder 103 . Here, the punching pattern may be provided to the transmitter/receiver through a predefined signal.
성능 분석(Performance Analysis)Performance Analysis
이하에서는, 앞서 설명된 방법들이 송신단/수신단에 적용된 경우의 채널 코딩 성능 분석 결과를 살펴보도록 한다.Hereinafter, a channel coding performance analysis result when the above-described methods are applied to the transmitter/receiver will be described.
풀링 계층 구성 방법(제안 4) 적용 시의 성능 분석Performance analysis when applying the pooling tier configuration method (Proposal 4)
도 32는 본 명세서에서 제안하는 풀링 계층 구성 방법 적용 시의 채널 코딩 성능을 나타낸 도이다.32 is a diagram illustrating channel coding performance when the pooling layer configuration method proposed in the present specification is applied.
보다 구체적으로, 도 32는 본 명세서에서 제안하는 풀링 계층 구성 방법이 적용된 경우의 채널 코딩 성능과 상기 풀링 계층 구성 방법이 적용되지 않은 경우의 채널 코딩 성능을 나타낸 도이다. 도 32에서의 y축은 BER을 나타내고, x는 SNR을 나타낸다. BER의 값이 작을수록 채널 코딩의 성능이 우수한 것으로 해석될 수 있으므로, 동일한 SNR값에서 더 아래에 위치하는 그래프가 채널 코딩의 성능이 우수한 것으로 볼 수 있다.More specifically, FIG. 32 is a diagram illustrating channel coding performance when the pooling layer configuration method proposed in the present specification is applied and channel coding performance when the pooling layer configuration method is not applied. In FIG. 32, the y-axis represents BER, and x represents SNR. Since it can be interpreted that the performance of the channel coding is excellent as the value of the BER is small, it can be seen that the graph located further below the same SNR value has the excellent performance of the channel coding.
도 32에서, 3210은 전통적인 LTE 터보 코드를 사용하는 경우의 채널 코딩 성능을 나타낸다. 3220은 PCCC-AE가 사용된 경우의 채널 코딩 성능을 나타내고, 3230은 SCCC-AE가 사용된 경우의 채널 코딩 성능을 나타낸다. 또한, 3240은 수신단 디코더에 풀링이 적용된 PCCC-AE가 사용되는 경우의 채널 코딩 성능을 나타내며, 3250은 수신단 디코더에 풀링이 적용된 SCCC-AE가 사용되는 경우의 채널 코딩 성능을 나타낸다. 마지막으로, 3260은 수신단 디코더에 풀링이 적용된 SCCC-AE가 사용되고, 활성화 함수 이전에 풀링 계층이 위치하는 경우(즉, 제안 4)의 채널 코딩 성능을 나타낸다. 상기 풀링은 출력 채널의 채널 수를 감소시키는 방식으로 수행되는 평균 풀링(Average pooing)을 의미한다.In FIG. 32 , 3210 indicates the channel coding performance in the case of using the traditional LTE turbo code. 3220 indicates channel coding performance when PCCC-AE is used, and 3230 indicates channel coding performance when SCCC-AE is used. In addition, 3240 indicates channel coding performance when PCCC-AE to which pooling is applied is used in the receiver decoder, and 3250 indicates channel coding performance when SCCC-AE to which pooling is applied is used in the receiver decoder. Finally, 3260 shows the channel coding performance when SCCC-AE to which pooling is applied is used in the receiver decoder and the pooling layer is located before the activation function (ie, proposal 4). The pooling refers to average pooling performed by reducing the number of channels of an output channel.
3260가 나타내는 그래프의 위치를 참고하면, 출력 채널 및 활성화 함수의 개수를 줄임으로써 복잡도가 크게 감소하였음에도 불구하고, SNR의 값의 1 내지 2인 지점에서부터는 3220 내지 3250 경우의 채널 코딩 성능과 비교하여 성능의 열화(Loss)가 거의 없음을 알 수 있다.Referring to the position of the graph indicated by 3260, even though the complexity is greatly reduced by reducing the number of output channels and activation functions, from the point where the SNR value is 1 to 2, compared to the channel coding performance of the 3220 to 3250 case, It can be seen that there is almost no loss of performance.
상기 도 32의 그래프에서, 동일한 형태로 그려진 legend가 상/하로 존재하는 것은, 뉴럴 네트워크에 사용된 필터의 개수에 따른 것으로 이해될 수 있다. 즉, 동일한 형태로 그려진 legend 간의 성능차이는 뉴럴 네트워크에 사용된 필터의 개수로 인한 것으로 이해될 수 있다. In the graph of FIG. 32 , it can be understood that the existence of legends drawn in the same shape at the top and bottom depends on the number of filters used in the neural network. That is, it can be understood that the performance difference between legends drawn in the same form is due to the number of filters used in the neural network.
인터리버 디자인 방법(제안 3) 적용 시의 성능 분석Performance analysis when applying the interleaver design method (Suggestion 3)
도 33 및 도 34는 본 명세서에서 제안하는 인터리버 디자인 방법 적용 시의 채널 코딩 성능을 나타낸 도이다.33 and 34 are diagrams illustrating channel coding performance when the interleaver design method proposed in the present specification is applied.
먼저, 도 33은 송신단 인코더 뉴럴 네트워크/수신단 디코더 뉴럴 네트워크에서 인터리버가 사용되지 않는 경우의 채널 코딩 성능과 인터리버가 사용되는 경우의 채널 코딩 성능을 나타낸 도이다.First, FIG. 33 is a diagram illustrating channel coding performance when an interleaver is not used and channel coding performance when an interleaver is used in a transmitter-end encoder neural network/receive-end decoder neural network.
도 33에서의 y축은 BER을 나타내고, x는 SNR을 나타낸다. BER의 값이 작을수록 채널 코딩의 성능이 우수한 것으로 해석될 수 있으므로, 동일한 SNR값에서 더 아래에 위치하는 그래프가 채널 코딩의 성능이 우수한 것으로 볼 수 있다. 도 33에서, 3310은 전통적인 LTE 터보 코드를 사용하는 경우의 채널 코딩 성능을 나타낸다. 3320은 PCCC-AE가 사용된 경우의 채널 코딩 성능을 나타내고, 3330은 SCCC-AE가 사용된 경우의 채널 코딩 성능을 나타낸다. 또한, 3340은 수신단 디코더에 풀링이 적용된 SCCC-AE가 사용되고, 활성화 함수 이전에 풀링 계층이 위치하는 경우의 채널 코딩 성능을 나타낸다. 이 때, 3310 내지 3340에서는 모두 인터리버가 사용된다. 마지막으로, 3350은 3340과 동일하나 인터리버가 사용되지 않는 경우의 채널 코딩 성능을 나타낸다. 도 33의 결과를 참조하면, SNR의 값이 변화에 따라, 인터리버가 사용되지 않는 경우가 다른 경우들에 비해서 가장 낮은 채널 코딩 성능을 보여줌을 알 수 있다. 도 33의 결과에 비추어, 양호한 채널 코딩 성능의 보장을 위해 인터리버가 사용되어야 함을 알 수 있다.In FIG. 33, the y-axis represents BER, and x represents SNR. Since it can be interpreted that the performance of the channel coding is excellent as the value of the BER is small, it can be seen that the graph located further below the same SNR value has the excellent performance of the channel coding. In FIG. 33 , 3310 represents the channel coding performance in the case of using the traditional LTE turbo code. 3320 indicates channel coding performance when PCCC-AE is used, and 3330 indicates channel coding performance when SCCC-AE is used. In addition, 3340 indicates channel coding performance when SCCC-AE to which pooling is applied is used in the receiver decoder and a pooling layer is located before the activation function. In this case, the interleaver is used in all of 3310 to 3340. Finally, 3350 is the same as 3340, but represents the channel coding performance when the interleaver is not used. Referring to the result of FIG. 33 , it can be seen that the case in which the interleaver is not used shows the lowest channel coding performance compared to other cases as the SNR value changes. In light of the results of FIG. 33 , it can be seen that an interleaver should be used to ensure good channel coding performance.
상기 도 33의 그래프에서, 3320 내지 3350에 각각 대응되는 legend를 각각 점선/실선으로 나타낸 것은 뉴럴 네트워크에 사용된 필터의 개수에 따른 것으로 이해될 수 있다. 즉, 동일한 legend를 점선/실선으로 구분하여 그려진 것은 뉴럴 네트워크에 사용된 필터의 개수의 차이가 반영된 것으로 이해될 수 있다. In the graph of FIG. 33 , it can be understood that legends corresponding to 3320 to 3350 are indicated by dashed lines/solid lines, respectively, depending on the number of filters used in the neural network. That is, it can be understood that the difference in the number of filters used in the neural network is reflected by dividing the same legend by a dotted line/solid line.
다음, 도 34는 도 33의 3350의 경우에 대하여 인터리버 패턴을 다양하게 설정하여 적용한 경우들에 따른 채널 코딩 성능을 나타낸 도이다.Next, FIG. 34 is a diagram illustrating channel coding performance according to cases in which an interleaver pattern is variously set and applied to the case of 3350 of FIG. 33 .
도 34에서, 앞서 제안 3에서 설명한 인터리버 파라미터 f0, f1 및 f2들 중, f0 = 0이 사용된다. 성능 분석의 결과, 도 34에 나타난 p0 내지 p7의 경우에서 채널 코딩의 성능은 대체적으로 유사하였으나, 채널 코딩 (f1, f2) = (11,32)인 경우가 가장 우수한 채널 코딩 성능을 나타내는 것이 확인되었다. 또한, 도 33의 3350의 경우에 대하여 (f1, f2) = (11,32)로 설정된 인터리버가 사용되는 경우의 채널 코딩 성능은 풀링이 적용되지 않은 SCCC-AE가 사용되는 경우의 채널 코딩 성능을 능가하는 것이 확인되었다.In FIG. 34 , of the interleaver parameters f0, f1, and f2 described in proposal 3 above, f0 = 0 is used. As a result of the performance analysis, it was confirmed that the channel coding performance was generally similar in the case of p0 to p7 shown in FIG. 34, but the channel coding (f1, f2) = (11,32) showed the best channel coding performance. became In addition, for the case of 3350 of FIG. 33, the channel coding performance when an interleaver set to (f1, f2) = (11, 32) is used is the channel coding performance when SCCC-AE to which pooling is not applied is used. was confirmed to be superior.
다양한 활성화 함수에 따른 성능 분석Performance analysis according to various activation functions
도 35는 본 명세서에서 제안하는 다양한 활성화 함수의 사용에 따른 채널 코딩 성능을 나타낸 도이다.35 is a diagram illustrating channel coding performance according to the use of various activation functions proposed in the present specification.
도 35에서의 y축은 BER을 나타내고, x는 SNR을 나타낸다. BER의 값이 작을수록 채널 코딩의 성능이 우수한 것으로 해석될 수 있으므로, 동일한 SNR값에서 더 아래에 위치하는 그래프가 채널 코딩의 성능이 우수한 것으로 볼 수 있다. In FIG. 35, the y-axis represents BER, and x represents SNR. Since it can be interpreted that the performance of the channel coding is excellent as the value of the BER is small, it can be seen that the graph located further below the same SNR value has the excellent performance of the channel coding.
도 35에서, 3510은 전통적인 LTE 터보 코드를 사용하는 경우의 채널 코딩 성능을 나타낸다. 3520은 PCCC-AE가 사용된 경우의 채널 코딩 성능을 나타내고, 3530은 SCCC-AE가 사용된 경우의 채널 코딩 성능을 나타낸다. 이 때, 3310 내지 3340에서는 모두 eLu 함수가 활성화 함수로 사용된다. 또한, 3540은 수신단 디코더에 풀링이 적용되고, 활성화 함수 이전에 풀링 계층이 위치하는 SCCC-AE가 사용된 경우의 채널 코딩 성능을 나타낸다. 3540에서는 eRelu 함수가 활성화 함수로 사용된다. 또한, 3550은 수신단 디코더에 풀링이 적용되고, 활성화 함수 이전에 풀링 계층이 위치하는 SCCC-AE가 사용된 경우의 채널 코딩 성능을 나타낸다. 3550에서는 Relu 함수가 활성화 함수로 사용된다. 3560은 multiple PRelu가 활성화 함수로 사용되는 SCCC-AE가 사용된 경우의 채널 코딩 성능을 나타내고, 3570은 single PRelu가 활성화 함수로 사용되는 SCCC-AE가 사용된 경우의 채널 코딩 성능을 나타낸다. In FIG. 35 , 3510 represents the channel coding performance in the case of using the traditional LTE turbo code. 3520 indicates channel coding performance when PCCC-AE is used, and 3530 indicates channel coding performance when SCCC-AE is used. In this case, in all of 3310 to 3340, the eLu function is used as the activation function. In addition, 3540 indicates channel coding performance when pooling is applied to the receiver decoder and SCCC-AE in which the pooling layer is located before the activation function is used. In the 3540, the eRelu function is used as the activation function. In addition, 3550 indicates channel coding performance when pooling is applied to the receiver decoder and SCCC-AE in which the pooling layer is located before the activation function is used. In the 3550, the Relu function is used as the activation function. 3560 indicates channel coding performance when SCCC-AE in which multiple PRelu is used as an activation function is used, and 3570 indicates channel coding performance when SCCC-AE in which single PRelu is used as an activation function is used.
Evaluation된 ACT함수는 eLu, ReLu, Single-PReLu, Multiple-PReLu가 사용되었다.The evaluated ACT functions were eLu, ReLu, Single-PReLu, and Multiple-PReLu.
도 35의 결과를 참조하면, eRelu 함수가 활성화 함수로 사용된 경우(3540)가 채널 코딩 성능이 가장 우수한 것으로 확인되나, 이 경우 exponential 함수를 구현해야 함으로 가장 복잡도가 높을 수 있다. 반면, Single-PReLu 함수가 활성화 함수로 사용된 경우(3580), 3540 경우보다 보다 성능 감소(loss)가 있지만, 복잡도 면에서 유리할 수 있다.Referring to the result of FIG. 35 , it is confirmed that the channel coding performance is the best when the eRelu function is used as the activation function (3540). On the other hand, when the Single-PReLu function is used as an activation function (3580), there is a decrease in performance than in the case of 3540, but it may be advantageous in terms of complexity.
도 36은 본 명세서에서 제안하는 오토 인코더를 이용하는 무선 통신 시스템에서 신호를 송수신하기 위한 방법의 일례를 나타낸 순서도이다.36 is a flowchart illustrating an example of a method for transmitting and receiving a signal in a wireless communication system using an auto encoder proposed in the present specification.
도 36을 참조하면, 송신단은 사전 학습된 송신단 인코더 뉴럴 네트워크(neural network)에 기초하여 입력 데이터를 인코딩(encoding)한다(S3610).Referring to FIG. 36 , the transmitting end encodes input data based on a pre-learned transmitting end encoder neural network ( S3610 ).
이후, 상기 송신단은 상기 인코딩된 입력 데이터에 기초하여 상기 신호를 수신단으로 전송한다(S3620).Thereafter, the transmitting end transmits the signal to the receiving end based on the encoded input data (S3620).
이 때, 상기 송신단 인코더 뉴럴 네트워크는 (i) 상기 입력 데이터를 입력 받아 제 1 코드워드(codeword)를 출력하는 제 1 인코더 뉴럴 네트워크, (ii) 상기 제 1 코드워드를 입력 받아 인터리빙(interleaving)하고, 상기 인터리빙된 제 1 코드워드를 출력하는 인터리버(interleaver) 및 (iii) 상기 인터리빙된 제 1 코드워드를 입력 받아 상기 인코딩된 입력 데이터를 구성하는 제 2 코드워드를 출력하는 제 2 인코더 뉴럴 네트워크를 직렬적으로(serially) 포함한다.At this time, the encoder neural network at the transmitting end (i) a first encoder neural network that receives the input data and outputs a first codeword, (ii) receives the first codeword and interleaves it , an interleaver for outputting the first interleaved codeword, and (iii) a second encoder neural network for receiving the interleaved first codeword and outputting a second codeword constituting the encoded input data. Include serially.
추가적으로, 상기 제 1 인코더 뉴럴 네트워크는 n1개의 제 1 인코더 컴포넌트 뉴럴 네트워크로 구성되고, 상기 제 2 인코더 뉴럴 네트워크는 n2개의 상기 제 1 인코더 컴포넌트 뉴럴 네트워크 및 n3개의 제 2 인코더 컴포넌트 뉴럴 네트워크로 구성되고, 상기 n1, n2 및 n3는 0이 아닌 양의 정수일 수 있다.Additionally, the first encoder neural network consists of n1 first encoder component neural networks, and the second encoder neural network consists of n2 first encoder component neural networks and n3 second encoder component neural networks, The n1, n2, and n3 may be non-zero positive integers.
또한, 상기 제 1 인코더 뉴럴 네트워트의 코드 레이트(code rate)는 1/n1이고, 상기 제 2 인코더 뉴럴 네트워크의 코드 레이트는 n1/(n2+n3)일 수 있다.Also, the code rate of the first encoder neural network may be 1/n1, and the code rate of the second encoder neural network may be n1/(n2+n3).
그리고, 상기 제 1 인코더 컴포넌트 뉴럴 네트워크 및 상기 제 2 인코더 컴포넌트 뉴럴 네트워크 각각은 적어도 하나 이상의 계층(layer)으로 구성되고, 상기 제 1 인코더 컴포넌트 뉴럴 네트워크 및 상기 제 2 인코더 컴포넌트 뉴럴 네트워크는 입력 값에 대한 필터링(filtering)을 위한 (i) 필터링 함수 및 (ii) 상기 필터링 함수의 출력을 입력 받는 활성화 함수(activation function)를 포함하는 뉴럴 네트워크 구성 단위에 기초하여 구성될 수 있다.And, each of the first encoder component neural network and the second encoder component neural network consists of at least one or more layers, and the first encoder component neural network and the second encoder component neural network correspond to an input value. It may be configured based on a neural network configuration unit including (i) a filtering function for filtering and (ii) an activation function receiving an output of the filtering function as an input.
여기서, 상기 제 1 인코더 컴포넌트 뉴럴 네트워크 및 상기 제 2 인코더 컴포넌트 뉴럴 네트워크 각각은 2개의 계층(layer)으로 구성될 수 있다.Here, each of the first encoder component neural network and the second encoder component neural network may consist of two layers.
또한, 상기 n1 및 상기 n2의 값은 동일하고, 상기 n3는 1일 수 있다.Also, the values of n1 and n2 may be the same, and n3 may be 1.
추가적으로, 상기 제 1 인코더 컴포넌트 뉴럴 네트워크는 하나의 입력 값을 입력 받는 제 1 뉴럴 네트워크 구성 단위 및 상기 제 1 뉴럴 네트워크 구성 단위의 출력을 입력 받는 제 2 뉴럴 네트워크 구성 단위를 포함하고, 상기 제 2 뉴럴 네트워크 구성 단위의 출력에 선형 회귀(Linear regression)를 적용하고, 상기 선형 회귀가 적용된 상기 제 2 뉴럴 네트워크 구성 단위의 출력에 eLu(exponential linear unit) 함수를 적용할 수 있다.Additionally, the first encoder component neural network includes a first neural network constituent unit receiving one input value and a second neural network constituent unit receiving an output of the first neural network constituent unit, and the second neural network Linear regression may be applied to the output of the network constituent unit, and an exponential linear unit (eLu) function may be applied to the output of the second neural network constituent unit to which the linear regression is applied.
그리고, 상기 제 2 인코더 컴포넌트 뉴럴 네트워크는 상기 n1개의 입력 값을 입력 받는 제 3 뉴럴 네트워크 구성 단위 및 상기 제 3 뉴럴 네트워크 구성 단위의 출력 값을 입력 받는 제 4 뉴럴 네트워크 구성 단위를 포함하고, 상기 제 4 뉴럴 네트워크 구성 단위의 출력 값에 상기 선형 회귀를 적용하고, 상기 선형 회귀가 적용된 상기 제 4 뉴럴 네트워크 구성 단위의 출력값에 상기 eLu 함수를 적용할 수 있다.The second encoder component neural network includes a third neural network constituent unit receiving the n1 input values and a fourth neural network constituent unit receiving output values of the third neural network constituent unit, The linear regression may be applied to an output value of four neural network constituent units, and the eLu function may be applied to an output value of the fourth neural network constituent unit to which the linear regression is applied.
또한, 상기 제 1 뉴럴 네트워크 구성 단위 및 상기 제 3 뉴럴 네트워크 구성 단위는 상기 2개의 계층 중 하나인 제 1 계층을 구성하고, 상기 제 2 뉴럴 네트워크 구성 단위 및 상기 제 4 뉴럴 네트워크 구성 단위는 상기 2개의 계층 중 나머지 하나인 제 2 계층을 구성할 수 있다.In addition, the first neural network constituent unit and the third neural network constituent unit constitute a first layer that is one of the two layers, and the second neural network constituent unit and the fourth neural network constituent unit are the second A second layer, which is the other one of the layers, may be configured.
그리고, 상기 제 1 뉴럴 네트워크 구성 단위 내지 상기 제 4 뉴럴 네트워크 구성 단위 각각의 출력 값이 출력되는 출력 채널의 개수는 100일 수 있다.In addition, the number of output channels through which output values of each of the first to fourth neural network constituent units are output may be 100. FIG.
그리고, 상기 인터리버에 입력되는 상기 제 1 코드워드 비트열(bit stream) 내의 i+1번째 비트(bit)는 아래의 수학식에 기초하여 인터리빙되고,And, the i+1th bit in the first codeword bit stream input to the interleaver is interleaved based on the following equation,
Figure PCTKR2021005384-appb-img-000015
Figure PCTKR2021005384-appb-img-000015
여기서, L은 인터리버의 크기이고, f0은 상수 오프셋(constant offset)이고, f1은 상기 L과 서로소 관계를 만족하는 소수(prime number)이고, f2는 L의 약수(fraction)들 중 2의 거듭 제곱 수(power of 2)에 해당하는 수일 수 있다.Here, L is the size of the interleaver, f0 is a constant offset, f1 is a prime number that satisfies L and a relative relation, and f2 is a power of 2 among L fractions. It may be a number corresponding to a power of 2.
또한, 상기 f0 은 0이고, 상기 제 1 코드워드의 비트열에 대하여 상기 f2의 값만큼 병렬(parallel) 연산이 수행될 수 있다.In addition, f0 is 0, and a parallel operation may be performed on the bit string of the first codeword by the value of f2.
또한, 상기 적어도 하나 이상의 계층 중 가장 먼저 위치하는 계층을 구성하는 특정 뉴럴 네트워크 구성 단위는 상기 필터링 함수의 출력 채널의 수를 감소시키기 위한 풀링 계층(pooling layer)을 더 포함하고, 상기 풀링 계층은 상기 필터링 함수 및 상기 활성화 함수 사이에 위치할 수 있다.In addition, a specific neural network configuration unit constituting a layer located first among the at least one or more layers further includes a pooling layer for reducing the number of output channels of the filtering function, wherein the pooling layer includes the It may be located between the filtering function and the activation function.
추가적으로, 상기 가장 먼저 위치하는 계층 이후에 위치하는 계층들을 구성하는 각각의 뉴럴 네트워크 구성 단위들은 상기 풀링 계층(pooling layer)을 더 포함할 수 있다.Additionally, each of the neural network constituent units constituting the layers positioned after the first positioned layer may further include the pooling layer.
무선 통신 시스템에 사용되는 장치Devices used in wireless communication systems
이로 제한되는 것은 아니지만, 상술한 본 발명의 다양한 제안들은 기기들간에 무선 통신/연결(예, 5G)을 필요로 하는 다양한 분야에 적용될 수 있다.Although not limited thereto, the various proposals of the present invention described above may be applied to various fields requiring wireless communication/connection (eg, 5G) between devices.
이하, 도면을 참조하여 보다 구체적으로 예시한다. 이하의 도면/설명에서 동일한 도면 부호는 다르게 기술하지 않는 한, 동일하거나 대응되는 하드웨어 블록, 소프트웨어 블록 또는 기능 블록을 예시할 수 있다. Hereinafter, it will be exemplified in more detail with reference to the drawings. In the following drawings/descriptions, the same reference numerals may represent the same or corresponding hardware blocks, software blocks, or functional blocks, unless otherwise indicated.
도 37은 본 발명에 적용되는 통신 시스템을 예시한다.37 illustrates a communication system applied to the present invention.
도 37을 참조하면, 본 발명에 적용되는 통신 시스템(1)은 무선 기기, 기지국 및 네트워크를 포함한다. 여기서, 무선 기기는 무선 접속 기술(예, 5G NR(New RAT), LTE(Long Term Evolution))을 이용하여 통신을 수행하는 기기를 의미하며, 통신/무선/5G 기기로 지칭될 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(100a), 차량(100b-1, 100b-2), XR(eXtended Reality) 기기(100c), 휴대 기기(Hand-held device)(100d), 가전(100e), IoT(Internet of Thing) 기기(100f), AI기기/서버(400)를 포함할 수 있다. 예를 들어, 차량은 무선 통신 기능이 구비된 차량, 자율 주행 차량, 차량간 통신을 수행할 수 있는 차량 등을 포함할 수 있다. 여기서, 차량은 UAV(Unmanned Aerial Vehicle)(예, 드론)를 포함할 수 있다. XR 기기는 AR(Augmented Reality)/VR(Virtual Reality)/MR(Mixed Reality) 기기를 포함하며, HMD(Head-Mounted Device), 차량에 구비된 HUD(Head-Up Display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등의 형태로 구현될 수 있다. 휴대 기기는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 컴퓨터(예, 노트북 등) 등을 포함할 수 있다. 가전은 TV, 냉장고, 세탁기 등을 포함할 수 있다. IoT 기기는 센서, 스마트미터 등을 포함할 수 있다. 예를 들어, 기지국, 네트워크는 무선 기기로도 구현될 수 있으며, 특정 무선 기기(200a)는 다른 무선 기기에게 기지국/네트워크 노드로 동작할 수도 있다.Referring to FIG. 37 , the communication system 1 applied to the present invention includes a wireless device, a base station, and a network. Here, the wireless device means a device that performs communication using a wireless access technology (eg, 5G NR (New RAT), LTE (Long Term Evolution)), and may be referred to as a communication/wireless/5G device. Although not limited thereto, the wireless device includes a robot 100a, a vehicle 100b-1, 100b-2, an eXtended Reality (XR) device 100c, a hand-held device 100d, and a home appliance 100e. ), an Internet of Thing (IoT) device 100f, and an AI device/server 400 . For example, the vehicle may include a vehicle equipped with a wireless communication function, an autonomous driving vehicle, a vehicle capable of performing inter-vehicle communication, and the like. Here, the vehicle may include an Unmanned Aerial Vehicle (UAV) (eg, a drone). XR devices include AR (Augmented Reality)/VR (Virtual Reality)/MR (Mixed Reality) devices, and include a Head-Mounted Device (HMD), a Head-Up Display (HUD) provided in a vehicle, a television, a smartphone, It may be implemented in the form of a computer, a wearable device, a home appliance, a digital signage, a vehicle, a robot, and the like. The mobile device may include a smart phone, a smart pad, a wearable device (eg, a smart watch, smart glasses), a computer (eg, a laptop computer), and the like. Home appliances may include a TV, a refrigerator, a washing machine, and the like. The IoT device may include a sensor, a smart meter, and the like. For example, the base station and the network may be implemented as a wireless device, and a specific wireless device 200a may operate as a base station/network node to other wireless devices.
무선 기기(100a~100f)는 기지국(200)을 통해 네트워크(300)와 연결될 수 있다. 무선 기기(100a~100f)에는 AI(Artificial Intelligence) 기술이 적용될 수 있으며, 무선 기기(100a~100f)는 네트워크(300)를 통해 AI 서버(400)와 연결될 수 있다. 네트워크(300)는 3G 네트워크, 4G(예, LTE) 네트워크 또는 5G(예, NR) 네트워크 등을 이용하여 구성될 수 있다. 무선 기기(100a~100f)는 기지국(200)/네트워크(300)를 통해 서로 통신할 수도 있지만, 기지국/네트워크를 통하지 않고 직접 통신(e.g. 사이드링크 통신(sidelink communication))할 수도 있다. 예를 들어, 차량들(100b-1, 100b-2)은 직접 통신(e.g. V2V(Vehicle to Vehicle)/V2X(Vehicle to everything) communication)을 할 수 있다. 또한, IoT 기기(예, 센서)는 다른 IoT 기기(예, 센서) 또는 다른 무선 기기(100a~100f)와 직접 통신을 할 수 있다.The wireless devices 100a to 100f may be connected to the network 300 through the base station 200 . Artificial intelligence (AI) technology may be applied to the wireless devices 100a to 100f , and the wireless devices 100a to 100f may be connected to the AI server 400 through the network 300 . The network 300 may be configured using a 3G network, a 4G (eg, LTE) network, or a 5G (eg, NR) network. The wireless devices 100a to 100f may communicate with each other through the base station 200/network 300, but may also communicate directly (e.g. sidelink communication) without passing through the base station/network. For example, the vehicles 100b-1 and 100b-2 may perform direct communication (eg, Vehicle to Vehicle (V2V)/Vehicle to everything (V2X) communication). In addition, the IoT device (eg, sensor) may directly communicate with other IoT devices (eg, sensor) or other wireless devices 100a to 100f.
무선 기기(100a~100f)/기지국(200)-기지국(200)/무선 기기(100a~100f) 간에는 무선 통신/연결(150a, 150b)이 이뤄질 수 있다. 여기서, 무선 통신/연결은 상향/하향링크 통신(150a)과 사이드링크 통신(150b)(또는, D2D 통신)은 다양한 무선 접속 기술(예, 5G NR)을 통해 이뤄질 수 있다. 무선 통신/연결(150a, 150b)을 통해 무선 기기와 기지국/무선 기기는 서로 무선 신호를 송신/수신할 수 있다. 예를 들어, 무선 통신/연결(150a, 150b)은 도 1의 전체/일부 과정에 기반하여 다양한 물리 채널을 통해 신호를 송신/수신할 수 있다. 이를 위해, 본 발명의 다양한 제안들에 기반하여, 무선 신호의 송신/수신을 위한 다양한 구성정보 설정 과정, 다양한 신호 처리 과정(예, 채널 인코딩/디코딩, 변조/복조, 자원 매핑/디매핑 등), 자원 할당 과정 등 중 적어도 일부가 수행될 수 있다.Wireless communication/ connection 150a and 150b may be performed between the wireless devices 100a to 100f/base station 200 - the base station 200/wireless devices 100a to 100f. Here, the wireless communication/connection may be performed through various radio access technologies (eg, 5G NR) for the uplink/downlink communication 150a and the sidelink communication 150b (or D2D communication). Through the wireless communication/ connection 150a and 150b, the wireless device and the base station/wireless device may transmit/receive wireless signals to each other. For example, the wireless communication/ connection 150a and 150b may transmit/receive signals through various physical channels based on all/part of the process of FIG. 1 . To this end, based on the various proposals of the present invention, various configuration information setting processes for wireless signal transmission/reception, various signal processing processes (eg, channel encoding/decoding, modulation/demodulation, resource mapping/demapping, etc.) , at least a part of a resource allocation process, etc. may be performed.
도 38은 본 발명에 적용될 수 있는 무선 기기를 예시한다.38 illustrates a wireless device applicable to the present invention.
도 38을 참조하면, 제1 무선 기기(100)와 제2 무선 기기(200)는 다양한 무선 접속 기술(예, LTE, NR)을 통해 무선 신호를 송수신할 수 있다. 여기서, {제1 무선 기기(100), 제2 무선 기기(200)}은 도 37의 {무선 기기(100x), 기지국(200)} 및/또는 {무선 기기(100x), 무선 기기(100x)}에 대응할 수 있다.Referring to FIG. 38 , the first wireless device 100 and the second wireless device 200 may transmit and receive wireless signals through various wireless access technologies (eg, LTE, NR). Here, {first wireless device 100, second wireless device 200} is {wireless device 100x, base station 200} of FIG. 37 and/or {wireless device 100x, wireless device 100x) } can be matched.
제1 무선 기기(100)는 하나 이상의 프로세서(102) 및 하나 이상의 메모리(104)를 포함하며, 추가적으로 하나 이상의 송수신기(106) 및/또는 하나 이상의 안테나(108)을 더 포함할 수 있다. 프로세서(102)는 메모리(104) 및/또는 송수신기(106)를 제어하며, 앞에서 설명/제안한 기능, 절차 및/또는 방법들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(102)는 메모리(104) 내의 정보를 처리하여 제1 정보/신호를 생성한 뒤, 송수신기(106)을 통해 제1 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(102)는 송수신기(106)를 통해 제2 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제2 정보/신호의 신호 처리로부터 얻은 정보를 메모리(104)에 저장할 수 있다. 메모리(104)는 프로세서(102)와 연결될 수 있고, 프로세서(102)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(104)는 프로세서(102)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 앞에서 설명/제안한 절차 및/또는 방법들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(102)와 메모리(104)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(106)는 프로세서(102)와 연결될 수 있고, 하나 이상의 안테나(108)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(106)는 송신기 및/또는 수신기를 포함할 수 있다. 송수신기(106)는 RF(Radio Frequency) 유닛과 혼용될 수 있다. 본 발명에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.The first wireless device 100 includes one or more processors 102 and one or more memories 104 , and may further include one or more transceivers 106 and/or one or more antennas 108 . The processor 102 controls the memory 104 and/or the transceiver 106 and may be configured to implement the functions, procedures and/or methods described/suggested above. For example, the processor 102 may process the information in the memory 104 to generate the first information/signal, and then transmit a wireless signal including the first information/signal through the transceiver 106 . In addition, the processor 102 may receive the radio signal including the second information/signal through the transceiver 106 , and then store the information obtained from the signal processing of the second information/signal in the memory 104 . The memory 104 may be connected to the processor 102 and may store various information related to the operation of the processor 102 . For example, the memory 104 may store software code including instructions for performing some or all of the processes controlled by the processor 102 , or for performing the procedures and/or methods described/suggested above. . Here, the processor 102 and the memory 104 may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR). The transceiver 106 may be coupled with the processor 102 and may transmit and/or receive wireless signals via one or more antennas 108 . The transceiver 106 may include a transmitter and/or a receiver. The transceiver 106 may be used interchangeably with a radio frequency (RF) unit. In the present invention, a wireless device may refer to a communication modem/circuit/chip.
제2 무선 기기(200)는 하나 이상의 프로세서(202), 하나 이상의 메모리(204)를 포함하며, 추가적으로 하나 이상의 송수신기(206) 및/또는 하나 이상의 안테나(208)를 더 포함할 수 있다. 프로세서(202)는 메모리(204) 및/또는 송수신기(206)를 제어하며, 앞에서 설명/제안한 기능, 절차 및/또는 방법들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202)는 메모리(204) 내의 정보를 처리하여 제3 정보/신호를 생성한 뒤, 송수신기(206)를 통해 제3 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202)는 송수신기(206)를 통해 제4 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제4 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204)에 저장할 수 있다. 메모리(204)는 프로세서(202)와 연결될 수 있고, 프로세서(202)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204)는 프로세서(202)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 앞에서 설명/제안한 절차 및/또는 방법들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202)와 메모리(204)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206)는 프로세서(202)와 연결될 수 있고, 하나 이상의 안테나(208)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206)는 송신기 및/또는 수신기를 포함할 수 있다 송수신기(206)는 RF 유닛과 혼용될 수 있다. 본 발명에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.The second wireless device 200 includes one or more processors 202 , one or more memories 204 , and may further include one or more transceivers 206 and/or one or more antennas 208 . The processor 202 controls the memory 204 and/or the transceiver 206 and may be configured to implement the functions, procedures and/or methods described/suggested above. For example, the processor 202 may process the information in the memory 204 to generate third information/signal, and then transmit a wireless signal including the third information/signal through the transceiver 206 . In addition, the processor 202 may receive the radio signal including the fourth information/signal through the transceiver 206 , and then store information obtained from signal processing of the fourth information/signal in the memory 204 . The memory 204 may be connected to the processor 202 and may store various information related to the operation of the processor 202 . For example, the memory 204 may store software code including instructions for performing some or all of the processes controlled by the processor 202, or for performing the procedures and/or methods described/suggested above. . Here, the processor 202 and the memory 204 may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR). The transceiver 206 may be coupled to the processor 202 and may transmit and/or receive wireless signals via one or more antennas 208 . The transceiver 206 may include a transmitter and/or a receiver. The transceiver 206 may be used interchangeably with an RF unit. In the present invention, a wireless device may refer to a communication modem/circuit/chip.
이하, 무선 기기(100, 200)의 하드웨어 요소에 대해 보다 구체적으로 설명한다. 이로 제한되는 것은 아니지만, 하나 이상의 프로토콜 계층이 하나 이상의 프로세서(102, 202)에 의해 구현될 수 있다. 예를 들어, 하나 이상의 프로세서(102, 202)는 하나 이상의 계층(예, PHY, MAC, RLC, PDCP, RRC, SDAP와 같은 기능적 계층)을 구현할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 하나 이상의 PDU(Protocol Data Unit) 및/또는 하나 이상의 SDU(Service Data Unit)를 생성할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 메시지, 제어정보, 데이터 또는 정보를 생성할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 포함하는 신호(예, 베이스밴드 신호)를 생성하여, 하나 이상의 송수신기(106, 206)에게 제공할 수 있다. 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)로부터 신호(예, 베이스밴드 신호)를 수신할 수 있고, 본 문서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 획득할 수 있다.Hereinafter, hardware elements of the wireless devices 100 and 200 will be described in more detail. Although not limited thereto, one or more protocol layers may be implemented by one or more processors 102 , 202 . For example, one or more processors 102 , 202 may implement one or more layers (eg, functional layers such as PHY, MAC, RLC, PDCP, RRC, SDAP). The one or more processors 102 and 202 may generate one or more Protocol Data Units (PDUs) and/or one or more Service Data Units (SDUs) according to the functions, procedures, proposals and/or methods disclosed herein. One or more processors 102 , 202 may generate messages, control information, data or information according to the functions, procedures, proposals and/or methods disclosed herein. The one or more processors 102 and 202 generate a signal (eg, a baseband signal) including PDUs, SDUs, messages, control information, data or information according to the functions, procedures, proposals and/or methods disclosed herein. , to one or more transceivers 106 and 206 . The one or more processors 102 , 202 may receive signals (eg, baseband signals) from one or more transceivers 106 , 206 , PDUs, SDUs, and/or SDUs according to the functions, procedures, proposals and/or methods disclosed herein. , a message, control information, data or information can be obtained.
하나 이상의 프로세서(102, 202)는 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 마이크로 컴퓨터로 지칭될 수 있다. 하나 이상의 프로세서(102, 202)는 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합에 의해 구현될 수 있다. 일 예로, 하나 이상의 ASIC(Application Specific Integrated Circuit), 하나 이상의 DSP(Digital Signal Processor), 하나 이상의 DSPD(Digital Signal Processing Device), 하나 이상의 PLD(Programmable Logic Device) 또는 하나 이상의 FPGA(Field Programmable Gate Arrays)가 하나 이상의 프로세서(102, 202)에 포함될 수 있다. 본 문서에 개시된 기능, 절차, 제안 및/또는 방법들은 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있고, 펌웨어 또는 소프트웨어는 모듈, 절차, 기능 등을 포함하도록 구현될 수 있다. 본 문서에 개시된 기능, 절차, 제안 및/또는 방법을 수행하도록 설정된 펌웨어 또는 소프트웨어는 하나 이상의 프로세서(102, 202)에 포함되거나, 하나 이상의 메모리(104, 204)에 저장되어 하나 이상의 프로세서(102, 202)에 의해 구동될 수 있다. 본 문서에 개시된 기능, 절차, 제안 및 또는 방법들은 코드, 명령어 및/또는 명령어의 집합 형태로 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있다. One or more processors 102 , 202 may be referred to as a controller, microcontroller, microprocessor, or microcomputer. One or more processors 102 , 202 may be implemented by hardware, firmware, software, or a combination thereof. For example, one or more Application Specific Integrated Circuits (ASICs), one or more Digital Signal Processors (DSPs), one or more Digital Signal Processing Devices (DSPDs), one or more Programmable Logic Devices (PLDs), or one or more Field Programmable Gate Arrays (FPGAs) may be included in one or more processors 102 , 202 . The functions, procedures, proposals and/or methods disclosed in this document may be implemented using firmware or software, and the firmware or software may be implemented to include modules, procedures, functions, and the like. Firmware or software configured to perform the functions, procedures, proposals, and/or methods disclosed herein may be included in one or more processors 102, 202, or stored in one or more memories 104, 204, such that one or more processors 102, 202) can be driven. The functions, procedures, proposals and/or methods disclosed in this document may be implemented using firmware or software in the form of code, instructions, and/or a set of instructions.
하나 이상의 메모리(104, 204)는 하나 이상의 프로세서(102, 202)와 연결될 수 있고, 다양한 형태의 데이터, 신호, 메시지, 정보, 프로그램, 코드, 지시 및/또는 명령을 저장할 수 있다. 하나 이상의 메모리(104, 204)는 ROM, RAM, EPROM, 플래시 메모리, 하드 드라이브, 레지스터, 캐쉬 메모리, 컴퓨터 판독 저장 매체 및/또는 이들의 조합으로 구성될 수 있다. 하나 이상의 메모리(104, 204)는 하나 이상의 프로세서(102, 202)의 내부 및/또는 외부에 위치할 수 있다. 또한, 하나 이상의 메모리(104, 204)는 유선 또는 무선 연결과 같은 다양한 기술을 통해 하나 이상의 프로세서(102, 202)와 연결될 수 있다.One or more memories 104 , 204 may be coupled to one or more processors 102 , 202 and may store various forms of data, signals, messages, information, programs, code, instructions, and/or instructions. The one or more memories 104 and 204 may be comprised of ROM, RAM, EPROM, flash memory, hard drives, registers, cache memory, computer readable storage media, and/or combinations thereof. One or more memories 104 , 204 may be located inside and/or external to one or more processors 102 , 202 . In addition, one or more memories 104 , 204 may be coupled to one or more processors 102 , 202 through various technologies, such as wired or wireless connections.
하나 이상의 송수신기(106, 206)는 하나 이상의 다른 장치에게 본 문서의 방법들 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 전송할 수 있다. 하나 이상의 송수신기(106, 206)는 하나 이상의 다른 장치로부터 본 문서에 개시된 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 수신할 수 있다. 예를 들어, 하나 이상의 송수신기(106, 206)는 하나 이상의 프로세서(102, 202)와 연결될 수 있고, 무선 신호를 송수신할 수 있다. 예를 들어, 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)가 하나 이상의 다른 장치에게 사용자 데이터, 제어 정보 또는 무선 신호를 전송하도록 제어할 수 있다. 또한, 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)가 하나 이상의 다른 장치로부터 사용자 데이터, 제어 정보 또는 무선 신호를 수신하도록 제어할 수 있다. 또한, 하나 이상의 송수신기(106, 206)는 하나 이상의 안테나(108, 208)와 연결될 수 있고, 하나 이상의 송수신기(106, 206)는 하나 이상의 안테나(108, 208)를 통해 본 문서에 개시된 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 송수신하도록 설정될 수 있다. 본 문서에서, 하나 이상의 안테나는 복수의 물리 안테나이거나, 복수의 논리 안테나(예, 안테나 포트)일 수 있다. 하나 이상의 송수신기(106, 206)는 수신된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 하나 이상의 프로세서(102, 202)를 이용하여 처리하기 위해, 수신된 무선 신호/채널 등을 RF 밴드 신호에서 베이스밴드 신호로 변환(Convert)할 수 있다. 하나 이상의 송수신기(106, 206)는 하나 이상의 프로세서(102, 202)를 이용하여 처리된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 베이스밴드 신호에서 RF 밴드 신호로 변환할 수 있다. 이를 위하여, 하나 이상의 송수신기(106, 206)는 (아날로그) 오실레이터 및/또는 필터를 포함할 수 있다.One or more transceivers 106 , 206 may transmit user data, control information, radio signals/channels, etc. referred to in the methods and/or operational flowcharts of this document to one or more other devices. The one or more transceivers 106 and 206 may receive user data, control information, radio signals/channels, etc. referred to in the functions, procedures, proposals, methods, and/or flowcharts of operations disclosed herein, and the like, from one or more other devices. For example, one or more transceivers 106 , 206 may be coupled to one or more processors 102 , 202 and may transmit and receive wireless signals. For example, one or more processors 102 , 202 may control one or more transceivers 106 , 206 to transmit user data, control information, or wireless signals to one or more other devices. In addition, one or more processors 102 , 202 may control one or more transceivers 106 , 206 to receive user data, control information, or wireless signals from one or more other devices. Further, one or more transceivers 106, 206 may be coupled to one or more antennas 108, 208, and the one or more transceivers 106, 206 may be connected via one or more antennas 108, 208 to the functions, procedures, and procedures disclosed herein. , suggestions, methods and/or operation flowcharts, etc. may be set to transmit and receive user data, control information, radio signals/channels, and the like. In this document, one or more antennas may be a plurality of physical antennas or a plurality of logical antennas (eg, antenna ports). The one or more transceivers 106, 206 convert the received radio signal/channel, etc. from the RF band signal to process the received user data, control information, radio signal/channel, etc. using the one or more processors 102, 202. It can be converted into a baseband signal. One or more transceivers 106 and 206 may convert user data, control information, radio signals/channels, etc. processed using one or more processors 102 and 202 from baseband signals to RF band signals. To this end, one or more transceivers 106 , 206 may include (analog) oscillators and/or filters.
도 39는 전송 신호를 위한 신호 처리 회로를 예시한다.39 illustrates a signal processing circuit for a transmission signal.
도 39를 참조하면, 신호 처리 회로(1000)는 스크램블러(1010), 변조기(1020), 레이어 매퍼(1030), 프리코더(1040), 자원 매퍼(1050), 신호 생성기(1060)를 포함할 수 있다. 이로 제한되는 것은 아니지만, 도 39의 동작/기능은 도 39의 프로세서(102, 202) 및/또는 송수신기(106, 206)에서 수행될 수 있다. 도 39의 하드웨어 요소는 도 38의 프로세서(102, 202) 및/또는 송수신기(106, 206)에서 구현될 수 있다. 예를 들어, 블록 1010~1060은 도 38의 프로세서(102, 202)에서 구현될 수 있다. 또한, 블록 1010~1050은 도 38의 프로세서(102, 202)에서 구현되고, 블록 1060은 도 38의 송수신기(106, 206)에서 구현될 수 있다.Referring to FIG. 39 , the signal processing circuit 1000 may include a scrambler 1010 , a modulator 1020 , a layer mapper 1030 , a precoder 1040 , a resource mapper 1050 , and a signal generator 1060 . have. Although not limited thereto, the operations/functions of FIG. 39 may be performed by the processors 102 , 202 and/or transceivers 106 , 206 of FIG. 39 . The hardware elements of FIG. 39 may be implemented in the processors 102 , 202 and/or transceivers 106 , 206 of FIG. 38 . For example, blocks 1010 to 1060 may be implemented in the processors 102 and 202 of FIG. 38 . Further, blocks 1010 to 1050 may be implemented in the processors 102 and 202 of FIG. 38 , and block 1060 may be implemented in the transceivers 106 and 206 of FIG. 38 .
코드워드는 도 39의 신호 처리 회로(1000)를 거쳐 무선 신호로 변환될 수 있다. 여기서, 코드워드는 정보블록의 부호화된 비트 시퀀스이다. 정보블록은 전송블록(예, UL-SCH 전송블록, DL-SCH 전송블록)을 포함할 수 있다. 무선 신호는 도 1의 다양한 물리 채널(예, PUSCH, PDSCH)을 통해 전송될 수 있다.The codeword may be converted into a wireless signal through the signal processing circuit 1000 of FIG. 39 . Here, the codeword is a coded bit sequence of an information block. The information block may include a transport block (eg, a UL-SCH transport block, a DL-SCH transport block). The radio signal may be transmitted through various physical channels (eg, PUSCH, PDSCH) of FIG. 1 .
구체적으로, 코드워드는 스크램블러(1010)에 의해 스크램블된 비트 시퀀스로 변환될 수 있다. 스크램블에 사용되는 스크램블 시퀀스는 초기화 값에 기반하여 생성되며, 초기화 값은 무선 기기의 ID 정보 등이 포함될 수 있다. 스크램블된 비트 시퀀스는 변조기(1020)에 의해 변조 심볼 시퀀스로 변조될 수 있다. 변조 방식은 pi/2-BPSK(pi/2-Binary Phase Shift Keying), m-PSK(m-Phase Shift Keying), m-QAM(m-Quadrature Amplitude Modulation) 등을 포함할 수 있다. 복소 변조 심볼 시퀀스는 레이어 매퍼(1030)에 의해 하나 이상의 전송 레이어로 매핑될 수 있다. 각 전송 레이어의 변조 심볼들은 프리코더(1040)에 의해 해당 안테나 포트(들)로 매핑될 수 있다(프리코딩). 프리코더(1040)의 출력 z는 레이어 매퍼(1030)의 출력 y를 N*M의 프리코딩 행렬 W와 곱해 얻을 수 있다. 여기서, N은 안테나 포트의 개수, M은 전송 레이어의 개수이다. 여기서, 프리코더(1040)는 복소 변조 심볼들에 대한 트랜스폼(transform) 프리코딩(예, DFT 변환)을 수행한 이후에 프리코딩을 수행할 수 있다. 또한, 프리코더(1040)는 트랜스폼 프리코딩을 수행하지 않고 프리코딩을 수행할 수 있다.Specifically, the codeword may be converted into a scrambled bit sequence by the scrambler 1010 . A scramble sequence used for scrambling is generated based on an initialization value, and the initialization value may include ID information of a wireless device, and the like. The scrambled bit sequence may be modulated by a modulator 1020 into a modulation symbol sequence. The modulation method may include pi/2-Binary Phase Shift Keying (pi/2-BPSK), m-Phase Shift Keying (m-PSK), m-Quadrature Amplitude Modulation (m-QAM), and the like. The complex modulation symbol sequence may be mapped to one or more transport layers by the layer mapper 1030 . Modulation symbols of each transport layer may be mapped to corresponding antenna port(s) by the precoder 1040 (precoding). The output z of the precoder 1040 may be obtained by multiplying the output y of the layer mapper 1030 by the precoding matrix W of N*M. Here, N is the number of antenna ports, and M is the number of transport layers. Here, the precoder 1040 may perform precoding after performing transform precoding (eg, DFT transform) on the complex modulation symbols. Also, the precoder 1040 may perform precoding without performing transform precoding.
자원 매퍼(1050)는 각 안테나 포트의 변조 심볼들을 시간-주파수 자원에 매핑할 수 있다. 시간-주파수 자원은 시간 도메인에서 복수의 심볼(예, CP-OFDMA 심볼, DFT-s-OFDMA 심볼)을 포함하고, 주파수 도메인에서 복수의 부반송파를 포함할 수 있다. 신호 생성기(1060)는 매핑된 변조 심볼들로부터 무선 신호를 생성하며, 생성된 무선 신호는 각 안테나를 통해 다른 기기로 전송될 수 있다. 이를 위해, 신호 생성기(1060)는 IFFT(Inverse Fast Fourier Transform) 모듈 및 CP(Cyclic Prefix) 삽입기, DAC(Digital-to-Analog Converter), 주파수 상향 변환기(frequency uplink converter) 등을 포함할 수 있다.The resource mapper 1050 may map modulation symbols of each antenna port to a time-frequency resource. The time-frequency resource may include a plurality of symbols (eg, a CP-OFDMA symbol, a DFT-s-OFDMA symbol) in the time domain and a plurality of subcarriers in the frequency domain. The signal generator 1060 generates a radio signal from the mapped modulation symbols, and the generated radio signal may be transmitted to another device through each antenna. To this end, the signal generator 1060 may include an Inverse Fast Fourier Transform (IFFT) module and a Cyclic Prefix (CP) inserter, a Digital-to-Analog Converter (DAC), a frequency uplink converter, and the like. .
무선 기기에서 수신 신호를 위한 신호 처리 과정은 도 39의 신호 처리 과정(1010~1060)의 역으로 구성될 수 있다. 예를 들어, 무선 기기(예, 도 38의 100, 200)는 안테나 포트/송수신기를 통해 외부로부터 무선 신호를 수신할 수 있다. 수신된 무선 신호는 신호 복원기를 통해 베이스밴드 신호로 변환될 수 있다. 이를 위해, 신호 복원기는 주파수 하향 변환기(frequency downlink converter), ADC(analog-to-digital converter), CP 제거기, FFT(Fast Fourier Transform) 모듈을 포함할 수 있다. 이후, 베이스밴드 신호는 자원 디-매퍼 과정, 포스트코딩(postcoding) 과정, 복조 과정 및 디-스크램블 과정을 거쳐 코드워드로 복원될 수 있다. 코드워드는 복호(decoding)를 거쳐 원래의 정보블록으로 복원될 수 있다. 따라서, 수신 신호를 위한 신호 처리 회로(미도시)는 신호 복원기, 자원 디-매퍼, 포스트코더, 복조기, 디-스크램블러 및 복호기를 포함할 수 있다.The signal processing process for the received signal in the wireless device may be configured in reverse of the signal processing process 1010 to 1060 of FIG. 39 . For example, the wireless device (eg, 100 and 200 in FIG. 38 ) may receive a wireless signal from the outside through an antenna port/transceiver. The received radio signal may be converted into a baseband signal through a signal restorer. To this end, the signal restorer may include a frequency downlink converter, an analog-to-digital converter (ADC), a CP remover, and a Fast Fourier Transform (FFT) module. Thereafter, the baseband signal may be restored to a codeword through a resource de-mapper process, a postcoding process, a demodulation process, and a descrambling process. The codeword may be restored to the original information block through decoding. Accordingly, the signal processing circuit (not shown) for the received signal may include a signal reconstructor, a resource de-mapper, a post coder, a demodulator, a de-scrambler, and a decoder.
도 40은 본 발명에 적용되는 무선 기기의 다른 예를 나타낸다. 무선 기기는 사용-예/서비스에 따라 다양한 형태로 구현될 수 있다.40 shows another example of a wireless device to which the present invention is applied. The wireless device may be implemented in various forms according to use-examples/services.
도 40을 참조하면, 무선 기기(100, 200)는 도 38의 무선 기기(100,200)에 대응하며, 다양한 요소(element), 성분(component), 유닛/부(unit), 및/또는 모듈(module)로 구성될 수 있다. 예를 들어, 무선 기기(100, 200)는 통신부(110), 제어부(120), 메모리부(130) 및 추가 요소(140)를 포함할 수 있다. 통신부는 통신 회로(112) 및 송수신기(들)(114)을 포함할 수 있다. 예를 들어, 통신 회로(112)는 도 38의 하나 이상의 프로세서(102,202) 및/또는 하나 이상의 메모리(104,204)를 포함할 수 있다. 예를 들어, 송수신기(들)(114)는 도 38의 하나 이상의 송수신기(106,206) 및/또는 하나 이상의 안테나(108,208)을 포함할 수 있다. 제어부(120)는 통신부(110), 메모리부(130) 및 추가 요소(140)와 전기적으로 연결되며 무선 기기의 제반 동작을 제어한다. 예를 들어, 제어부(120)는 메모리부(130)에 저장된 프로그램/코드/명령/정보에 기반하여 무선 기기의 전기적/기계적 동작을 제어할 수 있다. 또한, 제어부(120)는 메모리부(130)에 저장된 정보를 통신부(110)을 통해 외부(예, 다른 통신 기기)로 무선/유선 인터페이스를 통해 전송하거나, 통신부(110)를 통해 외부(예, 다른 통신 기기)로부터 무선/유선 인터페이스를 통해 수신된 정보를 메모리부(130)에 저장할 수 있다.Referring to FIG. 40 , the wireless devices 100 and 200 correspond to the wireless devices 100 and 200 of FIG. 38 and include various elements, components, units/units, and/or modules. ) may consist of For example, the wireless devices 100 and 200 may include a communication unit 110 , a control unit 120 , a memory unit 130 , and an additional element 140 . The communication unit may include communication circuitry 112 and transceiver(s) 114 . For example, communication circuitry 112 may include one or more processors 102 and 202 and/or one or more memories 104 and 204 of FIG. 38 . For example, transceiver(s) 114 may include one or more transceivers 106 , 206 and/or one or more antennas 108 , 208 of FIG. 38 . The control unit 120 is electrically connected to the communication unit 110 , the memory unit 130 , and the additional element 140 , and controls general operations of the wireless device. For example, the controller 120 may control the electrical/mechanical operation of the wireless device based on the program/code/command/information stored in the memory unit 130 . In addition, the control unit 120 transmits the information stored in the memory unit 130 to the outside (eg, another communication device) through the communication unit 110 through a wireless/wired interface, or through the communication unit 110 to the outside (eg, Information received through a wireless/wired interface from another communication device) may be stored in the memory unit 130 .
추가 요소(140)는 무선 기기의 종류에 따라 다양하게 구성될 수 있다. 예를 들어, 추가 요소(140)는 파워 유닛/배터리, 입출력부(I/O unit), 구동부 및 컴퓨팅부 중 적어도 하나를 포함할 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(도 37, 100a), 차량(도 37, 100b-1, 100b-2), XR 기기(도 37, 100c), 휴대 기기(도 37, 100d), 가전(도 37, 100e), IoT 기기(도 37, 100f), 디지털 방송용 단말, 홀로그램 장치, 공공 안전 장치, MTC 장치, 의료 장치, 핀테크 장치(또는 금융 장치), 보안 장치, 기후/환경 장치, AI 서버/기기(도 37, 400), 기지국(도 37, 200), 네트워크 노드 등의 형태로 구현될 수 있다. 무선 기기는 사용-예/서비스에 따라 이동 가능하거나 고정된 장소에서 사용될 수 있다.The additional element 140 may be configured in various ways according to the type of the wireless device. For example, the additional element 140 may include at least one of a power unit/battery, an input/output unit (I/O unit), a driving unit, and a computing unit. Although not limited thereto, the wireless device includes a robot ( FIGS. 37 and 100a ), a vehicle ( FIGS. 37 , 100b-1 , 100b-2 ), an XR device ( FIGS. 37 and 100c ), a mobile device ( FIGS. 37 and 100d ), and a home appliance. (FIG. 37, 100e), IoT device (FIG. 37, 100f), digital broadcasting terminal, hologram device, public safety device, MTC device, medical device, fintech device (or financial device), security device, climate/environment device, It may be implemented in the form of an AI server/device ( FIGS. 37 and 400 ), a base station ( FIGS. 37 and 200 ), and a network node. The wireless device may be mobile or used in a fixed location depending on the use-example/service.
도 40에서 무선 기기(100, 200) 내의 다양한 요소, 성분, 유닛/부, 및/또는 모듈은 전체가 유선 인터페이스를 통해 상호 연결되거나, 적어도 일부가 통신부(110)를 통해 무선으로 연결될 수 있다. 예를 들어, 무선 기기(100, 200) 내에서 제어부(120)와 통신부(110)는 유선으로 연결되며, 제어부(120)와 제1 유닛(예, 130, 140)은 통신부(110)를 통해 무선으로 연결될 수 있다. 또한, 무선 기기(100, 200) 내의 각 요소, 성분, 유닛/부, 및/또는 모듈은 하나 이상의 요소를 더 포함할 수 있다. 예를 들어, 제어부(120)는 하나 이상의 프로세서 집합으로 구성될 수 있다. 예를 들어, 제어부(120)는 통신 제어 프로세서, 어플리케이션 프로세서(Application processor), ECU(Electronic Control Unit), 그래픽 처리 프로세서, 메모리 제어 프로세서 등의 집합으로 구성될 수 있다. 다른 예로, 메모리부(130)는 RAM(Random Access Memory), DRAM(Dynamic RAM), ROM(Read Only Memory), 플래시 메모리(flash memory), 휘발성 메모리(volatile memory), 비-휘발성 메모리(non-volatile memory) 및/또는 이들의 조합으로 구성될 수 있다.In FIG. 40 , various elements, components, units/units, and/or modules in the wireless devices 100 and 200 may be entirely interconnected through a wired interface, or at least some of them may be wirelessly connected through the communication unit 110 . For example, in the wireless devices 100 and 200 , the control unit 120 and the communication unit 110 are connected by wire, and the control unit 120 and the first unit (eg, 130 , 140 ) are connected to the communication unit 110 through the communication unit 110 . It can be connected wirelessly. In addition, each element, component, unit/unit, and/or module within the wireless device 100 , 200 may further include one or more elements. For example, the controller 120 may be configured with one or more processor sets. For example, the control unit 120 may be configured as a set of a communication control processor, an application processor, an electronic control unit (ECU), a graphic processing processor, a memory control processor, and the like. As another example, the memory unit 130 may include random access memory (RAM), dynamic RAM (DRAM), read only memory (ROM), flash memory, volatile memory, and non-volatile memory. volatile memory) and/or a combination thereof.
이하, 도 40의 구현 예에 대해 도면을 참조하여 보다 자세히 설명한다.Hereinafter, the embodiment of FIG. 40 will be described in more detail with reference to the drawings.
도 41은 본 발명에 적용되는 휴대 기기를 예시한다. 휴대 기기는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 휴대용 컴퓨터(예, 노트북 등)을 포함할 수 있다. 휴대 기기는 MS(Mobile Station), UT(user terminal), MSS(Mobile Subscriber Station), SS(Subscriber Station), AMS(Advanced Mobile Station) 또는 WT(Wireless terminal)로 지칭될 수 있다.41 illustrates a portable device to which the present invention is applied. The portable device may include a smart phone, a smart pad, a wearable device (eg, a smart watch, smart glasses), and a portable computer (eg, a laptop computer). A mobile device may be referred to as a mobile station (MS), a user terminal (UT), a mobile subscriber station (MSS), a subscriber station (SS), an advanced mobile station (AMS), or a wireless terminal (WT).
도 41을 참조하면, 휴대 기기(100)는 안테나부(108), 통신부(110), 제어부(120), 메모리부(130), 전원공급부(140a), 인터페이스부(140b) 및 입출력부(140c)를 포함할 수 있다. 안테나부(108)는 통신부(110)의 일부로 구성될 수 있다. 블록 110~130/140a~140c는 각각 도 40의 블록 110~130/140에 대응한다.Referring to FIG. 41 , the portable device 100 includes an antenna unit 108 , a communication unit 110 , a control unit 120 , a memory unit 130 , a power supply unit 140a , an interface unit 140b , and an input/output unit 140c . ) may be included. The antenna unit 108 may be configured as a part of the communication unit 110 . Blocks 110 to 130/140a to 140c respectively correspond to blocks 110 to 130/140 of FIG. 40 .
통신부(110)는 다른 무선 기기, 기지국들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(120)는 휴대 기기(100)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(120)는 AP(Application Processor)를 포함할 수 있다. 메모리부(130)는 휴대 기기(100)의 구동에 필요한 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 또한, 메모리부(130)는 입/출력되는 데이터/정보 등을 저장할 수 있다. 전원공급부(140a)는 휴대 기기(100)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다. 인터페이스부(140b)는 휴대 기기(100)와 다른 외부 기기의 연결을 지원할 수 있다. 인터페이스부(140b)는 외부 기기와의 연결을 위한 다양한 포트(예, 오디오 입/출력 포트, 비디오 입/출력 포트)를 포함할 수 있다. 입출력부(140c)는 영상 정보/신호, 오디오 정보/신호, 데이터, 및/또는 사용자로부터 입력되는 정보를 입력 받거나 출력할 수 있다. 입출력부(140c)는 카메라, 마이크로폰, 사용자 입력부, 디스플레이부(140d), 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다.The communication unit 110 may transmit and receive signals (eg, data, control signals, etc.) with other wireless devices and base stations. The controller 120 may control components of the portable device 100 to perform various operations. The controller 120 may include an application processor (AP). The memory unit 130 may store data/parameters/programs/codes/commands necessary for driving the portable device 100 . Also, the memory unit 130 may store input/output data/information. The power supply unit 140a supplies power to the portable device 100 and may include a wired/wireless charging circuit, a battery, and the like. The interface unit 140b may support the connection between the portable device 100 and other external devices. The interface unit 140b may include various ports (eg, an audio input/output port and a video input/output port) for connection with an external device. The input/output unit 140c may receive or output image information/signal, audio information/signal, data, and/or information input from a user. The input/output unit 140c may include a camera, a microphone, a user input unit, a display unit 140d, a speaker, and/or a haptic module.
일 예로, 데이터 통신의 경우, 입출력부(140c)는 사용자로부터 입력된 정보/신호(예, 터치, 문자, 음성, 이미지, 비디오)를 획득하며, 획득된 정보/신호는 메모리부(130)에 저장될 수 있다. 통신부(110)는 메모리에 저장된 정보/신호를 무선 신호로 변환하고, 변환된 무선 신호를 다른 무선 기기에게 직접 전송하거나 기지국에게 전송할 수 있다. 또한, 통신부(110)는 다른 무선 기기 또는 기지국으로부터 무선 신호를 수신한 뒤, 수신된 무선 신호를 원래의 정보/신호로 복원할 수 있다. 복원된 정보/신호는 메모리부(130)에 저장된 뒤, 입출력부(140c)를 통해 다양한 형태(예, 문자, 음성, 이미지, 비디오, 헵틱)로 출력될 수 있다. For example, in the case of data communication, the input/output unit 140c obtains information/signals (eg, touch, text, voice, image, video) input from the user, and the obtained information/signals are stored in the memory unit 130 . can be saved. The communication unit 110 may convert the information/signal stored in the memory into a wireless signal, and transmit the converted wireless signal directly to another wireless device or to a base station. Also, after receiving a radio signal from another radio device or base station, the communication unit 110 may restore the received radio signal to original information/signal. The restored information/signal may be stored in the memory unit 130 and output in various forms (eg, text, voice, image, video, haptic) through the input/output unit 140c.
도 42는 본 발명에 적용되는 차량 또는 자율 주행 차량을 예시한다. 차량 또는 자율 주행 차량은 이동형 로봇, 차량, 기차, 유/무인 비행체(Aerial Vehicle, AV), 선박 등으로 구현될 수 있다.42 illustrates a vehicle or an autonomous driving vehicle to which the present invention is applied. The vehicle or autonomous driving vehicle may be implemented as a mobile robot, vehicle, train, manned/unmanned aerial vehicle (AV), ship, or the like.
도 42를 참조하면, 차량 또는 자율 주행 차량(100)은 안테나부(108), 통신부(110), 제어부(120), 구동부(140a), 전원공급부(140b), 센서부(140c) 및 자율 주행부(140d)를 포함할 수 있다. 안테나부(108)는 통신부(110)의 일부로 구성될 수 있다. 블록 110/130/140a~140d는 각각 도 40의 블록 110/130/140에 대응한다.Referring to FIG. 42 , the vehicle or autonomous driving vehicle 100 includes an antenna unit 108 , a communication unit 110 , a control unit 120 , a driving unit 140a , a power supply unit 140b , a sensor unit 140c , and autonomous driving. It may include a part 140d. The antenna unit 108 may be configured as a part of the communication unit 110 . Blocks 110/130/140a-140d correspond to blocks 110/130/140 of FIG. 40, respectively.
통신부(110)는 다른 차량, 기지국(e.g. 기지국, 노변 기지국(Road Side unit) 등), 서버 등의 외부 기기들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(120)는 차량 또는 자율 주행 차량(100)의 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(120)는 ECU(Electronic Control Unit)를 포함할 수 있다. 구동부(140a)는 차량 또는 자율 주행 차량(100)을 지상에서 주행하게 할 수 있다. 구동부(140a)는 엔진, 모터, 파워 트레인, 바퀴, 브레이크, 조향 장치 등을 포함할 수 있다. 전원공급부(140b)는 차량 또는 자율 주행 차량(100)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다. 센서부(140c)는 차량 상태, 주변 환경 정보, 사용자 정보 등을 얻을 수 있다. 센서부(140c)는 IMU(inertial measurement unit) 센서, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 스티어링 센서, 온도 센서, 습도 센서, 초음파 센서, 조도 센서, 페달 포지션 센서 등을 포함할 수 있다. 자율 주행부(140d)는 주행중인 차선을 유지하는 기술, 어댑티브 크루즈 컨트롤과 같이 속도를 자동으로 조절하는 기술, 정해진 경로를 따라 자동으로 주행하는 기술, 목적지가 설정되면 자동으로 경로를 설정하여 주행하는 기술 등을 구현할 수 있다.The communication unit 110 may transmit/receive signals (eg, data, control signals, etc.) to and from external devices such as other vehicles, base stations (eg, base stations, roadside units, etc.), servers, and the like. The controller 120 may control elements of the vehicle or the autonomous driving vehicle 100 to perform various operations. The controller 120 may include an Electronic Control Unit (ECU). The driving unit 140a may make the vehicle or the autonomous driving vehicle 100 run on the ground. The driving unit 140a may include an engine, a motor, a power train, a wheel, a brake, a steering device, and the like. The power supply unit 140b supplies power to the vehicle or the autonomous driving vehicle 100 , and may include a wired/wireless charging circuit, a battery, and the like. The sensor unit 140c may obtain vehicle status, surrounding environment information, user information, and the like. The sensor unit 140c includes an inertial measurement unit (IMU) sensor, a collision sensor, a wheel sensor, a speed sensor, an inclination sensor, a weight sensor, a heading sensor, a position module, and a vehicle forward movement. / may include a reverse sensor, a battery sensor, a fuel sensor, a tire sensor, a steering sensor, a temperature sensor, a humidity sensor, an ultrasonic sensor, an illuminance sensor, a pedal position sensor, and the like. The autonomous driving unit 140d includes a technology for maintaining a driving lane, a technology for automatically adjusting speed such as adaptive cruise control, a technology for automatically driving along a predetermined route, and a technology for automatically setting a route when a destination is set. technology can be implemented.
일 예로, 통신부(110)는 외부 서버로부터 지도 데이터, 교통 정보 데이터 등을 수신할 수 있다. 자율 주행부(140d)는 획득된 데이터를 기반으로 자율 주행 경로와 드라이빙 플랜을 생성할 수 있다. 제어부(120)는 드라이빙 플랜에 따라 차량 또는 자율 주행 차량(100)이 자율 주행 경로를 따라 이동하도록 구동부(140a)를 제어할 수 있다(예, 속도/방향 조절). 자율 주행 도중에 통신부(110)는 외부 서버로부터 최신 교통 정보 데이터를 비/주기적으로 획득하며, 주변 차량으로부터 주변 교통 정보 데이터를 획득할 수 있다. 또한, 자율 주행 도중에 센서부(140c)는 차량 상태, 주변 환경 정보를 획득할 수 있다. 자율 주행부(140d)는 새로 획득된 데이터/정보에 기반하여 자율 주행 경로와 드라이빙 플랜을 갱신할 수 있다. 통신부(110)는 차량 위치, 자율 주행 경로, 드라이빙 플랜 등에 관한 정보를 외부 서버로 전달할 수 있다. 외부 서버는 차량 또는 자율 주행 차량들로부터 수집된 정보에 기반하여, AI 기술 등을 이용하여 교통 정보 데이터를 미리 예측할 수 있고, 예측된 교통 정보 데이터를 차량 또는 자율 주행 차량들에게 제공할 수 있다.For example, the communication unit 110 may receive map data, traffic information data, and the like from an external server. The autonomous driving unit 140d may generate an autonomous driving route and a driving plan based on the acquired data. The controller 120 may control the driving unit 140a to move the vehicle or the autonomous driving vehicle 100 along the autonomous driving path (eg, speed/direction adjustment) according to the driving plan. During autonomous driving, the communication unit 110 may non/periodically acquire the latest traffic information data from an external server, and may acquire surrounding traffic information data from surrounding vehicles. Also, during autonomous driving, the sensor unit 140c may acquire vehicle state and surrounding environment information. The autonomous driving unit 140d may update the autonomous driving route and the driving plan based on the newly acquired data/information. The communication unit 110 may transmit information about a vehicle location, an autonomous driving route, a driving plan, and the like to an external server. The external server may predict traffic information data in advance using AI technology or the like based on information collected from the vehicle or autonomous vehicles, and may provide the predicted traffic information data to the vehicle or autonomous vehicles.
도 43은 본 발명에 적용되는 차량을 예시한다. 차량은 운송수단, 기차, 비행체, 선박 등으로도 구현될 수 있다.43 illustrates a vehicle to which the present invention is applied. The vehicle may also be implemented as a means of transportation, a train, an air vehicle, a ship, and the like.
도 43을 참조하면, 차량(100)은 통신부(110), 제어부(120), 메모리부(130), 입출력부(140a) 및 위치 측정부(140b)를 포함할 수 있다. 여기서, 블록 110~130/140a~140b는 각각 도 40의 블록 110~130/140에 대응한다.Referring to FIG. 43 , the vehicle 100 may include a communication unit 110 , a control unit 120 , a memory unit 130 , an input/output unit 140a , and a position measurement unit 140b . Here, blocks 110 to 130/140a to 140b correspond to blocks 110 to 130/140 of FIG. 40 , respectively.
통신부(110)는 다른 차량, 또는 기지국 등의 외부 기기들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(120)는 차량(100)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 메모리부(130)는 차량(100)의 다양한 기능을 지원하는 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 입출력부(140a)는 메모리부(130) 내의 정보에 기반하여 AR/VR 오브젝트를 출력할 수 있다. 입출력부(140a)는 HUD를 포함할 수 있다. 위치 측정부(140b)는 차량(100)의 위치 정보를 획득할 수 있다. 위치 정보는 차량(100)의 절대 위치 정보, 주행선 내에서의 위치 정보, 가속도 정보, 주변 차량과의 위치 정보 등을 포함할 수 있다. 위치 측정부(140b)는 GPS 및 다양한 센서들을 포함할 수 있다.The communication unit 110 may transmit and receive signals (eg, data, control signals, etc.) with other vehicles or external devices such as a base station. The controller 120 may control components of the vehicle 100 to perform various operations. The memory unit 130 may store data/parameters/programs/codes/commands supporting various functions of the vehicle 100 . The input/output unit 140a may output an AR/VR object based on information in the memory unit 130 . The input/output unit 140a may include a HUD. The position measuring unit 140b may acquire position information of the vehicle 100 . The location information may include absolute location information of the vehicle 100 , location information within a driving line, acceleration information, location information with a neighboring vehicle, and the like. The position measuring unit 140b may include a GPS and various sensors.
일 예로, 차량(100)의 통신부(110)는 외부 서버로부터 지도 정보, 교통 정보 등을 수신하여 메모리부(130)에 저장할 수 있다. 위치 측정부(140b)는 GPS 및 다양한 센서를 통하여 차량 위치 정보를 획득하여 메모리부(130)에 저장할 수 있다. 제어부(120)는 지도 정보, 교통 정보 및 차량 위치 정보 등에 기반하여 가상 오브젝트를 생성하고, 입출력부(140a)는 생성된 가상 오브젝트를 차량 내 유리창에 표시할 수 있다(1410, 1420). 또한, 제어부(120)는 차량 위치 정보에 기반하여 차량(100)이 주행선 내에서 정상적으로 운행되고 있는지 판단할 수 있다. 차량(100)이 주행선을 비정상적으로 벗어나는 경우, 제어부(120)는 입출력부(140a)를 통해 차량 내 유리창에 경고를 표시할 수 있다. 또한, 제어부(120)는 통신부(110)를 통해 주변 차량들에게 주행 이상에 관한 경고 메세지를 방송할 수 있다. 상황에 따라, 제어부(120)는 통신부(110)를 통해 관계 기관에게 차량의 위치 정보와, 주행/차량 이상에 관한 정보를 전송할 수 있다. For example, the communication unit 110 of the vehicle 100 may receive map information, traffic information, and the like from an external server and store it in the memory unit 130 . The position measuring unit 140b may obtain vehicle position information through GPS and various sensors and store it in the memory unit 130 . The controller 120 may generate a virtual object based on map information, traffic information, and vehicle location information, and the input/output unit 140a may display the generated virtual object on a window inside the vehicle ( 1410 and 1420 ). In addition, the controller 120 may determine whether the vehicle 100 is normally operating within the driving line based on the vehicle location information. When the vehicle 100 deviates from the driving line abnormally, the controller 120 may display a warning on the windshield of the vehicle through the input/output unit 140a. Also, the control unit 120 may broadcast a warning message regarding the driving abnormality to surrounding vehicles through the communication unit 110 . Depending on the situation, the control unit 120 may transmit the location information of the vehicle and information on driving/vehicle abnormality to the related organization through the communication unit 110 .
도 44는 본 발명에 적용되는 XR 기기를 예시한다. XR 기기는 HMD, 차량에 구비된 HUD(Head-Up Display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등으로 구현될 수 있다.44 illustrates an XR device applied to the present invention. The XR device may be implemented as an HMD, a head-up display (HUD) provided in a vehicle, a television, a smart phone, a computer, a wearable device, a home appliance, a digital signage, a vehicle, a robot, and the like.
도 44를 참조하면, XR 기기(100a)는 통신부(110), 제어부(120), 메모리부(130), 입출력부(140a), 센서부(140b) 및 전원공급부(140c)를 포함할 수 있다. 여기서, 블록 110~130/140a~140c은 각각 도 40의 블록 110~130/140에 대응한다.Referring to FIG. 44 , the XR device 100a may include a communication unit 110 , a control unit 120 , a memory unit 130 , an input/output unit 140a , a sensor unit 140b , and a power supply unit 140c . . Here, blocks 110 to 130/140a to 140c correspond to blocks 110 to 130/140 of FIG. 40 , respectively.
통신부(110)는 다른 무선 기기, 휴대 기기, 또는 미디어 서버 등의 외부 기기들과 신호(예, 미디어 데이터, 제어 신호 등)를 송수신할 수 있다. 미디어 데이터는 영상, 이미지, 소리 등을 포함할 수 있다. 제어부(120)는 XR 기기(100a)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 예를 들어, 제어부(120)는 비디오/이미지 획득, (비디오/이미지) 인코딩, 메타데이터 생성 및 처리 등의 절차를 제어 및/또는 수행하도록 구성될 수 있다. 메모리부(130)는 XR 기기(100a)의 구동/XR 오브젝트의 생성에 필요한 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 입출력부(140a)는 외부로부터 제어 정보, 데이터 등을 획득하며, 생성된 XR 오브젝트를 출력할 수 있다. 입출력부(140a)는 카메라, 마이크로폰, 사용자 입력부, 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센서부(140b)는 XR 기기 상태, 주변 환경 정보, 사용자 정보 등을 얻을 수 있다. 센서부(140b)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰 및/또는 레이더 등을 포함할 수 있다. 전원공급부(140c)는 XR 기기(100a)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다.The communication unit 110 may transmit/receive signals (eg, media data, control signals, etc.) to/from external devices such as other wireless devices, portable devices, or media servers. Media data may include images, images, sounds, and the like. The controller 120 may perform various operations by controlling the components of the XR device 100a. For example, the controller 120 may be configured to control and/or perform procedures such as video/image acquisition, (video/image) encoding, and metadata generation and processing. The memory unit 130 may store data/parameters/programs/codes/commands necessary for driving the XR device 100a/creating an XR object. The input/output unit 140a may obtain control information, data, and the like from the outside, and may output the generated XR object. The input/output unit 140a may include a camera, a microphone, a user input unit, a display unit, a speaker, and/or a haptic module. The sensor unit 140b may obtain an XR device state, surrounding environment information, user information, and the like. The sensor unit 140b may include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and/or a radar. have. The power supply unit 140c supplies power to the XR device 100a, and may include a wired/wireless charging circuit, a battery, and the like.
일 예로, XR 기기(100a)의 메모리부(130)는 XR 오브젝트(예, AR/VR/MR 오브젝트)의 생성에 필요한 정보(예, 데이터 등)를 포함할 수 있다. 입출력부(140a)는 사용자로부터 XR 기기(100a)를 조작하는 명령을 회득할 수 있으며, 제어부(120)는 사용자의 구동 명령에 따라 XR 기기(100a)를 구동시킬 수 있다. 예를 들어, 사용자가 XR 기기(100a)를 통해 영화, 뉴스 등을 시청하려고 하는 경우, 제어부(120)는 통신부(130)를 통해 컨텐츠 요청 정보를 다른 기기(예, 휴대 기기(100b)) 또는 미디어 서버에 전송할 수 있다. 통신부(130)는 다른 기기(예, 휴대 기기(100b)) 또는 미디어 서버로부터 영화, 뉴스 등의 컨텐츠를 메모리부(130)로 다운로드/스트리밍 받을 수 있다. 제어부(120)는 컨텐츠에 대해 비디오/이미지 획득, (비디오/이미지) 인코딩, 메타데이터 생성/처리 등의 절차를 제어 및/또는 수행하며, 입출력부(140a)/센서부(140b)를 통해 획득한 주변 공간 또는 현실 오브젝트에 대한 정보에 기반하여 XR 오브젝트를 생성/출력할 수 있다.For example, the memory unit 130 of the XR device 100a may include information (eg, data, etc.) necessary for generating an XR object (eg, AR/VR/MR object). The input/output unit 140a may obtain a command to operate the XR device 100a from the user, and the controller 120 may drive the XR device 100a according to the user's driving command. For example, when the user wants to watch a movie or news through the XR device 100a, the controller 120 transmits the content request information to another device (eg, the mobile device 100b) through the communication unit 130 or can be sent to the media server. The communication unit 130 may download/stream contents such as movies and news from another device (eg, the portable device 100b) or a media server to the memory unit 130 . The controller 120 controls and/or performs procedures such as video/image acquisition, (video/image) encoding, and metadata generation/processing for the content, and is acquired through the input/output unit 140a/sensor unit 140b An XR object can be generated/output based on information about one surrounding space or a real object.
또한, XR 기기(100a)는 통신부(110)를 통해 휴대 기기(100b)와 무선으로 연결되며, XR 기기(100a)의 동작은 휴대 기기(100b)에 의해 제어될 수 있다. 예를 들어, 휴대 기기(100b)는 XR 기기(100a)에 대한 콘트롤러로 동작할 수 있다. 이를 위해, XR 기기(100a)는 휴대 기기(100b)의 3차원 위치 정보를 획득한 뒤, 휴대 기기(100b)에 대응하는 XR 개체를 생성하여 출력할 수 있다. In addition, the XR device 100a is wirelessly connected to the portable device 100b through the communication unit 110 , and the operation of the XR device 100a may be controlled by the portable device 100b. For example, the portable device 100b may operate as a controller for the XR device 100a. To this end, the XR device 100a may obtain 3D location information of the portable device 100b, and then generate and output an XR object corresponding to the portable device 100b.
도 45는 본 발명에 적용되는 로봇을 예시한다. 로봇은 사용 목적이나 분야에 따라 산업용, 의료용, 가정용, 군사용 등으로 분류될 수 있다.45 illustrates a robot applied to the present invention. Robots can be classified into industrial, medical, home, military, etc. depending on the purpose or field of use.
도 45를 참조하면, 로봇(100)은 통신부(110), 제어부(120), 메모리부(130), 입출력부(140a), 센서부(140b) 및 구동부(140c)를 포함할 수 있다. 여기서, 블록 110~130/140a~140c은 각각 도 40의 블록 110~130/140에 대응한다.Referring to FIG. 45 , the robot 100 may include a communication unit 110 , a control unit 120 , a memory unit 130 , an input/output unit 140a , a sensor unit 140b , and a driving unit 140c . Here, blocks 110 to 130/140a to 140c correspond to blocks 110 to 130/140 of FIG. 40 , respectively.
통신부(110)는 다른 무선 기기, 다른 로봇, 또는 제어 서버 등의 외부 기기들과 신호(예, 구동 정보, 제어 신호 등)를 송수신할 수 있다. 제어부(120)는 로봇(100)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 메모리부(130)는 로봇(100)의 다양한 기능을 지원하는 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 입출력부(140a)는 로봇(100)의 외부로부터 정보를 획득하며, 로봇(100)의 외부로 정보를 출력할 수 있다. 입출력부(140a)는 카메라, 마이크로폰, 사용자 입력부, 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센서부(140b)는 로봇(100)의 내부 정보, 주변 환경 정보, 사용자 정보 등을 얻을 수 있다. 센서부(140b)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 레이더 등을 포함할 수 있다. 구동부(140c)는 로봇 관절을 움직이는 등의 다양한 물리적 동작을 수행할 수 있다. 또한, 구동부(140c)는 로봇(100)을 지상에서 주행하거나 공중에서 비행하게 할 수 있다. 구동부(140c)는 액츄에이터, 모터, 바퀴, 브레이크, 프로펠러 등을 포함할 수 있다.The communication unit 110 may transmit/receive signals (eg, driving information, control signals, etc.) with external devices such as other wireless devices, other robots, or control servers. The controller 120 may control the components of the robot 100 to perform various operations. The memory unit 130 may store data/parameters/programs/codes/commands supporting various functions of the robot 100 . The input/output unit 140a may obtain information from the outside of the robot 100 and may output the information to the outside of the robot 100 . The input/output unit 140a may include a camera, a microphone, a user input unit, a display unit, a speaker, and/or a haptic module. The sensor unit 140b may obtain internal information, surrounding environment information, user information, and the like of the robot 100 . The sensor unit 140b may include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, a radar, and the like. The driving unit 140c may perform various physical operations such as moving a robot joint. In addition, the driving unit 140c may make the robot 100 travel on the ground or fly in the air. The driving unit 140c may include an actuator, a motor, a wheel, a brake, a propeller, and the like.
도 46은 본 발명에 적용되는 AI 기기를 예시한다. AI 기기는 TV, 프로젝터, 스마트폰, PC, 노트북, 디지털방송용 단말기, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), 라디오, 세탁기, 냉장고, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다.46 illustrates an AI device applied to the present invention. AI devices are fixed or mobile devices such as TVs, projectors, smartphones, PCs, laptops, digital broadcasting terminals, tablet PCs, wearable devices, set-top boxes (STBs), radios, washing machines, refrigerators, digital signage, robots, vehicles, etc. It may be implemented in any possible device or the like.
도 46을 참조하면, AI 기기(100)는 통신부(110), 제어부(120), 메모리부(130), 입/출력부(140a/140b), 러닝 프로세서부(140c) 및 센서부(140d)를 포함할 수 있다. 블록 110~130/140a~140d는 각각 도 40의 블록 110~130/140에 대응한다.Referring to FIG. 46 , the AI device 100 includes a communication unit 110 , a control unit 120 , a memory unit 130 , input/output units 140a/140b , a learning processor unit 140c and a sensor unit 140d). may include. Blocks 110 to 130/140a to 140d correspond to blocks 110 to 130/140 of FIG. 40, respectively.
통신부(110)는 유무선 통신 기술을 이용하여 다른 AI 기기(예, 도 37, 100x, 200, 400)나 AI 서버(200) 등의 외부 기기들과 유무선 신호(예, 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등)를 송수신할 수 있다. 이를 위해, 통신부(110)는 메모리부(130) 내의 정보를 외부 기기로 전송하거나, 외부 기기로부터 수신된 신호를 메모리부(130)로 전달할 수 있다.The communication unit 110 uses wired/wireless communication technology to communicate with external devices such as other AI devices (eg, FIGS. 37, 100x, 200, 400) or the AI server 200 and wired/wireless signals (eg, sensor information, user input, learning). models, control signals, etc.). To this end, the communication unit 110 may transmit information in the memory unit 130 to an external device or transmit a signal received from the external device to the memory unit 130 .
제어부(120)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 기기(100)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 제어부(120)는 AI 기기(100)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다. 예를 들어, 제어부(120)는 러닝 프로세서부(140c) 또는 메모리부(130)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 기기(100)의 구성 요소들을 제어할 수 있다. 또한, 제어부(120)는 AI 장치(100)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리부(130) 또는 러닝 프로세서부(140c)에 저장하거나, AI 서버(도 37, 400) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.The controller 120 may determine at least one executable operation of the AI device 100 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. In addition, the controller 120 may control the components of the AI device 100 to perform the determined operation. For example, the control unit 120 may request, search, receive, or utilize the data of the learning processor unit 140c or the memory unit 130 , and may be a predicted operation among at least one executable operation or determined to be preferable. Components of the AI device 100 may be controlled to execute the operation. In addition, the control unit 120 collects history information including the user's feedback on the operation contents or operation of the AI device 100 and stores it in the memory unit 130 or the learning processor unit 140c, or the AI server ( 37 and 400), and the like, may be transmitted to an external device. The collected historical information may be used to update the learning model.
메모리부(130)는 AI 기기(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예를 들어, 메모리부(130)는 입력부(140a)로부터 얻은 데이터, 통신부(110)로부터 얻은 데이터, 러닝 프로세서부(140c)의 출력 데이터, 및 센싱부(140)로부터 얻은 데이터를 저장할 수 있다. 또한, 메모리부(130)는 제어부(120)의 동작/실행에 필요한 제어 정보 및/또는 소프트웨어 코드를 저장할 수 있다.The memory unit 130 may store data supporting various functions of the AI device 100 . For example, the memory unit 130 may store data obtained from the input unit 140a , data obtained from the communication unit 110 , output data of the learning processor unit 140c , and data obtained from the sensing unit 140 . In addition, the memory unit 130 may store control information and/or software codes necessary for the operation/execution of the control unit 120 .
입력부(140a)는 AI 기기(100)의 외부로부터 다양한 종류의 데이터를 획득할 수 있다. 예를 들어, 입력부(120)는 모델 학습을 위한 학습 데이터, 및 학습 모델이 적용될 입력 데이터 등을 획득할 수 있다. 입력부(140a)는 카메라, 마이크로폰 및/또는 사용자 입력부 등을 포함할 수 있다. 출력부(140b)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다. 출력부(140b)는 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센싱부(140)는 다양한 센서들을 이용하여 AI 기기(100)의 내부 정보, AI 기기(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 얻을 수 있다. 센싱부(140)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰 및/또는 레이더 등을 포함할 수 있다.The input unit 140a may acquire various types of data from the outside of the AI device 100 . For example, the input unit 120 may obtain training data for model learning, input data to which the learning model is applied, and the like. The input unit 140a may include a camera, a microphone, and/or a user input unit. The output unit 140b may generate an output related to visual, auditory or tactile sense. The output unit 140b may include a display unit, a speaker, and/or a haptic module. The sensing unit 140 may obtain at least one of internal information of the AI device 100 , surrounding environment information of the AI device 100 , and user information by using various sensors. The sensing unit 140 may include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and/or a radar. have.
러닝 프로세서부(140c)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 러닝 프로세서부(140c)는 AI 서버(도 37, 400)의 러닝 프로세서부와 함께 AI 프로세싱을 수행할 수 있다. 러닝 프로세서부(140c)는 통신부(110)를 통해 외부 기기로부터 수신된 정보, 및/또는 메모리부(130)에 저장된 정보를 처리할 수 있다. 또한, 러닝 프로세서부(140c)의 출력 값은 통신부(110)를 통해 외부 기기로 전송되거나/되고, 메모리부(130)에 저장될 수 있다.The learning processor unit 140c may train a model composed of an artificial neural network by using the training data. The learning processor unit 140c may perform AI processing together with the learning processor unit of the AI server ( FIGS. 37 and 400 ). The learning processor unit 140c may process information received from an external device through the communication unit 110 and/or information stored in the memory unit 130 . Also, the output value of the learning processor unit 140c may be transmitted to an external device through the communication unit 110 and/or stored in the memory unit 130 .
이상에서 설명된 실시 예들은 본 발명의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시 예를 구성하는 것도 가능하다. 본 발명의 실시 예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시 예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시 예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.The embodiments described above are those in which elements and features of the present invention are combined in a predetermined form. Each component or feature should be considered optional unless explicitly stated otherwise. Each component or feature may be implemented in a form that is not combined with other components or features. In addition, it is also possible to configure an embodiment of the present invention by combining some elements and/or features. The order of operations described in the embodiments of the present invention may be changed. Some features or features of one embodiment may be included in another embodiment, or may be replaced with corresponding features or features of another embodiment. It is obvious that claims that are not explicitly cited in the claims can be combined to form an embodiment or included as a new claim by amendment after filing.
본 발명에 따른 실시 예는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시 예는 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.Embodiments according to the present invention may be implemented by various means, for example, hardware, firmware, software, or a combination thereof. In the case of implementation by hardware, an embodiment of the present invention provides one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), FPGAs ( field programmable gate arrays), a processor, a controller, a microcontroller, a microprocessor, and the like.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시 예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리는 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of implementation by firmware or software, an embodiment of the present invention may be implemented in the form of modules, procedures, functions, etc. that perform the functions or operations described above. The software code may be stored in the memory and driven by the processor. The memory may be located inside or outside the processor, and may transmit/receive data to and from the processor by various known means.
본 발명은 본 발명의 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 통상의 기술자에게 자명하다. 따라서, 상술한 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. It is apparent to those skilled in the art that the present invention may be embodied in other specific forms without departing from the essential characteristics of the present invention. Accordingly, the foregoing detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention.
본 발명은 3GPP LTE/LTE-A, 5G 시스템에 적용되는 예를 중심으로 설명하였으나, 3GPP LTE/LTE-A, 5G 시스템 이외에도 다양한 무선 통신 시스템에 적용하는 것이 가능하다.Although the present invention has been described focusing on examples applied to 3GPP LTE/LTE-A and 5G systems, it is possible to apply to various wireless communication systems in addition to 3GPP LTE/LTE-A and 5G systems.

Claims (19)

  1. 오토 인코더(auto encoder)를 이용하는 무선 통신 시스템에서 송신단이 신호를 전송하기 위한 방법은,A method for a transmitting end to transmit a signal in a wireless communication system using an auto encoder is,
    사전 학습된 송신단 인코더 뉴럴 네트워크(neural network)에 기초하여 입력 데이터를 인코딩(encoding)하는 단계; 및encoding input data based on a pre-trained transmitter-end encoder neural network; and
    상기 인코딩된 입력 데이터에 기초하여 상기 신호를 수신단으로 전송하는 단계를 포함하되,Transmitting the signal to a receiving end based on the encoded input data,
    상기 송신단 인코더 뉴럴 네트워크는 (i) 상기 입력 데이터를 입력 받아 제 1 코드워드(codeword)를 출력하는 제 1 인코더 뉴럴 네트워크, (ii) 상기 제 1 코드워드를 입력 받아 인터리빙(interleaving)하고, 상기 인터리빙된 제 1 코드워드를 출력하는 인터리버(interleaver) 및 (iii) 상기 인터리빙된 제 1 코드워드를 입력 받아 상기 인코딩된 입력 데이터를 구성하는 제 2 코드워드를 출력하는 제 2 인코더 뉴럴 네트워크를 직렬적으로(serially) 포함하는 것을 특징으로 하는 방법.The transmitting end encoder neural network includes (i) a first encoder neural network that receives the input data and outputs a first codeword, (ii) receives the first codeword and interleaves the first codeword, and performs the interleaving. an interleaver for outputting the first codeword and (iii) a second encoder neural network for receiving the interleaved first codeword and outputting a second codeword constituting the encoded input data serially (serially) comprising.
  2. 제 1 항에 있어서,The method of claim 1,
    상기 제 1 인코더 뉴럴 네트워크는 n1개의 제 1 인코더 컴포넌트 뉴럴 네트워크로 구성되고, 상기 제 2 인코더 뉴럴 네트워크는 n2개의 상기 제 1 인코더 컴포넌트 뉴럴 네트워크 및 n3개의 제 2 인코더 컴포넌트 뉴럴 네트워크로 구성되고,The first encoder neural network consists of n1 first encoder component neural networks, and the second encoder neural network consists of n2 first encoder component neural networks and n3 second encoder component neural networks,
    상기 n1, n2 및 n3는 0이 아닌 양의 정수인 것을 특징으로 하는 방법.Wherein n1, n2 and n3 are non-zero positive integers.
  3. 제 2 항에 있어서,3. The method of claim 2,
    상기 입력 데이터의 길이가 k인 것에 기초하여, 상기 제 1 인코더 뉴럴 네트워트의 코드 레이트(code rate)는 k/n1이고, 상기 제 2 인코더 뉴럴 네트워크의 코드 레이트는 n1/(n2+n3)이고, 상기 송신단 인코더 뉴럴 네트워크의 전체 코드 레이트는 k/(n2+n3)인 것을 특징으로 하는 방법.Based on the length of the input data being k, the code rate of the first encoder neural network is k/n1, and the code rate of the second encoder neural network is n1/(n2+n3), The total code rate of the transmitting-end encoder neural network is k/(n2+n3).
  4. 제 2 항에 있어서,3. The method of claim 2,
    상기 제 1 인코더 컴포넌트 뉴럴 네트워크 및 상기 제 2 인코더 컴포넌트 뉴럴 네트워크 각각은 적어도 하나 이상의 계층(layer)으로 구성되고,Each of the first encoder component neural network and the second encoder component neural network consists of at least one or more layers,
    상기 제 1 인코더 컴포넌트 뉴럴 네트워크 및 상기 제 2 인코더 컴포넌트 뉴럴 네트워크는 입력 값에 대한 필터링(filtering)을 위한 (i) 필터링 함수 및 (ii) 상기 필터링 함수의 출력을 입력 받는 활성화 함수(activation function)를 포함하는 뉴럴 네트워크 구성 단위에 기초하여 구성되는 것을 특징으로 하는 방법.The first encoder component neural network and the second encoder component neural network include (i) a filtering function for filtering an input value and (ii) an activation function receiving an output of the filtering function as an input. Method characterized in that it is configured based on a neural network configuration unit comprising.
  5. 제 4 항에 있어서,5. The method of claim 4,
    상기 제 1 인코더 컴포넌트 뉴럴 네트워크 및 상기 제 2 인코더 컴포넌트 뉴럴 네트워크 각각은 2개의 계층(layer)으로 구성되는 것을 특징으로 하는 방법.Each of the first encoder component neural network and the second encoder component neural network consists of two layers.
  6. 제 5 항에 있어서,6. The method of claim 5,
    상기 n1 및 상기 n2의 값은 동일하고, 상기 n3는 1인 것을 특징으로 하는 방법.The values of n1 and n2 are the same, and n3 is 1.
  7. 제 6 항에 있어서,7. The method of claim 6,
    상기 제 1 인코더 컴포넌트 뉴럴 네트워크는 하나의 입력 값을 입력 받는 제 1 뉴럴 네트워크 구성 단위 및 상기 제 1 뉴럴 네트워크 구성 단위의 출력을 입력 받는 제 2 뉴럴 네트워크 구성 단위를 포함하고, 상기 제 2 뉴럴 네트워크 구성 단위의 출력에 선형 회귀(Linear regression)를 적용하고, 상기 선형 회귀가 적용된 상기 제 2 뉴럴 네트워크 구성 단위의 출력에 eLu(exponential linear unit) 함수를 적용하는 것을 특징으로 하는 방법.The first encoder component neural network includes a first neural network constituent unit receiving one input value and a second neural network constituent unit receiving an output of the first neural network constituent unit, and the second neural network constructs Linear regression is applied to the output of a unit, and an exponential linear unit (eLu) function is applied to the output of the second neural network configuration unit to which the linear regression is applied.
  8. 제 7 항에 있어서,8. The method of claim 7,
    상기 제 2 인코더 컴포넌트 뉴럴 네트워크는 상기 n1개의 입력 값을 입력 받는 제 3 뉴럴 네트워크 구성 단위 및 상기 제 3 뉴럴 네트워크 구성 단위의 출력 값을 입력 받는 제 4 뉴럴 네트워크 구성 단위를 포함하고, 상기 제 4 뉴럴 네트워크 구성 단위의 출력 값에 상기 선형 회귀를 적용하고, 상기 선형 회귀가 적용된 상기 제 4 뉴럴 네트워크 구성 단위의 출력값에 상기 eLu 함수를 적용하는 것을 특징으로 하는 방법.The second encoder component neural network includes a third neural network constituent unit receiving the n1 input values and a fourth neural network constituent unit receiving output values of the third neural network constituent unit, and the fourth neural network The method of claim 1 , wherein the linear regression is applied to an output value of a network constituent unit, and the eLu function is applied to an output value of the fourth neural network constituent unit to which the linear regression is applied.
  9. 제 8 항에 있어서,9. The method of claim 8,
    상기 제 1 뉴럴 네트워크 구성 단위 및 상기 제 3 뉴럴 네트워크 구성 단위는 상기 2개의 계층 중 하나인 제 1 계층을 구성하고, The first neural network constituent unit and the third neural network constituent unit constitute a first layer that is one of the two layers,
    상기 제 2 뉴럴 네트워크 구성 단위 및 상기 제 4 뉴럴 네트워크 구성 단위는 상기 2개의 계층 중 나머지 하나인 제 2 계층을 구성하는 것을 특징으로 하는 방법.The second neural network constituent unit and the fourth neural network constituent unit constitute a second layer that is the other one of the two layers.
  10. 제 8 항에 있어서,9. The method of claim 8,
    상기 제 1 뉴럴 네트워크 구성 단위 내지 상기 제 4 뉴럴 네트워크 구성 단위 각각의 출력 값이 출력되는 출력 채널의 개수는 100인 것을 특징으로 하는 방법.The number of output channels through which output values of each of the first neural network structural unit to the fourth neural network structural unit is output is 100.
  11. 제 1 항에 있어서,The method of claim 1,
    상기 인터리버에 입력되는 상기 제 1 코드워드 비트열(bit stream) 내의 i+1번째 비트(bit)는 아래의 수학식에 기초하여 인터리빙되고,The i+1th bit in the first codeword bit stream input to the interleaver is interleaved based on the following equation,
    [수학식][Equation]
    Figure PCTKR2021005384-appb-img-000016
    Figure PCTKR2021005384-appb-img-000016
    여기서, L은 인터리버의 크기이고, f0은 상수 오프셋(constant offset)이고, f1은 상기 L과 서로소 관계를 만족하는 소수(prime number)이고, f2는 L의 약수(fraction)들 중 2의 거듭 제곱 수(power of 2)에 해당하는 수인 것을 특징으로 하는 방법.Here, L is the size of the interleaver, f0 is a constant offset, f1 is a prime number that satisfies L and a relative relation, and f2 is a power of 2 among L fractions. A method, characterized in that it is a number corresponding to a power of 2.
  12. 제 11 항에 있어서,12. The method of claim 11,
    상기 f0 은 0이고, 상기 제 1 코드워드의 비트열에 대하여 상기 f2의 값만큼 병렬(parallel) 연산이 수행되는 것을 특징으로 하는 방법.Wherein f0 is 0, and a parallel operation is performed on the bit string of the first codeword by the value of f2.
  13. 제 4 항에 있어서,5. The method of claim 4,
    상기 적어도 하나 이상의 계층 중 가장 먼저 위치하는 계층을 구성하는 특정 뉴럴 네트워크 구성 단위는 상기 필터링 함수의 출력 채널의 수를 감소시키기 위한 풀링 계층(pooling layer)을 더 포함하고,A specific neural network configuration unit constituting the first layer among the at least one or more layers further includes a pooling layer for reducing the number of output channels of the filtering function,
    상기 풀링 계층은 상기 필터링 함수 및 상기 활성화 함수 사이에 위치하는 것을 특징으로 하는 방법.The pooling layer is located between the filtering function and the activation function.
  14. 제 13 항에 있어서,14. The method of claim 13,
    상기 가장 먼저 위치하는 계층 이후에 위치하는 계층들을 구성하는 각각의 뉴럴 네트워크 구성 단위들은 상기 풀링 계층(pooling layer)을 더 포함하는 것을 특징으로 하는 방법.Each of the neural network constituent units constituting the layers positioned after the first positioned layer further comprises the pooling layer.
  15. 오토 인코더(auto encoder)를 이용하는 무선 통신 시스템에서 신호를 송수신하기 위한 송신단에 있어서,In a transmitting end for transmitting and receiving a signal in a wireless communication system using an auto encoder,
    무선 신호를 전송하기 위한 전송기(transmitter);a transmitter for transmitting a wireless signal;
    무선 신호를 수신하기 위한 수신기(receiver);a receiver for receiving a radio signal;
    적어도 하나의 프로세서; 및at least one processor; and
    상기 적어도 하나의 프로세서에 동작 가능하게 접속 가능하고, 상기 적어도 하나의 프로세서에 의해 실행될 때, 동작들을 수행하는 지시(instruction)들을 저장하는 적어도 하나의 컴퓨터 메모리를 포함하며,at least one computer memory operably connectable to the at least one processor and storing instructions for performing operations when executed by the at least one processor;
    상기 동작들은,The actions are
    사전 학습된 송신단 인코더 뉴럴 네트워크(neural network)에 기초하여 입력 데이터를 인코딩(encoding)하는 단계; 및encoding input data based on a pre-trained transmitter-end encoder neural network; and
    상기 인코딩된 입력 데이터에 기초하여 상기 신호를 수신단으로 전송하는 단계를 포함하되,Transmitting the signal to a receiving end based on the encoded input data,
    상기 송신단 인코더 뉴럴 네트워크는 (i) 상기 입력 데이터를 입력 받아 제 1 코드워드(codeword)를 출력하는 제 1 인코더 뉴럴 네트워크, (ii) 상기 제 1 코드워드를 입력 받아 인터리빙(interleaving)하고, 상기 인터리빙된 제 1 코드워드를 출력하는 인터리버(interleaver) 및 (iii) 상기 인터리빙된 제 1 코드워드를 입력 받아 상기 인코딩된 입력 데이터를 구성하는 제 2 코드워드를 출력하는 제 2 인코더 뉴럴 네트워크를 직렬적으로(serially) 포함하는 것을 특징으로 하는 송신단.The transmitting end encoder neural network includes (i) a first encoder neural network that receives the input data and outputs a first codeword, (ii) receives the first codeword and interleaves the first codeword, and performs the interleaving. an interleaver for outputting the first codeword and (iii) a second encoder neural network for receiving the interleaved first codeword and outputting a second codeword constituting the encoded input data serially (serially) the transmitting end, characterized in that it includes.
  16. 오토 인코더(auto encoder)를 이용하는 무선 통신 시스템에서 수신단이 신호를 수신하기 위한 방법은,A method for a receiving end to receive a signal in a wireless communication system using an auto encoder,
    사전 학습된 송신단 인코더 뉴럴 네트워크(neural network)에 기초하여 인코딩된 데이터를 포함하는 신호를 송신단으로부터 수신하는 단계;Receiving a signal including data encoded based on a pre-trained transmitter-end encoder neural network from the transmitter;
    사전 학습된 수신단 디코더 뉴럴 네트워크(neural network)에 기초하여 상기 신호에 포함된 상기 인코딩된 데이터를 디코딩(decoding)하는 단계를 포함하되,Comprising the step of decoding the encoded data included in the signal based on a pre-trained receiving end decoder neural network (decoding),
    상기 수신단 디코더 뉴럴 네트워크는 순차적으로 연결된 적어도 하나 이상의 기본 디코더 뉴럴 네트워크를 포함하고,The receiving end decoder neural network includes at least one sequentially connected basic decoder neural network,
    상기 적어도 하나 이상의 기본 디코더 뉴럴 네트워크 각각은 (i) 송신단 인코더 뉴럴 네트워크에 포함된 제 2 인코더 뉴럴 네트워크에서 출력된 제 2 코드워드에 대한 디코딩을 수행하고, 제 2 디코딩된 코드워드를 출력하는 제 2 디코더 뉴럴 네트워크, (ii) 상기 제 2 디코딩된 코드워드를 입력 받아 디-인터리빙(de-interleaving)하고, 상기 디-인터리빙된 제 2 디코딩된 코드워드를 출력하는 디-인터리버(de-interleaver) 및 (iii) 상기 디-인터리빙된 제 2 디코딩된 코드워드에 대한 디코딩을 수행하고, 상기 디-인터리빙된 제 2 디코딩된 코드워드에 대한 디코딩에 기초한 제 1 디코딩된 코드워드를 출력하는 제 1 디코더 뉴럴 네트워크를 직렬적으로(serially) 포함하는 것을 특징으로 하는 방법. Each of the at least one basic decoder neural network (i) performs decoding on a second codeword output from a second encoder neural network included in the transmitter-end encoder neural network, and outputs the second decoded codeword. a decoder neural network, (ii) a de-interleaver that receives the second decoded codeword, de-interleaves it, and outputs the de-interleaved second decoded codeword; and (iii) a first decoder neural that performs decoding on the de-interleaved second decoded codeword and outputs a first decoded codeword based on the decoding on the de-interleaved second decoded codeword A method comprising serially a network.
  17. 오토 인코더(auto encoder)를 이용하는 무선 통신 시스템에서 신호를 송수신하기 위한 송신단에 있어서,In a transmitting end for transmitting and receiving a signal in a wireless communication system using an auto encoder,
    무선 신호를 전송하기 위한 전송기(transmitter);a transmitter for transmitting a wireless signal;
    무선 신호를 수신하기 위한 수신기(receiver);a receiver for receiving a radio signal;
    적어도 하나의 프로세서; 및at least one processor; and
    상기 적어도 하나의 프로세서에 동작 가능하게 접속 가능하고, 상기 적어도 하나의 프로세서에 의해 실행될 때, 동작들을 수행하는 지시(instruction)들을 저장하는 적어도 하나의 컴퓨터 메모리를 포함하며,at least one computer memory operably connectable to the at least one processor and storing instructions for performing operations when executed by the at least one processor;
    상기 동작들은,The actions are
    사전 학습된 송신단 인코더 뉴럴 네트워크(neural network)에 기초하여 인코딩된 데이터를 포함하는 신호를 송신단으로부터 수신하는 단계;Receiving a signal including data encoded based on a pre-trained transmitter-end encoder neural network from the transmitter;
    사전 학습된 수신단 디코더 뉴럴 네트워크(neural network)에 기초하여 상기 신호에 포함된 상기 인코딩된 데이터를 디코딩(decoding)하는 단계를 포함하되,Comprising the step of decoding the encoded data included in the signal based on a pre-trained receiving end decoder neural network (decoding),
    상기 수신단 디코더 뉴럴 네트워크는 순차적으로 연결된 적어도 하나 이상의 기본 디코더 뉴럴 네트워크를 포함하고,The receiving end decoder neural network includes at least one sequentially connected basic decoder neural network,
    상기 적어도 하나 이상의 기본 디코더 뉴럴 네트워크 각각은 (i) 송신단 인코더 뉴럴 네트워크에 포함된 제 2 인코더 뉴럴 네트워크에서 출력된 제 2 코드워드에 대한 디코딩을 수행하고, 제 2 디코딩된 코드워드를 출력하는 제 2 디코더 뉴럴 네트워크, (ii) 상기 제 2 디코딩된 코드워드를 입력 받아 디-인터리빙(de-interleaving)하고, 상기 디-인터리빙된 제 2 디코딩된 코드워드를 출력하는 디-인터리버(de-interleaver) 및 (iii) 상기 디-인터리빙된 제 2 디코딩된 코드워드에 대한 디코딩을 수행하고, 상기 디-인터리빙된 제 2 디코딩된 코드워드에 대한 디코딩에 기초한 제 1 디코딩된 코드워드를 출력하는 제 1 디코더 뉴럴 네트워크를 직렬적으로(serially) 포함하는 것을 특징으로 하는 방법. Each of the at least one basic decoder neural network (i) performs decoding on a second codeword output from a second encoder neural network included in the transmitter-end encoder neural network, and outputs the second decoded codeword. a decoder neural network, (ii) a de-interleaver that receives the second decoded codeword, de-interleaves it, and outputs the de-interleaved second decoded codeword; and (iii) a first decoder neural that performs decoding on the de-interleaved second decoded codeword and outputs a first decoded codeword based on the decoding on the de-interleaved second decoded codeword A method comprising serially a network.
  18. 하나 이상의 명령어들을 저장하는 비일시적 컴퓨터 판독 가능 매체(computer readable medium, CRM)에 있어서, A non-transitory computer readable medium (CRM) storing one or more instructions, comprising:
    하나 이상의 프로세서들에 의해 실행 가능한 하나 이상의 명령어들은 송신단이,The one or more instructions executable by the one or more processors are executed by the transmitting end,
    사전 학습된 송신단 인코더 뉴럴 네트워크(neural network)에 기초하여 입력 데이터를 인코딩(encoding)하도록 하고,To encode the input data based on the pre-trained transmitting end encoder neural network,
    상기 인코딩된 입력 데이터에 기초하여 상기 신호를 수신단으로 전송하도록 하되,To transmit the signal to the receiving end based on the encoded input data,
    상기 송신단 인코더 뉴럴 네트워크는 (i) 상기 입력 데이터를 입력 받아 제 1 코드워드(codeword)를 출력하는 제 1 인코더 뉴럴 네트워크, (ii) 상기 제 1 코드워드를 입력 받아 인터리빙(interleaving)하고, 상기 인터리빙된 제 1 코드워드를 출력하는 인터리버(interleaver) 및 (iii) 상기 인터리빙된 제 1 코드워드를 입력 받아 상기 인코딩된 입력 데이터를 구성하는 제 2 코드워드를 출력하는 제 2 인코더 뉴럴 네트워크를 직렬적으로(serially) 포함하는 것을 특징으로 하는 비일시적 컴퓨터 판독 가능 매체.The transmitting end encoder neural network includes (i) a first encoder neural network that receives the input data and outputs a first codeword, (ii) receives the first codeword and interleaves the first codeword, and performs the interleaving. an interleaver for outputting the first codeword and (iii) a second encoder neural network for receiving the interleaved first codeword and outputting a second codeword constituting the encoded input data serially (serially) a non-transitory computer-readable medium comprising:
  19. 하나 이상의 메모리들 및 상기 하나 이상의 메모리들과 기능적으로 연결되어 있는 하나 이상의 프로세서들을 포함하는 장치에 있어서,An apparatus comprising one or more memories and one or more processors operatively coupled to the one or more memories, the apparatus comprising:
    상기 하나 이상의 프로세서들은 상기 장치가,The one or more processors enable the device to
    상기 장치의 사전 학습된 송신단 인코더 뉴럴 네트워크(neural network)에 기초하여 입력 데이터를 인코딩(encoding)하도록 상기 장치를 제어하고,controlling the device to encode input data based on a pre-trained transmitting end encoder neural network of the device;
    상기 인코딩된 입력 데이터에 기초하여 상기 신호를 수신단으로 전송하도록 하되 상기 장치를 제어하되,Control the device to transmit the signal to a receiving end based on the encoded input data,
    상기 송신단 인코더 뉴럴 네트워크는 (i) 상기 입력 데이터를 입력 받아 제 1 코드워드(codeword)를 출력하는 제 1 인코더 뉴럴 네트워크, (ii) 상기 제 1 코드워드를 입력 받아 인터리빙(interleaving)하고, 상기 인터리빙된 제 1 코드워드를 출력하는 인터리버(interleaver) 및 (iii) 상기 인터리빙된 제 1 코드워드를 입력 받아 상기 인코딩된 입력 데이터를 구성하는 제 2 코드워드를 출력하는 제 2 인코더 뉴럴 네트워크를 직렬적으로(serially) 포함하는 것을 특징으로 하는 장치.The transmitting end encoder neural network includes (i) a first encoder neural network that receives the input data and outputs a first codeword, (ii) receives the first codeword and interleaves the first codeword, and performs the interleaving. an interleaver for outputting the first codeword and (iii) a second encoder neural network for receiving the interleaved first codeword and outputting a second codeword constituting the encoded input data serially (serially) a device comprising:
PCT/KR2021/005384 2021-04-28 2021-04-28 Method for transmitting/receiving signal in wireless communication system using auto encoder, and device therefor WO2022231026A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020237035662A KR20240001134A (en) 2021-04-28 2021-04-28 Method and device for transmitting and receiving signals in a wireless communication system using an auto encoder
PCT/KR2021/005384 WO2022231026A1 (en) 2021-04-28 2021-04-28 Method for transmitting/receiving signal in wireless communication system using auto encoder, and device therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2021/005384 WO2022231026A1 (en) 2021-04-28 2021-04-28 Method for transmitting/receiving signal in wireless communication system using auto encoder, and device therefor

Publications (1)

Publication Number Publication Date
WO2022231026A1 true WO2022231026A1 (en) 2022-11-03

Family

ID=83846970

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/005384 WO2022231026A1 (en) 2021-04-28 2021-04-28 Method for transmitting/receiving signal in wireless communication system using auto encoder, and device therefor

Country Status (2)

Country Link
KR (1) KR20240001134A (en)
WO (1) WO2022231026A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120210196A1 (en) * 2007-05-07 2012-08-16 Lingna Holdings Pte., Llc Cooperative concatenated coding for wireless systems
US20150039964A1 (en) * 2010-09-10 2015-02-05 John P. Fonseka Methods, apparatus, and systems for coding with constrained interleaving
KR20200011551A (en) * 2017-06-19 2020-02-03 버지니아 테크 인터렉추얼 프라퍼티스, 인크. Encoding and Decoding Information for Wireless Transmission Using a Multi-antenna Transceiver

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120210196A1 (en) * 2007-05-07 2012-08-16 Lingna Holdings Pte., Llc Cooperative concatenated coding for wireless systems
US20150039964A1 (en) * 2010-09-10 2015-02-05 John P. Fonseka Methods, apparatus, and systems for coding with constrained interleaving
KR20200011551A (en) * 2017-06-19 2020-02-03 버지니아 테크 인터렉추얼 프라퍼티스, 인크. Encoding and Decoding Information for Wireless Transmission Using a Multi-antenna Transceiver

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIANG YIHAN; KIM HYEJI; ASNANI HIMANSHU; OH SEWOONG; KANNAN SREERAM; VISWANATH PRAMOD: "Feedback Turbo Autoencoder", ICASSP 2020 - 2020 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP), IEEE, 4 May 2020 (2020-05-04), pages 8559 - 8563, XP033792927, DOI: 10.1109/ICASSP40776.2020.9053254 *
LI DAN; GAN LU: "A Method of Parameters Estimation of SCCC Turbo Code", 2013 IEEE 11TH INTERNATIONAL CONFERENCE ON DEPENDABLE, AUTONOMIC AND SECURE COMPUTING, IEEE, 21 December 2013 (2013-12-21), pages 5 - 9, XP032610980, DOI: 10.1109/DASC.2013.29 *

Also Published As

Publication number Publication date
KR20240001134A (en) 2024-01-03

Similar Documents

Publication Publication Date Title
WO2020067623A1 (en) Method for transmitting and receiving downlink signal between terminal and base station in wireless communication system and apparatus for supporting same
WO2022010001A1 (en) Neural network-based communication method and device
WO2022050432A1 (en) Method and device for performing federated learning in wireless communication system
WO2020013558A1 (en) Method for transmitting or receiving downlink signal between terminal and base station in wireless communication system and apparatus for supporting same
WO2021256584A1 (en) Method for transmitting or receiving data in wireless communication system and apparatus therefor
WO2022097850A1 (en) Method and device for performing retransmission in wireless communication system
WO2022025316A1 (en) Method and apparatus for transmitting and receiving signal by using multiple antennas in wireless communication system
WO2022014735A1 (en) Method and device for terminal and base station to transmit and receive signals in wireless communication system
WO2022265141A1 (en) Method for performing beam management in wireless communication system and device therefor
WO2022092353A1 (en) Method and apparatus for performing channel encoding and decoding in wireless communication system
WO2022080530A1 (en) Method and device for transmitting and receiving signals by using multiple antennas in wireless communication system
WO2022145548A1 (en) Data partition-based modulation method and apparatus for federated learning
WO2022004914A1 (en) Method and apparatus for transmitting and receiving signals of user equipment and base station in wireless communication system
WO2022025321A1 (en) Signal randomization method and device of communication apparatus
WO2022039303A1 (en) Method for generating beam of antenna in wireless communication system supporting thz band, and apparatus therefor
WO2021261611A1 (en) Method and device for performing federated learning in wireless communication system
WO2022014751A1 (en) Method and apparatus for generating uw for channel estimation in frequency domain in wireless communication system
WO2021251523A1 (en) Method and device for ue and base station to transmit and receive signal in wireless communication system
WO2022231026A1 (en) Method for transmitting/receiving signal in wireless communication system using auto encoder, and device therefor
WO2022097774A1 (en) Method and device for performing feedback by terminal and base station in wireless communication system
WO2022014728A1 (en) Method and apparatus for performing channel coding by user equipment and base station in wireless communication system
WO2021256585A1 (en) Method and device for transmitting/receiving signal in wireless communication system
WO2022030664A1 (en) Communication method based on similarity of inter-frequency band spatial information for channel in wireless communication system and apparatus therefor
WO2022004927A1 (en) Method for transmitting or receiving signal in wireless communication system using auto encoder, and apparatus therefor
WO2021256586A1 (en) Device and method for estimating angle of reception signal

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21939409

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21939409

Country of ref document: EP

Kind code of ref document: A1