WO2021256584A1 - 무선 통신 시스템에서 데이터를 송수신하는 방법 및 이를 위한 장치 - Google Patents

무선 통신 시스템에서 데이터를 송수신하는 방법 및 이를 위한 장치 Download PDF

Info

Publication number
WO2021256584A1
WO2021256584A1 PCT/KR2020/007899 KR2020007899W WO2021256584A1 WO 2021256584 A1 WO2021256584 A1 WO 2021256584A1 KR 2020007899 W KR2020007899 W KR 2020007899W WO 2021256584 A1 WO2021256584 A1 WO 2021256584A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
base station
code
machine learning
terminal
Prior art date
Application number
PCT/KR2020/007899
Other languages
English (en)
French (fr)
Inventor
신종웅
김봉회
홍성룡
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US18/002,170 priority Critical patent/US20230231653A1/en
Priority to PCT/KR2020/007899 priority patent/WO2021256584A1/ko
Priority to KR1020237000378A priority patent/KR20230025854A/ko
Publication of WO2021256584A1 publication Critical patent/WO2021256584A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0075Transmission of coding parameters to receiver
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/098Distributed learning, e.g. federated learning
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/033Theoretical methods to calculate these checking codes
    • H03M13/036Heuristic code construction methods, i.e. code construction or code search based on using trial-and-error
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/05Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
    • H03M13/11Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits using multiple parity bits
    • H03M13/1102Codes on graphs and decoding on graphs, e.g. low-density parity check [LDPC] codes
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/05Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
    • H03M13/13Linear codes
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/35Unequal or adaptive error protection, e.g. by providing a different level of protection according to significance of source information or by adapting the coding according to the change of transmission channel characteristics
    • H03M13/353Adaptation to the channel
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/65Purpose and implementation aspects
    • H03M13/6597Implementations using analogue techniques for coding or decoding, e.g. analogue Viterbi decoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/0001Systems modifying transmission characteristics according to link quality, e.g. power backoff
    • H04L1/0009Systems modifying transmission characteristics according to link quality, e.g. power backoff by adapting the channel coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0045Arrangements at the receiver end
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0056Systems characterized by the type of code used
    • H04L1/0057Block codes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/20Arrangements for detecting or preventing errors in the information received using signal quality detector
    • H04L1/203Details of error rate determination, e.g. BER, FER or WER
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/085Retrieval of network configuration; Tracking network configuration history
    • H04L41/0853Retrieval of network configuration; Tracking network configuration history by actively collecting configuration information or by backing up configuration information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/16Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W72/00Local resource management
    • H04W72/50Allocation or scheduling criteria for wireless resources
    • H04W72/51Allocation or scheduling criteria for wireless resources based on terminal or device properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W8/00Network data management
    • H04W8/22Processing or transfer of terminal data, e.g. status or physical capabilities
    • H04W8/24Transfer of terminal data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/12Arrangements for detecting or preventing errors in the information received by using return channel
    • H04L1/16Arrangements for detecting or preventing errors in the information received by using return channel in which the return channel carries supervisory signals, e.g. repetition request signals
    • H04L1/18Automatic repetition systems, e.g. Van Duuren systems
    • H04L1/1812Hybrid protocols; Hybrid automatic repeat request [HARQ]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Definitions

  • the present specification relates to a wireless communication system, and more particularly, to a method for transmitting and receiving data and an apparatus supporting the same.
  • Wireless communication systems are being widely deployed to provide various types of communication services such as voice and data.
  • a wireless communication system is a multiple access system that can support communication with multiple users by sharing available system resources (bandwidth, transmission power, etc.).
  • Examples of the multiple access system include a Code Division Multiple Access (CDMA) system, a Frequency Division Multiple Access (FDMA) system, a Time Division Multiple Access (TDMA) system, a Space Division Multiple Access (SDMA), or an Orthogonal Frequency Division Multiple Access (OFDMA) system.
  • CDMA Code Division Multiple Access
  • FDMA Frequency Division Multiple Access
  • TDMA Time Division Multiple Access
  • SDMA Space Division Multiple Access
  • OFDMA Orthogonal Frequency Division Multiple Access
  • SC-FDMA Single Carrier Frequency Division Multiple Access
  • IDMA Interleave Division Multiple Access
  • the present specification proposes a method and an apparatus for generating a code optimized for an actual channel using AI/ML and channel information based on capability information.
  • the present specification proposes a method for receiving downlink data in a wireless communication system.
  • the method performed by the terminal comprises the steps of: (i) transmitting capability information including first information indicating a decoding level of the terminal and (ii) second information indicating whether machine learning is possible to a base station;
  • the method may include receiving decoding level information from the base station based on 1 information, and receiving downlink data from the base station based on the decoding level information and the second information.
  • the step of receiving the downlink data is based on decoding level information indicating use of a machine learning-based code and second information indicating that machine learning is possible, machine learning and channel information generating the machine learning-based code using may include
  • the generating of the machine learning-based code includes generating n codes based on machine learning, and n data based on the n codes and the channel information. It may include generating and selecting the machine learning-based code based on a block error rate (BLER) of the n pieces of data.
  • BLER block error rate
  • the step of receiving the downlink data includes channel information based on decoding level information indicating use of a machine learning-based code and second information indicating that machine learning is not possible. Transmitting to the base station, receiving information on the machine learning-based code from the base station, and receiving the downlink data from the base station based on the machine learning-based code.
  • the receiving of the downlink data comprises: Based on the decoding level information indicating the use of the non-machine learning-based code, the downlink data is transmitted using the non-machine learning-based code. It may include receiving from the base station.
  • the non-machine learning-based code may be a low-density parity check (LDPC) code or a polar code.
  • LDPC low-density parity check
  • the method may further include receiving a request for the capability information from the base station.
  • the terminal receiving downlink data in the wireless communication system of the present specification, one or more transceivers, one or more processors functionally connected to the one or more transceivers, and functionally connected to the one or more processors, one or more memories storing instructions for performing operations, the operations comprising: (i) first information indicating a decoding level of the terminal and (ii) second information indicating whether machine learning is possible Transmitting capability information including a base station, receiving decoding level information from the base station based on the first information, and downlink data from the base station based on the decoding level information and the second information It may include the step of receiving.
  • the present specification proposes a method for receiving downlink data in a wireless communication system.
  • the method performed by the base station includes the steps of: receiving, from the terminal, capability information including (i) first information indicating a decoding level of the terminal and (ii) second information indicating whether machine learning is possible; Transmitting decoding level information to the terminal based on 1 information, and transmitting downlink data to the short-term terminal based on the decoding level information and the second information.
  • the present specification proposes a method for transmitting uplink data in a wireless communication system.
  • the method performed by the terminal comprises the steps of: receiving, from the base station, capability information including (i) first information indicating a decoding level of the base station and (ii) second information indicating whether machine learning is possible;
  • the method may include transmitting decoding level information to the base station based on 1 information, and transmitting uplink data to the base station based on the decoding level information and the second information.
  • the step of transmitting the uplink data is based on the decoding level information indicating the use of the machine learning-based code and the second information indicating that machine learning is possible, the machine learning-based code It may include receiving information on the information from the base station, and transmitting the uplink data to the base station based on the machine learning-based code.
  • the method of the present specification based on decoding level information indicating use of a machine learning-based code and second information indicating that machine learning is not possible, receiving channel information from the base station; Generating the machine learning-based code using learning and the channel information, transmitting information about the machine learning-based code to the base station, and transmitting the uplink data based on the machine learning-based code to the base station It may include the step of transmitting to
  • the generating of the machine learning-based code includes generating n codes based on machine learning, and n data based on the n codes and the channel information. It may include generating and selecting the machine learning-based code based on a block error rate (BLER) of the n pieces of data.
  • BLER block error rate
  • the step of transmitting the uplink data includes: Based on the decoding level information indicating the use of the non-machine learning-based code, the uplink data is transmitted using the non-machine learning-based code. It may include the step of transmitting to the base station.
  • the non-machine learning-based code may be a low-density parity check (LDPC) code or a polar code.
  • LDPC low-density parity check
  • the method may further include transmitting a request for the capability information to the base station.
  • the terminal for transmitting uplink data in the wireless communication system of the present specification one or more transceivers, one or more processors functionally connected to the one or more transceivers, and functionally connected to the one or more processors, one or more memories storing instructions for performing operations comprising: (i) first information indicating a decoding level of a base station and (ii) second information indicating whether machine learning is enabled Receiving capability information from the base station, transmitting decoding level information to the base station based on the first information, and transmitting uplink data to the base station based on the decoding level information and the second information It may include the step of transmitting.
  • the present specification proposes a method for receiving uplink data in a wireless communication system.
  • the method performed by the base station includes: (i) transmitting capability information including first information indicating the decoding level of the base station and (ii) second information indicating whether machine learning is possible to the terminal;
  • the method may include receiving decoding level information from the terminal based on 1 information, and receiving uplink data from the terminal based on the decoding level information and the second information.
  • 1 illustrates physical channels and general signal transmission used in a 3GPP system.
  • FIG. 2 is a diagram illustrating an example of a communication structure that can be provided in a 6G system.
  • FIG 3 shows an example of a perceptron structure.
  • FIG. 4 shows an example of a multilayer perceptron structure.
  • FIG. 5 shows an example of a deep neural network.
  • FIG. 6 shows an example of a convolutional neural network.
  • FIG. 7 is a diagram illustrating an example of a filter operation in a convolutional neural network.
  • FIG. 8 shows an example of a neural network structure in which a cyclic loop exists.
  • FIG. 9 shows an example of an operation structure of a recurrent neural network.
  • FIG. 11 is a diagram showing an example of THz communication application.
  • FIG. 12 is a diagram illustrating an example of an electronic device-based THz wireless communication transceiver.
  • FIG. 13 is a diagram illustrating an example of a method of generating an optical device-based THz signal.
  • FIG. 14 is a diagram illustrating an example of an optical element-based THz wireless communication transceiver.
  • 15 illustrates the structure of a photoinc source-based transmitter.
  • FIG. 16 illustrates a structure of an optical modulator.
  • 17 is a flowchart of a method for generating an optimal code in a base station in downlink transmission.
  • 18 is a flowchart of a method for a terminal to generate an optimal code in downlink transmission.
  • 19 is a flowchart of a method for a terminal to generate an optimal code in uplink transmission.
  • 20 is a flowchart of a method for generating an optimal code in a base station in uplink transmission.
  • 21 is a flowchart of a method of searching for or generating an optimal code based on AI and/or ML in a base station (or terminal).
  • 22 is a graph in which parent codes are arranged in ascending order by BLER.
  • 23 is a diagram for explaining a variant used in a genetic algorithm.
  • 24 is a diagram for explaining crossover (or crossover) used in a genetic algorithm.
  • 25 is a flowchart illustrating a method of operating a terminal in downlink transmission proposed in the present specification.
  • 26 is a flowchart illustrating an operation method of a base station in downlink transmission proposed in the present specification.
  • 27 is a flowchart for explaining a method of operating a terminal in uplink transmission proposed in the present specification.
  • 28 is a flowchart illustrating an operation method of a base station in uplink transmission proposed in the present specification.
  • 29 illustrates a communication system 10 applied to the present invention.
  • FIG. 30 illustrates a wireless device that can be applied to the present invention.
  • 31 illustrates a signal processing circuit for a transmission signal.
  • 35 illustrates a vehicle to which the present invention is applied.
  • the base station has a meaning as a terminal node of a network that directly communicates with the terminal.
  • a specific operation described as being performed by the base station in this document may be performed by an upper node of the base station in some cases. That is, it is obvious that various operations performed for communication with the terminal in a network including a plurality of network nodes including the base station may be performed by the base station or other network nodes other than the base station.
  • BS Base Station
  • eNB evolved-NodeB
  • BTS base transceiver system
  • access point AP: Access Point
  • gNB general NB, generation NB
  • UE User Equipment
  • MS Mobile Station
  • UT user terminal
  • MSS Mobile Subscriber Station
  • SS Subscriber Station
  • AMS Advanced Mobile Station
  • WT wireless terminal
  • MTC machine-type communication
  • M2M machine-to-machine
  • D2D device-to-device
  • downlink means communication from a base station to a terminal
  • uplink means communication from a terminal to a base station.
  • the transmitter may be a part of the base station, and the receiver may be a part of the terminal.
  • the transmitter may be a part of the terminal, and the receiver may be a part of the base station.
  • CDMA may be implemented with a radio technology such as Universal Terrestrial Radio Access (UTRA) or CDMA2000.
  • TDMA may be implemented with a radio technology such as Global System for Mobile communications (GSM)/General Packet Radio Service (GPRS)/Enhanced Data Rates for GSM Evolution (EDGE).
  • GSM Global System for Mobile communications
  • GPRS General Packet Radio Service
  • EDGE Enhanced Data Rates for GSM Evolution
  • OFDMA may be implemented with a radio technology such as IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802-20, Evolved UTRA (E-UTRA), and the like.
  • UTRA is part of the Universal Mobile Telecommunications System (UMTS).
  • 3GPP 3rd Generation Partnership Project
  • Long Term Evolution is a part of Evolved UMTS (E-UMTS) using E-UTRA and LTE-A (Advanced)/LTE-A pro is an evolved version of 3GPP LTE.
  • 3GPP NR New Radio or New Radio Access Technology
  • 3GPP 6G may be an evolved version of 3GPP NR.
  • Embodiments of the present invention may be supported by standard documents disclosed in at least one of IEEE 802, 3GPP, and 3GPP2, which are wireless access systems. That is, steps or parts not described in order to clearly reveal the technical spirit of the present invention among the embodiments of the present invention may be supported by the above documents. In addition, all terms disclosed in this document may be described by the standard document.
  • LTE refers to technology after 3GPP TS 36.xxx Release 8.
  • LTE technology after 3GPP TS 36.xxx Release 10 is referred to as LTE-A
  • LTE technology after 3GPP TS 36.xxx Release 13 is referred to as LTE-A pro
  • 3GPP NR refers to technology after TS 38.
  • 3GPP 6G may refer to technology after TS Release 17 and/or Release 18.
  • xxx stands for standard document detail number.
  • LTE/NR/6G may be collectively referred to as a 3GPP system.
  • terms, abbreviations, etc. used in the description of the present invention reference may be made to matters described in standard documents published before the present invention. For example, you can refer to the following documents:
  • RRC Radio Resource Control
  • RRC Radio Resource Control
  • a terminal receives information through a downlink (DL) from a base station, and the terminal transmits information through an uplink (UL) to the base station.
  • Information transmitted and received between the base station and the terminal includes data and various control information, and various physical channels exist according to the type/use of the information they transmit and receive.
  • the terminal When the terminal is powered on or newly enters a cell, the terminal performs an initial cell search operation such as synchronizing with the base station (S11). To this end, the terminal receives a primary synchronization signal (PSS) and a secondary synchronization signal (SSS) from the base station, synchronizes with the base station, and obtains information such as a cell ID. Thereafter, the terminal may receive a physical broadcast channel (PBCH) from the base station to obtain intra-cell broadcast information. On the other hand, the UE may receive a downlink reference signal (DL RS) in the initial cell search step to check the downlink channel state.
  • PSS primary synchronization signal
  • SSS secondary synchronization signal
  • PBCH physical broadcast channel
  • DL RS downlink reference signal
  • the UE After the initial cell search, the UE receives a Physical Downlink Control Channel (PDCCH) and a Physical Downlink Control Channel (PDSCH) according to information carried on the PDCCH to obtain more specific system information. It can be done (S12).
  • PDCH Physical Downlink Control Channel
  • PDSCH Physical Downlink Control Channel
  • the terminal may perform a random access procedure (RACH) for the base station (S13 to S16).
  • RACH Random Access procedure
  • the UE transmits a specific sequence as a preamble through a Physical Random Access Channel (PRACH) (S13 and S15), and a response message to the preamble through the PDCCH and the corresponding PDSCH ((Random Access (RAR)) Response) message)
  • PRACH Physical Random Access Channel
  • RAR Random Access
  • a contention resolution procedure may be additionally performed (S16).
  • the UE After performing the procedure as described above, the UE performs PDCCH/PDSCH reception (S17) and Physical Uplink Shared Channel (PUSCH)/Physical Uplink Control Channel (Physical Uplink) as a general uplink/downlink signal transmission procedure.
  • Control Channel (PUCCH) transmission (S18) may be performed.
  • the UE may receive downlink control information (DCI) through the PDCCH.
  • DCI downlink control information
  • the DCI includes control information such as resource allocation information for the terminal, and different formats may be applied according to the purpose of use.
  • control information that the terminal transmits to the base station through the uplink or the terminal receives from the base station includes a downlink/uplink ACK/NACK signal, a channel quality indicator (CQI), a precoding matrix index (PMI), and a rank indicator (RI). ) and the like.
  • the UE may transmit the above-described control information such as CQI/PMI/RI through PUSCH and/or PUCCH.
  • the base station transmits a related signal to the terminal through a downlink channel to be described later, and the terminal receives the related signal from the base station through a downlink channel to be described later.
  • PDSCH Physical Downlink Shared Channel
  • PDSCH carries downlink data (eg, DL-shared channel transport block, DL-SCH TB), and modulation methods such as Quadrature Phase Shift Keying (QPSK), 16 Quadrature Amplitude Modulation (QAM), 64 QAM, and 256 QAM are available. applies.
  • QPSK Quadrature Phase Shift Keying
  • QAM 16 Quadrature Amplitude Modulation
  • a codeword is generated by encoding the TB.
  • a PDSCH can carry multiple codewords. Scrambling and modulation mapping are performed for each codeword, and modulation symbols generated from each codeword are mapped to one or more layers (Layer mapping). Each layer is mapped to a resource together with a demodulation reference signal (DMRS), is generated as an OFDM symbol signal, and is transmitted through a corresponding antenna port.
  • DMRS demodulation reference signal
  • the PDCCH carries downlink control information (DCI) and a QPSK modulation method is applied.
  • DCI downlink control information
  • One PDCCH is composed of 1, 2, 4, 8, 16 CCEs (Control Channel Elements) according to an Aggregation Level (AL).
  • One CCE consists of six REGs (Resource Element Groups).
  • One REG is defined as one OFDM symbol and one (P)RB.
  • the UE obtains DCI transmitted through the PDCCH by performing decoding (aka, blind decoding) on the set of PDCCH candidates.
  • a set of PDCCH candidates decoded by the UE is defined as a PDCCH search space set.
  • the search space set may be a common search space or a UE-specific search space.
  • the UE may acquire DCI by monitoring PDCCH candidates in one or more search space sets configured by MIB or higher layer signaling.
  • the terminal transmits a related signal to the base station through an uplink channel to be described later, and the base station receives the related signal from the terminal through an uplink channel to be described later.
  • PUSCH Physical Uplink Shared Channel
  • PUSCH carries uplink data (eg, UL-shared channel transport block, UL-SCH TB) and/or uplink control information (UCI), and CP-OFDM (Cyclic Prefix - Orthogonal Frequency Division Multiplexing) waveform.
  • CP-OFDM Cyclic Prefix - Orthogonal Frequency Division Multiplexing
  • DFT-s-OFDM Discrete Fourier Transform - spread - Orthogonal Frequency Division Multiplexing
  • the UE transmits the PUSCH by applying transform precoding.
  • the UE when transform precoding is not possible (eg, transform precoding is disabled), the UE transmits a PUSCH based on the CP-OFDM waveform, and when transform precoding is possible (eg, transform precoding is enabled), the UE transmits the CP-OFDM PUSCH may be transmitted based on a waveform or a DFT-s-OFDM waveform.
  • PUSCH transmission is dynamically scheduled by a UL grant in DCI, or based on higher layer (eg, RRC) signaling (and/or Layer 1 (L1) signaling (eg, PDCCH)) semi-statically. Can be scheduled (configured grant).
  • PUSCH transmission may be performed on a codebook-based or non-codebook-based basis.
  • the PUCCH carries uplink control information, HARQ-ACK and/or a scheduling request (SR), and may be divided into a plurality of PUCCHs according to the PUCCH transmission length.
  • SR scheduling request
  • 6G (wireless communication) systems have (i) very high data rates per device, (ii) very large number of connected devices, (iii) global connectivity, (iv) very low latency, (v) battery- It aims to reduce energy consumption of battery-free IoT devices, (vi) ultra-reliable connections, and (vii) connected intelligence with machine learning capabilities.
  • the vision of the 6G system can be in four aspects: intelligent connectivity, deep connectivity, holographic connectivity, and ubiquitous connectivity, and the 6G system can satisfy the requirements shown in Table 1 below. That is, Table 1 is a table showing an example of the requirements of the 6G system.
  • 6G systems include Enhanced mobile broadband (eMBB), Ultra-reliable low latency communications (URLLC), massive machine-type communication (mMTC), AI integrated communication, Tactile internet, High throughput, High network capacity, High energy efficiency, Low backhaul and It may have key factors such as access network congestion and enhanced data security.
  • eMBB Enhanced mobile broadband
  • URLLC Ultra-reliable low latency communications
  • mMTC massive machine-type communication
  • AI integrated communication Tactile internet
  • High throughput High network capacity
  • High energy efficiency High energy efficiency
  • Low backhaul Low backhaul and It may have key factors such as access network congestion and enhanced data security.
  • FIG. 2 is a diagram illustrating an example of a communication structure that can be provided in a 6G system.
  • 6G systems are expected to have 50 times higher simultaneous wireless connectivity than 5G wireless communication systems.
  • URLLC a key feature of 5G, will become an even more important technology by providing an end-to-end delay of less than 1ms in 6G communication.
  • 6G systems will have much better volumetric spectral efficiencies as opposed to frequently used areal spectral efficiencies.
  • the 6G system can provide very long battery life and advanced battery technology for energy harvesting, so mobile devices will not need to be charged separately in the 6G system.
  • New network characteristics in 6G may be as follows.
  • 6G is expected to be integrated with satellites to provide a global mobile population.
  • the integration of terrestrial, satellite and public networks into one wireless communication system is very important for 6G.
  • the 6G wireless network will deliver power to charge the batteries of devices such as smartphones and sensors. Therefore, wireless information and energy transfer (WIET) will be integrated.
  • WIET wireless information and energy transfer
  • small cell networks The idea of small cell networks was introduced to improve the received signal quality as a result of improved throughput, energy efficiency and spectral efficiency in cellular systems. As a result, small cell networks are essential characteristics for communication systems beyond 5G and Beyond 5G (5GB). Accordingly, the 6G communication system also adopts the characteristics of the small cell network.
  • Ultra-dense heterogeneous networks will be another important characteristic of 6G communication systems.
  • a multi-tier network composed of heterogeneous networks improves overall QoS and reduces costs.
  • a backhaul connection is characterized as a high-capacity backhaul network to support high-capacity traffic.
  • High-speed fiber optics and free-space optics (FSO) systems may be possible solutions to this problem.
  • High-precision localization (or location-based service) through communication is one of the functions of the 6G wireless communication system. Therefore, the radar system will be integrated with the 6G network.
  • Softening and virtualization are two important features that underlie the design process in 5GB networks to ensure flexibility, reconfigurability and programmability. In addition, billions of devices can be shared in a shared physical infrastructure.
  • AI The most important and newly introduced technology for 6G systems is AI.
  • AI was not involved in the 4G system.
  • 5G systems will support partial or very limited AI.
  • the 6G system will be AI-enabled for full automation.
  • Advances in machine learning will create more intelligent networks for real-time communication in 6G.
  • Incorporating AI into communications can simplify and enhance real-time data transmission.
  • AI can use numerous analytics to determine how complex target tasks are performed. In other words, AI can increase efficiency and reduce processing delays.
  • AI can also play an important role in M2M, machine-to-human and human-to-machine communication.
  • AI can be a rapid communication in BCI (Brain Computer Interface).
  • BCI Brain Computer Interface
  • AI-based communication systems can be supported by metamaterials, intelligent structures, intelligent networks, intelligent devices, intelligent cognitive radios, self-sustaining wireless networks, and machine learning.
  • AI-based physical layer transmission means applying a signal processing and communication mechanism based on an AI driver rather than a traditional communication framework in a fundamental signal processing and communication mechanism.
  • deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO mechanism, AI-based resource scheduling and It may include an allocation (allocation) and the like.
  • Machine learning may be used for channel estimation and channel tracking, and may be used for power allocation, interference cancellation, and the like in a physical layer of a downlink (DL). In addition, machine learning may be used for antenna selection, power control, symbol detection, and the like in a MIMO system.
  • DL downlink
  • machine learning may be used for antenna selection, power control, symbol detection, and the like in a MIMO system.
  • Deep learning-based AI algorithms require large amounts of training data to optimize training parameters.
  • a lot of training data is used offline. This is because static training on training data in a specific channel environment may cause a contradiction between dynamic characteristics and diversity of a wireless channel.
  • signals of the physical layer of wireless communication are complex signals.
  • further research on a neural network for detecting a complex domain signal is needed.
  • Machine learning refers to a set of actions that trains a machine to create a machine that can perform tasks that humans can or cannot do.
  • Machine learning requires data and a learning model.
  • data learning methods can be roughly divided into three types: supervised learning, unsupervised learning, and reinforcement learning.
  • Neural network learning is to minimize output errors. Neural network learning repeatedly inputs training data into the neural network, calculates the output and target errors of the neural network for the training data, and backpropagates the neural network error from the output layer of the neural network to the input layer in the direction to reduce the error. ) to update the weight of each node in the neural network.
  • Supervised learning uses training data in which the correct answer is labeled in the training data, and in unsupervised learning, the correct answer may not be labeled in the training data. That is, for example, learning data in the case of supervised learning related to data classification may be data in which categories are labeled for each of the training data.
  • the labeled training data is input to the neural network, and an error can be calculated by comparing the output (category) of the neural network with the label of the training data.
  • the calculated error is back propagated in the reverse direction (ie, from the output layer to the input layer) in the neural network, and the connection weight of each node of each layer of the neural network may be updated according to the back propagation.
  • a change amount of the connection weight of each node to be updated may be determined according to a learning rate.
  • the computation of the neural network on the input data and the backpropagation of errors can constitute a learning cycle (epoch).
  • the learning rate may be applied differently depending on the number of repetitions of the learning cycle of the neural network. For example, in the early stage of learning a neural network, a high learning rate can be used to increase the efficiency by allowing the neural network to quickly obtain a certain level of performance, and in the late learning period, a low learning rate can be used to increase the accuracy.
  • the learning method may vary depending on the characteristics of the data. For example, when the purpose of accurately predicting data transmitted from a transmitter in a communication system is at a receiver, it is preferable to perform learning using supervised learning rather than unsupervised learning or reinforcement learning.
  • the learning model corresponds to the human brain, and the most basic linear model can be considered. ) is called
  • the neural network cord used as a learning method is largely divided into deep neural networks (DNN), convolutional deep neural networks (CNN), and Recurrent Boltzmann Machine (RNN) methods. have.
  • DNN deep neural networks
  • CNN convolutional deep neural networks
  • RNN Recurrent Boltzmann Machine
  • An artificial neural network is an example of connecting several perceptrons.
  • FIG 3 shows an example of a perceptron structure.
  • the huge artificial neural network structure may extend the simplified perceptron structure shown in FIG. 3 to apply input vectors to different multidimensional perceptrons.
  • an input value or an output value is referred to as a node.
  • the perceptron structure shown in FIG. 3 can be described as being composed of a total of three layers based on an input value and an output value.
  • An artificial neural network in which H (d+1)-dimensional perceptrons exist between the 1st layer and the 2nd layer and K (H+1)-dimensional perceptrons exist between the 2nd layer and the 3rd layer can be expressed as shown in FIG. 4 .
  • 4 shows an example of a multilayer perceptron structure.
  • the layer where the input vector is located is called the input layer
  • the layer where the final output value is located is called the output layer
  • all the layers located between the input layer and the output layer are called hidden layers.
  • three layers are disclosed, but when counting the actual number of artificial neural network layers, the input layer is counted except for the input layer, so it can be viewed as a total of two layers.
  • the artificial neural network is constructed by connecting the perceptrons of the basic blocks in two dimensions.
  • the aforementioned input layer, hidden layer, and output layer can be jointly applied in various artificial neural network structures such as CNN and RNN to be described later as well as multi-layer perceptron.
  • various artificial neural network structures such as CNN and RNN to be described later as well as multi-layer perceptron.
  • the artificial neural network becomes deeper, and a machine learning paradigm that uses a sufficiently deep artificial neural network as a learning model is called deep learning.
  • an artificial neural network used for deep learning is called a deep neural network (DNN).
  • DNN deep neural network
  • the deep neural network shown in FIG. 5 is a multilayer perceptron composed of eight hidden layers + output layers.
  • the multi-layered perceptron structure is referred to as a fully-connected neural network.
  • a connection relationship does not exist between nodes located in the same layer, and a connection relationship exists only between nodes located in adjacent layers.
  • DNN has a fully connected neural network structure and is composed of a combination of a number of hidden layers and activation functions, so it can be usefully applied to figure out the correlation between input and output.
  • the correlation characteristic may mean a joint probability of input/output.
  • nodes located inside one layer are arranged in a one-dimensional vertical direction.
  • the nodes are two-dimensionally arranged with w horizontally and h vertical nodes (convolutional neural network structure of FIG. 6 ).
  • a weight is added per connection in the connection process from one input node to the hidden layer, a total of h ⁇ w weights must be considered.
  • h ⁇ w nodes in the input layer a total of h2w2 weights are needed between two adjacent layers.
  • the convolutional neural network of FIG. 6 has a problem in that the number of weights increases exponentially according to the number of connections, so instead of considering the connection of all modes between adjacent layers, it is assumed that a filter with a small size exists in FIG. 7 As in Fig., the weighted sum and activation function calculations are performed on the overlapping filters.
  • One filter has a weight corresponding to the number corresponding to its size, and weight learning can be performed so that a specific feature on an image can be extracted and output as a factor.
  • a filter with a size of 3 ⁇ 3 is applied to the upper left 3 ⁇ 3 region of the input layer, and an output value obtained by performing weighted sum and activation function operations on the corresponding node is stored in z22.
  • the filter performs weighted sum and activation function operations while scanning the input layer by moving horizontally and vertically at regular intervals, and places the output value at the current filter position.
  • a calculation method is similar to a convolution operation on an image in the field of computer vision, so a deep neural network with such a structure is called a convolutional neural network (CNN), and a hidden layer generated as a result of a convolution operation is called a convolutional layer.
  • a neural network having a plurality of convolutional layers is called a deep convolutional neural network (DCNN).
  • the number of weights can be reduced by calculating the weighted sum by including only nodes located in the region covered by the filter in the node where the filter is currently located. Due to this, one filter can be used to focus on features for a local area. Accordingly, CNN can be effectively applied to image data processing in which physical distance in a two-dimensional domain is an important criterion. Meanwhile, in CNN, a plurality of filters may be applied immediately before the convolution layer, and a plurality of output results may be generated through the convolution operation of each filter.
  • a structure in which this method is applied to an artificial neural network is called a recurrent neural network structure.
  • FIG. 8 shows an example of a neural network structure in which a cyclic loop exists.
  • a recurrent neural network connects elements (x1(t), x2(t), ,..., xd(t)) of a certain gaze t on a data sequence to a fully connected neural network.
  • the immediately preceding time point t-1 is a structure in which the weighted sum and activation functions are applied by inputting the hidden vectors (z1(t1), z2(t1), ..., zH(t1)) together.
  • the reason why the hidden vector is transferred to the next time point in this way is that information in the input vector at previous time points is considered to be accumulated in the hidden vector of the current time point.
  • FIG. 9 shows an example of an operation structure of a recurrent neural network.
  • the recurrent neural network operates in a predetermined time sequence with respect to an input data sequence.
  • the hidden vector (z1(1), z2(1),.. .,zH(1)) is input together with the input vector (x1(2),x2(2),...,xd(2)) of the time point 2 and the vector of the hidden layer (z1( 2),z2(2) ,...,zH(2)) are determined. This process is repeatedly performed until time point 2, time point 3, ,,, and time T.
  • a deep recurrent neural network when a plurality of hidden layers are arranged in a recurrent neural network, this is called a deep recurrent neural network (DRNN).
  • the recurrent neural network is designed to be usefully applied to sequence data (eg, natural language processing).
  • Deep Q-Network As a neural network core used as a learning method, in addition to DNN, CNN, and RNN, Restricted Boltzmann Machine (RBM), deep belief networks (DBN), Deep Q-Network and It includes various deep learning techniques such as, and can be applied to fields such as computer vision, voice recognition, natural language processing, and voice/signal processing.
  • RBM Restricted Boltzmann Machine
  • DNN deep belief networks
  • Deep Q-Network includes various deep learning techniques such as, and can be applied to fields such as computer vision, voice recognition, natural language processing, and voice/signal processing.
  • AI-based physical layer transmission means applying a signal processing and communication mechanism based on an AI driver rather than a traditional communication framework in a fundamental signal processing and communication mechanism.
  • deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO mechanism, AI-based resource scheduling and It may include an allocation (allocation) and the like.
  • the data rate can be increased by increasing the bandwidth. This can be accomplished by using sub-THz communication with a wide bandwidth and applying advanced large-scale MIMO technology.
  • THz waves also known as sub-millimeter radiation, typically exhibit a frequency band between 0.1 THz and 10 THz with corresponding wavelengths in the range of 0.03 mm-3 mm.
  • the 100GHz-300GHz band range (Sub THz band) is considered a major part of the THz band for cellular communication. If it is added to the sub-THz band and mmWave band, the 6G cellular communication capacity is increased.
  • 300GHz-3THz is in the far-infrared (IR) frequency band.
  • the 300GHz-3THz band is part of the broadband, but at the edge of the wideband, just behind the RF band. Thus, this 300 GHz-3 THz band shows similarities to RF. 10 shows an example of an electromagnetic spectrum.
  • THz communication The main characteristics of THz communication include (i) widely available bandwidth to support very high data rates, and (ii) high path loss occurring at high frequencies (high directional antennas are indispensable).
  • the narrow beamwidth produced by the highly directional antenna reduces interference.
  • the small wavelength of the THz signal allows a much larger number of antenna elements to be integrated into devices and BSs operating in this band. This allows the use of advanced adaptive nesting techniques that can overcome range limitations.
  • OWC technology is envisioned for 6G communications in addition to RF-based communications for all possible device-to-access networks. These networks connect to network-to-backhaul/fronthaul network connections.
  • OWC technology has already been used since the 4G communication system, but will be used more widely to meet the needs of the 6G communication system.
  • OWC technologies such as light fidelity, visible light communication, optical camera communication, and FSO communication based on a light band are well known technologies.
  • Communication based on optical radio technology can provide very high data rates, low latency and secure communication.
  • LiDAR can also be used for ultra-high-resolution 3D mapping in 6G communication based on wide bands.
  • FSO The transmitter and receiver characteristics of an FSO system are similar to those of a fiber optic network.
  • data transmission in an FSO system is similar to that of a fiber optic system. Therefore, FSO can be a good technology to provide backhaul connectivity in 6G systems along with fiber optic networks.
  • FSO supports high-capacity backhaul connections for remote and non-remote areas such as sea, space, underwater, and isolated islands.
  • FSO also supports cellular BS connectivity.
  • MIMO technology improves, so does the spectral efficiency. Therefore, large-scale MIMO technology will be important in 6G systems. Since the MIMO technology uses multiple paths, a multiplexing technique and a beam generation and operation technique suitable for the THz band should also be considered important so that a data signal can be transmitted through one or more paths.
  • Blockchain will become an important technology for managing large amounts of data in future communication systems.
  • Blockchain is a form of distributed ledger technology, which is a database distributed across numerous nodes or computing devices. Each node replicates and stores an identical copy of the ledger.
  • the blockchain is managed as a peer-to-peer network. It can exist without being managed by a centralized authority or server. Data on the blockchain is collected together and organized into blocks. Blocks are linked together and protected using encryption.
  • Blockchain in nature perfectly complements IoT at scale with improved interoperability, security, privacy, reliability and scalability. Therefore, blockchain technology provides several features such as interoperability between devices, traceability of large amounts of data, autonomous interaction of different IoT systems, and large-scale connection stability of 6G communication systems.
  • the 6G system integrates terrestrial and public networks to support vertical expansion of user communications.
  • 3D BS will be provided via low orbit satellites and UAVs. Adding a new dimension in terms of elevation and associated degrees of freedom makes 3D connections significantly different from traditional 2D networks.
  • UAVs Unmanned Aerial Vehicles
  • a BS entity is installed in the UAV to provide cellular connectivity.
  • UAVs have certain features not found in fixed BS infrastructure, such as easy deployment, strong line-of-sight links, and degrees of freedom with controlled mobility.
  • eMBB enhanced Mobile Broadband
  • URLLC Universal Mobile Broadband
  • mMTC massive Machine Type Communication
  • Tight integration of multiple frequencies and heterogeneous communication technologies is very important in 6G systems. As a result, users can seamlessly move from one network to another without having to make any manual configuration on the device. The best network is automatically selected from the available communication technologies. This will break the limitations of the cell concept in wireless communication. Currently, user movement from one cell to another causes too many handovers in high-density networks, causing handover failures, handover delays, data loss and ping-pong effects. 6G cell-free communication will overcome all of this and provide better QoS. Cell-free communication will be achieved through multi-connectivity and multi-tier hybrid technologies and different heterogeneous radios of devices.
  • WIET uses the same fields and waves as wireless communication systems.
  • the sensor and smartphone will be charged using wireless power transfer during communication.
  • WIET is a promising technology for extending the life of battery-charging wireless systems. Therefore, devices without batteries will be supported in 6G communication.
  • An autonomous wireless network is a function that can continuously detect dynamically changing environmental conditions and exchange information between different nodes.
  • sensing will be tightly integrated with communications to support autonomous systems.
  • each access network is connected by backhaul connections such as fiber optic and FSO networks.
  • backhaul connections such as fiber optic and FSO networks.
  • Beamforming is a signal processing procedure that adjusts an antenna array to transmit a radio signal in a specific direction.
  • Beamforming technology has several advantages such as high call-to-noise ratio, interference prevention and rejection, and high network efficiency.
  • Hologram beamforming (HBF) is a new beamforming method that is significantly different from MIMO systems because it uses a software-defined antenna. HBF will be a very effective approach for efficient and flexible transmission and reception of signals in multi-antenna communication devices in 6G.
  • Big data analytics is a complex process for analyzing various large data sets or big data. This process ensures complete data management by finding information such as hidden data, unknown correlations and customer propensity. Big data is gathered from a variety of sources such as videos, social networks, images and sensors. This technology is widely used to process massive amounts of data in 6G systems.
  • the LIS is an artificial surface made of electromagnetic materials, and can change the propagation of incoming and outgoing radio waves.
  • LIS can be seen as an extension of massive MIMO, but the array structure and operation mechanism are different from those of massive MIMO.
  • LIS has low power consumption in that it operates as a reconfigurable reflector with passive elements, that is, only passively reflects the signal without using an active RF chain.
  • each of the passive reflectors of the LIS must independently adjust the phase shift of the incoming signal, it can be advantageous for a wireless communication channel.
  • the reflected signal can be gathered at the target receiver to boost the received signal power.
  • THz Terahertz
  • THz wave is located between RF (Radio Frequency)/millimeter (mm) and infrared band, (i) It transmits non-metal/non-polar material better than visible light/infrared light, and has a shorter wavelength than RF/millimeter wave, so it has high straightness. Beam focusing may be possible.
  • the photon energy of the THz wave is only a few meV, it is harmless to the human body.
  • the frequency band expected to be used for THz wireless communication may be a D-band (110 GHz to 170 GHz) or H-band (220 GHz to 325 GHz) band with low propagation loss due to absorption of molecules in the air.
  • the standardization discussion on THz wireless communication is being discussed centered on the IEEE 802.15 THz working group in addition to 3GPP, and the standard documents issued by the IEEE 802.15 Task Group (TG3d, TG3e) may specify or supplement the content described in this specification. have.
  • THz wireless communication may be applied to wireless recognition, sensing, imaging, wireless communication, THz navigation, and the like.
  • 11 is a diagram showing an example of THz communication application.
  • a THz wireless communication scenario may be classified into a macro network, a micro network, and a nanoscale network.
  • THz wireless communication can be applied to vehicle-to-vehicle connection and backhaul/fronthaul connection.
  • THz wireless communication in micro networks is applied to indoor small cells, fixed point-to-point or multi-point connections such as wireless connections in data centers, and near-field communication such as kiosk downloading.
  • Table 2 below is a table showing an example of a technique that can be used in the THz wave.
  • THz wireless communication can be classified based on a method for generating and receiving THz.
  • the THz generation method can be classified into an optical device or an electronic device-based technology.
  • 12 is a diagram illustrating an example of an electronic device-based THz wireless communication transceiver.
  • a method of generating THz using an electronic device is a method using a semiconductor device such as a Resonant Tunneling Diode (RTD), a local oscillator and a multiplier.
  • RTD Resonant Tunneling Diode
  • RTD Resonant Tunneling Diode
  • MMIC Monitoring Microwave Integrated Circuits
  • a doubler, tripler, or multiplier is applied to increase the frequency, and is radiated by the antenna through the subharmonic mixer. Since the THz band forms a high frequency, a multiplier is essential.
  • the multiplier is a circuit that has an output frequency that is N times that of the input, matches the desired harmonic frequency, and filters out all other frequencies.
  • beamforming may be implemented by applying an array antenna or the like to the antenna of FIG. 12 .
  • IF denotes an intermediate frequency
  • tripler multipler denote a multiplier
  • PA Power Amplifier denotes
  • LNA denotes a low noise amplifier
  • PLL denotes a phase lock circuit (Phase). -Locked Loop).
  • FIG. 13 is a diagram illustrating an example of a method of generating an optical device-based THz signal
  • FIG. 14 is a diagram illustrating an example of an optical device-based THz wireless communication transceiver.
  • Optical device-based THz wireless communication technology refers to a method of generating and modulating a THz signal using an optical device.
  • the optical element-based THz signal generation technology is a technology that generates a high-speed optical signal using a laser and an optical modulator, and converts it into a THz signal using an ultra-high-speed photodetector.
  • it is easier to increase the frequency compared to the technology using only electronic devices, it is possible to generate a high-power signal, and it is possible to obtain a flat response characteristic in a wide frequency band.
  • a laser diode, a broadband optical modulator, and a high-speed photodetector are required.
  • an optical coupler refers to a semiconductor device that uses light waves to transmit electrical signals to provide coupling with electrical isolation between circuits or systems
  • UTC-PD Uni-Traveling Carrier Photo-) Detector
  • UTC-PD is one of the photodetectors, which uses electrons as active carriers and reduces the movement time of electrons by bandgap grading.
  • UTC-PD is capable of photodetection above 150GHz.
  • D4 EDFA (Erbium-Doped Fiber Amplifier) represents an erbium-doped optical fiber amplifier
  • PD Photo Detector
  • OSA various optical communication functions (photoelectric It represents an optical module (Optical Sub Aassembly) in which conversion, electro-optical conversion, etc.) are modularized into one component
  • DSO represents a digital storage oscilloscope.
  • FIGS. 15 and 16 illustrate the structure of the photoelectric converter (or photoelectric converter) will be described with reference to FIGS. 15 and 16 .
  • 15 illustrates a structure of a photoinc source-based transmitter
  • FIG. 16 illustrates a structure of an optical modulator.
  • a phase of a signal may be changed by passing an optical source of a laser through an optical wave guide. At this time, data is loaded by changing electrical characteristics through a microwave contact or the like. Accordingly, an optical modulator output is formed as a modulated waveform.
  • the photoelectric modulator (O/E converter) is an optical rectification operation by a nonlinear crystal (nonlinear crystal), photoelectric conversion (O / E conversion) by a photoconductive antenna (photoconductive antenna), a bunch of electrons in the light beam (bunch of) THz pulses can be generated by, for example, emission from relativistic electrons.
  • a terahertz pulse (THz pulse) generated in the above manner may have a length in units of femtoseconds to picoseconds.
  • An O/E converter performs down conversion by using non-linearity of a device.
  • a number of contiguous GHz bands for fixed or mobile service use for the terahertz system are used. likely to use
  • available bandwidth may be classified based on oxygen attenuation of 10 ⁇ 2 dB/km in a spectrum up to 1 THz. Accordingly, a framework in which the available bandwidth is composed of several band chunks may be considered.
  • the bandwidth (BW) becomes about 20 GHz.
  • Effective down conversion from the IR band to the THz band depends on how the nonlinearity of the O/E converter is utilized. That is, in order to down-convert to a desired terahertz band (THz band), the O/E converter having the most ideal non-linearity for transfer to the terahertz band (THz band) is design is required. If an O/E converter that does not fit the target frequency band is used, there is a high possibility that an error may occur with respect to the amplitude and phase of the corresponding pulse.
  • a terahertz transmission/reception system may be implemented using one photoelectric converter. Although it depends on the channel environment, as many photoelectric converters as the number of carriers may be required in a far-carrier system. In particular, in the case of a multi-carrier system using several broadbands according to the above-described spectrum usage-related scheme, the phenomenon will become conspicuous. In this regard, a frame structure for the multi-carrier system may be considered.
  • the down-frequency-converted signal based on the photoelectric converter may be transmitted in a specific resource region (eg, a specific frame).
  • the frequency domain of the specific resource region may include a plurality of chunks. Each chunk may be composed of at least one component carrier (CC).
  • AI artificial intelligence
  • ML machine learning
  • 5G introduces new channel coding techniques called Low Density Parity Check (LDPC) codes and Polar codes (or non-machine learning based codes). This code shows performance that surpasses the existing Turbo code or Tail-Biting Convolutional Code (TBCC). However, when these codes are developed and reflected in standards, they are designed to be optimized for the Additive White Gaussian Noise (AWGN) channel.
  • LDPC Low Density Parity Check
  • TBCC Tail-Biting Convolutional Code
  • a code that is not optimized for a channel in communication has the following disadvantages. If a code that is not optimized for the base station and the terminal is used, an error may occur during transmission, and retransmission (eg, HARQ, automatic repeat request (ARQ)) must be performed to correct this. If the hybrid automatic repeat request (HARQ) is used, the base station must store data to be retransmitted, and the terminal stores the previously transmitted data in order to combine the previously transmitted data and the retransmitted data. Should be. This may require large amounts of memory. If a robust modulation and coding scheme (Modulation Coding Scheme, MCS) is used in order not to use HARQ, a waste of resources may occur.
  • MCS Modulation Coding Scheme
  • retransmission of data in which an error has occurred reduces data throughput and wastes resources for retransmission.
  • the waste of memory and resources used for retransmission may increase relatively significantly.
  • AWGN optimized code eg LDPC code, polar code
  • LDPC code polar code
  • the code generated online may be synchronized with the base station and the terminal through a synchronization procedure.
  • errors occurring during communication can be reduced.
  • this specification proposes a method of generating an optimal code for application to a non-AWGN channel (or an actual channel) with a code optimized for an AWGN channel based on AL/ML and channel information.
  • the present specification can not only increase code performance, but also improve system throughput and resource efficiency.
  • an AI/ML operation for code update may be performed by a base station (BS) (eg, gNB) or may be performed by a user equipment (UE).
  • BS base station
  • UE user equipment
  • the terminal estimates the channel using a reference symbol (RS) (or reference signal) transmitted from the base station, and using this, the base station or the terminal generates a code optimized for the channel between the base station and the terminal can do. After the information about the generated code is synchronized with the base station and the terminal, the terminal and the base station may perform data communication.
  • RS reference symbol
  • the terminal and the base station may perform data communication.
  • channel information transmitted by the terminal may be provided in the form of information required for the base station (and/or the terminal) for training.
  • the channel information may be a signal to noise ratio (SNR), a channel power, a maximum channel delay, and/or a channel profile.
  • the channel information may be provided as processed and/or compressed.
  • the base station and/or the terminal may update the code optimized for the channel using the channel information and the AWGN optimized code using AI and/or ML.
  • the base station (and/or the terminal) may perform code synchronization by notifying the terminal (and/or the base station) of the updated code. After code synchronization, the base station and the terminal may perform communication based on the new code.
  • the proposed method includes (i) capabilities, and (ii) a method for synchronizing an optimal code, and (iii) a method for searching or generating an optimal code based on AI and/or ML, and ( iv) Let's look at it in detail by dividing it into a method of generating descendant codes.
  • ‘A/B’ may be interpreted as ‘A and B’, ‘A or B’ and/or ‘A and/or B’.
  • the terminal and the base station may need to synchronize (i) decoder capability (C) and/or (ii) learning capability (L) before code synchronization.
  • decoder capability or capability
  • L learning capability
  • capability information information including decoder capability (or capability) and running capability may be referred to as capability information.
  • a delivery entity may be determined according to whether it is an uplink (UL) or a downlink (DL).
  • the terminal needs to deliver decoder capability and/or running capability to the base station
  • the base station may have to deliver decoder capability and/or running capability to the terminal.
  • And/or decoder capability and/or running capability may be delivered by request.
  • the base station may request capability from the terminal when there is downlink data to be transmitted, and in the case of uplink, when there is uplink data to be transmitted, the base station You can request the capability of .
  • the decoder capability may indicate a decoder level or may be information indicating whether to use an existing AWGN optimization code or an optimal code based on machine learning.
  • the decoder capability of the terminal can be divided into three levels.
  • the existing AWGN optimization code eg, LDPC code, polar code
  • the descendant code when the base station determines the final C value to be 1, the descendant code may be generated by maintaining the base matrix of the LDPC code and changing the circulant permutation matrix (CPM).
  • the descendant code may be generated based on Variant 1, which will be described below.
  • SDR software-defined radio
  • the running capability of the terminal may be a value indicating whether or not code search can be performed. For example, a learning capability with a value of 0 indicates that the terminal cannot perform machine learning or code search, and a learning capability with a value of 1 indicates that the terminal can perform machine learning or code search. can indicate For example, when the running capability has a value of 1 and the final decoder capability is determined as a value of 1 or 2, the terminal may generate an optimal code based on machine learning and channel information.
  • codes and/or running capabilities of the terminal and the base station may be determined in an initial connection step.
  • the decoder capability and the running capability of the terminal may be information transmitted by the terminal to the base station in downlink transmission.
  • the decoder capability (C BS ) of the base station may have to consider more variables than the user equipment (UE). This is because, unlike the terminal, the base station has large computing power, but has to process many terminals at the same time. Therefore, it is impossible to unconditionally support the desired capability of the terminal just because the computing power is large.
  • the base station may determine C supportable by the base station for each terminal and synchronize it with the terminal. In other words, the base station may independently synchronize the capabilities for each terminal.
  • Code capability (or capability) of the base station can also be divided into three levels like the terminal.
  • the base station and the terminal may use the existing AWGN optimization code as it is.
  • the descendant code may be generated by maintaining the base matrix of the LDPC code and updating only the shifting-value (or CPM). And/or, the entire CPM or only the changed CPM may be synchronized.
  • the decoder capability and the running capability of the base station may be information transmitted by the base station to the terminal in uplink transmission.
  • a method of synchronizing an optimal code between a base station and a terminal can be largely divided into (i) a case of generating an optimal code for downlink, and/or (ii) a case of generating an optimal code for uplink. .
  • the case of generating the optimal code for downlink is the case where the base station generates the optimal code
  • the case of generating the optimal code for the uplink is the case of the terminal It can be divided into a case in which an optimal code is generated and a case in which the base station generates an optimal code.
  • 17 is a flowchart of a method for generating an optimal code in a base station in downlink transmission.
  • the terminal may transmit capability (L UE and/or C UE ) to the base station.
  • the base station may determine C (or decoding level information) using the capabilities (L UE and/or C UE) transmitted from the terminal in step S1702.
  • C may be C ⁇ C UE.
  • the determined C may be transmitted to the terminal. Using this information, the terminal can know whether the final code is updated or not.
  • the terminal acquires channel information (eg, channel state information (CSI)) using a reference signal (RS) (eg, CSI-RS) from the terminal in step S1703, Channel information may be transmitted to the base station.
  • RS reference signal
  • the base station may generate an optimal code based on channel information and/or machine learning.
  • the base station may transmit information about an optimal code (or new code information) for code synchronization with the terminal in step S1704.
  • the information on the optimal code may mean the generated optimal code itself or an index of the optimal code.
  • the terminal and the base station may receive a preset set of optimal codes that can be generated, and the base station may transmit only the index of a specific optimal code to the terminal to perform code synchronization.
  • the terminal may transmit an acknowledgment (Ack) or negative acknowledgment (Nack) for information on the optimal code (or new code information).
  • Ack acknowledgment
  • Nack negative acknowledgment
  • the base station may transmit data to the terminal based on the optimal code in step S1706, and the terminal may receive and/or decode the corresponding data based on the optimal code.
  • 18 is a flowchart of a method for a terminal to generate an optimal code in downlink transmission.
  • the UE may transmit capabilities (L UE and/or C UE ).
  • the base station may determine C (or decoding level information) using the capabilities (L UE and/or C UE) transmitted from the terminal.
  • C may be C ⁇ C UE.
  • the base station may transmit the determined C to the terminal in step S1802.
  • C may be a C UE determined according to a preset scheme within a range where C ⁇ C UE.
  • the terminal may perform code search using this information.
  • the UE acquires channel information (eg, CSI) using the RS (eg, CSI-RS), generates an optimal code using this, and transmits information on the optimal code can
  • the information on the optimal code may mean the generated optimal code itself or an index of the optimal code.
  • the terminal and the base station may receive a preset set of optimal codes that can be generated, and the terminal may transmit only an index of a specific optimal code to the base station to perform code synchronization.
  • the base station may transmit an Ack and/or data after synchronizing the code in step S1804.
  • the terminal when the terminal receives the Ack in step S1805, it may inform the base station to send data.
  • the base station may transmit data using an optimal code in step S1806.
  • the terminal may decode the received data using an optimal code.
  • code optimization code optimization
  • Signaling Signaling
  • code synchronization procedure may also be applied to the uplink.
  • 19 is a flowchart of a method for a terminal to generate an optimal code in uplink transmission.
  • the base station transmits C BS 0
  • the base station and/or the terminal uses an existing LDPC code or a polar code without generating an optimal code based on channel information and/or machine learning. Data can be sent and received.
  • the base station may transmit the capability (C BS and/or L BS ) in step S1901.
  • L BS 0.
  • the terminal may determine and/or transmit the final capability C (or decoding level information) using the capability received from the base station in step S1902.
  • the base station may obtain channel information (eg, CSI) using the RS (eg, SRS) in step S1903, and/or transmit the channel information to the terminal.
  • the terminal may generate an optimal code based on channel information and machine learning.
  • Method A is a method of estimating an uplink channel using downlink CSI using channel reciprocal characteristics without receiving estimated channel information from a base station.
  • the channel telegram transmitted by the base station to the terminal may be downlink CSI.
  • the base station since the terminal generates downlink CSI, the base station may omit the operation of transmitting channel information to the terminal.
  • Method B is a method of acquiring channel information by receiving a channel measured and estimated by the base station through a control channel (CCH) and/or a shared channel (SCH). And/or, Method A may be usable only in Time Division Multiplexing (TDM), and Method B may be usable in both TDM and Frequency Division Multiplexing (FDM).
  • TDM Time Division Multiplexing
  • FDM Frequency Division Multiplexing
  • the terminal may transmit information on an optimal code (or new code information) for code synchronization with the base station in step S1904.
  • information on an optimal code (or new code information) may be transmitted.
  • the information on the optimal code may mean the generated optimal code itself or an index of the optimal code.
  • the terminal and the base station may receive a preset set of optimal codes that can be generated, and the terminal may transmit only an index of a specific optimal code to the base station to perform code synchronization.
  • the base station may transmit Ack or Nack for information on the optimal code (or new code information) in step S1905.
  • the terminal may code data based on the optimal code in step S1906, and transmit the corresponding data to the base station.
  • the base station may receive and/or decode the corresponding data based on the optimal code.
  • the above code optimization, signaling, and/or code synchronization procedures may also be applied to uplink.
  • 20 is a flowchart of a method for generating an optimal code in a base station in uplink transmission.
  • the base station transmits C BS 0
  • the base station and/or the terminal uses an existing LDPC code or a polar code without generating an optimal code based on channel information and/or machine learning. Data can be sent and received.
  • the base station may transmit the capability (C BS and/or L BS ) in step S2001.
  • L BS 1 may be.
  • the terminal may determine C (or decoding level information) using the capability (L BS and/or C BS ) transmitted from the base station in step S2002, and transmit the determined C to the base station.
  • C may be C ⁇ C BS.
  • the base station may perform code search using C.
  • the base station may obtain channel information using an RS (eg, SRS), and may generate and/or transmit an optimal code using this.
  • RS eg, SRS
  • the terminal may transmit an Ack and/or data after synchronizing the code in step S2004.
  • the base station when the base station receives an Ack in step S2005, it may inform the terminal to send data.
  • the terminal may code data based on the optimal code in step S2006 and transmit the data to the base station.
  • the base station may receive and/or decode the corresponding data based on the optimal code.
  • the optimal code generated by the base station or the terminal may be synchronized by the following methods (Method 1, Method 2).
  • Method 1 is a method in which the base station and the terminal generate and have an optimal code corresponding to the final capability in advance, and synchronize the code index corresponding to the channel condition during actual operation. In this case, although the signaling overhead is small, the flexibility of the code may be relatively poor.
  • a method of transmitting code indexes may be transmitted through RRC, CCH, or SCH.
  • Method 2 is a method in which the base station and the terminal generate an optimal code corresponding to the final capability, and synchronize the entire code through communication.
  • the entire code may be transmitted through a control channel (CCH) or a shared channel (CSCH).
  • CCH control channel
  • CSCH shared channel
  • 21 is a flowchart of a method of searching for or generating an optimal code (or new code, machine learning-based code) based on AI and/or ML in a base station (or terminal).
  • an operation (or an embodiment) may be performed in a base station or a terminal.
  • AI and/or ML may be referred to herein as machine learning.
  • FIG. 21 may be a procedure in which a base station or a terminal performs code search or code generation in the procedures of FIGS. 17 and/or 20 .
  • FIG. 21 may be a procedure in which a terminal or a base station performs code search or code generation in the procedures of FIGS. 18 and/or 20 .
  • "channel state information" of FIG. 21 may mean channel information obtained by the terminal or the base station.
  • a base station or a terminal may generate an initial parent code based on an AWGN optimization code (eg, an LDPC code or a polar code) in step S2101.
  • the AWGN optimization code may be a code that the base station and the terminal have in advance.
  • operations S2103 to S2107 may be performed using one LDPC code as an initial parent code.
  • M or more descendant codes may be generated.
  • step S2101 may only operate in the first cycle and may not operate in the first and subsequent cycles.
  • steps S2102 to S2108 will be described on the premise of the operation after M or more descendant codes are generated in the first cycle as described above.
  • the base station or the terminal may arbitrarily select M among the generated descendant codes in step S2102.
  • M is a number that can be simultaneously verified and may be controllable according to the computing power of the base station.
  • steps S2103 to S2105 may be steps or operations processed in parallel for M codes.
  • the base station or the terminal may encode M codes in step S2103.
  • the base station or the terminal may encode specific data into each of the M codes in step S2103.
  • the base station or the terminal may pass the M encoded codes to the channel in step S2104.
  • the channel may be a channel reflecting channel information received from the base station or the terminal.
  • the base station or the terminal may apply or reflect channel information (eg, CSI) to data encoded using the M selected codes in step S2104.
  • channel information eg, CSI
  • the channel information is reflected to obtain the same effect as transmitted/received through a channel corresponding to the channel information.
  • the channel information may be information transmitted from a base station or a terminal.
  • the base station or the terminal may measure a block error rate (BLER) by decoding each of the M pieces of data encoded by the selected codes and reflecting channel information in step S2105.
  • BLER block error rate
  • the base station or the terminal may update the parent code set using the BLER measured in step S2106.
  • the base station or the terminal may generate a parent code set composed of S+M codes by using a parent code set composed of M selected codes (or M results) and existing S codes. And/or, the base station or the terminal arranges S + M codes in ascending order based on BLER, and selects S codes of a low index (those with good BLER performance) among them to obtain a new parent code set.
  • 22 is a graph in which parent codes are arranged in ascending order by BLER.
  • S+M codes may be arranged in order from the best BLER performance.
  • the terminal or the base station may select S codes from the ones with good double BLER performance and generate a parent code set composed of the codes.
  • S codes may be indexed in order from the best BLER performance.
  • the code with the best BLER performance may be indexed by 1.
  • each of the S codes constituting the parent code set may be referred to as a parent code.
  • two codes among the S parent codes may be selected by Equation (1).
  • the base station or the terminal may select an arbitrary parent code from the parent code set in step S2107, and use it to generate offspring codes.
  • any two parent codes may be selected.
  • the descendant codes may be generated through the parent code of index 4 and the parent code of index 6 among the parent codes of FIG. 22 by the method of the genetic algorithm described with reference to FIGS. 23 to 24 .
  • any parent code (two parent codes) may be selected by the probability value of Equation 1 below.
  • a method of selecting an arbitrary parent code may be applied using (Exploitation) and/or exploration (Exploration) technique.
  • Equation 1 is an expression representing the probability that the i-th parent code is selected in step S2107.
  • a Depending on the value of “a”, it is possible to adjust the probability of selecting the “I”-th parent code. For example, a(a ⁇ 0) may become smaller as the cycle of the operation described with reference to FIG. 21 increases by AL/ML.
  • the initial stage of Iteration may be close to Exploration, and the latter part of Iteration may perform Exploitation. That is, the value of “a” may decrease as the iteration increases.
  • the number of repetitions may be the number of times including the first cycle.
  • M and Imax may be selected and/or preset in consideration of computing power of the terminal and code search time. And/or, M and Imax may be selected and/or preset according to an application. For example, when latency is important, such as URLLC, M and Imax are set to be small to reduce code optimization time. Alternatively, when latency is insensitive and high throughput is required, M and Imax are set large to generate an optimized code to transmit data without possible errors.
  • an AI genetic algorithm may be used.
  • the method used in the genetic algorithm can be of two types: variant and crossover.
  • step S2107 the generation of the descendant code described with reference to 21 (step S2107) may be generated by mutation and/or crossing.
  • mutation and/or crossover may be performed multiple times in step S2107.
  • a variant in the LDPC code is to arbitrarily change the edge in the H matrix.
  • the method of changing the edge can be divided into two (variant 1, variant 2).
  • 23 is a diagram for explaining a variant used in a genetic algorithm.
  • code optimization or descendant code generation may be performed by maintaining the base matrix and changing only the CPM.
  • Variant 2 may be to change not only the edge of the basic matrix but also the CPM, as shown in FIG. 23( b ).
  • code optimization or descendant code generation may be performed by changing both the base matrix and the CPM.
  • FIG. 23 (a) is an example of Variant 1.
  • mutation can be performed by referring to CSI and changing the CPM in a column of a variable node affected by CSI to an arbitrary value.
  • the values of H(0,0), H(1,3), and H(3,1) may be changed from 6,7,1 to 5,2,3.
  • the parity part (part M) may not be changed.
  • variant 1 may be performed when C UE or C BS is 1
  • variant 2 may be performed when C UE or C BS is 2.
  • crossing may be performed when C UE or C BS is 2.
  • combination of variant and cross may be performed when C UE or C BS is 2.
  • 24 is a diagram for explaining crossover (or crossover) used in a genetic algorithm.
  • Crossover is a method of generating a new code by combining parts of parent codes with each other, as shown in FIG. 24 .
  • the parity part (M part) may not be changed.
  • Crossover is a method of generating a new code by combining parts of two or more parent codes with each other. In this case, the parity may not be changed.
  • the offspring code on the left and right of FIG. 24 crosses the rows and columns of the A parent code (Parent-A code) and the B parent code (Parent-B code) to generate a new offspring code.
  • the left child code may be a code generated by combining a part of 2410 of the parent code A and a part of 2430 of the parent code of B.
  • the child code on the right may be a code generated by combining the portion 2420 of the parent code A and the portion 2440 of the parent code B.
  • Descendant codes can also be created by combining variants and crossovers.
  • the proposed method of the present specification may have the following characteristics.
  • the base station and the terminal can determine two capability levels. One is for determining which code optimization is to be performed between the UE and the base station (eg, L UE , L BS ), and the other is for determining how to perform code optimization level (eg, C UE , C BS ) can be Through this, according to the present specification, there is an effect of improving the delay performance and reliability of the entire communication.
  • the code optimization level of the terminal is determined by the flexibility of the receiver, but the base station may be determined in consideration of the number of terminals to be serviced as well as the flexibility of the receiver of the base station. Capability is a radio resource control (Radio Resource Control, RRC) signal, a control channel (Control Channel, CCH), a master information block (Master Information Block, MIB) and / or system information block (System Information Block, SIB) can be transmitted through
  • RRC Radio Resource Control
  • CCH Control Channel
  • MIB Master Information Block
  • SIB System Information Block
  • a code synchronization procedure may be performed.
  • Parameters for code search can be selected in consideration of computing power. By changing the “a” value, you can control Exploitation and Exploration. And/or, the performance and the search time may be adjusted through appropriate selection of M and Imax.
  • 25 is a flowchart illustrating a method of operating a terminal in downlink transmission proposed in the present specification.
  • the terminal (1000/2000 in FIGS. 29 to 38 ) includes (i) first information indicating the decoding level of the terminal (eg, C UE ) and (ii) indicating whether machine learning is possible.
  • Capability information (eg, L UE ) including the second information may be transmitted to the base station (S2501).
  • the decoding level may be divided into three types.
  • the first information indicating the decoding level 1 may be transmitted when the receiver structure of the terminal is hard-wired. And/or, for example, when the base station finally transmits decoding level information indicating decoding level 1 to the terminal, data can be transmitted/received using a non-machine learning-based code (eg, LDPC code or polar code). .
  • a non-machine learning-based code eg, LDPC code or polar code
  • the first information indicating the decoding level 2 may be transmitted when the receiver structure of the terminal is partially flexible. And/or, for example, when the base station finally transmits decoding level information indicating decoding level 2 to the terminal, data may be transmitted/received using a machine learning-based code.
  • a machine learning-based code For example, if the non-machine learning-based code used to generate the machine learning-based code is an LDPC code, the machine learning-based code maintains the existing metrics of the LDPC code and only changes the CPM (e.g. variant 1) to develop AI/ML. can be created using a machine learning-based code.
  • the non-machine learning-based code used to generate the machine learning-based code is an LDPC code
  • the machine learning-based code maintains the existing metrics of the LDPC code and only changes the CPM (e.g. variant 1) to develop AI/ML. can be created using
  • the first information indicating the decoding level 3 may be transmitted when the receiver structure of the terminal is completely flexible. And/or, for example, when the base station finally transmits decoding level information indicating decoding level 3 to the terminal, data may be transmitted/received using a machine learning-based code.
  • a machine learning-based code For example, if the non-machine-learning-based code used to generate the machine-learning-based code is an LDPC code, the machine-learning-based code changes both the existing metrics and the CPM of the LDPC code (e.g. variant2, crossover) to create AI/ML can be created using a machine learning-based code.
  • the non-machine-learning-based code used to generate the machine-learning-based code is an LDPC code
  • the machine-learning-based code changes both the existing metrics and the CPM of the LDPC code (e.g. variant2, crossover) to create AI/ML can be created using
  • the second information may be information indicating whether the terminal can perform code search based on machine learning. For example, when the terminal transmits the second information indicating that machine learning is possible, when the base station and the terminal need to generate a machine learning-based code, it may be determined that the terminal generates the machine learning-based code.
  • the terminal transmits second information indicating that machine learning is not possible and the base station is capable of machine learning
  • the base station and the terminal need to generate a machine learning-based code
  • the operation of the terminal transmitting the capability information in step S2501 may be implemented by the apparatus of FIGS. 29 to 38 to be described below.
  • one or more processors 1020 may control one or more memories 1040 and/or one or more RF units 1060 , etc. to transmit capability information, and one or more RF units. 1060 may transmit capability information.
  • the terminal may receive decoding level information from the base station based on the first information (S2502).
  • the decoding level information may be information indicating the final decoding level determined by the base station based on the first information received from the terminal.
  • the operation of the terminal receiving decoding level information in step S2502 may be implemented by the apparatus of FIGS. 29 to 38 to be described below.
  • one or more processors 1020 may control one or more memories 1040 and/or one or more RF units 1060 , etc. to receive decoding level information, and one or more RF units.
  • Unit 1060 may receive decoding level information.
  • the terminal may receive downlink data from the base station based on the decoding level information and the second information (S2503).
  • the operation of receiving downlink data is performed using machine learning and channel information based on decoding level information indicating use of a machine learning-based code and second information indicating that machine learning is possible. It may include an operation of generating a learning-based code, an operation of transmitting information about the machine learning-based code to the base station, and an operation of receiving downlink data from the base station based on the machine learning-based code.
  • transmitting and receiving downlink data based on the machine learning-based code may mean encoding and/or decoding the downlink data using the machine learning-based code.
  • the generating of the machine learning-based code may include generating n codes based on machine learning, generating n data based on the n codes and channel information, and n data and selecting a machine learning-based code based on a block error rate (BLER) of .
  • BLER block error rate
  • the operation of receiving downlink data (step S2503) transmits channel information to the base station based on the decoding level information indicating use of the machine learning-based code and the second information indicating that machine learning is not possible and receiving information on the machine learning-based code from the base station, and receiving downlink data from the base station based on the machine learning-based code.
  • the operation of receiving downlink data is an operation of receiving downlink data from the base station using a non-machine learning-based code, based on decoding level information indicating use of a non-machine learning-based code.
  • a non-machine learning-based code may mean encoding and/or decoding downlink data using the non-machine learning-based code.
  • the non-machine learning-based code may be a low-density parity check (LDPC) code or a polar code.
  • LDPC low-density parity check
  • one or more processors 1020 may control one or more memories 1040 and/or one or more RF units 1060 and the like to receive downlink data, and one or more RF units.
  • Unit 1060 may receive downlink data.
  • the terminal may receive a request for capability information from the base station.
  • the base station may request capability information from the terminal.
  • one or more processors 1020 may control one or more memories 1040 and/or one or more RF units 1060 , etc. to receive a request for capability information, and one The above RF unit 1060 may receive a request for capability information.
  • the above-described signaling and operation may be implemented by an apparatus (eg, FIGS. 29 to 38 ) to be described below.
  • the above-described signaling and operation may be processed by one or more processors 1010 and 2020 of FIGS. 29 to 38 , and the above-described signaling and operation may be performed by at least one processor (eg: 1010, 2020) may be stored in the memory (eg, 1040, 2040) in the form of an instruction/program (eg, instruction, executable code) for driving.
  • an instruction/program eg, instruction, executable code
  • an apparatus comprising one or more memories and one or more processors operatively coupled to the one or more memories, wherein the one or more processors enable the apparatus to: (i) first information indicative of a decoding level; and (ii) ) transmits capability information including second information indicating whether machine learning is possible to the base station, receives decoding level information from the base station based on the first information, and downlinks from the base station based on the decoding level information and the second information Link data can be received.
  • the one or more instructions executable by one or more processors may cause the terminal to: (i) a second indicating a decoding level of the terminal. 1 information and (ii) transmit capability information including second information indicating whether machine learning is possible to the base station, receive decoding level information from the base station based on the first information, and include the decoding level information and the second information based on the downlink data can be received from the base station.
  • CCM computer readable medium
  • 26 is a flowchart illustrating an operation method of a base station in downlink transmission proposed in the present specification.
  • the base station (1000/2000 in FIGS. 29 to 38) indicates (i) first information indicating the decoding level of the terminal (eg, C UE ) and (ii) indicating whether machine learning is possible.
  • Capability information (eg, L UE ) including the second information may be received from the terminal (S2601).
  • the decoding level may be divided into three types.
  • the first information indicating the decoding level 1 may be transmitted when the receiver structure of the terminal is hard-wired. And/or, for example, when the base station finally transmits decoding level information indicating decoding level 1 to the terminal, data can be transmitted/received using a non-machine learning-based code (eg, LDPC code or polar code). .
  • a non-machine learning-based code eg, LDPC code or polar code
  • the first information indicating the decoding level 2 may be transmitted when the receiver structure of the terminal is partially flexible. And/or, for example, when the base station finally transmits decoding level information indicating decoding level 2 to the terminal, data may be transmitted/received using a machine learning-based code.
  • a machine learning-based code For example, if the non-machine learning-based code used to generate the machine learning-based code is an LDPC code, the machine learning-based code maintains the existing metrics of the LDPC code and only changes the CPM (e.g. variant 1) to develop AI/ML. can be created using a machine learning-based code.
  • the non-machine learning-based code used to generate the machine learning-based code is an LDPC code
  • the machine learning-based code maintains the existing metrics of the LDPC code and only changes the CPM (e.g. variant 1) to develop AI/ML. can be created using
  • the first information indicating the decoding level 3 may be transmitted when the receiver structure of the terminal is completely flexible. And/or, for example, when the base station finally transmits decoding level information indicating decoding level 3 to the terminal, data may be transmitted/received using a machine learning-based code.
  • a machine learning-based code For example, if the non-machine-learning-based code used to generate the machine-learning-based code is an LDPC code, the machine-learning-based code changes both the existing metrics and the CPM of the LDPC code (e.g. variant2, crossover) to create AI/ML can be created using a machine learning-based code.
  • the non-machine-learning-based code used to generate the machine-learning-based code is an LDPC code
  • the machine-learning-based code changes both the existing metrics and the CPM of the LDPC code (e.g. variant2, crossover) to create AI/ML can be created using
  • the second information may be information indicating whether the terminal can perform code search based on machine learning. For example, when the terminal transmits the second information indicating that machine learning is possible, when the base station and the terminal need to generate a machine learning-based code, it may be determined that the terminal generates the machine learning-based code.
  • the terminal transmits second information indicating that machine learning is not possible and the base station is capable of machine learning
  • the base station and the terminal need to generate a machine learning-based code
  • the operation of the base station receiving the capability information in step S2601 may be implemented by the apparatus of FIGS. 29 to 38 to be described below.
  • one or more processors 1020 may control one or more memories 1040 and/or one or more RF units 1060 , etc. to receive capability information, and one or more RF units. 1060 may receive capability information.
  • the base station (1000/2000 in FIGS. 29 to 38) may transmit decoding level information to the terminal based on the first information (S2602).
  • the decoding level information may be information indicating the final decoding level determined by the base station based on the first information received from the terminal.
  • the operation of the base station transmitting decoding level information in step S2602 may be implemented by the apparatus of FIGS. 29 to 38 to be described below.
  • one or more processors 1020 may control one or more memories 1040 and/or one or more RF units 1060 and the like to transmit decoding level information, and one or more RF units.
  • Unit 1060 may transmit decoding level information.
  • the base station (1000/2000 in FIGS. 29 to 38) may transmit downlink data to the terminal based on the decoding level information and the second information (S2603).
  • the operation of transmitting downlink data is based on the decoding level information indicating the use of the machine learning-based code and the second information indicating that machine learning is possible, information on the machine learning-based code It may include an operation of receiving from the terminal and an operation of transmitting downlink data to the terminal based on a machine learning-based code.
  • transmitting and receiving downlink data based on the machine learning-based code may mean encoding and/or decoding the downlink data using the machine learning-based code.
  • the operation of transmitting downlink data is based on the decoding level information indicating the use of the machine learning-based code and the second information indicating that machine learning is not possible, receiving channel information from the terminal operation, generating a machine learning-based code based on machine learning and channel information, transmitting information about the machine learning-based code to the terminal, and transmitting downlink data to the terminal based on the machine learning-based code It may include an operation of transmitting.
  • the generating of the machine learning-based code may include generating n codes based on machine learning, generating n data based on the n codes and channel information, and n data and selecting a machine learning-based code based on a block error rate (BLER) of .
  • BLER block error rate
  • the operation of receiving the downlink data is based on the decoding level information indicating the use of the non-machine learning-based code, the operation of transmitting the downlink data to the terminal using the non-machine learning-based code.
  • the non-machine learning-based code may mean encoding and/or decoding downlink data using the non-machine learning-based code.
  • the non-machine learning-based code may be a low-density parity check (LDPC) code or a polar code.
  • LDPC low-density parity check
  • the operation of the base station transmitting downlink data in step S2603 may be implemented by the apparatus of FIGS. 29 to 38 to be described below.
  • one or more processors 1020 may control one or more memories 1040 and/or one or more RF units 1060 and the like to transmit downlink data, and one or more RF units.
  • the unit 1060 may transmit downlink data.
  • the base station (1000/2000 in FIGS. 29 to 38) may transmit a request for capability information to the terminal. For example, when there is downlink data to be transmitted, the base station may request capability information from the terminal.
  • one or more processors 1020 may control one or more memories 1040 and/or one or more RF units 1060 , etc. to transmit a request for capability information, and one or more The above RF unit 1060 may transmit a request for capability information.
  • the above-described signaling and operation may be implemented by an apparatus (eg, FIGS. 29 to 38 ) to be described below.
  • the above-described signaling and operation may be processed by one or more processors 1010 and 2020 of FIGS. 29 to 38 , and the above-described signaling and operation may be performed by at least one processor (eg: 1010, 2020) may be stored in the memory (eg, 1040, 2040) in the form of an instruction/program (eg, instruction, executable code) for driving.
  • an instruction/program eg, instruction, executable code
  • an apparatus comprising one or more memories and one or more processors operatively coupled to the one or more memories, wherein the one or more processors enable the apparatus to: (i) first information indicative of a decoding level; and (ii) ) Receives capability information including second information indicating whether machine learning is possible from the terminal, transmits decoding level information to the terminal based on the first information, and downlinks to the terminal based on the decoding level information and the second information Link data can be transmitted.
  • a non-transitory computer readable medium storing one or more instructions
  • the one or more instructions executable by one or more processors are configured to cause the base station to: 1 information and (ii) receive capability information including second information indicating whether machine learning is possible from the terminal, transmit decoding level information to the terminal based on the first information, and receive the decoding level information and the second information based on the downlink data can be transmitted to the terminal.
  • 27 is a flowchart for explaining a method of operating a terminal in uplink transmission proposed in the present specification.
  • the terminal (1000/2000 in FIGS. 29 to 38) indicates (i) first information indicating the decoding level of the terminal (eg, C BS ) and (ii) indicating whether machine learning is possible.
  • Capability information (eg, L BS ) including the second information may be received from the base station (S2701).
  • the decoding level may be divided into three types.
  • the first information indicating the decoding level 1 may be received when the receiver structure of the base station is hard-wired. And/or, for example, when the terminal finally transmits decoding level information indicating decoding level 1 to the base station, data can be transmitted and received using a non-machine learning-based code (eg, LDPC code or polar code). .
  • a non-machine learning-based code eg, LDPC code or polar code.
  • the first information indicating the decoding level 2 may be received when the receiver structure of the base station is partially flexible. And/or, for example, when the terminal finally transmits decoding level information indicating decoding level 2 to the base station, data may be transmitted/received using a machine learning-based code.
  • a machine learning-based code For example, if the non-machine learning-based code used to generate the machine learning-based code is an LDPC code, the machine learning-based code maintains the existing metrics of the LDPC code and only changes the CPM (e.g. variant 1) to develop AI/ML. can be created using a machine learning-based code.
  • the non-machine learning-based code used to generate the machine learning-based code is an LDPC code
  • the machine learning-based code maintains the existing metrics of the LDPC code and only changes the CPM (e.g. variant 1) to develop AI/ML. can be created using
  • the first information indicating the decoding level 3 can be received when the receiver structure of the base station is completely flexible. And/or, for example, when the terminal finally transmits decoding level information indicating decoding level 3 to the base station, data may be transmitted/received using a machine learning-based code.
  • a machine learning-based code For example, if the non-machine-learning-based code used to generate the machine-learning-based code is an LDPC code, the machine-learning-based code changes both the existing metrics and the CPM of the LDPC code (e.g. variant2, crossover) to create AI/ML can be created using
  • the second information may be information indicating whether the base station can perform code search based on machine learning. For example, when the base station transmits the second information indicating that machine learning is possible, when the base station and the terminal need to generate a machine learning-based code, it may be determined that the base station generates the machine learning-based code.
  • the base station transmits second information indicating that machine learning is not possible and the terminal is capable of machine learning
  • the base station and the terminal need to generate a machine learning-based code
  • the terminal generates a machine learning-based code can be decided. In this case, it is assumed that the terminal is capable of machine learning.
  • one or more processors 1020 may control one or more memories 1040 and/or one or more RF units 1060 , etc. to receive capability information, and one or more RF units. 1060 may receive capability information.
  • the terminal may transmit decoding level information to the base station based on the first information (S2702).
  • the decoding level information may be information indicating the final decoding level determined by the terminal based on the first information received from the base station.
  • the operation of the terminal receiving decoding level information in step S2502 may be implemented by the apparatus of FIGS. 29 to 38 to be described below.
  • one or more processors 1020 may control one or more memories 1040 and/or one or more RF units 1060 , etc. to receive decoding level information, and one or more RF units.
  • Unit 1060 may receive decoding level information.
  • the terminal may transmit uplink data from the base station based on the decoding level information and the second information (S2703).
  • the operation of transmitting uplink data is based on the decoding level information indicating the use of the machine learning-based code and the second information indicating that machine learning is possible, information about the machine learning-based code It may include an operation of receiving from the base station and an operation of transmitting uplink data to the base station based on a machine learning-based code.
  • transmitting and receiving uplink data based on the machine learning-based code may mean encoding and/or decoding the uplink data using the machine learning-based code.
  • the operation of transmitting the uplink data is based on the decoding level information indicating use of the machine learning-based code and the second information indicating that machine learning is not possible, receiving channel information from the base station operation, generating a machine learning-based code using machine learning and channel information, transmitting information about the machine learning-based code to the base station, and transmitting uplink data to the base station based on the machine learning-based code It may include an action to
  • the generating of the machine learning-based code may include generating n codes based on machine learning, generating n data based on the n codes and channel information, and n data and selecting a machine learning-based code based on a block error rate (BLER) of .
  • BLER block error rate
  • the operation of transmitting the uplink data includes the operation of transmitting the uplink data to the base station using the non-machine learning-based code, based on the decoding level information indicating the use of the non-machine learning-based code.
  • the non-machine learning-based code may be a low-density parity check (LDPC) code or a polar code.
  • step S2703 the operation of the terminal transmitting uplink data in step S2703 may be implemented by the apparatus of FIGS. 29 to 38 to be described below.
  • one or more processors 1020 may control one or more memories 1040 and/or one or more RF units 1060 and the like to transmit uplink data, and one or more RF units.
  • the unit 1060 may transmit uplink data.
  • the terminal (1000/2000 in FIGS. 29 to 38) may transmit a request for capability information to the base station. For example, when there is uplink data to be transmitted, the terminal may request capability information from the base station.
  • one or more processors 1020 may control one or more memories 1040 and/or one or more RF units 1060 , etc. to transmit a request for capability information, and one or more The above RF unit 1060 may transmit a request for capability information.
  • the above-described signaling and operation may be implemented by an apparatus (eg, FIGS. 29 to 38 ) to be described below.
  • the above-described signaling and operation may be processed by one or more processors 1010 and 2020 of FIGS. 29 to 38 , and the above-described signaling and operation may be performed by at least one processor (eg: 1010, 2020) may be stored in the memory (eg, 1040, 2040) in the form of an instruction/program (eg, instruction, executable code) for driving.
  • an instruction/program eg, instruction, executable code
  • an apparatus comprising one or more memories and one or more processors operatively coupled to the one or more memories, wherein the one or more processors enable the apparatus to: (i) first information indicative of a decoding level; and (ii) ) Receives capability information including second information indicating whether machine learning is possible from the base station, transmits decoding level information to the base station based on the first information, and uplinks to the base station based on the decoding level information and the second information Link data can be transmitted.
  • a non-transitory computer readable medium storing one or more instructions
  • the one or more instructions executable by one or more processors are configured to cause the terminal to: (i) a second indicating level of a decoding level of a base station 1 information and (ii) receive capability information including second information indicating whether machine learning is possible from the base station, and transmit decoding level information to the base station based on the first information, and to the decoding level information and the second information Based on this, uplink data may be transmitted to the base station.
  • 28 is a flowchart illustrating an operation method of a base station in uplink transmission proposed in the present specification.
  • the base station (1000/2000 in FIGS. 29 to 38) indicates (i) first information indicating the decoding level of the terminal (eg, C BS ) and (ii) indicating whether machine learning is possible.
  • Capability information (eg, L BS ) including the second information may be transmitted to the terminal (S2801).
  • the decoding level may be divided into three types.
  • the first information indicating the decoding level 1 may be transmitted when the receiver structure of the base station is hard-wired. And/or, for example, when the terminal finally transmits decoding level information indicating decoding level 1 to the base station, data can be transmitted and received using a non-machine learning-based code (eg, LDPC code or polar code). .
  • a non-machine learning-based code eg, LDPC code or polar code.
  • the first information indicating the decoding level 2 may be transmitted when the receiver structure of the base station is partially flexible. And/or, for example, when the terminal finally transmits decoding level information indicating decoding level 2 to the base station, data may be transmitted/received using a machine learning-based code.
  • a machine learning-based code For example, if the non-machine learning-based code used to generate the machine learning-based code is an LDPC code, the machine learning-based code maintains the existing metrics of the LDPC code and only changes the CPM (e.g. variant 1) to develop AI/ML. can be created using a machine learning-based code.
  • the non-machine learning-based code used to generate the machine learning-based code is an LDPC code
  • the machine learning-based code maintains the existing metrics of the LDPC code and only changes the CPM (e.g. variant 1) to develop AI/ML. can be created using
  • the first information indicating the decoding level 3 may be transmitted when the receiver structure of the base station is fully flexible. And/or, for example, when the terminal finally transmits decoding level information indicating decoding level 3 to the base station, data may be transmitted/received using a machine learning-based code.
  • a machine learning-based code For example, if the non-machine-learning-based code used to generate the machine-learning-based code is an LDPC code, the machine-learning-based code changes both the existing metrics and the CPM of the LDPC code (e.g. variant2, crossover) to create AI/ML can be created using a machine learning-based code.
  • the non-machine-learning-based code used to generate the machine-learning-based code is an LDPC code
  • the machine-learning-based code changes both the existing metrics and the CPM of the LDPC code (e.g. variant2, crossover) to create AI/ML can be created using
  • the second information may be information indicating whether the base station can perform code search based on machine learning. For example, when the base station transmits the second information indicating that machine learning is possible, when the base station and the terminal need to generate a machine learning-based code, it may be determined that the base station generates the machine learning-based code.
  • the base station transmits second information indicating that machine learning is not possible and the terminal is capable of machine learning
  • the base station and the terminal need to generate a machine learning-based code
  • the terminal generates a machine learning-based code can be decided. In this case, it is assumed that the terminal is capable of machine learning.
  • the operation of the base station transmitting capability information in step S2801 may be implemented by the apparatus of FIGS. 29 to 38 to be described below.
  • one or more processors 1020 may control one or more memories 1040 and/or one or more RF units 1060 , etc. to transmit capability information, and one or more RF units. 1060 may transmit capability information.
  • the base station (1000/2000 in FIGS. 29 to 38) may receive decoding level information from the terminal based on the first information (S2802).
  • the decoding level information may be information indicating the final decoding level determined by the terminal based on the first information received from the base station.
  • the operation of the base station receiving decoding level information in step S2802 may be implemented by the apparatus of FIGS. 29 to 38 to be described below.
  • one or more processors 1020 may control one or more memories 1040 and/or one or more RF units 1060 , etc. to receive decoding level information, and one or more RF units.
  • Unit 1060 may receive decoding level information.
  • the base station (1000/2000 in FIGS. 29 to 38) may receive uplink data from the terminal based on the decoding level information and the second information (S2803).
  • the operation of receiving uplink data is an operation of generating a machine learning-based code based on decoding level information indicating use of the machine learning-based code and second information indicating that machine learning is possible And, an operation of transmitting information about the machine learning-based code to the terminal, and the operation of receiving uplink data from the terminal based on the machine learning-based code.
  • transmitting and receiving uplink data based on the machine learning-based code may mean encoding and/or decoding the uplink data using the machine learning-based code.
  • the generating of the machine learning-based code may include generating n codes based on machine learning, generating n data based on the n codes and channel information, and n data and selecting a machine learning-based code based on a block error rate (BLER) of .
  • BLER block error rate
  • the operation of receiving the uplink data (step S2803) transmits channel information to the terminal based on the decoding level information indicating use of the machine learning-based code and the second information indicating that machine learning is not possible operation, receiving information about the machine learning-based code from the terminal, and receiving uplink data from the terminal based on the machine learning-based code.
  • the operation of transmitting the uplink data is based on the decoding level information indicating the use of the non-machine learning-based code, the operation of receiving the uplink data from the terminal using the non-machine learning-based code.
  • the non-machine learning-based code may mean encoding and/or decoding uplink data using the non-machine learning-based code.
  • the non-machine learning-based code may be a low-density parity check (LDPC) code or a polar code.
  • LDPC low-density parity check
  • the operation of the base station receiving uplink data in step S2803 may be implemented by the apparatus of FIGS. 29 to 38 to be described below.
  • one or more processors 1020 may control one or more memories 1040 and/or one or more RF units 1060 and the like to receive uplink data, and one or more RF units.
  • Unit 1060 may receive uplink data.
  • the base station (1000/2000 in FIGS. 29 to 38) may receive a request for capability information from the terminal. For example, when there is uplink data to be transmitted, the terminal may request capability information from the base station.
  • the operation of the base station receiving a request for capability information may be implemented by the apparatus of FIGS. 29 to 38 to be described below.
  • one or more processors 1020 may control one or more memories 1040 and/or one or more RF units 1060 , etc. to receive a request for capability information, and one The above RF unit 1060 may receive a request for capability information.
  • the above-described signaling and operation may be implemented by an apparatus (eg, FIGS. 29 to 38 ) to be described below.
  • the above-described signaling and operation may be processed by one or more processors 1010 and 2020 of FIGS. 29 to 38 , and the above-described signaling and operation may be performed by at least one processor (eg: 1010, 2020) may be stored in the memory (eg, 1040, 2040) in the form of an instruction/program (eg, instruction, executable code) for driving.
  • an instruction/program eg, instruction, executable code
  • an apparatus comprising one or more memories and one or more processors operatively coupled to the one or more memories, wherein the one or more processors enable the apparatus to: (i) first information indicative of a decoding level of a base station; (ii) transmit capability information including second information indicating whether machine learning is possible to the terminal, receive decoding level information from the terminal based on the first information, and the terminal based on the decoding level information and the second information It is possible to receive uplink data from
  • a non-transitory computer readable medium storing one or more instructions
  • the one or more instructions executable by one or more processors causes the base station to: 1 information and (ii) transmit capability information including second information indicating whether machine learning is possible to the terminal, receive decoding level information from the terminal based on the first information, and receive decoding level information and the second information Based on the uplink data can be received from the terminal.
  • 29 illustrates a communication system 10 applied to the present invention.
  • the communication system 10 applied to the present invention includes a wireless device, a base station, and a network.
  • the wireless device refers to a device that performs communication using a radio access technology (eg, 5G NR (New RAT), LTE (Long Term Evolution)), and may be referred to as a communication/wireless/5G device.
  • a radio access technology eg, 5G NR (New RAT), LTE (Long Term Evolution)
  • the wireless device may include a robot 1000a, a vehicle 1000b-1, 1000b-2, an eXtended Reality (XR) device 1000c, a hand-held device 1000d, and a home appliance 1000e. ), an Internet of Things (IoT) device 1000f, and an AI device/server 4000 .
  • the vehicle may include a vehicle equipped with a wireless communication function, an autonomous driving vehicle, a vehicle capable of performing inter-vehicle communication, and the like.
  • the vehicle may include an Unmanned Aerial Vehicle (UAV) (eg, a drone).
  • UAV Unmanned Aerial Vehicle
  • XR devices include AR (Augmented Reality)/VR (Virtual Reality)/MR (Mixed Reality) devices, and include a Head-Mounted Device (HMD), a Head-Up Display (HUD) provided in a vehicle, a television, a smartphone, It may be implemented in the form of a computer, a wearable device, a home appliance, a digital signage, a vehicle, a robot, and the like.
  • the portable device may include a smart phone, a smart pad, a wearable device (eg, a smart watch, smart glasses), a computer (eg, a laptop computer), and the like.
  • Home appliances may include a TV, a refrigerator, a washing machine, and the like.
  • the IoT device may include a sensor, a smart meter, and the like.
  • the base station and the network may be implemented as a wireless device, and a specific wireless device 2000a may operate as a base station/network node to other wireless devices.
  • the wireless devices 1000a to 1000f may be connected to the network 3000 through the base station 2000 .
  • Artificial intelligence (AI) technology may be applied to the wireless devices 1000a to 1000f , and the wireless devices 1000a to 1000f may be connected to the AI server 4000 through the network 300 .
  • the network 3000 may be configured using a 3G network, a 4G (eg, LTE) network, or a 5G (eg, NR) network.
  • the wireless devices 1000a to 1000f may communicate with each other through the base station 2000/network 3000, or may directly communicate (e.g. sidelink communication) without using the base station/network.
  • the vehicles 1000b-1 and 1000b-2 may perform direct communication (e.g.
  • V2V Vehicle to Vehicle
  • V2X Vehicle to everything
  • the IoT device eg, a sensor
  • another IoT device eg, a sensor
  • other wireless devices 1000a to 1000f
  • Wireless communication/connection 1500a, 1500b, and 1500c may be performed between the wireless devices 1000a to 1000f/base station 2000 and the base station 2000/base station 2000 .
  • the wireless communication/connection includes uplink/downlink communication (1500a), sidelink communication (1500b) (or D2D communication), and communication between base stations (1500c) (eg relay, IAB (Integrated Access Backhaul)), such as various wireless connections.
  • This can be done through technology (eg 5G NR)
  • Wireless communication/connection (1500a, 1500b, 1500c) allows a wireless device and a base station/radio device, and a base station and a base station to transmit/receive wireless signals to each other.
  • the wireless communication/connection 1500a, 1500b, and 1500c may transmit/receive signals through various physical channels.
  • various signal processing processes eg, channel encoding/decoding, modulation/demodulation, resource mapping/demapping, etc.
  • resource allocation processes etc.
  • FIG. 30 illustrates a wireless device that can be applied to the present invention.
  • the first wireless device 1000 and the second wireless device 2000 may transmit/receive wireless signals through various wireless access technologies (eg, LTE, NR).
  • ⁇ first wireless device 1000, second wireless device 2000 ⁇ is ⁇ wireless device 1000x, base station 2000 ⁇ of FIG. 32 and/or ⁇ wireless device 1000x, wireless device 1000x) ⁇ can be matched.
  • the first wireless device 1000 may include one or more processors 1020 and one or more memories 1040 , and may further include one or more transceivers 1060 and/or one or more antennas 1080 in addition.
  • the processor 1020 controls the memory 1040 and/or the transceiver 1060 and may be configured to implement the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein.
  • the processor 1020 may process information in the memory 1040 to generate first information/signal, and then transmit a wireless signal including the first information/signal through the transceiver 1060 .
  • the processor 1020 may receive the wireless signal including the second information/signal through the transceiver 1060 , and then store information obtained from signal processing of the second information/signal in the memory 1040 .
  • the memory 1040 may be connected to the processor 1020 and may store various information related to the operation of the processor 1020 .
  • memory 1040 provides instructions for performing some or all of the processes controlled by processor 1020 , or for performing descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein. may store software code including
  • the processor 1020 and the memory 1040 may be a part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
  • a wireless communication technology eg, LTE, NR
  • the transceiver 1060 may be coupled to the processor 1020 , and may transmit and/or receive wireless signals via one or more antennas 1080 .
  • the transceiver 1060 may include a transmitter and/or a receiver.
  • the transceiver 1060 may be used interchangeably with a radio frequency (RF) unit.
  • RF radio frequency
  • a wireless device may refer to a communication modem/circuit/chip.
  • the second wireless device 2000 may include one or more processors 2020 , one or more memories 2040 , and may further include one or more transceivers 2060 and/or one or more antennas 2080 .
  • the processor 2020 controls the memory 2040 and/or the transceiver 2060 and may be configured to implement the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein.
  • the processor 2020 may process information in the memory 2040 to generate third information/signal, and then transmit a wireless signal including the third information/signal through the transceiver 2060 .
  • the processor 2020 may receive the radio signal including the fourth information/signal through the transceiver 2060 , and then store information obtained from signal processing of the fourth information/signal in the memory 2040 .
  • the memory 2040 may be connected to the processor 2020 and may store various information related to the operation of the processor 2020 .
  • memory 2040 provides instructions for performing some or all of the processes controlled by processor 2020, or for performing descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein. may store software code including
  • the processor 2020 and the memory 2040 may be a part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
  • the transceiver 2060 may be coupled to the processor 2020 , and may transmit and/or receive wireless signals through one or more antennas 2080 .
  • Transceiver 2060 may include a transmitter and/or receiver.
  • Transceiver 2060 may be used interchangeably with an RF unit.
  • a wireless device may refer to a communication modem/circuit/chip.
  • one or more protocol layers may be implemented by one or more processors 1020 , 2020 .
  • one or more processors 1020 , 2020 may implement one or more layers (eg, functional layers such as PHY, MAC, RLC, PDCP, RRC, SDAP).
  • the one or more processors 1020 and 2020 are configured to process one or more Protocol Data Units (PDUs) and/or one or more Service Data Units (SDUs) according to the descriptions, functions, procedures, proposals, methods and/or operation flowcharts disclosed herein.
  • PDUs Protocol Data Units
  • SDUs Service Data Units
  • the one or more processors 1020 , 2020 may generate messages, control information, data, or information according to the description, function, procedure, proposal, method, and/or operational flowcharts disclosed herein.
  • the one or more processors 1020 and 2020 generate a signal (eg, a baseband signal) including PDUs, SDUs, messages, control information, data or information according to the functions, procedures, proposals and/or methods disclosed in this document. , may be provided to one or more transceivers 1060 and 2060 .
  • the one or more processors 1020 , 2020 may receive signals (eg, baseband signals) from one or more transceivers 1060 , 2060 , and the descriptions, functions, procedures, proposals, methods, and/or operational flowcharts disclosed herein.
  • PDUs, SDUs, messages, control information, data, or information may be acquired according to the fields.
  • the one or more processors 1020 and 2020 may be referred to as a controller, microcontroller, microprocessor, or microcomputer.
  • the one or more processors 1020 and 2020 may be implemented by hardware, firmware, software, or a combination thereof.
  • ASICs Application Specific Integrated Circuits
  • DSPs Digital Signal Processors
  • DSPDs Digital Signal Processing Devices
  • PLDs Programmable Logic Devices
  • FPGAs Field Programmable Gate Arrays
  • firmware or software may be implemented using firmware or software, and the firmware or software may be implemented to include modules, procedures, functions, and the like.
  • the descriptions, functions, procedures, suggestions, methods, and/or flow charts disclosed in this document provide that firmware or software configured to perform is included in one or more processors 1020 and 2020 or stored in one or more memories 1040 and 2040. It may be driven by the above processors 1020 and 2020.
  • the descriptions, functions, procedures, proposals, methods, and/or flowcharts of operations disclosed herein may be implemented using firmware or software in the form of code, instructions, and/or a set of instructions.
  • One or more memories 1040 and 2040 may be coupled to one or more processors 1020 and 2020 and may store various types of data, signals, messages, information, programs, codes, instructions, and/or instructions.
  • One or more memories 1040 and 2040 may be configured as ROM, RAM, EPROM, flash memory, hard drives, registers, cache memory, computer readable storage media, and/or combinations thereof.
  • One or more memories 1040 , 2040 may be located inside and/or external to one or more processors 1020 , 2020 .
  • one or more memories 1040 and 2040 may be connected to one or more processors 1020 and 2020 through various technologies such as wired or wireless connection.
  • the one or more transceivers 1060 and 2060 may transmit user data, control information, radio signals/channels, etc. mentioned in the methods and/or operation flowcharts of this document to one or more other devices.
  • One or more transceivers 1060, 2060 may receive, from one or more other devices, user data, control information, radio signals/channels, etc. referred to in the descriptions, functions, procedures, suggestions, methods, and/or flow charts, etc. disclosed herein. have.
  • one or more transceivers 1060 and 2060 may be connected to one or more processors 1020 and 2020, and may transmit and receive wireless signals.
  • one or more processors 1020 , 2020 may control one or more transceivers 1060 , 2060 to transmit user data, control information, or wireless signals to one or more other devices.
  • one or more processors 1020 and 2020 may control one or more transceivers 1060 and 2060 to receive user data, control information, or radio signals from one or more other devices.
  • one or more transceivers 1060, 2060 may be coupled with one or more antennas 1080, 2080, and one or more transceivers 1060, 2060 may be connected via one or more antennas 1080, 2080 to the descriptions, functions, and functions disclosed herein. , may be set to transmit and receive user data, control information, radio signals/channels, etc.
  • one or more antennas may be a plurality of physical antennas or a plurality of logical antennas (eg, antenna ports).
  • One or more transceivers (1060, 2060) in order to process the received user data, control information, radio signals/channels, etc. using one or more processors (1020, 2020), the received radio signals/channels, etc. from the RF band signal It can be converted into a baseband signal.
  • the one or more transceivers 1060 and 2060 may convert user data, control information, radio signals/channels, etc. processed using one or more processors 1020 and 2020 from a baseband signal to an RF band signal.
  • one or more transceivers 1060 , 2060 may include (analog) oscillators and/or filters.
  • 31 illustrates a signal processing circuit for a transmission signal.
  • the signal processing circuit 10000 may include a scrambler 10100, a modulator 10200, a layer mapper 10300, a precoder 10400, a resource mapper 10500, and a signal generator 10600. have.
  • the operations/functions of FIG. 27 may be performed by the processors 1020 and 2020 and/or the transceivers 1060 and 2060 of FIG. 30 .
  • the hardware element of FIG. 31 may be implemented in the processors 1020 and 2020 and/or the transceivers 1060 and 2060 of FIG. 30 .
  • blocks 10100 to 10600 may be implemented in the processors 1020 and 2020 of FIG. 30 .
  • blocks 10100 to 10500 may be implemented in the processors 1020 and 2020 of FIG. 30
  • block 10600 may be implemented in the transceivers 1060 and 2060 of FIG. 30 .
  • the codeword may be converted into a wireless signal through the signal processing circuit 10000 of FIG. 31 .
  • the codeword is a coded bit sequence of an information block.
  • the information block may include a transport block (eg, a UL-SCH transport block, a DL-SCH transport block).
  • the radio signal may be transmitted through various physical channels (eg, PUSCH, PDSCH).
  • the codeword may be converted into a scrambled bit sequence by the scrambler 10100 .
  • a scramble sequence used for scrambling is generated based on an initialization value, and the initialization value may include ID information of a wireless device, and the like.
  • the scrambled bit sequence may be modulated into a modulation symbol sequence by the modulator 10200 .
  • the modulation method may include pi/2-Binary Phase Shift Keying (pi/2-BPSK), m-Phase Shift Keying (m-PSK), m-Quadrature Amplitude Modulation (m-QAM), and the like.
  • the complex modulation symbol sequence may be mapped to one or more transport layers by the layer mapper 10300 .
  • Modulation symbols of each transport layer may be mapped to corresponding antenna port(s) by the precoder 10400 (precoding).
  • the output z of the precoder 10400 may be obtained by multiplying the output y of the layer mapper 10300 by the precoding matrix W of N*M.
  • N is the number of antenna ports
  • M is the number of transport layers.
  • the precoder 10400 may perform precoding after performing transform precoding (eg, DFT transform) on the complex modulation symbols. Also, the precoder 10400 may perform precoding without performing transform precoding.
  • the resource mapper 10500 may map modulation symbols of each antenna port to a time-frequency resource.
  • the time-frequency resource may include a plurality of symbols (eg, a CP-OFDMA symbol, a DFT-s-OFDMA symbol) in the time domain and a plurality of subcarriers in the frequency domain.
  • CP Cyclic Prefix
  • DAC Digital-to-Analog Converter
  • the signal processing process for the received signal in the wireless device may be configured in reverse of the signal processing process 10100 to 10600 of FIG. 31 .
  • the wireless device eg, 1000 and 2000 in FIG. 33
  • the received radio signal may be converted into a baseband signal through a signal restorer.
  • the signal restorer may include a frequency downlink converter, an analog-to-digital converter (ADC), a CP remover, and a Fast Fourier Transform (FFT) module.
  • ADC analog-to-digital converter
  • FFT Fast Fourier Transform
  • the baseband signal may be restored to a codeword through a resource de-mapper process, a postcoding process, a demodulation process, and a descrambling process.
  • the codeword may be restored to the original information block through decoding.
  • the signal processing circuit (not shown) for the received signal may include a signal restorer, a resource de-mapper, a post coder, a demodulator, a descrambler, and a decoder.
  • the wireless device may be implemented in various forms according to use-examples/services.
  • wireless devices 1000 and 2000 correspond to wireless devices 1000 and 2000 of FIG. 30 , and various elements, components, units/units, and/or modules ( module) can be configured.
  • the wireless devices 1000 and 2000 may include a communication unit 1100 , a control unit 1200 , a memory unit 1300 , and an additional element 1400 .
  • the communication unit may include a communication circuit 1120 and transceiver(s) 1140 .
  • the communication circuit 1120 may include one or more processors 1020 and 2020 and/or one or more memories 1040 and 2040 of FIG. 33 .
  • transceiver(s) 1140 may include one or more transceivers 1060 , 2060 and/or one or more antennas 1080 , 2080 of FIG. 33 .
  • the control unit 1200 is electrically connected to the communication unit 1100 , the memory unit 1300 , and the additional element 1400 , and controls general operations of the wireless device.
  • the controller 1200 may control the electrical/mechanical operation of the wireless device based on the program/code/command/information stored in the memory unit 1300 .
  • control unit 1200 transmits the information stored in the memory unit 1300 to the outside (eg, another communication device) through the communication unit 1100 through a wireless/wired interface, or externally through the communication unit 1100 (eg, Information received through a wireless/wired interface from another communication device) may be stored in the memory unit 1300 .
  • the additional element 1400 may be variously configured according to the type of wireless device.
  • the additional element 1400 may include at least one of a power unit/battery, an input/output unit (I/O unit), a driving unit, and a computing unit.
  • wireless devices may include, but are not limited to, robots ( FIGS. 29 and 1000a ), vehicles ( FIGS. 29 , 1000b-1 and 1000b-2 ), XR devices ( FIGS. 29 and 1000c ), mobile devices ( FIGS. 29 and 1000d ), and home appliances. (FIG. 29, 1000e), IoT device (FIG.
  • digital broadcasting terminal digital broadcasting terminal
  • hologram device public safety device
  • MTC device medical device
  • fintech device or financial device
  • security device climate/environment device
  • It may be implemented in the form of an AI server/device ( FIGS. 29 and 4000 ), a base station ( FIGS. 29 and 2000 ), and a network node.
  • the wireless device may be mobile or used in a fixed location depending on the use-example/service.
  • various elements, components, units/units, and/or modules in the wireless devices 1000 and 2000 may be all interconnected through a wired interface, or at least some of them may be wirelessly connected through the communication unit 1100 .
  • the control unit 1200 and the communication unit 1100 are connected by wire, and the control unit 1200 and the first unit (eg, 1300 , 1400 ) are connected to the communication unit 1100 through the communication unit 1100 . It can be connected wirelessly.
  • each element, component, unit/unit, and/or module within the wireless device 1000 , 2000 may further include one or more elements.
  • the controller 1200 may be configured with one or more processor sets.
  • the controller 1200 may be configured as a set of a communication control processor, an application processor, an electronic control unit (ECU), a graphic processing processor, a memory control processor, and the like.
  • the memory unit 1300 may include random access memory (RAM), dynamic RAM (DRAM), read only memory (ROM), flash memory, volatile memory, and non-volatile memory. volatile memory) and/or a combination thereof.
  • the portable device may include a smart phone, a smart pad, a wearable device (eg, a smart watch, smart glasses), and a portable computer (eg, a laptop computer).
  • a mobile device may be referred to as a mobile station (MS), a user terminal (UT), a mobile subscriber station (MSS), a subscriber station (SS), an advanced mobile station (AMS), or a wireless terminal (WT).
  • MS mobile station
  • UT user terminal
  • MSS mobile subscriber station
  • SS subscriber station
  • AMS advanced mobile station
  • WT wireless terminal
  • the portable device 1000 includes an antenna unit 1080, a communication unit 1100, a control unit 1200, a memory unit 1300, a power supply unit 1400a, an interface unit 1400b, and an input/output unit 1400c. ) may be included.
  • the antenna unit 1080 may be configured as a part of the communication unit 1100 .
  • Blocks 1100 to 1300/1400a to 1400c correspond to blocks 1100 to 1300/1400 of FIG. 28, respectively.
  • the communication unit 1100 may transmit and receive signals (eg, data, control signals, etc.) with other wireless devices and base stations.
  • the controller 1200 may control components of the portable device 1000 to perform various operations.
  • the controller 1200 may include an application processor (AP).
  • the memory unit 1300 may store data/parameters/programs/codes/commands necessary for driving the portable device 1000 . Also, the memory unit 1300 may store input/output data/information.
  • the power supply unit 1400a supplies power to the portable device 1000 and may include a wired/wireless charging circuit, a battery, and the like.
  • the interface unit 1400b may support the connection between the portable device 1000 and other external devices.
  • the interface unit 1400b may include various ports (eg, an audio input/output port and a video input/output port) for connection with an external device.
  • the input/output unit 1400c may receive or output image information/signal, audio information/signal, data, and/or information input from a user.
  • the input/output unit 1400c may include a camera, a microphone, a user input unit, a display unit 1400d, a speaker, and/or a haptic module.
  • the input/output unit 1400c obtains information/signals (eg, touch, text, voice, image, video) input from the user, and the obtained information/signals are stored in the memory unit 1300 . can be saved.
  • the communication unit 1100 may convert the information/signal stored in the memory into a wireless signal, and transmit the converted wireless signal directly to another wireless device or to a base station. Also, after receiving a radio signal from another radio device or a base station, the communication unit 1100 may restore the received radio signal to original information/signal. After the restored information/signal is stored in the memory unit 1300 , it may be output in various forms (eg, text, voice, image, video, haptic) through the input/output unit 1400c.
  • various forms eg, text, voice, image, video, haptic
  • the vehicle or autonomous driving vehicle may be implemented as a mobile robot, a vehicle, a train, an aerial vehicle (AV), a ship, and the like.
  • AV aerial vehicle
  • the vehicle or autonomous driving vehicle 1000 includes an antenna unit 1080, a communication unit 1100, a control unit 1200, a driving unit 1400a, a power supply unit 1400b, a sensor unit 1400c, and autonomous driving.
  • a unit 1400d may be included.
  • the antenna unit 1080 may be configured as a part of the communication unit 1100 .
  • Blocks 1100/1300/1400a to 1400d correspond to blocks 1100/1300/1400 of FIG. 32, respectively.
  • the communication unit 1100 may transmit/receive signals (eg, data, control signals, etc.) to/from external devices such as other vehicles, base stations (eg, base stations, roadside units, etc.), servers, and the like.
  • the controller 1200 may perform various operations by controlling elements of the vehicle or the autonomous driving vehicle 1000 .
  • the controller 1200 may include an Electronic Control Unit (ECU).
  • the driving unit 1400a may cause the vehicle or the autonomous driving vehicle 1000 to run on the ground.
  • the driving unit 1400a may include an engine, a motor, a power train, a wheel, a brake, a steering device, and the like.
  • the power supply unit 1400b supplies power to the vehicle or the autonomous driving vehicle 1000 and may include a wired/wireless charging circuit, a battery, and the like.
  • the sensor unit 1400c may obtain vehicle status, surrounding environment information, user information, and the like.
  • the sensor unit 1400c includes an inertial measurement unit (IMU) sensor, a collision sensor, a wheel sensor, a speed sensor, an inclination sensor, a weight sensor, a heading sensor, a position module, and a vehicle forward movement.
  • IMU inertial measurement unit
  • a collision sensor a wheel sensor
  • a speed sensor a speed sensor
  • an inclination sensor a weight sensor
  • a heading sensor a position module
  • a vehicle forward movement / may include a reverse sensor, a battery sensor, a fuel sensor, a tire sensor, a steering sensor, a temperature sensor, a humidity sensor, an ultrasonic sensor, an illuminance sensor, a pedal position sensor, and the like.
  • the autonomous driving unit 1400d includes a technology for maintaining a driving lane, a technology for automatically adjusting speed such as adaptive cruise control, a technology for automatically driving along a predetermined route, and a technology for automatically setting a route when a destination is set. technology can be implemented.
  • the communication unit 1100 may receive map data, traffic information data, and the like from an external server.
  • the autonomous driving unit 1400d may generate an autonomous driving route and a driving plan based on the acquired data.
  • the controller 1200 may control the driving unit 1400a to move the vehicle or the autonomous driving vehicle 1000 along the autonomous driving path (eg, speed/direction adjustment) according to the driving plan.
  • the communication unit 1100 may non/periodically acquire the latest traffic information data from an external server and acquire surrounding traffic information data from nearby vehicles.
  • the sensor unit 1400c may acquire vehicle state and surrounding environment information.
  • the autonomous driving unit 1400d may update the autonomous driving route and driving plan based on the newly acquired data/information.
  • the communication unit 1100 may transmit information about a vehicle location, an autonomous driving route, a driving plan, and the like to an external server.
  • the external server may predict traffic information data in advance using AI technology or the like based on information collected from the vehicle or autonomous vehicles, and may provide the predicted traffic information data to the vehicle or autonomous vehicles.
  • the vehicle 35 illustrates a vehicle to which the present invention is applied.
  • the vehicle may also be implemented as a means of transportation, a train, an air vehicle, a ship, and the like.
  • the vehicle 1000 may include a communication unit 1100 , a control unit 1200 , a memory unit 1300 , an input/output unit 1400a , and a position measurement unit 1400b .
  • blocks 1100 to 1300/1400a to 1400b correspond to blocks 1100 to 1300/1400 of FIG. 32, respectively.
  • the communication unit 1100 may transmit/receive signals (eg, data, control signals, etc.) with other vehicles or external devices such as a base station.
  • the controller 1200 may control components of the vehicle 1000 to perform various operations.
  • the memory unit 1300 may store data/parameters/programs/codes/commands supporting various functions of the vehicle 1000 .
  • the input/output unit 1400a may output an AR/VR object based on information in the memory unit 1300 .
  • the input/output unit 1400a may include a HUD.
  • the position measuring unit 1400b may acquire position information of the vehicle 1000 .
  • the location information may include absolute location information of the vehicle 1000 , location information within a driving line, acceleration information, and location information with a neighboring vehicle.
  • the location measuring unit 1400b may include a GPS and various sensors.
  • the communication unit 1100 of the vehicle 1000 may receive map information, traffic information, and the like from an external server and store it in the memory unit 1300 .
  • the position measuring unit 1400b may obtain vehicle position information through GPS and various sensors and store it in the memory unit 130 .
  • the controller 120 may generate a virtual object based on map information, traffic information, and vehicle location information, and the input/output unit 1400a may display the generated virtual object on a window inside the vehicle ( 14100 and 14200 ).
  • the controller 1200 may determine whether the vehicle 1000 is normally operating within the driving line based on the vehicle location information. When the vehicle 1000 abnormally deviates from the driving line, the controller 1200 may display a warning on the vehicle window through the input/output unit 1400a.
  • control unit 1200 may broadcast a warning message regarding driving abnormality to surrounding vehicles through the communication unit 1100 .
  • controller 1200 may transmit the location information of the vehicle and information on driving/vehicle abnormalities to the related organizations through the communication unit 1100 .
  • the XR device may be implemented as an HMD, a head-up display (HUD) provided in a vehicle, a television, a smart phone, a computer, a wearable device, a home appliance, a digital signage, a vehicle, a robot, and the like.
  • HMD head-up display
  • a television a smart phone
  • a computer a wearable device
  • a home appliance a digital signage
  • a vehicle a robot, and the like.
  • the XR device 1000a may include a communication unit 1100, a control unit 1200, a memory unit 1300, an input/output unit 1400a, a sensor unit 1400b, and a power supply unit 1400c.
  • blocks 1100 to 1300/1400a to 1400c correspond to blocks 1100 to 1300/1400 of FIG. 32, respectively.
  • the communication unit 1100 may transmit/receive signals (eg, media data, control signals, etc.) to/from external devices such as other wireless devices, portable devices, or media servers.
  • Media data may include images, images, and sounds.
  • the controller 1200 may control components of the XR device 1000a to perform various operations.
  • the controller 1200 may be configured to control and/or perform procedures such as video/image acquisition, (video/image) encoding, and metadata generation and processing.
  • the memory unit 1300 may store data/parameters/programs/codes/commands necessary for driving the XR device 1000a/creating an XR object.
  • the input/output unit 1400a may obtain control information, data, etc. from the outside, and may output the generated XR object.
  • the input/output unit 1400a may include a camera, a microphone, a user input unit, a display unit, a speaker, and/or a haptic module.
  • the sensor unit 1400b may obtain an XR device state, surrounding environment information, user information, and the like.
  • the sensor unit 1400b may include a proximity sensor, an illumination sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and/or a radar. have.
  • the power supply unit 1400c supplies power to the XR device 100a, and may include a wired/wireless charging circuit, a battery, and the like.
  • the memory unit 1300 of the XR device 1000a may include information (eg, data, etc.) necessary for generating an XR object (eg, AR/VR/MR object).
  • the input/output unit 1400a may obtain a command to operate the XR device 1000a from the user, and the controller 1200 may drive the XR device 1000a according to the user's driving command. For example, when the user wants to watch a movie or news through the XR device 1000a, the controller 1200 transmits the content request information to another device (eg, the mobile device 1000b) through the communication unit 1300 or can be sent to the media server.
  • another device eg, the mobile device 1000b
  • the communication unit 130 may download/stream contents such as movies and news from another device (eg, the portable device 1000b) or a media server to the memory unit 1300 .
  • the controller 120 controls and/or performs procedures such as video/image acquisition, (video/image) encoding, and metadata generation/processing for the content, and is acquired through the input/output unit 1400a/sensor unit 1400b It is possible to generate/output an XR object based on information about one surrounding space or a real object.
  • the XR device 1000a is wirelessly connected to the portable device 1000b through the communication unit 1100 , and the operation of the XR device 1000a may be controlled by the portable device 1000b.
  • the portable device 1000b may operate as a controller for the XR device 1000a.
  • the XR device 1000a may obtain 3D location information of the portable device 1000b, and then generate and output an XR object corresponding to the portable device 1000b.
  • Robots can be classified into industrial, medical, home, military, etc. depending on the purpose or field of use.
  • the robot 1000 may include a communication unit 1100 , a control unit 1200 , a memory unit 1300 , an input/output unit 1400a , a sensor unit 1400b , and a driving unit 1400c .
  • blocks 1100 to 1300/1400a to 1400c correspond to blocks 1100 to 1300/1400 of FIG. 35, respectively.
  • the communication unit 1100 may transmit/receive signals (eg, driving information, control signals, etc.) to and from external devices such as other wireless devices, other robots, or control servers.
  • the controller 1200 may control components of the robot 1000 to perform various operations.
  • the memory unit 1300 may store data/parameters/programs/codes/commands supporting various functions of the robot 1000 .
  • the input/output unit 1400a may obtain information from the outside of the robot 100 and may output information to the outside of the robot 1000 .
  • the input/output unit 1400a may include a camera, a microphone, a user input unit, a display unit, a speaker, and/or a haptic module.
  • the sensor unit 1400b may obtain internal information, surrounding environment information, user information, and the like of the robot 1000 .
  • the sensor unit 1400b may include a proximity sensor, an illumination sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, a radar, and the like.
  • the driving unit 1400c may perform various physical operations such as moving a robot joint. In addition, the driving unit 1400c may make the robot 1000 travel on the ground or fly in the air.
  • the driving unit 1400c may include an actuator, a motor, a wheel, a brake, a propeller, and the like.
  • AI devices include TVs, projectors, smartphones, PCs, laptops, digital broadcasting terminals, tablet PCs, wearable devices, set-top boxes (STBs), radios, washing machines, refrigerators, digital signage, robots, vehicles, etc. It may be implemented in any possible device or the like.
  • the AI device 1000 includes a communication unit 1100 , a control unit 1200 , a memory unit 1300 , an input/output unit 1400a/1400b , a learning processor unit 1400c , and a sensor unit 1400d). may include Blocks 1100 to 1300/1400a to 1400d correspond to blocks 1100 to 1300/1400 of FIG. 32, respectively.
  • the communication unit 1100 uses wired/wireless communication technology to communicate with external devices such as other AI devices (eg, FIGS. 29, 1000x, 2000, 4000) or the AI server 2000 and wired/wireless signals (eg, sensor information, user input, and learning). models, control signals, etc.). To this end, the communication unit 1100 may transmit information in the memory unit 1300 to an external device or transmit a signal received from the external device to the memory unit 1300 .
  • AI devices eg, FIGS. 29, 1000x, 2000, 4000
  • wired/wireless signals eg, sensor information, user input, and learning.
  • the controller 1200 may determine at least one executable operation of the AI device 1000 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. In addition, the controller 1200 may control the components of the AI device 1000 to perform the determined operation. For example, the control unit 1200 may request, search, receive, or utilize the data of the learning processor unit 1400c or the memory unit 1300, and may be predicted or preferred among at least one executable operation. Components of the AI device 1000 may be controlled to execute the operation. In addition, the control unit 1200 collects history information including user feedback on the operation contents or operation of the AI device 1000 and stores it in the memory unit 1300 or the learning processor unit 1400c, or the AI server ( 29 and 4000) may be transmitted to an external device. The collected historical information may be used to update the learning model.
  • the memory unit 1300 may store data supporting various functions of the AI device 1000 .
  • the memory unit 1300 may store data obtained from the input unit 1400a , data obtained from the communication unit 1100 , output data of the learning processor unit 1400c , and data obtained from the sensing unit 1400 .
  • the memory unit 1300 may store control information and/or software codes necessary for the operation/execution of the control unit 1200 .
  • the input unit 1400a may acquire various types of data from the outside of the AI device 1000 .
  • the input unit 1200 may obtain training data for model learning, input data to which the learning model is applied, and the like.
  • the input unit 1400a may include a camera, a microphone, and/or a user input unit.
  • the output unit 1400b may generate an output related to sight, hearing, or touch.
  • the output unit 1400b may include a display unit, a speaker, and/or a haptic module.
  • the sensing unit 1400 may obtain at least one of internal information of the AI device 1000 , surrounding environment information of the AI device 1000 , and user information by using various sensors.
  • the sensing unit 1400 may include a proximity sensor, an illumination sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and/or a radar. have.
  • the learning processor unit 1400c may train a model composed of an artificial neural network by using the training data.
  • the learning processor unit 1400c may perform AI processing together with the learning processor unit of the AI server ( FIGS. 29 and 4000 ).
  • the learning processor unit 1400c may process information received from an external device through the communication unit 1100 and/or information stored in the memory unit 1300 . Also, the output value of the learning processor unit 1400c may be transmitted to an external device through the communication unit 1100 and/or stored in the memory unit 1300 .
  • Embodiments according to the present invention may be implemented by various means, for example, hardware, firmware, software, or a combination thereof.
  • an embodiment of the present invention provides one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), FPGAs ( field programmable gate arrays), a processor, a controller, a microcontroller, a microprocessor, and the like.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • an embodiment of the present invention may be implemented in the form of modules, procedures, functions, etc. that perform the functions or operations described above.
  • the software code may be stored in the memory and driven by the processor.
  • the memory may be located inside or outside the processor, and may transmit/receive data to and from the processor by various well-known means.
  • Bang-eun which transmits and receives data in the wireless communication system of the present specification, has been mainly described as an example applied to the 3GPP LTE/LTE-A system, the 5G system (New RAT system), and the 6G/Beyond 6G system, but in addition to various wireless communication systems It is possible to apply to

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Power Engineering (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

무선 통신 시스템에서 데이터를 송수신하는 방법 및 이를 위한 장치를 제안한다. 구체적으로, 단말에 의해 수행되는 방법은, (i) 상기 단말의 디코딩 레벨을 나타내는 제1 정보 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보를 기지국으로 전송하는 단계와, 상기 제1 정보에 기반하여 디코딩 레벨 정보를 상기 기지국으로부터 수신하는 단계와, 상기 디코딩 레벨 정보 및 상기 제2 정보에 기반하여 상기 기지국으로부터 하향링크 데이터를 수신하는 단계를 포함할 수 있다.

Description

무선 통신 시스템에서 데이터를 송수신하는 방법 및 이를 위한 장치
본 명세서는 무선 통신 시스템에 관한 것으로서, 상세하게는 데이터를 송수신하는 방법 및 이를 지원하는 장치에 관한 것이다.
무선 통신 시스템이 음성이나 데이터 등과 같은 다양한 종류의 통신 서비스를 제공하기 위해 광범위하게 전개되고 있다. 일반적으로 무선통신 시스템은 가용한 시스템 자원(대역폭, 전송 파워 등)을 공유하여 다중 사용자와의 통신을 지원할 수 있는 다중 접속(multiple access) 시스템이다.
다중 접속 시스템의 예들로는 CDMA(Code Division Multiple Access) 시스템, FDMA(Frequency Division Multiple Access) 시스템, TDMA(Time Division Multiple Access) 시스템, SDMA(Space Division Multiple Access), OFDMA(Orthogonal Frequency Division Multiple Access) 시스템, SC-FDMA(Single Carrier Frequency Division Multiple Access) 시스템, IDMA (Interleave Division Multiple Access) 시스템 등이 있다.
본 명세서는 능력 정보에 기반하여, AI/ML 및 채널 정보를 이용해 실제 채널에 최적화된 코드를 생성하는 방법 및 이를 위한 장치를 제안한다.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 명세서는 무선 통신 시스템에서 하향링크 데이터를 수신하는 방법을 제안한다. 단말에 의해 수행되는 방법은, (i) 상기 단말의 디코딩 레벨을 나타내는 제1 정보 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보를 기지국으로 전송하는 단계와, 상기 제1 정보에 기반하여 디코딩 레벨 정보를 상기 기지국으로부터 수신하는 단계와, 상기 디코딩 레벨 정보 및 상기 제2 정보에 기반하여 상기 기지국으로부터 하향링크 데이터를 수신하는 단계를 포함할 수 있다.
또한, 본 명세서의 상기 방법에 있어서, 상기 하향링크 데이터를 수신하는 단계는, 머신 러닝 기반 코드의 이용을 나타내는 디코딩 레벨 정보 및 머신 러닝이 가능함을 나타내는 제2 정보에 기반하여, 머신 러닝 및 채널 정보를 이용해 상기 머신 러닝 기반 코드를 생성하는 단계와, 상기 머신 러닝 기반 코드에 대한 정보를 상기 기지국으로 전송하는 단계와, 상기 머신 러닝 기반 코드에 기반하여 상기 하향링크 데이터를 상기 기지국으로부터 수신하는 단계를 포함할 수 있다.
또한, 본 명세서의 상기 방법에 있어서, 상기 머신 러닝 기반 코드를 생성하는 단계는, 머신 러닝에 기반하여 n개의 코드를 생성하는 단계와, 상기 n개의 코드 및 상기 채널 정보에 기반하여 n개의 데이터를 생성하는 단계와, 상기 n개의 데이터의 블록 에러율(Block Error Rate, BLER)에 기반하여 상기 머신 러닝 기반 코드를 선택하는 단계를 포함할 수 있다.
또한, 본 명세서의 상기 방법에 있어서, 상기 하향링크 데이터를 수신하는 단계는, 머신 러닝 기반 코드의 이용을 나타내는 디코딩 레벨 정보 및 머신 러닝이 가능하지 않음을 나타내는 제2 정보에 기반하여, 채널 정보를 상기 기지국으로 전송하는 단계와, 상기 머신 러닝 기반 코드에 대한 정보를 상기 기지국으로부터 수신하는 단계와, 상기 머신 러닝 기반 코드에 기반하여 상기 하향링크 데이터를 상기 기지국으로부터 수신하는 단계를 포함할 수 있다.
또한, 본 명세서의 상기 방법에 있어서, 상기 하향링크 데이터를 수신하는 단계는, 비 머신 러닝 기반 코드의 이용을 나타내는 디코딩 레벨 정보에 기반하여, 상기 비 머신 러닝 기반 코드를 이용해 상기 하향링크 데이터를 상기 기지국으로부터 수신하는 단계를 포함할 수 있다.
또한, 본 명세서의 상기 방법에 있어서, 상기 비 머신 러닝 기반 코드는, 저밀도 패리티 체크(Low-Density Parity Check, LDPC) 코드 또는 폴라(Polar) 코드일 수 있다.
또한, 본 명세서의 상기 방법에 있어서, 상기 능력 정보에 대한 요청을 상기 기지국으로부터 수신하는 단계를 더 포함할 수 있다.
또한, 본 명세서의 무선 통신 시스템에서 하향링크 데이터를 수신하는 단말은, 하나 이상의 송수신기들과, 상기 하나 이상의 송수신기들과 기능적으로 연결된 하나 이상의 프로세서들과, 상기 하나 이상의 프로세서들에 기능적으로 연결되고, 동작들을 수행하는 지시(instruction)들을 저장하는 하나 이상의 메모리들을 포함하고, 상기 동작들은, (i) 상기 단말의 디코딩 레벨을 나타내는 제1 정보 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보를 기지국으로 전송하는 단계와, 상기 제1 정보에 기반하여 디코딩 레벨 정보를 상기 기지국으로부터 수신하는 단계와, 상기 디코딩 레벨 정보 및 상기 제2 정보에 기반하여 상기 기지국으로부터 하향링크 데이터를 수신하는 단계를 포함할 수 있다.
또한, 본 명세서는 무선 통신 시스템에서 하향링크 데이터를 수신하는 방법을 제안한다. 기지국에 의해 수행되는 방법은, (i) 단말의 디코딩 레벨을 나타내는 제1 정보 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보를 상기 단말로부터 수신하는 단계와, 상기 제1 정보에 기반하여 디코딩 레벨 정보를 상기 단말로 전송하는 단계와, 상기 디코딩 레벨 정보 및 상기 제2 정보에 기반하여 상기 단기 단말로 하향링크 데이터를 전송하는 단계를 포함할 수 있다.
또한, 본 명세서는 무선 통신 시스템에서 상향링크 데이터를 전송하는 방법을 제안한다. 단말에 의해 수행되는 방법은, (i) 기지국의 디코딩 레벨을 나타내는 제1 정보 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보를 상기 기지국으로부터 수신하는 단계와, 상기 제1 정보에 기반하여 디코딩 레벨 정보를 상기 기지국으로 전송하는 단계와, 상기 디코딩 레벨 정보 및 상기 제2 정보에 기반하여 상기 기지국으로 상향링크 데이터를 전송하는 단계를 포함할 수 있다.
또한, 본 명세서의 상기 방법에 있어서, 상기 상향링크 데이터를 전송하는 단계는, 머신 러닝 기반 코드의 이용을 나타내는 디코딩 레벨 정보 및 머신 러닝이 가능함을 나타내는 제2 정보에 기반하여, 상기 머신 러닝 기반 코드에 대한 정보를 상기 기지국으로부터 수신하는 단계와, 상기 머신 러닝 기반 코드에 기반하여 상기 상향링크 데이터를 상기 기지국으로 전송하는 단계를 포함할 수 있다.
또한, 본 명세서의 상기 방법에 있어서, 머신 러닝 기반 코드의 이용을 나타내는 디코딩 레벨 정보 및 머신 러닝이 가능하지 않음을 나타내는 제2 정보에 기반하여, 채널 정보를 상기 기지국으로부터 수신하는 단계와, 상기 머신 러닝 및 상기 채널 정보를 이용해 상기 머신 러닝 기반 코드를 생성하는 단계와, 상기 머신 러닝 기반 코드에 대한 정보를 상기 기지국으로 전송하는 단계와, 상기 머신 러닝 기반 코드에 기반하여 상기 상향링크 데이터를 상기 기지국으로 전송하는 단계를 포함할 수 있다.
또한, 본 명세서의 상기 방법에 있어서, 상기 머신 러닝 기반 코드를 생성하는 단계는, 머신 러닝에 기반하여 n개의 코드를 생성하는 단계와, 상기 n개의 코드 및 상기 채널 정보에 기반하여 n개의 데이터를 생성하는 단계와, 상기 n개의 데이터의 블록 에러율(Block Error Rate, BLER)에 기반하여 상기 머신 러닝 기반 코드를 선택하는 단계를 포함할 수 있다.
또한, 본 명세서의 상기 방법에 있어서, 상기 상향링크 데이터를 전송하는 단계는, 비 머신 러닝 기반 코드의 이용을 나타내는 디코딩 레벨 정보에 기반하여, 상기 비 머신 러닝 기반 코드를 이용해 상기 상향링크 데이터를 상기 기지국으로 전송하는 단계를 포함할 수 있다.
또한, 본 명세서의 상기 방법에 있어서, 상기 비 머신 러닝 기반 코드는, 저밀도 패리티 체크(Low-Density Parity Check, LDPC) 코드 또는 폴라(Polar) 코드일 수 있다.
또한, 본 명세서의 상기 방법에 있어서, 상기 능력 정보에 대한 요청을 상기 기지국으로 전송하는 단계를 더 포함할 수 있다.
또한, 본 명세서의 무선 통신 시스템에서 상향링크 데이터를 전송하는 단말은, 하나 이상의 송수신기들과, 상기 하나 이상의 송수신기들과 기능적으로 연결된 하나 이상의 프로세서들과, 상기 하나 이상의 프로세서들에 기능적으로 연결되고, 동작들을 수행하는 지시(instruction)들을 저장하는 하나 이상의 메모리들을 포함하고, 상기 동작들은, (i) 기지국의 디코딩 레벨을 나타내는 제1 정보 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보를 상기 기지국으로부터 수신하는 단계와, 상기 제1 정보에 기반하여 디코딩 레벨 정보를 상기 기지국으로 전송하는 단계와, 상기 디코딩 레벨 정보 및 상기 제2 정보에 기반하여 상기 기지국으로 상향링크 데이터를 전송하는 단계를 포함할 수 있다.
또한, 본 명세서는 무선 통신 시스템에서 상향링크 데이터를 수신하는 방법을 제안한다. 기지국에 의해 수행되는 방법은, (i) 상기 기지국의 디코딩 레벨을 나타내는 제1 정보 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보를 단말로 전송하는 단계와, 상기 제1 정보에 기반하여 디코딩 레벨 정보를 상기 단말로부터 수신하는 단계와, 상기 디코딩 레벨 정보 및 상기 제2 정보에 기반하여 상기 단말로부터 상향링크 데이터를 수신하는 단계를 포함할 수 있다.
본 명세서에 따르면, 능력 정보에 기반하여, AI/ML 및 채널 정보를 이용해 실제 채널에 최적화된 코드를 생성함으로써, 초고지연 초고신뢰성의 통신 시스템 환경(예: 5G/6G)에서 통신 오류를 개선할 수 있는 효과가 있다.
또한, 본 명세서에 따르면, 능력 정보에 기반하여, AI/ML 및 채널 정보를 이용해 실제 채널에 최적화된 코드를 생성함으로써, 재전송으로 인한 자원 낭비를 개선할 수 있는 효과가 있다.
또한, 본 명세서에 따르면, 능력 정보에 기반하여, AI/ML 및 채널 정보를 이용해 실제 채널에 최적화된 코드를 생성함으로써, 초저지연 및 초고신뢰성의 통신 시스템을 구현할 수 있는 효과가 있다.
발명에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 발명에 대한 실시 예를 제공하고, 상세한 설명과 함께 본 발명의 기술적 특징을 설명한다.
도 1은 3GPP 시스템에 이용되는 물리 채널들 및 일반적인 신호 전송을 예시한다.
도 2는 6G 시스템에서 제공 가능한 통신 구조의 일례를 나타낸 도이다.
도 3은 퍼셉트론 구조의 일 예를 나타낸다.
도 4는 다층 퍼셉트론 구조의 일 예를 나타낸다.
도 5는 심층 신경망의 일 예를 나타낸다.
도 6은 컨볼루션 신경망의 일 예를 나타낸다.
도 7은 컨볼루션 신경망에서의 필터 연산의 일 예를 나타낸 도이다.
도 8은 순환 루프가 존재하는 신경망 구조의 일 예를 나타낸다.
도 9는 순환 신경망의 동작 구조의 일 예를 나타낸다.
도 10은 전자기 스펙트럼의 일례를 나타낸다.
도 11은 THz 통신 응용의 일례를 나타낸 도이다.
도 12는 전자소자 기반 THz 무선통신 송수신기의 일례를 나타낸 도이다.
도 13은 광 소자 기반 THz 신호를 생성하는 방법의 일례를 나타낸 도이다.
도 14는 광 소자 기반 THz 무선통신 송수신기의 일례를 나타낸 도이다.
도 15는 광자 소스(Photoinc source) 기반 송신기의 구조를 예시한다.
도 16은 광 변조기(Optical modulator)의 구조를 예시한다.
도 17은 하향링크 전송에서 기지국에서 최적의 코드를 생성하는 방법의 흐름도이다.
도 18은 하향링크 전송에서 단말이 최적의 코드를 생성하는 방법의 흐름도이다.
도 19는 상향링크 전송에서 단말이 최적의 코드를 생성하는 방법의 흐름도이다.
도 20은 상향링크 전송에서 기지국에서 최적의 코드를 생성하는 방법의 흐름도이다.
도 21은 기지국(또는 단말)에서 AI 및/또는 ML에 기반하여 최적의 코드를 탐색 또는 생성하는 방법의 순서도이다.
도 22는 BLER에 의해 오름차순으로 부모 코드들을 정리한 그래프이다.
도 23은 유전 알고리즘에서 사용하는 변종을 설명하기 위한 도면이다.
도 24는 유전 알고리즘에서 사용하는 교차(또는 교배)를 설명하기 위한 도면이다.
도 25은 본 명세서에서 제안하는 하향링크 전송에서 단말의 동작 방법을 설명하기 위한 흐름도이다.
도 26은 본 명세서에서 제안하는 하향링크 전송에서 기지국의 동작 방법을 설명하기 위한 흐름도이다.
도 27은 본 명세서에서 제안하는 상향링크 전송에서 단말의 동작 방법을 설명하기 위한 흐름도이다.
도 28은 본 명세서에서 제안하는 상향링크 전송에서 기지국의 동작 방법을 설명하기 위한 흐름도이다.
도 29는 본 발명에 적용되는 통신 시스템(10)을 예시한다.
도 30은 본 발명에 적용될 수 있는 무선 기기를 예시한다.
도 31은 전송 신호를 위한 신호 처리 회로를 예시한다.
도 32는 본 발명에 적용되는 무선 기기의 다른 예를 나타낸다.
도 33은 본 발명에 적용되는 휴대 기기를 예시한다.
도 34는 본 발명에 적용되는 차량 또는 자율 주행 차량을 예시한다.
도 35는 본 발명에 적용되는 차량을 예시한다.
도 36은 본 발명에 적용되는 XR 기기를 예시한다.
도 37은 본 발명에 적용되는 로봇을 예시한다.
도 38은 본 발명에 적용되는 AI 기기를 예시한다.
이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다. 이하의 상세한 설명은 본 발명의 완전한 이해를 제공하기 위해서 구체적 세부사항을 포함한다. 그러나, 당업자는 본 발명이 이러한 구체적 세부사항 없이도 실시될 수 있음을 안다.
몇몇 경우, 본 발명의 개념이 모호해지는 것을 피하기 위하여 공지의 구조 및 장치는 생략되거나, 각 구조 및 장치의 핵심기능을 중심으로 한 블록도 형식으로 도시될 수 있다.
본 명세서에서 기지국은 단말과 직접적으로 통신을 수행하는 네트워크의 종단 노드(terminal node)로서의 의미를 갖는다. 본 문서에서 기지국에 의해 수행되는 것으로 설명된 특정 동작은 경우에 따라서는 기지국의 상위 노드(upper node)에 의해 수행될 수도 있다. 즉, 기지국을 포함하는 다수의 네트워크 노드들(network nodes)로 이루어지는 네트워크에서 단말과의 통신을 위해 수행되는 다양한 동작들은 기지국 또는 기지국 이외의 다른 네트워크 노드들에 의해 수행될 수 있음은 자명하다. '기지국(BS: Base Station)'은 고정국(fixed station), Node B, eNB(evolved-NodeB), BTS(base transceiver system), 액세스 포인트(AP: Access Point), gNB(general NB, generation NB) 등의 용어에 의해 대체될 수 있다. 또한, '단말(Terminal)'은 고정되거나 이동성을 가질 수 있으며, UE(User Equipment), MS(Mobile Station), UT(user terminal), MSS(Mobile Subscriber Station), SS(Subscriber Station), AMS(Advanced Mobile Station), WT(Wireless terminal), MTC(Machine-Type Communication) 장치, M2M(Machine-to-Machine) 장치, D2D(Device-to-Device) 장치 등의 용어로 대체될 수 있다.
이하에서, 하향링크(DL: downlink)는 기지국에서 단말로의 통신을 의미하며, 상향링크(UL: uplink)는 단말에서 기지국으로의 통신을 의미한다. 하향링크에서 송신기는 기지국의 일부이고, 수신기는 단말의 일부일 수 있다. 상향링크에서 송신기는 단말의 일부이고, 수신기는 기지국의 일부일 수 있다.
이하의 설명에서 사용되는 특정 용어들은 본 발명의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 발명의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.
이하의 기술은 CDMA, FDMA, TDMA, OFDMA, SC-FDMA 등과 같은 다양한 무선 접속 시스템에 사용될 수 있다. CDMA는 UTRA(Universal Terrestrial Radio Access)나 CDMA2000과 같은 무선 기술로 구현될 수 있다. TDMA는 GSM(Global System for Mobile communications)/GPRS(General Packet Radio Service)/EDGE(Enhanced Data Rates for GSM Evolution)와 같은 무선 기술로 구현될 수 있다. OFDMA는 IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802-20, E-UTRA(Evolved UTRA) 등과 같은 무선 기술로 구현될 수 있다. UTRA는 UMTS(Universal Mobile Telecommunications System)의 일부이다. 3GPP(3rd Generation Partnership Project) LTE(Long Term Evolution)은 E-UTRA를 사용하는 E-UMTS(Evolved UMTS)의 일부이고 LTE-A(Advanced)/LTE-A pro는 3GPP LTE의 진화된 버전이다. 3GPP NR(New Radio or New Radio Access Technology)는 3GPP LTE/LTE-A/LTE-A pro의 진화된 버전이다. 3GPP 6G는 3GPP NR의 진화된 버전일 수 있다.
본 발명의 실시 예들은 무선 접속 시스템들인 IEEE 802, 3GPP 및 3GPP2 중 적어도 하나에 개시된 표준 문서들에 의해 뒷받침될 수 있다. 즉, 본 발명의 실시 예들 중 본 발명의 기술적 사상을 명확히 드러내기 위해 설명하지 않은 단계들 또는 부분들은 상기 문서들에 의해 뒷받침될 수 있다. 또한, 본 문서에서 개시하고 있는 모든 용어들은 상기 표준 문서에 의해 설명될 수 있다.
설명을 명확하게 하기 위해, 3GPP 통신 시스템(예, LTE, NR 등)을 기반으로 설명하지만 본 발명의 기술적 사상이 이에 제한되는 것은 아니다. LTE는 3GPP TS 36.xxx Release 8 이후의 기술을 의미한다. 세부적으로, 3GPP TS 36.xxx Release 10 이후의 LTE 기술은 LTE-A로 지칭되고, 3GPP TS 36.xxx Release 13 이후의 LTE 기술은 LTE-A pro로 지칭된다. 3GPP NR은 TS 38.xxx Release 15 이후의 기술을 의미한다. 3GPP 6G는 TS Release 17 및/또는 Release 18 이후의 기술을 의미할 수 있다. "xxx"는 표준 문서 세부 번호를 의미한다. LTE/NR/6G는 3GPP 시스템으로 통칭될 수 있다. 본 발명의 설명에 사용된 배경기술, 용어, 약어 등에 관해서는 본 발명 이전에 공개된 표준 문서에 기재된 사항을 참조할 수 있다. 예를 들어, 다음 문서를 참조할 수 있다.
3GPP LTE
- 36.211: Physical channels and modulation
- 36.212: Multiplexing and channel coding
- 36.213: Physical layer procedures
- 36.300: Overall description
- 36.331: Radio Resource Control (RRC)
3GPP NR
- 38.211: Physical channels and modulation
- 38.212: Multiplexing and channel coding
- 38.213: Physical layer procedures for control
- 38.214: Physical layer procedures for data
- 38.300: NR and NG-RAN Overall Description
- 38.331: Radio Resource Control (RRC) protocol specification
물리 채널 및 프레임 구조
물리 채널 및 일반적인 신호 전송
도 1은 3GPP 시스템에 이용되는 물리 채널들 및 일반적인 신호 전송을 예시한다. 무선 통신 시스템에서 단말은 기지국으로부터 하향링크(Downlink, DL)를 통해 정보를 수신하고, 단말은 기지국으로 상향링크(Uplink, UL)를 통해 정보를 전송한다. 기지국과 단말이 송수신하는 정보는 데이터 및 다양한 제어 정보를 포함하고, 이들이 송수신 하는 정보의 종류/용도에 따라 다양한 물리 채널이 존재한다.
단말은 전원이 켜지거나 새로이 셀에 진입한 경우 기지국과 동기를 맞추는 등의 초기 셀 탐색(Initial cell search) 작업을 수행한다(S11). 이를 위해, 단말은 기지국으로부터 주 동기 신호(Primary Synchronization Signal, PSS) 및 부 동기 신호(Secondary Synchronization Signal, SSS)을 수신하여 기지국과 동기를 맞추고, 셀 ID 등의 정보를 획득할 수 있다. 그 후, 단말은 기지국으로부터 물리 방송 채널(Physical Broadcast Channel, PBCH)를 수신하여 셀 내 방송 정보를 획득할 수 있다. 한편, 단말은 초기 셀 탐색 단계에서 하향링크 참조 신호(Downlink Reference Signal, DL RS)를 수신하여 하향링크 채널 상태를 확인할 수 있다.
초기 셀 탐색을 마친 단말은 물리 하향링크 제어 채널(Physical Downlink Control Channel, PDCCH) 및 상기 PDCCH에 실린 정보에 따라 물리 하향링크 공유 채널(Physical Downlink Control Channel; PDSCH)을 수신함으로써 좀더 구체적인 시스템 정보를 획득할 수 있다(S12).
한편, 기지국에 최초로 접속하거나 신호 송신을 위한 무선 자원이 없는 경우, 단말은 기지국에 대해 임의 접속 과정(Random Access Procedure, RACH)을 수행할 수 있다(S13 내지 S16). 이를 위해, 단말은 물리 임의 접속 채널(Physical Random Access Channel, PRACH)을 통해 특정 시퀀스를 프리앰블로 송신하고(S13 및 S15), PDCCH 및 대응하는 PDSCH를 통해 프리앰블에 대한 응답 메시지((RAR(Random Access Response) message)를 수신할 수 있다. 경쟁 기반 RACH의 경우, 추가적으로 충돌 해결 절차(Contention Resolution Procedure)를 수행할 수 있다(S16).
상술한 바와 같은 절차를 수행한 단말은 이후 일반적인 상/하향링크 신호 송신 절차로서 PDCCH/PDSCH 수신(S17) 및 물리 상향링크 공유 채널(Physical Uplink Shared Channel, PUSCH)/물리 상향링크 제어 채널(Physical Uplink Control Channel; PUCCH) 송신(S18)을 수행할 수 있다. 특히 단말은 PDCCH를 통하여 하향링크 제어 정보(Downlink Control Information, DCI)를 수신할 수 있다. 여기서, DCI는 단말에 대한 자원 할당 정보와 같은 제어 정보를 포함하며, 사용 목적에 따라 포맷이 서로 다르게 적용될 수 있다.
한편, 단말이 상향링크를 통해 기지국에 송신하는 또는 단말이 기지국으로부터 수신하는 제어 정보는 하향링크/상향링크 ACK/NACK 신호, CQI(Channel Quality Indicator), PMI(Precoding Matrix 인덱스), RI(Rank Indicator) 등을 포함할 수 있다. 단말은 상술한 CQI/PMI/RI 등의 제어 정보를 PUSCH 및/또는 PUCCH를 통해 송신할 수 있다.
상향링크 및 하향링크 채널의 구조
하향링크 채널 구조
기지국은 후술하는 하향링크 채널을 통해 관련 신호를 단말에게 전송하고, 단말은 후술하는 하향링크 채널을 통해 관련 신호를 기지국으로부터 수신한다.
(1) 물리 하향링크 공유 채널(PDSCH)
PDSCH는 하향링크 데이터(예, DL-shared channel transport block, DL-SCH TB)를 운반하고, QPSK(Quadrature Phase Shift Keying), 16 QAM(Quadrature Amplitude Modulation), 64 QAM, 256 QAM 등의 변조 방법이 적용된다. TB를 인코딩하여 코드워드(codeword)가 생성된다. PDSCH는 다수의 코드워드들을 나를 수 있다. 코드워드(codeword) 별로 스크램블링(scrambling) 및 변조 매핑(modulation mapping)이 수행되고, 각 코드워드로부터 생성된 변조 심볼들은 하나 이상의 레이어로 매핑된다(Layer mapping). 각 레이어는 DMRS(Demodulation Reference Signal)과 함께 자원에 매핑되어 OFDM 심볼 신호로 생성되고, 해당 안테나 포트를 통해 전송된다.
(2) 물리 하향링크 제어 채널(PDCCH)
PDCCH는 하향링크 제어 정보(DCI)를 운반하고 QPSK 변조 방법 등이 적용된다. 하나의 PDCCH는 AL(Aggregation Level)에 따라 1, 2, 4, 8, 16 개 등의 CCE(Control Channel Element)로 구성된다. 하나의 CCE는 6개의 REG(Resource Element Group)로 구성된다. 하나의 REG는 하나의 OFDM 심볼과 하나의 (P)RB로 정의된다.
단말은 PDCCH 후보들의 세트에 대한 디코딩(일명, 블라인드 디코딩)을 수행하여 PDCCH를 통해 전송되는 DCI를 획득한다. 단말이 디코딩하는 PDCCH 후보들의 세트는 PDCCH 검색 공간(Search Space) 세트라 정의한다. 검색 공간 세트는 공통 검색 공간 (common search space) 또는 단말-특정 검색 공간 (UE-specific search space)일 수 있다. 단말은 MIB 또는 상위 계층 시그널링에 의해 설정된 하나 이상의 검색 공간 세트 내 PDCCH 후보를 모니터링하여 DCI를 획득할 수 있다.
상향링크 채널 구조
단말은 후술하는 상향링크 채널을 통해 관련 신호를 기지국으로 전송하고, 기지국은 후술하는 상향링크 채널을 통해 관련 신호를 단말로부터 수신한다.
(1) 물리 상향링크 공유 채널(PUSCH)
PUSCH는 상향링크 데이터(예, UL-shared channel transport block, UL-SCH TB) 및/또는 상향링크 제어 정보(UCI)를 운반하고, CP-OFDM (Cyclic Prefix - Orthogonal Frequency Division Multiplexing) 파형(waveform), DFT-s-OFDM (Discrete Fourier Transform - spread - Orthogonal Frequency Division Multiplexing) 파형 등에 기초하여 전송된다. PUSCH가 DFT-s-OFDM 파형에 기초하여 전송되는 경우, 단말은 변환 프리코딩(transform precoding)을 적용하여 PUSCH를 전송한다. 일 예로, 변환 프리코딩이 불가능한 경우(예, transform precoding is disabled) 단말은 CP-OFDM 파형에 기초하여 PUSCH를 전송하고, 변환 프리코딩이 가능한 경우(예, transform precoding is enabled) 단말은 CP-OFDM 파형 또는 DFT-s-OFDM 파형에 기초하여 PUSCH를 전송할 수 있다. PUSCH 전송은 DCI 내 UL 그랜트에 의해 동적으로 스케줄링 되거나, 상위 계층(예, RRC) 시그널링 (및/또는 Layer 1(L1) 시그널링(예, PDCCH))에 기초하여 반-정적(semi-static)으로 스케줄링 될 수 있다(configured grant). PUSCH 전송은 코드북 기반 또는 비-코드북 기반으로 수행될 수 있다.
(2) 물리 상향링크 제어 채널(PUCCH)
PUCCH는 상향링크 제어 정보, HARQ-ACK 및/또는 스케줄링 요청(SR)을 운반하고, PUCCH 전송 길이에 따라 다수의 PUCCH들로 구분될 수 있다.
6G 시스템 일반
6G (무선통신) 시스템은 (i) 디바이스 당 매우 높은 데이터 속도, (ii) 매우 많은 수의 연결된 디바이스들, (iii) 글로벌 연결성(global connectivity), (iv) 매우 낮은 지연, (v) 배터리-프리(battery-free) IoT 디바이스들의 에너지 소비를 낮추고, (vi) 초고신뢰성 연결, (vii) 머신 러닝 능력을 가지는 연결된 지능 등에 목적이 있다. 6G 시스템의 비젼은 intelligent connectivity, deep connectivity, holographic connectivity, ubiquitous connectivity와 같은 4가지 측면일 수 있으며, 6G 시스템은 아래 표 1과 같은 요구 사항을 만족시킬 수 있다. 즉, 표 1은 6G 시스템의 요구 사항의 일례를 나타낸 표이다.
Figure PCTKR2020007899-appb-T000001
6G 시스템은 Enhanced mobile broadband (eMBB), Ultra-reliable low latency communications (URLLC), massive machine-type communication (mMTC), AI integrated communication, Tactile internet, High throughput, High network capacity, High energy efficiency, Low backhaul and access network congestion, Enhanced data security와 같은 핵심 요소(key factor)들을 가질 수 있다.
도 2는 6G 시스템에서 제공 가능한 통신 구조의 일례를 나타낸 도이다.
6G 시스템은 5G 무선통신 시스템보다 50배 더 높은 동시 무선통신 연결성을 가질 것으로 예상된다. 5G의 key feature인 URLLC는 6G 통신에서 1ms보다 적은 단-대-단(end-to-end) 지연을 제공함으로써 보다 더 주요한 기술이 될 것이다. 6G 시스템은 자주 사용되는 영역 스펙트럼 효율과 달리 체적 스펙트럼 효율이 훨씬 우수할 것이다. 6G 시스템은 매우 긴 배터리 수명과 에너지 수확을 위한 고급 배터리 기술을 제공할 수 있어, 6G 시스템에서 모바일 디바이스들은 별도로 충전될 필요가 없을 것이다. 6G에서 새로운 네트워크 특성들은 다음과 같을 수 있다.
- 위성 통합 네트워크(Satellites integrated network): 글로벌 모바일 집단을 제공하기 위해 6G는 위성과 통합될 것으로 예상된다. 지상파, 위성 및 공중 네트워크를 하나의 무선통신 시스템으로 통합은 6G에 매우 중요하다.
- 연결된 인텔리전스(Connected intelligence): 이전 세대의 무선 통신 시스템과 달리 6G는 혁신적이며, "연결된 사물”에서 "연결된 지능"으로 무선 진화가 업데이트될 것이다. AI는 통신 절차의 각 단계(또는 후술할 신호 처리의 각 절차)에서 적용될 수 있다.
- 무선 정보 및 에너지 전달의 완벽한 통합(Seamless integration wireless information and energy transfer): 6G 무선 네트워크는 스마트폰들과 센서들과 같이 디바이스들의 배터리를 충전하기 위해 전력을 전달할 것이다. 그러므로, 무선 정보 및 에너지 전송 (WIET)은 통합될 것이다.
- 유비쿼터스 슈퍼 3D 연결(Ubiquitous super 3D connectivity): 드론 및 매우 낮은 지구 궤도 위성의 네트워크 및 핵심 네트워크 기능에 접속은 6G 유비쿼터스에서 슈퍼 3D 연결을 만들 것이다.
위와 같은 6G의 새로운 네트워크 특성들에서 몇 가지 일반적인 요구 사항은 다음과 같을 수 있다.
- 스몰 셀 네트워크(small cell networks): 스몰 셀 네트워크의 아이디어는 셀룰러 시스템에서 처리량, 에너지 효율 및 스펙트럼 효율 향상의 결과로 수신 신호 품질을 향상시키기 위해 도입되었다. 결과적으로, 스몰 셀 네트워크는 5G 및 비욘드 5G (5GB) 이상의 통신 시스템에 필수적인 특성이다. 따라서, 6G 통신 시스템 역시 스몰 셀 네트워크의 특성을 채택한다.
- 초 고밀도 이기종 네트워크(Ultra-dense heterogeneous network): 초 고밀도 이기종 네트워크들은 6G 통신 시스템의 또 다른 중요한 특성이 될 것이다. 이기종 네트워크로 구성된 멀티-티어 네트워크는 전체 QoS를 개선하고 비용을 줄인다.
- 대용량 백홀(High-capacity backhaul): 백홀 연결은 대용량 트래픽을 지원하기 위해 대용량 백홀 네트워크로 특징 지어진다. 고속 광섬유 및 자유 공간 광학 (FSO) 시스템이 이 문제에 대한 가능한 솔루션일 수 있다.
- 모바일 기술과 통합된 레이더 기술: 통신을 통한 고정밀 지역화(또는 위치 기반 서비스)는 6G 무선통신 시스템의 기능 중 하나이다. 따라서, 레이더 시스템은 6G 네트워크와 통합될 것이다.
- 소프트화 및 가상화(Softwarization and virtualization): 소프트화 및 가상화는 유연성, 재구성성 및 프로그래밍 가능성을 보장하기 위해 5GB 네트워크에서 설계 프로세스의 기초가 되는 두 가지 중요한 기능이다. 또한, 공유 물리적 인프라에서 수십억 개의 장치가 공유될 수 있다.
6G 시스템의 핵심 구현 기술
인공 지능(Artificial Intelligence)
6G 시스템에 가장 중요하며, 새로 도입될 기술은 AI이다. 4G 시스템에는 AI가 관여하지 않았다. 5G 시스템은 부분 또는 매우 제한된 AI를 지원할 것이다. 그러나, 6G 시스템은 완전히 자동화를 위해 AI가 지원될 것이다. 머신 러닝의 발전은 6G에서 실시간 통신을 위해 보다 지능적인 네트워크를 만들 것이다. 통신에 AI를 도입하면 실시간 데이터 전송이 간소화되고 향상될 수 있다. AI는 수많은 분석을 사용하여 복잡한 대상 작업이 수행되는 방식을 결정할 수 있다. 즉, AI는 효율성을 높이고 처리 지연을 줄일 수 있다.
핸드 오버, 네트워크 선택, 자원 스케쥴링과 같은 시간 소모적인 작업은 AI를 사용함으로써 즉시 수행될 수 있다. AI는 M2M, 기계-대-인간 및 인간-대-기계 통신에서도 중요한 역할을 할 수 있다. 또한, AI는 BCI(Brain Computer Interface)에서 신속한 통신이 될 수 있다. AI 기반 통신 시스템은 메타 물질, 지능형 구조, 지능형 네트워크, 지능형 장치, 지능형 인지 라디오(radio), 자체 유지 무선 네트워크 및 머신 러닝에 의해 지원될 수 있다.
최근에는 AI를 무선 통신 시스템과 통합하려고 하는 시도들이 나타나고 있으나, 이는 application layer, network layer 특히, 딥러닝을 wireless resource management and allocation 분야에 집중되어 왔다. 그러나, 이러한 연구는 점점 MAC layer 와 Physical layer로 발전하고 있으며, 특히 물리계층에서 딥러닝을 무선 전송(wireless transmission)과 결합하고자 하는 시도들이 나타나고 있다. AI 기반의 물리계층 전송은, 근본적인 신호 처리 및 통신 메커니즘에 있어서, 전통적인 통신 프레임워크가 아니라 AI 드라이버에 기초한 신호 처리 및 통신 메커니즘을 적용하는 것을 의미한다. 예를 들어, 딥러닝 기반의 채널 코딩 및 디코딩(channel coding and decoding), 딥러닝 기반의 신호 추정(estimation) 및 검출(detection), 딥러닝 기반의 MIMO mechanism, AI 기반의 자원 스케줄링(scheduling) 및 할당(allocation) 등을 포함할 수 있다.
머신 러닝은 채널 추정 및 채널 트래킹을 위해 사용될 수 있으며, DL(downlink)의 물리 계층(physical layer)에서 전력 할당(power allocation), 간섭 제거 (interference cancellation) 등에 사용될 수 있다. 또한, 머신 러닝은 MIMO 시스템에서 안테나 선택, 전력 제어(power control), 심볼 검출(symbol detection) 등에도 사용될 수 있다.
그러나 물리계층에서의 전송을 위한 DNN의 적용은 아래와 같은 문제점이 있을 수 있다.
딥러닝 기반의 AI 알고리즘은 훈련 파라미터를 최적화하기 위해 수많은 훈련 데이터가 필요하다. 그러나 특정 채널 환경에서의 데이터를 훈련 데이터로 획득하는데 있어서의 한계로 인해, 오프라인 상에서 많은 훈련 데이터를 사용한다. 이는 특정 채널 환경에서 훈련 데이터에 대한 정적 훈련(static training)은, 무선 채널의 동적 특성 및 다이버시티(diversity) 사이에 모순(contradiction)이 생길 수 있다.
또한, 현재 딥러닝은 주로 실제 신호(real signal)을 대상으로 한다. 그러나, 무선 통신의 물리 계층의 신호들은 복소 신호(complex signal)이다. 무선 통신 신호의 특성을 매칭시키기 위해 복소 도메인 신호의 검출하는 신경망(neural network)에 대한 연구가 더 필요하다.
이하, 머신 러닝에 대해 보다 구체적으로 살펴본다.
머신 러닝은 사람이 할 수 있거나 혹은 하기 어려운 작업을 대신해낼 수 있는 기계를 만들어내기 위해 기계를 학습시키는 일련의 동작을 의미한다. 머신 러닝을 위해서는 데이터와 러닝 모델이 필요하다. 머신 러닝에서 데이터의 학습 방법은 크게 3가지 즉, 지도 학습(supervised learning), 비지도 학습(unsupervised learning) 그리고 강화 학습(reinforcement learning)으로 구분될 수 있다.
신경망 학습은 출력의 오류를 최소화하기 위한 것이다. 신경망 학습은 반복적으로 학습 데이터를 신경망에 입력시키고 학습 데이터에 대한 신경망의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 신경망의 에러를 신경망의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation) 하여 신경망의 각 노드의 가중치를 업데이트하는 과정이다.
지도 학습은 학습 데이터에 정답이 라벨링된 학습 데이터를 사용하며 비지도 학습은 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 지도 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링된 데이터 일 수 있다. 라벨링된 학습 데이터가 신경망에 입력되고 신경망의 출력(카테고리)과 학습 데이터의 라벨을 비교하여 오차(error)가 계산될 수 있다. 계산된 오차는 신경망에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 신경망의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learing rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 신경망의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 신경망의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 신경망의 학습 초기에는 높은 학습률을 사용하여 신경망이 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다
데이터의 특징에 따라 학습 방법은 달라질 수 있다. 예를 들어, 통신 시스템 상에서 송신단에서 전송한 데이터를 수신단에서 정확하게 예측하는 것을 목적으로 하는 경우, 비지도 학습 또는 강화 학습 보다는 지도 학습을 이용하여 학습을 수행하는 것이 바람직하다.
러닝 모델은 인간의 뇌에 해당하는 것으로서, 가장 기본적인 선형 모델을 생각할 수 있으나, 인공 신경망(artificial neural networks)와 같은 복잡성이 높은 신경망 구조를 러닝 모델로 사용하는 머신 러닝의 패러다임을 딥러닝(deep learning)이라 한다.
학습(learning) 방식으로 사용하는 신경망 코어(neural network cord)는 크게 심층 신경망(DNN, deep neural networks), 합성곱 신경망(CNN, convolutional deep neural networks), 순환 신경망(RNN, Recurrent Boltzmann Machine) 방식이 있다.
인공 신경망(artificial neural network)은 여러 개의 퍼셉트론을 연결한 예시이다.
도 3은 퍼셉트론 구조의 일 예를 나타낸다.
도 3을 참조하면, 입력 벡터 x=(x1,x2,...,xd) 가 입력되면 각 성분에 가중치(W1,W2,...,Wd)를 곱하고, 그 결과를 모두 합산한 후, 활성함수 σ() 를 적용하는 전체 과정을 퍼셉트론(perceptron)이라 한다. 거대한 인공 신경망 구조는 도 3에 도시한 단순화된 퍼셉트론 구조를 확장하여 입력벡터를 서로 다른 다 차원의 퍼셉트론에 적용할 수도 있다. 설명의 편의를 위해 입력값 또는 출력값을 노드(node)라 칭한다.
한편, 도 3에 도시된 퍼셉트론 구조는 입력값, 출력값을 기준으로 총 3개의 층(layer)로 구성되는 것으로 설명할 수 있다. 1st layer와 2nd layer 사이에는 (d+1) 차원의 퍼셉트론 H개, 2nd layer와 3rd layer 사이에는 (H+1)차원 퍼셉트론이 K 개 존재하는 인공신경망을 도 4와 같이 표현할 수 있다. 도 4는 다층 퍼셉트론 구조의 일 예를 나타낸다.
입력벡터가 위치하는 층을 입력층(input layer), 최종 출력값이 위치하는 층을 출력층(output layer), 입력층과 출력층 사이에 위치하는 모든 층을 은닉층(hidden layer)라 한다. 도 4의 예시는 3개의 층이 개시되나, 실제 인공신경망 층의 개수를 카운트할 때는 입력층을 제외하고 카운트하므로 총 2개의 층으로 볼 수 있다. 인공신경망은 기본 블록의 퍼셉트론을 2차원적으로 연결되어 구성된다.
전술한 입력층, 은닉층, 출력층은 다층 퍼셉트론 뿐 아니라 후술할 CNN, RNN 등 다양한 인공신경망 구조에서 공동적으로 적용될 수 있다. 은닉층의 개수가 많아질수록 인공신경망이 깊어진 것이며, 충분히 깊어진 인공신경망을 러닝모델로 사용하는 머신러닝 패러다임을 딥러닝(Deep Learning)이라 한다. 또한 딥러닝을 위해 사용하는 인공신경망을 심층 신경망(DNN: Deep neural network)라 한다.
도 5에 도시된 심층 신경망은 은닉층+출력층이 8개로 구성된 다층 퍼셉트론이다. 상기 다층 퍼셉트론 구조를 완전 연결 신경망(fully-connected neural network)이라 표현한다. 완전 연결 신경망은 서로 같은 층에 위치하는 노드 간에는 연결 관계가 존재하지 않으며, 인접한 층에 위치한 노드들 간에만 연결 관계가 존재한다. DNN은 완전 연결 신경망 구조를 가지고 다수의 은닉층과 활성함수들의 조합으로 구성되어 입력과 출력 사이의 상관관계 특성을 파악하는데 유용하게 적용될 수 있다. 여기서 상관관계 특성은 입출력의 결합확률(joint probability)을 의미할 수 있다.
'한편, 복수의 퍼셉트론을 서로 어떻게 연결하느냐에 따라 전술한 DNN과 다른 다양한 인공 신경망 구조를 형성할 수 있다.
DNN은 하나의 층 내부에 위치한 노드들이 1차원적의 세로 방향으로 배치되어 있다. 그러나, 도 6은 노드들이 2차원적으로 가로 w개, 세로 h개의 노드가 배치할 경우를 가정할 수 있다(도 6의 컨볼루션 신경망 구조). 이 경우, 하나의 입력노드에서 은닉층으로 이어지는 연결과정에서 연결 하나당 가중치가 부가되므로 총 hХw 개의 가중치를 고려해야한다. 입력층에 hХw 개의 노드가 존재하므로 인접한 두 층 사이에는 총 h2w2 개의 가중치가 필요하다.
도 6의 컨볼루션 신경망은 연결개수에 따라 가중치의 개수가 기하급수적으로 증가하는 문제가 있어 인접한 층 간의 모든 모드의 연결을 고려하는 대신, 크기가 작은 필터(filter)가 존재하는 것으로 가정하여 도 7에서와 같이 필터가 겹치는 부분에 대해서는 가중합 및 활성함수 연산을 수행하도록 한다.
하나의 필터는 그 크기만큼의 개수에 해당하는 가중치를 가지며, 이미지 상의 어느 특정한 특징을 요인으로 추출하여 출력할 수 있도록 가중치의 학습이 이루어질 수 있다. 도 7에서는 3Х3 크기의 필터가 입력층의 가장 좌측 상단 3Х3 영역에 적용되고, 해당 노드에 대한 가중합 및 활성함수 연산을 수행한 결과 출력값을 z22에 저장한다.
상기 필터는 입력층을 스캔하면서 가로,세로 일정 간격 만큼 이동하면서 가중합 및 활성함수 연산을 수행하고 그 출력값을 현재 필터의 위치에 위치시킨다. 이러한 연산 방식은 컴퓨터 비전(computer vision) 분야에서 이미지에 대한 컨볼루션(convolution) 연산과 유사하여 이러한 구조의 심층 신경망을 컨볼루션 신경망(CNN: convolutional neural network)라 하고, 컨볼루션 연산 결과 생성되는 은닉층을 컨볼루션 층(convolutional layer)라 한다. 또한, 복수의 컨볼루션 층이 존재하는 신경망을 심층 컨볼루션 신경망(DCNN: Deep convolutional)이라 한다.
컨볼루션 층에서는 현재 필터가 위치한 노드에서, 상기 필터가 커버하는 영역에 위치한 노드만을 포괄하여 가중합을 계산함으로써, 가중치의 개수를 줄여줄 수 있다. 이로 인해, 하나의 필터가 로컬(local) 영역에 대한 특징에 집중하도록 이용될 수 있다. 이에 따라 CNN은 2차원 영역 상의 물리적 거리가 중요한 판단 기준이 되는 이미지 데이터 처리에 효과적으로 적용될 수 있다. 한편, CNN은 컨볼루션 층의 직전에 복수의 필터가 적용될 수 있으며, 각 필터의 컨볼루션 연산을 통해 복수의 출력 결과를 생성할 수도 있다.
한편, 데이터 속성에 따라 시퀀스(sequence) 특성이 중요한 데이터들이 있을 수 있다. 이러한 시퀀스 데이터들의 길이 가변성, 선후 관계를 고려하여 데이터 시퀀스 상의 원소를 매 시점(timestep) 마다 하나씩 입력하고, 특정 시점에 출력된 은닉층의 출력 벡터(은닉 벡터)를, 시퀀스 상의 바로 다음 원소와 함께 입력하는 방식을 인공 신경망에 적용한 구조를 순환 신경망 구조라 한다.
도 8은 순환 루프가 존재하는 신경망 구조의 일 예를 나타낸다.
도 8을 참조하면, 순환 신경망(RNN: recurrent neural netwok)은 데이터 시퀀스 상의 어느 시선 t의 원소 (x1(t), x2(t), ,..., xd(t))를 완전 연결 신경망에 입력하는 과정에서, 바로 이전 시점 t-1은 은닉 벡터 (z1(t1), z2(t1),..., zH(t1))을 함께 입력하여 가중합 및 활성함수를 적용하는 구조이다. 이와 같이 은닉 벡터를 다음 시점으로 전달하는 이유는 앞선 시점들에서의 입력 벡터속 정보들이 현재 시점의 은닉 벡터에 누적된 것으로 간주하기 때문이다.
도 9는 순환 신경망의 동작 구조의 일 예를 나타낸다.
도 9를 참조하면, 순환 신경망은 입력되는 데이터 시퀀스에 대하여 소정의 시점 순서대로 동작한다.
시점 1에서의 입력 벡터  (x1(t), x2(t), ,..., xd(t))가 순환 신경망에 입력되었을 때의 은닉 벡터 (z1(1),z2(1),...,zH(1))가 시점 2의 입력 벡터  (x1(2),x2(2),...,xd(2))와 함께 입력되어 가중합 및 활성 함수를 통해 은닉층의 벡터  (z1(2),z2(2) ,...,zH(2))를 결정한다. 이러한 과정은 시점 2, 시점 3, ,,, 시점 T 까지 반복적으로 수행된다.
한편, 순환 신경망 내에서 복수의 은닉층이 배치될 경우, 이를 심층 순환 신경망(DRNN: Deep recurrent neural network)라 한다. 순환 신경망은 시퀀스 데이터(예를 들어, 자연어 처리(natural language processing)에 유용하게 적용되도록 설계되어 있다.
학습(learning) 방식으로 사용하는 신경망 코어로서 DNN, CNN, RNN 외에 제한 볼츠만 머신(RBM, Restricted Boltzmann Machine), 심층 신뢰 신경망(DBN, deep belief networks), 심층 Q-네트워크(Deep Q-Network)와 같은 다양한 딥 러닝 기법들을 포함하며, 컴퓨터비젼, 음성인식, 자연어처리, 음성/신호처리 등의 분야에 적용될 수 있다.
최근에는 AI를 무선 통신 시스템과 통합하려고 하는 시도들이 나타나고 있으나, 이는 application layer, network layer 특히, 딥러닝을 wireless resource management and allocation 분야에 집중되어 왔다. 그러나, 이러한 연구는 점점 MAC layer 와 Physical layer로 발전하고 있으며, 특히 물리계층에서 딥러닝을 무선 전송(wireless transmission)과 결합하고자 하는 시도들이 나타나고 있다. AI 기반의 물리계층 전송은, 근본적인 신호 처리 및 통신 메커니즘에 있어서, 전통적인 통신 프레임워크가 아니라 AI 드라이버에 기초한 신호 처리 및 통신 메커니즘을 적용하는 것을 의미한다. 예를 들어, 딥러닝 기반의 채널 코딩 및 디코딩(channel coding and decoding), 딥러닝 기반의 신호 추정(estimation) 및 검출(detection), 딥러닝 기반의 MIMO mechanism, AI 기반의 자원 스케줄링(scheduling) 및 할당(allocation) 등을 포함할 수 있다.
THz(Terahertz) 통신
데이터 전송률은 대역폭을 늘려 높일 수 있다. 이것은 넓은 대역폭으로 sub-THz 통신을 사용하고, 진보된 대규모 MIMO 기술을 적용하여 수행될 수 있다. 밀리미터 이하의 방사선으로도 알려진 THz파는 일반적으로 0.03mm-3mm 범위의 해당 파장을 가진 0.1THz와 10THz 사이의 주파수 대역을 나타낸다. 100GHz-300GHz 대역 범위(Sub THz 대역)는 셀룰러 통신을 위한 THz 대역의 주요 부분으로 간주된다. Sub-THz 대역 mmWave 대역 에 추가하면 6G 셀룰러 통신 용량은 늘어난다. 정의된 THz 대역 중 300GHz-3THz는 원적외선 (IR) 주파수 대역에 있다. 300GHz-3THz 대역은 광 대역의 일부이지만 광 대역의 경계에 있으며, RF 대역 바로 뒤에 있다. 따라서, 이 300 GHz-3 THz 대역은 RF와 유사성을 나타낸다. 도 10은 전자기 스펙트럼의 일례를 나타낸다.
THz 통신의 주요 특성은 (i) 매우 높은 데이터 전송률을 지원하기 위해 광범위하게 사용 가능한 대역폭, (ii) 고주파에서 발생하는 높은 경로 손실 (고 지향성 안테나는 필수 불가결)을 포함한다. 높은 지향성 안테나에서 생성된 좁은 빔 폭은 간섭을 줄인다. THz 신호의 작은 파장은 훨씬 더 많은 수의 안테나 소자가 이 대역에서 동작하는 장치 및 BS에 통합될 수 있게 한다. 이를 통해 범위 제한을 극복할 수 있는 고급 적응형 배열 기술을 사용할 수 있다.
광 무선 기술 (Optical wireless technology)
OWC 기술은 가능한 모든 장치-대-액세스 네트워크를 위한 RF 기반 통신 외에도 6G 통신을 위해 계획되었다. 이러한 네트워크는 네트워크-대-백홀/프론트홀 네트워크 연결에 접속한다. OWC 기술은 4G 통신 시스템 이후 이미 사용되고 있으나 6G 통신 시스템의 요구를 충족시키기 위해 더 널리 사용될 것이다. 광 충실도(light fidelity), 가시광 통신, 광 카메라 통신 및 광 대역에 기초한 FSO 통신과 같은 OWC 기술은 이미 잘 알려진 기술이다. 광 무선 기술 기반의 통신은 매우 높은 데이터 속도, 낮은 지연 시간 및 안전한 통신을 제공할 수 있다. LiDAR 또한 광 대역을 기반으로 6G 통신에서 초 고해상도 3D 매핑을 위해 이용될 수 있다.
FSO 백홀 네트워크
FSO 시스템의 송신기 및 수신기 특성은 광섬유 네트워크의 특성과 유사하다. 따라서, FSO 시스템의 데이터 전송은 광섬유 시스템과 비슷하다. 따라서, FSO는 광섬유 네트워크와 함께 6G 시스템에서 백홀 연결을 제공하는 좋은 기술이 될 수 있다. FSO를 사용하면, 10,000km 이상의 거리에서도 매우 장거리 통신이 가능하다. FSO는 바다, 우주, 수중, 고립된 섬과 같은 원격 및 비원격 지역을 위한 대용량 백홀 연결을 지원한다. FSO는 셀룰러 BS 연결도 지원한다.
대규모 MIMO 기술
스펙트럼 효율을 향상시키는 핵심 기술 중 하나는 MIMO 기술을 적용하는 것이다. MIMO 기술이 향상되면 스펙트럼 효율도 향상된다. 따라서, 6G 시스템에서 대규모 MIMO 기술이 중요할 것이다. MIMO 기술은 다중 경로를 이용하기 때문에 데이터 신호가 하나 이상의 경로로 전송될 수 있도록 다중화 기술 및 THz 대역에 적합한 빔 생성 및 운영 기술도 중요하게 고려되어야 한다.
블록 체인
블록 체인은 미래의 통신 시스템에서 대량의 데이터를 관리하는 중요한 기술이 될 것이다. 블록 체인은 분산 원장 기술의 한 형태로서, 분산 원장은 수많은 노드 또는 컴퓨팅 장치에 분산되어 있는 데이터베이스이다. 각 노드는 동일한 원장 사본을 복제하고 저장한다. 블록 체인은 P2P 네트워크로 관리된다. 중앙 집중식 기관이나 서버에서 관리하지 않고 존재할 수 있다. 블록 체인의 데이터는 함께 수집되어 블록으로 구성된다. 블록은 서로 연결되고 암호화를 사용하여 보호된다. 블록 체인은 본질적으로 향상된 상호 운용성(interoperability), 보안, 개인 정보 보호, 안정성 및 확장성을 통해 대규모 IoT를 완벽하게 보완한다. 따라서, 블록 체인 기술은 장치 간 상호 운용성, 대용량 데이터 추적성, 다른 IoT 시스템의 자율적 상호 작용 및 6G 통신 시스템의 대규모 연결 안정성과 같은 여러 기능을 제공한다.
3D 네트워킹
6G 시스템은 지상 및 공중 네트워크를 통합하여 수직 확장의 사용자 통신을 지원한다. 3D BS는 저궤도 위성 및 UAV를 통해 제공될 것이다. 고도 및 관련 자유도 측면에서 새로운 차원을 추가하면 3D 연결이 기존 2D 네트워크와 상당히 다르다.
양자 커뮤니케이션
6G 네트워크의 맥락에서 네트워크의 감독되지 않은 강화 학습이 유망하다. 지도 학습 방식은 6G에서 생성된 방대한 양의 데이터에 레이블을 지정할 수 없다. 비지도 학습에는 라벨링이 필요하지 않다. 따라서, 이 기술은 복잡한 네트워크의 표현을 자율적으로 구축하는 데 사용할 수 있다. 강화 학습과 비지도 학습을 결합하면 진정한 자율적인 방식으로 네트워크를 운영할 수 있다.
무인 항공기
UAV(Unmanned Aerial Vehicle) 또는 드론은 6G 무선 통신에서 중요한 요소가 될 것이다. 대부분의 경우, UAV 기술을 사용하여 고속 데이터 무선 연결이 제공된다. BS 엔티티는 셀룰러 연결을 제공하기 위해 UAV에 설치된다. UAV는 쉬운 배치, 강력한 가시선 링크 및 이동성이 제어되는 자유도와 같은 고정 BS 인프라에서 볼 수 없는 특정 기능을 가지고 있다. 천재 지변 등의 긴급 상황 동안, 지상 통신 인프라의 배치는 경제적으로 실현 가능하지 않으며, 때로는 휘발성 환경에서 서비스를 제공할 수 없다. UAV는 이러한 상황을 쉽게 처리할 수 있다. UAV는 무선 통신 분야의 새로운 패러다임이 될 것이다. 이 기술은 eMBB, URLLC 및 mMTC 인 무선 네트워크의 세 가지 기본 요구 사항을 용이하게 한다. UAV는 또한, 네트워크 연결성 향상, 화재 감지, 재난 응급 서비스, 보안 및 감시, 오염 모니터링, 주차 모니터링, 사고 모니터링 등과 같은 여러 가지 목적을 지원할 수 있다. 따라서, UAV 기술은 6G 통신에 가장 중요한 기술 중 하나로 인식되고 있다.
셀-프리 통신(Cell-free Communication)
여러 주파수와 이기종 통신 기술의 긴밀한 통합은 6G 시스템에서 매우 중요하다. 결과적으로, 사용자는 디바이스에서 어떤 수동 구성을 만들 필요 없이 네트워크에서 다른 네트워크로 원활하게 이동할 수 있다. 사용 가능한 통신 기술에서 최상의 네트워크가 자동으로 선택된다. 이것은 무선 통신에서 셀 개념의 한계를 깨뜨릴 것이다. 현재, 하나의 셀에서 다른 셀로의 사용자 이동은 고밀도 네트워크에서 너무 많은 핸드 오버를 야기하고, 핸드 오버 실패, 핸드 오버 지연, 데이터 손실 및 핑퐁 효과를 야기한다. 6G 셀-프리 통신은 이 모든 것을 극복하고 더 나은 QoS를 제공할 것이다. 셀-프리 통신은 멀티 커넥티비티 및 멀티-티어 하이브리드 기술과 장치의 서로 다른 이기종 라디오를 통해 달성될 것이다.
무선 정보 및 에너지 전송 통합
WIET은 무선 통신 시스템과 같이 동일한 필드와 웨이브(wave)를 사용한다. 특히, 센서와 스마트폰은 통신 중 무선 전력 전송을 사용하여 충전될 것이다. WIET은 배터리 충전 무선 시스템의 수명을 연장하기 위한 유망한 기술이다. 따라서, 배터리가 없는 장치는 6G 통신에서 지원될 것이다.
센싱과 커뮤니케이션의 통합
자율 무선 네트워크는 동적으로 변화하는 환경 상태를 지속적으로 감지하고 서로 다른 노드간에 정보를 교환할 수 있는 기능이다. 6G에서, 감지는 자율 시스템을 지원하기 위해 통신과 긴밀하게 통합될 것이다.
액세스 백홀 네트워크의 통합
6G에서 액세스 네트워크의 밀도는 엄청날 것이다. 각 액세스 네트워크는 광섬유와 FSO 네트워크와 같은 백홀 연결로 연결된다. 매우 많은 수의 액세스 네트워크들에 대처하기 위해, 액세스 및 백홀 네트워크 사이에 긴밀한 통합이 있을 것이다.
홀로그램 빔 포밍
빔 포밍은 특정 방향으로 무선 신호를 전송하기 위해 안테나 배열을 조정하는 신호 처리 절차이다. 스마트 안테나 또는 진보된 안테나 시스템의 하위 집합이다. 빔 포밍 기술은 높은 호 대잡음비, 간섭 방지 및 거부, 높은 네트워크 효율과 같은 몇 가지 장점이 있다. 홀로그램 빔 포밍 (HBF)은 소프트웨어-정의된 안테나를 사용하기 때문에 MIMO 시스템과 상당히 다른 새로운 빔 포밍 방법이다. HBF는 6G에서 다중 안테나 통신 장치에서 신호의 효율적이고 유연한 전송 및 수신을 위해 매우 효과적인 접근 방식이 될 것이다.
빅 데이터 분석
빅 데이터 분석은 다양한 대규모 데이터 세트 또는 빅 데이터를 분석하기 위한 복잡한 프로세스이다. 이 프로세스는 숨겨진 데이터, 알 수 없는 상관 관계 및 고객 성향과 같은 정보를 찾아 완벽한 데이터 관리를 보장한다. 빅 데이터는 비디오, 소셜 네트워크, 이미지 및 센서와 같은 다양한 소스에서 수집된다. 이 기술은 6G 시스템에서 방대한 데이터를 처리하는 데 널리 사용된다.
Large Intelligent Surface(LIS)
THz 대역 신호의 경우 직진성이 강하여 방해물로 인한 음영 지역이 많이 생길 수 있는데, 이러한 음영 지역 근처에 LIS 설치함으로써 통신 권역을 확대하고 통신 안정성 강화 및 추가적인 부가 서비스가 가능한 LIS 기술이 중요하게 된다. LIS는 전자기 물질(electromagnetic materials)로 만들어진 인공 표면(artificial surface)이고, 들어오는 무선파와 나가는 무선파의 전파(propagation)을 변경시킬 수 있다. LIS는 massive MIMO의 확장으로 보여질 수 있으나, massive MIMO와 서로 다른 array 구조 및 동작 메커니즘이 다르다. 또한, LIS는 수동 엘리먼트(passive elements)를 가진 재구성 가능한 리플렉터(reflector)로서 동작하는 점 즉, 활성(active) RF chain을 사용하지 않고 신호를 수동적으로만 반사(reflect)하는 점에서 낮은 전력 소비를 가지는 장점이 있다. 또한, LIS의 수동적인 리플렉터 각각은 입사되는 신호의 위상 편이를 독립적으로 조절해야 하기 때문에, 무선 통신 채널에 유리할 수 있다. LIS 컨트롤러를 통해 위상 편이를 적절히 조절함으로써, 반사된 신호는 수신된 신호 전력을 부스트(boost)하기 위해 타겟 수신기에서 모여질 수 있다.
테라헤르츠(THz) 무선통신 일반
THz 무선통신은 대략 0.1~10THz(1THz=1012Hz)의 진동수를 가지는 THz파를 이용하여 무선통신을 이용하는 것으로, 100GHz 이상의 매우 높은 캐리어 주파수를 사용하는 테라헤르츠(THz) 대역 무선통신을 의미할 수 있다. THz파는 RF(Radio Frequency)/밀리미터(mm)와 적외선 대역 사이에 위치하며, (i) 가시광/적외선에 비해 비금속/비분극성 물질을 잘 투과하며 RF/밀리미터파에 비해 파장이 짧아 높은 직진성을 가지며 빔 집속이 가능할 수 있다. 또한, THz파의 광자 에너지는 수 meV에 불과하기 때문에 인체에 무해한 특성이 있다. THz 무선통신에 이용될 것으로 기대되는 주파수 대역은 공기 중 분자 흡수에 의한 전파 손실이 작은 D-밴드(110GHz~170GHz) 혹은 H-밴드(220GHz~325GHz) 대역일 수 있다. THz 무선통신에 대한 표준화 논의는 3GPP 이외에도 IEEE 802.15 THz working group을 중심으로 논의되고 있으며, IEEE 802.15의 Task Group (TG3d, TG3e)에서 발행되는 표준문서는 본 명세서에서 설명되는 내용을 구체화하거나 보충할 수 있다. THz 무선통신은 무선 인식(wireless cognition), 센싱(sensing), 이미징(imaging), 무선 통신(wireless), THz 네비게이션(navigation) 등에 응용될 수 있다. 도 11은 THz 통신 응용의 일례를 나타낸 도이다.
도 11에 도시된 바와 같이, THz 무선통신 시나리오는 매크로 네트워크(macro network), 마이크로 네트워크(micro network), 나노스케일 네트워크(nanoscale network)로 분류될 수 있다. 매크로 네트워크에서 THz 무선통신은 vehicle-to-vehicle 연결 및 backhaul/fronthaul 연결에 응용될 수 있다. 마이크로 네트워크에서 THz 무선통신은 인도어 스몰 셀(small cell), 데이터 센터에서 무선 연결과 같은 고정된 point-to-point 또는 multi-point 연결, 키오스크 다운로딩과 같은 근거리 통신(near-field communication)에 응용될 수 있다.
아래 표 2는 THz 파에서 이용될 수 있는 기술의 일례를 나타낸 표이다.
Figure PCTKR2020007899-appb-T000002
THz 무선통신은 THz 발생 및 수신을 위한 방법을 기준으로 분류할 수 있다. THz 발생 방법은 광 소자 또는 전자소자 기반 기술로 분류할 수 있다. 도 12는 전자소자 기반 THz 무선통신 송수신기의 일례를 나타낸 도이다.전자 소자를 이용하여 THz를 발생시키는 방법은 공명 터널링 다이오드(RTD: Resonant Tunneling Diode)와 같은 반도체 소자를 이용하는 방법, 국부 발진기와 체배기를 이용하는 방법, 화합물 반도체 HEMT(High Electron Mobility Transistor) 기반의 집적회로를 이용한 MMIC (Monolithic Microwave Integrated Circuits) 방법, Si-CMOS 기반의 집적회로를 이용하는 방법 등이 있다. 도 D2의 경우, 주파수를 높이기 위해 체배기(doubler, tripler, multiplier)가 적용되었고, 서브하모닉 믹서를 지나 안테나에 의해 방사된다. THz 대역은 높은 주파수를 형성하므로, 체배기가 필수적이다. 여기서, 체배기는 입력 대비 N배의 출력 주파수를 갖게 하는 회로이며, 원하는 하모닉 주파수에 정합시키고, 나머지 모든 주파수는 걸러낸다. 그리고, 도 12의 안테나에 배열 안테나 등이 적용되어 빔포밍이 구현될 수도 있다. 도 12에서, IF는 중간 주파수(intermediate frequency)를 나타내며, tripler, multipler는 체배기를 나타내며, PA 전력 증폭기(Power Amplifier)를 나타내며, LNA는 저잡음 증폭기(low noise amplifier), PLL은 위상동기회로(Phase-Locked Loop)를 나타낸다.
도 13은 광 소자 기반 THz 신호를 생성하는 방법의 일례를 나타낸 도이며, 도 14는 광 소자 기반 THz 무선통신 송수신기의 일례를 나타낸 도이다.
광 소자 기반 THz 무선통신 기술은 광소자를 이용하여 THz 신호를 발생 및 변조하는 방법을 말한다. 광 소자 기반 THz 신호 생성 기술은 레이저와 광변조기 등을 이용하여 초고속 광신호를 생성하고, 이를 초고속 광검출기를 이용하여 THz 신호로 변환하는 기술이다. 이 기술은 전자 소자만을 이용하는 기술에 비해 주파수를 증가시키기가 용이하고, 높은 전력의 신호 생성이 가능하며, 넓은 주파수 대역에서 평탄한 응답 특성을 얻을 수 있다. 광소자 기반 THz 신호 생성을 위해서는 도 D3에 도시된 바와 같이, 레이저 다이오드, 광대역 광변조기, 초고속 광검출기가 필요하다. 도 13의 경우, 파장이 다른 두 레이저의 빛 신호를 합파하여 레이저 간의 파장 차이에 해당하는 THz 신호를 생성하는 것이다. 도 D3에서, 광 커플러(Optical Coupler)는 회로 또는 시스템 간의 전기적 절연과의 결합을 제공하기 위해 광파를 사용하여 전기신호를 전송하도록 하는 반도체 디바이스를 의미하며, UTC-PD(Uni-Travelling Carrier Photo-Detector)은 광 검출기의 하나로서, 능동 캐리어(active carrier)로 전자를 사용하며 밴드갭 그레이딩(Bandgap Grading)으로 전자의 이동 시간을 감소시킨 소자이다. UTC-PD는 150GHz 이상에서 광검출이 가능하다. 도 D4에서, EDFA(Erbium-Doped Fiber Amplifier)는 어븀이 첨가된 광섬유 증폭기를 나타내며, PD(Photo Detector)는 광신호를 전기신호로 변환할 수 있는 반도체 디바이스를 나타내며, OSA는 각종 광통신 기능(광전 변환, 전광 변환 등)을 하나의 부품으로 모듈화시킨 광모듈(Optical Sub Aassembly)를 나타내며, DSO는 디지털 스토리지 오실로스코프(digital storage oscilloscope)를 나타낸다.
도 15 및 도 16을 참조하여 광전 변환기(또는 광전 컨버터)의 구조를 설명한다. 도 15는 광자 소스(Photoinc source) 기반 송신기의 구조를 예시하며, 도 16은 광 변조기(Optical modulator)의 구조를 예시한다.
일반적으로 레이저(Laser)의 광학 소스(Optical source)를 광파 가이드(Optical wave guide)를 통과시켜 신호의 위상(phase)등을 변화시킬 수 있다. 이때, 마이크로파 컨택트(Microwave contact) 등을 통해 전기적 특성을 변화시킴으로써 데이터를 싣게 된다. 따라서, 광학 변조기 출력(Optical modulator output)은 변조된(modulated) 형태의 파형으로 형성된다. 광전 변조기(O/E converter)는 비선형 크리스탈(nonlinear crystal)에 의한 광학 정류(optical rectification) 동작, 광전도 안테나(photoconductive antenna)에 의한 광전 변환(O/E conversion), 광속의 전자 다발(bunch of relativistic electrons)로부터의 방출(emission) 등에 따라 THz 펄스를 생성할 수 있다. 상기와 같은 방식으로 발생한 테라헤르츠 펄스(THz pulse)는 펨토 세컨드(femto second)부터 피코 세컨드(pico second)의 단위의 길이를 가질 수 있다. 광전 변환기(O/E converter)는 소자의 비선형성(non-linearity)을 이용하여, 하향 변환(Down conversion)을 수행한다.
테라헤르츠 스펙트럼의 용도(THz spectrum usage)를 고려할 때, 테라헤르츠 시스템을 위해서 고정된(fixed) 또는 모바일 서비스(mobile service) 용도로써 여러 개의 연속적인 기가헤르츠(contiguous GHz)의 대역들(bands)을 사용할 가능성이 높다. 아웃도어(outdoor) 시나리오 기준에 의하면, 1THz까지의 스펙트럼에서 산소 감쇠(Oxygen attenuation) 10^2 dB/km를 기준으로 가용 대역폭(Bandwidth)이 분류될 수 있다. 이에 따라 상기 가용 대역폭이 여러 개의 밴드 청크(band chunk)들로 구성되는 프레임워크(framework)가 고려될 수 있다. 상기 프레임워크의 일 예시로 하나의 캐리어(carrier)에 대해 테라헤르츠 펄스(THz pulse)의 길이를 50ps로 설정한다면, 대역폭(BW)은 약 20GHz가 된다.
적외선 대역(IR band)에서 테라헤르츠 대역(THz band)으로의 효과적인 하향 변환(Down conversion)은 광전 컨버터(O/E converter)의 비선형성(nonlinearity)을 어떻게 활용하는가에 달려 있다. 즉, 원하는 테라헤르츠 대역(THz band)으로 하향 변환(down conversion)하기 위해서는 해당 테라헤르츠 대역(THz band)에 옮기기에 가장 이상적인 비선형성(non-linearity)을 갖는 광전 변환기(O/E converter)의 설계가 요구된다. 만일 타겟으로 하는 주파수 대역에 맞지 않는 광전 변환기(O/E converter)를 사용하는 경우, 해당 펄스(pulse)의 크기(amplitude), 위상(phase)에 대하여 오류(error)가 발생할 가능성이 높다.
단일 캐리어(single carrier) 시스템에서는 광전 변환기 1개를 이용하여 테라헤르츠 송수신 시스템이 구현될 수 있다. 채널 환경에 따라 달라지지만 멀리 캐리어(Multi carrier) 시스템에서는 캐리어 수만큼 광전 변환기가 요구될 수 있다. 특히 전술한 스펙트럼 용도와 관련된 계획에 따라 여러 개의 광대역들을 이용하는 멀티 캐리어 시스템인 경우, 그 현상이 두드러지게 될 것이다. 이와 관련하여 상기 멀티 캐리어 시스템을 위한 프레임 구조가 고려될 수 있다. 광전 변환기를 기반으로 하향 주파수 변환된 신호는 특정 자원 영역(예: 특정 프레임)에서 전송될 수 있다. 상기 특정 자원 영역의 주파수 영역은 복수의 청크(chunk)들을 포함할 수 있다. 각 청크(chunk)는 적어도 하나의 컴포넌트 캐리어(CC)로 구성될 수 있다.
최근 심층 학습(Deep Learning) 기술의 발달로 많은 영역이 인공 지능(Artificial Intelligence, AI) 및/또는 머신 러닝(Machine Learning, ML)로 대체되고 있다. 특히, 반복적이고 지속적인 일이 요구되는 일에 적용할 경우, AI 및/또는 ML은 아주 효과적이다.
5G에서는 저밀도 패리티 체크(Low Density Parity Check, LDPC) 코드(code) 및 폴라(Polar) 코드(또는, 비 머신 러닝 기반 코드)라는 새로운 채널 코딩 기술이 도입되었다. 해당 코드는 기존의 터보(Turbo) 코드나 테일-비팅 컨벌루션 코드(Tail-Biting Convolutional Code, TBCC)를 능가하는 성능을 보여준다. 하지만, 이런 코드들은 개발 및 표준에 반영될 때, 백색 가우시안 잡음(Additive White Gaussian Noise, AWGN) 채널에 최적화되어 설계 되었다.
이와 달리, 통신에서 채널에 최적화 되지 않은 코드를 사용하면 다음과 같은 단점들이 있다. 기지국과 단말에 최적화 되지 않은 코드를 사용하면, 전송 중에 오류가 발생할 수 있고, 이를 정정하기 위해서 재전송(예: HARQ, ARQ(Automatic Repeat Request))을 해야 한다. 하이브리드 자동 반복 요청(Hybid Automatic Repeat Request, HARQ)을 사용하면, 기지국은 재전송할 데이터(data)를 저장해야 하고, 단말은 먼저 보내온 데이터와 재전송된 데이터를 결합(combing)하기 위해서 먼저 보내온 데이터를 저장해야 한다. 이를 위해서 큰 메모리가 필요할 수 있다. HARQ를 사용하지 않기 위해서 로버스트(Robust) 변조 및 코딩 스킴(Modulation Coding Scheme, MCS)을 사용하면, 자원의 낭비가 발생할 수 있다. 또한, 오류가 발생한 데이터의 재전송은 데이터의 처리율(Throughput)을 떨어뜨리고, 재전송을 위한 자원을 낭비하게 된다. 특히, HARQ가 테라(Tera) bps(bits per seconds) 전송에 사용될 경우, 재전송에 사용되는 메모리 및 자원의 낭비는 상대적으로 크게 증가할 수 있다.
한편, 코드를 처음부터 설계하는 것은, 많은 컴퓨팅 파워(Computing Power)가 요구된다. 또한, 이는 리얼 타임(real time) 통신에서 온라인(On-line) 설계에 많은 제약을 받게 된다.
AI의 적응성(adaptability)을 이용해서, 오프라인(Off-line)에서 AWGN 최적화 코드(optimized code)(예: LDPC 코드, 폴라 코드)를 찾고, 온라인(on-line)에서 이를 바탕으로 짧은 시간에 최적의 코드를 생성하는 방법이 제안될 수 있다. 이때, 온라인에서 생성된 코드를 기지국과 단말이 서로 동기화 절차(Procedure)를 통해서 코드(code) 동기화를 이룰 수 있다. 또한, 기지국과 단말이 통신하기 전에 둘 사이의 채널에 보다 최적화된 코드를 사용하면 통신중 발생하는 오류를 줄일 수 있다.
이는 향후, Beyond 5G/6G에서 요구하는 초고속 처리(ultra high throughput) 용 통신에서 자원을 줄이고 통신 품질을 높이는데 필요하다.
따라서, 본 명세서는 AL/ML 및 채널 정보에 기반해, AWGN 채널에 최적화된 코드로 Non-AWGN 채널(또는 실제 채널)에 적용하기 위한 최적의 코드를 생성하는 방법을 제안한다. 이를 통해, 본 명세서는 코드 성능을 높일 수 있을 뿐만 아니라 시스템의 처리량 및 자원의 효율을 향상시킬 수 있다.
예를 들어, 코드 업데이트를 위한 AI/ML 동작은 기지국(Base Station, BS)(예: gNB)이 수행할 수도 있고, 단말(User Equipment, UE)이 수행할 수도 있다.
예를 들어, 단말이 기지국에서 전송한 참조 심볼(Reference Symbol, RS)(또는, 참조 신호)을 이용해서 채널을 추정하고, 이를 이용해서 기지국 또는 단말이 기지국과 단말의 채널에 최적화된 코드를 생성할 수 있다. 생성된 코드에 대한 정보는 기지국과 단말에 동기화된 후, 단말과 기지국은 데이터 통신을 수행할 수 있다.
예를 들어, 단말(및/또는, 기지국)이 전송하는 채널 정보는 기지국(및/또는, 단말)이 학습(Training)에 필요한 정보의 형태로 제공될 수 있다. 예를 들면, 채널 정보는 신호 대 잡음 비(Signal to Noise Ratio, SNR), 채널 파워(Power), 최대 채널 지연(Max channel delay), 및/또는 채널 프로파일(channel profile) 등이 될수 있다. 또한, 채널 정보는 가공 및/또는 압축되어 제공될 수 있다. 그리고/또는, 기지국 및/또는 단말은 채널 정보와 AWGN 최적화 코드(optimized code)를 이용해서 채널에 최적화된 코드를 AI 및/또는 ML를 이용해서 업데이트(update)할 수 있다. 그리고/또는, 기지국(및/또는, 단말)은 업데이트된 코드를 단말(및/또는, 기지국)에 알려서 코드 동기화를 수행할 수 있다. 코드 동기화 후, 기지국과 단말은 새로운 코드를 기반으로 통신을 수행할 수 있다.
이하, 상기 제안 방법은 (i) 캐파빌리티, 그리고, (ii) 최적의 코드를 동기화하는 방법, 그리고 (iii) AI 및/또는 ML에 기반하여 최적의 코드를 탐색 또는 생성하는 방법, 그리고, (iv) 자손 코드를 생성하는 방법으로 구분하여 구체적으로 살펴본다.
이하, 본 명세서에서 설명되는 실시 예들은 설명의 편의를 위해 구분된 것일 뿐, 어느 실시 예의 일부 방법 및/또는 일부 구성 등이 다른 실시 예의 방법 및/또는 구성 등과 치환되거나, 상호 간 결합되어 적용될 수 있음은 물론이다.
본 명세서에서 ‘A/B’는 ‘A and B’, ‘A or B’ 그리고/또는 ‘A and/or B’를 해석될 수 있다.
캐파빌리티(Capability)
단말과 기지국은 코드 동기화 전에 (i) 디코더 캐파빌리티(Decoder Capability)(C) 그리고/또는 (ii) 러닝 캐파빌리티(Learning Capability)(L)를 동기화 해야할 수 있다. 이하, 본 명세서에서, 디코더 캐파빌리티(또는, 능력)와 러닝 캐파빌리티를 포함하는 정보는 능력 정보라 칭할 수도 있다.
디코더 캐파빌리티 및/또는 러닝 캐파빌리티의 경우, 상향링크(Uplink, UL)인지 하향링크(Downlink, DL)인지에 따라 전달 주체가 결정될 수 있다.
예를 들어, 하향링크인 경우 단말이 디코더 캐파빌리티 및/또는 러닝 캐파빌리티를 기지국에 전달해야 하고, 상향링크인 경우 기지국이 디코더 캐파빌리티 및/또는 러닝 캐파빌리티를 단말에게 전달해야 할 수 있다. 그리고/또는, 디코더 캐파빌리티 및/또는 러닝 캐파빌리티는 요청에 의해 전달될 수 있다. 예를 들어, 하향링크의 경우, 기지국은 전송하고자 하는 하향링크 데이터가 존재하는 경우, 단말에 캐파빌리티를 요청할 수 있고, 상향링크의 경우, 단말은 전송하고자 하는 상향링크 데이터가 존재하는 경우, 기지국에 캐파빌리티를 요청할 수 있다.
예를 들어, 디코더 캐파빌리티는 디코더 레벨을 나타내거나, 기존의 AWGN 최적화 코드를 사용할 지 머신 러닝에 기반한 최적의 코드를 사용할지를 나타내는 정보일 수 있다.
단말의 디코더 캐파빌리티는 크게 세가지 레벨(level)로 나뉠 수 있다.
(1) 레벨-1 단말(CUE=0)
CUE=0은 단말의 수신기 구조가 하드 와이어드(hard-wired)한 경우를 나타낼 수 있다. 예를 들어, 기지국이 최종의 C 값을 0으로 결정한 경우, 기존의 AWGN 최적화 코드(예: LDPC 코드, 폴라 코드)가 그대로 사용될 수 있다.
(2) 레벨-2 단말(CUE=1)
CUE=1은 단말의 수신기 구조가 부분적으로 플렉서블(partially flexible)한 경우를 나타낼 수 있다. 예를 들어, 단말이 CUE=1를 기지국에 전송한 경우에도, 기지국은 기설정된 약속에 따라 최종 C의 값을 0으로 결정할 수 있다. 이 경우, 단말과 기지국은 AWGN 최적화 코드를 그대로 이용할 수 있다.
예를 들어, 기지국이 최종의 C 값을 1로 결정한 경우, LDPC 코드의 기본 메트릭스(Base matrix)를 유지하고, 순환 순열 메트릭스(circulant permutation matrix, CPM)를 변경하여 자손 코드가 생성될 수 있다. 다시 말해, 자손 코드는 이하 설명할 변종1에 기반하여 생성될 수 있다.
(3) 레벨-3 단말(CUE=2)
CUE=2은 수신기 구조가 완전히 플렉서블(full flexible)한 경우를 나타낼 수 있다. 그리고/또는, 소프트웨어 기반 무선 통신(Software Defined Radio, SDR)와 같은 경우, LDPC 코드의 새로운 코드가 디코더(decoder)에 적용 가능하다. 예를 들어, 기지국이 최종의 C 값을 2로 결정한 경우, LDPC 코드의 기본 메트릭스와 CPM을 모두 변경하여 자손 코드가 생성될 수 있다. 다시 말해, 자손 코드는 이하 설명될 변종2, 및/또는 교차 등에 기반하여 생성될 수 있다.
단말의 러닝 캐파빌리티는 코드 탐색(Code Search)을 할 수 있는지 없는지를 나타내는 값일 수 있다. 예를 들어, 0의 값을 갖는 러닝 캐파빌리티는 단말이 머신 러닝 또는 코드 탐색을 수행할 수 없음을 나타내고, 1의 값을 갖는 러닝 캐파빌리티는 단말이 머신 러닝 또는 코드 탐색을 수행할 수 있음을 나타낼 수 있다. 예를 들어, 단말은 러닝 캐파빌리티가 1의 값을 갖고, 최종의 디코더 캐파빌리티가 1 또는 2의 값으로 결정된 경우, 머신 러닝 및 채널 정보에 기반하여 최적의 코드를 생성할 수 있다.
그리고/또는, 단말과 기지국의 코드 및/또는 러닝 캐파빌리티는 초기 연결(connection) 단계에서 결정될 수 있다.
예를 들어, 단말의 디코더 캐파빌리티와 러닝 캐파빌리티는 하향링크 전송에서 단말이 기지국에 전송하는 정보일 수 있다.
기지국의 디코더 캐파빌리티(Capability)(CBS)는 단말(User Equipment, UE)보다 많은 변수를 고려해야 할 수 있다. 기지국은 단말과 달리, 컴퓨팅 파워가 크지만 많은 단말을 동시에 처리해야 하기 때문이다. 따라서, 컴퓨팅 파워(Computing power)가 크다해서 무조건 단말이 원하는 캐파빌리티를 지원할 수는 없다. 기지국은 컴퓨팅 파워와 현재 기지국이 서비스해야 할 단말의 수도 고려해야 할 수 있다. 예를 들어, 서비스하는 모든 단말이 C=2를 지원할 경우, 컴퓨팅 파워가 부족할 수 있기 때문이다.
기지국은 단말 별로 기지국이 지원가능한 C를 결정하고 이를 단말과 동기화할 수 있다. 다시 말해, 기지국은 단말 별로 독립적으로 캐파빌리티를 동기화할 수 있다.
기지국의 코드 캐파빌리티(Code Capability)(또는 캐파빌리티)도 단말과 같이 세가지 레벨로 나뉠 수 있다.
(1) 레벨-1 기지국(CBS=0)
CBS=0은 기지국의 수신기 구조가 하드 와이어드(hard-wired)한 경우를 나타낼 수 있다. 예를 들어, 최종의 C 값이 0으로 결정된 경우, 기지국과 단말은 기존의 AWGN 최적화 코드를 그대로 사용할 수 있다.
(2) 레벨-2 기지국(CBS=1)
CBS=1은 기지국의 수신기 구조가 부분적으로 플렉서블한 경우를 나타낼 수 있다. 예를 들어, 최종의 C 값이 1로 결정된 경우, LDPC 코드의 기본 메트릭스(Base matrix)를 유지하고, 시프팅 값(Shifting-value)(또는 CPM)만 업데이트하여 자손 코드가 생성될 수 있다. 그리고/또는, CPM 전체 또는 변경된 CPM만 동기화될 수 있다.
(3) 레벨-3 기지국(CBS=2)
CBS=2는 기지국의 수신기 구조가 완전히 플렉서블(full flexible)한 경우를 나타낼 수 있다. 예를 들어, 최종의 C 값이 2로 결정된 경우, LDPC 코드의 기본 메트릭스(base matrix)와 CPM 전체가 업데이트 또는 변경되어 자손 코드가 생성될 수 있다.
예를 들어, 기지국의 디코더 캐파빌리티와 러닝 캐파빌리티는 상향링크 전송에서 기지국이 단말에 전송하는 정보일 수 있다.
단말 및/또는 기지국의 러닝 캐파빌리티(Learning Capability)(L)는 두가지로 나뉠 수 있다. 예를 들어, L=0은 학습(Learning) 할 수 없는 것을 지시(indication) 또는 나타내고, L=1은 학습 할 수 있음을 지시 또는 나타낼 수 있다.
다음, 최적의 코드를 동기화하는 방법에 대해 구체적으로 살펴본다.
최적의 코드를 동기화하는 방법
최적의 코드를 기지국과 단말 간 동기화하는 방법은 크게 (i) 하향링크를 위해 최적의 코드를 생성하는 경우와, 그리고/또는 (ii) 상향링크를 위해 최적의 코드를 생성하는 경우로 구분할 수 있다.
또한, 하향링크를 위해 최적의 코드를 생성하는 경우는 기지국에서 최적의 코드를 생성하는 경우와, 단말에서 최적의 코드를 생성하는 경우로, 상향링크를 위해 최적의 코드를 생성하는 경우는 단말에서 최적의 코드를 생성하는 경우와, 기지국에서 최적의 코드를 생성하는 경우로 구분할 수 있다.
하향링크를 위해 기지국이 최적의 코드를 생성하는 경우
도 17은 하향링크 전송에서 기지국에서 최적의 코드를 생성하는 방법의 흐름도이다.
이하, 설명되는 도 17에 도시된 방법은 단말이 LUE=0, CUE=1 또는 2를 전송하여, 기지국이 채널 정보 및/또는 머신 러닝에 기반하여 최적의 코드를 생성하는 경우를 예시한다. 예를 들어, 단말이 CUE=0을 전송한 경우, 기지국 및/또는 단말은 채널 정보 및/또는 머신 러닝에 기반하여 최적의 코드를 생성하는 것 없이 기존의 LDPC 코드 또는 폴라 코드 등을 이용하여 데이터를 송수신할 수 있다.
도 17을 참조하면, 단말은 S1701 단계에서, 캐파빌리티(Capability) (LUE 및/또는 CUE)를 기지국에 전송할 수 있다. 예를 들어, 단말은 코드를 생성하지 않기 때문에 LUE=0을 전송할 수 있다. 또는, 단말은 머신 러닝을 수행할 수 없기 때문에 LUE=0을 전송할 수 있다.
그리고/또는, 기지국은 S1702 단계에서, 단말에서 전송한 캐파빌리티(LUE 및/또는 CUE)를 이용해서 C(또는, 디코딩 레벨 정보)를 결정할 수 있다. 여기서, C는 C≤CUE일 수 있다. 그리고/또는 C는 C≤CUE 인 범위 내에서 기설정된 방식에 따라 결정된 CUE 일 수 있다. 예를 들어, 단말이 CUE=1을 전송한 경우에도, 기지국은 기설정된 방식에 따라 최종의 C 값을 0으로 결정할 수 있다.
그리고/또는, 결정된 C는 단말로 전송될 수 있다. 이 정보를 이용해 단말은 최종의 코드가 업데이트되는지 안되는지 알 수 있다.
그리고/또는, 단말은 S1703 단계에서, 단말에서 참조 신호(Reference Signal, RS)(예: CSI-RS)를 이용해서 채널 정보(예: 채널 상태 정보(Channel State Information, CSI))를 획득하고, 채널 정보를 기지국에 전송할 수 있다. 기지국은 채널 정보 및/또는 머신 러닝에 기반하여 최적의 코드를 생성할 수 있다.
그리고/또는, 기지국은 S1704 단계에서, 단말과 코드 동기화를 위해 최적의 코드에 대한 정보(또는, 새로운 코드(new code) 정보)를 전송할 수 있다. 최적의 코드에 대한 정보는 생성된 최적의 코드 자체 또는 최적의 코드의 인덱스를 의미할 수 있다. 다시 말해, 단말과 기지국은 생성될 수 있는 최적의 코드들의 집합을 기 설정 받을 수 있고, 기지국이 특정 최적의 코드의 인덱스만을 단말에 전송하여 코드 동기화를 수행할 수 있다.
그리고/또는, 단말은 S1705 단계에서, 최적의 코드에 대한 정보(또는, 새로운 코드 정보)에 대해 Ack(acknowledgement) 또는 Nack(negative acknowledgement)을 전송할 수 있다.
그리고/또는, 기지국은 S1706 단계에서, 최적의 코드에 기반하여 단말에 데이터를 전송하고, 단말은 최적의 코드에 기반하여 해당 데이터를 수신 및/또는 디코딩할 수 있다.
하향링크를 위해 단말이 최적의 코드를 생성하는 경우
도 18은 하향링크 전송에서 단말이 최적의 코드를 생성하는 방법의 흐름도이다.
이하, 설명되는 도 18에 도시된 방법은 단말이 LUE=1, CUE=1 또는 2를 전송하여, 단말이 채널 정보 및/또는 머신 러닝에 기반하여 최적의 코드를 생성하는 경우를 예시한다. 예를 들어, 단말이 CUE=0을 전송한 경우, 기지국 및/또는 단말은 채널 정보 및/또는 머신 러닝에 기반하여 최적의 코드를 생성하는 것 없이 기존의 LDPC 코드 또는 폴라 코드 등을 이용하여 데이터를 송수신할 수 있다.
도 18을 참조하면, 단말은 S1801 단계에서, 캐파빌리티(LUE 및/또는 CUE)를 전송할 수 있다. 단말은 LUE=1 값을 전송하고, 이를 기반으로 기지국과 동기화하는 과정을 수행할 수 있다. 그리고/또는, 기지국은 단말에서 전송한 캐파빌리티(LUE 및/또는 CUE)를 이용해서 C(또는, 디코딩 레벨 정보)를 결정할 수 있다. C는 C≤CUE 일 수 있다.
그리고/또는, 기지국은 S1802 단계에서, 결정된 C를 단말로 전송할 수 있다. 그리고/또는 C는 C≤CUE 인 범위 내에서 기설정된 방식에 따라 결정된 CUE 일 수 있다. 예를 들어, 이 정보를 이용해 단말은 코드 탐색(Code search)을 수행할 수 있다.
그리고/또는, 단말은 S1803 단계에서, RS(예: CSI-RS)를 이용해서 채널 정보(예: CSI)를 획득하고, 이를 이용해서 최적의 코드를 생성하며, 최적의 코드에 대한 정보를 전송할 수 있다. 최적의 코드에 대한 정보는 생성된 최적의 코드 자체 또는 최적의 코드의 인덱스를 의미할 수 있다. 다시 말해, 단말과 기지국은 생성될 수 있는 최적의 코드들의 집합을 기 설정 받을 수 있고, 단말이 특정 최적의 코드의 인덱스만을 기지국에 전송하여 코드 동기화를 수행할 수 있다.
그리고/또는, 기지국은 S1804 단계에서, 코드를 동기화 후, Ack을 전송하거나, 그리고/또는 데이터를 전송할 수 있다.
그리고/또는, 단말은 S1805 단계에서, Ack을 수신하면, 기지국에 데이터를 보내라고 알릴 수 있다.
그리고/또는, 기지국은 S1806 단계에서, 최적의 코드를 이용하여 데이터를 전송할 수 있다. 단말은 수신한 데이터를 최적의 코드를 이용하여 디코딩할 수 있다.
상향링크를 위해 단말이 최적의 코드를 생성하는 경우
상술한 코드 최적화(Code optimization), 시그널링(Signaling) 그리고/또는, 코드 동기화 절차는 상향링크에도 적용될 수 있다.
도 19는 상향링크 전송에서 단말이 최적의 코드를 생성하는 방법의 흐름도이다.
이하, 설명되는 도 19에 도시된 방법은 기지국이 LBS=0, CBS=1 또는 2를 전송하여, 단말이 채널 정보 및/또는 머신 러닝에 기반하여 최적의 코드를 생성하는 경우를 예시한다. 예를 들어, 기지국이 CBS=0을 전송한 경우, 기지국 및/또는 단말은 채널 정보 및/또는 머신 러닝에 기반하여 최적의 코드를 생성하는 것 없이 기존의 LDPC 코드 또는 폴라 코드 등을 이용하여 데이터를 송수신할 수 있다.
도 19를 참조하면, 기지국은 S1901 단계에서, 캐파빌리티(CBS 및/또는 LBS)를 전송할 수 있다. 이때, LBS=0일 수 있다.
그리고/또는, 단말은 S1902 단계에서, 기지국으로부터 수신한 캐파빌리티를 이용하여 최종 캐파빌리티(C)(또는, 디코딩 레벨 정보)를 결정 및/또는 전송할 수 있다.
그리고/또는, 기지국은 S1903 단계에서, RS(예: SRS)를 이용해서 채널 정보(예: CSI)를 획득하고, 그리고/또는 채널 정보를 단말에 전송할 수 있다. 단말은 채널 정보 및 머신 러닝에 기반하여 최적의 코드를 생성할 수 있다.
S1903 단계의 단말이 채널 정보를 얻는 방법은, 두가지 방법(방법 A, 방법 B)이 있을 수 있다.
방법 A는 기지국으로부터 추정된 채널 정보를 받지 않고, 채널 상호(Channel reciprocal) 특성을 이용하여 하향링크 CSI를 이용해서 상향링크 채널을 추정하는 방법이다. 방법 A의 경우, 기지국이 단말에 전송하는 채널 전보는 하향링크 CSI일 수 있다. 그리고/또는, 방법 A의 경우, 단말이 하향링크 CSI를 생성하기 때문에, 기지국은 단말에 채널 정보를 전송하는 동작을 생략할 수 있다.
방법 B는 기지국에서 측정 및 추정된 채널을 제어 채널(Control Channe l, CCH) 및/또는 공유 채널(Shared Channel, SCH)을 통해서 전달받아서 채널 정보를 획득하는 방법이다. 그리고/또는, 방법 A는 시 분할 다중화(Time Division Multiplexing, TDM)에서만 사용 가능하고, 방법 B는 TDM 및 주파수 분할 다중화(Frequency Division Multiplexing, FDM) 모두에서 사용 가능할 수 있다.
그리고/또는, 단말은 S1904 단계에서, 기지국과 코드 동기화를 위해 최적의 코드에 대한 정보(또는, 새로운 코드(new code) 정보)를 전송할 수 있다. 단말과 코드 동기화를 위해 최적의 코드에 대한 정보(또는, 새로운 코드(new code) 정보)를 전송할 수 있다. 최적의 코드에 대한 정보는 생성된 최적의 코드 자체 또는 최적의 코드의 인덱스를 의미할 수 있다. 다시 말해, 단말과 기지국은 생성될 수 있는 최적의 코드들의 집합을 기 설정 받을 수 있고, 단말이 특정 최적의 코드의 인덱스만을 기지국에 전송하여 코드 동기화를 수행할 수 있다.
그리고/또는, 기지국은 S1905 단계에서, 최적의 코드에 대한 정보(또는, 새로운 코드 정보)에 대해 Ack 또는 Nack을 전송할 수 있다.
그리고/또는, 단말은 S1906 단계에서, 최적의 코드에 기반하여 데이터를 코딩하고, 해당 데이터를 기지국에 전송할 수 있다. 기지국은 최적의 코드에 기반하여 해당 데이터를 수신 및/또는 디코딩할 수 있다.
상향링크를 위해 기지국이 최적의 코드를 생성하는 경우
상기의 코드 최적화, 시그널링 그리고/또는 코드 동기화 절차는 상향링크 에도 적용될 수 있다.
도 20은 상향링크 전송에서 기지국에서 최적의 코드를 생성하는 방법의 흐름도이다.
이하, 설명되는 도 20에 도시된 방법은 기지국이 LBS=1, CBS=1 또는 2를 전송하여, 기지국이 채널 정보 및/또는 머신 러닝에 기반하여 최적의 코드를 생성하는 경우를 예시한다. 예를 들어, 기지국이 CBS=0을 전송한 경우, 기지국 및/또는 단말은 채널 정보 및/또는 머신 러닝에 기반하여 최적의 코드를 생성하는 것 없이 기존의 LDPC 코드 또는 폴라 코드 등을 이용하여 데이터를 송수신할 수 있다.
도 20을 참조하면, 기지국은 S2001 단계에서, 캐파빌리티(CBS 및/또는 LBS)를 전송할 수 있다. 이때, LBS=1일 수 있다.
단말은 S2002 단계에서, 기지국에서 전송한 캐파빌리티(LBS 및/또는 CBS)를 이용해서 C(또는, 디코딩 레벨 정보)를 결정하고, 결정된 C를 기지국으로 전송할 수 있다. C는 C≤CBS일 수 있다. 기지국은 C를 이용해서 코드 탐색(Code search)을 수행할 수 있다.
그리고/또는, 기지국은 S2003 단계에서, RS(예: SRS)를 이용해서 채널 정보를 획득하고, 이를 이용해서 최적의 코드를 생성 및/또는 전송할 수 있다.
그리고/또는, 단말은 S2004 단계에서, 코드를 동기화한 후, Ack을 전송하거나, 그리고/또는 데이터를 전송할 수 있다.
그리고/또는, 기지국은 S2005 단계에서, Ack을 받으면, 단말에 데이터를 보내라고 알릴 수 있다.
그리고/또는, 단말은 S2006 단계에서, 최적의 코드에 기반하여 데이터를 코딩하고, 해당 데이터를 기지국으로 전송할 수 있다. 기지국은 최적의 코드에 기반하여 해당 데이터를 수신 및/또는 디코딩할 수 있다.
도 17 내지 도 20에 도시된 방법의 예시에서 기지국 또는 단말에서 생성된 최적의 코드는 다음의 방법(방법 1, 방법 2)으로 동기화될 수 있다.
방법 1은 기지국과 단말이 최종 캐파빌리티(Capability)에 대응하는 최적의 코드를 미리 생성해서 가지고 있고, 실제 운용 시 채널 상황에 대응하는 코드 인덱스를 서로 동기화하는 방법이다. 이경우, 시그널링 오버헤드(Signaling overhead)는 적지만, 코드의 유연성(flexibility)은 상대적으로 떨어질 수 있다. 코드 인덱스를 서로 전달하는 방법은 RRC나 CCH, SCH를 통해서 전달될 수 있다.
방법 2는 기지국과 단말이 최종 캐파빌리티(Capability)에 대응하는 최적의 코드를 생성하고, 코드 전체를 통신을 통해서 동기화 시키는 방법이다.
전송해야 할 값(예: 기본 메트릭스(Base matrix)와 CPM 값)이 많기 떄문에, 코드 전체는 제어 채널(Control Channel, CCH)이나 공유 채널(Shared Channel, CSCH)을 통해서 전송될 수 있다.
다음, AI 및/또는 ML에 기반하여 최적의 코드를 탐색 또는 생성하는 방법에 대해 구체적으로 살펴본다.
AI 및/또는 ML에 기반하여 최적의 코드를 탐색 또는 생성하는 방법
도 21은 기지국(또는 단말)에서 AI 및/또는 ML에 기반하여 최적의 코드(또는, 새로운 코드(new code), 머신 러닝 기반 코드)를 탐색 또는 생성하는 방법의 순서도이다. 이하, 동작(또는, 실시 예)은 기지국 또는 단말에서 수행될 수 있다. 본 명세서에서 AI 및/또는 ML은 머신 러닝으로 칭할 수도 있다.
예를 들어, 도 21은 도 17 및/또는 도 20의 절차에서 기지국 또는 단말이 코드 검색 또는 코드 생성을 수행하는 절차일 수 있다. 또는, 도 21은 도 18 및/또는 도 20의 절차에서 단말 또는 기지국이 코드 검색 또는 코드 생성을 수행하는 절차일 수 있다. 이때, 도 21의 "채널 상태 정보"는 단말 또는 기지국이 획득한 채널 정보를 의미할 수 있다.
구체적으로, 도 21을 참조하면, 먼저, 기지국 또는 단말은 S2101 단계에서, AWGN 최적화 코드(예: LDPC 코드 또는 폴라 코드)를 기반으로 초기 부모 코드(Parent code)를 생성할 수 있다. AWGN 최적화 코드는 기지국과 단말이 사전에 가지고 있는 코드일 수 있다. 예를 들어, 하나의 LDPC 코드를 초기 부모 코드로 하여 S2103 단계부터 S2107 단계까지의 동작이 수행될 수 있다. 이를 통해, M개 이상의 자손 코드들이 생성될 수 있다. 예를 들어, S2101 단계는 첫 번째 사이클에서만 동작할 뿐 첫 번째 이후 사이클에서는 동작하지 않을 수 있다.
이하, S2102 단계 내지 S2108 단계는 상기와 같이 첫 번째 사이클로 M개 이상의 자손 코드들이 생성된 이후의 동작을 전제로 설명한다.
그리고/또는, 기지국 또는 단말은 S2102 단계에서, 생성된 자손 코드들 중에서 임의로 M개를 선택할 수 있다. M은 동시에 검증할 수 있는 개수로 기지국의 컴퓨팅 파워(computing power)에 따라 제어 가능할 수 있다.
이하, S2103 단계 내지 S2105 단계는 M개의 코드에 대해 병렬적으로 처리되는 단계 또는 동작일 수 있다.
그리고/또는, 기지국 또는 단말은 S2103 단계에서, M개의 코드를 인코딩할 수 있다. 다시 말해, 기지국 또는 단말은 S2103 단계에서, 특정 데이터를 M개의 코드들 각각으로 인코딩할 수 있다.
그리고/또는, 기지국 또는 단말은 S2104 단계에서, M개의 인코딩된 코드들을 채널에 통과시킬 수 있다. 이 때의 채널은 기지국 또는 단말로부터 전송받은 채널 정보를 반영한 채널일 수 있다. 다시 말해, 기지국 또는 단말은 S2104 단계에서, M개의 선택된 코드들을 이용해 인코딩된 데이터들에 채널 정보(예: CSI)를 적용 또는 반영할 수 있다. 예를 들어, 인코딩 데이터들 각각은 상기 채널 정보가 반영되어 채널 정보에 대응하는 채널을 통해 송수신된 것과 같은 효과를 얻을 수 있다. 채널 정보는 기지국 또는 단말로부터 전송된 정보일 수 있다.
그리고/또는, 기지국 또는 단말은 S2105 단계에서, 선택된 코드들에 의해 인코딩되고 채널 정보가 반영된 M개의 데이터들 각각을 디코딩하여 블록 에러율(Block Error Rate, BLER)을 측정할 수 있다.
그리고/또는, 기지국 또는 단말은 S2106 단계에서, 측정한 BLER을 이용해서 부모 코드 세트(Parent code set)를 업데이트할 수 있다.
예를 들어, 기지국 또는 단말은 M개의 선택된 코드(또는 M개의 결과)와 기존의 S개의 코드로 구성된 부모 코드 세트를 이용해서 S+M개의 코드들로 구성된 부모 코드 세트를 생성할 수 이다. 그리고/또는, 기지국 또는 단말은 S+M개의 코드들을 BLER에 기반하여 오름차순으로 정리한 뒤, 그 중에서 낮은 인덱스(Index)(BLER 성능이 좋은 것들)의 S개의 코드들을 선택해서 새로운 부모 코드 세트를 생성할 수 있다.
도 22는 BLER에 의해 오름차순으로 부모 코드들을 정리한 그래프이다.
예를 들어, S+M개의 코드들은 BLER 성능이 좋은 것부터 차례대로 배열될 수 있다. 단말 또는 기지국은 이중 BLER 성능이 좋은 것부터 S개의 코드들을 선택하고 해당 코드들로 구성되는 부모 코드 세트를 생성할 수 있다. 예를 들어, S개의 코드들은 BLER 성능이 좋은 것부터 차례대로 인덱싱될 수 있다. 예를 들어, BLER 성능이 가장 좋은 코드는 1로 인덱싱될 수 있다. 여기서, 부모 코드 세트를 구성하는 S개의 코드들 각각은 부모 코드라 칭할 수도 있다.
그리고/또는, S개의 부모 코드들 중 2개의 코드는 수학식 1에 의해 선택될 수 있다.
그리고/또는, 기지국 또는 단말은 S2107 단계에서, 부모 코드 세트에서 임의의 부모 코드를 선택하고, 이를 이용해서 자손 코드(Offspring code)들을 생성할 수 있다. 예를 들어, 임의의 2개의 부모 코드가 선택될 수 있다. 예를 들어, 자손 코드들은 도 23 내지 도 24에서 설명한 유전 알고리즘의 방식으로 도 22의 부모 코드들 중 인덱스 4의 부모 코드와 인덱스 6의 부모 코드를 통해 생성될 수 있다. 예를 들어, 임의의 부모 코드(2개의 부모 코드들)는 아래 수학식 1의 확률 값에 의해 선택될 수 있다.
임의의 부모 코드를 선택하는 방법에는 이용(Exploitation) 및/또는 탐색(Exploration) 기법이 적용될 수 있다.
수학식 1은 S2107 단계에서 i 번째 부모 코드가 선택될 확률을 나타내는 수식이다.
Figure PCTKR2020007899-appb-M000001
“a”의 값에 따라 “I”번째 부모 코드를 선택할 확률의 조절이 가능하다. 예를 들어, a(a<0)는 AL/ML에 의해 도 21을 참조하여 설명한 동작의 사이클이 증가할수록 작아질 수 있다.
그리고/또는, “a”의 값이 작으면(예: -3,-2) 이용(Exploitation)을 수행하고, “a”의 값이 상대적으로 크면(예: -0.5, -1) 탐색(Exploration)을 수행할 수 있다.
탐색 반복(Search Iteration) 상 반복(Iteration)의 초기는 탐색(Exploration)에 가깝게, 반복(Iteration)의 후반부는 이용(Exploitation)을 수행할 수 있다. 즉, “a”의 값은 반복(Iteration)이 증가할 수 록 감소할 수 있다.
그리고/또는, 기지국 또는 단말은 S2102 단계에서 S2107 단계까지의 동작을 Imax 전까지 반복 수행 후, S2108 단계에서, 부모 코드 세트에서 BLER 성능이 가장 좋은 코드를 선택할 수 있다. 즉, 기지국 또는 단말은 Index=1인 코드를 최적의 코드로 선택할 수 있다. 여기서, 반복 횟수는 첫 번째 사이클을 포함한 횟수일 수 있다.
M과 Imax는 단말의 컴퓨팅 파워, 코드 검색 시간(code search time)을 고려해서 선택 및/또는 기설정될 수 있다. 그리고/또는, M과 Imax는 어플리케이션(Application)에 따라 선택 및/또는 기설정될 수 있다. 예를 들면, URLLC와 같은 레이턴시(Latency)가 중요한 경우, M, Imax가 작게 설정되어 코드 최적화(code optimization) 시간을 줄일 수 있다. 또는, 레이턴시에 둔감하고 고처리량(High throughput)을 필요로 하는 경우, M, Imax가 크게 설정되어 최적화된 코드를 생성해서 가능한 오류 없이 데이터를 전송하도록 할 수 있다.
다음, 자손 코드를 생성하는 방법에 대해 구체적으로 살펴본다.
자손 코드를 생성하는 방법
부모 코드에서 자손 코드를 생성하는 방법의 경우 AI의 유전 알고리즘(Genetic algorithm)이 사용될 수 있다.
유전 알고리즘에서 사용하는 방법은 변종과 교차의 두가지 형태가 있을 수 있다.
예를 들어, 21을 참조하여 설명한 자손 코드의 생성(S2107 단계)은 변종 및/또는 교차에 의해 생성될 수 있다. 예를 들어, 변종 및/또는 교차는 S2107 단계에서 여러 번 수행될 수 있다.
변종
LDPC 코드에서 변종은 임의로 H 메트릭스에서 엣지(edge)를 변경하는 것이다. 엣지를 변경하는 방법은 크게 두가지(변종1, 변종2)로 나뉠 수 있다.
도 23은 유전 알고리즘에서 사용하는 변종을 설명하기 위한 도면이다.
변종1의 경우, 도 23의 (a)와 같이, 기본 메트릭스(Base matrix)는 유지하고 CPM만 바꾸어 코드 최적화 또는 자손 코드 생성이 수행될 수 있다.
변종2는 도 23의 (b)와 같이, 기본 메트릭스의 엣지뿐만 아니라, CPM까지 바꾸는 것일 수 있다. 예를 들어, 변종2의 경우, 기본 메트릭스(Base matrix)와 CPM를 모두 바꾸어 코드 최적화 또는 자손 코드 생성이 수행될 수 있다.
도 23의 (a)는 변종1의 예시이다. AWGN 최적화 코드에서, CSI를 참조해서 CSI에 영향을 받는 변수 노드(Variable node)의 열(Column)에 있는 CPM을 임의의 값으로 변경함으로써 변종을 수행할 수 있다. 도 23의 (a)과 같이, H(0,0), H(1,3), H(3,1)의 값이, 6,7,1에서 5,2,3으로 변경될 수 있다. 변경 시 정보 부분(Information Part)(K 부분)만 변경하고 패리티 부분(Parity part)(M 부분)는 변경하지 않을 수 있다.
예를 들어, 변종1은 CUE 또는 CBS가 1인 경우 수행되고, 변종2는 CUE 또는 CBS가 2인 경우 수행될 수 있다. 그리고/또는, 교차는 CUE 또는 CBS가 2인 경우 수행될 수 있다. 그리고/또는, 변종과 교차의 결합은 CUE 또는 CBS가 2인 경우 수행될 수 있다.
교차(또는 교배)
도 24는 유전 알고리즘에서 사용하는 교차(또는 교배)를 설명하기 위한 도면이다.
교차(교배)는 도 24와 같이, 부모 코드의 일부를 서로 결합시켜서 새로운 코드를 생성하는 방법이다. 이 경우, 패리티(Parity) 부분(M 부분)은 변경하지 않을 수 있다.
교차(또는 교배)는 2개이상의 부모 코드의 일부를 서로 결합시켜서 새로운 코드를 생성하는 방법이다. 이 경우, 패리티는 변경하지 않을 수 있다. 도 24의 왼쪽과 오른쪽의 자손 코드(offspring code)는 A 부모 코드(Parent-A code)와 B 부모 코드(Parent-B code)의 행과 열(row-column)을 서로 교차해서 새로운 자손 코드를 생성한 예시이다. 예를 들어, 왼쪽의 자손 코드는 A 부모 코드의 2410의 부분과 B 부모 코드의 2430의 부분을 결합하여 생성된 코드일 수 있다. 오른쪽의 자손 코드는 A 부모 코드의 2420의 부분과 B 부모 코드의 2440의 부분을 결합하여 생성된 코드일 수 있다.
변종과 교차(또는 교배) 결합
또한, 자손 코드는 변종과 교차를 결합해서 생성될 수도 있다.
본 명세서의 제안 방법은 다음과 같은 특징이 있을 수 있다.
(1) 기지국과 단말은 두가지 캐파빌리티 레벨을 결정할 수 있다. 하나는 단말과 기지국 중 어디에서 코드 최적화를 할 것인지 결정하기 위한 것(예: LUE, LBS)이고, 다른 하나는 코드 최적화 레벨을 어떻게 할지 결정하기 위한 것(예: CUE, CBS)일 수 있다. 이를 통해서, 본 명세서에 따르면, 전체 통신의 지연 성능 및 신뢰성을 향상시킬 수있는 효과가 있다.
단말의 코드 최적화 레벨은 수신기의 유연성(flexibility)에 의해서 결정이 되나, 기지국은 기지국의 수신기의 유연성(flexibility) 뿐만 아니라, 서비스해야할 단말의 수를 고려해서 결정될 수 있다. 캐파빌리티(Capability)는 무선 자원 제어(Radio Resource Control, RRC) 신호, 제어 채널(Control Channel, CCH), 마스터 정보 블록(Master Information Block, MIB) 및/또는 시스템 정보 블록(System Information Block, SIB)을 통해서 전송될 수 있다.
(2) 상향링크 및/또는 하향링크 모두 최적의 코드로 통신하기 위해 코드 동기화 절차를 수행할 수 있다.
(3) 코드 검색을 위한 파라미터는 컴퓨팅 파워(Computing power)를 고려해서 선정할 수 있다. “a”값의 변경을 통해서 이용(Exploitation)과 탐색(Exploration)을 조절할 수 있다. 그리고/또는, M, Imax의 적정한 선택을 통해서 선능(Performance)과 탐색 시간(Search time)을 조절할 수 있다.
도 25는 본 명세서에서 제안하는 하향링크 전송에서 단말의 동작 방법을 설명하기 위한 흐름도이다.
도 25를 참조하면, 먼저, 단말(도 29 내지 도 38의 1000/2000)은 (i) 단말의 디코딩 레벨을 나타내는 제1 정보(예: CUE) 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보(예: LUE)를 기지국으로 전송할 수 있다(S2501).
예를 들어, 디코딩 레벨은 3가지로 나뉠 수 있다.
디코딩 레벨 1을 나타내는 제1 정보는 단말의 수신기 구조가 하드 와이어드(hard-wired)한 경우 전송될 수 있다. 그리고/또는, 예를 들어, 기지국이 최종적으로 디코딩 레벨 1을 나타내는 디코딩 레벨 정보를 단말에 전송한 경우, 비 머신 러닝 기반 코드(예: LDPC 코드 또는 폴라 코드)를 사용하여 데이터를 송수신할 수 있다.
디코딩 레벨 2을 나타내는 제1 정보는 단말의 수신기 구조가 부분적으로 플렉서블(partically flexible)한 경우 전송될 수 있다. 그리고/또는, 예를 들어, 기지국이 최종적으로 디코딩 레벨 2를 나타내는 디코딩 레벨 정보를 단말에 전송한 경우, 머신 러닝 기반 코드를 사용하여 데이터를 송수신할 수 있다. 예를 들어, 머신 러닝 기반 코드 생성 시 사용되는 비 머신 러닝 기반 코드가 LDPC 코드인 경우, 머신 러닝 기반 코드는 LDPC 코드의 기존 메트릭스는 유지하고 CPM만 변경(예: 변종1)하여 AI/ML을 이용해 생성될 수 있다.
디코딩 레벨 3을 나타내는 제1 정보는 단말의 수신기 구조가 완전히 블렉서블(full flexible)한 경우 전송될 수 있다. 그리고/또는, 예를 들어, 기지국이 최종적으로 디코딩 레벨 3을 나타내는 디코딩 레벨 정보를 단말에 전송한 경우, 머신 러닝 기반 코드를 사용하여 데이터를 송수신할 수 있다. 예를 들어, 머신 러닝 기반 코드 생성 시 사용되는 비 머신 러닝 기반 코드가 LDPC 코드인 경우, 머신 러닝 기반 코드는 LDPC 코드의 기존 메트릭스와 CPM을 모두 변경(예: 변종2, 교차)하여 AI/ML을 이용해 생성될 수 있다.
제2 정보는 단말이 머신 러닝에 기반하여 코드 탐색(Code Search)를 수행할 수 있는지 없는 지를 나타내는 정보일 수 있다. 예를 들어, 단말이 머신 러닝이 가능함을 나타내는 제2 정보를 전송하는 경우, 기지국과 단말은 머신 러닝 기반 코드를 생성할 필요가 있는 경우, 단말이 머신 러닝 기반 코드를 생성하는 것으로 결정될 수 있다.
단말이 머신 러닝이 가능하지 않음을 나타내는 제2 정보를 전송하고 기지국이 머신 러닝이 가능한 경우, 기지국과 단말은 머신 러닝 기반 코드를 생성할 필요가 있는 경우, 기지국이 머신 러닝 기반 코드를 생성하는 것으로 결정될 수 있다. 이때, 기지국은 머신 러닝이 가능함을 가정한다.
예를 들어, S2501 단계의 단말이 능력 정보를 전송하는 동작은 이하 설명될 도 29 내지 도 38의 장치에 의해 구현될 수 있다. 예를 들어, 도 30을 참조하면, 하나 이상의 프로세서(1020)는 능력 정보를 전송하기 위해 하나 이상의 메모리(1040) 및/또는 하나 이상의 RF 유닛(1060) 등을 제어할 수 있으며, 하나 이상의 RF 유닛(1060)은 능력 정보를 전송할 수 있다.
그리고/또는, 단말(도 29 내지 도 38의 1000/2000)은 제1 정보에 기반하여 디코딩 레벨 정보를 기지국으로부터 수신할 수 있다(S2502).
디코딩 레벨 정보는 기지국이 단말로부터 수신된 제1 정보에 기반하여 결정된 최종의 디코딩 레벨을 나타내는 정보일 수 있다.
예를 들어, S2502 단계의 단말이 디코딩 레벨 정보를 수신하는 동작은 이하 설명될 도 29 내지 도 38의 장치에 의해 구현될 수 있다. 예를 들어, 도 30을 참조하면, 하나 이상의 프로세서(1020)는 디코딩 레벨 정보를 수신하기 위해 하나 이상의 메모리(1040) 및/또는 하나 이상의 RF 유닛(1060) 등을 제어할 수 있으며, 하나 이상의 RF 유닛(1060)은 디코딩 레벨 정보를 수신할 수 있다.
그리고/또는, 단말(도 29 내지 도 38의 1000/2000)은 디코딩 레벨 정보 및 제2 정보에 기반하여 기지국으로부터 하향링크 데이터를 수신할 수 있다(S2503).
예를 들어, 하향링크 데이터를 수신하는 동작(S2503 단계)은, 머신 러닝 기반 코드의 이용을 나타내는 디코딩 레벨 정보 및 머신 러닝이 가능함을 나타내는 제2 정보에 기반하여, 머신 러닝 및 채널 정보를 이용해 머신 러닝 기반 코드를 생성하는 동작과, 머신 러닝 기반 코드에 대한 정보를 기지국으로 전송하는 동작과, 머신 러닝 기반 코드에 기반하여 하향링크 데이터를 기지국으로부터 수신하는 동작을 포함할 수 있다. 예를 들어, 머신 러닝 기반 코드에 기반하여 하향링크 데이터를 송수신한다 함은 상기 머신 러닝 기반 코드를 이용하여 하향링크 데이터를 인코딩 및/또는 디코딩하는 것을 의미할 수 있다.
그리고/또는, 상기 머신 러닝 기반 코드를 생성하는 동작은, 머신 러닝에 기반하여 n개의 코드를 생성하는 동작과, n개의 코드 및 채널 정보에 기반하여 n개의 데이터를 생성하는 동작과, n개의 데이터의 블록 에러율(Block Error Rate, BLER)에 기반하여 머신 러닝 기반 코드를 선택하는 동작을 포함할 수 있다.
그리고/또는, 하향링크 데이터를 수신하는 동작(S2503 단계)은, 머신 러닝 기반 코드의 이용을 나타내는 디코딩 레벨 정보 및 머신 러닝이 가능하지 않음을 나타내는 제2 정보에 기반하여, 채널 정보를 기지국으로 전송하는 동작과, 머신 러닝 기반 코드에 대한 정보를 기지국으로부터 수신하는 동작과, 머신 러닝 기반 코드에 기반하여 하향링크 데이터를 기지국으로부터 수신하는 동작을 포함할 수 있다.
그리고/또는, 하향링크 데이터를 수신하는 동작(S2503 단계)은, 비 머신 러닝 기반 코드의 이용을 나타내는 디코딩 레벨 정보에 기반하여, 비 머신 러닝 기반 코드를 이용해 하향링크 데이터를 상기 기지국으로부터 수신하는 동작을 포함할 수 있다. 예를 들어, 비 머신 러닝 기반 코드를 이용한다 함은 상기 비 머신 러닝 기반 코드를 이용하여 하향링크 데이터를 인코딩 및/또는 디코딩하는 것을 의미할 수 있다.
예를 들어, 비 머신 러닝 기반 코드는, 저밀도 패리티 체크(Low-Density Parity Check, LDPC) 코드 또는 폴라(Polar) 코드일 수 있다.
예를 들어, S2503 단계의 단말이 하향링크 데이터를 수신하는 동작은 이하 설명될 도 29 내지 도 38의 장치에 의해 구현될 수 있다. 예를 들어, 도 30을 참조하면, 하나 이상의 프로세서(1020)는 하향링크 데이터를 수신하기 위해 하나 이상의 메모리(1040) 및/또는 하나 이상의 RF 유닛(1060) 등을 제어할 수 있으며, 하나 이상의 RF 유닛(1060)은 하향링크 데이터를 수신할 수 있다.
그리고/또는, 단말(도 29 내지 도 38의 1000/2000)은 능력 정보에 대한 요청을 기지국으로부터 수신할 수 있다. 예를 들어, 기지국은 전송하고자 하는 하향링크 데이터가 존재하는 경우, 단말에 능력 정보를 요청할 수 있다.
예를 들어, 단말이 능력 정보에 대한 요청을 수신하는 동작은 이하 설명될 도 29 내지 도 38의 장치에 의해 구현될 수 있다. 예를 들어, 도 30을 참조하면, 하나 이상의 프로세서(1020)는 능력 정보에 대한 요청을 수신하기 위해 하나 이상의 메모리(1040) 및/또는 하나 이상의 RF 유닛(1060) 등을 제어할 수 있으며, 하나 이상의 RF 유닛(1060)은 능력 정보에 대한 요청을 수신할 수 있다.
도 25를 참조하여 설명한 단말의 동작은 도 1 내지 도 24를 참조하여 설명한 단말의 동작과 동일하므로 이외 상세한 설명은 생략한다.
상술한 시그널링(signaling) 및 동작은 이하 설명될 장치(예: 도 29 내지 도 38)에 의해 구현될 수 있다. 예를 들어, 상술한 시그널링 및 동작은 도 29 내지 도 38의 하나 이상의 프로세서(1010, 2020)에 의해 처리될 수 있으며, 상술한 시그널링 및 동작은 도 29 내지 도 38의 적어도 하나의 프로세서(예: 1010, 2020)를 구동하기 위한 명령어/프로그램(예: instruction, executable code) 형태로 메모리(예: 1040, 2040)에 저장될 수도 있다.
예를 들어, 하나 이상의 메모리들 및 상기 하나 이상의 메모리들과 기능적으로 연결되어 있는 하나 이상의 프로세서들을 포함하는 장치에 있어서, 하나 이상의 프로세서들은 장치가, (i) 디코딩 레벨을 나타내는 제1 정보 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보를 기지국으로 전송하고, 제1 정보에 기반하여 디코딩 레벨 정보를 기지국으로부터 수신하며, 디코딩 레벨 정보 및 제2 정보에 기반하여 기지국으로부터 하향링크 데이터를 수신하도록 할 수 있다.
다른 예로, 하나 이상의 명령어들을 저장하는 비일시적 컴퓨터 판독 가능 매체(computer readable medium, CRM)에 있어서, 하나 이상의 프로세서들에 의해 실행 가능한 하나 이상의 명령어들은 단말이, (i) 단말의 디코딩 레벨을 나타내는 제1 정보 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보를 기지국으로 전송하고, 제1 정보에 기반하여 디코딩 레벨 정보를 기지국으로부터 수신하며, 디코딩 레벨 정보 및 제2 정보에 기반하여 기지국으로부터 하향링크 데이터를 수신하도록 할 수 있다.
도 26은 본 명세서에서 제안하는 하향링크 전송에서 기지국의 동작 방법을 설명하기 위한 흐름도이다.
도 26을 참조하면, 먼저, 기지국(도 29 내지 도 38의 1000/2000)은 (i) 단말의 디코딩 레벨을 나타내는 제1 정보(예: CUE) 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보(예: LUE)를 단말로부터 수신할 수 있다(S2601).
예를 들어, 디코딩 레벨은 3가지로 나뉠 수 있다.
디코딩 레벨 1을 나타내는 제1 정보는 단말의 수신기 구조가 하드 와이어드(hard-wired)한 경우 전송될 수 있다. 그리고/또는, 예를 들어, 기지국이 최종적으로 디코딩 레벨 1을 나타내는 디코딩 레벨 정보를 단말에 전송한 경우, 비 머신 러닝 기반 코드(예: LDPC 코드 또는 폴라 코드)를 사용하여 데이터를 송수신할 수 있다.
디코딩 레벨 2을 나타내는 제1 정보는 단말의 수신기 구조가 부분적으로 플렉서블(partically flexible)한 경우 전송될 수 있다. 그리고/또는, 예를 들어, 기지국이 최종적으로 디코딩 레벨 2를 나타내는 디코딩 레벨 정보를 단말에 전송한 경우, 머신 러닝 기반 코드를 사용하여 데이터를 송수신할 수 있다. 예를 들어, 머신 러닝 기반 코드 생성 시 사용되는 비 머신 러닝 기반 코드가 LDPC 코드인 경우, 머신 러닝 기반 코드는 LDPC 코드의 기존 메트릭스는 유지하고 CPM만 변경(예: 변종1)하여 AI/ML을 이용해 생성될 수 있다.
디코딩 레벨 3을 나타내는 제1 정보는 단말의 수신기 구조가 완전히 블렉서블(full flexible)한 경우 전송될 수 있다. 그리고/또는, 예를 들어, 기지국이 최종적으로 디코딩 레벨 3을 나타내는 디코딩 레벨 정보를 단말에 전송한 경우, 머신 러닝 기반 코드를 사용하여 데이터를 송수신할 수 있다. 예를 들어, 머신 러닝 기반 코드 생성 시 사용되는 비 머신 러닝 기반 코드가 LDPC 코드인 경우, 머신 러닝 기반 코드는 LDPC 코드의 기존 메트릭스와 CPM을 모두 변경(예: 변종2, 교차)하여 AI/ML을 이용해 생성될 수 있다.
제2 정보는 단말이 머신 러닝에 기반하여 코드 탐색(Code Search)를 수행할 수 있는지 없는 지를 나타내는 정보일 수 있다. 예를 들어, 단말이 머신 러닝이 가능함을 나타내는 제2 정보를 전송하는 경우, 기지국과 단말은 머신 러닝 기반 코드를 생성할 필요가 있는 경우, 단말이 머신 러닝 기반 코드를 생성하는 것으로 결정될 수 있다.
단말이 머신 러닝이 가능하지 않음을 나타내는 제2 정보를 전송하고 기지국이 머신 러닝이 가능한 경우, 기지국과 단말은 머신 러닝 기반 코드를 생성할 필요가 있는 경우, 기지국이 머신 러닝 기반 코드를 생성하는 것으로 결정될 수 있다. 이때, 기지국은 머신 러닝이 가능함을 가정한다.
예를 들어, S2601 단계의 기지국이 능력 정보를 수신하는 동작은 이하 설명될 도 29 내지 도 38의 장치에 의해 구현될 수 있다. 예를 들어, 도 30을 참조하면, 하나 이상의 프로세서(1020)는 능력 정보를 수신하기 위해 하나 이상의 메모리(1040) 및/또는 하나 이상의 RF 유닛(1060) 등을 제어할 수 있으며, 하나 이상의 RF 유닛(1060)은 능력 정보를 수신할 수 있다.
그리고/또는, 기지국(도 29 내지 도 38의 1000/2000)은 제1 정보에 기반하여 디코딩 레벨 정보를 단말로 전송할 수 있다(S2602).
디코딩 레벨 정보는 기지국이 단말로부터 수신된 제1 정보에 기반하여 결정된 최종의 디코딩 레벨을 나타내는 정보일 수 있다.
예를 들어, S2602 단계의 기지국이 디코딩 레벨 정보를 전송하는 동작은 이하 설명될 도 29 내지 도 38의 장치에 의해 구현될 수 있다. 예를 들어, 도 30을 참조하면, 하나 이상의 프로세서(1020)는 디코딩 레벨 정보를 전송하기 위해 하나 이상의 메모리(1040) 및/또는 하나 이상의 RF 유닛(1060) 등을 제어할 수 있으며, 하나 이상의 RF 유닛(1060)은 디코딩 레벨 정보를 전송할 수 있다.
그리고/또는, 기지국(도 29 내지 도 38의 1000/2000)은 디코딩 레벨 정보 및 제2 정보에 기반하여 단말로 하향링크 데이터를 전송할 수 있다(S2603).
예를 들어, 하향링크 데이터를 전송하는 동작(S2603 단계)은, 머신 러닝 기반 코드의 이용을 나타내는 디코딩 레벨 정보 및 머신 러닝이 가능함을 나타내는 제2 정보에 기반하여, 머신 러닝 기반 코드에 대한 정보를 단말로부터 수신하는 동작과, 머신 러닝 기반 코드에 기반하여 하향링크 데이터를 단말로 전송하는 동작을 포함할 수 있다. 예를 들어, 머신 러닝 기반 코드에 기반하여 하향링크 데이터를 송수신한다 함은 상기 머신 러닝 기반 코드를 이용하여 하향링크 데이터를 인코딩 및/또는 디코딩하는 것을 의미할 수 있다.
그리고/또는, 하향링크 데이터를 전송하는 동작(S2603 단계)은, 머신 러닝 기반 코드의 이용을 나타내는 디코딩 레벨 정보 및 머신 러닝이 가능하지 않음을 나타내는 제2 정보에 기반하여, 채널 정보를 단말로부터 수신하는 동작과, 머신 러닝 및 채널 정보에 기반하여 머신 러닝 기반 코드를 생성하는 동작과, 머신 러닝 기반 코드에 대한 정보를 단말로 전송하는 동작과, 머신 러닝 기반 코드에 기반하여 하향링크 데이터를 단말로 전송하는 동작을 포함할 수 있다.
그리고/또는, 상기 머신 러닝 기반 코드를 생성하는 동작은, 머신 러닝에 기반하여 n개의 코드를 생성하는 동작과, n개의 코드 및 채널 정보에 기반하여 n개의 데이터를 생성하는 동작과, n개의 데이터의 블록 에러율(Block Error Rate, BLER)에 기반하여 머신 러닝 기반 코드를 선택하는 동작을 포함할 수 있다.
그리고/또는, 하향링크 데이터를 수신하는 동작(S2603 단계)은, 비 머신 러닝 기반 코드의 이용을 나타내는 디코딩 레벨 정보에 기반하여, 비 머신 러닝 기반 코드를 이용해 하향링크 데이터를 단말로 전송하는 동작을 포함할 수 있다. 예를 들어, 비 머신 러닝 기반 코드를 이용한다 함은 상기 비 머신 러닝 기반 코드를 이용하여 하향링크 데이터를 인코딩 및/또는 디코딩하는 것을 의미할 수 있다.
예를 들어, 비 머신 러닝 기반 코드는, 저밀도 패리티 체크(Low-Density Parity Check, LDPC) 코드 또는 폴라(Polar) 코드일 수 있다.
예를 들어, S2603 단계의 기지국이 하향링크 데이터를 전송하는 동작은 이하 설명될 도 29 내지 도 38의 장치에 의해 구현될 수 있다. 예를 들어, 도 30을 참조하면, 하나 이상의 프로세서(1020)는 하향링크 데이터를 전송하기 위해 하나 이상의 메모리(1040) 및/또는 하나 이상의 RF 유닛(1060) 등을 제어할 수 있으며, 하나 이상의 RF 유닛(1060)은 하향링크 데이터를 전송할 수 있다.
그리고/또는, 기지국(도 29 내지 도 38의 1000/2000)은 능력 정보에 대한 요청을 단말로 전송할 수 있다. 예를 들어, 기지국은 전송하고자 하는 하향링크 데이터가 존재하는 경우, 단말에 능력 정보를 요청할 수 있다.
예를 들어, 기지국이 능력 정보에 대한 요청을 전송하는 동작은 이하 설명될 도 29 내지 도 38의 장치에 의해 구현될 수 있다. 예를 들어, 도 30을 참조하면, 하나 이상의 프로세서(1020)는 능력 정보에 대한 요청을 전송하기 위해 하나 이상의 메모리(1040) 및/또는 하나 이상의 RF 유닛(1060) 등을 제어할 수 있으며, 하나 이상의 RF 유닛(1060)은 능력 정보에 대한 요청을 전송할 수 있다.
도 26을 참조하여 설명한 기지국의 동작은 도 1 내지 도 25를 참조하여 설명한 기지국의 동작과 동일하므로 이외 상세한 설명은 생략한다.
상술한 시그널링(signaling) 및 동작은 이하 설명될 장치(예: 도 29 내지 도 38)에 의해 구현될 수 있다. 예를 들어, 상술한 시그널링 및 동작은 도 29 내지 도 38의 하나 이상의 프로세서(1010, 2020)에 의해 처리될 수 있으며, 상술한 시그널링 및 동작은 도 29 내지 도 38의 적어도 하나의 프로세서(예: 1010, 2020)를 구동하기 위한 명령어/프로그램(예: instruction, executable code) 형태로 메모리(예: 1040, 2040)에 저장될 수도 있다.
예를 들어, 하나 이상의 메모리들 및 상기 하나 이상의 메모리들과 기능적으로 연결되어 있는 하나 이상의 프로세서들을 포함하는 장치에 있어서, 하나 이상의 프로세서들은 장치가, (i) 디코딩 레벨을 나타내는 제1 정보 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보를 단말로부터 수신하고, 제1 정보에 기반하여 디코딩 레벨 정보를 단말로 전송하며, 디코딩 레벨 정보 및 제2 정보에 기반하여 단말로 하향링크 데이터를 전송하도록 할 수 있다.
다른 예로, 하나 이상의 명령어들을 저장하는 비일시적 컴퓨터 판독 가능 매체(computer readable medium, CRM)에 있어서, 하나 이상의 프로세서들에 의해 실행 가능한 하나 이상의 명령어들은 기지국이, (i) 단말의 디코딩 레벨을 나타내는 제1 정보 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보를 단말로부터 수신하고, 제1 정보에 기반하여 디코딩 레벨 정보를 단말로 전송하며, 디코딩 레벨 정보 및 제2 정보에 기반하여 단말로 하향링크 데이터를 전송하도록 할 수 있다.
도 27은 본 명세서에서 제안하는 상향링크 전송에서 단말의 동작 방법을 설명하기 위한 흐름도이다.
도 27을 참조하면, 먼저, 단말(도 29 내지 도 38의 1000/2000)은 (i) 단말의 디코딩 레벨을 나타내는 제1 정보(예: CBS) 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보(예: LBS)를 기지국으로부터 수신할 수 있다(S2701).
예를 들어, 디코딩 레벨은 3가지로 나뉠 수 있다.
디코딩 레벨 1을 나타내는 제1 정보는 기지국의 수신기 구조가 하드 와이어드(hard-wired)한 경우 수신될 수 있다. 그리고/또는, 예를 들어, 단말이 최종적으로 디코딩 레벨 1을 나타내는 디코딩 레벨 정보를 기지국에 전송한 경우, 비 머신 러닝 기반 코드(예: LDPC 코드 또는 폴라 코드)를 사용하여 데이터를 송수신할 수 있다.
디코딩 레벨 2을 나타내는 제1 정보는 기지국의 수신기 구조가 부분적으로 플렉서블(partically flexible)한 경우 수신될 수 있다. 그리고/또는, 예를 들어, 단말이 최종적으로 디코딩 레벨 2를 나타내는 디코딩 레벨 정보를 기지국에 전송한 경우, 머신 러닝 기반 코드를 사용하여 데이터를 송수신할 수 있다. 예를 들어, 머신 러닝 기반 코드 생성 시 사용되는 비 머신 러닝 기반 코드가 LDPC 코드인 경우, 머신 러닝 기반 코드는 LDPC 코드의 기존 메트릭스는 유지하고 CPM만 변경(예: 변종1)하여 AI/ML을 이용해 생성될 수 있다.
디코딩 레벨 3을 나타내는 제1 정보는 기지국의 수신기 구조가 완전히 블렉서블(full flexible)한 경우 수신될 수 있다. 그리고/또는, 예를 들어, 단말이 최종적으로 디코딩 레벨 3을 나타내는 디코딩 레벨 정보를 기지국에 전송한 경우, 머신 러닝 기반 코드를 사용하여 데이터를 송수신할 수 있다. 예를 들어, 머신 러닝 기반 코드 생성 시 사용되는 비 머신 러닝 기반 코드가 LDPC 코드인 경우, 머신 러닝 기반 코드는 LDPC 코드의 기존 메트릭스와 CPM을 모두 변경(예: 변종2, 교차)하여 AI/ML을 이용해 생성될 수 있다.
제2 정보는 기지국이 머신 러닝에 기반하여 코드 탐색(Code Search)를 수행할 수 있는지 없는 지를 나타내는 정보일 수 있다. 예를 들어, 기지국이 머신 러닝이 가능함을 나타내는 제2 정보를 전송하는 경우, 기지국과 단말은 머신 러닝 기반 코드를 생성할 필요가 있는 경우, 기지국이 머신 러닝 기반 코드를 생성하는 것으로 결정될 수 있다.
기지국이 머신 러닝이 가능하지 않음을 나타내는 제2 정보를 전송하고 단말이 머신 러닝이 가능한 경우, 기지국과 단말은 머신 러닝 기반 코드를 생성할 필요가 있는 경우, 단말이 머신 러닝 기반 코드를 생성하는 것으로 결정될 수 있다. 이때, 단말은 머신 러닝이 가능함을 가정한다.
예를 들어, S2701 단계의 단말이 능력 정보를 수신하는 동작은 이하 설명될 도 29 내지 도 38의 장치에 의해 구현될 수 있다. 예를 들어, 도 30을 참조하면, 하나 이상의 프로세서(1020)는 능력 정보를 수신하기 위해 하나 이상의 메모리(1040) 및/또는 하나 이상의 RF 유닛(1060) 등을 제어할 수 있으며, 하나 이상의 RF 유닛(1060)은 능력 정보를 수신할 수 있다.
그리고/또는, 단말(도 29 내지 도 38의 1000/2000)은 제1 정보에 기반하여 디코딩 레벨 정보를 기지국으로 전송할 수 있다(S2702).
디코딩 레벨 정보는 단말이 기지국로부터 수신된 제1 정보에 기반하여 결정된 최종의 디코딩 레벨을 나타내는 정보일 수 있다.
예를 들어, S2502 단계의 단말이 디코딩 레벨 정보를 수신하는 동작은 이하 설명될 도 29 내지 도 38의 장치에 의해 구현될 수 있다. 예를 들어, 도 30을 참조하면, 하나 이상의 프로세서(1020)는 디코딩 레벨 정보를 수신하기 위해 하나 이상의 메모리(1040) 및/또는 하나 이상의 RF 유닛(1060) 등을 제어할 수 있으며, 하나 이상의 RF 유닛(1060)은 디코딩 레벨 정보를 수신할 수 있다.
그리고/또는, 단말(도 29 내지 도 38의 1000/2000)은 디코딩 레벨 정보 및 제2 정보에 기반하여 기지국으로부터 상향링크 데이터를 전송할 수 있다(S2703).
예를 들어, 상향링크 데이터를 전송하는 동작(S2703 단계)은, 머신 러닝 기반 코드의 이용을 나타내는 디코딩 레벨 정보 및 머신 러닝이 가능함을 나타내는 제2 정보에 기반하여, 머신 러닝 기반 코드에 대한 정보를 기지국으로부터 수신하는 동작과, 머신 러닝 기반 코드에 기반하여 상향링크 데이터를 기지국으로 전송하는 동작을 포함할 수 있다. 예를 들어, 머신 러닝 기반 코드에 기반하여 상향링크 데이터를 송수신한다 함은 상기 머신 러닝 기반 코드를 이용하여 상향링크 데이터를 인코딩 및/또는 디코딩하는 것을 의미할 수 있다.
그리고/또는, 상향링크 데이터를 전송하는 동작(S2703 단계)은, 머신 러닝 기반 코드의 이용을 나타내는 디코딩 레벨 정보 및 머신 러닝이 가능하지 않음을 나타내는 제2 정보에 기반하여, 채널 정보를 기지국으로부터 수신하는 동작과, 머신 러닝 및 채널 정보를 이용해 머신 러닝 기반 코드를 생성하는 동작과, 머신 러닝 기반 코드에 대한 정보를 기지국으로 전송하는 동작과, 머신 러닝 기반 코드에 기반하여 상향링크 데이터를 기지국으로 전송하는 동작을 포함할 수 있다.
그리고/또는, 상기 머신 러닝 기반 코드를 생성하는 동작은, 머신 러닝에 기반하여 n개의 코드를 생성하는 동작과, n개의 코드 및 채널 정보에 기반하여 n개의 데이터를 생성하는 동작과, n개의 데이터의 블록 에러율(Block Error Rate, BLER)에 기반하여 머신 러닝 기반 코드를 선택하는 동작을 포함할 수 있다.
그리고/또는, 상향링크 데이터를 전송하는 동작(S2703 단계)은, 비 머신 러닝 기반 코드의 이용을 나타내는 디코딩 레벨 정보에 기반하여, 비 머신 러닝 기반 코드를 이용해 상향링크 데이터를 기지국으로 전송하는 동작을 포함할 수 있다. 예를 들어, 비 머신 러닝 기반 코드는, 저밀도 패리티 체크(Low-Density Parity Check, LDPC) 코드 또는 폴라(Polar) 코드일 수 있다.
예를 들어, S2703 단계의 단말이 상향링크 데이터를 전송하는 동작은 이하 설명될 도 29 내지 도 38의 장치에 의해 구현될 수 있다. 예를 들어, 도 30을 참조하면, 하나 이상의 프로세서(1020)는 상향링크 데이터를 전송하기 위해 하나 이상의 메모리(1040) 및/또는 하나 이상의 RF 유닛(1060) 등을 제어할 수 있으며, 하나 이상의 RF 유닛(1060)은 상향링크 데이터를 전송할 수 있다.
그리고/또는, 단말(도 29 내지 도 38의 1000/2000)은 능력 정보에 대한 요청을 기지국으로 전송할 수 있다. 예를 들어, 단말은 전송하고자 하는 상향링크 데이터가 존재하는 경우, 기지국에 능력 정보를 요청할 수 있다.
예를 들어, 단말이 능력 정보에 대한 요청을 전송하는 동작은 이하 설명될 도 29 내지 도 38의 장치에 의해 구현될 수 있다. 예를 들어, 도 30을 참조하면, 하나 이상의 프로세서(1020)는 능력 정보에 대한 요청을 전송하기 위해 하나 이상의 메모리(1040) 및/또는 하나 이상의 RF 유닛(1060) 등을 제어할 수 있으며, 하나 이상의 RF 유닛(1060)은 능력 정보에 대한 요청을 전송할 수 있다.
도 27을 참조하여 설명한 단말의 동작은 도 1 내지 도 26을 참조하여 설명한 단말의 동작과 동일하므로 이외 상세한 설명은 생략한다.
상술한 시그널링(signaling) 및 동작은 이하 설명될 장치(예: 도 29 내지 도 38)에 의해 구현될 수 있다. 예를 들어, 상술한 시그널링 및 동작은 도 29 내지 도 38의 하나 이상의 프로세서(1010, 2020)에 의해 처리될 수 있으며, 상술한 시그널링 및 동작은 도 29 내지 도 38의 적어도 하나의 프로세서(예: 1010, 2020)를 구동하기 위한 명령어/프로그램(예: instruction, executable code) 형태로 메모리(예: 1040, 2040)에 저장될 수도 있다.
예를 들어, 하나 이상의 메모리들 및 상기 하나 이상의 메모리들과 기능적으로 연결되어 있는 하나 이상의 프로세서들을 포함하는 장치에 있어서, 하나 이상의 프로세서들은 장치가, (i) 디코딩 레벨을 나타내는 제1 정보 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보를 기지국부터 수신하고, 제1 정보에 기반하여 디코딩 레벨 정보를 기지국으로 전송하며, 디코딩 레벨 정보 및 제2 정보에 기반하여 기지국으로 상향링크 데이터를 전송하도록 할 수 있다.
다른 예로, 하나 이상의 명령어들을 저장하는 비일시적 컴퓨터 판독 가능 매체(computer readable medium, CRM)에 있어서, 하나 이상의 프로세서들에 의해 실행 가능한 하나 이상의 명령어들은 단말이, (i) 기지국의 디코딩 레벨을 나타내는 제1 정보 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보를 기지국으로부터 수신하고, 제1 정보에 기반하여 디코딩 레벨 정보를 기지국으로 전송하며, 디코딩 레벨 정보 및 제2 정보에 기반하여 기지국으로 상향링크 데이터를 전송하도록 할 수 있다.
도 28은 본 명세서에서 제안하는 상향링크 전송에서 기지국의 동작 방법을 설명하기 위한 흐름도이다.
도 28을 참조하면, 먼저, 기지국(도 29 내지 도 38의 1000/2000)은 (i) 단말의 디코딩 레벨을 나타내는 제1 정보(예: CBS) 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보(예: LBS)를 단말로 전송할 수 있다(S2801).
예를 들어, 디코딩 레벨은 3가지로 나뉠 수 있다.
디코딩 레벨 1을 나타내는 제1 정보는 기지국의 수신기 구조가 하드 와이어드(hard-wired)한 경우 전송될 수 있다. 그리고/또는, 예를 들어, 단말이 최종적으로 디코딩 레벨 1을 나타내는 디코딩 레벨 정보를 기지국에 전송한 경우, 비 머신 러닝 기반 코드(예: LDPC 코드 또는 폴라 코드)를 사용하여 데이터를 송수신할 수 있다.
디코딩 레벨 2을 나타내는 제1 정보는 기지국의 수신기 구조가 부분적으로 플렉서블(partically flexible)한 경우 전송될 수 있다. 그리고/또는, 예를 들어, 단말이 최종적으로 디코딩 레벨 2를 나타내는 디코딩 레벨 정보를 기지국에 전송한 경우, 머신 러닝 기반 코드를 사용하여 데이터를 송수신할 수 있다. 예를 들어, 머신 러닝 기반 코드 생성 시 사용되는 비 머신 러닝 기반 코드가 LDPC 코드인 경우, 머신 러닝 기반 코드는 LDPC 코드의 기존 메트릭스는 유지하고 CPM만 변경(예: 변종1)하여 AI/ML을 이용해 생성될 수 있다.
디코딩 레벨 3을 나타내는 제1 정보는 기지국의 수신기 구조가 완전히 블렉서블(full flexible)한 경우 전송될 수 있다. 그리고/또는, 예를 들어, 단말이 최종적으로 디코딩 레벨 3을 나타내는 디코딩 레벨 정보를 기지국에 전송한 경우, 머신 러닝 기반 코드를 사용하여 데이터를 송수신할 수 있다. 예를 들어, 머신 러닝 기반 코드 생성 시 사용되는 비 머신 러닝 기반 코드가 LDPC 코드인 경우, 머신 러닝 기반 코드는 LDPC 코드의 기존 메트릭스와 CPM을 모두 변경(예: 변종2, 교차)하여 AI/ML을 이용해 생성될 수 있다.
제2 정보는 기지국이 머신 러닝에 기반하여 코드 탐색(Code Search)를 수행할 수 있는지 없는 지를 나타내는 정보일 수 있다. 예를 들어, 기지국이 머신 러닝이 가능함을 나타내는 제2 정보를 전송하는 경우, 기지국과 단말은 머신 러닝 기반 코드를 생성할 필요가 있는 경우, 기지국이 머신 러닝 기반 코드를 생성하는 것으로 결정될 수 있다.
기지국이 머신 러닝이 가능하지 않음을 나타내는 제2 정보를 전송하고 단말이 머신 러닝이 가능한 경우, 기지국과 단말은 머신 러닝 기반 코드를 생성할 필요가 있는 경우, 단말이 머신 러닝 기반 코드를 생성하는 것으로 결정될 수 있다. 이때, 단말은 머신 러닝이 가능함을 가정한다.
예를 들어, S2801 단계의 기지국이 능력 정보를 전송하는 동작은 이하 설명될 도 29 내지 도 38의 장치에 의해 구현될 수 있다. 예를 들어, 도 30을 참조하면, 하나 이상의 프로세서(1020)는 능력 정보를 전송하기 위해 하나 이상의 메모리(1040) 및/또는 하나 이상의 RF 유닛(1060) 등을 제어할 수 있으며, 하나 이상의 RF 유닛(1060)은 능력 정보를 전송할 수 있다.
그리고/또는, 기지국(도 29 내지 도 38의 1000/2000)은 제1 정보에 기반하여 디코딩 레벨 정보를 단말로부터 수신할 수 있다(S2802).
디코딩 레벨 정보는 단말이 기지국로부터 수신된 제1 정보에 기반하여 결정된 최종의 디코딩 레벨을 나타내는 정보일 수 있다.
예를 들어, S2802 단계의 기지국이 디코딩 레벨 정보를 수신하는 동작은 이하 설명될 도 29 내지 도 38의 장치에 의해 구현될 수 있다. 예를 들어, 도 30을 참조하면, 하나 이상의 프로세서(1020)는 디코딩 레벨 정보를 수신하기 위해 하나 이상의 메모리(1040) 및/또는 하나 이상의 RF 유닛(1060) 등을 제어할 수 있으며, 하나 이상의 RF 유닛(1060)은 디코딩 레벨 정보를 수신할 수 있다.
그리고/또는, 기지국(도 29 내지 도 38의 1000/2000)은 디코딩 레벨 정보 및 제2 정보에 기반하여 단말로부터 상향링크 데이터를 수신할 수 있다(S2803).
예를 들어, 상향링크 데이터를 수신하는 동작(S2803 단계)은, 머신 러닝 기반 코드의 이용을 나타내는 디코딩 레벨 정보 및 머신 러닝이 가능함을 나타내는 제2 정보에 기반하여, 머신 러닝 기반 코드를 생성하는 동작과, 머신 러닝 기반 코드에 대한 정보를 단말에 전송하는 동작과, 머신 러닝 기반 코드에 기반하여 상향링크 데이터를 단말로부터 수신하는 동작을 포함할 수 있다. 예를 들어, 머신 러닝 기반 코드에 기반하여 상향링크 데이터를 송수신한다 함은 상기 머신 러닝 기반 코드를 이용하여 상향링크 데이터를 인코딩 및/또는 디코딩하는 것을 의미할 수 있다.
그리고/또는, 상기 머신 러닝 기반 코드를 생성하는 동작은, 머신 러닝에 기반하여 n개의 코드를 생성하는 동작과, n개의 코드 및 채널 정보에 기반하여 n개의 데이터를 생성하는 동작과, n개의 데이터의 블록 에러율(Block Error Rate, BLER)에 기반하여 머신 러닝 기반 코드를 선택하는 동작을 포함할 수 있다.
그리고/또는, 상향링크 데이터를 수신하는 동작(S2803 단계)은, 머신 러닝 기반 코드의 이용을 나타내는 디코딩 레벨 정보 및 머신 러닝이 가능하지 않음을 나타내는 제2 정보에 기반하여, 채널 정보를 단말로 전송하는 동작과, 머신 러닝 기반 코드에 대한 정보를 단말로부터 수신하는 동작과, 머신 러닝 기반 코드에 기반하여 상향링크 데이터를 단말로부터 수신하는 동작을 포함할 수 있다.
그리고/또는, 상향링크 데이터를 전송하는 동작(S2803 단계)은, 비 머신 러닝 기반 코드의 이용을 나타내는 디코딩 레벨 정보에 기반하여, 비 머신 러닝 기반 코드를 이용해 상향링크 데이터를 단말로부터 수신하는 동작을 포함할 수 있다. 예를 들어, 비 머신 러닝 기반 코드를 이용한다 함은 상기 비 머신 러닝 기반 코드를 이용하여 상향링크 데이터를 인코딩 및/또는 디코딩하는 것을 의미할 수 있다.
예를 들어, 비 머신 러닝 기반 코드는, 저밀도 패리티 체크(Low-Density Parity Check, LDPC) 코드 또는 폴라(Polar) 코드일 수 있다.
예를 들어, S2803 단계의 기지국이 상향링크 데이터를 수신하는 동작은 이하 설명될 도 29 내지 도 38의 장치에 의해 구현될 수 있다. 예를 들어, 도 30을 참조하면, 하나 이상의 프로세서(1020)는 상향링크 데이터를 수신하기 위해 하나 이상의 메모리(1040) 및/또는 하나 이상의 RF 유닛(1060) 등을 제어할 수 있으며, 하나 이상의 RF 유닛(1060)은 상향링크 데이터를 수신할 수 있다.
그리고/또는, 기지국(도 29 내지 도 38의 1000/2000)은 능력 정보에 대한 요청을 단말로부터 수신할 수 있다. 예를 들어, 단말은 전송하고자 하는 상향링크 데이터가 존재하는 경우, 기지국에 능력 정보를 요청할 수 있다.
예를 들어, 기지국이 능력 정보에 대한 요청을 수신하는 동작은 이하 설명될 도 29 내지 도 38의 장치에 의해 구현될 수 있다. 예를 들어, 도 30을 참조하면, 하나 이상의 프로세서(1020)는 능력 정보에 대한 요청을 수신하기 위해 하나 이상의 메모리(1040) 및/또는 하나 이상의 RF 유닛(1060) 등을 제어할 수 있으며, 하나 이상의 RF 유닛(1060)은 능력 정보에 대한 요청을 수신할 수 있다.
도 28을 참조하여 설명한 기지국의 동작은 도 1 내지 도 27를 참조하여 설명한 기지국의 동작과 동일하므로 이외 상세한 설명은 생략한다.
상술한 시그널링(signaling) 및 동작은 이하 설명될 장치(예: 도 29 내지 도 38)에 의해 구현될 수 있다. 예를 들어, 상술한 시그널링 및 동작은 도 29 내지 도 38의 하나 이상의 프로세서(1010, 2020)에 의해 처리될 수 있으며, 상술한 시그널링 및 동작은 도 29 내지 도 38의 적어도 하나의 프로세서(예: 1010, 2020)를 구동하기 위한 명령어/프로그램(예: instruction, executable code) 형태로 메모리(예: 1040, 2040)에 저장될 수도 있다.
예를 들어, 하나 이상의 메모리들 및 상기 하나 이상의 메모리들과 기능적으로 연결되어 있는 하나 이상의 프로세서들을 포함하는 장치에 있어서, 하나 이상의 프로세서들은 장치가, (i) 기지국의 디코딩 레벨을 나타내는 제1 정보 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보를 단말로 전송하고, 제1 정보에 기반하여 디코딩 레벨 정보를 단말로부터 수신하며, 디코딩 레벨 정보 및 제2 정보에 기반하여 단말로부터 상향링크 데이터를 수신하도록 할 수 있다.
다른 예로, 하나 이상의 명령어들을 저장하는 비일시적 컴퓨터 판독 가능 매체(computer readable medium, CRM)에 있어서, 하나 이상의 프로세서들에 의해 실행 가능한 하나 이상의 명령어들은 기지국이, (i) 기지국의 디코딩 레벨을 나타내는 제1 정보 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보를 단말로 전송하고, 제1 정보에 기반하여 디코딩 레벨 정보를 단말로부터 수신하며, 디코딩 레벨 정보 및 제2 정보에 기반하여 단말로부터 상향링크 데이터를 수신하도록 할 수 있다.
본 발명이 적용되는 통신 시스템 예
이로 제한되는 것은 아니지만, 본 문서에 개시된 본 발명의 다양한 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 기기들간에 무선 통신/연결(예, 5G)을 필요로 하는 다양한 분야에 적용될 수 있다.
이하, 도면을 참조하여 보다 구체적으로 예시한다. 이하의 도면/설명에서 동일한 도면 부호는 다르게 기술하지 않는 한, 동일하거나 대응되는 하드웨어 블블록, 소프트웨어 블록 또는 기능 블록을 예시할 수 있다.
도 29는 본 발명에 적용되는 통신 시스템(10)을 예시한다.
도 29를 참조하면, 본 발명에 적용되는 통신 시스템(10)은 무선 기기, 기지국 및 네트워크를 포함한다. 여기서, 무선 기기는 무선 접속 기술(예, 5G NR(New RAT), LTE(Long Term Evolution))을 이용하여 통신을 수행하는 기기를 의미하며, 통신/무선/5G 기기로 지칭될 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(1000a), 차량(1000b-1, 1000b-2), XR(eXtended Reality) 기기(1000c), 휴대 기기(Hand-held device)(1000d), 가전(1000e), IoT(Internet of Thing) 기기(1000f), AI기기/서버(4000)를 포함할 수 있다. 예를 들어, 차량은 무선 통신 기능이 구비된 차량, 자율 주행 차량, 차량간 통신을 수행할 수 있는 차량 등을 포함할 수 있다. 여기서, 차량은 UAV(Unmanned Aerial Vehicle)(예, 드론)를 포함할 수 있다. XR 기기는 AR(Augmented Reality)/VR(Virtual Reality)/MR(Mixed Reality) 기기를 포함하며, HMD(Head-Mounted Device), 차량에 구비된 HUD(Head-Up Display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등의 형태로 구현될 수 있다. 휴대 기기는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 컴퓨터(예, 노트북 등) 등을 포함할 수 있다. 가전은 TV, 냉장고, 세탁기 등을 포함할 수 있다. IoT 기기는 센서, 스마트미터 등을 포함할 수 있다. 예를 들어, 기지국, 네트워크는 무선 기기로도 구현될 수 있으며, 특정 무선 기기(2000a)는 다른 무선 기기에게 기지국/네트워크 노드로 동작할 수도 있다.
무선 기기(1000a~1000f)는 기지국(2000)을 통해 네트워크(3000)와 연결될 수 있다. 무선 기기(1000a~1000f)에는 AI(Artificial Intelligence) 기술이 적용될 수 있으며, 무선 기기(1000a~1000f)는 네트워크(300)를 통해 AI 서버(4000)와 연결될 수 있다. 네트워크(3000)는 3G 네트워크, 4G(예, LTE) 네트워크 또는 5G(예, NR) 네트워크 등을 이용하여 구성될 수 있다. 무선 기기(1000a~1000f)는 기지국(2000)/네트워크(3000)를 통해 서로 통신할 수도 있지만, 기지국/네트워크를 통하지 않고 직접 통신(e.g. 사이드링크 통신(sidelink communication))할 수도 있다. 예를 들어, 차량들(1000b-1, 1000b-2)은 직접 통신(e.g. V2V(Vehicle to Vehicle)/V2X(Vehicle to everything) communication)을 할 수 있다. 또한, IoT 기기(예, 센서)는 다른 IoT 기기(예, 센서) 또는 다른 무선 기기(1000a~1000f)와 직접 통신을 할 수 있다.
무선 기기(1000a~1000f)/기지국(2000), 기지국(2000)/기지국(2000) 간에는 무선 통신/연결(1500a, 1500b, 1500c)이 이뤄질 수 있다. 여기서, 무선 통신/연결은 상향/하향링크 통신(1500a)과 사이드링크 통신(1500b)(또는, D2D 통신), 기지국간 통신(1500c)(e.g. relay, IAB(Integrated Access Backhaul)과 같은 다양한 무선 접속 기술(예, 5G NR)을 통해 이뤄질 수 있다. 무선 통신/연결(1500a, 1500b, 1500c)을 통해 무선 기기와 기지국/무선 기기, 기지국과 기지국은 서로 무선 신호를 송신/수신할 수 있다. 예를 들어, 무선 통신/연결(1500a, 1500b, 1500c)은 다양한 물리 채널을 통해 신호를 송신/수신할 수 있다. 이를 위해, 본 발명의 다양한 제안들에 기반하여, 무선 신호의 송신/수신을 위한 다양한 구성정보 설정 과정, 다양한 신호 처리 과정(예, 채널 인코딩/디코딩, 변조/복조, 자원 매핑/디매핑 등), 자원 할당 과정 등 중 적어도 일부가 수행될 수 있다.
본 발명이 적용되는 무선 기기 예
도 30은 본 발명에 적용될 수 있는 무선 기기를 예시한다.
도 30을 참조하면, 제1 무선 기기(1000)와 제2 무선 기기(2000)는 다양한 무선 접속 기술(예, LTE, NR)을 통해 무선 신호를 송수신할 수 있다. 여기서, {제1 무선 기기(1000), 제2 무선 기기(2000)}은 도 32의 {무선 기기(1000x), 기지국(2000)} 및/또는 {무선 기기(1000x), 무선 기기(1000x)}에 대응할 수 있다.
제1 무선 기기(1000)는 하나 이상의 프로세서(1020) 및 하나 이상의 메모리(1040)를 포함하며, 추가적으로 하나 이상의 송수신기(1060) 및/또는 하나 이상의 안테나(1080)을 더 포함할 수 있다. 프로세서(1020)는 메모리(1040) 및/또는 송수신기(1060)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(1020)는 메모리(1040) 내의 정보를 처리하여 제1 정보/신호를 생성한 뒤, 송수신기(1060)을 통해 제1 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(1020)는 송수신기(1060)를 통해 제2 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제2 정보/신호의 신호 처리로부터 얻은 정보를 메모리(1040)에 저장할 수 있다. 메모리(1040)는 프로세서(1020)와 연결될 수 있고, 프로세서(1020)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(1040)는 프로세서(1020)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(1020)와 메모리(1040)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(1060)는 프로세서(1020)와 연결될 수 있고, 하나 이상의 안테나(1080)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(1060)는 송신기 및/또는 수신기를 포함할 수 있다. 송수신기(1060)는 RF(Radio Frequency) 유닛과 혼용될 수 있다. 본 발명에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
제2 무선 기기(2000)는 하나 이상의 프로세서(2020), 하나 이상의 메모리(2040)를 포함하며, 추가적으로 하나 이상의 송수신기(2060) 및/또는 하나 이상의 안테나(2080)를 더 포함할 수 있다. 프로세서(2020)는 메모리(2040) 및/또는 송수신기(2060)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(2020)는 메모리(2040) 내의 정보를 처리하여 제3 정보/신호를 생성한 뒤, 송수신기(2060)를 통해 제3 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(2020)는 송수신기(2060)를 통해 제4 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제4 정보/신호의 신호 처리로부터 얻은 정보를 메모리(2040)에 저장할 수 있다. 메모리(2040)는 프로세서(2020)와 연결될 수 있고, 프로세서(2020)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(2040)는 프로세서(2020)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(2020)와 메모리(2040)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(2060)는 프로세서(2020)와 연결될 수 있고, 하나 이상의 안테나(2080)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(2060)는 송신기 및/또는 수신기를 포함할 수 있다 송수신기(2060)는 RF 유닛과 혼용될 수 있다. 본 발명에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
이하, 무선 기기(1000, 2000)의 하드웨어 요소에 대해 보다 구체적으로 설명한다. 이로 제한되는 것은 아니지만, 하나 이상의 프로토콜 계층이 하나 이상의 프로세서(1020, 2020)에 의해 구현될 수 있다. 예를 들어, 하나 이상의 프로세서(1020, 2020)는 하나 이상의 계층(예, PHY, MAC, RLC, PDCP, RRC, SDAP와 같은 기능적 계층)을 구현할 수 있다. 하나 이상의 프로세서(1020, 2020)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 하나 이상의 PDU(Protocol Data Unit) 및/또는 하나 이상의 SDU(Service Data Unit)를 생성할 수 있다. 하나 이상의 프로세서(1020, 2020)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 메시지, 제어정보, 데이터 또는 정보를 생성할 수 있다. 하나 이상의 프로세서(1020, 2020)는 본 문서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 포함하는 신호(예, 베이스밴드 신호)를 생성하여, 하나 이상의 송수신기(1060, 2060)에게 제공할 수 있다. 하나 이상의 프로세서(1020, 2020)는 하나 이상의 송수신기(1060, 2060)로부터 신호(예, 베이스밴드 신호)를 수신할 수 있고, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 획득할 수 있다.
하나 이상의 프로세서(1020, 2020)는 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 마이크로 컴퓨터로 지칭될 수 있다. 하나 이상의 프로세서(1020, 2020)는 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합에 의해 구현될 수 있다. 일 예로, 하나 이상의 ASIC(Application Specific Integrated Circuit), 하나 이상의 DSP(Digital Signal Processor), 하나 이상의 DSPD(Digital Signal Processing Device), 하나 이상의 PLD(Programmable Logic Device) 또는 하나 이상의 FPGA(Field Programmable Gate Arrays)가 하나 이상의 프로세서(1020, 2020)에 포함될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있고, 펌웨어 또는 소프트웨어는 모듈, 절차, 기능 등을 포함하도록 구현될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 수행하도록 설정된 펌웨어 또는 소프트웨어는 하나 이상의 프로세서(1020, 2020)에 포함되거나, 하나 이상의 메모리(1040, 2040)에 저장되어 하나 이상의 프로세서(1020, 2020)에 의해 구동될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 코드, 명령어 및/또는 명령어의 집합 형태로 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있다.
하나 이상의 메모리(1040, 2040)는 하나 이상의 프로세서(1020, 2020)와 연결될 수 있고, 다양한 형태의 데이터, 신호, 메시지, 정보, 프로그램, 코드, 지시 및/또는 명령을 저장할 수 있다. 하나 이상의 메모리(1040, 2040)는 ROM, RAM, EPROM, 플래시 메모리, 하드 드라이브, 레지스터, 캐쉬 메모리, 컴퓨터 판독 저장 매체 및/또는 이들의 조합으로 구성될 수 있다. 하나 이상의 메모리(1040, 2040)는 하나 이상의 프로세서(1020, 2020)의 내부 및/또는 외부에 위치할 수 있다. 또한, 하나 이상의 메모리(1040, 2040)는 유선 또는 무선 연결과 같은 다양한 기술을 통해 하나 이상의 프로세서(1020, 2020)와 연결될 수 있다.
하나 이상의 송수신기(1060, 2060)는 하나 이상의 다른 장치에게 본 문서의 방법들 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 전송할 수 있다. 하나 이상의 송수신기(1060, 2060)는 하나 이상의 다른 장치로부터 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 수신할 수 있다. 예를 들어, 하나 이상의 송수신기(1060, 2060)는 하나 이상의 프로세서(1020, 2020)와 연결될 수 있고, 무선 신호를 송수신할 수 있다. 예를 들어, 하나 이상의 프로세서(1020, 2020)는 하나 이상의 송수신기(1060, 2060)가 하나 이상의 다른 장치에게 사용자 데이터, 제어 정보 또는 무선 신호를 전송하도록 제어할 수 있다. 또한, 하나 이상의 프로세서(1020, 2020)는 하나 이상의 송수신기(1060, 2060)가 하나 이상의 다른 장치로부터 사용자 데이터, 제어 정보 또는 무선 신호를 수신하도록 제어할 수 있다. 또한, 하나 이상의 송수신기(1060, 2060)는 하나 이상의 안테나(1080, 2080)와 연결될 수 있고, 하나 이상의 송수신기(1060, 2060)는 하나 이상의 안테나(1080, 2080)를 통해 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 송수신하도록 설정될 수 있다. 본 문서에서, 하나 이상의 안테나는 복수의 물리 안테나이거나, 복수의 논리 안테나(예, 안테나 포트)일 수 있다. 하나 이상의 송수신기(1060, 2060)는 수신된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 하나 이상의 프로세서(1020, 2020)를 이용하여 처리하기 위해, 수신된 무선 신호/채널 등을 RF 밴드 신호에서 베이스밴드 신호로 변환(Convert)할 수 있다. 하나 이상의 송수신기(1060, 2060)는 하나 이상의 프로세서(1020, 2020)를 이용하여 처리된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 베이스밴드 신호에서 RF 밴드 신호로 변환할 수 있다. 이를 위하여, 하나 이상의 송수신기(1060, 2060)는 (아날로그) 오실레이터 및/또는 필터를 포함할 수 있다.
본 발명이 적용되는 신호 처리 회로 예
도 31은 전송 신호를 위한 신호 처리 회로를 예시한다.
도 31를 참조하면, 신호 처리 회로(10000)는 스크램블러(10100), 변조기(10200), 레이어 매퍼(10300), 프리코더(10400), 자원 매퍼(10500), 신호 생성기(10600)를 포함할 수 있다. 이로 제한되는 것은 아니지만, 도 27의 동작/기능은 도 30의 프로세서(1020, 2020) 및/또는 송수신기(1060, 2060)에서 수행될 수 있다. 도 31의 하드웨어 요소는 도 30의 프로세서(1020, 2020) 및/또는 송수신기(1060, 2060)에서 구현될 수 있다. 예를 들어, 블록 10100~10600은 도 30의 프로세서(1020, 2020)에서 구현될 수 있다. 또한, 블록 10100~10500은 도 30의 프로세서(1020, 2020)에서 구현되고, 블록 10600은 도 30의 송수신기(1060, 2060)에서 구현될 수 있다.
코드워드는 도 31의 신호 처리 회로(10000)를 거쳐 무선 신호로 변환될 수 있다. 여기서, 코드워드는 정보블록의 부호화된 비트 시퀀스이다. 정보블록은 전송블록(예, UL-SCH 전송블록, DL-SCH 전송블록)을 포함할 수 있다. 무선 신호는 다양한 물리 채널(예, PUSCH, PDSCH)을 통해 전송될 수 있다.
구체적으로, 코드워드는 스크램블러(10100)에 의해 스크램블된 비트 시퀀스로 변환될 수 있다. 스크램블에 사용되는 스크램블 시퀀스는 초기화 값에 기반하여 생성되며, 초기화 값은 무선 기기의 ID 정보 등이 포함될 수 있다. 스크램블된 비트 시퀀스는 변조기(10200)에 의해 변조 심볼 시퀀스로 변조될 수 있다. 변조 방식은 pi/2-BPSK(pi/2-Binary Phase Shift Keying), m-PSK(m-Phase Shift Keying), m-QAM(m-Quadrature Amplitude Modulation) 등을 포함할 수 있다. 복소 변조 심볼 시퀀스는 레이어 매퍼(10300)에 의해 하나 이상의 전송 레이어로 매핑될 수 있다. 각 전송 레이어의 변조 심볼들은 프리코더(10400)에 의해 해당 안테나 포트(들)로 매핑될 수 있다(프리코딩). 프리코더(10400)의 출력 z는 레이어 매퍼(10300)의 출력 y를 N*M의 프리코딩 행렬 W와 곱해 얻을 수 있다. 여기서, N은 안테나 포트의 개수, M은 전송 레이어의 개수이다. 여기서, 프리코더(10400)는 복소 변조 심볼들에 대한 트랜스폼(transform) 프리코딩(예, DFT 변환)을 수행한 이후에 프리코딩을 수행할 수 있다. 또한, 프리코더(10400)는 트랜스폼 프리코딩을 수행하지 않고 프리코딩을 수행할 수 있다.
자원 매퍼(10500)는 각 안테나 포트의 변조 심볼들을 시간-주파수 자원에 매핑할 수 있다. 시간-주파수 자원은 시간 도메인에서 복수의 심볼(예, CP-OFDMA 심볼, DFT-s-OFDMA 심볼)을 포함하고, 주파수 도메인에서 복수의 부반송파를 포함할 수 있다. 신호 생성기(10600)는 매핑된 변조 심볼들로부터 무선 신호를 생성하며, 생성된 무선 신호는 각 안테나를 통해 다른 기기로 전송될 수 있다. 이를 위해, 신호 생성기(10600)는 IFFT(Inverse Fast Fourier Transform) 모듈 및 CP(Cyclic Prefix) 삽입기, DAC(Digital-to-Analog Converter), 주파수 상향 변환기(frequency uplink converter) 등을 포함할 수 있다.
무선 기기에서 수신 신호를 위한 신호 처리 과정은 도 31의 신호 처리 과정(10100~10600)의 역으로 구성될 수 있다. 예를 들어, 무선 기기(예, 도 33의 1000, 2000)는 안테나 포트/송수신기를 통해 외부로부터 무선 신호를 수신할 수 있다. 수신된 무선 신호는 신호 복원기를 통해 베이스밴드 신호로 변환될 수 있다. 이를 위해, 신호 복원기는 주파수 하향 변환기(frequency downlink converter), ADC(analog-to-digital converter), CP 제거기, FFT(Fast Fourier Transform) 모듈을 포함할 수 있다. 이후, 베이스밴드 신호는 자원 디-매퍼 과정, 포스트코딩(postcoding) 과정, 복조 과정 및 디-스크램블 과정을 거쳐 코드워드로 복원될 수 있다. 코드워드는 복호(decoding)를 거쳐 원래의 정보블록으로 복원될 수 있다. 따라서, 수신 신호를 위한 신호 처리 회로(미도시)는 신호 복원기, 자원 디-매퍼, 포스트코더, 복조기, 디-스크램블러 및 복호기를 포함할 수 있다.
본 발명이 적용되는 무선 기기 활용 예
도 32는 본 발명에 적용되는 무선 기기의 다른 예를 나타낸다.
무선 기기는 사용-예/서비스에 따라 다양한 형태로 구현될 수 있다.
도 352 참조하면, 무선 기기(1000, 2000)는 도 30의 무선 기기(1000,2000)에 대응하며, 다양한 요소(element), 성분(component), 유닛/부(unit), 및/또는 모듈(module)로 구성될 수 있다. 예를 들어, 무선 기기(1000, 2000)는 통신부(1100), 제어부(1200), 메모리부(1300) 및 추가 요소(1400)를 포함할 수 있다. 통신부는 통신 회로(1120) 및 송수신기(들)(1140)을 포함할 수 있다. 예를 들어, 통신 회로(1120)는 도 33의 하나 이상의 프로세서(1020,2020) 및/또는 하나 이상의 메모리(1040,2040) 를 포함할 수 있다. 예를 들어, 송수신기(들)(1140)는 도 33의 하나 이상의 송수신기(1060,2060) 및/또는 하나 이상의 안테나(1080,2080)을 포함할 수 있다. 제어부(1200)는 통신부(1100), 메모리부(1300) 및 추가 요소(1400)와 전기적으로 연결되며 무선 기기의 제반 동작을 제어한다. 예를 들어, 제어부(1200)는 메모리부(1300)에 저장된 프로그램/코드/명령/정보에 기반하여 무선 기기의 전기적/기계적 동작을 제어할 수 있다. 또한, 제어부(1200)는 메모리부(1300)에 저장된 정보를 통신부(1100)을 통해 외부(예, 다른 통신 기기)로 무선/유선 인터페이스를 통해 전송하거나, 통신부(1100)를 통해 외부(예, 다른 통신 기기)로부터 무선/유선 인터페이스를 통해 수신된 정보를 메모리부(1300)에 저장할 수 있다.
추가 요소(1400)는 무선 기기의 종류에 따라 다양하게 구성될 수 있다. 예를 들어, 추가 요소(1400)는 파워 유닛/배터리, 입출력부(I/O unit), 구동부 및 컴퓨팅부 중 적어도 하나를 포함할 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(도 29, 1000a), 차량(도 29, 1000b-1, 1000b-2), XR 기기(도 29, 1000c), 휴대 기기(도 29, 1000d), 가전(도 29, 1000e), IoT 기기(도 29, 1000f), 디지털 방송용 단말, 홀로그램 장치, 공공 안전 장치, MTC 장치, 의료 장치, 핀테크 장치(또는 금융 장치), 보안 장치, 기후/환경 장치, AI 서버/기기(도 29, 4000), 기지국(도 29, 2000), 네트워크 노드 등의 형태로 구현될 수 있다. 무선 기기는 사용-예/서비스에 따라 이동 가능하거나 고정된 장소에서 사용될 수 있다.
도 32에서 무선 기기(1000, 2000) 내의 다양한 요소, 성분, 유닛/부, 및/또는 모듈은 전체가 유선 인터페이스를 통해 상호 연결되거나, 적어도 일부가 통신부(1100)를 통해 무선으로 연결될 수 있다. 예를 들어, 무선 기기(1000, 2000) 내에서 제어부(1200)와 통신부(1100)는 유선으로 연결되며, 제어부(1200)와 제1 유닛(예, 1300, 1400)은 통신부(1100)를 통해 무선으로 연결될 수 있다. 또한, 무선 기기(1000, 2000) 내의 각 요소, 성분, 유닛/부, 및/또는 모듈은 하나 이상의 요소를 더 포함할 수 있다. 예를 들어, 제어부(1200)는 하나 이상의 프로세서 집합으로 구성될 수 있다. 예를 들어, 제어부(1200)는 통신 제어 프로세서, 어플리케이션 프로세서(Application processor), ECU(Electronic Control Unit), 그래픽 처리 프로세서, 메모리 제어 프로세서 등의 집합으로 구성될 수 있다. 다른 예로, 메모리부(1300)는 RAM(Random Access Memory), DRAM(Dynamic RAM), ROM(Read Only Memory), 플래시 메모리(flash memory), 휘발성 메모리(volatile memory), 비-휘발성 메모리(non-volatile memory) 및/또는 이들의 조합으로 구성될 수 있다.
도 33은 본 발명에 적용되는 휴대 기기를 예시한다.
휴대 기기는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 휴대용 컴퓨터(예, 노트북 등)을 포함할 수 있다. 휴대 기기는 MS(Mobile Station), UT(user terminal), MSS(Mobile Subscriber Station), SS(Subscriber Station), AMS(Advanced Mobile Station) 또는 WT(Wireless terminal)로 지칭될 수 있다.
도 33을 참조하면, 휴대 기기(1000)는 안테나부(1080), 통신부(1100), 제어부(1200), 메모리부(1300), 전원공급부(1400a), 인터페이스부(1400b) 및 입출력부(1400c)를 포함할 수 있다. 안테나부(1080)는 통신부(1100)의 일부로 구성될 수 있다. 블록 1100~1300/1400a~1400c는 각각 도 28의 블록 1100~1300/1400에 대응한다.
통신부(1100)는 다른 무선 기기, 기지국들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(1200)는 휴대 기기(1000)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(1200)는 AP(Application Processor)를 포함할 수 있다. 메모리부(1300)는 휴대 기기(1000)의 구동에 필요한 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 또한, 메모리부(1300)는 입/출력되는 데이터/정보 등을 저장할 수 있다. 전원공급부(1400a)는 휴대 기기(1000)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다. 인터페이스부(1400b)는 휴대 기기(1000)와 다른 외부 기기의 연결을 지원할 수 있다. 인터페이스부(1400b)는 외부 기기와의 연결을 위한 다양한 포트(예, 오디오 입/출력 포트, 비디오 입/출력 포트)를 포함할 수 있다. 입출력부(1400c)는 영상 정보/신호, 오디오 정보/신호, 데이터, 및/또는 사용자로부터 입력되는 정보를 입력 받거나 출력할 수 있다. 입출력부(1400c)는 카메라, 마이크로폰, 사용자 입력부, 디스플레이부(1400d), 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다.
일 예로, 데이터 통신의 경우, 입출력부(1400c)는 사용자로부터 입력된 정보/신호(예, 터치, 문자, 음성, 이미지, 비디오)를 획득하며, 획득된 정보/신호는 메모리부(1300)에 저장될 수 있다. 통신부(1100)는 메모리에 저장된 정보/신호를 무선 신호로 변환하고, 변환된 무선 신호를 다른 무선 기기에게 직접 전송하거나 기지국에게 전송할 수 있다. 또한, 통신부(1100)는 다른 무선 기기 또는 기지국으로부터 무선 신호를 수신한 뒤, 수신된 무선 신호를 원래의 정보/신호로 복원할 수 있다. 복원된 정보/신호는 메모리부(1300)에 저장된 뒤, 입출력부(1400c)를 통해 다양한 형태(예, 문자, 음성, 이미지, 비디오, 헵틱)로 출력될 수 있다.
도 34는 본 발명에 적용되는 차량 또는 자율 주행 차량을 예시한다. 차량 또는 자율 주행 차량은 이동형 로봇, 차량, 기차, 유/무인 비행체(Aerial Vehicle, AV), 선박 등으로 구현될 수 있다.
도 34를 참조하면, 차량 또는 자율 주행 차량(1000)은 안테나부(1080), 통신부(1100), 제어부(1200), 구동부(1400a), 전원공급부(1400b), 센서부(1400c) 및 자율 주행부(1400d)를 포함할 수 있다. 안테나부(1080)는 통신부(1100)의 일부로 구성될 수 있다. 블록 1100/1300/1400a~1400d는 각각 도 32의 블록 1100/1300/1400에 대응한다.
통신부(1100)는 다른 차량, 기지국(e.g. 기지국, 노변 기지국(Road Side unit) 등), 서버 등의 외부 기기들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(1200)는 차량 또는 자율 주행 차량(1000)의 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(1200)는 ECU(Electronic Control Unit)를 포함할 수 있다. 구동부(1400a)는 차량 또는 자율 주행 차량(1000)을 지상에서 주행하게 할 수 있다. 구동부(1400a)는 엔진, 모터, 파워 트레인, 바퀴, 브레이크, 조향 장치 등을 포함할 수 있다. 전원공급부(1400b)는 차량 또는 자율 주행 차량(1000)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다. 센서부(1400c)는 차량 상태, 주변 환경 정보, 사용자 정보 등을 얻을 수 있다. 센서부(1400c)는 IMU(inertial measurement unit) 센서, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 스티어링 센서, 온도 센서, 습도 센서, 초음파 센서, 조도 센서, 페달 포지션 센서 등을 포함할 수 있다. 자율 주행부(1400d)는 주행중인 차선을 유지하는 기술, 어댑티브 크루즈 컨트롤과 같이 속도를 자동으로 조절하는 기술, 정해진 경로를 따라 자동으로 주행하는 기술, 목적지가 설정되면 자동으로 경로를 설정하여 주행하는 기술 등을 구현할 수 있다.
일 예로, 통신부(1100)는 외부 서버로부터 지도 데이터, 교통 정보 데이터 등을 수신할 수 있다. 자율 주행부(1400d)는 획득된 데이터를 기반으로 자율 주행 경로와 드라이빙 플랜을 생성할 수 있다. 제어부(1200)는 드라이빙 플랜에 따라 차량 또는 자율 주행 차량(1000)이 자율 주행 경로를 따라 이동하도록 구동부(1400a)를 제어할 수 있다(예, 속도/방향 조절). 자율 주행 도중에 통신부(1100)는 외부 서버로부터 최신 교통 정보 데이터를 비/주기적으로 획득하며, 주변 차량으로부터 주변 교통 정보 데이터를 획득할 수 있다. 또한, 자율 주행 도중에 센서부(1400c)는 차량 상태, 주변 환경 정보를 획득할 수 있다. 자율 주행부(1400d)는 새로 획득된 데이터/정보에 기반하여 자율 주행 경로와 드라이빙 플랜을 갱신할 수 있다. 통신부(1100)는 차량 위치, 자율 주행 경로, 드라이빙 플랜 등에 관한 정보를 외부 서버로 전달할 수 있다. 외부 서버는 차량 또는 자율 주행 차량들로부터 수집된 정보에 기반하여, AI 기술 등을 이용하여 교통 정보 데이터를 미리 예측할 수 있고, 예측된 교통 정보 데이터를 차량 또는 자율 주행 차량들에게 제공할 수 있다.
도 35은 본 발명에 적용되는 차량을 예시한다. 차량은 운송수단, 기차, 비행체, 선박 등으로도 구현될 수 있다.
도 35를 참조하면, 차량(1000)은 통신부(1100), 제어부(1200), 메모리부(1300), 입출력부(1400a) 및 위치 측정부(1400b)를 포함할 수 있다. 여기서, 블록 1100~1300/1400a~1400b는 각각 도 32의 블록 1100~1300/1400에 대응한다.
통신부(1100)는 다른 차량, 또는 기지국 등의 외부 기기들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(1200)는 차량(1000)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 메모리부(1300)는 차량(1000)의 다양한 기능을 지원하는 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 입출력부(1400a)는 메모리부(1300) 내의 정보에 기반하여 AR/VR 오브젝트를 출력할 수 있다. 입출력부(1400a)는 HUD를 포함할 수 있다. 위치 측정부(1400b)는 차량(1000)의 위치 정보를 획득할 수 있다. 위치 정보는 차량(1000)의 절대 위치 정보, 주행선 내에서의 위치 정보, 가속도 정보, 주변 차량과의 위치 정보 등을 포함할 수 있다. 위치 측정부(1400b)는 GPS 및 다양한 센서들을 포함할 수 있다.
일 예로, 차량(1000)의 통신부(1100)는 외부 서버로부터 지도 정보, 교통 정보 등을 수신하여 메모리부(1300)에 저장할 수 있다. 위치 측정부(1400b)는 GPS 및 다양한 센서를 통하여 차량 위치 정보를 획득하여 메모리부(130)에 저장할 수 있다. 제어부(120)는 지도 정보, 교통 정보 및 차량 위치 정보 등에 기반하여 가상 오브젝트를 생성하고, 입출력부(1400a)는 생성된 가상 오브젝트를 차량 내 유리창에 표시할 수 있다(14100, 14200). 또한, 제어부(1200)는 차량 위치 정보에 기반하여 차량(1000)이 주행선 내에서 정상적으로 운행되고 있는지 판단할 수 있다. 차량(1000)이 주행선을 비정상적으로 벗어나는 경우, 제어부(1200)는 입출력부(1400a)를 통해 차량 내 유리창에 경고를 표시할 수 있다. 또한, 제어부(1200)는 통신부(1100)를 통해 주변 차량들에게 주행 이상에 관한 경고 메세지를 방송할 수 있다. 상황에 따라, 제어부(1200)는 통신부(1100)를 통해 관계 기관에게 차량의 위치 정보와, 주행/차량 이상에 관한 정보를 전송할 수 있다.
도 36은 본 발명에 적용되는 XR 기기를 예시한다. XR 기기는 HMD, 차량에 구비된 HUD(Head-Up Display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등으로 구현될 수 있다.
도 36을 참조하면, XR 기기(1000a)는 통신부(1100), 제어부(1200), 메모리부(1300), 입출력부(1400a), 센서부(1400b) 및 전원공급부(1400c)를 포함할 수 있다. 여기서, 블록 1100~1300/1400a~1400c은 각각 도 32의 블록 1100~1300/1400에 대응한다.
통신부(1100)는 다른 무선 기기, 휴대 기기, 또는 미디어 서버 등의 외부 기기들과 신호(예, 미디어 데이터, 제어 신호 등)를 송수신할 수 있다. 미디어 데이터는 영상, 이미지, 소리 등을 포함할 수 있다. 제어부(1200)는 XR 기기(1000a)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 예를 들어, 제어부(1200)는 비디오/이미지 획득, (비디오/이미지) 인코딩, 메타데이터 생성 및 처리 등의 절차를 제어 및/또는 수행하도록 구성될 수 있다. 메모리부(1300)는 XR 기기(1000a)의 구동/XR 오브젝트의 생성에 필요한 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 입출력부(1400a)는 외부로부터 제어 정보, 데이터 등을 획득하며, 생성된 XR 오브젝트를 출력할 수 있다. 입출력부(1400a)는 카메라, 마이크로폰, 사용자 입력부, 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센서부(1400b)는 XR 기기 상태, 주변 환경 정보, 사용자 정보 등을 얻을 수 있다. 센서부(1400b)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰 및/또는 레이더 등을 포함할 수 있다. 전원공급부(1400c)는 XR 기기(100a)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다.
일 예로, XR 기기(1000a)의 메모리부(1300)는 XR 오브젝트(예, AR/VR/MR 오브젝트)의 생성에 필요한 정보(예, 데이터 등)를 포함할 수 있다. 입출력부(1400a)는 사용자로부터 XR 기기(1000a)를 조작하는 명령을 회득할 수 있으며, 제어부(1200)는 사용자의 구동 명령에 따라 XR 기기(1000a)를 구동시킬 수 있다. 예를 들어, 사용자가 XR 기기(1000a)를 통해 영화, 뉴스 등을 시청하려고 하는 경우, 제어부(1200)는 통신부(1300)를 통해 컨텐츠 요청 정보를 다른 기기(예, 휴대 기기(1000b)) 또는 미디어 서버에 전송할 수 있다. 통신부(130)는 다른 기기(예, 휴대 기기(1000b)) 또는 미디어 서버로부터 영화, 뉴스 등의 컨텐츠를 메모리부(1300)로 다운로드/스트리밍 받을 수 있다. 제어부(120)는 컨텐츠에 대해 비디오/이미지 획득, (비디오/이미지) 인코딩, 메타데이터 생성/처리 등의 절차를 제어 및/또는 수행하며, 입출력부(1400a)/센서부(1400b)를 통해 획득한 주변 공간 또는 현실 오브젝트에 대한 정보에 기반하여 XR 오브젝트를 생성/출력할 수 있다.
또한, XR 기기(1000a)는 통신부(1100)를 통해 휴대 기기(1000b)와 무선으로 연결되며, XR 기기(1000a)의 동작은 휴대 기기(1000b)에 의해 제어될 수 있다. 예를 들어, 휴대 기기(1000b)는 XR 기기(1000a)에 대한 콘트롤러로 동작할 수 있다. 이를 위해, XR 기기(1000a)는 휴대 기기(1000b)의 3차원 위치 정보를 획득한 뒤, 휴대 기기(1000b)에 대응하는 XR 개체를 생성하여 출력할 수 있다.
도 37은 본 발명에 적용되는 로봇을 예시한다. 로봇은 사용 목적이나 분야에 따라 산업용, 의료용, 가정용, 군사용 등으로 분류될 수 있다.
도 37을 참조하면, 로봇(1000)은 통신부(1100), 제어부(1200), 메모리부(1300), 입출력부(1400a), 센서부(1400b) 및 구동부(1400c)를 포함할 수 있다. 여기서, 블록 1100~1300/1400a~1400c은 각각 도 35의 블록 1100~1300/1400에 대응한다.
통신부(1100)는 다른 무선 기기, 다른 로봇, 또는 제어 서버 등의 외부 기기들과 신호(예, 구동 정보, 제어 신호 등)를 송수신할 수 있다. 제어부(1200)는 로봇(1000)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 메모리부(1300)는 로봇(1000)의 다양한 기능을 지원하는 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 입출력부(1400a)는 로봇(100)의 외부로부터 정보를 획득하며, 로봇(1000)의 외부로 정보를 출력할 수 있다. 입출력부(1400a)는 카메라, 마이크로폰, 사용자 입력부, 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센서부(1400b)는 로봇(1000)의 내부 정보, 주변 환경 정보, 사용자 정보 등을 얻을 수 있다. 센서부(1400b)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 레이더 등을 포함할 수 있다. 구동부(1400c)는 로봇 관절을 움직이는 등의 다양한 물리적 동작을 수행할 수 있다. 또한, 구동부(1400c)는 로봇(1000)을 지상에서 주행하거나 공중에서 비행하게 할 수 있다. 구동부(1400c)는 액츄에이터, 모터, 바퀴, 브레이크, 프로펠러 등을 포함할 수 있다.
도 38은 본 발명에 적용되는 AI 기기를 예시한다. AI 기기는 TV, 프로젝터, 스마트폰, PC, 노트북, 디지털방송용 단말기, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), 라디오, 세탁기, 냉장고, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다.
도 38을 참조하면, AI 기기(1000)는 통신부(1100), 제어부(1200), 메모리부(1300), 입/출력부(1400a/1400b), 러닝 프로세서부(1400c) 및 센서부(1400d)를 포함할 수 있다. 블록 1100~1300/1400a~1400d는 각각 도 32의 블록 1100~1300/1400에 대응한다.
통신부(1100)는 유무선 통신 기술을 이용하여 다른 AI 기기(예, 도 29, 1000x, 2000, 4000)나 AI 서버(2000) 등의 외부 기기들과 유무선 신호(예, 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등)를 송수신할 수 있다. 이를 위해, 통신부(1100)는 메모리부(1300) 내의 정보를 외부 기기로 전송하거나, 외부 기기로부터 수신된 신호를 메모리부(1300)로 전달할 수 있다.
제어부(1200)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 기기(1000)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 제어부(1200)는 AI 기기(1000)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다. 예를 들어, 제어부(1200)는 러닝 프로세서부(1400c) 또는 메모리부(1300)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 기기(1000)의 구성 요소들을 제어할 수 있다. 또한, 제어부(1200)는 AI 장치(1000)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리부(1300) 또는 러닝 프로세서부(1400c)에 저장하거나, AI 서버(도 29, 4000) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.
메모리부(1300)는 AI 기기(1000)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예를 들어, 메모리부(1300)는 입력부(1400a)로부터 얻은 데이터, 통신부(1100)로부터 얻은 데이터, 러닝 프로세서부(1400c)의 출력 데이터, 및 센싱부(1400)로부터 얻은 데이터를 저장할 수 있다. 또한, 메모리부(1300)는 제어부(1200)의 동작/실행에 필요한 제어 정보 및/또는 소프트웨어 코드를 저장할 수 있다.
입력부(1400a)는 AI 기기(1000)의 외부로부터 다양한 종류의 데이터를 획득할 수 있다. 예를 들어, 입력부(1200)는 모델 학습을 위한 학습 데이터, 및 학습 모델이 적용될 입력 데이터 등을 획득할 수 있다. 입력부(1400a)는 카메라, 마이크로폰 및/또는 사용자 입력부 등을 포함할 수 있다. 출력부(1400b)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다. 출력부(1400b)는 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센싱부(1400)는 다양한 센서들을 이용하여 AI 기기(1000)의 내부 정보, AI 기기(1000)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 얻을 수 있다. 센싱부(1400)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰 및/또는 레이더 등을 포함할 수 있다.
러닝 프로세서부(1400c)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 러닝 프로세서부(1400c)는 AI 서버(도 29, 4000)의 러닝 프로세서부와 함께 AI 프로세싱을 수행할 수 있다. 러닝 프로세서부(1400c)는 통신부(1100)를 통해 외부 기기로부터 수신된 정보, 및/또는 메모리부(1300)에 저장된 정보를 처리할 수 있다. 또한, 러닝 프로세서부(1400c)의 출력 값은 통신부(1100)를 통해 외부 기기로 전송되거나/되고, 메모리부(1300)에 저장될 수 있다.
이상에서 설명된 실시 예들은 본 발명의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시 예를 구성하는 것도 가능하다. 본 발명의 실시 예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시 예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시 예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.
본 발명에 따른 실시 예는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시 예는 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시 예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리는 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.
본 발명은 본 발명의 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 따라서, 상술한 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
본 명세서의 무선 통신 시스템에서 데이터를 송수신하는 방은은 3GPP LTE/LTE-A 시스템, 5G 시스템(New RAT 시스템), 6G/Beyond 6G 시스템에 적용되는 예를 중심으로 설명하였으나, 이외에도 다양한 무선 통신 시스템에 적용하는 것이 가능하다.

Claims (18)

  1. 무선 통신 시스템에서 하향링크 데이터를 수신하는 방법에 있어서, 단말에 의해 수행되는 방법은,
    (i) 상기 단말의 디코딩 레벨을 나타내는 제1 정보 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보를 기지국으로 전송하는 단계;
    상기 제1 정보에 기반하여 디코딩 레벨 정보를 상기 기지국으로부터 수신하는 단계; 및
    상기 디코딩 레벨 정보 및 상기 제2 정보에 기반하여 상기 기지국으로부터 하향링크 데이터를 수신하는 단계를 포함하는 방법.
  2. 제1항에 있어서,
    상기 하향링크 데이터를 수신하는 단계는,
    머신 러닝 기반 코드의 이용을 나타내는 디코딩 레벨 정보 및 머신 러닝이 가능함을 나타내는 제2 정보에 기반하여, 머신 러닝 및 채널 정보를 이용해 상기 머신 러닝 기반 코드를 생성하는 단계;
    상기 머신 러닝 기반 코드에 대한 정보를 상기 기지국으로 전송하는 단계; 및
    상기 머신 러닝 기반 코드에 기반하여 상기 하향링크 데이터를 상기 기지국으로부터 수신하는 단계를 포함하는 방법.
  3. 제2항에 있어서,
    상기 머신 러닝 기반 코드를 생성하는 단계는,
    머신 러닝에 기반하여 n개의 코드를 생성하는 단계;
    상기 n개의 코드 및 상기 채널 정보에 기반하여 n개의 데이터를 생성하는 단계; 및
    상기 n개의 데이터의 블록 에러율(Block Error Rate, BLER)에 기반하여 상기 머신 러닝 기반 코드를 선택하는 단계를 포함하는 방법.
  4. 제1항에 있어서,
    상기 하향링크 데이터를 수신하는 단계는,
    머신 러닝 기반 코드의 이용을 나타내는 디코딩 레벨 정보 및 머신 러닝이 가능하지 않음을 나타내는 제2 정보에 기반하여, 채널 정보를 상기 기지국으로 전송하는 단계;
    상기 머신 러닝 기반 코드에 대한 정보를 상기 기지국으로부터 수신하는 단계; 및
    상기 머신 러닝 기반 코드에 기반하여 상기 하향링크 데이터를 상기 기지국으로부터 수신하는 단계를 포함하는 방법.
  5. 제1항에 있어서,
    상기 하향링크 데이터를 수신하는 단계는,
    비 머신 러닝 기반 코드의 이용을 나타내는 디코딩 레벨 정보에 기반하여, 상기 비 머신 러닝 기반 코드를 이용해 상기 하향링크 데이터를 상기 기지국으로부터 수신하는 단계를 포함하는 방법.
  6. 제5항에 있어서,
    상기 비 머신 러닝 기반 코드는,
    저밀도 패리티 체크(Low-Density Parity Check, LDPC) 코드 또는 폴라(Polar) 코드인 방법.
  7. 제1항에 있어서,
    상기 능력 정보에 대한 요청을 상기 기지국으로부터 수신하는 단계를 더 포함하는 방법.
  8. 무선 통신 시스템에서 하향링크 데이터를 수신하는 단말에 있어서,
    하나 이상의 송수신기들;
    상기 하나 이상의 송수신기들과 기능적으로 연결된 하나 이상의 프로세서들;
    상기 하나 이상의 프로세서들에 기능적으로 연결되고, 동작들을 수행하는 지시(instruction)들을 저장하는 하나 이상의 메모리들을 포함하고,
    상기 동작들은,
    (i) 상기 단말의 디코딩 레벨을 나타내는 제1 정보 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보를 기지국으로 전송하는 단계;
    상기 제1 정보에 기반하여 디코딩 레벨 정보를 상기 기지국으로부터 수신하는 단계; 및
    상기 디코딩 레벨 정보 및 상기 제2 정보에 기반하여 상기 기지국으로부터 하향링크 데이터를 수신하는 단계를 포함하는 단말.
  9. 무선 통신 시스템에서 하향링크 데이터를 수신하는 방법에 있어서, 기지국에 의해 수행되는 방법은,
    (i) 단말의 디코딩 레벨을 나타내는 제1 정보 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보를 상기 단말로부터 수신하는 단계;
    상기 제1 정보에 기반하여 디코딩 레벨 정보를 상기 단말로 전송하는 단계; 및
    상기 디코딩 레벨 정보 및 상기 제2 정보에 기반하여 상기 단기 단말로 하향링크 데이터를 전송하는 단계를 포함하는 방법.
  10. 무선 통신 시스템에서 상향링크 데이터를 전송하는 방법에 있어서, 단말에 의해 수행되는 방법은,
    (i) 기지국의 디코딩 레벨을 나타내는 제1 정보 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보를 상기 기지국으로부터 수신하는 단계;
    상기 제1 정보에 기반하여 디코딩 레벨 정보를 상기 기지국으로 전송하는 단계; 및
    상기 디코딩 레벨 정보 및 상기 제2 정보에 기반하여 상기 기지국으로 상향링크 데이터를 전송하는 단계를 포함하는 방법.
  11. 제10항에 있어서,
    상기 상향링크 데이터를 전송하는 단계는,
    머신 러닝 기반 코드의 이용을 나타내는 디코딩 레벨 정보 및 머신 러닝이 가능함을 나타내는 제2 정보에 기반하여, 상기 머신 러닝 기반 코드에 대한 정보를 상기 기지국으로부터 수신하는 단계; 및
    상기 머신 러닝 기반 코드에 기반하여 상기 상향링크 데이터를 상기 기지국으로 전송하는 단계를 포함하는 방법.
  12. 제10항에 있어서,
    머신 러닝 기반 코드의 이용을 나타내는 디코딩 레벨 정보 및 머신 러닝이 가능하지 않음을 나타내는 제2 정보에 기반하여, 채널 정보를 상기 기지국으로부터 수신하는 단계;
    상기 머신 러닝 및 상기 채널 정보를 이용해 상기 머신 러닝 기반 코드를 생성하는 단계;
    상기 머신 러닝 기반 코드에 대한 정보를 상기 기지국으로 전송하는 단계; 및
    상기 머신 러닝 기반 코드에 기반하여 상기 상향링크 데이터를 상기 기지국으로 전송하는 단계를 포함하는 방법.
  13. 제12항에 있어서,
    상기 머신 러닝 기반 코드를 생성하는 단계는,
    머신 러닝에 기반하여 n개의 코드를 생성하는 단계;
    상기 n개의 코드 및 상기 채널 정보에 기반하여 n개의 데이터를 생성하는 단계; 및
    상기 n개의 데이터의 블록 에러율(Block Error Rate, BLER)에 기반하여 상기 머신 러닝 기반 코드를 선택하는 단계를 포함하는 방법.
  14. 제10항에 있어서,
    상기 상향링크 데이터를 전송하는 단계는,
    비 머신 러닝 기반 코드의 이용을 나타내는 디코딩 레벨 정보에 기반하여, 상기 비 머신 러닝 기반 코드를 이용해 상기 상향링크 데이터를 상기 기지국으로 전송하는 단계를 포함하는 방법.
  15. 제14항에 있어서,
    상기 비 머신 러닝 기반 코드는,
    저밀도 패리티 체크(Low-Density Parity Check, LDPC) 코드 또는 폴라(Polar) 코드인 방법.
  16. 제10항에 있어서,
    상기 능력 정보에 대한 요청을 상기 기지국으로 전송하는 단계를 더 포함하는 방법.
  17. 무선 통신 시스템에서 상향링크 데이터를 전송하는 단말에 있어서,
    하나 이상의 송수신기들;
    상기 하나 이상의 송수신기들과 기능적으로 연결된 하나 이상의 프로세서들;
    상기 하나 이상의 프로세서들에 기능적으로 연결되고, 동작들을 수행하는 지시(instruction)들을 저장하는 하나 이상의 메모리들을 포함하고,
    상기 동작들은,
    (i) 기지국의 디코딩 레벨을 나타내는 제1 정보 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보를 상기 기지국으로부터 수신하는 단계;
    상기 제1 정보에 기반하여 디코딩 레벨 정보를 상기 기지국으로 전송하는 단계; 및
    상기 디코딩 레벨 정보 및 상기 제2 정보에 기반하여 상기 기지국으로 상향링크 데이터를 전송하는 단계를 포함하는 단말.
  18. 무선 통신 시스템에서 상향링크 데이터를 수신하는 방법에 있어서, 기지국에 의해 수행되는 방법은,
    (i) 상기 기지국의 디코딩 레벨을 나타내는 제1 정보 및 (ii) 머신 러닝의 가능 여부를 나타내는 제2 정보를 포함하는 능력 정보를 단말로 전송하는 단계;
    상기 제1 정보에 기반하여 디코딩 레벨 정보를 상기 단말로부터 수신하는 단계; 및
    상기 디코딩 레벨 정보 및 상기 제2 정보에 기반하여 상기 단말로부터 상향링크 데이터를 수신하는 단계를 포함하는 방법.
PCT/KR2020/007899 2020-06-18 2020-06-18 무선 통신 시스템에서 데이터를 송수신하는 방법 및 이를 위한 장치 WO2021256584A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US18/002,170 US20230231653A1 (en) 2020-06-18 2020-06-18 Method for transmitting or receiving data in wireless communication system and apparatus therefor
PCT/KR2020/007899 WO2021256584A1 (ko) 2020-06-18 2020-06-18 무선 통신 시스템에서 데이터를 송수신하는 방법 및 이를 위한 장치
KR1020237000378A KR20230025854A (ko) 2020-06-18 2020-06-18 무선 통신 시스템에서 데이터를 송수신하는 방법 및 이를 위한 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2020/007899 WO2021256584A1 (ko) 2020-06-18 2020-06-18 무선 통신 시스템에서 데이터를 송수신하는 방법 및 이를 위한 장치

Publications (1)

Publication Number Publication Date
WO2021256584A1 true WO2021256584A1 (ko) 2021-12-23

Family

ID=79268117

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/007899 WO2021256584A1 (ko) 2020-06-18 2020-06-18 무선 통신 시스템에서 데이터를 송수신하는 방법 및 이를 위한 장치

Country Status (3)

Country Link
US (1) US20230231653A1 (ko)
KR (1) KR20230025854A (ko)
WO (1) WO2021256584A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023168717A1 (zh) * 2022-03-11 2023-09-14 北京小米移动软件有限公司 一种模型训练部署方法/装置/设备及存储介质
WO2023182823A1 (en) * 2022-03-23 2023-09-28 Samsung Electronics Co., Ltd. Method and apparatus for reference symbol pattern adaptation
US11838370B1 (en) * 2022-10-20 2023-12-05 Rovi Guides, Inc. Systems and methods for enabling communications in an extended reality environment
WO2024072549A1 (en) * 2022-09-26 2024-04-04 Qualcomm Incorporated Machine learning signaling and operations for wireless local area networks (wlans)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160029211A1 (en) * 2013-05-16 2016-01-28 Fujitsu Limited Terminal device, communication system, and terminal device readable storage medium
KR20170095275A (ko) * 2015-01-12 2017-08-22 엘지전자 주식회사 무선 통신 시스템에서 단말의 단말 능력 정보 전송 방법 및 장치
US20180174050A1 (en) * 2016-12-15 2018-06-21 Google Inc. Adaptive Channel Coding Using Machine-Learned Models
US20190079898A1 (en) * 2017-09-12 2019-03-14 Actiontec Electronics, Inc. Distributed machine learning platform using fog computing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160029211A1 (en) * 2013-05-16 2016-01-28 Fujitsu Limited Terminal device, communication system, and terminal device readable storage medium
KR20170095275A (ko) * 2015-01-12 2017-08-22 엘지전자 주식회사 무선 통신 시스템에서 단말의 단말 능력 정보 전송 방법 및 장치
US20180174050A1 (en) * 2016-12-15 2018-06-21 Google Inc. Adaptive Channel Coding Using Machine-Learned Models
US20190079898A1 (en) * 2017-09-12 2019-03-14 Actiontec Electronics, Inc. Distributed machine learning platform using fog computing

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NASSER-EDDINE RIKLI: "Journal of King Saud University - Computer and Information Sciences", ELSEVIER, article SHRIDHAR B. DEVAMANE , RAJESHWARI L. ITAGI: "Recurrent neural network based turbo decoding algorithms for different code rates", pages: 1 - 14, XP055881528, DOI: 10.1016/j.jksuci.2020.03.012 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023168717A1 (zh) * 2022-03-11 2023-09-14 北京小米移动软件有限公司 一种模型训练部署方法/装置/设备及存储介质
WO2023182823A1 (en) * 2022-03-23 2023-09-28 Samsung Electronics Co., Ltd. Method and apparatus for reference symbol pattern adaptation
WO2024072549A1 (en) * 2022-09-26 2024-04-04 Qualcomm Incorporated Machine learning signaling and operations for wireless local area networks (wlans)
US11838370B1 (en) * 2022-10-20 2023-12-05 Rovi Guides, Inc. Systems and methods for enabling communications in an extended reality environment

Also Published As

Publication number Publication date
US20230231653A1 (en) 2023-07-20
KR20230025854A (ko) 2023-02-23

Similar Documents

Publication Publication Date Title
WO2021112360A1 (ko) 무선 통신 시스템에서 채널을 추정하기 위한 방법 및 장치
WO2021256584A1 (ko) 무선 통신 시스템에서 데이터를 송수신하는 방법 및 이를 위한 장치
WO2022050432A1 (ko) 통신 시스템에서 연합 학습을 수행하기 위한 방법 및 장치
WO2022075493A1 (ko) 자율 주행 시스템에서 v2x 통신 장치의 강화 학습 수행 방법
WO2021251511A1 (ko) 무선 통신 시스템에서 고주파 대역의 상향링크 신호를 송수신하는 방법 및 이를 위한 장치
WO2022145548A1 (ko) 연합 러닝에 대한 데이터 분할 기반 모듈레이션 방법 및 장치
WO2022014732A1 (ko) 무선 통신 시스템에서 연합 학습을 수행하기 위한 방법 및 장치
WO2022045399A1 (ko) 선택적 가중치 전송에 기반한 연합 학습 방법 및 그 단말
WO2022014735A1 (ko) 무선 통신 시스템에서 단말 및 기지국의 신호 송수신 방법 및 장치
WO2022019352A1 (ko) 무선 통신 시스템에서 단말 및 기지국의 신호 송수신 방법 및 장치
WO2022054985A1 (ko) 무선 통신 시스템에서 단말 및 기지국의 신호 송수신 방법 및 장치
WO2022025321A1 (ko) 통신 장치의 신호 랜덤화 방법 및 장치
WO2022004914A1 (ko) 무선 통신 시스템에서 단말 및 기지국의 신호 송수신 방법 및 장치
WO2021251523A1 (ko) 무선 통신 시스템에서 단말 및 기지국의 신호 송수신 방법 및 장치
WO2022025316A1 (ko) 무선 통신 시스템에서 다중 안테나를 이용하여 신호를 송신 및 수신하기 위한 방법 및 장치
WO2022050528A1 (ko) 무선 통신 시스템에서 셀 재선택을 수행하기 위한 방법 및 장치
WO2022004927A1 (ko) 오토 인코더를 이용하는 무선 통신 시스템에서 신호를 송수신하기 위한 방법 및 이를 위한 장치
WO2022097774A1 (ko) 무선 통신 시스템에서 단말 및 기지국의 피드백 수행 방법 및 장치
WO2021261611A1 (ko) 무선 통신 시스템에서 연합 학습을 수행하기 위한 방법 및 장치
WO2022050434A1 (ko) 무선 통신 시스템에서 핸드오버를 수행하기 위한 방법 및 장치
WO2022014728A1 (ko) 무선 통신 시스템에서 단말 및 기지국의 채널 코딩 수행 방법 및 장치
WO2022097850A1 (ko) 무선 통신 시스템에서 재전송을 수행하기 위한 방법 및 장치
WO2022119021A1 (ko) Ai mimo에 대한 러닝 클래스 기반 시스템 적응 방법 및 장치
WO2022014731A1 (ko) Aircomp 기반 연합학습의 스케줄링 방법 및 장치
WO2022080530A1 (ko) 무선 통신 시스템에서 다중 안테나를 이용하여 신호를 송신 및 수신하기 위한 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20940532

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20237000378

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20940532

Country of ref document: EP

Kind code of ref document: A1