WO2023063655A1 - 무선 통신 시스템에서 채널 상태 정보를 송수신하는 방법 및 장치 - Google Patents

무선 통신 시스템에서 채널 상태 정보를 송수신하는 방법 및 장치 Download PDF

Info

Publication number
WO2023063655A1
WO2023063655A1 PCT/KR2022/015121 KR2022015121W WO2023063655A1 WO 2023063655 A1 WO2023063655 A1 WO 2023063655A1 KR 2022015121 W KR2022015121 W KR 2022015121W WO 2023063655 A1 WO2023063655 A1 WO 2023063655A1
Authority
WO
WIPO (PCT)
Prior art keywords
base station
csi
model
size
information related
Prior art date
Application number
PCT/KR2022/015121
Other languages
English (en)
French (fr)
Inventor
박해욱
강지원
김규석
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2023063655A1 publication Critical patent/WO2023063655A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L5/00Arrangements affording multiple use of the transmission path

Definitions

  • the present disclosure relates to a wireless communication system, and more particularly, to a method and apparatus for transmitting and receiving channel state information (CSI) in a wireless communication system.
  • CSI channel state information
  • Mobile communication systems have been developed to provide voice services while ensuring user activity.
  • the mobile communication system has expanded its scope to data services as well as voice.
  • the explosive increase in traffic causes a shortage of resources and users demand higher-speed services, so a more advanced mobile communication system is required. there is.
  • next-generation mobile communication system The requirements of the next-generation mobile communication system are to support explosive data traffic, drastic increase in transmission rate per user, significantly increased number of connected devices, very low end-to-end latency, and high energy efficiency.
  • Dual Connectivity Massive MIMO (Massive Multiple Input Multiple Output), In-band Full Duplex, Non-Orthogonal Multiple Access (NOMA), Super Wideband Wideband) support, various technologies such as device networking (Device Networking) are being studied.
  • Massive MIMO Massive Multiple Input Multiple Output
  • NOMA Non-Orthogonal Multiple Access
  • Super Wideband Wideband various technologies such as device networking (Device Networking) are being studied.
  • a technical problem of the present disclosure is to provide a method and apparatus for transmitting and receiving CSI in a wireless communication system.
  • an additional technical problem of the present disclosure is to provide a method and apparatus for obtaining a channel estimation result based on AI (Artificial Intelligence)/ML (Machine Learning) model in an evolved wireless communication system.
  • AI Artificial Intelligence
  • ML Machine Learning
  • an additional technical problem of the present disclosure is to provide a method and apparatus for controlling the size of one or more parameter sets included in an AI model.
  • a method for performing channel state information (CSI) reporting by a terminal in a wireless communication system includes at least one reference signal (RS) for the CSI reporting. receiving from a base station; obtaining a result of channel estimation by inputting information related to the at least one reference signal to an artificial intelligence (AI) model; and transmitting the CSI to the base station based on a result of the channel estimation, wherein the AI model includes a plurality of parameter sets, and a size of each of the plurality of parameter sets is , information related to a downlink (DL) channel scheduled by the base station, or information related to a predefined resource group.
  • RS reference signal
  • AI artificial intelligence
  • a method for receiving a channel state information (CSI) report by a base station in a wireless communication system includes at least one reference signal (RS) for the CSI report. transmitting to a terminal; and receiving the CSI based on a result of channel estimation obtained through the information related to the at least one RS from the terminal, wherein the information related to the at least one RS is input to an artificial intelligence (AI) model.
  • AI artificial intelligence
  • the AI model Based on the input by the terminal, the result of the channel estimation is output, the AI model includes a plurality of parameter sets, and the size of each of the plurality of parameter sets is It may be based on information related to a downlink (DL) channel scheduled by , or information related to a predefined resource group.
  • a method and apparatus for transmitting and receiving CSI in a wireless communication system may be provided.
  • a method and apparatus for obtaining a channel estimation result based on an AI/ML model in an evolved wireless communication system may be provided.
  • a method and apparatus for controlling the size of one or more parameter sets included in an AI model may be provided.
  • FIG. 1 illustrates the structure of a wireless communication system to which the present disclosure may be applied.
  • FIG. 2 illustrates a frame structure in a wireless communication system to which the present disclosure can be applied.
  • FIG 3 illustrates a resource grid in a wireless communication system to which the present disclosure may be applied.
  • FIG. 4 illustrates a physical resource block in a wireless communication system to which the present disclosure may be applied.
  • FIG. 5 illustrates a slot structure in a wireless communication system to which the present disclosure may be applied.
  • FIG. 6 illustrates physical channels used in a wireless communication system to which the present disclosure can be applied and a general signal transmission/reception method using them.
  • FIG. 7 illustrates a multiple TRP transmission scheme in a wireless communication system to which the present disclosure can be applied.
  • FIG. 8 is a diagram illustrating a downlink transmission/reception operation in a wireless communication system to which the present disclosure may be applied.
  • FIG. 9 is a diagram illustrating an uplink transmission/reception operation in a wireless communication system to which the present disclosure may be applied.
  • FIG. 11 illustrates a Feed-Forward Neural Network.
  • FIG. 13 illustrates a convolutional neural network
  • 16 is a diagram illustrating segmented AI inference.
  • FIG. 17 illustrates the application of a functional framework in a wireless communication system.
  • FIG. 20 illustrates a 1D CNN structure for AI/ML-based channel estimation in a wireless communication system to which the present disclosure can be applied.
  • 21 illustrates an output value estimation method in a 1D CNN structure for AI/ML-based channel estimation in a wireless communication system to which the present disclosure can be applied.
  • FIG. 22 illustrates a 2D CNN structure for AI/ML-based channel estimation in a wireless communication system to which the present disclosure can be applied.
  • FIG. 23 illustrates an output value estimation method in a 2D CNN structure for AI/ML-based channel estimation in a wireless communication system to which the present disclosure can be applied.
  • FIG. 24 illustrates padding and pooling in a CNN structure for channel estimation based on AI/ML in a wireless communication system to which the present disclosure can be applied.
  • 25 is a diagram illustrating a signaling procedure between a base station and a terminal for a method for reporting channel state information according to an embodiment of the present disclosure.
  • 26 is a diagram illustrating an operation of a terminal for a method for reporting channel state information according to an embodiment of the present disclosure.
  • 27 is a diagram illustrating an operation of a base station for a method for reporting channel state information according to an embodiment of the present disclosure.
  • 28 is a diagram for explaining a method of performing padding on input data according to an embodiment of the present disclosure.
  • 29 is a diagram for explaining a method of performing cyclic padding on input data according to an embodiment of the present disclosure.
  • FIG. 30 is a diagram for explaining a process of outputting a feature map based on a kernel corresponding to each of zero padding and cyclic padding, according to an embodiment of the present disclosure.
  • 31 is a diagram for explaining a process of performing padding on input data according to an embodiment of the present disclosure.
  • FIG. 32 illustrates a block configuration diagram of a wireless communication device according to an embodiment of the present disclosure.
  • first and second are used only for the purpose of distinguishing one component from another component and are not used to limit the components, unless otherwise specified. The order or importance among them is not limited. Accordingly, within the scope of the present disclosure, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly, a second component in one embodiment may be referred to as a first component in another embodiment. can also be called
  • the present disclosure describes a wireless communication network or wireless communication system, and operations performed in the wireless communication network control the network and transmit or receive signals in a device (for example, a base station) in charge of the wireless communication network. It may be performed in the process of receiving, or in the process of transmitting or receiving signals from a terminal coupled to the corresponding wireless network to a network or between terminals.
  • a device for example, a base station
  • transmitting or receiving a channel includes the meaning of transmitting or receiving information or a signal through a corresponding channel.
  • transmitting a control channel means transmitting control information or a signal through the control channel.
  • transmitting a data channel means transmitting data information or a signal through the data channel.
  • downlink means communication from a base station to a terminal
  • uplink means communication from a terminal to a base station.
  • a transmitter may be part of a base station and a receiver may be part of a terminal.
  • a transmitter may be a part of a terminal and a receiver may be a part of a base station.
  • a base station may be expressed as a first communication device
  • a terminal may be expressed as a second communication device.
  • a base station includes a fixed station, a Node B, an evolved-NodeB (eNB), a Next Generation NodeB (gNB), a base transceiver system (BTS), an access point (AP), and a network (5G Network), AI (Artificial Intelligence) system/module, RSU (road side unit), robot, drone (UAV: Unmanned Aerial Vehicle), AR (Augmented Reality) device, VR (Virtual Reality) device, etc.
  • AI Artificial Intelligence
  • RSU road side unit
  • robot UAV: Unmanned Aerial Vehicle
  • AR Algmented Reality
  • VR Virtual Reality
  • a terminal may be fixed or mobile, and a user equipment (UE), a mobile station (MS), a user terminal (UT), a mobile subscriber station (MSS), a subscriber station (SS), and an advanced mobile (AMS) Station), WT (Wireless terminal), MTC (Machine-Type Communication) device, M2M (Machine-to-Machine) device, D2D (Device-to-Device) device, vehicle, RSU (road side unit), It can be replaced with terms such as robot, AI (Artificial Intelligence) module, drone (UAV: Unmanned Aerial Vehicle), AR (Augmented Reality) device, VR (Virtual Reality) device, etc.
  • AI Artificial Intelligence
  • drone UAV: Unmanned Aerial Vehicle
  • AR Algmented Reality
  • VR Virtual Reality
  • CDMA may be implemented with a radio technology such as Universal Terrestrial Radio Access (UTRA) or CDMA2000.
  • TDMA may be implemented with a radio technology such as Global System for Mobile communications (GSM)/General Packet Radio Service (GPRS)/Enhanced Data Rates for GSM Evolution (EDGE).
  • GSM Global System for Mobile communications
  • GPRS General Packet Radio Service
  • EDGE Enhanced Data Rates for GSM Evolution
  • OFDMA may be implemented with radio technologies such as IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802-20, and Evolved UTRA (E-UTRA).
  • UTRA is part of the Universal Mobile Telecommunications System (UMTS).
  • 3rd Generation Partnership Project (3GPP) Long Term Evolution (LTE) is a part of Evolved UMTS (E-UMTS) using E-UTRA
  • LTE-A (Advanced) / LTE-A pro is an evolved version of 3GPP LTE.
  • 3GPP NR New Radio or New Radio Access Technology
  • 3GPP LTE/LTE-A/LTE-A pro is an evolved version of 3GPP LTE/LTE-A/LTE-A pro.
  • LTE refers to technology after 3GPP Technical Specification (TS) 36.xxx Release 8.
  • TS Technical Specification
  • LTE technology after 3GPP TS 36.xxx Release 10 is referred to as LTE-A
  • LTE technology after 3GPP TS 36.xxx Release 13 is referred to as LTE-A pro
  • 3GPP NR refers to technology after TS 38.xxx Release 15.
  • LTE/NR may be referred to as a 3GPP system.
  • "xxx" means standard document detail number.
  • LTE/NR may be collectively referred to as a 3GPP system.
  • TS 36.211 Physical Channels and Modulation
  • TS 36.212 Multiplexing and Channel Coding
  • TS 36.213 Physical Layer Procedures
  • TS 36.300 General Description
  • TS 36.331 Radio Resource Control
  • TS 38.211 Physical Channels and Modulation
  • TS 38.212 Multiplexing and Channel Coding
  • TS 38.213 Physical Layer Procedures for Control
  • TS 38.214 Physical Layer Procedures for Data
  • TS 38.300 General description of NR and New Generation-Radio Access Network (NG-RAN)
  • TS 38.331 Radio Resource Control Protocol Specification
  • channel state information - reference signal resource indicator channel state information - reference signal resource indicator
  • channel state information - reference signal channel state information - reference signal
  • Layer 1 reference signal received quality Layer 1 reference signal received quality
  • orthogonal frequency division multiplexing orthogonal frequency division multiplexing (orthogonal frequency division multiplexing)
  • radio resource control radio resource control
  • Synchronization signal block including primary synchronization signal (PSS), secondary synchronization signal (SSS) and physical broadcast channel (PBCH)
  • NR is an expression showing an example of 5G RAT.
  • a new RAT system including NR uses an OFDM transmission scheme or a transmission scheme similar thereto.
  • the new RAT system may follow OFDM parameters different from those of LTE.
  • the new RAT system follows the numerology of the existing LTE/LTE-A as it is, but may support a larger system bandwidth (eg, 100 MHz).
  • one cell may support a plurality of numerologies. That is, terminals operating with different numerologies can coexist in one cell.
  • a numerology corresponds to one subcarrier spacing in the frequency domain.
  • Different numerologies can be defined by scaling the reference subcarrier spacing by an integer N.
  • FIG. 1 illustrates the structure of a wireless communication system to which the present disclosure may be applied.
  • the NG-RAN is an NG-RA (NG-Radio Access) user plane (ie, a new AS (access stratum) sublayer / PDCP (packet data convergence protocol) / RLC (radio link control) / MAC / PHY) and control plane (RRC) protocol termination to the UE.
  • the gNBs are interconnected through an Xn interface.
  • the gNB is also connected to a New Generation Core (NGC) through an NG interface. More specifically, the gNB is connected to an Access and Mobility Management Function (AMF) through an N2 interface and to a User Plane Function (UPF) through an N3 interface.
  • AMF Access and Mobility Management Function
  • UPF User Plane Function
  • FIG. 2 illustrates a frame structure in a wireless communication system to which the present disclosure can be applied.
  • An NR system can support multiple numerologies.
  • numerology may be defined by subcarrier spacing and cyclic prefix (CP) overhead.
  • the multiple subcarrier spacing can be derived by scaling the basic (reference) subcarrier spacing by an integer N (or ⁇ ).
  • N or ⁇
  • the numerology used can be selected independently of the frequency band.
  • various frame structures according to a plurality of numerologies may be supported.
  • OFDM numerology and frame structure that can be considered in the NR system will be described.
  • Multiple OFDM numerologies supported in the NR system can be defined as shown in Table 1 below.
  • NR supports multiple numerologies (or subcarrier spacing, SCS) to support various 5G services. For example, when SCS is 15 kHz, a wide area in traditional cellular bands support, dense-urban, lower latency and wider carrier bandwidth when SCS is 30kHz/60kHz, and phase when SCS is 60kHz or higher In order to overcome phase noise, it supports a bandwidth greater than 24.25 GHz
  • the NR frequency band is defined as two types (FR1, FR2) frequency range.
  • FR1, FR2 are as follows It may be configured as shown in Table 2. Also, FR2 may mean millimeter wave (mmW).
  • T TA (N TA +N TA,offset )T c before the start of the corresponding downlink frame in the corresponding terminal.
  • slots are numbered in increasing order of n s ⁇ ⁇ 0,..., N slot subframe, ⁇ -1 ⁇ within a subframe, and within a radio frame They are numbered in increasing order n s,f ⁇ ⁇ 0,..., N slot frame, ⁇ -1 ⁇ .
  • One slot is composed of consecutive OFDM symbols of N symb slots , and N symb slots are determined according to CP.
  • the start of slot n s ⁇ in a subframe is temporally aligned with the start of OFDM symbol n s ⁇ N symb slot in the same subframe. Not all terminals can simultaneously transmit and receive, which means that not all OFDM symbols in a downlink slot or uplink slot can be used.
  • Table 3 shows the number of OFDM symbols per slot (N symb slot ), the number of slots per radio frame (N slot frame, ⁇ ), and the number of slots per subframe (N slot subframe, ⁇ ) in the general CP.
  • Table 4 represents the number of OFDM symbols per slot, the number of slots per radio frame, and the number of slots per subframe in the extended CP.
  • one subframe may include 4 slots.
  • a mini-slot may include 2, 4, or 7 symbols, more or less symbols.
  • an antenna port antenna port
  • resource grid resource element
  • resource block carrier part, etc.
  • the antenna port is defined such that the channel on which a symbol on the antenna port is carried can be inferred from the channel on which other symbols on the same antenna port are carried. If the large-scale properties of the channel on which the symbols on one antenna port are carried can be inferred from the channel on which the symbols on the other antenna port are carried, then the two antenna ports are quasi co-located or QC/QCL (quasi co-located or quasi co-location).
  • the wide range characteristic includes one or more of delay spread, Doppler spread, frequency shift, average received power, and received timing.
  • FIG 3 illustrates a resource grid in a wireless communication system to which the present disclosure may be applied.
  • a resource grid is composed of N RB ⁇ N sc RB subcarriers in the frequency domain, and one subframe is composed of 14 2 ⁇ OFDM symbols.
  • a transmitted signal is described by one or more resource grids consisting of N RB ⁇ N sc RB subcarriers and 2 ⁇ N symb ( ⁇ ) OFDM symbols.
  • N RB ⁇ ⁇ N RB max, ⁇ The N RB max, ⁇ represents the maximum transmission bandwidth, which may vary not only between numerologies but also between uplink and downlink.
  • one resource grid may be set for each ⁇ and antenna port p.
  • Each element of the resource grid for ⁇ and antenna port p is referred to as a resource element and is uniquely identified by an index pair (k, l').
  • l' 0,...,2 ⁇ N symb ( ⁇ ) -1 is a symbol in a subframe indicates the location of
  • an index pair (k,l) is used.
  • l 0,...,N symb ⁇ -1.
  • the resource element (k,l') for ⁇ and antenna port p corresponds to a complex value a k,l' (p, ⁇ ) .
  • the indices p and ⁇ can be dropped, resulting in a complex value of a k,l' (p) or can be a k,l' .
  • Point A serves as a common reference point of the resource block grid and is obtained as follows.
  • OffsetToPointA for primary cell (PCell) downlink represents the frequency offset between point A and the lowest subcarrier of the lowest resource block overlapping the SS/PBCH block used by the UE for initial cell selection. It is expressed in resource block units assuming a 15 kHz subcarrier spacing for FR1 and a 60 kHz subcarrier spacing for FR2.
  • - absoluteFrequencyPointA represents the frequency-location of point A expressed as in ARFCN (absolute radio-frequency channel number).
  • Common resource blocks are numbered upwards from 0 in the frequency domain for the subcarrier spacing setting ⁇ . do.
  • the center of subcarrier 0 of common resource block 0 for subcarrier interval setting ⁇ coincides with 'point A'.
  • Equation 1 the relationship between the common resource block number n CRB ⁇ and the resource elements (k, l) for the subcarrier spacing ⁇ is given by Equation 1 below.
  • Physical resource blocks are numbered from 0 to N BWP,i size, ⁇ -1 within a bandwidth part (BWP), where i is the number of BWP.
  • BWP bandwidth part
  • Equation 2 The relationship between the physical resource block n PRB and the common resource block n CRB in BWP i is given by Equation 2 below.
  • N BWP,i start, ⁇ is a common resource block where BWP starts relative to common resource block 0.
  • Figure 4 illustrates a physical resource block in a wireless communication system to which the present disclosure may be applied.
  • Figure 5 illustrates a slot structure in a wireless communication system to which the present disclosure can be applied.
  • a slot includes a plurality of symbols in the time domain. For example, in the case of a normal CP, one slot includes 7 symbols, but in the case of an extended CP, one slot includes 6 symbols.
  • a carrier includes a plurality of subcarriers in the frequency domain.
  • a resource block (RB) is defined as a plurality of (eg, 12) consecutive subcarriers in the frequency domain.
  • a bandwidth part (BWP) is defined as a plurality of contiguous (physical) resource blocks in the frequency domain, and may correspond to one numerology (eg, SCS, CP length, etc.).
  • a carrier may include up to N (eg, 5) BWPs. Data communication is performed through an activated BWP, and only one BWP can be activated for one terminal.
  • Each element in the resource grid is referred to as a resource element (RE), and one complex symbol may be mapped.
  • RE resource element
  • the NR system can support up to 400 MHz per component carrier (CC). If a terminal operating in such a wideband CC always operates with radio frequency (RF) chips for the entire CC turned on, battery consumption of the terminal may increase.
  • a terminal operating in such a wideband CC always operates with radio frequency (RF) chips for the entire CC turned on, battery consumption of the terminal may increase.
  • RF radio frequency
  • different numerologies eg subcarrier spacing, etc.
  • the capability for the maximum bandwidth may be different for each terminal.
  • the base station may instruct the terminal to operate only in a part of the bandwidth of the wideband CC rather than in the entire bandwidth, and the part of the bandwidth is defined as a bandwidth part (BWP) for convenience.
  • BWP may be composed of consecutive RBs on the frequency axis and may correspond to one numerology (eg, subcarrier spacing, CP length, slot/mini-slot period).
  • the base station may set multiple BWPs even within one CC configured for the terminal. For example, in a PDCCH monitoring slot, a BWP occupying a relatively small frequency domain may be configured, and a PDSCH indicated by the PDCCH may be scheduled on a larger BWP.
  • the base station may configure at least one DL/UL BWP for a terminal associated with a wideband CC.
  • the base station may activate at least one DL/UL BWP among the configured DL/UL BWP(s) at a specific time (by L1 signaling or MAC Control Element (CE) or RRC signaling).
  • the base station may indicate switching to another configured DL / UL BWP (by L1 signaling or MAC CE or RRC signaling).
  • a timer value expires based on a timer, it may be switched to a predetermined DL/UL BWP.
  • the activated DL/UL BWP is defined as an active DL/UL BWP.
  • the terminal In situations such as when the terminal is performing an initial access process or before an RRC connection is set up, it may not be possible to receive the configuration for DL / UL BWP, so in this situation, the terminal This assumed DL/UL BWP is defined as the first active DL/UL BWP.
  • FIG. 6 illustrates physical channels used in a wireless communication system to which the present disclosure can be applied and a general signal transmission/reception method using them.
  • a terminal receives information from a base station through downlink, and the terminal transmits information to the base station through uplink.
  • Information transmitted and received between the base station and the terminal includes data and various control information, and various physical channels exist according to the type/use of the information transmitted and received by the base station and the terminal.
  • the terminal When the terminal is turned on or newly enters a cell, the terminal performs an initial cell search operation such as synchronizing with the base station (S601). To this end, the terminal receives a primary synchronization signal (PSS) and a secondary synchronization signal (PSS) from the base station to synchronize with the base station and obtain information such as a cell identifier (identifier, ID). can After that, the terminal can acquire intra-cell broadcast information by receiving a physical broadcast channel (PBCH) from the base station. Meanwhile, the terminal may check the downlink channel state by receiving a downlink reference signal (DL RS) in the initial cell search step.
  • PSS primary synchronization signal
  • PSS secondary synchronization signal
  • PBCH physical broadcast channel
  • DL RS downlink reference signal
  • the UE After completing the initial cell search, the UE obtains more detailed system information by receiving a physical downlink control channel (PDCCH) and a physical downlink control channel (PDSCH) according to information carried on the PDCCH. It can (S602).
  • a physical downlink control channel (PDCCH)
  • a physical downlink control channel (PDSCH)
  • S602 the UE obtains more detailed system information by receiving a physical downlink control channel (PDCCH) and a physical downlink control channel (PDSCH) according to information carried on the PDCCH. It can (S602).
  • PDCCH physical downlink control channel
  • PDSCH physical downlink control channel
  • the terminal may perform a random access procedure (RACH) to the base station (steps S603 to S606).
  • RACH random access procedure
  • the UE may transmit a specific sequence as a preamble through a physical random access channel (PRACH) (S603 and S605), and receive a response message to the preamble through a PDCCH and a corresponding PDSCH ( S604 and S606).
  • PRACH physical random access channel
  • a contention resolution procedure may be additionally performed.
  • the UE receives PDCCH/PDSCH as a general uplink/downlink signal transmission procedure (S607) and physical uplink shared channel (PUSCH)/physical uplink control channel (S607).
  • Control channel, PUCCH) transmission (S608) may be performed.
  • the terminal receives downlink control information (DCI) through the PDCCH.
  • DCI downlink control information
  • the DCI includes control information such as resource allocation information for a terminal, and has different formats depending on its purpose of use.
  • the control information that the terminal transmits to the base station through the uplink or the terminal receives from the base station is a downlink / uplink ACK / NACK (Acknowledgement / Non-Acknowledgement) signal, CQI (Channel Quality Indicator), PMI (Precoding Matrix) Indicator), RI (Rank Indicator), etc.
  • a terminal may transmit control information such as the above-described CQI/PMI/RI through PUSCH and/or PUCCH.
  • Table 5 shows an example of a DCI format in the NR system.
  • DCI format uses 0_0 Scheduling of PUSCH in one cell 0_1 Scheduling of one or multiple PUSCHs in one cell, or indication of cell group (CG) downlink feedback information to the UE 0_2 Scheduling of PUSCH in one cell 1_0 Scheduling of PDSCH in one DL cell 1_1 Scheduling of PDSCH in one cell 1_2 Scheduling of PDSCH in one cell
  • DCI formats 0_0, 0_1, and 0_2 are resource information related to PUSCH scheduling (eg, UL/SUL (Supplementary UL), frequency resource allocation, time resource allocation, frequency hopping, etc.), transport block ( transport block, TB) related information (eg, MCS (Modulation Coding and Scheme), NDI (New Data Indicator), RV (Redundancy Version), etc.), HARQ (Hybrid - Automatic Repeat and request) related information (eg , process number, downlink assignment index (DAI), PDSCH-HARQ feedback timing, etc.), multi-antenna related information (eg, DMRS sequence initialization information, antenna port, CSI request, etc.), power control information (eg, PUSCH power control, etc.), and control information included in each DCI format may be predefined.
  • PUSCH scheduling eg, UL/SUL (Supplementary UL), frequency resource allocation, time resource allocation, frequency hopping, etc.
  • transport block transport block
  • DCI format 0_0 is used for PUSCH scheduling in one cell.
  • the information included in the DCI format 0_0 is CRC (cyclic redundancy check) by C-RNTI (cell radio network temporary identifier, Cell RNTI) or CS-RNTI (Configured Scheduling RNTI) or MCS-C-RNTI (Modulation Coding Scheme Cell RNTI) ) is scrambled and transmitted.
  • C-RNTI cell radio network temporary identifier, Cell RNTI
  • CS-RNTI Configured Scheduling RNTI
  • MCS-C-RNTI Modulation Coding Scheme Cell RNTI
  • DCI format 0_1 is used to instruct the UE to schedule one or more PUSCHs in one cell or configured grant (configure grant, CG) downlink feedback information.
  • Information included in DCI format 0_1 is transmitted after being CRC scrambled by C-RNTI, CS-RNTI, SP-CSI-RNTI (Semi-Persistent CSI RNTI) or MCS-C-RNTI.
  • DCI format 0_2 is used for PUSCH scheduling in one cell.
  • Information included in DCI format 0_2 is transmitted after being CRC scrambled by C-RNTI, CS-RNTI, SP-CSI-RNTI or MCS-C-RNTI.
  • DCI formats 1_0, 1_1, and 1_2 are resource information related to PDSCH scheduling (eg, frequency resource allocation, time resource allocation, VRB (virtual resource block)-PRB (physical resource block) mapping, etc.), transport block (TB) related information (eg, MCS, NDI, RV, etc.), HARQ related information (eg, process number, DAI, PDSCH-HARQ feedback timing, etc.), multi-antenna related information (eg, antenna port , transmission configuration indicator (TCI), sounding reference signal (SRS) request, etc.), PUCCH-related information (eg, PUCCH power control, PUCCH resource indicator, etc.), and the control information included in each DCI format can be predefined.
  • PDSCH scheduling eg, frequency resource allocation, time resource allocation, VRB (virtual resource block)-PRB (physical resource block) mapping, etc.
  • transport block (TB) related information eg, MCS, NDI, RV, etc.
  • HARQ related information
  • DCI format 1_0 is used for PDSCH scheduling in one DL cell.
  • Information included in DCI format 1_0 is transmitted after being CRC scrambled by C-RNTI, CS-RNTI or MCS-C-RNTI.
  • DCI format 1_1 is used for PDSCH scheduling in one cell.
  • Information included in DCI format 1_1 is transmitted after being CRC scrambled by C-RNTI, CS-RNTI or MCS-C-RNTI.
  • DCI format 1_2 is used for PDSCH scheduling in one cell.
  • Information included in DCI format 1_2 is transmitted after being CRC scrambled by C-RNTI, CS-RNTI or MCS-C-RNTI.
  • CoMP Coordinated Multi Point
  • a plurality of base stations exchange channel information (eg, RI/CQI/PMI/layer indicator (LI)) received as feedback from a terminal (eg, It refers to a method of effectively controlling interference by cooperatively transmitting to a terminal by using or utilizing the X2 interface.
  • CoMP includes joint transmission (JT), coordinated scheduling (CS), coordinated beamforming (CB), dynamic point selection (DPS), and dynamic point blocking ( DPB: Dynamic Point Blocking).
  • the M-TRP transmission method in which M TRPs transmit data to one terminal is largely divided into i) eMBB M-TRP transmission, which is a method for increasing the transmission rate, and ii) URLLC M, which is a method for increasing the reception success rate and reducing latency. It can be classified as -TRP transmission.
  • the M-TRP transmission method is i) multiple DCI (M-DCI) based M-TRP transmission in which each TRP transmits a different DCI and ii) S-DCI in which one TRP transmits DCI (single DCI) based M-TRP transmission.
  • M-DCI multiple DCI
  • S-DCI single DCI
  • scheme 3/4 is under standardization discussion.
  • scheme 4 means a method in which one TRP transmits a transport block (TB) in one slot, and has an effect of increasing the probability of data reception through the same TB received from multiple TRPs in multiple slots.
  • Scheme 3 means a method in which one TRP transmits TB through several consecutive OFDM symbols (ie, symbol groups), and several TRPs within one slot transmit the same TB through different symbol groups. can be set to transmit.
  • the UE transmits the PUSCH (or PUCCH) scheduled by the DCI received with different control resource sets (CORESETs) (or CORESETs belonging to different CORESET groups) to different TRPs. , or may be recognized as PDSCH (or PDCCH) of different TRPs.
  • CORESETs control resource sets
  • PDSCH or PDCCH
  • a scheme for UL transmission eg, PUSCH/PUCCH
  • UL transmission eg, PUSCH/PUCCH
  • MTRP-URLLC may mean that the same transport block (TB) is transmitted using a different layer/time/frequency of the M-TRP.
  • a UE configured for the MTRP-URLLC transmission method may be instructed by DCI of various TCI state(s), and it may be assumed that data received using the QCL RS of each TCI state are the same TB.
  • MTRP-eMBB may mean that M-TRP transmits another TB using a different layer/time/frequency. It can be assumed that the UE configured for the MTRP-eMBB transmission method receives several TCI state(s) through DCI, and data received using the QCL RS of each TCI state is a different TB.
  • the UE separately uses the RNTI set for MTRP-URLLC and the RNTI set for MTRP-eMBB, it is possible to determine/determine whether the corresponding M-TRP transmission is URLLC transmission or eMBB transmission. That is, if CRC masking of the DCI received by the UE is performed using the RNTI set for MTRP-URLLC, this corresponds to URLLC transmission, and CRC masking of DCI is performed using the RNTI set for MTRP-eMBB , this may correspond to eMBB transmission.
  • the CORESET group identifier (group ID) described/mentioned in the present disclosure may mean an index/identification information (eg, ID) for distinguishing CORESETs for each TRP/panel.
  • the CORESET group may be a group/union of CORESETs classified by an index/identification information (eg, ID)/the CORESET group ID for distinguishing CORESETs for each TRP/panel.
  • the CORESET group ID may be specific index information defined in CORSET configuration.
  • the CORESET group can be set/instructed/defined by an index defined in the CORESET configuration for each CORESET.
  • the CORESET group ID may mean an index/identification information/indicator for classifying/identifying between CORESETs set/related to each TRP/panel.
  • the CORESET group ID described/mentioned in the present disclosure may be expressed by being replaced with a specific index/specific identification information/specific indicator for distinguishing/identifying between CORESETs set/related to each TRP/panel.
  • the CORESET group ID that is, a specific index/specific identification information/specific indicator for distinguishing/identifying between CORESETs set in/associated with each TRP/panel, is higher layer signaling (eg, RRC signaling)/second It may be set/instructed to the UE through layer signaling (L2 signaling, eg, MAC-CE)/first layer signaling (L1 signaling, eg, DCI).
  • L2 signaling eg, MAC-CE
  • L1 signaling eg, DCI
  • PDCCH detection may be performed for each TRP/panel (ie, for each TRP/panel belonging to the same CORESET group) in units of a corresponding CORESET group.
  • Uplink control information eg, CSI, HARQ-A / N (ACK / NACK), SR (for example, CSI, HARQ-A / N (ACK / NACK), SR (for each TRP / panel belonging to the same CORESET group) for each TRP / panel per CORESET group)) scheduling request
  • uplink physical channel resources eg, PUCCH/PRACH/SRS resources
  • a ControlResourceSet information element which is a higher layer parameter, is used to set a time/frequency control resource set (CORESET).
  • the control resource set (CORESET) may be related to detection and reception of downlink control information.
  • the ControlResourceSet IE is a CORESET related ID (eg, controlResourceSetID) / index of a CORESET pool for CORESET (eg, CORESETPoolIndex) / time / frequency resource setting of CORESET / TCI information related to CORESET, etc. can include
  • the index of the CORESET pool (eg, CORESETPoolIndex) may be set to 0 or 1.
  • the CORESET group may correspond to a CORESET pool
  • the CORESET group ID may correspond to a CORESET pool index (eg, CORESETPoolIndex).
  • Non-coherent joint transmission is a method in which multiple transmission points (TPs) transmit data to one terminal using the same time and frequency resources. Data is transmitted through different layers (ie, different DMRS ports).
  • the TP delivers data scheduling information to the terminal receiving the NCJT through DCI.
  • a method in which each TP participating in NCJT transfers scheduling information for data transmitted by itself to DCI is referred to as 'multi DCI based NCJT'. Since the N TPs participating in NCJT transmission transmit DL grant DCIs and PDSCHs to the UE, the UE receives N DCIs and N PDSCHs from the N TPs. Unlike this, a method in which one representative TP transfers scheduling information for data transmitted by itself and data transmitted by other TPs (ie, TPs participating in NCJT) to one DCI is referred to as 'single DCI based NCJT'. )'.
  • N TPs transmit one PDSCH, but each TP transmits only some layers of multiple layers constituting one PDSCH. For example, when 4 layer data is transmitted, TP 1 may transmit layer 2 and TP 2 may transmit the remaining 2 layers to the UE.
  • NCJP partially overlapped NCJP
  • NCJT can be divided into a fully overlapped NCJT in which time-frequency resources transmitted by each TP completely overlap and a partially overlapped NCJT in which only some time-frequency resources are overlapped. That is, in the case of partially overlapped NCJT, both data of TP 1 and TP2 are transmitted in some time-frequency resources, and only data of one of TP 1 or TP 2 is transmitted in the remaining time-frequency resources.
  • the following two methods can be considered as transmission/reception methods for improving reliability using transmission in multiple TRPs.
  • FIG. 7 illustrates a multiple TRP transmission scheme in a wireless communication system to which the present disclosure can be applied.
  • the layer group may mean one or a predetermined layer set composed of one or more layers.
  • the amount of transmission resources increases due to the number of layers, and through this, there is an advantage that robust channel coding of a low code rate can be used for TB, and also, since the channels are different from multiple TRPs, diversity ), the reliability of the received signal can be expected to be improved based on the gain.
  • FIG. 7(b) an example of transmitting different CWs through layer groups corresponding to different TRPs is shown.
  • TBs corresponding to CW #1 and CW #2 in the figure are the same. That is, CW #1 and CW #2 mean that the same TB is converted into different CWs through channel coding or the like by different TRPs. Therefore, it can be regarded as an example of repeated transmission of the same TB.
  • a code rate corresponding to TB may be higher than that of FIG. 7(a).
  • the code rate can be adjusted by indicating different RV (redundancy version) values for the encoded bits generated from the same TB, or the modulation order of each CW can be adjusted. has the advantage of being
  • the same TB is repeatedly transmitted through different layer groups, and as each layer group is transmitted by different TRP / panel, the terminal receives data can increase your odds.
  • This is referred to as a Spatial Division Multiplexing (SDM) based M-TRP URLLC transmission scheme.
  • SDM Spatial Division Multiplexing
  • Layers belonging to different layer groups are transmitted through DMRS ports belonging to different DMRS CDM groups.
  • FIG. 8 is a diagram illustrating a downlink transmission/reception operation in a wireless communication system to which the present disclosure may be applied.
  • the base station schedules downlink transmission such as frequency/time resources, transport layer, downlink precoder, and MCS (S1401).
  • the base station may determine a beam for PDSCH transmission to the terminal through the above-described operations.
  • the UE receives DCI for downlink scheduling (ie, including PDSCH scheduling information) on the PDCCH from the base station (S1402).
  • DCI for downlink scheduling ie, including PDSCH scheduling information
  • DCI format 1_0, 1_1 or 1_2 may be used for downlink scheduling, and in particular, DCI format 1_1 includes the following information: DCI format identifier (Identifier for DCI formats), bandwidth part indicator, Frequency domain resource assignment, time domain resource assignment, PRB bundling size indicator, rate matching indicator, ZP CSI-RS trigger (ZP CSI -RS trigger), antenna port(s), transmission configuration indication (TCI), SRS request, demodulation reference signal (DMRS) sequence initialization (DMRS sequence initialization)
  • the number of DMRS ports can be scheduled, and SU (Single-user) / MU (Multi-user) transmission scheduling is possible.
  • the TCI field is composed of 3 bits, and the QCL for the DMRS is dynamically indicated by indicating up to 8 TCI states according to the TCI field value.
  • the terminal receives downlink data from the base station on the PDSCH (S1403).
  • the PDSCH is decoded according to an instruction by the corresponding DCI.
  • the UE may set the DMRS configuration type by the upper layer parameter 'dmrs-Type', and the DMRS type is used to receive the PDSCH.
  • the maximum number of front-loaded DMRA symbols for the PDSCH may be set by the upper layer parameter 'maxLength'.
  • DMRS configuration type 1 if a single codeword is scheduled for a UE and an antenna port mapped with an index of ⁇ 2, 9, 10, 11, or 30 ⁇ is designated, or a single codeword is scheduled and ⁇ 2, If an antenna port mapped with an index of 9, 10, 11, or 12 ⁇ or ⁇ 2, 9, 10, 11, 30, or 31 ⁇ is specified, or if two codewords are scheduled for a UE, the UE selects all remaining orthogonal It is assumed that one antenna port is not associated with PDSCH transmission to another terminal.
  • DMRS configuration type 2 if a single codeword is scheduled for the UE and an antenna port mapped with an index of ⁇ 2, 10, or 23 ⁇ is designated, or a single codeword is scheduled and ⁇ 2, 10, If an antenna port mapped with an index of 23 or 24 ⁇ or ⁇ 2, 10, 23, or 58 ⁇ is specified, or if two codewords are scheduled for a UE, the UE transmits all remaining orthogonal antenna ports to another UE. It is assumed that it is not associated with PDSCH transmission of
  • the precoding granularity P' is a contiguous resource block in the frequency domain.
  • P' may correspond to one of ⁇ 2, 4, broadband ⁇ .
  • P' is determined as wideband, the UE does not expect to be scheduled with non-contiguous PRBs, and the UE can assume that the same precoding is applied to the allocated resource.
  • the Precoding Resource Block Group (PRG) is divided into P' consecutive PRBs.
  • the number of actually consecutive PRBs in each PRG may be one or more.
  • the UE may assume that the same precoding is applied to consecutive downlink PRBs in the PRG.
  • the UE In order for the UE to determine the modulation order, target code rate, and transport block size in the PDSCH, the UE first reads the 5-bit MCD field in the DCI, and modulates the modulation order and target code determine the rate. Then, the redundancy version field in the DCI is read, and the redundancy version is determined. And, the UE determines the transport block size using the number of layers and the total number of allocated PRBs before rate matching.
  • FIG. 9 is a diagram illustrating an uplink transmission/reception operation in a wireless communication system to which the present disclosure may be applied.
  • the base station schedules uplink transmission such as frequency/time resources, transport layers, uplink precoders, and MCS (S1501).
  • the base station may determine a beam for the UE to transmit the PUSCH through the above-described operations.
  • the terminal receives DCI for uplink scheduling (ie, including PUSCH scheduling information) from the base station on the PDCCH (S1502).
  • DCI for uplink scheduling ie, including PUSCH scheduling information
  • DCI format 0_0, 0_1 or 0_2 may be used for uplink scheduling, and in particular, DCI format 0_1 includes the following information: DCI format identifier (Identifier for DCI formats), UL/SUL (Supplementary uplink) indicator ( UL / SUL indicator), bandwidth part indicator, frequency domain resource assignment, time domain resource assignment, frequency hopping flag, modulation and coding scheme (MCS: Modulation and coding scheme), SRS resource indicator (SRI), precoding information and number of layers, antenna port(s), SRS request (SRS request), DMRS sequence initialization, UL-SCH (Uplink Shared Channel) indicator (UL-SCH indicator)
  • SRS resources set in the SRS resource set associated with the higher layer parameter 'usage' may be indicated by the SRS resource indicator field.
  • 'spatialRelationInfo' can be set for each SRS resource, and its value can be one of ⁇ CRI, SSB, SRI ⁇ .
  • the terminal transmits uplink data to the base station on the PUSCH (S1503).
  • the corresponding PUSCH is transmitted according to an instruction by the corresponding DCI.
  • codebook-based transmission For PUSCH transmission, two transmission schemes are supported: codebook-based transmission and non-codebook-based transmission:
  • the terminal When the upper layer parameter 'txConfig' is set to 'codebook', the terminal is configured for codebook-based transmission. On the other hand, when the upper layer parameter 'txConfig' is set to 'nonCodebook', the terminal is configured for non-codebook based transmission. If the upper layer parameter 'txConfig' is not set, the terminal does not expect to be scheduled by DCI format 0_1. When PUSCH is scheduled by DCI format 0_0, PUSCH transmission is based on a single antenna port.
  • PUSCH may be scheduled in DCI format 0_0, DCI format 0_1, DCI format 0_2, or semi-statically. If this PUSCH is scheduled by DCI format 0_1, the UE transmits the PUSCH based on SRI, TPMI (Transmit Precoding Matrix Indicator) and transmission rank from DCI, as given by the SRS resource indicator field and Precoding information and number of layers field Determine the precoder.
  • TPMI Transmit Precoding Matrix Indicator
  • TPMI Transmit Precoding Matrix Indicator
  • transmission rank from DCI, as given by the SRS resource indicator field and Precoding information and number of layers field Determine the precoder.
  • TPMI is used to indicate a precoder to be applied across antenna ports, and corresponds to an SRS resource selected by SRI when multiple SRS resources are configured.
  • TPMI is used to indicate a precoder to be applied across antenna ports and corresponds to the single SRS resource.
  • a transmission precoder is selected from an uplink codebook having the same number of antenna ports as the upper layer parameter 'nrofSRS-Ports'.
  • the terminal is configured with at least one SRS resource.
  • the SRI indicated in slot n is associated with the most recent transmission of the SRS resource identified by the SRI, where the SRS resource precedes the PDCCH carrying the SRI (i.e., slot n).
  • PUSCH may be scheduled in DCI format 0_0, DCI format 0_1 or semi-statically.
  • the UE can determine the PUSCH precoder and transmission rank based on the wideband SRI, where the SRI is given by the SRS resource indicator in the DCI or by the higher layer parameter 'srs-ResourceIndicator' given
  • the UE uses one or multiple SRS resources for SRS transmission, where the number of SRS resources may be configured for simultaneous transmission within the same RB based on UE capability. Only one SRS port is configured for each SRS resource. Only one SRS resource can be set with the upper layer parameter 'usage' set to 'nonCodebook'.
  • the maximum number of SRS resources that can be configured for non-codebook based uplink transmission is 4.
  • the SRI indicated in slot n is associated with the most recent transmission of the SRS resource identified by the SRI, where the SRS transmission precedes the PDCCH carrying the SRI (i.e., slot n).
  • channel state information-reference signal In a New Radio (NR) system, channel state information-reference signal (CSI-RS) is time and / or frequency tracking (time / frequency tracking), CSI calculation (computation), L1 (layer 1) - RSRP (reference signal received It is used for power computation and mobility.
  • CSI computation is related to CSI acquisition
  • L1-RSRP computation is related to beam management (BM).
  • Channel state information refers to information that can indicate the quality of a radio channel (or also referred to as a link) formed between a terminal and an antenna port.
  • a terminal eg, user equipment, UE transmits configuration information related to CSI to a base station (eg, general node) through RRC (radio resource control) signaling B, gNB).
  • RRC radio resource control
  • the CSI-related configuration information includes CSI-interference management (IM) resource-related information, CSI measurement configuration-related information, CSI resource configuration-related information, and CSI-RS resource-related information. Alternatively, at least one of information related to CSI report configuration may be included.
  • IM CSI-interference management
  • CSI-IM resource related information may include CSI-IM resource information, CSI-IM resource set information, and the like.
  • a CSI-IM resource set is identified by a CSI-IM resource set ID (identifier), and one resource set includes at least one CSI-IM resource.
  • Each CSI-IM resource is identified by a CSI-IM resource ID.
  • CSI resource configuration related information can be expressed as CSI-ResourceConfig IE.
  • CSI resource configuration related information defines a group including at least one of a non zero power (NZP) CSI-RS resource set, a CSI-IM resource set, and a CSI-SSB resource set. That is, the CSI resource configuration-related information includes a CSI-RS resource set list, and the CSI-RS resource set list includes at least one of an NZP CSI-RS resource set list, a CSI-IM resource set list, and a CSI-SSB resource set list. may contain one.
  • a CSI-RS resource set is identified by a CSI-RS resource set ID, and one resource set includes at least one CSI-RS resource.
  • Each CSI-RS resource is identified by a CSI-RS resource ID.
  • parameters indicating the use of CSI-RS eg, 'repetition' parameter related to BM and 'trs-Info' parameter related to tracking.
  • CSI report configuration-related information includes a report configuration type (reportConfigType) parameter representing time domain behavior and a reportQuantity parameter representing a CSI-related quantity for reporting.
  • the time domain behavior may be periodic, aperiodic or semi-persistent.
  • the UE measures CSI based on configuration information related to the CSI.
  • the CSI measurement may include (1) a process of receiving a CSI-RS by a UE and (2) a process of calculating CSI through the received CSI-RS, which will be described in detail later.
  • resource element (RE) mapping of CSI-RS resources is set in the time and frequency domains by higher layer parameter CSI-RS-ResourceMapping.
  • the terminal reports the measured CSI to the base station.
  • the terminal may omit the report.
  • the terminal may report to the base station.
  • the quantity is set to 'none', it is a case where an aperiodic TRS is triggered or repetition is set.
  • the report of the terminal can be omitted only when repetition is set to 'ON'.
  • node(s) and terminal(s) constituting a wireless communication network are becoming intelligent/advanced.
  • various networks according to various environmental parameters (eg, distribution/location of base stations, distribution/location/material of buildings/furniture, location/moving direction/speed of terminals, climate information, etc.) /base station determination parameter values (eg, transmit/receive power of each base station, transmit power of each terminal, precoder/beam of base station/terminal, time/frequency resource allocation for each terminal, duplex method of each base station, etc. ) is expected to be quickly optimized and derived/applied.
  • many standardization organizations eg, 3GPP, O-RAN
  • 3GPP 3GPP, O-RAN
  • AI Artificial Intelligence
  • AI corresponds to any automation in which a machine can substitute for a job to be performed by a person.
  • Machine learning refers to a technology in which a machine learns patterns for decision-making from data on its own without explicitly programming rules.
  • Deep learning is an artificial neural network-based model, which can be performed by a machine at once from unstructured data to feature extraction and judgment.
  • the algorithm relies on multi-layer networks of interconnected nodes for feature extraction and transformation inspired by biological neural systems, or neural networks.
  • Common deep learning network architectures include deep neural networks (DNNs), recurrent neural networks (RNNs), and convolutional neural networks (CNNs).
  • AI may be referred to as artificial intelligence based on deep learning in a narrow sense, but is not limited thereto in the present disclosure. That is, in the present disclosure, AI (or referred to as AI/ML) may collectively refer to automation technologies applied to intelligent machines (eg, UE, RAN, network node, etc.) capable of performing tasks like humans.
  • intelligent machines eg, UE, RAN, network node, etc.
  • AI (or AI/ML) can be classified according to various criteria as follows:
  • Offline learning follows a sequential process of database collection, learning, and prediction. That is, collection and learning can be performed offline, and completed programs can be installed in the field and used for prediction work.
  • centralized learning when training data collected from a plurality of different nodes is reported to a centralized node, all data resources/storage/learning (e.g., supervised learning) (supervised learning, unsupervised learning, reinforcement learning, etc.) are performed on one centralized node.
  • supervised learning supervised learning, unsupervised learning, reinforcement learning, etc.
  • Federated learning is built on data where collective models exist across disparate data owners. Instead of ingesting data into models, AI/ML models are imported as data sources, allowing local nodes/individual devices to collect data and train their own copy of the model, eliminating the need to report the source data to a central node. In federated learning, parameters/weights of an AI/ML model can be sent back to a centralized node to support general model training. Federated learning has advantages in terms of increased computational speed and information security. That is, the process of uploading personal data to the central server is unnecessary, and leakage and abuse of personal information can be prevented.
  • Distributed learning refers to the concept that the machine learning process is scaled and distributed across a cluster of nodes. Training models are split and shared across multiple nodes working concurrently to speed up model training.
  • Supervised learning is a machine learning task that aims to learn mapping features from inputs to outputs given a labeled data set.
  • the input data is called training data and has known labels or outcomes.
  • Examples of supervised learning include:
  • KNN k-Nearest Neighbor
  • SVM Support Vector Machines
  • Supervised learning can be further grouped into regression and classification problems, where classification is predicting labels and regression is predicting quantities.
  • Unsupervised learning is a machine learning task that aims to learn features that describe hidden structures in unlabeled data. Input data is unlabeled and has no known consequences.
  • Some examples of unsupervised learning include K-means clustering, principal component analysis (PCA), nonlinear independent component analysis (ICA), and long-short-term memory (LSTM). .
  • RL reinforcement learning
  • An agent aims to optimize a long-term goal by interacting with the environment based on a trial-and-error process, which is goal-oriented learning based on interaction with the environment.
  • An example of the RL algorithm is as follows.
  • SARSA State-Action-Reward-State-Action
  • reinforcement learning can be grouped into model-based reinforcement learning and model-free reinforcement learning as follows.
  • Model-based reinforcement learning Refers to a RL algorithm that uses a predictive model. The transition probabilities between the states are obtained using a model of the various dynamic states of the environment and these states leading to rewards.
  • Model-free reinforcement learning refers to RL algorithms based on values or policies that achieve maximum future rewards. Multi-agent environments/states are less computationally complex and do not require an exact representation of the environment.
  • RL algorithms can also be classified into value-based RL versus policy-based RL, policy-based RL versus non-policy RL, and the like.
  • FIG. 11 illustrates a Feed-Forward Neural Network.
  • a feed-forward neural network is composed of an input layer, a hidden layer, and an output layer.
  • FFNN In FFNN, information is transmitted only from the input layer to the output layer, and passes through the hidden layer if there is one.
  • category 1, category 2, and category 3 may be considered in terms of training, and category 1 and category 2 may be considered in terms of inference.
  • a recurrent neural network is a type of artificial neural network in which hidden nodes are connected with directed edges to form a directed cycle. It is a model suitable for processing data that appears sequentially, such as voice and text.
  • A denotes a neural network
  • x t denotes an input value
  • h t denotes an output value.
  • h t may mean a state value indicating a current state based on time
  • h t-1 may indicate a previous state value.
  • LSTM Long Short-Term Memory
  • RNN Random-Term Memory
  • FIG. 13 illustrates a convolutional neural network
  • a convolutional neural network (CNN) is used for two purposes: reducing model complexity and extracting good features by applying a convolution operation commonly used in the field of image processing or image processing.
  • Kernel or filter Means a unit/structure that applies weights to inputs in a specific range/unit.
  • the kernel (or filter) can be changed by learning.
  • Feature map It means the result of applying the kernel to the input.
  • Several feature maps can be extracted to induce robustness to distortion, change, etc.
  • - Pooling Refers to an operation (for example, max pooling, average pooling) to reduce the size of a feature map by downsampling the feature map.
  • Category 1 Structure information of each layer (e.g., number of hidden layers, padding/value, pooling/type, etc.)
  • category 1, category 2, and category 3 may be considered in terms of training, and category 1 and category 2 may be considered in terms of inference.
  • Auto encoder receives a feature vector x(x 1 , x 2 , x 3 , ...), and the same or similar vector x'(x' 1 , x' 2 , x' 3 , ... ) means a neural network that outputs ' .
  • Auto encoder has the same characteristics of input node and output node. Since auto encoder reconstructs the input, the output can be referred to as reconstruction. Also, auto encoder is a kind of unsupervised learning.
  • the loss function of the auto encoder illustrated in FIG. 14 is calculated based on the difference between the input and the output, and based on this, the degree of loss of the input is determined and the auto encoder performs an optimization process to minimize the loss. do.
  • Data collection Data collected from network nodes, management entities or UEs as a basis for AI model training, data analysis and inference
  • AI Model A data driven algorithm applying AI technology that generates a set of outputs including predictive information and/or decision parameters based on a set of inputs.
  • a data collection function 10 collects input data and processes input data to a model training function 20 and a model inference function 30. It is a function that provides data.
  • Examples of input data may include measurements from UEs or other network entities, actor feedback, and AI model output.
  • the data collection function 10 performs data preparation based on input data and provides processed input data through data preparation.
  • the data collection function 10 does not perform specific data preparation (eg, data pre-processing and cleaning, forming and transformation) for each AI algorithm, , data preparation common to AI algorithms can be performed.
  • the Model Training function (10) provides training data (11) to the Model Training function (20), and inference data (12) to the Model Inference function (30).
  • Training Data) (11) is data required as an input for the AI Model Training function (20).
  • Inference Data (12) is data required as an input for the AI Model Inference function (30).
  • the data collection function 10 may be performed by a single entity (eg, UE, RAN node, network node, etc.) or may be performed by a plurality of entities.
  • Training Data (11) and Inference Data (12) from a plurality of entities may be provided to the Model Training function (20) and the Model Inference function (30), respectively.
  • the Model Training function 20 is a function that performs AI model training, validation, and testing that can generate model performance metrics as part of an AI model testing procedure.
  • the Model Training function (20) is also responsible for data preparation (eg, data pre-processing and cleaning, forming and transformation) based on the Training Data (11) provided by the Data Collection function (10), if necessary.
  • Model Deployment/Update (13) is used to initially deploy the trained, verified, and tested AI model to the Model Inference function (30) or to provide an updated model to the Model Inference function (30). do.
  • the Model Inference function 30 is a function that provides an AI model inference output 16 (eg, prediction or decision).
  • the Model Inference function 30 may provide Model Performance Feedback 14 to the Model Training function 20, if applicable.
  • the Model Inference function (30) is also responsible for data preparation (eg, data pre-processing and cleaning, forming and transformation) based on the Inference Data (12) provided by the Data Collection function (10), if necessary.
  • the output (Output) 16 refers to the inference output of the AI model generated by the Model Inference function 30, and detailed information of the inference output may vary depending on the use case.
  • Model Performance Feedback (14) can be used to monitor the performance of the AI model, if available, and this feedback can also be omitted.
  • the Actor function 40 is a function that receives an output 16 from the Model Inference function 30 and triggers or performs a corresponding task/action.
  • the actor function 40 may trigger actions/actions for other entities (eg, one or more UEs, one or more RAN nodes, one or more network nodes, etc.) or itself.
  • Feedback (15) can be used to derive training data (11), inference data (12), or to monitor the performance of the AI model and its effect on the network.
  • the definition of training/validation/test in a data set used in AI/ML can be classified as follows.
  • - Validation data Data set for verifying a model that has already been trained. That is, it usually means a data set used to prevent over-fitting of the training data set.
  • Test data Data set for final evaluation. This data is irrelevant to learning.
  • the training data and validation data can be divided and used in a ratio of 8:2 or 7:3 within the entire training set, and if the test is included, 6:2:2 ( training: validation: test) can be divided and used.
  • the cooperation level can be defined as follows, and modification due to the combination of a plurality of levels below or separation of any one level is possible.
  • Cat 1 Entails inter-node support to improve each node's AI/ML algorithm. This applies when the UE receives assistance from the gNB (for training, adaptation, etc.) and vice versa. No exchange of models between network nodes is required at this level.
  • a RAN node eg, a base station, a TRP, a central unit (CU) of a base station, etc.
  • a network node eg, an operation administration maintenance (OAM) of a network operator, or a UE.
  • OAM operation administration maintenance
  • the function illustrated in FIG. 15 may be implemented in cooperation with two or more entities among a RAN, a network node, an OAM of a network operator, or a UE.
  • one entity may perform some of the functions of FIG. 15 and another entity may perform the remaining functions.
  • transmission / provision of data / information between each function is omitted. It can be.
  • the Model Training function 20 and the Model Inference function 30 are performed by the same entity, the delivery/provision of the Model Deployment/Update 13 and the Model Performance Feedback 14 may be omitted.
  • any one of the functions illustrated in FIG. 15 may be performed in collaboration with two or more entities among a RAN, a network node, an OAM of a network operator, or a UE. This may be referred to as a split AI operation.
  • 16 is a diagram illustrating segmented AI inference.
  • Model Inference function among split AI operations, is cooperatively performed by an end device such as a UE and a network AI/ML endpoint.
  • each of the Model Training function, Actor, and Data Collection function is split into multiple parts according to the current task and environment, and can be performed by cooperation of multiple entities.
  • a computation-intensive and energy-intensive part may be performed at a network endpoint, while a privacy-sensitive part and a delay-sensitive part may be performed at an end device.
  • the end device may execute a job/model from the input data to a specific part/layer and then transmit intermediated data to the network endpoint.
  • a network endpoint executes the remaining parts/layers and provides inference outputs to one or more devices performing the action/task.
  • FIG. 17 illustrates the application of a functional framework in a wireless communication system.
  • the AI Model Training function is performed by a network node (eg, a core network node, an OAM of a network operator, etc.), and an AI Model Inference function is performed by a RAN node (eg, a base station, a TRP, a CU of a base station, etc.) ) exemplifies the case performed by a network node (eg, a core network node, an OAM of a network operator, etc.), and an AI Model Inference function is performed by a RAN node (eg, a base station, a TRP, a CU of a base station, etc.) ) exemplifies the case performed by a network node (eg, a core network node, an OAM of a network operator, etc.), and an AI Model Inference function is performed by a RAN node (eg, a base station, a TRP, a CU of a base station, etc.) ) exemplifies the case performed by
  • Step 1 RAN node 1 and RAN node 2 transmit input data (ie, training data) for AI Model Training to the network node.
  • RAN node 1 and RAN node 2 transmit data collected from the UE (eg, measurement of the UE related to RSRP, RSRQ, SINR of the serving cell and the neighboring cell, location of the UE, speed, etc.) together to the network node.
  • data collected from the UE eg, measurement of the UE related to RSRP, RSRQ, SINR of the serving cell and the neighboring cell, location of the UE, speed, etc.
  • Step 2 The network node trains the AI Model using the received training data.
  • Step 3 The network node distributes/updates the AI Model to RAN node 1 and/or RAN node 2.
  • RAN node 1 (and/or RAN node 2) may continue to perform model training based on the received AI Model.
  • Step 4 RAN node 1 receives input data (ie, inference data) for AI Model Inference from the UE and RAN node 2.
  • input data ie, inference data
  • Step 5 RAN node 1 performs AI Model Inference using the received inference data to generate output data (eg, prediction or decision).
  • Step 6 If applicable, RAN node 1 may send model performance feedback to the network node.
  • Step 7 RAN node 1, RAN node 2, and UE (or 'RAN node 1 and UE', or 'RAN node 1 and RAN node 2') perform an action based on the output data. For example, in the case of a load balancing operation, the UE may move from RAN node 1 to RAN node 2.
  • Step 8 RAN node 1 and RAN node 2 transmit feedback information to the network node.
  • RAN node eg, a base station, a TRP, a CU of a base station, etc.
  • Step 1 The UE and RAN node 2 transmit input data (ie, training data) for AI Model Training to RAN node 1.
  • input data ie, training data
  • Step 2 RAN node 1 trains the AI model using the received training data.
  • Step 3 RAN node 1 receives input data (ie, inference data) for AI Model Inference from the UE and RAN node 2.
  • input data ie, inference data
  • Step 4 RAN node 1 performs AI Model Inference using the received inference data to generate output data (eg, prediction or decision).
  • Step 5 RAN node 1, RAN node 2, and UE (or 'RAN node 1 and UE', or 'RAN node 1 and RAN node 2') perform an action based on the output data. For example, in the case of a load balancing operation, the UE may move from RAN node 1 to RAN node 2.
  • Step 6 RAN node 2 sends feedback information to RAN node 1.
  • FIG. 19 illustrates a case in which the AI Model Training function is performed by a RAN node (eg, a base station, a TRP, a CU of a base station, etc.) and an AI Model Inference function is performed by a UE.
  • a RAN node eg, a base station, a TRP, a CU of a base station, etc.
  • an AI Model Inference function is performed by a UE.
  • Step 1 The UE transmits input data (ie, training data) for AI Model Training to the RAN node.
  • the RAN node may collect data from various UEs and/or from other RAN nodes (e.g., RSRP, RSRQ, measurement of the UE related to the serving cell and neighboring cell, SINR, UE location, speed, etc.) there is.
  • Step 2 The RAN node trains the AI Model using the received training data.
  • Step 3 The RAN node distributes/updates the AI Model to the UE.
  • the UE may continue to perform model training based on the received AI Model.
  • Step 4 Receives input data (ie, inference data) for AI Model Inference from the UE and the RAN node (and/or from other UEs).
  • Step 5 The UE generates output data (eg, prediction or decision) by performing AI Model Inference using the received inference data.
  • output data eg, prediction or decision
  • Step 6 If applicable, the UE may send model performance feedback to the RAN node.
  • Step 7 The UE and the RAN node perform an action based on the output data.
  • Step 8 The UE sends feedback information to the RAN node.
  • the convolutional neural network (CNN) structure is a structure that can demonstrate good performance in the field of image processing, and based on this characteristic, a method to improve performance by applying the CNN structure to channel estimation in a wireless communication system This is being actively discussed.
  • a 1D (1 Dimension, 1D) CNN structure and a 2D CNN structure may be considered.
  • FIG. 20 illustrates a 1D CNN structure for AI/ML-based channel estimation in a wireless communication system to which the present disclosure can be applied.
  • channel estimation in the frequency domain and channel estimation in the time domain are performed separately in the case of the 1D CNN structure.
  • channel estimation in the time domain may be performed after channel estimation in the frequency domain (eg, 1D Wiener filter).
  • each layer of a CNN is constructed from channel estimation values (eg, x0+jy0, ...) in the frequency domain.
  • channel estimation values eg, x0+jy0, ...) in the frequency domain.
  • real values are exemplified in FIG. 20 , it is obvious that the same can be applied to imaginary values.
  • the channel estimation value in the frequency domain is exemplified, it is obvious that the same can be applied to the channel estimation value in the time domain.
  • an input layer 2010 of a CNN may be configured based on a channel estimation value (eg, a real value among channel estimation values).
  • the shaded area 2005 may mean an area in which a DMRS is transmitted.
  • N eg, N is a natural number greater than or equal to 1
  • convolution/hidden layers 2020 may be formed between the input layer 2010 and the output layer 2030 .
  • the output layer 2030 may be formed from the result value of the convolution layer/hidden layer 2020.
  • 21 illustrates an output value estimation method in a 1D CNN structure for AI/ML-based channel estimation in a wireless communication system to which the present disclosure can be applied.
  • a feature map 2120 may be derived from an input value 2110 in each convolution layer/hidden layer constituting the 1D CNN, and an output value 2130 may be estimated.
  • the operation of deriving the feature map 2120 in each convolutional layer/hidden layer may correspond to [S2110-a, S2110-b, S2110-c, ...], based on the feature map 2120.
  • the operation of estimating the output value 2130 may correspond to [S2120].
  • a kernel/filter 2140 may be defined that applies a specific weight to an input value of a specific unit in order to derive a feature map 2120.
  • Each kernel/filter 2140 may be defined with a specific size (or number of weights).
  • each kernel/filter 2140 may be defined as a combination of specific weights (eg, w0/w1/w2/w3).
  • Each kernel/filter 2140 may have a specific movement range for deriving the feature map 2120 within the input value 2110, and the specific movement range may be named a stride.
  • the kernel/filter 2140 may be defined differently for each convolutional layer/hidden layer, or may be defined identically for all convolutional layers/hidden layers. 21 shows an example of a convolutional layer/hidden layer composed of one kernel/filter 2140 set/defined with a size of 4 and a stride of 1.
  • an activation function (AF) 2150 used to estimate an output value based on the feature map 2120 may be defined.
  • An activation function 2150 may be used to add nonlinearity to the feature map 2120 obtained through the convolution operation.
  • the activation function 2150 can be a step function, a sigmoid function, a hyperbolic tangent function, a ReLU function, a leaky ReLU function ), a softmax function, and the like.
  • FIG. 22 illustrates a 2D CNN structure for AI/ML-based channel estimation in a wireless communication system to which the present disclosure can be applied.
  • channel estimation in the frequency domain and channel estimation in the time domain are performed together when based on the 2D CNN structure.
  • channel estimation in the frequency domain and channel estimation in the time domain may be simultaneously performed (eg, 2D Wiener filter).
  • each layer of a CNN is constructed from channel estimation values (eg, x0+jy0, ...) in the frequency domain.
  • channel estimation values eg,
  • the method for configuring each layer of the 2D CNN structure in FIG. 22 is an extension of the method for configuring each layer of the 1D CNN structure in FIG. 20 to the 2-dimensional time/frequency domain, and other configuration methods are assumed to be the same can do.
  • an input layer 2210 of a CNN may be configured based on a channel estimation value (eg, a real value among channel estimation values).
  • the shadow area 2205 may mean an area in which a DMRS is transmitted.
  • N convolutional layers/hidden layers 2220 may be formed between the input layer 2210 and the output layer 2230 (eg, N is a natural number greater than or equal to 1).
  • the output layer 2230 may be formed from the resultant value of the convolution layer/hidden layer 2220 .
  • FIG. 23 illustrates an output value estimation method in a 2D CNN structure for AI/ML-based channel estimation in a wireless communication system to which the present disclosure can be applied.
  • a feature map 2320 may be derived from an input value 2310 in each convolution layer/hidden layer constituting a 2D CNN, and an output value 2330 may be estimated.
  • the method for estimating the output value in FIG. 23 is an extension of the method for estimating the output value in FIG. 20 to the two-dimensional time/frequency domain, and other methods can be assumed to be the same.
  • the operation of deriving the feature map 2320 in each convolution layer/hidden layer may correspond to [S2310-a, S2310-b, S2310-c, ...], based on the feature map 2320.
  • the operation of estimating the output value 2330 may correspond to [S2320].
  • a kernel/filter 2340 may be defined that applies a specific weight to an input value of a specific unit in order to derive a feature map 2320.
  • Each kernel/filter 2340 can be defined with a specific size (or number of weights). In this case, the specific size may be defined based on a two-dimensional (eg, two-dimensional time/frequency domain).
  • each kernel/filter 2340 may be defined as a combination of specific weights (eg, w00/w10/w20/w30/w01/w11/w21/w31).
  • Each kernel/filter 2340 may have a specific movement range for deriving the feature map 2320 within the input value 2310, and the specific movement range may be named a stride.
  • the stride may be defined based on a two-dimensional (eg, two-dimensional time/frequency domain).
  • the kernel/filter 2340 may be defined differently for each convolutional layer/hidden layer, or may be defined identically for all convolutional layers/hidden layers.
  • 23 shows an example of a convolutional layer/hidden layer composed of one kernel/filter 2340 set/defined with size 4x2 and stride [1, 1] (eg, [time domain, frequency domain]).
  • an activation function (AF) 2350 used to estimate an output value based on the feature map 2320 may be defined.
  • An activation function 2350 may be used to add nonlinearity to the feature map 2320 obtained through the convolution operation.
  • the activation function 2150 can be a step function, a sigmoid function, a hyperbolic tangent function, a ReLU function, a leaky ReLU function ), a softmax function, and the like.
  • FIG. 24 illustrates padding and pooling in a CNN structure for channel estimation based on AI/ML in a wireless communication system to which the present disclosure can be applied. Specifically, FIG. 24(a) illustrates a padding method, and FIG. 24(b) illustrates a pooling method.
  • the size of the feature map 2420 obtained as a result of the convolution operation is smaller than that of the input 2410, and a padding method may be used to prevent this. That is, the padding method may refer to a function/operation/structure that allows the size of the feature map 2420 to be the same as the size of the input 2410 even after the convolution operation.
  • 24(a) shows an example of applying zero padding in a 1D CNN structure.
  • the pooling (or pooling layer) 2440 may refer to a function/action/structure that reduces the size of the feature map 2420 by downsampling the feature map 2420.
  • Examples of pooling operations include max pooling, average pooling, and the like.
  • 24(b) shows an example of applying max pooling in a 1D CNN structure. The same concepts of kernel and stride can be applied to the pooling operation, and in this example, a kernel of size 4 and a stride set to 4 are assumed.
  • bias value can be applied in relation to the corresponding CNN structure.
  • the corresponding bias value may be applied in an added form to a specific feature map to which a kernel is applied.
  • the loss function may refer to a function that quantifies a difference between an actual value and a predicted value.
  • MSE mean square error
  • the optimizer may refer to a function for updating weight(s) suitable for each layer based on the loss function.
  • batch gradient descent stochastic gradient descent (SGD), mini-batch gradient descent, momentum, adagrad , RMSprop, adam, etc.
  • SGD stochastic gradient descent
  • mini-batch gradient descent momentum, adagrad , RMSprop, adam, etc.
  • inference performance of the corresponding node may be improved.
  • training results/information eg, weights, biases, etc.
  • the above-described update process eg, weight/bias update using a loss function/optimizer
  • the computational complexity and energy consumption of the corresponding node are reduced, and the inference performance is improved.
  • the proposed method in this disclosure is proposed/described based on the CNN structure, but is not limited to the CNN structure. Therefore, it is obvious that information exchange assuming a NN structure other than a CNN structure is also possible based on the operating method/principle/structure of the proposed method.
  • the above-described 1D CNN structure and 2D CNN structure are illustrative of structures mainly considered in the proposed method in this disclosure, and are not intended to limit the proposed method, so that specific functions are used by specific terms. /Movement is not restricted. That is, the above functions/operations/methods are not limited to specific terms and may be replaced by other terms.
  • the size (eg, the size of the input / input layer, the size of the output / output layer, the size of the convolution layer / hidden layer) expressed in the drawings (eg, FIGS. 20 to 24) , kernel size, etc.) correspond to an example and do not limit the proposed method, so the proposed method in this disclosure can be applied to other sizes as well.
  • L1 signaling in the present disclosure may mean DCI-based dynamic signaling between a base station and a terminal
  • L2 signaling may mean RRC/MAC-CE-based higher layer signaling between a base station and a terminal.
  • the present disclosure proposes methods for using the above-described 1D/2D CNN structure in a channel estimation process in a base station and/or a terminal.
  • a base station and/or terminal may transmit a reference signal for channel estimation, and the base station and/or terminal may estimate a (wireless) channel based on the reference signal.
  • an AI / ML model eg, CNN structure
  • a resource region where a reference signal is not transmitted eg, RE(s), RB(s), OFDM symbol(s), etc.
  • Channel estimation performance for and/or channel estimation performance of a resource region in which a reference signal is transmitted may be improved.
  • information on the AI/ML algorithm, NN structure, and related parameter(s) may be shared between the base station and the terminal. Through this, a training process in the base station and/or terminal can be omitted, and thus complexity and energy consumption required for the training process are reduced.
  • the proposed method in this disclosure is proposed/described based on the CNN structure and channel estimation operation, but can be applied to AI/ML algorithms and/or NN structures other than the CNN structure, and CSI feedback (CSI feedback )/positioning/beam management/channel prediction.
  • CSI feedback CSI feedback
  • 25 is a diagram illustrating a signaling procedure between a base station and a terminal for a method for reporting channel state information according to an embodiment of the present disclosure.
  • FIG. 25 is for convenience of description and does not limit the scope of the present disclosure. Some step(s) illustrated in FIG. 25 may be omitted depending on circumstances and/or settings. Also, the order of some step(s) illustrated in FIG. 25 may be changed.
  • the base station and the terminal in FIG. 25 are only examples, and may be implemented as the device illustrated in FIG. 32 below.
  • the processor 102/202 of FIG. 32 may control transmission/reception of channels/signals/data/information using the transceiver 106/206, and may transmit or receive channels/signals/information. It can also be controlled to store data/information or the like in the memory 104/204.
  • a base station in FIG. 25 may mean a network-level device.
  • FIG. 25 is shown as an example of a DNN structure, the signaling described in FIG. 25 may be extended and applied to sharing and applying information related to an AI/ML algorithm and/or a DNN/NN structure.
  • the terminal may transmit/report capability information of the corresponding terminal to the base station.
  • the terminal may report capability information related to the embodiments of the present disclosure (eg, the above-described AI/ML related information sharing method and embodiments 1 to 3).
  • the base station may perform (pre-) training on the DNN.
  • the base station may obtain information on parameter(s) required for the AI/ML algorithm and/or DNN/NN structure based on the learning process. For example, based on the corresponding process, the base station implements an embodiment of the present disclosure (e.g., the above-described AI/ML related information sharing method and embodiment 1, embodiment 2, and/or embodiment 1 and embodiment 2, respectively). Parameter(s) related to a detailed embodiment of, etc.) may be obtained.
  • the base station may set/instruct information related to the AI/ML algorithm and/or DNN/NN structure to the terminal.
  • the base station may set/instruct the terminal with information on the parameter(s) acquired in step S010.
  • the embodiments in the present disclosure e.g., the above-described AI/ML-related information sharing method and embodiment 1, embodiment 2, and/or detailed embodiments of each of embodiments 1 and 2) etc.
  • the embodiments in the present disclosure may be set/instructed to the terminal.
  • the base station may apply a DNN structure based on the AI/ML algorithm and/or DNN/NN structure shared with the terminal. For example, a base station may compress a DL channel and/or a reference signal (RS) by applying a DNN and transmit the compressed signal to the terminal.
  • RS reference signal
  • the base station may transmit the DL channel and/or RS to the terminal.
  • the base station may transmit the DL channel and/or RS to the terminal.
  • an AI/ML algorithm and/or a DNN/NN structure shared with the terminal may be applied.
  • the UE may apply the DNN shared by the base station to the DL channel and/or RS.
  • the terminal can decompress the DL channel and / or RS or estimate / predict the DL channel and / or RS based on the AI / ML algorithm and / or DNN / NN structure pre-configured by the base station there is.
  • the UE may tune DNN parameters based on the DL channel and/or RS. For example, the UE may perform training based on a DL channel and/or RS, and may adjust DNN parameters based on a learning result.
  • the UE may perform CSI reporting or transmit a UL channel and/or RS.
  • the terminal may perform CSI reporting on the result learned in step S035.
  • the UE may compress CSI by applying DNN.
  • the terminal may compress the UL channel and/or RS by applying the DNN and transmit the compressed UL channel to the base station.
  • the base station may apply the DNN to the CSI report, UL channel and/or RS.
  • the base station decompresses the CSI report, UL channel and / or RS, or the CSI report, UL channel and / or Alternatively, RS can be estimated/predicted.
  • the base station may tune DNN parameters based on the CSI report, UL channel and/or RS. For example, the base station may perform training based on a UL channel and/or RS, and may adjust DNN parameters based on a learning result. And/or, the base station may adjust the DNN parameter based on the reported value of the terminal.
  • the base station may configure / instruct the terminal to perform an update on parameter (s) for the AI / ML algorithm and / or DNN / NN structure.
  • the terminal may adjust/update the DNN parameters based on the update setting/instruction of the corresponding base station.
  • the terminal may adjust the DNN parameters. For example, as in the update setting/instruction in step S055, the terminal may adjust the DNN parameter based on the value(s) set/instructed by the base station based on L1/L2 signaling.
  • 26 is a diagram illustrating an operation of a terminal for a method for reporting channel state information according to an embodiment of the present disclosure.
  • an artificial intelligence (AI) model may be included in a terminal, but is not limited thereto, and may be included in a base station or other device (eg, a server/network node including a separate AI model).
  • the terminal inputting specific data into the AI model means that the terminal inputs specific data (eg, information related to RS) to the base station or the other device including the AI model. etc.). Accordingly, specific data may be input to the AI model, and the AI model may output a channel estimation result based on the specific data.
  • specific data eg, information related to RS
  • specific data may be input to the AI model, and the AI model may output a channel estimation result based on the specific data.
  • the learning and / or inference process of the AI model may be performed in the terminal, but is not limited thereto, and may be performed in the base station or / and other devices.
  • the terminal may receive at least one reference signal (RS) for CSI reporting from the base station (S2610).
  • RS reference signal
  • the terminal may obtain information related to the at least one RS by performing preprocessing on the received at least one RS.
  • the terminal may generate input data (or input values) (ie, information related to RS) to be input to the AI model learned to output a channel estimation result through a preprocessing process.
  • input data or input values
  • the AI model learned to output a channel estimation result through a preprocessing process.
  • the terminal may obtain a result of channel estimation by inputting information related to at least one reference signal to the AI model (S2620).
  • information related to at least one reference signal may be input data of an AI model, and a result of channel estimation (or a feature map) may be output data of an AI model.
  • the AI model may include a plurality of parameter sets.
  • a unit parameter set ie, kernel
  • the AI model may include a convolutional neural network (CNN) including a plurality of convolutional (CV) layers, and each of the plurality of CV layers may include a plurality of parameter sets.
  • the plurality of parameter sets may be selected from among parameter sets corresponding to zero padding or parameter sets corresponding to cyclic padding (eg, front cyclic padding and/or rear cyclic padding). may contain at least one.
  • each of the plurality of parameter sets may be based on information related to a downlink (DL) channel scheduled by the base station or information related to a predefined resource group.
  • DL downlink
  • the information related to the DL channel includes the number of symbols of a physical downlink shared channel (PDSCH) or a physical downlink control channel (PDCCH) scheduled by the base station.
  • PDSCH physical downlink shared channel
  • PDCCH physical downlink control channel
  • the information related to the predefined resource group may include the size of a physical resource block (PRB) or the number of symbols included in a unit slot.
  • PRB physical resource block
  • the size of a first parameter set applied/used for learning of an AI model and the size of a second parameter set applied for inference of an AI model may be different from each other.
  • a second parameter set applied to inference of the AI model may be determined based on the first parameter set applied to AI model learning. An example related to this will be described in detail with reference to Example 2-2-1 to be described later.
  • the size of a first parameter set applied to AI model learning among a plurality of parameter sets is based on the number of symbols included in a unit slot
  • a second parameter set applied to AI model inference among a plurality of parameter sets is based on the number of symbols included in a unit slot.
  • the size of the parameter set may be based on the number of symbols of the PDSCH or PDCCH scheduled by the base station.
  • the symbol with the highest index and the lowest index among symbol sets corresponding to information related to at least one reference signal may be performed based on each symbol of .
  • padding of L / 2 size is performed based on one of the symbol with the highest index and the symbol with the lowest index. padding of size L/2-1 may be performed based on the other one of the symbol with the highest index or the symbol with the lowest index.
  • the padding may include zero padding for adding at least one symbol having a value of 0, or cyclic padding for adding at least one symbol included in the symbol set (eg, front ) cyclic padding or rear cyclic padding).
  • the terminal may transmit / report CSI to the base station based on the result of channel estimation (obtained through the AI model) (S2630).
  • 27 is a diagram illustrating an operation of a base station for a method for reporting channel state information according to an embodiment of the present disclosure.
  • the base station may transmit at least one reference signal (RS) for CSI reporting to the terminal (S2710).
  • RS reference signal
  • the base station may receive the CSI based on the result of channel estimation obtained through information related to at least one RS from the terminal (S2720).
  • information related to at least one RS is input to the AI model by the terminal, a result of channel estimation may be output.
  • Embodiment 1 relates to a method and a cyclic padding structure for performing cyclic padding that allows input values (or input data) to have a structure in which a specific unit is repeated.
  • the specific unit may include a size unit of an input value or/and a kernel unit.
  • cyclic padding is named for convenience of description of the present disclosure and does not limit the present disclosure.
  • a padding method that enables an input value to have a structure in which a specific unit is repeated may be named in various ways.
  • cyclic padding is applied to each value of the feature map (or output value) It may mean a padding structure/method for utilizing the entire input value when obtaining .
  • cyclic padding may refer to a padding structure/method that allows an input value to have a structure in which a specific unit is repeated (in order to utilize all of the input values).
  • padding may be performed/constructed (ie, rear cyclic padding) in an ascending order from the input value of the lowest index to the input value of the highest index.
  • padding may be performed/constructed (ie, front cyclic padding) in descending order from the input value of the lowest index to the input value of the highest index.
  • front cyclic padding and/or back cyclic padding may be performed based on an input value. That is, front cyclic padding may mean padding connected to an input value of the (most) lowest index, and back cyclic padding may mean padding connected to an input value of the (most) high index.
  • Recursive padding can be applied/used for training/inference within AI/ML algorithms (using CNN structures). For example, when channel estimation based on a CNN structure is performed, cyclic padding may be applied/used.
  • recursive padding is used/applied when deriving a specific value of a feature map, more input values can be used for training/inference compared to a method using a single kernel, and thus channel selection performance can be improved.
  • the value of one of the characteristic maps In the process of calculating depending on the size of the input value / kernel size / zero padding size, middle cannot be used in the training/inference process.
  • the input value It can be interpreted as a channel estimation value obtained through the CNN structure for . part of the input value When used for derivation, channel estimation performance can be improved based on correlation characteristics in the frequency/time domain.
  • Cyclic padding allows for more input values (e.g. ) can be used for training/inference, it is possible to compensate for the above-mentioned problem of zero padding.
  • Embodiment 1-1 relates to the first kernel (eg, kernel #0) shown in (b) of FIG. 28 .
  • Training/inference may be performed based on an operation between the first kernel and zero-padded input values.
  • Coefficients of the first kernel may be learned based on frequency/time domain correlation characteristics.
  • some of the input values to which zero padding is applied cannot be used to derive a feature map value, and thus only some of the correlation features can be used. That is, the above-described problem of zero padding may occur.
  • w7 may mean a coefficient that can be trained in a relationship where the index of the input value versus the output value is as large as 1.
  • w8, w9, w10, and w11 may also mean coefficients that can be trained in a relationship where the index of the input value to the output value is larger by 2, 3, 4, and 5, respectively.
  • w5, w4, w3, w2, w1, and w0 each mean a coefficient that can be trained in a relationship where the index of the input value to the output value is small by 1, 2, 3, 4, 5, and 6, respectively.
  • the value of one of the feature maps In the case of , since there is no input value with a small index compared to the output value, the previously learned w5, w4, w3, w2, w1, and w0 are cannot be used in calculations. Accordingly, the influence of the coefficients in the training/inference process can be excluded (by the zero padding method).
  • Embodiment 1-2 relates to the second kernel (eg, kernel #1) shown in (a) of FIG. 29 .
  • Training/inference may be performed based on an operation between the input values to which the second kernel and front cyclic padding are applied.
  • Coefficients of the second kernel may be learned based on correlation characteristics in frequency/time domains. Training/inference can be performed by assuming that the input value and/or back padding are 0. Through this, it is possible to avoid learning and applying unnecessary coefficients in the training/inference process.
  • the disadvantage of zero padding can be solved by using the correlation characteristic related to the input value of the lower index among the input values using the full recursive padding value.
  • k5 may mean a coefficient that can be trained in a relationship where the index of the input value versus the output value is greater than 11.
  • k4, k3, k2, k1, and k0 may also mean coefficients that can be trained in a relationship where the index of the input value to the output value is as large as 10, 9, 8, 7, and 6, respectively.
  • the value of one of the feature maps In the case of calculating , the calculation result of the coefficients of kernel #1 and a specific input value may be used.
  • the specific input value may include an input value whose characteristics are not reflected by kernel #0.
  • Equation 3 is based on the coefficients of kernel #0 (eg, w6, w7, w8, w9, w10, and w11) and the coefficients of kernel #1 (eg, k0, k1, k2, k3, k4, and k5) Shows an example of how to derive .
  • kernel #0 eg, w6, w7, w8, w9, w10, and w11
  • kernel #1 eg, k0, k1, k2, k3, k4, and k5
  • each of k6, k7, k8, k9, k10, and k11 means a coefficient that can be trained in a relationship where the index of the input value to the output value is larger by 12, 13, 14, 15, 16, and 17, respectively.
  • the coefficients may be unnecessary coefficient values that cannot be applied/needed to be applied in the training/inference process due to the size of input values/size of kernel/size of padding. However, the coefficients may be defined for reasons such as maintaining the size of the feature map equal to the size of the input value.
  • the unnecessary coefficient values are to be defined within the kernel, in order to avoid learning and applying unnecessary coefficients in the training/inference process, training/inference can be performed assuming that input values and/or back padding are 0. . Accordingly, the influence of the unnecessary coefficients in the training/inference process can be excluded.
  • Embodiments 1-3 relate to the third kernel (eg, kernel #2) shown in (b) of FIG. 29 .
  • Training/inference may be performed based on an operation between the input values to which the second kernel and front cyclic padding are applied.
  • Coefficients of the third kernel may be learned based on frequency/time domain correlation characteristics. Training/inference can be performed by assuming that the input value and/or front padding are 0. Through this, it is possible to avoid learning and applying unnecessary coefficients in the training/inference process.
  • the disadvantage of zero padding can be solved by using a correlation characteristic related to an input value of a lower index among input values using a value of back recursive padding.
  • m11 may mean a coefficient that can be trained in a relationship where the index of the input value compared to the output value is 7 smaller.
  • m10, m9, m8, and m7 may also mean coefficients that can be trained in a relationship where the index of the input value to the output value is as small as 8, 9, 10, and 11, respectively.
  • the value of one of the feature maps In the case of calculating , the calculation result of the coefficients of kernel #2 and a specific input value may be used.
  • the specific input value may include an input value whose characteristics are not reflected by kernel #0.
  • Equation 4 is based on the coefficients of kernel #1 (eg, w0, w1, w2, w3, w4, and w5) and the coefficients of kernel #2 (eg, m7, m8, m9, m10, m11, and m12) Shows an example of how to derive .
  • kernel #1 eg, w0, w1, w2, w3, w4, and w5
  • kernel #2 eg, m7, m8, m9, m10, m11, and m12
  • each of m0, m1 to m6 may mean a coefficient that can be trained in a relationship where the index of the input value to the output value is small by 18, 17 to 12, respectively.
  • the coefficients may be unnecessary coefficient values that cannot be applied/needed to be applied in the training/inference process due to the size of input values/size of kernel/size of padding. However, the coefficients may be defined for reasons such as maintaining the size of the feature map equal to the size of the input value.
  • the unnecessary coefficient values are to be defined within the kernel, in order to avoid learning and applying unnecessary coefficients in the training/inference process, training/inference can be performed assuming that input values and/or front padding are 0. . Accordingly, the influence of the unnecessary coefficients in the training/inference process can be excluded.
  • Cyclic padding may refer to a structure/method including padding corresponding to at least one of the kernel #0, kernel #1, and kernel #2 and the at least one kernel.
  • the same kernel size / same padding size / same stride value is applied / set for the plurality of kernels To assume can be defined Through this, the complexity of the training/inference process can be reduced.
  • a kernel corresponding to an input value ie, kernel #0
  • a kernel corresponding to front cyclic padding ie, kernel #1
  • a kernel corresponding to back cyclic padding ie, kernel #2
  • a plurality of kernels are defined/configured/instructed for a specific CV layer (eg, a 1st CV layer and/or an n-th CV layer), and cyclic padding is defined/indicated for this. Can be set/instructed.
  • the UE when multiple kernels are set/instructed for the UE, the UE can assume cyclic padding for the CV layer in which the multiple kernels are set.
  • the terminal may assume a case where a plurality of kernels are set for a CV layer in which cyclic padding is set (ie, the opposite case).
  • a single kernel may be defined/configured/instructed for a specific CV layer (eg, the 1st CV layer and/or the n-th CV layer), and zero padding may be defined/set/instructed therefor.
  • the terminal may assume that a zero padding scheme is set for a CV layer in which the single kernel is set.
  • the terminal may assume a case in which a single kernel is set for a CV layer in which zero padding is set (ie, the opposite case).
  • a CNN model can be implemented with relatively low complexity.
  • a kernel corresponding to the input value i.e. kernel #0
  • a kernel corresponding to front cyclic padding i.e. kernel #1
  • a kernel corresponding to back cyclic padding i.e. Kernel #2
  • kernel #0, kernel #1, and kernel #2 may be configured/defined for the n-th CV layer.
  • kernel #0 is configured/defined for the nth CV layer
  • kernel #1 is configured/defined for the n+1st CV layer
  • kernel #2 is configured/defined for the n+2nd CV layer.
  • kernel #0 may be configured/defined for the n-th CV layer
  • kernel #1 and kernel #2 may be configured/defined for the n+1-th CV layer.
  • Configuration/definition of the kernel for the CV layer is not limited to the above-described example, and the order and combination of kernels configured/defined in the CV layer may be implemented in various ways.
  • FIG. 30 illustrates an example of feature maps (ie, output data) output based on kernel #1, kernel #2, and kernel #3 included in a specific CV layer.
  • Kernel / input value / size of padding / domain eg, frequency domain
  • dimension eg, 1-D
  • kernels/input values/sizes/domains eg, time domain
  • dimensions eg, 2-D
  • the characteristic map may also be interpreted as an output value.
  • the AI/ML algorithm and CNN are required to keep the size of the feature map equal to the size of the input value. Padding may be applied within. When padding is applied, various padding methods may be applied to help channel estimation performance.
  • the size of the kernel may be defined/configured/instructed to have the same value as the size of a physical resource block (PRB) (group). For example, it may be defined / set / instructed to configure an input value for performing training / inference in units of PRB size.
  • PRB physical resource block
  • the BS/UE may assume the same units for learning kernel parameters and inferring result values.
  • learning and inference can be performed with the maximum unit that can expect the same channel characteristics, so errors in the result values (learning/inference) can be reduced. there is.
  • the terminal sets the padding size to 12*K/2, and/or ceiling/floor/ Can be defined / set / instructed to assume a round (12 * K / 2) (and / or K ' / 2 and / or ceil / floor / round (K ' / 2) and / or an example to be described later) there is.
  • zero padding of the size of floor (12 * K / 2) may be performed before and after the input value of the PRB unit to perform training / inference (ie, adding a RE with a value of 0).
  • 12*K/2 zero padding is performed on the input value of the PRB unit to perform training/inference (i.e., an RE with a value of 0 is added). ), and 12*K/2 - 1 zero padding may be performed toward the higher index.
  • K may be assumed to be 1 in FIG. 31 .
  • Example 2-1 it is assumed that zero padding is performed when the kernel size is defined/configured/instructed to have the same value as the PRB size, but it is not limited thereto, and cyclic padding may be performed. .
  • the size of the kernel may be defined/configured/instructed to have the same value as the number of OFDM symbols corresponding to the PDSCH (/PDCCH) configured/instructed/scheduled to the UE (in the time domain).
  • 'kernel size' may mean the size of a kernel for performing (training/)inference. It can be defined/set/instructed to configure an input value that performs (training/)inference in the 'kernel size' (unit) for the terminal.
  • the size of the kernel for training can be set/instructed/defined as a different value from the 'kernel size'.
  • the size of a kernel for performing training may be defined/configured/instructed to have the same value as the number of OFDM symbols included in one slot.
  • the size of the kernel for performing training may be defined/configured/instructed to have the same value as the number of OFDM symbols of the largest length that can be configured/instructed/scheduled to the UE.
  • the size of the kernel for performing training is set / configured so that the base station / terminal has a specific value based on L1 / L2 signaling and / or a report from the terminal (eg, capability report / CSI report, etc.) can be directed.
  • the length of the PDSCH (/PDCCH) set/instructed/scheduled to the UE may be variable.
  • the lengths of PDSCH (/PDCCH) are different, training may be performed for each kernel having different lengths.
  • the unit for performing training is defined/configured/instructed as a specific size/length (eg, L1)
  • inference is performed within a kernel of a specific size/length (eg, L1) learned through the training.
  • a kernel of a specific size/length eg, L1 learned through the training.
  • the input value for training is configured with 'the size of the kernel to perform training' (unit), and the 'size of the kernel to perform training' performs inference. It can be set/instructed/defined to be used as the size of the kernel for
  • Example 2-1 the size of the kernel for performing training and inference may be set differently.
  • L1 and L2 the size of the kernel for training and the size of the kernel for inference are named L1 and L2, respectively.
  • L1 may be assumed to be the number of OFDM symbols in one slot (eg, 14), and L2 may be assumed to be the number of OFDM symbols of the scheduled PDSCH.
  • the size of (zero) padding to be applied when inference is performed on the terminal may be defined/configured/instructed to be assumed according to L2/2, ceil/floor/round (L2/2), and/or an example to be described later.
  • zero padding of the size of floor may be performed (ie, symbols are added) before and after the symbol (eg, an input value) to be inferenced.
  • zero padding is performed (ie, symbols are added) as much as L2/2 on the lower side of the symbol (eg, input value) to perform inference, and L2/2 on the higher side. - Zero padding as much as 1 may be performed.
  • the size of zero padding to be applied when performing training may be defined in the same way after replacing the 'L2' value with the 'L1' value in the above-described example.
  • Embodiment 2-2-1 relates to a method of configuring a kernel (eg, kernel 2) to perform inference based on a kernel (eg, kernel 1) that has performed training.
  • a kernel eg, kernel 2
  • the size of a kernel for training ie, kernel 1
  • the size of a kernel eg, kernel 2
  • the size of a kernel eg, kernel 2 to perform inference configured based on this is an odd number.
  • the indices of kernel 1 corresponding to kernel 2 of size L2 to be applied to inference are L1'-L2', ... , L1'-1, L1', L1'+1, . , L1'+L2'.
  • L1' may be ceil(L1/2)
  • L2' may be floor(L2/2).
  • kernel 1 the size of a kernel for training (ie, kernel 1) is an odd number
  • kernel 2 the size of a kernel (eg, kernel 2) to perform inference configured based on this is an even number.
  • kernel 2 of size L2 to be applied to inference for kernel 1 of size L1 obtained through training
  • the index of kernel 1 corresponding to is L1'-L2', ... , L1'-1, L1', L1'+1, . , L1'+L2'-1.
  • L1' may be ceil(L1/2)
  • L2' may be L2/2.
  • the index of kernel 1 corresponding to 2 is L1'-L2'+1, ... , L1'-1, L1', L1'+1, . , L1'+L2'.
  • L1' may be ceil(L1/2)
  • L2' may be L2/2.
  • kernel 1 the size of a kernel for training (ie, kernel 1) is an even number
  • kernel 2 the size of a kernel (eg, kernel 2) to perform inference configured based on this is an odd number.
  • kernel 2 of size L2 to be applied to inference for kernel 1 of size L1 obtained through training
  • the index of kernel 1 corresponding to is L1'-L2', ... , L1'-1, L1', L1'+1, . , L1'+L2'.
  • L1' may be L1/2+1
  • L2' may be floor(L2/2).
  • a kernel of size L2 to be applied to inference for kernel 1 of size L1 obtained through training is L1'-L2', ... , L1'-1, L1', L1'+1, . , L1'+L2'.
  • L1' may be L1/2
  • L2' may be floor(L2/2).
  • kernel 1 the size of a kernel for training (ie, kernel 1) is an even number
  • kernel 2 the size of a kernel (eg, kernel 2) to perform inference configured based on this is an even number.
  • the index of kernel 1 corresponding to kernel 2 of size L2 to be applied to inference is L1'-L2', ... , L1'-1, L1', L1'+1, . , L1'+L2'-1.
  • L1' may be L1/2+1
  • L2' may be L2/2.
  • the index of kernel 1 corresponding to kernel 2 of is L1'-L2', ... , L1'-1, L1', L1'+1, . , L1'+L2'-1.
  • L1' may be L1/2
  • L2' may be L2/2.
  • the index of kernel 1 corresponding to kernel 2 of size L2 to be applied to inference is L1'-L2'+1, ... , L1'-1, L1', L1'+1, . , L1'+L2'.
  • L1' may be L1/2+1
  • L2' may be L2/2.
  • L2 size L2 to be applied to inference for kernel 1 of size L1 obtained through training
  • the index of kernel 1 corresponding to kernel 2 of is L1'-L2'+1, ... , L1'-1, L1', L1'+1, . , L1'+L2'.
  • L1' may be L1/2
  • L2' may be L2/2.
  • Example 2-1, Example 2-2, and Example 2-2-1 may be applied/utilized independently, but are not limited thereto, and parts of each Example may be applied/utilized in combination.
  • Example 2-2-1 can be applied to both Example 2-1 and Example 2-2.
  • the characteristic map may also be interpreted as an output value.
  • FIG. 32 illustrates a block configuration diagram of a wireless communication device according to an embodiment of the present disclosure.
  • the first wireless device 100 and the second wireless device 200 may transmit and receive radio signals through various radio access technologies (eg, LTE and NR).
  • various radio access technologies eg, LTE and NR.
  • the first wireless device 100 includes one or more processors 102 and one or more memories 104, and may additionally include one or more transceivers 106 and/or one or more antennas 108.
  • the processor 102 controls the memory 104 and/or the transceiver 106 and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or flowcharts of operations set forth in this disclosure.
  • the processor 102 may process information in the memory 104 to generate first information/signal, and transmit a radio signal including the first information/signal through the transceiver 106.
  • the processor 102 may receive a radio signal including the second information/signal through the transceiver 106, and then store information obtained from signal processing of the second information/signal in the memory 104.
  • the memory 104 may be connected to the processor 102 and may store various information related to the operation of the processor 102 .
  • memory 104 may perform some or all of the processes controlled by processor 102, or instructions for performing the descriptions, functions, procedures, suggestions, methods, and/or flowcharts of operations disclosed in this disclosure. It may store software codes including them.
  • the processor 102 and memory 104 may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
  • the transceiver 106 may be coupled to the processor 102 and may transmit and/or receive wireless signals via one or more antennas 108 .
  • the transceiver 106 may include a transmitter and/or a receiver.
  • the transceiver 106 may be used interchangeably with a radio frequency (RF) unit.
  • a wireless device may mean a communication modem/circuit/chip.
  • the second wireless device 200 includes one or more processors 202, one or more memories 204, and may further include one or more transceivers 206 and/or one or more antennas 208.
  • the processor 202 controls the memory 204 and/or the transceiver 206 and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or flowcharts of operations set forth in this disclosure.
  • the processor 202 may process information in the memory 204 to generate third information/signal, and transmit a radio signal including the third information/signal through the transceiver 206.
  • the processor 202 may receive a radio signal including the fourth information/signal through the transceiver 206 and store information obtained from signal processing of the fourth information/signal in the memory 204 .
  • the memory 204 may be connected to the processor 202 and may store various information related to the operation of the processor 202 .
  • memory 204 may perform some or all of the processes controlled by processor 202, or instructions for performing the descriptions, functions, procedures, suggestions, methods, and/or flowcharts of operations disclosed in this disclosure. It may store software codes including them.
  • the processor 202 and memory 204 may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
  • the transceiver 206 may be coupled to the processor 202 and may transmit and/or receive wireless signals via one or more antennas 208 .
  • the transceiver 206 may include a transmitter and/or a receiver.
  • the transceiver 206 may be used interchangeably with an RF unit.
  • a wireless device may mean a communication modem/circuit/chip.
  • one or more protocol layers may be implemented by one or more processors 102, 202.
  • one or more processors 102, 202 may implement one or more layers (eg, functional layers such as PHY, MAC, RLC, PDCP, RRC, SDAP).
  • One or more processors (102, 202) may generate one or more Protocol Data Units (PDUs) and/or one or more Service Data Units (SDUs) in accordance with the descriptions, functions, procedures, proposals, methods and/or operational flow charts disclosed herein.
  • PDUs Protocol Data Units
  • SDUs Service Data Units
  • processors 102, 202 may generate messages, control information, data or information in accordance with the descriptions, functions, procedures, proposals, methods and/or operational flow diagrams set forth in this disclosure.
  • One or more processors 102, 202 may process PDUs, SDUs, messages, control information, data or signals containing information (e.g., baseband signals) according to the functions, procedures, proposals and/or methods disclosed herein. generated and provided to one or more transceivers (106, 206).
  • One or more processors 102, 202 may receive signals (e.g., baseband signals) from one or more transceivers 106, 206, the descriptions, functions, procedures, suggestions, methods and/or described in this disclosure.
  • PDUs, SDUs, messages, control information, data or information may be acquired according to the operational flowcharts.
  • One or more processors 102, 202 may be referred to as a controller, microcontroller, microprocessor or microcomputer.
  • One or more processors 102, 202 may be implemented by hardware, firmware, software, or a combination thereof.
  • ASICs Application Specific Integrated Circuits
  • DSPs Digital Signal Processors
  • DSPDs Digital Signal Processing Devices
  • PLDs Programmable Logic Devices
  • FPGAs Field Programmable Gate Arrays
  • the descriptions, functions, procedures, proposals, methods and/or operational flow charts disclosed in this disclosure may be implemented using firmware or software, and the firmware or software may be implemented to include modules, procedures, functions, and the like.
  • Firmware or software configured to perform the descriptions, functions, procedures, suggestions, methods and/or operational flow diagrams disclosed in this disclosure may be included in one or more processors (102, 202) or stored in one or more memories (104, 204). It can be driven by the above processors 102 and 202.
  • the descriptions, functions, procedures, suggestions, methods and/or operational flow diagrams disclosed in this disclosure may be implemented using firmware or software in the form of codes, instructions and/or sets of instructions.
  • One or more memories 104, 204 may be coupled with one or more processors 102, 202 and may store various types of data, signals, messages, information, programs, codes, instructions and/or instructions.
  • One or more memories 104, 204 may be comprised of ROM, RAM, EPROM, flash memory, hard drives, registers, cache memory, computer readable storage media, and/or combinations thereof.
  • One or more memories 104, 204 may be located internally and/or external to one or more processors 102, 202. Additionally, one or more memories 104, 204 may be coupled to one or more processors 102, 202 through various technologies, such as wired or wireless connections.
  • One or more transceivers 106, 206 may transmit user data, control information, radio signals/channels, etc., as referred to in the methods and/or operational flow charts of this disclosure, to one or more other devices.
  • the one or more transceivers 106, 206 may receive user data, control information, radio signals/channels, etc. referred to in the descriptions, functions, procedures, proposals, methods and/or operational flow charts, etc. disclosed in this disclosure from one or more other devices. there is.
  • one or more transceivers 106 and 206 may be connected to one or more processors 102 and 202 and transmit and receive wireless signals.
  • one or more processors 102, 202 may control one or more transceivers 106, 206 to transmit user data, control information, or radio signals to one or more other devices. Additionally, one or more processors 102, 202 may control one or more transceivers 106, 206 to receive user data, control information, or radio signals from one or more other devices. In addition, one or more transceivers 106, 206 may be coupled with one or more antennas 108, 208, and one or more transceivers 106, 206 may be connected to one or more antennas 108, 208, as described herein. , procedures, proposals, methods and / or operation flowcharts, etc. can be set to transmit and receive user data, control information, radio signals / channels, etc.
  • one or more antennas may be a plurality of physical antennas or a plurality of logical antennas (eg, antenna ports).
  • One or more transceivers (106, 206) convert the received radio signals/channels from RF band signals in order to process the received user data, control information, radio signals/channels, etc. using one or more processors (102, 202). It can be converted into a baseband signal.
  • One or more transceivers 106 and 206 may convert user data, control information, and radio signals/channels processed by one or more processors 102 and 202 from baseband signals to RF band signals.
  • one or more of the transceivers 106, 206 may include (analog) oscillators and/or filters.
  • the scope of the present disclosure is software or machine-executable instructions (eg, operating systems, applications, firmware, programs, etc.) that cause operations in accordance with the methods of various embodiments to be executed on a device or computer, and such software or It includes a non-transitory computer-readable medium in which instructions and the like are stored and executable on a device or computer. Instructions that may be used to program a processing system that performs the features described in this disclosure may be stored on/in a storage medium or computer-readable storage medium and may be viewed using a computer program product that includes such storage medium. Features described in the disclosure may be implemented.
  • the storage medium may include, but is not limited to, high speed random access memory such as DRAM, SRAM, DDR RAM or other random access solid state memory devices, one or more magnetic disk storage devices, optical disk storage devices, flash memory devices, or It may include non-volatile memory, such as other non-volatile solid state storage devices.
  • the memory optionally includes one or more storage devices located remotely from the processor(s).
  • the memory, or alternatively, the non-volatile memory device(s) within the memory includes non-transitory computer readable storage media.
  • Features described in this disclosure may be stored on any one of the machine readable media to control hardware of a processing system and to allow the processing system to interact with other mechanisms that utilize results according to embodiments of the present disclosure. It may be integrated into software and/or firmware.
  • Such software or firmware may include, but is not limited to, application code, device drivers, operating systems, and execution environments/containers.
  • the wireless communication technology implemented in the wireless devices 100 and 200 of the present disclosure may include Narrowband Internet of Things for low power communication as well as LTE, NR, and 6G.
  • NB-IoT technology may be an example of LPWAN (Low Power Wide Area Network) technology, and may be implemented in standards such as LTE Cat NB1 and / or LTE Cat NB2. no.
  • the wireless communication technology implemented in the wireless device (XXX, YYY) of the present disclosure may perform communication based on LTE-M technology.
  • LTE-M technology may be an example of LPWAN technology, and may be called various names such as eMTC (enhanced machine type communication).
  • LTE-M technologies are 1) LTE CAT 0, 2) LTE Cat M1, 3) LTE Cat M2, 4) LTE non-BL (non-Bandwidth Limited), 5) LTE-MTC, 6) LTE Machine Type Communication, and/or 7) It may be implemented in at least one of various standards such as LTE M, and is not limited to the above-mentioned names.
  • the wireless communication technology implemented in the wireless device (XXX, YYY) of the present disclosure includes at least one of ZigBee, Bluetooth, and Low Power Wide Area Network (LPWAN) considering low power communication. It may include any one, and is not limited to the above-mentioned names.
  • ZigBee technology can generate personal area networks (PANs) related to small/low-power digital communication based on various standards such as IEEE 802.15.4, and can be called various names.
  • PANs personal area networks
  • the method proposed in the present disclosure has been described focusing on examples applied to 3GPP LTE/LTE-A and 5G systems, but can be applied to various wireless communication systems other than 3GPP LTE/LTE-A and 5G systems.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Power Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

무선 통신 시스템에서 무선 신호의 송수신을 위한 방법 및 장치가 개시된다. 본 개시의 일 실시예에 따른 단말에 의해서 채널 상태 정보(channel state information, CSI) 보고를 수행하는 방법은, 상기 CSI 보고를 위한 적어도 하나의 참조 신호(reference signal, RS)를 기지국으로부터 수신하는 단계; 상기 적어도 하나의 참조 신호와 관련된 정보를 인공지능(artificial intelligence, AI) 모델에 입력하여 채널 추정의 결과를 획득하는 단계; 및 상기 채널 추정의 결과에 기초하여 상기 CSI를 상기 기지국으로 전송하는 단계를 포함하고, 상기 AI 모델은, 복수의 파라미터(parameter) 세트를 포함하고, 상기 복수의 파라미터 세트 각각의 크기(size)는, 상기 기지국에 의해 스케줄링된 하향링크(downlink, DL) 채널과 관련된 정보, 또는 미리 정의된 자원 그룹(resource group)과 관련된 정보에 기초할 수 있다.

Description

무선 통신 시스템에서 채널 상태 정보를 송수신하는 방법 및 장치
본 개시는 무선 통신 시스템에 관한 것으로서, 보다 상세하게 무선 통신 시스템에서 채널 상태 정보(channel state information, CSI)를 송수신하는 방법 및 장치에 관한 것이다.
이동 통신 시스템은 사용자의 활동성을 보장하면서 음성 서비스를 제공하기 위해 개발되었다. 그러나 이동통신 시스템은 음성뿐 아니라 데이터 서비스까지 영역을 확장하였으며, 현재에는 폭발적인 트래픽의 증가로 인하여 자원의 부족 현상이 야기되고 사용자들이 보다 고속의 서비스에 대한 요구하므로, 보다 발전된 이동 통신 시스템이 요구되고 있다.
차세대 이동 통신 시스템의 요구 조건은 크게 폭발적인 데이터 트래픽의 수용, 사용자 당 전송률의 획기적인 증가, 대폭 증가된 연결 디바이스 개수의 수용, 매우 낮은 단대단 지연(End-to-End Latency), 고에너지 효율을 지원할 수 있어야 한다. 이를 위하여 이중 연결성(Dual Connectivity), 대규모 다중 입출력(Massive MIMO: Massive Multiple Input Multiple Output), 전이중(In-band Full Duplex), 비직교 다중접속(NOMA: Non-Orthogonal Multiple Access), 초광대역(Super wideband) 지원, 단말 네트워킹(Device Networking) 등 다양한 기술들이 연구되고 있다.
본 개시의 기술적 과제는 무선 통신 시스템에서 CSI를 송수신하는 방법 및 장치를 제공하는 것이다.
또한, 본 개시의 추가적인 기술적 과제는 진화된 무선 통신 시스템에서 AI(Artificial Intelligence)/ML(Machine Learning) 모델에 기초하여 채널 추정의 결과를 획득하는 방법 및 장치를 제공하는 것이다.
또한, 본 개시의 추가적인 기술적 과제는 AI 모델에 포함된 하나 이상의 파라미터 세트의 크기를 제어하는 방법 및 장치를 제공하는 것이다.
본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 개시의 일 실시예에 따른, 무선 통신 시스템에서 단말에 의해서 채널 상태 정보(channel state information, CSI) 보고를 수행하는 방법은, 상기 CSI 보고를 위한 적어도 하나의 참조 신호(reference signal, RS)를 기지국으로부터 수신하는 단계; 상기 적어도 하나의 참조 신호와 관련된 정보를 인공지능(artificial intelligence, AI) 모델에 입력하여 채널 추정의 결과를 획득하는 단계; 및 상기 채널 추정의 결과에 기초하여 상기 CSI를 상기 기지국으로 전송하는 단계를 포함하고, 상기 AI 모델은, 복수의 파라미터(parameter) 세트를 포함하고, 상기 복수의 파라미터 세트 각각의 크기(size)는, 상기 기지국에 의해 스케줄링된 하향링크(downlink, DL) 채널과 관련된 정보, 또는 미리 정의된 자원 그룹(resource group)과 관련된 정보에 기초할 수 있다.
본 개시의 또 다른 실시예로, 무선 통신 시스템에서 기지국에 의해서 채널 상태 정보(channel state information, CSI) 보고를 수신하는 방법은, 상기 CSI 보고를 위한 적어도 하나의 참조 신호(reference signal, RS)를 단말로 전송하는 단계; 및 상기 적어도 하나의 RS와 관련된 정보를 통해 획득된 채널 추정의 결과에 기초한 상기 CSI를 상기 단말로부터 수신하는 단계를 포함하고, 인공지능(artificial intelligence, AI) 모델에 상기 적어도 하나의 RS와 관련된 정보가 상기 단말에 의해 입력됨에 기반하여, 상기 채널 추정의 결과가 출력되고, 상기 AI 모델은, 복수의 파라미터(parameter) 세트를 포함하고, 상기 복수의 파라미터 세트 각각의 크기(size)는, 상기 기지국에 의해 스케줄링된 하향링크(downlink, DL) 채널과 관련된 정보, 또는 미리 정의된 자원 그룹(resource group)과 관련된 정보에 기초할 수 있다.
본 개시의 일 실시예로, 무선 통신 시스템에서 CSI를 송수신하는 방법 및 장치가 제공될 수 있다.
또한, 본 개시의 일 실시예로, 진화된 무선 통신 시스템에서 AI/ML 모델에 기초하여 채널 추정의 결과를 획득하는 방법 및 장치가 제공될 수 있다.
또한, 본 개시의 일 실시예로, AI 모델에 포함된 하나 이상의 파라미터 세트의 크기를 제어하는 방법 및 장치가 제공될 수 있다.
본 개시의 실시예에 따르면, 진화된 무선 통신 시스템 기반의 예측/최적화에 따른 채널 상태 측정 및 채널 상태 정보 보고를 지원할 수 있다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 개시에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 개시에 대한 실시예를 제공하고, 상세한 설명과 함께 본 개시의 기술적 특징을 설명한다.
도 1은 본 개시가 적용될 수 있는 무선 통신 시스템의 구조를 예시한다.
도 2는 본 개시가 적용될 수 있는 무선 통신 시스템에서 프레임 구조를 예시한다.
도 3은 본 개시가 적용될 수 있는 무선 통신 시스템에서 자원 그리드(resource grid)를 예시한다.
도 4는 본 개시가 적용될 수 있는 무선 통신 시스템에서 물리 자원 블록(physical resource block)을 예시한다.
도 5는 본 개시가 적용될 수 있는 무선 통신 시스템에서 슬롯 구조를 예시한다.
도 6은 본 개시가 적용될 수 있는 무선 통신 시스템에서 이용되는 물리 채널들 및 이들을 이용한 일반적인 신호 송수신 방법을 예시한다.
도 7은 본 개시가 적용될 수 있는 무선 통신 시스템에서 다중 TRP 전송 방식을 예시한다.
도 8은 본 개시가 적용될 수 있는 무선 통신 시스템에서 하향링크 송수신 동작을 예시하는 도면이다.
도 9는 본 개시가 적용될 수 있는 무선 통신 시스템에서 상향링크 송수신 동작을 예시하는 도면이다.
도 10은 인공지능의 분류를 예시한다.
도 11은 순방향 신경망(Feed-Forward Neural Network)을 예시한다.
도 12는 순환 신경망(Recurrent Neural Network)을 예시한다.
도 13은 컨볼루션 신경망(Convolutional Neural Network)을 예시한다.
도 14는 오토 인코더(Auto encoder)를 예시한다.
도 15는 AI 동작을 위한 기능적 프레임워크(functional framework)를 예시한다.
도 16은 분할 AI 추론을 예시하는 도면이다.
도 17은 무선 통신 시스템에서 기능적 프레임워크(functional framework)의 적용을 예시한다.
도 18은 무선 통신 시스템에서 기능적 프레임워크(functional framework)의 적용을 예시한다.
도 19는 무선 통신 시스템에서 기능적 프레임워크(functional framework)의 적용을 예시한다.
도 20은 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 위한 1D CNN 구조를 예시한다.
도 21은 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 위한 1D CNN 구조에서의 출력 값 추정 방식을 예시한다.
도 22는 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 위한 2D CNN 구조를 예시한다.
도 23은 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 위한 2D CNN 구조에서의 출력 값 추정 방식을 예시한다.
도 24는 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 CNN 구조에서의 패딩 및 풀링을 예시한다.
도 25는 본 개시의 일 실시예에 따른 채널 상태 정보 보고 방법에 대한 기지국과 단말 간의 시그널링 절차를 예시하는 도면이다.
도 26은 본 개시의 일 실시예에 따른 채널 상태 정보 보고 방법에 대한 단말의 동작을 예시하는 도면이다.
도 27은 본 개시의 일 실시예에 따른 채널 상태 정보 보고 방법에 대한 기지국의 동작을 예시하는 도면이다.
도 28은 본 개시의 일 실시예에 따른 입력 데이터에 대해 패딩을 수행하는 방법을 설명하기 위한 도면이다.
도 29는 본 개시의 일 실시예에 따른, 입력 데이터에 대해 순환적 패딩을 수행하는 방법을 설명하기 위한 도면이다.
도 30은 본 개시의 일 실시예에 따른, 제로 패딩 및 순환적 패딩 각각에 대응되는 커널에 기초하여 특징 맵을 출력하는 과정을 설명하기 위한 도면이다.
도 31은 본 개시의 일 실시예에 따른, 입력 데이터에 대해 패딩을 수행하는 과정을 설명하기 위한 도면이다.
도 32는 본 개시의 일 실시예에 따른 무선 통신 장치의 블록 구성도를 예시한다.
이하, 본 개시에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 개시의 예시적인 실시형태를 설명하고자 하는 것이며, 본 개시가 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다. 이하의 상세한 설명은 본 개시의 완전한 이해를 제공하기 위해서 구체적 세부사항을 포함한다. 그러나, 당업자는 본 개시가 이러한 구체적 세부사항 없이도 실시될 수 있음을 안다.
몇몇 경우, 본 개시의 개념이 모호해지는 것을 피하기 위하여 공지의 구조 및 장치는 생략되거나, 각 구조 및 장치의 핵심기능을 중심으로 한 블록도 형식으로 도시될 수 있다.
본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계 뿐만 아니라, 그 사이에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 본 개시에서 용어 "포함한다" 또는 "가진다"는 언급된 특징, 단계, 동작, 요소 및/또는 구성요소의 존재를 특정하지만, 하나 이상의 다른 특징, 단계, 동작, 요소, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는다.
본 개시에 있어서, "제 1", "제 2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되고 구성요소들을 제한하기 위해서 사용되지 않으며, 특별히 언급되지 않는 한 구성요소들 간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시예에서의 제 1 구성요소는 다른 실시예에서 제 2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시예에서의 제 2 구성요소를 다른 실시예에서 제 1 구성요소라고 칭할 수도 있다.
본 개시에서 사용된 용어는 특정 실시예에 대한 설명을 위한 것이며 청구범위를 제한하려는 것이 아니다. 실시예의 설명 및 첨부된 청구범위에서 사용되는 바와 같이, 단수 형태는 문맥상 명백하게 다르게 나타내지 않는 한 복수 형태도 포함하도록 의도한 것이다. 본 개시에 사용된 용어 "및/또는"은 관련된 열거 항목 중의 하나를 지칭할 수도 있고, 또는 그 중의 둘 이상의 임의의 및 모든 가능한 조합을 지칭하고 포함하는 것을 의미한다. 또한, 본 개시에서 단어들 사이의 "/"는 달리 설명되지 않는 한 "및/또는"과 동일한 의미를 가진다.
본 개시는 무선 통신 네트워크 또는 무선 통신 시스템을 대상으로 설명하며, 무선 통신 네트워크에서 이루어지는 동작은 해당 무선 통신 네트워크를 관할하는 장치(예를 들어 기지국)에서 네트워크를 제어하고 신호를 송신(transmit) 또는 수신(receive)하는 과정에서 이루어지거나, 해당 무선 네트워크에 결합한 단말에서 네트워크와의 또는 단말 간의 신호를 송신 또는 수신하는 과정에서 이루어질 수 있다.
본 개시에서, 채널을 송신 또는 수신한다는 것은 해당 채널을 통해서 정보 또는 신호를 송신 또는 수신한다는 의미를 포함한다. 예를 들어, 제어 채널을 송신한다는 것은, 제어 채널을 통해서 제어 정보 또는 신호를 송신한다는 것을 의미한다. 유사하게, 데이터 채널을 송신한다는 것은, 데이터 채널을 통해서 데이터 정보 또는 신호를 송신한다는 것을 의미한다.
이하에서, 하향링크(DL: downlink)는 기지국에서 단말로의 통신을 의미하며, 상향링크(UL: uplink)는 단말에서 기지국으로의 통신을 의미한다. 하향링크에서 송신기는 기지국의 일부이고, 수신기는 단말의 일부일 수 있다. 상향링크에서 송신기는 단말의 일부이고, 수신기는 기지국의 일부일 수 있다. 기지국은 제1 통신 장치로, 단말은 제2 통신 장치로 표현될 수도 있다. 기지국(BS: Base Station)은 고정국(fixed station), Node B, eNB(evolved-NodeB), gNB(Next Generation NodeB), BTS(base transceiver system), 액세스 포인트(AP: Access Point), 네트워크(5G 네트워크), AI(Artificial Intelligence) 시스템/모듈, RSU(road side unit), 로봇(robot), 드론(UAV: Unmanned Aerial Vehicle), AR(Augmented Reality)장치, VR(Virtual Reality)장치 등의 용어에 의해 대체될 수 있다. 또한, 단말(Terminal)은 고정되거나 이동성을 가질 수 있으며, UE(User Equipment), MS(Mobile Station), UT(user terminal), MSS(Mobile Subscriber Station), SS(Subscriber Station), AMS(Advanced Mobile Station), WT(Wireless terminal), MTC(Machine-Type Communication) 장치, M2M(Machine-to-Machine) 장치, D2D(Device-to-Device) 장치, 차량(vehicle), RSU(road side unit), 로봇(robot), AI(Artificial Intelligence) 모듈, 드론(UAV: Unmanned Aerial Vehicle), AR(Augmented Reality)장치, VR(Virtual Reality)장치 등의 용어로 대체될 수 있다.
이하의 기술은 CDMA, FDMA, TDMA, OFDMA, SC-FDMA 등과 같은 다양한 무선 접속 시스템에 사용될 수 있다. CDMA는 UTRA(Universal Terrestrial Radio Access)나 CDMA2000과 같은 무선 기술로 구현될 수 있다. TDMA는 GSM(Global System for Mobile communications)/GPRS(General Packet Radio Service)/EDGE(Enhanced Data Rates for GSM Evolution)와 같은 무선 기술로 구현될 수 있다. OFDMA는 IEEE 802.11(Wi-Fi), IEEE 802.16(WiMAX), IEEE 802-20, E-UTRA(Evolved UTRA) 등과 같은 무선 기술로 구현될 수 있다. UTRA는 UMTS(Universal Mobile Telecommunications System)의 일부이다. 3GPP(3rd Generation Partnership Project) LTE(Long Term Evolution)은 E-UTRA를 사용하는 E-UMTS(Evolved UMTS)의 일부이고 LTE-A(Advanced)/LTE-A pro는 3GPP LTE의 진화된 버전이다. 3GPP NR(New Radio or New Radio Access Technology)는 3GPP LTE/LTE-A/LTE-A pro의 진화된 버전이다.
설명을 명확하게 하기 위해, 3GPP 통신 시스템(예를 들어, LTE-A, NR)을 기반으로 설명하지만 본 개시의 기술적 사상이 이에 제한되는 것은 아니다. LTE는 3GPP TS(Technical Specification) 36.xxx Release 8 이후의 기술을 의미한다. 세부적으로, 3GPP TS 36.xxx Release 10 이후의 LTE 기술은 LTE-A로 지칭되고, 3GPP TS 36.xxx Release 13 이후의 LTE 기술은 LTE-A pro로 지칭된다. 3GPP NR은 TS 38.xxx Release 15 이후의 기술을 의미한다. LTE/NR은 3GPP 시스템으로 지칭될 수 있다. "xxx"는 표준 문서 세부 번호를 의미한다. LTE/NR은 3GPP 시스템으로 통칭될 수 있다. 본 개시의 설명에 사용된 배경기술, 용어, 약어 등에 관해서는 본 개시 이전에 공개된 표준 문서에 기재된 사항을 참조할 수 있다. 예를 들어, 다음 문서를 참조할 수 있다.
3GPP LTE의 경우, TS 36.211(물리 채널들 및 변조), TS 36.212(다중화 및 채널 코딩), TS 36.213(물리 계층 절차들), TS 36.300(전반적인 설명), TS 36.331(무선 자원 제어)을 참조할 수 있다.
3GPP NR의 경우, TS 38.211(물리 채널들 및 변조), TS 38.212(다중화 및 채널 코딩), TS 38.213(제어를 위한 물리 계층 절차들), TS 38.214(데이터를 위한 물리 계층 절차들), TS 38.300(NR 및 NG-RAN(New Generation-Radio Access Network) 전반적인 설명), TS 38.331(무선 자원 제어 프로토콜 규격)을 참조할 수 있다.
본 개시에서 사용될 수 있는 용어들의 약자는 다음과 같이 정의된다.
- BM: 빔 관리(beam management)
- CQI: 채널 품질 지시자(channel quality indicator)
- CRI: 채널 상태 정보 - 참조 신호 자원 지시자(channel state information - reference signal resource indicator)
- CSI: 채널 상태 정보(channel state information)
- CSI-IM: 채널 상태 정보 - 간섭 측정(channel state information - interference measurement)
- CSI-RS: 채널 상태 정보 - 참조 신호(channel state information - reference signal)
- DMRS: 복조 참조 신호(demodulation reference signal)
- FDM: 주파수 분할 다중화(frequency division multiplexing)
- FFT: 고속 푸리에 변환(fast Fourier transform)
- IFDMA: 인터리빙된 주파수 분할 다중 액세스(interleaved frequency division multiple access)
- IFFT: 역 고속 푸리에 변환(inverse fast Fourier transform)
- L1-RSRP: 제1 레이어 참조 신호 수신 파워(Layer 1 reference signal received power)
- L1-RSRQ: 제1 레이어 참조 신호 수신 품질(Layer 1 reference signal received quality)
- MAC: 매체 액세스 제어(medium access control)
- NZP: 논-제로 파워(non-zero power)
- OFDM: 직교 주파수 분할 다중화(orthogonal frequency division multiplexing)
- PDCCH: 물리 하향링크 제어 채널(physical downlink control channel)
- PDSCH: 물리 하향링크 공유 채널(physical downlink shared channel)
- PMI: 프리코딩 행렬 지시자(precoding matrix indicator)
- RE: 자원 요소(resource element)
- RI: 랭크 지시자(Rank indicator)
- RRC: 무선 자원 제어(radio resource control)
- RSSI: 수신 신호 강도 지시자(received signal strength indicator)
- Rx: 수신(Reception)
- QCL: 준-동일 위치(quasi co-location)
- SINR: 신호 대 간섭 및 잡음비(signal to interference and noise ratio)
- SSB (또는 SS/PBCH block): 동기 신호 블록(프라이머리 동기 신호(PSS: primary synchronization signal), 세컨더리 동기 신호(SSS: secondary synchronization signal) 및 물리 방송 채널(PBCH: physical broadcast channel)을 포함)
- TDM: 시간 분할 다중화(time division multiplexing)
- TRP: 전송 및 수신 포인트(transmission and reception point)
- TRS: 트래킹 참조 신호(tracking reference signal)
- Tx: 전송(transmission)
- UE: 사용자 장치(user equipment)
- ZP: 제로 파워(zero power)
시스템 일반
더욱 많은 통신 기기들이 더욱 큰 통신 용량을 요구하게 됨에 따라, 기존의 무선 액세스 기술(radio access technology, RAT)에 비해 향상된 모바일 브로드밴드(mobile broadband) 통신에 대한 필요성이 대두되고 있다. 또한 다수의 기기 및 사물들을 연결하여 언제 어디서나 다양한 서비스를 제공하는 매시브(massive) MTC(machine type communications) 역시 차세대 통신에서 고려될 주요 이슈 중 하나이다. 뿐만 아니라 신뢰도(reliability) 및 지연(latency)에 민감한 서비스/단말을 고려한 통신 시스템 디자인이 논의되고 있다. 이와 같이 eMBB(enhanced mobile broadband communication), Mmtc(massive MTC), URLLC (utra-reliable and low latency communication) 등을 고려한 차세대 RAT의 도입이 논의되고 있으며, 본 개시에서는 편의상 해당 기술을 NR이라고 부른다. NR은 5G RAT의 일례를 나타낸 표현이다.
NR을 포함하는 새로운 RAT 시스템은 OFDM 전송 방식 또는 이와 유사한 전송 방식을 사용한다. 새로운 RAT 시스템은 LTE의 OFDM 파라미터들과는 다른 OFDM 파라미터들을 따를 수 있다. 또는 새로운 RAT 시스템은 기존의 LTE/LTE-A의 뉴머롤로지(numerology)를 그대로 따르나 더 큰 시스템 대역폭(예를 들어, 100MHz)를 지원할 수 있다. 또는 하나의 셀이 복수 개의 numerology들을 지원할 수도 있다. 즉, 서로 다른 numerology로 동작하는 하는 단말들이 하나의 셀 안에서 공존할 수 있다.
numerology는 주파수 도메인에서 하나의 서브캐리어 간격(subcarrier spacing)에 대응한다. 참조 서브캐리어 간격(reference subcarrier spacing)을 정수 N으로 스케일링(scaling)함으로써, 상이한 numerology가 정의될 수 있다.
도 1은 본 개시가 적용될 수 있는 무선 통신 시스템의 구조를 예시한다.
도 1을 참조하면, NG-RAN은 NG-RA(NG-Radio Access) 사용자 평면(즉, 새로운 AS(access stratum) 서브계층/PDCP(packet data convergence protocol)/RLC(radio link control)/MAC/PHY) 및 UE에 대한 제어 평면(RRC) 프로토콜 종단을 제공하는 gNB들로 구성된다. 상기 gNB는 Xn 인터페이스를 통해 상호 연결된다. 상기 gNB는 또한, NG 인터페이스를 통해 NGC(New Generation Core)로 연결된다. 보다 구체적으로는, 상기 gNB는 N2 인터페이스를 통해 AMF(Access and Mobility Management Function)로, N3 인터페이스를 통해 UPF(User Plane Function)로 연결된다.
도 2는 본 개시가 적용될 수 있는 무선 통신 시스템에서 프레임 구조를 예시한다.
NR 시스템은 다수의 뉴머롤로지(numerology)들을 지원할 수 있다. 여기서, numerology는 서브캐리어 간격(subcarrier spacing)과 순환 전치(cyclic prefix, CP) 오버헤드에 의해 정의될 수 있다. 이때, 다수의 서브캐리어 간격은 기본(참조) 서브캐리어 간격을 정수 N(또는, μ)으로 스케일링(scaling) 함으로써 유도될 수 있다. 또한, 매우 높은 반송파 주파수에서 매우 낮은 서브캐리어 간격을 이용하지 않는다고 가정될지라도, 이용되는 numerology는 주파수 대역과 독립적으로 선택될 수 있다. 또한, NR 시스템에서는 다수의 numerology에 따른 다양한 프레임 구조들이 지원될 수 있다.
이하, NR 시스템에서 고려될 수 있는 OFDM numerology 및 프레임 구조를 살펴본다. NR 시스템에서 지원되는 다수의 OFDM numerology들은 아래 표 1과 같이 정의될 수 있다.
μ Δf=2μ·15 [kHz] CP
0 15 일반(Normal)
1 30 일반
2 60 일반, 확장(Extended)
3 120 일반
4 240 일반
NR은 다양한 5G 서비스들을 지원하기 위한 다수의 numerology(또는 서브캐리어 간격(subcarrier spacing, SCS)를 지원한다. 예를 들어, SCS가 15kHz인 경우, 전통적인 셀룰러 밴드들에서의 넓은 영역(wide area)를 지원하며, SCS가 30kHz/60kHz인 경우, 밀집한-도시(dense-urban), 더 낮은 지연(lower latency) 및 더 넓은 캐리어 대역폭(wider carrier bandwidth)를 지원하며, SCS가 60kHz 또는 그보다 높은 경우, 위상 잡음(phase noise)를 극복하기 위해 24.25GHz보다 큰 대역폭을 지원한다. NR 주파수 밴드(frequency band)는 2가지 타입(FR1, FR2)의 주파수 범위(frequency range)로 정의된다. FR1, FR2는 아래 표 2와 같이 구성될 수 있다. 또한, FR2는 밀리미터 웨이브(millimeter wave, mmW)를 의미할 수 있다.
주파수 범위 지정(Frequency Range designation) 해당 주파수 범위(Corresponding frequency range) 서브캐리어 간격(Subcarrier Spacing)
FR1 410MHz - 7125MHz 15, 30, 60kHz
FR2 24250MHz - 52600MHz 60, 120, 240kHz
NR 시스템에서의 프레임 구조(frame structure)와 관련하여, 시간 도메인의 다양한 필드의 크기는 Tc=1/(Δfmax·Nf)의 시간 단위의 배수로 표현된다. 여기에서, Δfmax=480·103 Hz이고, Nf=4096 이다. 하향링크(downlink) 및 상향링크(uplink) 전송은 Tf=1/(ΔfmaxNf/100)·Tc=10ms의 구간을 가지는 무선 프레임(radio frame)으로 구성(organized)된다. 여기에서, 무선 프레임은 각각 Tsf=(ΔfmaxNf/1000)·Tc=1ms의 구간을 가지는 10 개의 서브프레임(subframe)들로 구성된다.
이 경우, 상향링크에 대한 한 세트의 프레임들 및 하향링크에 대한 한 세트의 프레임들이 존재할 수 있다. 또한, 단말로부터의 상향링크 프레임 번호 i에서의 전송은 해당 단말에서의 해당 하향링크 프레임의 시작보다 TTA=(NTA+NTA,offset)Tc 이전에 시작해야 한다. 서브캐리어 간격 구성 μ 에 대하여, 슬롯(slot)들은 서브프레임 내에서 ns μ∈{0,..., Nslot subframe,μ-1} 의 증가하는 순서로 번호가 매겨지고, 무선 프레임 내에서 ns,f μ∈{0,..., Nslot frame,μ-1} 의 증가하는 순서로 번호가 매겨진다. 하나의 슬롯은 Nsymb slot의 연속하는 OFDM 심볼들로 구성되고, Nsymb slot는, CP에 따라 결정된다. 서브프레임에서 슬롯 ns μ의 시작은 동일 서브프레임에서 OFDM 심볼 ns μNsymb slot의 시작과 시간적으로 정렬된다. 모든 단말이 동시에 송신 및 수신을 할 수 있는 것은 아니며, 이는 하향링크 슬롯(downlink slot) 또는 상향링크 슬롯(uplink slot)의 모든 OFDM 심볼들이 이용될 수는 없다는 것을 의미한다.
표 3은 일반 CP에서 슬롯 별 OFDM 심볼의 개수(Nsymb slot), 무선 프레임 별 슬롯의 개수(Nslot frame,μ), 서브프레임 별 슬롯의 개수(Nslot subframe,μ)를 나타내며, 표 4는 확장 CP에서 슬롯 별 OFDM 심볼의 개수, 무선 프레임 별 슬롯의 개수, 서브프레임 별 슬롯의 개수를 나타낸다.
μ Nsymb slot Nslot frame,μ Nslot subframe,μ
0 14 10 1
1 14 20 2
2 14 40 4
3 14 80 8
4 14 160 16
μ Nsymb slot Nslot frame,μ Nslot subframe,μ
2 12 40 4
도 2는, μ=2인 경우(SCS가 60kHz)의 일례로서, 표 3을 참고하면 1 서브프레임(subframe)은 4개의 슬롯(slot)들을 포함할 수 있다. 도 2에 도시된 1 subframe={1,2,4} slot은 일례로서, 1 subframe에 포함될 수 있는 slot(들)의 개수는 표 3 또는 표 4와 같이 정의된다. 또한, 미니 슬롯(mini-slot)은 2, 4 또는 7 심볼들을 포함하거나 그 보다 더 많은 또는 더 적은 심볼들을 포함할 수 있다.NR 시스템에서의 물리 자원(physical resource)과 관련하여, 안테나 포트(antenna port), 자원 그리드(resource grid), 자원 요소(resource element), 자원 블록(resource block), 캐리어 파트(carrier part) 등이 고려될 수 있다.
이하, NR 시스템에서 고려될 수 있는 상기 물리 자원들에 대해 구체적으로 살펴본다. 먼저, 안테나 포트와 관련하여, 안테나 포트는 안테나 포트 상의 심볼이 운반되는 채널이 동일한 안테나 포트 상의 다른 심볼이 운반되는 채널로부터 추론될 수 있도록 정의된다. 하나의 안테나 포트 상의 심볼이 운반되는 채널의 광범위 특성(large-scale property)이 다른 안테나 포트 상의 심볼이 운반되는 채널로부터 유추될 수 있는 경우, 2 개의 안테나 포트는 QC/QCL(quasi co-located 혹은 quasi co-location) 관계에 있다고 할 수 있다. 여기서, 상기 광범위 특성은 지연 확산(Delay spread), 도플러 확산(Doppler spread), 주파수 쉬프트(Frequency shift), 평균 수신 파워(Average received power), 수신 타이밍(Received Timing) 중 하나 이상을 포함한다.
도 3은 본 개시가 적용될 수 있는 무선 통신 시스템에서 자원 그리드(resource grid)를 예시한다.
도 3을 참조하면, 자원 그리드가 주파수 도메인 상으로 NRB μNsc RB 서브캐리어들로 구성되고, 하나의 서브프레임이 14·2μ OFDM 심볼들로 구성되는 것을 예시적으로 기술하나, 이에 한정되는 것은 아니다. NR 시스템에서, 전송되는 신호(transmitted signal)는 NRB μNsc RB 서브캐리어들로 구성되는 하나 또는 그 이상의 자원 그리드들 및 2μNsymb (μ)의 OFDM 심볼들에 의해 설명된다. 여기서, NRB μ≤NRB max,μ이다. 상기 NRB max,μ는 최대 전송 대역폭을 나타내고, 이는, numerology들 뿐만 아니라 상향링크와 하향링크 간에도 달라질 수 있다.
이 경우, μ 및 안테나 포트 p 별로 하나의 자원 그리드가 설정될 수 있다. μ 및 안테나 포트 p에 대한 자원 그리드의 각 요소는 자원 요소(resource element)로 지칭되며, 인덱스 쌍 (k,l')에 의해 고유적으로 식별된다. 여기에서, k=0,...,NRB μNsc RB-1 는 주파수 도메인 상의 인덱스이고, l'=0,...,2μNsymb (μ)-1 는 서브프레임 내에서 심볼의 위치를 지칭한다. 슬롯에서 자원 요소를 지칭할 때에는, 인덱스 쌍 (k,l) 이 이용된다. 여기서, l=0,...,Nsymb μ-1 이다. μ 및 안테나 포트 p에 대한 자원 요소 (k,l')는 복소 값(complex value) ak,l' (p,μ)에 해당한다. 혼동(confusion)될 위험이 없는 경우 혹은 특정 안테나 포트 또는 numerology가 특정되지 않은 경우에는, 인덱스들 p 및 μ는 드롭(drop)될 수 있으며, 그 결과 복소 값은 ak,l' (p) 또는 ak,l' 이 될 수 있다. 또한, 자원 블록(resource block, RB)은 주파수 도메인 상의 Nsc RB=12 연속적인 서브캐리어들로 정의된다.
포인트(point) A는 자원 블록 그리드의 공통 기준 포인트(common reference point)로서 역할을 하며 다음과 같이 획득된다.
- 프라이머리 셀(PCell: Primary Cell) 다운링크에 대한 offsetToPointA는 초기 셀 선택을 위해 단말에 의해 사용된 SS/PBCH block과 겹치는 가장 낮은 자원 블록의 가장 낮은 서브 캐리어와 point A 간의 주파수 오프셋을 나타낸다. FR1에 대해 15kHz 서브캐리어 간격 및 FR2에 대해 60kHz 서브캐리어 간격을 가정한 리소스 블록 단위(unit)들로 표현된다.
- absoluteFrequencyPointA는 ARFCN(absolute radio-frequency channel number)에서와 같이 표현된 point A의 주파수-위치를 나타낸다.공통 자원 블록(common resource block)들은 서브캐리어 간격 설정 μ에 대한 주파수 도메인에서 0부터 위쪽으로 numbering된다. 서브캐리어 간격 설정 μ에 대한 공통 자원 블록 0의 subcarrier 0의 중심은 'point A'와 일치한다. 주파수 도메인에서 공통 자원 블록 번호 nCRB μ 와 서브캐리어 간격 설정 μ에 대한 자원 요소(k,l)와의 관계는 아래 수학식 1과 같이 주어진다.
Figure PCTKR2022015121-appb-img-000001
수학식 1에서, k는 k=0이 point A를 중심으로 하는 서브캐리어에 해당하도록 point A에 상대적으로 정의된다. 물리 자원 블록들은 대역폭 파트(BWP: bandwidth part) 내에서 0부터 NBWP,i size,μ-1까지 번호가 매겨지고, i는 BWP의 번호이다. BWP i에서 물리 자원 블록 nPRB 와 공통 자원 블록 nCRB 간의 관계는 아래 수학식 2에 의해 주어진다.
Figure PCTKR2022015121-appb-img-000002
NBWP,i start,μ는 BWP가 공통 자원 블록 0에 상대적으로 시작하는 공통 자원 블록이다.
도 4는 본 개시가 적용될 수 있는 무선 통신 시스템에서 물리 자원 블록(physical resource block)을 예시한다. 그리고, 도 5는 본 개시가 적용될 수 있는 무선 통신 시스템에서 슬롯 구조를 예시한다.
도 4 및 도 5를 참조하면, 슬롯은 시간 도메인에서 복수의 심볼을 포함한다. 예를 들어, 보통 CP의 경우 하나의 슬롯이 7개의 심볼을 포함하나, 확장 CP의 경우 하나의 슬롯이 6개의 심볼을 포함한다.
반송파는 주파수 도메인에서 복수의 부반송파를 포함한다. RB(Resource Block)는 주파수 도메인에서 복수(예를 들어, 12)의 연속한 부반송파로 정의된다. BWP(Bandwidth Part)는 주파수 도메인에서 복수의 연속한 (물리) 자원 블록으로 정의되며, 하나의 numerology(예를 들어, SCS, CP 길이 등)에 대응될 수 있다. 반송파는 최대 N개(예를 들어, 5개)의 BWP를 포함할 수 있다. 데이터 통신은 활성화된 BWP를 통해서 수행되며, 하나의 단말한테는 하나의 BWP만 활성화될 수 있다. 자원 그리드에서 각각의 요소는 자원요소(RE: Resource Element)로 지칭되며, 하나의 복소 심볼이 매핑될 수 있다.
NR 시스템은 하나의 컴포넌트 캐리어(component carrier, CC) 당 최대 400 MHz까지 지원될 수 있다. 이러한 광대역 CC(wideband CC)에서 동작하는 단말이 항상 CC 전체에 대한 무선 주파수(radio frequency, RF) 칩(chip)를 켜둔 채로 동작한다면 단말 배터리 소모가 커질 수 있다. 혹은 하나의 광대역 CC 내에 동작하는 여러 활용 케이스들(예를 들어, eMBB, URLLC, Mmtc, V2X 등)을 고려할 때 해당 CC 내에 주파수 대역 별로 서로 다른 numerology(예를 들어, 서브캐리어 간격 등)가 지원될 수 있다. 혹은 단말 별로 최대 대역폭에 대한 능력(capability)이 다를 수 있다. 이를 고려하여 기지국은 광대역 CC의 전체 대역폭이 아닌 일부 대역폭에서만 동작하도록 단말에게 지시할 수 있으며, 해당 일부 대역폭을 편의상 대역폭 부분(bandwidth part, BWP)로 정의한다. BWP는 주파수 축 상에서 연속한 RB들로 구성될 수 있으며, 하나의 numerology(예를 들어, 서브캐리어 간격, CP 길이, 슬롯/미니-슬롯 구간)에 대응될 수 있다.
한편, 기지국은 단말에게 설정된 하나의 CC 내에서도 다수의 BWP를 설정할 수 있다. 예를 들어, PDCCH 모니터링 슬롯에서는 상대적으로 작은 주파수 도메인을 차지하는 BWP를 설정하고, PDCCH에서 지시하는 PDSCH는 그보다 큰 BWP 상에 스케줄링될 수 있다.
혹은, 특정 BWP에 UE 들이 몰리는 경우 로드 밸런싱(load balancing)을 위해 일부 단말들을 다른 BWP로 설정할 수 있다. 혹은, 이웃 셀 간의 주파수 도메인 셀간 간섭 제거(frequency domain inter-cell interference cancellation) 등을 고려하여 전체 대역폭 중 가운데 일부 스펙트럼(spectrum)을 배제하고 양쪽 BWP들을 동일 슬롯 내에서도 설정할 수 있다. 즉, 기지국은 광대역 CC와 연관된(association) 단말에게 적어도 하나의 DL/UL BWP를 설정할 수 있다.
기지국은 특정 시점에 설정된 DL/UL BWP(들) 중 적어도 하나의 DL/UL BWP를 (L1 시그널링 또는 MAC CE(Control Element) 또는 RRC 시그널링 등에 의해) 활성화시킬 수 있다. 또한, 기지국은 다른 설정된 DL/UL BWP로 스위칭을 (L1 시그널링 또는 MAC CE 또는 RRC 시그널링 등에 의해) 지시할 수 있다. 또는, 타이머 기반으로 타이머 값이 만료되면 정해진 DL/UL BWP로 스위칭될 수도 있다. 이때, 활성화된 DL/UL BWP를 활성(active) DL/UL BWP로 정의한다.
하지만, 단말이 최초 접속(initial access) 과정을 수행하는 중이거나, 혹은 RRC 연결이 셋업(set up)되기 전 등의 상황에서는 DL/UL BWP에 대한 설정을 수신하지 못할 수 있으므로, 이러한 상황에서 단말이 가정하는 DL/UL BWP는 최초 활성 DL/UL BWP라고 정의한다.
도 6은 본 개시가 적용될 수 있는 무선 통신 시스템에서 이용되는 물리 채널들 및 이들을 이용한 일반적인 신호 송수신 방법을 예시한다.
무선 통신 시스템에서 단말은 기지국으로부터 하향링크(downlink)를 통해 정보를 수신하고, 단말은 기지국으로 상향링크(uplink)를 통해 정보를 전송한다. 기지국과 단말이 송수신하는 정보는 데이터 및 다양한 제어 정보를 포함하고, 이들이 송수신 하는 정보의 종류/용도에 따라 다양한 물리 채널이 존재한다.
단말은 전원이 켜지거나 새로이 셀에 진입한 경우 기지국과 동기를 맞추는 등의 초기 셀 탐색(Initial cell search) 작업을 수행한다(S601). 이를 위해, 단말은 기지국으로부터 주 동기 신호(primary synchronization signal, PSS) 및 부 동기 채널(secondary synchronization signal, PSS)을 수신하여 기지국과 동기를 맞추고, 셀 식별자(identifier, ID) 등의 정보를 획득할 수 있다. 그 후, 단말은 기지국으로부터 물리 방송 채널(physical broadcast channel, PBCH)를 수신하여 셀 내 방송 정보를 획득할 수 있다. 한편, 단말은 초기 셀 탐색 단계에서 하향링크 참조 신호(downlink reference signal, DL RS)를 수신하여 하향링크 채널 상태를 확인할 수 있다.
초기 셀 탐색을 마친 단말은 물리 하향링크 제어 채널(physical downlink control channel, PDCCH) 및 상기 PDCCH에 실린 정보에 따라 물리 하향링크 공유 채널(physical downlink control channel, PDSCH)을 수신함으로써 좀더 구체적인 시스템 정보를 획득할 수 있다(S602).
한편, 기지국에 최초로 접속하거나 신호 송신을 위한 무선 자원이 없는 경우 단말은 기지국에 대해 임의 접속 과정(random access procedure, RACH)을 수행할 수 있다(단계 S603 내지 단계 S606). 이를 위해, 단말은 물리 임의 접속 채널(physical random access channel, PRACH)을 통해 특정 시퀀스를 프리앰블로 송신하고(S603 및 S605), PDCCH 및 대응하는 PDSCH를 통해 프리앰블에 대한 응답 메시지를 수신할 수 있다(S604 및 S606). 경쟁 기반 RACH의 경우, 추가적으로 충돌 해결 절차(contention resolution procedure)를 수행할 수 있다.
상술한 바와 같은 절차를 수행한 단말은 이후 일반적인 상/하향링크 신호 송신 절차로서 PDCCH/PDSCH 수신(S607) 및 물리 상향링크 공유 채널(physical uplink shared channel, PUSCH)/물리 상향링크 제어 채널(physical uplink control channel, PUCCH) 송신(S608)을 수행할 수 있다. 특히 단말은 PDCCH를 통하여 하향링크 제어 정보(downlink control information, DCI)를 수신한다. 여기서 DCI는 단말에 대한 자원 할당 정보와 같은 제어 정보를 포함하며, 그 사용 목적에 따라 포맷이 서로 다르다.
한편, 단말이 상향링크를 통해 기지국에 송신하는 또는 단말이 기지국으로부터 수신하는 제어 정보는 하향링크/상향링크 ACK/NACK(Acknowledgement/Non-Acknowledgement) 신호, CQI(Channel Quality Indicator), PMI(Precoding Matrix Indicator), RI(Rank Indicator) 등을 포함한다. 3GPP LTE 시스템의 경우, 단말은 상술한 CQI/PMI/RI 등의 제어 정보를 PUSCH 및/또는 PUCCH를 통해 송신할 수 있다.
표 5는 NR 시스템에서의 DCI 포맷(format)의 일례를 나타낸다.
DCI 포맷 활용
0_0 하나의 셀 내 PUSCH의 스케줄링
0_1 하나의 셀 내 하나 또는 다중 PUSCH의 스케줄링, 또는 UE에게 셀 그룹(CG: cell group) 하향링크 피드백 정보의 지시
0_2 하나의 셀 내 PUSCH의 스케줄링
1_0 하나의 DL 셀 내 PDSCH의 스케줄링
1_1 하나의 셀 내 PDSCH의 스케줄링
1_2 하나의 셀 내 PDSCH의 스케줄링
표 5를 참조하면, DCI format 0_0, 0_1 및 0_2는 PUSCH의 스케줄링에 관련된 자원 정보(예를 들어, UL/SUL(Supplementary UL), 주파수 자원 할당, 시간 자원 할당, 주파수 호핑 등), 전송 블록(transport block, TB) 관련 정보(예를 들어, MCS(Modulation Coding and Scheme), NDI(New Data Indicator), RV(Redundancy Version) 등), HARQ(Hybrid - Automatic Repeat and request) 관련 정보(예를 들어, 프로세스 번호, DAI(Downlink Assignment Index), PDSCH-HARQ 피드백 타이밍 등), 다중 안테나 관련 정보(예를 들어, DMRS 시퀀스 초기화 정보, 안테나 포트, CSI 요청 등), 전력 제어 정보(예를 들어, PUSCH 전력 제어 등)을 포함할 수 있으며, DCI 포맷 각각에 포함되는 제어 정보들은 미리 정의될 수 있다.
DCI format 0_0은 하나의 셀에서 PUSCH의 스케줄링에 사용된다. DCI 포맷 0_0에 포함된 정보는 C-RNTI(cell radio network temporary identifier, Cell RNTI) 또는 CS-RNTI(Configured Scheduling RNTI) 또는 MCS-C-RNTI(Modulation Coding Scheme Cell RNTI)에 의해 CRC(cyclic redundancy check) 스크램블링되어 전송된다.
DCI format 0_1은 하나의 셀에서 하나 이상의 PUSCH의 스케줄링, 또는 설정된 그랜트(configure grant, CG) 하향링크 피드백 정보를 단말에게 지시하는 데 사용된다. DCI format 0_1에 포함된 정보는 C-RNTI 또는 CS-RNTI 또는 SP-CSI-RNTI(Semi-Persistent CSI RNTI) 또는 MCS-C-RNTI에 의해 CRC 스크램블링되어 전송된다.
DCI format 0_2는 하나의 셀에서 PUSCH의 스케줄링에 사용된다. DCI format 0_2에 포함된 정보는 C-RNTI 또는 CS-RNTI 또는 SP-CSI-RNTI 또는 MCS-C-RNTI에 의해 CRC 스크램블링되어 전송된다.
다음으로, DCI format 1_0, 1_1 및 1_2는 PDSCH의 스케줄링에 관련된 자원 정보(예를 들어, 주파수 자원 할당, 시간 자원 할당, VRB(virtual resource block)-PRB(physical resource block) 매핑 등), 전송블록(TB) 관련 정보(예를 들어, MCS, NDI, RV 등), HARQ 관련 정보(예를 들어, 프로세스 번호, DAI, PDSCH-HARQ 피드백 타이밍 등), 다중 안테나 관련 정보(예를 들어, 안테나 포트, TCI(transmission configuration indicator), SRS(sounding reference signal) 요청 등), PUCCH 관련 정보(예를 들어, PUCCH 전력 제어, PUCCH 자원 지시자 등)을 포함할 수 있으며, DCI 포맷 각각에 포함되는 제어 정보들은 미리 정의될 수 있다.
DCI format 1_0은 하나의 DL 셀에서 PDSCH의 스케줄링을 위해 사용된다. DCI format 1_0에 포함된 정보는 C-RNTI 또는 CS-RNTI 또는 MCS-C-RNTI에 의해 CRC 스크램블링되어 전송된다.
DCI format 1_1은 하나의 셀에서 PDSCH의 스케줄링을 위해 사용된다. DCI format 1_1에 포함되는 정보는 C-RNTI 또는 CS-RNTI 또는 MCS-C-RNTI에 의해 CRC 스크램블링되어 전송된다.
DCI format 1_2는 하나의 셀에서 PDSCH의 스케줄링을 위해 사용된다. DCI format 1_2에 포함되는 정보는 C-RNTI 또는 CS-RNTI 또는 MCS-C-RNTI에 의해 CRC 스크램블링되어 전송된다.
다중 TRP(Multi-TRP) 관련 동작
다지점 협력 통신(CoMP: Coordinated Multi Point)의 기법은 다수의 기지국이 단말로부터 피드백 받은 채널 정보(예를 들어, RI/CQI/PMI/LI(layer indicator) 등)를 서로 교환(예를 들어, X2 인터페이스 이용) 혹은 활용하여, 단말에게 협력 전송함으로써 간섭을 효과적으로 제어하는 방식을 말한다. 이용하는 방식에 따라서, CoMP는 연합 전송(JT: Joint transmission), 협력 스케줄링(CS: Coordinated Scheduling), 협력 빔포밍(CB: Coordinated Beamforming), 동적 포인트 선택(DPS: Dynamic Point Selection), 동적 포인트 차단(DPB: Dynamic Point Blocking) 등으로 구분할 수 있다.
M개의 TRP가 하나의 단말에게 데이터를 전송하는 M-TRP 전송 방식은 크게 i) 전송률을 높이기 위한 방식인 eMBB M-TRP 전송과 ii) 수신 성공률 증가 및 지연(latency) 감소를 위한 방식인 URLLC M-TRP 전송으로 구분할 수 있다.
또한, DCI 전송 관점에서, M-TRP 전송 방식은 i) 각 TRP가 서로 다른 DCI를 전송하는 M-DCI(multiple DCI) 기반 M-TRP 전송과 ii) 하나의 TRP가 DCI를 전송하는 S-DCI(single DCI) 기반 M-TRP 전송으로 구분할 수 있다. 예를 들어, S-DCI 기반 M-TRP 전송의 경우, M TRP가 전송하는 데이터에 대한 모든 스케줄링 정보가 하나의 DCI를 통해 단말에게 전달되어야 하므로, 두 TRP간의 동적인(dynamic) 협력이 가능한 이상적 백홀(ideal BH: ideal BackHaul) 환경에서 사용될 수 있다.
TDM 기반 URLLC M-TRP 전송에 대하여, 방식(scheme) 3/4가 표준화 논의 중이다. 구체적으로, scheme 4는 하나의 slot에서는 하나의 TRP가 전송블록(TB)을 전송하는 방식을 의미하며, 여러 slot에서 여러 TRP로부터 수신한 동일한 TB를 통해 데이터 수신 확률을 높일 수 있는 효과가 있다. 이와 달리, Scheme 3는 하나의 TRP가 연속된 몇 개의 OFDM 심볼(즉, 심볼 그룹)을 통해 TB를 전송하는 방식을 의미하며, 하나의 slot 내에서 여러 TRP들이 서로 다른 심볼 그룹을 통해 동일한 TB를 전송하도록 설정될 수 있다.
또한, UE는 서로 다른 제어 자원 세트(CORESET: control resource set)(또는 서로 다른 CORESET 그룹에 속한 CORESET)으로 수신한 DCI가 스케줄링한 PUSCH(또는 PUCCH)를 서로 다른 TRP로 전송하는 PUSCH(또는 PUCCH)로 인식하거나 또는 서로 다른 TRP의 PDSCH(또는 PDCCH)로 인식할 수 있다. 또한, 후술하는 서로 다른 TRP로 전송하는 UL 전송(예를 들어, PUSCH/PUCCH)에 대한 방식은 동일 TRP에 속한 서로 다른 패널(panel)로 전송하는 UL 전송(예를 들어, PUSCH/PUCCH)에 대해서도 동일하게 적용할 수 있다.
또한, MTRP-URLLC란 동일 TB(Transport Block)를 M-TRP가 다른 레이어/시간/주파수(layer/time/frequency)를 이용하여 전송하는 것을 의미할 수 있다. MTRP-URLLC 전송 방식을 설정 받은 UE는 DCI로 여러 TCI 상태(state)(들)을 지시받고, 각 TCI state의 QCL RS를 이용하여 수신한 데이터는 서로 동일 TB임을 가정할 수 있다. 반면, MTRP-eMBB는 다른 TB를 M-TRP가 다른 layer/time/frequency를 이용하여 전송하는 것을 의미할 수 있다. MTRP-eMBB 전송 방식을 설정 받은 UE는 DCI로 여러 TCI state(s)를 지시받고, 각 TCI state의 QCL RS를 이용하여 수신한 데이터는 서로 다른 TB임을 가정할 수 있다. 이와 관련하여, UE는 MTRP-URLLC 용도로 설정된 RNTI와 MTRP-eMBB 용도로 설정된 RNTI를 별도로 구분하여 이용함에 따라, 해당 M-TRP 전송이 URLLC 전송인지 또는 eMBB 전송인지 여부를 판단/결정할 수 있다. 즉, UE가 수신한 DCI의 CRC 마스킹(masking)이 MTRP-URLLC 용도로 설정된 RNTI를 이용하여 수행된 경우 이는 URLLC 전송에 해당하며, DCI의 CRC masking이 MTRP-eMBB 용도로 설정된 RNTI를 이용하여 수행된 경우 이는 eMBB 전송에 해당할 수 있다.
이하, 본 개시에서 설명/언급되는 CORESET 그룹 식별자(group ID)는 각 TRP/패널(panel)를 위한 CORESET을 구분하기 위한 인덱스(index)/식별 정보(예를 들어, ID) 등을 의미할 수 있다. 그리고 CORESET group은 각 TRP/panel을 위한 CORESET을 구분하기 위한 인덱스/식별정보(예를 들어, ID)/상기 CORESET group ID등에 의해 구분되는 CORESET의 그룹/합집합일 수 있다. 일례로, CORESET group ID는 CORSET 설정(configuration) 내에 정의되는 특정 index 정보일 수 있다. 이 경우, CORESET group은 각 CORESET에 대한 CORESET configuration 내에 정의된 인덱스에 의해 설정/지시/정의될 수 있다. 그리고/또는 CORESET group ID는 각 TRP/panel에 설정된/연관된 CORESET 간의 구분/식별을 위한 인덱스/식별 정보/지시자 등을 의미할 수 있다. 이하, 본 개시에서 설명/언급되는 CORESET group ID는 각 TRP/panel에 설정된/연관된 CORESET 간의 구분/식별을 위한 특정 인덱스/특정 식별 정보/특정 지시자로 대체되어 표현될 수도 있다. 상기 CORESET group ID, 즉, 각 TRP/panel에 설정된/연관된 CORESET 간의 구분/식별을 위한 특정 인덱스/특정 식별 정보/특정 지시자는 상위 계층 시그널링(higher layer signaling, 예를 들어, RRC 시그널링)/제2 계층 시그널링(L2 signaling, 예를 들어, MAC-CE)/제1 계층 시그널링(L1 signaling, 예를 들어, DCI) 등을 통해 단말에게 설정/지시될 수 있다. 일례로, 해당 CORESET group 단위로 각 TRP/panel 별 (즉, 동일 CORESET group에 속한 TRP/panel 별로) PDCCH 검출(detection)이 수행되도록 설정/지시될 수 있다. 그리고/또는 해당 CORESET group 단위로 각 TRP/panel 별로 (즉, 동일 CORESET group에 속한 TRP/panel 별로) 상향링크 제어 정보(예를 들어, CSI, HARQ-A/N(ACK/NACK), SR(scheduling request)) 및/또는 상향링크 물리 채널 자원들(예를 들어, PUCCH/PRACH/SRS 자원들)이 분리되어 관리/제어되도록 설정/지시될 수 있다. 그리고/또는 해당 CORESET group 별로 각 TRP/panel 별로 (즉, 동일 CORESET group에 속한 TRP/panel 별로) 스케줄링되는 PDSCH/PUSCH 등에 대한 HARQ A/N(처리(process)/재전송)이 관리될 수 있다.
예를 들어, 상위 계층 파라미터인 ControlResourceSet 정보 요소(IE: information element)는 시간/주파수 제어 자원 집합(CORESET: control resource set)을 설정하기 위해 사용된다. 일례로, 상기 제어 자원 집합(CORESET)은 하향링크 제어 정보의 검출, 수신과 관련될 수 있다. 상기 ControlResourceSet IE는 CORESET 관련 ID(예를 들어, controlResourceSetID)/ CORESET에 대한 CORESET 풀(pool)의 인덱스(index) (예를 들어, CORESETPoolIndex)/ CORESET의 시간/주파수 자원 설정/ CORESET과 관련된 TCI 정보 등을 포함할 수 있다. 일례로, CORESET pool의 인덱스 (예를 들어, CORESETPoolIndex)는 0 또는 1로 설정될 수 있다. 상기 설명에서 CORESET group은 CORESET pool에 대응될 수 있고, CORESET group ID는 CORESET pool index(예를 들어, CORESETPoolIndex)에 대응될 수 있다.
NCJT(Non-coherent joint transmission)는 다수의 TP(Transmission Point)가 하나의 단말에게 동일한 시간 주파수 자원을 사용하여 데이터를 전송하는 방법으로서, TP 간에 서로 다른 DMRS(Demodulation Multiplexing Reference Signal) 포트를 사용하여 다른 레이어(layer)를 통해(즉, 서로 다른 DMRS 포트로) 데이터를 전송한다.
TP는 NCJT 수신하는 단말에게 데이터 스케줄링 정보를 DCI로 전달한다. 이때, NCJT에 참여하는 각 TP가 자신이 송신하는 데이터에 대한 스케줄링 정보를 DCI로 전달하는 방식을 '다중 DCI 기반 NCJT(multi DCI based NCJT)'라고 한다. NCJT 전송에 참여하는 N TP가 각각 DL 그랜트(grant) DCI와 PDSCH를 UE에게 전송하므로 UE는 N개의 DCI와 N개의 PDSCH를 N TP로부터 수신하게 된다. 이와는 다르게 대표 TP 하나가 자신이 송신하는 데이터와 다른 TP(즉, NCJT에 참여하는 TP)가 송신하는 데이터에 대한 스케줄링 정보를 하나의 DCI로 전달하는 방식을 '단일 DCI 기반 NCJT(single DCI based NCJT)'라고 한다. 이 경우, N TP가 하나의 PDSCH를 전송하게 되지만 각 TP는 하나의 PDSCH를 구성하는 다중 레이어(multiple layer)들의 일부 layer만을 전송하게 된다. 예를 들어, 4 layer 데이터가 전송되는 경우, TP 1이 2 layer를 전송하고 TP 2가 나머지 2 layer를 UE에게 전송할 수 있다.
이하, 부분적(partially) 중첩된(overlapped) NCJP에 대하여 살펴본다.
또한, NCJT는 각 TP가 전송하는 시간 주파수 자원이 완전히 겹쳐있는 완전 중첩(fully overlapped) NCJT와 일부 시간 주파수 자원만 겹쳐있는 부분 중첩(partially overlapped) NCJT로 구분될 수 있다. 즉, partially overlapped NCJT인 경우, 일부 시간 주파수 자원에서는 TP 1와 TP2의 데이터가 모두 송신되며, 나머지 시간 주파수 자원에서는 TP 1 또는 TP 2 중 하나의 TP만이 데이터만이 전송된다.
이하, Multi-TRP에서의 신뢰도 향상을 위한 방식에 대하여 살펴본다.
다수 TRP 에서의 전송을 이용한 신뢰도(reliability) 향상을 위한 송수신 방법으로 아래의 두 가지 방법을 고려해볼 수 있다.
도 7은 본 개시가 적용될 수 있는 무선 통신 시스템에서 다중 TRP 전송 방식을 예시한다.
도 7(a)를 참조하면, 동일한 코드워드(CW: codeword)/전송블록(TB: transport block)를 전송하는 레이어 그룹(layer group)이 서로 다른 TRP에 대응하는 경우를 보여준다. 이때, layer group은 하나 또는 하나 이상의 layer로 이루어진 소정의 layer 집합을 의미할 수 있다. 이러한 경우, 다수의 layer 수로 인해 전송 자원의 양이 증가하며, 이를 통해 TB에 대해 낮은 부호율의 강건한 채널 코딩을 사용할 수 있다는 장점이 있으며, 또한, 다수의 TRP로부터 채널이 다르기 때문에 다이버시티(diversity) 이득을 바탕으로 수신 신호의 신뢰도 향상을 기대할 수 있다.
도 7(b)를 참조하면, 서로 다른 CW를 서로 다른 TRP에 대응하는 layer group을 통해 전송하는 예를 보여준다. 이때, 그림의 CW #1과 CW #2에 대응하는 TB는 서로 동일함을 가정할 수 있다. 즉, CW #1과 CW #2는 각각 서로 다른 TRP에 의해 동일한 TB가 채널 코딩 등을 통해 서로 다른 CW로 변환된 것을 의미한다. 따라서, 동일 TB의 반복 전송의 예로 볼 수 있다. 도 7(b)의 경우, 앞서 도 7(a)와 대비하여 TB에 대응하는 부호율이 높다는 단점을 가질 수 있다. 하지만, 채널 환경에 따라 동일 TB로부터 생성된 인코딩된 비트들(encoding bits)에 대해서 서로 다른 RV(redundancy version) 값을 지시하여 부호율을 조정하거나, 각 CW의 변조 차수(modulation order)를 조절할 수 있다는 장점을 갖는다.
앞서 도 7(a) 및 도 7(b)에서 예시한 방식에 따르면, 동일 TB가 서로 다른 layer group을 통해 반복 전송되고, 각 layer group이 서로 다른 TRP/panel에 의해 전송됨에 따라 단말의 데이터 수신확률을 높일 수 있다. 이를 SDM(Spatial Division Multiplexing) 기반 M-TRP URLLC 전송 방식으로 지칭한다. 서로 다른 Layer group에 속한 layer들은 서로 다른 DMRS CDM 그룹에 속한 DMRS 포트들을 통해 각각 전송된다.
또한, 상술한 다수 TRP 관련된 내용은 서로 다른 레이어를 이용하는 SDM(spatial division multiplexing) 방식을 기준으로 설명되었지만, 이는 서로 다른 주파수 영역 자원(예를 들어, RB/PRB (세트) 등)에 기반하는 FDM(frequency division multiplexing) 방식 및/또는 서로 다른 시간 영역 자원(예를 들어, 슬롯, 심볼, 서브-심볼 등)에 기반하는 TDM(time division multiplexing) 방식에도 확장하여 적용될 수 있음은 물론이다.
하향링크 송수신 동작
도 8은 본 개시가 적용될 수 있는 무선 통신 시스템에서 하향링크 송수신 동작을 예시하는 도면이다.
도 8을 참조하면, 기지국은 주파수/시간 자원, 전송 레이어, 하향링크 프리코더, MCS 등과 같은 하향링크 전송을 스케줄링한다(S1401). 특히, 기지국은 앞서 설명한 동작들을 통해 단말에게 PDSCH전송을 위한 빔을 결정할 수 있다.
단말은 기지국으로부터 하향링크 스케줄링을 위한(즉, PDSCH의 스케줄링 정보를 포함하는) DCI를 PDCCH 상에서 수신한다(S1402).
하향링크 스케줄링을 위해 DCI 포맷 1_0, 1_1 또는 1_2이 이용될 수 있으며, 특히 DCI 포맷 1_1에서는 다음과 같은 정보를 포함한다: DCI 포맷 식별자(Identifier for DCI formats), 대역폭 부분 지시자(Bandwidth part indicator), 주파수 도메인 자원 할당(Frequency domain resource assignment), 시간 도메인 자원 할당(Time domain resource assignment), PRB 번들링 크기 지시자(PRB bundling size indicator), 레이트 매칭 지시자(Rate matching indicator), ZP CSI-RS 트리거(ZP CSI-RS trigger), 안테나 포트(들)(Antenna port(s)), 전송 설정 지시(TCI: Transmission configuration indication), SRS 요청(SRS request), DMRS(Demodulation Reference Signal) 시퀀스 초기화(DMRS sequence initialization)
특히, 안테나 포트(들)(Antenna port(s)) 필드에서 지시되는 각 상태(state)에 따라, DMRS 포트의 수가 스케줄링될 수 있으며, 또한 SU(Single-user)/MU(Multi-user) 전송 스케줄링이 가능하다.
또한, TCI 필드는 3 비트로 구성되고, TCI 필드 값에 따라 최대 8 TCI 상태를 지시함으로써 동적으로 DMRS에 대한 QCL이 지시된다.
단말은 기지국으로부터 하향링크 데이터를 PDSCH 상에서 수신한다(S1403).
단말이 DCI 포맷 1_0, 1_1, 1_2을 포함하는 PDCCH를 검출(detect)하면, 해당 DCI에 의한 지시에 따라 PDSCH를 디코딩한다.
여기서, 단말이 DCI 포맷 1에 의해 스케줄링된 PDSCH를 수신할 때, 단말은 상위 계층 파라미터 'dmrs-Type'에 의해 DMRS 설정 타입이 설정될 수 있으며, DMRS 타입은 PDSCH를 수신하기 위해 사용된다. 또한, 단말은 상위 계층 파라미터 'maxLength'에 의해 PDSCH을 위한 앞에 삽입되는(front-loaded) DMRA 심볼의 최대 개수가 설정될 수 있다.
DMRS 설정 타입 1의 경우, 단말에 대해서 단일의 코드워드가 스케줄링되고 {2, 9, 10, 11 또는 30}의 인덱스와 매핑된 안테나 포트가 지정되면, 또는 단일의 코드워드가 스케줄링되고 {2, 9, 10, 11 또는 12} 또는 {2, 9, 10, 11, 30 또는 31}의 인덱스와 매핑된 안테나 포트가 지정되면, 또는 단말에 대해서 2개의 코드워드가 스케줄링되면, 단말은 모든 남은 직교한 안테나 포트가 또 다른 단말으로의 PDSCH 전송과 연관되지 않는다고 가정한다.
또는, DMRS 설정 타입 2의 경우, 단말에 대해서 단일의 코드워드가 스케줄링되고 {2, 10 또는 23}의 인덱스와 매핑된 안테나 포트가 지정되면, 또는 단일의 코드워드가 스케줄링되고 {2, 10, 23 또는 24} 또는 {2, 10, 23 또는 58}의 인덱스와 매핑된 안테나 포트가 지정되면, 또는 단말에 대해서 2개의 코드워드가 스케줄링되면, 단말은 모든 남은 직교한 안테나 포트가 또 다른 단말으로의 PDSCH 전송과 연관되지 않는다고 가정한다.
단말이 PDSCH를 수신할 때, 프리코딩 단위(precoding granularity) P'를 주파수 도메인에서 연속된(consecutive) 자원 블록으로 가정할 수 있다. 여기서, P'는 {2, 4, 광대역} 중 하나의 값에 해당할 수 있다.
P'가 광대역으로 결정되면, 단말은 불연속적인(non-contiguous) PRB들로 스케줄링되는 것을 예상하지 않고, 단말은 할당된 자원에 동일한 프리코딩이 적용된다고 가정할 수 있다.
반면, P'가 {2, 4} 중 어느 하나로 결정되면, 프리코딩 자원 블록 그룹(PRG: Precoding Resource Block Group)은 P' 개의 연속된 PRB로 분할된다. 각 PRG 내 실제 연속된 PRB의 개수는 하나 또는 그 이상일 수 있다. UE는 PRG 내 연속된 하향링크 PRB에는 동일한 프리코딩이 적용된다고 가정할 수 있다.
단말이 PDSCH 내 변조 차수(modulation order), 목표 코드 레이트(target code rate), 전송 블록 크기(transport block size)를 결정하기 위해, 단말은 우선 DCI 내 5 비트 MCD 필드를 읽고, modulation order 및 target code rate를 결정한다. 그리고, DCI 내 리던던시 버전 필드를 읽고, 리던던시 버전을 결정한다. 그리고, 단말은 레이트 매칭 전에 레이어의 수, 할당된 PRB의 총 개수를 이용하여, transport block size를 결정한다.
상향링크 송수신 동작
도 9는 본 개시가 적용될 수 있는 무선 통신 시스템에서 상향링크 송수신 동작을 예시하는 도면이다.
도 9를 참조하면, 기지국은 주파수/시간 자원, 전송 레이어, 상향링크 프리코더, MCS 등과 같은 상향링크 전송을 스케줄링한다(S1501). 특히, 기지국은 앞서 설명한 동작들을 통해 단말이 PUSCH 전송을 위한 빔을 결정할 수 있다.
단말은 기지국으로부터 상향링크 스케줄링을 위한(즉, PUSCH의 스케줄링 정보를 포함하는) DCI를 PDCCH 상에서 수신한다(S1502).
상향링크 스케줄링을 위해DCI 포맷 0_0, 0_1 또는 0_2이 이용될 수 있으며, 특히 DCI 포맷 0_1에서는 다음과 같은 정보를 포함한다: DCI 포맷 식별자(Identifier for DCI formats), UL/SUL(Supplementary uplink) 지시자(UL/SUL indicator), 대역폭 부분 지시자(Bandwidth part indicator), 주파수 도메인 자원 할당(Frequency domain resource assignment), 시간 도메인 자원 할당(Time domain resource assignment), 주파수 호핑 플래그(Frequency hopping flag), 변조 및 코딩 방식(MCS: Modulation and coding scheme), SRS 자원 지시자(SRI: SRS resource indicator), 프리코딩 정보 및 레이어 수(Precoding information and number of layers), 안테나 포트(들)(Antenna port(s)), SRS 요청(SRS request), DMRS 시퀀스 초기화(DMRS sequence initialization), UL-SCH(Uplink Shared Channel) 지시자(UL-SCH indicator)
특히, SRS resource indicator 필드에 의해 상위 계층 파라미터 'usage'와 연관된 SRS 자원 세트 내 설정된 SRS 자원들이 지시될 수 있다. 또한, 각 SRS resource별로 'spatialRelationInfo'를 설정받을 수 있고 그 값은 {CRI, SSB, SRI}중에 하나일 수 있다.
단말은 기지국에게 상향링크 데이터를 PUSCH 상에서 전송한다(S1503).
단말이 DCI 포맷 0_0, 0_1 또는 0_2을 포함하는 PDCCH를 검출(detect)하면, 해당 DCI에 의한 지시에 따라 해당 PUSCH를 전송한다.
PUSCH 전송을 위해 코드북(codebook) 기반 전송 및 비-코드북(non-codebook) 기반 전송2가지의 전송 방식이 지원된다:
i) 상위 계층 파라미터 'txConfig'가 'codebook'으로 셋팅될 때, 단말은 codebook 기반 전송으로 설정된다. 반면, 상위 계층 파라미터 'txConfig'가 'nonCodebook'으로 셋팅될 때, 단말은 non-codebook 기반 전송으로 설정된다. 상위 계층 파라미터 'txConfig'가 설정되지 않으면, 단말은 DCI 포맷 0_1에 의해 스케줄링되는 것을 예상하지 않는다. DCI 포맷 0_0에 의해 PUSCH가 스케줄링되면, PUSCH 전송은 단일 안테나 포트에 기반한다.
codebook 기반 전송의 경우, PUSCH는 DCI 포맷 0_0, DCI 포맷 0_1, DCI 포맷 0_2 또는 반정적으로(semi-statically) 스케줄링될 수 있다. 이 PUSCH가 DCI 포맷 0_1에 의해 스케줄링되면, 단말은 SRS resource indicator 필드 및 Precoding information and number of layers 필드에 의해 주어진 바와 같이, DCI로부터 SRI, TPMI(Transmit Precoding Matrix Indicator) 및 전송 랭크를 기반으로 PUSCH 전송 프리코더를 결정한다. TPMI는 안테나 포트에 걸쳐서 적용될 프리코더를 지시하기 위해 이용되고, 다중의 SRS 자원이 설정될 때 SRI에 의해 선택된 SRS 자원에 상응한다. 또는, 단일의 SRS 자원이 설정되면, TPMI는 안테나 포트에 걸쳐 적용될 프리코더를 지시하기 위해 이용되고, 해당 단일의 SRS 자원에 상응한다. 상위 계층 파라미터 'nrofSRS-Ports'와 동일한 안테나 포트의 수를 가지는 상향링크 코드북으로부터 전송 프리코더가 선택된다. 단말이 'codebook'으로 셋팅된 상위 계층이 파라미터 'txConfig'로 설정될 때, 단말은 적어도 하나의 SRS 자원이 설정된다. 슬롯 n에서 지시된 SRI는 SRI에 의해 식별된 SRS 자원의 가장 최근의 전송과 연관되고, 여기서 SRS 자원은 SRI를 나르는 PDCCH (즉, 슬롯 n)에 앞선다.
ii) non-codebook 기반 전송의 경우, PUSCH는 DCI 포맷 0_0, DCI 포맷 0_1 또는 반정적으로(semi-statically) 스케줄링될 수 있다. 다중의 SRS 자원이 설정될 때, 단말은 광대역 SRI를 기반으로 PUSCH 프리코더 및 전송 랭크를 결정할 수 있으며, 여기서 SRI는 DCI 내 SRS resource indicator에 의해 주어지거나 또는 상위 계층 파라미터 'srs-ResourceIndicator'에 의해 주어진다. 단말은 SRS 전송을 위해 하나 또는 다중의 SRS 자원을 이용하고, 여기서 SRS 자원의 수는, UE 능력에 기반하여 동일한 RB 내에서 동시 전송을 위해 설정될 수 있다. 각 SRS 자원 별로 단 하나의 SRS 포트만이 설정된다. 단 하나의 SRS 자원만이 'nonCodebook'으로 셋팅된 상위 계층 파라미터 'usage'로 설정될 수 있다. non-codebook 기반 상향링크 전송을 위해 설정될 수 있는 SRS 자원의 최대의 수는 4이다. 슬롯 n에서 지시된 SRI는 SRI에 의해 식별된 SRS 자원의 가장 최근의 전송과 연관되고, 여기서 SRS 전송은 SRI를 나르는 PDCCH (즉, 슬롯 n)에 앞선다.
CSI 관련 동작
NR(New Radio) 시스템에서, CSI-RS(channel state information-reference signal)은 시간 및/또는 주파수 트래킹(time/frequency tracking), CSI 계산(computation), L1(layer 1)-RSRP(reference signal received power) 계산(computation) 및 이동성(mobility)를 위해 사용된다. 여기서, CSI computation은 CSI 획득(acquisition)과 관련되며, L1-RSRP computation은 빔 관리(beam management, BM)와 관련된다.
CSI(channel state information)은 단말과 안테나 포트 사이에 형성되는 무선 채널(혹은 링크라고도 함)의 품질을 나타낼 수 있는 정보를 통칭한다.
- 상기와 같은 CSI-RS의 용도 중 하나를 수행하기 위해, 단말(예: user equipment, UE)은 CSI와 관련된 설정(configuration) 정보를 RRC(radio resource control) signaling을 통해 기지국(예: general Node B, gNB)으로부터 수신한다.
상기 CSI와 관련된 configuration 정보는 CSI-IM(interference management) 자원(resource) 관련 정보, CSI 측정 설정(measurement configuration) 관련 정보, CSI 자원 설정(resource configuration) 관련 정보, CSI-RS 자원(resource) 관련 정보 또는 CSI 보고 설정(report configuration) 관련 정보 중 적어도 하나를 포함할 수 있다.
i) CSI-IM 자원 관련 정보는 CSI-IM 자원 정보(resource information), CSI-IM 자원 세트 정보(resource set information) 등을 포함할 수 있다. CSI-IM resource set은 CSI-IM resource set ID(identifier)에 의해 식별되며, 하나의 resource set은 적어도 하나의 CSI-IM resource를 포함한다. 각각의 CSI-IM resource는 CSI-IM resource ID에 의해 식별된다.
ii) CSI resource configuration 관련 정보는 CSI-ResourceConfig IE로 표현될 수 있다. CSI resource configuration 관련 정보는 NZP(non zero power) CSI-RS resource set, CSI-IM resource set 또는 CSI-SSB resource set 중 적어도 하나를 포함하는 그룹을 정의한다. 즉, 상기 CSI resource configuration 관련 정보는 CSI-RS resource set list를 포함하며, 상기 CSI-RS resource set list는 NZP CSI-RS resource set list, CSI-IM resource set list 또는 CSI-SSB resource set list 중 적어도 하나를 포함할 수 있다. CSI-RS resource set은 CSI-RS resource set ID에 의해 식별되고, 하나의 resource set은 적어도 하나의 CSI-RS resource를 포함한다. 각각의 CSI-RS resource는 CSI-RS resource ID에 의해 식별된다.
NZP CSI-RS resource set 별로 CSI-RS의 용도를 나타내는 parameter들(예: BM 관련 'repetition' parameter, tracking 관련 'trs-Info' parameter)이 설정될 수 있다.
iii) CSI 보고 설정(report configuration) 관련 정보는 시간 영역 행동(time domain behavior)을 나타내는 보고 설정 타입(reportConfigType) parameter 및 보고하기 위한 CSI 관련 quantity를 나타내는 보고량(reportQuantity) parameter를 포함한다. 상기 시간 영역 동작(time domain behavior)은 periodic, aperiodic 또는 semi-persistent일 수 있다.
- 단말은 상기 CSI와 관련된 configuration 정보에 기초하여 CSI를 측정(measurement)한다.
상기 CSI 측정은 (1) 단말의 CSI-RS 수신 과정과, (2) 수신된 CSI-RS를 통해 CSI를 계산(computation)하는 과정을 포함할 수 있으며, 이에 대하여 구체적인 설명은 후술한다.
CSI-RS는 higher layer parameter CSI-RS-ResourceMapping에 의해 시간(time) 및 주파수(frequency) 영역에서 CSI-RS resource의 RE(resource element) 매핑이 설정된다.
- 단말은 상기 측정된 CSI를 기지국으로 보고(report)한다.
여기서, CSI-ReportConfig의 quantity가 'none(또는 No report)'로 설정된 경우, 상기 단말은 상기 report를 생략할 수 있다. 다만, 상기 quantity가 'none(또는 No report)'로 설정된 경우에도 상기 단말은 기지국으로 report를 할 수도 있다. 상기 quantity가 'none'으로 설정된 경우는 aperiodic TRS를 trigger하는 경우 또는 repetition이 설정된 경우이다. 여기서, repetition이 'ON'으로 설정된 경우에만 상기 단말의 report를 생략할 수 있다.
인공 지능(AI: Artificial Intelligence) 동작
인공지능/머신러닝(AI/ML: Artificial intelligence / machine learning)의 기술 발전으로 무선 통신 네트워크를 구성하는 노드(들) 및 단말(들)의 지능화/고도화가 이루어지고 있다. 특히 네트워크/기지국의 지능화로 인해 다양한 환경 파라미터(예를 들어, 기지국들의 분포/위치, 건물/가구 등의 분포/위치/재질, 단말들의 위치/이동방향/속도, 기후 정보 등)에 따라 다양한 네트워크/기지국 결정 파라미터 값들(예를 들어, 각 기지국의 송수신 전력, 각 단말의 송신 전력, 기지국/단말의 프리코더/빔, 각 단말에 대한 시간/주파수 자원 할당, 각 기지국의 듀플렉스(duplex) 방식 등)을 빠르게 최적화하여 도출/적용할 수 있게 될 전망이다. 이러한 추세에 맞추어, 많은 표준화 단체 (예를 들어, 3GPP, O-RAN)에서 도입을 고려하고 있으며, 이에 대한 스터디도 활발히 진행 중이다.
도 10은 인공지능의 분류를 예시한다.
도 10을 참조하면, 인공지능(AI: Artificial Intelligence)은 사람이 해야 할 일을 기계가 대신할 수 있는 모든 자동화에 해당한다.
머신러닝(ML: Machine Learning)은 명시적으로 규칙을 프로그래밍하지 않고, 데이터로부터 의사결정을 위한 패턴을 기계가 스스로 학습하는 기술을 의미한다.
딥러닝(Deep Learning)은 인공 신경망 기반의 모델로서, 비정형 데이터로부터 특징 추출 및 판단까지 기계가 한 번에 수행할 수 있다. 알고리즘은 생물학적 신경계, 즉 신경망(Neural Network)에서 영감을 받은 특징 추출 및 변환을 위해 상호 연결된 노드로 구성된 다층 네트워크에 의존한다. 일반적인 딥 러닝 네트워크 아키텍처에는 심층 신경망(DNN: Deep Neural Network), 순환 신경망(RNN: Recurrent Neural Network) 및 컨볼루션 신경망(CNN: Convolutional Neural Network) 등이 포함된다.
AI(또는 AI/ML로 지칭)은 좁은 의미로 딥러닝(Deep learning) 기반의 인공지능으로 일컬을 수 있지만, 본 개시에서 이에 한정되는 것은 아니다. 즉, 본 개시에서 AI(또는 AI/ML로 지칭)는 인간처럼 작업을 수행할 수 있는 지능형 기계(예를 들어, UE, RAN, 네트워크 노드 등)에 적용되는 자동화 기술을 통칭할 수 있다.
AI(또는 AI/ML)는 다양한 기준에 따라 다음과 같이 분류할 수 있다.
1. 오프라인/온라인 학습
a) 오프라인 학습(Offline Learning)
오프라인 학습은 데이터 베이스의 수집, 학습, 예측이라는 순차적인 절차를 따르게 된다. 즉, 수집과 학습을 오프라인으로 수행하고, 완성된 프로그램을 현장에 설치하여 예측 작업에 활용할 수 있다.
b) 온라인 학습(Online Learning)
최근 학습에 활용할 수 있는 데이터가 인터넷을 통해 지속적으로 발생하는 점을 활용하여, 추가적으로 발생한 데이터를 가지고 점증적으로 추가 학습하여 성능을 조금씩 개선하는 방식을 지칭한다.
2. AI/ML Framework 개념에 따른 분류
a) 중앙집중식 학습(Centralized Learning)
Centralized learning에서는 서로 다른 복수의 노드들에서 수집된(collected) 훈련 데이터(training data)를 중앙 노드(centralized node)에 보고를 하면, 모든 데이터 자원/저장(storage)/학습(예를 들어, 지도 학습(supervised learning), 비지도 학습(unsupervised learning), 강화 학습(reinforcement learning) 등)이 하나의 centralized node에서 수행된다.
b) 연합 학습(Federated Learning)
Federated learning은 공동(collective) 모델이 각기 분산되어 있는 데이터 소유자(data owner)들에 걸쳐서 존재하는 데이터를 기반으로 구성된다. 데이터를 모델로 수집하는 대신, AI/ML 모델을 데이터 소스로 가져와 로컬 노드/개별 장치가 데이터를 수집하고 자체 모델 사본을 훈련할 수 있도록 하므로, 소스 데이터를 중앙 노드에 보고할 필요가 없다. Federated learning에서 AI/ML 모델의 매개변수/가중치는 일반 모델 교육을 지원하기 위해 centralized node로 다시 보낼 수 있다. Federated learning은 연산 속도의 증가와, 정보 보안 측면에서의 장점을 가진다. 즉, 개인 데이트를 중앙 서버에 업로드하는 과정이 불필요하여, 개인정보 유출 및 악용을 방지할 수 있다.
c) 분산된 학습(Distributed Learning)
Distributed learning은 기계 학습 프로세스가 노드 클러스터 전체에 확장 및 배포된 개념을 의미한다. 훈련 모델은 모델 훈련의 속도를 높이기 위해 분할되어 동시에 작동하는 여러 노드에서 공유된다.
3. 학습 방법에 따른 분류
a) 지도 학습(Supervised Learning)
지도 학습은 레이블이 지정된 데이터 세트가 주어지면 입력에서 출력으로의 매핑 기능을 학습하는 것을 목표로 하는 기계 학습 작업이다. 입력 데이터는 훈련 데이터라고 하며 알려진 레이블 또는 결과가 있다. 지도 학습의 예시는 다음과 같다.
- 회귀(Regression): 선형 회귀(Linear Regression), 로지스틱 회귀(Logistic Regression)
- 인스턴스-기반 알고리즘(Instance-based Algorithms): k-최근접 이웃(KNN: k-Nearest Neighbor)
- 의사결정 나무 알고리즘(Decision Tree Algorithms): 분류 및 회귀 분석 트리(CART: Classification and Regression Tree)
- 서포트 벡터 머신(SVM: Support Vector Machines)
- 베이지안 알고리즘(Bayesian Algorithms): 나이브 베이즈(Naive Bayes)
- 앙상블 알고리즘(Ensemble Algorithms): 익스트림 그래디언트 부스팅(Extreme Gradient Boosting), 배깅(Bagging): 랜덤 포레스트(Random Forest)
지도 학습은 회귀 및 분류 문제로 더 그룹화할 수 있으며, 분류는 레이블을 예측하는 것이고 회귀는 수량을 예측하는 것이다.
b) 비지도 학습(Unsupervised Learning)
Unsupervised learning은 레이블이 지정되지 않은 데이터에서 숨겨진 구조를 설명하는 기능을 학습하는 것을 목표로 하는 기계 학습 작업이다. 입력 데이터에 레이블이 지정되지 않았으며 알려진 결과가 없다. 비지도 학습의 몇 가지 예는 K-평균 클러스터링, 주성분 분석(PCA: Principal Component Analysis), 비선형 독립 성분 분석(ICA: Independent Component Analysis) 및 장단기 메모리(LSTM: Long-Short-Term Memory) 등이 있다.
c) 강화 학습(RL: Reinforcement Learning)
강화 학습(RL)에서 에이전트는 시행착오 과정을 기반으로 환경과 상호 작용하여 장기 목표를 최적화하는 것을 목표로 하며, 환경과의 상호작용을 기반으로 한 목표 지향적 학습이다. RL 알고리즘의 예시는 다음과 같다.
- Q 러닝(Q-learning)
- 다중 암드 밴딧 러닝(Multi-armed bandit learning)
- 딥 Q 네트워크(Deep Q Network)
- 스테이트-액션-리워드-스테이트-액션(SARSA: State-Action-Reward-State-Action)
- 시간차 학습(Temporal Difference Learning)
- 액터-크리틱 강화 학습(Actor-critic reinforcement learning)
- 딥 결정론적 정책 그래디언트(DDPG: Deep deterministic policy gradient)
- 몬테카를로 트리 서치(Monte-Carlo tree search)
추가적으로, 강화 학습은 다음과 같이 모델 기반 강화 학습과 모델 자유 강화 학습으로 그룹화할 수 있다.
- 모델-기반(Model-based) 강화 학습: 예측 모델을 사용하는 RL 알고리즘을 지칭한다. 환경의 다양한 동적 상태 및 이러한 상태가 보상으로 이어지는 모델을 사용하여 상태 간 전환 확률을 얻는다.
- 모델-자유(Model-free) 강화 학습: 최대의 미래 보상을 달성하는 가치 또는 정책에 기반한 RL 알고리즘을 지칭한다. 다중 에이전트 환경/상태에서는 계산적으로 덜 복잡하고 환경을 정확하게 표현할 필요가 없다.
또한, RL 알고리즘은 또한 가치 기반 RL 대 정책 기반 RL, 정책 기반 RL 대 정책 외 RL 등으로 분류될 수 있다.
이하, 딥 러닝(deep learning)의 대표 모델에 대하여 예시한다.
도 11은 순방향 신경망(Feed-Forward Neural Network)을 예시한다.
순방향 신경망(FFNN: Feed-Forward Neural Network)은 입력층(input layer), 은닉층(hidden layer), 출력층(output layer)으로 구성된다.
FFNN에서는 정보는 입력층으로부터 출력층 방향으로만 전달되며, 은닉층이 있는 경우 이를 경유한다. 
FNNN 관련하여 고려될 수 있는 잠재적(potential) 파라미터는 다음과 같다.
- 카테고리 1: 각 층의 뉴런의 개수, 은닉층의 개수, 각 층/뉴런의 할성화 함수(activation function)
- 카테고리 2: 각 층/뉴런의 가중치(weight) 및 편향(bias)
- 카테고리 3: 손실 함수(loss function), 옵티마이저(optimizer)
일 예로, training 측면에서 카테고리 1, 카테고리 2 및 카테고리 3이 고려되고, inference 측면에서는 카테고리 1 및 카테고리 2가 고려될 수 있다.
도 12는 순환 신경망(Recurrent Neural Network)을 예시한다.
순환 신경망(RNN)은 히든 노드가 방향을 가진 엣지로 연결되어 순환구조를 이루는(directed cycle) 인공 신경망(neural network)의 한 종류이다. 음성, 문자 등 순차적으로 등장하는 데이터 처리에 적합한 모델이다.
도 12에서 A는 뉴럴 네트워크, xt는 입력 값, ht는 출력 값을 나타낸다. 여기서, ht는 시간을 기준으로 현재를 나타내는 상태 값을 의미할 수 있으며, ht-1는 이전 상태 값을 나타낼 수 있다.
RNN의 하나의 종류로 LSTM(Long Short-Term Memory)이 있으며, 이는 RNN의 히든 스테이트(state)에 셀-스테이트(cell-state)를 추가한 구조이다. LSTM은 RNN 셀(cell)(은닉층의 메모리 셀)에 입력 게이트, 망각 게이트, 출력 게이트가 추가되어, 불필요한 기억을 지울 수 있다. LSTM은 RNN에 비하여 셀 상태(cell state)가 추가된다.
도 13은 컨볼루션 신경망(Convolutional Neural Network)을 예시한다.
컨볼루션 신경망(CNN)은 영상 처리나 이미지 처리 분야에서 일반적으로 사용하는 컨볼루션(convolution) 연산을 적용하여, 모델 복잡도를 낮추고, 좋은 특징을 추출하는 두 가지 목적을 위해 사용된다.
- 커널(kernel) 또는 필터(filter): 특정 범위/단위의 input에 가중치를 적용하는 단위/구조를 의미한다. kernel(또는 filter)는 학습에 의해 변경될 수 있다.
- 스트라이드(stride): input 안에서 kernel을 움직이는 이동 범위를 의미한다.
- 특성 맵(feature map): input에 kernel을 적용한 결과를 의미한다. 왜곡, 변경 등에 강인하도록 유도하기 위해 여러 feature map들이 추출될 수 있다.
- 패딩(padding): feature map의 크기를 조절하기 위해 덧붙이는 값을 의미한다.
- 풀링(pooling): feature map을 다운샘플링하여 feature map 의 크기를 줄이기 위한 연산(예를 들어, 최대 풀링(max pooling), 평균 풀링(average pooling))을 의미한다.
CNN 관련하여 고려될 수 있는 잠재적(potential) 파라미터는 다음과 같다.
- 카테고리 1: 각 층의 구조 정보(예: 은닉층의 개수, 패딩 여부/값, 풀링 여부/종류 등)
- 카테고리 2: 커널의 크기/가중치(weight), 각 층/커널의 활성화 함수/스트라이드, 각 층/커널의 편향(bias)
- 카테고리 3: 손실 함수(loss function), 옵티마이저(optimizer)
일 예로, training 측면에서 카테고리 1, 카테고리 2 및 카테고리 3이 고려되고, inference 측면에서는 카테고리 1 및 카테고리 2가 고려될 수 있다.
도 14는 오토 인코더(Auto encoder)를 예시한다.
Auto encoder는 특징 벡터(Feature vector) x(x1, x2, x3, ...)를 입력 받아, 동일한 또는 유사한 vector x'(x'1, x'2, x'3, ...)'를 출력하는 neural network를 의미한다.
Auto encoder는 입력 노드와 출력 노드가 같은 특징을 가진다. Auto encoder는 입력을 재구성하기 때문에 출력을 재구성(reconstruction)이라고 지칭할 수 있다. 또한, Auto encoder는 Unsupervised learning의 일종이다.
도 14에서 예시하는 Auto encoder의 손실 함수(loss function)은 입력과 출력의 차이를 기반으로 계산되며, 이를 기반으로 input의 손실 정도를 파악하여 Auto encoder에서는 손실을 최소화할 수 있도록 최적화하는 과정이 수행된다.
이하, 보다 구체적인 AI(또는 AI/ML)의 설명을 위해 용어들을 다음과 같이 정의할 수 있다.
- 데이터 수집(Data collection): AI 모델 훈련(model training), 데이터 분석 및 추론(inference)을 위한 기반으로서, 네트워크 노드, 관리 개체(management entity) 또는 UE 등에서 수집된 데이터
- AI 모델(Model): 입력들의 집합을 기반으로, 예측 정보 및/또는 결정 파라미터들을 포함하는 출력들의 집합을 생성하는 AI 기술을 적용한 데이터 기반 알고리즘(data driven algorithm)
- AI/ML 훈련(Training): 데이터를 가장 잘 표시하고 추론을 위해 훈련된 AI/ML 모델을 획득하는 기능들과 패턴들을 학습(learning)함으로써 AI 모델을 훈련하는 온라인(online) 또는 오프라인(offline) 프로세스
- AI/ML 추론(Inference): 훈련된 AI 모델을 이용하여 수집된 데이터와 AI 모델에 기반하여 예측하거나 결정을 유도하는 프로세스
도 15는 AI 동작을 위한 기능적 프레임워크(functional framework)를 예시한다.
도 15를 참조하면, 데이터 수집(Data Collection) 기능(function)(10)은 입력 데이터를 수집하고 모델 훈련(Model Training) function(20) 및 모델 추론(Model Inference) function(30)에게 가공된 입력 데이터를 제공하는 기능이다.
입력 데이터의 예로서, UE들 또는 다른 네트워크 개체(network entity)로부터의 측정들, 액터(Actor)의 피드백, AI 모델의 출력이 포함될 수 있다.
Data Collection function(10)은 입력 데이터를 기반으로 데이터 준비(data preparation)를 수행하고, data preparation를 통해 가공된 입력 데이터를 제공한다. 여기서, Data Collection function(10)는 AI 알고리즘 별로 특정한 data preparation(예를 들어, 데이터 사전-처리(pre-processing) 및 정리(cleaning), 형식 지정(forming) 및 변환(transformation))을 수행하지 않으며, AI 알고리즘에 공통된 data preparation를 수행할 수 있다.
데이터 준비 과정을 수행된 후, Model Training function(10)은 Model Training function(20)에게 훈련 데이터(Training Data)(11)를 제공하며, Model Inference function(30)에게 추론 데이터(Inference Data)(12)를 제공한다. 여기서, Training Data)(11)는 AI Model Training function(20)을 위한 입력으로 필요한 데이터이다. Inference Data(12)는 AI Model Inference function(30)을 위한 입력으로 필요한 데이터이다.
Data Collection function(10)은 단일의 개체(예를 들어, UE, RAN 노드, 네트워크 노드 등)에 의해 수행될 수도 있지만 복수의 개체들에 의해 수행될 수도 있다. 이 경우, 복수의 개체들로부터 Training Data)(11)와 Inference Data(12)가 각각 Model Training function(20)과 Model Inference function(30)에게 제공될 수 있다.
Model Training function(20)은 AI 모델 테스트 절차의 일부로 모델 성능 메트릭(metric)을 생성할 수 있는 AI 모델 훈련, 검증(validation) 및 테스트(test)를 수행하는 기능이다. Model Training function(20)은 필요한 경우 Data Collection function(10)에서 제공하는 Training Data(11)를 기반으로 데이터 준비(예를 들어, data pre-processing 및 cleaning, forming 및 transformation)도 담당한다.
여기서, 모델 배포/업데이트(Model Deployment/Update)(13)는 훈련되고 검증되고 테스트된 AI 모델을 Model Inference function(30)에 초기 배포하거나 업데이트된 모델을 Model Inference function(30)에 제공하기 위해 사용된다.
Model Inference function(30)은 AI 모델 추론 출력(Output)(16)(예를 들어, 예측 또는 결정)을 제공하는 기능이다. Model Inference function(30)은 적용가능한 경우, Model Training function(20)에 모델 성능 피드백(Model Performance Feedback)(14)을 제공할 수 있다. 또한, Model Inference function(30)은 필요한 경우 Data Collection function(10)이 제공하는 Inference Data(12)를 기반으로 데이터 준비(예를 들어, data pre-processing 및 cleaning, forming 및 transformation)도 담당한다.
여기서, 출력(Output)(16)은 Model Inference function(30)에 의해 생성된 AI 모델의 추론 출력을 의미하며, 추론 출력의 세부 정보는 사용 사례에 따라 다를 수 있다.
Model Performance Feedback(14)은 사용 가능한 경우 AI 모델의 성능을 모니터링하는 데 사용할 수 있으며, 이 피드백은 생략될 수도 있다.
액터(Actor) function(40)은 Model Inference function(30)으로부터 출력(16)을 수신하고, 해당하는 작업/동작을 트리거 또는 수행하는 기능이다. Actor function(40)은 다른 개체(entity)(예를 들어, 하나 이상의 UE, 하나 이상의 RAN 노드, 하나 이상의 네트워크 노드 등) 또는 자신에 대한 작업/동작을 트리거할 수 있다.
피드백(15)은 Training data(11), Inference data(12)를 도출하기 위해 또는 AI Model의 성능, 네트워크에 미치는 영향 등을 모니터링하기 위해 이용될 수 있다.
한편, AI/ML에서 사용되는 데이터 세트(Data set)에서 훈련(Training)/ 검증(validation) / 테스트(test)에 대한 정의는 다음과 같이 구분될 수 있다.
- 훈련 데이터(Training data): 모델을 학습하기 위한 Data set을 의미한다.
- 검증 데이터(Validation data): 학습이 이미 완료된 모델을 검증하기 위한 Data set을 의미한다. 즉, 보통 training data set의 과대적합(over-fitting)을 방지하기 위해서 사용되는 data set을 의미한다.
또한, 학습하는 과정에서 학습된 여러 가지 모델 중 최고(best)를 선택하기 위한 Data set을 의미한다. 따라서, 따라서, 학습의 일종으로 볼 수도 있다.
- 테스트 데이터(Test data): 최종 평가를 위한 Data set을 의미한다. 이 데이터는 학습과는 무관한 데이터이다.
상기 data set의 경우, 일반적으로 training set을 나눈다면, 전체 training set 내에서 training data과 validation data를 8:2 또는 7:3 정도로 나누어 사용될 수 있으며, test까지 포함을 한다면, 6:2:2 (training: validation: test)를 나누어 사용될 수 있다.
기지국과 단말사이의 AI/ML function의 능력의(capable) 여부에 따라 협력레벨을 다음과 같이 정의할 수 있으며, 하기 복수의 레벨의 결합 혹은 어느 하나의 레벨의 분리로 인한 변형도 가능하다.
Cat 0a) 협력이 없는 프레임워크(No collaboration framework): AI/ML 알고리즘은 순수 구현 기반이며 무선 인터페이스 변경이 필요하지 않는다.
Cat 0b) 이 레벨은 효율적인 구현 기반 AI/ML 알고리즘에 맞추어 수정된 무선 인터페이스를 수반하지만 협력은 없는 프레임워크에 해당한다.
Cat 1) 각 노드의 AI/ML 알고리즘을 개선하기 위한 노드 간 지원이 수반된다. 이는 UE가 gNB(훈련, 적응 등을 위해)로부터 지원을 받는 경우에 적용되며, 그 반대의 경우도 마찬가지이다. 이 레벨에서는 네트워크 노드 간의 모델 교환이 필요하지 않는다.
Cat 2) UE와 gNB 간의 공동 ML 작업이 수행될 수 있다. 이 레벨은 AI/ML 모델 명령 또는 네트워크 노드 간의 교환이 필요하다.
앞서 도 15에서 예시된 기능들은 RAN 노드(예를 들어, 기지국, TRP, 기지국의 중앙 장치(CU: central unit) 등), 네트워크 노드, 네트워크 사업자의 OAM(operation administration maintenance) 또는 UE에서 구현될 수도 있다.
또는, RAN, 네트워크 노드, 네트워크 사업자의 OAM 또는 UE 중 2개 이상의 개체가 협력하여 도 15에서 예시된 기능이 구현될 수도 있다. 예를 들어, 어느 하나의 개체가 도 15의 기능 중 일부를 수행하고, 다른 개체가 나머지의 기능을 수행할 수 있다. 이처럼, 도 15에서 예시하는 기능들 중 일부의 기능들이 단일의 개체(예를 들어, UE, RAN 노드, 네트워크 노드 등)에 의해 수행됨에 따라, 각 기능들 간의 데이터/정보의 전달/제공이 생략될 수 있다. 예를 들어, Model Training function(20)과 Model Inference function(30)이 동일한 개체에 의해 수행된다면, Model Deployment/Update(13)와 Model Performance Feedback(14)의 전달/제공은 생략될 수 있다.
또는, 도 15에 예시된 기능 중 어느 하나의 기능을 RAN, 네트워크 노드, 네트워크 사업자의 OAM 또는 UE 중 2개 이상의 개체가 협력(collaboration)하여 수행할 수도 있다. 이를 분할 AI 동작(split AI operation)으로 지칭할 수 있다.
도 16은 분할 AI 추론을 예시하는 도면이다.
도 16에서는 split AI operation 중에서 특히 Model Inference function이 UE와 같은 종단 기기(end device)와 네트워크 AI/ML 종단 기기(network AI/ML endpoint)에서 협력하여 수행되는 경우를 예시한다.
Model Inference function 이외에도 Model Training function, Actor, Data Collection function 각각도 현재의 작업 및 환경에 따라 다수의 부분들로 분할(split)되고, 다수의 개체들이 협력함으로써 수행될 수 있다.
예를 들어, 계산 집약적(computation-intensive)이고 에너지 집약적(energy-intensive)인 부분을 network endpoint에서 수행되는 반면 개인 정보에 민감한 부분과 지연에 민감한 부분은 end device에서 수행될 수 있다. 이 경우, end device는 입력 데이터로부터 특정 부분/계층까지 작업/모델을 실행한 다음, 중간 데이터(intermediated data)를 네트워크 끝점으로 전송할 수 있다. network endpoint는 나머지 부분/계층을 실행하고 추론 출력(Inference outputs)결과를, 동작/작업을 수행하는 하나 이상의 장치들에게 제공한다.
도 17은 무선 통신 시스템에서 기능적 프레임워크(functional framework)의 적용을 예시한다.
도 17에서는 AI Model Training function이 네트워크 노드(예를 들어, 코어 네트워크 노드, 네트워크 사업자의 OAM 등)에 의해 수행되고, AI Model Inference function이 RAN 노드(예를 들어, 기지국, TRP, 기지국의 CU 등)에 의해 수행되는 경우를 예시한다.
단계 1: RAN 노드 1과 RAN 노드 2는 AI Model Training을 위한 입력 데이터(즉, Training data)를 네트워크 노드에게 전송한다. 여기서, RAN 노드 1과 RAN 노드 2는 UE로부터 수집한 데이터(예를 들어, 서빙 셀과 이웃 셀의 RSRP, RSRQ, SINR과 관련된 UE의 측정, UE의 위치, 속도 등)를 함께 네트워크 노드에게 전송할 수 있다.
단계 2: 네트워크 노드는 수신한 Training data를 이용하여 AI Model을 훈련한다.
단계 3: 네트워크 노드는 AI Model을 RAN 노드 1 및/또는 RAN 노드 2에게 배포/업데이트한다. RAN 노드 1(및/또는 RAN 노드 2)은 수신한 AI Model에 기반하여 모델 훈련을 계속 수행할 수도 있다.
설명의 편의를 위해 RAN 노드 1에게만 AI Model이 배포/업데이트되었다고 가정한다.
단계 4: RAN 노드 1은 UE와 RAN 노드 2로부터 AI Model Inference를 위한 입력 데이터(즉, Inference data)를 수신한다.
단계 5: RAN 노드 1은 수신한 Inference data를 이용하여 AI Model Inference를 수행하여 출력 데이터(예를 들어, 예측 또는 결정)을 생성한다.
단계 6: 적용가능한 경우, RAN 노드 1은 네트워크 노드에게 모델 성능 피드백을 전송할 수 있다.
단계 7: RAN 노드 1, RAN 노드 2 및 UE(또는 'RAN 노드 1과 UE', 또는 'RAN 노드 1과 RAN 노드 2')는 출력 데이터에 기반한 동작(action)을 수행한다. 예를 들어, 로드 밸런싱(load balancing) 동작인 경우, UE가 RAN 노드 1에서 RAN 노드 2로 이동할 수도 있다.
단계 8: RAN 노드 1과 RAN 노드 2는 네트워크 노드에게 피드백 정보를 전송한다.
도 18은 무선 통신 시스템에서 기능적 프레임워크(functional framework)의 적용을 예시한다.
도 18에서는 AI Model Training function과 AI Model Inference function이 모두 RAN 노드(예를 들어, 기지국, TRP, 기지국의 CU 등)에 의해 수행되는 경우를 예시한다.
단계 1: UE와 RAN 노드 2는 AI Model Training을 위한 입력 데이터(즉, Training data)를 RAN 노드 1에게 전송한다.
단계 2: RAN 노드 1은 수신한 Training data를 이용하여 AI Model을 훈련한다.
단계 3: RAN 노드 1은 UE와 RAN 노드 2로부터 AI Model Inference를 위한 입력 데이터(즉, Inference data)를 수신한다.
단계 4: RAN 노드 1은 수신한 Inference data를 이용하여 AI Model Inference를 수행하여 출력 데이터(예를 들어, 예측 또는 결정)을 생성한다.
단계 5: RAN 노드 1, RAN 노드 2 및 UE(또는 'RAN 노드 1과 UE', 또는 'RAN 노드 1과 RAN 노드 2')는 출력 데이터에 기반한 동작(action)을 수행한다. 예를 들어, 로드 밸런싱(load balancing) 동작인 경우, UE가 RAN 노드 1에서 RAN 노드 2로 이동할 수도 있다.
단계 6: RAN 노드 2는 RAN 노드 1에게 피드백 정보를 전송한다.
도 19는 무선 통신 시스템에서 기능적 프레임워크(functional framework)의 적용을 예시한다.
도 19에서는 AI Model Training function이 RAN 노드(예를 들어, 기지국, TRP, 기지국의 CU 등)에 의해 수행되고, AI Model Inference function이 UE에 의해 수행되는 경우를 예시한다.
단계 1: UE는 AI Model Training을 위한 입력 데이터(즉, Training data)를 RAN 노드에게 전송한다. 여기서, RAN 노드는 다양한 UE들로부터 및/또는 다른 RAN 노드로부터 데이터(예를 들어, 서빙 셀과 이웃 셀의 RSRP, RSRQ, SINR과 관련된 UE의 측정, UE의 위치, 속도 등)를 수집할 수 있다.
단계 2: RAN 노드는 수신한 Training data를 이용하여 AI Model을 훈련한다.
단계 3: RAN 노드는 AI Model을 UE에게 배포/업데이트한다. UE는 수신한 AI Model에 기반하여 모델 훈련을 계속 수행할 수도 있다.
단계 4: UE와 RAN 노드로부터(및/또는 다른 UE로부터) AI Model Inference를 위한 입력 데이터(즉, Inference data)를 수신한다.
단계 5: UE는 수신한 Inference data를 이용하여 AI Model Inference를 수행하여 출력 데이터(예를 들어, 예측 또는 결정)를 생성한다.
단계 6: 적용가능한 경우, UE는 RAN 노드에게 모델 성능 피드백을 전송할 수 있다.
단계 7: UE와 RAN 노드는 출력 데이터에 기반한 동작(action)을 수행한다.
단계 8: UE는 RAN 노드에게 피드백 정보를 전송한다.
1차원/2차원 컨볼루션 신경망(Convolutional Neural Network) 구조
컨볼루션 신경망(CNN) 구조는 이미지 처리(image processing) 분야에서 좋은 성능을 발휘할 수 있는 구조이며, 이와 같은 특성을 바탕으로 해당 CNN 구조를 무선 통신 시스템에서의 채널 추정에 적용하여 성능을 향상시키는 방안이 활발하게 논의되고 있다. 이와 같은 CNN 구조의 예시로, 1차원(1 Dimension, 1D) CNN 구조 및 2D CNN 구조가 고려될 수 있다.
먼저, 1D CNN 구조에 대해 설명한다.
도 20은 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 위한 1D CNN 구조를 예시한다.
도 20을 참조하면, 1D CNN 구조에 기반하는 경우, 주파수 영역 상에서의 채널 추정과 시간 영역 상에서의 채널 추정은 분리하여 수행되는 경우가 가정된다. 예를 들어, 주파수 영역 상에서의 채널 추정 이후에 시간 영역 상에서의 채널 추정이 수행될 수 있다(예: 1D Wiener 필터).
도 20에서는 주파수 영역 상에서의 채널 추정 값(예: x0+jy0, ...)으로부터 CNN의 각 층이 구성되는 방식을 예시한다. 도 20에서는 실수 값을 예시로 하지만, 허수 값에 대해서도 동일하게 적용될 수 있음은 자명하다. 또한, 주파수 영역 상에서의 채널 추정 값을 예시로 하지만, 시간 영역 상에서의 채널 추정 값에 대해서도 동일하게 적용될 수 있음은 자명하다.
예를 들어, 도 20에서와 같이, 채널 추정 값(예: 채널 추정 값 중 실수 값)에 기반하여 CNN의 입력층(2010)이 구성될 수 있다. 채널 추정 값과 관련하여, 음영 영역(2005)는 DMRS가 전송되는 영역을 의미할 수 있다. 입력층(2010)과 출력층(2030) 사이에는 N개(예: N은 1보다 크거나 같은 자연수)의 컨볼루션층/은닉층(2020)이 구성될 수 있다. 이때, 컨볼루션층/은닉층(2020)의 결과 값으로부터 출력층(2030)이 구성될 수 있다.
도 21은 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 위한 1D CNN 구조에서의 출력 값 추정 방식을 예시한다.
도 21을 참조하면, 1D CNN을 구성하는 각 컨볼루션층/은닉층에서 입력 값(2110)으로부터 특성맵(2120)을 도출하고 출력 값(2130)이 추정될 수 있다.
예를 들어, 각 컨볼루션층/은닉층에서의 특성맵(2120) 도출 동작은 [S2110-a, S2110-b, S2110-c, ...]에 해당할 수 있으며, 특성맵(2120)에 기반하여 출력 값(2130)을 추정하는 동작은 [S2120]에 해당할 수 있다.
각 컨볼루션층/은닉층에서는 특성맵(2120)을 도출하기 위해서 특정 단위의 입력 값에 특정 가중치(weight)를 적용하는 커널/필터(2140)가 정의될 수 있다. 각 커널/필터(2140)는 특정 크기(또는 가중치의 개수)로 정의될 수 있다. 또한, 각 커널/필터(2140)는 특정 가중치의 조합(예: w0/w1/w2/w3)으로 정의될 수 있다. 각 커널/필터(2140)는 입력 값(2110) 내에서 특성맵(2120)을 도출하기 위한 특정 이동 범위를 가질 수 있으며, 해당 특정 이동 범위는 스트라이드(stride)로 명명할 수 있다. 또한, 상기 커널/필터(2140)는 컨볼루션층/은닉층 별로 서로 다르게 정의되거나, 모든 컨볼루션층/은닉층들에 대해 동일하게 정의될 수도 있다. 도 21은 크기 4 및 스트라이드 1로 설정/정의된 1개의 커널/필터(2140)로 구성된 컨볼루션층/은닉층의 예를 보여준다.
각 컨볼루션층/은닉층에서는, 특성맵(2120)에 기반하여 출력 값을 추정하기 위해 이용되는 활성화 함수(activation function, AF)(2150)이 정의될 수 있다. 컨볼루션 연산을 통해 획득된 특성맵(2120)에 대해 비선형성을 추가하기 위하여 활성화 함수(2150)가 이용될 수 있다. 예를 들어, 활성화 함수(2150)는 계단 함수(step function), 시그모이드 함수(sigmoid function), 하이퍼볼릭탄젠트 함수(hyperbolic tangent function), 렐루 함수(ReLU function), 리키 렐루 함수(Leaky ReLU function), 소프트맥스 함수(softmax function) 등을 포함할 수 있다.
다음으로, 2D CNN 구조에 대해 설명한다.
도 22는 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 위한 2D CNN 구조를 예시한다.
도 22를 참조하면, 2D CNN 구조에 기반하는 경우, 주파수 영역 상에서의 채널 추정과 시간 영역 상에서의 채널 추정은 함께 수행되는 경우가 가정된다. 예를 들어, 주파수 영역 상에서의 채널 추정과 시간 영역 상에서의 채널 추정은 동시에 수행될 수 있다(예: 2D Wiener 필터).
도 22에서는 주파수 영역 상에서의 채널 추정 값(예: x0+jy0, ...)으로부터 CNN의 각 층이 구성되는 방식을 예시한다. 도 22에서는 실수 값을 예시로 하지만, 허수 값에 대해서도 동일하게 적용될 수 있음은 자명하다.
도 22에서의 2D CNN 구조의 각 층을 구성하는 방법은 도 20에서의 1D CNN 구조의 각 층을 구성하는 방법을 2차원 시간/주파수 영역으로 확장한 것으로, 그 이외의 구성 방법은 동일한 것으로 가정할 수 있다.
예를 들어, 도 22에서와 같이, 채널 추정 값(예: 채널 추정 값 중 실수 값)에 기반하여 CNN의 입력층(2210)이 구성될 수 있다. 채널 추정 값과 관련하여, 음영 영역(2205)는 DMRS가 전송되는 영역을 의미할 수 있다. 입력층(2210)과 출력층(2230) 사이에는 N개(예: N은 1보다 크거나 같은 자연수)의 컨볼루션층/은닉층(2220)이 구성될 수 있다. 이때, 컨볼루션층/은닉층(2220)의 결과 값으로부터 출력층(2230)이 구성될 수 있다.
도 23은 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 위한 2D CNN 구조에서의 출력 값 추정 방식을 예시한다.
도 23을 참조하면, 2D CNN을 구성하는 각 컨볼루션층/은닉층에서 입력 값(2310)으로부터 특성맵(2320)을 도출하고 출력 값(2330)이 추정될 수 있다.
도 23에서의 출력 값을 추정하는 방식은 도 20에서의 출력 값을 추정하는 방식을 2차원 시간/주파수 영역으로 확장한 것으로, 그 이외의 방법은 동일한 것으로 가정할 수 있다.
예를 들어, 각 컨볼루션층/은닉층에서의 특성맵(2320) 도출 동작은 [S2310-a, S2310-b, S2310-c, ...]에 해당할 수 있으며, 특성맵(2320)에 기반하여 출력 값(2330)을 추정하는 동작은 [S2320]에 해당할 수 있다.
각 컨볼루션층/은닉층에서는 특성맵(2320)을 도출하기 위해서 특정 단위의 입력 값에 특정 가중치(weight)를 적용하는 커널/필터(2340)가 정의될 수 있다. 각 커널/필터(2340)는 특정 크기(또는 가중치의 개수)로 정의될 수 있다. 이 경우, 상기 특정 크기는 2차원(예: 2차원 시간/주파수 영역)에 기반하여 정의될 수 있다. 또한, 각 커널/필터(2340)는 특정 가중치의 조합(예: w00/w10/w20/w30/w01/w11/w21/w31)으로 정의될 수 있다. 각 커널/필터(2340)는 입력 값(2310) 내에서 특성맵(2320)을 도출하기 위한 특정 이동 범위를 가질 수 있으며, 해당 특정 이동 범위는 스트라이드(stride)로 명명할 수 있다. 이 경우, 상기 스트라이드는 2차원(예: 2차원 시간/주파수 영역)에 기반하여 정의될 수 있다. 또한, 상기 커널/필터(2340)는 컨볼루션층/은닉층 별로 서로 다르게 정의되거나, 모든 컨볼루션층/은닉층들에 대해 동일하게 정의될 수도 있다. 도 23은 크기 4x2 및 스트라이드 [1, 1](예: [시간 영역, 주파수 영역])로 설정/정의된 1개의 커널/필터(2340)로 구성된 컨볼루션층/은닉층의 예를 보여준다.
각 컨볼루션층/은닉층에서는, 특성맵(2320)에 기반하여 출력 값을 추정하기 위해 이용되는 활성화 함수(activation function, AF)(2350)이 정의될 수 있다. 컨볼루션 연산을 통해 획득된 특성맵(2320)에 대해 비선형성을 추가하기 위하여 활성화 함수(2350)가 이용될 수 있다. 예를 들어, 활성화 함수(2150)는 계단 함수(step function), 시그모이드 함수(sigmoid function), 하이퍼볼릭탄젠트 함수(hyperbolic tangent function), 렐루 함수(ReLU function), 리키 렐루 함수(Leaky ReLU function), 소프트맥스 함수(softmax function) 등을 포함할 수 있다.
상술한 1D CNN 구조 및 2D CNN 구조와 관련하여, 구조 내에서의 패딩(padding) 및 풀링(pooling)에 대한 기능/동작/구조가 함꼐 고려될 수 있다.
도 24는 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 CNN 구조에서의 패딩 및 풀링을 예시한다. 구체적으로, 도 24(a)는 패딩 방식을 예시하고, 도 24(b)는 풀링 방식을 예시한다.
도 24(a)를 참조하면, 컨볼루션 연산의 결과로 얻은 특성맵(2420)은 입력(2410)보다 크기가 작아지는데, 패딩 방식은 이를 방지하기 위해 이용될 수 있다. 즉, 패딩 방식은 컨볼루션 연산 이후에도 특성맵(2420)의 크기가 입력(2410)의 크기와 동일하게 유지되도록 하는 기능/동작/구조를 의미할 수 있다. 도 24(a)는 1D CNN 구조에서 제로 패딩을 적용하는 예시를 보여준다.
도 24(b)를 참조하면, 풀링(또는 풀링층)(2440)은 특성맵(2420)을 하향샘플링(downsampling)하여 특성맵(2420)의 크기를 줄이는 기능/동작/구조를 의미할 수 있다. 풀링 연산의 예로, 최대 풀링(max pooling), 평균 풀링(average pooling) 등이 있다. 도 24(b)는 1D CNN 구조에서 최대 풀링을 적용하는 예시를 보여준다. 풀링 연산에서도 커널과 스트라이드의 개념이 동일하게 적용될 수 있으며, 해당 예시에서는 크기 4의 커널과 4로 설정된 스트라이드 가정된다.
상술한 1D CNN 구조와 2D CNN 구조와 관련하여, 편향(bias)에 대한 설명은 생략되었으나, 해당 CNN 구조와 관련하여 편향 값이 적용될 수 있음은 자명하다. 편향 값이 사용되는 경우, 해당 편향 값은 커널을 적용한 특정 특성맵에 대해 추가되는 형태로 적용될 수 있다.
또한, 상술한 1D CNN 구조와 2D CNN 구조와 관련하여, 손실 함수(loss function) 및 옵티마이저(optimizer)에 대한 설명은 생략 되었으나, 해당 CNN 구조(또는 AI/ML 알고리즘) 내에서 학습(training) 과정을 위하여 손실 함수 및 옵티마이저가 고려될 수 있음은 자명하다. 여기에서, 손실 함수는 실제 값과 예측 값 간의 차이를 수치화하는 함수를 의미할 수 있다. 손실 함수로, 평균 제곱 오차(MSE), 크로스 엔트로피(cross-entropy) 등이 고려될 수 있다. 옵티마이저는 손실 함수에 기반하여 각 층에 적합한 가중치(들)을 업데이트하기 위한 함수를 의미할 수 있다. 옵티마이저로, 배치 경사 하강법(batch gradient descent), 확률적 경사 하강법(stochastic gradient descent, SGD), 미니 배치 경사 하강법(moni-batch gradient descent), 모멘텀(momentum), 아다그라드(adagrad), 알엠에스프롭(RMSprop), 아담(adam) 등이 고려될 수 있다.
입력 값에 대해 패딩을 수행하는 방법
본 개시에서는 3GPP NR 시스템을 기준으로 기술하나 이는 제한이 아니며, 다른 통신 시스템에 발명 기술이 적용될 수 있음은 자명하다.
AI/ML 모델 및/또는 해당 모델에 필요한 파라미터(들)과 관련되는 정보를 기지국과 단말 간에 공유하도록 설정/규정되는 경우, 기지국 또는 단말 중 특정 노드에서만 training을 수행할 수 있는 장점이 있다. 일 예로, 특정 노드에서 학습(training)을 위한 데이터 셋(dataset)에 기반하여 예측 값과 실제 값으로부터 오차를 계산하고, 가중치 및 편향 등 추론(inference)에 필요한 파라미터(들)을 업데이트하는 방식이 적용될 수 있다.
또한, 학습(training)을 수행하는 않는 노드에게 업데이트된 파라미터(들)을 공유함으로써, 해당 노드의 추론(inference) 성능이 향상될 수 있다. 일 예로, 학습(training) 결과/정보(예: 가중치, 편향 등)가 공유될 수 있는 경우, 특정 노드에서는 상술한 업데이트 과정(예: 손실 함수/옵티마이저를 이용한 가중치/편향 업데이트)이 불필요하므로 해당 노드의 계산 복잡도 및 에너지 소모를 감소시키며, 추론 성능은 향상되는 장점이 있다.
이러한 점을 고려하여, 이하에서는 본 개시에서는 채널 추정 시 이용되는 커널 및 패딩을 설정/공유하기 위한 방법에 대해 설명하도록 한다.
본 개시에서의 제안 방법은 CNN 구조를 위주로 제안/설명되지만, 해당 CNN 구조로 제한되는 것은 아니다. 따라서, 제안 방법의 작동 방법/원리/구조에 기반하여 CNN 구조 이외의 다른 NN 구조를 가정한 정보 교환도 가능함은 자명하다.
본 개시에서의 제안 방법과 관련하여, 상술한 1D CNN 구조 및 2D CNN 구조는 본 개시에서의 제안 방법에서 주로 고려되는 구조를 예시한 것으로, 제안 방법을 제한하려는 것이 아니므로 특정 용어에 의해 특정 기능/동작이 제한되지 않는다. 즉, 상술한 기능/동작/방법은 특정 용어로 제한되지 않으며, 다른 용어를 통해 대체될 수 있다.
상술한 1D CNN 구조 및 2D CNN 구조와 관련하여, 도면(예: 도 20 내지 도 24)에서 표현된 크기(예: 입력/입력층의 크기, 출력/출력층의 크기, 컨볼루션층/은닉층의 크기, 커널의 크기 등)는 일 예에 해당하며 제안 방법을 제한하는 것이 아니므로, 다른 크기들에 대해서도 본 개시에서의 제안 방법이 적용될 수 있다.
본 개시에서의 L1 시그널링은 기지국과 단말 간의 DCI 기반의 동적인(dynamic) 시그널링을 의미할 수 있고, L2 시그널링은 기지국과 단말 간의 RRC/MAC-CE 기반의 상위 계층 시그널링을 의미할 수 있다.
구체적으로, 본 개시에서는, 상술한 1D/2D CNN 구조를 기지국 및/또는 단말에서의 채널 추정(channel estimation) 과정에 이용하기 위한 방법들을 제안한다. 예를 들어, 기지국 및/또는 단말은 채널 추정을 위한 참조 신호(reference signal)를 전송할 수 있고, 기지국 및/또는 단말은 상기 참조 신호에 기반하여 (무선) 채널을 추정할 수 있다. 또한, 상기 채널 추정 시, AI/ML 모델(예: CNN 구조)을 이용하여, 참조 신호가 전송되지 않는 자원 영역(예: RE(s), RB(s), OFDM symbol(s) 등)에 대한 채널 추정 성능 및/또는 참조 신호가 전송된 자원 영역의 채널 추정 성능이 향상될 수 있다.
본 개시에서의 제안 방법을 적용하는 경우, 기지국과 단말 간에 AI/ML 알고리즘, NN 구조 및 이와 관련된 파라미터(들)에 대한 정보가 공유될 수 있다. 이를 통해, 기지국 및/또는 단말에서의 학습(training) 과정이 생략될 수 있어, 학습 과정에 필요한 복잡도 및 에너지 소모가 감소되는 효과가 있다.
앞서 언급한 바와 같이, 본 개시에서의 제안 방법은 CNN 구조 및 채널 추정 동작에 기반하여 제안/설명되지만, CNN 구조 이외의 AI/ML 알고리즘 및/또는 NN 구조에도 적용될 수 있으며, CSI 피드백(CSI feedback)/포지셔닝(positioning)/빔 관리(beam management)/채널 예측(channel prediction) 등의 용도에도 적용될 수 있다.
도 25는 본 개시의 일 실시예에 따른 채널 상태 정보 보고 방법에 대한 기지국과 단말 간의 시그널링 절차를 예시하는 도면이다.
도 25의 예시는 설명의 편의를 위한 것이며, 본 개시의 범위를 제한하는 것은 아니다. 도 25에서 예시된 일부 단계(들)은 상황 및/또는 설정에 따라 생략될 수 있다. 또한, 도 25에서 예시된 일부 단계(들)의 순서가 변경될 수도 있다.
또한, 도 25에서 기지국과 단말은 하나의 예시일 뿐, 아래 도 32에서 예시된 장치로 구현될 수 있다. 예를 들어, 도 32의 프로세서(processor)(102/202)는 트랜시버(106/206)을 이용하여 채널/신호/데이터/정보 등을 송수신하도록 제어할 수 있으며, 전송할 또는 수신한 채널/신호/데이터/정보 등을 메모리(104/204)에 저장하도록 제어할 수도 있다. 또한, 도 25에서의 기지국은 네트워크 단의 장치를 의미할 수도 있다.
또한, 도 25의 기지국과 단말 간의 동작에 있어서, 별도의 언급이 없더라도 상술한 본 개시에서의 제안 방법(예: 상술한 AI/ML 관련 정보 공유 방법 및 실시예 1, 실시예 2, 및/또는 실시예 1 및 실시예 2 각각의 세부 실시예 등)이 참조/이용될 수 있다.
도 25는 DNN 구조를 예시로하여 도시되지만, 도 25에서 설명되는 시그널링은 AI/ML 알고리즘 및/또는 DNN/NN 구조와 관련된 정보의 공유 및 적용에 대해서도 확장하여 적용될 수 있다.
단계 S005에서, 단말은 해당 단말의 능력 정보를 기지국에게 전송/보고할 수 있다. 예를 들어, 단말은 본 개시에서의 실시예(예: 상술한 AI/ML 관련 정보 공유 방법 및 실시예 1 내지 실시예 3 등)와 관련된 능력 정보를 보고할 수 있다.
단계 S010에서, 기지국은 DNN에 대한 (사전) 학습(training)을 수행할 수 있다. 기지국은 학습 과정에 기반하여 AI/ML 알고리즘 및/또는 DNN/NN 구조에 요구되는 파라미터(들)에 대한 정보를 획득할 수 있다. 예를 들어, 해당 과정에 기반하여, 기지국은 본 개시에서의 실시예(예: 상술한 AI/ML 관련 정보 공유 방법 및 실시예 1, 실시예 2, 및/또는 실시예 1 및 실시예 2 각각의 세부 실시예 등)과 관련된 파라미터(들)을 획득할 수 있다.
단계 S015에서, 기지국은 단말에게 AI/ML 알고리즘 및/또는 DNN/NN 구조와 관련된 정보를 설정/지시할 수 있다. 기지국은 상기 단계 S010에서 획득한 파라미터(들)에 대한 정보를 단말에게 설정/지시할 수 있다. 예를 들어, 해당 단계에서, 본 개시에서의 실시예(예: 상술한 AI/ML 관련 정보 공유 방법 및 실시예 1, 실시예 2, 및/또는 실시예 1 및 실시예 2 각각의 세부 실시예 등)과 관련된 파라미터(들)이 단말에게 설정/지시될 수 있다.
단계 S020에서, 기지국은 단말과 공유된 AI/ML 알고리즘 및/또는 DNN/NN 구조에 기반하여 DNN 구조를 적용할 수 있다. 예를 들어, 기지국은 DNN을 적용하여 DL 채널 및/또는 RS(Reference Signal)을 압축하여 단말에게 전송할 수 있다.
단계 S025에서, 기지국은 DL 채널 및/또는 RS를 단말에게 전송할 수 있다. 상술한 바와 같이, 예를 들어, 기지국이 단말에게 DL 채널 및/또는 RS를 전송할 때, 단말과 공유된 AI/ML 알고리즘 및/또는 DNN/NN 구조가 적용될 수 있다.
단계 S030에서, 단말은 DL 채널 및/또는 RS에 대해 기지국으로부터 공유된 DNN을 적용할 수 있다. 예를 들어, 단말은 기지국에 의해 기-설정된 AI/ML 알고리즘 및/또는 DNN/NN 구조에 기반하여 DL 채널 및/또는 RS에 대한 압축을 해제하거나, DL 채널 및/또는 RS를 추정/예측할 수 있다.
단계 S035에서, 단말은 DL 채널 및/또는 RS에 기반하여 DNN 파라미터를 조정(tuning)할 수 있다. 예를 들어, 단말은 DL 채널 및/또는 RS에 기반하여 학습(training)을 수행할 수 있고, 학습 결과에 기반하여 DNN 파라미터를 조정할 수 있다.
단계 S040에서, 단말은 CSI 보고를 수행하거나, UL 채널 및/또는 RS를 전송할 수 있다. 예를 들어, 단말은 상기 단계 S035에서 학습한 결과에 대하여 CSI 보고를 수행할 수 있다. 이 경우, 단말은 DNN을 적용하여 CSI를 압축할 수도 있따. 그리고/또는, 단말은 DNN을 적용하여 UL 채널 및/또는 RS를 압축하여 기지국에게 전송할 수 있다.
단계 S045에서, 기지국은 CSI 보고, UL 채널 및/또는 RS에 대해 DNN을 적용할 수 있다. 예를 들어, 단말과 기-공유한 AI/ML 알고리즘 및/또는 DNN/NN 구조에 기반하여, 기지국은 CSI 보고, UL 채널 및/또는 RS에 대한 압축을 해제하거나, CSI 보고, UL 채널 및/또는 RS를 추정/예측할 수 있다.
단계 S050에서, 기지국은 CSI 보고, UL 채널 및/또는 RS에 기반하여 DNN 파라미터를 조정(tuning)할 수 있다. 예를 들어, 기지국은 UL 채널 및/또는 RS에 기반하여 학습(training)을 수행할 수 있고, 학습 결과에 기반하여 DNN 파라미터를 조정할 수 있다. 그리고/또는, 기지국은 단말의 보고 값에 기반하여 DNN 파라미터를 조정할 수 있다.
단계 S055에서, 기지국은 AI/ML 알고리즘 및/또는 DNN/NN 구조에 대한 파라미터(들)에 대해 업데이트를 수행하도록 단말에게 설정/지시할 수 있다. 예를 들어, 단말은 해당 기지국의 업데이트 설정/지시에 기반하여 DNN 파라미터를 조정/업데이트할 수 있다.
단계 S060에서, 단말은 DNN 파라미터를 조정할 수 있다. 예를 들어, 상기 단계 S055에서의 업데이트 설정/지시와 같이, 단말은 L1/L2 시그널링에 기반하여 기지국에 의해 설정/지시된 값(들)에 기반하여 DNN 파라미터를 조정할 수 있다.
도 26은 본 개시의 일 실시예에 따른 채널 상태 정보 보고 방법에 대한 단말의 동작을 예시하는 도면이다.
본 개시를 설명함에 있어서, 인공지능(artificial intelligence, AI) 모델은 단말에 포함될 수 있으나, 이에 제한되는 것은 아니며 기지국 또는 다른 장치(예로, 별도의 AI 모델을 포함하는 서버/네트워크 노드 등)에 포함될 수 있다.
일 예로, AI 모델이 기지국 또는 상기 다른 장치에 포함된 경우, 단말이 AI 모델에 특정 데이터를 입력한다는 것은, 단말이 AI 모델이 포함된 기지국 또는 상기 다른 장치에 특정 데이터(예로, RS와 관련된 정보 등)를 전송한다는 것을 의미할 수 있다. 이에 따라, 특정 데이터는 AI 모델에 입력될 수 있으며, AI 모델은 특정 데이터에 기초하여 채널 추정 결과를 출력할 수 있다.
또한, AI 모델의 학습 및/또는 추론 과정은 단말에서 진행될 수 있으나, 이에 제한되는 것은 아니며 기지국 또는/및 상기 다른 장치에서 진행될 수도 있다.
단말은 CSI 보고를 위한 적어도 하나의 참조 신호(reference signal, RS)를 기지국으로부터 수신할 수 있다(S2610).
일 예로, 단말은 수신된 적어도 하나의 RS에 대해 전처리(preprocessing)를 수행하여 적어도 하나의 RS와 관련된 정보를 획득할 수 있다.
즉, 단말은 전처리 과정을 통해 채널 추정 결과를 출력하도록 학습된 AI 모델에 입력할 입력 데이터(또는, 입력 값)(즉, RS와 관련된 정보)를 생성할 수 있다.
단말은 적어도 하나의 참조 신호와 관련된 정보를 AI 모델에 입력하여 채널 추정의 결과를 획득할 수 있다(S2620).
여기서, 적어도 하나의 참조 신호와 관련된 정보는 AI 모델의 입력 데이터일 수 있으며, 채널 추정의 결과(또는, 특징 맵)은 AI 모델의 출력 데이터일 수 있다.
그리고, AI 모델은 복수의 파라미터 세트를 포함할 수 있다. 단위 파라미터 세트(즉, 커널)는 하나 이상의 파라미터(또는, 가중치)를 포함할 수 있다.
일 예로, AI 모델은, 복수의 CV(convolutional) 레이어가 포함된 CNN(convolutional neural network)을 포함할 수 있고, 상기 복수의 CV 레이어 각각은, 복수의 파라미터 세트를 포함할 수 있다. 상기 복수의 파라미터 세트는, 제로 패딩에 대응되는 파라미터 세트, 또는 순환적 패딩(cyclic padding)(예로, 전면(front) 순환적 패딩 또는/및 후면(rear) 순환적 패딩)에 대응되는 파라미터 세트 중의 적어도 하나를 포함할 수 있다.
그리고, 복수의 파라미터 세트 각각의 크기(size)(또는, 길이(length))는 기지국에 의해 스케줄링된 하향링크(downlink, DL) 채널과 관련된 정보, 또는 미리 정의된 자원 그룹과 관련된 정보에 기초할 수 있다.
일 예로, DL 채널과 관련된 정보는, 기지국에 의해 스케줄링된 물리 하향링크 공유 채널(physical downlink shared channel, PDSCH) 또는 물리 하향링크 제어 채널(physical downlink control channel, PDCCH)의 심볼(symbol)의 수를 포함할 수 있다.
그리고, 미리 정의된 자원 그룹과 관련된 정보는, 물리 자원 블록(physical resource block, PRB)의 사이즈 또는 단위 슬롯(slot)에 포함된 심볼의 수를 포함할 수 있다.
또 다른 예로, 복수의 파라미터 중 AI 모델의 학습에 적용/활용되는 제1 파라미터 세트의 크기 및 AI 모델의 추론에 적용되는 제2 파라미터 세트의 크기는 서로 상이할 수 있다. 다만, 이는 일 실시예에 불과하며, 제1 파라미터 세트의 크기 및 AI 모델의 추론에 적용되는 제2 파라미터 세트의 크기는 서로 동일할 수도 있다.
또 다른 예로, AI 모델의 학습에 적용되는 제1 파라미터 세트에 기초하여 AI 모델의 추론에 적용되는 제2 파라미터 세트가 결정될 수 있다. 이와 관련된 예시는 후술할 실시예 2-2-1을 참조하여 구체적으로 설명하도록 한다.
또 다른 예로, 복수의 파라미터 세트 중 AI 모델의 학습에 적용되는 제1 파라미터 세트의 크기는, 단위 슬롯 내에 포함된 심볼의 수에 기초하고, 복수의 파라미터 세트 중 AI 모델의 추론에 적용되는 제2 파라미터 세트의 크기는, 기지국에 의해 스케줄링된 PDSCH 또는 PDCCH의 심볼의 수에 기초할 수 있다.
또 다른 예로, AI 모델의 학습 또는 추론에 적용되는 파라미터 세트의 크기(L)가 홀수임에 기반하여, 적어도 하나의 참조 신호와 관련된 정보에 대응되는 심볼 세트 중 가장 높은 인덱스의 심볼 및 가장 낮은 인덱스의 심볼 각각을 기준으로 floor(L/2) 크기의 패딩(padding)이 수행될 수 있다.
그리고, AI 모델의 학습 또는 추론에 적용되는 파라미터 세트의 크기(L)가 짝수임에 기반하여, 상기 가장 높은 인덱스의 심볼 및 상기 가장 낮은 인덱스의 심볼 중 하나를 기준으로 L/2 크기의 패딩이 수행되고, 상기 가장 높은 인덱스의 심볼 또는 상기 가장 낮은 인덱스의 심볼 중 다른 하나를 기준으로 L/2-1 크기의 패딩이 수행될 수 있다.
여기서, 패딩은, 값이 0인 적어도 하나의 심볼을 추가하는 제로 패딩(zero padding), 또는 상기 심볼 세트에 포함된 적어도 하나의 심볼을 추가하는 순환적 패딩(cyclic padding)(예로, 전면(front) 순환적 패딩 또는 후면(rear) 순환적 패딩) 중의 적어도 하나를 포함할 수 있다.
단말은 (AI 모델을 통해 획득된) 채널 추정의 결과에 기초하여 CSI를 상기 기지국으로 전송/보고할 수 있다(S2630).
도 27은 본 개시의 일 실시예에 따른 채널 상태 정보 보고 방법에 대한 기지국의 동작을 예시하는 도면이다.
기지국은 CSI 보고를 위한 적어도 하나의 참조 신호(reference signal, RS)를 단말로 전송할 수 있다(S2710).
기지국은 적어도 하나의 RS와 관련된 정보를 통해 획득된 채널 추정의 결과에 기초한 상기 CSI를 단말로부터 수신할 수 있다(S2720). 여기서, 적어도 하나의 RS와 관련된 정보가 단말에 의해 AI 모델에 입력됨에 따라 채널 추정의 결과가 출력될 수 있다.
AI 모델 및 상기 AI 모델에 포함된 파라미터 세트와 관련된 설명 및 동작은 도 26을 참조하여 구체적으로 설명하였으므로 중복되는 설명은 생략하도록 한다.
이하에서는 입력 값에 대해 적용되는 패딩 및 커널을 공유/설정하는 방법에 대해 구체적으로 설명하도록 한다.
실시예 1
실시예 1은 입력 값(또는, 입력 데이터)이 특정 단위로 반복되는 구조를 가질 수 있게 하는 순환적 패딩(cyclic padding)을 수행하는 방법 및 순환적 패딩 구조에 관한 것이다. 여기서, 특정 단위는 입력 값의 크기 단위 또는/및 커널 단위 등을 포함할 수 있다.
여기서, 순환적 패딩은 본 개시의 설명의 편의를 위해 명명된 것으로서 본 개시를 제한하는 것은 아니다. 입력 값이 특정 단위로 반복되는 구조를 가질 수 있게 하는 패딩 방식은 다양하게 명명될 수 있다.
(입력 값의 크기(예로, N) 및 특성 맵의 크기(예로, M)가 서로 동일한 경우(즉, N=M인 경우)), 순환적 패딩은 특성 맵(또는, 출력 값) 각각의 값을 구할 때 입력 값 전체를 활용하기 위한 패딩 구조/방법을 의미할 수 있다.
추가적으로 또는 대안적으로, 순환적 패딩은 (입력 값 전체를 활용하기 위하여) 입력 값이 특정 단위로 반복되는 구조를 가질 수 있도록 하는 패딩 구조/방법을 의미할 수 있다.
순환적 패딩의 일 예로 가장 높은 인덱스의 입력 값 뒤로 가장 낮은 인덱스의 입력 값부터 오름차순으로 패딩이 수행/구성(즉, 후면 순환적 패딩(rear cyclic padding))될 수 있다. 순환적 패딩의 또 다른 예로 가장 낮은 인덱스의 입력 값 앞으로 가장 높은 인덱스의 입력 값부터 내림차순으로 패딩이 수행/구성(즉, 전면 순환적 패딩(front cyclic padding))될 수 있다.
도 28의 (a)에 도시된 바와 같이, 입력 값을 기준으로 전면 순환적 패딩 또는/및 후면 순환적 패딩이 수행될 수 있다. 즉, 전면 순환적 패딩은 (가장) 낮은 인덱스의 입력 값과 연결되는 패딩을 의미하고, 후면 순환적 패딩은 (가장) 높은 인덱스의 입력 값과 연결되는 패딩을 의미할 수 있다.
순환적 패딩은 (CNN 구조를 이용한) AI/ML 알고리즘 내에서 training/inference를 위해 적용/사용될 수 있다. 예를 들어, CNN 구조에 기반한 채널 추정이 수행될 때, 순환적 패딩이 적용/사용할 수 있다.
특성 맵의 특정 값을 도출할 때 순환적 패딩을 이용/적용할 경우, 단일 커널을 이용하는 방법 대비 더 많은 입력 값이 training/inference에 이용될 수 있으며, 이에 따라 채널 주정 성능이 향상될 수 있다.
또한, 도 28의 (b)에 도시된 바와 같이, 특성 맵의 크기를 입력 값의 크기와 동일하게 유지하기 위하여 제로 패딩(zero padding)(즉, 가장 높은(또는/및 낮은) 인덱스의 입력 값에 0으로 패딩을 수행하는 방법)이 적용되는 경우, 제로 패딩의 값이 반영되어 도출되는 특성 맵의 전체 입력 값 중 일부의 값은 이용할 수 없다는 문제점이 존재한다.
구체적으로, 도 28의 (b)는 타입(type) 1 DMRS 패턴에 따라 홀수 인덱스의 입력 값이 0으로 설정된 경우를 가정하였다.
도 28의 (b)의 예시에서 특성 맵 중 하나의 값인
Figure PCTKR2022015121-appb-img-000003
을 산출하는 과정에서, 입력 값의 크기/커널의 크기/제로 패딩의 크기 등에 따라, 입력 값
Figure PCTKR2022015121-appb-img-000004
Figure PCTKR2022015121-appb-img-000005
은 training/inference 과정에서 이용될 수 없다.
여기서,
Figure PCTKR2022015121-appb-img-000006
은 입력 값
Figure PCTKR2022015121-appb-img-000007
에 대해서 CNN 구조를 통해 얻은 채널 추정 값으로 해석될 수 있는다. 입력 값 중 일부인
Figure PCTKR2022015121-appb-img-000008
값을
Figure PCTKR2022015121-appb-img-000009
도출에 활용할 경우, 주파수/시간 영역에서 연관관계(correlation) 특성에 기초하여 채널 추정 성능을 향상 시킬 수 있다.
순환적 패딩은 더 많은 입력 값(예로,
Figure PCTKR2022015121-appb-img-000010
)이 training/inference에 이용될 수 있게 함으로써, 상술된 제로 패딩의 문제점을 보완할 수 있다.
이하에서는 순환적 패딩을 수행하기 위해 정의될 수 있는 패딩/커널의 구조/방법 및 특성 맵(및/또는 출력 값)의 구성 방법에 대해서 설명하도록 한다.
실시예 1-1
실시예 1-1은 도 28의 (b)에 도시된 제1 커널(예로, 커널 #0)에 관한 것이다. 제1 커널 및 제로 패딩이 적용된 입력 값 간의 연산에 기초하여 training/inference가 수행될 수 있다.
제1 커널의 계수들은 주파수/시간 영역의 correlation 특성에 기반하여 학습될 수 있다. 다만, 제로 패딩이 적용되는 입력 값 중 일부의 값들을 특성 맵 값 도출에 이용될 수 없으며, 이에 따라 correlation 특성 중 일부만이 이용될 수 있다. 즉, 상술된 제로 패딩의 문제점이 발생할 수 있다.
도 28의 (b)에 도시된 제1 커널의 계수 값과 관련하여, 입력 값의 인덱스 및 출력 값의 인덱스 각각을 n1 및 n2로 정의할 경우, n1-n2의 값은 표 6과 같이 산출될 수 있다.
계수 w0 w1 w2 w3 w4 w5 w6 w7 w8 w9 w10 w11
n1-n2 -6 -5 -4 -3 -2 -1 0 1 2 3 4 5
표 6에 개시된 바와 같이, w7은 출력 값 대비 입력 값의 인덱스가 1 만큼 큰 관계에서 training 될 수 있는 계수를 의미할 수 있다. w8, w9, w10, 및 w11 역시 출력 값 대비 입력 값의 인덱스가 각각 2, 3, 4, 5 만큼씩 큰 관계에서 training 될 수 있는 계수를 의미할 수 있다. 반면, w5, w4, w3, w2, w1, 및 w0 각각은 출력 값 대비 입력 값의 인덱스가 각각 1, 2, 3, 4, 5, 및 6 만큼씩 작은 관계에서 training 될 수 있는 계수를 의미할 수 있다.
따라서, 특성 맵 중 하나의 값인
Figure PCTKR2022015121-appb-img-000011
의 경우, 출력 값 대비 인덱스가 작은 입력 값이 존재 하지 않으므로, 사전에 학습된 w5, w4, w3, w2, w1, 및 w0은
Figure PCTKR2022015121-appb-img-000012
계산 시에 활용될 수 없다. 이에 따라, training/inference 과정에서 상기 계수들의 영향은 (제로 패딩 방식에 의해) 배제될 수 있다.
실시예 1-2
실시예 1-2는 도 29의 (a)에 도시된 제2 커널(예로, 커널 #1)에 관한 것이다. 제2 커널 및 전면(front) 순환적 패딩이 적용된 입력 값 간의 연산에 기초하여 training/inference가 수행될 수 있다.
제2 커널의 계수들은 주파수/시간 영역의 correlation 특성에 기초하여 학습될 수 있다. 입력 값 및/또는 후면 패딩은 0으로 가정하여 training/inference를 수행할 수 있다. 이를 통해서 training/inference 과정에서 불필요한 계수에 대한 학습 및 적용을 회피할 수 있다.
전면 순환적 패딩의 값을 이용하여 입력 값 중 낮은 인덱스의 입력 값과 관련된 correlation 특성을 이용함으로써, 제로 패딩의 단점을 해소할 수 있다.
도 29의 (a)에 도시된 제2 커널의 계수 값과 관련하여, 입력 값의 인덱스 및 출력 값의 인덱스 각각을 n1 및 n2로 정의할 경우, n1-n2의 값은 표 7과 같이 산출될 수 있다.
계수 k0 k1 k2 k3 k4 k5 k6 k7 k8 k9 k10 k11
n1-n2 6 7 8 9 10 11 NA NA NA NA NA NA
표 7에 개시된 바와 같이, k5는 출력 값 대비 입력 값의 인덱스가 11 큰 관계에서 training 될 수 있는 계수를 의미할 수 있다. k4, k3, k2, k1, 및 k0 역시 출력 값 대비 입력 값의 인덱스가 각각 10, 9, 8, 7, 및 6 만큼 큰 관계에서 training 될 수 있는 계수를 의미할 수 있다. 특성 맵 중 하나의 값인
Figure PCTKR2022015121-appb-img-000013
를 산출하는 경우, 커널 #1의 계수 및 특정 입력 값의 연산 결과가 이용될 수 있다. 여기서, 특정 입력 값은 커널 #0에 의해 특성이 반영되지 않은 입력 값을 포함할 수 있다.
수학식 3은 kernel #0의 계수(예로, w6, w7, w8, w9, w10, 및 w11) 및 커널 #1의 계수(예로, k0, k1, k2, k3, k4, 및 k5)에 기초하여
Figure PCTKR2022015121-appb-img-000014
를 도출하는 방식의 예시를 나타낸다.
Figure PCTKR2022015121-appb-img-000015
그리고, k6, k7, k8, k9, k10, 및 k11 각각은 출력 값 대비 입력 값의 인덱스가 각각 12, 13, 14, 15, 16, 및 17 만큼씩 큰 관계에서 training 될 수 있는 계수를 의미할 수 있다.
상기 계수들은 입력 값의 크기/커널의 크기/패딩의 크기 등에 의해서 training/inference 과정에서 적용될 수 없는/적용될 필요가 없는 불필요한 계수 값일 수 있다. 다만, 상기 계수들은 특성 맵의 크기를 입력 값의 크기와 동일하게 유지하기 위한 이유 등으로 정의될 수 있다.
커널 내에서 상기 불필요한 계수 값들이 정의되어야 하는 경우, training/inference 과정에서 불필요한 계수에 대한 학습 및 적용을 회피하기 위하여, 입력 값 및/또는 후면 패딩은 0으로 가정하여 training/inference를 수행할 수 있다. 이에 따라, training/inference 과정에서 상기 불필요한 계수들의 영향은 배제될 수 있다.
실시예 1-3
실시예 1-3은 도 29의 (b)에 도시된 제3 커널(예로, 커널 #2)에 관한 것이다. 제2 커널 및 후면(front) 순환적 패딩이 적용된 입력 값 간의 연산에 기초하여 training/inference가 수행될 수 있다.
제3 커널의 계수들은 주파수/시간 영역의 correlation 특성에 기초하여 학습될 수 있다. 입력 값 및/또는 전면 패딩은 0으로 가정하여 training/inference를 수행할 수 있다. 이를 통해서 training/inference 과정에서 불필요한 계수에 대한 학습 및 적용을 회피할 수 있다.
후면 순환적 패딩의 값을 이용하여 입력 값 중 낮은 인덱스의 입력 값과 관련된 correlation 특성을 이용함으로써, 제로 패딩의 단점을 해소할 수 있다.
도 29의 (b)에 도시된 제23 커널의 계수 값과 관련하여, 입력 값의 인덱스 및 출력 값의 인덱스 각각을 n1 및 n2로 정의할 경우, n1-n2의 값은 표 8과 같이 산출될 수 있다.
계수 m0 m1 m2 m3 m4 m5 m6 m7 m8 m9 m10 m11
n1-n2 NA NA NA NA NA NA NA -11 -10 -9 -8 -7
표 8에 개시된 바와 같이, m11은 출력 값 대비 입력 값의 인덱스가 7 작은 관계에서 training 될 수 있는 계수를 의미할 수 있다. m10, m9, m8, 및 m7 역시 출력 값 대비 입력 값의 인덱스가 각각 8, 9, 10, 및 11 만큼 작은 관계에서 training 될 수 있는 계수를 의미할 수 있다. 특성 맵 중 하나의 값인
Figure PCTKR2022015121-appb-img-000016
를 산출하는 경우, 커널 #2의 계수 및 특정 입력 값의 연산 결과가 이용될 수 있다. 여기서, 특정 입력 값은 커널 #0에 의해 특성이 반영되지 않은 입력 값을 포함할 수 있다.
수학식 4는 커널 #1의 계수(예로, w0, w1, w2, w3, w4, 및 w5) 및 커널 #2의 계수(예로, m7, m8, m9, m10, m11, 및 m12)에 기초하여
Figure PCTKR2022015121-appb-img-000017
를 도출하는 방식의 예시를 나타낸다.
Figure PCTKR2022015121-appb-img-000018
그리고, m0, m1 내지 m6 각각은 출력 값 대비 입력 값의 인덱스가 각각 18, 17 내지 12만큼씩 작은 관계에서 training 될 수 있는 계수를 의미할 수 있다.
상기 계수들은 입력 값의 크기/커널의 크기/패딩의 크기 등에 의해서 training/inference 과정에서 적용될 수 없는/적용될 필요가 없는 불필요한 계수 값일 수 있다. 다만, 상기 계수들은 특성 맵의 크기를 입력 값의 크기와 동일하게 유지하기 위한 이유 등으로 정의될 수 있다.
커널 내에서 상기 불필요한 계수 값들이 정의되어야 하는 경우, training/inference 과정에서 불필요한 계수에 대한 학습 및 적용을 회피하기 위하여, 입력 값 및/또는 전면 패딩은 0으로 가정하여 training/inference를 수행할 수 있다. 이에 따라, training/inference 과정에서 상기 불필요한 계수들의 영향은 배제될 수 있다.
실시예 1-4
순환적 패딩은 상기 커널 #0, 커널 #1, 및 커널 #2 중 적어도 하나 및 상기 적어도 하나의 커널에 대응하는 패딩을 포함하는 구조/방법을 의미할 수 있다.
순환적 패딩이 적용되는 CV(convolutional) 레이어에 대해 복수의 커널이 정의되는 경우, 상기 복수의 커널에 대해 동일한 커널의 크기/동일한 패딩의 크기/동일 스트라이드(stride) 값이 적용/설정됨을 가정하도록 정의될 수 있다. 이를 통해, training/inference 과정의 복잡도가 감소할 수 있다.
일 예로, 입력 값에 대응하는 커널(즉, 커널 #0), 전면 순환적 패딩에 대응되는 커널(즉, 커널 #1), 및/또는 후면 순환적 패딩에 대응되는 커널(즉, 커널 #2)은 동일 CV 레이어 내에서 정의/구성될 수 있다.
이 때, 특정 CV 레이어(예로, 1차 CV 레이어 및/또는 n차 CV 레이어)에 대해 복수의 커널(예로, 2개 이상의 커널)이 정의/설정/지시되고, 이에 대해 순환적 패딩이 정의/설정/지시할 수 있다.
이를 위해, 단말에 대해 복수의 커널임이 설정/지시된 경우, 단말은 상기 복수의 커널이 설정된 CV 레이어에 대해서 순환적 패딩을 가정할 수 있다. 또 다른 예로, 단말은 순환적 패딩이 설정된 CV 레이어에 대해 복수의 커널이 설정되는 경우(즉, 반대의 경우)를 가정할 수 있다.
추가적으로 또는 대안적으로, 특정 CV 레이어(예로, 1차 CV 레이어 및/또는 n차 CV 레이어)에 대해 단일 커널을 정의/설정/지시되고, 이에 대해 제로 패딩이 정의/설정/지시될 수 있다.
상술된 예시를 적용하기 위하여, 단말에 대해 단일 커널임이 설정/지시된 경우, 단말은 상기 단일 커널이 설정된 CV 레이어에 대해서 제로 패딩 방식이 설정된 것을 가정할 수 있다. 또 다른 예로, 단말은 제로 패딩이 설정된 CV 레이어에 대해 단일 커널이 설정되는 경우(즉, 반대의 경우)를 가정할 수 있다. 상술한 바와 같이 단일 커널이 이용되는 경우, 비교적 낮은 복잡도로 CNN모델을 구현할 수 있다.
추가적으로 또는 대안적으로, 입력 값에 대응하는 커널(즉, 커널 #0), 전면 순환적 패딩에 대응되는 커널(즉, 커널 #1), 및/또는 후면 순환적 패딩에 대응되는 커널(즉, 커널 #2)은 서로 다른 CV 레이어에 기초하여 정의/구성될 수 있다.
일 예로, n차 CV 레이어에 대해 커널 #0, 커널 #1, 및 커널 #2가 구성/정의될 수 있다. 또 다른 예로, n차 CV 레이어에 대해 커널 #0이 구성/정의되고, n+1차 CV 레이어에 대해 커널 #1이 구성/정의되고, n+2차 CV 레이어에 대해 커널 #2가 구성/정의될 수 있다. 또 다른 예로, n차 CV 레이어에 대해 커널 #0이 구성/정의되고, n+1차 CV 레이어에 대해 커널 #1 및 커널 #2가 구성/정의될 수 있다.
CV 레이어에 대한 커널의 구성/정의는 상술된 예시에 제한되지 않으며, CV 레이어에 구성/정의되는 커널의 순서 및 조합은 다양하게 구현될 수 있다.
일 예로, 도 30은 특정 CV 레이어에 포함된 커널 #1, 커널 #2, 및 커널 #3에 기초하여 출력된 특징 맵(즉, 출력 데이터)의 예시를 나타낸다.
순환적 패딩을 위한 복수의 커널이 서로 다른 복수의 CV 레이어에 기반하여 정의/구성되는 경우, CV 레이어 및 커널/패딩의 대응 관계에 대한 정보는 기지국/단말 사이에서 (L1/L2 시그널링 및/또는 단말의 보고(예로, CSI 보고/ UE 캐퍼빌리티 보고)를 통해) 공유될 수 있다.
상술된 예시들에서 가정하는 커널/입력 값/패딩의 크기/도메인(예로, 주파수 도메인)/차원(dimension)(예로, 1-D) 등은 일 예시에 불과하며 본 개시의 범위를 제안하지 않는다. 따라서, 상술된 예시에서 다른 커널/입력 값/ 패딩의 크기/도메인(예로, 시간 도메인)/차원(예로, 2-D)이 적용될 수 있다.
그리고, 본 개시를 설명함에 있어서, 특성 맵은 출력 값(output)으로도 해석될 수 있다.
실시예 2
기지국 및/또는 단말에서 AI/ML 알고리즘 및 (D)NN을 이용하여 채널 추정(channel estimation)을 수행하려는 경우, 특성 맵의 크기를 입력 값의 크기와 동일하게 유지하기 위해서 AI/ML 알고리즘 및 CNN 내에서 패딩이 적용될 수 있다. 패딩을 적용하는 경우, 채널 추정 성능에 도움이 되기 위한 다양한 패딩 방법이 적용될 수 있다.
실시예 2-1
단말에 대해 커널의 크기는 PRB(physical resource block)(그룹) 사이즈와 동일한 값을 가지도록 정의/설정/지시될 수 있다. 예로, PRB 사이즈 단위로 training/inference를 수행하기 위한 입력 값이 구성되도록 정의/설정/지시될 수 있다.
기지국/단말은 커널 파라미터에 대한 학습 및 결과 값에 대한 추론을 수행할 단위를 동일하게 가정할 수 있다. 또한, 비(non)-AI 기반 채널 측정 방식과 유사하게 동일 채널 특성을 기대할 수 있는 최대의 단위로 학습 및 추론을 수행할 수 있는 바, (학습/추론의) 결과 값에 대한 오류를 줄일 수 있다.
커널의 크기가 K((P)RB) (또는, K' REs)로 설정/지시된 경우, 단말은 패딩의 크기를 12*K/2, 및/또는 천장(ceil)/바닥(floor)/라운드(round)(12*K/2)(및/또는 K'/2 및/또는 ceil/floor/round(K'/2) 및/또는 후술할 예시)로 가정하도록 정의/설정/지시될 수 있다.
일 예로, 커널의 크기가 홀수인 경우, training/inference를 수행할 PRB 단위의 입력 값 앞뒤로 floor(12*K/2) 크기의 제로 패딩이 수행(즉, 값이 0인 RE를 추가)될 수 있다
또 다른 예로, 커널의 크기가 짝수인 경우, training/inference를 수행할 PRB 단위의 입력 값에 대해 낮은 인덱스 쪽으로는 12*K/2 만큼의 제로 패딩이 수행(즉, 값이 0인 RE를 추가)되고, 높은 인덱스 쪽으로는 12*K/2 - 1 만큼의 제로 패딩이 수행될 수 있다.
또 다른 예로, 커널의 크기가 짝수인 경우, training/inference를 수행할 PRB 단위의 입력 값에 대해 낮은 인덱스 쪽으로는 12*K/2-1만큼의 제로 패딩이 수행(즉, 값이 0인 RE를 추가)되고, 높은 인덱스 쪽으로는 12*K/2 만큼의 제로 패딩이 수행될 수 있다.
도 31은 K를 (P)RB 단위로 가정하였을 때 패딩의 일 예시를 도시한다. 일 예로, 단일 (P)RB 당 12개의 RE가 포함될 수 있는 바, 도 31에서 K는 1로 가정될 수 있다. 다만, 이는 일 실시예에 불과하며, 단일 (P)RB 당 RE의 개수 및 K1의 값은 다양하게 구현될 수 있다.
실시예 2-1에서 커널의 크기가 PRB 사이즈와 동일한 값을 가지도록 정의/설정/지시될 때 제로 패딩이 수행되는 경우를 가정하였으나, 이에 제한되는 것은 아니며, 순환적 패딩 등이 수행될 수도 있다.
실시예 2-2
커널의 크기는 (시간 도메인 상에서) 단말에게 설정/지시/스케줄링된 PDSCH(/PDCCH)에 대응되는 OFDM 심볼의 수와 동일한 값을 갖도록 정의/설정/지시될 수 있다.
여기서, '커널의 크기'는 (training/)inference를 수행하기 위한 커널의 크기를 의미할 수 있다. 단말에 대해 '커널의 크기' (단위)로 (training/)inference를 수행하는 입력 값을 구성하도록 정의/설정/지시될 수 있다.
그리고, '커널의 크기'가 inference를 수행하기 위한 커널의 크기로 설정된 경우, training을 수행하기 위한 커널의 크기는 상기 '커널의 크기'와 다른 값으로 설정/지시/정의될 수 있다.
일 예로, training을 수행하기 위한 커널의 크기는 한 슬롯에 포함되는 OFDM 심볼의 수와 동일한 값을 갖도록 정의/설정/지시될 수 있다.
추가적으로 또는 대안적으로, training을 수행하기 위한 커널의 크기는 단말에게 설정/지시/스케줄링 될 수 있는 가장 큰 길이의 OFDM 심볼의 수와 동일한 값을 갖도록 정의/설정/지시될 수 있다.
추가적으로 또는 대안적으로, training을 수행하기 위한 커널의 크기는 기지국/단말이 L1/L2 시그널링 및/또는 단말의 보고(예로, 캐퍼빌리티 보고/CSI 보고 등)에 기초하여 특정 값을 가지도록 설정/지시될 수 있다.
단말에게 설정/지시/스케줄링 되는 PDSCH(/PDCCH)의 길이는 가변적일 수 있다. PDSCH(/PDCCH)의 길이가 상이할 경우, 상이한 길이를 가지는 커널 별로 training이 수행될 수 있다.
training을 수행하는 단위가 특정 크기/길이(예로, L1)로 정의/설정/지시된 후, inference를 수행할 때에는 상기 training을 통해 학습된 특정 크기/길이(즉, L1)의 커널 내에서 inference 수행을 위해 정의/설정/지시된 커널의 크기/길이(예로, L2) 만큼의 일부 값만 사용될 수 있다. 이에 따라, training 과정이 효율적으로 진행될 수 있다.
일 예로, 'training을 수행하기 위한 커널의 크기' (단위)로 training를 수행하기 위한 입력 값이 구성되도록 정의/설정/지시될 수 있으며, 'training을 수행하기 위한 커널의 크기'를 inference를 수행하기 위한 커널의 크기로 사용되도록 설정/지시/정의될 수 있다.
상술된 예시들은 시간 영역의 자원을 가정하여 기술하였으나, 이는 실시예 2-1에 대해서도 적용될 수 있다. 예로, 실시예 2-1에서도 training 및 inference를 수행하기 위한 커널의 크기가 각각 다르게 설정될 수 있다.
일 예로, training을 수행한 커널의 크기 및 inference를 수행할 커널의 크기 각각이 L1, L2로 명명되는 경우를 가정한다. 이 때, L1은 한 슬롯 내 OFDM 심볼의 수(예로, 14)로 가정하고, L2는 스케줄링 된 PDSCH의 OFDM 심볼의 수로 가정할 수 있다.
단말에 대해 inference를 수행할 때에 적용될 (제로) 패딩의 크기는 L2/2, ceil/floor/round(L2/2) 및/또는 후술할 예시에 따라 가정하도록 정의/설정/지시될 수 있다.
일 예로, L2가 홀수인 경우, inference를 수행할 심볼(예로, 입력 값) 앞뒤로 floor(L2/2) 크기의 제로 패딩이 수행(즉, 심볼이 추가)될 수 있다.
또 다른 예로, L2가 짝수인 경우, inference를 수행할 심볼(예로, 입력 값)에 대해서 낮은 쪽으로는 L2/2 만큼의 제로 패딩이 수행(즉, 심볼이 추가)되고, 높은 쪽으로는 L2/2 - 1 만큼의 제로 패딩이 수행될 수 있다.
다만, 이는 일 실시예에 불과하며, L2가 짝수인 경우, inference를 수행할 심볼(예로, 입력 값)에 대해서 높은 쪽으로는 L2/2 만큼의 제로 패딩이 수행(즉, 심볼이 추가)되고, 낮은 쪽으로는 L2/2 - 1 만큼의 제로 패딩이 수행될 수 있다.
또 다른 예로, training을 수행할 때에 적용될 제로 패딩의 크기는 상술된 예시에서 'L2' 값을 'L1' 값으로 대체한 후 동일한 방식으로 정의될 수 있다.
상술된 예시에서는 제로 패딩이 수행되는 경우를 가정하였으나, 이에 제한되는 것은 아니며, 다른 유형의 패딩(예로, 순환적 패딩 등)이 적용될 수도 있다.
실시예 2-2-1
실시예 2-2-1은 training을 수행한 커널(예로, 커널 1)을 기반으로 inference를 수행할 커널(예로, 커널 2)을 구성하는 방법에 관한 것이다.
일 예로, training을 위한 커널(즉, 커널 1)의 사이즈가 홀수이고, 이에 기반하여 구성된 inference를 수행할 커널(예로, 커널 2)의 사이즈가 홀수인 경우를 가정한다. Training을 통해 얻은 사이즈 L1의 커널 1에 대해서 inference에 적용할 사이즈 L2의 커널 2에 대응하는 커널 1의 인덱스는 L1'-L2', … , L1'-1, L1', L1'+1, …, L1'+L2'일 수 있다. 여기서, L1'은 ceil(L1/2)이고, L2'는 floor(L2/2)일 수 있다.
또 다른 예로, training을 위한 커널(즉, 커널 1)의 사이즈가 홀수이고, 이에 기반하여 구성된 inference를 수행할 커널(예로, 커널 2)의 사이즈가 짝수인 경우를 가정한다.
일 예시(case 1)로, inference 커널에 대해서 L2/2, L2/2-1 순서로 제로 패딩을 가정할 경우, training을 통해 얻은 사이즈 L1의 커널 1에 대해서 inference에 적용할 사이즈 L2의 커널 2에 대응하는 커널 1의 인덱스는 L1'-L2', … , L1'-1, L1', L1'+1, …, L1'+L2'-1일 수 있다. 여기서, L1'은 ceil(L1/2)이고, L2'는 L2/2일 수 있다.
또 다른 예시(case 2)로, inference 커널에 대해서 L2/2-1, L2/2 순서로 제로 패딩을 가정할 경우, training을 통해 얻은 사이즈 L1의 커널 1에 대해서 inference에 적용할 사이즈 L2의 커널 2에 대응하는 커널 1의 인덱스는 L1'-L2'+1, … , L1'-1, L1', L1'+1, …, L1'+L2'일 수 있다. 여기서, L1'은 ceil(L1/2)이고, L2'는 L2/2일 수 있다.
또 다른 예로, training을 위한 커널(즉, 커널 1)의 사이즈가 짝수이고, 이에 기반하여 구성된 inference를 수행할 커널(예로, 커널 2)의 사이즈가 홀수인 경우를 가정한다.
일 예시(case 1)로, training 커널에 대해서 L1/2, L1/2-1 순서로 제로 패딩을 가정할 경우, training을 통해 얻은 사이즈 L1의 커널 1에 대해서 inference에 적용할 사이즈 L2의 커널 2에 대응하는 커널 1의 인덱스는 L1'-L2', … , L1'-1, L1', L1'+1, …, L1'+L2'일 수 있다. 여기서, L1'은 L1/2+1이고, L2'는 floor(L2/2)일 수 있다.
또 다른 예시(case 2)로, training 커널에 대해서 L1/2-1, L1/2 순서로 제로 패딩을 가정할 경우, training을 통해 얻은 사이즈 L1의 커널 1에 대해서 inference에 적용할 사이즈 L2의 커널 2에 대응하는 커널 1의 인덱스는 L1'-L2', … , L1'-1, L1', L1'+1, …, L1'+L2'일 수 있다. 여기서, L1'은 L1/2이고, L2'는 floor(L2/2)일 수 있다.
또 다른 예로, training을 위한 커널(즉, 커널 1)의 사이즈가 짝수이고, 이에 기반하여 구성된 inference를 수행할 커널(예로, 커널 2)의 사이즈가 짝수인 경우를 가정한다.
일 예시(case 1)로 inference 커널에 대해서 L1/2, L1/2-1 순서로 제로 패딩을 가정하거나, 일 예시(case 1-1)로 training 커널에 대해서 L1/2, L1/2-1 순서로 제로 패딩을 가정한다.
이 때, training을 통해 얻은 사이즈 L1의 커널 1에 대해서 inference에 적용할 사이즈 L2의 커널 2에 대응하는 커널 1의 인덱스는 L1'-L2', … , L1'-1, L1', L1'+1, …, L1'+L2'-1일 수 있다. 여기서, L1'은 L1/2+1이고, L2'는 L2/2일 수 있다.
또 다른 예시(case 1-2)로, training 커널에 대해서 L1/2-1, L1/2 순서로 제로 패딩을 가정할 경우, training을 통해 얻은 사이즈 L1의 커널 1에 대해서 inference에 적용할 사이즈 L2의 커널 2에 대응하는 커널 1의 인덱스는 L1'-L2', … , L1'-1, L1', L1'+1, …, L1'+L2'-1일 수 있다. 여기서, L1'은 L1/2이고, L2'는 L2/2일 수 있다.
일 예시(case 2)로 inference 커널에 대해서 L1/2-1, L1/2 순서로 제로 패딩을 가정하거나, 일 예시(case 2-1)로 training 커널에 대해서 L1/2, L1/2-1 순서로 제로 패딩을 가정한다.
이 때, training을 통해 얻은 사이즈 L1의 커널 1에 대해서 inference에 적용할 사이즈 L2의 커널 2에 대응하는 커널 1의 인덱스는 L1'-L2'+1, … , L1'-1, L1', L1'+1, …, L1'+L2'일 수 있다. 여기서, L1'은 L1/2+1이고, L2'는 L2/2일 수 있다.
또 다른 예시(case 2-2)로, training 커널에 대해서 L1/2-1, L1/2 순서로 제로 패딩을 가정할 경우, training을 통해 얻은 사이즈 L1의 커널 1에 대해서 inference에 적용할 사이즈 L2의 커널 2에 대응하는 커널 1의 인덱스는 L1'-L2'+1, … , L1'-1, L1', L1'+1, …, L1'+L2'일 수 있다. 여기서, L1'은 L1/2이고, L2'는 L2/2일 수 있다.
상술된 예시에서는 커널에 대해 제로 패딩을 수행하는 경우를 가정하였으나, 이에 제한되는 것은 아니다. 상술된 예시에 대해서는 순환적 패딩 역시 적용될 수 있다.
또한, 실시예 2-1, 실시예 2-2, 실시예 2-2-1은 독립적으로 적용/활용될 수 있으나, 이에 제한되는 것은 아니며, 각 실시예의 일부가 조합됨으로써 적용/활용될 수 있다. 실시예 2-2-1은 실시예 2-1 및 실시예 2-2 모두에 적용될 수 있다. 그리고, 본 개시를 설명함에 있어서, 특성 맵은 출력 값(output)으로도 해석될 수 있다.
본 개시가 적용될 수 있는 장치 일반
도 32는 본 개시의 일 실시예에 따른 무선 통신 장치의 블록 구성도를 예시한다.
도 32를 참조하면, 제1 무선 기기(100)와 제2 무선 기기(200)는 다양한 무선 접속 기술(예를 들어, LTE, NR)을 통해 무선 신호를 송수신할 수 있다.
제1 무선 기기(100)는 하나 이상의 프로세서(102) 및 하나 이상의 메모리(104)를 포함하며, 추가적으로 하나 이상의 송수신기(106) 및/또는 하나 이상의 안테나(108)을 더 포함할 수 있다. 프로세서(102)는 메모리(104) 및/또는 송수신기(106)를 제어하며, 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(102)는 메모리(104) 내의 정보를 처리하여 제1 정보/신호를 생성한 뒤, 송수신기(106)을 통해 제1 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(102)는 송수신기(106)를 통해 제2 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제2 정보/신호의 신호 처리로부터 얻은 정보를 메모리(104)에 저장할 수 있다. 메모리(104)는 프로세서(102)와 연결될 수 있고, 프로세서(102)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(104)는 프로세서(102)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(102)와 메모리(104)는 무선 통신 기술(예를 들어, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(106)는 프로세서(102)와 연결될 수 있고, 하나 이상의 안테나(108)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(106)는 송신기 및/또는 수신기를 포함할 수 있다. 송수신기(106)는 RF(Radio Frequency) 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
제2 무선 기기(200)는 하나 이상의 프로세서(202), 하나 이상의 메모리(204)를 포함하며, 추가적으로 하나 이상의 송수신기(206) 및/또는 하나 이상의 안테나(208)를 더 포함할 수 있다. 프로세서(202)는 메모리(204) 및/또는 송수신기(206)를 제어하며, 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202)는 메모리(204) 내의 정보를 처리하여 제3 정보/신호를 생성한 뒤, 송수신기(206)를 통해 제3 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202)는 송수신기(206)를 통해 제4 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제4 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204)에 저장할 수 있다. 메모리(204)는 프로세서(202)와 연결될 수 있고, 프로세서(202)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204)는 프로세서(202)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202)와 메모리(204)는 무선 통신 기술(예를 들어, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206)는 프로세서(202)와 연결될 수 있고, 하나 이상의 안테나(208)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206)는 송신기 및/또는 수신기를 포함할 수 있다 송수신기(206)는 RF 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
이하, 무선 기기(100, 200)의 하드웨어 요소에 대해 보다 구체적으로 설명한다. 이로 제한되는 것은 아니지만, 하나 이상의 프로토콜 계층이 하나 이상의 프로세서(102, 202)에 의해 구현될 수 있다. 예를 들어, 하나 이상의 프로세서(102, 202)는 하나 이상의 계층(예를 들어, PHY, MAC, RLC, PDCP, RRC, SDAP와 같은 기능적 계층)을 구현할 수 있다. 하나 이상의 프로세서(102, 202)는 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 하나 이상의 PDU(Protocol Data Unit) 및/또는 하나 이상의 SDU(Service Data Unit)를 생성할 수 있다. 하나 이상의 프로세서(102, 202)는 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 메시지, 제어정보, 데이터 또는 정보를 생성할 수 있다. 하나 이상의 프로세서(102, 202)는 본 개시에 개시된 기능, 절차, 제안 및/또는 방법에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 포함하는 신호(예를 들어, 베이스밴드 신호)를 생성하여, 하나 이상의 송수신기(106, 206)에게 제공할 수 있다. 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)로부터 신호(예를 들어, 베이스밴드 신호)를 수신할 수 있고, 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 획득할 수 있다.
하나 이상의 프로세서(102, 202)는 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 마이크로 컴퓨터로 지칭될 수 있다. 하나 이상의 프로세서(102, 202)는 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합에 의해 구현될 수 있다. 일 예로, 하나 이상의 ASIC(Application Specific Integrated Circuit), 하나 이상의 DSP(Digital Signal Processor), 하나 이상의 DSPD(Digital Signal Processing Device), 하나 이상의 PLD(Programmable Logic Device) 또는 하나 이상의 FPGA(Field Programmable Gate Arrays)가 하나 이상의 프로세서(102, 202)에 포함될 수 있다. 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있고, 펌웨어 또는 소프트웨어는 모듈, 절차, 기능 등을 포함하도록 구현될 수 있다. 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 수행하도록 설정된 펌웨어 또는 소프트웨어는 하나 이상의 프로세서(102, 202)에 포함되거나, 하나 이상의 메모리(104, 204)에 저장되어 하나 이상의 프로세서(102, 202)에 의해 구동될 수 있다. 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 코드, 명령어 및/또는 명령어의 집합 형태로 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있다.
하나 이상의 메모리(104, 204)는 하나 이상의 프로세서(102, 202)와 연결될 수 있고, 다양한 형태의 데이터, 신호, 메시지, 정보, 프로그램, 코드, 지시 및/또는 명령을 저장할 수 있다. 하나 이상의 메모리(104, 204)는 ROM, RAM, EPROM, 플래시 메모리, 하드 드라이브, 레지스터, 캐쉬 메모리, 컴퓨터 판독 저장 매체 및/또는 이들의 조합으로 구성될 수 있다. 하나 이상의 메모리(104, 204)는 하나 이상의 프로세서(102, 202)의 내부 및/또는 외부에 위치할 수 있다. 또한, 하나 이상의 메모리(104, 204)는 유선 또는 무선 연결과 같은 다양한 기술을 통해 하나 이상의 프로세서(102, 202)와 연결될 수 있다.
하나 이상의 송수신기(106, 206)는 하나 이상의 다른 장치에게 본 개시의 방법들 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 전송할 수 있다. 하나 이상의 송수신기(106, 206)는 하나 이상의 다른 장치로부터 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 수신할 수 있다. 예를 들어, 하나 이상의 송수신기(106, 206)는 하나 이상의 프로세서(102, 202)와 연결될 수 있고, 무선 신호를 송수신할 수 있다. 예를 들어, 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)가 하나 이상의 다른 장치에게 사용자 데이터, 제어 정보 또는 무선 신호를 전송하도록 제어할 수 있다. 또한, 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)가 하나 이상의 다른 장치로부터 사용자 데이터, 제어 정보 또는 무선 신호를 수신하도록 제어할 수 있다. 또한, 하나 이상의 송수신기(106, 206)는 하나 이상의 안테나(108, 208)와 연결될 수 있고, 하나 이상의 송수신기(106, 206)는 하나 이상의 안테나(108, 208)를 통해 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 송수신하도록 설정될 수 있다. 본 개시에서, 하나 이상의 안테나는 복수의 물리 안테나이거나, 복수의 논리 안테나(예를 들어, 안테나 포트)일 수 있다. 하나 이상의 송수신기(106, 206)는 수신된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 하나 이상의 프로세서(102, 202)를 이용하여 처리하기 위해, 수신된 무선 신호/채널 등을 RF 밴드 신호에서 베이스밴드 신호로 변환(Convert)할 수 있다. 하나 이상의 송수신기(106, 206)는 하나 이상의 프로세서(102, 202)를 이용하여 처리된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 베이스밴드 신호에서 RF 밴드 신호로 변환할 수 있다. 이를 위하여, 하나 이상의 송수신기(106, 206)는 (아날로그) 오실레이터 및/또는 필터를 포함할 수 있다.
이상에서 설명된 실시예들은 본 개시의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 개시의 실시예를 구성하는 것도 가능하다. 본 개시의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.
본 개시는 본 개시의 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 따라서, 상술한 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 개시의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 개시의 등가적 범위 내에서의 모든 변경은 본 개시의 범위에 포함된다.
본 개시의 범위는 다양한 실시예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다. 본 개시에서 설명하는 특징을 수행하는 프로세싱 시스템을 프로그래밍하기 위해 사용될 수 있는 명령은 저장 매체 또는 컴퓨터 판독가능 저장 매체 상에/내에 저장될 수 있고, 이러한 저장 매체를 포함하는 컴퓨터 프로그램 제품을 이용하여 본 개시에서 설명하는 특징이 구현될 수 있다. 저장 매체는 DRAM, SRAM, DDR RAM 또는 다른 랜덤 액세스 솔리드 스테이트 메모리 디바이스와 같은 고속 랜덤 액세스 메모리를 포함할 수 있지만, 이에 제한되지 않으며, 하나 이상의 자기 디스크 저장 디바이스, 광 디스크 저장 장치, 플래시 메모리 디바이스 또는 다른 비-휘발성 솔리드 스테이트 저장 디바이스와 같은 비-휘발성 메모리를 포함할 수 있다. 메모리는 선택적으로 프로세서(들)로부터 원격에 위치한 하나 이상의 저장 디바이스를 포함한다. 메모리 또는 대안적으로 메모리 내의 비-휘발성 메모리 디바이스(들)는 비-일시적 컴퓨터 판독가능 저장 매체를 포함한다. 본 개시에서 설명하는 특징은, 머신 판독가능 매체 중 임의의 하나에 저장되어 프로세싱 시스템의 하드웨어를 제어할 수 있고, 프로세싱 시스템이 본 개시의 실시예에 따른 결과를 활용하는 다른 메커니즘과 상호작용하도록 하는 소프트웨어 및/또는 펌웨어에 통합될 수 있다. 이러한 소프트웨어 또는 펌웨어는 애플리케이션 코드, 디바이스 드라이버, 운영 체제 및 실행 환경/컨테이너를 포함할 수 있지만 이에 제한되지 않는다.
여기서, 본 개시의 무선 기기(100, 200)에서 구현되는 무선 통신 기술은 LTE, NR 및 6G뿐만 아니라 저전력 통신을 위한 Narrowband Internet of Things를 포함할 수 있다. 이때, 예를 들어 NB-IoT 기술은 LPWAN(Low Power Wide Area Network) 기술의 일례일 수 있고, LTE Cat NB1 및/또는 LTE Cat NB2 등의 규격으로 구현될 수 있으며, 상술한 명칭에 한정되는 것은 아니다. 추가적으로 또는 대체적으로, 본 개시의 무선 기기(XXX, YYY)에서 구현되는 무선 통신 기술은 LTE-M 기술을 기반으로 통신을 수행할 수 있다. 이때, 일 예로, LTE-M 기술은 LPWAN 기술의 일례일 수 있고, eMTC(enhanced Machine Type Communication) 등의 다양한 명칭으로 불릴 수 있다. 예를 들어, LTE-M 기술은 1) LTE CAT 0, 2) LTE Cat M1, 3) LTE Cat M2, 4) LTE non-BL(non-Bandwidth Limited), 5) LTE-MTC, 6) LTE Machine Type Communication, 및/또는 7) LTE M 등의 다양한 규격 중 적어도 어느 하나로 구현될 수 있으며 상술한 명칭에 한정되는 것은 아니다. 추가적으로 또는 대체적으로, 본 개시의 무선 기기(XXX, YYY)에서 구현되는 무선 통신 기술은 저전력 통신을 고려한 지그비(ZigBee), 블루투스(Bluetooth) 및 저전력 광역 통신망(Low Power Wide Area Network, LPWAN) 중 적어도 어느 하나를 포함할 수 있으며, 상술한 명칭에 한정되는 것은 아니다. 일 예로 ZigBee 기술은 IEEE 802.15.4 등의 다양한 규격을 기반으로 소형/저-파워 디지털 통신에 관련된 PAN(personal area networks)을 생성할 수 있으며, 다양한 명칭으로 불릴 수 있다.
본 개시에서 제안하는 방법은 3GPP LTE/LTE-A, 5G 시스템에 적용되는 예를 중심으로 설명하였으나, 3GPP LTE/LTE-A, 5G 시스템 이외에도 다양한 무선 통신 시스템에 적용하는 것이 가능하다.

Claims (15)

  1. 무선 통신 시스템에서 단말에 의해서 채널 상태 정보(channel state information, CSI) 보고를 수행하는 방법에 있어서, 상기 방법은:
    상기 CSI 보고를 위한 적어도 하나의 참조 신호(reference signal, RS)를 기지국으로부터 수신하는 단계;
    상기 적어도 하나의 참조 신호와 관련된 정보를 인공지능(artificial intelligence, AI) 모델에 입력하여 채널 추정의 결과를 획득하는 단계; 및
    상기 채널 추정의 결과에 기초하여 상기 CSI를 상기 기지국으로 전송하는 단계를 포함하고,
    상기 AI 모델은, 복수의 파라미터(parameter) 세트를 포함하고,
    상기 복수의 파라미터 세트 각각의 크기(size)는, 상기 기지국에 의해 스케줄링된 하향링크(downlink, DL) 채널과 관련된 정보, 또는 미리 정의된 자원 그룹(resource group)과 관련된 정보에 기초하는, 방법.
  2. 제1항에 있어서,
    상기 DL 채널과 관련된 정보는, 상기 기지국에 의해 스케줄링된 물리 하향링크 공유 채널(physical downlink shared channel, PDSCH) 또는 물리 하향링크 제어 채널(physical downlink control channel, PDCCH)의 심볼(symbol)의 수를 포함하는, 방법.
  3. 제1항에 있어서,
    상기 미리 정의된 자원 그룹과 관련된 정보는,
    물리 자원 블록(physical resource block)의 사이즈 또는 단위 슬롯(slot)에 포함된 심볼의 수를 포함하는, 방법.
  4. 제1항에 있어서,
    상기 복수의 파라미터 세트 중 상기 AI 모델의 학습(training)에 적용되는 제1 파라미터 세트의 크기 및 상기 AI 모델의 추론(inference)에 적용되는 제2 파라미터 세트의 크기가 서로 상이한, 방법.
  5. 제1항에 있어서,
    상기 AI 모델의 학습에 적용되는 제1 파라미터 세트에 기초하여 상기 AI 모델의 추론에 적용되는 제2 파라미터 세트가 결정되는, 방법.
  6. 제1항에 있어서,
    상기 복수의 파라미터 세트 중 상기 AI 모델의 학습에 적용되는 제1 파라미터 세트의 크기는, 단위 슬롯 내에 포함된 심볼의 수에 기초하고,
    상기 복수의 파라미터 세트 중 상기 AI 모델의 추론에 적용되는 제2 파라미터 세트의 크기는, 상기 기지국에 의해 스케줄링된 PDSCH 또는 PDCCH의 심볼의 수에 기초하는, 방법.
  7. 제1항에 있어서,
    상기 AI 모델의 학습 또는 추론에 적용되는 파라미터 세트의 크기(L)가 홀수임에 기반하여, 상기 적어도 하나의 참조 신호와 관련된 정보에 대응되는 심볼 세트 중 가장 높은 인덱스의 심볼 및 가장 낮은 인덱스의 심볼 각각을 기준으로 floor(L/2) 크기의 패딩(padding)이 수행되고,
    상기 AI 모델의 학습 또는 추론에 적용되는 파라미터 세트의 크기(L)가 짝수임에 기반하여, 상기 가장 높은 인덱스의 심볼 및 상기 가장 낮은 인덱스의 심볼 중 하나를 기준으로 L/2 크기의 패딩이 수행되고, 상기 가장 높은 인덱스의 심볼 또는 상기 가장 낮은 인덱스의 심볼 중 다른 하나를 기준으로 L/2-1 크기의 패딩이 수행되는, 방법.
  8. 제7항에 있어서,
    상기 패딩은,
    값이 0인 적어도 하나의 심볼을 추가하는 제로 패딩(zero padding), 또는 상기 심볼 세트에 포함된 적어도 하나의 심볼을 추가하는 순환적 패딩(cyclic padding) 중의 적어도 하나를 포함하는, 방법.
  9. 제1항에 있어서,
    상기 AI 모델은, 복수의 CV(convolutional) 레이어가 포함된 CNN(convolutional neural network)을 포함하고,
    상기 복수의 CV 레이어 각각은, 상기 복수의 파라미터 세트를 포함하는, 방법.
  10. 제9항에 있어서,
    상기 복수의 파라미터 세트는, 제로 패딩에 대응되는 파라미터 세트, 또는 순환적 패딩에 대응되는 파라미터 세트 중의 적어도 하나를 포함하는, 방법.
  11. 무선 통신 시스템에서 채널 상태 정보(channel state information, CSI) 보고를 수행하는 단말에 있어서, 상기 단말은:
    하나 이상의 송수신기; 및
    상기 하나 이상의 송수신기와 연결된 하나 이상의 프로세서를 포함하고,
    상기 하나 이상의 프로세서는:
    상기 CSI 보고를 위한 적어도 하나의 참조 신호(reference signal, RS)를 기지국으로부터 상기 하나 이상의 송수신기를 통해 수신하고;
    상기 적어도 하나의 참조 신호와 관련된 정보를 인공지능(artificial intelligence, AI) 모델에 입력하여 채널 추정의 결과를 획득하고; 및
    상기 채널 추정의 결과에 기초하여 상기 CSI를 상기 기지국으로 상기 하나 이상의 송수신기를 통해 전송하도록 설정되고,
    상기 AI 모델은, 복수의 파라미터(parameter) 세트를 포함하고,
    상기 복수의 파라미터 세트 각각의 크기(size)는, 상기 기지국에 의해 스케줄링된 하향링크(downlink, DL) 채널과 관련된 정보, 또는 미리 정의된 자원 그룹(resource group)과 관련된 정보에 기초하는, 단말.
  12. 무선 통신 시스템에서 기지국에 의해서 채널 상태 정보(channel state information, CSI) 보고를 수신하는 방법에 있어서, 상기 방법은:
    상기 CSI 보고를 위한 적어도 하나의 참조 신호(reference signal, RS)를 단말로 전송하는 단계; 및
    상기 적어도 하나의 RS와 관련된 정보를 통해 획득된 채널 추정의 결과에 기초한 상기 CSI를 상기 단말로부터 수신하는 단계를 포함하고,
    인공지능(artificial intelligence, AI) 모델에 상기 적어도 하나의 RS와 관련된 정보가 상기 단말에 의해 입력됨에 기반하여, 상기 채널 추정의 결과가 출력되고,
    상기 AI 모델은, 복수의 파라미터(parameter) 세트를 포함하고,
    상기 복수의 파라미터 세트 각각의 크기(size)는, 상기 기지국에 의해 스케줄링된 하향링크(downlink, DL) 채널과 관련된 정보, 또는 미리 정의된 자원 그룹(resource group)과 관련된 정보에 기초하는, 방법.
  13. 무선 통신 시스템에서 채널 상태 정보(channel state information, CSI) 보고를 수신하는 기지국에 있어서, 상기 기지국은:
    하나 이상의 송수신기; 및
    상기 하나 이상의 송수신기와 연결된 하나 이상의 프로세서를 포함하고,
    상기 하나 이상의 프로세서는:
    상기 CSI 보고를 위한 적어도 하나의 참조 신호(reference signal, RS)를 단말로 상기 하나 이상의 송수신기를 통해 전송하고; 및
    상기 적어도 하나의 RS와 관련된 정보를 통해 획득된 채널 추정의 결과에 기초한 상기 CSI를 상기 단말로부터 상기 하나 이상의 송수신기를 통해 수신하도록 설정되고,
    인공지능(artificial intelligence, AI) 모델에 상기 적어도 하나의 RS와 관련된 정보가 상기 단말에 의해 입력됨에 기반하여, 상기 채널 추정의 결과가 출력되고,
    상기 AI 모델은, 복수의 파라미터(parameter) 세트를 포함하고,
    상기 복수의 파라미터 세트 각각의 크기(size)는, 상기 기지국에 의해 스케줄링된 하향링크(downlink, DL) 채널과 관련된 정보, 또는 미리 정의된 자원 그룹(resource group)과 관련된 정보에 기초하는, 기지국.
  14. 무선 통신 시스템에서 채널 상태 정보(channel state information, CSI) 보고를 수행하기 위해 단말을 제어하도록 설정되는 프로세싱 장치에 있어서, 상기 프로세싱 장치는:
    하나 이상의 프로세서; 및
    상기 하나 이상의 프로세서에 동작 가능하게 연결되고, 상기 하나 이상의 프로세서에 의해 실행됨에 기반하여, 동작들을 수행하는 명령들을 저장하는 하나 이상의 컴퓨터 메모리를 포함하며,
    상기 동작들은:
    상기 CSI 보고를 위한 적어도 하나의 참조 신호(reference signal, RS)를 기지국으로부터 수신하는 동작;
    상기 적어도 하나의 참조 신호와 관련된 정보를 인공지능(artificial intelligence, AI) 모델에 입력하여 채널 추정의 결과를 획득하는 동작; 및
    상기 채널 추정의 결과에 기초하여 상기 CSI를 상기 기지국으로 전송하는 동작을 포함하고,
    상기 AI 모델은, 복수의 파라미터(parameter) 세트를 포함하고,
    상기 복수의 파라미터 세트 각각의 크기(size)는, 상기 기지국에 의해 스케줄링된 하향링크(downlink, DL) 채널과 관련된 정보, 또는 미리 정의된 자원 그룹(resource group)과 관련된 정보에 기초하는, 프로세싱 장치.
  15. 하나 이상의 명령을 저장하는 하나 이상의 비-일시적(non-transitory) 컴퓨터 판독가능 매체로서,
    상기 하나 이상의 명령은 하나 이상의 프로세서에 의해서 실행되어, 무선 통신 시스템에서 채널 상태 정보(channel state information, CSI) 보고를 수행하는 장치가:
    상기 CSI 보고를 위한 적어도 하나의 참조 신호(reference signal, RS)를 기지국으로부터 수신하고;
    상기 적어도 하나의 참조 신호와 관련된 정보를 인공지능(artificial intelligence, AI) 모델에 입력하여 채널 추정의 결과를 획득하고; 및
    상기 채널 추정의 결과에 기초하여 상기 CSI를 상기 기지국으로 전송하도록 제어되고,
    상기 AI 모델은, 복수의 파라미터(parameter) 세트를 포함하고,
    상기 복수의 파라미터 세트 각각의 크기(size)는, 상기 기지국에 의해 스케줄링된 하향링크(downlink, DL) 채널과 관련된 정보, 또는 미리 정의된 자원 그룹(resource group)과 관련된 정보에 기초하는, 컴퓨터 판독가능 매체.
PCT/KR2022/015121 2021-10-13 2022-10-07 무선 통신 시스템에서 채널 상태 정보를 송수신하는 방법 및 장치 WO2023063655A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20210135577 2021-10-13
KR20210135578 2021-10-13
KR10-2021-0135578 2021-10-13
KR10-2021-0135577 2021-10-13

Publications (1)

Publication Number Publication Date
WO2023063655A1 true WO2023063655A1 (ko) 2023-04-20

Family

ID=85988454

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/015121 WO2023063655A1 (ko) 2021-10-13 2022-10-07 무선 통신 시스템에서 채널 상태 정보를 송수신하는 방법 및 장치

Country Status (1)

Country Link
WO (1) WO2023063655A1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190166030A1 (en) * 2012-12-05 2019-05-30 Origin Wireless, Inc. Method, apparatus, server and system for vital sign detection and monitoring
WO2021173579A1 (en) * 2020-02-24 2021-09-02 Qualcomm Incorporated Channel state information (csi) coding and decoding using neural networks

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190166030A1 (en) * 2012-12-05 2019-05-30 Origin Wireless, Inc. Method, apparatus, server and system for vital sign detection and monitoring
WO2021173579A1 (en) * 2020-02-24 2021-09-02 Qualcomm Incorporated Channel state information (csi) coding and decoding using neural networks

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CAO ZHENG; SHIH WAN-TING; GUO JIAJIA; WEN CHAO-KAI; JIN SHI: "Lightweight Convolutional Neural Networks for CSI Feedback in Massive MIMO", IEEE COMMUNICATIONS LETTERS., IEEE SERVICE CENTER, PISCATAWAY, NJ., US, vol. 25, no. 8, 29 April 2021 (2021-04-29), US , pages 2624 - 2628, XP011871283, ISSN: 1089-7798, DOI: 10.1109/LCOMM.2021.3076504 *
HAN XIAO; ZHIQIN WANG; WENQIANG TIAN; XIAOFENG LIU; WENDONG LIU; SHI JIN; JIA SHEN; ZHI ZHANG; NING YANG: "AI Enlightens Wireless Communication: Analyses, Solutions and Opportunities on CSI Feedback", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 12 June 2021 (2021-06-12), 201 Olin Library Cornell University Ithaca, NY 14853, XP081988609 *
OPPO: "Discussion on R18 study on AI/ML-based 5G enhancements", 3GPP DRAFT; RP-211809, 3RD GENERATION PARTNERSHIP PROJECT (3GPP), MOBILE COMPETENCE CENTRE ; 650, ROUTE DES LUCIOLES ; F-06921 SOPHIA-ANTIPOLIS CEDEX ; FRANCE, vol. TSG RAN, no. Electronic Meeting; 20210913 - 20210917, 6 September 2021 (2021-09-06), Mobile Competence Centre ; 650, route des Lucioles ; F-06921 Sophia-Antipolis Cedex ; France, XP052049130 *

Similar Documents

Publication Publication Date Title
WO2021162517A1 (ko) 무선 통신 시스템에서 채널 상태 정보 송수신 방법 및 장치
WO2021112592A1 (ko) 무선 통신 시스템에서 인공 지능 기반의 빔 관리 방법 및 이에 대한 장치
WO2021162522A1 (ko) 무선 통신 시스템에서 채널 상태 정보 송수신 방법 및 장치
WO2021162524A1 (ko) 무선 통신 시스템에서 채널 상태 정보 송수신 방법 및 장치
WO2019235906A1 (ko) 무선 통신 시스템에서 참조 신호 패턴을 적응적으로 설정하는 방법 및 이를 위한 장치
WO2022039481A1 (en) Method and apparatus for fast beam indication
WO2020027615A1 (en) Method and communication device for performing measurement
WO2017171507A1 (ko) 무선 통신 시스템에서의 자원 할당 방법 및 이에 기반한 데이터 수신 방법과 이를 위한 장치
WO2020080916A1 (ko) 무선 통신 시스템에서 복수의 물리 하향링크 공유 채널들을 송수신하는 방법 및 이를 위한 장치
WO2022075695A1 (ko) 무선 통신 시스템에서 채널 상태 정보를 송수신하는 방법 및 이를 위한 장치
WO2022245114A1 (en) Carrier management method, resource allocation method and related devices
WO2022169181A1 (ko) 무선 통신 시스템에서 채널 상태 정보 송수신 방법 및 장치
WO2021235572A1 (ko) 온-디바이스 학습 기반 기계 학습 네트워크를 이용한 무선 통신 방법
WO2023195742A1 (en) Method and apparatus of indicating dynamic beam switching via downlink control information
WO2023287086A1 (ko) 무선 통신 시스템에서 빔 정보를 송수신하는 방법 및 이를 위한 장치
WO2023063655A1 (ko) 무선 통신 시스템에서 채널 상태 정보를 송수신하는 방법 및 장치
WO2022197081A1 (ko) 무선 통신 시스템에서 상향링크 송수신 방법 및 장치
WO2023080636A1 (ko) 무선 통신 시스템에서 상향링크 또는 하향링크 송수신을 수행하는 방법 및 장치
WO2023068686A1 (ko) 무선 통신 시스템에서 무선 신호 송수신 방법 및 장치
WO2023055111A1 (ko) 무선 통신 시스템에서 무선 신호 송수신 방법 및 장치
WO2023136553A1 (ko) 무선 통신 시스템에서 무선 신호 송수신 방법 및 장치
WO2023080658A1 (ko) 무선 통신 시스템에서 물리 채널 송수신 방법 및 장치
WO2023136554A1 (ko) 무선 통신 시스템에서 무선 신호 송수신 방법 및 장치
WO2022265141A1 (ko) 무선 통신 시스템에서 빔 관리를 수행하는 방법 및 이를 위한 장치
WO2023287095A1 (ko) 무선 통신 시스템에서 채널 상태 정보 송수신 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22881284

Country of ref document: EP

Kind code of ref document: A1