WO2023055111A1 - 무선 통신 시스템에서 무선 신호 송수신 방법 및 장치 - Google Patents

무선 통신 시스템에서 무선 신호 송수신 방법 및 장치 Download PDF

Info

Publication number
WO2023055111A1
WO2023055111A1 PCT/KR2022/014631 KR2022014631W WO2023055111A1 WO 2023055111 A1 WO2023055111 A1 WO 2023055111A1 KR 2022014631 W KR2022014631 W KR 2022014631W WO 2023055111 A1 WO2023055111 A1 WO 2023055111A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
csi
terminal
learning algorithm
learning
Prior art date
Application number
PCT/KR2022/014631
Other languages
English (en)
French (fr)
Inventor
박해욱
강지원
김규석
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2023055111A1 publication Critical patent/WO2023055111A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines

Definitions

  • the present disclosure relates to a wireless communication system, and more particularly, to a method and apparatus for transmitting and receiving a wireless signal in a wireless communication system.
  • Mobile communication systems have been developed to provide voice services while ensuring user activity.
  • the mobile communication system has expanded its scope to data services as well as voice.
  • the explosive increase in traffic causes a shortage of resources and users demand higher-speed services, so a more advanced mobile communication system is required. there is.
  • next-generation mobile communication system The requirements of the next-generation mobile communication system are to support explosive data traffic, drastic increase in transmission rate per user, significantly increased number of connected devices, very low end-to-end latency, and high energy efficiency.
  • Dual Connectivity Massive MIMO (Massive Multiple Input Multiple Output), In-band Full Duplex, Non-Orthogonal Multiple Access (NOMA), Super Wideband Wideband) support, various technologies such as device networking (Device Networking) are being studied.
  • Massive MIMO Massive Multiple Input Multiple Output
  • NOMA Non-Orthogonal Multiple Access
  • Super Wideband Wideband various technologies such as device networking (Device Networking) are being studied.
  • a technical problem of the present disclosure is to provide a method and apparatus for transmitting and receiving a radio signal in a wireless communication system.
  • an additional technical problem of the present disclosure is to provide a method and apparatus for transmitting and receiving information related to artificial intelligence (AI)/machine learning (ML)-based learning algorithms in an evolved wireless communication system.
  • AI artificial intelligence
  • ML machine learning
  • a method for performing channel state information (CSI) reporting by a terminal in a wireless communication system includes receiving information about a learning algorithm related to the CSI reporting; Receiving at least one reference signal for the CSI reporting; performing channel estimation based on the at least one reference signal and the information; and transmitting CSI based on a result of the channel estimation.
  • the information may include at least one of identification information on a type or model of the learning algorithm, or an operation-related parameter for the learning algorithm.
  • a method for receiving a channel state information (CSI) report by a network device in a wireless communication system includes transmitting information about a learning algorithm related to the CSI report ; Transmitting at least one reference signal for the CSI reporting; and receiving CSI by channel estimation based on the at least one reference signal and the information.
  • the information may include at least one of identification information on a type or model of the learning algorithm, or an operation-related parameter for the learning algorithm.
  • optimized channel estimation may be supported through sharing of an AI/ML-based learning algorithm/model between a base station and a terminal.
  • FIG. 1 illustrates the structure of a wireless communication system to which the present disclosure may be applied.
  • FIG. 2 illustrates a frame structure in a wireless communication system to which the present disclosure can be applied.
  • FIG 3 illustrates a resource grid in a wireless communication system to which the present disclosure may be applied.
  • FIG. 4 illustrates a physical resource block in a wireless communication system to which the present disclosure may be applied.
  • FIG. 5 illustrates a slot structure in a wireless communication system to which the present disclosure may be applied.
  • FIG. 6 illustrates physical channels used in a wireless communication system to which the present disclosure can be applied and a general signal transmission/reception method using them.
  • FIG. 7 illustrates a multiple TRP transmission scheme in a wireless communication system to which the present disclosure can be applied.
  • FIG. 8 is a diagram illustrating a downlink transmission/reception operation in a wireless communication system to which the present disclosure may be applied.
  • FIG. 9 is a diagram illustrating an uplink transmission/reception operation in a wireless communication system to which the present disclosure may be applied.
  • FIG. 11 illustrates a Feed-Forward Neural Network.
  • FIG. 13 illustrates a convolutional neural network
  • 16 is a diagram illustrating segmented AI inference.
  • FIG. 17 illustrates the application of a functional framework in a wireless communication system.
  • FIG. 20 illustrates a 1D CNN structure for AI/ML-based channel estimation in a wireless communication system to which the present disclosure can be applied.
  • 21 illustrates an output value estimation method in a 1D CNN structure for AI/ML-based channel estimation in a wireless communication system to which the present disclosure can be applied.
  • FIG. 22 illustrates a 2D CNN structure for AI/ML-based channel estimation in a wireless communication system to which the present disclosure can be applied.
  • FIG. 23 illustrates an output value estimation method in a 2D CNN structure for AI/ML-based channel estimation in a wireless communication system to which the present disclosure can be applied.
  • FIG. 24 illustrates padding and pooling in a CNN structure for channel estimation based on AI/ML in a wireless communication system to which the present disclosure can be applied.
  • 25 is a diagram illustrating a signaling procedure between a base station and a terminal for a method for reporting channel state information according to an embodiment of the present disclosure.
  • 26 is a diagram illustrating an operation of a terminal for a method for reporting channel state information according to an embodiment of the present disclosure.
  • 27 is a diagram illustrating an operation of a network device for a method for reporting channel state information according to an embodiment of the present disclosure.
  • FIG. 28 illustrates a block configuration diagram of a wireless communication device according to an embodiment of the present disclosure.
  • first and second are used only for the purpose of distinguishing one component from another component and are not used to limit the components, unless otherwise specified. The order or importance among them is not limited. Accordingly, within the scope of the present disclosure, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly, a second component in one embodiment may be referred to as a first component in another embodiment. can also be called
  • the present disclosure describes a wireless communication network or wireless communication system, and operations performed in the wireless communication network control the network and transmit or receive signals in a device (for example, a base station) in charge of the wireless communication network. It can be done in the process of receiving (receive) or in the process of transmitting or receiving signals from a terminal coupled to the wireless network to or between terminals.
  • a device for example, a base station
  • transmitting or receiving a channel includes the meaning of transmitting or receiving information or a signal through a corresponding channel.
  • transmitting a control channel means transmitting control information or a signal through the control channel.
  • transmitting a data channel means transmitting data information or a signal through the data channel.
  • downlink means communication from a base station to a terminal
  • uplink means communication from a terminal to a base station.
  • a transmitter may be part of a base station and a receiver may be part of a terminal.
  • a transmitter may be a part of a terminal and a receiver may be a part of a base station.
  • a base station may be expressed as a first communication device
  • a terminal may be expressed as a second communication device.
  • a base station includes a fixed station, a Node B, an evolved-NodeB (eNB), a Next Generation NodeB (gNB), a base transceiver system (BTS), an access point (AP), and a network (5G Network), AI (Artificial Intelligence) system/module, RSU (road side unit), robot, drone (UAV: Unmanned Aerial Vehicle), AR (Augmented Reality) device, VR (Virtual Reality) device, etc.
  • AI Artificial Intelligence
  • RSU road side unit
  • robot UAV: Unmanned Aerial Vehicle
  • AR Algmented Reality
  • VR Virtual Reality
  • a terminal may be fixed or mobile, and a user equipment (UE), a mobile station (MS), a user terminal (UT), a mobile subscriber station (MSS), a subscriber station (SS), and an advanced mobile (AMS) Station), WT (Wireless terminal), MTC (Machine-Type Communication) device, M2M (Machine-to-Machine) device, D2D (Device-to-Device) device, vehicle, RSU (road side unit), It can be replaced with terms such as robot, AI (Artificial Intelligence) module, drone (UAV: Unmanned Aerial Vehicle), AR (Augmented Reality) device, VR (Virtual Reality) device, etc.
  • AI Artificial Intelligence
  • drone UAV: Unmanned Aerial Vehicle
  • AR Algmented Reality
  • VR Virtual Reality
  • CDMA may be implemented with a radio technology such as Universal Terrestrial Radio Access (UTRA) or CDMA2000.
  • TDMA may be implemented with a radio technology such as Global System for Mobile communications (GSM)/General Packet Radio Service (GPRS)/Enhanced Data Rates for GSM Evolution (EDGE).
  • GSM Global System for Mobile communications
  • GPRS General Packet Radio Service
  • EDGE Enhanced Data Rates for GSM Evolution
  • OFDMA may be implemented with radio technologies such as IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802-20, and Evolved UTRA (E-UTRA).
  • UTRA is part of the Universal Mobile Telecommunications System (UMTS).
  • 3rd Generation Partnership Project (3GPP) Long Term Evolution (LTE) is a part of Evolved UMTS (E-UMTS) using E-UTRA
  • LTE-A (Advanced) / LTE-A pro is an evolved version of 3GPP LTE.
  • 3GPP NR New Radio or New Radio Access Technology
  • 3GPP LTE/LTE-A/LTE-A pro is an evolved version of 3GPP LTE/LTE-A/LTE-A pro.
  • LTE refers to technology after 3GPP Technical Specification (TS) 36.xxx Release 8.
  • TS Technical Specification
  • LTE technology after 3GPP TS 36.xxx Release 10 is referred to as LTE-A
  • LTE technology after 3GPP TS 36.xxx Release 13 is referred to as LTE-A pro
  • 3GPP NR refers to technology after TS 38.xxx Release 15.
  • LTE/NR may be referred to as a 3GPP system.
  • "xxx" means standard document detail number.
  • LTE/NR may be collectively referred to as a 3GPP system.
  • TS 36.211 Physical Channels and Modulation
  • TS 36.212 Multiplexing and Channel Coding
  • TS 36.213 Physical Layer Procedures
  • TS 36.300 General Description
  • TS 36.331 Radio Resource Control
  • TS 38.211 Physical Channels and Modulation
  • TS 38.212 Multiplexing and Channel Coding
  • TS 38.213 Physical Layer Procedures for Control
  • TS 38.214 Physical Layer Procedures for Data
  • TS 38.300 General description of NR and New Generation-Radio Access Network (NG-RAN)
  • TS 38.331 Radio Resource Control Protocol Specification
  • channel state information - reference signal resource indicator channel state information - reference signal resource indicator
  • channel state information - reference signal channel state information - reference signal
  • Layer 1 reference signal received quality Layer 1 reference signal received quality
  • orthogonal frequency division multiplexing orthogonal frequency division multiplexing (orthogonal frequency division multiplexing)
  • radio resource control radio resource control
  • Synchronization signal block including primary synchronization signal (PSS), secondary synchronization signal (SSS) and physical broadcast channel (PBCH)
  • NR is an expression showing an example of 5G RAT.
  • a new RAT system including NR uses an OFDM transmission scheme or a transmission scheme similar thereto.
  • the new RAT system may follow OFDM parameters different from those of LTE.
  • the new RAT system follows the numerology of the existing LTE/LTE-A as it is, but may support a larger system bandwidth (eg, 100 MHz).
  • one cell may support a plurality of numerologies. That is, terminals operating with different numerologies can coexist in one cell.
  • a numerology corresponds to one subcarrier spacing in the frequency domain.
  • Different numerologies can be defined by scaling the reference subcarrier spacing by an integer N.
  • FIG. 1 illustrates the structure of a wireless communication system to which the present disclosure may be applied.
  • the NG-RAN is a NG-RA (NG-Radio Access) user plane (ie, a new AS (access stratum) sublayer / PDCP (Packet Data Convergence Protocol) / RLC (Radio Link Control) / MAC / PHY) and control plane (RRC) protocol termination to the UE.
  • the gNBs are interconnected through an Xn interface.
  • the gNB is also connected to a New Generation Core (NGC) through an NG interface. More specifically, the gNB is connected to an Access and Mobility Management Function (AMF) through an N2 interface and to a User Plane Function (UPF) through an N3 interface.
  • AMF Access and Mobility Management Function
  • UPF User Plane Function
  • FIG. 2 illustrates a frame structure in a wireless communication system to which the present disclosure can be applied.
  • An NR system can support multiple numerologies.
  • numerology may be defined by subcarrier spacing and Cyclic Prefix (CP) overhead.
  • the multiple subcarrier spacing can be derived by scaling the basic (reference) subcarrier spacing by an integer N (or ⁇ ).
  • N or ⁇
  • the numerology used can be selected independently of the frequency band.
  • various frame structures according to a plurality of numerologies may be supported.
  • OFDM numerology and frame structure that can be considered in the NR system will be described.
  • Multiple OFDM numerologies supported in the NR system can be defined as shown in Table 1 below.
  • NR supports multiple numerologies (or subcarrier spacing (SCS)) to support various 5G services. For example, when the SCS is 15 kHz, it supports a wide area in traditional cellular bands, and when the SCS is 30 kHz/60 kHz, dense-urban, lower latency and a wider carrier bandwidth, and when the SCS is 60 kHz or higher, a bandwidth greater than 24.25 GHz is supported to overcome phase noise.
  • SCS subcarrier spacing
  • the NR frequency band is defined as two types of frequency ranges (FR1 and FR2).
  • FR1 and FR2 may be configured as shown in Table 2 below.
  • FR2 may mean millimeter wave (mmW).
  • ⁇ f max 480 10 3 Hz
  • N f 4096.
  • T TA (N TA +N TA,offset )T c before the start of the corresponding downlink frame in the corresponding terminal.
  • slots are numbered in increasing order of n s ⁇ ⁇ 0,..., N slot subframe, ⁇ -1 ⁇ within a subframe, and within a radio frame They are numbered in increasing order n s,f ⁇ ⁇ 0,..., N slot frame, ⁇ -1 ⁇ .
  • One slot is composed of consecutive OFDM symbols of N symb slots , and N symb slots are determined according to CP.
  • the start of slot n s ⁇ in a subframe is temporally aligned with the start of OFDM symbol n s ⁇ N symb slot in the same subframe. Not all terminals can simultaneously transmit and receive, which means that not all OFDM symbols in a downlink slot or uplink slot can be used.
  • Table 3 shows the number of OFDM symbols per slot (N symb slot ), the number of slots per radio frame (N slot frame, ⁇ ), and the number of slots per subframe (N slot subframe, ⁇ ) in the general CP.
  • Table 4 represents the number of OFDM symbols per slot, the number of slots per radio frame, and the number of slots per subframe in the extended CP.
  • one subframe may include 4 slots.
  • a mini-slot may contain 2, 4 or 7 symbols, more or fewer symbols.
  • an antenna port a resource grid, a resource element, a resource block, a carrier part, etc. can be considered Hereinafter, the physical resources that can be considered in the NR system will be described in detail.
  • the antenna port is defined such that the channel on which a symbol on the antenna port is carried can be inferred from the channel on which other symbols on the same antenna port are carried. If the large-scale properties of the channel on which the symbols on one antenna port are carried can be inferred from the channel on which the symbols on the other antenna port are carried, then the two antenna ports are quasi co-located or QC/QCL (quasi co-located or quasi co-location).
  • the wide range characteristic includes one or more of delay spread, Doppler spread, frequency shift, average received power, and received timing.
  • FIG 3 illustrates a resource grid in a wireless communication system to which the present disclosure may be applied.
  • a resource grid is composed of N RB ⁇ N sc RB subcarriers in the frequency domain, and one subframe is composed of 14 2 ⁇ OFDM symbols.
  • a transmitted signal is described by one or more resource grids consisting of N RB ⁇ N sc RB subcarriers and 2 ⁇ N symb ( ⁇ ) OFDM symbols.
  • N RB ⁇ ⁇ N RB max, ⁇ The N RB max, ⁇ represents the maximum transmission bandwidth, which may vary not only between numerologies but also between uplink and downlink.
  • one resource grid may be set for each ⁇ and antenna port p.
  • Each element of the resource grid for ⁇ and antenna port p is referred to as a resource element and is uniquely identified by an index pair (k, l').
  • l' 0,...,2 ⁇ N symb ( ⁇ ) -1 is a symbol in a subframe indicates the location of
  • an index pair (k, l) is used.
  • l 0,...,N symb ⁇ -1.
  • the resource element (k,l') for ⁇ and antenna port p corresponds to a complex value a k,l' (p, ⁇ ) .
  • indices p and ⁇ may be dropped, resulting in a complex value of a k,l' (p) or It can be a k,l' .
  • Point A serves as a common reference point of the resource block grid and is obtained as follows.
  • OffsetToPointA for primary cell (PCell) downlink represents the frequency offset between point A and the lowest subcarrier of the lowest resource block overlapping the SS/PBCH block used by the UE for initial cell selection. It is expressed in resource block units assuming a 15 kHz subcarrier spacing for FR1 and a 60 kHz subcarrier spacing for FR2.
  • -absoluteFrequencyPointA represents the frequency-position of point A expressed as in ARFCN (absolute radio-frequency channel number).
  • Common resource blocks are numbered upward from 0 in the frequency domain for the subcarrier spacing ⁇ .
  • the center of subcarrier 0 of common resource block 0 for subcarrier spacing setting ⁇ coincides with 'point A'.
  • the relationship between the common resource block number n CRB ⁇ and the resource elements (k, l) for the subcarrier spacing ⁇ is given by Equation 1 below.
  • Physical resource blocks are numbered from 0 to N BWP,i size, ⁇ -1 within a bandwidth part (BWP), where i is the number of BWP.
  • BWP bandwidth part
  • Equation 2 The relationship between the physical resource block n PRB and the common resource block n CRB in BWP i is given by Equation 2 below.
  • N BWP,i start, ⁇ is a common resource block where BWP starts relative to common resource block 0.
  • Figure 4 illustrates a physical resource block in a wireless communication system to which the present disclosure may be applied.
  • Figure 5 illustrates a slot structure in a wireless communication system to which the present disclosure can be applied.
  • a slot includes a plurality of symbols in the time domain. For example, in the case of a normal CP, one slot includes 7 symbols, but in the case of an extended CP, one slot includes 6 symbols.
  • a carrier includes a plurality of subcarriers in the frequency domain.
  • a resource block (RB) is defined as a plurality of (eg, 12) consecutive subcarriers in the frequency domain.
  • a bandwidth part (BWP) is defined as a plurality of contiguous (physical) resource blocks in the frequency domain, and may correspond to one numerology (eg, SCS, CP length, etc.).
  • a carrier may include up to N (eg, 5) BWPs. Data communication is performed through an activated BWP, and only one BWP can be activated for one terminal.
  • Each element in the resource grid is referred to as a resource element (RE), and one complex symbol may be mapped.
  • RE resource element
  • the NR system can support up to 400 MHz per component carrier (CC). If a terminal operating in such a wideband CC always operates with radio frequency (RF) chips for the entire CC turned on, battery consumption of the terminal may increase.
  • a terminal operating in such a wideband CC always operates with radio frequency (RF) chips for the entire CC turned on, battery consumption of the terminal may increase.
  • RF radio frequency
  • different numerologies eg subcarrier spacing, etc.
  • the capability for the maximum bandwidth may be different for each terminal.
  • the base station may instruct the terminal to operate only in a part of the bandwidth rather than the entire bandwidth of the wideband CC, and the part of the bandwidth is defined as a bandwidth part (BWP) for convenience.
  • BWP may be composed of consecutive RBs on the frequency axis and may correspond to one numerology (eg, subcarrier spacing, CP length, slot/mini-slot period).
  • the base station may set multiple BWPs even within one CC configured for the terminal. For example, in a PDCCH monitoring slot, a BWP occupying a relatively small frequency domain may be set, and a PDSCH indicated by the PDCCH may be scheduled on a larger BWP. Alternatively, when UEs are concentrated in a specific BWP, some UEs may be set to other BWPs for load balancing. Alternatively, considering frequency domain inter-cell interference cancellation between neighboring cells, some of the spectrum among the entire bandwidth may be excluded and both BWPs may be configured even within the same slot. That is, the base station may configure at least one DL/UL BWP for a terminal associated with a wideband CC.
  • the base station may activate at least one DL/UL BWP among the configured DL/UL BWP(s) at a specific time (by L1 signaling or MAC Control Element (CE) or RRC signaling).
  • the base station may indicate switching to another configured DL / UL BWP (by L1 signaling or MAC CE or RRC signaling).
  • a timer value expires based on a timer, it may be switched to a predetermined DL/UL BWP.
  • the activated DL/UL BWP is defined as an active DL/UL BWP.
  • the terminal In situations such as when the terminal is performing an initial access process or before an RRC connection is set up, it may not be possible to receive the configuration for DL / UL BWP, so in this situation, the terminal This assumed DL/UL BWP is defined as the first active DL/UL BWP.
  • FIG. 6 illustrates physical channels used in a wireless communication system to which the present disclosure can be applied and a general signal transmission/reception method using them.
  • a terminal receives information from a base station through downlink, and the terminal transmits information to the base station through uplink.
  • Information transmitted and received between the base station and the terminal includes data and various control information, and various physical channels exist according to the type/use of the information transmitted and received by the base station and the terminal.
  • the terminal When the terminal is turned on or newly enters a cell, the terminal performs an initial cell search operation such as synchronizing with the base station (S601). To this end, the terminal synchronizes with the base station by receiving a primary synchronization signal (PSS) and a secondary synchronization signal (SSS) from the base station, and obtains information such as a cell identifier (ID: Identifier). can Thereafter, the UE may acquire intra-cell broadcast information by receiving a Physical Broadcast Channel (PBCH) from the base station. Meanwhile, the terminal may check the downlink channel state by receiving a downlink reference signal (DL RS) in the initial cell search step.
  • PSS primary synchronization signal
  • SSS secondary synchronization signal
  • ID cell identifier
  • the UE may acquire intra-cell broadcast information by receiving a Physical Broadcast Channel (PBCH) from the base station.
  • PBCH Physical Broadcast Channel
  • the terminal may check the downlink channel state by receiving a downlink reference signal (DL RS) in the initial cell
  • the UE After completing the initial cell search, the UE acquires more detailed system information by receiving a Physical Downlink Control Channel (PDCCH) and a Physical Downlink Control Channel (PDSCH) according to information carried on the PDCCH. It can (S602).
  • PDCCH Physical Downlink Control Channel
  • PDSCH Physical Downlink Control Channel
  • the terminal may perform a random access procedure (RACH) to the base station (steps S603 to S606).
  • RACH random access procedure
  • the terminal may transmit a specific sequence as a preamble through a physical random access channel (PRACH) (S603 and S605), and receive a response message to the preamble through a PDCCH and a corresponding PDSCH ( S604 and S606).
  • PRACH physical random access channel
  • a contention resolution procedure may be additionally performed.
  • the UE receives PDCCH/PDSCH as a general uplink/downlink signal transmission procedure (S607) and Physical Uplink Shared Channel (PUSCH)/Physical Uplink Control Channel (PUCCH: Physical Uplink Control Channel) transmission (S608) may be performed.
  • the terminal receives downlink control information (DCI) through the PDCCH.
  • DCI downlink control information
  • the DCI includes control information such as resource allocation information for a terminal, and has different formats depending on its purpose of use.
  • the control information that the terminal transmits to the base station through the uplink or the terminal receives from the base station is a downlink / uplink ACK / NACK (Acknowledgement / Non-Acknowledgement) signal, CQI (Channel Quality Indicator), PMI (Precoding Matrix) Indicator), RI (Rank Indicator), etc.
  • a terminal may transmit control information such as the above-described CQI/PMI/RI through PUSCH and/or PUCCH.
  • Table 5 shows an example of a DCI format in the NR system.
  • DCI format uses 0_0 Scheduling of PUSCH in one cell 0_1 Scheduling of one or multiple PUSCHs in one cell, or indication of cell group (CG) downlink feedback information to the UE 0_2 Scheduling of PUSCH in one cell 1_0 Scheduling of PDSCH in one DL cell 1_1 Scheduling of PDSCH in one cell 1_2 Scheduling of PDSCH in one cell
  • DCI formats 0_0, 0_1, and 0_2 are resource information related to PUSCH scheduling (eg, UL/SUL (Supplementary UL), frequency resource allocation, time resource allocation, frequency hopping, etc.), transport block ( TB: Transport Block) related information (eg, MCS (Modulation Coding and Scheme), NDI (New Data Indicator), RV (Redundancy Version), etc.), HARQ (Hybrid - Automatic Repeat and request) related information (eg, , process number, downlink assignment index (DAI), PDSCH-HARQ feedback timing, etc.), multi-antenna related information (eg, DMRS sequence initialization information, antenna port, CSI request, etc.), power control information (eg, PUSCH power control, etc.), and control information included in each DCI format may be predefined.
  • PUSCH scheduling eg, UL/SUL (Supplementary UL), frequency resource allocation, time resource allocation, frequency hopping, etc.
  • DCI format 0_0 is used for PUSCH scheduling in one cell.
  • Information included in DCI format 0_0 is a cyclic redundancy check (CRC) by C-RNTI (Cell RNTI: Cell Radio Network Temporary Identifier), CS-RNTI (Configured Scheduling RNTI) or MCS-C-RNTI (Modulation Coding Scheme Cell RNTI) ) is scrambled and transmitted.
  • CRC cyclic redundancy check
  • C-RNTI Cell RNTI: Cell Radio Network Temporary Identifier
  • CS-RNTI Configured Scheduling RNTI
  • MCS-C-RNTI Modulation Coding Scheme Cell RNTI
  • DCI format 0_1 is used to instruct the UE to schedule one or more PUSCHs in one cell or configured grant (CG: configure grant) downlink feedback information.
  • Information included in DCI format 0_1 is transmitted after being CRC scrambled by C-RNTI, CS-RNTI, SP-CSI-RNTI (Semi-Persistent CSI RNTI) or MCS-C-RNTI.
  • DCI format 0_2 is used for PUSCH scheduling in one cell.
  • Information included in DCI format 0_2 is transmitted after being CRC scrambled by C-RNTI, CS-RNTI, SP-CSI-RNTI or MCS-C-RNTI.
  • DCI formats 1_0, 1_1, and 1_2 are resource information related to PDSCH scheduling (eg, frequency resource allocation, time resource allocation, VRB (virtual resource block)-PRB (physical resource block) mapping, etc.), transport block (TB) related information (eg, MCS, NDI, RV, etc.), HARQ related information (eg, process number, DAI, PDSCH-HARQ feedback timing, etc.), multi-antenna related information (eg, antenna port , transmission configuration indicator (TCI), sounding reference signal (SRS) request, etc.), PUCCH-related information (eg, PUCCH power control, PUCCH resource indicator, etc.), and the control information included in each DCI format can be predefined.
  • PDSCH scheduling eg, frequency resource allocation, time resource allocation, VRB (virtual resource block)-PRB (physical resource block) mapping, etc.
  • transport block (TB) related information eg, MCS, NDI, RV, etc.
  • HARQ related information
  • DCI format 1_0 is used for PDSCH scheduling in one DL cell.
  • Information included in DCI format 1_0 is transmitted after being CRC scrambled by C-RNTI, CS-RNTI or MCS-C-RNTI.
  • DCI format 1_1 is used for PDSCH scheduling in one cell.
  • Information included in DCI format 1_1 is transmitted after being CRC scrambled by C-RNTI, CS-RNTI or MCS-C-RNTI.
  • DCI format 1_2 is used for PDSCH scheduling in one cell.
  • Information included in DCI format 1_2 is transmitted after being CRC scrambled by C-RNTI, CS-RNTI or MCS-C-RNTI.
  • CoMP Coordinated Multi Point
  • a plurality of base stations exchange channel information (eg, RI/CQI/PMI/layer indicator (LI)) received as feedback from a terminal (eg, It refers to a method of effectively controlling interference by cooperatively transmitting to a terminal by using or utilizing the X2 interface.
  • CoMP includes joint transmission (JT), coordinated scheduling (CS), coordinated beamforming (CB), dynamic point selection (DPS), and dynamic point blocking ( DPB: Dynamic Point Blocking).
  • the M-TRP transmission method in which M TRPs transmit data to one terminal is largely divided into i) eMBB M-TRP transmission, which is a method for increasing the transmission rate, and ii) URLLC M, which is a method for increasing the reception success rate and reducing latency. It can be classified as -TRP transmission.
  • the M-TRP transmission method is i) multiple DCI (M-DCI) based M-TRP transmission in which each TRP transmits a different DCI and ii) S-DCI in which one TRP transmits DCI (single DCI) based M-TRP transmission.
  • M-DCI multiple DCI
  • S-DCI single DCI
  • scheme 3/4 is under standardization discussion.
  • scheme 4 means a method in which one TRP transmits a transport block (TB) in one slot, and has an effect of increasing the probability of data reception through the same TB received from multiple TRPs in multiple slots.
  • Scheme 3 means a method in which one TRP transmits TB through several consecutive OFDM symbols (ie, symbol groups), and several TRPs within one slot transmit the same TB through different symbol groups. can be set to transmit.
  • the UE transmits the PUSCH (or PUCCH) scheduled by the DCI received with different control resource sets (CORESETs) (or CORESETs belonging to different CORESET groups) to different TRPs. , or may be recognized as PDSCH (or PDCCH) of different TRPs.
  • CORESETs control resource sets
  • PDSCH or PDCCH
  • a scheme for UL transmission eg, PUSCH/PUCCH
  • UL transmission eg, PUSCH/PUCCH
  • MTRP-URLLC may mean that the same transport block (TB) is transmitted using a different layer/time/frequency of the M-TRP.
  • a UE configured for the MTRP-URLLC transmission method may be instructed by DCI of various TCI state(s), and it may be assumed that data received using the QCL RS of each TCI state are the same TB.
  • MTRP-eMBB may mean that M-TRP transmits another TB using a different layer/time/frequency. It can be assumed that the UE configured for the MTRP-eMBB transmission method receives several TCI state(s) through DCI, and data received using the QCL RS of each TCI state is a different TB.
  • the UE separately uses the RNTI set for MTRP-URLLC and the RNTI set for MTRP-eMBB, it is possible to determine/determine whether the corresponding M-TRP transmission is URLLC transmission or eMBB transmission. That is, if CRC masking of the DCI received by the UE is performed using the RNTI set for MTRP-URLLC, this corresponds to URLLC transmission, and CRC masking of DCI is performed using the RNTI set for MTRP-eMBB , this may correspond to eMBB transmission.
  • the CORESET group identifier (group ID) described/mentioned in the present disclosure may mean an index/identification information (eg, ID) for distinguishing CORESETs for each TRP/panel.
  • the CORESET group may be a group/union of CORESETs classified by an index/identification information (eg, ID)/the CORESET group ID for distinguishing CORESETs for each TRP/panel.
  • the CORESET group ID may be specific index information defined in CORSET configuration.
  • the CORESET group can be set/instructed/defined by an index defined in the CORESET configuration for each CORESET.
  • the CORESET group ID may mean an index/identification information/indicator for classifying/identifying between CORESETs set/related to each TRP/panel.
  • the CORESET group ID described/mentioned in the present disclosure may be expressed by being replaced with a specific index/specific identification information/specific indicator for distinguishing/identifying between CORESETs set/related to each TRP/panel.
  • the CORESET group ID that is, a specific index/specific identification information/specific indicator for distinguishing/identifying between CORESETs set in/associated with each TRP/panel, is higher layer signaling (eg, RRC signaling)/second It may be set/instructed to the UE through layer signaling (L2 signaling, eg, MAC-CE)/first layer signaling (L1 signaling, eg, DCI).
  • L2 signaling eg, MAC-CE
  • L1 signaling eg, DCI
  • PDCCH detection may be performed for each TRP/panel (ie, for each TRP/panel belonging to the same CORESET group) in units of a corresponding CORESET group.
  • Uplink control information eg, CSI, HARQ-A / N (ACK / NACK), SR (for example, CSI, HARQ-A / N (ACK / NACK), SR (for each TRP / panel belonging to the same CORESET group) for each TRP / panel per CORESET group)) scheduling request
  • uplink physical channel resources eg, PUCCH/PRACH/SRS resources
  • a ControlResourceSet information element which is a higher layer parameter, is used to set a time/frequency control resource set (CORESET).
  • the control resource set (CORESET) may be related to detection and reception of downlink control information.
  • the ControlResourceSet IE is a CORESET related ID (eg, controlResourceSetID) / index of a CORESET pool for CORESET (eg, CORESETPoolIndex) / time / frequency resource setting of CORESET / TCI information related to CORESET, etc. can include
  • the index of the CORESET pool (eg, CORESETPoolIndex) may be set to 0 or 1.
  • the CORESET group may correspond to a CORESET pool
  • the CORESET group ID may correspond to a CORESET pool index (eg, CORESETPoolIndex).
  • Non-coherent joint transmission is a method in which multiple transmission points (TPs) transmit data to one terminal using the same time and frequency resources. Data is transmitted through different layers (ie, different DMRS ports).
  • the TP delivers data scheduling information to the terminal receiving the NCJT through DCI.
  • a method in which each TP participating in NCJT transfers scheduling information for data transmitted by itself to DCI is referred to as 'multi DCI based NCJT'. Since the N TPs participating in NCJT transmission transmit DL grant DCIs and PDSCHs to the UE, the UE receives N DCIs and N PDSCHs from the N TPs. Unlike this, a method in which one representative TP transfers scheduling information for data transmitted by itself and data transmitted by other TPs (ie, TPs participating in NCJT) to one DCI is referred to as 'single DCI based NCJT'. )'.
  • N TPs transmit one PDSCH, but each TP transmits only some layers of multiple layers constituting one PDSCH. For example, when 4 layer data is transmitted, TP 1 may transmit layer 2 and TP 2 may transmit the remaining 2 layers to the UE.
  • NCJP partially overlapped NCJP
  • NCJT can be divided into a fully overlapped NCJT in which time-frequency resources transmitted by each TP completely overlap and a partially overlapped NCJT in which only some time-frequency resources are overlapped. That is, in the case of partially overlapped NCJT, both data of TP 1 and TP2 are transmitted in some time-frequency resources, and only data of one of TP 1 or TP 2 is transmitted in the remaining time-frequency resources.
  • the following two methods can be considered as transmission/reception methods for improving reliability using transmission in multiple TRPs.
  • FIG. 7 illustrates a multiple TRP transmission scheme in a wireless communication system to which the present disclosure can be applied.
  • the layer group may mean one or a predetermined layer set composed of one or more layers.
  • the amount of transmission resources increases due to the number of layers, and through this, there is an advantage that robust channel coding of a low code rate can be used for TB, and also, since the channels are different from multiple TRPs, diversity ), the reliability of the received signal can be expected to be improved based on the gain.
  • FIG. 7(b) an example of transmitting different CWs through layer groups corresponding to different TRPs is shown.
  • TBs corresponding to CW #1 and CW #2 in the figure are the same. That is, CW #1 and CW #2 mean that the same TB is converted into different CWs through channel coding or the like by different TRPs. Therefore, it can be regarded as an example of repeated transmission of the same TB.
  • a code rate corresponding to TB may be higher than that of FIG. 7(a).
  • the code rate can be adjusted by indicating different RV (redundancy version) values for the encoded bits generated from the same TB, or the modulation order of each CW can be adjusted. has the advantage of being
  • the same TB is repeatedly transmitted through different layer groups, and as each layer group is transmitted by different TRP / panel, the terminal receives data can increase your odds.
  • This is referred to as a Spatial Division Multiplexing (SDM) based M-TRP URLLC transmission scheme.
  • SDM Spatial Division Multiplexing
  • Layers belonging to different layer groups are transmitted through DMRS ports belonging to different DMRS CDM groups.
  • FIG. 8 is a diagram illustrating a downlink transmission/reception operation in a wireless communication system to which the present disclosure may be applied.
  • the base station schedules downlink transmission such as frequency/time resources, transport layer, downlink precoder, and MCS (S1401).
  • the base station may determine a beam for PDSCH transmission to the terminal through the above-described operations.
  • the UE receives DCI for downlink scheduling (ie, including PDSCH scheduling information) on the PDCCH from the base station (S1402).
  • DCI for downlink scheduling ie, including PDSCH scheduling information
  • DCI format 1_0, 1_1 or 1_2 may be used for downlink scheduling, and in particular, DCI format 1_1 includes the following information: DCI format identifier (Identifier for DCI formats), bandwidth part indicator, Frequency domain resource assignment, time domain resource assignment, PRB bundling size indicator, rate matching indicator, ZP CSI-RS trigger (ZP CSI -RS trigger), antenna port(s), transmission configuration indication (TCI), SRS request, demodulation reference signal (DMRS) sequence initialization (DMRS sequence initialization)
  • the number of DMRS ports can be scheduled, and SU (Single-user) / MU (Multi-user) transmission scheduling is possible.
  • the TCI field is composed of 3 bits, and the QCL for the DMRS is dynamically indicated by indicating up to 8 TCI states according to the TCI field value.
  • the terminal receives downlink data from the base station on the PDSCH (S1403).
  • the PDSCH is decoded according to an instruction by the corresponding DCI.
  • the UE may set the DMRS configuration type by the upper layer parameter 'dmrs-Type', and the DMRS type is used to receive the PDSCH.
  • the maximum number of front-loaded DMRA symbols for the PDSCH may be set by the upper layer parameter 'maxLength'.
  • DMRS configuration type 1 if a single codeword is scheduled for a UE and an antenna port mapped with an index of ⁇ 2, 9, 10, 11, or 30 ⁇ is designated, or a single codeword is scheduled and ⁇ 2, If an antenna port mapped with an index of 9, 10, 11, or 12 ⁇ or ⁇ 2, 9, 10, 11, 30, or 31 ⁇ is specified, or if two codewords are scheduled for a UE, the UE selects all remaining orthogonal It is assumed that one antenna port is not associated with PDSCH transmission to another terminal.
  • DMRS configuration type 2 if a single codeword is scheduled for the UE and an antenna port mapped with an index of ⁇ 2, 10, or 23 ⁇ is designated, or a single codeword is scheduled and ⁇ 2, 10, If an antenna port mapped with an index of 23 or 24 ⁇ or ⁇ 2, 10, 23, or 58 ⁇ is specified, or if two codewords are scheduled for a UE, the UE transmits all remaining orthogonal antenna ports to another UE. It is assumed that it is not associated with PDSCH transmission of
  • the precoding granularity P' is a contiguous resource block in the frequency domain.
  • P' may correspond to one of ⁇ 2, 4, broadband ⁇ .
  • P' is determined as wideband, the UE does not expect to be scheduled with non-contiguous PRBs, and the UE can assume that the same precoding is applied to the allocated resource.
  • the Precoding Resource Block Group (PRG) is divided into P' consecutive PRBs.
  • the number of actually consecutive PRBs in each PRG may be one or more.
  • the UE may assume that the same precoding is applied to consecutive downlink PRBs in the PRG.
  • the UE In order for the UE to determine the modulation order, target code rate, and transport block size in the PDSCH, the UE first reads the 5-bit MCD field in the DCI, and modulates the modulation order and target code determine the rate. Then, the redundancy version field in the DCI is read, and the redundancy version is determined. And, the UE determines the transport block size using the number of layers and the total number of allocated PRBs before rate matching.
  • FIG. 9 is a diagram illustrating an uplink transmission/reception operation in a wireless communication system to which the present disclosure may be applied.
  • the base station schedules uplink transmission such as frequency/time resources, transport layers, uplink precoders, and MCS (S1501).
  • the base station may determine a beam for the UE to transmit the PUSCH through the above-described operations.
  • the terminal receives DCI for uplink scheduling (ie, including PUSCH scheduling information) from the base station on the PDCCH (S1502).
  • DCI for uplink scheduling ie, including PUSCH scheduling information
  • DCI format 0_0, 0_1 or 0_2 may be used for uplink scheduling, and in particular, DCI format 0_1 includes the following information: DCI format identifier (Identifier for DCI formats), UL/SUL (Supplementary uplink) indicator ( UL / SUL indicator), bandwidth part indicator, frequency domain resource assignment, time domain resource assignment, frequency hopping flag, modulation and coding scheme (MCS: Modulation and coding scheme), SRS resource indicator (SRI), precoding information and number of layers, antenna port(s), SRS request (SRS request), DMRS sequence initialization, UL-SCH (Uplink Shared Channel) indicator (UL-SCH indicator)
  • SRS resources set in the SRS resource set associated with the higher layer parameter 'usage' may be indicated by the SRS resource indicator field.
  • 'spatialRelationInfo' can be set for each SRS resource, and its value can be one of ⁇ CRI, SSB, SRI ⁇ .
  • the terminal transmits uplink data to the base station on the PUSCH (S1503).
  • the corresponding PUSCH is transmitted according to an instruction by the corresponding DCI.
  • codebook-based transmission For PUSCH transmission, two transmission schemes are supported: codebook-based transmission and non-codebook-based transmission:
  • the terminal When the upper layer parameter 'txConfig' is set to 'codebook', the terminal is configured for codebook-based transmission. On the other hand, when the upper layer parameter 'txConfig' is set to 'nonCodebook', the terminal is configured for non-codebook based transmission. If the upper layer parameter 'txConfig' is not set, the terminal does not expect to be scheduled by DCI format 0_1. When PUSCH is scheduled by DCI format 0_0, PUSCH transmission is based on a single antenna port.
  • PUSCH may be scheduled in DCI format 0_0, DCI format 0_1, DCI format 0_2, or semi-statically. If this PUSCH is scheduled by DCI format 0_1, the UE transmits the PUSCH based on SRI, TPMI (Transmit Precoding Matrix Indicator) and transmission rank from DCI, as given by the SRS resource indicator field and Precoding information and number of layers field Determine the precoder.
  • TPMI Transmit Precoding Matrix Indicator
  • TPMI Transmit Precoding Matrix Indicator
  • transmission rank from DCI, as given by the SRS resource indicator field and Precoding information and number of layers field Determine the precoder.
  • TPMI is used to indicate a precoder to be applied across antenna ports, and corresponds to an SRS resource selected by SRI when multiple SRS resources are configured.
  • TPMI is used to indicate a precoder to be applied across antenna ports and corresponds to the single SRS resource.
  • a transmission precoder is selected from an uplink codebook having the same number of antenna ports as the upper layer parameter 'nrofSRS-Ports'.
  • the terminal is configured with at least one SRS resource.
  • the SRI indicated in slot n is associated with the most recent transmission of the SRS resource identified by the SRI, where the SRS resource precedes the PDCCH carrying the SRI (i.e., slot n).
  • PUSCH may be scheduled in DCI format 0_0, DCI format 0_1 or semi-statically.
  • the UE can determine the PUSCH precoder and transmission rank based on the wideband SRI, where the SRI is given by the SRS resource indicator in the DCI or by the higher layer parameter 'srs-ResourceIndicator' given
  • the UE uses one or multiple SRS resources for SRS transmission, where the number of SRS resources may be configured for simultaneous transmission within the same RB based on UE capability. Only one SRS port is configured for each SRS resource. Only one SRS resource can be set with the upper layer parameter 'usage' set to 'nonCodebook'.
  • the maximum number of SRS resources that can be configured for non-codebook based uplink transmission is 4.
  • the SRI indicated in slot n is associated with the most recent transmission of the SRS resource identified by the SRI, where the SRS transmission precedes the PDCCH carrying the SRI (i.e., slot n).
  • channel state information-reference signal In a New Radio (NR) system, channel state information-reference signal (CSI-RS) is time and / or frequency tracking (time / frequency tracking), CSI calculation (computation), L1 (layer 1) - RSRP (reference signal received It is used for power computation and mobility.
  • CSI computation is related to CSI acquisition
  • L1-RSRP computation is related to beam management (BM).
  • Channel state information refers to information that can indicate the quality of a radio channel (or also referred to as a link) formed between a terminal and an antenna port.
  • a terminal eg, user equipment, UE transmits configuration information related to CSI to a base station (eg, general node) through RRC (radio resource control) signaling B, gNB).
  • RRC radio resource control
  • the CSI-related configuration information includes CSI-interference management (IM) resource-related information, CSI measurement configuration-related information, CSI resource configuration-related information, and CSI-RS resource-related information. Alternatively, at least one of information related to CSI report configuration may be included.
  • IM CSI-interference management
  • CSI-IM resource related information may include CSI-IM resource information, CSI-IM resource set information, and the like.
  • a CSI-IM resource set is identified by a CSI-IM resource set ID (identifier), and one resource set includes at least one CSI-IM resource.
  • Each CSI-IM resource is identified by a CSI-IM resource ID.
  • CSI resource configuration related information can be expressed as CSI-ResourceConfig IE.
  • CSI resource configuration related information defines a group including at least one of a non zero power (NZP) CSI-RS resource set, a CSI-IM resource set, and a CSI-SSB resource set. That is, the CSI resource configuration-related information includes a CSI-RS resource set list, and the CSI-RS resource set list includes at least one of an NZP CSI-RS resource set list, a CSI-IM resource set list, and a CSI-SSB resource set list. may contain one.
  • a CSI-RS resource set is identified by a CSI-RS resource set ID, and one resource set includes at least one CSI-RS resource.
  • Each CSI-RS resource is identified by a CSI-RS resource ID.
  • parameters indicating the use of CSI-RS eg, 'repetition' parameter related to BM and 'trs-Info' parameter related to tracking.
  • CSI report configuration-related information includes a report configuration type (reportConfigType) parameter representing time domain behavior and a reportQuantity parameter representing a CSI-related quantity for reporting.
  • the time domain behavior may be periodic, aperiodic or semi-persistent.
  • the UE measures CSI based on configuration information related to the CSI.
  • the CSI measurement may include (1) a process of receiving a CSI-RS by a UE and (2) a process of calculating CSI through the received CSI-RS, which will be described in detail later.
  • resource element (RE) mapping of CSI-RS resources is set in the time and frequency domains by higher layer parameter CSI-RS-ResourceMapping.
  • the terminal reports the measured CSI to the base station.
  • the terminal may omit the report.
  • the terminal may report to the base station.
  • the quantity is set to 'none', it is a case where an aperiodic TRS is triggered or repetition is set.
  • the report of the terminal can be omitted only when repetition is set to 'ON'.
  • node(s) and terminal(s) constituting a wireless communication network are becoming intelligent/advanced.
  • various networks according to various environmental parameters (eg, distribution/location of base stations, distribution/location/material of buildings/furniture, location/moving direction/speed of terminals, climate information, etc.) /base station determination parameter values (eg, transmit/receive power of each base station, transmit power of each terminal, precoder/beam of base station/terminal, time/frequency resource allocation for each terminal, duplex method of each base station, etc. ) is expected to be quickly optimized and derived/applied.
  • many standardization organizations eg, 3GPP, O-RAN
  • 3GPP 3GPP, O-RAN
  • AI Artificial Intelligence
  • AI corresponds to any automation in which a machine can substitute for a job to be performed by a person.
  • Machine learning refers to a technology in which a machine learns patterns for decision-making from data on its own without explicitly programming rules.
  • Deep learning is an artificial neural network-based model, which can be performed by a machine at once from unstructured data to feature extraction and judgment.
  • the algorithm relies on multi-layer networks of interconnected nodes for feature extraction and transformation inspired by biological neural systems, or neural networks.
  • Common deep learning network architectures include deep neural networks (DNNs), recurrent neural networks (RNNs), and convolutional neural networks (CNNs).
  • AI may be referred to as artificial intelligence based on deep learning in a narrow sense, but is not limited thereto in the present disclosure. That is, in the present disclosure, AI (or referred to as AI/ML) may collectively refer to automation technologies applied to intelligent machines (eg, UE, RAN, network node, etc.) capable of performing tasks like humans.
  • intelligent machines eg, UE, RAN, network node, etc.
  • AI (or AI/ML) can be classified according to various criteria as follows:
  • Offline learning follows a sequential process of database collection, learning, and prediction. That is, collection and learning can be performed offline, and completed programs can be installed in the field and used for prediction work. In offline learning, the system does not learn incrementally, learning is performed using all available collected data and applied to the system without further learning. If learning on new data is required, learning may be started again using the entire new data.
  • centralized learning when training data collected from a plurality of different nodes is reported to a centralized node, all data resources/storage/learning (e.g., supervised learning) (supervised learning, unsupervised learning, reinforcement learning, etc.) are performed on one centralized node.
  • supervised learning supervised learning, unsupervised learning, reinforcement learning, etc.
  • Federated learning is built on data where collective models exist across disparate data owners. Instead of ingesting data into models, AI/ML models are imported as data sources, allowing local nodes/individual devices to collect data and train their own copy of the model, eliminating the need to report the source data to a central node. In federated learning, parameters/weights of an AI/ML model can be sent back to a centralized node to support general model training. Federated learning has advantages in terms of increased computational speed and information security. That is, the process of uploading personal data to the central server is unnecessary, and leakage and abuse of personal information can be prevented.
  • Distributed learning refers to the concept that the machine learning process is scaled and distributed across a cluster of nodes. Training models are split and shared across multiple nodes working concurrently to speed up model training.
  • Supervised learning is a machine learning task that aims to learn mapping features from inputs to outputs given a labeled data set.
  • the input data is called training data and has known labels or outcomes.
  • Examples of supervised learning include:
  • KNN k-Nearest Neighbor
  • SVM Support Vector Machines
  • Supervised learning can be further grouped into regression and classification problems, where classification is predicting labels and regression is predicting quantities.
  • Unsupervised learning is a machine learning task that aims to learn features that describe hidden structures in unlabeled data. Input data is unlabeled and has no known consequences.
  • Some examples of unsupervised learning include K-means clustering, principal component analysis (PCA), nonlinear independent component analysis (ICA), and long-short-term memory (LSTM). .
  • RL reinforcement learning
  • An agent aims to optimize a long-term goal by interacting with the environment based on a trial-and-error process, which is goal-oriented learning based on interaction with the environment.
  • An example of the RL algorithm is as follows.
  • SARSA State-Action-Reward-State-Action
  • reinforcement learning can be grouped into model-based reinforcement learning and model-free reinforcement learning as follows.
  • Model-based reinforcement learning Refers to a RL algorithm that uses a predictive model. The transition probabilities between the states are obtained using a model of the various dynamic states of the environment and these states leading to rewards.
  • Model-free reinforcement learning refers to RL algorithms based on values or policies that achieve maximum future rewards. Multi-agent environments/states are less computationally complex and do not require an exact representation of the environment.
  • RL algorithms can also be classified into value-based RL versus policy-based RL, policy-based RL versus non-policy RL, and the like.
  • FIG. 11 illustrates a Feed-Forward Neural Network.
  • a feed-forward neural network is composed of an input layer, a hidden layer, and an output layer.
  • FFNN In FFNN, information is transmitted only from the input layer to the output layer, and passes through the hidden layer if there is one.
  • category 1, category 2, and category 3 may be considered in terms of training, and category 1 and category 2 may be considered in terms of inference.
  • a recurrent neural network is a type of artificial neural network in which hidden nodes are connected with directed edges to form a directed cycle. It is a model suitable for processing data that appears sequentially, such as voice and text.
  • A denotes a neural network
  • x t denotes an input value
  • h t denotes an output value.
  • h t may mean a state value indicating a current state based on time
  • h t-1 may indicate a previous state value.
  • LSTM Long Short-Term Memory
  • RNN Random-Term Memory
  • FIG. 13 illustrates a convolutional neural network
  • a convolutional neural network (CNN) is used for two purposes: reducing model complexity and extracting good features by applying a convolution operation commonly used in the field of image processing or image processing.
  • Kernel or filter Means a unit/structure that applies weights to inputs in a specific range/unit.
  • the kernel (or filter) can be changed by learning.
  • Feature map It means the result of applying the kernel to the input.
  • Several feature maps can be extracted to induce robustness to distortion, change, etc.
  • - Pooling Refers to an operation (for example, max pooling, average pooling) to reduce the size of a feature map by downsampling the feature map.
  • Category 1 Structure information of each layer (e.g., number of hidden layers, padding/value, pooling/type, etc.)
  • category 1, category 2, and category 3 may be considered in terms of training, and category 1 and category 2 may be considered in terms of inference.
  • Auto encoder receives a feature vector x(x 1 , x 2 , x 3 , ...), and the same or similar vector x'(x' 1 , x' 2 , x' 3 , ... ) means a neural network that outputs ' .
  • Auto encoder has the same characteristics of input node and output node. Since auto encoder reconstructs the input, the output can be referred to as reconstruction. Also, auto encoder is a kind of unsupervised learning.
  • the loss function of the auto encoder illustrated in FIG. 14 is calculated based on the difference between the input and the output, and based on this, the degree of loss of the input is determined and the auto encoder performs an optimization process to minimize the loss. do.
  • Data collection Data collected from network nodes, management entities or UEs as a basis for AI model training, data analysis and inference
  • AI Model A data driven algorithm applying AI technology that generates a set of outputs including predictive information and/or decision parameters based on a set of inputs.
  • a data collection function 10 collects input data and processes input data to a model training function 20 and a model inference function 30. It is a function that provides data.
  • Examples of input data may include measurements from UEs or other network entities, actor feedback, and AI model output.
  • the data collection function 10 performs data preparation based on input data and provides processed input data through data preparation.
  • the data collection function 10 does not perform specific data preparation (eg, data pre-processing and cleaning, forming and transformation) for each AI algorithm, , data preparation common to AI algorithms can be performed.
  • the Model Training function (10) provides training data (11) to the Model Training function (20), and inference data (12) to the Model Inference function (30).
  • Training Data) (11) is data required as an input for the AI Model Training function (20).
  • Inference Data (12) is data required as an input for the AI Model Inference function (30).
  • the data collection function 10 may be performed by a single entity (eg, UE, RAN node, network node, etc.) or may be performed by a plurality of entities.
  • Training Data (11) and Inference Data (12) from a plurality of entities may be provided to the Model Training function (20) and the Model Inference function (30), respectively.
  • the Model Training function 20 is a function that performs AI model training, validation, and testing that can generate model performance metrics as part of an AI model testing procedure.
  • the Model Training function (20) is also responsible for data preparation (eg, data pre-processing and cleaning, forming and transformation) based on the Training Data (11) provided by the Data Collection function (10), if necessary.
  • Model Deployment/Update (13) is used to initially deploy the trained, verified, and tested AI model to the Model Inference function (30) or to provide an updated model to the Model Inference function (30). do.
  • the Model Inference function 30 is a function that provides an AI model inference output 16 (eg, prediction or decision).
  • the Model Inference function 30 may provide Model Performance Feedback 14 to the Model Training function 20, if applicable.
  • the Model Inference function (30) is also responsible for data preparation (eg, data pre-processing and cleaning, forming and transformation) based on the Inference Data (12) provided by the Data Collection function (10), if necessary.
  • the output (Output) 16 refers to the inference output of the AI model generated by the Model Inference function 30, and detailed information of the inference output may vary depending on the use case.
  • Model Performance Feedback (14) can be used to monitor the performance of the AI model, if available, and this feedback can also be omitted.
  • the Actor function 40 is a function that receives an output 16 from the Model Inference function 30 and triggers or performs a corresponding task/action.
  • the actor function 40 may trigger actions/actions for other entities (eg, one or more UEs, one or more RAN nodes, one or more network nodes, etc.) or itself.
  • Feedback (15) can be used to derive training data (11), inference data (12), or to monitor the performance of the AI model and its effect on the network.
  • the definition of training/validation/test in a data set used in AI/ML can be classified as follows.
  • - Validation data Data set for verifying a model that has already been trained. That is, it usually means a data set used to prevent over-fitting of the training data set.
  • Test data Data set for final evaluation. This data is data irrelevant to learning.
  • the training data and validation data can be divided and used in a ratio of 8:2 or 7:3 within the entire training set, and if the test is included, 6:2:2 ( training: validation: test) can be divided and used.
  • the cooperation level can be defined as follows, and modification due to the combination of a plurality of levels below or separation of any one level is possible.
  • Cat 1 Entails inter-node support to improve each node's AI/ML algorithm. This applies when the UE receives assistance from the gNB (for training, adaptation, etc.) and vice versa. No exchange of models between network nodes is required at this level.
  • a RAN node eg, a base station, a TRP, a central unit (CU) of a base station, etc.
  • a network node eg, an operation administration maintenance (OAM) of a network operator, or a UE.
  • OAM operation administration maintenance
  • the function illustrated in FIG. 15 may be implemented in cooperation with two or more entities among a RAN, a network node, an OAM of a network operator, or a UE.
  • one entity may perform some of the functions of FIG. 15 and another entity may perform the remaining functions.
  • transfer / provision of data / information between each function is omitted. It can be.
  • the Model Training function 20 and the Model Inference function 30 are performed by the same entity, the delivery/provision of the Model Deployment/Update 13 and the Model Performance Feedback 14 may be omitted.
  • any one of the functions illustrated in FIG. 15 may be performed in collaboration with two or more entities among a RAN, a network node, an OAM of a network operator, or a UE. This may be referred to as a split AI operation.
  • 16 is a diagram illustrating segmented AI inference.
  • Model Inference function among split AI operations, is cooperatively performed by an end device such as a UE and a network AI/ML endpoint.
  • each of the Model Training function, Actor, and Data Collection function is split into multiple parts according to the current task and environment, and can be performed by cooperation of multiple entities.
  • a computation-intensive and energy-intensive part may be performed at a network endpoint, while a privacy-sensitive part and a delay-sensitive part may be performed at an end device.
  • the end device may execute a job/model from the input data to a specific part/layer and then transmit intermediated data to the network endpoint.
  • a network endpoint executes the remaining parts/layers and provides inference outputs to one or more devices performing the action/task.
  • FIG. 17 illustrates the application of a functional framework in a wireless communication system.
  • the AI Model Training function is performed by a network node (eg, a core network node, an OAM of a network operator, etc.), and an AI Model Inference function is performed by a RAN node (eg, a base station, a TRP, a CU of a base station, etc.) ) exemplifies the case performed by a network node (eg, a core network node, an OAM of a network operator, etc.), and an AI Model Inference function is performed by a RAN node (eg, a base station, a TRP, a CU of a base station, etc.) ) exemplifies the case performed by a network node (eg, a core network node, an OAM of a network operator, etc.), and an AI Model Inference function is performed by a RAN node (eg, a base station, a TRP, a CU of a base station, etc.) ) exemplifies the case performed by
  • Step 1 RAN node 1 and RAN node 2 transmit input data (ie, training data) for AI Model Training to the network node.
  • RAN node 1 and RAN node 2 transmit data collected from the UE (eg, measurement of the UE related to RSRP, RSRQ, SINR of the serving cell and the neighboring cell, location of the UE, speed, etc.) together to the network node.
  • data collected from the UE eg, measurement of the UE related to RSRP, RSRQ, SINR of the serving cell and the neighboring cell, location of the UE, speed, etc.
  • Step 2 The network node trains the AI Model using the received training data.
  • Step 3 The network node distributes/updates the AI Model to RAN node 1 and/or RAN node 2.
  • RAN node 1 (and/or RAN node 2) may continue to perform model training based on the received AI Model.
  • Step 4 RAN node 1 receives input data (ie, inference data) for AI Model Inference from the UE and RAN node 2.
  • input data ie, inference data
  • Step 5 RAN node 1 performs AI Model Inference using the received inference data to generate output data (eg, prediction or decision).
  • Step 6 If applicable, RAN node 1 may send model performance feedback to the network node.
  • Step 7 RAN node 1, RAN node 2, and UE (or 'RAN node 1 and UE', or 'RAN node 1 and RAN node 2') perform an action based on the output data. For example, in the case of a load balancing operation, the UE may move from RAN node 1 to RAN node 2.
  • Step 8 RAN node 1 and RAN node 2 transmit feedback information to the network node.
  • RAN node eg, a base station, a TRP, a CU of a base station, etc.
  • Step 1 The UE and RAN node 2 transmit input data (ie, training data) for AI Model Training to RAN node 1.
  • input data ie, training data
  • Step 2 RAN node 1 trains the AI model using the received training data.
  • Step 3 RAN node 1 receives input data (ie, inference data) for AI Model Inference from the UE and RAN node 2.
  • input data ie, inference data
  • Step 4 RAN node 1 performs AI Model Inference using the received inference data to generate output data (eg, prediction or decision).
  • Step 5 RAN node 1, RAN node 2, and UE (or 'RAN node 1 and UE', or 'RAN node 1 and RAN node 2') perform an action based on the output data. For example, in the case of a load balancing operation, the UE may move from RAN node 1 to RAN node 2.
  • Step 6 RAN node 2 sends feedback information to RAN node 1.
  • FIG. 19 illustrates a case in which the AI Model Training function is performed by a RAN node (eg, a base station, a TRP, a CU of a base station, etc.) and an AI Model Inference function is performed by a UE.
  • a RAN node eg, a base station, a TRP, a CU of a base station, etc.
  • an AI Model Inference function is performed by a UE.
  • Step 1 The UE transmits input data (ie, training data) for AI Model Training to the RAN node.
  • the RAN node may collect data from various UEs and/or from other RAN nodes (e.g., RSRP, RSRQ, measurement of the UE related to the serving cell and neighboring cell, SINR, UE location, speed, etc.) there is.
  • Step 2 The RAN node trains the AI Model using the received training data.
  • Step 3 The RAN node distributes/updates the AI Model to the UE.
  • the UE may continue to perform model training based on the received AI Model.
  • Step 4 Receives input data (ie, inference data) for AI Model Inference from the UE and the RAN node (and/or from other UEs).
  • Step 5 The UE generates output data (eg, prediction or decision) by performing AI Model Inference using the received inference data.
  • output data eg, prediction or decision
  • Step 6 If applicable, the UE may send model performance feedback to the RAN node.
  • Step 7 The UE and the RAN node perform an action based on the output data.
  • Step 8 The UE sends feedback information to the RAN node.
  • the convolutional neural network (CNN) structure is a structure that can demonstrate good performance in the field of image processing, and based on this characteristic, a method to improve performance by applying the CNN structure to channel estimation in a wireless communication system This is being actively discussed.
  • a 1D (1 Dimension, 1D) CNN structure and a 2D CNN structure may be considered.
  • FIG. 20 illustrates a 1D CNN structure for AI/ML-based channel estimation in a wireless communication system to which the present disclosure can be applied.
  • channel estimation in the frequency domain and channel estimation in the time domain are performed separately in the case of the 1D CNN structure.
  • channel estimation in the time domain may be performed after channel estimation in the frequency domain (eg, 1D Wiener filter).
  • each layer of a CNN is constructed from channel estimation values (eg, x0+jy0, ...) in the frequency domain.
  • channel estimation values eg, x0+jy0, ...) in the frequency domain.
  • real values are exemplified in FIG. 20 , it is obvious that the same can be applied to imaginary values.
  • the channel estimation value in the frequency domain is exemplified, it is obvious that the same can be applied to the channel estimation value in the time domain.
  • an input layer 2010 of a CNN may be configured based on a channel estimation value (eg, a real value among channel estimation values).
  • the shaded area 2005 may mean an area in which a DMRS is transmitted.
  • N eg, N is a natural number greater than or equal to 1
  • convolution/hidden layers 2020 may be formed between the input layer 2010 and the output layer 2030 .
  • the output layer 2030 may be formed from the result value of the convolution layer/hidden layer 2020.
  • 21 illustrates an output value estimation method in a 1D CNN structure for AI/ML-based channel estimation in a wireless communication system to which the present disclosure can be applied.
  • a feature map 2120 may be derived from an input value 2110 in each convolution layer/hidden layer constituting the 1D CNN, and an output value 2130 may be estimated.
  • the operation of deriving the feature map 2120 in each convolutional layer/hidden layer may correspond to [S2110-a, S2110-b, S2110-c, ...], based on the feature map 2120.
  • the operation of estimating the output value 2130 may correspond to [S2120].
  • a kernel/filter 2140 may be defined that applies a specific weight to an input value of a specific unit in order to derive a feature map 2120.
  • Each kernel/filter 2140 may be defined with a specific size (or number of weights).
  • each kernel/filter 2140 may be defined as a combination of specific weights (eg, w0/w1/w2/w3).
  • Each kernel/filter 2140 may have a specific movement range for deriving the feature map 2120 within the input value 2110, and the specific movement range may be named a stride.
  • the kernel/filter 2140 may be defined differently for each convolutional layer/hidden layer, or may be defined identically for all convolutional layers/hidden layers. 21 shows an example of a convolutional layer/hidden layer composed of one kernel/filter 2140 set/defined with a size of 4 and a stride of 1.
  • an activation function (AF) 2150 used to estimate an output value based on the feature map 2120 may be defined.
  • An activation function 2150 may be used to add nonlinearity to the feature map 2120 obtained through the convolution operation.
  • the activation function 2150 can be a step function, a sigmoid function, a hyperbolic tangent function, a ReLU function, a leaky ReLU function ), a softmax function, and the like.
  • FIG. 22 illustrates a 2D CNN structure for AI/ML-based channel estimation in a wireless communication system to which the present disclosure can be applied.
  • channel estimation in the frequency domain and channel estimation in the time domain are performed together when based on the 2D CNN structure.
  • channel estimation in the frequency domain and channel estimation in the time domain may be simultaneously performed (eg, 2D Wiener filter).
  • each layer of a CNN is constructed from channel estimation values (eg, x0+jy0, ...) in the frequency domain.
  • channel estimation values eg,
  • the method for configuring each layer of the 2D CNN structure in FIG. 22 is an extension of the method for configuring each layer of the 1D CNN structure in FIG. 20 to the 2-dimensional time/frequency domain, and other configuration methods are assumed to be the same can do.
  • an input layer 2210 of a CNN may be configured based on a channel estimation value (eg, a real value among channel estimation values).
  • the shadow area 2205 may mean an area in which a DMRS is transmitted.
  • N convolutional layers/hidden layers 2220 may be formed between the input layer 2210 and the output layer 2230 (eg, N is a natural number greater than or equal to 1).
  • the output layer 2230 may be formed from the resultant value of the convolution layer/hidden layer 2220 .
  • FIG. 23 illustrates an output value estimation method in a 2D CNN structure for AI/ML-based channel estimation in a wireless communication system to which the present disclosure can be applied.
  • a feature map 2320 may be derived from an input value 2310 in each convolution layer/hidden layer constituting a 2D CNN, and an output value 2330 may be estimated.
  • the method for estimating the output value in FIG. 23 is an extension of the method for estimating the output value in FIG. 20 to the two-dimensional time/frequency domain, and other methods can be assumed to be the same.
  • the operation of deriving the feature map 2320 in each convolution layer/hidden layer may correspond to [S2310-a, S2310-b, S2310-c, ...], based on the feature map 2320.
  • the operation of estimating the output value 2330 may correspond to [S2320].
  • a kernel/filter 2340 may be defined that applies a specific weight to an input value of a specific unit in order to derive a feature map 2320.
  • Each kernel/filter 2340 can be defined with a specific size (or number of weights). In this case, the specific size may be defined based on a two-dimensional (eg, two-dimensional time/frequency domain).
  • each kernel/filter 2340 may be defined as a combination of specific weights (eg, w00/w10/w20/w30/w01/w11/w21/w31).
  • Each kernel/filter 2340 may have a specific movement range for deriving the feature map 2320 within the input value 2310, and the specific movement range may be named a stride.
  • the stride may be defined based on a two-dimensional (eg, two-dimensional time/frequency domain).
  • the kernel/filter 2340 may be defined differently for each convolutional layer/hidden layer, or may be defined identically for all convolutional layers/hidden layers.
  • 23 shows an example of a convolutional layer/hidden layer composed of one kernel/filter 2340 set/defined with size 4x2 and stride [1, 1] (eg, [time domain, frequency domain]).
  • an activation function (AF) 2350 used to estimate an output value based on the feature map 2320 may be defined.
  • An activation function 2350 may be used to add nonlinearity to the feature map 2320 obtained through the convolution operation.
  • the activation function 2150 can be a step function, a sigmoid function, a hyperbolic tangent function, a ReLU function, a leaky ReLU function ), a softmax function, and the like.
  • FIG. 24 illustrates padding and pooling in a CNN structure for channel estimation based on AI/ML in a wireless communication system to which the present disclosure can be applied. Specifically, FIG. 24(a) illustrates a padding method, and FIG. 24(b) illustrates a pooling method.
  • the size of the feature map 2420 obtained as a result of the convolution operation is smaller than that of the input 2410, and a padding method may be used to prevent this. That is, the padding method may refer to a function/operation/structure that allows the size of the feature map 2420 to be the same as the size of the input 2410 even after the convolution operation.
  • 24(a) shows an example of applying zero padding in a 1D CNN structure.
  • the pooling (or pooling layer) 2440 may refer to a function/action/structure that reduces the size of the feature map 2420 by downsampling the feature map 2420.
  • Examples of pooling operations include max pooling, average pooling, and the like.
  • 24(b) shows an example of applying max pooling in a 1D CNN structure. The same concepts of kernel and stride can be applied to the pooling operation, and in this example, a kernel of size 4 and a stride set to 4 are assumed.
  • bias value can be applied in relation to the corresponding CNN structure.
  • the corresponding bias value may be applied in an added form to a specific feature map to which a kernel is applied.
  • the loss function may refer to a function that quantifies a difference between an actual value and a predicted value.
  • MSE mean square error
  • the optimizer may refer to a function for updating weight(s) suitable for each layer based on the loss function.
  • batch gradient descent stochastic gradient descent (SGD), mini-batch gradient descent, momentum, adagrad , RMSprop, adam, etc.
  • SGD stochastic gradient descent
  • mini-batch gradient descent momentum, adagrad , RMSprop, adam, etc.
  • inference performance of the corresponding node may be improved.
  • training results/information eg, weights, biases, etc.
  • the above-described update process eg, weight/bias update using a loss function/optimizer
  • the computational complexity and energy consumption of the corresponding node are reduced, and the inference performance is improved.
  • the present disclosure proposes methods for exchanging the above-described AI / ML model and information related thereto between a base station and a terminal.
  • the proposed method in this disclosure is proposed/described based on the CNN structure, but is not limited to the CNN structure. Therefore, it is obvious that information exchange assuming a NN structure other than a CNN structure is also possible based on the operating method/principle/structure of the proposed method.
  • the above-described 1D CNN structure and 2D CNN structure are illustrative of structures mainly considered in the proposed method in this disclosure, and are not intended to limit the proposed method, so that specific functions are used by specific terms. /Movement is not restricted. That is, the above functions/operations/methods are not limited to specific terms and may be replaced by other terms.
  • the size (eg, the size of the input / input layer, the size of the output / output layer, the size of the convolution layer / hidden layer) expressed in the drawings (eg, FIGS. 20 to 24) , kernel size, etc.) correspond to an example and do not limit the proposed method, so the proposed method in this disclosure can be applied to other sizes as well.
  • L1 signaling in the present disclosure may mean DCI-based dynamic signaling between a base station and a terminal
  • L2 signaling may mean RRC/MAC-CE-based higher layer signaling between a base station and a terminal.
  • the present disclosure proposes methods for using the above-described 1D/2D CNN structure in a channel estimation process in a base station and/or a terminal.
  • a base station and/or terminal may transmit a reference signal for channel estimation, and the base station and/or terminal may estimate a (wireless) channel based on the reference signal.
  • an AI / ML model eg, CNN structure
  • a resource region where a reference signal is not transmitted eg, RE(s), RB(s), OFDM symbol(s), etc.
  • Channel estimation performance for and/or channel estimation performance of a resource region in which a reference signal is transmitted may be improved.
  • information on the AI/ML algorithm, NN structure, and related parameter(s) may be shared between the base station and the terminal. Through this, a training process in the base station and/or terminal can be omitted, and thus complexity and energy consumption required for the training process are reduced.
  • the proposed method in this disclosure is proposed / described based on the CNN structure and channel estimation operation, but it can be applied to AI / ML algorithms and / or NN structures other than the CNN structure, and CSI feedback (CSI feddback )/positioning/beam management/channel prediction.
  • CSI feedback CSI feddback
  • the AI/ML-related information may include an AI/ML-related algorithm, a NN structure, and parameter(s) related thereto.
  • the method proposed in this disclosure is described as an example of sharing NN structure information, but can be extended and applied to the case of sharing other AI/ML related information other than NN structure information.
  • the terminal may report NN structure information of the terminal and/or NN structure information assumed by the terminal) to the base station (or network side).
  • the base station or network side
  • the base station or network side
  • a rule for assuming specific NN structure information between the base station and the terminal may be defined.
  • the NN structure information may include layer related information and information related to specific operations such as padding/pooling in the corresponding structure.
  • the NN structure information may include the number of convolution layers/hidden layers, padding, padding value, padding size, pooling, pooling type, and the like.
  • the number of convolutional layers/hidden layers may be defined including input layers and/or output layers.
  • the aforementioned padding status, padding value, padding size, pooling status, pooling type, etc. may be set/instructed/defined/reported for each layer, each layer, and/or a specific layer.
  • the NN structure information may include kernel-related information, information about the type of loss function, and information about the type of optimizer.
  • kernel-related information includes the number of kernels, size of kernels (eg, 1D, 2D), activation function of each layer/kernel, stride value of each layer/kernel, weight values of kernels (or a combination of weight values), It may include the bias value of each layer/kernel.
  • Variables in the kernel-related information may be set/instructed/defined/reported for each layer, each layer, a specific layer, the entire kernel, each kernel, and/or a specific kernel.
  • NN structure information some information, a combination of some information, and/or all information may be reported/set/instructed/defined.
  • the base station sets/instructs NN structure information (or NN structure information assumed by the base station or NN structure information assumed by the terminal) of the base station to the terminal.
  • NN structure information may be set/instructed based on L1 signaling and/or L2 signaling.
  • UE capability report And/or NN structure information may be reported based on CSI reporting.
  • a specific node eg, a base station or a terminal
  • a method of applying the following elements together/replaced may also be considered.
  • a method of applying the following elements together/alternatively to specific embodiments (eg, Examples 1 to 3) of the present disclosure may also be considered.
  • AI/ML algorithmic elements can be considered.
  • One or more AI/ML algorithms/models may be considered/applied.
  • the base station/network may set/instruct information related to the AI/ML algorithm/model to the terminal.
  • the corresponding information may include information about the type/model of the AI/ML algorithm, the number of nodes, the number of hidden layers, the number of weights, and the like.
  • the AI/ML algorithm/model may be set in module units, that is, the AI/ML algorithm/model may be set for BM purpose, CSI purpose, positioning purpose, etc. respectively. In this case, all functions are the same for the AI/ML algorithm model, but parameters (eg, the number of nodes/hidden layers/weights, etc.) may be set differently.
  • (D)NN-related information may be set/instructed/delivered to the terminal through system information (eg, SIBx).
  • system information eg, SIBx
  • the corresponding (D)NN related information can be set / instructed / transmitted to the terminal through RRC / MAC-CE / DCI.
  • a certain timing gap (X) may be applied in order to apply AI/ML related information/update information set/instructed to the terminal.
  • a certain time gap may be set/defined as X slots/msec after receiving (D)NN-related information.
  • Information on the corresponding predetermined time gap, that is, X may be determined by UE capabilities or base station settings.
  • a reference UE element having deep learning capability by itself may be considered.
  • a 'reference terminal' may be defined, and UE behavior required for this may be defined.
  • a terminal capable of performing the above-described learning/learning (representing a plurality of terminals) (ie, the reference terminal) may be required.
  • the reference terminal When a reference terminal is defined/introduced, running/learning is performed only in a specific terminal instead of all base stations/terminals, and after a specific terminal performs learning/learning, the result can be shared with the base station and other terminals. Therefore, since there is no need to independently perform learning/learning in all base stations/terminals (existing in similar/same channel conditions), efficient learning/learning can be performed.
  • the corresponding terminal since the results of learning/learning (reflecting similar/same channel conditions) can be shared even for terminals that do not have the ability to perform learning/learning, the corresponding terminal also operates based on (D)NN with appropriate parameters applied. There are advantages to doing so.
  • the reference terminal is a terminal capable of performing learning/learning, a terminal set/instructed to perform learning/learning (by a base station, etc.), and/or a result of learning/learning to a base station, etc./non- - May correspond to a terminal configured/instructed to report/share/transmit to a non-reference UE.
  • the non-reference terminal may mean a terminal that does not correspond to the aforementioned reference terminal.
  • the terminal may report information on its own capability to the base station (or network), and the information may be used for learning / learning for the above-described parameter (s) and / or for (D) NN to other terminals. It may include capability information on whether the derived parameter(s) can be shared/broadcasted.
  • the base station may configure/instruct the reference terminal(s) through L1 signaling and/or L2 signaling.
  • the reference terminal may perform running/learning on parameter(s) for the (D)NN, and may report derived (D)NN related information (eg, weights, etc.) to the base station (or network).
  • the reported (D)NN-related information may be relayed/configured/instructed to other terminals (eg, non-reference terminals) by the base station (or network).
  • the reference terminal may broadcast the derived (D)NN related information to its neighbor terminals (eg, non-reference terminals).
  • the non-reference terminal may be configured/instructed to receive (D)NN related information derived from the reference terminal.
  • Relevant parameter(s) eg, time/frequency resource, period, etc.
  • for reception of NN related information may be set/instructed by L1/L2 signaling from the base station (or network).
  • This embodiment relates to a method of setting/instructing/defining/reporting a specific algorithm/model/structure when a plurality of AI/ML algorithms/models/structures are used in terms of the above-mentioned AI/ML related information.
  • a plurality of NN structures may be set/defined in the form of a combination of a plurality of pieces of information.
  • the base station and/or the terminal may set/instruct/define/report a specific structure among the plurality of NN structures.
  • Table 6 shows an example of a method for defining a candidate NN structure (NN Structure, NNS) based on the method proposed in this embodiment.
  • each candidate NN structure may be set/instructed/defined/reported in the form of an index (eg, states 0 to 7).
  • Each candidate NN structure is based on a combination of the number of convolution layers (CL), the number of kernels (KN) in each CL, the size of the kernel in each CL, and the stride of the kernel in each CL. Can be defined/distinguished.
  • a first NNS candidate (ie, NNS0) and a second NNS candidate (ie, NNS1) have a characteristic in that the sizes of KNs in a specific CL are different.
  • the second NNS candidate differs from the first NNS candidate. It has a relatively high complexity, but can be expected to provide high accuracy.
  • the first NNS candidate (ie, NNS0) and the third NNS candidate (ie, NNS2) are compared, since the third NNS candidate has a large stride, complexity may be lowered by reducing the amount of computation, but degradation may occur in terms of performance. can be expected to be possible.
  • Table 6 corresponds to an example of defining a combination of a plurality of information to define a candidate NN structure, and the method proposed in this disclosure is not limited to the combination of corresponding information. It should be appreciated that candidate NN structures can be defined based on combinations of different parameters. In addition, although Table 6 exemplifies a combination of a plurality of pieces of information, a method of setting/instructing/defining/reporting each information independently between the base station and the terminal is also possible together with or in place of (partially).
  • a rule to assume a specific value between the base station and the terminal for specific NN structure information method may be considered.
  • a rule may be defined to assume zero padding in all layers in order to maintain the size of the input and the size of the output.
  • a rule may be defined to assume a ReLU function or a leaky ReLU function for the activation function.
  • information on the specific NN structure can be set / instructed based on LI / L2 signaling there is.
  • information on the specific NN structure may be reported based on a UE capability report and/or a CSI report.
  • AI/ML-related information e.g., NN structure information
  • signaling overhead increases when each information is reported separately, and AI/ML models/structures to be considered increase problems can arise.
  • the proposed method in this embodiment avoids the above problem by defining an AI/ML model/structure in the form of a combination of specific AI/ML model/structure information, and reduces signaling overhead and AI/ML model/structure to be considered at an appropriate level. can be managed with
  • This embodiment relates to a method of setting/instructing/defining/reporting specific parameter values related thereto when a base station and/or terminal can assume a specific AI/ML model/structure.
  • a specific NN structure is set/instructed/defined/reported based on the proposed method in the present disclosure and/or the above-described embodiment 1 and the following proposed method, so that the base station/terminal can assume the NN structure
  • the base station/terminal may set/instruct/define/report weight values of the kernel (or combination of weight values) and/or deflection values of each layer/kernel.
  • a combination of weight values and/or a bias value may be defined/configured as a fixed rule between a base station and a terminal in the form of a plurality of states/indexes. Accordingly, the base station/terminal may set/instruct/report a specific state/index among a plurality of states/indexes.
  • information on candidate values for weight values and/or bias values may be shared between the base station and the terminal based on L2 signaling (eg, RRC, MAC-CE, etc.).
  • L2 signaling eg, RRC, MAC-CE, etc.
  • Specific value(s) among the candidate values may be configured/instructed/reported to the BS/UE based on L1/L2 signaling.
  • an operation of updating the candidate values into new candidate values may be supported based on L1/L2 signaling.
  • This embodiment relates to a method for supporting flexible AI/ML related algorithms/models.
  • the base station / terminal Information on the number of supportable (or assumed) CLs may be set/instructed/reported.
  • the plurality of NN structure information may include the number of kernels (KNs), kernel size, kernel stride, activation function, padding/value/size, polling/type/method, and the like.
  • the size/number of weight values (or combination of weight values) of kernels and/or bias values of each layer/kernel required for the CL may be determined. Accordingly, weight values of the kernel (or combination of weight values) and/or bias values of each layer/kernel may be defined in the same format. In addition, the number of data of the same format may be determined according to the number of CLs supported by the base station/terminal, and through this, signaling between the base station/danam can be efficiently defined.
  • Table 7 shows an example of defining candidate combinations for setting/instructing/reporting information on weight values/bias values.
  • states/indexes may be defined in relation to information on weight values/bias values. For example, when a specific base station/terminal assumes/defines three CLs, in order to set/instruct/report information on the weight value/deflection value of each CL0/CL1/CL2, status/indexes for each CL (e.g., state0/state0/state3) can each be reported based on a single candidate combination.
  • 25 is a diagram illustrating a signaling procedure between a base station and a terminal for a method for reporting channel state information according to an embodiment of the present disclosure.
  • FIG. 25 is for convenience of description and does not limit the scope of the present disclosure. Some step(s) illustrated in FIG. 25 may be omitted depending on circumstances and/or settings. Also, the order of some step(s) illustrated in FIG. 25 may be changed.
  • the base station and the terminal in FIG. 25 are only examples, and may be implemented as the device illustrated in FIG. 28 below.
  • the processor 102/202 of FIG. 28 may control transmission and reception of channels/signals/data/information using the transceiver 106/206, and may transmit or receive channels/signals/information. It can also be controlled to store data/information or the like in the memory 104/204.
  • a base station in FIG. 25 may mean a network-level device.
  • FIG. 25 is shown as an example of a DNN structure, the signaling described in FIG. 25 may be extended and applied to sharing and applying information related to an AI/ML algorithm and/or a DNN/NN structure.
  • the terminal may transmit/report capability information of the corresponding terminal to the base station.
  • the terminal may report capability information related to the method proposed in the present disclosure (eg, the above-described AI/ML related information sharing method and embodiments 1 to 3).
  • the base station may perform (pre-) training on the DNN.
  • the base station may obtain information on parameter(s) required for the AI/ML algorithm and/or DNN/NN structure based on the learning process. For example, based on the corresponding process, the base station may obtain parameter(s) related to the method proposed in the present disclosure (eg, the above-described AI/ML related information sharing method and embodiments 1 to 3). there is.
  • the base station may set/instruct information related to the AI/ML algorithm and/or DNN/NN structure to the terminal.
  • the base station may set/instruct the terminal with information on the parameter(s) acquired in step S010.
  • parameter(s) related to the method proposed in the present disclosure eg, the above-described AI/ML-related information sharing method and embodiments 1 to 3 may be set/instructed to the terminal. there is.
  • the base station may apply a DNN structure based on the AI/ML algorithm and/or DNN/NN structure shared with the terminal. For example, a base station may compress a DL channel and/or a reference signal (RS) by applying a DNN and transmit the compressed signal to the terminal.
  • RS reference signal
  • the base station may transmit the DL channel and/or RS to the terminal.
  • the base station may transmit the DL channel and/or RS to the terminal.
  • an AI/ML algorithm and/or a DNN/NN structure shared with the terminal may be applied.
  • the UE may apply the DNN shared by the base station to the DL channel and/or RS.
  • the terminal can decompress the DL channel and / or RS or estimate / predict the DL channel and / or RS based on the AI / ML algorithm and / or DNN / NN structure pre-configured by the base station there is.
  • the UE may tune DNN parameters based on the DL channel and/or RS. For example, the UE may perform training based on a DL channel and/or RS, and may adjust DNN parameters based on a learning result.
  • the UE may perform CSI reporting or transmit a UL channel and/or RS.
  • the terminal may perform CSI reporting on the result learned in step S035.
  • the UE may compress CSI by applying DNN.
  • the terminal may compress the UL channel and/or RS by applying the DNN and transmit the compressed UL channel to the base station.
  • the base station may apply the DNN to the CSI report, UL channel and/or RS.
  • the base station decompresses the CSI report, UL channel and / or RS, or the CSI report, UL channel and / or Alternatively, RS can be estimated/predicted.
  • the base station may tune DNN parameters based on the CSI report, UL channel and/or RS. For example, the base station may perform training based on a UL channel and/or RS, and may adjust DNN parameters based on a learning result. And/or, the base station may adjust the DNN parameter based on the reported value of the terminal.
  • the base station may configure / instruct the terminal to perform an update on parameter (s) for the AI / ML algorithm and / or DNN / NN structure.
  • the terminal may adjust/update the DNN parameters based on the update setting/instruction of the corresponding base station.
  • the UE may adjust DNN parameters. For example, as in the update setting/instruction in step S055, the terminal may adjust the DNN parameter based on the value(s) set/instructed by the base station based on L1/L2 signaling.
  • 26 is a diagram illustrating an operation of a terminal for a method for reporting channel state information according to an embodiment of the present disclosure.
  • any one or more (detailed) of the previously proposed methods e.g., the above-described AI/ML-related information sharing method, Example 1, Example 2, Example 3, and detailed embodiments thereof
  • the operation of the terminal based on the combination of embodiments is illustrated.
  • the example of FIG. 26 is for convenience of description and does not limit the scope of the present disclosure. Some step(s) illustrated in FIG. 26 may be omitted depending on circumstances and/or settings.
  • the terminal in FIG. 26 is only one example, and may be implemented as a device illustrated in FIG. 28 below.
  • the processor 102/202 of FIG. 28 may control transmission and reception of channels/signals/data/information using the transceiver 106/206, and may transmit or receive channels/signals/information. It can also be controlled to store data/information or the like in the memory 104/204.
  • FIG. 26 may be processed by one or more processors 102 and 202 of FIG. 28 , and the operation of FIG. 26 may be performed to drive at least one processor (eg, 102 and 202) It may be stored in a memory (eg, one or more memories 104 and 204 of FIG. 28) in the form of a command/program (eg, instruction or executable code).
  • a command/program eg, instruction or executable code
  • the terminal may receive information about a learning algorithm.
  • the corresponding learning algorithm may include an AI/ML algorithm and/or (D)NN structure related to CSI reporting.
  • Corresponding information may be transmitted by a network device (eg, a base station and/or an AI/ML related server device).
  • the information on the learning algorithm includes information on the type/model of the learning algorithm (eg, identification information/number of the type/model of the learning algorithm), operation-related parameters for the learning algorithm etc. may be included.
  • the operation-related parameter may include at least one of the number of nodes, the number of hidden layers, and weight values related to the learning algorithm.
  • the operation-related parameters include the number of convolution layers, padding ) related information, pooling related information, or kernel related information.
  • the information on the learning algorithm may be information on a specific candidate neural network structure among a plurality of predefined candidate neural network structures, and indicates the specific candidate neural network structure among a plurality of indexes/states. Can be indicated by index/status.
  • the plurality of indices may be set based on a combination of at least two of the number of convolution layers, the number of kernels, the size of the kernel, or a stride value for the kernel (eg, Table 6) .
  • the corresponding terminal may receive information on weight values and bias values in the specific candidate neural network structure. In this case, the corresponding information may be transmitted and received through RRC setting/MAC-CE/DCI.
  • the terminal may receive at least one reference signal for CSI reporting.
  • Corresponding information may be transmitted by a network device (eg, a base station, etc.).
  • a network device eg, a base station, etc.
  • at least one reference signal may be transmitted/received after being compressed and/or optimized based on the above-described learning algorithm.
  • step S2630 the terminal may perform channel estimation based on at least one reference signal in step S2620 and information on a learning algorithm in step S2610.
  • the terminal may perform measurement of a reference signal and channel estimation based on an AI/ML related parameter set/instructed by a base station or the like.
  • the terminal performs channel estimation, the terminal performs decompression of the at least one reference signal by applying the learning algorithm, and performs channel measurement based on the decompressed at least one reference signal. It could be.
  • the terminal may transmit/report CSI to (network device (eg, base station)) based on the result of the above-described channel estimation.
  • network device eg, base station
  • the terminal may report its own capability information (to a network device (eg, a base station)).
  • the capability information may include information indicating whether the corresponding terminal supports training based on the above-described learning algorithm (eg, whether it is a reference terminal). If the corresponding terminal supports learning based on the learning algorithm, the corresponding terminal may transmit information on the corresponding learning result to the base station and/or other terminals.
  • the terminal may receive update information (from a network device (eg, a base station and/or an AI/ML related server, etc.)) indicating an update to the above-described learning algorithm.
  • update information from a network device (eg, a base station and/or an AI/ML related server, etc.)
  • the corresponding update may be set/defined to be performed after a preset interval (eg, X symbols/msec) based on the reception time of the update information.
  • the preset interval may be set based on UE capability information and/or base station configuration.
  • 27 is a diagram illustrating an operation of a network device for a method for reporting channel state information according to an embodiment of the present disclosure.
  • any one or more (detailed) of the previously proposed methods eg, the above-described AI/ML-related information sharing method, Example 1, Example 2, Example 3, and detailed embodiments thereof
  • An operation of a network device eg, a base station and/or an AI/ML related server, etc.
  • a network device eg, a base station and/or an AI/ML related server, etc.
  • FIG. 27 is for convenience of description and does not limit the scope of the present disclosure. Some step(s) illustrated in FIG. 27 may be omitted depending on circumstances and/or settings.
  • the terminal in FIG. 27 is only one example, and may be implemented as a device illustrated in FIG. 28 below.
  • the processor 102/202 of FIG. 28 may control transmission and reception of channels/signals/data/information using the transceiver 106/206, and may transmit or receive channels/signals/information. It can also be controlled to store data/information or the like in the memory 104/204.
  • FIG. 27 may be processed by one or more processors 102 and 202 of FIG. 28, and the operation of FIG. It may be stored in a memory (eg, one or more memories 104 and 204 of FIG. 28) in the form of a command/program (eg, instruction or executable code).
  • a memory eg, one or more memories 104 and 204 of FIG. 28
  • a command/program eg, instruction or executable code
  • the network device may transmit information about the learning algorithm (to the terminal).
  • the corresponding learning algorithm may include an AI/ML algorithm and/or (D)NN structure related to CSI reporting.
  • the information on the learning algorithm includes information on the type/model of the learning algorithm (eg, identification information/number of the type/model of the learning algorithm), operation-related parameters for the learning algorithm etc. may be included.
  • the operation-related parameter may include at least one of the number of nodes, the number of hidden layers, and weight values related to the learning algorithm.
  • the operation-related parameters include the number of convolution layers, padding ) related information, pooling related information, or kernel related information.
  • the information on the learning algorithm may be information on a specific candidate neural network structure among a plurality of predefined candidate neural network structures, and indicates the specific candidate neural network structure among a plurality of indexes/states. Can be indicated by index/status.
  • the plurality of indices may be set based on a combination of at least two of the number of convolution layers, the number of kernels, the size of the kernel, or a stride value for the kernel (eg, Table 6) .
  • the network device may transmit (to the terminal) information about a weight value and information about a bias value in the specific candidate neural network structure. .
  • the corresponding information may be transmitted and received through RRC setting/MAC-CE/DCI.
  • the network device may transmit (to the terminal) at least one reference signal for CSI reporting.
  • at least one reference signal may be transmitted/received after being compressed and/or optimized based on the above-described learning algorithm.
  • the network device may receive (from the terminal) CSI by channel estimation based on at least one reference signal in step S2720 and information on a learning algorithm in step S1710.
  • measurement of a reference signal and channel estimation accordingly may be performed based on AI/ML related parameters set/instructed by a base station or the like (by a terminal).
  • an operation of decompressing the at least one reference signal by applying the learning algorithm and performing channel measurement based on the decompressed at least one reference signal may be applied.
  • the network device may receive (from the terminal) capability information of the terminal.
  • the capability information may include information indicating whether the corresponding terminal supports training based on the above-described learning algorithm (eg, whether it is a reference terminal). If the corresponding terminal supports learning based on the learning algorithm, the corresponding terminal may transmit information on the corresponding learning result to the base station and/or other terminals.
  • the network device may transmit (to the terminal) update information instructing an update of the above-described learning algorithm.
  • the corresponding update may be set/defined to be performed after a preset interval (eg, X symbols/msec) based on the reception time of the update information.
  • the preset interval may be set based on UE capability information and/or base station configuration.
  • FIG. 28 illustrates a block configuration diagram of a wireless communication device according to an embodiment of the present disclosure.
  • the first wireless device 100 and the second wireless device 200 may transmit and receive radio signals through various radio access technologies (eg, LTE and NR).
  • various radio access technologies eg, LTE and NR.
  • the first wireless device 100 includes one or more processors 102 and one or more memories 104, and may additionally include one or more transceivers 106 and/or one or more antennas 108.
  • the processor 102 controls the memory 104 and/or the transceiver 106 and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or flowcharts of operations set forth in this disclosure.
  • the processor 102 may process information in the memory 104 to generate first information/signal, and transmit a radio signal including the first information/signal through the transceiver 106.
  • the processor 102 may receive a radio signal including the second information/signal through the transceiver 106, and then store information obtained from signal processing of the second information/signal in the memory 104.
  • the memory 104 may be connected to the processor 102 and may store various information related to the operation of the processor 102 .
  • memory 104 may perform some or all of the processes controlled by processor 102, or instructions for performing the descriptions, functions, procedures, suggestions, methods, and/or flowcharts of operations disclosed in this disclosure. It may store software codes including them.
  • the processor 102 and memory 104 may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
  • the transceiver 106 may be coupled to the processor 102 and may transmit and/or receive wireless signals via one or more antennas 108 .
  • the transceiver 106 may include a transmitter and/or a receiver.
  • the transceiver 106 may be used interchangeably with a radio frequency (RF) unit.
  • a wireless device may mean a communication modem/circuit/chip.
  • the second wireless device 200 includes one or more processors 202, one or more memories 204, and may further include one or more transceivers 206 and/or one or more antennas 208.
  • the processor 202 controls the memory 204 and/or the transceiver 206 and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or flowcharts of operations set forth in this disclosure.
  • the processor 202 may process information in the memory 204 to generate third information/signal, and transmit a radio signal including the third information/signal through the transceiver 206.
  • the processor 202 may receive a radio signal including the fourth information/signal through the transceiver 206 and store information obtained from signal processing of the fourth information/signal in the memory 204 .
  • the memory 204 may be connected to the processor 202 and may store various information related to the operation of the processor 202 .
  • memory 204 may perform some or all of the processes controlled by processor 202, or instructions for performing the descriptions, functions, procedures, suggestions, methods, and/or flowcharts of operations disclosed in this disclosure. It may store software codes including them.
  • the processor 202 and memory 204 may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
  • the transceiver 206 may be coupled to the processor 202 and may transmit and/or receive wireless signals via one or more antennas 208 .
  • the transceiver 206 may include a transmitter and/or a receiver.
  • the transceiver 206 may be used interchangeably with an RF unit.
  • a wireless device may mean a communication modem/circuit/chip.
  • one or more protocol layers may be implemented by one or more processors 102, 202.
  • one or more processors 102, 202 may implement one or more layers (eg, functional layers such as PHY, MAC, RLC, PDCP, RRC, SDAP).
  • One or more processors (102, 202) may generate one or more Protocol Data Units (PDUs) and/or one or more Service Data Units (SDUs) in accordance with the descriptions, functions, procedures, proposals, methods and/or operational flow charts disclosed herein.
  • PDUs Protocol Data Units
  • SDUs Service Data Units
  • processors 102, 202 may generate messages, control information, data or information in accordance with the descriptions, functions, procedures, proposals, methods and/or operational flow diagrams set forth in this disclosure.
  • One or more processors 102, 202 may process PDUs, SDUs, messages, control information, data or signals containing information (e.g., baseband signals) according to the functions, procedures, proposals and/or methods disclosed herein. generated and provided to one or more transceivers (106, 206).
  • One or more processors 102, 202 may receive signals (e.g., baseband signals) from one or more transceivers 106, 206, the descriptions, functions, procedures, suggestions, methods and/or described in this disclosure.
  • PDUs, SDUs, messages, control information, data or information may be acquired according to the operational flowcharts.
  • One or more processors 102, 202 may be referred to as a controller, microcontroller, microprocessor or microcomputer.
  • One or more processors 102, 202 may be implemented by hardware, firmware, software, or a combination thereof.
  • ASICs Application Specific Integrated Circuits
  • DSPs Digital Signal Processors
  • DSPDs Digital Signal Processing Devices
  • PLDs Programmable Logic Devices
  • FPGAs Field Programmable Gate Arrays
  • the descriptions, functions, procedures, proposals, methods and/or operational flow charts disclosed in this disclosure may be implemented using firmware or software, and the firmware or software may be implemented to include modules, procedures, functions, and the like.
  • Firmware or software configured to perform the descriptions, functions, procedures, suggestions, methods and/or operational flow diagrams disclosed in this disclosure may be included in one or more processors (102, 202) or stored in one or more memories (104, 204). It can be driven by the above processors 102 and 202.
  • the descriptions, functions, procedures, suggestions, methods and/or operational flow diagrams disclosed in this disclosure may be implemented using firmware or software in the form of codes, instructions and/or sets of instructions.
  • One or more memories 104, 204 may be coupled with one or more processors 102, 202 and may store various types of data, signals, messages, information, programs, codes, instructions and/or instructions.
  • One or more memories 104, 204 may be comprised of ROM, RAM, EPROM, flash memory, hard drives, registers, cache memory, computer readable storage media, and/or combinations thereof.
  • One or more memories 104, 204 may be located internally and/or external to one or more processors 102, 202. Additionally, one or more memories 104, 204 may be coupled to one or more processors 102, 202 through various technologies, such as wired or wireless connections.
  • One or more transceivers 106, 206 may transmit user data, control information, radio signals/channels, etc., as referred to in the methods and/or operational flow charts of this disclosure, to one or more other devices.
  • the one or more transceivers 106, 206 may receive user data, control information, radio signals/channels, etc. referred to in the descriptions, functions, procedures, proposals, methods and/or operational flow charts, etc. disclosed in this disclosure from one or more other devices. there is.
  • one or more transceivers 106 and 206 may be connected to one or more processors 102 and 202 and transmit and receive wireless signals.
  • one or more processors 102, 202 may control one or more transceivers 106, 206 to transmit user data, control information, or radio signals to one or more other devices. Additionally, one or more processors 102, 202 may control one or more transceivers 106, 206 to receive user data, control information, or radio signals from one or more other devices. In addition, one or more transceivers 106, 206 may be coupled with one or more antennas 108, 208, and one or more transceivers 106, 206 may be connected to one or more antennas 108, 208, as described herein. , procedures, proposals, methods and / or operation flowcharts, etc. can be set to transmit and receive user data, control information, radio signals / channels, etc.
  • one or more antennas may be a plurality of physical antennas or a plurality of logical antennas (eg, antenna ports).
  • One or more transceivers (106, 206) convert the received radio signals/channels from RF band signals in order to process the received user data, control information, radio signals/channels, etc. using one or more processors (102, 202). It can be converted into a baseband signal.
  • One or more transceivers 106 and 206 may convert user data, control information, and radio signals/channels processed by one or more processors 102 and 202 from baseband signals to RF band signals.
  • one or more of the transceivers 106, 206 may include (analog) oscillators and/or filters.
  • the scope of the present disclosure is software or machine-executable instructions (eg, operating systems, applications, firmware, programs, etc.) that cause operations in accordance with the methods of various embodiments to be executed on a device or computer, and such software or It includes a non-transitory computer-readable medium in which instructions and the like are stored and executable on a device or computer. Instructions that may be used to program a processing system that performs the features described in this disclosure may be stored on/in a storage medium or computer-readable storage medium and may be viewed using a computer program product that includes such storage medium. Features described in the disclosure may be implemented.
  • the storage medium may include, but is not limited to, high speed random access memory such as DRAM, SRAM, DDR RAM or other random access solid state memory devices, one or more magnetic disk storage devices, optical disk storage devices, flash memory devices, or It may include non-volatile memory, such as other non-volatile solid state storage devices.
  • the memory optionally includes one or more storage devices located remotely from the processor(s).
  • the memory, or alternatively, the non-volatile memory device(s) within the memory includes non-transitory computer readable storage media.
  • Features described in this disclosure may be stored on any one of the machine readable media to control hardware of a processing system and to allow the processing system to interact with other mechanisms that utilize results according to embodiments of the present disclosure. It may be integrated into software and/or firmware.
  • Such software or firmware may include, but is not limited to, application code, device drivers, operating systems, and execution environments/containers.
  • the wireless communication technology implemented in the wireless devices 100 and 200 of the present disclosure may include Narrowband Internet of Things for low power communication as well as LTE, NR, and 6G.
  • NB-IoT technology may be an example of LPWAN (Low Power Wide Area Network) technology, and may be implemented in standards such as LTE Cat NB1 and / or LTE Cat NB2. no.
  • the wireless communication technology implemented in the wireless device (XXX, YYY) of the present disclosure may perform communication based on LTE-M technology.
  • LTE-M technology may be an example of LPWAN technology, and may be called various names such as eMTC (enhanced machine type communication).
  • LTE-M technologies are 1) LTE CAT 0, 2) LTE Cat M1, 3) LTE Cat M2, 4) LTE non-BL (non-Bandwidth Limited), 5) LTE-MTC, 6) LTE Machine Type Communication, and/or 7) It may be implemented in at least one of various standards such as LTE M, and is not limited to the above-mentioned names.
  • the wireless communication technology implemented in the wireless device (XXX, YYY) of the present disclosure includes at least one of ZigBee, Bluetooth, and Low Power Wide Area Network (LPWAN) considering low power communication. It may include any one, and is not limited to the above-mentioned names.
  • ZigBee technology can generate personal area networks (PANs) related to small/low-power digital communication based on various standards such as IEEE 802.15.4, and can be called various names.
  • PANs personal area networks
  • the method proposed in the present disclosure has been described focusing on examples applied to 3GPP LTE/LTE-A and 5G systems, but can be applied to various wireless communication systems other than 3GPP LTE/LTE-A and 5G systems.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Power Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

무선 통신 시스템에서 무선 신호의 송수신을 위한 방법 및 장치가 개시된다. 본 개시의 일 실시예에 따른 단말에 의해서 채널 상태 정보(channel state information, CSI) 보고를 수행하는 방법은, 상기 CSI 보고와 관련된 러닝 알고리즘(learning algorithm)에 대한 정보를 수신하는 단계; 상기 CSI 보고를 위한 적어도 하나의 참조 신호를 수신하는 단계; 상기 적어도 하나의 참조 신호 및 상기 정보에 기반하여 채널 추정을 수행하는 단계; 및 상기 채널 추정의 결과에 기반하여 CSI를 전송하는 단계를 포함할 수 있다. 상기 정보는 상기 러닝 알고리즘의 유형(type) 또는 모델에 대한 식별 정보, 또는 상기 러닝 알고리즘을 위한 동작 관련 파라미터 중 적어도 하나를 포함할 수 있다.

Description

무선 통신 시스템에서 무선 신호 송수신 방법 및 장치
본 개시는 무선 통신 시스템에 관한 것으로서, 보다 상세하게 무선 통신 시스템에서 무선 신호를 송수신하는 방법 및 장치에 관한 것이다.
이동 통신 시스템은 사용자의 활동성을 보장하면서 음성 서비스를 제공하기 위해 개발되었다. 그러나 이동통신 시스템은 음성뿐 아니라 데이터 서비스까지 영역을 확장하였으며, 현재에는 폭발적인 트래픽의 증가로 인하여 자원의 부족 현상이 야기되고 사용자들이 보다 고속의 서비스에 대한 요구하므로, 보다 발전된 이동 통신 시스템이 요구되고 있다.
차세대 이동 통신 시스템의 요구 조건은 크게 폭발적인 데이터 트래픽의 수용, 사용자 당 전송률의 획기적인 증가, 대폭 증가된 연결 디바이스 개수의 수용, 매우 낮은 단대단 지연(End-to-End Latency), 고에너지 효율을 지원할 수 있어야 한다. 이를 위하여 이중 연결성(Dual Connectivity), 대규모 다중 입출력(Massive MIMO: Massive Multiple Input Multiple Output), 전이중(In-band Full Duplex), 비직교 다중접속(NOMA: Non-Orthogonal Multiple Access), 초광대역(Super wideband) 지원, 단말 네트워킹(Device Networking) 등 다양한 기술들이 연구되고 있다.
본 개시의 기술적 과제는 무선 통신 시스템에서 무선 신호를 송수신하는 방법 및 장치를 제공하는 것이다.
또한, 본 개시의 추가적인 기술적 과제는 진화된 무선 통신 시스템에서 AI(Artificial Intelligence)/ML(Machine Learning) 기반의 러닝 알고리즘과 관련된 정보를 송수신하는 방법 및 장치를 제공하는 것이다.
본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 개시의 일 양상에 따른 무선 통신 시스템에서 단말에 의해서 채널 상태 정보(channel state information, CSI) 보고를 수행하는 방법은, 상기 CSI 보고와 관련된 러닝 알고리즘(learning algorithm)에 대한 정보를 수신하는 단계; 상기 CSI 보고를 위한 적어도 하나의 참조 신호를 수신하는 단계; 상기 적어도 하나의 참조 신호 및 상기 정보에 기반하여 채널 추정을 수행하는 단계; 및 상기 채널 추정의 결과에 기반하여 CSI를 전송하는 단계를 포함할 수 있다. 상기 정보는 상기 러닝 알고리즘의 유형(type) 또는 모델에 대한 식별 정보, 또는 상기 러닝 알고리즘을 위한 동작 관련 파라미터 중 적어도 하나를 포함할 수 있다.
본 개시의 추가적인 양상에 따른 무선 통신 시스템에서 네트워크 장치에 의해서 채널 상태 정보(channel state information, CSI) 보고를 수신하는 방법은, 상기 CSI 보고와 관련된 러닝 알고리즘(learning algorithm)에 대한 정보를 전송하는 단계; 상기 CSI 보고를 위한 적어도 하나의 참조 신호를 전송하는 단계; 및 상기 적어도 하나의 참조 신호 및 상기 정보에 기반하는 채널 추정에 의한 CSI를 수신하는 단계를 포함할 수 있다. 상기 정보는 상기 러닝 알고리즘의 유형(type) 또는 모델에 대한 식별 정보, 또는 상기 러닝 알고리즘을 위한 동작 관련 파라미터 중 적어도 하나를 포함할 수 있다.
본 개시의 실시예에 따르면, 진화된 무선 통신 시스템 기반의 예측/최적화에 따른 채널 상태 측정 및 채널 상태 정보 보고를 지원할 수 있다.
본 개시의 실시예에 따르면, 기지국과 단말 간 AI/ML 기반의 러닝 알고리즘/모델에 대한 공유를 통해 최적화된 채널 추정을 지원할 수 있다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 개시에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 개시에 대한 실시예를 제공하고, 상세한 설명과 함께 본 개시의 기술적 특징을 설명한다.
도 1은 본 개시가 적용될 수 있는 무선 통신 시스템의 구조를 예시한다.
도 2는 본 개시가 적용될 수 있는 무선 통신 시스템에서 프레임 구조를 예시한다.
도 3은 본 개시가 적용될 수 있는 무선 통신 시스템에서 자원 그리드(resource grid)를 예시한다.
도 4는 본 개시가 적용될 수 있는 무선 통신 시스템에서 물리 자원 블록(physical resource block)을 예시한다.
도 5는 본 개시가 적용될 수 있는 무선 통신 시스템에서 슬롯 구조를 예시한다.
도 6은 본 개시가 적용될 수 있는 무선 통신 시스템에서 이용되는 물리 채널들 및 이들을 이용한 일반적인 신호 송수신 방법을 예시한다.
도 7은 본 개시가 적용될 수 있는 무선 통신 시스템에서 다중 TRP 전송 방식을 예시한다.
도 8은 본 개시가 적용될 수 있는 무선 통신 시스템에서 하향링크 송수신 동작을 예시하는 도면이다.
도 9는 본 개시가 적용될 수 있는 무선 통신 시스템에서 상향링크 송수신 동작을 예시하는 도면이다.
도 10은 인공지능의 분류를 예시한다.
도 11은 순방향 신경망(Feed-Forward Neural Network)을 예시한다.
도 12는 순환 신경망(Recurrent Neural Network)을 예시한다.
도 13은 컨볼루션 신경망(Convolutional Neural Network)을 예시한다.
도 14는 오토 인코더(Auto encoder)를 예시한다.
도 15는 AI 동작을 위한 기능적 프레임워크(functional framework)를 예시한다.
도 16은 분할 AI 추론을 예시하는 도면이다.
도 17은 무선 통신 시스템에서 기능적 프레임워크(functional framework)의 적용을 예시한다.
도 18은 무선 통신 시스템에서 기능적 프레임워크(functional framework)의 적용을 예시한다.
도 19는 무선 통신 시스템에서 기능적 프레임워크(functional framework)의 적용을 예시한다.
도 20은 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 위한 1D CNN 구조를 예시한다.
도 21은 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 위한 1D CNN 구조에서의 출력 값 추정 방식을 예시한다.
도 22는 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 위한 2D CNN 구조를 예시한다.
도 23은 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 위한 2D CNN 구조에서의 출력 값 추정 방식을 예시한다.
도 24는 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 CNN 구조에서의 패딩 및 풀링을 예시한다.
도 25는 본 개시의 일 실시예에 따른 채널 상태 정보 보고 방법에 대한 기지국과 단말 간의 시그널링 절차를 예시하는 도면이다.
도 26은 본 개시의 일 실시예에 따른 채널 상태 정보 보고 방법에 대한 단말의 동작을 예시하는 도면이다.
도 27은 본 개시의 일 실시예에 따른 채널 상태 정보 보고 방법에 대한 네트워크 장치의 동작을 예시하는 도면이다.
도 28은 본 개시의 일 실시예에 따른 무선 통신 장치의 블록 구성도를 예시한다.
이하, 본 개시에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 개시의 예시적인 실시형태를 설명하고자 하는 것이며, 본 개시가 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다. 이하의 상세한 설명은 본 개시의 완전한 이해를 제공하기 위해서 구체적 세부사항을 포함한다. 그러나, 당업자는 본 개시가 이러한 구체적 세부사항 없이도 실시될 수 있음을 안다.
몇몇 경우, 본 개시의 개념이 모호해지는 것을 피하기 위하여 공지의 구조 및 장치는 생략되거나, 각 구조 및 장치의 핵심기능을 중심으로 한 블록도 형식으로 도시될 수 있다.
본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계 뿐만 아니라, 그 사이에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 본 개시에서 용어 "포함한다" 또는 "가진다"는 언급된 특징, 단계, 동작, 요소 및/또는 구성요소의 존재를 특정하지만, 하나 이상의 다른 특징, 단계, 동작, 요소, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는다.
본 개시에 있어서, "제 1", "제 2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되고 구성요소들을 제한하기 위해서 사용되지 않으며, 특별히 언급되지 않는 한 구성요소들 간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시예에서의 제 1 구성요소는 다른 실시예에서 제 2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시예에서의 제 2 구성요소를 다른 실시예에서 제 1 구성요소라고 칭할 수도 있다.
본 개시에서 사용된 용어는 특정 실시예에 대한 설명을 위한 것이며 청구범위를 제한하려는 것이 아니다. 실시예의 설명 및 첨부된 청구범위에서 사용되는 바와 같이, 단수 형태는 문맥상 명백하게 다르게 나타내지 않는 한 복수 형태도 포함하도록 의도한 것이다. 본 개시에 사용된 용어 "및/또는"은 관련된 열거 항목 중의 하나를 지칭할 수도 있고, 또는 그 중의 둘 이상의 임의의 및 모든 가능한 조합을 지칭하고 포함하는 것을 의미한다. 또한, 본 개시에서 단어들 사이의 "/"는 달리 설명되지 않는 한 "및/또는"과 동일한 의미를 가진다.
본 개시는 무선 통신 네트워크 또는 무선 통신 시스템을 대상으로 설명하며, 무선 통신 네트워크에서 이루어지는 동작은 해당 무선 통신 네트워크를 관할하는 장치(예를 들어 기지국)에서 네트워크를 제어하고 신호를 송신(transmit) 또는 수신(receive)하는 과정에서 이루어지거나, 해당 무선 네트워크에 결합한 단말에서 네트워크와의 또는 단말간의 신호를 송신 또는 수신하는 과정에서 이루어질 수 있다.
본 개시에서, 채널을 송신 또는 수신한다는 것은 해당 채널을 통해서 정보 또는 신호를 송신 또는 수신한다는 의미를 포함한다. 예를 들어, 제어 채널을 송신한다는 것은, 제어 채널을 통해서 제어 정보 또는 신호를 송신한다는 것을 의미한다. 유사하게, 데이터 채널을 송신한다는 것은, 데이터 채널을 통해서 데이터 정보 또는 신호를 송신한다는 것을 의미한다.
이하에서, 하향링크(DL: downlink)는 기지국에서 단말로의 통신을 의미하며, 상향링크(UL: uplink)는 단말에서 기지국으로의 통신을 의미한다. 하향링크에서 송신기는 기지국의 일부이고, 수신기는 단말의 일부일 수 있다. 상향링크에서 송신기는 단말의 일부이고, 수신기는 기지국의 일부일 수 있다. 기지국은 제1 통신 장치로, 단말은 제2 통신 장치로 표현될 수도 있다. 기지국(BS: Base Station)은 고정국(fixed station), Node B, eNB(evolved-NodeB), gNB(Next Generation NodeB), BTS(base transceiver system), 액세스 포인트(AP: Access Point), 네트워크(5G 네트워크), AI(Artificial Intelligence) 시스템/모듈, RSU(road side unit), 로봇(robot), 드론(UAV: Unmanned Aerial Vehicle), AR(Augmented Reality)장치, VR(Virtual Reality)장치 등의 용어에 의해 대체될 수 있다. 또한, 단말(Terminal)은 고정되거나 이동성을 가질 수 있으며, UE(User Equipment), MS(Mobile Station), UT(user terminal), MSS(Mobile Subscriber Station), SS(Subscriber Station), AMS(Advanced Mobile Station), WT(Wireless terminal), MTC(Machine-Type Communication) 장치, M2M(Machine-to-Machine) 장치, D2D(Device-to-Device) 장치, 차량(vehicle), RSU(road side unit), 로봇(robot), AI(Artificial Intelligence) 모듈, 드론(UAV: Unmanned Aerial Vehicle), AR(Augmented Reality)장치, VR(Virtual Reality)장치 등의 용어로 대체될 수 있다.
이하의 기술은 CDMA, FDMA, TDMA, OFDMA, SC-FDMA 등과 같은 다양한 무선 접속 시스템에 사용될 수 있다. CDMA는 UTRA(Universal Terrestrial Radio Access)나 CDMA2000과 같은 무선 기술로 구현될 수 있다. TDMA는 GSM(Global System for Mobile communications)/GPRS(General Packet Radio Service)/EDGE(Enhanced Data Rates for GSM Evolution)와 같은 무선 기술로 구현될 수 있다. OFDMA는 IEEE 802.11(Wi-Fi), IEEE 802.16(WiMAX), IEEE 802-20, E-UTRA(Evolved UTRA) 등과 같은 무선 기술로 구현될 수 있다. UTRA는 UMTS(Universal Mobile Telecommunications System)의 일부이다. 3GPP(3rd Generation Partnership Project) LTE(Long Term Evolution)은 E-UTRA를 사용하는 E-UMTS(Evolved UMTS)의 일부이고 LTE-A(Advanced)/LTE-A pro는 3GPP LTE의 진화된 버전이다. 3GPP NR(New Radio or New Radio Access Technology)는 3GPP LTE/LTE-A/LTE-A pro의 진화된 버전이다.
설명을 명확하게 하기 위해, 3GPP 통신 시스템(예를 들어, LTE-A, NR)을 기반으로 설명하지만 본 개시의 기술적 사상이 이에 제한되는 것은 아니다. LTE는 3GPP TS(Technical Specification) 36.xxx Release 8 이후의 기술을 의미한다. 세부적으로, 3GPP TS 36.xxx Release 10 이후의 LTE 기술은 LTE-A로 지칭되고, 3GPP TS 36.xxx Release 13 이후의 LTE 기술은 LTE-A pro로 지칭된다. 3GPP NR은 TS 38.xxx Release 15 이후의 기술을 의미한다. LTE/NR은 3GPP 시스템으로 지칭될 수 있다. "xxx"는 표준 문서 세부 번호를 의미한다. LTE/NR은 3GPP 시스템으로 통칭될 수 있다. 본 개시의 설명에 사용된 배경기술, 용어, 약어 등에 관해서는 본 개시 이전에 공개된 표준 문서에 기재된 사항을 참조할 수 있다. 예를 들어, 다음 문서를 참조할 수 있다.
3GPP LTE의 경우, TS 36.211(물리 채널들 및 변조), TS 36.212(다중화 및 채널 코딩), TS 36.213(물리 계층 절차들), TS 36.300(전반적인 설명), TS 36.331(무선 자원 제어)을 참조할 수 있다.
3GPP NR의 경우, TS 38.211(물리 채널들 및 변조), TS 38.212(다중화 및 채널 코딩), TS 38.213(제어를 위한 물리 계층 절차들), TS 38.214(데이터를 위한 물리 계층 절차들), TS 38.300(NR 및 NG-RAN(New Generation-Radio Access Network) 전반적인 설명), TS 38.331(무선 자원 제어 프로토콜 규격)을 참조할 수 있다.
본 개시에서 사용될 수 있는 용어들의 약자는 다음과 같이 정의된다.
- BM: 빔 관리(beam management)
- CQI: 채널 품질 지시자(channel quality indicator)
- CRI: 채널 상태 정보 - 참조 신호 자원 지시자(channel state information - reference signal resource indicator)
- CSI: 채널 상태 정보(channel state information)
- CSI-IM: 채널 상태 정보 - 간섭 측정(channel state information - interference measurement)
- CSI-RS: 채널 상태 정보 - 참조 신호(channel state information - reference signal)
- DMRS: 복조 참조 신호(demodulation reference signal)
- FDM: 주파수 분할 다중화(frequency division multiplexing)
- FFT: 고속 푸리에 변환(fast Fourier transform)
- IFDMA: 인터리빙된 주파수 분할 다중 액세스(interleaved frequency division multiple access)
- IFFT: 역 고속 푸리에 변환(inverse fast Fourier transform)
- L1-RSRP: 제1 레이어 참조 신호 수신 파워(Layer 1 reference signal received power)
- L1-RSRQ: 제1 레이어 참조 신호 수신 품질(Layer 1 reference signal received quality)
- MAC: 매체 액세스 제어(medium access control)
- NZP: 논-제로 파워(non-zero power)
- OFDM: 직교 주파수 분할 다중화(orthogonal frequency division multiplexing)
- PDCCH: 물리 하향링크 제어 채널(physical downlink control channel)
- PDSCH: 물리 하향링크 공유 채널(physical downlink shared channel)
- PMI: 프리코딩 행렬 지시자(precoding matrix indicator)
- RE: 자원 요소(resource element)
- RI: 랭크 지시자(Rank indicator)
- RRC: 무선 자원 제어(radio resource control)
- RSSI: 수신 신호 강도 지시자(received signal strength indicator)
- Rx: 수신(Reception)
- QCL: 준-동일 위치(quasi co-location)
- SINR: 신호 대 간섭 및 잡음비(signal to interference and noise ratio)
- SSB (또는 SS/PBCH block): 동기 신호 블록(프라이머리 동기 신호(PSS: primary synchronization signal), 세컨더리 동기 신호(SSS: secondary synchronization signal) 및 물리 방송 채널(PBCH: physical broadcast channel)을 포함)
- TDM: 시간 분할 다중화(time division multiplexing)
- TRP: 전송 및 수신 포인트(transmission and reception point)
- TRS: 트래킹 참조 신호(tracking reference signal)
- Tx: 전송(transmission)
- UE: 사용자 장치(user equipment)
- ZP: 제로 파워(zero power)
시스템 일반
더욱 많은 통신 기기들이 더욱 큰 통신 용량을 요구하게 됨에 따라, 기존의 무선 액세스 기술(RAT: radio access technology)에 비해 향상된 모바일 브로드밴드(mobile broadband) 통신에 대한 필요성이 대두되고 있다. 또한 다수의 기기 및 사물들을 연결하여 언제 어디서나 다양한 서비스를 제공하는 매시브(massive) MTC(Machine Type Communications) 역시 차세대 통신에서 고려될 주요 이슈 중 하나이다. 뿐만 아니라 신뢰도(reliability) 및 지연(latency)에 민감한 서비스/단말을 고려한 통신 시스템 디자인이 논의되고 있다. 이와 같이 eMBB(enhanced mobile broadband communication), Mmtc(massive MTC), URLLC (Ultra-Reliable and Low Latency Communication) 등을 고려한 차세대 RAT의 도입이 논의되고 있으며, 본 개시에서는 편의상 해당 기술을 NR이라고 부른다. NR은 5G RAT의 일례를 나타낸 표현이다.
NR을 포함하는 새로운 RAT 시스템은 OFDM 전송 방식 또는 이와 유사한 전송 방식을 사용한다. 새로운 RAT 시스템은 LTE의 OFDM 파라미터들과는 다른 OFDM 파라미터들을 따를 수 있다. 또는 새로운 RAT 시스템은 기존의 LTE/LTE-A의 뉴머롤로지(numerology)를 그대로 따르나 더 큰 시스템 대역폭(예를 들어, 100MHz)를 지원할 수 있다. 또는 하나의 셀이 복수 개의 numerology들을 지원할 수도 있다. 즉, 서로 다른 numerology로 동작하는 하는 단말들이 하나의 셀 안에서 공존할 수 있다.
numerology는 주파수 영역에서 하나의 서브캐리어 간격(subcarrier spacing)에 대응한다. 참조 서브캐리어 간격(Reference subcarrier spacing)을 정수 N으로 스케일링(scaling)함으로써, 상이한 numerology가 정의될 수 있다.
도 1은 본 개시가 적용될 수 있는 무선 통신 시스템의 구조를 예시한다.
도 1을 참조하면, NG-RAN은 NG-RA(NG-Radio Access) 사용자 평면(즉, 새로운 AS(access stratum) 서브계층/PDCP(Packet Data Convergence Protocol)/RLC(Radio Link Control)/MAC/PHY) 및 UE에 대한 제어 평면(RRC) 프로토콜 종단을 제공하는 gNB들로 구성된다. 상기 gNB는 Xn 인터페이스를 통해 상호 연결된다. 상기 gNB는 또한, NG 인터페이스를 통해 NGC(New Generation Core)로 연결된다. 보다 구체적으로는, 상기 gNB는 N2 인터페이스를 통해 AMF(Access and Mobility Management Function)로, N3 인터페이스를 통해 UPF(User Plane Function)로 연결된다.
도 2는 본 개시가 적용될 수 있는 무선 통신 시스템에서 프레임 구조를 예시한다.
NR 시스템은 다수의 뉴머롤로지(numerology)들을 지원할 수 있다. 여기서, numerology는 서브캐리어 간격(subcarrier spacing)과 순환 전치(CP: Cyclic Prefix) 오버헤드에 의해 정의될 수 있다. 이때, 다수의 서브캐리어 간격은 기본(참조) 서브캐리어 간격을 정수 N(또는, μ)으로 스케일링(scaling) 함으로써 유도될 수 있다. 또한, 매우 높은 반송파 주파수에서 매우 낮은 서브캐리어 간격을 이용하지 않는다고 가정될지라도, 이용되는 numerology는 주파수 대역과 독립적으로 선택될 수 있다. 또한, NR 시스템에서는 다수의 numerology에 따른 다양한 프레임 구조들이 지원될 수 있다.
이하, NR 시스템에서 고려될 수 있는 OFDM numerology 및 프레임 구조를 살펴본다. NR 시스템에서 지원되는 다수의 OFDM numerology들은 아래 표 1과 같이 정의될 수 있다.
μ Δf=2μ·15 [kHz] CP
0 15 일반(Normal)
1 30 일반
2 60 일반, 확장(Extended)
3 120 일반
4 240 일반
NR은 다양한 5G 서비스들을 지원하기 위한 다수의 numerology(또는 서브캐리어 간격(SCS: subcarrier spacing))를 지원한다. 예를 들어, SCS가 15kHz인 경우, 전통적인 셀룰러 밴드들에서의 넓은 영역(wide area)를 지원하며, SCS가 30kHz/60kHz인 경우, 밀집한-도시(dense-urban), 더 낮은 지연(lower latency) 및 더 넓은 캐리어 대역폭(wider carrier bandwidth)를 지원하며, SCS가 60kHz 또는 그보다 높은 경우, 위상 잡음(phase noise)를 극복하기 위해 24.25GHz보다 큰 대역폭을 지원한다.
NR 주파수 밴드(frequency band)는 2가지 타입(FR1, FR2)의 주파수 범위(frequency range)로 정의된다. FR1, FR2는 아래 표 2와 같이 구성될 수 있다. 또한, FR2는 밀리미터 웨이브(mmW: millimeter wave)를 의미할 수 있다.
주파수 범위 지정(Frequency Range designation) 해당 주파수 범위(Corresponding frequency range) 서브캐리어 간격(Subcarrier Spacing)
FR1 410MHz - 7125MHz 15, 30, 60kHz
FR2 24250MHz - 52600MHz 60, 120, 240kHz
NR 시스템에서의 프레임 구조(frame structure)와 관련하여, 시간 영역의 다양한 필드의 크기는 Tc=1/(Δfmax·Nf) 의 시간 단위의 배수로 표현된다. 여기에서, Δfmax=480·103 Hz 이고, Nf=4096 이다. 하향링크(downlink) 및 상향링크(uplink) 전송은 Tf=1/(ΔfmaxNf/100)·Tc=10ms 의 구간을 가지는 무선 프레임(radio frame)으로 구성(organized)된다. 여기에서, 무선 프레임은 각각 Tsf=(ΔfmaxNf/1000)·Tc=1ms 의 구간을 가지는 10 개의 서브프레임(subframe)들로 구성된다. 이 경우, 상향링크에 대한 한 세트의 프레임들 및 하향링크에 대한 한 세트의 프레임들이 존재할 수 있다. 또한, 단말로부터의 상향링크 프레임 번호 i에서의 전송은 해당 단말에서의 해당 하향링크 프레임의 시작보다 TTA=(NTA+NTA,offset)Tc 이전에 시작해야 한다. 서브캐리어 간격 구성 μ 에 대하여, 슬롯(slot)들은 서브프레임 내에서 ns μ∈{0,..., Nslot subframe,μ-1} 의 증가하는 순서로 번호가 매겨지고, 무선 프레임 내에서 ns,f μ∈{0,..., Nslot frame,μ-1} 의 증가하는 순서로 번호가 매겨진다. 하나의 슬롯은 Nsymb slot 의 연속하는 OFDM 심볼들로 구성되고, Nsymb slot 는, CP에 따라 결정된다. 서브프레임에서 슬롯 ns μ 의 시작은 동일 서브프레임에서 OFDM 심볼 ns μNsymb slot 의 시작과 시간적으로 정렬된다. 모든 단말이 동시에 송신 및 수신을 할 수 있는 것은 아니며, 이는 하향링크 슬롯(downlink slot) 또는 상향링크 슬롯(uplink slot)의 모든 OFDM 심볼들이 이용될 수는 없다는 것을 의미한다.
표 3은 일반 CP에서 슬롯 별 OFDM 심볼의 개수(Nsymb slot), 무선 프레임 별 슬롯의 개수(Nslot frame,μ), 서브프레임 별 슬롯의 개수(Nslot subframe,μ)를 나타내며, 표 4는 확장 CP에서 슬롯 별 OFDM 심볼의 개수, 무선 프레임 별 슬롯의 개수, 서브프레임 별 슬롯의 개수를 나타낸다.
μ Nsymb slot Nslot frame,μ Nslot subframe,μ
0 14 10 1
1 14 20 2
2 14 40 4
3 14 80 8
4 14 160 16
μ Nsymb slot Nslot frame,μ Nslot subframe,μ
2 12 40 4
도 2는, μ=2인 경우(SCS가 60kHz)의 일례로서, 표 3을 참고하면 1 서브프레임(subframe)은 4개의 슬롯(slot)들을 포함할 수 있다. 도 2에 도시된 1 subframe={1,2,4} slot은 일례로서, 1 subframe에 포함될 수 있는 slot(들)의 개수는 표 3 또는 표 4와 같이 정의된다. 또한, 미니 슬롯(mini-slot)은 2, 4 또는 7 심볼들을 포함하거나 그 보다 더 많은 또는 더 적은 심볼들을 포함할 수 있다.
NR 시스템에서의 물리 자원(physical resource)과 관련하여, 안테나 포트(antenna port), 자원 그리드(resource grid), 자원 요소(resource element), 자원 블록(resource block), 캐리어 파트(carrier part) 등이 고려될 수 있다. 이하, NR 시스템에서 고려될 수 있는 상기 물리 자원들에 대해 구체적으로 살펴본다.
먼저, 안테나 포트와 관련하여, 안테나 포트는 안테나 포트 상의 심볼이 운반되는 채널이 동일한 안테나 포트 상의 다른 심볼이 운반되는 채널로부터 추론될 수 있도록 정의된다. 하나의 안테나 포트 상의 심볼이 운반되는 채널의 광범위 특성(large-scale property)이 다른 안테나 포트 상의 심볼이 운반되는 채널로부터 유추될 수 있는 경우, 2 개의 안테나 포트는 QC/QCL(quasi co-located 혹은 quasi co-location) 관계에 있다고 할 수 있다. 여기서, 상기 광범위 특성은 지연 확산(Delay spread), 도플러 확산(Doppler spread), 주파수 쉬프트(Frequency shift), 평균 수신 파워(Average received power), 수신 타이밍(Received Timing) 중 하나 이상을 포함한다.
도 3은 본 개시가 적용될 수 있는 무선 통신 시스템에서 자원 그리드(resource grid)를 예시한다.
도 3을 참조하면, 자원 그리드가 주파수 영역 상으로 NRB μNsc RB 서브캐리어들로 구성되고, 하나의 서브프레임이 14·2μ OFDM 심볼들로 구성되는 것을 예시적으로 기술하나, 이에 한정되는 것은 아니다. NR 시스템에서, 전송되는 신호(transmitted signal)는 NRB μNsc RB 서브캐리어들로 구성되는 하나 또는 그 이상의 자원 그리드들 및 2μNsymb (μ) 의 OFDM 심볼들에 의해 설명된다. 여기서, NRB μ≤NRB max,μ 이다. 상기 NRB max,μ 는 최대 전송 대역폭을 나타내고, 이는, numerology들 뿐만 아니라 상향링크와 하향링크 간에도 달라질 수 있다. 이 경우, μ 및 안테나 포트 p 별로 하나의 자원 그리드가 설정될 수 있다. μ 및 안테나 포트 p에 대한 자원 그리드의 각 요소는 자원 요소(resource element)로 지칭되며, 인덱스 쌍 (k,l')에 의해 고유적으로 식별된다. 여기에서, k=0,...,NRB μNsc RB-1 는 주파수 영역 상의 인덱스이고, l'=0,...,2μNsymb (μ)-1 는 서브프레임 내에서 심볼의 위치를 지칭한다. 슬롯에서 자원 요소를 지칭할 때에는, 인덱스 쌍 (k,l) 이 이용된다. 여기서, l=0,...,Nsymb μ-1 이다. μ 및 안테나 포트 p에 대한 자원 요소 (k,l') 는 복소 값(complex value) ak,l' (p,μ) 에 해당한다. 혼동(confusion)될 위험이 없는 경우 혹은 특정 안테나 포트 또는 numerology가 특정되지 않은 경우에는, 인덱스들 p 및 μ 는 드롭(drop)될 수 있으며, 그 결과 복소 값은 ak,l' (p) 또는 ak,l' 이 될 수 있다. 또한, 자원 블록(resource block, RB)은 주파수 영역 상의 Nsc RB=12 연속적인 서브캐리어들로 정의된다.
포인트(point) A는 자원 블록 그리드의 공통 기준 포인트(common reference point)로서 역할을 하며 다음과 같이 획득된다.
- 프라이머리 셀(PCell: Primary Cell) 다운링크에 대한 offsetToPointA는 초기 셀 선택을 위해 단말에 의해 사용된 SS/PBCH block과 겹치는 가장 낮은 자원 블록의 가장 낮은 서브 캐리어와 point A 간의 주파수 오프셋을 나타낸다. FR1에 대해 15kHz 서브캐리어 간격 및 FR2에 대해 60kHz 서브캐리어 간격을 가정한 리소스 블록 단위(unit)들로 표현된다.
- absoluteFrequencyPointA는 ARFCN(absolute radio-frequency channel number)에서와 같이 표현된 point A의 주파수-위치를 나타낸다.
공통 자원 블록(common resource block)들은 서브캐리어 간격 설정 μ 에 대한 주파수 영역에서 0부터 위쪽으로 numbering된다. 서브캐리어 간격 설정 μ 에 대한 공통 자원 블록 0의 subcarrier 0의 중심은 'point A'와 일치한다. 주파수 영역에서 공통 자원 블록 번호 nCRB μ 와 서브캐리어 간격 설정 μ 에 대한 자원 요소(k,l)와의 관계는 아래 수학식 1과 같이 주어진다.
Figure PCTKR2022014631-appb-img-000001
수학식 1에서, k는 k=0이 point A를 중심으로 하는 서브캐리어에 해당하도록 point A에 상대적으로 정의된다. 물리 자원 블록들은 대역폭 파트(BWP: bandwidth part) 내에서 0부터 NBWP,i size,μ-1 까지 번호가 매겨지고, i는 BWP의 번호이다. BWP i에서 물리 자원 블록 nPRB 와 공통 자원 블록 nCRB 간의 관계는 아래 수학식 2에 의해 주어진다.
Figure PCTKR2022014631-appb-img-000002
NBWP,i start,μ 는 BWP가 공통 자원 블록 0에 상대적으로 시작하는 공통 자원 블록이다.
도 4는 본 개시가 적용될 수 있는 무선 통신 시스템에서 물리 자원 블록(physical resource block)을 예시한다. 그리고, 도 5는 본 개시가 적용될 수 있는 무선 통신 시스템에서 슬롯 구조를 예시한다.
도 4 및 도 5를 참조하면, 슬롯은 시간 도메인에서 복수의 심볼을 포함한다. 예를 들어, 보통 CP의 경우 하나의 슬롯이 7개의 심볼을 포함하나, 확장 CP의 경우 하나의 슬롯이 6개의 심볼을 포함한다.
반송파는 주파수 도메인에서 복수의 부반송파를 포함한다. RB(Resource Block)는 주파수 도메인에서 복수(예를 들어, 12)의 연속한 부반송파로 정의된다. BWP(Bandwidth Part)는 주파수 도메인에서 복수의 연속한 (물리) 자원 블록으로 정의되며, 하나의 numerology(예를 들어, SCS, CP 길이 등)에 대응될 수 있다. 반송파는 최대 N개(예를 들어, 5개)의 BWP를 포함할 수 있다. 데이터 통신은 활성화된 BWP를 통해서 수행되며, 하나의 단말한테는 하나의 BWP만 활성화될 수 있다. 자원 그리드에서 각각의 요소는 자원요소(RE: Resource Element)로 지칭되며, 하나의 복소 심볼이 매핑될 수 있다.
NR 시스템은 하나의 컴포넌트 캐리어(CC: Component Carrier) 당 최대 400 MHz까지 지원될 수 있다. 이러한 광대역 CC(wideband CC)에서 동작하는 단말이 항상 CC 전체에 대한 무선 주파수(RF: radio frequency) 칩(chip)를 켜둔 채로 동작한다면 단말 배터리 소모가 커질 수 있다. 혹은 하나의 광대역 CC 내에 동작하는 여러 활용 케이스들(예를 들어, eMBB, URLLC, Mmtc, V2X 등)을 고려할 때 해당 CC 내에 주파수 대역 별로 서로 다른 numerology(예를 들어, 서브캐리어 간격 등)가 지원될 수 있다. 혹은 단말 별로 최대 대역폭에 대한 능력(capability)이 다를 수 있다. 이를 고려하여 기지국은 광대역 CC의 전체 bandwidth이 아닌 일부 bandwidth에서만 동작하도록 단말에게 지시할 수 있으며, 해당 일부 bandwidth를 편의상 대역폭 부분(BWP: bandwidth part)로 정의한다. BWP는 주파수 축 상에서 연속한 RB들로 구성될 수 있으며, 하나의 numerology(예를 들어, 서브캐리어 간격, CP 길이, 슬롯/미니-슬롯 구간)에 대응될 수 있다.
한편, 기지국은 단말에게 설정된 하나의 CC 내에서도 다수의 BWP를 설정할 수 있다. 예를 들어, PDCCH 모니터링 슬롯에서는 상대적으로 작은 주파수 영역을 차지하는 BWP를 설정하고, PDCCH에서 지시하는 PDSCH는 그보다 큰 BWP 상에 스케줄링될 수 있다. 혹은, 특정 BWP에 UE 들이 몰리는 경우 로드 밸런싱(load balancing)을 위해 일부 단말들을 다른 BWP로 설정할 수 있다. 혹은, 이웃 셀 간의 주파수 도메인 셀간 간섭 제거(frequency domain inter-cell interference cancellation) 등을 고려하여 전체 bandwidth 중 가운데 일부 스펙트럼(spectrum)을 배제하고 양쪽 BWP들을 동일 슬롯 내에서도 설정할 수 있다. 즉, 기지국은 광대역 CC와 연관된(association) 단말에게 적어도 하나의 DL/UL BWP를 설정할 수 있다. 기지국은 특정 시점에 설정된 DL/UL BWP(들) 중 적어도 하나의 DL/UL BWP를 (L1 시그널링 또는 MAC CE(Control Element) 또는 RRC 시그널링 등에 의해) 활성화시킬 수 있다. 또한, 기지국은 다른 설정된 DL/UL BWP로 스위칭을 (L1 시그널링 또는 MAC CE 또는 RRC 시그널링 등에 의해) 지시할 수 있다. 또는, 타이머 기반으로 타이머 값이 만료되면 정해진 DL/UL BWP로 스위칭될 수도 있다. 이때, 활성화된 DL/UL BWP를 활성(active) DL/UL BWP로 정의한다. 하지만, 단말이 최초 접속(initial access) 과정을 수행하는 중이거나, 혹은 RRC 연결이 셋업(set up)되기 전 등의 상황에서는 DL/UL BWP에 대한 설정을 수신하지 못할 수 있으므로, 이러한 상황에서 단말이 가정하는 DL/UL BWP는 최초 활성 DL/UL BWP라고 정의한다.
도 6은 본 개시가 적용될 수 있는 무선 통신 시스템에서 이용되는 물리 채널들 및 이들을 이용한 일반적인 신호 송수신 방법을 예시한다.
무선 통신 시스템에서 단말은 기지국으로부터 하향링크(Downlink)를 통해 정보를 수신하고, 단말은 기지국으로 상향링크(Uplink)를 통해 정보를 전송한다. 기지국과 단말이 송수신하는 정보는 데이터 및 다양한 제어 정보를 포함하고, 이들이 송수신 하는 정보의 종류/용도에 따라 다양한 물리 채널이 존재한다.
단말은 전원이 켜지거나 새로이 셀에 진입한 경우 기지국과 동기를 맞추는 등의 초기 셀 탐색(Initial cell search) 작업을 수행한다(S601). 이를 위해, 단말은 기지국으로부터 주 동기 신호(PSS: Primary Synchronization Signal) 및 부 동기 채널(SSS: Secondary Synchronization Signal)을 수신하여 기지국과 동기를 맞추고, 셀 식별자(ID: Identifier) 등의 정보를 획득할 수 있다. 그 후, 단말은 기지국으로부터 물리 방송 채널(PBCH: Physical Broadcast Channel)를 수신하여 셀 내 방송 정보를 획득할 수 있다. 한편, 단말은 초기 셀 탐색 단계에서 하향링크 참조 신호(DL RS: Downlink Reference Signal)를 수신하여 하향링크 채널 상태를 확인할 수 있다.
초기 셀 탐색을 마친 단말은 물리 하향링크 제어 채널(PDCCH: Physical Downlink Control Channel) 및 상기 PDCCH에 실린 정보에 따라 물리 하향링크 공유 채널(PDSCH: Physical Downlink Control Channel)을 수신함으로써 좀더 구체적인 시스템 정보를 획득할 수 있다(S602).
한편, 기지국에 최초로 접속하거나 신호 송신을 위한 무선 자원이 없는 경우 단말은 기지국에 대해 임의 접속 과정(RACH: Random Access Procedure)을 수행할 수 있다(단계 S603 내지 단계 S606). 이를 위해, 단말은 물리 임의 접속 채널(PRACH: Physical Random Access Channel)을 통해 특정 시퀀스를 프리앰블로 송신하고(S603 및 S605), PDCCH 및 대응하는 PDSCH를 통해 프리앰블에 대한 응답 메시지를 수신할 수 있다(S604 및 S606). 경쟁 기반 RACH의 경우, 추가적으로 충돌 해결 절차(Contention Resolution Procedure)를 수행할 수 있다.
상술한 바와 같은 절차를 수행한 단말은 이후 일반적인 상/하향링크 신호 송신 절차로서 PDCCH/PDSCH 수신(S607) 및 물리 상향링크 공유 채널(PUSCH: Physical Uplink Shared Channel)/물리 상향링크 제어 채널(PUCCH: Physical Uplink Control Channel) 송신(S608)을 수행할 수 있다. 특히 단말은 PDCCH를 통하여 하향링크 제어 정보(DCI: Downlink Control Information)를 수신한다. 여기서 DCI는 단말에 대한 자원 할당 정보와 같은 제어 정보를 포함하며, 그 사용 목적에 따라 포맷이 서로 다르다.
한편, 단말이 상향링크를 통해 기지국에 송신하는 또는 단말이 기지국으로부터 수신하는 제어 정보는 하향링크/상향링크 ACK/NACK(Acknowledgement/Non-Acknowledgement) 신호, CQI(Channel Quality Indicator), PMI(Precoding Matrix Indicator), RI(Rank Indicator) 등을 포함한다. 3GPP LTE 시스템의 경우, 단말은 상술한 CQI/PMI/RI 등의 제어 정보를 PUSCH 및/또는 PUCCH를 통해 송신할 수 있다.
표 5는 NR 시스템에서의 DCI 포맷(format)의 일례를 나타낸다.
DCI 포맷 활용
0_0 하나의 셀 내 PUSCH의 스케줄링
0_1 하나의 셀 내 하나 또는 다중 PUSCH의 스케줄링, 또는 UE에게 셀 그룹(CG: cell group) 하향링크 피드백 정보의 지시
0_2 하나의 셀 내 PUSCH의 스케줄링
1_0 하나의 DL 셀 내 PDSCH의 스케줄링
1_1 하나의 셀 내 PDSCH의 스케줄링
1_2 하나의 셀 내 PDSCH의 스케줄링
표 5를 참조하면, DCI format 0_0, 0_1 및 0_2는 PUSCH의 스케줄링에 관련된 자원 정보(예를 들어, UL/SUL(Supplementary UL), 주파수 자원 할당, 시간 자원 할당, 주파수 호핑 등), 전송 블록(TB: Transport Block) 관련 정보(예를 들어, MCS(Modulation Coding and Scheme), NDI(New Data Indicator), RV(Redundancy Version) 등), HARQ(Hybrid - Automatic Repeat and request) 관련 정보(예를 들어, 프로세스 번호, DAI(Downlink Assignment Index), PDSCH-HARQ 피드백 타이밍 등), 다중 안테나 관련 정보(예를 들어, DMRS 시퀀스 초기화 정보, 안테나 포트, CSI 요청 등), 전력 제어 정보(예를 들어, PUSCH 전력 제어 등)을 포함할 수 있으며, DCI 포맷 각각에 포함되는 제어 정보들은 미리 정의될 수 있다.
DCI format 0_0은 하나의 셀에서 PUSCH의 스케줄링에 사용된다. DCI 포맷 0_0에 포함된 정보는 C-RNTI(Cell RNTI: Cell Radio Network Temporary Identifier) 또는 CS-RNTI(Configured Scheduling RNTI) 또는 MCS-C-RNTI(Modulation Coding Scheme Cell RNTI)에 의해 CRC(cyclic redundancy check) 스크램블링되어 전송된다.
DCI format 0_1은 하나의 셀에서 하나 이상의 PUSCH의 스케줄링, 또는 설정된 그랜트(CG: configure grant) 하향링크 피드백 정보를 단말에게 지시하는 데 사용된다. DCI format 0_1에 포함된 정보는 C-RNTI 또는 CS-RNTI 또는 SP-CSI-RNTI(Semi-Persistent CSI RNTI) 또는 MCS-C-RNTI에 의해 CRC 스크램블링되어 전송된다.
DCI format 0_2는 하나의 셀에서 PUSCH의 스케줄링에 사용된다. DCI format 0_2에 포함된 정보는 C-RNTI 또는 CS-RNTI 또는 SP-CSI-RNTI 또는 MCS-C-RNTI에 의해 CRC 스크램블링되어 전송된다.
다음으로, DCI format 1_0, 1_1 및 1_2는 PDSCH의 스케줄링에 관련된 자원 정보(예를 들어, 주파수 자원 할당, 시간 자원 할당, VRB(virtual resource block)-PRB(physical resource block) 매핑 등), 전송블록(TB) 관련 정보(예를 들어, MCS, NDI, RV 등), HARQ 관련 정보(예를 들어, 프로세스 번호, DAI, PDSCH-HARQ 피드백 타이밍 등), 다중 안테나 관련 정보(예를 들어, 안테나 포트, TCI(transmission configuration indicator), SRS(sounding reference signal) 요청 등), PUCCH 관련 정보(예를 들어, PUCCH 전력 제어, PUCCH 자원 지시자 등)을 포함할 수 있으며, DCI 포맷 각각에 포함되는 제어 정보들은 미리 정의될 수 있다.
DCI format 1_0은 하나의 DL 셀에서 PDSCH의 스케줄링을 위해 사용된다. DCI format 1_0에 포함된 정보는 C-RNTI 또는 CS-RNTI 또는 MCS-C-RNTI에 의해 CRC 스크램블링되어 전송된다.
DCI format 1_1은 하나의 셀에서 PDSCH의 스케줄링을 위해 사용된다. DCI format 1_1에 포함되는 정보는 C-RNTI 또는 CS-RNTI 또는 MCS-C-RNTI에 의해 CRC 스크램블링되어 전송된다.
DCI format 1_2는 하나의 셀에서 PDSCH의 스케줄링을 위해 사용된다. DCI format 1_2에 포함되는 정보는 C-RNTI 또는 CS-RNTI 또는 MCS-C-RNTI에 의해 CRC 스크램블링되어 전송된다.
다중 TRP(Multi-TRP) 관련 동작
다지점 협력 통신(CoMP: Coordinated Multi Point)의 기법은 다수의 기지국이 단말로부터 피드백 받은 채널 정보(예를 들어, RI/CQI/PMI/LI(layer indicator) 등)를 서로 교환(예를 들어, X2 인터페이스 이용) 혹은 활용하여, 단말에게 협력 전송함으로써 간섭을 효과적으로 제어하는 방식을 말한다. 이용하는 방식에 따라서, CoMP는 연합 전송(JT: Joint transmission), 협력 스케줄링(CS: Coordinated Scheduling), 협력 빔포밍(CB: Coordinated Beamforming), 동적 포인트 선택(DPS: Dynamic Point Selection), 동적 포인트 차단(DPB: Dynamic Point Blocking) 등으로 구분할 수 있다.
M개의 TRP가 하나의 단말에게 데이터를 전송하는 M-TRP 전송 방식은 크게 i) 전송률을 높이기 위한 방식인 eMBB M-TRP 전송과 ii) 수신 성공률 증가 및 지연(latency) 감소를 위한 방식인 URLLC M-TRP 전송으로 구분할 수 있다.
또한, DCI 전송 관점에서, M-TRP 전송 방식은 i) 각 TRP가 서로 다른 DCI를 전송하는 M-DCI(multiple DCI) 기반 M-TRP 전송과 ii) 하나의 TRP가 DCI를 전송하는 S-DCI(single DCI) 기반 M-TRP 전송으로 구분할 수 있다. 예를 들어, S-DCI 기반 M-TRP 전송의 경우, M TRP가 전송하는 데이터에 대한 모든 스케줄링 정보가 하나의 DCI를 통해 단말에게 전달되어야 하므로, 두 TRP간의 동적인(dynamic) 협력이 가능한 이상적 백홀(ideal BH: ideal BackHaul) 환경에서 사용될 수 있다.
TDM 기반 URLLC M-TRP 전송에 대하여, 방식(scheme) 3/4가 표준화 논의 중이다. 구체적으로, scheme 4는 하나의 slot에서는 하나의 TRP가 전송블록(TB)을 전송하는 방식을 의미하며, 여러 slot에서 여러 TRP로부터 수신한 동일한 TB를 통해 데이터 수신 확률을 높일 수 있는 효과가 있다. 이와 달리, Scheme 3는 하나의 TRP가 연속된 몇 개의 OFDM 심볼(즉, 심볼 그룹)을 통해 TB를 전송하는 방식을 의미하며, 하나의 slot 내에서 여러 TRP들이 서로 다른 심볼 그룹을 통해 동일한 TB를 전송하도록 설정될 수 있다.
또한, UE는 서로 다른 제어 자원 세트(CORESET: control resource set)(또는 서로 다른 CORESET 그룹에 속한 CORESET)으로 수신한 DCI가 스케줄링한 PUSCH(또는 PUCCH)를 서로 다른 TRP로 전송하는 PUSCH(또는 PUCCH)로 인식하거나 또는 서로 다른 TRP의 PDSCH(또는 PDCCH)로 인식할 수 있다. 또한, 후술하는 서로 다른 TRP로 전송하는 UL 전송(예를 들어, PUSCH/PUCCH)에 대한 방식은 동일 TRP에 속한 서로 다른 패널(panel)로 전송하는 UL 전송(예를 들어, PUSCH/PUCCH)에 대해서도 동일하게 적용할 수 있다.
또한, MTRP-URLLC란 동일 TB(Transport Block)를 M-TRP가 다른 레이어/시간/주파수(layer/time/frequency)를 이용하여 전송하는 것을 의미할 수 있다. MTRP-URLLC 전송 방식을 설정 받은 UE는 DCI로 여러 TCI 상태(state)(들)을 지시받고, 각 TCI state의 QCL RS를 이용하여 수신한 데이터는 서로 동일 TB임을 가정할 수 있다. 반면, MTRP-eMBB는 다른 TB를 M-TRP가 다른 layer/time/frequency를 이용하여 전송하는 것을 의미할 수 있다. MTRP-eMBB 전송 방식을 설정 받은 UE는 DCI로 여러 TCI state(s)를 지시받고, 각 TCI state의 QCL RS를 이용하여 수신한 데이터는 서로 다른 TB임을 가정할 수 있다. 이와 관련하여, UE는 MTRP-URLLC 용도로 설정된 RNTI와 MTRP-eMBB 용도로 설정된 RNTI를 별도로 구분하여 이용함에 따라, 해당 M-TRP 전송이 URLLC 전송인지 또는 eMBB 전송인지 여부를 판단/결정할 수 있다. 즉, UE가 수신한 DCI의 CRC 마스킹(masking)이 MTRP-URLLC 용도로 설정된 RNTI를 이용하여 수행된 경우 이는 URLLC 전송에 해당하며, DCI의 CRC masking이 MTRP-eMBB 용도로 설정된 RNTI를 이용하여 수행된 경우 이는 eMBB 전송에 해당할 수 있다.
이하, 본 개시에서 설명/언급되는 CORESET 그룹 식별자(group ID)는 각 TRP/패널(panel)를 위한 CORESET을 구분하기 위한 인덱스(index)/식별 정보(예를 들어, ID) 등을 의미할 수 있다. 그리고 CORESET group은 각 TRP/panel을 위한 CORESET을 구분하기 위한 인덱스/식별정보(예를 들어, ID)/상기 CORESET group ID등에 의해 구분되는 CORESET의 그룹/합집합일 수 있다. 일례로, CORESET group ID는 CORSET 설정(configuration) 내에 정의되는 특정 index 정보일 수 있다. 이 경우, CORESET group은 각 CORESET에 대한 CORESET configuration 내에 정의된 인덱스에 의해 설정/지시/정의될 수 있다. 그리고/또는 CORESET group ID는 각 TRP/panel에 설정된/연관된 CORESET 간의 구분/식별을 위한 인덱스/식별 정보/지시자 등을 의미할 수 있다. 이하, 본 개시에서 설명/언급되는 CORESET group ID는 각 TRP/panel에 설정된/연관된 CORESET 간의 구분/식별을 위한 특정 인덱스/특정 식별 정보/특정 지시자로 대체되어 표현될 수도 있다. 상기 CORESET group ID, 즉, 각 TRP/panel에 설정된/연관된 CORESET 간의 구분/식별을 위한 특정 인덱스/특정 식별 정보/특정 지시자는 상위 계층 시그널링(higher layer signaling, 예를 들어, RRC 시그널링)/제2 계층 시그널링(L2 signaling, 예를 들어, MAC-CE)/제1 계층 시그널링(L1 signaling, 예를 들어, DCI) 등을 통해 단말에게 설정/지시될 수 있다. 일례로, 해당 CORESET group 단위로 각 TRP/panel 별 (즉, 동일 CORESET group에 속한 TRP/panel 별로) PDCCH 검출(detection)이 수행되도록 설정/지시될 수 있다. 그리고/또는 해당 CORESET group 단위로 각 TRP/panel 별로 (즉, 동일 CORESET group에 속한 TRP/panel 별로) 상향링크 제어 정보(예를 들어, CSI, HARQ-A/N(ACK/NACK), SR(scheduling request)) 및/또는 상향링크 물리 채널 자원들(예를 들어, PUCCH/PRACH/SRS 자원들)이 분리되어 관리/제어되도록 설정/지시될 수 있다. 그리고/또는 해당 CORESET group 별로 각 TRP/panel 별로 (즉, 동일 CORESET group에 속한 TRP/panel 별로) 스케줄링되는 PDSCH/PUSCH 등에 대한 HARQ A/N(처리(process)/재전송)이 관리될 수 있다.
예를 들어, 상위 계층 파라미터인 ControlResourceSet 정보 요소(IE: information element)는 시간/주파수 제어 자원 집합(CORESET: control resource set)을 설정하기 위해 사용된다. 일례로, 상기 제어 자원 집합(CORESET)은 하향링크 제어 정보의 검출, 수신과 관련될 수 있다. 상기 ControlResourceSet IE는 CORESET 관련 ID(예를 들어, controlResourceSetID)/ CORESET에 대한 CORESET 풀(pool)의 인덱스(index) (예를 들어, CORESETPoolIndex)/ CORESET의 시간/주파수 자원 설정/ CORESET과 관련된 TCI 정보 등을 포함할 수 있다. 일례로, CORESET pool의 인덱스 (예를 들어, CORESETPoolIndex)는 0 또는 1로 설정될 수 있다. 상기 설명에서 CORESET group은 CORESET pool에 대응될 수 있고, CORESET group ID는 CORESET pool index(예를 들어, CORESETPoolIndex)에 대응될 수 있다.
NCJT(Non-coherent joint transmission)는 다수의 TP(Transmission Point)가 하나의 단말에게 동일한 시간 주파수 자원을 사용하여 데이터를 전송하는 방법으로서, TP 간에 서로 다른 DMRS(Demodulation Multiplexing Reference Signal) 포트를 사용하여 다른 레이어(layer)를 통해(즉, 서로 다른 DMRS 포트로) 데이터를 전송한다.
TP는 NCJT 수신하는 단말에게 데이터 스케줄링 정보를 DCI로 전달한다. 이때, NCJT에 참여하는 각 TP가 자신이 송신하는 데이터에 대한 스케줄링 정보를 DCI로 전달하는 방식을 '다중 DCI 기반 NCJT(multi DCI based NCJT)'라고 한다. NCJT 전송에 참여하는 N TP가 각각 DL 그랜트(grant) DCI와 PDSCH를 UE에게 전송하므로 UE는 N개의 DCI와 N개의 PDSCH를 N TP로부터 수신하게 된다. 이와는 다르게 대표 TP 하나가 자신이 송신하는 데이터와 다른 TP(즉, NCJT에 참여하는 TP)가 송신하는 데이터에 대한 스케줄링 정보를 하나의 DCI로 전달하는 방식을 '단일 DCI 기반 NCJT(single DCI based NCJT)'라고 한다. 이 경우, N TP가 하나의 PDSCH를 전송하게 되지만 각 TP는 하나의 PDSCH를 구성하는 다중 레이어(multiple layer)들의 일부 layer만을 전송하게 된다. 예를 들어, 4 layer 데이터가 전송되는 경우, TP 1이 2 layer를 전송하고 TP 2가 나머지 2 layer를 UE에게 전송할 수 있다.
이하, 부분적(partially) 중첩된(overlapped) NCJP에 대하여 살펴본다.
또한, NCJT는 각 TP가 전송하는 시간 주파수 자원이 완전히 겹쳐있는 완전 중첩(fully overlapped) NCJT와 일부 시간 주파수 자원만 겹쳐있는 부분 중첩(partially overlapped) NCJT로 구분될 수 있다. 즉, partially overlapped NCJT인 경우, 일부 시간 주파수 자원에서는 TP 1와 TP2의 데이터가 모두 송신되며, 나머지 시간 주파수 자원에서는 TP 1 또는 TP 2 중 하나의 TP만이 데이터만이 전송된다.
이하, Multi-TRP에서의 신뢰도 향상을 위한 방식에 대하여 살펴본다.
다수 TRP 에서의 전송을 이용한 신뢰도(reliability) 향상을 위한 송수신 방법으로 아래의 두 가지 방법을 고려해볼 수 있다.
도 7은 본 개시가 적용될 수 있는 무선 통신 시스템에서 다중 TRP 전송 방식을 예시한다.
도 7(a)를 참조하면, 동일한 코드워드(CW: codeword)/전송블록(TB: transport block)를 전송하는 레이어 그룹(layer group)이 서로 다른 TRP에 대응하는 경우를 보여준다. 이때, layer group은 하나 또는 하나 이상의 layer로 이루어진 소정의 layer 집합을 의미할 수 있다. 이러한 경우, 다수의 layer 수로 인해 전송 자원의 양이 증가하며, 이를 통해 TB에 대해 낮은 부호율의 강건한 채널 코딩을 사용할 수 있다는 장점이 있으며, 또한, 다수의 TRP로부터 채널이 다르기 때문에 다이버시티(diversity) 이득을 바탕으로 수신 신호의 신뢰도 향상을 기대할 수 있다.
도 7(b)를 참조하면, 서로 다른 CW를 서로 다른 TRP에 대응하는 layer group을 통해 전송하는 예를 보여준다. 이때, 그림의 CW #1과 CW #2에 대응하는 TB는 서로 동일함을 가정할 수 있다. 즉, CW #1과 CW #2는 각각 서로 다른 TRP에 의해 동일한 TB가 채널 코딩 등을 통해 서로 다른 CW로 변환된 것을 의미한다. 따라서, 동일 TB의 반복 전송의 예로 볼 수 있다. 도 7(b)의 경우, 앞서 도 7(a)와 대비하여 TB에 대응하는 부호율이 높다는 단점을 가질 수 있다. 하지만, 채널 환경에 따라 동일 TB로부터 생성된 인코딩된 비트들(encoding bits)에 대해서 서로 다른 RV(redundancy version) 값을 지시하여 부호율을 조정하거나, 각 CW의 변조 차수(modulation order)를 조절할 수 있다는 장점을 갖는다.
앞서 도 7(a) 및 도 7(b)에서 예시한 방식에 따르면, 동일 TB가 서로 다른 layer group을 통해 반복 전송되고, 각 layer group이 서로 다른 TRP/panel에 의해 전송됨에 따라 단말의 데이터 수신확률을 높일 수 있다. 이를 SDM(Spatial Division Multiplexing) 기반 M-TRP URLLC 전송 방식으로 지칭한다. 서로 다른 Layer group에 속한 layer들은 서로 다른 DMRS CDM 그룹에 속한 DMRS 포트들을 통해 각각 전송된다.
또한, 상술한 다수 TRP 관련된 내용은 서로 다른 레이어를 이용하는 SDM(spatial division multiplexing) 방식을 기준으로 설명되었지만, 이는 서로 다른 주파수 영역 자원(예를 들어, RB/PRB (세트) 등)에 기반하는 FDM(frequency division multiplexing) 방식 및/또는 서로 다른 시간 영역 자원(예를 들어, 슬롯, 심볼, 서브-심볼 등)에 기반하는 TDM(time division multiplexing) 방식에도 확장하여 적용될 수 있음은 물론이다.
하향링크 송수신 동작
도 8은 본 개시가 적용될 수 있는 무선 통신 시스템에서 하향링크 송수신 동작을 예시하는 도면이다.
도 8을 참조하면, 기지국은 주파수/시간 자원, 전송 레이어, 하향링크 프리코더, MCS 등과 같은 하향링크 전송을 스케줄링한다(S1401). 특히, 기지국은 앞서 설명한 동작들을 통해 단말에게 PDSCH전송을 위한 빔을 결정할 수 있다.
단말은 기지국으로부터 하향링크 스케줄링을 위한(즉, PDSCH의 스케줄링 정보를 포함하는) DCI를 PDCCH 상에서 수신한다(S1402).
하향링크 스케줄링을 위해DCI 포맷 1_0, 1_1 또는 1_2이 이용될 수 있으며, 특히 DCI 포맷 1_1에서는 다음과 같은 정보를 포함한다: DCI 포맷 식별자(Identifier for DCI formats), 대역폭 부분 지시자(Bandwidth part indicator), 주파수 도메인 자원 할당(Frequency domain resource assignment), 시간 도메인 자원 할당(Time domain resource assignment), PRB 번들링 크기 지시자(PRB bundling size indicator), 레이트 매칭 지시자(Rate matching indicator), ZP CSI-RS 트리거(ZP CSI-RS trigger), 안테나 포트(들)(Antenna port(s)), 전송 설정 지시(TCI: Transmission configuration indication), SRS 요청(SRS request), DMRS(Demodulation Reference Signal) 시퀀스 초기화(DMRS sequence initialization)
특히, 안테나 포트(들)(Antenna port(s)) 필드에서 지시되는 각 상태(state)에 따라, DMRS 포트의 수가 스케줄링될 수 있으며, 또한 SU(Single-user)/MU(Multi-user) 전송 스케줄링이 가능하다.
또한, TCI 필드는 3 비트로 구성되고, TCI 필드 값에 따라 최대 8 TCI 상태를 지시함으로써 동적으로 DMRS에 대한 QCL이 지시된다.
단말은 기지국으로부터 하향링크 데이터를 PDSCH 상에서 수신한다(S1403).
단말이 DCI 포맷 1_0, 1_1, 1_2을 포함하는 PDCCH를 검출(detect)하면, 해당 DCI에 의한 지시에 따라 PDSCH를 디코딩한다.
여기서, 단말이 DCI 포맷 1에 의해 스케줄링된 PDSCH를 수신할 때, 단말은 상위 계층 파라미터 'dmrs-Type'에 의해 DMRS 설정 타입이 설정될 수 있으며, DMRS 타입은 PDSCH를 수신하기 위해 사용된다. 또한, 단말은 상위 계층 파라미터 'maxLength'에 의해 PDSCH을 위한 앞에 삽입되는(front-loaded) DMRA 심볼의 최대 개수가 설정될 수 있다.
DMRS 설정 타입 1의 경우, 단말에 대해서 단일의 코드워드가 스케줄링되고 {2, 9, 10, 11 또는 30}의 인덱스와 매핑된 안테나 포트가 지정되면, 또는 단일의 코드워드가 스케줄링되고 {2, 9, 10, 11 또는 12} 또는 {2, 9, 10, 11, 30 또는 31}의 인덱스와 매핑된 안테나 포트가 지정되면, 또는 단말에 대해서 2개의 코드워드가 스케줄링되면, 단말은 모든 남은 직교한 안테나 포트가 또 다른 단말으로의 PDSCH 전송과 연관되지 않는다고 가정한다.
또는, DMRS 설정 타입 2의 경우, 단말에 대해서 단일의 코드워드가 스케줄링되고 {2, 10 또는 23}의 인덱스와 매핑된 안테나 포트가 지정되면, 또는 단일의 코드워드가 스케줄링되고 {2, 10, 23 또는 24} 또는 {2, 10, 23 또는 58}의 인덱스와 매핑된 안테나 포트가 지정되면, 또는 단말에 대해서 2개의 코드워드가 스케줄링되면, 단말은 모든 남은 직교한 안테나 포트가 또 다른 단말으로의 PDSCH 전송과 연관되지 않는다고 가정한다.
단말이 PDSCH를 수신할 때, 프리코딩 단위(precoding granularity) P'를 주파수 도메인에서 연속된(consecutive) 자원 블록으로 가정할 수 있다. 여기서, P'는 {2, 4, 광대역} 중 하나의 값에 해당할 수 있다.
P'가 광대역으로 결정되면, 단말은 불연속적인(non-contiguous) PRB들로 스케줄링되는 것을 예상하지 않고, 단말은 할당된 자원에 동일한 프리코딩이 적용된다고 가정할 수 있다.
반면, P'가 {2, 4} 중 어느 하나로 결정되면, 프리코딩 자원 블록 그룹(PRG: Precoding Resource Block Group)은 P' 개의 연속된 PRB로 분할된다. 각 PRG 내 실제 연속된 PRB의 개수는 하나 또는 그 이상일 수 있다. UE는 PRG 내 연속된 하향링크 PRB에는 동일한 프리코딩이 적용된다고 가정할 수 있다.
단말이 PDSCH 내 변조 차수(modulation order), 목표 코드 레이트(target code rate), 전송 블록 크기(transport block size)를 결정하기 위해, 단말은 우선 DCI 내 5 비트 MCD 필드를 읽고, modulation order 및 target code rate를 결정한다. 그리고, DCI 내 리던던시 버전 필드를 읽고, 리던던시 버전을 결정한다. 그리고, 단말은 레이트 매칭 전에 레이어의 수, 할당된 PRB의 총 개수를 이용하여, transport block size를 결정한다.
상향링크 송수신 동작
도 9는 본 개시가 적용될 수 있는 무선 통신 시스템에서 상향링크 송수신 동작을 예시하는 도면이다.
도 9를 참조하면, 기지국은 주파수/시간 자원, 전송 레이어, 상향링크 프리코더, MCS 등과 같은 상향링크 전송을 스케줄링한다(S1501). 특히, 기지국은 앞서 설명한 동작들을 통해 단말이 PUSCH 전송을 위한 빔을 결정할 수 있다.
단말은 기지국으로부터 상향링크 스케줄링을 위한(즉, PUSCH의 스케줄링 정보를 포함하는) DCI를 PDCCH 상에서 수신한다(S1502).
상향링크 스케줄링을 위해DCI 포맷 0_0, 0_1 또는 0_2이 이용될 수 있으며, 특히 DCI 포맷 0_1에서는 다음과 같은 정보를 포함한다: DCI 포맷 식별자(Identifier for DCI formats), UL/SUL(Supplementary uplink) 지시자(UL/SUL indicator), 대역폭 부분 지시자(Bandwidth part indicator), 주파수 도메인 자원 할당(Frequency domain resource assignment), 시간 도메인 자원 할당(Time domain resource assignment), 주파수 호핑 플래그(Frequency hopping flag), 변조 및 코딩 방식(MCS: Modulation and coding scheme), SRS 자원 지시자(SRI: SRS resource indicator), 프리코딩 정보 및 레이어 수(Precoding information and number of layers), 안테나 포트(들)(Antenna port(s)), SRS 요청(SRS request), DMRS 시퀀스 초기화(DMRS sequence initialization), UL-SCH(Uplink Shared Channel) 지시자(UL-SCH indicator)
특히, SRS resource indicator 필드에 의해 상위 계층 파라미터 'usage'와 연관된 SRS 자원 세트 내 설정된 SRS 자원들이 지시될 수 있다. 또한, 각 SRS resource별로 'spatialRelationInfo'를 설정받을 수 있고 그 값은 {CRI, SSB, SRI}중에 하나일 수 있다.
단말은 기지국에게 상향링크 데이터를 PUSCH 상에서 전송한다(S1503).
단말이 DCI 포맷 0_0, 0_1 또는 0_2을 포함하는 PDCCH를 검출(detect)하면, 해당 DCI에 의한 지시에 따라 해당 PUSCH를 전송한다.
PUSCH 전송을 위해 코드북(codebook) 기반 전송 및 비-코드북(non-codebook) 기반 전송2가지의 전송 방식이 지원된다:
i) 상위 계층 파라미터 'txConfig'가 'codebook'으로 셋팅될 때, 단말은 codebook 기반 전송으로 설정된다. 반면, 상위 계층 파라미터 'txConfig'가 'nonCodebook'으로 셋팅될 때, 단말은 non-codebook 기반 전송으로 설정된다. 상위 계층 파라미터 'txConfig'가 설정되지 않으면, 단말은 DCI 포맷 0_1에 의해 스케줄링되는 것을 예상하지 않는다. DCI 포맷 0_0에 의해 PUSCH가 스케줄링되면, PUSCH 전송은 단일 안테나 포트에 기반한다.
codebook 기반 전송의 경우, PUSCH는 DCI 포맷 0_0, DCI 포맷 0_1, DCI 포맷 0_2 또는 반정적으로(semi-statically) 스케줄링될 수 있다. 이 PUSCH가 DCI 포맷 0_1에 의해 스케줄링되면, 단말은 SRS resource indicator 필드 및 Precoding information and number of layers 필드에 의해 주어진 바와 같이, DCI로부터 SRI, TPMI(Transmit Precoding Matrix Indicator) 및 전송 랭크를 기반으로 PUSCH 전송 프리코더를 결정한다. TPMI는 안테나 포트에 걸쳐서 적용될 프리코더를 지시하기 위해 이용되고, 다중의 SRS 자원이 설정될 때 SRI에 의해 선택된 SRS 자원에 상응한다. 또는, 단일의 SRS 자원이 설정되면, TPMI는 안테나 포트에 걸쳐 적용될 프리코더를 지시하기 위해 이용되고, 해당 단일의 SRS 자원에 상응한다. 상위 계층 파라미터 'nrofSRS-Ports'와 동일한 안테나 포트의 수를 가지는 상향링크 코드북으로부터 전송 프리코더가 선택된다. 단말이 'codebook'으로 셋팅된 상위 계층이 파라미터 'txConfig'로 설정될 때, 단말은 적어도 하나의 SRS 자원이 설정된다. 슬롯 n에서 지시된 SRI는 SRI에 의해 식별된 SRS 자원의 가장 최근의 전송과 연관되고, 여기서 SRS 자원은 SRI를 나르는 PDCCH (즉, 슬롯 n)에 앞선다.
ii) non-codebook 기반 전송의 경우, PUSCH는 DCI 포맷 0_0, DCI 포맷 0_1 또는 반정적으로(semi-statically) 스케줄링될 수 있다. 다중의 SRS 자원이 설정될 때, 단말은 광대역 SRI를 기반으로 PUSCH 프리코더 및 전송 랭크를 결정할 수 있으며, 여기서 SRI는 DCI 내 SRS resource indicator에 의해 주어지거나 또는 상위 계층 파라미터 'srs-ResourceIndicator'에 의해 주어진다. 단말은 SRS 전송을 위해 하나 또는 다중의 SRS 자원을 이용하고, 여기서 SRS 자원의 수는, UE 능력에 기반하여 동일한 RB 내에서 동시 전송을 위해 설정될 수 있다. 각 SRS 자원 별로 단 하나의 SRS 포트만이 설정된다. 단 하나의 SRS 자원만이 'nonCodebook'으로 셋팅된 상위 계층 파라미터 'usage'로 설정될 수 있다. non-codebook 기반 상향링크 전송을 위해 설정될 수 있는 SRS 자원의 최대의 수는 4이다. 슬롯 n에서 지시된 SRI는 SRI에 의해 식별된 SRS 자원의 가장 최근의 전송과 연관되고, 여기서 SRS 전송은 SRI를 나르는 PDCCH (즉, 슬롯 n)에 앞선다.
CSI 관련 동작
NR(New Radio) 시스템에서, CSI-RS(channel state information-reference signal)은 시간 및/또는 주파수 트래킹(time/frequency tracking), CSI 계산(computation), L1(layer 1)-RSRP(reference signal received power) 계산(computation) 및 이동성(mobility)를 위해 사용된다. 여기서, CSI computation은 CSI 획득(acquisition)과 관련되며, L1-RSRP computation은 빔 관리(beam management, BM)와 관련된다.
CSI(channel state information)은 단말과 안테나 포트 사이에 형성되는 무선 채널(혹은 링크라고도 함)의 품질을 나타낼 수 있는 정보를 통칭한다.
- 상기와 같은 CSI-RS의 용도 중 하나를 수행하기 위해, 단말(예: user equipment, UE)은 CSI와 관련된 설정(configuration) 정보를 RRC(radio resource control) signaling을 통해 기지국(예: general Node B, gNB)으로부터 수신한다.
상기 CSI와 관련된 configuration 정보는 CSI-IM(interference management) 자원(resource) 관련 정보, CSI 측정 설정(measurement configuration) 관련 정보, CSI 자원 설정(resource configuration) 관련 정보, CSI-RS 자원(resource) 관련 정보 또는 CSI 보고 설정(report configuration) 관련 정보 중 적어도 하나를 포함할 수 있다.
i) CSI-IM 자원 관련 정보는 CSI-IM 자원 정보(resource information), CSI-IM 자원 세트 정보(resource set information) 등을 포함할 수 있다. CSI-IM resource set은 CSI-IM resource set ID(identifier)에 의해 식별되며, 하나의 resource set은 적어도 하나의 CSI-IM resource를 포함한다. 각각의 CSI-IM resource는 CSI-IM resource ID에 의해 식별된다.
ii) CSI resource configuration 관련 정보는 CSI-ResourceConfig IE로 표현될 수 있다. CSI resource configuration 관련 정보는 NZP(non zero power) CSI-RS resource set, CSI-IM resource set 또는 CSI-SSB resource set 중 적어도 하나를 포함하는 그룹을 정의한다. 즉, 상기 CSI resource configuration 관련 정보는 CSI-RS resource set list를 포함하며, 상기 CSI-RS resource set list는 NZP CSI-RS resource set list, CSI-IM resource set list 또는 CSI-SSB resource set list 중 적어도 하나를 포함할 수 있다. CSI-RS resource set은 CSI-RS resource set ID에 의해 식별되고, 하나의 resource set은 적어도 하나의 CSI-RS resource를 포함한다. 각각의 CSI-RS resource는 CSI-RS resource ID에 의해 식별된다.
NZP CSI-RS resource set 별로 CSI-RS의 용도를 나타내는 parameter들(예: BM 관련 'repetition' parameter, tracking 관련 'trs-Info' parameter)이 설정될 수 있다.
iii) CSI 보고 설정(report configuration) 관련 정보는 시간 영역 행동(time domain behavior)을 나타내는 보고 설정 타입(reportConfigType) parameter 및 보고하기 위한 CSI 관련 quantity를 나타내는 보고량(reportQuantity) parameter를 포함한다. 상기 시간 영역 동작(time domain behavior)은 periodic, aperiodic 또는 semi-persistent일 수 있다.
- 단말은 상기 CSI와 관련된 configuration 정보에 기초하여 CSI를 측정(measurement)한다.
상기 CSI 측정은 (1) 단말의 CSI-RS 수신 과정과, (2) 수신된 CSI-RS를 통해 CSI를 계산(computation)하는 과정을 포함할 수 있으며, 이에 대하여 구체적인 설명은 후술한다.
CSI-RS는 higher layer parameter CSI-RS-ResourceMapping에 의해 시간(time) 및 주파수(frequency) 영역에서 CSI-RS resource의 RE(resource element) 매핑이 설정된다.
- 단말은 상기 측정된 CSI를 기지국으로 보고(report)한다.
여기서, CSI-ReportConfig의 quantity가 'none(또는 No report)'로 설정된 경우, 상기 단말은 상기 report를 생략할 수 있다. 다만, 상기 quantity가 'none(또는 No report)'로 설정된 경우에도 상기 단말은 기지국으로 report를 할 수도 있다. 상기 quantity가 'none'으로 설정된 경우는 aperiodic TRS를 trigger하는 경우 또는 repetition이 설정된 경우이다. 여기서, repetition이 'ON'으로 설정된 경우에만 상기 단말의 report를 생략할 수 있다.
인공 지능(AI: Artificial Intelligence) 동작
인공지능/머신러닝(AI/ML: Artificial intelligence / machine learning)의 기술 발전으로 무선 통신 네트워크를 구성하는 노드(들) 및 단말(들)의 지능화/고도화가 이루어지고 있다. 특히 네트워크/기지국의 지능화로 인해 다양한 환경 파라미터(예를 들어, 기지국들의 분포/위치, 건물/가구 등의 분포/위치/재질, 단말들의 위치/이동방향/속도, 기후 정보 등)에 따라 다양한 네트워크/기지국 결정 파라미터 값들(예를 들어, 각 기지국의 송수신 전력, 각 단말의 송신 전력, 기지국/단말의 프리코더/빔, 각 단말에 대한 시간/주파수 자원 할당, 각 기지국의 듀플렉스(duplex) 방식 등)을 빠르게 최적화하여 도출/적용할 수 있게 될 전망이다. 이러한 추세에 맞추어, 많은 표준화 단체 (예를 들어, 3GPP, O-RAN)에서 도입을 고려하고 있으며, 이에 대한 스터디도 활발히 진행 중이다.
이하 설명하는 AI 관련 설명 및 동작들은 후술한 본 개시에서 제안하는 방법들과 결합되어 적용될 수 있으며, 또는 본 개시에서 제안하는 방법들의 기술적 특징을 명확하게 하는데 보충될 수 있다.
도 10은 인공지능의 분류를 예시한다.
도 10을 참조하면, 인공지능(AI: Artificial Intelligence)은 사람이 해야 할 일을 기계가 대신할 수 있는 모든 자동화에 해당한다.
머신러닝(ML: Machine Learning)은 명시적으로 규칙을 프로그래밍하지 않고, 데이터로부터 의사결정을 위한 패턴을 기계가 스스로 학습하는 기술을 의미한다.
딥러닝(Deep Learning)은 인공 신경망 기반의 모델로서, 비정형 데이터로부터 특징 추출 및 판단까지 기계가 한 번에 수행할 수 있다. 알고리즘은 생물학적 신경계, 즉 신경망(Neural Network)에서 영감을 받은 특징 추출 및 변환을 위해 상호 연결된 노드로 구성된 다층 네트워크에 의존한다. 일반적인 딥 러닝 네트워크 아키텍처에는 심층 신경망(DNN: Deep Neural Network), 순환 신경망(RNN: Recurrent Neural Network) 및 컨볼루션 신경망(CNN: Convolutional Neural Network) 등이 포함된다.
AI(또는 AI/ML로 지칭)은 좁은 의미로 딥러닝(Deep learning) 기반의 인공지능으로 일컬을 수 있지만, 본 개시에서 이에 한정되는 것은 아니다. 즉, 본 개시에서 AI(또는 AI/ML로 지칭)는 인간처럼 작업을 수행할 수 있는 지능형 기계(예를 들어, UE, RAN, 네트워크 노드 등)에 적용되는 자동화 기술을 통칭할 수 있다.
AI(또는 AI/ML)는 다양한 기준에 따라 다음과 같이 분류할 수 있다.
1. 오프라인/온라인 학습
a) 오프라인 학습(Offline Learning)
오프라인 학습은 데이터 베이스의 수집, 학습, 예측이라는 순차적인 절차를 따르게 된다. 즉, 수집과 학습을 오프라인으로 수행하고, 완성된 프로그램을 현장에 설치하여 예측 작업에 활용할 수 있다. 오프라인 학습은 시스템이 점진적으로 학습하지 않으며, 가용한 모든 수집된 데이터를 사용하여 학습이 수행되고, 더 이상의 학습 없이 시스템에 적용된다. 만약, 새로운 데이터에 대한 학습이 필요하게 되면, 새로운 전체의 데이터를 이용하여 다시 학습이 시작될 수 있다.
b) 온라인 학습(Online Learning)
최근 학습에 활용할 수 있는 데이터가 인터넷을 통해 지속적으로 발생하는 점을 활용하여, 실시간으로 발생한 데이터를 가지고 점증적으로 추가 학습하여 성능을 조금씩 개선하는 방식을 지칭한다. 온라인 상에서 수집되는 특정 데이터의 (묶음) 단위로 실시간으로 학습이 수행되며, 이에 따라 변화하는 데이터에 시스템이 빠르게 적응할 수 있다.
AI 시스템 구축을 위해 온라인 학습만이 이용되어 실시간으로 발생한 데이터만으로 학습이 수행될 수도 있으며, 또는 소정의 데이터 세트를 이용하여 오프라인 학습이 수행된 후, 추가적으로 발생하는 실시간 데이터를 이용하여 추가적인 학습이 수행될 수도 있다(온라인+오프라인 학습).
2. AI/ML Framework 개념에 따른 분류
a) 중앙집중식 학습(Centralized Learning)
Centralized learning에서는 서로 다른 복수의 노드들에서 수집된(collected) 훈련 데이터(training data)를 중앙 노드(centralized node)에 보고를 하면, 모든 데이터 자원/저장(storage)/학습(예를 들어, 지도 학습(supervised learning), 비지도 학습(unsupervised learning), 강화 학습(reinforcement learning) 등)이 하나의 centralized node에서 수행된다.
b) 연합 학습(Federated Learning)
Federated learning은 공동(collective) 모델이 각기 분산되어 있는 데이터 소유자(data owner)들에 걸쳐서 존재하는 데이터를 기반으로 구성된다. 데이터를 모델로 수집하는 대신, AI/ML 모델을 데이터 소스로 가져와 로컬 노드/개별 장치가 데이터를 수집하고 자체 모델 사본을 훈련할 수 있도록 하므로, 소스 데이터를 중앙 노드에 보고할 필요가 없다. Federated learning에서 AI/ML 모델의 매개변수/가중치는 일반 모델 교육을 지원하기 위해 centralized node로 다시 보낼 수 있다. Federated learning은 연산 속도의 증가와, 정보 보안 측면에서의 장점을 가진다. 즉, 개인 데이트를 중앙 서버에 업로드하는 과정이 불필요하여, 개인정보 유출 및 악용을 방지할 수 있다.
c) 분산된 학습(Distributed Learning)
Distributed learning은 기계 학습 프로세스가 노드 클러스터 전체에 확장 및 배포된 개념을 의미한다. 훈련 모델은 모델 훈련의 속도를 높이기 위해 분할되어 동시에 작동하는 여러 노드에서 공유된다.
3. 학습 방법에 따른 분류
a) 지도 학습(Supervised Learning)
지도 학습은 레이블이 지정된 데이터 세트가 주어지면 입력에서 출력으로의 매핑 기능을 학습하는 것을 목표로 하는 기계 학습 작업이다. 입력 데이터는 훈련 데이터라고 하며 알려진 레이블 또는 결과가 있다. 지도 학습의 예시는 다음과 같다.
- 회귀(Regression): 선형 회귀(Linear Regression), 로지스틱 회귀(Logistic Regression)
- 인스턴스-기반 알고리즘(Instance-based Algorithms): k-최근접 이웃(KNN: k-Nearest Neighbor)
- 의사결정 나무 알고리즘(Decision Tree Algorithms): 분류 및 회귀 분석 트리(CART: Classification and Regression Tree)
- 서포트 벡터 머신(SVM: Support Vector Machines)
- 베이지안 알고리즘(Bayesian Algorithms): 나이브 베이즈(Naive Bayes)
- 앙상블 알고리즘(Ensemble Algorithms): 익스트림 그래디언트 부스팅(Extreme Gradient Boosting), 배깅(Bagging): 랜덤 포레스트(Random Forest)
지도 학습은 회귀 및 분류 문제로 더 그룹화할 수 있으며, 분류는 레이블을 예측하는 것이고 회귀는 수량을 예측하는 것이다.
b) 비지도 학습(Unsupervised Learning)
Unsupervised learning은 레이블이 지정되지 않은 데이터에서 숨겨진 구조를 설명하는 기능을 학습하는 것을 목표로 하는 기계 학습 작업이다. 입력 데이터에 레이블이 지정되지 않았으며 알려진 결과가 없다. 비지도 학습의 몇 가지 예는 K-평균 클러스터링, 주성분 분석(PCA: Principal Component Analysis), 비선형 독립 성분 분석(ICA: Independent Component Analysis) 및 장단기 메모리(LSTM: Long-Short-Term Memory) 등이 있다.
c) 강화 학습(RL: Reinforcement Learning)
강화 학습(RL)에서 에이전트는 시행착오 과정을 기반으로 환경과 상호 작용하여 장기 목표를 최적화하는 것을 목표로 하며, 환경과의 상호작용을 기반으로 한 목표 지향적 학습이다. RL 알고리즘의 예시는 다음과 같다.
- Q 러닝(Q-learning)
- 다중 암드 밴딧 러닝(Multi-armed bandit learning)
- 딥 Q 네트워크(Deep Q Network)
- 스테이트-액션-리워드-스테이트-액션(SARSA: State-Action-Reward-State-Action)
- 시간차 학습(Temporal Difference Learning)
- 액터-크리틱 강화 학습(Actor-critic reinforcement learning)
- 딥 결정론적 정책 그래디언트(DDPG: Deep deterministic policy gradient)
- 몬테카를로 트리 서치(Monte-Carlo tree search)
추가적으로, 강화 학습은 다음과 같이 모델 기반 강화 학습과 모델 자유 강화 학습으로 그룹화할 수 있다.
- 모델-기반(Model-based) 강화 학습: 예측 모델을 사용하는 RL 알고리즘을 지칭한다. 환경의 다양한 동적 상태 및 이러한 상태가 보상으로 이어지는 모델을 사용하여 상태 간 전환 확률을 얻는다.
- 모델-자유(Model-free) 강화 학습: 최대의 미래 보상을 달성하는 가치 또는 정책에 기반한 RL 알고리즘을 지칭한다. 다중 에이전트 환경/상태에서는 계산적으로 덜 복잡하고 환경을 정확하게 표현할 필요가 없다.
또한, RL 알고리즘은 또한 가치 기반 RL 대 정책 기반 RL, 정책 기반 RL 대 정책 외 RL 등으로 분류될 수 있다.
이하, 딥 러닝(deep learning)의 대표 모델에 대하여 예시한다.
도 11은 순방향 신경망(Feed-Forward Neural Network)을 예시한다.
순방향 신경망(FFNN: Feed-Forward Neural Network)은 입력층(input layer), 은닉층(hidden layer), 출력층(output layer)으로 구성된다.
FFNN에서는 정보는 입력층으로부터 출력층 방향으로만 전달되며, 은닉층이 있는 경우 이를 경유한다. 
FNNN 관련하여 고려될 수 있는 잠재적(potential) 파라미터는 다음과 같다.
- 카테고리 1: 각 층의 뉴런의 개수, 은닉층의 개수, 각 층/뉴런의 할성화 함수(activation function)
- 카테고리 2: 각 층/뉴런의 가중치(weight) 및 편향(bias)
- 카테고리 3: 손실 함수(loss function), 옵티마이저(optimizer)
일 예로, training 측면에서 카테고리 1, 카테고리 2 및 카테고리 3이 고려되고, inference 측면에서는 카테고리 1 및 카테고리 2가 고려될 수 있다.
도 12는 순환 신경망(Recurrent Neural Network)을 예시한다.
순환 신경망(RNN)은 히든 노드가 방향을 가진 엣지로 연결되어 순환구조를 이루는(directed cycle) 인공 신경망(neural network)의 한 종류이다. 음성, 문자 등 순차적으로 등장하는 데이터 처리에 적합한 모델이다.
도 12에서 A는 뉴럴 네트워크, xt는 입력 값, ht는 출력 값을 나타낸다. 여기서, ht는 시간을 기준으로 현재를 나타내는 상태 값을 의미할 수 있으며, ht-1는 이전 상태 값을 나타낼 수 있다.
RNN의 하나의 종류로 LSTM(Long Short-Term Memory)이 있으며, 이는 RNN의 히든 스테이트(state)에 셀-스테이트(cell-state)를 추가한 구조이다. LSTM은 RNN 셀(cell)(은닉층의 메모리 셀)에 입력 게이트, 망각 게이트, 출력 게이트가 추가되어, 불필요한 기억을 지울 수 있다. LSTM은 RNN에 비하여 셀 상태(cell state)가 추가된다.
도 13은 컨볼루션 신경망(Convolutional Neural Network)을 예시한다.
컨볼루션 신경망(CNN)은 영상 처리나 이미지 처리 분야에서 일반적으로 사용하는 컨볼루션(convolution) 연산을 적용하여, 모델 복잡도를 낮추고, 좋은 특징을 추출하는 두 가지 목적을 위해 사용된다.
- 커널(kernel) 또는 필터(filter): 특정 범위/단위의 input에 가중치를 적용하는 단위/구조를 의미한다. kernel(또는 filter)는 학습에 의해 변경될 수 있다.
- 스트라이드(stride): input 안에서 kernel을 움직이는 이동 범위를 의미한다.
- 특성 맵(feature map): input에 kernel을 적용한 결과를 의미한다. 왜곡, 변경 등에 강인하도록 유도하기 위해 여러 feature map들이 추출될 수 있다.
- 패딩(padding): feature map의 크기를 조절하기 위해 덧붙이는 값을 의미한다.
- 풀링(pooling): feature map을 다운샘플링하여 feature map 의 크기를 줄이기 위한 연산(예를 들어, 최대 풀링(max pooling), 평균 풀링(average pooling))을 의미한다.
CNN 관련하여 고려될 수 있는 잠재적(potential) 파라미터는 다음과 같다.
- 카테고리 1: 각 층의 구조 정보(예: 은닉층의 개수, 패딩 여부/값, 풀링 여부/종류 등)
- 카테고리 2: 커널의 크기/가중치(weight), 각 층/커널의 활성화 함수/스트라이드, 각 층/커널의 편향(bias)
- 카테고리 3: 손실 함수(loss function), 옵티마이저(optimizer)
일 예로, training 측면에서 카테고리 1, 카테고리 2 및 카테고리 3이 고려되고, inference 측면에서는 카테고리 1 및 카테고리 2가 고려될 수 있다.
도 14는 오토 인코더(Auto encoder)를 예시한다.
Auto encoder는 특징 벡터(Feature vector) x(x1, x2, x3, ...)를 입력 받아, 동일한 또는 유사한 vector x'(x'1, x'2, x'3, ...)'를 출력하는 neural network를 의미한다.
Auto encoder는 입력 노드와 출력 노드가 같은 특징을 가진다. Auto encoder는 입력을 재구성하기 때문에 출력을 재구성(reconstruction)이라고 지칭할 수 있다. 또한, Auto encoder는 Unsupervised learning의 일종이다.
도 14에서 예시하는 Auto encoder의 손실 함수(loss function)은 입력과 출력의 차이를 기반으로 계산되며, 이를 기반으로 input의 손실 정도를 파악하여 Auto encoder에서는 손실을 최소화할 수 있도록 최적화하는 과정이 수행된다.
이하, 보다 구체적인 AI(또는 AI/ML)의 설명을 위해 용어들을 다음과 같이 정의할 수 있다.
- 데이터 수집(Data collection): AI 모델 훈련(model training), 데이터 분석 및 추론(inference)을 위한 기반으로서, 네트워크 노드, 관리 개체(management entity) 또는 UE 등에서 수집된 데이터
- AI 모델(Model): 입력들의 집합을 기반으로, 예측 정보 및/또는 결정 파라미터들을 포함하는 출력들의 집합을 생성하는 AI 기술을 적용한 데이터 기반 알고리즘(data driven algorithm)
- AI/ML 훈련(Training): 데이터를 가장 잘 표시하고 추론을 위해 훈련된 AI/ML 모델을 획득하는 기능들과 패턴들을 학습(learning)함으로써 AI 모델을 훈련하는 온라인(online) 또는 오프라인(offline) 프로세스
- AI/ML 추론(Inference): 훈련된 AI 모델을 이용하여 수집된 데이터와 AI 모델에 기반하여 예측하거나 결정을 유도하는 프로세스
도 15는 AI 동작을 위한 기능적 프레임워크(functional framework)를 예시한다.
도 15를 참조하면, 데이터 수집(Data Collection) 기능(function)(10)은 입력 데이터를 수집하고 모델 훈련(Model Training) function(20) 및 모델 추론(Model Inference) function(30)에게 가공된 입력 데이터를 제공하는 기능이다.
입력 데이터의 예로서, UE들 또는 다른 네트워크 개체(network entity)로부터의 측정들, 액터(Actor)의 피드백, AI 모델의 출력이 포함될 수 있다.
Data Collection function(10)은 입력 데이터를 기반으로 데이터 준비(data preparation)를 수행하고, data preparation를 통해 가공된 입력 데이터를 제공한다. 여기서, Data Collection function(10)는 AI 알고리즘 별로 특정한 data preparation(예를 들어, 데이터 사전-처리(pre-processing) 및 정리(cleaning), 형식 지정(forming) 및 변환(transformation))을 수행하지 않으며, AI 알고리즘에 공통된 data preparation를 수행할 수 있다.
데이터 준비 과정을 수행된 후, Model Training function(10)은 Model Training function(20)에게 훈련 데이터(Training Data)(11)를 제공하며, Model Inference function(30)에게 추론 데이터(Inference Data)(12)를 제공한다. 여기서, Training Data)(11)는 AI Model Training function(20)을 위한 입력으로 필요한 데이터이다. Inference Data(12)는 AI Model Inference function(30)을 위한 입력으로 필요한 데이터이다.
Data Collection function(10)은 단일의 개체(예를 들어, UE, RAN 노드, 네트워크 노드 등)에 의해 수행될 수도 있지만 복수의 개체들에 의해 수행될 수도 있다. 이 경우, 복수의 개체들로부터 Training Data)(11)와 Inference Data(12)가 각각 Model Training function(20)과 Model Inference function(30)에게 제공될 수 있다.
Model Training function(20)은 AI 모델 테스트 절차의 일부로 모델 성능 메트릭(metric)을 생성할 수 있는 AI 모델 훈련, 검증(validation) 및 테스트(test)를 수행하는 기능이다. Model Training function(20)은 필요한 경우 Data Collection function(10)에서 제공하는 Training Data(11)를 기반으로 데이터 준비(예를 들어, data pre-processing 및 cleaning, forming 및 transformation)도 담당한다.
여기서, 모델 배포/업데이트(Model Deployment/Update)(13)는 훈련되고 검증되고 테스트된 AI 모델을 Model Inference function(30)에 초기 배포하거나 업데이트된 모델을 Model Inference function(30)에 제공하기 위해 사용된다.
Model Inference function(30)은 AI 모델 추론 출력(Output)(16)(예를 들어, 예측 또는 결정)을 제공하는 기능이다. Model Inference function(30)은 적용가능한 경우, Model Training function(20)에 모델 성능 피드백(Model Performance Feedback)(14)을 제공할 수 있다. 또한, Model Inference function(30)은 필요한 경우 Data Collection function(10)이 제공하는 Inference Data(12)를 기반으로 데이터 준비(예를 들어, data pre-processing 및 cleaning, forming 및 transformation)도 담당한다.
여기서, 출력(Output)(16)은 Model Inference function(30)에 의해 생성된 AI 모델의 추론 출력을 의미하며, 추론 출력의 세부 정보는 사용 사례에 따라 다를 수 있다.
Model Performance Feedback(14)은 사용 가능한 경우 AI 모델의 성능을 모니터링하는 데 사용할 수 있으며, 이 피드백은 생략될 수도 있다.
액터(Actor) function(40)은 Model Inference function(30)으로부터 출력(16)을 수신하고, 해당하는 작업/동작을 트리거 또는 수행하는 기능이다. Actor function(40)은 다른 개체(entity)(예를 들어, 하나 이상의 UE, 하나 이상의 RAN 노드, 하나 이상의 네트워크 노드 등) 또는 자신에 대한 작업/동작을 트리거할 수 있다.
피드백(15)은 Training data(11), Inference data(12)를 도출하기 위해 또는 AI Model의 성능, 네트워크에 미치는 영향 등을 모니터링하기 위해 이용될 수 있다.
한편, AI/ML에서 사용되는 데이터 세트(Data set)에서 훈련(Training)/ 검증(validation) / 테스트(test)에 대한 정의는 다음과 같이 구분될 수 있다.
- 훈련 데이터(Training data): 모델을 학습하기 위한 Data set을 의미한다.
- 검증 데이터(Validation data): 학습이 이미 완료된 모델을 검증하기 위한 Data set을 의미한다. 즉, 보통 training data set의 과대적합(over-fitting)을 방지하기 위해서 사용되는 data set을 의미한다.
또한, 학습하는 과정에서 학습된 여러 가지 모델 중 최고(best)를 선택하기 위한 Data set을 의미한다. 따라서, 따라서, 학습의 일종으로 볼 수도 있다.
- 테스트 데이터(Test data): 최종 평가를 위한 Data set을 의미한다. 이 데이터는 학습과는 무관한 데이터이다.
상기 data set의 경우, 일반적으로 training set을 나눈다면, 전체 training set 내에서 training data과 validation data를 8:2 또는 7:3 정도로 나누어 사용될 수 있으며, test까지 포함을 한다면, 6:2:2 (training: validation: test)를 나누어 사용될 수 있다.
기지국과 단말사이의 AI/ML function의 능력의(capable) 여부에 따라 협력레벨을 다음과 같이 정의할 수 있으며, 하기 복수의 레벨의 결합 혹은 어느 하나의 레벨의 분리로 인한 변형도 가능하다.
Cat 0a) 협력이 없는 프레임워크(No collaboration framework): AI/ML 알고리즘은 순수 구현 기반이며 무선 인터페이스 변경이 필요하지 않는다.
Cat 0b) 이 레벨은 효율적인 구현 기반 AI/ML 알고리즘에 맞추어 수정된 무선 인터페이스를 수반하지만 협력은 없는 프레임워크에 해당한다.
Cat 1) 각 노드의 AI/ML 알고리즘을 개선하기 위한 노드 간 지원이 수반된다. 이는 UE가 gNB(훈련, 적응 등을 위해)로부터 지원을 받는 경우에 적용되며, 그 반대의 경우도 마찬가지이다. 이 레벨에서는 네트워크 노드 간의 모델 교환이 필요하지 않는다.
Cat 2) UE와 gNB 간의 공동 ML 작업이 수행될 수 있다. 이 레벨은 AI/ML 모델 명령 또는 네트워크 노드 간의 교환이 필요하다.
앞서 도 15에서 예시된 기능들은 RAN 노드(예를 들어, 기지국, TRP, 기지국의 중앙 장치(CU: central unit) 등), 네트워크 노드, 네트워크 사업자의 OAM(operation administration maintenance) 또는 UE에서 구현될 수도 있다.
또는, RAN, 네트워크 노드, 네트워크 사업자의 OAM 또는 UE 중 2개 이상의 개체가 협력하여 도 15에서 예시된 기능이 구현될 수도 있다. 예를 들어, 어느 하나의 개체가 도 15의 기능 중 일부를 수행하고, 다른 개체가 나머지의 기능을 수행할 수 있다. 이처럼, 도 15에서 예시하는 기능들 중 일부의 기능들이 단일의 개체(예를 들어, UE, RAN 노드, 네트워크 노드 등)에 의해 수행됨에 따라, 각 기능들 간의 데이터/정보의 전달/제공이 생략될 수 있다. 예를 들어, Model Training function(20)과 Model Inference function(30)이 동일한 개체에 의해 수행된다면, Model Deployment/Update(13)와 Model Performance Feedback(14)의 전달/제공은 생략될 수 있다.
또는, 도 15에 예시된 기능 중 어느 하나의 기능을 RAN, 네트워크 노드, 네트워크 사업자의 OAM 또는 UE 중 2개 이상의 개체가 협력(collaboration)하여 수행할 수도 있다. 이를 분할 AI 동작(split AI operation)으로 지칭할 수 있다.
도 16은 분할 AI 추론을 예시하는 도면이다.
도 16에서는 split AI operation 중에서 특히 Model Inference function이 UE와 같은 종단 기기(end device)와 네트워크 AI/ML 종단 기기(network AI/ML endpoint)에서 협력하여 수행되는 경우를 예시한다.
Model Inference function 이외에도 Model Training function, Actor, Data Collection function 각각도 현재의 작업 및 환경에 따라 다수의 부분들로 분할(split)되고, 다수의 개체들이 협력함으로써 수행될 수 있다.
예를 들어, 계산 집약적(computation-intensive)이고 에너지 집약적(energy-intensive)인 부분을 network endpoint에서 수행되는 반면 개인 정보에 민감한 부분과 지연에 민감한 부분은 end device에서 수행될 수 있다. 이 경우, end device는 입력 데이터로부터 특정 부분/계층까지 작업/모델을 실행한 다음, 중간 데이터(intermediated data)를 네트워크 끝점으로 전송할 수 있다. network endpoint는 나머지 부분/계층을 실행하고 추론 출력(Inference outputs)결과를, 동작/작업을 수행하는 하나 이상의 장치들에게 제공한다.
도 17은 무선 통신 시스템에서 기능적 프레임워크(functional framework)의 적용을 예시한다.
도 17에서는 AI Model Training function이 네트워크 노드(예를 들어, 코어 네트워크 노드, 네트워크 사업자의 OAM 등)에 의해 수행되고, AI Model Inference function이 RAN 노드(예를 들어, 기지국, TRP, 기지국의 CU 등)에 의해 수행되는 경우를 예시한다.
단계 1: RAN 노드 1과 RAN 노드 2는 AI Model Training을 위한 입력 데이터(즉, Training data)를 네트워크 노드에게 전송한다. 여기서, RAN 노드 1과 RAN 노드 2는 UE로부터 수집한 데이터(예를 들어, 서빙 셀과 이웃 셀의 RSRP, RSRQ, SINR과 관련된 UE의 측정, UE의 위치, 속도 등)를 함께 네트워크 노드에게 전송할 수 있다.
단계 2: 네트워크 노드는 수신한 Training data를 이용하여 AI Model을 훈련한다.
단계 3: 네트워크 노드는 AI Model을 RAN 노드 1 및/또는 RAN 노드 2에게 배포/업데이트한다. RAN 노드 1(및/또는 RAN 노드 2)은 수신한 AI Model에 기반하여 모델 훈련을 계속 수행할 수도 있다.
설명의 편의를 위해 RAN 노드 1에게만 AI Model이 배포/업데이트되었다고 가정한다.
단계 4: RAN 노드 1은 UE와 RAN 노드 2로부터 AI Model Inference를 위한 입력 데이터(즉, Inference data)를 수신한다.
단계 5: RAN 노드 1은 수신한 Inference data를 이용하여 AI Model Inference를 수행하여 출력 데이터(예를 들어, 예측 또는 결정)을 생성한다.
단계 6: 적용가능한 경우, RAN 노드 1은 네트워크 노드에게 모델 성능 피드백을 전송할 수 있다.
단계 7: RAN 노드 1, RAN 노드 2 및 UE(또는 'RAN 노드 1과 UE', 또는 'RAN 노드 1과 RAN 노드 2')는 출력 데이터에 기반한 동작(action)을 수행한다. 예를 들어, 로드 밸런싱(load balancing) 동작인 경우, UE가 RAN 노드 1에서 RAN 노드 2로 이동할 수도 있다.
단계 8: RAN 노드 1과 RAN 노드 2는 네트워크 노드에게 피드백 정보를 전송한다.
도 18은 무선 통신 시스템에서 기능적 프레임워크(functional framework)의 적용을 예시한다.
도 18에서는 AI Model Training function과 AI Model Inference function이 모두 RAN 노드(예를 들어, 기지국, TRP, 기지국의 CU 등)에 의해 수행되는 경우를 예시한다.
단계 1: UE와 RAN 노드 2는 AI Model Training을 위한 입력 데이터(즉, Training data)를 RAN 노드 1에게 전송한다.
단계 2: RAN 노드 1은 수신한 Training data를 이용하여 AI Model을 훈련한다.
단계 3: RAN 노드 1은 UE와 RAN 노드 2로부터 AI Model Inference를 위한 입력 데이터(즉, Inference data)를 수신한다.
단계 4: RAN 노드 1은 수신한 Inference data를 이용하여 AI Model Inference를 수행하여 출력 데이터(예를 들어, 예측 또는 결정)을 생성한다.
단계 5: RAN 노드 1, RAN 노드 2 및 UE(또는 'RAN 노드 1과 UE', 또는 'RAN 노드 1과 RAN 노드 2')는 출력 데이터에 기반한 동작(action)을 수행한다. 예를 들어, 로드 밸런싱(load balancing) 동작인 경우, UE가 RAN 노드 1에서 RAN 노드 2로 이동할 수도 있다.
단계 6: RAN 노드 2는 RAN 노드 1에게 피드백 정보를 전송한다.
도 19는 무선 통신 시스템에서 기능적 프레임워크(functional framework)의 적용을 예시한다.
도 19에서는 AI Model Training function이 RAN 노드(예를 들어, 기지국, TRP, 기지국의 CU 등)에 의해 수행되고, AI Model Inference function이 UE에 의해 수행되는 경우를 예시한다.
단계 1: UE는 AI Model Training을 위한 입력 데이터(즉, Training data)를 RAN 노드에게 전송한다. 여기서, RAN 노드는 다양한 UE들로부터 및/또는 다른 RAN 노드로부터 데이터(예를 들어, 서빙 셀과 이웃 셀의 RSRP, RSRQ, SINR과 관련된 UE의 측정, UE의 위치, 속도 등)를 수집할 수 있다.
단계 2: RAN 노드는 수신한 Training data를 이용하여 AI Model을 훈련한다.
단계 3: RAN 노드는 AI Model을 UE에게 배포/업데이트한다. UE는 수신한 AI Model에 기반하여 모델 훈련을 계속 수행할 수도 있다.
단계 4: UE와 RAN 노드로부터(및/또는 다른 UE로부터) AI Model Inference를 위한 입력 데이터(즉, Inference data)를 수신한다.
단계 5: UE는 수신한 Inference data를 이용하여 AI Model Inference를 수행하여 출력 데이터(예를 들어, 예측 또는 결정)를 생성한다.
단계 6: 적용가능한 경우, UE는 RAN 노드에게 모델 성능 피드백을 전송할 수 있다.
단계 7: UE와 RAN 노드는 출력 데이터에 기반한 동작(action)을 수행한다.
단계 8: UE는 RAN 노드에게 피드백 정보를 전송한다.
1차원/2차원 컨볼루션 신경망(Convolutional Neural Network) 구조
컨볼루션 신경망(CNN) 구조는 이미지 처리(image processing) 분야에서 좋은 성능을 발휘할 수 있는 구조이며, 이와 같은 특성을 바탕으로 해당 CNN 구조를 무선 통신 시스템에서의 채널 추정에 적용하여 성능을 향상시키는 방안이 활발하게 논의되고 있다. 이와 같은 CNN 구조의 예시로, 1차원(1 Dimension, 1D) CNN 구조 및 2D CNN 구조가 고려될 수 있다.
먼저, 1D CNN 구조에 대해 설명한다.
도 20은 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 위한 1D CNN 구조를 예시한다.
도 20을 참조하면, 1D CNN 구조에 기반하는 경우, 주파수 영역 상에서의 채널 추정과 시간 영역 상에서의 채널 추정은 분리하여 수행되는 경우가 가정된다. 예를 들어, 주파수 영역 상에서의 채널 추정 이후에 시간 영역 상에서의 채널 추정이 수행될 수 있다(예: 1D Wiener 필터).
도 20에서는 주파수 영역 상에서의 채널 추정 값(예: x0+jy0, ...)으로부터 CNN의 각 층이 구성되는 방식을 예시한다. 도 20에서는 실수 값을 예시로 하지만, 허수 값에 대해서도 동일하게 적용될 수 있음은 자명하다. 또한, 주파수 영역 상에서의 채널 추정 값을 예시로 하지만, 시간 영역 상에서의 채널 추정 값에 대해서도 동일하게 적용될 수 있음은 자명하다.
예를 들어, 도 20에서와 같이, 채널 추정 값(예: 채널 추정 값 중 실수 값)에 기반하여 CNN의 입력층(2010)이 구성될 수 있다. 채널 추정 값과 관련하여, 음영 영역(2005)는 DMRS가 전송되는 영역을 의미할 수 있다. 입력층(2010)과 출력층(2030) 사이에는 N개(예: N은 1보다 크거나 같은 자연수)의 컨볼루션층/은닉층(2020)이 구성될 수 있다. 이때, 컨볼루션층/은닉층(2020)의 결과 값으로부터 출력층(2030)이 구성될 수 있다.
도 21은 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 위한 1D CNN 구조에서의 출력 값 추정 방식을 예시한다.
도 21을 참조하면, 1D CNN을 구성하는 각 컨볼루션층/은닉층에서 입력 값(2110)으로부터 특성맵(2120)을 도출하고 출력 값(2130)이 추정될 수 있다.
예를 들어, 각 컨볼루션층/은닉층에서의 특성맵(2120) 도출 동작은 [S2110-a, S2110-b, S2110-c, ...]에 해당할 수 있으며, 특성맵(2120)에 기반하여 출력 값(2130)을 추정하는 동작은 [S2120]에 해당할 수 있다.
각 컨볼루션층/은닉층에서는 특성맵(2120)을 도출하기 위해서 특정 단위의 입력 값에 특정 가중치(weight)를 적용하는 커널/필터(2140)가 정의될 수 있다. 각 커널/필터(2140)는 특정 크기(또는 가중치의 개수)로 정의될 수 있다. 또한, 각 커널/필터(2140)는 특정 가중치의 조합(예: w0/w1/w2/w3)으로 정의될 수 있다. 각 커널/필터(2140)는 입력 값(2110) 내에서 특성맵(2120)을 도출하기 위한 특정 이동 범위를 가질 수 있으며, 해당 특정 이동 범위는 스트라이드(stride)로 명명할 수 있다. 또한, 상기 커널/필터(2140)는 컨볼루션층/은닉층 별로 서로 다르게 정의되거나, 모든 컨볼루션층/은닉층들에 대해 동일하게 정의될 수도 있다. 도 21은 크기 4 및 스트라이드 1로 설정/정의된 1개의 커널/필터(2140)로 구성된 컨볼루션층/은닉층의 예를 보여준다.
각 컨볼루션층/은닉층에서는, 특성맵(2120)에 기반하여 출력 값을 추정하기 위해 이용되는 활성화 함수(activation function, AF)(2150)이 정의될 수 있다. 컨볼루션 연산을 통해 획득된 특성맵(2120)에 대해 비선형성을 추가하기 위하여 활성화 함수(2150)가 이용될 수 있다. 예를 들어, 활성화 함수(2150)는 계단 함수(step function), 시그모이드 함수(sigmoid function), 하이퍼볼릭탄젠트 함수(hyperbolic tangent function), 렐루 함수(ReLU function), 리키 렐루 함수(Leaky ReLU function), 소프트맥스 함수(softmax function) 등을 포함할 수 있다.
다음으로, 2D CNN 구조에 대해 설명한다.
도 22는 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 위한 2D CNN 구조를 예시한다.
도 22를 참조하면, 2D CNN 구조에 기반하는 경우, 주파수 영역 상에서의 채널 추정과 시간 영역 상에서의 채널 추정은 함께 수행되는 경우가 가정된다. 예를 들어, 주파수 영역 상에서의 채널 추정과 시간 영역 상에서의 채널 추정은 동시에 수행될 수 있다(예: 2D Wiener 필터).
도 22에서는 주파수 영역 상에서의 채널 추정 값(예: x0+jy0, ...)으로부터 CNN의 각 층이 구성되는 방식을 예시한다. 도 22에서는 실수 값을 예시로 하지만, 허수 값에 대해서도 동일하게 적용될 수 있음은 자명하다.
도 22에서의 2D CNN 구조의 각 층을 구성하는 방법은 도 20에서의 1D CNN 구조의 각 층을 구성하는 방법을 2차원 시간/주파수 영역으로 확장한 것으로, 그 이외의 구성 방법은 동일한 것으로 가정할 수 있다.
예를 들어, 도 22에서와 같이, 채널 추정 값(예: 채널 추정 값 중 실수 값)에 기반하여 CNN의 입력층(2210)이 구성될 수 있다. 채널 추정 값과 관련하여, 음영 영역(2205)는 DMRS가 전송되는 영역을 의미할 수 있다. 입력층(2210)과 출력층(2230) 사이에는 N개(예: N은 1보다 크거나 같은 자연수)의 컨볼루션층/은닉층(2220)이 구성될 수 있다. 이때, 컨볼루션층/은닉층(2220)의 결과 값으로부터 출력층(2230)이 구성될 수 있다.
도 23은 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 위한 2D CNN 구조에서의 출력 값 추정 방식을 예시한다.
도 23을 참조하면, 2D CNN을 구성하는 각 컨볼루션층/은닉층에서 입력 값(2310)으로부터 특성맵(2320)을 도출하고 출력 값(2330)이 추정될 수 있다.
도 23에서의 출력 값을 추정하는 방식은 도 20에서의 출력 값을 추정하는 방식을 2차원 시간/주파수 영역으로 확장한 것으로, 그 이외의 방법은 동일한 것으로 가정할 수 있다.
예를 들어, 각 컨볼루션층/은닉층에서의 특성맵(2320) 도출 동작은 [S2310-a, S2310-b, S2310-c, ...]에 해당할 수 있으며, 특성맵(2320)에 기반하여 출력 값(2330)을 추정하는 동작은 [S2320]에 해당할 수 있다.
각 컨볼루션층/은닉층에서는 특성맵(2320)을 도출하기 위해서 특정 단위의 입력 값에 특정 가중치(weight)를 적용하는 커널/필터(2340)가 정의될 수 있다. 각 커널/필터(2340)는 특정 크기(또는 가중치의 개수)로 정의될 수 있다. 이 경우, 상기 특정 크기는 2차원(예: 2차원 시간/주파수 영역)에 기반하여 정의될 수 있다. 또한, 각 커널/필터(2340)는 특정 가중치의 조합(예: w00/w10/w20/w30/w01/w11/w21/w31)으로 정의될 수 있다. 각 커널/필터(2340)는 입력 값(2310) 내에서 특성맵(2320)을 도출하기 위한 특정 이동 범위를 가질 수 있으며, 해당 특정 이동 범위는 스트라이드(stride)로 명명할 수 있다. 이 경우, 상기 스트라이드는 2차원(예: 2차원 시간/주파수 영역)에 기반하여 정의될 수 있다. 또한, 상기 커널/필터(2340)는 컨볼루션층/은닉층 별로 서로 다르게 정의되거나, 모든 컨볼루션층/은닉층들에 대해 동일하게 정의될 수도 있다. 도 23은 크기 4x2 및 스트라이드 [1, 1](예: [시간 영역, 주파수 영역])로 설정/정의된 1개의 커널/필터(2340)로 구성된 컨볼루션층/은닉층의 예를 보여준다.
각 컨볼루션층/은닉층에서는, 특성맵(2320)에 기반하여 출력 값을 추정하기 위해 이용되는 활성화 함수(activation function, AF)(2350)이 정의될 수 있다. 컨볼루션 연산을 통해 획득된 특성맵(2320)에 대해 비선형성을 추가하기 위하여 활성화 함수(2350)가 이용될 수 있다. 예를 들어, 활성화 함수(2150)는 계단 함수(step function), 시그모이드 함수(sigmoid function), 하이퍼볼릭탄젠트 함수(hyperbolic tangent function), 렐루 함수(ReLU function), 리키 렐루 함수(Leaky ReLU function), 소프트맥스 함수(softmax function) 등을 포함할 수 있다.
상술한 1D CNN 구조 및 2D CNN 구조와 관련하여, 구조 내에서의 패딩(padding) 및 풀링(pooling)에 대한 기능/동작/구조가 함꼐 고려될 수 있다.
도 24는 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 CNN 구조에서의 패딩 및 풀링을 예시한다. 구체적으로, 도 24(a)는 패딩 방식을 예시하고, 도 24(b)는 풀링 방식을 예시한다.
도 24(a)를 참조하면, 컨볼루션 연산의 결과로 얻은 특성맵(2420)은 입력(2410)보다 크기가 작아지는데, 패딩 방식은 이를 방지하기 위해 이용될 수 있다. 즉, 패딩 방식은 컨볼루션 연산 이후에도 특성맵(2420)의 크기가 입력(2410)의 크기와 동일하게 유지되도록 하는 기능/동작/구조를 의미할 수 있다. 도 24(a)는 1D CNN 구조에서 제로 패딩을 적용하는 예시를 보여준다.
도 24(b)를 참조하면, 풀링(또는 풀링층)(2440)은 특성맵(2420)을 하향샘플링(downsampling)하여 특성맵(2420)의 크기를 줄이는 기능/동작/구조를 의미할 수 있다. 풀링 연산의 예로, 최대 풀링(max pooling), 평균 풀링(average pooling) 등이 있다. 도 24(b)는 1D CNN 구조에서 최대 풀링을 적용하는 예시를 보여준다. 풀링 연산에서도 커널과 스트라이드의 개념이 동일하게 적용될 수 있으며, 해당 예시에서는 크기 4의 커널과 4로 설정된 스트라이드 가정된다.
상술한 1D CNN 구조와 2D CNN 구조와 관련하여, 편향(bias)에 대한 설명은 생략되었으나, 해당 CNN 구조와 관련하여 편향 값이 적용될 수 있음은 자명하다. 편향 값이 사용되는 경우, 해당 편향 값은 커널을 적용한 특정 특성맵에 대해 추가되는 형태로 적용될 수 있다.
또한, 상술한 1D CNN 구조와 2D CNN 구조와 관련하여, 손실 함수(loss function) 및 옵티마이저(optimizer)에 대한 설명은 생략 되었으나, 해당 CNN 구조(또는 AI/ML 알고리즘) 내에서 학습(training) 과정을 위하여 손실 함수 및 옵티마이저가 고려될 수 있음은 자명하다. 여기에서, 손실 함수는 실제 값과 예측 값 간의 차이를 수치화하는 함수를 의미할 수 있다. 손실 함수로, 평균 제곱 오차(MSE), 크로스 엔트로피(cross-entropy) 등이 고려될 수 있다. 옵티마이저는 손실 함수에 기반하여 각 층에 적합한 가중치(들)을 업데이트하기 위한 함수를 의미할 수 있다. 옵티마이저로, 배치 경사 하강법(batch gradient descent), 확률적 경사 하강법(stochastic gradient descent, SGD), 미니 배치 경사 하강법(moni-batch gradient descent), 모멘텀(momentum), 아다그라드(adagrad), 알엠에스프롭(RMSprop), 아담(adam) 등이 고려될 수 있다.
기지국과 단말 간 AI/ML 관련 파라미터 공유 방법
본 개시에서는 3GPP NR 시스템을 기준으로 기술하나 이는 제한이 아니며, 다른 통신 시스템에 발명 기술이 적용될 수 있음은 자명하다.
AI/ML 모델 및/또는 해당 모델에 필요한 파라미터(들)과 관련되는 정보를 기지국과 단말 간에 공유하도록 설정/규정되는 경우, 기지국 또는 단말 중 특정 노드에서만 training을 수행할 수 있는 장점이 있다. 일 예로, 특정 노드에서 학습(training)을 위한 데이터 셋(dataset)에 기반하여 예측 값과 실제 값으로부터 오차를 계산하고, 가중치 및 편향 등 추론(inference)에 필요한 파라미터(들)을 업데이트하는 방식이 적용될 수 있다.
또한, 학습(training)을 수행하는 않는 노드에게 업데이트된 파라미터(들)을 공유함으로써, 해당 노드의 추론(inference) 성능이 향상될 수 있다. 일 예로, 학습(training) 결과/정보(예: 가중치, 편향 등)가 공유될 수 있는 경우, 특정 노드에서는 상술한 업데이트 과정(예: 손실 함수/옵티마이저를 이용한 가중치/편향 업데이트)이 불필요하므로 해당 노드의 계산 복잡도 및 에너지 소모를 감소시키며, 추론 성능은 향상되는 장점이 있다.
이러한 점을 고려하여, 본 개시에서는 기지국과 단말 사이에 상술한 AI/ML 모델 및 이와 관련된 정보를 교환하기 위한 방법들을 제안한다. 본 개시에서의 제안 방법은 CNN 구조를 위주로 제안/설명되지만, 해당 CNN 구조로 제한되는 것은 아니다. 따라서, 제안 방법의 작동 방법/원리/구조에 기반하여 CNN 구조 이외의 다른 NN 구조를 가정한 정보 교환도 가능함은 자명하다.
본 개시에서의 제안 방법과 관련하여, 상술한 1D CNN 구조 및 2D CNN 구조는 본 개시에서의 제안 방법에서 주로 고려되는 구조를 예시한 것으로, 제안 방법을 제한하려는 것이 아니므로 특정 용어에 의해 특정 기능/동작이 제한되지 않는다. 즉, 상술한 기능/동작/방법은 특정 용어로 제한되지 않으며, 다른 용어를 통해 대체될 수 있다.
상술한 1D CNN 구조 및 2D CNN 구조와 관련하여, 도면(예: 도 20 내지 도 24)에서 표현된 크기(예: 입력/입력층의 크기, 출력/출력층의 크기, 컨볼루션층/은닉층의 크기, 커널의 크기 등)는 일 예에 해당하며 제안 방법을 제한하는 것이 아니므로, 다른 크기들에 대해서도 본 개시에서의 제안 방법이 적용될 수 있다.
본 개시에서의 L1 시그널링은 기지국과 단말 간의 DCI 기반의 동적인(dynamic) 시그널링을 의미할 수 있고, L2 시그널링은 기지국과 단말 간의 RRC/MAC-CE 기반의 상위 계층 시그널링을 의미할 수 있다.
구체적으로, 본 개시에서는, 상술한 1D/2D CNN 구조를 기지국 및/또는 단말에서의 채널 추정(channel estimation) 과정에 이용하기 위한 방법들을 제안한다. 예를 들어, 기지국 및/또는 단말은 채널 추정을 위한 참조 신호(reference signal)를 전송할 수 있고, 기지국 및/또는 단말은 상기 참조 신호에 기반하여 (무선) 채널을 추정할 수 있다. 또한, 상기 채널 추정 시, AI/ML 모델(예: CNN 구조)을 이용하여, 참조 신호가 전송되지 않는 자원 영역(예: RE(s), RB(s), OFDM symbol(s) 등)에 대한 채널 추정 성능 및/또는 참조 신호가 전송된 자원 영역의 채널 추정 성능이 향상될 수 있다.
본 개시에서의 제안 방법을 적용하는 경우, 기지국과 단말 간에 AI/ML 알고리즘, NN 구조 및 이와 관련된 파라미터(들)에 대한 정보가 공유될 수 있다. 이를 통해, 기지국 및/또는 단말에서의 학습(training) 과정이 생략될 수 있어, 학습 과정에 필요한 복잡도 및 에너지 소모가 감소되는 효과가 있다.
앞서 언급한 바와 같이, 본 개시에서의 제안 방법은 CNN 구조 및 채널 추정 동작에 기반하여 제안/설명되지만, CNN 구조 이외의 AI/ML 알고리즘 및/또는 NN 구조에도 적용될 수 있으며, CSI 피드백(CSI feddback)/포지셔닝(positioning)/빔 관리(beam management)/채널 예측(channel prediction) 등의 용도에도 적용될 수 있다.
본 개시는 기지국과 단말 간에 AI/ML 관련 정보를 공유하는 방안을 제안한다. 일 예로, AI/ML 관련 정보는 AI/ML 관련 알고리즘, NN 구조 및 이와 관련된 파라미터(들) 등을 포함할 수 있다.
본 개시에서의 제안 방법은 NN 구조 정보를 공유하는 경우를 예시로 하여 설명되지만, NN 구조 정보 이외의 다른 AI/ML 관련 정보를 공유하는 경우에 대해서도 확장하여 적용될 수 있다.
예를 들어, 단말은 단말의 NN 구조 정보 및/또는 단말이 가정하는 NN 구조 정보)를 기지국(또는 네트워크 측)으로 보고할 수 있다. 그리고/또는, 기지국(또는 네트워크 측)은 기지국의 NN 구조 정보, 기지국이 가정하는 NN 구조 정보, 및/또는 단말이 가정하는 NN 구조 정보를 단말에게 설정/지시할 수 있다. 그리고/또는, 기지국과 단말 사이에 특정 NN 구조 정보를 가정하도록 하는 규칙이 정의될 수도 있다.
해당 예시에서, NN 구조 정보는 해당 구조에서의 층(layer) 관련 정보 및 패딩/풀링과 같은 특정 동작에 관련된 정보를 포함할 수 있다. 구체적으로, NN 구조 정보는 컨볼루션층(convolution layr)/은닉층(hidden layer)의 개수, 패딩(padding) 여부, 패딩 값, 패딩 크기, 풀링(pooling) 여부, 풀링 유형 등을 포함할 수 있다. 여기에서, 컨볼루션층/은닉층의 개수는 입력층(input layer) 및/또는 출력층(output layer)도 포함하여 정의될 수 있다. 또한, 상술한 패딩(padding) 여부, 패딩 값, 패딩 크기, 풀링(pooling) 여부, 풀링 유형 등은 전체 층, 각 층 및/또는 특정 층에 대해 각각 설정/지시/정의/보고될 수 있다.
또한, NN 구조 정보는 커널 관련 정보, 손실 함수의 유형에 대한 정보, 옵티마이저의 유형에 대한 정보를 포함할 수 있다. 구체적으로, 커널 관련 정보는 커널의 개수, 커널의 크기(예: 1D, 2D), 각 층/커널의 활성화 함수, 각 층/커널의 스트라이드 값, 커널의 가중치 값들(또는 가중치 값의 조합), 각 층/커널의 편향 값 등을 포함할 수 있다. 커널 관련 정보에서의 변수들은 전체 층, 각 층, 특정 층, 전체 커널, 각 커널 및/또는 특정 커널에 대해 각각 설정/지시/정의/보고될 수 있다.
상술한 NN 구조 정보에 포함되는 구체적 정보 예시와 관련하여, 일부 정보, 일부 정보의 조합 및/또는 전체 정보가 보고/설정/지시/정의될 수 있다. 상술한 제안 방법 및 이하 설명될 방법(들)에 따라, 기지국이 해당 기지국의 NN 구조 정보(또는 해당 기지국이 가정하는 NN 구조 정보, 단말이 가정하는 NN 구조 정보)를 단말에게 설정/지시하는 경우, L1 시그널링 및/또는 L2 시그널링에 기반하여 NN 구조 정보가 설정/지시될 수 있다. 또한, 상술한 제안 방법 및 이하 설명될 방법(들)에 따라, 단말이 해당 단말의 NN 구조 정보(또는 해당 단말이 가정하는 NN 구조 정보)를 기지국으로 보고하는 경우, 단말 능력(UE capability) 보고 및/또는 CSI 보고 등에 기반하여 NN 구조 정보가 보고될 수 있다.
상술한 본 개시에서의 제안 방법을 이용하는 경우, 특정 노드(예: 기지국 또는 단말)는 학습(training)에 기반하여 예측 값과 실제 값으로부터 오차를 계산하고 가중치/편향 등을 업데이트할 수 있다. 학습(training) 결과/정보(예: 가중치, 편향 등)를 공유할 수 있는 경우, 특정 노드에서는 상술한 학습/업데이트 과정이 불필요하며, 이에 따라 해당 노드에서의 계산 복잡도 및 에너지 소모가 감소될 수 있다.
본 개시에서의 제안 방법과 관련하여, 하기의 요소들을 함께/대체하여 적용하는 방법도 고려될 수 있다. 또한, 하기의 요소들을 본 개시의 구체적인 실시예들(예: 실시예 1 내지 실시예 3)에 대해 함께/대체하여 적용하는 방법도 고려될 수 있다.
먼저, AI/ML 알고리즘 요소가 고려될 수 있다.
하나 이상의 AI/ML 알고리즘/모델(예: DNN, CNN, RNN, RN 등)이 고려/적용될 수 있다. 이때, 기지국/네트워크(network, NW)은 단말에게 AI/ML 알고리즘/모델과 관련된 정보를 설정/지시할 수 있다. 여기에서, 해당 정보는 AI/ML 알고리즘의 유형/모델에 대한 정보, 노드의 개수, 은닉층의 개수, 가중치의 개수에 대한 정보 등을 포함할 수 있다. AI/ML 알고리즘/모델은 모듈 단위로 설정될 수 있으며 즉, AI/ML 알고리즘/모델은 BM 용도, CSI 용도, 포지셔닝 용도 등으로 각각 설정될 수 있다. 이 경우, AI/ML 알고리즘 모델에 대해, 모든 함수는 동일하지만 파라미터(예: 노드/은닉층/가중치의 개수 등)는 서로 다르게 설정될 수도 있다.
다음으로, AI/ML 관련 파라미터의 업데이트 요소가 고려될 수 있다.
예를 들어, 초기 접속(initial access)에 AI/ML 모듈을 적용하는 경우, (D)NN 관련 정보는 시스템 정보(예: SIBx)를 통해 단말에게 설정/지시/전달될 수 있다. 반면, 초기 접속에 AI/ML 모듈을 적용하지 않는 경우, 해당 (D)NN 관련 정보는 RRC/MAC-CE/DCI 등을 통해 단말에게 설정/지시/전달될 수 있다. 이때, 단말에게 설정/지시된 AI/ML 관련 정보/업데이트 정보를 적용하기 위하여 일정 시간 갭(timing gap, X)이 적용될 수 있다. 여기에서, 일정 시간 갭은 (D)NN 관련 정보의 수신 이후의 X 슬롯/msec으로 설정/규정될 수 있다. 해당 일정 시간 갭 즉, X에 대한 정보는 단말 능력 또는 기지국 설정 등에 의해 결정될 수 있다.
다음으로, 스스로 딥 러닝(deep learning) 학습 능력을 가지는 기준 단말(reference UE) 요소가 고려될 수 있다. 효율적인 딥 러닝 학습을 수행하기 위하여 '기준 단말'을 정의하고, 이에 필요한 단말 동작(UE behavior)이 정의될 수 있다.
(D)NN에 대한 러닝(learning)/학습(training)을 수행할 수 있는 능력을 모든 단말이 가지는 것은 어려울 수 있고, 또한 비효율적인 러닝/학습을 유발할 수 있다. 따라서, 상술한 러닝/학습을 (다수의 단말들을 대표하여) 수행할 수 있는 단말(즉, 상기 기준 단말)이 필요할 수 있다. 기준 단말이 정의/도입되는 경우, 러닝/학습이 모든 기지국/단말이 아닌 특정 단말에서만 수행되며, 특정 단말이 러닝/학습을 수행한 후 결과를 기지국 및 다른 단말에게 공유할 수 있다. 따라서, (유사/동일한 채널 상황에 존재하는) 모든 기지국/단말에서 각각 러닝/학습을 독립적으로 수행할 필요가 없으므로, 효율적인 러닝/학습이 수행될 수 있다. 또한, 러닝/학습을 수행할 수 있는 능력이 없는 단말에게도 (유사/동일한 채널 상황이 반영된) 러닝/학습의 결과가 공유될 수 있어, 해당 단말도 적합한 파라미터가 적용된 (D)NN에 기반하여 동작할 수 있는 장점이 있다.
예를 들어, 기준 단말은 러닝/학습을 수행할 수 있는 능력을 가진 단말, 러닝/학습을 수행하도록 (기지국 등에 의해) 설정/지시된 단말, 및/또는 러닝/학습의 결과를 기지국 등/비-기준 단말(non-reference UE)로 보고/공유/전송하도록 설정/지시된 단말에 해당할 수 있다. 여기에서, 비-기준 단말은 상술한 기준 단말에 해당하지 않는 단말을 의미할 수 있다.
이와 관련하여, 단말은 자신의 능력에 대한 정보를 기지국(또는 네트워크)으로 보고할 수 있으며, 해당 정보는 상술한 파라미터(들)에 대한 러닝/학습 및/또는 다른 단말에게 (D)NN을 위해 도출된 파라미터(들)을 공유(share)/브로드캐스트(broadcast)할 수 있는지에 대한 능력 정보를 포함할 수 있다. 기지국은 L1 시그널링 및/또는 L2 시그널링을 통해 기준 단말(들)을 설정/지시할 수 있다. 기준 단말은 (D)NN을 위한 파라미터(들)에 대한 러닝/학습을 수행할 수 있으며, 기지국(또는 네트워크)으로 도출된 (D)NN 관련 정보(예: 가중치 등)를 보고할 수 있다. 또한, 보고된 (D)NN 관련 정보는 기지국(또는 네트워크)에 의해 다른 단말(예: 비-기준 단말)에게 릴레이(relay)/설정/지시될 수 있다. 기준 단말은 자신의 인접 단말(예: 비-기준 단말)에게 도출된 (D)NN 관련 정보를 브로드캐스트할 수 있다. 비-기준 단말은 기준 단말로부터 도출된 (D)NN 관련 정보를 수신하도록 설정/지시될 수 있다. (D)NN 관련 정보의 수신을 위한 관련 파라미터(들)(예: 시간/주파수 자원, 주기 등)은 기지국(또는 네트워크)로부터의 L1/L2 시그널링에 의해 설정/지시될 수 있다.
이하, 상술한 본 개시에서의 제안 방법과 관련하여, 보다 구체적인 방법들을 제안한다. 이하 설명되는 실시예들은 설명의 편의를 위해 구분된 것으로, 실시예에 해당하는 방법이 개별적으로 적용되거나, 두 가지 이상의 실시예들에서의 방법들이 상호 결합되어 적용될 수도 있다.
실시예 1
본 실시예는 상술한 AI/ML 관련 정보 측면에서, 복수의 AI/ML 알고리즘/모델/구조가 이용되는 경우에 특정 알고리즘/모델/구조를 설정/지시/정의/보고하는 방안에 대한 것이다.
예를 들어, NN 구조 정보에 대해, 복수 정보의 조합 형태로 복수의 NN 구조(또는 AI/ML 알고리즘/모델)들이 설정/정의될 수 있다. 이때, 기지국 및/또는 단말은 상기 복수의 NN 구조들 중 특정 구조를 설정/지시/정의/보고할 수 있다.
표 6은 본 실시예에서의 제안 방법에 기반하여 후보 NN 구조(NN Structure, NNS)를 정의하는 방법의 예를 나타낸다.
Figure PCTKR2022014631-appb-img-000003
표 6을 참조하면, 각 후보 NN 구조는 인덱스의 형태(예: state 0 내지 7)로 설정/지시/정의/보고될 수 있다. 각 후보 NN 구조조는 컨볼루션층(convolution layer, CL)의 개수, 각 CL에서 커널(kernel, KN)의 개수, 각 CL에서 커널의 크기, 각 CL에서 커널의 스트라이드(stride)의 조합에 기반하여 정의/구분될 수 있다.
예를 들어, 제1 NNS 후보(즉, NNS0)와 제2 NNS 후보(즉, NNS1)는 특정 CL에서의 KN의 크기가 다른 특징을 가지는데, 이로 인하여 제2 NNS 후보는 제1 NNS 후보와 비교하여 높은 복잡도를 가지지만, 높은 정확도를 제공할 수 있을 것으로 예상할 수 있다. 제1 NNS 후보(즉, NNS0)와 제3 NNS 후보(즉, NNS2)를 비교하는 경우, 제3 NNS 후보는 큰 스트라이드를 가지기 때문에 연산량이 감소하여 복잡도가 낮아질 수 있으나, 성능 측면에서 열화가 발생할 수 있을 것으로 예상할 수 있다.
표 6은 후보 NN 구조를 정의하기 위하여 복수 정보의 조합을 정의하는 예시에 해당하며, 본 개시에서의 제안 방법이 해당 정보의 조합으로 제한되는 것은 아니다. 다른 파라미터의 조합에 기반하여 후보 NN 구조가 정의될 수 있음은 자명하다. 또한, 표 6은 복수 정보의 조합을 예시하고 있으나, 이와 함께 또는 (일부를) 대체하여, 각각의 저보에 대해서 독립적으로 기지국과 단말 간에 설정/지시/정의/보고하는 방법도 가능하다.
본 실시예에서의 제안 방법 및 이하 설명될 제안 방법에 기반하여 특정 NN 구조를 설정/지시/정의/보고하는 경우에, 특정 NN 구조 정보에 대해서는 기지국과 단말 간에 특정 값을 가정하도록 규칙을 정의하는 방법이 고려될 수도 있다. 예를 들어, 입력의 크기와 출력의 크기를 유지하기 위하여 모든 층에서 제로 패딩을 가정하도록 하는 규칙이 정의될 수 있다. 그리고/또는, 활성화 함수에 대해 ReLU 함수 또는 Leaky ReLU 함수를 가정하도록 하는 규칙이 정의될 수 있다.
본 실시예에서의 제안 방법 및 이하 설명될 제안 방법에 기반하여 특정 NN 구조를 기지국이 단말에게 설정/지시하는 경우, 해당 특정 NN 구조에 대한 정보는 LI/L2 시그널링에 기반하여 설정/지시될 수 있다. 또한, 단말이 복수의 NN 구조들 중 특정 구조를 보고하는 경우, 해당 특정 NN 구조에 대한 정보는 단말 능력 보고 및/또는 CSI 보고에 기반하여 보고될 수 있다.
기지국과 단말 간에 AI/ML 관련 정보(예: NN 구조 정보)를 설정/지시/보고함에 있어, 각각의 정보를 별도로 보고하는 경우 시그널링 오버헤드가 증가하며, 고려해야 할 AI/ML 모델/구조가 증가되는 문제가 발생할 수 있다. 본 실시예에서의 제안 방법은 특정 AI/ML 모델/구조 정보의 조합 형태로 AI/ML 모델/구조를 정의함으로써 상기 문제를 방지하고, 시그널링 오버헤드 및 고려해야 할 AI/ML 모델/구조를 적정 수준으로 관리할 수 있다.
실시예 2
본 실시예는 기지국 및/또는 단말에서 특정 AI/ML 모델/구조를 가정할 수 있는 경우, 그와 관련된 구체적 파라미터 값을 설정/지시/정의/보고하는 방안에 대한 것이다.
예를 들어, 본 개시에서의 제안 방법 및/또는 상술한 실시예 1 및 이하의 제안 방법에 기반하여 특정 NN 구조가 설정/지시/정의/보고되어, 기지국/단말에서 해당 NN 구조를 가정할 수 있는 경우를 가정한다. 이때, 기지국/단말은 커널의 가중치 값들(또는 가중치 값의 조합) 및/또는 각 층/커널의 편향 값을 설정/지시/정의/보고할 수 있다.
본 실시예에서의 제안 방법 및 이하 설명될 제안 방법에 기반하여 커널의 가중치 값들(또는 가중치 값의 조합) 및/또는 각 층/커널의 편향 값을 설정/지시/정의/보고하기 위하여, 하기의 예시들 중 적어도 하나의 방법이 적용될 수 있다.
일 예로, 가중치 값들의 조합 및/또는 편향 값은 복수의 상태/인덱스들 형태로 기지국과 단말 간에 고정된 규칙으로 정의/설정될 수 있다. 이에 따라, 기지국/단말은 복수의 상태/인덱스들 중 특정 상태/인덱스를 설정/지시/보고할 수 있다.
다른 예로, 가중치 값들 및/또는 편향 값들에 대해, 후보 값들에 대한 정보가 L2 시그널링(예: RRC, MAC-CE 등)에 기반하여 기지국과 단말 간에 공유될 수 있다. 후보 값들 중 특정 값(들)은 L1/L2 시그널링에 기반하여 기지국/단말에게 설정/지시/보고될 수 있다. 이때, 상기 후보 값들을 새로운 후보 값들로 업데이트 하는 동작이 L1/L2 시그널링에 기반하여 지원될 수 있다.
본 실시예에서의 제안 방법의 경우, 기지국/단말 중 특정 노드에서만 학습 과정을 수행한 후에 그 결과로 획득될 수 있는 가중치 값들 및/또는 편향 값들이 공유되므로, 특정 노드의 복잡도를 낮추고, 에너지 효율이 향상될 수 있다.
실시예 3
본 실시예는 유연한 AI/ML 관련 알고리즘/모델을 지원하기 위한 방안에 대한 것이다.
예를 들어, 본 개시에서 상술한 제안 방법들과 관련하여 유연한 NN 구조를 지원하기 위하여, 복수의 NN 구조 정보에 기반하여 특정 컨볼루션층(convolution layer, CL) 구조를 정의한 후, 기지국/단말은 지원 가능한(또는 가정 가능한) CL의 개수에 대한 정보를 설정/지시/보고할 수 있다. 여기에서, 복수의 NN 구조 정보는 커널(kernel, KN)의 개수, 커널의 크기, 커널의 스트라이드, 활성화 함수, 패딩 여부/값/크기, 폴링 여부/유형/방법 등을 포함할 수 있다.
본 실시예에서의 제안 방법에 기반하여 CL을 정의하는 경우, 해당 CL에 필요한 커널의 가중치 값들(또는 가중치 값의 조합) 및/또는 각 층/커널의 편향 값의 크기/개수가 결정될 수 있다. 따라서, 커널의 가중치 값들(또는 가중치 값의 조합) 및/또는 각 층/커널의 편향 값들이 동일한 포맷(format)으로 정의될 수 있다. 또한, 기지국/단말에서 지원하는 CL의 개수에 따라 상기 동일한 포맷의 데이터의 개수가 결정될 수 있으며, 이를 통해 기지국/다남ㄹ 간의 시그널링이 효율적으로 정의될 수 있다.
예를 들어, [커널의 개수, 커널의 크기, 커널의 스트라이드, 활성화 함수, 패딩 여부/값/크기, 풀링 여부/유형/방법]이 [1, 4, 1, ReLU function, zero padding, without pooling]으로 정의/설정되는 경우, 커널의 크기가 4이므로 각 CL을 위해 4개의 가중치와 1개의 편향 값이 요구될 수 있다. 이를 [w0, w1, w2, w3, b0]로 지칭하는 경우, 모든 CL에 대해 단일 후보 조합들을 설정/정의하며, CL 별로 특정 조합을 설정/지시/보고하는 방법이 적용될 수 있다.
표 7은 가중치 값/편향 값에 대한 정보의 설정/지시/보고를 위한 후보 조합을 정의하는 예를 나타낸다.
Figure PCTKR2022014631-appb-img-000004
표 7을 참조하면, 가중치 값/편향 값에 대한 정보와 관련하여 8개의 상태/인덱스들이 정의될 수 있다. 일 예로, 특정 기지국/단말이 3개의 CL을 가정/정의하는 경우, 각 CL0/CL1/CL2의 가중치 값/편향 값에 대한 정보를 설정/지시/보고하기 위하여, 각 CL에 대한 상태/인덱스들(예: state0/state0/state3)이 단일 후보 조합에 기반하여 각각 보고될 수 있다.
본 개시에서 상술한 제안 방법들은 1D CNN 구조를 가정하여 설명되지만, 해당 방법들은 2D CNN 구조에도 동일/유사하게 확장하여 적용될 수 있다.
도 25는 본 개시의 일 실시예에 따른 채널 상태 정보 보고 방법에 대한 기지국과 단말 간의 시그널링 절차를 예시하는 도면이다.
도 25의 예시는 설명의 편의를 위한 것이며, 본 개시의 범위를 제한하는 것은 아니다. 도 25에서 예시된 일부 단계(들)은 상황 및/또는 설정에 따라 생략될 수 있다. 또한, 도 25에서 예시된 일부 단계(들)의 순서가 변경될 수도 있다. 또한, 도 25에서 기지국과 단말은 하나의 예시일 뿐, 아래 도 28에서 예시된 장치로 구현될 수 있다. 예를 들어, 도 28의 프로세서(processor)(102/202)는 트랜시버(106/206)을 이용하여 채널/신호/데이터/정보 등을 송수신하도록 제어할 수 있으며, 전송할 또는 수신한 채널/신호/데이터/정보 등을 메모리(104/204)에 저장하도록 제어할 수도 있다. 또한, 도 25에서의 기지국은 네트워크 단의 장치를 의미할 수도 있다.
또한, 도 25의 기지국과 단말 간의 동작에 있어서, 별도의 언급이 없더라도 상술한 본 개시에서의 제안 방법(예: 상술한 AI/ML 관련 정보 공유 방법 및 실시예 1 내지 실시예 3 등)이 참조/이용될 수 있다. 도 25는 DNN 구조를 예시로하여 도시되지만, 도 25에서 설명되는 시그널링은 AI/ML 알고리즘 및/또는 DNN/NN 구조와 관련된 정보의 공유 및 적용에 대해서도 확장하여 적용될 수 있다.
단계 S005에서, 단말은 해당 단말의 능력 정보를 기지국에게 전송/보고할 수 있다. 예를 들어, 단말은 본 개시에서의 제안 방법(예: 상술한 AI/ML 관련 정보 공유 방법 및 실시예 1 내지 실시예 3 등)과 관련된 능력 정보를 보고할 수 있다.
단계 S010에서, 기지국은 DNN에 대한 (사전) 학습(training)을 수행할 수 있다. 기지국은 학습 과정에 기반하여 AI/ML 알고리즘 및/또는 DNN/NN 구조에 요구되는 파라미터(들)에 대한 정보를 획득할 수 있다. 예를 들어, 해당 과정에 기반하여, 기지국은 본 개시에서의 제안 방법(예: 상술한 AI/ML 관련 정보 공유 방법 및 실시예 1 내지 실시예 3 등)과 관련된 파라미터(들)을 획득할 수 있다.
단계 S015에서, 기지국은 단말에게 AI/ML 알고리즘 및/또는 DNN/NN 구조와 관련된 정보를 설정/지시할 수 있다. 기지국은 상기 단계 S010에서 획득한 파라미터(들)에 대한 정보를 단말에게 설정/지시할 수 있다. 예를 들어, 해당 단계에서, 본 개시에서의 제안 방법(예: 상술한 AI/ML 관련 정보 공유 방법 및 실시예 1 내지 실시예 3 등)과 관련된 파라미터(들)이 단말에게 설정/지시될 수 있다.
단계 S020에서, 기지국은 단말과 공유된 AI/ML 알고리즘 및/또는 DNN/NN 구조에 기반하여 DNN 구조를 적용할 수 있다. 예를 들어, 기지국은 DNN을 적용하여 DL 채널 및/또는 RS(Reference Signal)을 압축하여 단말에게 전송할 수 있다.
단계 S025에서, 기지국은 DL 채널 및/또는 RS를 단말에게 전송할 수 있다. 상술한 바와 같이, 예를 들어, 기지국이 단말에게 DL 채널 및/또는 RS를 전송할 때, 단말과 공유된 AI/ML 알고리즘 및/또는 DNN/NN 구조가 적용될 수 있다.
단계 S030에서, 단말은 DL 채널 및/또는 RS에 대해 기지국으로부터 공유된 DNN을 적용할 수 있다. 예를 들어, 단말은 기지국에 의해 기-설정된 AI/ML 알고리즘 및/또는 DNN/NN 구조에 기반하여 DL 채널 및/또는 RS에 대한 압축을 해제하거나, DL 채널 및/또는 RS를 추정/예측할 수 있다.
단계 S035에서, 단말은 DL 채널 및/또는 RS에 기반하여 DNN 파라미터를 조정(tuning)할 수 있다. 예를 들어, 단말은 DL 채널 및/또는 RS에 기반하여 학습(training)을 수행할 수 있고, 학습 결과에 기반하여 DNN 파라미터를 조정할 수 있다.
단계 S040에서, 단말은 CSI 보고를 수행하거나, UL 채널 및/또는 RS를 전송할 수 있다. 예를 들어, 단말은 상기 단계 S035에서 학습한 결과에 대하여 CSI 보고를 수행할 수 있다. 이 경우, 단말은 DNN을 적용하여 CSI를 압축할 수도 있따. 그리고/또는, 단말은 DNN을 적용하여 UL 채널 및/또는 RS를 압축하여 기지국에게 전송할 수 있다.
단계 S045에서, 기지국은 CSI 보고, UL 채널 및/또는 RS에 대해 DNN을 적용할 수 있다. 예를 들어, 단말과 기-공유한 AI/ML 알고리즘 및/또는 DNN/NN 구조에 기반하여, 기지국은 CSI 보고, UL 채널 및/또는 RS에 대한 압축을 해제하거나, CSI 보고, UL 채널 및/또는 RS를 추정/예측할 수 있다.
단계 S050에서, 기지국은 CSI 보고, UL 채널 및/또는 RS에 기반하여 DNN 파라미터를 조정(tuning)할 수 있다. 예를 들어, 기지국은 UL 채널 및/또는 RS에 기반하여 학습(training)을 수행할 수 있고, 학습 결과에 기반하여 DNN 파라미터를 조정할 수 있다. 그리고/또는, 기지국은 단말의 보고 값에 기반하여 DNN 파라미터를 조정할 수 있다.
단계 S055에서, 기지국은 AI/ML 알고리즘 및/또는 DNN/NN 구조에 대한 파라미터(들)에 대해 업데이트를 수행하도록 단말에게 설정/지시할 수 있다. 예를 들어, 단말은 해당 기지국의 업데이트 설정/지시에 기반하여 DNN 파라미터를 조정/업데이트할 수 있다.
단게 S060에서, 단말은 DNN 파라미터를 조정할 수 있다. 예를 들어, 상기 단계 S055에서의 업데이트 설정/지시와 같이, 단말은 L1/L2 시그널링에 기반하여 기지국에 의해 설정/지시된 값(들)에 기반하여 DNN 파라미터를 조정할 수 있다.
도 26은 본 개시의 일 실시예에 따른 채널 상태 정보 보고 방법에 대한 단말의 동작을 예시하는 도면이다.
도 26에서는 앞서 제안 방법들(예를 들어, 상술한 AI/ML 관련 정보 공유 방법, 실시예 1, 실시예 2, 실시예 3 및 이에 대한 세부 실시예들 중 어느 하나, 또는 하나 이상의 (세부) 실시예들의 조합)에 기반한 단말의 동작을 예시한다. 도 26의 예시는 설명의 편의를 위한 것이며, 본 개시의 범위를 제한하는 것은 아니다. 도 26에서 예시된 일부 단계(들)은 상황 및/또는 설정에 따라 생략될 수 있다. 또한, 도 26에서 단말은 하나의 예시일 뿐, 아래 도 28에서 예시된 장치로 구현될 수 있다. 예를 들어, 도 28의 프로세서(processor)(102/202)는 트랜시버(106/206)을 이용하여 채널/신호/데이터/정보 등을 송수신하도록 제어할 수 있으며, 전송할 또는 수신한 채널/신호/데이터/정보 등을 메모리(104/204)에 저장하도록 제어할 수도 있다.
또한, 도 26의 동작은 도 28의 하나 이상의 프로세서(102, 202)에 의해 처리될 수 있으며, 도 26의 동작은 도 28의 적어도 하나의 프로세서(예를 들어, 102, 202)를 구동하기 위한 명령어/프로그램(예를 들어, 명령(instruction), 실행 코드(executable code))형태로 메모리(예를 들어, 도 28의 하나 이상의 메모리(104, 204))에 저장될 수도 있다.
도 26을 참조하면, 단계 S2610에서, 단말은 러닝 알고리즘에 대한 정보를 수신할 수 있다. 여기에서, 해당 러닝 알고리즘은 CSI 보고와 관련되는 AI/ML 알고리즘 및/또는 (D)NN 구조를 포함할 수 있다. 해당 정보는 네트워크 장치(예: 기지국 및/또는 AI/ML 관련 서버 장치 등)에 의해 전송되는 것일 수 있다.
본 개시에서 상술한 바와 같이, 러닝 알고리즘에 대한 정보는 해당 러닝 알고리즘의 유형/모델에 대한 정보(예: 상기 러닝 알고리즘의 유형/모델에 대한 식별 정보/번호), 해당 러닝 알고리즘을 위한 동작 관련 파라미터 등을 포함할 수 있다. 예를 들어, 상기 동작 관련 파라미터는 상기 러닝 알고리즘과 관련된 노드(node)의 개수, 은닉 층(hidden layer)의 개수 또는 가중치(weight) 값 중 적어도 하나를 포함할 수 있다.
또한, 본 개시에서 상술한 바와 같이, 예를 들어, 상기 러닝 알고리즘이 컨볼루션 뉴럴 네트워크(convolution neural network)에 해당하는 경우, 상기 동작 관련 파라미터는 컨볼루션 층(convolution layer)의 개수, 패딩(padding) 관련 정보, 풀링(pooling) 관련 정보, 또는 커널(kernel) 관련 정보 중 적어도 하나를 포함할 수 있다.
이때, 상기 러닝 알고리즘에 대한 정보는 정보는 미리 정의된 다수의 후보 뉴럴 네트워크 구조들 중 특정 후보 뉴럴 네트워크 구조에 대한 정보일 수 있으며, 다수의 인덱스들/상태들 중 해당 특정 후보 뉴럴 네트워크 구조를 나타내는 인덱스/상태에 의해 지시될 수 있다. 여기에서, 상기 다수의 인덱스들은 상기 컨볼루션 층의 개수, 커널의 개수, 커널의 크기, 또는 커널에 대한 스트라이드(stride) 값 중 적어도 두 개의 조합에 기반하여 설정될 수 있다(예: 표 6). 또한, 특정 후보 뉴럴 네트워크 구조가 설정/지시되는 경우, 해당 단말은 특정 후보 뉴럴 네트워크 구조에서의 가중치 값에 대한 정보 및 편향(bias) 값에 대한 정보를 수신할 수 있다. 이 경우, 해당 정보는 RRC 설정/MAC-CE/DCI 등을 통해 송수신될 수 있다.
단계 S2620에서, 단말은 CSI 보고를 위한 적어도 하나의 참조 신호를 수신할 수 있다. 해당 정보는 네트워크 장치(예: 기지국 등)에 의해 전송되는 것일 수 있다. 예를 들어, 적어도 하나의 참조 신호는 상술한 러닝 알고리즘에 기반하여 압축 및/또는 최적화되어 송수신될 수 있다.
단계 S2630에서, 단말은 단계 S2620에서의 적어도 하나의 참조 신호 및 단계 S2610에서의 러닝 알고리즘에 대한 정보에 기반하여 채널 추정(channel estimation)을 수행할 수 있다.
예를 들어, 단말은 기지국 등에 의해 설정/지시된 AI/ML 관련 파라미터에 기반하여, 참조 신호에 대한 측정 및 그에 따른 채널 추정을 수행할 수 있다. 단말이 채널 추정을 수행함에 있어, 해당 단말은 상기 러닝 알고리즘을 적용하여 상기 적어도 하나의 참조 신호에 대한 압축 해제를 수행하고, 상기 압축 해제된 적어도 하나의 참조 신호에 기반하여 채널 측정을 수행하도록 설정될 수도 있다.
단계 S2640에서, 단말은 상술한 채널 추정의 결과에 기반하여 (네트워크 장치(예: 기지국 등))으로 CSI를 전송/보고할 수 있다.
또한, 도 26에는 도시되어 있지 않지만, 단말은 자신의 능력 정보(capability information)를 (네트워크 장치(예: 기지국 등)에게) 보고할 수 있다. 예를 들어, 능력 정보는 해당 단말이 상술한 러닝 알고리즘에 기반한 학습(training)을 지원하는지 여부(예: 기준 단말인지 여부)를 나타내는 정보를 포함할 수 있다. 만일, 해당 단말이 상기 러닝 알고리즘에 기반한 학습을 지원하는 경우, 해당 단말은 기지국 및/또는 다른 단말에게 해당 학습 결과에 대한 정보를 전송할 수 있다.
또한, 도 26에는 도시되어 있지 않지만, 단말은 상술한 러닝 알고리즘에 대한 업데이트를 지시하는 업데이트 정보를 (네트워크 장치(예: 기지국 및/또는 AI/ML 관련 서버 등)로부터) 수신할 수 있다. 일 예로, 해당 업데이트는 상기 업데이트 정보의 수신 시점을 기준으로 미리 설정된 구간(예: X 심볼/msec) 이후에 수행되도록 설정/규정될 수 있다. 상기 미리 설정된 구간은 단말 능력 정보 및/또는 기지국 설정에 기반하여 설정될 수 있다.
도 27은 본 개시의 일 실시예에 따른 채널 상태 정보 보고 방법에 대한 네트워크 장치의 동작을 예시하는 도면이다.
도 27에서는 앞서 제안 방법들(예를 들어, 상술한 AI/ML 관련 정보 공유 방법, 실시예 1, 실시예 2, 실시예 3 및 이에 대한 세부 실시예들 중 어느 하나, 또는 하나 이상의 (세부) 실시예들의 조합)에 기반한 네트워크 장치(예: 기지국 및/또는 AI/ML 관련 서버 등)의 동작을 예시한다. 도 27의 예시는 설명의 편의를 위한 것이며, 본 개시의 범위를 제한하는 것은 아니다. 도 27에서 예시된 일부 단계(들)은 상황 및/또는 설정에 따라 생략될 수 있다. 또한, 도 27에서 단말은 하나의 예시일 뿐, 아래 도 28에서 예시된 장치로 구현될 수 있다. 예를 들어, 도 28의 프로세서(processor)(102/202)는 트랜시버(106/206)을 이용하여 채널/신호/데이터/정보 등을 송수신하도록 제어할 수 있으며, 전송할 또는 수신한 채널/신호/데이터/정보 등을 메모리(104/204)에 저장하도록 제어할 수도 있다.
또한, 도 27의 동작은 도 28의 하나 이상의 프로세서(102, 202)에 의해 처리될 수 있으며, 도 27의 동작은 도 28의 적어도 하나의 프로세서(예를 들어, 102, 202)를 구동하기 위한 명령어/프로그램(예를 들어, 명령(instruction), 실행 코드(executable code))형태로 메모리(예를 들어, 도 28의 하나 이상의 메모리(104, 204))에 저장될 수도 있다.
도 27을 참조하면, 단계 S2710에서, 네트워크 장치는 (단말에게) 러닝 알고리즘에 대한 정보를 전송할 수 있다. 여기에서, 해당 러닝 알고리즘은 CSI 보고와 관련되는 AI/ML 알고리즘 및/또는 (D)NN 구조를 포함할 수 있다.
본 개시에서 상술한 바와 같이, 러닝 알고리즘에 대한 정보는 해당 러닝 알고리즘의 유형/모델에 대한 정보(예: 상기 러닝 알고리즘의 유형/모델에 대한 식별 정보/번호), 해당 러닝 알고리즘을 위한 동작 관련 파라미터 등을 포함할 수 있다. 예를 들어, 상기 동작 관련 파라미터는 상기 러닝 알고리즘과 관련된 노드(node)의 개수, 은닉 층(hidden layer)의 개수 또는 가중치(weight) 값 중 적어도 하나를 포함할 수 있다.
또한, 본 개시에서 상술한 바와 같이, 예를 들어, 상기 러닝 알고리즘이 컨볼루션 뉴럴 네트워크(convolution neural network)에 해당하는 경우, 상기 동작 관련 파라미터는 컨볼루션 층(convolution layer)의 개수, 패딩(padding) 관련 정보, 풀링(pooling) 관련 정보, 또는 커널(kernel) 관련 정보 중 적어도 하나를 포함할 수 있다.
이때, 상기 러닝 알고리즘에 대한 정보는 정보는 미리 정의된 다수의 후보 뉴럴 네트워크 구조들 중 특정 후보 뉴럴 네트워크 구조에 대한 정보일 수 있으며, 다수의 인덱스들/상태들 중 해당 특정 후보 뉴럴 네트워크 구조를 나타내는 인덱스/상태에 의해 지시될 수 있다. 여기에서, 상기 다수의 인덱스들은 상기 컨볼루션 층의 개수, 커널의 개수, 커널의 크기, 또는 커널에 대한 스트라이드(stride) 값 중 적어도 두 개의 조합에 기반하여 설정될 수 있다(예: 표 6). 또한, 특정 후보 뉴럴 네트워크 구조가 (딴말에게) 설정/지시되는 경우, 네트워크 장치는 특정 후보 뉴럴 네트워크 구조에서의 가중치 값에 대한 정보 및 편향(bias) 값에 대한 정보를 (단말에게) 전송할 수 있다. 이 경우, 해당 정보는 RRC 설정/MAC-CE/DCI 등을 통해 송수신될 수 있다.
단계 S2720에서, 네트워크 장치는 CSI 보고를 위한 적어도 하나의 참조 신호를 (단말에게) 전송할 수 있다. 예를 들어, 적어도 하나의 참조 신호는 상술한 러닝 알고리즘에 기반하여 압축 및/또는 최적화되어 송수신될 수 있다.
단계 S2730에서, 네트워크 장치는 단계 S2720에서의 적어도 하나의 참조 신호 및 단계 S1710에서의 러닝 알고리즘에 대한 정보에 기반하는 채널 추정에 의한 CSI를 (단말로부터) 수신할 수 있다.
예를 들어, 참조 신호에 대한 측정 및 그에 따른 채널 추정은 (단말에 의해) 기지국 등에 의해 설정/지시된 AI/ML 관련 파라미터에 기반하여 수행될 수 있다. 채널 추정의 수행에 있어, 상기 러닝 알고리즘을 적용하여 상기 적어도 하나의 참조 신호에 대한 압축 해제를 수행하고, 상기 압축 해제된 적어도 하나의 참조 신호에 기반하여 채널 측정을 수행하는 동작이 적용될 수 있다.
또한, 도 27에는 도시되어 있지 않지만, 네트워크 장치는 (단말로부터) 단말의 능력 정보(capability information)를 수신할 수 있다. 예를 들어, 능력 정보는 해당 단말이 상술한 러닝 알고리즘에 기반한 학습(training)을 지원하는지 여부(예: 기준 단말인지 여부)를 나타내는 정보를 포함할 수 있다. 만일, 해당 단말이 상기 러닝 알고리즘에 기반한 학습을 지원하는 경우, 해당 단말은 기지국 및/또는 다른 단말에게 해당 학습 결과에 대한 정보를 전송할 수 있다.
또한, 도 27에는 도시되어 있지 않지만, 네트워크 장치는 (단말에게) 상술한 러닝 알고리즘에 대한 업데이트를 지시하는 업데이트 정보를 전송할 수 있다. 일 예로, 해당 업데이트는 상기 업데이트 정보의 수신 시점을 기준으로 미리 설정된 구간(예: X 심볼/msec) 이후에 수행되도록 설정/규정될 수 있다. 상기 미리 설정된 구간은 단말 능력 정보 및/또는 기지국 설정에 기반하여 설정될 수 있다.
본 개시가 적용될 수 있는 장치 일반
도 28은 본 개시의 일 실시예에 따른 무선 통신 장치의 블록 구성도를 예시한다.
도 28을 참조하면, 제1 무선 기기(100)와 제2 무선 기기(200)는 다양한 무선 접속 기술(예를 들어, LTE, NR)을 통해 무선 신호를 송수신할 수 있다.
제1 무선 기기(100)는 하나 이상의 프로세서(102) 및 하나 이상의 메모리(104)를 포함하며, 추가적으로 하나 이상의 송수신기(106) 및/또는 하나 이상의 안테나(108)을 더 포함할 수 있다. 프로세서(102)는 메모리(104) 및/또는 송수신기(106)를 제어하며, 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(102)는 메모리(104) 내의 정보를 처리하여 제1 정보/신호를 생성한 뒤, 송수신기(106)을 통해 제1 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(102)는 송수신기(106)를 통해 제2 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제2 정보/신호의 신호 처리로부터 얻은 정보를 메모리(104)에 저장할 수 있다. 메모리(104)는 프로세서(102)와 연결될 수 있고, 프로세서(102)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(104)는 프로세서(102)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(102)와 메모리(104)는 무선 통신 기술(예를 들어, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(106)는 프로세서(102)와 연결될 수 있고, 하나 이상의 안테나(108)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(106)는 송신기 및/또는 수신기를 포함할 수 있다. 송수신기(106)는 RF(Radio Frequency) 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
제2 무선 기기(200)는 하나 이상의 프로세서(202), 하나 이상의 메모리(204)를 포함하며, 추가적으로 하나 이상의 송수신기(206) 및/또는 하나 이상의 안테나(208)를 더 포함할 수 있다. 프로세서(202)는 메모리(204) 및/또는 송수신기(206)를 제어하며, 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202)는 메모리(204) 내의 정보를 처리하여 제3 정보/신호를 생성한 뒤, 송수신기(206)를 통해 제3 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202)는 송수신기(206)를 통해 제4 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제4 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204)에 저장할 수 있다. 메모리(204)는 프로세서(202)와 연결될 수 있고, 프로세서(202)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204)는 프로세서(202)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202)와 메모리(204)는 무선 통신 기술(예를 들어, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206)는 프로세서(202)와 연결될 수 있고, 하나 이상의 안테나(208)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206)는 송신기 및/또는 수신기를 포함할 수 있다 송수신기(206)는 RF 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
이하, 무선 기기(100, 200)의 하드웨어 요소에 대해 보다 구체적으로 설명한다. 이로 제한되는 것은 아니지만, 하나 이상의 프로토콜 계층이 하나 이상의 프로세서(102, 202)에 의해 구현될 수 있다. 예를 들어, 하나 이상의 프로세서(102, 202)는 하나 이상의 계층(예를 들어, PHY, MAC, RLC, PDCP, RRC, SDAP와 같은 기능적 계층)을 구현할 수 있다. 하나 이상의 프로세서(102, 202)는 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 하나 이상의 PDU(Protocol Data Unit) 및/또는 하나 이상의 SDU(Service Data Unit)를 생성할 수 있다. 하나 이상의 프로세서(102, 202)는 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 메시지, 제어정보, 데이터 또는 정보를 생성할 수 있다. 하나 이상의 프로세서(102, 202)는 본 개시에 개시된 기능, 절차, 제안 및/또는 방법에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 포함하는 신호(예를 들어, 베이스밴드 신호)를 생성하여, 하나 이상의 송수신기(106, 206)에게 제공할 수 있다. 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)로부터 신호(예를 들어, 베이스밴드 신호)를 수신할 수 있고, 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 획득할 수 있다.
하나 이상의 프로세서(102, 202)는 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 마이크로 컴퓨터로 지칭될 수 있다. 하나 이상의 프로세서(102, 202)는 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합에 의해 구현될 수 있다. 일 예로, 하나 이상의 ASIC(Application Specific Integrated Circuit), 하나 이상의 DSP(Digital Signal Processor), 하나 이상의 DSPD(Digital Signal Processing Device), 하나 이상의 PLD(Programmable Logic Device) 또는 하나 이상의 FPGA(Field Programmable Gate Arrays)가 하나 이상의 프로세서(102, 202)에 포함될 수 있다. 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있고, 펌웨어 또는 소프트웨어는 모듈, 절차, 기능 등을 포함하도록 구현될 수 있다. 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 수행하도록 설정된 펌웨어 또는 소프트웨어는 하나 이상의 프로세서(102, 202)에 포함되거나, 하나 이상의 메모리(104, 204)에 저장되어 하나 이상의 프로세서(102, 202)에 의해 구동될 수 있다. 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 코드, 명령어 및/또는 명령어의 집합 형태로 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있다.
하나 이상의 메모리(104, 204)는 하나 이상의 프로세서(102, 202)와 연결될 수 있고, 다양한 형태의 데이터, 신호, 메시지, 정보, 프로그램, 코드, 지시 및/또는 명령을 저장할 수 있다. 하나 이상의 메모리(104, 204)는 ROM, RAM, EPROM, 플래시 메모리, 하드 드라이브, 레지스터, 캐쉬 메모리, 컴퓨터 판독 저장 매체 및/또는 이들의 조합으로 구성될 수 있다. 하나 이상의 메모리(104, 204)는 하나 이상의 프로세서(102, 202)의 내부 및/또는 외부에 위치할 수 있다. 또한, 하나 이상의 메모리(104, 204)는 유선 또는 무선 연결과 같은 다양한 기술을 통해 하나 이상의 프로세서(102, 202)와 연결될 수 있다.
하나 이상의 송수신기(106, 206)는 하나 이상의 다른 장치에게 본 개시의 방법들 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 전송할 수 있다. 하나 이상의 송수신기(106, 206)는 하나 이상의 다른 장치로부터 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 수신할 수 있다. 예를 들어, 하나 이상의 송수신기(106, 206)는 하나 이상의 프로세서(102, 202)와 연결될 수 있고, 무선 신호를 송수신할 수 있다. 예를 들어, 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)가 하나 이상의 다른 장치에게 사용자 데이터, 제어 정보 또는 무선 신호를 전송하도록 제어할 수 있다. 또한, 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)가 하나 이상의 다른 장치로부터 사용자 데이터, 제어 정보 또는 무선 신호를 수신하도록 제어할 수 있다. 또한, 하나 이상의 송수신기(106, 206)는 하나 이상의 안테나(108, 208)와 연결될 수 있고, 하나 이상의 송수신기(106, 206)는 하나 이상의 안테나(108, 208)를 통해 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 송수신하도록 설정될 수 있다. 본 개시에서, 하나 이상의 안테나는 복수의 물리 안테나이거나, 복수의 논리 안테나(예를 들어, 안테나 포트)일 수 있다. 하나 이상의 송수신기(106, 206)는 수신된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 하나 이상의 프로세서(102, 202)를 이용하여 처리하기 위해, 수신된 무선 신호/채널 등을 RF 밴드 신호에서 베이스밴드 신호로 변환(Convert)할 수 있다. 하나 이상의 송수신기(106, 206)는 하나 이상의 프로세서(102, 202)를 이용하여 처리된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 베이스밴드 신호에서 RF 밴드 신호로 변환할 수 있다. 이를 위하여, 하나 이상의 송수신기(106, 206)는 (아날로그) 오실레이터 및/또는 필터를 포함할 수 있다.
이상에서 설명된 실시예들은 본 개시의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 개시의 실시예를 구성하는 것도 가능하다. 본 개시의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.
본 개시는 본 개시의 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 따라서, 상술한 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 개시의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 개시의 등가적 범위 내에서의 모든 변경은 본 개시의 범위에 포함된다.
본 개시의 범위는 다양한 실시예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다. 본 개시에서 설명하는 특징을 수행하는 프로세싱 시스템을 프로그래밍하기 위해 사용될 수 있는 명령은 저장 매체 또는 컴퓨터 판독가능 저장 매체 상에/내에 저장될 수 있고, 이러한 저장 매체를 포함하는 컴퓨터 프로그램 제품을 이용하여 본 개시에서 설명하는 특징이 구현될 수 있다. 저장 매체는 DRAM, SRAM, DDR RAM 또는 다른 랜덤 액세스 솔리드 스테이트 메모리 디바이스와 같은 고속 랜덤 액세스 메모리를 포함할 수 있지만, 이에 제한되지 않으며, 하나 이상의 자기 디스크 저장 디바이스, 광 디스크 저장 장치, 플래시 메모리 디바이스 또는 다른 비-휘발성 솔리드 스테이트 저장 디바이스와 같은 비-휘발성 메모리를 포함할 수 있다. 메모리는 선택적으로 프로세서(들)로부터 원격에 위치한 하나 이상의 저장 디바이스를 포함한다. 메모리 또는 대안적으로 메모리 내의 비-휘발성 메모리 디바이스(들)는 비-일시적 컴퓨터 판독가능 저장 매체를 포함한다. 본 개시에서 설명하는 특징은, 머신 판독가능 매체 중 임의의 하나에 저장되어 프로세싱 시스템의 하드웨어를 제어할 수 있고, 프로세싱 시스템이 본 개시의 실시예에 따른 결과를 활용하는 다른 메커니즘과 상호작용하도록 하는 소프트웨어 및/또는 펌웨어에 통합될 수 있다. 이러한 소프트웨어 또는 펌웨어는 애플리케이션 코드, 디바이스 드라이버, 운영 체제 및 실행 환경/컨테이너를 포함할 수 있지만 이에 제한되지 않는다.
여기서, 본 개시의 무선 기기(100, 200)에서 구현되는 무선 통신 기술은 LTE, NR 및 6G뿐만 아니라 저전력 통신을 위한 Narrowband Internet of Things를 포함할 수 있다. 이때, 예를 들어 NB-IoT 기술은 LPWAN(Low Power Wide Area Network) 기술의 일례일 수 있고, LTE Cat NB1 및/또는 LTE Cat NB2 등의 규격으로 구현될 수 있으며, 상술한 명칭에 한정되는 것은 아니다. 추가적으로 또는 대체적으로, 본 개시의 무선 기기(XXX, YYY)에서 구현되는 무선 통신 기술은 LTE-M 기술을 기반으로 통신을 수행할 수 있다. 이때, 일 예로, LTE-M 기술은 LPWAN 기술의 일례일 수 있고, eMTC(enhanced Machine Type Communication) 등의 다양한 명칭으로 불릴 수 있다. 예를 들어, LTE-M 기술은 1) LTE CAT 0, 2) LTE Cat M1, 3) LTE Cat M2, 4) LTE non-BL(non-Bandwidth Limited), 5) LTE-MTC, 6) LTE Machine Type Communication, 및/또는 7) LTE M 등의 다양한 규격 중 적어도 어느 하나로 구현될 수 있으며 상술한 명칭에 한정되는 것은 아니다. 추가적으로 또는 대체적으로, 본 개시의 무선 기기(XXX, YYY)에서 구현되는 무선 통신 기술은 저전력 통신을 고려한 지그비(ZigBee), 블루투스(Bluetooth) 및 저전력 광역 통신망(Low Power Wide Area Network, LPWAN) 중 적어도 어느 하나를 포함할 수 있으며, 상술한 명칭에 한정되는 것은 아니다. 일 예로 ZigBee 기술은 IEEE 802.15.4 등의 다양한 규격을 기반으로 소형/저-파워 디지털 통신에 관련된 PAN(personal area networks)을 생성할 수 있으며, 다양한 명칭으로 불릴 수 있다.
본 개시에서 제안하는 방법은 3GPP LTE/LTE-A, 5G 시스템에 적용되는 예를 중심으로 설명하였으나, 3GPP LTE/LTE-A, 5G 시스템 이외에도 다양한 무선 통신 시스템에 적용하는 것이 가능하다.

Claims (15)

  1. 무선 통신 시스템에서 단말에 의해서 채널 상태 정보(channel state information, CSI) 보고를 수행하는 방법에 있어서, 상기 방법은:
    상기 CSI 보고와 관련된 러닝 알고리즘(learning algorithm)에 대한 정보를 수신하는 단계;
    상기 CSI 보고를 위한 적어도 하나의 참조 신호를 수신하는 단계;
    상기 적어도 하나의 참조 신호 및 상기 정보에 기반하여 채널 추정을 수행하는 단계; 및
    상기 채널 추정의 결과에 기반하여 CSI를 전송하는 단계를 포함하되,
    상기 정보는 상기 러닝 알고리즘의 유형(type) 또는 모델에 대한 식별 정보, 또는 상기 러닝 알고리즘을 위한 동작 관련 파라미터 중 적어도 하나를 포함하는, 방법.
  2. 제1항에 있어서,
    상기 동작 관련 파라미터는, 상기 러닝 알고리즘과 관련된 노드(node)의 개수, 은닉 층(hidden layer)의 개수 또는 가중치(weight) 값 중 적어도 하나를 포함하는, 방법.
  3. 제1항에 있어서,
    상기 단말의 능력 정보를 보고하는 단계를 더 포함하되,
    상기 능력 정보는, 상기 단말이 상기 러닝 알고리즘에 기반한 학습(training)을 지원하는지 여부를 나타내는 정보를 포함하는, 방법.
  4. 제1항에 있어서,
    상기 단말이 상기 러닝 알고리즘에 기반한 학습을 지원함에 기반하여, 기지국 또는 다른 단말 중 적어도 하나에게 상기 학습 결과에 대한 정보를 전송하는 단계를 더 포함하는, 방법.
  5. 제1항에 있어서,
    상기 채널 추정을 수행하는 단계는:
    상기 러닝 알고리즘을 적용하여 상기 적어도 하나의 참조 신호에 대한 압축 해제를 수행하는 단계; 및
    상기 압축 해제된 적어도 하나의 참조 신호에 기반하여 채널 측정을 수행하는 단계를 포함하는, 방법.
  6. 제1항에 있어서,
    상기 러닝 알고리즘에 대한 업데이트를 지시하는 업데이트 정보를 수신하는 단계를 더 포함하되,
    상기 업데이트는 상기 업데이트 정보의 수신 시점을 기준으로 미리 설정된 구간 이후에 수행되며,
    상기 미리 설정된 구간은 단말 능력 정보(UE capability information) 또는 기지국 설정(base station configuration) 중 적어도 하나에 기반하여 설정되는, 방법.
  7. 제1항에 있어서,
    상기 러닝 알고리즘이 컨볼루션 뉴럴 네트워크(convolution neural network)에 해당함에 기반하여,
    상기 동작 관련 파라미터는, 컨볼루션 층(convolution layer)의 개수, 패딩(padding) 관련 정보, 풀링(pooling) 관련 정보, 또는 커널(kernel) 관련 정보 중 적어도 하나를 포함하는, 방법.
  8. 제7항에 있어서,
    상기 정보는 미리 정의된 다수의 후보 뉴럴 네트워크 구조들 중 특정 후보 뉴럴 네트워크 구조와 관련되며,
    상기 정보는 다수의 인덱스들 중 상기 특정 후보 뉴럴 네트워크 구조를 나타내는 인덱스에 의해 지시되는, 방법.
  9. 제8항에 있어서,
    상기 다수의 인덱스들은 상기 컨볼루션 층의 개수, 커널의 개수, 커널의 크기, 또는 커널에 대한 스트라이드(stride) 값 중 적어도 두 개의 조합에 기반하여 설정되는, 방법.
  10. 제8항에 있어서,
    상기 특정 후보 뉴럴 네트워크 구조에서의 가중치 값에 대한 정보 및 편향(bias) 값에 대한 정보를 수신하는 단계를 더 포함하며,
    상기 가중치 값에 대한 정보 및 상기 편향 값에 대한 정보는 RRC(radio resource control) 설정, MAC-CE(medium access control-control element), 또는 DCI(downlink control information) 중 적어도 하나를 통해 수신되는, 방법.
  11. 무선 통신 시스템에서 채널 상태 정보(channel state information, CSI) 보고를 수행하는 단말에 있어서, 상기 단말은:
    하나 이상의 송수신기; 및
    상기 하나 이상의 송수신기와 연결된 하나 이상의 프로세서를 포함하고,
    상기 하나 이상의 프로세서는:
    상기 CSI 보고와 관련된 러닝 알고리즘(learning algorithm)에 대한 정보를 수신하고;
    상기 CSI 보고를 위한 적어도 하나의 참조 신호를 수신하고;
    상기 적어도 하나의 참조 신호 및 상기 정보에 기반하여 채널 추정을 수행하며;
    상기 채널 추정의 결과에 기반하여 CSI를 전송하도록 설정하되,
    상기 정보는 상기 러닝 알고리즘의 유형(type) 또는 모델에 대한 식별 정보, 또는 상기 러닝 알고리즘을 위한 동작 관련 파라미터 중 적어도 하나를 포함하는, 단말.
  12. 무선 통신 시스템에서 네트워크 장치에 의해서 채널 상태 정보(channel state information, CSI) 보고를 수신하는 방법에 있어서, 상기 방법은:
    상기 CSI 보고와 관련된 러닝 알고리즘(learning algorithm)에 대한 정보를 전송하는 단계;
    상기 CSI 보고를 위한 적어도 하나의 참조 신호를 전송하는 단계; 및
    상기 적어도 하나의 참조 신호 및 상기 정보에 기반하는 채널 추정에 의한 CSI를 수신하는 단계를 포함하되,
    상기 정보는 상기 러닝 알고리즘의 유형(type) 또는 모델에 대한 식별 정보, 또는 상기 러닝 알고리즘을 위한 동작 관련 파라미터 중 적어도 하나를 포함하는, 방법.
  13. 무선 통신 시스템에서 채널 상태 정보(channel state information, CSI) 보고를 수신하는 네트워크 장치에 있어서, 상기 네트워크 장치는:
    하나 이상의 송수신기; 및
    상기 하나 이상의 송수신기와 연결된 하나 이상의 프로세서를 포함하고,
    상기 하나 이상의 프로세서는:
    상기 CSI 보고와 관련된 러닝 알고리즘(learning algorithm)에 대한 정보를 전송하고;
    상기 CSI 보고를 위한 적어도 하나의 참조 신호를 전송하며;
    상기 적어도 하나의 참조 신호 및 상기 정보에 기반하는 채널 추정에 의한 CSI를 수신하도록 설정하되,
    상기 정보는 상기 러닝 알고리즘의 유형(type) 또는 모델에 대한 식별 정보, 또는 상기 러닝 알고리즘을 위한 동작 관련 파라미터 중 적어도 하나를 포함하는, 네트워크 장치.
  14. 무선 통신 시스템에서 채널 상태 정보(channel state information, CSI) 보고를 수행하기 위해 단말을 제어하도록 설정되는 프로세싱 장치에 있어서, 상기 프로세싱 장치는:
    하나 이상의 프로세서; 및
    상기 하나 이상의 프로세서에 동작 가능하게 연결되고, 상기 하나 이상의 프로세서에 의해 실행됨에 기반하여, 동작들을 수행하는 명령들을 저장하는 하나 이상의 컴퓨터 메모리를 포함하며,
    상기 동작들은:
    상기 CSI 보고와 관련된 러닝 알고리즘(learning algorithm)에 대한 정보를 수신하는 동작;
    상기 CSI 보고를 위한 적어도 하나의 참조 신호를 수신하는 동작;
    상기 적어도 하나의 참조 신호 및 상기 정보에 기반하여 채널 추정을 수행하는 동작; 및
    상기 채널 추정의 결과에 기반하여 CSI를 전송하는 동작을 포함하되,
    상기 정보는 상기 러닝 알고리즘의 유형(type) 또는 모델에 대한 식별 정보, 또는 상기 러닝 알고리즘을 위한 동작 관련 파라미터 중 적어도 하나를 포함하는, 프로세싱 장치.
  15. 하나 이상의 명령을 저장하는 하나 이상의 비-일시적(non-transitory) 컴퓨터 판독가능 매체로서,
    상기 하나 이상의 명령은 하나 이상의 프로세서에 의해서 실행되어, 무선 통신 시스템에서 채널 상태 정보(channel state information, CSI) 보고를 수행하는 장치가:
    상기 CSI 보고와 관련된 러닝 알고리즘(learning algorithm)에 대한 정보를 수신하고;
    상기 CSI 보고를 위한 적어도 하나의 참조 신호를 수신하고;
    상기 적어도 하나의 참조 신호 및 상기 정보에 기반하여 채널 추정을 수행하며;
    상기 채널 추정의 결과에 기반하여 CSI를 전송하도록 제어하되,
    상기 정보는 상기 러닝 알고리즘의 유형(type) 또는 모델에 대한 식별 정보, 또는 상기 러닝 알고리즘을 위한 동작 관련 파라미터 중 적어도 하나를 포함하는, 컴퓨터 판독가능 매체.
PCT/KR2022/014631 2021-09-30 2022-09-29 무선 통신 시스템에서 무선 신호 송수신 방법 및 장치 WO2023055111A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20210129599 2021-09-30
KR10-2021-0129599 2021-09-30

Publications (1)

Publication Number Publication Date
WO2023055111A1 true WO2023055111A1 (ko) 2023-04-06

Family

ID=85783218

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/014631 WO2023055111A1 (ko) 2021-09-30 2022-09-29 무선 통신 시스템에서 무선 신호 송수신 방법 및 장치

Country Status (1)

Country Link
WO (1) WO2023055111A1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210143982A1 (en) * 2021-01-14 2021-05-13 Netspective Communications Llc System for management of rewardable computer-controlled content blocks delivery and consumption

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210143982A1 (en) * 2021-01-14 2021-05-13 Netspective Communications Llc System for management of rewardable computer-controlled content blocks delivery and consumption

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CAICT, OPPO, VIVO: "Introduction of the 2nd Wireless communication AI competition(WAIC) CAICT, OPPO, vivo", 3GPP DRAFT; RP-212078, 3RD GENERATION PARTNERSHIP PROJECT (3GPP), MOBILE COMPETENCE CENTRE ; 650, ROUTE DES LUCIOLES ; F-06921 SOPHIA-ANTIPOLIS CEDEX ; FRANCE, 6 September 2021 (2021-09-06), Mobile Competence Centre ; 650, route des Lucioles ; F-06921 Sophia-Antipolis Cedex ; France, XP052049365 *
ERICSSON: "Views on Rel-18 AI/ML on Air-Interface", 3GPP DRAFT; RP-212346, 3RD GENERATION PARTNERSHIP PROJECT (3GPP), MOBILE COMPETENCE CENTRE ; 650, ROUTE DES LUCIOLES ; F-06921 SOPHIA-ANTIPOLIS CEDEX ; FRANCE, vol. TSG RAN, no. Electronic meeting; 20210913 - 20210917, 6 September 2021 (2021-09-06), Mobile Competence Centre ; 650, route des Lucioles ; F-06921 Sophia-Antipolis Cedex ; France, XP052050321 *
OPPO: "Discussion on R18 study on AI/ML-based 5G enhancements", 3GPP DRAFT; RP-211809, 3RD GENERATION PARTNERSHIP PROJECT (3GPP), MOBILE COMPETENCE CENTRE ; 650, ROUTE DES LUCIOLES ; F-06921 SOPHIA-ANTIPOLIS CEDEX ; FRANCE, vol. TSG RAN, no. Electronic Meeting; 20210913 - 20210917, 6 September 2021 (2021-09-06), Mobile Competence Centre ; 650, route des Lucioles ; F-06921 Sophia-Antipolis Cedex ; France, XP052049130 *
ZTE, SANECHIPS: "Support of Artificial Intelligence Applications for 5G Advanced", 3GPP DRAFT; RP-212383, 3RD GENERATION PARTNERSHIP PROJECT (3GPP), MOBILE COMPETENCE CENTRE ; 650, ROUTE DES LUCIOLES ; F-06921 SOPHIA-ANTIPOLIS CEDEX ; FRANCE, vol. TSG RAN, no. Electronic Meeting; 20210913 - 20210917, 6 September 2021 (2021-09-06), Mobile Competence Centre ; 650, route des Lucioles ; F-06921 Sophia-Antipolis Cedex ; France, XP052050359 *

Similar Documents

Publication Publication Date Title
WO2021162517A1 (ko) 무선 통신 시스템에서 채널 상태 정보 송수신 방법 및 장치
WO2021162522A1 (ko) 무선 통신 시스템에서 채널 상태 정보 송수신 방법 및 장치
WO2020027615A1 (en) Method and communication device for performing measurement
WO2022039481A1 (en) Method and apparatus for fast beam indication
WO2019235906A1 (ko) 무선 통신 시스템에서 참조 신호 패턴을 적응적으로 설정하는 방법 및 이를 위한 장치
WO2022075695A1 (ko) 무선 통신 시스템에서 채널 상태 정보를 송수신하는 방법 및 이를 위한 장치
WO2021091295A1 (en) Cancelling sl csi reporting in a wireless communication system
WO2021029707A1 (ko) Iab 노드의 하향링크 전송 타이밍 결정 방법
WO2022225336A1 (en) Method and device for self-interference cancellation in wireless communication system
WO2022169181A1 (ko) 무선 통신 시스템에서 채널 상태 정보 송수신 방법 및 장치
WO2022145948A1 (ko) 무선 통신 시스템에서 csi를 송수신하는 방법 및 이를 위한 장치
WO2023195742A1 (en) Method and apparatus of indicating dynamic beam switching via downlink control information
WO2023287086A1 (ko) 무선 통신 시스템에서 빔 정보를 송수신하는 방법 및 이를 위한 장치
WO2022197081A1 (ko) 무선 통신 시스템에서 상향링크 송수신 방법 및 장치
WO2023055111A1 (ko) 무선 통신 시스템에서 무선 신호 송수신 방법 및 장치
WO2022265141A1 (ko) 무선 통신 시스템에서 빔 관리를 수행하는 방법 및 이를 위한 장치
WO2023068686A1 (ko) 무선 통신 시스템에서 무선 신호 송수신 방법 및 장치
WO2023136553A1 (ko) 무선 통신 시스템에서 무선 신호 송수신 방법 및 장치
WO2023080636A1 (ko) 무선 통신 시스템에서 상향링크 또는 하향링크 송수신을 수행하는 방법 및 장치
WO2022103192A1 (en) Method and apparatus for efficient neighboring cell search in a wireless communication network
WO2023136554A1 (ko) 무선 통신 시스템에서 무선 신호 송수신 방법 및 장치
WO2023063655A1 (ko) 무선 통신 시스템에서 채널 상태 정보를 송수신하는 방법 및 장치
WO2023287095A1 (ko) 무선 통신 시스템에서 채널 상태 정보 송수신 방법 및 장치
WO2023080658A1 (ko) 무선 통신 시스템에서 물리 채널 송수신 방법 및 장치
WO2023090762A1 (ko) 무선 통신 시스템에서 무선 신호 송수신 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22876883

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022876883

Country of ref document: EP

Effective date: 20240430