WO2023080658A1 - 무선 통신 시스템에서 물리 채널 송수신 방법 및 장치 - Google Patents

무선 통신 시스템에서 물리 채널 송수신 방법 및 장치 Download PDF

Info

Publication number
WO2023080658A1
WO2023080658A1 PCT/KR2022/017093 KR2022017093W WO2023080658A1 WO 2023080658 A1 WO2023080658 A1 WO 2023080658A1 KR 2022017093 W KR2022017093 W KR 2022017093W WO 2023080658 A1 WO2023080658 A1 WO 2023080658A1
Authority
WO
WIPO (PCT)
Prior art keywords
training
reference signals
base station
dmrs
information
Prior art date
Application number
PCT/KR2022/017093
Other languages
English (en)
French (fr)
Inventor
박해욱
강지원
김규석
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2023080658A1 publication Critical patent/WO2023080658A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L5/00Arrangements affording multiple use of the transmission path

Definitions

  • the present disclosure relates to a wireless communication system, and more particularly, to a method and apparatus for transmitting and receiving a physical channel/signal in a wireless communication system.
  • Mobile communication systems have been developed to provide voice services while ensuring user activity.
  • the mobile communication system has expanded its scope to data services as well as voice.
  • the explosive increase in traffic causes a shortage of resources and users demand higher-speed services, so a more advanced mobile communication system is required. there is.
  • next-generation mobile communication system The requirements of the next-generation mobile communication system are to support explosive data traffic, drastic increase in transmission rate per user, significantly increased number of connected devices, very low end-to-end latency, and high energy efficiency.
  • Dual Connectivity Massive MIMO (Massive Multiple Input Multiple Output), In-band Full Duplex, Non-Orthogonal Multiple Access (NOMA), Super Wideband Wideband) support, various technologies such as device networking (Device Networking) are being studied.
  • Massive MIMO Massive Multiple Input Multiple Output
  • NOMA Non-Orthogonal Multiple Access
  • Super Wideband Wideband various technologies such as device networking (Device Networking) are being studied.
  • the technical problem of the present disclosure is a physical channel (eg, physical downlink shared channel (PDSCH), physical uplink shared channel (PUSCH), physical downlink control channel (PDCCH), physical uplink control channel (PUCCH), physical broadcast channel (PBCH)) ), physical random access channel (PRACH), etc.) / physical signal (eg, channel state information reference signal, sounding reference signal, phase tracking reference signal) signal), a demodulation reference signal (demodulation reference signal), a tracking reference signal (tracking reference signal), etc.) to provide a method and apparatus for transmitting and receiving.
  • PDSCH physical downlink shared channel
  • PUSCH physical uplink shared channel
  • PDCCH physical downlink control channel
  • PUCCH physical uplink control channel
  • PBCH physical broadcast channel
  • PRACH physical random access channel
  • physical signal eg, channel state information reference signal, sounding reference signal, phase tracking reference signal
  • demodulation reference signal demodulation reference signal
  • tracking reference signal tracking reference signal
  • an additional technical problem of the present disclosure is to provide a method and apparatus for transmitting and receiving a physical channel/signal using an inference result of an AI (Artificial Intelligence)/ML (Machine Learning) model.
  • AI Artificial Intelligence
  • ML Machine Learning
  • an additional technical problem of the present disclosure is to provide a method and apparatus for setting/instructing a correspondence relationship between a physical channel/signal for AI/ML model training and a physical channel/signal for AI/ML inference.
  • a method for receiving a physical downlink shared channel (PDSCH) in a wireless communication system includes: a plurality of training reference signals for training of an artificial intelligence (AI) / machine learning (ML) model from a base station Receiving setting information related to; receiving the plurality of training reference signals from the base station; Receiving control information for scheduling the PDSCH from the base station; and receiving the PDSCH from the base station based on inference derived for a demodulation reference signal (DMRS) of the PDSCH from an AI/ML model trained using one or more training reference signals of the plurality of training reference signals.
  • DMRS demodulation reference signal
  • the configuration information or the control information may include information on the one or more training reference signals corresponding to the DMRS.
  • a method for receiving a physical uplink shared channel (PUSCH) includes: setting information related to a plurality of training reference signals for training of an artificial intelligence (AI) / machine learning (ML) model to a terminal Transmitting; receiving the plurality of training reference signals from the terminal; Transmitting control information for scheduling the PUSCH to the terminal; and receiving the PUSCH from the terminal based on inference derived for a demodulation reference signal (DMRS) of the PUSCH from an AI/ML model trained using one or more training reference signals among the plurality of training reference signals.
  • DMRS demodulation reference signal
  • the configuration information or the control information may include information on the one or more training reference signals corresponding to the DMRS.
  • AI/ML model training may be performed for each specific physical channel/signal for training, and learning results thereof may be separately/independently stored/configured/managed/used/applied.
  • a result of learning in advance is assigned to a specific physical channel/signal for inference. Can be used/applied appropriately.
  • FIG. 1 illustrates the structure of a wireless communication system to which the present disclosure may be applied.
  • FIG. 2 illustrates a frame structure in a wireless communication system to which the present disclosure can be applied.
  • FIG 3 illustrates a resource grid in a wireless communication system to which the present disclosure may be applied.
  • FIG. 4 illustrates a physical resource block in a wireless communication system to which the present disclosure may be applied.
  • FIG. 5 illustrates a slot structure in a wireless communication system to which the present disclosure may be applied.
  • FIG. 6 illustrates physical channels used in a wireless communication system to which the present disclosure can be applied and a general signal transmission/reception method using them.
  • 13 is a diagram illustrating segmented AI inference.
  • FIG. 14 illustrates the application of a functional framework in a wireless communication system.
  • 16 illustrates the application of a functional framework in a wireless communication system.
  • FIG. 17 illustrates a 1D CNN structure for AI/ML-based channel estimation in a wireless communication system to which the present disclosure can be applied.
  • FIG. 18 illustrates an output value estimation method in a 1D CNN structure for AI/ML-based channel estimation in a wireless communication system to which the present disclosure can be applied.
  • 19 illustrates a 2D CNN structure for AI/ML-based channel estimation in a wireless communication system to which the present disclosure can be applied.
  • FIG. 20 illustrates an output value estimation method in a 2D CNN structure for AI/ML-based channel estimation in a wireless communication system to which the present disclosure can be applied.
  • 21 illustrates padding and pooling in a CNN structure for channel estimation based on AI/ML in a wireless communication system to which the present disclosure can be applied.
  • 22 is a diagram illustrating a signaling procedure between a base station and a terminal according to an embodiment of the present disclosure.
  • 23 is a diagram for explaining a method of transmitting and receiving a DMRS without data according to an embodiment of the present disclosure.
  • FIG. 24 is a diagram illustrating a signaling procedure between a base station and a terminal for a method of transmitting and receiving a T (training)-DMRS according to an embodiment of the present disclosure.
  • 25 is a diagram for explaining a method for determining a DMRS pattern according to an embodiment of the present disclosure.
  • 26 is a diagram for explaining a method of transmitting and receiving a DMRS in a time domain or a frequency domain according to an embodiment of the present disclosure.
  • FIG. 27 illustrates signaling for setting/instructing/defining a correspondence relationship between a signal/channel for training of an AI/ML model and a signal/channel for inference according to an embodiment of the present disclosure.
  • FIG. 28 illustrates a method of setting/instructing/defining a correspondence between a signal/channel for AI/ML model training and a signal/channel for inference according to an embodiment of the present disclosure.
  • 29 illustrates a method of setting/instructing/defining a correspondence relationship between a signal/channel for AI/ML model training and a signal/channel for inference according to an embodiment of the present disclosure.
  • FIG. 30 illustrates a method of setting/instructing/defining a correspondence between a signal/channel for AI/ML model training and a signal/channel for inference according to an embodiment of the present disclosure.
  • 31 illustrates a method of setting/instructing/defining a correspondence relationship between a signal/channel for training of an AI/ML model and a signal/channel for inference according to an embodiment of the present disclosure.
  • 32 illustrates a signal/channel for training of an AI/ML model and a signal/channel for inference according to an embodiment of the present disclosure.
  • 33 illustrates a signal/channel for training of an AI/ML model and a signal/channel for inference according to an embodiment of the present disclosure.
  • 34 is a diagram illustrating operations of a terminal for a method for transmitting and receiving a radio channel according to an embodiment of the present disclosure.
  • 35 is a diagram illustrating an operation of a base station for a method for transmitting and receiving a radio channel according to an embodiment of the present disclosure.
  • 36 is a diagram illustrating a block configuration of a wireless communication device according to an embodiment of the present disclosure.
  • first and second are used only for the purpose of distinguishing one component from another component and are not used to limit the components, unless otherwise specified. The order or importance among them is not limited. Accordingly, within the scope of the present disclosure, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly, a second component in one embodiment may be referred to as a first component in another embodiment. can also be called
  • the present disclosure describes a wireless communication network or wireless communication system, and operations performed in the wireless communication network control the network and transmit or receive signals in a device (for example, a base station) in charge of the wireless communication network. It can be done in the process of receiving (receive) or in the process of transmitting or receiving signals from a terminal coupled to the wireless network to or between terminals.
  • a device for example, a base station
  • transmitting or receiving a channel includes the meaning of transmitting or receiving information or a signal through a corresponding channel.
  • transmitting a control channel means transmitting control information or a signal through the control channel.
  • transmitting a data channel means transmitting data information or a signal through the data channel.
  • downlink means communication from a base station to a terminal
  • uplink means communication from a terminal to a base station.
  • a transmitter may be part of a base station and a receiver may be part of a terminal.
  • a transmitter may be a part of a terminal and a receiver may be a part of a base station.
  • a base station may be expressed as a first communication device
  • a terminal may be expressed as a second communication device.
  • a base station includes a fixed station, a Node B, an evolved-NodeB (eNB), a Next Generation NodeB (gNB), a base transceiver system (BTS), an access point (AP), and a network (5G Network), AI (Artificial Intelligence) system/module, RSU (road side unit), robot, drone (UAV: Unmanned Aerial Vehicle), AR (Augmented Reality) device, VR (Virtual Reality) device, etc.
  • AI Artificial Intelligence
  • RSU road side unit
  • robot UAV: Unmanned Aerial Vehicle
  • AR Algmented Reality
  • VR Virtual Reality
  • a terminal may be fixed or mobile, and a user equipment (UE), a mobile station (MS), a user terminal (UT), a mobile subscriber station (MSS), a subscriber station (SS), and an advanced mobile (AMS) Station), WT (Wireless terminal), MTC (Machine-Type Communication) device, M2M (Machine-to-Machine) device, D2D (Device-to-Device) device, vehicle, RSU (road side unit), It can be replaced with terms such as robot, AI (Artificial Intelligence) module, drone (UAV: Unmanned Aerial Vehicle), AR (Augmented Reality) device, VR (Virtual Reality) device, etc.
  • AI Artificial Intelligence
  • drone UAV: Unmanned Aerial Vehicle
  • AR Algmented Reality
  • VR Virtual Reality
  • CDMA may be implemented with a radio technology such as Universal Terrestrial Radio Access (UTRA) or CDMA2000.
  • TDMA may be implemented with a radio technology such as Global System for Mobile communications (GSM)/General Packet Radio Service (GPRS)/Enhanced Data Rates for GSM Evolution (EDGE).
  • GSM Global System for Mobile communications
  • GPRS General Packet Radio Service
  • EDGE Enhanced Data Rates for GSM Evolution
  • OFDMA may be implemented with radio technologies such as IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802-20, and Evolved UTRA (E-UTRA).
  • UTRA is part of the Universal Mobile Telecommunications System (UMTS).
  • 3rd Generation Partnership Project (3GPP) Long Term Evolution (LTE) is a part of Evolved UMTS (E-UMTS) using E-UTRA
  • LTE-A (Advanced) / LTE-A pro is an evolved version of 3GPP LTE.
  • 3GPP NR New Radio or New Radio Access Technology
  • 3GPP LTE/LTE-A/LTE-A pro is an evolved version of 3GPP LTE/LTE-A/LTE-A pro.
  • LTE refers to technology after 3GPP Technical Specification (TS) 36.xxx Release 8.
  • TS Technical Specification
  • LTE technology after 3GPP TS 36.xxx Release 10 is referred to as LTE-A
  • LTE technology after 3GPP TS 36.xxx Release 13 is referred to as LTE-A pro
  • 3GPP NR refers to technology after TS 38.xxx Release 15.
  • LTE/NR may be referred to as a 3GPP system.
  • "xxx" means standard document detail number.
  • LTE/NR may be collectively referred to as a 3GPP system.
  • TS 36.211 Physical Channels and Modulation
  • TS 36.212 Multiplexing and Channel Coding
  • TS 36.213 Physical Layer Procedures
  • TS 36.300 General Description
  • TS 36.331 Radio Resource Control
  • TS 38.211 Physical Channels and Modulation
  • TS 38.212 Multiplexing and Channel Coding
  • TS 38.213 Physical Layer Procedures for Control
  • TS 38.214 Physical Layer Procedures for Data
  • TS 38.300 General description of NR and New Generation-Radio Access Network (NG-RAN)
  • TS 38.331 Radio Resource Control Protocol Specification
  • channel state information - reference signal resource indicator channel state information - reference signal resource indicator
  • channel state information - reference signal channel state information - reference signal
  • Layer 1 reference signal received quality Layer 1 reference signal received quality
  • orthogonal frequency division multiplexing orthogonal frequency division multiplexing (orthogonal frequency division multiplexing)
  • radio resource control radio resource control
  • Synchronization signal block including primary synchronization signal (PSS), secondary synchronization signal (SSS) and physical broadcast channel (PBCH)
  • NR is an expression showing an example of 5G RAT.
  • a new RAT system including NR uses an OFDM transmission scheme or a transmission scheme similar thereto.
  • the new RAT system may follow OFDM parameters different from those of LTE.
  • the new RAT system follows the numerology of the existing LTE/LTE-A as it is, but may support a larger system bandwidth (eg, 100 MHz).
  • one cell may support a plurality of numerologies. That is, terminals operating with different numerologies can coexist in one cell.
  • a numerology corresponds to one subcarrier spacing in the frequency domain.
  • Different numerologies can be defined by scaling the reference subcarrier spacing by an integer N.
  • FIG. 1 illustrates the structure of a wireless communication system to which the present disclosure may be applied.
  • the NG-RAN is a NG-RA (NG-Radio Access) user plane (ie, a new AS (access stratum) sublayer / PDCP (Packet Data Convergence Protocol) / RLC (Radio Link Control) / MAC / PHY) and control plane (RRC) protocol termination to the UE.
  • the gNBs are interconnected through an Xn interface.
  • the gNB is also connected to a New Generation Core (NGC) through an NG interface. More specifically, the gNB is connected to an Access and Mobility Management Function (AMF) through an N2 interface and to a User Plane Function (UPF) through an N3 interface.
  • AMF Access and Mobility Management Function
  • UPF User Plane Function
  • FIG. 2 illustrates a frame structure in a wireless communication system to which the present disclosure can be applied.
  • An NR system can support multiple numerologies.
  • numerology may be defined by subcarrier spacing and Cyclic Prefix (CP) overhead.
  • the multiple subcarrier spacing can be derived by scaling the basic (reference) subcarrier spacing by an integer N (or ⁇ ).
  • N or ⁇
  • the numerology used can be selected independently of the frequency band.
  • various frame structures according to a plurality of numerologies may be supported.
  • OFDM numerology and frame structure that can be considered in the NR system will be described.
  • Multiple OFDM numerologies supported in the NR system can be defined as shown in Table 1 below.
  • NR supports multiple numerologies (or subcarrier spacing (SCS)) to support various 5G services. For example, when the SCS is 15 kHz, it supports a wide area in traditional cellular bands, and when the SCS is 30 kHz/60 kHz, dense-urban, lower latency and a wider carrier bandwidth, and when the SCS is 60 kHz or higher, a bandwidth greater than 24.25 GHz is supported to overcome phase noise.
  • SCS subcarrier spacing
  • the NR frequency band is defined as two types of frequency ranges (FR1 and FR2).
  • FR1 and FR2 may be configured as shown in Table 2 below.
  • FR2 may mean millimeter wave (mmW).
  • ⁇ f max 480 10 3 Hz
  • N f 4096.
  • T TA (N TA +N TA,offset )T c before the start of the corresponding downlink frame in the corresponding terminal.
  • slots are numbered in increasing order of n s ⁇ ⁇ 0,..., N slot subframe, ⁇ -1 ⁇ within a subframe, and within a radio frame They are numbered in increasing order n s,f ⁇ ⁇ 0,..., N slot frame, ⁇ -1 ⁇ .
  • One slot is composed of consecutive OFDM symbols of N symb slots , and N symb slots are determined according to CP.
  • the start of slot n s ⁇ in a subframe is temporally aligned with the start of OFDM symbol n s ⁇ N symb slot in the same subframe. Not all terminals can simultaneously transmit and receive, which means that not all OFDM symbols in a downlink slot or uplink slot can be used.
  • Table 3 shows the number of OFDM symbols per slot (N symb slot ), the number of slots per radio frame (N slot frame, ⁇ ), and the number of slots per subframe (N slot subframe, ⁇ ) in the general CP.
  • Table 4 represents the number of OFDM symbols per slot, the number of slots per radio frame, and the number of slots per subframe in the extended CP.
  • one subframe may include 4 slots.
  • a mini-slot may contain 2, 4 or 7 symbols, more or fewer symbols.
  • an antenna port a resource grid, a resource element, a resource block, a carrier part, etc. can be considered Hereinafter, the physical resources that can be considered in the NR system will be described in detail.
  • the antenna port is defined such that the channel on which a symbol on the antenna port is carried can be inferred from the channel on which other symbols on the same antenna port are carried. If the large-scale properties of the channel on which the symbols on one antenna port are carried can be inferred from the channel on which the symbols on the other antenna port are carried, then the two antenna ports are quasi co-located or QC/QCL (quasi co-located or quasi co-location).
  • the wide range characteristic includes one or more of delay spread, Doppler spread, frequency shift, average received power, and received timing.
  • FIG 3 illustrates a resource grid in a wireless communication system to which the present disclosure may be applied.
  • a resource grid is composed of N RB ⁇ N sc RB subcarriers in the frequency domain, and one subframe is composed of 14 2 ⁇ OFDM symbols.
  • a transmitted signal is described by one or more resource grids consisting of N RB ⁇ N sc RB subcarriers and 2 ⁇ N symb ( ⁇ ) OFDM symbols.
  • N RB ⁇ ⁇ N RB max, ⁇ The N RB max, ⁇ represents the maximum transmission bandwidth, which may vary not only between numerologies but also between uplink and downlink.
  • one resource grid may be set for each ⁇ and antenna port p.
  • Each element of the resource grid for ⁇ and antenna port p is referred to as a resource element and is uniquely identified by an index pair (k, l').
  • l' 0,...,2 ⁇ N symb ( ⁇ ) -1 is a symbol in a subframe indicates the location of
  • an index pair (k,l) is used.
  • l 0,...,N symb ⁇ -1.
  • the resource element (k,l') for ⁇ and antenna port p corresponds to a complex value a k,l' (p, ⁇ ) .
  • indices p and ⁇ may be dropped, resulting in a complex value of a k,l' (p) or can be a k,l' .
  • Point A serves as a common reference point of the resource block grid and is obtained as follows.
  • OffsetToPointA for primary cell (PCell) downlink represents the frequency offset between point A and the lowest subcarrier of the lowest resource block overlapping the SS/PBCH block used by the UE for initial cell selection. It is expressed in resource block units assuming a 15 kHz subcarrier spacing for FR1 and a 60 kHz subcarrier spacing for FR2.
  • -absoluteFrequencyPointA represents the frequency-position of point A expressed as in ARFCN (absolute radio-frequency channel number).
  • Common resource blocks are numbered upward from 0 in the frequency domain for the subcarrier spacing ⁇ .
  • the center of subcarrier 0 of common resource block 0 for subcarrier spacing setting ⁇ coincides with 'point A'.
  • the relationship between the common resource block number n CRB ⁇ and the resource elements (k, l) for the subcarrier spacing ⁇ is given by Equation 1 below.
  • Physical resource blocks are numbered from 0 to N BWP,i size, ⁇ -1 within a bandwidth part (BWP), where i is the number of BWP.
  • BWP bandwidth part
  • Equation 2 The relationship between the physical resource block n PRB and the common resource block n CRB in BWP i is given by Equation 2 below.
  • N BWP,i start, ⁇ is a common resource block where BWP starts relative to common resource block 0.
  • Figure 4 illustrates a physical resource block in a wireless communication system to which the present disclosure may be applied.
  • Figure 5 illustrates a slot structure in a wireless communication system to which the present disclosure can be applied.
  • a slot includes a plurality of symbols in the time domain. For example, in the case of a normal CP, one slot includes 7 symbols, but in the case of an extended CP, one slot includes 6 symbols.
  • a carrier includes a plurality of subcarriers in the frequency domain.
  • a resource block (RB) is defined as a plurality of (eg, 12) consecutive subcarriers in the frequency domain.
  • a bandwidth part (BWP) is defined as a plurality of contiguous (physical) resource blocks in the frequency domain, and may correspond to one numerology (eg, SCS, CP length, etc.).
  • a carrier may include up to N (eg, 5) BWPs. Data communication is performed through an activated BWP, and only one BWP can be activated for one terminal.
  • Each element in the resource grid is referred to as a resource element (RE), and one complex symbol may be mapped.
  • RE resource element
  • the NR system can support up to 400 MHz per component carrier (CC). If a terminal operating in such a wideband CC always operates with radio frequency (RF) chips for the entire CC turned on, battery consumption of the terminal may increase.
  • a terminal operating in such a wideband CC always operates with radio frequency (RF) chips for the entire CC turned on, battery consumption of the terminal may increase.
  • RF radio frequency
  • different numerologies eg subcarrier spacing, etc.
  • the capability for the maximum bandwidth may be different for each terminal.
  • the base station may instruct the terminal to operate only in a part of the bandwidth rather than the entire bandwidth of the wideband CC, and the part of the bandwidth is defined as a bandwidth part (BWP) for convenience.
  • BWP may be composed of consecutive RBs on the frequency axis and may correspond to one numerology (eg, subcarrier spacing, CP length, slot/mini-slot period).
  • the base station may set multiple BWPs even within one CC configured for the terminal. For example, in a PDCCH monitoring slot, a BWP occupying a relatively small frequency domain may be set, and a PDSCH indicated by the PDCCH may be scheduled on a larger BWP. Alternatively, when UEs are concentrated in a specific BWP, some UEs may be set to other BWPs for load balancing. Alternatively, considering frequency domain inter-cell interference cancellation between neighboring cells, some of the spectrum among the entire bandwidth may be excluded and both BWPs may be configured even within the same slot. That is, the base station may configure at least one DL/UL BWP for a terminal associated with a wideband CC.
  • the base station may activate at least one DL/UL BWP among the configured DL/UL BWP(s) at a specific time (by L1 signaling or MAC Control Element (CE) or RRC signaling).
  • the base station may indicate switching to another configured DL / UL BWP (by L1 signaling or MAC CE or RRC signaling).
  • a timer value expires based on a timer, it may be switched to a predetermined DL/UL BWP.
  • the activated DL/UL BWP is defined as an active DL/UL BWP.
  • the terminal In situations such as when the terminal is performing an initial access process or before an RRC connection is set up, it may not be possible to receive the configuration for DL / UL BWP, so in this situation, the terminal This assumed DL/UL BWP is defined as the first active DL/UL BWP.
  • FIG. 6 illustrates physical channels used in a wireless communication system to which the present disclosure can be applied and a general signal transmission/reception method using them.
  • a terminal receives information from a base station through downlink, and the terminal transmits information to the base station through uplink.
  • Information transmitted and received between the base station and the terminal includes data and various control information, and various physical channels exist according to the type/use of the information transmitted and received by the base station and the terminal.
  • the terminal When the terminal is turned on or newly enters a cell, the terminal performs an initial cell search operation such as synchronizing with the base station (S601). To this end, the terminal synchronizes with the base station by receiving a primary synchronization signal (PSS) and a secondary synchronization signal (SSS) from the base station, and obtains information such as a cell identifier (ID: Identifier). can Thereafter, the UE may acquire intra-cell broadcast information by receiving a Physical Broadcast Channel (PBCH) from the base station. Meanwhile, the terminal may check the downlink channel state by receiving a downlink reference signal (DL RS) in the initial cell search step.
  • PSS primary synchronization signal
  • SSS secondary synchronization signal
  • ID cell identifier
  • the UE may acquire intra-cell broadcast information by receiving a Physical Broadcast Channel (PBCH) from the base station.
  • PBCH Physical Broadcast Channel
  • the terminal may check the downlink channel state by receiving a downlink reference signal (DL RS) in the initial cell
  • the UE After completing the initial cell search, the UE acquires more detailed system information by receiving a Physical Downlink Control Channel (PDCCH) and a Physical Downlink Control Channel (PDSCH) according to information carried on the PDCCH. It can (S602).
  • PDCCH Physical Downlink Control Channel
  • PDSCH Physical Downlink Control Channel
  • the terminal may perform a random access procedure (RACH) to the base station (steps S603 to S606).
  • RACH random access procedure
  • the terminal may transmit a specific sequence as a preamble through a physical random access channel (PRACH) (S603 and S605), and receive a response message to the preamble through a PDCCH and a corresponding PDSCH ( S604 and S606).
  • PRACH physical random access channel
  • a contention resolution procedure may be additionally performed.
  • the UE receives PDCCH/PDSCH as a general uplink/downlink signal transmission procedure (S607) and Physical Uplink Shared Channel (PUSCH)/Physical Uplink Control Channel (PUCCH: Physical Uplink Control Channel) transmission (S608) may be performed.
  • the terminal receives downlink control information (DCI) through the PDCCH.
  • DCI downlink control information
  • the DCI includes control information such as resource allocation information for a terminal, and has different formats depending on its purpose of use.
  • the control information that the terminal transmits to the base station through the uplink or the terminal receives from the base station is a downlink / uplink ACK / NACK (Acknowledgement / Non-Acknowledgement) signal, CQI (Channel Quality Indicator), PMI (Precoding Matrix) Indicator), RI (Rank Indicator), etc.
  • a terminal may transmit control information such as the above-described CQI/PMI/RI through PUSCH and/or PUCCH.
  • Table 5 shows an example of a DCI format in the NR system.
  • DCI format uses 0_0 Scheduling of PUSCH in one cell 0_1 Scheduling of one or multiple PUSCHs in one cell, or indication of cell group (CG) downlink feedback information to the UE 0_2 Scheduling of PUSCH in one cell 1_0 Scheduling of PDSCH in one DL cell 1_1 Scheduling of PDSCH in one cell 1_2 Scheduling of PDSCH in one cell
  • DCI formats 0_0, 0_1, and 0_2 are resource information related to PUSCH scheduling (eg, UL/SUL (Supplementary UL), frequency resource allocation, time resource allocation, frequency hopping, etc.), transport block ( TB: Transport Block) related information (eg, MCS (Modulation Coding and Scheme), NDI (New Data Indicator), RV (Redundancy Version), etc.), HARQ (Hybrid - Automatic Repeat and request) related information (eg, , process number, downlink assignment index (DAI), PDSCH-HARQ feedback timing, etc.), multi-antenna related information (eg, DMRS sequence initialization information, antenna port, CSI request, etc.), power control information (eg, PUSCH power control, etc.), and control information included in each DCI format may be predefined.
  • PUSCH scheduling eg, UL/SUL (Supplementary UL), frequency resource allocation, time resource allocation, frequency hopping, etc.
  • DCI format 0_0 is used for PUSCH scheduling in one cell.
  • Information included in DCI format 0_0 is a cyclic redundancy check (CRC) by C-RNTI (Cell RNTI: Cell Radio Network Temporary Identifier), CS-RNTI (Configured Scheduling RNTI) or MCS-C-RNTI (Modulation Coding Scheme Cell RNTI) ) is scrambled and transmitted.
  • CRC cyclic redundancy check
  • C-RNTI Cell RNTI: Cell Radio Network Temporary Identifier
  • CS-RNTI Configured Scheduling RNTI
  • MCS-C-RNTI Modulation Coding Scheme Cell RNTI
  • DCI format 0_1 is used to instruct the UE to schedule one or more PUSCHs in one cell or configured grant (CG: configure grant) downlink feedback information.
  • Information included in DCI format 0_1 is transmitted after being CRC scrambled by C-RNTI, CS-RNTI, SP-CSI-RNTI (Semi-Persistent CSI RNTI) or MCS-C-RNTI.
  • DCI format 0_2 is used for PUSCH scheduling in one cell.
  • Information included in DCI format 0_2 is transmitted after being CRC scrambled by C-RNTI, CS-RNTI, SP-CSI-RNTI or MCS-C-RNTI.
  • DCI formats 1_0, 1_1, and 1_2 are resource information related to PDSCH scheduling (eg, frequency resource allocation, time resource allocation, VRB (virtual resource block)-PRB (physical resource block) mapping, etc.), transport block (TB) related information (eg, MCS, NDI, RV, etc.), HARQ related information (eg, process number, DAI, PDSCH-HARQ feedback timing, etc.), multi-antenna related information (eg, antenna port , transmission configuration indicator (TCI), sounding reference signal (SRS) request, etc.), PUCCH-related information (eg, PUCCH power control, PUCCH resource indicator, etc.), and the control information included in each DCI format can be predefined.
  • PDSCH scheduling eg, frequency resource allocation, time resource allocation, VRB (virtual resource block)-PRB (physical resource block) mapping, etc.
  • transport block (TB) related information eg, MCS, NDI, RV, etc.
  • HARQ related information
  • DCI format 1_0 is used for PDSCH scheduling in one DL cell.
  • Information included in DCI format 1_0 is transmitted after being CRC scrambled by C-RNTI, CS-RNTI or MCS-C-RNTI.
  • DCI format 1_1 is used for PDSCH scheduling in one cell.
  • Information included in DCI format 1_1 is transmitted after being CRC scrambled by C-RNTI, CS-RNTI or MCS-C-RNTI.
  • DCI format 1_2 is used for PDSCH scheduling in one cell.
  • Information included in DCI format 1_2 is transmitted after being CRC scrambled by C-RNTI, CS-RNTI or MCS-C-RNTI.
  • node(s) and terminal(s) constituting a wireless communication network are becoming intelligent/advanced.
  • various networks according to various environmental parameters (eg, distribution/location of base stations, distribution/location/material of buildings/furniture, location/moving direction/speed of terminals, climate information, etc.) /base station determination parameter values (eg, transmit/receive power of each base station, transmit power of each terminal, precoder/beam of base station/terminal, time/frequency resource allocation for each terminal, duplex method of each base station, etc. ) is expected to be quickly optimized and derived/applied.
  • many standardization organizations eg, 3GPP, O-RAN
  • 3GPP 3GPP, O-RAN
  • AI Artificial Intelligence
  • AI corresponds to any automation in which a machine can replace the work that a person has to do.
  • Machine learning refers to a technology in which a machine learns patterns for decision-making from data on its own without explicitly programming rules.
  • Deep learning is an artificial neural network-based model, which can be performed by a machine at once from unstructured data to feature extraction and judgment.
  • the algorithm relies on multi-layer networks of interconnected nodes for feature extraction and transformation inspired by biological neural systems, or neural networks.
  • Common deep learning network architectures include deep neural networks (DNNs), recurrent neural networks (RNNs), and convolutional neural networks (CNNs).
  • AI may be referred to as artificial intelligence based on deep learning in a narrow sense, but is not limited thereto in the present disclosure. That is, in the present disclosure, AI (or referred to as AI/ML) may collectively refer to automation technologies applied to intelligent machines (eg, UE, RAN, network node, etc.) capable of performing tasks like humans.
  • intelligent machines eg, UE, RAN, network node, etc.
  • AI (or AI/ML) can be classified according to various criteria as follows:
  • Offline learning follows a sequential process of database collection, learning, and prediction. That is, collection and learning can be performed offline, and completed programs can be installed in the field and used for prediction work. In offline learning, the system does not learn incrementally, learning is performed using all available collected data and applied to the system without further learning. If learning on new data is required, learning may be started again using the entire new data.
  • centralized learning when training data collected from a plurality of different nodes is reported to a centralized node, all data resources/storage/learning (e.g., supervised learning) (supervised learning, unsupervised learning, reinforcement learning, etc.) are performed on one centralized node.
  • supervised learning supervised learning, unsupervised learning, reinforcement learning, etc.
  • Federated learning is built on data where collective models exist across disparate data owners. Instead of ingesting data into models, AI/ML models are imported as data sources, allowing local nodes/individual devices to collect data and train their own copy of the model, eliminating the need to report the source data to a central node. In federated learning, parameters/weights of an AI/ML model can be sent back to a centralized node to support general model training. Federated learning has advantages in terms of increased computational speed and information security. That is, the process of uploading personal data to the central server is unnecessary, and leakage and abuse of personal information can be prevented.
  • Distributed learning refers to the concept that the machine learning process is scaled and distributed across a cluster of nodes. Training models are split and shared across multiple nodes working concurrently to speed up model training.
  • Supervised learning is a machine learning task that aims to learn mapping features from inputs to outputs given a labeled data set.
  • the input data is called training data and has known labels or outcomes.
  • Examples of supervised learning include:
  • KNN k-Nearest Neighbor
  • SVM Support Vector Machines
  • Supervised learning can be further grouped into regression and classification problems, where classification is predicting labels and regression is predicting quantities.
  • Unsupervised learning is a machine learning task that aims to learn features that describe hidden structures in unlabeled data. Input data is unlabeled and has no known consequences.
  • Some examples of unsupervised learning include K-means clustering, principal component analysis (PCA), nonlinear independent component analysis (ICA), and long-short-term memory (LSTM). .
  • RL reinforcement learning
  • An agent aims to optimize a long-term goal by interacting with the environment based on a trial-and-error process, which is goal-oriented learning based on interaction with the environment.
  • An example of the RL algorithm is as follows.
  • SARSA State-Action-Reward-State-Action
  • reinforcement learning can be grouped into model-based reinforcement learning and model-free reinforcement learning as follows.
  • Model-based reinforcement learning Refers to a RL algorithm that uses a predictive model. The transition probabilities between the states are obtained using a model of the various dynamic states of the environment and these states leading to rewards.
  • Model-free reinforcement learning refers to RL algorithms based on values or policies that achieve maximum future rewards. Multi-agent environments/states are less computationally complex and do not require an exact representation of the environment.
  • RL algorithms can also be classified into value-based RL versus policy-based RL, policy-based RL versus non-policy RL, and the like.
  • a feed-forward neural network is composed of an input layer, a hidden layer, and an output layer.
  • FFNN In FFNN, information is transmitted only from the input layer to the output layer, and passes through the hidden layer if there is one.
  • a recurrent neural network is a type of artificial neural network in which hidden nodes are connected with directed edges to form a directed cycle. It is a model suitable for processing data that appears sequentially, such as voice and text.
  • A denotes a neural network
  • x t denotes an input value
  • h t denotes an output value.
  • h t may mean a state value indicating a current state based on time
  • h t-1 may indicate a previous state value.
  • LSTM Long Short-Term Memory
  • RNN Random-Term Memory
  • a convolutional neural network (CNN) is used for two purposes: reducing model complexity and extracting good features by applying a convolution operation commonly used in the field of image processing or image processing.
  • Kernel or filter Means a unit/structure that applies weights to inputs in a specific range/unit.
  • the kernel (or filter) can be changed by learning.
  • Feature map It means the result of applying the kernel to the input.
  • Several feature maps can be extracted to induce robustness to distortion, change, etc.
  • - Pooling Refers to an operation (for example, max pooling, average pooling) to reduce the size of a feature map by downsampling the feature map.
  • Auto encoder receives a feature vector x(x 1 , x 2 , x 3 , ...), and the same or similar vector x'(x' 1 , x' 2 , x' 3 , ... ) means a neural network that outputs ' .
  • Auto encoder has the same characteristics of input node and output node. Since auto encoder reconstructs the input, the output can be referred to as reconstruction. Also, auto encoder is a kind of unsupervised learning.
  • the loss function of the auto encoder illustrated in FIG. 11 is calculated based on the difference between the input and the output, and based on this, the degree of loss of the input is determined and the auto encoder performs an optimization process to minimize the loss. do.
  • Data collection Data collected from network nodes, management entities or UEs as a basis for AI model training, data analysis and inference
  • AI Model A data driven algorithm applying AI technology that generates a set of outputs including predictive information and/or decision parameters based on a set of inputs.
  • a data collection function 10 collects input data and provides processed input to a model training function 20 and a model inference function 30. It is a function that provides data.
  • Examples of input data may include measurements from UEs or other network entities, actor feedback, and AI model output.
  • the data collection function 10 performs data preparation based on input data and provides processed input data through data preparation.
  • the data collection function 10 does not perform specific data preparation (eg, data pre-processing and cleaning, forming and transformation) for each AI algorithm, , data preparation common to AI algorithms can be performed.
  • the Model Training function (10) provides training data (11) to the Model Training function (20), and inference data (12) to the Model Inference function (30).
  • Training Data) (11) is data required as an input for the AI Model Training function (20).
  • Inference Data (12) is data required as an input for the AI Model Inference function (30).
  • the data collection function 10 may be performed by a single entity (eg, UE, RAN node, network node, etc.) or may be performed by a plurality of entities.
  • Training Data (11) and Inference Data (12) from a plurality of entities may be provided to the Model Training function (20) and the Model Inference function (30), respectively.
  • the Model Training function 20 is a function that performs AI model training, validation, and testing that can generate model performance metrics as part of an AI model testing procedure.
  • the Model Training function (20) is also responsible for data preparation (eg, data pre-processing and cleaning, forming and transformation) based on the Training Data (11) provided by the Data Collection function (10), if necessary.
  • Model Deployment/Update (13) is used to initially deploy the trained, verified, and tested AI model to the Model Inference function (30) or to provide an updated model to the Model Inference function (30). do.
  • the Model Inference function 30 is a function that provides an AI model inference output 16 (eg, prediction or decision).
  • the Model Inference function 30 may provide Model Performance Feedback 14 to the Model Training function 20, if applicable.
  • the Model Inference function (30) is also responsible for data preparation (eg, data pre-processing and cleaning, forming and transformation) based on the Inference Data (12) provided by the Data Collection function (10), if necessary.
  • the output (Output) 16 refers to the inference output of the AI model generated by the Model Inference function 30, and detailed information of the inference output may vary depending on the use case.
  • Model Performance Feedback (14) can be used to monitor the performance of the AI model, if available, and this feedback can also be omitted.
  • the Actor function 40 is a function that receives an output 16 from the Model Inference function 30 and triggers or performs a corresponding task/action.
  • the actor function 40 may trigger actions/actions for other entities (eg, one or more UEs, one or more RAN nodes, one or more network nodes, etc.) or itself.
  • Feedback (15) can be used to derive training data (11), inference data (12), or to monitor the performance of the AI model and its effect on the network.
  • the definition of training/validation/test in a data set used in AI/ML can be classified as follows.
  • - Validation data Data set for verifying a model that has already been trained. That is, it usually means a data set used to prevent over-fitting of the training data set.
  • Test data Data set for final evaluation. This data is data irrelevant to learning.
  • the training data and validation data can be divided and used in a ratio of 8:2 or 7:3 within the entire training set, and if the test is included, 6:2:2 ( training: validation: test) can be divided and used.
  • the cooperation level can be defined as follows, and modification due to the combination of a plurality of levels below or separation of any one level is possible.
  • Cat 1 Entails inter-node support to improve each node's AI/ML algorithm. This applies when the UE receives assistance from the gNB (for training, adaptation, etc.) and vice versa. No exchange of models between network nodes is required at this level.
  • a RAN node eg, a base station, a TRP, a central unit (CU) of a base station, etc.
  • a network node eg, an operation administration maintenance (OAM) of a network operator, or a UE.
  • OAM operation administration maintenance
  • the function illustrated in FIG. 12 may be implemented in cooperation with two or more entities among a RAN, a network node, an OAM of a network operator, or a UE.
  • one entity may perform some of the functions of FIG. 12 and another entity may perform the remaining functions.
  • transfer / provision of data / information between each function is omitted. It can be.
  • the Model Training function 20 and the Model Inference function 30 are performed by the same entity, the delivery/provision of the Model Deployment/Update 13 and the Model Performance Feedback 14 may be omitted.
  • any one of the functions illustrated in FIG. 12 may be performed in collaboration by two or more entities among a RAN, a network node, OAM of a network operator, or a UE. This may be referred to as a split AI operation.
  • 13 is a diagram illustrating segmented AI inference.
  • FIG. 13 illustrates a case in which the Model Inference function, among split AI operations, is cooperatively performed by an end device such as a UE and a network AI/ML endpoint.
  • each of the Model Training function, Actor, and Data Collection function is split into multiple parts according to the current task and environment, and can be performed by cooperation of multiple entities.
  • a computation-intensive and energy-intensive part may be performed at a network endpoint, while a privacy-sensitive part and a delay-sensitive part may be performed at an end device.
  • the end device may execute a job/model from the input data to a specific part/layer and then transmit intermediated data to the network endpoint.
  • a network endpoint executes the remaining parts/layers and provides inference outputs to one or more devices performing the action/task.
  • FIG. 14 illustrates the application of a functional framework in a wireless communication system.
  • the AI Model Training function is performed by a network node (eg, a core network node, an OAM of a network operator, etc.), and an AI Model Inference function is performed by a RAN node (eg, a base station, a TRP, a CU of a base station, etc.) ) exemplifies the case performed by a network node (eg, a core network node, an OAM of a network operator, etc.), and an AI Model Inference function is performed by a RAN node (eg, a base station, a TRP, a CU of a base station, etc.) ) exemplifies the case performed by a network node (eg, a core network node, an OAM of a network operator, etc.), and an AI Model Inference function is performed by a RAN node (eg, a base station, a TRP, a CU of a base station, etc.) ) exemplifies the case performed by
  • Step 1 RAN node 1 and RAN node 2 transmit input data (ie, training data) for AI Model Training to the network node.
  • RAN node 1 and RAN node 2 transmit data collected from the UE (eg, measurement of the UE related to RSRP, RSRQ, SINR of the serving cell and the neighboring cell, location of the UE, speed, etc.) together to the network node.
  • data collected from the UE eg, measurement of the UE related to RSRP, RSRQ, SINR of the serving cell and the neighboring cell, location of the UE, speed, etc.
  • Step 2 The network node trains the AI Model using the received training data.
  • Step 3 The network node distributes/updates the AI Model to RAN node 1 and/or RAN node 2.
  • RAN node 1 (and/or RAN node 2) may continue to perform model training based on the received AI Model.
  • Step 4 RAN node 1 receives input data (ie, inference data) for AI Model Inference from the UE and RAN node 2.
  • input data ie, inference data
  • Step 5 RAN node 1 performs AI Model Inference using the received inference data to generate output data (eg, prediction or decision).
  • Step 6 If applicable, RAN node 1 may send model performance feedback to the network node.
  • Step 7 RAN node 1, RAN node 2, and UE (or 'RAN node 1 and UE', or 'RAN node 1 and RAN node 2') perform an action based on the output data. For example, in the case of a load balancing operation, the UE may move from RAN node 1 to RAN node 2.
  • Step 8 RAN node 1 and RAN node 2 transmit feedback information to the network node.
  • RAN node 15 illustrates a case in which both the AI Model Training function and the AI Model Inference function are performed by a RAN node (eg, a base station, a TRP, a CU of a base station, etc.).
  • a RAN node eg, a base station, a TRP, a CU of a base station, etc.
  • Step 1 The UE and RAN node 2 transmit input data (ie, training data) for AI Model Training to RAN node 1.
  • input data ie, training data
  • Step 2 RAN node 1 trains the AI model using the received training data.
  • Step 3 RAN node 1 receives input data (ie, inference data) for AI Model Inference from the UE and RAN node 2.
  • input data ie, inference data
  • Step 4 RAN node 1 performs AI Model Inference using the received inference data to generate output data (eg, prediction or decision).
  • Step 5 RAN node 1, RAN node 2, and UE (or 'RAN node 1 and UE', or 'RAN node 1 and RAN node 2') perform an action based on the output data. For example, in the case of a load balancing operation, the UE may move from RAN node 1 to RAN node 2.
  • Step 6 RAN node 2 sends feedback information to RAN node 1.
  • 16 illustrates the application of a functional framework in a wireless communication system.
  • FIG. 16 illustrates a case in which the AI Model Training function is performed by a RAN node (eg, a base station, a TRP, a CU of a base station, etc.) and an AI Model Inference function is performed by a UE.
  • a RAN node eg, a base station, a TRP, a CU of a base station, etc.
  • an AI Model Inference function is performed by a UE.
  • Step 1 The UE transmits input data (ie, training data) for AI Model Training to the RAN node.
  • the RAN node may collect data from various UEs and/or from other RAN nodes (e.g., RSRP, RSRQ, measurement of the UE related to the serving cell and neighboring cell, SINR, UE location, speed, etc.) there is.
  • Step 2 The RAN node trains the AI Model using the received training data.
  • Step 3 The RAN node distributes/updates the AI Model to the UE.
  • the UE may continue to perform model training based on the received AI Model.
  • Step 4 Receives input data (ie, inference data) for AI Model Inference from the UE and the RAN node (and/or from other UEs).
  • Step 5 The UE generates output data (eg, prediction or decision) by performing AI Model Inference using the received inference data.
  • output data eg, prediction or decision
  • Step 6 If applicable, the UE may send model performance feedback to the RAN node.
  • Step 7 The UE and the RAN node perform an action based on the output data.
  • Step 8 The UE sends feedback information to the RAN node.
  • the convolutional neural network (CNN) structure is a structure that can demonstrate good performance in the field of image processing, and based on this characteristic, a method to improve performance by applying the CNN structure to channel estimation in a wireless communication system This is being actively discussed.
  • a 1D (1 Dimension, 1D) CNN structure and a 2D CNN structure may be considered.
  • FIG. 17 illustrates a 1D CNN structure for AI/ML-based channel estimation in a wireless communication system to which the present disclosure can be applied.
  • channel estimation in the frequency domain and channel estimation in the time domain are performed separately when based on the 1D CNN structure.
  • channel estimation in the time domain may be performed after channel estimation in the frequency domain (eg, 1D Wiener filter).
  • each layer of a CNN is constructed from channel estimation values (eg, x0+jy0, ...) in the frequency domain.
  • channel estimation values eg, x0+jy0, ...) in the frequency domain.
  • real values are exemplified in FIG. 17 , it is obvious that the same can be applied to imaginary values.
  • channel estimation value in the frequency domain is exemplified, it is obvious that the same can be applied to the channel estimation value in the time domain.
  • an input layer 2010 of a CNN may be configured based on a channel estimation value (eg, a real value among channel estimation values).
  • the shaded area 2005 may mean an area in which a DMRS is transmitted.
  • N eg, N is a natural number greater than or equal to 1
  • convolution/hidden layers 2020 may be formed between the input layer 2010 and the output layer 2030 .
  • the output layer 2030 may be formed from the result value of the convolution layer/hidden layer 2020.
  • FIG. 18 illustrates an output value estimation method in a 1D CNN structure for AI/ML-based channel estimation in a wireless communication system to which the present disclosure can be applied.
  • a feature map 2120 may be derived from an input value 2110 in each convolutional layer/hidden layer constituting a 1D CNN, and an output value 2130 may be estimated.
  • the operation of deriving the feature map 2120 in each convolutional layer/hidden layer may correspond to [S2110-a, S2110-b, S2110-c, ...], based on the feature map 2120.
  • the operation of estimating the output value 2130 may correspond to [S2120].
  • a kernel/filter 2140 may be defined that applies a specific weight to an input value of a specific unit in order to derive a feature map 2120.
  • Each kernel/filter 2140 may be defined with a specific size (or number of weights).
  • each kernel/filter 2140 may be defined as a combination of specific weights (eg, w0/w1/w2/w3).
  • Each kernel/filter 2140 may have a specific movement range for deriving the feature map 2120 within the input value 2110, and the specific movement range may be named a stride.
  • the kernel/filter 2140 may be defined differently for each convolutional layer/hidden layer, or may be defined identically for all convolutional layers/hidden layers. 18 shows an example of a convolutional layer/hidden layer composed of one kernel/filter 2140 set/defined with a size of 4 and a stride of 1.
  • an activation function (AF) 2150 used to estimate an output value based on the feature map 2120 may be defined.
  • An activation function 2150 may be used to add nonlinearity to the feature map 2120 obtained through the convolution operation.
  • the activation function 2150 can be a step function, a sigmoid function, a hyperbolic tangent function, a ReLU function, a leaky ReLU function ), a softmax function, and the like.
  • 19 illustrates a 2D CNN structure for AI/ML-based channel estimation in a wireless communication system to which the present disclosure can be applied.
  • channel estimation in the frequency domain and channel estimation in the time domain are performed together in the case based on the 2D CNN structure.
  • channel estimation in the frequency domain and channel estimation in the time domain may be simultaneously performed (eg, 2D Wiener filter).
  • the method for configuring each layer of the 2D CNN structure in FIG. 19 is an extension of the method for configuring each layer of the 1D CNN structure in FIG. can do.
  • an input layer 2210 of a CNN may be configured based on a channel estimation value (eg, a real value among channel estimation values).
  • the shadow area 2205 may mean an area in which a DMRS is transmitted.
  • N convolutional layers/hidden layers 2220 may be formed between the input layer 2210 and the output layer 2230 (eg, N is a natural number greater than or equal to 1).
  • the output layer 2230 may be formed from the resultant value of the convolution layer/hidden layer 2220 .
  • FIG. 20 illustrates an output value estimation method in a 2D CNN structure for AI/ML-based channel estimation in a wireless communication system to which the present disclosure can be applied.
  • a feature map 2320 may be derived from an input value 2310 in each convolution layer/hidden layer constituting a 2D CNN, and an output value 2330 may be estimated.
  • the method for estimating the output value in FIG. 20 is an extension of the method for estimating the output value in FIG. 17 to the two-dimensional time/frequency domain, and other methods can be assumed to be the same.
  • the operation of deriving the feature map 2320 in each convolution layer/hidden layer may correspond to [S2310-a, S2310-b, S2310-c, ...], based on the feature map 2320.
  • the operation of estimating the output value 2330 may correspond to [S2320].
  • a kernel/filter 2340 may be defined that applies a specific weight to an input value of a specific unit in order to derive a feature map 2320.
  • Each kernel/filter 2340 can be defined with a specific size (or number of weights). In this case, the specific size may be defined based on a two-dimensional (eg, two-dimensional time/frequency domain).
  • each kernel/filter 2340 may be defined as a combination of specific weights (eg, w00/w10/w20/w30/w01/w11/w21/w31).
  • Each kernel/filter 2340 may have a specific movement range for deriving the feature map 2320 within the input value 2310, and the specific movement range may be named a stride.
  • the stride may be defined based on a two-dimensional (eg, two-dimensional time/frequency domain).
  • the kernel/filter 2340 may be defined differently for each convolutional layer/hidden layer, or may be defined identically for all convolutional layers/hidden layers. 20 shows an example of a convolutional layer/hidden layer composed of one kernel/filter 2340 set/defined with size 4x2 and stride [1, 1] (eg, [time domain, frequency domain]).
  • an activation function (AF) 2350 used to estimate an output value based on the feature map 2320 may be defined.
  • An activation function 2350 may be used to add nonlinearity to the feature map 2320 obtained through the convolution operation.
  • the activation function 2150 can be a step function, a sigmoid function, a hyperbolic tangent function, a ReLU function, a leaky ReLU function ), a softmax function, and the like.
  • FIG. 21 illustrates padding and pooling in a CNN structure for channel estimation based on AI/ML in a wireless communication system to which the present disclosure can be applied. Specifically, FIG. 21 (a) illustrates a padding method, and FIG. 21 (b) illustrates a pooling method.
  • the size of the feature map 2420 obtained as a result of the convolution operation is smaller than that of the input 2410, and a padding method may be used to prevent this. That is, the padding method may refer to a function/operation/structure that allows the size of the feature map 2420 to be the same as the size of the input 2410 even after the convolution operation.
  • 21(a) shows an example of applying zero padding in a 1D CNN structure.
  • the pooling (or pooling layer) 2440 may refer to a function/action/structure that reduces the size of the feature map 2420 by downsampling the feature map 2420.
  • Examples of pooling operations include max pooling, average pooling, and the like.
  • 21(b) shows an example of applying max pooling in a 1D CNN structure. The same concepts of kernel and stride can be applied to the pooling operation, and in this example, a kernel of size 4 and a stride set to 4 are assumed.
  • bias value can be applied in relation to the corresponding CNN structure.
  • the corresponding bias value may be applied in an added form to a specific feature map to which a kernel is applied.
  • the loss function may refer to a function that quantifies a difference between an actual value and a predicted value.
  • MSE mean square error
  • the optimizer may refer to a function for updating weight(s) suitable for each layer based on the loss function.
  • batch gradient descent stochastic gradient descent (SGD), mini-batch gradient descent, momentum, adagrad , RMSprop, adam, etc.
  • SGD stochastic gradient descent
  • mini-batch gradient descent momentum, adagrad , RMSprop, adam, etc.
  • the method of applying AI/ML technology can be largely divided into the following two directions.
  • Cat1 A method supported by the standard to share information related to the AI/ML model and/or parameters required for the model between the base station and the terminal.
  • Cat2 Assuming an environment in which AI/ML models and/or information related to parameters required for the model are not shared between the base station and the terminal, functions of the current standard are improved or new functions are added. How to
  • - Training can be performed only on a specific node of gNB or UE. For example, based on a dataset for training in a specific node (eg, gNB or UE), the error is calculated from the predicted value and the actual value, and inference such as weight and bias ( Parameters required for inference can be updated.
  • a specific node eg, gNB or UE
  • the error is calculated from the predicted value and the actual value, and inference such as weight and bias ( Parameters required for inference can be updated.
  • the inference performance of the corresponding node can be improved. For example, if training results/information (eg, weight, bias, etc.) can be shared, at a specific node, the above update process (eg, loss function and/or optimizer) weight/bias update, etc.) is unnecessary, so the inference performance can be improved while reducing the computational complexity and energy consumption of the corresponding node.
  • training results/information eg, weight, bias, etc.
  • the above update process eg, loss function and/or optimizer
  • the deep (D)NN structure eg CNN
  • CNN deep neural network
  • online training may be required to update the weights and biases of the algorithm due to the characteristics of channels that change over time.
  • data for example, PBCH / PDSCH / PUSCH / PDCCH / PUCCH, etc.
  • training can be performed again based on the reference signal (RS: reference signal) corresponding to the corresponding data channel.
  • RS reference signal
  • decoding may be performed first and then training may be performed.
  • decoding -> training the result of training cannot be applied to decoding. Therefore, unless data transmission occurs frequently, the longer the time until the next data is received after training, the more out-of-date the results of training become, which makes training meaningless and lowers performance. there is.
  • online training may be required to update the weights and biases of the algorithms.
  • the same RS pattern as the RS pattern to be used for inference may be required for training in order to use the results of training for inference.
  • channel characteristics may change according to a transmission/reception TRP (transmission reception point)/panel/beam of a base station/terminal.
  • TRP transmission reception point
  • online training for the AI/ML algorithm needs to be performed independently for each combination of transmission/reception TRP/panel/beam of the base station/terminal having different channel characteristics.
  • the base station/terminal shares which online training result should be referred to when transmitting/receiving actual data (eg, PDSCH/PUSCH/PDCCH/PUCCH, etc.) need to do
  • the base station/terminal when performing multiple independent (online) training, we propose a method for the base station/terminal to share information necessary for this, which training result should be referred to when transmitting/receiving actual data.
  • L1 (layer 1) signaling may mean DCI-based dynamic signaling between a base station and a terminal
  • L2 (layer 2) signaling is an RRC / MAC control element (CE: control element)-based higher layer signaling.
  • the above-described two CNN structures describe structures mainly considered in the proposed method, and are not intended to limit the proposed method, so specific terms are not intended to limit specific functions/operations. Therefore, the above-described functions/operations/methods may not be limited to specific terms, and may be referred to as other terms.
  • the sizes expressed in the diagram eg, the size of the input/input layer, the size of the output/output layer, the size of the convolution layer, the size of the kernel, etc.
  • the two CNN structures (eg, 1D CNN and / or 2D CNN) described above in the base station and / or terminal are used in the channel estimation process in the base station and / or terminal It can be assumed that it is used for .
  • a base station and/or terminal may transmit a reference signal for channel estimation, and the base station and/or terminal may estimate a (wireless) channel based on the reference signal.
  • a resource region eg, resource elements, resource blocks, OFDM symbols, etc.
  • the proposed method of the present disclosure can be applied to other uses than channel estimation such as AI/ML algorithms and/or NN structures other than CNN structures and CSI feedback/positioning/beam management/channel prediction.
  • 'defining' in the proposed method below may mean that the base station / terminal can operate based on the proposed method based on rules agreed in advance between the base station and the terminal.
  • 'setting/instruction' means that the base station sets/instructs the terminal whether to operate the proposed method and / or parameters necessary for the proposed method based on L1 / L2 signaling, so that the base station / terminal makes a proposal. It may mean that it can operate based on the method.
  • 22 is a diagram illustrating a signaling procedure between a base station and a terminal according to an embodiment of the present disclosure.
  • FIG. 22 is for convenience of description and does not limit the scope of the present disclosure. Some step(s) illustrated in FIG. 22 may be omitted depending on circumstances and/or settings. Also, the order of some step(s) illustrated in FIG. 22 may be changed.
  • the base station and the terminal in FIG. 22 are just one example, and may be implemented as a device illustrated in FIG. 36 below.
  • the processor 102/202 of FIG. 36 can control transmission/reception of channels/signals/data/information using the transceiver 106/206, and transmits or receives channels/signals/information. It can also be controlled to store data/information or the like in the memory 104/204.
  • a base station in FIG. 22 may mean a network-level device.
  • the method proposed in the present disclosure may be referenced/used even if there is no separate mention.
  • FIG. 22 is shown using a DNN structure as an example, the signaling described in FIG. 22 may be extended and applied to sharing and applying information related to an AI/ML algorithm and/or a DNN/NN structure.
  • the terminal may transmit/report capability information of the corresponding terminal to the base station.
  • the terminal may report capability information related to an embodiment in the present disclosure.
  • the base station may perform (pre-) training on the DNN.
  • the base station may obtain information on parameter(s) required for the AI/ML algorithm and/or DNN/NN structure based on the learning process. For example, based on the corresponding process, the base station may acquire parameter(s) related to the embodiments in the present disclosure.
  • the base station may set/instruct information related to the AI/ML algorithm and/or DNN/NN structure to the terminal.
  • the base station may set/instruct the terminal with information on the parameter(s) acquired in step S010.
  • parameter(s) related to the embodiment in the present disclosure may be set/instructed to the terminal.
  • the base station may apply a DNN structure based on the AI/ML algorithm and/or DNN/NN structure shared with the terminal. For example, a base station may compress a DL channel and/or a reference signal (RS) by applying a DNN and transmit the compressed signal to the terminal.
  • RS reference signal
  • the base station may transmit the DL channel and/or RS to the terminal.
  • the base station may transmit the DL channel and/or RS to the terminal.
  • an AI/ML algorithm and/or a DNN/NN structure shared with the terminal may be applied.
  • the UE may apply the DNN shared by the base station to the DL channel and/or RS.
  • the terminal can decompress the DL channel and / or RS or estimate / predict the DL channel and / or RS based on the AI / ML algorithm and / or DNN / NN structure pre-configured by the base station there is.
  • the UE may tune DNN parameters based on the DL channel and/or RS. For example, the UE may perform training based on a DL channel and/or RS, and may adjust DNN parameters based on a learning result.
  • the UE may perform CSI reporting or transmit a UL channel and/or RS.
  • the terminal may perform CSI reporting on the result learned in step S035.
  • the UE may compress the CSI by applying a DNN.
  • the terminal may compress the UL channel and/or RS by applying the DNN and transmit the compressed UL channel to the base station.
  • the base station may apply the DNN to the CSI report, UL channel and/or RS.
  • the base station decompresses the CSI report, UL channel and / or RS, or the CSI report, UL channel and / or Alternatively, RS can be estimated/predicted.
  • the base station may tune DNN parameters based on the CSI report, UL channel and/or RS. For example, the base station may perform training based on a UL channel and/or RS, and may adjust DNN parameters based on a learning result. And/or, the base station may adjust the DNN parameter based on the reported value of the terminal.
  • the base station may configure / instruct the terminal to perform an update on parameter (s) for the AI / ML algorithm and / or DNN / NN structure.
  • the terminal may adjust/update the DNN parameters based on the update setting/instruction of the corresponding base station.
  • the terminal may adjust the DNN parameters. For example, as in the update setting/instruction in step S055, the terminal may adjust the DNN parameter based on the value(s) set/instructed by the base station based on L1/L2 signaling.
  • Embodiment 1 relates to a method in which a base station/terminal transmits a DMRS of the data transmission channel without data transmission for online learning.
  • FIG. 23(a) shows an example of a method in which a base station/terminal transmits data and a DMRS of the data transmission channel.
  • a PDSCH mapping type eg, PDSCH mapping type A
  • DMRS configuration type
  • the UE can estimate the radio channel of the slot and bandwidth corresponding to the PDSCH scheduled for the UE using the DMRS transmitted in the 2nd, 5th, 8th, and 11th OFDM symbols.
  • the terminal may utilize the estimated radio channel information in the decoding process of the scheduled PDSCH (that is, transmitted from the 2 nd OFDM symbol to the 13 th OFDM symbol).
  • 23(b) shows an example of a method in which a base station/terminal transmits a DMRS of the data transmission channel without data transmission (ie, without PDSCH transmission) for online learning.
  • the UE may update (or fine tune) the weights and biases required for the AI/ML algorithm using the DMRS.
  • the PDSCH mapping type eg, PDSCH mapping type A
  • the (DMRS) configuration type eg, configuration type 1
  • FIG. 23 shows examples of PDSCH and PDSCH DMRS
  • the present disclosure may be extended to data channels such as PBCH/PUSCH/PUCCH/PDCCH.
  • online learning may be required to update the weights and biases of the algorithms.
  • the accuracy and efficiency of learning can be increased by providing for learning the same RS pattern as the RS pattern to be used for inference during online learning.
  • unnecessary data transmission can be avoided, interference with data channels of other terminals can be reduced and resource efficiency can be increased.
  • DMRS transmission without data transmission is referred to as 'T (training)-DMRS'.
  • the T-DMRS is UE-specific / UE-group specific (UE-group specific) For example, it may have multicast)/cell-specific (eg, broadcast) characteristics.
  • the corresponding parameters are UE-specific/UE-group specific (eg, multicast)/cell-specific (eg, broadcast) to the UE. can be set/instructed for
  • Embodiment 1-1 is a method for instructing T-DMRS transmission from the base station to the terminal (ie, indication for UL RS transmission) and / or a method for requesting T-DMRS transmission from the terminal to the base station (ie, DL RS transmission request for).
  • the base station may instruct the terminal to transmit T-DMRS to update the weight and bias of the AI/ML algorithm for channel estimation.
  • the terminal may request T-DMRS transmission to the base station to update the weight and bias of the AI/ML algorithm for channel estimation.
  • the base station may transmit configuration information (or configuration values) related to T-DMRS transmission to the UE (before the UE requests the T-DMRS) (S105).
  • the terminal may request DL T-DMRS transmission to the base station based on the setting information (or setting value) and/or other request information (S110).
  • the base station may transmit DL T-DMRS to the terminal based on the request of the terminal and/or the setting information (or setting value) (115).
  • the base station may transmit configuration information (or configuration values) related to T-DMRS transmission to the UE (before instructing the UE to perform T-DMRS transmission) (S205).
  • the base station may instruct the terminal to transmit UL T-DMRS based on the configuration information and/or other indication information (S210).
  • the terminal may transmit UL T-DMRS to the base station based on the indication of the base station and/or the setting information (or setting value) (S215).
  • the BS/UE instructs/requests T-DMRS transmission only when additional RS transmission is required, so resources for RS transmission can be utilized more efficiently.
  • Embodiment 1-2 relates to a method of including (necessary) RS pattern information when instructing/requesting T-DMRS transmission.
  • information indicating/requesting RS pattern information may be included in the instruction/request for T-DMRS transmission.
  • information indicating/requesting RS pattern information may be transmitted/received separately from the instruction/request of T-DMRS transmission.
  • scramblingID0', or/and 'scramblingID1') the number of CDM groups, RS time/frequency density, port index, and the number of OFDM symbols.
  • a value for not transmitting a signal to an RE other than the RE through which the DMRS is transmitted ie, a muting/rate-matching value
  • a muting/rate-matching value is set/instructed/defined It can be.
  • the muting/rate-matching value can be set/instructed/defined as 2
  • the muting/rate-matching value can be set/instructed/defined as 3. there is.
  • the port index can be set/instructed/defined to assume a single port.
  • the port index may be set/instructed/defined as 1000 or the like.
  • a method of including 'RS pattern information' may be applied to a predefined DMRS pattern.
  • a value indicating a specific pattern (among DMRS patterns that can be received/transmitted) can be transmitted and received based on information (or value) configured in the UE for DL/UL DMRS transmission and reception.
  • a final DMRS pattern may be determined based on the table of FIG. 25 and information configured for the UE (eg, PDSCH mapping type, additional DMRS location, and I d ).
  • a specific DMRS pattern can be determined based on the I d value among all 4 DMRS patterns from p0 to p3.
  • a method of indicating/determining a DMRS pattern with a bitmap by defining a bit (eg, X bit) corresponding to each pattern is supported, and/or a combinatorial method capable of selecting one pattern among all possible patterns.
  • combinatorial method eg, log 2 (X) bits
  • An example of the number of bits required for each case of FIG. 25 may be shown in Table 6 below.
  • candidate patterns may be limited to some patterns among all patterns in order to reduce the number of bits.
  • a method for determining a candidate pattern based on a PDSCH mapping type preset for a UE and a location for an additional DMRS has been described, but regardless of this, the candidate pattern is defined for all possible patterns. It could be.
  • PDSCH mapping type A is configured for a UE
  • 7 DMRS patterns irrespective of configuration values related to positions of additional DMRSs may be defined as candidate patterns.
  • a DMRS pattern may be determined based on preset values for DMRS reception/transmission, such as 'dmrs-Type' and 'maxLength'.
  • 'RS pattern information' is used both when the base station instructs the terminal to transmit UL T-DMRS and/or when the terminal requests transmission of DL T-DMRS to the base station (information indicating/requesting T-DMRS) ) can be included.
  • RS pattern information is set/instructed based on L1/L2 signaling (before the T-DMRS indication/request and/or T-DMRS transmission), or RS pattern information is set to a fixed value can be predefined.
  • the configuration/instruction information is UE-specific/UE-group specific (eg, multicast)/cell-specific (eg, broadcast) characteristics.
  • the corresponding parameters are UE-specific/UE-group specific (eg, multicast)/cell-specific (eg, broadcast).
  • Embodiment 1-3 relates to a method for instructing/requesting transmission of only a RS pattern of a specific region among frequency or time domain RS patterns when T-DMRS transmission is instructed/requested by a terminal/base station.
  • the RS pattern may be transmitted as shown in FIG. 23(b).
  • a DMRS of a single OFDM symbol (or a group of OFDM symbols) can be transmitted. That is, 1 symbol of DMRS can be transmitted in a specific OFDM symbol.
  • a DMRS of a single RE may be transmitted. That is, DMRS of 1 RE may be transmitted in a specific RE.
  • an RS pattern composed of 1 RE (or group of REs) is repeatedly transmitted in a specific unit (eg, x (P)RB/RE/PRG) (x is a natural number of 1 or more) and/or It can be transmitted within a period (eg, scheduling/setting bandwidth, etc.).
  • the 'method of transmitting only the RS pattern of a specific area' can be applied both when the base station instructs the terminal to transmit UL T-DMRS and/or when the terminal requests transmission of DL T-DMRS to the base station.
  • a 'method of transmitting only the RS pattern of a specific area' may be set/instructed. there is.
  • 'a method of transmitting only an RS pattern of a specific area' may be predefined.
  • the setting/instruction information is terminal-specific/terminal-group specific (eg, multicast)/cell-specific (e.g., broadcast).
  • the corresponding parameters are UE-specific/UE-group specific (eg, multicast)/cell-specific (eg, broadcast).
  • weights and biases for channel estimation in the frequency domain and time domain can be defined separately from each other. Resources can be used more efficiently by separating and transmitting the RS pattern in the frequency domain and the RS pattern in the time domain according to channel conditions.
  • channel estimation in the frequency domain may be related to correlation in the frequency domain and average delay/delay spread characteristics of the channel.
  • channel estimation in the time domain may be related to correlation in the time domain and Doppler shift/Doppler spread characteristics of the channel.
  • Embodiments 1-4 relate to a method of including time/frequency resource domain information in which an RS (eg, DMRS) to indicate/request T-DMRS transmission is to be transmitted.
  • the T-DMRS transmission instruction/request may include time/frequency resource domain information in which RS is to be transmitted.
  • time/frequency resource domain information for transmitting RS may be transmitted/received.
  • the time/frequency resource domain information to which RS is to be transmitted includes cell (index), BWP (index), bandwidth, subcarrier (index), number of OFDM symbols, period (eg, periodic, semi-persistent) ), aperiodic), offset in periodicity, or duration.
  • time/frequency resource domain information for transmitting RS may be set/instructed.
  • time/frequency resource domain information for transmitting RS may be predefined.
  • the setting/instruction information is terminal-specific/terminal-group specific (eg, multicast)/cell- It may have specific (eg, broadcast) properties.
  • the corresponding parameters are UE-specific/UE-group specific (eg, multicast)/cell-specific (eg, broadcast).
  • Embodiment 1-5 relates to a method in which a base station defines a new DCI format and/or a new RNTI to indicate T-DMRS transmission to a terminal.
  • a UE configured/instructed to transmit uplink T-DMRS based on a new DCI format/new RNTI may transmit uplink T-DMRS.
  • the UE configured/instructed to transmit the downlink T-DMRS may receive the downlink T-DMRS.
  • a UE configured/instructed for downlink T-DMRS transmission based on the DCI format and/or RNTI and receiving the downlink T-DMRS accordingly DCI corresponding to the T-DMRS configuration/instruction ( For example, HARQ ACK for scheduling DCI) may not be separately transmitted to the base station.
  • DCI corresponding to the T-DMRS configuration/instruction For example, HARQ ACK for scheduling DCI
  • the description was based on the DMRS.
  • the method of the present disclosure may be extended and applied to DL/UL RS (eg, CSI-RS/SRS/TRS, etc.) other than DMRS. That is, the method of the present disclosure can be extended and applied as a method for transmitting (additional) RS for learning (of AI/ML algorithm and/or NN).
  • the RS for learning AI/ML algorithms may be named T-RS like the T-DMRS.
  • channels for transmitting data in the above-described embodiments eg, embodiment 1, embodiment 1-1, embodiment 1-2, embodiment 1-3, embodiment 1-4, embodiment 1-5, etc.
  • PDSCH / PUSCH has been described as, but is not limited thereto.
  • the method of the present disclosure may be extended and applied to channels (eg, PDCCH/PUCCH/PBCH/PRACH, etc.) transmitting data other than PDSCH/PUSCH.
  • the method of the present disclosure can be extended and applied to a method for transmitting (additional) RS for learning (of AI/ML algorithm and/or NN).
  • the aforementioned PDSCH/PUSCH/PDCCH/PUCCH, etc. may be referred to as data/control-less PxxCH (eg, data-less PDSCH/PUSCH, UCI-less PUCCH, DCI-less PDCCH, etc.).
  • UCI-less PUCCH For periodic RS transmission of data/control-less PxxCH, UCI-less PUCCH, DCI-less PDCCH, etc. may be considered.
  • a DMRS pattern may be differently defined for each format.
  • a PUCCH format eg, format 0/1
  • DMRS may not be separately transmitted/received.
  • a separate transmission method eg, a method of transmitting a PUCCH corresponding to the promised UCI bit
  • a method for specifying a transmission method of the PUCCH ie, a method for transmitting a predefined UCI PUCCH
  • a predefined UCI PUCCH may be separately defined.
  • a method of transmitting and receiving only DMRS through data/control-less PxxCH, as well as a data/control payload (eg, predefined DL/ A method in which UL-SCH, predefined data sequence, predefined DCI/UCI, etc.) is transmitted and received together with DMRS for learning may be applied.
  • DL-SCH less (DL-SCH less) SPS PDSCH transmission and/or UL-SCH less SPS PUSCH may be defined/configured/instructed.
  • SPS PDSCH/PUSCH transmission may be configured/instructed by RRC signaling or RRC signaling and DCI. If the SPS PDSCH/PUSCH is set/instructed by RRC signaling and DCI, activation/deactivation (or release) can be controlled by DCI, and resources can be viewed accordingly. can be used efficiently.
  • Embodiment 2 Establishing/instructing/defining a correspondence relationship between a reference signal for (online) training and a reference signal to which the result learned based on the (online) training is actually applied How to
  • the 'learning result based on (online) training' is about the variables of the AI / ML algorithm and / or NN (for example, about variables such as weight and bias) ), which may mean a result obtained/updated through learning.
  • a reference signal (RS) transmitted / received for (online) training is an online training RS (OT-RS), and an RS transmitted / received for inference is an I-RS (inference signal) RS).
  • OT-RS online training RS
  • I-RS inference signal
  • one and / or a plurality of correspondence relationships between base stations / terminals may be set / instructed / defined .
  • the correspondence between one OT-RS and one I-RS, the correspondence between one OT-RS and a plurality of I-RSs, or the correspondence between a plurality of OT-RSs and one I-RS can be set/instructed/defined for
  • RS eg, CSI-RS (channel state information-RS) / SRS (sounding RS) / DMRS (demodulation RS) / PTRS (phase tracking RS) such as OT-RS and I-RS /TRS (tracking RS)/, etc.
  • RS eg, CSI-RS (channel state information-RS) / SRS (sounding RS) / DMRS (demodulation RS) / PTRS (phase tracking RS) such as OT-RS and I-RS /TRS (tracking RS)/, etc.
  • PDSCH/PUSCH/PDCCH/PUCCH/PBCH physical broadcast channel
  • PRACH physical random access channel
  • 'correspondence' may mean a correspondence between a source RS/resource/physical channel and a target RS/resource/physical channel.
  • parameters/variables/characteristics eg, weight/bias, etc.
  • the base station/terminal may learn parameters/variables/characteristics necessary for performing the AI/ML algorithm and/or NN based on the source RS/resource/physical channel. That is, the base station / terminal can perform AL / ML model training using the source RS / resource / physical channel, and in the present disclosure, as an example of the source RS / resource / physical channel, for OT-RS Mainly described, but the present disclosure is not limited thereto.
  • transmission to perform inference based on AI/ML algorithm and/or NN and corresponding parameters/variables/characteristics may mean an RS/resource/physical channel that becomes.
  • the base station/terminal may perform inference based on the target RS/resource/physical channel and AI/ML algorithm and/or NN and corresponding parameters/variables/characteristics (eg, weight/bias, etc.).
  • the base station / terminal can derive an output value (ie, inference) by using the target RS / resource / physical channel as an input value of the AL / ML model, and in the present disclosure, the target RS / resource / physical channel I-RS is mainly described as an example, but the present disclosure is not limited thereto.
  • the 'parameter/variable/characteristic' is a parameter/variable/characteristic learned (eg, by online training) (in advance) from the source RS/resource/physical channel corresponding to the target RS/resource/physical channel. can mean
  • the terminal assumes that the DM-RS corresponding to the PDSCH received from the base station is the I-RS, and the parameters / variables of the AI / ML model learned in advance through the OT-RS Channel estimation corresponding to the PDSCH and DM-RS may be performed using (eg, weight, bias, etc.) and used for PDSCH decoding.
  • the parameters / variables of the AI / ML model learned in advance through the OT-RS Channel estimation corresponding to the PDSCH and DM-RS may be performed using (eg, weight, bias, etc.) and used for PDSCH decoding.
  • FIG. 27 illustrates signaling for setting/instructing/defining a correspondence relationship between a signal/channel for training of an AI/ML model and a signal/channel for inference according to an embodiment of the present disclosure.
  • FIG. 27(a) illustrates a case where the terminal makes a request to the base station
  • FIG. 27(b) illustrates a case where the base station instructs the terminal.
  • the base station may set a configuration value related to OT-RS transmission (through L1 and/or L2 signaling) to the terminal in advance before the terminal requests the OT-RS (S105).
  • the terminal may request DL OT-RS transmission from the base station by including the setting value (S105) and/or other request information (S110).
  • the 'setting value and/or other requested information' may include information related to an OT-RS resource/index (eg, OT-RS1 or OT-RS2, etc.) .
  • the base station may transmit the DL OT-RS to the terminal based on the request of the terminal (S110) and/or the preset value (S105) (S115).
  • information related to the index of the OT-RS may be set/instructed to the terminal before transmitting the OT-RS.
  • the terminal can perform (online) training for each resource / index of the OT-RS and independently store / configure / manage / use / apply the result.
  • the base station may configure (eg, configured grant) / instruction (eg, scheduling by DCI) PDSCH transmission to the terminal (S120).
  • instruction eg, scheduling by DCI
  • information related to resource/index of OT-RS corresponding to PDSCH and/or DMRS (ie, I-RS) of PDSCH may be set/instructed together or in advance. .
  • the base station may transmit the PDSCH to the terminal (S125).
  • the UE uses parameters/variables (e.g., weight, bias, etc.) previously learned through the PDSCH and/or the OT-RS corresponding to the DMRS (ie, I-RS) of the PDSCH.
  • parameters/variables e.g., weight, bias, etc.
  • the UE uses parameters/variables (e.g., weight, bias, etc.) previously learned through the PDSCH and/or the OT-RS corresponding to the DMRS (ie, I-RS) of the PDSCH.
  • channel estimation corresponding to the PDSCH and DMRS can be performed and used for PDSCH decoding.
  • the base station may set a configuration value related to OT-RS transmission to the terminal in advance (through L1 and/or L2 signaling) before instructing the terminal to transmit OT-RS (S205) .
  • the base station may instruct the terminal to transmit UL OT-RS by including the setting value (S205) and/or other indication information (S210).
  • the 'setting value and/or other indication information' may include information related to the resource/index of the OT-RS.
  • the terminal may transmit the UL OT-RS to the base station based on the indication of the base station (210) and / or a preset value (S105) (215).
  • the base station may set (eg, configured grant) / instruction (eg, scheduling by DCI) PUSCH transmission to the terminal (S220).
  • instruction eg, scheduling by DCI
  • PUSCH transmission information related to resource/index of OT-RS corresponding to PUSCH and/or DMRS (i.e., I-RS) of PUSCH may be set/instructed together or in advance. .
  • the terminal may transmit the PUSCH to the base station (S225).
  • the base station may perform (online) training for each resource / index of the OT-RS and independently store / configure / manage / use / apply the result. And/or the base station prior to receiving the PUSCH, parameters/variables (eg, weight, bias, etc. ) to perform channel estimation corresponding to the PUSCH and use it for PUSCH decoding.
  • parameters/variables eg, weight, bias, etc.
  • the relationship between RS/physical channel/resource for (online) training and RS/physical channel/resource for inference can be set/instructed/defined between base stations/terminals.
  • the base station / terminal can perform (online) training for each specific RS / physical channel, and can store / configure / manage / use / apply the learning results separately / independently from each other.
  • the base station/terminal transmits/receives the RS/physical channel/resource for actual data exchange
  • Embodiment 2-1 Physical channel/(Physical) data channel (eg, PDSCH/PUSCH/PDCCH/PUCCH/PBCH/PRACH, etc.) and/or RS (eg, CSI-RS/SRS/PTRS/DMRS) /TRS, etc.), DMRS (i.e., I-RS) corresponding to the corresponding physical channel/(Physical) data channel and/or corresponding physical channel/(physical) data channel and/or OT- corresponding to the corresponding RS Resource/index for RS can be set/instructed/defined.
  • RS e.e., CSI-RS/SRS/PTRS/DMRS
  • DMRS i.e., I-RS
  • the resource/index for the corresponding OT-RS may be set/instructed by higher layer signaling or dynamic signaling (eg, RRC/MAC CE/DCI).
  • DCI1 scheduling transmission of PDSCH1 may indicate scheduling information for PDSCH1 and corresponding OT-RS1 (ie, corresponding to PDSCH1 and/or DMRS for PDSCH1).
  • Example 1 A separate resource can be defined for OT-RS. And/or an identifier (ID) (/index) for identification of the resource may be assigned/set/instructed/defined. And/or, when transmitting the physical channel/(physical) data channel and/or RS, the DMRS (i.e., I-RS) corresponding to the corresponding physical channel/(physical) data channel and/or the corresponding physical channel/(physical) data channel ) and/or an ID (/index) for an OT-RS corresponding to the corresponding RS may be set/instructed/defined. 28 shows such an example.
  • I-RS i.e., I-RS
  • FIG. 28 illustrates a method of setting/instructing/defining a correspondence between a signal/channel for AI/ML model training and a signal/channel for inference according to an embodiment of the present disclosure.
  • a signal/channel for AI/ML model training is OT-RS
  • a signal/channel for inference is assumed to be PDSCH and/or DMRS for PDSCH.
  • higher layer/dynamic signaling for PDSCH and/or DMRS for PDSCH e.g., DCI/ OT-RS can be directly configured/instructed through MAC CE/RRC.
  • DCI/ OT-RS can be directly configured/instructed through MAC CE/RRC.
  • the proposed method of the present disclosure is not limited thereto, and in addition/alternatively, a method of defining/instructing an OT-RS based on the pool by defining a separate RS/resource pool is also possible. do.
  • Example 1 other RSs such as OT-RS and TRS/CSI-RS/SRS (or PDSCH/PUSCH/PDCCH/PUCCH/PBCH/PRACH, etc.) (or physical (data) channel/ (physical) data
  • RSs such as OT-RS and TRS/CSI-RS/SRS (or PDSCH/PUSCH/PDCCH/PUCCH/PBCH/PRACH, etc.) (or physical (data) channel/ (physical) data
  • RSs such as OT-RS and TRS/CSI-RS/SRS (or PDSCH/PUSCH/PDCCH/PUCCH/PBCH/PRACH, etc.) (or physical (data) channel/ (physical) data
  • 29 shows such an example.
  • 29 illustrates a method of setting/instructing/defining a correspondence relationship between a signal/channel for AI/ML model training and a signal/channel for inference according to an embodiment of the present disclosure.
  • a signal/channel for AI/ML model training is OT-RS
  • a signal/channel for inference is assumed to be PDSCH and/or DMRS for PDSCH.
  • a signal/channel for another purpose is assumed to be a TRS (tracking reference signal).
  • higher layer / dynamic signaling eg, DCI / MAC CE / RRC
  • RS/channels for other purposes can be directly set/instructed.
  • higher layer / dynamic signaling eg, DCI /MAC CE/RRC
  • OT-RS can be directly configured/instructed.
  • a signal/channel for another purpose is shown assuming that it is a TRS, but this is not intended to limit the proposed method.
  • a method of setting/instructing based on another RS/resource/physical channel and/or a pool of RS/resource/physical channels is also possible.
  • Example 1 by directly/explicitly defining the ID (/index/resource) corresponding to the OT-RS and directly/explicitly setting/instructing it to the I-RS, the OT-RS and the I-RS It may have a feature that a corresponding relationship between RSs can be set/instructed/defined. Based on these characteristics, when the proposed method is applied, the TRS function of the current standard can be replaced with the OT-RS without performing TRS transmission. According to the current standard, a QCL relationship can be formed as SSB>TRS>DMRS.
  • the correspondence relationship of the proposed method sets/instructs/defines the correspondence relationship between training RS/resource/physical channel and inference RS/resource/physical channel for AI/ML algorithm and/or NN application. that it can be done
  • Example 2 Correspondence between OT-RS and RS (or physical channel/ (physical) data channel) for other purposes such as TRS/CSI-RS/SRS (or PDSCH/PUSCH/PDCCH/PUCCH/PBCH/PRACH, etc.) can be set/instructed/defined.
  • TRS/CSI-RS/SRS or PDSCH/PUSCH/PDCCH/PUCCH/PBCH/PRACH, etc.
  • the DMRS i.e., I-RS
  • the DMRS i.e., I-RS
  • TRS/CSI-RS/SRS or PDSCH/PUSCH/PDCCH/PUCCH/PBCH/PRACH, etc.
  • ID (/index/resource) of RS may be set/instructed/defined.
  • the OT-RS when transmitting a physical channel/(physical) data channel and/or RS, as an RS for another purpose corresponding to the OT-RS is set/instructed, the OT-RS may be indirectly (implicitly) set/instructed. . 30 shows such an example.
  • FIG. 30 illustrates a method of setting/instructing/defining a correspondence between a signal/channel for AI/ML model training and a signal/channel for inference according to an embodiment of the present disclosure.
  • a signal/channel for AI/ML model training is OT-RS
  • a signal/channel for inference is assumed to be PDSCH and/or DMRS for PDSCH.
  • signals/channels for other purposes are assumed to be TRS.
  • OT-RS in order to establish/instruct an additional correspondence relationship between OT-RS and RS/channels for other purposes, higher layer/dynamic signaling (eg, DCI/MAC CE/RRC) for OT-RS is used.
  • DCI/MAC CE/RRC higher layer/dynamic signaling
  • RS/channels for other purposes can be directly set/instructed.
  • the OT-RS for the PDSCH and/or the DMRS for the PDSCH may be indirectly (implicitly) set/instructed.
  • a signal/channel for another purpose is shown assuming that it is a TRS, but this is not intended to limit the proposed method.
  • a method of setting/instructing based on another RS/resource/physical channel and/or a pool of RS/resource/physical channels is also possible.
  • OT-RS1 / OT-RS2 when a corresponding relationship with TRS1 / TRS2 is set / instructed / defined in a specific OT-RS, it can be referred to as OT-RS1 / OT-RS2, and the terminal can distinguish the two OT-RSs from each other there is. That is, the OT-RS for which a correspondence relationship with TRS1 is established/instructed (i.e., OT-RS-TRS1) may be referred to/regarded as OT-RS1, and the OT-RS with which a correspondence relationship with TRS2 is established/instructed (i.e., OT-RS-TRS1) OT-RS-TRS2) may be referred to / regarded as OT-RS2.
  • CORESET pool index CORESETPoolIndex
  • CORESET CORESET
  • SS set or group of SS sets
  • TCI state or group of TCI states
  • SRS resource indicator SRI: SRS resource indicator
  • spatial relationship information SpatialRelationInfo
  • PL RS pathloss reference signal
  • PathlossReferenceRS pathloss reference signal
  • BWP or group of BWPs
  • an OT-RS (OT-RS-TCI state1) with TCI state 1 set/indicated may be referred to/regarded as OT-RS1
  • an OT-RS with TCI state 2 set/indicated (OT-RS -TCI state2)
  • OT-RS2 an OT-RS with TCI state 2 set/indicated
  • Example 2 a method of setting/instructing the corresponding relationship/corresponding relationship proposed in the present disclosure by defining a new QCL type within the TCI state defined in the current standard may be considered. 31 shows an example of such a method.
  • 31 illustrates a method of setting/instructing/defining a correspondence relationship between a signal/channel for training of an AI/ML model and a signal/channel for inference according to an embodiment of the present disclosure.
  • the signal/channel for AI/ML model training is OT-RS
  • the signal/channel for inference is assumed to be PDSCH and/or DMRS for PDSCH.
  • the TCI state of QCL type-E may be set/instructed for each OT-RS.
  • the PDSCH for which the corresponding TCI state is set/instructed and/or the DMRS for the PDSCH may implicitly (indirectly) establish/instruct a correspondence relationship with the OT-RS for which the corresponding TCI state is set/instructed.
  • TCI state 1 of QCL type-E may be set/instructed for OT-RS 1.
  • TCI state 1 of QCL type-E is set/instructed for the PDSCH and/or the DMRS for the PDSCH
  • the correspondence relationship between the DMRS and OT-RS 1 for the corresponding PDSCH and/or PDSCH is implicitly (indirectly) Can be set/directed.
  • Example 2 it may have the following characteristics/advantages.
  • a QCL relationship can be formed as SSB>TRS>DMRS.
  • the QCL chain of the current standard OT-RS should be able to be added.
  • SSB>TRS>OT-RS>DMRS (for PDSCH) i.e., I-RS
  • I-RS I-RS
  • the terminal when receiving an actual inference RS / resource / physical channel (eg, PDSCH and DMRS of PDSCH, etc.) after learning with OT-RS, the terminal needs to use which OT-RS learning result Able to know. For example, when time/frequency correlations of channels corresponding to TRS1/2 are different, the UE can manage different learning results for TRS1/2. (eg ⁇ weight1, bias1 ⁇ for TRS1, ⁇ weight2, bias2 ⁇ for TRS 2).
  • the inference RS / resource / physical channel e.g, PDSCH and DMRS of PDSCH, etc.
  • a parameter combination suitable for the AI / ML algorithm and / or NN may be used for channel estimation.
  • Embodiment 2-2 The number of different OT-RSs that can be simultaneously supported by the UE may be reported to the base station.
  • the terminal may report the number of different OT-RSs that the terminal can simultaneously support to the base station using UE capability signaling or CSI feedback.
  • each OT-RS can perform different / independent learning and store / configure / manage / use / apply different / independent parameters / variables (weight, bias, etc.) (eg, ⁇ weight1, bias1 ⁇ for OT-RS1, ⁇ weight2, bias2 ⁇ for OT-RS2, ).
  • Embodiment 2-3 A separate tracking RS (TRS) may not be configured/instructed/transmitted to a terminal for which OT-RS reception is configured/instructed.
  • TRS tracking RS
  • the UE may not expect separate TRS transmission. And/or, when OT-RS transmission/reception is set/instructed, the terminal receives RS such as CSI-RS/SRS/DMRS and/or physical channel/resource such as PDSCH/PUSCH/PDCCH/PUCCH/PBCH/PRACH You may also not expect transmission of the TRS associated with (and/or you may expect no TRS transmission).
  • RS such as CSI-RS/SRS/DMRS and/or physical channel/resource such as PDSCH/PUSCH/PDCCH/PUCCH/PBCH/PRACH
  • the TRS may not be transmitted/received.
  • Example 2-4 When setting/instructing/defining the 'correspondence relationship' of Example 2 (or Example 2-1), the time axis (ie, time domain) correspondence relationship and/or the frequency axis (ie, frequency domain) corresponding relationship can be divided/independently set/instructed/defined.
  • the base station/terminal may set/instruct/define that a correspondence relationship between the OT-RS and the I-RS can be established only in the time axis (ie, time domain).
  • the time axis ie, time domain.
  • the time axis It can mean that only the properties/variables of can be referenced (and/or configured as input values on the time axis).
  • AI/ML algorithm for channel estimation and / or NN variables based on OT-RS and applying them to I-RS based on time domain data of I-RS and / or OT-RS
  • the AI/ML algorithm and/or NN may be performed based on the learned time axis characteristics/variables.
  • the base station/terminal may set/instruct/define that a correspondence relationship between the OT-RS and the I-RS can be established only in the frequency domain (ie, frequency domain).
  • the frequency domain ie, frequency domain
  • the frequency It can mean that only axis characteristics/variables can be referenced (and/or the input values are configured with the frequency axis).
  • frequency axis data of I-RS and/or OT-RS may be performed based on the learned frequency axis characteristics/variables.
  • 32 illustrates a signal/channel for training of an AI/ML model and a signal/channel for inference according to an embodiment of the present disclosure.
  • FIG. 32(a) shows an example of OT-RS
  • FIG. 32(b) / FIG. 32(c) / FIG. 32(d) shows an example of I-RS.
  • the case of the I-RS of FIG. 32(b) having the same RS pattern as the OT-RS of FIG. 32(a) is exemplified. Since the I-RS and the OT-RS have the same RS pattern, in this case, both time axis/frequency axis correspondence relationships between the OT-RS and the I-RS can be set/instructed. And, when inference is performed based on the I-RS, all results of the time axis/frequency axis (eg, weight, bias, etc.) learned based on the OT-RS can be utilized.
  • the time axis/frequency axis eg, weight, bias, etc.
  • the OT-RS of FIG. 32(a) has the same RS pattern in the frequency axis, but has a different RS pattern in the time axis.
  • the frequency axis correspondence relationship between the OT-RS and the I-RS may be set/instructed.
  • only frequency axis results among time axis/frequency axis results (eg, weight, bias, etc.) learned based on OT-RS may be used.
  • the OT-RS of FIG. 32(a) has the same RS pattern in the time axis, but has a different RS pattern in the frequency axis.
  • the time axis correspondence relationship between the OT-RS and the I-RS may be set/instructed.
  • time axis results among time axis/frequency axis results eg, weight, bias, etc.
  • each corresponding relationship is set/instructed based on time axis/frequency axis channel characteristics expected by the base station/terminal.
  • each corresponding relationship can be set/instructed according to the use/purpose of the base station/terminal.
  • the time axis correspondence relationship and/or the frequency axis correspondence relationship are mainly described, but this is not intended to limit the proposed method. Therefore, based on the proposed method, it is possible to additionally consider a method of applying only learning information of a specific time / frequency resource area unit other than the corresponding relationship to/instead of the time axis / frequency axis correspondence relationship at the time of inference. self-explanatory In this case, when setting / instructing the corresponding relationship between the OT-RS and the I-RS in the above embodiment 2, when performing inference based on the I-RS together with an index for identifying the OT-RS, the time referred to / The area / range of frequency resources can also be set / indicated.
  • Embodiment 2-4-1 For a single I-RS, a corresponding relationship with a plurality of OT-RSs may be set/instructed/defined.
  • the base station/terminal may set/instruct/define a correspondence relationship with a plurality of OT-RSs to a single I-RS.
  • 33 illustrates a signal/channel for training of an AI/ML model and a signal/channel for inference according to an embodiment of the present disclosure.
  • FIG. 33(a) and 33(b) show examples of OT-RS
  • FIG. 33(c) shows an example of I-RS.
  • a correspondence relationship with two OT-RSs of FIG. 33(a)/FIG. 33(b) may be set/instructed.
  • the corresponding relationship on the time axis for FIG. 33(a) and the corresponding relationship on the frequency axis for FIG. 33(b) may be set/instructed, respectively.
  • the base station / terminal performs inference based on the I-RS
  • the time axis / frequency axis results learned based on the OT-RS of FIG. 33 (a) eg, weight, bias, etc.
  • Only the results are available.
  • only frequency axis results may be utilized.
  • OT-RS Due to the difference between the RS pattern of OT-RS and I-RS, and/or the time of learning based on OT-RS and the time of receiving I-RS and performing inference, all information learned by OT-RS is When performing inference with -RS, there may be a situation where it cannot be applied. In this case, only learning information of a specific area unit (eg, time axis/frequency axis) can be applied to inference.
  • inference for the corresponding I-RS can be performed by combining learning results corresponding to the I-RS among a plurality of learning results. Based on this, the utilization/efficiency of OT-RS can be increased.
  • 34 is a diagram illustrating operations of a terminal for a method for transmitting and receiving a radio channel according to an embodiment of the present disclosure.
  • FIG. 34 the operation of the terminal based on the previously proposed methods (eg, any one or a combination of one or more in the embodiment 2, embodiment 2-1, embodiment 2-2, embodiment 2-4, and detailed embodiments) exemplify
  • the example of FIG. 34 is for convenience of description and does not limit the scope of the present disclosure. Some step(s) illustrated in FIG. 34 may be omitted depending on circumstances and/or settings.
  • the terminal in FIG. 34 is only one example, and may be implemented as a device illustrated in FIG. 36 below.
  • the processor 102/202 of FIG. 36 may control transmission and reception of channels/signals/data/information, etc. using the transceiver 106/206, and the channel/signal to be transmitted or received. /Data/information, etc. can also be controlled to be stored in the memory 104/204.
  • FIG. 34 may be processed by one or more processors 102 and 202 of FIG. 36, and the operation of FIG. 34 may be performed to drive at least one processor (eg, 102 and 202) It may be stored in a memory (eg, one or more memories 104 and 204 of FIG. 36) in the form of a command/program (eg, instruction or executable code).
  • a command/program eg, instruction or executable code
  • the terminal may receive setting information related to a plurality of training reference signals for AI/ML model training from the base station (S3401).
  • the training reference signal is not limited to only the reference signal, and as described above, the physical channel used for (online) training of the AI / ML model (and / or NN) (eg, PDSCH, PUSCH, PDCCH, PUCCH , PBCH, PRACH, etc.)/signal (eg, CSI-RS, SRS, PTRS, CMRS, TRS, etc.).
  • the physical channel used for (online) training of the AI / ML model (and / or NN) eg, PDSCH, PUSCH, PDCCH, PUCCH , PBCH, PRACH, etc.
  • signal eg, CSI-RS, SRS, PTRS, CMRS, TRS, etc.
  • the setting information may be configured in a format that further includes an indication that the corresponding physical channel / signal is used for training of the AI / ML model (and / or NN) in the existing setting information for each physical channel / signal,
  • setting information is configured separately by grouping only a plurality of training reference signals used for training of AI / ML models (and / or NN), and existing settings for physical channels / signals included in the plurality of training reference signals Information may be referenced.
  • the terminal receives a plurality of training reference signals from the base station or transmits a plurality of training reference signals to the base station (S3402).
  • the terminal when the terminal trains an AI / ML model (and / or NN) using the training reference signal and derives an inference result for the inference reference signal based on this, the terminal may receive a training reference signal from the base station.
  • the terminal may store training results for each of a plurality of training reference signals (or for a predetermined group), and may use an appropriate training result for each inference reference signal.
  • the terminal trains A reference signal may be transmitted to the base station.
  • the base station may store training results for each of a plurality of training reference signals (or for a predetermined group), and may use an appropriate training result for each inference reference signal.
  • the AI / ML model (and / or NN) is trained means that one or more parameters of the AI / ML model (and / or NN) are obtained or updated using one or more training reference signals, as described above.
  • the one or more parameters may include weights and biases of the AL/ML model.
  • Inference from an AI/ML model (and/or NN) may correspond to an inference result (eg, a channel estimation value) derived by applying the one or more parameters to the inference reference signal.
  • an inference result eg, a channel estimation value
  • the inference reference signal is illustrated as a DMRS for PDSCH / PUSCH, but the present disclosure is not limited thereto, and the inference reference signal, like the training reference signal, is an AI / ML model (and / Or a physical channel (eg, PDSCH, PUSCH, PDCCH, PUCCH, PBCH, PRACH, etc.) / signal (eg, CSI-RS, SRS, PTRS, CMRS, TRS, etc.) used for inference of NN) can include all
  • the terminal receives control information for scheduling a physical channel (eg, PDSCH or PUSCH) from the base station (S3403).
  • a physical channel eg, PDSCH or PUSCH
  • control information may correspond to downlink control information (DCI) and may be transmitted through a PDCCH.
  • control information may correspond to MAC CE, and in this case, may be transmitted through PDSCH.
  • the terminal transmits or receives a physical channel based on the control information (ie, receives a PDSCH or transmits a PUSCH) (S3404).
  • the UE may receive the PDSCH based on inference derived for the DMRS of the PDSCH from an AI/ML model trained using one or more training reference signals.
  • one or more training reference signals may be identified by information on the one or more training reference signals corresponding to the DMRS included in the setting information or the control information.
  • the terminal may request transmission of a training reference signal from the base station as shown in FIG. 27(a).
  • the base station receives the PUSCH based on inference derived for the DMRS of the PUSCH from an AI / ML model (and / or NN) trained using one or more training reference signals can do.
  • one or more training reference signals may be identified by information on the one or more training reference signals corresponding to the DMRS included in the setting information or the control information.
  • the base station may instruct the terminal to transmit a training reference signal to the base station as shown in FIG. 27(b).
  • the information on the one or more training reference signals in the setting information or the control information may include at least one of an index and a resource for identifying the one or more training reference signals.
  • the setting information or the control information may include information about a correspondence between the plurality of training reference signals and other reference signals other than the speculation reference signal (eg, DMRS).
  • the setting information or the control information may include information about a correspondence between the plurality of training reference signals and other reference signals other than the speculation reference signal (eg, DMRS).
  • DMRS speculation reference signal
  • the setting information or the control information may include information about a correspondence between the plurality of training reference signals and other reference signals other than the speculation reference signal (eg, DMRS).
  • the speculation reference signal eg, DMRS
  • the speculation reference signal eg, DMRS
  • the one or more training reference signals corresponding to may be determined.
  • the corresponding relationship is CORESET (or group of CORESETs), SS set (or group of SSR sets), TCI state (or group of TCI states), SRI (or group of SRIs), spatial relation info ( or a group of spatial relationship information), a PL RS (or a group of PL RSs), and a BWP (or a group of BWPs).
  • the terminal may report to the base station the number of different training reference signals that the terminal can simultaneously support.
  • the configuration information or the control information includes information on the one or more training reference signals corresponding to the speculation reference signal (eg, DMRS), the physical channel (eg, PDSCH, PUSCH) related TRS may not be transmitted.
  • the speculation reference signal eg, DMRS
  • the physical channel eg, PDSCH, PUSCH
  • the information on the one or more training reference signals may be separately set for the time domain and the frequency domain. That is, one training reference signal may correspond to a specific inference reference signal only in the time domain, and another training reference signal may correspond only to the frequency domain.
  • the setting information or the control information may include information on the one or more training reference signals in at least one of a time domain and a frequency domain.
  • the setting information or the control information may further include information on a specific resource region used for the inference with respect to the one or more training reference signals.
  • the terminal / base station can derive inference from the trained AI / ML model (and / or NN) using only training reference signals (resources) included in (belonging to) the specific resource region for inference.
  • 35 is a diagram illustrating an operation of a base station for a method for transmitting and receiving a radio channel according to an embodiment of the present disclosure.
  • FIG. 35 the operation of the base station based on the previously proposed methods (eg, any one or a combination of one or more in the embodiment 2, embodiment 2-1, embodiment 2-2, embodiment 2-4, and detailed embodiments) exemplify
  • the example of FIG. 35 is for convenience of description and does not limit the scope of the present disclosure. Some step(s) illustrated in FIG. 35 may be omitted depending on circumstances and/or settings.
  • the base station in FIG. 35 is just one example, and may be implemented as the device illustrated in FIG. 36 below.
  • the processor 102/202 of FIG. 36 may control transmission and reception of channels/signals/data/information, etc. using the transceiver 106/206, and the channel/signal to be transmitted or received. /Data/information, etc. can also be controlled to be stored in the memory 104/204.
  • FIG. 35 may be processed by one or more processors 102 and 202 of FIG. 36, and the operation of FIG. 35 may be performed to drive at least one processor (eg, 102 and 202) of FIG. It may be stored in a memory (eg, one or more memories 104 and 204 of FIG. 36) in the form of a command/program (eg, instruction or executable code).
  • a command/program eg, instruction or executable code
  • the base station may transmit setting information related to a plurality of training reference signals for AI/ML model training to the terminal (S3501).
  • the training reference signal is not limited to only the reference signal, and as described above, the physical channel used for (online) training of the AI / ML model (and / or NN) (eg, PDSCH, PUSCH, PDCCH, PUCCH , PBCH, PRACH, etc.)/signal (eg, CSI-RS, SRS, PTRS, CMRS, TRS, etc.).
  • the physical channel used for (online) training of the AI / ML model (and / or NN) eg, PDSCH, PUSCH, PDCCH, PUCCH , PBCH, PRACH, etc.
  • signal eg, CSI-RS, SRS, PTRS, CMRS, TRS, etc.
  • the setting information may be configured in a format that further includes an indication that the corresponding physical channel / signal is used for training of the AI / ML model (and / or NN) in the existing setting information for each physical channel / signal,
  • setting information is configured separately by grouping only a plurality of training reference signals used for training of AI / ML models (and / or NN), and existing settings for physical channels / signals included in the plurality of training reference signals Information may be referenced.
  • the base station receives a plurality of training reference signals from the base station or transmits a plurality of training reference signals to the terminal (S3502).
  • the base station may transmit a training reference signal to the terminal.
  • the base station may store training results for each of a plurality of training reference signals (or for a predetermined group), and may use an appropriate training result for each inference reference signal.
  • the base station when the base station trains the AI/ML model (and/or NN) using the training reference signal and derives an inference result for the inference reference signal based on this training, the base station A training reference signal may be received from
  • the terminal may store training results for each of a plurality of training reference signals (or for a predetermined group), and may use an appropriate training result for each inference reference signal.
  • the AI / ML model (and / or NN) is trained means that one or more parameters of the AI / ML model (and / or NN) are obtained or updated using one or more training reference signals, as described above.
  • the one or more parameters may include weights and biases of the AL/ML model.
  • Inference from an AI/ML model (and/or NN) may correspond to an inference result (eg, a channel estimation value) derived by applying the one or more parameters to the inference reference signal.
  • an inference result eg, a channel estimation value
  • the inference reference signal is illustrated as a DMRS for PDSCH / PUSCH, but the present disclosure is not limited thereto, and the inference reference signal, like the training reference signal, is an AI / ML model (and / Or a physical channel (eg, PDSCH, PUSCH, PDCCH, PUCCH, PBCH, PRACH, etc.) / signal (eg, CSI-RS, SRS, PTRS, CMRS, TRS, etc.) used for inference of NN) can include all
  • the base station transmits control information for scheduling a physical channel (eg, PDSCH or PUSCH) to the terminal (S3503).
  • a physical channel eg, PDSCH or PUSCH
  • control information may correspond to downlink control information (DCI) and may be transmitted through a PDCCH.
  • control information may correspond to MAC CE, and in this case, may be transmitted through PDSCH.
  • the base station transmits or receives a physical channel (ie, transmits a PDSCH or receives a PUSCH) based on the control information (S3504).
  • the UE when transmitting the PDSCH as a base station, the UE may receive the PDSCH based on inference derived for the DMRS of the PDSCH from an AI/ML model trained using one or more training reference signals.
  • one or more training reference signals may be identified by information on the one or more training reference signals corresponding to the DMRS included in the setting information or the control information.
  • the base station may receive a request for transmission of a training reference signal from the terminal as shown in FIG. 27(a).
  • the base station when the base station receives the PUSCH, the base station receives the PUSCH based on inference derived for the DMRS of the PUSCH from an AI / ML model (and / or NN) trained using one or more training reference signals can do.
  • one or more training reference signals may be identified by information on the one or more training reference signals corresponding to the DMRS included in the setting information or the control information.
  • the base station may instruct the terminal to transmit a training reference signal to the base station as shown in FIG. 27(b).
  • the information on the one or more training reference signals in the setting information or the control information may include at least one of an index and a resource for identifying the one or more training reference signals.
  • the setting information or the control information may include information about a correspondence between the plurality of training reference signals and other reference signals other than the speculation reference signal (eg, DMRS).
  • the setting information or the control information may include information about a correspondence between the plurality of training reference signals and other reference signals other than the speculation reference signal (eg, DMRS).
  • DMRS speculation reference signal
  • the setting information or the control information may include information about a correspondence between the plurality of training reference signals and other reference signals other than the speculation reference signal (eg, DMRS).
  • the speculation reference signal eg, DMRS
  • the speculation reference signal eg, DMRS
  • the one or more training reference signals corresponding to may be determined.
  • the corresponding relationship is CORESET (or group of CORESETs), SS set (or group of SSR sets), TCI state (or group of TCI states), SRI (or group of SRIs), spatial relation info ( or a group of spatial relationship information), a PL RS (or a group of PL RSs), and a BWP (or a group of BWPs).
  • the base station can receive a report from the terminal of the number of different training reference signals that the terminal can simultaneously support.
  • the configuration information or the control information includes information on the one or more training reference signals corresponding to the speculation reference signal (eg, DMRS), the physical channel (eg, PDSCH, PUSCH) related TRS may not be transmitted.
  • the speculation reference signal eg, DMRS
  • the physical channel eg, PDSCH, PUSCH
  • the information on the one or more training reference signals may be separately set for the time domain and the frequency domain. That is, one training reference signal may correspond to a specific inference reference signal only in the time domain, and another training reference signal may correspond only to the frequency domain.
  • the setting information or the control information may include information on the one or more training reference signals in at least one of a time domain and a frequency domain.
  • the setting information or the control information may further include information on a specific resource region used for the inference with respect to the one or more training reference signals.
  • the terminal / base station can derive inference from the trained AI / ML model (and / or NN) using only training reference signals (resources) included in (belonging to) the specific resource region for inference.
  • 36 is a diagram illustrating a block configuration of a wireless communication device according to an embodiment of the present disclosure.
  • the first wireless device 100 and the second wireless device 200 may transmit and receive radio signals through various radio access technologies (eg, LTE and NR).
  • various radio access technologies eg, LTE and NR.
  • the first wireless device 100 includes one or more processors 102 and one or more memories 104, and may additionally include one or more transceivers 106 and/or one or more antennas 108.
  • the processor 102 controls the memory 104 and/or the transceiver 106 and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or flowcharts of operations set forth in this disclosure.
  • the processor 102 may process information in the memory 104 to generate first information/signal, and transmit a radio signal including the first information/signal through the transceiver 106.
  • the processor 102 may receive a radio signal including the second information/signal through the transceiver 106, and then store information obtained from signal processing of the second information/signal in the memory 104.
  • the memory 104 may be connected to the processor 102 and may store various information related to the operation of the processor 102 .
  • memory 104 may perform some or all of the processes controlled by processor 102, or instructions for performing the descriptions, functions, procedures, suggestions, methods, and/or flowcharts of operations disclosed in this disclosure. It may store software codes including them.
  • the processor 102 and memory 104 may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
  • the transceiver 106 may be coupled to the processor 102 and may transmit and/or receive wireless signals via one or more antennas 108 .
  • the transceiver 106 may include a transmitter and/or a receiver.
  • the transceiver 106 may be used interchangeably with a radio frequency (RF) unit.
  • a wireless device may mean a communication modem/circuit/chip.
  • the second wireless device 200 includes one or more processors 202, one or more memories 204, and may further include one or more transceivers 206 and/or one or more antennas 208.
  • the processor 202 controls the memory 204 and/or the transceiver 206 and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or flowcharts of operations set forth in this disclosure.
  • the processor 202 may process information in the memory 204 to generate third information/signal, and transmit a radio signal including the third information/signal through the transceiver 206.
  • the processor 202 may receive a radio signal including the fourth information/signal through the transceiver 206 and store information obtained from signal processing of the fourth information/signal in the memory 204 .
  • the memory 204 may be connected to the processor 202 and may store various information related to the operation of the processor 202 .
  • memory 204 may perform some or all of the processes controlled by processor 202, or instructions for performing the descriptions, functions, procedures, suggestions, methods, and/or flowcharts of operations disclosed in this disclosure. It may store software codes including them.
  • the processor 202 and memory 204 may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
  • the transceiver 206 may be coupled to the processor 202 and may transmit and/or receive wireless signals via one or more antennas 208 .
  • the transceiver 206 may include a transmitter and/or a receiver.
  • the transceiver 206 may be used interchangeably with an RF unit.
  • a wireless device may mean a communication modem/circuit/chip.
  • one or more protocol layers may be implemented by one or more processors 102, 202.
  • one or more processors 102, 202 may implement one or more layers (eg, functional layers such as PHY, MAC, RLC, PDCP, RRC, SDAP).
  • One or more processors (102, 202) may generate one or more Protocol Data Units (PDUs) and/or one or more Service Data Units (SDUs) in accordance with the descriptions, functions, procedures, proposals, methods and/or operational flow charts disclosed herein.
  • PDUs Protocol Data Units
  • SDUs Service Data Units
  • processors 102, 202 may generate messages, control information, data or information in accordance with the descriptions, functions, procedures, proposals, methods and/or operational flow diagrams set forth in this disclosure.
  • One or more processors 102, 202 may process PDUs, SDUs, messages, control information, data or signals containing information (e.g., baseband signals) according to the functions, procedures, proposals and/or methods disclosed herein. generated and provided to one or more transceivers (106, 206).
  • One or more processors 102, 202 may receive signals (e.g., baseband signals) from one or more transceivers 106, 206, the descriptions, functions, procedures, suggestions, methods and/or described in this disclosure.
  • PDUs, SDUs, messages, control information, data or information may be acquired according to the operational flowcharts.
  • One or more processors 102, 202 may be referred to as a controller, microcontroller, microprocessor or microcomputer.
  • One or more processors 102, 202 may be implemented by hardware, firmware, software, or a combination thereof.
  • ASICs Application Specific Integrated Circuits
  • DSPs Digital Signal Processors
  • DSPDs Digital Signal Processing Devices
  • PLDs Programmable Logic Devices
  • FPGAs Field Programmable Gate Arrays
  • the descriptions, functions, procedures, proposals, methods and/or operational flow charts disclosed in this disclosure may be implemented using firmware or software, and the firmware or software may be implemented to include modules, procedures, functions, and the like.
  • Firmware or software configured to perform the descriptions, functions, procedures, suggestions, methods and/or operational flow diagrams disclosed in this disclosure may be included in one or more processors (102, 202) or stored in one or more memories (104, 204). It can be driven by the above processors 102 and 202.
  • the descriptions, functions, procedures, suggestions, methods and/or operational flow diagrams disclosed in this disclosure may be implemented using firmware or software in the form of codes, instructions and/or sets of instructions.
  • One or more memories 104, 204 may be coupled with one or more processors 102, 202 and may store various types of data, signals, messages, information, programs, codes, instructions and/or instructions.
  • One or more memories 104, 204 may be comprised of ROM, RAM, EPROM, flash memory, hard drives, registers, cache memory, computer readable storage media, and/or combinations thereof.
  • One or more memories 104, 204 may be located internally and/or external to one or more processors 102, 202. Additionally, one or more memories 104, 204 may be coupled to one or more processors 102, 202 through various technologies, such as wired or wireless connections.
  • One or more transceivers 106, 206 may transmit user data, control information, radio signals/channels, etc., as referred to in the methods and/or operational flow charts of this disclosure, to one or more other devices.
  • the one or more transceivers 106, 206 may receive user data, control information, radio signals/channels, etc. referred to in the descriptions, functions, procedures, proposals, methods and/or operational flow charts, etc. disclosed in this disclosure from one or more other devices. there is.
  • one or more transceivers 106 and 206 may be connected to one or more processors 102 and 202 and transmit and receive wireless signals.
  • one or more processors 102, 202 may control one or more transceivers 106, 206 to transmit user data, control information, or radio signals to one or more other devices. Additionally, one or more processors 102, 202 may control one or more transceivers 106, 206 to receive user data, control information, or radio signals from one or more other devices. In addition, one or more transceivers 106, 206 may be coupled with one or more antennas 108, 208, and one or more transceivers 106, 206 may be connected to one or more antennas 108, 208, as described herein. , procedures, proposals, methods and / or operation flowcharts, etc. can be set to transmit and receive user data, control information, radio signals / channels, etc.
  • one or more antennas may be a plurality of physical antennas or a plurality of logical antennas (eg, antenna ports).
  • One or more transceivers (106, 206) convert the received radio signals/channels from RF band signals in order to process the received user data, control information, radio signals/channels, etc. using one or more processors (102, 202). It can be converted into a baseband signal.
  • One or more transceivers 106 and 206 may convert user data, control information, and radio signals/channels processed by one or more processors 102 and 202 from baseband signals to RF band signals.
  • one or more of the transceivers 106, 206 may include (analog) oscillators and/or filters.
  • the scope of the present disclosure is software or machine-executable instructions (eg, operating systems, applications, firmware, programs, etc.) that cause operations in accordance with the methods of various embodiments to be executed on a device or computer, and such software or It includes a non-transitory computer-readable medium in which instructions and the like are stored and executable on a device or computer. Instructions that may be used to program a processing system that performs the features described in this disclosure may be stored on/in a storage medium or computer-readable storage medium and may be viewed using a computer program product that includes such storage medium. Features described in the disclosure may be implemented.
  • the storage medium may include, but is not limited to, high speed random access memory such as DRAM, SRAM, DDR RAM or other random access solid state memory devices, one or more magnetic disk storage devices, optical disk storage devices, flash memory devices, or It may include non-volatile memory, such as other non-volatile solid state storage devices.
  • the memory optionally includes one or more storage devices located remotely from the processor(s).
  • the memory, or alternatively, the non-volatile memory device(s) within the memory includes non-transitory computer readable storage media.
  • Features described in this disclosure may be stored on any one of the machine readable media to control hardware of a processing system and to allow the processing system to interact with other mechanisms that utilize results according to embodiments of the present disclosure. It may be integrated into software and/or firmware.
  • Such software or firmware may include, but is not limited to, application code, device drivers, operating systems, and execution environments/containers.
  • the wireless communication technology implemented in the wireless devices 100 and 200 of the present disclosure may include Narrowband Internet of Things for low power communication as well as LTE, NR, and 6G.
  • NB-IoT technology may be an example of LPWAN (Low Power Wide Area Network) technology, and may be implemented in standards such as LTE Cat NB1 and / or LTE Cat NB2. no.
  • the wireless communication technology implemented in the wireless devices 100 and 200 of the present disclosure may perform communication based on LTE-M technology.
  • LTE-M technology may be an example of LPWAN technology, and may be called various names such as eMTC (enhanced machine type communication).
  • LTE-M technologies are 1) LTE CAT 0, 2) LTE Cat M1, 3) LTE Cat M2, 4) LTE non-BL (non-Bandwidth Limited), 5) LTE-MTC, 6) LTE Machine Type Communication, and/or 7) It may be implemented in at least one of various standards such as LTE M, and is not limited to the above-mentioned names.
  • the wireless communication technology implemented in the wireless devices 100 and 200 of the present disclosure includes at least one of ZigBee, Bluetooth, and Low Power Wide Area Network (LPWAN) considering low power communication. It may include any one, and is not limited to the above-mentioned names.
  • ZigBee technology can generate personal area networks (PANs) related to small/low-power digital communication based on various standards such as IEEE 802.15.4, and can be called various names.
  • PANs personal area networks
  • the method proposed in the present disclosure has been described focusing on examples applied to 3GPP LTE/LTE-A and 5G systems, but can be applied to various wireless communication systems other than 3GPP LTE/LTE-A and 5G systems.

Abstract

무선 통신 시스템에서 물리 채널 송수신 방법 및 장치가 개시된다. 본 개시의 일 실시예에 따른 PDSCH(physical downlink shared channel)을 수신하는 방법은, 기지국으로부터 AI(Artificial Intelligence)/ML(Machine learning) 모델의 훈련(training)을 위한 복수의 훈련 참조 신호와 관련된 설정 정보를 수신하는 단계; 상기 기지국으로부터 상기 복수의 훈련 참조 신호를 수신하는 단계; 상기 기지국으로부터 상기 PDSCH를 스케줄링하는 제어 정보를 수신하는 단계; 및 상기 복수의 훈련 참조 신호 중 하나 이상의 훈련 참조 신호를 이용하여 훈련된 AI/ML 모델로부터 상기 PDSCH의 DMRS(demodulation reference signal)에 대해 도출된 추론에 기반하여 상기 기지국으로부터 상기 PDSCH를 수신하는 단계를 포함할 수 있다.

Description

무선 통신 시스템에서 물리 채널 송수신 방법 및 장치
본 개시는 무선 통신 시스템에 관한 것으로서, 보다 상세하게 무선 통신 시스템에서 물리 채널/신호를 송수신하는 방법 및 장치에 관한 것이다.
이동 통신 시스템은 사용자의 활동성을 보장하면서 음성 서비스를 제공하기 위해 개발되었다. 그러나 이동통신 시스템은 음성뿐 아니라 데이터 서비스까지 영역을 확장하였으며, 현재에는 폭발적인 트래픽의 증가로 인하여 자원의 부족 현상이 야기되고 사용자들이 보다 고속의 서비스에 대한 요구하므로, 보다 발전된 이동 통신 시스템이 요구되고 있다.
차세대 이동 통신 시스템의 요구 조건은 크게 폭발적인 데이터 트래픽의 수용, 사용자 당 전송률의 획기적인 증가, 대폭 증가된 연결 디바이스 개수의 수용, 매우 낮은 단대단 지연(End-to-End Latency), 고에너지 효율을 지원할 수 있어야 한다. 이를 위하여 이중 연결성(Dual Connectivity), 대규모 다중 입출력(Massive MIMO: Massive Multiple Input Multiple Output), 전이중(In-band Full Duplex), 비직교 다중접속(NOMA: Non-Orthogonal Multiple Access), 초광대역(Super wideband) 지원, 단말 네트워킹(Device Networking) 등 다양한 기술들이 연구되고 있다.
본 개시의 기술적 과제는 물리 채널(예를 들어, PDSCH(physical downlink shared channel), PUSCH(physical uplink shared channel), PDCCH(physical downlink control channel), PUCCH(physical uplink control channel), PBCH(physical broadcast channel), PRACH(physical random access channel) 등)/물리 신호(예를 들어, 채널 상태 정보 참조 신호(channel state information reference signal), 사운딩 참조 신호(sounding reference signal), 위상 트래킹 참조 신호(phase tracking reference signal), 복조 참조 신호(demodulation reference signal), 트래킹 참조 신호(tracking reference signal) 등)를 송수신하는 방법 및 장치를 제공하는 것이다.
또한, 본 개시의 추가적인 기술적 과제는 AI(Artificial Intelligence)/ML(Machine learning) 모델의 추론(inference) 결과를 이용하여 물리 채널/신호를 송수신하는 방법 및 장치를 제공하는 것이다.
또한, 본 개시의 추가적인 기술적 과제는 AI/ML 모델 훈련을 위한 물리 채널/신호와 AI/ML 추론을 위한 물리 채널/신호 간의 대응 관계를 설정/지시하는 방법 및 장치를 제공하는 것이다.
본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 개시의 일 양상에 따른 무선 통신 시스템에서 PDSCH(physical downlink shared channel)을 수신하는 방법은: 기지국으로부터 AI(Artificial Intelligence)/ML(Machine learning) 모델의 훈련(training)을 위한 복수의 훈련 참조 신호와 관련된 설정 정보를 수신하는 단계; 상기 기지국으로부터 상기 복수의 훈련 참조 신호를 수신하는 단계; 상기 기지국으로부터 상기 PDSCH를 스케줄링하는 제어 정보를 수신하는 단계; 및 상기 복수의 훈련 참조 신호 중 하나 이상의 훈련 참조 신호를 이용하여 훈련된 AI/ML 모델로부터 상기 PDSCH의 DMRS(demodulation reference signal)에 대해 도출된 추론에 기반하여 상기 기지국으로부터 상기 PDSCH를 수신하는 단계를 포함할 수 있다. 상기 설정 정보 또는 상기 제어 정보는 상기 DMRS와 대응되는 상기 하나 이상의 훈련 참조 신호에 대한 정보를 포함할 수 있다.
본 개시의 추가적인 양상에 따른 PUSCH(physical uplink shared channel)을 수신하는 방법은: 단말에게 AI(Artificial Intelligence)/ML(Machine learning) 모델의 훈련(training)을 위한 복수의 훈련 참조 신호와 관련된 설정 정보를 전송하는 단계; 상기 단말로부터 상기 복수의 훈련 참조 신호를 수신하는 단계; 상기 단말에게 상기 PUSCH를 스케줄링하는 제어 정보를 전송하는 단계; 및 상기 복수의 훈련 참조 신호 중 하나 이상의 훈련 참조 신호를 이용하여 훈련된 AI/ML 모델로부터 상기 PUSCH의 DMRS(demodulation reference signal)에 대해 도출된 추론에 기반하여 상기 단말로부터 상기 PUSCH를 수신하는 단계를 포함할 수 있다. 상기 설정 정보 또는 상기 제어 정보는 상기 DMRS와 대응되는 상기 하나 이상의 훈련 참조 신호에 대한 정보를 포함할 수 있다.
본 개시의 실시예에 따르면, 훈련을 위한 특정 물리 채널/신호 별로 AI/ML 모델의 훈련을 수행할 수 있으며, 그에 대한 학습 결과를 서로 구분하여/ 독립적으로 저장/구성/관리/사용/적용할 수 있다.
본 개시의 실시예에 따르면, 추론을 위한 특정 물리 채널/신호에 대응하는 훈련을 위한 물리 채널/신호를 설정/지시/정의함에 따라, 사전에 학습한 결과를 추론을 위한 특정 물리 채널/신호에 적절하게 사용/적용할 수 있다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 개시에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 개시에 대한 실시예를 제공하고, 상세한 설명과 함께 본 개시의 기술적 특징을 설명한다.
도 1은 본 개시가 적용될 수 있는 무선 통신 시스템의 구조를 예시한다.
도 2는 본 개시가 적용될 수 있는 무선 통신 시스템에서 프레임 구조를 예시한다.
도 3은 본 개시가 적용될 수 있는 무선 통신 시스템에서 자원 그리드(resource grid)를 예시한다.
도 4는 본 개시가 적용될 수 있는 무선 통신 시스템에서 물리 자원 블록(physical resource block)을 예시한다.
도 5는 본 개시가 적용될 수 있는 무선 통신 시스템에서 슬롯 구조를 예시한다.
도 6은 본 개시가 적용될 수 있는 무선 통신 시스템에서 이용되는 물리 채널들 및 이들을 이용한 일반적인 신호 송수신 방법을 예시한다.
도 7은 인공지능의 분류를 예시한다.
도 8은 순방향 신경망(Feed-Forward Neural Network)을 예시한다.
도 9는 순환 신경망(Recurrent Neural Network)을 예시한다.
도 10은 컨볼루션 신경망(Convolutional Neural Network)을 예시한다.
도 11은 오토 인코더(Auto encoder)를 예시한다.
도 12는 AI 동작을 위한 기능적 프레임워크(functional framework)를 예시한다.
도 13은 분할 AI 추론을 예시하는 도면이다.
도 14는 무선 통신 시스템에서 기능적 프레임워크(functional framework)의 적용을 예시한다.
도 15는 무선 통신 시스템에서 기능적 프레임워크(functional framework)의 적용을 예시한다.
도 16은 무선 통신 시스템에서 기능적 프레임워크(functional framework)의 적용을 예시한다.
도 17은 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 위한 1D CNN 구조를 예시한다.
도 18은 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 위한 1D CNN 구조에서의 출력 값 추정 방식을 예시한다.
도 19는 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 위한 2D CNN 구조를 예시한다.
도 20은 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 위한 2D CNN 구조에서의 출력 값 추정 방식을 예시한다.
도 21은 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 CNN 구조에서의 패딩 및 풀링을 예시한다.
도 22는 본 개시의 일 실시예에 따른 기지국과 단말 간의 시그널링 절차를 예시하는 도면이다.
도 23은 본 개시의 일 실시예에 따른, 데이터 없이 DMRS를 송수신하는 방법을 설명하기 위한 도면이다.
도 24는 본 개시의 일 실시예에 따른, T(training)-DMRS를 송수신 방법에 대한 기지국과 단말 간의 시그널링 절차를 예시하는 도면이다.
도 25는 본 개시의 일 실시예에 따른, DMRS 패턴을 결정하기 위한 방법을 설명하기 위한 도면이다.
도 26은 본 개시의 일 실시예에 따른, 시간 영역 또는 주파수 영역에서 DMRS를 송수신하는 방법을 설명하기 위한 도면이다.
도 27은 본 개시의 일 실시예에 따른 AI/ML 모델의 훈련을 위한 신호/채널과 추론을 위한 신호/채널 간의 대응 관계를 설정/지시/정의하기 위한 시그널링을 예시한다.
도 28은 본 개시의 일 실시예에 따른 AI/ML 모델의 훈련을 위한 신호/채널과 추론을 위한 신호/채널 간의 대응 관계를 설정/지시/정의하는 방법을 예시한다.
도 29는 본 개시의 일 실시예에 따른 AI/ML 모델의 훈련을 위한 신호/채널과 추론을 위한 신호/채널 간의 대응 관계를 설정/지시/정의하는 방법을 예시한다.
도 30은 본 개시의 일 실시예에 따른 AI/ML 모델의 훈련을 위한 신호/채널과 추론을 위한 신호/채널 간의 대응 관계를 설정/지시/정의하는 방법을 예시한다.
도 31은 본 개시의 일 실시예에 따른 AI/ML 모델의 훈련을 위한 신호/채널과 추론을 위한 신호/채널 간의 대응 관계를 설정/지시/정의하는 방법을 예시한다.
도 32는 본 개시의 일 실시예에 따른 AI/ML 모델의 훈련을 위한 신호/채널과 추론을 위한 신호/채널을 예시한다.
도 33은 본 개시의 일 실시예에 따른 AI/ML 모델의 훈련을 위한 신호/채널과 추론을 위한 신호/채널을 예시한다.
도 34는 본 개시의 일 실시예에 따른 무선 채널 송수신 방법에 대한 단말의 동작을 예시하는 도면이다.
도 35는 본 개시의 일 실시예에 따른 무선 채널 송수신 방법에 대한 기지국의 동작을 예시하는 도면이다.
도 36은 본 개시의 일 실시예에 따른 무선 통신 장치의 블록 구성도를 예시하는 도면이다.
이하, 본 개시에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 개시의 예시적인 실시형태를 설명하고자 하는 것이며, 본 개시가 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다. 이하의 상세한 설명은 본 개시의 완전한 이해를 제공하기 위해서 구체적 세부사항을 포함한다. 그러나, 당업자는 본 개시가 이러한 구체적 세부사항 없이도 실시될 수 있음을 안다.
몇몇 경우, 본 개시의 개념이 모호해지는 것을 피하기 위하여 공지의 구조 및 장치는 생략되거나, 각 구조 및 장치의 핵심기능을 중심으로 한 블록도 형식으로 도시될 수 있다.
본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계 뿐만 아니라, 그 사이에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 본 개시에서 용어 "포함한다" 또는 "가진다"는 언급된 특징, 단계, 동작, 요소 및/또는 구성요소의 존재를 특정하지만, 하나 이상의 다른 특징, 단계, 동작, 요소, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는다.
본 개시에 있어서, "제 1", "제 2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되고 구성요소들을 제한하기 위해서 사용되지 않으며, 특별히 언급되지 않는 한 구성요소들 간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시예에서의 제 1 구성요소는 다른 실시예에서 제 2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시예에서의 제 2 구성요소를 다른 실시예에서 제 1 구성요소라고 칭할 수도 있다.
본 개시에서 사용된 용어는 특정 실시예에 대한 설명을 위한 것이며 청구범위를 제한하려는 것이 아니다. 실시예의 설명 및 첨부된 청구범위에서 사용되는 바와 같이, 단수 형태는 문맥상 명백하게 다르게 나타내지 않는 한 복수 형태도 포함하도록 의도한 것이다. 본 개시에 사용된 용어 "및/또는"은 관련된 열거 항목 중의 하나를 지칭할 수도 있고, 또는 그 중의 둘 이상의 임의의 및 모든 가능한 조합을 지칭하고 포함하는 것을 의미한다. 또한, 본 개시에서 단어들 사이의 "/"는 달리 설명되지 않는 한 "및/또는"과 동일한 의미를 가진다.
본 개시는 무선 통신 네트워크 또는 무선 통신 시스템을 대상으로 설명하며, 무선 통신 네트워크에서 이루어지는 동작은 해당 무선 통신 네트워크를 관할하는 장치(예를 들어 기지국)에서 네트워크를 제어하고 신호를 송신(transmit) 또는 수신(receive)하는 과정에서 이루어지거나, 해당 무선 네트워크에 결합한 단말에서 네트워크와의 또는 단말간의 신호를 송신 또는 수신하는 과정에서 이루어질 수 있다.
본 개시에서, 채널을 송신 또는 수신한다는 것은 해당 채널을 통해서 정보 또는 신호를 송신 또는 수신한다는 의미를 포함한다. 예를 들어, 제어 채널을 송신한다는 것은, 제어 채널을 통해서 제어 정보 또는 신호를 송신한다는 것을 의미한다. 유사하게, 데이터 채널을 송신한다는 것은, 데이터 채널을 통해서 데이터 정보 또는 신호를 송신한다는 것을 의미한다.
이하에서, 하향링크(DL: downlink)는 기지국에서 단말로의 통신을 의미하며, 상향링크(UL: uplink)는 단말에서 기지국으로의 통신을 의미한다. 하향링크에서 송신기는 기지국의 일부이고, 수신기는 단말의 일부일 수 있다. 상향링크에서 송신기는 단말의 일부이고, 수신기는 기지국의 일부일 수 있다. 기지국은 제1 통신 장치로, 단말은 제2 통신 장치로 표현될 수도 있다. 기지국(BS: Base Station)은 고정국(fixed station), Node B, eNB(evolved-NodeB), gNB(Next Generation NodeB), BTS(base transceiver system), 액세스 포인트(AP: Access Point), 네트워크(5G 네트워크), AI(Artificial Intelligence) 시스템/모듈, RSU(road side unit), 로봇(robot), 드론(UAV: Unmanned Aerial Vehicle), AR(Augmented Reality)장치, VR(Virtual Reality)장치 등의 용어에 의해 대체될 수 있다. 또한, 단말(Terminal)은 고정되거나 이동성을 가질 수 있으며, UE(User Equipment), MS(Mobile Station), UT(user terminal), MSS(Mobile Subscriber Station), SS(Subscriber Station), AMS(Advanced Mobile Station), WT(Wireless terminal), MTC(Machine-Type Communication) 장치, M2M(Machine-to-Machine) 장치, D2D(Device-to-Device) 장치, 차량(vehicle), RSU(road side unit), 로봇(robot), AI(Artificial Intelligence) 모듈, 드론(UAV: Unmanned Aerial Vehicle), AR(Augmented Reality)장치, VR(Virtual Reality)장치 등의 용어로 대체될 수 있다.
이하의 기술은 CDMA, FDMA, TDMA, OFDMA, SC-FDMA 등과 같은 다양한 무선 접속 시스템에 사용될 수 있다. CDMA는 UTRA(Universal Terrestrial Radio Access)나 CDMA2000과 같은 무선 기술로 구현될 수 있다. TDMA는 GSM(Global System for Mobile communications)/GPRS(General Packet Radio Service)/EDGE(Enhanced Data Rates for GSM Evolution)와 같은 무선 기술로 구현될 수 있다. OFDMA는 IEEE 802.11(Wi-Fi), IEEE 802.16(WiMAX), IEEE 802-20, E-UTRA(Evolved UTRA) 등과 같은 무선 기술로 구현될 수 있다. UTRA는 UMTS(Universal Mobile Telecommunications System)의 일부이다. 3GPP(3rd Generation Partnership Project) LTE(Long Term Evolution)은 E-UTRA를 사용하는 E-UMTS(Evolved UMTS)의 일부이고 LTE-A(Advanced)/LTE-A pro는 3GPP LTE의 진화된 버전이다. 3GPP NR(New Radio or New Radio Access Technology)는 3GPP LTE/LTE-A/LTE-A pro의 진화된 버전이다.
설명을 명확하게 하기 위해, 3GPP 통신 시스템(예를 들어, LTE-A, NR)을 기반으로 설명하지만 본 개시의 기술적 사상이 이에 제한되는 것은 아니다. LTE는 3GPP TS(Technical Specification) 36.xxx Release 8 이후의 기술을 의미한다. 세부적으로, 3GPP TS 36.xxx Release 10 이후의 LTE 기술은 LTE-A로 지칭되고, 3GPP TS 36.xxx Release 13 이후의 LTE 기술은 LTE-A pro로 지칭된다. 3GPP NR은 TS 38.xxx Release 15 이후의 기술을 의미한다. LTE/NR은 3GPP 시스템으로 지칭될 수 있다. "xxx"는 표준 문서 세부 번호를 의미한다. LTE/NR은 3GPP 시스템으로 통칭될 수 있다. 본 개시의 설명에 사용된 배경기술, 용어, 약어 등에 관해서는 본 개시 이전에 공개된 표준 문서에 기재된 사항을 참조할 수 있다. 예를 들어, 다음 문서를 참조할 수 있다.
3GPP LTE의 경우, TS 36.211(물리 채널들 및 변조), TS 36.212(다중화 및 채널 코딩), TS 36.213(물리 계층 절차들), TS 36.300(전반적인 설명), TS 36.331(무선 자원 제어)을 참조할 수 있다.
3GPP NR의 경우, TS 38.211(물리 채널들 및 변조), TS 38.212(다중화 및 채널 코딩), TS 38.213(제어를 위한 물리 계층 절차들), TS 38.214(데이터를 위한 물리 계층 절차들), TS 38.300(NR 및 NG-RAN(New Generation-Radio Access Network) 전반적인 설명), TS 38.331(무선 자원 제어 프로토콜 규격)을 참조할 수 있다.
본 개시에서 사용될 수 있는 용어들의 약자는 다음과 같이 정의된다.
- BM: 빔 관리(beam management)
- CQI: 채널 품질 지시자(channel quality indicator)
- CRI: 채널 상태 정보 - 참조 신호 자원 지시자(channel state information - reference signal resource indicator)
- CSI: 채널 상태 정보(channel state information)
- CSI-IM: 채널 상태 정보 - 간섭 측정(channel state information - interference measurement)
- CSI-RS: 채널 상태 정보 - 참조 신호(channel state information - reference signal)
- DMRS: 복조 참조 신호(demodulation reference signal)
- FDM: 주파수 분할 다중화(frequency division multiplexing)
- FFT: 고속 푸리에 변환(fast Fourier transform)
- IFDMA: 인터리빙된 주파수 분할 다중 액세스(interleaved frequency division multiple access)
- IFFT: 역 고속 푸리에 변환(inverse fast Fourier transform)
- L1-RSRP: 제1 레이어 참조 신호 수신 파워(Layer 1 reference signal received power)
- L1-RSRQ: 제1 레이어 참조 신호 수신 품질(Layer 1 reference signal received quality)
- MAC: 매체 액세스 제어(medium access control)
- NZP: 논-제로 파워(non-zero power)
- OFDM: 직교 주파수 분할 다중화(orthogonal frequency division multiplexing)
- PDCCH: 물리 하향링크 제어 채널(physical downlink control channel)
- PDSCH: 물리 하향링크 공유 채널(physical downlink shared channel)
- PMI: 프리코딩 행렬 지시자(precoding matrix indicator)
- RE: 자원 요소(resource element)
- RI: 랭크 지시자(Rank indicator)
- RRC: 무선 자원 제어(radio resource control)
- RSSI: 수신 신호 강도 지시자(received signal strength indicator)
- Rx: 수신(Reception)
- QCL: 준-동일 위치(quasi co-location)
- SINR: 신호 대 간섭 및 잡음비(signal to interference and noise ratio)
- SSB (또는 SS/PBCH block): 동기 신호 블록(프라이머리 동기 신호(PSS: primary synchronization signal), 세컨더리 동기 신호(SSS: secondary synchronization signal) 및 물리 방송 채널(PBCH: physical broadcast channel)을 포함)
- TDM: 시간 분할 다중화(time division multiplexing)
- TRP: 전송 및 수신 포인트(transmission and reception point)
- TRS: 트래킹 참조 신호(tracking reference signal)
- Tx: 전송(transmission)
- UE: 사용자 장치(user equipment)
- ZP: 제로 파워(zero power)
시스템 일반
더욱 많은 통신 기기들이 더욱 큰 통신 용량을 요구하게 됨에 따라, 기존의 무선 액세스 기술(RAT: radio access technology)에 비해 향상된 모바일 브로드밴드(mobile broadband) 통신에 대한 필요성이 대두되고 있다. 또한 다수의 기기 및 사물들을 연결하여 언제 어디서나 다양한 서비스를 제공하는 매시브(massive) MTC(Machine Type Communications) 역시 차세대 통신에서 고려될 주요 이슈 중 하나이다. 뿐만 아니라 신뢰도(reliability) 및 지연(latency)에 민감한 서비스/단말을 고려한 통신 시스템 디자인이 논의되고 있다. 이와 같이 eMBB(enhanced mobile broadband communication), Mmtc(massive MTC), URLLC (Ultra-Reliable and Low Latency Communication) 등을 고려한 차세대 RAT의 도입이 논의되고 있으며, 본 개시에서는 편의상 해당 기술을 NR이라고 부른다. NR은 5G RAT의 일례를 나타낸 표현이다.
NR을 포함하는 새로운 RAT 시스템은 OFDM 전송 방식 또는 이와 유사한 전송 방식을 사용한다. 새로운 RAT 시스템은 LTE의 OFDM 파라미터들과는 다른 OFDM 파라미터들을 따를 수 있다. 또는 새로운 RAT 시스템은 기존의 LTE/LTE-A의 뉴머롤로지(numerology)를 그대로 따르나 더 큰 시스템 대역폭(예를 들어, 100MHz)를 지원할 수 있다. 또는 하나의 셀이 복수 개의 numerology들을 지원할 수도 있다. 즉, 서로 다른 numerology로 동작하는 하는 단말들이 하나의 셀 안에서 공존할 수 있다.
numerology는 주파수 영역에서 하나의 서브캐리어 간격(subcarrier spacing)에 대응한다. 참조 서브캐리어 간격(Reference subcarrier spacing)을 정수 N으로 스케일링(scaling)함으로써, 상이한 numerology가 정의될 수 있다.
도 1은 본 개시가 적용될 수 있는 무선 통신 시스템의 구조를 예시한다.
도 1을 참조하면, NG-RAN은 NG-RA(NG-Radio Access) 사용자 평면(즉, 새로운 AS(access stratum) 서브계층/PDCP(Packet Data Convergence Protocol)/RLC(Radio Link Control)/MAC/PHY) 및 UE에 대한 제어 평면(RRC) 프로토콜 종단을 제공하는 gNB들로 구성된다. 상기 gNB는 Xn 인터페이스를 통해 상호 연결된다. 상기 gNB는 또한, NG 인터페이스를 통해 NGC(New Generation Core)로 연결된다. 보다 구체적으로는, 상기 gNB는 N2 인터페이스를 통해 AMF(Access and Mobility Management Function)로, N3 인터페이스를 통해 UPF(User Plane Function)로 연결된다.
도 2는 본 개시가 적용될 수 있는 무선 통신 시스템에서 프레임 구조를 예시한다.
NR 시스템은 다수의 뉴머롤로지(numerology)들을 지원할 수 있다. 여기서, numerology는 서브캐리어 간격(subcarrier spacing)과 순환 전치(CP: Cyclic Prefix) 오버헤드에 의해 정의될 수 있다. 이때, 다수의 서브캐리어 간격은 기본(참조) 서브캐리어 간격을 정수 N(또는, μ)으로 스케일링(scaling) 함으로써 유도될 수 있다. 또한, 매우 높은 반송파 주파수에서 매우 낮은 서브캐리어 간격을 이용하지 않는다고 가정될지라도, 이용되는 numerology는 주파수 대역과 독립적으로 선택될 수 있다. 또한, NR 시스템에서는 다수의 numerology에 따른 다양한 프레임 구조들이 지원될 수 있다.
이하, NR 시스템에서 고려될 수 있는 OFDM numerology 및 프레임 구조를 살펴본다. NR 시스템에서 지원되는 다수의 OFDM numerology들은 아래 표 1과 같이 정의될 수 있다.
μ Δf=2μ·15 [kHz] CP
0 15 일반(Normal)
1 30 일반
2 60 일반, 확장(Extended)
3 120 일반
4 240 일반
NR은 다양한 5G 서비스들을 지원하기 위한 다수의 numerology(또는 서브캐리어 간격(SCS: subcarrier spacing))를 지원한다. 예를 들어, SCS가 15kHz인 경우, 전통적인 셀룰러 밴드들에서의 넓은 영역(wide area)를 지원하며, SCS가 30kHz/60kHz인 경우, 밀집한-도시(dense-urban), 더 낮은 지연(lower latency) 및 더 넓은 캐리어 대역폭(wider carrier bandwidth)를 지원하며, SCS가 60kHz 또는 그보다 높은 경우, 위상 잡음(phase noise)를 극복하기 위해 24.25GHz보다 큰 대역폭을 지원한다.
NR 주파수 밴드(frequency band)는 2가지 타입(FR1, FR2)의 주파수 범위(frequency range)로 정의된다. FR1, FR2는 아래 표 2와 같이 구성될 수 있다. 또한, FR2는 밀리미터 웨이브(mmW: millimeter wave)를 의미할 수 있다.
주파수 범위 지정(Frequency Range designation) 해당 주파수 범위(Corresponding frequency range) 서브캐리어 간격(Subcarrier Spacing)
FR1 410MHz - 7125MHz 15, 30, 60kHz
FR2 24250MHz - 52600MHz 60, 120, 240kHz
NR 시스템에서의 프레임 구조(frame structure)와 관련하여, 시간 영역의 다양한 필드의 크기는 Tc=1/(Δfmax·Nf) 의 시간 단위의 배수로 표현된다. 여기에서, Δfmax=480·103 Hz 이고, Nf=4096 이다. 하향링크(downlink) 및 상향링크(uplink) 전송은 Tf=1/(ΔfmaxNf/100)·Tc=10ms 의 구간을 가지는 무선 프레임(radio frame)으로 구성(organized)된다. 여기에서, 무선 프레임은 각각 Tsf=(ΔfmaxNf/1000)·Tc=1ms 의 구간을 가지는 10 개의 서브프레임(subframe)들로 구성된다. 이 경우, 상향링크에 대한 한 세트의 프레임들 및 하향링크에 대한 한 세트의 프레임들이 존재할 수 있다. 또한, 단말로부터의 상향링크 프레임 번호 i에서의 전송은 해당 단말에서의 해당 하향링크 프레임의 시작보다 TTA=(NTA+NTA,offset)Tc 이전에 시작해야 한다. 서브캐리어 간격 구성 μ 에 대하여, 슬롯(slot)들은 서브프레임 내에서 ns μ∈{0,..., Nslot subframe,μ-1} 의 증가하는 순서로 번호가 매겨지고, 무선 프레임 내에서 ns,f μ∈{0,..., Nslot frame,μ-1} 의 증가하는 순서로 번호가 매겨진다. 하나의 슬롯은 Nsymb slot 의 연속하는 OFDM 심볼들로 구성되고, Nsymb slot 는, CP에 따라 결정된다. 서브프레임에서 슬롯 ns μ 의 시작은 동일 서브프레임에서 OFDM 심볼 ns μNsymb slot 의 시작과 시간적으로 정렬된다. 모든 단말이 동시에 송신 및 수신을 할 수 있는 것은 아니며, 이는 하향링크 슬롯(downlink slot) 또는 상향링크 슬롯(uplink slot)의 모든 OFDM 심볼들이 이용될 수는 없다는 것을 의미한다.
표 3은 일반 CP에서 슬롯 별 OFDM 심볼의 개수(Nsymb slot), 무선 프레임 별 슬롯의 개수(Nslot frame,μ), 서브프레임 별 슬롯의 개수(Nslot subframe,μ)를 나타내며, 표 4는 확장 CP에서 슬롯 별 OFDM 심볼의 개수, 무선 프레임 별 슬롯의 개수, 서브프레임 별 슬롯의 개수를 나타낸다.
μ Nsymb slot Nslot frame,μ Nslot subframe,μ
0 14 10 1
1 14 20 2
2 14 40 4
3 14 80 8
4 14 160 16
μ Nsymb slot Nslot frame,μ Nslot subframe,μ
2 12 40 4
도 2는, μ=2인 경우(SCS가 60kHz)의 일례로서, 표 3을 참고하면 1 서브프레임(subframe)은 4개의 슬롯(slot)들을 포함할 수 있다. 도 2에 도시된 1 subframe={1,2,4} slot은 일례로서, 1 subframe에 포함될 수 있는 slot(들)의 개수는 표 3 또는 표 4와 같이 정의된다. 또한, 미니 슬롯(mini-slot)은 2, 4 또는 7 심볼들을 포함하거나 그 보다 더 많은 또는 더 적은 심볼들을 포함할 수 있다.
NR 시스템에서의 물리 자원(physical resource)과 관련하여, 안테나 포트(antenna port), 자원 그리드(resource grid), 자원 요소(resource element), 자원 블록(resource block), 캐리어 파트(carrier part) 등이 고려될 수 있다. 이하, NR 시스템에서 고려될 수 있는 상기 물리 자원들에 대해 구체적으로 살펴본다.
먼저, 안테나 포트와 관련하여, 안테나 포트는 안테나 포트 상의 심볼이 운반되는 채널이 동일한 안테나 포트 상의 다른 심볼이 운반되는 채널로부터 추론될 수 있도록 정의된다. 하나의 안테나 포트 상의 심볼이 운반되는 채널의 광범위 특성(large-scale property)이 다른 안테나 포트 상의 심볼이 운반되는 채널로부터 유추될 수 있는 경우, 2 개의 안테나 포트는 QC/QCL(quasi co-located 혹은 quasi co-location) 관계에 있다고 할 수 있다. 여기서, 상기 광범위 특성은 지연 확산(Delay spread), 도플러 확산(Doppler spread), 주파수 쉬프트(Frequency shift), 평균 수신 파워(Average received power), 수신 타이밍(Received Timing) 중 하나 이상을 포함한다.
도 3은 본 개시가 적용될 수 있는 무선 통신 시스템에서 자원 그리드(resource grid)를 예시한다.
도 3을 참조하면, 자원 그리드가 주파수 영역 상으로 NRB μNsc RB 서브캐리어들로 구성되고, 하나의 서브프레임이 14·2μ OFDM 심볼들로 구성되는 것을 예시적으로 기술하나, 이에 한정되는 것은 아니다. NR 시스템에서, 전송되는 신호(transmitted signal)는 NRB μNsc RB 서브캐리어들로 구성되는 하나 또는 그 이상의 자원 그리드들 및 2μNsymb (μ) 의 OFDM 심볼들에 의해 설명된다. 여기서, NRB μ≤NRB max,μ 이다. 상기 NRB max,μ 는 최대 전송 대역폭을 나타내고, 이는, numerology들 뿐만 아니라 상향링크와 하향링크 간에도 달라질 수 있다. 이 경우, μ 및 안테나 포트 p 별로 하나의 자원 그리드가 설정될 수 있다. μ 및 안테나 포트 p에 대한 자원 그리드의 각 요소는 자원 요소(resource element)로 지칭되며, 인덱스 쌍 (k,l')에 의해 고유적으로 식별된다. 여기에서, k=0,...,NRB μNsc RB-1 는 주파수 영역 상의 인덱스이고, l'=0,...,2μNsymb (μ)-1 는 서브프레임 내에서 심볼의 위치를 지칭한다. 슬롯에서 자원 요소를 지칭할 때에는, 인덱스 쌍 (k,l) 이 이용된다. 여기서, l=0,...,Nsymb μ-1 이다. μ 및 안테나 포트 p에 대한 자원 요소 (k,l') 는 복소 값(complex value) ak,l' (p,μ) 에 해당한다. 혼동(confusion)될 위험이 없는 경우 혹은 특정 안테나 포트 또는 numerology가 특정되지 않은 경우에는, 인덱스들 p 및 μ 는 드롭(drop)될 수 있으며, 그 결과 복소 값은 ak,l' (p) 또는 ak,l' 이 될 수 있다. 또한, 자원 블록(resource block, RB)은 주파수 영역 상의 Nsc RB=12 연속적인 서브캐리어들로 정의된다.
포인트(point) A는 자원 블록 그리드의 공통 기준 포인트(common reference point)로서 역할을 하며 다음과 같이 획득된다.
- 프라이머리 셀(PCell: Primary Cell) 다운링크에 대한 offsetToPointA는 초기 셀 선택을 위해 단말에 의해 사용된 SS/PBCH block과 겹치는 가장 낮은 자원 블록의 가장 낮은 서브 캐리어와 point A 간의 주파수 오프셋을 나타낸다. FR1에 대해 15kHz 서브캐리어 간격 및 FR2에 대해 60kHz 서브캐리어 간격을 가정한 리소스 블록 단위(unit)들로 표현된다.
- absoluteFrequencyPointA는 ARFCN(absolute radio-frequency channel number)에서와 같이 표현된 point A의 주파수-위치를 나타낸다.
공통 자원 블록(common resource block)들은 서브캐리어 간격 설정 μ 에 대한 주파수 영역에서 0부터 위쪽으로 numbering된다. 서브캐리어 간격 설정 μ 에 대한 공통 자원 블록 0의 subcarrier 0의 중심은 'point A'와 일치한다. 주파수 영역에서 공통 자원 블록 번호 nCRB μ 와 서브캐리어 간격 설정 μ 에 대한 자원 요소(k,l)와의 관계는 아래 수학식 1과 같이 주어진다.
Figure PCTKR2022017093-appb-img-000001
수학식 1에서, k는 k=0이 point A를 중심으로 하는 서브캐리어에 해당하도록 point A에 상대적으로 정의된다. 물리 자원 블록들은 대역폭 파트(BWP: bandwidth part) 내에서 0부터 NBWP,i size,μ-1 까지 번호가 매겨지고, i는 BWP의 번호이다. BWP i에서 물리 자원 블록 nPRB 와 공통 자원 블록 nCRB 간의 관계는 아래 수학식 2에 의해 주어진다.
Figure PCTKR2022017093-appb-img-000002
NBWP,i start,μ 는 BWP가 공통 자원 블록 0에 상대적으로 시작하는 공통 자원 블록이다.
도 4는 본 개시가 적용될 수 있는 무선 통신 시스템에서 물리 자원 블록(physical resource block)을 예시한다. 그리고, 도 5는 본 개시가 적용될 수 있는 무선 통신 시스템에서 슬롯 구조를 예시한다.
도 4 및 도 5를 참조하면, 슬롯은 시간 도메인에서 복수의 심볼을 포함한다. 예를 들어, 보통 CP의 경우 하나의 슬롯이 7개의 심볼을 포함하나, 확장 CP의 경우 하나의 슬롯이 6개의 심볼을 포함한다.
반송파는 주파수 도메인에서 복수의 부반송파를 포함한다. RB(Resource Block)는 주파수 도메인에서 복수(예를 들어, 12)의 연속한 부반송파로 정의된다. BWP(Bandwidth Part)는 주파수 도메인에서 복수의 연속한 (물리) 자원 블록으로 정의되며, 하나의 numerology(예를 들어, SCS, CP 길이 등)에 대응될 수 있다. 반송파는 최대 N개(예를 들어, 5개)의 BWP를 포함할 수 있다. 데이터 통신은 활성화된 BWP를 통해서 수행되며, 하나의 단말한테는 하나의 BWP만 활성화될 수 있다. 자원 그리드에서 각각의 요소는 자원요소(RE: Resource Element)로 지칭되며, 하나의 복소 심볼이 매핑될 수 있다.
NR 시스템은 하나의 컴포넌트 캐리어(CC: Component Carrier) 당 최대 400 MHz까지 지원될 수 있다. 이러한 광대역 CC(wideband CC)에서 동작하는 단말이 항상 CC 전체에 대한 무선 주파수(RF: radio frequency) 칩(chip)를 켜둔 채로 동작한다면 단말 배터리 소모가 커질 수 있다. 혹은 하나의 광대역 CC 내에 동작하는 여러 활용 케이스들(예를 들어, eMBB, URLLC, Mmtc, V2X 등)을 고려할 때 해당 CC 내에 주파수 대역 별로 서로 다른 numerology(예를 들어, 서브캐리어 간격 등)가 지원될 수 있다. 혹은 단말 별로 최대 대역폭에 대한 능력(capability)이 다를 수 있다. 이를 고려하여 기지국은 광대역 CC의 전체 bandwidth이 아닌 일부 bandwidth에서만 동작하도록 단말에게 지시할 수 있으며, 해당 일부 bandwidth를 편의상 대역폭 부분(BWP: bandwidth part)로 정의한다. BWP는 주파수 축 상에서 연속한 RB들로 구성될 수 있으며, 하나의 numerology(예를 들어, 서브캐리어 간격, CP 길이, 슬롯/미니-슬롯 구간)에 대응될 수 있다.
한편, 기지국은 단말에게 설정된 하나의 CC 내에서도 다수의 BWP를 설정할 수 있다. 예를 들어, PDCCH 모니터링 슬롯에서는 상대적으로 작은 주파수 영역을 차지하는 BWP를 설정하고, PDCCH에서 지시하는 PDSCH는 그보다 큰 BWP 상에 스케줄링될 수 있다. 혹은, 특정 BWP에 UE 들이 몰리는 경우 로드 밸런싱(load balancing)을 위해 일부 단말들을 다른 BWP로 설정할 수 있다. 혹은, 이웃 셀 간의 주파수 도메인 셀간 간섭 제거(frequency domain inter-cell interference cancellation) 등을 고려하여 전체 bandwidth 중 가운데 일부 스펙트럼(spectrum)을 배제하고 양쪽 BWP들을 동일 슬롯 내에서도 설정할 수 있다. 즉, 기지국은 광대역 CC와 연관된(association) 단말에게 적어도 하나의 DL/UL BWP를 설정할 수 있다. 기지국은 특정 시점에 설정된 DL/UL BWP(들) 중 적어도 하나의 DL/UL BWP를 (L1 시그널링 또는 MAC CE(Control Element) 또는 RRC 시그널링 등에 의해) 활성화시킬 수 있다. 또한, 기지국은 다른 설정된 DL/UL BWP로 스위칭을 (L1 시그널링 또는 MAC CE 또는 RRC 시그널링 등에 의해) 지시할 수 있다. 또는, 타이머 기반으로 타이머 값이 만료되면 정해진 DL/UL BWP로 스위칭될 수도 있다. 이때, 활성화된 DL/UL BWP를 활성(active) DL/UL BWP로 정의한다. 하지만, 단말이 최초 접속(initial access) 과정을 수행하는 중이거나, 혹은 RRC 연결이 셋업(set up)되기 전 등의 상황에서는 DL/UL BWP에 대한 설정을 수신하지 못할 수 있으므로, 이러한 상황에서 단말이 가정하는 DL/UL BWP는 최초 활성 DL/UL BWP라고 정의한다.
도 6은 본 개시가 적용될 수 있는 무선 통신 시스템에서 이용되는 물리 채널들 및 이들을 이용한 일반적인 신호 송수신 방법을 예시한다.
무선 통신 시스템에서 단말은 기지국으로부터 하향링크(Downlink)를 통해 정보를 수신하고, 단말은 기지국으로 상향링크(Uplink)를 통해 정보를 전송한다. 기지국과 단말이 송수신하는 정보는 데이터 및 다양한 제어 정보를 포함하고, 이들이 송수신 하는 정보의 종류/용도에 따라 다양한 물리 채널이 존재한다.
단말은 전원이 켜지거나 새로이 셀에 진입한 경우 기지국과 동기를 맞추는 등의 초기 셀 탐색(Initial cell search) 작업을 수행한다(S601). 이를 위해, 단말은 기지국으로부터 주 동기 신호(PSS: Primary Synchronization Signal) 및 부 동기 채널(SSS: Secondary Synchronization Signal)을 수신하여 기지국과 동기를 맞추고, 셀 식별자(ID: Identifier) 등의 정보를 획득할 수 있다. 그 후, 단말은 기지국으로부터 물리 방송 채널(PBCH: Physical Broadcast Channel)를 수신하여 셀 내 방송 정보를 획득할 수 있다. 한편, 단말은 초기 셀 탐색 단계에서 하향링크 참조 신호(DL RS: Downlink Reference Signal)를 수신하여 하향링크 채널 상태를 확인할 수 있다.
초기 셀 탐색을 마친 단말은 물리 하향링크 제어 채널(PDCCH: Physical Downlink Control Channel) 및 상기 PDCCH에 실린 정보에 따라 물리 하향링크 공유 채널(PDSCH: Physical Downlink Control Channel)을 수신함으로써 좀더 구체적인 시스템 정보를 획득할 수 있다(S602).
한편, 기지국에 최초로 접속하거나 신호 송신을 위한 무선 자원이 없는 경우 단말은 기지국에 대해 임의 접속 과정(RACH: Random Access Procedure)을 수행할 수 있다(단계 S603 내지 단계 S606). 이를 위해, 단말은 물리 임의 접속 채널(PRACH: Physical Random Access Channel)을 통해 특정 시퀀스를 프리앰블로 송신하고(S603 및 S605), PDCCH 및 대응하는 PDSCH를 통해 프리앰블에 대한 응답 메시지를 수신할 수 있다(S604 및 S606). 경쟁 기반 RACH의 경우, 추가적으로 충돌 해결 절차(Contention Resolution Procedure)를 수행할 수 있다.
상술한 바와 같은 절차를 수행한 단말은 이후 일반적인 상/하향링크 신호 송신 절차로서 PDCCH/PDSCH 수신(S607) 및 물리 상향링크 공유 채널(PUSCH: Physical Uplink Shared Channel)/물리 상향링크 제어 채널(PUCCH: Physical Uplink Control Channel) 송신(S608)을 수행할 수 있다. 특히 단말은 PDCCH를 통하여 하향링크 제어 정보(DCI: Downlink Control Information)를 수신한다. 여기서 DCI는 단말에 대한 자원 할당 정보와 같은 제어 정보를 포함하며, 그 사용 목적에 따라 포맷이 서로 다르다.
한편, 단말이 상향링크를 통해 기지국에 송신하는 또는 단말이 기지국으로부터 수신하는 제어 정보는 하향링크/상향링크 ACK/NACK(Acknowledgement/Non-Acknowledgement) 신호, CQI(Channel Quality Indicator), PMI(Precoding Matrix Indicator), RI(Rank Indicator) 등을 포함한다. 3GPP LTE 시스템의 경우, 단말은 상술한 CQI/PMI/RI 등의 제어 정보를 PUSCH 및/또는 PUCCH를 통해 송신할 수 있다.
표 5는 NR 시스템에서의 DCI 포맷(format)의 일례를 나타낸다.
DCI 포맷 활용
0_0 하나의 셀 내 PUSCH의 스케줄링
0_1 하나의 셀 내 하나 또는 다중 PUSCH의 스케줄링, 또는 UE에게 셀 그룹(CG: cell group) 하향링크 피드백 정보의 지시
0_2 하나의 셀 내 PUSCH의 스케줄링
1_0 하나의 DL 셀 내 PDSCH의 스케줄링
1_1 하나의 셀 내 PDSCH의 스케줄링
1_2 하나의 셀 내 PDSCH의 스케줄링
표 5를 참조하면, DCI format 0_0, 0_1 및 0_2는 PUSCH의 스케줄링에 관련된 자원 정보(예를 들어, UL/SUL(Supplementary UL), 주파수 자원 할당, 시간 자원 할당, 주파수 호핑 등), 전송 블록(TB: Transport Block) 관련 정보(예를 들어, MCS(Modulation Coding and Scheme), NDI(New Data Indicator), RV(Redundancy Version) 등), HARQ(Hybrid - Automatic Repeat and request) 관련 정보(예를 들어, 프로세스 번호, DAI(Downlink Assignment Index), PDSCH-HARQ 피드백 타이밍 등), 다중 안테나 관련 정보(예를 들어, DMRS 시퀀스 초기화 정보, 안테나 포트, CSI 요청 등), 전력 제어 정보(예를 들어, PUSCH 전력 제어 등)을 포함할 수 있으며, DCI 포맷 각각에 포함되는 제어 정보들은 미리 정의될 수 있다.
DCI format 0_0은 하나의 셀에서 PUSCH의 스케줄링에 사용된다. DCI 포맷 0_0에 포함된 정보는 C-RNTI(Cell RNTI: Cell Radio Network Temporary Identifier) 또는 CS-RNTI(Configured Scheduling RNTI) 또는 MCS-C-RNTI(Modulation Coding Scheme Cell RNTI)에 의해 CRC(cyclic redundancy check) 스크램블링되어 전송된다.
DCI format 0_1은 하나의 셀에서 하나 이상의 PUSCH의 스케줄링, 또는 설정된 그랜트(CG: configure grant) 하향링크 피드백 정보를 단말에게 지시하는 데 사용된다. DCI format 0_1에 포함된 정보는 C-RNTI 또는 CS-RNTI 또는 SP-CSI-RNTI(Semi-Persistent CSI RNTI) 또는 MCS-C-RNTI에 의해 CRC 스크램블링되어 전송된다.
DCI format 0_2는 하나의 셀에서 PUSCH의 스케줄링에 사용된다. DCI format 0_2에 포함된 정보는 C-RNTI 또는 CS-RNTI 또는 SP-CSI-RNTI 또는 MCS-C-RNTI에 의해 CRC 스크램블링되어 전송된다.
다음으로, DCI format 1_0, 1_1 및 1_2는 PDSCH의 스케줄링에 관련된 자원 정보(예를 들어, 주파수 자원 할당, 시간 자원 할당, VRB(virtual resource block)-PRB(physical resource block) 매핑 등), 전송블록(TB) 관련 정보(예를 들어, MCS, NDI, RV 등), HARQ 관련 정보(예를 들어, 프로세스 번호, DAI, PDSCH-HARQ 피드백 타이밍 등), 다중 안테나 관련 정보(예를 들어, 안테나 포트, TCI(transmission configuration indicator), SRS(sounding reference signal) 요청 등), PUCCH 관련 정보(예를 들어, PUCCH 전력 제어, PUCCH 자원 지시자 등)을 포함할 수 있으며, DCI 포맷 각각에 포함되는 제어 정보들은 미리 정의될 수 있다.
DCI format 1_0은 하나의 DL 셀에서 PDSCH의 스케줄링을 위해 사용된다. DCI format 1_0에 포함된 정보는 C-RNTI 또는 CS-RNTI 또는 MCS-C-RNTI에 의해 CRC 스크램블링되어 전송된다.
DCI format 1_1은 하나의 셀에서 PDSCH의 스케줄링을 위해 사용된다. DCI format 1_1에 포함되는 정보는 C-RNTI 또는 CS-RNTI 또는 MCS-C-RNTI에 의해 CRC 스크램블링되어 전송된다.
DCI format 1_2는 하나의 셀에서 PDSCH의 스케줄링을 위해 사용된다. DCI format 1_2에 포함되는 정보는 C-RNTI 또는 CS-RNTI 또는 MCS-C-RNTI에 의해 CRC 스크램블링되어 전송된다.
인공 지능(AI: Artificial Intelligence) 동작
인공지능/머신러닝(AI/ML: Artificial intelligence / machine learning)의 기술 발전으로 무선 통신 네트워크를 구성하는 노드(들) 및 단말(들)의 지능화/고도화가 이루어지고 있다. 특히 네트워크/기지국의 지능화로 인해 다양한 환경 파라미터(예를 들어, 기지국들의 분포/위치, 건물/가구 등의 분포/위치/재질, 단말들의 위치/이동방향/속도, 기후 정보 등)에 따라 다양한 네트워크/기지국 결정 파라미터 값들(예를 들어, 각 기지국의 송수신 전력, 각 단말의 송신 전력, 기지국/단말의 프리코더/빔, 각 단말에 대한 시간/주파수 자원 할당, 각 기지국의 듀플렉스(duplex) 방식 등)을 빠르게 최적화하여 도출/적용할 수 있게 될 전망이다. 이러한 추세에 맞추어, 많은 표준화 단체 (예를 들어, 3GPP, O-RAN)에서 도입을 고려하고 있으며, 이에 대한 스터디도 활발히 진행 중이다.
이하 설명하는 AI 관련 설명 및 동작들은 후술한 본 개시에서 제안하는 방법들과 결합되어 적용될 수 있으며, 또는 본 개시에서 제안하는 방법들의 기술적 특징을 명확하게 하는데 보충될 수 있다.
도 7은 인공지능의 분류를 예시한다.
도 7을 참조하면, 인공지능(AI: Artificial Intelligence)은 사람이 해야 할 일을 기계가 대신할 수 있는 모든 자동화에 해당한다.
머신러닝(ML: Machine Learning)은 명시적으로 규칙을 프로그래밍하지 않고, 데이터로부터 의사결정을 위한 패턴을 기계가 스스로 학습하는 기술을 의미한다.
딥러닝(Deep Learning)은 인공 신경망 기반의 모델로서, 비정형 데이터로부터 특징 추출 및 판단까지 기계가 한 번에 수행할 수 있다. 알고리즘은 생물학적 신경계, 즉 신경망(Neural Network)에서 영감을 받은 특징 추출 및 변환을 위해 상호 연결된 노드로 구성된 다층 네트워크에 의존한다. 일반적인 딥 러닝 네트워크 아키텍처에는 심층 신경망(DNN: Deep Neural Network), 순환 신경망(RNN: Recurrent Neural Network) 및 컨볼루션 신경망(CNN: Convolutional Neural Network) 등이 포함된다.
AI(또는 AI/ML로 지칭)은 좁은 의미로 딥러닝(Deep learning) 기반의 인공지능으로 일컬을 수 있지만, 본 개시에서 이에 한정되는 것은 아니다. 즉, 본 개시에서 AI(또는 AI/ML로 지칭)는 인간처럼 작업을 수행할 수 있는 지능형 기계(예를 들어, UE, RAN, 네트워크 노드 등)에 적용되는 자동화 기술을 통칭할 수 있다.
AI(또는 AI/ML)는 다양한 기준에 따라 다음과 같이 분류할 수 있다.
1. 오프라인/온라인 학습
a) 오프라인 학습(Offline Learning)
오프라인 학습은 데이터 베이스의 수집, 학습, 예측이라는 순차적인 절차를 따르게 된다. 즉, 수집과 학습을 오프라인으로 수행하고, 완성된 프로그램을 현장에 설치하여 예측 작업에 활용할 수 있다. 오프라인 학습은 시스템이 점진적으로 학습하지 않으며, 가용한 모든 수집된 데이터를 사용하여 학습이 수행되고, 더 이상의 학습 없이 시스템에 적용된다. 만약, 새로운 데이터에 대한 학습이 필요하게 되면, 새로운 전체의 데이터를 이용하여 다시 학습이 시작될 수 있다.
b) 온라인 학습(Online Learning)
최근 학습에 활용할 수 있는 데이터가 인터넷을 통해 지속적으로 발생하는 점을 활용하여, 실시간으로 발생한 데이터를 가지고 점증적으로 추가 학습하여 성능을 조금씩 개선하는 방식을 지칭한다. 온라인 상에서 수집되는 특정 데이터의 (묶음) 단위로 실시간으로 학습이 수행되며, 이에 따라 변화하는 데이터에 시스템이 빠르게 적응할 수 있다.
AI 시스템 구축을 위해 온라인 학습만이 이용되어 실시간으로 발생한 데이터만으로 학습이 수행될 수도 있으며, 또는 소정의 데이터 세트를 이용하여 오프라인 학습이 수행된 후, 추가적으로 발생하는 실시간 데이터를 이용하여 추가적인 학습이 수행될 수도 있다(온라인+오프라인 학습).
2. AI/ML Framework 개념에 따른 분류
a) 중앙집중식 학습(Centralized Learning)
Centralized learning에서는 서로 다른 복수의 노드들에서 수집된(collected) 훈련 데이터(training data)를 중앙 노드(centralized node)에 보고를 하면, 모든 데이터 자원/저장(storage)/학습(예를 들어, 지도 학습(supervised learning), 비지도 학습(unsupervised learning), 강화 학습(reinforcement learning) 등)이 하나의 centralized node에서 수행된다.
b) 연합 학습(Federated Learning)
Federated learning은 공동(collective) 모델이 각기 분산되어 있는 데이터 소유자(data owner)들에 걸쳐서 존재하는 데이터를 기반으로 구성된다. 데이터를 모델로 수집하는 대신, AI/ML 모델을 데이터 소스로 가져와 로컬 노드/개별 장치가 데이터를 수집하고 자체 모델 사본을 훈련할 수 있도록 하므로, 소스 데이터를 중앙 노드에 보고할 필요가 없다. Federated learning에서 AI/ML 모델의 매개변수/가중치는 일반 모델 교육을 지원하기 위해 centralized node로 다시 보낼 수 있다. Federated learning은 연산 속도의 증가와, 정보 보안 측면에서의 장점을 가진다. 즉, 개인 데이트를 중앙 서버에 업로드하는 과정이 불필요하여, 개인정보 유출 및 악용을 방지할 수 있다.
c) 분산된 학습(Distributed Learning)
Distributed learning은 기계 학습 프로세스가 노드 클러스터 전체에 확장 및 배포된 개념을 의미한다. 훈련 모델은 모델 훈련의 속도를 높이기 위해 분할되어 동시에 작동하는 여러 노드에서 공유된다.
3. 학습 방법에 따른 분류
a) 지도 학습(Supervised Learning)
지도 학습은 레이블이 지정된 데이터 세트가 주어지면 입력에서 출력으로의 매핑 기능을 학습하는 것을 목표로 하는 기계 학습 작업이다. 입력 데이터는 훈련 데이터라고 하며 알려진 레이블 또는 결과가 있다. 지도 학습의 예시는 다음과 같다.
- 회귀(Regression): 선형 회귀(Linear Regression), 로지스틱 회귀(Logistic Regression)
- 인스턴스-기반 알고리즘(Instance-based Algorithms): k-최근접 이웃(KNN: k-Nearest Neighbor)
- 의사결정 나무 알고리즘(Decision Tree Algorithms): 분류 및 회귀 분석 트리(CART: Classification and Regression Tree)
- 서포트 벡터 머신(SVM: Support Vector Machines)
- 베이지안 알고리즘(Bayesian Algorithms): 나이브 베이즈(Naive Bayes)
- 앙상블 알고리즘(Ensemble Algorithms): 익스트림 그래디언트 부스팅(Extreme Gradient Boosting), 배깅(Bagging): 랜덤 포레스트(Random Forest)
지도 학습은 회귀 및 분류 문제로 더 그룹화할 수 있으며, 분류는 레이블을 예측하는 것이고 회귀는 수량을 예측하는 것이다.
b) 비지도 학습(Unsupervised Learning)
Unsupervised learning은 레이블이 지정되지 않은 데이터에서 숨겨진 구조를 설명하는 기능을 학습하는 것을 목표로 하는 기계 학습 작업이다. 입력 데이터에 레이블이 지정되지 않았으며 알려진 결과가 없다. 비지도 학습의 몇 가지 예는 K-평균 클러스터링, 주성분 분석(PCA: Principal Component Analysis), 비선형 독립 성분 분석(ICA: Independent Component Analysis) 및 장단기 메모리(LSTM: Long-Short-Term Memory) 등이 있다.
c) 강화 학습(RL: Reinforcement Learning)
강화 학습(RL)에서 에이전트는 시행착오 과정을 기반으로 환경과 상호 작용하여 장기 목표를 최적화하는 것을 목표로 하며, 환경과의 상호작용을 기반으로 한 목표 지향적 학습이다. RL 알고리즘의 예시는 다음과 같다.
- Q 러닝(Q-learning)
- 다중 암드 밴딧 러닝(Multi-armed bandit learning)
- 딥 Q 네트워크(Deep Q Network)
- 스테이트-액션-리워드-스테이트-액션(SARSA: State-Action-Reward-State-Action)
- 시간차 학습(Temporal Difference Learning)
- 액터-크리틱 강화 학습(Actor-critic reinforcement learning)
- 딥 결정론적 정책 그래디언트(DDPG: Deep deterministic policy gradient)
- 몬테카를로 트리 서치(Monte-Carlo tree search)
추가적으로, 강화 학습은 다음과 같이 모델 기반 강화 학습과 모델 자유 강화 학습으로 그룹화할 수 있다.
- 모델-기반(Model-based) 강화 학습: 예측 모델을 사용하는 RL 알고리즘을 지칭한다. 환경의 다양한 동적 상태 및 이러한 상태가 보상으로 이어지는 모델을 사용하여 상태 간 전환 확률을 얻는다.
- 모델-자유(Model-free) 강화 학습: 최대의 미래 보상을 달성하는 가치 또는 정책에 기반한 RL 알고리즘을 지칭한다. 다중 에이전트 환경/상태에서는 계산적으로 덜 복잡하고 환경을 정확하게 표현할 필요가 없다.
또한, RL 알고리즘은 또한 가치 기반 RL 대 정책 기반 RL, 정책 기반 RL 대 정책 외 RL 등으로 분류될 수 있다.
이하, 딥 러닝(deep learning)의 대표 모델에 대하여 예시한다.
도 8은 순방향 신경망(Feed-Forward Neural Network)을 예시한다.
순방향 신경망(FFNN: Feed-Forward Neural Network)은 입력층(input layer), 은닉층(hidden layer), 출력층(output layer)으로 구성된다.
FFNN에서는 정보는 입력층으로부터 출력층 방향으로만 전달되며, 은닉층이 있는 경우 이를 경유한다. 
도 9는 순환 신경망(Recurrent Neural Network)을 예시한다.
순환 신경망(RNN)은 히든 노드가 방향을 가진 엣지로 연결되어 순환구조를 이루는(directed cycle) 인공 신경망(neural network)의 한 종류이다. 음성, 문자 등 순차적으로 등장하는 데이터 처리에 적합한 모델이다.
도 9에서 A는 뉴럴 네트워크, xt는 입력 값, ht는 출력 값을 나타낸다. 여기서, ht는 시간을 기준으로 현재를 나타내는 상태 값을 의미할 수 있으며, ht-1는 이전 상태 값을 나타낼 수 있다.
RNN의 하나의 종류로 LSTM(Long Short-Term Memory)이 있으며, 이는 RNN의 히든 스테이트(state)에 셀-스테이트(cell-state)를 추가한 구조이다. LSTM은 RNN 셀(cell)(은닉층의 메모리 셀)에 입력 게이트, 망각 게이트, 출력 게이트가 추가되어, 불필요한 기억을 지울 수 있다. LSTM은 RNN에 비하여 셀 상태(cell state)가 추가된다.
도 10은 컨볼루션 신경망(Convolutional Neural Network)을 예시한다.
컨볼루션 신경망(CNN)은 영상 처리나 이미지 처리 분야에서 일반적으로 사용하는 컨볼루션(convolution) 연산을 적용하여, 모델 복잡도를 낮추고, 좋은 특징을 추출하는 두 가지 목적을 위해 사용된다.
- 커널(kernel) 또는 필터(filter): 특정 범위/단위의 input에 가중치를 적용하는 단위/구조를 의미한다. kernel(또는 filter)는 학습에 의해 변경될 수 있다.
- 스트라이드(stride): input 안에서 kernel을 움직이는 이동 범위를 의미한다.
- 특성 맵(feature map): input에 kernel을 적용한 결과를 의미한다. 왜곡, 변경 등에 강인하도록 유도하기 위해 여러 feature map들이 추출될 수 있다.
- 패딩(padding): feature map의 크기를 조절하기 위해 덧붙이는 값을 의미한다.
- 풀링(pooling): feature map을 다운샘플링하여 feature map 의 크기를 줄이기 위한 연산(예를 들어, 최대 풀링(max pooling), 평균 풀링(average pooling))을 의미한다.
도 11은 오토 인코더(Auto encoder)를 예시한다.
Auto encoder는 특징 벡터(Feature vector) x(x1, x2, x3, ...)를 입력 받아, 동일한 또는 유사한 vector x'(x'1, x'2, x'3, ...)'를 출력하는 neural network를 의미한다.
Auto encoder는 입력 노드와 출력 노드가 같은 특징을 가진다. Auto encoder는 입력을 재구성하기 때문에 출력을 재구성(reconstruction)이라고 지칭할 수 있다. 또한, Auto encoder는 Unsupervised learning의 일종이다.
도 11에서 예시하는 Auto encoder의 손실 함수(loss function)은 입력과 출력의 차이를 기반으로 계산되며, 이를 기반으로 input의 손실 정도를 파악하여 Auto encoder에서는 손실을 최소화할 수 있도록 최적화하는 과정이 수행된다.
이하, 보다 구체적인 AI(또는 AI/ML)의 설명을 위해 용어들을 다음과 같이 정의할 수 있다.
- 데이터 수집(Data collection): AI 모델 훈련(model training), 데이터 분석 및 추론(inference)을 위한 기반으로서, 네트워크 노드, 관리 개체(management entity) 또는 UE 등에서 수집된 데이터
- AI 모델(Model): 입력들의 집합을 기반으로, 예측 정보 및/또는 결정 파라미터들을 포함하는 출력들의 집합을 생성하는 AI 기술을 적용한 데이터 기반 알고리즘(data driven algorithm)
- AI/ML 훈련(Training): 데이터를 가장 잘 표시하고 추론을 위해 훈련된 AI/ML 모델을 획득하는 기능들과 패턴들을 학습(learning)함으로써 AI 모델을 훈련하는 온라인(online) 또는 오프라인(offline) 프로세스
- AI/ML 추론(Inference): 훈련된 AI 모델을 이용하여 수집된 데이터와 AI 모델에 기반하여 예측하거나 결정을 유도하는 프로세스
도 12는 AI 동작을 위한 기능적 프레임워크(functional framework)를 예시한다.
도 12를 참조하면, 데이터 수집(Data Collection) 기능(function)(10)은 입력 데이터를 수집하고 모델 훈련(Model Training) function(20) 및 모델 추론(Model Inference) function(30)에게 가공된 입력 데이터를 제공하는 기능이다.
입력 데이터의 예로서, UE들 또는 다른 네트워크 개체(network entity)로부터의 측정들, 액터(Actor)의 피드백, AI 모델의 출력이 포함될 수 있다.
Data Collection function(10)은 입력 데이터를 기반으로 데이터 준비(data preparation)를 수행하고, data preparation를 통해 가공된 입력 데이터를 제공한다. 여기서, Data Collection function(10)는 AI 알고리즘 별로 특정한 data preparation(예를 들어, 데이터 사전-처리(pre-processing) 및 정리(cleaning), 형식 지정(forming) 및 변환(transformation))을 수행하지 않으며, AI 알고리즘에 공통된 data preparation를 수행할 수 있다.
데이터 준비 과정을 수행된 후, Model Training function(10)은 Model Training function(20)에게 훈련 데이터(Training Data)(11)를 제공하며, Model Inference function(30)에게 추론 데이터(Inference Data)(12)를 제공한다. 여기서, Training Data)(11)는 AI Model Training function(20)을 위한 입력으로 필요한 데이터이다. Inference Data(12)는 AI Model Inference function(30)을 위한 입력으로 필요한 데이터이다.
Data Collection function(10)은 단일의 개체(예를 들어, UE, RAN 노드, 네트워크 노드 등)에 의해 수행될 수도 있지만 복수의 개체들에 의해 수행될 수도 있다. 이 경우, 복수의 개체들로부터 Training Data)(11)와 Inference Data(12)가 각각 Model Training function(20)과 Model Inference function(30)에게 제공될 수 있다.
Model Training function(20)은 AI 모델 테스트 절차의 일부로 모델 성능 메트릭(metric)을 생성할 수 있는 AI 모델 훈련, 검증(validation) 및 테스트(test)를 수행하는 기능이다. Model Training function(20)은 필요한 경우 Data Collection function(10)에서 제공하는 Training Data(11)를 기반으로 데이터 준비(예를 들어, data pre-processing 및 cleaning, forming 및 transformation)도 담당한다.
여기서, 모델 배포/업데이트(Model Deployment/Update)(13)는 훈련되고 검증되고 테스트된 AI 모델을 Model Inference function(30)에 초기 배포하거나 업데이트된 모델을 Model Inference function(30)에 제공하기 위해 사용된다.
Model Inference function(30)은 AI 모델 추론 출력(Output)(16)(예를 들어, 예측 또는 결정)을 제공하는 기능이다. Model Inference function(30)은 적용가능한 경우, Model Training function(20)에 모델 성능 피드백(Model Performance Feedback)(14)을 제공할 수 있다. 또한, Model Inference function(30)은 필요한 경우 Data Collection function(10)이 제공하는 Inference Data(12)를 기반으로 데이터 준비(예를 들어, data pre-processing 및 cleaning, forming 및 transformation)도 담당한다.
여기서, 출력(Output)(16)은 Model Inference function(30)에 의해 생성된 AI 모델의 추론 출력을 의미하며, 추론 출력의 세부 정보는 사용 사례에 따라 다를 수 있다.
Model Performance Feedback(14)은 사용 가능한 경우 AI 모델의 성능을 모니터링하는 데 사용할 수 있으며, 이 피드백은 생략될 수도 있다.
액터(Actor) function(40)은 Model Inference function(30)으로부터 출력(16)을 수신하고, 해당하는 작업/동작을 트리거 또는 수행하는 기능이다. Actor function(40)은 다른 개체(entity)(예를 들어, 하나 이상의 UE, 하나 이상의 RAN 노드, 하나 이상의 네트워크 노드 등) 또는 자신에 대한 작업/동작을 트리거할 수 있다.
피드백(15)은 Training data(11), Inference data(12)를 도출하기 위해 또는 AI Model의 성능, 네트워크에 미치는 영향 등을 모니터링하기 위해 이용될 수 있다.
한편, AI/ML에서 사용되는 데이터 세트(Data set)에서 훈련(Training)/ 검증(validation) / 테스트(test)에 대한 정의는 다음과 같이 구분될 수 있다.
- 훈련 데이터(Training data): 모델을 학습하기 위한 Data set을 의미한다.
- 검증 데이터(Validation data): 학습이 이미 완료된 모델을 검증하기 위한 Data set을 의미한다. 즉, 보통 training data set의 과대적합(over-fitting)을 방지하기 위해서 사용되는 data set을 의미한다.
또한, 학습하는 과정에서 학습된 여러 가지 모델 중 최고(best)를 선택하기 위한 Data set을 의미한다. 따라서, 따라서, 학습의 일종으로 볼 수도 있다.
- 테스트 데이터(Test data): 최종 평가를 위한 Data set을 의미한다. 이 데이터는 학습과는 무관한 데이터이다.
상기 data set의 경우, 일반적으로 training set을 나눈다면, 전체 training set 내에서 training data과 validation data를 8:2 또는 7:3 정도로 나누어 사용될 수 있으며, test까지 포함을 한다면, 6:2:2 (training: validation: test)를 나누어 사용될 수 있다.
기지국과 단말사이의 AI/ML function의 능력의(capable) 여부에 따라 협력레벨을 다음과 같이 정의할 수 있으며, 하기 복수의 레벨의 결합 혹은 어느 하나의 레벨의 분리로 인한 변형도 가능하다.
Cat 0a) 협력이 없는 프레임워크(No collaboration framework): AI/ML 알고리즘은 순수 구현 기반이며 무선 인터페이스 변경이 필요하지 않는다.
Cat 0b) 이 레벨은 효율적인 구현 기반 AI/ML 알고리즘에 맞추어 수정된 무선 인터페이스를 수반하지만 협력은 없는 프레임워크에 해당한다.
Cat 1) 각 노드의 AI/ML 알고리즘을 개선하기 위한 노드 간 지원이 수반된다. 이는 UE가 gNB(훈련, 적응 등을 위해)로부터 지원을 받는 경우에 적용되며, 그 반대의 경우도 마찬가지이다. 이 레벨에서는 네트워크 노드 간의 모델 교환이 필요하지 않는다.
Cat 2) UE와 gNB 간의 공동 ML 작업이 수행될 수 있다. 이 레벨은 AI/ML 모델 명령 또는 네트워크 노드 간의 교환이 필요하다.
앞서 도 12에서 예시된 기능들은 RAN 노드(예를 들어, 기지국, TRP, 기지국의 중앙 장치(CU: central unit) 등), 네트워크 노드, 네트워크 사업자의 OAM(operation administration maintenance) 또는 UE에서 구현될 수도 있다.
또는, RAN, 네트워크 노드, 네트워크 사업자의 OAM 또는 UE 중 2개 이상의 개체가 협력하여 도 12에서 예시된 기능이 구현될 수도 있다. 예를 들어, 어느 하나의 개체가 도 12의 기능 중 일부를 수행하고, 다른 개체가 나머지의 기능을 수행할 수 있다. 이처럼, 도 12에서 예시하는 기능들 중 일부의 기능들이 단일의 개체(예를 들어, UE, RAN 노드, 네트워크 노드 등)에 의해 수행됨에 따라, 각 기능들 간의 데이터/정보의 전달/제공이 생략될 수 있다. 예를 들어, Model Training function(20)과 Model Inference function(30)이 동일한 개체에 의해 수행된다면, Model Deployment/Update(13)와 Model Performance Feedback(14)의 전달/제공은 생략될 수 있다.
또는, 도 12에 예시된 기능 중 어느 하나의 기능을 RAN, 네트워크 노드, 네트워크 사업자의 OAM 또는 UE 중 2개 이상의 개체가 협력(collaboration)하여 수행할 수도 있다. 이를 분할 AI 동작(split AI operation)으로 지칭할 수 있다.
도 13은 분할 AI 추론을 예시하는 도면이다.
도 13에서는 split AI operation 중에서 특히 Model Inference function이 UE와 같은 종단 기기(end device)와 네트워크 AI/ML 종단 기기(network AI/ML endpoint)에서 협력하여 수행되는 경우를 예시한다.
Model Inference function 이외에도 Model Training function, Actor, Data Collection function 각각도 현재의 작업 및 환경에 따라 다수의 부분들로 분할(split)되고, 다수의 개체들이 협력함으로써 수행될 수 있다.
예를 들어, 계산 집약적(computation-intensive)이고 에너지 집약적(energy-intensive)인 부분을 network endpoint에서 수행되는 반면 개인 정보에 민감한 부분과 지연에 민감한 부분은 end device에서 수행될 수 있다. 이 경우, end device는 입력 데이터로부터 특정 부분/계층까지 작업/모델을 실행한 다음, 중간 데이터(intermediated data)를 네트워크 끝점으로 전송할 수 있다. network endpoint는 나머지 부분/계층을 실행하고 추론 출력(Inference outputs)결과를, 동작/작업을 수행하는 하나 이상의 장치들에게 제공한다.
도 14는 무선 통신 시스템에서 기능적 프레임워크(functional framework)의 적용을 예시한다.
도 14에서는 AI Model Training function이 네트워크 노드(예를 들어, 코어 네트워크 노드, 네트워크 사업자의 OAM 등)에 의해 수행되고, AI Model Inference function이 RAN 노드(예를 들어, 기지국, TRP, 기지국의 CU 등)에 의해 수행되는 경우를 예시한다.
단계 1: RAN 노드 1과 RAN 노드 2는 AI Model Training을 위한 입력 데이터(즉, Training data)를 네트워크 노드에게 전송한다. 여기서, RAN 노드 1과 RAN 노드 2는 UE로부터 수집한 데이터(예를 들어, 서빙 셀과 이웃 셀의 RSRP, RSRQ, SINR과 관련된 UE의 측정, UE의 위치, 속도 등)를 함께 네트워크 노드에게 전송할 수 있다.
단계 2: 네트워크 노드는 수신한 Training data를 이용하여 AI Model을 훈련한다.
단계 3: 네트워크 노드는 AI Model을 RAN 노드 1 및/또는 RAN 노드 2에게 배포/업데이트한다. RAN 노드 1(및/또는 RAN 노드 2)은 수신한 AI Model에 기반하여 모델 훈련을 계속 수행할 수도 있다.
설명의 편의를 위해 RAN 노드 1에게만 AI Model이 배포/업데이트되었다고 가정한다.
단계 4: RAN 노드 1은 UE와 RAN 노드 2로부터 AI Model Inference를 위한 입력 데이터(즉, Inference data)를 수신한다.
단계 5: RAN 노드 1은 수신한 Inference data를 이용하여 AI Model Inference를 수행하여 출력 데이터(예를 들어, 예측 또는 결정)을 생성한다.
단계 6: 적용가능한 경우, RAN 노드 1은 네트워크 노드에게 모델 성능 피드백을 전송할 수 있다.
단계 7: RAN 노드 1, RAN 노드 2 및 UE(또는 'RAN 노드 1과 UE', 또는 'RAN 노드 1과 RAN 노드 2')는 출력 데이터에 기반한 동작(action)을 수행한다. 예를 들어, 로드 밸런싱(load balancing) 동작인 경우, UE가 RAN 노드 1에서 RAN 노드 2로 이동할 수도 있다.
단계 8: RAN 노드 1과 RAN 노드 2는 네트워크 노드에게 피드백 정보를 전송한다.
도 15는 무선 통신 시스템에서 기능적 프레임워크(functional framework)의 적용을 예시한다.
도 15에서는 AI Model Training function과 AI Model Inference function이 모두 RAN 노드(예를 들어, 기지국, TRP, 기지국의 CU 등)에 의해 수행되는 경우를 예시한다.
단계 1: UE와 RAN 노드 2는 AI Model Training을 위한 입력 데이터(즉, Training data)를 RAN 노드 1에게 전송한다.
단계 2: RAN 노드 1은 수신한 Training data를 이용하여 AI Model을 훈련한다.
단계 3: RAN 노드 1은 UE와 RAN 노드 2로부터 AI Model Inference를 위한 입력 데이터(즉, Inference data)를 수신한다.
단계 4: RAN 노드 1은 수신한 Inference data를 이용하여 AI Model Inference를 수행하여 출력 데이터(예를 들어, 예측 또는 결정)을 생성한다.
단계 5: RAN 노드 1, RAN 노드 2 및 UE(또는 'RAN 노드 1과 UE', 또는 'RAN 노드 1과 RAN 노드 2')는 출력 데이터에 기반한 동작(action)을 수행한다. 예를 들어, 로드 밸런싱(load balancing) 동작인 경우, UE가 RAN 노드 1에서 RAN 노드 2로 이동할 수도 있다.
단계 6: RAN 노드 2는 RAN 노드 1에게 피드백 정보를 전송한다.
도 16은 무선 통신 시스템에서 기능적 프레임워크(functional framework)의 적용을 예시한다.
도 16에서는 AI Model Training function이 RAN 노드(예를 들어, 기지국, TRP, 기지국의 CU 등)에 의해 수행되고, AI Model Inference function이 UE에 의해 수행되는 경우를 예시한다.
단계 1: UE는 AI Model Training을 위한 입력 데이터(즉, Training data)를 RAN 노드에게 전송한다. 여기서, RAN 노드는 다양한 UE들로부터 및/또는 다른 RAN 노드로부터 데이터(예를 들어, 서빙 셀과 이웃 셀의 RSRP, RSRQ, SINR과 관련된 UE의 측정, UE의 위치, 속도 등)를 수집할 수 있다.
단계 2: RAN 노드는 수신한 Training data를 이용하여 AI Model을 훈련한다.
단계 3: RAN 노드는 AI Model을 UE에게 배포/업데이트한다. UE는 수신한 AI Model에 기반하여 모델 훈련을 계속 수행할 수도 있다.
단계 4: UE와 RAN 노드로부터(및/또는 다른 UE로부터) AI Model Inference를 위한 입력 데이터(즉, Inference data)를 수신한다.
단계 5: UE는 수신한 Inference data를 이용하여 AI Model Inference를 수행하여 출력 데이터(예를 들어, 예측 또는 결정)를 생성한다.
단계 6: 적용가능한 경우, UE는 RAN 노드에게 모델 성능 피드백을 전송할 수 있다.
단계 7: UE와 RAN 노드는 출력 데이터에 기반한 동작(action)을 수행한다.
단계 8: UE는 RAN 노드에게 피드백 정보를 전송한다.
1차원/2차원 컨볼루션 신경망(Convolutional Neural Network) 구조
컨볼루션 신경망(CNN) 구조는 이미지 처리(image processing) 분야에서 좋은 성능을 발휘할 수 있는 구조이며, 이와 같은 특성을 바탕으로 해당 CNN 구조를 무선 통신 시스템에서의 채널 추정에 적용하여 성능을 향상시키는 방안이 활발하게 논의되고 있다. 이와 같은 CNN 구조의 예시로, 1차원(1 Dimension, 1D) CNN 구조 및 2D CNN 구조가 고려될 수 있다.
먼저, 1D CNN 구조에 대해 설명한다.
도 17은 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 위한 1D CNN 구조를 예시한다.
도 17을 참조하면, 1D CNN 구조에 기반하는 경우, 주파수 영역 상에서의 채널 추정과 시간 영역 상에서의 채널 추정은 분리하여 수행되는 경우가 가정된다. 예를 들어, 주파수 영역 상에서의 채널 추정 이후에 시간 영역 상에서의 채널 추정이 수행될 수 있다(예: 1D Wiener 필터).
도 17에서는 주파수 영역 상에서의 채널 추정 값(예: x0+jy0, ...)으로부터 CNN의 각 층이 구성되는 방식을 예시한다. 도 17에서는 실수 값을 예시로 하지만, 허수 값에 대해서도 동일하게 적용될 수 있음은 자명하다. 또한, 주파수 영역 상에서의 채널 추정 값을 예시로 하지만, 시간 영역 상에서의 채널 추정 값에 대해서도 동일하게 적용될 수 있음은 자명하다.
예를 들어, 도 17에서와 같이, 채널 추정 값(예: 채널 추정 값 중 실수 값)에 기반하여 CNN의 입력층(2010)이 구성될 수 있다. 채널 추정 값과 관련하여, 음영 영역(2005)는 DMRS가 전송되는 영역을 의미할 수 있다. 입력층(2010)과 출력층(2030) 사이에는 N개(예: N은 1보다 크거나 같은 자연수)의 컨볼루션층/은닉층(2020)이 구성될 수 있다. 이때, 컨볼루션층/은닉층(2020)의 결과 값으로부터 출력층(2030)이 구성될 수 있다.
도 18은 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 위한 1D CNN 구조에서의 출력 값 추정 방식을 예시한다.
도 18을 참조하면, 1D CNN을 구성하는 각 컨볼루션층/은닉층에서 입력 값(2110)으로부터 특성맵(2120)을 도출하고 출력 값(2130)이 추정될 수 있다.
예를 들어, 각 컨볼루션층/은닉층에서의 특성맵(2120) 도출 동작은 [S2110-a, S2110-b, S2110-c, ...]에 해당할 수 있으며, 특성맵(2120)에 기반하여 출력 값(2130)을 추정하는 동작은 [S2120]에 해당할 수 있다.
각 컨볼루션층/은닉층에서는 특성맵(2120)을 도출하기 위해서 특정 단위의 입력 값에 특정 가중치(weight)를 적용하는 커널/필터(2140)가 정의될 수 있다. 각 커널/필터(2140)는 특정 크기(또는 가중치의 개수)로 정의될 수 있다. 또한, 각 커널/필터(2140)는 특정 가중치의 조합(예: w0/w1/w2/w3)으로 정의될 수 있다. 각 커널/필터(2140)는 입력 값(2110) 내에서 특성맵(2120)을 도출하기 위한 특정 이동 범위를 가질 수 있으며, 해당 특정 이동 범위는 스트라이드(stride)로 명명할 수 있다. 또한, 상기 커널/필터(2140)는 컨볼루션층/은닉층 별로 서로 다르게 정의되거나, 모든 컨볼루션층/은닉층들에 대해 동일하게 정의될 수도 있다. 도 18은 크기 4 및 스트라이드 1로 설정/정의된 1개의 커널/필터(2140)로 구성된 컨볼루션층/은닉층의 예를 보여준다.
각 컨볼루션층/은닉층에서는, 특성맵(2120)에 기반하여 출력 값을 추정하기 위해 이용되는 활성화 함수(activation function, AF)(2150)이 정의될 수 있다. 컨볼루션 연산을 통해 획득된 특성맵(2120)에 대해 비선형성을 추가하기 위하여 활성화 함수(2150)가 이용될 수 있다. 예를 들어, 활성화 함수(2150)는 계단 함수(step function), 시그모이드 함수(sigmoid function), 하이퍼볼릭탄젠트 함수(hyperbolic tangent function), 렐루 함수(ReLU function), 리키 렐루 함수(Leaky ReLU function), 소프트맥스 함수(softmax function) 등을 포함할 수 있다.
다음으로, 2D CNN 구조에 대해 설명한다.
도 19는 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 위한 2D CNN 구조를 예시한다.
도 19를 참조하면, 2D CNN 구조에 기반하는 경우, 주파수 영역 상에서의 채널 추정과 시간 영역 상에서의 채널 추정은 함께 수행되는 경우가 가정된다. 예를 들어, 주파수 영역 상에서의 채널 추정과 시간 영역 상에서의 채널 추정은 동시에 수행될 수 있다(예: 2D Wiener 필터).
도 19에서는 주파수 영역 상에서의 채널 추정 값(예: x0+jy0, ...)으로부터 CNN의 각 층이 구성되는 방식을 예시한다. 도 22에서는 실수 값을 예시로 하지만, 허수 값에 대해서도 동일하게 적용될 수 있음은 자명하다.
도 19에서의 2D CNN 구조의 각 층을 구성하는 방법은 도 17에서의 1D CNN 구조의 각 층을 구성하는 방법을 2차원 시간/주파수 영역으로 확장한 것으로, 그 이외의 구성 방법은 동일한 것으로 가정할 수 있다.
예를 들어, 도 19에서와 같이, 채널 추정 값(예: 채널 추정 값 중 실수 값)에 기반하여 CNN의 입력층(2210)이 구성될 수 있다. 채널 추정 값과 관련하여, 음영 영역(2205)는 DMRS가 전송되는 영역을 의미할 수 있다. 입력층(2210)과 출력층(2230) 사이에는 N개(예: N은 1보다 크거나 같은 자연수)의 컨볼루션층/은닉층(2220)이 구성될 수 있다. 이때, 컨볼루션층/은닉층(2220)의 결과 값으로부터 출력층(2230)이 구성될 수 있다.
도 20은 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 위한 2D CNN 구조에서의 출력 값 추정 방식을 예시한다.
도 20을 참조하면, 2D CNN을 구성하는 각 컨볼루션층/은닉층에서 입력 값(2310)으로부터 특성맵(2320)을 도출하고 출력 값(2330)이 추정될 수 있다.
도 20에서의 출력 값을 추정하는 방식은 도 17에서의 출력 값을 추정하는 방식을 2차원 시간/주파수 영역으로 확장한 것으로, 그 이외의 방법은 동일한 것으로 가정할 수 있다.
예를 들어, 각 컨볼루션층/은닉층에서의 특성맵(2320) 도출 동작은 [S2310-a, S2310-b, S2310-c, ...]에 해당할 수 있으며, 특성맵(2320)에 기반하여 출력 값(2330)을 추정하는 동작은 [S2320]에 해당할 수 있다.
각 컨볼루션층/은닉층에서는 특성맵(2320)을 도출하기 위해서 특정 단위의 입력 값에 특정 가중치(weight)를 적용하는 커널/필터(2340)가 정의될 수 있다. 각 커널/필터(2340)는 특정 크기(또는 가중치의 개수)로 정의될 수 있다. 이 경우, 상기 특정 크기는 2차원(예: 2차원 시간/주파수 영역)에 기반하여 정의될 수 있다. 또한, 각 커널/필터(2340)는 특정 가중치의 조합(예: w00/w10/w20/w30/w01/w11/w21/w31)으로 정의될 수 있다. 각 커널/필터(2340)는 입력 값(2310) 내에서 특성맵(2320)을 도출하기 위한 특정 이동 범위를 가질 수 있으며, 해당 특정 이동 범위는 스트라이드(stride)로 명명할 수 있다. 이 경우, 상기 스트라이드는 2차원(예: 2차원 시간/주파수 영역)에 기반하여 정의될 수 있다. 또한, 상기 커널/필터(2340)는 컨볼루션층/은닉층 별로 서로 다르게 정의되거나, 모든 컨볼루션층/은닉층들에 대해 동일하게 정의될 수도 있다. 도 20은 크기 4x2 및 스트라이드 [1, 1](예: [시간 영역, 주파수 영역])로 설정/정의된 1개의 커널/필터(2340)로 구성된 컨볼루션층/은닉층의 예를 보여준다.
각 컨볼루션층/은닉층에서는, 특성맵(2320)에 기반하여 출력 값을 추정하기 위해 이용되는 활성화 함수(activation function, AF)(2350)이 정의될 수 있다. 컨볼루션 연산을 통해 획득된 특성맵(2320)에 대해 비선형성을 추가하기 위하여 활성화 함수(2350)가 이용될 수 있다. 예를 들어, 활성화 함수(2150)는 계단 함수(step function), 시그모이드 함수(sigmoid function), 하이퍼볼릭탄젠트 함수(hyperbolic tangent function), 렐루 함수(ReLU function), 리키 렐루 함수(Leaky ReLU function), 소프트맥스 함수(softmax function) 등을 포함할 수 있다.
상술한 1D CNN 구조 및 2D CNN 구조와 관련하여, 구조 내에서의 패딩(padding) 및 풀링(pooling)에 대한 기능/동작/구조가 함꼐 고려될 수 있다.
도 21은 본 개시가 적용될 수 있는 무선 통신 시스템에서 AI/ML 기반 채널 추정을 CNN 구조에서의 패딩 및 풀링을 예시한다. 구체적으로, 도 21(a)는 패딩 방식을 예시하고, 도 21(b)는 풀링 방식을 예시한다.
도 21(a)를 참조하면, 컨볼루션 연산의 결과로 얻은 특성맵(2420)은 입력(2410)보다 크기가 작아지는데, 패딩 방식은 이를 방지하기 위해 이용될 수 있다. 즉, 패딩 방식은 컨볼루션 연산 이후에도 특성맵(2420)의 크기가 입력(2410)의 크기와 동일하게 유지되도록 하는 기능/동작/구조를 의미할 수 있다. 도 21(a)는 1D CNN 구조에서 제로 패딩을 적용하는 예시를 보여준다.
도 21(b)를 참조하면, 풀링(또는 풀링층)(2440)은 특성맵(2420)을 하향샘플링(downsampling)하여 특성맵(2420)의 크기를 줄이는 기능/동작/구조를 의미할 수 있다. 풀링 연산의 예로, 최대 풀링(max pooling), 평균 풀링(average pooling) 등이 있다. 도 21(b)는 1D CNN 구조에서 최대 풀링을 적용하는 예시를 보여준다. 풀링 연산에서도 커널과 스트라이드의 개념이 동일하게 적용될 수 있으며, 해당 예시에서는 크기 4의 커널과 4로 설정된 스트라이드 가정된다.
상술한 1D CNN 구조와 2D CNN 구조와 관련하여, 편향(bias)에 대한 설명은 생략되었으나, 해당 CNN 구조와 관련하여 편향 값이 적용될 수 있음은 자명하다. 편향 값이 사용되는 경우, 해당 편향 값은 커널을 적용한 특정 특성맵에 대해 추가되는 형태로 적용될 수 있다.
또한, 상술한 1D CNN 구조와 2D CNN 구조와 관련하여, 손실 함수(loss function) 및 옵티마이저(optimizer)에 대한 설명은 생략 되었으나, 해당 CNN 구조(또는 AI/ML 알고리즘) 내에서 학습(training) 과정을 위하여 손실 함수 및 옵티마이저가 고려될 수 있음은 자명하다. 여기에서, 손실 함수는 실제 값과 예측 값 간의 차이를 수치화하는 함수를 의미할 수 있다. 손실 함수로, 평균 제곱 오차(MSE), 크로스 엔트로피(cross-entropy) 등이 고려될 수 있다. 옵티마이저는 손실 함수에 기반하여 각 층에 적합한 가중치(들)을 업데이트하기 위한 함수를 의미할 수 있다. 옵티마이저로, 배치 경사 하강법(batch gradient descent), 확률적 경사 하강법(stochastic gradient descent, SGD), 미니 배치 경사 하강법(moni-batch gradient descent), 모멘텀(momentum), 아다그라드(adagrad), 알엠에스프롭(RMSprop), 아담(adam) 등이 고려될 수 있다.
(온라인) 훈련 참조 신호(OT-RS: (online) training reference signal)과 추론 참조 신호(I-RS: inference reference signal) 간의 연관 관계 설정 방법
현재 3GPP에서는 Rel-18에서 AI(Artificial Intelligence)/ML(Machine learning) 기술을 표준 기술에 어떻게 적용할 수 있을지 관련된 논의가 진행 중에 있다. 이에 대하여 주요 활용예(use case)는 다음과 같다.
- CSI 피드백 압축(feedback compression) (더 낮은 오버헤드)
- 빔 관리(Beam management) (빔 선택(beam selection), 빔 복구(beam recovery) 등)
- 포지셔닝(Positioning)
- RS 오버헤드 감소(RS overhead reduction) (채널 추정)
- 이동성(Mobility)
상기의 use case 들에서 AI/ML 기술을 표준 기술에 적용하려는 경우, 크게는 아래의 두 가지 방향으로 AI/ML 기술을 적용하는 방법을 나누어 볼 수 있다.
- 카테고리 1(Cat1): AI/ML 모델, 및/또는 해당 모델에 필요한 파라미터(parameter)들과 관련되는 정보를 기지국과 단말 사이에 공유할 수 있도록 표준에서 지원하는 방법
- 카테고리 2(Cat2): AI/ML 모델, 및/또는 해당 모델에 필요한 parameter 들과 관련되는 정보는 기지국과 단말 사이에 공유하지 않는 환경을 가정하여 현재 표준의 기능들을 향상시키거나 새로운 기능을 추가하는 방법
상기의 두 가지 방향 모두 AI/ML 기술을 적용하여 특정 use case에 대한 성능 향상을 기대할 수 있을 것을 예상된다. 이 중에서도 상기 Cat1 방향으로 표준 기술 개발이 이루어 진다면 아래와 같은 장점을 추가적으로 기대할 수 있다.
- gNB 또는 UE 중 특정 노드에서만 훈련(training)을 수행할 수 있다. 예를 들어, 특정 노드(예를 들어, gNB 또는 UE)에서 training을 위한 데이터셋(dataset)에 기반하여 예측 값과 실제 값으로부터 오차를 계산하고, 가중치(weight)와 편향(bias) 등 추론(inference)에 필요한 parameter 들을 업데이트할 수 있다.
- training을 수행하지 않는 노드에게 업데이트 된 parameter들을 공유함으로써, 해당 노드의 inference 성능을 향상시킬 수 있다. 예를 들어, training 결과/정보(예를 들어, weight, bias 등)를 공유할 수 있는 경우, 특정 노드에서는 위와 같은 업데이트 과정(예를 들어, 손실 함수(loss function) 및/또는 최적화(optimizer)를 사용하여 weight/bias 업데이트 등)이 불필요하므로, 해당 노드의 계산 복잡도 및 에너지 소모를 낮추면서 inference 성능은 향상시킬 수 있다.
상기 Cat1 방향의 표준 기술 개발을 고려하였을 때, DL(deep learning) 분야에서 많은 연구 결과들을 바탕으로 대표적으로 이용/고려되는 딥 (D)NN 구조(예를 들어, CNN)를 표준 기술에서 우선 적용하는 방향을 고려할 수 있다.
채널 추정을 위한 AI/ML 알고리즘을 고려하였을 때, 채널이 시간에 따라 변화되는 특성으로 인해 알고리즘의 weight, bias 등을 업데이트 하기 위한 온라인 훈련(online training)이 필요할 수 있다. 이를 위해, 데이터(data)를 수신하는 경우(예를 들어, PBCH/PDSCH/PUSCH/PDCCH/PUCCH 등), 해당 data 채널에 대응하는 참조 신호(RS: reference signal)에 기반하여 training을 다시 수행할 수도 있다. (즉, training -> 디코딩(decoding)) 하지만, 이러한 경우 training을 수행한 후 inference를 수행하게 되면 이로 인해 메모리를 장시간 점유해야 하고, 지연(latency)가 증가하는 단점이 있다. 또는, decoding을 먼저 수행한 후 training을 수행할 수도 있다. (즉, decoding -> training) 하지만, 이 경우, training의 결과를 decoding에 적용할 수 없다. 따라서, 데이터 data 전송이 빈번하게 일어나는 경우가 아니라면, training 후 다음 data를 수신할 때까지 시간이 길어질수록 training의 결과가 시기 적절하지 않아(out-of-date) training이 무의미해지고 성능이 떨어지는 단점이 있다.
상기와 같은 이유로 채널 추정 성능 향상을 위해 AI/ML 알고리즘을 적용할 때 알고리즘의 weight, bias 등을 업데이트 하기 위한 online training이 필요할 수 있다. 여기서, online training을 통해 weight, bias 등을 업데이트 하려는 경우, training의 결과를 inference에 활용하기 위해서는 inference에 활용할 RS의 패턴과 동일한 RS 패턴이 training을 위해 요구될 수 있다.
상기와 더불어 기지국/단말의 송신/수신 TRP(transmission reception point)/패널(panel)/빔(beam) 등에 따라 채널 특성이 변화할 수 있다. 이러한 경우, 서로 다른 채널 특성을 갖는 기지국/단말의 송신/수신 TRP/panel/beam 각 조합에 별로 AI/ML 알고리즘에 대한 online training이 독립적으로 수행되어야 할 필요가 있다. 상기와 같이 독립적인 online training을 다수 수행하는 경우, 실제 data(예를 들어, PDSCH/PUSCH/PDCCH/PUCCH 등)를 송신/수신할 때에 어떤 online training의 결과를 참조해야 하는지 기지국/단말이 서로 공유해야 할 필요가 있다. 본 개시에서 독립적인 (online) training을 다수 수행하는 경우, 실제 data를 송신/수신할 때에 어떤 training 결과를 참조해야 하는지 기지국/단말이 이에 필요한 정보를 공유하는 방법을 제안한다.
본 개시에서 L1(layer 1) 시그널링(signaling)은 기지국과 단말 사이의 DCI 기반의 동적인 signaling을 의미할 수 있고 L2(layer 2) signaling은 기지국과 단말 사이의 RRC/MAC 제어 요소(CE: control element) 기반의 상위 계층 시그널링(higher layer signaling)을 의미할 수 있다.
본 개시에서 제안하는 방법에 대해서 독립적으로 및/또는 하나 이상의 복수의 제안 방법의 조합 형태로 적용/지원하는 것이 가능하다.
상술한 두 가지 CNN 구조는 본 제안 방법에서 주로 고려되는 구조를 기술한 것으로, 제안 방법을 제한하려는 것이 아니므로 특정 용어가 특정 기능/동작을 제한하려는 것이 아니다. 따라서, 상기 기술한 기능/동작/방법을 특정 용어로 제한하지 않을 수 있으며, 다른 용어로 지칭할 수도 있다.
상술한 두 가지 CNN 구조와 관련하여 도식에 표현된 크기(예를 들어, 입력/입력 레이어의 크기, 출력/출력 레이어의 크기, 컨볼루션 레이어의 크기, 커널(kernel)의 크기, 등등)들은 한 가지 예시를 나타낸 것이며, 제안 방법을 제한하려는 것이 아니므로 다른 크기들에도 제안 방법들이 적용될 수 있다.
설명의 편의를 위해, 본 발명의 제안 방법에서는 기지국 및/또는 단말에서 상기에서 기술한 두 가지 CNN 구조 (예를 들어, 1D CNN and/or 2D CNN)를 기지국 및/또는 단말에서의 채널 추정 과정에 이용하는 것을 가정할 수 있다. 예를 들어, 기지국 및/또는 단말에서는 채널 추정을 위한 참조 신호(reference signal)를 전송할 수 있고, 기지국 및/또는 단말에서는 상기 참조 신호에 기반하여 (무선) 채널을 추정할 수 있다. 그리고, 상기 채널 추정 시에 CNN 구조를 이용하여 참조 신호가 전송되지 않는 자원 영역(예를 들어, 자원 요소들(resource elements), 자원 블록들(resource blocks), OFDM 심볼들(symbols) 등)에 대한 채널을 추정 성능 및/또는 참조 신호가 전송된 자원 영역의 채널 추정 성능을 향상 시킬 수 있다.
다만, 본 개시의 제안 방법에서는 설명의 편의를 위해 CNN 구조 및 채널 추정을 가정하여 제안 방법의 주된 용도를 제안/설명/기술하지만, 이는 본 개시의 적용 범위를 제한하려는 것은 아니다. 따라서, CNN 구조 이외의 AI/ML 알고리즘 및/또는 NN 구조 및 CSI 피드백/포지셔닝/빔 관리/ 채널 예측 등의 채널 추정 이외의 다른 용도에도 본 개시의 제안 방법을 적용할 수 있다.
후술하는 본 개시에서 아래의 제안 방법에서 '정의'한다고 함은 기지국과 단말 사이에 사전에 약속된 규칙 등에 기반하여 기지국/단말이 제안 방법에 기반하여 동작할 수 있음을 의미할 수 있다.
또한, 후술하는 본 개시에서 '설정/지시'한다고 함은 기지국이 L1/L2 시그널링에 기반하여 제안 방법의 동작 여부 및/또는 제안 방법에 필요한 파라미터 등을 단말에게 설정/지시하여 기지국/단말이 제안 방법에 기반하여 동작할 수 있음을 의미할 수 있다.
도 22는 본 개시의 일 실시예에 따른 기지국과 단말 간의 시그널링 절차를 예시하는 도면이다.
도 22의 예시는 설명의 편의를 위한 것이며, 본 개시의 범위를 제한하는 것은 아니다. 도 22에서 예시된 일부 단계(들)은 상황 및/또는 설정에 따라 생략될 수 있다. 또한, 도 22에서 예시된 일부 단계(들)의 순서가 변경될 수도 있다.
또한, 도 22에서 기지국과 단말은 하나의 예시일 뿐, 아래 도 36에서 예시된 장치로 구현될 수 있다. 예를 들어, 도 36의 프로세서(processor)(102/202)는 트랜시버(106/206)을 이용하여 채널/신호/데이터/정보 등을 송수신하도록 제어할 수 있으며, 전송할 또는 수신한 채널/신호/데이터/정보 등을 메모리(104/204)에 저장하도록 제어할 수도 있다. 또한, 도 22에서의 기지국은 네트워크 단의 장치를 의미할 수도 있다.
또한, 도 22의 기지국과 단말 간의 동작에 있어서, 별도의 언급이 없더라도 본 개시에서의 제안 방법이 참조/이용될 수 있다.
도 22는 DNN 구조를 예시로 하여 도시되지만, 도 22에서 설명되는 시그널링은 AI/ML 알고리즘 및/또는 DNN/NN 구조와 관련된 정보의 공유 및 적용에 대해서도 확장하여 적용될 수 있다.
단계 S005에서, 단말은 해당 단말의 능력 정보를 기지국에게 전송/보고할 수 있다. 예를 들어, 단말은 본 개시에서의 실시예와 관련된 능력 정보를 보고할 수 있다.
단계 S010에서, 기지국은 DNN에 대한 (사전) 학습(training)을 수행할 수 있다. 기지국은 학습 과정에 기반하여 AI/ML 알고리즘 및/또는 DNN/NN 구조에 요구되는 파라미터(들)에 대한 정보를 획득할 수 있다. 예를 들어, 해당 과정에 기반하여, 기지국은 본 개시에서의 실시예와 관련된 파라미터(들)을 획득할 수 있다.
단계 S015에서, 기지국은 단말에게 AI/ML 알고리즘 및/또는 DNN/NN 구조와 관련된 정보를 설정/지시할 수 있다. 기지국은 상기 단계 S010에서 획득한 파라미터(들)에 대한 정보를 단말에게 설정/지시할 수 있다. 예를 들어, 해당 단계에서, 본 개시에서의 실시예와 관련된 파라미터(들)이 단말에게 설정/지시될 수 있다.
단계 S020에서, 기지국은 단말과 공유된 AI/ML 알고리즘 및/또는 DNN/NN 구조에 기반하여 DNN 구조를 적용할 수 있다. 예를 들어, 기지국은 DNN을 적용하여 DL 채널 및/또는 RS(Reference Signal)을 압축하여 단말에게 전송할 수 있다.
단계 S025에서, 기지국은 DL 채널 및/또는 RS를 단말에게 전송할 수 있다. 상술한 바와 같이, 예를 들어, 기지국이 단말에게 DL 채널 및/또는 RS를 전송할 때, 단말과 공유된 AI/ML 알고리즘 및/또는 DNN/NN 구조가 적용될 수 있다.
단계 S030에서, 단말은 DL 채널 및/또는 RS에 대해 기지국으로부터 공유된 DNN을 적용할 수 있다. 예를 들어, 단말은 기지국에 의해 기-설정된 AI/ML 알고리즘 및/또는 DNN/NN 구조에 기반하여 DL 채널 및/또는 RS에 대한 압축을 해제하거나, DL 채널 및/또는 RS를 추정/예측할 수 있다.
단계 S035에서, 단말은 DL 채널 및/또는 RS에 기반하여 DNN 파라미터를 조정(tuning)할 수 있다. 예를 들어, 단말은 DL 채널 및/또는 RS에 기반하여 학습(training)을 수행할 수 있고, 학습 결과에 기반하여 DNN 파라미터를 조정할 수 있다.
단계 S040에서, 단말은 CSI 보고를 수행하거나, UL 채널 및/또는 RS를 전송할 수 있다. 예를 들어, 단말은 상기 단계 S035에서 학습한 결과에 대하여 CSI 보고를 수행할 수 있다. 이 경우, 단말은 DNN을 적용하여 CSI를 압축할 수도 있다. 그리고/또는, 단말은 DNN을 적용하여 UL 채널 및/또는 RS를 압축하여 기지국에게 전송할 수 있다.
단계 S045에서, 기지국은 CSI 보고, UL 채널 및/또는 RS에 대해 DNN을 적용할 수 있다. 예를 들어, 단말과 기-공유한 AI/ML 알고리즘 및/또는 DNN/NN 구조에 기반하여, 기지국은 CSI 보고, UL 채널 및/또는 RS에 대한 압축을 해제하거나, CSI 보고, UL 채널 및/또는 RS를 추정/예측할 수 있다.
단계 S050에서, 기지국은 CSI 보고, UL 채널 및/또는 RS에 기반하여 DNN 파라미터를 조정(tuning)할 수 있다. 예를 들어, 기지국은 UL 채널 및/또는 RS에 기반하여 학습(training)을 수행할 수 있고, 학습 결과에 기반하여 DNN 파라미터를 조정할 수 있다. 그리고/또는, 기지국은 단말의 보고 값에 기반하여 DNN 파라미터를 조정할 수 있다.
단계 S055에서, 기지국은 AI/ML 알고리즘 및/또는 DNN/NN 구조에 대한 파라미터(들)에 대해 업데이트를 수행하도록 단말에게 설정/지시할 수 있다. 예를 들어, 단말은 해당 기지국의 업데이트 설정/지시에 기반하여 DNN 파라미터를 조정/업데이트할 수 있다.
단계 S060에서, 단말은 DNN 파라미터를 조정할 수 있다. 예를 들어, 상기 단계 S055에서의 업데이트 설정/지시와 같이, 단말은 L1/L2 시그널링에 기반하여 기지국에 의해 설정/지시된 값(들)에 기반하여 DNN 파라미터를 조정할 수 있다.
이하에서는 온라인 학습을 위해 데이터 없는 DMRS를 전송하는 방법 및 CSI-RS/SRS 설정 지시에 특정 DMRS 값을 연결/대응하는 방법에 대해 구체적으로 설명하도록 한다.
실시예 1
실시예 1은 온라인 학습을 위해 기지국/단말이 데이터 전송 없이 상기 데이터 전송 채널의 DMRS를 전송하는 방법에 관한 것이다.
도 23(a)는 기지국/단말이 데이터 및 상기 데이터 전송 채널의 DMRS를 전송하는 방식의 예시를 나타낸다. 구체적으로, 도 23(a)는 단말에 대해 상위 계층 파라미터에 의해 PDSCH 매핑 타입(예로, PDSCH 매핑 타입 A), (DMRS) 설정 타입(예로, 설정 타입 1), 추가적인 DMRS에 대한 위치(예로, 'dmrs-AdditionalPosition=po3'), 및 구간(duration)(예로, ld=24)가 설정된 경우를 도시한다.
이 때, 단말은 2, 5, 8, 및 11 번째 OFDM 심볼에서 전송되는 DMRS를 이용하여 단말에 대해 스케줄링된 PDSCH에 대응되는 슬롯 및 대역폭의 무선 채널을 추정할 수 있다. 그리고, 단말은 스케줄링된(즉, 2 번째 OFDM 심볼부터 13 번째 OFDM 심볼까지 전송되는) PDSCH의 디코딩 과정에 추정된 무선 채널 정보를 활용할 수 있다.
도 23(b)는 온라인 학습을 위해 기지국/단말이 데이터 전송 없이(즉, PDSCH 전송 없이) 상기 데이터 전송 채널의 DMRS를 전송하는 방식의 예시를 나타낸다. 단말은 DMRS를 이용하여 AI/ML 알고리즘에 필요한 가중치 및 편향(bias)를 업데이트(또는, 파인 튜닝(fine tuning))할 수 있다.
여기서, 도 23(a)와 동일하게 도 23(b)의 경우, 단말에 대해 상위 계층 파라미터에 의해 PDSCH 매핑 타입(예로, PDSCH 매핑 타입 A), (DMRS) 설정 타입(예로, 설정 타입 1), 추가적인 DMRS에 대한 위치(예로, 'dmrs-AdditionalPosition=po3'), 및 구간(duration)(예로, ld=24)가 설정된 경우를 가정한다.
도 23의 (a) 및 (b)에서는 PDSCH 및 PDSCH DMRS에 대한 예시를 도시하고 있으나, 본 개시는 PBCH/PUSCH/PUCCH/PDCCH 등과 같은 데이터 채널에 대해서도 확장 적용될 수 있다.
AI/ML 알고리즘을 적용 시 알고리즘의 가중치 및 편향 등을 업데이트 하기 위한 온라인 학습이 필요할 수 있다. 온라인 학습 시 추론(inference)에 활용할 RS의 패턴과 동일한 RS 패턴을 학습을 위해 제공함으로써, 학습의 정확도와 효율을 높일 수 있다. 또한, 불필요한 데이터 전송을 회피할 수 있으므로 다른 단말의 데이터 채널에 대한 간섭을 줄일 수 있고 자원 효율을 높일 수 있다.
본 개시의 설명의 편의를 위하여 데이터 전송 없는 DMRS 전송을 'T(training)-DMRS'로 명명하도록 한다.
기지국이 단말로 T-DMRS를 전송하는 경우 또는/및 단말이 기지국으로 T-DMRS를 전송하는 경우, T-DMRS는 단말-특정(UE-specific)/단말-그룹 특정(UE-group specific)(예로, 멀티캐스트(multicast))/셀-특정(Cell-specific)(예로, 브로드캐스트(broadcast))한 특성을 가질 수 있다.
이를 위해, T-DMRS 전송/수신과 관련된 L1/L2 시그널링을 수행할 때, 해당 파라미터들은 단말-특정/단말-그룹 특정(예로, 멀티캐스트)/셀-특정 (예로, 브로드캐스트)하게 단말에 대해 설정/지시될 수 있다.
실시예 1-1
실시예 1-1은 T-DMRS 전송을 기지국이 단말로 지시하는 방법(즉, UL RS 전송을 위한 지시) 및/또는 T-DMRS 전송을 단말이 기지국으로 요청하는 방법(즉, DL RS 전송을 위한 요청)에 관한 것이다.
예로, 기지국은 채널 추정을 위한 AI/ML 알고리즘의 가중치 및 편향 등의 업데이트를 위해 단말에게 T-DMRS 전송을 지시할 수 있다. 추가적으로 또는 대안적으로, 단말은 채널 추정을 위한 AI/ML 알고리즘의 가중치 및 편향 등의 업데이트를 위해 기지국으로 T-DMRS 전송을 요청할 수 있다.
도 24(a)는 단말이 기지국에게 T-DMRS 전송을 요청하는 예시를 도시한다. 구체적으로, 기지국은 T-DMRS 전송과 관련된 설정 정보(또는, 설정 값)를 (단말이 T-DMRS 요청하기 전에) 단말로 전송할 수 있다(S105). 단말은 상기 설정 정보(또는, 설정 값) 및/또는 다른 요청 정보에 기초하여 기지국으로 DL T-DMRS 전송을 요청할 수 있다(S110). 기지국은 상기 단말의 요청 및/또는 상기 설정 정보(또는, 설정 값)에 기반하여 DL T-DMRS를 단말로 전송할 수 있다(115).
도 24(b)는 기지국이 단말에게 T-DMRS 전송을 지시하는 예시를 도시한다. 기지국은 T-DMRS 전송과 관련된 설정 정보(또는, 설정 값)을 (단말에게 T-DMRS 전송을 지시하기 전에) 단말로 전송할 수 있다(S205). 기지국은 상기 설정 정보 및/또는 다른 지시 정보에 기초하여 단말에게 UL T-DMRS 전송을 지시할 수 있다(S210). 단말은 상기 기지국의 지시 및/또는 상기 설정 정보(또는, 설정 값)에 기초하여 UL T-DMRS를 기지국으로 전송할 수 있다(S215).
상술한 바와 같이, 기지국/단말은 추가적인 RS 전송이 필요한 경우에만 T-DMRS 전송을 지시/요청함으로써, RS 전송을 위한 자원이 보다 효율적으로 활용될 수 있다.
실시예 1-2
실시예 1-2는 T-DMRS 전송을 지시/요청할 때 (필요한) RS 패턴 정보를 포함시키는 방법에 관한 것이다. 일 예로, T-DMRS 전송의 지시/요청에 RS 패턴 정보를 지시/요청하는 정보가 포함될 수 있다. 또 다른 예로, T-DMRS 전송의 지시/요청과 별개로 RS 패턴 정보를 지시/요청하는 정보가 송수신될 수 있다.
일 예로, RS 패턴 정보는 DMRS 타입(예로, 'dmrs-Type'), 추가적인 DMRS에 대한 위치(예로, 'dmrs-AdditionalPosition=po3'), 최대 길이('maxLength'), 스크램블링 ID(예로, 'scramblingID0', 또는/및 'scramblingID1'), CDM 그룹의 수, RS 시간/주파수 밀도(density), 포트 인덱스, OFDM 심볼의 수 중의 적어도 하나를 포함할 수 있다.
여기서, CDM 그룹의 수에 대한 정보에는 DMRS가 전송되는 RE 이외의 RE에는 신호를 전송하지 않도록 하는 값(즉, 뮤팅(muting)/레이트-매칭(rate-matching) 값)이 설정/지시/정의될 수 있다. 예로, DMRS 타입이 1일 때, 뮤팅/레이트-매칭 값은 2로 설정/지시/정의될 수 있으며, DMRS 타입이 2일 때, 뮤팅/레이트-매칭 값은 3으로 설정/지시/정의될 수 있다.
그리고, 포트 인덱스는 단일 포트를 가정하도록 설정/지시/정의될 수 있다. 예로, 포트 인덱스는 1000 등으로 설정/지시/정의될 수 있다.
일 예로, 'RS 패턴 정보'를 (T-DMRS 전송을 지시/요청하는 정보에) 포함시키는 방법은 미리 정의된 DMRS 패턴에 적용될 수 있다. DL/UL DMRS 송수신을 위해 단말에게 설정되는 정보(또는, 값)에 기초하여, (수신/전송이 가능한 DMRS 패턴 중) 특정 패턴을 지시할 수 있는 값이 송수신될 수 있다.
도 25는 미리 정의된 DL DMRS 패턴의 예시를 나타낸다. 도 25의 표와 단말에 대해 설정된 정보(예로, PDSCH 매핑 타입, 추가적인 DMRS에 대한 위치, 및 Id)에 기초하여 최종적인 DMRS 패턴이 결정될 수 있다.
예로, 단말에 대해 PDSCH 매핑 타입 A 및 'dmrs-AdditionalPosition' 값으로 'pos3'이 설정된 경우, p0 부터 p3까지 전체 4개의 DMRS 패턴 중 Id 값에 기반하여 특정 DMRS 패턴이 결정될 수 있다.
예를 들어, 각 패턴에 대응하는 비트(예로, X 비트)를 정의하여 비트맵으로 DMRS 패턴을 지시/결정하는 방법이 지원되거나, 및/또는 전체 가능한 패턴 중 하나의 패턴을 고를 수 있는 조합론적인(combinatorial) 방식(예로, log2(X) 비트)이 지원될 수 있다. 도 25의 각각의 경우에 필요한 비트 수의 예시는 하기 표 6과 같을 수 있다.
PDSCH 매핑 타입 A PDSCH 매핑 타입 B
pos0 pos1 pos2 pos3 pos0 pos1 pos2 pos3
비트맵 1 bit 4 bits 4 bits 4 bits 1 bit 6 bits 6 bits 5 bits
조합론적인 방식 1 bit 2 bits 2 bits 2 bits 1 bit 3 bits 3 bits 3 bits
상술된 예시는 전체 가능한 DMRS 패턴을 대상으로 하였으나, 비트 수를 줄이기 위하여 전체 패턴 중 일부 패턴으로 후보 패턴을 제한할 수도 있다.
추가적으로 또는 대안적으로, 상술된 예시에서는 단말에 대해 미리 설정된 PDSCH 매핑 타입 및 추가적인 DMRS에 대한 위치에 기반하여 후보 패턴을 결정하는 방법을 설명하였으나, 이와 무관하게 전체 가능한 패턴을 대상으로 후보 패턴이 정의될 수도 있다. 예를 들어, 단말에 대해 PDSCH 매핑 타입 A가 설정된 경우, 추가적인 DMRS에 대한 위치와 관련된 설정 값과는 무관한 7개의 DMRS 패턴이 후보 패턴으로 정의될 수 있다.
추가적으로 또는 대안적으로, 'dmrs-Type' 및 'maxLength' 등 DMRS 수신/전송을 위해 미리 설정된 값에 기초하여 DMRS 패턴이 결정될 수도 있다.
도 25를 참조하여 DL DMRS의 패턴을 결정하는 방법을 설명하였으나, 상술된 방법은 UL DMRS에 대해서도 확장 적용될 수 있다. 즉, 'RS 패턴 정보'는 기지국이 단말에게 UL T-DMRS 전송을 지시하는 경우 및/또는 단말이 기지국으로 DL T-DMRS 전송을 요청하는 경우에 모두 (T-DMRS를 지시/요청하는 정보에) 포함될 수 있다.
추가적으로 또는 대안적으로, L1/L2 시그널링에 기반하여 (상기 T-DMRS 지시/요청 이전에 및/또는 T-DMRS 전송 이전에) RS 패턴 정보가 설정/지시되거나, 고정된 값으로 RS 패턴 정보가 미리 정의될 수 있다.
기지국이 단말로 T-DMRS와 관련된 설정/지시 정보를 전송하는 경우, 상기 설정/지시 정보는 단말-특정/단말-그룹 특정(예로, 멀티캐스트)/셀-특정(예로, 브로드캐스트)한 특성을 가질 수 있다. 이를 위해, T-DMRS 전송/수신과 관련된 L1/L2 시그널링이 수행될 때, 대응되는 파라미터들은 단말-특정/단말-그룹 특정(예로, 멀티캐스트)/셀-특정(예로, 브로드캐스트)하게 단말에게 설정/지시될 수 있다.
실시예 1-3
실시예 1-3은 단말/기지국이 T-DMRS 전송이 지시/요청할 때, 주파수 또는 시간 영역의 RS 패턴 중 특정 영역의 RS 패턴만 전송하는 것을 지시/요청하는 방법에 관한 것이다.
일 예로, 주파수/시간 영역의 RS 패턴을 모두 전송하는 경우, 도 23(b)와 같이 RS 패턴이 전송될 수 있다.
여기서, 주파수 영역의 RS 패턴만 전송하는 것이 지시/요청된 경우, 도 26(a)에 도시된 바와 같이, 단일 OFDM 심볼(또는, OFDM 심볼의 그룹)의 DMRS가 전송될 수 있다. 즉, 특정 OFDM 심볼에서 1 심볼의 DMRS가 전송될 수 있다.
또 다른 예로, 시간 영역의 RS 패턴만 전송하는 것이 지시/요청된 경우, 도 26(b)에 도시된 바와 같이, 단일 RE(또는, RE의 그룹)의 DMRS가 전송될 수 있다. 즉, 특정 RE에서 1 RE의 DMRS가 전송될 수 있다.
이 때, 특정 RE에서만 RS를 전송할 경우, 입력 데이터(또는, 입력 값)에 필요한 샘플의 수가 부족할 수 있다. 이를 보완하기 위하여, 1 RE(또는, RE의 그룹)로 구성된 RS 패턴은 특정 단위(예로, x (P)RB/RE/PRG)(x는 1 이상의 자연수)로 반복되어 전송되거나 및/또는 특정 구간(예로, 스케줄링/설정 대역폭 등) 내에서 전송될 수 있다.
'특정 영역의 RS 패턴만 전송하는 방법'은 기지국이 단말에게 UL T-DMRS 전송을 지시하는 경우 및/또는 단말이 기지국으로 DL T-DMRS 전송을 요청하는 경우에 모두에 적용될 수 있다.
추가적으로 또는 대안적으로, L1/L2 시그널링에 기반하여 (상기 T-DMRS 지시/요청 이전에 및/또는 T-DMRS 전송 이전에) '특정 영역의 RS 패턴만 전송하는 방법'이 설정/지시될 수 있다. 또 다른 예로, '특정 영역의 RS 패턴만 전송하는 방법'은 미리 정의될 수 있다.
기지국이 단말로 '특정 영역의 RS 패턴만 전송하는 방법'과 관련된 설정/지시 정보를 전송하는 경우, 상기 설정/지시 정보는 단말-특정/단말-그룹 특정(예로, 멀티캐스트)/셀-특정(예로, 브로드캐스트)한 특성을 가질 수 있다. 이를 위해, T-DMRS 전송/수신과 관련된 L1/L2 시그널링이 수행될 때, 대응되는 파라미터들은 단말-특정/단말-그룹 특정(예로, 멀티캐스트)/셀-특정(예로, 브로드캐스트)하게 단말에게 설정/지시될 수 있다.
기지국/단말이 주파수 영역 및 시간 영역에 대해 서로 독립적인 AI/ML 알고리즘을 구성함으로써, 주파수 영역 및 시간 영역 각각의 채널 추정을 위한 가중치 및 편향이 서로 구분하여 정의될 수 있다. 채널 상황에 따라 주파수 영역의 RS 패턴과 시간 영역의 RS 패턴을 분리하여 전송함에 따라 자원이 보다 효율적으로 활용될 수 있다.
예를 들어, 주파수 영역의 채널 추정은 주파수 영역의 연관관계(correlation) 및 채널의 평균 지연(average delay)/지연 확산(delay spread) 특성과 연관이 있을 수 있다. 그리고, 시간 영역의 채널 추정은 시간 영역의 correlation 및 채널의 도플러 시프트(Doppler shift)/도플러 확산(Doppler spread) 특성과 연관이 있을 수 있다.
따라서, 주파수 영역의 채널 특성은 거의 변화하지 않은 상황에서 시간 영역의 채널 특성만 변화하는 상황도 발생할 수 있으며, 반대의 상황 역시 발생할 수 있다. 이처럼, 서로 다른 특성에 따라 채널 상태가 변화할 수 있는 바, 기지국/단말의 상황에 따라 서로 독립적으로 주파수 또는 시간 영역의 RS 패턴을 전송함으로써, 불필요한 RS 전송을 최소화하여 자원 효율을 향상시킬 수 있다.
실시예 1-4
실시예 1-4는 T-DMRS 전송을 지시/요청할 RS(예로, DMRS)가 전송될 시간/주파수 자원 영역 정보를 포함시키는 방법에 관한 것이다. 일 예로, T-DMRS 전송의 지시/요청에 RS가 전송될 시간/주파수 자원 영역 정보가 포함될 수 있다. 또 다른 예로, T-DMRS 전송의 지시/요청과 별개로 RS가 전송될 시간/주파수 자원 영역 정보가 송수신될 수 있다.
RS가 전송될 시간/주파수 자원 영역 정보는 셀 (인덱스), BWP (인덱스), 대역폭, 서브캐리어 (인덱스), OFDM 심볼의 수, 주기(예로, 주기적(Periodic), 반-지속적(Semi-persistent), 비주기적(Aperiodic)), 주기에서의 오프셋(offset in periodicity), 또는 구간(duration) 중의 적어도 하나를 포함할 수 있다.
추가적으로 또는 대안적으로, L1/L2 시그널링에 기반하여 (상기 T-DMRS 지시/요청 이전에 및/또는 T-DMRS 전송 이전에) RS가 전송될 시간/주파수 자원 영역 정보가 설정/지시될 수 있다. 또 다른 예로, RS가 전송될 시간/주파수 자원 영역 정보는 미리 정의될 수 있다.
기지국이 단말로 'RS가 전송될 시간/주파수 자원 영역 정보'와 관련된 설정/지시 정보를 전송하는 경우, 상기 설정/지시 정보는 단말-특정/단말-그룹 특정(예로, 멀티캐스트)/셀-특정(예로, 브로드캐스트)한 특성을 가질 수 있다. 이를 위해, T-DMRS 전송/수신과 관련된 L1/L2 시그널링이 수행될 때, 대응되는 파라미터들은 단말-특정/단말-그룹 특정(예로, 멀티캐스트)/셀-특정(예로, 브로드캐스트)하게 단말에게 설정/지시될 수 있다.
실시예 1-5
실시예 1-5는 기지국이 T-DMRS 전송을 단말에게 지시하기 위하여 새로운 DCI 포맷 및/또는 새로운 RNTI를 정의하는 방법에 관한 것이다.
예를 들어, 새로운 DCI 포맷/새로운 RNTI에 기반하여 상향링크 T-DMRS 전송을 설정/지시받은 단말은 상향링크 T-DMRS를 전송할 수 있다. 또는, 하향링크 T-DMRS 전송을 설정/지시받은 단말은 하향링크 T-DMRS를 수신할 수 있다.
예를 들어, 상기 DCI 포맷 및/또는 RNTI에 기반하여 하향링크 T-DMRS 전송을 설정/지시받고 그에 따라 하향링크 T-DMRS를 수신하는 단말은 상기의 T-DMRS 설정/지시에 대응하는 DCI(예로, 스케줄링 DCI)에 대한 HARQ ACK을 별도로 기지국으로 전송하지 않을 수 있다.
상술된 실시예(예로, 실시예 1, 실시예 1-1, 실시예 1-2, 실시예 1-3, 실시예 1-4, 실시예 1-5 등)에서는 DMRS에 기초하여 설명하였다. 또 다른 예로, DMRS 이외의 DL/UL RS(예로, CSI-RS/SRS/TRS 등)에 대해 본 개시의 방법이 확장 적용될 수 있다. 즉, (AI/ML 알고리즘 및/또는 NN의) 학습을 위한 (추가적인) RS를 전송하기 위한 방법으로 본 개시의 방법이 확장 적용될 수 있다.
추가적으로 또는 제안적으로, 다른 RS에 대해 본 개시의 방법이 확장 적용될 경우, T-DMRS와 마찬가지로 AI/ML 알고리즘의 학습을 위한 RS는 T-RS로 명명될 수 있다.
상술된 실시예(예로, 실시예 1, 실시예 1-1, 실시예 1-2, 실시예 1-3, 실시예 1-4, 실시예 1-5 등)에서 데이터를 전송하는 채널의 예시로 PDSCH/PUSCH를 설명하였으나, 이에 제한되는 것은 아니다. PDSCH/PUSCH 이외의 데이터를 전송하는 채널(예로, PDCCH/PUCCH/PBCH/PRACH 등)에 대해서도 본 개시의 방법이 확장 적용될 수 있다.
즉, (AI/ML 알고리즘 및/또는 NN의) 학습을 위해 (추가적인) RS를 전송하기 위한 방법에 대해 본 개시의 방법이 확장 적용될 수 있다. 상술된 PDSCH/PUSCH/PDCCH/PUCCH 등은 데이터/제어없는(data/control-less) PxxCH(예로, data-less PDSCH/PUSCH, UCI-less PUCCH, DCI-less PDCCH 등)로 명명될 수 있다.
data/control-less PxxCH의 주기적인 RS 전송을 위해서 UCI-less PUCCH, DCI-less PDCCH 등이 고려될 수 있다. 예를 들어, PUCCH의 경우, 포맷별로 DMRS 패턴이 다르게 정의될 수 있다. 시퀀스 검출(sequence detection)을 위한 PUCCH 포맷(예로, 포맷 0/1)의 경우, DMRS가 별도로 송신/수신되지 않을 수 있다. 이 때, 별도의 전송 방식(예로, 약속된 UCI 비트에 대응되는 PUCCH를 전송하는 방식)이 적용될 수 있다. 그리고, 상기 PUCCH의 전송 방식(즉, 미리 정의된(predefined) UCI PUCCH를 전송하는 방식)을 규정하는 방법이 별도로 정의될 수 있다.
추가적으로 또는 대안적으로, data/control-less PxxCH를 통해 DMRS만 송수신하는 방법뿐만 아니라, 기지국/단말 사이에 약속된(또는, 사전에 설정/지시된) data/control 페이로드(예로, predefined DL/UL-SCH, predefined 데이터 시퀀스, predefined DCI/UCI, 등)가 학습을 위한 DMRS와 함께 송수신되는 방법이 적용될 수 있다.
그리고, semi-persistent 전송을 위해 DL-SCH가 없는(DL-SCH less) SPS PDSCH 전송 및/또는 UL-SCH less SPS PUSCH가 정의/설정/지시될 수 있다.
여기서, SPS PDSCH/PUSCH 전송은 RRC 시그널링, 또는 RRC 시그널링 및 DCI에 의해 설정/지시될 수 있다. 만약, SPS PDSCH/PUSCH가 RRC 시그널링 및 DCI에 의해 설정/지시되는 경우, DCI에 의해 활성화(activation)/비활성화(deactivation)(또는, 해제(release))가 제어될 수 있으며, 이에 따라 자원을 보다 효율적으로 활용할 수 있다.
이하, 본 개시에서 독립적인 (online) training을 다수 수행하는 경우, 실제 data를 송신/수신할 때에 어떤 training 결과를 참조해야 하는지 기지국/단말이 이에 필요한 정보를 공유하는 방법을 제안한다.
실시예 2
실시예 2: (온라인(Online)) 훈련(training)을 위한 참조 신호(reference signal)과 상기 (online) training에 기반하여 학습한 결과를 실제 적용할 reference signal 사이의 대응 관계를 설정/지시/정의하는 방법
또한, 본 개시에서 '(online) training에 기반하여 학습한 결과'는 AI/ML 알고리즘 및/또는 NN의 변수들에 대해서(예를 들면 가중치(weight), 바이어스(bias) 등의 변수들에 대해서), 학습을 통해 획득한/업데이트한 결과를 의미할 수 있다.
또한, 본 개시에서 (online) training을 위해 송신/수신되는 참조 신호(RS: reference signal)를 OT-RS(online training RS), 추론(inference)를 위해 송신/수신되는 RS를 I-RS(inference RS)로 지칭한다. 다만, 이러한 용어가 본 개시의 제안 범위를 제한하려는 것이 아니므로, 다른 용어로 기술/대체되어도 제안 방법을 적용할 수 있다.
또한, 본 개시에서 '대응 관계'(즉, OT-RS와 I-RS 간의 대응 관계)에 대하여, 기지국/단말 사이에 하나 및/또는 둘 이상의 복수의 대응 관계가 설정/지시/정의될 수 있다. 예를 들어, 하나의 OT-RS와 하나의 I-RS 간의 대응 관계 또는 하나의 OT-RS와 복수의 I-RS 간의 대응관계 또는 복수의 OT-RS와 하나의 I-RS 간의 대응관계가 단말에 대해 설정/지시/정의될 수 있다.
본 개시의 제안 방법에서 OT-RS, I-RS와 같이 RS(예를 들어, CSI-RS(channel state information-RS)/SRS(sounding RS) /DMRS(demodulation RS)/PTRS(phase tracking RS)/TRS(tracking RS)/등)을 위주로 기술하고 있으나, RS 뿐만 아니라 PDSCH/PUSCH/PDCCH/PUCCH/PBCH(physical broadcast channel)/PRACH(physical random access channel) 등의 물리 채널(physical channel)/ 자원(resource)을 대상으로 하여 본 제안 방법을 동일하게 적용할 수 있다.
본 개시의 제안 방법에서 '대응 관계'는 소스(source) RS/resource/physical channel과 목표(target) RS/resource/physical channel 사이의 대응 관계를 의미할 수 있다.
여기서, source RS/resource/physical channel의 경우 AI/ML 알고리즘 및/또는 NN에 대응하는 파라미터/변수/특성(예를 들어, weight/bias 등)을 학습(예를 들어 online training)하기 위해 전송되는 RS/resource/physical channel를 의미할 수 있다. 기지국/단말은 상기 source RS/resource/physical channel에 기반하여 AI/ML 알고리즘 및/또는 NN 수행을 위해 필요한 파라미터/변수/특성을 학습할 수 있다. 즉, 기지국/단말은 source RS/resource/physical channel를 이용하여 AL/ML 모델 훈련(training)을 수행할 수 있으며, 본 개시에서는 source RS/resource/physical channel의 하나의 예시로 OT-RS에 대하여 주로 설명하지만 본 개시가 이에 한정되는 것은 아니다.
또한, target RS/resource/physical channel의 경우 AI/ML 알고리즘 및/또는 NN 및 이에 대응하는 파라미터/변수/특성(예를 들어, weight/bias 등)에 기반하여 추론(inference)를 수행하기 위해 전송되는 RS/resource/physical channel을 의미할 수 있다. 기지국/단말은 상기 target RS/resource/physical channel 및 AI/ML 알고리즘 및/또는 NN 및 이에 대응하는 파라미터/변수/특성(예를 들어, weight/bias 등)에 기반하여 inference를 수행할 수 있다. 다시 말해, 기지국/단말은 AL/ML 모델의 입력 값으로 target RS/resource/physical channel를 사용하여, 출력 값(즉, inference)을 도출할 수 있으며, 본 개시에서는 target RS/resource/physical channel의 하나의 예시로 I-RS에 대하여 주로 설명하지만 본 개시가 이에 한정되는 것은 아니다.
여기서, 상기 '파라미터/변수/특성'은 target RS/resource/physical channel에 대응하는 source RS/resource/physical channel로부터 (사전에) 학습한(예를 들어, online training에 의해) 파라미터/변수/특성을 의미할 수 있다.
본 제안 방법에 기반하여, 하나의 예시로서, 단말은 기지국으로부터 수신한 PDSCH에 대응하는 DM-RS를 I-RS로 가정하고, OT-RS를 통해 사전에 학습한 AI/ML 모델의 파라미터/변수(예를 들어, 가중치(weight), 편향(bias) 등)를 이용하여 상기 PDSCH 및 DM-RS에 대응하는 채널 추정(channel estimation)을 수행하고 이를 PDSCH 디코딩에 이용할 수 있다.
도 27은 본 개시의 일 실시예에 따른 AI/ML 모델의 훈련을 위한 신호/채널과 추론을 위한 신호/채널 간의 대응 관계를 설정/지시/정의하기 위한 시그널링을 예시한다.
도 27(a)는 단말이 기지국에게 요청하는 경우를 예시하고, 도 27(b)는 기지국이 단말에게 지시하는 경우를 예시한다.
도 27(a)를 참조하면, 기지국은 OT-RS 전송과 관련된 설정 값을 (L1 및/또는 L2 시그널링을 통해) 단말이 OT-RS를 요청하기 전에 미리 단말에게 설정해줄 수 있다(S105).
단말은 상기 설정 값(S105) 및/또는 다른 요청 정보를 포함하여 기지국에게 DL OT-RS 전송을 요청할 수 있다(S110). 예를 들어, 상기 '설정 값 및/또는 다른 요청 정보'에는 OT-RS의 자원(resource)/인덱스(index)와 관련된 정보가 포함될 수 있다(예를 들어, OT-RS1 또는 OT-RS2 등).
기지국은 상기 단말의 요청(S110) 및/또는 사전 설정 값(S105)에 기반하여 DL OT-RS를 단말에게 전송할 수 있다(S115). 상기 'OT-RS를 단말에게 전송'하는 경우, 상기 OT-RS의 index와 관련된 정보가 OT-RS 전송 이전에 단말에게 설정/지시될 수 있다. 그리고/또는 단말은 상기 OT-RS의 resource/index 별로 (online) training을 수행하고 그 결과를 독립적으로 저장/구성/관리/사용/적용할 수 있다.
기지국은 단말에게 PDSCH 전송을 설정(예를 들어, 설정된 그랜트(configured grant))/지시(예를 들어, DCI에 의한 스케줄링) 할 수 있다(S120). 상기 'PDSCH 전송을 설정/지시'하는 경우, PDSCH 및/또는 PDSCH의 DMRS(즉, I-RS)와 대응하는 OT-RS의 resource/index와 관련된 정보가 함께 또는 사전에 설정/지시될 수 있다.
기지국은 단말에게 PDSCH를 전송할 수 있다(S125). 단말은 상기 PDSCH 수신 이전에 상기 PDSCH 및/또는 상기 PDSCH의 DMRS(즉, I-RS)와 대응하는 OT-RS을 통해 사전에 학습한 파라미터/변수(예를 들어, weight, bias 등)를 이용하여 상기 PDSCH 및 DMRS에 대응하는 channel estimation을 수행하고 이를 PDSCH 디코딩에 이용할 수 있다.
도 27(a)를 참조하면, 기지국은 OT-RS 전송과 관련된 설정 값을 (L1 및/또는 L2 시그널링을 통해) 단말에게 OT-RS 전송을 지시하기 전에 미리 단말에게 설정해줄 수 있다(S205).
기지국은 상기 설정 값(S205) 및/또는 다른 지시 정보를 포함하여 단말에게 UL OT-RS 전송을 지시할 수 있다(S210). 상기 '설정 값 및/또는 다른 지시 정보'에는 OT-RS의 resource/index와 관련된 정보가 포함될 수 있다.
단말은 상기 기지국의 지시(210) 및/또는 사전 설정 값(S105)에 기반하여 UL OT-RS를 기지국으로 전송할 수 있다(215).
기지국은 단말에게 PUSCH 전송을 설정(예를 들어, configured grant)/지시(예를 들어, DCI에 의한 스케줄링) 할 수 있다(S220). 상기 'PUSCH 전송을 설정/지시'하는 경우, PUSCH 및/또는 PUSCH의 DMRS(즉, I-RS)와 대응하는 OT-RS의 resource/index와 관련된 정보가 함께 또는 사전에 설정/지시될 수 있다.
단말은 기지국에게 PUSCH를 전송할 수 있다(S225). 기지국은 상기 OT-RS의 resource/index 별로 (online) training을 수행하고 그 결과를 독립적으로 저장/구성/관리/사용/적용할 수 있다. 그리고/또는 기지국은 상기 PUSCH 수신 이전에 상기 PUSCH 및/또는 상기 PUSCH의 DMRS(즉, I-RS)와 대응하는 OT-RS을 통해 사전에 학습한 파라미터/변수(예를 들어, weight, bias 등)를 이용하여 상기 PUSCH에 대응하는 channel estimation을 수행하고 이를 PUSCH 디코딩에 이용할 수 있다.
상기의 제안 방법에 기반하여 (online) 훈련(training)을 위한 RS/physical channel/resource 등과 inference를 위한 RS/physical channel/resource 사이의 관계를 기지국/단말 사이에 설정/지시/정의할 수 있다. 이에 기반하여, 기지국/단말은 특정 RS/physical channel 별로 (online) training을 수행할 수 있고, 그에 대한 학습 결과를 서로 구분하여/독립적으로 저장/구성/관리/사용/적용할 수 있다. 그리고, 기지국/단말이 실제 데이터(data) 교환을 위한 RS/physical channel/resource을 송신/수신할 때, 상기 inference 용 RS/physical channel/resource에 대응하는 (online) training 용 RS/physical channel/resource을 설정/지시/정의할 수 있으므로, 기지국/단말은 사전에 학습한 결과를 알맞게 inference 용 RS/physical channel/resource에 사용/적용할 수 있다.
실시예 2-1: Physical channel/(Physical) data channel (예를 들어, PDSCH/PUSCH/PDCCH/PUCCH/PBCH/PRACH 등) 및/또는 RS(예를 들어, CSI-RS/SRS/PTRS/DMRS/TRS 등) 전송 시, 해당 physical channel/(Physical) data channel 및/또는 해당 physical channel/(physical) data channel에 대응하는 DMRS(즉, I-RS) 및/또는 해당 RS에 대해서 대응하는 OT-RS에 대한 resource/index가 설정/지시/정의될 수 있다.
상기 대응하는 OT-RS에 대한 resource/index는 상위 계층 시그널링 또는 동적 시그널링(예를 들어, RRC/MAC CE/DCI)에 의해 설정/지시될 수 있다. 예를 들어, PDSCH1 전송을 스케줄링 하는 DCI1에서 PDSCH1에 대한 스케줄링 정보와 대응하는 OT-RS1(즉, 상기 PDSCH1 및/또는 상기 PDSCH1에 대한 DMRS에 대응하는)을 지시할 수 있다.
상기의 제안 방법에서 'OT-RS에 대한 resource/index를 설정/지시/정의'하는 방법의 일 예로 다음을 적용할 수 있다.
예시 1: OT-RS를 위해 별도의 resource가 정의될 수 있다. 그리고/또는 상기 resource에 대해서 식별을 위한 식별자(ID)(/index)가 부여/설정/지시/정의될 수 있다. 그리고/또는, physical channel/(physical) data channel 및/또는 RS 전송 시, 해당 physical channel/(Physical) data channel 및/또는 해당 physical channel/(Physical) data channel에 대응하는 DMRS(즉, I-RS) 및/또는 해당 RS에 대해서 대응하는 OT-RS에 대한 ID(/index)가 설정/지시/정의될 수 있다. 도 28에서는 이러한 예시를 나타낸다.
도 28은 본 개시의 일 실시예에 따른 AI/ML 모델의 훈련을 위한 신호/채널과 추론을 위한 신호/채널 간의 대응 관계를 설정/지시/정의하는 방법을 예시한다.
도 28에서는, AI/ML 모델의 훈련을 위한 신호/채널을 OT-RS로 가정하고, 추론을 위한 신호/채널을 PDSCH 및/또는 PDSCH를 위한 DMRS로 가정한다.
도 28을 참조하면, OT-RS와 PDSCH 및/또는 PDSCH를 위한 DMRS 간의 대응 관계를 설정/지시하기 위해, PDSCH 및/또는 PDSCH를 위한 DMRS에 대한 상위 계층/동적 시그널링(예를 들어, DCI/MAC CE/RRC)을 통해 OT-RS가 직접적으로 설정/지시될 수 있다. 다만, 이에 본 개시의 제안 방법이 제한되는 것은 아니며, 이와 더불어/대체하여, 별도의 RS/자원 풀(resource pool)을 정의하여 상기 pool에 기반하여 OT-RS를 설정/지시하는 방법도 역시 가능하다.
상기 예시 1에 대해서, OT-RS와 TRS/CSI-RS/SRS(또는 PDSCH/PUSCH/PDCCH/PUCCH/PBCH/PRACH 등) 등의 다른 용도의 RS (또는 physical (data) channel/ (physical) data channel) 사이의 대응 관계를 추가로 설정/지시/정의하는 방법도 고려될 수 있다. 도 29에서는 이러한 예시를 나타낸다.
도 29는 본 개시의 일 실시예에 따른 AI/ML 모델의 훈련을 위한 신호/채널과 추론을 위한 신호/채널 간의 대응 관계를 설정/지시/정의하는 방법을 예시한다.
도 29에서는, AI/ML 모델의 훈련을 위한 신호/채널을 OT-RS로 가정하고, 추론을 위한 신호/채널을 PDSCH 및/또는 PDSCH를 위한 DMRS로 가정한다. 그리고, 다른 용도의 신호/채널을 TRS(tracking reference signal)로 가정한다.
도 29를 참조하면, OT-RS와 다른 용도의 RS/채널 간의 추가적인 대응 관계를 설정/지시하기 위해, OT-RS에 대한 상위 계층/동적 시그널링(예를 들어, DCI/MAC CE/RRC)을 통해 다른 용도의 RS/채널이 직접적으로 설정/지시될 수 있다. 또한, 도 28과 마찬가지로, OT-RS와 PDSCH 및/또는 PDSCH를 위한 DMRS 간의 대응 관계를 설정/지시하기 위해, PDSCH 및/또는 PDSCH를 위한 DMRS에 대한 상위 계층/동적 시그널링(예를 들어, DCI/MAC CE/RRC)을 통해 OT-RS가 직접적으로 설정/지시될 수 있다.
도 29에서는 다른 용도의 신호/채널을 TRS라고 가정하여 도시하였으나, 이는 제안 방법을 제한하려는 것이 아니다. 이와 더불어/대체하여, 다른 RS/resource/physical channel 및/또는 RS/resource/physical channel의 pool(예를 들어, TCI state 등)에 기반하여 설정/지시하는 방법도 역시 가능하다.
상기 예시 1의 경우, OT-RS에 대응하는 ID(/index/resource)를 직접적으로/명시적으로 정의하고, 이를 I-RS에 직접적으로/명시적으로 설정/지시함으로써 OT-RS와 I-RS 사이의 대응관계를 설정/지시/정의할 수 있다는 특징을 가질 수 있다. 이러한 특징을 바탕으로, 상기 제안 방법을 적용하는 경우, TRS 전송을 수행하지 않으면서 현재 표준의 TRS의 기능을 OT-RS로 대체할 수 있다. 현재 표준에 따르면 SSB>TRS>DMRS로 QCL 관계가 형성될 수 있다. 하지만, 제안 방법을 적용하는 경우, TRS를 전송/수신하지 않고 (SSB>)OT-RS>DMRS와 같은 기존의 QCL 관계와 유사한 관계가 형성될 수 있다. 하지만, 현재 표준과의 차이점은 제안 방법의 대응 관계는 AI/ML 알고리즘 및/또는 NN 적용을 위한 training RS/resource/physical channel과 inference RS/resource/physical channel 사이의 대응 관계를 설정/지시/정의할 수 있다는 것이다.
예시 2: OT-RS와 TRS/CSI-RS/SRS (또는 PDSCH/PUSCH/PDCCH/PUCCH/PBCH/PRACH 등) 등의 다른 용도의 RS (또는 physical channel/ (physical) data channel) 사이의 대응 관계가 설정/지시/정의될 수 있다. 그리고/또는, physical channel/(physical) data channel 및/또는 RS 전송 시, 해당 physical channel/(Physical) data channel 및/또는 해당 physical channel/(Physical) data channel에 대응하는 DMRS(즉, I-RS) 및/또는 해당 RS에 대해서 대응하는 OT-RS에 대해서, 상기 OT-RS에 대응하는 TRS/CSI-RS/SRS (또는 PDSCH/PUSCH/PDCCH/PUCCH/PBCH/PRACH 등) 등의 다른 용도의 RS(or physical cannel/(physical) data channel)의 ID(/index/resource)가 설정/지시/정의될 수 있다.
즉, physical channel/(physical) data channel 및/또는 RS 전송 시, OT-RS에 대응하는 다른 용도의 RS가 설정/지시됨에 따라, OT-RS가 간접적으로(암묵적으로) 설정/지시될 수 있다. 도 30에서는 이러한 예시를 나타낸다.
도 30은 본 개시의 일 실시예에 따른 AI/ML 모델의 훈련을 위한 신호/채널과 추론을 위한 신호/채널 간의 대응 관계를 설정/지시/정의하는 방법을 예시한다.
도 30에서는, AI/ML 모델의 훈련을 위한 신호/채널을 OT-RS로 가정하고, 추론을 위한 신호/채널을 PDSCH 및/또는 PDSCH를 위한 DMRS로 가정한다. 그리고, 다른 용도의 신호/채널을 TRS로 가정한다.
도 30을 참조하면, OT-RS와 다른 용도의 RS/채널 간의 추가적인 대응 관계를 설정/지시하기 위해, OT-RS에 대한 상위 계층/동적 시그널링(예를 들어, DCI/MAC CE/RRC)을 통해 다른 용도의 RS/채널이 직접적으로 설정/지시될 수 있다. 그리고, PDSCH 및/또는 PDSCH를 위한 DMRS에 대해서 다른 용도의 RS/채널 지시됨에 따라, 해당 PDSCH 및/또는 PDSCH를 위한 DMRS에 대한 OT-RS가 간접적으로(암묵적으로) 설정/지시될 수 있다.
도 30에서는 다른 용도의 신호/채널을 TRS라고 가정하여 도시하였으나, 이는 제안 방법을 제한하려는 것이 아니다. 이와 더불어/대체하여, 다른 RS/resource/physical channel 및/또는 RS/resource/physical channel의 pool(예를 들어, TCI state 등)에 기반하여 설정/지시하는 방법도 역시 가능하다.
도 30과 같이, 특정 OT-RS에 TRS1/TRS2와의 대응관계가 설정/지시/정의된 경우, 이를 OT-RS1/OT-RS2로 지칭할 수 있으며, 단말은 상기 두 OT-RS를 서로 구분할 수 있다. 즉, TRS1과 대응 관계가 설정/지시된 OT-RS(즉, OT-RS-TRS1)는 OT-RS1로 지칭/간주될 수 있으며, TRS2와 대응 관계가 설정/지시된 OT-RS(즉, OT-RS-TRS2)는 OT-RS2로 지칭/간주될 수 있다.
상기의 '대응관계'를 설정/지시하기 위해서 현재 표준에 정의된 다음의 예를 이용할 수 있다. 예를 들어, CORESET 풀 인덱스(CORESETPoolIndex), CORESET(또는 CORESET들의 그룹), SS 세트(또는 SS 세트들의 그룹), TCI 상태(state)(또는 TCI 상태들의 그룹), SRS 자원 지시자(SRI: SRS resource indicator)(또는 SRI들의 그룹), 공간 관계 정보(SpatialRelationInfo)(또는 공간 관계 정보의 그룹), 경로손실 참조 신호(PL RS, PathlossReferenceRS)(PL RS들의 그룹), BWP(또는, BWP들의 그룹)들을 기반으로, 각 OT-RS와 이에 대응하는 다른 용도의 RS 간의 대응 관계가 지시될 수 있다. 예를 들어, TCI 상태 1이 설정/지시된 OT-RS(OT-RS-TCI state1)는 OT-RS1로 지칭/간주될 수 있으며, TCI 상태 2가 설정/지시된 OT-RS(OT-RS-TCI state2)는 OT-RS2로 지칭/간주될 수 있다.
상기 예시 2와 관련하여, 현재 표준에 정의된 TCI 상태 내에 새로운 QCL 타입(type)을 정의하여 상기의 대응 관계/ 본 개시에서 제안하는 대응 관계를 설정/지시하는 방법이 고려될 수 있다. 도 31은 이러한 방법의 일 예를 보여준다.
도 31은 본 개시의 일 실시예에 따른 AI/ML 모델의 훈련을 위한 신호/채널과 추론을 위한 신호/채널 간의 대응 관계를 설정/지시/정의하는 방법을 예시한다.
도 31에서는, AI/ML 모델의 훈련을 위한 신호/채널을 OT-RS로 가정하고, 추론을 위한 신호/채널을 PDSCH 및/또는 PDSCH를 위한 DMRS로 가정한다.
도 31을 참조하면, 각 OT-RS 별로 QCL type-E의 TCI 상태가 설정/지시될 수 있다. 이 경우, 해당 TCI 상태가 설정/지시된 PDSCH 및/또는 PDSCH를 위한 DMRS는 암묵적으로(간접적으로) 해당 TCI 상태가 설정/지시된 OT-RS와 대응 관계가 설정/지시될 수 있다. 예를 들어, OT-RS 1에 대해 QCL type-E의 TCI 상태 1이 설정/지시될 수 있다. 그리고, PDSCH 및/또는 PDSCH를 위한 DMRS에 대해 QCL type-E의 TCI 상태 1이 설정/지시된다면, 암묵적으로(간접적으로) 해당 PDSCH 및/또는 PDSCH를 위한 DMRS와 OT-RS 1 간의 대응 관계가 설정/지시될 수 있다.
상기 예시 2의 경우, 아래와 같은 특징/장점을 가질 수 있다.
현재 표준에 따르면 SSB>TRS>DMRS로 QCL 관계가 형성될 수 있다. 여기서, data 채널 수신 이전에 상기 data 채널에 대응하는 DMRS의 채널 추정을 위한 AI/ML 알고리즘 및/또는 NN의 학습을 위한 OT-RS를 전송/수신하게 되면 상기 현재 표준의 QCL 체인(chain)에 OT-RS가 추가될 수 있어야 한다. (예를 들어, SSB>TRS>OT-RS>DMRS(PDSCH를 위한)(즉, I-RS)) OT-RS를 상기와 같이 현재의 QCL chain에 추가하는 경우, NN를 이용하는 데 아래와 같은 장점을 가질 수 있다. 첫 번째로, OT-RS로 (online) training을 수행할 때 학습 결과를 구분하여 단말이 관리할 수 있고, 복수의 파라미터 조합에 대한 관리가 가능하다. (예를 들어, TRS1에 대한 {weight1, bias1}, TRS 2를 위한 {weight2, bias2}). 두 번째로, OT-RS로 학습한 이후에 실제 inference RS/resource/physical channel (예를 들어, PDSCH 및 PDSCH의 DMRS 등)를 수신할 때에 어떤 OT-RS로 학습한 결과를 이용해야 하는지 단말이 알 수 있다. 예를 들어, TRS1/2에 대응하는 채널의 시간/주파수 상관(correlation)이 다른 경우, 단말은 TRS1/2에 대해서 서로 다른 학습 결과를 관리할 수 있다. (예를 들어, TRS1에 대한 {weight1, bias1}, TRS 2에 대한 {weight2, bias2}). 또한, TRS와 OT-RS 사이의 대응 관계를 사전에 가지고 있는 단말의 경우에는 실제 inference RS/resource/physical channel (예를 들어, PDSCH 및 PDSCH의 DMRS 등) 수신 시 상기 inference RS/resource/physical channel에 대응하는 TRS와 상기 TRS에 대응하는 OT-RS 사이의 관계에 기반하여 AI/ML 알고리즘 및/또는 NN에 적합한 파라미터 조합을 채널 추정 시 활용할 수 있다.
실시예 2-2: 단말이 동시에 지원할 수 있는 서로 다른 OT-RS의 개수를 기지국으로 보고할 수 있다.
예를 들어, 단말은 단말 능력 시그널링(UE capability signaling) 또는 CSI 피드백(CSI feedback) 등을 이용하여, 단말이 동시에 지원할 수 있는 서로 다른 OT-RS의 개수를 기지국에게 보고할 수 있다.
여기서, 상기 '동시에 지원'한다는 것은 각각의 OT-RS 별로 서로 다른/독립적인 학습을 수행하고 서로 다른/독립적인 파라미터/변수(weight, bias 등)을 저장/구성/관리/사용/적용할 수 있음을 의미할 수 있다(예를 들어, OT-RS1에 대한 {weight1, bias1}, OT-RS2에 대한 {weight2, bias2}, ...).
실시예 2-3: OT-RS 수신이 설정/지시된 단말에 대해서, 별도의 TRS(Tracking RS)를 설정/지시/전송되지 않을 수 있다.
단말은 OT-RS 전송/수신이 설정/지시된 경우, 별도의 TRS 전송을 기대하지 않을 수 있다. 그리고/또는, 단말은 OT-RS 전송/수신이 설정/지시된 경우, CSI-RS/SRS/DMRS 등의 RS 및/또는 PDSCH/PUSCH/PDCCH/PUCCH/PBCH/PRACH 등의 physical channel/ resource 수신과 관련된 TRS 전송도 기대하지 않을 수 있다(및/또는 TRS가 전송되지 않는 것을 기대할 수 있다).
상술한 바와 같이, OT-RS가 TRS의 기능을 대신 수행함으로써, TRS가 송수신되지 않을 수 있다.
실시예 2-4: 상시 실시예 2(또는 실시예 2-1)의 '대응 관계'를 설정/지시/정의하는 경우, 시간축(즉, 시간 도메인) 대응 관계 및/또는 주파수축(즉, 주파수 도메인) 대응 관계를 구분하여/독립적으로 설정/지시/정의될 수 있다.
기지국/단말은 OT-RS와 I-RS 사이에 시간축(즉, 시간 도메인)으로만 대응 관계가 성립할 수 있음을 설정/지시/정의할 수 있다. 이러한 경우, OT-RS에 기반하여 학습한 AI/ML 알고리즘 및/또는 NN의 변수/파라미터들(예를 들어, weight, bias 등)을 이용해서 I-RS에 기반하여 inference를 수행할 때, 시간축의 특성/변수만 참조(및/또는 시간축으로 입력값을 구성)할 수 있음을 의미할 수 있다. 예를 들어, OT-RS에 기반하여 채널 추정을 위한 AI/ML 알고리즘 및/또는 NN의 변수들을 학습하고 이를 I-RS에 적용할 때, I-RS의 시간축 데이터 및/또는 OT-RS에 기반하여 학습한 시간축 특성/변수들에 기반하여 상기 AI/ML 알고리즘 및/또는 NN를 수행할 수 있다.
그리고/또는, 기지국/단말은 OT-RS와 I-RS 사이에 주파수축(즉, 주파수 도메인)으로만 대응 관계가 성립할 수 있음을 설정/지시/정의할 수 있다. 이러한 경우, OT-RS에 기반하여 학습한 AI/ML 알고리즘 및/또는 NN의 변수/파라미터들(예를 들어, weight, bias 등)을 이용해서 I-RS에 기반하여 inference를 수행할 때, 주파수축의 특성/변수만 참조(and/or 주파수축으로 입력값을 구성)할 수 있음을 의미할 수 있다. 예를 들어, OT-RS에 기반하여 채널 추정을 위한 AI/ML 알고리즘 및/또는 NN의 변수들을 학습하고 이를 I-RS에 적용할 때, I-RS의 주파수축 데이터 및/또는 OT-RS에 기반하여 학습한 주파수축 특성/변수들에 기반하여 상기 AI/ML 알고리즘 및/또는 NN를 수행할 수 있다.
도 32는 본 개시의 일 실시예에 따른 AI/ML 모델의 훈련을 위한 신호/채널과 추론을 위한 신호/채널을 예시한다.
도 32(a)는 OT-RS의 예를 보여주고, 도 32(b)/도 32(c)/도 32(d)는 I-RS의 예를 보여준다. 특히, 도 32(b)의 I-RS의 경우 도 32(a)의 OT-RS와 동일한 RS 패턴(pattern)을 가지는 경우를 예시한다. I-RS와 OT-RS가 동일한 RS pattern을 갖기 때문에 이러한 경우 OT-RS와 I-RS 사이에 시간축/주파수축 대응 관계가 모두 설정/지시될 수 있다. 그리고, I-RS에 기반하여 inference를 수행할 때, OT-RS에 기반하여 학습한 시간축/주파수축 결과들(예를 들어, weight, bias 등)이 모두 활용될 수 있다.
반면, 도 32(c)의 I-RS의 경우, 도 32(a)의 OT-RS와 주파수축으로는 동일한 RS pattern를 가지지만, 시간축으로는 서로 다른 RS pattern을 가지는 경우를 예시한다. 이러한 경우, OT-RS와 I-RS 사이에 주파수축 대응 관계만을 설정/지시될 수 있다. 그리고, I-RS에 기반하여 inference를 수행할 때 OT-RS에 기반하여 학습한 시간축/주파수축 결과들(예를 들어, weight, bias 등) 중에서 주파수축 결과들만 활용될 수 있다.
한편, 도 32(d)의 I-RS의 경우, 도 32(a)의 OT-RS와 시간축으로는 동일한 RS pattern를 가지지만, 주파수축으로는 서로 다른 RS pattern을 가지는 경우를 예시한다. 이러한 경우, OT-RS와 I-RS 사이에 시간축 대응 관계만을 설정/지시될 수 있다. 그리고, I-RS에 기반하여 inference를 수행할 때 OT-RS에 기반하여 학습한 시간축/주파수축 결과들(예를 들어, weight, bias 등) 중에서 시간축 결과들만이 활용될 수 있다.
상기의 설명에서는 RS pattern을 위주로 시간축/주파수축 대응관계를 설정/지시하는 방법을 기술하였으나, 이는 하나의 예시일 뿐이다. 기지국/단말이 기대하는 시간축/주파수축 채널 특성 등에 기반하여 각각의 대응관계를 설정/지시하는 것을 고려할 수도 있다. 또한, 이는 제안 방법을 제한하려는 것은 아니므로 기지국/단말이 쓰임/용도에 맞게 각각의 대응관계를 설정/지시할 수 있다.
상기의 제안 방법에서는 시간축 대응 관계 and/or 주파수축 대응 관계를 위주로 기술하고 있으나, 이는 제안 방법을 제한하려는 것이 아니다. 따라서, 제안 방법에 기반하여 시간축/주파수축 대응 관계와 더불어/대체하여 상기 대응 관계 이외의 특정 시간/주파수 자원 영역 단위의 학습 정보만 inference 시에 적용할 수도 있도록 하는 방법을 추가로 고려할 수 있음은 자명하다. 이 경우, 상기 실시예 2에서 OT-RS와 I-RS 간의 대응 관계를 설정/지시할 때, OT-RS를 식별하기 위한 index 등과 함께 I-RS에 기반하여 inference를 수행할 때, 참조되는 시간/주파수 자원의 영역/범위도 함께 설정/지시될 수 있다.
OT-RS와 I-RS의 RS pattern, 및/또는 OT-RS에 기반하여 학습한 시점과 I-RS를 수신하여 inference를 수행하는 시점 등의 차이로 인해서 OT-RS로 학습한 모든 정보를 I-RS로 inference를 수행할 때에 적용하지 못하는 상황이 발생할 수 있다. 이러한 경우, 특정 영역 단위(예를 들어, 시간축/주파수축)의 학습 정보만 inference 시에 적용할 수 있도록 하여 OT-RS의 활용도/효율을 높일 수 있다.
실시예 2-4-1: 단일 I-RS에 대해서 복수의 OT-RS와의 대응 관계가 설정/지시/정의될 수 있다.
기지국/단말은 단일 I-RS에 복수의 OT-RS와의 대응 관계를 설정/지시/정의할 수 있다.
도 33은 본 개시의 일 실시예에 따른 AI/ML 모델의 훈련을 위한 신호/채널과 추론을 위한 신호/채널을 예시한다.
도 33(a), 도 33(b)는 OT-RS의 예를 보여주고, 도 33(c)는 I-RS의 예를 보여준다. 도 33의 예에서, 도 33(c)의 I-RS에 대해서 도 33(a)/도 33(b)의 두 OT-RS와의 대응관계가 설정/지시될 수 있다.
여기서, 도 33(d)와 같이, 도 33(a)에 대해서는 시간축으로의 대응관계, 도 33(b)에 대해서는 주파수축으로의 대응관계가 각각 설정/지시될 수 있다. 이러한 경우, 기지국/단말은 I-RS에 기반하여 inference를 수행할 때 도 33(a)의 OT-RS에 기반하여 학습한 시간축/주파수축 결과들(예를 들어, weight, bias 등) 중에서 시간축 결과들만 활용할 수 있다. 그리고/또는 도 33(b)의 OT-RS에 기반하여 학습한 시간축/주파수축 결과들(예를 들어, weight, bias 등) 중에서 주파수축 결과들만 활용할 수 있다.
OT-RS와 I-RS의 RS pattern, and/or OT-RS에 기반하여 학습한 시점과 I-RS를 수신하여 inference를 수행하는 시점 등의 차이로 인해서 OT-RS로 학습한 모든 정보를 I-RS로 inference를 수행할 때에 적용하지 못하는 상황이 발생할 수 있다. 이러한 경우, 특정 영역 단위(예를 들어, 시간축/주파수축)의 학습 정보만 inference 시에 적용할 수 있다. 또한, 단일 I-RS에 대해서 복수의 OT-RS와의 대응 관계를 설정/지시함으로써 복수의 학습 결과 중 I-RS에 대응하는 학습 결과들을 조합하여 해당 I-RS에 대한 inference를 수행할 수 있다. 이를 바탕으로 OT-RS의 활용도/효율을 높일 수 있다.
도 34는 본 개시의 일 실시예에 따른 무선 채널 송수신 방법에 대한 단말의 동작을 예시하는 도면이다.
도 34에서는 앞서 제안 방법들(예를 들어, 실시예 2, 실시예 2-1, 실시예 2-2, 실시예 2-4 및 세부 실시예에서 어느 하나 또는 하나 이상의 조합)에 기반한 단말의 동작을 예시한다. 도 34의 예시는 설명의 편의를 위한 것이며, 본 개시의 범위를 제한하는 것은 아니다. 도 34에서 예시된 일부 단계(들)은 상황 및/또는 설정에 따라 생략될 수 있다. 또한, 도 34에서 단말은 하나의 예시일 뿐, 아래 도 36에서 예시된 장치로 구현될 수 있다. 예를 들어, 도 36의 프로세서(processor)(102/202)는 트랜시버(106/206)를 이용하여 채널/신호/데이터/정보 등을 송수신하도록 제어할 수 있으며, 전송될 또는 수신한 채널/신호/데이터/정보 등을 메모리(104/204)에 저장하도록 제어할 수도 있다.
또한, 도 34의 동작은 도 36의 하나 이상의 프로세서(102, 202)에 의해 처리될 수 있으며, 도 34의 동작은 도 36의 적어도 하나의 프로세서(예를 들어, 102, 202)를 구동하기 위한 명령어/프로그램(예를 들어, 명령(instruction), 실행 코드(executable code))형태로 메모리(예를 들어, 도 36의 하나 이상의 메모리(104, 204))에 저장될 수도 있다.
도 34를 참조하면, 단말은 기지국으로부터 AI/ML 모델의 훈련(training)을 위한 복수의 훈련 참조 신호와 관련된 설정 정보를 수신할 수 있다(S3401).
여기서, 훈련 참조 신호는 참조 신호만으로 한정되지 않으며, 상술한 바와 같이 AI/ML 모델(및/또는 NN)의 (online) 훈련을 위해 이용되는 물리 채널(예를 들어, PDSCH, PUSCH, PDCCH, PUCCH, PBCH, PRACH 등)/신호(예를 들어, CSI-RS, SRS, PTRS, CMRS, TRS 등)를 모두 포함할 수 있다.
상기 설정 정보는 기존의 각 물리 채널/신호에 대한 설정 정보에서 해당 물리 채널/신호가 AI/ML 모델(및/또는 NN)의 훈련을 위해 이용된다는 지시를 더 포함하는 형식으로 구성될 수도 있으며, 또는 AI/ML 모델(및/또는 NN)의 훈련을 위해 이용되는 복수의 훈련 참조 신호만을 그룹핑하여 별도로 설정 정보가 구성되고, 해당 복수의 훈련 참조 신호에 포함되는 물리 채널/신호에 대한 기존의 설정 정보가 참조될 수도 있다.
단말은 기지국으로부터 복수의 훈련 참조 신호를 수신하거나 또는 기지국에게 복수의 훈련 참조 신호를 전송한다(S3402).
예를 들어, 상기 도 27(a)와 같이 단말이 훈련 참조 신호를 이용하여 AI/ML 모델(및/또는 NN)을 훈련하고, 이에 기반하여 추론 참조 신호에 대한 추론 결과를 도출하는 경우, 단말은 훈련 참조 신호를 기지국으로부터 수신할 수 있다. 여기서, 단말은 복수의 훈련 참조 신호의 각각에 대하여(또는 소정의 그룹에 대하여) 훈련된 결과를 저장할 수 있으며, 각 추론 참조 신호 별로 적절한 훈련 결과를 이용할 수 있다.
반대로, 상기 도 27(b)와 같이 기지국이 훈련 참조 신호를 이용하여 AI/ML 모델(및/또는 NN)을 훈련하고, 이에 기반하여 추론 참조 신호에 대한 추론 결과를 도출하는 경우, 단말은 훈련 참조 신호를 기지국에게 전송할 수 있다. 여기서, 기지국은 복수의 훈련 참조 신호의 각각에 대하여(또는 소정의 그룹에 대하여) 훈련된 결과를 저장할 수 있으며, 각 추론 참조 신호 별로 적절한 훈련 결과를 이용할 수 있다.
여기서, AI/ML 모델(및/또는 NN)이 훈련된다는 것은 상술한 바와 같이, 하나 이상의 훈련 참조 신호를 이용하여 상기 AI/ML 모델(및/또는 NN)의 하나 이상의 파라미터가 획득 또는 업데이트되는 것을 의미할 수 있다. 여기서, 상기 하나 이상의 파라미터는 상기 AL/ML 모델의 가중치(weight), 편향(bias)를 포함할 수 있다.
또한, AI/ML 모델(및/또는 NN)로부터의 추론은 상기 추론 참조 신호에 상기 하나 이상의 파라미터를 적용함으로써 도출되는 추론 결과(예를 들어, 채널 추정 값)에 해당할 수 있다.
한편, 도 34에서는 설명의 편의를 위해 추론 참조 신호를 PDSCH/PUSCH에 대한 DMRS로 예시하여 설명하지만 본 개시가 이에 한정되는 것은 아니며, 추론 참조 신호는 훈련 참조 신호와 마찬가지로 AI/ML 모델(및/또는 NN)의 추론을 위해 이용되는 물리 채널(예를 들어, PDSCH, PUSCH, PDCCH, PUCCH, PBCH, PRACH 등)/신호(예를 들어, CSI-RS, SRS, PTRS, CMRS, TRS 등)를 모두 포함할 수 있다.
단말은 기지국으로부터 물리 채널(예를 들어, PDSCH 또는 PUSCH)을 스케줄링하는 제어 정보를 수신한다(S3403).
여기서, 제어 정보는 하향링크 제어 정보(DCI)에 해당할 수 있으며, PDCCH를 통해 전송될 수 있다. 또는 제어 정보는 MAC CE에 해당할 수 있으며, 이 경우 PDSCH를 통해 전송될 수 있다.
단말은 제어 정보에 기반하여 물리 채널을 송신 또는 수신한다(즉, PDSCH를 수신하거나 또는 PUSCH를 송신)(S3404).
여기서, 단말이 PDSCH를 수신하는 경우, 단말은 하나 이상의 훈련 참조 신호를 이용하여 훈련된 AI/ML 모델로부터 상기 PDSCH의 DMRS에 대해 도출된 추론에 기반하여, 상기 PDSCH를 수신할 수 있다. 여기서, 하나 이상의 훈련 참조 신호는 상기 설정 정보 또는 상기 제어 정보에 포함된 상기 DMRS와 대응되는 상기 하나 이상의 훈련 참조 신호에 대한 정보에 의해 식별될 수 있다. 이 경우, 도 34에서는 도시되지 않았지만, 도 27(a)와 같이 단말이 기지국에게 훈련 참조 신호의 전송을 요청할 수도 있다.
또는, 단말이 PUSCH를 송신하는 경우, 기지국은 하나 이상의 훈련 참조 신호를 이용하여 훈련된 AI/ML 모델(및/또는 NN)로부터 상기 PUSCH의 DMRS에 대해 도출된 추론에 기반하여, 상기 PUSCH를 수신할 수 있다. 여기서, 하나 이상의 훈련 참조 신호는 상기 설정 정보 또는 상기 제어 정보에 포함된 상기 DMRS와 대응되는 상기 하나 이상의 훈련 참조 신호에 대한 정보에 의해 식별될 수 있다. 이 경우, 도 34에서는 도시되지 않았지만, 도 27(b)와 같이 기지국이 단말에게 기지국에게 훈련 참조 신호의 전송을 지시할 수도 있다.
여기서, 상기 실시예 2-1에 따라, 상기 설정 정보 또는 상기 제어 정보 내 상기 하나 이상의 훈련 참조 신호에 대한 정보는 상기 하나 이상의 훈련 참조 신호를 식별하기 위한 인덱스, 자원 중 적어도 하나를 포함할 수 있다.
또는, 상기 설정 정보 또는 상기 제어 정보는 상기 복수의 훈련 참조 신호와 상기 추론 참조 신호(예를 들어, DMRS) 이외의 다른 참조 신호들 간의 대응 관계에 대한 정보를 포함할 수 있다. 이 경우, 상기 설정 정보 또는 상기 제어 정보에 의해 상기 추론 참조 신호(예를 들어, DMRS)와 대응되는 하나 이상의 다른 참조 신호가 지시됨에 기반하여, 상기 하나 이상의 다른 참조 신호에 대한 특정 대응 관계에 따라 상기 추론 참조 신호(예를 들어, DMRS)와 대응되는 상기 하나 이상의 훈련 참조 신호가 결정될 수 있다.
또는, 상기 설정 정보 또는 상기 제어 정보는 상기 복수의 훈련 참조 신호와 상기 추론 참조 신호(예를 들어, DMRS) 이외의 다른 참조 신호들 간의 대응 관계에 대한 정보를 포함할 수 있다. 이 경우, 상기 설정 정보 또는 상기 제어 정보에 의해 상기 추론 참조 신호(예를 들어, DMRS)에 대한 특정 대응 관계를 지시함에 기반하여, 상기 특정 대응 관계에 따라 상기 추론 참조 신호(예를 들어, DMRS)와 대응되는 상기 하나 이상의 훈련 참조 신호가 결정될 수 있다.
여기서, 대응 관계는 CORESET(또는 CORESET들의 그룹), SS 세트(또는 SSR 세트들의 그룹), TCI 상태(또는 TCI 상태들의 그룹), SRI(또는 SRI들의 그룹), 공간 관계 정보(spatial relation info)(또는 공간 관계 정보의 그룹), PL RS(또는, PL RS들의 그룹), BWP(또는 BWP들의 그룹) 중 적어도 하나를 포함할 수 있다.
또한, 도 34에서는 도시되지 않았지만, 상기 실시예 2-2에 따라, 단말은 기지국에게 상기 단말이 동시에 지원할 수 있는 서로 다른 훈련 참조 신호의 개수를 보고할 수 있다.
또한, 상기 실시예 2-3에 따라, 상기 설정 정보 또는 상기 제어 정보에서 상기 추론 참조 신호(예를 들어, DMRS)와 대응되는 상기 하나 이상의 훈련 참조 신호에 대한 정보를 포함함에 따라, 상기 물리 채널(예를 들어, PDSCH, PUSCH)과 관련된 TRS이 전송되지 않을 수 있다.
또한, 상기 실시예 2-4에 따라, 상기 하나 이상의 훈련 참조 신호에 대한 정보는 시간 도메인과 주파수 도메인에 대하여 개별적으로 설정될 수 있다. 즉, 특정 추론 참조 신호에 대해서 시간 도메인에 대해서만 하나의 훈련 참조 신호가 대응되고, 주파수 도메인에 대해서만 다른 하나의 훈련 참조 신호가 대응될 수 있다. 이 경우, 상기 설정 정보 또는 상기 제어 정보는 시간 도메인 및 주파수 도메인 중 적어도 하나에 대하여 상기 하나 이상의 훈련 참조 신호에 대한 정보를 포함할 수 있다.
또한, 상기 설정 정보 또는 상기 제어 정보는 상기 하나 이상의 훈련 참조 신호에 대해서 상기 추론을 위해 이용되는 특정 자원 영역에 대한 정보를 더 포함할 수 있다. 이 경우, 단말/기지국은 추론을 위해 상기 특정 자원 영역에 포함되는(속하는) 훈련 참조 신호 (자원)만을 이용하여 상기 훈련된 AI/ML 모델(및/또는 NN)로부터 추론을 도출할 수 있다.
도 35는 본 개시의 일 실시예에 따른 무선 채널 송수신 방법에 대한 기지국의 동작을 예시하는 도면이다.
도 35에서는 앞서 제안 방법들(예를 들어, 실시예 2, 실시예 2-1, 실시예 2-2, 실시예 2-4 및 세부 실시예에서 어느 하나 또는 하나 이상의 조합)에 기반한 기지국의 동작을 예시한다. 도 35의 예시는 설명의 편의를 위한 것이며, 본 개시의 범위를 제한하는 것은 아니다. 도 35에서 예시된 일부 단계(들)은 상황 및/또는 설정에 따라 생략될 수 있다. 또한, 도 35에서 기지국은 하나의 예시일 뿐, 아래 도 36에서 예시된 장치로 구현될 수 있다. 예를 들어, 도 36의 프로세서(processor)(102/202)는 트랜시버(106/206)를 이용하여 채널/신호/데이터/정보 등을 송수신하도록 제어할 수 있으며, 전송될 또는 수신한 채널/신호/데이터/정보 등을 메모리(104/204)에 저장하도록 제어할 수도 있다.
또한, 도 35의 동작은 도 36의 하나 이상의 프로세서(102, 202)에 의해 처리될 수 있으며, 도 35의 동작은 도 36의 적어도 하나의 프로세서(예를 들어, 102, 202)를 구동하기 위한 명령어/프로그램(예를 들어, 명령(instruction), 실행 코드(executable code))형태로 메모리(예를 들어, 도 36의 하나 이상의 메모리(104, 204))에 저장될 수도 있다.
도 35를 참조하면, 기지국은 단말에게 AI/ML 모델의 훈련(training)을 위한 복수의 훈련 참조 신호와 관련된 설정 정보를 전송할 수 있다(S3501).
여기서, 훈련 참조 신호는 참조 신호만으로 한정되지 않으며, 상술한 바와 같이 AI/ML 모델(및/또는 NN)의 (online) 훈련을 위해 이용되는 물리 채널(예를 들어, PDSCH, PUSCH, PDCCH, PUCCH, PBCH, PRACH 등)/신호(예를 들어, CSI-RS, SRS, PTRS, CMRS, TRS 등)를 모두 포함할 수 있다.
상기 설정 정보는 기존의 각 물리 채널/신호에 대한 설정 정보에서 해당 물리 채널/신호가 AI/ML 모델(및/또는 NN)의 훈련을 위해 이용된다는 지시를 더 포함하는 형식으로 구성될 수도 있으며, 또는 AI/ML 모델(및/또는 NN)의 훈련을 위해 이용되는 복수의 훈련 참조 신호만을 그룹핑하여 별도로 설정 정보가 구성되고, 해당 복수의 훈련 참조 신호에 포함되는 물리 채널/신호에 대한 기존의 설정 정보가 참조될 수도 있다.
기지국은 기지국로부터 복수의 훈련 참조 신호를 수신하거나 또는 단말에게 복수의 훈련 참조 신호를 전송한다(S3502).
예를 들어, 상기 도 27(a)와 같이 단말이 훈련 참조 신호를 이용하여 AI/ML 모델(및/또는 NN)을 훈련하고, 이에 기반하여 추론 참조 신호에 대한 추론 결과를 도출하는 경우, 기지국은 훈련 참조 신호를 단말에게 전송할 수 있다. 여기서, 기지국은 복수의 훈련 참조 신호의 각각에 대하여(또는 소정의 그룹에 대하여) 훈련된 결과를 저장할 수 있으며, 각 추론 참조 신호 별로 적절한 훈련 결과를 이용할 수 있다.
반대로, 상기 도 27(b)와 같이 기지국이 훈련 참조 신호를 이용하여 AI/ML 모델(및/또는 NN)을 훈련하고, 이에 기반하여 추론 참조 신호에 대한 추론 결과를 도출하는 경우, 기지국은 단말로부터 훈련 참조 신호를 수신할 수 있다. 여기서, 단말은 복수의 훈련 참조 신호의 각각에 대하여(또는 소정의 그룹에 대하여) 훈련된 결과를 저장할 수 있으며, 각 추론 참조 신호 별로 적절한 훈련 결과를 이용할 수 있다.
여기서, AI/ML 모델(및/또는 NN)이 훈련된다는 것은 상술한 바와 같이, 하나 이상의 훈련 참조 신호를 이용하여 상기 AI/ML 모델(및/또는 NN)의 하나 이상의 파라미터가 획득 또는 업데이트되는 것을 의미할 수 있다. 여기서, 상기 하나 이상의 파라미터는 상기 AL/ML 모델의 가중치(weight), 편향(bias)를 포함할 수 있다.
또한, AI/ML 모델(및/또는 NN)로부터의 추론은 상기 추론 참조 신호에 상기 하나 이상의 파라미터를 적용함으로써 도출되는 추론 결과(예를 들어, 채널 추정 값)에 해당할 수 있다.
한편, 도 35에서는 설명의 편의를 위해 추론 참조 신호를 PDSCH/PUSCH에 대한 DMRS로 예시하여 설명하지만 본 개시가 이에 한정되는 것은 아니며, 추론 참조 신호는 훈련 참조 신호와 마찬가지로 AI/ML 모델(및/또는 NN)의 추론을 위해 이용되는 물리 채널(예를 들어, PDSCH, PUSCH, PDCCH, PUCCH, PBCH, PRACH 등)/신호(예를 들어, CSI-RS, SRS, PTRS, CMRS, TRS 등)를 모두 포함할 수 있다.
기지국은 단말에게 물리 채널(예를 들어, PDSCH 또는 PUSCH)을 스케줄링하는 제어 정보를 전송한다(S3503).
여기서, 제어 정보는 하향링크 제어 정보(DCI)에 해당할 수 있으며, PDCCH를 통해 전송될 수 있다. 또는 제어 정보는 MAC CE에 해당할 수 있으며, 이 경우 PDSCH를 통해 전송될 수 있다.
기지국은 제어 정보에 기반하여 물리 채널을 송신 또는 수신한다(즉, PDSCH를 전송하거나 또는 PUSCH를 수신)(S3504).
여기서, 기지국인 PDSCH를 전송하는 경우, 단말은 하나 이상의 훈련 참조 신호를 이용하여 훈련된 AI/ML 모델로부터 상기 PDSCH의 DMRS에 대해 도출된 추론에 기반하여, 상기 PDSCH를 수신할 수 있다. 여기서, 하나 이상의 훈련 참조 신호는 상기 설정 정보 또는 상기 제어 정보에 포함된 상기 DMRS와 대응되는 상기 하나 이상의 훈련 참조 신호에 대한 정보에 의해 식별될 수 있다. 이 경우, 도 35에서는 도시되지 않았지만, 도 27(a)와 같이 기지국은 단말로부터 훈련 참조 신호의 전송의 요청을 수신할 수도 있다.
또는, 기지국이 PUSCH를 수신하는 경우, 기지국은 하나 이상의 훈련 참조 신호를 이용하여 훈련된 AI/ML 모델(및/또는 NN)로부터 상기 PUSCH의 DMRS에 대해 도출된 추론에 기반하여, 상기 PUSCH를 수신할 수 있다. 여기서, 하나 이상의 훈련 참조 신호는 상기 설정 정보 또는 상기 제어 정보에 포함된 상기 DMRS와 대응되는 상기 하나 이상의 훈련 참조 신호에 대한 정보에 의해 식별될 수 있다. 이 경우, 도 35에서는 도시되지 않았지만, 도 27(b)와 같이 기지국이 단말에게 기지국에게 훈련 참조 신호의 전송을 지시할 수도 있다.
여기서, 상기 실시예 2-1에 따라, 상기 설정 정보 또는 상기 제어 정보 내 상기 하나 이상의 훈련 참조 신호에 대한 정보는 상기 하나 이상의 훈련 참조 신호를 식별하기 위한 인덱스, 자원 중 적어도 하나를 포함할 수 있다.
또는, 상기 설정 정보 또는 상기 제어 정보는 상기 복수의 훈련 참조 신호와 상기 추론 참조 신호(예를 들어, DMRS) 이외의 다른 참조 신호들 간의 대응 관계에 대한 정보를 포함할 수 있다. 이 경우, 상기 설정 정보 또는 상기 제어 정보에 의해 상기 추론 참조 신호(예를 들어, DMRS)와 대응되는 하나 이상의 다른 참조 신호가 지시됨에 기반하여, 상기 하나 이상의 다른 참조 신호에 대한 특정 대응 관계에 따라 상기 추론 참조 신호(예를 들어, DMRS)와 대응되는 상기 하나 이상의 훈련 참조 신호가 결정될 수 있다.
또는, 상기 설정 정보 또는 상기 제어 정보는 상기 복수의 훈련 참조 신호와 상기 추론 참조 신호(예를 들어, DMRS) 이외의 다른 참조 신호들 간의 대응 관계에 대한 정보를 포함할 수 있다. 이 경우, 상기 설정 정보 또는 상기 제어 정보에 의해 상기 추론 참조 신호(예를 들어, DMRS)에 대한 특정 대응 관계를 지시함에 기반하여, 상기 특정 대응 관계에 따라 상기 추론 참조 신호(예를 들어, DMRS)와 대응되는 상기 하나 이상의 훈련 참조 신호가 결정될 수 있다.
여기서, 대응 관계는 CORESET(또는 CORESET들의 그룹), SS 세트(또는 SSR 세트들의 그룹), TCI 상태(또는 TCI 상태들의 그룹), SRI(또는 SRI들의 그룹), 공간 관계 정보(spatial relation info)(또는 공간 관계 정보의 그룹), PL RS(또는, PL RS들의 그룹), BWP(또는 BWP들의 그룹) 중 적어도 하나를 포함할 수 있다.
또한, 도 35에서는 도시되지 않았지만, 상기 실시예 2-2에 따라, 기지국은 단말로부터 상기 단말이 동시에 지원할 수 있는 서로 다른 훈련 참조 신호의 개수를 보고받을 수 있다.
또한, 상기 실시예 2-3에 따라, 상기 설정 정보 또는 상기 제어 정보에서 상기 추론 참조 신호(예를 들어, DMRS)와 대응되는 상기 하나 이상의 훈련 참조 신호에 대한 정보를 포함함에 따라, 상기 물리 채널(예를 들어, PDSCH, PUSCH)과 관련된 TRS이 전송되지 않을 수 있다.
또한, 상기 실시예 2-4에 따라, 상기 하나 이상의 훈련 참조 신호에 대한 정보는 시간 도메인과 주파수 도메인에 대하여 개별적으로 설정될 수 있다. 즉, 특정 추론 참조 신호에 대해서 시간 도메인에 대해서만 하나의 훈련 참조 신호가 대응되고, 주파수 도메인에 대해서만 다른 하나의 훈련 참조 신호가 대응될 수 있다. 이 경우, 상기 설정 정보 또는 상기 제어 정보는 시간 도메인 및 주파수 도메인 중 적어도 하나에 대하여 상기 하나 이상의 훈련 참조 신호에 대한 정보를 포함할 수 있다.
또한, 상기 설정 정보 또는 상기 제어 정보는 상기 하나 이상의 훈련 참조 신호에 대해서 상기 추론을 위해 이용되는 특정 자원 영역에 대한 정보를 더 포함할 수 있다. 이 경우, 단말/기지국은 추론을 위해 상기 특정 자원 영역에 포함되는(속하는) 훈련 참조 신호 (자원)만을 이용하여 상기 훈련된 AI/ML 모델(및/또는 NN)로부터 추론을 도출할 수 있다.
본 개시가 적용될 수 있는 장치 일반
도 36은 본 개시의 일 실시예에 따른 무선 통신 장치의 블록 구성도를 예시하는 도면이다.
도 36을 참조하면, 제1 무선 기기(100)와 제2 무선 기기(200)는 다양한 무선 접속 기술(예를 들어, LTE, NR)을 통해 무선 신호를 송수신할 수 있다.
제1 무선 기기(100)는 하나 이상의 프로세서(102) 및 하나 이상의 메모리(104)를 포함하며, 추가적으로 하나 이상의 송수신기(106) 및/또는 하나 이상의 안테나(108)을 더 포함할 수 있다. 프로세서(102)는 메모리(104) 및/또는 송수신기(106)를 제어하며, 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(102)는 메모리(104) 내의 정보를 처리하여 제1 정보/신호를 생성한 뒤, 송수신기(106)을 통해 제1 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(102)는 송수신기(106)를 통해 제2 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제2 정보/신호의 신호 처리로부터 얻은 정보를 메모리(104)에 저장할 수 있다. 메모리(104)는 프로세서(102)와 연결될 수 있고, 프로세서(102)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(104)는 프로세서(102)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(102)와 메모리(104)는 무선 통신 기술(예를 들어, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(106)는 프로세서(102)와 연결될 수 있고, 하나 이상의 안테나(108)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(106)는 송신기 및/또는 수신기를 포함할 수 있다. 송수신기(106)는 RF(Radio Frequency) 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
제2 무선 기기(200)는 하나 이상의 프로세서(202), 하나 이상의 메모리(204)를 포함하며, 추가적으로 하나 이상의 송수신기(206) 및/또는 하나 이상의 안테나(208)를 더 포함할 수 있다. 프로세서(202)는 메모리(204) 및/또는 송수신기(206)를 제어하며, 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202)는 메모리(204) 내의 정보를 처리하여 제3 정보/신호를 생성한 뒤, 송수신기(206)를 통해 제3 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202)는 송수신기(206)를 통해 제4 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제4 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204)에 저장할 수 있다. 메모리(204)는 프로세서(202)와 연결될 수 있고, 프로세서(202)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204)는 프로세서(202)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202)와 메모리(204)는 무선 통신 기술(예를 들어, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206)는 프로세서(202)와 연결될 수 있고, 하나 이상의 안테나(208)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206)는 송신기 및/또는 수신기를 포함할 수 있다 송수신기(206)는 RF 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
이하, 무선 기기(100, 200)의 하드웨어 요소에 대해 보다 구체적으로 설명한다. 이로 제한되는 것은 아니지만, 하나 이상의 프로토콜 계층이 하나 이상의 프로세서(102, 202)에 의해 구현될 수 있다. 예를 들어, 하나 이상의 프로세서(102, 202)는 하나 이상의 계층(예를 들어, PHY, MAC, RLC, PDCP, RRC, SDAP와 같은 기능적 계층)을 구현할 수 있다. 하나 이상의 프로세서(102, 202)는 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 하나 이상의 PDU(Protocol Data Unit) 및/또는 하나 이상의 SDU(Service Data Unit)를 생성할 수 있다. 하나 이상의 프로세서(102, 202)는 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 메시지, 제어정보, 데이터 또는 정보를 생성할 수 있다. 하나 이상의 프로세서(102, 202)는 본 개시에 개시된 기능, 절차, 제안 및/또는 방법에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 포함하는 신호(예를 들어, 베이스밴드 신호)를 생성하여, 하나 이상의 송수신기(106, 206)에게 제공할 수 있다. 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)로부터 신호(예를 들어, 베이스밴드 신호)를 수신할 수 있고, 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 획득할 수 있다.
하나 이상의 프로세서(102, 202)는 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 마이크로 컴퓨터로 지칭될 수 있다. 하나 이상의 프로세서(102, 202)는 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합에 의해 구현될 수 있다. 일 예로, 하나 이상의 ASIC(Application Specific Integrated Circuit), 하나 이상의 DSP(Digital Signal Processor), 하나 이상의 DSPD(Digital Signal Processing Device), 하나 이상의 PLD(Programmable Logic Device) 또는 하나 이상의 FPGA(Field Programmable Gate Arrays)가 하나 이상의 프로세서(102, 202)에 포함될 수 있다. 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있고, 펌웨어 또는 소프트웨어는 모듈, 절차, 기능 등을 포함하도록 구현될 수 있다. 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 수행하도록 설정된 펌웨어 또는 소프트웨어는 하나 이상의 프로세서(102, 202)에 포함되거나, 하나 이상의 메모리(104, 204)에 저장되어 하나 이상의 프로세서(102, 202)에 의해 구동될 수 있다. 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 코드, 명령어 및/또는 명령어의 집합 형태로 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있다.
하나 이상의 메모리(104, 204)는 하나 이상의 프로세서(102, 202)와 연결될 수 있고, 다양한 형태의 데이터, 신호, 메시지, 정보, 프로그램, 코드, 지시 및/또는 명령을 저장할 수 있다. 하나 이상의 메모리(104, 204)는 ROM, RAM, EPROM, 플래시 메모리, 하드 드라이브, 레지스터, 캐쉬 메모리, 컴퓨터 판독 저장 매체 및/또는 이들의 조합으로 구성될 수 있다. 하나 이상의 메모리(104, 204)는 하나 이상의 프로세서(102, 202)의 내부 및/또는 외부에 위치할 수 있다. 또한, 하나 이상의 메모리(104, 204)는 유선 또는 무선 연결과 같은 다양한 기술을 통해 하나 이상의 프로세서(102, 202)와 연결될 수 있다.
하나 이상의 송수신기(106, 206)는 하나 이상의 다른 장치에게 본 개시의 방법들 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 전송할 수 있다. 하나 이상의 송수신기(106, 206)는 하나 이상의 다른 장치로부터 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 수신할 수 있다. 예를 들어, 하나 이상의 송수신기(106, 206)는 하나 이상의 프로세서(102, 202)와 연결될 수 있고, 무선 신호를 송수신할 수 있다. 예를 들어, 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)가 하나 이상의 다른 장치에게 사용자 데이터, 제어 정보 또는 무선 신호를 전송하도록 제어할 수 있다. 또한, 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)가 하나 이상의 다른 장치로부터 사용자 데이터, 제어 정보 또는 무선 신호를 수신하도록 제어할 수 있다. 또한, 하나 이상의 송수신기(106, 206)는 하나 이상의 안테나(108, 208)와 연결될 수 있고, 하나 이상의 송수신기(106, 206)는 하나 이상의 안테나(108, 208)를 통해 본 개시에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 송수신하도록 설정될 수 있다. 본 개시에서, 하나 이상의 안테나는 복수의 물리 안테나이거나, 복수의 논리 안테나(예를 들어, 안테나 포트)일 수 있다. 하나 이상의 송수신기(106, 206)는 수신된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 하나 이상의 프로세서(102, 202)를 이용하여 처리하기 위해, 수신된 무선 신호/채널 등을 RF 밴드 신호에서 베이스밴드 신호로 변환(Convert)할 수 있다. 하나 이상의 송수신기(106, 206)는 하나 이상의 프로세서(102, 202)를 이용하여 처리된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 베이스밴드 신호에서 RF 밴드 신호로 변환할 수 있다. 이를 위하여, 하나 이상의 송수신기(106, 206)는 (아날로그) 오실레이터 및/또는 필터를 포함할 수 있다.
이상에서 설명된 실시예들은 본 개시의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 개시의 실시예를 구성하는 것도 가능하다. 본 개시의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.
본 개시는 본 개시의 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 따라서, 상술한 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 개시의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 개시의 등가적 범위 내에서의 모든 변경은 본 개시의 범위에 포함된다.
본 개시의 범위는 다양한 실시예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다. 본 개시에서 설명하는 특징을 수행하는 프로세싱 시스템을 프로그래밍하기 위해 사용될 수 있는 명령은 저장 매체 또는 컴퓨터 판독가능 저장 매체 상에/내에 저장될 수 있고, 이러한 저장 매체를 포함하는 컴퓨터 프로그램 제품을 이용하여 본 개시에서 설명하는 특징이 구현될 수 있다. 저장 매체는 DRAM, SRAM, DDR RAM 또는 다른 랜덤 액세스 솔리드 스테이트 메모리 디바이스와 같은 고속 랜덤 액세스 메모리를 포함할 수 있지만, 이에 제한되지 않으며, 하나 이상의 자기 디스크 저장 디바이스, 광 디스크 저장 장치, 플래시 메모리 디바이스 또는 다른 비-휘발성 솔리드 스테이트 저장 디바이스와 같은 비-휘발성 메모리를 포함할 수 있다. 메모리는 선택적으로 프로세서(들)로부터 원격에 위치한 하나 이상의 저장 디바이스를 포함한다. 메모리 또는 대안적으로 메모리 내의 비-휘발성 메모리 디바이스(들)는 비-일시적 컴퓨터 판독가능 저장 매체를 포함한다. 본 개시에서 설명하는 특징은, 머신 판독가능 매체 중 임의의 하나에 저장되어 프로세싱 시스템의 하드웨어를 제어할 수 있고, 프로세싱 시스템이 본 개시의 실시예에 따른 결과를 활용하는 다른 메커니즘과 상호작용하도록 하는 소프트웨어 및/또는 펌웨어에 통합될 수 있다. 이러한 소프트웨어 또는 펌웨어는 애플리케이션 코드, 디바이스 드라이버, 운영 체제 및 실행 환경/컨테이너를 포함할 수 있지만 이에 제한되지 않는다.
여기서, 본 개시의 무선 기기(100, 200)에서 구현되는 무선 통신 기술은 LTE, NR 및 6G뿐만 아니라 저전력 통신을 위한 Narrowband Internet of Things를 포함할 수 있다. 이때, 예를 들어 NB-IoT 기술은 LPWAN(Low Power Wide Area Network) 기술의 일례일 수 있고, LTE Cat NB1 및/또는 LTE Cat NB2 등의 규격으로 구현될 수 있으며, 상술한 명칭에 한정되는 것은 아니다. 추가적으로 또는 대체적으로, 본 개시의 무선 기기(100, 200)에서 구현되는 무선 통신 기술은 LTE-M 기술을 기반으로 통신을 수행할 수 있다. 이때, 일 예로, LTE-M 기술은 LPWAN 기술의 일례일 수 있고, eMTC(enhanced Machine Type Communication) 등의 다양한 명칭으로 불릴 수 있다. 예를 들어, LTE-M 기술은 1) LTE CAT 0, 2) LTE Cat M1, 3) LTE Cat M2, 4) LTE non-BL(non-Bandwidth Limited), 5) LTE-MTC, 6) LTE Machine Type Communication, 및/또는 7) LTE M 등의 다양한 규격 중 적어도 어느 하나로 구현될 수 있으며 상술한 명칭에 한정되는 것은 아니다. 추가적으로 또는 대체적으로, 본 개시의 무선 기기(100, 200)에서 구현되는 무선 통신 기술은 저전력 통신을 고려한 지그비(ZigBee), 블루투스(Bluetooth) 및 저전력 광역 통신망(Low Power Wide Area Network, LPWAN) 중 적어도 어느 하나를 포함할 수 있으며, 상술한 명칭에 한정되는 것은 아니다. 일 예로 ZigBee 기술은 IEEE 802.15.4 등의 다양한 규격을 기반으로 소형/저-파워 디지털 통신에 관련된 PAN(personal area networks)을 생성할 수 있으며, 다양한 명칭으로 불릴 수 있다.
본 개시에서 제안하는 방법은 3GPP LTE/LTE-A, 5G 시스템에 적용되는 예를 중심으로 설명하였으나, 3GPP LTE/LTE-A, 5G 시스템 이외에도 다양한 무선 통신 시스템에 적용하는 것이 가능하다.

Claims (17)

  1. 무선 통신 시스템에서 PDSCH(physical downlink shared channel)을 수신하는 방법에 있어서, 단말에 의해 수행되는 상기 방법은:
    기지국으로부터 AI(Artificial Intelligence)/ML(Machine learning) 모델의 훈련(training)을 위한 복수의 훈련 참조 신호와 관련된 설정 정보를 수신하는 단계;
    상기 기지국으로부터 상기 복수의 훈련 참조 신호를 수신하는 단계;
    상기 기지국으로부터 상기 PDSCH를 스케줄링하는 제어 정보를 수신하는 단계; 및
    상기 복수의 훈련 참조 신호 중 하나 이상의 훈련 참조 신호를 이용하여 훈련된 AI/ML 모델로부터 상기 PDSCH의 DMRS(demodulation reference signal)에 대해 도출된 추론에 기반하여 상기 기지국으로부터 상기 PDSCH를 수신하는 단계를 포함하고,
    상기 설정 정보 또는 상기 제어 정보는 상기 DMRS와 대응되는 상기 하나 이상의 훈련 참조 신호에 대한 정보를 포함하는, 방법.
  2. 제1항에 있어서,
    상기 하나 이상의 훈련 참조 신호를 이용하여 상기 AI/ML 모델의 하나 이상의 파라미터가 획득 또는 업데이트되고,
    상기 하나 이상의 파라미터는 상기 AL/ML 모델의 가중치(weight), 편향(bias)를 포함하는, 방법.
  3. 제2항에 있어서,
    상기 추론은 상기 DMRS에 상기 하나 이상의 파라미터를 적용함으로써 도출되는 채널 추정 값에 해당하는, 방법.
  4. 제1항에 있어서,
    상기 하나 이상의 훈련 참조 신호에 대한 정보는 상기 하나 이상의 훈련 참조 신호를 식별하기 위한 인덱스, 자원 중 적어도 하나를 포함하는, 방법.
  5. 제1항에 있어서,
    상기 설정 정보 또는 상기 제어 정보는 상기 복수의 훈련 참조 신호와 상기 DMRS 이외의 다른 참조 신호들 간의 대응 관계에 대한 정보를 포함하고,
    상기 설정 정보 또는 상기 제어 정보에 의해 상기 DMRS와 대응되는 하나 이상의 다른 참조 신호가 지시됨에 기반하여, 상기 하나 이상의 다른 참조 신호에 대한 특정 대응 관계에 따라 상기 DMRS와 대응되는 상기 하나 이상의 훈련 참조 신호가 결정되는, 방법.
  6. 제1항에 있어서,
    상기 설정 정보 또는 상기 제어 정보는 상기 복수의 훈련 참조 신호와 상기 DMRS 이외의 다른 참조 신호들 간의 대응 관계에 대한 정보를 포함하고,
    상기 설정 정보 또는 상기 제어 정보에 의해 상기 DMRS에 대한 특정 대응 관계를 지시함에 기반하여, 상기 특정 대응 관계에 따라 상기 DMRS와 대응되는 상기 하나 이상의 훈련 참조 신호가 결정되는, 방법.
  7. 제6항에 있어서,
    상기 대응 관계는 제어 자원 세트(CORESET: control resource set), 서치 스페이스(SS: search space) 세트, 전송 설정 지시(TCI: transmission configuration indication) 상태, 사운딩 참조 신호 자원 지시자(SRI: sounding reference signal resource indicator), 공간 관계 정보(spatial relation info), 경로손실 참조 신호(PL RS: pathloss reference signal), 주파수 대역 부분(BWP: bandwidth part) 중 적어도 하나를 포함하는, 방법.
  8. 제1항에 있어서,
    상기 기지국에게 상기 단말이 동시에 지원할 수 있는 서로 다른 훈련 참조 신호의 개수를 보고하는 단계를 더 포함하는, 방법.
  9. 제1항에 있어서,
    상기 설정 정보 또는 상기 제어 정보에서 상기 DMRS와 대응되는 상기 하나 이상의 훈련 참조 신호에 대한 정보를 포함함에 따라, 상기 PDSCH와 관련된 트래킹 참조 신호(TRS: tracking reference signal)이 전송되지 않는, 방법.
  10. 제1항에 있어서,
    상기 하나 이상의 훈련 참조 신호에 대한 정보는 시간 도메인과 주파수 도메인에 대하여 개별적으로 설정되고,
    상기 설정 정보 또는 상기 제어 정보는 시간 도메인 및 주파수 도메인 중 적어도 하나에 대하여 상기 하나 이상의 훈련 참조 신호에 대한 정보를 포함하는, 방법.
  11. 제1항에 있어서,
    상기 설정 정보 또는 상기 제어 정보는 상기 하나 이상의 훈련 참조 신호에 대해서 상기 추론을 위해 이용되는 특정 자원 영역에 대한 정보를 더 포함하는, 방법.
  12. 제11항에 있어서,
    상기 특정 자원 영역에서 포함된 상기 하나 이상의 훈련 참조 신호만을 이용하여 훈련된 AI/ML 모델로부터 상기 추론이 도출되는, 방법.
  13. 무선 통신 시스템에서 PDSCH(physical downlink shared channel)을 수신하는 단말에 있어서, 상기 단말은:
    무선 신호를 송수신하기 위한 하나 이상의 송수신부(transceiver); 및
    상기 하나 이상의 송수신부를 제어하는 하나 이상의 프로세서를 포함하고,
    상기 하나 이상의 프로세서는:
    기지국으로부터 AI(Artificial Intelligence)/ML(Machine learning) 모델의 훈련(training)을 위한 복수의 훈련 참조 신호와 관련된 설정 정보를 수신하고;
    상기 기지국으로부터 상기 복수의 훈련 참조 신호를 수신하고;
    상기 기지국으로부터 상기 PDSCH를 스케줄링하는 제어 정보를 수신하고; 및
    상기 기지국으로부터 상기 복수의 훈련 참조 신호 중 하나 이상의 훈련 참조 신호를 이용하여 훈련된 AI/ML 모델로부터 상기 PDSCH의 DMRS(demodulation reference signal)에 대해 도출된 추론에 기반하여 상기 PDSCH를 수신하도록 설정되고,
    상기 설정 정보 또는 상기 제어 정보는 상기 DMRS와 대응되는 상기 하나 이상의 훈련 참조 신호에 대한 정보를 포함하는, 단말.
  14. 하나 이상의 명령을 저장하는 하나 이상의 비-일시적(non-transitory) 컴퓨터 판독가능 매체로서,
    상기 하나 이상의 명령은 하나 이상의 프로세서에 의해서 실행되어, PDSCH(physical downlink shared channel)을 수신하는 장치가:
    기지국으로부터 AI(Artificial Intelligence)/ML(Machine learning) 모델의 훈련(training)을 위한 복수의 훈련 참조 신호와 관련된 설정 정보를 수신하고;
    상기 기지국으로부터 상기 복수의 훈련 참조 신호를 수신하고;
    상기 기지국으로부터 상기 PDSCH를 스케줄링하는 제어 정보를 수신하고; 및
    상기 복수의 훈련 참조 신호 중 하나 이상의 훈련 참조 신호를 이용하여 훈련된 AI/ML 모델로부터 상기 PDSCH의 DMRS(demodulation reference signal)에 대해 도출된 추론에 기반하여 상기 기지국으로부터 상기 PDSCH를 수신하도록 제어하고,
    상기 설정 정보 또는 상기 제어 정보는 상기 DMRS와 대응되는 상기 하나 이상의 훈련 참조 신호에 대한 정보를 포함하는, 컴퓨터 판독가능 매체.
  15. 무선 통신 시스템에서 PDSCH(physical downlink shared channel)을 수신하기 위해 단말을 제어하도록 설정되는 프로세싱 장치에 있어서, 상기 프로세싱 장치는:
    하나 이상의 프로세서; 및
    상기 하나 이상의 프로세서에 동작 가능하게 연결되고, 상기 하나 이상의 프로세서에 의해 실행됨에 기반하여, 동작들을 수행하는 지시(instruction)들을 저장하는 하나 이상의 컴퓨터 메모리를 포함하며,
    상기 동작들은:
    기지국으로부터 AI(Artificial Intelligence)/ML(Machine learning) 모델의 훈련(training)을 위한 복수의 훈련 참조 신호와 관련된 설정 정보를 수신하는 단계;
    상기 기지국으로부터 상기 복수의 훈련 참조 신호를 수신하는 단계;
    상기 기지국으로부터 상기 PDSCH를 스케줄링하는 제어 정보를 수신하는 단계; 및
    상기 복수의 훈련 참조 신호 중 하나 이상의 훈련 참조 신호를 이용하여 훈련된 AI/ML 모델로부터 상기 PDSCH의 DMRS(demodulation reference signal)에 대해 도출된 추론에 기반하여 상기 기지국으로부터 상기 PDSCH를 수신하는 단계를 포함하고,
    상기 설정 정보 또는 상기 제어 정보는 상기 DMRS와 대응되는 상기 하나 이상의 훈련 참조 신호에 대한 정보를 포함하는, 프로세싱 장치.
  16. 무선 통신 시스템에서 PUSCH(physical uplink shared channel)을 수신하는 방법에 있어서, 기지국에 의해 수행되는 상기 방법은:
    단말에게 AI(Artificial Intelligence)/ML(Machine learning) 모델의 훈련(training)을 위한 복수의 훈련 참조 신호와 관련된 설정 정보를 전송하는 단계;
    상기 단말로부터 상기 복수의 훈련 참조 신호를 수신하는 단계;
    상기 단말에게 상기 PUSCH를 스케줄링하는 제어 정보를 전송하는 단계; 및
    상기 복수의 훈련 참조 신호 중 하나 이상의 훈련 참조 신호를 이용하여 훈련된 AI/ML 모델로부터 상기 PUSCH의 DMRS(demodulation reference signal)에 대해 도출된 추론에 기반하여 상기 단말로부터 상기 PUSCH를 수신하는 단계를 포함하고,
    상기 설정 정보 또는 상기 제어 정보는 상기 DMRS와 대응되는 상기 하나 이상의 훈련 참조 신호에 대한 정보를 포함하는, 방법.
  17. 무선 통신 시스템에서 PUSCH(physical uplink shared channel)을 수신하는 기지국에 있어서, 상기 기지국은:
    무선 신호를 송수신하기 위한 하나 이상의 송수신부(transceiver); 및
    상기 하나 이상의 송수신부를 제어하는 하나 이상의 프로세서를 포함하고,
    상기 하나 이상의 프로세서는:
    단말에게 AI(Artificial Intelligence)/ML(Machine learning) 모델의 훈련(training)을 위한 복수의 훈련 참조 신호와 관련된 설정 정보를 전송하고;
    상기 단말로부터 상기 복수의 훈련 참조 신호를 수신하고;
    상기 단말에게 상기 PUSCH를 스케줄링하는 제어 정보를 전송하고; 및
    상기 복수의 훈련 참조 신호 중 하나 이상의 훈련 참조 신호를 이용하여 훈련된 AI/ML 모델로부터 상기 PUSCH의 DMRS(demodulation reference signal)에 대해 도출된 추론에 기반하여 상기 단말로부터 상기 PUSCH를 수신하도록 설정되고,
    상기 설정 정보 또는 상기 제어 정보는 상기 DMRS와 대응되는 상기 하나 이상의 훈련 참조 신호에 대한 정보를 포함하는, 기지국.
PCT/KR2022/017093 2021-11-05 2022-11-03 무선 통신 시스템에서 물리 채널 송수신 방법 및 장치 WO2023080658A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20210151254 2021-11-05
KR10-2021-0151254 2021-11-05

Publications (1)

Publication Number Publication Date
WO2023080658A1 true WO2023080658A1 (ko) 2023-05-11

Family

ID=86241802

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/017093 WO2023080658A1 (ko) 2021-11-05 2022-11-03 무선 통신 시스템에서 물리 채널 송수신 방법 및 장치

Country Status (1)

Country Link
WO (1) WO2023080658A1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018016904A1 (ko) * 2016-07-21 2018-01-25 삼성전자 주식회사 무선 셀룰라 통신 시스템에서 다수의 dmrs 구조에 대한 설정 방법 및 장치
KR20200086340A (ko) * 2017-11-17 2020-07-16 지티이 코포레이션 기준 신호 채널 특성들을 구성하기 위한 방법 및 장치, 및 통신 디바이스
WO2020235884A1 (en) * 2019-05-17 2020-11-26 Samsung Electronics Co., Ltd. Method and apparatus for transmitting and receiving data in a wireless communication system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018016904A1 (ko) * 2016-07-21 2018-01-25 삼성전자 주식회사 무선 셀룰라 통신 시스템에서 다수의 dmrs 구조에 대한 설정 방법 및 장치
KR20200086340A (ko) * 2017-11-17 2020-07-16 지티이 코포레이션 기준 신호 채널 특성들을 구성하기 위한 방법 및 장치, 및 통신 디바이스
WO2020235884A1 (en) * 2019-05-17 2020-11-26 Samsung Electronics Co., Ltd. Method and apparatus for transmitting and receiving data in a wireless communication system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HUAWEI, HISILICON: "Views on studies on AI/ML for PHY", 3GPP DRAFT; RWS-210448, 3RD GENERATION PARTNERSHIP PROJECT (3GPP), MOBILE COMPETENCE CENTRE ; 650, ROUTE DES LUCIOLES ; F-06921 SOPHIA-ANTIPOLIS CEDEX ; FRANCE, vol. TSG RAN, no. Electronic Meeting; 20210628 - 20210702, 7 June 2021 (2021-06-07), Mobile Competence Centre ; 650, route des Lucioles ; F-06921 Sophia-Antipolis Cedex ; France , XP052026000 *
OPPO: "Discussion on R18 study on AI/ML-based 5G enhancements", 3GPP DRAFT; RP-211809, 3RD GENERATION PARTNERSHIP PROJECT (3GPP), MOBILE COMPETENCE CENTRE ; 650, ROUTE DES LUCIOLES ; F-06921 SOPHIA-ANTIPOLIS CEDEX ; FRANCE, vol. TSG RAN, no. Electronic Meeting; 20210913 - 20210917, 6 September 2021 (2021-09-06), Mobile Competence Centre ; 650, route des Lucioles ; F-06921 Sophia-Antipolis Cedex ; France, XP052049130 *

Similar Documents

Publication Publication Date Title
WO2021162517A1 (ko) 무선 통신 시스템에서 채널 상태 정보 송수신 방법 및 장치
WO2021162522A1 (ko) 무선 통신 시스템에서 채널 상태 정보 송수신 방법 및 장치
WO2016072814A1 (en) Method and apparatus for transmitting group message to user equipment (ue)
EP3216305A1 (en) Method and apparatus for transmitting group message to user equipment (ue)
WO2022030819A1 (ko) 무선 통신 시스템에서 상향링크 송수신 방법 및 장치
WO2022154505A1 (en) Data processing method and device in wireless communication network
WO2022245114A1 (en) Carrier management method, resource allocation method and related devices
WO2022203467A1 (en) Method and apparatus for reporting uplink power headroom in wireless communication system
WO2023195742A1 (en) Method and apparatus of indicating dynamic beam switching via downlink control information
WO2023140681A1 (ko) 무선 통신 시스템에서 상향링크 데이터 채널 전송을 위한 방법 및 장치
WO2023287086A1 (ko) 무선 통신 시스템에서 빔 정보를 송수신하는 방법 및 이를 위한 장치
WO2023080658A1 (ko) 무선 통신 시스템에서 물리 채널 송수신 방법 및 장치
WO2023080636A1 (ko) 무선 통신 시스템에서 상향링크 또는 하향링크 송수신을 수행하는 방법 및 장치
WO2022197081A1 (ko) 무선 통신 시스템에서 상향링크 송수신 방법 및 장치
WO2023063655A1 (ko) 무선 통신 시스템에서 채널 상태 정보를 송수신하는 방법 및 장치
WO2023068686A1 (ko) 무선 통신 시스템에서 무선 신호 송수신 방법 및 장치
WO2023055111A1 (ko) 무선 통신 시스템에서 무선 신호 송수신 방법 및 장치
WO2023136553A1 (ko) 무선 통신 시스템에서 무선 신호 송수신 방법 및 장치
WO2022265141A1 (ko) 무선 통신 시스템에서 빔 관리를 수행하는 방법 및 이를 위한 장치
WO2023136554A1 (ko) 무선 통신 시스템에서 무선 신호 송수신 방법 및 장치
WO2023163474A1 (ko) 무선 통신 시스템에서 양자화 기반 채널 상태 정보 송신 또는 수신 방법 및 장치
WO2023287095A1 (ko) 무선 통신 시스템에서 채널 상태 정보 송수신 방법 및 장치
WO2024071817A1 (ko) 무선 통신 시스템에서 채널 상태 정보 송수신 방법 및 장치
WO2023243958A1 (ko) 무선 통신 시스템에서 채널 상태 정보 송수신 방법 및 장치
WO2023211134A1 (ko) 무선 통신 시스템에서 채널 상태 정보 송수신 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22890389

Country of ref document: EP

Kind code of ref document: A1