WO2023101304A1 - 무선 통신 시스템에서 통신을 수행하는 방법 및 장치 - Google Patents

무선 통신 시스템에서 통신을 수행하는 방법 및 장치 Download PDF

Info

Publication number
WO2023101304A1
WO2023101304A1 PCT/KR2022/018624 KR2022018624W WO2023101304A1 WO 2023101304 A1 WO2023101304 A1 WO 2023101304A1 KR 2022018624 W KR2022018624 W KR 2022018624W WO 2023101304 A1 WO2023101304 A1 WO 2023101304A1
Authority
WO
WIPO (PCT)
Prior art keywords
model
mpf
information
base station
terminal
Prior art date
Application number
PCT/KR2022/018624
Other languages
English (en)
French (fr)
Inventor
이은종
이경호
김봉회
이상림
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2023101304A1 publication Critical patent/WO2023101304A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Definitions

  • the following description relates to a wireless communication system, and relates to a method and apparatus for performing communication in the wireless communication system.
  • it relates to a method and apparatus for a terminal to report model performance feedback (MPF) to a base station based on an artificial intelligence (AI)/machine learning (ML) model.
  • MPF model performance feedback
  • AI artificial intelligence
  • ML machine learning
  • a wireless access system is widely deployed to provide various types of communication services such as voice and data.
  • a wireless access system is a multiple access system capable of supporting communication with multiple users by sharing available system resources (bandwidth, transmission power, etc.).
  • Examples of the multiple access system include a code division multiple access (CDMA) system, a frequency division multiple access (FDMA) system, a time division multiple access (TDMA) system, an orthogonal frequency division multiple access (OFDMA) system, and a single carrier frequency (SC-FDMA) system. division multiple access) system.
  • CDMA code division multiple access
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • OFDMA orthogonal frequency division multiple access
  • SC-FDMA single carrier frequency division multiple access
  • eMBB enhanced mobile broadband
  • RAT radio access technology
  • MTC massive Machine Type Communications
  • the present disclosure relates to a method and apparatus for performing communication in a wireless communication system.
  • the present disclosure relates to a method and apparatus for sharing an AI/ML model in a wireless communication system.
  • the present disclosure relates to a method and apparatus for reporting an MPF for an AI/ML model to a base station in a wireless communication system.
  • the present disclosure relates to a method and apparatus for obtaining MPF setting-related information for MPF reporting on an AI/ML model in a wireless communication system.
  • the present disclosure relates to a method and apparatus for determining information included in an MPF based on an AI/ML model in a wireless communication system.
  • the terminal receives a synchronization signal from a base station, transmits a random access preamble to the base station based on the synchronization signal, and generates a random access preamble based on the random access preamble.
  • Receiving an access response performing connection with a base station after receiving a random access response, artificial intelligence (AI) / machine learning (ML) model information from the base station, and model performance feedback for the AI / ML model MPF) receiving at least one of related information, performing model inference in the AI/ML model based on the AI/ML model information, and transmitting the MPF of the AI/ML model to the base station through model performance evaluation. It may include the step of determining whether or not.
  • a method of operating a base station in a wireless communication system transmitting a synchronization signal to a terminal, receiving a random access preamble from the terminal based on the synchronization signal, based on the random access preamble to the terminal and transmitting a random access response, and performing a connection with the terminal after receiving the random access response, AI (artificial intelligence) / ML (machine learning) model information and model performance feedback for the AI / ML model performance feedback (MPF), including transmitting at least one of related information, wherein the terminal performs model inference in the AI/ML model based on the AI/ML model information, and evaluates AI/ML performance through model performance evaluation. It is possible to determine whether or not to transmit the MPF of the model to the base station.
  • AI artificial intelligence
  • ML machine learning
  • a terminal of a wireless communication system including a transceiver and a processor connected to the transceiver
  • the processor controls the transceiver so that the terminal receives a synchronization signal from the base station, and based on the synchronization signal Controls the transceiver to transmit a random access preamble to the base station, controls the transceiver to receive a random access response based on the random access preamble, performs connection with the base station after receiving the random access response, and performs artificial intelligence (AI)/receiver from the base station
  • a transceiver is controlled to receive at least one of ML (machine learning) model information and model performance feedback (MPF) related information for the AI/ML model, and the AI/ML model is based on the AI/ML model information. It is possible to perform model inference and determine whether to transmit the MPF of the AI / ML model to the base station through model performance evaluation.
  • ML machine learning
  • MPF model performance feedback
  • a base station of a wireless communication system including a transceiver and a processor connected to the transceiver
  • the processor controls the transceiver to transmit a synchronization signal to a terminal, and from the terminal based on the synchronization signal Controls the transceiver to receive the random access preamble, controls the transceiver to transmit a random access response to the terminal based on the random access preamble, performs connection with the terminal after receiving the random access response, and artificial intelligence (AI) to the terminal / Controls the transceiver to transmit at least one of machine learning (ML) model information and model performance feedback (MPF) related information for the AI / ML model, but the terminal transmits AI based on the AI / ML model information It is possible to perform model inference in the /ML model and determine whether to transmit the MPF of the AI / ML model to the base station through model performance evaluation.
  • ML machine learning
  • MPF model performance feedback
  • the at least one processor receives a synchronization signal from a base station. control the device to transmit a random access preamble to the base station based on the synchronization signal, control the device to receive a random access response based on the random access preamble, and establish a connection with the base station after receiving the random access response Control the device to perform, and to receive at least one of AI (artificial intelligence) / ML (machine learning) model information and model performance feedback (MPF) related information for the AI / ML model from the base station. control, perform model inference in the AI / ML model based on the AI / ML model information, and control the device to determine whether to transmit the MPF of the AI / ML model to the base station through model performance evaluation .
  • AI artificial intelligence
  • ML machine learning
  • MPF model performance feedback
  • At least one executable by a processor includes instructions of, wherein the at least one command controls to receive a synchronization signal from the base station, controls to transmit a random access preamble to the base station based on the synchronization signal, and receives a random access response based on the random access preamble.
  • control control to perform connection with the base station after receiving a random access response, and related to AI (artificial intelligence) / ML (machine learning) model information and model performance feedback (MPF) for the AI / ML model from the base station
  • AI artificial intelligence
  • ML machine learning
  • MPF model performance feedback
  • the MPF related information may include at least one of MPF parameter information of an AI/ML model, MPF triggering condition information, and MPF related data information.
  • the MPF parameters may be identically set in at least one AI/ML model.
  • the MPF parameter information may include at least one of prediction accuracy information of an AI/ML model, channel state information (CSI) feedback information, and information about measurement values.
  • CSI channel state information
  • the terminal when beam prediction is performed based on the AI / ML model, the terminal obtains beam quality prediction accuracy information included in MPF parameter information, but the beam quality prediction accuracy information is obtained by transmitting the MPF to the base station. It includes a preset beam quality prediction accuracy value for determining whether to transmit, and the terminal performs RSRP prediction on at least one beam through model inference based on the AI / ML model to select a beam with the highest RSRP.
  • the MPF triggering condition information includes at least one of threshold value information and transmission method information, but the threshold information includes a threshold value for a feedback value and a threshold value related to update decision of the AI/ML model. includes at least one of, and the transmission method information indicates the MPF transmission method of the AI / ML model, but the MPF is based on at least one of periodic transmission, event-based aperiodic transmission, and model inference execution time transmission can be transmitted
  • the terminal performs an action based on an output of model inference of AI / ML model information, performs model performance evaluation based on the output and the action, and based on the model performance evaluation If it is decided not to transmit the MPF of the AI/ML model, the terminal generates an output based on the model inference of the AI/ML model to perform an action, and transmits the MPF of the AI/ML model based on the model performance evaluation. If it is decided to do so, the terminal may receive updated AI / ML model information from the base station, generate an output based on the updated AI / ML model, and perform an action.
  • whether or not to transmit the MPF of the AI/ML model may be determined based on at least one of an event set by a base station, an event set by a terminal, and a preset event.
  • the MPF when transmission to the MPF is determined, the MPF includes 1-bit indication information indicating a performance state for each AI/ML model, a model performance evaluation result value of the AI/ML model, and model performance evaluation It may include at least one of related data values.
  • the MPF when the MPF includes 1-bit indication information indicating a performance state for each AI/ML model, based on model performance evaluation result value and threshold value comparison based on model inference Accordingly, 1-bit indication information indicating a performance state for each AI/ML model may be determined and included in the MPF.
  • the MPF when the MPF includes the model performance evaluation result value of each AI/ML model, the MPF is a value for the difference between the model performance evaluation result value or the model performance evaluation result value and a preset value. may include any one of them.
  • the MPF when it is determined that the MPF of the AI / ML model is transmitted to the base station, the MPF may be indicated through at least one of a physical uplink control channel (PUCCH) and a physical uplink shared channel (PUSCH). there is.
  • a physical uplink control channel PUCCH
  • PUSCH physical uplink shared channel
  • the MPF when it is determined that the MPF of the AI/ML model is transmitted to the base station, the MPF may be included in a medium access control (MAC) control element (CE) and transmitted.
  • MAC medium access control
  • CE control element
  • the MPF when it is determined that the MPF of the AI / ML model is transmitted to the base station, the MPF is transmitted through an uplink-dedicated control channel based on a radio resource control (RRC) message.
  • RRC radio resource control
  • a method for performing communication may be provided.
  • a method for sharing an AI/ML model may be provided.
  • a method for reporting an MPF for an AI/ML model to a base station may be provided.
  • Embodiments based on the present disclosure may provide a method for obtaining MPF setting related information for MPF reporting on AI/ML models.
  • a method for determining information included in an MPF based on an AI/ML model may be provided.
  • FIG. 1 is a diagram illustrating an exemplary communication system according to an embodiment of the present disclosure.
  • FIG. 2 is a diagram showing an example of a wireless device according to an embodiment of the present disclosure.
  • FIG. 3 is a diagram illustrating another example of a wireless device according to an embodiment of the present disclosure.
  • AI Artificial Intelligence
  • FIG. 5 is a diagram illustrating a functional framework according to an embodiment of the present disclosure.
  • FIG. 6 is a diagram illustrating a method of generating an AI/ML-based model inference output according to an embodiment of the present disclosure.
  • FIG. 7 is a diagram illustrating a method of generating an AI/ML-based model inference output according to an embodiment of the present disclosure.
  • FIG. 8 is a diagram illustrating a case in which both model training and model inference exist in the RAN according to an embodiment of the present disclosure.
  • FIG. 9 is a diagram illustrating a method in which AI/ML-based model training is performed in a network and model inference is performed in a terminal according to an embodiment of the present disclosure.
  • FIG. 10 is a diagram illustrating a method in which AI/ML-based model training is performed in a network and model inference is performed in a network and a terminal according to an embodiment of the present disclosure.
  • FIG. 11 is a diagram illustrating a method of performing MPF transmission applicable to the present disclosure.
  • the 12 may be a MAC CE format in which information included in an MPF applicable to the present disclosure is transmitted.
  • FIG. 13 is a diagram illustrating a terminal operation applicable to the present disclosure.
  • FIG. 14 is a diagram illustrating UE operation based on beam prediction applicable to the present disclosure.
  • 15 is a flowchart illustrating a terminal operation applicable to the present disclosure.
  • 16 is a flowchart illustrating a terminal operation applicable to the present disclosure.
  • each component or feature may be considered optional unless explicitly stated otherwise.
  • Each component or feature may be implemented in a form not combined with other components or features.
  • an embodiment of the present disclosure may be configured by combining some elements and/or features. The order of operations described in the embodiments of the present disclosure may be changed. Some components or features of one embodiment may be included in another embodiment, or may be replaced with corresponding components or features of another embodiment.
  • a base station has meaning as a terminal node of a network that directly communicates with a mobile station.
  • a specific operation described as being performed by a base station in this document may be performed by an upper node of the base station in some cases.
  • the 'base station' is a term such as a fixed station, Node B, eNode B, gNode B, ng-eNB, advanced base station (ABS), or access point. can be replaced by
  • a terminal includes a user equipment (UE), a mobile station (MS), a subscriber station (SS), a mobile subscriber station (MSS), It may be replaced with terms such as mobile terminal or advanced mobile station (AMS).
  • UE user equipment
  • MS mobile station
  • SS subscriber station
  • MSS mobile subscriber station
  • AMS advanced mobile station
  • the transmitting end refers to a fixed and/or mobile node providing data service or voice service
  • the receiving end refers to a fixed and/or mobile node receiving data service or voice service. Therefore, in the case of uplink, the mobile station can be a transmitter and the base station can be a receiver. Similarly, in the case of downlink, the mobile station may be a receiving end and the base station may be a transmitting end.
  • Embodiments of the present disclosure are wireless access systems, such as an IEEE 802.xx system, a 3rd Generation Partnership Project (3GPP) system, a 3GPP Long Term Evolution (LTE) system, a 3GPP 5G (5th generation) NR (New Radio) system, and a 3GPP2 system. It may be supported by at least one disclosed standard document, and in particular, the embodiments of the present disclosure are supported by 3GPP technical specification (TS) 38.211, 3GPP TS 38.212, 3GPP TS 38.213, 3GPP TS 38.321 and 3GPP TS 38.331 documents It can be.
  • 3GPP technical specification TS 38.211, 3GPP TS 38.212, 3GPP TS 38.213, 3GPP TS 38.321 and 3GPP TS 38.331 documents It can be.
  • embodiments of the present disclosure may be applied to other wireless access systems, and are not limited to the above-described systems.
  • it may also be applicable to a system applied after the 3GPP 5G NR system, and is not limited to a specific system.
  • CDMA code division multiple access
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • OFDMA orthogonal frequency division multiple access
  • SC-FDMA single carrier frequency division multiple access
  • LTE is 3GPP TS 36.xxx Release 8 or later
  • LTE technology after 3GPP TS 36.xxx Release 10 is referred to as LTE-A
  • xxx Release 13 may be referred to as LTE-A pro.
  • 3GPP NR may mean technology after TS 38.xxx Release 15.
  • 3GPP 6G may mean technology after TS Release 17 and/or Release 18.
  • "xxx" means a standard document detail number.
  • LTE/NR/6G may be collectively referred to as a 3GPP system.
  • FIG. 1 is a diagram illustrating an example of a communication system applied to the present disclosure.
  • a communication system 100 applied to the present disclosure includes a wireless device, a base station, and a network.
  • the wireless device means a device that performs communication using a radio access technology (eg, 5G NR, LTE), and may be referred to as a communication/wireless/5G device.
  • the wireless device includes a robot 100a, a vehicle 100b-1 and 100b-2, an extended reality (XR) device 100c, a hand-held device 100d, and a home appliance. appliance) 100e, Internet of Thing (IoT) device 100f, and artificial intelligence (AI) device/server 100g.
  • a radio access technology eg, 5G NR, LTE
  • XR extended reality
  • IoT Internet of Thing
  • AI artificial intelligence
  • the vehicle may include a vehicle equipped with a wireless communication function, an autonomous vehicle, a vehicle capable of performing inter-vehicle communication, and the like.
  • the vehicles 100b-1 and 100b-2 may include an unmanned aerial vehicle (UAV) (eg, a drone).
  • UAV unmanned aerial vehicle
  • the XR device 100c includes augmented reality (AR)/virtual reality (VR)/mixed reality (MR) devices, and includes a head-mounted device (HMD), a head-up display (HUD) installed in a vehicle, a television, It may be implemented in the form of smart phones, computers, wearable devices, home appliances, digital signage, vehicles, robots, and the like.
  • the mobile device 100d may include a smart phone, a smart pad, a wearable device (eg, a smart watch, a smart glass), a computer (eg, a laptop computer), and the like.
  • the home appliance 100e may include a TV, a refrigerator, a washing machine, and the like.
  • the IoT device 100f may include a sensor, a smart meter, and the like.
  • the base station 120 and the network 130 may also be implemented as a wireless device, and a specific wireless device 120a may operate as a base station/network node to other wireless devices.
  • the wireless devices 100a to 100f may be connected to the network 130 through the base station 120 .
  • AI technology may be applied to the wireless devices 100a to 100f, and the wireless devices 100a to 100f may be connected to the AI server 100g through the network 130.
  • the network 130 may be configured using a 3G network, a 4G (eg LTE) network, or a 5G (eg NR) network.
  • the wireless devices 100a to 100f may communicate with each other through the base station 120/network 130, but communicate directly without going through the base station 120/network 130 (e.g., sidelink communication). You may.
  • the vehicles 100b-1 and 100b-2 may perform direct communication (eg, vehicle to vehicle (V2V)/vehicle to everything (V2X) communication).
  • the IoT device 100f eg, sensor
  • the IoT device 100f may directly communicate with other IoT devices (eg, sensor) or other wireless devices 100a to 100f.
  • FIG. 2 is a diagram illustrating an example of a wireless device applicable to the present disclosure.
  • a first wireless device 200a and a second wireless device 200b may transmit and receive radio signals through various wireless access technologies (eg, LTE and NR).
  • ⁇ the first wireless device 200a, the second wireless device 200b ⁇ denotes the ⁇ wireless device 100x and the base station 120 ⁇ of FIG. 1 and/or the ⁇ wireless device 100x and the wireless device 100x.
  • can correspond.
  • the first wireless device 200a includes one or more processors 202a and one or more memories 204a, and may further include one or more transceivers 206a and/or one or more antennas 208a.
  • the processor 202a controls the memory 204a and/or the transceiver 206a and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flow diagrams disclosed herein.
  • the processor 202a may process information in the memory 204a to generate first information/signal, and transmit a radio signal including the first information/signal through the transceiver 206a.
  • the processor 202a may receive a radio signal including the second information/signal through the transceiver 206a and store information obtained from signal processing of the second information/signal in the memory 204a.
  • the memory 204a may be connected to the processor 202a and may store various information related to the operation of the processor 202a.
  • memory 204a may perform some or all of the processes controlled by processor 202a, or instructions for performing the descriptions, functions, procedures, suggestions, methods, and/or flowcharts of operations disclosed herein. It may store software codes including them.
  • the processor 202a and the memory 204a may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
  • the transceiver 206a may be coupled to the processor 202a and may transmit and/or receive wireless signals through one or more antennas 208a.
  • the transceiver 206a may include a transmitter and/or a receiver.
  • the transceiver 206a may be used interchangeably with a radio frequency (RF) unit.
  • RF radio frequency
  • a wireless device may mean a communication modem/circuit/chip.
  • the second wireless device 200b includes one or more processors 202b, one or more memories 204b, and may further include one or more transceivers 206b and/or one or more antennas 208b.
  • the processor 202b controls the memory 204b and/or the transceiver 206b and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flow diagrams disclosed herein.
  • the processor 202b may process information in the memory 204b to generate third information/signal, and transmit a radio signal including the third information/signal through the transceiver 206b.
  • the processor 202b may receive a radio signal including the fourth information/signal through the transceiver 206b and store information obtained from signal processing of the fourth information/signal in the memory 204b.
  • the memory 204b may be connected to the processor 202b and may store various information related to the operation of the processor 202b.
  • the memory 204b may perform some or all of the processes controlled by the processor 202b, or instructions for performing the descriptions, functions, procedures, suggestions, methods, and/or flowcharts of operations disclosed herein. It may store software codes including them.
  • the processor 202b and the memory 204b may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
  • the transceiver 206b may be coupled to the processor 202b and may transmit and/or receive wireless signals through one or more antennas 208b.
  • the transceiver 206b may include a transmitter and/or a receiver.
  • the transceiver 206b may be used interchangeably with an RF unit.
  • a wireless device may mean a communication modem/circuit/chip.
  • one or more protocol layers may be implemented by one or more processors 202a, 202b.
  • the one or more processors 202a and 202b may include one or more layers (eg, PHY (physical), MAC (media access control), RLC (radio link control), PDCP (packet data convergence protocol), RRC (radio resource) control) and functional layers such as service data adaptation protocol (SDAP).
  • One or more processors 202a, 202b may generate one or more protocol data units (PDUs) and/or one or more service data units (SDUs) according to the descriptions, functions, procedures, proposals, methods, and/or operational flow charts disclosed herein.
  • PDUs protocol data units
  • SDUs service data units
  • processors 202a, 202b may generate messages, control information, data or information according to the descriptions, functions, procedures, proposals, methods and/or operational flow diagrams disclosed herein.
  • One or more processors 202a, 202b generate PDUs, SDUs, messages, control information, data or signals (eg, baseband signals) containing information according to the functions, procedures, proposals and/or methods disclosed herein , may be provided to one or more transceivers 206a and 206b.
  • One or more processors 202a, 202b may receive signals (eg, baseband signals) from one or more transceivers 206a, 206b, and descriptions, functions, procedures, suggestions, methods, and/or flowcharts of operations disclosed herein PDUs, SDUs, messages, control information, data or information can be obtained according to these.
  • signals eg, baseband signals
  • One or more processors 202a, 202b may be referred to as a controller, microcontroller, microprocessor or microcomputer.
  • One or more processors 202a, 202b may be implemented by hardware, firmware, software, or a combination thereof.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • firmware or software may be implemented using firmware or software, and the firmware or software may be implemented to include modules, procedures, functions, and the like.
  • Firmware or software configured to perform the descriptions, functions, procedures, proposals, methods and/or operational flow charts disclosed in this document may be included in one or more processors 202a or 202b or stored in one or more memories 204a or 204b. It can be driven by the above processors 202a and 202b.
  • the descriptions, functions, procedures, suggestions, methods and/or operational flow charts disclosed in this document may be implemented using firmware or software in the form of codes, instructions and/or sets of instructions.
  • One or more memories 204a, 204b may be coupled to one or more processors 202a, 202b and may store various types of data, signals, messages, information, programs, codes, instructions and/or instructions.
  • One or more memories 204a, 204b may include read only memory (ROM), random access memory (RAM), erasable programmable read only memory (EPROM), flash memory, hard drive, registers, cache memory, computer readable storage media, and/or It may consist of a combination of these.
  • One or more memories 204a, 204b may be located internally and/or externally to one or more processors 202a, 202b.
  • one or more memories 204a, 204b may be connected to one or more processors 202a, 202b through various technologies such as wired or wireless connections.
  • One or more transceivers 206a, 206b may transmit user data, control information, radio signals/channels, etc. referred to in the methods and/or operational flow charts of this document to one or more other devices.
  • One or more transceivers 206a, 206b may receive user data, control information, radio signals/channels, etc. referred to in descriptions, functions, procedures, proposals, methods and/or operational flow charts, etc. disclosed herein from one or more other devices. there is.
  • one or more transceivers 206a and 206b may be connected to one or more processors 202a and 202b and transmit and receive radio signals.
  • one or more processors 202a, 202b may control one or more transceivers 206a, 206b to transmit user data, control information, or radio signals to one or more other devices.
  • one or more processors 202a, 202b may control one or more transceivers 206a, 206b to receive user data, control information, or radio signals from one or more other devices.
  • one or more transceivers 206a, 206b may be coupled to one or more antennas 208a, 208b, and one or more transceivers 206a, 206b may be connected to one or more antennas 208a, 208b to achieve the descriptions, functions disclosed in this document.
  • one or more antennas may be a plurality of physical antennas or a plurality of logical antennas (eg, antenna ports).
  • One or more transceivers (206a, 206b) in order to process the received user data, control information, radio signal / channel, etc. using one or more processors (202a, 202b), the received radio signal / channel, etc. in the RF band signal It can be converted into a baseband signal.
  • One or more transceivers 206a and 206b may convert user data, control information, and radio signals/channels processed by one or more processors 202a and 202b from baseband signals to RF band signals.
  • one or more transceivers 206a, 206b may include (analog) oscillators and/or filters.
  • FIG. 3 is a diagram illustrating another example of a wireless device applied to the present disclosure.
  • a wireless device 300 corresponds to the wireless devices 200a and 200b of FIG. 2, and includes various elements, components, units/units, and/or modules. ) can be configured.
  • the wireless device 300 may include a communication unit 310, a control unit 320, a memory unit 330, and an additional element 340.
  • the communication unit may include communication circuitry 312 and transceiver(s) 314 .
  • communication circuitry 312 may include one or more processors 202a, 202b of FIG. 2 and/or one or more memories 204a, 204b.
  • transceiver(s) 314 may include one or more transceivers 206a, 206b of FIG.
  • the control unit 320 is electrically connected to the communication unit 310, the memory unit 330, and the additional element 340 and controls overall operations of the wireless device. For example, the control unit 320 may control electrical/mechanical operations of the wireless device based on programs/codes/commands/information stored in the memory unit 330. In addition, the control unit 320 transmits the information stored in the memory unit 330 to the outside (eg, another communication device) through the communication unit 310 through a wireless/wired interface, or transmits the information stored in the memory unit 330 to the outside (eg, another communication device) through the communication unit 310. Information received through a wireless/wired interface from other communication devices) may be stored in the memory unit 330 .
  • the additional element 340 may be configured in various ways according to the type of wireless device.
  • the additional element 340 may include at least one of a power unit/battery, an input/output unit, a driving unit, and a computing unit.
  • the wireless device 300 may be a robot (FIG. 1, 100a), a vehicle (FIG. 1, 100b-1, 100b-2), an XR device (FIG. 1, 100c), a mobile device (FIG. 1, 100d) ), home appliances (FIG. 1, 100e), IoT devices (FIG.
  • Wireless devices can be mobile or used in a fixed location depending on the use-case/service.
  • various elements, components, units/units, and/or modules in the wireless device 300 may be entirely interconnected through a wired interface or at least partially connected wirelessly through the communication unit 310 .
  • the control unit 320 and the communication unit 310 are connected by wire, and the control unit 320 and the first units (eg, 130 and 140) are connected wirelessly through the communication unit 310.
  • each element, component, unit/unit, and/or module within wireless device 300 may further include one or more elements.
  • the control unit 320 may be composed of one or more processor sets.
  • control unit 320 may include a set of a communication control processor, an application processor, an electronic control unit (ECU), a graphic processing processor, a memory control processor, and the like.
  • memory unit 330 may include RAM, dynamic RAM (DRAM), ROM, flash memory, volatile memory, non-volatile memory, and/or combinations thereof. can be configured.
  • AI devices include TVs, projectors, smartphones, PCs, laptops, digital broadcasting terminals, tablet PCs, wearable devices, set-top boxes (STBs), radios, washing machines, refrigerators, digital signage, robots, vehicles, etc. It may be implemented as a device or a movable device.
  • the AI device 600 includes a communication unit 610, a control unit 620, a memory unit 630, an input/output unit 640a/640b, a running processor unit 640c, and a sensor unit 640d.
  • a communication unit 610 can include a communication unit 610, a control unit 620, a memory unit 630, an input/output unit 640a/640b, a running processor unit 640c, and a sensor unit 640d.
  • Blocks 910 to 930/940a to 940d may respectively correspond to blocks 310 to 330/340 of FIG. 3 .
  • the communication unit 610 communicates wired and wireless signals (eg, sensor information, user data) with external devices such as other AI devices (eg, FIG. 1, 100x, 120, and 140) or AI servers (Fig. input, learning model, control signal, etc.) can be transmitted and received. To this end, the communication unit 610 may transmit information in the memory unit 630 to an external device or transmit a signal received from the external device to the memory unit 630 .
  • external devices eg, sensor information, user data
  • AI devices eg, FIG. 1, 100x, 120, and 140
  • AI servers Fig. input, learning model, control signal, etc.
  • the controller 620 may determine at least one executable operation of the AI device 600 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. And, the controller 620 may perform the determined operation by controlling components of the AI device 600 . For example, the control unit 620 may request, retrieve, receive, or utilize data from the learning processor unit 640c or the memory unit 630, and may perform a predicted operation among at least one feasible operation or one determined to be desirable. Components of the AI device 600 may be controlled to execute an operation. In addition, the control unit 920 collects history information including user feedback on the operation contents or operation of the AI device 600 and stores it in the memory unit 630 or the running processor unit 640c, or the AI server ( 1, 140) can be transmitted to an external device. The collected history information can be used to update the learning model.
  • the memory unit 630 may store data supporting various functions of the AI device 600 .
  • the memory unit 630 may store data obtained from the input unit 640a, data obtained from the communication unit 610, output data of the learning processor unit 640c, and data obtained from the sensing unit 640.
  • the memory unit 930 may store control information and/or software codes required for operation/execution of the control unit 620 .
  • the input unit 640a may obtain various types of data from the outside of the AI device 600.
  • the input unit 620 may obtain learning data for model learning and input data to which the learning model is to be applied.
  • the input unit 640a may include a camera, a microphone, and/or a user input unit.
  • the output unit 640b may generate an output related to sight, hearing, or touch.
  • the output unit 640b may include a display unit, a speaker, and/or a haptic module.
  • the sensing unit 640 may obtain at least one of internal information of the AI device 600, surrounding environment information of the AI device 600, and user information by using various sensors.
  • the sensing unit 640 may include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and/or a radar. there is.
  • the learning processor unit 640c may learn a model composed of an artificial neural network using learning data.
  • the running processor unit 640c may perform AI processing together with the running processor unit of the AI server (FIG. 1, 140).
  • the learning processor unit 640c may process information received from an external device through the communication unit 610 and/or information stored in the memory unit 630 .
  • the output value of the learning processor unit 940c may be transmitted to an external device through the communication unit 610 and/or stored in the memory unit 630.
  • 6G (radio communications) systems are characterized by (i) very high data rates per device, (ii) very large number of connected devices, (iii) global connectivity, (iv) very low latency, (v) battery- It aims to lower energy consumption of battery-free IoT devices, (vi) ultra-reliable connectivity, and (vii) connected intelligence with machine learning capabilities.
  • the vision of the 6G system can be four aspects such as “intelligent connectivity”, “deep connectivity”, “holographic connectivity”, and “ubiquitous connectivity”, and the 6G system can satisfy the requirements shown in Table 1 below. That is, Table 1 is a table showing the requirements of the 6G system.
  • the 6G system is enhanced mobile broadband (eMBB), ultra-reliable low latency communications (URLLC), mMTC (massive machine type communications), AI integrated communication, tactile Internet (tactile internet), high throughput, high network capacity, high energy efficiency, low backhaul and access network congestion and improved data security ( can have key factors such as enhanced data security.
  • eMBB enhanced mobile broadband
  • URLLC ultra-reliable low latency communications
  • mMTC massive machine type communications
  • AI integrated communication e.g., AI integrated communication
  • tactile Internet tactile internet
  • high throughput high network capacity
  • high energy efficiency high backhaul and access network congestion
  • improved data security can have key factors such as enhanced data security.
  • AI The most important and newly introduced technology for the 6G system is AI.
  • AI was not involved in the 4G system.
  • 5G systems will support partial or very limited AI.
  • the 6G system will be AI-enabled for full automation.
  • Advances in machine learning will create more intelligent networks for real-time communication in 6G.
  • Introducing AI in communications can simplify and enhance real-time data transmission.
  • AI can use a plethora of analytics to determine how complex target tasks are performed. In other words, AI can increase efficiency and reduce processing delays.
  • AI can also play an important role in M2M, machine-to-human and human-to-machine communications.
  • AI can be a rapid communication in the brain computer interface (BCI).
  • BCI brain computer interface
  • AI-based communication systems can be supported by metamaterials, intelligent structures, intelligent networks, intelligent devices, intelligent cognitive radios, self-sustaining wireless networks, and machine learning.
  • AI-based physical layer transmission means applying a signal processing and communication mechanism based on an AI driver rather than a traditional communication framework in fundamental signal processing and communication mechanisms. For example, deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based multiple input multiple output (MIMO) mechanism, It may include AI-based resource scheduling and allocation.
  • MIMO multiple input multiple output
  • machine learning may be used for channel estimation and channel tracking, and may be used for power allocation, interference cancellation, and the like in a downlink (DL) physical layer.
  • Machine learning can also be used for antenna selection, power control, symbol detection, and the like in a MIMO system.
  • AI algorithms based on deep learning require a lot of training data to optimize training parameters.
  • a lot of training data is used offline. This is because static training on training data in a specific channel environment may cause a contradiction between dynamic characteristics and diversity of a radio channel.
  • Machine learning refers to a set of actions that train a machine to create a machine that can do tasks that humans can or cannot do.
  • Machine learning requires data and a running model.
  • data learning methods can be largely classified into three types: supervised learning, unsupervised learning, and reinforcement learning.
  • Neural network training is aimed at minimizing errors in the output.
  • Neural network learning repeatedly inputs training data to the neural network, calculates the output of the neural network for the training data and the error of the target, and backpropagates the error of the neural network from the output layer of the neural network to the input layer in a direction to reduce the error. ) to update the weight of each node in the neural network.
  • Supervised learning uses training data in which correct answers are labeled in the learning data, and unsupervised learning may not have correct answers labeled in the learning data. That is, for example, learning data in the case of supervised learning related to data classification may be data in which each learning data is labeled with a category. Labeled training data is input to the neural network, and an error may be calculated by comparing the output (category) of the neural network and the label of the training data. The calculated error is back-propagated in a reverse direction (ie, from the output layer to the input layer) in the neural network, and the connection weight of each node of each layer of the neural network may be updated according to the back-propagation.
  • a reverse direction ie, from the output layer to the input layer
  • the amount of change in the connection weight of each updated node may be determined according to a learning rate.
  • the neural network's computation of input data and backpropagation of errors can constitute a learning cycle (epoch).
  • the learning rate may be applied differently according to the number of iterations of the learning cycle of the neural network. For example, a high learning rate is used in the early stages of neural network learning to increase efficiency by allowing the neural network to quickly achieve a certain level of performance, and a low learning rate can be used in the late stage to increase accuracy.
  • the learning method may vary depending on the characteristics of the data. For example, in a case where the purpose of the receiver is to accurately predict data transmitted by the transmitter in a communication system, it is preferable to perform learning using supervised learning rather than unsupervised learning or reinforcement learning.
  • the learning model corresponds to the human brain, and the most basic linear model can be considered. ) is called
  • the neural network cord used as a learning method is largely divided into deep neural networks (DNN), convolutional deep neural networks (CNN), and recurrent boltzmann machine (RNN). and this learning model can be applied.
  • DNN deep neural networks
  • CNN convolutional deep neural networks
  • RNN recurrent boltzmann machine
  • FIG. 5 is a diagram illustrating a functional framework. Communication may be performed based on AI/ML enabled RAN intelligence.
  • AI/ML algorithms may be configured in various forms.
  • an AI/ML-based operation may be performed according to an AI/ML functional configuration and corresponding inputs and outputs based on an AI/ML model pre-configured according to an AI/ML algorithm.
  • the data collection entity 510 may provide input data to a model training entity 540 and a model inference entity 520 .
  • the input data may include at least one of a measurement value by another network entity, a feedback value by terminals, and a feedback value for an output of the AI/ML model.
  • the training data provided by the data collection entity 510 to the model training entity 540 may be data provided for an AI/ML model training function.
  • inference data provided by the data collection entity 510 to the model inference entity 520 may be data provided for an AI/ML model inference function.
  • the model training entity 540 may be an entity that performs training, validation, and testing of AI/ML models.
  • the model training entity 540 may provide and update AI/ML models to the model inference entity 520 . Additionally, the model inference entity 520 may provide model performance feedback to the model training entity 540 . That is, the model training entity 540 performs training on the AI/ML model through the feedback of the model inference entity 520, and provides the updated AI/ML model back to the model inference entity 520. can do. In addition, the model inference entity 520 may receive inference data from the data collection entity 510 . Here, the model inference entity 520 may generate an output through the provided AI/ML model and provide it to the actor entity 530.
  • the actor entity 530 may be a subject that performs an operation according to an output, and the operation performed by the actor entity 530 may be fed back to the data collection entity 510 . Additionally, the fed back information may be provided back to the model training entity 540 as training data.
  • data for AI/ML model training is provided so that the AI/ML model is learned and built, and inference data is provided and output to the built AI/ML model so that AI/ML model-based operations can be performed.
  • FIG. 6 is a diagram illustrating a method of generating an AI/ML-based model inference output applicable to the present disclosure.
  • an NG-RAN node (NG-RAN node 1, 620) may have an AI/ML model.
  • the model inference of FIG. 5 may exist in NG-RAN node 1 620, and training may be performed in OAM 640. That is, training for the AI/ML model may not be performed at the RAN node, and the RAN node may have only model inference.
  • NG-RAN node 1 620 may receive data for AI/ML model inference based on network energy saving as required input data from another NG-RAN node 2 630.
  • NG-RAN node 2 630 may also have a model inference for an AI/ML model, and may not be essential.
  • the NG-RAN node 1 620 may obtain measurement information from the terminal 610.
  • NG-RAN node 1 620 may generate an output for model inference based on measurement data obtained from terminal 610 and data obtained from NG-RAN node 2 630 .
  • the output for the model inference may be an energy saving strategy or a handover strategy. That is, NG-RAN node 1 620 may perform handover or other operations for the terminal based on the model inference output, and is not limited to a specific embodiment.
  • at least one of NG-RAN node 1 620 and NG-RAN node 2 630 may transmit feedback to OAM 640, and training may be performed based on the feedback in OAM 640 there is.
  • NG-RAN node 1 720 may directly perform model training. Specifically, NG-RAN node 1 720 may receive data for AI/ML model inference based on network energy saving as required input data from another NG-RAN node 2 730. For example, NG-RAN node 2 730 may also have a model inference for an AI/ML model, and may not be essential. After that, the NG-RAN node 1 720 may obtain measurement information from the terminal 710.
  • NG-RAN node 1 720 may generate an output for model inference based on measurement data obtained from terminal 710 and data obtained from NG-RAN node 2 730 .
  • the output for the model inference may be an energy saving strategy or a handover strategy. That is, NG-RAN node 1 7620 may perform handover or other operations for the UE based on model inference out, and is not limited to a specific embodiment.
  • NG-RAN node 1 720 since NG-RAN node 1 720 has model training, it can directly perform training. To this end, NG-RAN node 1 720 may obtain feedback information from NG-RAN node 2 730, and through this, training may be performed directly.
  • the NG-RAN may require input data for AI/ML-based network energy saving.
  • the input data may include at least one of current or expected resource states of cells and adjacent nodes, current or predicted energy information of cells and adjacent nodes, and UE measurement reports (e.g. UE RSRP, RSRQ, SINR measurement, etc.) there is.
  • UE measurement reports e.g. UE RSRP, RSRQ, SINR measurement, etc.
  • the RAN may reuse the existing framework (including MDT and RRM measurement), and is not limited to a specific embodiment.
  • the output information for AI / ML-based network energy saving may include at least one of an energy saving strategy, a handover strategy including a recommended candidate cell for traffic handover, and expected energy information, but is limited to it may not be
  • the performance of the model may be optimized for AI/ML-based network energy saving.
  • the RAN node may acquire at least one of load measurement information and energy information as feedback information, but may not be limited thereto.
  • an AI/ML model may be considered for load balancing.
  • traffic distribution may not be easy due to the rapid increase in traffic used in commercial networks and multiple frequency bands, and an AI/ML model may be considered for load balancing.
  • Load balancing can be to evenly distribute the load between cells and between cell areas, or to transfer a portion of the traffic or offload the load in a congested cell or congested area of a cell.
  • load balancing may be performed through optimization of handover parameters and handover operation.
  • the traffic load and resource conditions of the network may cause degradation of service quality when a plurality of terminals with high mobility are connected. Therefore, it may be difficult to guarantee overall network and service performance when performing load balancing, and for this purpose, AI/ML models may be applied.
  • model training may be located in OAM and model inference may exist in a base station.
  • both model training and model inference may exist in the base station.
  • model training may exist in OAM and model inference may exist in gNB-CU.
  • model training and model inference may exist in the gNB-CU.
  • model training and model inference may exist in various locations and are not limited to a specific embodiment.
  • a gNB may request a load estimate from a neighboring node. If existing UE measurement is required at the gNB for AI/ML-based load balancing, the RAN may reuse the existing framework (including MDT and RRM measurement), but may not be limited thereto.
  • existing framework including MDT and RRM measurement
  • an AI/ML model may be considered for mobility optimization.
  • Mobility management may be a method of ensuring service continuity during mobility by minimizing call drop, radio link failure (RLF), unnecessary handover, and ping-pong.
  • RLF radio link failure
  • the handover frequency between nodes of a terminal may increase.
  • the handover frequency of terminals with high mobility may further increase.
  • QoE is sensitive to handover performance, so mobility management needs to avoid failed handovers and reduce latency during handover procedures.
  • AI/ML models can be considered.
  • the unintended event probability reduction, terminal location/mobility/performance prediction, and traffic steering may be performed using AI/ML.
  • the unintended event may be too late handover, too early handover, and handover operation to another cell of the UE in the intra system, but may not be limited thereto.
  • the location/mobility/performance prediction of the terminal may be performed by determining the best mobility target for maximizing efficiency and performance.
  • Traffic steering may mean adjusting a handover trigger point based on efficient resource processing and selecting an optimal cell combination to serve a user.
  • an AI/ML model may be required in consideration of the above-described operation.
  • model training based on the AI/ML model is deployed in OAM and model inference exists in RAN may be considered, which may be the same as in FIG. 6 described above.
  • both model training and model inference based on the AI/ML model may exist in the RAN, which may be as shown in FIG. 7 .
  • model training may be located in CU-CP or OAM, and model inference may be located in CU-CP, but may not be limited thereto.
  • FIG. 8 is a diagram illustrating a case in which both model training and model inference applicable to the present disclosure exist in the RAN.
  • NG-RAN node 1 820 may have both model training and model inference.
  • the NG-RAN node 1 820 provides measurement configuration information to the terminal 810, and based on this, the terminal 810 may perform measurement and deliver a measurement report to the NG-RAN node 1 820. . Then, NG-RAN node 1 820 may perform model training.
  • NG-RAN node 1 820 may derive an output by performing model inference based on the measurement report received from the terminal 810.
  • the output may be an operation for load balancing or mobility optimization as described above.
  • NG-RAN node 1 820 may request handover to NG-RAN node 2 830 or perform other operations, but is not limited to a specific embodiment. don't
  • an AI/ML-based operation can be performed in a new communication system (e.g. 6G).
  • AI/ML technology includes not only network technology, but also CSI feedback enhancement, beam management, positioning, RS overhead reduction, and RRM mobility enhancement (RRM). mobility enhancement), but may not be limited to a specific field.
  • RRM mobility enhancement
  • AI/ML can be applied to improve the technical fields of the PHY layer and the MAC/RRC layer between the terminal and the base station, and methods for this will be described below.
  • a scenario for improvement in an air interface such as RAN1/RAN2 through an AI/ML model may be shown in Table 2 below.
  • a scenario in which performance is improved by implementing an AI/ML model in at least one of a network and a terminal (case 1), an AI/ML model independently implemented in at least one of a network and a terminal and input/output (input/output) /output) to improve performance (case 2) and a scenario (case 3) to improve performance through sharing of AI/ML models implemented in networks or terminals.
  • case 3 a method of performing model training and model inference based on a scenario in which performance is improved through sharing of an AI/ML model implemented in a network or a terminal will be described. More specifically, model training may be performed in a network, and model inference may be a terminal or a scenario simultaneously performed in a terminal and a network, but may not be limited thereto.
  • FIG. 9 is a diagram illustrating a method in which AI/ML-based model training applicable to the present disclosure is performed in a network and model inference is performed in a terminal.
  • 10 is a diagram illustrating a method in which AI/ML-based model training applicable to the present disclosure is performed in a network and model inference is performed in a network and a terminal.
  • the network can collect various information from terminals.
  • the network may deploy a model that has been primarily trained, validated, and tested through offline learning based on information collected from terminals.
  • the network needs to share the built AI/ML model to terminals in the cell.
  • the network may share a shared model to terminals through synchronization, and based on this, may operate through the same model.
  • model update is required through model performance feedback or additional information (e.g., UE behavior such as RLF, BFR..)
  • the network refreshes the updated AI/ML model to the terminals after model update.
  • model update may also include online learning on the network side.
  • a terminal having AI/ML capabilities within a cell may perform communication based on the received AI/ML model, and through this, improved communication may be performed.
  • the base station 920 may share AI/ML model information built based on model training with the terminal 910.
  • the terminal 910 may derive an output through model inference of the shared AI/ML model and perform an action corresponding thereto, as described above. Thereafter, the terminal 910 provides feedback on model performance to the base station 920, and the base station 920 performs model training based on the feedback information and then shares the updated AI/ML model with the terminal 910.
  • the base station 1020 may share AI/ML model information built based on model training with the terminal 1010.
  • the terminal 1010 may derive output through model inference of the shared AI/ML model.
  • the base station 1020 may also derive output through model inference of the same AI/ML model.
  • the terminal 1010 and the base station 1020 may perform an action based on the output of the model inference, as described above.
  • the terminal 1010 provides feedback on model performance to the base station 1020, and the base station 1020 performs model training based on the feedback information and then shares the updated AI/ML model with the terminal 1010. can
  • the terminal needs to receive AI/ML model information.
  • the terminal needs to acquire cell-specific AI/ML model information from the network, and may need a method for acquiring this information.
  • the terminal may obtain AI/ML model information through a system information block (SIB) broadcast by the base station.
  • SIB system information block
  • AI / ML model information is broadcast through the SIB, there is a need to include all AI / ML model information in the broadcast message. Therefore, as the number of AI/ML model information to be transmitted increases, the reception load of the terminal may increase.
  • the base station may provide AI/ML model information to the terminal through a unicast message to the terminal requesting the AI/ML model information.
  • AI/ML models are shared using unicast messages
  • the number of unicast messages may increase as the number of terminals increases. Accordingly, signaling overhead and resource consumption may increase. Therefore, a method for the base station to efficiently share AI/ML model information with the terminal may be required.
  • the terminal needs to transmit the performance evaluation value (Model Performance Feedback, MPF) for the corresponding AI/ML model to the base station for model training, and below describes a method of transmitting the MPF and information included in the MPF do.
  • MPF Model Performance Feedback
  • the terminal can reduce unnecessary MPF transmission by transmitting the MPF according to a specific event rather than transmitting the MPF whenever a model inference occurs, which will be described later in this regard.
  • the terminal may receive setting information for a related MPF together with AI/ML model information trained in the network.
  • setting information for the MPF may be as shown in Table 3 below.
  • the setting information for the MPF may include parameters for the MPF of the AI/ML model or AI/ML model groups for each AI/ML model group.
  • parameters for MPF may be set identically for each AI/ML model or for each AI/ML model group.
  • one or more parameters may be set for each AI/ML model or AI/ML model group.
  • the setting information for the MPF may include trigger condition information for AI/ML model performance feedback.
  • trigger condition information for AI/ML model performance feedback may be set to a value that affects model update decision as a threshold for the feedback value, but is not limited to a specific embodiment.
  • trigger condition information for AI/ML model performance feedback may be information on a transmission method.
  • the MPF may be transmitted periodically.
  • the MPF may be configured to be transmitted whenever model inference is performed.
  • the MPF may be configured to be transmitted aperiodically based on a specific event.
  • setting information for MPF transmission may be set for each AI/ML model or each AI/ML model group.
  • the setting information for the MPF may be data information affecting the MPF.
  • the data information affecting the MPF is information on beams (CSI-RS/SSB quality) and CSI (eg CQI, PMI, RI) At least one of them may be included. That is, data information affecting the MPF may refer to parameters necessary for calculating the MPF, and all corresponding information may be included in function information for the MPF, and is not limited to a specific embodiment.
  • a terminal may receive at least one of AI/ML model information on which training is completed and model performance evaluation related information for the AI/ML model from a base station.
  • the terminal may receive AI/ML model information and sequentially receive model performance evaluation related information for the AI/ML model.
  • the terminal may receive model performance evaluation related information together with the AI/ML model, and is not limited to a specific embodiment.
  • the terminal may perform model inference in the corresponding AI/ML model based on the AI/ML model information received from the base station.
  • the terminal may perform model performance evaluation after performing the model inference.
  • the terminal may perform model performance evaluation using set model performance evaluation parameters whenever model inference is performed. That is, the terminal may generate a model performance evaluation feedback (MPF) value based on the model inference.
  • MPF model performance evaluation feedback
  • the terminal may determine whether to transmit the derived MPF to the base station.
  • MPF transmission may be at least one of periodic transmission, aperiodic transmission based on an event, and transmission upon generation of an MPF, but is not limited to a specific embodiment.
  • the UE may transmit the MPF to the BS.
  • whether to transmit the MPF may be determined based on information set by the base station.
  • the determination of whether to transmit the MPF may be determined based on an event determined by the terminal.
  • determination of whether to transmit the MPF may be determined based on a preset method, which may be shown in Table 4 below. However, it may not be limited thereto.
  • the terminal may transmit the MPF to the base station based on the above.
  • the factor for determining MPF transmission may be set to a value that affects the determination that the base station needs to update the performance of the model, but may not be limited thereto.
  • information included in the MPF may be as shown in Table 5 below, but is not limited thereto.
  • the MPF transmitted from the terminal to the base station may include indicator information indicating whether the model performance evaluation result value is worse than a preset value.
  • the threshold may be set to a preset value based on the network or terminal.
  • Indicator information indicating whether the model performance evaluation result value is better or worse than the threshold value may be included.
  • the indicator information may be set as 1-bit information for each AI/ML model (or AI/ML model group).
  • 1-bit information defines a resource or field for each AI/ML model, and may be indicated through bits of a fixed resource or field. For example, when the 1-bit indication information is a first value (or ON/true), the base station may recognize that the performance of the corresponding AI/ML model is lower than a specific reference point (or threshold value).
  • the network may update the AI/ML model by performing new AI/ML model training based on data related to the corresponding AI/ML model, and share the updated AI/ML model to terminals.
  • the MPF may include a model performance evaluation value. That is, the MPF may completely include model performance evaluation values.
  • the model performance evaluation value may be compared with a preset value (or threshold value) and transmitted only with a contrast difference value, thereby reducing transmission capacity. For example, based on the above, it may be expressed as information of a specific bit (e.g. n bit) size, and information of a fixed resource or field may be transmitted to the base station through resource or field definition for each AI / ML model.
  • the base station may receive a performance result value of the corresponding AI/ML model and recognize that the performance of the corresponding AI/ML model has deteriorated. That is, the network can obtain an accurate model performance result value, and based on this, it can determine whether new training for the AI/ML model is required.
  • the base station may update the AI/ML model by performing new AI/ML model training based on data related to the AI/ML model.
  • the base station can share the updated AI / ML model to the terminals.
  • the MPF may include values for data that affect model performance evaluation.
  • the value of the data that affects the model performance evaluation may be information about data that directly affects the performance among data that affects the evaluation result.
  • at least one of information about which parameter is a value of data that affects model performance evaluation and a value of the corresponding data may be included.
  • it may include only a quantized value or a differential value in consideration of a value for data, and may not be limited to a specific embodiment.
  • the values of data that affect model performance evaluation may not include information about a specific model.
  • values for data that affect model performance evaluation may include only information about the data.
  • values for data that affect model performance evaluation may be transmitted together with values for corresponding data, and are not limited to a specific embodiment.
  • information included in the MPF may be transmitted based on a scheme based on Table 6 below.
  • the terminal transmits physical (PHY) control information through at least one of a physical uplink control channel (PUCCH) and a physical uplink shared channel (PUSCH).
  • PUCCH physical uplink control channel
  • PUSCH physical uplink shared channel
  • specific resources corresponding to the corresponding AI/ML models may be allocated periodically.
  • at least one of the PUCCH resource and the PUSCH resource may be indicated through a UE-specific message for each UE or each AI/ML model.
  • the MPF indicates “poor performance” with 1 bit
  • information included in the MPF may be transmitted through a physical control channel, but may not be limited thereto.
  • the information included in the MPF is medium access control (MAC) control information and may be transmitted through an uplink shared channel (UL-SCH) through a new MAC control element (CE).
  • MAC medium access control
  • UL-SCH uplink shared channel
  • CE new MAC control element
  • MPF transmission for each AI/ML model may not require fast transmission. It may be advantageous to support information requiring rapid report to transmit information periodically or immediately when necessary by periodically allocating physical resources.
  • information included in the MPF may be transmitted to the base station through a resource request when the MPF is generated using MAC CE.
  • FIG. 12 may be a MAC CE format in which information included in an MPF applicable to the present disclosure is transmitted.
  • FIG. 12 (a) may be a format considering the case where up to 16 AI/ML models are set.
  • the MPF may be a 1-bit indicator indicating whether performance is poor compared to a preset value, and each field may correspond to 1-bit indication information.
  • the AI/ML model set to the first value may indicate that performance is evaluated below a specific reference value, but may not be limited thereto.
  • FIG. 12 (b) may indicate to the base station that AI/ML model performance is evaluated as poor by indicating a model index instead of transmission in a bitmap format.
  • the presence or absence of additional model index information following 1 byte information may be indicated using the E field.
  • FIG. 12(c) may be a format used when an MPF value for each AI/ML model is transmitted together.
  • a performance result value for the corresponding AI/ML model may be included and transmitted along with model index information.
  • the presence or absence of additional information based on a specific AI/ML model and performance result value may be indicated through the E field, and may not be limited to a specific embodiment.
  • information included in the MPF is RRC control information and may be transmitted through an uplink dedicated control channel (DCCH) based on a new RRC message or an information element (IE).
  • the new RRC message or the new IE may include at least one of a model index and an MPF value. For example, if the amount of information to be transmitted is large or if frequent transmission is not required, an RRC message that is not sensitive to delay may be required, but may not be limited thereto.
  • FIG. 13 is a diagram illustrating a terminal operation applicable to the present disclosure.
  • a terminal 1310 may receive MPF-related setting information while receiving an AI/ML model.
  • the terminal 1310 may receive MPF-related setting information after receiving the AI/ML model.
  • the MPF-related information may include at least one of resource information for transmitting the MPF by the terminal 1310, index information for AI/ML models, and event information for transmitting feedback.
  • the terminal 1310 may perform model inference and perform an action based on the model inference. That is, the terminal 1310 may cause an output value derived by the model inference to perform an operation for a specific procedure or function, and may perform an action based on the corresponding output.
  • the action may be an operation based on communication between the terminal 1310 and the network 1320, and may not be limited to a specific form.
  • the terminal 1310 may perform performance evaluation on the AI/ML model as a result of the action performed according to the model inference.
  • the terminal 1310 may determine whether the performance of the AI/ML model satisfies a reference value (or threshold value) based on event information set through AI/ML model related information. For example, when AI/ML model performance satisfies the reference value and is determined to be good, the terminal 1310 may not transmit MPF information to the network 1320.
  • a reference value or threshold value
  • the terminal 1310 may transmit the MPF to the network 1320 based on the AI/ML model MPF related information. .
  • prediction accuracy for each AI/ML model may be set as a parameter for MPF.
  • the prediction accuracy may be AI/ML model specific prediction accuracy.
  • the prediction accuracy is at least one of values for beam prediction, trajectory prediction, load prediction, CSI prediction, location prediction, and other predictions. It may include one, and may not be limited to a specific form.
  • CSI feedback e.g., CQI, CRI/SSBRI+RSRP, PMI
  • measurement values e.g., RSRP/RSRQ/SINR for a cell or SSB/CSI-RS
  • RSRP/RSRQ/SINR for a cell or SSB/CSI-RS
  • FIG. 14 is a diagram illustrating a terminal operation based on beam prediction applicable to the present disclosure.
  • the terminal 1410 may receive AI/ML model MPF related information from the network 1420 along with the AI/ML model or after receiving the AI/ML model, as described above.
  • information about beam quality prediction accuracy may be included in the MPF-related information for the AI/ML model.
  • the network 1420 may set the terminal 1410 to transmit the MPF only when the beam prediction accuracy based on the beam prediction model is 90% or less through an AI/ML model MPF related message, but is not limited thereto. can
  • the terminal 1410 may derive the predicted Reference Signal Received Power (RSRP) for the beams according to the received AI/ML model as an output.
  • the terminal 1410 may inform the network 1420 of information about the beam(s) having the highest RSRP based on the output information.
  • the network 1420 may perform beam change using the prediction value. That is, the terminal 1410 and the network 1420 may perform an action based on the model inference.
  • RSRP Reference Signal Received Power
  • the UE 1410 can evaluate the performance of the AI/ML model by comparing the actually measured RSRP for the actual beams with the previously predicted RSRP at the time the beam is changed. For example, when the prediction accuracy is 90% or more, the terminal 1410 may perform the next model inference using the corresponding AI/ML model without transmitting the MPF. That is, the preset value (or threshold value) may be 90%. On the other hand, if the model performance evaluation result accuracy is 90% or less, the terminal 1410 may transmit the MPF for the AI/ML model to the network 1420. Then, the network 1420 may update the AI/ML model based on the received MPF and provide the updated AI/ML model information to the terminal 1410.
  • 15 is a flowchart illustrating a terminal operation applicable to the present disclosure.
  • the terminal may receive at least one of AI/ML model information and MPF-related information of the AI/ML model.
  • the terminal may receive AI/ML model information.
  • MPF-related information of the ML model can be obtained.
  • the terminal may obtain MPF-related information of the AI/ML model together with AI/ML model information, as described above. After that, the terminal may perform model inference based on the AI/ML model.
  • the MPF-related information may include at least one of MPF parameter information of the AI/ML model, MPF triggering condition information, and MPF-related data information.
  • the MPF parameter may be identically set in at least one AI/ML model or may be set differently for each AI/ML model, as described above.
  • the MPF parameter information may include at least one of prediction accuracy information of the AI/ML model, CSI feedback information, and information about measurement values.
  • the terminal may obtain beam quality prediction accuracy information included in MPF parameter information.
  • the beam quality prediction accuracy information may include a preset beam quality prediction accuracy value for determining whether to transmit the MPF to the base station.
  • the terminal may perform RSRP prediction on at least one beam through model inference based on the AI/ML model and report the beam having the highest RSRP to the base station.
  • the base station can change the beam. That is, the terminal and the base station may perform an action based on the model inference.
  • the terminal may compare the actually measured RSRP for at least one or more beams with the RSRP prediction for at least one or more beams using the model performance evaluation result value. In this case, it may be determined whether to transmit the MPF to the base station based on whether the above-mentioned value is greater than or equal to the beam quality prediction accuracy value.
  • the aforementioned MPF triggering condition information may include at least one of threshold value information and transmission method information.
  • the threshold value information may include at least one of a threshold value for a feedback value and a threshold value related to update decision of the AI/ML model.
  • the transmission method information indicates the MPF transmission method of the AI / ML model, but the MPF may be transmitted based on at least one of periodic transmission, aperiodic transmission based on events, and transmission at the time of performing the model inference.
  • the terminal may perform an action based on an output of model inference of AI/ML model information, and may perform model performance evaluation based on the output and the action.
  • the terminal when the terminal decides not to transmit the MPF of the AI/ML model based on the model performance evaluation, the terminal may perform an action by generating an output based on the model inference of the AI/ML model.
  • the terminal when the terminal decides to transmit the MPF of the AI/ML model based on model performance evaluation, the terminal receives updated AI/ML model information from the base station and generates an output based on the updated AI/ML model. so you can perform the action. That is, the terminal may perform model inference through the updated AI/ML model.
  • whether to transmit the MPF of the AI/ML model may be determined based on at least one of an event set by a base station, an event set by a terminal, and a preset event.
  • the MPF may include at least one of 1-bit indication information indicating a performance state for each AI/ML model, a model performance evaluation result value of the AI/ML model, and a data value related to model performance evaluation.
  • the MPF includes 1-bit indication information indicating the performance state of each AI/ML model
  • the performance of each AI/ML model is based on the comparison between the model performance evaluation result value and the threshold value based on the model inference.
  • 1-bit indication information indicating a state may be determined and included in the MPF.
  • the MPF may include either a model performance evaluation result value or a value for the difference between the model performance evaluation result value and a preset value. there is.
  • the MPF when it is determined that the MPF of the AI/ML model is transmitted to the base station, the MPF may be indicated through at least one of PUCCH and PUSCH. As another example, when it is determined that the MPF of the AI/ML model is transmitted to the base station, the MPF may be included in the MAC CE and transmitted. As another example, when it is determined that the MPF of the AI/ML model is transmitted to the base station, the MPF may be transmitted through an uplink designated control channel based on the RRC message.
  • 16 is a flowchart illustrating a terminal operation applicable to the present disclosure.
  • the base station may transmit at least one of AI/ML model information and MPF-related information of the AI/ML model (S1610).
  • the base station transmits AI/ML model information and then transmits AI/ML model information MPF related information of may be additionally transmitted.
  • the base station may transmit MPF-related information of the AI/ML model together with AI/ML model information, as described above. After that, the base station may perform an action based on the model inference performance result of the terminal. (1620) After that, the terminal derives a model performance evaluation result value based on the model inference, and based on this, You can decide whether or not to transmit the MPF.
  • the base station may receive the MPF from the terminal (S1630).
  • the MPF-related information includes MPF parameter information of the AI/ML model and MPF triggering It may include at least one of condition information and MPF related data information.
  • the MPF parameter may be identically set in at least one AI/ML model or may be set differently for each AI/ML model, as described above.
  • the MPF parameter information may include at least one of prediction accuracy information of the AI/ML model, CSI feedback information, and information about measurement values.
  • the terminal may obtain beam quality prediction accuracy information included in MPF parameter information from the base station.
  • the beam quality prediction accuracy information may include a preset beam quality prediction accuracy value for determining whether to transmit the MPF to the base station.
  • the terminal may perform RSRP prediction on at least one beam through model inference based on the AI/ML model and report the beam having the highest RSRP to the base station.
  • the base station can change the beam. That is, the terminal and the base station may perform an action based on the model inference.
  • the terminal may compare the actually measured RSRP for at least one or more beams with the RSRP prediction for at least one or more beams using the model performance evaluation result value. In this case, it may be determined whether to transmit the MPF to the base station based on whether the above-mentioned value is greater than or equal to the beam quality prediction accuracy value.
  • the aforementioned MPF triggering condition information may include at least one of threshold value information and transmission method information.
  • the threshold value information may include at least one of a threshold value for a feedback value and a threshold value related to update decision of the AI/ML model.
  • the transmission method information indicates the MPF transmission method of the AI / ML model, but the MPF may be transmitted based on at least one of periodic transmission, aperiodic transmission based on events, and transmission at the time of performing the model inference.
  • the terminal may perform an action based on an output of model inference of AI/ML model information, and may perform model performance evaluation based on the output and the action.
  • the terminal when the terminal decides not to transmit the MPF of the AI/ML model based on the model performance evaluation, the terminal may perform an action by generating an output based on the model inference of the AI/ML model.
  • the terminal when the terminal decides to transmit the MPF of the AI/ML model based on model performance evaluation, the terminal receives updated AI/ML model information from the base station and generates an output based on the updated AI/ML model. so you can perform the action. That is, the terminal may perform model inference through the updated AI/ML model.
  • whether to transmit the MPF of the AI/ML model may be determined based on at least one of an event set by a base station, an event set by a terminal, and a preset event.
  • the MPF may include at least one of 1-bit indication information indicating a performance state for each AI/ML model, a model performance evaluation result value of the AI/ML model, and a data value related to model performance evaluation.
  • the MPF includes 1-bit indication information indicating the performance state of each AI/ML model
  • the performance of each AI/ML model is based on the comparison between the model performance evaluation result value and the threshold value based on the model inference.
  • 1-bit indication information indicating a state may be determined and included in the MPF.
  • the MPF may include either a model performance evaluation result value or a value for the difference between the model performance evaluation result value and a preset value. there is.
  • the MPF when it is determined that the MPF of the AI/ML model is transmitted to the base station, the MPF may be indicated through at least one of PUCCH and PUSCH. As another example, when it is determined that the MPF of the AI/ML model is transmitted to the base station, the MPF may be included in the MAC CE and transmitted. As another example, when it is determined that the MPF of the AI/ML model is transmitted to the base station, the MPF may be transmitted through an uplink designated control channel based on the RRC message.
  • Embodiments of the present disclosure may be applied to various wireless access systems.
  • various wireless access systems there is a 3rd Generation Partnership Project (3GPP) or 3GPP2 system.
  • 3GPP 3rd Generation Partnership Project
  • 3GPP2 3rd Generation Partnership Project2
  • Embodiments of the present disclosure may be applied not only to the various wireless access systems, but also to all technical fields to which the various wireless access systems are applied. Furthermore, the proposed method can be applied to mmWave and THz communication systems using ultra-high frequency bands.
  • embodiments of the present disclosure may be applied to various applications such as free-running vehicles and drones.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

본 개시에서는 무선 통신 시스템에서 단말 동작 방법에 있어서, 단말이 기지국으로부터 동기 신호를 수신하는 단계, 동기 신호에 기초하여 기지국으로 랜덤 액세스 프리앰블을 전송하는 단계, 랜덤 액세스 프리앰블에 기초하여 랜덤 액세스 응답을 수신하는 단계, 랜덤 액세스 응답 수신 후 기지국과 연결을 수행하는 단계, 기지국으로부터 AI/ML 모델 정보 및 AI/ML 모델에 대한 모델 성능 피드백 관련 정보 중 적어도 어느 하나를 수신하는 단계 및 AI/ML 모델 정보에 기초하여 AI/ML 모델에서 모델 인퍼런스를 수행하고, 모델 성능 평가를 통해 AI/ML 모델의 MPF를 기지국으로 전송할지 여부를 결정하는 단계를 포함할 수 있다.

Description

무선 통신 시스템에서 통신을 수행하는 방법 및 장치
이하의 설명은 무선 통신 시스템에 대한 것으로, 무선 통신 시스템에서 통신을 수행하는 방법 및 장치에 대한 것이다. 특히, 단말이 AI(artificial intelligence)/ML(machine learning) 모델에 기초하여 모델 성능 평가(model performance feedback, MPF)를 기지국으로 보고하는 방법 및 장치에 대한 것이다.
무선 접속 시스템이 음성이나 데이터 등과 같은 다양한 종류의 통신 서비스를 제공하기 위해 광범위하게 전개되고 있다. 일반적으로 무선 접속 시스템은 가용한 시스템 자원(대역폭, 전송 파워 등)을 공유하여 다중 사용자와의 통신을 지원할 수 있는 다중 접속(multiple access) 시스템이다. 다중 접속 시스템의 예들로는 CDMA(code division multiple access) 시스템, FDMA(frequency division multiple access) 시스템, TDMA(time division multiple access) 시스템, OFDMA(orthogonal frequency division multiple access) 시스템, SC-FDMA(single carrier frequency division multiple access) 시스템 등이 있다.
특히, 많은 통신 기기들이 큰 통신 용량을 요구하게 됨에 따라 기존 RAT (radio access technology)에 비해 향상된 모바일 브로드밴드(enhanced mobile broadband, eMBB) 통신 기술이 제안되고 있다. 또한 다수의 기기 및 사물들을 연결하여 언제 어디서나 다양한 서비스를 제공하는 매시브 MTC (Machine Type Communications) 뿐만 아니라 신뢰성 (reliability) 및 지연(latency) 민감한 서비스/UE를 고려한 통신 시스템이 제안되고 있다. 이를 위한 다양한 기술 구성들이 제안되고 있다.
본 개시는 무선 통신 시스템에서 통신을 수행하는 방법 및 장치에 대한 것이다.
본 개시는 무선 통신 시스템에서 AI/ML 모델을 공유하는 방법 및 장치에 대한 것이다.
본 개시는 무선 통신 시스템에서 AI/ML 모델에 대한 MPF를 기지국으로 보고하는 방법 및 장치에 대한 것이다.
본 개시는 무선 통신 시스템에서 AI/ML 모델에 대한 MPF 보고를 위해 MPF 설정 관련 정보를 획득하는 방법 및 장치에 대한 것이다.
본 개시는 무선 통신 시스템에서 AI/ML 모델에 기초하여 MPF에 포함되는 정보를 결정하는 방법 및 장치에 대한 것이다.
본 개시에서 이루고자 하는 기술적 목적들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 본 개시의 실시 예들로부터 본 개시의 기술 구성이 적용되는 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.
본 개시의 일 예로서, 무선 통신 시스템에서 단말 동작 방법에 있어서, 단말이 기지국으로부터 동기 신호를 수신하는 단계, 동기 신호에 기초하여 기지국으로 랜덤 액세스 프리앰블을 전송하는 단계, 랜덤 액세스 프리앰블에 기초하여 랜덤 액세스 응답을 수신하는 단계, 랜덤 액세스 응답 수신 후 기지국과 연결을 수행하는 단계, 기지국으로부터 AI(artificial intelligence)/ML(machine learning) 모델 정보 및 AI/ML 모델에 대한 모델 성능 피드백(model performance feedback, MPF) 관련 정보 중 적어도 어느 하나를 수신하는 단계 및 AI/ML 모델 정보에 기초하여 AI/ML 모델에서 모델 인퍼런스를 수행하고, 모델 성능 평가를 통해 AI/ML 모델의 MPF를 기지국으로 전송할지 여부를 결정하는 단계를 포함할 수 있다.
또한, 본 개시의 일 예로서, 무선 통신 시스템에서 기지국 동작 방법에 있어서, 단말로 동기 신호를 전송하는 단계, 동기 신호에 기초하여 단말로부터 랜덤 액세스 프리앰블을 수신하는 단계, 단말로 랜덤 액세스 프리앰블에 기초하여 랜덤 액세스 응답을 전송하는 단계, 및 랜덤 액세스 응답 수신 후 단말과 연결을 수행하는 단계, 단말로 AI(artificial intelligence)/ML(machine learning) 모델 정보 및 AI/ML 모델에 대한 모델 성능 피드백(model performance feedback, MPF) 관련 정보 중 적어도 어느 하나를 전송하는 단계를 포함하되, 단말은 AI/ML 모델 정보에 기초하여 AI/ML 모델에서 모델 인퍼런스를 수행하고, 모델 성능 평가를 통해 AI/ML 모델의 MPF를 기지국으로 전송할지 여부를 결정할 수 있다.
또한, 본 개시의 일 예로서, 무선 통신 시스템의 단말에 있어서, 송수신기, 및 송수신기와 연결된 프로세서를 포함하고, 프로세서는, 단말이 기지국으로부터 동기 신호를 수신하도록 송수신기를 제어하고, 동기 신호에 기초하여 기지국으로 랜덤 액세스 프리앰블을 전송하도록 송수신기를 제어하고, 랜덤 액세스 프리앰블에 기초하여 랜덤 액세스 응답을 수신하도록 송수신기를 제어하고, 랜덤 액세스 응답 수신 후 기지국과 연결을 수행하고, 기지국으로부터 AI(artificial intelligence)/ML(machine learning) 모델 정보 및 AI/ML 모델에 대한 모델 성능 피드백(model performance feedback, MPF) 관련 정보 중 적어도 어느 하나를 수신하도록 송수신기를 제어하고, AI/ML 모델 정보에 기초하여 AI/ML 모델에서 모델 인퍼런스를 수행하고, 모델 성능 평가를 통해 AI/ML 모델의 MPF를 기지국으로 전송할지 여부를 결정할 수 있다.
또한, 본 개시의 일 예로서, 무선 통신 시스템의 기지국에 있어서, 송수신기, 및 송수신기와 연결된 프로세서를 포함하고, 프로세서는, 단말로 동기 신호를 전송하도록 송수신기를 제어하고, 동기 신호에 기초하여 단말로부터 랜덤 액세스 프리앰블을 수신하도록 송수신기를 제어하고, 단말로 랜덤 액세스 프리앰블에 기초하여 랜덤 액세스 응답을 전송하도록 송수신기를 제어하고, 랜덤 액세스 응답 수신 후 단말과 연결을 수행하고, 및 단말로 AI(artificial intelligence)/ML(machine learning) 모델 정보 및 AI/ML 모델에 대한 모델 성능 피드백(model performance feedback, MPF) 관련 정보 중 적어도 어느 하나를 전송하도록 송수신기를 제어하되, 단말은 AI/ML 모델 정보에 기초하여 AI/ML 모델에서 모델 인퍼런스를 수행하고, 모델 성능 평가를 통해 AI/ML 모델의 MPF를 기지국으로 전송할지 여부를 결정할 수 있다.
또한, 본 개시의 일 예로서, 적어도 하나의 메모리 및 적어도 하나의 메모리들과 기능적으로 연결되어 있는 적어도 하나의 프로세서를 포함하는 장치에 있어서, 적어도 하나의 프로세서는 장치가, 기지국으로부터 동기 신호를 수신하도록 장치를 제어하고, 동기 신호에 기초하여 기지국으로 랜덤 액세스 프리앰블을 전송하도록 장치를 제어하고, 랜덤 액세스 프리앰블에 기초하여 랜덤 액세스 응답을 수신하도록 장치를 제어하고, 랜덤 액세스 응답 수신 후 기지국과 연결을 수행하도록 장치를 제어하고, 기지국으로부터 AI(artificial intelligence)/ML(machine learning) 모델 정보 및 AI/ML 모델에 대한 모델 성능 피드백(model performance feedback, MPF) 관련 정보 중 적어도 어느 하나를 수신하도록 장치를 제어하고, AI/ML 모델 정보에 기초하여 AI/ML 모델에서 모델 인퍼런스를 수행하고, 모델 성능 평가를 통해 AI/ML 모델의 MPF를 기지국으로 전송할지 여부를 결정하도록 장치를 제어할 수 있다.
또한, 본 개시의 일 예로서, 적어도 하나의 명령어(instructions)을 저장하는 비-일시적인(non-transitory) 컴퓨터 판독 가능 매체(computer-readable medium)에 있어서, 프로세서에 의해 실행 가능한(executable) 적어도 하나의 명령어를 포함하며, 적어도 하나의 명령어는, 기지국으로부터 동기 신호를 수신하도록 제어하고, 동기 신호에 기초하여 기지국으로 랜덤 액세스 프리앰블을 전송하도록 제어하고, 랜덤 액세스 프리앰블에 기초하여 랜덤 액세스 응답을 수신하도록 제어하고, 랜덤 액세스 응답 수신 후 기지국과 연결을 수행하도록 제어하고, 기지국으로부터 AI(artificial intelligence)/ML(machine learning) 모델 정보 및 AI/ML 모델에 대한 모델 성능 피드백(model performance feedback, MPF) 관련 정보 중 적어도 어느 하나를 수신하도록 제어하고, AI/ML 모델 정보에 기초하여 AI/ML 모델에서 모델 인퍼런스를 수행하고, 모델 성능 평가를 통해 AI/ML 모델의 MPF를 기지국으로 전송할지 여부를 결정하도록 제어할 수 있다.
또한, 다음의 사항들은 공통으로 적용될 수 있다.
본 개시의 일 예로서, MPF 관련 정보는 AI/ML 모델의 MPF 파라미터 정보, MPF 트리거링 조건 정보 및 MPF 관련 데이터 정보 중 적어도 어느 하나를 포함할 수 있다.
여기서, 본 개시의 일 예로서, MPF 파라미터는 적어도 하나 이상의 AI/ML 모델에서 동일하게 설정될 수 있다.
또한, 본 개시의 일 예로서, MPF 파라미터 정보에는 AI/ML 모델의 예측 정확도 정보, CSI(channel state information) 피드백 정보 및 측정 값들에 대한 정보 중 적어도 어느 하나가 포함될 수 있다.
또한, 본 개시의 일 예로서, AI/ML 모델에 기초하여 빔 예측을 수행하는 경우, 단말은 MPF 파라미터 정보에 포함된 빔 품질 예측 정확도 정보를 획득하되, 빔 품질 예측 정확도 정보는 기지국으로 MPF를 전송할지 여부를 결정하기 위한 기 설정된 빔 품질 예측 정확도 값을 포함하고, 단말은 AI/ML 모델에 기초하여 모델 인퍼런스를 통해 적어도 하나 이상의 빔들에 대한 RSRP 예측을 수행하여 RSRP가 가장 높은 빔을 기지국으로 보고하여 빔을 변경하고, 적어도 하나 이상의 빔들에 대한 실제 측정된 RSRP와 적어도 하나 이상의 빔들에 대한 RSRP 예측을 비교한 값이 빔 품질 예측 정확도 값보다 크거나 같은지 여부에 기초하여 MPF를 기지국으로 전송할지 여부를 결정할 수 있다.
또한, 본 개시의 일 예로서, MPF 트리거링 조건 정보는 임계 값 정보 및 전송 방식 정보 중 적어도 어느 하나를 포함하되, 임계 값 정보는 피드백 값에 대한 임계 값 및 AI/ML 모델의 업데이트 결정 관련 임계 값 중 적어도 어느 하나를 포함하고, 전송 방식 정보는 AI/ML 모델의 MPF 전송 방식을 지시하되, MPF는 주기적 전송, 이벤트에 기초한 비주기적 전송 및 모델 인퍼런스 수행 시점 전송 중 적어도 어느 하나에 기초하여 전송될 수 있다.
또한, 본 개시의 일 예로서, 단말은 AI/ML 모델 정보의 모델 인퍼린스에 대한 아웃풋에 기초하여 액션을 수행하고, 아웃풋 및 액션에 기초하여 모델 성능 평가를 수행하되, 모델 성능 평가에 기초하여 AI/ML 모델의 MPF를 전송하지 않기로 한 경우, 단말은 AI/ML 모델의 모델 인퍼런스에 기초하여 아웃풋을 생성하여 액션을 수행하고, 모델 성능 평가에 기초하여 AI/ML 모델의 MPF를 전송하기로 한 경우, 단말은 기지국에서 업데이트된 AI/ML 모델 정보를 수신하고, 업데이트된 AI/ML 모델에 기초하여 아웃풋을 생성하여 액션을 수행할 수 있다.
또한, 본 개시의 일 예로서, AI/ML 모델의 MPF에 대한 전송 여부는 기지국에 의해 설정된 이벤트, 단말에 의해 설정된 이벤트 및 기 설정된 이벤트 중 적어도 어느 하나에 기초하여 결정될 수 있다.
또한, 본 개시의 일 예로서, MPF에 대한 전송이 결정된 경우, MPF는 각각의 AI/ML 모델별로 성능 상태를 지시하는 1비트 지시 정보, AI/ML 모델의 모델 성능 평가 결과 값 및 모델 성능 평가 관련 데이터 값 중 적어도 어느 하나를 포함할 수 있다.
또한, 본 개시의 일 예로서, MPF에 각각의 AI/ML 모델별로 성능 상태를 지시하는 1비트 지시 정보가 포함되는 경우, 모델 인퍼런스에 기초하여 모델 성능 평가 결과 값과 임계 값 비교에 기초하여 AI/ML 모델별로 성능 상태를 지시하는 1비트 지시 정보가 결정되어 MPF에 포함될 수 있다.
또한, 본 개시의 일 예로서, MPF에 각각의 AI/ML 모델의 모델 성능 평가 결과 값이 포함되는 경우, MPF는 모델 성능 평가 결과 값 또는 모델 성능 평가 결과 값과 기 설정된 값의 차이에 대한 값 중 어느 하나를 포함할 수 있다.
또한, 본 개시의 일 예로서, AI/ML 모델의 MPF가 기지국으로 전송되는 것으로 결정된 경우, MPF는 PUCCH(physical uplink control channel) 및 PUSCH(physical uplink shared channel) 중 적어도 어느 하나를 통해 지시될 수 있다.
또한, 본 개시의 일 예로서, AI/ML 모델의 MPF가 기지국으로 전송되는 것으로 결정된 경우, MPF는 MAC(medium access control) CE(control element)에 포함되어 전송될 수 있다.
또한, 본 개시의 일 예로서, AI/ML 모델의 MPF가 기지국으로 전송되는 것으로 결정된 경우, MPF는 RRC(radio resource control) 메시지에 기초하여 업링크 지정 제어 채널(uplink-dedicated control channel)을 통해 전송될 수 있다.
본 개시에 기초한 실시예들에 의해 하기와 같은 효과가 있을 수 있다.
본 개시에 기초한 실시예들에서 통신을 수행하는 방법을 제공할 수 있다.
본 개시에 기초한 실시예들에서 AI/ML 모델을 공유하는 방법을 제공할 수 있다.
본 개시에 기초한 실시예들에서 AI/ML 모델에 대한 MPF를 기지국으로 보고하는 방법을 제공할 수 있다.
본 개시에 기초한 실시예들에서 AI/ML 모델에 대한 MPF 보고를 위해 MPF 설정 관련 정보를 획득하는 방법을 제공할 수 있다.
본 개시에 기초한 실시예들에서 AI/ML 모델에 기초하여 MPF에 포함되는 정보를 결정하는 방법을 제공할 수 있다.
본 개시의 실시 예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 이하의 본 개시의 실시 예들에 대한 기재로부터 본 개시의 기술 구성이 적용되는 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다.
즉, 본 개시에서 서술하는 구성을 실시함에 따른 의도하지 않은 효과들 역시 본 개시의 실시 예들로부터 당해 기술분야의 통상의 지식을 가진 자에 의해 도출될 수 있다.
이하에 첨부되는 도면들은 본 개시에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 본 개시에 대한 실시 예들을 제공할 수 있다. 다만, 본 개시의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시 예로 구성될 수 있다. 각 도면에서의 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미할 수 있다.
도 1은 본 개시의 일 실시예에 따라 통신 시스템 예시를 나타낸 도면이다.
도 2는 본 개시의 일 실시예에 따라 무선 기기의 예시를 나타낸 도면이다.
도 3은 본 개시의 일 실시예에 따라 무선 기기의 다른 예시를 나타낸 도면이다.
도 4는 본 개시의 일 실시예에 따라 AI(Artificial Intelligence)의 예시를 나타낸 도면이다.
도 5는 본 개시의 일 실시예에 따라 기능적 프레임 워크를 나타낸 도면이다.
도 6은 본 개시의 일 실시예에 따라 AI/ML 기반 모델 인퍼런스 아웃풋을 생성하는 방법을 나타낸 도면이다.
도 7은 본 개시의 일 실시예에 따라 AI/ML 기반 모델 인퍼런스 아웃풋을 생성하는 방법을 나타낸 도면이다.
도 8은 본 개시의 일 실시예에 따라 모델 트레이닝 및 모델 인퍼런스가 모두 RAN에 존재하는 경우를 나타낸 도면이다.
도 9는 본 개시의 일 실시예에 따라 AI/ML 기반 모델 트레이닝이 네트워크에서 수행되고, 모델 인퍼런스가 단말에서 수행되는 방법을 나타낸 도면이다.
도 10은 본 개시의 일 실시예에 따라 AI/ML 기반 모델 트레이닝이 네트워크에서 수행되고, 모델 인퍼런스가 네트워크 및 단말에서 수행되는 방법을 나타낸 도면이다.
도 11은 본 개시에 적용 가능한 MPF 전송을 수행하는 방법을 나타낸 도면이다.
도 12는 본 개시에 적용 가능한 MPF에 포함된 정보가 전송되는 MAC CE 포맷일 수 있다.
도 13은 본 개시에 적용 가능한 단말 동작을 나타낸 도면이다.
도 14는 본 개시에 적용 가능한 빔 예측에 기초한 단말 동작을 나타낸 도면이다.
도 15는 본 개시에 적용 가능한 단말 동작을 나타낸 순서도이다.
도 16은 본 개시에 적용 가능한 단말 동작을 나타낸 순서도이다.
이하의 실시 예들은 본 개시의 구성요소들과 특징들을 소정 형태로 결합한 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려될 수 있다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 개시의 실시 예를 구성할 수도 있다. 본 개시의 실시 예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시 예의 일부 구성이나 특징은 다른 실시 예에 포함될 수 있고, 또는 다른 실시 예의 대응하는 구성 또는 특징과 교체될 수 있다.
도면에 대한 설명에서, 본 개시의 요지를 흐릴 수 있는 절차 또는 단계 등은 기술하지 않았으며, 당업자의 수준에서 이해할 수 있을 정도의 절차 또는 단계는 또한 기술하지 아니하였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일(a 또는 an)", "하나(one)", "그(the)" 및 유사 관련어는 본 개시를 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.
본 명세서에서 본 개시의 실시예들은 기지국과 이동국 간의 데이터 송수신 관계를 중심으로 설명되었다. 여기서, 기지국은 이동국과 직접적으로 통신을 수행하는 네트워크의 종단 노드(terminal node)로서의 의미가 있다. 본 문서에서 기지국에 의해 수행되는 것으로 설명된 특정 동작은 경우에 따라서는 기지국의 상위 노드(upper node)에 의해 수행될 수도 있다.
즉, 기지국을 포함하는 다수의 네트워크 노드들(network nodes)로 이루어지는 네트워크에서 이동국과의 통신을 위해 수행되는 다양한 동작들은 기지국 또는 기지국 이외의 다른 네트워크 노드들에 의해 수행될 수 있다. 이때, '기지국'은 고정국(fixed station), Node B, eNB(eNode B), gNB(gNode B), ng-eNB, 발전된 기지국(advanced base station, ABS) 또는 억세스 포인트(access point) 등의 용어에 의해 대체될 수 있다.
또한, 본 개시의 실시 예들에서 단말(terminal)은 사용자 기기(user equipment, UE), 이동국(mobile station, MS), 가입자국(subscriber station, SS), 이동 가입자 단말(mobile subscriber station, MSS), 이동 단말(mobile terminal) 또는 발전된 이동 단말(advanced mobile station, AMS) 등의 용어로 대체될 수 있다.
또한, 송신단은 데이터 서비스 또는 음성 서비스를 제공하는 고정 및/또는 이동 노드를 말하고, 수신단은 데이터 서비스 또는 음성 서비스를 수신하는 고정 및/또는 이동 노드를 의미한다. 따라서, 상향링크의 경우, 이동국이 송신단이 되고, 기지국이 수신단이 될 수 있다. 마찬가지로, 하향링크의 경우, 이동국이 수신단이 되고, 기지국이 송신단이 될 수 있다.
본 개시의 실시 예들은 무선 접속 시스템들인 IEEE 802.xx 시스템, 3GPP(3rd Generation Partnership Project) 시스템, 3GPP LTE(Long Term Evolution) 시스템, 3GPP 5G(5th generation) NR(New Radio) 시스템 및 3GPP2 시스템 중 적어도 하나에 개시된 표준 문서들에 의해 뒷받침될 수 있으며, 특히, 본 개시의 실시 예들은 3GPP TS(technical specification) 38.211, 3GPP TS 38.212, 3GPP TS 38.213, 3GPP TS 38.321 및 3GPP TS 38.331 문서들에 의해 뒷받침 될 수 있다.
또한, 본 개시의 실시 예들은 다른 무선 접속 시스템에도 적용될 수 있으며, 상술한 시스템으로 한정되는 것은 아니다. 일 예로, 3GPP 5G NR 시스템 이후에 적용되는 시스템에 대해서도 적용 가능할 수 있으며, 특정 시스템에 한정되지 않는다.
즉, 본 개시의 실시 예들 중 설명하지 않은 자명한 단계들 또는 부분들은 상기 문서들을 참조하여 설명될 수 있다. 또한, 본 문서에서 개시하고 있는 모든 용어들은 상기 표준 문서에 의해 설명될 수 있다.
이하, 본 개시에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 개시의 예시적인 실시 형태를 설명하고자 하는 것이며, 본 개시의 기술 구성이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다.
또한, 본 개시의 실시 예들에서 사용되는 특정 용어들은 본 개시의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 개시의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.
이하의 기술은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 접속 시스템에 적용될 수 있다.
하기에서는 이하 설명을 명확하게 하기 위해, 3GPP 통신 시스템(e.g.(예, LTE, NR 등)을 기반으로 설명하지만 본 발명의 기술적 사상이 이에 제한되는 것은 아니다. LTE는 3GPP TS 36.xxx Release 8 이후의 기술을 의미할 수 있다. 세부적으로, 3GPP TS 36.xxx Release 10 이후의 LTE 기술은 LTE-A로 지칭되고, 3GPP TS 36.xxx Release 13 이후의 LTE 기술은 LTE-A pro로 지칭될 수 있다. 3GPP NR은 TS 38.xxx Release 15 이후의 기술을 의미할 수 있다. 3GPP 6G는 TS Release 17 및/또는 Release 18 이후의 기술을 의미할 수 있다. "xxx"는 표준 문서 세부 번호를 의미한다. LTE/NR/6G는 3GPP 시스템으로 통칭될 수 있다.
본 개시에 사용된 배경기술, 용어, 약어 등에 관해서는 본 발명 이전에 공개된 표준 문서에 기재된 사항을 참조할 수 있다. 일 예로, 36.xxx 및 38.xxx 표준 문서를 참조할 수 있다.
본 개시에 적용 가능한 통신 시스템
이로 제한되는 것은 아니지만, 본 문서에 개시된 본 개시의 다양한 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 기기들 간에 무선 통신/연결(예, 5G)을 필요로 하는 다양한 분야에 적용될 수 있다.
이하, 도면을 참조하여 보다 구체적으로 예시한다. 이하의 도면/설명에서 동일한 도면 부호는 다르게 기술하지 않는 한, 동일하거나 대응되는 하드웨어 블록, 소프트웨어 블록 또는 기능 블록을 예시할 수 있다.
도 1은 본 개시에 적용되는 통신 시스템 예시를 도시한 도면이다.
도 1을 참조하면, 본 개시에 적용되는 통신 시스템(100)은 무선 기기, 기지국 및 네트워크를 포함한다. 여기서, 무선 기기는 무선 접속 기술(예, 5G NR, LTE)을 이용하여 통신을 수행하는 기기를 의미하며, 통신/무선/5G 기기로 지칭될 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(100a), 차량(100b-1, 100b-2), XR(extended reality) 기기(100c), 휴대 기기(hand-held device)(100d), 가전(home appliance)(100e), IoT(Internet of Thing) 기기(100f), AI(artificial intelligence) 기기/서버(100g)를 포함할 수 있다. 예를 들어, 차량은 무선 통신 기능이 구비된 차량, 자율 주행 차량, 차량간 통신을 수행할 수 있는 차량 등을 포함할 수 있다. 여기서, 차량(100b-1, 100b-2)은 UAV(unmanned aerial vehicle)(예, 드론)를 포함할 수 있다. XR 기기(100c)는 AR(augmented reality)/VR(virtual reality)/MR(mixed reality) 기기를 포함하며, HMD(head-mounted device), 차량에 구비된 HUD(head-up display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등의 형태로 구현될 수 있다. 휴대 기기(100d)는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 컴퓨터(예, 노트북 등) 등을 포함할 수 있다. 가전(100e)은 TV, 냉장고, 세탁기 등을 포함할 수 있다. IoT 기기(100f)는 센서, 스마트 미터 등을 포함할 수 있다. 예를 들어, 기지국(120), 네트워크(130)는 무선 기기로도 구현될 수 있으며, 특정 무선 기기(120a)는 다른 무선 기기에게 기지국/네트워크 노드로 동작할 수도 있다.
무선 기기(100a~100f)는 기지국(120)을 통해 네트워크(130)와 연결될 수 있다. 무선 기기(100a~100f)에는 AI 기술이 적용될 수 있으며, 무선 기기(100a~100f)는 네트워크(130)를 통해 AI 서버(100g)와 연결될 수 있다. 네트워크(130)는 3G 네트워크, 4G(예, LTE) 네트워크 또는 5G(예, NR) 네트워크 등을 이용하여 구성될 수 있다. 무선 기기(100a~100f)는 기지국(120)/네트워크(130)를 통해 서로 통신할 수도 있지만, 기지국(120)/네트워크(130)를 통하지 않고 직접 통신(예, 사이드링크 통신(sidelink communication))할 수도 있다. 예를 들어, 차량들(100b-1, 100b-2)은 직접 통신(예, V2V(vehicle to vehicle)/V2X(vehicle to everything) communication)을 할 수 있다. 또한, IoT 기기(100f)(예, 센서)는 다른 IoT 기기(예, 센서) 또는 다른 무선 기기(100a~100f)와 직접 통신을 할 수 있다.
본 개시에 적용 가능한 통신 시스템
도 2는 본 개시에 적용될 수 있는 무선 기기의 예시를 도시한 도면이다.
도 2를 참조하면, 제1 무선 기기(200a)와 제2 무선 기기(200b)는 다양한 무선 접속 기술(예, LTE, NR)을 통해 무선 신호를 송수신할 수 있다. 여기서, {제1 무선 기기(200a), 제2 무선 기기(200b)}은 도 1의 {무선 기기(100x), 기지국(120)} 및/또는 {무선 기기(100x), 무선 기기(100x)}에 대응할 수 있다.
제1 무선 기기(200a)는 하나 이상의 프로세서(202a) 및 하나 이상의 메모리(204a)를 포함하며, 추가적으로 하나 이상의 송수신기(206a) 및/또는 하나 이상의 안테나(208a)을 더 포함할 수 있다. 프로세서(202a)는 메모리(204a) 및/또는 송수신기(206a)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202a)는 메모리(204a) 내의 정보를 처리하여 제1 정보/신호를 생성한 뒤, 송수신기(206a)을 통해 제1 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202a)는 송수신기(206a)를 통해 제2 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제2 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204a)에 저장할 수 있다. 메모리(204a)는 프로세서(202a)와 연결될 수 있고, 프로세서(202a)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204a)는 프로세서(202a)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202a)와 메모리(204a)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206a)는 프로세서(202a)와 연결될 수 있고, 하나 이상의 안테나(208a)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206a)는 송신기 및/또는 수신기를 포함할 수 있다. 송수신기(206a)는 RF(radio frequency) 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
제2 무선 기기(200b)는 하나 이상의 프로세서(202b), 하나 이상의 메모리(204b)를 포함하며, 추가적으로 하나 이상의 송수신기(206b) 및/또는 하나 이상의 안테나(208b)를 더 포함할 수 있다. 프로세서(202b)는 메모리(204b) 및/또는 송수신기(206b)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202b)는 메모리(204b) 내의 정보를 처리하여 제3 정보/신호를 생성한 뒤, 송수신기(206b)를 통해 제3 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202b)는 송수신기(206b)를 통해 제4 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제4 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204b)에 저장할 수 있다. 메모리(204b)는 프로세서(202b)와 연결될 수 있고, 프로세서(202b)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204b)는 프로세서(202b)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202b)와 메모리(204b)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206b)는 프로세서(202b)와 연결될 수 있고, 하나 이상의 안테나(208b)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206b)는 송신기 및/또는 수신기를 포함할 수 있다 송수신기(206b)는 RF 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
이하, 무선 기기(200a, 200b)의 하드웨어 요소에 대해 보다 구체적으로 설명한다. 이로 제한되는 것은 아니지만, 하나 이상의 프로토콜 계층이 하나 이상의 프로세서(202a, 202b)에 의해 구현될 수 있다. 예를 들어, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 계층(예, PHY(physical), MAC(media access control), RLC(radio link control), PDCP(packet data convergence protocol), RRC(radio resource control), SDAP(service data adaptation protocol)와 같은 기능적 계층)을 구현할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 하나 이상의 PDU(Protocol Data Unit) 및/또는 하나 이상의 SDU(service data unit)를 생성할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 메시지, 제어정보, 데이터 또는 정보를 생성할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 문서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 포함하는 신호(예, 베이스밴드 신호)를 생성하여, 하나 이상의 송수신기(206a, 206b)에게 제공할 수 있다. 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)로부터 신호(예, 베이스밴드 신호)를 수신할 수 있고, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 획득할 수 있다.
하나 이상의 프로세서(202a, 202b)는 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 마이크로 컴퓨터로 지칭될 수 있다. 하나 이상의 프로세서(202a, 202b)는 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합에 의해 구현될 수 있다. 일 예로, 하나 이상의 ASIC(application specific integrated circuit), 하나 이상의 DSP(digital signal processor), 하나 이상의 DSPD(digital signal processing device), 하나 이상의 PLD(programmable logic device) 또는 하나 이상의 FPGA(field programmable gate arrays)가 하나 이상의 프로세서(202a, 202b)에 포함될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있고, 펌웨어 또는 소프트웨어는 모듈, 절차, 기능 등을 포함하도록 구현될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 수행하도록 설정된 펌웨어 또는 소프트웨어는 하나 이상의 프로세서(202a, 202b)에 포함되거나, 하나 이상의 메모리(204a, 204b)에 저장되어 하나 이상의 프로세서(202a, 202b)에 의해 구동될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 코드, 명령어 및/또는 명령어의 집합 형태로 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있다.
하나 이상의 메모리(204a, 204b)는 하나 이상의 프로세서(202a, 202b)와 연결될 수 있고, 다양한 형태의 데이터, 신호, 메시지, 정보, 프로그램, 코드, 지시 및/또는 명령을 저장할 수 있다. 하나 이상의 메모리(204a, 204b)는 ROM(read only memory), RAM(random access memory), EPROM(erasable programmable read only memory), 플래시 메모리, 하드 드라이브, 레지스터, 캐쉬 메모리, 컴퓨터 판독 저장 매체 및/또는 이들의 조합으로 구성될 수 있다. 하나 이상의 메모리(204a, 204b)는 하나 이상의 프로세서(202a, 202b)의 내부 및/또는 외부에 위치할 수 있다. 또한, 하나 이상의 메모리(204a, 204b)는 유선 또는 무선 연결과 같은 다양한 기술을 통해 하나 이상의 프로세서(202a, 202b)와 연결될 수 있다.
하나 이상의 송수신기(206a, 206b)는 하나 이상의 다른 장치에게 본 문서의 방법들 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 전송할 수 있다. 하나 이상의 송수신기(206a, 206b)는 하나 이상의 다른 장치로부터 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 수신할 수 있다. 예를 들어, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 프로세서(202a, 202b)와 연결될 수 있고, 무선 신호를 송수신할 수 있다. 예를 들어, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)가 하나 이상의 다른 장치에게 사용자 데이터, 제어 정보 또는 무선 신호를 전송하도록 제어할 수 있다. 또한, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)가 하나 이상의 다른 장치로부터 사용자 데이터, 제어 정보 또는 무선 신호를 수신하도록 제어할 수 있다. 또한, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 안테나(208a, 208b)와 연결될 수 있고, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 안테나(208a, 208b)를 통해 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 송수신하도록 설정될 수 있다. 본 문서에서, 하나 이상의 안테나는 복수의 물리 안테나이거나, 복수의 논리 안테나(예, 안테나 포트)일 수 있다. 하나 이상의 송수신기(206a, 206b)는 수신된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 하나 이상의 프로세서(202a, 202b)를 이용하여 처리하기 위해, 수신된 무선 신호/채널 등을 RF 밴드 신호에서 베이스밴드 신호로 변환(Convert)할 수 있다. 하나 이상의 송수신기(206a, 206b)는 하나 이상의 프로세서(202a, 202b)를 이용하여 처리된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 베이스밴드 신호에서 RF 밴드 신호로 변환할 수 있다. 이를 위하여, 하나 이상의 송수신기(206a, 206b)는 (아날로그) 오실레이터 및/또는 필터를 포함할 수 있다.
본 개시에 적용 가능한 무선 기기 구조
도 3은 본 개시에 적용되는 무선 기기의 다른 예시를 도시한 도면이다.
도 3을 참조하면, 무선 기기(300)는 도 2의 무선 기기(200a, 200b)에 대응하며, 다양한 요소(element), 성분(component), 유닛/부(unit), 및/또는 모듈(module)로 구성될 수 있다. 예를 들어, 무선 기기(300)는 통신부(310), 제어부(320), 메모리부(330) 및 추가 요소(340)를 포함할 수 있다. 통신부는 통신 회로(312) 및 송수신기(들)(314)을 포함할 수 있다. 예를 들어, 통신 회로(312)는 도 2의 하나 이상의 프로세서(202a, 202b) 및/또는 하나 이상의 메모리(204a, 204b)를 포함할 수 있다. 예를 들어, 송수신기(들)(314)는 도 2의 하나 이상의 송수신기(206a, 206b) 및/또는 하나 이상의 안테나(208a, 208b)을 포함할 수 있다. 제어부(320)는 통신부(310), 메모리부(330) 및 추가 요소(340)와 전기적으로 연결되며 무선 기기의 제반 동작을 제어한다. 예를 들어, 제어부(320)는 메모리부(330)에 저장된 프로그램/코드/명령/정보에 기반하여 무선 기기의 전기적/기계적 동작을 제어할 수 있다. 또한, 제어부(320)는 메모리부(330)에 저장된 정보를 통신부(310)을 통해 외부(예, 다른 통신 기기)로 무선/유선 인터페이스를 통해 전송하거나, 통신부(310)를 통해 외부(예, 다른 통신 기기)로부터 무선/유선 인터페이스를 통해 수신된 정보를 메모리부(330)에 저장할 수 있다.
추가 요소(340)는 무선 기기의 종류에 따라 다양하게 구성될 수 있다. 예를 들어, 추가 요소(340)는 파워 유닛/배터리, 입출력부(input/output unit), 구동부 및 컴퓨팅부 중 적어도 하나를 포함할 수 있다. 이로 제한되는 것은 아니지만, 무선 기기(300)는 로봇(도 1, 100a), 차량(도 1, 100b-1, 100b-2), XR 기기(도 1, 100c), 휴대 기기(도 1, 100d), 가전(도 1, 100e), IoT 기기(도 1, 100f), 디지털 방송용 단말, 홀로그램 장치, 공공 안전 장치, MTC 장치, 의료 장치, 핀테크 장치(또는 금융 장치), 보안 장치, 기후/환경 장치, AI 서버/기기(도 1, 140), 기지국(도 1, 120), 네트워크 노드 등의 형태로 구현될 수 있다. 무선 기기는 사용-예/서비스에 따라 이동 가능하거나 고정된 장소에서 사용될 수 있다.
도 3에서 무선 기기(300) 내의 다양한 요소, 성분, 유닛/부, 및/또는 모듈은 전체가 유선 인터페이스를 통해 상호 연결되거나, 적어도 일부가 통신부(310)를 통해 무선으로 연결될 수 있다. 예를 들어, 무선 기기(300) 내에서 제어부(320)와 통신부(310)는 유선으로 연결되며, 제어부(320)와 제1 유닛(예, 130, 140)은 통신부(310)를 통해 무선으로 연결될 수 있다. 또한, 무선 기기(300) 내의 각 요소, 성분, 유닛/부, 및/또는 모듈은 하나 이상의 요소를 더 포함할 수 있다. 예를 들어, 제어부(320)는 하나 이상의 프로세서 집합으로 구성될 수 있다. 예를 들어, 제어부(320)는 통신 제어 프로세서, 어플리케이션 프로세서(application processor), ECU(electronic control unit), 그래픽 처리 프로세서, 메모리 제어 프로세서 등의 집합으로 구성될 수 있다. 다른 예로, 메모리부(330)는 RAM, DRAM(dynamic RAM), ROM, 플래시 메모리(flash memory), 휘발성 메모리(volatile memory), 비-휘발성 메모리(non-volatile memory) 및/또는 이들의 조합으로 구성될 수 있다.
도 4는 본 개시에 적용되는 AI 기기의 예시를 도시한 도면이다. 일 예로, AI 기기는 TV, 프로젝터, 스마트폰, PC, 노트북, 디지털방송용 단말기, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), 라디오, 세탁기, 냉장고, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다.
도 4를 참조하면, AI 기기(600)는 통신부(610), 제어부(620), 메모리부(630), 입/출력부(640a/640b), 러닝 프로세서부(640c) 및 센서부(640d)를 포함할 수 있다. 블록 910~930/940a~940d는 각각 도 3의 블록 310~330/340에 대응할 수 있다.
통신부(610)는 유무선 통신 기술을 이용하여 다른 AI 기기(예, 도 1, 100x, 120, 140)나 AI 서버(도 1, 140) 등의 외부 기기들과 유무선 신호(예, 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등)를 송수신할 수 있다. 이를 위해, 통신부(610)는 메모리부(630) 내의 정보를 외부 기기로 전송하거나, 외부 기기로부터 수신된 신호를 메모리부(630)로 전달할 수 있다.
제어부(620)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 기기(600)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 제어부(620)는 AI 기기(600)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다. 예를 들어, 제어부(620)는 러닝 프로세서부(640c) 또는 메모리부(630)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 기기(600)의 구성 요소들을 제어할 수 있다. 또한, 제어부(920)는 AI 장치(600)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리부(630) 또는 러닝 프로세서부(640c)에 저장하거나, AI 서버(도 1, 140) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.
메모리부(630)는 AI 기기(600)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예를 들어, 메모리부(630)는 입력부(640a)로부터 얻은 데이터, 통신부(610)로부터 얻은 데이터, 러닝 프로세서부(640c)의 출력 데이터, 및 센싱부(640)로부터 얻은 데이터를 저장할 수 있다. 또한, 메모리부(930)는 제어부(620)의 동작/실행에 필요한 제어 정보 및/또는 소프트웨어 코드를 저장할 수 있다.
입력부(640a)는 AI 기기(600)의 외부로부터 다양한 종류의 데이터를 획득할 수 있다. 예를 들어, 입력부(620)는 모델 학습을 위한 학습 데이터, 및 학습 모델이 적용될 입력 데이터 등을 획득할 수 있다. 입력부(640a)는 카메라, 마이크로폰 및/또는 사용자 입력부 등을 포함할 수 있다. 출력부(640b)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다. 출력부(640b)는 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센싱부(640)는 다양한 센서들을 이용하여 AI 기기(600)의 내부 정보, AI 기기(600)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 얻을 수 있다. 센싱부(640)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰 및/또는 레이더 등을 포함할 수 있다.
러닝 프로세서부(640c)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 러닝 프로세서부(640c)는 AI 서버(도 1, 140)의 러닝 프로세서부와 함께 AI 프로세싱을 수행할 수 있다. 러닝 프로세서부(640c)는 통신부(610)를 통해 외부 기기로부터 수신된 정보, 및/또는 메모리부(630)에 저장된 정보를 처리할 수 있다. 또한, 러닝 프로세서부(940c)의 출력 값은 통신부(610)를 통해 외부 기기로 전송되거나/되고, 메모리부(630)에 저장될 수 있다.
6G 통신 시스템
6G (무선통신) 시스템은 (i) 디바이스 당 매우 높은 데이터 속도, (ii) 매우 많은 수의 연결된 디바이스들, (iii) 글로벌 연결성(global connectivity), (iv) 매우 낮은 지연, (v) 배터리-프리(battery-free) IoT 디바이스들의 에너지 소비를 낮추고, (vi) 초고신뢰성 연결, (vii) 머신 러닝 능력을 가지는 연결된 지능 등에 목적이 있다. 6G 시스템의 비젼은 “intelligent connectivity”, “deep connectivity”, “holographic connectivity”, “ubiquitous connectivity”와 같은 4가지 측면일 수 있으며, 6G 시스템은 하기 표 1과 같은 요구 사항을 만족시킬 수 있다. 즉, 표 1은 6G 시스템의 요구 사항을 나타낸 표이다.
Figure PCTKR2022018624-appb-img-000001
이때, 6G 시스템은 향상된 모바일 브로드밴드(enhanced mobile broadband, eMBB), 초-저지연 통신(ultra-reliable low latency communications, URLLC), mMTC (massive machine type communications), AI 통합 통신(AI integrated communication), 촉각 인터넷(tactile internet), 높은 스루풋(high throughput), 높은 네트워크 능력(high network capacity), 높은 에너지 효율(high energy efficiency), 낮은 백홀 및 접근 네트워크 혼잡(low backhaul and access network congestion) 및 향상된 데이터 보안(enhanced data security)과 같은 핵심 요소(key factor)들을 가질 수 있다.
인공 지능(artificial Intelligence, AI)
6G 시스템에 가장 중요하며, 새로 도입될 기술은 AI이다. 4G 시스템에는 AI가 관여하지 않았다. 5G 시스템은 부분 또는 매우 제한된 AI를 지원할 것이다. 그러나, 6G 시스템은 완전히 자동화를 위해 AI가 지원될 것이다. 머신 러닝의 발전은 6G에서 실시간 통신을 위해 보다 지능적인 네트워크를 만들 것이다. 통신에 AI를 도입하면 실시간 데이터 전송이 간소화되고 향상될 수 있다. AI는 수많은 분석을 사용하여 복잡한 대상 작업이 수행되는 방식을 결정할 수 있다. 즉, AI는 효율성을 높이고 처리 지연을 줄일 수 있다.
핸드 오버, 네트워크 선택, 자원 스케줄링과 같은 시간 소모적인 작업은 AI를 사용함으로써 즉시 수행될 수 있다. AI는 M2M, 기계-대-인간 및 인간-대-기계 통신에서도 중요한 역할을 할 수 있다. 또한, AI는 BCI(brain computer interface)에서 신속한 통신이 될 수 있다. AI 기반 통신 시스템은 메타 물질, 지능형 구조, 지능형 네트워크, 지능형 장치, 지능형 인지 라디오(radio), 자체 유지 무선 네트워크 및 머신 러닝에 의해 지원될 수 있다.
최근 AI를 무선 통신 시스템과 통합하려고 하는 시도들이 나타나고 있으나, 이는 어플리케이션 계층(application layer), 네트워크 계층(network layer) 특히, 딥 러닝은 무선 자원 관리 및 할당(wireless resource management and allocation) 분야에 집중되어 왔다. 그러나, 이러한 연구는 점점 MAC 계층 및 물리 계층으로 발전하고 있으며, 특히 물리계층에서 딥 러닝을 무선 전송(wireless transmission)과 결합하고자 하는 시도들이 나타나고 있다. AI 기반의 물리계층 전송은, 근본적인 신호 처리 및 통신 메커니즘에 있어서, 전통적인 통신 프레임워크가 아니라 AI 드라이버에 기초한 신호 처리 및 통신 메커니즘을 적용하는 것을 의미한다. 예를 들어, 딥러닝 기반의 채널 코딩 및 디코딩(channel coding and decoding), 딥러닝 기반의 신호 추정(estimation) 및 검출(detection), 딥러닝 기반의 MIMO(multiple input multiple output) 매커니즘(mechanism), AI 기반의 자원 스케줄링(scheduling) 및 할당(allocation) 등을 포함할 수 있다.
또한, 머신 러닝은 채널 추정 및 채널 트래킹을 위해 사용될 수 있으며, DL(downlink)의 물리 계층(physical layer)에서 전력 할당(power allocation), 간섭 제거(interference cancellation) 등에 사용될 수 있다. 또한, 머신 러닝은 MIMO 시스템에서 안테나 선택, 전력 제어(power control), 심볼 검출(symbol detection) 등에도 사용될 수 있다.
그러나 물리계층에서의 전송을 위한 DNN의 적용은 아래와 같은 문제점이 있을 수 있다.
딥러닝 기반의 AI 알고리즘은 훈련 파라미터를 최적화하기 위해 수많은 훈련 데이터가 필요하다. 그러나 특정 채널 환경에서의 데이터를 훈련 데이터로 획득하는데 있어서의 한계로 인해, 오프라인 상에서 많은 훈련 데이터를 사용한다. 이는 특정 채널 환경에서 훈련 데이터에 대한 정적 훈련(static training)은, 무선 채널의 동적 특성 및 다이버시티(diversity) 사이에 모순(contradiction)이 생길 수 있다.
또한, 현재 딥 러닝은 주로 실제 신호(real signal)을 대상으로 한다. 그러나, 무선 통신의 물리 계층의 신호들은 복소 신호(complex signal)이다. 무선 통신 신호의 특성을 매칭시키기 위해 복소(complex) 도메인 신호의 검출하는 신경망(neural network)에 대한 연구가 더 필요하다.
이하, 머신 러닝에 대해 보다 구체적으로 살펴본다.
머신 러닝은 사람이 할 수 있거나 혹은 하기 어려운 작업을 대신해낼 수 있는 기계를 만들어 내기 위해 기계를 학습시키는 일련의 동작을 의미한다. 머신 러닝을 위해서는 데이터와 러닝 모델이 필요하다. 머신 러닝에서 데이터의 학습 방법은 크게 3가지 즉, 지도 학습(supervised learning), 비지도 학습(unsupervised learning) 그리고 강화 학습(reinforcement learning)으로 구분될 수 있다.
신경망 학습은 출력의 오류를 최소화하기 위한 것이다. 신경망 학습은 반복적으로 학습 데이터를 신경망에 입력시키고 학습 데이터에 대한 신경망의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 신경망의 에러를 신경망의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation) 하여 신경망의 각 노드의 가중치를 업데이트하는 과정이다.
지도 학습은 학습 데이터에 정답이 라벨링된 학습 데이터를 사용하며 비지도 학습은 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 지도 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링된 데이터 일 수 있다. 라벨링된 학습 데이터가 신경망에 입력되고 신경망의 출력(카테고리)과 학습 데이터의 라벨을 비교하여 오차(error)가 계산될 수 있다. 계산된 오차는 신경망에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 신경망의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 신경망의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 신경망의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 신경망의 학습 초기에는 높은 학습률을 사용하여 신경망이 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다
데이터의 특징에 따라 학습 방법은 달라질 수 있다. 예를 들어, 통신 시스템 상에서 송신단에서 전송한 데이터를 수신단에서 정확하게 예측하는 것을 목적으로 하는 경우, 비지도 학습 또는 강화 학습 보다는 지도 학습을 이용하여 학습을 수행하는 것이 바람직하다.
러닝 모델은 인간의 뇌에 해당하는 것으로서, 가장 기본적인 선형 모델을 생각할 수 있으나, 인공 신경망(artificial neural networks)와 같은 복잡성이 높은 신경망 구조를 러닝 모델로 사용하는 머신 러닝의 패러다임을 딥러닝(deep learning)이라 한다.
학습(learning) 방식으로 사용하는 신경망 코어(neural network cord)는 크게 심층 신경망(deep neural networks, DNN), 합성곱 신경망(convolutional deep neural networks, CNN), 순환 신경망(recurrent boltzmann machine, RNN) 방식이 있으며, 이러한 러닝 모델이 적용될 수 있다.
이하 , AI/ML 모델에 기초하여 기능적 프레임 워크를 구성하는 방법에 대해 서술한다.
도 5는 기능적 프레임 워크를 나타낸 도면이다. 통신은 AI/ML가 인에이블된 RAN 인텔리전스(RAN intelligence)에 기초하여 수행될 수 있다. 일 예로, AI/ML 알고리즘은 다양한 형태로 구성될 수 있다. 도 5를 참조하면, AI/ML 알고리즘에 따라 기 구성된 AI/ML 모델을 기반으로 AI/ML 기능적 구성(functionality) 및 이에 대응되는 입력과 출력에 따라 AI/ML 기반 동작이 수행될 수 있다.
보다 상세하게는, 데이터 수집 엔티티(data collection, 510)는 모델 트레이닝 엔티티(model training, 540) 및 모델 인퍼런스 엔티티(model inference, 520)에 입력 데이터를 제공할 수 있다.
입력 데이터는 다른 네트워크 엔티티에 의한 측정 값, 단말들에 의한 피드백 값 및 AI/ML 모델의 출력에 대한 피드백 값 중 적어도 어느 하나를 포함할 수 있다. 데이터 수집 엔티티(510)가 모델 트레이닝 엔티티(540)에 제공하는 트레이닝 데이터(training data)는 AI/ML 모델 트레이닝 기능을 위해 제공되는 데이터일 수 있다. 또한, 데이터 수집 엔티티(510)가 모델 인퍼런스 엔티티(520)에 제공하는 인퍼런스 데이터는 AI/ML 모델 인퍼런스 기능을 위해 제공되는 데이터일 수 있다. 여기서, 모델 트레이닝 엔티티(540)는 AI/ML 모델의 트레이닝, 검증(validation) 및 테스트를 수행하는 엔티티일 수 있다.
모델 트레이닝 엔티티(540)는 모델 인퍼런스 엔티티(520)로 AI/ML 모델을 제공하고 업데이트할 수 있다. 또한, 모델 인퍼런스 엔티티(520)는 모델 트레이닝 엔티티(540)로 모델 성능 피드백을 제공할 수 있다. 즉, 모델 트레이닝 엔티티(540)는 모델 인퍼런스 엔티티(520)의 피드백을 통해 AI/ML 모델에 대한 트레이닝을 수행하고, 업데이트된 AI/ML 모델을 모델 인퍼런스엔티티(520)로 다시 제공할 수 있다. 또한, 모델 인퍼런스 엔티티(520)는 데이터 수집 엔티티(510)로부터 인퍼런스 데이터를 제공받을 수 있다. 여기서, 모델 인퍼런스 엔티티(520)는 제공받은 AI/ML 모델을 통해 출력(output)을 생성하여 액터 엔티티(actor, 530)에게 제공할 수 있다. 여기서, 액터 엔티티(530)는 출력에 따라 동작을 수행하는 주체일 수 있으며, 액터 엔티티(530)에 의해 수행되는 동작은 다시 데이터 수집 엔티티(510)로 피드백될 수 있다. 또한, 피드백된 정보는 다시 트레이닝 데이터로 모델 트레이닝 엔티티(540)에 제공될 수 있다.
즉, AI/ML 모델의 트레이닝을 위한 데이터가 제공되어 AI/ML 모델이 학습되어 구축되고, 구축된 AI/ML 모델에 인퍼런스 데이터가 제공되어 출력됨으로써 AI/ML 모델 기반 동작이 수행할 수 있다
구체적인 일 예로, 도 6은 본 개시에 적용 가능한 AI/ML 기반 모델 인퍼런스 아웃풋을 생성하는 방법을 나타낸 도면이다. 도 6을 참조하면, NG-RAN 노드(NG-RAN node 1, 620)는 AI/ML 모델을 구비할 수 있다. 여기서, NG-RAN 노드 1(620)에는 도 5의 모델 인퍼런스가 존재할 수 있으며, 트레이닝은 OAM(640)에서 수행될 수 있다. 즉, AI/ML 모델에 대한 트레이닝은 RAN 노드에서 수행되지 않을 수 있고, RAN 노드는 모델 인퍼런스만 구비할 수 있다. 여기서, NG-RAN 노드 1(620)은 다른 NG-RAN 노드 2(630)로부터 요구되는 입력 데이터로 네트워크 에너지 세이빙에 기초하여 AI/ML 모델 인퍼런스를 위한 데이터를 수신할 수 있다. 일 예로, NG-RAN 노드 2(630)도 AI/ML 모델에 대한 모델 인퍼런스를 구비할 수 있으며, 필수적이지 않을 수 있다. 그 후, NG-RAN 노드 1(620)은 단말(610)로부터 측정 정보를 획득할 수 있다. NG-RAN 노드 1(620)은 단말(610)로부터 획득한 측정 데이터 및 NG-RAN 노드 2(630)로부터 획득한 데이터에 기초하여 모델 인퍼런스에 대한 아웃풋을 생성할 수 있다. 일 예로, 모델 인퍼런스에 대한 아웃풋은 에너지 세이빙 전략 또는 핸드오버 전략일 수 있다. 즉, NG-RAN 노드 1(620)은 모델 인퍼런스 아웃풋에 기초하여 단말에 대한 핸드오버 또는 그 밖의 동작을 수행할 수 있으며, 특정 실시예로 한정되지 않는다. 그 후, NG-RAN 노드 1(620) 및 NG-RAN 노드 2(630) 중 적어도 어느 하나는 OAM(640)으로 피드백을 전달할 수 있으며, OAM(640)에서 피드백에 기초하여 트레이닝이 수행될 수 있다.
또한, 도 7은 본 개시에 적용 가능한 AI/ML 기반 모델 인퍼런스 아웃풋을 생성하는 방법을 나타낸 도면이다. 도 7을 참조하면, 도 6과 상이하게 NG-RAN 노드 1(720)은 모델 트레이닝을 직접 수행할 수 있다. 구체적으로, NG-RAN 노드 1(720)은 다른 NG-RAN 노드 2(730)로부터 요구되는 입력 데이터로 네트워크 에너지 세이빙에 기초하여 AI/ML 모델 인퍼런스를 위한 데이터를 수신할 수 있다. 일 예로, NG-RAN 노드 2(730)도 AI/ML 모델에 대한 모델 인퍼런스를 구비할 수 있으며, 필수적이지 않을 수 있다. 그 후, NG-RAN 노드 1(720)은 단말(710)로부터 측정 정보를 획득할 수 있다. NG-RAN 노드 1(720)은 단말(710)로부터 획득한 측정 데이터 및 NG-RAN 노드 2(730)로부터 획득한 데이터에 기초하여 모델 인퍼런스에 대한 아웃풋을 생성할 수 있다. 일 예로, 모델 인퍼런스에 대한 아웃풋은 에너지 세이빙 전략 또는 핸드오버 전략일 수 있다. 즉, NG-RAN 노드 1(7620)은 모델 인퍼런스 아웃에 기초하여 단말에 대한 핸드오버 또는 그 밖의 동작을 수행할 수 있으며, 특정 실시예로 한정되지 않는다. 그 후, NG-RAN 노드 1(720)은 모델 트레이닝을 구비하고 있으므로 직접 트레이닝을 수행할 수 있다. 이를 위해 NG-RAN 노드 1(720)은 NG-RAN 노드 2(730)로부터 피드백 정보를 획득할 수 있으며, 이를 통해 트레이닝을 직접 수행할 수 있다.
여기서, 일 예로, AI/ML 기반 최적화된 네트워크 에너지 세이빙을 위해 NG-RAN은 AI/ML 기반 네트워크 에너지 세이빙에 대한 입력 데이터가 필요할 수 있다. 일 예로, 입력 데이터는 셀 및 인접 노드의 현재 또는 예상 자원 상태, 셀 및 인접 노드의 현재 또는 예상 에너지 정보 및 단말 측정 보고 (e.g. UE RSRP, RSRQ, SINR 측정 등) 중 적어도 어느 하나를 포함할 수 있다.
또한, AI/ML 기반 네트워크 에너지 세이빙을 위해 gNB에서 기존 단말 측정이 필요한 경우, RAN은 기존 프레임 워크(MDT 및 RRM 측정 포함)를 재사용할 수 있으며, 특정 실시예로 한정되지 않는다.
또한, 일 예로, AI/ML 기반 네트워크 에너지 세이빙을 위한 출력 정보는 에너지 세이빙 전략, 트래픽 인계를 위한 추천 후보 셀을 포함한 핸드오버 전략 및 예상 에너지 정보 중 적어도 어느 하나를 포함할 수 있으나, 이에 한정되는 것은 아닐 수 있다.
또한, 일 예로, AI/ML 기반 네트워크 에너지 세이빙을 위해 모델의 성능을 최적화할 수 있다. 이를 위해, RAN 노드는 부하 측정 정보 및 에너지 정보 중 적어도 어느 하나를 피드백 정보로 획득할 수 있으나, 이에 한정되는 것은 아닐 수 있다.
또한, 일 예로, 로드 밸런싱(load balancing)을 위해 AI/ML 모델이 고려될 수 있다. 구체적으로, 상업용 네트워크에서 사용되는 트래픽의 급격한 증가와 다중 주파수 대역으로 인해 트래픽 분배가 용이하지 않을 수 있으며, 로드 밸런싱을 위해 AI/ML 모델이 고려될 수 있다. 로드 밸런싱은 셀 사이 및 셀 영역 간에 로드를 고르게 분산하거나 혼잡한 셀 또는 셀의 혼잡한 영역에서 트래픽의 일부를 전송하거나 부하를 오프 로드하는 것일 수 있다.
여기서, 로드 밸런싱은 핸드오버 매개변수 및 핸드오버 동작의 최적화를 통해 수행될 수 있다. 다만, 네트워크의 트래픽 부하 및 리소스 상태는 이동성이 높은 복수의 단말이 연결된 경우에 서비스 품질 저하를 발생시킬 수 있다. 따라서, 로드 밸런싱을 수행할 때 전체 네트워크 및 서비스 성능을 보장하기 어려울 수 있으며, 이를 위해 AI/ML 모델 적용을 고려할 수 있다.
일 예로, AI/ML 기반 로드 밸런싱을 지원하는 경우, 모델 트레이닝은 OAM에 위치하고, 모델 인퍼런스는 기지국에 존재할 수 있다. 또 다른 일 예로, 모델 트레이닝 및 모델 인퍼런스 모두 기지국에 존재할 수 있다. 여기서, 일 예로, CU(central unit)-DU(distributed unit) 구조에 기초한 기지국의 경우, 모델 트레이닝은 OAM에 존재하고, 모델 인퍼런스는 gNB-CU에 존재할 수 있다. 또 다른 일 예로, 모델 트레이닝 및 모델 인퍼런스 모두 gNB-CU에 존재할 수 있다. 또 다른 일 예로, 모델 트레이닝 및 모델 인퍼런스는 다양한 위치에 존재할 수 있으며, 특정 실시예로 한정되지 않는다.
일 예로, gNB(gNB-CU)에서 로드 밸런싱 결정을 개선하기 위해 gNB는 이웃 노드로부터 로드 예측을 요청할 수 있다. AI/ML 기반 로드 밸런싱을 위해 gNB에서 기존 단말 측정이 필요한 경우, RAN은 기존 프레임워크(MDT 및 RRM 측정 포함)를 재사용할 수 있으나, 이에 한정되는 것은 아닐 수 있다.
또 다른 일 예로, 이동성(mobility) 최적화를 위해 AI/ML 모델을 고려할 수 있다. 이동성 관리는 통화 끊김, RLF(radio link failure), 불필요한 핸드오버 및 핑퐁을 최소화하여 이동성 동안 서비스 연속성을 보장하는 방식일 수 있다. 고주파 네트워크의 경우, 단일 노드의 커버리지가 감소함에 따라 단말의 노드 간 핸드오버 빈도가 높아질 수 있다. 특히, 이동성이 높은 단말의 핸드오버 빈도가 더 증가할 수 있다. 여기서, 신뢰성, 대기 시간 등과 같은 엄격한 QoS 요구 사항을 특징으로 하는 애플리케이션의 경우, QoE는 핸드오버 성능에 민감하므로 이동성 관리는 실패한 핸드오버를 피하고 핸드오버 절차 중 대기 시간을 줄일 필요성이 있으며, 이를 위해 AI/ML 모델을 고려할 수 있다. 일 예로, AI/ML을 사용하여 의도하지 않은 사건의 확률 감소, 단말 위치/이동성/성능 예측 및 트래픽 스티어링 중 적어도 어느 하나가 수행될 수 있다. 이때, 일 예로, 의도하지 않은 사건은 인트라 시스템에서 단말의 너무 늦은 핸드오버, 너무 이른 핸드오버 및 다른 셀로의 핸드오버 동작일 수 있으나, 이에 한정되는 것은 아닐 수 있다.
또한, 일 예로, 단말의 위치/이동성/성능 예측은 효율성과 성능을 최대화하기 위한 최상의 이동성 대상을 결정하여 수행될 수 있다. 트래픽 스티어링은 효율적인 자원 처리에 기초하여 핸드오버 트리거 포인트를 조정하고, 사용자에게 서비스할 최적의 셀 조합을 선택하는 것을 의미할 수 있다.
즉, 상술한 동작을 고려하여 AI/ML 모델이 필요할 수 있다. 여기서, AI/ML 모델에 기초하여 모델 트레이닝은 OAM에 배치되고 모델 인퍼런스는 RAN에 존재하는 경우를 고려할 수 있으며, 이는 상술한 도 6과 같을 수 있다. 또한, 일 예로, AI/ML 모델에 기초하여 모델 트레이닝 및 모델 인퍼런스 모두 RAN에 존재할 수 있으며, 이는 도 7과 같을 수 있다. 또 다른 일 예로, CU-DU 분할 시나리오의 경우, 모델 트레이닝은 CU-CP 또는 OAM에 위치하고, 모델 인퍼런스는 CU-CP에 위치할 수 있으나, 이에 한정되는 것은 아닐 수 있다.
또한, 일 예로, 도 8은 본 개시에 적용 가능한 모델 트레이닝 및 모델 인퍼런스가 모두 RAN에 존재하는 경우를 나타낸 도면이다. 도 8을 참조하면, NG-RAN 노드 1(820)은 모델 트레이닝 및 모델 인퍼런스를 모두 구비할 수 있다. 여기서, NG-RAN 노드 1(820)은 단말(810)로 측정 구성 정보를 제공하고, 이에 기초하여 단말(810)은 측정을 수행하여 측정 보고를 NG-RAN 노드 1(820)으로 전달할 수 있다. 그 후, NG-RAN 노드 1(820)은 모델 트레이닝을 수행할 수 있다. 또 다른 일 예로, NG-RAN 노드 1(820)은 단말(810)로부터 수신한 측정 보고에 기초하여 모델 인퍼런스를 수행하여 아웃풋을 도출할 수 있다. 여기서, 아웃풋은 상술한 바와 같이 로드 밸런싱이나 이동성 최적화를 위한 동작일 수 있다. 일 예로, 모델 인퍼런스 아웃풋에 기초하여 NG-RAN 노드 1(820)은 NG-RAN 노드 2(830)로 핸드오버를 요청하거나 그 밖의 동작을 수행하도록 할 수 있으며, 특정 실시예로 한정되지 않는다.
상술한 바에 기초하여 새로운 통신 시스템(e.g. 6G)에서 AI/ML 기반의 동작이 수행될 수 있다. 일 예로, AI/ML 기술은 네트워크 기술뿐만 아니라, CSI 피드백 강화(CSI feedback enhancement), 빔 관리(beam management), 포지셔닝(positioning), 참조신호 오버헤드 감소(RS overhead reduction) 및 RRM 이동성 강화(RRM Mobility enhancement)에 적용될 수 있으나, 특정 분야로 한정되는 것은 아닐 수 있다. 일 예로, AI/ML은 단말과 기지국 사이의 PHY 레이어 및 MAC/RRC 레이어에 대한 기술 분야의 개선을 위해 적용될 수 있으며, 하기에서는 이를 위한 방안에 대해 서술한다.
여기서, 일 예로, AI/ML 모델을 통해 RAN1/RAN2와 같은 에어 인터페이스(air interface)에서의 개선을 위한 시나리오는 하기 표 2와 같을 수 있다. 구체적으로, 네트워크와 단말 중 적어도 어느 하나에서 AI/ML 모델을 구현하여 성능을 개선하는 시나리오(case 1), 네트워크와 단말 중 적어도 어느 하나에서 독립적으로 AI/ML 모델을 구현하고 입력/출력(input/output)을 정의하여 성능을 개선하는 시나리오(case 2) 및 네트워크 또는 단말에서 구현된 AI/ML 모델에 대한 공유를 통해 성능을 개선하는 시나리오(case 3)를 고려할 수 있다. 여기서, 일 예로, 하기에서는 case 3으로 네트워크 또는 단말에서 구현된 AI/ML 모델에 대한 공유를 통해 성능을 개선하는 시나리오에 기초하여 모델 트레이닝 및 모델 인퍼런스를 수행하는 방법에 대해 서술한다. 보다 상세하게는 모델 트레이닝은 네트워크에서 수행되고, 모델 인퍼런스는 단말 또는 단말과 네트워크에서 동시에 수행되는 시나리오일 수 있으나, 이에 한정되는 것은 아닐 수 있다.
Figure PCTKR2022018624-appb-img-000002
여기서, 도 9는 본 개시에 적용 가능한 AI/ML 기반 모델 트레이닝이 네트워크에서 수행되고, 모델 인퍼런스가 단말에서 수행되는 방법을 나타낸 도면이다. 또한, 도 10은 본 개시에 적용 가능한 AI/ML 기반 모델 트레이닝이 네트워크에서 수행되고, 모델 인퍼런스가 네트워크 및 단말에서 수행되는 방법을 나타낸 도면이다.
도 9를 참조하면, 셀 정보를 통해 학습될 수 있는 AI/ML 모델을 이용하기 위해 네트워크는 단말들로부터 다양한 정보를 수집할 수 있다. 네트워크는 단말들로부터 수집한 정보에 기초하여 오프라인 러닝(offline learning)을 통해 1차적으로 트레이닝(training), 밸리데이션(validation) 및 테스팅(testing)을 마친 모델을 구축(deploy)할 수 있다. 네트워크는 구축된 AI/ML 모델을 셀 내의 단말들에게 공유할 필요성이 있다. 일 예로, 네트워크는 동기화를 통해 공유된 모델을 단말들에게 공유할 수 있으며, 이에 기초하여 동일한 모델을 통해 동작하도록 할 수 있다. 이때, 모델 성능 피드백(model performance feedback) 또는 추가적인 정보(e.g., UE behaviour such as RLF, BFR..)를 통해 모델 업데이트가 필요한 경우, 네트워크는 모델 업데이트 후 업데이트된 AI/ML 모델을 단말들에게 새롭게 공유할 수 있다. 일 예로, 모델 업데이트는 네트워크 측에서 온라인 러닝(online learning)도 포함될 수 있다. 셀 내의 AI/ML에 대한 능력(capability)을 구비한 단말은 수신한 AI/ML 모델에 기초하여 통신을 수행할 수 있으며, 이를 통해 개선된 통신을 수행할 수 있다.
도 9를 참조하면, 기지국(920)은 모델 트레이닝에 기초하여 구축된 AI/ML 모델 정보를 단말(910)에게 공유할 수 있다. 여기서, 단말(910)은 공유받은 AI/ML 모델의 모델 인퍼런스를 통해 아웃풋을 도출하고, 이에 대응되는 액션을 수행할 수 있으며, 이는 상술한 바와 같다. 그 후, 단말(910)은 모델 성능에 대한 피드백을 기지국(920)으로 제공하고, 기지국(920)은 피드백 정보에 기초하여 모델 트레이닝 수행 후 업데이트된 AI/ML 모델을 단말(910)로 공유할 수 있다.
또한, 도 10을 참조하면, 기지국(1020)은 모델 트레이닝에 기초하여 구축된 AI/ML 모델 정보를 단말(1010)에게 공유할 수 있다. 여기서, 단말(1010)은 공유받은 AI/ML 모델의 모델 인퍼런스를 통해 아웃풋을 도출할 수 있다. 또한, 기지국(1020)도 동일한 AI/ML 모델의 모델 인퍼런스를 통해 아웃풋을 도출할 수 있다. 이후, 단말(1010)과 기지국(1020)은 모델 인퍼런스에 대한 아웃풋에 기초하여 액션을 수행할 수 있으며, 이는 상술한 바와 같다. 그 후, 단말(1010)은 모델 성능에 대한 피드백을 기지국(1020)으로 제공하고, 기지국(1020)은 피드백 정보에 기초하여 모델 트레이닝 수행 후 업데이트된 AI/ML 모델을 단말(1010)로 공유할 수 있다.
상술한 도 9 및 도 10을 참조하면, 단말은 AI/ML 모델 정보를 수신할 필요성이 있다. 단말은 셀 특정 AI/ML 모델(cell-specific AI/ML model) 정보를 네트워크로부터 획득할 필요성이 있으며, 이를 획득하는 방법이 필요할 수 있다. 여기서, 단말은 기지국이 브로드캐스트하는 시스템 정보 블록(system information block, SIB)을 통해 AI/ML 모델 정보를 획득할 수 있다. 다만, AI/ML 모델 정보가 SIB를 통해 브로드캐스트되는 경우, 브로드캐스트되는 메시지에 모든 AI/ML 모델 정보가 포함될 필요성이 있다. 따라서, 전송될 AI/ML 모델 정보의 수가 많아질수록 단말의 수신 부담이 증가될 수 있다.
또 다른 일 예로, 기지국은 AI/ML 모델 정보를 요청하는 단말에게 유니캐스트 메시지를 통해 AI/ML 모델 정보를 단말에게 제공할 수 있다. 유니캐스트 메시지를 이용하여 AI/ML 모델을 공유하는 경우, 유니캐스트 메시지 수는 단말 수가 증가할수록 증가할 수 있다. 따라서, 시그널링 오버헤드 및 자원 소모가 증가할 수 있다. 따라서, 기지국이 효율적으로 AI/ML 모델 정보를 단말로 공유하기 위한 방법이 필요할 수 있다.
상술한 바와 같이, 다수의 AI/ML 모델이 네트워크 측에서 트레이닝되고, 단말에서는 모델 인퍼런스를 수행할 수 있다. 여기서, 단말은 모델 트레이닝을 위해 해당 AI/ML 모델에 대한 성능 평가 값(Model Performance Feedback, MPF)을 기지국으로 전송할 필요성이 있으며, 하기에서는 MPF를 전송하는 방안 및 MPF에 포함되는 정보들에 대해 서술한다. 구체적으로, 단말은 모델 인퍼런스가 발생할 때마다 MPF를 전송하기보다는 특정 이벤트에 따라 전송하도록 함으로써 불필요한 MPF 전송을 줄일 수 있으며, 이와 관련하여 후술한다.
또한, 일 예로, 단말은 네트워크에서 트레이닝된 AI/ML 모델 정보와 함께 관련 MPF에 대한 설정 정보를 수신할 수 있다. 여기서, MPF에 대한 설정 정보는 하기 표 3과 같을 수 있다.
구체적으로, MPF에 대한 설정 정보는 AI/ML 모델 또는 AI/ML 모델 그룹별 AI/ML 모델의 MPF에 대한 파라미터를 포함할 수 있다. 일 예로, MPF에 대한 파라미터는 AI/ML 모델 별 또는 AI/ML 모델 그룹 별로 동일하게 설정될 수 있다. 또 다른 일 예로, MPF에 대한 파라미터는 각 AI/ML 모델 또는 AI/ML 모델 그룹에 대해서 하나 이상의 파라미터가 각각 설정될 수 있다.
또한, MPF에 대한 설정 정보는 AI/ML 모델 성능 피드백을 위한 트리거 조건 정보를 포함할 수 있다. 여기서, AI/ML 모델 성능 피드백을 위한 트리거 조건 정보는 피드백 값에 대한 임계 값(threshold)으로 모델 업데이트 결정에 영향을 주는 값으로 설정될 수 있으나, 특정 실시예로 한정되지 않는다. 또한, AI/ML 모델 성능 피드백을 위한 트리거 조건 정보는 전송 방식에 대한 정보일 수 있다. 일 예로, MPF는 주기적으로 전송될 수 있다. 또 다른 일 예로, MPF는 모델 인퍼런스가 수행될 때마다 전송되도록 설정될 수 있다. 또 다른 일 예로, MPF는 특정 이벤트에 기초하여 비주기적을 전송되도록 설정될 수 있다. 여기서, MPF 전송에 대한 설정 정보는 AI/ML 모델 또는 AI/ML 모델 그룹별로 설정될 수 있다.
또 다른 일 예로, MPF에 대한 설정 정보는 MPF에 영향을 주는 데이터 정보일 수 있다. 구체적인 일 예로, 빔 예측(beam prediction) 또는 CSI 예측(CSI prediction)의 경우, MPF에 영향을 주는 데이터 정보는 빔(CSI-RS/SSB 품질) 및 CSI(e.g. CQI, PMI, RI)에 대한 정보 중 적어도 어느 하나를 포함할 수 있다. 즉, MPF에 영향을 주는 데이터 정보는 MPF를 계산하기 위해 필요한 피라미터를 의미할 수 있고, MPF를 위한 펑션(function) 정보에 해당 정보가 모두 포함될 수 있으며, 특정 실시예로 한정되지 않는다.
Figure PCTKR2022018624-appb-img-000003
도 11은 본 개시에 적용 가능한 MPF 전송을 수행하는 방법을 나타낸 도면이다. 도 11을 참조하면, 단말은 기지국으로부터 트레이닝이 완료된 AI/ML 모델 정보 및 AI/ML 모델에 대한 모델 성능 평가 관련 정보 중 적어도 어느 하나를 수신할 수 있다. (S1110) 일 예로, 단말은 AI/ML 모델 정보를 수신하고, 순차적으로 AI/ML 모델에 대한 모델 성능 평가 관련 정보를 수신할 수 있다. 또 다른 일 예로, 단말은 AI/ML 모델와 함께 모델 성능 평가 관련 정보를 수신할 수 있으며, 특정 실시예로 한정되지 않는다. 단말은 기지국으로부터 수신한 AI/ML 모델 정보에 기초하여 해당 AI/ML 모델에서 모델 인퍼런스를 수행할 수 있다. (S1120) 또한, 단말은 모델 인퍼런스 수행 후 모델 성능(model performance)에 대한 평가를 수행할 수 있다. (S1130) 일 예로, 단말은 모델 인퍼런스를 수행할 때마다 설정된 모델 성능 평가 파라미터를 이용하여 모델 성능 평가를 수행할 수 있다. 즉, 단말은 모델 인퍼런스에 기초하여 모델 성능 평가 피드백(MPF) 값을 생성할 수 있다. 여기서, 단말은 도출된 MPF를 기지국으로 전송할지 여부를 결정할 수 있다. (S1140) 일 예로, MPF 전송은 주기적 전송, 이벤트에 기초한 비주기적 전송 및 MPF 생성시 전송 중 적어도 어느 하나일 수 있으나, 특정 실시예로 한정되지 않는다. 단말이 MPF를 기지국으로 전송하기로 결정한 경우, 단말은 MPF를 기지국으로 전송할 수 있다. (S1150)
여기서, 일 예로, MPF 전송 여부에 대한 결정은 기지국에 의해 설정된 정보를 기반으로 결정될 수 있다. 또 다른 일 예로, MPF 전송 여부에 대한 결정은 단말에서 결정된 이벤트에 기초하여 결정될 수 있다. 또 다른 일 예로, MPF 전송 여부에 대한 결정은 기 설정된 방법에 기초하여 결정될 수 있으며, 이는 하기 표 4와 같을 수 있다. 다만, 이에 한정되는 것은 아닐 수 있다.
Figure PCTKR2022018624-appb-img-000004
단말은 상술한 바에 기초하여 기지국으로 MPF를 전송할 수 있다. 여기서, MPF 전송을 결정하기 위한 요소는 기지국 측에서 모델의 성능 업데이트가 필요하다고 판단하는 데에 영향을 주는 값으로 설정될 수 있으나, 이에 한정되는 것은 아닐 수 있다. 또한, 일 예로, MPF에 포함된 정보는 하기 표 5와 같을 수 있으나, 이에 한정되지는 않는다.
Figure PCTKR2022018624-appb-img-000005
구체적으로, 단말이 기지국으로 전송하는 MPF는 모델 성능 평가 결과 값을 기준으로 기 설정된 값보다 나쁜지 여부를 나타내는 지시자 정보를 포함할 수 있다. 보다 상세하게는, 네트워크 또는 단말에 기초하여 기 설정된 값으로 임계 값이 설정될 수 있다. 모델 성능 평가 결과 값이 임계 값보다 좋은지 또는 나쁜지 여부를 지시하는 지시자 정보가 포함될 수 있다. 여기서, 지시자 정보는 AI/ML 모델(또는 AI/ML 모델 그룹)별로 1비트 정보로 설정될 수 있다. 1비트 정보는 각 AI/ML 모델별 자원 또는 필드를 정의하고, 고정된 자원 또는 필드의 비트를 통해 지시될 수 있다. 일 예로, 1비트 지시 정보가 제1 값(또는 ON/true)인 경우, 기지국은 해당 AI/ML 모델의 성능이 특정 기준점(또는 임계 값)보다 낮음을 인지할 수 있다. 상술한 바를 통해 모델 성능 결과 값이 아닌 최소 정보량을 이용하여 모델 성능 평가에 기초하여 모델 성능이 좋은지 여부를 네트워크로 지시할 수 있다. 여기서, 네트워크는 해당 AI/ML 모델과 관련된 데이터를 기반으로 새롭게 AI/ML 모델 트레이닝을 수행하여 AI/ML 모델 업데이트를 수행하고, 업데이트된 AI/ML 모델을 단말들에게 공유할 수 있다.
또 다른 일 예로, MPF는 모델 성능 평가 값을 포함할 수 있다. 즉, MPF는 모델 성능 평가 값을 온전하게 포함할 수 있다. 또 다른 일 예로, 모델 성능 평가 값은 기 설정된 값(또는 임계 값)과 비교하여 대비 차이 값만으로 전송될 수 있으며, 이에 따라 전송 용량을 줄일 수 있다. 일 예로, 상술한 바에 기초하여 특정 비트(e.g. n비트) 크기의 정보로 표현될 수 있으며, AI/ML 모델별 자원 또는 필드 정의를 통해 고정된 자원 또는 필드의 정보가 기지국으로 전송될 수 있다. 기지국은 해당 AI/ML 모델의 성능 결과 값을 수신하고, 해당 AI/ML 모델의 성능이 나빠졌음을 인지할 수 있다. 즉, 네트워크는 정확한 모델 성능 결과 값을 획득할 수 있으며, 이에 기초하여 AI/ML 모델에 대한 새로운 트레이닝이 필요한지 여부를 결정할 수 있다.
일 예로, 기지국이 AI/ML 모델을 업데이트 하기로 결정한 경우, 기지국은 해당 AI/ML 모델과 관련된 데이터를 기반으로 새롭게 AI/ML 모델 트레이닝을 수행하여 AI/ML 모델을 업데이트할 수 있다. 또한, 기지국은 업데이트된 AI/ML 모델을 단말들에게 공유할 수 있다.
또 다른 일 예로, MPF는 모델 성능 평가에 영향을 준 데이터에 대한 값을 포함할 수 있다. 여기서, 모델 성능 평가에 영향을 준 데이터에 대한 값은 평가 결과에 영향을 주는 데이터 중에서 성능에 직접적인 영향을 준 데이터에 대한 정보일 수 있다. 일 예로, 모델 성능 평가에 영향을 준 데이터에 대한 값은 어떤 파라미터인지에 대한 정보 및 해당 데이터에 대한 값(value) 중 적어도 어느 하나가 포함될 수 있다. 또한, 데이터에 대한 값을 고려하여 양자화(quantization)된 값 또는 차이(differential) 값만을 포함할 수도 있으며, 특정 실시예로 한정되지 않을 수 있다. 여기서, 모델 성능 평가에 영향을 준 데이터에 대한 값은 특정 모델에 대한 정보가 포함되지 않을 수도 있다. 일 예로, 종래 전송되고 있던 데이터인 경우, 모델 성능 평가에 영향을 준 데이터에 대한 값은 데이터에 대한 정보만을 포함할 수 있다. 또 다른 일 예로, 주기적 보고가 없었던 데이터인 경우, 모델 성능 평가에 영향을 준 데이터에 대한 값은 해당 데이터에 대한 값도 함께 전송될 수 있으며, 특정 실시예로 한정되지 않는다.
또한, 일 예로, MPF에 포함된 정보는 하기 표 6에 기초한 방식에 기초하여 전송될 수 있다.
Figure PCTKR2022018624-appb-img-000006
구체적으로, AI/ML 모델별 MPF에 포함된 정보가 전송되는 경우, 단말은 물리(PHY) 제어 정보로 PUCCH(physical uplink control channel) 및 PUSCH(physical uplink shared channel) 중 적어도 어느 하나를 통해 전송을 수행할 수 있다. 여기서, AI/ML 모델별 MPF에 포함된 정보가 전송되는 경우, 해당 AI/ML 모델들에 대응하는 특정 자원이 주기적으로 할당될 수 있다. 이때, PUCCH 자원 및 PUSCH 자원 중 적어도 어느 하나는 단말별 또는 AI/ML 모델별로 단말 특정(UE-specific) 메시지를 통해 지시될 수 있다. 일 예로, MPF가 “성능 나쁨”을 1비트로 지시하는 경우, MPF에 포함된 정보는 물리 제어 채널을 통해 전송될 수 있으나, 이에 한정되는 것은 아닐 수 있다.
또한, 일 예로, MPF에 포함된 정보는 MAC(medium access control) 제어 정보로 새로운 MAC CE(control element)를 통해 업링크 공유 채널(UL-SCH)을 통해 전송될 수 있다. 일 예로, AI/ML 모델별 MPF 전송은 빠른 전송을 요구하지 않을 수 있다. 빠른 보고를 요구하는 정보는 물리 자원을 주기적으로 할당함으로써 정보를 주기적으로 또는 필요할 때 바로 전송하도록 지원함이 유리할 수 있다. 다만, 빠른 보고가 요구되지 않은 경우, MPF에 포함된 정보는 MAC CE를 이용하여 MPF가 생성된 경우에 자원 요청을 통해 기지국으로 전송될 수 있다. 일 예로, 도 12는 본 개시에 적용 가능한 MPF에 포함된 정보가 전송되는 MAC CE 포맷일 수 있다.
구체적으로, 도 12를 참조하면, 도12(a)는 최대 16개의 AI/ML 모델이 설정된 경우를 고려한 포맷일 수 있다. 여기서, MPF는 기 설정된 값과 비교하여 성능이 나쁜지 여부를 지시하는 1비트 지시자일 수 있으며, 각 필드는 1비트 지시 정보에 대응될 수 있다. 일 예로, 제1 값으로 설정된 AI/ML 모델은 성능이 특정 기준 값 이하로 평가됨을 지시할 수 있으나, 이에 한정되는 것은 아닐 수 있다. 또한, 일 예로, 도12(b)는 비트맵 형식의 전송 대신 모델 인덱스를 지시하여 AI/ML 모델 성능이 나쁨으로 평가됨을 기지국으로 지시할 수 있다. 여기서, E 필드를 이용하여 1바이트 정보 이후에 따라오는 추가적인 모델 인덱스 정보의 존재 유무를 지시할 수 있다.
또 다른 일 예로, 도 12(c)는 각 AI/ML 모델에 대한 MPF 값을 함께 전송하는 경우에 사용되는 포맷일 수 있다. 여기서, 모델 인덱스 정보와 함께 해당 AI/ML 모델에 대한 성능 결과 값이 포함되어 전송될 수 있다. 여기서, 특정 AI/ML 모델 및 성능 결과 값에 기초하여 추가적인 정보 유무는 E필드를 통해 지시될 수 있으며, 특정 실시예로 한정되는 것은 아닐 수 있다.
또 다른 일 예로, MPF에 포함된 정보는 RRC 제어 정보로 새로운 RRC 메시지 또는 IE(information element)에 기초하여 업링크 DCCH(dedicated control channel)을 통해 전송될 수 있다. 구체적으로, 새로운 RRC 메시지 또는 새로운 IE는 모델 인덱스 및 MPF 값 중 적어도 어느 하나를 포함할 수 있다. 일 예로, 전송해야 하는 정보량이 많거나 잦은 전송을 요구하지 않은 경우라면 지연에 민감하지 않은 RRC 메시지이 필요할 수 있으나, 이에 한정되는 것은 아닐 수 있다.
또 다른 일 예로, 도 13은 본 개시에 적용 가능한 단말 동작을 나타낸 도면이다. 도 13을 참조하면, 단말(1310)은 AI/ML 모델을 수신하면서 MPF 관련 설정 정보를 수신할 수 있다. 또한, 일 예로, 단말(1310)은 AI/ML 모델을 수신한 후에 MPF 관련 설정 정보를 수신할 수 있다. 여기서, MPF 관련 정보는 단말(1310)이 MPF를 전송하기 위한 자원 정보, AI/ML 모델에 대한 인덱스 정보 및 피드백 전송을 위한 이벤트 정보 중 적어도 어느 하나를 포함할 수 있다. 그 후, 단말(1310)은 모델 인퍼런스를 수행하고, 모델 인퍼런스에 기초한 액션을 수행할 수 있다. 즉, 단말(1310)은 모델 인퍼런스에 의해 도출된 아웃풋 값을 특정 절차(procedure)나 기능(function)에 대한 동작을 수행하도록 하고, 해당 아웃풋에 의한 액션을 수행할 수 있다. 여기서, 액션은 단말(1310)과 네트워크(1320) 사이의 통신에 기초한 동작일 수 있으며, 특정 형태로 한정되는 것은 아닐 수 있다. 그 후, 단말(1310)은 모델 인퍼런스에 따라 수행된 액션의 결과로 AI/ML 모델에 대한 성능 평가를 수행할 수 있다. 이때, 단말(1310)은 AI/ML 모델 관련 정보를 통해 설정된 이벤트 정보에 기초하여 AI/ML 모델 성능이 기준 값(또는 임계 값)을 만족하는지 여부를 판단할 수 있다. 일 예로, AI/ML 모델 성능이 기준 값을 만족하여 성능 좋음으로 결정된 경우, 단말(1310)은 네트워크(1320)로 MPF 정보를 전송하지 않을 수 있다.
반면, AI/ML 모델 성능이 기준 값(또는 임계 값)을 만족하지 못하여 성능 나쁨으로 결정된 경우, 단말(1310)은 AI/ML 모델 MPF 관련 정보를 기반으로 MPF를 네트워크(1320)로 전송할 수 있다.
여기서, 일 예로, MPF에 대한 구체적인 파라미터는 하기 표 7과 같을 수 있다. 다만, 이는 하나의 일 예일 뿐, 상술한 실시예로 한정되지 않는다. 구체적으로, MPF에 대한 파라미터로 각 AI/ML 모델에 대한 예측 정확도(prediction accuracy)가 설정될 수 있다. 여기서, 예측 정확도는 AI/ML 모델 특정 예측 정확도(prediction accuracy)일 수 있다. 일 예로, 예측 정확도는 빔 예측(beam prediction), 궤적 예측(trajectory prediction), 로드 예측(load prediction), CSI 예측(CSI prediction), 위치 예측(location prediction) 및 그 밖의 예측에 대한 값 중 적어도 어느 하나를 포함할 수 있으며, 특정 형태로 한정되는 것은 아닐 수 있다. 또 다른 일 예로, MPF에 대한 파라미터로 CSI 피드백(e.g., CQI, CRI/SSBRI+RSRP, PMI)가 설정될 수 있다. 또 다른 일 예로, MPF에 대한 파라미터로 측정 값들(e.g., RSRP/RSRQ/SINR for a cell or SSB/CSI-RS)이 설정될 수 있으며, 특정 실시예로 한정되지 않는다.
Figure PCTKR2022018624-appb-img-000007
여기서, 일 예로, 도 14는 본 개시에 적용 가능한 빔 예측에 기초한 단말 동작을 나타낸 도면이다. 도 14를 참조하면, 단말(1410)은 네트워크(1420)로부터 AI/ML 모델 MPF 관련 정보를 AI/ML 모델과 함께 또는 AI/ML 모델 수신 후에 수신할 수 있으며, 이는 상술한 바와 같다. 여기서, AI/ML 모델에 대한 MPF 관련 정보에는 빔 품질 예측 정확도에 대한 정보가 포함될 수 있다. 일 예로, 네트워크(1420)는 단말(1410)에게 빔 예측 모델에 기초하여 빔 예측 정확도가 90% 이하인 경우에만 MPF를 전송할 것을 AI/ML 모델 MPF 관련 메시지를 통해 설정할 수 있으나, 이에 한정되는 것은 아닐 수 있다.
그 후, 단말(1410)은 수신한 AI/ML 모델에 따라 빔들에 대한 예측된 RSRP(Reference Signal Received Power)를 아웃풋으로 도출할 수 있다. 단말(1410)은 아웃풋 정보에 기초하여 가장 높은 RSRP를 가지는 빔(들)에 대한 정보를 네트워크(1420)로 알릴 수 있다. 그 후, 네트워크(1420)는 예측 값을 이용하여 빔 변경을 수행할 수 있다. 즉, 단말(1410)과 네트워크(1420)은 모델 인퍼런스에 기초하여 액션을 수행할 수 있다.
그 후, 단말(1410)은 빔이 변경된 시점에 실제 빔들에 대한 실측 RSRP와 이전에 예측된 RSRP 비교를 통해 AI/ML 모델의 성능을 평가할 수 있다. 일 예로, 예측 정확도가 90%이상인 경우, 단말(1410)은 MPF 전송 없이 다음 모델 인퍼런스를 해당 AI/ML 모델을 이용하여 수행할 수 있다. 즉, 기 설정된 값(또는 임계 값)은 90%일 수 있다. 반면, 모델 성능 평가 결과 정확도가 90% 이하인 경우, 단말(1410)은 AI/ML 모델에 대한 MPF를 네트워크(1420)로 전송할 수 있다. 그 후, 네트워크(1420)는 수신한 MPF를 기반으로 AI/ML 모델을 업데이트하고, 업데이트된 AI/ML 모델 정보를 단말(1410)로 제공할 수 있다.
도 15는 본 개시에 적용 가능한 단말 동작을 나타낸 순서도이다.
도 15를 참조하면, 단말은 AI/ML 모델 정보 및 AI/ML 모델의 MPF 관련 정보 중 적어도 어느 하나를 수신할 수 있다.(S1510) 일 예로, 단말은 AI/ML 모델 정보 수신한 후에 AI/ML 모델의 MPF 관련 정보를 획득할 수 있다. 또 다른 일 예로, 단말은 AI/ML 모델 정보와 함께 AI/ML 모델의 MPF 관련 정보를 획득할 수 있으며, 이는 상술한 바와 같다. 그 후, 단말은 AI/ML 모델에 기초하여 모델 인퍼런스를 수행할 수 있다.(S1520) 그 후, 모델 인퍼런스에 기초하여 모델 성능 평가 결과 값을 도출하고, 이에 기초하여 MPF 전송 여부를 결정할 수 있다.(S1530) 여기서, MPF 관련 정보는 AI/ML 모델의 MPF 파라미터 정보, MPF 트리거링 조건 정보 및 MPF 관련 데이터 정보 중 적어도 어느 하나를 포함할 수 있다. 일 예로, MPF 파라미터는 적어도 하나 이상의 AI/ML 모델에서 동일하게 설정되거나 각각의 AI/ML 모델별로 상이하게 설정될 수 있으며, 이는 상술한 바와 같다. 또한, 일 예로, MPF 파라미터 정보에는 AI/ML 모델의 예측 정확도 정보, CSI 피드백 정보 및 측정 값들에 대한 정보 중 적어도 어느 하나가 포함될 수 있다.
여기서, 구체적인 일 예로, AI/ML 모델에 기초하여 빔 예측을 수행하는 경우, 단말은 MPF 파라미터 정보에 포함된 빔 품질 예측 정확도 정보를 획득할 수 있다. 이때, 빔 품질 예측 정확도 정보는 기지국으로 MPF를 전송할지 여부를 결정하기 위한 기 설정된 빔 품질 예측 정확도 값을 포함할 수 있다. 그 후, 단말은 AI/ML 모델에 기초하여 모델 인퍼런스를 통해 적어도 하나 이상의 빔들에 대한 RSRP 예측을 수행하여 RSRP가 가장 높은 빔을 기지국으로 보고할 수 있다. 그 후, 기지국은 빔을 변경할 수 있다. 즉, 단말과 기지국은 모델 인퍼런스에 기초하여 액션을 수행할 수 있다. 여기서, 단말은 모델 성능 평가 결과 값으로 적어도 하나 이상의 빔들에 대한 실제 측정된 RSRP와 적어도 하나 이상의 빔들에 대한 RSRP 예측을 비교할 수 있다. 이때, 상술한 값이 빔 품질 예측 정확도 값보다 크거나 같은지 여부에 기초하여 MPF를 기지국으로 전송할지 여부를 결정할 수 있다.
또 다른 일 예로, 상술한 MPF 트리거링 조건 정보는 임계 값 정보 및 전송 방식 정보 중 적어도 어느 하나를 포함할 수 있다. 여기서, 임계 값 정보는 피드백 값에 대한 임계 값 및 AI/ML 모델의 업데이트 결정 관련 임계 값 중 적어도 어느 하나를 포함할 수 있다. 또한, 전송 방식 정보는 AI/ML 모델의 MPF 전송 방식을 지시하되, MPF는 주기적 전송, 이벤트에 기초한 비주기적 전송 및 모델 인퍼런스 수행 시점 전송 중 적어도 어느 하나에 기초하여 전송될 수 있다. 또한, 단말은 AI/ML 모델 정보의 모델 인퍼린스에 대한 아웃풋에 기초하여 액션을 수행하고, 아웃풋 및 액션에 기초하여 모델 성능 평가를 수행할 수 있다. 여기서, 단말이 모델 성능 평가에 기초하여 AI/ML 모델의 MPF를 전송하지 않기로 한 경우, 단말은 AI/ML 모델의 모델 인퍼런스에 기초하여 아웃풋을 생성하여 액션을 수행할 수 있다. 반면, 단말이 모델 성능 평가에 기초하여 AI/ML 모델의 MPF를 전송하기로 한 경우, 단말은 기지국에서 업데이트된 AI/ML 모델 정보를 수신하고, 업데이트된 AI/ML 모델에 기초하여 아웃풋을 생성하여 액션을 수행할 수 있다. 즉, 단말은 업데이트된 AI/ML 모델을 통해 모델 인퍼런스를 수행할 수 있다.
또한, 일 예로, AI/ML 모델의 MPF에 대한 전송 여부는 기지국에 의해 설정된 이벤트, 단말에 의해 설정된 이벤트 및 기 설정된 이벤트 중 적어도 어느 하나에 기초하여 결정될 수 있다.
또한, MPF에 대한 전송이 결정된 경우, MPF는 각각의 AI/ML 모델별로 성능 상태를 지시하는 1비트 지시 정보, AI/ML 모델의 모델 성능 평가 결과 값 및 모델 성능 평가 관련 데이터 값 중 적어도 어느 하나를 포함할 수 있다. 여기서, MPF에 각각의 AI/ML 모델별로 성능 상태를 지시하는 1비트 지시 정보가 포함되는 경우, 모델 인퍼런스에 기초하여 모델 성능 평가 결과 값과 임계 값 비교에 기초하여 AI/ML 모델별로 성능 상태를 지시하는 1비트 지시 정보가 결정되어 MPF에 포함될 수 있다. 또한, MPF에 각각의 AI/ML 모델의 모델 성능 평가 결과 값이 포함되는 경우, MPF는 모델 성능 평가 결과 값 또는 모델 성능 평가 결과 값과 기 설정된 값의 차이에 대한 값 중 어느 하나를 포함할 수 있다.
또한, 일 예로, AI/ML 모델의 MPF가 기지국으로 전송되는 것으로 결정된 경우, MPF는 PUCCH 및 PUSCH 중 적어도 어느 하나를 통해 지시될 수 있다. 또 다른 일 예로, AI/ML 모델의 MPF가 기지국으로 전송되는 것으로 결정된 경우, MPF는 MAC CE에 포함되어 전송될 수 있다. 또 다른 일 예로, AI/ML 모델의 MPF가 기지국으로 전송되는 것으로 결정된 경우, MPF는 RRC 메시지에 기초하여 업링크 지정 제어 채널을 통해 전송될 수 있다.
도 16은 본 개시에 적용 가능한 단말 동작을 나타낸 순서도이다.
도 16을 참조하면, 기지국은 AI/ML 모델 정보 및 AI/ML 모델의 MPF 관련 정보 중 적어도 어느 하나를 전송할 수 있다.(S1610) 일 예로, 기지국은 AI/ML 모델 정보 전송 후에 AI/ML 모델의 MPF 관련 정보를 추가로 전송할 수 있다. 또 다른 일 예로, 기지국은 AI/ML 모델 정보와 함께 AI/ML 모델의 MPF 관련 정보를 전송할 수 있으며, 이는 상술한 바와 같다. 그 후, 기지국은 단말의 모델 인퍼런스 수행 결과에 기초하여 액션을 수행할 수 있다.(1620) 그 후, 단말은 모델 인퍼런스에 기초하여 모델 성능 평가 결과 값을 도출하고, 이에 기초하여 MPF 전송 여부를 결정할 수 있다. 일 예로, 단말이 모델 성능 평가 결과 값을 도출하여 MPF 전송을 결정한 경우, 기지국은 단말로부터 MPF를 수신할 수 있다.(S1630) 여기서, MPF 관련 정보는 AI/ML 모델의 MPF 파라미터 정보, MPF 트리거링 조건 정보 및 MPF 관련 데이터 정보 중 적어도 어느 하나를 포함할 수 있다. 일 예로, MPF 파라미터는 적어도 하나 이상의 AI/ML 모델에서 동일하게 설정되거나 각각의 AI/ML 모델별로 상이하게 설정될 수 있으며, 이는 상술한 바와 같다. 또한, 일 예로, MPF 파라미터 정보에는 AI/ML 모델의 예측 정확도 정보, CSI 피드백 정보 및 측정 값들에 대한 정보 중 적어도 어느 하나가 포함될 수 있다.
여기서, 구체적인 일 예로, AI/ML 모델에 기초하여 빔 예측을 수행하는 경우, 단말은 기지국으로부터 MPF 파라미터 정보에 포함된 빔 품질 예측 정확도 정보를 획득할 수 있다. 이때, 빔 품질 예측 정확도 정보는 기지국으로 MPF를 전송할지 여부를 결정하기 위한 기 설정된 빔 품질 예측 정확도 값을 포함할 수 있다. 그 후, 단말은 AI/ML 모델에 기초하여 모델 인퍼런스를 통해 적어도 하나 이상의 빔들에 대한 RSRP 예측을 수행하여 RSRP가 가장 높은 빔을 기지국으로 보고할 수 있다. 그 후, 기지국은 빔을 변경할 수 있다. 즉, 단말과 기지국은 모델 인퍼런스에 기초하여 액션을 수행할 수 있다. 여기서, 단말은 모델 성능 평가 결과 값으로 적어도 하나 이상의 빔들에 대한 실제 측정된 RSRP와 적어도 하나 이상의 빔들에 대한 RSRP 예측을 비교할 수 있다. 이때, 상술한 값이 빔 품질 예측 정확도 값보다 크거나 같은지 여부에 기초하여 MPF를 기지국으로 전송할지 여부를 결정할 수 있다.
또 다른 일 예로, 상술한 MPF 트리거링 조건 정보는 임계 값 정보 및 전송 방식 정보 중 적어도 어느 하나를 포함할 수 있다. 여기서, 임계 값 정보는 피드백 값에 대한 임계 값 및 AI/ML 모델의 업데이트 결정 관련 임계 값 중 적어도 어느 하나를 포함할 수 있다. 또한, 전송 방식 정보는 AI/ML 모델의 MPF 전송 방식을 지시하되, MPF는 주기적 전송, 이벤트에 기초한 비주기적 전송 및 모델 인퍼런스 수행 시점 전송 중 적어도 어느 하나에 기초하여 전송될 수 있다. 또한, 단말은 AI/ML 모델 정보의 모델 인퍼린스에 대한 아웃풋에 기초하여 액션을 수행하고, 아웃풋 및 액션에 기초하여 모델 성능 평가를 수행할 수 있다. 여기서, 단말이 모델 성능 평가에 기초하여 AI/ML 모델의 MPF를 전송하지 않기로 한 경우, 단말은 AI/ML 모델의 모델 인퍼런스에 기초하여 아웃풋을 생성하여 액션을 수행할 수 있다. 반면, 단말이 모델 성능 평가에 기초하여 AI/ML 모델의 MPF를 전송하기로 한 경우, 단말은 기지국에서 업데이트된 AI/ML 모델 정보를 수신하고, 업데이트된 AI/ML 모델에 기초하여 아웃풋을 생성하여 액션을 수행할 수 있다. 즉, 단말은 업데이트된 AI/ML 모델을 통해 모델 인퍼런스를 수행할 수 있다.
또한, 일 예로, AI/ML 모델의 MPF에 대한 전송 여부는 기지국에 의해 설정된 이벤트, 단말에 의해 설정된 이벤트 및 기 설정된 이벤트 중 적어도 어느 하나에 기초하여 결정될 수 있다.
또한, MPF에 대한 전송이 결정된 경우, MPF는 각각의 AI/ML 모델별로 성능 상태를 지시하는 1비트 지시 정보, AI/ML 모델의 모델 성능 평가 결과 값 및 모델 성능 평가 관련 데이터 값 중 적어도 어느 하나를 포함할 수 있다. 여기서, MPF에 각각의 AI/ML 모델별로 성능 상태를 지시하는 1비트 지시 정보가 포함되는 경우, 모델 인퍼런스에 기초하여 모델 성능 평가 결과 값과 임계 값 비교에 기초하여 AI/ML 모델별로 성능 상태를 지시하는 1비트 지시 정보가 결정되어 MPF에 포함될 수 있다. 또한, MPF에 각각의 AI/ML 모델의 모델 성능 평가 결과 값이 포함되는 경우, MPF는 모델 성능 평가 결과 값 또는 모델 성능 평가 결과 값과 기 설정된 값의 차이에 대한 값 중 어느 하나를 포함할 수 있다.
또한, 일 예로, AI/ML 모델의 MPF가 기지국으로 전송되는 것으로 결정된 경우, MPF는 PUCCH 및 PUSCH 중 적어도 어느 하나를 통해 지시될 수 있다. 또 다른 일 예로, AI/ML 모델의 MPF가 기지국으로 전송되는 것으로 결정된 경우, MPF는 MAC CE에 포함되어 전송될 수 있다. 또 다른 일 예로, AI/ML 모델의 MPF가 기지국으로 전송되는 것으로 결정된 경우, MPF는 RRC 메시지에 기초하여 업링크 지정 제어 채널을 통해 전송될 수 있다.
상기 설명한 제안 방식에 대한 일례들 또한 본 개시의 구현 방법들 중 하나로 포함될 수 있으므로, 일종의 제안 방식들로 간주될 수 있음은 명백한 사실이다. 또한, 상기 설명한 제안 방식들은 독립적으로 구현될 수도 있지만, 일부 제안 방식들의 조합 (또는 병합) 형태로 구현될 수도 있다. 상기 제안 방법들의 적용 여부 정보 (또는 상기 제안 방법들의 규칙들에 대한 정보)는 기지국이 단말에게 사전에 정의된 시그널 (예: 물리 계층 시그널 또는 상위 계층 시그널)을 통해서 알려주도록 규칙이 정의될 수 가 있다.
본 개시는 본 개시에서 서술하는 기술적 아이디어 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 개시의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 개시의 등가적 범위 내에서의 모든 변경은 본 개시의 범위에 포함된다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시 예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.
본 개시의 실시 예들은 다양한 무선접속 시스템에 적용될 수 있다. 다양한 무선접속 시스템들의 일례로서, 3GPP(3rd Generation Partnership Project) 또는 3GPP2 시스템 등이 있다.
본 개시의 실시 예들은 상기 다양한 무선접속 시스템뿐 아니라, 상기 다양한 무선접속 시스템을 응용한 모든 기술 분야에 적용될 수 있다. 나아가, 제안한 방법은 초고주파 대역을 이용하는 mmWave, THz 통신 시스템에도 적용될 수 있다.
추가적으로, 본 개시의 실시예들은 자유 주행 차량, 드론 등 다양한 애플리케이션에도 적용될 수 있다.

Claims (19)

  1. 무선 통신 시스템에서 단말 동작 방법에 있어서,
    상기 단말이 기지국으로부터 동기 신호를 수신하는 단계;
    상기 동기 신호에 기초하여 상기 기지국으로 랜덤 액세스 프리앰블을 전송하는 단계;
    상기 랜덤 액세스 프리앰블에 기초하여 랜덤 액세스 응답을 수신하는 단계;
    상기 랜덤 액세스 응답 수신 후 상기 기지국과 연결을 수행하는 단계;
    상기 기지국으로부터 AI(artificial intelligence)/ML(machine learning) 모델 정보 및 AI/ML 모델에 대한 모델 성능 피드백(model performance feedback, MPF) 관련 정보 중 적어도 어느 하나를 수신하는 단계; 및
    상기 AI/ML 모델 정보에 기초하여 AI/ML 모델에서 모델 인퍼런스를 수행하고, 모델 성능 평가를 통해 상기 AI/ML 모델의 MPF를 상기 기지국으로 전송할지 여부를 결정하는 단계를 포함하는, 단말 동작 방법.
  2. 제1 항에 있어서,
    상기 MPF 관련 정보는 상기 AI/ML 모델의 MPF 파라미터 정보, MPF 트리거링 조건 정보 및 MPF 관련 데이터 정보 중 적어도 어느 하나를 포함하는, 단말 동작 방법.
  3. 제2 항에 있어서,
    MPF 파라미터는 적어도 하나 이상의 AI/ML 모델에서 동일하게 설정되는, 단말 동작 방법.
  4. 제2 항에 있어서,
    상기 MPF 파라미터 정보에는 AI/ML 모델의 예측 정확도 정보, CSI(channel state information) 피드백 정보 및 측정 값들에 대한 정보 중 적어도 어느 하나가 포함되는, 단말 동작 방법.
  5. 제4 항에 있어서,
    상기 AI/ML 모델에 기초하여 빔 예측을 수행하는 경우, 상기 단말은 상기 MPF 파라미터 정보에 포함된 빔 품질 예측 정확도 정보를 획득하되,
    상기 빔 품질 예측 정확도 정보는 상기 기지국으로 상기 MPF를 전송할지 여부를 결정하기 위한 기 설정된 빔 품질 예측 정확도 값을 포함하고,
    상기 단말은 상기 AI/ML 모델에 기초하여 상기 모델 인퍼런스를 통해 적어도 하나 이상의 빔들에 대한 RSRP(reference signal received power) 예측을 수행하여 RSRP가 가장 높은 빔을 상기 기지국으로 보고하여 빔을 변경하고,
    상기 적어도 하나 이상의 빔들에 대한 실제 측정된 RSRP와 상기 적어도 하나 이상의 빔들에 대한 상기 RSRP 예측을 비교한 값이 상기 빔 품질 예측 정확도 값보다 크거나 같은지 여부에 기초하여 상기 MPF를 상기 기지국으로 전송할지 여부를 결정하는, 단말 동작 방법.
  6. 제2 항에 있어서,
    상기 MPF 트리거링 조건 정보는 임계 값 정보 및 전송 방식 정보 중 적어도 어느 하나를 포함하되,
    상기 임계 값 정보는 피드백 값에 대한 임계 값 및 상기 AI/ML 모델의 업데이트 결정 관련 임계 값 중 적어도 어느 하나를 포함하고,
    상기 전송 방식 정보는 상기 AI/ML 모델의 상기 MPF 전송 방식을 지시하되, 상기 MPF는 주기적 전송, 이벤트에 기초한 비주기적 전송 및 모델 인퍼런스 수행 시점 전송 중 적어도 어느 하나에 기초하여 전송되는, 단말 동작 방법.
  7. 제1 항에 있어서,
    상기 단말은 상기 AI/ML 모델 정보의 상기 모델 인퍼린스에 대한 아웃풋에 기초하여 액션을 수행하고, 상기 아웃풋 및 상기 액션에 기초하여 상기 모델 성능 평가를 수행하되,
    상기 모델 성능 평가에 기초하여 상기 AI/ML 모델의 상기 MPF를 전송하지 않기로 한 경우, 상기 단말은 상기 AI/ML 모델의 상기 모델 인퍼런스에 기초하여 아웃풋을 생성하여 액션을 수행하고,
    상기 모델 성능 평가에 기초하여 상기 AI/ML 모델의 상기 MPF를 전송하기로 한 경우, 상기 단말은 상기 기지국에서 업데이트된 상기 AI/ML 모델 정보를 수신하고, 상기 업데이트된 AI/ML 모델에 기초하여 아웃풋을 생성하여 액션을 수행하는, 단말 동작 방법.
  8. 제7 항에 있어서,
    상기 AI/ML 모델의 상기 MPF에 대한 전송 여부는 상기 기지국에 의해 설정된 이벤트, 단말에 의해 설정된 이벤트 및 기 설정된 이벤트 중 적어도 어느 하나에 기초하여 결정되는, 단말 동작 방법.
  9. 제8 항에 있어서,
    상기 MPF에 대한 전송이 결정된 경우, 상기 MPF는 각각의 상기 AI/ML 모델별로 성능 상태를 지시하는 1비트 지시 정보, 상기 AI/ML 모델의 모델 성능 평가 결과 값 및 모델 성능 평가 관련 데이터 값 중 적어도 어느 하나를 포함하는, 단말 동작 방법.
  10. 제9 항에 있어서,
    상기 MPF에 각각의 상기 AI/ML 모델별로 성능 상태를 지시하는 1비트 지시 정보가 포함되는 경우, 상기 모델 인퍼런스에 기초하여 상기 모델 성능 평가 결과 값과 임계 값 비교에 기초하여 상기 AI/ML 모델별로 성능 상태를 지시하는 1비트 지시 정보가 결정되어 상기 MPF에 포함되는, 단말 동작 방법.
  11. 제9 항에 있어서,
    상기 MPF에 각각의 상기 AI/ML 모델의 모델 성능 평가 결과 값이 포함되는 경우, 상기 MPF는 상기 모델 성능 평가 결과 값 또는 상기 모델 성능 평가 결과 값과 기 설정된 값의 차이에 대한 값 중 어느 하나를 포함하는, 단말 동작 방법.
  12. 제1 항에 있어서,
    상기 AI/ML 모델의 상기 MPF가 상기 기지국으로 전송되는 것으로 결정된 경우, 상기 MPF는 PUCCH(physical uplink control channel) 및 PUSCH(physical uplink shared channel) 중 적어도 어느 하나를 통해 지시되는, 단말 동작 방법.
  13. 제1 항에 있어서,
    상기 AI/ML 모델의 상기 MPF가 상기 기지국으로 전송되는 것으로 결정된 경우, 상기 MPF는 MAC(medium access control) CE(control element)에 포함되어 전송되는, 단말 동작 방법.
  14. 제1 항에 있어서,
    상기 AI/ML 모델의 상기 MPF가 상기 기지국으로 전송되는 것으로 결정된 경우, 상기 MPF는 RRC(radio resource control) 메시지에 기초하여 업링크 지정 제어 채널(uplink-dedicated control channel)을 통해 전송되는, 단말 동작 방법.
  15. 무선 통신 시스템에서 기지국 동작 방법에 있어서,
    단말로 동기 신호를 전송하는 단계;
    상기 동기 신호에 기초하여 상기 단말로부터 랜덤 액세스 프리앰블을 수신하는 단계;
    상기 단말로 상기 랜덤 액세스 프리앰블에 기초하여 랜덤 액세스 응답을 전송하는 단계; 및
    상기 랜덤 액세스 응답 수신 후 상기 단말과 연결을 수행하는 단계;
    상기 단말로 AI(artificial intelligence)/ML(machine learning) 모델 정보 및 AI/ML 모델에 대한 모델 성능 피드백(model performance feedback, MPF) 관련 정보 중 적어도 어느 하나를 전송하는 단계를 포함하되,
    상기 단말은 상기 AI/ML 모델 정보에 기초하여 AI/ML 모델에서 모델 인퍼런스를 수행하고, 모델 성능 평가를 통해 상기 AI/ML 모델의 MPF를 상기 기지국으로 전송할지 여부를 결정하는, 기지국 동작 방법.
  16. 무선 통신 시스템의 단말에 있어서,
    송수신기; 및
    상기 송수신기와 연결된 프로세서를 포함하고,
    상기 프로세서는,
    상기 단말이 기지국으로부터 동기 신호를 수신하도록 상기 송수신기를 제어하고,
    상기 동기 신호에 기초하여 상기 기지국으로 랜덤 액세스 프리앰블을 전송하도록 상기 송수신기를 제어하고,
    상기 랜덤 액세스 프리앰블에 기초하여 랜덤 액세스 응답을 수신하도록 상기 송수신기를 제어하고,
    상기 랜덤 액세스 응답 수신 후 상기 기지국과 연결을 수행하고,
    상기 기지국으로부터 AI(artificial intelligence)/ML(machine learning) 모델 정보 및 AI/ML 모델에 대한 모델 성능 피드백(model performance feedback, MPF) 관련 정보 중 적어도 어느 하나를 수신하도록 상기 송수신기를 제어하고,
    상기 AI/ML 모델 정보에 기초하여 AI/ML 모델에서 모델 인퍼런스를 수행하고, 모델 성능 평가를 통해 상기 AI/ML 모델의 MPF를 상기 기지국으로 전송할지 여부를 결정하는, 단말.
  17. 무선 통신 시스템의 기지국에 있어서,
    송수신기; 및
    상기 송수신기와 연결된 프로세서를 포함하고,
    상기 프로세서는,
    단말로 동기 신호를 전송하도록 상기 송수신기를 제어하고,
    상기 동기 신호에 기초하여 상기 단말로부터 랜덤 액세스 프리앰블을 수신하도록 상기 송수신기를 제어하고,
    상기 단말로 상기 랜덤 액세스 프리앰블에 기초하여 랜덤 액세스 응답을 전송하도록 상기 송수신기를 제어하고,
    상기 랜덤 액세스 응답 수신 후 상기 단말과 연결을 수행하고, 및
    상기 단말로 AI(artificial intelligence)/ML(machine learning) 모델 정보 및 AI/ML 모델에 대한 모델 성능 피드백(model performance feedback, MPF) 관련 정보 중 적어도 어느 하나를 전송하도록 상기 송수신기를 제어하되,
    상기 단말은 상기 AI/ML 모델 정보에 기초하여 AI/ML 모델에서 모델 인퍼런스를 수행하고, 모델 성능 평가를 통해 상기 AI/ML 모델의 MPF를 상기 기지국으로 전송할지 여부를 결정하는, 기지국.
  18. 적어도 하나의 메모리 및 상기 적어도 하나의 메모리들과 기능적으로 연결되어 있는 적어도 하나의 프로세서를 포함하는 장치에 있어서,
    상기 적어도 하나의 프로세서는 상기 장치가,
    기지국으로부터 동기 신호를 수신하도록 상기 장치를 제어하고,
    상기 동기 신호에 기초하여 상기 기지국으로 랜덤 액세스 프리앰블을 전송하도록 상기 장치를 제어하고,
    상기 랜덤 액세스 프리앰블에 기초하여 랜덤 액세스 응답을 수신하도록 상기 장치를 제어하고,
    상기 랜덤 액세스 응답 수신 후 상기 기지국과 연결을 수행하도록 상기 장치를 제어하고,
    상기 기지국으로부터 AI(artificial intelligence)/ML(machine learning) 모델 정보 및 AI/ML 모델에 대한 모델 성능 피드백(model performance feedback, MPF) 관련 정보 중 적어도 어느 하나를 수신하도록 상기 장치를 제어하고,
    상기 AI/ML 모델 정보에 기초하여 AI/ML 모델에서 모델 인퍼런스를 수행하고, 모델 성능 평가를 통해 상기 AI/ML 모델의 MPF를 상기 기지국으로 전송할지 여부를 결정하도록 상기 장치를 제어하는, 장치.
  19. 적어도 하나의 명령어(instructions)을 저장하는 비-일시적인(non-transitory) 컴퓨터 판독 가능 매체(computer-readable medium)에 있어서,
    프로세서에 의해 실행 가능한(executable) 상기 적어도 하나의 명령어를 포함하며,
    상기 적어도 하나의 명령어는,
    기지국으로부터 동기 신호를 수신하도록 제어하고,
    상기 동기 신호에 기초하여 상기 기지국으로 랜덤 액세스 프리앰블을 전송하도록 제어하고,
    상기 랜덤 액세스 프리앰블에 기초하여 랜덤 액세스 응답을 수신하도록 제어하고,
    상기 랜덤 액세스 응답 수신 후 상기 기지국과 연결을 수행하도록 제어하고,
    상기 기지국으로부터 AI(artificial intelligence)/ML(machine learning) 모델 정보 및 AI/ML 모델에 대한 모델 성능 피드백(model performance feedback, MPF) 관련 정보 중 적어도 어느 하나를 수신하도록 제어하고,
    상기 AI/ML 모델 정보에 기초하여 AI/ML 모델에서 모델 인퍼런스를 수행하고, 모델 성능 평가를 통해 상기 AI/ML 모델의 MPF를 상기 기지국으로 전송할지 여부를 결정하도록 제어하는, 컴퓨터 판독 가능 매체.
PCT/KR2022/018624 2021-11-30 2022-11-23 무선 통신 시스템에서 통신을 수행하는 방법 및 장치 WO2023101304A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0169081 2021-11-30
KR20210169081 2021-11-30

Publications (1)

Publication Number Publication Date
WO2023101304A1 true WO2023101304A1 (ko) 2023-06-08

Family

ID=86612715

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/018624 WO2023101304A1 (ko) 2021-11-30 2022-11-23 무선 통신 시스템에서 통신을 수행하는 방법 및 장치

Country Status (1)

Country Link
WO (1) WO2023101304A1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101482498B1 (ko) * 2008-01-11 2015-01-13 엘지전자 주식회사 무선통신 시스템에서 랜덤 액세스 과정 수행 방법
US20210274361A1 (en) * 2019-05-31 2021-09-02 At&T Intellectual Property I, L.P. Machine learning deployment in radio access networks

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101482498B1 (ko) * 2008-01-11 2015-01-13 엘지전자 주식회사 무선통신 시스템에서 랜덤 액세스 과정 수행 방법
US20210274361A1 (en) * 2019-05-31 2021-09-02 At&T Intellectual Property I, L.P. Machine learning deployment in radio access networks

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DEUTSCHE TELEKOM (MODERATOR): "CB: # AIRAN1_Framework - Summary of email discussion", 3GPP TSG-RAN3 MEETING #114-E, R3-215908, 9 November 2021 (2021-11-09), XP052082731 *
LENOVO, MOTOROLA MOBILITY: "Summary of offline discussion on AI RAN general framework", 3GPP TSG-RAN WG3 #113E, R3-214220, 24 August 2021 (2021-08-24), XP052043385 *
NEC: "Proposed TP to TR 37.817 on high-level principles and functional framework", 3GPP TSG-RAN WG3 #113-E, R3-213294, 6 August 2021 (2021-08-06), XP052035218 *

Similar Documents

Publication Publication Date Title
WO2020091527A1 (en) Signal transmission method, apparatus, electronic device and computer readable storage medium
WO2022186657A1 (en) Method and apparatus for support of machine learning or artificial intelligence techniques in communication systems
WO2021066451A1 (ko) 무선통신시스템에서 2nd stage SCI 관련 UE의 동작 방법
WO2019245304A1 (en) Method and apparatus for performing conditional cell change based on channel occupancy in wireless communication system
WO2022186659A1 (en) Method and apparatus for channel estimation and mobility enhancements in wireless communication system
WO2022191493A1 (en) Method and apparatus for support of machine learning or artificial intelligence techniques for handover management in communication systems
WO2022080702A1 (ko) 무선통신시스템에서 사이드링크 릴레이 및 rlf에 관련된 ue의 동작 방법
WO2020105833A1 (ko) 차세대 통신 시스템에서 릴레이 노드를 위한 자원 할당 방법 및 이를 위한 장치
EP4295510A1 (en) Method and apparatus for channel environment classification in wireless network system
WO2020197125A1 (en) Method and apparatus for performing measurement in wireless communication system
WO2022025667A1 (ko) 무선통신시스템에서 bwp에 관련된 릴레이 ue의 동작 방법
WO2023017881A1 (ko) 무선 통신 시스템에서 측정 갭을 이용한 측정 결과에 기반하여 핸드오버를 수행하기 위한 장치 및 방법
WO2023101304A1 (ko) 무선 통신 시스템에서 통신을 수행하는 방법 및 장치
WO2019225914A1 (en) Method and apparatus for handling strongest cell not supporting selected core network in wireless communication system
WO2022139230A1 (ko) 무선 통신 시스템에서 스플릿 포인트를 조정하는 방법 및 장치
US20240073732A1 (en) Method and device for adjusting split point in wireless communication system
WO2022065665A1 (ko) 무선 통신 시스템에서 빔 관리 방법 및 장치
WO2023101303A1 (ko) 무선 통신 시스템에서 통신을 수행하는 방법 및 장치
WO2020071880A1 (en) Enhancement of paging procedure
WO2023017882A1 (ko) 무선 통신 시스템에서 배터리 효율을 고려하여 무선 접속 기술을 선택하기 위한 장치 및 방법
WO2023013857A1 (ko) 무선 통신 시스템에서 데이터 학습을 수행하는 방법 및 장치
WO2024010103A1 (ko) 무선 통신 시스템에서 자원 요청을 수행하는 방법 및 장치
WO2024048803A1 (ko) 무선 통신 시스템에서 불연속 수신 동작에 관련된 파라미터를 설정하기 위한 장치 및 방법
WO2023058872A1 (ko) 무선 통신 시스템에서 위치에 기반하여 핸드오버를 수행하기 위한 장치 및 방법
WO2023277218A1 (ko) 무선 통신 시스템에서 반사판을 통해 신호를 전송하는 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22901662

Country of ref document: EP

Kind code of ref document: A1