WO2022124729A1 - 무선 통신 시스템에서 신호 전송을 위한 장치 및 방법 - Google Patents

무선 통신 시스템에서 신호 전송을 위한 장치 및 방법 Download PDF

Info

Publication number
WO2022124729A1
WO2022124729A1 PCT/KR2021/018356 KR2021018356W WO2022124729A1 WO 2022124729 A1 WO2022124729 A1 WO 2022124729A1 KR 2021018356 W KR2021018356 W KR 2021018356W WO 2022124729 A1 WO2022124729 A1 WO 2022124729A1
Authority
WO
WIPO (PCT)
Prior art keywords
local model
federated learning
information
response message
terminal
Prior art date
Application number
PCT/KR2021/018356
Other languages
English (en)
French (fr)
Inventor
이태현
이경호
이상림
김영준
전기준
김성진
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US18/266,569 priority Critical patent/US20240054351A1/en
Priority to KR1020237013063A priority patent/KR20230074512A/ko
Publication of WO2022124729A1 publication Critical patent/WO2022124729A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/098Distributed learning, e.g. federated learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/104Peer-to-peer [P2P] networks
    • H04L67/1044Group management mechanisms 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/104Peer-to-peer [P2P] networks
    • H04L67/1074Peer-to-peer [P2P] networks for supporting data block transmission mechanisms
    • H04L67/1078Resource delivery mechanisms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W72/00Local resource management
    • H04W72/04Wireless resource allocation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W72/00Local resource management
    • H04W72/20Control channels or signalling for resource management
    • H04W72/23Control channels or signalling for resource management in the downlink direction of a wireless link, i.e. towards a terminal

Definitions

  • the following description relates to a wireless communication system, and to an apparatus and method for signal transmission in a wireless communication system.
  • a wireless access system is a multiple access system that can support communication with multiple users by sharing available system resources (bandwidth, transmission power, etc.).
  • Examples of the multiple access system include a code division multiple access (CDMA) system, a frequency division multiple access (FDMA) system, a time division multiple access (TDMA) system, an orthogonal frequency division multiple access (OFDMA) system, and a single carrier frequency (SC-FDMA) system. division multiple access) systems.
  • CDMA code division multiple access
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • OFDMA orthogonal frequency division multiple access
  • SC-FDMA single carrier frequency division multiple access
  • an enhanced mobile broadband (eMBB) communication technology has been proposed compared to the existing radio access technology (RAT).
  • eMBB enhanced mobile broadband
  • RAT radio access technology
  • UE reliability and latency sensitive services/user equipment
  • mMTC massive machine type communications
  • the present disclosure may provide an apparatus and method for signal transmission in a wireless communication system.
  • the present disclosure may provide a signal transmission apparatus and method for federated learning in a wireless communication system.
  • the present disclosure may provide an efficient federated learning method based on grouping.
  • the present disclosure may provide an efficient federated learning method based on a split local model.
  • a method of operating a terminal in a wireless communication system includes: the terminal receiving federated learning-related configuration information; the terminal learning a local model based on the federated learning-related configuration information Step, the terminal receiving a local model weight request message, transmitting a first response message based on the received weight request message, total local model (total local model) related information based on the first response message Receiving, transmitting a second response message based on the received total local model related information, receiving resource allocation related information based on the second response message, and federation based on the received resource allocation related information and performing federated learning.
  • the total local model includes local model information of other terminals participating in the federated learning, and a group related to federated learning is determined based on the second response message, and the federated learning is performed based on the determined group.
  • the first response message may include split local model information.
  • the total local model related information may include split local model information.
  • the terminal may change some layers of the local model of the terminal to the split local model based on the received total local model information including the split local model information.
  • the second response message may include comparison information between local model-related data of another terminal participating in the federated learning and local model-related data of the terminal. All of the terminal and the terminals of the group to which the terminal belongs may perform federated learning based on the same resource.
  • the group may be determined based on comparison information between local model-related data of other terminals participating in the federated learning and local model-related data of the terminal. A difference in data distribution between terminals within the determined group may be greater than a difference in data distribution between the determined groups.
  • a terminal in a wireless communication system, includes a transceiver and a processor connected to the transceiver.
  • the processor controls the transceiver to receive federated learning related configuration information, learns a local model based on the federated learning related configuration information, and controls the transceiver to receive a local model weight request message, , controlling the transceiver to transmit a first response message based on the received weight request message, controlling the transceiver to receive total local model related information based on the first response message, and the transceiver controls to transmit a second response message based on the received total local model related information, controls the transceiver to receive resource allocation related information based on the second response message, and based on the received resource allocation related information to perform federated learning.
  • the total local model includes local model information of other terminals participating in the federated learning, and a group related to federated learning is determined based on the second response message, and the federated learning is performed based on the determined group.
  • the first response message may include split local model information.
  • the total local model related information may include split local model information.
  • the processor may change some layers of the local model of the terminal to the split local model based on the received total local model information including the split local model information.
  • the second response message may include comparison information between local model-related data of another terminal participating in the federated learning and local model-related data of the terminal. All of the terminal and the terminals of the group to which the terminal belongs may perform federated learning based on the same resource.
  • the group may be determined based on comparison information between local model-related data of other terminals participating in the federated learning and local model-related data of the terminal. A difference in data distribution between terminals within the determined group may be greater than a difference in data distribution between the determined groups.
  • a communication device includes at least one processor and at least one computer memory coupled to the at least one processor and storing instructions for instructing operations as executed by the at least one processor.
  • the processor controls the communication device to receive federated learning-related configuration information, controls to learn a local model based on the federated learning-related configuration information, and controls to receive a local model weight request message, , controlling to transmit a first response message based on the received weight request message, controlling to receive total local model related information based on the first response message, and controlling the received total local model related information Control to transmit a second response message based on , control to receive resource allocation related information based on the second response message, and control to perform federated learning based on the received resource allocation related information .
  • the total local model includes local model information of other terminals participating in the federated learning, and a group related to federated learning is determined based on the second response message, and the federated learning is performed based on the determined group. .
  • a non-transitory computer-readable medium storing at least one instruction may be executable by a processor to store the at least one instruction.
  • the at least one instruction instructs the computer-readable medium to receive federated learning-related configuration information, and to learn a local model based on the federated learning-related configuration information, and a local model weight request message instructs to receive, instructs to transmit a first response message based on the received weight request message, instructs to receive total local model related information based on the first response message, and the received Instructs to transmit a second response message based on the total local model related information, instructs to receive resource allocation related information based on the second response message, and federated learning based on the received resource allocation related information instruct to do
  • the total local model includes local model information of other terminals participating in the federated learning, and a group related to federated learning is determined based on the second response message, and the federated learning is performed based on the determined group.
  • a method of operating a base station in a wireless communication system includes the steps of, by the base station, transmitting federated learning related setting information, the base station transmitting a local model weight request message, to the weight request message Receiving a first response message based on the first response message, transmitting total local model related information based on the first response message, receiving a second response message based on the received total local model related information , transmitting resource allocation related information based on the second response message, and performing federated learning based on the received resource allocation related information.
  • a local model is learned based on the federated learning related setting information, the total local model includes local model information of other terminals participating in the federated learning, and based on the second response message, a group related to federated learning is It is determined that the federated learning is performed based on the determined group.
  • a base station includes a transceiver and a processor connected to the transceiver.
  • the processor controls the transceiver to transmit federated learning related configuration information, controls the transceiver to transmit a local model weight request message, and the transceiver receives a first response message based on the weight request message controlling the transceiver to transmit total local model related information based on the first response message, and controlling the transceiver to receive a second response message based on the total local model related information received by the transceiver and control the transceiver to transmit resource allocation related information based on the second response message, and perform federated learning based on the received resource allocation related information.
  • a local model is learned based on the federated learning related setting information, the total local model includes local model information of other terminals participating in the federated learning, and based on the second response message, a group related to federated learning is It is determined that the federated learning is performed based on the determined group.
  • the base station and the terminal since the base station and the terminal perform federated learning, overhead when the base station and the terminal transmit data can be reduced.
  • a plurality of terminals can efficiently perform federated learning.
  • traffic for identifying data characteristics between terminals may be reduced.
  • FIG. 1 shows an example of a communication system applicable to the present disclosure.
  • FIG. 2 shows an example of a wireless device applicable to the present disclosure.
  • FIG 3 shows another example of a wireless device applicable to the present disclosure.
  • FIG. 4 shows an example of a portable device applicable to the present disclosure.
  • FIG 5 shows an example of a vehicle or autonomous vehicle applicable to the present disclosure.
  • AI Artificial Intelligence
  • FIG. 7 illustrates a method of processing a transmission signal applicable to the present disclosure.
  • FIG 8 illustrates a structure of a perceptron included in an artificial neural network applicable to the present disclosure.
  • FIG 9 shows an artificial neural network structure applicable to the present disclosure.
  • FIG. 10 illustrates a deep neural network applicable to the present disclosure.
  • FIG. 11 shows a convolutional neural network applicable to the present disclosure.
  • FIG. 12 illustrates a filter operation of a convolutional neural network applicable to the present disclosure.
  • FIG. 13 illustrates a neural network structure in which a cyclic loop applicable to the present disclosure exists.
  • FIG. 14 shows an operation structure of a recurrent neural network applicable to the present disclosure.
  • 17 and 18 show an example of a joint learning process of terminals applicable to the present disclosure.
  • 21 shows an example of a terminal operation procedure applicable to the present disclosure.
  • each component or feature may be considered optional unless explicitly stated otherwise.
  • Each component or feature may be implemented in a form that is not combined with other components or features.
  • some components and/or features may be combined to configure an embodiment of the present disclosure.
  • the order of operations described in embodiments of the present disclosure may be changed. Some configurations or features of one embodiment may be included in other embodiments, or may be replaced with corresponding configurations or features of other embodiments.
  • the base station has a meaning as a terminal node of a network that directly communicates with the mobile station.
  • a specific operation described as being performed by the base station in this document may be performed by an upper node of the base station in some cases.
  • the 'base station' is a term such as a fixed station, a Node B, an eNB (eNode B), a gNB (gNode B), an ng-eNB, an advanced base station (ABS) or an access point (access point).
  • eNode B eNode B
  • gNode B gNode B
  • ng-eNB ng-eNB
  • ABS advanced base station
  • access point access point
  • a terminal includes a user equipment (UE), a mobile station (MS), a subscriber station (SS), a mobile subscriber station (MSS), It may be replaced by terms such as a mobile terminal or an advanced mobile station (AMS).
  • UE user equipment
  • MS mobile station
  • SS subscriber station
  • MSS mobile subscriber station
  • AMS advanced mobile station
  • a transmitting end refers to a fixed and/or mobile node that provides a data service or a voice service
  • a receiving end refers to a fixed and/or mobile node that receives a data service or a voice service.
  • the mobile station may be a transmitting end, and the base station may be a receiving end.
  • the mobile station may be the receiving end, and the base station may be the transmitting end.
  • Embodiments of the present disclosure are wireless access systems IEEE 802.xx system, 3rd Generation Partnership Project (3GPP) system, 3GPP Long Term Evolution (LTE) system, 3GPP 5G (5th generation) NR (New Radio) system, and 3GPP2 system among It may be supported by standard documents disclosed in at least one, and in particular, embodiments of the present disclosure are supported by 3GPP TS (technical specification) 38.211, 3GPP TS 38.212, 3GPP TS 38.213, 3GPP TS 38.321 and 3GPP TS 38.331 documents. can be
  • embodiments of the present disclosure may be applied to other wireless access systems, and are not limited to the above-described system. As an example, it may be applicable to a system applied after the 3GPP 5G NR system, and is not limited to a specific system.
  • CDMA code division multiple access
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • OFDMA orthogonal frequency division multiple access
  • SC-FDMA single carrier frequency division multiple access
  • LTE is 3GPP TS 36.xxx Release 8 or later
  • LTE technology after 3GPP TS 36.xxx Release 10 may be referred to as LTE-A
  • xxx Release 13 may be referred to as LTE-A pro.
  • 3GPP NR may mean technology after TS 38.xxx Release 15.
  • 3GPP 6G may mean technology after TS Release 17 and/or Release 18.
  • "xxx" means standard document detail number LTE/NR/6G may be collectively referred to as a 3GPP system.
  • FIG. 1 is a diagram illustrating an example of a communication system applied to the present disclosure.
  • a communication system 100 applied to the present disclosure includes a wireless device, a base station, and a network.
  • the wireless device means a device that performs communication using a wireless access technology (eg, 5G NR, LTE), and may be referred to as a communication/wireless/5G device.
  • the wireless device may include a robot 100a, a vehicle 100b-1, 100b-2, an extended reality (XR) device 100c, a hand-held device 100d, and a home appliance. appliance) 100e, an Internet of Things (IoT) device 100f, and an artificial intelligence (AI) device/server 100g.
  • a wireless access technology eg, 5G NR, LTE
  • XR extended reality
  • IoT Internet of Things
  • AI artificial intelligence
  • the vehicle may include a vehicle equipped with a wireless communication function, an autonomous driving vehicle, a vehicle capable of performing inter-vehicle communication, and the like.
  • the vehicles 100b-1 and 100b-2 may include an unmanned aerial vehicle (UAV) (eg, a drone).
  • UAV unmanned aerial vehicle
  • the XR device 100c includes augmented reality (AR)/virtual reality (VR)/mixed reality (MR) devices, and includes a head-mounted device (HMD), a head-up display (HUD) provided in a vehicle, a television, It may be implemented in the form of a smartphone, a computer, a wearable device, a home appliance, a digital signage, a vehicle, a robot, and the like.
  • the portable device 100d may include a smart phone, a smart pad, a wearable device (eg, smart watch, smart glasses), and a computer (eg, a laptop computer).
  • the home appliance 100e may include a TV, a refrigerator, a washing machine, and the like.
  • the IoT device 100f may include a sensor, a smart meter, and the like.
  • the base station 120 and the network 130 may be implemented as a wireless device, and a specific wireless device 120a may operate as a base station/network node to other wireless devices.
  • the wireless devices 100a to 100f may be connected to the network 130 through the base station 120 .
  • AI technology may be applied to the wireless devices 100a to 100f , and the wireless devices 100a to 100f may be connected to the AI server 100g through the network 130 .
  • the network 130 may be configured using a 3G network, a 4G (eg, LTE) network, or a 5G (eg, NR) network.
  • the wireless devices 100a to 100f may communicate with each other through the base station 120/network 130, but communicate directly without going through the base station 120/network 130 (eg, sidelink communication) You may.
  • the vehicles 100b-1 and 100b-2 may perform direct communication (eg, vehicle to vehicle (V2V)/vehicle to everything (V2X) communication).
  • the IoT device 100f eg, a sensor
  • Wireless communication/connection 150a, 150b, and 150c may be performed between the wireless devices 100a to 100f/base station 120 and the base station 120/base station 120 .
  • wireless communication/connection includes uplink/downlink communication 150a and sidelink communication 150b (or D2D communication), and communication between base stations 150c (eg, relay, integrated access backhaul (IAB)). This may be achieved through radio access technology (eg, 5G NR).
  • IAB integrated access backhaul
  • the wireless device and the base station/wireless device, and the base station and the base station may transmit/receive wireless signals to each other.
  • the wireless communication/connection 150a , 150b , 150c may transmit/receive signals through various physical channels.
  • various configuration information setting processes for transmission/reception of wireless signals various signal processing processes (eg, channel encoding/decoding, modulation/demodulation, resource mapping/demapping, etc.) , at least a part of a resource allocation process may be performed.
  • signal processing processes eg, channel encoding/decoding, modulation/demodulation, resource mapping/demapping, etc.
  • FIG. 2 is a diagram illustrating an example of a wireless device applicable to the present disclosure.
  • a first wireless device 200a and a second wireless device 200b may transmit/receive wireless signals through various wireless access technologies (eg, LTE, NR).
  • ⁇ first wireless device 200a, second wireless device 200b ⁇ is ⁇ wireless device 100x, base station 120 ⁇ of FIG. 1 and/or ⁇ wireless device 100x, wireless device 100x) ⁇ can be matched.
  • the first wireless device 200a includes one or more processors 202a and one or more memories 204a, and may further include one or more transceivers 206a and/or one or more antennas 208a.
  • the processor 202a controls the memory 204a and/or the transceiver 206a and may be configured to implement the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein.
  • the processor 202a may process information in the memory 204a to generate first information/signal, and then transmit a wireless signal including the first information/signal through the transceiver 206a.
  • the processor 202a may receive the radio signal including the second information/signal through the transceiver 206a, and then store the information obtained from the signal processing of the second information/signal in the memory 204a.
  • the memory 204a may be connected to the processor 202a and may store various information related to the operation of the processor 202a.
  • the memory 204a may provide instructions for performing some or all of the processes controlled by the processor 202a, or for performing the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein. may store software code including
  • the processor 202a and the memory 204a may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
  • a wireless communication technology eg, LTE, NR
  • the transceiver 206a may be coupled to the processor 202a and may transmit and/or receive wireless signals via one or more antennas 208a.
  • the transceiver 206a may include a transmitter and/or a receiver.
  • the transceiver 206a may be used interchangeably with a radio frequency (RF) unit.
  • RF radio frequency
  • a wireless device may refer to a communication modem/circuit/chip.
  • the second wireless device 200b includes one or more processors 202b, one or more memories 204b, and may further include one or more transceivers 206b and/or one or more antennas 208b.
  • the processor 202b controls the memory 204b and/or the transceiver 206b and may be configured to implement the descriptions, functions, procedures, proposals, methods, and/or operational flowcharts disclosed herein.
  • the processor 202b may process information in the memory 204b to generate third information/signal, and then transmit a wireless signal including the third information/signal through the transceiver 206b.
  • the processor 202b may receive the radio signal including the fourth information/signal through the transceiver 206b, and then store information obtained from signal processing of the fourth information/signal in the memory 204b.
  • the memory 204b may be connected to the processor 202b and may store various information related to the operation of the processor 202b.
  • the memory 204b may provide instructions for performing some or all of the processes controlled by the processor 202b, or for performing the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein. may store software code including
  • the processor 202b and the memory 204b may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
  • a wireless communication technology eg, LTE, NR
  • the transceiver 206b may be coupled to the processor 202b and may transmit and/or receive wireless signals via one or more antennas 208b.
  • Transceiver 206b may include a transmitter and/or receiver.
  • Transceiver 206b may be used interchangeably with an RF unit.
  • a wireless device may refer to a communication modem/circuit/chip.
  • one or more protocol layers may be implemented by one or more processors 202a, 202b.
  • one or more processors 202a, 202b may include one or more layers (eg, PHY (physical), MAC (media access control), RLC (radio link control), PDCP (packet data convergence protocol), RRC (radio resource) control) and a functional layer such as service data adaptation protocol (SDAP)).
  • layers eg, PHY (physical), MAC (media access control), RLC (radio link control), PDCP (packet data convergence protocol), RRC (radio resource) control
  • SDAP service data adaptation protocol
  • the one or more processors 202a, 202b may be configured to process one or more protocol data units (PDUs) and/or one or more service data units (SDUs) according to the descriptions, functions, procedures, proposals, methods, and/or operational flowcharts disclosed herein. can create The one or more processors 202a, 202b may generate messages, control information, data, or information according to the description, function, procedure, proposal, method, and/or flow charts disclosed herein. The one or more processors 202a, 202b generate a signal (eg, a baseband signal) including a PDU, SDU, message, control information, data or information according to the functions, procedures, proposals and/or methods disclosed herein.
  • a signal eg, a baseband signal
  • processors 202a, 202b may receive signals (eg, baseband signals) from one or more transceivers 206a, 206b, and the descriptions, functions, procedures, proposals, methods, and/or flowcharts of operation disclosed herein.
  • PDUs, SDUs, messages, control information, data, or information may be acquired according to the fields.
  • One or more processors 202a, 202b may be referred to as a controller, microcontroller, microprocessor, or microcomputer.
  • One or more processors 202a, 202b may be implemented by hardware, firmware, software, or a combination thereof.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • firmware or software may be implemented using firmware or software, and the firmware or software may be implemented to include modules, procedures, functions, and the like.
  • the descriptions, functions, procedures, proposals, methods, and/or flow charts disclosed in this document provide that firmware or software configured to perform is included in one or more processors 202a, 202b, or stored in one or more memories 204a, 204b. It may be driven by the above processors 202a and 202b.
  • the descriptions, functions, procedures, proposals, methods, and/or flowcharts of operations disclosed herein may be implemented using firmware or software in the form of code, instructions, and/or a set of instructions.
  • One or more memories 204a, 204b may be coupled to one or more processors 202a, 202b and may store various types of data, signals, messages, information, programs, codes, instructions, and/or instructions.
  • One or more memories 204a, 204b may include read only memory (ROM), random access memory (RAM), erasable programmable read only memory (EPROM), flash memory, hard drives, registers, cache memory, computer readable storage media and/or It may be composed of a combination of these.
  • One or more memories 204a, 204b may be located inside and/or external to one or more processors 202a, 202b. Additionally, one or more memories 204a, 204b may be coupled to one or more processors 202a, 202b through various technologies, such as wired or wireless connections.
  • the one or more transceivers 206a, 206b may transmit user data, control information, radio signals/channels, etc. referred to in the methods and/or operational flowcharts of this document to one or more other devices.
  • the one or more transceivers 206a, 206b may receive user data, control information, radio signals/channels, etc. referred to in the descriptions, functions, procedures, suggestions, methods and/or flow charts, etc. disclosed herein, from one or more other devices. have.
  • one or more transceivers 206a , 206b may be coupled to one or more processors 202a , 202b and may transmit and receive wireless signals.
  • one or more processors 202a, 202b may control one or more transceivers 206a, 206b to transmit user data, control information, or wireless signals to one or more other devices. Additionally, one or more processors 202a, 202b may control one or more transceivers 206a, 206b to receive user data, control information, or wireless signals from one or more other devices. Further, one or more transceivers 206a, 206b may be coupled with one or more antennas 208a, 208b, and the one or more transceivers 206a, 206b may be connected via one or more antennas 208a, 208b. , may be set to transmit and receive user data, control information, radio signals/channels, etc.
  • one or more antennas may be a plurality of physical antennas or a plurality of logical antennas (eg, antenna ports).
  • the one or more transceivers 206a, 206b converts the received radio signal/channel, etc. from the RF band signal to process the received user data, control information, radio signal/channel, etc. using the one or more processors 202a, 202b. It can be converted into a baseband signal.
  • One or more transceivers 206a, 206b may convert user data, control information, radio signals/channels, etc. processed using one or more processors 202a, 202b from baseband signals to RF band signals.
  • one or more transceivers 206a, 206b may include (analog) oscillators and/or filters.
  • FIG. 3 is a diagram illustrating another example of a wireless device applied to the present disclosure.
  • a wireless device 300 corresponds to the wireless devices 200a and 200b of FIG. 2 , and includes various elements, components, units/units, and/or modules. ) can be composed of
  • the wireless device 300 may include a communication unit 310 , a control unit 320 , a memory unit 330 , and an additional element 340 .
  • the communication unit may include communication circuitry 312 and transceiver(s) 314 .
  • communication circuitry 312 may include one or more processors 202a, 202b and/or one or more memories 204a, 204b of FIG. 2 .
  • the transceiver(s) 314 may include one or more transceivers 206a , 206b and/or one or more antennas 208a , 208b of FIG. 2 .
  • the control unit 320 is electrically connected to the communication unit 310 , the memory unit 330 , and the additional element 340 and controls general operations of the wireless device.
  • the controller 320 may control the electrical/mechanical operation of the wireless device based on the program/code/command/information stored in the memory unit 330 .
  • control unit 320 transmits the information stored in the memory unit 330 to the outside (eg, another communication device) through the communication unit 310 through a wireless/wired interface, or externally (eg, through the communication unit 310) Information received through a wireless/wired interface from another communication device) may be stored in the memory unit 330 .
  • the additional element 340 may be configured in various ways according to the type of the wireless device.
  • the additional element 340 may include at least one of a power unit/battery, an input/output unit, a driving unit, and a computing unit.
  • the wireless device 300 may include a robot ( FIGS. 1 and 100a ), a vehicle ( FIGS. 1 , 100b-1 , 100b-2 ), an XR device ( FIGS. 1 and 100c ), and a mobile device ( FIGS. 1 and 100d ). ), home appliances (FIG. 1, 100e), IoT device (FIG.
  • the wireless device may be mobile or used in a fixed location depending on the use-example/service.
  • various elements, components, units/units, and/or modules in the wireless device 300 may be all interconnected through a wired interface, or at least some may be wirelessly connected through the communication unit 310 .
  • the control unit 320 and the communication unit 310 are connected by wire, and the control unit 320 and the first unit (eg, 130 , 140 ) are connected wirelessly through the communication unit 310 .
  • each element, component, unit/unit, and/or module within the wireless device 300 may further include one or more elements.
  • the controller 320 may include one or more processor sets.
  • control unit 320 may be configured as a set of a communication control processor, an application processor, an electronic control unit (ECU), a graphic processing processor, a memory control processor, and the like.
  • memory unit 330 may include RAM, dynamic RAM (DRAM), ROM, flash memory, volatile memory, non-volatile memory, and/or a combination thereof. can be configured.
  • FIG. 4 is a diagram illustrating an example of a mobile device applied to the present disclosure.
  • the portable device may include a smart phone, a smart pad, a wearable device (eg, a smart watch, smart glasses), and a portable computer (eg, a laptop computer).
  • the mobile device may be referred to as a mobile station (MS), a user terminal (UT), a mobile subscriber station (MSS), a subscriber station (SS), an advanced mobile station (AMS), or a wireless terminal (WT).
  • MS mobile station
  • UT user terminal
  • MSS mobile subscriber station
  • SS subscriber station
  • AMS advanced mobile station
  • WT wireless terminal
  • the mobile device 400 includes an antenna unit 408 , a communication unit 410 , a control unit 420 , a memory unit 430 , a power supply unit 440a , an interface unit 440b , and an input/output unit 440c .
  • the antenna unit 408 may be configured as a part of the communication unit 410 .
  • Blocks 410 to 430/440a to 440c respectively correspond to blocks 310 to 330/340 of FIG. 3 .
  • the communication unit 410 may transmit and receive signals (eg, data, control signals, etc.) with other wireless devices and base stations.
  • the controller 420 may control components of the portable device 400 to perform various operations.
  • the controller 420 may include an application processor (AP).
  • the memory unit 430 may store data/parameters/programs/codes/commands necessary for driving the portable device 400 . Also, the memory unit 430 may store input/output data/information.
  • the power supply unit 440a supplies power to the portable device 400 and may include a wired/wireless charging circuit, a battery, and the like.
  • the interface unit 440b may support a connection between the portable device 400 and other external devices.
  • the interface unit 440b may include various ports (eg, an audio input/output port and a video input/output port) for connection with an external device.
  • the input/output unit 440c may receive or output image information/signal, audio information/signal, data, and/or information input from a user.
  • the input/output unit 440c may include a camera, a microphone, a user input unit, a display unit 440d, a speaker, and/or a haptic module.
  • the input/output unit 440c obtains information/signals (eg, touch, text, voice, image, video) input from the user, and the obtained information/signals are stored in the memory unit 430 . can be saved.
  • the communication unit 410 may convert the information/signal stored in the memory into a wireless signal, and transmit the converted wireless signal directly to another wireless device or to a base station. Also, after receiving a radio signal from another radio device or base station, the communication unit 410 may restore the received radio signal to original information/signal.
  • the restored information/signal may be stored in the memory unit 430 and output in various forms (eg, text, voice, image, video, haptic) through the input/output unit 440c.
  • FIG. 5 is a diagram illustrating an example of a vehicle or autonomous driving vehicle applied to the present disclosure.
  • the vehicle or autonomous driving vehicle may be implemented as a mobile robot, a vehicle, a train, an aerial vehicle (AV), a ship, and the like, but is not limited to the shape of the vehicle.
  • AV aerial vehicle
  • the vehicle or autonomous driving vehicle 500 includes an antenna unit 508 , a communication unit 510 , a control unit 520 , a driving unit 540a , a power supply unit 540b , a sensor unit 540c and autonomous driving.
  • a unit 540d may be included.
  • the antenna unit 550 may be configured as a part of the communication unit 510 .
  • Blocks 510/530/540a to 540d respectively correspond to blocks 410/430/440 of FIG. 4 .
  • the communication unit 510 may transmit/receive signals (eg, data, control signals, etc.) to and from external devices such as other vehicles, base stations (eg, base stations, roadside units, etc.), and servers.
  • the controller 520 may control elements of the vehicle or the autonomous driving vehicle 500 to perform various operations.
  • the controller 520 may include an electronic control unit (ECU).
  • ECU electronice control unit
  • AI devices include TVs, projectors, smartphones, PCs, laptops, digital broadcasting terminals, tablet PCs, wearable devices, set-top boxes (STBs), radios, washing machines, refrigerators, digital signage, robots, vehicles, etc. It may be implemented as a device or a mobile device.
  • the AI device 600 includes a communication unit 610 , a control unit 620 , a memory unit 630 , input/output units 640a/640b , a learning processor unit 640c and a sensor unit 640d.
  • a communication unit 610 may include Blocks 610 to 630/640a to 640d may correspond to blocks 310 to 330/340 of FIG. 3 , respectively.
  • the communication unit 610 uses wired and wireless communication technology to communicate with external devices such as other AI devices (eg, FIGS. 1, 100x, 120, 140) or an AI server ( FIGS. 1 and 140 ) and wired and wireless signals (eg, sensor information, user input, learning model, control signal, etc.). To this end, the communication unit 610 may transmit information in the memory unit 630 to an external device or transmit a signal received from the external device to the memory unit 630 .
  • AI devices eg, FIGS. 1, 100x, 120, 140
  • an AI server FIGS. 1 and 140
  • wired and wireless signals eg, sensor information, user input, learning model, control signal, etc.
  • the controller 620 may determine at least one executable operation of the AI device 600 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. Then, the controller 620 may control the components of the AI device 600 to perform the determined operation. For example, the control unit 620 may request, search, receive, or utilize the data of the learning processor unit 640c or the memory unit 630, and is determined to be a predicted operation or desirable among at least one executable operation. Components of the AI device 600 may be controlled to execute the operation. In addition, the control unit 620 collects history information including user feedback on the operation contents or operation of the AI device 600 and stores it in the memory unit 630 or the learning processor unit 640c, or the AI server ( 1 and 140), and the like may be transmitted to an external device. The collected historical information may be used to update the learning model.
  • the memory unit 630 may store data supporting various functions of the AI device 600 .
  • the memory unit 630 may store data obtained from the input unit 640a , data obtained from the communication unit 610 , output data of the learning processor unit 640c , and data obtained from the sensing unit 640 .
  • the memory unit 630 may store control information and/or software codes necessary for the operation/execution of the control unit 620 .
  • the input unit 640a may acquire various types of data from the outside of the AI device 600 .
  • the input unit 620 may obtain training data for model learning, input data to which the learning model is applied, and the like.
  • the input unit 640a may include a camera, a microphone, and/or a user input unit.
  • the output unit 640b may generate an output related to sight, hearing, or touch.
  • the output unit 640b may include a display unit, a speaker, and/or a haptic module.
  • the sensing unit 640 may obtain at least one of internal information of the AI device 600 , surrounding environment information of the AI device 600 , and user information by using various sensors.
  • the sensing unit 640 may include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and/or a radar. have.
  • the learning processor unit 640c may train a model composed of an artificial neural network by using the training data.
  • the learning processor unit 640c may perform AI processing together with the learning processor unit of the AI server ( FIGS. 1 and 140 ).
  • the learning processor unit 640c may process information received from an external device through the communication unit 610 and/or information stored in the memory unit 630 . Also, the output value of the learning processor unit 640c may be transmitted to an external device through the communication unit 610 and/or stored in the memory unit 630 .
  • the transmission signal may be processed by a signal processing circuit.
  • the signal processing circuit 700 may include a scrambler 710 , a modulator 720 , a layer mapper 730 , a precoder 740 , a resource mapper 750 , and a signal generator 760 .
  • the operation/function of FIG. 7 may be performed by the processors 202a and 202b and/or the transceivers 206a and 206b of FIG. 2 .
  • blocks 710 to 760 may be implemented in the processors 202a and 202b and/or the transceivers 206a and 206b of FIG. 2 .
  • blocks 710 to 760 may be implemented in the processors 202a and 202b of FIG. 2 .
  • blocks 710 to 750 may be implemented in the processors 202a and 202b of FIG. 2
  • block 760 may be implemented in the transceivers 206a and 206b of FIG. 2 , and the embodiment is not limited thereto.
  • the codeword may be converted into a wireless signal through the signal processing circuit 700 of FIG. 7 .
  • the codeword is a coded bit sequence of an information block.
  • the information block may include a transport block (eg, a UL-SCH transport block, a DL-SCH transport block).
  • the radio signal may be transmitted through various physical channels (eg, PUSCH, PDSCH).
  • the codeword may be converted into a scrambled bit sequence by the scrambler 710 .
  • a scramble sequence used for scrambling is generated based on an initialization value, and the initialization value may include ID information of a wireless device, and the like.
  • the scrambled bit sequence may be modulated by a modulator 720 into a modulation symbol sequence.
  • the modulation method may include pi/2-binary phase shift keying (pi/2-BPSK), m-phase shift keying (m-PSK), m-quadrature amplitude modulation (m-QAM), and the like.
  • the complex modulation symbol sequence may be mapped to one or more transport layers by a layer mapper 730 .
  • Modulation symbols of each transport layer may be mapped to corresponding antenna port(s) by a precoder 740 (precoding).
  • the output z of the precoder 740 may be obtained by multiplying the output y of the layer mapper 730 by the precoding matrix W of N*M.
  • N is the number of antenna ports
  • M is the number of transport layers.
  • the precoder 740 may perform precoding after performing transform precoding (eg, discrete fourier transform (DFT) transform) on the complex modulation symbols. Also, the precoder 740 may perform precoding without performing transform precoding.
  • transform precoding eg, discrete fourier transform (DFT) transform
  • the resource mapper 750 may map modulation symbols of each antenna port to a time-frequency resource.
  • the time-frequency resource may include a plurality of symbols (eg, a CP-OFDMA symbol, a DFT-s-OFDMA symbol) in the time domain and a plurality of subcarriers in the frequency domain.
  • the signal generator 760 generates a radio signal from the mapped modulation symbols, and the generated radio signal may be transmitted to another device through each antenna.
  • the signal generator 760 may include an inverse fast fourier transform (IFFT) module and a cyclic prefix (CP) inserter, a digital-to-analog converter (DAC), a frequency uplink converter, and the like. .
  • IFFT inverse fast fourier transform
  • CP cyclic prefix
  • DAC digital-to-analog converter
  • the signal processing process for the received signal in the wireless device may be configured in reverse of the signal processing processes 710 to 760 of FIG. 7 .
  • the wireless device eg, 200a or 200b of FIG. 2
  • the received radio signal may be converted into a baseband signal through a signal restorer.
  • the signal restorer may include a frequency downlink converter, an analog-to-digital converter (ADC), a CP remover, and a fast fourier transform (FFT) module.
  • ADC analog-to-digital converter
  • FFT fast fourier transform
  • the baseband signal may be restored to a codeword through a resource de-mapper process, a postcoding process, a demodulation process, and a descrambling process.
  • the codeword may be restored to the original information block through decoding.
  • the signal processing circuit (not shown) for the received signal may include a signal restorer, a resource de-mapper, a post coder, a demodulator, a descrambler, and a decoder.
  • AI The most important and newly introduced technology for 6G systems is AI.
  • AI was not involved in the 4G system.
  • 5G systems will support partial or very limited AI.
  • the 6G system will be AI-enabled for full automation.
  • Advances in machine learning will create more intelligent networks for real-time communication in 6G.
  • Incorporating AI into communications can simplify and enhance real-time data transmission.
  • AI can use numerous analytics to determine how complex target tasks are performed. In other words, AI can increase efficiency and reduce processing delays.
  • AI can also play an important role in M2M, machine-to-human and human-to-machine communication.
  • AI can be a rapid communication in the BCI (brain computer interface).
  • BCI brain computer interface
  • AI-based communication systems can be supported by metamaterials, intelligent structures, intelligent networks, intelligent devices, intelligent cognitive radios, self-sustaining wireless networks, and machine learning.
  • AI-based physical layer transmission means applying a signal processing and communication mechanism based on an AI driver rather than a traditional communication framework in a fundamental signal processing and communication mechanism.
  • a signal processing and communication mechanism based on an AI driver rather than a traditional communication framework in a fundamental signal processing and communication mechanism.
  • deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based multiple input multiple output (MIMO) mechanism It may include AI-based resource scheduling and allocation.
  • Machine learning may be used for channel estimation and channel tracking, and may be used for power allocation, interference cancellation, and the like in a physical layer of a downlink (DL). In addition, machine learning may be used for antenna selection, power control, symbol detection, and the like in a MIMO system.
  • DL downlink
  • machine learning may be used for antenna selection, power control, symbol detection, and the like in a MIMO system.
  • Deep learning-based AI algorithms require large amounts of training data to optimize training parameters.
  • a lot of training data is used offline. This is because static training on training data in a specific channel environment may cause a contradiction between dynamic characteristics and diversity of a wireless channel.
  • signals of the physical layer of wireless communication are complex signals.
  • further research on a neural network for detecting a complex domain signal is needed.
  • Machine learning refers to a set of operations that trains a machine to create a machine that can perform tasks that humans can or cannot do.
  • Machine learning requires data and a learning model.
  • data learning methods can be roughly divided into three types: supervised learning, unsupervised learning, and reinforcement learning.
  • Neural network learning is to minimize output errors. Neural network learning repeatedly inputs learning data into the neural network, calculates the output and target errors of the neural network for the training data, and backpropagates the neural network error from the output layer of the neural network to the input layer in the direction to reduce the error. ) to update the weight of each node in the neural network.
  • Supervised learning uses training data in which the correct answer is labeled in the training data, and in unsupervised learning, the correct answer may not be labeled in the training data. That is, for example, learning data in the case of supervised learning related to data classification may be data in which categories are labeled for each of the training data.
  • the labeled training data is input to the neural network, and an error can be calculated by comparing the output (category) of the neural network with the label of the training data.
  • the calculated error is back propagated in the reverse direction (ie, from the output layer to the input layer) in the neural network, and the connection weight of each node of each layer of the neural network may be updated according to the back propagation.
  • the change amount of the connection weight of each node to be updated may be determined according to a learning rate.
  • the computation of the neural network on the input data and the backpropagation of errors can constitute a learning cycle (epoch).
  • the learning rate may be applied differently depending on the number of repetitions of the learning cycle of the neural network. For example, in the early stage of learning a neural network, a high learning rate can be used to increase the efficiency by allowing the neural network to quickly obtain a certain level of performance, and in the late learning period, a low learning rate can be used to increase the accuracy.
  • the learning method may vary depending on the characteristics of the data. For example, when the purpose of accurately predicting data transmitted from a transmitter in a communication system at a receiver is, it is preferable to perform learning using supervised learning rather than unsupervised learning or reinforcement learning.
  • the learning model corresponds to the human brain, and the most basic linear model can be considered. ) is called
  • the neural network cord used as a learning method is largely divided into deep neural networks (DNN), convolutional deep neural networks (CNN), and recurrent boltzmann machine (RNN) methods. and such a learning model can be applied.
  • DNN deep neural networks
  • CNN convolutional deep neural networks
  • RNN recurrent boltzmann machine
  • FIG. 8 illustrates a structure of a perceptron included in an artificial neural network applicable to the present disclosure. Also, FIG. 9 shows an artificial neural network structure applicable to the present disclosure.
  • an artificial intelligence system may be applied in the 6G system.
  • the artificial intelligence system may operate based on a learning model corresponding to the human brain, as described above.
  • a paradigm of machine learning that uses a neural network structure with high complexity such as artificial neural networks as a learning model can be called deep learning.
  • the neural network cord used as a learning method is largely a deep neural network (DNN), a convolutional deep neural network (CNN), and a recurrent neural network (RNN).
  • DNN deep neural network
  • CNN convolutional deep neural network
  • RNN recurrent neural network
  • the artificial neural network may be composed of several perceptrons.
  • a perceptron If the huge artificial neural network structure extends the simplified perceptron structure shown in FIG. 8, input vectors can be applied to different multidimensional perceptrons. For convenience of description, an input value or an output value is referred to as a node.
  • the perceptron structure shown in FIG. 8 may be described as being composed of a total of three layers based on an input value and an output value.
  • An artificial neural network in which H (d+1)-dimensional perceptrons exist between the 1st layer and the 2nd layer and K (H+1)-dimensional perceptrons exist between the 2nd layer and the 3rd layer can be expressed as shown in FIG. can
  • the layer where the input vector is located is called an input layer
  • the layer where the final output value is located is called the output layer
  • all layers located between the input layer and the output layer are called hidden layers.
  • the artificial neural network illustrated in FIG. 9 can be understood as a total of two layers.
  • the artificial neural network is constructed by connecting the perceptrons of the basic blocks in two dimensions.
  • the aforementioned input layer, hidden layer, and output layer can be jointly applied in various artificial neural network structures such as CNN and RNN to be described later as well as multi-layer perceptron.
  • various artificial neural network structures such as CNN and RNN to be described later as well as multi-layer perceptron.
  • the artificial neural network becomes deeper, and a machine learning paradigm that uses a sufficiently deep artificial neural network as a learning model can be called deep learning.
  • an artificial neural network used for deep learning may be referred to as a deep neural network (DNN).
  • DNN deep neural network
  • FIG. 10 illustrates a deep neural network applicable to the present disclosure.
  • the deep neural network may be a multilayer perceptron composed of eight hidden layers + eight output layers.
  • the multilayer perceptron structure may be expressed as a fully-connected neural network.
  • a connection relationship does not exist between nodes located in the same layer, and a connection relationship can exist only between nodes located in adjacent layers.
  • DNN has a fully connected neural network structure and is composed of a combination of a number of hidden layers and activation functions, so it can be usefully applied to figure out the correlation between input and output.
  • the correlation characteristic may mean a joint probability of input/output.
  • FIG. 11 shows a convolutional neural network applicable to the present disclosure.
  • FIG. 12 shows a filter operation of a convolutional neural network applicable to the present disclosure.
  • various artificial neural network structures different from the above-described DNN may be formed.
  • the DNN nodes located inside one layer are arranged in a one-dimensional vertical direction.
  • the nodes are two-dimensionally arranged with w horizontally and h vertical nodes. (Convolutional neural network structure in Fig. 11).
  • a weight is added per connection in the connection process from one input node to the hidden layer, a total of h ⁇ w weights must be considered. Since there are h ⁇ w nodes in the input layer, a total of h 2 w 2 weights may be required between two adjacent layers.
  • the convolutional neural network of FIG. 11 has a problem in that the number of weights increases exponentially according to the number of connections, so instead of considering the connection of all modes between adjacent layers, it is assumed that a filter with a small size exists.
  • a weighted sum and activation function operation may be performed on a portion where the filters overlap.
  • one filter has a weight corresponding to the number corresponding to its size, and learning of the weight can be performed so that a specific feature on the image can be extracted and output as a factor.
  • a 3 ⁇ 3 filter is applied to the upper left 3 ⁇ 3 region of the input layer, and an output value obtained by performing weighted sum and activation function operations on the corresponding node may be stored in z 22 .
  • the above-described filter may perform weighted sum and activation function calculations while moving horizontally and vertically at regular intervals while scanning the input layer, and the output value may be disposed at the current filter position. Since this operation method is similar to a convolution operation on an image in the field of computer vision, a deep neural network with such a structure is called a convolutional neural network (CNN), and the result of the convolution operation is The hidden layer may be referred to as a convolutional layer. Also, a neural network having a plurality of convolutional layers may be referred to as a deep convolutional neural network (DCNN).
  • DCNN deep convolutional neural network
  • the number of weights can be reduced by calculating the weighted sum by including only nodes located in the region covered by the filter in the node where the filter is currently located. Due to this, one filter can be used to focus on features for a local area. Accordingly, CNN can be effectively applied to image data processing in which physical distance on a two-dimensional domain is an important criterion. Meanwhile, in CNN, a plurality of filters may be applied immediately before the convolution layer, and a plurality of output results may be generated through the convolution operation of each filter.
  • a structure in which this method is applied to an artificial neural network can be called a recurrent neural network structure.
  • 13 illustrates a neural network structure in which a cyclic loop applicable to the present disclosure exists.
  • 14 shows an operation structure of a recurrent neural network applicable to the present disclosure.
  • a recurrent neural network is an element ⁇ x 1 (t) , x 2 (t) , . , x d (t) ⁇ in the process of input to the fully connected neural network
  • the immediately preceding time point t-1 is the hidden vector ⁇ z 1 (t-1) , z 2 (t-1) , ... , z H (t-1) ⁇ can be input together to have a structure in which a weighted sum and an activation function are applied.
  • the reason why the hidden vector is transferred to the next time in this way is because it is considered that information in the input vector at the previous time is accumulated in the hidden vector of the current time.
  • the recurrent neural network may operate in a predetermined time sequence with respect to an input data sequence.
  • the input vector ⁇ x 1 (t) , x 2 (t) , ... , x d (t) ⁇ when the hidden vector ⁇ z 1 (1) , z 2 (1) , ... , z H (1) ⁇ is the input vector ⁇ x 1 (2) , x 2 (2) , ... , x d (2) ⁇
  • the vector of the hidden layer ⁇ z 1 (2) , z 2 (2) , ... , z H (2) ⁇ is determined.
  • These processes are time point 2, time point 3, ... , iteratively until time point T.
  • a deep recurrent neural network when a plurality of hidden layers are arranged in a recurrent neural network, this is called a deep recurrent neural network (DRNN).
  • the recurrent neural network is designed to be usefully applied to sequence data (eg, natural language processing).
  • neural network core used as a learning method, in addition to DNN, CNN, and RNN, restricted Boltzmann machine (RBM), deep belief networks (DBN), deep Q-Network and It includes various deep learning techniques such as, and can be applied to fields such as computer vision, voice recognition, natural language processing, and voice/signal processing.
  • RBM restricted Boltzmann machine
  • DNN deep belief networks
  • Q-Network includes various deep learning techniques such as, and can be applied to fields such as computer vision, voice recognition, natural language processing, and voice/signal processing.
  • AI-based physical layer transmission means applying a signal processing and communication mechanism based on an AI driver rather than a traditional communication framework in a fundamental signal processing and communication mechanism. For example, deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO mechanism, AI-based resource scheduling ( scheduling) and allocation may be included.
  • Federated learning is one of the distributed machine learning techniques.
  • Federated learning is a technique in which multiple devices that are the subject of learning share parameters with a server. For example, in federated learning, multiple devices that are the subject of learning share a weight or gradient of a server and a local model. The server collects the local model parameters of each device and updates the global parameters. The server does not share the raw data of each device with the devices. Accordingly, federated learning can reduce a communication overhead of a data transmission process, and can protect personal information.
  • Federated learning based on orthogonal multiple access operates as shown in FIG. 15 .
  • Devices 1502a, 1502b, and 1502c transmit local parameters in their respective allocated resources.
  • the server 1504 performs offline aggregation on the parameters received from the device. In general, the server derives global parameters through averaging of all local parameters. Then, the server transmits the derived global parameter back to the devices. However, as the number of devices participating in learning increases under limited radio resources, the time for the server to update global parameters is delayed. In a non-IID (independently and identically distributed) environment, the raw data distribution of each device may be different. Therefore, in the Non-IID environment, the transmission frequency of local parameters of each device should be increased.
  • a server may refer to a base station, and may perform joint learning with a plurality of terminals. Also, the terminal may be referred to as a user.
  • AirComp-based federated learning is a method in which all devices 1602a , 1602b , and 1602c transmit local parameters to the server 1604 using the same resource.
  • the server may obtain the sum of local parameters by the superposition characteristic of the analog waveform of the received signal.
  • the number of devices participating in learning does not significantly affect latency because local parameters are transmitted through the same resource.
  • devices must be synchronized. When multiple devices want to perform federated learning, a strict synchronization process is required for all devices to transmit parameters at the same time.
  • a technique of grouping devices participating in learning in order for a plurality of devices to efficiently perform federated learning in a non-IID environment may be used. Accordingly, devices that want to participate in federated learning are grouped, and the grouped devices can perform air-comp based federated learning within the group. As the data distribution of the device group is similar to the global data distribution, when the devices learn the group model, a model similar to the global model may be obtained. When devices acquire a group model similar to the global model, a load on parameter transmission and reception may be reduced when devices perform aggregation on the group model.
  • the present disclosure proposes a method for efficiently performing air-computation-based federated learning by multiple devices with strong non-IID characteristics.
  • the present disclosure proposes a method of setting a device group, which is a unit for averaging local parameters when devices perform federated learning.
  • the present disclosure proposes a method for setting a device group so that the distribution of group data is similar to global data.
  • the present disclosure proposes a method of determining the degree of the non-IID characteristic of each device.
  • each device when each device is to perform federated learning, each device may transmit a weight parameter W k of a local model learned through their own raw data to the server 1702 . .
  • the weight corresponding to the split layer of the model may be transmitted to the server 1702 .
  • the server and the base station may be used interchangeably. Specifically, when the size of the local model is large and the local model is trained under the same initial value situation, the device may transmit a weight corresponding to a split layer of the model to the server.
  • Server 1802 receives all local models (W tot ) or split local models ( ) to the device 1804 .
  • the device may perform an accuracy test on raw data based on a local model of another device. This disclosure refers to this process as model traveling. As the non-IID characteristic of the raw-data possessed by each device is stronger, the probability of an interference error according to model traveling may increase.
  • the device when receiving the split local model from the server, the device may replace some layers in its local model with the received split local model. Accordingly, the device may replace some layers with the received split-local model and perform model traveling.
  • the device may transmit the accuracy table generated by the device to the server.
  • the device can provide information about the data non-IID characteristics of the device that wants to participate in federated learning by transmitting the accuracy table to the server. Equation 1 below expresses an example of an accuracy table.
  • p i,j represents inference accuracy when the i-th device performs model traveling using the local model of the j-th device.
  • the server may measure the degree of data non-IID of devices that want to perform federated learning through the above-described model traveling process.
  • the server may allocate resources by grouping devices in order for devices to perform efficient air-computation-based federated learning.
  • devices perform air-computation-based federated learning it is difficult to perform a strict synchronization process when the number of devices is too large.
  • the non-IID characteristic between raw data is strong as the number of devices is large, the period of transmitting the local model to the server when the devices perform federated learning should be short.
  • the server may allocate resources by grouping devices.
  • the base station may divide the terminals into group 1 (1902), group 2 (1904) and group 3 (1906).
  • the base station may allocate resources so that terminals in each group perform federated learning based on the same resource. That is, the base station may allocate resources so that terminals in each group perform air-compuation-based federated learning.
  • the devices can perform efficient federated learning.
  • device grouping may be performed by grouping devices having strong non-IID characteristics of raw data. Accordingly, the distribution of group data may be set to be similar to the distribution of global data.
  • the server uses the received accuracy table to obtain inter-device interference accuracy (inference accuracy, ) so that the sum of the device groups ( ) can be determined.
  • the device grouping described above may reduce a model reporting period between the device and the server. That is, when devices in a group perform air-computation-based federated learning, devices can learn while having a short model report cycle between the device and the server.
  • the server can secure the global model by averaging the results of the local model learned within the group.
  • the base station 2004 may request a local model weight from the terminal 2002.
  • the base station may request weights of the local model from the terminals in order to measure non-IID characteristics.
  • the base station may request a local model weight from a device that wants to learn the global model.
  • the server may request a split model weight from the terminal.
  • the server may determine a specific point of the local model based on the size of the entire model. Then, the server may request the split model weight based on the determined specific point of the local model.
  • the terminal 2002 may report the weights of the local model to the base station 2004 through orthogonal resources. That is, the terminal may transmit the local model or the split local model learned from the respective data to the server through separate resources.
  • the base station 2004 may broadcast total local models to the terminal 2002 for model traveling. That is, the base station may transmit a set of local models to the device in order to understand the non-IID characteristics of the raw data possessed by each terminal.
  • the terminal may perform model traveling.
  • the terminal may perform model traveling based on the received set of local models.
  • the terminal may generate an accuracy table based on model traveling. That is, the terminal may generate the accuracy table based on the received set of local models.
  • step S2009 the terminal may transmit the accuracy table to the base station.
  • the base station may perform device grouping based on the received table. For example, the base station may group terminals with strong non-IID characteristics based on the accuracy information of each terminal.
  • the base station may allocate resources for federated learning. For example, the base station may allocate the same resource to one group of terminals. That is, the base station may allocate resources for air-computation-based federated learning to each group.
  • the base station and the terminals may perform federated learning based on the allocated resources.
  • the base station and the terminals may perform air-computation-based federated learning based on a short-period model reporting. That is, the terminal and the base station may perform air-computation-based federated learning based on a frequent model report.
  • the terminal may learn the global model together with the terminals of the same group based on the allocated resource.
  • devices participate in federated learning by sending the learned local model to the server.
  • the devices may transmit a split layer model.
  • a device may perform model traveling by diving into another device's local model from the server.
  • model traveling may be performed by replacing a part of its local model with the received local model.
  • This split-layer-based model traveling method can reduce traffic for identifying non-IID characteristics between devices.
  • the base station may group devices with strong non-IID characteristics by using a table obtained based on model traveling. Also, the base station may allocate the same resource to one group of terminals. Accordingly, terminals in the group may perform air-computaiton-based federated learning. When the terminals in the group perform federated learning, the transmission period of the local model can be shortened. Accordingly, even if terminals having non-IID data perform federated learning, it is possible to secure the accuracy of a model obtained through federated learning.
  • Table 1 shows whether it is possible to transmit model parameters of a short period according to the federated learning technique.
  • terminals may take time to transmit a model due to limited resources. Therefore, it is difficult for the terminals to transmit the local model to the server in a short period.
  • the terminal learns the local model.
  • the terminal may receive federated learning-related configuration information from a base station or a server, and the terminal may learn a local model based on the federated learning-related configuration information.
  • the terminal may receive a local model weight request message from the base station or the server.
  • the terminal may transmit a response message based on the received weight request message.
  • the terminal may transmit local model related information including split local model information to the base station or the server. That is, the response message may include split local model information.
  • the terminal receives the total local model related information and transmits a response message thereto.
  • the total local model may include local model information of other terminals participating in the federated learning.
  • the total local model related information may include split local model information.
  • the terminal may receive the total local model related information and perform model traveling, which will be described in detail in FIGS. 17 to 20 .
  • the terminal may change some layers of the local model of the terminal to the split local model based on the received total local model information including the split local model information. Also, the terminal may change some layers of the local model to a split local model, and perform model traveling based on this. That is, the terminal may compare the data of its own local model with the local model-related data of other terminals participating in federated learning based on the local model in which some layers are changed to the layer of the split local model. Accordingly, the response message may include comparison information between the local model-related data of another terminal participating in the federated learning and the local model-related data of the terminal.
  • the base station or the server may determine a group related to federated learning based on the response message.
  • the group may be determined based on comparison information between local model-related data of other terminals participating in the federated learning and local model-related data of the terminal.
  • the base station or the server may determine that data of terminals in the group have non-IID characteristics. Accordingly, a difference in data distribution between terminals within the determined group may be greater than a difference in data distribution between the determined groups.
  • the base station or the server may allocate resources so that terminal groups perform air-compuation-based federated learning, respectively, and transmit resource allocation related information to the terminals.
  • step S2105 the terminal receives resource allocation related information and performs federated learning based on it. All of the terminal and the terminals of the group to which the terminal belongs may perform federated learning based on the same resource. That is, the terminal may perform air-computation-based federated learning.
  • the base station transmits total local model related information and receives a response message thereto.
  • the base station may transmit federated learning related configuration information to the terminal.
  • the terminal may learn the local model based on the received configuration information.
  • the base station may transmit a local model weight request message to the terminal.
  • the terminal may transmit a response message to the base station based on the local model weight request message.
  • the terminal may receive the response message including the local model-related information, and generate total local model-related information based thereon. That is, the base station may generate total local model related information by receiving local models from a plurality of terminals.
  • the base station may transmit total local model related information to the terminal.
  • the terminal may perform model traveling and transmit a response message, and the base station may receive the response message.
  • the base station performs device grouping based on the response message.
  • the base station may perform device grouping based on an accuracy table.
  • the base station may allocate resources so that terminal groups perform air-compuation-based federated learning, respectively, and transmit resource allocation related information to the terminals.
  • the base station transmits resource allocation related information.
  • the terminal receives resource allocation related information and performs federated learning based on it. All of the terminal and the terminals of the group to which the terminal belongs may perform federated learning based on the same resource. That is, the terminal may perform air-computation-based federated learning.
  • examples of the above-described proposed method may also be included as one of the implementation methods of the present disclosure, it is clear that they may be regarded as a kind of proposed method.
  • the above-described proposed methods may be implemented independently, or may be implemented in the form of a combination (or merge) of some of the proposed methods.
  • Rules may be defined so that the base station informs the terminal of whether the proposed methods are applied or not (or information about the rules of the proposed methods) through a predefined signal (eg, a physical layer signal or a higher layer signal). .
  • examples of the above-described proposed method may also be included as one of the implementation methods of the present disclosure, it is clear that they may be regarded as a kind of proposed method.
  • the above-described proposed methods may be implemented independently, or may be implemented in the form of a combination (or merge) of some of the proposed methods.
  • Rules may be defined so that the base station informs the terminal of whether the proposed methods are applied or not (or information on the rules of the proposed methods) through a predefined signal (eg, a physical layer signal or a higher layer signal) to the terminal. .
  • Embodiments of the present disclosure may be applied to various wireless access systems.
  • various radio access systems there is a 3rd Generation Partnership Project (3GPP) or a 3GPP2 system.
  • 3GPP 3rd Generation Partnership Project
  • 3GPP2 3rd Generation Partnership Project2
  • Embodiments of the present disclosure may be applied not only to the various radio access systems, but also to all technical fields to which the various radio access systems are applied. Furthermore, the proposed method can be applied to mmWave and THz communication systems using very high frequency bands.
  • embodiments of the present disclosure may be applied to various applications such as free-running vehicles and drones.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

본 개시는 단말 동작 방법의 일 실시 예로서, 상기 단말이 연합 학습(federated learning) 관련 설정 정보를 수신하는 단계, 상기 단말이 상기 연합 학습 관련 설정 정보에 기초하여 로컬 모델을 학습하는 단계, 상기 단말이 로컬 모델 가중치 요청 메시지를 수신하는 단계, 상기 수신한 가중치 요청 메시지에 기초한 제1 응답 메시지를 전송하는 단계, 상기 제1 응답 메시지에 기초한 토탈 로컬 모델(total local model) 관련 정보를 수신하는 단계, 상기 수신한 토탈 로컬 모델 관련 정보에 기초한 제2 응답 메시지를 전송하는 단계, 상기 제2 응답 메시지에 기초한 자원 할당 관련 정보를 수신하는 단계 및 상기 수신한 자원 할당 관련 정보에 기초하여 연합 학습(federated learning)을 수행하는 단계를 포함한다. 상기 토탈 로컬 모델은 상기 연합 학습에 참여하는 다른 단말들의 로컬 모델 정보를 포함하고, 상기 제2 응답 메시지에 기초하여 연합 학습과 관련된 그룹이 결정되되, 상기 연합 학습은 상기 결정된 그룹에 기초하여 수행된다.

Description

무선 통신 시스템에서 신호 전송을 위한 장치 및 방법
이하의 설명은 무선 통신 시스템에 대한 것으로, 무선 통신 시스템에서 신호 전송을 위한 장치 및 방법에 관한 것이다.
무선 접속 시스템이 음성이나 데이터 등과 같은 다양한 종류의 통신 서비스를 제공하기 위해 광범위하게 전개되고 있다. 일반적으로 무선 접속 시스템은 가용한 시스템 자원(대역폭, 전송 파워 등)을 공유하여 다중 사용자와의 통신을 지원할 수 있는 다중 접속(multiple access) 시스템이다. 다중 접속 시스템의 예들로는 CDMA(code division multiple access) 시스템, FDMA(frequency division multiple access) 시스템, TDMA(time division multiple access) 시스템, OFDMA(orthogonal frequency division multiple access) 시스템, SC-FDMA(single carrier frequency division multiple access) 시스템 등이 있다.
특히, 많은 통신 기기들이 큰 통신 용량을 요구하게 됨에 따라 기존 RAT(radio access technology)에 비해 향상된 모바일 브로드밴드(enhanced mobile broadband, eMBB) 통신 기술이 제안되고 있다. 또한 다수의 기기 및 사물들을 연결하여 언제 어디서나 다양한 서비스를 제공하는 mMTC(massive machine type communications) 뿐만 아니라 신뢰성 (reliability) 및 지연(latency) 민감한 서비스/UE(user equipment)를 고려한 통신 시스템이 제안되고 있다. 이를 위한 다양한 기술 구성들이 제안되고 있다.
본 개시는 무선 통신 시스템에서 신호 전송을 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 연합 학습(federated learning)을 위한 신호 전송 장치 및 방법을 제공할 수 있다.
본 개시는 그룹핑(grouping)에 기반하여 효율적인 연합 학습 방법을 제공할 수 있다.
본 개시는 스플릿 로컬 모델(split local model)에 기반하여 효율적인 연합 학습 방법을 제공할 수 있다.
본 개시에서 이루고자 하는 기술적 목적들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 본 개시의 실시 예들로부터 본 개시의 기술 구성이 적용되는 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.
본 개시의 일 예로서, 무선 통신 시스템에서 단말의 동작 방법은 상기 단말이 연합 학습(federated learning) 관련 설정 정보를 수신하는 단계, 상기 단말이 상기 연합 학습 관련 설정 정보에 기초하여 로컬 모델을 학습하는 단계, 상기 단말이 로컬 모델 가중치 요청 메시지를 수신하는 단계, 상기 수신한 가중치 요청 메시지에 기초한 제1 응답 메시지를 전송하는 단계, 상기 제1 응답 메시지에 기초한 토탈 로컬 모델(total local model) 관련 정보를 수신하는 단계, 상기 수신한 토탈 로컬 모델 관련 정보에 기초한 제2 응답 메시지를 전송하는 단계, 상기 제2 응답 메시지에 기초한 자원 할당 관련 정보를 수신하는 단계 및 상기 수신한 자원 할당 관련 정보에 기초하여 연합 학습(federated learning)을 수행하는 단계를 포함한다. 상기 토탈 로컬 모델은 상기 연합 학습에 참여하는 다른 단말들의 로컬 모델 정보를 포함하고, 상기 제2 응답 메시지에 기초하여 연합 학습과 관련된 그룹이 결정되되, 상기 연합 학습은 상기 결정된 그룹에 기초하여 수행된다. 상기 제1 응답 메시지는 스플릿 로컬 모델(split local model) 정보를 포함할 수 있다. 상기 토탈 로컬 모델(total local model) 관련 정보가 스플릿 로컬 모델 정보를 포함할 수 있다. 상기 단말이 상기 수신한 스플릿 로컬 모델 정보를 포함하는 토탈 로컬 모델 정보에 기초하여 상기 단말의 로컬 모델의 일부 레이어(layer)를 상기 스플릿 로컬 모델로 변경할 수 있다. 상기 제2 응답 메시지는 상기 연합 학습에 참여하는 다른 단말의 로컬 모델 관련 데이터 및 상기 단말의 로컬 모델 관련 데이터의 비교 정보를 포함할 수 있다. 상기 단말 및 상기 단말이 속한 그룹의 단말들은 모두 동일한 자원에 기초하여 연합 학습을 수행할 수 있다. 상기 그룹은 상기 연합 학습에 참여하는 다른 단말의 로컬 모델 관련 데이터 및 상기 단말의 로컬 모델 관련 데이터의 비교 정보에 기초하여 결정될 수 있다. 상기 결정된 그룹 내의 단말 간 데이터 분포의 차이가 상기 결정된 그룹 간 데이터 분포의 차이보다 클 수 있다.
무선 통신 시스템에서 단말은 송수신기 및 상기 송수신기와 연결된 프로세서를 포함한다. 상기 프로세서는, 상기 송수신기가 연합 학습(federated learning) 관련 설정 정보를 수신하도록 제어하고, 상기 연합 학습 관련 설정 정보에 기초하여 로컬 모델을 학습하고, 상기 송수신기가 로컬 모델 가중치 요청 메시지를 수신하도록 제어하고, 상기 송수신기가 상기 수신한 가중치 요청 메시지에 기초한 제1 응답 메시지를 전송하도록 제어하고, 상기 송수신기가 상기 제1 응답 메시지에 기초한 토탈 로컬 모델(total local model) 관련 정보를 수신하도록 제어하고, 상기 송수신기가 상기 수신한 토탈 로컬 모델 관련 정보에 기초한 제2 응답 메시지를 전송하도록 제어하고, 상기 송수신기가 상기 제2 응답 메시지에 기초한 자원 할당 관련 정보를 수신하도록 제어하고, 상기 수신한 자원 할당 관련 정보에 기초하여 연합 학습(federated learning)을 수행한다. 상기 토탈 로컬 모델은 상기 연합 학습에 참여하는 다른 단말들의 로컬 모델 정보를 포함하고, 상기 제2 응답 메시지에 기초하여 연합 학습과 관련된 그룹이 결정되되, 상기 연합 학습은 상기 결정된 그룹에 기초하여 수행된다. 상기 제1 응답 메시지는 스플릿 로컬 모델(split local model) 정보를 포함할 수 있다. 상기 토탈 로컬 모델(total local model) 관련 정보가 스플릿 로컬 모델 정보를 포함할 수 있다. 상기 프로세서가 상기 수신한 스플릿 로컬 모델 정보를 포함하는 토탈 로컬 모델 정보에 기초하여 상기 단말의 로컬 모델의 일부 레이어(layer)를 상기 스플릿 로컬 모델로 변경할 수 있다. 상기 제2 응답 메시지는 상기 연합 학습에 참여하는 다른 단말의 로컬 모델 관련 데이터 및 상기 단말의 로컬 모델 관련 데이터의 비교 정보를 포함할 수 있다. 상기 단말 및 상기 단말이 속한 그룹의 단말들은 모두 동일한 자원에 기초하여 연합 학습을 수행할 수 있다. 상기 그룹은 상기 연합 학습에 참여하는 다른 단말의 로컬 모델 관련 데이터 및 상기 단말의 로컬 모델 관련 데이터의 비교 정보에 기초하여 결정될 수 있다. 상기 결정된 그룹 내의 단말 간 데이터 분포의 차이가 상기 결정된 그룹 간 데이터 분포의 차이보다 클 수 있다.
본 개시의 일 예로서, 통신 장치는 적어도 하나의 프로세서 및 상기 적어도 하나의 프로세서와 연결되며, 상기 적어도 하나의 프로세서에 의해 실행됨에 따라 동작들을 지시하는 명령어를 저장하는 적어도 하나의 컴퓨터 메모리를 포함한다. 상기 프로세서는 상기 통신 장치가, 연합 학습(federated learning) 관련 설정 정보를 수신하도록 제어하고, 상기 연합 학습 관련 설정 정보에 기초하여 로컬 모델을 학습하도록 제어하고, 로컬 모델 가중치 요청 메시지를 수신하도록 제어하고, 상기 수신한 가중치 요청 메시지에 기초한 제1 응답 메시지를 전송하도록 제어하고, 상기 제1 응답 메시지에 기초한 토탈 로컬 모델(total local model) 관련 정보를 수신하도록 제어하고, 상기 수신한 토탈 로컬 모델 관련 정보에 기초한 제2 응답 메시지를 전송하도록 제어하고, 상기 제2 응답 메시지에 기초한 자원 할당 관련 정보를 수신하도록 제어하고, 상기 수신한 자원 할당 관련 정보에 기초하여 연합 학습(federated learning)을 수행하도록 제어한다. 상기 토탈 로컬 모델은 상기 연합 학습에 참여하는 다른 단말들의 로컬 모델 정보를 포함하고, 상기 제2 응답 메시지에 기초하여 연합 학습과 관련된 그룹이 결정되되, 상기 연합 학습은 상기 결정된 그룹에 기초하여 수행된다.
본 개시의 일 예로서, 적어도 하나의 명령어(instructions)을 저장하는 비-일시적인(non-transitory) 컴퓨터 판독 가능 매체(computer-readable medium)는 프로세서에 의해 실행 가능한(executable) 상기 적어도 하나의 명령어를 포함한다. 상기 적어도 하나의 명령어는 상기 컴퓨터 판독 가능 매체가, 연합 학습(federated learning) 관련 설정 정보를 수신하도록 지시하고, 상기 연합 학습 관련 설정 정보에 기초하여 로컬 모델을 학습하도록 지시하고, 로컬 모델 가중치 요청 메시지를 수신하도록 지시하고, 상기 수신한 가중치 요청 메시지에 기초한 제1 응답 메시지를 전송하도록 지시하고, 상기 제1 응답 메시지에 기초한 토탈 로컬 모델(total local model) 관련 정보를 수신하도록 지시하고, 상기 수신한 토탈 로컬 모델 관련 정보에 기초한 제2 응답 메시지를 전송하도록 지시하고, 상기 제2 응답 메시지에 기초한 자원 할당 관련 정보를 수신하도록 지시하고, 상기 수신한 자원 할당 관련 정보에 기초하여 연합 학습(federated learning)을 수행하도록 지시한다. 상기 토탈 로컬 모델은 상기 연합 학습에 참여하는 다른 단말들의 로컬 모델 정보를 포함하고, 상기 제2 응답 메시지에 기초하여 연합 학습과 관련된 그룹이 결정되되, 상기 연합 학습은 상기 결정된 그룹에 기초하여 수행된다.
본 개시의 일 예로서, 무선 통신 시스템에서 기지국의 동작 방법은 기 기지국이 연합 학습(federated learning) 관련 설정 정보를 전송하는 단계, 기지국이 로컬 모델 가중치 요청 메시지를 전송하는 단계, 기 가중치 요청 메시지에 기초한 제1 응답 메시지를 수신하는 단계, 상기 제1 응답 메시지에 기초한 토탈 로컬 모델(total local model) 관련 정보를 전송하는 단계, 상기 수신한 토탈 로컬 모델 관련 정보에 기초한 제2 응답 메시지를 수신하는 단계, 상기 제2 응답 메시지에 기초한 자원 할당 관련 정보를 전송하는 단계 및 상기 수신한 자원 할당 관련 정보에 기초하여 연합 학습(federated learning)을 수행하는 단계를 포함한다. 상기 연합 학습 관련 설정 정보에 기초하여 로컬 모델이 학습되고, 상기 토탈 로컬 모델은 상기 연합 학습에 참여하는 다른 단말들의 로컬 모델 정보를 포함하고, 상기 제2 응답 메시지에 기초하여 연합 학습과 관련된 그룹이 결정되되, 상기 연합 학습은 상기 결정된 그룹에 기초하여 수행된다.
본 개시의 일 예로서, 기지국은 송수신기 및 상기 송수신기와 연결된 프로세서를 포함한다. 상기 프로세서는, 상기 송수신기가 연합 학습(federated learning) 관련 설정 정보를 전송하도록 제어하고, 상기 송수신기가 로컬 모델 가중치 요청 메시지를 전송하도록 제어하고, 상기 송수신기가 가중치 요청 메시지에 기초한 제1 응답 메시지를 수신하도록 제어하고, 상기 송수신기가 상기 제1 응답 메시지에 기초한 토탈 로컬 모델(total local model) 관련 정보를 전송하도록 제어하고, 상기 송수신기가 수신한 토탈 로컬 모델 관련 정보에 기초한 제2 응답 메시지를 수신하도록 제어하고, 상기 송수신기가 상기 제2 응답 메시지에 기초한 자원 할당 관련 정보를 전송하도록 제어하고, 상기 수신한 자원 할당 관련 정보에 기초하여 연합 학습(federated learning)을 수행한다. 상기 연합 학습 관련 설정 정보에 기초하여 로컬 모델이 학습되고, 상기 토탈 로컬 모델은 상기 연합 학습에 참여하는 다른 단말들의 로컬 모델 정보를 포함하고, 상기 제2 응답 메시지에 기초하여 연합 학습과 관련된 그룹이 결정되되, 상기 연합 학습은 상기 결정된 그룹에 기초하여 수행된다.
상술한 본 개시의 양태들은 본 개시의 바람직한 실시 예들 중 일부에 불과하며, 본 개시의 기술적 특징들이 반영된 다양한 실시 예들이 당해 기술분야의 통상적인 지식을 가진 자에 의해 이하 상술할 본 개시의 상세한 설명을 기반으로 도출되고 이해될 수 있다.
본 개시에 기초한 실시 예들에 의해 하기와 같은 효과가 있을 수 있다.
본 개시에 따르면, 기지국 및 단말이 연합 학습(federated learning)을 수행함으로써, 기지국 및 단말이 데이터 전송 시 오버헤드가 감소할 수 있다.
본 개시에 따르면, 다수의 단말이 연합 학습에 참여하는 경우에도, 다수의 단말이 효율적으로 연합 학습을 수행할 수 있다.
본 개시에 따르면, 단말 간 데이터 특성을 파악하기 위한 트래픽이 감소할 수 있다.
본 개시의 실시 예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 이하의 본 개시의 실시 예들에 대한 기재로부터 본 개시의 기술 구성이 적용되는 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다. 즉, 본 개시에서 서술하는 구성을 실시함에 따른 의도하지 않은 효과들 역시 본 개시의 실시 예들로부터 당해 기술분야의 통상의 지식을 가진 자에 의해 도출될 수 있다.
이하에 첨부되는 도면들은 본 개시에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 본 개시에 대한 실시 예들을 제공할 수 있다. 다만, 본 개시의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시 예로 구성될 수 있다. 각 도면에서의 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미할 수 있다.
도 1은 본 개시에 적용 가능한 통신 시스템 예를 도시한다.
도 2는 본 개시에 적용 가능한 무선 기기의 예를 도시한다.
도 3은 본 개시에 적용 가능한 무선 기기의 다른 예를 도시한다.
도 4는 본 개시에 적용 가능한 휴대 기기의 예를 도시한다.
도 5는 본 개시에 적용 가능한 차량 또는 자율 주행 차량의 예를 도시한다.
도 6은 본 개시에 적용 가능한 AI(Artificial Intelligence)의 예를 도시한다.
도 7은 본 개시에 적용 가능한 전송 신호를 처리하는 방법을 도시한다.
도 8은 본 개시에 적용 가능한 인공 신경망에 포함되는 퍼셉트론(perceptron)의 구조를 도시한다.
도 9는 본 개시에 적용 가능한 인공 신경망 구조를 도시한다.
도 10은 본 개시에 적용 가능한 심층 신경망을 도시한다.
도 11는 본 개시에 적용 가능한 컨볼루션 신경망을 도시한다.
도 12는 본 개시에 적용 가능한 컨볼루션 신경망의 필터 연산을 도시한다.
도 13은 본 개시에 적용 가능한 순환 루프가 존재하는 신경망 구조를 도시한다.
도 14은 본 개시에 적용 가능한 순환 신경망의 동작 구조를 도시한다.
도 15는 본 개시에 적용 가능한 연합 학습의 일 예를 도시한다.
도 16은 본 개시에 적용 가능한 연합 학습의 일 예를 도시한다.
도 17 및 도 18은 본 개시에 적용 가능한 단말들의 연합 학습 과정의 일 예를 도시한다.
도 19는 본 개시에 적용 가능한 디바이스 그룹핑의 일 예를 도시한다.
도 20은 본 개시에 적용 가능한 연합 학습 절차의 일 예를 도시한다.
도 21은 본 개시에 적용 가능한 단말 동작 절차의 일 예를 도시한다.
도 22는 본 개시에 적용 가능한 기지국 동작 절차의 일 예를 도시한다.
이하의 실시 예들은 본 개시의 구성요소들과 특징들을 소정 형태로 결합한 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려될 수 있다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 개시의 실시 예를 구성할 수도 있다. 본 개시의 실시 예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시 예의 일부 구성이나 특징은 다른 실시 예에 포함될 수 있고, 또는 다른 실시 예의 대응하는 구성 또는 특징과 교체될 수 있다.
도면에 대한 설명에서, 본 개시의 요지를 흐릴 수 있는 절차 또는 단계 등은 기술하지 않았으며, 당업자의 수준에서 이해할 수 있을 정도의 절차 또는 단계는 또한 기술하지 아니하였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일(a 또는 an)", "하나(one)", "그(the)" 및 유사 관련어는 본 개시를 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.
본 명세서에서 본 개시의 실시 예들은 기지국과 이동국 간의 데이터 송수신 관계를 중심으로 설명되었다. 여기서, 기지국은 이동국과 직접적으로 통신을 수행하는 네트워크의 종단 노드(terminal node)로서의 의미가 있다. 본 문서에서 기지국에 의해 수행되는 것으로 설명된 특정 동작은 경우에 따라서는 기지국의 상위 노드(upper node)에 의해 수행될 수도 있다.
즉, 기지국을 포함하는 다수의 네트워크 노드들(network nodes)로 이루어지는 네트워크에서 이동국과의 통신을 위해 수행되는 다양한 동작들은 기지국 또는 기지국 이외의 다른 네트워크 노드들에 의해 수행될 수 있다. 이때, '기지국'은 고정국(fixed station), Node B, eNB(eNode B), gNB(gNode B), ng-eNB, 발전된 기지국(advanced base station, ABS) 또는 억세스 포인트(access point) 등의 용어에 의해 대체될 수 있다.
또한, 본 개시의 실시 예들에서 단말(terminal)은 사용자 기기(user equipment, UE), 이동국(mobile station, MS), 가입자국(subscriber station, SS), 이동 가입자 단말(mobile subscriber station, MSS), 이동 단말(mobile terminal) 또는 발전된 이동 단말(advanced mobile station, AMS) 등의 용어로 대체될 수 있다.
또한, 송신단은 데이터 서비스 또는 음성 서비스를 제공하는 고정 및/또는 이동 노드를 말하고, 수신단은 데이터 서비스 또는 음성 서비스를 수신하는 고정 및/또는 이동 노드를 의미한다. 따라서, 상향링크의 경우, 이동국이 송신단이 되고, 기지국이 수신단이 될 수 있다. 마찬가지로, 하향링크의 경우, 이동국이 수신단이 되고, 기지국이 송신단이 될 수 있다.
본 개시의 실시 예들은 무선 접속 시스템들인 IEEE 802.xx 시스템, 3GPP(3rd Generation Partnership Project) 시스템, 3GPP LTE(Long Term Evolution) 시스템, 3GPP 5G(5th generation) NR(New Radio) 시스템 및 3GPP2 시스템 중 적어도 하나에 개시된 표준 문서들에 의해 뒷받침될 수 있으며, 특히, 본 개시의 실시 예들은 3GPP TS(technical specification) 38.211, 3GPP TS 38.212, 3GPP TS 38.213, 3GPP TS 38.321 및 3GPP TS 38.331 문서들에 의해 뒷받침 될 수 있다.
또한, 본 개시의 실시 예들은 다른 무선 접속 시스템에도 적용될 수 있으며, 상술한 시스템으로 한정되는 것은 아니다. 일 예로, 3GPP 5G NR 시스템 이후에 적용되는 시스템에 대해서도 적용 가능할 수 있으며, 특정 시스템에 한정되지 않는다.
즉, 본 개시의 실시 예들 중 설명하지 않은 자명한 단계들 또는 부분들은 상기 문서들을 참조하여 설명될 수 있다. 또한, 본 문서에서 개시하고 있는 모든 용어들은 상기 표준 문서에 의해 설명될 수 있다.
이하, 본 개시에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 개시의 예시적인 실시 형태를 설명하고자 하는 것이며, 본 개시의 기술 구성이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다.
또한, 본 개시의 실시 예들에서 사용되는 특정 용어들은 본 개시의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 개시의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.
이하의 기술은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 접속 시스템에 적용될 수 있다.
하기에서는 이하 설명을 명확하게 하기 위해, 3GPP 통신 시스템(e.g.(예, LTE, NR 등)을 기반으로 설명하지만 본 발명의 기술적 사상이 이에 제한되는 것은 아니다. LTE는 3GPP TS 36.xxx Release 8 이후의 기술을 의미할 수 있다. 세부적으로, 3GPP TS 36.xxx Release 10 이후의 LTE 기술은 LTE-A로 지칭되고, 3GPP TS 36.xxx Release 13 이후의 LTE 기술은 LTE-A pro로 지칭될 수 있다. 3GPP NR은 TS 38.xxx Release 15 이후의 기술을 의미할 수 있다. 3GPP 6G는 TS Release 17 및/또는 Release 18 이후의 기술을 의미할 수 있다. "xxx"는 표준 문서 세부 번호를 의미한다. LTE/NR/6G는 3GPP 시스템으로 통칭될 수 있다.
본 개시에 사용된 배경기술, 용어, 약어 등에 관해서는 본 발명 이전에 공개된 표준 문서에 기재된 사항을 참조할 수 있다. 일 예로, 36.xxx 및 38.xxx 표준 문서를 참조할 수 있다.
본 개시에 적용 가능한 통신 시스템
이로 제한되는 것은 아니지만, 본 문서에 개시된 본 개시의 다양한 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 기기들 간에 무선 통신/연결(예, 5G)을 필요로 하는 다양한 분야에 적용될 수 있다.
이하, 도면을 참조하여 보다 구체적으로 예시한다. 이하의 도면/설명에서 동일한 도면 부호는 다르게 기술하지 않는 한, 동일하거나 대응되는 하드웨어 블록, 소프트웨어 블록 또는 기능 블록을 예시할 수 있다.
도 1은 본 개시에 적용되는 통신 시스템 예시를 도시한 도면이다.
도 1을 참조하면, 본 개시에 적용되는 통신 시스템(100)은 무선 기기, 기지국 및 네트워크를 포함한다. 여기서, 무선 기기는 무선 접속 기술(예, 5G NR, LTE)을 이용하여 통신을 수행하는 기기를 의미하며, 통신/무선/5G 기기로 지칭될 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(100a), 차량(100b-1, 100b-2), XR(extended reality) 기기(100c), 휴대 기기(hand-held device)(100d), 가전(home appliance)(100e), IoT(Internet of Thing) 기기(100f), AI(artificial intelligence) 기기/서버(100g)를 포함할 수 있다. 예를 들어, 차량은 무선 통신 기능이 구비된 차량, 자율 주행 차량, 차량간 통신을 수행할 수 있는 차량 등을 포함할 수 있다. 여기서, 차량(100b-1, 100b-2)은 UAV(unmanned aerial vehicle)(예, 드론)를 포함할 수 있다. XR 기기(100c)는 AR(augmented reality)/VR(virtual reality)/MR(mixed reality) 기기를 포함하며, HMD(head-mounted device), 차량에 구비된 HUD(head-up display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등의 형태로 구현될 수 있다. 휴대 기기(100d)는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 컴퓨터(예, 노트북 등) 등을 포함할 수 있다. 가전(100e)은 TV, 냉장고, 세탁기 등을 포함할 수 있다. IoT 기기(100f)는 센서, 스마트 미터 등을 포함할 수 있다. 예를 들어, 기지국(120), 네트워크(130)는 무선 기기로도 구현될 수 있으며, 특정 무선 기기(120a)는 다른 무선 기기에게 기지국/네트워크 노드로 동작할 수도 있다.
무선 기기(100a~100f)는 기지국(120)을 통해 네트워크(130)와 연결될 수 있다. 무선 기기(100a~100f)에는 AI 기술이 적용될 수 있으며, 무선 기기(100a~100f)는 네트워크(130)를 통해 AI 서버(100g)와 연결될 수 있다. 네트워크(130)는 3G 네트워크, 4G(예, LTE) 네트워크 또는 5G(예, NR) 네트워크 등을 이용하여 구성될 수 있다. 무선 기기(100a~100f)는 기지국(120)/네트워크(130)를 통해 서로 통신할 수도 있지만, 기지국(120)/네트워크(130)를 통하지 않고 직접 통신(예, 사이드링크 통신(sidelink communication))할 수도 있다. 예를 들어, 차량들(100b-1, 100b-2)은 직접 통신(예, V2V(vehicle to vehicle)/V2X(vehicle to everything) communication)을 할 수 있다. 또한, IoT 기기(100f)(예, 센서)는 다른 IoT 기기(예, 센서) 또는 다른 무선 기기(100a~100f)와 직접 통신을 할 수 있다.
무선 기기(100a~100f)/기지국(120), 기지국(120)/기지국(120) 간에는 무선 통신/연결(150a, 150b, 150c)이 이뤄질 수 있다. 여기서, 무선 통신/연결은 상향/하향링크 통신(150a)과 사이드링크 통신(150b)(또는, D2D 통신), 기지국간 통신(150c)(예, relay, IAB(integrated access backhaul))과 같은 다양한 무선 접속 기술(예, 5G NR)을 통해 이뤄질 수 있다. 무선 통신/연결(150a, 150b, 150c)을 통해 무선 기기와 기지국/무선 기기, 기지국과 기지국은 서로 무선 신호를 송신/수신할 수 있다. 예를 들어, 무선 통신/연결(150a, 150b, 150c)은 다양한 물리 채널을 통해 신호를 송신/수신할 수 있다. 이를 위해, 본 개시의 다양한 제안들에 기반하여, 무선 신호의 송신/수신을 위한 다양한 구성정보 설정 과정, 다양한 신호 처리 과정(예, 채널 인코딩/디코딩, 변조/복조, 자원 매핑/디매핑 등), 자원 할당 과정 등 중 적어도 일부가 수행될 수 있다.
본 개시에 적용 가능한 통신 시스템
도 2는 본 개시에 적용될 수 있는 무선 기기의 예시를 도시한 도면이다.
도 2를 참조하면, 제1 무선 기기(200a)와 제2 무선 기기(200b)는 다양한 무선 접속 기술(예, LTE, NR)을 통해 무선 신호를 송수신할 수 있다. 여기서, {제1 무선 기기(200a), 제2 무선 기기(200b)}은 도 1의 {무선 기기(100x), 기지국(120)} 및/또는 {무선 기기(100x), 무선 기기(100x)}에 대응할 수 있다.
제1 무선 기기(200a)는 하나 이상의 프로세서(202a) 및 하나 이상의 메모리(204a)를 포함하며, 추가적으로 하나 이상의 송수신기(206a) 및/또는 하나 이상의 안테나(208a)을 더 포함할 수 있다. 프로세서(202a)는 메모리(204a) 및/또는 송수신기(206a)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202a)는 메모리(204a) 내의 정보를 처리하여 제1 정보/신호를 생성한 뒤, 송수신기(206a)을 통해 제1 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202a)는 송수신기(206a)를 통해 제2 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제2 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204a)에 저장할 수 있다. 메모리(204a)는 프로세서(202a)와 연결될 수 있고, 프로세서(202a)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204a)는 프로세서(202a)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202a)와 메모리(204a)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206a)는 프로세서(202a)와 연결될 수 있고, 하나 이상의 안테나(208a)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206a)는 송신기 및/또는 수신기를 포함할 수 있다. 송수신기(206a)는 RF(radio frequency) 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
제2 무선 기기(200b)는 하나 이상의 프로세서(202b), 하나 이상의 메모리(204b)를 포함하며, 추가적으로 하나 이상의 송수신기(206b) 및/또는 하나 이상의 안테나(208b)를 더 포함할 수 있다. 프로세서(202b)는 메모리(204b) 및/또는 송수신기(206b)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202b)는 메모리(204b) 내의 정보를 처리하여 제3 정보/신호를 생성한 뒤, 송수신기(206b)를 통해 제3 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202b)는 송수신기(206b)를 통해 제4 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제4 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204b)에 저장할 수 있다. 메모리(204b)는 프로세서(202b)와 연결될 수 있고, 프로세서(202b)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204b)는 프로세서(202b)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202b)와 메모리(204b)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206b)는 프로세서(202b)와 연결될 수 있고, 하나 이상의 안테나(208b)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206b)는 송신기 및/또는 수신기를 포함할 수 있다 송수신기(206b)는 RF 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
이하, 무선 기기(200a, 200b)의 하드웨어 요소에 대해 보다 구체적으로 설명한다. 이로 제한되는 것은 아니지만, 하나 이상의 프로토콜 계층이 하나 이상의 프로세서(202a, 202b)에 의해 구현될 수 있다. 예를 들어, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 계층(예, PHY(physical), MAC(media access control), RLC(radio link control), PDCP(packet data convergence protocol), RRC(radio resource control), SDAP(service data adaptation protocol)와 같은 기능적 계층)을 구현할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 하나 이상의 PDU(Protocol Data Unit) 및/또는 하나 이상의 SDU(service data unit)를 생성할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 메시지, 제어정보, 데이터 또는 정보를 생성할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 문서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 포함하는 신호(예, 베이스밴드 신호)를 생성하여, 하나 이상의 송수신기(206a, 206b)에게 제공할 수 있다. 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)로부터 신호(예, 베이스밴드 신호)를 수신할 수 있고, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 획득할 수 있다.
하나 이상의 프로세서(202a, 202b)는 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 마이크로 컴퓨터로 지칭될 수 있다. 하나 이상의 프로세서(202a, 202b)는 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합에 의해 구현될 수 있다. 일 예로, 하나 이상의 ASIC(application specific integrated circuit), 하나 이상의 DSP(digital signal processor), 하나 이상의 DSPD(digital signal processing device), 하나 이상의 PLD(programmable logic device) 또는 하나 이상의 FPGA(field programmable gate arrays)가 하나 이상의 프로세서(202a, 202b)에 포함될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있고, 펌웨어 또는 소프트웨어는 모듈, 절차, 기능 등을 포함하도록 구현될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 수행하도록 설정된 펌웨어 또는 소프트웨어는 하나 이상의 프로세서(202a, 202b)에 포함되거나, 하나 이상의 메모리(204a, 204b)에 저장되어 하나 이상의 프로세서(202a, 202b)에 의해 구동될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 코드, 명령어 및/또는 명령어의 집합 형태로 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있다.
하나 이상의 메모리(204a, 204b)는 하나 이상의 프로세서(202a, 202b)와 연결될 수 있고, 다양한 형태의 데이터, 신호, 메시지, 정보, 프로그램, 코드, 지시 및/또는 명령을 저장할 수 있다. 하나 이상의 메모리(204a, 204b)는 ROM(read only memory), RAM(random access memory), EPROM(erasable programmable read only memory), 플래시 메모리, 하드 드라이브, 레지스터, 캐쉬 메모리, 컴퓨터 판독 저장 매체 및/또는 이들의 조합으로 구성될 수 있다. 하나 이상의 메모리(204a, 204b)는 하나 이상의 프로세서(202a, 202b)의 내부 및/또는 외부에 위치할 수 있다. 또한, 하나 이상의 메모리(204a, 204b)는 유선 또는 무선 연결과 같은 다양한 기술을 통해 하나 이상의 프로세서(202a, 202b)와 연결될 수 있다.
하나 이상의 송수신기(206a, 206b)는 하나 이상의 다른 장치에게 본 문서의 방법들 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 전송할 수 있다. 하나 이상의 송수신기(206a, 206b)는 하나 이상의 다른 장치로부터 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 수신할 수 있다. 예를 들어, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 프로세서(202a, 202b)와 연결될 수 있고, 무선 신호를 송수신할 수 있다. 예를 들어, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)가 하나 이상의 다른 장치에게 사용자 데이터, 제어 정보 또는 무선 신호를 전송하도록 제어할 수 있다. 또한, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)가 하나 이상의 다른 장치로부터 사용자 데이터, 제어 정보 또는 무선 신호를 수신하도록 제어할 수 있다. 또한, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 안테나(208a, 208b)와 연결될 수 있고, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 안테나(208a, 208b)를 통해 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 송수신하도록 설정될 수 있다. 본 문서에서, 하나 이상의 안테나는 복수의 물리 안테나이거나, 복수의 논리 안테나(예, 안테나 포트)일 수 있다. 하나 이상의 송수신기(206a, 206b)는 수신된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 하나 이상의 프로세서(202a, 202b)를 이용하여 처리하기 위해, 수신된 무선 신호/채널 등을 RF 밴드 신호에서 베이스밴드 신호로 변환(Convert)할 수 있다. 하나 이상의 송수신기(206a, 206b)는 하나 이상의 프로세서(202a, 202b)를 이용하여 처리된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 베이스밴드 신호에서 RF 밴드 신호로 변환할 수 있다. 이를 위하여, 하나 이상의 송수신기(206a, 206b)는 (아날로그) 오실레이터 및/또는 필터를 포함할 수 있다.
본 개시에 적용 가능한 무선 기기 구조
도 3은 본 개시에 적용되는 무선 기기의 다른 예시를 도시한 도면이다.
도 3을 참조하면, 무선 기기(300)는 도 2의 무선 기기(200a, 200b)에 대응하며, 다양한 요소(element), 성분(component), 유닛/부(unit), 및/또는 모듈(module)로 구성될 수 있다. 예를 들어, 무선 기기(300)는 통신부(310), 제어부(320), 메모리부(330) 및 추가 요소(340)를 포함할 수 있다. 통신부는 통신 회로(312) 및 송수신기(들)(314)을 포함할 수 있다. 예를 들어, 통신 회로(312)는 도 2의 하나 이상의 프로세서(202a, 202b) 및/또는 하나 이상의 메모리(204a, 204b)를 포함할 수 있다. 예를 들어, 송수신기(들)(314)는 도 2의 하나 이상의 송수신기(206a, 206b) 및/또는 하나 이상의 안테나(208a, 208b)을 포함할 수 있다. 제어부(320)는 통신부(310), 메모리부(330) 및 추가 요소(340)와 전기적으로 연결되며 무선 기기의 제반 동작을 제어한다. 예를 들어, 제어부(320)는 메모리부(330)에 저장된 프로그램/코드/명령/정보에 기반하여 무선 기기의 전기적/기계적 동작을 제어할 수 있다. 또한, 제어부(320)는 메모리부(330)에 저장된 정보를 통신부(310)을 통해 외부(예, 다른 통신 기기)로 무선/유선 인터페이스를 통해 전송하거나, 통신부(310)를 통해 외부(예, 다른 통신 기기)로부터 무선/유선 인터페이스를 통해 수신된 정보를 메모리부(330)에 저장할 수 있다.
추가 요소(340)는 무선 기기의 종류에 따라 다양하게 구성될 수 있다. 예를 들어, 추가 요소(340)는 파워 유닛/배터리, 입출력부(input/output unit), 구동부 및 컴퓨팅부 중 적어도 하나를 포함할 수 있다. 이로 제한되는 것은 아니지만, 무선 기기(300)는 로봇(도 1, 100a), 차량(도 1, 100b-1, 100b-2), XR 기기(도 1, 100c), 휴대 기기(도 1, 100d), 가전(도 1, 100e), IoT 기기(도 1, 100f), 디지털 방송용 단말, 홀로그램 장치, 공공 안전 장치, MTC 장치, 의료 장치, 핀테크 장치(또는 금융 장치), 보안 장치, 기후/환경 장치, AI 서버/기기(도 1, 140), 기지국(도 1, 120), 네트워크 노드 등의 형태로 구현될 수 있다. 무선 기기는 사용-예/서비스에 따라 이동 가능하거나 고정된 장소에서 사용될 수 있다.
도 3에서 무선 기기(300) 내의 다양한 요소, 성분, 유닛/부, 및/또는 모듈은 전체가 유선 인터페이스를 통해 상호 연결되거나, 적어도 일부가 통신부(310)를 통해 무선으로 연결될 수 있다. 예를 들어, 무선 기기(300) 내에서 제어부(320)와 통신부(310)는 유선으로 연결되며, 제어부(320)와 제1 유닛(예, 130, 140)은 통신부(310)를 통해 무선으로 연결될 수 있다. 또한, 무선 기기(300) 내의 각 요소, 성분, 유닛/부, 및/또는 모듈은 하나 이상의 요소를 더 포함할 수 있다. 예를 들어, 제어부(320)는 하나 이상의 프로세서 집합으로 구성될 수 있다. 예를 들어, 제어부(320)는 통신 제어 프로세서, 어플리케이션 프로세서(application processor), ECU(electronic control unit), 그래픽 처리 프로세서, 메모리 제어 프로세서 등의 집합으로 구성될 수 있다. 다른 예로, 메모리부(330)는 RAM, DRAM(dynamic RAM), ROM, 플래시 메모리(flash memory), 휘발성 메모리(volatile memory), 비-휘발성 메모리(non-volatile memory) 및/또는 이들의 조합으로 구성될 수 있다.
본 개시가 적용 가능한 휴대 기기
도 4는 본 개시에 적용되는 휴대 기기의 예시를 도시한 도면이다.
도 4는 본 개시에 적용되는 휴대 기기를 예시한다. 휴대 기기는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트 워치, 스마트 글래스), 휴대용 컴퓨터(예, 노트북 등)을 포함할 수 있다. 휴대 기기는 MS(mobile station), UT(user terminal), MSS(mobile subscriber station), SS(subscriber station), AMS(advanced mobile station) 또는 WT(wireless terminal)로 지칭될 수 있다.
도 4를 참조하면, 휴대 기기(400)는 안테나부(408), 통신부(410), 제어부(420), 메모리부(430), 전원공급부(440a), 인터페이스부(440b) 및 입출력부(440c)를 포함할 수 있다. 안테나부(408)는 통신부(410)의 일부로 구성될 수 있다. 블록 410~430/440a~440c는 각각 도 3의 블록 310~330/340에 대응한다.
통신부(410)는 다른 무선 기기, 기지국들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(420)는 휴대 기기(400)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(420)는 AP(application processor)를 포함할 수 있다. 메모리부(430)는 휴대 기기(400)의 구동에 필요한 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 또한, 메모리부(430)는 입/출력되는 데이터/정보 등을 저장할 수 있다. 전원공급부(440a)는 휴대 기기(400)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다. 인터페이스부(440b)는 휴대 기기(400)와 다른 외부 기기의 연결을 지원할 수 있다. 인터페이스부(440b)는 외부 기기와의 연결을 위한 다양한 포트(예, 오디오 입/출력 포트, 비디오 입/출력 포트)를 포함할 수 있다. 입출력부(440c)는 영상 정보/신호, 오디오 정보/신호, 데이터, 및/또는 사용자로부터 입력되는 정보를 입력 받거나 출력할 수 있다. 입출력부(440c)는 카메라, 마이크로폰, 사용자 입력부, 디스플레이부(440d), 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다.
일 예로, 데이터 통신의 경우, 입출력부(440c)는 사용자로부터 입력된 정보/신호(예, 터치, 문자, 음성, 이미지, 비디오)를 획득하며, 획득된 정보/신호는 메모리부(430)에 저장될 수 있다. 통신부(410)는 메모리에 저장된 정보/신호를 무선 신호로 변환하고, 변환된 무선 신호를 다른 무선 기기에게 직접 전송하거나 기지국에게 전송할 수 있다. 또한, 통신부(410)는 다른 무선 기기 또는 기지국으로부터 무선 신호를 수신한 뒤, 수신된 무선 신호를 원래의 정보/신호로 복원할 수 있다. 복원된 정보/신호는 메모리부(430)에 저장된 뒤, 입출력부(440c)를 통해 다양한 형태(예, 문자, 음성, 이미지, 비디오, 햅틱)로 출력될 수 있다.
본 개시가 적용 가능한 무선 기기 종류
도 5는 본 개시에 적용되는 차량 또는 자율 주행 차량의 예시를 도시한 도면이다.
도 5는 본 개시에 적용되는 차량 또는 자율 주행 차량을 예시한다. 차량 또는 자율 주행 차량은 이동형 로봇, 차량, 기차, 유/무인 비행체(aerial vehicle, AV), 선박 등으로 구현될 수 있으며, 차량의 형태로 한정되는 것은 아니다.
도 5를 참조하면, 차량 또는 자율 주행 차량(500)은 안테나부(508), 통신부(510), 제어부(520), 구동부(540a), 전원공급부(540b), 센서부(540c) 및 자율 주행부(540d)를 포함할 수 있다. 안테나부(550)는 통신부(510)의 일부로 구성될 수 있다. 블록 510/530/540a~540d는 각각 도 4의 블록 410/430/440에 대응한다.
통신부(510)는 다른 차량, 기지국(예, 기지국, 노변 기지국(road side unit) 등), 서버 등의 외부 기기들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(520)는 차량 또는 자율 주행 차량(500)의 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(520)는 ECU(electronic control unit)를 포함할 수 있다.
도 6은 본 개시에 적용되는 AI 기기의 예시를 도시한 도면이다. 일 예로, AI 기기는 TV, 프로젝터, 스마트폰, PC, 노트북, 디지털방송용 단말기, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), 라디오, 세탁기, 냉장고, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다.
도 6을 참조하면, AI 기기(600)는 통신부(610), 제어부(620), 메모리부(630), 입/출력부(640a/640b), 러닝 프로세서부(640c) 및 센서부(640d)를 포함할 수 있다. 블록 610~630/640a~640d는 각각 도 3의 블록 310~330/340에 대응할 수 있다.
통신부(610)는 유무선 통신 기술을 이용하여 다른 AI 기기(예, 도 1, 100x, 120, 140)나 AI 서버(도 1, 140) 등의 외부 기기들과 유무선 신호(예, 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등)를 송수신할 수 있다. 이를 위해, 통신부(610)는 메모리부(630) 내의 정보를 외부 기기로 전송하거나, 외부 기기로부터 수신된 신호를 메모리부(630)로 전달할 수 있다.
제어부(620)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 기기(600)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 제어부(620)는 AI 기기(600)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다. 예를 들어, 제어부(620)는 러닝 프로세서부(640c) 또는 메모리부(630)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 기기(600)의 구성 요소들을 제어할 수 있다. 또한, 제어부(620)는 AI 장치(600)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리부(630) 또는 러닝 프로세서부(640c)에 저장하거나, AI 서버(도 1, 140) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.
메모리부(630)는 AI 기기(600)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예를 들어, 메모리부(630)는 입력부(640a)로부터 얻은 데이터, 통신부(610)로부터 얻은 데이터, 러닝 프로세서부(640c)의 출력 데이터, 및 센싱부(640)로부터 얻은 데이터를 저장할 수 있다. 또한, 메모리부(630)는 제어부(620)의 동작/실행에 필요한 제어 정보 및/또는 소프트웨어 코드를 저장할 수 있다.
입력부(640a)는 AI 기기(600)의 외부로부터 다양한 종류의 데이터를 획득할 수 있다. 예를 들어, 입력부(620)는 모델 학습을 위한 학습 데이터, 및 학습 모델이 적용될 입력 데이터 등을 획득할 수 있다. 입력부(640a)는 카메라, 마이크로폰 및/또는 사용자 입력부 등을 포함할 수 있다. 출력부(640b)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다. 출력부(640b)는 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센싱부(640)는 다양한 센서들을 이용하여 AI 기기(600)의 내부 정보, AI 기기(600)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 얻을 수 있다. 센싱부(640)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰 및/또는 레이더 등을 포함할 수 있다.
러닝 프로세서부(640c)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 러닝 프로세서부(640c)는 AI 서버(도 1, 140)의 러닝 프로세서부와 함께 AI 프로세싱을 수행할 수 있다. 러닝 프로세서부(640c)는 통신부(610)를 통해 외부 기기로부터 수신된 정보, 및/또는 메모리부(630)에 저장된 정보를 처리할 수 있다. 또한, 러닝 프로세서부(640c)의 출력 값은 통신부(610)를 통해 외부 기기로 전송되거나/되고, 메모리부(630)에 저장될 수 있다.
도 7은 본 개시에 적용되는 전송 신호를 처리하는 방법을 도시한 도면이다. 일 예로, 전송 신호는 신호 처리 회로에 의해 처리될 수 있다. 이때, 신호 처리 회로(700)는 스크램블러(710), 변조기(720), 레이어 매퍼(730), 프리코더(740), 자원 매퍼(750), 신호 생성기(760)를 포함할 수 있다. 이때, 일 예로, 도 7의 동작/기능은 도 2의 프로세서(202a, 202b) 및/또는 송수신기(206a, 206b)에서 수행될 수 있다. 또한, 일 예로, 도 7의 하드웨어 요소는 도 2의 프로세서(202a, 202b) 및/또는 송수신기(206a, 206b)에서 구현될 수 있다. 일 예로, 블록 710~760은 도 2의 프로세서(202a, 202b)에서 구현될 수 있다. 또한, 블록 710~750은 도 2의 프로세서(202a, 202b)에서 구현되고, 블록 760은 도 2의 송수신기(206a, 206b)에서 구현될 수 있으며, 상술한 실시 예로 한정되지 않는다.
코드워드는 도 7의 신호 처리 회로(700)를 거쳐 무선 신호로 변환될 수 있다. 여기서, 코드워드는 정보블록의 부호화된 비트 시퀀스이다. 정보블록은 전송블록(예, UL-SCH 전송블록, DL-SCH 전송블록)을 포함할 수 있다. 무선 신호는 다양한 물리 채널(예, PUSCH, PDSCH)을 통해 전송될 수 있다. 구체적으로, 코드워드는 스크램블러(710)에 의해 스크램블된 비트 시퀀스로 변환될 수 있다. 스크램블에 사용되는 스크램블 시퀀스는 초기화 값에 기반하여 생성되며, 초기화 값은 무선 기기의 ID 정보 등이 포함될 수 있다. 스크램블된 비트 시퀀스는 변조기(720)에 의해 변조 심볼 시퀀스로 변조될 수 있다. 변조 방식은 pi/2-BPSK(pi/2-binary phase shift keying), m-PSK(m-phase shift keying), m-QAM(m-quadrature amplitude modulation) 등을 포함할 수 있다.
복소 변조 심볼 시퀀스는 레이어 매퍼(730)에 의해 하나 이상의 전송 레이어로 매핑될 수 있다. 각 전송 레이어의 변조 심볼들은 프리코더(740)에 의해 해당 안테나 포트(들)로 매핑될 수 있다(프리코딩). 프리코더(740)의 출력 z는 레이어 매퍼(730)의 출력 y를 N*M의 프리코딩 행렬 W와 곱해 얻을 수 있다. 여기서, N은 안테나 포트의 개수, M은 전송 레이어의 개수이다. 여기서, 프리코더(740)는 복소 변조 심볼들에 대한 트랜스폼(transform) 프리코딩(예, DFT(discrete fourier transform) 변환)을 수행한 이후에 프리코딩을 수행할 수 있다. 또한, 프리코더(740)는 트랜스폼 프리코딩을 수행하지 않고 프리코딩을 수행할 수 있다.
자원 매퍼(750)는 각 안테나 포트의 변조 심볼들을 시간-주파수 자원에 매핑할 수 있다. 시간-주파수 자원은 시간 도메인에서 복수의 심볼(예, CP-OFDMA 심볼, DFT-s-OFDMA 심볼)을 포함하고, 주파수 도메인에서 복수의 부반송파를 포함할 수 있다. 신호 생성기(760)는 매핑된 변조 심볼들로부터 무선 신호를 생성하며, 생성된 무선 신호는 각 안테나를 통해 다른 기기로 전송될 수 있다. 이를 위해, 신호 생성기(760)는 IFFT(inverse fast fourier transform) 모듈 및 CP(cyclic prefix) 삽입기, DAC(digital-to-analog converter), 주파수 상향 변환기(frequency uplink converter) 등을 포함할 수 있다.
무선 기기에서 수신 신호를 위한 신호 처리 과정은 도 7의 신호 처리 과정(710~760)의 역으로 구성될 수 있다. 일 예로, 무선 기기(예, 도 2의 200a, 200b)는 안테나 포트/송수신기를 통해 외부로부터 무선 신호를 수신할 수 있다. 수신된 무선 신호는 신호 복원기를 통해 베이스밴드 신호로 변환될 수 있다. 이를 위해, 신호 복원기는 주파수 하향 변환기(frequency downlink converter), ADC(analog-to-digital converter), CP 제거기, FFT(fast fourier transform) 모듈을 포함할 수 있다. 이후, 베이스밴드 신호는 자원 디-매퍼 과정, 포스트코딩(postcoding) 과정, 복조 과정 및 디-스크램블 과정을 거쳐 코드워드로 복원될 수 있다. 코드워드는 복호(decoding)를 거쳐 원래의 정보블록으로 복원될 수 있다. 따라서, 수신 신호를 위한 신호 처리 회로(미도시)는 신호 복원기, 자원 디-매퍼, 포스트코더, 복조기, 디-스크램블러 및 복호기를 포함할 수 있다.
6G 시스템의 핵심 구현 기술
- 인공 지능(artificial Intelligence, AI)
6G 시스템에 가장 중요하며, 새로 도입될 기술은 AI이다. 4G 시스템에는 AI가 관여하지 않았다. 5G 시스템은 부분 또는 매우 제한된 AI를 지원할 것이다. 그러나, 6G 시스템은 완전히 자동화를 위해 AI가 지원될 것이다. 머신 러닝의 발전은 6G에서 실시간 통신을 위해 보다 지능적인 네트워크를 만들 것이다. 통신에 AI를 도입하면 실시간 데이터 전송이 간소화되고 향상될 수 있다. AI는 수많은 분석을 사용하여 복잡한 대상 작업이 수행되는 방식을 결정할 수 있다. 즉, AI는 효율성을 높이고 처리 지연을 줄일 수 있다.
핸드 오버, 네트워크 선택, 자원 스케줄링과 같은 시간 소모적인 작업은 AI를 사용함으로써 즉시 수행될 수 있다. AI는 M2M, 기계-대-인간 및 인간-대-기계 통신에서도 중요한 역할을 할 수 있다. 또한, AI는 BCI(brain computer interface)에서 신속한 통신이 될 수 있다. AI 기반 통신 시스템은 메타 물질, 지능형 구조, 지능형 네트워크, 지능형 장치, 지능형 인지 라디오(radio), 자체 유지 무선 네트워크 및 머신 러닝에 의해 지원될 수 있다.
최근 AI를 무선 통신 시스템과 통합하려고 하는 시도들이 나타나고 있으나, 이는 어플리케이션 계층(application layer), 네트워크 계층(network layer) 특히, 딥 러닝은 무선 자원 관리 및 할당(wireless resource management and allocation) 분야에 집중되어 왔다. 그러나, 이러한 연구는 점점 MAC 계층 및 물리 계층으로 발전하고 있으며, 특히 물리계층에서 딥 러닝을 무선 전송(wireless transmission)과 결합하고자 하는 시도들이 나타나고 있다. AI 기반의 물리계층 전송은, 근본적인 신호 처리 및 통신 메커니즘에 있어서, 전통적인 통신 프레임워크가 아니라 AI 드라이버에 기초한 신호 처리 및 통신 메커니즘을 적용하는 것을 의미한다. 예를 들어, 딥러닝 기반의 채널 코딩 및 디코딩(channel coding and decoding), 딥러닝 기반의 신호 추정(estimation) 및 검출(detection), 딥러닝 기반의 MIMO(multiple input multiple output) 매커니즘(mechanism), AI 기반의 자원 스케줄링(scheduling) 및 할당(allocation) 등을 포함할 수 있다.
머신 러닝은 채널 추정 및 채널 트래킹을 위해 사용될 수 있으며, DL(downlink)의 물리 계층(physical layer)에서 전력 할당(power allocation), 간섭 제거(interference cancellation) 등에 사용될 수 있다. 또한, 머신 러닝은 MIMO 시스템에서 안테나 선택, 전력 제어(power control), 심볼 검출(symbol detection) 등에도 사용될 수 있다.
그러나 물리계층에서의 전송을 위한 DNN의 적용은 아래와 같은 문제점이 있을 수 있다.
딥러닝 기반의 AI 알고리즘은 훈련 파라미터를 최적화하기 위해 수많은 훈련 데이터가 필요하다. 그러나 특정 채널 환경에서의 데이터를 훈련 데이터로 획득하는데 있어서의 한계로 인해, 오프라인 상에서 많은 훈련 데이터를 사용한다. 이는 특정 채널 환경에서 훈련 데이터에 대한 정적 훈련(static training)은, 무선 채널의 동적 특성 및 다이버시티(diversity) 사이에 모순(contradiction)이 생길 수 있다.
또한, 현재 딥 러닝은 주로 실제 신호(real signal)을 대상으로 한다. 그러나, 무선 통신의 물리 계층의 신호들은 복소 신호(complex signal)이다. 무선 통신 신호의 특성을 매칭시키기 위해 복소(complex) 도메인 신호의 검출하는 신경망(neural network)에 대한 연구가 더 필요하다.
이하, 머신 러닝에 대해 보다 구체적으로 살펴본다.
머신 러닝은 사람이 할 수 있거나 혹은 하기 어려운 작업을 대신해낼 수 있는 기계를 만들어 내기 위해 기계를 학습시키는 일련의 동작을 의미한다. 머신 러닝을 위해서는 데이터와 러닝 모델이 필요하다. 머신 러닝에서 데이터의 학습 방법은 크게 3가지 즉, 지도 학습(supervised learning), 비지도 학습(unsupervised learning) 그리고 강화 학습(reinforcement learning)으로 구분될 수 있다.
신경망 학습은 출력의 오류를 최소화하기 위한 것이다. 신경망 학습은 반복적으로 학습 데이터를 신경망에 입력시키고 학습 데이터에 대한 신경망의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 신경망의 에러를 신경망의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation) 하여 신경망의 각 노드의 가중치를 업데이트하는 과정이다.
지도 학습은 학습 데이터에 정답이 라벨링된 학습 데이터를 사용하며 비지도 학습은 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 지도 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링된 데이터 일 수 있다. 라벨링된 학습 데이터가 신경망에 입력되고 신경망의 출력(카테고리)과 학습 데이터의 라벨을 비교하여 오차(error)가 계산될 수 있다. 계산된 오차는 신경망에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 신경망의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 신경망의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 신경망의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 신경망의 학습 초기에는 높은 학습률을 사용하여 신경망이 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다
데이터의 특징에 따라 학습 방법은 달라질 수 있다. 예를 들어, 통신 시스템 상에서 송신단에서 전송한 데이터를 수신단에서 정확하게 예측하는 것을 목적으로 하는 경우, 비지도 학습 또는 강화 학습 보다는 지도 학습을 이용하여 학습을 수행하는 것이 바람직하다.
러닝 모델은 인간의 뇌에 해당하는 것으로서, 가장 기본적인 선형 모델을 생각할 수 있으나, 인공 신경망(artificial neural networks)와 같은 복잡성이 높은 신경망 구조를 러닝 모델로 사용하는 머신 러닝의 패러다임을 딥러닝(deep learning)이라 한다.
학습(learning) 방식으로 사용하는 신경망 코어(neural network cord)는 크게 심층 신경망(deep neural networks, DNN), 합성곱 신경망(convolutional deep neural networks, CNN), 순환 신경망(recurrent boltzmann machine, RNN) 방식이 있으며, 이러한 러닝 모델이 적용될 수 있다.
인공 지능(Artificial Intelligence) 시스템
도 8은 본 개시에 적용 가능한 인공 신경망에 포함되는 퍼셉트론(perceptron)의 구조를 도시한다. 또한, 도 9는 본 개시에 적용 가능한 인공 신경망 구조를 도시한다.
상술한 바와 같이, 6G 시스템에서 인공 지능 시스템이 적용될 수 있다. 이때, 일 예로, 인공 지능 시스템은 인간의 뇌에 해당하는 러닝 모델에 기초하여 동작할 수 있으며, 이는 상술한 바와 같다. 이때, 인공 신경망(artificial neural networks)와 같은 복잡성이 높은 신경망 구조를 러닝 모델로 사용하는 머신 러닝의 패러다임을 딥러닝(deep learning)이라 할 수 있다. 또한, 학습(learning) 방식으로 사용하는 신경망 코어(neural network cord)는 크게 심층 신경망(deep neural network, DNN), 합성곱 신경망(convolutional deep neural network, CNN), 순환 신경망(recurrent neural network, RNN) 방식이 있다. 이때, 일 예로, 도 8을 참조하면, 인공 신경망은 여러 개의 퍼셉트론들로 구성될 수 있다. 이때, 입력 벡터 x={x1, x2, …, xd}가 입력되면, 각 성분에 가중치 {W1, W2, …, Wd}가 곱해지고, 그 결과를 모두 합산한 후, 활성함수 σ(·)를 적용하는 전체 과정은 퍼셉트론이라 불리울 수 있다. 거대한 인공 신경망 구조는 도 8에 도시한 단순화된 퍼셉트론 구조를 확장하면, 입력벡터는 서로 다른 다 차원의 퍼셉트론에 적용될 수 있다. 설명의 편의를 위해 입력값 또는 출력값을 노드(node)라 칭한다.
한편, 도 8에 도시된 퍼셉트론 구조는 입력값, 출력값을 기준으로 총 3개의 층(layer)로 구성되는 것으로 설명될 수 있다. 1st layer와 2nd layer 사이에는 (d+1) 차원의 퍼셉트론 H개, 2nd layer와 3rd layer 사이에는 (H+1)차원 퍼셉트론이 K 개 존재하는 인공 신경망은 도 9와 같이 표현될 수 있다.
이때, 입력벡터가 위치하는 층을 입력층(input layer), 최종 출력값이 위치하는 층을 출력층(output layer), 입력층과 출력층 사이에 위치하는 모든 층을 은닉층(hidden layer)라 한다. 일 예로, 도 9에서 3개의 층이 개시되나, 실제 인공 신경망 층의 개수를 카운트할 때는 입력층을 제외하고 카운트하므로, 도 9에 예시된 인공 신경망은 총 2개의 층으로 이해될 수 있다. 인공 신경망은 기본 블록의 퍼셉트론을 2차원적으로 연결되어 구성된다.
전술한 입력층, 은닉층, 출력층은 다층 퍼셉트론 뿐 아니라 후술할 CNN, RNN 등 다양한 인공 신경망 구조에서 공동적으로 적용될 수 있다. 은닉층의 개수가 많아질수록 인공 신경망이 깊어진 것이며, 충분히 깊어진 인공 신경망을 러닝모델로 사용하는 머신러닝 패러다임을 딥러닝(deep learning)이라 할 수 있다. 또한 딥러닝을 위해 사용하는 인공 신경망을 심층 신경망(deep neural network, DNN)이라 할 수 있다.
도 10은 본 개시에 적용 가능한 심층 신경망을 도시한다.
도 10을 참조하면, 심층 신경망은 은닉층+출력층이 8개로 구성된 다층 퍼셉트론일 수 있다. 이때, 다층 퍼셉트론 구조를 완전 연결 신경망(fully-connected neural network)이라 표현할 수 있다. 완전 연결 신경망은 서로 같은 층에 위치하는 노드 간에는 연결 관계가 존재하지 않으며, 인접한 층에 위치한 노드들 간에만 연결 관계가 존재할 수 있다. DNN은 완전 연결 신경망 구조를 가지고 다수의 은닉층과 활성함수들의 조합으로 구성되어 입력과 출력 사이의 상관관계 특성을 파악하는데 유용하게 적용될 수 있다. 여기서 상관관계 특성은 입출력의 결합 확률(joint probability)을 의미할 수 있다.
도 11은 본 개시에 적용 가능한 컨볼루션 신경망을 도시한다. 또한, 도 12는 본 개시에 적용 가능한 컨볼루션 신경망의 필터 연산을 도시한다.
일 예로, 복수의 퍼셉트론을 서로 어떻게 연결하느냐에 따라 전술한 DNN과 다른 다양한 인공 신경망 구조를 형성할 수 있다. 이때, DNN은 하나의 층 내부에 위치한 노드들이 1차원적의 세로 방향으로 배치되어 있다. 그러나, 도 11을 참조하면, 노드들이 2차원적으로 가로 w개, 세로 h개의 노드가 배치할 경우를 가정할 수 있다. (도 11의 컨볼루션 신경망 구조). 이 경우, 하나의 입력 노드에서 은닉층으로 이어지는 연결과정에서 연결 하나당 가중치가 부가되므로, 총 h×w 개의 가중치가 고려되어야 한다. 입력층에 h×w 개의 노드가 존재하므로, 인접한 두 층 사이에는 총 h2w2개의 가중치가 필요할 수 있다.
또한, 도 11의 컨볼루션 신경망은 연결개수에 따라 가중치의 개수가 기하급수적으로 증가하는 문제가 있어 인접한 층 간의 모든 모드의 연결을 고려하는 대신, 크기가 작은 필터(filter)가 존재하는 것으로 가정할 수 있다. 일 예로, 도 12에서와 같이 필터가 겹치는 부분에 대해서는 가중합 및 활성함수 연산을 수행하도록 할 수 있다.
이때, 하나의 필터는 그 크기만큼의 개수에 해당하는 가중치를 가지며, 이미지 상의 어느 특정한 특징을 요인으로 추출하여 출력할 수 있도록 가중치의 학습이 이루어질 수 있다. 도 15에서는 3×3 크기의 필터가 입력층의 가장 좌측 상단 3×3 영역에 적용되고, 해당 노드에 대한 가중합 및 활성함수 연산을 수행한 결과 출력값은 z22에 저장될 수 있다.
이때, 상술한 필터는 입력층을 스캔하면서 가로, 세로 일정 간격만큼 이동하면서 가중합 및 활성함수 연산이 수행되고, 그 출력값은 현재 필터의 위치에 배치될 수 있다. 이러한 연산 방식은 컴퓨터 비전(computer vision) 분야에서 이미지에 대한 컨볼루션(convolution) 연산과 유사하므로, 이러한 구조의 심층 신경망은 컨볼루션 신경망(CNN: convolutional neural network)라 불리고, 컨볼루션 연산 결과 생성되는 은닉층은 컨볼루션 층(convolutional layer)라 불릴 수 있다. 또한, 복수의 컨볼루션 층이 존재하는 신경망을 심층 컨볼루션 신경망(deep convolutional neural network, DCNN)이라 할 수 있다.
또한, 컨볼루션 층에서는 현재 필터가 위치한 노드에서, 상기 필터가 커버하는 영역에 위치한 노드만을 포괄하여 가중합을 계산함으로써, 가중치의 개수가 감소될 수 있다. 이로 인해, 하나의 필터가 로컬(local) 영역에 대한 특징에 집중하도록 이용될 수 있다. 이에 따라, CNN은 2차원 영역 상의 물리적 거리가 중요한 판단 기준이 되는 이미지 데이터 처리에 효과적으로 적용될 수 있다. 한편, CNN은 컨볼루션 층의 직전에 복수의 필터가 적용될 수 있으며, 각 필터의 컨볼루션 연산을 통해 복수의 출력 결과를 생성할 수도 있다.
한편, 데이터 속성에 따라 시퀀스(sequence) 특성이 중요한 데이터들이 있을 수 있다. 이러한 시퀀스 데이터들의 길이 가변성, 선후 관계를 고려하여 데이터 시퀀스 상의 원소를 매 시점(timestep) 마다 하나씩 입력하고, 특정 시점에 출력된 은닉층의 출력 벡터(은닉 벡터)를, 시퀀스 상의 바로 다음 원소와 함께 입력하는 방식을 인공 신경망에 적용한 구조를 순환 신경망 구조라 할 수 있다.
도 13은 본 개시에 적용 가능한 순환 루프가 존재하는 신경망 구조를 도시한다. 도 14는 본 개시에 적용 가능한 순환 신경망의 동작 구조를 도시한다.
도 13을 참조하면, 순환 신경망(recurrent neural network, RNN)은 데이터 시퀀스 상의 어느 시선 t의 원소 {x1 (t), x2 (t), …, xd (t)}를 완전 연결 신경망에 입력하는 과정에서, 바로 이전 시점 t-1은 은닉 벡터 {z1 (t-1), z2 (t-1), …, zH (t-1)}을 함께 입력하여 가중합 및 활성함수를 적용하는 구조를 가질 수 있다. 이와 같이 은닉 벡터를 다음 시점으로 전달하는 이유는 앞선 시점들에서의 입력 벡터속 정보들이 현재 시점의 은닉 벡터에 누적된 것으로 간주하기 때문이다.
또한, 도 14를 참조하면, 순환 신경망은 입력되는 데이터 시퀀스에 대하여 소정의 시점 순서대로 동작할 수 있다. 이때, 시점 1에서의 입력 벡터 {x1 (t), x2 (t), …, xd (t)}가 순환 신경망에 입력되었을 때의 은닉 벡터 {z1 (1), z2 (1), …, zH (1)}가 시점 2의 입력 벡터 {x1 (2), x2 (2), …, xd (2)}와 함께 입력되어, 가중합 및 활성 함수를 통해 은닉층의 벡터 {z1 (2), z2 (2), …, zH (2)}가 결정된다. 이러한 과정은 시점 2, 시점 3, …, 시점 T까지 반복적으로 수행된다.
한편, 순환 신경망 내에서 복수의 은닉층이 배치될 경우, 이를 심층 순환 신경망(deep recurrent neural network, DRNN)라 한다. 순환 신경망은 시퀀스 데이터(예, 자연어 처리(natural language processing)에 유용하게 적용되도록 설계되어 있다.
학습(learning) 방식으로 사용하는 신경망 코어로서 DNN, CNN, RNN 외에 제한 볼츠만 머신(restricted Boltzmann machine, RBM), 심층 신뢰 신경망(deep belief networks, DBN), 심층 Q-네트워크(deep Q-Network)와 같은 다양한 딥 러닝 기법들을 포함하며, 컴퓨터 비젼, 음성인식, 자연어처리, 음성/신호처리 등의 분야에 적용될 수 있다.
최근에는 AI를 무선 통신 시스템과 통합하려고 하는 시도들이 나타나고 있으나, 이는 어플리케이션 계층(application layer), 네트워크 계층(network layer), 특히, 딥러닝의 경우, 무선 자원 관리 및 할당(wireless resource management and allocation) 분야에 집중되어 왔다. 그러나, 이러한 연구는 점점 MAC 계층 및 물리 계층(physical layer)으로 발전하고 있으며, 특히 물리 계층에서 딥러닝을 무선 전송(wireless transmission)과 결합하고자 하는 시도들이 나타나고 있다. AI 기반의 물리 계층 전송은, 근본적인 신호 처리 및 통신 메커니즘에 있어서, 전통적인 통신 프레임워크가 아니라, AI 드라이버에 기초한 신호 처리 및 통신 메커니즘을 적용하는 것을 의미한다. 예를 들어, 딥러닝 기반의 채널 코딩 및 디코딩(channel coding and decoding), 딥러닝 기반의 신호 추정(estimation) 및 검출(detection), 딥러닝 기반의 MIMO 매커니즘(mechanism), AI 기반의 자원 스케줄링(scheduling) 및 할당(allocation) 등을 포함할 수 있다.
본 발명의 구체적인 실시 예
도 15 및 도 16은 연합 학습 및 air computation 기반의 연합 학습을 도시한다. 도 15는 본 개시에 적용 가능한 연합 학습의 일 예를 도시한다. 연합 학습(federeated learning)은 분산 머신러닝 기법 중 하나이다. 연합 학습은 학습의 주체인 여러 장치(device)들이 서버와 파라미터를 공유하는 기법이다. 예를 들어, 연합 학습은 학습의 주체인 여러 장치들이 서버와 로컬 모델(local model)의 가중치(weight) 또는 그래디언트(gradient)를 공유한다. 서버는 각 장치들의 로컬 모델 파라미터를 취합하여 글로벌 파라미터를 업데이트한다. 서버는 장치들과 각 장치들의 raw data는 공유하지 않기 않는다. 이에 따라, 연합 학습은 데이터 전송 과정의 통신 오버헤드(communication overhead)를 감소시킬 수 있으며, 개인 정보를 보호할 수 있다.
직교 다중 접속에 기초하는 연합 학습은 도 15와 같이 동작한다. 장치들(1502a, 1502b, 1502c)는 각자 할당된 자원에서 로컬 파라미터를 전송한다. 서버(1504)는 장치로부터 수신한 파라미터에 대하여 오프라인 어그리게이션(offline aggregation)을 수행한다. 일반적으로 서버는 모든 로컬 파라미터에 대한 에버리징(averaging)을 통해 글로벌 파라미터(global parameter)를 도출한다. 그리고, 서버는 도출한 글로벌 파라미터를 다시 장치들에게 전송한다. 다만, 한정된 무선 자원 하에서 학습에 참여하는 장치의 수가 증가할수록 서버가 글로벌 파라미터를 업데이트하기 위한 시간이 지연된다. non-IID(independently and identically distributed) 환경에서, 장치들 각각의 raw data 분포가 상이할 수 있다. 따라서, Non-IID 환경에서 각 장치들의 로컬 파라미터 송신 빈도가 늘어나야 한다. 이에 따라, 기존의 연합 학습 방식이 적용되기 어려울 수 있다. 이러한 문제를 해결하기 위해 Air computation(AirComp) 기반의 연합 학습에 대한 연구가 진행되고 있다. AirComp 기반의 연합 학습에 대하여 이하 도 16에서 설명한다. 본 개시에서 서버는 기지국을 지칭할 수 있으며, 다수의 단말들과 연합 학습을 수행할 수 있다. 또한, 단말은 사용자(user)로 지칭될 수 있다.
도 16은 본 개시에 적용 가능한 연합 학습의 일 예를 도시한다. 도 16을 참고하면, AirComp 기반의 연합 학습은 모든 장치들(1602a, 1602b, 1602c)이 동일한 자원을 이용하여 서버(1604)에게 로컬 파라미터를 전송하는 방식이다. 서버는 수신한 신호의 아날로그 파형(analog waveform)의 중첩(superposition) 특성에 의해 로컬 파라미터의 합을 얻을 수 있다. AirComp 기반 연합 학습은 동일한 자원을 통해 로컬 파라미터가 전송되기 때문에 학습에 참여하는 장치들의 수가 레이턴시(latency)에 크게 영향을 미치지 않는다. 하지만, 파라미터들의 정확한 어그리게이션(aggregation)을 위해서 장치들은 동기(synchronization)를 맞춰야 한다. 다수의 장치들이 연합 학습을 하고자 하는 경우, 모든 장치들이 동시에 파라미터를 전송하기 위한 strict synchronization 과정이 요구된다. 다만, 연합 학습에 참여하는 단말의 수가 많아질수록 단말들이 파라미터를 동시에 보내기 위한 동기를 맞추기 어려워진다. 따라서, non-IID 환경에서 다수의 장치들이 효율적인 연합학습을 수행하기 위해서 학습에 참여하는 장치들을 그룹핑(grouping)하는 기법이 사용될 수 있다. 이에 따라, 연합 학습에 참여하고자 하는 장치들이 그룹핑되고, 그룹핑된 장치들은 해당 그룹 내에서 air-comp 기반의 연합 학습을 수행할 수 있다. 장치들 그룹의 데이터 분포가 글로벌 데이터(global data) 분포와 유사할수록 장치들이 그룹 모델(group model)을 학습하는 경우 글로벌 모델과 유사한 모델을 획득할 수 있다. 장치들이 글로벌 모델과 유사한 그룹 모델을 획득하는 경우, 장치들이 그룹 모델에 대한 어그리게이션을 수행 시 파라미터 송수신에 대한 로드(load)가 감소될 수 있다. 따라서, 효과적인 연합 학습을 위한 디바이스 그룹핑은 raw data의 non-IID 특성이 큰 장치들끼리 수행되어야 한다. 이를 위해서, 기준이 되는 장치에 대한 데이터 쉐어링(data sharing) 없이 다른 장치의 non-IID 특성을 측정할 수 있는 기술이 필요하다. 본 개시는 non-IID 특성이 강한 다수의 장치들이 효율적으로 air-computation 기반의 연합 학습을 수행하는 방법을 제안한다. 구체적인 일 예로, 본 개시는 장치들이 연합 학습을 수행하는 경우 로컬 파라미터를 에버레이징(averaging)하는 단위인 장치 그룹(device group)을 설정하는 방법을 제안한다. 또한, 본 개시는 그룹 데이터의 분포가 글로벌 데이터와 유사하도록 장치 그룹을 설정하는 방법을 제안한다. 구체적인 일 예로, 본 개시는 각 장치의 non-IID 특성 정도를 파악하는 방법을 제안한다.
도 17 및 도 18은 본 개시에 적용 가능한 단말들의 연합 학습 과정의 일 예를 도시한다. 도 17을 참고하면, 각 장치들이 연합 학습을 수행하려고 하는 경우, 각 장치들은 각자 보유하고 있는 raw data를 통해 학습한 로컬 모델의 가중치 파라미터(weight parameter) Wk를 서버(1702)에게 전송할 수 있다. 장치는 초기 값(initial value) 상황에서 로컬 모델을를 학습하는 경우, 모델의 스플릿 레이어(split layer)에 해당하는 가중치
Figure PCTKR2021018356-appb-img-000001
를 서버(1702)에게 전송할 수 있다. 본 개시에서 서버와 기지국은 혼용되어 사용될 수 있다. 구체적으로, 장치는 로컬 모델의 크기가 크고 동일한 초기 값 상황에서 로컬 모델을 학습하는 경우, 모델의 스플릿 레이어(split layer)에 해당하는 가중치를 서버에게 전송할 수 있다. 서버(1802)는 수신한 모든 로컬 모델(Wtot) 또는 스플릿 로컬 모델(
Figure PCTKR2021018356-appb-img-000002
)을 장치(1804)에게 전송할 수 있다. 장치는 다른 장치의 로컬 모델에 기초하여 raw data에 대한 어큐러시 테스트(accuracy test)를 수행할 수 있다. 본 개시는 이러한 과정을 모델 트레블링(model traveling)이라고 지칭한다. 각 장치가 보유하는 raw-data의 non-IID 특성이 강할수록 모델 트레블링에 따른 간섭 에러(inference error) 확률이 증가할 수 있다. 또한, 장치는 서버로부터 스플릿 로컬 모델을 수신하는 경우, 자신의 로컬 모델에서 일부 레이어(layer)를 수신한 스플릿 로컬 모델로 교체할 수 있다. 이에 따라, 장치는 수신한 스플릿 로컬 모델로 일부 레이어를 교체하고 모델 트레블링을 수행할 수 있다. 장치는 모델 트레블링을 수행한 이후, 장치가 생성한 어큐러시 테이블을 서버에게 송신할 수 있다. 장치는 어큐러시 테이블을 서버에게 전송함으로써 연합학습에 참여하고자 하는 장치의 data non-IID 특성에 대한 정보를 제공할 수 있다. 다음 수학식 1은 어큐러시 테이블의 일 예를 표현한다.
[수학식 1]
Figure PCTKR2021018356-appb-img-000003
수학식 1과 관련하여, pi,j 는 i번째 장치가 j번째 장치의 로컬 모델을 사용하여 모델 트레블링을 수행하는 경우의 간섭 어큐러시(inference accuracy)를 나타낸다.
도 19는 본 개시에 적용 가능한 디바이스 그룹핑의 일 예를 도시한다. 서버는 상술한 모델 트레블링 과정을 통해 연합 학습을 수행하고자 하는 장치들의 data non-IID 정도를 측정할 수 있다. 서버는 장치들이 효율적인 air-computation 기반의 연합 학습을 수행하도록 하기 위해 다바이스를 그룹핑하여 자원을 할당할 수 있다. 장치들이 air-computation 기반 연합 학습 수행 시, 장치들의 수가 너무 많은 경우 strict한 동기 과정을 수행하는 것이 어렵다. 또한, 장치들의 수가 많음에 따라 각 raw data 간의 non-IID 특성이 강한 경우, 장치들이 연합 학습을 수행할 때 로컬 모델을 서버에게 송신하는 주기가 짧아야 한다.
도 19를 참고하면, 서버는 장치들을 그룹핑하여 자원을 할당할 수 있다. 기지국은 단말들을 그룹 1(1902), 그룹 2(1904) 및 그룹 3(1906)으로 나눌 수 있다. 기지국은 각 그룹 내의 단말들이 동일한 자원에 기초하여 연합 학습을 수행하도록 자원을 할당할 수 있다. 즉, 기지국은 각 그룹 내의 단말들이 air-compuation 기반의 연합 학습을 수행하도록 자원을 할당할 수 있다. 이에 따라, 장치들은 효율적인 연합 학습을 수행할 수 있다. 일 예로, 디바이스 그룹핑은 raw data의 non-IID 특성이 강한 장치들끼리 그룹핑함으로써 수행될 수 있다. 이에 따라, 그룹 데이터(group data)의 분포가 글로벌 데이터의 분포와 유사하게 설정될 수 있다. 구체적인 일 예로, 서버는 수신한 어큐러시 테이블(accuracy table)을 사용하여 장치 간 간섭 어큐러시(inference accuracy,
Figure PCTKR2021018356-appb-img-000004
)의 합이 최소가 되도록 디바이스 그룹(
Figure PCTKR2021018356-appb-img-000005
)을 결정할 수 있다. 상술한 디바이스 그룹핑은 장치와 서버 간 모델 리포팅(model reporting) 주기를 감소시킬 수 있다. 즉, 그룹 내에서 장치들이 air-computation 기반 연합 학습을 수행하는 경우, 장치들이 장치와 서버 간 짧은 모델 리포트(model report) 주기를 가지면서 학습할 수 있다. 서버는 그룹 내에서 학습된 로컬 모델의 결과를 에버레이징(averaging) 함으로써 글로벌 모델을 확보할 수 있다.
도 20은 본 개시에 적용 가능한 연합 학습 절차의 일 예를 도시한다. S2001 단계에서 기지국(2004)는 단말(2002)에게 로컬 모델 가중치를 요청할 수 있다. 기지국은 non-IID 특성(characteristics)을 측정하기 위해 로컬 모델의 가중치들을 단말들에게 요청할 수 있다. 기지국은 글로벌 모델을 학습하고자 하는 장치에게 로컬 모델 가중치를 요청할 수 있다.
예를 들어, 서버는 단말에게 스플릿 모델 가중치(split model weight)를 요청할 수 있다. 구체적인 일 예로, 서버는 전체 모델의 크기에 기초하여 로컬 모델의 특정 포인트를 결정할 수 있다. 그리고, 서버는 결정된 로컬 모델의 특정 포인트에 기초하여 스플릿 모델 가중치를 요청할 수 있다.
S2003 단계에서, 단말(2002)은 기지국(2004)에게 직교 자원(orthogonal resources)을 통하여 로컬 모델의 가중치들을 보고할 수 있다. 즉, 단말은 각자의 데이터로 학습한 로컬 모델 또는 스플릿 로컬 모델을 각각 별도의 자원을 통하여 서버에게 전송할 수 있다.
S2005 단계에서, 기지국(2004)은 단말(2002)에게 모델 트레블링을 위하여 총 로컬 모델(total local models)을 브로드캐스팅 할 수 있다. 즉, 기지국은 각 단말이 보유하는 raw data의 non-IID 특성을 파악하기 위해 장치에게 로컬 모델의 집합을 전송할 수 있다.
S2007 단계에서, 단말은 모델 트레블링을 수행할 수 있다. 단말은 수신한 로컬 모델의 집합에 기초하여 모델 트레블링을 수행할 수 있다. 단말은 모델 트레블링에 기초하여 어큐러시 테이블을 생성할 수 있다. 즉, 단말은 수신한 로컬 모델의 집합에 기초하여 어큐러시 테이블을 생성할 수 있다.
S2009 단계에서, 단말은 기지국에게 어큐러시 테이블을 전송할 수 있다.
S2011 단계에서, 기지국은 수신한 테이블에 기초하여 디바이스 그룹핑을 수행할 수 있다. 예를 들어, 기지국은 각 단말의 어큐러시 정보에 기초하여 non-IID 특성이 강한 단말들끼리 그룹핑할 수 있다.
S2013 단계에서, 기지국은 연합 학습을 위한 자원을 할당할 수 있다. 예를 들어, 기지국은 하나의 그룹의 단말들에게 동일한 자원을 할당할 수 있다. 즉, 기지국은 air-computation 기반의 연합 학습을 위한 자원을 그룹마다 할당할 수 있다.
S2015 단계에서, 기지국과 단말들은 할당된 자원에 기초하여 연합 학습을 수행할 수 있다. 일 예로, 기지국과 단말들은 짧은 주기의 모델 리포팅에 기초하여 air-computation 기반의 연합 학습을 수행할 수 있다. 즉, 단말과 기지국은 빈번한 모델 리포트(frequent model report)에 기초하여 air-computation 기반의 연합 학습을 수행할 수 있다. 단말은 할당받은 자원에 기초하여 동일 그룹의 단말들과 함께 글로벌 모델을 학습할 수 있다.
본 개시에서, 장치들은 학습된 로컬 모델을 서버로 전송함으로써 연합 학습에 참여한다. 또한, 장치들은 모델의 크기가 큰 경우, 스클릿 레이어 모델(split layer model)을 전송할 수 있다. 장치는 서버로부터 다른 장치의 로컬 모델을 수심함으로써 모델 트레블링을 수행할 수 있다. 또한, 장치가 스플릿 레이어 모델을 수신하는 경우, 자신의 로컬 모델에서 일부를 수신한 로컬 모델과 교체함으로써 모델 트레블링을 수행할 수 있다. 이러한 스플릿 레이어 기반의 모델 트레블링 방식은 각 장치간 non-IID 특성을 파악하기 위한 트래픽(traffic)을 감소시킬 수 있다. 기지국은 모델 트레블링에 기초하여 획득한 테이블을 사용하여 non-IID 특성이 강한 장치들끼리 그룹핑할 수 있다. 또한, 기지국은 하나의 그룹의 단말들에게 동일한 자원을 할당할 수 있다. 이에 따라, 그룹 내 단말들이 air-computaiton 기반의 연합 학습을 수행할 수 있다. 그룹 내의 단말들이 연합 학습을 수행하는 경우 로컬 모델의 전송 주기를 짧게 할 수 있다. 이에 따라, non-IID 특성의 데이터를 가지는 단말들이 연합 학습을 수행하더라도, 연합 학습을 통해 얻은 모델의 정확도를 확보할 수 있다.
다음 표 1은 연합 학습 기법에 따른 짧은 주기의 모델 파라미터 전송 가능 여부를 나타낸다.
Figure PCTKR2021018356-appb-img-000006
직교 분할 접속 기반의 연합 학습에서, 단말들은 한정된 자원으로 인해 모델을 전송하기 위한 시간이 소요될 수 있다. 따라서, 단말들이 짧은 주기로 로컬 모델을 서버에게 전송하기가 어렵다.
디바이스 그룹핑이 없는 상황에서의 air-computation 기반의 연합 학습에서, 다수의 단말들이 파라미터를 전송할 시간이 결정되어야 한다. 또한, 단말의 송신 실패(failure)로 인해 에버레이징(averaging) 오차가 발생하는 경우, non-IID 환경에서 글로벌 모델이 수렴하지 않는 문제가 발생할 수 있다. 따라서, 상술한 기법에 따라 그룹핑 된 단말들이, 그룹 내에서 air-computation 기반의 연합 학습을 수행하는 것이 로컬 파라미터를 짧은 주기로 서버에게 전송하기 유리하다. 또한, 단말들은 non-IID 환경에서 정확도를 확보하면서 효율적으로 연합 학습을 수행할 수 있다.
도 21은 본 개시에 적용 가능한 단말 동작 절차의 일 예를 도시한다. S2101 단계에서, 단말은 로컬 모델을 학습한다. 구체적인 일 예로, 단말이 연합 학습(federated learning) 관련 설정 정보를 기지국 또는 서버로부터 수신하고, 단말이 연합 학습 관련 설정 정보에 기초하여 로컬 모델을 학습할 수 있다. 그리고, 단말이 기지국 또는 서버로부터 로컬 모델 가중치 요청 메시지를 수신할 수 있다. 단말은 수신한 가중치 요청 메시지에 기초한 응답 메시지를 전송할 수 있다. 도 17 내지 도 20에서 상술한 바와 같이, 단말은 스플릿 로컬 모델 정보를 포함하는 로컬 모델 관련 정보를 기지국 또는 서버에게 전송할 수 있다. 즉, 응답 메시지는 스플릿 로컬 모델(split local model) 정보를 포함할 수 있다.
S2103 단계에서, 단말은 토탈 로컬 모델 관련 정보를 수신하고 이에 대한 응답 메시지를 전송한다. 상기 토탈 로컬 모델은 상기 연합 학습에 참여하는 다른 단말들의 로컬 모델 정보를 포함할 수 있다. 토탈 로컬 모델(total local model) 관련 정보가 스플릿 로컬 모델 정보를 포함할 수 있다. 단말은 토탈 로컬 모델 관련 정보를 수신하고, 도 17 내지 도 20에서 상술할 모델 트레블링(model traveling)을 수행할 수 있다.
단말은 수신한 스플릿 로컬 모델 정보를 포함하는 토탈 로컬 모델 정보에 기초하여 상기 단말의 로컬 모델의 일부 레이어(layer)를 상기 스플릿 로컬 모델로 변경할 수 있다. 또한, 단말은 로컬 모델의 일부 레이어를 스플릿 로컬 모델로 변경하고, 이에 기초하여 모델 트레블링을 수행할 수 있다. 즉, 단말은 일부 레이어가 스플릿 로컬 모델의 레이어로 변경된 로컬 모델에 기초하여 연합 학습에 참여하는 다른 단말의 로컬 모델 관련 데이터와 자신의 로컬 모델의 데이터를 비교할 수 있다. 이에 따라, 응답 메시지는 상기 연합 학습에 참여하는 다른 단말의 로컬 모델 관련 데이터 및 상기 단말의 로컬 모델 관련 데이터의 비교 정보를 포함할 수 있다.
기지국 또는 서버는 응답 메시지에 기초하여 연합 학습과 관련된 그룹을 결정할 수 있다. 그룹은 상기 연합 학습에 참여하는 다른 단말의 로컬 모델 관련 데이터 및 상기 단말의 로컬 모델 관련 데이터의 비교 정보에 기초하여 결정될 수 있다. 기지국 또는 서버는 그룹 내의 단말들의 데이터는 서로 non-IID의 특성을 가지도록 결정할 수 있다. 이에 따라, 상기 결정된 그룹 내의 단말 간 데이터 분포의 차이가 상기 결정된 그룹 간 데이터 분포의 차이보다 클 수 있다. 기지국 또는 서버는 단말 그룹들이 air-compuation 기반의 연합 학습을 각각 수행하도록 자원을 할당하고, 단말들에게 자원 할당 관련 정보를 전송할 수 있다.
S2105 단계에서, 단말은 자원 할당 관련 정보를 수신하고 이에 기초하여 연합 학습을 수행한다. 상기 단말 및 상기 단말이 속한 그룹의 단말들은 모두 동일한 자원에 기초하여 연합 학습을 수행할 수 있다. 즉, 단말은 air-computation 기반의 연합 학습을 수행할 수 있다.
도 22는 본 개시에 적용 가능한 기지국 동작 절차의 일 예를 도시한다. S2201 단계에서, 기지국이 토탈 로컬 모델 관련 정보를 전송하고 이에 대한 응답 메시지를 수신한다. 구체적인 일 예로, 기지국이 연합 학습(federated learning) 관련 설정 정보를 단말에게 전송할 수 있다. 단말은 수신한 설정 정보에 기초하여 로컬 모델을 학습할 수 있다. 기지국은 단말에게 로컬 모델 가중치 요청 메시지를 전송할 수 있다. 단말은 로컬 모델 가중치 요청 메시지에 기초하여 응답 메시지를 기지국에게 전송할 수 있다. 단말은 로컬 모델 관련 정보를 포함하는 응답 메시지를 수신하고, 이에 기초하여 토탈 로컬 모델 관련 정보를 생성할 수 있다. 즉, 기지국은 다수의 단말로부터 로컬 모델을 수신하여 토탈 로컬 모델 관련 정보를 생성할 수 있다. 기지국은 토탈 로컬 모델 관련 정보를 단말에게 전송할 수 있다. 상술한 바와 같이, 단말은 모델 트레블링을 수행하고 응답 메시지를 전송하고, 기지국은 응답 메시지를 수신할 수 있다.
S2203 단계에서, 기지국이 응답 메시지에 기초하여 디바이스 그룹핑을 수행한다. 도 17 내지 도 21에서 상술한 바와 같이, 기지국은 어큐러시 테이블(accuracy table)에 기초하여 디바이스 그룹핑을 수행할 수 있다. 기지국은 단말 그룹들이 air-compuation 기반의 연합 학습을 각각 수행하도록 자원을 할당하고, 단말들에게 자원 할당 관련 정보를 전송할 수 있다.
S2205 단계에서, 기지국이 자원 할당 관련 정보를 전송한다. 단말은 자원 할당 관련 정보를 수신하고 이에 기초하여 연합 학습을 수행한다. 상기 단말 및 상기 단말이 속한 그룹의 단말들은 모두 동일한 자원에 기초하여 연합 학습을 수행할 수 있다. 즉, 단말은 air-computation 기반의 연합 학습을 수행할 수 있다.
상기 설명한 제안 방식에 대한 일례들 또한 본 개시의 구현 방법들 중 하나로 포함될 수 있으므로, 일종의 제안 방식들로 간주될 수 있음은 명백한 사실이다. 또한, 상기 설명한 제안 방식들은 독립적으로 구현될 수도 있지만, 일부 제안 방식들의 조합 (또는 병합) 형태로 구현될 수도 있다. 상기 제안 방법들의 적용 여부 정보 (또는 상기 제안 방법들의 규칙들에 대한 정보)는 기지국이 단말에게 사전에 정의된 시그널 (예: 물리 계층 시그널 또는 상위 계층 시그널)을 통해서 알려주도록 규칙이 정의될 수가 있다.
상기 설명한 제안 방식에 대한 일례들 또한 본 개시의 구현 방법들 중 하나로 포함될 수 있으므로, 일종의 제안 방식들로 간주될 수 있음은 명백한 사실이다. 또한, 상기 설명한 제안 방식들은 독립적으로 구현될 수도 있지만, 일부 제안 방식들의 조합 (또는 병합) 형태로 구현될 수도 있다. 상기 제안 방법들의 적용 여부 정보 (또는 상기 제안 방법들의 규칙들에 대한 정보)는 기지국이 단말에게 사전에 정의된 시그널 (예: 물리 계층 시그널 또는 상위 계층 시그널)을 통해서 알려주도록 규칙이 정의될 수 있다.
본 개시는 본 개시에서 서술하는 기술적 아이디어 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 개시의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 개시의 등가적 범위 내에서의 모든 변경은 본 개시의 범위에 포함된다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시 예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.
본 개시의 실시 예들은 다양한 무선접속 시스템에 적용될 수 있다. 다양한 무선접속 시스템들의 일례로서, 3GPP(3rd Generation Partnership Project) 또는 3GPP2 시스템 등이 있다.
본 개시의 실시 예들은 상기 다양한 무선접속 시스템뿐 아니라, 상기 다양한 무선접속 시스템을 응용한 모든 기술 분야에 적용될 수 있다. 나아가, 제안한 방법은 초고주파 대역을 이용하는 mmWave, THz 통신 시스템에도 적용될 수 있다.
추가적으로, 본 개시의 실시 예들은 자유 주행 차량, 드론 등 다양한 애플리케이션에도 적용될 수 있다.

Claims (18)

  1. 무선 통신 시스템에서 단말의 동작 방법에 있어서,
    상기 단말이 연합 학습(federated learning) 관련 설정 정보를 수신하는 단계;
    상기 단말이 상기 연합 학습 관련 설정 정보에 기초하여 로컬 모델을 학습하는 단계;
    상기 단말이 로컬 모델 가중치 요청 메시지를 수신하는 단계;
    상기 수신한 가중치 요청 메시지에 기초한 제1 응답 메시지를 전송하는 단계;
    상기 제1 응답 메시지에 기초한 토탈 로컬 모델(total local model) 관련 정보를 수신하는 단계;
    상기 수신한 토탈 로컬 모델 관련 정보에 기초한 제2 응답 메시지를 전송하는 단계;
    상기 제2 응답 메시지에 기초한 자원 할당 관련 정보를 수신하는 단계; 및
    상기 수신한 자원 할당 관련 정보에 기초하여 연합 학습(federated learning)을 수행하는 단계;를 포함하되,
    상기 토탈 로컬 모델은 상기 연합 학습에 참여하는 다른 단말들의 로컬 모델 정보를 포함하고, 상기 제2 응답 메시지에 기초하여 연합 학습과 관련된 그룹이 결정되되, 상기 연합 학습은 상기 결정된 그룹에 기초하여 수행되는, 방법.
  2. 제1항에 있어서,
    상기 제1 응답 메시지는 스플릿 로컬 모델(split local model) 정보를 포함하는, 방법.
  3. 제1항에 있어서,
    상기 토탈 로컬 모델(total local model) 관련 정보가 스플릿 로컬 모델 정보를 포함하는, 방법.
  4. 제3항에 있어서,
    상기 단말이 상기 수신한 스플릿 로컬 모델 정보를 포함하는 토탈 로컬 모델 정보에 기초하여 상기 단말의 로컬 모델의 일부 레이어(layer)를 상기 스플릿 로컬 모델로 변경하는, 방법.
  5. 제1항에 있어서,
    상기 제2 응답 메시지는 상기 연합 학습에 참여하는 다른 단말의 로컬 모델 관련 데이터 및 상기 단말의 로컬 모델 관련 데이터의 비교 정보를 포함하는, 방법.
  6. 제1항에 있어서,
    상기 단말 및 상기 단말이 속한 그룹의 단말들은 모두 동일한 자원에 기초하여 연합 학습을 수행하는, 방법.
  7. 제5항에 있어서,
    상기 그룹은 상기 연합 학습에 참여하는 다른 단말의 로컬 모델 관련 데이터 및 상기 단말의 로컬 모델 관련 데이터의 비교 정보에 기초하여 결정되되,
    상기 결정된 그룹 내의 단말 간 데이터 분포의 차이가 상기 결정된 그룹 간 데이터 분포의 차이보다 큰, 방법.
  8. 무선 통신 시스템에서 단말에 있어서,
    송수신기; 및
    상기 송수신기와 연결된 프로세서를 포함하며,
    상기 프로세서는,
    상기 송수신기가 연합 학습(federated learning) 관련 설정 정보를 수신하도록 제어하고,
    상기 연합 학습 관련 설정 정보에 기초하여 로컬 모델을 학습하고,
    상기 송수신기가 로컬 모델 가중치 요청 메시지를 수신하도록 제어하고,
    상기 송수신기가 상기 수신한 가중치 요청 메시지에 기초한 제1 응답 메시지를 전송하도록 제어하고,
    상기 송수신기가 상기 제1 응답 메시지에 기초한 토탈 로컬 모델(total local model) 관련 정보를 수신하도록 제어하고,
    상기 송수신기가 상기 수신한 토탈 로컬 모델 관련 정보에 기초한 제2 응답 메시지를 전송하도록 제어하고,
    상기 송수신기가 상기 제2 응답 메시지에 기초한 자원 할당 관련 정보를 수신하도록 제어하고,
    상기 수신한 자원 할당 관련 정보에 기초하여 연합 학습(federated learning)을 수행하되,
    상기 토탈 로컬 모델은 상기 연합 학습에 참여하는 다른 단말들의 로컬 모델 정보를 포함하고, 상기 제2 응답 메시지에 기초하여 연합 학습과 관련된 그룹이 결정되되, 상기 연합 학습은 상기 결정된 그룹에 기초하여 수행되는, 단말.
  9. 제8항에 있어서,
    상기 제1 응답 메시지는 스플릿 로컬 모델(split local model) 정보를 포함하는, 단말.
  10. 제8항에 있어서,
    상기 토탈 로컬 모델(total local model) 관련 정보가 스플릿 로컬 모델 정보를 포함하는, 단말.
  11. 제10항에 있어서,
    상기 프로세서가 상기 수신한 스플릿 로컬 모델 정보를 포함하는 토탈 로컬 모델 정보에 기초하여 상기 단말의 로컬 모델의 일부 레이어(layer)를 상기 스플릿 로컬 모델로 변경하는, 단말.
  12. 제8항에 있어서,
    상기 제2 응답 메시지는 상기 연합 학습에 참여하는 다른 단말의 로컬 모델 관련 데이터 및 상기 단말의 로컬 모델 관련 데이터의 비교 정보를 포함하는, 단말.
  13. 제8항에 있어서,
    상기 단말 및 상기 단말이 속한 그룹의 단말들은 모두 동일한 자원에 기초하여 연합 학습을 수행하는, 단말.
  14. 제12항에 있어서,
    상기 그룹은 상기 연합 학습에 참여하는 다른 단말의 로컬 모델 관련 데이터 및 상기 단말의 로컬 모델 관련 데이터의 비교 정보에 기초하여 결정되되,
    상기 결정된 그룹 내의 단말 간 데이터 분포의 차이가 상기 결정된 그룹 간 데이터 분포의 차이보다 큰, 단말.
  15. 통신 장치에 있어서,
    적어도 하나의 프로세서;
    상기 적어도 하나의 프로세서와 연결되며, 상기 적어도 하나의 프로세서에 의해 실행됨에 따라 동작들을 지시하는 명령어를 저장하는 적어도 하나의 컴퓨터 메모리를 포함하며,
    상기 프로세서는 상기 통신 장치가,
    연합 학습(federated learning) 관련 설정 정보를 수신하도록 제어하고,
    상기 연합 학습 관련 설정 정보에 기초하여 로컬 모델을 학습하도록 제어하고,
    로컬 모델 가중치 요청 메시지를 수신하도록 제어하고,
    상기 수신한 가중치 요청 메시지에 기초한 제1 응답 메시지를 전송하도록 제어하고,
    상기 제1 응답 메시지에 기초한 토탈 로컬 모델(total local model) 관련 정보를 수신하도록 제어하고,
    상기 수신한 토탈 로컬 모델 관련 정보에 기초한 제2 응답 메시지를 전송하도록 제어하고,
    상기 제2 응답 메시지에 기초한 자원 할당 관련 정보를 수신하도록 제어하고,
    상기 수신한 자원 할당 관련 정보에 기초하여 연합 학습(federated learning)을 수행하도록 제어하고,
    상기 토탈 로컬 모델은 상기 연합 학습에 참여하는 다른 단말들의 로컬 모델 정보를 포함하고, 상기 제2 응답 메시지에 기초하여 연합 학습과 관련된 그룹이 결정되되, 상기 연합 학습은 상기 결정된 그룹에 기초하여 수행되는, 통신 장치.
  16. 적어도 하나의 명령어(instructions)을 저장하는 비-일시적인(non-transitory) 컴퓨터 판독 가능 매체(computer-readable medium)에 있어서,
    프로세서에 의해 실행 가능한(executable) 상기 적어도 하나의 명령어를 포함하며,
    상기 적어도 하나의 명령어는 상기 컴퓨터 판독 가능 매체가,
    연합 학습(federated learning) 관련 설정 정보를 수신하도록 지시하고,
    상기 연합 학습 관련 설정 정보에 기초하여 로컬 모델을 학습하도록 지시하고,
    로컬 모델 가중치 요청 메시지를 수신하도록 지시하고,
    상기 수신한 가중치 요청 메시지에 기초한 제1 응답 메시지를 전송하도록 지시하고,
    상기 제1 응답 메시지에 기초한 토탈 로컬 모델(total local model) 관련 정보를 수신하도록 지시하고,
    상기 수신한 토탈 로컬 모델 관련 정보에 기초한 제2 응답 메시지를 전송하도록 지시하고,
    상기 제2 응답 메시지에 기초한 자원 할당 관련 정보를 수신하도록 지시하고,
    상기 수신한 자원 할당 관련 정보에 기초하여 연합 학습(federated learning)을 수행하도록 지시하고,
    상기 토탈 로컬 모델은 상기 연합 학습에 참여하는 다른 단말들의 로컬 모델 정보를 포함하고, 상기 제2 응답 메시지에 기초하여 연합 학습과 관련된 그룹이 결정되되, 상기 연합 학습은 상기 결정된 그룹에 기초하여 수행되는, 컴퓨터 판독 가능 매체.
  17. 무선 통신 시스템에서 기지국의 동작 방법에 있어서,
    상기 기지국이 연합 학습(federated learning) 관련 설정 정보를 전송하는 단계;
    상기 기지국이 로컬 모델 가중치 요청 메시지를 전송하는 단계;
    상기 가중치 요청 메시지에 기초한 제1 응답 메시지를 수신하는 단계;
    상기 제1 응답 메시지에 기초한 토탈 로컬 모델(total local model) 관련 정보를 전송하는 단계;
    상기 수신한 토탈 로컬 모델 관련 정보에 기초한 제2 응답 메시지를 수신하는 단계;
    상기 제2 응답 메시지에 기초한 자원 할당 관련 정보를 전송하는 단계; 및
    상기 수신한 자원 할당 관련 정보에 기초하여 연합 학습(federated learning)을 수행하는 단계;를 포함하되,
    상기 연합 학습 관련 설정 정보에 기초하여 로컬 모델이 학습되고, 상기 토탈 로컬 모델은 상기 연합 학습에 참여하는 다른 단말들의 로컬 모델 정보를 포함하고, 상기 제2 응답 메시지에 기초하여 연합 학습과 관련된 그룹이 결정되되, 상기 연합 학습은 상기 결정된 그룹에 기초하여 수행되는, 방법.
  18. 무선 통신 시스템에서 기지국에 있어서,
    송수신기; 및
    상기 송수신기와 연결된 프로세서를 포함하며,
    상기 프로세서는
    상기 송수신기가 연합 학습(federated learning) 관련 설정 정보를 전송하도록 제어하고,
    상기 송수신기가 로컬 모델 가중치 요청 메시지를 전송하도록 제어하고,
    상기 송수신기가 가중치 요청 메시지에 기초한 제1 응답 메시지를 수신하도록 제어하고,
    상기 송수신기가 상기 제1 응답 메시지에 기초한 토탈 로컬 모델(total local model) 관련 정보를 전송하도록 제어하고,
    상기 송수신기가 수신한 토탈 로컬 모델 관련 정보에 기초한 제2 응답 메시지를 수신하도록 제어하고,
    상기 송수신기가 상기 제2 응답 메시지에 기초한 자원 할당 관련 정보를 전송하도록 제어하고,
    상기 수신한 자원 할당 관련 정보에 기초하여 연합 학습(federated learning)을 수행하되,
    상기 연합 학습 관련 설정 정보에 기초하여 로컬 모델이 학습되고, 상기 토탈 로컬 모델은 상기 연합 학습에 참여하는 다른 단말들의 로컬 모델 정보를 포함하고, 상기 제2 응답 메시지에 기초하여 연합 학습과 관련된 그룹이 결정되되, 상기 연합 학습은 상기 결정된 그룹에 기초하여 수행되는, 기지국.
PCT/KR2021/018356 2020-12-11 2021-12-06 무선 통신 시스템에서 신호 전송을 위한 장치 및 방법 WO2022124729A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US18/266,569 US20240054351A1 (en) 2020-12-11 2021-12-06 Device and method for signal transmission in wireless communication system
KR1020237013063A KR20230074512A (ko) 2020-12-11 2021-12-06 무선 통신 시스템에서 신호 전송을 위한 장치 및 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200173557 2020-12-11
KR10-2020-0173557 2020-12-11

Publications (1)

Publication Number Publication Date
WO2022124729A1 true WO2022124729A1 (ko) 2022-06-16

Family

ID=81973831

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/018356 WO2022124729A1 (ko) 2020-12-11 2021-12-06 무선 통신 시스템에서 신호 전송을 위한 장치 및 방법

Country Status (3)

Country Link
US (1) US20240054351A1 (ko)
KR (1) KR20230074512A (ko)
WO (1) WO2022124729A1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111401552A (zh) * 2020-03-11 2020-07-10 浙江大学 一种基于调整批量大小与梯度压缩率的联邦学习方法和系统
CN111866954A (zh) * 2020-07-21 2020-10-30 重庆邮电大学 一种基于联邦学习的用户选择和资源分配方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111401552A (zh) * 2020-03-11 2020-07-10 浙江大学 一种基于调整批量大小与梯度压缩率的联邦学习方法和系统
CN111866954A (zh) * 2020-07-21 2020-10-30 重庆邮电大学 一种基于联邦学习的用户选择和资源分配方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHEN CHENG; CHEN ZIYI; ZHOU YI; KAILKHURA BHAVYA: "FedCluster: Boosting the Convergence of Federated Learning via Cluster-Cycling", 2020 IEEE INTERNATIONAL CONFERENCE ON BIG DATA (BIG DATA), IEEE, 10 December 2020 (2020-12-10), pages 5017 - 5026, XP033889766, DOI: 10.1109/BigData50022.2020.9377960 *
FELIX SATTLER; KLAUS-ROBERT M\"ULLER; WOJCIECH SAMEK: "Clustered Federated Learning: Model-Agnostic Distributed Multi-Task Optimization under Privacy Constraints", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 4 October 2019 (2019-10-04), 201 Olin Library Cornell University Ithaca, NY 14853 , XP081510830 *
SHI WENQI; ZHOU SHENG; NIU ZHISHENG; JIANG MIAO; GENG LU: "Joint Device Scheduling and Resource Allocation for Latency Constrained Wireless Federated Learning", IEEE TRANSACTIONS ON WIRELESS COMMUNICATIONS, IEEE SERVICE CENTER, PISCATAWAY, NJ., US, vol. 20, no. 1, 28 September 2020 (2020-09-28), US , pages 453 - 467, XP011831150, ISSN: 1536-1276, DOI: 10.1109/TWC.2020.3025446 *

Also Published As

Publication number Publication date
US20240054351A1 (en) 2024-02-15
KR20230074512A (ko) 2023-05-30

Similar Documents

Publication Publication Date Title
WO2022039295A1 (ko) 무선 통신 시스템에서 하향링크를 전처리하는 방법 및 이를 위한 장치
WO2020105833A1 (ko) 차세대 통신 시스템에서 릴레이 노드를 위한 자원 할당 방법 및 이를 위한 장치
WO2020197125A1 (en) Method and apparatus for performing measurement in wireless communication system
WO2022050468A1 (ko) 무선 통신 시스템에서 연합학습을 수행하는 방법 및 이를 위한 장치
WO2020004923A1 (en) Method for performing measurement and device supporting the same
WO2022124729A1 (ko) 무선 통신 시스템에서 신호 전송을 위한 장치 및 방법
WO2022050565A1 (ko) 무선 통신 시스템에서 핸드오버를 위한 장치 및 방법
WO2022092859A1 (ko) 무선 통신 시스템에서 스플릿 포인트 조정을 위한 장치 및 방법
WO2022139230A1 (ko) 무선 통신 시스템에서 스플릿 포인트를 조정하는 방법 및 장치
WO2023017881A1 (ko) 무선 통신 시스템에서 측정 갭을 이용한 측정 결과에 기반하여 핸드오버를 수행하기 위한 장치 및 방법
WO2022092905A1 (ko) 무선 통신 시스템에서 신호 전송을 위한 장치 및 방법
WO2022050444A1 (ko) 연합학습을 위한 통신방법 및 이를 수행하는 디바이스
WO2022119424A1 (ko) 무선 통신 시스템에서 신호 전송을 위한 장치 및 방법
WO2023120768A1 (ko) 무선 통신 시스템에서 신호 전송을 위한 장치 및 방법
WO2020105832A1 (ko) 차세대 통신 시스템에서 릴레이 노드가 신호를 송수신하기 위한 빔 세트를 설정하는 방법 및 이를 위한 장치
WO2023120781A1 (ko) 무선 통신 시스템에서 신호 전송을 위한 장치 및 방법
WO2023022251A1 (ko) 무선 통신 시스템에서 신호 전송 방법 및 장치
WO2020096174A1 (ko) 차세대 통신 시스템에서 릴레이 노드를 위한 하향링크 송신 타이밍 결정 방법 및 이를 위한 장치
WO2023013857A1 (ko) 무선 통신 시스템에서 데이터 학습을 수행하는 방법 및 장치
WO2024122667A1 (ko) 무선 통신 시스템에서 앙상블 모델 기반의 수신기에 대한 학습을 수행하기 위한 장치 및 방법
WO2024117296A1 (ko) 무선 통신 시스템에서 조절 가능한 파라미터를 가지는 송수신기를 이용하여 신호를 송수신하기 위한 방법 및 장치
WO2024048816A1 (ko) 무선 통신 시스템에서 신호를 송수신하기 위한 장치 및 방법
WO2023042941A1 (ko) 무선 통신 시스템에서 신호 전송 방법 및 장치
WO2022270649A1 (ko) 무선 통신 시스템에서 음성 통신을 수행하기 위한 장치 및 방법
WO2024122659A1 (ko) 무선 통신 시스템에서 신호를 송수신하기 위한 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21903775

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20237013063

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 18266569

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21903775

Country of ref document: EP

Kind code of ref document: A1