WO2023113282A1 - 무선 통신 시스템에서 송수신기 모델에 대한 온라인 학습을 수행하기 위한 장치 및 방법 - Google Patents
무선 통신 시스템에서 송수신기 모델에 대한 온라인 학습을 수행하기 위한 장치 및 방법 Download PDFInfo
- Publication number
- WO2023113282A1 WO2023113282A1 PCT/KR2022/018697 KR2022018697W WO2023113282A1 WO 2023113282 A1 WO2023113282 A1 WO 2023113282A1 KR 2022018697 W KR2022018697 W KR 2022018697W WO 2023113282 A1 WO2023113282 A1 WO 2023113282A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- reference signals
- task
- meta
- learning
- receiver
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 154
- 238000004891 communication Methods 0.000 title claims abstract description 136
- 238000013528 artificial neural network Methods 0.000 claims description 118
- 238000012549 training Methods 0.000 claims description 86
- 238000012545 processing Methods 0.000 claims description 37
- 230000009471 action Effects 0.000 claims description 5
- 230000004617 sleep duration Effects 0.000 abstract 2
- 238000012544 monitoring process Methods 0.000 abstract 1
- 239000010410 layer Substances 0.000 description 74
- 230000006870 function Effects 0.000 description 56
- 230000015654 memory Effects 0.000 description 51
- 238000013473 artificial intelligence Methods 0.000 description 46
- 230000005540 biological transmission Effects 0.000 description 35
- 230000008569 process Effects 0.000 description 29
- 238000005516 engineering process Methods 0.000 description 20
- 238000013135 deep learning Methods 0.000 description 16
- 230000006978 adaptation Effects 0.000 description 15
- 238000013527 convolutional neural network Methods 0.000 description 15
- 238000005259 measurement Methods 0.000 description 15
- 238000005457 optimization Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 238000010801 machine learning Methods 0.000 description 12
- 230000000306 recurrent effect Effects 0.000 description 11
- 238000013459 approach Methods 0.000 description 9
- 238000012360 testing method Methods 0.000 description 8
- 230000004913 activation Effects 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000011664 signaling Effects 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 230000010267 cellular communication Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000011017 operating method Methods 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000005406 washing Methods 0.000 description 2
- 241000760358 Enodes Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000027311 M phase Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000003306 harvesting Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000002346 layers by function Substances 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000009022 nonlinear effect Effects 0.000 description 1
- 229910052755 nonmetal Inorganic materials 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/02—Arrangements for optimising operational condition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0985—Hyperparameter optimisation; Meta-learning; Learning-to-learn
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B17/00—Monitoring; Testing
- H04B17/20—Monitoring; Testing of receivers
- H04B17/24—Monitoring; Testing of receivers with feedback of measurements to the transmitter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L25/00—Baseband systems
- H04L25/02—Details ; arrangements for supplying electrical power along data transmission lines
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L5/00—Arrangements affording multiple use of the transmission path
- H04L5/003—Arrangements for allocating sub-channels of the transmission path
- H04L5/0048—Allocation of pilot signals, i.e. of signals known to the receiver
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/08—Testing, supervising or monitoring using real traffic
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/10—Scheduling measurement reports ; Arrangements for measurement reports
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W88/00—Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
- H04W88/02—Terminal devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W88/00—Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
- H04W88/08—Access point devices
Definitions
- the following description relates to a wireless communication system, and relates to an apparatus and method for performing online learning of a transceiver model in a wireless communication system.
- a wireless access system is widely deployed to provide various types of communication services such as voice and data.
- a wireless access system is a multiple access system capable of supporting communication with multiple users by sharing available system resources (bandwidth, transmission power, etc.).
- Examples of the multiple access system include a code division multiple access (CDMA) system, a frequency division multiple access (FDMA) system, a time division multiple access (TDMA) system, an orthogonal frequency division multiple access (OFDMA) system, and a single carrier frequency (SC-FDMA) system. division multiple access) system.
- CDMA code division multiple access
- FDMA frequency division multiple access
- TDMA time division multiple access
- OFDMA orthogonal frequency division multiple access
- SC-FDMA single carrier frequency division multiple access
- eMBB enhanced mobile broadband
- RAT radio access technology
- a communication system considering reliability and latency-sensitive services/UE (user equipment) as well as mMTC (massive machine type communications) providing various services anytime and anywhere by connecting multiple devices and objects has been proposed. .
- Various technical configurations for this have been proposed.
- the present disclosure may provide an apparatus and method for effectively performing online learning of a transceiver model in a wireless communication system.
- the present disclosure may provide an apparatus and method for performing meta-learning on a transceiver model in a wireless communication system.
- the present disclosure may provide an apparatus and method for determining meta model parameters for a transceiver model in a wireless communication system.
- the present disclosure may provide an apparatus and method for reducing overhead for meta-learning of a transceiver model in a wireless communication system.
- the present disclosure may provide an apparatus and method for transmitting reference signals for meta-learning of a receiver model in a wireless communication system.
- the present disclosure may provide an apparatus and method for feeding back loss information for meta-learning of a transmitter model in a wireless communication system.
- the present disclosure may provide an apparatus and method for feeding back loss information for some of tasks for meta-learning of a transmitter model in a wireless communication system.
- the present disclosure may provide an apparatus and method for selecting some tasks that may represent metamodel parameters in a wireless communication system.
- the present disclosure may provide an apparatus and method for clustering model parameters for each task in a wireless communication system.
- a method of operating a user equipment (UE) in a wireless communication system includes receiving configuration information related to reference signals, receiving first reference signals, and The method may include transmitting corresponding first feedback information, receiving second reference signals, and transmitting second feedback information corresponding to the second reference signals.
- the first reference signals and the second reference signals are used to set at least one parameter related to a receiver for processing a received signal, and the setting information is used for a task used for meta learning.
- a method of operating a base station in a wireless communication system includes transmitting configuration information related to reference signals, transmitting first reference signals, and performing a first operation corresponding to the first reference signals.
- the method may include receiving feedback information, transmitting second reference signals, and receiving second feedback information corresponding to the second reference signals.
- the first reference signals and the second reference signals are used to set at least one parameter related to a transmitter for processing a transmitted signal, and the setting information is a task used for meta learning. fields, a batch size for training, a method for optimizing parameters of a model included in a receiver of user equipment (UE), at least one task used for an inner loop, and an outer loop It may include at least one of at least one task used for.
- UE user equipment
- a user equipment (UE) in a wireless communication system includes a transceiver and a processor connected to the transceiver, wherein the processor receives configuration information related to reference signals, and sets a first reference signal. Control to receive signals, transmit first feedback information corresponding to the first reference signals, receive second reference signals, and transmit second feedback information corresponding to the second reference signals, The first reference signals and the second reference signals are used to set at least one parameter related to a receiver for processing a received signal, and the setting information is used for tasks used for meta learning.
- a batch size for training, a method for optimizing model parameters included in the receiver, at least one task used for an inner loop, and at least one used for an outer loop. may include at least one of the tasks of
- a base station in a wireless communication system, includes a transceiver and a processor connected to the transceiver, wherein the processor transmits setting information related to reference signals and transmits first reference signals, , Control to receive first feedback information corresponding to the first reference signals, transmit second reference signals, and receive second feedback information corresponding to the second reference signals, s and the second reference signals are used to set at least one parameter related to a transmitter for processing a transmitted signal, and the setting information includes tasks used for meta learning and training.
- a communication device includes at least one processor, at least one computer memory connected to the at least one processor, and storing instructions for directing operations as executed by the at least one processor.
- the operations include receiving setting information related to reference signals, receiving first reference signals, transmitting first feedback information corresponding to the first reference signals, and second reference signals.
- the method may include receiving the second reference signals and transmitting second feedback information corresponding to the second reference signals.
- the first reference signals and the second reference signals are used to set at least one parameter related to a receiver for processing a received signal, and the setting information is used for a task used for meta learning.
- a non-transitory computer-readable medium storing at least one instruction includes the at least one executable by a processor.
- An instruction wherein the at least one instruction causes the device to: receive configuration information related to reference signals, receive first reference signals, and transmit first feedback information corresponding to the first reference signals; , A receiver for receiving second reference signals and controlling to transmit second feedback information corresponding to the second reference signals, wherein the first reference signals and the second reference signals process a received signal Used to set at least one parameter related to, and the setting information includes tasks used for meta learning, batch size for training, and optimization of model parameters included in the receiver. It may include at least one of a method, at least one task used for an inner loop, and at least one task used for an outer loop.
- online learning in particular, meta-learning of a transceiver model can be effectively performed.
- FIG. 1 shows an example of a communication system applicable to the present disclosure.
- FIG. 2 shows an example of a wireless device applicable to the present disclosure.
- FIG. 3 illustrates another example of a wireless device applicable to the present disclosure.
- FIG. 4 shows an example of a portable device applicable to the present disclosure.
- FIG. 5 illustrates an example of a vehicle or autonomous vehicle applicable to the present disclosure.
- AI Artificial Intelligence
- FIG. 7 illustrates a method of processing a transmission signal applicable to the present disclosure.
- FIG 8 illustrates an example of a communication structure that can be provided in a 6G system applicable to the present disclosure.
- FIG. 10 illustrates a THz communication method applicable to the present disclosure.
- FIG 11 shows the structure of a perceptron included in an artificial neural network applicable to the present disclosure.
- FIG 12 illustrates an artificial neural network structure applicable to the present disclosure.
- FIG. 13 illustrates a deep neural network applicable to the present disclosure.
- FIG. 14 shows a convolutional neural network applicable to the present disclosure.
- FIG. 15 illustrates a filter operation of a convolutional neural network applicable to the present disclosure.
- FIG. 16 illustrates a neural network structure in which a circular loop applicable to the present disclosure exists.
- FIG. 17 illustrates an operating structure of a recurrent neural network applicable to the present disclosure.
- 19a and 19b show examples of data sets for meta-learning applicable to the present disclosure.
- FIG 20 illustrates functional structures of devices supporting meta-learning according to an embodiment of the present disclosure.
- 21 illustrates a procedure for determining parameters related to a transmitter according to an embodiment of the present invention.
- 22 illustrates a procedure for determining parameters related to a receiver according to an embodiment of the present invention.
- FIG. 23 shows an example of a procedure for performing meta-learning for a receiver according to an embodiment of the present invention.
- FIG. 24 shows an example of a procedure for performing meta-learning for a transmitter according to an embodiment of the present invention.
- 25 shows another example of a procedure for performing meta-learning for a transmitter according to an embodiment of the present invention.
- 26 shows an example of clustering for model parameters according to an embodiment of the present invention.
- each component or feature may be considered optional unless explicitly stated otherwise.
- Each component or feature may be implemented in a form not combined with other components or features.
- an embodiment of the present disclosure may be configured by combining some elements and/or features. The order of operations described in the embodiments of the present disclosure may be changed. Some components or features of one embodiment may be included in another embodiment, or may be replaced with corresponding components or features of another embodiment.
- a base station has meaning as a terminal node of a network that directly communicates with a mobile station.
- a specific operation described as being performed by a base station in this document may be performed by an upper node of the base station in some cases.
- the 'base station' is a term such as a fixed station, Node B, eNode B, gNode B, ng-eNB, advanced base station (ABS), or access point. can be replaced by
- a terminal includes a user equipment (UE), a mobile station (MS), a subscriber station (SS), and a mobile subscriber station (MSS).
- UE user equipment
- MS mobile station
- SS subscriber station
- MSS mobile subscriber station
- AMS advanced mobile station
- the transmitting end refers to a fixed and/or mobile node providing data service or voice service
- the receiving end refers to a fixed and/or mobile node receiving data service or voice service. Therefore, in the case of uplink, the mobile station can be a transmitter and the base station can be a receiver. Similarly, in the case of downlink, the mobile station may be a receiving end and the base station may be a transmitting end.
- Embodiments of the present disclosure are wireless access systems, such as an IEEE 802.xx system, a 3rd Generation Partnership Project (3GPP) system, a 3GPP Long Term Evolution (LTE) system, a 3GPP 5G (5th generation) NR (New Radio) system, and a 3GPP2 system. It may be supported by at least one disclosed standard document, and in particular, the embodiments of the present disclosure are supported by 3GPP technical specification (TS) 38.211, 3GPP TS 38.212, 3GPP TS 38.213, 3GPP TS 38.321 and 3GPP TS 38.331 documents It can be.
- 3GPP technical specification TS 38.211, 3GPP TS 38.212, 3GPP TS 38.213, 3GPP TS 38.321 and 3GPP TS 38.331 documents It can be.
- embodiments of the present disclosure may be applied to other wireless access systems, and are not limited to the above-described systems.
- it may also be applicable to a system applied after the 3GPP 5G NR system, and is not limited to a specific system.
- CDMA code division multiple access
- FDMA frequency division multiple access
- TDMA time division multiple access
- OFDMA orthogonal frequency division multiple access
- SC-FDMA single carrier frequency division multiple access
- LTE is 3GPP TS 36.xxx Release 8 or later
- LTE technology after 3GPP TS 36.xxx Release 10 is referred to as LTE-A
- xxx Release 13 may be referred to as LTE-A pro.
- 3GPP NR may mean technology after TS 38.xxx Release 15.
- 3GPP 6G may mean technology after TS Release 17 and/or Release 18.
- "xxx" means a standard document detail number.
- LTE/NR/6G may be collectively referred to as a 3GPP system.
- FIG. 1 is a diagram illustrating an example of a communication system applied to the present disclosure.
- a communication system 100 applied to the present disclosure includes a wireless device, a base station, and a network.
- the wireless device means a device that performs communication using a radio access technology (eg, 5G NR, LTE), and may be referred to as a communication/wireless/5G device.
- the wireless device includes a robot 100a, a vehicle 100b-1 and 100b-2, an extended reality (XR) device 100c, a hand-held device 100d, and a home appliance. appliance) 100e, Internet of Thing (IoT) device 100f, and artificial intelligence (AI) device/server 100g.
- a radio access technology eg, 5G NR, LTE
- XR extended reality
- IoT Internet of Thing
- AI artificial intelligence
- the vehicle may include a vehicle equipped with a wireless communication function, an autonomous vehicle, a vehicle capable of performing inter-vehicle communication, and the like.
- the vehicles 100b-1 and 100b-2 may include an unmanned aerial vehicle (UAV) (eg, a drone).
- UAV unmanned aerial vehicle
- the XR device 100c includes augmented reality (AR)/virtual reality (VR)/mixed reality (MR) devices, and includes a head-mounted device (HMD), a head-up display (HUD) installed in a vehicle, a television, It may be implemented in the form of smart phones, computers, wearable devices, home appliances, digital signage, vehicles, robots, and the like.
- the mobile device 100d may include a smart phone, a smart pad, a wearable device (eg, a smart watch, a smart glass), a computer (eg, a laptop computer), and the like.
- the home appliance 100e may include a TV, a refrigerator, a washing machine, and the like.
- the IoT device 100f may include a sensor, a smart meter, and the like.
- the base station 120 and the network 130 may also be implemented as a wireless device, and a specific wireless device 120a may operate as a base station/network node to other wireless devices.
- the wireless devices 100a to 100f may be connected to the network 130 through the base station 120 .
- AI technology may be applied to the wireless devices 100a to 100f, and the wireless devices 100a to 100f may be connected to the AI server 100g through the network 130.
- the network 130 may be configured using a 3G network, a 4G (eg LTE) network, or a 5G (eg NR) network.
- the wireless devices 100a to 100f may communicate with each other through the base station 120/network 130, but communicate directly without going through the base station 120/network 130 (e.g., sidelink communication). You may.
- the vehicles 100b-1 and 100b-2 may perform direct communication (eg, vehicle to vehicle (V2V)/vehicle to everything (V2X) communication).
- the IoT device 100f eg, sensor
- the IoT device 100f may directly communicate with other IoT devices (eg, sensor) or other wireless devices 100a to 100f.
- Wireless communication/connection 150a, 150b, and 150c may be performed between the wireless devices 100a to 100f/base station 120 and the base station 120/base station 120.
- wireless communication/connection includes various types of uplink/downlink communication 150a, sidelink communication 150b (or D2D communication), and inter-base station communication 150c (eg relay, integrated access backhaul (IAB)). This can be done through radio access technology (eg 5G NR).
- radio access technology eg 5G NR
- a wireless device and a base station/wireless device, and a base station can transmit/receive radio signals to each other.
- the wireless communication/connections 150a, 150b, and 150c may transmit/receive signals through various physical channels.
- various configuration information setting processes for transmitting / receiving radio signals various signal processing processes (eg, channel encoding / decoding, modulation / demodulation, resource mapping / demapping, etc.) At least a part of a resource allocation process may be performed.
- FIG. 2 is a diagram illustrating an example of a wireless device applicable to the present disclosure.
- a first wireless device 200a and a second wireless device 200b may transmit and receive radio signals through various wireless access technologies (eg, LTE and NR).
- ⁇ the first wireless device 200a, the second wireless device 200b ⁇ denotes the ⁇ wireless device 100x and the base station 120 ⁇ of FIG. 1 and/or the ⁇ wireless device 100x and the wireless device 100x.
- ⁇ can correspond.
- the first wireless device 200a includes one or more processors 202a and one or more memories 204a, and may further include one or more transceivers 206a and/or one or more antennas 208a.
- the processor 202a controls the memory 204a and/or the transceiver 206a and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flow diagrams disclosed herein.
- the processor 202a may process information in the memory 204a to generate first information/signal, and transmit a radio signal including the first information/signal through the transceiver 206a.
- the processor 202a may receive a radio signal including the second information/signal through the transceiver 206a and store information obtained from signal processing of the second information/signal in the memory 204a.
- the memory 204a may be connected to the processor 202a and may store various information related to the operation of the processor 202a.
- memory 204a may perform some or all of the processes controlled by processor 202a, or instructions for performing the descriptions, functions, procedures, suggestions, methods, and/or flowcharts of operations disclosed herein. It may store software codes including them.
- the processor 202a and the memory 204a may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
- the transceiver 206a may be coupled to the processor 202a and may transmit and/or receive wireless signals through one or more antennas 208a.
- the transceiver 206a may include a transmitter and/or a receiver.
- the transceiver 206a may be used interchangeably with a radio frequency (RF) unit.
- RF radio frequency
- a wireless device may mean a communication modem/circuit/chip.
- the second wireless device 200b includes one or more processors 202b, one or more memories 204b, and may further include one or more transceivers 206b and/or one or more antennas 208b.
- the processor 202b controls the memory 204b and/or the transceiver 206b and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flow diagrams disclosed herein.
- the processor 202b may process information in the memory 204b to generate third information/signal, and transmit a radio signal including the third information/signal through the transceiver 206b.
- the processor 202b may receive a radio signal including the fourth information/signal through the transceiver 206b and store information obtained from signal processing of the fourth information/signal in the memory 204b.
- the memory 204b may be connected to the processor 202b and may store various information related to the operation of the processor 202b.
- the memory 204b may perform some or all of the processes controlled by the processor 202b, or instructions for performing the descriptions, functions, procedures, suggestions, methods, and/or flowcharts of operations disclosed herein. It may store software codes including them.
- the processor 202b and the memory 204b may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
- the transceiver 206b may be coupled to the processor 202b and may transmit and/or receive wireless signals through one or more antennas 208b.
- the transceiver 206b may include a transmitter and/or a receiver.
- the transceiver 206b may be used interchangeably with an RF unit.
- a wireless device may mean a communication modem/circuit/chip.
- one or more protocol layers may be implemented by one or more processors 202a, 202b.
- the one or more processors 202a and 202b may include one or more layers (eg, PHY (physical), MAC (media access control), RLC (radio link control), PDCP (packet data convergence protocol), RRC (radio resource) control) and functional layers such as service data adaptation protocol (SDAP).
- One or more processors 202a, 202b may generate one or more protocol data units (PDUs) and/or one or more service data units (SDUs) according to the descriptions, functions, procedures, proposals, methods, and/or operational flow charts disclosed herein.
- PDUs protocol data units
- SDUs service data units
- processors 202a, 202b may generate messages, control information, data or information according to the descriptions, functions, procedures, proposals, methods and/or operational flow diagrams disclosed herein.
- One or more processors 202a, 202b generate PDUs, SDUs, messages, control information, data or signals (eg, baseband signals) containing information according to the functions, procedures, proposals and/or methods disclosed herein , may be provided to one or more transceivers 206a and 206b.
- One or more processors 202a, 202b may receive signals (eg, baseband signals) from one or more transceivers 206a, 206b, and descriptions, functions, procedures, suggestions, methods, and/or flowcharts of operations disclosed herein PDUs, SDUs, messages, control information, data or information can be obtained according to these.
- signals eg, baseband signals
- One or more processors 202a, 202b may be referred to as a controller, microcontroller, microprocessor or microcomputer.
- One or more processors 202a, 202b may be implemented by hardware, firmware, software, or a combination thereof.
- ASICs application specific integrated circuits
- DSPs digital signal processors
- DSPDs digital signal processing devices
- PLDs programmable logic devices
- FPGAs field programmable gate arrays
- firmware or software may be implemented using firmware or software, and the firmware or software may be implemented to include modules, procedures, functions, and the like.
- Firmware or software configured to perform the descriptions, functions, procedures, proposals, methods and/or operational flow charts disclosed in this document may be included in one or more processors 202a or 202b or stored in one or more memories 204a or 204b. It can be driven by the above processors 202a and 202b.
- the descriptions, functions, procedures, suggestions, methods and/or operational flow charts disclosed in this document may be implemented using firmware or software in the form of codes, instructions and/or sets of instructions.
- One or more memories 204a, 204b may be coupled to one or more processors 202a, 202b and may store various types of data, signals, messages, information, programs, codes, instructions and/or instructions.
- One or more memories 204a, 204b may include read only memory (ROM), random access memory (RAM), erasable programmable read only memory (EPROM), flash memory, hard drive, registers, cache memory, computer readable storage media, and/or It may consist of a combination of these.
- One or more memories 204a, 204b may be located internally and/or externally to one or more processors 202a, 202b.
- one or more memories 204a, 204b may be connected to one or more processors 202a, 202b through various technologies such as wired or wireless connections.
- One or more transceivers 206a, 206b may transmit user data, control information, radio signals/channels, etc. referred to in the methods and/or operational flow charts of this document to one or more other devices.
- One or more transceivers 206a, 206b may receive user data, control information, radio signals/channels, etc. referred to in descriptions, functions, procedures, proposals, methods and/or operational flow charts, etc. disclosed herein from one or more other devices. there is.
- one or more transceivers 206a and 206b may be connected to one or more processors 202a and 202b and transmit and receive radio signals.
- one or more processors 202a, 202b may control one or more transceivers 206a, 206b to transmit user data, control information, or radio signals to one or more other devices.
- one or more processors 202a, 202b may control one or more transceivers 206a, 206b to receive user data, control information, or radio signals from one or more other devices.
- one or more transceivers 206a, 206b may be coupled to one or more antennas 208a, 208b, and one or more transceivers 206a, 206b may be connected to one or more antennas 208a, 208b to achieve the descriptions, functions disclosed in this document.
- one or more antennas may be a plurality of physical antennas or a plurality of logical antennas (eg, antenna ports).
- One or more transceivers (206a, 206b) in order to process the received user data, control information, radio signal / channel, etc. using one or more processors (202a, 202b), the received radio signal / channel, etc. in the RF band signal It can be converted into a baseband signal.
- One or more transceivers 206a and 206b may convert user data, control information, and radio signals/channels processed by one or more processors 202a and 202b from baseband signals to RF band signals.
- one or more transceivers 206a, 206b may include (analog) oscillators and/or filters.
- FIG. 3 is a diagram illustrating another example of a wireless device applied to the present disclosure.
- a wireless device 300 corresponds to the wireless devices 200a and 200b of FIG. 2, and includes various elements, components, units/units, and/or modules. ) can be configured.
- the wireless device 300 may include a communication unit 310, a control unit 320, a memory unit 330, and an additional element 340.
- the communication unit may include communication circuitry 312 and transceiver(s) 314 .
- communication circuitry 312 may include one or more processors 202a, 202b of FIG. 2 and/or one or more memories 204a, 204b.
- transceiver(s) 314 may include one or more transceivers 206a, 206b of FIG.
- the control unit 320 is electrically connected to the communication unit 310, the memory unit 330, and the additional element 340 and controls overall operations of the wireless device. For example, the control unit 320 may control electrical/mechanical operations of the wireless device based on programs/codes/commands/information stored in the memory unit 330. In addition, the control unit 320 transmits the information stored in the memory unit 330 to the outside (eg, another communication device) through the communication unit 310 through a wireless/wired interface, or transmits the information stored in the memory unit 330 to the outside (eg, another communication device) through the communication unit 310. Information received through a wireless/wired interface from other communication devices) may be stored in the memory unit 330 .
- the additional element 340 may be configured in various ways according to the type of wireless device.
- the additional element 340 may include at least one of a power unit/battery, an input/output unit, a driving unit, and a computing unit.
- the wireless device 300 may be a robot (FIG. 1, 100a), a vehicle (FIG. 1, 100b-1, 100b-2), an XR device (FIG. 1, 100c), a mobile device (FIG. 1, 100d) ), home appliances (FIG. 1, 100e), IoT devices (FIG.
- Wireless devices can be mobile or used in a fixed location depending on the use-case/service.
- various elements, components, units/units, and/or modules in the wireless device 300 may be entirely interconnected through a wired interface or at least partially connected wirelessly through the communication unit 310 .
- the control unit 320 and the communication unit 310 are connected by wire, and the control unit 320 and the first units (eg, 130 and 140) are connected wirelessly through the communication unit 310.
- each element, component, unit/unit, and/or module within wireless device 300 may further include one or more elements.
- the control unit 320 may be composed of one or more processor sets.
- control unit 320 may include a set of a communication control processor, an application processor, an electronic control unit (ECU), a graphic processing processor, a memory control processor, and the like.
- memory unit 330 may include RAM, dynamic RAM (DRAM), ROM, flash memory, volatile memory, non-volatile memory, and/or combinations thereof. can be configured.
- FIG. 4 is a diagram illustrating an example of a portable device applied to the present disclosure.
- a portable device may include a smart phone, a smart pad, a wearable device (eg, smart watch, smart glasses), and a portable computer (eg, a laptop computer).
- a mobile device may be referred to as a mobile station (MS), a user terminal (UT), a mobile subscriber station (MSS), a subscriber station (SS), an advanced mobile station (AMS), or a wireless terminal (WT).
- MS mobile station
- UT user terminal
- MSS mobile subscriber station
- SS subscriber station
- AMS advanced mobile station
- WT wireless terminal
- a portable device 400 includes an antenna unit 408, a communication unit 410, a control unit 420, a memory unit 430, a power supply unit 440a, an interface unit 440b, and an input/output unit 440c. ) may be included.
- the antenna unit 408 may be configured as part of the communication unit 410 .
- Blocks 410 to 430/440a to 440c respectively correspond to blocks 310 to 330/340 of FIG. 3 .
- the communication unit 410 may transmit/receive signals (eg, data, control signals, etc.) with other wireless devices and base stations.
- the controller 420 may perform various operations by controlling components of the portable device 400 .
- the controller 420 may include an application processor (AP).
- the memory unit 430 may store data/parameters/programs/codes/commands necessary for driving the portable device 400 . Also, the memory unit 430 may store input/output data/information.
- the power supply unit 440a supplies power to the portable device 400 and may include a wired/wireless charging circuit, a battery, and the like.
- the interface unit 440b may support connection between the mobile device 400 and other external devices.
- the interface unit 440b may include various ports (eg, audio input/output ports and video input/output ports) for connection with external devices.
- the input/output unit 440c may receive or output image information/signal, audio information/signal, data, and/or information input from a user.
- the input/output unit 440c may include a camera, a microphone, a user input unit, a display unit 440d, a speaker, and/or a haptic module.
- the input/output unit 440c acquires information/signals (eg, touch, text, voice, image, video) input from the user, and the acquired information/signals are stored in the memory unit 430.
- the communication unit 410 may convert the information/signal stored in the memory into a wireless signal, and directly transmit the converted wireless signal to another wireless device or to a base station.
- the communication unit 410 may receive a radio signal from another wireless device or base station and then restore the received radio signal to original information/signal. After the restored information/signal is stored in the memory unit 430, it may be output in various forms (eg, text, voice, image, video, or haptic) through the input/output unit 440c.
- FIG. 5 is a diagram illustrating an example of a vehicle or autonomous vehicle to which the present disclosure applies.
- a vehicle or an autonomous vehicle may be implemented as a mobile robot, vehicle, train, manned/unmanned aerial vehicle (AV), ship, etc., and is not limited to a vehicle type.
- AV unmanned aerial vehicle
- a vehicle or autonomous vehicle 500 includes an antenna unit 508, a communication unit 510, a control unit 520, a driving unit 540a, a power supply unit 540b, a sensor unit 540c, and an autonomous driving unit.
- a portion 540d may be included.
- the antenna unit 550 may be configured as a part of the communication unit 510 .
- Blocks 510/530/540a to 540d respectively correspond to blocks 410/430/440 of FIG. 4 .
- the communication unit 510 may transmit/receive signals (eg, data, control signals, etc.) with external devices such as other vehicles, base stations (eg, base stations, roadside base units, etc.), servers, and the like.
- the controller 520 may perform various operations by controlling elements of the vehicle or autonomous vehicle 500 .
- the controller 520 may include an electronic control unit (ECU).
- ECU electronice control unit
- AI devices include TVs, projectors, smartphones, PCs, laptops, digital broadcasting terminals, tablet PCs, wearable devices, set-top boxes (STBs), radios, washing machines, refrigerators, digital signage, robots, vehicles, etc. It may be implemented as a device or a movable device.
- the AI device 600 includes a communication unit 610, a control unit 620, a memory unit 630, an input/output unit 640a/640b, a running processor unit 640c, and a sensor unit 640d.
- a communication unit 610 can include Blocks 610 to 630/640a to 640d may respectively correspond to blocks 310 to 330/340 of FIG. 3 .
- the communication unit 610 communicates wired and wireless signals (eg, sensor information, user data) with external devices such as other AI devices (eg, FIG. 1, 100x, 120, and 140) or AI servers (Fig. input, learning model, control signal, etc.) can be transmitted and received. To this end, the communication unit 610 may transmit information in the memory unit 630 to an external device or transmit a signal received from the external device to the memory unit 630 .
- external devices eg, sensor information, user data
- AI devices eg, FIG. 1, 100x, 120, and 140
- AI servers Fig. input, learning model, control signal, etc.
- the controller 620 may determine at least one executable operation of the AI device 600 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. And, the controller 620 may perform the determined operation by controlling components of the AI device 600 . For example, the control unit 620 may request, retrieve, receive, or utilize data from the learning processor unit 640c or the memory unit 630, and may perform a predicted operation among at least one feasible operation or one determined to be desirable. Components of the AI device 600 may be controlled to execute an operation. In addition, the control unit 620 collects history information including user feedback on the operation contents or operation of the AI device 600 and stores it in the memory unit 630 or the running processor unit 640c, or the AI server ( 1, 140) can be transmitted to an external device. The collected history information can be used to update the learning model.
- the memory unit 630 may store data supporting various functions of the AI device 600 .
- the memory unit 630 may store data obtained from the input unit 640a, data obtained from the communication unit 610, output data of the learning processor unit 640c, and data obtained from the sensing unit 640.
- the memory unit 630 may store control information and/or software codes required for operation/execution of the controller 620 .
- the input unit 640a may obtain various types of data from the outside of the AI device 600.
- the input unit 620 may obtain learning data for model learning and input data to which the learning model is to be applied.
- the input unit 640a may include a camera, a microphone, and/or a user input unit.
- the output unit 640b may generate an output related to sight, hearing, or touch.
- the output unit 640b may include a display unit, a speaker, and/or a haptic module.
- the sensing unit 640 may obtain at least one of internal information of the AI device 600, surrounding environment information of the AI device 600, and user information by using various sensors.
- the sensing unit 640 may include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and/or a radar. there is.
- the learning processor unit 640c may learn a model composed of an artificial neural network using learning data.
- the running processor unit 640c may perform AI processing together with the running processor unit of the AI server (FIG. 1, 140).
- the learning processor unit 640c may process information received from an external device through the communication unit 610 and/or information stored in the memory unit 630 .
- the output value of the learning processor unit 640c may be transmitted to an external device through the communication unit 610 and/or stored in the memory unit 630.
- the transmitted signal may be processed by a signal processing circuit.
- the signal processing circuit 700 may include a scrambler 710, a modulator 720, a layer mapper 730, a precoder 740, a resource mapper 750, and a signal generator 760.
- the operation/function of FIG. 7 may be performed by the processors 202a and 202b and/or the transceivers 206a and 206b of FIG. 2 .
- blocks 710 to 760 may be implemented in the processors 202a and 202b and/or the transceivers 206a and 206b of FIG. 2 .
- blocks 710 to 760 may be implemented in the processors 202a and 202b of FIG. 2 .
- blocks 710 to 750 may be implemented in the processors 202a and 202b of FIG. 2
- block 760 may be implemented in the transceivers 206a and 206b of FIG. 2 , and are not limited to the above-described embodiment.
- the codeword may be converted into a radio signal through the signal processing circuit 700 of FIG. 7 .
- a codeword is an encoded bit sequence of an information block.
- Information blocks may include transport blocks (eg, UL-SCH transport blocks, DL-SCH transport blocks).
- Radio signals may be transmitted through various physical channels (eg, PUSCH, PDSCH).
- the codeword may be converted into a scrambled bit sequence by the scrambler 710.
- a scramble sequence used for scrambling is generated based on an initialization value, and the initialization value may include ID information of a wireless device.
- the scrambled bit sequence may be modulated into a modulation symbol sequence by modulator 720.
- the modulation method may include pi/2-binary phase shift keying (pi/2-BPSK), m-phase shift keying (m-PSK), m-quadrature amplitude modulation (m-QAM), and the like.
- the complex modulation symbol sequence may be mapped to one or more transport layers by the layer mapper 730. Modulation symbols of each transport layer may be mapped to corresponding antenna port(s) by the precoder 740 (precoding).
- the output z of the precoder 740 can be obtained by multiplying the output y of the layer mapper 730 by the N*M precoding matrix W.
- N is the number of antenna ports and M is the number of transport layers.
- the precoder 740 may perform precoding after transform precoding (eg, discrete fourier transform (DFT)) on complex modulation symbols. Also, the precoder 740 may perform precoding without performing transform precoding.
- transform precoding eg, discrete fourier transform (DFT)
- the resource mapper 750 may map modulation symbols of each antenna port to time-frequency resources.
- the time-frequency resource may include a plurality of symbols (eg, CP-OFDMA symbols and DFT-s-OFDMA symbols) in the time domain and a plurality of subcarriers in the frequency domain.
- the signal generator 760 generates a radio signal from the mapped modulation symbols, and the generated radio signal can be transmitted to other devices through each antenna.
- CP cyclic prefix
- DAC digital-to-analog converter
- the signal processing process for the received signal in the wireless device may be configured in reverse to the signal processing process 710 to 760 of FIG. 7 .
- a wireless device eg, 200a and 200b of FIG. 2
- the received radio signal may be converted into a baseband signal through a signal restorer.
- the signal restorer may include a frequency downlink converter, an analog-to-digital converter (ADC), a CP remover, and a fast fourier transform (FFT) module.
- ADC analog-to-digital converter
- FFT fast fourier transform
- the baseband signal may be restored to a codeword through a resource de-mapper process, a postcoding process, a demodulation process, and a de-scramble process.
- a signal processing circuit for a received signal may include a signal restorer, a resource demapper, a postcoder, a demodulator, a descrambler, and a decoder.
- 6G (radio communications) systems are characterized by (i) very high data rates per device, (ii) very large number of connected devices, (iii) global connectivity, (iv) very low latency, (v) battery- It aims to lower energy consumption of battery-free IoT devices, (vi) ultra-reliable connectivity, and (vii) connected intelligence with machine learning capabilities.
- the vision of the 6G system can be four aspects such as “intelligent connectivity”, “deep connectivity”, “holographic connectivity”, and “ubiquitous connectivity”, and the 6G system can satisfy the requirements shown in Table 1 below. That is, Table 1 is a table showing the requirements of the 6G system.
- the 6G system is enhanced mobile broadband (eMBB), ultra-reliable low latency communications (URLLC), mMTC (massive machine type communications), AI integrated communication, tactile Internet (tactile internet), high throughput, high network capacity, high energy efficiency, low backhaul and access network congestion and improved data security ( can have key factors such as enhanced data security.
- eMBB enhanced mobile broadband
- URLLC ultra-reliable low latency communications
- mMTC massive machine type communications
- AI integrated communication e.g., AI integrated communication
- tactile Internet tactile internet
- high throughput high network capacity
- high energy efficiency high backhaul and access network congestion
- improved data security can have key factors such as enhanced data security.
- FIG. 10 is a diagram illustrating an example of a communication structure that can be provided in a 6G system applicable to the present disclosure.
- a 6G system is expected to have 50 times higher simultaneous wireless communication connectivity than a 5G wireless communication system.
- URLLC a key feature of 5G, is expected to become a more mainstream technology by providing end-to-end latency of less than 1 ms in 6G communications.
- the 6G system will have much better volume spectral efficiency, unlike the frequently used area spectral efficiency.
- 6G systems can provide very long battery life and advanced battery technology for energy harvesting, so mobile devices in 6G systems may not need to be charged separately.
- AI The most important and newly introduced technology for the 6G system is AI.
- AI was not involved in the 4G system.
- 5G systems will support partial or very limited AI.
- the 6G system will be AI-enabled for full automation.
- Advances in machine learning will create more intelligent networks for real-time communication in 6G.
- Introducing AI in communications can simplify and enhance real-time data transmission.
- AI can use a plethora of analytics to determine how complex target tasks are performed. In other words, AI can increase efficiency and reduce processing delays.
- AI can also play an important role in M2M, machine-to-human and human-to-machine communications.
- AI can be a rapid communication in the brain computer interface (BCI).
- BCI brain computer interface
- AI-based communication systems can be supported by metamaterials, intelligent structures, intelligent networks, intelligent devices, intelligent cognitive radios, self-sustaining wireless networks, and machine learning.
- AI-based physical layer transmission means applying a signal processing and communication mechanism based on an AI driver rather than a traditional communication framework in fundamental signal processing and communication mechanisms. For example, deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based multiple input multiple output (MIMO) mechanism, It may include AI-based resource scheduling and allocation.
- MIMO multiple input multiple output
- Machine learning may be used for channel estimation and channel tracking, and may be used for power allocation, interference cancellation, and the like in a downlink (DL) physical layer. Machine learning can also be used for antenna selection, power control, symbol detection, and the like in a MIMO system.
- DL downlink
- AI algorithms based on deep learning require a lot of training data to optimize training parameters.
- a lot of training data is used offline. This is because static training on training data in a specific channel environment may cause a contradiction between dynamic characteristics and diversity of a radio channel.
- Machine learning refers to a set of actions that train a machine to create a machine that can do tasks that humans can or cannot do.
- Machine learning requires data and a running model.
- data learning methods can be largely classified into three types: supervised learning, unsupervised learning, and reinforcement learning.
- Neural network training is aimed at minimizing errors in the output.
- Neural network learning repeatedly inputs training data to the neural network, calculates the output of the neural network for the training data and the error of the target, and backpropagates the error of the neural network from the output layer of the neural network to the input layer in a direction to reduce the error. ) to update the weight of each node in the neural network.
- Supervised learning uses training data in which correct answers are labeled in the learning data, and unsupervised learning may not have correct answers labeled in the learning data. That is, for example, learning data in the case of supervised learning related to data classification may be data in which each learning data is labeled with a category. Labeled training data is input to the neural network, and an error may be calculated by comparing the output (category) of the neural network and the label of the training data. The calculated error is back-propagated in a reverse direction (ie, from the output layer to the input layer) in the neural network, and the connection weight of each node of each layer of the neural network may be updated according to the back-propagation.
- a reverse direction ie, from the output layer to the input layer
- the amount of change in the connection weight of each updated node may be determined according to a learning rate.
- the neural network's computation of input data and backpropagation of errors can constitute a learning cycle (epoch).
- the learning rate may be applied differently according to the number of iterations of the learning cycle of the neural network. For example, a high learning rate is used in the early stages of neural network learning to increase efficiency by allowing the neural network to quickly achieve a certain level of performance, and a low learning rate can be used in the late stage to increase accuracy.
- the learning method may vary depending on the characteristics of the data. For example, in a case where the purpose of the receiver is to accurately predict data transmitted by the transmitter in a communication system, it is preferable to perform learning using supervised learning rather than unsupervised learning or reinforcement learning.
- the learning model corresponds to the human brain, and the most basic linear model can be considered. ) is called
- the neural network cord used as a learning method is largely divided into deep neural networks (DNN), convolutional deep neural networks (CNN), and recurrent boltzmann machine (RNN). and this learning model can be applied.
- DNN deep neural networks
- CNN convolutional deep neural networks
- RNN recurrent boltzmann machine
- THz communication can be applied in 6G systems.
- the data transmission rate can be increased by increasing the bandwidth. This can be done using sub-THz communication with wide bandwidth and applying advanced massive MIMO technology.
- THz waves also known as sub-millimeter radiation
- THz waves generally represent a frequency band between 0.1 THz and 10 THz with corresponding wavelengths in the range of 0.03 mm-3 mm.
- the 100 GHz-300 GHz band range (sub THz band) is considered a major part of the THz band for cellular communications. Adding to the sub-THz band mmWave band will increase 6G cellular communications capacity.
- 300 GHz-3 THz is in the far infrared (IR) frequency band.
- the 300 GHz-3 THz band is part of the broad band, but is at the border of the wide band, just behind the RF band. Thus, this 300 GHz-3 THz band exhibits similarities to RF.
- THz communications include (i) widely available bandwidth to support very high data rates, and (ii) high path loss at high frequencies (highly directional antennas are indispensable).
- the narrow beamwidth produced by the highly directional antenna reduces interference.
- the small wavelength of the THz signal allows a much larger number of antenna elements to be incorporated into devices and BSs operating in this band. This enables advanced adaptive array technology to overcome range limitations.
- THz Terahertz
- FIG. 10 is a diagram illustrating a THz communication method applicable to the present disclosure.
- THz waves are located between RF (Radio Frequency)/millimeter (mm) and infrared bands, and (i) transmit non-metal/non-polarizable materials better than visible light/infrared rays, and have a shorter wavelength than RF/millimeter waves and have high straightness. Beam focusing may be possible.
- 11 shows the structure of a perceptron included in an artificial neural network applicable to the present disclosure.
- 12 shows an artificial neural network structure applicable to the present disclosure.
- an artificial intelligence system may be applied in a 6G system.
- the artificial intelligence system may operate based on a learning model corresponding to the human brain, as described above.
- a paradigm of machine learning using a neural network structure having a high complexity such as an artificial neural network as a learning model may be referred to as deep learning.
- the neural network cord used in the learning method is largely a deep neural network (DNN), a convolutional deep neural network (CNN), and a recurrent neural network (RNN).
- DNN deep neural network
- CNN convolutional deep neural network
- RNN recurrent neural network
- the artificial neural network may be composed of several perceptrons.
- the huge artificial neural network structure extends the simplified perceptron structure shown in FIG. 11, and the input vector can be applied to different multi-dimensional perceptrons.
- an input value or an output value is referred to as a node.
- the perceptron structure shown in FIG. 11 can be described as being composed of a total of three layers based on input values and output values.
- An artificial neural network in which there are H number of (d + 1) dimensional perceptrons between the 1st layer and the 2nd layer and K number of (H + 1) dimensional perceptrons between the 2nd layer and the 3rd layer is represented as shown in FIG. can
- the layer where the input vector is located is called the input layer
- the layer where the final output value is located is called the output layer
- all layers located between the input layer and the output layer are called hidden layers.
- the artificial neural network illustrated in FIG. 12 can be understood as a total of two layers.
- the artificial neural network is composed of two-dimensionally connected perceptrons of basic blocks.
- the above-described input layer, hidden layer, and output layer can be jointly applied to various artificial neural network structures such as CNN and RNN, which will be described later, as well as multi-layer perceptrons.
- CNN neural network
- RNN multi-layer perceptrons
- DNN deep neural network
- FIG. 13 illustrates a deep neural network applicable to the present disclosure.
- the deep neural network may be a multi-layer perceptron composed of 8 hidden layers + 8 output layers.
- the multilayer perceptron structure can be expressed as a fully-connected neural network.
- a fully-connected neural network there is no connection relationship between nodes located on the same layer, and a connection relationship may exist only between nodes located on adjacent layers.
- DNN has a fully-connected neural network structure and is composed of a combination of multiple hidden layers and activation functions, so it can be usefully applied to identify the correlation characteristics between inputs and outputs.
- the correlation characteristic may mean a joint probability of input and output.
- FIG. 14 shows a convolutional neural network applicable to the present disclosure.
- 15 illustrates a filter operation of a convolutional neural network applicable to the present disclosure.
- various artificial neural network structures different from the aforementioned DNN can be formed depending on how a plurality of perceptrons are connected to each other.
- nodes located inside one layer are arranged in a one-dimensional vertical direction.
- the nodes are two-dimensionally arranged with w nodes horizontally and h nodes vertically. (convolutional neural network structure in FIG. 14).
- a weight is added for each connection in the connection process from one input node to the hidden layer, a total of h ⁇ w weights should be considered. Since there are h ⁇ w nodes in the input layer, a total of h 2 w 2 weights may be required between two adjacent layers.
- the convolutional neural network of FIG. 14 has a problem in that the number of weights increases exponentially according to the number of connections, it can be assumed that there is a filter with a small size instead of considering all mode connections between adjacent layers. can For example, as shown in FIG. 15, a weighted sum and an activation function operation may be performed on a portion where filters overlap.
- one filter has weights corresponding to the number of filters, and learning of weights can be performed so that a specific feature on an image can be extracted as a factor and output.
- a 3 ⁇ 3 filter is applied to a 3 ⁇ 3 area at the top left of the input layer, and an output value obtained by performing a weighted sum and an activation function operation on a corresponding node may be stored in z 22 .
- the above-described filter is moved by a certain distance horizontally and vertically while scanning the input layer, and the weighted sum and activation function calculations are performed, and the output value can be placed at the position of the current filter.
- the deep neural network of this structure is called a convolutional neural network (CNN), and the result of the convolution operation
- the hidden layer may be called a convolutional layer.
- a neural network including a plurality of convolutional layers may be referred to as a deep convolutional neural network (DCNN).
- the number of weights may be reduced by calculating a weighted sum including only nodes located in a region covered by the filter in the node where the current filter is located. This allows one filter to be used to focus on features for a local area. Accordingly, CNN can be effectively applied to image data processing in which a physical distance in a 2D area is an important criterion. Meanwhile, in the CNN, a plurality of filters may be applied immediately before the convolution layer, and a plurality of output results may be generated through a convolution operation of each filter.
- a structure in which this method is applied to an artificial neural network can be referred to as a recurrent neural network structure.
- 16 illustrates a neural network structure in which a circular loop applicable to the present disclosure exists.
- 17 illustrates an operating structure of a recurrent neural network applicable to the present disclosure.
- a recurrent neural network is an element ⁇ x 1 (t) , x 2 (t) , . , x d (t) ⁇ into the fully connected neural network, the immediately preceding point in time t-1 is the hidden vector ⁇ z 1 (t-1) , z 2 (t-1) , . . . , z H (t-1) ⁇ together to apply a weighted sum and an activation function.
- the reason why the hidden vector is transmitted to the next time point in this way is that information in the input vector at previous time points is regarded as being accumulated in the hidden vector of the current time point.
- the recurrent neural network may operate in a predetermined sequence of views with respect to an input data sequence.
- the input vector at time point 1 ⁇ x 1 (t) , x 2 (t) , . . . , x d (t) ⁇ is input to the recurrent neural network ⁇ z 1 (1) , z 2 (1) , . . . , z H (1) ⁇ is the input vector ⁇ x 1 (2) , x 2 (2) , . , x d (2) ⁇ , the vector ⁇ z 1 (2) , z 2 (2) , . . . of the hidden layer through the weighted sum and activation function , z H (2) ⁇ is determined.
- This process is at time point 2, time point 3, . . . , iteratively performed until time point T.
- a deep recurrent neural network a recurrent neural network
- Recurrent neural networks are designed to be usefully applied to sequence data (eg, natural language processing).
- neural network core used as a learning method, in addition to DNN, CNN, and RNN, restricted Boltzmann machine (RBM), deep belief networks (DBN), and deep Q-Network It includes various deep learning techniques such as computer vision, voice recognition, natural language processing, and voice/signal processing.
- RBM restricted Boltzmann machine
- DNN deep belief networks
- Q-Network It includes various deep learning techniques such as computer vision, voice recognition, natural language processing, and voice/signal processing.
- AI-based physical layer transmission means applying a signal processing and communication mechanism based on an AI driver, not a traditional communication framework, in fundamental signal processing and communication mechanisms. For example, deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO mechanism, AI-based resource scheduling ( scheduling) and allocation.
- the present disclosure relates to meta online learning in a structure that delivers end-to-end messages by configuring a transmitter and a receiver as a neural network.
- a neural network-based wireless communication system uses a property of well approximating an arbitrary function of a neural network.
- good transmitting/receiving performance can be obtained in a channel having a nonlinear property by using the property of approximating an arbitrary function well.
- neural network training is absolutely necessary.
- This disclosure is related to a meta-learning area in which meta-learning is applied through regional classification to cope with the long-tail radio wave environment distribution of below 6 GHz communication, mmWave, and THz communication.
- the present disclosure describes various embodiments for meta-learning a reference signal (RS) used in each band and effectively performing a task that exists for each reference signal.
- RS reference signal
- Meta-learning is a learning technique that enables inference such as regression and classification to be performed well on a new task by using a neural network trained in advance for several tasks. That is, meta-learning can be understood as learn-to-learn, which enables learning and inference to be performed well on new tasks.
- meta-learning the weights of a model of a neural network pre-trained through tasks are the meta-model parameters.
- learning meta-model parameters is defined as meta-training.
- the metamodel parameter is the model parameter adapted to the new task.
- Retrained and adapted model parameters with Performing inference based on is called adaptation.
- model parameters for tasks may be referred to as task model parameters to distinguish them from meta model parameters.
- Meta-learning is explained through a more intuitive example as shown in FIG. 18.
- 18 illustrates the concept of meta-learning applicable to the present disclosure.
- the implementer wants to process a new task called 'riding a bicycle' (1802). If meta-training is performed in advance with 'movement of riding something' as existing tasks, the practitioner will be able to ride a bicycle easily.
- metamodel parameters are trained on tasks such as riding a horse (1812), riding a surfboard (1814), and riding an electric bicycle (1816). When is learned, adaptation to a new task of riding a bicycle can be performed relatively easily.
- the device collects data from the task distribution p(D), and metamodel parameters based on the neural network model f. After learning , the model parameters required for the new task Adaptation can be performed by determining Each task may be defined as in [Equation 1].
- Equation 2 is the optimal metamodel parameter, is the average operator, is the relevant data set, is the data sample, is the data distribution, is the loss function, is the meta-learning function, is the dataset selected for meta-learning, means a meta model parameter.
- a data set (eg, a meta-training set and a meta-test set) in meta-training includes data sets of a plurality of different tasks. and. Within one task, a data set may include a training set 1922 (eg, D tr ) and a test set 1924 (eg, D ts ).
- a meta-training set may be determined by gathering these several individual task data. For example, the transmitter and the receiver determine task model parameters for each task through an inner loop using the training set 1922 and use the test set 1924 through an outer loop. model parameters can be determined.
- Adaptation for a new specific task is an optimal meta-model parameter It is to maximize the conditional probability value that best describes the meta test data for that particular task based on .
- the meta-test data set is also divided into a training set (1932) and a test set (1934).
- the training set is mainly metamodel parameters
- Task model parameters for the new task from is consumed to learn
- the test set is used for tasks that perform real tasks.
- Optimal metamodel parameters The meta-learning algorithm for obtaining can be divided into three categories. Model (e.g., black box)-based methods, optimization-based methods, and non-parametric methods have been proposed. These three methods have the following in common. First, we generalize the data obtained from the distribution of several tasks. Second, one task is sampled from the meta-task data set, and learning is repeatedly performed using the related task data D tr and D ts .
- Model e.g., black box
- the meta-learning algorithm and the inner and outer loops are as follows.
- a model-based method is another model or neural network that well describes a particular sampled task i. using decide The optimization-based method does not set aside a model that best explains task i, but uses the gradient information of the current model. decide The non-parametric method of task i Consider a model that well describes the features of .
- Meta-learning shows good performance when the dataset has a long-tailed distribution. In the case of a data set with a long-tail distribution, there are many classes and the size of data within each class is very small. Meta-learning shows good performance even on small data sets. One of the most useful applications is in few-shot learning. Even if only a few images are shown, excellent performance is achieved by performing meta-learning and then identifying the images.
- Meta-learning algorithms can be divided into a model-based approach, an optimization-based approach, and a non-parametric approach.
- Each algorithm can be expressed as:
- Sample Task i 2. Sample data set D i tr , D i ts 3.Compute ⁇ f ⁇ (D i tr ) 4. update ⁇ using ⁇ ⁇ L( ,D i ts ) 5. return to 1. Optimization-based approach 1. Sample Task i 2. Sample data set D i tr , D i ts 3.Optimize ⁇ ⁇ L( ⁇ ,D i tr ) 4. update ⁇ using ⁇ ⁇ L( ,D i ts ) 5. return to 1. non-parametric approach 1. Sample Task i 2. Sample data set D i tr , D i ts 3.Compute 4. update ⁇ using ⁇ ⁇ L( ) 5. return to 1.
- meta-learning can be understood as two levels of hierarchical parametric learning.
- Meta-learning tasks may be related to a reference signal. That is, the present disclosure relates to meta-learning of transmission/reception tasks related to reference signals in communication.
- the reference signal and meta-learning task are as follows.
- the reference signal is a signal having a pre-agreed value between the transmitter and the receiver.
- Several reference signals may be defined.
- the transmitter may transmit a phase-tracking reference signal (PTRS) having a specific pattern to correct a phase error in a high frequency band.
- DMRS demodulation RS
- the transmitter may transmit CSI-RSs having specific patterns to track time synchronization of channels, track beams, and find channel quality information such as RI/PMI/CQI.
- the transmitter may transmit a sounding reference signal (SRS) having a specific pattern for channel sounding.
- the base station may transmit a positioning reference signal (PRS) for measuring the position of the terminal.
- a reference signal may be understood as any signal allocated to a radio resource region for meta-learning, as well as those mentioned above.
- Information for transmitting and receiving the reference signal may be known to the transmitter and receiver in advance or set through signaling (eg, PHY, MAC CE, RRC).
- the task for the reference signal or data consists of a data set and a loss function.
- a data set can be obtained by succeeding in receiving and measuring required for each reference signal.
- a supervised learning data set may be secured.
- a supervised learning data set can be secured.
- Data sets can be divided into meta training sets and meta test sets according to meta learning.
- the loss function of each task may consist of cross entropy of received data or measured data.
- 20 illustrates functional structures of devices supporting meta-learning according to an embodiment of the present disclosure.
- 20 illustrates a transmission/reception model in the case where a first device 2010 functions as a transmitter and a second device 2020 functions as a receiver among two devices 2010 and 2020 performing communication according to an embodiment.
- the first device 2010 may be understood as a base station and the second device 2020 may be understood as a UE.
- the first device 2010 may be understood as a UE, and the second device 2020 may be understood as a base station.
- a first device 2010 includes a transmit entity 2011, a meta trainer 2012, a meta transmitter 2013, an adaptation block 2014, and a task transmitter 2015. ).
- the transmitting entity 2011 performs overall control and processing for data transmission.
- the transmitting entity 2011 may generate transmission data and provide information required for operation of other blocks.
- the transmitting entity 2011 may provide task data to the meta training unit 2012 and a message S to the meta transmitter 2015.
- the transmitting entity 2011 may control the meta-learning operation using the measurement report received from the second device 2020 .
- the meta training unit 2012 determines meta model parameters by performing meta learning, and the meta transmitter 2013 holds the meta model parameters determined through meta learning.
- the adaptation block 2014 determines task model parameters for a given task by performing adaptation to the meta model parameters, and the task transmitter 2015 uses the adapted task model parameters determined through adaptation to determine the message and at least One reference signal is processed according to the corresponding task.
- the second device 2020 includes a receive entity 2021, a meta training unit 2022, a meta receiver 2023, an adaptation block 2024, a task receiver 2025, and a transmission meta. and a transmit meta control block 2026 .
- the receiving entity 2021 performs overall control and processing for data reception. For example, the receiving entity 2021 may process received messages and provide information necessary for operation of other blocks. Specifically, the receiving entity 2021 may provide task data to the meta training unit 2022 and a message S to the meta receiver 2025.
- the meta training unit 2022 determines meta model parameters by performing meta learning, and the meta receiver 2023 holds the meta model parameters determined through meta learning.
- the adaptation block 2024 determines task model parameters for a given task by performing adaptation to the meta model parameters, and the task receiver 2025 uses the adapted task model parameters determined through adaptation to determine the message and at least A message is restored by processing one reference signal according to the corresponding task, and the restored message to the receiving entity 2021.
- the transmission meta control block 2026 generates information for learning the neural networks of the first device 2010 and transmits a measurement report including the generated information to the first device 2010 .
- a meta neural network may include one or more meta transmitters 2013 and one or more meta receivers 2023.
- the meta neural network is a generalized parameter value obtained through meta training for a plurality of tasks. and includes Task neural networks may consist of one or multiple task transmitters 2015 and one or multiple task receivers 2025. Task networks may have different parameters for each reference signal task.
- the actual message S is transmitted, it is converted into a transmission and reception task neural network that is suitable for the corresponding channel situation derived from the meta neural network through adaptation, and the message S can be transmitted and received.
- the second device 2020 sends a message restore
- the transmitting entity 2011 and the receiving entity 2021 refer to objects that transmit and receive data.
- Meta-learning unit 2012 and meta-learning unit 2022 transmit task neural network and receive task neural network meta-parameters using the information of and learn
- the transmission meta control block 2026 is a control unit of the second device 2020 for training the transmitter neural network.
- the transmission meta control block 2026 measures a loss for training the transmission neural network and feeds back the loss to the first device 2010 through a measurement report. Feedback operation is made through a measurement report (measurement report). In the meta-training process, measurement reporting requires bandwidth, so it is considered an indirect cost, that is, overhead.
- the transmission meta control block 2026 can play a role in minimizing these costs.
- a transmitter and a receiver performing on-line meta-learning go through two processes concurrently.
- the first process is the online meta-training process.
- the online meta-training process is the best-performing meta-model parameter at the present time. is to explore
- the online meta-training process is a task parameter of a transmitter and a receiver learned from a plurality of tasks through an inner-loop. decide
- the online meta-training process has meta-model parameters that generalize well to task parameters through an outer-loop.
- the second process is the latest meta-parameters While continuing to perform adaptation based on the learning data obtained from the recently used task through It is to perform transmission and reception with .
- 21 illustrates a procedure for determining parameters related to a transmitter according to an embodiment of the present invention.
- 21 illustrates an operating method of a device (eg, a base station or a UE) that transmits a reference signal for a task related to the reference signal.
- a device eg, a base station or a UE
- the device transmits setting information related to the reference signal.
- the setting information includes information related to reference signals transmitted for channel measurement (eg, resources, sequences, etc.), information related to required operations (eg, measurement, learning, training, etc.), and information related to feedback (eg, format, resource, number of feedbacks, period, etc.).
- setting information may include information related to meta-learning.
- information related to meta-learning includes tasks used for meta-learning, batch size for training, optimization method of model parameters, at least one task used for the inner loop, and for the outer loop. It may indicate at least one of at least one task to be used, and may include at least one set value related to the indicated item.
- the setting information may function as a message requesting the device or other devices to perform meta training.
- the device transmits reference signals.
- the device transmits reference signals based on the setting information. That is, the device may transmit reference signals based on the sequence indicated by the configuration information through the resource indicated by the configuration information.
- the device may transmit reference signals for at least one task related to meta-learning.
- Reference signals related to meta-learning may include a plurality of reference signal sets, and the types of reference signals may be different according to the reference signal sets. In this case, a plurality of reference signal sets may be transmitted in stages.
- the device receives feedback information. That is, the device receives feedback information generated based on the transmitted reference signals.
- the feedback information may include measurement information according to the type of reference signal.
- the feedback information may include loss information for meta-learning.
- the loss information is information related to a result inferred from a reference signal passing through a channel using a receiver neural network in the other device and an error between labels, and may be determined based on a loss function.
- the loss information included in the feedback information may include a loss value for the transmitter neural network used in the device. That is, the loss information may indicate a value determined based on an error between input data to the receiver neural network and an output value of the receiver neural network.
- the device sets at least one parameter related to the transmitter based on the feedback information. That is, the device may set at least one parameter related to an operation for processing a bit stream, information, data, message, or signal transmitted based on the feedback information.
- the device may perform learning of the transmitter neural network based on the feedback information.
- the device may perform meta-learning to determine meta-model parameters.
- setting may include at least one of determining a value of at least one parameter that does not exist previously and updating a value of at least one existing parameter.
- the device may transmit a reference signal, receive feedback information corresponding to the reference signal, and set at least one parameter related to the transmitter based on the feedback information.
- a series of operations including transmitting the reference signal, receiving feedback information, and setting at least one parameter may be repeatedly performed two or more times.
- the first iteration is for training the neural network for a specific task
- the second iteration is for an inner loop for determining task model parameters in meta-learning
- the first iteration is for determining meta-model parameters in meta-learning. Can be done for an outer loop.
- the device may receive only loss information about at least one of some of the tasks corresponding to the transmitted reference signals.
- the device may transmit reference signals for at least one task corresponding to the received loss information.
- 22 illustrates a procedure for determining parameters related to a receiver according to an embodiment of the present invention. 22 illustrates an operating method of a device (eg, a base station or a UE) that receives a reference signal for a task related to the reference signal.
- a device eg, a base station or a UE
- the device receives setting information related to a reference signal.
- the setting information includes information related to reference signals transmitted for channel measurement (eg, resources, sequences, etc.), information related to required operations (eg, measurement, learning, training, etc.), and information related to feedback (eg, format, resource, number of feedbacks, period, etc.).
- setting information may include information related to meta-learning.
- information related to meta-learning includes tasks used for meta-learning, batch size for training, optimization method of model parameters, at least one task used for the inner loop, and for the outer loop. It may indicate at least one of at least one task to be used, and may include at least one set value related to the indicated item.
- the setting information may function as a message requesting the device or other devices to perform meta training.
- the device receives reference signals.
- the device receives reference signals based on the setting information. That is, the device may receive reference signals based on a sequence indicated by the configuration information through a resource indicated by the configuration information.
- the device may receive reference signals for at least one task related to meta-learning.
- Reference signals related to meta-learning may include a plurality of reference signal sets, and the types of reference signals may be different according to the reference signal sets. In this case, a plurality of reference signal sets may be received step by step.
- the device sets at least one parameter related to the receiver based on the reference signals. That is, the device may set at least one parameter related to an operation for processing a bit string, information, data, message, or signal received from the other device based on the reference signals.
- the device may perform learning of the receiver neural network based on the feedback information. For example, the device may update parameters (eg, weights) of the receiver neural network through backpropagation.
- the device may perform meta-learning to determine meta-model parameters.
- setting may include at least one of determining a value of at least one parameter that does not exist previously and updating a value of at least one existing parameter.
- the device transmits feedback information. That is, the device transmits feedback information generated based on the transmitted reference signals.
- the feedback information may include measurement information according to the type of reference signal.
- the feedback information may include loss information for meta-learning of the counterpart device.
- the loss information is information related to a result inferred using a receiver neural network from a reference signal passing through a channel and an error between labels, and may be determined based on a loss function.
- the loss information included in the feedback information may include a loss value for the transmitter neural network used in the other party's device. That is, the loss information may indicate a value determined based on an error between input data to the receiver neural network and an output value of the receiver neural network.
- the loss information may relate to a result of backpropagation in the receiver neural network to an input layer of the receiver neural network.
- the device may receive a reference signal, set at least one parameter related to a receiver based on the reference signal, and transmit feedback information corresponding to the reference signal.
- a series of operations including receiving the reference signal, setting at least one parameter, and transmitting feedback information may be repeatedly performed two or more times.
- the first iteration is for training the neural network for a specific task
- the second iteration is for an inner loop for determining task model parameters in meta learning
- the third iteration is for determining meta model parameters in meta learning. Can be done for an outer loop.
- the device in the second iteration, may transmit only loss information about at least one of some of the tasks corresponding to the received reference signals as feedback information.
- the device may receive reference signals for at least one task corresponding to the transmitted loss information.
- a transmitter and a receiver may be understood as a base station and a UE, a UE and a base station, and a UE and a UE.
- transmitting the task may include transmitting at least one reference signal for the task.
- the optimization of the objective function of the transmitter of online meta-training is performed based on the evaluation of Optimizing the objective function of the receiver of online meta-training is is performed based on the evaluation of The evaluation for optimizing the objective function of the transmitter and the evaluation for optimizing the objective function of the receiver are alternately performed iteratively.
- Meta training of the receiver can be performed as follows.
- 23 shows an example of a procedure for performing meta-learning for a receiver according to an embodiment of the present invention.
- 23 illustrates signaling between a transmitter 2310 and a receiver 2320.
- the transmitter 2310 transmits an RX meta-training request message to the receiver 2320.
- the received meta-training request message includes set information of reference signal tasks (RS tasks) used during meta-training.
- the received meta-training request message includes at least one of a batch size for gradient-based training, an optimization method, and a setting value related thereto.
- the received meta-training request message includes information about the task set for each inner loop and the task set used in the outer loop.
- the transmitter 2310 transmits at least one reference signal for task k.
- the receiver 2320 updates parameters of the receiving neural network. Parameters of the receiving neural network may be updated as shown in [Equation 3] below.
- Equation 3 is the task model parameter of the receiver, is the update function, is the loss function, means the meta model parameter of the transmitter.
- the update function may vary depending on the optimization method.
- step S2307 the receiver 2320 reports loss through a measurement report.
- receiver 2320 determines a loss for transmitter 2310 and transmits to transmitter 2310 a measurement report containing information related to the loss.
- step S2309 the transmitter 2310 updates the transmission neural network. Training for task k performed in steps S2303 to S2309 described above, that is, training in the initial stage of meta-learning may be performed to provide a preliminary learning opportunity so that the neural networks of the transmitter and the receiver can have the latest state. Through this, it is possible to prevent the parameters of the neural networks from being in a state in which a channel in the past has been learned too much.
- steps S2303 to S2309 described above may be omitted.
- steps S2311-i to S2311-i+N reference signals for N inner-loops from task i are transmitted.
- steps S2313-i to S2313-i+N the task model parameters of each task are performed by an inner-loop. is updated.
- Task model parameters can be updated as shown in [Equation 4].
- Equation 4 is the task model parameter of the receiver, is the meta-learning function used in the inner loop, is the metamodel parameter of the receiver, is the loss function. here, may vary depending on the meta-learning approach.
- the transmitter 2310 transmits reference signals for tasks j to j+M.
- the receiver 2320 samples at least one task among the transmitted tasks, and the updated task model parameter in the inner loop. Based on the meta-model parameters in the outer-loop update The meta model parameters can be updated as shown in [Equation 5] below.
- Equation 5 is the metamodel parameter of the receiver, is the meta-learning function used in the outer loop, is the loss function, Means a task model parameter of a transmitter for a specific task. here, depends on the meta-learning approach.
- transmitting a task means transmitting at least one reference signal for the task.
- Transmitter meta-training can be performed as follows. 24 shows an example of a procedure for performing meta-learning for a transmitter according to an embodiment of the present invention. 24 illustrates signaling between a transmitter 2410 and a receiver 2420.
- the transmitter 2410 transmits a TX meta-training request message to the receiver 2420.
- the transmission meta-training message includes set information of RS tasks used during meta-training.
- the transmission meta-training message includes at least one of a batch size for gradient-based training, an optimization method, and a setting value related thereto.
- step S2403 the transmitter 2410 transmits at least one reference signal for task u.
- Task u is transmission of a reference signal for training reception parameters to be used for transmission meta-training (TX meta-training).
- the receiver 2420 determines the task model parameters for task u. is updated, and in step S2407, the loss for task u may be fed back to the transmitter 2410. After that, a transmission meta-training (TX meta-training) period begins.
- TX meta-training transmission meta-training
- steps S2409-i to S2409-i+N N tasks are transmitted.
- steps S2411-i to S2411-i+N the loss required for training the inner loop is measured in the receiver 2420.
- the reception control unit and the transmission unit of the receiver 2420 perform the following operations in the inner loop.
- the receiver 2420 prepares the same model as the transmission neural network. Information on the same model is delivered by a meta-learning ID included in the TX meta-training request message, through which the receiver 2420 can acquire the same model. It is assumed that the meta-learning model has been negotiated in advance.
- the transmitter 2410 transmits reference signals for the inner loop task, eg, RS i to RS i+N .
- the receiver 2420 calculates each loss using a copy of the received signal and the transmission neural network, and the task model parameter of the transmitter 2410 ⁇ ⁇ to determine At this time, the task model parameters may be determined as in [Equation 6] below.
- Equation 6 is the task model parameter of the transmitter, is the meta-learning function used in the inner loop, is the metamodel parameter of the transmitter, is the loss function, means a task model parameter of the receiver.
- meta-model parameters may be understood as parameters determined by previous meta-learning.
- step S2413 the receiver 2420 determines the inner loop parameter ⁇ ⁇ during The most valid subset for computation ⁇ ⁇ is selected, and in step S2415, the loss is fed back to the transmitter 2410.
- M ⁇ N.
- step S2417 the transmitter transmits the feedback parameter ⁇ ⁇ prepare the task neural network through the loss of ⁇ ⁇ .
- the transmitter 2410 In steps S2419-j to S2419-j + M, the transmitter 2410 generates parameter ⁇ ⁇ through which task j to task j+M related to the reference signal are transmitted, and in steps S2421-j to S2421-j+M, the receiver 2420 measures the loss for the outer loop. In step S2423, the receiver 2420 feeds back the loss to the transmitter 2410 to perform outer loop meta training. In other words, in step S2425, the transmitter 2410 may perform outer loop meta training based on the loss fed back from the receiver 2420. Meta parameters of the transmitter 2410 may be updated as shown in [Equation 7] below.
- Equation 7 is the metamodel parameter of the transmitter, is the meta-learning function used in the outer loop, is the loss function, is the task model parameter of the transmitter, means a task model parameter of the receiver.
- the aforementioned meta-learning methodology is divided into model-based, optimization-based, and nonparametric-based.
- the present disclosure proposes a method of performing optimization-based meta-learning at a low feedback cost from the perspective of meta-learning for a transmitter.
- 25 shows another example of a procedure for performing meta-learning for a transmitter according to an embodiment of the present invention.
- 25 illustrates signaling between a transmitter 2510 and a receiver 2520.
- 25 illustrates a case in which 10 tasks are used.
- the receiver 2520 secures a TX meta neural network through an identifier included in a TX meta-request message.
- the transmitter 2510 transmits reference signals for 10 reference signal tasks.
- the receiver 2520 performs inner loop evaluation on 10 reference signal tasks, measures losses, and ⁇ ⁇ is secured.
- task model parameters for 10 tasks may be determined as in [Equation 8].
- Equation 9 is the task model parameter of the sender for task i, is the metamodel parameter of the transmitter, is the update weight, is the metamodel parameter of the transmitter, means a task model parameter of the receiver.
- the receiver 2520 may extract 3 tasks out of 10 using a clustering algorithm.
- the receiver 2520 ⁇ ⁇ by extracting the three with the best generalization performance through clustering, in step S2509, representative Only the losses for can be delivered to the transmitter.
- the transmitter 2510 is a meta model parameter can be determined without a large error.
- updates may be performed only for the corresponding tasks.
- the transmitter 2510 transmits reference signals for tasks 1, 4, and 7.
- the receiver 2520 measures loss.
- the receiver 2520 feeds back the outer loop loss.
- the transmitter 2510 updates meta model parameters.
- the meta model parameters may be updated as shown in [Equation 9] below.
- Equation 9 is the metamodel parameter of the transmitter, is the update weight, is the task model parameter of the sender for task i, means a task model parameter of the receiver.
- the receiver extracts 3 out of 10 tasks using a clustering algorithm.
- a clustering algorithm As a metric used for clustering, any two Kullback-Leibler divergence may be used. For example, it can be considered as being clustered as shown in FIG. 26 in the parameter space. 26 shows an example of clustering for model parameters according to an embodiment of the present invention. Referring to FIG. 26 , 10 tasks are classified into three groups 2612, 2614, and 2616. In this case, one representative task may be selected from each group, and loss values of the representative task for each selected group may be fed back from the receiver to the transmitter.
- the selection of the representative task of each group may vary depending on the clustering algorithm used.
- a task having a model parameter closest to an average value of a corresponding group may be selected as a representative task.
- a task having the smallest deviation in distances from other tasks within the group may be selected as the representative task.
- the distance between tasks may be determined based on a probability distribution distance or a Kullback-Leibler divergence (KLD).
- a representative task only one task per group is selected.
- a plurality of tasks may be selected from at least one group.
- the number of representative tasks selected from the corresponding group may vary according to the number of tasks belonging to the group.
- a plurality of representative tasks may be selected from at least one group according to the total number of tasks.
- the present disclosure in a wireless communication system in which an end-to-end message is transmitted using a neural network by implementing a transmitter and a receiver as a neural network, when a transmission channel and a reception channel change, both A method to perform online meta-learning for neural networks is proposed.
- the present disclosure proposes a method of minimizing the feedback cost for the meta online learning of the transmitter.
- the receiver evaluates the transmitter's meta-neural network from the reference signal task in an inner loop, selects valid tasks, and transfers the training loss to the transmitter using only the selected part, thereby saving feedback costs.
- a valid task can be selected through clustering on the parameter set obtained in the inner loop. By selecting representative task parameters, errors with meta parameters can be minimized and advantages of meta learning can be maximized.
- Embodiments of the present disclosure may be applied to various wireless access systems.
- various wireless access systems there is a 3rd Generation Partnership Project (3GPP) or 3GPP2 system.
- 3GPP 3rd Generation Partnership Project
- 3GPP2 3rd Generation Partnership Project2
- Embodiments of the present disclosure may be applied not only to the various wireless access systems, but also to all technical fields to which the various wireless access systems are applied. Furthermore, the proposed method can be applied to mmWave and THz communication systems using ultra-high frequency bands.
- embodiments of the present disclosure may be applied to various applications such as free-running vehicles and drones.
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Electromagnetism (AREA)
- Power Engineering (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
본 개시는 무선 통신 시스템에서 수신기 모델에 대한 온라인(online) 학습을 수행하기 위한 것으로, UE(user equipment)의 동작 방법은, 통신에 필요한 방송 정보를 수신하는 단계, DRX(discontinuous reception)에 관련된 능력 정보를 송신하는 단계, 상기 DRX에 관련된 설정(configuration) 정보를 수신하는 단계, 상기 설정 정보에 기반하여 슬립(sleep) 구간 동작을 수행하는 단계, 및 상기 설정 정보에 기반하여 온-구간(on-duration) 동작을 수행하는 단계를 포함하며, 상기 온-구간 동작은, 수신기의 설정을 위해 사용되는 UE 컨텍스트를 모니터링하는 동작을 포함하며, 상기 슬립 구간 동작은, 상기 UE 컨텍스트에 기반하여 생성된 채널 데이터를 이용하여 상기 수신기를 설정하는 동작을 포함할 수 있다.
Description
이하의 설명은 무선 통신 시스템에 대한 것으로, 무선 통신 시스템에서 송수신기 모델에 대한 온라인(online) 학습을 수행하기 위한 장치 및 방법에 관한 것이다.
무선 접속 시스템이 음성이나 데이터 등과 같은 다양한 종류의 통신 서비스를 제공하기 위해 광범위하게 전개되고 있다. 일반적으로 무선 접속 시스템은 가용한 시스템 자원(대역폭, 전송 파워 등)을 공유하여 다중 사용자와의 통신을 지원할 수 있는 다중 접속(multiple access) 시스템이다. 다중 접속 시스템의 예들로는 CDMA(code division multiple access) 시스템, FDMA(frequency division multiple access) 시스템, TDMA(time division multiple access) 시스템, OFDMA(orthogonal frequency division multiple access) 시스템, SC-FDMA(single carrier frequency division multiple access) 시스템 등이 있다.
특히, 많은 통신 기기들이 큰 통신 용량을 요구하게 됨에 따라 기존 RAT(radio access technology)에 비해 향상된 모바일 브로드밴드(enhanced mobile broadband, eMBB) 통신 기술이 제안되고 있다. 또한 다수의 기기 및 사물들을 연결하여 언제 어디서나 다양한 서비스를 제공하는 mMTC(massive machine type communications) 뿐만 아니라 신뢰성 (reliability) 및 지연(latency) 민감한 서비스/UE(user equipment)를 고려한 통신 시스템이 제안되고 있다. 이를 위한 다양한 기술 구성들이 제안되고 있다.
본 개시는 무선 통신 시스템에서 송수신기 모델에 대한 온라인(online) 학습을 효과적으로 수행하기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 송수신기 모델에 대한 메타 학습(meta learning)을 수행하기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 송수신기 모델에 대한 메타 모델 파라미터를 결정하기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 송수신기 모델에 대한 메타 학습을 위한 오버헤드를 줄이기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 수신기 모델에 대한 메타 학습을 위한 기준 신호들을 송신하기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 송신기 모델에 대한 메타 학습을 위한 손실 정보를 피드백하기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 송신기 모델에 대한 메타 학습을 위하여 태스크(task)들 중 일부에 대한 손실 정보를 피드백하기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 메타 모델 파라미터를 대표할 수 있는 일부 태스크들을 선택하기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 태스크 별 모델 파라미터들을 클러스터링하기 위한 장치 및 방법을 제공할 수 있다.
본 개시에서 이루고자 하는 기술적 목적들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 본 개시의 실시예들로부터 본 개시의 기술 구성이 적용되는 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.
본 개시의 일 예에 따르면, 무선 통신 시스템에서 UE(user equipment)의 동작 방법은, 기준 신호들에 관련된 설정 정보를 수신하는 단계, 제1 기준 신호들을 수신하는 단계, 상기 제1 기준 신호들에 대응하는 제1 피드백 정보를 송신하는 단계, 제2 기준 신호들을 수신하는 단계, 상기 제2 기준 신호들에 대응하는 제2 피드백 정보를 송신하는 단계를 포함할 수 있다. 상기 제1 기준 신호들 및 상기 제2 기준 신호들은, 수신되는 신호를 처리하기 위한 수신기에 관련된 적어도 하나의 파라미터를 설정하기 위해 사용되고, 상기 설정 정보는, 메타 학습(meta learning)을 위해 사용되는 태스크들, 훈련을 위한 배치 크기(batch size), 상기 수신기에 포함되는 모델의 파라미터의 최적화 방식, 내부 루프(inner loop)를 위해 사용되는 적어도 하나의 태스크, 외부 루프(outer loop)를 위해 사용되는 적어도 하나의 태스크 중 적어도 하나를 포함할 수 있다.
본 개시의 일 예에 따르면, 무선 통신 시스템에서 기지국의 동작 방법은, 기준 신호들에 관련된 설정 정보를 송신하는 단계, 제1 기준 신호들을 송신하는 단계, 상기 제1 기준 신호들에 대응하는 제1 피드백 정보를 수신하는 단계, 제2 기준 신호들을 송신하는 단계, 상기 제2 기준 신호들에 대응하는 제2 피드백 정보를 수신하는 단계를 포함할 수 있다. 상기 제1 기준 신호들 및 상기 제2 기준 신호들은, 송신되는 신호를 처리하기 위한 송신기에 관련된 적어도 하나의 파라미터를 설정하기 위해 사용되고, 상기 설정 정보는, 메타 학습(meta learning)을 위해 사용되는 태스크들, 훈련을 위한 배치 크기(batch size), UE(user equipment)의 수신기에 포함되는 모델의 파라미터의 최적화 방식, 내부 루프(inner loop)를 위해 사용되는 적어도 하나의 태스크, 외부 루프(outer loop)를 위해 사용되는 적어도 하나의 태스크 중 적어도 하나를 포함할 수 있다.
본 개시의 일 예에 따르면, 무선 통신 시스템에서 UE(user equipment)에 있어서, 송수신기, 및 상기 송수신기와 연결된 프로세서를 포함하며, 상기 프로세서는, 기준 신호들에 관련된 설정 정보를 수신하고, 제1 기준 신호들을 수신하고, 상기 제1 기준 신호들에 대응하는 제1 피드백 정보를 송신하고, 제2 기준 신호들을 수신하고, 상기 제2 기준 신호들에 대응하는 제2 피드백 정보를 송신하도록 제어하고, 상기 제1 기준 신호들 및 상기 제2 기준 신호들은, 수신되는 신호를 처리하기 위한 수신기에 관련된 적어도 하나의 파라미터를 설정하기 위해 사용되고, 상기 설정 정보는, 메타 학습(meta learning)을 위해 사용되는 태스크들, 훈련을 위한 배치 크기(batch size), 상기 수신기에 포함되는 모델의 파라미터의 최적화 방식, 내부 루프(inner loop)를 위해 사용되는 적어도 하나의 태스크, 외부 루프(outer loop)를 위해 사용되는 적어도 하나의 태스크 중 적어도 하나를 포함할 수 있다.
본 개시의 일 예에 따르면, 무선 통신 시스템에서 기지국에 있어서, 송수신기, 및 상기 송수신기와 연결된 프로세서를 포함하며, 상기 프로세서는, 기준 신호들에 관련된 설정 정보를 송신하고, 제1 기준 신호들을 송신하고, 상기 제1 기준 신호들에 대응하는 제1 피드백 정보를 수신하고, 제2 기준 신호들을 송신하고, 상기 제2 기준 신호들에 대응하는 제2 피드백 정보를 수신하도록 제어하고, 상기 제1 기준 신호들 및 상기 제2 기준 신호들은, 송신되는 신호를 처리하기 위한 송신기에 관련된 적어도 하나의 파라미터를 설정하기 위해 사용되고, 상기 설정 정보는, 메타 학습(meta learning)을 위해 사용되는 태스크들, 훈련을 위한 배치 크기(batch size), UE(user equipment)의 수신기에 포함되는 모델의 파라미터의 최적화 방식, 내부 루프(inner loop)를 위해 사용되는 적어도 하나의 태스크, 외부 루프(outer loop)를 위해 사용되는 적어도 하나의 태스크 중 적어도 하나를 포함할 수 있다.
본 개시의 일 예에 따르면, 통신 장치는, 적어도 하나의 프로세서, 상기 적어도 하나의 프로세서와 연결되며, 상기 적어도 하나의 프로세서에 의해 실행됨에 따라 동작들을 지시하는 명령어를 저장하는 적어도 하나의 컴퓨터 메모리를 포함하며, 상기 동작들은, 기준 신호들에 관련된 설정 정보를 수신하는 단계, 제1 기준 신호들을 수신하는 단계, 상기 제1 기준 신호들에 대응하는 제1 피드백 정보를 송신하는 단계, 제2 기준 신호들을 수신하는 단계, 상기 제2 기준 신호들에 대응하는 제2 피드백 정보를 송신하는 단계를 포함할 수 있다. 상기 제1 기준 신호들 및 상기 제2 기준 신호들은, 수신되는 신호를 처리하기 위한 수신기에 관련된 적어도 하나의 파라미터를 설정하기 위해 사용되고, 상기 설정 정보는, 메타 학습(meta learning)을 위해 사용되는 태스크들, 훈련을 위한 배치 크기(batch size), 상기 수신기에 포함되는 모델의 파라미터의 최적화 방식, 내부 루프(inner loop)를 위해 사용되는 적어도 하나의 태스크, 외부 루프(outer loop)를 위해 사용되는 적어도 하나의 태스크 중 적어도 하나를 포함할 수 있다.
본 개시의 일 예에 따르면, 적어도 하나의 명령어(instructions)을 저장하는 비-일시적인(non-transitory) 컴퓨터 판독 가능 매체(computer-readable medium)는, 프로세서에 의해 실행 가능한(executable) 상기 적어도 하나의 명령어를 포함하며, 상기 적어도 하나의 명령어는, 장치가, 기준 신호들에 관련된 설정 정보를 수신하고, 제1 기준 신호들을 수신하고, 상기 제1 기준 신호들에 대응하는 제1 피드백 정보를 송신하고, 제2 기준 신호들을 수신하고, 상기 제2 기준 신호들에 대응하는 제2 피드백 정보를 송신하도록 제어하고, 상기 제1 기준 신호들 및 상기 제2 기준 신호들은, 수신되는 신호를 처리하기 위한 수신기에 관련된 적어도 하나의 파라미터를 설정하기 위해 사용되고, 상기 설정 정보는, 메타 학습(meta learning)을 위해 사용되는 태스크들, 훈련을 위한 배치 크기(batch size), 상기 수신기에 포함되는 모델의 파라미터의 최적화 방식, 내부 루프(inner loop)를 위해 사용되는 적어도 하나의 태스크, 외부 루프(outer loop)를 위해 사용되는 적어도 하나의 태스크 중 적어도 하나를 포함할 수 있다.
상술한 본 개시의 양태들은 본 개시의 바람직한 실시예들 중 일부에 불과하며, 본 개시의 기술적 특징들이 반영된 다양한 실시예들이 당해 기술분야의 통상적인 지식을 가진 자에 의해 이하 상술할 본 개시의 상세한 설명을 기반으로 도출되고 이해될 수 있다.
본 개시에 기초한 실시예들에 의해 하기와 같은 효과가 있을 수 있다.
본 개시에 따르면, 송수신기 모델에 대한 온라인(online) 학습, 특히, 메타 학습(meta learning)이 효과적으로 수행될 수 있다.
본 개시의 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 이하의 본 개시의 실시예들에 대한 기재로부터 본 개시의 기술 구성이 적용되는 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다. 즉, 본 개시에서 서술하는 구성을 실시함에 따른 의도하지 않은 효과들 역시 본 개시의 실시예들로부터 당해 기술분야의 통상의 지식을 가진 자에 의해 도출될 수 있다.
이하에 첨부되는 도면들은 본 개시에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 본 개시에 대한 실시예들을 제공할 수 있다. 다만, 본 개시의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시예로 구성될 수 있다. 각 도면에서의 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미할 수 있다.
도 1은 본 개시에 적용 가능한 통신 시스템 예를 도시한다.
도 2는 본 개시에 적용 가능한 무선 기기의 예를 도시한다.
도 3은 본 개시에 적용 가능한 무선 기기의 다른 예를 도시한다.
도 4는 본 개시에 적용 가능한 휴대 기기의 예를 도시한다.
도 5는 본 개시에 적용 가능한 차량 또는 자율 주행 차량의 예를 도시한다.
도 6은 본 개시에 적용 가능한 AI(Artificial Intelligence)의 예를 도시한다.
도 7은 본 개시에 적용 가능한 전송 신호를 처리하는 방법을 도시한다.
도 8은 본 개시에 적용 가능한 6G 시스템에서 제공 가능한 통신 구조의 일례를 도시한다.
도 9는 본 개시에 적용 가능한 전자기 스펙트럼을 도시한다.
도 10은 본 개시에 적용 가능한 THz 통신 방법을 도시한다.
도 11은 본 개시에 적용 가능한 인공 신경망에 포함되는 퍼셉트론(perceptron)의 구조를 도시한다.
도 12는 본 개시에 적용 가능한 인공 신경망 구조를 도시한다.
도 13은 본 개시에 적용 가능한 심층 신경망을 도시한다.
도 14는 본 개시에 적용 가능한 컨볼루션 신경망을 도시한다.
도 15는 본 개시에 적용 가능한 컨볼루션 신경망의 필터 연산을 도시한다.
도 16은 본 개시에 적용 가능한 순환 루프가 존재하는 신경망 구조를 도시한다.
도 17은 본 개시에 적용 가능한 순환 신경망의 동작 구조를 도시한다.
도 18은 본 개시에 적용 가능한 메타 학습(meta learning)의 개념을 도시한다.
도 19a 및 도 19b는 본 개시에 적용 가능한 메타 학습을 위한 데이터 세트들의 예를 도시한다.
도 20은 본 개시의 일 실시예에 따른 메타 학습을 지원하는 장치들의 기능적 구조들을 도시한다.
도 21은 본 발명의 일 실시예에 따라 송신기에 관련된 파라미터를 결정하는 절차를 도시한다.
도 22는 본 발명의 일 실시예에 따라 수신기에 관련된 파라미터를 결정하는 절차를 도시한다.
도 23은 본 발명의 일 실시예에 따라 수신기를 위한 메타 학습을 수행하기 위한 절차의 예를 도시한다.
도 24는 본 발명의 일 실시예에 따라 송신기를 위한 메타 학습을 수행하기 위한 절차의 예를 도시한다.
도 25는 본 발명의 일 실시예에 따라 송신기를 위한 메타 학습을 수행하기 위한 절차의 다른 예를 도시한다.
도 26은 본 발명의 일 실시예에 따른 모델 파라미터들에 대한 클러스터링의 예를 도시한다.
이하의 실시예들은 본 개시의 구성요소들과 특징들을 소정 형태로 결합한 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려될 수 있다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 개시의 실시예를 구성할 수도 있다. 본 개시의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다.
도면에 대한 설명에서, 본 개시의 요지를 흐릴 수 있는 절차 또는 단계 등은 기술하지 않았으며, 당업자의 수준에서 이해할 수 있을 정도의 절차 또는 단계는 또한 기술하지 아니하였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일(a 또는 an)", "하나(one)", "그(the)" 및 유사 관련어는 본 개시를 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.
본 명세서에서 본 개시의 실시예들은 기지국과 이동국 간의 데이터 송수신 관계를 중심으로 설명되었다. 여기서, 기지국은 이동국과 직접적으로 통신을 수행하는 네트워크의 종단 노드(terminal node)로서의 의미가 있다. 본 문서에서 기지국에 의해 수행되는 것으로 설명된 특정 동작은 경우에 따라서는 기지국의 상위 노드(upper node)에 의해 수행될 수도 있다.
즉, 기지국을 포함하는 다수의 네트워크 노드들(network nodes)로 이루어지는 네트워크에서 이동국과의 통신을 위해 수행되는 다양한 동작들은 기지국 또는 기지국 이외의 다른 네트워크 노드들에 의해 수행될 수 있다. 이때, '기지국'은 고정국(fixed station), Node B, eNB(eNode B), gNB(gNode B), ng-eNB, 발전된 기지국(advanced base station, ABS) 또는 억세스 포인트(access point) 등의 용어에 의해 대체될 수 있다.
또한, 본 개시의 실시예들에서 단말(terminal)은 사용자 기기(user equipment, UE), 이동국(mobile station, MS), 가입자국(subscriber station, SS), 이동 가입자 단말(mobile subscriber station, MSS), 이동 단말(mobile terminal) 또는 발전된 이동 단말(advanced mobile station, AMS) 등의 용어로 대체될 수 있다.
또한, 송신단은 데이터 서비스 또는 음성 서비스를 제공하는 고정 및/또는 이동 노드를 말하고, 수신단은 데이터 서비스 또는 음성 서비스를 수신하는 고정 및/또는 이동 노드를 의미한다. 따라서, 상향링크의 경우, 이동국이 송신단이 되고, 기지국이 수신단이 될 수 있다. 마찬가지로, 하향링크의 경우, 이동국이 수신단이 되고, 기지국이 송신단이 될 수 있다.
본 개시의 실시예들은 무선 접속 시스템들인 IEEE 802.xx 시스템, 3GPP(3rd Generation Partnership Project) 시스템, 3GPP LTE(Long Term Evolution) 시스템, 3GPP 5G(5th generation) NR(New Radio) 시스템 및 3GPP2 시스템 중 적어도 하나에 개시된 표준 문서들에 의해 뒷받침될 수 있으며, 특히, 본 개시의 실시예들은 3GPP TS(technical specification) 38.211, 3GPP TS 38.212, 3GPP TS 38.213, 3GPP TS 38.321 및 3GPP TS 38.331 문서들에 의해 뒷받침 될 수 있다.
또한, 본 개시의 실시예들은 다른 무선 접속 시스템에도 적용될 수 있으며, 상술한 시스템으로 한정되는 것은 아니다. 일 예로, 3GPP 5G NR 시스템 이후에 적용되는 시스템에 대해서도 적용 가능할 수 있으며, 특정 시스템에 한정되지 않는다.
즉, 본 개시의 실시예들 중 설명하지 않은 자명한 단계들 또는 부분들은 상기 문서들을 참조하여 설명될 수 있다. 또한, 본 문서에서 개시하고 있는 모든 용어들은 상기 표준 문서에 의해 설명될 수 있다.
이하, 본 개시에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 개시의 예시적인 실시 형태를 설명하고자 하는 것이며, 본 개시의 기술 구성이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다.
또한, 본 개시의 실시예들에서 사용되는 특정 용어들은 본 개시의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 개시의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.
이하의 기술은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 접속 시스템에 적용될 수 있다.
하기에서는 이하 설명을 명확하게 하기 위해, 3GPP 통신 시스템(e.g.(예, LTE, NR 등)을 기반으로 설명하지만 본 발명의 기술적 사상이 이에 제한되는 것은 아니다. LTE는 3GPP TS 36.xxx Release 8 이후의 기술을 의미할 수 있다. 세부적으로, 3GPP TS 36.xxx Release 10 이후의 LTE 기술은 LTE-A로 지칭되고, 3GPP TS 36.xxx Release 13 이후의 LTE 기술은 LTE-A pro로 지칭될 수 있다. 3GPP NR은 TS 38.xxx Release 15 이후의 기술을 의미할 수 있다. 3GPP 6G는 TS Release 17 및/또는 Release 18 이후의 기술을 의미할 수 있다. "xxx"는 표준 문서 세부 번호를 의미한다. LTE/NR/6G는 3GPP 시스템으로 통칭될 수 있다.
본 개시에 사용된 배경기술, 용어, 약어 등에 관해서는 본 발명 이전에 공개된 표준 문서에 기재된 사항을 참조할 수 있다. 일 예로, 36.xxx 및 38.xxx 표준 문서를 참조할 수 있다.
본 개시에 적용 가능한 통신 시스템
이로 제한되는 것은 아니지만, 본 문서에 개시된 본 개시의 다양한 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 기기들 간에 무선 통신/연결(예, 5G)을 필요로 하는 다양한 분야에 적용될 수 있다.
이하, 도면을 참조하여 보다 구체적으로 예시한다. 이하의 도면/설명에서 동일한 도면 부호는 다르게 기술하지 않는 한, 동일하거나 대응되는 하드웨어 블록, 소프트웨어 블록 또는 기능 블록을 예시할 수 있다.
도 1은 본 개시에 적용되는 통신 시스템 예시를 도시한 도면이다.
도 1을 참조하면, 본 개시에 적용되는 통신 시스템(100)은 무선 기기, 기지국 및 네트워크를 포함한다. 여기서, 무선 기기는 무선 접속 기술(예, 5G NR, LTE)을 이용하여 통신을 수행하는 기기를 의미하며, 통신/무선/5G 기기로 지칭될 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(100a), 차량(100b-1, 100b-2), XR(extended reality) 기기(100c), 휴대 기기(hand-held device)(100d), 가전(home appliance)(100e), IoT(Internet of Thing) 기기(100f), AI(artificial intelligence) 기기/서버(100g)를 포함할 수 있다. 예를 들어, 차량은 무선 통신 기능이 구비된 차량, 자율 주행 차량, 차량간 통신을 수행할 수 있는 차량 등을 포함할 수 있다. 여기서, 차량(100b-1, 100b-2)은 UAV(unmanned aerial vehicle)(예, 드론)를 포함할 수 있다. XR 기기(100c)는 AR(augmented reality)/VR(virtual reality)/MR(mixed reality) 기기를 포함하며, HMD(head-mounted device), 차량에 구비된 HUD(head-up display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등의 형태로 구현될 수 있다. 휴대 기기(100d)는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 컴퓨터(예, 노트북 등) 등을 포함할 수 있다. 가전(100e)은 TV, 냉장고, 세탁기 등을 포함할 수 있다. IoT 기기(100f)는 센서, 스마트 미터 등을 포함할 수 있다. 예를 들어, 기지국(120), 네트워크(130)는 무선 기기로도 구현될 수 있으며, 특정 무선 기기(120a)는 다른 무선 기기에게 기지국/네트워크 노드로 동작할 수도 있다.
무선 기기(100a~100f)는 기지국(120)을 통해 네트워크(130)와 연결될 수 있다. 무선 기기(100a~100f)에는 AI 기술이 적용될 수 있으며, 무선 기기(100a~100f)는 네트워크(130)를 통해 AI 서버(100g)와 연결될 수 있다. 네트워크(130)는 3G 네트워크, 4G(예, LTE) 네트워크 또는 5G(예, NR) 네트워크 등을 이용하여 구성될 수 있다. 무선 기기(100a~100f)는 기지국(120)/네트워크(130)를 통해 서로 통신할 수도 있지만, 기지국(120)/네트워크(130)를 통하지 않고 직접 통신(예, 사이드링크 통신(sidelink communication))할 수도 있다. 예를 들어, 차량들(100b-1, 100b-2)은 직접 통신(예, V2V(vehicle to vehicle)/V2X(vehicle to everything) communication)을 할 수 있다. 또한, IoT 기기(100f)(예, 센서)는 다른 IoT 기기(예, 센서) 또는 다른 무선 기기(100a~100f)와 직접 통신을 할 수 있다.
무선 기기(100a~100f)/기지국(120), 기지국(120)/기지국(120) 간에는 무선 통신/연결(150a, 150b, 150c)이 이뤄질 수 있다. 여기서, 무선 통신/연결은 상향/하향링크 통신(150a)과 사이드링크 통신(150b)(또는, D2D 통신), 기지국간 통신(150c)(예, relay, IAB(integrated access backhaul))과 같은 다양한 무선 접속 기술(예, 5G NR)을 통해 이뤄질 수 있다. 무선 통신/연결(150a, 150b, 150c)을 통해 무선 기기와 기지국/무선 기기, 기지국과 기지국은 서로 무선 신호를 송신/수신할 수 있다. 예를 들어, 무선 통신/연결(150a, 150b, 150c)은 다양한 물리 채널을 통해 신호를 송신/수신할 수 있다. 이를 위해, 본 개시의 다양한 제안들에 기반하여, 무선 신호의 송신/수신을 위한 다양한 구성정보 설정 과정, 다양한 신호 처리 과정(예, 채널 인코딩/디코딩, 변조/복조, 자원 매핑/디매핑 등), 자원 할당 과정 등 중 적어도 일부가 수행될 수 있다.
본 개시에 적용 가능한 통신 시스템
도 2는 본 개시에 적용될 수 있는 무선 기기의 예시를 도시한 도면이다.
도 2를 참조하면, 제1 무선 기기(200a)와 제2 무선 기기(200b)는 다양한 무선 접속 기술(예, LTE, NR)을 통해 무선 신호를 송수신할 수 있다. 여기서, {제1 무선 기기(200a), 제2 무선 기기(200b)}은 도 1의 {무선 기기(100x), 기지국(120)} 및/또는 {무선 기기(100x), 무선 기기(100x)}에 대응할 수 있다.
제1 무선 기기(200a)는 하나 이상의 프로세서(202a) 및 하나 이상의 메모리(204a)를 포함하며, 추가적으로 하나 이상의 송수신기(206a) 및/또는 하나 이상의 안테나(208a)을 더 포함할 수 있다. 프로세서(202a)는 메모리(204a) 및/또는 송수신기(206a)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202a)는 메모리(204a) 내의 정보를 처리하여 제1 정보/신호를 생성한 뒤, 송수신기(206a)을 통해 제1 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202a)는 송수신기(206a)를 통해 제2 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제2 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204a)에 저장할 수 있다. 메모리(204a)는 프로세서(202a)와 연결될 수 있고, 프로세서(202a)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204a)는 프로세서(202a)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202a)와 메모리(204a)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206a)는 프로세서(202a)와 연결될 수 있고, 하나 이상의 안테나(208a)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206a)는 송신기 및/또는 수신기를 포함할 수 있다. 송수신기(206a)는 RF(radio frequency) 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
제2 무선 기기(200b)는 하나 이상의 프로세서(202b), 하나 이상의 메모리(204b)를 포함하며, 추가적으로 하나 이상의 송수신기(206b) 및/또는 하나 이상의 안테나(208b)를 더 포함할 수 있다. 프로세서(202b)는 메모리(204b) 및/또는 송수신기(206b)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202b)는 메모리(204b) 내의 정보를 처리하여 제3 정보/신호를 생성한 뒤, 송수신기(206b)를 통해 제3 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202b)는 송수신기(206b)를 통해 제4 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제4 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204b)에 저장할 수 있다. 메모리(204b)는 프로세서(202b)와 연결될 수 있고, 프로세서(202b)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204b)는 프로세서(202b)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202b)와 메모리(204b)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206b)는 프로세서(202b)와 연결될 수 있고, 하나 이상의 안테나(208b)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206b)는 송신기 및/또는 수신기를 포함할 수 있다 송수신기(206b)는 RF 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
이하, 무선 기기(200a, 200b)의 하드웨어 요소에 대해 보다 구체적으로 설명한다. 이로 제한되는 것은 아니지만, 하나 이상의 프로토콜 계층이 하나 이상의 프로세서(202a, 202b)에 의해 구현될 수 있다. 예를 들어, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 계층(예, PHY(physical), MAC(media access control), RLC(radio link control), PDCP(packet data convergence protocol), RRC(radio resource control), SDAP(service data adaptation protocol)와 같은 기능적 계층)을 구현할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 하나 이상의 PDU(Protocol Data Unit) 및/또는 하나 이상의 SDU(service data unit)를 생성할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 메시지, 제어정보, 데이터 또는 정보를 생성할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 문서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 포함하는 신호(예, 베이스밴드 신호)를 생성하여, 하나 이상의 송수신기(206a, 206b)에게 제공할 수 있다. 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)로부터 신호(예, 베이스밴드 신호)를 수신할 수 있고, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 획득할 수 있다.
하나 이상의 프로세서(202a, 202b)는 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 마이크로 컴퓨터로 지칭될 수 있다. 하나 이상의 프로세서(202a, 202b)는 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합에 의해 구현될 수 있다. 일 예로, 하나 이상의 ASIC(application specific integrated circuit), 하나 이상의 DSP(digital signal processor), 하나 이상의 DSPD(digital signal processing device), 하나 이상의 PLD(programmable logic device) 또는 하나 이상의 FPGA(field programmable gate arrays)가 하나 이상의 프로세서(202a, 202b)에 포함될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있고, 펌웨어 또는 소프트웨어는 모듈, 절차, 기능 등을 포함하도록 구현될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 수행하도록 설정된 펌웨어 또는 소프트웨어는 하나 이상의 프로세서(202a, 202b)에 포함되거나, 하나 이상의 메모리(204a, 204b)에 저장되어 하나 이상의 프로세서(202a, 202b)에 의해 구동될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 코드, 명령어 및/또는 명령어의 집합 형태로 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있다.
하나 이상의 메모리(204a, 204b)는 하나 이상의 프로세서(202a, 202b)와 연결될 수 있고, 다양한 형태의 데이터, 신호, 메시지, 정보, 프로그램, 코드, 지시 및/또는 명령을 저장할 수 있다. 하나 이상의 메모리(204a, 204b)는 ROM(read only memory), RAM(random access memory), EPROM(erasable programmable read only memory), 플래시 메모리, 하드 드라이브, 레지스터, 캐쉬 메모리, 컴퓨터 판독 저장 매체 및/또는 이들의 조합으로 구성될 수 있다. 하나 이상의 메모리(204a, 204b)는 하나 이상의 프로세서(202a, 202b)의 내부 및/또는 외부에 위치할 수 있다. 또한, 하나 이상의 메모리(204a, 204b)는 유선 또는 무선 연결과 같은 다양한 기술을 통해 하나 이상의 프로세서(202a, 202b)와 연결될 수 있다.
하나 이상의 송수신기(206a, 206b)는 하나 이상의 다른 장치에게 본 문서의 방법들 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 전송할 수 있다. 하나 이상의 송수신기(206a, 206b)는 하나 이상의 다른 장치로부터 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 수신할 수 있다. 예를 들어, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 프로세서(202a, 202b)와 연결될 수 있고, 무선 신호를 송수신할 수 있다. 예를 들어, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)가 하나 이상의 다른 장치에게 사용자 데이터, 제어 정보 또는 무선 신호를 전송하도록 제어할 수 있다. 또한, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)가 하나 이상의 다른 장치로부터 사용자 데이터, 제어 정보 또는 무선 신호를 수신하도록 제어할 수 있다. 또한, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 안테나(208a, 208b)와 연결될 수 있고, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 안테나(208a, 208b)를 통해 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 송수신하도록 설정될 수 있다. 본 문서에서, 하나 이상의 안테나는 복수의 물리 안테나이거나, 복수의 논리 안테나(예, 안테나 포트)일 수 있다. 하나 이상의 송수신기(206a, 206b)는 수신된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 하나 이상의 프로세서(202a, 202b)를 이용하여 처리하기 위해, 수신된 무선 신호/채널 등을 RF 밴드 신호에서 베이스밴드 신호로 변환(Convert)할 수 있다. 하나 이상의 송수신기(206a, 206b)는 하나 이상의 프로세서(202a, 202b)를 이용하여 처리된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 베이스밴드 신호에서 RF 밴드 신호로 변환할 수 있다. 이를 위하여, 하나 이상의 송수신기(206a, 206b)는 (아날로그) 오실레이터 및/또는 필터를 포함할 수 있다.
본 개시에 적용 가능한 무선 기기 구조
도 3은 본 개시에 적용되는 무선 기기의 다른 예시를 도시한 도면이다.
도 3을 참조하면, 무선 기기(300)는 도 2의 무선 기기(200a, 200b)에 대응하며, 다양한 요소(element), 성분(component), 유닛/부(unit), 및/또는 모듈(module)로 구성될 수 있다. 예를 들어, 무선 기기(300)는 통신부(310), 제어부(320), 메모리부(330) 및 추가 요소(340)를 포함할 수 있다. 통신부는 통신 회로(312) 및 송수신기(들)(314)을 포함할 수 있다. 예를 들어, 통신 회로(312)는 도 2의 하나 이상의 프로세서(202a, 202b) 및/또는 하나 이상의 메모리(204a, 204b)를 포함할 수 있다. 예를 들어, 송수신기(들)(314)는 도 2의 하나 이상의 송수신기(206a, 206b) 및/또는 하나 이상의 안테나(208a, 208b)을 포함할 수 있다. 제어부(320)는 통신부(310), 메모리부(330) 및 추가 요소(340)와 전기적으로 연결되며 무선 기기의 제반 동작을 제어한다. 예를 들어, 제어부(320)는 메모리부(330)에 저장된 프로그램/코드/명령/정보에 기반하여 무선 기기의 전기적/기계적 동작을 제어할 수 있다. 또한, 제어부(320)는 메모리부(330)에 저장된 정보를 통신부(310)을 통해 외부(예, 다른 통신 기기)로 무선/유선 인터페이스를 통해 전송하거나, 통신부(310)를 통해 외부(예, 다른 통신 기기)로부터 무선/유선 인터페이스를 통해 수신된 정보를 메모리부(330)에 저장할 수 있다.
추가 요소(340)는 무선 기기의 종류에 따라 다양하게 구성될 수 있다. 예를 들어, 추가 요소(340)는 파워 유닛/배터리, 입출력부(input/output unit), 구동부 및 컴퓨팅부 중 적어도 하나를 포함할 수 있다. 이로 제한되는 것은 아니지만, 무선 기기(300)는 로봇(도 1, 100a), 차량(도 1, 100b-1, 100b-2), XR 기기(도 1, 100c), 휴대 기기(도 1, 100d), 가전(도 1, 100e), IoT 기기(도 1, 100f), 디지털 방송용 단말, 홀로그램 장치, 공공 안전 장치, MTC 장치, 의료 장치, 핀테크 장치(또는 금융 장치), 보안 장치, 기후/환경 장치, AI 서버/기기(도 1, 140), 기지국(도 1, 120), 네트워크 노드 등의 형태로 구현될 수 있다. 무선 기기는 사용-예/서비스에 따라 이동 가능하거나 고정된 장소에서 사용될 수 있다.
도 3에서 무선 기기(300) 내의 다양한 요소, 성분, 유닛/부, 및/또는 모듈은 전체가 유선 인터페이스를 통해 상호 연결되거나, 적어도 일부가 통신부(310)를 통해 무선으로 연결될 수 있다. 예를 들어, 무선 기기(300) 내에서 제어부(320)와 통신부(310)는 유선으로 연결되며, 제어부(320)와 제1 유닛(예, 130, 140)은 통신부(310)를 통해 무선으로 연결될 수 있다. 또한, 무선 기기(300) 내의 각 요소, 성분, 유닛/부, 및/또는 모듈은 하나 이상의 요소를 더 포함할 수 있다. 예를 들어, 제어부(320)는 하나 이상의 프로세서 집합으로 구성될 수 있다. 예를 들어, 제어부(320)는 통신 제어 프로세서, 어플리케이션 프로세서(application processor), ECU(electronic control unit), 그래픽 처리 프로세서, 메모리 제어 프로세서 등의 집합으로 구성될 수 있다. 다른 예로, 메모리부(330)는 RAM, DRAM(dynamic RAM), ROM, 플래시 메모리(flash memory), 휘발성 메모리(volatile memory), 비-휘발성 메모리(non-volatile memory) 및/또는 이들의 조합으로 구성될 수 있다.
본 개시가 적용 가능한 휴대 기기
도 4는 본 개시에 적용되는 휴대 기기의 예시를 도시한 도면이다.
도 4는 본 개시에 적용되는 휴대 기기를 예시한다. 휴대 기기는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트 워치, 스마트 글래스), 휴대용 컴퓨터(예, 노트북 등)을 포함할 수 있다. 휴대 기기는 MS(mobile station), UT(user terminal), MSS(mobile subscriber station), SS(subscriber station), AMS(advanced mobile station) 또는 WT(wireless terminal)로 지칭될 수 있다.
도 4를 참조하면, 휴대 기기(400)는 안테나부(408), 통신부(410), 제어부(420), 메모리부(430), 전원공급부(440a), 인터페이스부(440b) 및 입출력부(440c)를 포함할 수 있다. 안테나부(408)는 통신부(410)의 일부로 구성될 수 있다. 블록 410~430/440a~440c는 각각 도 3의 블록 310~330/340에 대응한다.
통신부(410)는 다른 무선 기기, 기지국들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(420)는 휴대 기기(400)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(420)는 AP(application processor)를 포함할 수 있다. 메모리부(430)는 휴대 기기(400)의 구동에 필요한 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 또한, 메모리부(430)는 입/출력되는 데이터/정보 등을 저장할 수 있다. 전원공급부(440a)는 휴대 기기(400)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다. 인터페이스부(440b)는 휴대 기기(400)와 다른 외부 기기의 연결을 지원할 수 있다. 인터페이스부(440b)는 외부 기기와의 연결을 위한 다양한 포트(예, 오디오 입/출력 포트, 비디오 입/출력 포트)를 포함할 수 있다. 입출력부(440c)는 영상 정보/신호, 오디오 정보/신호, 데이터, 및/또는 사용자로부터 입력되는 정보를 입력 받거나 출력할 수 있다. 입출력부(440c)는 카메라, 마이크로폰, 사용자 입력부, 디스플레이부(440d), 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다.
일 예로, 데이터 통신의 경우, 입출력부(440c)는 사용자로부터 입력된 정보/신호(예, 터치, 문자, 음성, 이미지, 비디오)를 획득하며, 획득된 정보/신호는 메모리부(430)에 저장될 수 있다. 통신부(410)는 메모리에 저장된 정보/신호를 무선 신호로 변환하고, 변환된 무선 신호를 다른 무선 기기에게 직접 전송하거나 기지국에게 전송할 수 있다. 또한, 통신부(410)는 다른 무선 기기 또는 기지국으로부터 무선 신호를 수신한 뒤, 수신된 무선 신호를 원래의 정보/신호로 복원할 수 있다. 복원된 정보/신호는 메모리부(430)에 저장된 뒤, 입출력부(440c)를 통해 다양한 형태(예, 문자, 음성, 이미지, 비디오, 햅틱)로 출력될 수 있다.
본 개시가 적용 가능한 무선 기기 종류
도 5는 본 개시에 적용되는 차량 또는 자율 주행 차량의 예시를 도시한 도면이다.
도 5는 본 개시에 적용되는 차량 또는 자율 주행 차량을 예시한다. 차량 또는 자율 주행 차량은 이동형 로봇, 차량, 기차, 유/무인 비행체(aerial vehicle, AV), 선박 등으로 구현될 수 있으며, 차량의 형태로 한정되는 것은 아니다.
도 5를 참조하면, 차량 또는 자율 주행 차량(500)은 안테나부(508), 통신부(510), 제어부(520), 구동부(540a), 전원공급부(540b), 센서부(540c) 및 자율 주행부(540d)를 포함할 수 있다. 안테나부(550)는 통신부(510)의 일부로 구성될 수 있다. 블록 510/530/540a~540d는 각각 도 4의 블록 410/430/440에 대응한다.
통신부(510)는 다른 차량, 기지국(예, 기지국, 노변 기지국(road side unit) 등), 서버 등의 외부 기기들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(520)는 차량 또는 자율 주행 차량(500)의 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(520)는 ECU(electronic control unit)를 포함할 수 있다.
도 6은 본 개시에 적용되는 AI 기기의 예시를 도시한 도면이다. 일 예로, AI 기기는 TV, 프로젝터, 스마트폰, PC, 노트북, 디지털방송용 단말기, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), 라디오, 세탁기, 냉장고, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다.
도 6을 참조하면, AI 기기(600)는 통신부(610), 제어부(620), 메모리부(630), 입/출력부(640a/640b), 러닝 프로세서부(640c) 및 센서부(640d)를 포함할 수 있다. 블록 610~630/640a~640d는 각각 도 3의 블록 310~330/340에 대응할 수 있다.
통신부(610)는 유무선 통신 기술을 이용하여 다른 AI 기기(예, 도 1, 100x, 120, 140)나 AI 서버(도 1, 140) 등의 외부 기기들과 유무선 신호(예, 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등)를 송수신할 수 있다. 이를 위해, 통신부(610)는 메모리부(630) 내의 정보를 외부 기기로 전송하거나, 외부 기기로부터 수신된 신호를 메모리부(630)로 전달할 수 있다.
제어부(620)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 기기(600)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 제어부(620)는 AI 기기(600)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다. 예를 들어, 제어부(620)는 러닝 프로세서부(640c) 또는 메모리부(630)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 기기(600)의 구성 요소들을 제어할 수 있다. 또한, 제어부(620)는 AI 장치(600)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리부(630) 또는 러닝 프로세서부(640c)에 저장하거나, AI 서버(도 1, 140) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.
메모리부(630)는 AI 기기(600)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예를 들어, 메모리부(630)는 입력부(640a)로부터 얻은 데이터, 통신부(610)로부터 얻은 데이터, 러닝 프로세서부(640c)의 출력 데이터, 및 센싱부(640)로부터 얻은 데이터를 저장할 수 있다. 또한, 메모리부(630)는 제어부(620)의 동작/실행에 필요한 제어 정보 및/또는 소프트웨어 코드를 저장할 수 있다.
입력부(640a)는 AI 기기(600)의 외부로부터 다양한 종류의 데이터를 획득할 수 있다. 예를 들어, 입력부(620)는 모델 학습을 위한 학습 데이터, 및 학습 모델이 적용될 입력 데이터 등을 획득할 수 있다. 입력부(640a)는 카메라, 마이크로폰 및/또는 사용자 입력부 등을 포함할 수 있다. 출력부(640b)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다. 출력부(640b)는 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센싱부(640)는 다양한 센서들을 이용하여 AI 기기(600)의 내부 정보, AI 기기(600)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 얻을 수 있다. 센싱부(640)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰 및/또는 레이더 등을 포함할 수 있다.
러닝 프로세서부(640c)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 러닝 프로세서부(640c)는 AI 서버(도 1, 140)의 러닝 프로세서부와 함께 AI 프로세싱을 수행할 수 있다. 러닝 프로세서부(640c)는 통신부(610)를 통해 외부 기기로부터 수신된 정보, 및/또는 메모리부(630)에 저장된 정보를 처리할 수 있다. 또한, 러닝 프로세서부(640c)의 출력 값은 통신부(610)를 통해 외부 기기로 전송되거나/되고, 메모리부(630)에 저장될 수 있다.
도 7은 본 개시에 적용되는 전송 신호를 처리하는 방법을 도시한 도면이다. 일 예로, 전송 신호는 신호 처리 회로에 의해 처리될 수 있다. 이때, 신호 처리 회로(700)는 스크램블러(710), 변조기(720), 레이어 매퍼(730), 프리코더(740), 자원 매퍼(750), 신호 생성기(760)를 포함할 수 있다. 이때, 일 예로, 도 7의 동작/기능은 도 2의 프로세서(202a, 202b) 및/또는 송수신기(206a, 206b)에서 수행될 수 있다. 또한, 일 예로, 도 7의 하드웨어 요소는 도 2의 프로세서(202a, 202b) 및/또는 송수신기(206a, 206b)에서 구현될 수 있다. 일 예로, 블록 710~760은 도 2의 프로세서(202a, 202b)에서 구현될 수 있다. 또한, 블록 710~750은 도 2의 프로세서(202a, 202b)에서 구현되고, 블록 760은 도 2의 송수신기(206a, 206b)에서 구현될 수 있으며, 상술한 실시예로 한정되지 않는다.
코드워드는 도 7의 신호 처리 회로(700)를 거쳐 무선 신호로 변환될 수 있다. 여기서, 코드워드는 정보블록의 부호화된 비트 시퀀스이다. 정보블록은 전송블록(예, UL-SCH 전송블록, DL-SCH 전송블록)을 포함할 수 있다. 무선 신호는 다양한 물리 채널(예, PUSCH, PDSCH)을 통해 전송될 수 있다. 구체적으로, 코드워드는 스크램블러(710)에 의해 스크램블된 비트 시퀀스로 변환될 수 있다. 스크램블에 사용되는 스크램블 시퀀스는 초기화 값에 기반하여 생성되며, 초기화 값은 무선 기기의 ID 정보 등이 포함될 수 있다. 스크램블된 비트 시퀀스는 변조기(720)에 의해 변조 심볼 시퀀스로 변조될 수 있다. 변조 방식은 pi/2-BPSK(pi/2-binary phase shift keying), m-PSK(m-phase shift keying), m-QAM(m-quadrature amplitude modulation) 등을 포함할 수 있다.
복소 변조 심볼 시퀀스는 레이어 매퍼(730)에 의해 하나 이상의 전송 레이어로 매핑될 수 있다. 각 전송 레이어의 변조 심볼들은 프리코더(740)에 의해 해당 안테나 포트(들)로 매핑될 수 있다(프리코딩). 프리코더(740)의 출력 z는 레이어 매퍼(730)의 출력 y를 N*M의 프리코딩 행렬 W와 곱해 얻을 수 있다. 여기서, N은 안테나 포트의 개수, M은 전송 레이어의 개수이다. 여기서, 프리코더(740)는 복소 변조 심볼들에 대한 트랜스폼(transform) 프리코딩(예, DFT(discrete fourier transform) 변환)을 수행한 이후에 프리코딩을 수행할 수 있다. 또한, 프리코더(740)는 트랜스폼 프리코딩을 수행하지 않고 프리코딩을 수행할 수 있다.
자원 매퍼(750)는 각 안테나 포트의 변조 심볼들을 시간-주파수 자원에 매핑할 수 있다. 시간-주파수 자원은 시간 도메인에서 복수의 심볼(예, CP-OFDMA 심볼, DFT-s-OFDMA 심볼)을 포함하고, 주파수 도메인에서 복수의 부반송파를 포함할 수 있다. 신호 생성기(760)는 매핑된 변조 심볼들로부터 무선 신호를 생성하며, 생성된 무선 신호는 각 안테나를 통해 다른 기기로 전송될 수 있다. 이를 위해, 신호 생성기(760)는 IFFT(inverse fast fourier transform) 모듈 및 CP(cyclic prefix) 삽입기, DAC(digital-to-analog converter), 주파수 상향 변환기(frequency uplink converter) 등을 포함할 수 있다.
무선 기기에서 수신 신호를 위한 신호 처리 과정은 도 7의 신호 처리 과정(710~760)의 역으로 구성될 수 있다. 일 예로, 무선 기기(예, 도 2의 200a, 200b)는 안테나 포트/송수신기를 통해 외부로부터 무선 신호를 수신할 수 있다. 수신된 무선 신호는 신호 복원기를 통해 베이스밴드 신호로 변환될 수 있다. 이를 위해, 신호 복원기는 주파수 하향 변환기(frequency downlink converter), ADC(analog-to-digital converter), CP 제거기, FFT(fast fourier transform) 모듈을 포함할 수 있다. 이후, 베이스밴드 신호는 자원 디-매퍼 과정, 포스트코딩(postcoding) 과정, 복조 과정 및 디-스크램블 과정을 거쳐 코드워드로 복원될 수 있다. 코드워드는 복호(decoding)를 거쳐 원래의 정보블록으로 복원될 수 있다. 따라서, 수신 신호를 위한 신호 처리 회로(미도시)는 신호 복원기, 자원 디-매퍼, 포스트코더, 복조기, 디-스크램블러 및 복호기를 포함할 수 있다.
6G 통신 시스템
6G (무선통신) 시스템은 (i) 디바이스 당 매우 높은 데이터 속도, (ii) 매우 많은 수의 연결된 디바이스들, (iii) 글로벌 연결성(global connectivity), (iv) 매우 낮은 지연, (v) 배터리-프리(battery-free) IoT 디바이스들의 에너지 소비를 낮추고, (vi) 초고신뢰성 연결, (vii) 머신 러닝 능력을 가지는 연결된 지능 등에 목적이 있다. 6G 시스템의 비젼은 "intelligent connectivity", "deep connectivity", "holographic connectivity", "ubiquitous connectivity"와 같은 4가지 측면일 수 있으며, 6G 시스템은 하기 표 1과 같은 요구 사항을 만족시킬 수 있다. 즉, 표 1은 6G 시스템의 요구 사항을 나타낸 표이다.
Per device peak data rate | 1 Tbps |
E2E latency | 1 ms |
Maximum spectral efficiency | 100 bps/Hz |
Mobility support | up to 1000 km/hr |
Satellite integration | Fully |
AI | Fully |
Autonomous vehicle | Fully |
XR | Fully |
Haptic Communication | Fully |
이때, 6G 시스템은 향상된 모바일 브로드밴드(enhanced mobile broadband, eMBB), 초-저지연 통신(ultra-reliable low latency communications, URLLC), mMTC (massive machine type communications), AI 통합 통신(AI integrated communication), 촉각 인터넷(tactile internet), 높은 스루풋(high throughput), 높은 네트워크 능력(high network capacity), 높은 에너지 효율(high energy efficiency), 낮은 백홀 및 접근 네트워크 혼잡(low backhaul and access network congestion) 및 향상된 데이터 보안(enhanced data security)과 같은 핵심 요소(key factor)들을 가질 수 있다.
도 10은 본 개시에 적용 가능한 6G 시스템에서 제공 가능한 통신 구조의 일례를 도시한 도면이다.
도 10을 참조하면, 6G 시스템은 5G 무선통신 시스템보다 50배 더 높은 동시 무선통신 연결성을 가질 것으로 예상된다. 5G의 핵심 요소(key feature)인 URLLC는 6G 통신에서 1ms보다 적은 단-대-단(end-to-end) 지연을 제공함으로써 보다 더 주요한 기술이 될 것으로 예상된다. 이때, 6G 시스템은 자주 사용되는 영역 스펙트럼 효율과 달리 체적 스펙트럼 효율이 훨씬 우수할 것이다. 6G 시스템은 매우 긴 배터리 수명과 에너지 수확을 위한 고급 배터리 기술을 제공할 수 있어, 6G 시스템에서 모바일 디바이스들은 별도로 충전될 필요가 없을 수 있다.
6G 시스템의 핵심 구현 기술
- 인공 지능(artificial Intelligence, AI)
6G 시스템에 가장 중요하며, 새로 도입될 기술은 AI이다. 4G 시스템에는 AI가 관여하지 않았다. 5G 시스템은 부분 또는 매우 제한된 AI를 지원할 것이다. 그러나, 6G 시스템은 완전히 자동화를 위해 AI가 지원될 것이다. 머신 러닝의 발전은 6G에서 실시간 통신을 위해 보다 지능적인 네트워크를 만들 것이다. 통신에 AI를 도입하면 실시간 데이터 전송이 간소화되고 향상될 수 있다. AI는 수많은 분석을 사용하여 복잡한 대상 작업이 수행되는 방식을 결정할 수 있다. 즉, AI는 효율성을 높이고 처리 지연을 줄일 수 있다.
핸드 오버, 네트워크 선택, 자원 스케줄링과 같은 시간 소모적인 작업은 AI를 사용함으로써 즉시 수행될 수 있다. AI는 M2M, 기계-대-인간 및 인간-대-기계 통신에서도 중요한 역할을 할 수 있다. 또한, AI는 BCI(brain computer interface)에서 신속한 통신이 될 수 있다. AI 기반 통신 시스템은 메타 물질, 지능형 구조, 지능형 네트워크, 지능형 장치, 지능형 인지 라디오(radio), 자체 유지 무선 네트워크 및 머신 러닝에 의해 지원될 수 있다.
최근 AI를 무선 통신 시스템과 통합하려고 하는 시도들이 나타나고 있으나, 이는 어플리케이션 계층(application layer), 네트워크 계층(network layer) 특히, 딥 러닝은 무선 자원 관리 및 할당(wireless resource management and allocation) 분야에 집중되어 왔다. 그러나, 이러한 연구는 점점 MAC 계층 및 물리 계층으로 발전하고 있으며, 특히 물리계층에서 딥 러닝을 무선 전송(wireless transmission)과 결합하고자 하는 시도들이 나타나고 있다. AI 기반의 물리계층 전송은, 근본적인 신호 처리 및 통신 메커니즘에 있어서, 전통적인 통신 프레임워크가 아니라 AI 드라이버에 기초한 신호 처리 및 통신 메커니즘을 적용하는 것을 의미한다. 예를 들어, 딥러닝 기반의 채널 코딩 및 디코딩(channel coding and decoding), 딥러닝 기반의 신호 추정(estimation) 및 검출(detection), 딥러닝 기반의 MIMO(multiple input multiple output) 매커니즘(mechanism), AI 기반의 자원 스케줄링(scheduling) 및 할당(allocation) 등을 포함할 수 있다.
머신 러닝은 채널 추정 및 채널 트래킹을 위해 사용될 수 있으며, DL(downlink)의 물리 계층(physical layer)에서 전력 할당(power allocation), 간섭 제거(interference cancellation) 등에 사용될 수 있다. 또한, 머신 러닝은 MIMO 시스템에서 안테나 선택, 전력 제어(power control), 심볼 검출(symbol detection) 등에도 사용될 수 있다.
그러나 물리계층에서의 전송을 위한 DNN의 적용은 아래와 같은 문제점이 있을 수 있다.
딥러닝 기반의 AI 알고리즘은 훈련 파라미터를 최적화하기 위해 수많은 훈련 데이터가 필요하다. 그러나 특정 채널 환경에서의 데이터를 훈련 데이터로 획득하는데 있어서의 한계로 인해, 오프라인 상에서 많은 훈련 데이터를 사용한다. 이는 특정 채널 환경에서 훈련 데이터에 대한 정적 훈련(static training)은, 무선 채널의 동적 특성 및 다이버시티(diversity) 사이에 모순(contradiction)이 생길 수 있다.
또한, 현재 딥 러닝은 주로 실제 신호(real signal)을 대상으로 한다. 그러나, 무선 통신의 물리 계층의 신호들은 복소 신호(complex signal)이다. 무선 통신 신호의 특성을 매칭시키기 위해 복소(complex) 도메인 신호의 검출하는 신경망(neural network)에 대한 연구가 더 필요하다.
이하, 머신 러닝에 대해 보다 구체적으로 살펴본다.
머신 러닝은 사람이 할 수 있거나 혹은 하기 어려운 작업을 대신해낼 수 있는 기계를 만들어 내기 위해 기계를 학습시키는 일련의 동작을 의미한다. 머신 러닝을 위해서는 데이터와 러닝 모델이 필요하다. 머신 러닝에서 데이터의 학습 방법은 크게 3가지 즉, 지도 학습(supervised learning), 비지도 학습(unsupervised learning) 그리고 강화 학습(reinforcement learning)으로 구분될 수 있다.
신경망 학습은 출력의 오류를 최소화하기 위한 것이다. 신경망 학습은 반복적으로 학습 데이터를 신경망에 입력시키고 학습 데이터에 대한 신경망의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 신경망의 에러를 신경망의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation) 하여 신경망의 각 노드의 가중치를 업데이트하는 과정이다.
지도 학습은 학습 데이터에 정답이 라벨링된 학습 데이터를 사용하며 비지도 학습은 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 지도 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링된 데이터 일 수 있다. 라벨링된 학습 데이터가 신경망에 입력되고 신경망의 출력(카테고리)과 학습 데이터의 라벨을 비교하여 오차(error)가 계산될 수 있다. 계산된 오차는 신경망에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 신경망의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 신경망의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 신경망의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 신경망의 학습 초기에는 높은 학습률을 사용하여 신경망이 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다
데이터의 특징에 따라 학습 방법은 달라질 수 있다. 예를 들어, 통신 시스템 상에서 송신단에서 전송한 데이터를 수신단에서 정확하게 예측하는 것을 목적으로 하는 경우, 비지도 학습 또는 강화 학습 보다는 지도 학습을 이용하여 학습을 수행하는 것이 바람직하다.
러닝 모델은 인간의 뇌에 해당하는 것으로서, 가장 기본적인 선형 모델을 생각할 수 있으나, 인공 신경망(artificial neural networks)와 같은 복잡성이 높은 신경망 구조를 러닝 모델로 사용하는 머신 러닝의 패러다임을 딥러닝(deep learning)이라 한다.
학습(learning) 방식으로 사용하는 신경망 코어(neural network cord)는 크게 심층 신경망(deep neural networks, DNN), 합성곱 신경망(convolutional deep neural networks, CNN), 순환 신경망(recurrent boltzmann machine, RNN) 방식이 있으며, 이러한 러닝 모델이 적용될 수 있다.
THz(Terahertz) 통신
6G 시스템에서 THz 통신이 적용될 수 있다. 일 예로, 데이터 전송률은 대역폭을 늘려 높일 수 있다. 이것은 넓은 대역폭으로 sub-THz 통신을 사용하고, 진보된 대규모 MIMO 기술을 적용하여 수행될 수 있다.
도 9는 본 개시에 적용 가능한 전자기 스펙트럼을 도시한 도면이다. 일 예로, 도 9를 참조하면, 밀리미터 이하의 방사선으로도 알려진 THz파는 일반적으로 0.03mm-3mm 범위의 해당 파장을 가진 0.1THz와 10THz 사이의 주파수 대역을 나타낸다. 100GHz-300GHz 대역 범위(Sub THz 대역)는 셀룰러 통신을 위한 THz 대역의 주요 부분으로 간주된다. Sub-THz 대역 mmWave 대역에 추가하면 6G 셀룰러 통신 용량은 늘어난다. 정의된 THz 대역 중 300GHz-3THz는 원적외선 (IR) 주파수 대역에 있다. 300GHz-3THz 대역은 광 대역의 일부이지만 광 대역의 경계에 있으며, RF 대역 바로 뒤에 있다. 따라서, 이 300 GHz-3 THz 대역은 RF와 유사성을 나타낸다.
THz 통신의 주요 특성은 (i) 매우 높은 데이터 전송률을 지원하기 위해 광범위하게 사용 가능한 대역폭, (ii) 고주파에서 발생하는 높은 경로 손실 (고 지향성 안테나는 필수 불가결)을 포함한다. 높은 지향성 안테나에서 생성된 좁은 빔 폭은 간섭을 줄인다. THz 신호의 작은 파장은 훨씬 더 많은 수의 안테나 소자가 이 대역에서 동작하는 장치 및 BS에 통합될 수 있게 한다. 이를 통해 범위 제한을 극복할 수 있는 고급 적응형 배열 기술을 사용할 수 있다.
테라헤르츠(THz) 무선통신
도 10은 본 개시에 적용 가능한 THz 통신 방법을 도시한 도면이다.
도 10을 참조하면, THz 무선통신은 대략 0.1~10THz(1THz=1012Hz)의 진동수를 가지는 THz파를 이용하여 무선통신을 이용하는 것으로, 100GHz 이상의 매우 높은 캐리어 주파수를 사용하는 테라헤르츠(THz) 대역 무선통신을 의미할 수 있다. THz파는 RF(Radio Frequency)/밀리미터(mm)와 적외선 대역 사이에 위치하며, (i) 가시광/적외선에 비해 비금속/비분극성 물질을 잘 투과하며 RF/밀리미터파에 비해 파장이 짧아 높은 직진성을 가지며 빔 집속이 가능할 수 있다.
인공 지능(Artificial Intelligence) 시스템
도 11은 본 개시에 적용 가능한 인공 신경망에 포함되는 퍼셉트론(perceptron)의 구조를 도시한다. 또한, 도 12는 본 개시에 적용 가능한 인공 신경망 구조를 도시한다.
상술한 바와 같이, 6G 시스템에서 인공 지능 시스템이 적용될 수 있다. 이때, 일 예로, 인공 지능 시스템은 인간의 뇌에 해당하는 러닝 모델에 기초하여 동작할 수 있으며, 이는 상술한 바와 같다. 이때, 인공 신경망(artificial neural networks)와 같은 복잡성이 높은 신경망 구조를 러닝 모델로 사용하는 머신 러닝의 패러다임을 딥러닝(deep learning)이라 할 수 있다. 또한, 학습(learning) 방식으로 사용하는 신경망 코어(neural network cord)는 크게 심층 신경망(deep neural network, DNN), 합성곱 신경망(convolutional deep neural network, CNN), 순환 신경망(recurrent neural network, RNN) 방식이 있다. 이때, 일 예로, 도 11을 참조하면, 인공 신경망은 여러 개의 퍼셉트론들로 구성될 수 있다. 이때, 입력 벡터 x={x1, x2, …, xd}가 입력되면, 각 성분에 가중치 {W1, W2, …, Wd}가 곱해지고, 그 결과를 모두 합산한 후, 활성함수 σ(·)를 적용하는 전체 과정은 퍼셉트론이라 불리울 수 있다. 거대한 인공 신경망 구조는 도 11에 도시한 단순화된 퍼셉트론 구조를 확장하면, 입력벡터는 서로 다른 다 차원의 퍼셉트론에 적용될 수 있다. 설명의 편의를 위해 입력값 또는 출력값을 노드(node)라 칭한다.
한편, 도 11에 도시된 퍼셉트론 구조는 입력값, 출력값을 기준으로 총 3개의 층(layer)로 구성되는 것으로 설명될 수 있다. 1st layer와 2nd layer 사이에는 (d+1) 차원의 퍼셉트론 H개, 2nd layer와 3rd layer 사이에는 (H+1)차원 퍼셉트론이 K 개 존재하는 인공 신경망은 도 12와 같이 표현될 수 있다.
이때, 입력벡터가 위치하는 층을 입력층(input layer), 최종 출력값이 위치하는 층을 출력층(output layer), 입력층과 출력층 사이에 위치하는 모든 층을 은닉층(hidden layer)라 한다. 일 예로, 도 12에서 3개의 층이 개시되나, 실제 인공 신경망 층의 개수를 카운트할 때는 입력층을 제외하고 카운트하므로, 도 12에 예시된 인공 신경망은 총 2개의 층으로 이해될 수 있다. 인공 신경망은 기본 블록의 퍼셉트론을 2차원적으로 연결되어 구성된다.
전술한 입력층, 은닉층, 출력층은 다층 퍼셉트론 뿐 아니라 후술할 CNN, RNN 등 다양한 인공 신경망 구조에서 공동적으로 적용될 수 있다. 은닉층의 개수가 많아질수록 인공 신경망이 깊어진 것이며, 충분히 깊어진 인공 신경망을 러닝모델로 사용하는 머신러닝 패러다임을 딥러닝(deep learning)이라 할 수 있다. 또한 딥러닝을 위해 사용하는 인공 신경망을 심층 신경망(deep neural network, DNN)이라 할 수 있다.
도 13은 본 개시에 적용 가능한 심층 신경망을 도시한다.
도 13을 참조하면, 심층 신경망은 은닉층+출력층이 8개로 구성된 다층 퍼셉트론일 수 있다. 이때, 다층 퍼셉트론 구조를 완전 연결 신경망(fully-connected neural network)이라 표현할 수 있다. 완전 연결 신경망은 서로 같은 층에 위치하는 노드 간에는 연결 관계가 존재하지 않으며, 인접한 층에 위치한 노드들 간에만 연결 관계가 존재할 수 있다. DNN은 완전 연결 신경망 구조를 가지고 다수의 은닉층과 활성함수들의 조합으로 구성되어 입력과 출력 사이의 상관관계 특성을 파악하는데 유용하게 적용될 수 있다. 여기서 상관관계 특성은 입출력의 결합 확률(joint probability)을 의미할 수 있다.
도 14는 본 개시에 적용 가능한 컨볼루션 신경망을 도시한다. 또한, 도 15는 본 개시에 적용 가능한 컨볼루션 신경망의 필터 연산을 도시한다.
일 예로, 복수의 퍼셉트론을 서로 어떻게 연결하느냐에 따라 전술한 DNN과 다른 다양한 인공 신경망 구조를 형성할 수 있다. 이때, DNN은 하나의 층 내부에 위치한 노드들이 1차원적의 세로 방향으로 배치되어 있다. 그러나, 도 14를 참조하면, 노드들이 2차원적으로 가로 w개, 세로 h개의 노드가 배치할 경우를 가정할 수 있다. (도 14의 컨볼루션 신경망 구조). 이 경우, 하나의 입력 노드에서 은닉층으로 이어지는 연결과정에서 연결 하나당 가중치가 부가되므로, 총 h×w 개의 가중치가 고려되어야 한다. 입력층에 h×w 개의 노드가 존재하므로, 인접한 두 층 사이에는 총 h2w2개의 가중치가 필요할 수 있다.
또한, 도 14의 컨볼루션 신경망은 연결개수에 따라 가중치의 개수가 기하급수적으로 증가하는 문제가 있어 인접한 층 간의 모든 모드의 연결을 고려하는 대신, 크기가 작은 필터(filter)가 존재하는 것으로 가정할 수 있다. 일 예로, 도 15에서와 같이 필터가 겹치는 부분에 대해서는 가중합 및 활성함수 연산을 수행하도록 할 수 있다.
이때, 하나의 필터는 그 크기만큼의 개수에 해당하는 가중치를 가지며, 이미지 상의 어느 특정한 특징을 요인으로 추출하여 출력할 수 있도록 가중치의 학습이 이루어질 수 있다. 도 15에서는 3×3 크기의 필터가 입력층의 가장 좌측 상단 3×3 영역에 적용되고, 해당 노드에 대한 가중합 및 활성함수 연산을 수행한 결과 출력값은 z22에 저장될 수 있다.
이때, 상술한 필터는 입력층을 스캔하면서 가로, 세로 일정 간격만큼 이동하면서 가중합 및 활성함수 연산이 수행되고, 그 출력값은 현재 필터의 위치에 배치될 수 있다. 이러한 연산 방식은 컴퓨터 비전(computer vision) 분야에서 이미지에 대한 컨볼루션(convolution) 연산과 유사하므로, 이러한 구조의 심층 신경망은 컨볼루션 신경망(CNN: convolutional neural network)라 불리고, 컨볼루션 연산 결과 생성되는 은닉층은 컨볼루션 층(convolutional layer)라 불릴 수 있다. 또한, 복수의 컨볼루션 층이 존재하는 신경망을 심층 컨볼루션 신경망(deep convolutional neural network, DCNN)이라 할 수 있다.
또한, 컨볼루션 층에서는 현재 필터가 위치한 노드에서, 상기 필터가 커버하는 영역에 위치한 노드만을 포괄하여 가중합을 계산함으로써, 가중치의 개수가 감소될 수 있다. 이로 인해, 하나의 필터가 로컬(local) 영역에 대한 특징에 집중하도록 이용될 수 있다. 이에 따라, CNN은 2차원 영역 상의 물리적 거리가 중요한 판단 기준이 되는 이미지 데이터 처리에 효과적으로 적용될 수 있다. 한편, CNN은 컨볼루션 층의 직전에 복수의 필터가 적용될 수 있으며, 각 필터의 컨볼루션 연산을 통해 복수의 출력 결과를 생성할 수도 있다.
한편, 데이터 속성에 따라 시퀀스(sequence) 특성이 중요한 데이터들이 있을 수 있다. 이러한 시퀀스 데이터들의 길이 가변성, 선후 관계를 고려하여 데이터 시퀀스 상의 원소를 매 시점(timestep) 마다 하나씩 입력하고, 특정 시점에 출력된 은닉층의 출력 벡터(은닉 벡터)를, 시퀀스 상의 바로 다음 원소와 함께 입력하는 방식을 인공 신경망에 적용한 구조를 순환 신경망 구조라 할 수 있다.
도 16은 본 개시에 적용 가능한 순환 루프가 존재하는 신경망 구조를 도시한다. 도 17은 본 개시에 적용 가능한 순환 신경망의 동작 구조를 도시한다.
도 16을 참조하면, 순환 신경망(recurrent neural network, RNN)은 데이터 시퀀스 상의 어느 시선 t의 원소 {x1
(t), x2
(t), …, xd
(t)}를 완전 연결 신경망에 입력하는 과정에서, 바로 이전 시점 t-1은 은닉 벡터 {z1
(t-1), z2
(t-1), …, zH
(t-1)}을 함께 입력하여 가중합 및 활성함수를 적용하는 구조를 가질 수 있다. 이와 같이 은닉 벡터를 다음 시점으로 전달하는 이유는 앞선 시점들에서의 입력 벡터속 정보들이 현재 시점의 은닉 벡터에 누적된 것으로 간주하기 때문이다.
또한, 도 17을 참조하면, 순환 신경망은 입력되는 데이터 시퀀스에 대하여 소정의 시점 순서대로 동작할 수 있다. 이때, 시점 1에서의 입력 벡터 {x1
(t), x2
(t), …, xd
(t)}가 순환 신경망에 입력되었을 때의 은닉 벡터 {z1
(1), z2
(1), …, zH
(1)}가 시점 2의 입력 벡터 {x1
(2), x2
(2), …, xd
(2)}와 함께 입력되어, 가중합 및 활성 함수를 통해 은닉층의 벡터 {z1
(2), z2
(2), …, zH
(2)}가 결정된다. 이러한 과정은 시점 2, 시점 3, …, 시점 T까지 반복적으로 수행된다.
한편, 순환 신경망 내에서 복수의 은닉층이 배치될 경우, 이를 심층 순환 신경망(deep recurrent neural network, DRNN)라 한다. 순환 신경망은 시퀀스 데이터(예, 자연어 처리(natural language processing)에 유용하게 적용되도록 설계되어 있다.
학습(learning) 방식으로 사용하는 신경망 코어로서 DNN, CNN, RNN 외에 제한 볼츠만 머신(restricted Boltzmann machine, RBM), 심층 신뢰 신경망(deep belief networks, DBN), 심층 Q-네트워크(deep Q-Network)와 같은 다양한 딥 러닝 기법들을 포함하며, 컴퓨터 비젼, 음성인식, 자연어처리, 음성/신호처리 등의 분야에 적용될 수 있다.
최근에는 AI를 무선 통신 시스템과 통합하려고 하는 시도들이 나타나고 있으나, 이는 어플리케이션 계층(application layer), 네트워크 계층(network layer), 특히, 딥러닝의 경우, 무선 자원 관리 및 할당(wireless resource management and allocation) 분야에 집중되어 왔다. 그러나, 이러한 연구는 점점 MAC 계층 및 물리 계층(physical layer)으로 발전하고 있으며, 특히 물리 계층에서 딥러닝을 무선 전송(wireless transmission)과 결합하고자 하는 시도들이 나타나고 있다. AI 기반의 물리 계층 전송은, 근본적인 신호 처리 및 통신 메커니즘에 있어서, 전통적인 통신 프레임워크가 아니라, AI 드라이버에 기초한 신호 처리 및 통신 메커니즘을 적용하는 것을 의미한다. 예를 들어, 딥러닝 기반의 채널 코딩 및 디코딩(channel coding and decoding), 딥러닝 기반의 신호 추정(estimation) 및 검출(detection), 딥러닝 기반의 MIMO 매커니즘(mechanism), AI 기반의 자원 스케줄링(scheduling) 및 할당(allocation) 등을 포함할 수 있다.
본 발명의 구체적인 실시예
본 개시는 송신기 및 수신기를 신경망으로 구성함으로써 종단 간(end-to-end) 메시지를 전달하는 구조에서 메타 온라인 러닝에 관련된다. 신경망 기반의 무선 통신 시스템은 신경망의 임의 함수를 잘 근사를 하는 특성을 이용한다. 메시지가 송신 신경망으로부터 무선 채널을 통과한 후 수신 신경망으로 수신하는 경우, 임의 함수를 잘 근사하는 특성을 이용하면 비선형 성질을 가진 채널에서 좋은 송수신 성능이 얻어질 수 있다. 다만, 우수한 성능을 얻기 위해서, 신경망 학습이 반드시 필요하다.
일반적인 학습은 많은 데이터를 이용하여 수행된다. 하지만, 채널은 빠르게 변하므로, 비교적 작은 데이터로 신경망을 학습하는 메타 학습이 필요하다. 채널이 변화하는 상황에서 계속 학습을 수행하는 온라인 메타 학습을 적용하면, 수신기는 비교적 쉽게 기준 신호(reference signal) 및 기준 데이터(reference data)의 출력을 통해 손실 함수를 측정하고, 수신기에 대한 메타 학습을 수행할 수 있다. 하지만, 송신 채널도 빠르게 변할 수 있으므로, 송신기 및 수신기에 메타 학습을 동시에 적용하는 경우에 발생하는 송신기 및 수신기 간의 피드백 데이터 비용을 최소화하는 문제가 여전히 남아있다.
본 개시는 6GHz 이하(below 6GHz) 통신, mmWave, THz 통신의 긴꼬리 전파 환경 분포를 대응하기 위해 지역적인 구분을 통해 메타 학습을 적용한 메타 학습 영역에 관련된다. 메타 학습 영역에서, 본 개시는 각 대역에서 사용되는 기준 신호(reference signal, RS)를 메타 학습하고, 기준 신호 별로 존재하는 태스크의 수행을 효과적으로 수행하기 위한 다양한 실시예들을 설명한다.
메타 학습은 여러 태스크(task)들을 위해 사전에 훈련된 신경망을 이용하여 새로운 태스크에 대한 회귀(regression), 분류(classification) 등의 추론(inference)을 잘 수행할 수 있도록 하는 학습 기법이다. 즉, 메타 학습은, 새로운 태스크에 대해 학습 및 추론을 잘 수행할 수 있게 하는, 학습을 위한 학습 (learn-to-learn)으로 이해될 수 있다.
메타 학습에서, 태스크들을 통해 사전에 훈련된 신경망의 모델의 가중치는 메타 모델 파라미터 라고 불리우고, 메타 모델 파라미터를 학습하는 것은 메타 훈련(meta-training)으로 정의된다. 새로운 태스크를 접하면, 메타 모델 파라미터 는 새로운 태스크에 적응된 모델 파라미터 로 재학습되고, 적응된 모델 파라미터 를 기반으로 추론을 수행하는 것은 어뎁테이션(adaptation)이라고 불리운다. 본 개시에서, 태스크를 위한 모델 파라미터는, 메타 모델 파라미터와 구분하기 위해, 태스크 모델 파라미터라 지칭될 수 있다.
메타 학습을 보다 직관적인 예시를 통해 설명하면 도 18과 같다. 도 18은 본 개시에 적용 가능한 메타 학습의 개념을 도시한다. 도 18을 참고하면, 실시자는 '자전거 타기'(1802)라는 새로운 태스크를 처리하고자 한다. 사전에 '어떤 것을 타는 동작'을 기존의 태스크들로서 사전에 메타 훈련을 수행한 경우, 실시자는 자전거를 쉽게 탈 수 있을 것이다. 새로운 태스크가 주어지기 전에 말 타기(1812), 서핑 보드 타기(1814), 전기 일륜 자전거 타기(1816) 등의 태스크들에 대한 훈련을 통해 메타 모델 파라미터 가 학습된 경우, 자전거를 타는 새로운 태스크에 대한 어뎁테이션은 비교적 용이하게 수행될 수 있을 것이다.
수학적 모델링을 살펴보면, 장치는 태스크 분포 p(D)에서 데이터를 수집하고, 신경망 모델 f를 기반으로 메타 모델 파라미터 를 학습한 후, 새로운 태스크에 필요한 모델 파라미터 를 결정함으로써 어뎁테이션을 수행할 수 있다. 각 태스크는 [수학식 1]과 같이 정의될 수 있다.
[수학식 1]에서, 는 태스크, 은 손실 함수, 는 메타 모델 파라미터, 는 관련된 데이터 세트, 는 태스크 데이터의 초기 확률, 는 태스크 데이터의 조건부 천이 확률, 는 해당 태스크의 시간적인 길이를 의미한다. 메타 훈련에서 메타 모델 파라미터 를 학습하기 위한 목표 함수 및 태스크 분포에서의 데이터 세트는 [수학식 2]와 같이 정의될 수 있다.
[수학식 2]에서, 는 최적의 메타 모델 파라미터, 는 평균 연산자, 는 관련된 데이터 세트, 는 데이터 샘플, 는 데이터 분포, 은 손실 함수, 는 메타 학습 함수, 은 메타 학습을 위해 선택된 데이터 세트, 는 메타 모델 파라미터를 의미한다.
도 19a 및 도 19b는 본 개시에 적용 가능한 메타 학습을 위한 데이터 세트들의 예를 도시한다. 도 19a 및 도 19b를 참고하면, 메타 훈련에서 데이터 세트(예: 메타-훈련 세트, 메타-테스트 세트)는 서로 다른 복수의 태스크들의 데이터 세트들을 포함한다. 그리고. 하나의 태스크 안에서, 데이터 세트는 훈련 세트(training set)(1922)(예: Dtr), 테스트 세트(test set)(1924)(예: Dts)를 포함할 수 있다. 이러한 여러 개의 개별 태스크 데이터가 모임으로써 메타 훈련 세트(meta-training set)가 결정될 수 있다. 예를 들어, 송신기 및 수신기는 훈련 세트(1922)를 이용하여 내부 루프(inner loop)를 통해 태스크 별 태스크 모델 파라미터들을 결정하고, 테스트 세트(1924)를 이용하여 외부 루프(outer loop)를 통해 메타 모델 파라미터를 결정할 수 있다.
새로운 특정한 태스크를 위한 어뎁테이션은 최적의 메타 모델 파라미터 를 기반으로 해당 특정한 태스크에 대한 메타 테스트(meta test) 데이터를 가장 잘 설명하는 조건부 확률 값을 최대화하는 것이다. 메타 테스트 데이터 세트도 훈련 세트(1932) 및 테스트 세트(1934)로 나뉜다. 여기서, 훈련 세트는 주로 메타 모델 파라미터 로부터 새로운 태스크를 위한 태스크 모델 파라미터 를 학습하기 위해 소비된다. 테스트 세트는 실제 태스크를 수행하는 작업을 위해 사용된다.
최적의 메타 모델 파라미터 를 구하는 메타 학습 알고리즘은 크게 3개의 분류들로 나누어질 수 있다. 모델(예: 블랙박스) 기반 방법, 최적화 기반 방법, 비모수적(non-parametric) 방법 등이 제안되었다. 이 3개의 방법들은 다음과 같은 공통점이 있다. 첫째, 여러 태스크들의 분포에서 얻은 데이터를 일반화(generalization)한다. 둘째, 메타 태스크 데이터 세트에서 태스크 하나를 샘플링하고, 관련 태스크 데이터 Dtr 및 Dts를 이용하여 학습을 반복적으로 수행한다.
메타 학습 알고리즘과 내부 및 외부 루프는 다음과 같다.
모델 기반 방법은 샘플된 특정 태스크 i를 잘 설명하는 또 다른 모델 혹은 신경망 을 이용하여 를 결정한다. 최적화 기반 방법은 태스크 i를 가장 잘 설명하는 모델을 따로 두지 아니하고, 현재 모델의 그래디언트(gradient) 정보를 이용하여 를 결정한다. 비모수적 방법은 태스크 i의 의 특징(feature)를 잘 설명하는 모델을 고려한다.
메타 학습은 데이터 세트가 긴 꼬리 분포를 가질 때 좋은 성능을 보여 준다. 긴 꼬리 분포를 가지는 데이터 세트의 경우, 분류를 기준으로 볼 때, 클래스가 아주 많고, 각 클래스 안에서의 데이터 사이즈는 매우 작다. 메타 학습은 작은 데이터 세트에서도 좋은 성능을 보인다. 가장 유용한 응용 예는 퓨-샷 학습(few-shot learning)이다. 몇 개의 이미지들만을 보여주더라도, 메타 학습을 수행한 뒤 이미지를 식별하면, 뛰어난 성능이 달성된다.
메타 학습 알고리즘은 모델 기반 접근법(model-based approach), 최적화 기반 접근법(optimization-based approach), 비모수적인 접근법(non-parametric approach)으로 나눌 수 있다. 각 알고리즘은 다음과 같이 표현될 수 있다.
알고리즘 | 내용 |
모델 기반 접근법 | 1. Sample Task i 2. Sample data set Di tr, Di ts 3. Compute ←fθ(Di tr) 4. update θ using ▽θL(,Di ts) 5. return to 1. |
최적화 기반 접근법 | 1. Sample Task i 2. Sample data set Di tr, Di ts 3. Optimize ←▽θL(θ,Di tr) 4. update θ using ▽θL(,Di ts) 5. return to 1. |
비모수적인 접근법 | 1. Sample Task i 2. Sample data set Di tr, Di ts 3. Compute 4. update θ using ▽θL() 5. return to 1. |
메타 학습의 알고리즘들의 공통점은 동작#3에서 여러 개별 태스크 i의 반복을 통해 를 결정하는 내부 루프(inner-loop) 및 내부 루프를 기반으로 동작#4 및 동작#1을 아우르며 를 이용하여 를 결정하는 외부 루프(outer-loop)로 이루어진다는 것이다. 는 태스크의 분포를 가장 잘 일반화(generalization)하는 파라미터를 의미한다. 이와 같이, 메타 학습은 2개의 레벨들의 계층적 파라미터 학습으로 이해될 수 있다.
본 개시의 다양한 실시예들에 따른 메타 학습 태스크들은 기준 신호(reference signal)와 관련될 수 있다. 즉, 본 개시는 통신에서 기준 신호에 관련된 송수신 태스크의 메타 학습에 관한 것이다. 기준 신호와 메타 학습 태스크는 다음과 같다. 기준 신호는 송신기 및 수신기 간에 사전에 약속되어 있는 값을 가지는 신호이다. 여러 가지의 기준 신호들이 정의될 수 있다. 송신기는 고주파 대역의 위상 오차를 보정하기 위해 특정한 패턴을 가진 PTRS(phase-tracking reference signal)을 전송할 수 있다. 송신기는 채널을 추정하고, 데이터를 보정하기 위해 특정한 패턴을 가진 DMRS(demodulation RS)를 전송할 수 있다. 또한, 송신기는 채널의 시간 동기를 추적하고 빔을 추적하고 RI/PMI/CQI 등의 채널 품질 정보를 알아내기 위해 각각에 대해 특정한 패턴을 가진 CSI-RS를 전송할 수 있다. 또한, 송신기는 채널 사운딩을 위해 특정한 패턴을 가진 SRS(sounding reference signal)를 전송할 수 있다. 또한, 기지국은 단말의 위치를 측정하기 위한 PRS(positioning reference signal)를 송신할 수 있다. 본 개시에서, 기준 신호는, 위에서 언급한 것은 물론, 그 이외에도, 메타 학습을 위하여 무선 자원 영역에 할당되는 모든 신호로 이해될 수 있다. 기준 신호를 송신 및 수신하기 위한 정보는 송신기 및 수신기가 사전에 알고 있거나 또는 시그널링(예: PHY, MAC CE, RRC)을 통해 설정될 수 있다.
기준 신호 또는 데이터에 대한 태스크는 데이터 세트(data set) 및 손실 함수(loss function)로 이루어진다. 데이터 세트는 각 기준 신호에서 요구되는 수신 및 측정을 성공함으로써 획득될 수 있다. 예를 들면, 빔 CSI-RS의 경우, 빔 측정을 수행하고, 빔 식별자를 기준으로 수신을 성공하면, 지도 학습 데이터 세트가 확보될 수 있다. DMRS의 경우, 데이터 수신에 성공함으로써 CRC가 올바르게 얻어지면, 지도 학습 데이터 세트가 확보될 수 있다. 데이터 세트는 메타 학습에 따라 메타 훈련 세트 및 메타 테스트 세트로 구분할 수 있다. 각 태스크의 손실 함수는 수신 데이터 또는 측정 데이터의 크로스 엔트로피(cross entropy)로 구성될 수 있다.
도 20은 본 개시의 일 실시예에 따른 메타 학습을 지원하는 장치들의 기능적 구조들을 도시한다. 도 20은 일 실시예에 따라 통신을 수행하는 두 장치들(2010, 2020) 중 제1 장치(2010)는 송신기로서, 제2 장치(2020)는 수신기로서 기능하는 경우의 송수신 모델을 예시한다. 하향링크 통신의 경우, 제1 장치(2010)는 기지국, 제2 장치(2020)는 UE로 이해될 수 있다. 상향링크 통신의 경우, 제1 장치(2010)는 UE, 제2 장치(2020)는 기지국으로 이해될 수 있다.
도 20을 참고하면, 제1 장치(2010)는 송신 엔티티(transmit entity)(2011), 메타 훈련부(meta trainer)(2012), 메타 송신기(2013), 어뎁테이션 블록(2014), 태스크 송신기(2015)를 포함한다. 송신 엔티티(2011)는 데이터 송신을 위한 전반적인 제어 및 처리를 수행한다. 예를 들어, 송신 엔티티(2011)는 송신 데이터를 생성하고, 다른 블록들의 동작에 필요한 정보를 제공할 수 있다. 구체적으로, 송신 엔티티(2011)는 태스크 데이터(task data)를 메타 훈련부(2012)에게 제공하고, 메시지 S를 메타 송신기(2015)에게 제공할 수 있다. 이때, 송신 엔티티(2011)는 제2 장치(2020)로부터 수신되는 측정 보고를 이용하여 메타 학습 동작을 제어할 수 있다. 메타 훈련부(2012)는 메타 학습을 수행함으로써 메타 모델 파라미터를 결정하고, 메타 송신기(2013)는 메타 학습을 통해 결정된 메타 모델 파라미터를 보유한다. 어뎁테이션 블록(2014)는 메타 모델 파라미터에 대한 어뎁테이션을 수행함으로써 주어진 태스크를 위한 태스크 모델 파라미터를 결정하고, 태스크 송신기(2015)는 어뎁테이션을 통해 결정된 적응된 태스크 모델 파라미터를 이용하여 메시지 및 적어도 하나의 기준 신호를 해당 태스크에 따라 처리한다.
도 20을 참고하면, 제2 장치(2020)는 수신 엔티티(receive entity)(2021), 메타 훈련부(2022), 메타 수신기(2023), 어뎁테이션 블록(2024), 태스크 수신기(2025), 송신 메타 제어(transmit meta control) 블록(2026)을 포함한다. 수신 엔티티(2021)는 데이터 수신을 위한 전반적인 제어 및 처리를 수행한다. 예를 들어, 수신 엔티티(2021)는 수신 메시지를 처리하고, 다른 블록들의 동작에 필요한 정보를 제공할 수 있다. 구체적으로, 수신 엔티티(2021)는 태스크 데이터(task data)를 메타 훈련부(2022)에게 제공하고, 메시지 S를 메타 수신기(2025)에게 제공할 수 있다. 메타 훈련부(2022)는 메타 학습을 수행함으로써 메타 모델 파라미터를 결정하고, 메타 수신기(2023)는 메타 학습을 통해 결정된 메타 모델 파라미터를 보유한다. 어뎁테이션 블록(2024)는 메타 모델 파라미터에 대한 어뎁테이션을 수행함으로써 주어진 태스크를 위한 태스크 모델 파라미터를 결정하고, 태스크 수신기(2025)는 어뎁테이션을 통해 결정된 적응된 태스크 모델 파라미터를 이용하여 메시지 및 적어도 하나의 기준 신호를 해당 태스크에 따라 처리함으로써 메시지를 복원하고, 복원된 메시지를 수신 엔티티(2021)에게 제공한다. 송신 메타 제어 블록(2026)은 제1 장치(2010)의 신경망들에 대한 학습을 위한 정보를 생성하고, 생성된 정보를 포함하는 측정 보고를 제1 장치(2010)에게 송신한다.
도 20을 참고하면, 메타 신경망은 하나 또는 다수의 메타 송신기(2013) 및 하나 또는 다수의 메타 수신기(2023)로 이루어질 수 있다. 메타 신경망은 복수의 태스크들에 대한 메타 훈련을 통해 얻어진 일반화된 파라미터 값 및 을 포함한다. 태스크 신경망들은 하나 또는 다수의 하나의 태스크 송신기(2015) 및 하나 또는 다수의 태스크 수신기(2025)로 이루어질 수 있다. 태스크 신경망들은 기준 신호 태스크마다 다른 파라미터를 가질 수 있다. 실제 메시지 S를 송신하는 경우, 메타 신경망으로부터 어뎁테이션(adaptation)을 통해 유도된 해당 채널 상황에 맞는 송신 및 수신 태스크 신경망으로 변환되고, 메시지 S를 송수신할 수 있다. 최종적으로, 제2 장치(2020)는 메시지 를 복원한다. 송신 엔티티(2011) 및 수신 엔티티(2021)는 데이터를 송신하고 수신하는 객체를 의미한다. 메타 학습부(2012) 및 메타 학습부(2022)는 송신 태스크 신경망 및 수신 태스크 신경망 의 정보를 이용하여 메타 파라미터 및 를 학습시킨다. 송신 메타 제어 블록(2026)은 송신기 신경망을 훈련하기 위한 제2 장치(2020)의 제어부이다. 송신 메타 제어 블록(2026)은 송신 신경망을 훈련하기 위한 손실을 측정하며, 측정 보고를 통해 손실을 제1 장치(2010)로 피드백한다. 피드백 동작은 측정 보고(measurement report)를 통해 이루어진다. 메타 훈련 과정에서, 측정 보고는 대역폭이 필요하므로 간접 비용, 즉, 오버헤드(overhead)로 간주한다. 송신 메타 제어 블록(2026)은 이러한 비용을 최소화하는 역할을 수행할 수 있다.
온라인 메타 학습을 수행하는 송신기 및 수신기는 2개의 프로세스들을 동시에 진행한다. 첫 번째 프로세스는 온라인 메타 훈련(meta-training process) 프로세스이다. 온라인 메타 훈련 프로세스는 현재 시점에서 가장 성능 좋은 메타 모델 파라미터
를 탐색하는 것이다. 온라인 메타 훈련 프로세스는 내부 루프(inner-loop)를 통해 복수의 태스크들로부터 학습되는 송신기 및 수신기의 태스크 파라미터 를 결정한다. 또한, 온라인 메타 훈련 프로세스는 외부 루프(outer-loop)를 통해 태스크 파라미터들을 잘 일반화하는 메타 모델 파라미터 를 결정한다. 두 번째 프로세스는 최신의 메타 파라미터 를 통해 최근에 사용된 태스크로부터 얻어진 학습 데이터를 기반으로 어뎁테이션을 계속 수행하면서 를 가지고 송수신을 수행하는 것이다.
도 21은 본 발명의 일 실시예에 따라 송신기에 관련된 파라미터를 결정하는 절차를 도시한다. 도 21은 기준 신호에 관련된 태스크를 위해 기준 신호를 송신하는 장치(예: 기지국 또는 UE)의 동작 방법을 예시한다.
도 21을 참고하면, S2101 단계에서, 장치는 기준 신호에 관련된 설정 정보를 송신한다. 설정 정보는 채널 측정을 위해 송신되는 기준 신호들에 관련된 정보(예: 자원, 시퀀스 등), 요구되는 동작에 관련된 정보(예: 측정, 학습, 훈련 등), 피드백에 관련된 정보(예: 형식, 자원, 피드백 횟수, 주기 등) 중 적어도 하나를 포함할 수 있다. 또한, 다양한 실시예들에 따라, 설정 정보는 메타 학습에 관련된 정보를 포함할 수 있다. 예를 들어, 메타 학습에 관련된 정보는 메타 학습을 위해 사용되는 태스크들, 훈련을 위한 배치 크기(batch size), 모델 파라미터의 최적화 방식, 내부 루프를 위해 사용되는 적어도 하나의 태스크, 외부 루프를 위해 사용되는 적어도 하나의 태스크 중 적어도 하나를 지시하고, 지시되는 항목에 관련된 적어도 하나의 설정 값을 포함할 수 있다. 일 실시예에 따라, 설정 정보는 장치 또는 다른 장치의 메타 훈련의 수행을 요청하는 메시지로서 기능할 수 있다.
S2103 단계에서, 장치는 기준 신호들을 송신한다. 장치는 설정 정보에 기반하여 기준 신호들을 송신한다. 즉, 장치는 설정 정보에 의해 지시되는 자원을 통해 설정 정보에 의해 지시되는 시퀀스에 기반한 기준 신호들을 송신할 수 있다. 이때, 다양한 실시예들에 따라, 장치는 메타 학습에 관련된 적어도 하나의 태스크를 위한 기준 신호들을 송신할 수 있다. 메타 학습에 관련된 기준 신호들은 복수의 기준 신호 집합들을 포함할 수 있으며, 기준 신호 집합에 따라 기준 신호의 종류가 서로 다를 수 있다. 이 경우, 복수의 기준 신호 집합들은 단계적으로 송신될 수 있다.
S2105 단계에서, 장치는 피드백 정보를 수신한다. 즉, 장치는 송신된 기준 신호들에 기반하여 생성된 피드백 정보를 수신한다. 예를 들어, 피드백 정보는 기준 신호의 종류에 따른 측정 정보를 포함할 수 있다. 다양한 실시예들에 따라, 피드백 정보는 메타 학습을 위한 손실 정보를 포함할 수 있다. 여기서, 손실 정보는 채널을 통과한 기준 신호로부터 상대방 장치에서 수신기 신경망을 이용하여 추론된 결과 및 레이블(label) 간 오차에 관련된 정보로서, 손실 함수에 기반하여 결정될 수 있다. 이때, 피드백 정보에 포함되는 손실 정보는 장치에서 사용된 송신기 신경망에 대한 손실 값을 포함할 수 있다. 즉, 손실 정보는 수신기 신경망으로의 입력 데이터 대비 수신기 신경망의 출력 값의 오차에 기반하여 결정되는 값을 지시할 수 있다.
S2107 단계에서, 장치는 피드백 정보에 기반하여 송신기에 관련된 적어도 하나의 파라미터를 설정한다. 즉, 장치는 피드백 정보에 기반하여 송신되는 비트열, 정보, 데이터, 메시지 또는 신호를 처리하기 위한 연산에 관련된 적어도 하나의 파라미터를 설정할 수 있다. 다양한 실시예들에 따라, 장치는 피드백 정보에 기반하여 송신기 신경망에 대한 학습을 수행할 수 있다. 구체적으로, 장치는 메타 모델 파라미터를 결정하기 위한 메타 학습을 수행할 수 있다. 여기서, 설정은 기존에 없던 적어도 하나의 파라미터의 값을 결정하는 것, 기존의 적어도 하나의 파라미터의 값을 갱신하는 것 중 적어도 하나를 포함할 수 있다.
도 21을 참고하여 설명한 바와 같이, 장치는 기준 신호를 송신하고, 기준 신호에 대응하는 피드백 정보를 수신하고, 피드백 정보에 기반하여 송신기에 관련된 적어도 하나의 파라미터를 설정할 수 있다. 전술한 기준 신호 송신, 피드백 정보 수신, 적어도 하나의 파라미터 설정을 포함하는 일련의 동작들은, 2회 이상 반복적으로 수행될 수 있다. 일 실시예에 따라, 첫번째 반복은 특정 태스크의 신경망에 대한 학습을 위해, 두번째 반복은 메타 학습에서 태스크 모델 파라미터들을 결정하기 위한 내부 루프를 위해, 첫번째 반복은 메타 학습에서 메타 모델 파라미터를 결정하기 위한 외부 루프를 위해 수행될 수 있다. 여기서, 일 실시예에 따라, 두번째 반복에서, 장치는 송신된 기준 신호들에 대응하는 태스크들 중 일부 적어도 하나의 태스크에 대한 손실 정보만을 수신할 수 있다. 그리고, 일 실시예에 따라, 세번째 반복에서, 장치는 수신된 손실 정보에 대응하는 적어도 하나의 태스크를 위한 기준 신호들을 송신할 수 있다.
도 22는 본 발명의 일 실시예에 따라 수신기에 관련된 파라미터를 결정하는 절차를 도시한다. 도 22는 기준 신호에 관련된 태스크를 위해 기준 신호를 수신하는 장치(예: 기지국 또는 UE)의 동작 방법을 예시한다.
도 22를 참고하면, S2201 단계에서, 장치는 기준 신호에 관련된 설정 정보를 수신한다. 설정 정보는 채널 측정을 위해 송신되는 기준 신호들에 관련된 정보(예: 자원, 시퀀스 등), 요구되는 동작에 관련된 정보(예: 측정, 학습, 훈련 등), 피드백에 관련된 정보(예: 형식, 자원, 피드백 횟수, 주기 등) 중 적어도 하나를 포함할 수 있다. 또한, 다양한 실시예들에 따라, 설정 정보는 메타 학습에 관련된 정보를 포함할 수 있다. 예를 들어, 메타 학습에 관련된 정보는 메타 학습을 위해 사용되는 태스크들, 훈련을 위한 배치 크기(batch size), 모델 파라미터의 최적화 방식, 내부 루프를 위해 사용되는 적어도 하나의 태스크, 외부 루프를 위해 사용되는 적어도 하나의 태스크 중 적어도 하나를 지시하고, 지시되는 항목에 관련된 적어도 하나의 설정 값을 포함할 수 있다. 일 실시예에 따라, 설정 정보는 장치 또는 다른 장치의 메타 훈련의 수행을 요청하는 메시지로서 기능할 수 있다.
S2203 단계에서, 장치는 기준 신호들을 수신한다. 장치는 설정 정보에 기반하여 기준 신호들을 수신한다. 즉, 장치는 설정 정보에 의해 지시되는 자원을 통해 설정 정보에 의해 지시되는 시퀀스에 기반한 기준 신호들을 수신할 수 있다. 이때, 다양한 실시예들에 따라, 장치는 메타 학습에 관련된 적어도 하나의 태스크를 위한 기준 신호들을 수신할 수 있다. 메타 학습에 관련된 기준 신호들은 복수의 기준 신호 집합들을 포함할 수 있으며, 기준 신호 집합에 따라 기준 신호의 종류가 서로 다를 수 있다. 이 경우, 복수의 기준 신호 집합들은 단계적으로 수신될 수 있다.
S2205 단계에서, 장치는 기준 신호들에 기반하여 수신기에 관련된 적어도 하나의 파라미터를 설정한다. 즉, 장치는 기준 신호들에 기반하여 상대방 장치로부터 수신되는 비트열, 정보, 데이터, 메시지 또는 신호를 처리하기 위한 연산에 관련된 적어도 하나의 파라미터를 설정할 수 있다. 다양한 실시예들에 따라, 장치는 피드백 정보에 기반하여 수신기 신경망에 대한 학습을 수행할 수 있다. 예를 들어, 장치는 역전파(backpropagation)을 통해 수신기 신경망의 파라미터들(예: 가중치들)을 갱신할 수 있다. 구체적으로, 장치는 메타 모델 파라미터를 결정하기 위한 메타 학습을 수행할 수 있다. 여기서, 설정은 기존에 없던 적어도 하나의 파라미터의 값을 결정하는 것, 기존의 적어도 하나의 파라미터의 값을 갱신하는 것 중 적어도 하나를 포함할 수 있다.
S2207 단계에서, 장치는 피드백 정보를 송신한다. 즉, 장치는 송신된 기준 신호들에 기반하여 생성된 피드백 정보를 송신한다. 예를 들어, 피드백 정보는 기준 신호의 종류에 따른 측정 정보를 포함할 수 있다. 다양한 실시예들에 따라, 피드백 정보는 상대방 장치의 메타 학습을 위한 손실 정보를 포함할 수 있다. 여기서, 손실 정보는 채널을 통과한 기준 신호로부터 수신기 신경망을 이용하여 추론된 결과 및 레이블 간 오차에 관련된 정보로서, 손실 함수에 기반하여 결정될 수 있다. 이때, 피드백 정보에 포함되는 손실 정보는 상대방 장치에서 사용된 송신기 신경망에 대한 손실 값을 포함할 수 있다. 즉, 손실 정보는 수신기 신경망으로의 입력 데이터 대비 수신기 신경망의 출력 값의 오차에 기반하여 결정되는 값을 지시할 수 있다. 예를 들어, 손실 정보는 수신기 신경망에서의 역전파가 수신기 신경망의 입력 레이어까지 수행된 결과에 관련될 수 있다.
도 22를 참고하여 설명한 바와 같이, 장치는 기준 신호를 수신하고, 기준 신호에 기반하여 수신기에 관련된 적어도 하나의 파라미터를 설정하고, 기준 신호에 대응하는 피드백 정보를 송신할 수 있다. 전술한 기준 신호 수신, 적어도 하나의 파라미터 설정, 피드백 정보 송신을 포함하는 일련의 동작들은, 2회 이상 반복적으로 수행될 수 있다. 일 실시예에 따라, 첫번째 반복은 특정 태스크의 신경망에 대한 학습을 위해, 두번째 반복은 메타 학습에서 태스크 모델 파라미터들을 결정하기 위한 내부 루프를 위해, 세번째 반복은 메타 학습에서 메타 모델 파라미터를 결정하기 위한 외부 루프를 위해 수행될 수 있다. 여기서, 일 실시예에 따라, 두번째 반복에서, 장치는 수신된 기준 신호들에 대응하는 태스크들 중 일부 적어도 하나의 태스크에 대한 손실 정보만을 피드백 정보로서 송신할 수 있다. 그리고, 일 실시예에 따라, 세번째 반복에서, 장치는 송신된 손실 정보에 대응하는 적어도 하나의 태스크를 위한 기준 신호들을 수신할 수 있다.
이하 본 개시는 온라인 메타 훈련에 대한 구체적인 실시예들을 설명한다. 이하 설명에서, 온라인 메타 훈련을 수행하는 두 객체들은 송신기 및 수신기로 설명된다. 다양한 상황들에 따라, 송신기 및 수신기는 기지국 및 UE, UE 및 기지국, UE 및 UE로 이해될 수 있다. 이하 설명에서, 태스크를 송신함은 태스크를 위한 적어도 하나의 기준 신호를 송신함을 포함할 수 있다.
온라인 메타 훈련의 송신기의 목적 함수의 최적화는 의 평가에 기반하여 수행된다. 온라인 메타 훈련의 수신기의 목적 함수 최적화는 의 평가에 기반하여 수행된다. 송신기의 목적 함수의 최적화를 위한 평가 및 수신기의 목적 함수의 최적화를 위한 평가는 반복적(iteratively)으로 번갈아 가면서 수행된다.
수신기의 메타 훈련은 다음과 같이 수행될 수 있다. 도 23은 본 발명의 일 실시예에 따라 수신기를 위한 메타 학습을 수행하기 위한 절차의 예를 도시한다. 도 23은 송신기(2310) 및 수신기(2320) 간 시그널링을 예시한다.
도 23을 참고하면, S2301 단계에서, 송신기(2310)는 수신기(2320)에게 수신 메타 훈련(RX meta-training) 요청 메시지를 송신한다. 수신 메타 훈련 요청 메시지는 메타 훈련 중에 사용되는 기준 신호 태스크(RS task)들의 집합 정보를 포함한다. 또한, 수신 메타 훈련 요청 메시지는 경사 기반 훈련을 위한 배치 크기(batch size), 최적화 방법, 이에 관련된 설정 값 중 적어도 하나를 포함한다. 또한, 수신 메타 훈련 요청 메시지는 각 내부 루프에 대한 태스크 집합 및 외부 루프에서 사용되는 태스크 집합에 대한 정보를 포함한다. 이어, S2303 단계에서, 송신기(2310)는 태스크 k를 위한 적어도 하나의 기준 신호를 송신한다. 태스크 k에 대한 적어도 하나의 기준 신호를 송신기(2310)가 송신하면, S2305 단계에서, 수신기(2320)는 수신 신경망의 파라미터를 업데이트한다. 수신 신경망의 파라미터는 이하 [수학식 3]과 같이 업데이트될 수 있다.
[수학식 3]에서, 은 수신기의 태스크 모델 파라미터, 는 업데이트 함수, 은 손실 함수, 는 송신기의 메타 모델 파라미터를 의미한다. 여기서, 업데이트 함수 는 최적화 방식에 따라 달라질 수 있다.
이어, S2307 단계에서, 수신기(2320)는 측정 보고(measurement report)를 통해 손실을 보고한다. 다시 말해, 수신기(2320)는 송신기(2310)에 대한 손실을 결정하고, 손실에 관련된 정보를 포함하는 측정 보고를 송신기(2310)로 송신한다. 이어, S2309 단계에서, 송신기(2310)는 송신 신경망을 업데이트한다. 전술한 S2303 단계 내지 S2309 단계에서 수행되는 태스크 k에 대한 훈련, 즉, 메타 학습 초기의 훈련은 송신기 및 수신기의 신경망들이 최신의 상태를 가질 수 있도록 예비적인 학습 기회를 부여하기 위해 수행될 수 있다. 이를 통해, 신경망들의 파라미터가 너무 과거의 채널을 학습한 상태가 되는 것이 방지될 수 있다. 다만, 다른 실시예에 따라, 전술한 S2303 단계 내지 S2309 단계는 생략될 수 있다.
이후, S2311-i 단계 내지 S2311-i+N 단계에서, 태스크 i부터 N개의 내부 루프(inner-loop)에 대한 기준 신호들이 송신된다. 기준 신호들의 송신이 시작되면, S2313-i 단계 내지 S2313-i+N에서, 내부 루프(inner-loop)에 의해 각 태스크의 태스크 모델 파라미터 가 업데이트된다. 태스크 모델 파라미터는 [수학식 4]와 같이 업데이트될 수 있다.
[수학식 4]에서, 은 수신기의 태스크 모델 파라미터, 는 내부 루프에서 사용되는 메타 학습 함수, 은 수신기의 메타 모델 파라미터, 은 손실 함수를 의미한다. 여기서, 는 메타 학습 접근법에 따라 달라질 수 있다.
이후, S2315-j 단계 내지 S2315-j+M에서, 송신기(2310)은 태스크 j 내지 j+M을 위한 기준 신호들을 송신한다. S2323 단계에서, 수신기(2320)는 전송된 태스크들 중 적어도 하나의 태스크를 샘플링하고, 내부 루프에서 업데이트된 태스크 모델 파라미터 를 기반으로 외부 루프(outer-loop)에서 메타 모델 파라미터 를 업데이트한다. 메타 모델 파라미터는 이하 [수학식 5]와 같이 업데이트될 수 있다.
[수학식 5]에서, 은 수신기의 메타 모델 파라미터, 는 외부 루프에서 사용되는 메타 학습 함수, 은 손실 함수, 은 특정 태스크에 대한 송신기의 태스크 모델 파라미터를 의미한다. 여기서, 는 메타 학습 접근법에 따라 달라진다.
송신기에서의 메타 훈련의 핵심은 메타 모델 파라미터 를 가장 잘 설명하는 태스크 파라미터 의 일부만을 수신기가 송신기에 송신함으로써 피드백 자원을 최소화하는 것이다. 이하 설명에서, 태스크를 송신함은 태스크를 위한 적어도 하나의 기준 신호를 송신함을 의미한다.
송신기의 메타 훈련은 다음과 같이 수행될 수 있다. 도 24는 본 발명의 일 실시예에 따라 송신기를 위한 메타 학습을 수행하기 위한 절차의 예를 도시한다. 도 24는 송신기(2410) 및 수신기(2420) 간 시그널링을 예시한다.
도 24를 참고하면, S2401 단계에서, 송신기(2410)는 수신기(2420)에게 송신 메타 훈련(TX meta-training) 요청 메시지를 송신한다. 송신 메타 훈련 메시지는 메타 훈련 중에 사용되는 기준 신소 태스크(RS task)의 집합 정보를 포함한다. 또한, 송신 메타 훈련 메시지는 경사 기반 훈련을 위한 배치 크기(batch size), 최적화 방법, 이에 관련된 설정 값 중 적어도 하나를 포함한다.
S2403 단계에서, 송신기(2410)는 태스크 u를 위한 적어도 하나의 기준 신호를 송신한다. 태스크 u는 송신 메타 훈련(TX meta-training)에 사용될 수신 파라미터를 훈련하기 위한 기준 신호의 전송이다. S2405 단계에서, 수신기(2420)는 태스크 u를 위한 태스크 모델 파라미터 을 업데이트하고, S2407 단계에서, 송신기(2410)에게 태스크 u에 대한 손실(loss)을 피드백할 수 있다. 이후, 송신 메타 훈련(TX meta-training) 구간이 시작된다.
S2409-i 단계 내지 S2409-i+N 단계에서, N개의 태스크들이 전송된다. S2411-i 단계 내지 S2411-i+N 단계에서, 내부 루프의 훈련에 필요한 손실은 수신기(2420)에서 측정된다. 이때, 내부 루프에서 수신기(2420)의 수신 제어부 및 송신부는 다음과 같은 동작을 수행한다. 수신기(2420)는 송신 신경망과 동일한 모델을 준비한다. 동일한 모델에 대한 정보는 송신 메타 훈련(TX meta-training) 요청 메시지에 포함된 메타 학습 ID(meta-learning ID)에 의해 전달되며, 이를 통해 수신기(2420)는 동일한 모델을 획득할 수 있다. 메타 학습 모델은 사전에 협의되었다고 가정된다.
S2409-i 단계 내지 S2409-i+N 단계에서, 송신기(2410)는 내부 루프 태스크에 대한 기준 신호들, 예를 들어, RSi부터 RSi+N까지를 송신한다. S2411-i 단계 내지 S2411-i+N 단계에서, 수신기(2420)는 수신 신호 및 송신 신경망의 복사본을 이용하여 손실들 각각을 계산하고, 송신기(2410)의 태스크 모델 파라미터 {}을 결정한다. 이때, 태스크 모델 파라미터는 이하 [수학식 6]과 같이 결정될 수 있다.
[수학식 6]에서, 은 송신기의 태스크 모델 파라미터, 는 내부 루프에서 사용되는 메타 학습 함수, 은 송신기의 메타 모델 파라미터, 은 손실 함수, 은 수신기의 태스크 모델 파라미터를 의미한다. 여기서, 는 메타 학습 접근법에 따라 달라질 수 있다. 여기서, 메타 모델 파라미터는 이전의 메타 학습에 의해 결정된 파라미터로 이해될 수 있다.
S2413 단계에서, 수신기(2420)는 내부 루프 파라미터 {} 중에 계산에 가장 유효한 부분 집합 {}을 선택하고, S2415 단계에서, 송신기(2410)에게 손실을 피드백 한다. 여기서, M <N이다.
S2419-j 단계 내지 S2419-j+M에서, 송신기(2410)는 생성된 파라미터 {}을 통해 기준 신호에 관련된 태스크 j 내지 태스크 j+M까지를 송신하고, S2421-j 단계 내지 S2421-j+M에서, 수신기(2420)는 외부 루프를 위한 손실을 측정한다. S2423 단계에서, 수신기(2420)는 손실을 송신기(2410)에 피드백함으로써 외부 루프 메타 훈련을 수행한다. 다시 말해, S2425 단계에서, 송신기(2410)는 수신기(2420)로부터 피드백된 손실에 기반하여 외부 루프 메타 훈련을 수행할 수 있다. 송신기(2410)의 메타 파라미터는 이하 [수학식 7]과 같이 업데이트될 수 있다.
[수학식 7]에서, 은 송신기의 메타 모델 파라미터, 는 외부 루프에서 사용되는 메타 학습 함수, 은 손실 함수, 은 송신기의 태스크 모델 파라미터, 은 수신기의 태스크 모델 파라미터를 의미한다.
앞서 언급한 메타 학습 방법론은 모델 기반, 최적화 기반, 비모수 기반으로 나뉜다. 일 실시예로서, 본 개시는 낮은 피드백 비용으로 최적화 기반 메타 학습을 수행하는 방법을 송신기를 위한 메타 학습 관점에서 제시한다.
도 25는 본 발명의 일 실시예에 따라 송신기를 위한 메타 학습을 수행하기 위한 절차의 다른 예를 도시한다. 도 25는 송신기(2510) 및 수신기(2520) 간 시그널링을 예시한다. 도 25는 10개의 태스크들이 사용되는 경우를 예시한다.
도 25를 참고하면, S2501 단계에서, 수신기(2520)는 송신 메타(TX meta) 신경망을 송신 메타 요청(TX meta-request) 메시지에 포함되는 식별자를 통해 확보한다. S2503-1 단계 내지 S2503-10 단계에서, 송신기(2510)는 10개의 기준 신호 태스크들을 위한 기준 신호들을 송신한다. S2505-1 단계 내지 S2505-10 단계에서, 수신기(2520)는 10개의 기준 신호 태스크들에 대해 내부 루프 평가를 수행하고, 손실을 측정하고, {}를 확보한다. 여기서, 10개의 태스크들을 위한 태스크 모델 파라미터들은 [수학식 8]과 같이 결정될 수 있다.
[수학식 9]에서, 는 태스크 i에 대한 송신기의 태스크 모델 파라미터, 은 송신기의 메타 모델 파라미터, 는 업데이트 가중치, 는 송신기의 메타 모델 파라미터, 은 수신기의 태스크 모델 파라미터를 의미한다.
효과적으로 대표 태스크를 추출하기 위해, 수신기(2520)는 클러스터링 알고리즘을 이용하여 10개 중에 3개의 태스크들을 추출할 수 있다. 이와 같이, 제안된 기술을 이용하여 수신기(2520)가 {}에 대한 가장 일반화 성능이 좋은 3개를 클러스터링을 통해 추출함으로써, S2509 단계에서, 대표적인 에 대한 손실들 만을 송신기에 전달할 수 있다. 이에 따라, 송신기(2510)는 메타 모델 파라미터 를 큰 오차 없이 결정할 수 있다. 이후, 외부 루프에서, 해당 태스크들에 대해서만 업데이트가 수행될 수 있다.
구체적으로, S2511-1 단계, S2511-2 단계, S2511-3 단계에서, 송신기(2510)는 태스크 1, 4, 7을 위한 기준 신호들을 송신한다. S2513-1 단계, S2513-2 단계, S2513-3 단계에서, 수신기(2520)는 손실을 측정한다. S2515 단계에서, 수신기(2520)는 외부 루프 손실을 피드백한다. S2517 단계에서, 송신기(2510)는 메타 모델 파라미터를 업데이트한다. 이때, 메타 모델 파라미터는 이하 [수학식 9]와 같이 업데이트될 수 있다.
도 25를 참고하여 설명한 실시예에서, 수신기는 클러스터링 알고리즘을 이용하여 10개 중에 3개를 태스크들을 추출한다. 클러스터링을 위해 사용되는 메트릭으로서, 임의의 2개의 들 간 쿨백-라이블러 발산(Kullback-Leibler)이 사용될 수 있다. 예를 들어, 파라미터 공간에서 도 26과 같이 클러스터링 된다고 생각할 수 있다. 도 26은 본 발명의 일 실시예에 따라 모델 파라미터들에 대한 클러스터링의 예를 도시한다. 도 26을 참고하면, 10개의 태스크들은 3개의 그룹들(2612, 2614, 2616)으로 분류된다. 이때, 각 그룹에서 하나의 대표 태스크가 선택되고, 선택된 그룹 별 대표 태스크에 대한 손실 값들이 수신기에서 송신기로 피드백될 수 있다.
여기서, 각 그룹의 대표 태스크의 선택은 사용된 클러스터링 알고리즘에 따라 달라질 수 있다. 일 실시예에 따라, 해당 그룹의 평균 값에 가장 가까운 모델 파라미터를 가진 태스크가 대표 태스크로서 선택될 수 있다. 다른 실시예에 따라, 그룹 내에서 다른 태스크들과의 거리들의 편차가 가장 작은 태스크가 대표 태스크로서 선택될 수 있다. 예를 들어, 태스크들 간 거리는 확률 분포 거리 또는 KLD(Kullback-Leibler divergence)에 기반하여 결정될 수 있다.
전술한 실시예들에서, 대표 태스크로서, 그룹 별 하나의 태스크만이 선택된다. 하지만, 다른 실시예에 따라, 적어도 하나의 그룹에서 복수의 태스크들이 선택될 수 있다. 예를 들어, 그룹에 속한 태스크의 개수에 따라 해당 그룹에서 선택되는 대표 태스크의 개수가 달라질 수 있다. 또는, 전체 태스크들의 개수에 따라, 적어도 하나의 그룹에서 복수의 대표 태스크들이 선택될 수 있다.
전술한 바와 같이, 본 개시는, 송신기 및 수신기를 신경망으로 구현함으로써 종단 간(end-to-end) 메시지를 신경망을 이용하여 전달하는 무선 통신 시스템에서, 송신 채널 및 수신 채널이 변화하는 경우 양쪽의 신경망들에 대한 온라인 메타 학습을 수행할 수 있는 방안을 제안하였다. 특히, 본 개시는 송신기의 메타 온라인 러닝에 대한 피드백 비용을 최소화하는 방안을 제시하였다. 수신기가 송신기의 메타 신경망을 기준 신호 태스크로부터 내부 루프에서 평가함으로써, 유효한 태스크를 선별하고, 선별된 일부만을 이용하여 훈련에 대한 손실을 송신기에 전달함으로써, 피드백 비용을 절약할 수 있다. 유효한 태스크는 내부 루프에서 얻어진 파라미터 집합에 대해 클러스터링을 통하여 선택될 수 있다. 대표 태스크 파라미터를 선택함으로써, 메타 파라미터와의 오차가 최소화되고, 메타 학습의 장점이 극대화될 수 있다.
상기 설명한 제안 방식에 대한 일례들 또한 본 개시의 구현 방법들 중 하나로 포함될 수 있으므로, 일종의 제안 방식들로 간주될 수 있음은 명백한 사실이다. 또한, 상기 설명한 제안 방식들은 독립적으로 구현될 수도 있지만, 일부 제안 방식들의 조합 (또는 병합) 형태로 구현될 수도 있다. 상기 제안 방법들의 적용 여부 정보 (또는 상기 제안 방법들의 규칙들에 대한 정보)는 기지국이 단말에게 사전에 정의된 시그널 (예: 물리 계층 시그널 또는 상위 계층 시그널)을 통해서 알려주도록 규칙이 정의될 수 있다.
본 개시는 본 개시에서 서술하는 기술적 아이디어 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 개시의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 개시의 등가적 범위 내에서의 모든 변경은 본 개시의 범위에 포함된다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.
본 개시의 실시예들은 다양한 무선접속 시스템에 적용될 수 있다. 다양한 무선접속 시스템들의 일례로서, 3GPP(3rd Generation Partnership Project) 또는 3GPP2 시스템 등이 있다.
본 개시의 실시예들은 상기 다양한 무선접속 시스템뿐 아니라, 상기 다양한 무선접속 시스템을 응용한 모든 기술 분야에 적용될 수 있다. 나아가, 제안한 방법은 초고주파 대역을 이용하는 mmWave, THz 통신 시스템에도 적용될 수 있다.
추가적으로, 본 개시의 실시예들은 자유 주행 차량, 드론 등 다양한 애플리케이션에도 적용될 수 있다.
Claims (18)
- 무선 통신 시스템에서 UE(user equipment)의 동작 방법에 있어서,기준 신호들에 관련된 설정 정보를 수신하는 단계;제1 기준 신호들을 수신하는 단계;상기 제1 기준 신호들에 대응하는 제1 피드백 정보를 송신하는 단계;제2 기준 신호들을 수신하는 단계;상기 제2 기준 신호들에 대응하는 제2 피드백 정보를 송신하는 단계를 포함하며,상기 제1 기준 신호들 및 상기 제2 기준 신호들은, 수신되는 신호를 처리하기 위한 수신기에 관련된 적어도 하나의 파라미터를 설정하기 위해 사용되고,상기 설정 정보는, 메타 학습(meta learning)을 위해 사용되는 태스크들, 훈련을 위한 배치 크기(batch size), 상기 수신기에 포함되는 모델의 파라미터의 최적화 방식, 내부 루프(inner loop)를 위해 사용되는 적어도 하나의 태스크, 외부 루프(outer loop)를 위해 사용되는 적어도 하나의 태스크 중 적어도 하나를 포함하는 방법.
- 청구항 1에 있어서,상기 제1 피드백 정보는, 기지국의 송신기에 관련된 적어도 하나의 파라미터를 설정하기 위해 사용되는 손실(loss) 정보를 포함하는 방법.
- 청구항 1에 있어서,상기 제1 기준 신호들을 이용하여 복수의 태스크(task)들 각각을 위한 태스크 모델 파라미터들을 결정하는 단계;상기 태스크 모델 파라미터들에 기반하여 메타 모델 파라미터를 결정하는 단계를 더 포함하는 방법.
- 청구항 1에 있어서,상기 제1 피드백 정보는, 상기 제1 기준 신호들에 대응하는 복수의 태스크들 중 일부인 적어도 하나의 태스크에 관련된 손실 정보를 포함하는 방법.
- 청구항 4에 있어서,복수의 태스크들을 위한 기지국의 송신기 신경망들을 확인하는 단계;상기 제1 기준 신호들 및 상기 송신기 신경망들에 기반하여 상기 송신기 신경망들을 위한 태스크 모델 파라미터들을 결정하는 단계;상기 태스크 모델 파라미터들에 기반하여 상기 적어도 하나의 태스크를 결정하는 단계를 더 포함하는 방법.
- 청구항 5에 있어서,상기 송신기 신경망들을 위한 태스크 모델 파라미터들을 클러스터링함으로써 복수의 그룹들로 분류하는 단계;상기 그룹들 각각에서 적어도 하나의 태스크를 선택함으로써 상기 적어도 하나의 태스크를 결정하는 단계를 더 포함하는 방법.
- 청구항 5에 있어서,상기 설정 정보는, 상기 송신기 신경망들에 관련된 정보를 더 포함하는 방법.
- 청구항 1에 있어서,상기 제1 기준 신호들은, 메타 학습의 내부 루프를 위해 사용됨으로써, 태스크 별 태스크 모델 파라미터들을 결정하기 위해 사용되고,상기 제2 기준 신호들은, 메타 학습의 외부 루프를 위해 사용됨으로써, 메타 모델 파라미터를 결정하기 위해 사용되는 방법.
- 무선 통신 시스템에서 기지국의 동작 방법에 있어서,기준 신호들에 관련된 설정 정보를 송신하는 단계;제1 기준 신호들을 송신하는 단계;상기 제1 기준 신호들에 대응하는 제1 피드백 정보를 수신하는 단계;제2 기준 신호들을 송신하는 단계;상기 제2 기준 신호들에 대응하는 제2 피드백 정보를 수신하는 단계를 포함하며,상기 제1 기준 신호들 및 상기 제2 기준 신호들은, 송신되는 신호를 처리하기 위한 송신기에 관련된 적어도 하나의 파라미터를 설정하기 위해 사용되고,상기 설정 정보는, 메타 학습(meta learning)을 위해 사용되는 태스크들, 훈련을 위한 배치 크기(batch size), UE(user equipment)의 수신기에 포함되는 모델의 파라미터의 최적화 방식, 내부 루프(inner loop)를 위해 사용되는 적어도 하나의 태스크, 외부 루프(outer loop)를 위해 사용되는 적어도 하나의 태스크 중 적어도 하나를 포함하는 방법.
- 청구항 9에 있어서,상기 제1 피드백 정보는, 기지국의 송신기에 관련된 적어도 하나의 파라미터를 설정하기 위해 사용되는 손실(loss) 정보를 포함하는 방법.
- 청구항 9에 있어서,상기 제1 피드백 정보에 포함된 손실 정보를 이용하여 복수의 태스크(task)들 각각을 위한 태스크 모델 파라미터들을 결정하는 단계;상기 제2 피드백 정보에 포함된 손실 정보 및 상기 태스크 모델 파라미터들에 기반하여 메타 모델 파라미터를 결정하는 단계를 더 포함하는 방법.
- 청구항 9에 있어서,상기 제1 피드백 정보는, 상기 제1 기준 신호들에 대응하는 복수의 태스크들 중 일부인 적어도 하나의 태스크에 관련된 손실 정보를 포함하는 방법.
- 청구항 9에 있어서,상기 설정 정보는, 상기 기지국의 송신기 신경망들에 관련된 정보를 더 포함하는 방법.
- 청구항 9에 있어서,상기 제1 기준 신호들은, 메타 학습의 내부 루프를 위해 사용됨으로써, 태스크 별 태스크 모델 파라미터들을 결정하기 위해 사용되고,상기 제2 기준 신호들은, 메타 학습의 외부 루프를 위해 사용됨으로써, 메타 모델 파라미터를 결정하기 위해 사용되는 방법.
- 무선 통신 시스템에서 UE(user equipment)에 있어서,송수신기; 및상기 송수신기와 연결된 프로세서를 포함하며,상기 프로세서는,기준 신호들에 관련된 설정 정보를 수신하고,제1 기준 신호들을 수신하고,상기 제1 기준 신호들에 대응하는 제1 피드백 정보를 송신하고,제2 기준 신호들을 수신하고,상기 제2 기준 신호들에 대응하는 제2 피드백 정보를 송신하도록 제어하고,상기 제1 기준 신호들 및 상기 제2 기준 신호들은, 수신되는 신호를 처리하기 위한 수신기에 관련된 적어도 하나의 파라미터를 설정하기 위해 사용되고,상기 설정 정보는, 메타 학습(meta learning)을 위해 사용되는 태스크들, 훈련을 위한 배치 크기(batch size), 상기 수신기에 포함되는 모델의 파라미터의 최적화 방식, 내부 루프(inner loop)를 위해 사용되는 적어도 하나의 태스크, 외부 루프(outer loop)를 위해 사용되는 적어도 하나의 태스크 중 적어도 하나를 포함하는 UE.
- 무선 통신 시스템에서 기지국에 있어서,송수신기; 및상기 송수신기와 연결된 프로세서를 포함하며,상기 프로세서는,기준 신호들에 관련된 설정 정보를 송신하고,제1 기준 신호들을 송신하고,상기 제1 기준 신호들에 대응하는 제1 피드백 정보를 수신하고,제2 기준 신호들을 송신하고,상기 제2 기준 신호들에 대응하는 제2 피드백 정보를 수신하도록 제어하고,상기 제1 기준 신호들 및 상기 제2 기준 신호들은, 송신되는 신호를 처리하기 위한 송신기에 관련된 적어도 하나의 파라미터를 설정하기 위해 사용되고,상기 설정 정보는, 메타 학습(meta learning)을 위해 사용되는 태스크들, 훈련을 위한 배치 크기(batch size), UE(user equipment)의 수신기에 포함되는 모델의 파라미터의 최적화 방식, 내부 루프(inner loop)를 위해 사용되는 적어도 하나의 태스크, 외부 루프(outer loop)를 위해 사용되는 적어도 하나의 태스크 중 적어도 하나를 포함하는 기지국.
- 통신 장치에 있어서,적어도 하나의 프로세서;상기 적어도 하나의 프로세서와 연결되며, 상기 적어도 하나의 프로세서에 의해 실행됨에 따라 동작들을 지시하는 명령어를 저장하는 적어도 하나의 컴퓨터 메모리를 포함하며,상기 동작들은,기준 신호들에 관련된 설정 정보를 수신하는 단계;제1 기준 신호들을 수신하는 단계;상기 제1 기준 신호들에 대응하는 제1 피드백 정보를 송신하는 단계;제2 기준 신호들을 수신하는 단계;상기 제2 기준 신호들에 대응하는 제2 피드백 정보를 송신하는 단계를 포함하며,상기 제1 기준 신호들 및 상기 제2 기준 신호들은, 수신되는 신호를 처리하기 위한 수신기에 관련된 적어도 하나의 파라미터를 설정하기 위해 사용되고,상기 설정 정보는, 메타 학습(meta learning)을 위해 사용되는 태스크들, 훈련을 위한 배치 크기(batch size), 상기 수신기에 포함되는 모델의 파라미터의 최적화 방식, 내부 루프(inner loop)를 위해 사용되는 적어도 하나의 태스크, 외부 루프(outer loop)를 위해 사용되는 적어도 하나의 태스크 중 적어도 하나를 포함하는 통신 장치.
- 적어도 하나의 명령어(instructions)을 저장하는 비-일시적인(non-transitory) 컴퓨터 판독 가능 매체(computer-readable medium)에 있어서,프로세서에 의해 실행 가능한(executable) 상기 적어도 하나의 명령어를 포함하며,상기 적어도 하나의 명령어는, 장치가,기준 신호들에 관련된 설정 정보를 수신하고,제1 기준 신호들을 수신하고,상기 제1 기준 신호들에 대응하는 제1 피드백 정보를 송신하고,제2 기준 신호들을 수신하고,상기 제2 기준 신호들에 대응하는 제2 피드백 정보를 송신하도록 제어하고,상기 제1 기준 신호들 및 상기 제2 기준 신호들은, 수신되는 신호를 처리하기 위한 수신기에 관련된 적어도 하나의 파라미터를 설정하기 위해 사용되고,상기 설정 정보는, 메타 학습(meta learning)을 위해 사용되는 태스크들, 훈련을 위한 배치 크기(batch size), 상기 수신기에 포함되는 모델의 파라미터의 최적화 방식, 내부 루프(inner loop)를 위해 사용되는 적어도 하나의 태스크, 외부 루프(outer loop)를 위해 사용되는 적어도 하나의 태스크 중 적어도 하나를 포함하는 컴퓨터 판독 가능 매체.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020247010152A KR20240125547A (ko) | 2021-12-13 | 2022-11-24 | 무선 통신 시스템에서 송수신기 모델에 대한 온라인 학습을 수행하기 위한 장치 및 방법 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2021-0177975 | 2021-12-13 | ||
KR20210177975 | 2021-12-13 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2023113282A1 true WO2023113282A1 (ko) | 2023-06-22 |
Family
ID=86772965
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2022/018697 WO2023113282A1 (ko) | 2021-12-13 | 2022-11-24 | 무선 통신 시스템에서 송수신기 모델에 대한 온라인 학습을 수행하기 위한 장치 및 방법 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20240125547A (ko) |
WO (1) | WO2023113282A1 (ko) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100600673B1 (ko) * | 2003-12-18 | 2006-07-18 | 한국전자통신연구원 | 이동 통신 시스템에서의 채널 품질 정보 요청 및 보고방법, 그리고 그 장치 |
KR20200119179A (ko) * | 2019-04-09 | 2020-10-19 | 애니파이 주식회사 | 품질 예측 기반의 동적 무선 네트워크 가변 접속을 제공하는 무선 단말 장치 및 그 동작 방법 |
KR102204783B1 (ko) * | 2020-07-09 | 2021-01-18 | 전남대학교산학협력단 | 딥러닝 기반의 빔포밍 통신 시스템 및 방법 |
KR20210103912A (ko) * | 2020-02-14 | 2021-08-24 | 삼성전자주식회사 | 뉴럴 네트워크를 학습시키는 학습 방법 및 장치, 뉴럴 네트워크를 이용한 데이터 처리 방법 및 장치 |
KR20210117611A (ko) * | 2020-03-19 | 2021-09-29 | 엘지전자 주식회사 | Ai를 이용한 이동통신 방법 |
-
2022
- 2022-11-24 WO PCT/KR2022/018697 patent/WO2023113282A1/ko unknown
- 2022-11-24 KR KR1020247010152A patent/KR20240125547A/ko unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100600673B1 (ko) * | 2003-12-18 | 2006-07-18 | 한국전자통신연구원 | 이동 통신 시스템에서의 채널 품질 정보 요청 및 보고방법, 그리고 그 장치 |
KR20200119179A (ko) * | 2019-04-09 | 2020-10-19 | 애니파이 주식회사 | 품질 예측 기반의 동적 무선 네트워크 가변 접속을 제공하는 무선 단말 장치 및 그 동작 방법 |
KR20210103912A (ko) * | 2020-02-14 | 2021-08-24 | 삼성전자주식회사 | 뉴럴 네트워크를 학습시키는 학습 방법 및 장치, 뉴럴 네트워크를 이용한 데이터 처리 방법 및 장치 |
KR20210117611A (ko) * | 2020-03-19 | 2021-09-29 | 엘지전자 주식회사 | Ai를 이용한 이동통신 방법 |
KR102204783B1 (ko) * | 2020-07-09 | 2021-01-18 | 전남대학교산학협력단 | 딥러닝 기반의 빔포밍 통신 시스템 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR20240125547A (ko) | 2024-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022250221A1 (ko) | 무선 통신 시스템에서 신호 전송 방법 및 장치 | |
WO2022050468A1 (ko) | 무선 통신 시스템에서 연합학습을 수행하는 방법 및 이를 위한 장치 | |
WO2022039295A1 (ko) | 무선 통신 시스템에서 하향링크를 전처리하는 방법 및 이를 위한 장치 | |
WO2023095932A1 (ko) | 시맨틱 기반 무선 통신 시스템에서 데이터를 전송하는 방법, 전송 기기, 프로세싱 장치 및 저장 매체, 그리고 데이터를 수신하는 방법, 수신 기기 및 저장 매체 | |
WO2022092859A1 (ko) | 무선 통신 시스템에서 스플릿 포인트 조정을 위한 장치 및 방법 | |
WO2023027311A1 (ko) | 무선 통신 시스템에서 핸드오버를 수행하기 위한 장치 및 방법 | |
WO2022050565A1 (ko) | 무선 통신 시스템에서 핸드오버를 위한 장치 및 방법 | |
WO2023008596A1 (ko) | 무선 통신 시스템에서 통화 서비스의 폴백을 수행하기 위한 장치 및 방법 | |
WO2023113282A1 (ko) | 무선 통신 시스템에서 송수신기 모델에 대한 온라인 학습을 수행하기 위한 장치 및 방법 | |
WO2022050444A1 (ko) | 연합학습을 위한 통신방법 및 이를 수행하는 디바이스 | |
WO2024122667A1 (ko) | 무선 통신 시스템에서 앙상블 모델 기반의 수신기에 대한 학습을 수행하기 위한 장치 및 방법 | |
WO2023022251A1 (ko) | 무선 통신 시스템에서 신호 전송 방법 및 장치 | |
WO2024122694A1 (ko) | 무선 통신 시스템에서 수신기에 대한 학습을 수행하기 위한 장치 및 방법 | |
WO2024019184A1 (ko) | 무선 통신 시스템에서 송수신기 모델에 대한 학습을 수행하기 위한 장치 및 방법 | |
WO2024150861A1 (ko) | 무선 통신 시스템에서 송수신기 모델에 대한 온라인 학습을 수행하기 위한 장치 및 방법 | |
WO2022260200A1 (ko) | 무선 통신 시스템에서 배터리 효율을 고려하여 핸드오버를 수행하기 위한 장치 및 방법 | |
WO2024117296A1 (ko) | 무선 통신 시스템에서 조절 가능한 파라미터를 가지는 송수신기를 이용하여 신호를 송수신하기 위한 방법 및 장치 | |
WO2023120781A1 (ko) | 무선 통신 시스템에서 신호 전송을 위한 장치 및 방법 | |
WO2024048816A1 (ko) | 무선 통신 시스템에서 신호를 송수신하기 위한 장치 및 방법 | |
WO2022270649A1 (ko) | 무선 통신 시스템에서 음성 통신을 수행하기 위한 장치 및 방법 | |
WO2023033421A1 (ko) | 무선 통신 시스템에서 폴라 코드 기반의 인코더를 설정하기 위한 장치 및 방법 | |
WO2024167035A1 (ko) | 시맨틱 통신에서 시맨틱 표현에 기반하여 배경 지식 업데이트를 수행하기 위한 장치 및 방법 | |
WO2023090615A1 (ko) | 무선 통신 시스템에서 다중 사용자 프리코딩을 수행하기 위한 장치 및 방법 | |
WO2023042941A1 (ko) | 무선 통신 시스템에서 신호 전송 방법 및 장치 | |
WO2022260189A1 (ko) | 무선 통신 시스템에서 신호를 송수신하는 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22907751 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |