WO2022025303A1 - Method for performing joint reasoning in wireless communication system, and apparatus therefor - Google Patents

Method for performing joint reasoning in wireless communication system, and apparatus therefor Download PDF

Info

Publication number
WO2022025303A1
WO2022025303A1 PCT/KR2020/009839 KR2020009839W WO2022025303A1 WO 2022025303 A1 WO2022025303 A1 WO 2022025303A1 KR 2020009839 W KR2020009839 W KR 2020009839W WO 2022025303 A1 WO2022025303 A1 WO 2022025303A1
Authority
WO
WIPO (PCT)
Prior art keywords
terminal
terminals
server
model
data
Prior art date
Application number
PCT/KR2020/009839
Other languages
French (fr)
Korean (ko)
Inventor
이종구
김성진
김일환
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2020/009839 priority Critical patent/WO2022025303A1/en
Publication of WO2022025303A1 publication Critical patent/WO2022025303A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Definitions

  • the present specification relates to a method and apparatus for performing federated inference in a wireless communication system.
  • DL deep learning
  • AI artificial intelligence
  • ML machine learning
  • a framework that sends data acquired from a terminal to the cloud as it is has various problems.
  • the present specification provides a method for performing joint inference in a wireless communication system that obtains more accurate estimation results by collecting estimation results performed by a plurality of devices that have limitations in complicated calculation and estimation due to limitations in battery and hardware, and a method thereof It aims to implement the device.
  • An object of the present invention is to implement a method and an apparatus for performing federated inference in a wireless communication system.
  • the method according to an embodiment of the present specification includes receiving specific values for joint inference from two or more terminals, and performing a classification operation using the received specific values and a global AI model stored in a memory.
  • the method may further include creating one or more terminal groups including at least some of the two or more terminals.
  • the terminal group may be grouped based on at least one of (i) identification information of a local AI model stored in the terminal, (ii) location information of the terminal, or (iii) CSI (Channel State Information). .
  • each terminal group may have a different local AI model.
  • the local AI model is a neural network model including one or more layers having one or more nodes and a non-linenar activatoin layer, and the specific value is an input value of the non-linear activation layer or It may be any one of the output values.
  • the nonlinear activation layer may be a first softmax layer.
  • the method further comprises the step of selecting any one of the terminals included in the terminal group as a master UE, wherein the two or more terminals transmitting a specific value for the joint inference are configured only with the representative terminal.
  • a method includes receiving specific values for joint inference from two or more external terminals, generating an intermediate value using the received specific values and a local AI model stored in a memory, and the and transmitting the generated intermediate value to a server for federated inference.
  • a terminal includes one or more transceivers, one or more processors, and one or more memories connected to the one or more processors and storing instructions, the instructions being sent to the one or more processors.
  • the operations include: the operation of receiving specific values for federated inference from two or more external terminals, the received specific values and the local AI model stored in the memory and generating an intermediate value by using the intermediate value and transmitting the generated intermediate value to a server for federated inference.
  • more accurate estimation results may be obtained by collecting estimation results performed by a plurality of devices having limitations in complicated calculation and estimation due to limitations in battery and hardware.
  • the present specification can minimize the data transmission amount and power consumption of each terminal and increase the accuracy of the final estimation when performing an estimation operation in a server or a terminal performing a server function using data obtained from a plurality of terminals have.
  • 1 illustrates physical channels and general signal transmission used in a 3GPP system.
  • FIG. 2 is a diagram illustrating an example of a communication structure that can be provided in a 6G system.
  • 5 illustrates a deep neural network structure
  • FIG. 6 illustrates a convolutional neural network structure
  • FIG. 7 illustrates a filter operation in a convolutional neural network.
  • FIG. 8 illustrates a neural network structure in which a cyclic loop exists.
  • FIG. 9 illustrates the operational structure of a recurrent neural network.
  • FIG. 11 shows an example of a THz communication application.
  • FIG 12 shows an example of an electronic device-based THz wireless communication transceiver.
  • FIG. 13 shows an example of a method for generating an optical device-based THz signal.
  • FIG 14 shows an example of an optical element-based THz wireless communication transceiver.
  • 15 illustrates a photonic source based transmitter structure.
  • FIG 16 illustrates the structure of an optical modulator.
  • 17 is a flowchart of an associative inference method according to various embodiments of the present specification.
  • 18 to 20 are exemplary views of the associative reasoning method of FIG. 17 .
  • 20 to 22 are exemplary diagrams of various classification algorithms of the associative inference method of FIG. 17 .
  • 21 to 23 are exemplary diagrams of various classification algorithms of the associative inference method of FIG. 17 .
  • 24 is a flowchart of a learning method of an AI model according to an embodiment of the present specification.
  • 25 to 27 are exemplary diagrams of the learning method of FIG. 24 .
  • 29 illustrates a wireless device applicable to this specification.
  • CDMA may be implemented with a radio technology such as Universal Terrestrial Radio Access (UTRA) or CDMA2000.
  • TDMA may be implemented with a radio technology such as Global System for Mobile communications (GSM)/General Packet Radio Service (GPRS)/Enhanced Data Rates for GSM Evolution (EDGE).
  • GSM Global System for Mobile communications
  • GPRS General Packet Radio Service
  • EDGE Enhanced Data Rates for GSM Evolution
  • OFDMA may be implemented with a radio technology such as IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802-20, Evolved UTRA (E-UTRA), and the like.
  • UTRA is part of the Universal Mobile Telecommunications System (UMTS).
  • 3GPP 3rd Generation Partnership Project
  • Long Term Evolution is a part of Evolved UMTS (E-UMTS) using E-UTRA and LTE-A (Advanced)/LTE-A pro is an evolved version of 3GPP LTE.
  • 3GPP NR New Radio or New Radio Access Technology
  • 3GPP 6G may be an evolved version of 3GPP NR.
  • LTE refers to technology after 3GPP TS 36.xxx Release 8.
  • LTE technology after 3GPP TS 36.xxx Release 10 is referred to as LTE-A
  • LTE technology after 3GPP TS 36.xxx Release 13 is referred to as LTE-A pro
  • 3GPP NR refers to technology after TS 38.
  • 3GPP 6G may refer to technology after TS Release 17 and/or Release 18.
  • xxx stands for standard document detail number.
  • LTE/NR/6G may be collectively referred to as a 3GPP system.
  • RRC Radio Resource Control
  • RRC Radio Resource Control
  • a terminal receives information through a downlink (DL) from a base station, and the terminal transmits information through an uplink (UL) to the base station.
  • Information transmitted and received between the base station and the terminal includes data and various control information, and various physical channels exist according to the type/use of the information they transmit and receive.
  • the terminal When the terminal is powered on or newly enters a cell, the terminal performs an initial cell search operation, such as synchronizing with the base station (S11). To this end, the terminal receives a primary synchronization signal (PSS) and a secondary synchronization signal (SSS) from the base station, synchronizes with the base station, and obtains information such as a cell ID. Thereafter, the terminal may receive a physical broadcast channel (PBCH) from the base station to obtain intra-cell broadcast information. On the other hand, the UE may receive a downlink reference signal (DL RS) in the initial cell search step to check the downlink channel state.
  • PSS primary synchronization signal
  • SSS secondary synchronization signal
  • PBCH physical broadcast channel
  • DL RS downlink reference signal
  • the UE After the initial cell search, the UE receives a Physical Downlink Control Channel (PDCCH) and a Physical Downlink Control Channel (PDSCH) according to information carried on the PDCCH to obtain more specific system information. It can be done (S12).
  • PDCH Physical Downlink Control Channel
  • PDSCH Physical Downlink Control Channel
  • the terminal may perform a random access procedure (RACH) for the base station (S13 to S16).
  • RACH Random Access procedure
  • the UE transmits a specific sequence as a preamble through a Physical Random Access Channel (PRACH) (S13 and S15), and a response message to the preamble through the PDCCH and the corresponding PDSCH ((Random Access (RAR)) Response) message)
  • PRACH Physical Random Access Channel
  • RAR Random Access
  • a contention resolution procedure may be additionally performed (S16).
  • the UE After performing the procedure as described above, the UE performs PDCCH/PDSCH reception (S17) and Physical Uplink Shared Channel (PUSCH)/Physical Uplink Control Channel (Physical Uplink) as a general uplink/downlink signal transmission procedure.
  • Control Channel (PUCCH) transmission (S18) may be performed.
  • the UE may receive downlink control information (DCI) through the PDCCH.
  • DCI downlink control information
  • the DCI includes control information such as resource allocation information for the terminal, and different formats may be applied according to the purpose of use.
  • control information that the terminal transmits to the base station through the uplink or the terminal receives from the base station includes a downlink/uplink ACK/NACK signal, a channel quality indicator (CQI), a precoding matrix index (PMI), and a rank indicator (RI). ) and the like.
  • the UE may transmit the above-described control information such as CQI/PMI/RI through PUSCH and/or PUCCH.
  • the base station transmits a related signal to the terminal through a downlink channel to be described later, and the terminal receives the related signal from the base station through a downlink channel to be described later.
  • PDSCH Physical Downlink Shared Channel
  • PDSCH carries downlink data (eg, DL-shared channel transport block, DL-SCH TB), and modulation methods such as Quadrature Phase Shift Keying (QPSK), 16 Quadrature Amplitude Modulation (QAM), 64 QAM, and 256 QAM are available. applies.
  • QPSK Quadrature Phase Shift Keying
  • QAM 16 Quadrature Amplitude Modulation
  • a codeword is generated by encoding the TB.
  • a PDSCH can carry multiple codewords. Scrambling and modulation mapping are performed for each codeword, and modulation symbols generated from each codeword are mapped to one or more layers (Layer mapping). Each layer is mapped to a resource together with a demodulation reference signal (DMRS), is generated as an OFDM symbol signal, and is transmitted through a corresponding antenna port.
  • DMRS demodulation reference signal
  • the PDCCH carries downlink control information (DCI) and a QPSK modulation method is applied.
  • DCI downlink control information
  • One PDCCH is composed of 1, 2, 4, 8, 16 CCEs (Control Channel Elements) according to an Aggregation Level (AL).
  • One CCE consists of six REGs (Resource Element Groups).
  • One REG is defined as one OFDM symbol and one (P)RB.
  • the UE obtains DCI transmitted through the PDCCH by performing decoding (aka, blind decoding) on the set of PDCCH candidates.
  • a set of PDCCH candidates decoded by the UE is defined as a PDCCH search space set.
  • the search space set may be a common search space or a UE-specific search space.
  • the UE may acquire DCI by monitoring PDCCH candidates in one or more search space sets configured by MIB or higher layer signaling.
  • the terminal transmits a related signal to the base station through an uplink channel to be described later, and the base station receives the related signal from the terminal through an uplink channel to be described later.
  • PUSCH Physical Uplink Shared Channel
  • PUSCH carries uplink data (eg, UL-shared channel transport block, UL-SCH TB) and/or uplink control information (UCI), and CP-OFDM (Cyclic Prefix - Orthogonal Frequency Division Multiplexing) waveform (waveform) , DFT-s-OFDM (Discrete Fourier Transform - spread - Orthogonal Frequency Division Multiplexing) is transmitted based on the waveform.
  • the PUSCH is transmitted based on the DFT-s-OFDM waveform
  • the UE transmits the PUSCH by applying transform precoding.
  • the UE when transform precoding is not possible (eg, transform precoding is disabled), the UE transmits a PUSCH based on the CP-OFDM waveform, and when transform precoding is possible (eg, transform precoding is enabled), the UE transmits the CP-OFDM PUSCH may be transmitted based on a waveform or a DFT-s-OFDM waveform.
  • PUSCH transmission is dynamically scheduled by a UL grant in DCI, or based on higher layer (eg, RRC) signaling (and/or Layer 1 (L1) signaling (eg, PDCCH)) semi-statically. Can be scheduled (configured grant).
  • PUSCH transmission may be performed on a codebook-based or non-codebook-based basis.
  • the PUCCH carries uplink control information, HARQ-ACK and/or a scheduling request (SR), and may be divided into a plurality of PUCCHs according to the PUCCH transmission length.
  • SR scheduling request
  • 6G (wireless) systems have (i) very high data rates per device, (ii) very large number of connected devices, (iii) global connectivity, (iv) very low latency, (v) battery- It aims to reduce energy consumption of battery-free IoT devices, (vi) ultra-reliable connections, and (vii) connected intelligence with machine learning capabilities.
  • the vision of the 6G system can be in four aspects: intelligent connectivity, deep connectivity, holographic connectivity, and ubiquitous connectivity, and the 6G system can satisfy the requirements shown in Table 1 below. That is, Table 1 is a table showing an example of the requirements of the 6G system.
  • FIG. 2 is a diagram showing an example of a communication structure that can be provided in a 6G system.
  • eMBB Enhanced mobile broadband
  • URLLC Ultra-reliable low latency communications
  • mMTC massive machine-type communication
  • AI integrated communication Tactile internet, High throughput, High network capacity, High energy efficiency, Low backhaul and It may have key factors such as access network congestion and enhanced data security.
  • FIG. 2 is a diagram showing an example of a communication structure that can be provided in a 6G system.
  • 6G systems are expected to have 50 times higher simultaneous wireless connectivity than 5G wireless communication systems.
  • URLLC a key feature of 5G, will become an even more important technology by providing an end-to-end delay of less than 1ms in 6G communication.
  • 6G systems will have much better volumetric spectral efficiencies as opposed to frequently used areal spectral efficiencies.
  • the 6G system can provide very long battery life and advanced battery technology for energy harvesting, so mobile devices will not need to be charged separately in the 6G system.
  • New network characteristics in 6G may be as follows.
  • 6G is expected to be integrated with satellites to provide a global mobile population.
  • the integration of terrestrial, satellite and public networks into one wireless communication system is very important for 6G.
  • AI may be applied in each step of a communication procedure (or each procedure of signal processing to be described later).
  • the 6G wireless network will deliver power to charge the batteries of devices such as smartphones and sensors. Therefore, wireless information and energy transfer (WIET) will be integrated.
  • WIET wireless information and energy transfer
  • Small cell networks The idea of small cell networks was introduced to improve the received signal quality as a result of improved throughput, energy efficiency and spectral efficiency in cellular systems. As a result, small cell networks are essential characteristics for communication systems beyond 5G and Beyond 5G (5GB). Accordingly, the 6G communication system also adopts the characteristics of the small cell network.
  • Ultra-dense heterogeneous networks will be another important characteristic of 6G communication systems.
  • a multi-tier network composed of heterogeneous networks improves overall QoS and reduces costs.
  • a backhaul connection is characterized as a high-capacity backhaul network to support high-capacity traffic.
  • High-speed fiber optics and free-space optics (FSO) systems may be possible solutions to this problem.
  • High-precision localization (or location-based service) through communication is one of the functions of the 6G wireless communication system. Therefore, the radar system will be integrated with the 6G network.
  • Softening and virtualization are two important features that underlie the design process in 5GB networks to ensure flexibility, reconfigurability and programmability. In addition, billions of devices can be shared in a shared physical infrastructure.
  • AI The most important and newly introduced technology for 6G systems is AI.
  • AI was not involved in the 4G system.
  • 5G systems will support partial or very limited AI.
  • the 6G system will be AI-enabled for full automation.
  • Advances in machine learning will create more intelligent networks for real-time communication in 6G.
  • Incorporating AI into communications can simplify and enhance real-time data transmission.
  • AI can use numerous analytics to determine how complex target tasks are performed. In other words, AI can increase efficiency and reduce processing delays.
  • AI can also play an important role in M2M, machine-to-human and human-to-machine communication.
  • AI can be a rapid communication in BCI (Brain Computer Interface).
  • BCI Brain Computer Interface
  • AI-based communication systems can be supported by metamaterials, intelligent structures, intelligent networks, intelligent devices, intelligent cognitive radios, self-sustaining wireless networks, and machine learning.
  • AI-based physical layer transmission means applying a signal processing and communication mechanism based on an AI driver rather than a traditional communication framework in a fundamental signal processing and communication mechanism.
  • deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO mechanism, AI-based resource scheduling and It may include an allocation (allocation) and the like.
  • Machine learning may be used for channel estimation and channel tracking, and may be used for power allocation, interference cancellation, and the like in a physical layer of a downlink (DL). In addition, machine learning may be used for antenna selection, power control, symbol detection, and the like in a MIMO system.
  • DL downlink
  • machine learning may be used for antenna selection, power control, symbol detection, and the like in a MIMO system.
  • Deep learning-based AI algorithms require large amounts of training data to optimize training parameters.
  • a lot of training data is used offline. This is because static training on training data in a specific channel environment may cause a contradiction between dynamic characteristics and diversity of a wireless channel.
  • signals of the physical layer of wireless communication are complex signals.
  • further research on a neural network for detecting a complex domain signal is needed.
  • Machine learning refers to a set of actions that trains a machine to create a machine that can perform tasks that humans can or cannot do.
  • Machine learning requires data and a learning model.
  • data learning methods can be roughly divided into three types: supervised learning, unsupervised learning, and reinforcement learning.
  • Neural network learning is to minimize output errors. Neural network learning repeatedly inputs learning data into the neural network, calculates the output and target errors of the neural network for the training data, and backpropagates the neural network error from the output layer of the neural network to the input layer in the direction to reduce the error. ) to update the weight of each node in the neural network.
  • Supervised learning uses training data in which the correct answer is labeled in the training data, and in unsupervised learning, the correct answer may not be labeled in the training data. That is, for example, learning data in the case of supervised learning related to data classification may be data in which categories are labeled for each of the training data.
  • the labeled training data is input to the neural network, and an error can be calculated by comparing the output (category) of the neural network with the label of the training data.
  • the calculated error is back propagated in the reverse direction (ie, from the output layer to the input layer) in the neural network, and the connection weight of each node of each layer of the neural network may be updated according to the back propagation.
  • a change amount of the connection weight of each node to be updated may be determined according to a learning rate.
  • the computation of the neural network on the input data and the backpropagation of errors can constitute a learning cycle (epoch).
  • the learning rate may be applied differently depending on the number of repetitions of the learning cycle of the neural network. For example, in the early stage of learning a neural network, a high learning rate can be used to increase the efficiency by allowing the neural network to quickly obtain a certain level of performance, and in the late learning period, a low learning rate can be used to increase the accuracy.
  • the learning method may vary depending on the characteristics of the data. For example, when the purpose of accurately predicting data transmitted from a transmitter in a communication system is at a receiver, it is preferable to perform learning using supervised learning rather than unsupervised learning or reinforcement learning.
  • the learning model corresponds to the human brain, and the most basic linear model can be considered. ) is called
  • the neural network cord used as a learning method is largely divided into deep neural networks (DNN), convolutional deep neural networks (CNN), and recurrent boltzmann machine (RNN) methods. have.
  • DNN deep neural networks
  • CNN convolutional deep neural networks
  • RNN recurrent boltzmann machine
  • An artificial neural network is an example of connecting several perceptrons.
  • the huge artificial neural network structure may extend the simplified perceptron structure shown in FIG. 3 to apply input vectors to different multidimensional perceptrons.
  • an input value or an output value is referred to as a node.
  • the perceptron structure shown in FIG. 3 can be described as being composed of a total of three layers based on an input value and an output value.
  • An artificial neural network in which H (d+1)-dimensional perceptrons exist between the 1st layer and the 2nd layer and K (H+1)-dimensional perceptrons exist between the 2nd layer and the 3rd layer can be expressed as shown in FIG. 4 .
  • the layer where the input vector is located is called the input layer
  • the layer where the final output value is located is called the output layer
  • all the layers located between the input layer and the output layer are called hidden layers.
  • three layers are disclosed, but when counting the actual number of artificial neural network layers, the input layer is counted except for the input layer, so it can be viewed as a total of two layers.
  • the artificial neural network is constructed by connecting the perceptrons of the basic blocks in two dimensions.
  • the aforementioned input layer, hidden layer, and output layer can be jointly applied in various artificial neural network structures such as CNN and RNN to be described later as well as multi-layer perceptron.
  • various artificial neural network structures such as CNN and RNN to be described later as well as multi-layer perceptron.
  • the artificial neural network becomes deeper, and a machine learning paradigm that uses a sufficiently deep artificial neural network as a learning model is called deep learning.
  • an artificial neural network used for deep learning is called a deep neural network (DNN).
  • DNN deep neural network
  • the deep neural network shown in FIG. 5 is a multilayer perceptron composed of eight hidden layers + output layers.
  • the multi-layered perceptron structure is referred to as a fully-connected neural network.
  • a connection relationship does not exist between nodes located in the same layer, and a connection relationship exists only between nodes located in adjacent layers.
  • DNN has a fully connected neural network structure and is composed of a combination of a number of hidden layers and activation functions, so it can be usefully applied to figure out the correlation between input and output.
  • the correlation characteristic may mean a joint probability of input/output.
  • nodes located inside one layer are arranged in a one-dimensional vertical direction.
  • the nodes are two-dimensionally arranged with w horizontally and h vertical nodes (convolutional neural network structure of FIG. 6 ).
  • a weight is added per connection in the connection process from one input node to the hidden layer, a total of h ⁇ w weights must be considered.
  • h ⁇ w nodes in the input layer a total of h 2 w 2 weights are needed between two adjacent layers.
  • the convolutional neural network of FIG. 6 has a problem in that the number of weights increases exponentially according to the number of connections, so instead of considering the connection of all modes between adjacent layers, it is assumed that a filter with a small size exists in FIG. 7 As in Fig., the weighted sum and activation function calculations are performed on the overlapping filters.
  • One filter has a weight corresponding to the number corresponding to its size, and weight learning can be performed so that a specific feature on an image can be extracted and output as a factor.
  • a filter with a size of 3 ⁇ 3 is applied to the upper left 3 ⁇ 3 region of the input layer, and an output value obtained by performing weighted sum and activation function operations on the corresponding node is stored in z22.
  • the filter performs weight sum and activation function calculations while moving horizontally and vertically at regular intervals while scanning the input layer, and places the output value at the current filter position.
  • a calculation method is similar to a convolution operation on an image in the field of computer vision, so a deep neural network with such a structure is called a convolutional neural network (CNN), and a hidden layer generated as a result of a convolution operation is called a convolutional layer.
  • a neural network having a plurality of convolutional layers is called a deep convolutional neural network (DCNN).
  • the number of weights can be reduced by calculating the weighted sum by including only nodes located in the region covered by the filter in the node where the filter is currently located. Due to this, one filter can be used to focus on features for a local area. Accordingly, CNN can be effectively applied to image data processing in which physical distance in a two-dimensional domain is an important criterion. Meanwhile, in CNN, a plurality of filters may be applied immediately before the convolution layer, and a plurality of output results may be generated through the convolution operation of each filter.
  • a structure in which this method is applied to an artificial neural network is called a recurrent neural network structure.
  • a recurrent neural network connects elements (x1(t), x2(t), ,..., xd(t)) of a certain gaze t on a data sequence to a fully connected neural network.
  • the weighted sum and activation function are calculated by inputting the hidden vectors (z1(t-1), z2(t-1),..., zH(t-1)) for the immediately preceding time point t-1 during the input process. structure to be applied.
  • the reason why the hidden vector is transferred to the next time point in this way is that information in the input vector at previous time points is considered to be accumulated in the hidden vector of the current time point.
  • the recurrent neural network operates in a predetermined time sequence with respect to an input data sequence.
  • the hidden vector (z1(1),z2(1),.. .,zH(1)) is input together with the input vector (x1(2),x2(2),...,xd(2)) of time 2, and then the vector of the hidden layer (z1( 2),z2(2) ,...,zH(2)) are determined. This process is repeatedly performed until time point 2, time point 3, ,, and time point T.
  • a deep recurrent neural network when a plurality of hidden layers are arranged in a recurrent neural network, this is called a deep recurrent neural network (DRNN).
  • the recurrent neural network is designed to be usefully applied to sequence data (eg, natural language processing).
  • Deep Q-Network As a neural network core used as a learning method, in addition to DNN, CNN, and RNN, Restricted Boltzmann Machine (RBM), deep belief networks (DBN), Deep Q-Network and It includes various deep learning techniques such as, and can be applied to fields such as computer vision, voice recognition, natural language processing, and voice/signal processing.
  • RBM Restricted Boltzmann Machine
  • DNN deep belief networks
  • Deep Q-Network includes various deep learning techniques such as, and can be applied to fields such as computer vision, voice recognition, natural language processing, and voice/signal processing.
  • AI-based physical layer transmission means applying a signal processing and communication mechanism based on an AI driver rather than a traditional communication framework in a fundamental signal processing and communication mechanism.
  • deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO mechanism, AI-based resource scheduling and It may include an allocation (allocation) and the like.
  • the data rate can be increased by increasing the bandwidth. This can be accomplished by using sub-THz communication with a wide bandwidth and applying advanced large-scale MIMO technology.
  • THz waves also known as sub-millimeter radiation, typically exhibit a frequency band between 0.1 THz and 10 THz with corresponding wavelengths in the range of 0.03 mm-3 mm.
  • the 100GHz-300GHz band range (Sub THz band) is considered a major part of the THz band for cellular communication.
  • Sub-THz band Addition to mmWave band increases 6G cellular communication capacity.
  • 300GHz-3THz is in the far-infrared (IR) frequency band.
  • the 300GHz-3THz band is part of the broadband, but at the edge of the wideband, just behind the RF band. Thus, this 300 GHz-3 THz band shows similarities to RF. 10 shows an example of an electromagnetic spectrum.
  • THz communication The main characteristics of THz communication include (i) widely available bandwidth to support very high data rates, and (ii) high path loss occurring at high frequencies (high directional antennas are indispensable).
  • the narrow beamwidth produced by the highly directional antenna reduces interference.
  • the small wavelength of the THz signal allows a much larger number of antenna elements to be integrated into devices and BSs operating in this band. This allows the use of advanced adaptive nesting techniques that can overcome range limitations.
  • OWC technology is envisioned for 6G communications in addition to RF-based communications for all possible device-to-access networks. These networks connect to network-to-backhaul/fronthaul network connections.
  • OWC technology has already been used since the 4G communication system, but will be used more widely to meet the needs of the 6G communication system.
  • OWC technologies such as light fidelity, visible light communication, optical camera communication, and FSO communication based on a light band are well known technologies.
  • Communication based on optical radio technology can provide very high data rates, low latency and secure communication.
  • LiDAR can also be used for ultra-high-resolution 3D mapping in 6G communication based on wide bands.
  • FSO The transmitter and receiver characteristics of an FSO system are similar to those of a fiber optic network.
  • data transmission in an FSO system is similar to that of a fiber optic system. Therefore, FSO can be a good technology to provide backhaul connectivity in 6G systems along with fiber optic networks.
  • FSO supports high-capacity backhaul connections for remote and non-remote areas such as sea, space, underwater, and isolated islands.
  • FSO also supports cellular BS connectivity.
  • MIMO technology improves, so does the spectral efficiency. Therefore, large-scale MIMO technology will be important in 6G systems. Since the MIMO technology uses multiple paths, a multiplexing technique and a beam generation and operation technique suitable for the THz band should also be considered important so that a data signal can be transmitted through one or more paths.
  • Blockchain will become an important technology for managing large amounts of data in future communication systems.
  • Blockchain is a form of distributed ledger technology, which is a database distributed across numerous nodes or computing devices. Each node replicates and stores an identical copy of the ledger.
  • the blockchain is managed as a peer-to-peer network. It can exist without being managed by a centralized authority or server. Data on the blockchain is collected together and organized into blocks. Blocks are linked together and protected using encryption.
  • Blockchain in nature perfectly complements IoT at scale with improved interoperability, security, privacy, reliability and scalability. Therefore, blockchain technology provides several features such as interoperability between devices, traceability of large amounts of data, autonomous interaction of different IoT systems, and large-scale connection stability of 6G communication systems.
  • the 6G system integrates terrestrial and public networks to support vertical expansion of user communications.
  • 3D BS will be provided via low orbit satellites and UAVs. Adding a new dimension in terms of elevation and associated degrees of freedom makes 3D connections significantly different from traditional 2D networks.
  • UAVs Unmanned Aerial Vehicles
  • a BS entity is installed in the UAV to provide cellular connectivity.
  • UAVs have certain features not found in fixed BS infrastructure, such as easy deployment, strong line-of-sight links, and degrees of freedom with controlled mobility.
  • eMBB enhanced Mobile Broadband
  • URLLC Universal Mobile Broadband
  • mMTC massive Machine Type Communication
  • Tight integration of multiple frequencies and heterogeneous communication technologies is very important in 6G systems. As a result, users can seamlessly move from one network to another without having to make any manual configuration on the device. The best network is automatically selected from the available communication technologies. This will break the limitations of the cell concept in wireless communication. Currently, user movement from one cell to another causes too many handovers in high-density networks, causing handover failures, handover delays, data loss and ping-pong effects. 6G cell-free communication will overcome all of this and provide better QoS. Cell-free communication will be achieved through multi-connectivity and multi-tier hybrid technologies and different heterogeneous radios of devices.
  • WIET uses the same fields and waves as wireless communication systems.
  • the sensor and smartphone will be charged using wireless power transfer during communication.
  • WIET is a promising technology for extending the life of battery-charging wireless systems. Therefore, devices without batteries will be supported in 6G communication.
  • An autonomous wireless network is a function that can continuously detect dynamically changing environmental conditions and exchange information between different nodes.
  • sensing will be tightly integrated with communications to support autonomous systems.
  • the density of access networks in 6G will be enormous.
  • Each access network is connected by backhaul connections such as fiber optic and FSO networks.
  • backhaul connections such as fiber optic and FSO networks.
  • Beamforming is a signal processing procedure that adjusts an antenna array to transmit a radio signal in a specific direction.
  • Beamforming technology has several advantages such as high call-to-noise ratio, interference prevention and rejection, and high network efficiency.
  • Hologram beamforming (HBF) is a new beamforming method that is significantly different from MIMO systems because it uses a software-defined antenna. HBF will be a very effective approach for efficient and flexible transmission and reception of signals in multi-antenna communication devices in 6G.
  • Big data analytics is a complex process for analyzing various large data sets or big data. This process ensures complete data management by finding information such as hidden data, unknown correlations and customer propensity. Big data is gathered from a variety of sources such as videos, social networks, images and sensors. This technology is widely used to process massive amounts of data in 6G systems.
  • the linearity is strong, so there may be many shaded areas due to obstructions.
  • the LIS technology that expands the communication area, strengthens communication stability and enables additional additional services becomes important.
  • the LIS is an artificial surface made of electromagnetic materials, and can change the propagation of incoming and outgoing radio waves.
  • LIS can be seen as an extension of massive MIMO, but the array structure and operation mechanism are different from those of massive MIMO.
  • LIS has low power consumption in that it operates as a reconfigurable reflector with passive elements, that is, only passively reflects the signal without using an active RF chain.
  • each of the passive reflectors of the LIS must independently adjust the phase shift of the incoming signal, it can be advantageous for a wireless communication channel.
  • the reflected signal can be gathered at the target receiver to boost the received signal power.
  • THz Terahertz
  • THz wave is located between RF (Radio Frequency)/millimeter (mm) and infrared band, (i) It transmits non-metal/non-polar material better than visible light/infrared light, and has a shorter wavelength than RF/millimeter wave, so it has high straightness. Beam focusing may be possible.
  • the photon energy of the THz wave is only a few meV, it is harmless to the human body.
  • the frequency band expected to be used for THz wireless communication may be a D-band (110 GHz to 170 GHz) or H-band (220 GHz to 325 GHz) band with low propagation loss due to absorption of molecules in the air.
  • the standardization discussion on THz wireless communication is being discussed centered on the IEEE 802.15 THz working group in addition to 3GPP, and the standard documents issued by the IEEE 802.15 Task Group (TG3d, TG3e) may specify or supplement the content described in this specification. have.
  • THz wireless communication may be applied to wireless recognition, sensing, imaging, wireless communication, THz navigation, and the like.
  • FIG. 11 is a diagram showing an example of THz communication application.
  • a THz wireless communication scenario may be classified into a macro network, a micro network, and a nanoscale network.
  • THz wireless communication can be applied to vehicle-to-vehicle connection and backhaul/fronthaul connection.
  • THz wireless communication in micro networks is applied to indoor small cells, fixed point-to-point or multi-point connections such as wireless connections in data centers, and near-field communication such as kiosk downloading.
  • Table 2 below is a table showing an example of a technique that can be used in the THz wave.
  • THz wireless communication can be classified based on a method for generating and receiving THz.
  • the THz generation method can be classified into an optical device or an electronic device-based technology.
  • 12 is a diagram illustrating an example of an electronic device-based THz wireless communication transceiver.
  • a method of generating THz using an electronic device includes a method using a semiconductor device such as a Resonant Tunneling Diode (RTD), a method using a local oscillator and a multiplier, and an integrated circuit based on a compound semiconductor HEMT (High Electron Mobility Transistor).
  • MMIC Monolithic Microwave Integrated Circuits
  • a doubler, tripler, or multiplier is applied to increase the frequency, and it is radiated by the antenna through the subharmonic mixer. Since the THz band forms a high frequency, a multiplier is essential.
  • the multiplier is a circuit that has an output frequency that is N times that of the input, matches the desired harmonic frequency, and filters out all other frequencies.
  • beamforming may be implemented by applying an array antenna or the like to the antenna of FIG. 12 .
  • IF denotes an intermediate frequency
  • tripler denote a multiplier
  • PA Power Amplifier denotes
  • LNA denotes a low noise amplifier
  • PLL denotes a phase lock circuit (Phase). -Locked Loop).
  • FIG. 13 is a diagram illustrating an example of a method of generating an optical device-based THz signal
  • FIG. 14 is a diagram illustrating an example of an optical device-based THz wireless communication transceiver.
  • Optical device-based THz wireless communication technology refers to a method of generating and modulating a THz signal using an optical device.
  • the optical element-based THz signal generation technology is a technology that generates a high-speed optical signal using a laser and an optical modulator, and converts it into a THz signal using an ultra-high-speed photodetector.
  • it is easier to increase the frequency compared to the technology using only electronic devices, it is possible to generate a high-power signal, and it is possible to obtain a flat response characteristic in a wide frequency band.
  • a laser diode, a broadband optical modulator, and a high-speed photodetector are required to generate an optical device-based THz signal. In the case of FIG.
  • an optical coupler refers to a semiconductor device that uses light waves to transmit electrical signals to provide coupling with electrical insulation between circuits or systems
  • UTC-PD Uni-Traveling Carrier Photo-) Detector
  • UTC-PD is one of the photodetectors, which uses electrons as active carriers and reduces the movement time of electrons by bandgap grading.
  • UTC-PD is capable of photodetection above 150GHz.
  • EDFA Erbium-Doped Fiber Amplifier
  • PD Photo Detector
  • OSA various optical communication functions (photoelectric It represents an optical module (Optical Sub Aassembly) in which conversion, electro-optical conversion, etc.) are modularized into one component
  • DSO represents a digital storage oscilloscope.
  • FIGS. 15 and 16 illustrate the structure of the photoelectric converter (or photoelectric converter) will be described with reference to FIGS. 15 and 16 .
  • 15 illustrates a structure of a photoinc source-based transmitter
  • FIG. 16 illustrates a structure of an optical modulator.
  • a phase of a signal may be changed by passing an optical source of a laser through an optical wave guide. At this time, data is loaded by changing electrical characteristics through a microwave contact or the like. Accordingly, an optical modulator output is formed as a modulated waveform.
  • the photoelectric modulator (O/E converter) is an optical rectification operation by a nonlinear crystal (nonlinear crystal), photoelectric conversion (O / E conversion) by a photoconductive antenna (photoconductive antenna), a bunch of electrons in the light beam (bunch of) THz pulses can be generated by, for example, emission from relativistic electrons.
  • a terahertz pulse (THz pulse) generated in the above manner may have a length in units of femtoseconds to picoseconds.
  • An O/E converter performs down conversion by using non-linearity of a device.
  • a number of contiguous GHz bands for fixed or mobile service use for the terahertz system are used. likely to use
  • available bandwidth may be classified based on oxygen attenuation of 10 ⁇ 2 dB/km in a spectrum up to 1 THz. Accordingly, a framework in which the available bandwidth is composed of several band chunks may be considered.
  • the bandwidth (BW) becomes about 20 GHz.
  • Effective down conversion from the IR band to the THz band depends on how the nonlinearity of the O/E converter is utilized. That is, in order to down-convert to a desired terahertz band (THz band), the O/E converter having the most ideal non-linearity for transfer to the terahertz band (THz band) is design is required. If an O/E converter that does not fit the target frequency band is used, there is a high possibility that an error may occur with respect to the amplitude and phase of the corresponding pulse.
  • a terahertz transmission/reception system may be implemented using one photoelectric converter. Although it depends on the channel environment, as many photoelectric converters as the number of carriers may be required in a far-carrier system. In particular, in the case of a multi-carrier system using several broadbands according to the above-described spectrum usage-related scheme, the phenomenon will become conspicuous. In this regard, a frame structure for the multi-carrier system may be considered.
  • the down-frequency-converted signal based on the photoelectric converter may be transmitted in a specific resource region (eg, a specific frame).
  • the frequency domain of the specific resource region may include a plurality of chunks. Each chunk may be composed of at least one component carrier (CC).
  • the above salpin 6G communication technology may be applied in combination with the method or apparatus proposed in the present specification to be described later, or may be supplemented to specify or clarify the technical characteristics of the methods proposed in the present specification.
  • the joint inference method proposed in the present specification may be applied in combination with communication services by 3G, 4G, and 5G technologies as well as the 6G communication technology described above.
  • 17 is a flowchart of an associative inference method according to various embodiments of the present specification.
  • the associative inference method may be implemented by one or more processors included in a terminal or a server as a wireless communication system.
  • a base station or terminal includes one or more memories storing instructions, one or more transceivers, and one or more processors, wherein the one or more processors support operations for associative inference.
  • the following specification describes operations by one or more processors of the terminal.
  • the server receives specific values for federated inference from terminals included in the federated inference system (S1710).
  • the server receives specific values for federated inference from two or more terminals.
  • the two or more terminals may be a master UE of a terminal group including a plurality of terminals. That is, assuming a communication environment in which a plurality of terminals exist, the server may not receive specific values from all of the plurality of terminals, but may receive specific values only from a representative terminal that is a part of the plurality of terminals.
  • the server or the terminal may create a terminal group through a control signal before receiving specific values, and select any one of terminals included in the created terminal group as a representative terminal.
  • the server or terminal may create one or more terminal groups including at least some of the two or more terminals (S1720).
  • the terminal group is configured based on a predetermined parameter.
  • the terminal group may be grouped based on at least one of identification information of a local AI model stored in the terminal, location information of the terminal, and CSI.
  • the local AI model refers to a model for generating the specific value by first receiving raw data.
  • the local AI model refers to a neural network (NN) model including one or more layers including one or more nodes and a nonlinear activation layer.
  • NN neural network
  • the server may transmit a control signal for generation of a terminal group to terminals located within a cell of the base station. Transmission of the control signal by the server may be performed in response to receiving a message requesting association inference from the requesting terminal in the cell. That is, upon receiving a request for federated inference from the requesting terminal, the server performs grouping for all terminals in the cell, and the grouped terminal groups transmit a specific value to the server to support the federated inference.
  • terminals may perform a terminal group using device to device (D2D) communication. That is, the terminal group is created by transmitting and receiving predetermined parameters for generating the aforementioned terminal group according to sidelink communication.
  • D2D device to device
  • two or more terminal groups created by the server or terminal may exist.
  • two or more terminals may have a first local AI model with a first local AI model. group and may be grouped into a second group with a second local AI model.
  • the specific value refers to any one of an input value or an output value of the nonlinear activation layer, and in another embodiment, the specific value refers to an input value or an output value of a layer other than the nonlinear activation layer You may.
  • the deactivation layer may be a softmax layer.
  • the softmax layer may calculate a probability value for data applied to the input layer of the local AI model.
  • the probability value means a probability value for each class that has been previously learned for a classification operation. The highest value among these probability values may be subsequently selected through the argmax function, and the classification result will be determined as an entity or class corresponding to the highest probability value.
  • the server performs a classification operation using the received specific values and the global AI model stored in the memory (S1730).
  • the global AI model refers to the AI model stored in the server's memory.
  • the global AI model may be a result of federated inference and other federated learning. Unlike the local AI model, the global AI model is not personalized according to users.
  • the global AI model may be implemented as a weighted sum model or a deep neural network model.
  • the weighted sum model refers to a model for assigning a preset weight to specific values received from the server, and adding the weighted specific values.
  • the preset weight may be set differently according to the type of terminal group that transmits a specific value to the server. For example, a first weight may be assigned to a specific value received from the first group, and a second weight may be assigned to a specific value received from the second group.
  • the result value calculated using the weighted sum model is then converted into probability values for a plurality of classes by the softmax layer. Any one of the probability values is selected based on the argmax function, and a classification result is generated as information corresponding to the selected probability value.
  • the deep neural network model unlike the weighted sum model, is an artificial neural network model composed of a plurality of layers.
  • specific values received from a server When specific values received from a server are provided to an input layer, it passes through one or more hidden layers and outputs a result value from an output layer.
  • the result value corresponds to a kind of weighted sum, and a subsequent process is the same as the above-described weighted sum model, and thus a description thereof will be omitted.
  • one device calculates a probability value for each class using an AI model stored in a memory, and a classification operation is performed based on the calculated probability value.
  • the method unlike this operation, allows one device to transmit an intermediate value generated in the process of calculating a probability value using an AI model to another device or the probability value to another device. .
  • different intermediate values or probability values can be received from a plurality of devices before final inference is performed at the last stage, more accurate inference results can be calculated as well as the computing performance of a single device. It has the advantage of being able to overcome limitations.
  • the local AI model may be used interchangeably with the local model
  • the global AI model may be used interchangeably with the global model
  • 18 to 20 are exemplary views of the associative reasoning method of FIG. 17 .
  • 18 exemplifies a method of inferring by collecting the intermediate or final values of the AI model in the server
  • FIGS. 19 and 20 illustrate a method of inferring by collecting the intermediate or final values in the server terminal (Server UE) do.
  • a plurality of terminals 1821a, 1821b, 1823, 1831a, 1831b, 1831c, 1833 connected to a server 1850 and a wireless or wired communication network cooperate for the same purpose artificial intelligence-based inference (Inference) can do.
  • Each of the terminals 1821a, 1821b, 1823, 1831a, 1831b, 1831c, and 1833 has AI models 1829 and 1839 for artificial intelligence-based inference in one or more memories.
  • Each terminal stores different AI models 1829 and 1839 in memory based on the performance (eg, computing power) of the processor provided in each terminal.
  • the first AI model stored in the first terminal may be more complex than the second AI model of the second terminal.
  • the first and second AI models have structures that are distinct from each other, and as a result, even when the same input data 1810 is applied, different outputs may be output.
  • one or more terminals having the same AI model may form one group.
  • the plurality of terminals 1821a, 1821b, 1823, 1831a, 1831b, 1831c, and 1833 illustrated in FIG. 18 have a first group 1820 and a second group 1830 according to the types of AI models 1829 and 1839. ) as an example.
  • the first and second groups 1820 and 1830 are classified based on the types of the AI models 1829 and 1839 .
  • the structures of the AI models 1829 and 1839 stored in each terminal are stored differently based on the performance of the processor.
  • a plurality of terminals (1821a, 1821b, 1823, 1831a, 1831b, 1831c, 1833) obtain the same target data (Target Data, 1810), the target data stored in each memory AI model ( 1829, 1839) as input. Thereafter, the plurality of terminals 1821a, 1821b, 1823, 1831a, 1831b, 1831c, 1833, by one or more processors, using the AI models 1829 and 1839 data in response to the input of the target data can be transmitted
  • the data is data for final reasoning.
  • the target data includes data for multiple viewpoints on the same target. As such, as a result of using data from multiple viewpoints for the same target, even if the AI model used by each terminal for AI processing is the same, the inference result for the target may be different depending on the viewpoint of each terminal.
  • the layer where the input vector is located is the input layer
  • the layer where the final output value is located is the output layer
  • all hidden layers located between the input layer and the output layer. ) is included.
  • the data for final inference includes an intermediate value input to the output layer or the final output value.
  • the server 1850 collects a plurality of data received from a plurality of terminals 1821a, 1821b, 1823, 1831a, 1831b, 1831c, 1833 to generate a final output related to the target data 1810, and the final inference result is It is determined based on the final output.
  • the final output is performed based on a technique using a class-wise sum or a technique using a class-based average and a deep neural network.
  • the final reasoning result refers to a result corresponding to the highest value by comparing the final output. Specific details on this will be described with reference to FIGS. 21 to 23 .
  • the embodiments of the present specification are not limited to connection with the server 1850 . Even if there is no server 1850 that collects data for final reasoning, some embodiments of the present specification may generate the same final reasoning result using a terminal functioning as the server 1850 .
  • the terminal performing the function of the server 1850 is defined as a server terminal (Server UE).
  • the server terminal 1933 performing the same function performs inference by adding data for final inference.
  • the server terminal 1933 may be selected based on a preset priority.
  • the priority is determined based on the performance of the processor, the battery performance, and the remaining amount of the plurality of terminals (1921a, 1921b, 1921c, 1931a, 1931b, 1931c, 1933).
  • the priority since there may be cases where there are two or more terminals with the best performance by comparing the performance, the priority may be set to a terminal having excellent communication channel quality according to the distance between the terminals and the base station. .
  • the system of FIG. 20 further includes one or more representative terminals (Master UEs, 2023 and 2033 ) selected for each group as compared with FIG. 19 .
  • the representative terminals 2023 and 2033 refer to terminals that collect data for final inference from groups 2020 and 2030 consisting of two or more terminals having the same AI model 2029 and 2039.
  • the representative terminals 2023 and 2033 may increase or decrease according to the number of groups. Accordingly, in a system including two or more groups, the representative terminal may include two or more representative terminals corresponding to the number of the groups. In an embodiment, any one of the two or more representative terminals may be selected as the server terminal 2033 .
  • the representative terminal 2023 or the server terminal 2033 may be determined based on a preset priority.
  • the priority is determined based on at least one of processor information (eg, processor performance information) of the terminal, battery performance and residual amount, and communication channel quality according to a distance between the terminal and the base station.
  • the representative terminal 2023 is determined by comparing priorities between two or more terminals included in a group.
  • the server terminal 1933 is determined by comparing the priorities between two or more representative terminals 2023 and 2033 included in the system.
  • the terminal applied to the federated inference method may selectively perform any one function of the representative terminal or the server terminal.
  • the first terminal may check the connection state with the server for federated inference based on information related to the communication environment. If the server is not identified, the first terminal may request transmission of specific values for federated inference to two or more second terminals. That is, when there is no terminal serving as a server, the first terminal serves to collect information in order to reduce the load on the terminal that will serve as a server.
  • the first terminal performs a classification operation using the specific values received in response to the request and a pre-trained local AI model, or jointly infers an aggregated value calculated based on the specific values. may be transmitted to a third terminal for At this time, if the classification operation is performed, the first terminal can be regarded as performing a function as a server terminal, and if the operation of transmitting to the third terminal is performed, the first terminal performs a function as a representative terminal rather than a server terminal it can be seen that
  • the first and second terminals may constitute one terminal group, and the third terminal may belong to another terminal group other than the terminal group.
  • the terminal group may be grouped based on at least one of (i) identification information of a local AI model stored in the terminal, (ii) location information of the terminal, or (iii) CSI (Channel State Information).
  • each terminal group may have a different local AI model, and the local AI model includes one or more layers including one or more nodes and a non-linear activation layer. It is a neural network model that includes The specific value is either an input value or an output value of the nonlinear activation layer, in order to more effectively implement the advantage of the above-described joint inference method.
  • the nonlinear activation layer may be a softmax layer.
  • any one of the first operation of performing the above-described classification operation or the second operation of transmitting the aggregated value to the third terminal includes processor performance, battery performance, and remaining battery capacity provided in the first to third terminals. It may be selectively determined based on at least a part of That is, the first terminal may determine whether it is the most suitable terminal as a server terminal based on at least a part of processor performance, battery performance, and residual amount of terminals belonging to a terminal group different from that of the terminal group to which the first terminal belongs. If the first terminal has the best performance among one or more terminals to be checked, the first terminal will perform the classification operation, otherwise, other terminals may support the classification operation.
  • server terminal of FIGS. 19 and 20 is not limited to performing the function of the server, and may transmit data for final inference received from other terminals to the server.
  • the associative inference method uses various techniques for final inference. Various techniques for the final inference will be described with reference to FIGS. 21 to 23 below.
  • 21 to 23 are exemplary diagrams of various classification algorithms of the associative inference method of FIG. 17 .
  • FIGS. 21 to 23 may be combined with the above-described various embodiments of FIGS. 18 to 20 .
  • the devices of the groups shown in FIGS. 21 to 23 correspond to the groups of devices shown in FIGS. 18 to 20 .
  • the server of FIGS. 21 to 23 corresponds to the server of FIG. 18 or the server terminal of FIGS. 19 and 20 .
  • a metric transmitted to the server 2150 or the representative terminal may be an output value of a softmax layer.
  • the metric indicates the degree of similarity between two or more matrices or vectors.
  • the metric is a distance between two or more matrices or vectors in a vector space through an operation between matrices or vectors, and indicates the degree of similarity between vectors.
  • the metric is generated as an output when input data is provided to the input layer of a neural network for machine learning. That is, the metric may be different according to the weight and bias of the neural network trained to output a target result.
  • one or more terminals transmit the metric to the server 2150, but is not limited thereto.
  • one or more terminals may transmit a vector value or a matrix value that is an input value or an output value of the softmax layers 2129s and 2139s of the AI models 2129 and 2139 in addition to the above metrics.
  • two or more terminals form one or more groups based on the types of AI models 2129 and 2139 stored in the memory.
  • terminals of Group A 2120 have a first AI model 2129
  • terminals of Group B 2130 have a second AI model 2139 .
  • the first model 2129 and the second model 2139 have different neural network structures.
  • the terminals of the group A 2120 and the terminals of the group B 2130 transmit the metric Pi generated using the first AI model 2129 and the second AI model 2139, respectively, to the server 2150.
  • the transmitted metric is a value that has passed through the softmax layers 2129s and 2139s of each AI model 2129 and 2139 and has a real value between 0 and 1.
  • the values of the metric for each class are summed in the server 2150 through a class-wise sum, and preset weights are given to the sum.
  • the preset weights may have different values for each group of the aforementioned terminals. For example, a weight A( ⁇ A ) is given to the class-specific sum of metrics received from Group A 2120 , and a weight B( ⁇ B ) is given to the class-specific sum of metrics received from Group B 2130 . can be given.
  • the server 2150 may calculate the final result by summing the respective weighted result values.
  • the server 2150 may calculate a classification result corresponding to any one of a plurality of classes through the argmax function 2252 .
  • the metric transmitted to the server 2150 may be an input value rather than an output value of the softmax layers 2129s and 2139s.
  • the metric transmitted to the server 2150 may be an input value rather than an output value of the softmax layers 2129s and 2139s.
  • the metric may be an input value of the softmax layers 2229s and 2239s.
  • the embodiment of FIG. 22 has some differences in that an operation of removing the offset of the metric transmitted to the server 2250 and the metric received from the server 2250 is additionally performed, and the rest of the common parts are those of FIG. Since it overlaps with the embodiment, it is omitted.
  • the server 2250 additionally performs an operation of removing the offset before the class-by-class sum, unlike the exemplary embodiment of FIG. 21 . This is because the values that do not pass through the softmax layers 2229s and 2239s do not have a value within the range of 0 to 1 and may have various distributions according to the neural network model.
  • the server 2250 selects the largest metric value for each group as an offset so that the range of the metric received for each group is within the same range, and additionally performs an operation of subtracting it.
  • input values of the softmax layers 2229s and 2239s may be calculated as shown in FIG. 22 .
  • the server 2250 does not perform an offset removal operation, and a logarithmic operation is required instead. If all of the weights corresponding to each group are fixed to 1, the sum of the input values of the sptmax layer is expressed as a product of the output values associated with the input values.
  • FIGS. 21 and 22 exemplify a case in which the server or the representative terminal generates an inference result from a value calculated by applying a preset weight to a class-wise sum
  • FIG. 23 shows the server or A case in which the representative terminal generates an inference result using a deep neural network (DNN, 2355) is exemplified.
  • DNN deep neural network
  • FIG. 23 stores a deep neural network 2355 .
  • the stored deep neural network 2355 receives parameters received from two or more terminal groups 2320 and 2330 as input, and is used to generate an output for joint inference.
  • the metric received by the server 2350 is either an input value or an output value of the softmax layers 2329s and 2339s illustrated in FIGS. 21 and 22 .
  • the server 2350 calculates a class-wise average for each group.
  • the deep neural network 2355 stored in the server 2350 has three kinds of factors as inputs.
  • the factors include, for example, (1) a metric for which an average value is calculated for each group, (2) reliability for each group, and/or (3) the number of terminals.
  • the metric to which the class-based average is applied is an essential factor, but the reliability for each group and/or the number of terminals is an optional factor. That is, the reliability of each group or the number of terminals may be omitted or added as needed, but when added, the reliability of the federated inference may be further improved.
  • the group-specific reliability refers to an index or factor indicating the performance of an AI model stored or used for each group, and the number of terminals refers to the number of terminals belonging to the group.
  • the intermediate value calculated through the deep neural network 2355 is passed through the softmax layer 2356 and the argmax function 2352 located at the end of the deep neural network by the processor provided in the server 2350, the final result of used for inference.
  • the server 2350 classifies the metrics for each group and calculates a class-based average. Thereafter, the server 2350 provides the average value of the calculated metrics, the reliability of each group, and/or the number of terminals as an input to the deep neural network 2355, and the output of the deep neural network 2355 is a softmax layer ( 2356) to a value between 0 and 1. Finally, the server 2350 compares the output values of the softmax layer 2356 , selects the largest value, and generates information on the result of federated inference as a classification result corresponding to the selected value.
  • the third AI model may be defined as including all of the deep neural network stored in the server 2350 , the softmax layer 2356 and the argmax function 2352 .
  • the performance of estimation may be different depending on the hardware specification and learning algorithm of each terminal, and if the same weight is given to the results of all terminal groups, there may be a problem in that the overall performance is lowered by the results of the group with low performance.
  • the server can evaluate the performance of the AI model for each group and use the index (eg, accuracy, etc.) as reliability. Accordingly, group-specific reliability may be included as one of the input factors of the deep neural network.
  • the server may set a reference number of terminals for normalization and limit the maximum number of terminals. For example, if the reference number of terminals is 100 and the maximum number of terminals is limited to 200, the number of 1 to 200 terminals may be expressed as a real number between 0.01 and 2.0, respectively.
  • the number of inputs to the deep neural network may vary if the number of participating terminal groups is changed in some cases. For example, in a specific situation, two groups of 10 terminals may participate, and in other circumstances, 4 groups of 5 terminals may participate. As such, various combinations may occur according to the number of terminals for each group and the number of groups, and the server may have different deep neural network models for each of the various combinations. That is, the server must have a number of deep heart networks corresponding to the number of combinations. In contrast, in various embodiments of the present specification, the server may repeatedly apply one AI model having two inputs.
  • the result is inferred by first collecting the Group A and Group B, and the final result is obtained by using the inferred result value from the value received from Group C. It is to perform a way of inferring a value.
  • the order of inference for each group may be based on a preset priority, but is not limited thereto.
  • 24 is a flowchart of a learning method of an AI model according to an embodiment of the present specification.
  • the server may check the learning state of the local AI model ( S2410 ). At this time, the server determines whether new learning is required based on the learning state of the local AI model.
  • the learning state refers to data representing the performance of the local AI model.
  • the performance is determined based on the magnitude of the training error and the difference between the training error and the generalization error. For example, if the learning error is not sufficiently small or the difference between the learning error and the generalization error is not sufficiently small, the performance is evaluated as insufficient.
  • the server needs to learn the local AI model, it learns the global AI model and the local AI model using the training dataset (S2410: Yes, S2420).
  • the learning method at this time is the same as a normal supervised learning method. That is, parameters related to both the local AI model and the global AI model are updated by a general supervised learning method. This update may be performed based on a difference between a value calculated according to a loss function or a cost function and a labeled correct answer value.
  • the server transmits the learned local AI model to each individual terminal that has transmitted the local AI model before learning (S2430).
  • each local AI model may be received from a plurality of terminals associated with the federated inference system (S2410: No, S2440).
  • the reason for receiving the local AI model is to provide the values calculated using the local AI models as input data of the global AI model for joint inference with the global AI model, and in this step, Learning is not performed.
  • the server may generate a training dataset including a value (eg, a metric) generated based on the received local AI models ( S2450 ).
  • the training dataset refers to a dataset for training only the global AI model, and is distinguished from other training datasets in this specification.
  • the training dataset in S2450 consists of metrics generated using local AI models received from multiple terminals, and other training datasets in the specification refer to raw data or data processed from the raw data. The other training data sets will be described in the following learning data acquisition method.
  • the server may train the global AI model using the generated training dataset (S2460).
  • one or more terminals each obtain at least a portion of a previously provided data set 2710 , respectively, and transmit the at least a portion of the data 2715-1, ,,, , 2715-5 respectively. It is provided to the input layer of the AI model (2729, 2739).
  • 27 illustrates a case in which each AI model 2729, 2739 is provided in individual terminals 2720, 2730, but each AI model 2729, 2739 is a server ( 2750) and the same operation may be performed only within the server 2750.
  • the server 2750 performs an inference operation using the collected metrics 2752 and 2753 and the AI models 2759 and 2759s provided in the server, and the correct answer value labeled on the initially provided data 2710 (label ) to calculate the gradient for backpropagation.
  • the remaining description of supervised learning using the calculated gradient is omitted because it overlaps with the above description of S2410.
  • the server can efficiently obtain learning data based on the following operations.
  • the server sets parameters necessary for securing learning data related to each terminal.
  • a parameter necessary for securing the data is a threshold probability (P threshold ), a minimum difference (P min-difference ), a data retention time (T retain ), or a flag (flag_newestdat_prior) for checking whether the latest data is prioritized at least one of
  • P threshold threshold probability
  • P min-difference minimum difference
  • T retain data retention time
  • flag flag
  • the P threshold represents a threshold of the highest probability value generated through the softmax layer.
  • the P min-difference represents the threshold of the minimum difference between the highest probability value and the next highest value.
  • the T retain represents the time the data is maintained in the storage space.
  • the flag_newestdat_prior if the value is 1, indicates that the latest data has priority, and if the value is 0, the latest data does not have priority.
  • the terminal stores the training data in a storage space (eg memory) and maintains it during T retain do. If an event to store new data occurs in a state where there is no available storage space in the storage space, the terminal checks the flag.
  • a storage space eg memory
  • the terminal deletes the longest stored data among the data not designated as the preserved data and then stores new data in the free space.
  • Preserved data refers to data that is not deleted even after T retain , and is not deleted even if new data is collected to secure space to store it.
  • the terminal discards new data without storing it. That is, the terminal can manage the storage space by determining whether to store or discard the new data based on the flag for determining whether the data is prioritized.
  • the server requests that each terminal transmit raw data among data already used for learning, or requests that each terminal preserves the raw data.
  • the condition includes a first condition in which the number of terminals that have transmitted an inference result that does not match the final reasoning result of the server is equal to or greater than a set number and a second condition in which a deviation of the inference result between the terminals is equal to or greater than a set value.
  • the server may perform any one of the requested operations when one or more of the first and second conditions are satisfied.
  • the request to transmit the raw data is effective when controlled by the server, and the request to preserve the raw data is effective when controlled by the server terminal serving as the server, but only in that case does not limit
  • each terminal when receiving a request for data transmission from the server, each terminal, if there is the data in the storage space, transmits the data to the server and then deletes the data from the storage space. On the other hand, if there is no data in the storage space, it notifies the server that there is no data. In this case, when the server receives data from each terminal, the server stores the received data.
  • each terminal designates the data as preservation data if there is the data in the storage space.
  • the server receives the stored data stored in each terminal through a predetermined procedure.
  • the stored data may be received by the terminal at a time when the terminal can access the server, or may be manually moved to the server by the user.
  • the secured data may be used as training data through a labeling operation.
  • the communication system 1 applied to the present specification includes a wireless device, a base station, and a network.
  • the wireless device means a device that performs communication using a wireless access technology (eg, 6G, 5G NR (New RAT), LTE (Long Term Evolution)), and may be referred to as a communication/wireless/5G device.
  • the wireless device may include a robot 100a, a vehicle 100b-1, 100b-2, an eXtended Reality (XR) device 100c, a hand-held device 100d, and a home appliance 100e. ), an Internet of Thing (IoT) device 100f, and an AI device/server 400 .
  • the vehicle may include a vehicle equipped with a wireless communication function, an autonomous driving vehicle, a vehicle capable of performing inter-vehicle communication, and the like.
  • the vehicle may include an Unmanned Aerial Vehicle (UAV) (eg, a drone).
  • UAV Unmanned Aerial Vehicle
  • XR devices include AR (Augmented Reality)/VR (Virtual Reality)/MR (Mixed Reality) devices, and include a Head-Mounted Device (HMD), a Head-Up Display (HUD) provided in a vehicle, a television, a smartphone, It may be implemented in the form of a computer, a wearable device, a home appliance, a digital signage, a vehicle, a robot, and the like.
  • the portable device may include a smart phone, a smart pad, a wearable device (eg, a smart watch, smart glasses), a computer (eg, a laptop computer), and the like.
  • Home appliances may include a TV, a refrigerator, a washing machine, and the like.
  • the IoT device may include a sensor, a smart meter, and the like.
  • the base station and the network may be implemented as a wireless device, and the specific wireless device 200a may operate as a base station/network node to other wireless devices.
  • the wireless devices 100a to 100f may be connected to the network 300 through the base station 200 .
  • AI Artificial Intelligence
  • the network 300 may be configured using a 3G network, a 4G (eg, LTE) network, or a 5G (eg, NR) network.
  • the wireless devices 100a to 100f may communicate with each other through the base station 200/network 300, but may also communicate directly (e.g. sidelink communication) without passing through the base station/network.
  • the vehicles 100b-1 and 100b-2 may perform direct communication (e.g. Vehicle to Vehicle (V2V)/Vehicle to everything (V2X) communication).
  • the IoT device eg, sensor
  • the IoT device may communicate directly with other IoT devices (eg, sensor) or other wireless devices 100a to 100f.
  • Wireless communication/connection 150a and 150b may be performed between the wireless devices 100a to 100f/base station 200 - the base station 200/wireless devices 100a to 100f.
  • the wireless communication/connection may be performed through various wireless access technologies (eg, 6G, NR) for uplink/downlink communication 150a and sidelink communication 150b (or D2D communication).
  • the wireless device and the base station/wireless device may transmit/receive wireless signals to each other.
  • the wireless communication/connection 150a and 150b may transmit/receive signals through various physical channels based on all/part of the process of FIG. A1 .
  • various configuration information setting processes for wireless signal transmission/reception various signal processing processes (eg, channel encoding/decoding, modulation/demodulation, resource mapping/demapping, etc.) , at least a part of a resource allocation process may be performed.
  • various signal processing processes eg, channel encoding/decoding, modulation/demodulation, resource mapping/demapping, etc.
  • 29 illustrates a wireless device applicable to this specification.
  • the first wireless device 100 and the second wireless device 200 may transmit/receive wireless signals through various wireless access technologies (eg, 6G, LTE, NR).
  • ⁇ first wireless device 100, second wireless device 200 ⁇ is ⁇ wireless device 100x, base station 200 ⁇ of FIG. 26 and/or ⁇ wireless device 100x, wireless device 100x) ⁇ can be matched.
  • the first wireless device 100 includes one or more processors 102 and one or more memories 104 , and may further include one or more transceivers 106 and/or one or more antennas 108 .
  • the processor 102 controls the memory 104 and/or the transceiver 106 and may be configured to implement the functions, procedures and/or methods described/suggested above. For example, the processor 102 may process information in the memory 104 to generate first information/signal, and then transmit a wireless signal including the first information/signal through the transceiver 106 . In addition, the processor 102 may receive the radio signal including the second information/signal through the transceiver 106 , and then store information obtained from signal processing of the second information/signal in the memory 104 .
  • the memory 104 may be connected to the processor 102 and may store various information related to the operation of the processor 102 .
  • the memory 104 may store software code including instructions for performing some or all of the processes controlled by the processor 102 , or for performing the procedures and/or methods described/suggested above.
  • the processor 102 and the memory 104 may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, 6G, LTE, NR).
  • the transceiver 106 may be coupled to the processor 102 , and may transmit and/or receive wireless signals via one or more antennas 108 .
  • the transceiver 106 may include a transmitter and/or a receiver.
  • the transceiver 106 may be used interchangeably with a radio frequency (RF) unit.
  • RF radio frequency
  • a wireless device may refer to a communication modem/circuit/chip.
  • the second wireless device 200 includes one or more processors 202 , one or more memories 204 , and may further include one or more transceivers 206 and/or one or more antennas 208 .
  • the processor 202 controls the memory 204 and/or the transceiver 206 and may be configured to implement the functions, procedures, and/or methods described/suggested above. For example, the processor 202 may process the information in the memory 204 to generate third information/signal, and then transmit a wireless signal including the third information/signal through the transceiver 206 . In addition, the processor 202 may receive the radio signal including the fourth information/signal through the transceiver 206 , and then store information obtained from signal processing of the fourth information/signal in the memory 204 .
  • the memory 204 may be connected to the processor 202 and may store various information related to the operation of the processor 202 .
  • the memory 204 may store software code including instructions for performing some or all of the processes controlled by the processor 202 , or for performing the procedures and/or methods described/suggested above.
  • the processor 202 and the memory 204 may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
  • the transceiver 206 may be coupled to the processor 202 and may transmit and/or receive wireless signals via one or more antennas 208 .
  • the transceiver 206 may include a transmitter and/or a receiver.
  • the transceiver 206 may be used interchangeably with an RF unit.
  • a wireless device may refer to a communication modem/circuit/chip.
  • one or more protocol layers may be implemented by one or more processors 102 , 202 .
  • one or more processors 102 , 202 may implement one or more layers (eg, functional layers such as PHY, MAC, RLC, PDCP, RRC, SDAP).
  • the one or more processors 102 and 202 may generate one or more Protocol Data Units (PDUs) and/or one or more Service Data Units (SDUs) according to the functions, procedures, proposals and/or methods disclosed herein.
  • PDUs Protocol Data Units
  • SDUs Service Data Units
  • One or more processors 102 , 202 may generate messages, control information, data, or information according to the functions, procedures, proposals and/or methods disclosed herein.
  • the one or more processors 102 and 202 generate a signal (eg, a baseband signal) including PDUs, SDUs, messages, control information, data or information according to the functions, procedures, proposals and/or methods disclosed herein. , to one or more transceivers 106 and 206 .
  • One or more processors 102 , 202 may receive signals (eg, baseband signals) from one or more transceivers 106 , 206 , PDUs, SDUs, and/or SDUs according to the functions, procedures, proposals and/or methods disclosed herein. , a message, control information, data or information can be obtained.
  • One or more processors 102, 202 may be referred to as a controller, microcontroller, microprocessor, or microcomputer.
  • One or more processors 102 , 202 may be implemented by hardware, firmware, software, or a combination thereof.
  • ASICs Application Specific Integrated Circuits
  • DSPs Digital Signal Processors
  • DSPDs Digital Signal Processing Devices
  • PLDs Programmable Logic Devices
  • FPGAs Field Programmable Gate Arrays
  • the functions, procedures, proposals and/or methods disclosed in this document may be implemented using firmware or software, and the firmware or software may be implemented to include modules, procedures, functions, and the like.
  • Firmware or software configured to perform the functions, procedures, proposals, and/or methods disclosed herein is included in one or more processors 102, 202, or stored in one or more memories 104, 204, to one or more processors 102, 202) can be driven.
  • the functions, procedures, proposals and/or methods disclosed in this document may be implemented using firmware or software in the form of code, instructions, and/or a set of instructions.
  • One or more memories 104 , 204 may be coupled with one or more processors 102 , 202 , and may store various forms of data, signals, messages, information, programs, code, instructions, and/or instructions.
  • the one or more memories 104 and 204 may be comprised of ROM, RAM, EPROM, flash memory, hard drives, registers, cache memory, computer readable storage media, and/or combinations thereof.
  • One or more memories 104 , 204 may be located inside and/or external to one or more processors 102 , 202 . Additionally, one or more memories 104 , 204 may be coupled to one or more processors 102 , 202 through various technologies, such as wired or wireless connections.
  • One or more transceivers 106 , 206 may transmit user data, control information, radio signals/channels, etc. referred to in the methods and/or operational flowcharts of this document to one or more other devices.
  • the one or more transceivers 106 and 206 may receive user data, control information, radio signals/channels, etc. referred to in the functions, procedures, proposals, methods, and/or flowcharts of operations disclosed herein, and the like, from one or more other devices.
  • one or more transceivers 106 , 206 may be coupled to one or more processors 102 , 202 and may transmit and receive wireless signals.
  • one or more processors 102 , 202 may control one or more transceivers 106 , 206 to transmit user data, control information, or wireless signals to one or more other devices.
  • one or more processors 102 , 202 may control one or more transceivers 106 , 206 to receive user data, control information, or wireless signals from one or more other devices.
  • one or more transceivers 106, 206 may be coupled to one or more antennas 108, 208, and the one or more transceivers 106, 206 may be coupled to one or more of the transceivers 106, 206 via the one or more antennas 108, 208 for the functions, procedures, and procedures disclosed herein.
  • one or more antennas may be a plurality of physical antennas or a plurality of logical antennas (eg, antenna ports).
  • the one or more transceivers 106, 206 convert the received radio signal/channel, etc. from the RF band signal to process the received user data, control information, radio signal/channel, etc. using the one or more processors 102, 202. It can be converted into a baseband signal.
  • One or more transceivers 106 and 206 may convert user data, control information, radio signals/channels, etc. processed using one or more processors 102 and 202 from baseband signals to RF band signals.
  • one or more transceivers 106 , 206 may include (analog) oscillators and/or filters.
  • the above-described specification can be implemented as computer-readable code on a medium in which a program is recorded.
  • the computer-readable medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc.
  • HDD Hard Disk Drive
  • SSD Solid State Disk
  • SDD Silicon Disk Drive
  • ROM Read Only Memory
  • RAM Compact Disk Drive
  • CD-ROM Compact Disk Read Only Memory
  • magnetic tape floppy disk
  • optical data storage device etc.
  • carrier wave eg, transmission over the Internet

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

A joint reasoning method is disclosed. A method according to one embodiment of the present specification may comprise the steps of: receiving particular values for joint reasoning from two or more terminals; and performing a classification operation by using the received particular values and a global AI model stored in a memory, and thus an optimal AI processing result can be derived by collecting AI processing result values of a plurality of devices or median values derived in the process thereof. A terminal, a server, and a system of the present specification can be linked to an artificial intelligence module, a drone (unmanned aerial vehicle (UAV)), a robot, an augmented reality (AR) device, a virtual reality (VR) device, a device related to a 5G or 6G service, and the like.

Description

무선 통신 시스템에서 연합 추론을 수행하는 방법 및 그 장치Method and apparatus for performing federated inference in a wireless communication system
본 명세서는 무선 통신 시스템에서 연합 추론을 수행하는 방법 및 그 장치에 관한 것이다.The present specification relates to a method and apparatus for performing federated inference in a wireless communication system.
최근 심층 학습(Deep Learning, DL) 기술의 발달을 동력으로 인공지능(Artificial Intelligence, AI)/머신러닝(Machine Learning, ML) 기술을 적용한 제품과 서비스가 증가되고 있다. 현재 대부분의 제품과 서비스는 단말(User Equipment, UE)에서 획득한 데이터를 클라우드로 전송하고, 클라우드에서 학습과 추정(Inference)을 수행하는 형태로 진행되고 있다.Recently, with the development of deep learning (DL) technology, the number of products and services applied with artificial intelligence (AI)/machine learning (ML) technology is increasing. Currently, most products and services transmit data acquired from user equipment (UE) to the cloud, and perform learning and inference in the cloud.
단말에서 획득한 데이터를 그대로 클라우드로 보내는 프레임워크는 다양한 문제점들을 가지고 있다. 첫 번째로, 무선으로 통신망에 연결된 단말이 클라우드로 데이터를 전송하기 위해서는 전력 소모가 필요하나, 무선으로 연결된 단말들은 많은 경우 배터리로 동작하는 경우가 많으므로 대용량의 데이터를 자주 전송하는 것은 단말의 작동 시간을 크게 감소시킬 수 있다. 두 번째로, 일반적으로 심층 학습은 많은 양의 데이터를 필요로 하나, 다수의 단말이 지속적으로 데이터를 전송하는 것은 네트워크의 부하를 크게 증가시킬 수 있다. 세 번째로, 클라우드에서 모든 학습과 추정을 수행하는 것은 클라우드의 연산량을 크게 증가시켜 전력 소모를 증가시키고, 단말에의 반응 시간(feedback latency)를 증가시키고, 그 결과 서비스 비용을 증가시키거나 품질을 저하시키는 요인이 된다. 네 번째로, 프라이버시 및 보안 문제가 발생할 가능성이 높다.A framework that sends data acquired from a terminal to the cloud as it is has various problems. First, power consumption is required for a terminal connected wirelessly to a communication network to transmit data to the cloud, but since many wirelessly connected terminals operate on batteries, frequent transmission of large amounts of data time can be greatly reduced. Second, in general, deep learning requires a large amount of data, but continuously transmitting data by a plurality of terminals may significantly increase the load on the network. Third, performing all learning and estimation in the cloud greatly increases the amount of computation in the cloud, increases power consumption, increases feedback latency to the terminal, and, as a result, increases service cost or quality become a degrading factor. Fourth, privacy and security issues are likely to arise.
본 명세서는 전술한 필요성 및/또는 문제점을 해결하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present specification aims to solve the above-mentioned needs and/or problems.
또한, 본 명세서는, 배터리, 하드웨어의 제한으로 복잡한 연산 및 추정에 한계가 있는 다수의 디바이스에서 수행한 추정 결과를 취합하여 더 정확한 추정 결과를 획득하는 무선 통신 시스템에서 연합 추론을 수행하는 방법 및 그 장치를 구현하는 것을 목적으로 한다.In addition, the present specification provides a method for performing joint inference in a wireless communication system that obtains more accurate estimation results by collecting estimation results performed by a plurality of devices that have limitations in complicated calculation and estimation due to limitations in battery and hardware, and a method thereof It aims to implement the device.
또한, 본 명세서는, 다수의 단말에서 획득한 데이터를 이용하여 서버 또는 서버의 기능을 수행하는 단말에서 추정 작업을 수행할 때, 각 단말의 데이터 전송량과 전력 소모를 최소화하며 최종 추정의 정확도를 높이는 무선 통신 시스템에서 연합 추론을 수행하는 방법 및 그 장치를 구현하는 것을 목적으로 한다.In addition, the present specification, when performing an estimation operation in a server or a terminal performing a server function by using data obtained from a plurality of terminals, minimizes the data transmission amount and power consumption of each terminal, and increases the accuracy of the final estimation An object of the present invention is to implement a method and an apparatus for performing federated inference in a wireless communication system.
본 명세서의 일 실시예에 따른 방법은 2 이상의 단말로부터 연합 추론을 위한 특정 값들을 수신하는 단계, 상기 수신된 특정 값들과 메모리에 저장된 글로벌 AI 모델을 이용하여 분류 동작을 수행하는 단계를 포함한다.The method according to an embodiment of the present specification includes receiving specific values for joint inference from two or more terminals, and performing a classification operation using the received specific values and a global AI model stored in a memory.
또한, 상기 2 이상의 단말 중 적어도 일부를 포함하는 하나 이상의 단말 그룹을 생성하는 단계를 더 포함할 수 있다.The method may further include creating one or more terminal groups including at least some of the two or more terminals.
또한, 상기 단말 그룹은, (i) 상기 단말에 저장된 로컬 AI 모델의 식별 정보, (ii) 상기 단말의 위치 정보, 또는 (iii) CSI(Channel State Information) 중 적어도 하나에 기반하여 그룹화될 수 있다.In addition, the terminal group may be grouped based on at least one of (i) identification information of a local AI model stored in the terminal, (ii) location information of the terminal, or (iii) CSI (Channel State Information). .
또한, 상기 단말 그룹이 2 이상 존재하는 경우 각 단말 그룹들은 서로 다른 로컬 AI 모델을 가질 수 있다.In addition, when two or more terminal groups exist, each terminal group may have a different local AI model.
또한, 상기 로컬 AI 모델은 하나 이상의 노드를 구비하는 하나 이상의 레이어와 비선형 활성화 레이어(non-linenar activatoin layer)를 포함하는 신경망(Neural Network) 모델이며, 상기 특정 값은 상기 비선형 활성화 레이어의 입력 값 또는 출력 값 중 어느 하나일 수 있다.In addition, the local AI model is a neural network model including one or more layers having one or more nodes and a non-linenar activatoin layer, and the specific value is an input value of the non-linear activation layer or It may be any one of the output values.
또한, 상기 비선형 활성화 레이어는 제1 소프트맥스 레이어(softmax layer)일 수 있다.Also, the nonlinear activation layer may be a first softmax layer.
또한, 상기 단말 그룹에 포함된 단말들 중 어느 하나를 대표 단말(Master UE)로 선정하는 단계를 더 포함하고, 상기 연합 추론을 위한 특정 값을 전송하는 상기 2 이상의 단말은 상기 대표 단말로만 구성될 수 있다.In addition, the method further comprises the step of selecting any one of the terminals included in the terminal group as a master UE, wherein the two or more terminals transmitting a specific value for the joint inference are configured only with the representative terminal. can
본 명세서의 다른 실시예에 따른 방법은 2 이상의 외부 단말로부터 연합 추론을 위한 특정 값들을 수신하는 단계, 상기 수신된 특정 값들과 메모리에 저장된 로컬 AI 모델을 이용하여 중간 값을 생성하는 단계, 및 상기 생성된 중간 값을 연합 추론을 위한 서버로 전송하는 단계를 포함한다.A method according to another embodiment of the present specification includes receiving specific values for joint inference from two or more external terminals, generating an intermediate value using the received specific values and a local AI model stored in a memory, and the and transmitting the generated intermediate value to a server for federated inference.
본 명세서의 또 다른 실시예에 따른 단말은 하나 이상의 트랜시버, 하나 이상의 프로세서 및 상기 하나 이상의 프로세서에 연결되고, 명령들(instructions)을 저장하는 하나 이상의 메모리를 포함하고, 상기 명령들은 상기 하나 이상의 프로세서에 의해 실행될 때 하나 이상의 프로세서로 하여금 연합 추론을 위한 동작들을 지원하며, 상기 동작들은, 2 이상의 외부 단말로부터 연합 추론을 위한 특정 값들을 수신하는 동작, 상기 수신된 특정 값들과 메모리에 저장된 로컬 AI 모델을 이용하여 중간 값을 생성하는 동작 및 상기 생성된 중간 값을 연합 추론을 위한 서버로 전송하는 동작을 포함한다.A terminal according to another embodiment of the present specification includes one or more transceivers, one or more processors, and one or more memories connected to the one or more processors and storing instructions, the instructions being sent to the one or more processors. When executed by one or more processors to support operations for federated inference, the operations include: the operation of receiving specific values for federated inference from two or more external terminals, the received specific values and the local AI model stored in the memory and generating an intermediate value by using the intermediate value and transmitting the generated intermediate value to a server for federated inference.
본 명세서의 일 실시예에 따른 무선 통신 시스템에서 연합 추론을 수행하는 방법 및 그 장치의 효과에 대해 설명하면 다음과 같다.A method for performing joint inference in a wireless communication system according to an embodiment of the present specification and an effect of the apparatus will be described as follows.
본 명세서는 배터리, 하드웨어의 제한으로 복잡한 연산 및 추정에 한계가 있는 다수의 디바이스에서 수행한 추정 결과를 취합하여 더 정확한 추정 결과를 획득할 수 있다.In the present specification, more accurate estimation results may be obtained by collecting estimation results performed by a plurality of devices having limitations in complicated calculation and estimation due to limitations in battery and hardware.
또한, 본 명세서는 다수의 단말에서 획득한 데이터를 이용하여 서버 또는 서버의 기능을 수행하는 단말에서 추정 작업을 수행할 때, 각 단말의 데이터 전송량과 전력 소모를 최소화하며 최종 추정의 정확도를 높일 수 있다.In addition, the present specification can minimize the data transmission amount and power consumption of each terminal and increase the accuracy of the final estimation when performing an estimation operation in a server or a terminal performing a server function using data obtained from a plurality of terminals have.
본 명세서에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present specification are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which this specification belongs from the description below. .
본 명세서에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 명세서에 대한 실시예를 제공하고, 상세한 설명과 함께 본 명세서의 기술적 특징을 설명한다.BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included as a part of the detailed description to help the understanding of the present specification, provide embodiments of the present specification, and together with the detailed description, explain the technical features of the present specification.
도 1은 3GPP 시스템에 이용되는 물리 채널들 및 일반적인 신호 전송을 예시한다.1 illustrates physical channels and general signal transmission used in a 3GPP system.
도 2는 6G 시스템에서 제공 가능한 통신 구조의 일례를 나타낸 도이다.2 is a diagram illustrating an example of a communication structure that can be provided in a 6G system.
도 3은 퍼셉트론 구조를 예시한다.3 illustrates a perceptron structure.
도 4는 다층 퍼셉트론 구조를 예시한다.4 illustrates a multilayer perceptron structure.
도 5는 심층 신경망 구조를 예시한다.5 illustrates a deep neural network structure.
도 6은 컨볼루션 신경망 구조를 예시한다.6 illustrates a convolutional neural network structure.
도 7은 컨볼루션 신경망에서의 필터 연산을 예시한다.7 illustrates a filter operation in a convolutional neural network.
도 8은 순환 루프가 존재하는 신경망 구조를 예시한다.8 illustrates a neural network structure in which a cyclic loop exists.
도 9는 순환 신경망의 동작 구조를 예시한다.9 illustrates the operational structure of a recurrent neural network.
도 10은 전자기 스펙트럼의 일례를 나타낸다.10 shows an example of an electromagnetic spectrum.
도 11은 THz 통신 응용의 일례를 나타낸다.11 shows an example of a THz communication application.
도 12는 전자소자 기반 THz 무선통신 송수신기의 일례를 나타낸다.12 shows an example of an electronic device-based THz wireless communication transceiver.
도 13은 광 소자 기반 THz 신호를 생성하는 방법의 일례를 나타낸다. 13 shows an example of a method for generating an optical device-based THz signal.
도 14는 광 소자 기반 THz 무선통신 송수신기의 일례를 나타낸다.14 shows an example of an optical element-based THz wireless communication transceiver.
도 15는 광자 소스(Photonic Source) 기반 송신기 구조를 예시한다.15 illustrates a photonic source based transmitter structure.
도 16은 광 변조기(Optical Modulator)의 구조를 예시한다.16 illustrates the structure of an optical modulator.
도 17은 본 명세서의 다양한 실시예에 따른 연합추론 방법의 순서도이다.17 is a flowchart of an associative inference method according to various embodiments of the present specification.
도 18 내지 도 20은 도 17의 연합추론 방법의 예시도이다.18 to 20 are exemplary views of the associative reasoning method of FIG. 17 .
도 20 내지 도 22는 도 17의 연합추론 방법의 다양한 분류 알고리즘들의 예시도이다.20 to 22 are exemplary diagrams of various classification algorithms of the associative inference method of FIG. 17 .
도 21 내지 도 23은 도 17의 연합추론 방법의 다양한 분류 알고리즘들의 예시도이다. 21 to 23 are exemplary diagrams of various classification algorithms of the associative inference method of FIG. 17 .
도 24는 본 명세서의 일 실시예에 따른 AI 모델의 학습 방법의 순서도이다.24 is a flowchart of a learning method of an AI model according to an embodiment of the present specification.
도 25 내지 도 27은 도 24의 학습 방법의 예시도이다.25 to 27 are exemplary diagrams of the learning method of FIG. 24 .
도 28은 본 명세서에 적용되는 통신 시스템을 예시한다.28 illustrates a communication system applied to this specification.
도 29는 본 명세서에 적용될 수 있는 무선 기기를 예시한다.29 illustrates a wireless device applicable to this specification.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 명세서의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numbers regardless of reference numerals, and redundant description thereof will be omitted. The suffixes "module" and "part" for components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in the present specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical spirit disclosed in this specification is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present specification , should be understood to include equivalents or substitutes.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including an ordinal number such as 1st, 2nd, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When an element is referred to as being “connected” or “connected” to another element, it is understood that it may be directly connected or connected to the other element, but other elements may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.The singular expression includes the plural expression unless the context clearly dictates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, terms such as “comprises” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.
이하의 기술은 CDMA, FDMA, TDMA, OFDMA, SC-FDMA 등과 같은 다양한 무선 접속 시스템에 사용될 수 있다. CDMA는 UTRA(Universal Terrestrial Radio Access)나 CDMA2000과 같은 무선 기술로 구현될 수 있다. TDMA는 GSM(Global System for Mobile communications)/GPRS(General Packet Radio Service)/EDGE(Enhanced Data Rates for GSM Evolution)와 같은 무선 기술로 구현될 수 있다. OFDMA는 IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802-20, E-UTRA(Evolved UTRA) 등과 같은 무선 기술로 구현될 수 있다. UTRA는 UMTS(Universal Mobile Telecommunications System)의 일부이다. 3GPP(3rd Generation Partnership Project) LTE(Long Term Evolution)은 E-UTRA를 사용하는 E-UMTS(Evolved UMTS)의 일부이고 LTE-A(Advanced)/LTE-A pro는 3GPP LTE의 진화된 버전이다. 3GPP NR(New Radio or New Radio Access Technology)는 3GPP LTE/LTE-A/LTE-A pro의 진화된 버전이다. 3GPP 6G는 3GPP NR의 진화된 버전일 수 있다.The following techniques can be used in various radio access systems such as CDMA, FDMA, TDMA, OFDMA, SC-FDMA, and the like. CDMA may be implemented with a radio technology such as Universal Terrestrial Radio Access (UTRA) or CDMA2000. TDMA may be implemented with a radio technology such as Global System for Mobile communications (GSM)/General Packet Radio Service (GPRS)/Enhanced Data Rates for GSM Evolution (EDGE). OFDMA may be implemented with a radio technology such as IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802-20, Evolved UTRA (E-UTRA), and the like. UTRA is part of the Universal Mobile Telecommunications System (UMTS). 3GPP (3rd Generation Partnership Project) Long Term Evolution (LTE) is a part of Evolved UMTS (E-UMTS) using E-UTRA and LTE-A (Advanced)/LTE-A pro is an evolved version of 3GPP LTE. 3GPP NR (New Radio or New Radio Access Technology) is an evolved version of 3GPP LTE/LTE-A/LTE-A pro. 3GPP 6G may be an evolved version of 3GPP NR.
설명을 명확하게 하기 위해, 3GPP 통신 시스템(예, LTE, NR 등)을 기반으로 설명하지만 본 명세서의 기술적 사상이 이에 제한되는 것은 아니다. LTE는 3GPP TS 36.xxx Release 8 이후의 기술을 의미한다. 세부적으로, 3GPP TS 36.xxx Release 10 이후의 LTE 기술은 LTE-A로 지칭되고, 3GPP TS 36.xxx Release 13 이후의 LTE 기술은 LTE-A pro로 지칭된다. 3GPP NR은 TS 38.xxx Release 15 이후의 기술을 의미한다. 3GPP 6G는 TS Release 17 및/또는 Release 18 이후의 기술을 의미할 수 있다. "xxx"는 표준 문서 세부 번호를 의미한다. LTE/NR/6G는 3GPP 시스템으로 통칭될 수 있다. 본 명세서의 설명에 사용된 배경기술, 용어, 약어 등에 관해서는 본 명세서 이전에 공개된 표준 문서에 기재된 사항을 참조할 수 있다. 예를 들어, 다음 문서를 참조할 수 있다.For clarity of explanation, description is based on a 3GPP communication system (eg, LTE, NR, etc.), but the technical spirit of the present specification is not limited thereto. LTE refers to technology after 3GPP TS 36.xxx Release 8. In detail, LTE technology after 3GPP TS 36.xxx Release 10 is referred to as LTE-A, and LTE technology after 3GPP TS 36.xxx Release 13 is referred to as LTE-A pro. 3GPP NR refers to technology after TS 38.xxx Release 15. 3GPP 6G may refer to technology after TS Release 17 and/or Release 18. "xxx" stands for standard document detail number. LTE/NR/6G may be collectively referred to as a 3GPP system. For background art, terms, abbreviations, etc. used in the description of this specification, reference may be made to matters described in standard documents published before this specification. For example, you can refer to the following documents:
3GPP LTE3GPP LTE
- 36.211: Physical channels and modulation- 36.211: Physical channels and modulation
- 36.212: Multiplexing and channel coding- 36.212: Multiplexing and channel coding
- 36.213: Physical layer procedures- 36.213: Physical layer procedures
- 36.300: Overall description- 36.300: Overall description
- 36.331: Radio Resource Control (RRC)- 36.331: Radio Resource Control (RRC)
3GPP NR3GPP NR
- 38.211: Physical channels and modulation- 38.211: Physical channels and modulation
- 38.212: Multiplexing and channel coding- 38.212: Multiplexing and channel coding
- 38.213: Physical layer procedures for control- 38.213: Physical layer procedures for control
- 38.214: Physical layer procedures for data- 38.214: Physical layer procedures for data
- 38.300: NR and NG-RAN Overall Description- 38.300: NR and NG-RAN Overall Description
- 38.331: Radio Resource Control (RRC) protocol specification- 38.331: Radio Resource Control (RRC) protocol specification
물리 채널 및 프레임 구조Physical Channels and Frame Structure
물리 채널 및 일반적인 신호 전송Physical channels and general signal transmission
도 1은 3GPP 시스템에 이용되는 물리 채널들 및 일반적인 신호 전송을 예시한다. 무선 통신 시스템에서 단말은 기지국으로부터 하향링크(Downlink, DL)를 통해 정보를 수신하고, 단말은 기지국으로 상향링크(Uplink, UL)를 통해 정보를 전송한다. 기지국과 단말이 송수신하는 정보는 데이터 및 다양한 제어 정보를 포함하고, 이들이 송수신 하는 정보의 종류/용도에 따라 다양한 물리 채널이 존재한다.1 illustrates physical channels and general signal transmission used in a 3GPP system. In a wireless communication system, a terminal receives information through a downlink (DL) from a base station, and the terminal transmits information through an uplink (UL) to the base station. Information transmitted and received between the base station and the terminal includes data and various control information, and various physical channels exist according to the type/use of the information they transmit and receive.
단말은 전원이 켜지거나 새로이 셀에 진입한 경우 기지국과 동기를 맞추는 등의 초기 셀 탐색(Initial cell search) 작업을 수행한다(S11). 이를 위해, 단말은 기지국으로부터 주 동기 신호(Primary Synchronization Signal, PSS) 및 부 동기 신호(Secondary Synchronization Signal, SSS)을 수신하여 기지국과 동기를 맞추고, 셀 ID 등의 정보를 획득할 수 있다. 그 후, 단말은 기지국으로부터 물리 방송 채널(Physical Broadcast Channel, PBCH)를 수신하여 셀 내 방송 정보를 획득할 수 있다. 한편, 단말은 초기 셀 탐색 단계에서 하향링크 참조 신호(Downlink Reference Signal, DL RS)를 수신하여 하향링크 채널 상태를 확인할 수 있다.When the terminal is powered on or newly enters a cell, the terminal performs an initial cell search operation, such as synchronizing with the base station (S11). To this end, the terminal receives a primary synchronization signal (PSS) and a secondary synchronization signal (SSS) from the base station, synchronizes with the base station, and obtains information such as a cell ID. Thereafter, the terminal may receive a physical broadcast channel (PBCH) from the base station to obtain intra-cell broadcast information. On the other hand, the UE may receive a downlink reference signal (DL RS) in the initial cell search step to check the downlink channel state.
초기 셀 탐색을 마친 단말은 물리 하향링크 제어 채널(Physical Downlink Control Channel, PDCCH) 및 상기 PDCCH에 실린 정보에 따라 물리 하향링크 공유 채널(Physical Downlink Control Channel; PDSCH)을 수신함으로써 좀더 구체적인 시스템 정보를 획득할 수 있다(S12).After the initial cell search, the UE receives a Physical Downlink Control Channel (PDCCH) and a Physical Downlink Control Channel (PDSCH) according to information carried on the PDCCH to obtain more specific system information. It can be done (S12).
한편, 기지국에 최초로 접속하거나 신호 송신을 위한 무선 자원이 없는 경우, 단말은 기지국에 대해 임의 접속 과정(Random Access Procedure, RACH)을 수행할 수 있다(S13 내지 S16). 이를 위해, 단말은 물리 임의 접속 채널(Physical Random Access Channel, PRACH)을 통해 특정 시퀀스를 프리앰블로 송신하고(S13 및 S15), PDCCH 및 대응하는 PDSCH를 통해 프리앰블에 대한 응답 메시지((RAR(Random Access Response) message)를 수신할 수 있다. 경쟁 기반 RACH의 경우, 추가적으로 충돌 해결 절차(Contention Resolution Procedure)를 수행할 수 있다(S16).On the other hand, when first accessing the base station or there is no radio resource for signal transmission, the terminal may perform a random access procedure (RACH) for the base station (S13 to S16). To this end, the UE transmits a specific sequence as a preamble through a Physical Random Access Channel (PRACH) (S13 and S15), and a response message to the preamble through the PDCCH and the corresponding PDSCH ((Random Access (RAR)) Response) message) In the case of contention-based RACH, a contention resolution procedure may be additionally performed (S16).
상술한 바와 같은 절차를 수행한 단말은 이후 일반적인 상/하향링크 신호 송신 절차로서 PDCCH/PDSCH 수신(S17) 및 물리 상향링크 공유 채널(Physical Uplink Shared Channel, PUSCH)/물리 상향링크 제어 채널(Physical Uplink Control Channel; PUCCH) 송신(S18)을 수행할 수 있다. 특히 단말은 PDCCH를 통하여 하향링크 제어 정보(Downlink Control Information, DCI)를 수신할 수 있다. 여기서, DCI는 단말에 대한 자원 할당 정보와 같은 제어 정보를 포함하며, 사용 목적에 따라 포맷이 서로 다르게 적용될 수 있다. After performing the procedure as described above, the UE performs PDCCH/PDSCH reception (S17) and Physical Uplink Shared Channel (PUSCH)/Physical Uplink Control Channel (Physical Uplink) as a general uplink/downlink signal transmission procedure. Control Channel (PUCCH) transmission (S18) may be performed. In particular, the UE may receive downlink control information (DCI) through the PDCCH. Here, the DCI includes control information such as resource allocation information for the terminal, and different formats may be applied according to the purpose of use.
한편, 단말이 상향링크를 통해 기지국에 송신하는 또는 단말이 기지국으로부터 수신하는 제어 정보는 하향링크/상향링크 ACK/NACK 신호, CQI(Channel Quality Indicator), PMI(Precoding Matrix 인덱스), RI(Rank Indicator) 등을 포함할 수 있다. 단말은 상술한 CQI/PMI/RI 등의 제어 정보를 PUSCH 및/또는 PUCCH를 통해 송신할 수 있다.On the other hand, the control information that the terminal transmits to the base station through the uplink or the terminal receives from the base station includes a downlink/uplink ACK/NACK signal, a channel quality indicator (CQI), a precoding matrix index (PMI), and a rank indicator (RI). ) and the like. The UE may transmit the above-described control information such as CQI/PMI/RI through PUSCH and/or PUCCH.
상향링크 및 하향링크 채널의 구조Structures of uplink and downlink channels
하향링크 채널 구조Downlink Channel Structure
기지국은 후술하는 하향링크 채널을 통해 관련 신호를 단말에게 전송하고, 단말은 후술하는 하향링크 채널을 통해 관련 신호를 기지국으로부터 수신한다.The base station transmits a related signal to the terminal through a downlink channel to be described later, and the terminal receives the related signal from the base station through a downlink channel to be described later.
(1) 물리 하향링크 공유 채널(PDSCH)(1) Physical Downlink Shared Channel (PDSCH)
PDSCH는 하향링크 데이터(예, DL-shared channel transport block, DL-SCH TB)를 운반하고, QPSK(Quadrature Phase Shift Keying), 16 QAM(Quadrature Amplitude Modulation), 64 QAM, 256 QAM 등의 변조 방법이 적용된다. TB를 인코딩하여 코드워드(codeword)가 생성된다. PDSCH는 다수의 코드워드들을 나를 수 있다. 코드워드(codeword) 별로 스크램블링(scrambling) 및 변조 매핑(modulation mapping)이 수행되고, 각 코드워드로부터 생성된 변조 심볼들은 하나 이상의 레이어로 매핑된다(Layer mapping). 각 레이어는 DMRS(Demodulation Reference Signal)과 함께 자원에 매핑되어 OFDM 심볼 신호로 생성되고, 해당 안테나 포트를 통해 전송된다.PDSCH carries downlink data (eg, DL-shared channel transport block, DL-SCH TB), and modulation methods such as Quadrature Phase Shift Keying (QPSK), 16 Quadrature Amplitude Modulation (QAM), 64 QAM, and 256 QAM are available. applies. A codeword is generated by encoding the TB. A PDSCH can carry multiple codewords. Scrambling and modulation mapping are performed for each codeword, and modulation symbols generated from each codeword are mapped to one or more layers (Layer mapping). Each layer is mapped to a resource together with a demodulation reference signal (DMRS), is generated as an OFDM symbol signal, and is transmitted through a corresponding antenna port.
(2) 물리 하향링크 제어 채널(PDCCH)(2) Physical Downlink Control Channel (PDCCH)
PDCCH는 하향링크 제어 정보(DCI)를 운반하고 QPSK 변조 방법 등이 적용된다. 하나의 PDCCH는 AL(Aggregation Level)에 따라 1, 2, 4, 8, 16 개 등의 CCE(Control Channel Element)로 구성된다. 하나의 CCE는 6개의 REG(Resource Element Group)로 구성된다. 하나의 REG는 하나의 OFDM 심볼과 하나의 (P)RB로 정의된다. The PDCCH carries downlink control information (DCI) and a QPSK modulation method is applied. One PDCCH is composed of 1, 2, 4, 8, 16 CCEs (Control Channel Elements) according to an Aggregation Level (AL). One CCE consists of six REGs (Resource Element Groups). One REG is defined as one OFDM symbol and one (P)RB.
단말은 PDCCH 후보들의 세트에 대한 디코딩(일명, 블라인드 디코딩)을 수행하여 PDCCH를 통해 전송되는 DCI를 획득한다. 단말이 디코딩하는 PDCCH 후보들의 세트는 PDCCH 검색 공간(Search Space) 세트라 정의한다. 검색 공간 세트는 공통 검색 공간 (common search space) 또는 단말-특정 검색 공간 (UE-specific search space)일 수 있다. 단말은 MIB 또는 상위 계층 시그널링에 의해 설정된 하나 이상의 검색 공간 세트 내 PDCCH 후보를 모니터링하여 DCI를 획득할 수 있다. The UE obtains DCI transmitted through the PDCCH by performing decoding (aka, blind decoding) on the set of PDCCH candidates. A set of PDCCH candidates decoded by the UE is defined as a PDCCH search space set. The search space set may be a common search space or a UE-specific search space. The UE may acquire DCI by monitoring PDCCH candidates in one or more search space sets configured by MIB or higher layer signaling.
상향링크 채널 구조Uplink Channel Structure
단말은 후술하는 상향링크 채널을 통해 관련 신호를 기지국으로 전송하고, 기지국은 후술하는 상향링크 채널을 통해 관련 신호를 단말로부터 수신한다.The terminal transmits a related signal to the base station through an uplink channel to be described later, and the base station receives the related signal from the terminal through an uplink channel to be described later.
(1) 물리 상향링크 공유 채널(PUSCH)(1) Physical Uplink Shared Channel (PUSCH)
PUSCH는 상향링크 데이터(예, UL-shared channel transport block, UL-SCH TB) 및/또는 상향링크 제어 정보(UCI)를 운반하고, CP-OFDM (Cyclic Prefix - Orthogonal Frequency Division Multiplexing) 파형(waveform), DFT-s-OFDM (Discrete Fourier Transform - spread - Orthogonal Frequency Division Multiplexing) 파형 등에 기초하여 전송된다. PUSCH가 DFT-s-OFDM 파형에 기초하여 전송되는 경우, 단말은 변환 프리코딩(transform precoding)을 적용하여 PUSCH를 전송한다. 일 예로, 변환 프리코딩이 불가능한 경우(예, transform precoding is disabled) 단말은 CP-OFDM 파형에 기초하여 PUSCH를 전송하고, 변환 프리코딩이 가능한 경우(예, transform precoding is enabled) 단말은 CP-OFDM 파형 또는 DFT-s-OFDM 파형에 기초하여 PUSCH를 전송할 수 있다. PUSCH 전송은 DCI 내 UL 그랜트에 의해 동적으로 스케줄링 되거나, 상위 계층(예, RRC) 시그널링 (및/또는 Layer 1(L1) 시그널링(예, PDCCH))에 기초하여 반-정적(semi-static)으로 스케줄링 될 수 있다(configured grant). PUSCH 전송은 코드북 기반 또는 비-코드북 기반으로 수행될 수 있다.PUSCH carries uplink data (eg, UL-shared channel transport block, UL-SCH TB) and/or uplink control information (UCI), and CP-OFDM (Cyclic Prefix - Orthogonal Frequency Division Multiplexing) waveform (waveform) , DFT-s-OFDM (Discrete Fourier Transform - spread - Orthogonal Frequency Division Multiplexing) is transmitted based on the waveform. When the PUSCH is transmitted based on the DFT-s-OFDM waveform, the UE transmits the PUSCH by applying transform precoding. For example, when transform precoding is not possible (eg, transform precoding is disabled), the UE transmits a PUSCH based on the CP-OFDM waveform, and when transform precoding is possible (eg, transform precoding is enabled), the UE transmits the CP-OFDM PUSCH may be transmitted based on a waveform or a DFT-s-OFDM waveform. PUSCH transmission is dynamically scheduled by a UL grant in DCI, or based on higher layer (eg, RRC) signaling (and/or Layer 1 (L1) signaling (eg, PDCCH)) semi-statically. Can be scheduled (configured grant). PUSCH transmission may be performed on a codebook-based or non-codebook-based basis.
(2) 물리 상향링크 제어 채널(PUCCH)(2) Physical Uplink Control Channel (PUCCH)
PUCCH는 상향링크 제어 정보, HARQ-ACK 및/또는 스케줄링 요청(SR)을 운반하고, PUCCH 전송 길이에 따라 다수의 PUCCH들로 구분될 수 있다.The PUCCH carries uplink control information, HARQ-ACK and/or a scheduling request (SR), and may be divided into a plurality of PUCCHs according to the PUCCH transmission length.
6G 시스템 일반6G system general
6G (무선통신) 시스템은 (i) 디바이스 당 매우 높은 데이터 속도, (ii) 매우 많은 수의 연결된 디바이스들, (iii) 글로벌 연결성(global connectivity), (iv) 매우 낮은 지연, (v) 배터리-프리(battery-free) IoT 디바이스들의 에너지 소비를 낮추고, (vi) 초고신뢰성 연결, (vii) 머신 러닝 능력을 가지는 연결된 지능 등에 목적이 있다. 6G 시스템의 비젼은 intelligent connectivity, deep connectivity, holographic connectivity, ubiquitous connectivity와 같은 4가지 측면일 수 있으며, 6G 시스템은 아래 표 1과 같은 요구 사항을 만족시킬 수 있다. 즉, 표 1은 6G 시스템의 요구 사항의 일례를 나타낸 표이다.6G (wireless) systems have (i) very high data rates per device, (ii) very large number of connected devices, (iii) global connectivity, (iv) very low latency, (v) battery- It aims to reduce energy consumption of battery-free IoT devices, (vi) ultra-reliable connections, and (vii) connected intelligence with machine learning capabilities. The vision of the 6G system can be in four aspects: intelligent connectivity, deep connectivity, holographic connectivity, and ubiquitous connectivity, and the 6G system can satisfy the requirements shown in Table 1 below. That is, Table 1 is a table showing an example of the requirements of the 6G system.
Figure PCTKR2020009839-appb-T000001
Figure PCTKR2020009839-appb-T000001
6G 시스템은 Enhanced mobile broadband (eMBB), Ultra-reliable low latency communications (URLLC), massive machine-type communication (mMTC), AI integrated communication, Tactile internet, High throughput, High network capacity, High energy efficiency, Low backhaul and access network congestion, Enhanced data security와 같은 핵심 요소(key factor)들을 가질 수 있다.도 2는 6G 시스템에서 제공 가능한 통신 구조의 일례를 나타낸 도이다.6G systems include Enhanced mobile broadband (eMBB), Ultra-reliable low latency communications (URLLC), massive machine-type communication (mMTC), AI integrated communication, Tactile internet, High throughput, High network capacity, High energy efficiency, Low backhaul and It may have key factors such as access network congestion and enhanced data security. FIG. 2 is a diagram showing an example of a communication structure that can be provided in a 6G system.
6G 시스템은 5G 무선통신 시스템보다 50배 더 높은 동시 무선통신 연결성을 가질 것으로 예상된다. 5G의 key feature인 URLLC는 6G 통신에서 1ms보다 적은 단-대-단(end-to-end) 지연을 제공함으로써 보다 더 주요한 기술이 될 것이다. 6G 시스템은 자주 사용되는 영역 스펙트럼 효율과 달리 체적 스펙트럼 효율이 훨씬 우수할 것이다. 6G 시스템은 매우 긴 배터리 수명과 에너지 수확을 위한 고급 배터리 기술을 제공할 수 있어, 6G 시스템에서 모바일 디바이스들은 별도로 충전될 필요가 없을 것이다. 6G에서 새로운 네트워크 특성들은 다음과 같을 수 있다.6G systems are expected to have 50 times higher simultaneous wireless connectivity than 5G wireless communication systems. URLLC, a key feature of 5G, will become an even more important technology by providing an end-to-end delay of less than 1ms in 6G communication. 6G systems will have much better volumetric spectral efficiencies as opposed to frequently used areal spectral efficiencies. The 6G system can provide very long battery life and advanced battery technology for energy harvesting, so mobile devices will not need to be charged separately in the 6G system. New network characteristics in 6G may be as follows.
- 위성 통합 네트워크(Satellites integrated network): 글로벌 모바일 집단을 제공하기 위해 6G는 위성과 통합될 것으로 예상된다. 지상파, 위성 및 공중 네트워크를 하나의 무선통신 시스템으로 통합은 6G에 매우 중요하다.- Satellites integrated network: 6G is expected to be integrated with satellites to provide a global mobile population. The integration of terrestrial, satellite and public networks into one wireless communication system is very important for 6G.
- 연결된 인텔리전스(Connected intelligence): 이전 세대의 무선 통신 시스템과 달리 6G는 혁신적이며, "연결된 사물"에서 "연결된 지능"으로 무선 진화가 업데이트될 것이다. AI는 통신 절차의 각 단계(또는 후술할 신호 처리의 각 절차)에서 적용될 수 있다.- Connected intelligence: Unlike previous generations of wireless communication systems, 6G is revolutionary and will update the evolution of wireless from “connected things” to “connected intelligence”. AI may be applied in each step of a communication procedure (or each procedure of signal processing to be described later).
- 무선 정보 및 에너지 전달의 완벽한 통합(Seamless integration wireless information and energy transfer): 6G 무선 네트워크는 스마트폰들과 센서들과 같이 디바이스들의 배터리를 충전하기 위해 전력을 전달할 것이다. 그러므로, 무선 정보 및 에너지 전송 (WIET)은 통합될 것이다.- Seamless integration wireless information and energy transfer: The 6G wireless network will deliver power to charge the batteries of devices such as smartphones and sensors. Therefore, wireless information and energy transfer (WIET) will be integrated.
- 유비쿼터스 슈퍼 3D 연결(Ubiquitous super 3D connectivity): 드론 및 매우 낮은 지구 궤도 위성의 네트워크 및 핵심 네트워크 기능에 접속은 6G 유비쿼터스에서 슈퍼 3D 연결을 만들 것이다.- Ubiquitous super 3D connectivity: access to networks and core network functions of drones and very low Earth orbiting satellites will create super 3D connectivity in 6G ubiquitous.
위와 같은 6G의 새로운 네트워크 특성들에서 몇 가지 일반적인 요구 사항은 다음과 같을 수 있다.In the above new network characteristics of 6G, some general requirements may be as follows.
- 스몰 셀 네트워크(small cell networks): 스몰 셀 네트워크의 아이디어는 셀룰러 시스템에서 처리량, 에너지 효율 및 스펙트럼 효율 향상의 결과로 수신 신호 품질을 향상시키기 위해 도입되었다. 결과적으로, 스몰 셀 네트워크는 5G 및 비욘드 5G (5GB) 이상의 통신 시스템에 필수적인 특성이다. 따라서, 6G 통신 시스템 역시 스몰 셀 네트워크의 특성을 채택한다.- Small cell networks: The idea of small cell networks was introduced to improve the received signal quality as a result of improved throughput, energy efficiency and spectral efficiency in cellular systems. As a result, small cell networks are essential characteristics for communication systems beyond 5G and Beyond 5G (5GB). Accordingly, the 6G communication system also adopts the characteristics of the small cell network.
- 초 고밀도 이기종 네트워크(Ultra-dense heterogeneous network): 초 고밀도 이기종 네트워크들은 6G 통신 시스템의 또 다른 중요한 특성이 될 것이다. 이기종 네트워크로 구성된 멀티-티어 네트워크는 전체 QoS를 개선하고 비용을 줄인다.- Ultra-dense heterogeneous network: Ultra-dense heterogeneous networks will be another important characteristic of 6G communication systems. A multi-tier network composed of heterogeneous networks improves overall QoS and reduces costs.
- 대용량 백홀(High-capacity backhaul): 백홀 연결은 대용량 트래픽을 지원하기 위해 대용량 백홀 네트워크로 특징 지어진다. 고속 광섬유 및 자유 공간 광학 (FSO) 시스템이 이 문제에 대한 가능한 솔루션일 수 있다.- High-capacity backhaul: A backhaul connection is characterized as a high-capacity backhaul network to support high-capacity traffic. High-speed fiber optics and free-space optics (FSO) systems may be possible solutions to this problem.
- 모바일 기술과 통합된 레이더 기술: 통신을 통한 고정밀 지역화(또는 위치 기반 서비스)는 6G 무선통신 시스템의 기능 중 하나이다. 따라서, 레이더 시스템은 6G 네트워크와 통합될 것이다.- Radar technology integrated with mobile technology: High-precision localization (or location-based service) through communication is one of the functions of the 6G wireless communication system. Therefore, the radar system will be integrated with the 6G network.
- 소프트화 및 가상화(Softwarization and virtualization): 소프트화 및 가상화는 유연성, 재구성성 및 프로그래밍 가능성을 보장하기 위해 5GB 네트워크에서 설계 프로세스의 기초가 되는 두 가지 중요한 기능이다. 또한, 공유 물리적 인프라에서 수십억 개의 장치가 공유될 수 있다.- Softwarization and virtualization: Softening and virtualization are two important features that underlie the design process in 5GB networks to ensure flexibility, reconfigurability and programmability. In addition, billions of devices can be shared in a shared physical infrastructure.
6G 시스템의 핵심 구현 기술Core implementation technology of 6G system
인공 지능(Artificial Intelligence)Artificial Intelligence
6G 시스템에 가장 중요하며, 새로 도입될 기술은 AI이다. 4G 시스템에는 AI가 관여하지 않았다. 5G 시스템은 부분 또는 매우 제한된 AI를 지원할 것이다. 그러나, 6G 시스템은 완전히 자동화를 위해 AI가 지원될 것이다. 머신 러닝의 발전은 6G에서 실시간 통신을 위해 보다 지능적인 네트워크를 만들 것이다. 통신에 AI를 도입하면 실시간 데이터 전송이 간소화되고 향상될 수 있다. AI는 수많은 분석을 사용하여 복잡한 대상 작업이 수행되는 방식을 결정할 수 있다. 즉, AI는 효율성을 높이고 처리 지연을 줄일 수 있다.The most important and newly introduced technology for 6G systems is AI. AI was not involved in the 4G system. 5G systems will support partial or very limited AI. However, the 6G system will be AI-enabled for full automation. Advances in machine learning will create more intelligent networks for real-time communication in 6G. Incorporating AI into communications can simplify and enhance real-time data transmission. AI can use numerous analytics to determine how complex target tasks are performed. In other words, AI can increase efficiency and reduce processing delays.
핸드 오버, 네트워크 선택, 자원 스케쥴링과 같은 시간 소모적인 작업은 AI를 사용함으로써 즉시 수행될 수 있다. AI는 M2M, 기계-대-인간 및 인간-대-기계 통신에서도 중요한 역할을 할 수 있다. 또한, AI는 BCI(Brain Computer Interface)에서 신속한 통신이 될 수 있다. AI 기반 통신 시스템은 메타 물질, 지능형 구조, 지능형 네트워크, 지능형 장치, 지능형 인지 라디오(radio), 자체 유지 무선 네트워크 및 머신 러닝에 의해 지원될 수 있다.Time-consuming tasks such as handovers, network selection, and resource scheduling can be performed instantly by using AI. AI can also play an important role in M2M, machine-to-human and human-to-machine communication. In addition, AI can be a rapid communication in BCI (Brain Computer Interface). AI-based communication systems can be supported by metamaterials, intelligent structures, intelligent networks, intelligent devices, intelligent cognitive radios, self-sustaining wireless networks, and machine learning.
최근에는 AI를 무선 통신 시스템과 통합하려고 하는 시도들이 나타나고 있으나, 이는 application layer, network layer 특히, 딥러닝을 wireless resource management and allocation 분야에 집중되어 왔다. 그러나, 이러한 연구는 점점 MAC layer 와 Physical layer로 발전하고 있으며, 특히 물리계층에서 딥러닝을 무선 전송(wireless transmission)과 결합하고자 하는 시도들이 나타나고 있다. AI 기반의 물리계층 전송은, 근본적인 신호 처리 및 통신 메커니즘에 있어서, 전통적인 통신 프레임워크가 아니라 AI 드라이버에 기초한 신호 처리 및 통신 메커니즘을 적용하는 것을 의미한다. 예를 들어, 딥러닝 기반의 채널 코딩 및 디코딩(channel coding and decoding), 딥러닝 기반의 신호 추정(estimation) 및 검출(detection), 딥러닝 기반의 MIMO mechanism, AI 기반의 자원 스케줄링(scheduling) 및 할당(allocation) 등을 포함할 수 있다.Recently, attempts have been made to integrate AI with wireless communication systems, but these have been focused on the application layer and network layer, especially deep learning, in the field of wireless resource management and allocation. However, these studies are gradually developing into the MAC layer and the physical layer, and in particular, attempts to combine deep learning with wireless transmission in the physical layer are appearing. AI-based physical layer transmission means applying a signal processing and communication mechanism based on an AI driver rather than a traditional communication framework in a fundamental signal processing and communication mechanism. For example, deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO mechanism, AI-based resource scheduling and It may include an allocation (allocation) and the like.
머신 러닝은 채널 추정 및 채널 트래킹을 위해 사용될 수 있으며, DL(downlink)의 물리 계층(physical layer)에서 전력 할당(power allocation), 간섭 제거 (interference cancellation) 등에 사용될 수 있다. 또한, 머신 러닝은 MIMO 시스템에서 안테나 선택, 전력 제어(power control), 심볼 검출(symbol detection) 등에도 사용될 수 있다.Machine learning may be used for channel estimation and channel tracking, and may be used for power allocation, interference cancellation, and the like in a physical layer of a downlink (DL). In addition, machine learning may be used for antenna selection, power control, symbol detection, and the like in a MIMO system.
그러나 물리계층에서의 전송을 위한 DNN의 적용은 아래와 같은 문제점이 있을 수 있다.However, the application of DNN for transmission in the physical layer may have the following problems.
딥러닝 기반의 AI 알고리즘은 훈련 파라미터를 최적화하기 위해 수많은 훈련 데이터가 필요하다. 그러나 특정 채널 환경에서의 데이터를 훈련 데이터로 획득하는데 있어서의 한계로 인해, 오프라인 상에서 많은 훈련 데이터를 사용한다. 이는 특정 채널 환경에서 훈련 데이터에 대한 정적 훈련(static training)은, 무선 채널의 동적 특성 및 다이버시티(diversity) 사이에 모순(contradiction)이 생길 수 있다.Deep learning-based AI algorithms require large amounts of training data to optimize training parameters. However, due to a limitation in acquiring data in a specific channel environment as training data, a lot of training data is used offline. This is because static training on training data in a specific channel environment may cause a contradiction between dynamic characteristics and diversity of a wireless channel.
또한, 현재 딥러닝은 주로 실제 신호(real signal)을 대상으로 한다. 그러나, 무선 통신의 물리 계층의 신호들은 복소 신호(complex signal)이다. 무선 통신 신호의 특성을 매칭시키기 위해 복소 도메인 신호의 검출하는 신경망(neural network)에 대한 연구가 더 필요하다.In addition, current deep learning mainly targets real signals. However, signals of the physical layer of wireless communication are complex signals. In order to match the characteristics of a wireless communication signal, further research on a neural network for detecting a complex domain signal is needed.
이하, 머신 러닝에 대해 보다 구체적으로 살펴본다.Hereinafter, machine learning will be described in more detail.
머신 러닝은 사람이 할 수 있거나 혹은 하기 어려운 작업을 대신해낼 수 있는 기계를 만들어내기 위해 기계를 학습시키는 일련의 동작을 의미한다. 머신 러닝을 위해서는 데이터와 러닝 모델이 필요하다. 머신 러닝에서 데이터의 학습 방법은 크게 3가지 즉, 지도 학습(supervised learning), 비지도 학습(unsupervised learning) 그리고 강화 학습(reinforcement learning)으로 구분될 수 있다.Machine learning refers to a set of actions that trains a machine to create a machine that can perform tasks that humans can or cannot do. Machine learning requires data and a learning model. In machine learning, data learning methods can be roughly divided into three types: supervised learning, unsupervised learning, and reinforcement learning.
신경망 학습은 출력의 오류를 최소화하기 위한 것이다. 신경망 학습은 반복적으로 학습 데이터를 신경망에 입력시키고 학습 데이터에 대한 신경망의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 신경망의 에러를 신경망의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation) 하여 신경망의 각 노드의 가중치를 업데이트하는 과정이다.Neural network learning is to minimize output errors. Neural network learning repeatedly inputs learning data into the neural network, calculates the output and target errors of the neural network for the training data, and backpropagates the neural network error from the output layer of the neural network to the input layer in the direction to reduce the error. ) to update the weight of each node in the neural network.
지도 학습은 학습 데이터에 정답이 라벨링된 학습 데이터를 사용하며 비지도 학습은 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 지도 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링된 데이터 일 수 있다. 라벨링된 학습 데이터가 신경망에 입력되고 신경망의 출력(카테고리)과 학습 데이터의 라벨을 비교하여 오차(error)가 계산될 수 있다. 계산된 오차는 신경망에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 신경망의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learing rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 신경망의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 신경망의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 신경망의 학습 초기에는 높은 학습률을 사용하여 신경망이 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다Supervised learning uses training data in which the correct answer is labeled in the training data, and in unsupervised learning, the correct answer may not be labeled in the training data. That is, for example, learning data in the case of supervised learning related to data classification may be data in which categories are labeled for each of the training data. The labeled training data is input to the neural network, and an error can be calculated by comparing the output (category) of the neural network with the label of the training data. The calculated error is back propagated in the reverse direction (ie, from the output layer to the input layer) in the neural network, and the connection weight of each node of each layer of the neural network may be updated according to the back propagation. A change amount of the connection weight of each node to be updated may be determined according to a learning rate. The computation of the neural network on the input data and the backpropagation of errors can constitute a learning cycle (epoch). The learning rate may be applied differently depending on the number of repetitions of the learning cycle of the neural network. For example, in the early stage of learning a neural network, a high learning rate can be used to increase the efficiency by allowing the neural network to quickly obtain a certain level of performance, and in the late learning period, a low learning rate can be used to increase the accuracy.
데이터의 특징에 따라 학습 방법은 달라질 수 있다. 예를 들어, 통신 시스템 상에서 송신단에서 전송한 데이터를 수신단에서 정확하게 예측하는 것을 목적으로 하는 경우, 비지도 학습 또는 강화 학습 보다는 지도 학습을 이용하여 학습을 수행하는 것이 바람직하다.The learning method may vary depending on the characteristics of the data. For example, when the purpose of accurately predicting data transmitted from a transmitter in a communication system is at a receiver, it is preferable to perform learning using supervised learning rather than unsupervised learning or reinforcement learning.
러닝 모델은 인간의 뇌에 해당하는 것으로서, 가장 기본적인 선형 모델을 생각할 수 있으나, 인공 신경망(artificial neural networks)와 같은 복잡성이 높은 신경망 구조를 러닝 모델로 사용하는 머신 러닝의 패러다임을 딥러닝(deep learning)이라 한다.The learning model corresponds to the human brain, and the most basic linear model can be considered. ) is called
학습(learning) 방식으로 사용하는 신경망 코어(neural network cord)는 크게 심층 신경망(DNN, deep neural networks), 합성곱 신경망(CNN, convolutional deep neural networks), 순환 신경망(RNN, Recurrent Boltzmann Machine) 방식이 있다.The neural network cord used as a learning method is largely divided into deep neural networks (DNN), convolutional deep neural networks (CNN), and recurrent boltzmann machine (RNN) methods. have.
인공 신경망(artificial neural network)은 여러 개의 퍼셉트론을 연결한 예시이다.An artificial neural network is an example of connecting several perceptrons.
도 3을 참조하면, 입력 벡터 x=(x1,x2,...,xd) 가 입력되면 각 성분에 가중치(W1,W2,...,Wd)를 곱하고, 그 결과를 모두 합산한 후, 활성함수를 적용하는 전체 과정을 퍼셉트론(perceptron)이라 한다. 거대한 인공 신경망 구조는 도 3에 도시한 단순화된 퍼셉트론 구조를 확장하여 입력벡터를 서로 다른 다 차원의 퍼셉트론에 적용할 수도 있다. 설명의 편의를 위해 입력값 또는 출력값을 노드(node)라 칭한다.Referring to FIG. 3, when an input vector x=(x1,x2,...,xd) is input, each component is multiplied by a weight (W1,W2,...,Wd), and after summing all the results, The whole process of applying the activation function is called a perceptron. The huge artificial neural network structure may extend the simplified perceptron structure shown in FIG. 3 to apply input vectors to different multidimensional perceptrons. For convenience of description, an input value or an output value is referred to as a node.
한편, 도 3에 도시된 퍼셉트론 구조는 입력값, 출력값을 기준으로 총 3개의 층(layer)로 구성되는 것으로 설명할 수 있다. 1st layer와 2nd layer 사이에는 (d+1) 차원의 퍼셉트론 H개, 2nd layer와 3rd layer 사이에는 (H+1)차원 퍼셉트론이 K 개 존재하는 인공신경망을 도 4와 같이 표현할 수 있다.Meanwhile, the perceptron structure shown in FIG. 3 can be described as being composed of a total of three layers based on an input value and an output value. An artificial neural network in which H (d+1)-dimensional perceptrons exist between the 1st layer and the 2nd layer and K (H+1)-dimensional perceptrons exist between the 2nd layer and the 3rd layer can be expressed as shown in FIG. 4 .
입력벡터가 위치하는 층을 입력층(input layer), 최종 출력값이 위치하는 층을 출력층(output layer), 입력층과 출력층 사이에 위치하는 모든 층을 은닉층(hidden layer)라 한다. 도 4의 예시는 3개의 층이 개시되나, 실제 인공신경망 층의 개수를 카운트할 때는 입력층을 제외하고 카운트하므로 총 2개의 층으로 볼 수 있다. 인공신경망은 기본 블록의 퍼셉트론을 2차원적으로 연결되어 구성된다.The layer where the input vector is located is called the input layer, the layer where the final output value is located is called the output layer, and all the layers located between the input layer and the output layer are called hidden layers. In the example of FIG. 4 , three layers are disclosed, but when counting the actual number of artificial neural network layers, the input layer is counted except for the input layer, so it can be viewed as a total of two layers. The artificial neural network is constructed by connecting the perceptrons of the basic blocks in two dimensions.
전술한 입력층, 은닉층, 출력층은 다층 퍼셉트론 뿐 아니라 후술할 CNN, RNN 등 다양한 인공신경망 구조에서 공동적으로 적용될 수 있다. 은닉층의 개수가 많아질수록 인공신경망이 깊어진 것이며, 충분히 깊어진 인공신경망을 러닝모델로 사용하는 머신러닝 패러다임을 딥러닝(Deep Learning)이라 한다. 또한 딥러닝을 위해 사용하는 인공신경망을 심층 신경망(DNN: Deep neural network)라 한다.The aforementioned input layer, hidden layer, and output layer can be jointly applied in various artificial neural network structures such as CNN and RNN to be described later as well as multi-layer perceptron. As the number of hidden layers increases, the artificial neural network becomes deeper, and a machine learning paradigm that uses a sufficiently deep artificial neural network as a learning model is called deep learning. Also, an artificial neural network used for deep learning is called a deep neural network (DNN).
도 5에 도시된 심층 신경망은 은닉층+출력층이 8개로 구성된 다층 퍼셉트론이다. 상기 다층 퍼셉트론 구조를 완전 연결 신경망(fully-connected neural network)이라 표현한다. 완전 연결 신경망은 서로 같은 층에 위치하는 노드 간에는 연결 관계가 존재하지 않으며, 인접한 층에 위치한 노드들 간에만 연결 관계가 존재한다. DNN은 완전 연결 신경망 구조를 가지고 다수의 은닉층과 활성함수들의 조합으로 구성되어 입력과 출력 사이의 상관관계 특성을 파악하는데 유용하게 적용될 수 있다. 여기서 상관관계 특성은 입출력의 결합확률(joint probability)을 의미할 수 있다.The deep neural network shown in FIG. 5 is a multilayer perceptron composed of eight hidden layers + output layers. The multi-layered perceptron structure is referred to as a fully-connected neural network. In a fully connected neural network, a connection relationship does not exist between nodes located in the same layer, and a connection relationship exists only between nodes located in adjacent layers. DNN has a fully connected neural network structure and is composed of a combination of a number of hidden layers and activation functions, so it can be usefully applied to figure out the correlation between input and output. Here, the correlation characteristic may mean a joint probability of input/output.
‘한편, 복수의 퍼셉트론을 서로 어떻게 연결하느냐에 따라 전술한 DNN과 다른 다양한 인공 신경망 구조를 형성할 수 있다. ‘On the other hand, depending on how a plurality of perceptrons are connected to each other, various artificial neural network structures different from the aforementioned DNN can be formed.
DNN은 하나의 층 내부에 위치한 노드들이 1차원적의 세로 방향으로 배치되어 있다. 그러나, 도 6는 노드들이 2차원적으로 가로 w개, 세로 h개의 노드가 배치할 경우를 가정할 수 있다(도 6의 컨볼루션 신경망 구조). 이 경우, 하나의 입력노드에서 은닉층으로 이어지는 연결과정에서 연결 하나당 가중치가 부가되므로 총 hХw 개의 가중치를 고려해야한다. 입력층에 hХw 개의 노드가 존재하므로 인접한 두 층 사이에는 총 h2w2 개의 가중치가 필요하다.In DNN, nodes located inside one layer are arranged in a one-dimensional vertical direction. However, in FIG. 6 , it may be assumed that the nodes are two-dimensionally arranged with w horizontally and h vertical nodes (convolutional neural network structure of FIG. 6 ). In this case, since a weight is added per connection in the connection process from one input node to the hidden layer, a total of hХw weights must be considered. Since there are hХw nodes in the input layer, a total of h 2 w 2 weights are needed between two adjacent layers.
도 6의 컨볼루션 신경망은 연결개수에 따라 가중치의 개수가 기하급수적으로 증가하는 문제가 있어 인접한 층 간의 모든 모드의 연결을 고려하는 대신, 크기가 작은 필터(filter)가 존재하는 것으로 가정하여 도 7에서와 같이 필터가 겹치는 부분에 대해서는 가중합 및 활성함수 연산을 수행하도록 한다.The convolutional neural network of FIG. 6 has a problem in that the number of weights increases exponentially according to the number of connections, so instead of considering the connection of all modes between adjacent layers, it is assumed that a filter with a small size exists in FIG. 7 As in Fig., the weighted sum and activation function calculations are performed on the overlapping filters.
하나의 필터는 그 크기만큼의 개수에 해당하는 가중치를 가지며, 이미지 상의 어느 특정한 특징을 요인으로 추출하여 출력할 수 있도록 가중치의 학습이 이루어질 수 있다. 도 7에서는 3Х3 크기의 필터가 입력층의 가장 좌측 상단 3Х3 영역에 적용되고, 해당 노드에 대한 가중합 및 활성함수 연산을 수행한 결과 출력값을 z22에 저장한다.One filter has a weight corresponding to the number corresponding to its size, and weight learning can be performed so that a specific feature on an image can be extracted and output as a factor. In FIG. 7 , a filter with a size of 3Х3 is applied to the upper left 3Х3 region of the input layer, and an output value obtained by performing weighted sum and activation function operations on the corresponding node is stored in z22.
상기 필터는 입력층을 스캔하면서 가로, 세로 일정 간격 만큼 이동하면서 가중합 및 활성함수 연산을 수행하고 그 출력값을 현재 필터의 위치에 위치시킨다. 이러한 연산 방식은 컴퓨터 비전(computer vision) 분야에서 이미지에 대한 컨볼루션(convolution) 연산과 유사하여 이러한 구조의 심층 신경망을 컨볼루션 신경망(CNN: convolutional neural network)라 하고, 컨볼루션 연산 결과 생성되는 은닉층을 컨볼루션 층(convolutional layer)라 한다. 또한, 복수의 컨볼루션 층이 존재하는 신경망을 심층 컨볼루션 신경망(DCNN: Deep convolutional)이라 한다.The filter performs weight sum and activation function calculations while moving horizontally and vertically at regular intervals while scanning the input layer, and places the output value at the current filter position. Such a calculation method is similar to a convolution operation on an image in the field of computer vision, so a deep neural network with such a structure is called a convolutional neural network (CNN), and a hidden layer generated as a result of a convolution operation is called a convolutional layer. Also, a neural network having a plurality of convolutional layers is called a deep convolutional neural network (DCNN).
컨볼루션 층에서는 현재 필터가 위치한 노드에서, 상기 필터가 커버하는 영역에 위치한 노드만을 포괄하여 가중합을 계산함으로써, 가중치의 개수를 줄여줄 수 있다. 이로 인해, 하나의 필터가 로컬(local) 영역에 대한 특징에 집중하도록 이용될 수 있다. 이에 따라 CNN은 2차원 영역 상의 물리적 거리가 중요한 판단 기준이 되는 이미지 데이터 처리에 효과적으로 적용될 수 있다. 한편, CNN은 컨볼루션 층의 직전에 복수의 필터가 적용될 수 있으며, 각 필터의 컨볼루션 연산을 통해 복수의 출력 결과를 생성할 수도 있다.In the convolution layer, the number of weights can be reduced by calculating the weighted sum by including only nodes located in the region covered by the filter in the node where the filter is currently located. Due to this, one filter can be used to focus on features for a local area. Accordingly, CNN can be effectively applied to image data processing in which physical distance in a two-dimensional domain is an important criterion. Meanwhile, in CNN, a plurality of filters may be applied immediately before the convolution layer, and a plurality of output results may be generated through the convolution operation of each filter.
한편, 데이터 속성에 따라 시퀀스(sequence) 특성이 중요한 데이터들이 있을 수 있다. 이러한 시퀀스 데이터들의 길이 가변성, 선후 관계를 고려하여 데이터 시퀀스 상의 원소를 매 시점(timestep) 마다 하나씩 입력하고, 특정 시점에 출력된 은닉층의 출력 벡터(은닉 벡터)를, 시퀀스 상의 바로 다음 원소와 함께 입력하는 방식을 인공 신경망에 적용한 구조를 순환 신경망 구조라 한다.Meanwhile, there may be data whose sequence characteristics are important according to data properties. Considering the length variability and precedence relationship of the sequence data, one element in the data sequence is input at each timestep, and the output vector (hidden vector) of the hidden layer output at a specific time is input together with the next element in the sequence. A structure in which this method is applied to an artificial neural network is called a recurrent neural network structure.
도 8를 참조하면, 순환 신경망(RNN: recurrent neural netwok)은 데이터 시퀀스 상의 어느 시선 t의 원소 (x1(t), x2(t), ,..., xd(t))를 완전 연결 신경망에 입력하는 과정에서, 바로 이전 시점 t-1은 은닉 벡터 (z1(t-1), z2(t-1),..., zH(t-1))을 함께 입력하여 가중합 및 활성함수를 적용하는 구조이다. 이와 같이 은닉 벡터를 다음 시점으로 전달하는 이유는 앞선 시점들에서의 입력 벡터속 정보들이 현재 시점의 은닉 벡터에 누적된 것으로 간주하기 때문이다.Referring to FIG. 8 , a recurrent neural network (RNN) connects elements (x1(t), x2(t), ,..., xd(t)) of a certain gaze t on a data sequence to a fully connected neural network. In the process of inputting, the weighted sum and activation function are calculated by inputting the hidden vectors (z1(t-1), z2(t-1),..., zH(t-1)) for the immediately preceding time point t-1 during the input process. structure to be applied. The reason why the hidden vector is transferred to the next time point in this way is that information in the input vector at previous time points is considered to be accumulated in the hidden vector of the current time point.
도 8을 참조하면, 순환 신경망은 입력되는 데이터 시퀀스에 대하여 소정의 시점 순서대로 동작한다.Referring to FIG. 8 , the recurrent neural network operates in a predetermined time sequence with respect to an input data sequence.
시점 1에서의 입력 벡터 (x1(t), x2(t), ,..., xd(t))가 순환 신경망에 입력되었을 때의 은닉 벡터 (z1(1),z2(1),...,zH(1))가 시점 2의 입력 벡터 (x1(2),x2(2),...,xd(2))와 함께 입력되어 가중합 및 활성 함수를 통해 은닉층의 벡터 (z1(2),z2(2) ,...,zH(2))를 결정한다. 이러한 과정은 시점 2, 시점 3, ,,, 시점 T 까지 반복적으로 수행된다.The hidden vector (z1(1),z2(1),.. .,zH(1)) is input together with the input vector (x1(2),x2(2),...,xd(2)) of time 2, and then the vector of the hidden layer (z1( 2),z2(2) ,...,zH(2)) are determined. This process is repeatedly performed until time point 2, time point 3, ,, and time point T.
한편, 순환 신경망 내에서 복수의 은닉층이 배치될 경우, 이를 심층 순환 신경망(DRNN: Deep recurrent neural network)라 한다. 순환 신경망은 시퀀스 데이터(예를 들어, 자연어 처리(natural language processing)에 유용하게 적용되도록 설계되어 있다.On the other hand, when a plurality of hidden layers are arranged in a recurrent neural network, this is called a deep recurrent neural network (DRNN). The recurrent neural network is designed to be usefully applied to sequence data (eg, natural language processing).
학습(learning) 방식으로 사용하는 신경망 코어로서 DNN, CNN, RNN 외에 제한 볼츠만 머신(RBM, Restricted Boltzmann Machine), 심층 신뢰 신경망(DBN, deep belief networks), 심층 Q-네트워크(Deep Q-Network)와 같은 다양한 딥 러닝 기법들을 포함하며, 컴퓨터비젼, 음성인식, 자연어처리, 음성/신호처리 등의 분야에 적용될 수 있다.As a neural network core used as a learning method, in addition to DNN, CNN, and RNN, Restricted Boltzmann Machine (RBM), deep belief networks (DBN), Deep Q-Network and It includes various deep learning techniques such as, and can be applied to fields such as computer vision, voice recognition, natural language processing, and voice/signal processing.
최근에는 AI를 무선 통신 시스템과 통합하려고 하는 시도들이 나타나고 있으나, 이는 application layer, network layer 특히, 딥러닝을 wireless resource management and allocation 분야에 집중되어 왔다. 그러나, 이러한 연구는 점점 MAC layer 와 Physical layer로 발전하고 있으며, 특히 물리계층에서 딥러닝을 무선 전송(wireless transmission)과 결합하고자 하는 시도들이 나타나고 있다. AI 기반의 물리계층 전송은, 근본적인 신호 처리 및 통신 메커니즘에 있어서, 전통적인 통신 프레임워크가 아니라 AI 드라이버에 기초한 신호 처리 및 통신 메커니즘을 적용하는 것을 의미한다. 예를 들어, 딥러닝 기반의 채널 코딩 및 디코딩(channel coding and decoding), 딥러닝 기반의 신호 추정(estimation) 및 검출(detection), 딥러닝 기반의 MIMO mechanism, AI 기반의 자원 스케줄링(scheduling) 및 할당(allocation) 등을 포함할 수 있다.Recently, attempts have been made to integrate AI with wireless communication systems, but these have been focused on the application layer and network layer, especially deep learning, in the field of wireless resource management and allocation. However, these studies are gradually developing into the MAC layer and the physical layer, and in particular, attempts to combine deep learning with wireless transmission in the physical layer are appearing. AI-based physical layer transmission means applying a signal processing and communication mechanism based on an AI driver rather than a traditional communication framework in a fundamental signal processing and communication mechanism. For example, deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO mechanism, AI-based resource scheduling and It may include an allocation (allocation) and the like.
THz(Terahertz) 통신THz (Terahertz) communication
데이터 전송률은 대역폭을 늘려 높일 수 있다. 이것은 넓은 대역폭으로 sub-THz 통신을 사용하고, 진보된 대규모 MIMO 기술을 적용하여 수행될 수 있다. 밀리미터 이하의 방사선으로도 알려진 THz파는 일반적으로 0.03mm-3mm 범위의 해당 파장을 가진 0.1THz와 10THz 사이의 주파수 대역을 나타낸다. 100GHz-300GHz 대역 범위(Sub THz 대역)는 셀룰러 통신을 위한 THz 대역의 주요 부분으로 간주된다. Sub-THz 대역 mmWave 대역 에 추가하면 6G 셀룰러 통신 용량은 늘어난다.. 정의된 THz 대역 중 300GHz-3THz는 원적외선 (IR) 주파수 대역에 있다. 300GHz-3THz 대역은 광 대역의 일부이지만 광 대역의 경계에 있으며, RF 대역 바로 뒤에 있다. 따라서, 이 300 GHz-3 THz 대역은 RF와 유사성을 나타낸다. 도 10는 전자기 스펙트럼의 일례를 나타낸다.The data rate can be increased by increasing the bandwidth. This can be accomplished by using sub-THz communication with a wide bandwidth and applying advanced large-scale MIMO technology. THz waves, also known as sub-millimeter radiation, typically exhibit a frequency band between 0.1 THz and 10 THz with corresponding wavelengths in the range of 0.03 mm-3 mm. The 100GHz-300GHz band range (Sub THz band) is considered a major part of the THz band for cellular communication. Sub-THz band Addition to mmWave band increases 6G cellular communication capacity. Among the defined THz bands, 300GHz-3THz is in the far-infrared (IR) frequency band. The 300GHz-3THz band is part of the broadband, but at the edge of the wideband, just behind the RF band. Thus, this 300 GHz-3 THz band shows similarities to RF. 10 shows an example of an electromagnetic spectrum.
THz 통신의 주요 특성은 (i) 매우 높은 데이터 전송률을 지원하기 위해 광범위하게 사용 가능한 대역폭, (ii) 고주파에서 발생하는 높은 경로 손실 (고 지향성 안테나는 필수 불가결)을 포함한다. 높은 지향성 안테나에서 생성된 좁은 빔 폭은 간섭을 줄인다. THz 신호의 작은 파장은 훨씬 더 많은 수의 안테나 소자가 이 대역에서 동작하는 장치 및 BS에 통합될 수 있게 한다. 이를 통해 범위 제한을 극복할 수 있는 고급 적응형 배열 기술을 사용할 수 있다.The main characteristics of THz communication include (i) widely available bandwidth to support very high data rates, and (ii) high path loss occurring at high frequencies (high directional antennas are indispensable). The narrow beamwidth produced by the highly directional antenna reduces interference. The small wavelength of the THz signal allows a much larger number of antenna elements to be integrated into devices and BSs operating in this band. This allows the use of advanced adaptive nesting techniques that can overcome range limitations.
광 무선 기술 (Optical wireless technology)Optical wireless technology
OWC 기술은 가능한 모든 장치-대-액세스 네트워크를 위한 RF 기반 통신 외에도 6G 통신을 위해 계획되었다. 이러한 네트워크는 네트워크-대-백홀/프론트홀 네트워크 연결에 접속한다. OWC 기술은 4G 통신 시스템 이후 이미 사용되고 있으나 6G 통신 시스템의 요구를 충족시키기 위해 더 널리 사용될 것이다. 광 충실도(light fidelity), 가시광 통신, 광 카메라 통신 및 광 대역에 기초한 FSO 통신과 같은 OWC 기술은 이미 잘 알려진 기술이다. 광 무선 기술 기반의 통신은 매우 높은 데이터 속도, 낮은 지연 시간 및 안전한 통신을 제공할 수 있다. LiDAR 또한 광 대역을 기반으로 6G 통신에서 초 고해상도 3D 매핑을 위해 이용될 수 있다.OWC technology is envisioned for 6G communications in addition to RF-based communications for all possible device-to-access networks. These networks connect to network-to-backhaul/fronthaul network connections. OWC technology has already been used since the 4G communication system, but will be used more widely to meet the needs of the 6G communication system. OWC technologies such as light fidelity, visible light communication, optical camera communication, and FSO communication based on a light band are well known technologies. Communication based on optical radio technology can provide very high data rates, low latency and secure communication. LiDAR can also be used for ultra-high-resolution 3D mapping in 6G communication based on wide bands.
FSO 백홀 네트워크FSO backhaul network
FSO 시스템의 송신기 및 수신기 특성은 광섬유 네트워크의 특성과 유사하다. 따라서, FSO 시스템의 데이터 전송은 광섬유 시스템과 비슷하다. 따라서, FSO는 광섬유 네트워크와 함께 6G 시스템에서 백홀 연결을 제공하는 좋은 기술이 될 수 있다. FSO를 사용하면, 10,000km 이상의 거리에서도 매우 장거리 통신이 가능하다. FSO는 바다, 우주, 수중, 고립된 섬과 같은 원격 및 비원격 지역을 위한 대용량 백홀 연결을 지원한다. FSO는 셀룰러 BS 연결도 지원한다.The transmitter and receiver characteristics of an FSO system are similar to those of a fiber optic network. Thus, data transmission in an FSO system is similar to that of a fiber optic system. Therefore, FSO can be a good technology to provide backhaul connectivity in 6G systems along with fiber optic networks. Using FSO, very long-distance communication is possible even at distances of 10,000 km or more. FSO supports high-capacity backhaul connections for remote and non-remote areas such as sea, space, underwater, and isolated islands. FSO also supports cellular BS connectivity.
대규모 MIMO 기술Massive MIMO technology
스펙트럼 효율을 향상시키는 핵심 기술 중 하나는 MIMO 기술을 적용하는 것이다. MIMO 기술이 향상되면 스펙트럼 효율도 향상된다. 따라서, 6G 시스템에서 대규모 MIMO 기술이 중요할 것이다. MIMO 기술은 다중 경로를 이용하기 때문에 데이터 신호가 하나 이상의 경로로 전송될 수 있도록 다중화 기술 및 THz 대역에 적합한 빔 생성 및 운영 기술도 중요하게 고려되어야 한다.One of the key technologies to improve spectral efficiency is to apply MIMO technology. As MIMO technology improves, so does the spectral efficiency. Therefore, large-scale MIMO technology will be important in 6G systems. Since the MIMO technology uses multiple paths, a multiplexing technique and a beam generation and operation technique suitable for the THz band should also be considered important so that a data signal can be transmitted through one or more paths.
블록 체인blockchain
블록 체인은 미래의 통신 시스템에서 대량의 데이터를 관리하는 중요한 기술이 될 것이다. 블록 체인은 분산 원장 기술의 한 형태로서, 분산 원장은 수많은 노드 또는 컴퓨팅 장치에 분산되어 있는 데이터베이스이다. 각 노드는 동일한 원장 사본을 복제하고 저장한다. 블록 체인은 P2P 네트워크로 관리된다. 중앙 집중식 기관이나 서버에서 관리하지 않고 존재할 수 있다. 블록 체인의 데이터는 함께 수집되어 블록으로 구성된다. 블록은 서로 연결되고 암호화를 사용하여 보호된다. 블록 체인은 본질적으로 향상된 상호 운용성(interoperability), 보안, 개인 정보 보호, 안정성 및 확장성을 통해 대규모 IoT를 완벽하게 보완한다. 따라서, 블록 체인 기술은 장치 간 상호 운용성, 대용량 데이터 추적성, 다른 IoT 시스템의 자율적 상호 작용 및 6G 통신 시스템의 대규모 연결 안정성과 같은 여러 기능을 제공한다.Blockchain will become an important technology for managing large amounts of data in future communication systems. Blockchain is a form of distributed ledger technology, which is a database distributed across numerous nodes or computing devices. Each node replicates and stores an identical copy of the ledger. The blockchain is managed as a peer-to-peer network. It can exist without being managed by a centralized authority or server. Data on the blockchain is collected together and organized into blocks. Blocks are linked together and protected using encryption. Blockchain in nature perfectly complements IoT at scale with improved interoperability, security, privacy, reliability and scalability. Therefore, blockchain technology provides several features such as interoperability between devices, traceability of large amounts of data, autonomous interaction of different IoT systems, and large-scale connection stability of 6G communication systems.
3D 네트워킹3D Networking
6G 시스템은 지상 및 공중 네트워크를 통합하여 수직 확장의 사용자 통신을 지원한다. 3D BS는 저궤도 위성 및 UAV를 통해 제공될 것이다. 고도 및 관련 자유도 측면에서 새로운 차원을 추가하면 3D 연결이 기존 2D 네트워크와 상당히 다르다.The 6G system integrates terrestrial and public networks to support vertical expansion of user communications. 3D BS will be provided via low orbit satellites and UAVs. Adding a new dimension in terms of elevation and associated degrees of freedom makes 3D connections significantly different from traditional 2D networks.
양자 커뮤니케이션quantum communication
6G 네트워크의 맥락에서 네트워크의 감독되지 않은 강화 학습이 유망하다. 지도 학습 방식은 6G에서 생성된 방대한 양의 데이터에 레이블을 지정할 수 없다. 비지도 학습에는 라벨링이 필요하지 않다. 따라서, 이 기술은 복잡한 네트워크의 표현을 자율적으로 구축하는 데 사용할 수 있다. 강화 학습과 비지도 학습을 결합하면 진정한 자율적인 방식으로 네트워크를 운영할 수 있다.In the context of 6G networks, unsupervised reinforcement learning of networks is promising. Supervised learning methods cannot label the massive amounts of data generated by 6G. Unsupervised learning does not require labeling. Thus, this technique can be used to autonomously build representations of complex networks. Combining reinforcement learning and unsupervised learning allows networks to operate in a truly autonomous way.
무인 항공기drone
UAV(Unmanned Aerial Vehicle) 또는 드론은 6G 무선 통신에서 중요한 요소가 될 것이다. 대부분의 경우, UAV 기술을 사용하여 고속 데이터 무선 연결이 제공된다. BS 엔티티는 셀룰러 연결을 제공하기 위해 UAV에 설치된다. UAV는 쉬운 배치, 강력한 가시선 링크 및 이동성이 제어되는 자유도와 같은 고정 BS 인프라에서 볼 수 없는 특정 기능을 가지고 있다. 천재 지변 등의 긴급 상황 동안, 지상 통신 인프라의 배치는 경제적으로 실현 가능하지 않으며, 때로는 휘발성 환경에서 서비스를 제공할 수 없다. UAV는 이러한 상황을 쉽게 처리할 수 있다. UAV는 무선 통신 분야의 새로운 패러다임이 될 것이다. 이 기술은 eMBB, URLLC 및 mMTC 인 무선 네트워크의 세 가지 기본 요구 사항을 용이하게 한다. UAV는 또한, 네트워크 연결성 향상, 화재 감지, 재난 응급 서비스, 보안 및 감시, 오염 모니터링, 주차 모니터링, 사고 모니터링 등과 같은 여러 가지 목적을 지원할 수 있다. 따라서, UAV 기술은 6G 통신에 가장 중요한 기술 중 하나로 인식되고 있다.Unmanned Aerial Vehicles (UAVs) or drones will become an important element in 6G wireless communication. In most cases, high-speed data wireless connections are provided using UAV technology. A BS entity is installed in the UAV to provide cellular connectivity. UAVs have certain features not found in fixed BS infrastructure, such as easy deployment, strong line-of-sight links, and degrees of freedom with controlled mobility. During emergencies such as natural disasters, the deployment of terrestrial communications infrastructure is not economically feasible and sometimes cannot provide services in volatile environments. A UAV can easily handle this situation. UAV will become a new paradigm in the field of wireless communication. This technology facilitates the three basic requirements of wireless networks: eMBB, URLLC and mMTC. UAVs can also serve several purposes, such as improving network connectivity, fire detection, disaster emergency services, security and surveillance, pollution monitoring, parking monitoring, incident monitoring, and more. Therefore, UAV technology is recognized as one of the most important technologies for 6G communication.
셀-프리 통신(Cell-free Communication)Cell-free Communication
여러 주파수와 이기종 통신 기술의 긴밀한 통합은 6G 시스템에서 매우 중요하다. 결과적으로, 사용자는 디바이스에서 어떤 수동 구성을 만들 필요 없이 네트워크에서 다른 네트워크로 원활하게 이동할 수 있다. 사용 가능한 통신 기술에서 최상의 네트워크가 자동으로 선택된다. 이것은 무선 통신에서 셀 개념의 한계를 깨뜨릴 것이다. 현재, 하나의 셀에서 다른 셀로의 사용자 이동은 고밀도 네트워크에서 너무 많은 핸드 오버를 야기하고, 핸드 오버 실패, 핸드 오버 지연, 데이터 손실 및 핑퐁 효과를 야기한다. 6G 셀-프리 통신은 이 모든 것을 극복하고 더 나은 QoS를 제공할 것이다. 셀-프리 통신은 멀티 커넥티비티 및 멀티-티어 하이브리드 기술과 장치의 서로 다른 이기종 라디오를 통해 달성될 것이다.Tight integration of multiple frequencies and heterogeneous communication technologies is very important in 6G systems. As a result, users can seamlessly move from one network to another without having to make any manual configuration on the device. The best network is automatically selected from the available communication technologies. This will break the limitations of the cell concept in wireless communication. Currently, user movement from one cell to another causes too many handovers in high-density networks, causing handover failures, handover delays, data loss and ping-pong effects. 6G cell-free communication will overcome all of this and provide better QoS. Cell-free communication will be achieved through multi-connectivity and multi-tier hybrid technologies and different heterogeneous radios of devices.
무선 정보 및 에너지 전송 통합Integration of wireless information and energy transmission
WIET은 무선 통신 시스템과 같이 동일한 필드와 웨이브(wave)를 사용한다. 특히, 센서와 스마트폰은 통신 중 무선 전력 전송을 사용하여 충전될 것이다. WIET은 배터리 충전 무선 시스템의 수명을 연장하기 위한 유망한 기술이다. 따라서, 배터리가 없는 장치는 6G 통신에서 지원될 것이다.WIET uses the same fields and waves as wireless communication systems. In particular, the sensor and smartphone will be charged using wireless power transfer during communication. WIET is a promising technology for extending the life of battery-charging wireless systems. Therefore, devices without batteries will be supported in 6G communication.
센싱과 커뮤니케이션의 통합Integration of sensing and communication
자율 무선 네트워크는 동적으로 변화하는 환경 상태를 지속적으로 감지하고 서로 다른 노드간에 정보를 교환할 수 있는 기능이다. 6G에서, 감지는 자율 시스템을 지원하기 위해 통신과 긴밀하게 통합될 것이다.An autonomous wireless network is a function that can continuously detect dynamically changing environmental conditions and exchange information between different nodes. In 6G, sensing will be tightly integrated with communications to support autonomous systems.
액세스 백홀 네트워크의 통합Consolidation of access backhaul networks
6G에서 액세스 네트워크의 밀도는 엄청날 것이다. 각 액세스 네트워크는 광섬유와 FSO 네트워크와 같은 백홀 연결로 연결된다. 매우 많은 수의 액세스 네트워크들에 대처하기 위해, 액세스 및 백홀 네트워크 사이에 긴밀한 통합이 있을 것이다.The density of access networks in 6G will be enormous. Each access network is connected by backhaul connections such as fiber optic and FSO networks. To cope with a very large number of access networks, there will be tight integration between the access and backhaul networks.
홀로그램 빔 포밍Holographic Beamforming
빔 포밍은 특정 방향으로 무선 신호를 전송하기 위해 안테나 배열을 조정하는 신호 처리 절차이다. 스마트 안테나 또는 진보된 안테나 시스템의 하위 집합이다. 빔 포밍 기술은 높은 호 대잡음비, 간섭 방지 및 거부, 높은 네트워크 효율과 같은 몇 가지 장점이 있다. 홀로그램 빔 포밍 (HBF)은 소프트웨어-정의된 안테나를 사용하기 때문에 MIMO 시스템과 상당히 다른 새로운 빔 포밍 방법이다. HBF는 6G에서 다중 안테나 통신 장치에서 신호의 효율적이고 유연한 전송 및 수신을 위해 매우 효과적인 접근 방식이 될 것이다.Beamforming is a signal processing procedure that adjusts an antenna array to transmit a radio signal in a specific direction. A smart antenna or a subset of an advanced antenna system. Beamforming technology has several advantages such as high call-to-noise ratio, interference prevention and rejection, and high network efficiency. Hologram beamforming (HBF) is a new beamforming method that is significantly different from MIMO systems because it uses a software-defined antenna. HBF will be a very effective approach for efficient and flexible transmission and reception of signals in multi-antenna communication devices in 6G.
빅 데이터 분석Big Data Analytics
빅 데이터 분석은 다양한 대규모 데이터 세트 또는 빅 데이터를 분석하기 위한 복잡한 프로세스이다. 이 프로세스는 숨겨진 데이터, 알 수 없는 상관 관계 및 고객 성향과 같은 정보를 찾아 완벽한 데이터 관리를 보장한다. 빅 데이터는 비디오, 소셜 네트워크, 이미지 및 센서와 같은 다양한 소스에서 수집된다. 이 기술은 6G 시스템에서 방대한 데이터를 처리하는 데 널리 사용된다.Big data analytics is a complex process for analyzing various large data sets or big data. This process ensures complete data management by finding information such as hidden data, unknown correlations and customer propensity. Big data is gathered from a variety of sources such as videos, social networks, images and sensors. This technology is widely used to process massive amounts of data in 6G systems.
Large Intelligent Surface(LIS)Large Intelligent Surface (LIS)
THz 대역 신호의 경우 직진성이 강하여 방해물로 인한 음영 지역이 많이 생길 수 있는데, 이러한 음영 지역 근처에 LIS 설치함으로써 통신 권역을 확대하고 통신 안정성 강화 및 추가적인 부가 서비스가 가능한 LIS 기술이 중요하게 된다. LIS는 전자기 물질(electromagnetic materials)로 만들어진 인공 표면(artificial surface)이고, 들어오는 무선파와 나가는 무선파의 전파(propagation)을 변경시킬 수 있다. LIS는 massive MIMO의 확장으로 보여질 수 있으나, massive MIMO와 서로 다른 array 구조 및 동작 메커니즘이 다르다. 또한, LIS는 수동 엘리먼트(passive elements)를 가진 재구성 가능한 리플렉터(reflector)로서 동작하는 점 즉, 활성(active) RF chain을 사용하지 않고 신호를 수동적으로만 반사(reflect)하는 점에서 낮은 전력 소비를 가지는 장점이 있다. 또한, LIS의 수동적인 리플렉터 각각은 입사되는 신호의 위상 편이를 독립적으로 조절해야 하기 때문에, 무선 통신 채널에 유리할 수 있다. LIS 컨트롤러를 통해 위상 편이를 적절히 조절함으로써, 반사된 신호는 수신된 신호 전력을 부스트(boost)하기 위해 타겟 수신기에서 모여질 수 있다.In the case of the THz band signal, the linearity is strong, so there may be many shaded areas due to obstructions. By installing the LIS near these shaded areas, the LIS technology that expands the communication area, strengthens communication stability and enables additional additional services becomes important. The LIS is an artificial surface made of electromagnetic materials, and can change the propagation of incoming and outgoing radio waves. LIS can be seen as an extension of massive MIMO, but the array structure and operation mechanism are different from those of massive MIMO. In addition, LIS has low power consumption in that it operates as a reconfigurable reflector with passive elements, that is, only passively reflects the signal without using an active RF chain. There are advantages to having Also, since each of the passive reflectors of the LIS must independently adjust the phase shift of the incoming signal, it can be advantageous for a wireless communication channel. By properly adjusting the phase shift via the LIS controller, the reflected signal can be gathered at the target receiver to boost the received signal power.
테라헤르츠(THz) 무선통신 일반Terahertz (THz) wireless communication general
THz 무선통신은 대략 0.1~10THz(1THz=1012Hz)의 진동수를 가지는 THz파를 이용하여 무선통신을 이용하는 것으로, 100GHz 이상의 매우 높은 캐리어 주파수를 사용하는 테라헤르츠(THz) 대역 무선통신을 의미할 수 있다. THz파는 RF(Radio Frequency)/밀리미터(mm)와 적외선 대역 사이에 위치하며, (i) 가시광/적외선에 비해 비금속/비분극성 물질을 잘 투과하며 RF/밀리미터파에 비해 파장이 짧아 높은 직진성을 가지며 빔 집속이 가능할 수 있다. 또한, THz파의 광자 에너지는 수 meV에 불과하기 때문에 인체에 무해한 특성이 있다. THz 무선통신에 이용될 것으로 기대되는 주파수 대역은 공기 중 분자 흡수에 의한 전파 손실이 작은 D-밴드(110GHz~170GHz) 혹은 H-밴드(220GHz~325GHz) 대역일 수 있다. THz 무선통신에 대한 표준화 논의는 3GPP 이외에도 IEEE 802.15 THz working group을 중심으로 논의되고 있으며, IEEE 802.15의 Task Group (TG3d, TG3e)에서 발행되는 표준문서는 본 명세서에서 설명되는 내용을 구체화하거나 보충할 수 있다. THz 무선통신은 무선 인식(wireless cognition), 센싱(sensing), 이미징(imaging), 무선 통신(wireless), THz 네비게이션(navigation) 등에 응용될 수 있다. THz wireless communication uses wireless communication using a THz wave having a frequency of approximately 0.1 to 10THz (1THz=1012Hz), and can mean terahertz (THz) band wireless communication using a very high carrier frequency of 100GHz or more. . THz wave is located between RF (Radio Frequency)/millimeter (mm) and infrared band, (i) It transmits non-metal/non-polar material better than visible light/infrared light, and has a shorter wavelength than RF/millimeter wave, so it has high straightness. Beam focusing may be possible. In addition, since the photon energy of the THz wave is only a few meV, it is harmless to the human body. The frequency band expected to be used for THz wireless communication may be a D-band (110 GHz to 170 GHz) or H-band (220 GHz to 325 GHz) band with low propagation loss due to absorption of molecules in the air. The standardization discussion on THz wireless communication is being discussed centered on the IEEE 802.15 THz working group in addition to 3GPP, and the standard documents issued by the IEEE 802.15 Task Group (TG3d, TG3e) may specify or supplement the content described in this specification. have. THz wireless communication may be applied to wireless recognition, sensing, imaging, wireless communication, THz navigation, and the like.
도 11은 THz 통신 응용의 일례를 나타낸 도이다.11 is a diagram showing an example of THz communication application.
도 11에 도시된 바와 같이, THz 무선통신 시나리오는 매크로 네트워크(macro network), 마이크로 네트워크(micro network), 나노스케일 네트워크(nanoscale network)로 분류될 수 있다. 매크로 네트워크에서 THz 무선통신은 vehicle-to-vehicle 연결 및 backhaul/fronthaul 연결에 응용될 수 있다. 마이크로 네트워크에서 THz 무선통신은 인도어 스몰 셀(small cell), 데이터 센터에서 무선 연결과 같은 고정된 point-to-point 또는 multi-point 연결, 키오스크 다운로딩과 같은 근거리 통신(near-field communication)에 응용될 수 있다.As shown in FIG. 11 , a THz wireless communication scenario may be classified into a macro network, a micro network, and a nanoscale network. In the macro network, THz wireless communication can be applied to vehicle-to-vehicle connection and backhaul/fronthaul connection. THz wireless communication in micro networks is applied to indoor small cells, fixed point-to-point or multi-point connections such as wireless connections in data centers, and near-field communication such as kiosk downloading. can be
아래 표 2은 THz 파에서 이용될 수 있는 기술의 일례를 나타낸 표이다.Table 2 below is a table showing an example of a technique that can be used in the THz wave.
Figure PCTKR2020009839-appb-T000002
Figure PCTKR2020009839-appb-T000002
THz 무선통신은 THz 발생 및 수신을 위한 방법을 기준으로 분류할 수 있다. THz 발생 방법은 광 소자 또는 전자소자 기반 기술로 분류할 수 있다. 도 12는 전자소자 기반 THz 무선통신 송수신기의 일례를 나타낸 도이다.THz wireless communication can be classified based on a method for generating and receiving THz. The THz generation method can be classified into an optical device or an electronic device-based technology. 12 is a diagram illustrating an example of an electronic device-based THz wireless communication transceiver.
전자 소자를 이용하여 THz를 발생시키는 방법은 공명 터널링 다이오드(RTD: Resonant Tunneling Diode)와 같은 반도체 소자를 이용하는 방법, 국부 발진기와 체배기를 이용하는 방법, 화합물 반도체 HEMT(High Electron Mobility Transistor) 기반의 집적회로를 이용한 MMIC (Monolithic Microwave Integrated Circuits) 방법, Si-CMOS 기반의 집적회로를 이용하는 방법 등이 있다. 도 12의 경우, 주파수를 높이기 위해 체배기(doubler, tripler, multiplier)가 적용되었고, 서브하모닉 믹서를 지나 안테나에 의해 방사된다. THz 대역은 높은 주파수를 형성하므로, 체배기가 필수적이다. 여기서, 체배기는 입력 대비 N배의 출력 주파수를 갖게 하는 회로이며, 원하는 하모닉 주파수에 정합시키고, 나머지 모든 주파수는 걸러낸다. 그리고, 도 12의 안테나에 배열 안테나 등이 적용되어 빔포밍이 구현될 수도 있다. 도 12에서, IF는 중간 주파수(intermediate frequency)를 나타내며, tripler, multipler는 체배기를 나타내며, PA 전력 증폭기(Power Amplifier)를 나타내며, LNA는 저잡음 증폭기(low noise amplifier), PLL은 위상동기회로(Phase-Locked Loop)를 나타낸다.A method of generating THz using an electronic device includes a method using a semiconductor device such as a Resonant Tunneling Diode (RTD), a method using a local oscillator and a multiplier, and an integrated circuit based on a compound semiconductor HEMT (High Electron Mobility Transistor). MMIC (Monolithic Microwave Integrated Circuits) method using In the case of FIG. 12 , a doubler, tripler, or multiplier is applied to increase the frequency, and it is radiated by the antenna through the subharmonic mixer. Since the THz band forms a high frequency, a multiplier is essential. Here, the multiplier is a circuit that has an output frequency that is N times that of the input, matches the desired harmonic frequency, and filters out all other frequencies. Also, beamforming may be implemented by applying an array antenna or the like to the antenna of FIG. 12 . In FIG. 12 , IF denotes an intermediate frequency, tripler, multipler denote a multiplier, PA Power Amplifier denotes, LNA denotes a low noise amplifier, and PLL denotes a phase lock circuit (Phase). -Locked Loop).
도 13은 광 소자 기반 THz 신호를 생성하는 방법의 일례를 나타낸 도이며, 도 14는 광 소자 기반 THz 무선통신 송수신기의 일례를 나타낸 도이다.13 is a diagram illustrating an example of a method of generating an optical device-based THz signal, and FIG. 14 is a diagram illustrating an example of an optical device-based THz wireless communication transceiver.
광 소자 기반 THz 무선통신 기술은 광소자를 이용하여 THz 신호를 발생 및 변조하는 방법을 말한다. 광 소자 기반 THz 신호 생성 기술은 레이저와 광변조기 등을 이용하여 초고속 광신호를 생성하고, 이를 초고속 광검출기를 이용하여 THz 신호로 변환하는 기술이다. 이 기술은 전자 소자만을 이용하는 기술에 비해 주파수를 증가시키기가 용이하고, 높은 전력의 신호 생성이 가능하며, 넓은 주파수 대역에서 평탄한 응답 특성을 얻을 수 있다. 광소자 기반 THz 신호 생성을 위해서는 도 13에 도시된 바와 같이, 레이저 다이오드, 광대역 광변조기, 초고속 광검출기가 필요하다. 도 13의 경우, 파장이 다른 두 레이저의 빛 신호를 합파하여 레이저 간의 파장 차이에 해당하는 THz 신호를 생성하는 것이다. 도 13에서, 광 커플러(Optical Coupler)는 회로 또는 시스템 간의 전기적 절연과의 결합을 제공하기 위해 광파를 사용하여 전기신호를 전송하도록 하는 반도체 디바이스를 의미하며, UTC-PD(Uni-Travelling Carrier Photo-Detector)은 광 검출기의 하나로서, 능동 캐리어(active carrier)로 전자를 사용하며 밴드갭 그레이딩(Bandgap Grading)으로 전자의 이동 시간을 감소시킨 소자이다. UTC-PD는 150GHz 이상에서 광검출이 가능하다. 도 14에서, EDFA(Erbium-Doped Fiber Amplifier)는 어븀이 첨가된 광섬유 증폭기를 나타내며, PD(Photo Detector)는 광신호를 전기신호로 변환할 수 있는 반도체 디바이스를 나타내며, OSA는 각종 광통신 기능(광전 변환, 전광 변환 등)을 하나의 부품으로 모듈화시킨 광모듈(Optical Sub Aassembly)를 나타내며, DSO는 디지털 스토리지 오실로스코프(digital storage oscilloscope)를 나타낸다.Optical device-based THz wireless communication technology refers to a method of generating and modulating a THz signal using an optical device. The optical element-based THz signal generation technology is a technology that generates a high-speed optical signal using a laser and an optical modulator, and converts it into a THz signal using an ultra-high-speed photodetector. In this technology, it is easier to increase the frequency compared to the technology using only electronic devices, it is possible to generate a high-power signal, and it is possible to obtain a flat response characteristic in a wide frequency band. 13, a laser diode, a broadband optical modulator, and a high-speed photodetector are required to generate an optical device-based THz signal. In the case of FIG. 13 , a THz signal corresponding to a difference in wavelength between the lasers is generated by multiplexing the light signals of two lasers having different wavelengths. In FIG. 13 , an optical coupler refers to a semiconductor device that uses light waves to transmit electrical signals to provide coupling with electrical insulation between circuits or systems, and UTC-PD (Uni-Traveling Carrier Photo-) Detector) is one of the photodetectors, which uses electrons as active carriers and reduces the movement time of electrons by bandgap grading. UTC-PD is capable of photodetection above 150GHz. 14, EDFA (Erbium-Doped Fiber Amplifier) represents an erbium-doped optical fiber amplifier, PD (Photo Detector) represents a semiconductor device capable of converting an optical signal into an electrical signal, and OSA represents various optical communication functions (photoelectric It represents an optical module (Optical Sub Aassembly) in which conversion, electro-optical conversion, etc.) are modularized into one component, and DSO represents a digital storage oscilloscope.
도 15 및 도 16을 참조하여 광전 변환기(또는 광전 컨버터)의 구조를 설명한다. 도 15는 광자 소스(Photoinc source) 기반 송신기의 구조를 예시하며, 도 16은 광 변조기(Optical modulator)의 구조를 예시한다.The structure of the photoelectric converter (or photoelectric converter) will be described with reference to FIGS. 15 and 16 . 15 illustrates a structure of a photoinc source-based transmitter, and FIG. 16 illustrates a structure of an optical modulator.
일반적으로 레이저(Laser)의 광학 소스(Optical source)를 광파 가이드(Optical wave guide)를 통과시켜 신호의 위상(phase)등을 변화시킬 수 있다. 이때, 마이크로파 컨택트(Microwave contact) 등을 통해 전기적 특성을 변화시킴으로써 데이터를 싣게 된다. 따라서, 광학 변조기 출력(Optical modulator output)은 변조된(modulated) 형태의 파형으로 형성된다. 광전 변조기(O/E converter)는 비선형 크리스탈(nonlinear crystal)에 의한 광학 정류(optical rectification) 동작, 광전도 안테나(photoconductive antenna)에 의한 광전 변환(O/E conversion), 광속의 전자 다발(bunch of relativistic electrons)로부터의 방출(emission) 등에 따라 THz 펄스를 생성할 수 있다. 상기와 같은 방식으로 발생한 테라헤르츠 펄스(THz pulse)는 펨토 세컨드(femto second)부터 피코 세컨드(pico second)의 단위의 길이를 가질 수 있다. 광전 변환기(O/E converter)는 소자의 비선형성(non-linearity)을 이용하여, 하향 변환(Down conversion)을 수행한다.In general, a phase of a signal may be changed by passing an optical source of a laser through an optical wave guide. At this time, data is loaded by changing electrical characteristics through a microwave contact or the like. Accordingly, an optical modulator output is formed as a modulated waveform. The photoelectric modulator (O/E converter) is an optical rectification operation by a nonlinear crystal (nonlinear crystal), photoelectric conversion (O / E conversion) by a photoconductive antenna (photoconductive antenna), a bunch of electrons in the light beam (bunch of) THz pulses can be generated by, for example, emission from relativistic electrons. A terahertz pulse (THz pulse) generated in the above manner may have a length in units of femtoseconds to picoseconds. An O/E converter performs down conversion by using non-linearity of a device.
테라헤르츠 스펙트럼의 용도(THz spectrum usage)를 고려할 때, 테라헤르츠 시스템을 위해서 고정된(fixed) 또는 모바일 서비스(mobile service) 용도로써 여러 개의 연속적인 기가헤르츠(contiguous GHz)의 대역들(bands)을 사용할 가능성이 높다. 아웃도어(outdoor) 시나리오 기준에 의하면, 1THz까지의 스펙트럼에서 산소 감쇠(Oxygen attenuation) 10^2 dB/km를 기준으로 가용 대역폭(Bandwidth)이 분류될 수 있다. 이에 따라 상기 가용 대역폭이 여러 개의 밴드 청크(band chunk)들로 구성되는 프레임워크(framework)가 고려될 수 있다. 상기 프레임워크의 일 예시로 하나의 캐리어(carrier)에 대해 테라헤르츠 펄스(THz pulse)의 길이를 50ps로 설정한다면, 대역폭(BW)은 약 20GHz가 된다. Considering the THz spectrum usage, a number of contiguous GHz bands for fixed or mobile service use for the terahertz system are used. likely to use According to the outdoor scenario standard, available bandwidth may be classified based on oxygen attenuation of 10^2 dB/km in a spectrum up to 1 THz. Accordingly, a framework in which the available bandwidth is composed of several band chunks may be considered. As an example of the framework, if the length of a terahertz pulse (THz pulse) for one carrier is set to 50 ps, the bandwidth (BW) becomes about 20 GHz.
적외선 대역(IR band)에서 테라헤르츠 대역(THz band)으로의 효과적인 하향 변환(Down conversion)은 광전 컨버터(O/E converter)의 비선형성(nonlinearity)을 어떻게 활용하는가에 달려 있다. 즉, 원하는 테라헤르츠 대역(THz band)으로 하향 변환(down conversion)하기 위해서는 해당 테라헤르츠 대역(THz band)에 옮기기에 가장 이상적인 비선형성(non-linearity)을 갖는 광전 변환기(O/E converter)의 설계가 요구된다. 만일 타겟으로 하는 주파수 대역에 맞지 않는 광전 변환기(O/E converter)를 사용하는 경우, 해당 펄스(pulse)의 크기(amplitude), 위상(phase)에 대하여 오류(error)가 발생할 가능성이 높다. Effective down conversion from the IR band to the THz band depends on how the nonlinearity of the O/E converter is utilized. That is, in order to down-convert to a desired terahertz band (THz band), the O/E converter having the most ideal non-linearity for transfer to the terahertz band (THz band) is design is required. If an O/E converter that does not fit the target frequency band is used, there is a high possibility that an error may occur with respect to the amplitude and phase of the corresponding pulse.
단일 캐리어(single carrier) 시스템에서는 광전 변환기 1개를 이용하여 테라헤르츠 송수신 시스템이 구현될 수 있다. 채널 환경에 따라 달라지지만 멀리 캐리어(Multi carrier) 시스템에서는 캐리어 수만큼 광전 변환기가 요구될 수 있다. 특히 전술한 스펙트럼 용도와 관련된 계획에 따라 여러 개의 광대역들을 이용하는 멀티 캐리어 시스템인 경우, 그 현상이 두드러지게 될 것이다. 이와 관련하여 상기 멀티 캐리어 시스템을 위한 프레임 구조가 고려될 수 있다. 광전 변환기를 기반으로 하향 주파수 변환된 신호는 특정 자원 영역(예: 특정 프레임)에서 전송될 수 있다. 상기 특정 자원 영역의 주파수 영역은 복수의 청크(chunk)들을 포함할 수 있다. 각 청크(chunk)는 적어도 하나의 컴포넌트 캐리어(CC)로 구성될 수 있다.In a single carrier system, a terahertz transmission/reception system may be implemented using one photoelectric converter. Although it depends on the channel environment, as many photoelectric converters as the number of carriers may be required in a far-carrier system. In particular, in the case of a multi-carrier system using several broadbands according to the above-described spectrum usage-related scheme, the phenomenon will become conspicuous. In this regard, a frame structure for the multi-carrier system may be considered. The down-frequency-converted signal based on the photoelectric converter may be transmitted in a specific resource region (eg, a specific frame). The frequency domain of the specific resource region may include a plurality of chunks. Each chunk may be composed of at least one component carrier (CC).
앞서 살핀 6G 통신 기술은 후술할 본 명세서에 제안되는 방법 또는 장치들과 결합되어 적용될 수 있으며, 또는 본 명세서에서 제안하는 방법들의 기술적 특징을 구체화하거나 명확하게 하는데 보충될 수 있다. 한편, 본 명세서에서 제안하는 연합추론 방법은 앞서 설명한 6G 통신 기술 뿐만 아니라, 3G, 4G 및 5G 기술에 의한 통신 서비스와 결합되어 적용될 수도 있다.The above salpin 6G communication technology may be applied in combination with the method or apparatus proposed in the present specification to be described later, or may be supplemented to specify or clarify the technical characteristics of the methods proposed in the present specification. On the other hand, the joint inference method proposed in the present specification may be applied in combination with communication services by 3G, 4G, and 5G technologies as well as the 6G communication technology described above.
도 17은 본 명세서의 다양한 실시예에 따른 연합추론 방법의 순서도이다.17 is a flowchart of an associative inference method according to various embodiments of the present specification.
본 명세서의 다양한 실시예에 따른 연합추론 방법은 무선 통신 시스템으로서, 단말 또는 서버에 포함된 하나 이상의 프로세서에 의해 구현될 수 있다. 다양한 실시예에서, 기지국 또는 단말은 명령들(instructions)을 저장하는 하나 이상의 메모리, 하나 이상의 트랜시버, 및 하나 이상의 프로세서를 포함하고, 상기 하나 이상의 프로세서는 연합추론을 위한 동작들을 지원한다. 이하의 명세서는 단말의 하나 이상의 프로세서에 의한 동작들을 설명한다.The associative inference method according to various embodiments of the present specification may be implemented by one or more processors included in a terminal or a server as a wireless communication system. In various embodiments, a base station or terminal includes one or more memories storing instructions, one or more transceivers, and one or more processors, wherein the one or more processors support operations for associative inference. The following specification describes operations by one or more processors of the terminal.
도 17을 참조하면, 서버는 연합 추론 시스템에 포함된 단말들로부터 연합 추론을 위한 특정 값들을 수신한다(S1710).Referring to FIG. 17 , the server receives specific values for federated inference from terminals included in the federated inference system (S1710).
서버는 2 이상의 단말들로부터 연합 추론을 위한 특정 값들을 수신한다. 일 실시예에서 상기 2 이상의 단말들은 다수의 단말을 포함하는 단말 그룹의 대표 단말(Master UE)일 수 있다. 즉, 다수의 단말이 존재하는 통신 환경을 가정할 때, 서버는 상기 다수의 단말 전체로부터 특정 값들을 수신하는 것이 아니라, 상기 다수의 단말 중 일부인 대표 단말로부터만 특정 값들을 수신할 수 있다. 서버 또는 단말은 특정 값들의 수신 이전에 제어 신호를 통해 단말 그룹을 생성하고, 생성된 단말 그룹에 포함된 단말들 중 어느 하나를 대표 단말로 선정할 수 있다. 대표 단말이 선정되면, 서버는 대표 단말이 아닌 다른 단말로부터 상기 특정 값들을 수신하지 않으므로, 간섭 등 통신의 성능을 저해하는 다른 요인들의 참여를 최소화할 수 있다. 한편, 단말 그룹의 생성은 이하 S1730에서 구체적으로 설명한다.The server receives specific values for federated inference from two or more terminals. In an embodiment, the two or more terminals may be a master UE of a terminal group including a plurality of terminals. That is, assuming a communication environment in which a plurality of terminals exist, the server may not receive specific values from all of the plurality of terminals, but may receive specific values only from a representative terminal that is a part of the plurality of terminals. The server or the terminal may create a terminal group through a control signal before receiving specific values, and select any one of terminals included in the created terminal group as a representative terminal. When the representative terminal is selected, since the server does not receive the specific values from other terminals than the representative terminal, participation of other factors impairing communication performance such as interference can be minimized. On the other hand, the generation of the terminal group will be described in detail in S1730 below.
서버 또는 단말은 상기 2 이상의 단말들 중 적어도 일부를 포함하는 하나 이상의 단말 그룹을 생성할 수 있다 (S1720).The server or terminal may create one or more terminal groups including at least some of the two or more terminals (S1720).
상기 단말 그룹은 소정의 파라미터에 기초하여 구성된다. 일 실시예에서 상기 단말 그룹은 상기 단말에 저장된 로컬 AI 모델의 식별 정보, 상기 단말의 위치 정보 또는 CSI 중 적어도 하나에 기초하여 그룹화될 수 있다. 상기 로컬 AI 모델은 최초로 로우 데이터를 입력받아서 상기 특정 값을 생성하기 위한 모델을 의미한다. 일 실시예에서 상기 로컬 AI 모델은 하나 이상의 노드를 구비하는 하나 이상의 레이어와 비선형 활성화 레이어를 포함하는 신경망(Neural Network, NN) 모델을 말한다. The terminal group is configured based on a predetermined parameter. In an embodiment, the terminal group may be grouped based on at least one of identification information of a local AI model stored in the terminal, location information of the terminal, and CSI. The local AI model refers to a model for generating the specific value by first receiving raw data. In an embodiment, the local AI model refers to a neural network (NN) model including one or more layers including one or more nodes and a nonlinear activation layer.
일 실시예에서 서버는 기지국의 셀 내에 위치한 단말들로 단말 그룹의 생성을 위한 제어 신호를 전송할 수 있다. 상기 서버에 의한 제어 신호의 전송은 연합추론을 요청하는 메시지를 셀 내의 요청 단말로부터 수신하는 것에 응답하여 수행될 수 있다. 즉, 상기 요청 단말로부터 연합추론에 대한 요청을 수신하면, 서버는 셀 내의 모두 단말들을 대상으로 그룹화를 수행하고, 그룹화된 단말 그룹들은 상기 연합추론의 지원을 위하여 특정 값을 서버로 전송하는 것이다.In an embodiment, the server may transmit a control signal for generation of a terminal group to terminals located within a cell of the base station. Transmission of the control signal by the server may be performed in response to receiving a message requesting association inference from the requesting terminal in the cell. That is, upon receiving a request for federated inference from the requesting terminal, the server performs grouping for all terminals in the cell, and the grouped terminal groups transmit a specific value to the server to support the federated inference.
다른 실시예에서 단말들은 D2D(device to device) 통신을 이용하여 단말 그룹을 수행할 수도 있다. 즉, 사이드링크 통신에 따라 전술한 단말 그룹을 생성하기 위한 소정의 파라미터를 송수신하여 단말 그룹을 생성하는 것이다.In another embodiment, terminals may perform a terminal group using device to device (D2D) communication. That is, the terminal group is created by transmitting and receiving predetermined parameters for generating the aforementioned terminal group according to sidelink communication.
이때, 서버 또는 단말에 의해 생성된 단말 그룹은 2 이상 존재할 수 있다. 예를 들어, 다수의 단말들 중 일부는 제1 로컬 AI 모델을 가지고 있고, 나머지 일부는 제2 로컬 AI 모델을 가지고 있는 경우를 가정하면, 이때 2 이상의 단말들은 제1 로컬 AI 모델을 갖는 제1 그룹과 제2 로컬 AI 모델을 갖는 제2 그룹으로 그룹화될 수 있을 것이다.In this case, two or more terminal groups created by the server or terminal may exist. For example, if it is assumed that some of the plurality of terminals have a first local AI model, and some of the remaining terminals have a second local AI model, in this case, two or more terminals have a first local AI model with a first local AI model. group and may be grouped into a second group with a second local AI model.
한편, 일 실시예에서 상기 특정 값은 상기 비선형 활성화 레이어의 입력 값 또는 출력 값 중 어느 하나를 지칭하고, 다른 실시예에서 상기 특정 값은 상기 비선형 활성화 레이어 외의 다른 레이어의 입력 값 또는 출력 값을 의미할 수도 있다. Meanwhile, in an embodiment, the specific value refers to any one of an input value or an output value of the nonlinear activation layer, and in another embodiment, the specific value refers to an input value or an output value of a layer other than the nonlinear activation layer You may.
일 실시예에서 상기 비활성화 레이어는 소프트맥스 레이어일 수 있다. 소프트맥스 레이어는 상기 로컬 AI 모델의 입력 레이어에 인가된 데이터에 대한 확률 값을 산출할 수 있다. 상기 확률 값은 분류 동작을 위하여 미리 학습된 다수의 클래스 별 확률 값을 의미한다. 이와 같은 확률 값들 중 가장 높은 값은 이후에 argmax 함수를 통해 선별될 수 있고, 분류 결과는 가장 높은 확률 값에 대응되는 개체(entity) 또는 클래스로 결정될 것이다.In an embodiment, the deactivation layer may be a softmax layer. The softmax layer may calculate a probability value for data applied to the input layer of the local AI model. The probability value means a probability value for each class that has been previously learned for a classification operation. The highest value among these probability values may be subsequently selected through the argmax function, and the classification result will be determined as an entity or class corresponding to the highest probability value.
서버는 상기 수신된 특정 값들과 메모리에 저장된 글로벌 AI 모델을 이용하여 분류 동작을 수행한다 (S1730).The server performs a classification operation using the received specific values and the global AI model stored in the memory (S1730).
글로벌 AI 모델은 서버의 메모리에 저장된 AI 모델을 말한다. 상기 글로벌 AI 모델은 연합추론과 다른 연합학습(Federated Learning)의 결과물일 수도 있다. 상기 글로벌 AI 모델은 상기 로컬 AI 모델과 달리 사용자에 따라 개인화되지 않는 것을 특징으로 한다. The global AI model refers to the AI model stored in the server's memory. The global AI model may be a result of federated inference and other federated learning. Unlike the local AI model, the global AI model is not personalized according to users.
일 실시예에서 상기 글로벌 AI 모델은 가중합 모델 또는 심층 신경망 모델로 구현될 수 있다. In an embodiment, the global AI model may be implemented as a weighted sum model or a deep neural network model.
상기 가중합 모델은 상기 서버로 수신되는 특정 값들에 기 설정된 가중치를 부여하고, 상기 가중치가 부여된 특정 값들을 합하기 위한 모델을 말한다. 이때, 기 설정된 가중치는 서버로 특정 값을 전송하는 단말 그룹의 종류에 따라 다르게 설정될 수 있다. 예를 들어, 제1 그룹으로부터 수신된 특정 값에는 제1 가중치를 부여하고, 제2 그룹으로부터 수신된 특정 값에는 제2 가중치를 부여할 수 있다. 상기 가중합 모델을 이용하여 산출된 결과 값은 이후에 소프트맥스 레이어에 의해 다수의 클래스에 대한 확률 값으로 변환된다. 상기 확률 값들 중 어느 하나는 argmax 함수에 기반하여 선택되고, 선택된 확률 값에 대응되는 정보로서 분류 결과가 생성된다.The weighted sum model refers to a model for assigning a preset weight to specific values received from the server, and adding the weighted specific values. In this case, the preset weight may be set differently according to the type of terminal group that transmits a specific value to the server. For example, a first weight may be assigned to a specific value received from the first group, and a second weight may be assigned to a specific value received from the second group. The result value calculated using the weighted sum model is then converted into probability values for a plurality of classes by the softmax layer. Any one of the probability values is selected based on the argmax function, and a classification result is generated as information corresponding to the selected probability value.
상기 심층 신경망 모델은, 상기 가중합 모델과 달리, 다수의 레이어로 구성된 인공 신경망 모델로서 서버로 수신되는 특정 값들이 입력 레이어에 제공되면 하나 이상의 은닉 레이어를 통과하여 출력 레이어에서 결과 값을 출력한다. 상기 결과 값은 일종의 가중 합에 해당하며, 이후의 과정은 전술한 가중합 모델과 동일하므로, 그 설명은 생략한다.The deep neural network model, unlike the weighted sum model, is an artificial neural network model composed of a plurality of layers. When specific values received from a server are provided to an input layer, it passes through one or more hidden layers and outputs a result value from an output layer. The result value corresponds to a kind of weighted sum, and a subsequent process is the same as the above-described weighted sum model, and thus a description thereof will be omitted.
종래에는 하나의 디바이스에서 메모리에 저장된 AI 모델을 이용하여 각각의 클래스에 대한 확률 값을 산출하고, 산출된 확률 값에 기반하여 분류 동작이 수행되었다. 본 명세서의 다양한 실시예에 따른 방법은 이러한 동작과 달리 한 디바이스가 다른 디바이스로 AI 모델을 이용한 확률 값을 산출 과정에서 생성되는 중간 값 또는 상기 확률 값을 다른 디바이스로 전송하도록 하여 연합추론이라 호칭된다. 이때, 마지막 단에서 최종적인 추론을 수행하기 이전에는 다수의 다비이스로부터 서로 다른 중간 값 또는 확률 값을 수신할 수 있으므로, 보다 정확한 추론 결과를 산출할 수 있을 뿐만 아니라, 단일 디바이스의 컴퓨팅 성능에 대한 한계를 극복할 수 있다는 이점이 있다.Conventionally, one device calculates a probability value for each class using an AI model stored in a memory, and a classification operation is performed based on the calculated probability value. The method according to various embodiments of the present specification, unlike this operation, allows one device to transmit an intermediate value generated in the process of calculating a probability value using an AI model to another device or the probability value to another device. . At this time, since different intermediate values or probability values can be received from a plurality of devices before final inference is performed at the last stage, more accurate inference results can be calculated as well as the computing performance of a single device. It has the advantage of being able to overcome limitations.
이하의 명세서에서 로컬 AI 모델은 로컬 모델과, 글로벌 AI 모델은 글로벌 모델과 상호혼용될 수 있다.In the following specification, the local AI model may be used interchangeably with the local model, and the global AI model may be used interchangeably with the global model.
도 18 내지 도 20은 도 17의 연합추론 방법의 예시도이다. 도 18은 AI 모델의 중간 값 또는 최종 값을 서버에서 취합하여 추론하는 방법을 예시하고, 도 19 및 도 20은 상기 중간 값 또는 최종 값을 서버 단말(Server UE)에서 취합하여 추론하는 방법을 예시한다.18 to 20 are exemplary views of the associative reasoning method of FIG. 17 . 18 exemplifies a method of inferring by collecting the intermediate or final values of the AI model in the server, and FIGS. 19 and 20 illustrate a method of inferring by collecting the intermediate or final values in the server terminal (Server UE) do.
도 18을 참조하면, 서버(1850)와 무선 또는 유선 통신망으로 연결된 다수의 단말(1821a, 1821b, 1823, 1831a, 1831b, 1831c, 1833)은 동일한 목적의 인공지능 기반의 추론(Inference)을 위하여 협력할 수 있다. 각각의 단말(1821a, 1821b, 1823, 1831a, 1831b, 1831c, 1833)은 인공지능 기반의 추론을 위한 AI 모델(1829, 1839)을 하나 이상의 메모리에 가지고 있다. 각각의 단말에 구비된 프로세서의 성능(예: 연산 능력)에 기반하여 각각의 단말은 서로 다른 AI 모델(1829, 1839)을 메모리에 저장한다. 예를 들어, 제1 단말의 연산 능력이 제2 단말의 연산 능력 보다 낫다면, 제1 단말에 저장된 제1 AI 모델은 제2 단말의 제2 AI 모델 보다 더 복잡할 수 있다. 제1, 제2 AI 모델은 서로 구분되는 구조를 가지며, 그 결과 동일한 입력 데이터(1810)가 인가되더라도 서로 다른 아웃풋을 출력할 수도 있다.Referring to FIG. 18 , a plurality of terminals 1821a, 1821b, 1823, 1831a, 1831b, 1831c, 1833 connected to a server 1850 and a wireless or wired communication network cooperate for the same purpose artificial intelligence-based inference (Inference) can do. Each of the terminals 1821a, 1821b, 1823, 1831a, 1831b, 1831c, and 1833 has AI models 1829 and 1839 for artificial intelligence-based inference in one or more memories. Each terminal stores different AI models 1829 and 1839 in memory based on the performance (eg, computing power) of the processor provided in each terminal. For example, if the computing capability of the first terminal is better than that of the second terminal, the first AI model stored in the first terminal may be more complex than the second AI model of the second terminal. The first and second AI models have structures that are distinct from each other, and as a result, even when the same input data 1810 is applied, different outputs may be output.
여기서, 동일한 AI 모델을 갖는 하나 이상의 단말의 추론 결과는 유사한 특성을 가지므로, 상기 동일한 AI 모델을 갖는 하나 이상의 단말은 하나의 그룹을 형성할 수 있다. Here, since inference results of one or more terminals having the same AI model have similar characteristics, one or more terminals having the same AI model may form one group.
즉, 도 18에서 예시된 다수의 단말(1821a, 1821b, 1823, 1831a, 1831b, 1831c, 1833)들은 AI 모델(1829, 1839)의 종류에 따라 제1 그룹(1820)과, 제2 그룹(1830)으로 구분되는 경우를 예시한다. 여기서, 전술한 바와 같이 제1, 제2 그룹(1820, 1830)을 구분은 AI 모델(1829, 1839)의 종류에 기초하여 구분된다. 각각의 단말에 저장되는 AI 모델(1829, 1839)의 구조는 프로세서의 성능에 기반하여 달리 저장된다. That is, the plurality of terminals 1821a, 1821b, 1823, 1831a, 1831b, 1831c, and 1833 illustrated in FIG. 18 have a first group 1820 and a second group 1830 according to the types of AI models 1829 and 1839. ) as an example. Here, as described above, the first and second groups 1820 and 1830 are classified based on the types of the AI models 1829 and 1839 . The structures of the AI models 1829 and 1839 stored in each terminal are stored differently based on the performance of the processor.
다시 도 18을 참조하면, 다수의 단말(1821a, 1821b, 1823, 1831a, 1831b, 1831c, 1833)은 동일한 타겟 데이터(Target Data, 1810)를 얻으면, 상기 타겟 데이터를 각각의 메모리에 저장된 AI 모델(1829, 1839)의 입력으로 적용한다. 이후에, 다수의 단말(1821a, 1821b, 1823, 1831a, 1831b, 1831c, 1833)은, 하나 이상의 프로세서에 의해, 상기 AI 모델(1829, 1839)을 이용하여 상기 타겟 데이터의 입력에 응답하는 데이터를 전송할 수 있다. 상기 데이터는 최종 추론을 위한 데이터이다. 상기 타겟 데이터는 동일한 타겟에 대한 여러 관점에 대한 데이터를 포함한다. 이처럼, 동일한 타겟에 대한 여러 관점에서의 데이터를 이용한 결과, 각 단말이 AI 프로세싱을 위해 이용하는 AI 모델이 동일 하더라도 각 단말의 관점에 따라 상기 타겟에 대한 추론 결과가 상이할 수 있다.Referring back to Figure 18, a plurality of terminals (1821a, 1821b, 1823, 1831a, 1831b, 1831c, 1833) obtain the same target data (Target Data, 1810), the target data stored in each memory AI model ( 1829, 1839) as input. Thereafter, the plurality of terminals 1821a, 1821b, 1823, 1831a, 1831b, 1831c, 1833, by one or more processors, using the AI models 1829 and 1839 data in response to the input of the target data can be transmitted The data is data for final reasoning. The target data includes data for multiple viewpoints on the same target. As such, as a result of using data from multiple viewpoints for the same target, even if the AI model used by each terminal for AI processing is the same, the inference result for the target may be different depending on the viewpoint of each terminal.
상기 AI 모델(1829, 1839)은 입력벡터가 위치하는 층을 입력층(input layer), 최종 출력 값이 위치하는 층을 출력층(output layer), 입력층과 출력층 사이에 위치하는 모든 은닉층(hidden layer)을 포함한다. 여기서, 최종 추론을 위한 데이터는 상기 출력층에 입력되는 중간 값 또는 상기 최종 출력 값을 포함한다.In the AI models 1829 and 1839, the layer where the input vector is located is the input layer, the layer where the final output value is located is the output layer, and all hidden layers located between the input layer and the output layer. ) is included. Here, the data for final inference includes an intermediate value input to the output layer or the final output value.
서버(1850)는 다수의 단말(1821a, 1821b, 1823, 1831a, 1831b, 1831c, 1833)로부터 수신된 다수의 데이터들을 취합하여 상기 타겟 데이터(1810)에 관련된 최종 아웃풋을 생성하며, 최종 추론 결과는 상기 최종 아웃풋에 기반하여 결정된다. 이때, 최종 아웃풋은 클래스 별 합(Class-wise Sum)을 이용하는 기법 또는 클래스 기반 평균과 심층 신경망을 이용하는 기법에 기반하여 수행된다. 또한, 상기 최종 추론 결과는 상기 최종 아웃풋을 비교하여, 가장 높은 값에 대응되는 결과를 의미한다. 이에 관한 구체적인 내용은 도 21 내지 도 23에서 설명한다.The server 1850 collects a plurality of data received from a plurality of terminals 1821a, 1821b, 1823, 1831a, 1831b, 1831c, 1833 to generate a final output related to the target data 1810, and the final inference result is It is determined based on the final output. In this case, the final output is performed based on a technique using a class-wise sum or a technique using a class-based average and a deep neural network. In addition, the final reasoning result refers to a result corresponding to the highest value by comparing the final output. Specific details on this will be described with reference to FIGS. 21 to 23 .
한편, 본 명세서의 실시예들은 서버(1850)와 연계하는 것으로 한정되지는 않는다. 최종 추론을 위한 데이터를 취합하는 서버(1850)가 없더라도, 본 명세서의 일부 실시예들은 서버(1850)의 기능을 하는 단말을 이용하여 동일한 최종 추론 결과를 생성할 수 있다. 이때, 서버(1850)의 기능을 수행하는 단말은 서버 단말(Server UE)로 정의된다.On the other hand, the embodiments of the present specification are not limited to connection with the server 1850 . Even if there is no server 1850 that collects data for final reasoning, some embodiments of the present specification may generate the same final reasoning result using a terminal functioning as the server 1850 . In this case, the terminal performing the function of the server 1850 is defined as a server terminal (Server UE).
도 19를 참조하면, 도 18의 서버(1850)가 없더라도 동일한 기능을 수행하는 서버 단말(1933)이 최종 추론을 위한 데이터를 합하여 추론을 수행한다. 이때, 서버 단말(1933)은 기 설정된 우선 순위에 기반하여 선택될 수 있다. 상기 우선 순위는 다수의 단말들(1921a, 1921b, 1921c, 1931a, 1931b, 1931c, 1933)에 구비된 프로세서의 성능과 배터리 성능 및 잔류량에 기반하여 결정된다. 한편, 상기 성능을 비교하여 가장 뛰어난 성능의 단말이 2 이상 존재하는 경우도 존재할 수 있으므로, 상기 우선 순위는 상기 단말들과 기지국 간의 거리 등에 따라 통신 채널 품질이 우수한 단말이 더 선순위로 설정될 수 있다.Referring to FIG. 19 , even in the absence of the server 1850 of FIG. 18 , the server terminal 1933 performing the same function performs inference by adding data for final inference. In this case, the server terminal 1933 may be selected based on a preset priority. The priority is determined based on the performance of the processor, the battery performance, and the remaining amount of the plurality of terminals (1921a, 1921b, 1921c, 1931a, 1931b, 1931c, 1933). On the other hand, since there may be cases where there are two or more terminals with the best performance by comparing the performance, the priority may be set to a terminal having excellent communication channel quality according to the distance between the terminals and the base station. .
또한, 도 20을 참조하면, 도 20의 시스템은 도 19와 비교하여 그룹 별로 선정되는 하나 이상의 대표 단말(Master UE, 2023, 2033)를 더 포함한다. 상기 대표 단말(2023, 2033)은 동일한 AI 모델(2029, 2039)을 갖는 2 이상의 단말들로 구성된 그룹(2020, 2030)에서 최종 추론을 위한 데이터를 취합하는 단말을 지칭한다. 대표 단말(2023, 2033)은 상기 그룹의 수에 대응되어 증가하거나 감소할 수 있다. 이에 따라, 2 이상의 그룹을 포함하는 시스템은, 상기 그룹의 수에 대응하여 상기 대표 단말은 2 이상의 대표 단말을 포함할 수 있다. 일 실시예에서, 상기 2 이상의 대표 단말 중 어느 하나는 서버 단말(2033)로 선정될 수 있다. In addition, referring to FIG. 20 , the system of FIG. 20 further includes one or more representative terminals (Master UEs, 2023 and 2033 ) selected for each group as compared with FIG. 19 . The representative terminals 2023 and 2033 refer to terminals that collect data for final inference from groups 2020 and 2030 consisting of two or more terminals having the same AI model 2029 and 2039. The representative terminals 2023 and 2033 may increase or decrease according to the number of groups. Accordingly, in a system including two or more groups, the representative terminal may include two or more representative terminals corresponding to the number of the groups. In an embodiment, any one of the two or more representative terminals may be selected as the server terminal 2033 .
상기 대표 단말(2023) 또는 서버 단말(2033)은 기 설정된 우선 순위에 기반하여 결정될 수 있다. 상기 우선 순위는 상기 단말의 프로세서 정보(예: 프로세서의 성능 정보)와 배터리 성능 및 잔류량, 상기 단말과 기지국 사이의 거리 등에 따른 통신 채널 품질 중 적어도 하나에 기반하여 결정된다. 상기 대표 단말(2023)은 일 그룹에 포함된 2 이상의 단말들 간의 우선 순위를 비교하여 결정된다. 상기 서버 단말(1933)은 시스템에 포함된 2 이상의 대표 단말들(2023, 2033) 간의 우선 순위를 비교하여 결정된다.The representative terminal 2023 or the server terminal 2033 may be determined based on a preset priority. The priority is determined based on at least one of processor information (eg, processor performance information) of the terminal, battery performance and residual amount, and communication channel quality according to a distance between the terminal and the base station. The representative terminal 2023 is determined by comparing priorities between two or more terminals included in a group. The server terminal 1933 is determined by comparing the priorities between two or more representative terminals 2023 and 2033 included in the system.
한편, 본 명세서의 다양한 실시예에 따른 연합 추론 방법에 적용되는 단말은 대표 단말 또는 서버 단말 중 어느 하나의 기능을 선택적으로 수행할 수 있다. Meanwhile, the terminal applied to the federated inference method according to various embodiments of the present specification may selectively perform any one function of the representative terminal or the server terminal.
무선 통신 시스템에서 제1 단말은 통신 환경에 관련된 정보에 기반하여 연합 추론을 위한 서버와의 연결 상태를 확인할 수 있다. 서버가 확인되지 않으면, 상기 제1 단말은 2 이상의 제2 단말로 연합 추론을 위한 특정 값들의 송신을 요청할 수 있다. 즉, 제1 단말은 서버 역할을 하는 단말이 없는 경우 서버 역할을 수행할 단말의 부하를 감소시키기 위하여 정보를 취합하는 역할을 수행한다. In the wireless communication system, the first terminal may check the connection state with the server for federated inference based on information related to the communication environment. If the server is not identified, the first terminal may request transmission of specific values for federated inference to two or more second terminals. That is, when there is no terminal serving as a server, the first terminal serves to collect information in order to reduce the load on the terminal that will serve as a server.
이후에, 제1 단말은 상기 요청에 응답하여 수신된 상기 특정 값들과 미리 학습된 로컬 AI 모델을 이용하여 분류 동작을 수행하거나, 상기 특정 값들에 기반하여 산출된 취합 값(Aggregated Value)을 연합 추론을 위한 제3 단말로 전송할 수 있다. 이때, 분류 동작을 수행한다면 제1 단말은 서버 단말로서의 기능을 수행하는 것으로 볼 수 있고, 상기 제3 단말로 전송하는 동작을 수행한다면, 상기 제1 단말은 서버 단말이 아닌 대표 단말로서의 기능을 수행하는 것으로 볼 수 있다.Thereafter, the first terminal performs a classification operation using the specific values received in response to the request and a pre-trained local AI model, or jointly infers an aggregated value calculated based on the specific values. may be transmitted to a third terminal for At this time, if the classification operation is performed, the first terminal can be regarded as performing a function as a server terminal, and if the operation of transmitting to the third terminal is performed, the first terminal performs a function as a representative terminal rather than a server terminal it can be seen that
또한, 상기 제1, 제2 단말은 하나의 단말 그룹을 구성하고, 상기 제3 단말은 상기 단말 그룹에 외의 다른 단말 그룹에 속할 수 있다. 여기서, 단말 그룹은 (i) 단말에 저장된 로컬 AI 모델의 식별 정보, (ii) 상기 단말의 위치 정보, 또는 (iii) CSI(Channel State Information) 중 적어도 하나에 기반하여 그룹화될 수 있다.In addition, the first and second terminals may constitute one terminal group, and the third terminal may belong to another terminal group other than the terminal group. Here, the terminal group may be grouped based on at least one of (i) identification information of a local AI model stored in the terminal, (ii) location information of the terminal, or (iii) CSI (Channel State Information).
만약, 상기 단말 그룹이 2 이상 존재하는 경우 각 단말 그룹들은 서로 다른 로컬 AI 모델을 가질 수 있으며, 로컬 AI 모델은 하나 이상의 노드를 구비하는 하나 이상의 레이어와 비선형 활성화 레이어(non-linenar activatoin layer)를 포함하는 신경망(Neural Network) 모델이다. 상기 특정 값은 상기 비선형 활성화 레이어의 입력 값 또는 출력 값 중 어느 하나로서 이는 전술한 연합 추론 방법의 이점을 보다 효과적으로 구현하기 위함이다. 이때, 상기 비선형 활성화 레이어는 소프트맥스 레이어(softmax layer)일 수 있다.If there are two or more terminal groups, each terminal group may have a different local AI model, and the local AI model includes one or more layers including one or more nodes and a non-linear activation layer. It is a neural network model that includes The specific value is either an input value or an output value of the nonlinear activation layer, in order to more effectively implement the advantage of the above-described joint inference method. In this case, the nonlinear activation layer may be a softmax layer.
한편, 전술한 분류 동작을 수행하는 제1 동작 또는 상기 취합 값을 상기 제3 단말로 전송하는 제2 동작 중 어느 하나는, 상기 제1 내지 제3 단말에 구비된 프로세서 성능, 배터리 성능 및 배터리 잔류량 중 적어도 일부에 기초하여 선택적으로 결정될 수 있다. 즉, 제1 단말은 스스로가 속한 단말 그룹의 단말들과 다른 단말 그룹에 속한 단말들의 프로세서 성능, 배터리 성능 및 잔류량 중 적어도 일부에 기초하여 가장 서버 단말로서 적합한 단말인지 여부를 확인할 수 있다. 제1 단말이 확인의 대상인 하나 이상의 단말들 중 가장 성능이 우수하다면 상기 제1 단말이 분류 동작을 수행할 것이며, 그렇지 아니하다면 다른 단말이 분류 동작을 수행하도록 지원할 수 있다.On the other hand, any one of the first operation of performing the above-described classification operation or the second operation of transmitting the aggregated value to the third terminal includes processor performance, battery performance, and remaining battery capacity provided in the first to third terminals. It may be selectively determined based on at least a part of That is, the first terminal may determine whether it is the most suitable terminal as a server terminal based on at least a part of processor performance, battery performance, and residual amount of terminals belonging to a terminal group different from that of the terminal group to which the first terminal belongs. If the first terminal has the best performance among one or more terminals to be checked, the first terminal will perform the classification operation, otherwise, other terminals may support the classification operation.
한편, 도 19 및 도 20의 서버 단말은 서버의 기능을 수행하는 것으로 한정되지 않으며, 다른 단말들로부터 수신된 최종 추론을 위한 데이터를 서버로 전송할 수도 있다.Meanwhile, the server terminal of FIGS. 19 and 20 is not limited to performing the function of the server, and may transmit data for final inference received from other terminals to the server.
본 명세서의 다양한 실시예에 따른 연합추론 방법은 최종 추론을 위하여 다양한 기법을 이용한다. 상기 최종 추론을 위한 다양한 기법은 이하의 도 21 내지 도 23을 참조하여 설명한다.The associative inference method according to various embodiments of the present specification uses various techniques for final inference. Various techniques for the final inference will be described with reference to FIGS. 21 to 23 below.
도 21 내지 도 23은 도 17의 연합추론 방법의 다양한 분류 알고리즘들의 예시도이다. 21 to 23 are exemplary diagrams of various classification algorithms of the associative inference method of FIG. 17 .
여기서, 도 21 내지 도 23의 예시들은 전술한 도 18 내지 도 20의 다양한 실시예들과 결합될 수 있다. 일 예로, 도 21 내지 도 23에 도시되는 그룹들의 디바이스들은 도 18 내지 도 20에 도시된 디바이스들의 그룹들에 해당한다. 또한, 도 21 내지 도 23의 서버는 도 18의 서버 또는 도 19 및 도 20의 서버 단말에 해당한다. Here, the examples of FIGS. 21 to 23 may be combined with the above-described various embodiments of FIGS. 18 to 20 . For example, the devices of the groups shown in FIGS. 21 to 23 correspond to the groups of devices shown in FIGS. 18 to 20 . In addition, the server of FIGS. 21 to 23 corresponds to the server of FIG. 18 or the server terminal of FIGS. 19 and 20 .
도 21을 참조하면, 서버(2150) 또는 대표 단말로 전송되는 메트릭(metric)은 소프트맥스(softmax) 레이어의 출력 값일 수 있다.Referring to FIG. 21 , a metric transmitted to the server 2150 or the representative terminal may be an output value of a softmax layer.
상기 메트릭은 2 이상의 행렬 또는 벡터 사이의 유사도를 나타낸다. 구체적으로, 메트릭은 행렬 또는 벡터 간의 연산을 통해 벡터 공간(vector space) 상에서 2 이상의 행렬 또는 벡터 간의 거리로서, 벡터들 간 유사도를 나타내는 것이다. The metric indicates the degree of similarity between two or more matrices or vectors. Specifically, the metric is a distance between two or more matrices or vectors in a vector space through an operation between matrices or vectors, and indicates the degree of similarity between vectors.
인공지능 기술분야에서 상기 메트릭은 기계학습을 위한 신경망의 입력층에 입력 데이터가 제공되면 그 출력으로 생성된다. 즉, 목적으로 하는 결과를 출력하도록 학습된 신경망의 가중치와 바이어스에 따라 상기 메트릭은 다를 수 있다. 이하의 명세서에서는 하나 이상의 단말이 상기 메트릭을 서버(2150)로 전송하는 것으로 예시하나, 이에 한정될 것은 아니다. 예를 들어, 하나 이상의 단말은 상기 메트릭 외에도 AI 모델(2129, 2139)의 소프트맥스 레이어(2129s, 2139s)의 입력 값 또는 출력 값인 벡터 값 또는 행렬 값을 전송할 수 있을 것이다. In the field of artificial intelligence technology, the metric is generated as an output when input data is provided to the input layer of a neural network for machine learning. That is, the metric may be different according to the weight and bias of the neural network trained to output a target result. In the following specification, it is exemplified that one or more terminals transmit the metric to the server 2150, but is not limited thereto. For example, one or more terminals may transmit a vector value or a matrix value that is an input value or an output value of the softmax layers 2129s and 2139s of the AI models 2129 and 2139 in addition to the above metrics.
전술한 메트릭에 관련된 설명은 이하의 명세서에서 공통되며, 중복되는 설명은 생략된다. Descriptions related to the above-mentioned metrics are common in the following specifications, and overlapping descriptions are omitted.
다시 도 21을 참조하면, 2 이상의 단말은 메모리에 저장된 AI 모델(2129, 2139)의 종류에 기반하여 하나 이상의 그룹을 형성한다. 예를 들어, Group A(2120)의 단말들은 제1 AI 모델(2129)을 가지고 있고, Group B(2130)의 단말들은 제2 AI 모델(2139)을 가지고 있다. 상기 제1 모델(2129)과 제2 모델(2139)은 서로 구분되는 신경망 구조를 가진다. Referring back to FIG. 21 , two or more terminals form one or more groups based on the types of AI models 2129 and 2139 stored in the memory. For example, terminals of Group A 2120 have a first AI model 2129 , and terminals of Group B 2130 have a second AI model 2139 . The first model 2129 and the second model 2139 have different neural network structures.
Group A(2120)의 단말들과 Group B(2130)의 단말들은 각각 제1 AI 모델(2129)과 제2 AI 모델(2139)을 이용하여 생성된 메트릭(Pi)를 서버(2150)로 전송한다. 이때, 전송되는 메트릭은 각각의 AI 모델(2129, 2139)의 소프트맥스 레이어(2129s, 2139s)를 거친 값으로 0 내지 1 사이의 실수 값을 갖는다. 이처럼 전송된 메트릭은 서버(2150)에서 클래스 별 합(class-wise sum)을 통해 클래스 별로 메트릭의 값들이 합해지고, 그 합에 미리 설정된 가중치들이 부여된다. 여기서 미리 설정된 가중치 들은 전술한 단말들의 그룹 별로 서로 다른 값을 가질 수 있다. 예를 들어, Group A(2120)로부터 수신된 메트릭의 클래스 별 합에 대해서는 가중치 A(αA)가 부여되고, Group B(2130)로부터 수신된 메트릭의 클래스 별 합에 대해서는 가중치 B(αB)가 부여될 수 있다. The terminals of the group A 2120 and the terminals of the group B 2130 transmit the metric Pi generated using the first AI model 2129 and the second AI model 2139, respectively, to the server 2150. . At this time, the transmitted metric is a value that has passed through the softmax layers 2129s and 2139s of each AI model 2129 and 2139 and has a real value between 0 and 1. As for the transmitted metric, the values of the metric for each class are summed in the server 2150 through a class-wise sum, and preset weights are given to the sum. Here, the preset weights may have different values for each group of the aforementioned terminals. For example, a weight A(α A ) is given to the class-specific sum of metrics received from Group A 2120 , and a weight B(α B ) is given to the class-specific sum of metrics received from Group B 2130 . can be given.
이후에 서버(2150)는 각각의 가중치가 부여된 결과 값들을 합하여 최종 결과를 산출할 수 있다. 이때, 서버(2150)는 argmax 함수(2252)를 통해 다수의 클래스 중 어느 하나에 해당하는 분류 결과를 산출할 수 있다.Thereafter, the server 2150 may calculate the final result by summing the respective weighted result values. In this case, the server 2150 may calculate a classification result corresponding to any one of a plurality of classes through the argmax function 2252 .
한편, 본 명세서의 다양한 실시에는 도 21의 일 실시예에 한정되는 것이 아니며, 예를 들어, 서버(2150)로 전송되는 메트릭은 소프트맥스 레이어(2129s, 2139s)의 출력 값이 아닌 입력 값일 수 있다. 이하 도 22를 참조하여 설명한다.On the other hand, various embodiments of the present specification are not limited to the embodiment of FIG. 21 , and for example, the metric transmitted to the server 2150 may be an input value rather than an output value of the softmax layers 2129s and 2139s. . Hereinafter, it will be described with reference to FIG.
도 22를 참조하면, 메트릭은 상기 소프트맥스 레이어(2229s, 2239s)의 입력 값일 수 있다. 도 22의 실시예는 서버(2250)로 전송되는 메트릭 및 서버(2250) 측에서 수신된 메트릭의 오프셋을 제거하는 동작이 추가로 수행되는 점에서 일부 차이가 있고, 나머지 공통되는 부분은 도 21의 실시예와 중복되므로 생략한다.Referring to FIG. 22 , the metric may be an input value of the softmax layers 2229s and 2239s. The embodiment of FIG. 22 has some differences in that an operation of removing the offset of the metric transmitted to the server 2250 and the metric received from the server 2250 is additionally performed, and the rest of the common parts are those of FIG. Since it overlaps with the embodiment, it is omitted.
이때, 서버(2250)는 도 21의 일 실시예와 달리 클래스 별 합 이전에 오프셋을 제거하는 동작을 추가로 수행한다. 이는, 소프트맥스 레이어(2229s, 2239s)를 거치지 않은 값은 0 내지 1의 범위내의 값을 가지지 않고, 신경망 모델에 따라 다양한 분포를 가질 수 있기 때문이다. In this case, the server 2250 additionally performs an operation of removing the offset before the class-by-class sum, unlike the exemplary embodiment of FIG. 21 . This is because the values that do not pass through the softmax layers 2229s and 2239s do not have a value within the range of 0 to 1 and may have various distributions according to the neural network model.
이에 따라, 서버(2250)는 각 그룹별로 수신되는 메트릭의 범위가 동일한 범위에 있도록 그룹 별로 가장 큰 메트릭의 값을 오프셋으로 선정하여, 이를 빼는 동작을 추가적으로 수행한다. Accordingly, the server 2250 selects the largest metric value for each group as an offset so that the range of the metric received for each group is within the same range, and additionally performs an operation of subtracting it.
한편, 일부 실시예에서는 소프트맥스 레이어(2229s, 2239s)의 출력 값을 전송하는 경우에도 도 22과 같이 소프트맥스 레이어(2229s, 2239s)의 입력 값을 산출할 수도 있다. 예를 들어, 소프트맥스 레이어(2229s, 2239s)의 출력 값에 로그를 취하면 상기 출력 값에 연관된 입력 값을 구할 수 있다. 이 경우에 서버(2250)는 오프셋 제거 동작을 수행하지 않고, 그 대신 로그 연산이 필요하게 된다. 만약, 각각의 그룹에 대응되는 가중치를 모두 1로 고정하면, 상기 스프트맥스 레이어의 입력 값의 합은 상기 입력 값에 연관된 출력 값의 곱으로 표현된다.Meanwhile, in some embodiments, even when the output values of the softmax layers 2229s and 2239s are transmitted, input values of the softmax layers 2229s and 2239s may be calculated as shown in FIG. 22 . For example, by taking the logarithm of the output values of the softmax layers 2229s and 2239s, an input value related to the output value may be obtained. In this case, the server 2250 does not perform an offset removal operation, and a logarithmic operation is required instead. If all of the weights corresponding to each group are fixed to 1, the sum of the input values of the sptmax layer is expressed as a product of the output values associated with the input values.
한편, 도 21 및 도 22는 상기 서버 또는 대표 단말이 클래스 별 합(Class-wise Sum)에 미리 설정된 가중치를 적용하여 산출된 값으로부터 추론 결과를 생성하는 경우를 예시하나, 도 23은 상기 서버 또는 대표 단말이 심층 신경망(Deep Neural Network, DNN, 2355)을 이용하여 추론 결과를 생성하는 경우를 예시한다.Meanwhile, FIGS. 21 and 22 exemplify a case in which the server or the representative terminal generates an inference result from a value calculated by applying a preset weight to a class-wise sum, but FIG. 23 shows the server or A case in which the representative terminal generates an inference result using a deep neural network (DNN, 2355) is exemplified.
도 23은 도 21 및 도 22와 달리 심층 신경망(2355)을 저장하고 있다. 상기 저장된 심층 신경망(2355)은 2 이상의 단말 그룹들(2320, 2330)로부터 수신된 파라미터를 입력으로 수신하고, 연합 추론을 위한 출력을 생성하는 데 이용된다.Unlike FIGS. 21 and 22 , FIG. 23 stores a deep neural network 2355 . The stored deep neural network 2355 receives parameters received from two or more terminal groups 2320 and 2330 as input, and is used to generate an output for joint inference.
이때, 서버(2350)가 수신하는 메트릭은 도 21 및 도 22에서 예시한 소프트맥스 레이어(2329s, 2339s)의 입력 값 또는 출력 값 중 어느 하나이다. 서버(2350)는 2 이상의 단말 그룹들(2320, 2330)로부터 메트릭을 수신하면, 그룹 별로 클래스 별 평균(class-wise average)을 산출한다. In this case, the metric received by the server 2350 is either an input value or an output value of the softmax layers 2329s and 2339s illustrated in FIGS. 21 and 22 . When the server 2350 receives metrics from two or more terminal groups 2320 and 2330, the server 2350 calculates a class-wise average for each group.
서버(2350)에 저장된 심층 신경망(2355)은 3 종의 인자들을 입력으로 갖는다. 상기 인자들은, 예를 들어, (1) 그룹 별로 평균 값이 산출된 메트릭, (2) 그룹 별 신뢰도 및/또는 (3) 단말의 수를 포함한다. 상기 클래스 기반 평균이 적용된 메트릭은 필수적인 인자이나, 그룹 별 신뢰도 및/또는 단말의 수는 선택적 인자이다. 즉, 그룹 별 신뢰도나 단말의 수는 필요에 따라 생략되거나 추가될 수 있으나, 추가되는 경우 연합 추론의 신뢰도를 더욱 개선할 수 있다.The deep neural network 2355 stored in the server 2350 has three kinds of factors as inputs. The factors include, for example, (1) a metric for which an average value is calculated for each group, (2) reliability for each group, and/or (3) the number of terminals. The metric to which the class-based average is applied is an essential factor, but the reliability for each group and/or the number of terminals is an optional factor. That is, the reliability of each group or the number of terminals may be omitted or added as needed, but when added, the reliability of the federated inference may be further improved.
상기 그룹 별 신뢰도는 그룹 별로 저장되거나 이용되는 AI 모델의 성능을 나타내는 지표 또는 인자를 의미하고, 상기 단말의 수는 상기 그룹에 속한 단말의 수를 말한다.The group-specific reliability refers to an index or factor indicating the performance of an AI model stored or used for each group, and the number of terminals refers to the number of terminals belonging to the group.
한편, 심층 신경(2355)망을 통해 산출된 중간 값은, 서버(2350)에 구비된 프로세서에 의해, 심층 신경망의 끝단에 위치한 소프트맥스 레이어(2356)와 argmax 함수(2352)를 거쳐 최종 결과의 추론에 이용된다. On the other hand, the intermediate value calculated through the deep neural network 2355 is passed through the softmax layer 2356 and the argmax function 2352 located at the end of the deep neural network by the processor provided in the server 2350, the final result of used for inference.
정리하면, 서버(2350)는 2 이상의 단말 그룹으로부터 메트릭들을 수신하면 상기 메트릭들을 그룹 별로 구분하여 클래스 기반 평균을 산출한다. 이후에 서버(2350)는 평균 값이 산출된 메트릭들, 각 그룹의 신뢰도 및/또는 단말의 수를 심층 신경망(2355)의 입력으로 제공하고, 상기 심층 신경망(2355)의 출력은 소프트맥스 레이어(2356)를 통해 0 내지 1 사이의 값으로 변경된다. 마지막으로, 서버(2350)는 소프트맥스 레이어(2356)의 출력 값들을 비교하여 가장 큰 값을 선정하고, 선정된 값에 대응되는 분류 결과로 연합 추론의 결과 정보를 생성한다.In summary, when the server 2350 receives metrics from two or more terminal groups, the server 2350 classifies the metrics for each group and calculates a class-based average. Thereafter, the server 2350 provides the average value of the calculated metrics, the reliability of each group, and/or the number of terminals as an input to the deep neural network 2355, and the output of the deep neural network 2355 is a softmax layer ( 2356) to a value between 0 and 1. Finally, the server 2350 compares the output values of the softmax layer 2356 , selects the largest value, and generates information on the result of federated inference as a classification result corresponding to the selected value.
한편, 본 명세서의 일부 실시예에서 서버(2350)에 저장된 심층 신경망, 소프트맥스 레이어(2356) 및 argmax 함수(2352)를 모두 포함하는 것으로 제3 AI 모델을 정의할 수 있다.On the other hand, in some embodiments of the present specification, the third AI model may be defined as including all of the deep neural network stored in the server 2350 , the softmax layer 2356 and the argmax function 2352 .
이처럼, 제3 AI 모델을 이용하면, 도 21 및 도 22와 달리 새로운 기술적 문제점을 해결할 수 있다. 상기 새로운 기술점에 관하여 그룹의 신뢰도 관점, 그룹에 속한 단말의 수의 관점 및 단말 그룹 수의 관점으로 아래에서 설명한다.As such, when the third AI model is used, a new technical problem can be solved unlike FIGS. 21 and 22 . The new description point will be described below in terms of group reliability, the number of terminals belonging to the group, and the number of terminal groups.
우선, 각 단말의 하드웨어 사양, 학습 알고리즘에 따라 추정의 성능이 상이할 수 있고, 모든 단말 그룹의 결과에 동일한 가중치가 부여되면 성능이 낮은 그룹의 결과에 의해 전체 성능이 저하되는 문제가 있을 수 있다. 이러한 문제점에 대하여, 서버는 각 그룹 별 AI 모델의 성능을 평가하고 그 지표(예: 정확도 등)를 신뢰도로 이용할 수 있다. 이에 따라, 심층 신경망의 입력 요인들 중 하나로 그룹 별 신뢰도가 포함될 수 있다.First, the performance of estimation may be different depending on the hardware specification and learning algorithm of each terminal, and if the same weight is given to the results of all terminal groups, there may be a problem in that the overall performance is lowered by the results of the group with low performance. . For these problems, the server can evaluate the performance of the AI model for each group and use the index (eg, accuracy, etc.) as reliability. Accordingly, group-specific reliability may be included as one of the input factors of the deep neural network.
다음으로, 심층 신경망의 입력으로서 단말의 수를 적용할 때 그룹 간 단말의 수에 있어서 차이가 있는 경우 많은 단말이 참여한 그룹이 최종 결과에 더 많은 영향을 미칠 수 있다. 이때, 상기 심층 신경망의 입력 값들이 너무 크거나 작은 경우, 또는 다른 입력 값들과 범위에 있어서 차이가 큰 경우 학습에 문제가 발생할 수 있다. 이에 대하여, 서버는 기준 단말 수를 설정하여 정규화(normailization)하고, 최대 단말 수를 제한할 수 있다. 예를 들어, 기준 단말 수를 100 개로 하고, 최대 단말 수를 200 개로 제한하면 1 내지 200 개의 단말 수는 각각 0.01 내지 2.0 사이의 실수로 표현될 수 있다. Next, when the number of terminals is applied as an input to the deep neural network, if there is a difference in the number of terminals between groups, a group in which many terminals participate may have a greater influence on the final result. In this case, when the input values of the deep neural network are too large or too small, or when there is a large difference in range from other input values, a learning problem may occur. In contrast, the server may set a reference number of terminals for normalization and limit the maximum number of terminals. For example, if the reference number of terminals is 100 and the maximum number of terminals is limited to 200, the number of 1 to 200 terminals may be expressed as a real number between 0.01 and 2.0, respectively.
마지막으로, 다양한 그룹의 수를 지원할 수 있는 서버의 AI 모델은, 경우에 따라 참여하는 단말 그룹의 수가 달라지면 심층 신경망의 입력 개수가 달라질 수 있다. 예를 들어, 특정 상황에서는 10 개의 단말 씩 2 개의 그룹이 참여하고, 다른 상황에서는 5 개의 단말 씩 4 개의 그룹이 참여할 수 있다. 이처럼, 그룹 별 단말의 수와 그룹의 수에 따라 다양한 조합이 발생할 수 있는데, 서버는 상기 다양한 조합 별로 서로 다른 심층 신경망 모델을 가져야할 수 있다. 즉, 서버는 상기 조합의 수에 대응하는 수의 심층 심경망을 가지고 있어야 한다. 이에 대하여 본 명세서의 다양한 실시예에서 서버는 2 개의 입력을 가진 하나의 AI 모델을 반복적으로 적용할 수 있다. 예를 들어, Group A, Group B 및 Group C가 있는 것으로 가정하면, 상기 Group A와 Group B를 먼저 취합하여 결과를 추론하고, 상기 추론된 결과 값을 Group C로부터 수신된 값을 이용하여 최종 결과 값을 추론하는 방식을 수행하는 것이다. 이때, 그룹 별 추론의 순위는 미리 설정된 우선순위에 의할 수 있으나, 이에 한정되는 것은 아니다.Finally, in the AI model of the server that can support the number of various groups, the number of inputs to the deep neural network may vary if the number of participating terminal groups is changed in some cases. For example, in a specific situation, two groups of 10 terminals may participate, and in other circumstances, 4 groups of 5 terminals may participate. As such, various combinations may occur according to the number of terminals for each group and the number of groups, and the server may have different deep neural network models for each of the various combinations. That is, the server must have a number of deep heart networks corresponding to the number of combinations. In contrast, in various embodiments of the present specification, the server may repeatedly apply one AI model having two inputs. For example, if it is assumed that there are Group A, Group B, and Group C, the result is inferred by first collecting the Group A and Group B, and the final result is obtained by using the inferred result value from the value received from Group C. It is to perform a way of inferring a value. In this case, the order of inference for each group may be based on a preset priority, but is not limited thereto.
AI 모델의 학습 방법How AI models are trained
도 24는 본 명세서의 일 실시예에 따른 AI 모델의 학습 방법의 순서도이다.24 is a flowchart of a learning method of an AI model according to an embodiment of the present specification.
도 24를 참조하면, 서버는 로컬 AI 모델의 학습 상태를 확인할 수 있다(S2410). 이때, 서버는 상기 로컬 AI 모델의 학습 상태에 기반하여 새로운 학습의 필요 여부를 결정한다. 상기 학습 상태는 상기 로컬 AI 모델의 성능을 나타내는 데이터를 말한다. 상기 성능은 학습 에러(Training Error)의 크기와 상기 학습 에러와 일반화 에러(Generalization Error)의 차이에 기반하여 결정된다. 예를 들어, 상기 학습 에러가 충분히 작아지지 않거나, 상기 학습 에러와 상기 일반화 에러의 차이가 충분히 작아지지 않으면 상기 성능이 불충분한 것으로 평가된다.Referring to FIG. 24 , the server may check the learning state of the local AI model ( S2410 ). At this time, the server determines whether new learning is required based on the learning state of the local AI model. The learning state refers to data representing the performance of the local AI model. The performance is determined based on the magnitude of the training error and the difference between the training error and the generalization error. For example, if the learning error is not sufficiently small or the difference between the learning error and the generalization error is not sufficiently small, the performance is evaluated as insufficient.
상기 로컬 AI 모델의 학습이 필요한 경우부터 설명한다(도 25 참조).A case in which learning of the local AI model is required will be described (see FIG. 25 ).
서버는 상기 로컬 AI 모델의 학습이 필요하다면, 학습 데이터셋을 이용하여 글로벌 AI 모델 및 로컬 AI 모델을 학습한다(S2410:Yes, S2420).If the server needs to learn the local AI model, it learns the global AI model and the local AI model using the training dataset (S2410: Yes, S2420).
이때의 학습 방법은 통상의 지도 학습 방법과 동일하다. 즉, 로컬 AI 모델과 글로벌 AI 모델 모두 통상의 지도 학습 방법에 의하여 연관된 파라미터들이 갱신된다. 이러한 갱신은 손실 함수(loss fuctnion) 또는 비용 함수(cost function)에 따라 산출된 값과 레이블링된 정답 값의 차이에 기초하여 수행될 수 있다.The learning method at this time is the same as a normal supervised learning method. That is, parameters related to both the local AI model and the global AI model are updated by a general supervised learning method. This update may be performed based on a difference between a value calculated according to a loss function or a cost function and a labeled correct answer value.
학습이 완료되면, 서버는 학습된 로컬 AI 모델을 학습 이전의 로컬 AI 모델을 전송한 각각의 개별 단말들로 전송한다(S2430).When the learning is completed, the server transmits the learned local AI model to each individual terminal that has transmitted the local AI model before learning (S2430).
한편, 상기 로컬 AI 모델의 학습이 필요하지 않고, 글로벌 AI 모델만 학습이 필요한 경우가 있을 수 있다. 이때 글로벌 AI 모델만을 학습하는 방법에 대하여 설명한다(도 26 참조).On the other hand, there may be a case in which learning of the local AI model is not required and only the global AI model needs to be learned. At this time, a method of learning only the global AI model will be described (see FIG. 26 ).
상기 로컬 AI 모델의 학습이 필요하지 않다면, 연합추론 시스템으로 연관된 다수의 단말들로부터 각각의 로컬 AI 모델을 수신할 수 있다(S2410:No, S2440).If learning of the local AI model is not required, each local AI model may be received from a plurality of terminals associated with the federated inference system (S2410: No, S2440).
여기서, 로컬 AI 모델을 수신하는 이유는 글로벌 AI 모델과의 연합추론을 위해서는 상기 로컬 AI 모델들을 이용하여 산출되는 값들이 상기 글로벌 AI 모델의 입력 데이터로 제공되기 위함이며, 해당 단계에서는 로컬 AI 모델의 학습이 수행되지 않는다.Here, the reason for receiving the local AI model is to provide the values calculated using the local AI models as input data of the global AI model for joint inference with the global AI model, and in this step, Learning is not performed.
이후에, 서버는 상기 수신된 로컬 AI 모델들에 기초하여 생성된 값(예: 메트릭)을 포함하는 학습 데이터셋을 생성할 수 있다(S2450). 한편, 학습 데이터셋은 글로벌 AI 모델만의 학습을 위한 데이터셋을 의미하며, 본 명세서의 다른 학습 데이터셋들과는 구분된다. S2450에서의 학습 데이터셋은 다수의 단말들로부터 수신된 로컬 AI 모델들을 이용하여 생성된 메트릭들로 구성되고, 명세서의 다른 학습 데이터셋들은 로우 데이터 또는 상기 로우 데이터로부터 가공된 데이터를 말한다. 상기 다른 학습 데이터셋에 관해서는 이하의 학습 데이터 획득 방법에서 설명하도록 한다.Thereafter, the server may generate a training dataset including a value (eg, a metric) generated based on the received local AI models ( S2450 ). On the other hand, the training dataset refers to a dataset for training only the global AI model, and is distinguished from other training datasets in this specification. The training dataset in S2450 consists of metrics generated using local AI models received from multiple terminals, and other training datasets in the specification refer to raw data or data processed from the raw data. The other training data sets will be described in the following learning data acquisition method.
서버는 생성된 학습 데이터셋을 이용하여 글로벌 AI 모델을 트레이닝할 수 있다(S2460). The server may train the global AI model using the generated training dataset (S2460).
여기서, 글로벌 AI 모델의 학습은 S2410와 달리 백 프로퍼게이션(back-propagation)이 글로벌 AI 모델에만 처리되고, 기 학습된 로컬 AI 모델의 파라미터들은 영향을 받지 않는다(도 27 참조). 예를 들어, 도 27을 참조하면, 하나 이상의 단말들은 각각 미리 제공된 데이터셋(2710)의 적어도 일부를 각각 얻고, 상기 적어도 일부의 데이터(2715-1, ,,, , 2715-5)를 각각의 AI 모델(2729, 2739)의 입력 레이어에 제공한다. 도 27은 각각의 AI 모델(2729, 2739)이 개별 단말들(2720, 2730)에 구비되는 경우를 예시하였으나, 상기 각각의 AI 모델(2729, 2739)은 단말들(2720, 2730)로부터 서버(2750)로 전송되어 서버(2750) 내에서만 동일한 동작이 수행될 수도 있다. Here, in the training of the global AI model, unlike S2410, back-propagation is processed only in the global AI model, and parameters of the pre-trained local AI model are not affected (see FIG. 27 ). For example, referring to FIG. 27 , one or more terminals each obtain at least a portion of a previously provided data set 2710 , respectively, and transmit the at least a portion of the data 2715-1, ,,, , 2715-5 respectively. It is provided to the input layer of the AI model (2729, 2739). 27 illustrates a case in which each AI model 2729, 2739 is provided in individual terminals 2720, 2730, but each AI model 2729, 2739 is a server ( 2750) and the same operation may be performed only within the server 2750.
이후에 서버(2750)는 수집된 메트릭들(2752, 2753) 및 서버에 구비된 AI 모델(2759, 2759s)을 이용하여 추론 동작을 수행하고, 최초 제공된 데이터(2710)에 레이블링된 정답 값(label)과 비교하여 역전파를 위한 그래디언트를 산출할 수 있다. 상기 산출된 그래디언트를 이용한 지도 학습에 관한 나머지 설명은 S2410의 전술한 설명과 중복되므로 생략한다.Thereafter, the server 2750 performs an inference operation using the collected metrics 2752 and 2753 and the AI models 2759 and 2759s provided in the server, and the correct answer value labeled on the initially provided data 2710 (label ) to calculate the gradient for backpropagation. The remaining description of supervised learning using the calculated gradient is omitted because it overlaps with the above description of S2410.
학습 데이터의 획득 방법How to acquire training data
AI 모델의 성능을 높이기 위해서는 양질의 학습 데이터를 확보하는 것이 중요하다. 시스템이 적용된 현장에서의 데이터를 이용하여 AI 모델을 추가 학습함으로써 실제 현장에서의 시스템의 성능을 높일 수 있다.In order to improve the performance of AI models, it is important to obtain high-quality training data. The performance of the system in the actual field can be improved by further learning the AI model using data from the field where the system is applied.
한편, 각 단말이 가공되지 않은 로우 데이터(예: 사진, 센서 데이터 등)을 모두 서버로 전송하는 것은 비효율적이므로, 서버는 이하의 동작들에 기초하여 효율적으로 학습 데이터를 얻을 수 있다.Meanwhile, since it is inefficient for each terminal to transmit all raw data (eg, photos, sensor data, etc.) to the server, the server can efficiently obtain learning data based on the following operations.
서버는 각 단말에 연관된 학습 데이터의 확보에 필요한 파라미터를 설정한다. 예를 들어, 상기 데이터의 확보를 위해 필요한 파라미터는 임계 확률(Pthreshold), 최소 차이(Pmin-difference), 데이터 유지 시간(Tretain), 또는 최신 데이터 우선 여부를 확인하기 위한 플래그(flag_newestdat_prior) 중 적어도 하나를 포함한다. 이처럼, 설정된 학습 데이터의 확보를 위한 파라미터는 단말들로 전송될 수 있다.The server sets parameters necessary for securing learning data related to each terminal. For example, a parameter necessary for securing the data is a threshold probability (P threshold ), a minimum difference (P min-difference ), a data retention time (T retain ), or a flag (flag_newestdat_prior) for checking whether the latest data is prioritized at least one of In this way, the parameters for securing the set learning data may be transmitted to the terminals.
상기 Pthreshold는 소프트맥스 레이어를 통해 생성된 가장 높은 확률 값의 임계치를 나타낸다. 상기 Pmin-difference는 가장 높은 확률 값과 그 다음으로 높은 값의 최소 차이의 임계치를 나타낸다. 상기 Tretain은 저장 공간에서 데이터가 유지되는 시간을 나타낸다. 상기 flag_newestdat_prior는, 그 값이 1이면 최신 데이터가 우선인 경우를, 그 값이 0이면 최신 데이터 우선이 아닌 경우를 나타낸다. The P threshold represents a threshold of the highest probability value generated through the softmax layer. The P min-difference represents the threshold of the minimum difference between the highest probability value and the next highest value. The T retain represents the time the data is maintained in the storage space. The flag_newestdat_prior, if the value is 1, indicates that the latest data has priority, and if the value is 0, the latest data does not have priority.
단말은 최종 추론 결과의 가장 높은 확률값이 Pthreshold 미만이거나 가장 높은 확률값과 그 다음으로 높은 확률값의 차이가 Pmin-difference 미만이면 학습 데이터를 저장 공간(예: 메모리)에 저장하고, Tretain 동안 유지한다. 만약 상기 저장 공간의 저장 가능 공간이 없는 상태에서 새로운 데이터를 저장해야 할 이벤트가 발생하면, 단말은 상기 플래그를 확인한다.If the highest probability value of the final inference result is less than P threshold or the difference between the highest probability value and the next highest probability value is less than P min-difference , the terminal stores the training data in a storage space (eg memory) and maintains it during T retain do. If an event to store new data occurs in a state where there is no available storage space in the storage space, the terminal checks the flag.
단말은 상기 플래그의 값이 1이고 저장 공간이 모두 보존 데이터로 채워지지 않았다면 상기 보존 데이터로 지정되지 않은 데이터 중 가장 오래 저장된 데이터를 삭제한 이후 여유 공간에 새로운 데이터를 저장한다. 보존 데이터는 Tretain 이후에도 삭제되지 않고, 또한 새로운 데이터가 수집되더라도 이를 저장하기 위한 공간의 확보를 위하여 삭제되지 않는 데이터를 말한다. 상기 플래그의 값이 0이거나, 저장 공간이 모두 보존 데이터로 채워진 경우에 단말은 새로운 데이터를 저장하지 않고 버린다. 즉, 단말은 상기 데이터 우선 여부를 확인하기 위한 플래그에 기초하여 신규 데이터의 저장 또는 버림을 결정함으로써 저장 공간을 관리할 수 있다.If the value of the flag is 1 and the storage space is not all filled with the preserved data, the terminal deletes the longest stored data among the data not designated as the preserved data and then stores new data in the free space. Preserved data refers to data that is not deleted even after T retain , and is not deleted even if new data is collected to secure space to store it. When the value of the flag is 0 or the storage space is all filled with preserved data, the terminal discards new data without storing it. That is, the terminal can manage the storage space by determining whether to store or discard the new data based on the flag for determining whether the data is prioritized.
한편, 서버는 하나 이상의 조건이 만족되면 각 단말이 학습에 이미 사용한 데이터들 중 로우 데이터를 전송할 것을 요청하거나, 각 단말이 상기 로우 데이터를 보존하도록 요청한다. 상기 조건은 서버의 최종 추론 결과와 일치하지 않는 추론 결과를 전송한 단말이 설정된 수 이상인 제1 조건과 상기 단말 간 추론 결과의 편차가 설정된 값 이상인 제2 조건을 포함한다. 서버는 상기 제1, 제2 조건 중 하나 이상이 만족되었을 때에 상기 요청하는 동작들 중 어느 하나를 수행할 수 있다. Meanwhile, when one or more conditions are satisfied, the server requests that each terminal transmit raw data among data already used for learning, or requests that each terminal preserves the raw data. The condition includes a first condition in which the number of terminals that have transmitted an inference result that does not match the final reasoning result of the server is equal to or greater than a set number and a second condition in which a deviation of the inference result between the terminals is equal to or greater than a set value. The server may perform any one of the requested operations when one or more of the first and second conditions are satisfied.
상기 로우 데이터를 전송할 것에 대한 요청은 서버에 의하여 제어되는 경우에 효과적이고, 상기 로우 데이터를 보존할 것에 대한 요청은 서버의 역할을 수행하는 서버 단말에 의해 제어되는 경우에 효과적이나 그러한 경우로만 실시 예를 제한하는 것은 아니다.The request to transmit the raw data is effective when controlled by the server, and the request to preserve the raw data is effective when controlled by the server terminal serving as the server, but only in that case does not limit
이후에, 서버로부터 데이터의 전송을 요청받는 경우에 각 단말은 저장 공간에 상기 데이터가 있으면 서버로 전송 후 그 데이터를 상기 저장 공간에서 삭제한다. 반면에 상기 저장 공간에 상기 데이터가 없으면 서버로 데이터가 없음을 알린다. 이때, 서버는 각 단말들로부터 데이터를 수신하면, 수신된 데이터를 저장한다.Thereafter, when receiving a request for data transmission from the server, each terminal, if there is the data in the storage space, transmits the data to the server and then deletes the data from the storage space. On the other hand, if there is no data in the storage space, it notifies the server that there is no data. In this case, when the server receives data from each terminal, the server stores the received data.
만약, 서버로부터 데이터의 보존을 요청받는 경우에 각 단말은 저장 공간에 상기 데이터가 있으면 이를 보존 데이터로 지정한다. 이때, 서버는 소정의 절차를 통해 각 단말에 저장된 보존 데이터를 수신한다. 예를 들어, 상기 보존 데이터는 단말에 의해 상기 단말이 서버와 접속이 가능한 시점에 수신되거나 사용자에 의해 수동으로 서버로 이동될 수 있다.If data preservation is requested from the server, each terminal designates the data as preservation data if there is the data in the storage space. At this time, the server receives the stored data stored in each terminal through a predetermined procedure. For example, the stored data may be received by the terminal at a time when the terminal can access the server, or may be manually moved to the server by the user.
이처럼, 확보된 데이터들은 레이블링 작업을 통해 학습 데이터로 이용될 수 있다.As such, the secured data may be used as training data through a labeling operation.
무선 통신 시스템에 사용되는 장치Devices used in wireless communication systems
이로 제한되는 것은 아니지만, 상술한 본 명세서의 다양한 제안들은 기기들간에 무선 통신/연결(예, 6G)을 필요로 하는 다양한 분야에 적용될 수 있다.Although not limited thereto, the various proposals of the present specification may be applied to various fields requiring wireless communication/connection (eg, 6G) between devices.
이하, 도면을 참조하여 보다 구체적으로 예시한다. 이하의 도면/설명에서 동일한 도면 부호는 다르게 기술하지 않는 한, 동일하거나 대응되는 하드웨어 블록, 소프트웨어 블록 또는 기능 블록을 예시할 수 있다. Hereinafter, it will be exemplified in more detail with reference to the drawings. In the following drawings/descriptions, the same reference numerals may represent the same or corresponding hardware blocks, software blocks, or functional blocks, unless otherwise indicated.
도 28은 본 명세서에 적용되는 통신 시스템을 예시한다.28 illustrates a communication system applied to this specification.
도 28을 참조하면, 본 명세서에 적용되는 통신 시스템(1)은 무선 기기, 기지국 및 네트워크를 포함한다. 여기서, 무선 기기는 무선 접속 기술(예, 6G, 5G NR(New RAT), LTE(Long Term Evolution))을 이용하여 통신을 수행하는 기기를 의미하며, 통신/무선/5G 기기로 지칭될 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(100a), 차량(100b-1, 100b-2), XR(eXtended Reality) 기기(100c), 휴대 기기(Hand-held device)(100d), 가전(100e), IoT(Internet of Thing) 기기(100f), AI기기/서버(400)를 포함할 수 있다. 예를 들어, 차량은 무선 통신 기능이 구비된 차량, 자율 주행 차량, 차량간 통신을 수행할 수 있는 차량 등을 포함할 수 있다. 여기서, 차량은 UAV(Unmanned Aerial Vehicle)(예, 드론)를 포함할 수 있다. XR 기기는 AR(Augmented Reality)/VR(Virtual Reality)/MR(Mixed Reality) 기기를 포함하며, HMD(Head-Mounted Device), 차량에 구비된 HUD(Head-Up Display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등의 형태로 구현될 수 있다. 휴대 기기는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 컴퓨터(예, 노트북 등) 등을 포함할 수 있다. 가전은 TV, 냉장고, 세탁기 등을 포함할 수 있다. IoT 기기는 센서, 스마트미터 등을 포함할 수 있다. 예를 들어, 기지국, 네트워크는 무선 기기로도 구현될 수 있으며, 특정 무선 기기(200a)는 다른 무선 기기에게 기지국/네트워크 노드로 동작할 수도 있다.Referring to FIG. 28 , the communication system 1 applied to the present specification includes a wireless device, a base station, and a network. Here, the wireless device means a device that performs communication using a wireless access technology (eg, 6G, 5G NR (New RAT), LTE (Long Term Evolution)), and may be referred to as a communication/wireless/5G device. . Although not limited thereto, the wireless device may include a robot 100a, a vehicle 100b-1, 100b-2, an eXtended Reality (XR) device 100c, a hand-held device 100d, and a home appliance 100e. ), an Internet of Thing (IoT) device 100f, and an AI device/server 400 . For example, the vehicle may include a vehicle equipped with a wireless communication function, an autonomous driving vehicle, a vehicle capable of performing inter-vehicle communication, and the like. Here, the vehicle may include an Unmanned Aerial Vehicle (UAV) (eg, a drone). XR devices include AR (Augmented Reality)/VR (Virtual Reality)/MR (Mixed Reality) devices, and include a Head-Mounted Device (HMD), a Head-Up Display (HUD) provided in a vehicle, a television, a smartphone, It may be implemented in the form of a computer, a wearable device, a home appliance, a digital signage, a vehicle, a robot, and the like. The portable device may include a smart phone, a smart pad, a wearable device (eg, a smart watch, smart glasses), a computer (eg, a laptop computer), and the like. Home appliances may include a TV, a refrigerator, a washing machine, and the like. The IoT device may include a sensor, a smart meter, and the like. For example, the base station and the network may be implemented as a wireless device, and the specific wireless device 200a may operate as a base station/network node to other wireless devices.
무선 기기(100a~100f)는 기지국(200)을 통해 네트워크(300)와 연결될 수 있다. 무선 기기(100a~100f)에는 AI(Artificial Intelligence) 기술이 적용될 수 있으며, 무선 기기(100a~100f)는 네트워크(300)를 통해 AI 서버(400)와 연결될 수 있다. 네트워크(300)는 3G 네트워크, 4G(예, LTE) 네트워크 또는 5G(예, NR) 네트워크 등을 이용하여 구성될 수 있다. 무선 기기(100a~100f)는 기지국(200)/네트워크(300)를 통해 서로 통신할 수도 있지만, 기지국/네트워크를 통하지 않고 직접 통신(e.g. 사이드링크 통신(sidelink communication))할 수도 있다. 예를 들어, 차량들(100b-1, 100b-2)은 직접 통신(e.g. V2V(Vehicle to Vehicle)/V2X(Vehicle to everything) communication)을 할 수 있다. 또한, IoT 기기(예, 센서)는 다른 IoT 기기(예, 센서) 또는 다른 무선 기기(100a~100f)와 직접 통신을 할 수 있다.The wireless devices 100a to 100f may be connected to the network 300 through the base station 200 . AI (Artificial Intelligence) technology may be applied to the wireless devices 100a to 100f , and the wireless devices 100a to 100f may be connected to the AI server 400 through the network 300 . The network 300 may be configured using a 3G network, a 4G (eg, LTE) network, or a 5G (eg, NR) network. The wireless devices 100a to 100f may communicate with each other through the base station 200/network 300, but may also communicate directly (e.g. sidelink communication) without passing through the base station/network. For example, the vehicles 100b-1 and 100b-2 may perform direct communication (e.g. Vehicle to Vehicle (V2V)/Vehicle to everything (V2X) communication). Also, the IoT device (eg, sensor) may communicate directly with other IoT devices (eg, sensor) or other wireless devices 100a to 100f.
무선 기기(100a~100f)/기지국(200)-기지국(200)/무선 기기(100a~100f) 간에는 무선 통신/연결(150a, 150b)이 이뤄질 수 있다. 여기서, 무선 통신/연결은 상향/하향링크 통신(150a)과 사이드링크 통신(150b)(또는, D2D 통신)은 다양한 무선 접속 기술(예, 6G, NR)을 통해 이뤄질 수 있다. 무선 통신/연결(150a, 150b)을 통해 무선 기기와 기지국/무선 기기는 서로 무선 신호를 송신/수신할 수 있다. 예를 들어, 무선 통신/연결(150a, 150b)은 도 A1의 전체/일부 과정에 기반하여 다양한 물리 채널을 통해 신호를 송신/수신할 수 있다. 이를 위해, 본 명세서의 다양한 제안들에 기반하여, 무선 신호의 송신/수신을 위한 다양한 구성정보 설정 과정, 다양한 신호 처리 과정(예, 채널 인코딩/디코딩, 변조/복조, 자원 매핑/디매핑 등), 자원 할당 과정 등 중 적어도 일부가 수행될 수 있다.Wireless communication/ connection 150a and 150b may be performed between the wireless devices 100a to 100f/base station 200 - the base station 200/wireless devices 100a to 100f. Here, the wireless communication/connection may be performed through various wireless access technologies (eg, 6G, NR) for uplink/downlink communication 150a and sidelink communication 150b (or D2D communication). Through the wireless communication/ connection 150a and 150b, the wireless device and the base station/wireless device may transmit/receive wireless signals to each other. For example, the wireless communication/ connection 150a and 150b may transmit/receive signals through various physical channels based on all/part of the process of FIG. A1 . To this end, based on the various proposals of the present specification, various configuration information setting processes for wireless signal transmission/reception, various signal processing processes (eg, channel encoding/decoding, modulation/demodulation, resource mapping/demapping, etc.) , at least a part of a resource allocation process may be performed.
도 29는 본 명세서에 적용될 수 있는 무선 기기를 예시한다.29 illustrates a wireless device applicable to this specification.
도 29를 참조하면, 제1 무선 기기(100)와 제2 무선 기기(200)는 다양한 무선 접속 기술(예, 6G, LTE, NR)을 통해 무선 신호를 송수신할 수 있다. 여기서, {제1 무선 기기(100), 제2 무선 기기(200)}은 도 26의 {무선 기기(100x), 기지국(200)} 및/또는 {무선 기기(100x), 무선 기기(100x)}에 대응할 수 있다.Referring to FIG. 29 , the first wireless device 100 and the second wireless device 200 may transmit/receive wireless signals through various wireless access technologies (eg, 6G, LTE, NR). Here, {first wireless device 100, second wireless device 200} is {wireless device 100x, base station 200} of FIG. 26 and/or {wireless device 100x, wireless device 100x) } can be matched.
제1 무선 기기(100)는 하나 이상의 프로세서(102) 및 하나 이상의 메모리(104)를 포함하며, 추가적으로 하나 이상의 송수신기(106) 및/또는 하나 이상의 안테나(108)을 더 포함할 수 있다. 프로세서(102)는 메모리(104) 및/또는 송수신기(106)를 제어하며, 앞에서 설명/제안한 기능, 절차 및/또는 방법들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(102)는 메모리(104) 내의 정보를 처리하여 제1 정보/신호를 생성한 뒤, 송수신기(106)을 통해 제1 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(102)는 송수신기(106)를 통해 제2 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제2 정보/신호의 신호 처리로부터 얻은 정보를 메모리(104)에 저장할 수 있다. 메모리(104)는 프로세서(102)와 연결될 수 있고, 프로세서(102)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(104)는 프로세서(102)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 앞에서 설명/제안한 절차 및/또는 방법들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(102)와 메모리(104)는 무선 통신 기술(예, 6G, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(106)는 프로세서(102)와 연결될 수 있고, 하나 이상의 안테나(108)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(106)는 송신기 및/또는 수신기를 포함할 수 있다. 송수신기(106)는 RF(Radio Frequency) 유닛과 혼용될 수 있다. 본 명세서에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.The first wireless device 100 includes one or more processors 102 and one or more memories 104 , and may further include one or more transceivers 106 and/or one or more antennas 108 . The processor 102 controls the memory 104 and/or the transceiver 106 and may be configured to implement the functions, procedures and/or methods described/suggested above. For example, the processor 102 may process information in the memory 104 to generate first information/signal, and then transmit a wireless signal including the first information/signal through the transceiver 106 . In addition, the processor 102 may receive the radio signal including the second information/signal through the transceiver 106 , and then store information obtained from signal processing of the second information/signal in the memory 104 . The memory 104 may be connected to the processor 102 and may store various information related to the operation of the processor 102 . For example, the memory 104 may store software code including instructions for performing some or all of the processes controlled by the processor 102 , or for performing the procedures and/or methods described/suggested above. . Here, the processor 102 and the memory 104 may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, 6G, LTE, NR). The transceiver 106 may be coupled to the processor 102 , and may transmit and/or receive wireless signals via one or more antennas 108 . The transceiver 106 may include a transmitter and/or a receiver. The transceiver 106 may be used interchangeably with a radio frequency (RF) unit. In this specification, a wireless device may refer to a communication modem/circuit/chip.
제2 무선 기기(200)는 하나 이상의 프로세서(202), 하나 이상의 메모리(204)를 포함하며, 추가적으로 하나 이상의 송수신기(206) 및/또는 하나 이상의 안테나(208)를 더 포함할 수 있다. 프로세서(202)는 메모리(204) 및/또는 송수신기(206)를 제어하며, 앞에서 설명/제안한 기능, 절차 및/또는 방법들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202)는 메모리(204) 내의 정보를 처리하여 제3 정보/신호를 생성한 뒤, 송수신기(206)를 통해 제3 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202)는 송수신기(206)를 통해 제4 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제4 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204)에 저장할 수 있다. 메모리(204)는 프로세서(202)와 연결될 수 있고, 프로세서(202)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204)는 프로세서(202)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 앞에서 설명/제안한 절차 및/또는 방법들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202)와 메모리(204)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206)는 프로세서(202)와 연결될 수 있고, 하나 이상의 안테나(208)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206)는 송신기 및/또는 수신기를 포함할 수 있다 송수신기(206)는 RF 유닛과 혼용될 수 있다. 본 명세서에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.The second wireless device 200 includes one or more processors 202 , one or more memories 204 , and may further include one or more transceivers 206 and/or one or more antennas 208 . The processor 202 controls the memory 204 and/or the transceiver 206 and may be configured to implement the functions, procedures, and/or methods described/suggested above. For example, the processor 202 may process the information in the memory 204 to generate third information/signal, and then transmit a wireless signal including the third information/signal through the transceiver 206 . In addition, the processor 202 may receive the radio signal including the fourth information/signal through the transceiver 206 , and then store information obtained from signal processing of the fourth information/signal in the memory 204 . The memory 204 may be connected to the processor 202 and may store various information related to the operation of the processor 202 . For example, the memory 204 may store software code including instructions for performing some or all of the processes controlled by the processor 202 , or for performing the procedures and/or methods described/suggested above. . Here, the processor 202 and the memory 204 may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR). The transceiver 206 may be coupled to the processor 202 and may transmit and/or receive wireless signals via one or more antennas 208 . The transceiver 206 may include a transmitter and/or a receiver. The transceiver 206 may be used interchangeably with an RF unit. In this specification, a wireless device may refer to a communication modem/circuit/chip.
이하, 무선 기기(100, 200)의 하드웨어 요소에 대해 보다 구체적으로 설명한다. 이로 제한되는 것은 아니지만, 하나 이상의 프로토콜 계층이 하나 이상의 프로세서(102, 202)에 의해 구현될 수 있다. 예를 들어, 하나 이상의 프로세서(102, 202)는 하나 이상의 계층(예, PHY, MAC, RLC, PDCP, RRC, SDAP와 같은 기능적 계층)을 구현할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 하나 이상의 PDU(Protocol Data Unit) 및/또는 하나 이상의 SDU(Service Data Unit)를 생성할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 메시지, 제어정보, 데이터 또는 정보를 생성할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 포함하는 신호(예, 베이스밴드 신호)를 생성하여, 하나 이상의 송수신기(106, 206)에게 제공할 수 있다. 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)로부터 신호(예, 베이스밴드 신호)를 수신할 수 있고, 본 문서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 획득할 수 있다.Hereinafter, hardware elements of the wireless devices 100 and 200 will be described in more detail. Although not limited thereto, one or more protocol layers may be implemented by one or more processors 102 , 202 . For example, one or more processors 102 , 202 may implement one or more layers (eg, functional layers such as PHY, MAC, RLC, PDCP, RRC, SDAP). The one or more processors 102 and 202 may generate one or more Protocol Data Units (PDUs) and/or one or more Service Data Units (SDUs) according to the functions, procedures, proposals and/or methods disclosed herein. One or more processors 102 , 202 may generate messages, control information, data, or information according to the functions, procedures, proposals and/or methods disclosed herein. The one or more processors 102 and 202 generate a signal (eg, a baseband signal) including PDUs, SDUs, messages, control information, data or information according to the functions, procedures, proposals and/or methods disclosed herein. , to one or more transceivers 106 and 206 . One or more processors 102 , 202 may receive signals (eg, baseband signals) from one or more transceivers 106 , 206 , PDUs, SDUs, and/or SDUs according to the functions, procedures, proposals and/or methods disclosed herein. , a message, control information, data or information can be obtained.
하나 이상의 프로세서(102, 202)는 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 마이크로 컴퓨터로 지칭될 수 있다. 하나 이상의 프로세서(102, 202)는 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합에 의해 구현될 수 있다. 일 예로, 하나 이상의 ASIC(Application Specific Integrated Circuit), 하나 이상의 DSP(Digital Signal Processor), 하나 이상의 DSPD(Digital Signal Processing Device), 하나 이상의 PLD(Programmable Logic Device) 또는 하나 이상의 FPGA(Field Programmable Gate Arrays)가 하나 이상의 프로세서(102, 202)에 포함될 수 있다. 본 문서에 개시된 기능, 절차, 제안 및/또는 방법들은 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있고, 펌웨어 또는 소프트웨어는 모듈, 절차, 기능 등을 포함하도록 구현될 수 있다. 본 문서에 개시된 기능, 절차, 제안 및/또는 방법을 수행하도록 설정된 펌웨어 또는 소프트웨어는 하나 이상의 프로세서(102, 202)에 포함되거나, 하나 이상의 메모리(104, 204)에 저장되어 하나 이상의 프로세서(102, 202)에 의해 구동될 수 있다. 본 문서에 개시된 기능, 절차, 제안 및 또는 방법들은 코드, 명령어 및/또는 명령어의 집합 형태로 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있다. One or more processors 102, 202 may be referred to as a controller, microcontroller, microprocessor, or microcomputer. One or more processors 102 , 202 may be implemented by hardware, firmware, software, or a combination thereof. For example, one or more Application Specific Integrated Circuits (ASICs), one or more Digital Signal Processors (DSPs), one or more Digital Signal Processing Devices (DSPDs), one or more Programmable Logic Devices (PLDs), or one or more Field Programmable Gate Arrays (FPGAs) may be included in one or more processors 102 , 202 . The functions, procedures, proposals and/or methods disclosed in this document may be implemented using firmware or software, and the firmware or software may be implemented to include modules, procedures, functions, and the like. Firmware or software configured to perform the functions, procedures, proposals, and/or methods disclosed herein is included in one or more processors 102, 202, or stored in one or more memories 104, 204, to one or more processors 102, 202) can be driven. The functions, procedures, proposals and/or methods disclosed in this document may be implemented using firmware or software in the form of code, instructions, and/or a set of instructions.
하나 이상의 메모리(104, 204)는 하나 이상의 프로세서(102, 202)와 연결될 수 있고, 다양한 형태의 데이터, 신호, 메시지, 정보, 프로그램, 코드, 지시 및/또는 명령을 저장할 수 있다. 하나 이상의 메모리(104, 204)는 ROM, RAM, EPROM, 플래시 메모리, 하드 드라이브, 레지스터, 캐쉬 메모리, 컴퓨터 판독 저장 매체 및/또는 이들의 조합으로 구성될 수 있다. 하나 이상의 메모리(104, 204)는 하나 이상의 프로세서(102, 202)의 내부 및/또는 외부에 위치할 수 있다. 또한, 하나 이상의 메모리(104, 204)는 유선 또는 무선 연결과 같은 다양한 기술을 통해 하나 이상의 프로세서(102, 202)와 연결될 수 있다.One or more memories 104 , 204 may be coupled with one or more processors 102 , 202 , and may store various forms of data, signals, messages, information, programs, code, instructions, and/or instructions. The one or more memories 104 and 204 may be comprised of ROM, RAM, EPROM, flash memory, hard drives, registers, cache memory, computer readable storage media, and/or combinations thereof. One or more memories 104 , 204 may be located inside and/or external to one or more processors 102 , 202 . Additionally, one or more memories 104 , 204 may be coupled to one or more processors 102 , 202 through various technologies, such as wired or wireless connections.
하나 이상의 송수신기(106, 206)는 하나 이상의 다른 장치에게 본 문서의 방법들 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 전송할 수 있다. 하나 이상의 송수신기(106, 206)는 하나 이상의 다른 장치로부터 본 문서에 개시된 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 수신할 수 있다. 예를 들어, 하나 이상의 송수신기(106, 206)는 하나 이상의 프로세서(102, 202)와 연결될 수 있고, 무선 신호를 송수신할 수 있다. 예를 들어, 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)가 하나 이상의 다른 장치에게 사용자 데이터, 제어 정보 또는 무선 신호를 전송하도록 제어할 수 있다. 또한, 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)가 하나 이상의 다른 장치로부터 사용자 데이터, 제어 정보 또는 무선 신호를 수신하도록 제어할 수 있다. 또한, 하나 이상의 송수신기(106, 206)는 하나 이상의 안테나(108, 208)와 연결될 수 있고, 하나 이상의 송수신기(106, 206)는 하나 이상의 안테나(108, 208)를 통해 본 문서에 개시된 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 송수신하도록 설정될 수 있다. 본 문서에서, 하나 이상의 안테나는 복수의 물리 안테나이거나, 복수의 논리 안테나(예, 안테나 포트)일 수 있다. 하나 이상의 송수신기(106, 206)는 수신된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 하나 이상의 프로세서(102, 202)를 이용하여 처리하기 위해, 수신된 무선 신호/채널 등을 RF 밴드 신호에서 베이스밴드 신호로 변환(Convert)할 수 있다. 하나 이상의 송수신기(106, 206)는 하나 이상의 프로세서(102, 202)를 이용하여 처리된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 베이스밴드 신호에서 RF 밴드 신호로 변환할 수 있다. 이를 위하여, 하나 이상의 송수신기(106, 206)는 (아날로그) 오실레이터 및/또는 필터를 포함할 수 있다.One or more transceivers 106 , 206 may transmit user data, control information, radio signals/channels, etc. referred to in the methods and/or operational flowcharts of this document to one or more other devices. The one or more transceivers 106 and 206 may receive user data, control information, radio signals/channels, etc. referred to in the functions, procedures, proposals, methods, and/or flowcharts of operations disclosed herein, and the like, from one or more other devices. For example, one or more transceivers 106 , 206 may be coupled to one or more processors 102 , 202 and may transmit and receive wireless signals. For example, one or more processors 102 , 202 may control one or more transceivers 106 , 206 to transmit user data, control information, or wireless signals to one or more other devices. In addition, one or more processors 102 , 202 may control one or more transceivers 106 , 206 to receive user data, control information, or wireless signals from one or more other devices. Further, one or more transceivers 106, 206 may be coupled to one or more antennas 108, 208, and the one or more transceivers 106, 206 may be coupled to one or more of the transceivers 106, 206 via the one or more antennas 108, 208 for the functions, procedures, and procedures disclosed herein. , may be set to transmit and receive user data, control information, radio signals/channels, etc. mentioned in a proposal, a method and/or an operation flowchart. In this document, one or more antennas may be a plurality of physical antennas or a plurality of logical antennas (eg, antenna ports). The one or more transceivers 106, 206 convert the received radio signal/channel, etc. from the RF band signal to process the received user data, control information, radio signal/channel, etc. using the one or more processors 102, 202. It can be converted into a baseband signal. One or more transceivers 106 and 206 may convert user data, control information, radio signals/channels, etc. processed using one or more processors 102 and 202 from baseband signals to RF band signals. To this end, one or more transceivers 106 , 206 may include (analog) oscillators and/or filters.
전술한 본 명세서는, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 명세서의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 명세서의 등가적 범위 내에서의 모든 변경은 본 명세서의 범위에 포함된다.The above-described specification can be implemented as computer-readable code on a medium in which a program is recorded. The computer-readable medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is also a carrier wave (eg, transmission over the Internet) that is implemented in the form of. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of this specification should be determined by a reasonable interpretation of the appended claims, and all modifications within the scope of equivalents of this specification are included in the scope of this specification.

Claims (15)

  1. 무선 통신 시스템(Wireless Communicatino System)에서, 서버의 연합 추론(Federated Inferencing, FI)을 수행하는 방법으로서,A method of performing Federated Inferencing (FI) of a server in a wireless communication system, comprising:
    2 이상의 단말로부터 연합 추론을 위한 특정 값들을 수신하는 단계;Receiving specific values for federated inference from two or more terminals;
    상기 수신된 특정 값들과 미리 학습된 글로벌 AI 모델을 이용하여 분류 동작을 수행하는 단계;performing a classification operation using the received specific values and a pre-trained global AI model;
    를 포함하는, 방법.A method comprising
  2. 제1 항에 있어서,According to claim 1,
    상기 2 이상의 단말 중 적어도 일부를 포함하는 하나 이상의 단말 그룹을 생성하는 단계;creating one or more terminal groups including at least some of the two or more terminals;
    를 더 포함하는, 방법.A method further comprising:
  3. 제2 항에 있어서,3. The method of claim 2,
    상기 단말 그룹은,The terminal group is
    (i) 상기 단말에 저장된 로컬 AI 모델의 식별 정보, (ii) 상기 단말의 위치 정보, 또는 (iii) CSI(Channel State Information) 중 적어도 하나에 기반하여 그룹화되는 것인, 방법.(i) the identification information of the local AI model stored in the terminal, (ii) the location information of the terminal, or (iii) CSI (Channel State Information) will be grouped based on at least one, the method.
  4. 제2 항에 있어서,3. The method of claim 2,
    상기 단말 그룹이 2 이상 존재하는 경우 각 단말 그룹들은 서로 다른 로컬 AI 모델을 갖는, 방법.When there are two or more terminal groups, each terminal group has a different local AI model.
  5. 제4 항에 있어서,5. The method of claim 4,
    상기 로컬 AI 모델은,The local AI model is
    하나 이상의 노드를 구비하는 하나 이상의 레이어와 비선형 활성화 레이어(non-linenar activatoin layer)를 포함하는 신경망(Neural Network) 모델이며,It is a neural network model including one or more layers having one or more nodes and a non-linenar activatoin layer,
    상기 특정 값은 상기 비선형 활성화 레이어의 입력 값 또는 출력 값 중 어느 하나인, 방법.The specific value is either an input value or an output value of the non-linear activation layer.
  6. 제5 항에 있어서,6. The method of claim 5,
    상기 비선형 활성화 레이어는 제1 소프트맥스 레이어(softmax layer)인, 방법.wherein the non-linear activation layer is a first softmax layer.
  7. 제2 항에 있어서,3. The method of claim 2,
    상기 단말 그룹에 포함된 단말들 중 어느 하나를 대표 단말(Master UE)로 선정하는 단계;selecting any one of the terminals included in the terminal group as a master UE;
    를 더 포함하고,further comprising,
    상기 연합 추론을 위한 특정 값을 전송하는 상기 2 이상의 단말은 상기 대표 단말로만 구성되는, 방법.The method, wherein the two or more terminals transmitting the specific value for the joint inference are configured only with the representative terminal.
  8. 무선 통신 시스템에서, 제1 단말의 연합 추론을 수행하는 방법에 있어서,In a wireless communication system, a method for performing joint inference of a first terminal, comprising:
    통신 환경에 관련된 정보에 기반하여 연합 추론을 위한 서버와의 연결 상태를 확인하는 단계;checking a connection state with a server for federated inference based on information related to a communication environment;
    상기 서버가 확인되지 않는 것에 기반하여 2 이상의 제2 단말로 연합 추론을 위한 특정 값들의 송신을 요청하는 단계; 및requesting transmission of specific values for federated inference to two or more second terminals based on the server not being confirmed; and
    상기 요청에 응답하여 수신된 상기 특정 값들과 미리 학습된 로컬 AI 모델을 이용하여 분류 동작을 수행하거나, 상기 특정 값들에 기반하여 산출된 취합 값(Aggregated Value)을 연합 추론을 위한 제3 단말로 전송하는 단계;A classification operation is performed using the specific values received in response to the request and a pre-trained local AI model, or an aggregated value calculated based on the specific values is transmitted to a third terminal for joint inference to do;
    를 포함하는, 방법.A method comprising
  9. 제8 항에 있어서,9. The method of claim 8,
    상기 제1, 제2 단말은 하나의 단말 그룹을 구성하고, The first and second terminals constitute one terminal group,
    상기 제3 단말은 상기 단말 그룹에 외의 다른 단말 그룹에 속한 것인, 방법.The third terminal belongs to a terminal group other than the terminal group, the method.
  10. 제9 항에 있어서,10. The method of claim 9,
    상기 단말 그룹은,The terminal group is
    (i) 단말에 저장된 로컬 AI 모델의 식별 정보, (ii) 상기 단말의 위치 정보, 또는 (iii) CSI(Channel State Information) 중 적어도 하나에 기반하여 그룹화되는 것인, 방법.(i) identification information of the local AI model stored in the terminal, (ii) the location information of the terminal, or (iii) CSI (Channel State Information) will be grouped based on at least one of, the method.
  11. 제9 항에 있어서,10. The method of claim 9,
    상기 단말 그룹이 2 이상 존재하는 경우 각 단말 그룹들은 서로 다른 로컬 AI 모델을 갖는, 방법.When there are two or more terminal groups, each terminal group has a different local AI model.
  12. 제11 항에 있어서,12. The method of claim 11,
    상기 로컬 AI 모델은,The local AI model is
    하나 이상의 노드를 구비하는 하나 이상의 레이어와 비선형 활성화 레이어(non-linenar activatoin layer)를 포함하는 신경망(Neural Network) 모델이며,It is a neural network model including one or more layers having one or more nodes and a non-linenar activatoin layer,
    상기 특정 값은 상기 비선형 활성화 레이어의 입력 값 또는 출력 값 중 어느 하나인, 방법.The specific value is either an input value or an output value of the non-linear activation layer.
  13. 제12 항에 있어서,13. The method of claim 12,
    상기 비선형 활성화 레이어는 제1 소프트맥스 레이어(softmax layer)인, 방법.wherein the non-linear activation layer is a first softmax layer.
  14. 제8 항에 있어서,9. The method of claim 8,
    상기 분류 동작을 수행하는 제1 동작 또는 상기 취합 값을 상기 제3 단말로 전송하는 제2 동작 중 어느 하나는, 상기 제1 내지 제3 단말에 구비된 프로세서 성능, 배터리 성능 및 배터리 잔류량 중 적어도 일부에 기초하여 선택적으로 결정되는, 방법.Any one of the first operation of performing the classification operation or the second operation of transmitting the aggregated value to the third terminal is at least a portion of processor performance, battery performance, and remaining battery capacity provided in the first to third terminals Selectively determined based on the method.
  15. 하나 이상의 트랜시버;one or more transceivers;
    하나 이상의 프로세서; 및one or more processors; and
    상기 하나 이상의 프로세서에 연결되고, 명령들(instructions)을 저장하는 하나 이상의 메모리;를 포함하고,one or more memories coupled to the one or more processors for storing instructions;
    상기 명령들은 상기 하나 이상의 프로세서에 의해 실행될 때 하나 이상의 프로세서로 하여금 연합 추론을 위한 동작들을 지원하며, 상기 동작들은,The instructions, when executed by the one or more processors, cause one or more processors to support operations for federated inference, the operations comprising:
    2 이상의 외부 단말로부터 연합 추론을 위한 특정 값들을 수신하는 동작;Receiving specific values for federated inference from two or more external terminals;
    상기 수신된 특정 값들과 메모리에 저장된 로컬 AI 모델을 이용하여 중간 값을 생성하는 동작; 및generating an intermediate value using the received specific values and a local AI model stored in a memory; and
    상기 생성된 중간 값을 연합 추론을 위한 서버로 전송하는 동작;transmitting the generated intermediate value to a server for federated inference;
    을 포함하는, 단말.Including, the terminal.
PCT/KR2020/009839 2020-07-27 2020-07-27 Method for performing joint reasoning in wireless communication system, and apparatus therefor WO2022025303A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2020/009839 WO2022025303A1 (en) 2020-07-27 2020-07-27 Method for performing joint reasoning in wireless communication system, and apparatus therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2020/009839 WO2022025303A1 (en) 2020-07-27 2020-07-27 Method for performing joint reasoning in wireless communication system, and apparatus therefor

Publications (1)

Publication Number Publication Date
WO2022025303A1 true WO2022025303A1 (en) 2022-02-03

Family

ID=80036396

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/009839 WO2022025303A1 (en) 2020-07-27 2020-07-27 Method for performing joint reasoning in wireless communication system, and apparatus therefor

Country Status (1)

Country Link
WO (1) WO2022025303A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023184428A1 (en) * 2022-03-31 2023-10-05 北京小米移动软件有限公司 Csi processing mode switching method and apparatus, and medium, product and chip

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200083234A (en) * 2018-12-28 2020-07-08 연세대학교 산학협력단 Method for Operating Machine Learning Based Federated Distillation, Web Server and Terminal

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200083234A (en) * 2018-12-28 2020-07-08 연세대학교 산학협력단 Method for Operating Machine Learning Based Federated Distillation, Web Server and Terminal

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ADRIAN FLANAGAN; WERE OYOMNO; ALEXANDER GRIGORIEVSKIY; KUAN EEIK TAN; SULEIMAN A. KHAN; MUHAMMAD AMMAD-UD-DIN: "Federated Multi-view Matrix Factorization for Personalized Recommendations", ARXIV.ORG, 8 April 2020 (2020-04-08), 201 Olin Library Cornell University Ithaca, NY 14853 , XP081640968 *
DU ZHAOYANG; WU CELIMUGE; YOSHINAGA TSUTOMU; YAU KOK-LIM ALVIN; JI YUSHENG; LI JIE: "Federated Learning for Vehicular Internet of Things: Recent Advances and Open Issues", IEEE OPEN JOURNAL OF THE COMPUTER SOCIETY, vol. 1, 5 May 2020 (2020-05-05), pages 45 - 61, XP011795454, DOI: 10.1109/OJCS.2020.2992630 *
MING XIE; GUODONG LONG; TAO SHEN; TIANYI ZHOU; XIANZHI WANG; JING JIANG: "Multi-Center Federated Learning", ARXIV.ORG, 3 May 2020 (2020-05-03), 201 Olin Library Cornell University Ithaca, NY 14853 , XP081657348 *
SOLMAZ NIKNAM; HARPREET S. DHILLON; JEFFERY H. REED: "Federated Learning for Wireless Communications: Motivation, Opportunities and Challenges", ARXIV.ORG, 30 July 2019 (2019-07-30), 201 Olin Library Cornell University Ithaca, NY 14853 , XP081463430 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023184428A1 (en) * 2022-03-31 2023-10-05 北京小米移动软件有限公司 Csi processing mode switching method and apparatus, and medium, product and chip

Similar Documents

Publication Publication Date Title
WO2021112360A1 (en) Method and device for estimating channel in wireless communication system
WO2022050432A1 (en) Method and device for performing federated learning in wireless communication system
WO2021256584A1 (en) Method for transmitting or receiving data in wireless communication system and apparatus therefor
WO2022045399A1 (en) Federated learning method based on selective weight transmission and terminal therefor
WO2022050468A1 (en) Method for performing federated learning in wireless communication system, and apparatus therefor
WO2022025321A1 (en) Signal randomization method and device of communication apparatus
WO2022054981A1 (en) Method and device for executing compression federated learning
WO2022039295A1 (en) Method for preprocessing downlink in wireless communication system and apparatus therefor
WO2022014732A1 (en) Method and apparatus for performing federated learning in wireless communication system
WO2022059808A1 (en) Method for performing reinforcement learning by v2x communication device in autonomous driving system
WO2021251511A1 (en) Method for transmitting/receiving uplink signal of high frequency band in wireless communication system, and device therefor
WO2022019352A1 (en) Signal transmission and reception method and apparatus for terminal and base station in wireless communication system
WO2022025303A1 (en) Method for performing joint reasoning in wireless communication system, and apparatus therefor
WO2022050444A1 (en) Communication method for federated learning and device for performing same
WO2022004927A1 (en) Method for transmitting or receiving signal in wireless communication system using auto encoder, and apparatus therefor
WO2022050434A1 (en) Method and apparatus for performing handover in wireless communication system
WO2022050528A1 (en) Method and apparatus for performing cell reselection in wireless communication system
WO2022039302A1 (en) Method for controlling calculations of deep neural network in wireless communication system, and apparatus therefor
WO2022119021A1 (en) Method and device for adapting learning class-based system to ai mimo
WO2022030664A1 (en) Communication method based on similarity of inter-frequency band spatial information for channel in wireless communication system and apparatus therefor
WO2021261611A1 (en) Method and device for performing federated learning in wireless communication system
WO2022010014A1 (en) Method and apparatus for estimating phase noise in wireless communication system
WO2022050466A1 (en) Method for aligning gradient symbols by using bias regarding aircomp in signal amplitude range of receiver
WO2022050440A1 (en) Communication method and server for distributed learning by which server derives final learning results on basis of learning results of plurality of devices
WO2022124440A1 (en) Method for performing compressed federated learning in consideration of uplink channel state

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20947766

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20947766

Country of ref document: EP

Kind code of ref document: A1