WO2023068398A1 - Method and device for supporting semantic communication in wireless communication system - Google Patents

Method and device for supporting semantic communication in wireless communication system Download PDF

Info

Publication number
WO2023068398A1
WO2023068398A1 PCT/KR2021/014691 KR2021014691W WO2023068398A1 WO 2023068398 A1 WO2023068398 A1 WO 2023068398A1 KR 2021014691 W KR2021014691 W KR 2021014691W WO 2023068398 A1 WO2023068398 A1 WO 2023068398A1
Authority
WO
WIPO (PCT)
Prior art keywords
graph
subgraphs
latent
wireless device
similarity
Prior art date
Application number
PCT/KR2021/014691
Other languages
French (fr)
Korean (ko)
Inventor
정익주
이상림
전기준
이태현
조민석
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2021/014691 priority Critical patent/WO2023068398A1/en
Publication of WO2023068398A1 publication Critical patent/WO2023068398A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation

Definitions

  • It relates to a method and apparatus for supporting semantic communication in a wireless communication system.
  • Mobile communication systems have been developed to provide voice services while ensuring user activity.
  • the mobile communication system has expanded its scope not only to voice but also to data services.
  • the explosive increase in traffic causes a shortage of resources and users require higher-speed services, so a more advanced mobile communication system is required. .
  • next-generation mobile communication system The requirements of the next-generation mobile communication system are to support explosive data traffic, drastic increase in transmission rate per user, significantly increased number of connected devices, very low end-to-end latency, and high energy efficiency.
  • Dual Connectivity Massive MIMO (Massive Multiple Input Multiple Output), In-band Full Duplex, Non-Orthogonal Multiple Access (NOMA), Super Wideband Wideband) support, various technologies such as device networking (Device Networking) are being studied.
  • Massive MIMO Massive Multiple Input Multiple Output
  • NOMA Non-Orthogonal Multiple Access
  • Super Wideband Wideband various technologies such as device networking (Device Networking) are being studied.
  • Reliability considered in the existing communication scheme is related to how accurately a radio signal (ie, a complex valued modulation symbol) can be transmitted.
  • a radio signal ie, a complex valued modulation symbol
  • semantic communication how accurately the meaning of a transmitted message can be conveyed is considered. That is, in order to support semantic communication, a semantic message indicating a meaning must be interpreted as the same meaning at a transmitting/receiving side.
  • Shared knowledge including a plurality of pieces of information may be created through sharing of a graph corresponding to local knowledge possessed by a source and a destination. In this way, having the same knowledge (that is, shared knowledge) between the source and the destination can make it possible to interpret the concept (semantic message) delivered from each more correctly.
  • this method has the following limitations in generating shared knowledge.
  • graph-based knowledge Since the size of graph-based knowledge (graph-based information) is very large, the resources required to convey that information also increase. In addition, the amount of computation for comparing graph-based information is greatly increased, so that the meaning of a message transmitted through semantic communication cannot be correctly interpreted or delays occur, resulting in poor performance compared to conventional communication. Regarding the above problem, a graph neural network (GNN) may be utilized. However, even in the case of GNN, a large amount of computation is required in the process of creating a latent vector for the entire graph data.
  • GNN graph neural network
  • the purpose of this specification is to propose a method for solving the above problems in supporting semantic communication based on GNN.
  • a method performed by a first wireless device to support semantic communication in a wireless communication system includes one or more sub-graphs from preset graph data. ), generating one or more first latent vectors based on the one or more subgraphs, one or more second latent vectors from a second wireless device. more second latent vectors), calculating a similarity between the one or more first latent vectors and the one or more second latent vectors based on the similarity function, and the calculation and updating the one or more subgraphs based on the similarity.
  • the one or more subgraphs are extracted based on control information.
  • the control information is i) a score function for extracting a sub-graph related to a part of knowledge represented by the preset graph data, ii) a graph for processing the sub-graph It includes information on at least one of a graph neural network model (GNN model) or iii) a similarity function related to a latent vector generated from the subgraph.
  • GNN model graph neural network model
  • a similarity function related to a latent vector generated from the subgraph.
  • the one or more sub-graphs are based on specific node sets determined in order of high scores calculated based on the score function among node sets included in the preset graph data.
  • the latent vector is identified by an index indicating a ranking based on the calculated score.
  • the degree of similarity is characterized in that the index representing the ranking is calculated between the first latent vector and the second latent vector having the same index.
  • the updating of the one or more subgraphs may include restoring one or more subgraphs from the one or more second latent vectors, comparing the restored one or more subgraphs with the one or more subgraphs, and comparing the one or more subgraphs with the one or more subgraphs. Updating the subgraphs and reflecting the updated one or more subgraphs to the preset graph data.
  • Updating the one or more subgraphs may be performed by adding, modifying, or deleting a node or an edge included in each of the one or more subgraphs.
  • Performance information related to supporting the semantic communication is transmitted from the first wireless device to the second wireless device, and the performance information related to supporting the semantic communication determines whether the first wireless device supports an operation related to graph data. It may include information indicating whether or not.
  • the control information may be transmitted from the second wireless device to the first wireless device based on performance information related to supporting the semantic communication indicating that an operation related to graph data is supported by the first wireless device. .
  • the GNN model may be related to at least one of an operation of generating a latent vector from graph data or an operation of restoring a sub-graph from a latent vector.
  • the control information includes i) the number of specific node sets determined in the order of high calculated scores, ii) the number of hops associated with the one or more subgraphs, iii) position encoding associated with the one or more subgraphs ( positional-encoding) method or iv) transmission period of information including the one or more second latent vectors.
  • Each of the one or more subgraphs may be extracted to include one or more neighboring nodes based on the number of hops from each node of any one of the specific node sets.
  • the preset graph data may be updated based on the updated one or more subgraphs.
  • each of the one or more subgraphs may be extracted to include location information related to any one of the specific node sets.
  • a first wireless device supporting semantic communication includes one or more transceivers, one or more processors controlling the one or more transceivers, and operable with the one or more processors. and one or more memories that are accessible to the one or more processors and store instructions that, when executed by the one or more processors, cause the one or more processors to perform operations.
  • the operations may include extracting one or more sub-graphs from preset graph data, and generating one or more first latent vectors based on the one or more sub-graphs. ), Receiving information including one or more second latent vectors from a second wireless device, Based on the similarity function, the one or more first latent vectors and calculating a similarity between the one or more second latent vectors, and updating the one or more subgraphs based on the calculated similarity.
  • the one or more subgraphs are extracted based on control information.
  • the control information is i) a score function for extracting a sub-graph related to a part of knowledge represented by the preset graph data, ii) a graph for processing the sub-graph It includes information on at least one of a graph neural network model (GNN model) or iii) a similarity function related to a latent vector generated from the subgraph.
  • GNN model graph neural network model
  • a similarity function related to a latent vector generated from the subgraph.
  • the one or more sub-graphs are based on specific node sets determined in order of high scores calculated based on the score function among node sets included in the preset graph data.
  • the latent vector is identified by an index indicating a ranking based on the calculated score.
  • the degree of similarity is characterized in that the index representing the ranking is calculated between the first latent vector and the second latent vector having the same index.
  • the first wireless device may be a user equipment (UE) or a base station (BS), and the second wireless device may be a user equipment (UE) or a base station (BS).
  • UE user equipment
  • BS base station
  • An apparatus includes one or more memories and one or more processors functionally coupled to the one or more memories.
  • the one or more memories store instructions that, when executed by the one or more processors, cause the one or more processors to perform operations.
  • the operations may include extracting one or more sub-graphs from preset graph data, and generating one or more first latent vectors based on the one or more sub-graphs. ), Receiving information including one or more second latent vectors from a second wireless device, Based on the similarity function, the one or more first latent vectors and calculating a similarity between the one or more second latent vectors, and updating the one or more subgraphs based on the calculated similarity.
  • the one or more subgraphs are extracted based on control information.
  • the control information is i) a score function for extracting a sub-graph related to a part of knowledge represented by the preset graph data, ii) a graph for processing the sub-graph It includes information on at least one of a graph neural network model (GNN model) or iii) a similarity function related to a latent vector generated from the subgraph.
  • GNN model graph neural network model
  • a similarity function related to a latent vector generated from the subgraph.
  • the one or more sub-graphs are based on specific node sets determined in order of high scores calculated based on the score function among node sets included in the preset graph data.
  • the latent vector is identified by an index indicating a ranking based on the calculated score.
  • the degree of similarity is characterized in that the index representing the ranking is calculated between the first latent vector and the second latent vector having the same index.
  • One or more non-transitory computer readable media stores one or more instructions.
  • the one or more instructions when executed by one or more processors, cause the one or more processors to perform operations.
  • the operations may include extracting one or more sub-graphs from preset graph data, and generating one or more first latent vectors based on the one or more sub-graphs. ), Receiving information including one or more second latent vectors from a second wireless device, Based on the similarity function, the one or more first latent vectors and calculating a similarity between the one or more second latent vectors, and updating the one or more subgraphs based on the calculated similarity.
  • the one or more subgraphs are extracted based on control information.
  • the control information is i) a score function for extracting a sub-graph related to a part of knowledge represented by the preset graph data, ii) a graph for processing the sub-graph It includes information on at least one of a graph neural network model (GNN model) or iii) a similarity function related to a latent vector generated from the subgraph.
  • GNN model graph neural network model
  • a similarity function related to a latent vector generated from the subgraph.
  • the one or more sub-graphs are based on specific node sets determined in order of high scores calculated based on the score function among node sets included in the preset graph data.
  • the latent vector is identified by an index indicating a ranking based on the calculated score.
  • the degree of similarity is characterized in that the index representing the ranking is calculated between the first latent vector and the second latent vector having the same index.
  • one or more first latent vectors are generated from a subgraph of the entire graph (one or more subgraphs extracted from the entire graph data).
  • a similarity between the one or more first latent vectors and the one or more second latent vectors transmitted from the second wireless device is calculated.
  • a subgraph is updated based on the calculated similarity.
  • one or more subgraphs are reconstructed from one or more second latent vectors based on the calculated similarity, and based on a comparison result between the one or more restored subgraphs and the extracted one or more subgraphs, the extraction One or more sub-graphs are updated.
  • One or more updated subgraphs are reflected in the entire graph.
  • the following effects are derived in generating shared knowledge for knowledge each possessed by a source and a destination for supporting semantic communication.
  • transmission of information including the second latent vectors and updating of the subgraph based on the transmission may be periodically performed. That is, the sub-graph (sub-graph) is maintained so that the similarity between the latent vectors of the first wireless device (eg, terminal) and the latent vectors of the second wireless device (eg, base station) reaches a certain level. -graph) can be updated.
  • the performance of shared knowledge possessed by each source and destination through periodic update can be improved to support normal semantic communication, and can be managed so that the corresponding performance is maintained.
  • transmitted and received information represents meaning based on a graph, even if an error occurs in the transmission of a message at the symbol level, the message is transmitted and received through knowledge update between the transmitting and receiving ends. It can be interpreted in the correct meaning based on the shared knowledge possessed. Accordingly, robustness against errors caused by channel conditions can be improved compared to the conventional communication method.
  • FIG. 1 is a diagram showing an example of a communication system applicable to the present specification.
  • FIG. 2 is a diagram showing an example of a wireless device applicable to the present specification.
  • FIG. 3 is a diagram illustrating a method of processing a transmission signal applicable to the present specification.
  • FIG. 4 is a diagram showing another example of a wireless device applicable to the present specification.
  • FIG. 5 is a diagram illustrating an example of a portable device applicable to the present specification.
  • FIG. 6 is a diagram illustrating physical channels applicable to the present specification and a signal transmission method using them.
  • FIG. 7 is a diagram showing an example of a perceptron structure.
  • FIG. 8 is a diagram showing an example of a multilayer perceptron structure.
  • FIG. 9 is a diagram showing an example of a deep neural network.
  • FIG. 10 is a diagram showing an example of a convolutional neural network.
  • FIG. 11 is a diagram showing an example of a filter operation in a convolutional neural network.
  • FIG. 12 shows an example of a neural network structure in which a cyclic loop exists.
  • FIG. 13 shows an example of an operating structure of a recurrent neural network.
  • FIG. 14 is a diagram illustrating a communication model for each level to which an embodiment proposed in this specification can be applied.
  • 15 is a diagram for explaining the operation of a graph neural network to which a method according to an embodiment of the present specification can be applied.
  • FIG. 16 shows the definition of a GNN model to which a method according to an embodiment of the present specification can be applied.
  • FIG. 17 illustrates an operation related to a GNN model to which a method according to an embodiment of the present specification may be applied.
  • FIG. 18 is a flowchart illustrating an operation for updating related to processing of graph data according to an embodiment of the present specification.
  • 19A is a flowchart for explaining initialization related to graph data update for semantic communication according to an embodiment of the present specification.
  • 19B is a diagram for explaining an operation related to a score function according to an embodiment of the present specification.
  • 19C is a table illustrating a heuristic method related to a score function according to an embodiment of the present specification.
  • FIG. 20 illustrates a case where a position encoding method according to an embodiment of the present specification is to be applied.
  • 21A and 21B are flowcharts for explaining procedures related to subgraph extraction and latent vector generation/transmission according to an embodiment of the present specification.
  • 22 is a diagram for explaining an operation related to subgraph extraction according to an embodiment of the present specification.
  • 23 is a flowchart for explaining a procedure related to processing of received latent vectors according to an embodiment of the present specification.
  • 24 is a flowchart for explaining a procedure related to updating graph data according to an embodiment of the present specification.
  • 25 is a flowchart for explaining a method performed by a first wireless device to support semantic communication in a wireless communication system according to an embodiment of the present specification.
  • each component or feature may be considered optional unless explicitly stated otherwise.
  • Each component or feature may be implemented in a form not combined with other components or features.
  • the embodiments of the present specification may be configured by combining some components and/or features. The order of operations described in the embodiments of this specification may be changed. Some components or features of one embodiment may be included in another embodiment, or may be replaced with corresponding components or features of another embodiment.
  • a base station has meaning as a terminal node of a network that directly communicates with a mobile station.
  • a specific operation described herein as being performed by a base station may be performed by an upper node of the base station in some cases.
  • the 'base station' is a term such as a fixed station, Node B, eNode B, gNode B, ng-eNB, advanced base station (ABS), or access point. can be replaced by
  • a terminal includes a user equipment (UE), a mobile station (MS), a subscriber station (SS), a mobile subscriber station (MSS), It may be replaced with terms such as mobile terminal or advanced mobile station (AMS).
  • UE user equipment
  • MS mobile station
  • SS subscriber station
  • MSS mobile subscriber station
  • AMS advanced mobile station
  • the transmitting end refers to a fixed and/or mobile node providing data service or voice service
  • the receiving end refers to a fixed and/or mobile node receiving data service or voice service. Therefore, in the case of uplink, the mobile station can be a transmitter and the base station can be a receiver. Similarly, in the case of downlink, the mobile station may be a receiving end and the base station may be a transmitting end.
  • Embodiments of the present specification are wireless access systems, such as an IEEE 802.xx system, a 3rd Generation Partnership Project (3GPP) system, a 3GPP Long Term Evolution (LTE) system, a 3GPP 5G (5th generation) NR (New Radio) system, and a 3GPP2 system. It may be supported by at least one disclosed standard document, and in particular, the embodiments of the present specification are supported by 3GPP TS (technical specification) 38.211, 3GPP TS 38.212, 3GPP TS 38.213, 3GPP TS 38.321 and 3GPP TS 38.331 documents It can be.
  • 3GPP TS technical specification
  • embodiments of the present specification may be applied to other wireless access systems, and are not limited to the above-described systems.
  • it may also be applicable to a system applied after the 3GPP 5G NR system, and is not limited to a specific system.
  • CDMA code division multiple access
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • OFDMA orthogonal frequency division multiple access
  • SC-FDMA single carrier frequency division multiple access
  • LTE is 3GPP TS 36.xxx Release 8 or later
  • LTE technology after 3GPP TS 36.xxx Release 10 is referred to as LTE-A
  • xxx Release 13 may be referred to as LTE-A pro.
  • 3GPP NR may mean technology after TS 38.xxx Release 15.
  • 3GPP 6G may mean technology after TS Release 17 and/or Release 18.
  • "xxx" means a standard document detail number.
  • LTE/NR/6G may be collectively referred to as a 3GPP system.
  • a communication system 100 applied to the present specification includes a wireless device, a base station, and a network.
  • the wireless device means a device that performs communication using a radio access technology (eg, 5G NR, LTE), and may be referred to as a communication/wireless/5G device.
  • the wireless device includes a robot 100a, a vehicle 100b-1 and 100b-2, an extended reality (XR) device 100c, a hand-held device 100d, and a home appliance. appliance) 100e, Internet of Thing (IoT) device 100f, and artificial intelligence (AI) device/server 100g.
  • a radio access technology eg, 5G NR, LTE
  • XR extended reality
  • AI artificial intelligence
  • the vehicle may include a vehicle equipped with a wireless communication function, an autonomous vehicle, a vehicle capable of performing inter-vehicle communication, and the like.
  • the vehicles 100b-1 and 100b-2 may include an unmanned aerial vehicle (UAV) (eg, a drone).
  • UAV unmanned aerial vehicle
  • the XR device 100c includes augmented reality (AR)/virtual reality (VR)/mixed reality (MR) devices, and includes a head-mounted device (HMD), a head-up display (HUD) installed in a vehicle, a television, It may be implemented in the form of smart phones, computers, wearable devices, home appliances, digital signage, vehicles, robots, and the like.
  • the mobile device 100d may include a smart phone, a smart pad, a wearable device (eg, a smart watch, a smart glass), a computer (eg, a laptop computer), and the like.
  • the home appliance 100e may include a TV, a refrigerator, a washing machine, and the like.
  • the IoT device 100f may include a sensor, a smart meter, and the like.
  • the base station 120 and the network 130 may also be implemented as a wireless device, and a specific wireless device 120a may operate as a base station/network node to other wireless devices.
  • the wireless devices 100a to 100f may be connected to the network 130 through the base station 120 .
  • AI technology may be applied to the wireless devices 100a to 100f, and the wireless devices 100a to 100f may be connected to the AI server 100g through the network 130.
  • the network 130 may be configured using a 3G network, a 4G (eg LTE) network, or a 5G (eg NR) network.
  • the wireless devices 100a to 100f may communicate with each other through the base station 120/network 130, but communicate directly without going through the base station 120/network 130 (e.g., sidelink communication). You may.
  • the vehicles 100b-1 and 100b-2 may perform direct communication (eg, vehicle to vehicle (V2V)/vehicle to everything (V2X) communication).
  • the IoT device 100f eg, sensor
  • the IoT device 100f may directly communicate with other IoT devices (eg, sensor) or other wireless devices 100a to 100f.
  • Wireless communication/connection 150a, 150b, and 150c may be performed between the wireless devices 100a to 100f/base station 120 and the base station 120/base station 120.
  • wireless communication/connection includes various types of uplink/downlink communication 150a, sidelink communication 150b (or D2D communication), and inter-base station communication 150c (eg relay, integrated access backhaul (IAB)). This can be done through radio access technology (eg 5G NR).
  • radio access technology eg 5G NR
  • a wireless device and a base station/wireless device, and a base station can transmit/receive radio signals to each other.
  • the wireless communication/connections 150a, 150b, and 150c may transmit/receive signals through various physical channels.
  • various configuration information setting processes for transmitting / receiving radio signals various signal processing processes (eg, channel encoding / decoding, modulation / demodulation, resource mapping / demapping, etc.) At least a part of a resource allocation process may be performed.
  • FIG. 2 is a diagram illustrating an example of a wireless device applicable to the present specification.
  • a first wireless device 200a and a second wireless device 200b may transmit and receive radio signals through various wireless access technologies (eg, LTE and NR).
  • ⁇ the first wireless device 200a, the second wireless device 200b ⁇ denotes the ⁇ wireless device 100x and the base station 120 ⁇ of FIG. 1 and/or the ⁇ wireless device 100x and the wireless device 100x.
  • can correspond.
  • the first wireless device 200a includes one or more processors 202a and one or more memories 204a, and may further include one or more transceivers 206a and/or one or more antennas 208a.
  • the processor 202a controls the memory 204a and/or the transceiver 206a and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flow diagrams disclosed herein.
  • the processor 202a may process information in the memory 204a to generate first information/signal, and transmit a radio signal including the first information/signal through the transceiver 206a.
  • the processor 202a may receive a radio signal including the second information/signal through the transceiver 206a and store information obtained from signal processing of the second information/signal in the memory 204a.
  • the memory 204a may be connected to the processor 202a and may store various information related to the operation of the processor 202a.
  • memory 204a may perform some or all of the processes controlled by processor 202a, or instructions for performing the descriptions, functions, procedures, suggestions, methods, and/or flowcharts of operations disclosed herein. It may store software codes including them.
  • the processor 202a and the memory 204a may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
  • the transceiver 206a may be coupled to the processor 202a and may transmit and/or receive wireless signals through one or more antennas 208a.
  • the transceiver 206a may include a transmitter and/or a receiver.
  • the transceiver 206a may be used interchangeably with a radio frequency (RF) unit.
  • RF radio frequency
  • a wireless device may mean a communication modem/circuit/chip.
  • the second wireless device 200b includes one or more processors 202b, one or more memories 204b, and may further include one or more transceivers 206b and/or one or more antennas 208b.
  • the processor 202b controls the memory 204b and/or the transceiver 206b and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flow diagrams disclosed herein.
  • the processor 202b may process information in the memory 204b to generate third information/signal, and transmit a radio signal including the third information/signal through the transceiver 206b.
  • the processor 202b may receive a radio signal including the fourth information/signal through the transceiver 206b and then store information obtained from signal processing of the fourth information/signal in the memory 204b.
  • the memory 204b may be connected to the processor 202b and may store various information related to the operation of the processor 202b. For example, memory 204b may perform some or all of the processes controlled by processor 202b, or instructions for performing the descriptions, functions, procedures, suggestions, methods, and/or flowcharts of operations disclosed herein. It may store software codes including them.
  • the processor 202b and the memory 204b may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
  • a wireless communication technology eg, LTE, NR
  • the transceiver 206b may be coupled to the processor 202b and may transmit and/or receive wireless signals through one or more antennas 208b.
  • the transceiver 206b may include a transmitter and/or a receiver.
  • the transceiver 206b may be used interchangeably with an RF unit.
  • a wireless device may mean a communication modem/circuit/chip.
  • one or more protocol layers may be implemented by one or more processors 202a, 202b.
  • the one or more processors 202a and 202b may include one or more layers (eg, PHY (physical), MAC (media access control), RLC (radio link control), PDCP (packet data convergence protocol), RRC (radio resource) control) and functional layers such as service data adaptation protocol (SDAP).
  • One or more processors 202a, 202b may generate one or more protocol data units (PDUs) and/or one or more service data units (SDUs) according to the descriptions, functions, procedures, proposals, methods, and/or operational flow charts disclosed herein.
  • PDUs protocol data units
  • SDUs service data units
  • processors 202a, 202b may generate messages, control information, data or information according to the descriptions, functions, procedures, proposals, methods and/or operational flow diagrams disclosed herein.
  • One or more processors 202a, 202b generate PDUs, SDUs, messages, control information, data or signals (e.g., baseband signals) containing information according to the functions, procedures, proposals and/or methods disclosed herein. , may be provided to one or more transceivers 206a and 206b.
  • One or more processors 202a, 202b may receive signals (eg, baseband signals) from one or more transceivers 206a, 206b, and descriptions, functions, procedures, proposals, methods, and/or flowcharts of operations disclosed herein PDUs, SDUs, messages, control information, data or information can be obtained according to these.
  • signals eg, baseband signals
  • One or more processors 202a, 202b may be referred to as a controller, microcontroller, microprocessor or microcomputer.
  • One or more processors 202a, 202b may be implemented by hardware, firmware, software, or a combination thereof.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • firmware or software may be implemented to include modules, procedures, functions, and the like.
  • Firmware or software configured to perform the descriptions, functions, procedures, suggestions, methods, and/or operational flow diagrams disclosed herein may be included in one or more processors 202a, 202b or stored in one or more memories 204a, 204b. It can be driven by the above processors 202a and 202b.
  • the descriptions, functions, procedures, suggestions, methods and/or operational flow diagrams disclosed herein may be implemented using firmware or software in the form of codes, instructions and/or sets of instructions.
  • One or more memories 204a, 204b may be coupled to one or more processors 202a, 202b and may store various types of data, signals, messages, information, programs, codes, instructions and/or instructions.
  • One or more memories 204a, 204b may include read only memory (ROM), random access memory (RAM), erasable programmable read only memory (EPROM), flash memory, hard drive, registers, cache memory, computer readable storage media, and/or It may consist of a combination of these.
  • One or more memories 204a, 204b may be located internally and/or externally to one or more processors 202a, 202b.
  • one or more memories 204a, 204b may be connected to one or more processors 202a, 202b through various technologies such as wired or wireless connections.
  • One or more transceivers 206a, 206b may transmit user data, control information, radio signals/channels, etc. referred to in the methods and/or operational flow charts herein, etc. to one or more other devices.
  • One or more transceivers (206a, 206b) may receive user data, control information, radio signals/channels, etc. referred to in descriptions, functions, procedures, proposals, methods and/or operational flow charts, etc. disclosed herein from one or more other devices. there is.
  • one or more transceivers 206a and 206b may be connected to one or more processors 202a and 202b and transmit and receive radio signals.
  • one or more processors 202a, 202b may control one or more transceivers 206a, 206b to transmit user data, control information, or radio signals to one or more other devices.
  • one or more processors 202a, 202b may control one or more transceivers 206a, 206b to receive user data, control information, or radio signals from one or more other devices.
  • one or more transceivers 206a, 206b may be coupled with one or more antennas 208a, 208b, and one or more transceivers 206a, 206b may be connected to one or more antennas 208a, 208b, as described herein. , procedures, proposals, methods and / or operation flowcharts, etc.
  • one or more antennas may be a plurality of physical antennas or a plurality of logical antennas (eg, antenna ports).
  • One or more transceivers (206a, 206b) in order to process the received user data, control information, radio signal / channel, etc. using one or more processors (202a, 202b), the received radio signal / channel, etc. in the RF band signal It can be converted into a baseband signal.
  • One or more transceivers 206a and 206b may convert user data, control information, and radio signals/channels processed by one or more processors 202a and 202b from baseband signals to RF band signals.
  • one or more transceivers 206a, 206b may include (analog) oscillators and/or filters.
  • the transmitted signal may be processed by a signal processing circuit.
  • the signal processing circuit 300 may include a scrambler 310, a modulator 320, a layer mapper 330, a precoder 340, a resource mapper 350, and a signal generator 360.
  • the operation/function of FIG. 3 may be performed by the processors 202a and 202b and/or the transceivers 206a and 206b of FIG. 2 .
  • the hardware elements of FIG. 3 may be implemented in the processors 202a and 202b and/or the transceivers 206a and 206b of FIG.
  • blocks 310 to 350 may be implemented in the processors 202a and 202b of FIG. 2 and block 360 may be implemented in the transceivers 206a and 206b of FIG. 2 , but are not limited to the above-described embodiment.
  • the codeword may be converted into a radio signal through the signal processing circuit 300 of FIG. 3 .
  • a codeword is an encoded bit sequence of an information block.
  • Information blocks may include transport blocks (eg, UL-SCH transport blocks, DL-SCH transport blocks).
  • the radio signal may be transmitted through various physical channels (eg, PUSCH, PDSCH) of FIG. 6 .
  • the codeword may be converted into a scrambled bit sequence by the scrambler 310.
  • a scramble sequence used for scrambling is generated based on an initialization value, and the initialization value may include ID information of a wireless device.
  • the scrambled bit sequence may be modulated into a modulation symbol sequence by modulator 320.
  • the modulation method may include pi/2-binary phase shift keying (pi/2-BPSK), m-phase shift keying (m-PSK), m-quadrature amplitude modulation (m-QAM), and the like.
  • the complex modulation symbol sequence may be mapped to one or more transport layers by the layer mapper 330. Modulation symbols of each transport layer may be mapped to corresponding antenna port(s) by the precoder 340 (precoding).
  • the output z of the precoder 340 can be obtained by multiplying the output y of the layer mapper 330 by the N*M precoding matrix W.
  • N is the number of antenna ports and M is the number of transport layers.
  • the precoder 340 may perform precoding after transform precoding (eg, discrete fourier transform (DFT)) on complex modulation symbols. Also, the precoder 340 may perform precoding without performing transform precoding.
  • transform precoding eg, discrete fourier transform (DFT)
  • the resource mapper 350 may map modulation symbols of each antenna port to time-frequency resources.
  • the time-frequency resource may include a plurality of symbols (eg, CP-OFDMA symbols and DFT-s-OFDMA symbols) in the time domain and a plurality of subcarriers in the frequency domain.
  • the signal generator 360 generates a radio signal from the mapped modulation symbols, and the generated radio signal can be transmitted to other devices through each antenna.
  • the signal generator 360 may include an inverse fast fourier transform (IFFT) module, a cyclic prefix (CP) inserter, a digital-to-analog converter (DAC), a frequency uplink converter, and the like.
  • IFFT inverse fast fourier transform
  • CP cyclic prefix
  • DAC digital-to-analog converter
  • the signal processing process for the received signal in the wireless device may be configured in reverse to the signal processing process 310 to 360 of FIG. 3 .
  • a wireless device eg, 200a and 200b of FIG. 2
  • the received radio signal may be converted into a baseband signal through a signal restorer.
  • the signal restorer may include a frequency downlink converter, an analog-to-digital converter (ADC), a CP remover, and a fast fourier transform (FFT) module.
  • ADC analog-to-digital converter
  • FFT fast fourier transform
  • the baseband signal may be restored to a codeword through a resource de-mapper process, a postcoding process, a demodulation process, and a de-scramble process.
  • a signal processing circuit for a received signal may include a signal restorer, a resource demapper, a postcoder, a demodulator, a descrambler, and a decoder.
  • FIG. 4 is a diagram illustrating another example of a wireless device applied to the present specification.
  • a wireless device 400 corresponds to the wireless devices 200a and 200b of FIG. 2, and includes various elements, components, units/units, and/or modules. ) can be configured.
  • the wireless device 400 may include a communication unit 410, a control unit 420, a memory unit 430, and an additional element 440.
  • the communication unit may include communication circuitry 412 and transceiver(s) 414 .
  • communication circuitry 412 may include one or more processors 202a, 202b of FIG. 2 and/or one or more memories 204a, 204b.
  • transceiver(s) 414 may include one or more transceivers 206a, 206b of FIG.
  • the control unit 420 is electrically connected to the communication unit 410, the memory unit 430, and the additional element 440 and controls overall operations of the wireless device. For example, the controller 420 may control electrical/mechanical operations of the wireless device based on programs/codes/commands/information stored in the memory 430 . In addition, the control unit 420 transmits the information stored in the memory unit 430 to the outside (eg, another communication device) through the communication unit 410 through a wireless/wired interface, or transmits the information stored in the memory unit 430 to the outside (eg, another communication device) through the communication unit 410. Information received through a wireless/wired interface from other communication devices) may be stored in the memory unit 430 .
  • the additional element 440 may be configured in various ways according to the type of wireless device.
  • the additional element 440 may include at least one of a power unit/battery, an input/output unit, a driving unit, and a computing unit.
  • the wireless device 400 may be a robot (FIG. 1, 100a), a vehicle (FIG. 1, 100b-1, 100b-2), an XR device (FIG. 1, 100c), a mobile device (FIG. 1, 100d) ), home appliances (FIG. 1, 100e), IoT devices (FIG.
  • Wireless devices can be mobile or used in a fixed location depending on the use-case/service.
  • various elements, components, units/units, and/or modules in the wireless device 400 may be entirely interconnected through a wired interface or at least partially connected wirelessly through the communication unit 410 .
  • the control unit 420 and the communication unit 410 are connected by wire, and the control unit 420 and the first units (eg, 430 and 440) are connected wirelessly through the communication unit 410.
  • each element, component, unit/unit, and/or module within wireless device 400 may further include one or more elements.
  • the control unit 420 may be composed of one or more processor sets.
  • the controller 420 may include a set of a communication control processor, an application processor, an electronic control unit (ECU), a graphic processing processor, a memory control processor, and the like.
  • the memory unit 430 may include RAM, dynamic RAM (DRAM), ROM, flash memory, volatile memory, non-volatile memory, and/or combinations thereof. can be configured.
  • FIG. 5 is a diagram illustrating an example of a portable device applied to the present specification.
  • a portable device may include a smart phone, a smart pad, a wearable device (eg, smart watch, smart glasses), and a portable computer (eg, a laptop computer).
  • a mobile device may be referred to as a mobile station (MS), a user terminal (UT), a mobile subscriber station (MSS), a subscriber station (SS), an advanced mobile station (AMS), or a wireless terminal (WT).
  • MS mobile station
  • UT user terminal
  • MSS mobile subscriber station
  • SS subscriber station
  • AMS advanced mobile station
  • WT wireless terminal
  • a portable device 500 includes an antenna unit 508, a communication unit 510, a control unit 520, a memory unit 530, a power supply unit 540a, an interface unit 540b, and an input/output unit 540c. ) may be included.
  • the antenna unit 508 may be configured as part of the communication unit 510 .
  • Blocks 510 to 530/540a to 540c respectively correspond to blocks 410 to 430/440 of FIG. 4 .
  • the communication unit 510 may transmit/receive signals (eg, data, control signals, etc.) with other wireless devices and base stations.
  • the controller 520 may perform various operations by controlling components of the portable device 500 .
  • the controller 520 may include an application processor (AP).
  • the memory unit 530 may store data/parameters/programs/codes/commands necessary for driving the portable device 500 . Also, the memory unit 530 may store input/output data/information.
  • the power supply unit 540a supplies power to the portable device 500 and may include a wired/wireless charging circuit, a battery, and the like.
  • the interface unit 540b may support connection between the portable device 500 and other external devices.
  • the interface unit 540b may include various ports (eg, audio input/output ports and video input/output ports) for connection with external devices.
  • the input/output unit 540c may receive or output image information/signal, audio information/signal, data, and/or information input from a user.
  • the input/output unit 540c may include a camera, a microphone, a user input unit, a display unit 540d, a speaker, and/or a haptic module.
  • the input/output unit 540c acquires information/signals (eg, touch, text, voice, image, video) input from the user, and the acquired information/signals are stored in the memory unit 530.
  • the communication unit 510 may convert the information/signal stored in the memory into a wireless signal, and directly transmit the converted wireless signal to another wireless device or to a base station.
  • the communication unit 510 may receive a radio signal from another wireless device or a base station and then restore the received radio signal to original information/signal. After the restored information/signal is stored in the memory unit 530, it may be output in various forms (eg, text, voice, image, video, or haptic) through the input/output unit 540c.
  • a terminal may receive information from a base station through downlink (DL) and transmit information to the base station through uplink (UL).
  • Information transmitted and received between the base station and the terminal includes general data information and various control information, and there are various physical channels according to the type/use of the information transmitted and received by the base station and the terminal.
  • FIG. 6 is a diagram illustrating physical channels applied to this specification and a signal transmission method using them.
  • the terminal may receive a primary synchronization channel (P-SCH) and a secondary synchronization channel (S-SCH) from the base station to synchronize with the base station and obtain information such as a cell ID. .
  • P-SCH primary synchronization channel
  • S-SCH secondary synchronization channel
  • the terminal may acquire intra-cell broadcast information by receiving a physical broadcast channel (PBCH) signal from the base station. Meanwhile, the terminal may check the downlink channel state by receiving a downlink reference signal (DL RS) in the initial cell search step.
  • PBCH physical broadcast channel
  • DL RS downlink reference signal
  • the UE receives a physical downlink control channel (PDCCH) and a physical downlink control channel (PDSCH) according to the physical downlink control channel information in step S612, Specific system information can be obtained.
  • PDCCH physical downlink control channel
  • PDSCH physical downlink control channel
  • the terminal may perform a random access procedure such as steps S613 to S616 in order to complete access to the base station.
  • the UE transmits a preamble through a physical random access channel (PRACH) (S613), and RAR for the preamble through a physical downlink control channel and a physical downlink shared channel corresponding thereto (S613). random access response) may be received (S614).
  • the UE transmits a physical uplink shared channel (PUSCH) using scheduling information in the RAR (S615), and performs a contention resolution procedure such as receiving a physical downlink control channel signal and a physical downlink shared channel signal corresponding thereto. ) can be performed (S616).
  • the terminal After performing the procedure as described above, the terminal performs reception of a physical downlink control channel signal and/or a physical downlink shared channel signal as a general uplink/downlink signal transmission procedure (S617) and a physical uplink shared channel (physical uplink shared channel).
  • channel (PUSCH) signal and/or physical uplink control channel (PUCCH) signal may be transmitted (S618).
  • UCI uplink control information
  • HARQ-ACK/NACK hybrid automatic repeat and request acknowledgment/negative-ACK
  • SR scheduling request
  • CQI channel quality indication
  • PMI precoding matrix indication
  • RI rank indication
  • BI beam indication
  • UCI is generally transmitted periodically through PUCCH, but may be transmitted through PUSCH according to an embodiment (eg, when control information and traffic data are to be simultaneously transmitted).
  • the UE may aperiodically transmit UCI through the PUSCH according to a request/instruction of the network.
  • 6G (radio communications) systems are characterized by (i) very high data rates per device, (ii) very large number of connected devices, (iii) global connectivity, (iv) very low latency, (v) battery- It aims to lower energy consumption of battery-free IoT devices, (vi) ultra-reliable connectivity, and (vii) connected intelligence with machine learning capabilities.
  • the vision of the 6G system can be four aspects such as “intelligent connectivity”, “deep connectivity”, “holographic connectivity”, and “ubiquitous connectivity”, and the 6G system can satisfy the requirements shown in Table 1 below. That is, Table 1 is a table showing the requirements of the 6G system.
  • the 6G system is enhanced mobile broadband (eMBB), ultra-reliable low latency communications (URLLC), mMTC (massive machine type communications), AI integrated communication, tactile Internet (tactile internet), high throughput, high network capacity, high energy efficiency, low backhaul and access network congestion and improved data security ( can have key factors such as enhanced data security.
  • eMBB enhanced mobile broadband
  • URLLC ultra-reliable low latency communications
  • mMTC massive machine type communications
  • AI integrated communication e.g., AI integrated communication
  • tactile Internet tactile internet
  • high throughput high network capacity
  • high energy efficiency high backhaul and access network congestion
  • improved data security can have key factors such as enhanced data security.
  • AI The most important and newly introduced technology for the 6G system is AI.
  • AI was not involved in the 4G system.
  • 5G systems will support partial or very limited AI.
  • the 6G system will be AI-enabled for full automation.
  • Advances in machine learning will create more intelligent networks for real-time communication in 6G.
  • Introducing AI in communications can simplify and enhance real-time data transmission.
  • AI can use a plethora of analytics to determine how complex target tasks are performed. In other words, AI can increase efficiency and reduce processing delays.
  • AI can also play an important role in machine-to-machine, machine-to-human and human-to-machine communications.
  • AI can be a rapid communication in BCI (Brain Computer Interface).
  • BCI Brain Computer Interface
  • AI-based communication systems can be supported by metamaterials, intelligent structures, intelligent networks, intelligent devices, intelligent cognitive radios, self-sustaining wireless networks, and machine learning.
  • AI-based physical layer transmission means applying a signal processing and communication mechanism based on an AI driver rather than a traditional communication framework in fundamental signal processing and communication mechanisms. For example, deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO mechanism, AI-based resource scheduling and may include allocations, etc.
  • Machine learning may be used for channel estimation and channel tracking, and may be used for power allocation, interference cancellation, and the like in a downlink (DL) physical layer. Machine learning can also be used for antenna selection, power control, symbol detection, and the like in a MIMO system.
  • DL downlink
  • AI algorithms based on deep learning require a lot of training data to optimize training parameters.
  • a lot of training data is used offline. This is because static training on training data in a specific channel environment may cause a contradiction between dynamic characteristics and diversity of a radio channel.
  • Machine learning refers to a set of actions that train a machine to create a machine that can do tasks that humans can or cannot do.
  • Machine learning requires data and a running model.
  • data learning methods can be largely classified into three types: supervised learning, unsupervised learning, and reinforcement learning.
  • Neural network training is aimed at minimizing errors in the output.
  • Neural network learning repeatedly inputs training data to the neural network, calculates the output of the neural network for the training data and the error of the target, and backpropagates the error of the neural network from the output layer of the neural network to the input layer in a direction to reduce the error. ) to update the weight of each node in the neural network.
  • Supervised learning uses training data in which correct answers are labeled in the learning data, and unsupervised learning may not have correct answers labeled in the learning data. That is, for example, learning data in the case of supervised learning related to data classification may be data in which each learning data is labeled with a category. Labeled training data is input to the neural network, and an error may be calculated by comparing the output (category) of the neural network and the label of the training data. The calculated error is back-propagated in a reverse direction (ie, from the output layer to the input layer) in the neural network, and the connection weight of each node of each layer of the neural network may be updated according to the back-propagation.
  • a reverse direction ie, from the output layer to the input layer
  • the amount of change in the connection weight of each updated node may be determined according to a learning rate.
  • the neural network's computation of input data and backpropagation of errors can constitute a learning cycle (epoch).
  • the learning rate may be applied differently according to the number of iterations of the learning cycle of the neural network. For example, a high learning rate is used in the early stages of neural network learning to increase efficiency by allowing the neural network to quickly achieve a certain level of performance, and a low learning rate can be used in the late stage to increase accuracy.
  • the learning method may vary depending on the characteristics of the data. For example, in a case where the purpose of the receiver is to accurately predict data transmitted by the transmitter in a communication system, it is preferable to perform learning using supervised learning rather than unsupervised learning or reinforcement learning.
  • the learning model corresponds to the human brain, and the most basic linear model can be considered. ) is called
  • the neural network cord used as a learning method is largely divided into deep neural networks (DNN), convolutional deep neural networks (CNN), and recurrent Boltzmann Machine (RNN). there is.
  • DNN deep neural networks
  • CNN convolutional deep neural networks
  • RNN recurrent Boltzmann Machine
  • An artificial neural network is an example of connecting several perceptrons.
  • the huge artificial neural network structure may extend the simplified perceptron structure shown in FIG. 7 and apply input vectors to different multi-dimensional perceptrons.
  • an input value or an output value is referred to as a node.
  • the perceptron structure shown in FIG. 7 can be described as being composed of a total of three layers based on input values and output values.
  • An artificial neural network in which H number of (d + 1) dimensional perceptrons exist between the 1st layer and the 2nd layer and K number of (H + 1) dimensional perceptrons between the 2nd layer and the 3rd layer can be expressed as shown in FIG. 8 .
  • the layer where the input vector is located is called the input layer
  • the layer where the final output value is located is called the output layer
  • all the layers located between the input layer and the output layer are called hidden layers.
  • three layers are disclosed, but when counting the number of layers of an actual artificial neural network, the number of layers is counted excluding the input layer, so a total of two layers can be considered.
  • the artificial neural network is composed of two-dimensionally connected perceptrons of basic blocks.
  • the above-described input layer, hidden layer, and output layer can be jointly applied to various artificial neural network structures such as CNN and RNN, which will be described later, as well as multi-layer perceptrons.
  • CNN neural network
  • RNN multi-layer perceptrons
  • DNN deep neural network
  • the deep neural network shown in FIG. 9 is a multi-layer perceptron composed of 8 hidden layers + 8 output layers.
  • the multilayer perceptron structure is expressed as a fully-connected neural network.
  • a fully-connected neural network there is no connection relationship between nodes located on the same layer, and a connection relationship exists only between nodes located on adjacent layers.
  • DNN has a fully-connected neural network structure and is composed of a combination of multiple hidden layers and activation functions, so it can be usefully applied to identify the correlation characteristics between inputs and outputs.
  • the correlation characteristic may mean a joint probability of input and output.
  • 9 is a diagram illustrating an example of a deep neural network.
  • nodes located inside one layer are arranged in a one-dimensional vertical direction.
  • the nodes are two-dimensionally arranged with w nodes horizontally and h nodes vertically (convolutional neural network structure of FIG. 10).
  • w nodes horizontally and h nodes vertically
  • h ⁇ w weights since a weight is added for each connection in the connection process from one input node to the hidden layer, a total of h ⁇ w weights must be considered. Since there are h ⁇ w nodes in the input layer, a total of h2w2 weights are required between two adjacent layers.
  • FIG. 10 is a diagram showing an example of a convolutional neural network.
  • the convolutional neural network of FIG. 10 has a problem in that the number of weights increases exponentially according to the number of connections, so instead of considering all mode connections between adjacent layers, it is assumed that there is a filter with a small size, and FIG. 10 As shown in , weighted sum and activation function calculations are performed for overlapping filters.
  • One filter has weights corresponding to the number of filters, and learning of weights can be performed so that a specific feature on an image can be extracted as a factor and output.
  • a 3 ⁇ 3 filter is applied to a 3 ⁇ 3 area at the top left of the input layer, and an output value obtained by performing a weighted sum and an activation function operation on a corresponding node is stored in z22.
  • the filter While scanning the input layer, the filter performs weighted sum and activation function calculations while moving horizontally and vertically at regular intervals, and places the output value at the position of the current filter.
  • This operation method is similar to the convolution operation for images in the field of computer vision, so the deep neural network of this structure is called a convolutional neural network (CNN), and the hidden layer generated as a result of the convolution operation is called a convolutional layer.
  • a neural network having a plurality of convolutional layers is referred to as a deep convolutional neural network (DCNN).
  • FIG. 11 is a diagram showing an example of a filter operation in a convolutional neural network.
  • the number of weights can be reduced by calculating a weighted sum by including only nodes located in a region covered by the filter from the node where the current filter is located. This allows one filter to be used to focus on features for a local area. Accordingly, CNN can be effectively applied to image data processing in which a physical distance in a 2D area is an important criterion. Meanwhile, in the CNN, a plurality of filters may be applied immediately before the convolution layer, and a plurality of output results may be generated through a convolution operation of each filter.
  • a recurrent neural network assigns an element (x1(t), x2(t), ,..., xd(t)) of any line t on a data sequence to a fully connected neural network.
  • the immediately preceding time point t-1 inputs the hidden vector (z1(t-1), z2(t-1),..., zH(t-1)) together to calculate the weighted sum and activation function structure that is applied.
  • the reason why the hidden vector is transmitted to the next time point in this way is that information in the input vector at previous time points is regarded as being accumulated in the hidden vector of the current time point.
  • FIG. 12 shows an example of a neural network structure in which a cyclic loop exists.
  • the recurrent neural network operates in a predetermined sequence of views with respect to an input data sequence.
  • the hidden vector (z1(1),z2(1),.. .,zH(1)) is input together with the input vector (x1(2),x2(2),...,xd(2)) of time 2, and the vector of the hidden layer (z1( 2),z2(2) ,...,zH(2)). This process is repeated until time point 2, time point 3, ,,, time point T.
  • FIG. 13 shows an example of an operating structure of a recurrent neural network.
  • a deep recurrent neural network a recurrent neural network
  • Recurrent neural networks are designed to be usefully applied to sequence data (eg, natural language processing).
  • Deep Q-Network As a neural network core used as a learning method, in addition to DNN, CNN, and RNN, Restricted Boltzmann Machine (RBM), deep belief networks (DBN), and Deep Q-Network It includes various deep learning techniques such as computer vision, voice recognition, natural language processing, and voice/signal processing.
  • RBM Restricted Boltzmann Machine
  • DNN deep belief networks
  • Deep Q-Network It includes various deep learning techniques such as computer vision, voice recognition, natural language processing, and voice/signal processing.
  • AI-based physical layer transmission means applying a signal processing and communication mechanism based on an AI driver rather than a traditional communication framework in fundamental signal processing and communication mechanisms. For example, deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO mechanism, AI-based resource scheduling and may include allocations, etc.
  • FIG. 14 is a diagram illustrating a communication model for each level to which an embodiment proposed in this specification can be applied.
  • a communication model may be defined at three levels (A to C).
  • Level A is related to how accurately symbols (technical messages) can be transferred between transmitters/receivers. This can be considered when the communication model is understood from a technical point of view.
  • Level B is related to how accurately the symbols transmitted between the transmitter/receiver convey meaning. This can be considered when the communication model is grasped in terms of semantics.
  • Level C is concerned with how effectively the semantics received at the destination contribute to subsequent actions. This can be considered when the communication model is identified in terms of effectiveness.
  • Level A or Level C are considered in the design of the communication model, and may differ depending on the implementation method.
  • a communication model implemented focusing on Level A such as a communication model based on the prior art, may be considered.
  • a communication model considering not only Level A but also Level B (and Level C) for supporting semantic communication may be considered.
  • the transmitter and receiver may be referred to as a semantic transmitter and a semantic receiver, and semantic noise may be additionally considered.
  • One of the goals of 6G communications is to enable a variety of new services that interconnect people and machines with different levels of intelligence. It is necessary to consider not only the existing technical problem (eg, A in FIG. 14) but also the semantic problem (eg, B in FIG. 14). Semantic communication will be described in detail below, taking communication between people as an example.
  • Words for exchanging information are related to "meaning”. Listening to the speaker's words, the listener can interpret the meaning or concept expressed by the speaker's words. If this is related to the communication model of FIG. 14, to support semantic communication, a concept related to a message sent from the source needs to be correctly interpreted at the destination.
  • the communication model of the semantic level (B of FIG. 14) can provide performance improvement compared to the existing communication model of the technical level (A of FIG. 14).
  • One of the main reasons that such performance improvements can be provided is that knowledge sharing between source and destination is utilized. This knowledge can be a language made up of logical rules and entities that allow receivers to correct errors that occur at the symbolic level.
  • knowledge can be represented by a graph comprising nodes (or vertices) and links (or edges).
  • Nodes are associated with entities, and links represent relationships between entities.
  • Shared knowledge may be created based on graphs created to represent the knowledge. Specifically, the following operations may be performed. As shown in FIG. 14, a graph (eg, a subgraph) corresponding to local knowledge possessed by a source and a destination may be shared with each other. Through the sharing, shared knowledge including a plurality of pieces of information may be created. Based on the shared knowledge, since the same knowledge is shared between the source and the destination, the accuracy of interpretation of mutually transmitted concepts (semantic messages) can be improved. That is, normal semantic communication can be guaranteed through the shared knowledge.
  • the following problems may occur in that the size of graph-based knowledge (graph-based information) for generating the shared knowledge is very large.
  • AI/ML artificial intelligence/machine learning
  • GNN graph neural network
  • 15 is a diagram for explaining the operation of a graph neural network to which a method according to an embodiment of the present specification can be applied.
  • a GNN is a neural network that can be applied directly to a graph.
  • the output obtained from the graph input to the GNN is a node (vertex)/sub-graph/graph embedding that can be used for a specific prediction task.
  • Embedding may refer to a result of converting natural language into a vector, which is a number format that can be understood by a machine, or to mean the entire series of processes.
  • a similarity function may be used.
  • the similarity function is used to determine how the graph of the input network is mapped in the embedding space.
  • the similarity function used in the GNN may be based on one or a combination of existing similarity functions implemented in various ways.
  • the GNN model will be described in detail with reference to FIGS. 16 and 17 below.
  • FIG. 16 shows the definition of a GNN model to which a method according to an embodiment of the present specification can be applied.
  • 17 illustrates an operation related to a GNN model to which a method according to an embodiment of the present specification may be applied. Specifically, FIG. 17 shows an operation in which node embeddings are output as outputs from the GNN model.
  • the GNN model may be defined as a neural network for a target node.
  • the following operations may be performed for the GNN model.
  • a neighbor aggregation function is defined to obtain information on nodes neighboring the target node.
  • a loss function for embedding is defined.
  • the loss function corresponds to an index that expresses the difference between the predicted value of the model calculated based on the data and the actual value.
  • the loss function is an indicator of the ‘bad’ performance of the model, and is a function that indicates “how well the current model handles data (e.g. graph data)”. The closer the value according to the loss function is to 0, the higher the accuracy of the model.
  • the learned model can be applied to a graph completely different from the graph data used for learning.
  • a latent vector generated using GNN may be transmitted instead of the entire graph data. Accordingly, compared to the case of transmitting the entire graph data, required resources are reduced.
  • a prediction task to be performed using a latent vector may correspond to a task of interpreting a concept (semantic message) received in semantic communication.
  • GNN can be usefully utilized in a semantic communication system that operates based on graph data.
  • many operations are required in the process of generating a latent vector for the entire graph data. Since the amount of computation required is large, transmitted and received information (eg, latent vectors) may be limited. In this case, it is difficult to generate shared knowledge capable of ensuring normal performance of semantic communication.
  • a method of utilizing a part of the entire graph may be considered to solve the above-described problem. It is described in detail below.
  • Some graphs may be extracted from a graph representing knowledge (eg, entire graph data), and latent vector(s) may be generated from the extracted graphs.
  • the latent vector(s) generated by the transmitting end eg source/destination, wireless device, terminal/base station
  • the receiving end eg destination/source, wireless device, base station/terminal
  • the receiving end calculates the degree of similarity by comparing i) latent vector(s) generated by the receiving end and ii) previously received latent vector(s). Based on the calculated similarity, the received latent vector(s) is restored to periodically update graph data corresponding to local knowledge of the source and destination.
  • a semantic communication system that performs knowledge representation in a method using graph data is assumed.
  • a semantic encoder and a semantic decoder operate based on graph data.
  • Graph data may be updated based on extraction of a sub-graph and periodic transmission of the extracted sub-graph. Through the update, it is possible to increase the similarity of local knowledge between a source and a destination.
  • FIG. 18 is a flowchart illustrating an operation for updating related to processing of graph data according to an embodiment of the present specification. It is assumed that the wireless communication system of FIG. 18 is a communication system in which a semantic level (eg, Level B of FIG. 14 ) is considered.
  • a semantic level eg, Level B of FIG. 14
  • update related to graph data processing may be performed based on S1810 to S1840.
  • Data ie, local knowledge
  • a device eg source, terminal
  • base station eg destination
  • graph data expressed based on a graph.
  • the device/base station performs initialization related to graph data processing.
  • the device/base station extracts a sub-graph from the entire graph data.
  • the device/base station creates latent vector(s) from the extracted sub-graph.
  • Information including the generated latent vectors may be transferred between devices/base stations.
  • the base station may transmit information including latent vector(s) generated (by the base station) to the device.
  • the device may transmit information including latent vector(s) generated (by the device) to the base station.
  • the received sub-graph latent vector is processed.
  • the device/base station processes the latent vector(s) representing the received sub-graph.
  • the device may calculate a similarity between the latent vector(s) generated (by the device) and the received latent vector(s).
  • the base station may calculate a similarity between the latent vector(s) generated (by the base station) and the received latent vector(s).
  • the encoder/decoder related to graph data is updated. Specifically, after the graph-based knowledge expression is updated based on the calculated similarity, the device/base station may update an encoder/decoder related to graph data through a sub-graph extracted from corresponding graph data.
  • Operations according to S1820 to S1840 may be repeatedly performed until graph data update is stopped.
  • the initialization operation according to S1810 will be described in detail with reference to FIG. 19A.
  • 19A is a flowchart for explaining initialization related to graph data update for semantic communication according to an embodiment of the present specification.
  • the initialization operation according to S1810 may be performed based on S1910 to S1960.
  • a device to which power is applied performs an operation related to synchronization.
  • Operations related to the synchronization may include operations based on S611 to S616 in FIG. 6 .
  • a device receives a synchronization signal block (SSB) from a base station.
  • the device synchronizes with the base station using the SSB and obtains system information.
  • an RRC connection may be established. That is, the state of the device may be switched to an RRC connected state (RRC_CONNECTED state).
  • the base station transmits a DL-DCCH-message to the device.
  • the DL-DCCH-message may be an RRC message (UECapabilityEnquiry) related to a request for specific capability information of a device (terminal).
  • the specific performance information may be information indicating whether an operation related to graph data is supported.
  • Operations related to the graph data may include generation of graph data and processing of graph data (eg, sub-graph extraction, latent vector generation).
  • the device transmits a UL-DCCH-message to the base station.
  • the UL-DCCH-message may be a response to the DL-DCCH-message.
  • the UL-DCCH-message may be an RRC message (UECapabilityInformation) including the specific capability information.
  • the base station transmits information including an indicator related to initialization of graph data to the device.
  • Information including an indicator related to initialization of the graph data may be transmitted based on the specific performance information included in the UL-DCCH-message. Specifically, when it is determined that the device supports an operation related to graph data based on the specific performance information, information including an indicator related to initialization of the graph data may be transmitted.
  • information including an indicator related to initialization of the graph data is included in downlink control information (DCI), MAC-CE (Medium Access Control-Control Element), or RRC message.
  • DCI downlink control information
  • MAC-CE Medium Access Control-Control Element
  • RRC message RRC message
  • the information including an indicator related to the initialization of the graph data is 1) a GNN model, 2) a score function, and 3) a node set according to a score.
  • the number of node sets, 4) the number of hops in the sub-graph, 5) the positional-encoding method, 6) the latent vector of the sub-graph It may include information related to at least one of a transmission period of , and 7) a similarity function.
  • Information including an indicator related to the initialization of the graph data is the same as information used in the base station (eg, GNN model, similarity function, etc.).
  • the base station eg, GNN model, similarity function, etc.
  • the information including an indicator related to the initialization of the graph data may include information related to setting a GNN model.
  • a model may be set through the same method between a device (source) and a base station (destination).
  • the set model may include i) a graph encoding model and ii) a graph decoding model.
  • the graph encoding model generates a latent vector through mapping to a d-dimensional embedding space.
  • the generated latent vector may be used to measure similarity with the received latent vector.
  • the graph decoding model reconstructs a sub-graph from a latent vector. That is, the input of the graph decoding model is a latent vector, and the output is a subgraph.
  • the information related to setting the GNN model may include information on a model for which pre-learning has been completed in the base station (for coarse tuning).
  • the information related to setting the GNN model may include GNN model parameters (for fine tuning). Learning for a GNN model may be performed in a device that receives the GNN model parameters.
  • Information including an indicator related to initialization of the graph data may include information related to a score function.
  • the score function is a function for determining a score that is a criterion for finding and extracting a suitable local network (subgraph) from a graph network (graph data) created for knowledge expression. That is, the information related to the score function is information for allowing subgraphs to be extracted based on the same criterion between sources/destinations.
  • the application of the score function will be described with reference to FIG. 19B.
  • 19B is a diagram for explaining an operation related to a score function according to an embodiment of the present specification.
  • the score function is applied to a set consisting of arbitrary node x, node y, and edges connecting them. That is, the score for the set (score between node x and node y) can be calculated by the score function.
  • 19C is a table illustrating a heuristic method related to a score function according to an embodiment of the present specification.
  • high-order heuristics or graph structure features considering the entire network structure may be considered as the score function.
  • the score function may include Katz index, rooted PageRank, SimRank, and the like.
  • the heuristics are -decaying heuristic theory is used to prove according to the high-order heuristic type.
  • the heuristics learn a high-order graph structure from a sub-graph extracted based on a small number of hops to sufficiently reflect the information of the entire network. To have the amount of information do.
  • Information related to the score function may be information indicating any one of score functions (Katz index, rooted PageRank, SimRank) corresponding to the above-listed high-order heuristics.
  • K node sets may be selected in order of high scores (in order of high ranking) (Top-K score selection).
  • information including an indicator related to initialization of the graph data may include the number of node sets (eg, K) according to scores.
  • K the number of node sets according to scores.
  • the number of node sets according to the score may mean the specific number.
  • the number of sub-graphs to be exchanged between a source and a destination may be determined. For example, latent vectors delivered from source (or destination) to destination (or source) may be generated from subgraphs based on the number of node sets according to the score.
  • the information including an indicator related to the initialization of the graph data may include information related to the number of hops of a sub-graph.
  • the information related to the number of hops of the sub-graph represents a range of neighboring nodes included in each sub-graph extracted from each of the node sets selected according to the score.
  • the information related to the number of hops of the sub-graph is how far away from each node of the node set consisting of node pairs and edges between nodes is the sub-graph (sub-graph). graph). mentioned above
  • the number of hops of the sub-graph may be set to a small number of hops. For example, when information related to the number of hops of the sub-graph indicates 1 hop, the sub-graph is configured to include neighboring nodes separated by 1 hop from a node selected according to a score.
  • Information including an indicator related to initialization of the graph data may include information related to a positional-encoding method.
  • Two or more nodes are each located in different parts of the graph, but topologically have the same structure of neighbors.
  • the same latent vector (latent vector embedded at the same point in an embedding space) can be generated from the two or more nodes having the same structure of neighbors.
  • a node/edge needs to be added/modified after a sub-graph is extracted and transmitted (ie, after a latent vector generated from the extracted sub-graph is transmitted) and a similarity comparison between latent vectors is performed
  • information related to a positional-encoding method may be included in information including an indicator related to initialization of the graph data. It will be described with reference to FIG. 20 below.
  • FIG. 20 illustrates a case where a position encoding method according to an embodiment of the present specification is to be applied. Specifically, FIG. 20 illustrates a case in which structures of neighboring nodes of nodes having different positions are the same.
  • nodes V1 and V2 are disposed at different positions in the entire graph data.
  • nodes V1 and V2 have the same structure as neighboring nodes.
  • a sub-graph may be extracted based on at least one of the above-described score function, the number of node sets according to the score, or the number of hops of the sub-graph.
  • positional-encoding should be performed to add positional information of nodes corresponding to the entire graph data. That is, when subgraphs based on nodes V1 and V2 are extracted, information indicating the location of each node V1 and V2 based on the entire graph data may be added.
  • positional encoding may be performed considering both absolute and relative positions on a graph network (eg, positional-encoding method used in a transformer of Graph-BERT model).
  • Information including an indicator related to the initialization of the graph data may include information related to a transmission period of latent vectors of a subgraph.
  • the transmission period of the latent vectors may be set based on an operation amount between the device and the base station (eg, the amount of data that can be processed within a certain time through signaling between the device and the base station), link information, and the like. Based on the transmission period, latent vector generation, similarity comparison between latent vectors, and graph data update operations may be performed.
  • Information including an indicator related to initialization of the graph data may include information related to a similarity function.
  • Information related to the similarity function is used to update graph data on the same basis between sources/destinations.
  • the information related to the similarity function may include information indicating a similarity function equally used in source/destination. Since similarity is measured/calculated based on the same similarity function in source/destination, graph data can be updated according to the same criterion (similarity calculated according to the same similarity function) in source and destination.
  • the information related to the similarity function may indicate a score function according to 2) above.
  • x and y in FIG. 19B may be interpreted as a received latent vector and a generated latent vector, respectively.
  • information related to the similarity function may indicate a similarity function other than the score function.
  • the other similarity function may include a similarity function based on cosine, jaccard, overlap coefficient, and the like.
  • FIGS. 21A and 21B are flowcharts for explaining procedures related to subgraph extraction and latent vector generation/transmission according to an embodiment of the present specification. Specifically, FIGS. 21A and 21B show operations performed based on S1820 of FIG. 18 described above step by step.
  • the device/base station extracts a sub-graph from the graph data.
  • the device/base station creates latent vectors from subgraphs extracted through the GNN model.
  • latent vectors are generated using the subgraphs used in the task. Thereafter, the similarity between the generated latent vectors and recently received latent vectors is measured and the result is stored. The corresponding result is used when measuring the similarity with the next received latent vectors.
  • Latent vectors may be generated by inputting subgraphs including location information of nodes into a GNN model. The corresponding operation corresponds to the operation of the semantic encoder in Level B semantic communication in FIG. 14 .
  • Shared knowledge (or graph data) including multiple pieces of information can be created and updated by transmitting the generated latent vectors according to a predetermined cycle.
  • the above operations may be performed by a device and/or a base station, and in the following description, it is expressed as a device/base station for convenience.
  • a step-by-step description will be made with reference to FIGS. 21A and 21B.
  • the device/base station When the device/base station first transmits the latent vector of the subgraph (S2110), it determines the score of each node set of the graph data (S2111). At this time, the score may be determined based on the score function described above.
  • the device/base station selects K node sets in order of higher scores based on the number of node sets (eg, K) according to the score (S2121).
  • the device/base station extracts K sub-graphs including neighboring nodes h-hop away from each of the K node sets based on the number of hops (eg, h hop) of the sub-graph It does (S2131).
  • the device/base station generates latent vectors from each of the subgraphs extracted through the GNN model (S2141).
  • the device/base station When the device/base station has previously transmitted the latent vector of the subgraph, it performs an operation based on the transmission period described above (S2112). The device/base station waits if the transmission period has not arrived. When the transmission period arrives and the GNN model is (coarse/fine) tuning (S2122), the device/base station generates a latent vector using subgraphs used for the corresponding tuning (S2132) (S2141) . At this time, the positional information may be reflected in the generated latent vector through the above-described encoding (positional encoding).
  • latent vectors are generated using subgraphs extracted based on steps S2111 to S2131 (S2141).
  • the device/base station stores the ranking of the generated latent vectors (S2151).
  • the ranking may be a value based on scores of node sets (the K node sets) related to the extracted subgraphs.
  • latent vectors related to subgraphs extracted based on node sets having the highest scores may have the highest ranking (eg, lowest index).
  • latent vectors related to subgraphs extracted based on node sets having the lowest scores among the K node sets may have the lowest ranking (eg, highest index).
  • the device/base station measures the similarity between latent vector(s) having the same ranking (S2171).
  • a similarity between the first latent vector(s) generated (by the device/base station) and the second latent vector(s) received (from the base station/device) may be calculated.
  • similarity calculation may be performed between the first latent vector(s) and the second latent vector(s) having the same ranking (same index).
  • the first latent vector(s) may be latent vector(s) generated through a fine tuned GNN (eg, a semantic encoder).
  • the second latent vector(s) may be latent vector(s) used for updating graph data.
  • the similarity measurement/calculation may be performed based on a function set through the initialization operation. Specifically, the similarity measurement/calculation may be performed based on a score function used in calculating the score or a similarity function different from the score function (eg, Cosine, Jaccard, overlap coefficient, etc.).
  • a score function used in calculating the score or a similarity function different from the score function (eg, Cosine, Jaccard, overlap coefficient, etc.).
  • the device/base station stores the measured similarity (similarity calculation result) (S2181).
  • the device/base station transmits information including latent vectors generated from the extracted subgraphs to the base station/device (S2190).
  • 22 is a diagram for explaining an operation related to subgraph extraction according to an embodiment of the present specification.
  • FIG. 22 illustrates the operation of a GNN model (eg, GraphRNN) related to graph decoding.
  • GNN model eg, GraphRNN
  • a subgraph may be extracted based on the graph decoding.
  • nodes may be added along a solid line direction and edges may be added along a dotted line direction.
  • FIG. 23 is a flowchart for explaining a procedure related to processing of received latent vectors according to an embodiment of the present specification. Specifically, FIG. 23 shows operations performed based on S1830 of FIG. 18 described above step by step.
  • the device/base station After the device/base station receives the latent vectors of the subgraphs from the base station/device (S2310), the received latent vectors (first latent vectors) having the same ranking as the latent vectors (first latent vectors) of the subgraphs it generated 2 latent vectors), the similarity is measured using the set similarity function (S2320).
  • the similarity measurement/calculation may be performed based on a function set through the initialization operation. Specifically, the similarity measurement/calculation may be performed based on a score function used in calculating the score or a similarity function different from the score function (eg, Cosine, Jaccard, overlap coefficient, etc.).
  • the corresponding result (similarity measurement result) is stored (S2340).
  • the stored similarity is used to determine whether the similarity has changed after the device/base station receives the next latent vectors.
  • the measured similarity is compared with the stored similarity (S2350).
  • the criterion for determining whether the measured similarity is different from the stored similarity may vary depending on the range of values corresponding to the similarity function determined (through initialization) between the source and the destination.
  • the device/base station When the measured similarity is different from the stored similarity (S2360) (ie, when it is determined that an operation to make the possessed local knowledge equal is required), the device/base station performs graph decoding from the received latent vector. A subgraph is extracted (S2371). The extraction operation of the sub-graph may be performed based on the GNN model (eg, GraphRNN) set through the above-described initialization operation. That is, the device/base station may restore the sub-graph based on the GNN model set through the initialization operation from the latent vector. The corresponding operation corresponds to the operation of the semantic decoder in level B semantic communication in FIG. 14 .
  • the GNN model eg, GraphRNN
  • the device/base station compares the decoded sub-graph obtained through the graph decoding with a sub-graph (possessed sub-graph) related to the transmission of the most recent latent vector (S2372).
  • the device/base station may add/modify/remove nodes/edges of the subgraph in a direction in which similarity is improved (S2373).
  • the device/base station reflects changes to the entire graph data (S2374). Specifically, the device/base station reflects an updated subgraph (a subgraph in which nodes/edges are added/modified/removed) to the entire graph data.
  • FIG. 24 is a flowchart for explaining a procedure related to updating graph data according to an embodiment of the present specification. Specifically, FIG. 24 shows operations performed based on S1840 of FIG. 18 described above step by step.
  • a semantic encoder/decoder may be updated based on the updated graph data.
  • the semantic encoder is a GNN that generates a latent vector
  • the semantic decoder is a GNN that restores a subgraph based on a latent vector
  • a sub-graph is extracted from the updated graph data (S2420).
  • the sub-graph may be extracted according to the method described above.
  • the score function the score of each set of nodes included in the updated data graph is determined. K node sets are selected in order of high scores, and subgraphs are extracted based on the number of hops set through the initialization operation.
  • location information may be reflected in each subgraph through the location encoding.
  • a fine tuning operation of the semantic encoder and the semantic decoder may be performed using the extracted subgraph (S2430 and S2440).
  • latent vectors are generated by the semantic encoder.
  • a sub-graph is restored from the generated latent vectors by the semantic decoder.
  • the fine tuning operation may be performed so that the reconstructed subgraph is the same as the extracted subgraph.
  • the extracted subgraph may be used to generate a latent vector according to S2132 of FIG. 21A.
  • operations according to the above-described embodiments are processed by the above-described apparatuses of FIGS. 1 to 5 (eg, the processors 202a and 202b of FIG. 2 ).
  • operations may include instructions for driving at least one processor (eg, the processors 202a and 202b of FIG. 2 ) It may be stored in a memory (eg, 204a, 204b in FIG. 2) in the form of a program (eg, instruction, executable code).
  • wireless devices eg, the first wireless device 200a and the second wireless device 200b of FIG. 2 .
  • the methods described below are only classified for convenience of explanation, and it goes without saying that some components of one method may be substituted with some components of another method, or may be applied in combination with each other.
  • 25 is a flowchart for explaining a method performed by a first wireless device to support semantic communication in a wireless communication system according to an embodiment of the present specification.
  • a method performed by a first wireless device to support semantic communication in a wireless communication system includes a performance information transmission step (S2510), control information related to semantic communication support.
  • the first wireless device transmits capability information related to supporting the semantic communication to the second wireless device.
  • the performance information related to the support of the semantic communication may include information indicating whether the first wireless device supports an operation related to graph data.
  • the performance information may be transmitted based on Device to Device (D2D) communication.
  • the first wireless device may be a terminal
  • the second wireless device may be another terminal.
  • the performance information is transmitted from the terminal to the base station. That is, a terminal (eg, a first wireless device) and another terminal (eg, a second wireless device) may respectively transmit their own performance information to the base station.
  • the performance information may include information indicating whether the first wireless device (or the second wireless device) supports an operation related to graph data.
  • the performance information transmitted by the first wireless device (second wireless device) may include information indicating whether the first wireless device (second wireless device) supports an operation related to graph data.
  • the first wireless device (eg, 200a in FIG. 2 ) transmits capability information related to the support of the semantic communication to the second wireless device (eg, 200b in FIG. 2 ). It can be implemented by the device of FIGS. 1 to 5 .
  • one or more processors 202a may transmit capability information related to support of the semantic communication to a second wireless device 200b using one or more transceivers 206a and/or One or more memories 204a may be controlled.
  • the first wireless device receives control information related to supporting the semantic communication from the second wireless device.
  • control information is i) a score function for extracting a sub-graph related to a part of knowledge represented by preset graph data, ii) the sub-graph It may include information on at least one of a graph neural network model (GNN model) for processing or iii) a similarity function related to a latent vector generated from the subgraph.
  • GNN model graph neural network model
  • information on i) to iii) may be based on information related to 1) a GNN model, 2) a score function, or 7) a similarity function included in the information (indicator) transmitted for the above-described initialization operation. there is.
  • control information may be transmitted when the first wireless device supports an operation related to the graph data. That is, the control information is transmitted from the second wireless device to the first wireless device based on the fact that the performance information related to supporting the semantic communication indicates that an operation related to graph data is supported by the first wireless device.
  • the control information may be transmitted based on Device to Device (D2D) communication.
  • the first wireless device may be a terminal
  • the second wireless device may be another terminal.
  • the control information may be transmitted from the base station to each terminal (the first wireless device and the second wireless device).
  • the base station receiving the performance information from the first wireless device and the second wireless device transmits the control information to the first wireless device when the first wireless device and the second wireless device support an operation related to the graph data.
  • the first wireless device and the second wireless device may perform initial setting for semantic communication (the above-described initialization operation) using the received control information.
  • the GNN model may be related to at least one of an operation of generating a latent vector from graph data or an operation of restoring a sub-graph from a latent vector.
  • An operation of generating a latent vector from the graph data may be related to the operation of the above-described semantic encoder.
  • An operation of restoring a sub-graph from the latent vector may be related to the operation of the above-described semantic decoder.
  • control information is i) the number of specific node sets determined in order of high calculated scores, ii) the number of hops related to the one or more subgraphs, iii) the one or more subgraphs , or iv) information on at least one of a transmission period of information including the one or more second latent vectors.
  • the information on i) to iv) includes 3) the number of node sets according to the score (related to Top-k score selection) included in the information (indicator) transmitted for the aforementioned initialization operation, 4) sub It may be based on information related to the number of hops of a sub-graph, 5) a positional-encoding method, or 6) a transmission period of latent vectors of a sub-graph.
  • one or more processors 202a may use one or more transceivers 206a and/or to receive control information related to support of the semantic communication from a second wireless device (eg, 200b of FIG. 2 ).
  • one or more memories 204a may be controlled.
  • Operations based on S2510 to S2520 described above correspond to initialization operations related to updating graph data. Therefore, after the initialization operation is performed, only operations according to S2530 to S2570 described below may be periodically/repetitively performed.
  • the first wireless device extracts one or more sub-graphs from preset graph data.
  • the one or more subgraphs may be extracted based on the control information.
  • the preset graph data may be graph data set through the aforementioned initialization operation.
  • the one or more sub-graphs may be based on specific node sets determined in order of high scores calculated based on the score function among node sets included in the preset graph data.
  • the specific node sets may be based on K node sets selected in S2121 of FIG. 21A.
  • each of the one or more subgraphs is extracted to include one or more neighboring nodes based on the number of hops (eg, 1 hop or 2 hops) from each node of any one of the specific node sets.
  • each of the one or more subgraphs may be extracted to include location information related to any one of the specific node sets.
  • location information may indicate the location of a node based on preset graph data (entire graph data).
  • the location information may include information representing the location of each node related to any one of the specific note sets based on preset graph data (eg, entire graph data).
  • preset graph data eg, entire graph data
  • the position of each node related to any one of the specific note sets may be identified based on an (absolute/relative) position in preset graph data (eg, entire graph data).
  • Operation of the first wireless device (eg, 200a in FIG. 2 ) extracting one or more sub-graphs from preset graph data based on the control information in accordance with the above-described S2530 may be implemented by the device of FIGS. 1 to 5 .
  • one or more processors 202a use one or more transceivers to extract one or more sub-graphs from preset graph data based on the control information. 206a and/or one or more memories 204a.
  • the first wireless device generates one or more first latent vectors based on the one or more subgraphs. Generation of the one or more first latent vectors may be performed based on an encoding operation related to the GNN model.
  • the first wireless device (eg, 200a in FIG. 2 ) generates one or more first latent vectors based on the one or more subgraphs, as shown in FIG. 1 through the device of FIG. 5 .
  • one or more processors 202a may include one or more transceivers 206a to generate one or more first latent vectors based on the one or more sub-graphs. and/or control one or more memories 204a.
  • the first wireless device receives information including one or more second latent vectors from the second wireless device.
  • the first wireless device includes one or more second latent vectors from the second wireless device (eg, 200b in FIG. 2 ).
  • the operation of receiving the information may be implemented by the device of FIGS. 1 to 5.
  • one or more processors 202a may receive information including one or more second latent vectors from the second wireless device (eg, 200b of FIG. 2 ). may control one or more transceivers 206a and/or one or more memories 204a to receive .
  • the first wireless device calculates a similarity between the one or more first latent vectors and the one or more second latent vectors based on the similarity function.
  • the similarity function may be based on i) the score function or ii) a similarity function different from the score function (eg, Cosine, Jaccard, overlap coefficient).
  • the latent vector may be identified by an index indicating a ranking based on the calculated score. Specifically, the degree of similarity may be calculated between the first latent vector and the second latent vector having the same index indicating the ranking.
  • the first wireless device calculates a similarity between the one or more first latent vectors and the one or more second latent vectors based on the similarity function.
  • the operation may be implemented by the device of FIGS. 1 to 5 .
  • one or more processors 202a may be configured to calculate a similarity between the one or more first latent vectors and the one or more second latent vectors based on the similarity function. may control the transceiver 206a and/or one or more memories 204a.
  • the first wireless device updates the one or more subgraphs based on the calculated similarity.
  • the updating of the one or more subgraphs may include: reconstructing one or more subgraphs from the one or more second latent vectors; comparing the restored one or more subgraphs with the one or more subgraphs; and updating the one or more subgraphs by doing so, and reflecting the updated one or more subgraphs to the preset graph data.
  • Updating the one or more subgraphs may be performed by adding, modifying, or deleting a node or an edge included in each of the one or more subgraphs.
  • the preset graph data may be updated based on the updated one or more subgraphs.
  • the updated (that is, the updated one or more sub-graphs are reflected) preset graph data may correspond to shared knowledge for supporting semantic communication according to the above-described embodiment.
  • Updating the one or more subgraphs may be performed based on a transmission period of information including the one or more second latent vectors.
  • the update of the preset graph data may also be performed at the same cycle as the update of the one or more sub-graphs.
  • the first wireless device (eg, 200a of FIG. 2 ) updating the one or more subgraphs based on the calculated similarity can be implemented by the devices of FIGS. 1 to 5 .
  • one or more processors 202a may control one or more transceivers 206a and/or one or more memories 204a to update the one or more sub-graphs based on the calculated degree of similarity.
  • a transmission operation of a first wireless device may be interpreted as a reception operation of a second wireless device, and a reception operation of the first wireless device may be interpreted as a transmission operation of a second wireless device.
  • an operation performed by a first wireless device may be performed by a second wireless device. That is, subgraph extraction, latent vector generation, and subgraph update operations can be performed on both sides of the source/destination, respectively, and the operations based on S2530 to S2570 described above can also be performed by the second wireless device. there is.
  • the method may be performed based on all or part (eg, S2530 to S2570) of S2510 to S2570.
  • the method may be performed when an initialization operation related to updating graph data is not performed.
  • the method may include S2510 to S2570.
  • the first wireless device may be a user equipment (UE), and the second wireless device may be a base station (BS).
  • UE user equipment
  • BS base station
  • the method may be performed based on Device to Device (D2D) communication.
  • the method may include S2510 to S2570.
  • the initialization operations according to S2510 to S2520 may be performed based on D2D communication.
  • the first wireless device may be a terminal, and the second wireless device may be another terminal.
  • the control information may be transmitted from the base station to each terminal (the first wireless device and the second wireless device).
  • the base station receiving the performance information from the first wireless device and the second wireless device transmits the control information to the first wireless device when the first wireless device and the second wireless device support an operation related to the graph data.
  • the first wireless device and the second wireless device may perform initial setting for semantic communication (the above-described initialization operation) using the received control information.
  • the method may be performed after initialization related to updating graph data.
  • the initialization may be performed based on communication between the base station and the terminal or (in case of D2D communication) based on communication between each terminal and the base station.
  • the method may include S2530 to S2570.
  • the first wireless device may be a user equipment (UE) or a base station (BS)
  • the second wireless device may be a user equipment (UE) or a base station (BS). That is, the remaining operations (S2530 to S2570) excluding the operations according to S2510 to S2520 may be performed by the terminal and the base station as well as the terminal and other terminals.
  • the wireless communication technology implemented in the wireless devices 200a and 200b of the present specification may include Narrowband Internet of Things for low power communication as well as LTE, NR, and 6G.
  • NB-IoT technology may be an example of LPWAN (Low Power Wide Area Network) technology, and may be implemented in standards such as LTE Cat NB1 and / or LTE Cat NB2. no.
  • the wireless communication technology implemented in the wireless device (XXX, YYY) of the present specification may perform communication based on LTE-M technology.
  • LTE-M technology may be an example of LPWAN technology, and may be called various names such as eMTC (enhanced machine type communication).
  • LTE-M technologies are 1) LTE CAT 0, 2) LTE Cat M1, 3) LTE Cat M2, 4) LTE non-BL (non-Bandwidth Limited), 5) LTE-MTC, 6) LTE Machine Type Communication, and/or 7) It may be implemented in at least one of various standards such as LTE M, and is not limited to the above-mentioned names.
  • the wireless communication technology implemented in the wireless device (XXX, YYY) of the present specification is at least one of ZigBee, Bluetooth, and Low Power Wide Area Network (LPWAN) considering low power communication It may include any one, and is not limited to the above-mentioned names.
  • ZigBee technology can generate personal area networks (PANs) related to small/low-power digital communication based on various standards such as IEEE 802.15.4, and can be called various names.
  • PANs personal area networks
  • An embodiment according to the present specification may be implemented by various means, for example, hardware, firmware, software, or a combination thereof.
  • one embodiment of the present invention provides one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), FPGAs ( field programmable gate arrays), processors, controllers, microcontrollers, microprocessors, etc.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • processors controllers, microcontrollers, microprocessors, etc.
  • an embodiment of the present specification may be implemented in the form of a module, procedure, or function that performs the functions or operations described above.
  • the software code can be stored in memory and run by a processor.
  • the memory may be located inside or outside the processor and exchange data with the processor by various means known in the art.

Abstract

A method performed by a first radio device to support semantic communication in a wireless communication system according to an embodiment of the present specification comprises the steps of: extracting one or more sub-graphs from preconfigured graph data; generating one or more first latent vectors; receiving information including one or more second latent vectors from a second radio device; calculating a similarity between the one or more first latent vectors and the one or more second latent vectors; and updating the one or more sub-graphs on the basis of the calculated similarity.

Description

무선 통신 시스템에서 시멘틱 통신을 지원을 하기 위한 방법 및 그 장치Method and apparatus for supporting semantic communication in wireless communication system
무선 통신 시스템에서 시멘틱 통신을 지원을 하기 위한 방법 및 그 장치에 관한 것이다.It relates to a method and apparatus for supporting semantic communication in a wireless communication system.
이동 통신 시스템은 사용자의 활동성을 보장하면서 음성 서비스를 제공하기 위해 개발되었다. 그러나 이동통신 시스템은 음성뿐 아니라 데이터 서비스까지 영역을 확장하였으며, 현재에는 폭발적인 트래픽의 증가로 인하여 자원의 부족 현상이 야기되고 사용자들이 보다 고속의 서비스를 요구하므로, 보다 발전된 이동 통신 시스템이 요구되고 있다.Mobile communication systems have been developed to provide voice services while ensuring user activity. However, the mobile communication system has expanded its scope not only to voice but also to data services. Currently, the explosive increase in traffic causes a shortage of resources and users require higher-speed services, so a more advanced mobile communication system is required. .
차세대 이동 통신 시스템의 요구 조건은 크게 폭발적인 데이터 트래픽의 수용, 사용자 당 전송률의 획기적인 증가, 대폭 증가된 연결 디바이스 개수의 수용, 매우 낮은 단대단 지연(End-to-End Latency), 고에너지 효율을 지원할 수 있어야 한다. 이를 위하여 이중 연결성(Dual Connectivity), 대규모 다중 입출력(Massive MIMO: Massive Multiple Input Multiple Output), 전이중(In-band Full Duplex), 비직교 다중접속(NOMA: Non-Orthogonal Multiple Access), 초광대역(Super wideband) 지원, 단말 네트워킹(Device Networking) 등 다양한 기술들이 연구되고 있다.The requirements of the next-generation mobile communication system are to support explosive data traffic, drastic increase in transmission rate per user, significantly increased number of connected devices, very low end-to-end latency, and high energy efficiency. should be able to To this end, Dual Connectivity, Massive MIMO (Massive Multiple Input Multiple Output), In-band Full Duplex, Non-Orthogonal Multiple Access (NOMA), Super Wideband Wideband) support, various technologies such as device networking (Device Networking) are being studied.
기존 통신 방식에서 고려되는 신뢰성(reliability)은 무선 신호(즉, 복소 변조 심볼, complex valued modulation symbol)가 얼마나 정확하게 전송될 수 있는지와 관련이 있다. 반면, 시멘틱 통신(semantic communication)의 경우, 전송되는 메시지의 의미가 얼마나 정확하게 전달될 수 있는지가 고려된다. 즉 시멘틱 통신을 지원하기 위해서는 의미를 나타내는 시멘틱 메시지(semantic message)가 송수신 측에서 동일한 의미로 해석될 수 있어야 한다.Reliability considered in the existing communication scheme is related to how accurately a radio signal (ie, a complex valued modulation symbol) can be transmitted. On the other hand, in the case of semantic communication, how accurately the meaning of a transmitted message can be conveyed is considered. That is, in order to support semantic communication, a semantic message indicating a meaning must be interpreted as the same meaning at a transmitting/receiving side.
시멘틱 레벨(semantic level)의 통신이 기존 방식 대비 성능 향상을 제공할 수 있는 주요 이유 중 하나는, 송신단(예: source)과 수신단(예: destination) 간의 지식 공유(knowledge sharing)를 활용하기 때문이다. 이러한 지식을 표현하는 많은 방법들 중에 그래프 기반 지식 표현(knowledge representation)이 중요한 역할 중 하나를 수행한다.One of the main reasons that communication at the semantic level can provide performance improvement compared to the existing method is that it utilizes knowledge sharing between the sender (e.g., source) and the receiver (e.g., destination). . Among many methods of expressing such knowledge, a graph-based knowledge representation plays one of the important roles.
source와 destination이 가지고 있는 로컬 지식에 해당하는 그래프의 공유를 통해 다수의 정보를 포함하는 공유된 지식(shared knowledge)이 생성될 수 있다. 이와 같이, source와 destination간 같은 지식(즉, 공유된 지식)을 갖도록 하는 것은 각각에서 전달된 개념(시멘틱 메시지)이 좀 더 올바르게 해석이 가능하도록 만들어줄 수 있다. 그러나 이러한 방식은 공유된 지식의 생성에 있어 다음과 같은 한계점이 있다.Shared knowledge including a plurality of pieces of information may be created through sharing of a graph corresponding to local knowledge possessed by a source and a destination. In this way, having the same knowledge (that is, shared knowledge) between the source and the destination can make it possible to interpret the concept (semantic message) delivered from each more correctly. However, this method has the following limitations in generating shared knowledge.
그래프 기반 지식(그래프 기반 정보)의 크기가 매우 크므로, 해당 정보를 전달하기 위해 요구되는 자원도 증가한다. 또한 그래프 기반 정보를 비교하기 위한 연산량도 크게 늘어나 시멘틱 통신(semantic communication)을 통해 전달된 메시지의 의미가 올바르게 해석되지 못하거나 지연이 발생하여 기존 통신 대비 성능이 떨어질 수 있다. 상술한 문제점과 관련하여, 그래프 뉴럴 네트워크(Graph Neural Network, GNN)가 활용될 수 있다. 하지만, GNN의 경우에도 전체 그래프 데이터에 대한 잠재 벡터(latent vector)를 만드는 과정에 많은 연산량이 요구된다.Since the size of graph-based knowledge (graph-based information) is very large, the resources required to convey that information also increase. In addition, the amount of computation for comparing graph-based information is greatly increased, so that the meaning of a message transmitted through semantic communication cannot be correctly interpreted or delays occur, resulting in poor performance compared to conventional communication. Regarding the above problem, a graph neural network (GNN) may be utilized. However, even in the case of GNN, a large amount of computation is required in the process of creating a latent vector for the entire graph data.
본 명세서는 GNN을 기반으로 시멘틱 통신의 지원을 지원함에 있어 상술한 문제점을 해결하는 방법을 제안하는 것을 목적으로 한다.The purpose of this specification is to propose a method for solving the above problems in supporting semantic communication based on GNN.
본 명세서의 일 실시예에 따른 무선 통신 시스템에서 시멘틱 통신(semantic communication)을 지원하기 위해 제1 무선 장치에 의해 수행되는 방법은 기 설정된 그래프 데이터(graph data)로부터 하나 이상의 서브 그래프들(sub-graphs)을 추출하는 단계, 상기 하나 이상의 서브 그래프들에 기초하여 하나 이상의 제1 잠재 벡터들(one or more first latent vectors)을 생성하는 단계, 제2 무선 장치로부터 하나 이상의 제2 잠재 벡터들(one or more second latent vectors)을 포함하는 정보를 수신하는 단계, 상기 유사도 함수에 기초하여, 상기 하나 이상의 제1 잠재 벡터들과 상기 하나 이상의 제2 잠재 벡터들간의 유사도(similarity)를 계산하는 단계 및 상기 계산된 유사도에 기초하여 상기 하나 이상의 서브 그래프들을 업데이트하는 단계를 포함한다.A method performed by a first wireless device to support semantic communication in a wireless communication system according to an embodiment of the present specification includes one or more sub-graphs from preset graph data. ), generating one or more first latent vectors based on the one or more subgraphs, one or more second latent vectors from a second wireless device. more second latent vectors), calculating a similarity between the one or more first latent vectors and the one or more second latent vectors based on the similarity function, and the calculation and updating the one or more subgraphs based on the similarity.
상기 하나 이상의 서브 그래프들은 제어 정보에 기반하여 추출된다.The one or more subgraphs are extracted based on control information.
상기 제어 정보는 i) 상기 기 설정된 그래프 데이터로 표현되는 지식(knowledge)의 일부와 관련된 서브 그래프(sub-graph)의 추출을 위한 점수 함수(score function), ii) 상기 서브 그래프를 처리하기 위한 그래프 뉴럴 네트워크 모델(Graph Neural Network model, GNN model) 또는 iii) 상기 서브 그래프로부터 생성되는 잠재 벡터(latent vector)와 관련된 유사도 함수(similarity function) 중 적어도 하나에 대한 정보를 포함한다.The control information is i) a score function for extracting a sub-graph related to a part of knowledge represented by the preset graph data, ii) a graph for processing the sub-graph It includes information on at least one of a graph neural network model (GNN model) or iii) a similarity function related to a latent vector generated from the subgraph.
상기 하나 이상의 서브 그래프들은 상기 기 설정된 그래프 데이터(graph data)에 포함되는 노드 세트들 중 상기 점수 함수에 기초하여 계산된 점수가 높은 순으로 결정된 특정 노드 세트들에 기반한다.The one or more sub-graphs are based on specific node sets determined in order of high scores calculated based on the score function among node sets included in the preset graph data.
상기 잠재 벡터는 상기 계산된 점수에 기초하는 랭킹(ranking)을 나타내는 인덱스에 의해 식별된다. 상기 유사도는 상기 랭킹을 나타내는 인덱스가 동일한 제1 잠재 벡터와 제2 잠재 벡터간에 계산되는 것을 특징으로 한다.The latent vector is identified by an index indicating a ranking based on the calculated score. The degree of similarity is characterized in that the index representing the ranking is calculated between the first latent vector and the second latent vector having the same index.
상기 하나 이상의 서브 그래프들을 업데이트 하는 단계는 상기 하나 이상의 제2 잠재 벡터들로부터 하나 이상의 서브 그래프들을 복원하는 단계, 상기 복원된 하나 이상의 서브 그래프들과 상기 하나 이상의 서브 그래프들을 비교하여 상기 하나 이상의 서브 그래프들을 업데이트 하는 단계 및 상기 업데이트된 하나 이상의 서브 그래프들을 상기 기 설정된 그래프 데이터에 반영하는 단계를 포함할 수 있다.The updating of the one or more subgraphs may include restoring one or more subgraphs from the one or more second latent vectors, comparing the restored one or more subgraphs with the one or more subgraphs, and comparing the one or more subgraphs with the one or more subgraphs. Updating the subgraphs and reflecting the updated one or more subgraphs to the preset graph data.
상기 하나 이상의 서브 그래프들의 업데이트는 상기 하나 이상의 서브 그래프들 각각에 포함되는 노드 또는 엣지(edge)가 추가, 수정 또는 삭제됨으로써 수행될 수 있다. Updating the one or more subgraphs may be performed by adding, modifying, or deleting a node or an edge included in each of the one or more subgraphs.
상기 시멘틱 통신의 지원과 관련된 성능 정보가 상기 제1 무선 장치로부터 상기 제2 무선 장치로 전송되며, 상기 시멘틱 통신의 지원과 관련된 성능 정보는 상기 제1 무선 장치가 그래프 데이터와 관련된 동작을 지원하는 지 여부를 나타내는 정보를 포함할 수 있다.Performance information related to supporting the semantic communication is transmitted from the first wireless device to the second wireless device, and the performance information related to supporting the semantic communication determines whether the first wireless device supports an operation related to graph data. It may include information indicating whether or not.
상기 시멘틱 통신의 지원과 관련된 성능 정보가 상기 제1 무선 장치에 의해 그래프 데이터와 관련된 동작이 지원됨을 나타내는 것에 기반하여, 상기 제어 정보가 상기 제2 무선 장치로부터 상기 제1 무선 장치로 전송될 수 있다.The control information may be transmitted from the second wireless device to the first wireless device based on performance information related to supporting the semantic communication indicating that an operation related to graph data is supported by the first wireless device. .
상기 GNN 모델은 그래프 데이터로부터 잠재 벡터의 생성 동작 또는 잠재 벡터로부터 서브 그래프의 복원 동작 중 적어도 하나와 관련될 수 있다.The GNN model may be related to at least one of an operation of generating a latent vector from graph data or an operation of restoring a sub-graph from a latent vector.
상기 제어 정보는 i) 상기 계산된 점수가 높은 순으로 결정된 특정 노드 세트들의 개수,ii) 상기 하나 이상의 서브 그래프들과 관련된 홉(hop) 수, iii) 상기 하나 이상의 서브 그래프들과 관련된 위치 인코딩(positional-encoding) 방법 또는 iv) 상기 하나 이상의 제2 잠재 벡터들을 포함하는 정보의 전송 주기 중 적어도 하나에 대한 정보를 더 포함할 수 있다.The control information includes i) the number of specific node sets determined in the order of high calculated scores, ii) the number of hops associated with the one or more subgraphs, iii) position encoding associated with the one or more subgraphs ( positional-encoding) method or iv) transmission period of information including the one or more second latent vectors.
상기 하나 이상의 서브 그래프들 각각은 상기 특정 노드 세트들 중 어느 하나의 각 노드로부터 상기 홉 수에 기반하는 하나 이상의 이웃 노드들을 포함하도록 추출될 수 있다.Each of the one or more subgraphs may be extracted to include one or more neighboring nodes based on the number of hops from each node of any one of the specific node sets.
상기 업데이트된 하나 이상의 서브 그래프들에 기초하여 상기 기 설정된 그래프 데이터가 업데이트 될 수 있다.The preset graph data may be updated based on the updated one or more subgraphs.
상기 위치 인코딩 방법에 기반하여, 상기 하나 이상의 서브 그래프들 각각은 상기 특정 노드 세트들 중 어느 하나와 관련된 위치 정보를 포함하도록 추출될 수 있다.Based on the location encoding method, each of the one or more subgraphs may be extracted to include location information related to any one of the specific node sets.
본 명세서의 다른 실시예에 따른 무선 통신 시스템에서 시멘틱 통신(semantic communication)을 지원하는 제1 무선 장치는 하나 이상의 송수신기, 상기 하나 이상의 송수신기를 제어하는 하나 이상의 프로세서들 및 상기 하나 이상의 프로세서들에 동작 가능하게 접속 가능하고, 상기 하나 이상의 프로세서들에 의해 실행될 때 상기 하나 이상의 프로세서들이 동작들을 수행하도록 설정하는 지시(instruction)들을 저장하는 하나 이상의 메모리들을 포함한다.In a wireless communication system according to another embodiment of the present specification, a first wireless device supporting semantic communication includes one or more transceivers, one or more processors controlling the one or more transceivers, and operable with the one or more processors. and one or more memories that are accessible to the one or more processors and store instructions that, when executed by the one or more processors, cause the one or more processors to perform operations.
상기 동작들은 기 설정된 그래프 데이터(graph data)로부터 하나 이상의 서브 그래프들(sub-graphs)을 추출하는 단계, 상기 하나 이상의 서브 그래프들에 기초하여 하나 이상의 제1 잠재 벡터들(one or more first latent vectors)을 생성하는 단계, 제2 무선 장치로부터 하나 이상의 제2 잠재 벡터들(one or more second latent vectors)을 포함하는 정보를 수신하는 단계, 상기 유사도 함수에 기초하여, 상기 하나 이상의 제1 잠재 벡터들과 상기 하나 이상의 제2 잠재 벡터들간의 유사도(similarity)를 계산하는 단계 및 상기 계산된 유사도에 기초하여 상기 하나 이상의 서브 그래프들을 업데이트하는 단계를 포함한다.The operations may include extracting one or more sub-graphs from preset graph data, and generating one or more first latent vectors based on the one or more sub-graphs. ), Receiving information including one or more second latent vectors from a second wireless device, Based on the similarity function, the one or more first latent vectors and calculating a similarity between the one or more second latent vectors, and updating the one or more subgraphs based on the calculated similarity.
상기 하나 이상의 서브 그래프들은 제어 정보에 기반하여 추출된다.The one or more subgraphs are extracted based on control information.
상기 제어 정보는 i) 상기 기 설정된 그래프 데이터로 표현되는 지식(knowledge)의 일부와 관련된 서브 그래프(sub-graph)의 추출을 위한 점수 함수(score function), ii) 상기 서브 그래프를 처리하기 위한 그래프 뉴럴 네트워크 모델(Graph Neural Network model, GNN model) 또는 iii) 상기 서브 그래프로부터 생성되는 잠재 벡터(latent vector)와 관련된 유사도 함수(similarity function) 중 적어도 하나에 대한 정보를 포함한다.The control information is i) a score function for extracting a sub-graph related to a part of knowledge represented by the preset graph data, ii) a graph for processing the sub-graph It includes information on at least one of a graph neural network model (GNN model) or iii) a similarity function related to a latent vector generated from the subgraph.
상기 하나 이상의 서브 그래프들은 상기 기 설정된 그래프 데이터(graph data)에 포함되는 노드 세트들 중 상기 점수 함수에 기초하여 계산된 점수가 높은 순으로 결정된 특정 노드 세트들에 기반한다.The one or more sub-graphs are based on specific node sets determined in order of high scores calculated based on the score function among node sets included in the preset graph data.
상기 잠재 벡터는 상기 계산된 점수에 기초하는 랭킹(ranking)을 나타내는 인덱스에 의해 식별된다. 상기 유사도는 상기 랭킹을 나타내는 인덱스가 동일한 제1 잠재 벡터와 제2 잠재 벡터간에 계산되는 것을 특징으로 한다.The latent vector is identified by an index indicating a ranking based on the calculated score. The degree of similarity is characterized in that the index representing the ranking is calculated between the first latent vector and the second latent vector having the same index.
상기 제1 무선 장치는 단말(User Equipment, UE) 또는 기지국(Base Station, BS)이며 상기 제2 무선 장치는 단말(User Equipment, UE) 또는 기지국(Base Station, BS)일 수 있다.The first wireless device may be a user equipment (UE) or a base station (BS), and the second wireless device may be a user equipment (UE) or a base station (BS).
본 명세서의 또 다른 실시예에 따른 장치는 하나 이상의 메모리들 및 상기 하나 이상의 메모리들과 기능적으로 연결되어 있는 하나 이상의 프로세서들을 포함한다.An apparatus according to another embodiment of the present specification includes one or more memories and one or more processors functionally coupled to the one or more memories.
상기 하나 이상의 메모리들은, 상기 하나 이상의 프로세서들에 의해 실행될 때, 상기 하나 이상의 프로세서들이 동작들을 수행하도록 설정하는 지시(instruction)들을 저장한다.The one or more memories store instructions that, when executed by the one or more processors, cause the one or more processors to perform operations.
상기 동작들은 기 설정된 그래프 데이터(graph data)로부터 하나 이상의 서브 그래프들(sub-graphs)을 추출하는 단계, 상기 하나 이상의 서브 그래프들에 기초하여 하나 이상의 제1 잠재 벡터들(one or more first latent vectors)을 생성하는 단계, 제2 무선 장치로부터 하나 이상의 제2 잠재 벡터들(one or more second latent vectors)을 포함하는 정보를 수신하는 단계, 상기 유사도 함수에 기초하여, 상기 하나 이상의 제1 잠재 벡터들과 상기 하나 이상의 제2 잠재 벡터들간의 유사도(similarity)를 계산하는 단계 및 상기 계산된 유사도에 기초하여 상기 하나 이상의 서브 그래프들을 업데이트하는 단계를 포함한다.The operations may include extracting one or more sub-graphs from preset graph data, and generating one or more first latent vectors based on the one or more sub-graphs. ), Receiving information including one or more second latent vectors from a second wireless device, Based on the similarity function, the one or more first latent vectors and calculating a similarity between the one or more second latent vectors, and updating the one or more subgraphs based on the calculated similarity.
상기 하나 이상의 서브 그래프들은 제어 정보에 기반하여 추출된다.The one or more subgraphs are extracted based on control information.
상기 제어 정보는 i) 상기 기 설정된 그래프 데이터로 표현되는 지식(knowledge)의 일부와 관련된 서브 그래프(sub-graph)의 추출을 위한 점수 함수(score function), ii) 상기 서브 그래프를 처리하기 위한 그래프 뉴럴 네트워크 모델(Graph Neural Network model, GNN model) 또는 iii) 상기 서브 그래프로부터 생성되는 잠재 벡터(latent vector)와 관련된 유사도 함수(similarity function) 중 적어도 하나에 대한 정보를 포함한다.The control information is i) a score function for extracting a sub-graph related to a part of knowledge represented by the preset graph data, ii) a graph for processing the sub-graph It includes information on at least one of a graph neural network model (GNN model) or iii) a similarity function related to a latent vector generated from the subgraph.
상기 하나 이상의 서브 그래프들은 상기 기 설정된 그래프 데이터(graph data)에 포함되는 노드 세트들 중 상기 점수 함수에 기초하여 계산된 점수가 높은 순으로 결정된 특정 노드 세트들에 기반한다.The one or more sub-graphs are based on specific node sets determined in order of high scores calculated based on the score function among node sets included in the preset graph data.
상기 잠재 벡터는 상기 계산된 점수에 기초하는 랭킹(ranking)을 나타내는 인덱스에 의해 식별된다. 상기 유사도는 상기 랭킹을 나타내는 인덱스가 동일한 제1 잠재 벡터와 제2 잠재 벡터간에 계산되는 것을 특징으로 한다.The latent vector is identified by an index indicating a ranking based on the calculated score. The degree of similarity is characterized in that the index representing the ranking is calculated between the first latent vector and the second latent vector having the same index.
본 명세서의 또 다른 실시예에 따른 하나 이상의 비일시적(non-transitory) 컴퓨터 판독 가능 매체는 하나 이상의 명령어를 저장한다.One or more non-transitory computer readable media according to another embodiment of the present specification stores one or more instructions.
상기 하나 이상의 명령어는, 하나 이상의 프로세서에 의해 실행되는 경우, 상기 하나 이상의 프로세서가 동작들을 수행하도록 설정한다.The one or more instructions, when executed by one or more processors, cause the one or more processors to perform operations.
상기 동작들은 기 설정된 그래프 데이터(graph data)로부터 하나 이상의 서브 그래프들(sub-graphs)을 추출하는 단계, 상기 하나 이상의 서브 그래프들에 기초하여 하나 이상의 제1 잠재 벡터들(one or more first latent vectors)을 생성하는 단계, 제2 무선 장치로부터 하나 이상의 제2 잠재 벡터들(one or more second latent vectors)을 포함하는 정보를 수신하는 단계, 상기 유사도 함수에 기초하여, 상기 하나 이상의 제1 잠재 벡터들과 상기 하나 이상의 제2 잠재 벡터들간의 유사도(similarity)를 계산하는 단계 및 상기 계산된 유사도에 기초하여 상기 하나 이상의 서브 그래프들을 업데이트하는 단계를 포함한다.The operations may include extracting one or more sub-graphs from preset graph data, and generating one or more first latent vectors based on the one or more sub-graphs. ), Receiving information including one or more second latent vectors from a second wireless device, Based on the similarity function, the one or more first latent vectors and calculating a similarity between the one or more second latent vectors, and updating the one or more subgraphs based on the calculated similarity.
상기 하나 이상의 서브 그래프들은 제어 정보에 기반하여 추출된다.The one or more subgraphs are extracted based on control information.
상기 제어 정보는 i) 상기 기 설정된 그래프 데이터로 표현되는 지식(knowledge)의 일부와 관련된 서브 그래프(sub-graph)의 추출을 위한 점수 함수(score function), ii) 상기 서브 그래프를 처리하기 위한 그래프 뉴럴 네트워크 모델(Graph Neural Network model, GNN model) 또는 iii) 상기 서브 그래프로부터 생성되는 잠재 벡터(latent vector)와 관련된 유사도 함수(similarity function) 중 적어도 하나에 대한 정보를 포함한다.The control information is i) a score function for extracting a sub-graph related to a part of knowledge represented by the preset graph data, ii) a graph for processing the sub-graph It includes information on at least one of a graph neural network model (GNN model) or iii) a similarity function related to a latent vector generated from the subgraph.
상기 하나 이상의 서브 그래프들은 상기 기 설정된 그래프 데이터(graph data)에 포함되는 노드 세트들 중 상기 점수 함수에 기초하여 계산된 점수가 높은 순으로 결정된 특정 노드 세트들에 기반한다.The one or more sub-graphs are based on specific node sets determined in order of high scores calculated based on the score function among node sets included in the preset graph data.
상기 잠재 벡터는 상기 계산된 점수에 기초하는 랭킹(ranking)을 나타내는 인덱스에 의해 식별된다. 상기 유사도는 상기 랭킹을 나타내는 인덱스가 동일한 제1 잠재 벡터와 제2 잠재 벡터간에 계산되는 것을 특징으로 한다.The latent vector is identified by an index indicating a ranking based on the calculated score. The degree of similarity is characterized in that the index representing the ranking is calculated between the first latent vector and the second latent vector having the same index.
본 명세서의 실시예에 의하면, 전체 그래프의 서브 그래프(전체 그래프 데이터로부터 추출된 하나 이상의 서브 그래프들)로부터 하나 이상의 제1 잠재 벡터들이 생성된다. 상기 하나 이상의 제1 잠재 벡터들 및 제2 무선 장치로부터 전달받은 하나 이상의 제2 잠재 벡터들간의 유사도가 계산된다. 계산된 유사도에 기초하여 서브 그래프가 업데이트 된다. 구체적으로, 상기 계산된 유사도에 기초하여 하나 이상의 제2 잠재 벡터들로부터 하나 이상의 서브 그래프들이 복원되고, 복원된 하나 이상의 서브 그래프들과 상기 추출된 하나 이상의 서브 그래프들의 비교 결과에 기초하여, 상기 추출된 하나 이상의 서브 그래프들이 업데이트 된다. 업데이트된 하나 이상의 서브 그래프들이 상기 전체 그래프에 반영된다.According to an embodiment of the present specification, one or more first latent vectors are generated from a subgraph of the entire graph (one or more subgraphs extracted from the entire graph data). A similarity between the one or more first latent vectors and the one or more second latent vectors transmitted from the second wireless device is calculated. A subgraph is updated based on the calculated similarity. Specifically, one or more subgraphs are reconstructed from one or more second latent vectors based on the calculated similarity, and based on a comparison result between the one or more restored subgraphs and the extracted one or more subgraphs, the extraction One or more sub-graphs are updated. One or more updated subgraphs are reflected in the entire graph.
상기 실시예에 의하면, 시멘틱 통신의 지원을 위한 source와 destination이 각각 보유한 지식에 대한 공유 지식(shared knowledge)을 생성함에 있어 다음과 같은 효과가 도출된다. According to the above embodiment, the following effects are derived in generating shared knowledge for knowledge each possessed by a source and a destination for supporting semantic communication.
1) 전체 그래프 데이터를 송수신하여 서브 그래프를 업데이트 하는 경우에 비하여 시그널링 오버헤드가 감소한다. 1) Signaling overhead is reduced compared to the case of updating a subgraph by transmitting and receiving entire graph data.
2) 감소된 오버헤드로 인해 제2 잠재 벡터들을 포함하는 정보의 전송 및 이에 기초한 서브 그래프의 업데이트가 주기적으로 수행될 수 있다. 즉, 제1 무선 장치(예: 단말)의 잠재 벡터(latent vector)들과 제2 무선 장치(예: 기지국)의 잠재 벡터(latent vector)들간의 유사도가 일정 수준이 되도록 지속적으로 서브 그래프(sub-graph)가 업데이트 될 수 있다.2) Due to the reduced overhead, transmission of information including the second latent vectors and updating of the subgraph based on the transmission may be periodically performed. That is, the sub-graph (sub-graph) is maintained so that the similarity between the latent vectors of the first wireless device (eg, terminal) and the latent vectors of the second wireless device (eg, base station) reaches a certain level. -graph) can be updated.
이에 따라, Source와 destination 각각이 주기적인 업데이트를 통해 보유하는 공유 지식(shared knowledge)의 성능이 정상적인 시멘틱 통신을 지원할 수 있도록 개선될 수 있고, 해당 성능이 유지되도록 관리될 수 있다.Accordingly, the performance of shared knowledge possessed by each source and destination through periodic update can be improved to support normal semantic communication, and can be managed so that the corresponding performance is maintained.
3) 단말/기지국간에 전달되는 semantic message(latent vector)가 양 측에서 동일하게 해석(동일한 sub-graph로 decoding)될 수 있는 바, 시멘틱 통신(semantic communication)이 효과적으로 지원될 수 있다. 3) Since a semantic message (latent vector) transmitted between a terminal and a base station can be equally interpreted (decoded into the same sub-graph) on both sides, semantic communication can be effectively supported.
4) 송수신되는 정보가 그래프를 기반으로 하는 의미를 나타내는 바, 전달되는 메시지의 전송이 심볼 레벨(symbol level)에서 오류가 발생하더라도 해당 메시지는 송/수신단 사이에 지식 업데이트를 통해 송/수신단 각각이 보유한 공유 지식(shared knowledge)에 기초하여 올바른 의미로 해석될 수 있다. 따라서, 기존 통신 방식 대비 채널 상태로 인해 발생하는 오류에 대한 robustness가 개선될 수 있다.4) Since transmitted and received information represents meaning based on a graph, even if an error occurs in the transmission of a message at the symbol level, the message is transmitted and received through knowledge update between the transmitting and receiving ends. It can be interpreted in the correct meaning based on the shared knowledge possessed. Accordingly, robustness against errors caused by channel conditions can be improved compared to the conventional communication method.
본 명세서에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable in the present specification are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below. .
이하에 첨부되는 도면들은 본 명세서에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 본 명세서에 대한 실시 예들을 제공할 수 있다. 다만, 본 명세서의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시 예로 구성될 수 있다. 각 도면에서의 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미할 수 있다.The drawings attached below are intended to aid understanding of the present specification, and may provide embodiments of the present specification together with detailed descriptions. However, the technical features of the present specification are not limited to specific drawings, and features disclosed in each drawing may be combined with each other to form a new embodiment. Reference numerals in each drawing may mean structural elements.
도 1은 본 명세서에 적용 가능한 통신 시스템 예시를 나타낸 도면이다.1 is a diagram showing an example of a communication system applicable to the present specification.
도 2는 본 명세서에 적용 가능한 무선 기기의 예시를 나타낸 도면이다.2 is a diagram showing an example of a wireless device applicable to the present specification.
도 3은 본 명세서에 적용 가능한 전송 신호를 처리하는 방법을 나타낸 도면이다.3 is a diagram illustrating a method of processing a transmission signal applicable to the present specification.
도 4는 본 명세서에 적용 가능한 무선 기기의 다른 예시를 나타낸 도면이다.4 is a diagram showing another example of a wireless device applicable to the present specification.
도 5는 본 명세서에 적용 가능한 휴대 기기의 예시를 나타낸 도면이다.5 is a diagram illustrating an example of a portable device applicable to the present specification.
도 6은 본 명세서에 적용 가능한 물리 채널들 및 이들을 이용한 신호 전송 방법을 나타낸 도면이다.6 is a diagram illustrating physical channels applicable to the present specification and a signal transmission method using them.
도 7은 퍼셉트론 구조의 일례를 나타낸 도이다.7 is a diagram showing an example of a perceptron structure.
도 8은 다층 퍼셉트론 구조의 일례를 나타낸 도이다.8 is a diagram showing an example of a multilayer perceptron structure.
도 9는 심층 신경망의 일례를 나타낸 도이다.9 is a diagram showing an example of a deep neural network.
도 10은 컨볼루션 신경망의 일례를 나타낸 도이다.10 is a diagram showing an example of a convolutional neural network.
도 11은 컨볼루션 신경망에서의 필터 연산의 일례를 나타낸 도이다.11 is a diagram showing an example of a filter operation in a convolutional neural network.
도 12은 순환 루프가 존재하는 신경망 구조의 일례를 나타낸다.12 shows an example of a neural network structure in which a cyclic loop exists.
도 13는 순환 신경망의 동작 구조의 일례를 나타낸다.13 shows an example of an operating structure of a recurrent neural network.
도 14는 본 명세서에서 제안하는 실시예가 적용될 수 있는 수준별 통신 모델을 예시하는 도면이다.14 is a diagram illustrating a communication model for each level to which an embodiment proposed in this specification can be applied.
도 15는 본 명세서의 실시예에 따른 방법이 적용될 수 있는 그래프 뉴럴 네트워크의 동작을 설명하기 위한 도면이다.15 is a diagram for explaining the operation of a graph neural network to which a method according to an embodiment of the present specification can be applied.
도 16은 본 명세서의 실시예에 따른 방법이 적용될 수 있는 GNN 모델의 정의를 나타낸다. 16 shows the definition of a GNN model to which a method according to an embodiment of the present specification can be applied.
도 17은 본 명세서의 실시예에 따른 방법이 적용될 수 있는 GNN 모델과 관련된 동작을 나타낸다.17 illustrates an operation related to a GNN model to which a method according to an embodiment of the present specification may be applied.
도 18은 본 명세서의 실시예에 따른 그래프 데이터 처리 관련 업데이트를 위한 동작을 설명하기 위한 흐름도이다.18 is a flowchart illustrating an operation for updating related to processing of graph data according to an embodiment of the present specification.
도 19a는 본 명세서의 실시예에 따른 시멘틱 통신을 위한 그래프 데이터 업데이트와 관련된 초기화를 설명하기 위한 흐름도이다.19A is a flowchart for explaining initialization related to graph data update for semantic communication according to an embodiment of the present specification.
도 19b는 본 명세서의 실시예에 따른 점수 함수와 관련된 동작을 설명하기 위한 도면이다.19B is a diagram for explaining an operation related to a score function according to an embodiment of the present specification.
도 19c는 본 명세서의 실시예에 따른 점수 함수와 관련된 휴리스틱 방법을 예시하는 테이블이다.19C is a table illustrating a heuristic method related to a score function according to an embodiment of the present specification.
도 20은 본 명세서의 실시예에 따른 위치 인코딩 방법이 적용되어야하는 경우를 예시한다.20 illustrates a case where a position encoding method according to an embodiment of the present specification is to be applied.
도 21a 및 도 21b는 본 명세서의 실시예에 따른 서브 그래프의 추출 및 잠재 벡터의 생성/전송과 관련된 절차를 설명하기 위한 흐름도이다.21A and 21B are flowcharts for explaining procedures related to subgraph extraction and latent vector generation/transmission according to an embodiment of the present specification.
도 22는 본 명세서의 실시예에 따른 서브 그래프의 추출과 관련된 동작을 설명하기 위한 도면이다. 22 is a diagram for explaining an operation related to subgraph extraction according to an embodiment of the present specification.
도 23은 본 명세서의 실시예에 따라 수신된 잠재 벡터들의 처리와 관련된 절차를 설명하기 위한 흐름도이다.23 is a flowchart for explaining a procedure related to processing of received latent vectors according to an embodiment of the present specification.
도 24는 본 명세서의 실시예에 따른 그래프 데이터의 업데이트와 관련된 절차를 설명하기 위한 흐름도이다.24 is a flowchart for explaining a procedure related to updating graph data according to an embodiment of the present specification.
도 25는 본 명세서의 일 실시예에 따른 무선 통신 시스템에서 시멘틱 통신을 지원하기 위해 제1 무선 장치에 의해 수행되는 방법을 설명하기 위한 흐름도이다.25 is a flowchart for explaining a method performed by a first wireless device to support semantic communication in a wireless communication system according to an embodiment of the present specification.
이하의 실시 예들은 본 명세서의 구성요소들과 특징들을 소정 형태로 결합한 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려될 수 있다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 명세서의 실시 예를 구성할 수도 있다. 본 명세서의 실시 예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시 예의 일부 구성이나 특징은 다른 실시 예에 포함될 수 있고, 또는 다른 실시 예의 대응하는 구성 또는 특징과 교체될 수 있다.The following embodiments are those that combine the elements and features of the present specification in a predetermined form. Each component or feature may be considered optional unless explicitly stated otherwise. Each component or feature may be implemented in a form not combined with other components or features. In addition, the embodiments of the present specification may be configured by combining some components and/or features. The order of operations described in the embodiments of this specification may be changed. Some components or features of one embodiment may be included in another embodiment, or may be replaced with corresponding components or features of another embodiment.
도면에 대한 설명에서, 본 명세서의 요지를 흐릴 수 있는 절차 또는 단계 등은 기술하지 않았으며, 당업자의 수준에서 이해할 수 있을 정도의 절차 또는 단계는 또한 기술하지 아니하였다.In the description of the drawings, procedures or steps that may obscure the subject matter of the present specification have not been described, and procedures or steps that can be understood by those skilled in the art have not been described either.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일(a 또는 an)", "하나(one)", "그(the)" 및 유사 관련어는 본 명세서를 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.Throughout the specification, when a part is said to "comprising" or "including" a certain element, it means that it may further include other elements, not excluding other elements, unless otherwise stated. do. In addition, terms such as “… unit”, “… unit”, and “module” described in the specification mean a unit that processes at least one function or operation, which is hardware or software or a combination of hardware and software. can be implemented as Also, “a or an”, “one”, “the” and similar related words, in the context of describing this specification (particularly in the context of the claims below), mean otherwise in this specification Unless indicated or otherwise clearly contradicted by context, both the singular and the plural can be used.
본 명세서의 실시예들은 기지국과 이동국 간의 데이터 송수신 관계를 중심으로 설명되었다. 여기서, 기지국은 이동국과 직접적으로 통신을 수행하는 네트워크의 종단 노드(terminal node)로서의 의미가 있다. 본 명세서에서 기지국에 의해 수행되는 것으로 설명된 특정 동작은 경우에 따라서는 기지국의 상위 노드(upper node)에 의해 수행될 수도 있다.Embodiments of the present specification have been described focusing on a data transmission/reception relationship between a base station and a mobile station. Here, a base station has meaning as a terminal node of a network that directly communicates with a mobile station. A specific operation described herein as being performed by a base station may be performed by an upper node of the base station in some cases.
즉, 기지국을 포함하는 다수의 네트워크 노드들(network nodes)로 이루어지는 네트워크에서 이동국과의 통신을 위해 수행되는 다양한 동작들은 기지국 또는 기지국 이외의 다른 네트워크 노드들에 의해 수행될 수 있다. 이때, '기지국'은 고정국(fixed station), Node B, eNB(eNode B), gNB(gNode B), ng-eNB, 발전된 기지국(advanced base station, ABS) 또는 억세스 포인트(access point) 등의 용어에 의해 대체될 수 있다.That is, in a network composed of a plurality of network nodes including a base station, various operations performed for communication with a mobile station may be performed by the base station or network nodes other than the base station. At this time, the 'base station' is a term such as a fixed station, Node B, eNode B, gNode B, ng-eNB, advanced base station (ABS), or access point. can be replaced by
또한, 본 명세서의 실시 예들에서 단말(terminal)은 사용자 기기(user equipment, UE), 이동국(mobile station, MS), 가입자국(subscriber station, SS), 이동 가입자 단말(mobile subscriber station, MSS), 이동 단말(mobile terminal) 또는 발전된 이동 단말(advanced mobile station, AMS) 등의 용어로 대체될 수 있다.In addition, in the embodiments of the present specification, a terminal includes a user equipment (UE), a mobile station (MS), a subscriber station (SS), a mobile subscriber station (MSS), It may be replaced with terms such as mobile terminal or advanced mobile station (AMS).
또한, 송신단은 데이터 서비스 또는 음성 서비스를 제공하는 고정 및/또는 이동 노드를 말하고, 수신단은 데이터 서비스 또는 음성 서비스를 수신하는 고정 및/또는 이동 노드를 의미한다. 따라서, 상향링크의 경우, 이동국이 송신단이 되고, 기지국이 수신단이 될 수 있다. 마찬가지로, 하향링크의 경우, 이동국이 수신단이 되고, 기지국이 송신단이 될 수 있다.In addition, the transmitting end refers to a fixed and/or mobile node providing data service or voice service, and the receiving end refers to a fixed and/or mobile node receiving data service or voice service. Therefore, in the case of uplink, the mobile station can be a transmitter and the base station can be a receiver. Similarly, in the case of downlink, the mobile station may be a receiving end and the base station may be a transmitting end.
본 명세서의 실시 예들은 무선 접속 시스템들인 IEEE 802.xx 시스템, 3GPP(3rd Generation Partnership Project) 시스템, 3GPP LTE(Long Term Evolution) 시스템, 3GPP 5G(5th generation) NR(New Radio) 시스템 및 3GPP2 시스템 중 적어도 하나에 개시된 표준 문서들에 의해 뒷받침될 수 있으며, 특히, 본 명세서의 실시 예들은 3GPP TS(technical specification) 38.211, 3GPP TS 38.212, 3GPP TS 38.213, 3GPP TS 38.321 및 3GPP TS 38.331 문서들에 의해 뒷받침 될 수 있다. Embodiments of the present specification are wireless access systems, such as an IEEE 802.xx system, a 3rd Generation Partnership Project (3GPP) system, a 3GPP Long Term Evolution (LTE) system, a 3GPP 5G (5th generation) NR (New Radio) system, and a 3GPP2 system. It may be supported by at least one disclosed standard document, and in particular, the embodiments of the present specification are supported by 3GPP TS (technical specification) 38.211, 3GPP TS 38.212, 3GPP TS 38.213, 3GPP TS 38.321 and 3GPP TS 38.331 documents It can be.
또한, 본 명세서의 실시 예들은 다른 무선 접속 시스템에도 적용될 수 있으며, 상술한 시스템으로 한정되는 것은 아니다. 일 예로, 3GPP 5G NR 시스템 이후에 적용되는 시스템에 대해서도 적용 가능할 수 있으며, 특정 시스템에 한정되지 않는다.In addition, embodiments of the present specification may be applied to other wireless access systems, and are not limited to the above-described systems. For example, it may also be applicable to a system applied after the 3GPP 5G NR system, and is not limited to a specific system.
즉, 본 명세서의 실시 예들 중 설명하지 않은 자명한 단계들 또는 부분들은 상기 문서들을 참조하여 설명될 수 있다. 또한, 본 명세서에서 개시하고 있는 모든 용어들은 상기 표준 문서에 의해 설명될 수 있다.That is, obvious steps or parts not described in the embodiments of the present specification may be described with reference to the above documents. In addition, all terms disclosed in this specification can be explained by the standard document.
이하, 본 명세서에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 명세서의 예시적인 실시 형태를 설명하고자 하는 것이며, 본 명세서의 기술 구성이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다.Hereinafter, preferred embodiments according to the present specification will be described in detail with reference to the accompanying drawings. The detailed description set forth below in conjunction with the accompanying drawings is intended to describe exemplary embodiments herein, and is not intended to represent the only embodiments in which the technical configurations herein may be practiced.
또한, 본 명세서의 실시 예들에서 사용되는 특정 용어들은 본 명세서의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 명세서의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.In addition, specific terms used in the embodiments of the present specification are provided to aid understanding of the present specification, and the use of these specific terms may be changed in other forms without departing from the technical spirit of the present specification.
이하의 기술은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 접속 시스템에 적용될 수 있다.The following technologies include code division multiple access (CDMA), frequency division multiple access (FDMA), time division multiple access (TDMA), orthogonal frequency division multiple access (OFDMA), single carrier frequency division multiple access (SC-FDMA), and the like. It can be applied to various wireless access systems.
하기에서는 이하 설명을 명확하게 하기 위해, 3GPP 통신 시스템(e.g.(예, LTE, NR 등)을 기반으로 설명하지만 본 발명의 기술적 사상이 이에 제한되는 것은 아니다. LTE는 3GPP TS 36.xxx Release 8 이후의 기술을 의미할 수 있다. 세부적으로, 3GPP TS 36.xxx Release 10 이후의 LTE 기술은 LTE-A로 지칭되고, 3GPP TS 36.xxx Release 13 이후의 LTE 기술은 LTE-A pro로 지칭될 수 있다. 3GPP NR은 TS 38.xxx Release 15 이후의 기술을 의미할 수 있다. 3GPP 6G는 TS Release 17 및/또는 Release 18 이후의 기술을 의미할 수 있다. "xxx"는 표준 문서 세부 번호를 의미한다. LTE/NR/6G는 3GPP 시스템으로 통칭될 수 있다.In the following, in order to clarify the following description, the description is based on the 3GPP communication system (e.g. (eg, LTE, NR, etc.), but the technical spirit of the present invention is not limited thereto. LTE is 3GPP TS 36.xxx Release 8 or later In detail, LTE technology after 3GPP TS 36.xxx Release 10 is referred to as LTE-A, and LTE technology after 3GPP TS 36.xxx Release 13 may be referred to as LTE-A pro. 3GPP NR may mean technology after TS 38.xxx Release 15. 3GPP 6G may mean technology after TS Release 17 and/or Release 18. "xxx" means a standard document detail number. LTE/NR/6G may be collectively referred to as a 3GPP system.
본 명세서에 사용된 배경기술, 용어, 약어 등에 관해서는 본 발명 이전에 공개된 표준 문서에 기재된 사항을 참조할 수 있다. 일 예로, 36.xxx 및 38.xxx 표준 문서를 참조할 수 있다.For background art, terms, abbreviations, etc. used in this specification, reference may be made to matters described in standard documents published prior to the present invention. As an example, 36.xxx and 38.xxx standard documents may be referred to.
본 명세서에 적용 가능한 통신 시스템Communication system applicable to this specification
이로 제한되는 것은 아니지만, 본 명세서에 개시된 다양한 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 기기들 간에 무선 통신/연결(예, 5G)을 필요로 하는 다양한 분야에 적용될 수 있다.Although not limited thereto, various descriptions, functions, procedures, proposals, methods and / or operational flowcharts disclosed herein may be applied to various fields requiring wireless communication / connection (eg, 5G) between devices.
이하, 도면을 참조하여 보다 구체적으로 예시한다. 이하의 도면/설명에서 동일한 도면 부호는 다르게 기술하지 않는 한, 동일하거나 대응되는 하드웨어 블록, 소프트웨어 블록 또는 기능 블록을 예시할 수 있다.Hereinafter, it will be exemplified in more detail with reference to the drawings. In the following drawings/description, the same reference numerals may represent the same or corresponding hardware blocks, software blocks or functional blocks unless otherwise specified.
도 1은 본 명세서에 적용되는 통신 시스템 예시를 도시한 도면이다. 도 1을 참조하면, 본 명세서에 적용되는 통신 시스템(100)은 무선 기기, 기지국 및 네트워크를 포함한다. 여기서, 무선 기기는 무선 접속 기술(예, 5G NR, LTE)을 이용하여 통신을 수행하는 기기를 의미하며, 통신/무선/5G 기기로 지칭될 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(100a), 차량(100b-1, 100b-2), XR(extended reality) 기기(100c), 휴대 기기(hand-held device)(100d), 가전(home appliance)(100e), IoT(Internet of Thing) 기기(100f), AI(artificial intelligence) 기기/서버(100g)를 포함할 수 있다. 예를 들어, 차량은 무선 통신 기능이 구비된 차량, 자율 주행 차량, 차량간 통신을 수행할 수 있는 차량 등을 포함할 수 있다. 여기서, 차량(100b-1, 100b-2)은 UAV(unmanned aerial vehicle)(예, 드론)를 포함할 수 있다. XR 기기(100c)는 AR(augmented reality)/VR(virtual reality)/MR(mixed reality) 기기를 포함하며, HMD(head-mounted device), 차량에 구비된 HUD(head-up display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등의 형태로 구현될 수 있다. 휴대 기기(100d)는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 컴퓨터(예, 노트북 등) 등을 포함할 수 있다. 가전(100e)은 TV, 냉장고, 세탁기 등을 포함할 수 있다. IoT 기기(100f)는 센서, 스마트 미터 등을 포함할 수 있다. 예를 들어, 기지국(120), 네트워크(130)는 무선 기기로도 구현될 수 있으며, 특정 무선 기기(120a)는 다른 무선 기기에게 기지국/네트워크 노드로 동작할 수도 있다.1 is a diagram illustrating an example of a communication system applied to the present specification. Referring to FIG. 1 , a communication system 100 applied to the present specification includes a wireless device, a base station, and a network. Here, the wireless device means a device that performs communication using a radio access technology (eg, 5G NR, LTE), and may be referred to as a communication/wireless/5G device. Although not limited thereto, the wireless device includes a robot 100a, a vehicle 100b-1 and 100b-2, an extended reality (XR) device 100c, a hand-held device 100d, and a home appliance. appliance) 100e, Internet of Thing (IoT) device 100f, and artificial intelligence (AI) device/server 100g. For example, the vehicle may include a vehicle equipped with a wireless communication function, an autonomous vehicle, a vehicle capable of performing inter-vehicle communication, and the like. Here, the vehicles 100b-1 and 100b-2 may include an unmanned aerial vehicle (UAV) (eg, a drone). The XR device 100c includes augmented reality (AR)/virtual reality (VR)/mixed reality (MR) devices, and includes a head-mounted device (HMD), a head-up display (HUD) installed in a vehicle, a television, It may be implemented in the form of smart phones, computers, wearable devices, home appliances, digital signage, vehicles, robots, and the like. The mobile device 100d may include a smart phone, a smart pad, a wearable device (eg, a smart watch, a smart glass), a computer (eg, a laptop computer), and the like. The home appliance 100e may include a TV, a refrigerator, a washing machine, and the like. The IoT device 100f may include a sensor, a smart meter, and the like. For example, the base station 120 and the network 130 may also be implemented as a wireless device, and a specific wireless device 120a may operate as a base station/network node to other wireless devices.
무선 기기(100a~100f)는 기지국(120)을 통해 네트워크(130)와 연결될 수 있다. 무선 기기(100a~100f)에는 AI 기술이 적용될 수 있으며, 무선 기기(100a~100f)는 네트워크(130)를 통해 AI 서버(100g)와 연결될 수 있다. 네트워크(130)는 3G 네트워크, 4G(예, LTE) 네트워크 또는 5G(예, NR) 네트워크 등을 이용하여 구성될 수 있다. 무선 기기(100a~100f)는 기지국(120)/네트워크(130)를 통해 서로 통신할 수도 있지만, 기지국(120)/네트워크(130)를 통하지 않고 직접 통신(예, 사이드링크 통신(sidelink communication))할 수도 있다. 예를 들어, 차량들(100b-1, 100b-2)은 직접 통신(예, V2V(vehicle to vehicle)/V2X(vehicle to everything) communication)을 할 수 있다. 또한, IoT 기기(100f)(예, 센서)는 다른 IoT 기기(예, 센서) 또는 다른 무선 기기(100a~100f)와 직접 통신을 할 수 있다.The wireless devices 100a to 100f may be connected to the network 130 through the base station 120 . AI technology may be applied to the wireless devices 100a to 100f, and the wireless devices 100a to 100f may be connected to the AI server 100g through the network 130. The network 130 may be configured using a 3G network, a 4G (eg LTE) network, or a 5G (eg NR) network. The wireless devices 100a to 100f may communicate with each other through the base station 120/network 130, but communicate directly without going through the base station 120/network 130 (e.g., sidelink communication). You may. For example, the vehicles 100b-1 and 100b-2 may perform direct communication (eg, vehicle to vehicle (V2V)/vehicle to everything (V2X) communication). In addition, the IoT device 100f (eg, sensor) may directly communicate with other IoT devices (eg, sensor) or other wireless devices 100a to 100f.
무선 기기(100a~100f)/기지국(120), 기지국(120)/기지국(120) 간에는 무선 통신/연결(150a, 150b, 150c)이 이뤄질 수 있다. 여기서, 무선 통신/연결은 상향/하향링크 통신(150a)과 사이드링크 통신(150b)(또는, D2D 통신), 기지국간 통신(150c)(예, relay, IAB(integrated access backhaul))과 같은 다양한 무선 접속 기술(예, 5G NR)을 통해 이뤄질 수 있다. 무선 통신/연결(150a, 150b, 150c)을 통해 무선 기기와 기지국/무선 기기, 기지국과 기지국은 서로 무선 신호를 송신/수신할 수 있다. 예를 들어, 무선 통신/연결(150a, 150b, 150c)은 다양한 물리 채널을 통해 신호를 송신/수신할 수 있다. 이를 위해, 본 명세서의 다양한 제안들에 기반하여, 무선 신호의 송신/수신을 위한 다양한 구성정보 설정 과정, 다양한 신호 처리 과정(예, 채널 인코딩/디코딩, 변조/복조, 자원 매핑/디매핑 등), 자원 할당 과정 등 중 적어도 일부가 수행될 수 있다.Wireless communication/ connection 150a, 150b, and 150c may be performed between the wireless devices 100a to 100f/base station 120 and the base station 120/base station 120. Here, wireless communication/connection includes various types of uplink/downlink communication 150a, sidelink communication 150b (or D2D communication), and inter-base station communication 150c (eg relay, integrated access backhaul (IAB)). This can be done through radio access technology (eg 5G NR). Through the wireless communication/ connection 150a, 150b, and 150c, a wireless device and a base station/wireless device, and a base station and a base station can transmit/receive radio signals to each other. For example, the wireless communication/ connections 150a, 150b, and 150c may transmit/receive signals through various physical channels. To this end, based on the various proposals of this specification, various configuration information setting processes for transmitting / receiving radio signals, various signal processing processes (eg, channel encoding / decoding, modulation / demodulation, resource mapping / demapping, etc.) At least a part of a resource allocation process may be performed.
본 명세서에 적용 가능한 통신 시스템Communication system applicable to this specification
도 2는 본 명세서에 적용될 수 있는 무선 기기의 예시를 도시한 도면이다.2 is a diagram illustrating an example of a wireless device applicable to the present specification.
도 2를 참조하면, 제1 무선 기기(200a)와 제2 무선 기기(200b)는 다양한 무선 접속 기술(예, LTE, NR)을 통해 무선 신호를 송수신할 수 있다. 여기서, {제1 무선 기기(200a), 제2 무선 기기(200b)}은 도 1의 {무선 기기(100x), 기지국(120)} 및/또는 {무선 기기(100x), 무선 기기(100x)}에 대응할 수 있다.Referring to FIG. 2 , a first wireless device 200a and a second wireless device 200b may transmit and receive radio signals through various wireless access technologies (eg, LTE and NR). Here, {the first wireless device 200a, the second wireless device 200b} denotes the {wireless device 100x and the base station 120} of FIG. 1 and/or the {wireless device 100x and the wireless device 100x. } can correspond.
제1 무선 기기(200a)는 하나 이상의 프로세서(202a) 및 하나 이상의 메모리(204a)를 포함하며, 추가적으로 하나 이상의 송수신기(206a) 및/또는 하나 이상의 안테나(208a)을 더 포함할 수 있다. 프로세서(202a)는 메모리(204a) 및/또는 송수신기(206a)를 제어하며, 본 명세서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202a)는 메모리(204a) 내의 정보를 처리하여 제1 정보/신호를 생성한 뒤, 송수신기(206a)을 통해 제1 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202a)는 송수신기(206a)를 통해 제2 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제2 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204a)에 저장할 수 있다. 메모리(204a)는 프로세서(202a)와 연결될 수 있고, 프로세서(202a)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204a)는 프로세서(202a)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 명세서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202a)와 메모리(204a)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206a)는 프로세서(202a)와 연결될 수 있고, 하나 이상의 안테나(208a)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206a)는 송신기 및/또는 수신기를 포함할 수 있다. 송수신기(206a)는 RF(radio frequency) 유닛과 혼용될 수 있다. 본 명세서에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.The first wireless device 200a includes one or more processors 202a and one or more memories 204a, and may further include one or more transceivers 206a and/or one or more antennas 208a. The processor 202a controls the memory 204a and/or the transceiver 206a and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flow diagrams disclosed herein. For example, the processor 202a may process information in the memory 204a to generate first information/signal, and transmit a radio signal including the first information/signal through the transceiver 206a. In addition, the processor 202a may receive a radio signal including the second information/signal through the transceiver 206a and store information obtained from signal processing of the second information/signal in the memory 204a. The memory 204a may be connected to the processor 202a and may store various information related to the operation of the processor 202a. For example, memory 204a may perform some or all of the processes controlled by processor 202a, or instructions for performing the descriptions, functions, procedures, suggestions, methods, and/or flowcharts of operations disclosed herein. It may store software codes including them. Here, the processor 202a and the memory 204a may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR). The transceiver 206a may be coupled to the processor 202a and may transmit and/or receive wireless signals through one or more antennas 208a. The transceiver 206a may include a transmitter and/or a receiver. The transceiver 206a may be used interchangeably with a radio frequency (RF) unit. In this specification, a wireless device may mean a communication modem/circuit/chip.
제2 무선 기기(200b)는 하나 이상의 프로세서(202b), 하나 이상의 메모리(204b)를 포함하며, 추가적으로 하나 이상의 송수신기(206b) 및/또는 하나 이상의 안테나(208b)를 더 포함할 수 있다. 프로세서(202b)는 메모리(204b) 및/또는 송수신기(206b)를 제어하며, 본 명세서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202b)는 메모리(204b) 내의 정보를 처리하여 제3 정보/신호를 생성한 뒤, 송수신기(206b)를 통해 제3 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202b)는 송수신기(206b)를 통해 제4 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제4 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204b)에 저장할 수 있다. 메모리(204b)는 프로세서(202b)와 연결될 수 있고, 프로세서(202b)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204b)는 프로세서(202b)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 명세서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202b)와 메모리(204b)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206b)는 프로세서(202b)와 연결될 수 있고, 하나 이상의 안테나(208b)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206b)는 송신기 및/또는 수신기를 포함할 수 있다 송수신기(206b)는 RF 유닛과 혼용될 수 있다. 본 명세서에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.The second wireless device 200b includes one or more processors 202b, one or more memories 204b, and may further include one or more transceivers 206b and/or one or more antennas 208b. The processor 202b controls the memory 204b and/or the transceiver 206b and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flow diagrams disclosed herein. For example, the processor 202b may process information in the memory 204b to generate third information/signal, and transmit a radio signal including the third information/signal through the transceiver 206b. In addition, the processor 202b may receive a radio signal including the fourth information/signal through the transceiver 206b and then store information obtained from signal processing of the fourth information/signal in the memory 204b. The memory 204b may be connected to the processor 202b and may store various information related to the operation of the processor 202b. For example, memory 204b may perform some or all of the processes controlled by processor 202b, or instructions for performing the descriptions, functions, procedures, suggestions, methods, and/or flowcharts of operations disclosed herein. It may store software codes including them. Here, the processor 202b and the memory 204b may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR). The transceiver 206b may be coupled to the processor 202b and may transmit and/or receive wireless signals through one or more antennas 208b. The transceiver 206b may include a transmitter and/or a receiver. The transceiver 206b may be used interchangeably with an RF unit. In this specification, a wireless device may mean a communication modem/circuit/chip.
이하, 무선 기기(200a, 200b)의 하드웨어 요소에 대해 보다 구체적으로 설명한다. 이로 제한되는 것은 아니지만, 하나 이상의 프로토콜 계층이 하나 이상의 프로세서(202a, 202b)에 의해 구현될 수 있다. 예를 들어, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 계층(예, PHY(physical), MAC(media access control), RLC(radio link control), PDCP(packet data convergence protocol), RRC(radio resource control), SDAP(service data adaptation protocol)와 같은 기능적 계층)을 구현할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 명세서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 하나 이상의 PDU(Protocol Data Unit) 및/또는 하나 이상의 SDU(service data unit)를 생성할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 명세서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 메시지, 제어정보, 데이터 또는 정보를 생성할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 명세서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 포함하는 신호(예, 베이스밴드 신호)를 생성하여, 하나 이상의 송수신기(206a, 206b)에게 제공할 수 있다. 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)로부터 신호(예, 베이스밴드 신호)를 수신할 수 있고, 본 명세서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 획득할 수 있다.Hereinafter, hardware elements of the wireless devices 200a and 200b will be described in more detail. Although not limited to this, one or more protocol layers may be implemented by one or more processors 202a, 202b. For example, the one or more processors 202a and 202b may include one or more layers (eg, PHY (physical), MAC (media access control), RLC (radio link control), PDCP (packet data convergence protocol), RRC (radio resource) control) and functional layers such as service data adaptation protocol (SDAP). One or more processors 202a, 202b may generate one or more protocol data units (PDUs) and/or one or more service data units (SDUs) according to the descriptions, functions, procedures, proposals, methods, and/or operational flow charts disclosed herein. can create One or more processors 202a, 202b may generate messages, control information, data or information according to the descriptions, functions, procedures, proposals, methods and/or operational flow diagrams disclosed herein. One or more processors 202a, 202b generate PDUs, SDUs, messages, control information, data or signals (e.g., baseband signals) containing information according to the functions, procedures, proposals and/or methods disclosed herein. , may be provided to one or more transceivers 206a and 206b. One or more processors 202a, 202b may receive signals (eg, baseband signals) from one or more transceivers 206a, 206b, and descriptions, functions, procedures, proposals, methods, and/or flowcharts of operations disclosed herein PDUs, SDUs, messages, control information, data or information can be obtained according to these.
하나 이상의 프로세서(202a, 202b)는 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 마이크로 컴퓨터로 지칭될 수 있다. 하나 이상의 프로세서(202a, 202b)는 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합에 의해 구현될 수 있다. 일 예로, 하나 이상의 ASIC(application specific integrated circuit), 하나 이상의 DSP(digital signal processor), 하나 이상의 DSPD(digital signal processing device), 하나 이상의 PLD(programmable logic device) 또는 하나 이상의 FPGA(field programmable gate arrays)가 하나 이상의 프로세서(202a, 202b)에 포함될 수 있다. 본 명세서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있고, 펌웨어 또는 소프트웨어는 모듈, 절차, 기능 등을 포함하도록 구현될 수 있다. 본 명세서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 수행하도록 설정된 펌웨어 또는 소프트웨어는 하나 이상의 프로세서(202a, 202b)에 포함되거나, 하나 이상의 메모리(204a, 204b)에 저장되어 하나 이상의 프로세서(202a, 202b)에 의해 구동될 수 있다. 본 명세서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 코드, 명령어 및/또는 명령어의 집합 형태로 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있다. One or more processors 202a, 202b may be referred to as a controller, microcontroller, microprocessor or microcomputer. One or more processors 202a, 202b may be implemented by hardware, firmware, software, or a combination thereof. For example, one or more application specific integrated circuits (ASICs), one or more digital signal processors (DSPs), one or more digital signal processing devices (DSPDs), one or more programmable logic devices (PLDs), or one or more field programmable gate arrays (FPGAs). may be included in one or more processors 202a and 202b. The descriptions, functions, procedures, proposals, methods and/or operational flow charts disclosed herein may be implemented using firmware or software, and firmware or software may be implemented to include modules, procedures, functions, and the like. Firmware or software configured to perform the descriptions, functions, procedures, suggestions, methods, and/or operational flow diagrams disclosed herein may be included in one or more processors 202a, 202b or stored in one or more memories 204a, 204b. It can be driven by the above processors 202a and 202b. The descriptions, functions, procedures, suggestions, methods and/or operational flow diagrams disclosed herein may be implemented using firmware or software in the form of codes, instructions and/or sets of instructions.
하나 이상의 메모리(204a, 204b)는 하나 이상의 프로세서(202a, 202b)와 연결될 수 있고, 다양한 형태의 데이터, 신호, 메시지, 정보, 프로그램, 코드, 지시 및/또는 명령을 저장할 수 있다. 하나 이상의 메모리(204a, 204b)는 ROM(read only memory), RAM(random access memory), EPROM(erasable programmable read only memory), 플래시 메모리, 하드 드라이브, 레지스터, 캐쉬 메모리, 컴퓨터 판독 저장 매체 및/또는 이들의 조합으로 구성될 수 있다. 하나 이상의 메모리(204a, 204b)는 하나 이상의 프로세서(202a, 202b)의 내부 및/또는 외부에 위치할 수 있다. 또한, 하나 이상의 메모리(204a, 204b)는 유선 또는 무선 연결과 같은 다양한 기술을 통해 하나 이상의 프로세서(202a, 202b)와 연결될 수 있다.One or more memories 204a, 204b may be coupled to one or more processors 202a, 202b and may store various types of data, signals, messages, information, programs, codes, instructions and/or instructions. One or more memories 204a, 204b may include read only memory (ROM), random access memory (RAM), erasable programmable read only memory (EPROM), flash memory, hard drive, registers, cache memory, computer readable storage media, and/or It may consist of a combination of these. One or more memories 204a, 204b may be located internally and/or externally to one or more processors 202a, 202b. In addition, one or more memories 204a, 204b may be connected to one or more processors 202a, 202b through various technologies such as wired or wireless connections.
하나 이상의 송수신기(206a, 206b)는 하나 이상의 다른 장치에게 본 명세서의 방법들 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 전송할 수 있다. 하나 이상의 송수신기(206a, 206b)는 하나 이상의 다른 장치로부터 본 명세서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 수신할 수 있다. 예를 들어, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 프로세서(202a, 202b)와 연결될 수 있고, 무선 신호를 송수신할 수 있다. 예를 들어, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)가 하나 이상의 다른 장치에게 사용자 데이터, 제어 정보 또는 무선 신호를 전송하도록 제어할 수 있다. 또한, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)가 하나 이상의 다른 장치로부터 사용자 데이터, 제어 정보 또는 무선 신호를 수신하도록 제어할 수 있다. 또한, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 안테나(208a, 208b)와 연결될 수 있고, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 안테나(208a, 208b)를 통해 본 명세서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 송수신하도록 설정될 수 있다. 본 명세서에서, 하나 이상의 안테나는 복수의 물리 안테나이거나, 복수의 논리 안테나(예, 안테나 포트)일 수 있다. 하나 이상의 송수신기(206a, 206b)는 수신된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 하나 이상의 프로세서(202a, 202b)를 이용하여 처리하기 위해, 수신된 무선 신호/채널 등을 RF 밴드 신호에서 베이스밴드 신호로 변환(Convert)할 수 있다. 하나 이상의 송수신기(206a, 206b)는 하나 이상의 프로세서(202a, 202b)를 이용하여 처리된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 베이스밴드 신호에서 RF 밴드 신호로 변환할 수 있다. 이를 위하여, 하나 이상의 송수신기(206a, 206b)는 (아날로그) 오실레이터 및/또는 필터를 포함할 수 있다.One or more transceivers 206a, 206b may transmit user data, control information, radio signals/channels, etc. referred to in the methods and/or operational flow charts herein, etc. to one or more other devices. One or more transceivers (206a, 206b) may receive user data, control information, radio signals/channels, etc. referred to in descriptions, functions, procedures, proposals, methods and/or operational flow charts, etc. disclosed herein from one or more other devices. there is. For example, one or more transceivers 206a and 206b may be connected to one or more processors 202a and 202b and transmit and receive radio signals. For example, one or more processors 202a, 202b may control one or more transceivers 206a, 206b to transmit user data, control information, or radio signals to one or more other devices. In addition, one or more processors 202a, 202b may control one or more transceivers 206a, 206b to receive user data, control information, or radio signals from one or more other devices. In addition, one or more transceivers 206a, 206b may be coupled with one or more antennas 208a, 208b, and one or more transceivers 206a, 206b may be connected to one or more antennas 208a, 208b, as described herein. , procedures, proposals, methods and / or operation flowcharts, etc. can be set to transmit and receive user data, control information, radio signals / channels, etc. In this specification, one or more antennas may be a plurality of physical antennas or a plurality of logical antennas (eg, antenna ports). One or more transceivers (206a, 206b) in order to process the received user data, control information, radio signal / channel, etc. using one or more processors (202a, 202b), the received radio signal / channel, etc. in the RF band signal It can be converted into a baseband signal. One or more transceivers 206a and 206b may convert user data, control information, and radio signals/channels processed by one or more processors 202a and 202b from baseband signals to RF band signals. To this end, one or more transceivers 206a, 206b may include (analog) oscillators and/or filters.
도 3은 본 명세서에 적용되는 전송 신호를 처리하는 방법을 도시한 도면이다. 일 예로, 전송 신호는 신호 처리 회로에 의해 처리될 수 있다. 이때, 신호 처리 회로(300)는 스크램블러(310), 변조기(320), 레이어 매퍼(330), 프리코더(340), 자원 매퍼(350), 신호 생성기(360)를 포함할 수 있다. 이때, 일 예로, 도 3의 동작/기능은 도 2의 프로세서(202a, 202b) 및/또는 송수신기(206a, 206b)에서 수행될 수 있다. 또한, 일 예로, 도 3의 하드웨어 요소는 도 2의 프로세서(202a, 202b) 및/또는 송수신기(206a, 206b)에서 구현될 수 있다. 일 예로, 블록 310~350은 도 2의 프로세서(202a, 202b)에서 구현되고, 블록 360은 도 2의 송수신기(206a, 206b)에서 구현될 수 있으며, 상술한 실시 예로 한정되지 않는다.3 is a diagram illustrating a method of processing a transmission signal applied to the present specification. For example, the transmitted signal may be processed by a signal processing circuit. In this case, the signal processing circuit 300 may include a scrambler 310, a modulator 320, a layer mapper 330, a precoder 340, a resource mapper 350, and a signal generator 360. At this time, as an example, the operation/function of FIG. 3 may be performed by the processors 202a and 202b and/or the transceivers 206a and 206b of FIG. 2 . Also, as an example, the hardware elements of FIG. 3 may be implemented in the processors 202a and 202b and/or the transceivers 206a and 206b of FIG. 2 . For example, blocks 310 to 350 may be implemented in the processors 202a and 202b of FIG. 2 and block 360 may be implemented in the transceivers 206a and 206b of FIG. 2 , but are not limited to the above-described embodiment.
코드워드는 도 3의 신호 처리 회로(300)를 거쳐 무선 신호로 변환될 수 있다. 여기서, 코드워드는 정보블록의 부호화된 비트 시퀀스이다. 정보블록은 전송블록(예, UL-SCH 전송블록, DL-SCH 전송블록)을 포함할 수 있다. 무선 신호는 도 6의 다양한 물리 채널(예, PUSCH, PDSCH)을 통해 전송될 수 있다. 구체적으로, 코드워드는 스크램블러(310)에 의해 스크램블된 비트 시퀀스로 변환될 수 있다. 스크램블에 사용되는 스크램블 시퀀스는 초기화 값에 기반하여 생성되며, 초기화 값은 무선 기기의 ID 정보 등이 포함될 수 있다. 스크램블된 비트 시퀀스는 변조기(320)에 의해 변조 심볼 시퀀스로 변조될 수 있다. 변조 방식은 pi/2-BPSK(pi/2-binary phase shift keying), m-PSK(m-phase shift keying), m-QAM(m-quadrature amplitude modulation) 등을 포함할 수 있다. The codeword may be converted into a radio signal through the signal processing circuit 300 of FIG. 3 . Here, a codeword is an encoded bit sequence of an information block. Information blocks may include transport blocks (eg, UL-SCH transport blocks, DL-SCH transport blocks). The radio signal may be transmitted through various physical channels (eg, PUSCH, PDSCH) of FIG. 6 . Specifically, the codeword may be converted into a scrambled bit sequence by the scrambler 310. A scramble sequence used for scrambling is generated based on an initialization value, and the initialization value may include ID information of a wireless device. The scrambled bit sequence may be modulated into a modulation symbol sequence by modulator 320. The modulation method may include pi/2-binary phase shift keying (pi/2-BPSK), m-phase shift keying (m-PSK), m-quadrature amplitude modulation (m-QAM), and the like.
복소 변조 심볼 시퀀스는 레이어 매퍼(330)에 의해 하나 이상의 전송 레이어로 매핑될 수 있다. 각 전송 레이어의 변조 심볼들은 프리코더(340)에 의해 해당 안테나 포트(들)로 매핑될 수 있다(프리코딩). 프리코더(340)의 출력 z는 레이어 매퍼(330)의 출력 y를 N*M의 프리코딩 행렬 W와 곱해 얻을 수 있다. 여기서, N은 안테나 포트의 개수, M은 전송 레이어의 개수이다. 여기서, 프리코더(340)는 복소 변조 심볼들에 대한 트랜스폼(transform) 프리코딩(예, DFT(discrete fourier transform) 변환)을 수행한 이후에 프리코딩을 수행할 수 있다. 또한, 프리코더(340)는 트랜스폼 프리코딩을 수행하지 않고 프리코딩을 수행할 수 있다.The complex modulation symbol sequence may be mapped to one or more transport layers by the layer mapper 330. Modulation symbols of each transport layer may be mapped to corresponding antenna port(s) by the precoder 340 (precoding). The output z of the precoder 340 can be obtained by multiplying the output y of the layer mapper 330 by the N*M precoding matrix W. Here, N is the number of antenna ports and M is the number of transport layers. Here, the precoder 340 may perform precoding after transform precoding (eg, discrete fourier transform (DFT)) on complex modulation symbols. Also, the precoder 340 may perform precoding without performing transform precoding.
자원 매퍼(350)는 각 안테나 포트의 변조 심볼들을 시간-주파수 자원에 매핑할 수 있다. 시간-주파수 자원은 시간 도메인에서 복수의 심볼(예, CP-OFDMA 심볼, DFT-s-OFDMA 심볼)을 포함하고, 주파수 도메인에서 복수의 부반송파를 포함할 수 있다. 신호 생성기(360)는 매핑된 변조 심볼들로부터 무선 신호를 생성하며, 생성된 무선 신호는 각 안테나를 통해 다른 기기로 전송될 수 있다. 이를 위해, 신호 생성기(360)는 IFFT(inverse fast fourier transform) 모듈 및 CP(cyclic prefix) 삽입기, DAC(digital-to-analog converter), 주파수 상향 변환기(frequency uplink converter) 등을 포함할 수 있다.The resource mapper 350 may map modulation symbols of each antenna port to time-frequency resources. The time-frequency resource may include a plurality of symbols (eg, CP-OFDMA symbols and DFT-s-OFDMA symbols) in the time domain and a plurality of subcarriers in the frequency domain. The signal generator 360 generates a radio signal from the mapped modulation symbols, and the generated radio signal can be transmitted to other devices through each antenna. To this end, the signal generator 360 may include an inverse fast fourier transform (IFFT) module, a cyclic prefix (CP) inserter, a digital-to-analog converter (DAC), a frequency uplink converter, and the like. .
무선 기기에서 수신 신호를 위한 신호 처리 과정은 도 3의 신호 처리 과정(310~360)의 역으로 구성될 수 있다. 일 예로, 무선 기기(예, 도 2의 200a, 200b)는 안테나 포트/송수신기를 통해 외부로부터 무선 신호를 수신할 수 있다. 수신된 무선 신호는 신호 복원기를 통해 베이스밴드 신호로 변환될 수 있다. 이를 위해, 신호 복원기는 주파수 하향 변환기(frequency downlink converter), ADC(analog-to-digital converter), CP 제거기, FFT(fast fourier transform) 모듈을 포함할 수 있다. 이후, 베이스밴드 신호는 자원 디-매퍼 과정, 포스트코딩(postcoding) 과정, 복조 과정 및 디-스크램블 과정을 거쳐 코드워드로 복원될 수 있다. 코드워드는 복호(decoding)를 거쳐 원래의 정보블록으로 복원될 수 있다. 따라서, 수신 신호를 위한 신호 처리 회로(미도시)는 신호 복원기, 자원 디-매퍼, 포스트코더, 복조기, 디-스크램블러 및 복호기를 포함할 수 있다.The signal processing process for the received signal in the wireless device may be configured in reverse to the signal processing process 310 to 360 of FIG. 3 . For example, a wireless device (eg, 200a and 200b of FIG. 2 ) may receive a wireless signal from the outside through an antenna port/transceiver. The received radio signal may be converted into a baseband signal through a signal restorer. To this end, the signal restorer may include a frequency downlink converter, an analog-to-digital converter (ADC), a CP remover, and a fast fourier transform (FFT) module. Thereafter, the baseband signal may be restored to a codeword through a resource de-mapper process, a postcoding process, a demodulation process, and a de-scramble process. The codeword may be restored to an original information block through decoding. Accordingly, a signal processing circuit (not shown) for a received signal may include a signal restorer, a resource demapper, a postcoder, a demodulator, a descrambler, and a decoder.
본 명세서에 적용 가능한 무선 기기 구조Wireless device structure applicable to this specification
도 4는 본 명세서에 적용되는 무선 기기의 다른 예시를 도시한 도면이다.4 is a diagram illustrating another example of a wireless device applied to the present specification.
도 4를 참조하면, 무선 기기(400)는 도 2의 무선 기기(200a, 200b)에 대응하며, 다양한 요소(element), 성분(component), 유닛/부(unit), 및/또는 모듈(module)로 구성될 수 있다. 예를 들어, 무선 기기(400)는 통신부(410), 제어부(420), 메모리부(430) 및 추가 요소(440)를 포함할 수 있다. 통신부는 통신 회로(412) 및 송수신기(들)(414)을 포함할 수 있다. 예를 들어, 통신 회로(412)는 도 2의 하나 이상의 프로세서(202a, 202b) 및/또는 하나 이상의 메모리(204a, 204b)를 포함할 수 있다. 예를 들어, 송수신기(들)(414)는 도 2의 하나 이상의 송수신기(206a, 206b) 및/또는 하나 이상의 안테나(208a, 208b)을 포함할 수 있다. 제어부(420)는 통신부(410), 메모리부(430) 및 추가 요소(440)와 전기적으로 연결되며 무선 기기의 제반 동작을 제어한다. 예를 들어, 제어부(420)는 메모리부(430)에 저장된 프로그램/코드/명령/정보에 기반하여 무선 기기의 전기적/기계적 동작을 제어할 수 있다. 또한, 제어부(420)는 메모리부(430)에 저장된 정보를 통신부(410)을 통해 외부(예, 다른 통신 기기)로 무선/유선 인터페이스를 통해 전송하거나, 통신부(410)를 통해 외부(예, 다른 통신 기기)로부터 무선/유선 인터페이스를 통해 수신된 정보를 메모리부(430)에 저장할 수 있다.Referring to FIG. 4, a wireless device 400 corresponds to the wireless devices 200a and 200b of FIG. 2, and includes various elements, components, units/units, and/or modules. ) can be configured. For example, the wireless device 400 may include a communication unit 410, a control unit 420, a memory unit 430, and an additional element 440. The communication unit may include communication circuitry 412 and transceiver(s) 414 . For example, communication circuitry 412 may include one or more processors 202a, 202b of FIG. 2 and/or one or more memories 204a, 204b. For example, transceiver(s) 414 may include one or more transceivers 206a, 206b of FIG. 2 and/or one or more antennas 208a, 208b. The control unit 420 is electrically connected to the communication unit 410, the memory unit 430, and the additional element 440 and controls overall operations of the wireless device. For example, the controller 420 may control electrical/mechanical operations of the wireless device based on programs/codes/commands/information stored in the memory 430 . In addition, the control unit 420 transmits the information stored in the memory unit 430 to the outside (eg, another communication device) through the communication unit 410 through a wireless/wired interface, or transmits the information stored in the memory unit 430 to the outside (eg, another communication device) through the communication unit 410. Information received through a wireless/wired interface from other communication devices) may be stored in the memory unit 430 .
추가 요소(440)는 무선 기기의 종류에 따라 다양하게 구성될 수 있다. 예를 들어, 추가 요소(440)는 파워 유닛/배터리, 입출력부(input/output unit), 구동부 및 컴퓨팅부 중 적어도 하나를 포함할 수 있다. 이로 제한되는 것은 아니지만, 무선 기기(400)는 로봇(도 1, 100a), 차량(도 1, 100b-1, 100b-2), XR 기기(도 1, 100c), 휴대 기기(도 1, 100d), 가전(도 1, 100e), IoT 기기(도 1, 100f), 디지털 방송용 단말, 홀로그램 장치, 공공 안전 장치, MTC 장치, 의료 장치, 핀테크 장치(또는 금융 장치), 보안 장치, 기후/환경 장치, AI 서버/기기(도 1, 140), 기지국(도 1, 120), 네트워크 노드 등의 형태로 구현될 수 있다. 무선 기기는 사용-예/서비스에 따라 이동 가능하거나 고정된 장소에서 사용될 수 있다.The additional element 440 may be configured in various ways according to the type of wireless device. For example, the additional element 440 may include at least one of a power unit/battery, an input/output unit, a driving unit, and a computing unit. Although not limited thereto, the wireless device 400 may be a robot (FIG. 1, 100a), a vehicle (FIG. 1, 100b-1, 100b-2), an XR device (FIG. 1, 100c), a mobile device (FIG. 1, 100d) ), home appliances (FIG. 1, 100e), IoT devices (FIG. 1, 100f), digital broadcasting terminals, hologram devices, public safety devices, MTC devices, medical devices, fintech devices (or financial devices), security devices, climate/ It may be implemented in the form of an environment device, an AI server/device (FIG. 1, 140), a base station (FIG. 1, 120), a network node, and the like. Wireless devices can be mobile or used in a fixed location depending on the use-case/service.
도 4에서 무선 기기(400) 내의 다양한 요소, 성분, 유닛/부, 및/또는 모듈은 전체가 유선 인터페이스를 통해 상호 연결되거나, 적어도 일부가 통신부(410)를 통해 무선으로 연결될 수 있다. 예를 들어, 무선 기기(400) 내에서 제어부(420)와 통신부(410)는 유선으로 연결되며, 제어부(420)와 제1 유닛(예, 430, 440)은 통신부(410)를 통해 무선으로 연결될 수 있다. 또한, 무선 기기(400) 내의 각 요소, 성분, 유닛/부, 및/또는 모듈은 하나 이상의 요소를 더 포함할 수 있다. 예를 들어, 제어부(420)는 하나 이상의 프로세서 집합으로 구성될 수 있다. 예를 들어, 제어부(420)는 통신 제어 프로세서, 어플리케이션 프로세서(application processor), ECU(electronic control unit), 그래픽 처리 프로세서, 메모리 제어 프로세서 등의 집합으로 구성될 수 있다. 다른 예로, 메모리부(430)는 RAM, DRAM(dynamic RAM), ROM, 플래시 메모리(flash memory), 휘발성 메모리(volatile memory), 비-휘발성 메모리(non-volatile memory) 및/또는 이들의 조합으로 구성될 수 있다.In FIG. 4 , various elements, components, units/units, and/or modules in the wireless device 400 may be entirely interconnected through a wired interface or at least partially connected wirelessly through the communication unit 410 . For example, in the wireless device 400, the control unit 420 and the communication unit 410 are connected by wire, and the control unit 420 and the first units (eg, 430 and 440) are connected wirelessly through the communication unit 410. can be connected Additionally, each element, component, unit/unit, and/or module within wireless device 400 may further include one or more elements. For example, the control unit 420 may be composed of one or more processor sets. For example, the controller 420 may include a set of a communication control processor, an application processor, an electronic control unit (ECU), a graphic processing processor, a memory control processor, and the like. As another example, the memory unit 430 may include RAM, dynamic RAM (DRAM), ROM, flash memory, volatile memory, non-volatile memory, and/or combinations thereof. can be configured.
본 명세서가 적용 가능한 휴대 기기Mobile device to which this specification is applicable
도 5는 본 명세서에 적용되는 휴대 기기의 예시를 도시한 도면이다.5 is a diagram illustrating an example of a portable device applied to the present specification.
도 5는 본 명세서에 적용되는 휴대 기기를 예시한다. 휴대 기기는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트 워치, 스마트 글래스), 휴대용 컴퓨터(예, 노트북 등)을 포함할 수 있다. 휴대 기기는 MS(mobile station), UT(user terminal), MSS(mobile subscriber station), SS(subscriber station), AMS(advanced mobile station) 또는 WT(wireless terminal)로 지칭될 수 있다.5 illustrates a portable device applied to this specification. A portable device may include a smart phone, a smart pad, a wearable device (eg, smart watch, smart glasses), and a portable computer (eg, a laptop computer). A mobile device may be referred to as a mobile station (MS), a user terminal (UT), a mobile subscriber station (MSS), a subscriber station (SS), an advanced mobile station (AMS), or a wireless terminal (WT).
도 5를 참조하면, 휴대 기기(500)는 안테나부(508), 통신부(510), 제어부(520), 메모리부(530), 전원공급부(540a), 인터페이스부(540b) 및 입출력부(540c)를 포함할 수 있다. 안테나부(508)는 통신부(510)의 일부로 구성될 수 있다. 블록 510~530/540a~540c는 각각 도 4의 블록 410~430/440에 대응한다.Referring to FIG. 5 , a portable device 500 includes an antenna unit 508, a communication unit 510, a control unit 520, a memory unit 530, a power supply unit 540a, an interface unit 540b, and an input/output unit 540c. ) may be included. The antenna unit 508 may be configured as part of the communication unit 510 . Blocks 510 to 530/540a to 540c respectively correspond to blocks 410 to 430/440 of FIG. 4 .
통신부(510)는 다른 무선 기기, 기지국들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(520)는 휴대 기기(500)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(520)는 AP(application processor)를 포함할 수 있다. 메모리부(530)는 휴대 기기(500)의 구동에 필요한 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 또한, 메모리부(530)는 입/출력되는 데이터/정보 등을 저장할 수 있다. 전원공급부(540a)는 휴대 기기(500)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다. 인터페이스부(540b)는 휴대 기기(500)와 다른 외부 기기의 연결을 지원할 수 있다. 인터페이스부(540b)는 외부 기기와의 연결을 위한 다양한 포트(예, 오디오 입/출력 포트, 비디오 입/출력 포트)를 포함할 수 있다. 입출력부(540c)는 영상 정보/신호, 오디오 정보/신호, 데이터, 및/또는 사용자로부터 입력되는 정보를 입력 받거나 출력할 수 있다. 입출력부(540c)는 카메라, 마이크로폰, 사용자 입력부, 디스플레이부(540d), 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다.The communication unit 510 may transmit/receive signals (eg, data, control signals, etc.) with other wireless devices and base stations. The controller 520 may perform various operations by controlling components of the portable device 500 . The controller 520 may include an application processor (AP). The memory unit 530 may store data/parameters/programs/codes/commands necessary for driving the portable device 500 . Also, the memory unit 530 may store input/output data/information. The power supply unit 540a supplies power to the portable device 500 and may include a wired/wireless charging circuit, a battery, and the like. The interface unit 540b may support connection between the portable device 500 and other external devices. The interface unit 540b may include various ports (eg, audio input/output ports and video input/output ports) for connection with external devices. The input/output unit 540c may receive or output image information/signal, audio information/signal, data, and/or information input from a user. The input/output unit 540c may include a camera, a microphone, a user input unit, a display unit 540d, a speaker, and/or a haptic module.
일 예로, 데이터 통신의 경우, 입출력부(540c)는 사용자로부터 입력된 정보/신호(예, 터치, 문자, 음성, 이미지, 비디오)를 획득하며, 획득된 정보/신호는 메모리부(530)에 저장될 수 있다. 통신부(510)는 메모리에 저장된 정보/신호를 무선 신호로 변환하고, 변환된 무선 신호를 다른 무선 기기에게 직접 전송하거나 기지국에게 전송할 수 있다. 또한, 통신부(510)는 다른 무선 기기 또는 기지국으로부터 무선 신호를 수신한 뒤, 수신된 무선 신호를 원래의 정보/신호로 복원할 수 있다. 복원된 정보/신호는 메모리부(530)에 저장된 뒤, 입출력부(540c)를 통해 다양한 형태(예, 문자, 음성, 이미지, 비디오, 햅틱)로 출력될 수 있다. For example, in the case of data communication, the input/output unit 540c acquires information/signals (eg, touch, text, voice, image, video) input from the user, and the acquired information/signals are stored in the memory unit 530. can be stored The communication unit 510 may convert the information/signal stored in the memory into a wireless signal, and directly transmit the converted wireless signal to another wireless device or to a base station. In addition, the communication unit 510 may receive a radio signal from another wireless device or a base station and then restore the received radio signal to original information/signal. After the restored information/signal is stored in the memory unit 530, it may be output in various forms (eg, text, voice, image, video, or haptic) through the input/output unit 540c.
물리 채널들 및 일반적인 신호 전송Physical channels and general signal transmission
무선 접속 시스템에서 단말은 하향링크(downlink, DL)를 통해 기지국으로부터 정보를 수신하고, 상향링크(uplink, UL)를 통해 기지국으로 정보를 전송할 수 있다. 기지국과 단말이 송수신하는 정보는 일반 데이터 정보 및 다양한 제어 정보를 포함하고, 이들이 송수신 하는 정보의 종류/용도에 따라 다양한 물리 채널이 존재한다.In a wireless access system, a terminal may receive information from a base station through downlink (DL) and transmit information to the base station through uplink (UL). Information transmitted and received between the base station and the terminal includes general data information and various control information, and there are various physical channels according to the type/use of the information transmitted and received by the base station and the terminal.
도 6은 본 명세서에 적용되는 물리 채널들 및 이들을 이용한 신호 전송 방법을 도시한 도면이다.6 is a diagram illustrating physical channels applied to this specification and a signal transmission method using them.
전원이 꺼진 상태에서 다시 전원이 켜지거나, 새로이 셀에 진입한 단말은 S611 단계에서 기지국과 동기를 맞추는 등의 초기 셀 탐색(initial cell search) 작업을 수행한다. 이를 위해 단말은 기지국으로부터 주 동기 채널(primary synchronization channel, P-SCH) 및 부 동기 채널(secondary synchronization channel, S-SCH)을 수신하여 기지국과 동기를 맞추고, 셀 ID 등의 정보를 획득할 수 있다. In a state in which the power is turned off, the power is turned on again or the terminal that newly enters the cell performs an initial cell search operation such as synchronizing with the base station in step S611. To this end, the terminal may receive a primary synchronization channel (P-SCH) and a secondary synchronization channel (S-SCH) from the base station to synchronize with the base station and obtain information such as a cell ID. .
그 후, 단말은 기지국으로부터 물리 방송 채널(physical broadcast channel, PBCH) 신호를 수신하여 셀 내 방송 정보를 획득할 수 있다. 한편, 단말은 초기 셀 탐색 단계에서 하향링크 참조 신호 (DL RS: Downlink Reference Signal)를 수신하여 하향링크 채널 상태를 확인할 수 있다. 초기 셀 탐색을 마친 단말은 S612 단계에서 물리 하향링크 제어 채널(physical downlink control channel, PDCCH) 및 물리 하향링크 제어 채널 정보에 따른 물리 하향링크 공유 채널(physical downlink control channel, PDSCH)을 수신하여 조금 더 구체적인 시스템 정보를 획득할 수 있다. Thereafter, the terminal may acquire intra-cell broadcast information by receiving a physical broadcast channel (PBCH) signal from the base station. Meanwhile, the terminal may check the downlink channel state by receiving a downlink reference signal (DL RS) in the initial cell search step. After completing the initial cell search, the UE receives a physical downlink control channel (PDCCH) and a physical downlink control channel (PDSCH) according to the physical downlink control channel information in step S612, Specific system information can be obtained.
이후, 단말은 기지국에 접속을 완료하기 위해 이후 단계 S613 내지 단계 S616과 같은 임의 접속 과정(random access procedure)을 수행할 수 있다. 이를 위해 단말은 물리 임의 접속 채널(physical random access channel, PRACH)을 통해 프리앰블 (preamble)을 전송하고(S613), 물리 하향링크 제어 채널 및 이에 대응하는 물리 하향링크 공유 채널을 통해 프리앰블에 대한 RAR(random access response)를 수신할 수 있다(S614). 단말은 RAR 내의 스케줄링 정보를 이용하여 PUSCH(physical uplink shared channel)을 전송하고(S615), 물리 하향링크 제어채널 신호 및 이에 대응하는 물리 하향링크 공유 채널 신호의 수신과 같은 충돌 해결 절차(contention resolution procedure)를 수행할 수 있다(S616).Thereafter, the terminal may perform a random access procedure such as steps S613 to S616 in order to complete access to the base station. To this end, the UE transmits a preamble through a physical random access channel (PRACH) (S613), and RAR for the preamble through a physical downlink control channel and a physical downlink shared channel corresponding thereto (S613). random access response) may be received (S614). The UE transmits a physical uplink shared channel (PUSCH) using scheduling information in the RAR (S615), and performs a contention resolution procedure such as receiving a physical downlink control channel signal and a physical downlink shared channel signal corresponding thereto. ) can be performed (S616).
상술한 바와 같은 절차를 수행한 단말은 이후 일반적인 상/하향링크 신호 전송 절차로서 물리 하향링크 제어 채널 신호 및/또는 물리 하향링크 공유 채널 신호의 수신(S617) 및 물리 상향링크 공유 채널(physical uplink shared channel, PUSCH) 신호 및/또는 물리 상향링크 제어 채널(physical uplink control channel, PUCCH) 신호의 전송(S618)을 수행할 수 있다.After performing the procedure as described above, the terminal performs reception of a physical downlink control channel signal and/or a physical downlink shared channel signal as a general uplink/downlink signal transmission procedure (S617) and a physical uplink shared channel (physical uplink shared channel). channel (PUSCH) signal and/or physical uplink control channel (PUCCH) signal may be transmitted (S618).
단말이 기지국으로 전송하는 제어정보를 통칭하여 상향링크 제어정보(uplink control information, UCI)라고 지칭한다. UCI는 HARQ-ACK/NACK(hybrid automatic repeat and request acknowledgement/negative-ACK), SR(scheduling request), CQI(channel quality indication), PMI(precoding matrix indication), RI(rank indication), BI(beam indication) 정보 등을 포함한다. 이때, UCI는 일반적으로 PUCCH를 통해 주기적으로 전송되지만, 실시 예에 따라(예, 제어정보와 트래픽 데이터가 동시에 전송되어야 할 경우) PUSCH를 통해 전송될 수 있다. 또한, 네트워크의 요청/지시에 의해 단말은 PUSCH를 통해 UCI를 비주기적으로 전송할 수 있다.Control information transmitted from the terminal to the base station is collectively referred to as uplink control information (UCI). UCI is HARQ-ACK/NACK (hybrid automatic repeat and request acknowledgment/negative-ACK), SR (scheduling request), CQI (channel quality indication), PMI (precoding matrix indication), RI (rank indication), BI (beam indication) ) information, etc. In this case, UCI is generally transmitted periodically through PUCCH, but may be transmitted through PUSCH according to an embodiment (eg, when control information and traffic data are to be simultaneously transmitted). In addition, the UE may aperiodically transmit UCI through the PUSCH according to a request/instruction of the network.
6G 통신 시스템 6G communication system
6G (무선통신) 시스템은 (i) 디바이스 당 매우 높은 데이터 속도, (ii) 매우 많은 수의 연결된 디바이스들, (iii) 글로벌 연결성(global connectivity), (iv) 매우 낮은 지연, (v) 배터리-프리(battery-free) IoT 디바이스들의 에너지 소비를 낮추고, (vi) 초고신뢰성 연결, (vii) 머신 러닝 능력을 가지는 연결된 지능 등에 목적이 있다. 6G 시스템의 비젼은 "intelligent connectivity", "deep connectivity", "holographic connectivity", "ubiquitous connectivity"와 같은 4가지 측면일 수 있으며, 6G 시스템은 하기 표 1과 같은 요구 사항을 만족시킬 수 있다. 즉, 표 1은 6G 시스템의 요구 사항을 나타낸 표이다.6G (radio communications) systems are characterized by (i) very high data rates per device, (ii) very large number of connected devices, (iii) global connectivity, (iv) very low latency, (v) battery- It aims to lower energy consumption of battery-free IoT devices, (vi) ultra-reliable connectivity, and (vii) connected intelligence with machine learning capabilities. The vision of the 6G system can be four aspects such as "intelligent connectivity", "deep connectivity", "holographic connectivity", and "ubiquitous connectivity", and the 6G system can satisfy the requirements shown in Table 1 below. That is, Table 1 is a table showing the requirements of the 6G system.
Figure PCTKR2021014691-appb-img-000001
Figure PCTKR2021014691-appb-img-000001
이때, 6G 시스템은 향상된 모바일 브로드밴드(enhanced mobile broadband, eMBB), 초-저지연 통신(ultra-reliable low latency communications, URLLC), mMTC (massive machine type communications), AI 통합 통신(AI integrated communication), 촉각 인터넷(tactile internet), 높은 스루풋(high throughput), 높은 네트워크 능력(high network capacity), 높은 에너지 효율(high energy efficiency), 낮은 백홀 및 접근 네트워크 혼잡(low backhaul and access network congestion) 및 향상된 데이터 보안(enhanced data security)과 같은 핵심 요소(key factor)들을 가질 수 있다.At this time, the 6G system is enhanced mobile broadband (eMBB), ultra-reliable low latency communications (URLLC), mMTC (massive machine type communications), AI integrated communication, tactile Internet (tactile internet), high throughput, high network capacity, high energy efficiency, low backhaul and access network congestion and improved data security ( can have key factors such as enhanced data security.
6G 시스템의 핵심 구현 기술Core implementation technology of 6G system
인공 지능(Artificial Intelligence)Artificial Intelligence
6G 시스템에 가장 중요하며, 새로 도입될 기술은 AI이다. 4G 시스템에는 AI가 관여하지 않았다. 5G 시스템은 부분 또는 매우 제한된 AI를 지원할 것이다. 그러나, 6G 시스템은 완전히 자동화를 위해 AI가 지원될 것이다. 머신 러닝의 발전은 6G에서 실시간 통신을 위해 보다 지능적인 네트워크를 만들 것이다. 통신에 AI를 도입하면 실시간 데이터 전송이 간소화되고 향상될 수 있다. AI는 수많은 분석을 사용하여 복잡한 대상 작업이 수행되는 방식을 결정할 수 있다. 즉, AI는 효율성을 높이고 처리 지연을 줄일 수 있다.The most important and newly introduced technology for the 6G system is AI. AI was not involved in the 4G system. 5G systems will support partial or very limited AI. However, the 6G system will be AI-enabled for full automation. Advances in machine learning will create more intelligent networks for real-time communication in 6G. Introducing AI in communications can simplify and enhance real-time data transmission. AI can use a plethora of analytics to determine how complex target tasks are performed. In other words, AI can increase efficiency and reduce processing delays.
핸드 오버, 네트워크 선택, 자원 스케쥴링과 같은 시간 소모적인 작업은 AI를 사용함으로써 즉시 수행될 수 있다. AI는 M2M, 기계-대-인간 및 인간-대-기계 통신에서도 중요한 역할을 할 수 있다. 또한, AI는 BCI(Brain Computer Interface)에서 신속한 통신이 될 수 있다. AI 기반 통신 시스템은 메타 물질, 지능형 구조, 지능형 네트워크, 지능형 장치, 지능형 인지 라디오(radio), 자체 유지 무선 네트워크 및 머신 러닝에 의해 지원될 수 있다.Time-consuming tasks such as handover, network selection, and resource scheduling can be performed instantly by using AI. AI can also play an important role in machine-to-machine, machine-to-human and human-to-machine communications. In addition, AI can be a rapid communication in BCI (Brain Computer Interface). AI-based communication systems can be supported by metamaterials, intelligent structures, intelligent networks, intelligent devices, intelligent cognitive radios, self-sustaining wireless networks, and machine learning.
최근에는 AI를 무선 통신 시스템과 통합하려고 하는 시도들이 나타나고 있으나, 이는 application layer, network layer 특히, 딥러닝을 wireless resource management and allocation 분야에 집중되어 왔다. 그러나, 이러한 연구는 점점 MAC layer 와 Physical layer로 발전하고 있으며, 특히 물리계층에서 딥러닝을 무선 전송(wireless transmission)과 결합하고자 하는 시도들이 나타나고 있다. AI 기반의 물리계층 전송은, 근본적인 신호 처리 및 통신 메커니즘에 있어서, 전통적인 통신 프레임워크가 아니라 AI 드라이버에 기초한 신호 처리 및 통신 메커니즘을 적용하는 것을 의미한다. 예를 들어, 딥러닝 기반의 채널 코딩 및 디코딩(channel coding and decoding), 딥러닝 기반의 신호 추정(estimation) 및 검출(detection), 딥러닝 기반의 MIMO mechanism, AI 기반의 자원 스케줄링(scheduling) 및 할당(allocation) 등을 포함할 수 있다.Recently, there have been attempts to integrate AI with wireless communication systems, but these have been focused on the application layer and network layer, especially deep learning in the field of wireless resource management and allocation. However, these studies are gradually developing into the MAC layer and the physical layer, and in particular, attempts to combine deep learning with wireless transmission are appearing in the physical layer. AI-based physical layer transmission means applying a signal processing and communication mechanism based on an AI driver rather than a traditional communication framework in fundamental signal processing and communication mechanisms. For example, deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO mechanism, AI-based resource scheduling and may include allocations, etc.
머신 러닝은 채널 추정 및 채널 트래킹을 위해 사용될 수 있으며, DL(downlink)의 물리 계층(physical layer)에서 전력 할당(power allocation), 간섭 제거 (interference cancellation) 등에 사용될 수 있다. 또한, 머신 러닝은 MIMO 시스템에서 안테나 선택, 전력 제어(power control), 심볼 검출(symbol detection) 등에도 사용될 수 있다.Machine learning may be used for channel estimation and channel tracking, and may be used for power allocation, interference cancellation, and the like in a downlink (DL) physical layer. Machine learning can also be used for antenna selection, power control, symbol detection, and the like in a MIMO system.
그러나 물리계층에서의 전송을 위한 DNN의 적용은 아래와 같은 문제점이 있을 수 있다.However, the application of DNN for transmission in the physical layer may have the following problems.
딥러닝 기반의 AI 알고리즘은 훈련 파라미터를 최적화하기 위해 수많은 훈련 데이터가 필요하다. 그러나 특정 채널 환경에서의 데이터를 훈련 데이터로 획득하는데 있어서의 한계로 인해, 오프라인 상에서 많은 훈련 데이터를 사용한다. 이는 특정 채널 환경에서 훈련 데이터에 대한 정적 훈련(static training)은, 무선 채널의 동적 특성 및 다이버시티(diversity) 사이에 모순(contradiction)이 생길 수 있다.AI algorithms based on deep learning require a lot of training data to optimize training parameters. However, due to limitations in acquiring data in a specific channel environment as training data, a lot of training data is used offline. This is because static training on training data in a specific channel environment may cause a contradiction between dynamic characteristics and diversity of a radio channel.
또한, 현재 딥러닝은 주로 실제 신호(real signal)을 대상으로 한다. 그러나, 무선 통신의 물리 계층의 신호들은 복소 신호(complex signal)이다. 무선 통신 신호의 특성을 매칭시키기 위해 복소 도메인 신호의 검출하는 신경망(neural network)에 대한 연구가 더 필요하다.In addition, current deep learning mainly targets real signals. However, the signals of the physical layer of wireless communication are complex signals. In order to match the characteristics of wireless communication signals, further research on a neural network for detecting complex domain signals is needed.
이하, 머신 러닝에 대해 보다 구체적으로 살펴본다.Hereinafter, machine learning will be described in more detail.
머신 러닝은 사람이 할 수 있거나 혹은 하기 어려운 작업을 대신해낼 수 있는 기계를 만들어내기 위해 기계를 학습시키는 일련의 동작을 의미한다. 머신 러닝을 위해서는 데이터와 러닝 모델이 필요하다. 머신 러닝에서 데이터의 학습 방법은 크게 3가지 즉, 지도 학습(supervised learning), 비지도 학습(unsupervised learning) 그리고 강화 학습(reinforcement learning)으로 구분될 수 있다.Machine learning refers to a set of actions that train a machine to create a machine that can do tasks that humans can or cannot do. Machine learning requires data and a running model. In machine learning, data learning methods can be largely classified into three types: supervised learning, unsupervised learning, and reinforcement learning.
신경망 학습은 출력의 오류를 최소화하기 위한 것이다. 신경망 학습은 반복적으로 학습 데이터를 신경망에 입력시키고 학습 데이터에 대한 신경망의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 신경망의 에러를 신경망의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation) 하여 신경망의 각 노드의 가중치를 업데이트하는 과정이다.Neural network training is aimed at minimizing errors in the output. Neural network learning repeatedly inputs training data to the neural network, calculates the output of the neural network for the training data and the error of the target, and backpropagates the error of the neural network from the output layer of the neural network to the input layer in a direction to reduce the error. ) to update the weight of each node in the neural network.
지도 학습은 학습 데이터에 정답이 라벨링된 학습 데이터를 사용하며 비지도 학습은 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 지도 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링된 데이터 일 수 있다. 라벨링된 학습 데이터가 신경망에 입력되고 신경망의 출력(카테고리)과 학습 데이터의 라벨을 비교하여 오차(error)가 계산될 수 있다. 계산된 오차는 신경망에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 신경망의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learing rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 신경망의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 신경망의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 신경망의 학습 초기에는 높은 학습률을 사용하여 신경망이 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다Supervised learning uses training data in which correct answers are labeled in the learning data, and unsupervised learning may not have correct answers labeled in the learning data. That is, for example, learning data in the case of supervised learning related to data classification may be data in which each learning data is labeled with a category. Labeled training data is input to the neural network, and an error may be calculated by comparing the output (category) of the neural network and the label of the training data. The calculated error is back-propagated in a reverse direction (ie, from the output layer to the input layer) in the neural network, and the connection weight of each node of each layer of the neural network may be updated according to the back-propagation. The amount of change in the connection weight of each updated node may be determined according to a learning rate. The neural network's computation of input data and backpropagation of errors can constitute a learning cycle (epoch). The learning rate may be applied differently according to the number of iterations of the learning cycle of the neural network. For example, a high learning rate is used in the early stages of neural network learning to increase efficiency by allowing the neural network to quickly achieve a certain level of performance, and a low learning rate can be used in the late stage to increase accuracy.
데이터의 특징에 따라 학습 방법은 달라질 수 있다. 예를 들어, 통신 시스템 상에서 송신단에서 전송한 데이터를 수신단에서 정확하게 예측하는 것을 목적으로 하는 경우, 비지도 학습 또는 강화 학습 보다는 지도 학습을 이용하여 학습을 수행하는 것이 바람직하다.The learning method may vary depending on the characteristics of the data. For example, in a case where the purpose of the receiver is to accurately predict data transmitted by the transmitter in a communication system, it is preferable to perform learning using supervised learning rather than unsupervised learning or reinforcement learning.
러닝 모델은 인간의 뇌에 해당하는 것으로서, 가장 기본적인 선형 모델을 생각할 수 있으나, 인공 신경망(artificial neural networks)와 같은 복잡성이 높은 신경망 구조를 러닝 모델로 사용하는 머신 러닝의 패러다임을 딥러닝(deep learning)이라 한다.The learning model corresponds to the human brain, and the most basic linear model can be considered. ) is called
학습(learning) 방식으로 사용하는 신경망 코어(neural network cord)는 크게 심층 신경망(DNN, deep neural networks), 합성곱 신경망(CNN, convolutional deep neural networks), 순환 신경망(RNN, Recurrent Boltzmann Machine) 방식이 있다.The neural network cord used as a learning method is largely divided into deep neural networks (DNN), convolutional deep neural networks (CNN), and recurrent Boltzmann Machine (RNN). there is.
인공 신경망(artificial neural network)은 여러 개의 퍼셉트론을 연결한 예시이다.An artificial neural network is an example of connecting several perceptrons.
도 7을 참조하면, 입력 벡터 x=(x1,x2,...,xd) 가 입력되면 각 성분에 가중치(W1,W2,...,Wd)를 곱하고, 그 결과를 모두 합산한 후, 활성함수 σ() 를 적용하는 전체 과정을 퍼셉트론(perceptron)이라 한다. 거대한 인공 신경망 구조는 도 7에 도시한 단순화된 퍼셉트론 구조를 확장하여 입력벡터를 서로 다른 다 차원의 퍼셉트론에 적용할 수도 있다. 설명의 편의를 위해 입력값 또는 출력값을 노드(node)라 칭한다.Referring to FIG. 7, when the input vector x=(x1,x2,...,xd) is input, each component is multiplied by a weight (W1,W2,...,Wd), and after summing up the results, The entire process of applying the activation function σ() is called a perceptron. The huge artificial neural network structure may extend the simplified perceptron structure shown in FIG. 7 and apply input vectors to different multi-dimensional perceptrons. For convenience of description, an input value or an output value is referred to as a node.
한편, 도 7에 도시된 퍼셉트론 구조는 입력값, 출력값을 기준으로 총 3개의 층(layer)로 구성되는 것으로 설명할 수 있다. 1st layer와 2nd layer 사이에는 (d+1) 차원의 퍼셉트론 H개, 2nd layer와 3rd layer 사이에는 (H+1)차원 퍼셉트론이 K 개 존재하는 인공신경망을 도 8와 같이 표현할 수 있다. Meanwhile, the perceptron structure shown in FIG. 7 can be described as being composed of a total of three layers based on input values and output values. An artificial neural network in which H number of (d + 1) dimensional perceptrons exist between the 1st layer and the 2nd layer and K number of (H + 1) dimensional perceptrons between the 2nd layer and the 3rd layer can be expressed as shown in FIG. 8 .
입력벡터가 위치하는 층을 입력층(input layer), 최종 출력값이 위치하는 층을 출력층(output layer), 입력층과 출력층 사이에 위치하는 모든 층을 은닉층(hidden layer)라 한다. 도 8의 예시는 3개의 층이 개시되나, 실제 인공신경망 층의 개수를 카운트할 때는 입력층을 제외하고 카운트하므로 총 2개의 층으로 볼 수 있다. 인공신경망은 기본 블록의 퍼셉트론을 2차원적으로 연결되어 구성된다.The layer where the input vector is located is called the input layer, the layer where the final output value is located is called the output layer, and all the layers located between the input layer and the output layer are called hidden layers. In the example of FIG. 8 , three layers are disclosed, but when counting the number of layers of an actual artificial neural network, the number of layers is counted excluding the input layer, so a total of two layers can be considered. The artificial neural network is composed of two-dimensionally connected perceptrons of basic blocks.
전술한 입력층, 은닉층, 출력층은 다층 퍼셉트론 뿐 아니라 후술할 CNN, RNN 등 다양한 인공신경망 구조에서 공동적으로 적용될 수 있다. 은닉층의 개수가 많아질수록 인공신경망이 깊어진 것이며, 충분히 깊어진 인공신경망을 러닝모델로 사용하는 머신러닝 패러다임을 딥러닝(Deep Learning)이라 한다. 또한 딥러닝을 위해 사용하는 인공신경망을 심층 신경망(DNN: Deep neural network)라 한다.The above-described input layer, hidden layer, and output layer can be jointly applied to various artificial neural network structures such as CNN and RNN, which will be described later, as well as multi-layer perceptrons. As the number of hidden layers increases, the artificial neural network becomes deeper, and a machine learning paradigm that uses a sufficiently deep artificial neural network as a learning model is called deep learning. In addition, the artificial neural network used for deep learning is called a deep neural network (DNN).
도 9에 도시된 심층 신경망은 은닉층+출력층이 8개로 구성된 다층 퍼셉트론이다. 상기 다층 퍼셉트론 구조를 완전 연결 신경망(fully-connected neural network)이라 표현한다. 완전 연결 신경망은 서로 같은 층에 위치하는 노드 간에는 연결 관계가 존재하지 않으며, 인접한 층에 위치한 노드들 간에만 연결 관계가 존재한다. DNN은 완전 연결 신경망 구조를 가지고 다수의 은닉층과 활성함수들의 조합으로 구성되어 입력과 출력 사이의 상관관계 특성을 파악하는데 유용하게 적용될 수 있다. 여기서 상관관계 특성은 입출력의 결합확률(joint probability)을 의미할 수 있다. 도 9는 심층 신경망 예시를 나타낸 도이다.The deep neural network shown in FIG. 9 is a multi-layer perceptron composed of 8 hidden layers + 8 output layers. The multilayer perceptron structure is expressed as a fully-connected neural network. In a fully-connected neural network, there is no connection relationship between nodes located on the same layer, and a connection relationship exists only between nodes located on adjacent layers. DNN has a fully-connected neural network structure and is composed of a combination of multiple hidden layers and activation functions, so it can be usefully applied to identify the correlation characteristics between inputs and outputs. Here, the correlation characteristic may mean a joint probability of input and output. 9 is a diagram illustrating an example of a deep neural network.
한편, 복수의 퍼셉트론을 서로 어떻게 연결하느냐에 따라 전술한 DNN과 다른 다양한 인공 신경망 구조를 형성할 수 있다. On the other hand, depending on how a plurality of perceptrons are connected to each other, various artificial neural network structures different from the aforementioned DNN can be formed.
DNN은 하나의 층 내부에 위치한 노드들이 1차원적의 세로 방향으로 배치되어 있다. 그러나, 도 10은 노드들이 2차원적으로 가로 w개, 세로 h개의 노드가 배치할 경우를 가정할 수 있다(도 10의 컨볼루션 신경망 구조). 이 경우, 하나의 입력노드에서 은닉층으로 이어지는 연결과정에서 연결 하나당 가중치가 부가되므로 총 h×w 개의 가중치를 고려해야한다. 입력층에 h×w 개의 노드가 존재하므로 인접한 두 층 사이에는 총 h2w2 개의 가중치가 필요하다.In DNN, nodes located inside one layer are arranged in a one-dimensional vertical direction. However, in FIG. 10, it can be assumed that the nodes are two-dimensionally arranged with w nodes horizontally and h nodes vertically (convolutional neural network structure of FIG. 10). In this case, since a weight is added for each connection in the connection process from one input node to the hidden layer, a total of h×w weights must be considered. Since there are h×w nodes in the input layer, a total of h2w2 weights are required between two adjacent layers.
도 10은 컨볼루션 신경망의 일례를 나타낸 도이다.10 is a diagram showing an example of a convolutional neural network.
도 10의 컨볼루션 신경망은 연결개수에 따라 가중치의 개수가 기하급수적으로 증가하는 문제가 있어 인접한 층 간의 모든 모드의 연결을 고려하는 대신, 크기가 작은 필터(filter)가 존재하는 것으로 가정하여 도 10에서와 같이 필터가 겹치는 부분에 대해서는 가중합 및 활성함수 연산을 수행하도록 한다.The convolutional neural network of FIG. 10 has a problem in that the number of weights increases exponentially according to the number of connections, so instead of considering all mode connections between adjacent layers, it is assumed that there is a filter with a small size, and FIG. 10 As shown in , weighted sum and activation function calculations are performed for overlapping filters.
하나의 필터는 그 크기만큼의 개수에 해당하는 가중치를 가지며, 이미지 상의 어느 특정한 특징을 요인으로 추출하여 출력할 수 있도록 가중치의 학습이 이루어질 수 있다. 도 10에서는 3×3 크기의 필터가 입력층의 가장 좌측 상단 3×3 영역에 적용되고, 해당 노드에 대한 가중합 및 활성함수 연산을 수행한 결과 출력값을 z22에 저장한다.One filter has weights corresponding to the number of filters, and learning of weights can be performed so that a specific feature on an image can be extracted as a factor and output. In FIG. 10, a 3×3 filter is applied to a 3×3 area at the top left of the input layer, and an output value obtained by performing a weighted sum and an activation function operation on a corresponding node is stored in z22.
상기 필터는 입력층을 스캔하면서 가로,세로 일정 간격 만큼 이동하면서 가중합 및 활성함수 연산을 수행하고 그 출력값을 현재 필터의 위치에 위치시킨다. 이러한 연산 방식은 컴퓨터 비전(computer vision) 분야에서 이미지에 대한 컨볼루션(convolution) 연산과 유사하여 이러한 구조의 심층 신경망을 컨볼루션 신경망(CNN: convolutional neural network)라 하고, 컨볼루션 연산 결과 생성되는 은닉층을 컨볼루션 층(convolutional layer)라 한다. 또한, 복수의 컨볼루션 층이 존재하는 신경망을 심층 컨볼루션 신경망(DCNN: Deep convolutional)이라 한다.While scanning the input layer, the filter performs weighted sum and activation function calculations while moving horizontally and vertically at regular intervals, and places the output value at the position of the current filter. This operation method is similar to the convolution operation for images in the field of computer vision, so the deep neural network of this structure is called a convolutional neural network (CNN), and the hidden layer generated as a result of the convolution operation is called a convolutional layer. Also, a neural network having a plurality of convolutional layers is referred to as a deep convolutional neural network (DCNN).
도 11은 컨볼루션 신경망에서의 필터 연산의 일례를 나타낸 도이다.11 is a diagram showing an example of a filter operation in a convolutional neural network.
컨볼루션 층에서는 현재 필터가 위치한 노드에서, 상기 필터가 커버하는 영역에 위치한 노드만을 포괄하여 가중합을 계산함으로써, 가중치의 개수를 줄여줄 수 있다. 이로 인해, 하나의 필터가 로컬(local) 영역에 대한 특징에 집중하도록 이용될 수 있다. 이에 따라 CNN은 2차원 영역 상의 물리적 거리가 중요한 판단 기준이 되는 이미지 데이터 처리에 효과적으로 적용될 수 있다. 한편, CNN은 컨볼루션 층의 직전에 복수의 필터가 적용될 수 있으며, 각 필터의 컨볼루션 연산을 통해 복수의 출력 결과를 생성할 수도 있다.In the convolution layer, the number of weights can be reduced by calculating a weighted sum by including only nodes located in a region covered by the filter from the node where the current filter is located. This allows one filter to be used to focus on features for a local area. Accordingly, CNN can be effectively applied to image data processing in which a physical distance in a 2D area is an important criterion. Meanwhile, in the CNN, a plurality of filters may be applied immediately before the convolution layer, and a plurality of output results may be generated through a convolution operation of each filter.
한편, 데이터 속성에 따라 시퀀스(sequence) 특성이 중요한 데이터들이 있을 수 있다. 이러한 시퀀스 데이터들의 길이 가변성, 선후 관계를 고려하여 데이터 시퀀스 상의 원소를 매 시점(timestep) 마다 하나씩 입력하고, 특정 시점에 출력된 은닉층의 출력 벡터(은닉 벡터)를, 시퀀스 상의 바로 다음 원소와 함께 입력하는 방식을 인공 신경망에 적용한 구조를 순환 신경망 구조라 한다.Meanwhile, there may be data whose sequence characteristics are important according to data attributes. Considering the length variability and precedence relationship of these sequence data, input each element on the data sequence one by one at each time step, and input the output vector (hidden vector) of the hidden layer output at a specific time point together with the next element on the sequence A structure in which this method is applied to an artificial neural network is called a recurrent neural network structure.
도 12을 참조하면, 순환 신경망(RNN: recurrent neural netwok)은 데이터 시퀀스 상의 어느 시선 t의 원소 (x1(t), x2(t), ,..., xd(t))를 완전 연결 신경망에 입력하는 과정에서, 바로 이전 시점 t-1은 은닉 벡터 (z1(t-1), z2(t-1),..., zH(t-1))을 함께 입력하여 가중합 및 활성함수를 적용하는 구조이다. 이와 같이 은닉 벡터를 다음 시점으로 전달하는 이유는 앞선 시점들에서의 입력 벡터속 정보들이 현재 시점의 은닉 벡터에 누적된 것으로 간주하기 때문이다.Referring to FIG. 12, a recurrent neural network (RNN) assigns an element (x1(t), x2(t), ,..., xd(t)) of any line t on a data sequence to a fully connected neural network. In the process of inputting, the immediately preceding time point t-1 inputs the hidden vector (z1(t-1), z2(t-1),..., zH(t-1)) together to calculate the weighted sum and activation function structure that is applied. The reason why the hidden vector is transmitted to the next time point in this way is that information in the input vector at previous time points is regarded as being accumulated in the hidden vector of the current time point.
도 12은 순환 루프가 존재하는 신경망 구조의 일례를 나타낸다.12 shows an example of a neural network structure in which a cyclic loop exists.
도 12을 참조하면, 순환 신경망은 입력되는 데이터 시퀀스에 대하여 소정의 시점 순서대로 동작한다.Referring to FIG. 12 , the recurrent neural network operates in a predetermined sequence of views with respect to an input data sequence.
시점 1에서의 입력 벡터 (x1(t), x2(t), ,..., xd(t))가 순환 신경망에 입력되었을 때의 은닉 벡터 (z1(1),z2(1),...,zH(1))가 시점 2의 입력 벡터 (x1(2),x2(2),...,xd(2))와 함께 입력되어 가중합 및 활성 함수를 통해 은닉층의 벡터 (z1(2),z2(2) ,...,zH(2))를 결정한다. 이러한 과정은 시점 2, 시점 3, ,,, 시점 T 까지 반복적으로 수행된다.The hidden vector (z1(1),z2(1),.. .,zH(1)) is input together with the input vector (x1(2),x2(2),...,xd(2)) of time 2, and the vector of the hidden layer (z1( 2),z2(2) ,...,zH(2)). This process is repeated until time point 2, time point 3, ,,, time point T.
도 13는 순환 신경망의 동작 구조의 일례를 나타낸다.13 shows an example of an operating structure of a recurrent neural network.
한편, 순환 신경망 내에서 복수의 은닉층이 배치될 경우, 이를 심층 순환 신경망(DRNN: Deep recurrent neural network)라 한다. 순환 신경망은 시퀀스 데이터(예를 들어, 자연어 처리(natural language processing)에 유용하게 적용되도록 설계되어 있다.Meanwhile, when a plurality of hidden layers are arranged in a recurrent neural network, it is referred to as a deep recurrent neural network (DRNN). Recurrent neural networks are designed to be usefully applied to sequence data (eg, natural language processing).
학습(learning) 방식으로 사용하는 신경망 코어로서 DNN, CNN, RNN 외에 제한 볼츠만 머신(RBM, Restricted Boltzmann Machine), 심층 신뢰 신경망(DBN, deep belief networks), 심층 Q-네트워크(Deep Q-Network)와 같은 다양한 딥 러닝 기법들을 포함하며, 컴퓨터비젼, 음성인식, 자연어처리, 음성/신호처리 등의 분야에 적용될 수 있다.As a neural network core used as a learning method, in addition to DNN, CNN, and RNN, Restricted Boltzmann Machine (RBM), deep belief networks (DBN), and Deep Q-Network It includes various deep learning techniques such as computer vision, voice recognition, natural language processing, and voice/signal processing.
최근에는 AI를 무선 통신 시스템과 통합하려고 하는 시도들이 나타나고 있으나, 이는 application layer, network layer 특히, 딥러닝을 wireless resource management and allocation 분야에 집중되어 왔다. 그러나, 이러한 연구는 점점 MAC layer 와 Physical layer로 발전하고 있으며, 특히 물리계층에서 딥러닝을 무선 전송(wireless transmission)과 결합하고자 하는 시도들이 나타나고 있다. AI 기반의 물리계층 전송은, 근본적인 신호 처리 및 통신 메커니즘에 있어서, 전통적인 통신 프레임워크가 아니라 AI 드라이버에 기초한 신호 처리 및 통신 메커니즘을 적용하는 것을 의미한다. 예를 들어, 딥러닝 기반의 채널 코딩 및 디코딩(channel coding and decoding), 딥러닝 기반의 신호 추정(estimation) 및 검출(detection), 딥러닝 기반의 MIMO mechanism, AI 기반의 자원 스케줄링(scheduling) 및 할당(allocation) 등을 포함할 수 있다.Recently, there have been attempts to integrate AI with wireless communication systems, but these have been focused on the application layer and network layer, especially deep learning in the field of wireless resource management and allocation. However, these studies are gradually developing into the MAC layer and the physical layer, and in particular, attempts to combine deep learning with wireless transmission are appearing in the physical layer. AI-based physical layer transmission means applying a signal processing and communication mechanism based on an AI driver rather than a traditional communication framework in fundamental signal processing and communication mechanisms. For example, deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO mechanism, AI-based resource scheduling and may include allocations, etc.
본 명세서에서 사용되는 기호/약어/용어는 다음과 같다.Symbols/abbreviations/terms used in this specification are as follows.
- AI : Artifical Intelligence- AI : Artificial Intelligence
- ML : Machine Learning-ML: Machine Learning
- NN : Neural Network-NN : Neural Network
- DNN : Deep Neural Network- DNN : Deep Neural Network
- GNN : Graph Neural Network - GNN : Graph Neural Network
이하에서는 본 명세서에서 제안하는 실시예와 관련된 기술적 과제를 도 14를 참조하여 살펴본다.Hereinafter, technical problems related to the embodiment proposed in this specification will be described with reference to FIG. 14 .
도 14는 본 명세서에서 제안하는 실시예가 적용될 수 있는 수준별 통신 모델을 예시하는 도면이다. 14 is a diagram illustrating a communication model for each level to which an embodiment proposed in this specification can be applied.
도 14를 참조하면, 통신 모델은 3가지 수준(A ~ C)에서 정의될 수 있다. Referring to FIG. 14 , a communication model may be defined at three levels (A to C).
Level A는 송신기/수신기(transmitter/receiver)간에 얼마나 정확하게 심볼들(technical message)이 전달될 수 있는 지 여부와 관련된다. 이는 통신 모델이 기술적(Technical)인 측면에서 파악되는 경우에 고려될 수 있다.Level A is related to how accurately symbols (technical messages) can be transferred between transmitters/receivers. This can be considered when the communication model is understood from a technical point of view.
Level B는 송신기/수신기(transmitter/receiver)간에 전달된 심볼들이 얼마나 정확하게 의미를 전달하는 지 여부와 관련된다. 이는 통신 모델이 시멘틱(Semantic) 측면에서 파악되는 경우에 고려될 수 있다.Level B is related to how accurately the symbols transmitted between the transmitter/receiver convey meaning. This can be considered when the communication model is grasped in terms of semantics.
Level C는 목적지(destination)에서 수신된 의미가 후속되는 동작에 얼마나 효과적으로 기여하는 지 여부와 관련된다. 이는 통신 모델이 유효성(Effectiveness) 측면에서 파악되는 경우에 고려될 수 있다.Level C is concerned with how effectively the semantics received at the destination contribute to subsequent actions. This can be considered when the communication model is identified in terms of effectiveness.
통신 모델의 설계에서 Level A 내지 Level C의 관점이 모두 고려되는 것은 아니며, 구현 방식에 따라 다를 수 있다. Not all aspects of Level A or Level C are considered in the design of the communication model, and may differ depending on the implementation method.
일 예로, 종래 기술에 기반하는 통신 모델과 같이 Level A에 초점을 맞추어 구현된 통신 모델이 고려될 수 있다. 다른 예로, Level A 뿐만 아니라 시멘틱 통신의 지원을 위한 Level B(및 Level C)까지 고려되는 통신 모델이 고려될 수 있다. 이러한 통신 모델에서는 송신기와 수신기는 시멘틱 송신기(semantic transmitter) 및 시멘틱 수신기(semantic receiver)로 지칭될 수 있고, 시멘틱 잡음(semantic noise)이 추가로 고려될 수 있다.For example, a communication model implemented focusing on Level A, such as a communication model based on the prior art, may be considered. As another example, a communication model considering not only Level A but also Level B (and Level C) for supporting semantic communication may be considered. In this communication model, the transmitter and receiver may be referred to as a semantic transmitter and a semantic receiver, and semantic noise may be additionally considered.
이하에서는 그래프 뉴럴 네트워크와 관련하여 고려되는 사항들을 구체적으로 설명한다.Hereinafter, considerations related to graph neural networks will be described in detail.
6G 통신에서는 다양한 수준의 지능을 보유한 사람과 기계를 상호 연결하는 다양한 새로운 서비스를 가능하게 하는 것이 다양한 목표 중 하나이다. 기존의 기술적인 문제(예: 도 14의 A)뿐만이 아니라 시멘틱 문제(예: 도 14의 B)도 함께 고려될 필요가 있다. 시멘틱 통신을 사람 간의 의사소통을 예로 들어 이하 구체적으로 설명한다.One of the goals of 6G communications is to enable a variety of new services that interconnect people and machines with different levels of intelligence. It is necessary to consider not only the existing technical problem (eg, A in FIG. 14) but also the semantic problem (eg, B in FIG. 14). Semantic communication will be described in detail below, taking communication between people as an example.
정보를 교환하기 위한 단어들(단어 정보)은 "의미(meaning)"와 관련이 있다. 화자(speaker)의 말을 듣고 청자(listener)는 화자의 말이 나타내는 의미 내지 개념(concept)을 해석할 수 있다. 이를 도 14의 통신 모델과 연관시키면, 시멘틱 통신의 지원을 위해서는 source에서 보낸 메시지와 관련된 개념(concept)이 destination에서 올바르게 해석이 될 필요가 있다.Words for exchanging information (word information) are related to "meaning". Listening to the speaker's words, the listener can interpret the meaning or concept expressed by the speaker's words. If this is related to the communication model of FIG. 14, to support semantic communication, a concept related to a message sent from the source needs to be correctly interpreted at the destination.
시멘틱 레벨(semantic level, 도 14의 B)의 통신 모델은 기존의 기술적인 레벨(technical level, 도 14의 A)의 통신 모델에 비하여 성능 향상을 제공할 수 있다. 그러한 성능 향상을 제공할 수 있는 주요 이유 중 하나는 source와 destination 간의 지식 공유(knowledge sharing)가 활용되기 때문이다. 이러한 지식은 수신자가 심볼 레벨(symbolic level)에서 발생하는 오류를 고칠 수 있도록 하는 논리적인 규칙과 엔티티(entities)로 구성된 언어일 수 있다.The communication model of the semantic level (B of FIG. 14) can provide performance improvement compared to the existing communication model of the technical level (A of FIG. 14). One of the main reasons that such performance improvements can be provided is that knowledge sharing between source and destination is utilized. This knowledge can be a language made up of logical rules and entities that allow receivers to correct errors that occur at the symbolic level.
앞서 설명한 것과 같이, semantics(meaning)은 지식(knowledge)과 관련이 있기 때문에, 시멘틱 메시지(semantic message)를 처리하기 위해서는 지식을 표현하는 방법이 필요하다. 이를 위해 그래프 기반 지식 표현(knowledge representation)에 기초한 방법이 고려될 수 있다.As described above, since semantics (meaning) is related to knowledge, a method of expressing knowledge is required to process a semantic message. To this end, a method based on graph-based knowledge representation may be considered.
상기 방법에 기초하여, 지식은 노드(node)(또는 vertex)와 링크(link)(또는 edge)를 포함하는 그래프에 의해 표현될 수 있다. 노드는 엔티티와 연관되어 있으며, 링크는 엔티티 간의 관계를 나타낸다. Based on the above method, knowledge can be represented by a graph comprising nodes (or vertices) and links (or edges). Nodes are associated with entities, and links represent relationships between entities.
지식을 나타내도록 생성된 그래프에 기초하여 공유 지식이 생성될 수 있다. 구체적으로 다음과 같은 동작이 수행될 수 있다. 도 14와 같이 source와 destination이 가지고 있는 로컬 지식(local knowledge)에 해당하는 그래프(예: 서브 그래프)가 상호 간에 공유될 수 있다. 상기 공유를 통해 다수의 정보를 포함하는 공유 지식(shared knowledge)이 생성될 수 있다. 공유 지식에 기초하여, source와 destination간에 동일한 지식이 공유되므로 상호간 전달된 개념(시멘틱 메시지)의 해석 정확도가 개선될 수 있다. 즉, 상기 공유 지식을 통해 정상적인 시멘틱 통신의 수행이 보장될 수 있다.Shared knowledge may be created based on graphs created to represent the knowledge. Specifically, the following operations may be performed. As shown in FIG. 14, a graph (eg, a subgraph) corresponding to local knowledge possessed by a source and a destination may be shared with each other. Through the sharing, shared knowledge including a plurality of pieces of information may be created. Based on the shared knowledge, since the same knowledge is shared between the source and the destination, the accuracy of interpretation of mutually transmitted concepts (semantic messages) can be improved. That is, normal semantic communication can be guaranteed through the shared knowledge.
상기 공유 지식의 생성을 위한 그래프 기반 지식(그래프 기반 정보)의 크기는 매우 크다는 점에서 다음과 같은 문제점들이 야기될 수 있다.The following problems may occur in that the size of graph-based knowledge (graph-based information) for generating the shared knowledge is very large.
1) 상기 그래프 기반 정보를 전달하기 위해 많은 수의 자원이 할당될 필요가 있는 바, 자원 활용 측면에서 비효율적이다. 1) Since a large number of resources need to be allocated to transfer the graph-based information, it is inefficient in terms of resource utilization.
2) 또한, 송신기(예: source)와 수신기(예: destination)간에 송수신되는 그래프 기반 정보의 크기가 큰 만큼 이를 비교하기 위해 요구되는 연산량도 크게 늘어난다. 이에 따라 정상적으로 시멘틱 통신이 수행이 이루어지지 못하거나 지연이 발생하여 기존 통신 방식보다 성능이 더 떨어질 수 있다.2) In addition, as the size of graph-based information transmitted and received between a transmitter (eg, source) and a receiver (eg, destination) is large, the amount of computation required to compare them increases greatly. Accordingly, semantic communication may not normally be performed or a delay may occur, resulting in lower performance than the existing communication method.
상술한 문제점들의 해결을 위해 인공지능/머신러닝(AI/ML)의 기술이활용될 수 있다. 일 예로, 그래프 뉴럴 네트워크(Graph Neural Network, GNN)가 사용될 수 있다. 이하 도 15를 참조하여 GNN을 설명한다.In order to solve the above problems, artificial intelligence/machine learning (AI/ML) technology can be utilized. For example, a graph neural network (GNN) may be used. The GNN will be described with reference to FIG. 15 below.
도 15는 본 명세서의 실시예에 따른 방법이 적용될 수 있는 그래프 뉴럴 네트워크의 동작을 설명하기 위한 도면이다.15 is a diagram for explaining the operation of a graph neural network to which a method according to an embodiment of the present specification can be applied.
GNN은 그래프에 직접 적용될 수 있는 신경망이다. 도 15를 참조하면, GNN에 입력된 그래프로부터 얻어지는 출력(Output)은 특정 예측 task에 대해 사용될 수 있는 Node(vertex)/sub-graph/graph embedding이다. 임베딩이란 자연어를 기계가 이해할 수 있는 숫자형태인 벡터(vector)로 바꾼 결과 혹은 그 일련의 과정 전체를 의미하는 것일 수 있다.A GNN is a neural network that can be applied directly to a graph. Referring to FIG. 15, the output obtained from the graph input to the GNN is a node (vertex)/sub-graph/graph embedding that can be used for a specific prediction task. Embedding may refer to a result of converting natural language into a vector, which is a number format that can be understood by a machine, or to mean the entire series of processes.
이 때, 유사도 함수(similarity function)가 사용될 수 있다. 유사도 함수는 입력 네트워크의 그래프가 임베딩 공간(embedding space)에서 어떻게 매핑되는 지 결정하기 위해 사용된다. 유사도 함수의 종류에는 제한이 없다. 일 예로, 상기 GNN에서 사용되는 유사도 함수는 다양한 방식으로 구현된 기존의 유사도 함수들 중 하나 또는 이들의 조합에 기반하는 것일 수 있다.In this case, a similarity function may be used. The similarity function is used to determine how the graph of the input network is mapped in the embedding space. There is no restriction on the type of similarity function. For example, the similarity function used in the GNN may be based on one or a combination of existing similarity functions implemented in various ways.
이하 도 16 및 도 17을 참조하여 GNN 모델을 구체적으로 설명한다.The GNN model will be described in detail with reference to FIGS. 16 and 17 below.
도 16은 본 명세서의 실시예에 따른 방법이 적용될 수 있는 GNN 모델의 정의를 나타낸다. 도 17은 본 명세서의 실시예에 따른 방법이 적용될 수 있는 GNN 모델과 관련된 동작을 나타낸다. 구체적으로, 도 17은 GNN 모델에서 출력(output)으로 노드 임베딩(node embedding)이 출력되는 동작을 나타낸다.16 shows the definition of a GNN model to which a method according to an embodiment of the present specification can be applied. 17 illustrates an operation related to a GNN model to which a method according to an embodiment of the present specification may be applied. Specifically, FIG. 17 shows an operation in which node embeddings are output as outputs from the GNN model.
도 16을 참조하면, GNN 모델은 타겟 노드(Target node)에 대한 뉴럴 네트워크(Neural Network)로 정의될 수 있다. Referring to FIG. 16, the GNN model may be defined as a neural network for a target node.
도 17을 참조하면, GNN 모델을 위해 다음과 같은 동작들이 수행될 수 있다.Referring to FIG. 17, the following operations may be performed for the GNN model.
1) 타겟 노드(Target node)와 이웃한 노드들의 정보를 얻기 위해 이웃 집합 함수(Neighborhood aggregation function)가 정의된다.1) A neighbor aggregation function is defined to obtain information on nodes neighboring the target node.
2) 임베딩(Embedding)에 대한 손실 함수(Loss Function)가 정의된다. 손실 함수는 데이터를 토대로 산출한 모델의 예측 값과 실제 값과의 차이를 표현하는 지표에 해당한다. 손실함수는 모델 성능의 ‘나쁨’을 나타내는 지표로서, “현재 모델이 데이터(예: 그래프 데이터)를 얼마나 잘 처리하지 못하느냐”를 나타내는 함수이다. 손실 함수에 따른 값이 0에 가까울수록 모델의 정확도가 높다.2) A loss function for embedding is defined. The loss function corresponds to an index that expresses the difference between the predicted value of the model calculated based on the data and the actual value. The loss function is an indicator of the ‘bad’ performance of the model, and is a function that indicates “how well the current model handles data (e.g. graph data)”. The closer the value according to the loss function is to 0, the higher the accuracy of the model.
3) 그래프 데이터에 포함된 Node set들이 학습된다. 이 때 학습은 상기 손실 함수에 따른 값이 0에 가까워지도록 수행된다. 3) Node sets included in the graph data are learned. At this time, learning is performed so that the value according to the loss function approaches 0.
4) 그래프 데이터에 포함된 각 노드에 대한 임베딩(embedding)들(잠재 벡터들, latent vectors)이 생성된다.4) Embeddings (latent vectors) for each node included in the graph data are created.
GNN 모델 설계는 NN에서의 파라미터(parameter)가 공유되므로, 학습에 사용된 그래프 데이터와는 전혀 다른 그래프에 대해서도 학습된 모델을 적용할 수 있다.Since parameters in the NN are shared in the GNN model design, the learned model can be applied to a graph completely different from the graph data used for learning.
GNN이 시멘틱 통신(semantic communication)에 활용되는 경우 다음과 같은 장점이 있다.When GNN is used for semantic communication, it has the following advantages.
i) 시멘틱 통신(semantic communication)에서 사용되는 지식이 그래프로 표현되면, 전체 그래프 데이터 대신 GNN을 이용하여 생성된 잠재 벡터(latent vector)가 전달될 수 있다. 이에 따라 전체 그래프 데이터를 전송하는 경우에 비해 요구되는 자원이 줄어들게 된다. ii) 또한, 잠재 벡터(latent vector)를 이용하여 수행하고자 하는 예측 task는 시멘틱 통신(semantic communication)에서 전달 받은 개념(시멘틱 메시지)을 해석하는 task와 상응할 수 있다. i) If knowledge used in semantic communication is expressed as a graph, a latent vector generated using GNN may be transmitted instead of the entire graph data. Accordingly, compared to the case of transmitting the entire graph data, required resources are reduced. ii) In addition, a prediction task to be performed using a latent vector may correspond to a task of interpreting a concept (semantic message) received in semantic communication.
상기 i) 및 ii)를 고려하면, GNN은 그래프 데이터를 기반으로 동작하는 시멘틱 통신 시스템에 유용하게 활용될 수 있다. 하지만, 전체 그래프 데이터에 대한 잠재 벡터(latent vector)가 생성되는 과정에서 많은 연산이 요구된다. 요구되는 연산량이 크다는 점에서 송수신되는 정보(예: 잠재 벡터)가 제한될 수 있다. 이 경우, 시멘틱 통신의 정상적인 수행을 보장할 수 있는 공유 지식이 생성되기 어렵다.Considering i) and ii) above, GNN can be usefully utilized in a semantic communication system that operates based on graph data. However, many operations are required in the process of generating a latent vector for the entire graph data. Since the amount of computation required is large, transmitted and received information (eg, latent vectors) may be limited. In this case, it is difficult to generate shared knowledge capable of ensuring normal performance of semantic communication.
본 명세서의 실시예에 의하면, 상술한 문제점의 해결을 위해 전체 그래프의 일부를 활용하는 방법이 고려될 수 있다. 이하 구체적으로 설명한다. According to an embodiment of the present specification, a method of utilizing a part of the entire graph may be considered to solve the above-described problem. It is described in detail below.
지식을 표현하는 그래프(예: 전체 그래프 데이터)에서 일부 그래프(예: 서브 그래프)들이 추출되고, 추출된 그래프들로부터 잠재 벡터(들)이 생성될 수 있다. 송신단(예: source/destination, 무선 장치, 단말/기지국)이 생성한 잠재 벡터(들)은 수신단(예: destination/source, 무선 장치, 기지국/단말)에 전달된다. 수신단은 i) 수신단에 의해 생성된 잠재 벡터(들)과 ii) 기 수신된 잠재 벡터(들)을 비교함으로써 유사도를 계산한다. 상기 계산된 유사도에 기반하여, 수신된 잠재 벡터(들)을 복원하여 source와 destination이 가지고 있는 로컬 지식(local knowledge)에 해당하는 그래프 데이터를 주기적으로 갱신한다. Some graphs (eg, subgraphs) may be extracted from a graph representing knowledge (eg, entire graph data), and latent vector(s) may be generated from the extracted graphs. The latent vector(s) generated by the transmitting end (eg source/destination, wireless device, terminal/base station) are delivered to the receiving end (eg destination/source, wireless device, base station/terminal). The receiving end calculates the degree of similarity by comparing i) latent vector(s) generated by the receiving end and ii) previously received latent vector(s). Based on the calculated similarity, the received latent vector(s) is restored to periodically update graph data corresponding to local knowledge of the source and destination.
상기 실시예에 의하면, source 측의 로컬 지식과 destination측의 로컬 지식간의 유사도(similarity)가 개선될 수 있는 바, 상호간 전달되는 시멘틱 메시지의 해석이 보다 정확하게 수행될 수 있다. According to the above embodiment, since the similarity between the local knowledge of the source side and the local knowledge of the destination side can be improved, semantic messages transmitted to each other can be interpreted more accurately.
이하 도 18 내지 도 24을 참조하여, 상술한 실시예에 기반하는 시멘틱 통신(semantic communication)을 위한 구체적인 방법 및 절차를 살펴본다.Hereinafter, with reference to FIGS. 18 to 24, a detailed method and procedure for semantic communication based on the above-described embodiment will be described.
본 명세서의 실시예에 의하면, 지식 표현(knowledge representation)을 그래프 데이터(graph data)를 이용한 방법으로 수행하는 시멘틱 통신(semantic communication) 시스템이 가정된다. 상기 시멘틱 통신 시스템에서 시멘틱 인코더(semantic encoder)와 시멘틱 디코더(semantic decoder)는 그래프 데이터를 기반으로 하여 동작한다. 서브 그래프(sub-graph)의 추출 및 추출된 서브 그래프의 주기적인 전달에 기초하여 그래프 데이터가 업데이트 될 수 있다. 상기 업데이트를 통해 source 및 destination간의 로컬 지식(local knowledge)의 유사도(similarity)를 높일 수 있다. According to an embodiment of the present specification, a semantic communication system that performs knowledge representation in a method using graph data is assumed. In the semantic communication system, a semantic encoder and a semantic decoder operate based on graph data. Graph data may be updated based on extraction of a sub-graph and periodic transmission of the extracted sub-graph. Through the update, it is possible to increase the similarity of local knowledge between a source and a destination.
도 18은 본 명세서의 실시예에 따른 그래프 데이터 처리 관련 업데이트를 위한 동작을 설명하기 위한 흐름도이다. 도 18의 무선 통신 시스템은 시멘틱 레벨(semantic level)(예: 도 14의 Level B)이 고려되는 통신 시스템인 것으로 가정된다.18 is a flowchart illustrating an operation for updating related to processing of graph data according to an embodiment of the present specification. It is assumed that the wireless communication system of FIG. 18 is a communication system in which a semantic level (eg, Level B of FIG. 14 ) is considered.
도 18을 참조하면, 그래프 데이터 처리 관련 업데이트는 S1810 내지 S1840에 기반하여 수행될 수 있다. 장치(예: source, 단말)/기지국(예: destination)의 데이터(즉, 로컬 지식(local knowledge))는 그래프에 기반하여 표현되는 그래프 데이터(graph data)이다.Referring to FIG. 18 , update related to graph data processing may be performed based on S1810 to S1840. Data (ie, local knowledge) of a device (eg source, terminal)/base station (eg destination) is graph data expressed based on a graph.
S1810에서, 장치/기지국은 Graph data 처리 관련 초기화를 수행한다. In S1810, the device/base station performs initialization related to graph data processing.
S1820에서, Sub-graph latent vector의 생성 및 전송이 수행된다. 구체적으로 장치/기지국은 전체 그래프 데이터에서 서브 그래프(Sub-graph)를 추출한다. 장치/기지국은 추출된 서브 그래프(Sub-graph)로부터 잠재 벡터(latent vector)(들)을 생성한다. 생성된 잠재 벡터들을 포함하는 정보가 장치/기지국 상호간에 전달될 수 있다. 일 예로, 기지국은 (기지국에 의해)생성된 잠재 벡터(들)을 포함하는 정보를 장치로 전송할 수 있다. 다른 예로, 장치는 (장치에 의해)생성된 잠재 벡터(들)을 포함하는 정보를 기지국으로 전송할 수 있다.In S1820, generation and transmission of sub-graph latent vectors are performed. Specifically, the device/base station extracts a sub-graph from the entire graph data. The device/base station creates latent vector(s) from the extracted sub-graph. Information including the generated latent vectors may be transferred between devices/base stations. As an example, the base station may transmit information including latent vector(s) generated (by the base station) to the device. As another example, the device may transmit information including latent vector(s) generated (by the device) to the base station.
S1830에서, 수신된 sub-graph latent vector가 처리된다. 구체적으로 장치/기지국은 수신된 sub-graph가 표현된 잠재 벡터(들)을 처리한다. 일 예로, 장치는 (장치에 의해)생성된 잠재 벡터(들)과 수신된 잠재 벡터(들)간의 유사도(similarity)를 계산할 수 있다. 다른 예로, 기지국은 (기지국에 의해)생성된 잠재 벡터(들)과 수신된 잠재 벡터(들)간의 유사도(similarity)를 계산할 수 있다.In S1830, the received sub-graph latent vector is processed. Specifically, the device/base station processes the latent vector(s) representing the received sub-graph. For example, the device may calculate a similarity between the latent vector(s) generated (by the device) and the received latent vector(s). As another example, the base station may calculate a similarity between the latent vector(s) generated (by the base station) and the received latent vector(s).
S1840에서, Graph data 관련 encoder/decoder가 업데이트 된다. 구체적으로, 장치/기지국은 상기 계산된 유사도에 기초하여 그래프 기반 지식 표현이 업데이트된 이후, 해당 그래프 데이터로부터 추출된 sub-graph를 통해 Graph data 관련 encoder/decoder를 업데이트 할 수 있다.In S1840, the encoder/decoder related to graph data is updated. Specifically, after the graph-based knowledge expression is updated based on the calculated similarity, the device/base station may update an encoder/decoder related to graph data through a sub-graph extracted from corresponding graph data.
S1820 내지 S1840에 따른 동작은 그래프 데이터 업데이트가 중단되기전까지 반복하여 수행될 수 있다. 이하 상기 S1810에 따른 초기화 동작을 도 19a를 참조하여 구체적으로 설명한다.Operations according to S1820 to S1840 may be repeatedly performed until graph data update is stopped. Hereinafter, the initialization operation according to S1810 will be described in detail with reference to FIG. 19A.
도 19a는 본 명세서의 실시예에 따른 시멘틱 통신을 위한 그래프 데이터 업데이트와 관련된 초기화를 설명하기 위한 흐름도이다.19A is a flowchart for explaining initialization related to graph data update for semantic communication according to an embodiment of the present specification.
도 19a를 참조하면, 상기 S1810에 따른 초기화 동작은 S1910 내지 S1960에 기반하여 수행될 수 있다.Referring to FIG. 19A , the initialization operation according to S1810 may be performed based on S1910 to S1960.
S1910에서, 전원이 인가된 장치(예: 단말)은 동기화와 관련된 동작을 수행한다. 상기 동기화와 관련된 동작은 도 6에서 S611 내지 S616에 기반하는 동작을 포함할 수 있다. 일 예로, 장치는 기지국으로부터 동기 신호 블록(Synchronization Signal Block, SSB)을 수신한다. 장치는 SSB를 이용하여 기지국과의 동기를 맞추고 시스템 정보를 획득한다. 장치가 랜덤 엑세스 절차를 수행함으로써, RRC 연결(RRC connection)이 확립(establish)될 수 있다. 즉, 장치의 상태가 RRC 연결 상태(RRC_CONNECTED state)로 전환될 수 있다. In S1910, a device to which power is applied (eg, a terminal) performs an operation related to synchronization. Operations related to the synchronization may include operations based on S611 to S616 in FIG. 6 . For example, a device receives a synchronization signal block (SSB) from a base station. The device synchronizes with the base station using the SSB and obtains system information. By performing a random access procedure by the device, an RRC connection may be established. That is, the state of the device may be switched to an RRC connected state (RRC_CONNECTED state).
S1920에서, 기지국은 DL-DCCH-message를 장치로 전송한다. 일 실시예에 의하면, 상기 DL-DCCH-message는 장치(단말)의 특정 성능 정보의 요청과 관련된 RRC 메시지(UECapabilityEnquiry)일 수 있다. 상기 특정 성능 정보는 그래프 데이터와 관련된 동작의 지원 여부를 나타내는 정보일 수 있다. 상기 그래프 데이터와 관련된 동작은 그래프 데이터의 생성, 그래프 데이터의 처리(예: 서브 그래프 추출, 잠재 벡터 생성)를 포함할 수 있다.In S1920, the base station transmits a DL-DCCH-message to the device. According to an embodiment, the DL-DCCH-message may be an RRC message (UECapabilityEnquiry) related to a request for specific capability information of a device (terminal). The specific performance information may be information indicating whether an operation related to graph data is supported. Operations related to the graph data may include generation of graph data and processing of graph data (eg, sub-graph extraction, latent vector generation).
S1930에서, 장치는 UL-DCCH-message를 기지국으로 전송한다. 상기 UL-DCCH-message는 상기 DL-DCCH-message에 대한 응답일 수 있다. 일 실시예에 의하면, 상기 UL-DCCH-message는 상기 특정 성능 정보를 포함하는 RRC 메시지(UECapabilityInformation)일 수 있다.In S1930, the device transmits a UL-DCCH-message to the base station. The UL-DCCH-message may be a response to the DL-DCCH-message. According to an embodiment, the UL-DCCH-message may be an RRC message (UECapabilityInformation) including the specific capability information.
S1940에서, 기지국은 그래프 데이터의 초기화와 관련된 지시자(indicator)를 포함하는 정보를 장치로 전송한다. 상기 그래프 데이터의 초기화와 관련된 지시자(indicator)를 포함하는 정보는 상기 UL-DCCH-message에 포함된 상기 특정 성능 정보에 기반하여 전송될 수 있다. 구체적으로, 상기 특정 성능 정보에 의해 장치가 그래프 데이터와 관련된 동작을 지원하는 것으로 결정된 경우에, 상기 그래프 데이터의 초기화와 관련된 지시자(indicator)를 포함하는 정보가 전송될 수 있다.In S1940, the base station transmits information including an indicator related to initialization of graph data to the device. Information including an indicator related to initialization of the graph data may be transmitted based on the specific performance information included in the UL-DCCH-message. Specifically, when it is determined that the device supports an operation related to graph data based on the specific performance information, information including an indicator related to initialization of the graph data may be transmitted.
일 실시예에 의하면, 상기 그래프 데이터의 초기화와 관련된 지시자(indicator)를 포함하는 정보는 하향링크 제어 정보(Downlink Control Information, DCI), MAC-CE(Medium Access Control-Control Element) 또는 RRC 메시지에 포함될 수 있다.According to an embodiment, information including an indicator related to initialization of the graph data is included in downlink control information (DCI), MAC-CE (Medium Access Control-Control Element), or RRC message. can
일 실시예에 의하면, 상기 그래프 데이터의 초기화와 관련된 지시자(indicator)를 포함하는 정보는 1) GNN 모델(GNN model), 2) 점수 함수(score function), 3) 점수(Score)에 따른 노드 세트(node set)의 개수, 4) 서브 그래프(Sub-graph)의 홉(hop) 수, 5) 위치 인코딩(Positional-encoding) 방법, 6) 서브 그래프(Sub-graph)의 잠재 벡터(latent vector)들의 전송 주기, 7) 유사도 함수(Similarity function) 중 적어도 하나와 관련된 정보를 포함할 수 있다. 상기 그래프 데이터의 초기화와 관련된 지시자(indicator)를 포함하는 정보는 기지국에서 사용되는 정보(예: GNN 모델, 유사도 함수 등..)와 동일하다. 이하 각 항목 별로 구체적으로 설명한다.According to an embodiment, the information including an indicator related to the initialization of the graph data is 1) a GNN model, 2) a score function, and 3) a node set according to a score. The number of node sets, 4) the number of hops in the sub-graph, 5) the positional-encoding method, 6) the latent vector of the sub-graph It may include information related to at least one of a transmission period of , and 7) a similarity function. Information including an indicator related to the initialization of the graph data is the same as information used in the base station (eg, GNN model, similarity function, etc.). Hereinafter, each item is described in detail.
1) GNN 모델(GNN model)1) GNN model
상기 그래프 데이터의 초기화와 관련된 지시자(indicator)를 포함하는 정보는 GNN 모델의 설정과 관련된 정보를 포함할 수 있다.The information including an indicator related to the initialization of the graph data may include information related to setting a GNN model.
상기 GNN 모델의 설정과 관련된 정보에 기초하여, 다음의 동작이 수행될 수 있다. 장치(Source)와 기지국(destination)간 동일한 방식을 통해 모델이 설정될 수 있다. 상기 설정된 모델은 i) 그래프 인코딩 모델(graph encoding model), ii) 그래프 디코딩 모델(graph decoding model)을 포함할 수 있다.Based on the information related to the setting of the GNN model, the following operation may be performed. A model may be set through the same method between a device (source) and a base station (destination). The set model may include i) a graph encoding model and ii) a graph decoding model.
상기 그래프 인코딩 모델은 d-차원의 임베딩 공간(embedding space)으로의 매핑(mapping)을 통해 잠재 벡터(latent vector)를 생성한다. 생성된 잠재 벡터는 수신된 잠재 벡터와 유사도를 측정하는 데 사용될 수 있다.The graph encoding model generates a latent vector through mapping to a d-dimensional embedding space. The generated latent vector may be used to measure similarity with the received latent vector.
상기 그래프 디코딩 모델은 잠재 벡터로부터 서브 그래프를 복원한다. 즉, 상기 그래프 디코딩 모델의 입력(input)은 잠재 벡터이고, 출력(output)은 서브 그래프이다.The graph decoding model reconstructs a sub-graph from a latent vector. That is, the input of the graph decoding model is a latent vector, and the output is a subgraph.
일 예로, 상기 GNN 모델의 설정과 관련된 정보는 기지국에서 사전 학습이 완료된 모델에 대한 정보를 포함할 수 있다(for coarse tuning).For example, the information related to setting the GNN model may include information on a model for which pre-learning has been completed in the base station (for coarse tuning).
다른 예로, 상기 GNN 모델의 설정과 관련된 정보는 GNN 모델 파라미터를 포함할 수 있다(for fine tuning). 상기 GNN 모델 파라미터를 수신한 장치에서 GNN 모델을 위한 학습이 수행될 수 있다.As another example, the information related to setting the GNN model may include GNN model parameters (for fine tuning). Learning for a GNN model may be performed in a device that receives the GNN model parameters.
2) 점수 함수(Score function)2) Score function
상기 그래프 데이터의 초기화와 관련된 지시자(indicator)를 포함하는 정보는 점수 함수와 관련된 정보를 포함할 수 있다.Information including an indicator related to initialization of the graph data may include information related to a score function.
상기 score function은 지식 표현을 위해 생성된 그래프 네트워크(그래프 데이터)에로부터 적합한 로컬 네트워크(서브 그래프)를 찾아 추출하기 위한 기준이 되는 점수를 결정하기 위한 함수이다. 즉, 상기 점수 함수와 관련된 정보는 source/destination간에 서브 그래프가 동일한 기준에 기초하여 추출될 수 있도록 하기 위한 정보이다. 상기 score function의 적용과 관련하여 도 19b를 참조하여 설명한다. 도 19b는 본 명세서의 실시예에 따른 점수 함수와 관련된 동작을 설명하기 위한 도면이다. The score function is a function for determining a score that is a criterion for finding and extracting a suitable local network (subgraph) from a graph network (graph data) created for knowledge expression. That is, the information related to the score function is information for allowing subgraphs to be extracted based on the same criterion between sources/destinations. The application of the score function will be described with reference to FIG. 19B. 19B is a diagram for explaining an operation related to a score function according to an embodiment of the present specification.
도 19b를 참조하면, 상기 score function은 임의의 node x와 node y 및 이를 연결하는 edge로 구성되는 set에 적용된다. 즉, 상기 score function에 의해 상기 set에 대한 score(node x와 node y간의 score)가 계산될 수 있다.Referring to FIG. 19B, the score function is applied to a set consisting of arbitrary node x, node y, and edges connecting them. That is, the score for the set (score between node x and node y) can be calculated by the score function.
이 때, 여러가지의 휴리스틱(heuristic) 방법들 중 하나가 이용될 수 있다. 도 19c는 본 명세서의 실시예에 따른 점수 함수와 관련된 휴리스틱 방법을 예시하는 테이블이다. 도 19c를 참조하면, 상기 score function으로 네트워크 전체 구조를 고려하는 고차휴리스틱(high-order heuristics)(또는 graph structure feature)이 고려될 수 있다. 구체적으로 상기 score function은 Katz index, rooted PageRank, SimRank 등을 포함할 수 있다.At this time, one of several heuristic methods may be used. 19C is a table illustrating a heuristic method related to a score function according to an embodiment of the present specification. Referring to FIG. 19C , high-order heuristics (or graph structure features) considering the entire network structure may be considered as the score function. Specifically, the score function may include Katz index, rooted PageRank, SimRank, and the like.
상기 heuristics들은
Figure PCTKR2021014691-appb-img-000002
-decaying heuristic theory를 이용하여 고차휴리스틱(high-order heuristic) 종류에 따라 증명이 된다. 상기 heuristics들은 적은 수의 홉(hop)에 기반하여 추출된 서브 그래프(sub-graph)로부터 고차 그래프(high-order graph) 구조를 학습하여 충분히 전체 네트워크의 정보를 반영한 것만큼의 정보량을 가질 수 있게 한다.
The heuristics are
Figure PCTKR2021014691-appb-img-000002
-decaying heuristic theory is used to prove according to the high-order heuristic type. The heuristics learn a high-order graph structure from a sub-graph extracted based on a small number of hops to sufficiently reflect the information of the entire network. To have the amount of information do.
상기 점수 함수와 관련된 정보는 상기 열거된 고차 휴리스틱스(high-order heuristics)에 해당하는 score function들(Katz index, rooted PageRank, SimRank) 중 어느 하나를 나타내는 정보일 수 있다.Information related to the score function may be information indicating any one of score functions (Katz index, rooted PageRank, SimRank) corresponding to the above-listed high-order heuristics.
3) Top-K score selection(Score에 따른 node set의 개수)3) Top-K score selection (number of node sets according to score)
Score function을 통해 얻어진 score를 기반으로 node쌍과 node간의 edge로 이루어진 set의 ranking이 결정될 수 있다. 이에 따라, 점수가 높은 순서로(랭킹이 높은 순서로) K개의 node set들이 선정될 수 있다(Top-K score selection).Based on the score obtained through the score function, the ranking of a set consisting of node pairs and edges between nodes can be determined. Accordingly, K node sets may be selected in order of high scores (in order of high ranking) (Top-K score selection).
상기 동작을 위해, 상기 그래프 데이터의 초기화와 관련된 지시자(indicator)를 포함하는 정보는 score에 따른 노드 세트의 개수(예: K)를 포함할 수 있다. 일 예로, 계산된 score가 높은 순서로 특정 개수의 노드 세트들이 선택되는 경우, 상기 score에 따른 노드 세트의 개수는 상기 특정 개수를 의미하는 것일 수 있다.For the above operation, information including an indicator related to initialization of the graph data may include the number of node sets (eg, K) according to scores. For example, when a specific number of node sets are selected in the order of higher calculated scores, the number of node sets according to the score may mean the specific number.
상기 score에 따른 노드 세트의 개수에 기반하여, source와 destination간에 주고 받을 서브 그래프(sub-graph)의 개수가 정해질 수 있다. 예를 들어, source(또는 destination)로부터 destination(또는 source)에 전달되는 잠재 벡터들은 상기 score에 따른 노드 세트의 개수에 기반하는 서브 그래프들로부터 생성된 것일 수 있다.Based on the number of node sets according to the score, the number of sub-graphs to be exchanged between a source and a destination may be determined. For example, latent vectors delivered from source (or destination) to destination (or source) may be generated from subgraphs based on the number of node sets according to the score.
4) 서브 그래프(Sub-graph)의 홉(hop) 수4) Number of hops in sub-graph
상기 그래프 데이터의 초기화와 관련된 지시자(indicator)를 포함하는 정보는 서브 그래프(Sub-graph)의 홉(hop) 수와 관련된 정보를 포함할 수 있다.The information including an indicator related to the initialization of the graph data may include information related to the number of hops of a sub-graph.
상기 서브 그래프(Sub-graph)의 홉(hop) 수와 관련된 정보는 상기 score에 따라 선택된 노드 세트들 각각으로부터 추출되는 각 서브 그래프에 포함되는 이웃 노드들의 범위를 나타낸다. 구체적으로, 상기 서브 그래프(Sub-graph)의 홉(hop) 수와 관련된 정보는 node 쌍(node pair) 및 node간의 edge로 이루어진 노드 세트의 각 노드로부터 얼마만큼 떨어진 이웃 노드들이 서브 그래프(sub-graph)로 설정되는 지를 나타낸다. 상기 언급된
Figure PCTKR2021014691-appb-img-000003
-decaying heuristic theory에 따라, 상기 서브 그래프(Sub-graph)의 홉(hop) 수는 적은 hop수로 설정될 수 있다. 예를 들어, 상기 서브 그래프(Sub-graph)의 홉(hop) 수와 관련된 정보가 1 hop을 나타내는 경우, 서브 그래프는 score에 따라 선택된 노드로부터 1 hop만큼 떨어진 이웃 노드들을 포함하도록 설정된다.
The information related to the number of hops of the sub-graph represents a range of neighboring nodes included in each sub-graph extracted from each of the node sets selected according to the score. Specifically, the information related to the number of hops of the sub-graph is how far away from each node of the node set consisting of node pairs and edges between nodes is the sub-graph (sub-graph). graph). mentioned above
Figure PCTKR2021014691-appb-img-000003
According to the -decaying heuristic theory, the number of hops of the sub-graph may be set to a small number of hops. For example, when information related to the number of hops of the sub-graph indicates 1 hop, the sub-graph is configured to include neighboring nodes separated by 1 hop from a node selected according to a score.
5) 위치 인코딩(Positional-encoding) 방법5) Positional-encoding method
상기 그래프 데이터의 초기화와 관련된 지시자(indicator)를 포함하는 정보는 위치 인코딩(Positional-encoding) 방법과 관련된 정보를 포함할 수 있다.Information including an indicator related to initialization of the graph data may include information related to a positional-encoding method.
2이상의 노드들이 그래프의 다른 부분에 각각 위치하지만, 위상학적으로(topologically) 동일한 이웃들의 구조를 갖는다. 동일한 이웃들의 구조를 갖는 상기 2이상의 노드들로부터 동일한 잠재 벡터(임베딩 공간(embedding space)에서 동일한 지점에 임베딩이 된 잠재 벡터)가 생성될 수 있다. 이 때, sub-graph가 추출되어 전송된 뒤(즉, 추출된 서브 그래프로부터 생성된 잠재 벡터가 전송된 후) 잠재 벡터들간 유사도 비교 후 노드/엣지(node/edge)가 추가/수정되어야 하는 경우에, 그래프 데이터의 업데이트를 위해 어떠한 위치의 노드/엣지(node/edge)가 추가/수정되어야 하는지 알 수가 없게 된다. 이러한 문제점을 해결하기 위해 위치 인코딩(Positional-encoding) 방법과 관련된 정보가 상기 그래프 데이터의 초기화와 관련된 지시자(indicator)를 포함하는 정보에 포함될 수 있다. 이하 도 20을 참조하여 설명한다.Two or more nodes are each located in different parts of the graph, but topologically have the same structure of neighbors. The same latent vector (latent vector embedded at the same point in an embedding space) can be generated from the two or more nodes having the same structure of neighbors. At this time, if a node/edge needs to be added/modified after a sub-graph is extracted and transmitted (ie, after a latent vector generated from the extracted sub-graph is transmitted) and a similarity comparison between latent vectors is performed In this case, it is not possible to know at what position a node/edge needs to be added/modified in order to update the graph data. To solve this problem, information related to a positional-encoding method may be included in information including an indicator related to initialization of the graph data. It will be described with reference to FIG. 20 below.
도 20은 본 명세서의 실시예에 따른 위치 인코딩 방법이 적용되어야하는 경우를 예시한다. 구체적으로 도 20은 위치가 다른 노드들 각각의 이웃 노드들의 구조가 동일한 경우를 예시한다. 20 illustrates a case where a position encoding method according to an embodiment of the present specification is to be applied. Specifically, FIG. 20 illustrates a case in which structures of neighboring nodes of nodes having different positions are the same.
도 20의 (a)를 참조하면, 노드 V1과 V2는 전체 그래프 데이터에서 각각 서로 다른 위치에 배치되어 있다. 도 20의 (b)를 참조하면, 노드 V1 및 노드 V2는 이웃하는 노드들의 구조가 동일하다.Referring to (a) of FIG. 20 , nodes V1 and V2 are disposed at different positions in the entire graph data. Referring to (b) of FIG. 20 , nodes V1 and V2 have the same structure as neighboring nodes.
상술한 점수 함수(Score function), Score에 따른 node set의 개수 또는 서브 그래프(Sub-graph)의 홉(hop) 수 중 적어도 하나에 기반하여 서브 그래프가 추출될 수 있다. 이 때, 상기 도 20과 같이 노드 V1 및 V2에 기반하는 서브 그래프들이 추출되는 경우 위치 인코딩(positional-encoding)을 통해 전체 graph data에 해당하는 노드들의 위치 정보가 추가되어야 한다. 즉, 노드 V1 및 V2에 기반하는 서브 그래프들이 추출되는 경우에 전체 graph data를 기준으로 각 노드(V1, V2)의 위치를 나타내는 정보가 추가될 수 있다.A sub-graph may be extracted based on at least one of the above-described score function, the number of node sets according to the score, or the number of hops of the sub-graph. At this time, when subgraphs based on nodes V1 and V2 are extracted as shown in FIG. 20, positional-encoding should be performed to add positional information of nodes corresponding to the entire graph data. That is, when subgraphs based on nodes V1 and V2 are extracted, information indicating the location of each node V1 and V2 based on the entire graph data may be added.
일 예로, 위치 인코딩은 그래프 네트워크 상에서 절대적인 위치 및 상대적인 위치를 모두 고려하여 수행될 수 있다(예: Graph-BERT 모델의 transformer에서 사용되는 positional-encoding 방식).For example, positional encoding may be performed considering both absolute and relative positions on a graph network (eg, positional-encoding method used in a transformer of Graph-BERT model).
6) Sub-graph의 latent vector들의 전송 주기6) Transmission period of sub-graph latent vectors
상기 그래프 데이터의 초기화와 관련된 지시자(indicator)를 포함하는 정보는 서브 그래프의 잠재 벡터들의 전송 주기와 관련된 정보가 포함될 수 있다.Information including an indicator related to the initialization of the graph data may include information related to a transmission period of latent vectors of a subgraph.
상기 잠재 벡터들의 전송 주기는 장치와 기지국 간의 연산량(예: 장치와 기지국간의 시그널링을 통해 일정 시간 이내에 처리될 수 있는 데이터의 양), 링크 정보 등에 기초하여 설정될 수 있다. 상기 전송 주기에 기초하여 잠재 벡터의 생성, 잠재 벡터들간의 유사도 비교, 그래프 데이터 업데이트 동작이 수행될 수 있다.The transmission period of the latent vectors may be set based on an operation amount between the device and the base station (eg, the amount of data that can be processed within a certain time through signaling between the device and the base station), link information, and the like. Based on the transmission period, latent vector generation, similarity comparison between latent vectors, and graph data update operations may be performed.
7) 유사도 함수(Similarity function)7) Similarity function
상기 그래프 데이터의 초기화와 관련된 지시자(indicator)를 포함하는 정보는 유사도 함수와 관련된 정보를 포함할 수 있다. 상기 유사도 함수와 관련된 정보는 source/destination간에 동일한 기준으로 그래프 데이터가 갱신되도록 하기 위해 사용된다. 구체적으로 상기 유사도 함수와 관련된 정보는 source/destination에서 동일하게 사용되는 유사도 함수를 나타내는 정보를 포함할 수 있다. source/destination에서 동일한 유사도 함수에 기초하여 유사도가 측정/계산되므로, source와 destination에서 동일한 기준(동일 유사도 함수에 따라 계산된 유사도)에 따라 그래프 데이터가 갱신될 수 있다.Information including an indicator related to initialization of the graph data may include information related to a similarity function. Information related to the similarity function is used to update graph data on the same basis between sources/destinations. Specifically, the information related to the similarity function may include information indicating a similarity function equally used in source/destination. Since similarity is measured/calculated based on the same similarity function in source/destination, graph data can be updated according to the same criterion (similarity calculated according to the same similarity function) in source and destination.
일 예로, 상기 유사도 함수와 관련된 정보는 상기 2)에 따른 점수 함수(score function)를 나타낼 수 있다. 상기 유사도 계산에 상기 점수 함수(score function)가 사용되는 경우, 도 19b의 x와 y는 각각 수신된 잠재 벡터와 생성된 잠재 벡터로 해석될 수 있다.For example, the information related to the similarity function may indicate a score function according to 2) above. When the score function is used in the similarity calculation, x and y in FIG. 19B may be interpreted as a received latent vector and a generated latent vector, respectively.
일 예로, 상기 유사도 함수와 관련된 정보는 상기 점수 함수가 아닌 다른 유사도 함수를 나타낼 수 있다. 상기 다른 유사도 함수는 Cosine, Jaccard, overlap coefficient 등에 기반하는 유사도 함수를 포함할 수 있다.For example, information related to the similarity function may indicate a similarity function other than the score function. The other similarity function may include a similarity function based on cosine, jaccard, overlap coefficient, and the like.
이하 도 21a 및 도 21b를 참조하여, 서브 그래프의 추출 및 잠재 벡터의 생성/전송과 관련된 동작을 구체적으로 설명한다.Operations related to extraction of subgraphs and generation/transmission of latent vectors will be described in detail with reference to FIGS. 21A and 21B.
도 21a 및 도 21b는 본 명세서의 실시예에 따른 서브 그래프의 추출 및 잠재 벡터의 생성/전송과 관련된 절차를 설명하기 위한 흐름도이다. 구체적으로 도 21a 및 도 21b는 상술한 도 18의 S1820에 기반하여 수행되는 동작들을 단계별로 나타낸다.21A and 21B are flowcharts for explaining procedures related to subgraph extraction and latent vector generation/transmission according to an embodiment of the present specification. Specifically, FIGS. 21A and 21B show operations performed based on S1820 of FIG. 18 described above step by step.
장치/기지국은 그래프 데이터(graph data)에서 서브 그래프(sub-graph)를 추출한다. 장치/기지국은 GNN 모델을 통해 추출된 서브 그래프로부터 잠재 벡터(latent vector)들을 생성한다.The device/base station extracts a sub-graph from the graph data. The device/base station creates latent vectors from subgraphs extracted through the GNN model.
만약 GNN 모델이 coarse/fine tuning이 수행된 경우에는, 해당 작업에 사용되었던 서브 그래프들을 사용하여 잠재 벡터들이 생성된다. 이후, 생성된 잠재 벡터들과 최근에 수신된 잠재 벡터들간의 유사도가 측정되어 그 결과가 저장된다. 해당 결과는 다음에 수신된 잠재 벡터들과의 유사도 측정 시에 사용된다. 노드들의 위치 정보를 포함하는 서브 그래프들이 GNN 모델에 입력됨으로써 잠재 벡터들이 생성될 수 있다. 해당 동작은 도 14에서의 Level B의 시멘틱 통신(semantic communication)에서 시멘틱 인코더(semantic encoder)의 동작에 해당한다. 생성된 잠재 벡터들이 정해진 주기에 맞춰서 전달됨으로써 다수의 정보를 포함하는 공유 지식(내지 그래프 데이터)가 생성 및 업데이트 될 수 있다.If coarse/fine tuning is performed on the GNN model, latent vectors are generated using the subgraphs used in the task. Thereafter, the similarity between the generated latent vectors and recently received latent vectors is measured and the result is stored. The corresponding result is used when measuring the similarity with the next received latent vectors. Latent vectors may be generated by inputting subgraphs including location information of nodes into a GNN model. The corresponding operation corresponds to the operation of the semantic encoder in Level B semantic communication in FIG. 14 . Shared knowledge (or graph data) including multiple pieces of information can be created and updated by transmitting the generated latent vectors according to a predetermined cycle.
상술한 동작들은 장치 및/또는 기지국에 의해 수행될 수 있으며 이하의 설명에서는 편의상 장치/기지국으로 표현한다. 이하 도 21a 및 도 21b를 참조하여 단계별로 설명한다.The above operations may be performed by a device and/or a base station, and in the following description, it is expressed as a device/base station for convenience. Hereinafter, a step-by-step description will be made with reference to FIGS. 21A and 21B.
장치/기지국은 서브 그래프의 잠재 벡터를 처음 전송하는 경우(S2110), 그래프 데이터의 각 노드 세트의 점수(score)를 결정한다(S2111). 이 때, 상기 점수는 상술한 score function에 기반하여 결정될 수 있다. When the device/base station first transmits the latent vector of the subgraph (S2110), it determines the score of each node set of the graph data (S2111). At this time, the score may be determined based on the score function described above.
장치/기지국은 상기 Score에 따른 node set의 개수(예: K)에 기초하여 score가 높은 순서로 K개의 노드 세트들을 선택한다(S2121).The device/base station selects K node sets in order of higher scores based on the number of node sets (eg, K) according to the score (S2121).
장치/기지국은 상기 서브 그래프(Sub-graph)의 홉(hop) 수(예: h hop)에 기초하여 K개의 노드 세트들 각각으로부터 h-hop이 떨어진 이웃 노드들을 포함하는 K개의 서브 그래프들을 추출한다(S2131).The device/base station extracts K sub-graphs including neighboring nodes h-hop away from each of the K node sets based on the number of hops (eg, h hop) of the sub-graph It does (S2131).
장치/기지국은 GNN 모델을 통해 추출된 각각의 서브 그래프들로부터 잠재 벡터들을 생성한다(S2141).The device/base station generates latent vectors from each of the subgraphs extracted through the GNN model (S2141).
장치/기지국은 서브 그래프의 잠재 벡터를 기 전송한 경우에는 상술한 전송 주기에 기초하여 동작을 수행한다(S2112). 장치/기지국은 상기 전송 주기가 도래하지 않은 경우에는 대기한다. 상기 전송 주기가 도래한 경우로서 상기 GNN 모델이 (coarse/fine)tuning이 된 경우(S2122), 장치/기지국은 해당 tuning에 사용된 서브 그래프들을 사용(S2132)하여 잠재 벡터를 생성한다(S2141). 이 때, 생성되는 잠재 벡터에는 상기 인코딩(positional encoding)을 통해 위치 정보가 함께 반영될 수 있다.When the device/base station has previously transmitted the latent vector of the subgraph, it performs an operation based on the transmission period described above (S2112). The device/base station waits if the transmission period has not arrived. When the transmission period arrives and the GNN model is (coarse/fine) tuning (S2122), the device/base station generates a latent vector using subgraphs used for the corresponding tuning (S2132) (S2141) . At this time, the positional information may be reflected in the generated latent vector through the above-described encoding (positional encoding).
상기 전송 주기가 도래한 경우로서 상기 GNN 모델이 (coarse/fine)tuning이 되지 않은 경우에는 S2111 내지 S2131에 기반하여 추출된 서브 그래프들을 이용하여 잠재 벡터들을 생성한다(S2141).When the transmission period arrives and the GNN model is not (coarse/fine)tuned, latent vectors are generated using subgraphs extracted based on steps S2111 to S2131 (S2141).
장치/기지국은 생성된 잠재 벡터들의 랭킹(ranking)을 저장한다(S2151). 이 때, 상기 랭킹은 상기 추출된 서브 그래프들과 관련된 노드 세트들(상기 K개의 노드 세트들)의 score에 기반하는 값일 수 있다. 일 예로, 가장 score가 높은 노드 세트들에 기초하여 추출된 서브 그래프와 관련된 잠재 벡터들은 가장 높은 랭킹(예: 가장 낮은 인덱스)을 가질 수 있다. 다른 예로, 상기 K개의 노드 세트들 중 가장 score가 낮은 노드 세트들에 기초하여 추출된 서브 그래프와 관련된 잠재 벡터들은 가장 낮은 랭킹(예: 가장 높은 인덱스)를 가질 수 있다.The device/base station stores the ranking of the generated latent vectors (S2151). In this case, the ranking may be a value based on scores of node sets (the K node sets) related to the extracted subgraphs. For example, latent vectors related to subgraphs extracted based on node sets having the highest scores may have the highest ranking (eg, lowest index). As another example, latent vectors related to subgraphs extracted based on node sets having the lowest scores among the K node sets may have the lowest ranking (eg, highest index).
장치/기지국은 GNN 모델이 fine tuning이 된 경우(S2161), 동일한 랭킹을 갖는 잠재 벡터(들)간의 유사도를 측정한다(S2171). 구체적인 예로, (장치/기지국에 의해)생성된 제1 잠재 벡터(들)과 (기지국/장치로부터)수신된 제2 잠재 벡터(들)간의 유사도가 계산될 수 있다. 이 때, 유사도 계산은 동일한 랭킹(동일한 인덱스)를 갖는 제1 잠재 벡터(들) 및 제2 잠재 벡터(들)간에 수행될 수 있다.When the GNN model is fine-tuned (S2161), the device/base station measures the similarity between latent vector(s) having the same ranking (S2171). As a specific example, a similarity between the first latent vector(s) generated (by the device/base station) and the second latent vector(s) received (from the base station/device) may be calculated. In this case, similarity calculation may be performed between the first latent vector(s) and the second latent vector(s) having the same ranking (same index).
상기 제1 잠재 벡터(들)은 튜닝된 GNN(Fine tuned GNN)(예: 시멘틱 인코더)을 통해 생성된 잠재 벡터(들)일 수 있다. 상기 제2 잠재 벡터(들)은 그래프 데이터 업데이트에 사용된 잠재 벡터(들)일 수 있다.The first latent vector(s) may be latent vector(s) generated through a fine tuned GNN (eg, a semantic encoder). The second latent vector(s) may be latent vector(s) used for updating graph data.
상기 유사도의 측정/계산은 상기 초기화 동작을 통해 설정된 함수에 기반하여 수행될 수 있다. 구체적으로, 상기 유사도의 측정/계산은 상기 score의 계산에 사용된 score fuction 또는 상기 score function과는 다른 유사도 함수(예: Cosine, Jaccard, overlapcoefficient 등)에 기반하여 수행될 수 있다.The similarity measurement/calculation may be performed based on a function set through the initialization operation. Specifically, the similarity measurement/calculation may be performed based on a score function used in calculating the score or a similarity function different from the score function (eg, Cosine, Jaccard, overlap coefficient, etc.).
장치/기지국은 측정된 유사도(유사도 계산 결과)를 저장한다(S2181).The device/base station stores the measured similarity (similarity calculation result) (S2181).
장치/기지국은 추출된 서브 그래프들로부터 생성된 잠재 벡터들을 포함하는 정보를 기지국/장치로 전송한다(S2190).The device/base station transmits information including latent vectors generated from the extracted subgraphs to the base station/device (S2190).
도 21a 및 도 21b에 나타난 단계들(S2110~S2190)이 모두 필수적으로 수행되어야 하는 것은 아니며, 구현 방식에 따라 상기 단계들 중 일부 단계가 생략/변경/추가되어 수행될 수 있다.Not all of the steps S2110 to S2190 shown in FIGS. 21A and 21B are necessarily performed, and some of the steps may be omitted/changed/added depending on the implementation method.
도 22는 본 명세서의 실시예에 따른 서브 그래프의 추출과 관련된 동작을 설명하기 위한 도면이다. 22 is a diagram for explaining an operation related to subgraph extraction according to an embodiment of the present specification.
구체적으로 도 22는 그래프 디코딩(Graph decoding)과 관련된 GNN 모델(예: GraphRNN)의 동작을 예시한다. 서브 그래프는 상기 그래프 디코딩에 기초하여 추출될 수 있다. 상기 서브 그래프는 실선 방향에 따라 노드(node)가 추가되고 점선 방향에 따라 엣지(edge)가 추가될 수 있다. Specifically, FIG. 22 illustrates the operation of a GNN model (eg, GraphRNN) related to graph decoding. A subgraph may be extracted based on the graph decoding. In the subgraph, nodes may be added along a solid line direction and edges may be added along a dotted line direction.
이하 도 23을 참조하여, 수신된 잠재 벡터들과 관련된 동작을 구체적으로 설명한다.Referring to FIG. 23, an operation related to received latent vectors will be described in detail.
도 23은 본 명세서의 실시예에 따라 수신된 잠재 벡터들의 처리와 관련된 절차를 설명하기 위한 흐름도이다. 구체적으로 도 23은 상술한 도 18의 S1830에 기반하여 수행되는 동작들을 단계별로 나타낸다.23 is a flowchart for explaining a procedure related to processing of received latent vectors according to an embodiment of the present specification. Specifically, FIG. 23 shows operations performed based on S1830 of FIG. 18 described above step by step.
장치/기지국이 서브 그래프들의 잠재 벡터들을 기지국/장치로부터 수신한 뒤(S2310), 자신이 생성한 서브 그래프들의 잠재 벡터들(제1 잠재 벡터들)과 동일한 랭킹을 갖는 수신된 잠재 벡터들(제2 잠재 벡터들) 간에 설정된 유사도 함수를 이용하여 유사도를 측정한다(S2320). 상기 유사도의 측정/계산은 상기 초기화 동작을 통해 설정된 함수에 기반하여 수행될 수 있다. 구체적으로, 상기 유사도의 측정/계산은 상기 score의 계산에 사용된 score fuction 또는 상기 score function과는 다른 유사도 함수(예: Cosine, Jaccard, overlap coefficient 등)에 기반하여 수행될 수 있다.After the device/base station receives the latent vectors of the subgraphs from the base station/device (S2310), the received latent vectors (first latent vectors) having the same ranking as the latent vectors (first latent vectors) of the subgraphs it generated 2 latent vectors), the similarity is measured using the set similarity function (S2320). The similarity measurement/calculation may be performed based on a function set through the initialization operation. Specifically, the similarity measurement/calculation may be performed based on a score function used in calculating the score or a similarity function different from the score function (eg, Cosine, Jaccard, overlap coefficient, etc.).
장치/기지국이 잠재 벡터를 처음 수신한 경우(S2330)에는 해당 결과(유사도 측정 결과)를 저장한다(S2340). 저장된 유사도는 장치/기지국이 다음 잠재 벡터들을 수신한 뒤에 유사도가 달라졌는 지 여부를 확인하는데 사용된다. When the device/base station receives the latent vector for the first time (S2330), the corresponding result (similarity measurement result) is stored (S2340). The stored similarity is used to determine whether the similarity has changed after the device/base station receives the next latent vectors.
장치/기지국이 잠재 벡터를 처음 수신한 경우가 아닌 경우(잠재 벡터를 기 수신하여 저장된 유사도가 존재하는 경우)(S2330)에는 측정된 유사도와 저장된 유사도를 비교한다(S2350). 비교 결과, 상기 측정된 유사도가 상기 저장된 유사도와 달라졌는 지 여부에 대한 판단 기준은 source와 destination간에 (초기화를 통해)정해진 similarity function에 해당되는 값의 범위에 따라 각각 그 판단 기준이 달라 질 수 있다.If the device/base station does not receive the latent vector for the first time (if the latent vector has already been received and stored similarity exists) (S2330), the measured similarity is compared with the stored similarity (S2350). As a result of the comparison, the criterion for determining whether the measured similarity is different from the stored similarity may vary depending on the range of values corresponding to the similarity function determined (through initialization) between the source and the destination.
측정된 유사도가 저장된 유사도와 다른 경우(S2360)(즉,보유한 local knowledge들을 동일하게 만들어 주기 위한 동작이 필요하다고 판단된 경우), 장치/기지국은 수신된 잠재 벡터로부터 그래프 디코딩(graph decoding)을 통해 서브 그래프를 추출한다(S2371). 상기 서브 그래프의 추출 동작은 상술한 초기화 동작을 통해 설정된 GNN 모델(예: GraphRNN)에 기반하여 수행될 수 있다. 즉, 장치/기지국은 잠재 벡터로부터, 초기화 동작을 통해 설정된 GNN 모델에 기초하여, 서브 그래프를 복원할 수 있다. 해당 동작은 도 14에서의 Level B의 시멘틱 통신(semantic communication)에서 시멘틱 디코더(semantic decoder)의 동작에 해당한다.When the measured similarity is different from the stored similarity (S2360) (ie, when it is determined that an operation to make the possessed local knowledge equal is required), the device/base station performs graph decoding from the received latent vector. A subgraph is extracted (S2371). The extraction operation of the sub-graph may be performed based on the GNN model (eg, GraphRNN) set through the above-described initialization operation. That is, the device/base station may restore the sub-graph based on the GNN model set through the initialization operation from the latent vector. The corresponding operation corresponds to the operation of the semantic decoder in level B semantic communication in FIG. 14 .
장치/기지국은 상기 그래프 디코딩을 통해 획득된 서브 그래프(Decoded sub-graph)와 가장 최근의 잠재 벡터의 전송과 관련된 서브 그래프(보유한 sub-graph)를 비교한다(S2372). 장치/기지국은 유사도가 개선되는 방향으로 서브 그래프의 노드/엣지(node/edge)를 추가/수정/제거할 수 있다(S2373). 장치/기지국은 전체 그래프 데이터에 변경 사항을 반영한다(S2374). 구체적으로 장치/기지국은 업데이트된 서브 그래프(노드/엣지가 추가/수정/제거된 서브 그래프)를 전체 그래프 데이터에 반영한다.The device/base station compares the decoded sub-graph obtained through the graph decoding with a sub-graph (possessed sub-graph) related to the transmission of the most recent latent vector (S2372). The device/base station may add/modify/remove nodes/edges of the subgraph in a direction in which similarity is improved (S2373). The device/base station reflects changes to the entire graph data (S2374). Specifically, the device/base station reflects an updated subgraph (a subgraph in which nodes/edges are added/modified/removed) to the entire graph data.
도 23에 나타난 단계들(S2310~S2374)이 모두 필수적으로 수행되어야 하는 것은 아니며, 구현 방식에 따라 상기 단계들 중 일부 단계가 생략/변경/추가되어 수행될 수 있다.Not all of the steps S2310 to S2374 shown in FIG. 23 necessarily have to be performed, and some of the steps may be omitted/changed/added depending on the implementation method.
이하 도 24를 참조하여, 그래프 데이터의 업데이트와 관련된 동작을 구체적으로 설명한다.Referring to FIG. 24, an operation related to updating graph data will be described in detail.
도 24는 본 명세서의 실시예에 따른 그래프 데이터의 업데이트와 관련된 절차를 설명하기 위한 흐름도이다. 구체적으로 도 24는 상술한 도 18의 S1840에 기반하여 수행되는 동작들을 단계별로 나타낸다.24 is a flowchart for explaining a procedure related to updating graph data according to an embodiment of the present specification. Specifically, FIG. 24 shows operations performed based on S1840 of FIG. 18 described above step by step.
S2410 내지 S2440에서, 업데이트된 그래프 데이터에 기반하여 시멘틱 인코더/시멘틱 디코더(semantic encoder/decoder)가 갱신될 수 있다. In S2410 to S2440, a semantic encoder/decoder may be updated based on the updated graph data.
이 때, 상기 시멘틱 인코더(semantic encoder)는 잠재 벡터(latent vector)를 생성하는 GNN이며, 상기 시멘틱 디코더(semantic decoder)는 잠재 벡터(latent vector)에 기반하여 서브 그래프를 복원하는 GNN이다. In this case, the semantic encoder is a GNN that generates a latent vector, and the semantic decoder is a GNN that restores a subgraph based on a latent vector.
그래프 데이터의 업데이트가 수행된 경우(S2410), 업데이트된 그래프 데이터로부터 서브 그래프가 추출된다(S2420). 이 때, 상술한 바와 같은 방식에 따라 서브 그래프가 추출될 수 있다. score function을 통해 업데이트된 데이터 그래프에 포함되는 각 노드 세트의 score가 결정된다. score가 높은 순으로 K개의 노드 세트들이 선택되며, 상기 초기화 동작을 통해 설정된 hop 수에 기초하여 서브 그래프가 추출된다. 서브 그래프가 추출되는 경우 각 서브 그래프에는 상기 위치 인코딩을 통해 위치 정보가 반영될 수 있다.When graph data is updated (S2410), a sub-graph is extracted from the updated graph data (S2420). At this time, the sub-graph may be extracted according to the method described above. Through the score function, the score of each set of nodes included in the updated data graph is determined. K node sets are selected in order of high scores, and subgraphs are extracted based on the number of hops set through the initialization operation. When a subgraph is extracted, location information may be reflected in each subgraph through the location encoding.
상기 추출된 서브 그래프를 이용하여 상기 시멘틱 인코더와 상기 시멘틱 디코더의 튜닝(fine tunning) 동작이 수행될 수 있다(S2430, S2440).A fine tuning operation of the semantic encoder and the semantic decoder may be performed using the extracted subgraph (S2430 and S2440).
구체적으로 다음과 같은 동작이 수행될 수 있다.Specifically, the following operations may be performed.
추출된 서브 그래프로부터, 상기 시멘틱 인코더에 의해 잠재 벡터들이 생성된다. 상기 생성된 잠재 벡터들로부터 상기 시멘틱 디코더에 의해 서브 그래프가 복원된다. 상기 튜닝(fine tunning) 동작은 복원된 서브 그래프가 상기 추출된 서브 그래프와 동일하게 되도록 수행될 수 있다.From the extracted subgraph, latent vectors are generated by the semantic encoder. A sub-graph is restored from the generated latent vectors by the semantic decoder. The fine tuning operation may be performed so that the reconstructed subgraph is the same as the extracted subgraph.
이 때, 추출된 서브 그래프는 도 21a의 S2132에 따라 잠재 벡터를 생성하기 위해 사용될 수 있다.At this time, the extracted subgraph may be used to generate a latent vector according to S2132 of FIG. 21A.
도 24에 나타난 단계들(S2410~S2440)이 모두 필수적으로 수행되어야 하는 것은 아니며, 구현 방식에 따라 상기 단계들 중 일부 단계가 생략/변경/추가되어 수행될 수 있다. Not all of the steps S2410 to S2440 shown in FIG. 24 necessarily have to be performed, and some of the steps may be omitted/changed/added depending on the implementation method.
구현적인 측면에서 상술한 실시예들에 따른 동작(예: 시멘틱 통신을지원하기 위한 동작)들은 상술한 도 1 내지 도 5의 장치(예: 도 2의 프로세서(202a, 202b))에 의해 처리될 수 있다.From an implementation point of view, operations according to the above-described embodiments (eg, operations for supporting semantic communication) are processed by the above-described apparatuses of FIGS. 1 to 5 (eg, the processors 202a and 202b of FIG. 2 ). can
또한 상술한 실시예에 따른 상술한 실시예들에 따른 동작(예: 시멘틱 통신을 지원하기 위한 동작)들은 적어도 하나의 프로세서(예: 도 2의 프로세서(202a, 202b))를 구동하기 위한 명령어/프로그램(예: instruction, executable code)형태로 메모리(예: 도 2의 204a, 204b)에 저장될 수도 있다.In addition, operations (eg, operations for supporting semantic communication) according to the above-described embodiments according to the above-described embodiments may include instructions for driving at least one processor (eg, the processors 202a and 202b of FIG. 2 ) It may be stored in a memory (eg, 204a, 204b in FIG. 2) in the form of a program (eg, instruction, executable code).
이하 상술한 실시예들을 무선 장치(예: 도 2의 제1 무선 기기(200a), 제2 무선 기기(200b))의 동작 측면에서 도 25를 참조하여 구체적으로 설명한다. 이하 설명되는 방법들은 설명의 편의를 위하여 구분된 것일 뿐, 어느 한 방법의 일부 구성이 다른 방법의 일부 구성과 치환되거나, 상호 간에 결합되어 적용될 수 있음은 물론이다.Hereinafter, the above-described embodiments will be described in detail with reference to FIG. 25 in terms of operation of wireless devices (eg, the first wireless device 200a and the second wireless device 200b of FIG. 2 ). The methods described below are only classified for convenience of explanation, and it goes without saying that some components of one method may be substituted with some components of another method, or may be applied in combination with each other.
도 25는 본 명세서의 일 실시예에 따른 무선 통신 시스템에서 시멘틱 통신을 지원하기 위해 제1 무선 장치에 의해 수행되는 방법을 설명하기 위한 흐름도이다.25 is a flowchart for explaining a method performed by a first wireless device to support semantic communication in a wireless communication system according to an embodiment of the present specification.
도 25를 참조하면, 본 명세서의 일 실시예에 따른 무선 통신 시스템에서 시멘틱 통신을 지원하기 위해 제1 무선 장치에 의해 수행되는 방법은 성능 정보 전송 단계(S2510), 시멘틱 통신의 지원과 관련된 제어 정보 수신 단계(S2520), 하나 이상의 서브 그래프들을 추출하는 단계(S2530), 하나 이상의 제1 잠재 벡터들을 생성하는 단계(S2540), 하나 이상의 제2 잠재 벡터들을 포함하는 정보를 수신하는 단계(S2550), 하나 이상의 제1 잠재 벡터들과 하나 이상의 제2 잠재 벡터들간의 유사도 계산 단계(S2560) 및 유사도에 기초하여 하나 이상의 서브 그래프들을 업데이트 하는 단계(S2570)를 포함한다.Referring to FIG. 25 , a method performed by a first wireless device to support semantic communication in a wireless communication system according to an embodiment of the present specification includes a performance information transmission step (S2510), control information related to semantic communication support. Receiving step (S2520), extracting one or more subgraphs (S2530), generating one or more first latent vectors (S2540), receiving information including one or more second latent vectors (S2550), A similarity calculation step between one or more first latent vectors and one or more second latent vectors (S2560) and updating one or more subgraphs based on the similarities (S2570).
S2510에서, 제1 무선 장치는 제2 무선 장치에 상기 시멘틱 통신의 지원과 관련된 성능 정보(capability information)를 전송한다.In S2510, the first wireless device transmits capability information related to supporting the semantic communication to the second wireless device.
일 실시예에 의하면, 상기 시멘틱 통신의 지원과 관련된 성능 정보는 상기 제1 무선 장치가 그래프 데이터와 관련된 동작을 지원하는 지 여부를 나타내는 정보를 포함할 수 있다.According to an embodiment, the performance information related to the support of the semantic communication may include information indicating whether the first wireless device supports an operation related to graph data.
일 실시예에 의하면, 상기 성능 정보는 D2D(Device to Device) 통신에 기반하여 전송될 수 있다. 구체적으로, 제1 무선 장치는 단말이고, 제2 무선 장치는 다른 단말일 수 있다. 상기 성능 정보는 단말로부터 기지국으로 전송된다. 즉, 단말(예: 제1 무선 장치) 및 다른 단말(예: 제2 무선 장치)은 자신의 성능 정보를 기지국으로 각각 전송할 수 있다. 이 때, 상기 성능 정보는 제1 무선 장치(또는 제2 무선 장치)가 그래프 데이터와 관련된 동작을 지원하는 지 여부를 나타내는 정보를 포함할 수 있다. 일 예로, 제1 무선 장치(제2 무선 장치)에 의해 전송되는 성능 정보는 제1 무선 장치(제2 무선 장치)가 그래프 데이터와 관련된 동작을 지원하는 지 여부를 나타내는 정보를 포함할 수 있다.According to an embodiment, the performance information may be transmitted based on Device to Device (D2D) communication. Specifically, the first wireless device may be a terminal, and the second wireless device may be another terminal. The performance information is transmitted from the terminal to the base station. That is, a terminal (eg, a first wireless device) and another terminal (eg, a second wireless device) may respectively transmit their own performance information to the base station. In this case, the performance information may include information indicating whether the first wireless device (or the second wireless device) supports an operation related to graph data. For example, the performance information transmitted by the first wireless device (second wireless device) may include information indicating whether the first wireless device (second wireless device) supports an operation related to graph data.
상술한 S2510에 따라, 제1 무선장치(예: 도 2의 200a)가 제2 무선 장치(예: 도 2의 200b)에 상기 시멘틱 통신의 지원과 관련된 성능 정보(capability information)를 전송하는 동작은 도 1 내지 도 5의 장치에 의해 구현될 수 있다. 예를 들어, 도 2를 참조하면, 하나 이상의 프로세서(202a)는 제2 무선 장치(200b)에 상기 시멘틱 통신의 지원과 관련된 성능 정보(capability information)를 전송하도록 하나 이상의 트랜시버(206a) 및/또는 하나 이상의 메모리(204a)를 제어할 수 있다.According to the above-described S2510, the first wireless device (eg, 200a in FIG. 2 ) transmits capability information related to the support of the semantic communication to the second wireless device (eg, 200b in FIG. 2 ). It can be implemented by the device of FIGS. 1 to 5 . For example, referring to FIG. 2 , one or more processors 202a may transmit capability information related to support of the semantic communication to a second wireless device 200b using one or more transceivers 206a and/or One or more memories 204a may be controlled.
S2520에서, 제1 무선 장치는 상기 제2 무선 장치로부터 상기 시멘틱 통신의 지원과 관련된 제어 정보를 수신한다. In S2520, the first wireless device receives control information related to supporting the semantic communication from the second wireless device.
일 실시예에 의하면, 상기 제어 정보는 i) 기 설정된 그래프 데이터로 표현되는 지식(knowledge)의 일부와 관련된 서브 그래프(sub-graph)의 추출을 위한 점수 함수(score function), ii) 상기 서브 그래프를 처리하기 위한 그래프 뉴럴 네트워크 모델(Graph Neural Network model, GNN model) 또는 iii) 상기 서브 그래프로부터 생성되는 잠재 벡터(latent vector)와 관련된 유사도 함수(similarity function) 중 적어도 하나에 대한 정보를 포함할 수 있다. 본 실시예에서 상기 i) 내지 iii)에 대한 정보는 상술한 초기화 동작을 위해 전송되는 정보(indicator)에 포함되는 1) GNN 모델, 2) 점수 함수 또는 7) 유사도 함수와 관련된 정보에 기반할 수 있다.According to an embodiment, the control information is i) a score function for extracting a sub-graph related to a part of knowledge represented by preset graph data, ii) the sub-graph It may include information on at least one of a graph neural network model (GNN model) for processing or iii) a similarity function related to a latent vector generated from the subgraph. there is. In this embodiment, information on i) to iii) may be based on information related to 1) a GNN model, 2) a score function, or 7) a similarity function included in the information (indicator) transmitted for the above-described initialization operation. there is.
일 실시예에 의하면, 상기 제어 정보는 상기 제1 무선 장치가 상기 그래프 데이터와 관련된 동작을 지원하는 경우에 전송될 수 있다. 즉, 상기 시멘틱 통신의 지원과 관련된 성능 정보가 상기 제1 무선 장치에 의해 그래프 데이터와 관련된 동작이 지원됨을 나타내는 것에 기반하여, 상기 제어 정보가 상기 제2 무선 장치로부터 상기 제1 무선 장치로 전송될 수 있다.According to an embodiment, the control information may be transmitted when the first wireless device supports an operation related to the graph data. That is, the control information is transmitted from the second wireless device to the first wireless device based on the fact that the performance information related to supporting the semantic communication indicates that an operation related to graph data is supported by the first wireless device. can
일 예로, 상기 제어 정보는 D2D(Device to Device) 통신에 기반하여 전송될 수 있다. 구체적으로, 제1 무선 장치는 단말이고, 제2 무선 장치는 다른 단말일 수 있다. 이 경우, 상기 제어 정보는 기지국으로부터 각 단말들(제1 무선 장치 및 제2 무선 장치)로 전송될 수 있다. 구체적으로 제1 무선 장치 및 제2 무선 장치로부터 상기 성능 정보를 수신한 기지국은 상기 제1 무선 장치 및 상기 제2 무선 장치가 상기 그래프 데이터와 관련된 동작을 지원하는 경우, 상기 제어 정보를 제1 무선 장치 및 제2 무선 장치로 전송할 수 있다. 이에 따라, 제1 무선 장치 및 제2 무선 장치는 수신된 제어 정보를 이용하여 시멘틱 통신(semantic communication)을 위한 초기 설정(상술한 초기화 동작)을 수행할 수 있다.For example, the control information may be transmitted based on Device to Device (D2D) communication. Specifically, the first wireless device may be a terminal, and the second wireless device may be another terminal. In this case, the control information may be transmitted from the base station to each terminal (the first wireless device and the second wireless device). Specifically, the base station receiving the performance information from the first wireless device and the second wireless device transmits the control information to the first wireless device when the first wireless device and the second wireless device support an operation related to the graph data. device and the second wireless device. Accordingly, the first wireless device and the second wireless device may perform initial setting for semantic communication (the above-described initialization operation) using the received control information.
일 실시예에 의하면, 상기 GNN 모델은 그래프 데이터로부터 잠재 벡터의 생성 동작 또는 잠재 벡터로부터 서브 그래프의 복원 동작 중 적어도 하나와 관련될 수 있다. 상기 그래프 데이터로부터 잠재 벡터의 생성 동작은 상술한 시멘틱 인코더의 동작과 관련될 수 있다. 상기 잠재 벡터로부터 서브 그래프의 복원 동작은 상술한 시멘틱 디코더의 동작과 관련될 수 있다.According to an embodiment, the GNN model may be related to at least one of an operation of generating a latent vector from graph data or an operation of restoring a sub-graph from a latent vector. An operation of generating a latent vector from the graph data may be related to the operation of the above-described semantic encoder. An operation of restoring a sub-graph from the latent vector may be related to the operation of the above-described semantic decoder.
일 실시예에 의하면, 상기 제어 정보는 i) 상기 계산된 점수가 높은 순으로 결정된 특정 노드 세트들의 개수,ii) 상기 하나 이상의 서브 그래프들과 관련된 홉(hop) 수, iii) 상기 하나 이상의 서브 그래프들과 관련된 위치 인코딩(positional-encoding) 방법 또는 iv) 상기 하나 이상의 제2 잠재 벡터들을 포함하는 정보의 전송 주기 중 적어도 하나에 대한 정보를 더 포함할 수 있다. 본 실시예에서 상기 i) 내지 iv)에 대한 정보는 상술한 초기화 동작을 위해 전송되는 정보(indicator)에 포함되는 3) Score에 따른 node 세트의 개수(Top-k score selection 관련), 4) 서브 그래프(Sub-graph)의 홉(hop) 수, 5) 위치 인코딩(Positional-encoding) 방법 또는 6) Sub-graph의 latent vector들의 전송 주기와 관련된 정보에 기반할 수 있다.According to an embodiment, the control information is i) the number of specific node sets determined in order of high calculated scores, ii) the number of hops related to the one or more subgraphs, iii) the one or more subgraphs , or iv) information on at least one of a transmission period of information including the one or more second latent vectors. In this embodiment, the information on i) to iv) includes 3) the number of node sets according to the score (related to Top-k score selection) included in the information (indicator) transmitted for the aforementioned initialization operation, 4) sub It may be based on information related to the number of hops of a sub-graph, 5) a positional-encoding method, or 6) a transmission period of latent vectors of a sub-graph.
상술한 S2520에 따라, 제1 무선장치(예: 도 2의 200a)가 제2 무선 장치(예: 도 2의 200b)로부터 상기 시멘틱 통신의 지원과 관련된 제어 정보를 수신하는 동작은 도 1 내지 도 5의 장치에 의해 구현될 수 있다. 예를 들어, 도 2를 참조하면, 하나 이상의 프로세서(202a)는 제2 무선 장치(예: 도 2의 200b)로부터 상기 시멘틱 통신의 지원과 관련된 제어 정보를 수신하도록 하나 이상의 트랜시버(206a) 및/또는 하나 이상의 메모리(204a)를 제어할 수 있다.An operation in which a first wireless device (eg, 200a in FIG. 2) receives control information related to support of the semantic communication from a second wireless device (eg, 200b in FIG. 2) according to the above-described S2520 is shown in FIGS. It can be implemented by the device of 5. For example, referring to FIG. 2 , one or more processors 202a may use one or more transceivers 206a and/or to receive control information related to support of the semantic communication from a second wireless device (eg, 200b of FIG. 2 ). Alternatively, one or more memories 204a may be controlled.
상술한 S2510 내지 S2520에 기반하는 동작들은 그래프 데이터의 업데이트와 관련된 초기화 동작에 대응된다. 따라서, 상기 초기화 동작이 수행된 이후에는 후술하는 S2530 내지 S2570에 따른 동작들만이 주기적/반복적으로 수행될 수 있다.Operations based on S2510 to S2520 described above correspond to initialization operations related to updating graph data. Therefore, after the initialization operation is performed, only operations according to S2530 to S2570 described below may be periodically/repetitively performed.
S2530에서, 제1 무선 장치는 기 설정된 그래프 데이터(graph data)로부터 하나 이상의 서브 그래프들(sub-graphs)을 추출한다. 상기 하나 이상의 서브 그래프들은 상기 제어 정보에 기반하여 추출될 수 있다.In S2530, the first wireless device extracts one or more sub-graphs from preset graph data. The one or more subgraphs may be extracted based on the control information.
상기 기 설정된 그래프 데이터는 상술한 초기화 동작을 통해 설정된 그래프 데이터일 수 있다.The preset graph data may be graph data set through the aforementioned initialization operation.
일 실시예에 의하면, 상기 하나 이상의 서브 그래프들은 상기 기 설정된 그래프 데이터(graph data)에 포함되는 노드 세트들 중 상기 점수 함수에 기초하여 계산된 점수가 높은 순으로 결정된 특정 노드 세트들에 기반할 수 있다. 일 예로, 상기 특정 노드 세트들은 도 21a의 S2121에서 선택되는 K개의 노드 세트들에 기반할 수 있다.According to an embodiment, the one or more sub-graphs may be based on specific node sets determined in order of high scores calculated based on the score function among node sets included in the preset graph data. there is. For example, the specific node sets may be based on K node sets selected in S2121 of FIG. 21A.
일 실시예에 의하면, 상기 하나 이상의 서브 그래프들 각각은 상기 특정 노드 세트들 중 어느 하나의 각 노드로부터 상기 홉 수(예: 1 hop 또는 2 hops)에 기반하는 하나 이상의 이웃 노드들을 포함하도록 추출될 수 있다.According to an embodiment, each of the one or more subgraphs is extracted to include one or more neighboring nodes based on the number of hops (eg, 1 hop or 2 hops) from each node of any one of the specific node sets. can
일 실시예에 의하면, 상기 위치 인코딩 방법에 기반하여, 상기 하나 이상의 서브 그래프들 각각은 상기 특정 노드 세트들 중 어느 하나와 관련된 위치 정보를 포함하도록 추출될 수 있다. 도 20의 예시와 같이, 이웃하는 노드들의 구조의 유사성으로 인해 각 노드의 위치 식별이 어려울 수 있다. 예를 들어, 제1 노트 세트는 전체 그래프 데이터에서는 다른 위치에 배치된 노드 세트임에도 불구하고, 제1 노드 세트로부터 다른 노드 세트로부터 생성되는 잠재 벡터와 동일한 잠재 벡터가 생성될 수 있다. 이러한 문제점을 해결하기 위해 상기 위치 정보는 기 설정된 그래프 데이터(전체 graph data)를 기준으로 노드의 위치를 나타낼 수 있다. According to an embodiment, based on the location encoding method, each of the one or more subgraphs may be extracted to include location information related to any one of the specific node sets. As in the example of FIG. 20 , it may be difficult to identify the location of each node due to the similarity of structures of neighboring nodes. For example, even though the first node set is a node set disposed at a different position in the entire graph data, the same latent vector as that generated from the other node set may be generated from the first node set. To solve this problem, the location information may indicate the location of a node based on preset graph data (entire graph data).
구체적으로, 상기 위치 정보는 상기 특정 노트 세트들 중 어느 하나와 관련된 각 노드의 위치를 기 설정된 그래프 데이터(예: 전체 graph data)를 기준으로 나타내는 정보를 포함할 수 있다. 상기 특정 노트 세트들 중 어느 하나와 관련된 각 노드의 위치는 기 설정된 그래프 데이터(예: 전체 graph data)에서의 (절대적/상대적) 위치를 기초로 식별될 수 있다.Specifically, the location information may include information representing the location of each node related to any one of the specific note sets based on preset graph data (eg, entire graph data). The position of each node related to any one of the specific note sets may be identified based on an (absolute/relative) position in preset graph data (eg, entire graph data).
상술한 S2530에 따라, 제1 무선장치(예: 도 2의 200a)가, 상기 제어 정보에 기반하여, 기 설정된 그래프 데이터(graph data)로부터 하나 이상의 서브 그래프들(sub-graphs)을 추출하는 동작은 도 1 내지 도 5의 장치에 의해 구현될 수 있다. 예를 들어, 도 2를 참조하면, 하나 이상의 프로세서(202a)는, 상기 제어 정보에 기반하여, 기 설정된 그래프 데이터(graph data)로부터 하나 이상의 서브 그래프들(sub-graphs)을 추출하도록 하나 이상의 트랜시버(206a) 및/또는 하나 이상의 메모리(204a)를 제어할 수 있다.Operation of the first wireless device (eg, 200a in FIG. 2 ) extracting one or more sub-graphs from preset graph data based on the control information in accordance with the above-described S2530 may be implemented by the device of FIGS. 1 to 5 . For example, referring to FIG. 2 , one or more processors 202a use one or more transceivers to extract one or more sub-graphs from preset graph data based on the control information. 206a and/or one or more memories 204a.
S2540에서, 제1 무선 장치는 상기 하나 이상의 서브 그래프들에 기초하여 하나 이상의 제1 잠재 벡터들(one or more first latent vectors)을 생성한다. 상기 하나 이상의 제1 잠재 벡터들의 생성은 상기 GNN 모델과 관련된 인코딩 동작에 기반하여 수행될 수 있다. In S2540, the first wireless device generates one or more first latent vectors based on the one or more subgraphs. Generation of the one or more first latent vectors may be performed based on an encoding operation related to the GNN model.
상술한 S2540에 따라, 제1 무선장치(예: 도 2의 200a)가 상기 하나 이상의 서브 그래프들에 기초하여 하나 이상의 제1 잠재 벡터들(one or more first latent vectors)을 생성하는 동작은 도 1 내지 도 5의 장치에 의해 구현될 수 있다. 예를 들어, 도 2를 참조하면, 하나 이상의 프로세서(202a)는 상기 하나 이상의 서브 그래프들에 기초하여 하나 이상의 제1 잠재 벡터들(one or more first latent vectors)을 생성하도록 하나 이상의 트랜시버(206a) 및/또는 하나 이상의 메모리(204a)를 제어할 수 있다.According to the above-described S2540, the first wireless device (eg, 200a in FIG. 2 ) generates one or more first latent vectors based on the one or more subgraphs, as shown in FIG. 1 through the device of FIG. 5 . For example, referring to FIG. 2 , one or more processors 202a may include one or more transceivers 206a to generate one or more first latent vectors based on the one or more sub-graphs. and/or control one or more memories 204a.
S2550에서, 제1 무선 장치는 상기 제2 무선 장치로부터 하나 이상의 제2 잠재 벡터들(one or more second latent vectors)을 포함하는 정보를 수신한다.In S2550, the first wireless device receives information including one or more second latent vectors from the second wireless device.
상술한 S2550에 따라, 제1 무선장치(예: 도 2의 200a)가 상기 제2 무선 장치(예: 도 2의 200b)로부터 하나 이상의 제2 잠재 벡터들(one or more second latent vectors)을 포함하는 정보를 수신하는 동작은 도 1 내지 도 5의 장치에 의해 구현될 수 있다. 예를 들어, 도 2를 참조하면, 하나 이상의 프로세서(202a)는 상기 제2 무선 장치(예: 도 2의 200b)로부터 하나 이상의 제2 잠재 벡터들(one or more second latent vectors)을 포함하는 정보를 수신하도록 하나 이상의 트랜시버(206a) 및/또는 하나 이상의 메모리(204a)를 제어할 수 있다.According to the above-described S2550, the first wireless device (eg, 200a in FIG. 2 ) includes one or more second latent vectors from the second wireless device (eg, 200b in FIG. 2 ). The operation of receiving the information may be implemented by the device of FIGS. 1 to 5. For example, referring to FIG. 2 , one or more processors 202a may receive information including one or more second latent vectors from the second wireless device (eg, 200b of FIG. 2 ). may control one or more transceivers 206a and/or one or more memories 204a to receive .
S2560에서, 제1 무선 장치는 상기 유사도 함수에 기초하여 상기 하나 이상의 제1 잠재 벡터들과 상기 하나 이상의 제2 잠재 벡터들간의 유사도(similarity)를 계산한다.In S2560, the first wireless device calculates a similarity between the one or more first latent vectors and the one or more second latent vectors based on the similarity function.
일 실시예에 의하면, 상기 유사도 함수는 i) 상기 점수 함수 또는 ii) 상기 점수 함수와 다른 유사도 함수(예: Cosine, Jaccard, overlap coefficient)에 기반할 수 있다.According to an embodiment, the similarity function may be based on i) the score function or ii) a similarity function different from the score function (eg, Cosine, Jaccard, overlap coefficient).
일 실시예에 의하면, 상기 잠재 벡터는 상기 계산된 점수에 기초하는 랭킹(ranking)을 나타내는 인덱스에 의해 식별될 수 있다. 구체적으로, 상기 유사도는, 상기 랭킹을 나타내는 인덱스가 동일한 제1 잠재 벡터와 제2 잠재 벡터간에 계산될 수 있다.According to an embodiment, the latent vector may be identified by an index indicating a ranking based on the calculated score. Specifically, the degree of similarity may be calculated between the first latent vector and the second latent vector having the same index indicating the ranking.
상술한 S2560에 따라, 제1 무선장치(예: 도 2의 200a)가 상기 유사도 함수에 기초하여 상기 하나 이상의 제1 잠재 벡터들과 상기 하나 이상의 제2 잠재 벡터들간의 유사도(similarity)를 계산하는 동작은 도 1 내지 도 5의 장치에 의해 구현될 수 있다. 예를 들어, 도 2를 참조하면, 하나 이상의 프로세서(202a)는 상기 유사도 함수에 기초하여 상기 하나 이상의 제1 잠재 벡터들과 상기 하나 이상의 제2 잠재 벡터들간의 유사도(similarity)를 계산하도록 하나 이상의 트랜시버(206a) 및/또는 하나 이상의 메모리(204a)를 제어할 수 있다.According to the above-described S2560, the first wireless device (eg, 200a in FIG. 2 ) calculates a similarity between the one or more first latent vectors and the one or more second latent vectors based on the similarity function. The operation may be implemented by the device of FIGS. 1 to 5 . For example, referring to FIG. 2 , one or more processors 202a may be configured to calculate a similarity between the one or more first latent vectors and the one or more second latent vectors based on the similarity function. may control the transceiver 206a and/or one or more memories 204a.
S2570에서, 제1 무선 장치는 상기 계산된 유사도에 기초하여 상기 하나 이상의 서브 그래프들을 업데이트한다.In S2570, the first wireless device updates the one or more subgraphs based on the calculated similarity.
일 실시예에 의하면, 상기 하나 이상의 서브 그래프들을 업데이트 하는 단계는 상기 하나 이상의 제2 잠재 벡터들로부터 하나 이상의 서브 그래프들을 복원하는 단계, 상기 복원된 하나 이상의 서브 그래프들과 상기 하나 이상의 서브 그래프들을 비교하여 상기 하나 이상의 서브 그래프들을 업데이트 하는 단계 및 상기 업데이트된 하나 이상의 서브 그래프들을 상기 기 설정된 그래프 데이터에 반영하는 단계를 포함할 수 있다.According to an embodiment, the updating of the one or more subgraphs may include: reconstructing one or more subgraphs from the one or more second latent vectors; comparing the restored one or more subgraphs with the one or more subgraphs; and updating the one or more subgraphs by doing so, and reflecting the updated one or more subgraphs to the preset graph data.
상기 하나 이상의 서브 그래프들의 업데이트는 상기 하나 이상의 서브 그래프들 각각에 포함되는 노드 또는 엣지(edge)가 추가, 수정 또는 삭제됨으로써 수행될 수 있다.Updating the one or more subgraphs may be performed by adding, modifying, or deleting a node or an edge included in each of the one or more subgraphs.
상기 업데이트된 하나 이상의 서브 그래프들에 기초하여 상기 기 설정된 그래프 데이터가 업데이트될 수 있다. 상기 업데이트된(즉, 상기 업데이트된 하나 이상의 서브 그래프들이 반영된) 기 설정된 그래프 데이터는 상술한 실시예에 따른 시멘틱 통신을 지원하기 위한 공유 지식(shared knowledge)에 해당할 수 있다.The preset graph data may be updated based on the updated one or more subgraphs. The updated (that is, the updated one or more sub-graphs are reflected) preset graph data may correspond to shared knowledge for supporting semantic communication according to the above-described embodiment.
상기 하나 이상의 서브 그래프들의 업데이트는 상기 하나 이상의 제2 잠재 벡터들을 포함하는 정보의 전송 주기에 기반하여 수행될 수 있다. 상기 기 설정된 그래프 데이터의 업데이트도 상기 하나 이상의 서브 그래프들의 업데이트와 동일한 주기로 수행될 수 있다.Updating the one or more subgraphs may be performed based on a transmission period of information including the one or more second latent vectors. The update of the preset graph data may also be performed at the same cycle as the update of the one or more sub-graphs.
상술한 S2570에 따라, 제1 무선장치(예: 도 2의 200a)가 상기 계산된 유사도에 기초하여 상기 하나 이상의 서브 그래프들을 업데이트하는 동작은 도 1 내지 도 5의 장치에 의해 구현될 수 있다. 예를 들어, 도 2를 참조하면, 하나 이상의 프로세서(202a)는 상기 계산된 유사도에 기초하여 상기 하나 이상의 서브 그래프들을 업데이트하도록 하나 이상의 트랜시버(206a) 및/또는 하나 이상의 메모리(204a)를 제어할 수 있다.According to the above-described S2570, the first wireless device (eg, 200a of FIG. 2 ) updating the one or more subgraphs based on the calculated similarity can be implemented by the devices of FIGS. 1 to 5 . For example, referring to FIG. 2, one or more processors 202a may control one or more transceivers 206a and/or one or more memories 204a to update the one or more sub-graphs based on the calculated degree of similarity. can
상술한 동작들은 편의상 제1 무선 장치의 동작을 중심으로 설명하였으나, 이는 본 명세서의 실시예에 기반하는 방법의 적용이 제1 무선 장치의 동작에만 한정되어 적용되는 것을 의미하는 것이 아니다. Although the above-described operations have been described focusing on the operation of the first wireless device for convenience, this does not mean that the application of the method based on the embodiment of the present specification is limited to the operation of the first wireless device.
일 예로, 제1 무선 장치의 전송 동작은 제2 무선 장치의 수신 동작으로 해석될 수 있으며, 제1 무선 장치의 수신 동작은 제2 무선 장치의 전송 동작으로 해석될 수 있다. For example, a transmission operation of a first wireless device may be interpreted as a reception operation of a second wireless device, and a reception operation of the first wireless device may be interpreted as a transmission operation of a second wireless device.
다른 예로, 제1 무선 장치에 의해 수행되는 동작은 제2 무선 장치에 의해 수행될 수 있다. 즉, 서브 그래프의 추출, 잠재 벡터의 생성 및 서브 그래프의 업데이트 동작은 source/destination 양 측에서 각각 수행될 수 있는 바, 상술한 S2530 내지 S2570에 기반하는 동작은 제2 무선 장치에 의해서도 수행될 수 있다.As another example, an operation performed by a first wireless device may be performed by a second wireless device. That is, subgraph extraction, latent vector generation, and subgraph update operations can be performed on both sides of the source/destination, respectively, and the operations based on S2530 to S2570 described above can also be performed by the second wireless device. there is.
상기 방법은 S2510 내지 S2570 중 전부 또는 일부(예: S2530 내지 S2570)에 기초하여 수행될 수 있다.The method may be performed based on all or part (eg, S2530 to S2570) of S2510 to S2570.
일 예로, 상기 방법은 그래프 데이터의 업데이트와 관련된 초기화 동작이 수행되지 않은 경우에 수행되는 방법일 수 있다. 이 때, 상기 방법은 S2510 내지 S2570을 포함할 수 있다. 상기 제1 무선 장치는 단말(User Equipment, UE)이고, 상기 제2 무선 장치는 기지국(Base Station, BS)일 수 있다.For example, the method may be performed when an initialization operation related to updating graph data is not performed. At this time, the method may include S2510 to S2570. The first wireless device may be a user equipment (UE), and the second wireless device may be a base station (BS).
일 예로, 상기 방법은 D2D(Device to Device) 통신에 기반하여 수행될 수 있다. 상기 방법은 S2510 내지 S2570을 포함할 수 있다. 상기 S2510 내지 S2520에 따른 초기화 동작은 앞서 언급한 것처럼 D2D 통신에 기반하여 수행될 수 있다. 상기 제1 무선 장치는 단말이고, 상기 제2 무선 장치는 다른 단말일 수 있다. 이 경우, 상기 제어 정보는 기지국으로부터 각 단말들(제1 무선 장치 및 제2 무선 장치)로 전송될 수 있다. 구체적으로 제1 무선 장치 및 제2 무선 장치로부터 상기 성능 정보를 수신한 기지국은 상기 제1 무선 장치 및 상기 제2 무선 장치가 상기 그래프 데이터와 관련된 동작을 지원하는 경우, 상기 제어 정보를 제1 무선 장치 및 제2 무선 장치로 전송할 수 있다. 이에 따라, 제1 무선 장치 및 제2 무선 장치는 수신된 제어 정보를 이용하여 시멘틱 통신(semantic communication)을 위한 초기 설정(상술한 초기화 동작)을 수행할 수 있다.For example, the method may be performed based on Device to Device (D2D) communication. The method may include S2510 to S2570. As mentioned above, the initialization operations according to S2510 to S2520 may be performed based on D2D communication. The first wireless device may be a terminal, and the second wireless device may be another terminal. In this case, the control information may be transmitted from the base station to each terminal (the first wireless device and the second wireless device). Specifically, the base station receiving the performance information from the first wireless device and the second wireless device transmits the control information to the first wireless device when the first wireless device and the second wireless device support an operation related to the graph data. device and the second wireless device. Accordingly, the first wireless device and the second wireless device may perform initial setting for semantic communication (the above-described initialization operation) using the received control information.
일 예로, 상기 방법은 그래프 데이터의 업데이트와 관련된 초기화 이후에 수행될 수 있다. 상기 초기화는 기지국과 단말간의 통신에 기반하여 수행되거나 또는 (D2D 통신의 경우) 각각의 단말과 기지국간의 통신에 기반하여 수행되는 것일 수 있다. 이 때, 상기 방법은 S2530 내지 S2570을 포함할 수 있다. 상기 제1 무선 장치는 단말(User Equipment, UE) 또는 기지국(Base Station, BS)이며, 상기 제2 무선 장치는 단말(User Equipment, UE) 또는 기지국(Base Station, BS)일 수 있다. 즉, S2510 내지 S2520에 따른 동작들을 제외한 나머지 동작들(S2530~S2570)은 단말 및 기지국에 의해 수행될 수 있을 뿐만 아니라 단말 및 다른 단말에 의해서도 수행될 수 있다.For example, the method may be performed after initialization related to updating graph data. The initialization may be performed based on communication between the base station and the terminal or (in case of D2D communication) based on communication between each terminal and the base station. At this time, the method may include S2530 to S2570. The first wireless device may be a user equipment (UE) or a base station (BS), and the second wireless device may be a user equipment (UE) or a base station (BS). That is, the remaining operations (S2530 to S2570) excluding the operations according to S2510 to S2520 may be performed by the terminal and the base station as well as the terminal and other terminals.
여기서, 본 명세서의 무선 기기(200a, 200b)에서 구현되는 무선 통신 기술은 LTE, NR 및 6G뿐만 아니라 저전력 통신을 위한 Narrowband Internet of Things를 포함할 수 있다. 이때, 예를 들어 NB-IoT 기술은 LPWAN(Low Power Wide Area Network) 기술의 일례일 수 있고, LTE Cat NB1 및/또는 LTE Cat NB2 등의 규격으로 구현될 수 있으며, 상술한 명칭에 한정되는 것은 아니다. 추가적으로 또는 대체적으로, 본 명세서의 무선 기기(XXX, YYY)에서 구현되는 무선 통신 기술은 LTE-M 기술을 기반으로 통신을 수행할 수 있다. 이때, 일 예로, LTE-M 기술은 LPWAN 기술의 일례일 수 있고, eMTC(enhanced Machine Type Communication) 등의 다양한 명칭으로 불릴 수 있다. 예를 들어, LTE-M 기술은 1) LTE CAT 0, 2) LTE Cat M1, 3) LTE Cat M2, 4) LTE non-BL(non-Bandwidth Limited), 5) LTE-MTC, 6) LTE Machine Type Communication, 및/또는 7) LTE M 등의 다양한 규격 중 적어도 어느 하나로 구현될 수 있으며 상술한 명칭에 한정되는 것은 아니다. 추가적으로 또는 대체적으로, 본 명세서의 무선 기기(XXX, YYY)에서 구현되는 무선 통신 기술은 저전력 통신을 고려한 지그비(ZigBee), 블루투스(Bluetooth) 및 저전력 광역 통신망(Low Power Wide Area Network, LPWAN) 중 적어도 어느 하나를 포함할 수 있으며, 상술한 명칭에 한정되는 것은 아니다. 일 예로 ZigBee 기술은 IEEE 802.15.4 등의 다양한 규격을 기반으로 소형/저-파워 디지털 통신에 관련된 PAN(personal area networks)을 생성할 수 있으며, 다양한 명칭으로 불릴 수 있다.Here, the wireless communication technology implemented in the wireless devices 200a and 200b of the present specification may include Narrowband Internet of Things for low power communication as well as LTE, NR, and 6G. At this time, for example, NB-IoT technology may be an example of LPWAN (Low Power Wide Area Network) technology, and may be implemented in standards such as LTE Cat NB1 and / or LTE Cat NB2. no. Additionally or alternatively, the wireless communication technology implemented in the wireless device (XXX, YYY) of the present specification may perform communication based on LTE-M technology. At this time, as an example, LTE-M technology may be an example of LPWAN technology, and may be called various names such as eMTC (enhanced machine type communication). For example, LTE-M technologies are 1) LTE CAT 0, 2) LTE Cat M1, 3) LTE Cat M2, 4) LTE non-BL (non-Bandwidth Limited), 5) LTE-MTC, 6) LTE Machine Type Communication, and/or 7) It may be implemented in at least one of various standards such as LTE M, and is not limited to the above-mentioned names. Additionally or alternatively, the wireless communication technology implemented in the wireless device (XXX, YYY) of the present specification is at least one of ZigBee, Bluetooth, and Low Power Wide Area Network (LPWAN) considering low power communication It may include any one, and is not limited to the above-mentioned names. For example, ZigBee technology can generate personal area networks (PANs) related to small/low-power digital communication based on various standards such as IEEE 802.15.4, and can be called various names.
이상에서 설명된 실시 예들은 본 명세서의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 명세서의 실시 예를 구성하는 것도 가능하다. 본 명세서의 실시 예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시 예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시 예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.The embodiments described above are those in which the elements and features of the present specification are combined in a predetermined form. Each component or feature should be considered optional unless explicitly stated otherwise. Each component or feature may be implemented in a form not combined with other components or features. In addition, it is also possible to configure the embodiments of the present specification by combining some elements and/or features. The order of operations described in the embodiments of this specification may be changed. Some components or features of one embodiment may be included in another embodiment, or may be replaced with corresponding components or features of another embodiment. It is obvious that claims that do not have an explicit citation relationship in the claims can be combined to form an embodiment or can be included as new claims by amendment after filing.
본 명세서에 따른 실시 예는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시 예는 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.An embodiment according to the present specification may be implemented by various means, for example, hardware, firmware, software, or a combination thereof. In the case of hardware implementation, one embodiment of the present invention provides one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), FPGAs ( field programmable gate arrays), processors, controllers, microcontrollers, microprocessors, etc.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 명세서의 일 실시 예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리는 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of implementation by firmware or software, an embodiment of the present specification may be implemented in the form of a module, procedure, or function that performs the functions or operations described above. The software code can be stored in memory and run by a processor. The memory may be located inside or outside the processor and exchange data with the processor by various means known in the art.
본 명세서는 본 명세서의 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 따라서, 상술한 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 명세서의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 명세서의 등가적 범위 내에서의 모든 변경은 본 명세서의 범위에 포함된다.It is apparent to those skilled in the art that the present specification may be embodied in other specific forms without departing from the essential features of the present specification. Accordingly, the foregoing detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of this specification should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of this specification are included in the scope of this specification.

Claims (12)

  1. 무선 통신 시스템에서 시멘틱 통신(semantic communication)을 지원하기 위해 제1 무선 장치에 의해 수행되는 방법에 있어서,A method performed by a first wireless device to support semantic communication in a wireless communication system, comprising:
    기 설정된 그래프 데이터(graph data)로부터 하나 이상의 서브 그래프들(sub-graphs)을 추출하는 단계,Extracting one or more sub-graphs from preset graph data;
    상기 하나 이상의 서브 그래프들은 제어 정보에 기반하여 추출되며,The one or more subgraphs are extracted based on control information,
    상기 제어 정보는 i) 상기 기 설정된 그래프 데이터로 표현되는 지식(knowledge)의 일부와 관련된 서브 그래프(sub-graph)의 추출을 위한 점수 함수(score function), ii) 상기 서브 그래프를 처리하기 위한 그래프 뉴럴 네트워크 모델(Graph Neural Network model, GNN model) 또는 iii) 상기 서브 그래프로부터 생성되는 잠재 벡터(latent vector)와 관련된 유사도 함수(similarity function) 중 적어도 하나에 대한 정보를 포함하고;The control information is i) a score function for extracting a sub-graph related to a part of knowledge represented by the preset graph data, ii) a graph for processing the sub-graph includes information on at least one of a graph neural network model (GNN model) or iii) a similarity function related to a latent vector generated from the subgraph;
    상기 하나 이상의 서브 그래프들에 기초하여 하나 이상의 제1 잠재 벡터들(one or more first latent vectors)을 생성하는 단계;generating one or more first latent vectors based on the one or more subgraphs;
    제2 무선 장치로부터, 하나 이상의 제2 잠재 벡터들(one or more second latent vectors)을 포함하는 정보를 수신하는 단계;receiving, from a second wireless device, information comprising one or more second latent vectors;
    상기 유사도 함수에 기초하여, 상기 하나 이상의 제1 잠재 벡터들과 상기 하나 이상의 제2 잠재 벡터들간의 유사도(similarity)를 계산하는 단계; 및calculating a similarity between the one or more first latent vectors and the one or more second latent vectors based on the similarity function; and
    상기 계산된 유사도에 기초하여 상기 하나 이상의 서브 그래프들을 업데이트하는 단계를 포함하되,Updating the one or more subgraphs based on the calculated similarity,
    상기 하나 이상의 서브 그래프들은 상기 기 설정된 그래프 데이터(graph data)에 포함되는 노드 세트들 중 상기 점수 함수에 기초하여 계산된 점수가 높은 순으로 결정된 특정 노드 세트들에 기반하고,The one or more sub-graphs are based on specific node sets determined in the order of high scores calculated based on the score function among node sets included in the preset graph data,
    상기 잠재 벡터는 상기 계산된 점수에 기초하는 랭킹(ranking)을 나타내는 인덱스에 의해 식별되며,The latent vector is identified by an index indicating a ranking based on the calculated score,
    상기 유사도는, 상기 랭킹을 나타내는 인덱스가 동일한 제1 잠재 벡터와 제2 잠재 벡터간에 계산되는 것을 특징으로 하는 방법.The similarity is calculated between a first latent vector and a second latent vector having the same index representing the ranking.
  2. 제1 항에 있어서,According to claim 1,
    상기 하나 이상의 서브 그래프들을 업데이트 하는 단계는,Updating the one or more subgraphs,
    상기 하나 이상의 제2 잠재 벡터들로부터 하나 이상의 서브 그래프들을 복원하는 단계;reconstructing one or more sub-graphs from the one or more second latent vectors;
    상기 복원된 하나 이상의 서브 그래프들과 상기 하나 이상의 서브 그래프들을 비교하여, 상기 하나 이상의 서브 그래프들을 업데이트 하는 단계; 및updating the one or more subgraphs by comparing the restored one or more subgraphs with the one or more subgraphs; and
    상기 업데이트된 하나 이상의 서브 그래프들을 상기 기 설정된 그래프 데이터에 반영하는 단계;를 포함하되,Including; reflecting the updated one or more subgraphs to the preset graph data,
    상기 하나 이상의 서브 그래프들의 업데이트는 상기 하나 이상의 서브 그래프들 각각에 포함되는 노드 또는 엣지(edge)가 추가, 수정 또는 삭제됨으로써 수행되는 것을 특징으로 하는 방법. The updating of the one or more subgraphs is performed by adding, modifying, or deleting a node or an edge included in each of the one or more subgraphs.
  3. 제1 항에 있어서,According to claim 1,
    상기 시멘틱 통신의 지원과 관련된 성능 정보가 상기 제1 무선 장치로부터 상기 제2 무선 장치로 전송되며,Performance information related to support of the semantic communication is transmitted from the first wireless device to the second wireless device;
    상기 시멘틱 통신의 지원과 관련된 성능 정보는 상기 제1 무선 장치가 그래프 데이터와 관련된 동작을 지원하는 지 여부를 나타내는 정보를 포함하는 것을 특징으로 하는 방법.The method of claim 1 , wherein the performance information related to support of the semantic communication includes information indicating whether the first wireless device supports an operation related to graph data.
  4. 제3 항에 있어서,According to claim 3,
    상기 시멘틱 통신의 지원과 관련된 성능 정보가 상기 제1 무선 장치에 의해 그래프 데이터와 관련된 동작이 지원됨을 나타내는 것에 기반하여, 상기 제어 정보가 상기 제2 무선 장치로부터 상기 제1 무선 장치로 전송되는 것을 특징으로 하는 방법.The control information is transmitted from the second wireless device to the first wireless device based on the fact that the performance information related to the support of the semantic communication indicates that an operation related to graph data is supported by the first wireless device. How to.
  5. 제1 항에 있어서,According to claim 1,
    상기 GNN 모델은 그래프 데이터로부터 잠재 벡터의 생성 동작 또는 잠재 벡터로부터 서브 그래프의 복원 동작 중 적어도 하나와 관련된 것을 특징으로 하는 방법.The method characterized in that the GNN model is related to at least one of an operation of generating a latent vector from graph data or an operation of restoring a sub-graph from a latent vector.
  6. 제1 항에 있어서,According to claim 1,
    상기 제어 정보는 i) 상기 계산된 점수가 높은 순으로 결정된 특정 노드 세트들의 개수, ii) 상기 하나 이상의 서브 그래프들과 관련된 홉(hop) 수, iii) 상기 하나 이상의 서브 그래프들과 관련된 위치 인코딩(positional-encoding) 방법 또는 iv) 상기 하나 이상의 제2 잠재 벡터들을 포함하는 정보의 전송 주기 중 적어도 하나에 대한 정보를 더 포함하는 것을 특징으로 하는 방법.The control information includes i) the number of specific node sets determined in the order of high calculated scores, ii) the number of hops associated with the one or more subgraphs, iii) position encoding associated with the one or more subgraphs ( The method further comprises information on at least one of a positional-encoding) method or iv) a transmission period of information including the one or more second latent vectors.
  7. 제6 항에 있어서,According to claim 6,
    상기 하나 이상의 서브 그래프들 각각은 상기 특정 노드 세트들 중 어느 하나의 각 노드로부터 상기 홉 수에 기반하는 하나 이상의 이웃 노드들을 포함하도록 추출되는 것을 특징으로 하는 방법.Wherein each of the one or more subgraphs is extracted to include one or more neighboring nodes based on the number of hops from each node of any one of the specific node sets.
  8. 제6 항에 있어서,According to claim 6,
    상기 위치 인코딩 방법에 기반하여, 상기 하나 이상의 서브 그래프들 각각은 상기 특정 노드 세트들 중 어느 하나와 관련된 위치 정보를 포함하도록 추출되는 것을 특징으로 하는 방법.Based on the location encoding method, each of the one or more subgraphs is extracted to include location information associated with any one of the specific node sets.
  9. 무선 통신 시스템에서 시멘틱 통신(semantic communication)을 지원하는 제1 무선 장치에 있어서, A first wireless device supporting semantic communication in a wireless communication system,
    하나 이상의 송수신기;one or more transceivers;
    상기 하나 이상의 송수신기를 제어하는 하나 이상의 프로세서들; 및one or more processors controlling the one or more transceivers; and
    상기 하나 이상의 프로세서들에 동작 가능하게 접속 가능하고, 상기 하나 이상의 프로세서들에 의해 실행될 때 상기 하나 이상의 프로세서들이 동작들을 수행하도록 설정하는 지시(instruction)들을 저장하는 하나 이상의 메모리들을 포함하며,one or more memories operably connectable to the one or more processors and storing instructions which, when executed by the one or more processors, cause the one or more processors to perform operations;
    상기 동작들은,These actions are
    기 설정된 그래프 데이터(graph data)로부터 하나 이상의 서브 그래프들(sub-graphs)을 추출하는 단계, Extracting one or more sub-graphs from preset graph data;
    상기 하나 이상의 서브 그래프들은 제어 정보에 기반하여 추출되며,The one or more subgraphs are extracted based on control information,
    상기 제어 정보는 i) 상기 기 설정된 그래프 데이터로 표현되는 지식(knowledge)의 일부와 관련된 서브 그래프(sub-graph)의 추출을 위한 점수 함수(score function), ii) 상기 서브 그래프를 처리하기 위한 그래프 뉴럴 네트워크 모델(Graph Neural Network model, GNN model) 또는 iii) 상기 서브 그래프로부터 생성되는 잠재 벡터(latent vector)와 관련된 유사도 함수(similarity function) 중 적어도 하나에 대한 정보를 포함하고;The control information is i) a score function for extracting a sub-graph related to a part of knowledge represented by the preset graph data, ii) a graph for processing the sub-graph includes information on at least one of a graph neural network model (GNN model) or iii) a similarity function related to a latent vector generated from the subgraph;
    상기 하나 이상의 서브 그래프들에 기초하여 하나 이상의 제1 잠재 벡터들(one or more first latent vectors)을 생성하는 단계;generating one or more first latent vectors based on the one or more subgraphs;
    제2 무선 장치로부터, 하나 이상의 제2 잠재 벡터들(one or more second latent vectors)을 포함하는 정보를 수신하는 단계;receiving, from a second wireless device, information comprising one or more second latent vectors;
    상기 유사도 함수에 기초하여, 상기 하나 이상의 제1 잠재 벡터들과 상기 하나 이상의 제2 잠재 벡터들간의 유사도(similarity)를 계산하는 단계; 및calculating a similarity between the one or more first latent vectors and the one or more second latent vectors based on the similarity function; and
    상기 계산된 유사도에 기초하여 상기 하나 이상의 서브 그래프들을 업데이트하는 단계를 포함하되,Updating the one or more subgraphs based on the calculated similarity,
    상기 하나 이상의 서브 그래프들은 상기 기 설정된 그래프 데이터(graph data)에 포함되는 노드 세트들 중 상기 점수 함수에 기초하여 계산된 점수가 높은 순으로 결정된 특정 노드 세트들에 기반하고,The one or more sub-graphs are based on specific node sets determined in the order of high scores calculated based on the score function among node sets included in the preset graph data,
    상기 잠재 벡터는 상기 계산된 점수에 기초하는 랭킹(ranking)을 나타내는 인덱스에 의해 식별되며,The latent vector is identified by an index indicating a ranking based on the calculated score,
    상기 유사도는, 상기 랭킹을 나타내는 인덱스가 동일한 제1 잠재 벡터와 제2 잠재 벡터간에 계산되는 것을 특징으로 하는 제1 무선 장치.The similarity is calculated between a first latent vector and a second latent vector having the same index indicating the ranking.
  10. 제9 항에 있어서,According to claim 9,
    상기 제1 무선 장치는 단말(User Equipment, UE) 또는 기지국(Base Station, BS)이며, 상기 제2 무선 장치는 단말(User Equipment, UE) 또는 기지국(Base Station, BS)인 것을 특징으로 제1 무선 장치.The first wireless device is a user equipment (UE) or a base station (BS), and the second wireless device is a user equipment (UE) or a base station (BS). wireless device.
  11. 하나 이상의 메모리들 및 상기 하나 이상의 메모리들과 기능적으로 연결되어 있는 하나 이상의 프로세서들을 포함하는 장치에 있어서,An apparatus comprising one or more memories and one or more processors functionally connected to the one or more memories, comprising:
    상기 하나 이상의 메모리들은, 상기 하나 이상의 프로세서들에 의해 실행될 때, 상기 하나 이상의 프로세서들이 동작들을 수행하도록 설정하는 지시(instruction)들을 저장하며,the one or more memories store instructions that, when executed by the one or more processors, cause the one or more processors to perform operations;
    상기 동작들은,These actions are
    기 설정된 그래프 데이터(graph data)로부터 하나 이상의 서브 그래프들(sub-graphs)을 추출하는 단계,Extracting one or more sub-graphs from preset graph data;
    상기 하나 이상의 서브 그래프들은 제어 정보에 기반하여 추출되며,The one or more subgraphs are extracted based on control information,
    상기 제어 정보는 i) 상기 기 설정된 그래프 데이터로 표현되는 지식(knowledge)의 일부와 관련된 서브 그래프(sub-graph)의 추출을 위한 점수 함수(score function), ii) 상기 서브 그래프를 처리하기 위한 그래프 뉴럴 네트워크 모델(Graph Neural Network model, GNN model) 또는 iii) 상기 서브 그래프로부터 생성되는 잠재 벡터(latent vector)와 관련된 유사도 함수(similarity function) 중 적어도 하나에 대한 정보를 포함하고;The control information is i) a score function for extracting a sub-graph related to a part of knowledge represented by the preset graph data, ii) a graph for processing the sub-graph includes information on at least one of a graph neural network model (GNN model) or iii) a similarity function related to a latent vector generated from the subgraph;
    상기 하나 이상의 서브 그래프들에 기초하여 하나 이상의 제1 잠재 벡터들(one or more first latent vectors)을 생성하는 단계;generating one or more first latent vectors based on the one or more subgraphs;
    제2 무선 장치로부터, 하나 이상의 제2 잠재 벡터들(one or more second latent vectors)을 포함하는 정보를 수신하는 단계;receiving, from a second wireless device, information comprising one or more second latent vectors;
    상기 유사도 함수에 기초하여, 상기 하나 이상의 제1 잠재 벡터들과 상기 하나 이상의 제2 잠재 벡터들간의 유사도(similarity)를 계산하는 단계; 및calculating a similarity between the one or more first latent vectors and the one or more second latent vectors based on the similarity function; and
    상기 계산된 유사도에 기초하여 상기 하나 이상의 서브 그래프들을 업데이트하는 단계를 포함하되,Updating the one or more subgraphs based on the calculated similarity,
    상기 하나 이상의 서브 그래프들은 상기 기 설정된 그래프 데이터(graph data)에 포함되는 노드 세트들 중 상기 점수 함수에 기초하여 계산된 점수가 높은 순으로 결정된 특정 노드 세트들에 기반하고,The one or more sub-graphs are based on specific node sets determined in the order of high scores calculated based on the score function among node sets included in the preset graph data,
    상기 잠재 벡터는 상기 계산된 점수에 기초하는 랭킹(ranking)을 나타내는 인덱스에 의해 식별되며,The latent vector is identified by an index indicating a ranking based on the calculated score,
    상기 유사도는, 상기 랭킹을 나타내는 인덱스가 동일한 제1 잠재 벡터와 제2 잠재 벡터간에 계산되는 것을 특징으로 하는 장치.The similarity is calculated between a first latent vector and a second latent vector having the same index representing the ranking.
  12. 하나 이상의 명령어를 저장하는 하나 이상의 비일시적(non-transitory) 컴퓨터 판독 가능 매체에 있어서,In one or more non-transitory computer readable media storing one or more instructions,
    상기 하나 이상의 명령어는, 하나 이상의 프로세서에 의해 실행되는 경우, 상기 하나 이상의 프로세서가 동작들을 수행하도록 설정하며,the one or more instructions, when executed by one or more processors, cause the one or more processors to perform operations;
    상기 동작들은,These actions are
    제어 정보에 기반하여 기 설정된 그래프 데이터(graph data)로부터 하나 이상의 서브 그래프들(sub-graphs)을 추출하는 단계,Extracting one or more sub-graphs from preset graph data based on control information;
    상기 하나 이상의 서브 그래프들은 제어 정보에 기반하여 추출되며,The one or more subgraphs are extracted based on control information,
    상기 제어 정보는 i) 상기 기 설정된 그래프 데이터로 표현되는 지식(knowledge)의 일부와 관련된 서브 그래프(sub-graph)의 추출을 위한 점수 함수(score function), ii) 상기 서브 그래프를 처리하기 위한 그래프 뉴럴 네트워크 모델(Graph Neural Network model, GNN model) 또는 iii) 상기 서브 그래프로부터 생성되는 잠재 벡터(latent vector)와 관련된 유사도 함수(similarity function) 중 적어도 하나에 대한 정보를 포함하고;The control information is i) a score function for extracting a sub-graph related to a part of knowledge represented by the preset graph data, ii) a graph for processing the sub-graph includes information on at least one of a graph neural network model (GNN model) or iii) a similarity function related to a latent vector generated from the subgraph;
    상기 하나 이상의 서브 그래프들에 기초하여 하나 이상의 제1 잠재 벡터들(one or more first latent vectors)을 생성하는 단계;generating one or more first latent vectors based on the one or more subgraphs;
    제2 무선 장치로부터, 하나 이상의 제2 잠재 벡터들(one or more second latent vectors)을 포함하는 정보를 수신하는 단계;receiving, from a second wireless device, information comprising one or more second latent vectors;
    상기 유사도 함수에 기초하여, 상기 하나 이상의 제1 잠재 벡터들과 상기 하나 이상의 제2 잠재 벡터들간의 유사도(similarity)를 계산하는 단계; 및calculating a similarity between the one or more first latent vectors and the one or more second latent vectors based on the similarity function; and
    상기 계산된 유사도에 기초하여 상기 하나 이상의 서브 그래프들을 업데이트하는 단계를 포함하되,Updating the one or more subgraphs based on the calculated similarity,
    상기 하나 이상의 서브 그래프들은 상기 기 설정된 그래프 데이터(graph data)에 포함되는 노드 세트들 중 상기 점수 함수에 기초하여 계산된 점수가 높은 순으로 결정된 특정 노드 세트들에 기반하고,The one or more sub-graphs are based on specific node sets determined in the order of high scores calculated based on the score function among node sets included in the preset graph data,
    상기 잠재 벡터는 상기 계산된 점수에 기초하는 랭킹(ranking)을 나타내는 인덱스에 의해 식별되며,The latent vector is identified by an index indicating a ranking based on the calculated score,
    상기 유사도는, 상기 랭킹을 나타내는 인덱스가 동일한 제1 잠재 벡터와 제2 잠재 벡터간에 계산되는 것을 특징으로 하는 비일시적(non-transitory) 컴퓨터 판독 가능 매체. The similarity is calculated between a first latent vector and a second latent vector having the same index indicating the ranking.
PCT/KR2021/014691 2021-10-20 2021-10-20 Method and device for supporting semantic communication in wireless communication system WO2023068398A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2021/014691 WO2023068398A1 (en) 2021-10-20 2021-10-20 Method and device for supporting semantic communication in wireless communication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2021/014691 WO2023068398A1 (en) 2021-10-20 2021-10-20 Method and device for supporting semantic communication in wireless communication system

Publications (1)

Publication Number Publication Date
WO2023068398A1 true WO2023068398A1 (en) 2023-04-27

Family

ID=86058193

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/014691 WO2023068398A1 (en) 2021-10-20 2021-10-20 Method and device for supporting semantic communication in wireless communication system

Country Status (1)

Country Link
WO (1) WO2023068398A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110674317A (en) * 2019-09-30 2020-01-10 北京邮电大学 Entity linking method and device based on graph neural network
KR102131099B1 (en) * 2014-02-13 2020-08-05 삼성전자 주식회사 Dynamically modifying elements of User Interface based on knowledge graph

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102131099B1 (en) * 2014-02-13 2020-08-05 삼성전자 주식회사 Dynamically modifying elements of User Interface based on knowledge graph
CN110674317A (en) * 2019-09-30 2020-01-10 北京邮电大学 Entity linking method and device based on graph neural network

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ALSENTZER ALSENTZER EMILY EMILY, FINLAYSON SAMUEL G, LI MICHELLE M, ZITNIK MARINKA: "Subgraph Neural Networks", 34TH CONFERENCE ON NEURAL INFORMATION PROCESSING SYSTEMS (NEURIPS 2020), 6TH - DEC 12TH, 2020, VANCOUVER, CANADA, 1 December 2020 (2020-12-01), Vancouver, Canada, XP093057797, Retrieved from the Internet <URL:https://proceedings.neurips.cc/paper/2020/file/5bca8566db79f3788be9efd96c9ed70d-Paper.pdf> [retrieved on 20230626], DOI: 10.48550/arxiv.2006.10538 *
JIANG HE; LI LUSI; WANG ZHENHUA; HE HAIBO: "Graph Neural Network Based Interference Estimation for Device-to-Device Wireless Communications", 2021 INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS (IJCNN), IEEE, 18 July 2021 (2021-07-18), pages 1 - 7, XP033975024, DOI: 10.1109/IJCNN52387.2021.9534202 *
LAN LAN ZIXUN ZIXUN, YU LIMIN, YUAN LINGLONG, WU ZILI, NIU QIANG, MA FEI: "Sub-GMN: The Neural Subgraph Matching Network Model", ARXIV:2104.00186V3, 30 April 2021 (2021-04-30), XP093057786, Retrieved from the Internet <URL:https://arxiv.org/pdf/2104.00186v3.pdf> [retrieved on 20230626], DOI: 10.48550/arxiv.2104.00186 *

Similar Documents

Publication Publication Date Title
WO2021112360A1 (en) Method and device for estimating channel in wireless communication system
WO2020067623A1 (en) Method for transmitting and receiving downlink signal between terminal and base station in wireless communication system and apparatus for supporting same
WO2020130727A1 (en) Control of ranging initiators and responders in an uwb network
WO2022050432A1 (en) Method and device for performing federated learning in wireless communication system
WO2021256584A1 (en) Method for transmitting or receiving data in wireless communication system and apparatus therefor
WO2022086160A1 (en) Method for efficiently transmitting sidelink csi report for beam management in mmwave v2x communication system
WO2022075493A1 (en) Method for performing reinforcement learning by v2x communication device in autonomous driving system
WO2022010012A1 (en) Beamforming method and device in wireless communication system
WO2020145741A1 (en) Ranging-specific mac service and pib attributes for ieee 802.15.4z
WO2023003054A1 (en) Method for performing quantum secure direct communication in quantum communication system, and apparatus therefor
WO2022045399A1 (en) Federated learning method based on selective weight transmission and terminal therefor
WO2022014751A1 (en) Method and apparatus for generating uw for channel estimation in frequency domain in wireless communication system
WO2021251511A1 (en) Method for transmitting/receiving uplink signal of high frequency band in wireless communication system, and device therefor
WO2023068398A1 (en) Method and device for supporting semantic communication in wireless communication system
WO2022265141A1 (en) Method for performing beam management in wireless communication system and device therefor
WO2022004927A1 (en) Method for transmitting or receiving signal in wireless communication system using auto encoder, and apparatus therefor
WO2022010014A1 (en) Method and apparatus for estimating phase noise in wireless communication system
WO2022030664A1 (en) Communication method based on similarity of inter-frequency band spatial information for channel in wireless communication system and apparatus therefor
WO2022025321A1 (en) Signal randomization method and device of communication apparatus
WO2022014735A1 (en) Method and device for terminal and base station to transmit and receive signals in wireless communication system
WO2022039302A1 (en) Method for controlling calculations of deep neural network in wireless communication system, and apparatus therefor
WO2022045377A1 (en) Method by which terminal and base station transmit/receive signals in wireless communication system, and apparatus
WO2022050434A1 (en) Method and apparatus for performing handover in wireless communication system
WO2021256585A1 (en) Method and device for transmitting/receiving signal in wireless communication system
WO2021261611A1 (en) Method and device for performing federated learning in wireless communication system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21961487

Country of ref document: EP

Kind code of ref document: A1