WO2024096145A1 - Mobility apparatus and method for generating transmission or reception signal in wireless communication system - Google Patents

Mobility apparatus and method for generating transmission or reception signal in wireless communication system Download PDF

Info

Publication number
WO2024096145A1
WO2024096145A1 PCT/KR2022/016830 KR2022016830W WO2024096145A1 WO 2024096145 A1 WO2024096145 A1 WO 2024096145A1 KR 2022016830 W KR2022016830 W KR 2022016830W WO 2024096145 A1 WO2024096145 A1 WO 2024096145A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
semantic
data
labeling
learning
Prior art date
Application number
PCT/KR2022/016830
Other languages
French (fr)
Korean (ko)
Inventor
정익주
이상림
이태현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2022/016830 priority Critical patent/WO2024096145A1/en
Publication of WO2024096145A1 publication Critical patent/WO2024096145A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Definitions

  • the following description is about a wireless communication system, and relates to an apparatus and method for generating transmission and reception signals in a wireless communication system.
  • a method and device for performing a downstream task based on a task-oriented operation in semantic communication can be provided.
  • a method and device for generating a signal for performing a downstream task based on a weakly supervised contrastive learning technique can be provided.
  • Wireless access systems are being widely deployed to provide various types of communication services such as voice and data.
  • a wireless access system is a multiple access system that can support communication with multiple users by sharing available system resources (bandwidth, transmission power, etc.).
  • multiple access systems include code division multiple access (CDMA) systems, frequency division multiple access (FDMA) systems, time division multiple access (TDMA) systems, orthogonal frequency division multiple access (OFDMA) systems, and single carrier frequency (SC-FDMA) systems. division multiple access) systems, etc.
  • enhanced mobile broadband (eMBB) communication technology is being proposed compared to the existing radio access technology (RAT).
  • RAT radio access technology
  • a communication system that takes into account reliability and latency-sensitive services/UE (user equipment) as well as mMTC (massive machine type communications), which connects multiple devices and objects to provide a variety of services anytime and anywhere, is being proposed. .
  • mMTC massive machine type communications
  • This disclosure relates to an apparatus and method for generating transmission and reception signals in a wireless communication system.
  • the present disclosure can provide an apparatus and method for transmitting and receiving signals between semantic layers located at a source and a destination in a wireless communication system.
  • the present disclosure can provide an apparatus and method for learning how to generate a signal using weakly-supervised contrastive learning in a wireless communication system.
  • the present disclosure can provide an apparatus and method for performing weakly labeling in a wireless communication system.
  • the present disclosure can provide a method for generating a signal for performing a downstream task of a destination in a wireless communication system.
  • the present disclosure may provide an apparatus and method for updating background knowledge held at a source and a destination in a wireless communication system.
  • the present disclosure can provide an apparatus and method for updating learning information for generating signals in a wireless communication system.
  • a method of operating a first device in a wireless communication system includes receiving a capability information request for a first device from a second device, transmitting capability information of the first device to the second device. If the first device is a device equipped with semantic communication capabilities based on the capability information of the first device, receiving semantic communication-related information from the second device, the semantic communication-related It may include generating a semantic communication signal based on information, and transmitting the semantic communication signal and information for performing weakly labeling to the second device.
  • the semantic communication signal is generated using shared information and information for performing the weekly labeling, and the weekly labeling is performed by applying a weak label to semantic data using the shared information and auxiliary information. ), and the update of the shared information may be performed based on the operation of a downstream task performed in the second device.
  • a method of operating a second device in a wireless communication system includes transmitting a capability information request to a first device, receiving capability information from the first device, and receiving capability information from the first device.
  • the first device is a device having semantic communication capabilities, transmitting semantic communication-related information to the first device, and a semantic communication signal generated from the first device based on the semantic communication-related information.
  • it may include receiving information for performing weekly labeling.
  • the semantic communication signal is generated using shared information and information for performing the weekly labeling, and the weekly labeling is performed by applying a weak label to semantic data using the shared information and auxiliary information. ), and the update of the shared information may be performed based on the operation of the downstream task performed in the second device.
  • a first device in a wireless communication system, includes a transceiver, and a processor connected to the transceiver, wherein the processor receives a capability information request for the first device from a second device, and 1 Transmit the capability information of the device to the second device, and if the first device is a device equipped with semantic communication capability based on the capability information of the first device, receive semantic communication-related information from the second device. And, a semantic communication signal can be generated based on the semantic communication-related information, and the semantic communication signal and information for performing weekly labeling can be controlled to be transmitted to the second device.
  • the semantic communication signal is generated using shared information and information for performing the weekly labeling, and the weekly labeling is performed by applying a weak label to semantic data using the shared information and auxiliary information. ), and the update of the shared information may be performed based on the operation of a downstream task performed in the second device.
  • a second device includes a transceiver, and a processor connected to the transceiver, wherein the processor transmits a capability information request to the first device, receives capability information from the first device, and Based on the capability information of the first device, if the first device is a device equipped with semantic communication capability, semantic communication-related information is transmitted to the first device, and the first device transmits semantic communication-related information based on the semantic communication-related information.
  • Controlled to receive a generated semantic communication signal and information for performing weekly labeling wherein the semantic communication signal is generated using shared information and information for performing the weekly labeling, and the weekly Labeling is an operation of assigning a weak label to semantic data using the shared information and auxiliary information, and updating of the shared information is an operation of a downstream task performed in the second device. It can be performed based on .
  • a first device includes at least one memory and at least one processor functionally connected to the at least one memory, wherein the processor includes the first device and the second device.
  • Receive a capability information request for a first device from transmit capability information of the first device to the second device, and determine if the first device has semantic communication capability based on the capability information of the first device.
  • it receives semantic communication-related information from the second device generates a semantic communication signal based on the semantic communication-related information, and sends the semantic communication signal and information for performing weekly labeling to the second device. 2 You can control transmission to the device.
  • the semantic communication signal is generated using shared information and information for performing the weekly labeling, and the weekly labeling is performed by applying a weak label to semantic data using the shared information and auxiliary information. ), and the update of the shared information may be performed based on the operation of the downstream task performed in the second device.
  • a non-transitory computer-readable medium storing at least one instruction.
  • the at least one instruction executable by a processor, the at least one instruction configured to: receive a capability information request from a second device, transmit capability information to the second device, and Based on this, when the computer-readable medium is a medium with semantic communication capability, receives semantic communication-related information from the second device, generates a semantic communication signal based on the semantic communication-related information, and generates the semantic communication signal. And it can be controlled to transmit information for performing weakly labeling to the second device.
  • the semantic communication signal is generated using shared information and information for performing the weekly labeling, and the weekly labeling is performed by applying a weak label to semantic data using the shared information and auxiliary information. ), and the update of the shared information may be performed based on the operation of the downstream task performed in the second device.
  • the semantic communication signal is not decoded by the second device into the raw data used by the first device to generate the representation and is used for a downstream task. It can be used for performance.
  • the capability information is information for determining whether the first device can perform semantic communication, including the type of raw data that the first device can process and It may include computing capability information of the first device.
  • the semantic communication-related information includes a semantic data acquisition unit, information for performing the weekly labeling, mini-batch size, augmentation type, and augmentation ratio.
  • the semantic data is data extracted from the raw data
  • the information for performing the weekly labeling includes auxiliary information
  • the acquisition unit and the augment The type of statement and the augmentation rate may be determined based on shared information between the first device and the second device.
  • obtaining semantic data from raw data performing weekly labeling on the semantic data to generate weekly labeled semantic data, and generating weekly labeled semantic data from the weekly labeled semantic data.
  • a step of generating augmentation data may be further included.
  • the shared information update is performed using a signal converted from the semantic communication signal, and the converted signal may be generated based on a data format used to perform a downstream task. there is.
  • the shared information update is performed using a transform head, and the transform head includes at least one dance layer (dense layer) and at least one non-linear (non-linear) linear) function.
  • the shared information update may be performed using at least one of an expression used in pre-learning, an expression used in learning to perform a downstream task, and an expression used in inference.
  • learning for the downstream task may be generated based on the first layer of the transform head and at least one layer determined for performing the downstream task.
  • learning for the downstream task may include a fine-tuning operation or a transfer-learning operation.
  • the fine tuning operation uses the weight of the encoder, the weight for the additional operation, and the weight for the first layer of the transform head to determine the neural network according to the downstream task. It can be performed on all networks, including neural networks.
  • the transfer learning operation is performed according to the downstream task, after pre-learning is completed, with the weight of the encoder, the weight for the additional operation, and the weight for the first layer of the transform head being fixed. It can be performed on an added multi-layer perceptron (MLP).
  • MLP multi-layer perceptron
  • the semantic communication signal may be transmitted on a layer for semantic communication.
  • a method for transmitting and receiving source and destination signals in semantic communication can be provided.
  • a method for transmitting and receiving signals between semantic layers located at a source and a destination can be provided.
  • a source may provide a method for generating a signal suitable for a downstream task at a destination.
  • a method of performing learning for signal generation using weakly supervised contrastive learning may be provided.
  • a method of performing weakly labeling may be provided.
  • a learning method for generating a signal suitable for a downstream task of the destination may be provided.
  • a method may be provided to update background knowledge held by the source and destination in order to perform a downstream task located at the destination in a task-oriented manner. there is.
  • FIG. 1 is a diagram showing an example of a communication system applicable to the present disclosure.
  • Figure 2 is a diagram showing an example of a wireless device applicable to the present disclosure.
  • Figure 3 is a diagram showing another example of a wireless device applicable to the present disclosure.
  • Figure 4 is a diagram showing an example of AI (Artificial Intelligence) applicable to the present disclosure.
  • AI Artificial Intelligence
  • Figure 5 shows an example of a communication model divided into three stages according to an embodiment of the present disclosure.
  • Figure 6 shows an example of a semantic communication system according to an embodiment of the present disclosure.
  • Figure 7 shows an example of contrastive learning according to an embodiment of the present disclosure.
  • Figure 8 shows an example of instance discrimination for contrast learning according to an embodiment of the present disclosure.
  • Figure 9 shows an example of augmentation data according to an embodiment of the present disclosure.
  • Figure 10 shows an example of a problem that may occur when performing contrast learning according to an embodiment of the present disclosure.
  • Figure 11 shows an example framework for dictionary learning according to an embodiment of the present disclosure.
  • Figure 12 shows an example of semantic data generation according to an embodiment of the present disclosure.
  • Figure 13 shows an example of weekly labeling based on discrete attributes according to an embodiment of the present disclosure.
  • Figure 14 shows an example of weekly labeling based on a hierarchical level according to an embodiment of the present disclosure.
  • Figure 15 shows the performance of edge perturbation according to an embodiment of the present disclosure.
  • Figure 16 shows an example of an additional data conversion operation when the data modality is a graph.
  • Figure 17 shows an example of an additional data conversion operation when the data modality is text.
  • Figure 18 shows an example of a transform head configuration according to an embodiment of the present disclosure.
  • Figure 19 shows a graph of the results of performing weekly labeling based on discrete attributes according to an embodiment of the present disclosure.
  • Figure 20 shows a graph of the relationship between parameters related to weekly labeling based on hierarchical levels according to an embodiment of the present disclosure.
  • Figure 21 shows an example framework for training and inference according to a downstream task according to an embodiment of the present disclosure.
  • Figure 22 shows an example of a semantic signal generation operation procedure according to an embodiment of the present disclosure.
  • Figure 23 shows an example of a signal diagram for initial setup of semantic communication according to an embodiment of the present disclosure.
  • Figure 24 shows an example of an information exchange diagram in a mini-batch unit according to an embodiment of the present disclosure.
  • each component or feature may be considered optional unless explicitly stated otherwise.
  • Each component or feature may be implemented in a form that is not combined with other components or features. Additionally, some components and/or features may be combined to configure an embodiment of the present disclosure. The order of operations described in embodiments of the present disclosure may be changed. Some features or features of one embodiment may be included in another embodiment or may be replaced with corresponding features or features of another embodiment.
  • the present disclosure has been described focusing on the data transmission and reception relationship between the base station and the mobile station.
  • the present disclosure is not limited to data transmission and reception between the base station and the mobile station, and may be implemented in various forms, such as data transmission and reception between the mobile station and the mobile station.
  • the base station is meant as a terminal node of the network that directly communicates with the mobile station. Certain operations described in this document as being performed by the base station may, in some cases, be performed by an upper node of the base station.
  • 'base station' refers to terms such as fixed station, Node B, eNB (eNode B), gNB (gNode B), ng-eNB, advanced base station (ABS), or access point. It can be replaced by .
  • a terminal may include a user equipment (UE), a mobile station (MS), a subscriber station (SS), a mobile subscriber station (MSS), It can be replaced with terms such as mobile terminal or advanced mobile station (AMS).
  • UE user equipment
  • MS mobile station
  • SS subscriber station
  • MSS mobile subscriber station
  • AMS advanced mobile station
  • the transmitting end refers to a fixed and/or mobile node that provides a data service or a voice service
  • the receiving end refers to a fixed and/or mobile node that receives a data service or a voice service. Therefore, in the case of uplink, the mobile station can be the transmitting end and the base station can be the receiving end. Likewise, in the case of downlink, the mobile station can be the receiving end and the base station can be the transmitting end.
  • Embodiments of the present disclosure include wireless access systems such as the IEEE 802.xx system, 3GPP (3rd Generation Partnership Project) system, 3GPP LTE (Long Term Evolution) system, 3GPP 5G (5th generation) NR (New Radio) system, and 3GPP2 system. It may be supported by at least one standard document disclosed in one, and in particular, embodiments of the present disclosure are supported by the 3GPP TS (technical specification) 38.211, 3GPP TS 38.212, 3GPP TS 38.213, 3GPP TS 38.321 and 3GPP TS 38.331 documents. It can be.
  • 3GPP TS technical specification
  • embodiments of the present disclosure can be applied to other wireless access systems and are not limited to the above-described system. As an example, it may be applicable to systems applied after the 3GPP 5G NR system and is not limited to a specific system.
  • CDMA code division multiple access
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • OFDMA orthogonal frequency division multiple access
  • SC-FDMA single carrier frequency division multiple access
  • LTE is 3GPP TS 36.xxx Release 8
  • LTE-A the LTE technology after 3GPP TS 36.
  • LTE-A pro the LTE technology after 3GPP TS 36.
  • LTE-A pro the LTE technology after 3GPP TS 36.
  • LTE-A pro the LTE technology after 3GPP TS 36.
  • 3GPP NR may mean technology after TS 38.
  • xxx Release 15 and “xxx” may mean technology after TS Release 17 and/or Release 18. This means that LTE/NR/6G can be collectively referred to as a 3GPP system.
  • FIG. 1 is a diagram illustrating an example of a communication system applied to the present disclosure.
  • the communication system 100 applied to the present disclosure includes a wireless device, a base station, and a network.
  • a wireless device refers to a device that performs communication using wireless access technology (e.g., 5G NR, LTE) and may be referred to as a communication/wireless/5G device.
  • wireless devices include robots (100a), vehicles (100b-1, 100b-2), extended reality (XR) devices (100c), hand-held devices (100d), and home appliances (100d).
  • appliance) (100e), IoT (Internet of Thing) device (100f), and AI (artificial intelligence) device/server (100g).
  • vehicles may include vehicles equipped with wireless communication functions, autonomous vehicles, vehicles capable of inter-vehicle communication, etc.
  • the vehicles 100b-1 and 100b-2 may include an unmanned aerial vehicle (UAV) (eg, a drone).
  • UAV unmanned aerial vehicle
  • the XR device 100c includes augmented reality (AR)/virtual reality (VR)/mixed reality (MR) devices, including a head-mounted device (HMD), a head-up display (HUD) installed in a vehicle, a television, It can be implemented in the form of smartphones, computers, wearable devices, home appliances, digital signage, vehicles, robots, etc.
  • the mobile device 100d may include a smartphone, smart pad, wearable device (eg, smart watch, smart glasses), computer (eg, laptop, etc.), etc.
  • Home appliances 100e may include a TV, refrigerator, washing machine, etc.
  • IoT device 100f may include sensors, smart meters, etc.
  • the base station 120 and the network 130 may also be implemented as wireless devices, and a specific wireless device 120a may operate as a base station/network node for other wireless devices.
  • Wireless devices 100a to 100f may be connected to the network 130 through the base station 120.
  • AI technology may be applied to the wireless devices 100a to 100f, and the wireless devices 100a to 100f may be connected to the AI server 100g through the network 130.
  • the network 130 may be configured using a 3G network, 4G (eg, LTE) network, or 5G (eg, NR) network.
  • Wireless devices 100a to 100f may communicate with each other through the base station 120/network 130, but communicate directly (e.g., sidelink communication) without going through the base station 120/network 130. You may.
  • vehicles 100b-1 and 100b-2 may communicate directly (eg, vehicle to vehicle (V2V)/vehicle to everything (V2X) communication).
  • the IoT device 100f eg, sensor
  • the IoT device 100f may communicate directly with other IoT devices (eg, sensor) or other wireless devices 100a to 100f.
  • FIG. 2 is a diagram illustrating an example of a wireless device applicable to the present disclosure.
  • the first wireless device 200a and the second wireless device 200b can transmit and receive wireless signals through various wireless access technologies (eg, LTE, NR).
  • ⁇ first wireless device 200a, second wireless device 200b ⁇ refers to ⁇ wireless device 100x, base station 120 ⁇ and/or ⁇ wireless device 100x, wireless device 100x) in FIG. ⁇ can be responded to.
  • the first wireless device 200a includes one or more processors 202a and one or more memories 204a, and may further include one or more transceivers 206a and/or one or more antennas 208a.
  • Processor 202a controls memory 204a and/or transceiver 206a and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein.
  • the processor 202a may process information in the memory 204a to generate first information/signal and then transmit a wireless signal including the first information/signal through the transceiver 206a.
  • the processor 202a may receive a wireless signal including the second information/signal through the transceiver 206a and then store information obtained from signal processing of the second information/signal in the memory 204a.
  • the memory 204a may be connected to the processor 202a and may store various information related to the operation of the processor 202a.
  • memory 204a may perform some or all of the processes controlled by processor 202a or instructions for performing the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein.
  • Software code containing them can be stored.
  • the processor 202a and the memory 204a may be part of a communication modem/circuit/chip designed to implement wireless communication technology (eg, LTE, NR).
  • Transceiver 206a may be coupled to processor 202a and may transmit and/or receive wireless signals via one or more antennas 208a.
  • Transceiver 206a may include a transmitter and/or receiver.
  • the transceiver 206a may be used interchangeably with a radio frequency (RF) unit.
  • RF radio frequency
  • a wireless device may mean a communication modem/circuit/chip.
  • the second wireless device 200b includes one or more processors 202b, one or more memories 204b, and may further include one or more transceivers 206b and/or one or more antennas 208b.
  • Processor 202b controls memory 204b and/or transceiver 206b and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein.
  • the processor 202b may process information in the memory 204b to generate third information/signal and then transmit a wireless signal including the third information/signal through the transceiver 206b.
  • the processor 202b may receive a wireless signal including the fourth information/signal through the transceiver 206b and then store information obtained from signal processing of the fourth information/signal in the memory 204b.
  • the memory 204b may be connected to the processor 202b and may store various information related to the operation of the processor 202b. For example, memory 204b may perform some or all of the processes controlled by processor 202b or instructions for performing the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein. Software code containing them can be stored.
  • the processor 202b and the memory 204b may be part of a communication modem/circuit/chip designed to implement wireless communication technology (eg, LTE, NR).
  • Transceiver 206b may be coupled to processor 202b and may transmit and/or receive wireless signals via one or more antennas 208b.
  • the transceiver 206b may include a transmitter and/or a receiver.
  • the transceiver 206b may be used interchangeably with an RF unit.
  • a wireless device may mean a communication modem/circuit/chip.
  • one or more protocol layers may be implemented by one or more processors 202a and 202b.
  • one or more processors 202a and 202b may operate on one or more layers (e.g., physical (PHY), media access control (MAC), radio link control (RLC), packet data convergence protocol (PDCP), and radio resource (RRC). control) and functional layers such as SDAP (service data adaptation protocol) can be implemented.
  • layers e.g., physical (PHY), media access control (MAC), radio link control (RLC), packet data convergence protocol (PDCP), and radio resource (RRC). control
  • SDAP service data adaptation protocol
  • One or more processors 202a, 202b may generate one or more protocol data units (PDUs) and/or one or more service data units (SDUs) according to the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed in this document. can be created.
  • One or more processors 202a and 202b may generate messages, control information, data or information according to the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document.
  • One or more processors 202a, 202b generate signals (e.g., baseband signals) containing PDUs, SDUs, messages, control information, data, or information according to the functions, procedures, proposals, and/or methods disclosed herein.
  • transceivers 206a, 206b can be provided to one or more transceivers (206a, 206b).
  • One or more processors 202a, 202b may receive signals (e.g., baseband signals) from one or more transceivers 206a, 206b, and the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein.
  • PDU, SDU, message, control information, data or information can be obtained.
  • One or more processors 202a, 202b may be referred to as a controller, microcontroller, microprocessor, or microcomputer.
  • One or more processors 202a and 202b may be implemented by hardware, firmware, software, or a combination thereof.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document may be implemented using firmware or software, and the firmware or software may be implemented to include modules, procedures, functions, etc.
  • Firmware or software configured to perform the descriptions, functions, procedures, suggestions, methods and/or operation flowcharts disclosed in this document may be included in one or more processors 202a and 202b or stored in one or more memories 204a and 204b. It may be driven by the above processors 202a and 202b.
  • the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document may be implemented using firmware or software in the form of codes, instructions and/or sets of instructions.
  • One or more memories 204a and 204b may be connected to one or more processors 202a and 202b and may store various types of data, signals, messages, information, programs, codes, instructions and/or commands.
  • One or more memories 204a, 204b may include read only memory (ROM), random access memory (RAM), erasable programmable read only memory (EPROM), flash memory, hard drives, registers, cache memory, computer readable storage media, and/or It may be composed of a combination of these.
  • One or more memories 204a and 204b may be located internal to and/or external to one or more processors 202a and 202b. Additionally, one or more memories 204a and 204b may be connected to one or more processors 202a and 202b through various technologies, such as wired or wireless connections.
  • One or more transceivers may transmit user data, control information, wireless signals/channels, etc. mentioned in the methods and/or operation flowcharts of this document to one or more other devices.
  • One or more transceivers 206a, 206b may receive user data, control information, wireless signals/channels, etc. referred to in the descriptions, functions, procedures, suggestions, methods and/or operational flow charts, etc. disclosed herein from one or more other devices.
  • one or more transceivers 206a and 206b may be connected to one or more processors 202a and 202b and may transmit and receive wireless signals.
  • one or more processors 202a and 202b may control one or more transceivers 206a and 206b to transmit user data, control information, or wireless signals to one or more other devices. Additionally, one or more processors 202a and 202b may control one or more transceivers 206a and 206b to receive user data, control information, or wireless signals from one or more other devices. In addition, one or more transceivers (206a, 206b) may be connected to one or more antennas (208a, 208b), and one or more transceivers (206a, 206b) may be connected to the description and functions disclosed in this document through one or more antennas (208a, 208b).
  • one or more antennas may be multiple physical antennas or multiple logical antennas (eg, antenna ports).
  • One or more transceivers (206a, 206b) process the received user data, control information, wireless signals/channels, etc. using one or more processors (202a, 202b), and convert the received wireless signals/channels, etc. from the RF band signal. It can be converted to a baseband signal.
  • One or more transceivers (206a, 206b) may convert user data, control information, wireless signals/channels, etc. processed using one or more processors (202a, 202b) from a baseband signal to an RF band signal.
  • one or more transceivers 206a, 206b may include (analog) oscillators and/or filters.
  • FIG. 3 is a diagram illustrating another example of a wireless device applied to the present disclosure.
  • the wireless device 300 corresponds to the wireless devices 200a and 200b of FIG. 2 and includes various elements, components, units/units, and/or modules. ) can be composed of.
  • the wireless device 300 may include a communication unit 310, a control unit 320, a memory unit 330, and an additional element 340.
  • the communication unit may include communication circuitry 312 and transceiver(s) 314.
  • communication circuitry 312 may include one or more processors 202a and 202b and/or one or more memories 204a and 204b of FIG. 2 .
  • transceiver(s) 314 may include one or more transceivers 206a, 206b and/or one or more antennas 208a, 208b of FIG. 2.
  • the control unit 320 is electrically connected to the communication unit 310, the memory unit 330, and the additional element 340 and controls overall operations of the wireless device.
  • the control unit 320 may control the electrical/mechanical operation of the wireless device based on the program/code/command/information stored in the memory unit 330.
  • the control unit 320 transmits the information stored in the memory unit 330 to the outside (e.g., another communication device) through the communication unit 310 through a wireless/wired interface, or to the outside (e.g., to another communication device) through the communication unit 310.
  • Information received through a wireless/wired interface from another communication device can be stored in the memory unit 330.
  • the additional element 340 may be configured in various ways depending on the type of wireless device.
  • the additional element 340 may include at least one of a power unit/battery, an input/output unit, a driving unit, and a computing unit.
  • the wireless device 300 includes robots (FIG. 1, 100a), vehicles (FIG. 1, 100b-1, 100b-2), XR devices (FIG. 1, 100c), and portable devices (FIG. 1, 100d).
  • FIG. 1, 100e home appliances
  • IoT devices Figure 1, 100f
  • digital broadcasting terminals hologram devices
  • public safety devices MTC devices
  • medical devices fintech devices (or financial devices)
  • security devices climate/ It can be implemented in the form of an environmental device, AI server/device (FIG. 1, 140), base station (FIG. 1, 120), network node, etc.
  • Wireless devices can be mobile or used in fixed locations depending on the usage/service.
  • various elements, components, units/parts, and/or modules within the wireless device 300 may be entirely interconnected through a wired interface, or at least some of them may be wirelessly connected through the communication unit 310.
  • the control unit 320 and the communication unit 310 are connected by wire, and the control unit 320 and the first unit (e.g., 130, 140) are connected wirelessly through the communication unit 310.
  • each element, component, unit/part, and/or module within the wireless device 300 may further include one or more elements.
  • the control unit 320 may be comprised of one or more processor sets.
  • control unit 320 may be comprised of a communication control processor, an application processor, an electronic control unit (ECU), a graphics processing processor, a memory control processor, etc.
  • memory unit 330 may be comprised of RAM, dynamic RAM (DRAM), ROM, flash memory, volatile memory, non-volatile memory, and/or a combination thereof. It can be configured.
  • FIG. 4 is a diagram showing an example of an AI device applied to the present disclosure.
  • AI devices include fixed devices such as TVs, projectors, smartphones, PCs, laptops, digital broadcasting terminals, tablet PCs, wearable devices, set-top boxes (STBs), radios, washing machines, refrigerators, digital signage, robots, vehicles, etc. It can be implemented as a device or a movable device.
  • the AI device 400 includes a communication unit 410, a control unit 420, a memory unit 430, an input/output unit (440a/440b), a learning processor unit 440c, and a sensor unit 440d. may include.
  • the communication unit 410 uses wired and wireless communication technology to communicate with wired and wireless signals (e.g., sensor information, user Input, learning model, control signal, etc.) can be transmitted and received. To this end, the communication unit 410 may transmit information in the memory unit 430 to an external device or transmit a signal received from an external device to the memory unit 430.
  • wired and wireless signals e.g., sensor information, user Input, learning model, control signal, etc.
  • the control unit 420 may determine at least one executable operation of the AI device 400 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. And, the control unit 420 can control the components of the AI device 400 to perform the determined operation. For example, the control unit 420 may request, search, receive, or utilize data from the learning processor unit 440c or the memory unit 430, and may select at least one operation that is predicted or determined to be desirable among the executable operations. Components of the AI device 400 can be controlled to execute operations.
  • control unit 920 collects history information including the user's feedback on the operation content or operation of the AI device 400 and stores it in the memory unit 430 or the learning processor unit 440c, or the AI server ( It can be transmitted to an external device such as Figure 1, 140). The collected historical information can be used to update the learning model.
  • the memory unit 430 can store data supporting various functions of the AI device 400.
  • the memory unit 430 may store data obtained from the input unit 440a, data obtained from the communication unit 410, output data from the learning processor unit 440c, and data obtained from the sensing unit 440.
  • the memory unit 430 may store control information and/or software codes necessary for operation/execution of the control unit 420.
  • the input unit 440a can obtain various types of data from outside the AI device 400.
  • the input unit 420 may obtain training data for model training and input data to which the learning model will be applied.
  • the input unit 440a may include a camera, microphone, and/or a user input unit.
  • the output unit 440b may generate output related to vision, hearing, or tactile sensation.
  • the output unit 440b may include a display unit, a speaker, and/or a haptic module.
  • the sensing unit 440 may obtain at least one of internal information of the AI device 400, surrounding environment information of the AI device 400, and user information using various sensors.
  • the sensing unit 440 may include a proximity sensor, an illumination sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and/or a radar. there is.
  • the learning processor unit 440c can train a model composed of an artificial neural network using training data.
  • the learning processor unit 440c may perform AI processing together with the learning processor unit of the AI server (FIG. 1, 140).
  • the learning processor unit 440c may process information received from an external device through the communication unit 410 and/or information stored in the memory unit 430. Additionally, the output value of the learning processor unit 440c may be transmitted to an external device through the communication unit 410 and/or stored in the memory unit 430.
  • 6G (wireless communications) systems require (i) very high data rates per device, (ii) very large number of connected devices, (iii) global connectivity, (iv) very low latency, (v) battery-
  • the goals are to reduce the energy consumption of battery-free IoT devices, (vi) ultra-reliable connectivity, and (vii) connected intelligence with machine learning capabilities.
  • the vision of the 6G system can be four aspects such as “intelligent connectivity”, “deep connectivity”, “holographic connectivity”, and “ubiquitous connectivity”, and the 6G system can satisfy the requirements as shown in Table 1 below.
  • Table 1 is a table showing the requirements of the 6G system.
  • the 6G system includes enhanced mobile broadband (eMBB), ultra-reliable low latency communications (URLLC), massive machine type communications (mMTC), AI integrated communication, and tactile communication.
  • eMBB enhanced mobile broadband
  • URLLC ultra-reliable low latency communications
  • mMTC massive machine type communications
  • AI integrated communication and tactile communication.
  • tactile internet high throughput, high network capacity, high energy efficiency, low backhaul and access network congestion, and improved data security. It can have key factors such as enhanced data security.
  • AI The most important and newly introduced technology in the 6G system is AI.
  • AI was not involved in the 4G system.
  • 5G systems will support partial or very limited AI.
  • 6G systems will be AI-enabled for full automation.
  • Advances in machine learning will create more intelligent networks for real-time communications in 6G.
  • Introducing AI in communications can simplify and improve real-time data transmission.
  • AI can use numerous analytics to determine how complex target tasks are performed. In other words, AI can increase efficiency and reduce processing delays.
  • AI can be performed instantly by using AI.
  • AI can also play an important role in M2M, machine-to-human and human-to-machine communications. Additionally, AI can enable rapid communication in BCI (brain computer interface).
  • BCI brain computer interface
  • AI-based communication systems can be supported by metamaterials, intelligent structures, intelligent networks, intelligent devices, intelligent cognitive radios, self-sustaining wireless networks, and machine learning.
  • AI-based physical layer transmission means applying signal processing and communication mechanisms based on AI drivers, rather than traditional communication frameworks, in terms of fundamental signal processing and communication mechanisms. For example, deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO (multiple input multiple output) mechanism, It may include AI-based resource scheduling and allocation.
  • machine learning can be used for channel estimation and channel tracking, and can be used for power allocation, interference cancellation, etc. in the physical layer of the DL (downlink).
  • Machine learning can also be used for antenna selection, power control, and symbol detection in MIMO systems.
  • Deep learning-based AI algorithms require a large amount of training data to optimize training parameters.
  • a lot of training data is used offline. This means that static training on training data in a specific channel environment may result in a contradiction between the dynamic characteristics and diversity of the wireless channel.
  • signals of the physical layer of wireless communication are complex signals.
  • more research is needed on neural networks that detect complex domain signals.
  • Machine learning refers to a series of operations that train machines to create machines that can perform tasks that are difficult or difficult for humans to perform.
  • Machine learning requires data and a learning model.
  • data learning methods can be broadly divided into three types: supervised learning, unsupervised learning, and reinforcement learning.
  • Neural network learning is intended to minimize errors in output. Neural network learning repeatedly inputs learning data into the neural network, calculates the output of the neural network and the error of the target for the learning data, and backpropagates the error of the neural network from the output layer of the neural network to the input layer to reduce the error. ) is the process of updating the weight of each node in the neural network.
  • Supervised learning uses training data in which the correct answer is labeled, while unsupervised learning may not have the correct answer labeled in the training data. That is, for example, in the case of supervised learning on data classification, the learning data may be data in which each training data is labeled with a category. Labeled learning data is input to a neural network, and error can be calculated by comparing the output (category) of the neural network with the label of the learning data. The calculated error is backpropagated in the reverse direction (i.e., from the output layer to the input layer) in the neural network, and the connection weight of each node in each layer of the neural network can be updated according to backpropagation. The amount of change in the connection weight of each updated node may be determined according to the learning rate.
  • the neural network's calculation of input data and backpropagation of errors can constitute a learning cycle (epoch).
  • the learning rate may be applied differently depending on the number of repetitions of the learning cycle of the neural network. For example, in the early stages of neural network training, a high learning rate can be used to ensure that the neural network quickly achieves a certain level of performance to increase efficiency, and in the later stages of training, a low learning rate can be used to increase accuracy.
  • Learning methods may vary depending on the characteristics of the data. For example, in a communication system, when the goal is to accurately predict data transmitted from a transmitter at a receiver, it is preferable to perform learning using supervised learning rather than unsupervised learning or reinforcement learning.
  • the learning model corresponds to the human brain, and can be considered the most basic linear model.
  • deep learning is a machine learning paradigm that uses a highly complex neural network structure, such as artificial neural networks, as a learning model. ).
  • Neural network cores used as learning methods are broadly divided into deep neural networks (DNN), convolutional deep neural networks (CNN), and recurrent Boltzmann machine (RNN). And this learning model can be applied.
  • DNN deep neural networks
  • CNN convolutional deep neural networks
  • RNN recurrent Boltzmann machine
  • Step 1 is a question of whether symbols for communication are accurately transmitted from a technical aspect
  • step 2 is a question of how accurately the transmitted symbols convey the correct meaning from a semantic aspect.
  • the third level is effectiveness, a question of how effectively the received meaning influences operation in the right way.
  • Figure 5 shows an example of a communication model divided into three stages.
  • the core of semantic communication is to extract the “meaning” of the information transmitted at the transmitting end. Semantic information can be successfully “interpreted” at the receiving end based on a consistent knowledge base (KB) between the source and destination. Accordingly, even if there is an error in the signal, if the operation is performed according to the meaning intended to be conveyed through the signal, correct communication has been performed. Therefore, in semantic communication, it is necessary to access whether the downstream task located at the destination is performed as intended in the signal (e.g., representation) transmitted from the source. Additionally, when the destination performs an inference operation using a signal transmitted from the source, it interprets the meaning (e.g., the purpose of the downstream task) transmitted by the source based on the background knowledge it possesses.
  • KB consistent knowledge base
  • the background knowledge contained in the signal transmitted from the source is the background knowledge of the destination. It must be able to be reflected (updated) in . To achieve this, the transmitted signal must be generated considering the downstream task located at the destination.
  • Such a task-oriented semantic communication system can provide the advantage of preserving task relevant information while introducing useful invariance to downstream tasks.
  • Figure 6 shows an example of a semantic communication system according to an embodiment of the present disclosure.
  • Equation 2 the logical probability m(x) of message x can be expressed as Equation 2 below.
  • Semantic entropy of message x Can be expressed as Equation 3 below.
  • Equation 2 and Equation 3 may be limited to a set compatible with k. Therefore, it can be expressed as a conditional logical probability as shown in Equations 4 and 5 below.
  • Logical probabilities are different from a priori statistical probabilities because they are based on background knowledge, and in the new distribution, A and B are no longer logically independent ( ).
  • Equation 11 represents the entropy of the source without considering background knowledge
  • Equation 12 represents the model entropy of the source considering background knowledge
  • the source can compress the message it wants to convey without omitting information through shared background knowledge.
  • the source and destination can transmit and receive maximum information with a small data volume through shared background knowledge.
  • One of the main reasons why communication at the semantic level can improve performance compared to the existing technical level is because background knowledge is taken into account. Therefore, the present disclosure proposes a method for generating and transmitting and receiving signals in consideration of background knowledge to be suitable for downstream tasks located at the destination in order to perform semantic communication.
  • a semantic layer a new layer that manages overall operations on semantic data and messages, may be added.
  • the semantic layer is a layer for a task-oriented semantic communication system and can be used to generate and transmit and receive signals between the source and destination.
  • a protocol which is a protocol between layers, and a series of operation processes, which are described below.
  • contrastive learning an artificial intelligence (AI)/machine learning (ML) technology
  • AI artificial intelligence
  • ML machine learning
  • contrast learning a technology that can be applied to semantic systems, is described.
  • contrast learning can be introduced into the semantic layer to perform semantic communication.
  • Contrast learning is a method of learning correlations between data through representation space. Specifically, through contrast learning, high-dimensional data can be changed to low-dimensional data (e.g., dimension reduction) and placed in the expression space. Afterwards, the similarity between data can be measured based on the location information of each data located in the expression space. For example, through contrast learning, a semantic communication system can learn positive pair expressions to be located close to each other, and negative pair expressions to be located far away from each other. A positive pair is a pair of similar data, and a negative pair is a pair of dissimilar data. Contrast learning can be applied to both supervised-learning and unsupervised-learning, but it can be especially useful when learning is performed using unsupervised data without labeled data. Therefore, contrastive learning is suitable for building a task-oriented semantic communication system in a real environment where unlabeled data accounts for the majority.
  • Figure 7 shows an example of contrastive learning according to an embodiment of the present disclosure.
  • Figure 7 shows a case where contrast learning is performed based on a giraffe image.
  • the standard query for classifying image data is the giraffe image.
  • Representations of giraffe images can be learned to be located close to the query's representation, and representations for images other than giraffe images can be learned to be located far from the query's representation.
  • the contrastive learning technique trains the encoder so that data that is similar to the reference data is mapped nearby, and data that is not similar to the reference data is mapped far away.
  • Figure 8 shows an example of instance identification 800 for contrastive learning according to an embodiment of the present disclosure.
  • a model that performs contrastive learning can learn data through instance discrimination (800).
  • An instance refers to each of the data samples being trained.
  • an instance may be a sample of image data of a specific size or a sample of text data in sentence units.
  • Instance identification involves classifying data by determining each class of all instances included in the entire data set. Therefore, if there are N instances, N identification operations can be performed. Instance identification learns the differences between instances based on the similarity between them, providing the advantage of obtaining useful expressions for data without labeling information. If downstream tasks are performed using the expression learned through instance identification, the model's performance can be improved as if a supervised learning method was performed.
  • NCE noise-constrative estimation
  • a comparison method is defined for a reference sample to determine whether any sample is a similar sample (positive sample) (hereinafter referred to as 'positive sample') or a dissimilar sample (negative sample) (hereinafter referred to as 'negative sample').
  • data augmentation hereinafter referred to as 'augmentation'. Augmentation is creating new data by modifying existing data. From a semantic perspective, augmented data (hereinafter referred to as 'augmentation data') contains the same meaning as the meaning that the existing data is intended to convey. In other words, the information included in the existing data and augmentation data is the same. Therefore, the representations of existing data and augmentation data should be similar. Therefore, existing images and augmentation data can be defined as positive samples, and all non-positive samples can be defined as negative samples.
  • Figure 9 shows an example of augmentation data according to an embodiment of the present disclosure.
  • data can be augmented by cropping, resizing, flipping, changing color, or rotating a portion of the image data. .
  • Equation 13 For contrastive learning, the NCE loss function of Equation 13 below can be used.
  • x is the reference data (query data), is data related to data or data similar to x, is data that is unrelated to the reference data or data that is not similar to x.
  • contrastive learning techniques provide the advantage of learning useful representations from the unlabeled data itself. Therefore, the contrastive learning technique can be applied to semantic communication as an AI/ML technology of an encoder that performs semantic source coding. Additionally, background knowledge possessed by the source and destination must be appropriately utilized so that a representation based on the embedding space can be created from the data. Additionally, information about the positive samples and negative samples from which the model learns needs to be updated in the background knowledge of the source and the background knowledge of the destination. On the other hand, contrastive learning may have the following problems.
  • the target task is a classification task performed based on a dog image and the data modality of the input is an image
  • class conflicts that may occur when contrast learning is performed collision
  • the representations of dog images (1012, 1022, 1032) are located close to each other, and the representations of images for objects other than dogs (1042, 1044, 1052) ) should be located far from the representations 1012, 1022, 1032 of dog images.
  • looking at FIG. 10 looking at FIG.
  • the representation 1022 of the positive sample 1020 generated by performing augmentation on the anchor image 1010 is located close to the representation 1012 of the anchor image
  • the representation 1032 of another sample 1030 which is not the same as the anchor image 1010 but is a dog image, is located far from the anchor image 1012. That is, although the other sample 1030, which is a dog image, should be classified with the same label as the anchor image 1010, the other sample 1030, which is a dog image, is classified as a negative sample and is located far from the expressions of the dog image. Accordingly, when contrastive learning is used during learning, a problem may arise where the output resulting from the downstream task operation located at the destination is different from the result intended by the source.
  • contrastive learning may have the problem of performing incorrect learning by ignoring the label and learning the data, even if the data contains label information, which is the correct answer to be obtained through downstream task operations. Therefore, for the accuracy of learning, if there is a label in the data, there is a need to perform contrastive learning by taking this into consideration.
  • this disclosure proposes a framework and related procedures for a semantic communication system utilizing weakly-supervised contrastive learning. Through this, problems that may occur when performing contrast learning can be corrected.
  • the source learns expressions using the acquired data and delivers them to the destination, and the destination downloads the received expressions as intended by the source without restoring them. Stream tasks can be performed.
  • the data may include auxiliary information (e.g., data attributes, hashtags for images on Instagram, and metadata such as the individual's identity and nationality). , text description of an image, etc.), the expression learning performance of the source and the operation performance of the downstream task located at the destination can be improved by performing contrastive learning using auxiliary information.
  • auxiliary information e.g., data attributes, hashtags for images on Instagram, and metadata such as the individual's identity and nationality.
  • semantic representation generated by improving the expression learning performance of the source is updated with the background knowledge of the source and the background knowledge of the destination, so that reasoning performance using background knowledge can also be improved.
  • the framework proposed in this disclosure may include a pre-training operation for semantic source coding, and a training operation for downstream tasks of the destination.
  • semantic source coding is an operation in which the source generates a signal (eg, representation) to be transmitted to the destination.
  • a transmission/reception signal can be generated considering the downstream task to be performed at the destination, and the downstream task can be performed as intended by the source. At this time, the source and destination can share background knowledge.
  • the present disclosure may be applied to a signal transmission/reception protocol using a semantic layer that can be newly added in a task-oriented semantic communication system, but is not limited thereto, and may be applied to a framework for task-oriented semantic communication using contrastive learning. and related procedures.
  • Figure 11 shows an example framework for dictionary learning according to an embodiment of the present disclosure.
  • the framework for pre-learning may be composed of the operations of the source 1110 and the destination 1120.
  • the transform head 1150 may be used as one of the encoding models.
  • Steps S1101 to S1107 described below are operations performed at the source, and steps S1109 and S1111 are operations performed at the destination.
  • pre-learning can be performed in mini-batch units.
  • the source 1110 may obtain semantic data 1114 from raw data 1112.
  • Semantic data 1114 is data extracted from raw data 1112.
  • Semantic data 1114 can be used to generate a message (e.g., expression) containing ‘meaning’ information that the source 1110 wants to convey to the destination 1120.
  • the acquisition unit of the semantic data 1114 may be determined using the background knowledge 1130 and 1140 held by the source 1110 and the destination 1120.
  • the background knowledge includes a biomedicine knowledge graph and the source obtains semantic data in query format from raw data
  • the 'corresponding biomedicine field' is based on the biomedicine knowledge graph.
  • Semantic data acquisition units such as 'query related to', 'type of query', and 'length of query' may be determined.
  • the semantic data acquisition unit such as whether to transmit data in sentence units or paragraph units, is based on background knowledge related to text data. can be set.
  • the source 1110 may perform weekly labeling on the semantic data 1114.
  • Weekly labeling may be an operation that performs a classification task on data using auxiliary information.
  • auxiliary information exists in raw data or background knowledge data built based on raw data
  • the source 1110 may perform weekly labeling on the semantic data 1114 using the auxiliary information.
  • information included in the background knowledge can be used.
  • the method of performing weekly labeling is explained in detail in FIGS. 13 and 14 below. Weekly labeling may have noise compared to general labeling, but it has the advantage of being very low cost compared to performing annotation work by humans.
  • 13 and 14 illustrate examples of weekly labeling based on auxiliary information according to an embodiment of the present disclosure.
  • the auxiliary information may be data's discrete attribute (hereinafter referred to as 'discrete attribute'). That is, discrete attributes may be selected as auxiliary information used to perform weekly labeling. For example, for a person image, a binary indicator, which is an example of a discrete attribute such as 'short/long hair' and 'short sleeves/long sleeves', can be used as auxiliary information.
  • Figure 13 shows an example of weekly labeling based on data attributes according to an embodiment of the present disclosure.
  • the types of data attributes can vary, and the number of data attributes handled by the source and destination can be determined through initial settings.
  • the source can determine the ranking by measuring the entropy of data attributes.
  • the source may construct an attribute set containing the top k attributes with high measured entropy values.
  • a high entropy value for an attribute means that the attribute is distributed in various ways.
  • the source can create a cluster by performing clustering on the attribute set so that the attributes within the same cluster have the same result value.
  • the source can configure attribute sets using auxiliary information, and configure data included in clusters within each attribute set to have the same value.
  • auxiliary information because the entropy of the attribute may vary depending on the background knowledge update, entropy measurement must be performed in mini-batch units, which are learning units. Information related to the created cluster can be used to perform weekly labeling.
  • the auxiliary information may be data's hierarchy information (hereinafter 'hierarchy information'). That is, layer information can be selected as auxiliary information used to perform weekly labeling.
  • Figure 14 shows an example of weekly labeling based on data layer information according to an embodiment of the present disclosure.
  • the source can form data into a hierarchical tree structure based on auxiliary information.
  • each node at each level in the tree structure may correspond to a corresponding coarse label.
  • the source You can form a node set by selecting nodes corresponding to the th level.
  • the source is divided into mini-batch units, which are learning units. You can select nodes corresponding to the second level.
  • the source may create clusters by performing clustering on a set of nodes so that data included in the same cluster has the same coarse label. Information related to the created cluster can be used to perform weekly labeling.
  • the discrete attributes and hierarchical information of data are only examples of auxiliary information used to perform weekly labeling, and the auxiliary information may not be limited thereto. That is, other auxiliary information (e.g., an asymmetric attribute, which is an attribute with unequal importance) may be used for weekly labeling.
  • auxiliary information e.g., an asymmetric attribute, which is an attribute with unequal importance
  • hyper-parameter values e.g., k value if the auxiliary information is a data attribute, and if the auxiliary information is hierarchical information.
  • the operational performance e.g., interpretation performance of the expression received from the source of the destination
  • hyperparameter values need to be determined according to background knowledge (e.g., domain knowledge).
  • background knowledge e.g., domain knowledge
  • existing hyperparameter values may change due to changes in properties of auxiliary information (e.g., entropy of discrete attributes of data, change in tree structure according to data hierarchy information, etc.), so during pre-learning Hyperparameter values may change.
  • the source 1110 may perform augmentation on the weekly labeled semantic data 1116.
  • Weekly labeled semantic data 1116 may be data included in a cluster created by performing weekly labeling on semantic data. Augmentation is a technique used to increase the overall parameters of data by transforming data to create new data.
  • the source 1110 may augment the weekly labeled semantic data 1116 to generate positive samples necessary for contrast learning. At this time, if the obtained semantic data is N mini-batch, 2N pieces of augmentation data can be generated.
  • the type of augmentation may vary depending on the modality of the data. [Table 3] below illustrates the types of augmentation when the data modality is an image.
  • Color space transformation Adjust the brightness by adjusting one of the R, G, and B values to the minimum or maximum value.
  • Kernel Filter Using Gaussian Filter, Edge Filter, Patch shuffle filter, etc. Randomly mixing pixels in an area with a size of Random Erasing Create a new image by randomly deleting certain parts of the image Mixing Images Create a new image using parts of each image
  • Random Noise Injection Synonym Replace(SR), Random Insertion(RI), Random Swap(RS), Random Deletion(RD) Text generation Back-Translation Generate artificial data from monolingual data using a translator - Beam Search, Random Sampling, Top-10 Sampling, Beam + Noise Conditional Pre-training using a Pre-trained model Augmentation of text using three pre-trained models (Auto-Regressive (AR), Auto-Encoder (AE), and Sequence-to-sequence (Seq2Seq)) - Perform fine-tuning by including label information in a pre-trained model etc Dropout noise Based on the same sentence, only the dropout mask is changed to generate positive pairs with similar embeddings.
  • AR Auto-Regressive
  • AE Auto-Encoder
  • Seq2Seq Sequence-to-sequence
  • Topology augmentation Edge perturbation Edge Removing(ER), Edge Adding(EA), Edge Flipping(EF) Node perturbation Node Dropping(ND)
  • Subgraph sampling Subgraph induced by Random Walks(RWS) Graph Diffusion(GD) Diffusion with Personalized PageRank(PPR), Diffusion with Markov Diffusion Kernels[MDK] Feature augmentation Feature Masking[FM], Feature Dropout[FD]
  • the type of augmentation applied may affect the semantic source coding performance of the encoder 1118. For example, if the modality of the data transmitted by the source 1110 is text and the downstream task located at the destination distinguishes whether it is a positive or negative sentence, the meaning that the source 1110 wants to convey is determined according to the grammatical elements of the text. The operation may not be performed. Therefore, in order to preserve the meaning to be conveyed through text data, the type of augmentation and the ratio of augmentation must be set based on the background knowledge 1130.
  • edge perturbation for NCI1 which is chemical substance-related biochemical molecule data
  • COLLAB which is social network data.
  • a change in the edge in biomolecule data such as NCI1 corresponds to the removal or addition of a covalent bond, and the identity and validity of the compound can be significantly changed, and source 1110
  • the source 1110 or the destination 1120 can set the data augmentation type using the background knowledge 1130.
  • performance is determined depending on the perturbation ratio. Therefore, the application rate of data augmentation also needs to be set using the background knowledge 1130.
  • the source 1110 may generate augmentation data 1118 by combining a plurality of augmentation techniques to improve system performance.
  • the source 1110 when the data modality is an image, the source 1110 combines all four augmentation techniques: crop, flip, color jitter, and grayscale to store the data. It can be augmented. Additionally, source 1110 may augment data using multiple augmentation techniques belonging to different categories.
  • the data modality is a graph
  • the performance of the system improves when similar samples are generated using multiple augmentation techniques contained in multiple categories compared to applying an augmentation technique contained in a single category. improved.
  • the combination of augmentation techniques that achieves the best performance varies depending on the domain of the data. In other words, the type and rate of augmentation must be set based on the possessed background knowledge 1130 (e.g., domain knowledge) according to the data modality.
  • the source 1110 may perform encoding on the weekly labeled augmentation data 1116.
  • an appropriate encoder 1118 can be used depending on the data modality. For example, if the data modality is an image, a CNN-based model (e.g., ResNet18) may be used, and if the data modality is text, a pre-trained model (e.g., BERT) may be used.
  • the encoder 1118 located in each dual-branch may be the same.
  • only the configuration for feature extraction can be used among the configurations of the encoder 1118.
  • the construct for feature extraction can be used to obtain the representation.
  • the source 1110 may transmit the result (hereinafter referred to as ‘encoding data’) (e.g., representation) generated by performing encoding to the destination 1120.
  • the source 1110 may transmit cluster information corresponding to the weak label along with the encoded data.
  • the encoded data can be viewed as a semantic message created using semantic data in semantic communication.
  • the destination 1120 may perform an additional operation of converting the format of the encoded data according to the format of the data used to perform the downstream task.
  • Figure 16 shows an example of an additional data conversion operation when the data modality is a graph.
  • the output may be output as a node representation (node representation) 1610.
  • the destination e.g., destination 1120 in FIG. 11
  • the destination may decide whether to perform additional operations depending on the operation method of the downstream task. If the downstream task is an operation performed using the node expression 1610, the destination may not perform additional operations.
  • the destination can perform an additional operation to convert the node representation to a graph representation.
  • the destination may perform additional operations through a set readout function 1620 (e.g., average, sum).
  • Figure 17 shows an example of an additional data conversion operation when the data modality is text.
  • text data may be encoded through a free trained model (eg, BERT).
  • a word vector set which is an expression in word units, can be output.
  • the destination can decide whether to perform additional actions depending on how the downstream task operates. If the downstream task is an operation performed using a word expression, the destination may not perform additional operations. On the other hand, if the downstream task is an operation performed using a context vector, which is a context-based expression, the destination performs a pooling operation (e.g. mean, max) to create a word vector. can be converted to a context vector.
  • a pooling operation e.g. mean, max
  • the model can generate a global summary vector in a similar way to using the readout function when the data modality is a graph.
  • task-oriented semantic communication can be performed by additional operations performed to obtain an expression suitable for the purpose of a downstream task located at the destination. Through this, flexibility can be granted to the semantic communication system.
  • the additional operations in step S1109 can be learned by forming a multi-layer perceptron (MLP).
  • MLP multi-layer perceptron
  • step S1111 the destination 1120 can learn encoded data (eg, representation) using a loss function.
  • the transform head 1150 used for learning is described.
  • Figure 18 shows an example of the configuration of a transform head 1800 according to an embodiment of the present disclosure.
  • the transform head 1800 is an example of an encoder for a semantic communication system (eg, the transform head 1150 in FIG. 10).
  • the transform head 1800 includes at least one dance layer (dense layer 1811, 1813, 1815) and at least one non-linear function through a projection head technique. It may include ReLu (rectified linear unit) (1812, 1814) corresponding to.
  • the structure of the transform head 1800 is not limited to that of FIG. 18, and the number of layers and non-linear function may vary depending on the encoder model. The reason for configuring the transform head 1800 as shown in FIG. 18 is as follows.
  • SimCLR-based models calculate loss using a non-linear projection head. In this case, the performance is better than when a linear projection head or no projection head is used.
  • the SimCLRv2-based model performs learning by increasing the size of the encoder model and increasing the number of linear layers that make up the projection head. This is because the lower the label fraction and the more layers of the projection head, the better the performance. Accordingly, the present disclosure proposes a transform head configured as illustrated in FIG. 18 as an encoding model for maximizing the performance of semantic communication through effective embedding learning.
  • the destination 1120 may learn encoded data (e.g., representation) using a loss function.
  • learning can be performed using CI-InfoNCE loss (clustering InfoNCE loss).
  • CI-InfoNCE loss is an extension of Equation 13, which learns similar representations for data with the same weak label (e.g., data located within the same cluster) and data with different weak labels (e.g., data located within different clusters).
  • CI-InforNCE loss is given in Equation 14 below.
  • Equation 14 the variable expressed in uppercase letters is a random variable, the variable expressed in lowercase letters is the outcome of the random variable, and X and Y are expressions generated from weekly labeled augmentation data ( representation) (e.g., the result of the encoder located at the source, the result after performing additional operations at the destination), and Z is information about the cluster configured to perform weekly labeling (hereinafter 'cluster information'). Cluster information is passed from the source to the destination along with the representation that is the output of the encoder, and can be used at the destination to calculate the loss function.
  • equation 14 is any function that returns a scalar from the input (x, y), For , cosine similarity can be considered as shown in Equation 15 below.
  • equation 15 is a neural network located at the destination, is a hyper-parameter that serves as a criterion for classification as positive or negative between classes. usually of large value is a strict reference point to make classification between classes easier, and has a small value. forms hard positives/hard negatives, making learning more difficult, but can help with robust classification.
  • Equation 14 silver There are n independent copies of .
  • first cluster z ⁇ is sampled, and x ⁇ and y ⁇
  • the (x,y) pair of can be sampled.
  • Is and In positive pair representation as the case where has the same weak label, Is and has a different weak label and can be called a negative pair representation. Since learning is performed in the form of mini-batches, positive/negative samples can be considered using the weak label passed along with the representation within the batch.
  • a self-supervised contrast setting (self- It can be a supervised contrastive setting.
  • setting the weak label Z equal to the instance ID may mean that each cluster has only one instance.
  • the generated weak label Z is composed of a label that is the correct answer to be obtained through a downstream task operation, it can be a supervised contrastive setting.
  • maximizing Cl-InfoNCE involves learning to include weak label information (e.g., clustering information), as shown in Equation 16 below.
  • Z is the entropy of the cluster constructed for weekly labeling, and is the conditional entropy of Z given X and Y.
  • FIG. 20 in relation to performing weekly labeling using the hierarchical level of Wordnet data, it can be seen in FIG. 20(a) that increasing the hierarchical level improves performance.
  • Figure 20(b) the mutual information between the weak label cluster Z and the downstream label T It can be seen that is increasing.
  • Figure 20(c) is maintained at 0 because the coarse level (e.g., intermediate node) is determined by the downstream labels (e.g., leaf nodes in the tree structure) in the tree hierarchy structure. You can check it.
  • the created week label (e.g. cluster) Z is set equal to the instance ID, Although it is high, You can see that it is also high. This means that the performance of self-supervised contrast learning has been reduced. Therefore, as seen in Figures 19 and 20, when using the clustering-based expression learning method for weekly labeling, and must be considered.
  • the source transmits information about Z to the destination, and the destination that receives the information about Z provides mutual information and Conditional entropy can be calculated. Accordingly, depending on the type of auxiliary information in the source, k or hierarchical level of data related to selection of top k attributes It may be necessary to select parameters such as and transfer them from the destination to the source.
  • a hard negative is a sample that has similar data but is predicted to be dissimilar data.
  • the performance of the semantic communication system can be improved as the destination learns hard negative samples extracted using background knowledge together with the delivered samples.
  • the destination uses not only the representation information for the data delivered from the source but also weak label information (e.g., cluster information) to update background knowledge, and can perform reasoning using background knowledge in relation to downstream task operations. You can.
  • the destination determines the samples to be negative samples or positive samples by passing a path (e.g., the path in FIG. 11) to the same weak sample as the determined positive sample.
  • a sample with a label can be determined as a positive sample. Accordingly, since the number of samples determined as positive samples increases, the number of samples determined as negative samples can be reduced.
  • Table 6 below shows 13 samples when the batch size is 6144 and the epoch is 350. When present, it indicates top-1 accuracy according to the number of positive samples. As can be seen in Table 6 below, when the number of positive samples is increased, there is an advantage in top-1 accuracy. In Table 6, when the number of positive samples is 1, it is a self-supervised approach in which the positive sample is an augmented version of the same sample.
  • the source and destination can update the background knowledge by reflecting positive/negative samples and weak labels (e.g., cluster information) in the background knowledge.
  • weak labels e.g., cluster information
  • Figure 21 shows an example of a framework for performing learning according to a downstream task according to an embodiment of the present disclosure. The shaded portion in FIG. 21 may not be used during learning and inference operations according to downstream tasks.
  • the destination 2120 performs learning for the operation of the downstream task located at the destination 2120 (hereinafter referred to as 'learning for the downstream task').
  • the destination 2120 may determine the layers 2140 (hereinafter referred to as “downstream task learning layers”) used to perform learning for a downstream task.
  • the downstream task learning layers 2140 are transform heads (e.g., transform head 1150 in FIG. 11, transform head 2170 in FIG. 21) used during pre-learning (e.g., pre-learning operation in FIG. 11). )) may include the first layer 2160 and additional linear layers suitable for the purpose of downstream tasks.
  • one or two encoding results (2180, 2182) may be transmitted to the destination (2120). If the two encoding results 2180 and 2182 are delivered to the destination 2120, an additional operation 2130 as follows can be performed.
  • the source 2110 uses both passes to produce the two encoding results 2180 , 2182) can be transmitted to the destination 2120.
  • the destination 2120 which has received the two encoding results 2180 and 2182, may perform an additional operation 2130 to convert the two encoding results 2180 and 2182 into one result.
  • one of various functions such as sum, average, and concatenation can be used.
  • the corresponding movement can be learned through a neural network.
  • the source 2110 may select only one pass and transmit one encoding result (2180 or 2182) performed to the destination. At this time, the destination 2120 may not perform the additional operation 2130.
  • the destination 2120 can learn the representation received from the source 2110 using the downstream task learning layers 2140. At this time, the destination 2120 can use the background knowledge of the destination 2120 updated during the pre-learning process to infer an output that matches the intention delivered by the source 2110.
  • the destination 2120 in FIG. 21 can perform learning using a loss function.
  • the destination 2120 can perform learning using the labeled data 2150 it holds and the output output from the downstream task learning layers 2140.
  • learning may be performed using cross entropy loss.
  • the cross entropy loss is only an example of a loss function used for learning, and is not limited to this, and other loss functions (e.g., cosine similarity loss, hinge loss) are used for learning. etc.) can be used.
  • Learning using loss functions can be performed depending on the purpose of the downstream task located at the destination.
  • the destination 2120 when the destination 2120 performs fine-tuning after pre-learning is completed, the destination 2120 includes the weights of the encoders 2180 and 2182 located in the source 2110, the destination ( For all networks, including a neural network consisting of downstream task learning layers 2140, by using the weights corresponding to the first layer of the weight and transform head 2170 for the additional operation of 2120) Learning can be done.
  • the destination 2120 determines the weights of the encoders 2180 and 2182 located in the source 2110 and the destination.
  • the weights corresponding to the first layer of the weight and transform head 2170 for the additional operation of 2120 are fixed, and learning can be performed on the added neural network to suit the purpose of the downstream task.
  • fixing the weights of the encoders 2180 and 2182, the weights for the additional operation of the destination 2120, and the weights corresponding to the first layer of the transform head 2170 may mean that the feature extractor is fixed. there is. If the downstream task learning layers 2140 include only simple linear layers excluding the part where the weight is fixed, the performance of the feature extractor needs to be increased to improve performance through learning, so the feature extractor's performance needs to be increased. You can check performance.
  • learning for a downstream task can be performed by learning related networks according to the purpose of the downstream task.
  • inference can be performed on the entire network for which all learning has been completed.
  • inference may mean an operation in which the destination 2120 infers the intention conveyed by the source 2110 in task-oriented semantic communication. Therefore, the output output through the downstream task learning layers 2140 of FIG. 21 can be viewed as the result of performing inference.
  • the semantic expression transmitted from the source 2310 for training and inference operations for performing downstream tasks may be updated in the background knowledge of the source 2310 and the destination 2320.
  • Figure 22 shows an example of a semantic signal generation operation procedure according to an embodiment of the present disclosure.
  • the first device receives a request for capability information for the first device from the second device.
  • the first device transmits capability information to the second device.
  • the capability information is used to determine whether the first device can perform semantic communication.
  • the capability information may include the type of raw data that the first device can collect, generate, or process and computing capability information of the first device.
  • step S2205 when it is determined that the first device has semantic communication capabilities based on the capability information of the first device, the first device receives semantic communication-related information from the second device.
  • Semantic communication-related information can be used to generate a semantic communication signal by performing semantic source coding.
  • a semantic communication signal may be a representation containing the meaning that the first device intends to convey to the second device.
  • the semantic communication signal may be used to perform downstream tasks without being decoded by the second device into the raw data used by the first device to create the representation.
  • Semantic communication signals may be used to update shared information (eg, background knowledge) held by the first and second devices.
  • the semantic communication signal may include at least one of the expressions used in pre-training for semantic source coding, the expressions used in training to perform downstream tasks, and the expressions used in inference. It can contain one. Pre-learning, learning for downstream tasks, and inference may be performed by the first device and the second device.
  • semantic communication-related information includes at least one of the units of data to be obtained from raw data, information for performing weekly labeling, mini-batch size, augmentation type and ratio determined based on background knowledge, and information about the encoding model. can do.
  • information related to semantic communication will include expressions used in pre-training for semantic source coding, expressions used in training to perform downstream tasks, and expressions used in inference.
  • information for performing weekly labeling may include at least one of auxiliary information, whether to use auxiliary information, a type of auxiliary information, a method of performing labeling based on auxiliary information, and a weekly label.
  • the first device may generate a semantic communication signal based on the semantic communication-related information.
  • the first device may transmit the generated semantic communication signal and information for weekly labeling to the second device.
  • the second device can perform a downstream task without a signal restoration procedure using the semantic communication signal. Additionally, the second device may obtain background knowledge information of the first device based on the semantic communication signal and information for weekly labeling, and update the background knowledge held by the second device.
  • the semantic signal generation procedure is described through the operation between the first device and the second device, but it is only an example for convenience of explanation and may not be limited to the above-described embodiment. That is, it can be used in various embodiments, such as operations between terminals and base stations and operations between terminals (e.g., D2D communication).
  • Figure 23 shows an example of a signal diagram for initial setup of semantic communication according to an embodiment of the present disclosure.
  • the device and the base station can perform synchronization.
  • the device may receive a synchronization signal block (SSB) that includes a master information block (MIB).
  • SSB synchronization signal block
  • MIB master information block
  • the device may perform initial connection based on SSB.
  • the base station may request terminal capability information from the device.
  • the device may transmit terminal capability information to the base station.
  • Terminal capability information is information about whether the terminal has the ability to perform semantic communication.
  • the base station may request terminal capability information from the terminal to check whether semantic communication is performed.
  • Terminal capability information may include information about the types of raw data that the terminal can generate, collect, or process, and the computing capabilities of the device.
  • step S2307 the base station may determine whether the terminal can perform semantic communication based on terminal capability information.
  • steps S2309 and S2311 may be performed when the base station determines that the terminal can perform semantic communication based on terminal capability information.
  • the base station may transmit semantic communication-related information to the device.
  • the device may store semantic communication-related information.
  • Semantic communication-related information includes the acquisition unit of semantic data, whether auxiliary information is used, and a weekly labeling method according to the type of auxiliary information (e.g., discrete attribute, hierarchical level) (e.g., k in Figure 13 (attribute determined in order of high entropy) number), in Figure 14 (hierarchical level)), mini-batch size, augmentation type and augmentation ratio according to domain knowledge, and information about the encoder model.
  • semantic communication-related information may be transmitted and included in at least one of a DCI, media access control (MAC), or radio resource control (RRC) message.
  • MAC media access control
  • RRC radio resource control
  • Figure 24 shows an example of an information exchange diagram in a mini-batch unit according to an embodiment of the present disclosure. If the mini-batch is set to N, 2N pieces of augmentation data can be generated from the source. The encoder at the source can encode 2N augmentation data to generate 2N representations. Afterwards, the source can transmit the generated 2N representations to the destination. Additionally, if there is a change in information for weekly labeling related to the use of auxiliary information, the destination may transmit the corresponding information to the source.
  • the source may transmit information for a forward-pass to the destination.
  • Information for the forward pass may include an expression vector and weekly labeling information that are the result of encoding the augmentation data.
  • the destination may transmit information for a backward-pass to the source.
  • Information for the backward pass may include gradient information used for learning.
  • information for weekly labeling may be transmitted together. For example, when discrete attributes are used when weekly labeling is performed, k information for setting up a cluster of the top k attributes can be transmitted. As another example, if a hierarchical level is used when weekly labeling is performed, level- for setting Information can be transmitted.
  • FIGS. 23 and 24 Some steps described in FIGS. 23 and 24 may be omitted depending on the situation or settings.
  • Embodiments of the present disclosure can be applied to various wireless access systems.
  • Examples of various wireless access systems include the 3rd Generation Partnership Project (3GPP) or 3GPP2 system.
  • Embodiments of the present disclosure can be applied not only to the various wireless access systems, but also to all technical fields that apply the various wireless access systems. Furthermore, the proposed method can also be applied to mmWave and THz communication systems using ultra-high frequency bands.
  • embodiments of the present disclosure can be applied to various applications such as free-running vehicles and drones.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

The present disclosure may provide an operating method of a first device in a wireless communication system. The first device may comprise the steps of: receiving, from a second device, a request for capability information regarding the first device; transmitting the capability information of the first device to the second device; if the first device is a device having a semantic communication capability on the basis of the capability information of the first device, receiving semantic communication-related information from the second device; generating a semantic communication signal on the basis of the semantic communication-related information; and transmitting, to the second device, the semantic communication signal and information for performing weakly labeling. Here, the semantic communication signal may be generated by using shared information and the information for performing the weakly labeling, the weakly labeling is an operation of assigning a weak label to semantic data by using the shared information and assistance information, and updating of the shared information may be performed on the basis of an operation of a downstream task performed by the second device.

Description

무선 통신 시스템에서 송수신 신호를 생성하기 위한 이동성 장치 및 방법Mobility device and method for generating transmitting and receiving signals in a wireless communication system
이하의 설명은 무선 통신 시스템에 대한 것으로, 무선 통신 시스템에서 송수신 신호를 생성하기 위한 장치 및 방법에 관한 것이다.The following description is about a wireless communication system, and relates to an apparatus and method for generating transmission and reception signals in a wireless communication system.
구체적으로, 시멘틱 통신(semantic communication)에서 테스크 지향적(task-oriented) 동작에 기반하여 다운스트림 테스크(downstream task)를 수행하는 방법 및 장치를 제공할 수 있다. 또한, 위클리 슈퍼바이즈드 콘트라스티브 러닝(weakly supervised contrastive learning) 기법에 기초하여 다운스트림 테스크를 수행하기 위한 신호를 생성하는 방법 및 장치를 제공할 수 있다.Specifically, a method and device for performing a downstream task based on a task-oriented operation in semantic communication can be provided. In addition, a method and device for generating a signal for performing a downstream task based on a weakly supervised contrastive learning technique can be provided.
무선 접속 시스템이 음성이나 데이터 등과 같은 다양한 종류의 통신 서비스를 제공하기 위해 광범위하게 전개되고 있다. 일반적으로 무선 접속 시스템은 가용한 시스템 자원(대역폭, 전송 파워 등)을 공유하여 다중 사용자와의 통신을 지원할 수 있는 다중 접속(multiple access) 시스템이다. 다중 접속 시스템의 예들로는 CDMA(code division multiple access) 시스템, FDMA(frequency division multiple access) 시스템, TDMA(time division multiple access) 시스템, OFDMA(orthogonal frequency division multiple access) 시스템, SC-FDMA(single carrier frequency division multiple access) 시스템 등이 있다.Wireless access systems are being widely deployed to provide various types of communication services such as voice and data. In general, a wireless access system is a multiple access system that can support communication with multiple users by sharing available system resources (bandwidth, transmission power, etc.). Examples of multiple access systems include code division multiple access (CDMA) systems, frequency division multiple access (FDMA) systems, time division multiple access (TDMA) systems, orthogonal frequency division multiple access (OFDMA) systems, and single carrier frequency (SC-FDMA) systems. division multiple access) systems, etc.
특히, 많은 통신 기기들이 큰 통신 용량을 요구하게 됨에 따라 기존 RAT(radio access technology)에 비해 향상된 모바일 브로드밴드(enhanced mobile broadband, eMBB) 통신 기술이 제안되고 있다. 또한 다수의 기기 및 사물들을 연결하여 언제 어디서나 다양한 서비스를 제공하는 mMTC(massive machine type communications) 뿐만 아니라 신뢰성 (reliability) 및 지연(latency) 민감한 서비스/UE(user equipment)를 고려한 통신 시스템이 제안되고 있다. 이를 위한 다양한 기술 구성들이 제안되고 있다.In particular, as many communication devices require large communication capacity, enhanced mobile broadband (eMBB) communication technology is being proposed compared to the existing radio access technology (RAT). In addition, a communication system that takes into account reliability and latency-sensitive services/UE (user equipment) as well as mMTC (massive machine type communications), which connects multiple devices and objects to provide a variety of services anytime and anywhere, is being proposed. . Various technological configurations are being proposed for this purpose.
본 개시는 무선 통신 시스템에서 송수신 신호를 생성하기 위한 장치 및 방법에 관한 것이다.This disclosure relates to an apparatus and method for generating transmission and reception signals in a wireless communication system.
본 개시는 무선 통신 시스템에서 소스(source) 및 목적지(des tination)에 위치한 시멘틱 레이어(semantic layer) 간의 신호를 송수신 하는 장치 및 방법을 제공할 수 있다.The present disclosure can provide an apparatus and method for transmitting and receiving signals between semantic layers located at a source and a destination in a wireless communication system.
본 개시는 무선 통신 시스템에서 위클리 슈퍼바이즈드 콘트라스티브 러닝(weakly-supervised contrastive learning)을 이용하여 신호를 생성하는 방법을 학습하는 장치 및 방법을 제공할 수 있다.The present disclosure can provide an apparatus and method for learning how to generate a signal using weakly-supervised contrastive learning in a wireless communication system.
본 개시는 무선 통신 시스템에서 위클리 라벨링(weakly labeling)을 수행하기 위한 장치 및 방법을 제공할 수 있다.The present disclosure can provide an apparatus and method for performing weakly labeling in a wireless communication system.
본 개시는 무선 통신 시스템에서 목적지의 다운스트림 테스크(downstream task)를 수행하기 위한 신호를 생성하는 방법을 제공할 수 있다.The present disclosure can provide a method for generating a signal for performing a downstream task of a destination in a wireless communication system.
본 개시는 무선 통신 시스템에서 소스 및 목적지에서 보유하고 있는 배경지식(background knowledge)을 업데이트하기 위한 장치 및 방법을 제공할 수 있다.The present disclosure may provide an apparatus and method for updating background knowledge held at a source and a destination in a wireless communication system.
본 개시는 무선 통신 시스템에서 신호를 생성하기 위한 학습 정보를 업데이트하는 장치 및 방법을 제공할 수 있다.The present disclosure can provide an apparatus and method for updating learning information for generating signals in a wireless communication system.
본 개시에서 이루고자 하는 기술적 목적들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 본 개시의 실시 예들로부터 본 개시의 기술 구성이 적용되는 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.The technical objectives sought to be achieved by the present disclosure are not limited to the matters mentioned above, and other technical tasks not mentioned are subject to common knowledge in the technical field to which the technical configuration of the present disclosure is applied from the embodiments of the present disclosure described below. Can be considered by those who have.
본 개시의 일 예로서, 무선 통신 시스템에서 제1 장치의 동작 방법은, 제2 장치로부터 제1 장치에 대한 능력 정보 요청을 수신하는 단계, 상기 제1 장치의 능력 정보를 상기 제2 장치에게 송신하는 단계, 상기 제1 장치의 능력 정보에 기초하여 상기 제1 장치가 시멘틱 통신(semantic communication) 능력을 구비한 장치인 경우, 상기 제2 장치로부터 시멘틱 통신 관련 정보를 수신하는 단계, 상기 시멘틱 통신 관련 정보에 기초하여 시멘틱 통신 신호를 생성하는 단계, 및 상기 시멘틱 통신 신호 및 위클리 라벨링(weakly labeling) 수행을 위한 정보를 상기 제2 장치에게 송신하는 단계를 포함할 수 있다. 여기서, 상기 시멘틱 통신 신호는, 공유 정보(shared information) 및 상기 위클리 라벨링 수행을 위한 정보를 이용하여 생성되고, 상기 위클리 라벨링은, 상기 공유 정보 및 보조 정보를 이용하여 시멘틱 데이터에 위크 레이블(weak label)을 부여하는 동작이고, 상기 공유 정보의 업데이트는, 상기 제2 장치에서 수행되는 다운스트림 테스크(downstream task)의 동작에 기초하여 수행될 수 있다.As an example of the present disclosure, a method of operating a first device in a wireless communication system includes receiving a capability information request for a first device from a second device, transmitting capability information of the first device to the second device. If the first device is a device equipped with semantic communication capabilities based on the capability information of the first device, receiving semantic communication-related information from the second device, the semantic communication-related It may include generating a semantic communication signal based on information, and transmitting the semantic communication signal and information for performing weakly labeling to the second device. Here, the semantic communication signal is generated using shared information and information for performing the weekly labeling, and the weekly labeling is performed by applying a weak label to semantic data using the shared information and auxiliary information. ), and the update of the shared information may be performed based on the operation of a downstream task performed in the second device.
본 개시의 일 예로서, 무선 통신 시스템에서 제2 장치의 동작 방법은, 제1 장치에게 능력 정보 요청을 송신하는 단계, 상기 제1 장치로부터 능력 정보 수신하는 단계, 상기 제1 장치의 능력 정보에 기초하여 상기 제1 장치가 시멘틱 통신 능력을 구비한 장치인 경우, 상기 제1 장치에게 시멘틱 통신 관련 정보를 송신하는 단계, 및 상기 제1 장치로부터 상기 시멘틱 통신 관련 정보에 기초하여 생성된 시멘틱 통신 신호 및 위클리 라벨링(weakly labeling) 수행을 위한 정보를 수신하는 단계를 포함할 수 있다. 여기서, 상기 시멘틱 통신 신호는, 공유 정보(share information)및 상기 위클리 라벨링 수행을 위한 정보를 이용하여 생성되고, 상기 위클리 라벨링은, 상기 공유 정보 및 보조 정보를 이용하여 시멘틱 데이터에 위크 레이블(weak label)을 부여하는 동작이고, 상기 공유 정보의 업데이트는, 상기 제2 장치에서 수행되는 다운스트림 테스크의 동작에 기초하여 수행될 수 있다.As an example of the present disclosure, a method of operating a second device in a wireless communication system includes transmitting a capability information request to a first device, receiving capability information from the first device, and receiving capability information from the first device. When the first device is a device having semantic communication capabilities, transmitting semantic communication-related information to the first device, and a semantic communication signal generated from the first device based on the semantic communication-related information. And it may include receiving information for performing weekly labeling. Here, the semantic communication signal is generated using shared information and information for performing the weekly labeling, and the weekly labeling is performed by applying a weak label to semantic data using the shared information and auxiliary information. ), and the update of the shared information may be performed based on the operation of the downstream task performed in the second device.
본 개시의 일 예로서, 무선 통신 시스템에서 제1 장치는, 송수신기, 및 상기 송수신기와 연결된 프로세서를 포함하고, 상기 프로세서는, 제2 장치로부터 제1 장치에 대한 능력 정보 요청을 수신하고, 상기 제1 장치의 능력 정보를 상기 제2 장치에게 송신하고, 상기 제1 장치의 능력 정보에 기초하여 상기 제1 장치가 시멘틱 통신 능력을 구비한 장치인 경우, 상기 제2 장치로부터 시멘틱 통신 관련 정보를 수신하고, 상기 시멘틱 통신 관련 정보에 기초하여 시멘틱 통신 신호를 생성하고, 상기 시멘틱 통신 신호 및 위클리 라벨링(weakly labeling) 수행을 위한 정보를 상기 제2 장치에게 송신하도록 제어할 수 있다. 여기서, 상기 시멘틱 통신 신호는, 공유 정보(shared information) 및 상기 위클리 라벨링 수행을 위한 정보를 이용하여 생성되고, 상기 위클리 라벨링은, 상기 공유 정보 및 보조 정보를 이용하여 시멘틱 데이터에 위크 레이블(weak label)을 부여하는 동작이고, 상기 공유 정보의 업데이트는, 상기 제2 장치에서 수행되는 다운스트림 테스크(downstream task)의 동작에 기초하여 수행될 수 있다.As an example of the present disclosure, in a wireless communication system, a first device includes a transceiver, and a processor connected to the transceiver, wherein the processor receives a capability information request for the first device from a second device, and 1 Transmit the capability information of the device to the second device, and if the first device is a device equipped with semantic communication capability based on the capability information of the first device, receive semantic communication-related information from the second device. And, a semantic communication signal can be generated based on the semantic communication-related information, and the semantic communication signal and information for performing weekly labeling can be controlled to be transmitted to the second device. Here, the semantic communication signal is generated using shared information and information for performing the weekly labeling, and the weekly labeling is performed by applying a weak label to semantic data using the shared information and auxiliary information. ), and the update of the shared information may be performed based on the operation of a downstream task performed in the second device.
본 개시의 일 예로서, 제2 장치는, 송수신기, 및 상기 송수신기와 연결된 프로세서를 포함하고, 상기 프로세서는, 제1 장치에게 능력 정보 요청을 송신하고, 상기 제1 장치로부터 능력 정보 수신하고, 상기 제1 장치의 능력 정보에 기초하여 상기 제1 장치가 시멘틱 통신 능력을 구비한 장치인 경우, 상기 제1 장치에게 시멘틱 통신 관련 정보를 송신하고, 상기 제1 장치로부터 상기 시멘틱 통신 관련 정보에 기초하여 생성된 시멘틱 통신 신호 및 위클리 라벨링(weakly labeling) 수행을 위한 정보를 수신하도록 제어하되, 상기 시멘틱 통신 신호는, 공유 정보(share information)및 상기 위클리 라벨링 수행을 위한 정보를 이용하여 생성되고, 상기 위클리 라벨링은, 상기 공유 정보 및 보조 정보를 이용하여 시멘틱 데이터에 위크 레이블(weak label)을 부여하는 동작이고, 상기 공유 정보의 업데이트는, 상기 제2 장치에서 수행되는 다운스트림 테스크(downstream task)의 동작에 기초하여 수행될 수 있다.As an example of the present disclosure, a second device includes a transceiver, and a processor connected to the transceiver, wherein the processor transmits a capability information request to the first device, receives capability information from the first device, and Based on the capability information of the first device, if the first device is a device equipped with semantic communication capability, semantic communication-related information is transmitted to the first device, and the first device transmits semantic communication-related information based on the semantic communication-related information. Controlled to receive a generated semantic communication signal and information for performing weekly labeling, wherein the semantic communication signal is generated using shared information and information for performing the weekly labeling, and the weekly Labeling is an operation of assigning a weak label to semantic data using the shared information and auxiliary information, and updating of the shared information is an operation of a downstream task performed in the second device. It can be performed based on .
본 개시의 일 예로서, 제1 장치는, 적어도 하나의 메모리 및 상기 적어도 하나의 메모리들과 기능적으로 연결되어 있는 적어도 하나의 프로세서를 포함하고, 상기 프로세서는, 상기 제1 장치가, 제2 장치로부터 제1 장치에 대한 능력 정보 요청을 수신하고, 상기 제1 장치의 능력 정보를 상기 제2 장치에게 송신하고, 상기 제1 장치의 능력 정보에 기초하여 상기 제1 장치가 시멘틱 통신 능력을 구비한 장치인 경우, 상기 제2 장치로부터 시멘틱 통신 관련 정보를 수신하고, 상기 시멘틱 통신 관련 정보에 기초하여 시멘틱 통신 신호를 생성하고, 상기 시멘틱 통신 신호 및 위클리 라벨링(weakly labeling) 수행을 위한 정보를 상기 제2 장치에게 송신하도록 제어할 수 있다. 여기서, 상기 시멘틱 통신 신호는, 공유 정보(shared information) 및 상기 위클리 라벨링 수행을 위한 정보를 이용하여 생성되고, 상기 위클리 라벨링은, 상기 공유 정보 및 보조 정보를 이용하여 시멘틱 데이터에 위크 레이블(weak label)을 부여하는 동작이고, 상기 공유 정보의 업데이트는, 상기 제2 장치에서 수행되는 다운스트림 테스크의 동작에 기초하여 수행될 수 있다.As an example of the present disclosure, a first device includes at least one memory and at least one processor functionally connected to the at least one memory, wherein the processor includes the first device and the second device. Receive a capability information request for a first device from, transmit capability information of the first device to the second device, and determine if the first device has semantic communication capability based on the capability information of the first device. In the case of a device, it receives semantic communication-related information from the second device, generates a semantic communication signal based on the semantic communication-related information, and sends the semantic communication signal and information for performing weekly labeling to the second device. 2 You can control transmission to the device. Here, the semantic communication signal is generated using shared information and information for performing the weekly labeling, and the weekly labeling is performed by applying a weak label to semantic data using the shared information and auxiliary information. ), and the update of the shared information may be performed based on the operation of the downstream task performed in the second device.
본 개시의 일 예로서, 적어도 하나의 명령어(instructions)을 저장하는 비-일시적인(non-transitory) 컴퓨터 판독 가능 매체(computer-readable medium)는. 프로세서에 의해 실행 가능한(executable) 상기 적어도 하나의 명령어를 포함하며, 상기 적어도 하나의 명령어는, 제2 장치로부터 능력 정보 요청을 수신하고, 능력 정보를 상기 제2 장치에게 송신하고, 상기 능력 정보에 기초하여 상기 컴퓨터 판독 가능 매체가 시멘틱 통신 능력을 구비한 매체인 경우, 상기 제2 장치로부터 시멘틱 통신 관련 정보를 수신하고, 상기 시멘틱 통신 관련 정보에 기초하여 시멘틱 통신 신호를 생성하고, 상기 시멘틱 통신 신호 및 위클리 라벨링(weakly labeling) 수행을 위한 정보를 상기 제2 장치에게 송신하도록 제어할 수 있다. 여기서, 상기 시멘틱 통신 신호는, 공유 정보(shared information) 및 상기 위클리 라벨링 수행을 위한 정보를 이용하여 생성되고, 상기 위클리 라벨링은, 상기 공유 정보 및 보조 정보를 이용하여 시멘틱 데이터에 위크 레이블(weak label)을 부여하는 동작이고, 상기 공유 정보의 업데이트는, 상기 제2 장치에서 수행되는 다운스트림 테스크의 동작에 기초하여 수행될 수 있다.As an example of the present disclosure, a non-transitory computer-readable medium storing at least one instruction. Comprising the at least one instruction executable by a processor, the at least one instruction configured to: receive a capability information request from a second device, transmit capability information to the second device, and Based on this, when the computer-readable medium is a medium with semantic communication capability, receives semantic communication-related information from the second device, generates a semantic communication signal based on the semantic communication-related information, and generates the semantic communication signal. And it can be controlled to transmit information for performing weakly labeling to the second device. Here, the semantic communication signal is generated using shared information and information for performing the weekly labeling, and the weekly labeling is performed by applying a weak label to semantic data using the shared information and auxiliary information. ), and the update of the shared information may be performed based on the operation of the downstream task performed in the second device.
본 개시의 일 예로서, 상기 시멘틱 통신 신호는, 상기 제2 장치에 의해, 제1 장치가 표현을 생성하기 위해 사용한 로우 데이터(raw data)로 복원(decoding)되지 않고 다운스트림 테스크(downstream task) 수행을 위해 사용될 수 있다.As an example of the present disclosure, the semantic communication signal is not decoded by the second device into the raw data used by the first device to generate the representation and is used for a downstream task. It can be used for performance.
본 개시의 일 예로서, 상기 능력 정보는, 상기 제1 장치가 시멘틱 통신을 수행할 수 있는지 여부를 판단하기 위한 정보로서, 상기 제1 장치가 처리할 수 있는 로우 데이터(raw data)의 종류 및 상기 제1 장치의 연산 능력 정보를 포함할 수 있다.As an example of the present disclosure, the capability information is information for determining whether the first device can perform semantic communication, including the type of raw data that the first device can process and It may include computing capability information of the first device.
본 개시의 일 예로서, 상기 시멘틱 통신 관련 정보는, 시멘틱 데이터(semantic data) 획득 단위, 상기 위클리 라벨링 수행을 위한 정보, 미니-배치(mini-batch) 크기, 어그멘테이션 종류 및 어그멘테이션 비율, 인코딩 모델의 구성 정보 중 적어도 하나를 포함할 수 있고, 상기 시멘틱 데이터는, 상기 로우 데이터로부터 추출한 데이터이고, 상기 위클리 라벨링 수행을 위한 정보는, 보조 정보를 포함하고, 상기 획득 단위 및 상기 어그멘테이션 종류 및 어그멘테이션 비율은, 상기 제1장치 및 상기 제2 장치의 공유 정보에 기초하여 결정될 수 있다.As an example of the present disclosure, the semantic communication-related information includes a semantic data acquisition unit, information for performing the weekly labeling, mini-batch size, augmentation type, and augmentation ratio. , may include at least one of the configuration information of the encoding model, the semantic data is data extracted from the raw data, the information for performing the weekly labeling includes auxiliary information, and the acquisition unit and the augment The type of statement and the augmentation rate may be determined based on shared information between the first device and the second device.
본 개시의 일 예로서, 로우 데이터(raw data)로부터 시멘틱 데이터를 획득하는 단계, 상기 시멘틱 데이터에 대해 위클리 라벨링을 수행하여 위클리 라벨링된 시멘틱 데이터를 생성하는 단계, 및 상기 위클리 라벨링된 시멘틱 데이터로부터 어그멘테이션(augmentation) 데이터를 생성하는 단계를 더 포함할 수 있다.As an example of the present disclosure, obtaining semantic data from raw data, performing weekly labeling on the semantic data to generate weekly labeled semantic data, and generating weekly labeled semantic data from the weekly labeled semantic data. A step of generating augmentation data may be further included.
본 개시의 일 예로서, 상기 공유 정보 업데이트는, 상기 시멘틱 통신 신호를 변환한 신호를 이용하여 수행되고, 상기 변환한 신호는, 다운스트림 테스크를 수행하기 위해 사용되는 데이터 형식에 기초하여 생성될 수 있다.As an example of the present disclosure, the shared information update is performed using a signal converted from the semantic communication signal, and the converted signal may be generated based on a data format used to perform a downstream task. there is.
본 개시의 일 예로서, 상기 공유 정보 업데이트는, 트랜스폼 헤드(transform head)를 이용하여 수행되고, 상기 트랜스폼 헤드는, 적어도 하나의 댄스 레이어(dense layer) 및 적어도 하나의 비 선형(non-linear) 함수를 포함할 수 있다.As an example of the present disclosure, the shared information update is performed using a transform head, and the transform head includes at least one dance layer (dense layer) and at least one non-linear (non-linear) linear) function.
본 개시의 일 예로서, 상기 공유 정보 업데이트는, 사전학습에 사용된 표현, 다운스트림 테스크를 수행하기 위한 학습에 사용된 표현 및 추론에 사용된 표현 중 적어도 하나를 이용하여 수행될 수 있다.As an example of the present disclosure, the shared information update may be performed using at least one of an expression used in pre-learning, an expression used in learning to perform a downstream task, and an expression used in inference.
본 개시의 일 예로서, 상기 다운스트림 테스크를 위한 학습은, 트랜스폼 헤드(transform head)의 첫 번째 레이어 및 다운스트림 테스크 수행을 위해 결정된 적어도 하나의 레이어에 기초하여 생성될 수 있다.As an example of the present disclosure, learning for the downstream task may be generated based on the first layer of the transform head and at least one layer determined for performing the downstream task.
본 개시의 일 예로서, 상기 다운스트림 테스크를 위한 학습은, 파인튜닝(fine-tuning) 동작 또는 전이 학습(transfer-learning) 동작을 포함할 수 있다.As an example of the present disclosure, learning for the downstream task may include a fine-tuning operation or a transfer-learning operation.
본 개시의 일 예로서, 상기 파인튜닝 동작은, 사전학습이 완료된 후, 인코더의 가중치, 추가 동작에 대한 가중치 및 트랜스폼 헤드의 첫 번째 레이어에 대한 가중치를 이용하여, 다운스트림 테스크에 따라 결정된 뉴럴 네트워크(neural network)를 포함하는 모든 네트워크에 대해 수행될 수 있다.As an example of the present disclosure, the fine tuning operation, after pre-learning is completed, uses the weight of the encoder, the weight for the additional operation, and the weight for the first layer of the transform head to determine the neural network according to the downstream task. It can be performed on all networks, including neural networks.
본 개시의 일 예로서, 상기 전이 학습 동작은, 사전학습이 완료된 후, 인코더의 가중치, 추가 동작에 대한 가중치 및 트랜스폼 헤드의 첫 번째 레이어에 대한 가중치가 고정된 상태에서, 다운스트림 테스크에 따라 추가된 MLP(multi-layer perceptron)에 대해 수행될 수 있다.As an example of the present disclosure, the transfer learning operation is performed according to the downstream task, after pre-learning is completed, with the weight of the encoder, the weight for the additional operation, and the weight for the first layer of the transform head being fixed. It can be performed on an added multi-layer perceptron (MLP).
본 개시의 일 예로서, 상기 시멘틱 통신 신호는, 시멘틱 통신을 위한 레이어 상에서 송신될 수 있다.As an example of the present disclosure, the semantic communication signal may be transmitted on a layer for semantic communication.
본 개시에 기초한 실시 예들에 의해 하기와 같은 효과가 있을 수 있다.The following effects may be achieved by embodiments based on the present disclosure.
본 개시에 기초한 실시 예들에서, 시멘틱 통신(semantic communication)에서 소스(source) 및 목적지(destination)신호를 송수신하는 방법을 제공할 수 있다.In embodiments based on the present disclosure, a method for transmitting and receiving source and destination signals in semantic communication can be provided.
본 개시에 기초한 실시 예들에서, 소스(source) 및 목적지(destination)에 위치한 시멘틱 레이어(semantic layer) 간 신호를 송수신하는 방법을 제공할 수 있다.In embodiments based on the present disclosure, a method for transmitting and receiving signals between semantic layers located at a source and a destination can be provided.
본 개시에 기초한 실시 예들에서, 소스가 목적지의 다운스트림 테스크에 적합한 신호를 생성하는 방법을 제공할 수 있다.In embodiments based on the present disclosure, a source may provide a method for generating a signal suitable for a downstream task at a destination.
본 개시에 기초한 실시 예들에서, 위클리 슈퍼바이즈드 콘트라스티브 러닝(weakly supervised contrastive learning)을 활용하여 신호 생성을 위한 학습을 수행하는 방법을 제공할 수 있다.In embodiments based on the present disclosure, a method of performing learning for signal generation using weakly supervised contrastive learning may be provided.
본 개시에 기초한 실시 예들에서, 위클리 라벨링(weakly labeling)을 수행하는 방법을 제공할 수 있다.In embodiments based on the present disclosure, a method of performing weakly labeling may be provided.
본 개시에 기초한 실시 예들에서, 목적지의 다운스트림 테스크에 적합한 신호 생성을 위한 학습 방법을 제공할 수 있다.In embodiments based on the present disclosure, a learning method for generating a signal suitable for a downstream task of the destination may be provided.
본 개시에 기초한 실시 예들에서, 테스크 지향적(task-oriented)으로 목적지에 위치한 다운스트림 테스크를 수행하기 위해, 소스 및 목적지가 보유한 배경 지식(background knowledge)을 업데이트(update)하기 위한 방법을 제공할 수 있다.In embodiments based on the present disclosure, a method may be provided to update background knowledge held by the source and destination in order to perform a downstream task located at the destination in a task-oriented manner. there is.
본 개시의 실시 예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 이하의 본 개시의 실시 예들에 대한 기재로부터 본 개시의 기술 구성이 적용되는 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다. 즉, 본 개시에서 서술하는 구성을 실시함에 따른 의도하지 않은 효과들 역시 본 개시의 실시 예들로부터 당해 기술분야의 통상의 지식을 가진 자에 의해 도출될 수 있다.The effects that can be obtained from the embodiments of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned can be found in the technical field to which the technical configuration of the present disclosure is applied from the description of the embodiments of the present disclosure below. It can be clearly derived and understood by those with ordinary knowledge. That is, unintended effects resulting from implementing the configuration described in this disclosure may also be derived by a person skilled in the art from the embodiments of this disclosure.
이하에 첨부되는 도면들은 본 개시에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 본 개시에 대한 실시 예들을 제공할 수 있다. 다만, 본 개시의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시 예로 구성될 수 있다. 각 도면에서의 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미할 수 있다.The drawings attached below are intended to aid understanding of the present disclosure and may provide embodiments of the present disclosure along with a detailed description. However, the technical features of the present disclosure are not limited to specific drawings, and the features disclosed in each drawing may be combined to form a new embodiment. Reference numerals in each drawing may refer to structural elements.
도 1은 본 개시에 적용 가능한 통신 시스템 예시를 나타낸 도면이다.1 is a diagram showing an example of a communication system applicable to the present disclosure.
도 2는 본 개시에 적용 가능한 무선 기기의 예시를 나타낸 도면이다.Figure 2 is a diagram showing an example of a wireless device applicable to the present disclosure.
도 3은 본 개시에 적용 가능한 무선 기기의 다른 예시를 나타낸 도면이다.Figure 3 is a diagram showing another example of a wireless device applicable to the present disclosure.
도 4는 본 개시에 적용 가능한 AI(Artificial Intelligence)의 예시를 나타낸 도면이다.Figure 4 is a diagram showing an example of AI (Artificial Intelligence) applicable to the present disclosure.
도 5는 본 개시의 일 실시예에 따른 3단계로 구분된 통신 모델의 예를 도시한다.Figure 5 shows an example of a communication model divided into three stages according to an embodiment of the present disclosure.
도 6은 본 개시의 일 실시예에 따른 시멘틱 통신 시스템(semantic communication system)의 예를 도시한다.Figure 6 shows an example of a semantic communication system according to an embodiment of the present disclosure.
도 7은 본 개시의 일 실시예에 따른 콘트라스티브 러닝(contrastive learning)의 예를 도시한다.Figure 7 shows an example of contrastive learning according to an embodiment of the present disclosure.
도 8은 본 개시의 일 실시예에 따른 콘트라스티브 러닝을 위한 인스턴스 식별(instance discrimination)의 예를 도시한다.Figure 8 shows an example of instance discrimination for contrast learning according to an embodiment of the present disclosure.
도 9는 본 개시의 일 실시예에 따른 어그멘테이션(augmentation) 데이터의 예를 도시한다.Figure 9 shows an example of augmentation data according to an embodiment of the present disclosure.
도 10은 본 개시의 일 실시예에 따른 콘트라스티브 러닝 수행 시 발생할 수 있는 문제점의 예를 도시한다.Figure 10 shows an example of a problem that may occur when performing contrast learning according to an embodiment of the present disclosure.
도 11은 본 개시의 일 실시예에 따른 사전학습을 위한 프레임워크 예를 도시한다.Figure 11 shows an example framework for dictionary learning according to an embodiment of the present disclosure.
도 12는 본 개시의 일 실시예에 따른 시멘틱(semantic) 데이터 생성의 예를 도시한다.Figure 12 shows an example of semantic data generation according to an embodiment of the present disclosure.
도 13는 본 개시의 일 실시 예에 따른 이산 어트리뷰트(discrete attribute)에 기초한 위클리 라벨링의 예를 도시한다.Figure 13 shows an example of weekly labeling based on discrete attributes according to an embodiment of the present disclosure.
도 14는 본 개시의 일 실시 예에 따른 계층적 레벨(hierarchy level)에 기초한 위클리 라벨링의 예를 도시한다.Figure 14 shows an example of weekly labeling based on a hierarchical level according to an embodiment of the present disclosure.
도 15는 본 개시의 일 실시예에 따른 엣지 퍼터베이션(edge perturbation)의 성능을 도시한다.Figure 15 shows the performance of edge perturbation according to an embodiment of the present disclosure.
도 16은 데이터 모달리티가 그래프인 경우의 추가적인 데이터 변환 동작의 예를 도시한다.Figure 16 shows an example of an additional data conversion operation when the data modality is a graph.
도 17은 데이터 모달리티가 텍스트인 경우의 추가적인 데이터 변환 동작의 예를 도시한다.Figure 17 shows an example of an additional data conversion operation when the data modality is text.
도 18은 본 개시의 일 실시예에 따른 트랜스폼 헤드 구성의 예를 도시한다.Figure 18 shows an example of a transform head configuration according to an embodiment of the present disclosure.
도 19는 본 개시의 일 실시예에 따른 이산 어트리뷰트에 기초한 위클리 라벨링 수행 결과에 대한 그래프를 도시한다.Figure 19 shows a graph of the results of performing weekly labeling based on discrete attributes according to an embodiment of the present disclosure.
도 20은 본 개시의 일 실시예에 따른 계층 레벨에 기초한 위클리 라벨링 관련 파라미터 간의 관계에 대한 그래프를 도시한다.Figure 20 shows a graph of the relationship between parameters related to weekly labeling based on hierarchical levels according to an embodiment of the present disclosure.
도 21은 본 개시의 일 실시예에 따른 다운스트림 테스크에 따른 학습(training) 및 추론(inference)을 위한 프레임워크 예를 도시한다.Figure 21 shows an example framework for training and inference according to a downstream task according to an embodiment of the present disclosure.
도 22는 본 개시의 일 실시예에 따른 시멘틱 신호 생성 동작 절차의 예를 도시한다.Figure 22 shows an example of a semantic signal generation operation procedure according to an embodiment of the present disclosure.
도 23은 본 개시의 일 실시예에 따른 시멘틱 통신의 초기 설정을 위한한 신호도의 예를 도시한다.Figure 23 shows an example of a signal diagram for initial setup of semantic communication according to an embodiment of the present disclosure.
도 24는 본 개시의 일 실시예에 따른 미니 배치 단위의 정보 교환도의 예를 도시한다.Figure 24 shows an example of an information exchange diagram in a mini-batch unit according to an embodiment of the present disclosure.
이하의 실시 예들은 본 개시의 구성요소들과 특징들을 소정 형태로 결합한 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려될 수 있다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 개시의 실시 예를 구성할 수도 있다. 본 개시의 실시 예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시 예의 일부 구성이나 특징은 다른 실시 예에 포함될 수 있고, 또는 다른 실시 예의 대응하는 구성 또는 특징과 교체될 수 있다.The following embodiments combine the elements and features of the present disclosure in a predetermined form. Each component or feature may be considered optional unless explicitly stated otherwise. Each component or feature may be implemented in a form that is not combined with other components or features. Additionally, some components and/or features may be combined to configure an embodiment of the present disclosure. The order of operations described in embodiments of the present disclosure may be changed. Some features or features of one embodiment may be included in another embodiment or may be replaced with corresponding features or features of another embodiment.
도면에 대한 설명에서, 본 개시의 요지를 흐릴 수 있는 절차 또는 단계 등은 기술하지 않았으며, 당업자의 수준에서 이해할 수 있을 정도의 절차 또는 단계는 또한 기술하지 아니하였다.In the description of the drawings, procedures or steps that may obscure the gist of the present disclosure are not described, and procedures or steps that can be understood by a person skilled in the art are not described.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일(a 또는 an)", "하나(one)", "그(the)" 및 유사 관련어는 본 개시를 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.Throughout the specification, when a part is said to “comprise or include” a certain element, this means that it does not exclude other elements but may further include other elements, unless specifically stated to the contrary. do. In addition, terms such as "... unit", "... unit", and "module" used in the specification refer to a unit that processes at least one function or operation, which refers to hardware, software, or a combination of hardware and software. It can be implemented as: Additionally, the terms “a or an,” “one,” “the,” and similar related terms may be used differently herein in the context of describing the present disclosure (particularly in the context of the claims below). It may be used in both singular and plural terms, unless indicated otherwise or clearly contradicted by context.
본 명세서에서 본 개시의 실시예들은 기지국과 이동국 간의 데이터 송수신 관계를 중심으로 설명되었다. 그러나, 본 개시는 기지국과 이동국 간의 데이터 송수신에 한정되지 않으며, 이동국과 이동국 간의 데이터 송수신 등 다양한 형태로 실시될 수 있다. 여기서, 기지국은 이동국과 직접적으로 통신을 수행하는 네트워크의 종단 노드(terminal node)로서의 의미가 있다. 본 문서에서 기지국에 의해 수행되는 것으로 설명된 특정 동작은 경우에 따라서는 기지국의 상위 노드(upper node)에 의해 수행될 수도 있다.In this specification, embodiments of the present disclosure have been described focusing on the data transmission and reception relationship between the base station and the mobile station. However, the present disclosure is not limited to data transmission and reception between the base station and the mobile station, and may be implemented in various forms, such as data transmission and reception between the mobile station and the mobile station. Here, the base station is meant as a terminal node of the network that directly communicates with the mobile station. Certain operations described in this document as being performed by the base station may, in some cases, be performed by an upper node of the base station.
즉, 기지국을 포함하는 다수의 네트워크 노드들(network nodes)로 이루어지는 네트워크에서 이동국과의 통신을 위해 수행되는 다양한 동작들은 기지국 또는 기지국 이외의 다른 네트워크 노드들에 의해 수행될 수 있다. 이때, '기지국'은 고정국(fixed station), Node B, eNB(eNode B), gNB(gNode B), ng-eNB, 발전된 기지국(advanced base station, ABS) 또는 억세스 포인트(access point) 등의 용어에 의해 대체될 수 있다.That is, in a network comprised of a plurality of network nodes including a base station, various operations performed for communication with a mobile station may be performed by the base station or other network nodes other than the base station. At this time, 'base station' refers to terms such as fixed station, Node B, eNB (eNode B), gNB (gNode B), ng-eNB, advanced base station (ABS), or access point. It can be replaced by .
또한, 본 개시의 실시 예들에서 단말(terminal)은 사용자 기기(user equipment, UE), 이동국(mobile station, MS), 가입자국(subscriber station, SS), 이동 가입자 단말(mobile subscriber station, MSS), 이동 단말(mobile terminal) 또는 발전된 이동 단말(advanced mobile station, AMS) 등의 용어로 대체될 수 있다.Additionally, in embodiments of the present disclosure, a terminal may include a user equipment (UE), a mobile station (MS), a subscriber station (SS), a mobile subscriber station (MSS), It can be replaced with terms such as mobile terminal or advanced mobile station (AMS).
또한, 송신단은 데이터 서비스 또는 음성 서비스를 제공하는 고정 및/또는 이동 노드를 말하고, 수신단은 데이터 서비스 또는 음성 서비스를 수신하는 고정 및/또는 이동 노드를 의미한다. 따라서, 상향링크의 경우, 이동국이 송신단이 되고, 기지국이 수신단이 될 수 있다. 마찬가지로, 하향링크의 경우, 이동국이 수신단이 되고, 기지국이 송신단이 될 수 있다.Additionally, the transmitting end refers to a fixed and/or mobile node that provides a data service or a voice service, and the receiving end refers to a fixed and/or mobile node that receives a data service or a voice service. Therefore, in the case of uplink, the mobile station can be the transmitting end and the base station can be the receiving end. Likewise, in the case of downlink, the mobile station can be the receiving end and the base station can be the transmitting end.
본 개시의 실시 예들은 무선 접속 시스템들인 IEEE 802.xx 시스템, 3GPP(3rd Generation Partnership Project) 시스템, 3GPP LTE(Long Term Evolution) 시스템, 3GPP 5G(5th generation) NR(New Radio) 시스템 및 3GPP2 시스템 중 적어도 하나에 개시된 표준 문서들에 의해 뒷받침될 수 있으며, 특히, 본 개시의 실시 예들은 3GPP TS(technical specification) 38.211, 3GPP TS 38.212, 3GPP TS 38.213, 3GPP TS 38.321 및 3GPP TS 38.331 문서들에 의해 뒷받침될 수 있다. Embodiments of the present disclosure include wireless access systems such as the IEEE 802.xx system, 3GPP (3rd Generation Partnership Project) system, 3GPP LTE (Long Term Evolution) system, 3GPP 5G (5th generation) NR (New Radio) system, and 3GPP2 system. It may be supported by at least one standard document disclosed in one, and in particular, embodiments of the present disclosure are supported by the 3GPP TS (technical specification) 38.211, 3GPP TS 38.212, 3GPP TS 38.213, 3GPP TS 38.321 and 3GPP TS 38.331 documents. It can be.
또한, 본 개시의 실시 예들은 다른 무선 접속 시스템에도 적용될 수 있으며, 상술한 시스템으로 한정되는 것은 아니다. 일 예로, 3GPP 5G NR 시스템 이후에 적용되는 시스템에 대해서도 적용 가능할 수 있으며, 특정 시스템에 한정되지 않는다.Additionally, embodiments of the present disclosure can be applied to other wireless access systems and are not limited to the above-described system. As an example, it may be applicable to systems applied after the 3GPP 5G NR system and is not limited to a specific system.
즉, 본 개시의 실시 예들 중 설명하지 않은 자명한 단계들 또는 부분들은 상기 문서들을 참조하여 설명될 수 있다. 또한, 본 문서에서 개시하고 있는 모든 용어들은 상기 표준 문서에 의해 설명될 수 있다.That is, obvious steps or parts that are not described among the embodiments of the present disclosure can be explained with reference to the documents. Additionally, all terms disclosed in this document can be explained by the standard document.
이하, 본 개시에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 개시의 예시적인 실시 형태를 설명하고자 하는 것이며, 본 개시의 기술 구성이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다.Hereinafter, preferred embodiments according to the present disclosure will be described in detail with reference to the attached drawings. The detailed description to be disclosed below along with the accompanying drawings is intended to describe exemplary embodiments of the present disclosure, and is not intended to represent the only embodiments in which the technical features of the present disclosure may be practiced.
또한, 본 개시의 실시 예들에서 사용되는 특정 용어들은 본 개시의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 개시의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.Additionally, specific terms used in the embodiments of the present disclosure are provided to aid understanding of the present disclosure, and the use of such specific terms may be changed to other forms without departing from the technical spirit of the present disclosure.
이하의 기술은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 접속 시스템에 적용될 수 있다.The following technologies include code division multiple access (CDMA), frequency division multiple access (FDMA), time division multiple access (TDMA), orthogonal frequency division multiple access (OFDMA), and single carrier frequency division multiple access (SC-FDMA). It can be applied to various wireless access systems.
*하기에서는 이하 설명을 명확하게 하기 위해, 3GPP 통신 시스템(e.g.(예, LTE, NR 등)을 기반으로 설명하지만 본 발명의 기술적 사상이 이에 제한되는 것은 아니다. LTE는 3GPP TS 36.xxx Release 8 이후의 기술을 의미할 수 있다. 세부적으로, 3GPP TS 36.xxx Release 10 이후의 LTE 기술은 LTE-A로 지칭되고, 3GPP TS 36.xxx Release 13 이후의 LTE 기술은 LTE-A pro로 지칭될 수 있다. 3GPP NR은 TS 38.xxx Release 15 이후의 기술을 의미할 수 있다. 3GPP 6G는 TS Release 17 및/또는 Release 18 이후의 기술을 의미할 수 있다. "xxx"는 표준 문서 세부 번호를 의미한다. LTE/NR/6G는 3GPP 시스템으로 통칭될 수 있다.*For clarity of explanation, the following description is based on the 3GPP communication system (e.g., LTE, NR, etc.), but the technical idea of the present invention is not limited thereto. LTE is 3GPP TS 36.xxx Release 8 In detail, the LTE technology after 3GPP TS 36.xxx Release 10 will be referred to as LTE-A, and the LTE technology after 3GPP TS 36.xxx Release 13 will be referred to as LTE-A pro. 3GPP NR may mean technology after TS 38.xxx Release 15, and “xxx” may mean technology after TS Release 17 and/or Release 18. This means that LTE/NR/6G can be collectively referred to as a 3GPP system.
본 개시에 사용된 배경기술, 용어, 약어 등에 관해서는 본 발명 이전에 공개된 표준 문서에 기재된 사항을 참조할 수 있다. 일 예로, 36.xxx 및 38.xxx 표준 문서를 참조할 수 있다.Regarding background technology, terms, abbreviations, etc. used in the present disclosure, reference may be made to matters described in standard documents published prior to the present invention. As an example, you can refer to the 36.xxx and 38.xxx standard documents.
본 개시에 적용 가능한 통신 시스템Communication systems applicable to this disclosure
이로 제한되는 것은 아니지만, 본 문서에 개시된 본 개시의 다양한 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 기기들 간에 무선 통신/연결(예, 5G)을 필요로 하는 다양한 분야에 적용될 수 있다.Although not limited thereto, the various descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts of the present disclosure disclosed in this document can be applied to various fields requiring wireless communication/connection (e.g., 5G) between devices. there is.
이하, 도면을 참조하여 보다 구체적으로 예시한다. 이하의 도면/설명에서 동일한 도면 부호는 다르게 기술하지 않는 한, 동일하거나 대응되는 하드웨어 블록, 소프트웨어 블록 또는 기능 블록을 예시할 수 있다.Hereinafter, a more detailed example will be provided with reference to the drawings. In the following drawings/descriptions, identical reference numerals may illustrate identical or corresponding hardware blocks, software blocks, or functional blocks, unless otherwise noted.
도 1은 본 개시에 적용되는 통신 시스템 예시를 도시한 도면이다.1 is a diagram illustrating an example of a communication system applied to the present disclosure.
도 1을 참조하면, 본 개시에 적용되는 통신 시스템(100)은 무선 기기, 기지국 및 네트워크를 포함한다. 여기서, 무선 기기는 무선 접속 기술(예, 5G NR, LTE)을 이용하여 통신을 수행하는 기기를 의미하며, 통신/무선/5G 기기로 지칭될 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(100a), 차량(100b-1, 100b-2), XR(extended reality) 기기(100c), 휴대 기기(hand-held device)(100d), 가전(home appliance)(100e), IoT(Internet of Thing) 기기(100f), AI(artificial intelligence) 기기/서버(100g)를 포함할 수 있다. 예를 들어, 차량은 무선 통신 기능이 구비된 차량, 자율 주행 차량, 차량간 통신을 수행할 수 있는 차량 등을 포함할 수 있다. 여기서, 차량(100b-1, 100b-2)은 UAV(unmanned aerial vehicle)(예, 드론)를 포함할 수 있다. XR 기기(100c)는 AR(augmented reality)/VR(virtual reality)/MR(mixed reality) 기기를 포함하며, HMD(head-mounted device), 차량에 구비된 HUD(head-up display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등의 형태로 구현될 수 있다. 휴대 기기(100d)는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 컴퓨터(예, 노트북 등) 등을 포함할 수 있다. 가전(100e)은 TV, 냉장고, 세탁기 등을 포함할 수 있다. IoT 기기(100f)는 센서, 스마트 미터 등을 포함할 수 있다. 예를 들어, 기지국(120), 네트워크(130)는 무선 기기로도 구현될 수 있으며, 특정 무선 기기(120a)는 다른 무선 기기에게 기지국/네트워크 노드로 동작할 수도 있다.Referring to FIG. 1, the communication system 100 applied to the present disclosure includes a wireless device, a base station, and a network. Here, a wireless device refers to a device that performs communication using wireless access technology (e.g., 5G NR, LTE) and may be referred to as a communication/wireless/5G device. Although not limited thereto, wireless devices include robots (100a), vehicles (100b-1, 100b-2), extended reality (XR) devices (100c), hand-held devices (100d), and home appliances (100d). appliance) (100e), IoT (Internet of Thing) device (100f), and AI (artificial intelligence) device/server (100g). For example, vehicles may include vehicles equipped with wireless communication functions, autonomous vehicles, vehicles capable of inter-vehicle communication, etc. Here, the vehicles 100b-1 and 100b-2 may include an unmanned aerial vehicle (UAV) (eg, a drone). The XR device 100c includes augmented reality (AR)/virtual reality (VR)/mixed reality (MR) devices, including a head-mounted device (HMD), a head-up display (HUD) installed in a vehicle, a television, It can be implemented in the form of smartphones, computers, wearable devices, home appliances, digital signage, vehicles, robots, etc. The mobile device 100d may include a smartphone, smart pad, wearable device (eg, smart watch, smart glasses), computer (eg, laptop, etc.), etc. Home appliances 100e may include a TV, refrigerator, washing machine, etc. IoT device 100f may include sensors, smart meters, etc. For example, the base station 120 and the network 130 may also be implemented as wireless devices, and a specific wireless device 120a may operate as a base station/network node for other wireless devices.
무선 기기(100a~100f)는 기지국(120)을 통해 네트워크(130)와 연결될 수 있다. 무선 기기(100a~100f)에는 AI 기술이 적용될 수 있으며, 무선 기기(100a~100f)는 네트워크(130)를 통해 AI 서버(100g)와 연결될 수 있다. 네트워크(130)는 3G 네트워크, 4G(예, LTE) 네트워크 또는 5G(예, NR) 네트워크 등을 이용하여 구성될 수 있다. 무선 기기(100a~100f)는 기지국(120)/네트워크(130)를 통해 서로 통신할 수도 있지만, 기지국(120)/네트워크(130)를 통하지 않고 직접 통신(예, 사이드링크 통신(sidelink communication))할 수도 있다. 예를 들어, 차량들(100b-1, 100b-2)은 직접 통신(예, V2V(vehicle to vehicle)/V2X(vehicle to everything) communication)을 할 수 있다. 또한, IoT 기기(100f)(예, 센서)는 다른 IoT 기기(예, 센서) 또는 다른 무선 기기(100a~100f)와 직접 통신을 할 수 있다. Wireless devices 100a to 100f may be connected to the network 130 through the base station 120. AI technology may be applied to the wireless devices 100a to 100f, and the wireless devices 100a to 100f may be connected to the AI server 100g through the network 130. The network 130 may be configured using a 3G network, 4G (eg, LTE) network, or 5G (eg, NR) network. Wireless devices 100a to 100f may communicate with each other through the base station 120/network 130, but communicate directly (e.g., sidelink communication) without going through the base station 120/network 130. You may. For example, vehicles 100b-1 and 100b-2 may communicate directly (eg, vehicle to vehicle (V2V)/vehicle to everything (V2X) communication). Additionally, the IoT device 100f (eg, sensor) may communicate directly with other IoT devices (eg, sensor) or other wireless devices 100a to 100f.
본 개시에 적용 가능한 통신 시스템Communication systems applicable to this disclosure
도 2는 본 개시에 적용될 수 있는 무선 기기의 예시를 도시한 도면이다.FIG. 2 is a diagram illustrating an example of a wireless device applicable to the present disclosure.
도 2를 참조하면, 제1 무선 기기(200a)와 제2 무선 기기(200b)는 다양한 무선 접속 기술(예, LTE, NR)을 통해 무선 신호를 송수신할 수 있다. 여기서, {제1 무선 기기(200a), 제2 무선 기기(200b)}은 도 1의 {무선 기기(100x), 기지국(120)} 및/또는 {무선 기기(100x), 무선 기기(100x)}에 대응할 수 있다.Referring to FIG. 2, the first wireless device 200a and the second wireless device 200b can transmit and receive wireless signals through various wireless access technologies (eg, LTE, NR). Here, {first wireless device 200a, second wireless device 200b} refers to {wireless device 100x, base station 120} and/or {wireless device 100x, wireless device 100x) in FIG. } can be responded to.
제1 무선 기기(200a)는 하나 이상의 프로세서(202a) 및 하나 이상의 메모리(204a)를 포함하며, 추가적으로 하나 이상의 송수신기(206a) 및/또는 하나 이상의 안테나(208a)을 더 포함할 수 있다. 프로세서(202a)는 메모리(204a) 및/또는 송수신기(206a)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202a)는 메모리(204a) 내의 정보를 처리하여 제1 정보/신호를 생성한 뒤, 송수신기(206a)을 통해 제1 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202a)는 송수신기(206a)를 통해 제2 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제2 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204a)에 저장할 수 있다. 메모리(204a)는 프로세서(202a)와 연결될 수 있고, 프로세서(202a)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204a)는 프로세서(202a)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202a)와 메모리(204a)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206a)는 프로세서(202a)와 연결될 수 있고, 하나 이상의 안테나(208a)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206a)는 송신기 및/또는 수신기를 포함할 수 있다. 송수신기(206a)는 RF(radio frequency) 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.The first wireless device 200a includes one or more processors 202a and one or more memories 204a, and may further include one or more transceivers 206a and/or one or more antennas 208a. Processor 202a controls memory 204a and/or transceiver 206a and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein. For example, the processor 202a may process information in the memory 204a to generate first information/signal and then transmit a wireless signal including the first information/signal through the transceiver 206a. Additionally, the processor 202a may receive a wireless signal including the second information/signal through the transceiver 206a and then store information obtained from signal processing of the second information/signal in the memory 204a. The memory 204a may be connected to the processor 202a and may store various information related to the operation of the processor 202a. For example, memory 204a may perform some or all of the processes controlled by processor 202a or instructions for performing the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein. Software code containing them can be stored. Here, the processor 202a and the memory 204a may be part of a communication modem/circuit/chip designed to implement wireless communication technology (eg, LTE, NR). Transceiver 206a may be coupled to processor 202a and may transmit and/or receive wireless signals via one or more antennas 208a. Transceiver 206a may include a transmitter and/or receiver. The transceiver 206a may be used interchangeably with a radio frequency (RF) unit. In this disclosure, a wireless device may mean a communication modem/circuit/chip.
제2 무선 기기(200b)는 하나 이상의 프로세서(202b), 하나 이상의 메모리(204b)를 포함하며, 추가적으로 하나 이상의 송수신기(206b) 및/또는 하나 이상의 안테나(208b)를 더 포함할 수 있다. 프로세서(202b)는 메모리(204b) 및/또는 송수신기(206b)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202b)는 메모리(204b) 내의 정보를 처리하여 제3 정보/신호를 생성한 뒤, 송수신기(206b)를 통해 제3 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202b)는 송수신기(206b)를 통해 제4 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제4 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204b)에 저장할 수 있다. 메모리(204b)는 프로세서(202b)와 연결될 수 있고, 프로세서(202b)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204b)는 프로세서(202b)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202b)와 메모리(204b)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206b)는 프로세서(202b)와 연결될 수 있고, 하나 이상의 안테나(208b)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206b)는 송신기 및/또는 수신기를 포함할 수 있다 송수신기(206b)는 RF 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.The second wireless device 200b includes one or more processors 202b, one or more memories 204b, and may further include one or more transceivers 206b and/or one or more antennas 208b. Processor 202b controls memory 204b and/or transceiver 206b and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein. For example, the processor 202b may process information in the memory 204b to generate third information/signal and then transmit a wireless signal including the third information/signal through the transceiver 206b. Additionally, the processor 202b may receive a wireless signal including the fourth information/signal through the transceiver 206b and then store information obtained from signal processing of the fourth information/signal in the memory 204b. The memory 204b may be connected to the processor 202b and may store various information related to the operation of the processor 202b. For example, memory 204b may perform some or all of the processes controlled by processor 202b or instructions for performing the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein. Software code containing them can be stored. Here, the processor 202b and the memory 204b may be part of a communication modem/circuit/chip designed to implement wireless communication technology (eg, LTE, NR). Transceiver 206b may be coupled to processor 202b and may transmit and/or receive wireless signals via one or more antennas 208b. The transceiver 206b may include a transmitter and/or a receiver. The transceiver 206b may be used interchangeably with an RF unit. In this disclosure, a wireless device may mean a communication modem/circuit/chip.
이하, 무선 기기(200a, 200b)의 하드웨어 요소에 대해 보다 구체적으로 설명한다. 이로 제한되는 것은 아니지만, 하나 이상의 프로토콜 계층이 하나 이상의 프로세서(202a, 202b)에 의해 구현될 수 있다. 예를 들어, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 계층(예, PHY(physical), MAC(media access control), RLC(radio link control), PDCP(packet data convergence protocol), RRC(radio resource control), SDAP(service data adaptation protocol)와 같은 기능적 계층)을 구현할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 하나 이상의 PDU(Protocol Data Unit) 및/또는 하나 이상의 SDU(service data unit)를 생성할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 메시지, 제어정보, 데이터 또는 정보를 생성할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 문서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 포함하는 신호(예, 베이스밴드 신호)를 생성하여, 하나 이상의 송수신기(206a, 206b)에게 제공할 수 있다. 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)로부터 신호(예, 베이스밴드 신호)를 수신할 수 있고, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 획득할 수 있다.Hereinafter, the hardware elements of the wireless devices 200a and 200b will be described in more detail. Although not limited thereto, one or more protocol layers may be implemented by one or more processors 202a and 202b. For example, one or more processors 202a and 202b may operate on one or more layers (e.g., physical (PHY), media access control (MAC), radio link control (RLC), packet data convergence protocol (PDCP), and radio resource (RRC). control) and functional layers such as SDAP (service data adaptation protocol) can be implemented. One or more processors 202a, 202b may generate one or more protocol data units (PDUs) and/or one or more service data units (SDUs) according to the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed in this document. can be created. One or more processors 202a and 202b may generate messages, control information, data or information according to the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document. One or more processors 202a, 202b generate signals (e.g., baseband signals) containing PDUs, SDUs, messages, control information, data, or information according to the functions, procedures, proposals, and/or methods disclosed herein. , can be provided to one or more transceivers (206a, 206b). One or more processors 202a, 202b may receive signals (e.g., baseband signals) from one or more transceivers 206a, 206b, and the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein. Depending on the device, PDU, SDU, message, control information, data or information can be obtained.
하나 이상의 프로세서(202a, 202b)는 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 마이크로 컴퓨터로 지칭될 수 있다. 하나 이상의 프로세서(202a, 202b)는 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합에 의해 구현될 수 있다. 일 예로, 하나 이상의 ASIC(application specific integrated circuit), 하나 이상의 DSP(digital signal processor), 하나 이상의 DSPD(digital signal processing device), 하나 이상의 PLD(programmable logic device) 또는 하나 이상의 FPGA(field programmable gate arrays)가 하나 이상의 프로세서(202a, 202b)에 포함될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있고, 펌웨어 또는 소프트웨어는 모듈, 절차, 기능 등을 포함하도록 구현될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 수행하도록 설정된 펌웨어 또는 소프트웨어는 하나 이상의 프로세서(202a, 202b)에 포함되거나, 하나 이상의 메모리(204a, 204b)에 저장되어 하나 이상의 프로세서(202a, 202b)에 의해 구동될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 코드, 명령어 및/또는 명령어의 집합 형태로 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있다. One or more processors 202a, 202b may be referred to as a controller, microcontroller, microprocessor, or microcomputer. One or more processors 202a and 202b may be implemented by hardware, firmware, software, or a combination thereof. As an example, one or more application specific integrated circuits (ASICs), one or more digital signal processors (DSPs), one or more digital signal processing devices (DSPDs), one or more programmable logic devices (PLDs), or one or more field programmable gate arrays (FPGAs) May be included in one or more processors 202a and 202b. The descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document may be implemented using firmware or software, and the firmware or software may be implemented to include modules, procedures, functions, etc. Firmware or software configured to perform the descriptions, functions, procedures, suggestions, methods and/or operation flowcharts disclosed in this document may be included in one or more processors 202a and 202b or stored in one or more memories 204a and 204b. It may be driven by the above processors 202a and 202b. The descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document may be implemented using firmware or software in the form of codes, instructions and/or sets of instructions.
하나 이상의 메모리(204a, 204b)는 하나 이상의 프로세서(202a, 202b)와 연결될 수 있고, 다양한 형태의 데이터, 신호, 메시지, 정보, 프로그램, 코드, 지시 및/또는 명령을 저장할 수 있다. 하나 이상의 메모리(204a, 204b)는 ROM(read only memory), RAM(random access memory), EPROM(erasable programmable read only memory), 플래시 메모리, 하드 드라이브, 레지스터, 캐쉬 메모리, 컴퓨터 판독 저장 매체 및/또는 이들의 조합으로 구성될 수 있다. 하나 이상의 메모리(204a, 204b)는 하나 이상의 프로세서(202a, 202b)의 내부 및/또는 외부에 위치할 수 있다. 또한, 하나 이상의 메모리(204a, 204b)는 유선 또는 무선 연결과 같은 다양한 기술을 통해 하나 이상의 프로세서(202a, 202b)와 연결될 수 있다.One or more memories 204a and 204b may be connected to one or more processors 202a and 202b and may store various types of data, signals, messages, information, programs, codes, instructions and/or commands. One or more memories 204a, 204b may include read only memory (ROM), random access memory (RAM), erasable programmable read only memory (EPROM), flash memory, hard drives, registers, cache memory, computer readable storage media, and/or It may be composed of a combination of these. One or more memories 204a and 204b may be located internal to and/or external to one or more processors 202a and 202b. Additionally, one or more memories 204a and 204b may be connected to one or more processors 202a and 202b through various technologies, such as wired or wireless connections.
하나 이상의 송수신기(206a, 206b)는 하나 이상의 다른 장치에게 본 문서의 방법들 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 전송할 수 있다. 하나 이상의 송수신기(206a, 206b)는 하나 이상의 다른 장치로부터 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 수신할 수 있다. 예를 들어, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 프로세서(202a, 202b)와 연결될 수 있고, 무선 신호를 송수신할 수 있다. 예를 들어, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)가 하나 이상의 다른 장치에게 사용자 데이터, 제어 정보 또는 무선 신호를 전송하도록 제어할 수 있다. 또한, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)가 하나 이상의 다른 장치로부터 사용자 데이터, 제어 정보 또는 무선 신호를 수신하도록 제어할 수 있다. 또한, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 안테나(208a, 208b)와 연결될 수 있고, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 안테나(208a, 208b)를 통해 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 송수신하도록 설정될 수 있다. 본 문서에서, 하나 이상의 안테나는 복수의 물리 안테나이거나, 복수의 논리 안테나(예, 안테나 포트)일 수 있다. 하나 이상의 송수신기(206a, 206b)는 수신된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 하나 이상의 프로세서(202a, 202b)를 이용하여 처리하기 위해, 수신된 무선 신호/채널 등을 RF 밴드 신호에서 베이스밴드 신호로 변환(Convert)할 수 있다. 하나 이상의 송수신기(206a, 206b)는 하나 이상의 프로세서(202a, 202b)를 이용하여 처리된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 베이스밴드 신호에서 RF 밴드 신호로 변환할 수 있다. 이를 위하여, 하나 이상의 송수신기(206a, 206b)는 (아날로그) 오실레이터 및/또는 필터를 포함할 수 있다.One or more transceivers (206a, 206b) may transmit user data, control information, wireless signals/channels, etc. mentioned in the methods and/or operation flowcharts of this document to one or more other devices. One or more transceivers 206a, 206b may receive user data, control information, wireless signals/channels, etc. referred to in the descriptions, functions, procedures, suggestions, methods and/or operational flow charts, etc. disclosed herein from one or more other devices. there is. For example, one or more transceivers 206a and 206b may be connected to one or more processors 202a and 202b and may transmit and receive wireless signals. For example, one or more processors 202a and 202b may control one or more transceivers 206a and 206b to transmit user data, control information, or wireless signals to one or more other devices. Additionally, one or more processors 202a and 202b may control one or more transceivers 206a and 206b to receive user data, control information, or wireless signals from one or more other devices. In addition, one or more transceivers (206a, 206b) may be connected to one or more antennas (208a, 208b), and one or more transceivers (206a, 206b) may be connected to the description and functions disclosed in this document through one or more antennas (208a, 208b). , may be set to transmit and receive user data, control information, wireless signals/channels, etc. mentioned in procedures, proposals, methods and/or operation flow charts, etc. In this document, one or more antennas may be multiple physical antennas or multiple logical antennas (eg, antenna ports). One or more transceivers (206a, 206b) process the received user data, control information, wireless signals/channels, etc. using one or more processors (202a, 202b), and convert the received wireless signals/channels, etc. from the RF band signal. It can be converted to a baseband signal. One or more transceivers (206a, 206b) may convert user data, control information, wireless signals/channels, etc. processed using one or more processors (202a, 202b) from a baseband signal to an RF band signal. To this end, one or more transceivers 206a, 206b may include (analog) oscillators and/or filters.
본 개시에 적용 가능한 무선 기기 구조Wireless device structure applicable to this disclosure
도 3은 본 개시에 적용되는 무선 기기의 다른 예시를 도시한 도면이다.FIG. 3 is a diagram illustrating another example of a wireless device applied to the present disclosure.
도 3을 참조하면, 무선 기기(300)는 도 2의 무선 기기(200a, 200b)에 대응하며, 다양한 요소(element), 성분(component), 유닛/부(unit), 및/또는 모듈(module)로 구성될 수 있다. 예를 들어, 무선 기기(300)는 통신부(310), 제어부(320), 메모리부(330) 및 추가 요소(340)를 포함할 수 있다. 통신부는 통신 회로(312) 및 송수신기(들)(314)을 포함할 수 있다. 예를 들어, 통신 회로(312)는 도 2의 하나 이상의 프로세서(202a, 202b) 및/또는 하나 이상의 메모리(204a, 204b)를 포함할 수 있다. 예를 들어, 송수신기(들)(314)는 도 2의 하나 이상의 송수신기(206a, 206b) 및/또는 하나 이상의 안테나(208a, 208b)을 포함할 수 있다. 제어부(320)는 통신부(310), 메모리부(330) 및 추가 요소(340)와 전기적으로 연결되며 무선 기기의 제반 동작을 제어한다. 예를 들어, 제어부(320)는 메모리부(330)에 저장된 프로그램/코드/명령/정보에 기반하여 무선 기기의 전기적/기계적 동작을 제어할 수 있다. 또한, 제어부(320)는 메모리부(330)에 저장된 정보를 통신부(310)을 통해 외부(예, 다른 통신 기기)로 무선/유선 인터페이스를 통해 전송하거나, 통신부(310)를 통해 외부(예, 다른 통신 기기)로부터 무선/유선 인터페이스를 통해 수신된 정보를 메모리부(330)에 저장할 수 있다.Referring to FIG. 3, the wireless device 300 corresponds to the wireless devices 200a and 200b of FIG. 2 and includes various elements, components, units/units, and/or modules. ) can be composed of. For example, the wireless device 300 may include a communication unit 310, a control unit 320, a memory unit 330, and an additional element 340. The communication unit may include communication circuitry 312 and transceiver(s) 314. For example, communication circuitry 312 may include one or more processors 202a and 202b and/or one or more memories 204a and 204b of FIG. 2 . For example, transceiver(s) 314 may include one or more transceivers 206a, 206b and/or one or more antennas 208a, 208b of FIG. 2. The control unit 320 is electrically connected to the communication unit 310, the memory unit 330, and the additional element 340 and controls overall operations of the wireless device. For example, the control unit 320 may control the electrical/mechanical operation of the wireless device based on the program/code/command/information stored in the memory unit 330. In addition, the control unit 320 transmits the information stored in the memory unit 330 to the outside (e.g., another communication device) through the communication unit 310 through a wireless/wired interface, or to the outside (e.g., to another communication device) through the communication unit 310. Information received through a wireless/wired interface from another communication device can be stored in the memory unit 330.
추가 요소(340)는 무선 기기의 종류에 따라 다양하게 구성될 수 있다. 예를 들어, 추가 요소(340)는 파워 유닛/배터리, 입출력부(input/output unit), 구동부 및 컴퓨팅부 중 적어도 하나를 포함할 수 있다. 이로 제한되는 것은 아니지만, 무선 기기(300)는 로봇(도 1, 100a), 차량(도 1, 100b-1, 100b-2), XR 기기(도 1, 100c), 휴대 기기(도 1, 100d), 가전(도 1, 100e), IoT 기기(도 1, 100f), 디지털 방송용 단말, 홀로그램 장치, 공공 안전 장치, MTC 장치, 의료 장치, 핀테크 장치(또는 금융 장치), 보안 장치, 기후/환경 장치, AI 서버/기기(도 1, 140), 기지국(도 1, 120), 네트워크 노드 등의 형태로 구현될 수 있다. 무선 기기는 사용-예/서비스에 따라 이동 가능하거나 고정된 장소에서 사용될 수 있다.The additional element 340 may be configured in various ways depending on the type of wireless device. For example, the additional element 340 may include at least one of a power unit/battery, an input/output unit, a driving unit, and a computing unit. Although not limited thereto, the wireless device 300 includes robots (FIG. 1, 100a), vehicles (FIG. 1, 100b-1, 100b-2), XR devices (FIG. 1, 100c), and portable devices (FIG. 1, 100d). ), home appliances (Figure 1, 100e), IoT devices (Figure 1, 100f), digital broadcasting terminals, hologram devices, public safety devices, MTC devices, medical devices, fintech devices (or financial devices), security devices, climate/ It can be implemented in the form of an environmental device, AI server/device (FIG. 1, 140), base station (FIG. 1, 120), network node, etc. Wireless devices can be mobile or used in fixed locations depending on the usage/service.
도 3에서 무선 기기(300) 내의 다양한 요소, 성분, 유닛/부, 및/또는 모듈은 전체가 유선 인터페이스를 통해 상호 연결되거나, 적어도 일부가 통신부(310)를 통해 무선으로 연결될 수 있다. 예를 들어, 무선 기기(300) 내에서 제어부(320)와 통신부(310)는 유선으로 연결되며, 제어부(320)와 제1 유닛(예, 130, 140)은 통신부(310)를 통해 무선으로 연결될 수 있다. 또한, 무선 기기(300) 내의 각 요소, 성분, 유닛/부, 및/또는 모듈은 하나 이상의 요소를 더 포함할 수 있다. 예를 들어, 제어부(320)는 하나 이상의 프로세서 집합으로 구성될 수 있다. 예를 들어, 제어부(320)는 통신 제어 프로세서, 어플리케이션 프로세서(application processor), ECU(electronic control unit), 그래픽 처리 프로세서, 메모리 제어 프로세서 등의 집합으로 구성될 수 있다. 다른 예로, 메모리부(330)는 RAM, DRAM(dynamic RAM), ROM, 플래시 메모리(flash memory), 휘발성 메모리(volatile memory), 비-휘발성 메모리(non-volatile memory) 및/또는 이들의 조합으로 구성될 수 있다.In FIG. 3 , various elements, components, units/parts, and/or modules within the wireless device 300 may be entirely interconnected through a wired interface, or at least some of them may be wirelessly connected through the communication unit 310. For example, within the wireless device 300, the control unit 320 and the communication unit 310 are connected by wire, and the control unit 320 and the first unit (e.g., 130, 140) are connected wirelessly through the communication unit 310. can be connected Additionally, each element, component, unit/part, and/or module within the wireless device 300 may further include one or more elements. For example, the control unit 320 may be comprised of one or more processor sets. For example, the control unit 320 may be comprised of a communication control processor, an application processor, an electronic control unit (ECU), a graphics processing processor, a memory control processor, etc. As another example, the memory unit 330 may be comprised of RAM, dynamic RAM (DRAM), ROM, flash memory, volatile memory, non-volatile memory, and/or a combination thereof. It can be configured.
도 4는 본 개시에 적용되는 AI 기기의 예시를 도시한 도면이다. 일 예로, AI 기기는 TV, 프로젝터, 스마트폰, PC, 노트북, 디지털방송용 단말기, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), 라디오, 세탁기, 냉장고, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다.Figure 4 is a diagram showing an example of an AI device applied to the present disclosure. As an example, AI devices include fixed devices such as TVs, projectors, smartphones, PCs, laptops, digital broadcasting terminals, tablet PCs, wearable devices, set-top boxes (STBs), radios, washing machines, refrigerators, digital signage, robots, vehicles, etc. It can be implemented as a device or a movable device.
도 4를 참조하면, AI 기기(400)는 통신부(410), 제어부(420), 메모리부(430), 입/출력부(440a/440b), 러닝 프로세서부(440c) 및 센서부(440d)를 포함할 수 있다. Referring to FIG. 4, the AI device 400 includes a communication unit 410, a control unit 420, a memory unit 430, an input/output unit (440a/440b), a learning processor unit 440c, and a sensor unit 440d. may include.
통신부(410)는 유무선 통신 기술을 이용하여 다른 AI 기기(예, 도 1, 100x, 120, 140)나 AI 서버(도 1, 140) 등의 외부 기기들과 유무선 신호(예, 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등)를 송수신할 수 있다. 이를 위해, 통신부(410)는 메모리부(430) 내의 정보를 외부 기기로 전송하거나, 외부 기기로부터 수신된 신호를 메모리부(430)로 전달할 수 있다.The communication unit 410 uses wired and wireless communication technology to communicate with wired and wireless signals (e.g., sensor information, user Input, learning model, control signal, etc.) can be transmitted and received. To this end, the communication unit 410 may transmit information in the memory unit 430 to an external device or transmit a signal received from an external device to the memory unit 430.
제어부(420)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 기기(400)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 제어부(420)는 AI 기기(400)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다. 예를 들어, 제어부(420)는 러닝 프로세서부(440c) 또는 메모리부(430)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 기기(400)의 구성 요소들을 제어할 수 있다. 또한, 제어부(920)는 AI 장치(400)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리부(430) 또는 러닝 프로세서부(440c)에 저장하거나, AI 서버(도 1, 140) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.The control unit 420 may determine at least one executable operation of the AI device 400 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. And, the control unit 420 can control the components of the AI device 400 to perform the determined operation. For example, the control unit 420 may request, search, receive, or utilize data from the learning processor unit 440c or the memory unit 430, and may select at least one operation that is predicted or determined to be desirable among the executable operations. Components of the AI device 400 can be controlled to execute operations. In addition, the control unit 920 collects history information including the user's feedback on the operation content or operation of the AI device 400 and stores it in the memory unit 430 or the learning processor unit 440c, or the AI server ( It can be transmitted to an external device such as Figure 1, 140). The collected historical information can be used to update the learning model.
메모리부(430)는 AI 기기(400)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예를 들어, 메모리부(430)는 입력부(440a)로부터 얻은 데이터, 통신부(410)로부터 얻은 데이터, 러닝 프로세서부(440c)의 출력 데이터, 및 센싱부(440)로부터 얻은 데이터를 저장할 수 있다. 또한, 메모리부(430)는 제어부(420)의 동작/실행에 필요한 제어 정보 및/또는 소프트웨어 코드를 저장할 수 있다.The memory unit 430 can store data supporting various functions of the AI device 400. For example, the memory unit 430 may store data obtained from the input unit 440a, data obtained from the communication unit 410, output data from the learning processor unit 440c, and data obtained from the sensing unit 440. Additionally, the memory unit 430 may store control information and/or software codes necessary for operation/execution of the control unit 420.
입력부(440a)는 AI 기기(400)의 외부로부터 다양한 종류의 데이터를 획득할 수 있다. 예를 들어, 입력부(420)는 모델 학습을 위한 학습 데이터, 및 학습 모델이 적용될 입력 데이터 등을 획득할 수 있다. 입력부(440a)는 카메라, 마이크로폰 및/또는 사용자 입력부 등을 포함할 수 있다. 출력부(440b)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다. 출력부(440b)는 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센싱부(440)는 다양한 센서들을 이용하여 AI 기기(400)의 내부 정보, AI 기기(400)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 얻을 수 있다. 센싱부(440)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰 및/또는 레이더 등을 포함할 수 있다.The input unit 440a can obtain various types of data from outside the AI device 400. For example, the input unit 420 may obtain training data for model training and input data to which the learning model will be applied. The input unit 440a may include a camera, microphone, and/or a user input unit. The output unit 440b may generate output related to vision, hearing, or tactile sensation. The output unit 440b may include a display unit, a speaker, and/or a haptic module. The sensing unit 440 may obtain at least one of internal information of the AI device 400, surrounding environment information of the AI device 400, and user information using various sensors. The sensing unit 440 may include a proximity sensor, an illumination sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and/or a radar. there is.
러닝 프로세서부(440c)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 러닝 프로세서부(440c)는 AI 서버(도 1, 140)의 러닝 프로세서부와 함께 AI 프로세싱을 수행할 수 있다. 러닝 프로세서부(440c)는 통신부(410)를 통해 외부 기기로부터 수신된 정보, 및/또는 메모리부(430)에 저장된 정보를 처리할 수 있다. 또한, 러닝 프로세서부(440c)의 출력 값은 통신부(410)를 통해 외부 기기로 전송되거나/되고, 메모리부(430)에 저장될 수 있다.The learning processor unit 440c can train a model composed of an artificial neural network using training data. The learning processor unit 440c may perform AI processing together with the learning processor unit of the AI server (FIG. 1, 140). The learning processor unit 440c may process information received from an external device through the communication unit 410 and/or information stored in the memory unit 430. Additionally, the output value of the learning processor unit 440c may be transmitted to an external device through the communication unit 410 and/or stored in the memory unit 430.
6G 통신 시스템 6G communication system
6G (무선통신) 시스템은 (i) 디바이스 당 매우 높은 데이터 속도, (ii) 매우 많은 수의 연결된 디바이스들, (iii) 글로벌 연결성(global connectivity), (iv) 매우 낮은 지연, (v) 배터리-프리(battery-free) IoT 디바이스들의 에너지 소비를 낮추고, (vi) 초고신뢰성 연결, (vii) 머신 러닝 능력을 가지는 연결된 지능 등에 목적이 있다. 6G 시스템의 비젼은 "intelligent connectivity", "deep connectivity", "holographic connectivity", "ubiquitous connectivity"와 같은 4가지 측면일 수 있으며, 6G 시스템은 하기 표 1과 같은 요구 사항을 만족시킬 수 있다. 즉, 표 1은 6G 시스템의 요구 사항을 나타낸 표이다.6G (wireless communications) systems require (i) very high data rates per device, (ii) very large number of connected devices, (iii) global connectivity, (iv) very low latency, (v) battery- The goals are to reduce the energy consumption of battery-free IoT devices, (vi) ultra-reliable connectivity, and (vii) connected intelligence with machine learning capabilities. The vision of the 6G system can be four aspects such as “intelligent connectivity”, “deep connectivity”, “holographic connectivity”, and “ubiquitous connectivity”, and the 6G system can satisfy the requirements as shown in Table 1 below. In other words, Table 1 is a table showing the requirements of the 6G system.
Figure PCTKR2022016830-appb-img-000001
Figure PCTKR2022016830-appb-img-000001
이때, 6G 시스템은 향상된 모바일 브로드밴드(enhanced mobile broadband, eMBB), 초-저지연 통신(ultra-reliable low latency communications, URLLC), mMTC (massive machine type communications), AI 통합 통신(AI integrated communication), 촉각 인터넷(tactile internet), 높은 스루풋(high throughput), 높은 네트워크 능력(high network capacity), 높은 에너지 효율(high energy efficiency), 낮은 백홀 및 접근 네트워크 혼잡(low backhaul and access network congestion) 및 향상된 데이터 보안(enhanced data security)과 같은 핵심 요소(key factor)들을 가질 수 있다.At this time, the 6G system includes enhanced mobile broadband (eMBB), ultra-reliable low latency communications (URLLC), massive machine type communications (mMTC), AI integrated communication, and tactile communication. tactile internet, high throughput, high network capacity, high energy efficiency, low backhaul and access network congestion, and improved data security. It can have key factors such as enhanced data security.
- 인공 지능(artificial Intelligence, AI)- Artificial Intelligence (AI)
6G 시스템에 가장 중요하며, 새로 도입될 기술은 AI이다. 4G 시스템에는 AI가 관여하지 않았다. 5G 시스템은 부분 또는 매우 제한된 AI를 지원할 것이다. 그러나, 6G 시스템은 완전히 자동화를 위해 AI가 지원될 것이다. 머신 러닝의 발전은 6G에서 실시간 통신을 위해 보다 지능적인 네트워크를 만들 것이다. 통신에 AI를 도입하면 실시간 데이터 전송이 간소화되고 향상될 수 있다. AI는 수많은 분석을 사용하여 복잡한 대상 작업이 수행되는 방식을 결정할 수 있다. 즉, AI는 효율성을 높이고 처리 지연을 줄일 수 있다.The most important and newly introduced technology in the 6G system is AI. AI was not involved in the 4G system. 5G systems will support partial or very limited AI. However, 6G systems will be AI-enabled for full automation. Advances in machine learning will create more intelligent networks for real-time communications in 6G. Introducing AI in communications can simplify and improve real-time data transmission. AI can use numerous analytics to determine how complex target tasks are performed. In other words, AI can increase efficiency and reduce processing delays.
핸드 오버, 네트워크 선택, 자원 스케줄링과 같은 시간 소모적인 작업은 AI를 사용함으로써 즉시 수행될 수 있다. AI는 M2M, 기계-대-인간 및 인간-대-기계 통신에서도 중요한 역할을 할 수 있다. 또한, AI는 BCI(brain computer interface)에서 신속한 통신이 될 수 있다. AI 기반 통신 시스템은 메타 물질, 지능형 구조, 지능형 네트워크, 지능형 장치, 지능형 인지 라디오(radio), 자체 유지 무선 네트워크 및 머신 러닝에 의해 지원될 수 있다.Time-consuming tasks such as handover, network selection, and resource scheduling can be performed instantly by using AI. AI can also play an important role in M2M, machine-to-human and human-to-machine communications. Additionally, AI can enable rapid communication in BCI (brain computer interface). AI-based communication systems can be supported by metamaterials, intelligent structures, intelligent networks, intelligent devices, intelligent cognitive radios, self-sustaining wireless networks, and machine learning.
최근 AI를 무선 통신 시스템과 통합하려고 하는 시도들이 나타나고 있으나, 이는 어플리케이션 계층(application layer), 네트워크 계층(network layer) 특히, 딥 러닝은 무선 자원 관리 및 할당(wireless resource management and allocation) 분야에 집중되어 왔다. 그러나, 이러한 연구는 점점 MAC 계층 및 물리 계층으로 발전하고 있으며, 특히 물리계층에서 딥 러닝을 무선 전송(wireless transmission)과 결합하고자 하는 시도들이 나타나고 있다. AI 기반의 물리계층 전송은, 근본적인 신호 처리 및 통신 메커니즘에 있어서, 전통적인 통신 프레임워크가 아니라 AI 드라이버에 기초한 신호 처리 및 통신 메커니즘을 적용하는 것을 의미한다. 예를 들어, 딥러닝 기반의 채널 코딩 및 디코딩(channel coding and decoding), 딥러닝 기반의 신호 추정(estimation) 및 검출(detection), 딥러닝 기반의 MIMO(multiple input multiple output) 매커니즘(mechanism), AI 기반의 자원 스케줄링(scheduling) 및 할당(allocation) 등을 포함할 수 있다.Recently, attempts have been made to integrate AI with wireless communication systems, but these are focused on the application layer and network layer, and in particular, deep learning is focused on wireless resource management and allocation. come. However, this research is gradually advancing to the MAC layer and physical layer, and attempts are being made to combine deep learning with wireless transmission, especially in the physical layer. AI-based physical layer transmission means applying signal processing and communication mechanisms based on AI drivers, rather than traditional communication frameworks, in terms of fundamental signal processing and communication mechanisms. For example, deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO (multiple input multiple output) mechanism, It may include AI-based resource scheduling and allocation.
또한, 머신 러닝은 채널 추정 및 채널 트래킹을 위해 사용될 수 있으며, DL(downlink)의 물리 계층(physical layer)에서 전력 할당(power allocation), 간섭 제거(interference cancellation) 등에 사용될 수 있다. 또한, 머신 러닝은 MIMO 시스템에서 안테나 선택, 전력 제어(power control), 심볼 검출(symbol detection) 등에도 사용될 수 있다.Additionally, machine learning can be used for channel estimation and channel tracking, and can be used for power allocation, interference cancellation, etc. in the physical layer of the DL (downlink). Machine learning can also be used for antenna selection, power control, and symbol detection in MIMO systems.
그러나 물리계층에서의 전송을 위한 DNN의 적용은 아래와 같은 문제점이 있을 수 있다.However, application of DNN for transmission in the physical layer may have the following problems.
딥러닝 기반의 AI 알고리즘은 훈련 파라미터를 최적화하기 위해 수많은 훈련 데이터가 필요하다. 그러나 특정 채널 환경에서의 데이터를 훈련 데이터로 획득하는데 있어서의 한계로 인해, 오프라인 상에서 많은 훈련 데이터를 사용한다. 이는 특정 채널 환경에서 훈련 데이터에 대한 정적 훈련(static training)은, 무선 채널의 동적 특성 및 다이버시티(diversity) 사이에 모순(contradiction)이 생길 수 있다.Deep learning-based AI algorithms require a large amount of training data to optimize training parameters. However, due to limitations in acquiring data from a specific channel environment as training data, a lot of training data is used offline. This means that static training on training data in a specific channel environment may result in a contradiction between the dynamic characteristics and diversity of the wireless channel.
또한, 현재 딥 러닝은 주로 실제 신호(real signal)을 대상으로 한다. 그러나, 무선 통신의 물리 계층의 신호들은 복소 신호(complex signal)이다. 무선 통신 신호의 특성을 매칭시키기 위해 복소(complex) 도메인 신호의 검출하는 신경망(neural network)에 대한 연구가 더 필요하다.Additionally, current deep learning mainly targets real signals. However, signals of the physical layer of wireless communication are complex signals. In order to match the characteristics of wireless communication signals, more research is needed on neural networks that detect complex domain signals.
이하, 머신 러닝에 대해 보다 구체적으로 살펴본다.Below, we will look at machine learning in more detail.
머신 러닝은 사람이 할 수 있거나 혹은 하기 어려운 작업을 대신해낼 수 있는 기계를 만들어 내기 위해 기계를 학습시키는 일련의 동작을 의미한다. 머신 러닝을 위해서는 데이터와 러닝 모델이 필요하다. 머신 러닝에서 데이터의 학습 방법은 크게 3가지 즉, 지도 학습(supervised learning), 비지도 학습(unsupervised learning) 그리고 강화 학습(reinforcement learning)으로 구분될 수 있다.Machine learning refers to a series of operations that train machines to create machines that can perform tasks that are difficult or difficult for humans to perform. Machine learning requires data and a learning model. In machine learning, data learning methods can be broadly divided into three types: supervised learning, unsupervised learning, and reinforcement learning.
신경망 학습은 출력의 오류를 최소화하기 위한 것이다. 신경망 학습은 반복적으로 학습 데이터를 신경망에 입력시키고 학습 데이터에 대한 신경망의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 신경망의 에러를 신경망의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation) 하여 신경망의 각 노드의 가중치를 업데이트하는 과정이다.Neural network learning is intended to minimize errors in output. Neural network learning repeatedly inputs learning data into the neural network, calculates the output of the neural network and the error of the target for the learning data, and backpropagates the error of the neural network from the output layer of the neural network to the input layer to reduce the error. ) is the process of updating the weight of each node in the neural network.
지도 학습은 학습 데이터에 정답이 라벨링된 학습 데이터를 사용하며 비지도 학습은 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 지도 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링된 데이터 일 수 있다. 라벨링된 학습 데이터가 신경망에 입력되고 신경망의 출력(카테고리)과 학습 데이터의 라벨을 비교하여 오차(error)가 계산될 수 있다. 계산된 오차는 신경망에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 신경망의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 신경망의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 신경망의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 신경망의 학습 초기에는 높은 학습률을 사용하여 신경망이 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다Supervised learning uses training data in which the correct answer is labeled, while unsupervised learning may not have the correct answer labeled in the training data. That is, for example, in the case of supervised learning on data classification, the learning data may be data in which each training data is labeled with a category. Labeled learning data is input to a neural network, and error can be calculated by comparing the output (category) of the neural network with the label of the learning data. The calculated error is backpropagated in the reverse direction (i.e., from the output layer to the input layer) in the neural network, and the connection weight of each node in each layer of the neural network can be updated according to backpropagation. The amount of change in the connection weight of each updated node may be determined according to the learning rate. The neural network's calculation of input data and backpropagation of errors can constitute a learning cycle (epoch). The learning rate may be applied differently depending on the number of repetitions of the learning cycle of the neural network. For example, in the early stages of neural network training, a high learning rate can be used to ensure that the neural network quickly achieves a certain level of performance to increase efficiency, and in the later stages of training, a low learning rate can be used to increase accuracy.
데이터의 특징에 따라 학습 방법은 달라질 수 있다. 예를 들어, 통신 시스템 상에서 송신단에서 전송한 데이터를 수신단에서 정확하게 예측하는 것을 목적으로 하는 경우, 비지도 학습 또는 강화 학습 보다는 지도 학습을 이용하여 학습을 수행하는 것이 바람직하다.Learning methods may vary depending on the characteristics of the data. For example, in a communication system, when the goal is to accurately predict data transmitted from a transmitter at a receiver, it is preferable to perform learning using supervised learning rather than unsupervised learning or reinforcement learning.
러닝 모델은 인간의 뇌에 해당하는 것으로서, 가장 기본적인 선형 모델을 생각할 수 있으나, 인공 신경망(artificial neural networks)와 같은 복잡성이 높은 신경망 구조를 러닝 모델로 사용하는 머신 러닝의 패러다임을 딥러닝(deep learning)이라 한다.The learning model corresponds to the human brain, and can be considered the most basic linear model. However, deep learning is a machine learning paradigm that uses a highly complex neural network structure, such as artificial neural networks, as a learning model. ).
학습(learning) 방식으로 사용하는 신경망 코어(neural network cord)는 크게 심층 신경망(deep neural networks, DNN), 합성곱 신경망(convolutional deep neural networks, CNN), 순환 신경망(recurrent Boltzmann machine, RNN) 방식이 있으며, 이러한 러닝 모델이 적용될 수 있다.Neural network cores used as learning methods are broadly divided into deep neural networks (DNN), convolutional deep neural networks (CNN), and recurrent Boltzmann machine (RNN). And this learning model can be applied.
섀넌(Shannon)과 위버(Weaver)는 통신을 3단계로 나누어 설명한다. 1단계는 기술적인(technical) 측면에서 통신을 위한 심볼(symbol)들이 정확히 전송되는지의 문제이고, 2단계는 의미론적인(semantic) 측면에서 전송된 심볼들이 얼마나 정확하게 올바른 의미를 전달하는지의 문제이고, 3단계는 효과적인(effectiveness) 측면에서 수신된 의미가 올바른 방식으로 동작하는데 얼마나 효과적으로 영향을 미치는지의 문제이다. 도 5는 이와 같이 3단계로 구분된 통신 모델의 예를 도시한다.Shannon and Weaver explain communication by dividing it into three stages. Step 1 is a question of whether symbols for communication are accurately transmitted from a technical aspect, and step 2 is a question of how accurately the transmitted symbols convey the correct meaning from a semantic aspect. The third level is effectiveness, a question of how effectively the received meaning influences operation in the right way. Figure 5 shows an example of a communication model divided into three stages.
6G 통신의 다양한 목표 중 하나는 인간과 기계를 상호 연결할 수 있는 서비스를 제공하는 것이다. 이를 위한 차세대 무선 통신 패러다임 중 하나로서, "의미 전달" 개념을 기반으로 하는 시멘틱 통신(semantic communication)이 대두되었다. 기존 통신은, 수신단(receiver)(예: 목적지(destination))이 송신단(transmitter)(예: 소스(source))으로부터 수신한 인코딩(encoding)된 신호를 에러(error) 없이 기존 신호로 디코딩(decoding)함으로써 통신하는 것에 중점을 둔다. 반면, 시멘틱 통신은 사람들이 의사소통 시 단어의 ‘의미(meaning)’를 통해 정보를 교환하는 것과 같이, 신호를 통해 전달하려는 의미에 중점을 둔다.One of the many goals of 6G communications is to provide services that can interconnect humans and machines. As one of the next-generation wireless communication paradigms for this purpose, semantic communication based on the concept of "transferring meaning" has emerged. In existing communication, the receiver (e.g. destination) decodes the encoded signal received from the transmitter (e.g. source) into an existing signal without error. ) focuses on communicating by doing. On the other hand, semantic communication focuses on the meaning that is intended to be conveyed through signals, such as when people exchange information through the ‘meaning’ of words when communicating.
시멘틱 통신의 핵심은 송신단에서 전송된 정보의 "의미"를 추출하는 것이다. 의미론적 정보는 소스와 목적지 간의 일치된 지식 기반(knowledge base, KB)에 기초하여 수신단에서 성공적으로 "해석"될 수 있다. 이에, 신호에 에러가 존재하더라도 신호를 통해 전달하려는 의미대로 동작이 이루어지면, 올바른 통신이 수행된 것이다. 따라서, 시멘틱 통신에서는 소스에서 송신한 신호(예: 표현(representation))에 담긴 의도대로 목적지에 위치한 다운스트림 테스크(downstream task)가 수행되는지에 대한 접근이 필요하다. 또한, 목적지는, 소스로부터 전달된 신호를 이용하여 추론(inference) 동작을 수행할 때, 보유한 배경지식(background knowledge)에 기초하여 소스가 전달한 의미(예: 다운스트림 테스크의 목적)를 해석한다. 이에, 목적지가, 소스로부터 전달된 신호를 이용하여 추론(reasoning)을 통해 얻은 결과를 바탕으로 소스가 전달한 의미대로 동작을 수행하기 위해서는, 소스에서 송신되는 신호에 포함된 배경지식이 목적지의 배경지식에 반영(update)될 수 있어야 한다. 이를 위해서는, 송신되는 신호는 목적지에 위치한 다운스트림 테스크를 고려하여 생성되어야 한다. 이러한, 테스크 지향적 시멘틱 통신 시스템(task-oriented semantic communication system)은 다운스트림 테스크에 유용한 인버라이언스(invariance)를 도입하면서, 테스크 관련(task relevant) 정보를 보존하는 장점을 제공할 수 있다.The core of semantic communication is to extract the “meaning” of the information transmitted at the transmitting end. Semantic information can be successfully “interpreted” at the receiving end based on a consistent knowledge base (KB) between the source and destination. Accordingly, even if there is an error in the signal, if the operation is performed according to the meaning intended to be conveyed through the signal, correct communication has been performed. Therefore, in semantic communication, it is necessary to access whether the downstream task located at the destination is performed as intended in the signal (e.g., representation) transmitted from the source. Additionally, when the destination performs an inference operation using a signal transmitted from the source, it interprets the meaning (e.g., the purpose of the downstream task) transmitted by the source based on the background knowledge it possesses. Accordingly, in order for the destination to perform an operation according to the meaning conveyed by the source based on the results obtained through reasoning using the signal transmitted from the source, the background knowledge contained in the signal transmitted from the source is the background knowledge of the destination. It must be able to be reflected (updated) in . To achieve this, the transmitted signal must be generated considering the downstream task located at the destination. Such a task-oriented semantic communication system can provide the advantage of preserving task relevant information while introducing useful invariance to downstream tasks.
도 6은 본 개시의 일 실시 예에 따른 시멘틱 통신 시스템의 예를 도시한다.Figure 6 shows an example of a semantic communication system according to an embodiment of the present disclosure.
도 6을 참고하면, 송신단(610) 및 수신단(620)의 시멘틱 통신을 위한 동작을 확인할 수 있다. 월드 모델(World model)
Figure PCTKR2022016830-appb-img-000002
의 섀넌 엔트로피(Shannon entropy)
Figure PCTKR2022016830-appb-img-000003
는 하기 수학식 1과 같이 표현될 수 있다. 섀넌 엔트로피는 시멘틱 소스(semantic source)의 모델 엔트로피일 수 있다.
Referring to FIG. 6, the operation of the transmitting end 610 and the receiving end 620 for semantic communication can be confirmed. World model
Figure PCTKR2022016830-appb-img-000002
Shannon entropy of
Figure PCTKR2022016830-appb-img-000003
Can be expressed as Equation 1 below. Shannon entropy may be the model entropy of a semantic source.
[수학식 1][Equation 1]
Figure PCTKR2022016830-appb-img-000004
Figure PCTKR2022016830-appb-img-000004
월드모델
Figure PCTKR2022016830-appb-img-000005
은 확률 분포(probability distribution)
Figure PCTKR2022016830-appb-img-000006
인 해석들의 집합(set of interpretation)이고,
Figure PCTKR2022016830-appb-img-000007
은 모델 분포(model distribution)이다. 이때,
Figure PCTKR2022016830-appb-img-000008
가 x가 참(true)인 해당 모델
Figure PCTKR2022016830-appb-img-000009
의 집합(set of its models)이면, 메시지x의 논리적 확률(logical probability) m(x)는 하기 수학식 2와 같이 표현될 수 있다.
world model
Figure PCTKR2022016830-appb-img-000005
is a probability distribution
Figure PCTKR2022016830-appb-img-000006
It is a set of interpretations,
Figure PCTKR2022016830-appb-img-000007
is the model distribution. At this time,
Figure PCTKR2022016830-appb-img-000008
The model for which x is true
Figure PCTKR2022016830-appb-img-000009
If it is a set of its models, the logical probability m(x) of message x can be expressed as Equation 2 below.
[수학식 2][Equation 2]
Figure PCTKR2022016830-appb-img-000010
Figure PCTKR2022016830-appb-img-000010
메시지 x의 시멘틱 엔트로피(semantic entropy)
Figure PCTKR2022016830-appb-img-000011
는 하기 수학식 3과 같이 표현될 수 있다.
Semantic entropy of message x
Figure PCTKR2022016830-appb-img-000011
Can be expressed as Equation 3 below.
[수학식 3][Equation 3]
Figure PCTKR2022016830-appb-img-000012
Figure PCTKR2022016830-appb-img-000012
이 때, 배경 지식 k가 고려되는 경우, 수학식 2 및 수학식 3의 가능한 월드의 집합(set of possible worlds)은 k와 호환되는 집합(set)으로 제한될 수 있다. 따라서, 하기 수학식 4 및 5와 같은 조건부 논리 확률(conditional logical probability)로 표현될 수 있다.At this time, when background knowledge k is considered, the set of possible worlds in Equation 2 and Equation 3 may be limited to a set compatible with k. Therefore, it can be expressed as a conditional logical probability as shown in Equations 4 and 5 below.
[수학식 4][Equation 4]
Figure PCTKR2022016830-appb-img-000013
Figure PCTKR2022016830-appb-img-000013
[수학식 5][Equation 5]
Figure PCTKR2022016830-appb-img-000014
Figure PCTKR2022016830-appb-img-000014
일 예로, 하기 표 2는,p가 통계 확률(statistical probabilities)이고, 배경 지식이 k인 진리표(truth table)를 예시한다. 구체적으로, 표 2는 p(A)=p(B)=0.5 및 K={A->B}인 진리표의 예시이다.As an example, Table 2 below illustrates a truth table where p is statistical probabilities and background knowledge is k. Specifically, Table 2 is an example of a truth table where p(A)=p(B)=0.5 and K={A->B}.
Figure PCTKR2022016830-appb-img-000015
Figure PCTKR2022016830-appb-img-000015
표 2에 따르면, 가능한 월드(possible worlds)는 A->B가 참인 일련의 진리할당(truth assignment)(예: 표 1의 1, 2, 4번의 경우) 값으로 축소될 수 있다. 따라서, 하기 수학식 6, 7, 8과 같은 조건부 논리 확률 값(conditional logical probabilities)을 얻을 수 있다.According to Table 2, possible worlds can be reduced to a set of truth assignment values ( e.g. cases 1, 2, and 4 in Table 1) where A->B is true. Therefore, conditional logical probabilities such as Equations 6, 7, and 8 below can be obtained.
[수학식 6][Equation 6]
Figure PCTKR2022016830-appb-img-000016
Figure PCTKR2022016830-appb-img-000016
[수학식 7][Equation 7]
Figure PCTKR2022016830-appb-img-000017
Figure PCTKR2022016830-appb-img-000017
[수학식 8][Equation 8]
Figure PCTKR2022016830-appb-img-000018
Figure PCTKR2022016830-appb-img-000018
논리 확률(Logical probabilities)은 배경 지식에 기초하므로, 선험적 통계 확률(priori statistical probabilities)과 상이하며, 새로운 분포에서 A와 B는 더 이상 논리적으로 독립(logically independent)하지 않다(
Figure PCTKR2022016830-appb-img-000019
).
Logical probabilities are different from a priori statistical probabilities because they are based on background knowledge, and in the new distribution, A and B are no longer logically independent (
Figure PCTKR2022016830-appb-img-000019
).
한편, 배경 지식 k가 존재하는 경우의 모델 집합의 새로운 분포인
Figure PCTKR2022016830-appb-img-000020
는 하기 수학식 9와 10과 같이 표현될 수 있다.
Meanwhile, the new distribution of the model set when background knowledge k exists is
Figure PCTKR2022016830-appb-img-000020
Can be expressed as equations 9 and 10 below.
[수학식 9][Equation 9]
Figure PCTKR2022016830-appb-img-000021
Figure PCTKR2022016830-appb-img-000021
[수학식 10][Equation 10]
Figure PCTKR2022016830-appb-img-000022
Figure PCTKR2022016830-appb-img-000022
하기 수학식 11은 배경 지식을 고려하지 않은 소스의 엔트로피를 나타내며, 하기 수학식 12는 배경 지식을 고려한 소스의 모델 엔트로피를 나타낸다. Equation 11 below represents the entropy of the source without considering background knowledge, and Equation 12 below represents the model entropy of the source considering background knowledge.
[수학식 11][Equation 11]
Figure PCTKR2022016830-appb-img-000023
Figure PCTKR2022016830-appb-img-000023
[수학식 12][Equation 12]
Figure PCTKR2022016830-appb-img-000024
Figure PCTKR2022016830-appb-img-000024
수학식 11 및 수학식 12에서와 같이, 소스는 공유된 배경지식을 통해 정보를 누락하지 않고 전달하고자 하는 메시지 압축할 수 있다. 즉, 소스 및 목적지는 공유된 배경지식을 통해 적은 데이터 용량으로 최대한의 정보를 송수신할 수 있다. 시멘틱 레벨에서의 통신이 기존의 기술적인 레벨과 비교하여 성능이 향상될 수 있는 주요 이유들 중 하나는 배경지식이 고려되기 때문이다. 따라서, 본 개시는 시멘틱 통신 수행을 위해, 목적지에 위치한 다운스트림 테스크에 적합하도록 배경지식을 고려하여 신호를 생성 및 송수신하는 방법을 제안한다.As in Equation 11 and Equation 12, the source can compress the message it wants to convey without omitting information through shared background knowledge. In other words, the source and destination can transmit and receive maximum information with a small data volume through shared background knowledge. One of the main reasons why communication at the semantic level can improve performance compared to the existing technical level is because background knowledge is taken into account. Therefore, the present disclosure proposes a method for generating and transmitting and receiving signals in consideration of background knowledge to be suitable for downstream tasks located at the destination in order to perform semantic communication.
본 개시의 일 실시 예에 따라, 시멘틱 데이터 및 메시지에 대한 전반적인 동작을 관리하는 새로운 계층인 시멘틱 계층(semantic layer)이 추가될 수 있다. 시멘틱 계층은 테스크 지향적 시멘틱 통신 시스템을 위한 계층으로서, 소스 및 목적지 간의 신호 생성 및 송수신을 위해 사용될 수 있다. 시멘틱 계층을 통해 통신을 수행하기 위해서는 계층 간의 규약인 프로토콜 및 일련의 동작 과정에 대한 정의가 필요할 수 있으며, 이에 대해서는 하기에서 서술한다.According to an embodiment of the present disclosure, a semantic layer, a new layer that manages overall operations on semantic data and messages, may be added. The semantic layer is a layer for a task-oriented semantic communication system and can be used to generate and transmit and receive signals between the source and destination. In order to communicate through the semantic layer, it may be necessary to define a protocol, which is a protocol between layers, and a series of operation processes, which are described below.
한편, 실제 통신 환경에서 소스가 보유하거나 수집하는 로우 데이터(raw data)는 라벨링(labeling)되지 않은 데이터(unlabeled data)(이하 ‘언레이블드 데이터’)가 대다수를 차지한다. 이때, 언레이블드 데이터에 대해 라벨링을 수행하면 추가적인 비용이 소모될 수 있다. 따라서, 언레이블드 데이터 자체를 이용하여 통신을 수행할 수 있는 기술로서 AI(artificial intelligence)/ML(machine learning) 기술인 콘트라스티브 러닝(contrastive learning)이 사용될 수 있다. 하기에서는 시멘틱 시스템에 적용될 수 있는 기술인 콘트라스트 러닝에 대해 서술한다. 일 예로, 콘트라스트 러닝은 시멘틱 통신을 수행하기 위한 시멘틱 계층에 도입될 수 있다.Meanwhile, the majority of raw data held or collected by sources in an actual communication environment is unlabeled data (hereinafter referred to as ‘unlabeled data’). At this time, performing labeling on unlabeled data may incur additional costs. Therefore, contrastive learning, an artificial intelligence (AI)/machine learning (ML) technology, can be used as a technology that can perform communication using the unlabeled data itself. In the following, contrast learning, a technology that can be applied to semantic systems, is described. As an example, contrast learning can be introduced into the semantic layer to perform semantic communication.
콘트라스티브 러닝은 표현 공간(representation space)을 통해 데이터들의 상관관계를 학습하는 방법이다. 구체적으로, 콘트라스티브 러닝을 통해 고차원 데이터는 저차원 데이터로 변경(예: 차원 축소(dimension reduction))되어 표현 공간에 위치할 수 있다. 이후, 표현 공간에 위치한 데이터들 각각의 위치 정보에 기초하여 데이터들 간의 유사도가 측정될 수 있다. 일 예로, 시멘틱 통신 시스템은 콘트라스티브 러닝을 통해 포지티브 페어(positive pair)의 표현들은 서로 가까이 위치하도록 학습하고, 네거티브 페어(negative pair)의 표현들은 서로 멀리 위치하도록 학습할 수 있다. 포지티브 페어는 유사한 데이터들의 쌍이고, 네거티브 페어는 비유사한 데이터들의 쌍이다. 콘트라스티브 러닝은 지도학습(supervised-learning) 및 비지도학습(unsupervised-learning) 모두에 적용될 수 있지만, 특히 라벨링 데이터가 없는 비지도적 데이터를 이용하여 학습을 수행하는 경우 유용하게 쓰일 수 있다. 따라서, 콘트라스티브 러닝은 언레이블드 데이터가 대다수를 차지하는 실제 환경에서 테스크 지향적 시멘틱 통신 시스템을 구축하기 위해 적합하다.Contrast learning is a method of learning correlations between data through representation space. Specifically, through contrast learning, high-dimensional data can be changed to low-dimensional data (e.g., dimension reduction) and placed in the expression space. Afterwards, the similarity between data can be measured based on the location information of each data located in the expression space. For example, through contrast learning, a semantic communication system can learn positive pair expressions to be located close to each other, and negative pair expressions to be located far away from each other. A positive pair is a pair of similar data, and a negative pair is a pair of dissimilar data. Contrast learning can be applied to both supervised-learning and unsupervised-learning, but it can be especially useful when learning is performed using unsupervised data without labeled data. Therefore, contrastive learning is suitable for building a task-oriented semantic communication system in a real environment where unlabeled data accounts for the majority.
도 7은 본 개시의 일 실시예에 따른 콘트라스티브 러닝의 예를 도시한다.Figure 7 shows an example of contrastive learning according to an embodiment of the present disclosure.
일 예로, 도 7에서는 기린 이미지를 기준으로 콘트라스티브 러닝이 수행되는 경우를 도시한다. 다만, 설명의 편의를 위한 하나의 일 예일 뿐, 상술한 실시예로 한정되는 것은 아닐 수 있다. 도 7을 참고하면, 목표 테스크(target task)가 분류 작업(classification task)이고 데이터 모달리티(data modality)가 이미지인 경우에 수행되는 콘트라스티브 러닝 동작을 확인할 수 있다. 이미지 데이터들의 분류 작업을 수행하기 위해 기준이 되는 쿼리는 기린 이미지이다. 기린 이미지들의 표현들은 쿼리의 표현과 가까이 위치하도록 학습될 수 있고, 기린 이미지가 아닌 이미지에 대한 표현들은 쿼리의 표현과 멀리 위치하도록 학습될 수 있다. 즉, 콘트라스티브 러닝 기법은 기준이 되는 데이터와 유사한 데이터는 가까운 곳에 매핑(mapping)되고, 기준이 되는 데이터와 유사하지 않은 데이터는 멀리 떨어진 곳에 매핑되도록 인코더(encoder)를 학습시키는 것이다.As an example, Figure 7 shows a case where contrast learning is performed based on a giraffe image. However, this is only an example for convenience of explanation and may not be limited to the above-described embodiment. Referring to FIG. 7, you can see the contrast learning operation performed when the target task is a classification task and the data modality is an image. The standard query for classifying image data is the giraffe image. Representations of giraffe images can be learned to be located close to the query's representation, and representations for images other than giraffe images can be learned to be located far from the query's representation. In other words, the contrastive learning technique trains the encoder so that data that is similar to the reference data is mapped nearby, and data that is not similar to the reference data is mapped far away.
도 8은 본 개시의 일 실시예에 따른 콘트라스티브 러닝을 위한 인스턴스 식별(800)의 예를 도시한다. 콘트라스티브 러닝을 수행하는 모델은 인스턴스 식별(800)(instance discrimination)을 통해 데이터들을 학습할 수 있다.Figure 8 shows an example of instance identification 800 for contrastive learning according to an embodiment of the present disclosure. A model that performs contrastive learning can learn data through instance discrimination (800).
인스턴스는 트레이닝(training)되는 데이터 샘플들 각각을 의미한다. 일 예로, 인스턴스는 특정 크기의 이미지 데이터의 샘플일 수 있고, 문장 단위의 텍스트 데이터 샘플일 수 있다. 인스턴스 식별은 전체 데이터 셋(set)에 포함된 모든 인스턴스들을 각각의 클래스(class)로 결정하여 데이터에 대한 식별(classification)을 수행하는 것이다. 따라서, 인스턴스가 N개이면, N번의 식별 작업이 수행될 수 있다. 인스턴스 식별은 인스턴스 간의 유사도(similarity)에 기초하여 인스턴스 간의 차이를 학습시키므로, 라벨링 정보가 없는 데이터들에 대해 유용한 표현을 획득할 수 있는 장점을 제공한다. 인스턴스 식별을 통해 학습한 표현을 이용하여 다운스트림 테스크가 수행되면 모델의 성능은 지도적 학습 방법을 수행한 것과 같이 향상될 수 있다.An instance refers to each of the data samples being trained. As an example, an instance may be a sample of image data of a specific size or a sample of text data in sentence units. Instance identification involves classifying data by determining each class of all instances included in the entire data set. Therefore, if there are N instances, N identification operations can be performed. Instance identification learns the differences between instances based on the similarity between them, providing the advantage of obtaining useful expressions for data without labeling information. If downstream tasks are performed using the expression learned through instance identification, the model's performance can be improved as if a supervised learning method was performed.
한편, 인스턴스 식별은 데이터 샘플들의 수가 증가하면, 식별 작업량이 크게 증가한다. 일 예로, 데이터 샘플들이 천만개인 경우, 천만번의 식별 작업이 수행될 수 있다. 따라서, 데이터 샘플의 수가 증가할수록 확률 계산을 위한 소프트맥스(softmax) 계산을 위한 분모가 커지고, 확률 값이 작아지므로 학습이 어려워질 수 있다. 이러한 문제를 해결하기 위해, 적절한 근사치(approximation) 계산 방식으로서 노이즈 콘트라스티브 추정(noise-constrative extimation, NCE)이 사용될 수 있다. 멀티 클래스 분류(multi-class classification) 동작은 NCE를 통해 데이터 샘플(data sample)인지 또는 노이즈 샘플(noise sample)인지 판단하는 바이너리 분류(binary classification) 동작으로 변경될 수 있다.Meanwhile, for instance identification, as the number of data samples increases, the amount of identification work increases significantly. For example, if there are 10 million data samples, 10 million identification operations may be performed. Therefore, as the number of data samples increases, the denominator for softmax calculation for probability calculation increases and the probability value decreases, making learning difficult. To solve this problem, noise-constrative estimation (NCE) can be used as an appropriate approximation calculation method. The multi-class classification operation can be changed to a binary classification operation that determines whether it is a data sample or a noise sample through NCE.
NCE가 수행되기 위해서는 기준 샘플에 대해, 임의의 샘플이 유사한 샘플(positive sample)(이하 '포지티브 샘플') 또는 비유사한 샘플(negative sample)(이하 '네거티브 샘플)인지를 결정하기 위한 비교 방법을 정의하는 것이 필요하다. 포지티브 샘플을 생성하는 방법 중 하나는 데이터 어그멘테이션(data augmentation)(이하 '어그멘테이션')이다. 어그멘테이션은 기존의 데이터를 변형하여 새로운 데이터를 생성하는 것이다. 의미론적인 관점에서, 어그멘테이션된 데이터(이하 '어그멘테이션 데이터')는 기존 데이터가 전달하려는 의미와 동일한 의미를 포함한다. 즉, 기존 데이터 및 어그멘테이션 데이터에 포함된 정보는 동일하다. 따라서, 기존 데이터와 어그멘테이션 데이터 각각의 표현들은 유사해야 한다. 따라서, 기존 이미지와 어그멘테이션 데이터는 포지티브 샘플들로 정의될 수 있고, 포지티브 샘플이 아닌 것들은 모두 네거티브 샘플로 정의될 수 있다.In order for NCE to be performed, a comparison method is defined for a reference sample to determine whether any sample is a similar sample (positive sample) (hereinafter referred to as 'positive sample') or a dissimilar sample (negative sample) (hereinafter referred to as 'negative sample'). It is necessary to do One method for generating positive samples is data augmentation (hereinafter referred to as 'augmentation'). Augmentation is creating new data by modifying existing data. From a semantic perspective, augmented data (hereinafter referred to as 'augmentation data') contains the same meaning as the meaning that the existing data is intended to convey. In other words, the information included in the existing data and augmentation data is the same. Therefore, the representations of existing data and augmentation data should be similar. Therefore, existing images and augmentation data can be defined as positive samples, and all non-positive samples can be defined as negative samples.
도 9는 본 개시의 일 실시예에 따른 어그멘테이션 데이터의 예를 도시한다.Figure 9 shows an example of augmentation data according to an embodiment of the present disclosure.
도 9를 참고하면, 개 이미지에 대해 어그멘테이션을 수행한 결과를 확인할 수 있다. 일 예로, 이미지 데이터의 일부분을 자르는 방법(crop), 사이즈를 조정하는 방법, 플립(flip)시키는 방법, 색을 변형하는 방법, 회전(rotate)시키는 방법 등을 통해 데이터가 어그멘테이션될 수 있다.Referring to Figure 9, you can see the results of performing augmentation on the dog image. For example, data can be augmented by cropping, resizing, flipping, changing color, or rotating a portion of the image data. .
콘트라스티브 러닝을 위해 하기 수학식 13의 NCE 로스 펑션이 사용될 수 있다. For contrastive learning, the NCE loss function of Equation 13 below can be used.
[수학식 13][Equation 13]
Figure PCTKR2022016830-appb-img-000025
Figure PCTKR2022016830-appb-img-000025
수학식 13에서 x는 기준이 되는 데이터(query data),
Figure PCTKR2022016830-appb-img-000026
는 데이터와 관련 있는 데이터 또는 x와 유사한 데이터,
Figure PCTKR2022016830-appb-img-000027
는 기준 데이터와 관련이 없는 데이터 혹은 x와 유사하지 않은 데이터이다.
In Equation 13, x is the reference data (query data),
Figure PCTKR2022016830-appb-img-000026
is data related to data or data similar to x,
Figure PCTKR2022016830-appb-img-000027
is data that is unrelated to the reference data or data that is not similar to x.
상기 서술한 바와 같이, 콘트라스티브 러닝 기법은 언레이블드 데이터 자체로부터 유용한 표현을 학습할 수 있는 장점을 제공한다. 따라서, 콘트라스티브 러닝 기법은 시멘틱 소스 코딩(semantic source coding)을 수행하는 인코더의 AI/ML 기술로서 시멘틱 통신에 접목될 수 있다. 추가적으로, 데이터들로부터 임베딩 공간(embedding space)에 기초한 표현이 생성될 수 있도록, 소스 및 목적지가 보유하고 있는 배경지식(background knowledge)이 적절히 활용되어야 한다. 또한, 모델이 학습하는 포지티브 샘플들 및 네거티브 샘플들에 대한 정보가 소스의 배경지식 및 목적지의 배경지식에 업데이트될 필요가 있다. 한편, 콘트라스티브 러닝은 하기와 같은 문제점이 존재할 수 있다.As described above, contrastive learning techniques provide the advantage of learning useful representations from the unlabeled data itself. Therefore, the contrastive learning technique can be applied to semantic communication as an AI/ML technology of an encoder that performs semantic source coding. Additionally, background knowledge possessed by the source and destination must be appropriately utilized so that a representation based on the embedding space can be created from the data. Additionally, information about the positive samples and negative samples from which the model learns needs to be updated in the background knowledge of the source and the background knowledge of the destination. On the other hand, contrastive learning may have the following problems.
도 10을 참고하면, 타겟 테스크(target task)가 개 이미지를 기준으로 수행되는 분류 테스크(classification task)이고 인풋의 데이터 모달리티가 이미지일 때 콘트라스티브 러닝이 수행될 경우, 발생할 수 있는 클래스 충돌(class collision) 문제를 확인할 수 있다. 콘트라스티브 러닝이 수행된 후 분류 작업이 성공적으로 수행될 경우, 개 이미지들의 표현들(1012, 1022, 1032)은 서로 가까이에 위치하고, 개 이외의 대상에 대한 이미지들의 표현들(1042, 1044, 1052)은 개 이미지들의 표현들(1012, 1022, 1032)로부터 멀리 위치해야 한다. 그러나, 도 10을 살펴보면, 앵커(anchor) 이미지(1010)에 대해 어그멘테이션이 수행되어 생성된 포지티브 샘플(1020)의 표현(1022)은 앵커 이미지의 표현(1012)과 가까이에 위치한 반면에, 앵커 이미지(1010)와 동일하지는 않지만 개 이미지인 다른 샘플(1030)의 표현(1032)이 앵커의 표현(1012)과 멀리 위치한 것을 확인할 수 있다. 즉, 개 이미지인 다른 샘플(1030)은 앵커 이미지(1010)와 같은 레이블로 분류되어야 함에도, 개 이미지인 다른 샘플(1030)이 네거티브 샘플로 분류되어 개 이미지의 표현들과 멀리 위치하게 된 것이다. 이에 따라, 학습 시 콘트라스티브 러닝이 활용될 경우 목적지에 위치한 다운스트림 테스크 동작에 따른 아웃풋이, 소스가 의도한 결과와 달라지는 문제점이 발생할 수 있다. 또한, 콘트라스티브 러닝은 다운스트림 테스크 동작을 통해 획득하려는 정답인 레이블 정보가 존재하는 데이터일지라도, 해당 레이블을 무시하고 데이터를 학습하여 잘못된 학습을 수행하는 문제점이 존재할 수 있다. 따라서, 학습의 정확도를 위해서 데이터의 레이블이 존재하는 경우, 이를 고려하여 콘트라스티브 러닝을 수행할 필요성이 있다.Referring to Figure 10, when the target task is a classification task performed based on a dog image and the data modality of the input is an image, class conflicts that may occur when contrast learning is performed collision) problem can be confirmed. If the classification task is successfully performed after contrast learning is performed, the representations of dog images (1012, 1022, 1032) are located close to each other, and the representations of images for objects other than dogs (1042, 1044, 1052) ) should be located far from the representations 1012, 1022, 1032 of dog images. However, looking at FIG. 10, while the representation 1022 of the positive sample 1020 generated by performing augmentation on the anchor image 1010 is located close to the representation 1012 of the anchor image, It can be seen that the representation 1032 of another sample 1030, which is not the same as the anchor image 1010 but is a dog image, is located far from the anchor image 1012. That is, although the other sample 1030, which is a dog image, should be classified with the same label as the anchor image 1010, the other sample 1030, which is a dog image, is classified as a negative sample and is located far from the expressions of the dog image. Accordingly, when contrastive learning is used during learning, a problem may arise where the output resulting from the downstream task operation located at the destination is different from the result intended by the source. In addition, contrastive learning may have the problem of performing incorrect learning by ignoring the label and learning the data, even if the data contains label information, which is the correct answer to be obtained through downstream task operations. Therefore, for the accuracy of learning, if there is a label in the data, there is a need to perform contrastive learning by taking this into consideration.
이에, 본 개시는 위클리-슈퍼바이즈드 콘트라스티브 러닝(weakly-supervised contrastive learning)을 활용한 시멘틱 통신 시스템의 프레임 워크 및 관련 절차를 제안한다. 이를 통해, 콘트라스티브 러닝 수행 시 발생할 수 있는 문제점을 보완할 수 있고, 소스는 획득한 데이터를 이용하여 표현들을 학습하여 목적지에게 전달하고, 목적지는 수신한 표현들을 복원하지 않고 소스가 의도한 대로 다운스트림 테스크를 수행할 수 있다.Accordingly, this disclosure proposes a framework and related procedures for a semantic communication system utilizing weakly-supervised contrastive learning. Through this, problems that may occur when performing contrast learning can be corrected. The source learns expressions using the acquired data and delivers them to the destination, and the destination downloads the received expressions as intended by the source without restoring them. Stream tasks can be performed.
또한, 본 개시에 따르면, 데이터에 보조 정보(auxiliary information)(예: 데이터 어트리뷰트(data attribute), 인스타그램의 이미지에 대한 해시태그(hashtag), 개인의 신원 및 국적과 같은 메타 데이터(metadata), 이미지에 대한 텍스트 설명 등)가 존재하는 경우, 보조 정보를 활용하여 콘트라스티브 러닝을 수행함으로써 소스의 표현 학습 성능 및 목적지에 위치한 다운스트림 테스크의 동작 성능이 향상될 수 있다.Additionally, according to the present disclosure, the data may include auxiliary information (e.g., data attributes, hashtags for images on Instagram, and metadata such as the individual's identity and nationality). , text description of an image, etc.), the expression learning performance of the source and the operation performance of the downstream task located at the destination can be improved by performing contrastive learning using auxiliary information.
또한, 소스의 표현 학습 성능이 향상되어 생성된 시멘틱 표현(semantic representation)이 소스의 배경지식 및 목적지의 배경지식에 업데이트 됨으로써, 배경지식을 활용한 추론(reasoning) 성능 또한 향상될 수 있다.In addition, the semantic representation generated by improving the expression learning performance of the source is updated with the background knowledge of the source and the background knowledge of the destination, so that reasoning performance using background knowledge can also be improved.
본 개시에서 제안하는 프레임워크는 시멘틱 소스 코딩을 위한 사전학습(pre-training) 동작, 및 목적지의 다운스트림 테스크를 위한 학습(training) 동작을 포함할 수 있다. 여기서, 시멘틱 소스 코딩은 소스가 목적지에게 송신할 신호(예: 표현(representation))를 생성하는 동작이다. 본 개시를 통해, 목적지에서 수행될 다운스트림 테스크를 고려하여 송수신 신호가 생성될 수 있고, 소스가 전달한 의도대로 다운스트림 테스크가 수행될 수 있다. 이때, 소스 및 목적지는 배경지식을 공유할 수 있다. 사전학습 및 다운스트림 테스크를 위한 학습이 완료되면 인퍼런스(inference)가 수행될 수 있다.The framework proposed in this disclosure may include a pre-training operation for semantic source coding, and a training operation for downstream tasks of the destination. Here, semantic source coding is an operation in which the source generates a signal (eg, representation) to be transmitted to the destination. Through the present disclosure, a transmission/reception signal can be generated considering the downstream task to be performed at the destination, and the downstream task can be performed as intended by the source. At this time, the source and destination can share background knowledge. Once pre-training and learning for downstream tasks are completed, inference can be performed.
한편, 본 개시는 테스크 지향적 시멘틱 통신 시스템에서, 새롭게 추가될 수 있는 시멘틱 레이어(semantic layer)를 이용한 신호 송수신 프로토콜에 적용될 수 있으나 이에 한정되지 않으며, 콘트라스티브 러닝을 이용한 테스크 지향적 시멘틱 통신을 위한 프레임워크 및 관련 절차에 적용될 수 있다.Meanwhile, the present disclosure may be applied to a signal transmission/reception protocol using a semantic layer that can be newly added in a task-oriented semantic communication system, but is not limited thereto, and may be applied to a framework for task-oriented semantic communication using contrastive learning. and related procedures.
도 11은 본 개시의 일 실시예에 따른 사전학습을 위한 프레임워크 예를 도시한다. 사전학습을 위한 프레임워크는 소스(1110) 및 목적지(1120)의 동작으로 구성될 수 있다. 이때, 인코딩 모델들 중 하나로서 트랜스폼 헤드(1150)가 사용될 수 있다. 하기 서술되는 S1101단계 내지 S1107단계는 소스에서 수행되는 동작들이며, S1109 및 S1111 단계는 목적지에서 수행되는 동작들이다. 여기서, 사전학습은 미니-배치(mini-batch) 단위로 수행될 수 있다.Figure 11 shows an example framework for dictionary learning according to an embodiment of the present disclosure. The framework for pre-learning may be composed of the operations of the source 1110 and the destination 1120. At this time, the transform head 1150 may be used as one of the encoding models. Steps S1101 to S1107 described below are operations performed at the source, and steps S1109 and S1111 are operations performed at the destination. Here, pre-learning can be performed in mini-batch units.
도 11을 참고하면, S1101 단계에서, 소스(1110)는 로우 데이터(1112)로부터 시멘틱 데이터(1114)를 획득할 수 있다. 시멘틱 데이터(1114)는 로우 데이터(1112)로부터 추출된 데이터이다. 시멘틱 데이터(1114)는 소스가(1110) 목적지(1120)에게 전달하려는 ‘의미’ 정보를 포함하는 메시지(예: 표현)를 생성하기 위해 사용될 수 있다. 이때, 소스(1110) 및 목적지(1120)가 보유하고 있는 배경지식(1130, 1140)을 이용하여 시멘틱 데이터(1114)의 획득 단위가 결정될 수 있다.Referring to FIG. 11, in step S1101, the source 1110 may obtain semantic data 1114 from raw data 1112. Semantic data 1114 is data extracted from raw data 1112. Semantic data 1114 can be used to generate a message (e.g., expression) containing ‘meaning’ information that the source 1110 wants to convey to the destination 1120. At this time, the acquisition unit of the semantic data 1114 may be determined using the background knowledge 1130 and 1140 held by the source 1110 and the destination 1120.
일 예로, 도 12와 같이 배경지식이 바이오의약품 지식 그래프(biomedicine knowledge graph)를 포함하고, 소스가 로우 데이터로부터 쿼리 형식의 시멘틱 데이터를 획득하는 경우, 바이오의약품 지식 그래프에 기초하여 ‘해당 바이오의약품 분야와 관련 있는 쿼리', ‘해당 쿼리의 종류’ 및 ‘쿼리의 길이’ 와 같은 시멘틱 데이터 획득 단위가 결정될 수 있다. 다른 일 예로, 소스가 로우 데이터로부터 텍스트 형식의 시멘틱 데이터를 획득하는 경우, 문장 단위로 데이터를 송신할 것인지, 문단 단위로 송신할 것인지 등의 시멘틱 데이터 획득 단위가 텍스트 데이터와 관련된 배경지식에 기초하여 설정될 수 있다.As an example, as shown in FIG. 12, when the background knowledge includes a biomedicine knowledge graph and the source obtains semantic data in query format from raw data, the 'corresponding biomedicine field' is based on the biomedicine knowledge graph. Semantic data acquisition units such as 'query related to', 'type of query', and 'length of query' may be determined. As another example, when the source acquires semantic data in text format from raw data, the semantic data acquisition unit, such as whether to transmit data in sentence units or paragraph units, is based on background knowledge related to text data. can be set.
S1103 단계에서, 소스(1110)는 시멘틱 데이터(1114)에 대해 위클리 라벨링(weakly labelling)을 수행할 수 있다. 위클리 라벨링은 데이터에 대해 보조 정보를 이용하여 분류 작업을 수행하는 동작일 수 있다. 즉, 위클리 라벨링이 수행되면 데이터에 위크 레이블(weak label)이 부여될 수 있다. 일 예로, 소스(1110)는 로우 데이터 또는 로우 데이터에 기반하여 구축되는 배경지식 데이터에 보조 정보가 존재하는 경우, 보조 정보를 이용하여 시멘틱 데이터(1114)에 대해 위클리 라벨링을 수행할 수 있다. 이때, 배경지식에 포함된 정보가 활용될 수 있다. 위클리 라벨링 수행 방법에 대해서는 하기 도 13 및 도 14에서 상세히 설명한다. 위클리 라벨링은 일반적인 라벨링과 비교하여 잡음(noise)이 존재할 수 있지만, 인간이 어노테이션(annotation) 작업을 수행하는 것과 비교하여 매우 적은 비용이 드는 장점이 존재한다.In step S1103, the source 1110 may perform weekly labeling on the semantic data 1114. Weekly labeling may be an operation that performs a classification task on data using auxiliary information. In other words, when weekly labeling is performed, a weak label may be assigned to the data. As an example, if auxiliary information exists in raw data or background knowledge data built based on raw data, the source 1110 may perform weekly labeling on the semantic data 1114 using the auxiliary information. At this time, information included in the background knowledge can be used. The method of performing weekly labeling is explained in detail in FIGS. 13 and 14 below. Weekly labeling may have noise compared to general labeling, but it has the advantage of being very low cost compared to performing annotation work by humans.
도 13 및 도 14는 본 개시의 일 실시예에 따른 보조 정보에 기초한 위클리 라벨링의 예를 도시한다.13 and 14 illustrate examples of weekly labeling based on auxiliary information according to an embodiment of the present disclosure.
일 실시 예에 따라, 보조 정보는 데이터의 이산 어트리뷰트(data's discrete attribute)(이하 '이산 어트리뷰트')일 수 있다. 즉, 위클리 라벨링을 수행하기 위해 사용되는 보조 정보로서 이산 어트리뷰트들이 선택될 수 있다. 예를 들어, 사람 이미지에 대해 '짧은/긴 머리', '반팔/긴팔'과 같은 이산 어트리뷰트의 일 예인 바이너리 인디케이터(binary indicator)가 보조 정보로서 사용될 수 있다.According to one embodiment, the auxiliary information may be data's discrete attribute (hereinafter referred to as 'discrete attribute'). That is, discrete attributes may be selected as auxiliary information used to perform weekly labeling. For example, for a person image, a binary indicator, which is an example of a discrete attribute such as 'short/long hair' and 'short sleeves/long sleeves', can be used as auxiliary information.
도 13은 본 개시의 일 실시 예에 따른 데이터 어트리뷰트에 기초한 위클리 라벨링의 예를 도시한다. 도 13을 참고하면, 데이터 모달리티가 이미지인 경우에 수행되는 위클리 라벨링 과정을 확인할 수 있다. 데이터 어트리뷰트의 종류는 다양할 수 있으며, 소스 및 목적지가 다루게 되는 데이터 어트리뷰트의 개수는 초기 설정을 통해 결정될 수 있다. 우선, 소스는 데이터 어트리뷰트들의 엔트로피를 측정하여 순위를 결정할 수 있다. 이후, 소스는 측정된 엔트로피 값이 높은 상위 k개의 어트리뷰트를 포함하는 어트리뷰트 셋(attribute set)을 구성할 수 있다. 어트리뷰트의 엔트로피 값이 높게 측정되었다는 것은 해당 어트리뷰트가 다양하게 분포되어 있음을 의미한다. 그리고 소스는 동일한 클러스터(cluster) 내의 어트리뷰트들이 동일한 결과 값을 갖도록 어트리뷰트 셋에 대해 클러스터링(clustering)을 수행하여, 클러스터(cluster)를 생성할 수 있다. 즉, 소스는 보조 정보를 이용하여 어트리뷰트 셋들을 구성하고, 각 어트리뷰트 셋들 내의 클러스터들에 포함된 데이터들이 동일한 값을 갖도록 구성할 수 있다. 이때, 배경지식 업데이트에 따라 어트리뷰트의 엔트로피가 달라질 수 있으므로, 엔트로피 측정은 학습 단위인 미니 배치 단위로 수행되어야 한다. 생성된 클러스터와 관련된 정보는 위클리 라벨링 수행을 위해 사용될 수 있다.Figure 13 shows an example of weekly labeling based on data attributes according to an embodiment of the present disclosure. Referring to FIG. 13, you can see the weekly labeling process performed when the data modality is an image. The types of data attributes can vary, and the number of data attributes handled by the source and destination can be determined through initial settings. First, the source can determine the ranking by measuring the entropy of data attributes. Afterwards, the source may construct an attribute set containing the top k attributes with high measured entropy values. A high entropy value for an attribute means that the attribute is distributed in various ways. And the source can create a cluster by performing clustering on the attribute set so that the attributes within the same cluster have the same result value. That is, the source can configure attribute sets using auxiliary information, and configure data included in clusters within each attribute set to have the same value. At this time, because the entropy of the attribute may vary depending on the background knowledge update, entropy measurement must be performed in mini-batch units, which are learning units. Information related to the created cluster can be used to perform weekly labeling.
다른 일 실시 예에 따라, 보조 정보는 데이터의 계층 정보(data's hierarchy information)(이하 '계층 정보')일 수 있다. 즉, 위클리 라벨링을 수행하기 위해 사용되는 보조 정보로서 계층 정보가 선택될 수 있다.According to another embodiment, the auxiliary information may be data's hierarchy information (hereinafter 'hierarchy information'). That is, layer information can be selected as auxiliary information used to perform weekly labeling.
도 14는 본 개시의 일 실시 예에 따른 데이터 계층 정보에 기초한 위클리 라벨링의 예를 도시한다. 도 14를 참고하면, 데이터 모달리티가 텍스트이고 배경지식에 WordNet이 포함된 경우에 수행되는 위클리 라벨링 동작을 확인할 수 있다. 우선, 소스는 보조 정보에 기초하여 데이터들을 계층에 따른 트리 구조로 형성할 수 있다. 이 때, 트리 구조에서 각 레벨의 노드들 각각은 해당하는 코어스 라벨(coarse label)에 대응될 수 있다. 이후, 소스는
Figure PCTKR2022016830-appb-img-000028
번째 레벨에 해당하는 노드들을 선택하여 노드 집합을 구성할 수 있다. 이때, 배경지식 업데이트에 따라 계층에 따른 트리 구조가 변경될 수 있으므로, 소스는 학습 단위인 미니 배치 단위로
Figure PCTKR2022016830-appb-img-000029
번째 레벨에 해당하는 노드들을 선택할 수 있다. 그리고, 소스는 동일한 클러스터 내에 포함된 데이터가 동일한 코어스 라벨을 가지도록 노드 집합에 대해 클러스터링을 수행하여, 클러스터들을 생성할 수 있다. 생성된 클러스터와 관련된 정보는 위클리 라벨링 수행을 위해 사용될 수 있다.
Figure 14 shows an example of weekly labeling based on data layer information according to an embodiment of the present disclosure. Referring to Figure 14, you can see the weekly labeling operation performed when the data modality is text and the background knowledge includes WordNet. First, the source can form data into a hierarchical tree structure based on auxiliary information. At this time, each node at each level in the tree structure may correspond to a corresponding coarse label. Afterwards, the source
Figure PCTKR2022016830-appb-img-000028
You can form a node set by selecting nodes corresponding to the th level. At this time, since the tree structure according to the hierarchy may change depending on the background knowledge update, the source is divided into mini-batch units, which are learning units.
Figure PCTKR2022016830-appb-img-000029
You can select nodes corresponding to the second level. Additionally, the source may create clusters by performing clustering on a set of nodes so that data included in the same cluster has the same coarse label. Information related to the created cluster can be used to perform weekly labeling.
이때, 데이터의 이산 어트리뷰트 및 계층 정보는 위클리 라벨링을 수행하기 위해 사용되는 보조 정보의 일 예일 뿐, 보조 정보가 이에 한정되는 것은 아닐 수 있다. 즉, 위클리 라벨링을 위해 다른 보조 정보(예: 중요도가 동일하지 않은 어트리뷰트인 비대칭 어트리뷰트(asymmetric attribute))가 사용될 수 있다.At this time, the discrete attributes and hierarchical information of data are only examples of auxiliary information used to perform weekly labeling, and the auxiliary information may not be limited thereto. That is, other auxiliary information (e.g., an asymmetric attribute, which is an attribute with unequal importance) may be used for weekly labeling.
한편, 소스가 보조 정보에 기초하여 클러스터링을 수행함에 있어서, 하이퍼 파라미터(hyper-parameter) 값(예: 보조 정보가 데이터 어트리뷰트인 경우에는 k 값, 보조 정보가 계층 정보인 경우에는
Figure PCTKR2022016830-appb-img-000030
값)에 따라, 목적지에 위치한 다운스트림 테스크의 동작 성능(예: 목적지의 소스로부터 수신한 표현에 대한 해석 성능)이 결정될 수 있다. 따라서, 하이퍼 파라미터 값은 배경지식(예: 도메인 지식)에 따라 결정될 필요가 있다. 또한, 배경지식이 업데이트가 되면 보조 정보에 대한 속성 변경(예: 데이터의 이산 어트리뷰트의 엔트로피, 데이터 계층 정보에 따른 트리 구조 변경 등)에 의해 기존의 하이퍼 파라미터 값이 변경될 수 있으므로, 사전학습 중 하이퍼 파라미터 값이 변경될 수 있다.
Meanwhile, when the source performs clustering based on auxiliary information, hyper-parameter values (e.g., k value if the auxiliary information is a data attribute, and if the auxiliary information is hierarchical information,
Figure PCTKR2022016830-appb-img-000030
Depending on the value, the operational performance (e.g., interpretation performance of the expression received from the source of the destination) of the downstream task located at the destination may be determined. Therefore, hyperparameter values need to be determined according to background knowledge (e.g., domain knowledge). In addition, when background knowledge is updated, existing hyperparameter values may change due to changes in properties of auxiliary information (e.g., entropy of discrete attributes of data, change in tree structure according to data hierarchy information, etc.), so during pre-learning Hyperparameter values may change.
S1105 단계에서, 소스(1110)는 위클리 라벨링된 시멘틱 데이터(1116)에 대해 어그멘테이션을 수행할 수 있다. 위클리 라벨링된 시멘틱 데이터(1116)는 시멘틱 데이터에 대해 위클리 라벨링을 수행하여 생성된 클러스터에 포함된 데이터일 수 있다. 어그멘테이션은 데이터를 변형하여 새로운 데이터를 생성함으로써 데이터의 전체 모수를 늘리기 위해 사용되는 기법이다. 일 예로, 소스(1110)는 콘트라스티브 러닝 시 필요한 포지티브 샘플을 생성하기 위해 위클리 라벨링된 시멘틱 데이터(1116)를 어그멘테이션할 수 있다. 이때, 획득된 시멘틱 데이터가 N개의 미니-배치인 경우, 2N개의 어그멘테이션 데이터가 생성될 수 있다.In step S1105, the source 1110 may perform augmentation on the weekly labeled semantic data 1116. Weekly labeled semantic data 1116 may be data included in a cluster created by performing weekly labeling on semantic data. Augmentation is a technique used to increase the overall parameters of data by transforming data to create new data. As an example, the source 1110 may augment the weekly labeled semantic data 1116 to generate positive samples necessary for contrast learning. At this time, if the obtained semantic data is N mini-batch, 2N pieces of augmentation data can be generated.
어그멘테이션 종류는 데이터의 모달리티(modality)에 따라 달라질 수 있다. 하기 [표 3]은 데이터 모달리티가 이미지인 경우의 어그멘테이션 종류를 예시한다.The type of augmentation may vary depending on the modality of the data. [Table 3] below illustrates the types of augmentation when the data modality is an image.
CategoryCategory Type Type
Geometric TransformationsGeometric Transformations Flipping, Cropping, Rotation, Color space, Noise Injection 등을 이용한 변형Transformation using flipping, cropping, rotation, color space, noise injection, etc.
Color space TransformationColor space transformation R, G, B 값 중에서 하나의 값을 최소값으로 만들거나 최댓값으로 맞추는 등의 조정을 통해 광도를 조절Adjust the brightness by adjusting one of the R, G, and B values to the minimum or maximum value.
Kernel FilterKernel Filter Gaussian Filter, Edge Filter, Patch shuffle filter 등을 이용하여
Figure PCTKR2022016830-appb-img-000031
의 크기로 영역의 픽셀들을 랜덤하게 믹싱(mixing)
Using Gaussian Filter, Edge Filter, Patch shuffle filter, etc.
Figure PCTKR2022016830-appb-img-000031
Randomly mixing pixels in an area with a size of
Random ErasingRandom Erasing 이미지의 특정 부분을 랜덤하게 삭제하여 새로운 이미지를 생성Create a new image by randomly deleting certain parts of the image
Mixing ImagesMixing Images 복수의 이미지 각각의 일부분들을 이용하여 새로운 이미지를 생성Create a new image using parts of each image
하기 [표 4]는 데이터 모달리티가 텍스트인 경우의 어그멘테이션 기법을 예시한다.[Table 4] below illustrates an augmentation technique when the data modality is text.
CategoryCategory Sub-categorySub-category TypeType
Text modificationText modification Random Noise InjectionRandom Noise Injection Synonym Replace(SR), Random Insertion(RI), Random Swap(RS), Random Deletion(RD)Synonym Replace(SR), Random Insertion(RI), Random Swap(RS), Random Deletion(RD)
Text generationText generation Back-TranslationBack-Translation 번역기를 사용하여 단일 언어 데이터(monolingual data)로부터 인공 데이터를 생성
- Beam Search, Random Sampling, Top-10 Sampling, Beam + Noise
Generate artificial data from monolingual data using a translator
- Beam Search, Random Sampling, Top-10 Sampling, Beam + Noise
Pre-trained 모델을 이용한 conditional Pre-trainingConditional Pre-training using a Pre-trained model Pre-trained 모델 3가지(Auto-Regressive(AR), Auto-Encoder(AE), Sequence-to-sequence(Seq2Seq))를 이용하여 text를 augmentation
- Pre-trained 모델로 레이블 정보를 포함시켜 fine-tuning을 수행
Augmentation of text using three pre-trained models (Auto-Regressive (AR), Auto-Encoder (AE), and Sequence-to-sequence (Seq2Seq))
- Perform fine-tuning by including label information in a pre-trained model
그 외etc Dropout noiseDropout noise 동일한 문장에 기초하여 dropout mask만 바꾸어 embedding이 유사한 positive pair를 생성Based on the same sentence, only the dropout mask is changed to generate positive pairs with similar embeddings.
하기 [표 5]는 데이터 모달리티가 그래프인 경우의 어그멘테이션 기법을 예시한다.[Table 5] below illustrates an augmentation technique when the data modality is a graph.
CategoryCategory Sub-categorySub-category TypeType
Topology(structure) augmentationTopology(structure) augmentation Edge perturbationEdge perturbation Edge Removing(ER), Edge Adding(EA), Edge Flipping(EF)Edge Removing(ER), Edge Adding(EA), Edge Flipping(EF)
Node perturbationNode perturbation Node Dropping(ND)Node Dropping(ND)
Subgraph sampling(SS)Subgraph sampling (SS) Subgraph induced by Random Walks(RWS)Subgraph induced by Random Walks(RWS)
Graph Diffusion(GD)Graph Diffusion(GD) Diffusion with Personalized PageRank(PPR), Diffusion with Markov Diffusion Kernels[MDK]Diffusion with Personalized PageRank(PPR), Diffusion with Markov Diffusion Kernels[MDK]
Feature augmentationFeature augmentation Feature Masking[FM], Feature Dropout[FD]Feature Masking[FM], Feature Dropout[FD]
한편, 적용되는 어그멘테이션 종류는 인코더(1118)의 시멘틱 소스 코딩 수행 성능에 영향을 미칠 수 있다. 일 예로, 소스(1110)가 송신한 데이터의 모달리티가 텍스트이고 목적지에 위치한 다운스트림 테스크가 긍정문인지 부정문인지를 구별하는 것인 경우, 텍스트의 문법적인 요소에 의해 소스(1110)가 전달하려는 의미대로 동작이 수행되지 않을 수 있다. 따라서, 텍스트 데이터를 통해 전달하려는 의미를 보존하기 위해서는, 어그멘테이션의 종류 및 어그멘테이션의 비율이 배경지식(1130)에 기초하여 설정되어야 한다.Meanwhile, the type of augmentation applied may affect the semantic source coding performance of the encoder 1118. For example, if the modality of the data transmitted by the source 1110 is text and the downstream task located at the destination distinguishes whether it is a positive or negative sentence, the meaning that the source 1110 wants to convey is determined according to the grammatical elements of the text. The operation may not be performed. Therefore, in order to preserve the meaning to be conveyed through text data, the type of augmentation and the ratio of augmentation must be set based on the background knowledge 1130.
도 15를 참고하면, 소셜 네트워크 데이터(social network data)인 COLLAB과 비교하여 화학물질 관련 생화학 분자 데이터(biochemical molecules data)인 NCI1에 대한 엣지 퍼터베이션(edge perturbation)의 성능이 저하된 것을 확인할 수 있다. 이는, NCI1과 같은 생체분자 데이터(biomolecule data)에서의 엣지의 변경은 공유 결합의 제거 또는 추가에 해당하며, 화합물의 식별성(identity) 및 유효성(validity)이 크게 변경될 수 있고, 소스(1110)가 목적지(1120)에게 전달하고자 하는 의미가 올바르게 전달되지 않을 수 있음을 나타낸다. 따라서, NCI1과 같은 데이터에 대해 엣지 퍼터베이션과 같은 어그멘테이션을 수행하지 않기 위해, 소스(1110) 또는 목적지(1120)는 배경지식(1130)을 이용하여 데이터 어그멘테이션 종류를 설정할 수 있다. 또한, 도 15를 통해 퍼터베이션 비율에 따라 성능이 결정됨을 확인할 수 있다. 따라서, 데이터 어그멘테이션의 적용 비율 또한 배경지식(1130)을 이용하여 설정될 필요가 있다.Referring to Figure 15, it can be seen that the performance of edge perturbation for NCI1, which is chemical substance-related biochemical molecule data, is deteriorated compared to COLLAB, which is social network data. . This means that a change in the edge in biomolecule data such as NCI1 corresponds to the removal or addition of a covalent bond, and the identity and validity of the compound can be significantly changed, and source 1110 This indicates that the meaning intended to be conveyed to the destination 1120 may not be conveyed correctly. Therefore, in order to not perform augmentation such as edge perturbation on data such as NCI1, the source 1110 or the destination 1120 can set the data augmentation type using the background knowledge 1130. Additionally, it can be seen through Figure 15 that performance is determined depending on the perturbation ratio. Therefore, the application rate of data augmentation also needs to be set using the background knowledge 1130.
한편, 소스(1110)는 시스템 성능을 향상시키기 위해 복수의 어그멘테이션 기법을 조합하여 어그멘테이션 데이터(1118)를 생성할 수 있다. 일 예로, 데이터 모달리티가 이미지인 경우, 소스(1110)는 자르기(crop), 뒤집기(flip), 색상 지터(color jitter), 그레이스케일(grayscale)의 4가지 어그멘테이션 기법을 모두 조합하여 데이터를 어그멘테이션할 수 있다. 또한, 소스(1110)는 상이한 카테고리에 속하는 복수의 어그멘테이션 기법을 사용하여 데이터를 어그멘테이션할 수 있다. 실제로, 데이터 모달리티가 그래프인 경우 단일의 카테고리에 포함된 어그멘테이션 기법을 적용하는 것과 비교하여, 복수의 카테고리에 포함된 복수의 어그멘테이션 기법을 사용하여 유사한 샘플을 생성한 때 시스템의 성능이 향상되었다. 또한, 데이터의 도메인(domain)에 따라 최고 성능을 나타내는 어그멘테이션 기법들의 조합이 다르다. 즉, 어그멘테이션 종류 및 비율은 데이터 모달리티에 따라, 보유한 배경지식(1130)(예: 도메인 지식)에 기초하여 설정되어야 한다.Meanwhile, the source 1110 may generate augmentation data 1118 by combining a plurality of augmentation techniques to improve system performance. For example, when the data modality is an image, the source 1110 combines all four augmentation techniques: crop, flip, color jitter, and grayscale to store the data. It can be augmented. Additionally, source 1110 may augment data using multiple augmentation techniques belonging to different categories. In fact, when the data modality is a graph, the performance of the system improves when similar samples are generated using multiple augmentation techniques contained in multiple categories compared to applying an augmentation technique contained in a single category. improved. Additionally, the combination of augmentation techniques that achieves the best performance varies depending on the domain of the data. In other words, the type and rate of augmentation must be set based on the possessed background knowledge 1130 (e.g., domain knowledge) according to the data modality.
S1107 단계에서, 소스(1110)는 위클리 라벨링된 어그멘테이션 데이터(1116)에 대해 인코딩을 수행할 수 있다. 이때, 데이터 모달리티에 따라 적합한 인코더(1118)가 사용될 수 있다. 일 예로, 데이터 모달리티가 이미지인 경우 CNN 기반의 모델(예: ResNet18)이 사용될 수 있고, 데이터 모달리티가 텍스트인 경우 프리-트레인드 모델(pre-trained model)(예: BERT)가 사용될 수 있다. 일 예로, 듀얼-브렌치(dual-branch) 각각에 위치하는 인코더(1118)는 동일할 수 있다. 또한, 인코더(1118)로서 기존 모델을 사용하는 경우, 인코더(1118)의 구성 중 특징 추출(feature extraction)을 위한 구성만을 사용할 수 있다. 여기서, 특징 추출을 위한 구성은 표현을 획득하기 위해 사용될 수 있다. 소스(1110)는 인코딩을 수행하여 생성된 결과(이하 ‘인코딩 데이터’)(예: 표현(representation))를 목적지(1120)에게 송신할 수 있다. 이때, 소스(1110)는 인코딩 데이터와 함께 위크 레이블(weak label)에 대응되는 클러스터(cluster) 정보를 함께 송신할 수 있다. 여기서, 인코딩 데이터는 시멘틱 통신에서 시멘틱 데이터를 이용하여 만들어진 시멘틱 메시지로 볼 수 있다.In step S1107, the source 1110 may perform encoding on the weekly labeled augmentation data 1116. At this time, an appropriate encoder 1118 can be used depending on the data modality. For example, if the data modality is an image, a CNN-based model (e.g., ResNet18) may be used, and if the data modality is text, a pre-trained model (e.g., BERT) may be used. For example, the encoder 1118 located in each dual-branch may be the same. Additionally, when using an existing model as the encoder 1118, only the configuration for feature extraction can be used among the configurations of the encoder 1118. Here, the construct for feature extraction can be used to obtain the representation. The source 1110 may transmit the result (hereinafter referred to as ‘encoding data’) (e.g., representation) generated by performing encoding to the destination 1120. At this time, the source 1110 may transmit cluster information corresponding to the weak label along with the encoded data. Here, the encoded data can be viewed as a semantic message created using semantic data in semantic communication.
한편, S1109 단계에서, 목적지(1120)는 다운스트림 테스크를 수행하는데 사용되는 데이터의 형식에 따라 인코딩 데이터의 형식을 변환하는 추가 동작을 수행할 수 있다. 도 16은 데이터 모달리티가 그래프인 경우의 추가적인 데이터 변환 동작의 예를 도시한다. 도 16을 참고하면, 데이터에 대한 인코딩이 수행되면 아웃풋은 노드 표현(node representation)(1610)으로 출력될 수 있다. 이때, 목적지(예: 도 11의 목적지(1120))는 다운스트림 테스크의 동작 방식에 따라 추가 동작을 수행할지 여부를 결정할 수 있다. 만약, 다운스트림 테스크가 노드 표현(1610)을 이용하여 수행되는 동작이라면, 목적지는 추가 동작을 수행하지 않을 수 있다. 반면, 다운스트림 테스크가 그래프 표현을 이용하여 수행되는 동작이라면, 목적지는 노드 표현을 그래프 표현으로 변환하는 추가 동작을 수행할 수 있다. 이때, 목적지는 설정된 리드아웃 펑션(readout function)(1620)(예: 애버리지(average), 썸(sum))을 통해 추가 동작을 수행할 수 있다.Meanwhile, in step S1109, the destination 1120 may perform an additional operation of converting the format of the encoded data according to the format of the data used to perform the downstream task. Figure 16 shows an example of an additional data conversion operation when the data modality is a graph. Referring to FIG. 16, when encoding of data is performed, the output may be output as a node representation (node representation) 1610. At this time, the destination (e.g., destination 1120 in FIG. 11) may decide whether to perform additional operations depending on the operation method of the downstream task. If the downstream task is an operation performed using the node expression 1610, the destination may not perform additional operations. On the other hand, if the downstream task is an operation performed using a graph representation, the destination can perform an additional operation to convert the node representation to a graph representation. At this time, the destination may perform additional operations through a set readout function 1620 (e.g., average, sum).
다른 일 예로, 도 17은 데이터 모달리티가 텍스트인 경우의 추가적인 데이터 변환 동작의 예를 도시한다. 도 17을 참고하면, 텍스트 데이터는 프리 트레인드 모델(예: BERT)를 통해 인코딩될 수 있다. 그리고, 인코딩 결과로서 단어(word) 단위의 표현인 단어 벡터 셋(word vector set)이 출력될 수 있다. 목적지는 다운스트림 테스크의 동작 방식에 따라 추가 동작을 수행할지 여부를 결정할 수 있다. 만약, 다운스트림 테스크가 단어 표현을 이용하여 수행되는 동작이라면, 목적지는 추가 동작을 수행하지 않을 수 있다. 반면, 다운스트림 테스크가 컨텍스트 기반의 표현인 컨텍스트 벡터(context vector)를 이용하여 수행되는 동작이라면, 목적지는 풀링(pooling) 동작(예: 민(mean), 맥스(max))을 수행하여 워드 벡터를 컨텍스트 벡터로 변환할 수 있다. As another example, Figure 17 shows an example of an additional data conversion operation when the data modality is text. Referring to FIG. 17, text data may be encoded through a free trained model (eg, BERT). And, as a result of encoding, a word vector set, which is an expression in word units, can be output. The destination can decide whether to perform additional actions depending on how the downstream task operates. If the downstream task is an operation performed using a word expression, the destination may not perform additional operations. On the other hand, if the downstream task is an operation performed using a context vector, which is a context-based expression, the destination performs a pooling operation (e.g. mean, max) to create a word vector. can be converted to a context vector.
또 다른 일 예로, 데이터 모달리티가 이미지인 경우, 인코딩 결과로서 로컬 특징 벡터(local feature vectors)가 각 브랜치(branch)에서 출력될 수 있는데, 목적지는 이중 하나의 패스(path)로부터 글로벌 서머리 벡터(global summary vector)를 생성하기 위한 추가 동작을 수행할 수 있다. 이때, 모델은 데이터 모달리티가 그래프인 경우에 리드아웃 펑션을 사용한 것과 유사한 방식으로 글로벌 서머리 벡터를 생성할 수 있다.As another example, when the data modality is an image, local feature vectors may be output from each branch as an encoding result, and the destination is a global summary vector from one of the paths. Additional operations can be performed to create a summary vector. At this time, the model can generate a global summary vector in a similar way to using the readout function when the data modality is a graph.
상기 실시 예들과 같이, 목적지에 위치한 다운스트림 테스크의 목적에 적합한 표현을 얻기 위해 수행되는 추가 동작에 의하여 테스크 지향적 시멘틱 통신이 수행될 수 있다. 이를 통해, 시멘틱 통신 시스템에 플렉서빌리티(flexibility)가 부여될 수 있다. 이때, S1109 단계의 추가 동작들은 다층 퍼셉트론(multi-layer perceptron, MLP)로 구성되어 학습될 수 있다.As in the above embodiments, task-oriented semantic communication can be performed by additional operations performed to obtain an expression suitable for the purpose of a downstream task located at the destination. Through this, flexibility can be granted to the semantic communication system. At this time, the additional operations in step S1109 can be learned by forming a multi-layer perceptron (MLP).
S1109 단계가 완료되면, S1111 단계에서, 목적지(1120)는 인코딩 데이터(예: 표현(representation))를 로스 펑션(loss function)을 이용하여 학습할 수 있다. 하기에서는, 학습을 위해 사용되는 트랜스폼 헤드(1150)에 대해 서술한다.When step S1109 is completed, in step S1111, the destination 1120 can learn encoded data (eg, representation) using a loss function. In the following, the transform head 1150 used for learning is described.
도 18은 본 개시의 일 실시예에 따른 트랜스폼 헤드(1800) 구성의 예를 도시한다. 트랜스폼 헤드(1800)는 시멘틱 통신 시스템을 위한 인코더(예: 도 10의 트랜스폼 헤드(1150))의 일 예이다.Figure 18 shows an example of the configuration of a transform head 1800 according to an embodiment of the present disclosure. The transform head 1800 is an example of an encoder for a semantic communication system (eg, the transform head 1150 in FIG. 10).
도 18을 참고하면, 트랜스폼 헤드(1800)는 프로젝션 헤드(projection head) 기법을 통해 적어도 하나의 댄스 레이어(dense layer)(1811, 1813, 1815) 및 적어도 하나의 비 선형(non-linear) 함수에 해당하는 ReLu(rectified linear unit)(1812, 1814)을 포함할 수 있다. 트랜스폼 헤드(1800)의 구조는 도 18의 구조에 한정되지 않으며, 인코더의 모델에 따라 레이어의 개수 및 비 선형(non-linear) 함수가 달라질 수 있다. 도 18과 같이 트랜스폼 헤드(1800)를 구성하는 이유는 다음과 같다.Referring to FIG. 18, the transform head 1800 includes at least one dance layer ( dense layer 1811, 1813, 1815) and at least one non-linear function through a projection head technique. It may include ReLu (rectified linear unit) (1812, 1814) corresponding to. The structure of the transform head 1800 is not limited to that of FIG. 18, and the number of layers and non-linear function may vary depending on the encoder model. The reason for configuring the transform head 1800 as shown in FIG. 18 is as follows.
SimCLR 기반 모델은 비선형의 프로젝션 헤드(non-linear projection head)를 이용하여 로스를 계산한다. 이 경우, 선형의 프로젝션 헤드(linear projection head) 또는 프로젝션 헤드(projection head)를 이용하지 않을 때보다 성능이 뛰어나다. 또한, SimCLRv2 기반 모델은 인코더 모델의 크기를 키우고, 프로젝션 헤드를 구성하는 리니어 레이어(linear layer)의 개수를 늘려 학습을 수행한다. 라벨링 되어 있는 비율(label fraction)이 낮을수록, 프로젝션 헤드의 레이어가 많을수록 성능이 향상되기 때문이다. 이에, 본 개시는 효과적인 임베딩 학습을 통해 시멘틱 통신의 성능을 최대화하기 위한 인코딩 모델로서 도 18에서 예시한 바와 같은 구성의 트랜스폼 헤드를 제안한다.SimCLR-based models calculate loss using a non-linear projection head. In this case, the performance is better than when a linear projection head or no projection head is used. In addition, the SimCLRv2-based model performs learning by increasing the size of the encoder model and increasing the number of linear layers that make up the projection head. This is because the lower the label fraction and the more layers of the projection head, the better the performance. Accordingly, the present disclosure proposes a transform head configured as illustrated in FIG. 18 as an encoding model for maximizing the performance of semantic communication through effective embedding learning.
이후, S1111단계에서, 목적지(1120)는 인코딩 데이터(예: 표현(representation))를 로스 펑션(loss function)을 이용하여 학습할 수 있다. 이때, 학습은 CI-InfoNCE 로스(clustering InfoNCE loss)를 이용하여 수행될 수 있다. CI-InfoNCE 로스는 수학식 13에서 확장된 것으로, 동일한 위크 레이블을 가지는 데이터(예: 동일한 클러스터 내에 위치한 데이터)에 대해 유사한 표현을 학습하고, 다른 위크 레이블을 가진 데이터(예: 다른 클러스터 내에 위치한 데이터)에 대해서는 다른 표현을 학습할 수 있도록 하는 로스 펑션이다. 여기서, 유사한 표현을 학습한다는 것은 표현들 간의 거리를 가깝도록 학습한다는 것이고, 다른 표현을 학습한다는 것은 표현들 간의 거리를 멀도록 학습하는 것일 수 있다. CI-InforNCE 로스는 하기 수학식 14와 같다.Thereafter, in step S1111, the destination 1120 may learn encoded data (e.g., representation) using a loss function. At this time, learning can be performed using CI-InfoNCE loss (clustering InfoNCE loss). CI-InfoNCE loss is an extension of Equation 13, which learns similar representations for data with the same weak label (e.g., data located within the same cluster) and data with different weak labels (e.g., data located within different clusters). ) is a Loss function that allows learning other expressions. Here, learning a similar expression may mean learning to increase the distance between expressions, and learning a different expression may mean learning to increase the distance between expressions. CI-InforNCE loss is given in Equation 14 below.
[수학식 14][Equation 14]
Figure PCTKR2022016830-appb-img-000032
Figure PCTKR2022016830-appb-img-000032
수학식 14에서, 대문자로 표현된 변수는 랜덤 변수(random variable)이고, 소문자로 표현된 변수는 랜덤 변수의 결과(outcome)이고, X 및 Y는 위클리 라벨링된 어그멘테이션 데이터로부터 생성된 표현(representation)(예: 소스에 위치한 인코더의 결과, 목적지의 추가 동작 수행 이후의 결과)이고, Z는 위클리 라벨링을 수행하기 위해 구성된 클러스터에 대한 정보(이하 '클러스터 정보')이다. 클러스터 정보는 소스로부터 목적지에게 인코더의 출력인 표현과 함께 전달되어, 목적지에서 로스 펑션을 계산하기 위해 사용될 수 있다. 수학식 14에서
Figure PCTKR2022016830-appb-img-000033
는 입력 (x, y)로부터 스칼라를 회귀(return)하는 모든 함수로서,
Figure PCTKR2022016830-appb-img-000034
에 대해 하기 수학식 15와 같이 코사인 유사도(cosine similarity)가 고려될 수 있다.
In Equation 14, the variable expressed in uppercase letters is a random variable, the variable expressed in lowercase letters is the outcome of the random variable, and X and Y are expressions generated from weekly labeled augmentation data ( representation) (e.g., the result of the encoder located at the source, the result after performing additional operations at the destination), and Z is information about the cluster configured to perform weekly labeling (hereinafter 'cluster information'). Cluster information is passed from the source to the destination along with the representation that is the output of the encoder, and can be used at the destination to calculate the loss function. In equation 14:
Figure PCTKR2022016830-appb-img-000033
is any function that returns a scalar from the input (x, y),
Figure PCTKR2022016830-appb-img-000034
For , cosine similarity can be considered as shown in Equation 15 below.
[수학식 15][Equation 15]
Figure PCTKR2022016830-appb-img-000035
Figure PCTKR2022016830-appb-img-000035
수학식 15에서
Figure PCTKR2022016830-appb-img-000036
는 목적지에 위치한 뉴럴 네트워크(neural network)이고,
Figure PCTKR2022016830-appb-img-000037
는 클래스(class) 간 포지티브 또는 네거티브로의 분류 기준이 되는 하이퍼 파라미터(hyper-parameter)이다. 일반적으로 큰 값의
Figure PCTKR2022016830-appb-img-000038
는 클래스 간의 분류가 보다 쉽게 될 수 있도록 엄격한 기준점이 되며, 작은 값의
Figure PCTKR2022016830-appb-img-000039
는 하드 포지티브(hard positive)/하드 네거티브(hard negative)를 형성하여 학습을 보다 어렵게 하지만 로버스트(robust)한 분류를 도와줄 수 있다.
In equation 15:
Figure PCTKR2022016830-appb-img-000036
is a neural network located at the destination,
Figure PCTKR2022016830-appb-img-000037
is a hyper-parameter that serves as a criterion for classification as positive or negative between classes. usually of large value
Figure PCTKR2022016830-appb-img-000038
is a strict reference point to make classification between classes easier, and has a small value.
Figure PCTKR2022016830-appb-img-000039
forms hard positives/hard negatives, making learning more difficult, but can help with robust classification.
수학식 14에서
Figure PCTKR2022016830-appb-img-000040
Figure PCTKR2022016830-appb-img-000041
의 n개의 독립적 카피들(independent copies)이다. 수학식 14에서, 먼저 클러스터 z ~
Figure PCTKR2022016830-appb-img-000042
가 샘플링 되고, x ~
Figure PCTKR2022016830-appb-img-000043
및 y ~
Figure PCTKR2022016830-appb-img-000044
의 (x,y) 쌍이 샘플링될 수 있다. 또한,
Figure PCTKR2022016830-appb-img-000045
Figure PCTKR2022016830-appb-img-000046
Figure PCTKR2022016830-appb-img-000047
가 동일한 위크 레이블을 갖는 경우로서 포지티브 쌍 표현(positive pair representation)으로,
Figure PCTKR2022016830-appb-img-000048
Figure PCTKR2022016830-appb-img-000049
Figure PCTKR2022016830-appb-img-000050
는 다른 위크 레이블을 갖는 경우로서 네거티브 쌍 표현(negative pair representation)으로 명칭 될 수 있다. 학습은 미니 배치 형태로 수행되므로, 배치 내에서 표현과 함께 전달된 위크 레이블을 이용하여 포지티브/네거티브 샘플이 고려될 수 있다.
In equation 14:
Figure PCTKR2022016830-appb-img-000040
silver
Figure PCTKR2022016830-appb-img-000041
There are n independent copies of . In Equation 14, first cluster z ~
Figure PCTKR2022016830-appb-img-000042
is sampled, and x ~
Figure PCTKR2022016830-appb-img-000043
and y~
Figure PCTKR2022016830-appb-img-000044
The (x,y) pair of can be sampled. also,
Figure PCTKR2022016830-appb-img-000045
Is
Figure PCTKR2022016830-appb-img-000046
and
Figure PCTKR2022016830-appb-img-000047
In positive pair representation, as the case where has the same weak label,
Figure PCTKR2022016830-appb-img-000048
Is
Figure PCTKR2022016830-appb-img-000049
and
Figure PCTKR2022016830-appb-img-000050
has a different weak label and can be called a negative pair representation. Since learning is performed in the form of mini-batches, positive/negative samples can be considered using the weak label passed along with the representation within the batch.
이때, 수학식 14에서 생성된 위크 레이블(weak label)(예: 클러스터) Z를 인스턴스 ID(instance ID)와 동일하게 설정하면, 수학식 13과 같은 InfoNCE를 계산하는 자기 지도적 콘트라스티브 세팅(self-supervised contrastive setting)이 될 수 있다. 여기서, 위크 레이블 Z를 인스턴스 ID와 동일하게 설정한다는 것은 각 클러스터가 하나의 인스턴스만을 가지는 것일 수 있다. 또한, 생성된 위크 레이블 Z를 다운스트림 테스크 동작을 통해 얻고자 하는 정답인 레이블로 구성한 경우, 지도적 콘트라스티브 세팅(supervised contrastive setting)이 될 수 있다.At this time, if the weak label (e.g. cluster) Z generated in Equation 14 is set to be the same as the instance ID, a self-supervised contrast setting (self- It can be a supervised contrastive setting. Here, setting the weak label Z equal to the instance ID may mean that each cluster has only one instance. Additionally, if the generated weak label Z is composed of a label that is the correct answer to be obtained through a downstream task operation, it can be a supervised contrastive setting.
학습의 목표는 수학식 14의 Cl-InfoNCE를 최대화하기 위해 목적지로 전달하는 표현들인 X,Y를 학습하는 것이다. 정보 이론 관점에서 Cl-InfoNCE를 최대화하는 것은 위크 레이블 정보(예: 클러스터링 정보)를 포함하도록 학습하는 것으로서 하기 수학식 16과 같다.The goal of learning is to learn the expressions X and Y that are delivered to the destination in order to maximize Cl-InfoNCE in Equation 14. From an information theory perspective, maximizing Cl-InfoNCE involves learning to include weak label information (e.g., clustering information), as shown in Equation 16 below.
[수학식 16][Equation 16]
Figure PCTKR2022016830-appb-img-000051
Figure PCTKR2022016830-appb-img-000051
수학식 16에서,
Figure PCTKR2022016830-appb-img-000052
의Z는 위클리 라벨링을 위해 구성된 클러스터의 엔트로피이며,
Figure PCTKR2022016830-appb-img-000053
Figure PCTKR2022016830-appb-img-000054
는 X, Y가 주어졌을 때 Z의 조건부 엔트로피(conditional entropy)이다. 수학식 16을 통해
Figure PCTKR2022016830-appb-img-000055
가 높은 경우, (x, y)가 동일한 위크 레이블인지 여부를 쉽게 알 수 있다. CI-InfoNCE가 최대화되면 위크 레이블 정보인 클러스터링 정보 Z를 포함하는 표현들인 X, Y가 생성될 수 있다.
In equation 16,
Figure PCTKR2022016830-appb-img-000052
Z is the entropy of the cluster constructed for weekly labeling,
Figure PCTKR2022016830-appb-img-000053
and
Figure PCTKR2022016830-appb-img-000054
is the conditional entropy of Z given X and Y. Through equation 16
Figure PCTKR2022016830-appb-img-000055
If is high, it is easy to tell whether (x, y) are the same weak label. When CI-InfoNCE is maximized, expressions X and Y including clustering information Z, which is weak label information, can be generated.
상술한 바와 같이, 사전학습 과정을 통해 목적지에 위치한 다운스트림 테스크의 목적에 적합한 동작을 수행하기 위해 표현들이 잘 학습되었는지 여부 및, 교차 검증(cross validation)을 위해 Z와 다운스트림 테스크 동작을 통해 얻고자 하는 정답인 레이블(예: T로 표현되는 다운스트림 레이블) 간의 관계를 확인할 수 있다. 상호 정보(Mutual information)
Figure PCTKR2022016830-appb-img-000056
은 위크 레이블인 클러스터 정보 및 레이블의 관계성(relevance)을 측정하고, 조건부 엔트로피인
Figure PCTKR2022016830-appb-img-000057
는 클러스터에서 다운스트림 레이블과 관련이 없는 리던던트 정보(redundant information)의 양을 측정한다. 일 예로, 보조 정보를 이용한 위크 레이블과 다운스트림 레이블 간에 높은 상호 정보와 낮은 조건부 엔트로피(conditional entropy)를 가질 때 학습된 표현을 바탕으로 다운스트림 테스크의 향상된 성능을 기대할 수 있다.
As described above, through the pre-learning process, whether the expressions have been well learned to perform an operation suitable for the purpose of the downstream task located at the destination, and for cross validation, it is obtained through Z and the downstream task operation. You can check the relationship between the labels that are the correct answer (e.g., the downstream label represented by T). Mutual information
Figure PCTKR2022016830-appb-img-000056
Measures the relationship of the cluster information and label, which is the weak label, and the conditional entropy,
Figure PCTKR2022016830-appb-img-000057
Measures the amount of redundant information in a cluster that is not related to downstream labels. For example, when there is high mutual information and low conditional entropy between the weak label and the downstream label using auxiliary information, improved performance of the downstream task can be expected based on the learned expression.
보조 정보를 이용하여 위클리 라벨링을 수행할 때와 관련하여 도 19를 참고하면, k가 증가할수록 상호 정보
Figure PCTKR2022016830-appb-img-000058
가 증가하지만, 조건부 엔트로피인
Figure PCTKR2022016830-appb-img-000059
도 증가하는 것을 볼 수 있다. 이는 더 많은 어트리뷰트를 고려할수록 다운스트림 레이블과 더 많은 상관관계를 가지는 위크 레이블인 클러스터가 생성되지만, 다운스트림과 관련 없는 정보들이 더 포함될 수 있음을 의미한다. 이는 도 19에서 Top-1 Accuracy를 살펴보았을 때 선택된 어트리뷰트들의 개수(k)가 증가함에 따라 성능이 증가한 다음 감소하는 것에서 확인할 수 있다. 따라서, 위클리 라벨링을 위해서는 가장 유익하다고 판단되는 어트리뷰트(예: 엔트로피가 높은 어트리뷰트)들을 선정하는 것이 필요하다. 또한 도 19를 살펴보면,
Figure PCTKR2022016830-appb-img-000060
와 -
Figure PCTKR2022016830-appb-img-000061
의 교차점에서 가장 성능이 좋게 위클리 라벨링이 수행되는 것을 확인할 수 있다.
Referring to Figure 19 in relation to performing weekly labeling using auxiliary information, as k increases, the mutual information
Figure PCTKR2022016830-appb-img-000058
increases, but the conditional entropy
Figure PCTKR2022016830-appb-img-000059
You can also see an increase. This means that as more attributes are considered, a cluster, which is a weak label that has more correlation with the downstream label, is created, but may contain more information unrelated to the downstream label. This can be seen in the fact that performance increases and then decreases as the number (k) of selected attributes increases when looking at the Top-1 Accuracy in Figure 19. Therefore, for weekly labeling, it is necessary to select the attributes that are judged to be most informative (e.g., attributes with high entropy). Also, looking at Figure 19,
Figure PCTKR2022016830-appb-img-000060
and -
Figure PCTKR2022016830-appb-img-000061
It can be seen that weekly labeling is performed with the best performance at the intersection of .
Wordnet 데이터의 계층적 레벨(hierarchical level)을 이용한 위클리 라벨링을 수행할 때와 관련하여 도 20을 참고하면, 도 20(a)에서는 계층적 레벨(hierarchical level)을 증가시키면 성능 향상이 일어나는 것을 확인할 수 있고, 도 20(b)에서는 위크 레이블인 클러스터 Z와 다운스트림 레이블 T사이의 상호 정보
Figure PCTKR2022016830-appb-img-000062
가 증가하는 것을 확인할 수 있다. 또한, 도 20(c)를 참고하면
Figure PCTKR2022016830-appb-img-000063
는 트리 계층(tree hierarchy) 구조에서 다운스트림 레이블(예: 트리 구조에서 리프 노드(leaf node))들에 의해 코어스 레벨(예: 중간 노드(intermediate node))이 결정되기 때문에, 0으로 유지되는 것을 확인할 수 있다. 이 때, 생성된 위크 레이블(예: 클러스터) Z를 인스턴스 ID와 동일하게 설정한 경우에는
Figure PCTKR2022016830-appb-img-000064
도 높지만,
Figure PCTKR2022016830-appb-img-000065
도 높은 것을 확인할 수 있다. 이는 자기 지도적 콘트라스티브 러닝의 성능이 감소된 것을 의미한다. 따라서, 도 19 및 도 20을 살펴본 바와 같이, 위클리 라벨링을 위한 클러스터링 기반 표현 학습 방법을 사용할 때는
Figure PCTKR2022016830-appb-img-000066
Figure PCTKR2022016830-appb-img-000067
을 고려해야 한다.
Referring to FIG. 20 in relation to performing weekly labeling using the hierarchical level of Wordnet data, it can be seen in FIG. 20(a) that increasing the hierarchical level improves performance. And in Figure 20(b), the mutual information between the weak label cluster Z and the downstream label T
Figure PCTKR2022016830-appb-img-000062
It can be seen that is increasing. Also, referring to Figure 20(c),
Figure PCTKR2022016830-appb-img-000063
is maintained at 0 because the coarse level (e.g., intermediate node) is determined by the downstream labels (e.g., leaf nodes in the tree structure) in the tree hierarchy structure. You can check it. At this time, if the created week label (e.g. cluster) Z is set equal to the instance ID,
Figure PCTKR2022016830-appb-img-000064
Although it is high,
Figure PCTKR2022016830-appb-img-000065
You can see that it is also high. This means that the performance of self-supervised contrast learning has been reduced. Therefore, as seen in Figures 19 and 20, when using the clustering-based expression learning method for weekly labeling,
Figure PCTKR2022016830-appb-img-000066
and
Figure PCTKR2022016830-appb-img-000067
must be considered.
또한, 다운스트림 테스크 동작을 통해 얻고자 하는 정답인 레이블T는 목적지만 알 수 있는 정보이기 때문에, 소스에서 Z에 대한 정보를 목적지에게 전달을 하고, Z에 대한 정보를 수신한 목적지에서 상호 정보 및 조건부 엔트로피를 계산할 수 있다. 이에 따라, 소스에서 보조 정보의 종류에 따라 상위 k개의 어트리뷰트 선정과 관련된 k 혹은 데이터의 계층적 레벨
Figure PCTKR2022016830-appb-img-000068
과 같은 파라미터를 선정하여 목적지에서 소스로 전달하는 과정이 필요할 수 있다.
In addition, since the label T, which is the correct answer to be obtained through the downstream task operation, is information that only the destination can know, the source transmits information about Z to the destination, and the destination that receives the information about Z provides mutual information and Conditional entropy can be calculated. Accordingly, depending on the type of auxiliary information in the source, k or hierarchical level of data related to selection of top k attributes
Figure PCTKR2022016830-appb-img-000068
It may be necessary to select parameters such as and transfer them from the destination to the source.
한편, 학습에 사용되는 부정적 샘플을 생성하는 방법은 학습 성능에 큰 영향을 미친다. 하드 네거티브(hard negative)는 유사한 데이터지만 비유사한 데이터로 예측되는 샘플이다. 목적지가 배경지식을 이용하여 추출한 하드 네거티브 샘플을 전달된 샘플들과 함께 학습할수록 시멘틱 통신 시스템의 성능이 향상될 수 있다.Meanwhile, the method of generating negative samples used for learning has a significant impact on learning performance. A hard negative is a sample that has similar data but is predicted to be dissimilar data. The performance of the semantic communication system can be improved as the destination learns hard negative samples extracted using background knowledge together with the delivered samples.
또한, 목적지는 소스에서 전달한 데이터에 대한 표현 정보뿐만 아니라 위크 레이블 정보(예: 클러스터 정보)를 배경지식 업데이트에 사용하여, 다운스트림 테스크 동작과 관련하여 배경지식을 이용하여 추론(reasoning)을 수행할 수 있다. 소스가 표현과 위크 레이블 정보를 목적지에게 전달함으로써, 목적지는 샘플들을 네거티브 샘플들 또는 포지티브 샘플들로 결정하는 과정에서, 패스(path)(예: 도 11의 패스)를 통해 결정된 포지티브 샘플과 동일한 위크 레이블을 갖는 샘플을 포지티브 샘플로 결정할 수 있다. 이에 따라, 포지티브 샘플로 결정되는 샘플들의 수가 증가하므로, 네거티브 샘플로 결정되는 샘플들의 수는 감소될 수 있다.하기 표 6은 배치 사이즈가 6144이고, 에폭(epoch)이 350인 경우에 13개의 샘플들이 존재할 때, 포지티브 샘플 개수에 따른 top-1 accuracy를 나타낸다. 하기 표 6에서 확인할 수 있듯이 포지티브 샘플들의 개수를 늘렸을 때, top-1 accuracy에 대한 이점이 있는 것을 알 수 있다. 표 6에서 포지티브 샘플의 개수가 1인 경우는 포지티브 샘플이 동일한 샘플의 어그멘테이션된 버전(augmented version)인 자기 지도적 접근 방법이다.In addition, the destination uses not only the representation information for the data delivered from the source but also weak label information (e.g., cluster information) to update background knowledge, and can perform reasoning using background knowledge in relation to downstream task operations. You can. As the source passes expression and weak label information to the destination, the destination determines the samples to be negative samples or positive samples by passing a path (e.g., the path in FIG. 11) to the same weak sample as the determined positive sample. A sample with a label can be determined as a positive sample. Accordingly, since the number of samples determined as positive samples increases, the number of samples determined as negative samples can be reduced. Table 6 below shows 13 samples when the batch size is 6144 and the epoch is 350. When present, it indicates top-1 accuracy according to the number of positive samples. As can be seen in Table 6 below, when the number of positive samples is increased, there is an advantage in top-1 accuracy. In Table 6, when the number of positive samples is 1, it is a self-supervised approach in which the positive sample is an augmented version of the same sample.
1One 33 55 77 99 No cap(13)No cap(13)
69.369.3 76.676.6 78.078.0 78.478.4 78.378.3 78.578.5
즉, 소스 및 목적지는 포지티브/네거티브 샘플들 및 위크 레이블(예: 클러스터 정보)를 보유한 배경지식에 반영함으로써 배경지식을 업데이트할 수 있다. 이와 같이, 소스로부터 목적지에게 전달된 데이터에 포함된 배경지식이 목적지의 배경지식에 반영됨으로써, 소스 및 목적지는 배경지식을 공유할 수 있다.That is, the source and destination can update the background knowledge by reflecting positive/negative samples and weak labels (e.g., cluster information) in the background knowledge. In this way, the background knowledge included in the data transmitted from the source to the destination is reflected in the background knowledge of the destination, so that the source and destination can share background knowledge.
도 11에서 살펴본 사전학습이 완료되면, 목적지에서 다운스트림 테스크를 수행하기 위한 학습이 수행될 수 있으며, 학습이 완료되면 인퍼런스가 수행될 수 있다. 이때, 소스 및 목적지는 라벨링된 데이터를 일부 보유하는 것으로 가정한다. 도 21은 본 개시의 일 실시예에 따른 다운스트림 테스크에 따른 학습을 수행하기 위한 프레임워크의 예를 도시한다. 도 21에서 음영으로 표시된 부분은 다운스트림 테스크에 따른 학습 및 인퍼런스 동작 시 사용되지 않을 수 있다.When the pre-learning shown in FIG. 11 is completed, learning to perform a downstream task at the destination can be performed, and when learning is completed, inference can be performed. At this time, it is assumed that the source and destination hold some labeled data. Figure 21 shows an example of a framework for performing learning according to a downstream task according to an embodiment of the present disclosure. The shaded portion in FIG. 21 may not be used during learning and inference operations according to downstream tasks.
도 21을 참고하면, 목적지(2120)는 목적지(2120)에 위치한 다운스트림 테스크의 동작을 위한 학습(이하 '다운스트림 테스크를 위한 학습')을 수행한다. 일 예로, 목적지(2120)는 다운스트림 테스크를 위한 학습을 수행하는데 사용되는 레이어들(2140)(이하 '다운스트림 테스크 학습 레이어들')을 결정할 수 있다. 다운스트림 테스크 학습 레이어들(2140)은 사전학습(예: 도 11의 사전학습 동작) 시 사용된 트랜스폼 헤드((예: 도 11의 트랜스폼 헤드(1150), 도 21의 트랜스폼 헤드(2170))의 첫번째 레이어(2160) 및 다운스트림 테스크의 목적에 맞는 추가적인 리니어 레이어들을 포함할 수 있다.Referring to FIG. 21, the destination 2120 performs learning for the operation of the downstream task located at the destination 2120 (hereinafter referred to as 'learning for the downstream task'). As an example, the destination 2120 may determine the layers 2140 (hereinafter referred to as “downstream task learning layers”) used to perform learning for a downstream task. The downstream task learning layers 2140 are transform heads (e.g., transform head 1150 in FIG. 11, transform head 2170 in FIG. 21) used during pre-learning (e.g., pre-learning operation in FIG. 11). )) may include the first layer 2160 and additional linear layers suitable for the purpose of downstream tasks.
한편, 다운스트림 테스크를 위한 학습 시 사용되는 패스(path)의 수에 따라, 한 개 또는 두 개의 인코딩 결과(2180, 2182)들이 목적지(2120)에게 전송될 수 있다. 만약 두 개의 인코딩 결과들(2180, 2182)이 목적지(2120)에게 전달된다면, 하기와 같은 추가 동작(2130)이 수행될 수 있다.Meanwhile, depending on the number of paths used when learning for a downstream task, one or two encoding results (2180, 2182) may be transmitted to the destination (2120). If the two encoding results 2180 and 2182 are delivered to the destination 2120, an additional operation 2130 as follows can be performed.
일 예로, 다운스트림 테스크를 위한 학습에 두 개의 패스들에서 수행된 인코딩 결과들(2180, 2182)이 모두 사용되는 경우, 소스(2110)는 두 개의 패스들을 모두 사용하여 두 개의 인코딩 결과들(2180, 2182)을 목적지(2120)에게 전송할 수 있다. 두 개의 인코딩 결과들(2180, 2182)을 수신한 목적지(2120)는 추가 동작(2130)을 통해 두 개의 인코딩 결과들(2180, 2182)을 하나의 결과로 변환하는 동작을 수행할 수 있다. 이 때, 합(sum), 평균(average), 연쇄(concatenation) 등의 다양한 함수 중 하나가 사용될 수 있다. 해당 동작은 뉴럴 네트워크를 통해 학습될 수 있다. 다른 일 예로, 다운스트림 테스크를 위한 학습에 하나의 패스만이 사용되는 경우, 소스(2110)는 하나의 패스만을 선택하여 수행한 하나의 인코딩 결과(2180 또는 2182)를 목적지에게 전송할 수 있다. 이때, 목적지(2120)는 추가 동작(2130)을 수행하지 않을 수 있다.As an example, when all of the encoding results 2180 and 2182 performed in two passes are used for learning for a downstream task, the source 2110 uses both passes to produce the two encoding results 2180 , 2182) can be transmitted to the destination 2120. The destination 2120, which has received the two encoding results 2180 and 2182, may perform an additional operation 2130 to convert the two encoding results 2180 and 2182 into one result. At this time, one of various functions such as sum, average, and concatenation can be used. The corresponding movement can be learned through a neural network. As another example, when only one pass is used for learning for a downstream task, the source 2110 may select only one pass and transmit one encoding result (2180 or 2182) performed to the destination. At this time, the destination 2120 may not perform the additional operation 2130.
다운스트림 테스크 학습 레이어들이 결정되면, 목적지(2120)는 소스(2110)로부터 전달받은 표현(representation)을 다운스트림 테스크 학습 레이어들(2140)을 이용하여 학습할 수 있다. 이때, 목적지(2120)는 사전학습 과정에서 업데이트한 목적지(2120)의 배경지식을 활용하여 소스(2110)가 전달한 의도에 맞는 아웃풋(output)을 추론(reasoning)할 수 있다.Once the downstream task learning layers are determined, the destination 2120 can learn the representation received from the source 2110 using the downstream task learning layers 2140. At this time, the destination 2120 can use the background knowledge of the destination 2120 updated during the pre-learning process to infer an output that matches the intention delivered by the source 2110.
한편, 도 21의 목적지(2120)는 로스 펑션을 이용하여 학습을 수행할 수 있다. 목적지(2120)는 보유하고 있는 라벨링된 데이터(2150)와 다운스트림 테스크 학습 레이어들(2140)로부터 출력된 아웃풋(output)을 이용하여 학습을 수행할 수 있다. 일 예로, 학습은 크로스 엔트로피 로스(cross entropy loss)를 이용하여 수행될 수 있다. 이때, 크로스 엔트로피 로스는 학습을 위해 사용되는 로스 펑션의 일 실시 예일 뿐, 이에 한정되지 않으며, 학습을 위해 다른 로스 펑션(예: 코사인 시밀러리티 로스(cosine similarity loss), 힌지 로스(hinge loss) 등)이 사용될 수 있다. 로스 펑션을 이용한 학습은 목적지에 위치한 다운스트림 테스크의 목적에 따라 수행될 수 있다.Meanwhile, the destination 2120 in FIG. 21 can perform learning using a loss function. The destination 2120 can perform learning using the labeled data 2150 it holds and the output output from the downstream task learning layers 2140. As an example, learning may be performed using cross entropy loss. At this time, the cross entropy loss is only an example of a loss function used for learning, and is not limited to this, and other loss functions (e.g., cosine similarity loss, hinge loss) are used for learning. etc.) can be used. Learning using loss functions can be performed depending on the purpose of the downstream task located at the destination.
일 실시 예에 따라, 사전학습이 완료된 후 목적지(2120)가 파인튜닝(fine-tuning)을 수행하는 경우, 목적지(2120)는 소스(2110)에 위치한 인코더(2180, 2182)의 가중치, 목적지(2120)의 추가 동작을 위한 가중치 및 트랜스폼 헤드(2170)의 첫 번째 레이어에 해당하는 가중치를 이용함으로써 다운스트림 테스크 학습 레이어들(2140)로 구성된 뉴럴 네트워크(neural network)를 포함하는 모든 네트워크에 대해 학습을 수행할 수 있다.According to one embodiment, when the destination 2120 performs fine-tuning after pre-learning is completed, the destination 2120 includes the weights of the encoders 2180 and 2182 located in the source 2110, the destination ( For all networks, including a neural network consisting of downstream task learning layers 2140, by using the weights corresponding to the first layer of the weight and transform head 2170 for the additional operation of 2120) Learning can be done.
다른 실시 예에 따라, 사전학습이 완료된 후, 목적지(2120)가 전이 학습(transfer-learning)을 수행하는 경우, 목적지(2120)는 소스(2110)에 위치한 인코더(2180, 2182)의 가중치 및 목적지(2120)의 추가 동작을 위한 가중치 및 트랜스폼 헤드(2170)의 첫 번째 레이어 해당하는 가중치를 고정시키고, 다운스트림 테스크의 목적에 적합하도록 추가된 뉴럴 네트워크에 대해 학습을 수행할 수 있다.According to another embodiment, after pre-learning is completed, when the destination 2120 performs transfer-learning, the destination 2120 determines the weights of the encoders 2180 and 2182 located in the source 2110 and the destination. The weights corresponding to the first layer of the weight and transform head 2170 for the additional operation of 2120 are fixed, and learning can be performed on the added neural network to suit the purpose of the downstream task.
이때, 인코더(2180, 2182)의 가중치, 목적지(2120)의 추가 동작을 위한 가중치 및 트랜스폼 헤드(2170)의 첫 번째 레이어 해당하는 가중치를 고정시킨다는 것은 특징 추출기(feature extractor)가 고정되는 것일 수 있다. 만약, 다운스트림 테스크 학습 레이어들(2140)이 가중치가 고정된 부분을 제외하고 단순한 리니어 레이어들만을 포함할 경우, 학습을 통한 성능 향상을 위해서는 특징 추출기의 성능이 증대될 필요성이 있으므로, 특징 추출기의 성능을 확인할 수 있다.At this time, fixing the weights of the encoders 2180 and 2182, the weights for the additional operation of the destination 2120, and the weights corresponding to the first layer of the transform head 2170 may mean that the feature extractor is fixed. there is. If the downstream task learning layers 2140 include only simple linear layers excluding the part where the weight is fixed, the performance of the feature extractor needs to be increased to improve performance through learning, so the feature extractor's performance needs to be increased. You can check performance.
이와 같이, 다운스트림 테스크를 위한 학습은 다운스트림 테스크의 목적에 따라 관련 네트워크들을 학습함으로써 수행될 수 있다. 한편, 시멘틱 통신 시스템에서 사전학습 및 다운스트림 테스크를 위한 학습이 완료되면, 모든 학습이 완료된 전체 네트워크에 대한 인퍼런스가 수행될 수 있다. 여기서, 인퍼런스는 테스크 지향적 시멘틱 통신에서 소스(2110)가 전달한 의도를 목적지(2120)가 추론(reasoning) 하는 동작을 의미할 수 있다. 따라서, 도 21의 다운스트림 테스크 학습 레이어들(2140)을 통해 출력된 아웃풋은 인퍼런스를 수행한 결과라고 볼 수 있다. 다운스트림 테스크 수행을 위한 훈련(training) 및 추론 동작을 위해 소스(2310)로부터 전달되는 시멘틱 표현은 소스(2310)와 목적지(2320)의 배경지식에 업데이트될 수 있다.In this way, learning for a downstream task can be performed by learning related networks according to the purpose of the downstream task. Meanwhile, when pre-learning and learning for downstream tasks are completed in a semantic communication system, inference can be performed on the entire network for which all learning has been completed. Here, inference may mean an operation in which the destination 2120 infers the intention conveyed by the source 2110 in task-oriented semantic communication. Therefore, the output output through the downstream task learning layers 2140 of FIG. 21 can be viewed as the result of performing inference. The semantic expression transmitted from the source 2310 for training and inference operations for performing downstream tasks may be updated in the background knowledge of the source 2310 and the destination 2320.
도 22는 본 개시의 일 실시예에 따른 시멘틱 신호 생성 동작 절차의 예를 도시한다.Figure 22 shows an example of a semantic signal generation operation procedure according to an embodiment of the present disclosure.
도 22를 참고하면, S2201 단계에서, 제1 장치는 제2 장치로부터 제1 장치에 대한 능력 정보 요청을 수신한다. S2203 단계에서, 제1 장치는 능력 정보를 제2 장치에게 송신한다. 여기서, 능력 정보는 제1 장치가 시멘틱 통신을 수행할 수 있는지 여부를 판단하기 위해 사용된다. 일 예로, 능력 정보는 제1 장치가 수집하거나, 생성하거나, 처리할 수 있는 로우 데이터의 종류 및 제1 장치의 연산 능력 정보를 포함할 수 있다.Referring to FIG. 22, in step S2201, the first device receives a request for capability information for the first device from the second device. In step S2203, the first device transmits capability information to the second device. Here, the capability information is used to determine whether the first device can perform semantic communication. As an example, the capability information may include the type of raw data that the first device can collect, generate, or process and computing capability information of the first device.
S2205단계에서, 제1 장치의 능력 정보에 기초하여 제1 장치가 시멘틱 통신 능력을 구비했다고 판단된 경우, 제1 장치는 제2 장치로부터 시멘틱 통신 관련 정보를 수신한다. 시멘틱 통신 관련 정보는 시멘틱 소스 코딩을 수행함으로써 시멘틱 통신 신호를 생성하기 위해 사용될 수 있다. 시멘틱 통신 신호는 제1 장치가 제2 장치에게 전달하려는 의미를 포함하는 표현(representation)일 수 있다. 시멘틱 통신 신호는 제2 장치에 의해 제1 장치가 표현을 생성하기 위해 사용한 로우 데이터로 복원(decoding)되지 않고, 다운스트림 테스크 수행을 위해 사용될 수 있다. 시멘틱 통신 신호는 제1 장치 및 제2 장치가 보유하고 있는 공유 정보(예: 배경지식(background knowledge))를 업데이트하는데 사용될 수 있다.In step S2205, when it is determined that the first device has semantic communication capabilities based on the capability information of the first device, the first device receives semantic communication-related information from the second device. Semantic communication-related information can be used to generate a semantic communication signal by performing semantic source coding. A semantic communication signal may be a representation containing the meaning that the first device intends to convey to the second device. The semantic communication signal may be used to perform downstream tasks without being decoded by the second device into the raw data used by the first device to create the representation. Semantic communication signals may be used to update shared information (eg, background knowledge) held by the first and second devices.
일 예로, 시멘틱 통신 신호는 시멘틱 소스 코딩을 위한 사전학습(pre-training)에 사용된 표현, 다운스트림 테스크를 수행하기 위한 학습(training)에 사용된 표현 및 추론(inference)에 사용된 표현 중 적어도 하나를 포함할 수 있다. 사전학습 및 다운스트림 테스크를 위한 학습, 추론은 제1 장치 및 제2 장치에 의해 수행될 수 있다. 일 예로, 시멘틱 통신 관련 정보는 로우 데이터로부터 획득할 데이터의 단위, 위클리 라벨링 수행을 위한 정보, 미니 배치 크기, 배경지식에 기반하여 결정된 어그멘테이션 종류 및 비율, 인코딩 모델의 정보 중 적어도 하나를 포함할 수 있다. 추후, 시멘틱 통신 관련 정보는, 시멘틱 소스 코딩을 위한 사전학습(pre-training)에 사용된 표현, 다운스트림 테스크를 수행하기 위한 학습(training)에 사용된 표현 및 추론(inference)에 사용된 표현을 이용하여 업데이트된 공유 정보에 기초하여 업데이트될 수 있다. 일 예로, 위클리 라벨링 수행을 위한 정보는 보조 정보, 보조 정보 사용 여부, 보조 정보 유형, 보조 정보에 기초하여 라벨링을 수행하는 방법, 위크 레이블 중 적어도 하나를 포함할 수 있다. As an example, the semantic communication signal may include at least one of the expressions used in pre-training for semantic source coding, the expressions used in training to perform downstream tasks, and the expressions used in inference. It can contain one. Pre-learning, learning for downstream tasks, and inference may be performed by the first device and the second device. As an example, semantic communication-related information includes at least one of the units of data to be obtained from raw data, information for performing weekly labeling, mini-batch size, augmentation type and ratio determined based on background knowledge, and information about the encoding model. can do. In the future, information related to semantic communication will include expressions used in pre-training for semantic source coding, expressions used in training to perform downstream tasks, and expressions used in inference. It can be updated based on the updated shared information. As an example, information for performing weekly labeling may include at least one of auxiliary information, whether to use auxiliary information, a type of auxiliary information, a method of performing labeling based on auxiliary information, and a weekly label.
S2207 단계에서, 제1 장치는 상기 시멘틱 통신 관련 정보에 기초하여 시멘틱 통신 신호를 생성할 수 있다. S2209 단계에서, 제1 장치는 생성한 시멘틱 통신 신호 및 위클리 라벨링을 위한 정보를 제2 장치에게 송신할 수 있다. 제2 장치는 시멘틱 통신 신호를 이용하여 신호를 복원하는 절차 없이 다운스트림 테스크를 수행할 수 있다. 또한, 제2 장치는 시멘틱 통신 신호 및 위클리 라벨링을 위한 정보에 기초하여 제1 장치의 배경지식 정보를 획득하고, 제2 장치가 보유하고 있는 배경지식을 업데이트할 수 있다.In step S2207, the first device may generate a semantic communication signal based on the semantic communication-related information. In step S2209, the first device may transmit the generated semantic communication signal and information for weekly labeling to the second device. The second device can perform a downstream task without a signal restoration procedure using the semantic communication signal. Additionally, the second device may obtain background knowledge information of the first device based on the semantic communication signal and information for weekly labeling, and update the background knowledge held by the second device.
도 22에서, 제1 장치 및 제2 장치 간의 동작을 통해 시멘틱 신호 생성 절차를 서술하였으나, 설명의 편의를 위한 하나의 일 예일 뿐, 상술한 실시 예로 한정되지 않을 수 있다. 즉, 단말 및 기지국 간의 동작, 단말 및 단말 간의 동작(예: D2D 통신) 등 다양한 실시 예에도 활용될 수 있다.In FIG. 22, the semantic signal generation procedure is described through the operation between the first device and the second device, but it is only an example for convenience of explanation and may not be limited to the above-described embodiment. That is, it can be used in various embodiments, such as operations between terminals and base stations and operations between terminals (e.g., D2D communication).
도 23은 본 개시의 일 실시예에 따른 시멘틱 통신의 초기 설정을 위한 신호도의 예를 도시한다.Figure 23 shows an example of a signal diagram for initial setup of semantic communication according to an embodiment of the present disclosure.
도 23을 참고하면, S2301 단계에서, 장치 및 기지국은 동기화를 수행할 수 있다. 일 예로, 장치는 마스터 정보 블록(MIB)을 포함하는 동기 신호 블록(SSB)을 수신할 수 있다. 장치는 SSB에 기초하여 초기 접속을 수행할 수 있다.Referring to FIG. 23, in step S2301, the device and the base station can perform synchronization. As an example, the device may receive a synchronization signal block (SSB) that includes a master information block (MIB). The device may perform initial connection based on SSB.
S2303 단계에서, 기지국은 장치에게 단말 능력 정보를 요청할 수 있다. S2305 단계에서, 장치는 기지국에게 단말 능력 정보를 송신할 수 있다. 단말 능력 정보는 단말이 시멘틱 통신을 수행할 능력이 있는지에 대한 정보이다. 기지국은 시멘틱 통신 수행 여부를 확인하기 위해 단말에게 단말 능력 정보를 요청할 수 있다. 단말 능력 정보는 단말이 생성하거나, 수집하거나, 처리 가능한 로우 데이터의 종류 및 장치의 연산 능력치 등에 대한 정보를 포함할 수 있다.In step S2303, the base station may request terminal capability information from the device. In step S2305, the device may transmit terminal capability information to the base station. Terminal capability information is information about whether the terminal has the ability to perform semantic communication. The base station may request terminal capability information from the terminal to check whether semantic communication is performed. Terminal capability information may include information about the types of raw data that the terminal can generate, collect, or process, and the computing capabilities of the device.
S2307 단계에서, 기지국은 단말 능력 정보에 기초하여 단말이 시멘틱 통신을 수행할 수 있는지 여부를 판단할 수 있다. 이하 S2309 단계 및 S2311단계는 기지국이 단말 능력 정보에 기초하여 단말이 시멘틱 통신을 수행할 수 있다고 판단한 경우 수행될 수 있다.In step S2307, the base station may determine whether the terminal can perform semantic communication based on terminal capability information. Hereinafter, steps S2309 and S2311 may be performed when the base station determines that the terminal can perform semantic communication based on terminal capability information.
S2309 단계에서, 기지국은 장치에게 시멘틱 통신 관련 정보를 송신할 수 있다. S2311 단계에서, 장치는 시멘틱 통신 관련 정보를 저장할 수 있다. 시멘틱 통신 관련 정보는 시멘틱 데이터의 획득 단위, 보조 정보 사용 여부, 보조 정보 종류(예: 이산 어트리뷰트, 계층적 레벨)에 따른 위클리 라벨링 방법(예: 도 13의 k(엔트로피가 높은 순서대로 결정되는 어트리뷰트의 수), 도 14의
Figure PCTKR2022016830-appb-img-000069
(계층적 레벨)), 미니 배치 크기, 도메인 지식에 따른 어그멘테이션 종류 및 어그멘테이션 비율, 인코더 모델에 대한 정보 중 적어도 하나를 포함할 수 있다. 일 예로, 시멘틱 통신 관련 정보는 DCI, MAC(media access control) 또는 RRC(radio resource control) 메시지 중 적어도 하나에 포함되어 송신될 수 있다.
In step S2309, the base station may transmit semantic communication-related information to the device. In step S2311, the device may store semantic communication-related information. Semantic communication-related information includes the acquisition unit of semantic data, whether auxiliary information is used, and a weekly labeling method according to the type of auxiliary information (e.g., discrete attribute, hierarchical level) (e.g., k in Figure 13 (attribute determined in order of high entropy) number), in Figure 14
Figure PCTKR2022016830-appb-img-000069
(hierarchical level)), mini-batch size, augmentation type and augmentation ratio according to domain knowledge, and information about the encoder model. As an example, semantic communication-related information may be transmitted and included in at least one of a DCI, media access control (MAC), or radio resource control (RRC) message.
도 24는 본 개시의 일 실시예에 따른 미니 배치 단위의 정보 교환도의 예를 도시한다. 미니 배치가 N개로 설정되면, 소스에서 2N개의 어그멘테이션 데이터가 생성될 수 있다. 소스의 인코더는 2N개의 어그멘테이션 데이터를 인코딩하여 2N개의 표현을 생성할 수 있다. 이후, 소스는 생성된 2N개의 표현들을 목적지로 송신할 수 있다. 또한, 목적지는 보조 정보 사용 관련 위클리 라벨링을 위한 정보의 변동이 있는 경우, 소스에게 해당 정보들을 송신할 수 있다.Figure 24 shows an example of an information exchange diagram in a mini-batch unit according to an embodiment of the present disclosure. If the mini-batch is set to N, 2N pieces of augmentation data can be generated from the source. The encoder at the source can encode 2N augmentation data to generate 2N representations. Afterwards, the source can transmit the generated 2N representations to the destination. Additionally, if there is a change in information for weekly labeling related to the use of auxiliary information, the destination may transmit the corresponding information to the source.
도 24를 참고하면, S2401단계에서, 소스는 목적지에게 포워드패스(forward-pass)를 위한 정보를 송신할 수 있다. 포워드패스를 위한 정보는 어그멘테이션 데이터에 대해 인코딩한 결과인 표현 벡터 및 위클리 라벨링 정보를 포함할 수 있다.Referring to FIG. 24, in step S2401, the source may transmit information for a forward-pass to the destination. Information for the forward pass may include an expression vector and weekly labeling information that are the result of encoding the augmentation data.
S2403단계에서, 목적지는 소스에게 백워드패스(backward-pass)를 위한 정보를 송신할 수 있다. 백워드패스를 위한 정보는 학습에 사용되는 그래디언트(gradient) 정보를 포함할 수 있다. 이때, 상술한 바와 같이 위클리 라벨링을 위한 정보가 함께 송신될 수 있다. 일 예로, 위클리 라벨링이 수행될 때 이산 어트리뷰트가 사용된 경우, 상위 k개의 어트리뷰트들의 클러스터 설정을 위한 k의 정보를 송신할 수 있다. 다른 일 예로, 위클리 라벨링이 수행될 때 계층적 레벨이 사용된 경우, 레벨(level)-
Figure PCTKR2022016830-appb-img-000070
설정을 위한
Figure PCTKR2022016830-appb-img-000071
정보를 송신할 수 있다.
In step S2403, the destination may transmit information for a backward-pass to the source. Information for the backward pass may include gradient information used for learning. At this time, as described above, information for weekly labeling may be transmitted together. For example, when discrete attributes are used when weekly labeling is performed, k information for setting up a cluster of the top k attributes can be transmitted. As another example, if a hierarchical level is used when weekly labeling is performed, level-
Figure PCTKR2022016830-appb-img-000070
for setting
Figure PCTKR2022016830-appb-img-000071
Information can be transmitted.
도 23 및 도 24에서 설명된 일부 단계들은 상황 또는 설정 등에 따라 생략될 수 있다.Some steps described in FIGS. 23 and 24 may be omitted depending on the situation or settings.
본 개시는 본 개시에서 서술하는 기술적 아이디어 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 개시의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 개시의 등가적 범위 내에서의 모든 변경은 본 개시의 범위에 포함된다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시 예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The present disclosure may be embodied in other specific forms without departing from the technical ideas and essential features described in the present disclosure. Accordingly, the above detailed description should not be construed as restrictive in all respects and should be considered illustrative. The scope of this disclosure should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of this disclosure are included in the scope of this disclosure. In addition, claims that do not have an explicit reference relationship in the patent claims can be combined to form an embodiment or included as a new claim through amendment after filing.
본 개시의 실시 예들은 다양한 무선접속 시스템에 적용될 수 있다. 다양한 무선접속 시스템들의 일례로서, 3GPP(3rd Generation Partnership Project) 또는 3GPP2 시스템 등이 있다. Embodiments of the present disclosure can be applied to various wireless access systems. Examples of various wireless access systems include the 3rd Generation Partnership Project (3GPP) or 3GPP2 system.
본 개시의 실시 예들은 상기 다양한 무선접속 시스템뿐 아니라, 상기 다양한 무선 접속 시스템을 응용한 모든 기술 분야에 적용될 수 있다. 나아가, 제안한 방법은 초고주파 대역을 이용하는 mmWave, THz 통신 시스템에도 적용될 수 있다. Embodiments of the present disclosure can be applied not only to the various wireless access systems, but also to all technical fields that apply the various wireless access systems. Furthermore, the proposed method can also be applied to mmWave and THz communication systems using ultra-high frequency bands.
추가적으로, 본 개시의 실시 예들은 자유 주행 차량, 드론 등 다양한 애플리케이션에도 적용될 수 있다.Additionally, embodiments of the present disclosure can be applied to various applications such as free-running vehicles and drones.

Claims (18)

  1. 무선 통신 시스템에서 제1 장치의 동작 방법에 있어서,In a method of operating a first device in a wireless communication system,
    제2 장치로부터 제1 장치에 대한 능력 정보 요청을 수신하는 단계;Receiving a capability information request for a first device from a second device;
    상기 제1 장치의 능력 정보를 상기 제2 장치에게 송신하는 단계;transmitting capability information of the first device to the second device;
    상기 제1 장치의 능력 정보에 기초하여 상기 제1 장치가 시멘틱 통신(semantic communication) 능력을 구비한 장치인 경우, 상기 제2 장치로부터 시멘틱 통신 관련 정보를 수신하는 단계;If the first device is a device equipped with semantic communication capabilities, receiving semantic communication-related information from the second device based on the capability information of the first device;
    상기 시멘틱 통신 관련 정보에 기초하여 시멘틱 통신 신호를 생성하는 단계; 및generating a semantic communication signal based on the semantic communication-related information; and
    상기 시멘틱 통신 신호 및 위클리 라벨링(weakly labeling) 수행을 위한 정보를 상기 제2 장치에게 송신하는 단계를 포함하되,Including transmitting the semantic communication signal and information for performing weakly labeling to the second device,
    상기 시멘틱 통신 신호는, 공유 정보(shared information) 및 상기 위클리 라벨링 수행을 위한 정보를 이용하여 생성되고,The semantic communication signal is generated using shared information and information for performing the weekly labeling,
    상기 위클리 라벨링은, 상기 공유 정보 및 보조 정보를 이용하여 시멘틱 데이터에 위크 레이블(weak label)을 부여하는 동작이고,The weekly labeling is an operation of assigning a weak label to semantic data using the shared information and auxiliary information,
    상기 공유 정보의 업데이트는, 상기 제2 장치에서 수행되는 다운스트림 테스크(downstream task)의 동작에 기초하여 수행되는, 방법.The method wherein the update of the shared information is performed based on an operation of a downstream task performed in the second device.
  2. 제1 항에 있어서,According to claim 1,
    상기 시멘틱 통신 신호는, 상기 제2 장치에 의해, 제1 장치가 표현을 생성하기 위해 사용한 로우 데이터로 복원(decoding)되지 않고 다운스트림 테스크(downstream task) 수행을 위해 사용되는, 방법.The method of claim 1 , wherein the semantic communication signal is used by the second device to perform a downstream task without being decoded into the raw data used by the first device to create the representation.
  3. 제1 항에 있어서,According to claim 1,
    상기 능력 정보는, 상기 제1 장치가 시멘틱 통신을 수행할 수 있는지 여부를 판단하기 위한 정보로서, 상기 제1 장치가 처리할 수 있는 로우 데이터(raw data)의 종류 및 상기 제1 장치의 연산 능력 정보를 포함하는, 방법.The capability information is information for determining whether the first device can perform semantic communication, and includes the type of raw data that the first device can process and the computational capability of the first device. Containing information, method.
  4. 제1 항에 있어서,According to claim 1,
    상기 시멘틱 통신 관련 정보는, 시멘틱 데이터(semantic data) 획득 단위, 상기 위클리 라벨링 수행을 위한 정보, 미니-배치(mini-batch) 크기, 어그멘테이션 종류 및 어그멘테이션 비율, 인코딩 모델의 구성 정보 중 적어도 하나를 포함하되,The semantic communication-related information includes semantic data acquisition unit, information for performing the weekly labeling, mini-batch size, augmentation type and augmentation ratio, and configuration information of the encoding model. Include at least one
    상기 시멘틱 데이터는, 상기 로우 데이터로부터 추출한 데이터이고,The semantic data is data extracted from the raw data,
    상기 위클리 라벨링 수행을 위한 정보는, 보조 정보를 포함하고,The information for performing the weekly labeling includes auxiliary information,
    상기 획득 단위 및 상기 어그멘테이션 종류 및 어그멘테이션 비율은, 상기 제1장치 및 상기 제2 장치의 공유 정보에 기초하여 결정되는, 방법.The method wherein the acquisition unit and the augmentation type and augmentation ratio are determined based on shared information of the first device and the second device.
  5. 제4 항에 있어서,According to clause 4,
    로우 데이터(raw data)로부터 시멘틱 데이터를 획득하는 단계;Obtaining semantic data from raw data;
    상기 시멘틱 데이터에 대해 위클리 라벨링을 수행하여, 위클리 라벨링된 시멘틱 데이터를 생성하는 단계; 및performing weekly labeling on the semantic data to generate weekly labeled semantic data; and
    상기 위클리 라벨링된 시멘틱 데이터로부터 어그멘테이션(augmentation) 데이터를 생성하는 단계를 더 포함하는, 방법.The method further comprising generating augmentation data from the weekly labeled semantic data.
  6. 제1 항에 있어서,According to claim 1,
    상기 공유 정보 업데이트는, 상기 시멘틱 통신 신호를 변환한 신호를 이용하여 수행되고,The shared information update is performed using a signal converted from the semantic communication signal,
    상기 변환한 신호는, 다운스트림 테스크를 수행하기 위해 사용되는 데이터 형식에 기초하여 생성되는, 방법.The converted signal is generated based on a data format used to perform a downstream task.
  7. 제1 항에 있어서,According to claim 1,
    상기 공유 정보 업데이트는, 트랜스폼 헤드(transform head)를 이용하여 수행되고,The shared information update is performed using a transform head,
    상기 트랜스폼 헤드는, 적어도 하나의 댄스 레이어(dense layer) 및 적어도 하나의 비 선형(non-linear) 함수를 포함하는, 방법.The transform head includes at least one dance layer (dense layer) and at least one non-linear function.
  8. 제1 항에 있어서,According to claim 1,
    상기 공유 정보 업데이트는, 사전학습에 사용된 표현, 다운스트림 테스크를 수행하기 위한 학습에 사용된 표현 및 추론에 사용된 표현 중 적어도 하나를 이용하여 수행되는, 방법The shared information update is performed using at least one of an expression used in pre-learning, an expression used in learning to perform a downstream task, and an expression used in inference.
  9. 제8 항에 있어서,According to clause 8,
    상기 다운스트림 테스크를 위한 학습은, 트랜스폼 헤드(transform head)의 첫 번째 레이어 및 다운스트림 테스크 수행을 위해 결정된 적어도 하나의 레이어에 기초하여 생성되는, 방법.The method wherein learning for the downstream task is generated based on the first layer of the transform head and at least one layer determined for performing the downstream task.
  10. 제8 항에 있어서,According to clause 8,
    상기 다운스트림 테스크를 위한 학습은, Learning for the downstream task is,
    파인튜닝(fine-tuning) 동작 또는 전이 학습(transfer-learning) 동작을 포함하는, 방법.A method comprising a fine-tuning operation or a transfer-learning operation.
  11. 제10 항에 있어서,According to claim 10,
    상기 파인튜닝 동작은, 사전학습이 완료된 후, 인코더의 가중치, 추가 동작에 대한 가중치 및 트랜스폼 헤드의 첫 번째 레이어에 대한 가중치를 이용하여, 다운스트림 테스크에 따라 결정된 뉴럴 네트워크(neural network)를 포함하는 모든 네트워크에 대해 수행되는, 방법.The fine tuning operation includes a neural network determined according to the downstream task, after pre-learning is completed, using the weight of the encoder, the weight for the additional operation, and the weight for the first layer of the transform head. This method is performed for all networks.
  12. 제10 항에 있어서,According to claim 10,
    상기 전이 학습 동작은, 사전학습이 완료된 후, 인코더의 가중치, 추가 동작에 대한 가중치 및 트랜스폼 헤드의 첫 번째 레이어에 대한 가중치가 고정된 상태에서, 다운스트림 테스크에 따라 추가된 MLP(multi-layer perceptron)에 대해 수행되는, 방법.The transfer learning operation is performed after pre-learning is completed, with the weight of the encoder, the weight for the additional operation, and the weight for the first layer of the transform head being fixed, and the MLP (multi-layer perceptron) method.
  13. 제1 항에 있어서,According to claim 1,
    상기 시멘틱 통신 신호는, 시멘틱 통신을 위한 레이어 상에서 송신되는, 방법.The method wherein the semantic communication signal is transmitted on a layer for semantic communication.
  14. 무선 통신 시스템에서 제2 장치의 동작 방법에 있어서,In a method of operating a second device in a wireless communication system,
    제1 장치에게 능력 정보 요청을 송신하는 단계;transmitting a capability information request to a first device;
    상기 제1 장치로부터 능력 정보 수신하는 단계;Receiving capability information from the first device;
    상기 제1 장치의 능력 정보에 기초하여 상기 제1 장치가 시멘틱 통신(semantic communication) 능력을 구비한 장치인 경우, 상기 제1 장치에게 시멘틱 통신 관련 정보를 송신하는 단계; 및If the first device is a device with semantic communication capabilities based on the capability information of the first device, transmitting semantic communication-related information to the first device; and
    상기 제1 장치로부터 상기 시멘틱 통신 관련 정보에 기초하여 생성된 시멘틱 통신 신호 및 위클리 라벨링(weakly labeling) 수행을 위한 정보를 수신하는 단계를 포함하되,Receiving a semantic communication signal generated based on the semantic communication-related information and information for performing weakly labeling from the first device,
    상기 시멘틱 통신 신호는, 공유 정보(share information)및 상기 위클리 라벨링 수행을 위한 정보를 이용하여 생성되고,The semantic communication signal is generated using shared information and information for performing the weekly labeling,
    상기 위클리 라벨링은, 상기 공유 정보 및 보조 정보를 이용하여 시멘틱 데이터에 위크 레이블(weak label)을 부여하는 동작이고,The weekly labeling is an operation of assigning a weak label to semantic data using the shared information and auxiliary information,
    상기 공유 정보의 업데이트는, 상기 제2 장치에서 수행되는 다운스트림 테스크(downstream task)의 동작에 기초하여 수행되는, 방법.The method wherein the update of the shared information is performed based on an operation of a downstream task performed in the second device.
  15. 무선 통신 시스템의 제1 장치에 있어서,In a first device of a wireless communication system,
    송수신기; 및transceiver; and
    상기 송수신기와 연결된 프로세서를 포함하고,Including a processor connected to the transceiver,
    상기 프로세서는,The processor,
    제2 장치로부터 제1 장치에 대한 능력 정보 요청을 수신하고,receive a capability information request for the first device from the second device;
    상기 제1 장치의 능력 정보를 상기 제2 장치에게 송신하고,transmitting capability information of the first device to the second device,
    상기 제1 장치의 능력 정보에 기초하여 상기 제1 장치가 시멘틱 통신(semantic communication) 능력을 구비한 장치인 경우, 상기 제2 장치로부터 시멘틱 통신 관련 정보를 수신하고,If the first device is a device with semantic communication capabilities based on the capability information of the first device, receive semantic communication-related information from the second device,
    상기 시멘틱 통신 관련 정보에 기초하여 시멘틱 통신 신호를 생성하고,Generating a semantic communication signal based on the semantic communication-related information,
    상기 시멘틱 통신 신호 및 위클리 라벨링(weakly labeling) 수행을 위한 정보를 상기 제2 장치에게 송신하도록 제어하되,Controlling to transmit the semantic communication signal and information for performing weakly labeling to the second device,
    상기 시멘틱 통신 신호는, 공유 정보(shared information) 및 상기 위클리 라벨링 수행을 위한 정보를 이용하여 생성되고,The semantic communication signal is generated using shared information and information for performing the weekly labeling,
    상기 위클리 라벨링은, 상기 공유 정보 및 보조 정보를 이용하여 시멘틱 데이터에 위크 레이블(weak label)을 부여하는 동작이고,The weekly labeling is an operation of assigning a weak label to semantic data using the shared information and auxiliary information,
    상기 공유 정보의 업데이트는, 상기 제2 장치에서 수행되는 다운스트림 테스크(downstream task)의 동작에 기초하여 수행되는, 제1 장치.The update of the shared information is performed based on the operation of a downstream task performed in the second device.
  16. 무선 통신 시스템의 제2 장치에 있어서,In a second device of a wireless communication system,
    송수신기; 및transceiver; and
    상기 송수신기와 연결된 프로세서를 포함하고,Including a processor connected to the transceiver,
    상기 프로세서는,The processor,
    제1 장치에게 능력 정보 요청을 송신하고,send a capability information request to the first device;
    상기 제1 장치로부터 능력 정보 수신하고,Receiving capability information from the first device,
    상기 제1 장치의 능력 정보에 기초하여 상기 제1 장치가 시멘틱 통신(semantic communication) 능력을 구비한 장치인 경우, 상기 제1 장치에게 시멘틱 통신 관련 정보를 송신하고,If the first device is a device with semantic communication capabilities based on the capability information of the first device, transmit semantic communication-related information to the first device,
    상기 제1 장치로부터 상기 시멘틱 통신 관련 정보에 기초하여 생성된 시멘틱 통신 신호 및 위클리 라벨링(weakly labeling) 수행을 위한 정보를 수신하도록 제어하되,Controlling to receive a semantic communication signal generated based on the semantic communication-related information and information for performing weakly labeling from the first device,
    상기 시멘틱 통신 신호는, 공유 정보(share information)및 상기 위클리 라벨링 수행을 위한 정보를 이용하여 생성되고,The semantic communication signal is generated using shared information and information for performing the weekly labeling,
    상기 위클리 라벨링은, 상기 공유 정보 및 보조 정보를 이용하여 시멘틱 데이터에 위크 레이블(weak label)을 부여하는 동작이고,The weekly labeling is an operation of assigning a weak label to semantic data using the shared information and auxiliary information,
    상기 공유 정보의 업데이트는, 상기 제2 장치에서 수행되는 다운스트림 테스크(downstream task)의 동작에 기초하여 수행되는, 제2 장치.The update of the shared information is performed based on the operation of a downstream task performed in the second device.
  17. 적어도 하나의 메모리 및 상기 적어도 하나의 메모리들과 기능적으로 연결되어 있는 적어도 하나의 프로세서를 포함하는 제1 장치에 있어서,A first device comprising at least one memory and at least one processor functionally connected to the at least one memory,
    상기 적어도 하나의 프로세서는 상기 제1 장치가,The at least one processor is configured to:
    제2 장치로부터 제1 장치에 대한 능력 정보 요청을 수신하고,receive a capability information request for the first device from the second device;
    상기 제1 장치의 능력 정보를 상기 제2 장치에게 송신하고,transmitting capability information of the first device to the second device,
    상기 제1 장치의 능력 정보에 기초하여 상기 제1 장치가 시멘틱 통신(semantic communication) 능력을 구비한 장치인 경우, 상기 제2 장치로부터 시멘틱 통신 관련 정보를 수신하고,If the first device is a device with semantic communication capabilities based on the capability information of the first device, receive semantic communication-related information from the second device,
    상기 시멘틱 통신 관련 정보에 기초하여 시멘틱 통신 신호를 생성하고,Generating a semantic communication signal based on the semantic communication-related information,
    상기 시멘틱 통신 신호 및 위클리 라벨링(weakly labeling) 수행을 위한 정보를 상기 제2 장치에게 송신하도록 제어하되,Controlling to transmit the semantic communication signal and information for performing weakly labeling to the second device,
    상기 시멘틱 통신 신호는, 공유 정보(shared information) 및 상기 위클리 라벨링 수행을 위한 정보를 이용하여 생성되고,The semantic communication signal is generated using shared information and information for performing the weekly labeling,
    상기 위클리 라벨링은, 상기 공유 정보 및 보조 정보를 이용하여 시멘틱 데이터에 위크 레이블(weak label)을 부여하는 동작이고,The weekly labeling is an operation of assigning a weak label to semantic data using the shared information and auxiliary information,
    상기 공유 정보의 업데이트는, 상기 제2 장치에서 수행되는 다운스트림 테스크(downstream task)의 동작에 기초하여 수행되는, 장치.The update of the shared information is performed based on the operation of a downstream task performed in the second device.
  18. 적어도 하나의 명령어(instructions)을 저장하는 비-일시적인(non-transitory) 컴퓨터 판독 가능 매체(computer-readable medium)에 있어서, A non-transitory computer-readable medium storing at least one instruction, comprising:
    프로세서에 의해 실행 가능한(executable) 상기 적어도 하나의 명령어를 포함하며,Contains the at least one instruction executable by a processor,
    상기 적어도 하나의 명령어는,The at least one command is:
    제2 장치로부터 능력 정보 요청을 수신하고,receive a capability information request from a second device;
    능력 정보를 상기 제2 장치에게 송신하고,transmit capability information to the second device,
    상기 능력 정보에 기초하여 상기 컴퓨터 판독 가능 매체가 시멘틱 통신(semantic communication) 능력을 구비한 매체인 경우, 상기 제2 장치로부터 시멘틱 통신 관련 정보를 수신하고,If the computer-readable medium is a medium with semantic communication capability based on the capability information, receive semantic communication-related information from the second device,
    상기 시멘틱 통신 관련 정보에 기초하여 시멘틱 통신 신호를 생성하고,Generating a semantic communication signal based on the semantic communication-related information,
    상기 시멘틱 통신 신호 및 위클리 라벨링(weakly labeling) 수행을 위한 정보를 상기 제2 장치에게 송신하도록 제어하되,Controlling to transmit the semantic communication signal and information for performing weakly labeling to the second device,
    상기 시멘틱 통신 신호는, 공유 정보(shared information) 및 상기 위클리 라벨링 수행을 위한 정보를 이용하여 생성되고,The semantic communication signal is generated using shared information and information for performing the weekly labeling,
    상기 위클리 라벨링은, 상기 공유 정보 및 보조 정보를 이용하여 시멘틱 데이터에 위크 레이블(weak label)을 부여하는 동작이고,The weekly labeling is an operation of assigning a weak label to semantic data using the shared information and auxiliary information,
    상기 공유 정보의 업데이트는, 상기 제2 장치에서 수행되는 다운스트림 테스크(downstream task)의 동작에 기초하여 수행되는, 컴퓨터 판독 가능 매체.The computer-readable medium wherein the update of the shared information is performed based on an operation of a downstream task performed on the second device.
PCT/KR2022/016830 2022-10-31 2022-10-31 Mobility apparatus and method for generating transmission or reception signal in wireless communication system WO2024096145A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/016830 WO2024096145A1 (en) 2022-10-31 2022-10-31 Mobility apparatus and method for generating transmission or reception signal in wireless communication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/016830 WO2024096145A1 (en) 2022-10-31 2022-10-31 Mobility apparatus and method for generating transmission or reception signal in wireless communication system

Publications (1)

Publication Number Publication Date
WO2024096145A1 true WO2024096145A1 (en) 2024-05-10

Family

ID=90930817

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/016830 WO2024096145A1 (en) 2022-10-31 2022-10-31 Mobility apparatus and method for generating transmission or reception signal in wireless communication system

Country Status (1)

Country Link
WO (1) WO2024096145A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003529137A (en) * 1999-12-14 2003-09-30 デフィニエンス アクチエンゲゼルシャフト How to handle data structures
CN112839382A (en) * 2020-12-30 2021-05-25 北京邮电大学 Video semantic-driven communication and computing resource joint allocation method in Internet of vehicles
CN113705245A (en) * 2021-09-01 2021-11-26 北京邮电大学 Semantic communication method, device, system, computer equipment and storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003529137A (en) * 1999-12-14 2003-09-30 デフィニエンス アクチエンゲゼルシャフト How to handle data structures
CN112839382A (en) * 2020-12-30 2021-05-25 北京邮电大学 Video semantic-driven communication and computing resource joint allocation method in Internet of vehicles
CN113705245A (en) * 2021-09-01 2021-11-26 北京邮电大学 Semantic communication method, device, system, computer equipment and storage medium

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LUO XUEWEN; CHEN HSIAO-HWA; GUO QING: "Semantic Communications: Overview, Open Issues, and Future Research Directions", IEEE WIRELESS COMMUNICATIONS, COORDINATED SCIENCE LABORATORY; DEPT. ELECTRICAL AND COMPUTER ENGINEERING; UNIVERSITY OF ILLINOIS AT URBANA-CHAMPAIGN, US, vol. 29, no. 1, 12 January 2022 (2022-01-12), US , pages 210 - 219, XP011905281, ISSN: 1536-1284, DOI: 10.1109/MWC.101.2100269 *
TONG HAONAN; YANG ZHAOHUI; WANG SIHUA; HU YE; SAAD WALID; YIN CHANGCHUAN: "Federated Learning based Audio Semantic Communication over Wireless Networks", 2021 IEEE GLOBAL COMMUNICATIONS CONFERENCE (GLOBECOM), IEEE, 7 December 2021 (2021-12-07), pages 1 - 6, XP034074753, DOI: 10.1109/GLOBECOM46510.2021.9685654 *

Similar Documents

Publication Publication Date Title
WO2022039295A1 (en) Method for preprocessing downlink in wireless communication system and apparatus therefor
WO2020130262A1 (en) Computing device and operating method therefor
WO2023095932A1 (en) Method, sender, processing device, and storage medium for transmitting data in semantic-based wireless communication system, and method, receiver, and storage medium for receiving data
WO2022250221A1 (en) Method and device for transmitting signal in wireless communication system
WO2024096145A1 (en) Mobility apparatus and method for generating transmission or reception signal in wireless communication system
WO2022050468A1 (en) Method for performing federated learning in wireless communication system, and apparatus therefor
WO2023224430A1 (en) Method and apparatus for on-device personalised analysis using a machine learning model
WO2024034695A1 (en) Apparatus and method for generating transmit and receive signals in wireless communication system
WO2024096151A1 (en) Mobility device and method for generating transmission and reception signal in wireless communication system
WO2022092859A1 (en) Method and device for adjusting split point in wireless communication system
WO2022139230A1 (en) Method and device for adjusting split point in wireless communication system
WO2024048816A1 (en) Device and method for transmitting or receiving signal in wireless communication system
WO2023113282A1 (en) Apparatus and method for performing online learning of transceiver model in wireless communication system
WO2024117296A1 (en) Method and apparatus for transmitting and receiving signals in wireless communication system by using transceiver having adjustable parameters
WO2024122667A1 (en) Apparatus and method for performing training for ensemble model-based receiver in wireless communication system
WO2024019184A1 (en) Apparatus and method for performing training for transceiver model in wireless communication system
WO2023277218A1 (en) Method and device for transmitting signal through reflecting plate in wireless communication system
WO2023033421A1 (en) Device and method for setting polar code-based encoder in wireless communication system
WO2023022251A1 (en) Method and apparatus for transmitting signal in wireless communication system
WO2024038926A1 (en) Device and method for transmitting and receiving signal in wireless communication system
WO2023042937A1 (en) Method and device for transmitting/receiving signal on basis of meta-lens artificial intelligence system in wireless communication system
WO2022071642A1 (en) Method and apparatus for performing channel coding of ue and base station in wireless communication system
WO2023042941A1 (en) Signal transmitting method and apparatus in wireless communication system
WO2023042938A1 (en) Method and device for transmitting signal through reflection plate in wireless communication system
WO2023008596A1 (en) Apparatus and method for performing call service fallback in wireless communication system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22964524

Country of ref document: EP

Kind code of ref document: A1