WO2024048816A1 - Device and method for transmitting or receiving signal in wireless communication system - Google Patents

Device and method for transmitting or receiving signal in wireless communication system Download PDF

Info

Publication number
WO2024048816A1
WO2024048816A1 PCT/KR2022/013085 KR2022013085W WO2024048816A1 WO 2024048816 A1 WO2024048816 A1 WO 2024048816A1 KR 2022013085 W KR2022013085 W KR 2022013085W WO 2024048816 A1 WO2024048816 A1 WO 2024048816A1
Authority
WO
WIPO (PCT)
Prior art keywords
subtask
data
layer
information
task
Prior art date
Application number
PCT/KR2022/013085
Other languages
French (fr)
Korean (ko)
Inventor
전기준
이상림
정익주
이태현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2022/013085 priority Critical patent/WO2024048816A1/en
Publication of WO2024048816A1 publication Critical patent/WO2024048816A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W76/00Connection management
    • H04W76/10Connection setup

Definitions

  • the following description is about a wireless communication system, and relates to an apparatus and method for transmitting and receiving signals in a wireless communication system.
  • a method and device for semantic source coding of signals for transmission and reception in semantic communication can be provided.
  • Wireless access systems are being widely deployed to provide various types of communication services such as voice and data.
  • a wireless access system is a multiple access system that can support communication with multiple users by sharing available system resources (bandwidth, transmission power, etc.).
  • multiple access systems include code division multiple access (CDMA) systems, frequency division multiple access (FDMA) systems, time division multiple access (TDMA) systems, orthogonal frequency division multiple access (OFDMA) systems, and single carrier frequency (SC-FDMA) systems. division multiple access) systems, etc.
  • enhanced mobile broadband (eMBB) communication technology is being proposed compared to the existing radio access technology (RAT).
  • RAT radio access technology
  • a communication system that takes into account reliability and latency-sensitive services/UE (user equipment) as well as mMTC (massive machine type communications), which connects multiple devices and objects to provide a variety of services anytime and anywhere, is being proposed. .
  • mMTC massive machine type communications
  • a method of operating a first device in a wireless communication system includes receiving a synchronization signal from a second device, performing a synchronization procedure with the second device based on the synchronization signal, Establishing a connection, receiving control information and first data from a second device, and performing a task based on the first data, wherein the control information is semantic control information.
  • SCI semantic control information
  • a method of operating a second device in a wireless communication system transmitting a synchronization signal to the first device, a synchronization procedure with the first device based on the synchronization signal Establishing a connection and transmitting control information and first data to a first device, wherein the control information includes semantic control information (SCI), and the first data is a task. ), and the task can be performed through the first data, SCI, and shared information.
  • SCI semantic control information
  • a first device in a wireless communication system includes a transceiver and a processor connected to the transceiver, and the processor receives a synchronization signal from the second device and responds to the synchronization signal. Based on this, a synchronization procedure with the second device is performed to establish a connection, control information and first data are received from the second device, and control is performed to perform a task based on the first data, where the control information is It includes semantic control information (SCI), and the task can be performed through the first data, SCI, and shared information.
  • SCI semantic control information
  • a second device in a wireless communication system includes a transceiver and a processor connected to the transceiver, and the processor transmits a synchronization signal to the first device, based on the synchronization signal.
  • SCI semantic control information
  • 1 data is used to perform a task, and the task can be performed through the first data, SCI, and shared information.
  • the at least one processor receives a synchronization signal from the second device. (synchronization signal), perform a synchronization procedure with the second device based on the synchronization signal to establish a connection, receive control information and first data from the second device, and perform a task ( control to perform a task, the control information includes semantic control information (SCI), and the task can be performed through the first data, SCI, and shared information.
  • synchronization signal synchronization signal
  • control information and first data receive control information and first data from the second device
  • the control information includes semantic control information (SCI)
  • the task can be performed through the first data, SCI, and shared information.
  • SCI semantic control information
  • At least one instruction includes: receiving a synchronization signal from a second device, performing a synchronization procedure with the second device based on the synchronization signal to establish a connection, and receiving a synchronization signal from the second device.
  • Control information and first data are received, and control is performed to perform a task based on the first data, where the control information includes semantic control information (SCI), and the task includes the first data, SCI. and shared information.
  • SCI semantic control information
  • the shared information is background knowledge shared by the first device and the second device based on the semantic layer, and the first data is extracted from the second data for the task based on the semantic layer. It may be extracted feature information.
  • a task is composed of at least one subtask, and first data, which is feature information, is extracted from second data for the task through semantic encoding based on shared information. It can be.
  • concatenated subtask layers are configured based on a task, and shared information is stored in each subtask layer of the concatenated subtask layers. It may include a subtask state transition matrix set indicating relationship information between output states (subtask layer output states).
  • the extracted first data may be composed of feature vectors extracted from consecutive subtask layers.
  • the information on the first subtask layer Through the first subtask state transition matrix, the correlation information between the output state of the second subtask layer, which is the previous subtask layer of the first subtask layer, and the output state of the first subtask layer are confirmed, and the output state of the second subtask layer is confirmed.
  • the first feature vector of the first subtask layer may be extracted based on the second feature vector and the first data set of the first subtask layer.
  • the output state of the second subtask layer and the second feature vector may be determined based on at least one subtask layer located before the second subtask layer.
  • consecutive subtask layers form a concatenation sub-DNN (deep neural network) structure, and each feature vector in each of the consecutive subtask layers through the sub-DNN is can be extracted.
  • DNN deep neural network
  • each of the decoupled subtasks may use a different sub DNN.
  • the task when a task is performed through first data received based on shared information, the task may be performed through semantic decoding in concatenated subtask layers. there is.
  • consecutive subtask layers form a concatenation sub-DNN (deep neural network) structure, and semantic decoding will be performed in each of the contiguous subtask layers through the sub-DNN. You can.
  • concatenation sub-DNN deep neural network
  • Semantic decoding when semantic decoding is performed in a first subtask layer among consecutive subtask layers, semantic decoding output information of the second subtask layer, which is the previous subtask layer of the first subtask layer, Semantic decoding may be performed through the first feature vector received from the first subtask layer.
  • each decoupled subtask may use a different sub DNN.
  • SCI is control information for setting a semantic encoder and a semantic decoder, including a neural network (NN) model selection method, a task type, and the depth of the layer required to perform the corresponding type of task. It may include at least one piece of information about (depth).
  • NN neural network
  • the present disclosure can improve communication performance by performing semantic source coding using background knowledge in a wireless communication system.
  • the present disclosure can provide the advantage of utilizing a small deep neural network (DNN) of an optimal size for each coupled subtask in a wireless communication system.
  • DNN deep neural network
  • FIG. 1 is a diagram showing an example of a communication system applicable to the present disclosure.
  • Figure 2 is a diagram showing an example of a wireless device applicable to the present disclosure.
  • Figure 3 is a diagram showing another example of a wireless device applicable to the present disclosure.
  • Figure 4 is a diagram showing an example of a portable device applicable to the present disclosure.
  • Figure 5 is a diagram showing an example of a vehicle or autonomous vehicle applicable to the present disclosure.
  • Figure 6 is a diagram showing an example of AI (Artificial Intelligence) applicable to the present disclosure.
  • AI Artificial Intelligence
  • Figure 7 is a diagram showing a method of processing a transmission signal applicable to the present disclosure.
  • Figure 8 is a diagram showing an example of a communication structure that can be provided in a 6G system applicable to the present disclosure.
  • Figure 9 is a diagram showing an electromagnetic spectrum applicable to the present disclosure.
  • FIG. 10 is a diagram showing a THz communication method applicable to the present disclosure.
  • Figure 11(a) shows an example of existing communication systems according to an embodiment of the present disclosure.
  • Figure 11(b) shows an example of communication systems according to an embodiment of the present disclosure.
  • Figure 12 shows an example of a protocol stack for semantic communication according to an embodiment of the present disclosure.
  • Figure 13 shows an example of a subtask matrix set according to an embodiment of the present disclosure.
  • Figure 14 shows an example of a semantic encoder and decoder structure based on background knowledge according to an embodiment of the present disclosure.
  • Figure 15 shows an example of a structure of concatenated layers according to an embodiment of the present disclosure.
  • Figure 16 shows an example of a semantic decoder according to an embodiment of the present disclosure.
  • Figure 17 shows an example of a semantic encoding and decoding procedure according to an embodiment of the present disclosure.
  • each component or feature may be considered optional unless explicitly stated otherwise.
  • Each component or feature may be implemented in a form that is not combined with other components or features. Additionally, some components and/or features may be combined to configure an embodiment of the present disclosure. The order of operations described in embodiments of the present disclosure may be changed. Some features or features of one embodiment may be included in another embodiment or may be replaced with corresponding features or features of another embodiment.
  • the base station is meant as a terminal node of the network that directly communicates with the mobile station. Certain operations described in this document as being performed by the base station may, in some cases, be performed by an upper node of the base station.
  • 'base station' is a term such as fixed station, Node B, eNB (eNode B), gNB (gNode B), ng-eNB, advanced base station (ABS), or access point. It can be replaced by .
  • a terminal may include a user equipment (UE), a mobile station (MS), a subscriber station (SS), a mobile subscriber station (MSS), It can be replaced with terms such as mobile terminal or advanced mobile station (AMS).
  • UE user equipment
  • MS mobile station
  • SS subscriber station
  • MSS mobile subscriber station
  • AMS advanced mobile station
  • the transmitting end refers to a fixed and/or mobile node that provides a data service or a voice service
  • the receiving end refers to a fixed and/or mobile node that receives a data service or a voice service. Therefore, in the case of uplink, the mobile station can be the transmitting end and the base station can be the receiving end. Likewise, in the case of downlink, the mobile station can be the receiving end and the base station can be the transmitting end.
  • Embodiments of the present disclosure include wireless access systems such as the IEEE 802.xx system, 3GPP (3rd Generation Partnership Project) system, 3GPP LTE (Long Term Evolution) system, 3GPP 5G (5th generation) NR (New Radio) system, and 3GPP2 system. It may be supported by at least one standard document disclosed in one, and in particular, embodiments of the present disclosure are supported by the 3GPP TS (technical specification) 38.211, 3GPP TS 38.212, 3GPP TS 38.213, 3GPP TS 38.321 and 3GPP TS 38.331 documents. It can be.
  • 3GPP TS technical specification
  • embodiments of the present disclosure can be applied to other wireless access systems and are not limited to the above-described systems. As an example, it may be applicable to systems applied after the 3GPP 5G NR system and is not limited to a specific system.
  • CDMA code division multiple access
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • OFDMA orthogonal frequency division multiple access
  • SC-FDMA single carrier frequency division multiple access
  • LTE is 3GPP TS 36.xxx Release 8 and later.
  • LTE technology after 3GPP TS 36.xxx Release 10 may be referred to as LTE-A
  • LTE technology after 3GPP TS 36.xxx Release 13 may be referred to as LTE-A pro.
  • 3GPP NR may refer to technology after TS 38.xxx Release 15.
  • 3GPP 6G may refer to technology after TS Release 17 and/or Release 18. “xxx” refers to the standard document detail number.
  • LTE/NR/6G can be collectively referred to as a 3GPP system.
  • FIG. 1 is a diagram illustrating an example of a communication system applied to the present disclosure.
  • the communication system 100 applied to the present disclosure includes a wireless device, a base station, and a network.
  • a wireless device refers to a device that performs communication using wireless access technology (e.g., 5G NR, LTE) and may be referred to as a communication/wireless/5G device.
  • wireless devices include robots (100a), vehicles (100b-1, 100b-2), extended reality (XR) devices (100c), hand-held devices (100d), and home appliances (100d).
  • appliance) (100e), IoT (Internet of Thing) device (100f), and AI (artificial intelligence) device/server (100g).
  • vehicles may include vehicles equipped with wireless communication functions, autonomous vehicles, vehicles capable of inter-vehicle communication, etc.
  • the vehicles 100b-1 and 100b-2 may include an unmanned aerial vehicle (UAV) (eg, a drone).
  • UAV unmanned aerial vehicle
  • the XR device 100c includes augmented reality (AR)/virtual reality (VR)/mixed reality (MR) devices, including a head-mounted device (HMD), a head-up display (HUD) installed in a vehicle, a television, It can be implemented in the form of smartphones, computers, wearable devices, home appliances, digital signage, vehicles, robots, etc.
  • the mobile device 100d may include a smartphone, smart pad, wearable device (eg, smart watch, smart glasses), computer (eg, laptop, etc.), etc.
  • Home appliances 100e may include a TV, refrigerator, washing machine, etc.
  • IoT device 100f may include sensors, smart meters, etc.
  • the base station 120 and the network 130 may also be implemented as wireless devices, and a specific wireless device 120a may operate as a base station/network node for other wireless devices.
  • Wireless devices 100a to 100f may be connected to the network 130 through the base station 120.
  • AI technology may be applied to the wireless devices 100a to 100f, and the wireless devices 100a to 100f may be connected to the AI server 100g through the network 130.
  • the network 130 may be configured using a 3G network, 4G (eg, LTE) network, or 5G (eg, NR) network.
  • Wireless devices 100a to 100f may communicate with each other through the base station 120/network 130, but communicate directly (e.g., sidelink communication) without going through the base station 120/network 130. You may.
  • vehicles 100b-1 and 100b-2 may communicate directly (eg, vehicle to vehicle (V2V)/vehicle to everything (V2X) communication).
  • the IoT device 100f eg, sensor
  • the IoT device 100f may communicate directly with other IoT devices (eg, sensor) or other wireless devices 100a to 100f.
  • Wireless communication/connection may be established between the wireless devices (100a to 100f)/base station (120) and the base station (120)/base station (120).
  • wireless communication/connection includes various methods such as uplink/downlink communication (150a), sidelink communication (150b) (or D2D communication), and inter-base station communication (150c) (e.g., relay, integrated access backhaul (IAB)).
  • IAB integrated access backhaul
  • This can be achieved through wireless access technology (e.g. 5G NR).
  • wireless communication/connection 150a, 150b, 150c
  • a wireless device and a base station/wireless device, and a base station and a base station can transmit/receive wireless signals to each other.
  • wireless communication/connection 150a, 150b, and 150c may transmit/receive signals through various physical channels.
  • various configuration information setting processes for transmitting/receiving wireless signals various signal processing processes (e.g., channel encoding/decoding, modulation/demodulation, resource mapping/demapping, etc.) , at least some of the resource allocation process, etc. may be performed.
  • FIG. 2 is a diagram illustrating an example of a wireless device applicable to the present disclosure.
  • the first wireless device 200a and the second wireless device 200b can transmit and receive wireless signals through various wireless access technologies (eg, LTE, NR).
  • ⁇ first wireless device 200a, second wireless device 200b ⁇ refers to ⁇ wireless device 100x, base station 120 ⁇ and/or ⁇ wireless device 100x, wireless device 100x) in FIG. ⁇ can be responded to.
  • the first wireless device 200a includes one or more processors 202a and one or more memories 204a, and may further include one or more transceivers 206a and/or one or more antennas 208a.
  • Processor 202a controls memory 204a and/or transceiver 206a and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein.
  • the processor 202a may process information in the memory 204a to generate first information/signal and then transmit a wireless signal including the first information/signal through the transceiver 206a.
  • the processor 202a may receive a wireless signal including the second information/signal through the transceiver 206a and then store information obtained from signal processing of the second information/signal in the memory 204a.
  • the memory 204a may be connected to the processor 202a and may store various information related to the operation of the processor 202a.
  • memory 204a may perform some or all of the processes controlled by processor 202a or instructions for performing the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein.
  • Software code containing them can be stored.
  • the processor 202a and the memory 204a may be part of a communication modem/circuit/chip designed to implement wireless communication technology (eg, LTE, NR).
  • Transceiver 206a may be coupled to processor 202a and may transmit and/or receive wireless signals via one or more antennas 208a.
  • Transceiver 206a may include a transmitter and/or receiver.
  • the transceiver 206a may be used interchangeably with a radio frequency (RF) unit.
  • RF radio frequency
  • a wireless device may mean a communication modem/circuit/chip.
  • the second wireless device 200b includes one or more processors 202b, one or more memories 204b, and may further include one or more transceivers 206b and/or one or more antennas 208b.
  • Processor 202b controls memory 204b and/or transceiver 206b and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein.
  • the processor 202b may process information in the memory 204b to generate third information/signal and then transmit a wireless signal including the third information/signal through the transceiver 206b.
  • the processor 202b may receive a wireless signal including the fourth information/signal through the transceiver 206b and then store information obtained from signal processing of the fourth information/signal in the memory 204b.
  • the memory 204b may be connected to the processor 202b and may store various information related to the operation of the processor 202b. For example, memory 204b may perform some or all of the processes controlled by processor 202b or instructions for performing the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein. Software code containing them can be stored.
  • the processor 202b and the memory 204b may be part of a communication modem/circuit/chip designed to implement wireless communication technology (eg, LTE, NR).
  • Transceiver 206b may be coupled to processor 202b and may transmit and/or receive wireless signals via one or more antennas 208b.
  • the transceiver 206b may include a transmitter and/or a receiver.
  • the transceiver 206b may be used interchangeably with an RF unit.
  • a wireless device may mean a communication modem/circuit/chip.
  • one or more protocol layers may be implemented by one or more processors 202a and 202b.
  • one or more processors 202a and 202b may operate on one or more layers (e.g., physical (PHY), media access control (MAC), radio link control (RLC), packet data convergence protocol (PDCP), and radio resource (RRC). control) and functional layers such as SDAP (service data adaptation protocol) can be implemented.
  • layers e.g., physical (PHY), media access control (MAC), radio link control (RLC), packet data convergence protocol (PDCP), and radio resource (RRC). control
  • SDAP service data adaptation protocol
  • One or more processors 202a, 202b may generate one or more Protocol Data Units (PDUs) and/or one or more service data units (SDUs) according to the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed in this document. can be created.
  • One or more processors 202a and 202b may generate messages, control information, data or information according to the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document.
  • One or more processors 202a, 202b generate signals (e.g., baseband signals) containing PDUs, SDUs, messages, control information, data, or information according to the functions, procedures, proposals, and/or methods disclosed herein.
  • transceivers 206a, 206b can be provided to one or more transceivers (206a, 206b).
  • One or more processors 202a, 202b may receive signals (e.g., baseband signals) from one or more transceivers 206a, 206b, and the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein.
  • PDU, SDU, message, control information, data or information can be obtained.
  • One or more processors 202a, 202b may be referred to as a controller, microcontroller, microprocessor, or microcomputer.
  • One or more processors 202a and 202b may be implemented by hardware, firmware, software, or a combination thereof.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document may be implemented using firmware or software, and the firmware or software may be implemented to include modules, procedures, functions, etc.
  • Firmware or software configured to perform the descriptions, functions, procedures, suggestions, methods and/or operation flowcharts disclosed in this document may be included in one or more processors 202a and 202b or stored in one or more memories 204a and 204b. It may be driven by the above processors 202a and 202b.
  • the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document may be implemented using firmware or software in the form of codes, instructions and/or sets of instructions.
  • One or more memories 204a and 204b may be connected to one or more processors 202a and 202b and may store various types of data, signals, messages, information, programs, codes, instructions and/or commands.
  • One or more memories 204a, 204b may include read only memory (ROM), random access memory (RAM), erasable programmable read only memory (EPROM), flash memory, hard drives, registers, cache memory, computer readable storage media, and/or It may be composed of a combination of these.
  • One or more memories 204a and 204b may be located internal to and/or external to one or more processors 202a and 202b. Additionally, one or more memories 204a and 204b may be connected to one or more processors 202a and 202b through various technologies, such as wired or wireless connections.
  • One or more transceivers may transmit user data, control information, wireless signals/channels, etc. mentioned in the methods and/or operation flowcharts of this document to one or more other devices.
  • One or more transceivers 206a, 206b may receive user data, control information, wireless signals/channels, etc. referred to in the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein, etc. from one or more other devices. there is.
  • one or more transceivers 206a and 206b may be connected to one or more processors 202a and 202b and may transmit and receive wireless signals.
  • one or more processors 202a, 202b may control one or more transceivers 206a, 206b to transmit user data, control information, or wireless signals to one or more other devices. Additionally, one or more processors 202a and 202b may control one or more transceivers 206a and 206b to receive user data, control information, or wireless signals from one or more other devices. In addition, one or more transceivers (206a, 206b) may be connected to one or more antennas (208a, 208b), and one or more transceivers (206a, 206b) may be connected to the description and functions disclosed in this document through one or more antennas (208a, 208b).
  • one or more antennas may be multiple physical antennas or multiple logical antennas (eg, antenna ports).
  • One or more transceivers (206a, 206b) process the received user data, control information, wireless signals/channels, etc. using one or more processors (202a, 202b), and convert the received wireless signals/channels, etc. from the RF band signal. It can be converted to a baseband signal.
  • One or more transceivers (206a, 206b) may convert user data, control information, wireless signals/channels, etc. processed using one or more processors (202a, 202b) from a baseband signal to an RF band signal.
  • one or more transceivers 206a, 206b may include (analog) oscillators and/or filters.
  • FIG. 3 is a diagram illustrating another example of a wireless device applied to the present disclosure.
  • the wireless device 300 corresponds to the wireless devices 200a and 200b of FIG. 2 and includes various elements, components, units/units, and/or modules. ) can be composed of.
  • the wireless device 300 may include a communication unit 310, a control unit 320, a memory unit 330, and an additional element 340.
  • the communication unit may include communication circuitry 312 and transceiver(s) 314.
  • communication circuitry 312 may include one or more processors 202a and 202b and/or one or more memories 204a and 204b of FIG. 2 .
  • transceiver(s) 314 may include one or more transceivers 206a, 206b and/or one or more antennas 208a, 208b of FIG. 2.
  • the control unit 320 is electrically connected to the communication unit 310, the memory unit 330, and the additional element 340 and controls overall operations of the wireless device.
  • the control unit 320 may control the electrical/mechanical operation of the wireless device based on the program/code/command/information stored in the memory unit 330.
  • the control unit 320 transmits the information stored in the memory unit 330 to the outside (e.g., another communication device) through the communication unit 310 through a wireless/wired interface, or to the outside (e.g., to another communication device) through the communication unit 310.
  • Information received through a wireless/wired interface from another communication device can be stored in the memory unit 330.
  • the additional element 340 may be configured in various ways depending on the type of wireless device.
  • the additional element 340 may include at least one of a power unit/battery, an input/output unit, a driving unit, and a computing unit.
  • the wireless device 300 includes robots (FIG. 1, 100a), vehicles (FIG. 1, 100b-1, 100b-2), XR devices (FIG. 1, 100c), and portable devices (FIG. 1, 100d).
  • FIG. 1, 100e home appliances
  • IoT devices Figure 1, 100f
  • digital broadcasting terminals hologram devices
  • public safety devices MTC devices
  • medical devices fintech devices (or financial devices)
  • security devices climate/ It can be implemented in the form of an environmental device, AI server/device (FIG. 1, 140), base station (FIG. 1, 120), network node, etc.
  • Wireless devices can be mobile or used in fixed locations depending on the usage/service.
  • various elements, components, units/parts, and/or modules within the wireless device 300 may be entirely interconnected through a wired interface, or at least some of them may be wirelessly connected through the communication unit 310.
  • the control unit 320 and the communication unit 310 are connected by wire, and the control unit 320 and the first unit (e.g., 130, 140) are connected wirelessly through the communication unit 310.
  • each element, component, unit/part, and/or module within the wireless device 300 may further include one or more elements.
  • the control unit 320 may be comprised of one or more processor sets.
  • control unit 320 may be composed of a set of a communication control processor, an application processor, an electronic control unit (ECU), a graphics processing processor, and a memory control processor.
  • memory unit 330 may be comprised of RAM, dynamic RAM (DRAM), ROM, flash memory, volatile memory, non-volatile memory, and/or a combination thereof. It can be configured.
  • FIG. 4 is a diagram illustrating an example of a portable device to which the present disclosure is applied.
  • FIG 4 illustrates a portable device to which the present disclosure is applied.
  • Portable devices may include smartphones, smart pads, wearable devices (e.g., smart watches, smart glasses), and portable computers (e.g., laptops, etc.).
  • a mobile device may be referred to as a mobile station (MS), user terminal (UT), mobile subscriber station (MSS), subscriber station (SS), advanced mobile station (AMS), or wireless terminal (WT).
  • MS mobile station
  • UT user terminal
  • MSS mobile subscriber station
  • SS subscriber station
  • AMS advanced mobile station
  • WT wireless terminal
  • the portable device 400 includes an antenna unit 408, a communication unit 410, a control unit 420, a memory unit 430, a power supply unit 440a, an interface unit 440b, and an input/output unit 440c. ) may include.
  • the antenna unit 408 may be configured as part of the communication unit 410.
  • Blocks 410 to 430/440a to 440c correspond to blocks 310 to 330/340 in FIG. 3, respectively.
  • the communication unit 410 can transmit and receive signals (eg, data, control signals, etc.) with other wireless devices and base stations.
  • the control unit 420 can control the components of the portable device 400 to perform various operations.
  • the control unit 420 may include an application processor (AP).
  • the memory unit 430 may store data/parameters/programs/codes/commands necessary for driving the portable device 400. Additionally, the memory unit 430 can store input/output data/information, etc.
  • the power supply unit 440a supplies power to the portable device 400 and may include a wired/wireless charging circuit, a battery, etc.
  • the interface unit 440b may support connection between the mobile device 400 and other external devices.
  • the interface unit 440b may include various ports (eg, audio input/output ports, video input/output ports) for connection to external devices.
  • the input/output unit 440c may input or output image information/signals, audio information/signals, data, and/or information input from the user.
  • the input/output unit 440c may include a camera, a microphone, a user input unit, a display unit 440d, a speaker, and/or a haptic module.
  • the input/output unit 440c acquires information/signals (e.g., touch, text, voice, image, video) input from the user, and the obtained information/signals are stored in the memory unit 430. It can be saved.
  • the communication unit 410 can convert the information/signal stored in the memory into a wireless signal and transmit the converted wireless signal directly to another wireless device or to a base station. Additionally, the communication unit 410 may receive a wireless signal from another wireless device or a base station and then restore the received wireless signal to the original information/signal.
  • the restored information/signal may be stored in the memory unit 430 and then output in various forms (eg, text, voice, image, video, haptic) through the input/output unit 440c.
  • FIG. 5 is a diagram illustrating an example of a vehicle or autonomous vehicle applied to the present disclosure.
  • a vehicle or autonomous vehicle can be implemented as a mobile robot, vehicle, train, aerial vehicle (AV), ship, etc., and is not limited to the form of a vehicle.
  • AV aerial vehicle
  • the vehicle or autonomous vehicle 500 includes an antenna unit 508, a communication unit 510, a control unit 520, a drive unit 540a, a power supply unit 540b, a sensor unit 540c, and an autonomous driving unit. It may include a portion 540d.
  • the antenna unit 550 may be configured as part of the communication unit 510. Blocks 510/530/540a to 540d correspond to blocks 410/430/440 in FIG. 4, respectively.
  • the communication unit 510 may transmit and receive signals (e.g., data, control signals, etc.) with external devices such as other vehicles, base stations (e.g., base stations, road side units, etc.), and servers.
  • the control unit 520 may control elements of the vehicle or autonomous vehicle 500 to perform various operations.
  • the control unit 520 may include an electronic control unit (ECU).
  • ECU electronice control unit
  • FIG. 6 is a diagram showing an example of an AI device applied to the present disclosure.
  • AI devices include fixed devices such as TVs, projectors, smartphones, PCs, laptops, digital broadcasting terminals, tablet PCs, wearable devices, set-top boxes (STBs), radios, washing machines, refrigerators, digital signage, robots, vehicles, etc. It can be implemented as a device or a movable device.
  • the AI device 600 includes a communication unit 610, a control unit 620, a memory unit 630, an input/output unit (640a/640b), a learning processor unit 640c, and a sensor unit 640d. may include. Blocks 610 to 630/640a to 640d may correspond to blocks 310 to 330/340 of FIG. 3, respectively.
  • the communication unit 610 uses wired and wireless communication technology to communicate with wired and wireless signals (e.g., sensor information, user Input, learning model, control signal, etc.) can be transmitted and received. To this end, the communication unit 610 may transmit information in the memory unit 630 to an external device or transmit a signal received from an external device to the memory unit 630.
  • wired and wireless signals e.g., sensor information, user Input, learning model, control signal, etc.
  • the control unit 620 may determine at least one executable operation of the AI device 600 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. And, the control unit 620 can control the components of the AI device 600 to perform the determined operation. For example, the control unit 620 may request, search, receive, or utilize data from the learning processor unit 640c or the memory unit 630, and may select at least one operation that is predicted or determined to be desirable among the executable operations. Components of the AI device 600 can be controlled to execute operations.
  • control unit 620 collects history information including the operation content of the AI device 600 or user feedback on the operation, and stores it in the memory unit 630 or the learning processor unit 640c, or the AI server ( It can be transmitted to an external device such as Figure 1, 140). The collected historical information can be used to update the learning model.
  • the memory unit 630 can store data supporting various functions of the AI device 600.
  • the memory unit 630 may store data obtained from the input unit 640a, data obtained from the communication unit 610, output data from the learning processor unit 640c, and data obtained from the sensing unit 640. Additionally, the memory unit 630 may store control information and/or software codes necessary for operation/execution of the control unit 620.
  • the input unit 640a can obtain various types of data from outside the AI device 600.
  • the input unit 620 may obtain training data for model training and input data to which the learning model will be applied.
  • the input unit 640a may include a camera, microphone, and/or a user input unit.
  • the output unit 640b may generate output related to vision, hearing, or tactile sensation.
  • the output unit 640b may include a display unit, a speaker, and/or a haptic module.
  • the sensing unit 640 may obtain at least one of internal information of the AI device 600, surrounding environment information of the AI device 600, and user information using various sensors.
  • the sensing unit 640 may include a proximity sensor, an illumination sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and/or a radar. there is.
  • the learning processor unit 640c can train a model composed of an artificial neural network using training data.
  • the learning processor unit 640c may perform AI processing together with the learning processor unit of the AI server (FIG. 1, 140).
  • the learning processor unit 640c may process information received from an external device through the communication unit 610 and/or information stored in the memory unit 630. Additionally, the output value of the learning processor unit 640c may be transmitted to an external device through the communication unit 610 and/or stored in the memory unit 630.
  • Figure 7 is a diagram illustrating a method of processing a transmission signal applied to the present disclosure.
  • the transmission signal may be processed by a signal processing circuit.
  • the signal processing circuit 700 may include a scrambler 710, a modulator 720, a layer mapper 730, a precoder 740, a resource mapper 750, and a signal generator 760.
  • the operation/function of FIG. 7 may be performed in the processors 202a and 202b and/or transceivers 206a and 206b of FIG. 2.
  • the hardware elements of FIG. 7 may be implemented in the processors 202a and 202b and/or transceivers 206a and 206b of FIG. 2.
  • blocks 710 to 760 may be implemented in processors 202a and 202b of FIG. 2. Additionally, blocks 710 to 750 may be implemented in the processors 202a and 202b of FIG. 2, and block 760 may be implemented in the transceivers 206a and 206b of FIG. 2, and are not limited to the above-described embodiment.
  • the codeword can be converted into a wireless signal through the signal processing circuit 700 of FIG. 7.
  • a codeword is an encoded bit sequence of an information block.
  • the information block may include a transport block (eg, UL-SCH transport block, DL-SCH transport block).
  • Wireless signals may be transmitted through various physical channels (eg, PUSCH, PDSCH).
  • the codeword may be converted into a scrambled bit sequence by the scrambler 710.
  • the scramble sequence used for scrambling is generated based on an initialization value, and the initialization value may include ID information of the wireless device.
  • the scrambled bit sequence may be modulated into a modulation symbol sequence by the modulator 720.
  • Modulation methods may include pi/2-binary phase shift keying (pi/2-BPSK), m-phase shift keying (m-PSK), and m-quadrature amplitude modulation (m-QAM).
  • the complex modulation symbol sequence may be mapped to one or more transport layers by the layer mapper 730.
  • the modulation symbols of each transport layer may be mapped to corresponding antenna port(s) by the precoder 740 (precoding).
  • the output z of the precoder 740 can be obtained by multiplying the output y of the layer mapper 730 with the precoding matrix W of N*M.
  • N is the number of antenna ports and M is the number of transport layers.
  • the precoder 740 may perform precoding after performing transform precoding (eg, discrete Fourier transform (DFT) transform) on complex modulation symbols. Additionally, the precoder 740 may perform precoding without performing transform precoding.
  • transform precoding eg, discrete Fourier transform (DFT) transform
  • the resource mapper 750 can map the modulation symbols of each antenna port to time-frequency resources.
  • a time-frequency resource may include a plurality of symbols (eg, CP-OFDMA symbol, DFT-s-OFDMA symbol) in the time domain and a plurality of subcarriers in the frequency domain.
  • the signal generator 760 generates a wireless signal from the mapped modulation symbols, and the generated wireless signal can be transmitted to another device through each antenna.
  • the signal generator 760 may include an inverse fast fourier transform (IFFT) module, a cyclic prefix (CP) inserter, a digital-to-analog converter (DAC), a frequency uplink converter, etc. .
  • IFFT inverse fast fourier transform
  • CP cyclic prefix
  • DAC digital-to-analog converter
  • the signal processing process for the received signal in the wireless device may be configured as the reverse of the signal processing process (710 to 760) of FIG. 7.
  • a wireless device eg, 200a and 200b in FIG. 2
  • the received wireless signal can be converted into a baseband signal through a signal restorer.
  • the signal restorer may include a frequency downlink converter, an analog-to-digital converter (ADC), a CP remover, and a fast fourier transform (FFT) module. Thereafter, the baseband signal can be restored to a codeword through a resource de-mapper process, postcoding process, demodulation process, and de-scramble process.
  • ADC analog-to-digital converter
  • FFT fast fourier transform
  • a signal processing circuit for a received signal may include a signal restorer, resource de-mapper, postcoder, demodulator, de-scrambler, and decoder.
  • 6G (wireless communications) systems require (i) very high data rates per device, (ii) very large number of connected devices, (iii) global connectivity, (iv) very low latency, (v) battery- The goal is to reduce the energy consumption of battery-free IoT devices, (vi) ultra-reliable connectivity, and (vii) connected intelligence with machine learning capabilities.
  • the vision of the 6G system can be four aspects such as “intelligent connectivity”, “deep connectivity”, “holographic connectivity”, and “ubiquitous connectivity”, and the 6G system can satisfy the requirements as shown in Table 1 below. In other words, Table 1 is a table showing the requirements of the 6G system.
  • the 6G system includes enhanced mobile broadband (eMBB), ultra-reliable low latency communications (URLLC), massive machine type communications (mMTC), AI integrated communication, and tactile communication.
  • eMBB enhanced mobile broadband
  • URLLC ultra-reliable low latency communications
  • mMTC massive machine type communications
  • AI integrated communication and tactile communication.
  • tactile internet high throughput, high network capacity, high energy efficiency, low backhaul and access network congestion, and improved data security. It can have key factors such as enhanced data security.
  • FIG. 10 is a diagram illustrating an example of a communication structure that can be provided in a 6G system applicable to the present disclosure.
  • the 6G system is expected to have simultaneous wireless communication connectivity 50 times higher than that of the 5G wireless communication system.
  • URLLC a key feature of 5G, is expected to become an even more mainstream technology in 6G communications by providing end-to-end delays of less than 1ms.
  • the 6G system will have much better volume spectrum efficiency, unlike the frequently used area spectrum efficiency.
  • 6G systems can provide very long battery life and advanced battery technologies for energy harvesting, so mobile devices in 6G systems may not need to be separately charged.
  • AI The most important and newly introduced technology in the 6G system is AI.
  • AI was not involved in the 4G system.
  • 5G systems will support partial or very limited AI.
  • 6G systems will be AI-enabled for full automation.
  • Advances in machine learning will create more intelligent networks for real-time communications in 6G.
  • Introducing AI in communications can simplify and improve real-time data transmission.
  • AI can use numerous analytics to determine how complex target tasks are performed. In other words, AI can increase efficiency and reduce processing delays.
  • AI can be performed instantly by using AI.
  • AI can also play an important role in M2M, machine-to-human and human-to-machine communications. Additionally, AI can enable rapid communication in BCI (brain computer interface).
  • BCI brain computer interface
  • AI-based communication systems can be supported by metamaterials, intelligent structures, intelligent networks, intelligent devices, intelligent cognitive radios, self-sustaining wireless networks, and machine learning.
  • AI-based physical layer transmission means applying signal processing and communication mechanisms based on AI drivers, rather than traditional communication frameworks, in terms of fundamental signal processing and communication mechanisms. For example, deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO (multiple input multiple output) mechanism, It may include AI-based resource scheduling and allocation.
  • Machine learning can be used for channel estimation and channel tracking, and can be used for power allocation, interference cancellation, etc. in the physical layer of the DL (downlink). Machine learning can also be used for antenna selection, power control, and symbol detection in MIMO systems.
  • Deep learning-based AI algorithms require a large amount of training data to optimize training parameters.
  • a lot of training data is used offline. This means that static training on training data in a specific channel environment may result in a contradiction between the dynamic characteristics and diversity of the wireless channel.
  • signals of the physical layer of wireless communication are complex signals.
  • more research is needed on neural networks that detect complex domain signals.
  • Machine learning refers to a series of operations that train machines to create machines that can perform tasks that are difficult or difficult for humans to perform.
  • Machine learning requires data and a learning model.
  • data learning methods can be broadly divided into three types: supervised learning, unsupervised learning, and reinforcement learning.
  • Neural network learning is intended to minimize errors in output. Neural network learning repeatedly inputs learning data into the neural network, calculates the output of the neural network and the error of the target for the learning data, and backpropagates the error of the neural network from the output layer of the neural network to the input layer to reduce the error. ) is the process of updating the weight of each node in the neural network.
  • Supervised learning uses training data in which the correct answer is labeled, while unsupervised learning may not have the correct answer labeled in the training data. That is, for example, in the case of supervised learning on data classification, the learning data may be data in which each training data is labeled with a category. Labeled learning data is input to a neural network, and error can be calculated by comparing the output (category) of the neural network with the label of the learning data. The calculated error is backpropagated in the reverse direction (i.e., from the output layer to the input layer) in the neural network, and the connection weight of each node in each layer of the neural network can be updated according to backpropagation. The amount of change in the connection weight of each updated node may be determined according to the learning rate.
  • the neural network's calculation of input data and backpropagation of errors can constitute a learning cycle (epoch).
  • the learning rate may be applied differently depending on the number of repetitions of the learning cycle of the neural network. For example, in the early stages of neural network training, a high learning rate can be used to ensure that the neural network quickly achieves a certain level of performance to increase efficiency, and in the later stages of training, a low learning rate can be used to increase accuracy.
  • Learning methods may vary depending on the characteristics of the data. For example, in a communication system, when the goal is to accurately predict data transmitted from a transmitter at a receiver, it is preferable to perform learning using supervised learning rather than unsupervised learning or reinforcement learning.
  • the learning model corresponds to the human brain, and can be considered the most basic linear model.
  • deep learning is a machine learning paradigm that uses a highly complex neural network structure, such as artificial neural networks, as a learning model. ).
  • Neural network cores used as learning methods are broadly divided into deep neural networks (DNN), convolutional deep neural networks (CNN), and recurrent neural networks (recurrent boltzmann machine). And this learning model can be applied.
  • DNN deep neural networks
  • CNN convolutional deep neural networks
  • recurrent neural networks recurrent boltzmann machine
  • THz communication can be applied in the 6G system.
  • the data transfer rate can be increased by increasing the bandwidth. This can be accomplished by using sub-THz communications with wide bandwidth and applying advanced massive MIMO technology.
  • FIG. 9 is a diagram showing an electromagnetic spectrum applicable to the present disclosure.
  • THz waves also known as submillimeter radiation, typically represent a frequency band between 0.1 THz and 10 THz with a corresponding wavelength in the range of 0.03 mm-3 mm.
  • the 100GHz-300GHz band range (Sub THz band) is considered the main part of the THz band for cellular communications. Adding the Sub-THz band to the mmWave band increases 6G cellular communication capacity.
  • 300GHz-3THz is in the far infrared (IR) frequency band.
  • the 300GHz-3THz band is part of the wideband, but it is at the border of the wideband and immediately behind the RF band. Therefore, this 300 GHz-3 THz band shows similarities to RF.
  • THz communications Key characteristics of THz communications include (i) widely available bandwidth to support very high data rates, (ii) high path loss occurring at high frequencies (highly directional antennas are indispensable).
  • the narrow beamwidth produced by a highly directional antenna reduces interference.
  • the small wavelength of THz signals allows a much larger number of antenna elements to be integrated into devices and BSs operating in this band. This enables the use of advanced adaptive array techniques that can overcome range limitations.
  • THz Terahertz
  • FIG. 10 is a diagram illustrating a THz communication method applicable to the present disclosure.
  • THz waves are located between RF (Radio Frequency)/millimeter (mm) and infrared bands. (i) Compared to visible light/infrared, they penetrate non-metal/non-polarized materials better and have a shorter wavelength than RF/millimeter waves, so they have high straightness. Beam focusing may be possible.
  • Semantic communication is a communication system that efficiently transmits and receives semantic information using common information (e.g., background knowledge) shared between a transmitter and a receiver.
  • Semantic communication a highly efficient communication method that considers the meaning of transmitted data, can transmit and process data in accordance with the exponentially increasing data traffic speed.
  • AI artificial intelligence
  • FIG. 11 shows examples of communication systems according to an embodiment of the present disclosure.
  • existing communication involves decoding the encoded signal received by the destination 1120 from the source 1110 into an existing signal without error.
  • semantic communication focuses on the meaning to be conveyed through signals, such as when people exchange information through the 'meaning' of words when communicating.
  • the core of semantic communication is for the destination to extract the “meaning” of the information transmitted from the source. Semantic information can be successfully “interpreted” based on a consensus knowledge base (KB) 1150 between the source 1130 and the destination.
  • KB consensus knowledge base
  • Semantic communication can be used for online meetings, augmented reality (AR), virtual reality (VR), etc. because it can significantly reduce the energy and wireless resources required to transmit data.
  • DNN deep neural network
  • semantic information theory e.g., definition of semantic entropy, definition of semantic mutual information
  • a loss function metric is defined based on semantic entropy and channel capacity in a broad sense
  • a semantic encoder and decoder are developed using DNN based on the defined metric. Construction studies are in progress.
  • semantic communication focus on extracting features containing the whole data sequence from the embedding vector in terms of semantic encoders.
  • semantic decoder the focus is on outputting output suitable for the task purpose from latent vectors.
  • Semantic encoders can optimally perform compression by extracting features by considering all components of the data.
  • the size of the embedding vector which is the input of the semantic encoder and semantic decoder, becomes large, the size of each DNN model is inevitably large (large-scale model).
  • there is a disadvantage that it is difficult to select the importance of the extracted features or determine which feature in the error occurred among the extracted features.
  • the present disclosure proposes a new semantic source coding method in consideration of the above-mentioned points. Specifically, the present disclosure divides a task into a plurality of subtasks using background knowledge, and uses a semantic layered encoder and decoder ( We propose a semantic source coding method using semantic layered encoder/decoder.
  • FIG. 12 shows an example of a protocol stack for semantic communication according to an embodiment of the present disclosure.
  • the protocol stack of the user data plane there may be a MAC layer, RLC layer, PDCP layer, and SDAP layer above the PHY layer.
  • the MAC layer, RLC layer, PDCP layer, and SDAP layer may be layer 2.
  • the SDAP layer may not exist in an existing wireless communication system (e.g. LTE), but this may not be limited.
  • the semantic layer 1210 may exist above the SDAP layer.
  • the semantic layer 1210 can be used to extract features suitable for the task purpose from original data.
  • the semantic layer 1210 exists above the SDAP layer and can transmit extracted features to the SDAP layer. Afterwards, the extracted features can be transmitted from the transmitting end to the receiving end, and a task can be performed at the receiving end according to the characteristics. In other words, features can be used to perform tasks, and existing data can be processed into a form to convey meaning by utilizing background knowledge through the semantic layer.
  • semantic communication may be a method of inferring meaning through the background knowledge of the transmitting end and the receiving end, and may be a form of communication in which data is processed by extracting features suitable for each task purpose. there is.
  • the settings for semantic inference may be different for each task, and the feature extraction method may be different.
  • the semantic layer 1210 exists above the SDAP layer, but may be configured in relation to each layer within layer 2.
  • the syntax error conditions required for semantic inference may be different for each task. That is, considering semantic inference, the extent to which syntax errors are allowed can be set differently for each task, and HARQ/ARQ feedback settings can be set differently considering the task.
  • the semantic layer 1210 when features are extracted in consideration of performing a specific task in the semantic layer 1210 and transmission is performed by transmitting the processed data (or extracted features) to the lower layer, the semantic layer The operation considering the task of 1210 may be different, and taking this into account, the semantic layer 1210 may be configured in association with the layers in layer 2.
  • the semantic layer 1220 may be combined with layer 2. Specifically, layer merging can be considered based on artificial intelligence (AI).
  • the semantic layer 1220 does not exist as a separate layer, but may be combined with layer 2.
  • the semantic layer 1220 may be combined with each of the layers in layer 2.
  • the semantic layer 1220 can be combined and operated through AI within layer 2, and through this, each layer within layer 2 can perform operations considering semantic communication.
  • the semantic layer may exist in conjunction with or related to the existing protocol stack, and may not be limited to a specific embodiment.
  • feature information is extracted from original data using background knowledge through a semantic encoder at the transmitting end based on the semantic layer and transmitted to the receiving end, and the feature information and background received through the semantic decoder at the receiving end. Describe how the task is performed using knowledge.
  • control information for configuration of semantic encoders and decoders e.g., NN (neural network) model selection method, layer depth information
  • NN neural network
  • the information bottleneck theory is a theory derived from the rate distortion theory.
  • the information bottleneck theory can be expressed as Equation 1 below based on relevant information.
  • Related information is a label or output that corresponds to the purpose of the task.
  • Equation 1 X is the original data signal space, S is the compressed signal (e.g. feature) space, and Y is the relevant information signal space. )am. ⁇ is a language multiplier and has a positive value.
  • the signal S is a compressed latent vector that extracts only the features of related information Y from existing data X. If Equation 1 is reformulated, it becomes Equation 2 below.
  • b) is Kullback-Leibler divergence.
  • Kullback-Leibler divergence refers to how similar the probability distributions a and b are.
  • x) corresponds to the semantic encoder, and p(y
  • a task can be divided into multiple subtasks. It is assumed that the divided subtasks each have a random relationship.
  • a task can be divided into subtasks of different domains, so it can be a multi-layer subtask. Each divided subtask may correspond to one layer.
  • a task can be expressed as a tuple of divided subtasks. Additionally, data and labels related to subtasks can be expressed as tuples.
  • the output (e.g., state) of each subtask layer may have dependency on the outputs of the previous task layer. That is, task layer outputs decoupled from previous task layers pass through the current subtask layer and can be converted into outputs for different subtask layers. In the following, two examples are described to help understand the task.
  • a factory automation situation can be assumed.
  • the task may be deciding ‘what, where, and how’ the robot will do.
  • the task may be ‘what to do, where to do it, and how to do it.’
  • a task can be divided into subtasks called ‘what’, ‘where’ and ‘how’.
  • a task can be expressed as a subtask tuple (A, B, C).
  • A may represent a subtask related to an object
  • B may represent a subtask related to a place
  • C may represent a subtask related to an action.
  • candidate locations may be determined (or separated) depending on the object
  • actions may be determined (or separated) depending on the determined location.
  • the place to cook using the cooking ingredients is determined as the second subtask according to the cooking ingredients determined as the first subtask, and a specific Methods of cooking in a location using the corresponding cooking ingredients can be determined as the third subtask.
  • the task can be partially divided into subtasks that determine the animal's appearance.
  • the subtasks of the corresponding task may be tasks that identify the upper level (eg, head), middle level (eg, torso), and lower level (eg, leg).
  • a task can be expressed as a subtask tuple (A, B, C).
  • A may represent a subtask related to a high-level appearance
  • B may represent a subtask related to a middle-level appearance
  • C may represent a subtask related to a low-level appearance.
  • subtask B determines the differences between mammals and birds (e.g., in the case of mammals, the color/texture characteristics of body fur, In the case of birds, it is possible to infer unique features and perform classification tasks by focusing on the color/texture characteristics of feathers and the shape of wings. Accordingly, data and labels can be decoupled by including feature information based on differences.
  • the transmitting and receiving end shares background knowledge, which is information containing relationship information between subtask layer states, and performs semantic layered encoding and decoding based on the background knowledge. suggests a method. Relationship information between subtask layer states can be expressed as a subtask state transition matrix set (hereinafter referred to as ‘subtask matrix set’) described below.
  • the subtask matrix set can be used as background knowledge and represents the relationship between subtask layers. Equation 3 below expresses the subtask matrix set.
  • Equation 3 is the subtask state transition matrix of the mth layer ( ) (hereinafter referred to as ‘subtask matrix’).
  • row( ) is the index of possible subtask combinations up to the m-1th layers
  • column ( ) means the available state index of the mth subtask. If 1 exists in the row index and column index, it means that switching between the relevant subtask states is possible.
  • the subtask tuple corresponding to the jth row index can be expressed as Equation 4 below.
  • Equation 4 means the subtask output state of the ith layer.
  • the subtask output state of the mth layer can be coupled as shown in Equation 5 below.
  • Equation 5 Is The nth row vector of means a collection set of indices where nonzero elements in vector a are located. Therefore, Equation 5 is an index set of possible outputs from the mth subtask layer. In equation 5, is the output type, is the number of decoupled subsets. At this time, subtasks included in coupling subsets with different subtask output states in the m-1th layer may not be able to transition to the same subtask state in the mth layer.
  • Figure 13 shows an example of a subtask matrix set 1300 according to an embodiment of the present disclosure.
  • the first subtask layer 1310 is , the second subtask layer 1320 is , the third subtask layer 1330 is , the fourth subtask layer 1340 is am.
  • Figure 14 shows an example of a semantic encoder and decoder structure based on background knowledge according to an embodiment of the present disclosure.
  • the entire data space is expressed as X (1410)
  • the label space is expressed as Y (1430)
  • the compressed feature space is expressed as S (1420).
  • the label space may include relevant information.
  • samples included in each space may be partial vector components for each subtask, or may be a concatenation of a partial data sequence and a partial label sequence corresponding to each subtask.
  • the semantic encoder is am. here is the M-domain compressed signal (feature) vector, are variable vectors for data vectors.
  • a domain may be a subtask.
  • the output of the current subtask layer is influenced by the data corresponding to the current subtask layer and the output state sequence of the previously accumulated subtask layers. Since the encoder shares the subtask matrix set as background knowledge, Can be decomposed and approximated as shown in Equation 6 below.
  • Equation 6 when training the semantic encoder, the mth conditional pdf is used. In order to obtain, The probability distribution for and the corresponding input vector set must be secured. Probability distribution and input vector set can be obtained from output samples obtained from DNN and data samples corresponding to conditional pdfs determined in previous subtask layers.
  • Compressed feature vector for the mth subtask layer is the data vector of the current subtask layer and the continuous feature vectors generated from previous subtask layers. It can be explained as a feature vector that is progressively generated by using recursive.
  • the semantic encoder ( ) is divided.
  • a large scale single DNN may be divided into concatenation small scale DNNs.
  • the DNN corresponding to the conditional pdf of each layer can slim the DNN structure by constructing a different DNN structure for each decoupled subtask state set. This can be similarly applied to the decoder stage.
  • Equation 7 indicates that the decoder sequentially performs work corresponding to the subtask for each subtask layer.
  • the encoder or decoder gradually performs tasks corresponding to subtasks.
  • the encoder and decoder generate compressed feature vectors for each mth subtask layer. At this time, when only some of the feature vectors generated in previous subtask layers are needed or when the task output feature vectors of specific subtask layers are used as input due to coupling characteristics, as shown below and Equation 8 It can be expressed.
  • Equation 8 the variable When extracting a partial feature vector from each layer, can be expressed as Equation 9 below.
  • Equation 8 the variable When selecting a feature vector for each layer, it can be expressed as Equation 10 below.
  • Is is a partial vector of .
  • Y is the layer index set used as input for layer m. Additionally, when the subtask for each layer must perform multiple operations (e.g., reconstruction and classification), related information Y is also configured in multiple forms (e.g., existing data and labels).
  • operations e.g., reconstruction and classification
  • related information Y is also configured in multiple forms (e.g., existing data and labels).
  • Figure 15 shows an example of a deep neural network (DNN) structure of a semantic encoder according to an embodiment of the present disclosure.
  • the semantic encoder may include a plurality of layers 1510, 1520, 1530, 1540, and 1550.
  • Each of the layers 1510, 1520, 1530, 1540, and 1550 may include concatenation of DNNs and task states coupled to each layer.
  • the circle model represents the coupled task state.
  • the first circle from the top in layer 4 1540 represents the first coupled task state. means, and the second circle from the top is the coupled task state means, and the third circle from the top is the coupled task state. It can mean.
  • layer 1 (1510) is information about objects
  • layer 2 (1520) and layer 3 (1530) are information about places
  • layer 4 (1540) is information about places.
  • 5 (1550) may correspond to information about action.
  • layer 1 (1510) is the upper part information
  • layer 2 (1520) and layer 3 (1530) are the middle part information
  • layer 4 (1540) and layer 5 (1550) are the lower part information. can be responded to.
  • Figure 16 shows an example of a semantic decoder according to an embodiment of the present disclosure.
  • the semantic encoder of FIG. 16 may be a semantic encoder for the multi-layer task of FIG. 14.
  • Lines 1610 and 1620 depicted in FIG. 16 represent flows of a received feature vector and an estimated relevant information vector, respectively.
  • 16 is the ith l layer This is the parameter corresponding to the DNN.
  • the semantic decoder can generate an embedding input vector by concatenating the relevant information vector obtained from the previous subtask and the feature vector received from the current subtask.
  • the semantic decoder can obtain a relevant information vector for the current circuit layer using the generated embedding input vector.
  • SCI Semantic control information
  • SCI exchange protocol Semantic control information
  • control information is required to generate features including semantic information.
  • a server and an AI device can exchange information about the type of task and the layer depth required to perform that type of task.
  • Table 2 below illustrates the format of semantic control information (SCI).
  • SCI can be used to exchange information about tasks between servers and AI devices. For example, when the connection configuration between the server and the AI device is completed, the AI device or server can report information on the tasks it is currently performing using SCI. The server or AI device may generate feature information by performing semantic layered encoding based on the corresponding SCI information and transmit the generated feature information. The AI device or server can perform task work based on the received characteristic information and task information.
  • Figure 17 shows an example of a semantic encoding and decoding procedure according to an embodiment of the present disclosure.
  • the terminal may receive a synchronization signal from the base station.
  • the terminal may perform a synchronization procedure with the base station based on the synchronization signal.
  • the terminal may receive channel coding-related information through higher layer signaling.
  • control information including data coding information based on channel coding-related information may be received from the base station.
  • the upper layer may be a semantic layer.
  • the semantic layer can be used to extract features suitable for task purposes from existing data. Additionally, control information for semantic communication can be transmitted between the terminal and the base station through the semantic layer.
  • Channel coding-related information may include background knowledge including relationship information between subtask layer states of each subtask layer. Background knowledge may be information shared between the terminal and the base station.
  • subtask layers may be a continuous structure divided into layers to perform tasks. Additionally, each of the subtask layers may include a continuous DNN and states coupled at each layer.
  • step S1709 data may be decoded based on the channel coding-related information and data coding information.
  • Data coding information may be vector information of the subtask layers in a concatenation structure.
  • the terminal can decode data by concatenating the relevant information vector obtained from the subtask and the feature vector received from the current subtask to generate an embedding input vector.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

The present disclosure may provide a method for operating a first device in a wireless communication system. The method for operating a first device may comprise the steps of: receiving a synchronization signal from a second device; performing a synchronization procedure with the second device on the basis of the synchronization signal; receiving channel coding-related information through higher layer signaling; receiving control information including data coding information based on the channel coding-related information from the second device; and decoding data on the basis of the channel coding-related information and data coding information. Here, the channel coding-related information is based on shared information, and the shared information may include background knowledge including relationship information between subtask layer states of each of concatenated subtask layers.

Description

무선 통신 시스템에서 신호를 송수신하기 위한 장치 및 방법Apparatus and method for transmitting and receiving signals in a wireless communication system
이하의 설명은 무선 통신 시스템에 대한 것으로, 무선 통신 시스템에서 신호를 송수신하기 위한 장치 및 방법 관한 것이다.The following description is about a wireless communication system, and relates to an apparatus and method for transmitting and receiving signals in a wireless communication system.
구체적으로, 시멘틱 통신(semantic communication)에서 송수신하기 위한 신호를 시멘틱 소스 코딩하는 방법 및 장치를 제공할 수 있다.Specifically, a method and device for semantic source coding of signals for transmission and reception in semantic communication can be provided.
무선 접속 시스템이 음성이나 데이터 등과 같은 다양한 종류의 통신 서비스를 제공하기 위해 광범위하게 전개되고 있다. 일반적으로 무선 접속 시스템은 가용한 시스템 자원(대역폭, 전송 파워 등)을 공유하여 다중 사용자와의 통신을 지원할 수 있는 다중 접속(multiple access) 시스템이다. 다중 접속 시스템의 예들로는 CDMA(code division multiple access) 시스템, FDMA(frequency division multiple access) 시스템, TDMA(time division multiple access) 시스템, OFDMA(orthogonal frequency division multiple access) 시스템, SC-FDMA(single carrier frequency division multiple access) 시스템 등이 있다.Wireless access systems are being widely deployed to provide various types of communication services such as voice and data. In general, a wireless access system is a multiple access system that can support communication with multiple users by sharing available system resources (bandwidth, transmission power, etc.). Examples of multiple access systems include code division multiple access (CDMA) systems, frequency division multiple access (FDMA) systems, time division multiple access (TDMA) systems, orthogonal frequency division multiple access (OFDMA) systems, and single carrier frequency (SC-FDMA) systems. division multiple access) systems, etc.
특히, 많은 통신 기기들이 큰 통신 용량을 요구하게 됨에 따라 기존 RAT(radio access technology)에 비해 향상된 모바일 브로드밴드(enhanced mobile broadband, eMBB) 통신 기술이 제안되고 있다. 또한 다수의 기기 및 사물들을 연결하여 언제 어디서나 다양한 서비스를 제공하는 mMTC(massive machine type communications) 뿐만 아니라 신뢰성 (reliability) 및 지연(latency) 민감한 서비스/UE(user equipment)를 고려한 통신 시스템이 제안되고 있다. 이를 위한 다양한 기술 구성들이 제안되고 있다.In particular, as many communication devices require large communication capacity, enhanced mobile broadband (eMBB) communication technology is being proposed compared to the existing radio access technology (RAT). In addition, a communication system that takes into account reliability and latency-sensitive services/UE (user equipment) as well as mMTC (massive machine type communications), which connects multiple devices and objects to provide a variety of services anytime and anywhere, is being proposed. . Various technological configurations are being proposed for this purpose.
본 개시의 일 예로서, 무선 통신 시스템에서 제1 장치의 동작 방법에 있어서, 제2 장치로부터 동기 신호(synchronization signal)를 수신하는 단계, 동기 신호에 기초하여 제2 장치와의 동기화 절차를 수행하여 연결을 수립하는 단계, 제2 장치로부터 제어 정보 및 제1 데이터를 수신하는 단계 및 제1 데이터에 기초하여 테스크(task)를 수행하는 단계를 포함하되, 제어 정보는 시멘틱 제어 정보(semantic control information, SCI)를 포함하고, 테스크는 제1 데이터, SCI 및 공유 정보를 통해 수행될 수 있다.As an example of the present disclosure, a method of operating a first device in a wireless communication system includes receiving a synchronization signal from a second device, performing a synchronization procedure with the second device based on the synchronization signal, Establishing a connection, receiving control information and first data from a second device, and performing a task based on the first data, wherein the control information is semantic control information. SCI), and the task may be performed through first data, SCI, and shared information.
또한, 본 개시의 일 예로서, 무선 통신 시스템에서 제2 장치의 동작 방법에 있어서, 제1 장치에게 동기 신호(synchronization signal)를 송신하는 단계, 동기 신호에 기초하여 제1 장치와의 동기화 절차를 수행하여 연결을 수립하는 단계, 제1 장치에게 제어 정보 및 제1 데이터를 송신하는 단계를 포함하되, 제어 정보는 시멘틱 제어 정보(semantic control information, SCI)를 포함하고, 제1 데이터는 테스크(task)를 수행하기 위해 사용되고, 테스크는 제1 데이터, SCI 및 공유 정보를 통해 수행될 수 있다.In addition, as an example of the present disclosure, in a method of operating a second device in a wireless communication system, transmitting a synchronization signal to the first device, a synchronization procedure with the first device based on the synchronization signal Establishing a connection and transmitting control information and first data to a first device, wherein the control information includes semantic control information (SCI), and the first data is a task. ), and the task can be performed through the first data, SCI, and shared information.
또한, 본 개시의 일 예로서, 무선 통신 시스템의 제1 장치에 있어서, 송수신기,및 송수신기와 연결된 프로세서를 포함하고, 프로세서는, 제2 장치로부터 동기 신호(synchronization signal)를 수신하고, 동기 신호에 기초하여 제2 장치와의 동기화 절차를 수행하여 연결을 수립하고, 제 2 장치로부터 제어 정보 및 제 1 데이터를 수신하고, 제 1 데이터에 기초하여 테스크(task)를 수행하도록 제어하되, 제어 정보는 시멘틱 제어 정보(semantic control information, SCI)를 포함하고, 테스크는 제 1 데이터, SCI 및 공유 정보를 통해 수행될 수 있다.Additionally, as an example of the present disclosure, a first device in a wireless communication system includes a transceiver and a processor connected to the transceiver, and the processor receives a synchronization signal from the second device and responds to the synchronization signal. Based on this, a synchronization procedure with the second device is performed to establish a connection, control information and first data are received from the second device, and control is performed to perform a task based on the first data, where the control information is It includes semantic control information (SCI), and the task can be performed through the first data, SCI, and shared information.
또한, 본 개시의 일 예로서, 무선 통신 시스템의 제2 장치에 있어서, 송수신기 및 송수신기와 연결된 프로세서를 포함하고, 프로세서는, 제1 장치에게 동기 신호(synchronization signal)를 송신하고, 동기 신호에 기초하여 제1 장치와의 동기화 절차를 수행하여 연결을 수립하고, 제1 장치에게 제어 정보 및 제1 데이터를 송신하도록 제어하되, 제어 정보는 시멘틱 제어 정보(semantic control information, SCI)를 포함하고, 제1 데이터는 테스크(task)를 수행하기 위해 사용되고, 테스크는 제1 데이터, SCI 및 공유 정보를 통해 수행될 수 있다.In addition, as an example of the present disclosure, a second device in a wireless communication system includes a transceiver and a processor connected to the transceiver, and the processor transmits a synchronization signal to the first device, based on the synchronization signal. Establish a connection by performing a synchronization procedure with the first device, and control to transmit control information and first data to the first device, where the control information includes semantic control information (SCI), and the first device is controlled to transmit control information and first data to the first device. 1 data is used to perform a task, and the task can be performed through the first data, SCI, and shared information.
또한, 본 개시의 일 예로서, 적어도 하나의 메모리 및 적어도 하나의 메모리들과 기능적으로 연결되어 있는 적어도 하나의 프로세서를 포함하는 장치에 있어서, 적어도 하나의 프로세서는 장치가, 제2 장치로부터 동기 신호(synchronization signal)를 수신하고, 동기 신호에 기초하여 제2 장치와의 동기화 절차를 수행하여 연결을 수립하고, 제 2 장치로부터 제어 정보 및 제 1 데이터를 수신하고, 제 1 데이터에 기초하여 테스크(task)를 수행하도록 제어하되, 제어 정보는 시멘틱 제어 정보(semantic control information, SCI)를 포함하고, 테스크는 제 1 데이터, SCI 및 공유 정보를 통해 수행될 수 있다.Additionally, as an example of the present disclosure, in a device including at least one memory and at least one processor functionally connected to the at least one memory, the at least one processor receives a synchronization signal from the second device. (synchronization signal), perform a synchronization procedure with the second device based on the synchronization signal to establish a connection, receive control information and first data from the second device, and perform a task ( control to perform a task, the control information includes semantic control information (SCI), and the task can be performed through the first data, SCI, and shared information.
또한, 본 개시의 일 예로서, 적어도 하나의 명령어(instructions)을 저장하는 비-일시적인(non-transitory) 컴퓨터 판독 가능 매체(computer-readable medium)에 있어서, 프로세서에 의해 실행 가능한(executable) 적어도 하나의 명령어를 포함하며, 적어도 하나의 명령어는, 제2 장치로부터 동기 신호(synchronization signal)를 수신하고, 동기 신호에 기초하여 제2 장치와의 동기화 절차를 수행하여 연결을 수립하고, 제 2 장치로부터 제어 정보 및 제 1 데이터를 수신하고, 제 1 데이터에 기초하여 테스크(task)를 수행하도록 제어하되, 제어 정보는 시멘틱 제어 정보(semantic control information, SCI)를 포함하고, 테스크는 제 1 데이터, SCI 및 공유 정보를 통해 수행될 수 있다.Additionally, as an example of the present disclosure, in a non-transitory computer-readable medium storing at least one instruction, at least one executable by a processor At least one instruction includes: receiving a synchronization signal from a second device, performing a synchronization procedure with the second device based on the synchronization signal to establish a connection, and receiving a synchronization signal from the second device. Control information and first data are received, and control is performed to perform a task based on the first data, where the control information includes semantic control information (SCI), and the task includes the first data, SCI. and shared information.
또한, 다음의 사항들은 공통으로 적용될 수 있다.Additionally, the following matters can be commonly applied.
본 개시의 일 예로서, 공유 정보는 제1 장치와 제2 장치가 시멘틱 레이어에 기초하여 공유하는 배경지식(background knowledge)이고, 제1 데이터는 시멘틱 레이어에 기초하여 테스크를 위한 제2 데이터로부터 추출(extraction)된 특징(feature) 정보일 수 있다.As an example of the present disclosure, the shared information is background knowledge shared by the first device and the second device based on the semantic layer, and the first data is extracted from the second data for the task based on the semantic layer. It may be extracted feature information.
또한, 본 개시의 일 예로서, 테스크는 적어도 하나 이상의 서브테스크로 구성되고, 공유 정보에 기초하여 시멘틱 인코딩을 통해 테스크를 위한 제2 데이터로부터 특징(feature) 정보인 제1 데이터가 추출(extraction)될 수 있다.Additionally, as an example of the present disclosure, a task is composed of at least one subtask, and first data, which is feature information, is extracted from second data for the task through semantic encoding based on shared information. It can be.
또한, 본 개시의 일 예로서, 테스크에 기초하여 연속(concatenation)된 서브테스크 레이어(subtask layer)들이 구성되고, 공유 정보는 연속(concatenation)된 서브테스크 레이어(subtask layer)들 각각의 서브테스크 레이어 아웃풋 상태(subtask layer output state)들 간의 관계 정보를 지시하는 서브테스크 상태 전환 매트릭스 셋(subtask state transition matrix set)을 포함할 수 있다.In addition, as an example of the present disclosure, concatenated subtask layers are configured based on a task, and shared information is stored in each subtask layer of the concatenated subtask layers. It may include a subtask state transition matrix set indicating relationship information between output states (subtask layer output states).
또한, 본 개시의 일 예로서, 추출되는 제1 데이터는 연속된 서브테스크 레이어들에서 추출된 특징 벡터(feature vector)들로 구성될 수 있다.Additionally, as an example of the present disclosure, the extracted first data may be composed of feature vectors extracted from consecutive subtask layers.
또한, 본 개시의 일 예로서, 연속(concatenation)된 서브테스크 레이어(subtask layer)들 중 제1 서브테스크 레이어에서 시멘틱 인코딩에 기초하여 제1 특징 벡터를 추출하는 경우, 제1 서브테스크 레이어에 대한 제1 서브테스크 상태 전환 매트릭스를 통해 제1 서브테스크 레이어의 이전 서브테스크 레이어인 제2 서브테스크 레이어의 아웃풋 상태와 제1 서브테스크 레이어의 아웃풋 상태의 연관 정보를 확인하고, 제2 서브테스크 레이어의 제2 특징 벡터 및 제1 서브테스크 레이어의 제1 데이터 셋에 기초하여 제1 서브테스크 레이어의 제1 특징 벡터를 추출할 수 있다.Additionally, as an example of the present disclosure, when extracting a first feature vector based on semantic encoding in a first subtask layer among concatenated subtask layers, the information on the first subtask layer Through the first subtask state transition matrix, the correlation information between the output state of the second subtask layer, which is the previous subtask layer of the first subtask layer, and the output state of the first subtask layer are confirmed, and the output state of the second subtask layer is confirmed. The first feature vector of the first subtask layer may be extracted based on the second feature vector and the first data set of the first subtask layer.
또한, 본 개시의 일 예로서, 제2 서브테스크 레이어의 아웃풋 상태와 제2 특징 벡터는 제2 서브테스크 레이어 이전에 위치하는 적어도 하나 이상의 서브테스크 레이어들에 기초하여 결정될 수 있다.Additionally, as an example of the present disclosure, the output state of the second subtask layer and the second feature vector may be determined based on at least one subtask layer located before the second subtask layer.
또한, 본 개시의 일 예로서, 연속된 서브테스크 레이어들은 연속된(concatenation) 서브 DNN(deep neural network)) 구조를 형성하고, 서브 DNN을 통해 연속된 서브테스크 레이어들 각각에서 각각의 특징 벡터가 추출될 수 있다.In addition, as an example of the present disclosure, consecutive subtask layers form a concatenation sub-DNN (deep neural network) structure, and each feature vector in each of the consecutive subtask layers through the sub-DNN is can be extracted.
또한, 본 개시의 일 예로서, 연속된 서브테스크 레이어들에서 디커플링(decoupling)된 서브테스크들이 존재하는 경우, 디커플링된 서브테스크들 각각은 상이한 서브 DNN을 사용할 수 있다.Additionally, as an example of the present disclosure, when there are decoupled subtasks in consecutive subtask layers, each of the decoupled subtasks may use a different sub DNN.
또한, 본 개시의 일 예로서, 공유 정보에 기초하여 수신한 제1 데이터를 통해 테스크가 수행되는 경우, 테스크는 연속(concatenation)된 서브테스크 레이어(subtask layer)들에서 시멘틱 디코딩을 통해 수행될 수 있다.Additionally, as an example of the present disclosure, when a task is performed through first data received based on shared information, the task may be performed through semantic decoding in concatenated subtask layers. there is.
또한, 본 개시의 일 예로서, 연속된 서브테스크 레이어들은 연속된(concatenation) 서브 DNN(deep neural network)) 구조를 형성하고, 서브 DNN을 통해 연속된 서브테스크 레이어들 각각에서 시멘틱 디코딩이 수행될 수 있다.Additionally, as an example of the present disclosure, consecutive subtask layers form a concatenation sub-DNN (deep neural network) structure, and semantic decoding will be performed in each of the contiguous subtask layers through the sub-DNN. You can.
또한, 본 개시의 일 예로서, 연속된 서브테스크 레이어들 중 제1 서브테스크 레이어에서 시멘틱 디코딩이 수행되는 경우, 제1 서브테스크 레이어의 이전 서브테스크 레이어인 제2 서브테스크 레이어의 시멘틱 디코딩 아웃풋 정보와 제1 서브테스크 레이어의 수신한 제1 특징 벡터를 통해 시멘틱 디코딩이 수행될 수 있다.Additionally, as an example of the present disclosure, when semantic decoding is performed in a first subtask layer among consecutive subtask layers, semantic decoding output information of the second subtask layer, which is the previous subtask layer of the first subtask layer, Semantic decoding may be performed through the first feature vector received from the first subtask layer.
또한, 본 개시의 일 예로서, 연속된 서브테스크 레이어들에서 디커플링(decoupling)된 서브테스크가 존재하는 경우, 디커플링된 서브테스크 각각은 상이한 서브 DNN을 사용할 수 있다.Additionally, as an example of the present disclosure, when decoupled subtasks exist in consecutive subtask layers, each decoupled subtask may use a different sub DNN.
또한, 본 개시의 일 예로서, SCI는, 시멘틱 인코더 및 시멘틱 디코더의 설정을 위한 제어 정보로서, NN(neural network) 모델 선택 방법, 테스크의 타입 및 해당 타입의 테스크를 수행하기 위해 필요한 레이어의 깊이(depth)에 대한 정보 중 적어도 하나를 포함할 수 있다.In addition, as an example of the present disclosure, SCI is control information for setting a semantic encoder and a semantic decoder, including a neural network (NN) model selection method, a task type, and the depth of the layer required to perform the corresponding type of task. It may include at least one piece of information about (depth).
본 개시에 기초한 실시 예들에 의해 하기와 같은 효과가 있을 수 있다.The following effects may be achieved by embodiments based on the present disclosure.
본 개시는 무선 통신 시스템에서 배경지식(background knowledge)를 이용하여 시멘틱 소스 코딩을 수행함으로써 통신 성능을 향상시킬 수 있다.The present disclosure can improve communication performance by performing semantic source coding using background knowledge in a wireless communication system.
본 개시는 무선 통신 시스템에서 커플링된 서브테스크 별로 최적의 크기의 DNN(small deep neural network)를 활용할 수 있는 장점을 제공할 수 있다.The present disclosure can provide the advantage of utilizing a small deep neural network (DNN) of an optimal size for each coupled subtask in a wireless communication system.
본 개시에서 이루고자 하는 기술적 목적들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 본 개시의 실시 예들로부터 본 개시의 기술 구성이 적용되는 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.The technical objectives sought to be achieved by the present disclosure are not limited to the matters mentioned above, and other technical tasks not mentioned are subject to common knowledge in the technical field to which the technical configuration of the present disclosure is applied from the embodiments of the present disclosure described below. Can be considered by those who have.
이하에 첨부되는 도면들은 본 개시에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 본 개시에 대한 실시 예들을 제공할 수 있다. 다만, 본 개시의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시 예로 구성될 수 있다. 각 도면에서의 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미할 수 있다.The drawings attached below are intended to aid understanding of the present disclosure and may provide embodiments of the present disclosure along with a detailed description. However, the technical features of the present disclosure are not limited to specific drawings, and the features disclosed in each drawing may be combined to form a new embodiment. Reference numerals in each drawing may refer to structural elements.
도 1은 본 개시에 적용 가능한 통신 시스템 예시를 나타낸 도면이다.1 is a diagram showing an example of a communication system applicable to the present disclosure.
도 2는 본 개시에 적용 가능한 무선 기기의 예시를 나타낸 도면이다.Figure 2 is a diagram showing an example of a wireless device applicable to the present disclosure.
도 3은 본 개시에 적용 가능한 무선 기기의 다른 예시를 나타낸 도면이다.Figure 3 is a diagram showing another example of a wireless device applicable to the present disclosure.
도 4는 본 개시에 적용 가능한 휴대 기기의 예시를 나타낸 도면이다.Figure 4 is a diagram showing an example of a portable device applicable to the present disclosure.
도 5는 본 개시에 적용 가능한 차량 또는 자율 주행 차량의 예시를 나타낸 도면이다.Figure 5 is a diagram showing an example of a vehicle or autonomous vehicle applicable to the present disclosure.
도 6은 본 개시에 적용 가능한 AI(Artificial Intelligence)의 예시를 나타낸 도면이다.Figure 6 is a diagram showing an example of AI (Artificial Intelligence) applicable to the present disclosure.
도 7은 본 개시에 적용 가능한 전송 신호를 처리하는 방법을 나타낸 도면이다.Figure 7 is a diagram showing a method of processing a transmission signal applicable to the present disclosure.
도 8은 본 개시에 적용 가능한 6G 시스템에서 제공 가능한 통신 구조의 일례를 나타낸 도면이다.Figure 8 is a diagram showing an example of a communication structure that can be provided in a 6G system applicable to the present disclosure.
도 9는 본 개시에 적용 가능한 전자기 스펙트럼을 나타낸 도면이다.Figure 9 is a diagram showing an electromagnetic spectrum applicable to the present disclosure.
도 10은 본 개시에 적용 가능한 THz 통신 방법을 나타낸 도면이다.Figure 10 is a diagram showing a THz communication method applicable to the present disclosure.
도 11(a)는 본 개시의 일 실시 예에 따른 기존 통신 시스템들의 예를 도시한다.Figure 11(a) shows an example of existing communication systems according to an embodiment of the present disclosure.
도 11(b)는 본 개시의 일 실시 예에 따른 통신 시스템들의 예를 도시한다.Figure 11(b) shows an example of communication systems according to an embodiment of the present disclosure.
도 12는 본 개시의 일 실시예에 따른 시멘틱 통신을 위한 프로토콜 스텍에 대한 예를 도시한다.Figure 12 shows an example of a protocol stack for semantic communication according to an embodiment of the present disclosure.
도 13은 본 개시의 일 실시 예에 따른 서브테스크 매트릭스 셋(subtask matrix set)의 예를 도시한다.Figure 13 shows an example of a subtask matrix set according to an embodiment of the present disclosure.
도 14는 본 개시의 일 실시 예에 따른 배경지식(background knowledge)에 기초한 시멘틱 인코더 및 디코더 구조의 예를 도시한다.Figure 14 shows an example of a semantic encoder and decoder structure based on background knowledge according to an embodiment of the present disclosure.
도 15는 본 개시의 일 실시 예에 따른 연속(concatenation)적인 레이어들의 구조의 예를 도시한다.Figure 15 shows an example of a structure of concatenated layers according to an embodiment of the present disclosure.
도 16은 본 개시의 일 실시 예에 따른 시멘틱 디코더의 예를 도시한다.Figure 16 shows an example of a semantic decoder according to an embodiment of the present disclosure.
도 17은 본 개시의 일 실시 예에 따른 시멘틱 인코딩 및 디코딩 절차의 예를 도시한다.Figure 17 shows an example of a semantic encoding and decoding procedure according to an embodiment of the present disclosure.
이하의 실시 예들은 본 개시의 구성요소들과 특징들을 소정 형태로 결합한 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려될 수 있다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 개시의 실시 예를 구성할 수도 있다. 본 개시의 실시 예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시 예의 일부 구성이나 특징은 다른 실시 예에 포함될 수 있고, 또는 다른 실시 예의 대응하는 구성 또는 특징과 교체될 수 있다.The following embodiments combine the elements and features of the present disclosure in a predetermined form. Each component or feature may be considered optional unless explicitly stated otherwise. Each component or feature may be implemented in a form that is not combined with other components or features. Additionally, some components and/or features may be combined to configure an embodiment of the present disclosure. The order of operations described in embodiments of the present disclosure may be changed. Some features or features of one embodiment may be included in another embodiment or may be replaced with corresponding features or features of another embodiment.
도면에 대한 설명에서, 본 개시의 요지를 흐릴 수 있는 절차 또는 단계 등은 기술하지 않았으며, 당업자의 수준에서 이해할 수 있을 정도의 절차 또는 단계는 또한 기술하지 아니하였다.In the description of the drawings, procedures or steps that may obscure the gist of the present disclosure are not described, and procedures or steps that can be understood by a person skilled in the art are not described.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일(a 또는 an)", "하나(one)", "그(the)" 및 유사 관련어는 본 개시를 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.Throughout the specification, when a part is said to “comprise or include” a certain element, this means that it does not exclude other elements but may further include other elements, unless specifically stated to the contrary. do. In addition, terms such as "... unit", "... unit", and "module" used in the specification refer to a unit that processes at least one function or operation, which refers to hardware, software, or a combination of hardware and software. It can be implemented as: Additionally, the terms “a or an,” “one,” “the,” and similar related terms may be used differently herein in the context of describing the present disclosure (particularly in the context of the claims below). It may be used in both singular and plural terms, unless indicated otherwise or clearly contradicted by context.
본 명세서에서 본 개시의 실시 예들은 기지국과 이동국 간의 데이터 송수신 관계를 중심으로 설명되었다. 여기서, 기지국은 이동국과 직접적으로 통신을 수행하는 네트워크의 종단 노드(terminal node)로서의 의미가 있다. 본 문서에서 기지국에 의해 수행되는 것으로 설명된 특정 동작은 경우에 따라서는 기지국의 상위 노드(upper node)에 의해 수행될 수도 있다.In this specification, embodiments of the present disclosure have been described focusing on the data transmission and reception relationship between the base station and the mobile station. Here, the base station is meant as a terminal node of the network that directly communicates with the mobile station. Certain operations described in this document as being performed by the base station may, in some cases, be performed by an upper node of the base station.
즉, 기지국을 포함하는 다수의 네트워크 노드들(network nodes)로 이루어지는 네트워크에서 이동국과의 통신을 위해 수행되는 다양한 동작들은 기지국 또는 기지국 이외의 다른 네트워크 노드들에 의해 수행될 수 있다. 이때, '기지국'은 고정국(fixed station), Node B, eNB(eNode B), gNB(gNode B), ng-eNB, 발전된 기지국(advanced base station, ABS) 또는 억세스 포인트(access point) 등의 용어에 의해 대체될 수 있다.That is, in a network comprised of a plurality of network nodes including a base station, various operations performed for communication with a mobile station may be performed by the base station or other network nodes other than the base station. At this time, 'base station' is a term such as fixed station, Node B, eNB (eNode B), gNB (gNode B), ng-eNB, advanced base station (ABS), or access point. It can be replaced by .
또한, 본 개시의 실시 예들에서 단말(terminal)은 사용자 기기(user equipment, UE), 이동국(mobile station, MS), 가입자국(subscriber station, SS), 이동 가입자 단말(mobile subscriber station, MSS), 이동 단말(mobile terminal) 또는 발전된 이동 단말(advanced mobile station, AMS) 등의 용어로 대체될 수 있다.Additionally, in embodiments of the present disclosure, a terminal may include a user equipment (UE), a mobile station (MS), a subscriber station (SS), a mobile subscriber station (MSS), It can be replaced with terms such as mobile terminal or advanced mobile station (AMS).
또한, 송신단은 데이터 서비스 또는 음성 서비스를 제공하는 고정 및/또는 이동 노드를 말하고, 수신단은 데이터 서비스 또는 음성 서비스를 수신하는 고정 및/또는 이동 노드를 의미한다. 따라서, 상향링크의 경우, 이동국이 송신단이 되고, 기지국이 수신단이 될 수 있다. 마찬가지로, 하향링크의 경우, 이동국이 수신단이 되고, 기지국이 송신단이 될 수 있다.Additionally, the transmitting end refers to a fixed and/or mobile node that provides a data service or a voice service, and the receiving end refers to a fixed and/or mobile node that receives a data service or a voice service. Therefore, in the case of uplink, the mobile station can be the transmitting end and the base station can be the receiving end. Likewise, in the case of downlink, the mobile station can be the receiving end and the base station can be the transmitting end.
본 개시의 실시 예들은 무선 접속 시스템들인 IEEE 802.xx 시스템, 3GPP(3rd Generation Partnership Project) 시스템, 3GPP LTE(Long Term Evolution) 시스템, 3GPP 5G(5th generation) NR(New Radio) 시스템 및 3GPP2 시스템 중 적어도 하나에 개시된 표준 문서들에 의해 뒷받침될 수 있으며, 특히, 본 개시의 실시 예들은 3GPP TS(technical specification) 38.211, 3GPP TS 38.212, 3GPP TS 38.213, 3GPP TS 38.321 및 3GPP TS 38.331 문서들에 의해 뒷받침될 수 있다. Embodiments of the present disclosure include wireless access systems such as the IEEE 802.xx system, 3GPP (3rd Generation Partnership Project) system, 3GPP LTE (Long Term Evolution) system, 3GPP 5G (5th generation) NR (New Radio) system, and 3GPP2 system. It may be supported by at least one standard document disclosed in one, and in particular, embodiments of the present disclosure are supported by the 3GPP TS (technical specification) 38.211, 3GPP TS 38.212, 3GPP TS 38.213, 3GPP TS 38.321 and 3GPP TS 38.331 documents. It can be.
또한, 본 개시의 실시 예들은 다른 무선 접속 시스템에도 적용될 수 있으며, 상술한 시스템으로 한정되는 것은 아니다. 일 예로, 3GPP 5G NR 시스템 이후에 적용되는 시스템에 대해서도 적용 가능할 수 있으며, 특정 시스템에 한정되지 않는다.Additionally, embodiments of the present disclosure can be applied to other wireless access systems and are not limited to the above-described systems. As an example, it may be applicable to systems applied after the 3GPP 5G NR system and is not limited to a specific system.
즉, 본 개시의 실시 예들 중 설명하지 않은 자명한 단계들 또는 부분들은 상기 문서들을 참조하여 설명될 수 있다. 또한, 본 문서에서 개시하고 있는 모든 용어들은 상기 표준 문서에 의해 설명될 수 있다.That is, obvious steps or parts that are not described among the embodiments of the present disclosure can be explained with reference to the documents. Additionally, all terms disclosed in this document can be explained by the standard document.
이하, 본 개시에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 개시의 예시적인 실시 형태를 설명하고자 하는 것이며, 본 개시의 기술 구성이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다.Hereinafter, preferred embodiments according to the present disclosure will be described in detail with reference to the attached drawings. The detailed description to be disclosed below along with the accompanying drawings is intended to describe exemplary embodiments of the present disclosure, and is not intended to represent the only embodiments in which the technical features of the present disclosure may be practiced.
또한, 본 개시의 실시 예들에서 사용되는 특정 용어들은 본 개시의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 개시의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.In addition, specific terms used in the embodiments of the present disclosure are provided to aid understanding of the present disclosure, and the use of such specific terms may be changed to other forms without departing from the technical spirit of the present disclosure.
이하의 기술은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 접속 시스템에 적용될 수 있다.The following technologies include code division multiple access (CDMA), frequency division multiple access (FDMA), time division multiple access (TDMA), orthogonal frequency division multiple access (OFDMA), and single carrier frequency division multiple access (SC-FDMA). It can be applied to various wireless access systems.
하기에서는 이하 설명을 명확하게 하기 위해, 3GPP 통신 시스템(e.g.(예, LTE, NR 등)을 기반으로 설명하지만 본 발명의 기술적 사상이 이에 제한되는 것은 아니다. LTE는 3GPP TS 36.xxx Release 8 이후의 기술을 의미할 수 있다. 세부적으로, 3GPP TS 36.xxx Release 10 이후의 LTE 기술은 LTE-A로 지칭되고, 3GPP TS 36.xxx Release 13 이후의 LTE 기술은 LTE-A pro로 지칭될 수 있다. 3GPP NR은 TS 38.xxx Release 15 이후의 기술을 의미할 수 있다. 3GPP 6G는 TS Release 17 및/또는 Release 18 이후의 기술을 의미할 수 있다. "xxx"는 표준 문서 세부 번호를 의미한다. LTE/NR/6G는 3GPP 시스템으로 통칭될 수 있다.In the following, for clarity of explanation, the description is based on the 3GPP communication system (e.g., LTE, NR, etc.), but the technical idea of the present invention is not limited thereto. LTE is 3GPP TS 36.xxx Release 8 and later. In detail, LTE technology after 3GPP TS 36.xxx Release 10 may be referred to as LTE-A, and LTE technology after 3GPP TS 36.xxx Release 13 may be referred to as LTE-A pro. 3GPP NR may refer to technology after TS 38.xxx Release 15. 3GPP 6G may refer to technology after TS Release 17 and/or Release 18. “xxx” refers to the standard document detail number. LTE/NR/6G can be collectively referred to as a 3GPP system.
본 개시에 사용된 배경기술, 용어, 약어 등에 관해서는 본 발명 이전에 공개된 표준 문서에 기재된 사항을 참조할 수 있다. 일 예로, 36.xxx 및 38.xxx 표준 문서를 참조할 수 있다.Regarding background technology, terms, abbreviations, etc. used in the present disclosure, reference may be made to matters described in standard documents published prior to the present invention. As an example, you can refer to the 36.xxx and 38.xxx standard documents.
본 개시에 적용 가능한 통신 시스템Communication systems applicable to this disclosure
이로 제한되는 것은 아니지만, 본 문서에 개시된 본 개시의 다양한 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 기기들 간에 무선 통신/연결(예, 5G)을 필요로 하는 다양한 분야에 적용될 수 있다.Although not limited thereto, the various descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts of the present disclosure disclosed in this document can be applied to various fields requiring wireless communication/connection (e.g., 5G) between devices. there is.
이하, 도면을 참조하여 보다 구체적으로 예시한다. 이하의 도면/설명에서 동일한 도면 부호는 다르게 기술하지 않는 한, 동일하거나 대응되는 하드웨어 블록, 소프트웨어 블록 또는 기능 블록을 예시할 수 있다.Hereinafter, a more detailed example will be provided with reference to the drawings. In the following drawings/descriptions, identical reference numerals may illustrate identical or corresponding hardware blocks, software blocks, or functional blocks, unless otherwise noted.
도 1은 본 개시에 적용되는 통신 시스템 예시를 도시한 도면이다.1 is a diagram illustrating an example of a communication system applied to the present disclosure.
도 1을 참조하면, 본 개시에 적용되는 통신 시스템(100)은 무선 기기, 기지국 및 네트워크를 포함한다. 여기서, 무선 기기는 무선 접속 기술(예, 5G NR, LTE)을 이용하여 통신을 수행하는 기기를 의미하며, 통신/무선/5G 기기로 지칭될 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(100a), 차량(100b-1, 100b-2), XR(extended reality) 기기(100c), 휴대 기기(hand-held device)(100d), 가전(home appliance)(100e), IoT(Internet of Thing) 기기(100f), AI(artificial intelligence) 기기/서버(100g)를 포함할 수 있다. 예를 들어, 차량은 무선 통신 기능이 구비된 차량, 자율 주행 차량, 차량간 통신을 수행할 수 있는 차량 등을 포함할 수 있다. 여기서, 차량(100b-1, 100b-2)은 UAV(unmanned aerial vehicle)(예, 드론)를 포함할 수 있다. XR 기기(100c)는 AR(augmented reality)/VR(virtual reality)/MR(mixed reality) 기기를 포함하며, HMD(head-mounted device), 차량에 구비된 HUD(head-up display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 장치, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등의 형태로 구현될 수 있다. 휴대 기기(100d)는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 컴퓨터(예, 노트북 등) 등을 포함할 수 있다. 가전(100e)은 TV, 냉장고, 세탁기 등을 포함할 수 있다. IoT 기기(100f)는 센서, 스마트 미터 등을 포함할 수 있다. 예를 들어, 기지국(120), 네트워크(130)는 무선 기기로도 구현될 수 있으며, 특정 무선 기기(120a)는 다른 무선 기기에게 기지국/네트워크 노드로 동작할 수도 있다.Referring to FIG. 1, the communication system 100 applied to the present disclosure includes a wireless device, a base station, and a network. Here, a wireless device refers to a device that performs communication using wireless access technology (e.g., 5G NR, LTE) and may be referred to as a communication/wireless/5G device. Although not limited thereto, wireless devices include robots (100a), vehicles (100b-1, 100b-2), extended reality (XR) devices (100c), hand-held devices (100d), and home appliances (100d). appliance) (100e), IoT (Internet of Thing) device (100f), and AI (artificial intelligence) device/server (100g). For example, vehicles may include vehicles equipped with wireless communication functions, autonomous vehicles, vehicles capable of inter-vehicle communication, etc. Here, the vehicles 100b-1 and 100b-2 may include an unmanned aerial vehicle (UAV) (eg, a drone). The XR device 100c includes augmented reality (AR)/virtual reality (VR)/mixed reality (MR) devices, including a head-mounted device (HMD), a head-up display (HUD) installed in a vehicle, a television, It can be implemented in the form of smartphones, computers, wearable devices, home appliances, digital signage, vehicles, robots, etc. The mobile device 100d may include a smartphone, smart pad, wearable device (eg, smart watch, smart glasses), computer (eg, laptop, etc.), etc. Home appliances 100e may include a TV, refrigerator, washing machine, etc. IoT device 100f may include sensors, smart meters, etc. For example, the base station 120 and the network 130 may also be implemented as wireless devices, and a specific wireless device 120a may operate as a base station/network node for other wireless devices.
무선 기기(100a~100f)는 기지국(120)을 통해 네트워크(130)와 연결될 수 있다. 무선 기기(100a~100f)에는 AI 기술이 적용될 수 있으며, 무선 기기(100a~100f)는 네트워크(130)를 통해 AI 서버(100g)와 연결될 수 있다. 네트워크(130)는 3G 네트워크, 4G(예, LTE) 네트워크 또는 5G(예, NR) 네트워크 등을 이용하여 구성될 수 있다. 무선 기기(100a~100f)는 기지국(120)/네트워크(130)를 통해 서로 통신할 수도 있지만, 기지국(120)/네트워크(130)를 통하지 않고 직접 통신(예, 사이드링크 통신(sidelink communication))할 수도 있다. 예를 들어, 차량들(100b-1, 100b-2)은 직접 통신(예, V2V(vehicle to vehicle)/V2X(vehicle to everything) communication)을 할 수 있다. 또한, IoT 기기(100f)(예, 센서)는 다른 IoT 기기(예, 센서) 또는 다른 무선 기기(100a~100f)와 직접 통신을 할 수 있다. Wireless devices 100a to 100f may be connected to the network 130 through the base station 120. AI technology may be applied to the wireless devices 100a to 100f, and the wireless devices 100a to 100f may be connected to the AI server 100g through the network 130. The network 130 may be configured using a 3G network, 4G (eg, LTE) network, or 5G (eg, NR) network. Wireless devices 100a to 100f may communicate with each other through the base station 120/network 130, but communicate directly (e.g., sidelink communication) without going through the base station 120/network 130. You may. For example, vehicles 100b-1 and 100b-2 may communicate directly (eg, vehicle to vehicle (V2V)/vehicle to everything (V2X) communication). Additionally, the IoT device 100f (eg, sensor) may communicate directly with other IoT devices (eg, sensor) or other wireless devices 100a to 100f.
무선 기기(100a~100f)/기지국(120), 기지국(120)/기지국(120) 간에는 무선 통신/연결(150a, 150b, 150c)이 이뤄질 수 있다. 여기서, 무선 통신/연결은 상향/하향링크 통신(150a)과 사이드링크 통신(150b)(또는, D2D 통신), 기지국간 통신(150c)(예, relay, IAB(integrated access backhaul))과 같은 다양한 무선 접속 기술(예, 5G NR)을 통해 이뤄질 수 있다. 무선 통신/연결(150a, 150b, 150c)을 통해 무선 기기와 기지국/무선 기기, 기지국과 기지국은 서로 무선 신호를 송신/수신할 수 있다. 예를 들어, 무선 통신/연결(150a, 150b, 150c)은 다양한 물리 채널을 통해 신호를 송신/수신할 수 있다. 이를 위해, 본 개시의 다양한 제안들에 기반하여, 무선 신호의 송신/수신을 위한 다양한 구성정보 설정 과정, 다양한 신호 처리 과정(예, 채널 인코딩/디코딩, 변조/복조, 자원 매핑/디매핑 등), 자원 할당 과정 등 중 적어도 일부가 수행될 수 있다.Wireless communication/connection (150a, 150b, 150c) may be established between the wireless devices (100a to 100f)/base station (120) and the base station (120)/base station (120). Here, wireless communication/connection includes various methods such as uplink/downlink communication (150a), sidelink communication (150b) (or D2D communication), and inter-base station communication (150c) (e.g., relay, integrated access backhaul (IAB)). This can be achieved through wireless access technology (e.g. 5G NR). Through wireless communication/connection (150a, 150b, 150c), a wireless device and a base station/wireless device, and a base station and a base station can transmit/receive wireless signals to each other. For example, wireless communication/ connection 150a, 150b, and 150c may transmit/receive signals through various physical channels. To this end, based on the various proposals of the present disclosure, various configuration information setting processes for transmitting/receiving wireless signals, various signal processing processes (e.g., channel encoding/decoding, modulation/demodulation, resource mapping/demapping, etc.) , at least some of the resource allocation process, etc. may be performed.
본 개시에 적용 가능한 통신 시스템Communication systems applicable to this disclosure
도 2는 본 개시에 적용될 수 있는 무선 기기의 예시를 도시한 도면이다.FIG. 2 is a diagram illustrating an example of a wireless device applicable to the present disclosure.
도 2를 참조하면, 제1 무선 기기(200a)와 제2 무선 기기(200b)는 다양한 무선 접속 기술(예, LTE, NR)을 통해 무선 신호를 송수신할 수 있다. 여기서, {제1 무선 기기(200a), 제2 무선 기기(200b)}은 도 1의 {무선 기기(100x), 기지국(120)} 및/또는 {무선 기기(100x), 무선 기기(100x)}에 대응할 수 있다.Referring to FIG. 2, the first wireless device 200a and the second wireless device 200b can transmit and receive wireless signals through various wireless access technologies (eg, LTE, NR). Here, {first wireless device 200a, second wireless device 200b} refers to {wireless device 100x, base station 120} and/or {wireless device 100x, wireless device 100x) in FIG. } can be responded to.
제1 무선 기기(200a)는 하나 이상의 프로세서(202a) 및 하나 이상의 메모리(204a)를 포함하며, 추가적으로 하나 이상의 송수신기(206a) 및/또는 하나 이상의 안테나(208a)을 더 포함할 수 있다. 프로세서(202a)는 메모리(204a) 및/또는 송수신기(206a)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202a)는 메모리(204a) 내의 정보를 처리하여 제1 정보/신호를 생성한 뒤, 송수신기(206a)을 통해 제1 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202a)는 송수신기(206a)를 통해 제2 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제2 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204a)에 저장할 수 있다. 메모리(204a)는 프로세서(202a)와 연결될 수 있고, 프로세서(202a)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204a)는 프로세서(202a)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202a)와 메모리(204a)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206a)는 프로세서(202a)와 연결될 수 있고, 하나 이상의 안테나(208a)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206a)는 송신기 및/또는 수신기를 포함할 수 있다. 송수신기(206a)는 RF(radio frequency) 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.The first wireless device 200a includes one or more processors 202a and one or more memories 204a, and may further include one or more transceivers 206a and/or one or more antennas 208a. Processor 202a controls memory 204a and/or transceiver 206a and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein. For example, the processor 202a may process information in the memory 204a to generate first information/signal and then transmit a wireless signal including the first information/signal through the transceiver 206a. Additionally, the processor 202a may receive a wireless signal including the second information/signal through the transceiver 206a and then store information obtained from signal processing of the second information/signal in the memory 204a. The memory 204a may be connected to the processor 202a and may store various information related to the operation of the processor 202a. For example, memory 204a may perform some or all of the processes controlled by processor 202a or instructions for performing the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein. Software code containing them can be stored. Here, the processor 202a and the memory 204a may be part of a communication modem/circuit/chip designed to implement wireless communication technology (eg, LTE, NR). Transceiver 206a may be coupled to processor 202a and may transmit and/or receive wireless signals via one or more antennas 208a. Transceiver 206a may include a transmitter and/or receiver. The transceiver 206a may be used interchangeably with a radio frequency (RF) unit. In this disclosure, a wireless device may mean a communication modem/circuit/chip.
제2 무선 기기(200b)는 하나 이상의 프로세서(202b), 하나 이상의 메모리(204b)를 포함하며, 추가적으로 하나 이상의 송수신기(206b) 및/또는 하나 이상의 안테나(208b)를 더 포함할 수 있다. 프로세서(202b)는 메모리(204b) 및/또는 송수신기(206b)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202b)는 메모리(204b) 내의 정보를 처리하여 제3 정보/신호를 생성한 뒤, 송수신기(206b)를 통해 제3 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202b)는 송수신기(206b)를 통해 제4 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제4 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204b)에 저장할 수 있다. 메모리(204b)는 프로세서(202b)와 연결될 수 있고, 프로세서(202b)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204b)는 프로세서(202b)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202b)와 메모리(204b)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206b)는 프로세서(202b)와 연결될 수 있고, 하나 이상의 안테나(208b)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206b)는 송신기 및/또는 수신기를 포함할 수 있다 송수신기(206b)는 RF 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.The second wireless device 200b includes one or more processors 202b, one or more memories 204b, and may further include one or more transceivers 206b and/or one or more antennas 208b. Processor 202b controls memory 204b and/or transceiver 206b and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein. For example, the processor 202b may process information in the memory 204b to generate third information/signal and then transmit a wireless signal including the third information/signal through the transceiver 206b. Additionally, the processor 202b may receive a wireless signal including the fourth information/signal through the transceiver 206b and then store information obtained from signal processing of the fourth information/signal in the memory 204b. The memory 204b may be connected to the processor 202b and may store various information related to the operation of the processor 202b. For example, memory 204b may perform some or all of the processes controlled by processor 202b or instructions for performing the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein. Software code containing them can be stored. Here, the processor 202b and the memory 204b may be part of a communication modem/circuit/chip designed to implement wireless communication technology (eg, LTE, NR). Transceiver 206b may be coupled to processor 202b and may transmit and/or receive wireless signals via one or more antennas 208b. The transceiver 206b may include a transmitter and/or a receiver. The transceiver 206b may be used interchangeably with an RF unit. In this disclosure, a wireless device may mean a communication modem/circuit/chip.
이하, 무선 기기(200a, 200b)의 하드웨어 요소에 대해 보다 구체적으로 설명한다. 이로 제한되는 것은 아니지만, 하나 이상의 프로토콜 계층이 하나 이상의 프로세서(202a, 202b)에 의해 구현될 수 있다. 예를 들어, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 계층(예, PHY(physical), MAC(media access control), RLC(radio link control), PDCP(packet data convergence protocol), RRC(radio resource control), SDAP(service data adaptation protocol)와 같은 기능적 계층)을 구현할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 하나 이상의 PDU(Protocol Data Unit) 및/또는 하나 이상의 SDU(service data unit)를 생성할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 메시지, 제어정보, 데이터 또는 정보를 생성할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 문서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 포함하는 신호(예, 베이스밴드 신호)를 생성하여, 하나 이상의 송수신기(206a, 206b)에게 제공할 수 있다. 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)로부터 신호(예, 베이스밴드 신호)를 수신할 수 있고, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 획득할 수 있다.Hereinafter, the hardware elements of the wireless devices 200a and 200b will be described in more detail. Although not limited thereto, one or more protocol layers may be implemented by one or more processors 202a and 202b. For example, one or more processors 202a and 202b may operate on one or more layers (e.g., physical (PHY), media access control (MAC), radio link control (RLC), packet data convergence protocol (PDCP), and radio resource (RRC). control) and functional layers such as SDAP (service data adaptation protocol) can be implemented. One or more processors 202a, 202b may generate one or more Protocol Data Units (PDUs) and/or one or more service data units (SDUs) according to the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed in this document. can be created. One or more processors 202a and 202b may generate messages, control information, data or information according to the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document. One or more processors 202a, 202b generate signals (e.g., baseband signals) containing PDUs, SDUs, messages, control information, data, or information according to the functions, procedures, proposals, and/or methods disclosed herein. , can be provided to one or more transceivers (206a, 206b). One or more processors 202a, 202b may receive signals (e.g., baseband signals) from one or more transceivers 206a, 206b, and the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein. Depending on the device, PDU, SDU, message, control information, data or information can be obtained.
하나 이상의 프로세서(202a, 202b)는 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 마이크로 컴퓨터로 지칭될 수 있다. 하나 이상의 프로세서(202a, 202b)는 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합에 의해 구현될 수 있다. 일 예로, 하나 이상의 ASIC(application specific integrated circuit), 하나 이상의 DSP(digital signal processor), 하나 이상의 DSPD(digital signal processing device), 하나 이상의 PLD(programmable logic device) 또는 하나 이상의 FPGA(field programmable gate arrays)가 하나 이상의 프로세서(202a, 202b)에 포함될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있고, 펌웨어 또는 소프트웨어는 모듈, 절차, 기능 등을 포함하도록 구현될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 수행하도록 설정된 펌웨어 또는 소프트웨어는 하나 이상의 프로세서(202a, 202b)에 포함되거나, 하나 이상의 메모리(204a, 204b)에 저장되어 하나 이상의 프로세서(202a, 202b)에 의해 구동될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 코드, 명령어 및/또는 명령어의 집합 형태로 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있다. One or more processors 202a, 202b may be referred to as a controller, microcontroller, microprocessor, or microcomputer. One or more processors 202a and 202b may be implemented by hardware, firmware, software, or a combination thereof. As an example, one or more application specific integrated circuits (ASICs), one or more digital signal processors (DSPs), one or more digital signal processing devices (DSPDs), one or more programmable logic devices (PLDs), or one or more field programmable gate arrays (FPGAs) May be included in one or more processors 202a and 202b. The descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document may be implemented using firmware or software, and the firmware or software may be implemented to include modules, procedures, functions, etc. Firmware or software configured to perform the descriptions, functions, procedures, suggestions, methods and/or operation flowcharts disclosed in this document may be included in one or more processors 202a and 202b or stored in one or more memories 204a and 204b. It may be driven by the above processors 202a and 202b. The descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document may be implemented using firmware or software in the form of codes, instructions and/or sets of instructions.
하나 이상의 메모리(204a, 204b)는 하나 이상의 프로세서(202a, 202b)와 연결될 수 있고, 다양한 형태의 데이터, 신호, 메시지, 정보, 프로그램, 코드, 지시 및/또는 명령을 저장할 수 있다. 하나 이상의 메모리(204a, 204b)는 ROM(read only memory), RAM(random access memory), EPROM(erasable programmable read only memory), 플래시 메모리, 하드 드라이브, 레지스터, 캐쉬 메모리, 컴퓨터 판독 저장 매체 및/또는 이들의 조합으로 구성될 수 있다. 하나 이상의 메모리(204a, 204b)는 하나 이상의 프로세서(202a, 202b)의 내부 및/또는 외부에 위치할 수 있다. 또한, 하나 이상의 메모리(204a, 204b)는 유선 또는 무선 연결과 같은 다양한 기술을 통해 하나 이상의 프로세서(202a, 202b)와 연결될 수 있다.One or more memories 204a and 204b may be connected to one or more processors 202a and 202b and may store various types of data, signals, messages, information, programs, codes, instructions and/or commands. One or more memories 204a, 204b may include read only memory (ROM), random access memory (RAM), erasable programmable read only memory (EPROM), flash memory, hard drives, registers, cache memory, computer readable storage media, and/or It may be composed of a combination of these. One or more memories 204a and 204b may be located internal to and/or external to one or more processors 202a and 202b. Additionally, one or more memories 204a and 204b may be connected to one or more processors 202a and 202b through various technologies, such as wired or wireless connections.
하나 이상의 송수신기(206a, 206b)는 하나 이상의 다른 장치에게 본 문서의 방법들 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 전송할 수 있다. 하나 이상의 송수신기(206a, 206b)는 하나 이상의 다른 장치로부터 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 수신할 수 있다. 예를 들어, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 프로세서(202a, 202b)와 연결될 수 있고, 무선 신호를 송수신할 수 있다. 예를 들어, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)가 하나 이상의 다른 장치에게 사용자 데이터, 제어 정보 또는 무선 신호를 전송하도록 제어할 수 있다. 또한, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)가 하나 이상의 다른 장치로부터 사용자 데이터, 제어 정보 또는 무선 신호를 수신하도록 제어할 수 있다. 또한, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 안테나(208a, 208b)와 연결될 수 있고, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 안테나(208a, 208b)를 통해 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 송수신하도록 설정될 수 있다. 본 문서에서, 하나 이상의 안테나는 복수의 물리 안테나이거나, 복수의 논리 안테나(예, 안테나 포트)일 수 있다. 하나 이상의 송수신기(206a, 206b)는 수신된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 하나 이상의 프로세서(202a, 202b)를 이용하여 처리하기 위해, 수신된 무선 신호/채널 등을 RF 밴드 신호에서 베이스밴드 신호로 변환(Convert)할 수 있다. 하나 이상의 송수신기(206a, 206b)는 하나 이상의 프로세서(202a, 202b)를 이용하여 처리된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 베이스밴드 신호에서 RF 밴드 신호로 변환할 수 있다. 이를 위하여, 하나 이상의 송수신기(206a, 206b)는 (아날로그) 오실레이터 및/또는 필터를 포함할 수 있다.One or more transceivers (206a, 206b) may transmit user data, control information, wireless signals/channels, etc. mentioned in the methods and/or operation flowcharts of this document to one or more other devices. One or more transceivers 206a, 206b may receive user data, control information, wireless signals/channels, etc. referred to in the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein, etc. from one or more other devices. there is. For example, one or more transceivers 206a and 206b may be connected to one or more processors 202a and 202b and may transmit and receive wireless signals. For example, one or more processors 202a, 202b may control one or more transceivers 206a, 206b to transmit user data, control information, or wireless signals to one or more other devices. Additionally, one or more processors 202a and 202b may control one or more transceivers 206a and 206b to receive user data, control information, or wireless signals from one or more other devices. In addition, one or more transceivers (206a, 206b) may be connected to one or more antennas (208a, 208b), and one or more transceivers (206a, 206b) may be connected to the description and functions disclosed in this document through one or more antennas (208a, 208b). , may be set to transmit and receive user data, control information, wireless signals/channels, etc. mentioned in procedures, proposals, methods and/or operation flow charts, etc. In this document, one or more antennas may be multiple physical antennas or multiple logical antennas (eg, antenna ports). One or more transceivers (206a, 206b) process the received user data, control information, wireless signals/channels, etc. using one or more processors (202a, 202b), and convert the received wireless signals/channels, etc. from the RF band signal. It can be converted to a baseband signal. One or more transceivers (206a, 206b) may convert user data, control information, wireless signals/channels, etc. processed using one or more processors (202a, 202b) from a baseband signal to an RF band signal. To this end, one or more transceivers 206a, 206b may include (analog) oscillators and/or filters.
본 개시에 적용 가능한 무선 기기 구조Wireless device structure applicable to this disclosure
도 3은 본 개시에 적용되는 무선 기기의 다른 예시를 도시한 도면이다.FIG. 3 is a diagram illustrating another example of a wireless device applied to the present disclosure.
도 3을 참조하면, 무선 기기(300)는 도 2의 무선 기기(200a, 200b)에 대응하며, 다양한 요소(element), 성분(component), 유닛/부(unit), 및/또는 모듈(module)로 구성될 수 있다. 예를 들어, 무선 기기(300)는 통신부(310), 제어부(320), 메모리부(330) 및 추가 요소(340)를 포함할 수 있다. 통신부는 통신 회로(312) 및 송수신기(들)(314)을 포함할 수 있다. 예를 들어, 통신 회로(312)는 도 2의 하나 이상의 프로세서(202a, 202b) 및/또는 하나 이상의 메모리(204a, 204b)를 포함할 수 있다. 예를 들어, 송수신기(들)(314)는 도 2의 하나 이상의 송수신기(206a, 206b) 및/또는 하나 이상의 안테나(208a, 208b)을 포함할 수 있다. 제어부(320)는 통신부(310), 메모리부(330) 및 추가 요소(340)와 전기적으로 연결되며 무선 기기의 제반 동작을 제어한다. 예를 들어, 제어부(320)는 메모리부(330)에 저장된 프로그램/코드/명령/정보에 기반하여 무선 기기의 전기적/기계적 동작을 제어할 수 있다. 또한, 제어부(320)는 메모리부(330)에 저장된 정보를 통신부(310)을 통해 외부(예, 다른 통신 기기)로 무선/유선 인터페이스를 통해 전송하거나, 통신부(310)를 통해 외부(예, 다른 통신 기기)로부터 무선/유선 인터페이스를 통해 수신된 정보를 메모리부(330)에 저장할 수 있다.Referring to FIG. 3, the wireless device 300 corresponds to the wireless devices 200a and 200b of FIG. 2 and includes various elements, components, units/units, and/or modules. ) can be composed of. For example, the wireless device 300 may include a communication unit 310, a control unit 320, a memory unit 330, and an additional element 340. The communication unit may include communication circuitry 312 and transceiver(s) 314. For example, communication circuitry 312 may include one or more processors 202a and 202b and/or one or more memories 204a and 204b of FIG. 2 . For example, transceiver(s) 314 may include one or more transceivers 206a, 206b and/or one or more antennas 208a, 208b of FIG. 2. The control unit 320 is electrically connected to the communication unit 310, the memory unit 330, and the additional element 340 and controls overall operations of the wireless device. For example, the control unit 320 may control the electrical/mechanical operation of the wireless device based on the program/code/command/information stored in the memory unit 330. In addition, the control unit 320 transmits the information stored in the memory unit 330 to the outside (e.g., another communication device) through the communication unit 310 through a wireless/wired interface, or to the outside (e.g., to another communication device) through the communication unit 310. Information received through a wireless/wired interface from another communication device can be stored in the memory unit 330.
추가 요소(340)는 무선 기기의 종류에 따라 다양하게 구성될 수 있다. 예를 들어, 추가 요소(340)는 파워 유닛/배터리, 입출력부(input/output unit), 구동부 및 컴퓨팅부 중 적어도 하나를 포함할 수 있다. 이로 제한되는 것은 아니지만, 무선 기기(300)는 로봇(도 1, 100a), 차량(도 1, 100b-1, 100b-2), XR 기기(도 1, 100c), 휴대 기기(도 1, 100d), 가전(도 1, 100e), IoT 기기(도 1, 100f), 디지털 방송용 단말, 홀로그램 장치, 공공 안전 장치, MTC 장치, 의료 장치, 핀테크 장치(또는 금융 장치), 보안 장치, 기후/환경 장치, AI 서버/기기(도 1, 140), 기지국(도 1, 120), 네트워크 노드 등의 형태로 구현될 수 있다. 무선 기기는 사용-예/서비스에 따라 이동 가능하거나 고정된 장소에서 사용될 수 있다.The additional element 340 may be configured in various ways depending on the type of wireless device. For example, the additional element 340 may include at least one of a power unit/battery, an input/output unit, a driving unit, and a computing unit. Although not limited thereto, the wireless device 300 includes robots (FIG. 1, 100a), vehicles (FIG. 1, 100b-1, 100b-2), XR devices (FIG. 1, 100c), and portable devices (FIG. 1, 100d). ), home appliances (Figure 1, 100e), IoT devices (Figure 1, 100f), digital broadcasting terminals, hologram devices, public safety devices, MTC devices, medical devices, fintech devices (or financial devices), security devices, climate/ It can be implemented in the form of an environmental device, AI server/device (FIG. 1, 140), base station (FIG. 1, 120), network node, etc. Wireless devices can be mobile or used in fixed locations depending on the usage/service.
도 3에서 무선 기기(300) 내의 다양한 요소, 성분, 유닛/부, 및/또는 모듈은 전체가 유선 인터페이스를 통해 상호 연결되거나, 적어도 일부가 통신부(310)를 통해 무선으로 연결될 수 있다. 예를 들어, 무선 기기(300) 내에서 제어부(320)와 통신부(310)는 유선으로 연결되며, 제어부(320)와 제1 유닛(예, 130, 140)은 통신부(310)를 통해 무선으로 연결될 수 있다. 또한, 무선 기기(300) 내의 각 요소, 성분, 유닛/부, 및/또는 모듈은 하나 이상의 요소를 더 포함할 수 있다. 예를 들어, 제어부(320)는 하나 이상의 프로세서 집합으로 구성될 수 있다. 예를 들어, 제어부(320)는 통신 제어 프로세서, 어플리케이션 프로세서(application processor), ECU(electronic control unit), 그래픽 처리 프로세서, 메모리 제어 프로세서 등의 집합으로 구성될 수 있다. 다른 예로, 메모리부(330)는 RAM, DRAM(dynamic RAM), ROM, 플래시 메모리(flash memory), 휘발성 메모리(volatile memory), 비-휘발성 메모리(non-volatile memory) 및/또는 이들의 조합으로 구성될 수 있다.In FIG. 3 , various elements, components, units/parts, and/or modules within the wireless device 300 may be entirely interconnected through a wired interface, or at least some of them may be wirelessly connected through the communication unit 310. For example, within the wireless device 300, the control unit 320 and the communication unit 310 are connected by wire, and the control unit 320 and the first unit (e.g., 130, 140) are connected wirelessly through the communication unit 310. can be connected Additionally, each element, component, unit/part, and/or module within the wireless device 300 may further include one or more elements. For example, the control unit 320 may be comprised of one or more processor sets. For example, the control unit 320 may be composed of a set of a communication control processor, an application processor, an electronic control unit (ECU), a graphics processing processor, and a memory control processor. As another example, the memory unit 330 may be comprised of RAM, dynamic RAM (DRAM), ROM, flash memory, volatile memory, non-volatile memory, and/or a combination thereof. It can be configured.
본 개시가 적용 가능한 휴대 기기Mobile devices to which this disclosure is applicable
도 4는 본 개시에 적용되는 휴대 기기의 예시를 도시한 도면이다.FIG. 4 is a diagram illustrating an example of a portable device to which the present disclosure is applied.
도 4는 본 개시에 적용되는 휴대 기기를 예시한다. 휴대 기기는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트 워치, 스마트 글래스), 휴대용 컴퓨터(예, 노트북 등)을 포함할 수 있다. 휴대 기기는 MS(mobile station), UT(user terminal), MSS(mobile subscriber station), SS(subscriber station), AMS(advanced mobile station) 또는 WT(wireless terminal)로 지칭될 수 있다.Figure 4 illustrates a portable device to which the present disclosure is applied. Portable devices may include smartphones, smart pads, wearable devices (e.g., smart watches, smart glasses), and portable computers (e.g., laptops, etc.). A mobile device may be referred to as a mobile station (MS), user terminal (UT), mobile subscriber station (MSS), subscriber station (SS), advanced mobile station (AMS), or wireless terminal (WT).
도 4를 참조하면, 휴대 기기(400)는 안테나부(408), 통신부(410), 제어부(420), 메모리부(430), 전원공급부(440a), 인터페이스부(440b) 및 입출력부(440c)를 포함할 수 있다. 안테나부(408)는 통신부(410)의 일부로 구성될 수 있다. 블록 410~430/440a~440c는 각각 도 3의 블록 310~330/340에 대응한다.Referring to FIG. 4, the portable device 400 includes an antenna unit 408, a communication unit 410, a control unit 420, a memory unit 430, a power supply unit 440a, an interface unit 440b, and an input/output unit 440c. ) may include. The antenna unit 408 may be configured as part of the communication unit 410. Blocks 410 to 430/440a to 440c correspond to blocks 310 to 330/340 in FIG. 3, respectively.
통신부(410)는 다른 무선 기기, 기지국들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(420)는 휴대 기기(400)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(420)는 AP(application processor)를 포함할 수 있다. 메모리부(430)는 휴대 기기(400)의 구동에 필요한 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 또한, 메모리부(430)는 입/출력되는 데이터/정보 등을 저장할 수 있다. 전원공급부(440a)는 휴대 기기(400)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다. 인터페이스부(440b)는 휴대 기기(400)와 다른 외부 기기의 연결을 지원할 수 있다. 인터페이스부(440b)는 외부 기기와의 연결을 위한 다양한 포트(예, 오디오 입/출력 포트, 비디오 입/출력 포트)를 포함할 수 있다. 입출력부(440c)는 영상 정보/신호, 오디오 정보/신호, 데이터, 및/또는 사용자로부터 입력되는 정보를 입력 받거나 출력할 수 있다. 입출력부(440c)는 카메라, 마이크로폰, 사용자 입력부, 디스플레이부(440d), 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다.The communication unit 410 can transmit and receive signals (eg, data, control signals, etc.) with other wireless devices and base stations. The control unit 420 can control the components of the portable device 400 to perform various operations. The control unit 420 may include an application processor (AP). The memory unit 430 may store data/parameters/programs/codes/commands necessary for driving the portable device 400. Additionally, the memory unit 430 can store input/output data/information, etc. The power supply unit 440a supplies power to the portable device 400 and may include a wired/wireless charging circuit, a battery, etc. The interface unit 440b may support connection between the mobile device 400 and other external devices. The interface unit 440b may include various ports (eg, audio input/output ports, video input/output ports) for connection to external devices. The input/output unit 440c may input or output image information/signals, audio information/signals, data, and/or information input from the user. The input/output unit 440c may include a camera, a microphone, a user input unit, a display unit 440d, a speaker, and/or a haptic module.
일 예로, 데이터 통신의 경우, 입출력부(440c)는 사용자로부터 입력된 정보/신호(예, 터치, 문자, 음성, 이미지, 비디오)를 획득하며, 획득된 정보/신호는 메모리부(430)에 저장될 수 있다. 통신부(410)는 메모리에 저장된 정보/신호를 무선 신호로 변환하고, 변환된 무선 신호를 다른 무선 기기에게 직접 전송하거나 기지국에게 전송할 수 있다. 또한, 통신부(410)는 다른 무선 기기 또는 기지국으로부터 무선 신호를 수신한 뒤, 수신된 무선 신호를 원래의 정보/신호로 복원할 수 있다. 복원된 정보/신호는 메모리부(430)에 저장된 뒤, 입출력부(440c)를 통해 다양한 형태(예, 문자, 음성, 이미지, 비디오, 햅틱)로 출력될 수 있다. For example, in the case of data communication, the input/output unit 440c acquires information/signals (e.g., touch, text, voice, image, video) input from the user, and the obtained information/signals are stored in the memory unit 430. It can be saved. The communication unit 410 can convert the information/signal stored in the memory into a wireless signal and transmit the converted wireless signal directly to another wireless device or to a base station. Additionally, the communication unit 410 may receive a wireless signal from another wireless device or a base station and then restore the received wireless signal to the original information/signal. The restored information/signal may be stored in the memory unit 430 and then output in various forms (eg, text, voice, image, video, haptic) through the input/output unit 440c.
본 개시가 적용 가능한 무선 기기 종류Types of wireless devices to which this disclosure is applicable
도 5는 본 개시에 적용되는 차량 또는 자율 주행 차량의 예시를 도시한 도면이다.FIG. 5 is a diagram illustrating an example of a vehicle or autonomous vehicle applied to the present disclosure.
도 5는 본 개시에 적용되는 차량 또는 자율 주행 차량을 예시한다. 차량 또는 자율 주행 차량은 이동형 로봇, 차량, 기차, 유/무인 비행체(aerial vehicle, AV), 선박 등으로 구현될 수 있으며, 차량의 형태로 한정되는 것은 아니다.5 illustrates a vehicle or autonomous vehicle to which the present disclosure is applied. A vehicle or autonomous vehicle can be implemented as a mobile robot, vehicle, train, aerial vehicle (AV), ship, etc., and is not limited to the form of a vehicle.
도 5를 참조하면, 차량 또는 자율 주행 차량(500)은 안테나부(508), 통신부(510), 제어부(520), 구동부(540a), 전원공급부(540b), 센서부(540c) 및 자율 주행부(540d)를 포함할 수 있다. 안테나부(550)는 통신부(510)의 일부로 구성될 수 있다. 블록 510/530/540a~540d는 각각 도 4의 블록 410/430/440에 대응한다.Referring to FIG. 5, the vehicle or autonomous vehicle 500 includes an antenna unit 508, a communication unit 510, a control unit 520, a drive unit 540a, a power supply unit 540b, a sensor unit 540c, and an autonomous driving unit. It may include a portion 540d. The antenna unit 550 may be configured as part of the communication unit 510. Blocks 510/530/540a to 540d correspond to blocks 410/430/440 in FIG. 4, respectively.
통신부(510)는 다른 차량, 기지국(예, 기지국, 노변 기지국(road side unit) 등), 서버 등의 외부 기기들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(520)는 차량 또는 자율 주행 차량(500)의 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(520)는 ECU(electronic control unit)를 포함할 수 있다. The communication unit 510 may transmit and receive signals (e.g., data, control signals, etc.) with external devices such as other vehicles, base stations (e.g., base stations, road side units, etc.), and servers. The control unit 520 may control elements of the vehicle or autonomous vehicle 500 to perform various operations. The control unit 520 may include an electronic control unit (ECU).
도 6은 본 개시에 적용되는 AI 기기의 예시를 도시한 도면이다. 일 예로, AI 기기는 TV, 프로젝터, 스마트폰, PC, 노트북, 디지털방송용 단말기, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), 라디오, 세탁기, 냉장고, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다.Figure 6 is a diagram showing an example of an AI device applied to the present disclosure. As an example, AI devices include fixed devices such as TVs, projectors, smartphones, PCs, laptops, digital broadcasting terminals, tablet PCs, wearable devices, set-top boxes (STBs), radios, washing machines, refrigerators, digital signage, robots, vehicles, etc. It can be implemented as a device or a movable device.
도 6을 참조하면, AI 기기(600)는 통신부(610), 제어부(620), 메모리부(630), 입/출력부(640a/640b), 러닝 프로세서부(640c) 및 센서부(640d)를 포함할 수 있다. 블록 610~630/640a~640d는 각각 도 3의 블록 310~330/340에 대응할 수 있다.Referring to FIG. 6, the AI device 600 includes a communication unit 610, a control unit 620, a memory unit 630, an input/output unit (640a/640b), a learning processor unit 640c, and a sensor unit 640d. may include. Blocks 610 to 630/640a to 640d may correspond to blocks 310 to 330/340 of FIG. 3, respectively.
통신부(610)는 유무선 통신 기술을 이용하여 다른 AI 기기(예, 도 1, 100x, 120, 140)나 AI 서버(도 1, 140) 등의 외부 기기들과 유무선 신호(예, 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등)를 송수신할 수 있다. 이를 위해, 통신부(610)는 메모리부(630) 내의 정보를 외부 기기로 전송하거나, 외부 기기로부터 수신된 신호를 메모리부(630)로 전달할 수 있다.The communication unit 610 uses wired and wireless communication technology to communicate with wired and wireless signals (e.g., sensor information, user Input, learning model, control signal, etc.) can be transmitted and received. To this end, the communication unit 610 may transmit information in the memory unit 630 to an external device or transmit a signal received from an external device to the memory unit 630.
제어부(620)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 기기(600)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 제어부(620)는 AI 기기(600)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다. 예를 들어, 제어부(620)는 러닝 프로세서부(640c) 또는 메모리부(630)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 기기(600)의 구성 요소들을 제어할 수 있다. 또한, 제어부(620)는 AI 장치(600)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리부(630) 또는 러닝 프로세서부(640c)에 저장하거나, AI 서버(도 1, 140) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.The control unit 620 may determine at least one executable operation of the AI device 600 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. And, the control unit 620 can control the components of the AI device 600 to perform the determined operation. For example, the control unit 620 may request, search, receive, or utilize data from the learning processor unit 640c or the memory unit 630, and may select at least one operation that is predicted or determined to be desirable among the executable operations. Components of the AI device 600 can be controlled to execute operations. In addition, the control unit 620 collects history information including the operation content of the AI device 600 or user feedback on the operation, and stores it in the memory unit 630 or the learning processor unit 640c, or the AI server ( It can be transmitted to an external device such as Figure 1, 140). The collected historical information can be used to update the learning model.
메모리부(630)는 AI 기기(600)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예를 들어, 메모리부(630)는 입력부(640a)로부터 얻은 데이터, 통신부(610)로부터 얻은 데이터, 러닝 프로세서부(640c)의 출력 데이터, 및 센싱부(640)로부터 얻은 데이터를 저장할 수 있다. 또한, 메모리부(630)는 제어부(620)의 동작/실행에 필요한 제어 정보 및/또는 소프트웨어 코드를 저장할 수 있다.The memory unit 630 can store data supporting various functions of the AI device 600. For example, the memory unit 630 may store data obtained from the input unit 640a, data obtained from the communication unit 610, output data from the learning processor unit 640c, and data obtained from the sensing unit 640. Additionally, the memory unit 630 may store control information and/or software codes necessary for operation/execution of the control unit 620.
입력부(640a)는 AI 기기(600)의 외부로부터 다양한 종류의 데이터를 획득할 수 있다. 예를 들어, 입력부(620)는 모델 학습을 위한 학습 데이터, 및 학습 모델이 적용될 입력 데이터 등을 획득할 수 있다. 입력부(640a)는 카메라, 마이크로폰 및/또는 사용자 입력부 등을 포함할 수 있다. 출력부(640b)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다. 출력부(640b)는 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센싱부(640)는 다양한 센서들을 이용하여 AI 기기(600)의 내부 정보, AI 기기(600)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 얻을 수 있다. 센싱부(640)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰 및/또는 레이더 등을 포함할 수 있다.The input unit 640a can obtain various types of data from outside the AI device 600. For example, the input unit 620 may obtain training data for model training and input data to which the learning model will be applied. The input unit 640a may include a camera, microphone, and/or a user input unit. The output unit 640b may generate output related to vision, hearing, or tactile sensation. The output unit 640b may include a display unit, a speaker, and/or a haptic module. The sensing unit 640 may obtain at least one of internal information of the AI device 600, surrounding environment information of the AI device 600, and user information using various sensors. The sensing unit 640 may include a proximity sensor, an illumination sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and/or a radar. there is.
러닝 프로세서부(640c)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 러닝 프로세서부(640c)는 AI 서버(도 1, 140)의 러닝 프로세서부와 함께 AI 프로세싱을 수행할 수 있다. 러닝 프로세서부(640c)는 통신부(610)를 통해 외부 기기로부터 수신된 정보, 및/또는 메모리부(630)에 저장된 정보를 처리할 수 있다. 또한, 러닝 프로세서부(640c)의 출력 값은 통신부(610)를 통해 외부 기기로 전송되거나/되고, 메모리부(630)에 저장될 수 있다.The learning processor unit 640c can train a model composed of an artificial neural network using training data. The learning processor unit 640c may perform AI processing together with the learning processor unit of the AI server (FIG. 1, 140). The learning processor unit 640c may process information received from an external device through the communication unit 610 and/or information stored in the memory unit 630. Additionally, the output value of the learning processor unit 640c may be transmitted to an external device through the communication unit 610 and/or stored in the memory unit 630.
도 7은 본 개시에 적용되는 전송 신호를 처리하는 방법을 도시한 도면이다. 일 예로, 전송 신호는 신호 처리 회로에 의해 처리될 수 있다. 이때, 신호 처리 회로(700)는 스크램블러(710), 변조기(720), 레이어 매퍼(730), 프리코더(740), 자원 매퍼(750), 신호 생성기(760)를 포함할 수 있다. 이때, 일 예로, 도 7의 동작/기능은 도 2의 프로세서(202a, 202b) 및/또는 송수신기(206a, 206b)에서 수행될 수 있다. 또한, 일 예로, 도 7의 하드웨어 요소는 도 2의 프로세서(202a, 202b) 및/또는 송수신기(206a, 206b)에서 구현될 수 있다. 일 예로, 블록 710~760은 도 2의 프로세서(202a, 202b)에서 구현될 수 있다. 또한, 블록 710~750은 도 2의 프로세서(202a, 202b)에서 구현되고, 블록 760은 도 2의 송수신기(206a, 206b)에서 구현될 수 있으며, 상술한 실시 예로 한정되지 않는다.Figure 7 is a diagram illustrating a method of processing a transmission signal applied to the present disclosure. As an example, the transmission signal may be processed by a signal processing circuit. At this time, the signal processing circuit 700 may include a scrambler 710, a modulator 720, a layer mapper 730, a precoder 740, a resource mapper 750, and a signal generator 760. At this time, as an example, the operation/function of FIG. 7 may be performed in the processors 202a and 202b and/or transceivers 206a and 206b of FIG. 2. Additionally, as an example, the hardware elements of FIG. 7 may be implemented in the processors 202a and 202b and/or transceivers 206a and 206b of FIG. 2. As an example, blocks 710 to 760 may be implemented in processors 202a and 202b of FIG. 2. Additionally, blocks 710 to 750 may be implemented in the processors 202a and 202b of FIG. 2, and block 760 may be implemented in the transceivers 206a and 206b of FIG. 2, and are not limited to the above-described embodiment.
코드워드는 도 7의 신호 처리 회로(700)를 거쳐 무선 신호로 변환될 수 있다. 여기서, 코드워드는 정보블록의 부호화된 비트 시퀀스이다. 정보블록은 전송블록(예, UL-SCH 전송블록, DL-SCH 전송블록)을 포함할 수 있다. 무선 신호는 다양한 물리 채널(예, PUSCH, PDSCH)을 통해 전송될 수 있다. 구체적으로, 코드워드는 스크램블러(710)에 의해 스크램블된 비트 시퀀스로 변환될 수 있다. 스크램블에 사용되는 스크램블 시퀀스는 초기화 값에 기반하여 생성되며, 초기화 값은 무선 기기의 ID 정보 등이 포함될 수 있다. 스크램블된 비트 시퀀스는 변조기(720)에 의해 변조 심볼 시퀀스로 변조될 수 있다. 변조 방식은 pi/2-BPSK(pi/2-binary phase shift keying), m-PSK(m-phase shift keying), m-QAM(m-quadrature amplitude modulation) 등을 포함할 수 있다. The codeword can be converted into a wireless signal through the signal processing circuit 700 of FIG. 7. Here, a codeword is an encoded bit sequence of an information block. The information block may include a transport block (eg, UL-SCH transport block, DL-SCH transport block). Wireless signals may be transmitted through various physical channels (eg, PUSCH, PDSCH). Specifically, the codeword may be converted into a scrambled bit sequence by the scrambler 710. The scramble sequence used for scrambling is generated based on an initialization value, and the initialization value may include ID information of the wireless device. The scrambled bit sequence may be modulated into a modulation symbol sequence by the modulator 720. Modulation methods may include pi/2-binary phase shift keying (pi/2-BPSK), m-phase shift keying (m-PSK), and m-quadrature amplitude modulation (m-QAM).
복소 변조 심볼 시퀀스는 레이어 매퍼(730)에 의해 하나 이상의 전송 레이어로 매핑될 수 있다. 각 전송 레이어의 변조 심볼들은 프리코더(740)에 의해 해당 안테나 포트(들)로 매핑될 수 있다(프리코딩). 프리코더(740)의 출력 z는 레이어 매퍼(730)의 출력 y를 N*M의 프리코딩 행렬 W와 곱해 얻을 수 있다. 여기서, N은 안테나 포트의 개수, M은 전송 레이어의 개수이다. 여기서, 프리코더(740)는 복소 변조 심볼들에 대한 트랜스폼(transform) 프리코딩(예, DFT(discrete fourier transform) 변환)을 수행한 이후에 프리코딩을 수행할 수 있다. 또한, 프리코더(740)는 트랜스폼 프리코딩을 수행하지 않고 프리코딩을 수행할 수 있다.The complex modulation symbol sequence may be mapped to one or more transport layers by the layer mapper 730. The modulation symbols of each transport layer may be mapped to corresponding antenna port(s) by the precoder 740 (precoding). The output z of the precoder 740 can be obtained by multiplying the output y of the layer mapper 730 with the precoding matrix W of N*M. Here, N is the number of antenna ports and M is the number of transport layers. Here, the precoder 740 may perform precoding after performing transform precoding (eg, discrete Fourier transform (DFT) transform) on complex modulation symbols. Additionally, the precoder 740 may perform precoding without performing transform precoding.
자원 매퍼(750)는 각 안테나 포트의 변조 심볼들을 시간-주파수 자원에 매핑할 수 있다. 시간-주파수 자원은 시간 도메인에서 복수의 심볼(예, CP-OFDMA 심볼, DFT-s-OFDMA 심볼)을 포함하고, 주파수 도메인에서 복수의 부반송파를 포함할 수 있다. 신호 생성기(760)는 매핑된 변조 심볼들로부터 무선 신호를 생성하며, 생성된 무선 신호는 각 안테나를 통해 다른 기기로 전송될 수 있다. 이를 위해, 신호 생성기(760)는 IFFT(inverse fast fourier transform) 모듈 및 CP(cyclic prefix) 삽입기, DAC(digital-to-analog converter), 주파수 상향 변환기(frequency uplink converter) 등을 포함할 수 있다.The resource mapper 750 can map the modulation symbols of each antenna port to time-frequency resources. A time-frequency resource may include a plurality of symbols (eg, CP-OFDMA symbol, DFT-s-OFDMA symbol) in the time domain and a plurality of subcarriers in the frequency domain. The signal generator 760 generates a wireless signal from the mapped modulation symbols, and the generated wireless signal can be transmitted to another device through each antenna. To this end, the signal generator 760 may include an inverse fast fourier transform (IFFT) module, a cyclic prefix (CP) inserter, a digital-to-analog converter (DAC), a frequency uplink converter, etc. .
무선 기기에서 수신 신호를 위한 신호 처리 과정은 도 7의 신호 처리 과정(710~760)의 역으로 구성될 수 있다. 일 예로, 무선 기기(예, 도 2의 200a, 200b)는 안테나 포트/송수신기를 통해 외부로부터 무선 신호를 수신할 수 있다. 수신된 무선 신호는 신호 복원기를 통해 베이스밴드 신호로 변환될 수 있다. 이를 위해, 신호 복원기는 주파수 하향 변환기(frequency downlink converter), ADC(analog-to-digital converter), CP 제거기, FFT(fast fourier transform) 모듈을 포함할 수 있다. 이후, 베이스밴드 신호는 자원 디-매퍼 과정, 포스트코딩(postcoding) 과정, 복조 과정 및 디-스크램블 과정을 거쳐 코드워드로 복원될 수 있다. 코드워드는 복호(decoding)를 거쳐 원래의 정보블록으로 복원될 수 있다. 따라서, 수신 신호를 위한 신호 처리 회로(미도시)는 신호 복원기, 자원 디-매퍼, 포스트코더, 복조기, 디-스크램블러 및 복호기를 포함할 수 있다.The signal processing process for the received signal in the wireless device may be configured as the reverse of the signal processing process (710 to 760) of FIG. 7. As an example, a wireless device (eg, 200a and 200b in FIG. 2) may receive a wireless signal from the outside through an antenna port/transceiver. The received wireless signal can be converted into a baseband signal through a signal restorer. To this end, the signal restorer may include a frequency downlink converter, an analog-to-digital converter (ADC), a CP remover, and a fast fourier transform (FFT) module. Thereafter, the baseband signal can be restored to a codeword through a resource de-mapper process, postcoding process, demodulation process, and de-scramble process. The codeword can be restored to the original information block through decoding. Accordingly, a signal processing circuit (not shown) for a received signal may include a signal restorer, resource de-mapper, postcoder, demodulator, de-scrambler, and decoder.
6G 통신 시스템 6G communication system
6G (무선통신) 시스템은 (i) 장치 당 매우 높은 데이터 속도, (ii) 매우 많은 수의 연결된 장치들, (iii) 글로벌 연결성(global connectivity), (iv) 매우 낮은 지연, (v) 배터리-프리(battery-free) IoT 장치들의 에너지 소비를 낮추고, (vi) 초고신뢰성 연결, (vii) 머신 러닝 능력을 가지는 연결된 지능 등에 목적이 있다. 6G 시스템의 비젼은 "intelligent connectivity", "deep connectivity", "holographic connectivity", "ubiquitous connectivity"와 같은 4가지 측면일 수 있으며, 6G 시스템은 하기 표 1과 같은 요구 사항을 만족시킬 수 있다. 즉, 표 1은 6G 시스템의 요구 사항을 나타낸 표이다.6G (wireless communications) systems require (i) very high data rates per device, (ii) very large number of connected devices, (iii) global connectivity, (iv) very low latency, (v) battery- The goal is to reduce the energy consumption of battery-free IoT devices, (vi) ultra-reliable connectivity, and (vii) connected intelligence with machine learning capabilities. The vision of the 6G system can be four aspects such as “intelligent connectivity”, “deep connectivity”, “holographic connectivity”, and “ubiquitous connectivity”, and the 6G system can satisfy the requirements as shown in Table 1 below. In other words, Table 1 is a table showing the requirements of the 6G system.
Per device peak data ratePer device peak data rate 1 Tbps1 Tbps
E2E latencyE2E latency 1 ms1ms
Maximum spectral efficiencyMaximum spectral efficiency 100 bps/Hz100bps/Hz
Mobility supportMobility support up to 1000 km/hrup to 1000 km/hr
Satellite integrationSatellite integration FullyFully
AIA.I. FullyFully
Autonomous vehicleAutonomous vehicle FullyFully
XRXR FullyFully
Haptic CommunicationHaptic Communication FullyFully
이때, 6G 시스템은 향상된 모바일 브로드밴드(enhanced mobile broadband, eMBB), 초-저지연 통신(ultra-reliable low latency communications, URLLC), mMTC (massive machine type communications), AI 통합 통신(AI integrated communication), 촉각 인터넷(tactile internet), 높은 스루풋(high throughput), 높은 네트워크 능력(high network capacity), 높은 에너지 효율(high energy efficiency), 낮은 백홀 및 접근 네트워크 혼잡(low backhaul and access network congestion) 및 향상된 데이터 보안(enhanced data security)과 같은 핵심 요소(key factor)들을 가질 수 있다.At this time, the 6G system includes enhanced mobile broadband (eMBB), ultra-reliable low latency communications (URLLC), massive machine type communications (mMTC), AI integrated communication, and tactile communication. tactile internet, high throughput, high network capacity, high energy efficiency, low backhaul and access network congestion, and improved data security. It can have key factors such as enhanced data security.
도 10은 본 개시에 적용 가능한 6G 시스템에서 제공 가능한 통신 구조의 일례를 도시한 도면이다.FIG. 10 is a diagram illustrating an example of a communication structure that can be provided in a 6G system applicable to the present disclosure.
도 10을 참조하면, 6G 시스템은 5G 무선통신 시스템보다 50배 더 높은 동시 무선통신 연결성을 가질 것으로 예상된다. 5G의 핵심 요소(key feature)인 URLLC는 6G 통신에서 1ms보다 적은 단-대-단(end-to-end) 지연을 제공함으로써 보다 더 주요한 기술이 될 것으로 예상된다. 이때, 6G 시스템은 자주 사용되는 영역 스펙트럼 효율과 달리 체적 스펙트럼 효율이 훨씬 우수할 것이다. 6G 시스템은 매우 긴 배터리 수명과 에너지 수확을 위한 고급 배터리 기술을 제공할 수 있어, 6G 시스템에서 모바일 장치들은 별도로 충전될 필요가 없을 수 있다. Referring to Figure 10, the 6G system is expected to have simultaneous wireless communication connectivity 50 times higher than that of the 5G wireless communication system. URLLC, a key feature of 5G, is expected to become an even more mainstream technology in 6G communications by providing end-to-end delays of less than 1ms. At this time, the 6G system will have much better volume spectrum efficiency, unlike the frequently used area spectrum efficiency. 6G systems can provide very long battery life and advanced battery technologies for energy harvesting, so mobile devices in 6G systems may not need to be separately charged.
6G 시스템의 핵심 구현 기술Core implementation technology of 6G system
- 인공 지능(artificial Intelligence, AI)- Artificial Intelligence (AI)
6G 시스템에 가장 중요하며, 새로 도입될 기술은 AI이다. 4G 시스템에는 AI가 관여하지 않았다. 5G 시스템은 부분 또는 매우 제한된 AI를 지원할 것이다. 그러나, 6G 시스템은 완전히 자동화를 위해 AI가 지원될 것이다. 머신 러닝의 발전은 6G에서 실시간 통신을 위해 보다 지능적인 네트워크를 만들 것이다. 통신에 AI를 도입하면 실시간 데이터 전송이 간소화되고 향상될 수 있다. AI는 수많은 분석을 사용하여 복잡한 대상 작업이 수행되는 방식을 결정할 수 있다. 즉, AI는 효율성을 높이고 처리 지연을 줄일 수 있다.The most important and newly introduced technology in the 6G system is AI. AI was not involved in the 4G system. 5G systems will support partial or very limited AI. However, 6G systems will be AI-enabled for full automation. Advances in machine learning will create more intelligent networks for real-time communications in 6G. Introducing AI in communications can simplify and improve real-time data transmission. AI can use numerous analytics to determine how complex target tasks are performed. In other words, AI can increase efficiency and reduce processing delays.
핸드 오버, 네트워크 선택, 자원 스케줄링과 같은 시간 소모적인 작업은 AI를 사용함으로써 즉시 수행될 수 있다. AI는 M2M, 기계-대-인간 및 인간-대-기계 통신에서도 중요한 역할을 할 수 있다. 또한, AI는 BCI(brain computer interface)에서 신속한 통신이 될 수 있다. AI 기반 통신 시스템은 메타 물질, 지능형 구조, 지능형 네트워크, 지능형 장치, 지능형 인지 라디오(radio), 자체 유지 무선 네트워크 및 머신 러닝에 의해 지원될 수 있다.Time-consuming tasks such as handover, network selection, and resource scheduling can be performed instantly by using AI. AI can also play an important role in M2M, machine-to-human and human-to-machine communications. Additionally, AI can enable rapid communication in BCI (brain computer interface). AI-based communication systems can be supported by metamaterials, intelligent structures, intelligent networks, intelligent devices, intelligent cognitive radios, self-sustaining wireless networks, and machine learning.
최근 AI를 무선 통신 시스템과 통합하려고 하는 시도들이 나타나고 있으나, 이는 어플리케이션 계층(application layer), 네트워크 계층(network layer) 특히, 딥 러닝은 무선 자원 관리 및 할당(wireless resource management and allocation) 분야에 집중되어 왔다. 그러나, 이러한 연구는 점점 MAC 계층 및 물리 계층으로 발전하고 있으며, 특히 물리계층에서 딥 러닝을 무선 전송(wireless transmission)과 결합하고자 하는 시도들이 나타나고 있다. AI 기반의 물리계층 전송은, 근본적인 신호 처리 및 통신 메커니즘에 있어서, 전통적인 통신 프레임워크가 아니라 AI 드라이버에 기초한 신호 처리 및 통신 메커니즘을 적용하는 것을 의미한다. 예를 들어, 딥러닝 기반의 채널 코딩 및 디코딩(channel coding and decoding), 딥러닝 기반의 신호 추정(estimation) 및 검출(detection), 딥러닝 기반의 MIMO(multiple input multiple output) 매커니즘(mechanism), AI 기반의 자원 스케줄링(scheduling) 및 할당(allocation) 등을 포함할 수 있다.Recently, attempts have been made to integrate AI with wireless communication systems, but these are focused on the application layer and network layer, and in particular, deep learning is focused on wireless resource management and allocation. come. However, this research is gradually advancing to the MAC layer and physical layer, and attempts are being made to combine deep learning with wireless transmission, especially in the physical layer. AI-based physical layer transmission means applying signal processing and communication mechanisms based on AI drivers, rather than traditional communication frameworks, in terms of fundamental signal processing and communication mechanisms. For example, deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO (multiple input multiple output) mechanism, It may include AI-based resource scheduling and allocation.
머신 러닝은 채널 추정 및 채널 트래킹을 위해 사용될 수 있으며, DL(downlink)의 물리 계층(physical layer)에서 전력 할당(power allocation), 간섭 제거(interference cancellation) 등에 사용될 수 있다. 또한, 머신 러닝은 MIMO 시스템에서 안테나 선택, 전력 제어(power control), 심볼 검출(symbol detection) 등에도 사용될 수 있다.Machine learning can be used for channel estimation and channel tracking, and can be used for power allocation, interference cancellation, etc. in the physical layer of the DL (downlink). Machine learning can also be used for antenna selection, power control, and symbol detection in MIMO systems.
그러나 물리계층에서의 전송을 위한 DNN의 적용은 아래와 같은 문제점이 있을 수 있다.However, application of DNN for transmission in the physical layer may have the following problems.
딥러닝 기반의 AI 알고리즘은 훈련 파라미터를 최적화하기 위해 수많은 훈련 데이터가 필요하다. 그러나 특정 채널 환경에서의 데이터를 훈련 데이터로 획득하는데 있어서의 한계로 인해, 오프라인 상에서 많은 훈련 데이터를 사용한다. 이는 특정 채널 환경에서 훈련 데이터에 대한 정적 훈련(static training)은, 무선 채널의 동적 특성 및 다이버시티(diversity) 사이에 모순(contradiction)이 생길 수 있다.Deep learning-based AI algorithms require a large amount of training data to optimize training parameters. However, due to limitations in acquiring data from a specific channel environment as training data, a lot of training data is used offline. This means that static training on training data in a specific channel environment may result in a contradiction between the dynamic characteristics and diversity of the wireless channel.
또한, 현재 딥 러닝은 주로 실제 신호(real signal)을 대상으로 한다. 그러나, 무선 통신의 물리 계층의 신호들은 복소 신호(complex signal)이다. 무선 통신 신호의 특성을 매칭시키기 위해 복소(complex) 도메인 신호의 검출하는 신경망(neural network)에 대한 연구가 더 필요하다.Additionally, current deep learning mainly targets real signals. However, signals of the physical layer of wireless communication are complex signals. In order to match the characteristics of wireless communication signals, more research is needed on neural networks that detect complex domain signals.
이하, 머신 러닝에 대해 보다 구체적으로 살펴본다.Below, we will look at machine learning in more detail.
머신 러닝은 사람이 할 수 있거나 혹은 하기 어려운 작업을 대신해낼 수 있는 기계를 만들어 내기 위해 기계를 학습시키는 일련의 동작을 의미한다. 머신 러닝을 위해서는 데이터와 러닝 모델이 필요하다. 머신 러닝에서 데이터의 학습 방법은 크게 3가지 즉, 지도 학습(supervised learning), 비지도 학습(unsupervised learning) 그리고 강화 학습(reinforcement learning)으로 구분될 수 있다.Machine learning refers to a series of operations that train machines to create machines that can perform tasks that are difficult or difficult for humans to perform. Machine learning requires data and a learning model. In machine learning, data learning methods can be broadly divided into three types: supervised learning, unsupervised learning, and reinforcement learning.
신경망 학습은 출력의 오류를 최소화하기 위한 것이다. 신경망 학습은 반복적으로 학습 데이터를 신경망에 입력시키고 학습 데이터에 대한 신경망의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 신경망의 에러를 신경망의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation) 하여 신경망의 각 노드의 가중치를 업데이트하는 과정이다.Neural network learning is intended to minimize errors in output. Neural network learning repeatedly inputs learning data into the neural network, calculates the output of the neural network and the error of the target for the learning data, and backpropagates the error of the neural network from the output layer of the neural network to the input layer to reduce the error. ) is the process of updating the weight of each node in the neural network.
지도 학습은 학습 데이터에 정답이 라벨링된 학습 데이터를 사용하며 비지도 학습은 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 지도 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링된 데이터 일 수 있다. 라벨링된 학습 데이터가 신경망에 입력되고 신경망의 출력(카테고리)과 학습 데이터의 라벨을 비교하여 오차(error)가 계산될 수 있다. 계산된 오차는 신경망에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 신경망의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 신경망의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 신경망의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 신경망의 학습 초기에는 높은 학습률을 사용하여 신경망이 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다Supervised learning uses training data in which the correct answer is labeled, while unsupervised learning may not have the correct answer labeled in the training data. That is, for example, in the case of supervised learning on data classification, the learning data may be data in which each training data is labeled with a category. Labeled learning data is input to a neural network, and error can be calculated by comparing the output (category) of the neural network with the label of the learning data. The calculated error is backpropagated in the reverse direction (i.e., from the output layer to the input layer) in the neural network, and the connection weight of each node in each layer of the neural network can be updated according to backpropagation. The amount of change in the connection weight of each updated node may be determined according to the learning rate. The neural network's calculation of input data and backpropagation of errors can constitute a learning cycle (epoch). The learning rate may be applied differently depending on the number of repetitions of the learning cycle of the neural network. For example, in the early stages of neural network training, a high learning rate can be used to ensure that the neural network quickly achieves a certain level of performance to increase efficiency, and in the later stages of training, a low learning rate can be used to increase accuracy.
데이터의 특징에 따라 학습 방법은 달라질 수 있다. 예를 들어, 통신 시스템 상에서 송신단에서 전송한 데이터를 수신단에서 정확하게 예측하는 것을 목적으로 하는 경우, 비지도 학습 또는 강화 학습 보다는 지도 학습을 이용하여 학습을 수행하는 것이 바람직하다.Learning methods may vary depending on the characteristics of the data. For example, in a communication system, when the goal is to accurately predict data transmitted from a transmitter at a receiver, it is preferable to perform learning using supervised learning rather than unsupervised learning or reinforcement learning.
러닝 모델은 인간의 뇌에 해당하는 것으로서, 가장 기본적인 선형 모델을 생각할 수 있으나, 인공 신경망(artificial neural networks)와 같은 복잡성이 높은 신경망 구조를 러닝 모델로 사용하는 머신 러닝의 패러다임을 딥러닝(deep learning)이라 한다.The learning model corresponds to the human brain, and can be considered the most basic linear model. However, deep learning is a machine learning paradigm that uses a highly complex neural network structure, such as artificial neural networks, as a learning model. ).
학습(learning) 방식으로 사용하는 신경망 코어(neural network cord)는 크게 심층 신경망(deep neural networks, DNN), 합성곱 신경망(convolutional deep neural networks, CNN), 순환 신경망(recurrent boltzmann machine, RNN) 방식이 있으며, 이러한 러닝 모델이 적용될 수 있다.Neural network cores used as learning methods are broadly divided into deep neural networks (DNN), convolutional deep neural networks (CNN), and recurrent neural networks (recurrent boltzmann machine). And this learning model can be applied.
THz(Terahertz) 통신Terahertz (THz) communications
6G 시스템에서 THz 통신이 적용될 수 있다. 일 예로, 데이터 전송률은 대역폭을 늘려 높일 수 있다. 이것은 넓은 대역폭으로 sub-THz 통신을 사용하고, 진보된 대규모 MIMO 기술을 적용하여 수행될 수 있다. THz communication can be applied in the 6G system. As an example, the data transfer rate can be increased by increasing the bandwidth. This can be accomplished by using sub-THz communications with wide bandwidth and applying advanced massive MIMO technology.
도 9는 본 개시에 적용 가능한 전자기 스펙트럼을 도시한 도면이다. 일 예로, 도 9를 참조하면, 밀리미터 이하의 방사선으로도 알려진 THz파는 일반적으로 0.03mm-3mm 범위의 해당 파장을 가진 0.1THz와 10THz 사이의 주파수 대역을 나타낸다. 100GHz-300GHz 대역 범위(Sub THz 대역)는 셀룰러 통신을 위한 THz 대역의 주요 부분으로 간주된다. Sub-THz 대역 mmWave 대역에 추가하면 6G 셀룰러 통신 용량은 늘어난다. 정의된 THz 대역 중 300GHz-3THz는 원적외선 (IR) 주파수 대역에 있다. 300GHz-3THz 대역은 광 대역의 일부이지만 광 대역의 경계에 있으며, RF 대역 바로 뒤에 있다. 따라서, 이 300 GHz-3 THz 대역은 RF와 유사성을 나타낸다.Figure 9 is a diagram showing an electromagnetic spectrum applicable to the present disclosure. As an example, referring to Figure 9, THz waves, also known as submillimeter radiation, typically represent a frequency band between 0.1 THz and 10 THz with a corresponding wavelength in the range of 0.03 mm-3 mm. The 100GHz-300GHz band range (Sub THz band) is considered the main part of the THz band for cellular communications. Adding the Sub-THz band to the mmWave band increases 6G cellular communication capacity. Among the defined THz bands, 300GHz-3THz is in the far infrared (IR) frequency band. The 300GHz-3THz band is part of the wideband, but it is at the border of the wideband and immediately behind the RF band. Therefore, this 300 GHz-3 THz band shows similarities to RF.
THz 통신의 주요 특성은 (i) 매우 높은 데이터 전송률을 지원하기 위해 광범위하게 사용 가능한 대역폭, (ii) 고주파에서 발생하는 높은 경로 손실 (고 지향성 안테나는 필수 불가결)을 포함한다. 높은 지향성 안테나에서 생성된 좁은 빔 폭은 간섭을 줄인다. THz 신호의 작은 파장은 훨씬 더 많은 수의 안테나 소자가 이 대역에서 동작하는 장치 및 BS에 통합될 수 있게 한다. 이를 통해 범위 제한을 극복할 수 있는 고급 적응형 배열 기술을 사용할 수 있다. Key characteristics of THz communications include (i) widely available bandwidth to support very high data rates, (ii) high path loss occurring at high frequencies (highly directional antennas are indispensable). The narrow beamwidth produced by a highly directional antenna reduces interference. The small wavelength of THz signals allows a much larger number of antenna elements to be integrated into devices and BSs operating in this band. This enables the use of advanced adaptive array techniques that can overcome range limitations.
테라헤르츠(THz) 무선통신Terahertz (THz) wireless communication
도 10은 본 개시에 적용 가능한 THz 통신 방법을 도시한 도면이다. Figure 10 is a diagram illustrating a THz communication method applicable to the present disclosure.
도 10을 참조하면, THz 무선통신은 대략 0.1~10THz(1THz=1012Hz)의 진동수를 가지는 THz파를 이용하여 무선통신을 이용하는 것으로, 100GHz 이상의 매우 높은 캐리어 주파수를 사용하는 테라헤르츠(THz) 대역 무선통신을 의미할 수 있다. THz파는 RF(Radio Frequency)/밀리미터(mm)와 적외선 대역 사이에 위치하며, (i) 가시광/적외선에 비해 비금속/비분극성 물질을 잘 투과하며 RF/밀리미터파에 비해 파장이 짧아 높은 직진성을 가지며 빔 집속이 가능할 수 있다. Referring to Figure 10, THz wireless communication uses wireless communication using THz waves with a frequency of approximately 0.1 to 10 THz (1 THz = 1012 Hz), and is a terahertz (THz) band wireless communication that uses a very high carrier frequency of 100 GHz or more. It can mean communication. THz waves are located between RF (Radio Frequency)/millimeter (mm) and infrared bands. (i) Compared to visible light/infrared, they penetrate non-metal/non-polarized materials better and have a shorter wavelength than RF/millimeter waves, so they have high straightness. Beam focusing may be possible.
본 발명의 구체적인 실시 예Specific embodiments of the present invention
기존 통신 시스템은 섀넌(Shannon)의 철학에 따라, 스로우풋(throughput), 주파수 및 에너지 효율, 지연 속도 등의 전송률 중심의 메트릭(metric)에 의하여 발전되어 왔다. 즉, 기존 통신 시스템은 심볼의 성공적인 송수신을 목적으로 하여 연구가 활발히 진행되었다. 그러나, 기존 통신 시스템은 전송 전략과 데이터의 의미 및 관계성을 함께 고려하지 않으므로 관련성이 적은 정보를 송신하기 위해 불필요한 자원을 낭비할 수 있고, 방대한 양의 데이터 송수신을 필요로 하는 6G 통신을 수행함에 있어서 한계를 가질 수 있다.Existing communication systems have been developed based on data rate-centered metrics such as throughput, frequency and energy efficiency, and delay speed, according to Shannon's philosophy. In other words, research on existing communication systems has been actively conducted with the aim of successfully transmitting and receiving symbols. However, existing communication systems do not consider the transmission strategy and the meaning and relationship of data together, so unnecessary resources may be wasted to transmit less relevant information, and when performing 6G communication that requires transmission and reception of vast amounts of data, There may be limitations.
통신의 궁극적인 목적은 정보의 '의미'를 교환하는 것이다. 이에, 그동안 고려되지 않았던 전송 데이터의 의미(meaning)가 차세대 통신의 중요한 역할로 고려되고 있으며, '의미 전달' 개념을 기반으로 하는 시멘틱 통신(semantic communication)이 차세대 무선 통신 패러다임 중 하나로서 대두되었다.The ultimate purpose of communication is to exchange the ‘meaning’ of information. Accordingly, the meaning of transmitted data, which had not been considered until now, is being considered an important role in next-generation communication, and semantic communication based on the concept of 'transferring meaning' has emerged as one of the next-generation wireless communication paradigms.
시멘틱 통신은 송신기와 수신기가 공유하는 공통의 정보(예: 배경지식(background knowledge))를 이용하여 의미 정보를 효율적으로 송수신하는 통신 시스템이다. 전송 데이터의 의미를 고려한 고효율 통신 방법인 시멘틱 통신은 기하급수적으로 증가하는 데이터 트래픽 속도에 맞춰 데이터를 전송 및 처리할 수 있다. 나아가, 6G 통신이 상용화되는 2029년경에는 다수의 인공지능(artificial intelligence, AI) 기술이 적용된 기기들이 개발될 것이므로, AI 기기들 간의 통신 및 AI 기기와 인간 간의 통신 등에서 정확하고 신속한 의미 전달을 위한 시멘틱 통신이 활용될 것이다.Semantic communication is a communication system that efficiently transmits and receives semantic information using common information (e.g., background knowledge) shared between a transmitter and a receiver. Semantic communication, a highly efficient communication method that considers the meaning of transmitted data, can transmit and process data in accordance with the exponentially increasing data traffic speed. Furthermore, by 2029, when 6G communication is commercialized, many devices equipped with artificial intelligence (AI) technology will be developed, so semantics for accurate and rapid conveyance of meaning in communication between AI devices and between AI devices and humans are needed. Communication will be utilized.
도 11은 본 개시의 일 실시 예에 따른 통신 시스템들의 예를 도시한다. 도 11(a)를 참고하면, 기존 통신은 목적지(destination)(1120)가 소스(source)(1110)로부터 수신한 인코딩(encoding)된 신호를 에러(error) 없이 기존 신호로 디코딩(decoding)하는 것에 중점을 둔다. 반면, 도 11(b)를 참고하면, 시멘틱 통신은 사람들이 의사소통 시 단어의 ‘의미(meaning)’를 통해 정보를 교환하는 것과 같이, 신호를 통해 전달하려는 의미에 중점을 둔다. 시멘틱 통신의 핵심은 소스에서 전송된 정보의 "의미"를 목적지가 추출하는 것이다. 의미론적 정보는 소스(1130)와 목적지 간의 일치된 지식 기반(knowledge base, KB)(1150)에 기초하여 성공적으로 "해석"될 수 있다. 이에, 신호에 에러가 존재하더라도 신호를 통해 전달하려는 의미대로 동작이 이루어지면, 올바른 통신이 수행된 것이다. 따라서, 시멘틱 통신에서는 소스(1130)에서 송신한 신호(예: 표현(representation))에 담긴 의도대로 목적지(1140)에 위치한 테스크(task)가 수행되는지에 대한 접근이 필요하다. 이를 위해서는, 송신되는 신호는 목적지에 위치한 테스크를 고려하여 생성되어야 한다.11 shows examples of communication systems according to an embodiment of the present disclosure. Referring to FIG. 11(a), existing communication involves decoding the encoded signal received by the destination 1120 from the source 1110 into an existing signal without error. focus on On the other hand, referring to Figure 11(b), semantic communication focuses on the meaning to be conveyed through signals, such as when people exchange information through the 'meaning' of words when communicating. The core of semantic communication is for the destination to extract the “meaning” of the information transmitted from the source. Semantic information can be successfully “interpreted” based on a consensus knowledge base (KB) 1150 between the source 1130 and the destination. Accordingly, even if there is an error in the signal, if the operation is performed according to the meaning intended to be conveyed through the signal, correct communication has been performed. Therefore, in semantic communication, it is necessary to access whether the task located at the destination 1140 is performed as intended in the signal (e.g., representation) transmitted from the source 1130. To achieve this, the transmitted signal must be generated considering the task located at the destination.
시멘틱 통신은 데이터를 전송하는데 필요한 에너지 및 무선 자원을 크게 감소시킬 수 있기 때문에 온라인 회의, 증강 현실(augmented reality, AR), 가상 현실(virtual reality, VR) 등을 위해 사용될 수 있다. 이에, 최근 들어 시멘틱 통신을 위해 DNN(deep neural network)을 이용하여 시멘틱 인코딩(encoding) 및 디코딩(decoding)을 수행하는 방법에 대해 활발히 연구되고 있다. 구체적으로, 고전적인 정보 이론에서 시멘틱 정보 이론(예: 시멘틱 엔트로피(semantic entropy)의 정의, 시멘틱 공통 정보(semantic mutual information)의 정의)까지 확장하기 위한 연구가 진행되고 있다. 또한, 광범위한 의미의 시멘틱 엔트로피와 채널 용량(channel capacity)을 기반으로 로스 펑션 메트릭(loss function metric)을 정의하고, 정의된 메트릭을 기반으로 DNN를 이용하여 시멘틱 인코더(encoder) 및 디코더(decoder)를 구축하는 연구들이 진행되고 있다.Semantic communication can be used for online meetings, augmented reality (AR), virtual reality (VR), etc. because it can significantly reduce the energy and wireless resources required to transmit data. Accordingly, recently, active research has been conducted on methods of performing semantic encoding and decoding using a deep neural network (DNN) for semantic communication. Specifically, research is underway to expand from classical information theory to semantic information theory (e.g., definition of semantic entropy, definition of semantic mutual information). In addition, a loss function metric is defined based on semantic entropy and channel capacity in a broad sense, and a semantic encoder and decoder are developed using DNN based on the defined metric. Construction studies are in progress.
한편, 시멘틱 통신을 위한 대부분의 연구들은, 시멘틱 인코더(semantic encoder)의 측면에서는 임베딩 벡터(embedding vector)로부터 전체 데이터 시퀀스(whole data sequence)가 포함된 특징(feature)을 추출하는 것에 중점을 두고, 시멘틱 디코더(semantic decoder) 측면에서는 레이턴트 벡터(latent vector)로부터 테스크(task) 목적에 적합한 아웃풋(output)을 출력하는 것에 중점을 둔다. 시멘틱 인코더는 데이터의 모든 성분들을 고려하여 특징을 추출하여 컴프레션(compression)을 최적으로 수행할 수 있다. 그러나, 이 경우 시멘틱 인코더 및 시멘틱 디코더의 인풋(input)들인 임베딩 벡터의 사이즈가 커지기 때문에 각각의 DNN 모델 사이즈가 커질 수밖에 없다(large-scale model). 또한, 추출된 특징들의 중요도(importance)를 선별하거나, 추출된 특징들 중 에러(error)가 발생한 특징을 판단하기 힘든 단점이 존재한다.Meanwhile, most studies on semantic communication focus on extracting features containing the whole data sequence from the embedding vector in terms of semantic encoders. In terms of semantic decoder, the focus is on outputting output suitable for the task purpose from latent vectors. Semantic encoders can optimally perform compression by extracting features by considering all components of the data. However, in this case, since the size of the embedding vector, which is the input of the semantic encoder and semantic decoder, becomes large, the size of each DNN model is inevitably large (large-scale model). In addition, there is a disadvantage that it is difficult to select the importance of the extracted features or determine which feature in the error occurred among the extracted features.
이에, 본 개시는 상술한 점을 고려하여 새로운 시멘틱 소스 코딩 방법을 제시한다. 구체적으로, 본 개시는, 배경 지식(background knowledge)을 이용하여 테스크(task)를 복수의 서브테스크(subtask)들로 분할(decomposition)하고, 분할된 서브테스크 별로 레이어가 구성된 시멘틱 레이어드 인코더 및 디코더(semantic layered encoder/decoder)를 이용한 시멘틱 소스 코딩 방법을 제안한다.Accordingly, the present disclosure proposes a new semantic source coding method in consideration of the above-mentioned points. Specifically, the present disclosure divides a task into a plurality of subtasks using background knowledge, and uses a semantic layered encoder and decoder ( We propose a semantic source coding method using semantic layered encoder/decoder.
한편, 시멘틱 통신을 위해서는 기존 통신과 비교하여 시멘틱 레이어(1210)가 필요할 수 있다. 도 12는 본 개시의 일 실시예에 따른 시멘틱 통신을 위한 프로토콜 스텍에 대한 예를 도시한다. 유저 데이터 플레인(user data plane)의 프로토콜 스텍을 고려하면 PHY 레이어 위에 MAC 레이어, RLC 레이어, PDCP 레이어 및 SDAP 레이어가 존재할 수 있다. 여기서, MAC 레이어, RLC 레이어, PDCP 레이어 및 SDAP 레이어는 레이어 2(layer 2)일 수 있다. 일 예로, 기존 무선 통신 시스템(e.g. LTE)에서는 SDAP 레이어가 존재하지 않을 수 있으나, 이에 한정되는 것은 아닐 수 있다. 여기서, 도 12(a)를 참조하면, 시멘틱 레이어(1210)는 SDAP 레이어 위에 존재할 수 있다. 일 예로, 시멘틱 레이어(1210)는 기존 데이터(original data)로부터 테스크 목적에 적합한 특징(feature)을 추출(extraction)하기 위해 사용될 수 있다. 시멘틱 레이어(1210)는 SDAP 레이어 위에 존재하여 추출된 특징을 SDAP 레이어로 전달할 수 있다. 그 후, 송신단에서 수신단으로 추출된 특징이 전송될 수 있으며, 특징에 따라 수신단에서 테스크가 수행될 수 있다. 즉, 특징은 테스크 수행을 위해 사용될 수 있으며, 기존 데이터는 시멘틱 레이어를 통해 배경지식을 활용하여 의미 전달을 위한 형태로 가공될 수 있다. Meanwhile, semantic communication may require a semantic layer 1210 compared to existing communication. Figure 12 shows an example of a protocol stack for semantic communication according to an embodiment of the present disclosure. Considering the protocol stack of the user data plane, there may be a MAC layer, RLC layer, PDCP layer, and SDAP layer above the PHY layer. Here, the MAC layer, RLC layer, PDCP layer, and SDAP layer may be layer 2. As an example, the SDAP layer may not exist in an existing wireless communication system (e.g. LTE), but this may not be limited. Here, referring to FIG. 12(a), the semantic layer 1210 may exist above the SDAP layer. As an example, the semantic layer 1210 can be used to extract features suitable for the task purpose from original data. The semantic layer 1210 exists above the SDAP layer and can transmit extracted features to the SDAP layer. Afterwards, the extracted features can be transmitted from the transmitting end to the receiving end, and a task can be performed at the receiving end according to the characteristics. In other words, features can be used to perform tasks, and existing data can be processed into a form to convey meaning by utilizing background knowledge through the semantic layer.
상술한 바에 기초하여, 시멘틱 통신은 송신단과 수신단의 배경지식을 통해 의미를 추론하는 방식일 수 있으며, 각 테스크 목적에 적합한 특징(feature)을 추출(extraction)하여 데이터를 가공한 형태의 통신일 수 있다. Based on the above, semantic communication may be a method of inferring meaning through the background knowledge of the transmitting end and the receiving end, and may be a form of communication in which data is processed by extracting features suitable for each task purpose. there is.
또 다른 일 예로, 설정되는 각각의 테스크별로 의미 추론을 위한 설정이 상이하고, 특징 추출 방법이 상이할 수 있다. 이때, 시멘틱 레이어(1210)는 SDAP 레이어 위에 존재하지만 레이어 2 내의 각각의 레이어들과 연관되어 구성될 수 있다. As another example, the settings for semantic inference may be different for each task, and the feature extraction method may be different. At this time, the semantic layer 1210 exists above the SDAP layer, but may be configured in relation to each layer within layer 2.
구체적인 일 예로, 각 테스크 별로 의미 추론에 필요한 신텍스 에러(syntax error) 조건이 상이할 수 있다. 즉, 의미추론을 고려하면 신텍스 에러를 어느 범위까지 허용할지는 각 테스크별로 상이하게 설정될 수 있으며, HARQ/ARQ 피드백 설정이 테스크를 고려하여 상이하게 설정될 수 있다. 상술한 점을 고려하면, 시멘틱 레이어(1210)에서 특정 테스크 수행을 고려하여 특징을 추출하고, 하위레이어로 가공된 데이터(또는 추출된 특징)를 전달하여 전송을 수행하는 경우, 하위레이어에서 시멘틱 레이어(1210)의 테스크를 고려한 동작이 상이해질 수 있으며, 이를 고려하여 시멘틱 레이어(1210)는 레이어 2 내의 레이어들과 연관되어 구성될 수 있다.또 다른 일 예로, 도 12(b)를 참조하면, 시멘틱 레이어(1220)는 레이어 2와 결합된 형태일 수 있다. 구체적으로, AI(artificial intelligence)에 기초하여 레이어 결합(layer merging)을 고려할 수 있다. 즉, 시멘틱 레이어(1220)는 별도의 레이어로 존재하지 않고, 레이어 2와 결합한 형태일 수 있다. 일 예로, 시멘틱 레이어(1220)는 레이어 2 내의 레이어들 각각과 결합된 형태일 수 있다. 또 다른 일 예로, 시멘틱 레이어(1220)는 레이어 2 내에서 AI를 통해 결합되어 동작할 수 있으며, 이를 통해 레이어 2 내의 각 레이어들은 시멘틱 통신을 고려한 동작을 수행할 수 있다. 즉, 시멘틱 레이어는 기존 프로토콜 스텍과 결합되거나 연관되어 존재할 수 있으며, 특정 실시예로 한정되는 것은 아닐 수 있다.As a specific example, the syntax error conditions required for semantic inference may be different for each task. That is, considering semantic inference, the extent to which syntax errors are allowed can be set differently for each task, and HARQ/ARQ feedback settings can be set differently considering the task. Considering the above, when features are extracted in consideration of performing a specific task in the semantic layer 1210 and transmission is performed by transmitting the processed data (or extracted features) to the lower layer, the semantic layer The operation considering the task of 1210 may be different, and taking this into account, the semantic layer 1210 may be configured in association with the layers in layer 2. As another example, referring to FIG. 12(b), The semantic layer 1220 may be combined with layer 2. Specifically, layer merging can be considered based on artificial intelligence (AI). That is, the semantic layer 1220 does not exist as a separate layer, but may be combined with layer 2. As an example, the semantic layer 1220 may be combined with each of the layers in layer 2. As another example, the semantic layer 1220 can be combined and operated through AI within layer 2, and through this, each layer within layer 2 can perform operations considering semantic communication. In other words, the semantic layer may exist in conjunction with or related to the existing protocol stack, and may not be limited to a specific embodiment.
일 예로, 하기에서는 시멘틱 레이어에 기초하여 송신단의 시멘틱 인코더를 통해 배경지식을 활용하여 기존 데이터(original data)에서 특징 정보가 추출되어 수신단으로 전송되고, 수신단의 시멘틱 디코더를 통해 수신한 특징 정보와 배경지식을 활용하여 테스크가 수행되는 방법에 대해 서술한다. 또한, 시멘틱 인코더 및 디코더의 설정(configuration)을 위한 제어 정보(예: NN(neural network) 모델 선택 방법, 레이어 깊이(layer depth) 정보)가 시멘틱 레이어에 기초하여 전달될 수 있으며, 이와 관련하여 서술한다. As an example, in the following, feature information is extracted from original data using background knowledge through a semantic encoder at the transmitting end based on the semantic layer and transmitted to the receiving end, and the feature information and background received through the semantic decoder at the receiving end. Describe how the task is performed using knowledge. In addition, control information for configuration of semantic encoders and decoders (e.g., NN (neural network) model selection method, layer depth information) may be transmitted based on the semantic layer, and is described in relation to this. do.
하기에서는 시멘틱 레이어를 통한 동작 및 시그널링에 필요한 이론들로서, 정보 보틀넥 이론(Information bottleneck theory) 및 커플링된 서브테스크(coupled subtask)에 대해 서술한다.In the following, information bottleneck theory and coupled subtask are described as theories necessary for operation and signaling through the semantic layer.
Information bottleneck theoryInformation bottleneck theory
정보 보틀넥 이론은 비트율 왜곡 이론(rate distortion theory)으로부터 파생된 이론이다. 정보 보틀넥 이론은 관련 정보(relevant information)에 기초하여 하기 수학식 1과 같이 표현될 수 있다. 관련 정보는 레이블(label) 또는 테스크(task)의 목적에 대응되는 아웃풋(output)이다.The information bottleneck theory is a theory derived from the rate distortion theory. The information bottleneck theory can be expressed as Equation 1 below based on relevant information. Related information is a label or output that corresponds to the purpose of the task.
[수학식 1][Equation 1]
Figure PCTKR2022013085-appb-img-000001
Figure PCTKR2022013085-appb-img-000001
수학식1에서, X는 기존 데이터 신호 공간(original data signal space), S는 압축된 신호(예: 특징) 공간(compressed signal(e.g. feature) space), Y는 관련 정보 신호 공간(relevant information signal space)이다. β는 언어 배율기(Lagrange multiplier)이고, 양의 값(positive value)을 갖는다. 수학식 1에 따르면, I(S;X)값이 작을수록, 그리고 I(S;Y) 값이 클수록 관련 정보 값이 최소가 된다. 따라서, I(S;X) 값이 작을수록 압축된 신호 S가 기존 데이터(original data) X로부터 독립적(independent)인 정도가 큰 것이고, I(S;Y) 값이 클수록 압축된 신호 S가 관련 정보 Y에 대한 정보를 최대한 잘 표현한 것이다. 즉, 기존 데이터 X에서 관련 정보 Y에 대한 특징만을 추출한 레이턴트 벡터(latent vector)가 압축된 신호 S인 것이다. 수학식 1을 재구성(reformulation)하면 하기 수학식 2와 같다.In Equation 1, X is the original data signal space, S is the compressed signal (e.g. feature) space, and Y is the relevant information signal space. )am. β is a language multiplier and has a positive value. According to Equation 1, the smaller the I(S;X) value and the larger the I(S;Y) value, the minimum the relevant information value. Therefore, the smaller the I(S;X) value, the greater the degree to which the compressed signal S is independent from the original data It expresses the information about information Y as best as possible. In other words, the signal S is a compressed latent vector that extracts only the features of related information Y from existing data X. If Equation 1 is reformulated, it becomes Equation 2 below.
[수학식 2][Equation 2]
Figure PCTKR2022013085-appb-img-000002
Figure PCTKR2022013085-appb-img-000002
수학식2에서, KL(a|b)는 쿨백 라이블러 발산(Kullback-Leibler divergence)이다. 쿨백 라이블러 발산은 확률 분포 a와 b가 얼마나 유사한지를 의미한다. p(s|x)는 시멘틱 인코더에, p(y|s)는 시멘틱 디코더에 대응된다. In Equation 2, KL(a|b) is Kullback-Leibler divergence. Kullback-Leibler divergence refers to how similar the probability distributions a and b are. p(s|x) corresponds to the semantic encoder, and p(y|s) corresponds to the semantic decoder.
Coupled subtask and its data/label setCoupled subtask and its data/label set
하기에서는, 본 개시가 적용되기 위한 테스크, 테스크와 관련된 데이터/레이블 셋(set)의 분할(decomposition), 분할된 서브테스크(subtask)들 간의 커플링(coupling) 및 부분 데이터/부분 레이블(partial data/partial label)들의 커플링에 대해서 서술한다. In the following, tasks to which the present disclosure is applied, decomposition of data/label sets related to the tasks, coupling between divided subtasks, and partial data/partial labels are described. /partial labels) coupling is described.
테스크는 복수의 서브테스크들로 분할될 수 있다. 분할된 서브테스크들은 각각 임의의 관계성을 갖고 있음을 가정한다. 테스크는 서로 다른 도메인의 서브테스크로 분할될 수 있으므로, 멀티-레이어 서브테스크(multi-layer subtask)일 수 있다. 분할된 서브테스크들은 각각 하나의 레이어에 대응될 수 있다.A task can be divided into multiple subtasks. It is assumed that the divided subtasks each have a random relationship. A task can be divided into subtasks of different domains, so it can be a multi-layer subtask. Each divided subtask may correspond to one layer.
한편, 테스크는 분할된 서브테스크들의 튜플(tuple)들로 표현될 수 있다. 또한, 서브테스크들과 관련된 데이터와 레이블은 튜플로 표현될 수 있다. 이때, 각 서브테스크들 간에 임의의 관계(relation)가 존재하므로, 각 서브테스크 레이어의 아웃풋(예: 상태(state))들은 이전 테스크 레이어의 아웃풋들에 대해 의존성(dependency)를 가질 수 있다. 즉, 이전 테스크 레이어들에서 서로 디커플링(decoupling)된 테스크 레이어 아웃풋들은, 현재 서브테스크 레이어를 통과하며 서로 다른 서브테스크 레이어에 대한 아웃풋들로 변환(transition)될 수 있다. 하기에서는 테스크에 대한 이해를 돕기 위해 두 가지 실시 예를 서술한다. Meanwhile, a task can be expressed as a tuple of divided subtasks. Additionally, data and labels related to subtasks can be expressed as tuples. At this time, since an arbitrary relationship exists between each subtask, the output (e.g., state) of each subtask layer may have dependency on the outputs of the previous task layer. That is, task layer outputs decoupled from previous task layers pass through the current subtask layer and can be converted into outputs for different subtask layers. In the following, two examples are described to help understand the task.
1) Factory automation case1) Factory automation case
일 예로, 공장 자동화 상황을 가정할 수 있다. 이때, 테스크는 로봇이 ‘무엇을(what) 어디에서(where), 어떻게(how) 할 것인가'를 결정하는 것일 수 있다. 여기서 테스크는 '무엇을 어디서 어떻게 할 것인가'일 수 있다. 테스크는‘무엇', ‘어디' 및‘어떻게'라는 서브테스크들로 분할될 수 있다. As an example, a factory automation situation can be assumed. At this time, the task may be deciding ‘what, where, and how’ the robot will do. Here, the task may be ‘what to do, where to do it, and how to do it.’ A task can be divided into subtasks called ‘what’, ‘where’ and ‘how’.
이에, 테스크는 서브테스크 튜플(subtask tuple) (A, B, C)로 표현될 수 있다. 일 예로, A는 물건과 관련된 서브테스크, B는 장소와 관련된 서브테스크, C는 행동(action)에 관련된 서브테스크를 표현(representation)할 수 있다. 그리고, 물건에 따라서 후보 장소가 결정(또는 분리)될 수 있고, 결정된 장소에 따라 행동이 결정(또는 분리)될 수 있다.Accordingly, a task can be expressed as a subtask tuple (A, B, C). As an example, A may represent a subtask related to an object, B may represent a subtask related to a place, and C may represent a subtask related to an action. In addition, candidate locations may be determined (or separated) depending on the object, and actions may be determined (or separated) depending on the determined location.
일 예로, 로봇의 테스크가 무인 푸드코드에서 요리하는 것인 경우, 첫 번째 서브테스크로서 결정되는 요리 재료에 따라, 해당 요리 재료를 이용하여 요리를 하러 가는 장소가 두 번째 서브테스크로서 결정되고, 특정 장소에서 해당 요리 재료를 이용하여 요리할 수 있는 방법들이 세 번째 서브테스크로서 결정될 수 있다.For example, when the robot's task is to cook in an unmanned food court, the place to cook using the cooking ingredients is determined as the second subtask according to the cooking ingredients determined as the first subtask, and a specific Methods of cooking in a location using the corresponding cooking ingredients can be determined as the third subtask.
2) Image inference case2) Image inference case
다른 일 예로, 테스크의 목적이 임의의 동물 이미지에 대해 동물의 명칭을 추론(inference)하는 것인 경우를 가정한다. 동물 이미지로부터 동물의 명칭을 추론하기 위해, 해당 테스크는 부분적으로 동물의 생김새를 파악하는 서브테스크들로 분할될 수 있다. 일 예로, 해당 테스크의 서브테스크들은 각각 상위(예: 머리), 중위(예: 몸통), 하위(예: 다리)를 파악하는 테스크일 수 있다. 그리고, 테스크는 서브테스크 튜플(A, B, C)로 표현될 수 있다.As another example, assume that the purpose of the task is to infer the name of an animal for a random animal image. To infer the name of an animal from an animal image, the task can be partially divided into subtasks that determine the animal's appearance. As an example, the subtasks of the corresponding task may be tasks that identify the upper level (eg, head), middle level (eg, torso), and lower level (eg, leg). And, a task can be expressed as a subtask tuple (A, B, C).
A는 상위 생김새와 관련된 서브테스크, B는 중위 생김새 관련된 서브테스크, C는 하위 생김새 관련된 서브테스크를 나타(representation)낼 수 있다. 이때, 서브테스크 A의 결과로서 해당 이미지의 동물이 포유류 또는 조류인 것으로 결정(또는 분류)되면, 서브테스크 B에서는 포유류와 조류의 차이점(예: 포유류의 경우는 몸통의 털의 색깔/질감 특성, 조류의 경우는 깃털의 색깔/질감 특성, 날개의 형태)에 중점을 두어 특이점을 추론하고 분류 작업을 수행할 수 있다. 이에 따라, 데이터 및 레이블들은 차이점에 기초한 특징 정보를 포함함으로써 디커플링될 수 있다.A may represent a subtask related to a high-level appearance, B may represent a subtask related to a middle-level appearance, and C may represent a subtask related to a low-level appearance. At this time, if the animal in the image is determined (or classified) as a mammal or bird as a result of subtask A, subtask B determines the differences between mammals and birds (e.g., in the case of mammals, the color/texture characteristics of body fur, In the case of birds, it is possible to infer unique features and perform classification tasks by focusing on the color/texture characteristics of feathers and the shape of wings. Accordingly, data and labels can be decoupled by including feature information based on differences.
상술한 점을 고려하여, 본 개시는 송수신단이 서브테스크 레이어 상태(subtask layer state)들 간의 관계 정보를 포함하는 정보인 배경지식을 공유하고, 배경지식에 기초하여 시멘틱 레이어드 인코딩 및 디코딩을 수행하는 방법을 제시한다. 서브테스크 레이어 상태들 간의 관계 정보는 하기에서 설명되는 서브테스크 상태 전환 매트릭스 셋(subtask state transition matrix set)(이하 ‘서브테스크 매트릭스 셋’)으로 표현될 수 있다.In consideration of the above, the present disclosure provides that the transmitting and receiving end shares background knowledge, which is information containing relationship information between subtask layer states, and performs semantic layered encoding and decoding based on the background knowledge. suggests a method. Relationship information between subtask layer states can be expressed as a subtask state transition matrix set (hereinafter referred to as ‘subtask matrix set’) described below.
Background knowledge: Subtask state transition matrix setBackground knowledge: Subtask state transition matrix set
서브테스크 매트릭스 셋은 배경지식으로서 활용될 수 있으며, 서브테스크 레이어 간의 관계를 나타낸다. 하기 수학식 3은 서브테스크 매트릭스 셋을 표현한다.The subtask matrix set can be used as background knowledge and represents the relationship between subtask layers. Equation 3 below expresses the subtask matrix set.
[수학식 3][Equation 3]
Figure PCTKR2022013085-appb-img-000003
Figure PCTKR2022013085-appb-img-000003
수학식 3에서
Figure PCTKR2022013085-appb-img-000004
는 m번째 레이어의 서브테스크 상태 전환 매트릭스(subtask state transition matrix)(
Figure PCTKR2022013085-appb-img-000005
)(이하 ‘서브테스크 매트릭스’)이다. 여기서 로우(row)(
Figure PCTKR2022013085-appb-img-000006
)는 m-1번째 레이어들까지의 가능한 서브테스크 조합들의 인덱스를, 칼럼(column)(
Figure PCTKR2022013085-appb-img-000007
)은 m번째 서브테스크의 가능한 상태 인덱스(available state index)를 의미한다. 로우 인덱스(row index), 칼럼 인덱스(column index)에 1이 존재하면 해당 서브테스크 상태 간 전환이 가능함을 의미한다. 따라서
Figure PCTKR2022013085-appb-img-000008
에서 j번째 로우 인덱스에 해당되는 서브테스크 튜플은 하기 수학식 4와 같이 표현될 수 있다.
In equation 3:
Figure PCTKR2022013085-appb-img-000004
is the subtask state transition matrix of the mth layer (
Figure PCTKR2022013085-appb-img-000005
) (hereinafter referred to as ‘subtask matrix’). Here, row(
Figure PCTKR2022013085-appb-img-000006
) is the index of possible subtask combinations up to the m-1th layers, column (
Figure PCTKR2022013085-appb-img-000007
) means the available state index of the mth subtask. If 1 exists in the row index and column index, it means that switching between the relevant subtask states is possible. thus
Figure PCTKR2022013085-appb-img-000008
The subtask tuple corresponding to the jth row index can be expressed as Equation 4 below.
[수학식 4][Equation 4]
Figure PCTKR2022013085-appb-img-000009
Figure PCTKR2022013085-appb-img-000009
수학식 4에서,
Figure PCTKR2022013085-appb-img-000010
는 i번째 레이어의 서브테스크 아웃풋 상태(subtask output state)를 의미한다. m번째 레이어의 서브테스크 아웃풋 상태는 하기 수학식 5와 같이 커플링될 수 있다.
In equation 4,
Figure PCTKR2022013085-appb-img-000010
means the subtask output state of the ith layer. The subtask output state of the mth layer can be coupled as shown in Equation 5 below.
[수학식 5][Equation 5]
Figure PCTKR2022013085-appb-img-000011
Figure PCTKR2022013085-appb-img-000011
수학식 5에서,
Figure PCTKR2022013085-appb-img-000012
Figure PCTKR2022013085-appb-img-000013
의 n번째 로우 벡터(row vector)를,
Figure PCTKR2022013085-appb-img-000014
는 벡터 a에서 0이 아닌 요소(nonzero element)들이 위치하는 인덱스의 콜렉션 셋(collection set)을 의미한다. 따라서, 수학식 5는 m번째 서브테스크 레이어에서 가능한 아웃풋들의 인덱스 집합이다. 수학식 5에서,
Figure PCTKR2022013085-appb-img-000015
은 아웃풋 종류를,
Figure PCTKR2022013085-appb-img-000016
는 디커플링된 서브셋의 개수이다. 이때, m-1번째 레이어의 서브테스크 아웃풋 상태가 서로 다른 커플링 서브셋(coupling subset)에 포함되는 서브테스크는 m번째 레이어에서 동일한 서브테스크 상태로의 전환이 불가능할 수 있다.
In equation 5,
Figure PCTKR2022013085-appb-img-000012
Is
Figure PCTKR2022013085-appb-img-000013
The nth row vector of
Figure PCTKR2022013085-appb-img-000014
means a collection set of indices where nonzero elements in vector a are located. Therefore, Equation 5 is an index set of possible outputs from the mth subtask layer. In equation 5,
Figure PCTKR2022013085-appb-img-000015
is the output type,
Figure PCTKR2022013085-appb-img-000016
is the number of decoupled subsets. At this time, subtasks included in coupling subsets with different subtask output states in the m-1th layer may not be able to transition to the same subtask state in the mth layer.
도 13은 본 개시의 일 실시 예에 따른 서브테스크 매트릭스 셋(1300)의 예를 도시한다. 도 13을 참고하면, 첫 번째 서브테스크 레이어(1310)는
Figure PCTKR2022013085-appb-img-000017
, 두 번째 서브테스크 레이어(1320)는
Figure PCTKR2022013085-appb-img-000018
, 세 번째 서브테스크 레이어(1330)는
Figure PCTKR2022013085-appb-img-000019
, 네 번째 서브테스크 레이어(1340)는
Figure PCTKR2022013085-appb-img-000020
이다.
Figure 13 shows an example of a subtask matrix set 1300 according to an embodiment of the present disclosure. Referring to Figure 13, the first subtask layer 1310 is
Figure PCTKR2022013085-appb-img-000017
, the second subtask layer 1320 is
Figure PCTKR2022013085-appb-img-000018
, the third subtask layer 1330 is
Figure PCTKR2022013085-appb-img-000019
, the fourth subtask layer 1340 is
Figure PCTKR2022013085-appb-img-000020
am.
Layer construction orderLayer construction order
하기에서는 테스크를 서브테스크 레이어들로 분할할 때, 시멘틱 인코더 및 디코더의 레이어를 구성하는 방법에 대해 서술한다. 이때, 본 개시에서는 깊이(depth)가 깊은 레이어일수록, 정밀한 정보가 다뤄지는 것을 가정한다. 즉, 상대적으로 통상적인 정보에 대한 서브테스크는 로우 레이어(low layer)에서 다뤄지고, 프라이빗(private)한 정보 또는 서브테스크에 의존적인 정보에 대한 서브테스크는 하이 레이어(high layer)에서 다뤄지는 것이다. 이를 통해, 이전 레이어에서 디커플링된 서브테스크 아웃풋들은 현재 레이어에서 다시 커플링되지 않음으로써, 커플링된 서브테스크 별로 최적의 크기의 DNN(small deep neural network)을 활용할 수 있는 장점이 제공될 수 있다.The following describes how to configure the semantic encoder and decoder layers when dividing a task into subtask layers. At this time, in this disclosure, it is assumed that the deeper the depth of the layer, the more precise information is handled. In other words, subtasks for relatively common information are handled at the low layer, and subtasks for private information or information dependent on the subtask are handled at the high layer. Through this, subtask outputs decoupled in the previous layer are not recoupled in the current layer, providing the advantage of utilizing a DNN (small deep neural network) of the optimal size for each coupled subtask.
도 14는 본 개시의 일 실시 예에 따른 배경지식에 기초한 시멘틱 인코더 및 디코더 구조의 예를 도시한다.Figure 14 shows an example of a semantic encoder and decoder structure based on background knowledge according to an embodiment of the present disclosure.
도 14를 참고하면, 전체 데이터 공간은 X(1410)로, 레이블 공간(label space)은 Y(1430)로, 압축된 특징 공간(compressed feature space)은 S(1420)로 표현된 것을 확인할 수 있다. 이때, 레이블 공간은 관련 정보(relevant information)를 포함할 수 있다.Referring to Figure 14, it can be seen that the entire data space is expressed as X (1410), the label space is expressed as Y (1430), and the compressed feature space is expressed as S (1420). . At this time, the label space may include relevant information.
이 때, 각각의 공간에 포함된 샘플들(예:
Figure PCTKR2022013085-appb-img-000021
)은 서브테스크 별 부분 벡터 성분들이거나, 각 서브테스크에 해당하는 부분 데이터 시퀀스(partial data sequence) 및 부분 레이어 시퀀스(partial label sequence)의 연속적인 형태(concatenation)일 수 있다.
At this time, samples included in each space (e.g.
Figure PCTKR2022013085-appb-img-000021
) may be partial vector components for each subtask, or may be a concatenation of a partial data sequence and a partial label sequence corresponding to each subtask.
도 14에서 시멘틱 인코더(semantic encoder)는
Figure PCTKR2022013085-appb-img-000022
이다. 여기서
Figure PCTKR2022013085-appb-img-000023
는 M-도메인 압축 신호 벡터(domain compressed signal (feature) vector)이고,
Figure PCTKR2022013085-appb-img-000024
는 데이터 벡터에 대한 다양한 벡터(variable vector)들이다. 일 예로, 도메인은 서브테스크일 수 있다. 현재 서브테스크 레이어의 아웃풋은 현재 서브테스크 레이어에 대응되는 데이터 및 이전까지 누적된 서브테스크 레이어들의 아웃풋 상태 시퀀스(output state sequence)에 의해 영향을 받는다. 인코더는 서브테스크 매트릭스 셋을 배경지식으로 공유하고 있으므로
Figure PCTKR2022013085-appb-img-000025
는 하기 수학식 6과 같이 분할(decomposition)되어 근사(approximation)될 수 있다.
In Figure 14, the semantic encoder is
Figure PCTKR2022013085-appb-img-000022
am. here
Figure PCTKR2022013085-appb-img-000023
is the M-domain compressed signal (feature) vector,
Figure PCTKR2022013085-appb-img-000024
are variable vectors for data vectors. As an example, a domain may be a subtask. The output of the current subtask layer is influenced by the data corresponding to the current subtask layer and the output state sequence of the previously accumulated subtask layers. Since the encoder shares the subtask matrix set as background knowledge,
Figure PCTKR2022013085-appb-img-000025
Can be decomposed and approximated as shown in Equation 6 below.
[수학식 6][Equation 6]
Figure PCTKR2022013085-appb-img-000026
Figure PCTKR2022013085-appb-img-000026
수학식 6에서, 시멘틱 인코더를 트레이닝(training) 시 m번째 조건부 pdf(conditional pdf)로서
Figure PCTKR2022013085-appb-img-000027
를 획득하기 위해서는,
Figure PCTKR2022013085-appb-img-000028
에 대한 확률 분포 및 해당 인풋 벡터 셋(input vector set)을 확보해야 한다. 확률 분포 및 인풋 벡터 셋은 이전 서브테스크 레이어들에서 정해진 조건부 pdf에 대응되는 DNN과 데이터 샘플들로부터 획득된 아웃풋 샘플들로부터 획득할 수 있다.
In Equation 6, when training the semantic encoder, the mth conditional pdf is used.
Figure PCTKR2022013085-appb-img-000027
In order to obtain,
Figure PCTKR2022013085-appb-img-000028
The probability distribution for and the corresponding input vector set must be secured. Probability distribution and input vector set can be obtained from output samples obtained from DNN and data samples corresponding to conditional pdfs determined in previous subtask layers.
m번째 서브테스크 레이어에 대한 압축된 특징 벡터
Figure PCTKR2022013085-appb-img-000029
는, 현재 서브테스크 레이어의 데이터 백터 및 이전 서브테스크 레이어들로부터 생성된 연속된 특징 벡터
Figure PCTKR2022013085-appb-img-000030
를 반복(recursive) 활용하여 점진적으로(progressive) 생성되는 특징 벡터로 해설될 수 있다.
Compressed feature vector for the mth subtask layer
Figure PCTKR2022013085-appb-img-000029
is the data vector of the current subtask layer and the continuous feature vectors generated from previous subtask layers.
Figure PCTKR2022013085-appb-img-000030
It can be explained as a feature vector that is progressively generated by using recursive.
또한, 수학식 6과 같이 시멘틱 인코더(
Figure PCTKR2022013085-appb-img-000031
)가 분할된다 것은. 큰 규모의 싱글 DNN(large scale single DNN)을 연속된(concatenation) 작은 규모의 DNN들(small scale DNNs)로 분할한 것일 수 있다. 이때, 각 레이어의 조건부 pdf에 해당하는 DNN은 디커플링된 서브테스크 상태 셋 별로 서로 다른 DNN 구조를 구축하여 DNN 구조를 슬림화할 수 있다. 이는, 디코더 단에도 유사하게 적용될 수 있다.
In addition, as shown in Equation 6, the semantic encoder (
Figure PCTKR2022013085-appb-img-000031
) is divided. A large scale single DNN may be divided into concatenation small scale DNNs. At this time, the DNN corresponding to the conditional pdf of each layer can slim the DNN structure by constructing a different DNN structure for each decoupled subtask state set. This can be similarly applied to the decoder stage.
[수학식 7][Equation 7]
Figure PCTKR2022013085-appb-img-000032
Figure PCTKR2022013085-appb-img-000032
수학식 7은, 디코더가 시퀀셜(sequential)하게 각 서브테스크 레이어 별로 점진적으로 서브테스크에 해당하는 작업을 수행하는 것을 나타낸다. 도 15를 참고하면, 인코더 또는 디코더가 점진적으로 서브테스크에 해당하는 작업을 수행하는 것을 확인할 수 있다. 인코더 및 디코더는 각각의 m번째 서브테스크 레이어에 대한 압축된 특징 벡터를 생성한다. 이때, 이전 서브테스크 레이어들에서 생성된 특징 벡터 중 일부만 필요하거나 또는 커플링 특성에 의해서 특정 서브테스크 레이어들의 테스크 아웃풋 특징 벡터(task output feature vector)를 인풋으로 활용하는 경우 하기와 수학식 8과 같이 나타낼 수 있다.Equation 7 indicates that the decoder sequentially performs work corresponding to the subtask for each subtask layer. Referring to Figure 15, it can be seen that the encoder or decoder gradually performs tasks corresponding to subtasks. The encoder and decoder generate compressed feature vectors for each mth subtask layer. At this time, when only some of the feature vectors generated in previous subtask layers are needed or when the task output feature vectors of specific subtask layers are used as input due to coupling characteristics, as shown below and Equation 8 It can be expressed.
[수학식 8][Equation 8]
Figure PCTKR2022013085-appb-img-000033
Figure PCTKR2022013085-appb-img-000033
수학식 8에서, 변수
Figure PCTKR2022013085-appb-img-000034
는 각 레이어에서 부분 특징 벡터를 추출하는 경우 하기 수학식 9와 같이 표현될 수 있다. 수학식 9에서,
Figure PCTKR2022013085-appb-img-000035
Figure PCTKR2022013085-appb-img-000036
의 부분 벡터이다.
In Equation 8, the variable
Figure PCTKR2022013085-appb-img-000034
When extracting a partial feature vector from each layer, can be expressed as Equation 9 below. In equation 9,
Figure PCTKR2022013085-appb-img-000035
Is
Figure PCTKR2022013085-appb-img-000036
It is a partial vector of .
[수학식 9][Equation 9]
Figure PCTKR2022013085-appb-img-000037
Figure PCTKR2022013085-appb-img-000037
수학식 8에서, 변수
Figure PCTKR2022013085-appb-img-000038
는 각 레이어 별 선별하여 특징 벡터를 구성하는 경우 하기 수학식 10과같이 표현될 수 있다. 수학식 10에서,
Figure PCTKR2022013085-appb-img-000039
Figure PCTKR2022013085-appb-img-000040
의 부분 벡터이다.
In Equation 8, the variable
Figure PCTKR2022013085-appb-img-000038
When selecting a feature vector for each layer, it can be expressed as Equation 10 below. In equation 10,
Figure PCTKR2022013085-appb-img-000039
Is
Figure PCTKR2022013085-appb-img-000040
is a partial vector of .
[수학식 10][Equation 10]
Figure PCTKR2022013085-appb-img-000041
Figure PCTKR2022013085-appb-img-000041
Figure PCTKR2022013085-appb-img-000042
는 m번 레이어의 인풋으로 사용되는 레이어 인덱스 셋이다. 또한, 각 레이어 별 서브테스크가 복수의 동작(multiple operation)을 (예: reconstruction and classification) 수행해야하는 경우 관련 정보 Y도 복수의 형태로 (예: 기존 데이터 및 레이블) 구성된다.
Figure PCTKR2022013085-appb-img-000042
is the layer index set used as input for layer m. Additionally, when the subtask for each layer must perform multiple operations (e.g., reconstruction and classification), related information Y is also configured in multiple forms (e.g., existing data and labels).
도 15는 본 개시의 일 실시 예에 따른 시멘틱 인코더의 DNN(deep neural network) 구조의 예를 도시한다. 시멘틱 인코더는 복수의 레이어들(1510, 1520, 1530, 1540, 1550)을 포함할 수 있다. 각각의 레이어들(1510, 1520, 1530, 1540, 1550)은 연속된 DNN들(concatenation of DNN) 및 각 레이어에 커플링된 테스크 상태(coupled task state)들을 포함할 수 있다.Figure 15 shows an example of a deep neural network (DNN) structure of a semantic encoder according to an embodiment of the present disclosure. The semantic encoder may include a plurality of layers 1510, 1520, 1530, 1540, and 1550. Each of the layers 1510, 1520, 1530, 1540, and 1550 may include concatenation of DNNs and task states coupled to each layer.
도 15를 참고하면,
Figure PCTKR2022013085-appb-img-000043
는 i번째 레이어의 l번 DNN에 해당하는 파라미터를 나타낸다. 각 레이어에서 원 모형은 커플링된 테스크 상태를 의미한다. 일 예로, 레이어 4(1540)에서의 위에서 첫 번째 원은 첫 번째 커플링된 테스크 상태
Figure PCTKR2022013085-appb-img-000044
를 의미하고, 위에서 두 번째 원은 커플링된 테스크 상태
Figure PCTKR2022013085-appb-img-000045
를 의미하며, 위에서 세 번째 원은 커플링된 테스크 상태
Figure PCTKR2022013085-appb-img-000046
를 의미할 수 있다. 상기에서 서술한 공장 자동화 케이스의 무인 로봇의 케이스에 적용하면 레이어 1(1510)은 물건에 대한 정보, 레이어 2(1520) 및 레이어 3(1530)은 장소에 대한 정보, 레이어 4(1540) 및 레이어 5(1550)는 행동(action)에 대한 정보들에 대응될 수 있다. 또한, 이미지 추론 케이스에 적용하면, 레이어1(1510)은 상위 부분 정보, 레이어 2(1520) 및 레이어 3(1530)은 중위 부분 정보, 레이어 4(1540) 및 레이어 5(1550)는 하위 부분 정보들에 대응될 수 있다.
Referring to Figure 15,
Figure PCTKR2022013085-appb-img-000043
represents the parameter corresponding to the lth DNN of the ith layer. In each layer, the circle model represents the coupled task state. As an example, the first circle from the top in layer 4 1540 represents the first coupled task state.
Figure PCTKR2022013085-appb-img-000044
means, and the second circle from the top is the coupled task state
Figure PCTKR2022013085-appb-img-000045
means, and the third circle from the top is the coupled task state.
Figure PCTKR2022013085-appb-img-000046
It can mean. When applied to the case of the unmanned robot in the factory automation case described above, layer 1 (1510) is information about objects, layer 2 (1520) and layer 3 (1530) are information about places, and layer 4 (1540) is information about places. 5 (1550) may correspond to information about action. Additionally, when applied to the image inference case, layer 1 (1510) is the upper part information, layer 2 (1520) and layer 3 (1530) are the middle part information, and layer 4 (1540) and layer 5 (1550) are the lower part information. can be responded to.
도 16은 본 개시의 일 실시 예에 따른 시멘틱 디코더의 예를 도시한다. 도 16의 시멘틱 인코더는 도 14의 멀티-레이어 테스크(multi-layer task)에 대한 시멘틱 인코더일 수 있다. Figure 16 shows an example of a semantic decoder according to an embodiment of the present disclosure. The semantic encoder of FIG. 16 may be a semantic encoder for the multi-layer task of FIG. 14.
도 16에 표현된 라인들(1610, 1620)은 각각 수신된 특징 벡터(received feature vector) 및 추정된 관련 정보 벡터(estimated relevant information vector)의 흐름을 표현한다. 도 16의
Figure PCTKR2022013085-appb-img-000047
는 i번째 l레이어의
Figure PCTKR2022013085-appb-img-000048
번 DNN에 해당하는 파라미터이다. 시멘틱 디코더는 이전 서브테스크에서 획득한 관련 정보 벡터 및 현재 서브테스크(current subtask)로부터 수신한 특징 벡터를 연속(concatenation)시켜 임베딩 인풋 벡터(embedding input vector)를 생성할 수 있다. 시멘틱 디코더는 생성한 임베딩 인풋 벡터를 이용하여 현재 서크테스크 레이어에 대한 관련 정보 벡터(relevant information vector)를 획득할 수 있다.
Lines 1610 and 1620 depicted in FIG. 16 represent flows of a received feature vector and an estimated relevant information vector, respectively. 16
Figure PCTKR2022013085-appb-img-000047
is the ith l layer
Figure PCTKR2022013085-appb-img-000048
This is the parameter corresponding to the DNN. The semantic decoder can generate an embedding input vector by concatenating the relevant information vector obtained from the previous subtask and the feature vector received from the current subtask. The semantic decoder can obtain a relevant information vector for the current circuit layer using the generated embedding input vector.
Semantic control information (SCI) and SCI exchange protocolSemantic control information (SCI) and SCI exchange protocol
한편, 본 개시의 적용을 위해, 시멘틱 정보를 포함하는 특징을 생성하기 위해서는 제어 정보가 필요하다. 일 예로, 서버와 AI 장치는 테스크의 타입과 해당 타입의 테스크를 수행하기 위해 필요한 레이어의 깊이(layer depth)에 대한 정보를 교환할 수 있다.Meanwhile, for application of the present disclosure, control information is required to generate features including semantic information. As an example, a server and an AI device can exchange information about the type of task and the layer depth required to perform that type of task.
하기 표 2는 시멘틱 제어 정보(semantic control information, SCI)의 포맷을 예시한다. Table 2 below illustrates the format of semantic control information (SCI).
FormatFormat UsageUsage
Format 0_0Format 0_0 Notifying task type from UE to serverNotifying task type from UE to server
Format 1_0Format 1_0 Notifying subtask layer depth from UE to serverNotifying subtask layer depth from UE to server
Format 0_1Format 0_1 Notifying task type from server to UENotifying task type from server to UE
Format 1_1Format 1_1 Notifying subtask layer depth from server to UENotifying subtask layer depth from server to UE
또한, SCI는 서버 및 AI 장치 간의 테스크에 대한 정보를 교환하기 위해 사용될 수 있다. 일 예로, 서버와 AI 장치 간의 연결 구성(connection configuration)이 완료되면 AI 장치 또는 서버는 현재 자신이 수행할 테스크 정보들에 대해서 SCI를 활용하여 보고할 수 있다. 서버 또는 AI 장치는 해당 SCI 정보에 기반하여 시멘틱 레이어드 인코딩(semantic layered encoding)을 수행하여 특징 정보를 생성하고, 생성된 특징 정보를 송신할 수 있다. AI 장치 또는 서버는 수신한 특징 정보 및 테스크 정보에 기초하여 테스크 작업을 수행할 수 있다.Additionally, SCI can be used to exchange information about tasks between servers and AI devices. For example, when the connection configuration between the server and the AI device is completed, the AI device or server can report information on the tasks it is currently performing using SCI. The server or AI device may generate feature information by performing semantic layered encoding based on the corresponding SCI information and transmit the generated feature information. The AI device or server can perform task work based on the received characteristic information and task information.
도 17은 본 개시의 일 실시 예에 따른 시멘틱 인코딩 및 디코딩 절차의 예를 도시한다.Figure 17 shows an example of a semantic encoding and decoding procedure according to an embodiment of the present disclosure.
도 17을 참고하면, S1701 단계에서, 단말은 기지국으로부터 동기 신호(synchronization signal)를 수신할 수 있다. S1703 단계에서, 단말은 동기 신호에 기초하여 기지국과의 동기화 절차를 수행할 수 있다.Referring to FIG. 17, in step S1701, the terminal may receive a synchronization signal from the base station. In step S1703, the terminal may perform a synchronization procedure with the base station based on the synchronization signal.
S1705 단계에서, 단말은 상위 레이어 시그널링을 통해 채널 코딩 관련 정보를 수신할 수 있다. S1707단계에서, 채널 코딩 관련 정보에 기초한 데이터 코딩 정보를 포함한 제어 정보를 기지국으로부터 수신할 수 있다. 여기서, 상위 레이어는 시멘틱 레이어일 수 있다. 시멘틱 레이어는 기존 데이터로부터 테스크 목적에 적합한 특징을 추출하기 위해 사용될 수 있다. 또한, 시멘틱 레이어를 통해 시멘틱 통신을 위한 제어정보가 단말 및 기지국 간에 전달될 수 있다. In step S1705, the terminal may receive channel coding-related information through higher layer signaling. In step S1707, control information including data coding information based on channel coding-related information may be received from the base station. Here, the upper layer may be a semantic layer. The semantic layer can be used to extract features suitable for task purposes from existing data. Additionally, control information for semantic communication can be transmitted between the terminal and the base station through the semantic layer.
채널 코딩 관련 정보는, 서브테스크 레이어들 각각의 서브테스크 레이어 상태들 간의 관계 정보를 포함하는 배경지식을 포함할 수 있다. 배경지식은 단말 및 기지국이 공유하는 정보일 수 있다. 일 예로, 서브테스크 레이어들은 연속적인 구조로서 테스크를 수행하기 위해 분할된 레이어일 수 있다. 또한, 서브테스크 레이어들 각각은 연속된 DNN 및 각 레이어에서 커플링된 상태들을 포함할 수 있다. Channel coding-related information may include background knowledge including relationship information between subtask layer states of each subtask layer. Background knowledge may be information shared between the terminal and the base station. As an example, subtask layers may be a continuous structure divided into layers to perform tasks. Additionally, each of the subtask layers may include a continuous DNN and states coupled at each layer.
S1709단계에서, 상기 채널 코딩 관련 정보 및 데이터 코딩 정보에 기초하여 데이터를 디코딩할 수 있다. 데이터 코딩 정보는 연속(concatenation)적인 구조의 상기 서브테스크 레이어들의 벡터 정보일 수 있다. 단말은 서브테스크에서 획득한 관련 정보 벡터 및 현재 서브테스크로부터 수신한 특징 벡터를 연속(concatenation)시켜 임베딩 인풋 벡터(embedding input vector)를 생성함으로써 데이터를 디코딩할 수 있다.In step S1709, data may be decoded based on the channel coding-related information and data coding information. Data coding information may be vector information of the subtask layers in a concatenation structure. The terminal can decode data by concatenating the relevant information vector obtained from the subtask and the feature vector received from the current subtask to generate an embedding input vector.
본 개시는 본 개시에서 서술하는 기술적 아이디어 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 개시의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 개시의 등가적 범위 내에서의 모든 변경은 본 개시의 범위에 포함된다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시 예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The present disclosure may be embodied in other specific forms without departing from the technical ideas and essential features described in the present disclosure. Accordingly, the above detailed description should not be construed as restrictive in all respects and should be considered illustrative. The scope of this disclosure should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of this disclosure are included in the scope of this disclosure. In addition, claims that do not have an explicit reference relationship in the patent claims can be combined to form an embodiment or included as a new claim through amendment after filing.

Claims (19)

  1. 무선 통신 시스템에서 제1 장치의 동작 방법에 있어서,In a method of operating a first device in a wireless communication system,
    제2 장치로부터 동기 신호(synchronization signal)를 수신하는 단계;Receiving a synchronization signal from a second device;
    상기 동기 신호에 기초하여 상기 제2 장치와의 동기화 절차를 수행하여 연결을 수립하는 단계;Establishing a connection by performing a synchronization procedure with the second device based on the synchronization signal;
    상기 제2 장치로부터 제어 정보 및 제1 데이터를 수신하는 단계; 및Receiving control information and first data from the second device; and
    상기 제1 데이터에 기초하여 테스크(task)를 수행하는 단계;를 포함하되,Including; performing a task based on the first data,
    상기 제어 정보는 시멘틱 제어 정보(semantic control information, SCI)를 포함하고, The control information includes semantic control information (SCI),
    상기 테스크는 상기 제1 데이터, 상기 SCI 및 공유 정보를 통해 수행되는, 제1 장치의 동작 방법.A method of operating a first device, wherein the task is performed through the first data, the SCI, and shared information.
  2. 제1 항에 있어서,According to claim 1,
    상기 공유 정보는 상기 제1 장치와 상기 제2 장치가 시멘틱 레이어에 기초하여 공유하는 배경지식(background knowledge)이고,The shared information is background knowledge shared between the first device and the second device based on a semantic layer,
    상기 제1 데이터는 상기 시멘틱 레이어에 기초하여 상기 테스크를 위한 제2 데이터로부터 추출(extraction)된 특징(feature) 정보인, 제1 장치의 동작 방법.The first data is feature information extracted from the second data for the task based on the semantic layer.
  3. 제2 항에 있어서,According to clause 2,
    상기 테스크는 적어도 하나 이상의 서브테스크로 구성되고,The task consists of at least one subtask,
    상기 공유 정보에 기초하여 시멘틱 인코딩을 통해 상기 테스크를 위한 상기 제2 데이터로부터 상기 특징(feature) 정보인 상기 제1 데이터가 추출(extraction)되는, 제1 장치 동작 방법.A method of operating a first device in which the first data, which is the feature information, is extracted from the second data for the task through semantic encoding based on the shared information.
  4. 제3 항에 있어서, 상기 테스크에 기초하여 연속(concatenation)된 서브테스크 레이어(subtask layer)들이 구성되고,The method of claim 3, wherein concatenated subtask layers are configured based on the task,
    상기 공유 정보는 상기 연속(concatenation)된 서브테스크 레이어(subtask layer)들 각각의 서브테스크 레이어 아웃풋 상태(subtask layer output state)들 간의 관계 정보를 지시하는 서브테스크 상태 전환 매트릭스 셋(subtask state transition matrix set)을 포함하는, 제1 장치 동작 방법.The shared information is a subtask state transition matrix set indicating relationship information between subtask layer output states of each of the concatenated subtask layers. ), the first method of operating the device comprising:
  5. 제4 항에 있어서,According to clause 4,
    상기 추출되는 제1 데이터는 상기 연속된 서브테스크 레이어들에서 추출된 특징 벡터(feature vector)들로 구성되는, 제1 장치 동작 방법.A first method of operating a device, wherein the extracted first data consists of feature vectors extracted from the consecutive subtask layers.
  6. 제4 항에 있어서,According to clause 4,
    상기 연속(concatenation)된 서브테스크 레이어(subtask layer)들 중 제1 서브테스크 레이어에서 상기 시멘틱 인코딩에 기초하여 제1 특징 벡터를 추출하는 경우, 상기 제1 서브테스크 레이어에 대한 제1 서브테스크 상태 전환 매트릭스를 통해 상기 제1 서브테스크 레이어의 이전 서브테스크 레이어인 제2 서브테스크 레이어의 아웃풋 상태와 상기 제1 서브테스크 레이어의 아웃풋 상태의 연관 정보를 확인하고, When extracting a first feature vector based on the semantic encoding in a first subtask layer among the concatenated subtask layers, the first subtask state for the first subtask layer is switched. Check the association information between the output state of the second subtask layer, which is the previous subtask layer of the first subtask layer, and the output state of the first subtask layer through the matrix,
    상기 제2 서브테스크 레이어의 제2 특징 벡터 및 상기 제1 서브테스크 레이어의 제1 데이터 셋에 기초하여 상기 제1 서브테스크 레이어의 상기 제1 특징 벡터를 추출하는, 제1 장치 동작 방법.A method of operating a first device, extracting the first feature vector of the first subtask layer based on the second feature vector of the second subtask layer and the first data set of the first subtask layer.
  7. 제6 항에 있어서,According to clause 6,
    상기 제2 서브테스크 레이어의 상기 아웃풋 상태와 상기 제2 특징 벡터는 상기 제2 서브테스크 레이어 이전에 위치하는 적어도 하나 이상의 서브테스크 레이어들에 기초하여 결정되는, 제1 장치의 동작 방법.The output state and the second feature vector of the second subtask layer are determined based on at least one subtask layer located before the second subtask layer.
  8. 제6 항에 있어서,According to clause 6,
    상기 연속된 서브테스크 레이어들은 연속된(concatenation) 서브 DNN(deep neural network)) 구조를 형성하고, 상기 서브 DNN을 통해 상기 연속된 서브테스크 레이어들 각각에서 각각의 특징 벡터가 추출되는, 제1 장치 동작 방법.The contiguous subtask layers form a concatenation sub-DNN (deep neural network) structure, and each feature vector is extracted from each of the concatenated subtask layers through the sub-DNN. How it works.
  9. 제8 항에 있어서,According to clause 8,
    상기 연속된 서브테스크 레이어들에서 디커플링(decoupling)된 서브테스크들이 존재하는 경우, 상기 디커플링된 서브테스크들 각각은 상이한 서브 DNN을 사용하는, 제1 장치의 동작 방법.When there are decoupled subtasks in the consecutive subtask layers, each of the decoupled subtasks uses a different sub DNN.
  10. 제3 항에 있어서,According to clause 3,
    상기 공유 정보에 기초하여 수신한 상기 제1 데이터를 통해 상기 테스크가 수행되는 경우, 상기 테스크는 상기 연속(concatenation)된 서브테스크 레이어(subtask layer)들에서 시멘틱 디코딩을 통해 수행되는, 제1 장치의 동작 방법.When the task is performed through the first data received based on the shared information, the task is performed through semantic decoding in the concatenated subtask layers of the first device. How it works.
  11. 제10 항에 있어서,According to claim 10,
    상기 연속된 서브테스크 레이어들은 연속된(concatenation) 서브 DNN(deep neural network)) 구조를 형성하고, 상기 서브 DNN을 통해 상기 연속된 서브테스크 레이어들 각각에서 상기 시멘틱 디코딩이 수행되는, 제1 장치 동작 방법.The contiguous subtask layers form a concatenation sub-DNN (deep neural network) structure, and the semantic decoding is performed in each of the concatenated subtask layers through the sub-DNN. method.
  12. 제11 항에 있어서,According to claim 11,
    상기 연속된 서브테스크 레이어들 중 제1 서브테스크 레이어에서 상기 시멘틱 디코딩이 수행되는 경우, 상기 제1 서브테스크 레이어의 이전 서브테스크 레이어인 제2 서브테스크 레이어의 시멘틱 디코딩 아웃풋 정보와 상기 제1 서브테스크 레이어의 수신한 제1 특징 벡터를 통해 상기 시멘틱 디코딩이 수행되는, 제1 장치 동작 방법.When the semantic decoding is performed in a first subtask layer among the consecutive subtask layers, the semantic decoding output information of the second subtask layer, which is the previous subtask layer of the first subtask layer, and the first subtask layer A method of operating a first device, wherein the semantic decoding is performed through the received first feature vector of the layer.
  13. 제12 항에 있어서,According to claim 12,
    상기 연속된 서브테스크 레이어들에서 디커플링(decoupling)된 서브테스크가 존재하는 경우, 상기 디커플링된 서브테스크 각각은 상이한 서브 DNN을 사용하는, 제1 장치의 동작 방법.When there is a decoupled subtask in the consecutive subtask layers, each of the decoupled subtasks uses a different sub DNN.
  14. 제1 항에 있어서,According to claim 1,
    상기 SCI는, 시멘틱 인코더 및 시멘틱 디코더의 설정을 위한 제어 정보로서, NN(neural network) 모델 선택 방법, 테스크의 타입 및 해당 타입의 테스크를 수행하기 위해 필요한 레이어의 깊이(depth)에 대한 정보 중 적어도 하나를 포함하는, 제1 장치 동작 방법.The SCI is control information for setting up a semantic encoder and a semantic decoder, and includes at least one of information about a neural network (NN) model selection method, the type of task, and the depth of the layer required to perform the corresponding type of task. A first method of operating a device, comprising:
  15. 무선 통신 시스템에서 제2 장치의 동작 방법에 있어서,In a method of operating a second device in a wireless communication system,
    제1 장치에게 동기 신호(synchronization signal)를 송신하는 단계;Transmitting a synchronization signal to a first device;
    상기 동기 신호에 기초하여 상기 제1 장치와의 동기화 절차를 수행하여 연결을 수립하는 단계;Establishing a connection by performing a synchronization procedure with the first device based on the synchronization signal;
    상기 제1 장치에게 제어 정보 및 제1 데이터를 송신하는 단계;를 포함하되,Transmitting control information and first data to the first device,
    상기 제어 정보는 시멘틱 제어 정보(semantic control information, SCI)를 포함하고,The control information includes semantic control information (SCI),
    상기 제1 데이터는 테스크(task)를 수행하기 위해 사용되고,The first data is used to perform a task,
    상기 테스크는 상기 제1 데이터, 상기 SCI 및 공유 정보를 통해 수행되는, 제2 장치의 동작 방법.A method of operating a second device, wherein the task is performed using the first data, the SCI, and shared information.
  16. 무선 통신 시스템의 제1 장치에 있어서,In a first device of a wireless communication system,
    송수신기; 및transceiver; and
    상기 송수신기와 연결된 프로세서를 포함하고,Including a processor connected to the transceiver,
    상기 프로세서는,The processor,
    제2 장치로부터 동기 신호(synchronization signal)를 수신하고,Receiving a synchronization signal from a second device,
    상기 동기 신호에 기초하여 상기 제2 장치와의 동기화 절차를 수행하여 연결을 수립하고,Establishing a connection by performing a synchronization procedure with the second device based on the synchronization signal,
    상기 제 2 장치로부터 제어 정보 및 제 1 데이터를 수신하고,Receive control information and first data from the second device,
    상기 제 1 데이터에 기초하여 테스크(task)를 수행하도록 제어하되,Control to perform a task based on the first data,
    상기 제어 정보는 시멘틱 제어 정보(semantic control information, SCI)를 포함하고, The control information includes semantic control information (SCI),
    상기 테스크는 상기 제 1 데이터, 상기 SCI 및 공유 정보를 통해 수행되는, 제 1 장치.A first device, wherein the task is performed through the first data, the SCI, and shared information.
  17. 무선 통신 시스템의 제2 장치에 있어서,In a second device of a wireless communication system,
    송수신기; 및transceiver; and
    상기 송수신기와 연결된 프로세서를 포함하고,Including a processor connected to the transceiver,
    상기 프로세서는,The processor,
    제1 장치에게 동기 신호(synchronization signal)를 송신하고,Transmit a synchronization signal to the first device,
    상기 동기 신호에 기초하여 상기 제1 장치와의 동기화 절차를 수행하여 연결을 수립하고,Establishing a connection by performing a synchronization procedure with the first device based on the synchronization signal,
    상기 제1 장치에게 제어 정보 및 제1 데이터를 송신하도록 제어하되,Controlling to transmit control information and first data to the first device,
    상기 제어 정보는 시멘틱 제어 정보(semantic control information, SCI)를 포함하고,The control information includes semantic control information (SCI),
    상기 제1 데이터는 테스크(task)를 수행하기 위해 사용되고,The first data is used to perform a task,
    상기 테스크는 상기 제1 데이터, 상기 SCI 및 공유 정보를 통해 수행되는, 제2 장치.A second device, wherein the task is performed through the first data, the SCI, and shared information.
  18. 적어도 하나의 메모리 및 상기 적어도 하나의 메모리들과 기능적으로 연결되어 있는 적어도 하나의 프로세서를 포함하는 장치에 있어서,A device comprising at least one memory and at least one processor functionally connected to the at least one memory,
    상기 적어도 하나의 프로세서는 상기 장치가,The at least one processor is configured to:
    제2 장치로부터 동기 신호(synchronization signal)를 수신하고,Receiving a synchronization signal from a second device,
    상기 동기 신호에 기초하여 상기 제2 장치와의 동기화 절차를 수행하여 연결을 수립하고,Establishing a connection by performing a synchronization procedure with the second device based on the synchronization signal,
    상기 제 2 장치로부터 제어 정보 및 제 1 데이터를 수신하고,Receive control information and first data from the second device,
    상기 제 1 데이터에 기초하여 테스크(task)를 수행하도록 제어하되,Control to perform a task based on the first data,
    상기 제어 정보는 시멘틱 제어 정보(semantic control information, SCI)를 포함하고, The control information includes semantic control information (SCI),
    상기 테스크는 상기 제 1 데이터, 상기 SCI 및 공유 정보를 통해 수행되는, 장치.The device wherein the task is performed through the first data, the SCI, and shared information.
  19. 적어도 하나의 명령어(instructions)을 저장하는 비-일시적인(non-transitory) 컴퓨터 판독 가능 매체(computer-readable medium)에 있어서, A non-transitory computer-readable medium storing at least one instruction, comprising:
    프로세서에 의해 실행 가능한(executable) 상기 적어도 하나의 명령어를 포함하며,Contains the at least one instruction executable by a processor,
    상기 적어도 하나의 명령어는,The at least one command is:
    제2 장치로부터 동기 신호(synchronization signal)를 수신하고,Receiving a synchronization signal from a second device,
    상기 동기 신호에 기초하여 상기 제2 장치와의 동기화 절차를 수행하여 연결을 수립하고,Establishing a connection by performing a synchronization procedure with the second device based on the synchronization signal,
    상기 제 2 장치로부터 제어 정보 및 제 1 데이터를 수신하고,Receive control information and first data from the second device,
    상기 제 1 데이터에 기초하여 테스크(task)를 수행하도록 제어하되,Control to perform a task based on the first data,
    상기 제어 정보는 시멘틱 제어 정보(semantic control information, SCI)를 포함하고, The control information includes semantic control information (SCI),
    상기 테스크는 상기 제 1 데이터, 상기 SCI 및 공유 정보를 통해 수행되는, 컴퓨터 판독 가능 매체.The computer-readable medium wherein the task is performed via the first data, the SCI, and shared information.
PCT/KR2022/013085 2022-09-01 2022-09-01 Device and method for transmitting or receiving signal in wireless communication system WO2024048816A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/013085 WO2024048816A1 (en) 2022-09-01 2022-09-01 Device and method for transmitting or receiving signal in wireless communication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/013085 WO2024048816A1 (en) 2022-09-01 2022-09-01 Device and method for transmitting or receiving signal in wireless communication system

Publications (1)

Publication Number Publication Date
WO2024048816A1 true WO2024048816A1 (en) 2024-03-07

Family

ID=90098040

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/013085 WO2024048816A1 (en) 2022-09-01 2022-09-01 Device and method for transmitting or receiving signal in wireless communication system

Country Status (1)

Country Link
WO (1) WO2024048816A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019161249A1 (en) * 2018-02-15 2019-08-22 DMAI, Inc. System and method for visual scene construction based on user communication
KR102082411B1 (en) * 2018-10-11 2020-02-27 연세대학교 산학협력단 Method and Apparatus for Scheduling Join View between Stream Data and Linked Data
US20210064828A1 (en) * 2019-05-02 2021-03-04 Google Llc Adapting automated assistants for use with multiple languages
WO2021185118A1 (en) * 2020-03-16 2021-09-23 华为技术有限公司 Communication method and terminal device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019161249A1 (en) * 2018-02-15 2019-08-22 DMAI, Inc. System and method for visual scene construction based on user communication
KR102082411B1 (en) * 2018-10-11 2020-02-27 연세대학교 산학협력단 Method and Apparatus for Scheduling Join View between Stream Data and Linked Data
US20210064828A1 (en) * 2019-05-02 2021-03-04 Google Llc Adapting automated assistants for use with multiple languages
WO2021185118A1 (en) * 2020-03-16 2021-09-23 华为技术有限公司 Communication method and terminal device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YANG WANTING; LIEW ZI QIN; LIM WEI YANG BRYAN; XIONG ZEHUI; NIYATO DUSIT; CHI XUEFEN; CAO XIANBIN; LETAIEF KHALED B.: "Semantic Communication Meets Edge Intelligence", IEEE WIRELESS COMMUNICATIONS, COORDINATED SCIENCE LABORATORY; DEPT. ELECTRICAL AND COMPUTER ENGINEERING; UNIVERSITY OF ILLINOIS AT URBANA-CHAMPAIGN, US, vol. 29, no. 5, 1 October 2022 (2022-10-01), US , pages 28 - 35, XP011929941, ISSN: 1536-1284, DOI: 10.1109/MWC.004.2200050 *

Similar Documents

Publication Publication Date Title
WO2022250221A1 (en) Method and device for transmitting signal in wireless communication system
WO2022050565A1 (en) Apparatus and method for handover in wireless communication system
WO2024048816A1 (en) Device and method for transmitting or receiving signal in wireless communication system
WO2022092859A1 (en) Method and device for adjusting split point in wireless communication system
WO2023017881A1 (en) Apparatus and method for performing handover on basis of measurement result using measurement gap in wireless communication system
WO2023042941A1 (en) Signal transmitting method and apparatus in wireless communication system
WO2024038926A1 (en) Device and method for transmitting and receiving signal in wireless communication system
WO2024117296A1 (en) Method and apparatus for transmitting and receiving signals in wireless communication system by using transceiver having adjustable parameters
WO2023022251A1 (en) Method and apparatus for transmitting signal in wireless communication system
WO2022231084A1 (en) Method and device for transmitting signal in wireless communication system
WO2023113282A1 (en) Apparatus and method for performing online learning of transceiver model in wireless communication system
WO2024122667A1 (en) Apparatus and method for performing training for ensemble model-based receiver in wireless communication system
WO2024111685A1 (en) Device and method for performing radar-communication using frequency hopping in wireless communication system
WO2024111693A1 (en) Apparatus and method for performing radar-communication by using virtual receive array in wireless communication system
WO2022092905A1 (en) Apparatus and method for signal transmission in wireless communication system
WO2022119424A1 (en) Device and method for transmitting signal in wireless communication system
WO2023033421A1 (en) Device and method for setting polar code-based encoder in wireless communication system
WO2023042938A1 (en) Method and device for transmitting signal through reflection plate in wireless communication system
WO2022270649A1 (en) Device and method for performing voice communication in wireless communication system
WO2024122659A1 (en) Method and device for transmitting and receiving signal in wireless communication system
WO2024034695A1 (en) Apparatus and method for generating transmit and receive signals in wireless communication system
WO2023017882A1 (en) Apparatus and method for selecting radio access technology considering battery efficiency in wireless communication system
WO2023120781A1 (en) Apparatus and method for signal transmission in wireless communication system
WO2024019184A1 (en) Apparatus and method for performing training for transceiver model in wireless communication system
WO2022260200A1 (en) Device and method for performing handover in consideration of battery efficiency in wireless communication system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22957495

Country of ref document: EP

Kind code of ref document: A1