WO2022010001A1 - 뉴럴 네트워크 기반의 통신 방법 및 장치 - Google Patents

뉴럴 네트워크 기반의 통신 방법 및 장치 Download PDF

Info

Publication number
WO2022010001A1
WO2022010001A1 PCT/KR2020/008772 KR2020008772W WO2022010001A1 WO 2022010001 A1 WO2022010001 A1 WO 2022010001A1 KR 2020008772 W KR2020008772 W KR 2020008772W WO 2022010001 A1 WO2022010001 A1 WO 2022010001A1
Authority
WO
WIPO (PCT)
Prior art keywords
neural network
information
base station
parameter
encoder
Prior art date
Application number
PCT/KR2020/008772
Other languages
English (en)
French (fr)
Inventor
김봉회
신종웅
김병훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020227046486A priority Critical patent/KR20230034991A/ko
Priority to PCT/KR2020/008772 priority patent/WO2022010001A1/ko
Priority to US18/014,703 priority patent/US20230289564A1/en
Publication of WO2022010001A1 publication Critical patent/WO2022010001A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W72/00Local resource management
    • H04W72/20Control channels or signalling for resource management
    • H04W72/23Control channels or signalling for resource management in the downlink direction of a wireless link, i.e. towards a terminal
    • H04W72/231Control channels or signalling for resource management in the downlink direction of a wireless link, i.e. towards a terminal the control data signalling from the layers above the physical layer, e.g. RRC or MAC-CE signalling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/16Central resource management; Negotiation of resources or communication parameters, e.g. negotiating bandwidth or QoS [Quality of Service]
    • H04W28/18Negotiating wireless communication parameters
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Definitions

  • This disclosure relates to wireless communication.
  • 6G systems have (i) very high data rates per device, (ii) very large number of connected devices, (iii) global connectivity, (iv) very low latency, (v) battery-free free) It aims to lower the energy consumption of IoT devices, (vi) ultra-reliable connections, and (vii) connected intelligence with machine learning capabilities.
  • the vision of the 6G system can be in four aspects: intelligent connectivity, deep connectivity, holographic connectivity, and ubiquitous connectivity.
  • AI-based physical layer transmission means applying a signal processing and communication mechanism based on an AI driver rather than a traditional communication framework in a fundamental signal processing and communication mechanism. For example, deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO mechanism, AI-based resource scheduling ( scheduling) and allocation may be included.
  • a neural network to a communication system.
  • an attempt to apply to the physical layer is mainly considered to optimize a specific function of a receiver. For example, performance may be improved by configuring a channel decoder as a neural network.
  • a MIMO detector may be implemented as a neural network to improve performance.
  • Another approach is to configure both the transmitter and receiver as a neural network to optimize performance from an end-to-end point of view, which is called an autoencoder. .
  • Transmitter and receiver composed of a neural network can be designed through end-to-end optimization.
  • complexity improvement can be expected by designing a neural network encoder to improve the distance characteristic of a codeword.
  • performance of the system may be optimized by signaling information on the neural network parameters of the neural network encoder and the neural network decoder.
  • FIG. 1 illustrates a wireless communication system to which the present disclosure can be applied.
  • FIG. 2 is a block diagram illustrating a radio protocol architecture for a user plane.
  • FIG. 3 is a block diagram illustrating a radio protocol structure for a control plane.
  • FIG. 4 shows another example of a wireless communication system to which the technical features of the present disclosure can be applied.
  • 5 illustrates functional partitioning between NG-RAN and 5GC.
  • FIG. 6 illustrates a frame structure that can be applied in NR.
  • FIG. 9 is a diagram illustrating a difference between a conventional control region and CORESET in NR.
  • FIG. 10 shows an example of a frame structure for a new radio access technology.
  • FIG. 12 is an abstract schematic diagram of a hybrid beamforming structure in terms of a TXRU and a physical antenna.
  • FIG. 13 shows a synchronization signal and a PBCH (SS/PBCH) block.
  • 15 shows an example of a process of acquiring system information of a terminal.
  • 17 is for explaining a power ramping carwonter.
  • 19 is a flowchart illustrating an example of performing an idle mode DRX operation.
  • 21 shows an example of a communication structure that can be provided in a 6G system.
  • FIG. 22 shows an example of a perceptron structure.
  • FIG. 23 shows an example of a multiple perceptron structure.
  • 25 shows an example of a convolutional neural network.
  • 26 shows an example of a filter operation in a convolutional neural network.
  • FIG. 27 shows an example of a neural network structure in which a cyclic loop exists.
  • 29 shows an example of a neural network model.
  • FIG. 30 shows an example of an activated node in a neural network.
  • 31 shows an example of slope calculation using a chain rule.
  • FIG. 34 shows an example of an encoder structure and a decoder structure of a turbo autoencoder.
  • f i, ⁇ is implemented as a two-layer CNN in a neural network encoder.
  • FIG. 36 shows an embodiment of g 0i,j of a neural network decoder configured with a 5-layer CNN.
  • FIG. 37 schematically illustrates an input end structure of an embodiment of a neural network encoder for distance characteristic improvement.
  • 38 schematically illustrates a structure of a neural network encoder in which an interleaver is inserted to improve distance characteristics.
  • 39 shows the structure of an embodiment of a neural network encoder with an additional interleaver.
  • FIG. 40 shows an embodiment of a structure of a neural network encoder in which an accumulator is inserted into an input end.
  • FIG. 41 shows an embodiment of a structure of a neural network encoder concatenated with a recursive systematic convolutional code (RSC).
  • RSC recursive systematic convolutional code
  • FIG. 42 shows an embodiment of a neural network decoder structure for a neural network encoder structure associated with an RSC code.
  • 43 illustrates one embodiment of a systematic neural network encoder architecture.
  • 44 shows an example of a training method of a neural network.
  • 45 is a flowchart of another example of a training method of a neural network.
  • 46 illustrates the communication system 1 applied to the present disclosure.
  • FIG. 48 illustrates a signal processing circuit for a transmit signal.
  • 49 shows another example of a wireless device applied to the present disclosure.
  • 50 illustrates a portable device applied to the present disclosure.
  • 51 illustrates a vehicle or an autonomous driving vehicle applied to the present disclosure.
  • 55 illustrates an AI device applied to the present disclosure.
  • a or B (A or B) may mean “only A”, “only B” or “both A and B”.
  • a or B (A or B)” may be interpreted as “A and/or B (A and/or B)”.
  • A, B or C(A, B or C) herein means “only A”, “only B”, “only C”, or “any and any combination of A, B and C ( any combination of A, B and C)”.
  • a slash (/) or a comma (comma) used herein may mean “and/or”.
  • A/B may mean “A and/or B”. Accordingly, “A/B” may mean “only A”, “only B”, or “both A and B”.
  • A, B, C may mean “A, B, or C”.
  • At least one of A and B may mean “only A”, “only B” or “both A and B”.
  • the expression “at least one of A or B” or “at least one of A and/or B” means “at least one It can be interpreted the same as “at least one of A and B”.
  • At least one of A, B and C means “only A”, “only B”, “only C”, or “A, B and C” Any combination of A, B and C”. Also, “at least one of A, B or C” or “at least one of A, B and/or C” means may mean “at least one of A, B and C”.
  • parentheses used herein may mean “for example”. Specifically, when displayed as “control information (PDCCH)”, “PDCCH” may be proposed as an example of “control information”. In other words, “control information” of the present specification is not limited to “PDCCH”, and “PDDCH” may be proposed as an example of “control information”. Also, even when displayed as “control information (ie, PDCCH)”, “PDCCH” may be proposed as an example of “control information”.
  • CDMA code division multiple access
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • OFDMA orthogonal frequency division multiple access
  • SC-FDMA single carrier frequency division multiple access
  • CDMA may be implemented with a radio technology such as universal terrestrial radio access (UTRA) or CDMA2000.
  • TDMA may be implemented with a radio technology such as global system for mobile communications (GSM)/general packet radio service (GPRS)/enhanced data rates for GSM evolution (EDGE).
  • GSM global system for mobile communications
  • GPRS general packet radio service
  • EDGE enhanced data rates for GSM evolution
  • OFDMA may be implemented with a wireless technology such as Institute of Electrical and Electronics Engineers (IEEE) 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802-20, and evolved UTRA (E-UTRA).
  • IEEE 802.16m is an evolution of IEEE 802.16e, and provides backward compatibility with a system based on IEEE 802.16e.
  • UTRA is part of the universal mobile telecommunications system (UMTS).
  • 3rd generation partnership project (3GPP) long term evolution (LTE) is a part of evolved UMTS (E-UMTS) that uses evolved-UMTS terrestrial radio access (E-UTRA), and employs OFDMA in downlink and SC in uplink - Adopt FDMA.
  • LTE-A (advanced) is an evolution of 3GPP LTE.
  • 5G NR is a successor technology of LTE-A, and is a new clean-slate type mobile communication system with characteristics such as high performance, low latency, and high availability. 5G NR can utilize all available spectrum resources, from low frequency bands below 1 GHz, to intermediate frequency bands from 1 GHz to 10 GHz, and high frequency (millimeter wave) bands above 24 GHz.
  • LTE-A or 5G NR is mainly described, but the spirit of the present disclosure is not limited thereto.
  • E-UTRAN Evolved-UMTS Terrestrial Radio Access Network
  • LTE Long Term Evolution
  • the E-UTRAN includes a base station (20: Base Station, BS) that provides a control plane (control plane) and a user plane (user plane) to a terminal (10: User Equipment, UE).
  • the terminal 10 may be fixed or mobile, and may be called by other terms such as a mobile station (MS), a user terminal (UT), a subscriber station (SS), a mobile terminal (MT), and a wireless device.
  • the base station 20 refers to a fixed station that communicates with the terminal 10, and may be called by other terms such as an evolved-NodeB (eNB), a base transceiver system (BTS), and an access point.
  • eNB evolved-NodeB
  • BTS base transceiver system
  • the base stations 20 may be connected to each other through an X2 interface.
  • the base station 20 is connected to an Evolved Packet Core (EPC) 30 through an S1 interface, more specifically, a Mobility Management Entity (MME) through S1-MME and a Serving Gateway (S-GW) through S1-U.
  • EPC Evolved Packet Core
  • the EPC 30 is composed of an MME, an S-GW, and a Packet Data Network-Gateway (P-GW).
  • the MME has access information of the terminal or information about the capability of the terminal, and this information is mainly used for mobility management of the terminal.
  • the S-GW is a gateway having E-UTRAN as an endpoint
  • the P-GW is a gateway having a PDN as an endpoint.
  • the layers of the Radio Interface Protocol between the terminal and the network are L1 (Layer 1), It can be divided into L2 (2nd layer) and L3 (3rd layer), of which the physical layer belonging to the first layer provides an information transfer service using a physical channel,
  • the RRC (Radio Resource Control) layer located in the third layer performs a role of controlling radio resources between the terminal and the network. To this end, the RRC layer exchanges RRC messages between the terminal and the base station.
  • the 2 is a block diagram illustrating a radio protocol architecture for a user plane.
  • 3 is a block diagram illustrating a radio protocol structure for a control plane.
  • the user plane is a protocol stack for transmitting user data
  • the control plane is a protocol stack for transmitting a control signal.
  • the physical layer provides an information transfer service (information transfer service) to the upper layer using a physical channel (physical channel).
  • the physical layer is connected to a medium access control (MAC) layer, which is an upper layer, through a transport channel. Data moves between the MAC layer and the physical layer through the transport channel. Transmission channels are classified according to how and with what characteristics data are transmitted through the air interface.
  • MAC medium access control
  • the physical channel may be modulated by OFDM (Orthogonal Frequency Division Multiplexing), and time and frequency are used as radio resources.
  • OFDM Orthogonal Frequency Division Multiplexing
  • the functions of the MAC layer include mapping between logical channels and transport channels and multiplexing/demultiplexing into transport blocks provided as physical channels on transport channels of MAC service data units (SDUs) belonging to logical channels.
  • SDUs MAC service data units
  • the MAC layer provides a service to the RLC (Radio Link Control) layer through a logical channel.
  • RLC Radio Link Control
  • the functions of the RLC layer include concatenation, segmentation, and reassembly of RLC SDUs.
  • the RLC layer In order to guarantee various QoS (Quality of Service) required by Radio Bearer (RB), the RLC layer has a transparent mode (Transparent Mode, TM), an unacknowledged mode (Unacknowledged Mode, UM) and an acknowledged mode (Acknowledged Mode).
  • TM Transparent Mode
  • UM unacknowledged Mode
  • AM acknowledged Mode
  • AM RLC provides error correction through automatic repeat request (ARQ).
  • the RRC (Radio Resource Control) layer is defined only in the control plane.
  • the RRC layer is responsible for controlling logical channels, transport channels, and physical channels in relation to configuration, re-configuration, and release of radio bearers.
  • RB means a logical path provided by the first layer (PHY layer) and the second layer (MAC layer, RLC layer, PDCP layer) for data transfer between the terminal and the network.
  • Functions of the Packet Data Convergence Protocol (PDCP) layer in the user plane include delivery of user data, header compression, and ciphering.
  • Functions of the Packet Data Convergence Protocol (PDCP) layer in the control plane include transmission of control plane data and encryption/integrity protection.
  • Setting the RB means defining the characteristics of a radio protocol layer and channel to provide a specific service, and setting each specific parameter and operation method.
  • the RB may be further divided into a signaling RB (SRB) and a data RB (DRB).
  • SRB is used as a path for transmitting an RRC message in the control plane
  • DRB is used as a path for transmitting user data in the user plane.
  • the terminal When an RRC connection is established between the RRC layer of the terminal and the RRC layer of the E-UTRAN, the terminal is in an RRC connected state, otherwise, it is in an RRC idle state.
  • a downlink transmission channel for transmitting data from a network to a terminal there are a BCH (Broadcast Channel) for transmitting system information and a downlink SCH (Shared Channel) for transmitting user traffic or control messages.
  • BCH Broadcast Channel
  • SCH Shared Channel
  • downlink multicast or broadcast service traffic or control messages they may be transmitted through a downlink SCH or may be transmitted through a separate downlink multicast channel (MCH).
  • RACH random access channel
  • SCH uplink shared channel
  • the logical channels that are located above the transport channel and are mapped to the transport channel include a Broadcast Control Channel (BCCH), a Paging Control Channel (PCCH), a Common Control Channel (CCCH), a Multicast Control Channel (MCCH), and a Multicast Traffic Channel (MTCH). Channel), etc.
  • BCCH Broadcast Control Channel
  • PCCH Paging Control Channel
  • CCCH Common Control Channel
  • MCCH Multicast Control Channel
  • MTCH Multicast Traffic Channel
  • a physical channel consists of several OFDM symbols in the time domain and several sub-carriers in the frequency domain.
  • One sub-frame is composed of a plurality of OFDM symbols in the time domain.
  • a resource block is a resource allocation unit and includes a plurality of OFDM symbols and a plurality of sub-carriers.
  • each subframe may use specific subcarriers of specific OFDM symbols (eg, the first OFDM symbol) of the corresponding subframe for a Physical Downlink Control Channel (PDCCH), that is, an L1/L2 control channel.
  • PDCCH Physical Downlink Control Channel
  • a Transmission Time Interval (TTI) is a unit time of transmission, and may be, for example, a subframe or a slot.
  • new radio access technology new RAT, NR
  • next-generation communication As more and more communication devices require greater communication capacity, there is a need for improved mobile broadband communication compared to a conventional radio access technology (RAT).
  • massive MTC massive machine type communications
  • massive MTC massive machine type communications
  • URLLC Ultra-Reliable and Low Latency Communication
  • FIG. 4 shows another example of a wireless communication system to which the technical features of the present disclosure can be applied.
  • FIG. 4 shows a system architecture based on a 5G new radio access technology (NR) system.
  • An entity used in a 5G NR system may absorb some or all functions of an entity (eg, eNB, MME, S-GW) introduced in FIG. 1 .
  • An entity used in the NR system may be identified with the name "NG" to distinguish it from LTE.
  • the wireless communication system includes one or more UEs 11 , a next-generation RAN (NG-RAN), and a 5th generation core network (5GC).
  • the NG-RAN consists of at least one NG-RAN node.
  • the NG-RAN node is an entity corresponding to the BS 20 shown in FIG. 1 .
  • the NG-RAN node is configured with at least one gNB 21 and/or at least one ng-eNB 22 .
  • the gNB 21 provides termination of the NR user plane and control plane protocol towards the UE 11 .
  • the Ng-eNB 22 provides termination of the E-UTRA user plane and control plane protocol towards the UE 11 .
  • 5GC includes an access and mobility management function (AMF), a user plane function (UPF), and a session management function (SMF).
  • AMF hosts functions such as NAS security, idle state mobility handling, and more.
  • the AMF is an entity that includes the functions of the conventional MME.
  • UPF hosts functions such as mobility anchoring and PDU (protocol data unit) processing.
  • the UPF is an entity that includes the functions of the conventional S-GW.
  • SMF hosts functions such as UE IP address assignment and PDU session control.
  • gNB and ng-eNB are interconnected via Xn interface. gNB and ng-eNB are also connected to 5GC via NG interface. More specifically, it is connected to the AMF via the NG-C interface and to the UPF via the NG-U interface.
  • 5 illustrates functional partitioning between NG-RAN and 5GC.
  • the gNB is inter-cell radio resource management (Inter Cell RRM), radio bearer management (RB control), connection mobility control (Connection Mobility Control), radio admission control (Radio Admission Control), measurement setup and provision Functions such as (Measurement configuration & Provision) and dynamic resource allocation may be provided.
  • AMF may provide functions such as NAS security, idle state mobility processing, and the like.
  • the UPF may provide functions such as mobility anchoring and PDU processing.
  • a Session Management Function (SMF) may provide functions such as terminal IP address assignment and PDU session control.
  • FIG. 6 illustrates a frame structure that can be applied in NR.
  • a frame may be configured for 10 milliseconds (ms), and may include 10 subframes configured for 1 ms.
  • uplink and downlink transmission may be composed of frames.
  • a radio frame has a length of 10 ms and may be defined as two 5 ms half-frames (HF).
  • a half-frame may be defined as 5 1ms subframes (Subframe, SF).
  • a subframe is divided into one or more slots, and the number of slots in a subframe depends on subcarrier spacing (SCS).
  • SCS subcarrier spacing
  • Each slot includes 12 or 14 OFDM(A) symbols according to a cyclic prefix (CP). When a normal CP is used, each slot includes 14 symbols. When the extended CP is used, each slot includes 12 symbols.
  • the symbol may include an OFDM symbol (or a CP-OFDM symbol) and an SC-FDMA symbol (or a DFT-s-OFDM symbol).
  • One or a plurality of slots may be included in the subframe according to subcarrier spacing.
  • Table 1 illustrates a subcarrier spacing configuration ⁇ .
  • Table 2 illustrates the number of slots in a frame (N frame ⁇ slot ), the number of slots in a subframe (N subframe ⁇ slot ), and the number of symbols in a slot (N slot symb ) according to the subcarrier spacing configuration ⁇ . .
  • Table 3 illustrates the number of symbols per slot, the number of slots per frame, and the number of slots per subframe (SF) according to SCS when the extended CP is used.
  • OFDM(A) numerology eg, SCS, CP length, etc.
  • OFDM(A) numerology eg, SCS, CP length, etc.
  • the (absolute time) interval of a time resource eg, SF, slot, or TTI
  • TU Time Unit
  • a slot includes a plurality of symbols in the time domain.
  • one slot may include 14 symbols, but in the case of an extended CP, one slot may include 12 symbols.
  • one slot may include 7 symbols, but in the case of an extended CP, one slot may include 6 symbols.
  • a carrier wave includes a plurality of subcarriers in the frequency domain.
  • a resource block (RB) may be defined as a plurality of (eg, 12) consecutive subcarriers in the frequency domain.
  • a bandwidth part (BWP) may be defined as a plurality of consecutive (P)RBs in the frequency domain, and may correspond to one numerology (eg, SCS, CP length, etc.).
  • a carrier wave may include a maximum of N (eg, 5) BWPs. Data communication may be performed through the activated BWP.
  • Each element may be referred to as a resource element (RE) in the resource grid, and one complex symbol may be mapped.
  • RE resource element
  • a physical downlink control channel may include one or more control channel elements (CCEs) as shown in Table 4 below.
  • CCEs control channel elements
  • the PDCCH may be transmitted through a resource composed of 1, 2, 4, 8 or 16 CCEs.
  • the CCE consists of six resource element groups (REGs), and one REG consists of one resource block in the frequency domain and one orthogonal frequency division multiplexing (OFDM) symbol in the time domain.
  • REGs resource element groups
  • OFDM orthogonal frequency division multiplexing
  • a new unit called a control resource set may be introduced.
  • the UE may receive the PDCCH in CORESET.
  • CORESET may be composed of N CORESET RB resource blocks in the frequency domain, and may be composed of N CORESET symb ⁇ ⁇ 1, 2, 3 ⁇ symbols in the time domain.
  • N CORESET RB and N CORESET symb may be provided by the base station through a higher layer signal.
  • a plurality of CCEs (or REGs) may be included in CORESET.
  • the UE may attempt PDCCH detection in CORESET in units of 1, 2, 4, 8 or 16 CCEs.
  • One or a plurality of CCEs capable of attempting PDCCH detection may be referred to as PDCCH candidates.
  • the terminal may receive a plurality of CORESETs set.
  • FIG. 9 is a diagram illustrating a difference between a conventional control region and CORESET in NR.
  • the control region 300 in the conventional wireless communication system (eg, LTE/LTE-A) is configured over the entire system band used by the base station. All terminals except for some terminals supporting only a narrow band (eg, eMTC/NB-IoT terminals) receive radio signals of the entire system band of the base station in order to properly receive/decode the control information transmitted by the base station.
  • eMTC/NB-IoT terminals receive radio signals of the entire system band of the base station in order to properly receive/decode the control information transmitted by the base station.
  • the CORESETs 301, 302, and 303 may be said to be radio resources for control information to be received by the terminal, and only a part of the system band may be used instead of the entire system band.
  • the base station may allocate a CORESET to each terminal, and may transmit control information through the allocated CORESET.
  • the first CORESET 301 may be allocated to terminal 1
  • the second CORESET 302 may be allocated to the second terminal
  • the third CORESET 303 may be allocated to terminal 3 .
  • the terminal may receive control information of the base station even if it does not necessarily receive the entire system band.
  • the CORESET there may be a terminal-specific CORESET for transmitting terminal-specific control information and a common CORESET for transmitting control information common to all terminals.
  • the resource may include at least one of a resource in a time domain, a resource in a frequency domain, a resource in a code domain, and a resource in a space domain.
  • FIG. 10 shows an example of a frame structure for a new radio access technology.
  • a structure in which a control channel and a data channel are time division multiplexed (TDM) in one TTI is considered as one of the frame structures.
  • a hatched region indicates a downlink control region, and a black portion indicates an uplink control region.
  • An area without an indication may be used for downlink data (DL data) transmission or uplink data (UL data) transmission.
  • a characteristic of this structure is that downlink (DL) transmission and uplink (UL) transmission are sequentially performed within one subframe, so that DL data is transmitted within a subframe, and UL ACK / Acknowledgment/Not-acknowledgement (NACK) may also be received.
  • NACK Acknowledgment/Not-acknowledgement
  • the base station and the terminal switch from the transmit mode to the receive mode, or a time gap for the conversion process from the receive mode to the transmit mode. ) is required.
  • some OFDM symbols at the time of switching from DL to UL in the self-contained subframe structure may be set as a guard period (GP).
  • one slot may have a self-contained structure in which all of a DL control channel, DL or UL data, and a UL control channel may be included.
  • the first N symbols in a slot may be used to transmit a DL control channel (hereinafter, DL control region), and the last M symbols in a slot may be used to transmit a UL control channel (hereinafter, UL control region).
  • N and M are each an integer greater than or equal to 0.
  • a resource region hereinafter, referred to as a data region
  • a data region between the DL control region and the UL control region may be used for DL data transmission or for UL data transmission.
  • the following configuration may be considered. Each section is listed in chronological order.
  • the DL region may be (i) a DL data region, (ii) a DL control region + a DL data region.
  • the UL region may be (i) a UL data region, (ii) a UL data region + a UL control region.
  • the PDCCH may be transmitted in the DL control region, and the PDSCH may be transmitted in the DL data region.
  • the PUCCH may be transmitted in the UL control region, and the PUSCH may be transmitted in the UL data region.
  • DCI downlink control information
  • DL data scheduling information for example, DL data scheduling information, UL data scheduling information, etc.
  • UCI Uplink Control Information
  • ACK/NACK Positive Acknowledgment/Negative Acknowledgment
  • CSI Channel State Information
  • SR Service Request
  • the GP provides a time gap between the base station and the terminal in the process of switching from the transmission mode to the reception mode or in the process of switching from the reception mode to the transmission mode. Some symbols at the time of switching from DL to UL in a subframe may be set to GP.
  • mmW millimeter wave
  • the wavelength is shortened, so that it is possible to install a plurality of antenna elements in the same area. That is, in the 30 GHz band, the wavelength is 1 cm, and a total of 100 antenna elements can be installed in a 2-dimensional array form at 0.5 wavelength (lambda) intervals on a 5 by 5 cm panel. Therefore, mmW uses a plurality of antenna elements to increase a beamforming (BF) gain to increase coverage or increase throughput.
  • BF beamforming
  • TXRU transceiver unit
  • independent beamforming for each frequency resource is possible.
  • TXRU transceiver unit
  • to install the TXRU in all 100 antenna elements (element) has a problem in terms of effectiveness in terms of price. Therefore, a method of mapping a plurality of antenna elements to one TXRU and adjusting the direction of a beam with an analog phase shifter is being considered.
  • This analog beamforming method has a disadvantage in that frequency selective beamforming cannot be performed because only one beam direction can be made in the entire band.
  • hybrid beamforming As an intermediate form between digital beamforming (Digital BF) and analog beamforming (analog BF), hybrid beamforming (hybrid BF) having B TXRUs, which is less than Q antenna elements, may be considered.
  • hybrid beamforming having B TXRUs, which is less than Q antenna elements, may be considered.
  • the direction of beams that can be transmitted simultaneously is limited to B or less.
  • analog beamforming (or RF beamforming) performs precoding (or combining) at the RF stage, which results in the number of RF chains and the number of D/A (or A/D) converters. It has the advantage of being able to achieve performance close to digital beamforming while reducing the
  • the hybrid beamforming structure may be represented by N TXRUs and M physical antennas. Then, digital beamforming for L data layers to be transmitted from the transmitter can be expressed as an N by L matrix, and then the N digital signals converted into analog signals through TXRU. After conversion, analog beamforming expressed by an M by N matrix is applied.
  • FIG. 12 is an abstract diagram of a hybrid beamforming structure from the viewpoint of the TXRU and the physical antenna.
  • the number of digital beams is L, and the number of analog beams is N. Furthermore, in the NR system, a direction of supporting more efficient beamforming to a terminal located in a specific area is considered by designing a base station to change analog beamforming in units of symbols. Furthermore, when defining N specific TXRUs and M RF antennas as one antenna panel in FIG. 12, the NR system considers introducing a plurality of antenna panels to which hybrid beamforming independent of each other is applicable. is becoming
  • analog beams advantageous for signal reception may be different for each terminal, at least a specific subframe for a synchronization signal, system information, paging, etc.
  • a beam sweeping operation in which a plurality of analog beams to be applied by a base station is changed for each symbol so that all terminals can have a reception opportunity is being considered.
  • FIG. 13 shows a synchronization signal and a PBCH (SS/PBCH) block.
  • the SS/PBCH block spans PSS and SSS occupying 1 symbol and 127 subcarriers, and 3 OFDM symbols and 240 subcarriers, respectively, but on one symbol, an unused portion for SSS is in the middle It consists of the remaining PBCH.
  • the periodicity of the SS/PBCH block may be configured by the network, and the time position at which the SS/PBCH block may be transmitted may be determined by subcarrier spacing.
  • Polar coding may be used for the PBCH.
  • the UE may assume a band-specific subcarrier interval for the SS/PBCH block unless the network sets the UE to assume different subcarrier intervals.
  • PBCH symbols carry their frequency-multiplexed DMRS.
  • QPSK modulation may be used for PBCH.
  • 1008 unique physical layer cell IDs may be given.
  • first symbol indices for candidate SS/PBCH blocks are determined according to subcarrier spacing of SS/PBCH blocks, which will be described later.
  • the first symbols of the candidate SS/PBCH blocks have an index of ⁇ 4, 8, 16, 20 ⁇ +28*n.
  • n 0, 1, 2, 3, 5, 6, 7, 8, 10, 11, 12, 13, 15, 16, 17, 18.
  • the first symbols of the candidate SS/PBCH blocks have an index of ⁇ 8, 12, 16, 20, 32, 36, 40, 44 ⁇ +56*n.
  • n 0, 1, 2, 3, 5, 6, 7, 8.
  • Candidate SS/PBCH blocks in a half frame are indexed in ascending order from 0 to L-1 on the time axis.
  • the index of SS/PBCH blocks in which the UE cannot receive other signals or channels in REs overlapping with REs corresponding to SS/PBCH blocks is set can be set.
  • the index of SS/PBCH blocks per serving cell in which the UE cannot receive other signals or channels in REs overlapping the REs corresponding to the SS/PBCH blocks. can be set.
  • the setting by 'SSB-transmitted' may take precedence over the setting by 'SSB-transmitted-SIB1'.
  • a periodicity of a half frame for reception of SS/PBCH blocks per serving cell may be set by a higher layer parameter 'SSB-periodicityServingCell'. If the UE does not set the periodicity of the half frame for the reception of SS/PBCH blocks, the UE must assume the periodicity of the half frame. The UE may assume that the periodicity is the same for all SS/PBCH blocks in the serving cell.
  • the UE may obtain 6-bit SFN information through the MIB (Master Information Block) received in the PBCH.
  • SFN 4 bits can be obtained in the PBCH transport block.
  • the UE may obtain a 1-bit half frame indicator as part of the PBCH payload.
  • the UE may obtain the SS/PBCH block index by the DMRS sequence and the PBCH payload. That is, LSB 3 bits of the SS block index can be obtained by the DMRS sequence for a period of 5 ms. Also, the MSB 3 bits of the timing information are explicitly carried within the PBCH payload (for >6 GHz).
  • the UE may assume that a half frame with SS/PBCH blocks occurs with a periodicity of 2 frames. If it detects the SS / PBCH block, the terminal, and if the k for the FR1 and SSB ⁇ 23 ⁇ 11 SSB and k for FR2, Type0-PDCCH common search space (common search space) is determined that the present controlled set of resources for do. The UE determines that there is no control resource set for the Type0-PDCCH common search space if k SSB >23 for FR1 and k SSB > 11 for FR2.
  • the UE For a serving cell without transmission of SS/PBCH blocks, the UE acquires time and frequency synchronization of the serving cell based on reception of SS/PBCH blocks on the PSCell or the primary cell of the cell group for the serving cell.
  • SI System information
  • MIB MasterInformationBlock
  • SIBs SystemInformationBlocks
  • SIB1 SystemInformationBlockType1
  • SIB1 is transmitted with periodicity and repetition on the DL-SCH.
  • SIB1 includes information on availability and scheduling (eg, periodicity, SI-window size) of other SIBs. In addition, it indicates whether these (ie, other SIBs) are provided on a periodic broadcast basis or upon request. If other SIBs are provided by request, SIB1 includes information for the UE to perform the SI request;
  • SIBs other than SIB1 are carried in a SystemInformation (SI) message transmitted on the DL-SCH.
  • SI SystemInformation
  • Each SI message is transmitted within a periodically occurring time domain window (called an SI-window);
  • the RAN provides the necessary SI by dedicated signaling. Nevertheless, the UE must acquire the MIB of the PSCell in order to obtain the SFN timing of the SCH (which may be different from the MCG).
  • the RAN releases and adds the related secondary cell.
  • the SI can be changed only by reconfiguration with Sync.
  • 15 shows an example of a process of acquiring system information of a terminal.
  • the terminal may receive the MIB from the network and then receive the SIB1. Thereafter, the terminal may transmit a system information request to the network, and may receive a 'SystemInformation message' from the network in response thereto.
  • the terminal may apply a system information acquisition procedure for acquiring AS (access stratum) and NAS (non-access stratum) information.
  • UEs in RRC_IDLE and RRC_INACTIVE states must ensure (at least) valid versions of MIB, SIB1, and SystemInformationBlockTypeX (according to the relevant RAT support for UE-controlled mobility).
  • the UE in the RRC_CONNECTED state must guarantee valid versions of MIB, SIB1, and SystemInformationBlockTypeX (according to mobility support for the related RAT).
  • the UE must store the related SI obtained from the currently camped/serving cell.
  • the version of the SI obtained and stored by the terminal is valid only for a certain period of time.
  • the UE may use this stored version of the SI after, for example, cell reselection, return from coverage, or system information change instruction.
  • the random access procedure of the UE can be summarized as shown in Table 5 below.
  • the UE may transmit a physical random access channel (PRACH) preamble in uplink as message (Msg) 1 of the random access procedure.
  • PRACH physical random access channel
  • Random access preamble sequences having two different lengths are supported.
  • a long sequence of length 839 applies to subcarrier spacings of 1.25 kHz and 5 kHz
  • a short sequence of length 139 applies to subcarrier spacings of 15, 30, 60, and 120 kHz.
  • a long sequence supports an unrestricted set and a restricted set of types A and B, whereas a short sequence supports only an unrestricted set.
  • a plurality of RACH preamble formats are defined with one or more RACH OFDM symbols, a different cyclic prefix (CP), and a guard time.
  • the PRACH preamble configuration to be used is provided to the UE as system information.
  • the UE may retransmit the power-rammed PRACH preamble within a prescribed number of times.
  • the UE calculates the PRACH transmission power for retransmission of the preamble based on the most recent estimated path loss and power ramping counter. If the UE performs beam switching, the power ramping counter does not change.
  • 17 is for explaining a power ramping carwonter.
  • the UE may perform power ramping for retransmission of the random access preamble based on the power ramping counter.
  • the power ramping counter does not change when the UE performs beam switching during PRACH retransmission.
  • the UE when the UE retransmits the random access preamble for the same beam, such as when the power ramping counter increases from 1 to 2 and from 3 to 4, the UE increments the power ramping counter by 1. However, when the beam is changed, the power ramping counter does not change during PRACH retransmission.
  • the system information informs the UE of the relationship between SS blocks and RACH resources.
  • the threshold of the SS block for the RACH resource relationship is based on RSRP and network configuration. Transmission or retransmission of the RACH preamble is based on an SS block that satisfies a threshold. Accordingly, in the example of FIG. 18 , since the SS block m exceeds the threshold of the received power, the RACH preamble is transmitted or retransmitted based on the SS block m.
  • the DL-SCH may provide timing arrangement information, an RA-preamble ID, an initial uplink grant, and a temporary C-RNTI.
  • the UE may perform uplink transmission on the UL-SCH as Msg3 of the random access procedure.
  • Msg3 may include an RRC connection request and UE identifier.
  • the network may transmit Msg4, which may be treated as a contention resolution message, in downlink.
  • Msg4 may be treated as a contention resolution message
  • up to 400 megahertz (MHz) per component carrier (CC) may be supported. If the terminal operating in such a wideband CC always operates with RF for the entire CC turned on, the terminal battery consumption may increase.
  • different numerology for each frequency band within the CC eg, subcarrier spacing (sub -carrier spacing: SCS)
  • SCS subcarrier spacing
  • the base station may instruct the terminal to operate only in a partial bandwidth rather than the entire bandwidth of the broadband CC, and the partial bandwidth is defined as a bandwidth part (BWP) for convenience.
  • BWP may be composed of continuous resource blocks (RBs) on the frequency axis, and one numerology (eg, subcarrier interval, cyclic prefix (CP) length, slot/mini-slot) may correspond to a duration, etc.).
  • numerology eg, subcarrier interval, cyclic prefix (CP) length, slot/mini-slot
  • the base station may set a plurality of BWPs even within one CC configured for the terminal. For example, in a PDCCH monitoring slot, a BWP occupying a relatively small frequency region may be configured, and a PDSCH indicated by the PDCCH may be scheduled on a larger BWP.
  • some terminals may be set to other BWPs for load balancing.
  • a partial spectrum from the entire bandwidth may be excluded and both BWPs may be configured in the same slot.
  • the base station may set at least one DL/UL BWP to a terminal associated with a wideband CC, and at least one DL/UL BWP among DL/UL BWP(s) set at a specific time. It can be activated (activation) (by L1 signaling or MAC CE or RRC signaling, etc.), and switching to another configured DL / UL BWP (by L1 signaling or MAC CE or RRC signaling, etc.) can be indicated, or timer-based timer When the value expires, it may be switched to a predetermined DL/UL BWP. In this case, the activated DL/UL BWP is defined as an active DL/UL BWP.
  • the terminal in a situation such as when the terminal is in the process of initial access or before the RRC connection is set up, it may not be able to receive the configuration for DL/UL BWP.
  • the DL assumed by the terminal /UL BWP is defined as an initial active DL/UL BWP.
  • Discontinuous Reception refers to an operation mode in which a UE (User Equipment) reduces battery consumption so that the UE can discontinuously receive a downlink channel. That is, the terminal configured for DRX can reduce power consumption by discontinuously receiving the DL signal.
  • UE User Equipment
  • the DRX operation is performed within a DRX cycle indicating a time interval in which On Duration is periodically repeated.
  • the DRX cycle includes an on-period and a sleep period (Sleep Duration) (or an opportunity of DRX).
  • the on-period indicates a time interval during which the UE monitors the PDCCH to receive the PDCCH.
  • DRX may be performed in RRC (Radio Resource Control)_IDLE state (or mode), RRC_INACTIVE state (or mode), or RRC_CONNECTED state (or mode).
  • RRC_IDLE state and RRC_INACTIVE state DRX may be used to receive paging signal discontinuously.
  • RRC_IDLE state a state in which a radio connection (RRC connection) is not established between the base station and the terminal.
  • RRC connection A wireless connection (RRC connection) is established between the base station and the terminal, but the wireless connection is inactive.
  • RRC_CONNECTED state a state in which a radio connection (RRC connection) is established between the base station and the terminal.
  • DRX can be basically divided into idle (idle) mode DRX, connected (Connected) DRX (C-DRX), and extended (extended) DRX.
  • DRX applied in the IDLE state may be named idle mode DRX, and DRX applied in the CONNECTED state may be named connected mode DRX (C-DRX).
  • Extended/Enhanced DRX is a mechanism that can extend the cycles of idle mode DRX and C-DRX, and Extended/Enhanced DRX (eDRX) can be mainly used for (massive) IoT applications.
  • whether to allow eDRX may be configured based on system information (eg, SIB1).
  • SIB1 may include an eDRX-allowed parameter.
  • the eDRX-allowed parameter is a parameter indicating whether idle mode extended DRX is allowed.
  • One paging occasion (paging occasion; PO) is a P-RNTI (Paging-Radio Network Temporary Identifier) (which addresses a paging message for NB-IoT) PDCCH (Physical Downlink Control Channel) or MPDCCH (MTC PDCCH) ) or a subframe that can be transmitted through a narrowband PDCCH (NPDCCH).
  • P-RNTI Paging-Radio Network Temporary Identifier
  • PDCCH Physical Downlink Control Channel
  • MPDCCH MTC PDCCH
  • NPDCCH narrowband PDCCH
  • PO may indicate a start subframe of MPDCCH repetition.
  • the PO may indicate the start subframe of the NPDCCH repetition. Therefore, the first valid NB-IoT downlink subframe after PO is the start subframe of NPDCCH repetition.
  • One paging frame is one radio frame that may include one or a plurality of paging opportunities. When DRX is used, the UE only needs to monitor one PO per DRX cycle.
  • One paging narrow band is one narrow band in which the terminal performs paging message reception. PF, PO, and PNB may be determined based on DRX parameters provided in system information.
  • 19 is a flowchart illustrating an example of performing an idle mode DRX operation.
  • the terminal may receive idle mode DRX configuration information from the base station through higher layer signaling (eg, system information) (S21).
  • higher layer signaling eg, system information
  • the UE may determine a Paging Frame (PF) and a Paging Occasion (PO) to monitor the PDCCH in the paging DRX cycle based on the idle mode DRX configuration information (S22).
  • the DRX cycle may include an on-period and a sleep period (or an opportunity of DRX).
  • the UE may monitor the PDCCH in the PO of the determined PF (S23).
  • the UE monitors only one subframe (PO) per paging DRX cycle.
  • the terminal receives the PDCCH scrambled by the P-RNTI during the on-period (ie, when paging is detected), the terminal transitions to the connected mode and may transmit/receive data to/from the base station.
  • C-DRX means DRX applied in the RRC connection state.
  • the DRX cycle of C-DRX may consist of a short DRX cycle and/or a long DRX cycle.
  • a short DRX cycle may correspond to an option.
  • the UE may perform PDCCH monitoring for the on-period. If the PDCCH is successfully detected during PDCCH monitoring, the UE may operate (or run) an inactive timer and maintain an awake state. Conversely, if the PDCCH is not successfully detected during PDCCH monitoring, the UE may enter the sleep state after the on-period ends.
  • a PDCCH reception opportunity (eg, a slot having a PDCCH search space) may be configured non-contiguously based on the C-DRX configuration.
  • a PDCCH reception opportunity (eg, a slot having a PDCCH search space) may be continuously configured in the present disclosure.
  • PDCCH monitoring may be limited to a time interval set as a measurement gap (gap) regardless of the C-DRX configuration.
  • the DRX cycle consists of 'On Duration' and 'Opportunity for DRX'.
  • the DRX cycle defines a time interval in which the 'on-period' is periodically repeated.
  • the 'on-interval' indicates a time period that the UE monitors to receive the PDCCH.
  • the UE performs PDCCH monitoring during the 'on-period'. If there is a successfully detected PDCCH during PDCCH monitoring, the UE operates an inactivity timer and maintains an awake state. On the other hand, if there is no PDCCH successfully detected during PDCCH monitoring, the UE enters a sleep state after the 'on-period' ends.
  • PDCCH monitoring/reception may be discontinuously performed in the time domain in performing the procedures and/or methods described/proposed above.
  • a PDCCH reception opportunity eg, a slot having a PDCCH search space
  • PDCCH monitoring/reception may be continuously performed in the time domain in performing the procedures and/or methods described/proposed above.
  • PDCCH reception opportunities eg, a slot having a PDCCH search space
  • PDCCH monitoring may be limited in a time interval configured as a measurement gap.
  • Table 6 shows the process of the UE related to DRX (RRC_CONNECTED state).
  • DRX configuration information is received through higher layer (eg, RRC) signaling, and whether DRX ON/OFF is controlled by a DRX command of the MAC layer. If DRX is configured, PDCCH monitoring may be discontinuously performed in performing the procedures and/or methods described/proposed in the present disclosure.
  • Type of signals UE procedure Step 1 RRC signaling (MAC-CellGroupConfig) - Receive DRX setting information Step 2 MAC CE ((Long) DRX command MAC CE) - Receive DRX command Step 3 - - PDCCH monitoring during on-duration of DRX cycle
  • the MAC-CellGroupConfig may include configuration information required to set a MAC (Medium Access Control) parameter for a cell group.
  • MAC-CellGroupConfig may also include configuration information related to DRX.
  • MAC-CellGroupConfig may include information as follows to define DRX.
  • drx-InactivityTimer Defines the length of the time interval in which the UE remains awake after the PDCCH opportunity in which the PDCCH indicating the initial UL or DL data is detected
  • drx-HARQ-RTT-TimerDL Defines the length of the maximum time interval from when DL initial transmission is received until DL retransmission is received.
  • drx-HARQ-RTT-TimerDL Defines the length of the maximum time interval after the grant for UL initial transmission is received until the grant for UL retransmission is received.
  • the UE maintains the awake state and performs PDCCH monitoring at every PDCCH opportunity.
  • the 6G system may be a 5G system or a next-generation communication system after the NR system.
  • 6G systems have (i) very high data rates per device, (ii) very large number of connected devices, (iii) global connectivity, (iv) very low latency, (v) battery-free free) It aims to lower the energy consumption of IoT devices, (vi) ultra-reliable connections, and (vii) connected intelligence with machine learning capabilities.
  • the vision of the 6G system can be in four aspects: intelligent connectivity, deep connectivity, holographic connectivity, and ubiquitous connectivity. can be satisfied. That is, Table 7 is a table showing an example of the requirements of the 6G system.
  • the 6G system includes enhanced mobile broadband (eMBB), ultra-reliable low latency communications (URLLC), massive machine-type communication (mMTC), AI integrated communication, tactile internet, and high throughput. ), high network capacity, high energy efficiency, low backhaul and access network congestion, and key factors such as enhanced data security (key factors) can have.
  • 21 shows an example of a communication structure that can be provided in a 6G system.
  • 6G systems are expected to have 50 times higher simultaneous wireless connectivity than 5G wireless communication systems.
  • URLLC a key feature of 5G, will become an even more important technology by providing an end-to-end delay of less than 1ms in 6G communication.
  • 6G systems will have much better volumetric spectral efficiencies as opposed to frequently used areal spectral efficiencies.
  • the 6G system can provide very long battery life and advanced battery technology for energy harvesting, so mobile devices will not need to be charged separately in the 6G system.
  • New network characteristics in 6G may be as follows.
  • 6G is expected to be integrated with satellites to provide a global mobile population.
  • the integration of terrestrial, satellite and public networks into one wireless communication system is very important for 6G.
  • AI may be applied in each step of a communication procedure (or each procedure of signal processing to be described later).
  • the 6G wireless network will deliver power to charge the batteries of devices such as smartphones and sensors. Therefore, wireless information and energy transfer (WIET) will be integrated.
  • WIET wireless information and energy transfer
  • Small cell networks The idea of small cell networks was introduced to improve the received signal quality as a result of improved throughput, energy efficiency and spectral efficiency in cellular systems. As a result, small cell networks are essential characteristics for communication systems beyond 5G and Beyond 5G (5GB). Accordingly, the 6G communication system also adopts the characteristics of the small cell network.
  • Ultra-dense heterogeneous networks will be another important characteristic of 6G communication systems.
  • a multi-tier network composed of heterogeneous networks improves overall QoS and reduces costs.
  • a backhaul connection is characterized as a high-capacity backhaul network to support high-capacity traffic.
  • High-speed fiber optics and free-space optics (FSO) systems may be possible solutions to this problem.
  • High-precision localization (or location-based service) through communication is one of the functions of the 6G wireless communication system. Therefore, the radar system will be integrated with the 6G network.
  • Softening and virtualization are two important features that underlie the design process in 5GB networks to ensure flexibility, reconfigurability and programmability. In addition, billions of devices can be shared in a shared physical infrastructure.
  • AI artificial intelligence
  • AI The most important and newly introduced technology for 6G systems is AI.
  • AI was not involved in the 4G system.
  • 5G systems will support partial or very limited AI.
  • the 6G system will be AI-enabled for full automation.
  • Advances in machine learning will create more intelligent networks for real-time communication in 6G.
  • Incorporating AI into communications can simplify and enhance real-time data transmission.
  • AI can use numerous analytics to determine how complex target tasks are performed. In other words, AI can increase efficiency and reduce processing delays.
  • AI can also play an important role in M2M, machine-to-human and human-to-machine communication.
  • AI can be a rapid communication in BCI (Brain Computer Interface).
  • BCI Brain Computer Interface
  • AI-based communication systems can be supported by metamaterials, intelligent structures, intelligent networks, intelligent devices, intelligent cognitive radios, self-sustaining wireless networks, and machine learning.
  • AI-based physical layer transmission means applying a signal processing and communication mechanism based on an AI driver rather than a traditional communication framework in a fundamental signal processing and communication mechanism. For example, deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO mechanism, AI-based resource scheduling ( scheduling) and allocation may be included.
  • Machine learning may be used for channel estimation and channel tracking, and may be used for power allocation, interference cancellation, and the like in a physical layer of a downlink (DL). In addition, machine learning may be used for antenna selection, power control, symbol detection, and the like in a MIMO system.
  • DL downlink
  • machine learning may be used for antenna selection, power control, symbol detection, and the like in a MIMO system.
  • DNN deep neural network
  • Deep learning-based AI algorithms require large amounts of training data to optimize training parameters.
  • a lot of training data is used offline. This is because static training on training data in a specific channel environment may cause a contradiction between dynamic characteristics and diversity of a wireless channel.
  • signals of the physical layer of wireless communication are complex signals.
  • further research on a neural network for detecting a complex domain signal is needed.
  • Machine learning refers to a set of actions that trains a machine to create a machine that can perform tasks that humans can or cannot do.
  • Machine learning requires data and a learning model.
  • data learning methods can be roughly divided into three types: supervised learning, unsupervised learning, and reinforcement learning.
  • Neural network learning is to minimize errors in output. Neural network learning repeatedly inputs training data into the neural network, calculates the output and target errors of the neural network for the training data, and backpropagates the neural network error from the output layer of the neural network to the input layer in the direction to reduce the error. ) to update the weight of each node in the neural network.
  • Supervised learning uses training data in which the correct answer is labeled in the training data, and in unsupervised learning, the correct answer may not be labeled in the training data. That is, for example, learning data in the case of supervised learning regarding data classification may be data in which categories are labeled for each of the training data.
  • the labeled training data is input to the neural network, and an error can be calculated by comparing the output (category) of the neural network with the label of the training data.
  • the calculated error is back propagated in the reverse direction (ie, from the output layer to the input layer) in the neural network, and the connection weight of each node of each layer of the neural network may be updated according to the back propagation.
  • a change amount of the connection weight of each node to be updated may be determined according to a learning rate.
  • the computation of the neural network on the input data and the backpropagation of errors can constitute a learning cycle (epoch).
  • the learning rate may be applied differently depending on the number of repetitions of the learning cycle of the neural network. For example, in the early stage of learning of a neural network, a high learning rate can be used to allow the neural network to quickly obtain a certain level of performance to increase efficiency, and a low learning rate can be used to increase accuracy at the end of learning.
  • the learning method may vary depending on the characteristics of the data. For example, when the purpose of accurately predicting data transmitted from a transmitter in a communication system is at a receiver, it is preferable to perform learning using supervised learning rather than unsupervised learning or reinforcement learning.
  • the learning model corresponds to the human brain, and the most basic linear model can be considered. ) is called
  • the neural network cord used as a learning method is largely divided into deep neural networks (DNN), convolutional deep neural networks (CNN), and Recurrent Boltzmann Machine (RNN) methods. have.
  • DNN deep neural networks
  • CNN convolutional deep neural networks
  • RNN Recurrent Boltzmann Machine
  • An artificial neural network is an example of connecting several perceptrons.
  • FIG. 22 shows an example of a perceptron structure.
  • each component is multiplied by a weight (W 1 ,W 2 ,...,W d ), and the result After summing all the , the whole process of applying the activation function ⁇ ( ⁇ ) is called a perceptron.
  • the huge artificial neural network structure may extend the simplified perceptron structure shown in FIG. 22 to apply input vectors to different multidimensional perceptrons. For convenience of description, an input value or an output value is referred to as a node.
  • the perceptron structure shown in FIG. 22 can be described as being composed of a total of three layers based on an input value and an output value.
  • An artificial neural network in which H (d+1)-dimensional perceptrons exist between the first and second layers and K (H+1)-dimensional perceptrons exist between the second and third layers can be expressed as shown in FIG. have.
  • FIG. 23 shows an example of a multiple perceptron structure.
  • the layer where the input vector is located is called the input layer
  • the layer where the final output value is located is called the output layer
  • all layers located between the input layer and the output layer are called hidden layers.
  • three layers are disclosed, but when counting the actual number of artificial neural network layers, the input layer is counted except for the input layer, so it can be viewed as a total of two layers.
  • the artificial neural network is constructed by connecting the perceptrons of the basic blocks in two dimensions.
  • the aforementioned input layer, hidden layer, and output layer can be jointly applied in various artificial neural network structures such as CNN and RNN, which will be described later, as well as multi-layer perceptron.
  • CNN neural network
  • RNN multi-layer perceptron
  • DNN deep neural network
  • the deep neural network shown in Fig. 24 is a multilayer perceptron composed of eight hidden layers + output layers.
  • the multi-layered perceptron structure is referred to as a fully-connected neural network.
  • a connection relationship does not exist between nodes located in the same layer, and a connection relationship exists only between nodes located in adjacent layers.
  • DNN has a fully connected neural network structure and is composed of a combination of multiple hidden layers and activation functions, so it can be usefully applied to figure out the correlation between input and output.
  • the correlation characteristic may mean a joint probability of input/output.
  • various artificial neural network structures different from the above-described DNN can be formed depending on how a plurality of perceptrons are connected to each other.
  • 25 shows an example of a convolutional neural network.
  • nodes located inside one layer are arranged in a one-dimensional vertical direction.
  • the nodes are two-dimensionally arranged with w horizontally and h vertical nodes.
  • a weight is added per connection in the connection process from one input node to the hidden layer, a total of h*w weights must be considered.
  • h*w nodes in the input layer a total of h 2 w 2 weights are needed between two adjacent layers.
  • 26 shows an example of a filter operation in a convolutional neural network.
  • the convolutional neural network of FIG. 25 has a problem in that the number of weights increases exponentially according to the number of connections, so instead of considering the connections of all modes between adjacent layers, it is assumed that a filter with a small size exists in FIG. As in , the weighted sum and activation function operations are performed on the overlapping filters.
  • One filter has a weight corresponding to the number corresponding to its size, and weight learning can be performed so that a specific feature on an image can be extracted and output as a factor.
  • a 3 by 3 filter is applied to the upper left 3 by 3 region of the input layer, and an output value obtained by performing weighted sum and activation function operations on the corresponding node is stored in z 22 .
  • the filter performs weighted sum and activation function calculations while moving horizontally and vertically at regular intervals while scanning the input layer, and places the output value at the position of the current filter.
  • a calculation method is similar to a convolution operation for an image in the field of computer vision, so a deep neural network with such a structure is called a convolutional neural network (CNN), and a hidden neural network generated as a result of a convolution operation
  • the layer is called a convolutional layer.
  • a neural network having a plurality of convolutional layers is called a deep convolutional neural network (DCNN).
  • the number of weights can be reduced by calculating the weighted sum by including only nodes located in the region covered by the filter in the node where the filter is currently located. Due to this, one filter can be used to focus on features for a local area. Accordingly, CNN can be effectively applied to image data processing in which physical distance in a two-dimensional domain is an important criterion. Meanwhile, in CNN, a plurality of filters may be applied immediately before the convolution layer, and a plurality of output results may be generated through the convolution operation of each filter.
  • a structure in which an input method is applied to an artificial neural network is called a recurrent neural network structure.
  • FIG. 27 shows an example of a neural network structure in which a cyclic loop exists.
  • a recurrent neural network completely connects elements (x 1 (t), x 2 (t), ..., x d (t)) of a point t in a data sequence.
  • the immediately preceding time point t-1 is weighted by inputting the hidden vectors (z 1 (t-1), z 2 (t-1), ..., z H (t-1)) together.
  • a structure that applies sum and activation functions is because it is considered that information in the input vector at the previous time is accumulated in the hidden vector of the current time.
  • the recurrent neural network operates in a predetermined time sequence with respect to an input data sequence.
  • the hidden vector (z 1 (1), z 2 (1) ), ..., z H (1)) are input together with the input vectors of time 2 (x 1 (2), x 2 (2), ..., x d (2)) to give weighted sum and activation functions
  • a deep recurrent neural network when a plurality of hidden layers are arranged in a recurrent neural network, this is called a deep recurrent neural network (DRNN).
  • the recurrent neural network is designed to be usefully applied to sequence data (eg, natural language processing).
  • Deep Q-Network As a neural network core used as a learning method, in addition to DNN, CNN, and RNN, Restricted Boltzmann Machine (RBM), deep belief networks (DBN), Deep Q-Network and It includes various deep learning techniques such as, and can be applied to fields such as computer vision, voice recognition, natural language processing, and voice/signal processing.
  • RBM Restricted Boltzmann Machine
  • DNN deep belief networks
  • Deep Q-Network includes various deep learning techniques such as, and can be applied to fields such as computer vision, voice recognition, natural language processing, and voice/signal processing.
  • a neural network is a machine learning model modeled after the human brain. What computers are good at is arithmetic operations made up of 0 and 1. Advances in technology allow computers to process far more arithmetic operations faster and with less power than ever before. On the other hand, humans cannot perform arithmetic operations as fast as computers. This is because the human brain is not designed to process only fast arithmetic operations. However, in order to process something beyond recognition and natural language processing, it must be able to do things beyond the arithmetic operations, but the current computer cannot process such things to the level that the human brain can. Therefore, in the fields of natural language processing and computer vision, if a system with performance similar to that of a human can be made, a tremendous technological advance will occur.
  • a neural network is a simple mathematical model created with this motivation.
  • the human brain is made up of a huge number of neurons and the synapses that connect them. Also, depending on how each neuron is activated, other neurons will also take an action such as being activated or not activated. Then, based on these facts, it is possible to define the following simple mathematical model.
  • 29 shows an example of a neural network model.
  • neural networks are directed graphs. That is, information propagation is fixed in one direction. If there is an undirected edge or the same directed edge is given in both directions, the information propagation occurs recursively and the result is slightly complicated. This case is called a recurrent neural network (RNN), and since it has an effect of storing past data, it is recently used a lot when processing sequential data such as voice recognition.
  • RNN recurrent neural network
  • a multi-layer perceptron (MLP) structure is a directed simple graph, and there is no connection in the same layers. That is, there is no self-loop and parallel edge, an edge exists only between layers, and only adjacent layers have edges. That is, there is no edge directly connecting the first and fourth layers. In the future, this MLP is assumed unless there is a special mention of the layers. In this case, since information propagation occurs only forward, such a network is also called a feed-forward network.
  • the neuron that makes the final decision is activated and processes information according to the activation method.
  • this method is converted into a mathematical model, it may be possible to express the activation condition for input data as a function.
  • This is defined as an activation function or an activate function.
  • An example of the simplest activation function could be a function that adds up all incoming input values and then sets a threshold to activate when this value exceeds a certain value and deactivate when it does not exceed that value.
  • the model first defines the shape of a network composed of nodes and edges, and defines an activation function for each node.
  • the role of the parameter controlling the model determined in this way is assumed by the weight of the edge, and finding the most appropriate weight may be a goal when training the mathematical model.
  • the neural network first determines the activation of the next layer for a given input, and uses this to determine the activation of the next layer. In this way, after making decisions up to the last layer, the inference is determined by looking at the results of the last decision layer.
  • FIG. 30 shows an example of an activated node in a neural network.
  • a node indicated by a circle in FIG. 30 indicates an activated node.
  • a decision node can be created as many as the number of classes or classes that the user wants to classify in the last layer, and then an activated value of one of them can be selected.
  • weight optimization of a neural network may be a non-convex optimization. Therefore, in general, it is impossible to find a global optimum of parameters of a neural network. Therefore, it is possible to use a method of convergence to an appropriate value using the gradient descent (GD) method. All optimization problems can be solved only when a target function is defined.
  • a method of minimizing the value by calculating the loss function between the actually desired target output and the estimated output produced by the current network in the final decision layer. have.
  • the commonly selected loss functions include the following functions.
  • Various loss functions can be used for optimization, and the following is an example of a representative loss function.
  • the backpropagation algorithm is an algorithm that makes gradient calculations simple using a chain rule.
  • parallelization is easy, and memory
  • the actual neural network update mainly uses the backpropagation algorithm.
  • the loss is first calculated using the current parameters, and how much each parameter affects the corresponding loss is calculated using the chain rule, and the update can do.
  • the backpropagation algorithm can be largely divided into two phases, one is a propagation phase and the other is a weight update phase. In the propagation step, an error or change amount of each neuron is calculated from the training input pattern, and in the weight update step, the weight is updated using the previously calculated value.
  • forward propagation or backpropagation may be performed.
  • Forward propagation computes the output from the input training data, and calculates the error in each neuron.
  • Backpropagation calculates how much influence the neurons of the immediately preceding layer have on the error by using the weight of each edge with the error calculated from the output neuron.
  • back propagation since information moves in the order of output neuron-hidden neuron, it is called back propagation.
  • weights of parameters are calculated using a chain rule.
  • the use of the chain rule may mean updating the current gradient value using the previously calculated gradient as shown in FIG. 31 .
  • 31 shows an example of slope calculation using a chain rule.
  • the parameter is updated using gradient descent.
  • SGD stochastic gradient descent
  • SGD instead of performing a gradient update by taking the average of the gradients of all data (this is called a full batch), SGD creates a mini-batch with some data and only the gradient for one batch It can be calculated to update the entire parameter.
  • convex optimization it has been proven that SGD and GD converge to the same global optimum when a specific condition is satisfied, but the convergence condition changes depending on the arrangement setting method because neural networks are not convex.
  • CNN convolution neural network
  • CNN is a type of neural network mainly used for speech recognition and image recognition. It is configured to process multidimensional array data, and is specialized for multidimensional array processing such as color images. Therefore, most of the techniques using deep learning in the image recognition field are based on CNNs.
  • image data is processed as it is. That is, since the entire image is considered as one data and received as an input, the correct performance may not be obtained if the image's characteristics are not found and the position of the image is slightly changed or distorted.
  • CNN processes the image by dividing it into several pieces, not one piece of data. In this way, even if the image is distorted, partial characteristics of the image can be extracted and correct performance can be achieved.
  • CNN can be defined in the following terms.
  • Convolution operation means reversing or shifting one of the two functions f and g, and then integrating the result of multiplying it with the other function.
  • Convolution operation means reversing or shifting one of the two functions f and g, and then integrating the result of multiplying it with the other function.
  • sum instead of integral.
  • - Filter or kernel A function that performs convolution on input data.
  • - Padding When performing convolution, it refers to an operation of adding a specific value to input data, and 0 is mainly used as the specific value.
  • RNN recurrent neural network
  • RNN is a type of artificial neural network in which hidden nodes are connected by directed edges to form a directed cycle. It is known as a model suitable for processing data that appears sequentially such as voice and text, and it is an algorithm that has recently been in the spotlight along with CNN. Since it is a network structure that can accept input and output regardless of sequence length, the biggest advantage of RNN is that it can create various and flexible structures according to needs.
  • x is an input
  • y is an output.
  • the proposed structures to solve the problem of the disappearance of the gradient are long-short term memory (LSTM) and gated recurrent unit (GRU).
  • a neural network to a communication system.
  • an attempt to apply to the physical layer is mainly considered to optimize a specific function of a receiver. For example, performance may be improved by configuring a channel decoder as a neural network.
  • a MIMO detector may be implemented as a neural network to improve performance.
  • Another approach is to configure both the transmitter and receiver as a neural network to optimize performance from an end-to-end point of view, which is called an autoencoder. .
  • an input signal proceeds sequentially to a transmitter, a channel, and a receiver.
  • the input signal is a 5-bit signal
  • the 5-bit signal may be expressed in 32 types, which may be expressed as a vector of one row or one column having 32 elements.
  • the receiver may acquire information according to the contents of the detected vector.
  • turbo autoencoder As the input data block size K increases, a problem in which complexity increases exponentially, that is, a curse of dimensionality occurs. In this case, the above problem can be solved when designing a structured transmitter. This is called a turbo autoencoder (turbo AE), and the structure of the encoder and decoder of the turbo autoencoder is shown in FIG. 34 .
  • Turbo AE turbo autoencoder
  • FIG. 34 shows an example of an encoder structure and a decoder structure of a turbo autoencoder. Specifically, FIG. 34 (a) shows a structure of a neural network encoder, and FIG. 34 (b) shows a structure of a neural network decoder.
  • 34 (a) shows an encoder structure having a code rate of 1/3, where f i, ⁇ are neural networks, and h(.) denotes a power constraint.
  • means an interleaver.
  • 34 (b) shows the decoder structure, employs a method similar to the iterative decoding method of the turbo decoder, and consists of two sub-decoders at each iterative decoding.
  • g 0i,j denotes the j-th sub-decoder in the i-th iterative decoding.
  • the complexity of the autoencoder increases exponentially as the input data block size increases, the structure shown in FIG. 33 is not suitable for data transmission with a large block size. Although it is possible to transmit data having a relatively large block size in the autoencoder structure as shown in FIG. 34, which solves such a problem, it is more complicated than the existing channel coding system.
  • Table 8 below compares the complexity of the turbo autoencoder for a block size of 100.
  • FLOP in Table 8 is the number of floating-point operations, and EMO indicates an elementary math operation.
  • the complexity of the neural encoder and neural decoder using CNN/RNN was calculated with FLOP, and turbo The complexity of the encoder and turbo decoder is calculated by EMO.
  • Metric CNN encoder CNN decoder RNN encoder RNN decoder turbo encoder turbo decoder FLOP/EMO 1.8M 294.15 M 33.4M 6.7 G 104K 408K weight 157.4 K 2.45M 1.14 M 2.71M N/A N/A
  • the encoder and decoder composed of the neural network have greater complexity than the turbo encoder and the turbo decoder.
  • the complexity of the neural network encoder and the neural network decoder can be reduced by designing an encoder composed of a neural network to improve the distance or Euclidean distance.
  • FIG. 35 shows an example in which f i, ⁇ is implemented as a two-layer CNN in a neural network encoder.
  • an example of the neural network encoder may be as shown in (a) of FIG. 34 .
  • a minimum distance becomes an important design parameter, which means a minimum value among the distances between codewords generated by the encoder. Therefore, it is possible to design codes with good performance by maximizing the minimum distance of codewords. By adopting such a design method, two input data sequences with no significant difference in the input data block are considered.
  • g 0i,j of a neural network decoder configured with a 5-layer CNN.
  • AWGN additive white Gaussian noise
  • FIG. 37 schematically illustrates an input end structure of an embodiment of a neural network encoder for distance characteristic improvement.
  • the structure of FIG. 37 adopts the concept of a filter bank, which is an array of filters that separate a signal into several components, and applies a delay when inputting a filter to input data sequences with no significant weight difference to obtain a weight difference. Applies a method to obtain the effect of a large input data sequence.
  • the delay of FIG. 37 may be applied to the filter input of the CNN layer 1 of FIG. 35 to obtain the above effect.
  • the decoder can utilize the existing decoder structure by applying the delay to the input of CNN layer 1 in the reverse order of FIG. 37 . That is, no delay is applied to the input of filter 1N of CNN layer 1 of FIG. 35, 1-delay is applied to filter 1 (N-1), and 2-delay is applied to filter 1 (N-2) (ie, 1-delay of 2x), ..., is a method of applying (N-1)-delay to filter 11. If a delay is applied to the input terminal in this way, it is possible to change the input of the filter, so that improvement of the distance characteristic can be expected.
  • 38 schematically illustrates a structure of a neural network encoder in which an interleaver is inserted to improve distance characteristics.
  • the delay of the input terminal of FIG. 36 may be implemented by inserting an interleaver into the filter output terminal.
  • the neural network encoder structure of FIG. 38 may use the decoder structure of FIG. 36 .
  • INT1 may indicate a first interleaver and INT2 may indicate a second interleaver.
  • each of NN1, NN2, and NN3 represents a neural network, and NN1, NN2, and NN3 may be different types of neural networks.
  • ⁇ and ⁇ ⁇ 1 may mean interleaving and de-interleaving operations corresponding to INT2, respectively.
  • the neural network decoder for the neural network encoder structure of FIG. 39 may use a structure in which the deinterleaved signal of INT1 of FIG. 39 is input to y 2 in FIG. 34 (b).
  • the neural network decoder for the neural network encoder of FIG. 39 may be designed to have a structure opposite to that of the neural network encoder of FIG. 39 .
  • FIGS. 40 shows an embodiment of a structure of a neural network encoder in which an accumulator is inserted into an input end.
  • the structures of FIGS. 40 (a), 40 (b), 40 (c), and 40 (d) may be considered according to the position at which the accumulator is inserted into the input terminal.
  • an input data sequence having a large weight difference may be generated from an input data sequence having a small weight difference by inserting an accumulator or an accumulator.
  • the difference value may become large when it passes through the accumulator. Accordingly, the distance characteristic of the codeword may be improved.
  • the neural network encoder structure of FIG. 40 may use the neural network decoder structure of FIG. 34(b).
  • the distance characteristic may be improved by adding an accumulator to the interleaver output of FIG. 40 .
  • FIG. 41 shows an embodiment of a structure of a neural network encoder concatenated with a recursive systematic convolutional code (RSC).
  • RSC recursive systematic convolutional code
  • a neural network encoder and an RSC code when generating an input data sequence of a neural network generating a codeword, a neural network encoder and an RSC code may be concatenated.
  • the distance characteristic may be improved by inserting an accumulator into the interleaver output.
  • FIG. 42 shows an embodiment of a neural network decoder structure for a neural network encoder structure associated with an RSC code.
  • the structure of FIG. 41 may consider the structure of a neural network decoder as shown in FIG. 42 in that it is difficult to use the structure of the decoder of FIG. 34(b).
  • the RSC code is inserted, and in the structure of FIG. 42, a decoder for the RSC code exists separately.
  • 43 illustrates one embodiment of a systematic neural network encoder architecture.
  • a neural network encoder structure that generates a systematic codeword like an encoder structure of a turbo code may be considered. Through this, performance improvement can be expected by inputting the tissue codeword to the decoder.
  • the structure of FIG. 43 may utilize the decoder structure of FIG. 34(b).
  • both the transmitter and receiver are composed of a neural network. Since the neural network operates after optimizing the parameters through training, information on the neural network parameters may be signaled from the apparatus in which training is performed to a transmitter or a receiver.
  • the neural network encoder operates at the base station side, and the neural network decoder operates at the terminal side.
  • the neural network encoder operates at the terminal side, and the neural network decoder operates at the base station side.
  • the corresponding neural network parameter may be transmitted from the device in which the training is performed to a transmitter in which the neural network encoder operates and a receiver in which the neural network decoder operates.
  • the neural network parameters may be transmitted to the base station or the terminal.
  • parameters of the neural network encoder and the neural network decoder may be transmitted to the base station.
  • the base station may transmit information on the neural network encoder or the neural network decoder to the terminal using a cellular network. That is, for downlink data transmission, the base station may transmit parameter information of a neural network decoder to the terminal, and for uplink data transmission, the base station may transmit parameter information of a neural network encoder to the terminal.
  • RRC/MAC/L1 signaling may be used.
  • 44 shows an example of a training method of a neural network.
  • training for the neural network may be separately performed by the training apparatus without being performed by the base station or the terminal.
  • the training apparatus may transmit parameter information about the neural network encoder and the neural network decoder to both the base station and the terminal.
  • the training device transmits parameter information about the neural network encoder and the neural network decoder to the base station, and the base station provides the terminal with information necessary for the terminal among the parameters. can be transmitted
  • the base station when the base station performs training, the base station transmits parameter information of the neural network decoder to the terminal for downlink data transmission, and the base station transmits parameter information of the neural network encoder to the terminal for uplink data transmission do.
  • RRC/MAC/L1 signaling When transmitting to the terminal, RRC/MAC/L1 signaling may be used.
  • the terminal when the base station performs training, the terminal performs decoding on downlink data from the downlink data point of view, so the base station transmits parameter information related to the neural network decoder to the terminal, and the terminal transmits the uplink data from the uplink data point of view. Since encoding is performed on data, the base station may transmit parameter information related to the neural network encoder to the terminal.
  • the terminal when the terminal performs training, the terminal transmits parameter information of the neural network encoder to the base station for downlink data transmission, and the terminal transmits parameter information of the neural network decoder to the base station for uplink data transmission.
  • RRC/MAC/L1 signaling When transmitting to the base station, RRC/MAC/L1 signaling may be used.
  • the terminal when the terminal performs training, the base station performs encoding on downlink data from the downlink data point of view, so the terminal transmits parameter information related to the neural network encoder to the base station, and from the uplink data point of view, the base station performs the uplink Since decoding is performed on data, the terminal may transmit parameter information related to the neural network decoder to the base station.
  • 45 is a flowchart of another example of a training method of a neural network.
  • the base station generates parameter information obtained by performing training (S4510).
  • the base station transmits the parameter information to the terminal (S4520).
  • the parameter information may inform a first parameter related to a neural network decoder for downlink data and a second parameter related to a neural network encoder for uplink data.
  • the type and number of layers of the neural network, an active function for each layer, a loss function, an optimization method, a learning rate, a training data set, and a test data set (test data set) and the like can be transmitted.
  • a weight of a neural network encoder or a neural network decoder may be transmitted for each corresponding layer.
  • information related to the neural network may be transmitted together.
  • information on a dimension of a convolutional layer, a kernel size, a dilation, a stride, a padding, the number of input channels, and the number of output channels may be transmitted.
  • information about an RNN type, an input shape, an output shape, an initial input state, an output hidden state, etc. may be transmitted.
  • a pseudo random sequence generator operating in the same initial state at the transmitter and receiver may be used. For example, after initializing a gold sequence generator having the same generator polynomial to the same initial state, the same part of the generated sequence may be set as the training data set and the test data set.
  • both the neural network encoder and the neural network decoder may be defined in advance.
  • the weight of the neural network encoder may be predefined and signaled by a standard or the like, and the weight of the neural network decoder may be acquired through training in the receiver.
  • parameters of the neural network decoder that can obtain the minimum performance of the neural network decoder may be transmitted to the receiver.
  • a weight value of a neural network encoder may be signaled.
  • the type of the neural network and all parameters based on the type may be defined in advance, or only some may be defined in advance and the rest may be obtained through training, signaling, or the like.
  • the methods proposed in the present specification include at least one computer-readable recording medium including an instruction based on being executed by at least one processor, and one or more processors. and one or more memories operably coupled by the one or more processors and storing instructions, wherein the one or more processors execute the instructions to perform the methods proposed herein, configured to control a terminal It can also be performed by an apparatus.
  • an operation by the base station corresponding to the operation performed by the terminal may be considered.
  • 46 illustrates the communication system 1 applied to the present disclosure.
  • the communication system 1 applied to the present disclosure includes a wireless device, a base station, and a network.
  • the wireless device refers to a device that performs communication using a radio access technology (eg, 5G NR (New RAT), LTE (Long Term Evolution)), and may be referred to as a communication/wireless/5G device.
  • a radio access technology eg, 5G NR (New RAT), LTE (Long Term Evolution)
  • the wireless device may include a robot 100a, a vehicle 100b-1, 100b-2, an eXtended Reality (XR) device 100c, a hand-held device 100d, and a home appliance 100e. ), an Internet of Thing (IoT) device 100f, and an AI device/server 400 .
  • the vehicle may include a vehicle equipped with a wireless communication function, an autonomous driving vehicle, a vehicle capable of performing inter-vehicle communication, and the like.
  • the vehicle may include an Unmanned Aerial Vehicle (UAV) (eg, a drone).
  • UAV Unmanned Aerial Vehicle
  • XR devices include AR (Augmented Reality)/VR (Virtual Reality)/MR (Mixed Reality) devices, and include a Head-Mounted Device (HMD), a Head-Up Display (HUD) provided in a vehicle, a television, a smartphone, It may be implemented in the form of a computer, a wearable device, a home appliance, a digital signage, a vehicle, a robot, and the like.
  • the portable device may include a smart phone, a smart pad, a wearable device (eg, a smart watch, smart glasses), a computer (eg, a laptop computer), and the like.
  • Home appliances may include a TV, a refrigerator, a washing machine, and the like.
  • the IoT device may include a sensor, a smart meter, and the like.
  • the base station and the network may be implemented as a wireless device, and the specific wireless device 200a may operate as a base station/network node to other wireless devices.
  • the wireless devices 100a to 100f may be connected to the network 300 through the base station 200 .
  • AI Artificial Intelligence
  • the network 300 may be configured using a 3G network, a 4G (eg, LTE) network, or a 5G (eg, NR) network.
  • the wireless devices 100a to 100f may communicate with each other through the base station 200/network 300, but may also communicate directly (e.g. sidelink communication) without passing through the base station/network.
  • the vehicles 100b-1 and 100b-2 may perform direct communication (e.g. Vehicle to Vehicle (V2V)/Vehicle to everything (V2X) communication).
  • the IoT device eg, sensor
  • the IoT device may communicate directly with other IoT devices (eg, sensor) or other wireless devices 100a to 100f.
  • Wireless communication/connection 150a, 150b, and 150c may be performed between the wireless devices 100a to 100f/base station 200 and the base station 200/base station 200 .
  • the wireless communication/connection includes uplink/downlink communication 150a and sidelink communication 150b (or D2D communication), and communication between base stations 150c (eg relay, IAB (Integrated Access Backhaul)).
  • This can be done through technology (eg 5G NR)
  • Wireless communication/connection 150a, 150b, 150c allows the wireless device and the base station/radio device, and the base station and the base station to transmit/receive wireless signals to each other.
  • the wireless communication/connection 150a, 150b, and 150c may transmit/receive signals through various physical channels.
  • various signal processing processes eg, channel encoding/decoding, modulation/demodulation, resource mapping/demapping, etc.
  • resource allocation processes etc.
  • the first wireless device 100 and the second wireless device 200 may transmit/receive wireless signals through various wireless access technologies (eg, LTE, NR).
  • ⁇ first wireless device 100, second wireless device 200 ⁇ is ⁇ wireless device 100x, base station 200 ⁇ of FIG. 46 and/or ⁇ wireless device 100x, wireless device 100x) ⁇ can be matched.
  • the first wireless device 100 includes one or more processors 102 and one or more memories 104 , and may further include one or more transceivers 106 and/or one or more antennas 108 .
  • the processor 102 controls the memory 104 and/or the transceiver 106 and may be configured to implement the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein.
  • the processor 102 may process information in the memory 104 to generate first information/signal, and then transmit a wireless signal including the first information/signal through the transceiver 106 .
  • the processor 102 may receive the radio signal including the second information/signal through the transceiver 106 , and then store information obtained from signal processing of the second information/signal in the memory 104 .
  • the memory 104 may be connected to the processor 102 and may store various information related to the operation of the processor 102 .
  • memory 104 may provide instructions for performing some or all of the processes controlled by processor 102 , or for performing descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein. may store software code including
  • the processor 102 and the memory 104 may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
  • a wireless communication technology eg, LTE, NR
  • the transceiver 106 may be coupled to the processor 102 , and may transmit and/or receive wireless signals via one or more antennas 108 .
  • the transceiver 106 may include a transmitter and/or a receiver.
  • the transceiver 106 may be used interchangeably with a radio frequency (RF) unit.
  • RF radio frequency
  • a wireless device may refer to a communication modem/circuit/chip.
  • the second wireless device 200 includes one or more processors 202 , one or more memories 204 , and may further include one or more transceivers 206 and/or one or more antennas 208 .
  • the processor 202 controls the memory 204 and/or the transceiver 206 and may be configured to implement the descriptions, functions, procedures, suggestions, methods, and/or flow charts disclosed herein.
  • the processor 202 may process the information in the memory 204 to generate third information/signal, and then transmit a wireless signal including the third information/signal through the transceiver 206 .
  • the processor 202 may receive the radio signal including the fourth information/signal through the transceiver 206 , and then store information obtained from signal processing of the fourth information/signal in the memory 204 .
  • the memory 204 may be connected to the processor 202 and may store various information related to the operation of the processor 202 .
  • the memory 204 may provide instructions for performing some or all of the processes controlled by the processor 202, or for performing the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein. may store software code including
  • the processor 202 and the memory 204 may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
  • the transceiver 206 may be coupled to the processor 202 and may transmit and/or receive wireless signals via one or more antennas 208 .
  • the transceiver 206 may include a transmitter and/or a receiver.
  • the transceiver 206 may be used interchangeably with an RF unit.
  • a wireless device may refer to a communication modem/circuit/chip.
  • one or more protocol layers may be implemented by one or more processors 102 , 202 .
  • one or more processors 102 , 202 may implement one or more layers (eg, functional layers such as PHY, MAC, RLC, PDCP, RRC, SDAP).
  • the one or more processors 102, 202 are configured to process one or more Protocol Data Units (PDUs) and/or one or more Service Data Units (SDUs) according to the description, function, procedure, proposal, method, and/or operational flowcharts disclosed herein.
  • PDUs Protocol Data Units
  • SDUs Service Data Units
  • One or more processors 102 , 202 may generate messages, control information, data, or information according to the description, function, procedure, proposal, method, and/or flow charts disclosed herein.
  • the one or more processors 102 and 202 generate a signal (eg, a baseband signal) including PDUs, SDUs, messages, control information, data or information according to the functions, procedures, proposals and/or methods disclosed herein. , to one or more transceivers 106 and 206 .
  • the one or more processors 102 , 202 may receive signals (eg, baseband signals) from one or more transceivers 106 , 206 , and may be described, functions, procedures, proposals, methods, and/or operational flowcharts disclosed herein.
  • PDUs, SDUs, messages, control information, data, or information may be acquired according to the fields.
  • One or more processors 102, 202 may be referred to as a controller, microcontroller, microprocessor, or microcomputer.
  • One or more processors 102 , 202 may be implemented by hardware, firmware, software, or a combination thereof.
  • ASICs Application Specific Integrated Circuits
  • DSPs Digital Signal Processors
  • DSPDs Digital Signal Processing Devices
  • PLDs Programmable Logic Devices
  • FPGAs Field Programmable Gate Arrays
  • firmware or software may be implemented using firmware or software, and the firmware or software may be implemented to include modules, procedures, functions, and the like.
  • the descriptions, functions, procedures, suggestions, methods, and/or flow charts disclosed in this document provide that firmware or software configured to perform is contained in one or more processors 102 , 202 , or stored in one or more memories 104 , 204 . It may be driven by the above processors 102 and 202 .
  • the descriptions, functions, procedures, proposals, methods, and/or flowcharts of operations disclosed herein may be implemented using firmware or software in the form of code, instructions, and/or a set of instructions.
  • One or more memories 104 , 204 may be coupled with one or more processors 102 , 202 , and may store various forms of data, signals, messages, information, programs, code, instructions, and/or instructions.
  • the one or more memories 104 and 204 may be comprised of ROM, RAM, EPROM, flash memory, hard drives, registers, cache memory, computer readable storage media, and/or combinations thereof.
  • One or more memories 104 , 204 may be located inside and/or external to one or more processors 102 , 202 . Additionally, one or more memories 104 , 204 may be coupled to one or more processors 102 , 202 through various technologies, such as wired or wireless connections.
  • One or more transceivers 106 , 206 may transmit user data, control information, radio signals/channels, etc. referred to in the methods and/or operational flowcharts of this document to one or more other devices.
  • One or more transceivers 106, 206 may receive user data, control information, radio signals/channels, etc. referred to in the descriptions, functions, procedures, suggestions, methods and/or flow charts, etc. disclosed herein, from one or more other devices. have.
  • one or more transceivers 106 , 206 may be coupled to one or more processors 102 , 202 and may transmit and receive wireless signals.
  • one or more processors 102 , 202 may control one or more transceivers 106 , 206 to transmit user data, control information, or wireless signals to one or more other devices.
  • one or more processors 102 , 202 may control one or more transceivers 106 , 206 to receive user data, control information, or wireless signals from one or more other devices.
  • one or more transceivers 106, 206 may be coupled to one or more antennas 108, 208, and the one or more transceivers 106, 206 may be coupled via one or more antennas 108, 208 to the descriptions, functions, and functions disclosed herein. , may be set to transmit and receive user data, control information, radio signals/channels, etc.
  • one or more antennas may be a plurality of physical antennas or a plurality of logical antennas (eg, antenna ports).
  • the one or more transceivers 106, 206 convert the received radio signal/channel, etc. from the RF band signal to process the received user data, control information, radio signal/channel, etc. using the one or more processors 102, 202. It can be converted into a baseband signal.
  • One or more transceivers 106 , 206 may convert user data, control information, radio signals/channels, etc. processed using one or more processors 102 , 202 from baseband signals to RF band signals.
  • one or more transceivers 106 , 206 may include (analog) oscillators and/or filters.
  • FIG. 48 illustrates a signal processing circuit for a transmit signal.
  • the signal processing circuit 1000 may include a scrambler 1010 , a modulator 1020 , a layer mapper 1030 , a precoder 1040 , a resource mapper 1050 , and a signal generator 1060 .
  • the operations/functions of FIG. 48 may be performed by the processors 102 and 202 and/or the transceivers 106 and 206 of FIG. 47 .
  • the hardware elements of FIG. 48 may be implemented in the processors 102 , 202 and/or transceivers 106 , 206 of FIG. 47 .
  • blocks 1010 to 1060 may be implemented in the processors 102 and 202 of FIG. 47 .
  • blocks 1010 to 1050 may be implemented in the processors 102 and 202 of FIG. 47
  • block 1060 may be implemented in the transceivers 106 and 206 of FIG. 47 .
  • the codeword may be converted into a wireless signal through the signal processing circuit 1000 of FIG. 48 .
  • the codeword is a coded bit sequence of an information block.
  • the information block may include a transport block (eg, a UL-SCH transport block, a DL-SCH transport block).
  • the radio signal may be transmitted through various physical channels (eg, PUSCH, PDSCH).
  • the codeword may be converted into a scrambled bit sequence by the scrambler 1010 .
  • a scramble sequence used for scrambling is generated based on an initialization value, and the initialization value may include ID information of a wireless device, and the like.
  • the scrambled bit sequence may be modulated by a modulator 1020 into a modulation symbol sequence.
  • the modulation method may include pi/2-Binary Phase Shift Keying (pi/2-BPSK), m-Phase Shift Keying (m-PSK), m-Quadrature Amplitude Modulation (m-QAM), and the like.
  • the complex modulation symbol sequence may be mapped to one or more transport layers by the layer mapper 1030 .
  • Modulation symbols of each transport layer may be mapped to corresponding antenna port(s) by the precoder 1040 (precoding).
  • the output z of the precoder 1040 may be obtained by multiplying the output y of the layer mapper 1030 by the precoding matrix W of N*M.
  • N is the number of antenna ports
  • M is the number of transport layers.
  • the precoder 1040 may perform precoding after performing transform precoding (eg, DFT transform) on the complex modulation symbols. Also, the precoder 1040 may perform precoding without performing transform precoding.
  • the resource mapper 1050 may map modulation symbols of each antenna port to a time-frequency resource.
  • the time-frequency resource may include a plurality of symbols (eg, a CP-OFDMA symbol, a DFT-s-OFDMA symbol) in the time domain and a plurality of subcarriers in the frequency domain.
  • CP Cyclic Prefix
  • DAC Digital-to-Analog Converter
  • the signal processing process for the received signal in the wireless device may be configured in reverse of the signal processing process 1010 to 1060 of FIG. 48 .
  • the wireless device eg, 100 and 200 in FIG. 47
  • the received radio signal may be converted into a baseband signal through a signal restorer.
  • the signal restorer may include a frequency downlink converter, an analog-to-digital converter (ADC), a CP remover, and a Fast Fourier Transform (FFT) module.
  • ADC analog-to-digital converter
  • FFT Fast Fourier Transform
  • the baseband signal may be restored to a codeword through a resource de-mapper process, a postcoding process, a demodulation process, and a descrambling process.
  • the codeword may be restored to the original information block through decoding.
  • the signal processing circuit (not shown) for the received signal may include a signal restorer, a resource de-mapper, a post coder, a demodulator, a descrambler, and a decoder.
  • the wireless device may be implemented in various forms according to use-examples/services (refer to FIG. 46 ).
  • wireless devices 100 and 200 correspond to wireless devices 100 and 200 of FIG. 47 , and various elements, components, units/units, and/or modules ) can be composed of
  • the wireless devices 100 and 200 may include a communication unit 110 , a control unit 120 , a memory unit 130 , and an additional element 140 .
  • the communication unit may include communication circuitry 112 and transceiver(s) 114 .
  • communication circuitry 112 may include one or more processors 102,202 and/or one or more memories 104,204 of FIG. 47 .
  • transceiver(s) 114 may include one or more transceivers 106 , 206 and/or one or more antennas 108 , 208 of FIG. 47 .
  • the control unit 120 is electrically connected to the communication unit 110 , the memory unit 130 , and the additional element 140 , and controls general operations of the wireless device. For example, the controller 120 may control the electrical/mechanical operation of the wireless device based on the program/code/command/information stored in the memory unit 130 . In addition, the control unit 120 transmits information stored in the memory unit 130 to the outside (eg, other communication device) through the communication unit 110 through a wireless/wired interface, or externally (eg, through the communication unit 110 ) Information received through a wireless/wired interface from another communication device) may be stored in the memory unit 130 .
  • the outside eg, other communication device
  • Information received through a wireless/wired interface from another communication device may be stored in the memory unit 130 .
  • the additional element 140 may be configured in various ways according to the type of the wireless device.
  • the additional element 140 may include at least one of a power unit/battery, an input/output unit (I/O unit), a driving unit, and a computing unit.
  • wireless devices include, but are not limited to, robots ( FIGS. 46 and 100a ), vehicles ( FIGS. 46 , 100b-1 , 100b-2 ), XR devices ( FIGS. 46 and 100c ), mobile devices ( FIGS. 46 and 100d ), and home appliances. ( FIGS. 46 and 100e ), IoT devices ( FIGS.
  • the wireless device may be mobile or used in a fixed location depending on the use-example/service.
  • various elements, components, units/units, and/or modules in the wireless devices 100 and 200 may be entirely interconnected through a wired interface, or at least some of them may be wirelessly connected through the communication unit 110 .
  • the control unit 120 and the communication unit 110 are connected by wire, and the control unit 120 and the first unit (eg, 130 , 140 ) are connected to the communication unit 110 through the communication unit 110 . It can be connected wirelessly.
  • each element, component, unit/unit, and/or module within the wireless device 100 , 200 may further include one or more elements.
  • the controller 120 may be configured with one or more processor sets.
  • control unit 120 may be configured as a set of a communication control processor, an application processor, an electronic control unit (ECU), a graphic processing processor, a memory control processor, and the like.
  • memory unit 130 may include random access memory (RAM), dynamic RAM (DRAM), read only memory (ROM), flash memory, volatile memory, and non-volatile memory. volatile memory) and/or a combination thereof.
  • FIG. 49 will be described in more detail with reference to the drawings.
  • the portable device may include a smart phone, a smart pad, a wearable device (eg, a smart watch, smart glasses), and a portable computer (eg, a laptop computer).
  • a mobile device may be referred to as a mobile station (MS), a user terminal (UT), a mobile subscriber station (MSS), a subscriber station (SS), an advanced mobile station (AMS), or a wireless terminal (WT).
  • MS mobile station
  • UT user terminal
  • MSS mobile subscriber station
  • SS subscriber station
  • AMS advanced mobile station
  • WT wireless terminal
  • the portable device 100 includes an antenna unit 108 , a communication unit 110 , a control unit 120 , a memory unit 130 , a power supply unit 140a , an interface unit 140b , and an input/output unit 140c . ) may be included.
  • the antenna unit 108 may be configured as a part of the communication unit 110 .
  • Blocks 110 to 130/140a to 140c respectively correspond to blocks 110 to 130/140 in FIG. 49 .
  • the communication unit 110 may transmit and receive signals (eg, data, control signals, etc.) with other wireless devices and base stations.
  • the controller 120 may perform various operations by controlling the components of the portable device 100 .
  • the controller 120 may include an application processor (AP).
  • the memory unit 130 may store data/parameters/programs/codes/commands necessary for driving the portable device 100 . Also, the memory unit 130 may store input/output data/information.
  • the power supply unit 140a supplies power to the portable device 100 and may include a wired/wireless charging circuit, a battery, and the like.
  • the interface unit 140b may support a connection between the portable device 100 and other external devices.
  • the interface unit 140b may include various ports (eg, an audio input/output port and a video input/output port) for connection with an external device.
  • the input/output unit 140c may receive or output image information/signal, audio information/signal, data, and/or information input from a user.
  • the input/output unit 140c may include a camera, a microphone, a user input unit, a display unit 140d, a speaker, and/or a haptic module.
  • the input/output unit 140c obtains information/signals (eg, touch, text, voice, image, video) input from the user, and the obtained information/signals are stored in the memory unit 130 . can be saved.
  • the communication unit 110 may convert the information/signal stored in the memory into a wireless signal, and transmit the converted wireless signal directly to another wireless device or to a base station. Also, after receiving a radio signal from another radio device or base station, the communication unit 110 may restore the received radio signal to original information/signal. After the restored information/signal is stored in the memory unit 130 , it may be output in various forms (eg, text, voice, image, video, haptic) through the input/output unit 140c.
  • various forms eg, text, voice, image, video, haptic
  • the vehicle or autonomous driving vehicle may be implemented as a mobile robot, a vehicle, a train, an aerial vehicle (AV), a ship, and the like.
  • AV aerial vehicle
  • the vehicle or autonomous driving vehicle 100 includes an antenna unit 108 , a communication unit 110 , a control unit 120 , a driving unit 140a , a power supply unit 140b , a sensor unit 140c and autonomous driving. It may include a part 140d.
  • the antenna unit 108 may be configured as a part of the communication unit 110 .
  • Blocks 110/130/140a-140d correspond to blocks 110/130/140 of FIG. 49, respectively.
  • the communication unit 110 may transmit/receive signals (eg, data, control signals, etc.) to and from external devices such as other vehicles, base stations (e.g., base stations, roadside units, etc.), servers, and the like.
  • the controller 120 may control elements of the vehicle or the autonomous driving vehicle 100 to perform various operations.
  • the controller 120 may include an Electronic Control Unit (ECU).
  • the driving unit 140a may cause the vehicle or the autonomous driving vehicle 100 to run on the ground.
  • the driving unit 140a may include an engine, a motor, a power train, a wheel, a brake, a steering device, and the like.
  • the power supply unit 140b supplies power to the vehicle or the autonomous driving vehicle 100 , and may include a wired/wireless charging circuit, a battery, and the like.
  • the sensor unit 140c may obtain vehicle status, surrounding environment information, user information, and the like.
  • the sensor unit 140c includes an inertial measurement unit (IMU) sensor, a collision sensor, a wheel sensor, a speed sensor, an inclination sensor, a weight sensor, a heading sensor, a position module, and a vehicle forward movement.
  • IMU inertial measurement unit
  • a collision sensor a wheel sensor
  • a speed sensor a speed sensor
  • an inclination sensor a weight sensor
  • a heading sensor a position module
  • a vehicle forward movement / may include a reverse sensor, a battery sensor, a fuel sensor, a tire sensor, a steering sensor, a temperature sensor, a humidity sensor, an ultrasonic sensor, an illuminance sensor, a pedal position sensor, and the like.
  • the autonomous driving unit 140d includes a technology for maintaining a driving lane, a technology for automatically adjusting speed such as adaptive cruise control, a technology for automatically driving along a predetermined route, and a technology for automatically setting a route when a destination is set. technology can be implemented.
  • the communication unit 110 may receive map data, traffic information data, and the like from an external server.
  • the autonomous driving unit 140d may generate an autonomous driving route and a driving plan based on the acquired data.
  • the controller 120 may control the driving unit 140a to move the vehicle or the autonomous driving vehicle 100 along the autonomous driving path (eg, speed/direction adjustment) according to the driving plan.
  • the communication unit 110 may obtain the latest traffic information data from an external server non/periodically, and may acquire surrounding traffic information data from surrounding vehicles.
  • the sensor unit 140c may acquire vehicle state and surrounding environment information.
  • the autonomous driving unit 140d may update the autonomous driving route and driving plan based on the newly acquired data/information.
  • the communication unit 110 may transmit information about a vehicle location, an autonomous driving route, a driving plan, and the like to an external server.
  • the external server may predict traffic information data in advance using AI technology or the like based on information collected from the vehicle or autonomous vehicles, and may provide the predicted traffic information data to the vehicle or autonomous vehicles.
  • the vehicle 52 illustrates a vehicle applied to the present disclosure.
  • the vehicle may also be implemented as a means of transportation, a train, an air vehicle, a ship, and the like.
  • the vehicle 100 may include a communication unit 110 , a control unit 120 , a memory unit 130 , an input/output unit 140a , and a position measurement unit 140b .
  • blocks 110 to 130/140a to 140b correspond to blocks 110 to 130/140 of FIG. 49, respectively.
  • the communication unit 110 may transmit and receive signals (eg, data, control signals, etc.) with other vehicles or external devices such as a base station.
  • the controller 120 may control components of the vehicle 100 to perform various operations.
  • the memory unit 130 may store data/parameters/programs/codes/commands supporting various functions of the vehicle 100 .
  • the input/output unit 140a may output an AR/VR object based on information in the memory unit 130 .
  • the input/output unit 140a may include a HUD.
  • the position measuring unit 140b may acquire position information of the vehicle 100 .
  • the location information may include absolute location information of the vehicle 100 , location information within a driving line, acceleration information, location information with a surrounding vehicle, and the like.
  • the position measuring unit 140b may include a GPS and various sensors.
  • the communication unit 110 of the vehicle 100 may receive map information, traffic information, and the like from an external server and store it in the memory unit 130 .
  • the position measuring unit 140b may acquire vehicle position information through GPS and various sensors and store it in the memory unit 130 .
  • the controller 120 may generate a virtual object based on map information, traffic information, vehicle location information, and the like, and the input/output unit 140a may display the created virtual object on a window inside the vehicle ( 1410 and 1420 ). Also, the controller 120 may determine whether the vehicle 100 is normally operating within the driving line based on the vehicle location information. When the vehicle 100 deviates from the driving line abnormally, the controller 120 may display a warning on the windshield of the vehicle through the input/output unit 140a.
  • control unit 120 may broadcast a warning message regarding driving abnormality to surrounding vehicles through the communication unit 110 .
  • control unit 120 may transmit the location information of the vehicle and information on driving/vehicle abnormality to a related organization through the communication unit 110 .
  • the XR device may be implemented as an HMD, a head-up display (HUD) provided in a vehicle, a television, a smart phone, a computer, a wearable device, a home appliance, a digital signage, a vehicle, a robot, and the like.
  • HMD head-up display
  • a television a smart phone
  • a computer a wearable device
  • a home appliance a digital signage
  • a vehicle a robot, and the like.
  • the XR device 100a may include a communication unit 110 , a control unit 120 , a memory unit 130 , an input/output unit 140a , a sensor unit 140b , and a power supply unit 140c .
  • blocks 110 to 130/140a to 140c correspond to blocks 110 to 130/140 of FIG. 49, respectively.
  • the communication unit 110 may transmit/receive signals (eg, media data, control signals, etc.) to/from external devices such as other wireless devices, portable devices, or media servers.
  • Media data may include images, images, and sounds.
  • the controller 120 may perform various operations by controlling the components of the XR device 100a.
  • the controller 120 may be configured to control and/or perform procedures such as video/image acquisition, (video/image) encoding, and metadata generation and processing.
  • the memory unit 130 may store data/parameters/programs/codes/commands necessary for driving the XR device 100a/creating an XR object.
  • the input/output unit 140a may obtain control information, data, and the like from the outside, and may output the generated XR object.
  • the input/output unit 140a may include a camera, a microphone, a user input unit, a display unit, a speaker, and/or a haptic module.
  • the sensor unit 140b may obtain an XR device state, surrounding environment information, user information, and the like.
  • the sensor unit 140b may include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and/or a radar. have.
  • the power supply unit 140c supplies power to the XR device 100a, and may include a wired/wireless charging circuit, a battery, and the like.
  • the memory unit 130 of the XR device 100a may include information (eg, data, etc.) necessary for generating an XR object (eg, AR/VR/MR object).
  • the input/output unit 140a may obtain a command to operate the XR device 100a from the user, and the controller 120 may drive the XR device 100a according to the user's driving command. For example, when the user intends to watch a movie or news through the XR device 100a, the controller 120 transmits the content request information to another device (eg, the mobile device 100b) through the communication unit 130 or can be sent to the media server.
  • another device eg, the mobile device 100b
  • the communication unit 130 may download/stream contents such as movies and news from another device (eg, the portable device 100b) or a media server to the memory unit 130 .
  • the controller 120 controls and/or performs procedures such as video/image acquisition, (video/image) encoding, and metadata generation/processing for the content, and is acquired through the input/output unit 140a/sensor unit 140b It is possible to generate/output an XR object based on information about one surrounding space or a real object.
  • the XR device 100a is wirelessly connected to the portable device 100b through the communication unit 110 , and the operation of the XR device 100a may be controlled by the portable device 100b.
  • the portable device 100b may operate as a controller for the XR device 100a.
  • the XR device 100a may obtain 3D location information of the portable device 100b, and then generate and output an XR object corresponding to the portable device 100b.
  • Robots can be classified into industrial, medical, home, military, etc. depending on the purpose or field of use.
  • the robot 100 may include a communication unit 110 , a control unit 120 , a memory unit 130 , an input/output unit 140a , a sensor unit 140b , and a driving unit 140c .
  • blocks 110 to 130/140a to 140c correspond to blocks 110 to 130/140 of FIG. 49, respectively.
  • the communication unit 110 may transmit/receive signals (eg, driving information, control signals, etc.) with external devices such as other wireless devices, other robots, or control servers.
  • the controller 120 may perform various operations by controlling the components of the robot 100 .
  • the memory unit 130 may store data/parameters/programs/codes/commands supporting various functions of the robot 100 .
  • the input/output unit 140a may obtain information from the outside of the robot 100 and may output information to the outside of the robot 100 .
  • the input/output unit 140a may include a camera, a microphone, a user input unit, a display unit, a speaker, and/or a haptic module.
  • the sensor unit 140b may obtain internal information, surrounding environment information, user information, and the like of the robot 100 .
  • the sensor unit 140b may include a proximity sensor, an illumination sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, a radar, and the like.
  • the driving unit 140c may perform various physical operations, such as moving a robot joint. In addition, the driving unit 140c may make the robot 100 travel on the ground or fly in the air.
  • the driving unit 140c may include an actuator, a motor, a wheel, a brake, a propeller, and the like.
  • AI devices include TVs, projectors, smartphones, PCs, laptops, digital broadcasting terminals, tablet PCs, wearable devices, set-top boxes (STBs), radios, washing machines, refrigerators, digital signage, robots, vehicles, etc. It may be implemented in any possible device or the like.
  • the AI device 100 includes a communication unit 110 , a control unit 120 , a memory unit 130 , input/output units 140a/140b , a learning processor unit 140c and a sensor unit 140d). may include Blocks 110 to 130/140a to 140d correspond to blocks 110 to 130/140 of FIG. 49, respectively.
  • the communication unit 110 uses wired/wireless communication technology to communicate with external devices such as other AI devices (eg, FIGS. 46, 100x, 200, 400) or an AI server (eg, 400 in FIG. 46) and wired/wireless signals (eg, sensor information). , user input, learning model, control signal, etc.) can be transmitted and received. To this end, the communication unit 110 may transmit information in the memory unit 130 to an external device or transmit a signal received from the external device to the memory unit 130 .
  • AI devices eg, FIGS. 46, 100x, 200, 400
  • an AI server eg, 400 in FIG. 46
  • wired/wireless signals eg, sensor information
  • the communication unit 110 may transmit information in the memory unit 130 to an external device or transmit a signal received from the external device to the memory unit 130 .
  • the controller 120 may determine at least one executable operation of the AI device 100 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. In addition, the controller 120 may control the components of the AI device 100 to perform the determined operation. For example, the control unit 120 may request, search, receive, or utilize the data of the learning processor unit 140c or the memory unit 130 , and may be predicted or preferred among at least one executable operation. Components of the AI device 100 may be controlled to execute the operation. In addition, the control unit 120 collects history information including user feedback on the operation contents or operation of the AI device 100 and stores it in the memory unit 130 or the learning processor unit 140c, or the AI server ( 46 and 400), and the like may be transmitted to an external device. The collected historical information may be used to update the learning model.
  • the memory unit 130 may store data supporting various functions of the AI device 100 .
  • the memory unit 130 may store data obtained from the input unit 140a , data obtained from the communication unit 110 , output data of the learning processor unit 140c , and data obtained from the sensing unit 140 .
  • the memory unit 130 may store control information and/or software codes necessary for the operation/execution of the control unit 120 .
  • the input unit 140a may acquire various types of data from the outside of the AI device 100 .
  • the input unit 140a may obtain training data for model learning, input data to which the learning model is applied, and the like.
  • the input unit 140a may include a camera, a microphone, and/or a user input unit.
  • the output unit 140b may generate an output related to sight, hearing, or touch.
  • the output unit 140b may include a display unit, a speaker, and/or a haptic module.
  • the sensing unit 140 may obtain at least one of internal information of the AI device 100 , surrounding environment information of the AI device 100 , and user information by using various sensors.
  • the sensing unit 140 may include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and/or a radar. have.
  • the learning processor unit 140c may train a model composed of an artificial neural network by using the training data.
  • the learning processor unit 140c may perform AI processing together with the learning processor unit of the AI server ( FIGS. 46 and 400 ).
  • the learning processor unit 140c may process information received from an external device through the communication unit 110 and/or information stored in the memory unit 130 . Also, the output value of the learning processor unit 140c may be transmitted to an external device through the communication unit 110 and/or stored in the memory unit 130 .

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Neurology (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

본 명세서에 따르면, 뉴럴 네트워크로 구성된 송신기 및 수신기를 단 대 단 최적화를 통해 설계할 수 있다. 또한, 코드워드의 거리 특성을 개선할 수 있는 뉴럴 네트워크 인코더를 설계할 수 있다. 나아가, 뉴럴 네트워크 인코더 및 뉴럴 네트워크 디코더의 뉴럴 네트워크 파라미터에 대한 정보를 시그널링하는 방법을 제안한다.

Description

뉴럴 네트워크 기반의 통신 방법 및 장치
본 개시는 무선 통신에 관한 것이다.
6G 시스템은 (i)디바이스 당 매우 높은 데이터 속도, (ii)매우 많은 수의 연결된 디바이스들, (iii)글로벌 연결성(global connectivity), (iv)매우 낮은 지연, (v)배터리-프리(battery-free) IoT 디바이스들의 에너지 소비를 낮추고, (vi)초고신뢰성 연결, (vii)머신 러닝 능력을 가지는 연결된 지능 등에 목적이 있다. 6G 시스템의 비전은 지능형 연결성(intelligent connectivity), 딥 연결성(deep connectivity), 홀로그램 연결성(holographic connectivity), 유비쿼터스 연결성(ubiquitous connectivity)과 같은 4가지 측면일 수 있다.
최근에는 AI를 무선 통신 시스템과 통합하려고 하는 시도들이 나타나고 있으나, 이는 애플리케이션 계층(application layer), 네트워크 계층(network layer) 특히, 딥러닝을 무선 자원 관리 및 할당(wireless resource management and allocation) 분야에 집중되어 왔다. 그러나, 이러한 연구는 점점 MAC 계층(layer)과 물리 계층(Physical layer)으로 발전하고 있으며, 특히 물리 계층에서 딥러닝을 무선 전송(wireless transmission)과 결합하고자 하는 시도들이 나타나고 있다. AI 기반의 물리 계층 전송은, 근본적인 신호 처리 및 통신 메커니즘에 있어서, 전통적인 통신 프레임워크가 아니라 AI 드라이버에 기초한 신호 처리 및 통신 메커니즘을 적용하는 것을 의미한다. 예를 들어, 딥러닝 기반의 채널 코딩 및 디코딩(channel coding and decoding), 딥러닝 기반의 신호 추정(estimation) 및 검출(detection), 딥러닝 기반의 MIMO 메커니즘(mechanism), AI 기반의 자원 스케줄링(scheduling) 및 할당(allocation) 등을 포함할 수 있다.
뉴럴 네트워크를 통신 시스템에 적용하기 위한 다양한 시도가 이루어지고 있다. 그 중에서 물리 계층에 적용하려는 시도는 주로 수신기(receiver)의 특정 기능을 최적화하는 것이 고려되고 있다. 예를 들면, 채널 디코더(channel decoder)를 뉴럴 네트워크로 구성하여 성능을 향상시킬 수 있다. 또는, 다수 개의 송수신 안테나를 가진 MIMO 시스템에서 MIMO 검출기(detector)를 뉴럴 네트워크로 구현하여 성능을 향상시킬 수 있다.
또 다른 접근 방식은 송신기(transmitter), 수신기(receiver) 모두를 뉴럴 네트워크로 구성하여 단 대 단(end-to-end) 관점에서 최적화를 수행하여 성능 향상을 기하는 방식으로, 이를 오토인코더라고 부른다.
본 명세서에서는 뉴럴 네트워크 기반 오토인코더의 인코더 및 디코더 구조 및 트레이닝 방법을 제안한다.
뉴럴 네트워크로 구성된 송신기, 수신기를 단 대 단(end-to-end) 최적화를 통해 설계할 수 있다. 또한, 코드워드의 거리 특성을 개선하도록 뉴럴 네트워크 인코더를 설계함으로써 복잡도 개선을 기대할 수 있다. 또한, 뉴럴 네트워크 인코더 및 뉴럴 네트워크 디코더의 뉴럴 네트워크 파라미터에 대한 정보를 시그널링함으로써 시스템의 성능을 최적화할 수 있다.
본 명세서의 구체적인 일례를 통해 얻을 수 있는 효과는 이상에서 나열된 효과로 제한되지 않는다. 예를 들어, 관련된 기술분야의 통상의 지식을 자긴 자(a person having ordinary skill in the related art)가 본 명세서로부터 이해하거나 유도할 수 있는 다양한 기술적 효과가 존재할 수 있다. 이에 따라 본 명세서의 구체적인 효과는 본 명세서에 명시적으로 기재된 것에 제한되지 않고, 본 명세서의 기술적 특징으로부터 이해되거나 유도될 수 있는 다양한 효과를 포함할 수 있다.
도 1은 본 개시가 적용될 수 있는 무선통신 시스템을 예시한다.
도 2는 사용자 평면(user plane)에 대한 무선 프로토콜 구조(radio protocol architecture)를 나타낸 블록도이다.
도 3은 제어 평면(control plane)에 대한 무선 프로토콜 구조를 나타낸 블록도이다.
도 4는 본 개시의 기술적 특징이 적용될 수 있는 무선 통신 시스템의 다른 예를 나타낸다.
도 5는 NG-RAN과 5GC 간의 기능적 분할을 예시한다.
도 6은 NR에서 적용될 수 있는 프레임 구조를 예시한다.
도 7은 슬롯 구조를 나타낸다.
도 8은 CORESET을 예시한다.
도 9는 종래의 제어 영역과 NR에서의 CORESET의 차이점을 나타내는 도면이다.
도 10은 새로운 무선 접속 기술에 대한 프레임 구조의 일례를 도시한 것이다.
도 11은 셀프 컨테인드 슬롯 구조의 예이다.
도 12는 TXRU 및 물리적 안테나 관점에서 하이브리드 빔포밍(Hybrid beamforming) 구조를 추상적으로 도식화한 것이다.
도 13은 동기화 신호 및 PBCH(SS/PBCH) 블록을 도시한 것이다.
도 14는 단말이 타이밍 정보를 획득하는 방법을 설명하기 위한 것이다.
도 15는 단말의 시스템 정보 획득 과정의 일례를 도시한 것이다.
도 16은 랜덤 접속 절차를 설명하기 위한 것이다.
도 17은 파워 램핑 카원터를 설명하기 위한 것이다.
도 18은 RACH 자원 관계에 대한 SS 블록의 문턱치 개념을 설명하기 위한 것이다.
도 19는 유휴 모드 DRX 동작을 수행하는 일례를 도식한 순서도다.
도 20은 DRX 사이클을 예시한다.
도 21은 6G 시스템에서 제공 가능한 통신 구조의 일례를 나타낸다.
도 22는 퍼셉트론 구조의 일례를 도시한 것이다.
도 23은 다중 퍼셉트론 구조의 일례를 도시한 것이다.
도 24는 심층 신경망의 일례를 도시한 것이다.
도 25는 컨볼루션 신경망의 일례를 도시한 것이다.
도 26은 컨볼루션 신경망에서의 필터 연산의 일례를 도시한 것이다.
도 27은 순환 루프가 존재하는 신경망 구조의 일례를 도시한 것이다.
도 28은 순환 신경망의 동작 구조의 일례를 도시한 것이다.
도 29는 뉴럴 네트워크 모델의 일례를 도시한 것이다.
도 30은 뉴럴 네트워크에서 활성화된 노드의 일례를 도시한 것이다.
도 31은 체인 룰을 이용한 기울기 계산의 일례를 도시한 것이다.
도 32는 RNN의 기본 구조의 일례를 도시한 것이다.
도 33은 오토인코더의 일례를 도시한 것이다.
도 34는 터보 오토인코더의 인코더 구조 및 디코더 구조의 일례를 도시한 것이다.
도 35는 뉴럴 네트워크 인코더에서 fi,θ를 2-계층 CNN으로 구현한 일례를 도시한 것이다.
도 36은 5-계층 CNN으로 구성된 뉴럴 네트워크 디코더의 g0i,j의 일 실시예를 도시한 것이다.
도 37은 거리 특성 개선을 위한 뉴럴 네트워크 인코더의 일 실시예의 입력단 구조를 개략적으로 도시한 것이다.
도 38은 거리 특성 개선을 위해 인터리버를 삽입한 뉴럴 네트워크 인코더 구조를 개략적으로 도시한 것이다.
도 39는 추가적인 인터리버를 갖는 뉴럴 네트워크 인코더의 일 실시예의 구조를 도시한 것이다.
도 40은 입력단에 누산기가 삽입된 뉴럴 네트워크 인코더 구조의 일 실시예를 도시한 것이다.
도 41은 RSC 코드(recursive systematic convolutional code)와 연접한 뉴럴 네트워크 인코더 구조의 일 실시예를 도시한 것이다.
도 42는 RSC 코드와 연결된 뉴럴 네트워크 인코더 구조에 대한 뉴럴 네트워크 디코더 구조의 일 실시예를 도시한 것이다.
도 43은 조직(systematic) 뉴럴 네트워크 인코더 구조의 일 실시예를 도시한 것이다.
도 44는 뉴럴 네트워크의 트레이닝 방법의 일례를 도시한 것이다.
도 45는 뉴럴 네트워크의 트레이닝 방법의 다른 일례의 순서도를 도시한 것이다.
도 46은 본 개시에 적용되는 통신 시스템(1)을 예시한다.
도 47은 본 개시에 적용될 수 있는 무선 기기를 예시한다.
도 48은 전송 신호를 위한 신호 처리 회로를 예시한다.
도 49는 본 개시에 적용되는 무선 기기의 다른 예를 나타낸다.
도 50은 본 개시에 적용되는 휴대 기기를 예시한다.
도 51은 본 개시에 적용되는 차량 또는 자율 주행 차량을 예시한다.
도 52는 본 개시에 적용되는 차량을 예시한다.
도 53은 본 개시에 적용되는 XR 기기를 예시한다.
도 54는 본 개시에 적용되는 로봇을 예시한다.
도 55는 본 개시에 적용되는 AI 기기를 예시한다.
본 명세서에서 “A 또는 B(A or B)”는 “오직 A”, “오직 B” 또는 “A와 B 모두”를 의미할 수 있다. 달리 표현하면, 본 명세서에서 “A 또는 B(A or B)”는 “A 및/또는 B(A and/or B)”으로 해석될 수 있다. 예를 들어, 본 명세서에서 “A, B 또는 C(A, B or C)”는 “오직 A”, “오직 B”, “오직 C”, 또는 “A, B 및 C의 임의의 모든 조합(any combination of A, B and C)”를 의미할 수 있다.
본 명세서에서 사용되는 슬래쉬(/)나 쉼표(comma)는 “및/또는(and/or)”을 의미할 수 있다. 예를 들어, “A/B”는 “A 및/또는 B”를 의미할 수 있다. 이에 따라 “A/B”는 “오직 A”, “오직 B”, 또는 “A와 B 모두”를 의미할 수 있다. 예를 들어, “A, B, C”는 “A, B 또는 C”를 의미할 수 있다.
본 명세서에서 “적어도 하나의 A 및 B(at least one of A and B)”는, “오직 A”, “오직 B” 또는 “A와 B 모두”를 의미할 수 있다. 또한, 본 명세서에서 “적어도 하나의 A 또는 B(at least one of A or B)”나 “적어도 하나의 A 및/또는 B(at least one of A and/or B)”라는 표현은 “적어도 하나의 A 및 B(at least one of A and B)”와 동일하게 해석될 수 있다.
또한, 본 명세서에서 “적어도 하나의 A, B 및 C(at least one of A, B and C)”는, “오직 A”, “오직 B”, “오직 C”, 또는 “A, B 및 C의 임의의 모든 조합(any combination of A, B and C)”를 의미할 수 있다. 또한, “적어도 하나의 A, B 또는 C(at least one of A, B or C)”나 “적어도 하나의 A, B 및/또는 C(at least one of A, B and/or C)”는 “적어도 하나의 A, B 및 C(at least one of A, B and C)”를 의미할 수 있다.
또한, 본 명세서에서 사용되는 괄호는 “예를 들어(for example)”를 의미할 수 있다. 구체적으로, “제어 정보(PDCCH)”로 표시된 경우, “제어 정보”의 일례로 “PDCCH”가 제안된 것일 수 있다. 달리 표현하면 본 명세서의 “제어 정보”는 “PDCCH”로 제한(limit)되지 않고, “PDDCH”가 “제어 정보”의 일례로 제안될 것일 수 있다. 또한, “제어 정보(즉, PDCCH)”로 표시된 경우에도, “제어 정보”의 일례로 “PDCCH”가 제안된 것일 수 있다.
이하의 기술은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 통신 시스템에 사용될 수 있다. CDMA는 UTRA(universal terrestrial radio access)나 CDMA2000과 같은 무선 기술로 구현될 수 있다. TDMA는 GSM(global system for mobile communications)/GPRS(general packet radio service)/EDGE(enhanced data rates for GSM evolution)와 같은 무선 기술로 구현될 수 있다. OFDMA는 IEEE(institute of electrical and electronics engineers) 802.11(Wi-Fi), IEEE 802.16(WiMAX), IEEE 802-20, E-UTRA(evolved UTRA) 등과 같은 무선 기술로 구현될 수 있다. IEEE 802.16m은 IEEE 802.16e의 진화로, IEEE 802.16e에 기반한 시스템과의 하위 호환성(backward compatibility)를 제공한다. UTRA는 UMTS(universal mobile telecommunications system)의 일부이다. 3GPP(3rd generation partnership project) LTE(long term evolution)은 E-UTRA(evolved-UMTS terrestrial radio access)를 사용하는 E-UMTS(evolved UMTS)의 일부로써, 하향링크에서 OFDMA를 채용하고 상향링크에서 SC-FDMA를 채용한다. LTE-A(advanced)는 3GPP LTE의 진화이다.
5G NR은 LTE-A의 후속 기술로서, 고성능, 저지연, 고가용성 등의 특성을 가지는 새로운 Clean-slate 형태의 이동 통신 시스템이다. 5G NR은 1GHz 미만의 저주파 대역에서부터 1GHz~10GHz의 중간 주파 대역, 24GHz 이상의 고주파(밀리미터파) 대역 등 사용 가능한 모든 스펙트럼 자원을 활용할 수 있다.
설명을 명확하게 하기 위해, LTE-A 또는 5G NR을 위주로 기술하지만 본 개시의 기술적 사상이 이에 제한되는 것은 아니다.
도 1은 본 개시가 적용될 수 있는 무선통신 시스템을 예시한다. 이는 E-UTRAN(Evolved-UMTS Terrestrial Radio Access Network), 또는 LTE(Long Term Evolution)/LTE-A 시스템이라고도 불릴 수 있다.
E-UTRAN은 단말(10: User Equipment, UE)에게 제어 평면(control plane)과 사용자 평면(user plane)을 제공하는 기지국(20: Base Station, BS)을 포함한다. 단말(10)은 고정되거나 이동성을 가질 수 있으며, MS(Mobile station), UT(User Terminal), SS(Subscriber Station), MT(mobile terminal), 무선기기(Wireless Device) 등 다른 용어로 불릴 수 있다. 기지국(20)은 단말(10)과 통신하는 고정된 지점(fixed station)을 말하며, eNB(evolved-NodeB), BTS(Base Transceiver System), 액세스 포인트(Access Point) 등 다른 용어로 불릴 수 있다.
기지국(20)들은 X2 인터페이스를 통하여 서로 연결될 수 있다. 기지국(20)은 S1 인터페이스를 통해 EPC(Evolved Packet Core, 30), 보다 상세하게는 S1-MME를 통해 MME(Mobility Management Entity)와 S1-U를 통해 S-GW(Serving Gateway)와 연결된다.
EPC(30)는 MME, S-GW 및 P-GW(Packet Data Network-Gateway)로 구성된다. MME는 단말의 접속 정보나 단말의 능력에 관한 정보를 가지고 있으며, 이러한 정보는 단말의 이동성 관리에 주로 사용된다. S-GW는 E-UTRAN을 종단점으로 갖는 게이트웨이이며, P-GW는 PDN을 종단점으로 갖는 게이트웨이이다.
단말과 네트워크 사이의 무선인터페이스 프로토콜 (Radio Interface Protocol)의 계층들은 통신시스템에서 널리 알려진 개방형 시스템간 상호접속 (Open System Interconnection: OSI) 기준 모델의 하위 3개 계층을 바탕으로 L1 (제1계층), L2 (제2계층), L3(제3계층)로 구분될 수 있는데, 이 중에서 제1계층에 속하는 물리계층은 물리채널(Physical Channel)을 이용한 정보전송서비스(Information Transfer Service)를 제공하며, 제 3계층에 위치하는 RRC(Radio Resource Control) 계층은 단말과 네트워크 간에 무선자원을 제어하는 역할을 수행한다. 이를 위해 RRC 계층은 단말과 기지국간 RRC 메시지를 교환한다.
도 2는 사용자 평면(user plane)에 대한 무선 프로토콜 구조(radio protocol architecture)를 나타낸 블록도이다. 도 3은 제어 평면(control plane)에 대한 무선 프로토콜 구조를 나타낸 블록도이다. 사용자 평면은 사용자 데이터 전송을 위한 프로토콜 스택(protocol stack)이고, 제어 평면은 제어신호 전송을 위한 프로토콜 스택이다.
도 2 및 3을 참조하면, 물리계층(PHY(physical) layer)은 물리채널(physical channel)을 이용하여 상위 계층에게 정보 전송 서비스(information transfer service)를 제공한다. 물리계층은 상위 계층인 MAC(Medium Access Control) 계층과는 전송채널(transport channel)을 통해 연결되어 있다. 전송채널을 통해 MAC 계층과 물리계층 사이로 데이터가 이동한다. 전송채널은 무선 인터페이스를 통해 데이터가 어떻게 어떤 특징으로 전송되는가에 따라 분류된다.
서로 다른 물리계층 사이, 즉 송신기와 수신기의 물리계층 사이는 물리채널을 통해 데이터가 이동한다. 상기 물리채널은 OFDM(Orthogonal Frequency Division Multiplexing) 방식으로 변조될 수 있고, 시간과 주파수를 무선자원으로 활용한다.
MAC 계층의 기능은 논리채널과 전송채널간의 맵핑 및 논리채널에 속하는 MAC SDU(service data unit)의 전송채널 상으로 물리채널로 제공되는 전송블록(transport block)으로의 다중화/역다중화를 포함한다. MAC 계층은 논리채널을 통해 RLC(Radio Link Control) 계층에게 서비스를 제공한다.
RLC 계층의 기능은 RLC SDU의 연결(concatenation), 분할(segmentation) 및 재결합(reassembly)를 포함한다. 무선베어러(Radio Bearer: RB)가 요구하는 다양한 QoS(Quality of Service)를 보장하기 위해, RLC 계층은 투명모드(Transparent Mode, TM), 비확인 모드(Unacknowledged Mode, UM) 및 확인모드(Acknowledged Mode, AM)의 세 가지의 동작모드를 제공한다. AM RLC는 ARQ(automatic repeat request)를 통해 오류 정정을 제공한다.
RRC(Radio Resource Control) 계층은 제어 평면에서만 정의된다. RRC 계층은 무선 베어러들의 설정(configuration), 재설정(re-configuration) 및 해제(release)와 관련되어 논리채널, 전송채널 및 물리채널들의 제어를 담당한다. RB는 단말과 네트워크간의 데이터 전달을 위해 제1 계층(PHY 계층) 및 제2 계층(MAC 계층, RLC 계층, PDCP 계층)에 의해 제공되는 논리적 경로를 의미한다.
사용자 평면에서의 PDCP(Packet Data Convergence Protocol) 계층의 기능은 사용자 데이터의 전달, 헤더 압축(header compression) 및 암호화(ciphering)를 포함한다. 제어 평면에서의 PDCP(Packet Data Convergence Protocol) 계층의 기능은 제어 평면 데이터의 전달 및 암호화/무결정 보호(integrity protection)를 포함한다.
RB가 설정된다는 것은 특정 서비스를 제공하기 위해 무선 프로토콜 계층 및 채널의 특성을 규정하고, 각각의 구체적인 파라미터 및 동작 방법을 설정하는 과정을 의미한다. RB는 다시 SRB(Signaling RB)와 DRB(Data RB) 두가지로 나누어 질 수 있다. SRB는 제어 평면에서 RRC 메시지를 전송하는 통로로 사용되며, DRB는 사용자 평면에서 사용자 데이터를 전송하는 통로로 사용된다.
단말의 RRC 계층과 E-UTRAN의 RRC 계층 사이에 RRC 연결(RRC Connection)이 확립되면, 단말은 RRC 연결(RRC connected) 상태에 있게 되고, 그렇지 못할 경우 RRC 아이들(RRC idle) 상태에 있게 된다.
네트워크에서 단말로 데이터를 전송하는 하향링크 전송채널로는 시스템정보를 전송하는 BCH(Broadcast Channel)과 그 이외에 사용자 트래픽이나 제어메시지를 전송하는 하향링크 SCH(Shared Channel)이 있다. 하향링크 멀티캐스트 또는 브로드캐스트 서비스의 트래픽 또는 제어메시지의 경우 하향링크 SCH를 통해 전송될 수도 있고, 또는 별도의 하향링크 MCH(Multicast Channel)을 통해 전송될 수도 있다. 한편, 단말에서 네트워크로 데이터를 전송하는 상향링크 전송채널로는 초기 제어메시지를 전송하는 RACH(Random Access Channel)와 그 이외에 사용자 트래픽이나 제어메시지를 전송하는 상향링크 SCH(Shared Channel)가 있다.
전송채널 상위에 있으며, 전송채널에 매핑되는 논리채널(Logical Channel)로는 BCCH(Broadcast Control Channel), PCCH(Paging Control Channel), CCCH(Common Control Channel), MCCH(Multicast Control Channel), MTCH(Multicast Traffic Channel) 등이 있다.
물리채널(Physical Channel)은 시간 영역에서 여러 개의 OFDM 심벌과 주파수 영역에서 여러 개의 부반송파(Sub-carrier)로 구성된다. 하나의 서브프레임(Sub-frame)은 시간 영역에서 복수의 OFDM 심벌(Symbol)들로 구성된다. 자원블록은 자원 할당 단위로, 복수의 OFDM 심벌들과 복수의 부반송파(sub-carrier)들로 구성된다. 또한 각 서브프레임은 PDCCH(Physical Downlink Control Channel) 즉, L1/L2 제어채널을 위해 해당 서브프레임의 특정 OFDM 심벌들(예, 첫 번째 OFDM 심볼)의 특정 부반송파들을 이용할 수 있다. TTI(Transmission Time Interval)는 전송의 단위 시간으로, 예를 들어, 서브프레임 또는 슬롯이 될 수 있다.
이하, 새로운 무선 접속 기술(new radio access technology: new RAT, NR)에 대해 설명한다.
더욱 많은 통신 기기들이 더욱 큰 통신 용량을 요구하게 됨에 따라 기존의 무선 접속 기술(radio access technology; RAT)에 비해 향상된 모바일 브로드밴드(mobile broadband) 통신에 대한 필요성이 대두되고 있다. 또한 다수의 기기 및 사물들을 연결하여 언제 어디서나 다양한 서비스를 제공하는 매시브 MTC (massive Machine Type Communications) 역시 차세대 통신에서 고려될 주요 이슈 중 하나이다. 뿐만 아니라 신뢰도(reliability) 및 지연(latency)에 민감한 서비스/단말을 고려한 통신 시스템 디자인이 논의되고 있다. 이와 같이 확장된 모바일 브로드밴드 커뮤니케이션(enhanced mobile broadband communication), massive MTC, URLLC (Ultra-Reliable and Low Latency Communication) 등을 고려한 차세대 무선 접속 기술의 도입이 논의되고 있으며, 본 개시에서는 편의상 해당 기술(technology)을 new RAT 또는 NR이라고 부른다.
도 4는 본 개시의 기술적 특징이 적용될 수 있는 무선 통신 시스템의 다른 예를 나타낸다.
구체적으로, 도 4는 5G NR(new radio access technology) 시스템에 기초한 시스템 아키텍처를 도시한다. 5G NR 시스템(이하, 간단히 "NR"이라 칭함)에서 사용되는 개체는 도 1에서 소개된 개체(예를 들어, eNB, MME, S-GW)의 일부 또는 모든 기능을 흡수할 수 있다. NR 시스템에서 사용되는 개체는 LTE와 구별하기 위해 "NG"라는 이름으로 식별될 수 있다.
도 4를 참조하면, 무선 통신 시스템은 하나 이상의 UE(11), NG-RAN(next-generation RAN) 및 5세대 코어 네트워크(5GC)를 포함한다. NG-RAN은 적어도 하나의 NG-RAN 노드로 구성된다. NG-RAN 노드는 도 1에 도시된 BS(20)에 대응하는 개체이다. NG-RAN 노드는 적어도 하나의 gNB(21) 및/또는 적어도 하나의 ng-eNB (22)로 구성된다. gNB(21)는 UE(11)를 향한 NR 사용자 평면 및 제어 평면 프로토콜의 종단을 제공한다. Ng-eNB(22)는 UE(11)를 향한 E-UTRA 사용자 평면 및 제어 평면 프로토콜의 종단을 제공한다.
5GC는 AMF(access and mobility management function), UPF(user plane function) 및 SMF(session management function)을 포함한다. AMF는 NAS 보안, 아이들 상태 이동성 처리 등과 같은 기능을 호스트 한다. AMF는 종래 MME의 기능을 포함하는 개체이다. UPF는 이동성 앵커링, PDU(protocol data unit) 처리와 같은 기능을 호스트 한다. UPF는 종래의 S-GW의 기능을 포함하는 개체이다. SMF는 UE IP 주소 할당, PDU 세션 제어와 같은 기능을 호스트 한다.
gNB와 ng-eNB는 Xn 인터페이스를 통해 상호 연결된다. gNB 및 ng-eNB는 또한 NG 인터페이스를 통해 5GC에 연결된다. 보다 구체적으로는, NG-C 인터페이스를 통해 AMF에, 그리고 NG-U 인터페이스를 통해 UPF에 연결된다.
도 5는 NG-RAN과 5GC 간의 기능적 분할을 예시한다.
도 5를 참조하면, gNB는 인터 셀 간의 무선 자원 관리(Inter Cell RRM), 무선 베어러 관리(RB control), 연결 이동성 제어(Connection Mobility Control), 무선 허용 제어(Radio Admission Control), 측정 설정 및 제공(Measurement configuration & Provision), 동적 자원 할당(dynamic resource allocation) 등의 기능을 제공할 수 있다. AMF는 NAS 보안, 아이들 상태 이동성 처리 등의 기능을 제공할 수 있다. UPF는 이동성 앵커링(Mobility Anchoring), PDU 처리 등의 기능을 제공할 수 있다. SMF(Session Management Function)는 단말 IP 주소 할당, PDU 세션 제어 등의 기능을 제공할 수 있다.
도 6은 NR에서 적용될 수 있는 프레임 구조를 예시한다.
도 6을 참조하면, 프레임은 10 ms(millisecond)로 구성될 수 있고, 1 ms로 구성된 서브프레임 10개를 포함할 수 있다.
NR에서 상향링크 및 하향링크 전송은 프레임으로 구성될 수 있다. 무선 프레임은 10 ms의 길이를 가지며, 2개의 5ms 하프-프레임(Half-Frame, HF)으로 정의될 수 있다. 하프-프레임은 5개의 1ms 서브프레임(Subframe, SF)으로 정의될 수 있다. 서브프레임은 하나 이상의 슬롯으로 분할되며, 서브프레임 내 슬롯 개수는 SCS(Subcarrier Spacing)에 의존한다. 각 슬롯은 CP(cyclic prefix)에 따라 12개 또는 14개의 OFDM(A) 심볼을 포함한다. 노멀 CP(normal CP)가 사용되는 경우, 각 슬롯은 14개의 심볼을 포함한다. 확장 CP가 사용되는 경우, 각 슬롯은 12개의 심볼을 포함한다. 여기서, 심볼은 OFDM 심볼 (혹은, CP-OFDM 심볼), SC-FDMA 심볼 (혹은, DFT-s-OFDM 심볼)을 포함할 수 있다.
서브프레임 내에는 부반송파 간격(subcarrier spacing)에 따라 하나 또는 복수의 슬롯(slot)들이 포함될 수 있다.
다음 표 1은 부반송파 간격 설정(subcarrier spacing configuration) μ를 예시한다.
Figure PCTKR2020008772-appb-T000001
다음 표 2는 부반송파 간격 설정(subcarrier spacing configuration) μ에 따라, 프레임 내 슬롯 개수(Nframeμ slot), 서브프레임 내 슬롯 개수(Nsubframeμ slot), 슬롯 내 심볼 개수(Nslot symb) 등을 예시한다.
Figure PCTKR2020008772-appb-T000002
표 3은 확장 CP가 사용되는 경우, SCS에 따라 슬롯 별 심볼의 개수, 프레임 별 슬롯의 개수와 서브프레임(SF) 별 슬롯의 개수를 예시한다.
Figure PCTKR2020008772-appb-T000003
NR 시스템에서는 하나의 단말에게 병합되는 복수의 셀들간에 OFDM(A) 뉴머놀로지(numerology)(예, SCS, CP 길이 등)가 상이하게 설정될 수 있다. 이에 따라, 동일한 개수의 심볼로 구성된 시간 자원(예, SF, 슬롯 또는 TTI)(편의상, TU(Time Unit)로 통칭)의 (절대 시간) 구간이 병합된 셀들간에 상이하게 설정될 수 있다.
도 7은 슬롯 구조를 나타낸다.
도 7을 참조하면, 슬롯은 시간 영역에서 복수의 심볼들을 포함한다. 예를 들어, 노멀 CP의 경우 하나의 슬롯이 14개의 심볼을 포함하나, 확장 CP의 경우 하나의 슬롯이 12개의 심볼을 포함할 수 있다. 또는 노멀 CP의 경우 하나의 슬롯이 7개의 심볼을 포함하나, 확장 CP의 경우 하나의 슬롯이 6개의 심볼을 포함할 수 있다.
반송파는 주파수 영역에서 복수의 부반송파들을 포함한다. RB(Resource Block)는 주파수 영역에서 복수(예를 들어, 12)의 연속한 부반송파로 정의될 수 있다. BWP(Bandwidth Part)는 주파수 영역에서 복수의 연속한 (P)RB로 정의될 수 있으며, 하나의 뉴머놀로지(numerology)(예, SCS, CP 길이 등)에 대응될 수 있다. 반송파는 최대 N개(예를 들어, 5개)의 BWP를 포함할 수 있다. 데이터 통신은 활성화된 BWP를 통해서 수행될 수 있다. 각각의 요소는 자원 그리드에서 자원요소(Resource Element, RE)로 지칭될 수 있고, 하나의 복소 심볼이 맵핑될 수 있다.
PDCCH(physical downlink control channel)은 다음 표 4와 같이 하나 또는 그 이상의 CCE(control channel element)들로 구성될 수 있다.
집성 레벨(Aggregation level) CCE의 개수(Number of CCEs)
1 1
2 2
4 4
8 8
16 16
즉, PDCCH는 1, 2, 4, 8 또는 16개의 CCE들로 구성되는 자원을 통해 전송될 수 있다. 여기서, CCE는 6개의 REG(resource element group)로 구성되며, 하나의 REG는 주파수 영역에서 하나의 자원 블록, 시간 영역에서 하나의 OFDM(orthogonal frequency division multiplexing) 심볼로 구성된다.
한편, NR에서는, 제어 자원 집합(control resource set: CORESET)이라는 새로운 단위를 도입할 수 있다. 단말은 CORESET에서 PDCCH를 수신할 수 있다.
도 8은 CORESET을 예시한다.
도 8을 참조하면, CORESET은 주파수 영역에서 NCORESET RB 개의 자원 블록들로 구성되고, 시간 영역에서 NCORESET symb ∈ {1, 2, 3}개의 심볼로 구성될 수 있다. NCORESET RB, NCORESET symb 는 상위 계층 신호를 통해 기지국에 의하여 제공될 수 있다. 도 8에 도시한 바와 같이 CORESET 내에는 복수의 CCE들(또는 REG들)이 포함될 수 있다.
단말은 CORESET 내에서, 1, 2, 4, 8 또는 16개의 CCE들을 단위로 PDCCH 검출을 시도할 수 있다. PDCCH 검출을 시도할 수 있는 하나 또는 복수 개의 CCE들을 PDCCH 후보라 할 수 있다.
단말은 복수의 CORESET들을 설정 받을 수 있다.
도 9는 종래의 제어 영역과 NR에서의 CORESET의 차이점을 나타내는 도면이다.
도 9를 참조하면, 종래의 무선통신 시스템(예컨대, LTE/LTE-A)에서의 제어 영역(300)은 기지국이 사용하는 시스템 대역 전체에 걸쳐 구성되었다. 좁은 대역만을 지원하는 일부 단말(예를 들어, eMTC/NB-IoT 단말)을 제외한 모든 단말은, 기지국이 전송하는 제어 정보를 제대로 수신/디코딩하기 위해서는 상기 기지국의 시스템 대역 전체의 무선 신호를 수신할 수 있어야 했다.
반면, NR에서는, 전술한 CORESET을 도입하였다. CORESET(301, 302, 303)은 단말이 수신해야 하는 제어정보를 위한 무선 자원이라 할 수 있으며, 시스템 대역 전체 대신 일부만을 사용할 수 있다. 기지국은 각 단말에게 CORESET을 할당할 수 있으며, 할당한 CORESET을 통해 제어 정보를 전송할 수 있다. 예를 들어, 도 9에서 제1 CORESET(301)은 단말 1에게 할당하고, 제2 CORESET(302)는 제2 단말에게 할당하고, 제3 CORESET(303)은 단말 3에게 할당할 수 있다. NR에서의 단말은 시스템 대역 전체를 반드시 수신하지 않더라도 기지국의 제어 정보를 수신할 수 있다.
CORESET에는, 단말 특정적 제어 정보를 전송하기 위한 단말 특정적 CORESET과 모든 단말에게 공통적인 제어 정보를 전송하기 위한 공통적 CORESET이 있을 수 있다.
한편, NR에서는, 응용(Application) 분야에 따라서는 높은 신뢰성(high reliability)를 요구할 수 있고, 이러한 상황에서 하향링크 제어 채널(예컨대, physical downlink control channel: PDCCH)을 통해 전송되는 DCI(downlink control information)에 대한 목표 BLER(block error rate)은 종래 기술보다 현저히 낮아질 수 있다. 이처럼 높은 신뢰성을 요구하는 요건(requirement)을 만족시키기 위한 방법의 일례로는, DCI에 포함되는 내용(contents)양을 줄이거나, 그리고/혹은 DCI 전송 시에 사용하는 자원의 양을 증가시킬 수 있다. 이 때 자원은, 시간 영역에서의 자원, 주파수 영역에서의 자원, 코드 영역에서의 자원, 공간 영역에서의 자원 중 적어도 하나를 포함할 수 있다.
한편, NR에서는 다음 기술/특징이 적용될 수 있다.
<셀프 컨테인드 서브프레임 구조(Self-contained subframe structure)>
도 10은 새로운 무선 접속 기술에 대한 프레임 구조의 일례를 도시한 것이다.
NR에서는 레이턴시(latency)를 최소화 하기 위한 목적으로 도 10과 같이, 하나의 TTI내에, 제어 채널과 데이터 채널이 시분할 다중화(Time Division Multiplexing: TDM) 되는 구조가 프레임 구조(frame structure)의 한가지로서 고려될 수 있다.
도 10에서 빗금 친 영역은 하향링크 제어(downlink control) 영역을 나타내고, 검정색 부분은 상향링크 제어(uplink control) 영역을 나타낸다. 표시가 없는 영역은 하향링크 데이터(downlink data; DL data) 전송을 위해 사용될 수도 있고, 상향링크 데이터(uplink data; UL data) 전송을 위해 사용될 수도 있다. 이러한 구조의 특징은 한 개의 서브프레임(subframe) 내에서 하향링크(DL) 전송과 상향링크(uplink; UL) 전송이 순차적으로 진행되어, 서브프레임(subframe) 내에서 DL data를 보내고, UL ACK/NACK(Acknowledgement/Not-acknowledgement)도 받을 수 있다. 결과적으로 데이터 전송 에러 발생시에 데이터 재전송까지 걸리는 시간을 줄이게 되며, 이로 인해 최종 데이터 전달의 레이턴시(latency)를 최소화할 수 있다.
이러한 데이터 및 제어 영역이 TDM된 서브프레임 구조(data and control TDMed subframe structure)에서 기지국과 단말이 송신 모드에서 수신 모드로의 전환 과정 또는 수신 모드에서 송신 모드로의 전환 과정을 위한 타입 갭(time gap)이 필요하다. 이를 위하여 셀프 컨테인드 서브프레임 구조에서 DL에서 UL로 전환되는 시점의 일부 OFDM 심볼이 보호 구간(guard period: GP)로 설정될 수 있다.
도 11은 셀프 컨테인드 슬롯 구조의 예이다.
도 11을 참조하면, 하나의 슬롯은 DL 제어 채널, DL 또는 UL 데이터, UL 제어 채널 등이 모두 포함될 수 있는 자기-완비 구조를 가질 수 있다. 예를 들어, 슬롯 내의 처음 N개의 심볼은 DL 제어 채널을 전송하는데 사용되고(이하, DL 제어 영역), 슬롯 내의 마지막 M개의 심볼은 UL 제어 채널을 전송하는데 사용될 수 있다(이하, UL 제어 영역). N과 M은 각각 0 이상의 정수이다. DL 제어 영역과 UL 제어 영역의 사이에 있는 자원 영역(이하, 데이터 영역)은 DL 데이터 전송을 위해 사용되거나, UL 데이터 전송을 위해 사용될 수 있다. 일 예로, 다음의 구성을 고려할 수 있다. 각 구간은 시간 순서대로 나열되었다.
1. DL only 구성
2. UL only 구성
3. Mixed UL-DL 구성
- DL 영역 + GP(Guard Period) + UL 제어 영역
- DL 제어 영역 + GP + UL 영역
여기서, DL 영역은 (i) DL 데이터 영역, (ii) DL 제어 영역 + DL 데이터 영역일 수 있다. UL 영역은 (i) UL 데이터 영역, (ii) UL 데이터 영역 + UL 제어 영역일 수 있다.
DL 제어 영역에서는 PDCCH가 전송될 수 있고, DL 데이터 영역에서는 PDSCH가 전송될 수 있다. UL 제어 영역에서는 PUCCH가 전송될 수 있고, UL 데이터 영역에서는 PUSCH가 전송될 수 있다. PDCCH에서는 DCI(Downlink Control Information), 예를 들어 DL 데이터 스케줄링 정보, UL 데이터 스케줄링 정보 등이 전송될 수 있다. PUCCH에서는 UCI(Uplink Control Information), 예를 들어 DL 데이터에 대한 ACK/NACK(Positive Acknowledgement/Negative Acknowledgement) 정보, CSI(Channel State Information) 정보, SR(Scheduling Request) 등이 전송될 수 있다. GP는 기지국과 단말이 송신 모드에서 수신 모드로 전환하는 과정 또는 수신 모드에서 송신 모드로 전환하는 과정에서 시간 갭을 제공한다. 서브프레임 내에서 DL에서 UL로 전환되는 시점의 일부 심볼이 GP로 설정될 수 있다.
<아날로그 빔포밍 #1(Analog beamforming #1)>
밀리미터 웨이브(Millimeter Wave: mmW)에서는 파장이 짧아져서 동일 면적에 다수개의 안테나 엘리먼트(element)의 설치가 가능해 진다. 즉 30GHz 대역에서 파장은 1cm로써 5 by 5 cm의 패널(panel)에 0.5 파장(lambda) 간격으로 2-차원(dimension) 배열 형태로 총 100개의 안테나 엘리먼트(element) 설치가 가능하다. 그러므로 mmW에서는 다수개의 안테나 엘리먼트(element)를 사용하여 빔포밍(beamforming: BF) 이득을 높여 커버리지를 증가시키거나, 처리량(throughput)을 높이려고 한다.
이 경우에 안테나 엘리먼트(element) 별로 전송 파워 및 위상 조절이 가능하도록 트랜시버 유닛(Transceiver Unit: TXRU)을 가지면 주파수 자원 별로 독립적인 빔포밍(beamforming)이 가능하다. 그러나 100여개의 안테나 엘리먼트(element) 모두에 TXRU를 설치하기에는 가격측면에서 실효성이 떨어지는 문제를 갖게 된다. 그러므로 하나의 TXRU에 다수개의 안테나 엘리먼트(element)를 맵핑(mapping)하고 아날로그 페이즈 쉬프터(analog phase shifter)로 빔(beam)의 방향을 조절하는 방식이 고려되고 있다. 이러한 아날로그 빔포밍(analog beamforming) 방식은 전 대역에 있어서 하나의 빔(beam) 방향만을 만들 수 있어 주파수 선택적 빔포밍(beamforming)을 해줄 수 없는 단점을 갖는다.
디지털 빔포밍(Digital BF)과 아날로그 빔포밍(analog BF)의 중간 형태로 Q개의 안테나 엘리먼트(element)보다 적은 개수인 B개의 TXRU를 갖는 하이브리드 빔포밍(hybrid BF)을 고려할 수 있다. 이 경우에 B개의 TXRU와 Q개의 안테나 엘리먼트(element)의 연결 방식에 따라서 차이는 있지만, 동시에 전송할 수 있는 빔의 방향은 B개 이하로 제한되게 된다.
<아날로그 빔포밍 #2(Analog beamforming #2)>
NR 시스템에서는 다수의 안테나가 사용되는 경우, 디지털 빔포밍과 아날로그 빔포밍을 결합한 하이브리드 빔포밍 기법이 대두되고 있다. 이 때, 아날로그 빔포밍(또는 RF 빔포밍)은 RF 단에서 프리코딩(Precoding) (또는 컴바이닝(Combining))을 수행하며, 이로 인해 RF 체인 수와 D/A (또는 A/D) 컨버터 수를 줄이면서도 디지털 빔포밍에 근접하는 성능을 낼 수 있다는 장점이 있다. 편의상 상기 하이브리드 빔포밍 구조는 N개의 TXRU와 M개의 물리적 안테나로 표현될 수 있다. 그러면 송신단에서 전송할 L개의 데이터 계층(data layer)에 대한 디지털 빔포밍은 N by L 행렬로 표현될 수 있고, 이후 변환된 N개의 디지털 신호(digital signal)는 TXRU를 거쳐 아날로그 신호(analog signal)로 변환된 다음 M by N 행렬로 표현되는 아날로그 빔포밍이 적용된다.
도 12는 상기 TXRU 및 물리적 안테나 관점에서 하이브리드 빔포밍(Hybrid beamforming) 구조를 추상적으로 도식화한 것이다.
도 12에서 디지털 빔(digital beam)의 개수는 L개 이며, 아날로그 빔(analog beam)의 개수는 N개이다. 더 나아가서 NR 시스템에서는 기지국이 아날로그 빔포밍을 심볼 단위로 변경할 수 있도록 설계하여 특정한 지역에 위치한 단말에게 보다 효율적인 빔포밍을 지원하는 방향을 고려하고 있다. 더 나아가서 도 12에서 특정 N개의 TXRU와 M개의 RF 안테나를 하나의 안테나 패널(panel)로 정의할 때, 상기 NR 시스템에서는 서로 독립적인 하이브리드 빔포밍이 적용 가능한 복수의 안테나 패널을 도입하는 방안까지 고려되고 있다.
상기와 같이 기지국이 복수의 아날로그 빔을 활용하는 경우, 단말 별로 신호 수신에 유리한 아날로그 빔이 다를 수 있으므로 적어도 동기화 신호(synchronization signal), 시스템 정보(system information), 페이징(paging) 등에 대해서는 특정 서브프레임에서 기지국이 적용할 복수 아날로그 빔들을 심볼 별로 바꾸어 모든 단말이 수신 기회를 가질 수 있도록 하는 빔 스위핑(beam sweeping) 동작이 고려되고 있다.
도 13은 동기화 신호 및 PBCH(SS/PBCH) 블록을 도시한 것이다.
도 13에 따르면, SS/PBCH 블록은 각각 1개의 심볼 및 127개의 부반송파들을 차지하는 PSS 및 SSS, 및 3개의 OFDM 심볼들 및 240개의 부반송파들에 걸쳐 있으나 하나의 심볼 상에는 SSS를 위한 미사용 부분이 중간에 남겨진 PBCH로 구성된다. SS/PBCH 블록의 주기성은 네트워크에 의해 설정될 수 있고 SS/PBCH 블록이 전송될 수 있는 시간 위치는 부반송파 간격(subcarrier spacing)에 의해 결정될 수 있다.
PBCH에 대해서는 폴라 코딩(Polar Coding)이 사용될 수 있다. 단말은 네트워크가 상이한 부반송파 간격을 단말이 가정하도록 설정하지 않는 한 SS/PBCH 블록에 대해 밴드-특정적인 부반송파 간격을 가정할 수 있다.
PBCH 심볼들은 자신의 주파수-다중화된 DMRS를 운반한다. PBCH에 대해 QPSK 변조가 사용될 수 있다. 1008개의 고유한 물리 계층 셀 ID가 주어질 수 있다.
SS/PBCH 블록들을 갖는 하프 프레임에 대하여, 후보 SS/PBCH 블록들에 대한 첫 번째 심볼 인덱스들은 후술하는 SS/PBCH 블록들의 부반송파 간격에 따라 결정된다.
- 케이스(case) A - 부반송파 간격 15kHz: 후보 SS/PBCH 블록들의 첫 번째 심볼들은 {2, 8}+14*n의 인덱스를 갖는다. 3GHz 이하의 반송파 주파수에 대하여, n=0, 1이다. 3GHz 초과 6GHz 이하의 반송파 주파수에 대하여, n=0, 1, 2, 3이다.
- 케이스 B - 부반송파 간격 30kHz: 후보 SS/PBCH 블록들의 첫 번째 심볼들은 {4, 8, 16, 20}+28*n의 인덱스를 갖는다. 3GHz 이하의 반송파 주파수에 대하여, n=0이다. 3GHz 초과 6GHz 이하의 반송파 주파수에 대하여, n=0, 1이다.
- 케이스 C - 부반송파 간격 30kHz: 후보 SS/PBCH 블록들의 첫 번째 심볼들은 {2, 8}+14*n의 인덱스를 갖는다. 3GHz 이하의 반송파 주파수에 대하여, n=0, 1이다. 3GHz 초과 6GHz 이하의 반송파 주파수에 대하여, n=0, 1, 2, 3이다.
- 케이스 D - 부반송파 간격 120kHz: 후보 SS/PBCH 블록들의 첫 번째 심볼들은 {4, 8, 16, 20}+28*n의 인덱스를 갖는다. 6GHz 초과의 반송파 주파수에 대하여, n=0, 1, 2, 3, 5, 6, 7, 8, 10, 11, 12, 13, 15, 16, 17, 18이다.
- 케이스 E - 부반송파 간격 240kHz: 후보 SS/PBCH 블록들의 첫 번째 심볼들은 {8, 12, 16, 20, 32, 36, 40, 44}+56*n의 인덱스를 갖는다. 6GHz 초과의 반송파 주파수에 대하여, n=0, 1, 2, 3, 5, 6, 7, 8이다.
하프 프레임 내 후보 SS/PBCH 블록들은 시간 축에서 0부터 L-1까지 오름차순으로 인덱싱된다. 단말은 PBCH 내에서 전송된 DM-RS 시퀀스의 인덱스와의 일 대 일 맵핑으로부터 하프 프레임 당 SS/PBCH 블록 인덱스의 L=4에 대한 2 LSB 비트를, L>4에 대한 3 LSB 비트를 결정해야 한다. L=64에 대하여, 단말은 PBCH 페이로드 비트들에 의한 하프 프레임 당 SS/PBCH 블록 인덱스의 3 MSB 비트를 결정해야 한다.
상위 계층 파라미터 'SSB-transmitted-SIB1'에 의하여, 단말이 SS/PBCH 블록들에 대응하는 RE들과 오버렙되는 RE들 내에서 다른 신호 또는 채널들을 수신할 수 없는 SS/PBCH 블록들의 인덱스가 설정될 수 있다. 또한 상위 계층 파라미터 'SSB-transmitted'에 의하여, SS/PBCH 블록들과 대응하는 RE들에 오버랩되는 RE들 내에서 단말이 다른 신호 또는 채널들을 수신할 수 없는 서빙 셀 당 SS/PBCH 블록들의 인덱스가 설정될 수 있다. 'SSB-transmitted'에 의한 설정은 'SSB-transmitted-SIB1'에 의한 설정에 우선할 수 있다. 상위 계층 파라미터 'SSB-periodicityServingCell'에 의해 서빙 셀 당 SS/PBCH 블록들의 수신에 대한 하프 프레임의 주기성이 설정될 수 있다. 만약 단말이 SS/PBCH 블록들의 수신에 대한 하프 프레임의 주기성을 설정받지 못하면, 단말은 하프 프레임의 주기성을 가정해야 한다. 단말은 서빙 셀 내 모든 SS/PBCH 블록들에 대해 주기성이 동일하다고 가정할 수 있다.
도 14는 단말이 타이밍 정보를 획득하는 방법을 설명하기 위한 것이다.
우선, 단말은 PBCH 내에서 수신한 MIB(MasterInformationBlock)를 통하여 6비트의 SFN 정보를 얻을 수 있다. 또한, PBCH 전송 블록 내에서 SFN 4 비트를 획득할 수 있다.
두 번째로, 단말은 PBCH 페이로드의 일부로서 1 비트 하프 프레임 지시자를 얻을 수 있다. 3GHz 미만에서, 하프 프레임 지시자는 Lmax=4에 대한 PBCH DMRS의 일부로서 암묵적으로 시그널링될 수 있다.
마지막으로, 단말은 DMRS 시퀀스 및 PBCH 페이로드에 의해 SS/PBCH 블록 인덱스를 획득할 수 있다. 즉, 5ms 주기 동안 DMRS 시퀀스에 의하여 SS 블록 인덱스의 LSB 3 비트를 얻을 수 있다. 또한, (6GHz 초과에 대해) PBCH 페이로드 내에서 타이밍 정보의 MSB 3 비트가 명시적으로 운반된다.
초기 셀 선택에서, 단말은 SS/PBCH 블록들을 갖는 하프 프레임이 2 프레임의 주기성을 갖고 발생한다고 가정할 수 있다. SS/PBCH 블록을 감지하면, 단말은, 만약 FR1에 대해 kSSB≤23이고 및 FR2에 대해 kSSB≤11이면, Type0-PDCCH 공통 검색 공간(common search space)에 대한 제어 자원 집합이 존재한다고 결정한다. 단말은, 만약 FR1에 대해 kSSB>23이고 및 FR2에 대해 kSSB>11이면, Type0-PDCCH 공통 검색 공간(common search space)에 대한 제어 자원 집합이 존재하지 않는다고 결정한다.
SS/PBCH 블록들의 전송이 없는 서빙 셀에 대해, 단말은 서빙 셀에 대한 셀 그룹의 프라이머리 셀 또는 PSCell 상에서의 SS/PBCH 블록들의 수신에 기반하여 서빙 셀의 시간 및 주파수 동기를 획득한다.
이하에서는, 시스템 정보 획득에 대해 설명한다.
시스템 정보(system information: SI)는 MasterInformationBlock (MIB) 및 복수의 SystemInformationBlocks (SIBs)로 나뉘어진다. 여기서,
- MIB는 80ms 주기를 갖고 항상 BCH 상에서 전송되고 80ms 이내에서 반복되며, 셀로부터 SystemInformationBlockType1 (SIB1)을 획득하기 위해 필요한 파라미터들을 포함한다;
- SIB1은 DL-SCH 상에서 주기성 및 반복을 갖고 전송된다. SIB1은 다른 SIB들의 이용 가능성 및 스케줄링(예를 들어, 주기성, SI-윈도우 크기)에 대한 정보를 포함한다. 또한, 이들(즉, 다른 SIB들)이 주기적인 방송 기반으로 제공되는지 또는 요구에 의해 제공되는지 여부를 지시한다. 만약 다른 SIB들이 요구에 의해 제공되면 SIB1은 단말이 SI 요청을 수행하기 위한 정보를 포함한다;
- SIB1 이외의 SIB들은 DL-SCH 상에서 전송되는 SystemInformation (SI) 메시지로 운반된다. 각 SI 메시지는 주기적으로 발생하는 시간 영역 윈도우(SI-윈도우라고 부른다.) 내에서 전송된다;
- PSCell 및 세컨더리 셀들에 대해, RAN은 전용 시그널링에 의해 필요한 SI를 제공한다. 그럼에도 불구하고, 단말은 SCH의 SFN 타이밍(MCG와 다를 수 있음.)을 얻기 위해 PSCell의 MIB를 획득해야 한다. 세컨더리 셀에 대한 관련 SI가 변경되면, RAN은 관련 세컨더리 셀을 해제 및 추가한다. PSCell에 대해, SI는 동기화를 통한 재설정(Reconfiguration with Sync)으로만 변경 가능하다.
도 15는 단말의 시스템 정보 획득 과정의 일례를 도시한 것이다.
도 15에 따르면, 단말은 네트워크로부터 MIB를 수신하고, 이후 SIB1을 수신할 수 있다. 이후, 단말은 네트워크로 시스템 정보 요청을 전송할 수 있고, 그에 대한 응답으로 'SystemInformation message'를 네트워크로부터 수신할 수 있다.
단말은 AS(access stratum) 및 NAS(non-access stratum) 정보 획득을 위한 시스템 정보 획득 절차를 적용할 수 있다.
RRC_IDLE 및 RRC_INACTIVE 상태의 단말은 (단말이 제어하는 이동성에 대한 관련 RAT 지원에 따라) 유효한 버전의 (적어도) MIB, SIB1 및 SystemInformationBlockTypeX을 보장해야 한다.
RRC_CONNECTED 상태의 단말은 (관련 RAT에 대한 이동성 지원에 따라) MIB, SIB1, 및 SystemInformationBlockTypeX의 유효한 버전을 보장해야 한다.
단말은 현재 캠프한/서빙 셀로부터 획득한 관련 SI를 저장해야 한다. 단말이 획득하고 저장한 SI의 버전은 일정 시간 동안만 유효하다. 단말은 예를 들어, 셀 재선택 이후, 커버리지 밖으로부터의 복귀, 또는 시스템 정보 변경 지시 이후에 이러한 저장된 버전의 SI를 사용할 수 있다.
이하에서는, 랜덤 접속(random access)에 대해 설명한다.
단말의 랜덤 접속 절차는 다음 표 5와 같이 요약할 수 있다.
Figure PCTKR2020008772-appb-T000004
도 16은 랜덤 접속 절차를 설명하기 위한 것이다.
도 16에 따르면, 먼저, 단말은 랜덤 접속 절차의 message(Msg) 1로서 상향링크로 PRACH(physical random access channel) 프리앰블을 전송할 수 있다.
2 개의 서로 다른 길이를 갖는 랜덤 접속 프리앰블 시퀀스가 지원된다. 길이 839의 긴 시퀀스는 1.25kHz 및 5kHz의 부반송파 간격에 적용되고, 길이 139의 짧은 시퀀스는 15, 30, 60, 및 120kHz의 부반송파 간격에 적용된다. 긴 시퀀스는 한정되지 않은 집합(inrestricted set) 및 타입 A 및 타입 B의 한정된 집합을 지원하고, 반면 짧은 시퀀스는 오직 한정되지 않은 집합만을 지원한다.
복수의 RACH 프리앰블 포맷들은 하나 이상의 RACH OFDM 심볼들, 상이한 CP(cyclic prefix), 및 보호 시간(guard time)으로 정의된다. 사용할 PRACH 프리앰블 설정은 시스템 정보로 단말에게 제공된다.
Msg1에 대한 응답이 없는 경우, 단말은 규정된 횟수 내에서 파워 램핑된 PRACH 프리앰블을 재전송할 수 있다. 단말은 가장 최근의 추정 경로 손실 및 파워 램핑 카운터에 기반하여 프리앰블의 재전송에 대한 PRACH 전송 전력을 계산한다. 만약 단말이 빔 스위칭을 수행하면, 파워 램핑 카운터는 변하지 않는다.
도 17은 파워 램핑 카원터를 설명하기 위한 것이다.
단말은 파워 램핑 카운터에 기반하여 랜덤 접속 프리앰블의 재전송에 대한 파워 램핑을 수행할 수 있다. 여기서, 전술한 바와 같이, 파워 램핑 카운터는 단말이 PRACH 재전송 시 빔 스위칭을 수행하는 경우 변하지 않는다.
도 17에 따르면, 파워 램핑 카운터가 1에서 2로, 3에서 4로 증가하는 경우와 같이, 단말이 동일한 빔에 대해 랜덤 접속 프리앰블을 재전송할 경우에는 단말은 파워 램핑 카운터를 1씩 증가시킨다. 그러나 빔이 변경된 경우에는 PRACH 재전송 시 파워 램핑 카운터가 변하지 않는다.
도 18은 RACH 자원 관계에 대한 SS 블록의 문턱치 개념을 설명하기 위한 것이다.
시스템 정보는 SS 블록들과 RACH 자원들 사이의 관계를 단말에게 알려준다. RACH 자원 관계에 대한 SS 블록의 문턱치는 RSRP 및 네트워크 설정에 기반한다. RACH 프리앰블의 전송 또는 재전송은 문턱치를 만족하는 SS 블록에 기반한다. 따라서, 도 18의 예에서는, SS 블록 m이 수신 전력의 문턱치를 넘으므로, SS 블록 m에 기반하여 RACH 프리앰블이 전송 또는 재전송된다.
이후, 단말이 DL-SCH 상에서 랜덤 접속 응답(random access response)을 수신하면, DL-SCH는 타이밍 배열 정보, RA-프리앰블 ID, 초기 상향링크 그랜트 및 임시 C-RNTI를 제공할 수 있다.
상기 정보에 기반하여, 단말은 랜덤 접속 절차의 Msg3로서 UL-SCH 상에서 상향링크 전송을 할 수 있다. Msg3은 RRC 연결 요청 및 UE 식별자를 포함할 수 있다.
이에 대한 응답으로, 네트워크는 경쟁 해소 메시지로 취급될 수 있는 Msg4를 하향링크로 전송할 수 있다. 이를 수신함으로써 단말은 RRC 연결 상태로 진입할 수 있다.
<대역폭 파트(bandwidth part: BWP)>
NR 시스템에서는 하나의 요소 반송파(component carrier: CC) 당 최대 400 메가헤르츠(megahertz: MHz)까지 지원될 수 있다. 이러한 광대역(wideband) CC에서 동작하는 단말이 항상 CC 전체에 대한 RF를 켜둔 채로 동작한다면 단말 배터리 소모가 커질 수 있다. 혹은 하나의 광대역 CC 내에 동작하는 여러 유스 케이스(use case)들(예, eMBB, URLLC, mMTC 등)을 고려할 때 해당 CC 내에 주파수 대역 별로 서로 다른 뉴머롤로지(numerology) (예, 부반송파 간격(sub-carrier spacing: SCS))가 지원될 수 있다. 혹은 단말 별로 최대 대역폭에 대한 능력(capability)이 다를 수 있다. 이를 고려하여 기지국은 광대역 CC의 전체 대역폭이 아닌 일부 대역폭에서만 동작하도록 단말에게 지시할 수 있으며, 해당 일부 대역폭을 편의상 대역폭 파트(bandwidth part: BWP)로 정의하고자 한다. BWP는 주파수 축 상에서 연속한 자원 블록(resource block: RB)들로 구성될 수 있으며, 하나의 뉴머롤로지 (예, 부반송파 간격, CP(cyclic prefix) 길이, 슬롯/미니-슬롯(mini-slot) 기간(duration) 등)에 대응될 수 있다.
한편, 기지국은 단말에게 설정된 하나의 CC 내에서도 다수의 BWP를 설정할 수 있다. 일 예로, PDCCH 모니터링 슬롯(PDCCH monitoring slot)에서는 상대적으로 작은 주파수 영역을 차지하는 BWP를 설정하고, PDCCH에서 지시하는 PDSCH는 그보다 큰 BWP 상에 스케줄링될 수 있다. 혹은, 특정 BWP에 단말들이 몰리는 경우 부하 밸런싱(load balancing)을 위해 일부 단말들을 다른 BWP로 설정할 수 있다. 혹은, 이웃 셀 간의 주파수 영역 인터-셀 간섭 해제(frequency domain inter-cell interference cancellation) 등을 고려하여 전체 대역폭 중 가운데 일부 스펙트럼을 배제하고 양쪽 BWP들을 동일 슬롯 내에서도 설정할 수 있다. 즉, 기지국은 광대역(wideband) CC 와 관련(association)된 단말에게 적어도 하나의 DL/UL BWP를 설정해 줄 수 있으며, 특정 시점에 설정된 DL/UL BWP(s) 중 적어도 하나의 DL/UL BWP를 (L1 시그널링 또는 MAC CE 또는 RRC 시그널링 등에 의해) 활성화(activation)시킬 수 있고, 다른 설정된 DL/UL BWP로 스위칭이 (L1 시그널링 또는 MAC CE 또는 RRC 시그널링 등에 의해) 지시될 수 있거나, 타이머 기반으로 타이머 값이 만료되면 정해진 DL/UL BWP로 스위칭될 수도 있다. 이 때, 활성화된 DL/UL BWP를 활성(active) DL/UL BWP로 정의한다. 그런데 단말이 초기 접속(initial access) 과정에 있거나, 혹은 RRC 연결이 셋업(set up)되기 전 등의 상황에서는 DL/UL BWP에 대한 설정을 수신하지 못할 수 있는데, 이러한 상황에서 단말이 가정하는 DL/UL BWP는 초기 활성(initial active) DL/UL BWP라고 정의한다.
<DRX(Discontinuous Reception)>
DRX(Discontinuous Reception)는 UE(User Equipment)가 배터리 소비를 감소시켜 단말이 다운 링크 채널을 불연속적으로 수신할 수 있게 하는 동작 모드를 의미한다. 즉, DRX로 설정된 단말은 DL 시그널을 불연속적으로 수신함으로써 전력 소비를 줄일 수 있다.
DRX 동작은 온 구간(On Duration)이 주기적으로 반복되는 시간 간격을 나타내는 DRX 사이클 내에서 수행된다. DRX 사이클은 온-구간 및 수면 구간(Sleep Duration)(혹은, DRX의 기회)을 포함한다. 온-구간은 단말이 PDCCH를 수신하기 위해 PDCCH를 모니터링하는 시간 간격을 나타낸다.
DRX는 RRC(Radio Resource Control)_IDLE 상태(또는 모드), RRC_INACTIVE 상태(또는 모드) 또는 RRC_CONNECTED 상태(또는 모드)에서 수행될 수 있다. RRC_IDLE 상태 및 RRC_INACTIVE 상태에서, DRX는 페이징 신호를 불연속적으로 수신하는데 사용될 수 있다.
- RRC_IDLE 상태: 기지국과 단말 사이에 무선 연결(RRC 연결)이 확립(establish)되지 않은 상태.
- RRC_INACTIVE 상태: 기지국과 단말 사이에 무선 연결(RRC 연결)이 확립되었지만, 무선 연결은 비활성화된 상태.
- RRC_CONNECTED 상태: 기지국과 단말 사이에 무선 연결(RRC 연결)이 확립된 상태.
DRX는 기본적으로 유휴(idle) 모드 DRX, 연결된(Connected) DRX (C-DRX) 및 확장(extended) DRX로 구분될 수 있다.
IDLE 상태에서 적용된 DRX는 유휴 모드 DRX라고 명명될 수 있으며, CONNECTED 상태에서 적용된 DRX는 연결 모드 DRX(C-DRX)라고 명명될 수 있다.
eDRX(Extended/Enhanced DRX)는 유휴 모드 DRX 및 C-DRX의 사이클을 확장할 수 있는 메커니즘으로, eDRX(Extended/Enhanced DRX)는 주로 (매시브) IoT의 적용에 사용될 수 있다. 유휴 모드 DRX에서, eDRX를 허용할 것인지 여부는 시스템 정보(예컨대, SIB1)에 기반하여 설정될 수 있다. SIB1은 eDRX-허용(allowed) 파라미터를 포함할 수 있다. eDRX-허용 파라미터는 유휴 모드 확장 DRX가 허용되는지 여부를 나타내는 파라미터다.
<유휴(idle) 모드 DRX>
유휴 모드에서, 단말은 전력 소비를 감소시키기 위해 DRX를 사용할 수 있다. 하나의 페이징 기회(paging occasion; PO)는 P-RNTI(Paging-Radio Network Temporary Identifier)가 (NB-IoT에 대한 페이징 메시지를 어드레스(address)하는) PDCCH(Physical Downlink Control Channel) 또는 MPDCCH(MTC PDCCH) 또는 NPDCCH(Narrowband PDCCH)를 통해 전송될 수 있는 서브 프레임이다.
MPDCCH를 통해 전송된 P-RNTI에서 PO는 MPDCCH 반복의 시작 서브 프레임을 나타낼 수 있다. NPDCCH를 통해 전송된 P-RNTI의 케이스에서, PO에 의해 결정된 서브프레임이 유효한 NB-IoT 다운링크 서브 프레임이 아닌 경우, PO는 NPDCCH 반복의 시작 서브 프레임을 나타낼 수 있다. 따라서, PO 이후의 첫 번째 유효 NB-IoT 다운 링크 서브 프레임은 NPDCCH 반복의 시작 서브 프레임이다.
하나의 페이징 프레임(paging frame; PF)은 하나 또는 복수의 페이징 기회를 포함할 수 있는 하나의 무선 프레임이다. DRX가 사용될 때, 단말은 DRX 사이클 당 하나의 PO만을 모니터링하면 된다. 하나의 페이징 협대역(paging narrow band; PNB)은 단말이 페이징 메시지 수신을 수행하는 하나의 협대역이다. PF, PO 및 PNB는 시스템 정보에서 제공되는 DRX 파라미터에 기초하여 결정될 수 있다.
도 19는 유휴 모드 DRX 동작을 수행하는 일례를 도식한 순서도다.
도 19에 따르면, 단말은 상위 계층 시그널링(예컨대, 시스템 정보)을 통해 유휴 모드 DRX 설정 정보를 기지국으로부터 수신할 수 있다(S21).
단말은 유휴 모드 DRX 설정 정보에 기반하여 페이징 DRX 사이클에서 PDCCH를 모니터링하기 위해 PF(Paging Frame) 및 PO(Paging Occasion)를 결정할 수 있다(S22). 이 경우 DRX 사이클에는 온-구간 및 수면 구간(또는 DRX의 기회)이 포함될 수 있다.
단말은 결정된 PF의 PO에서 PDCCH를 모니터링할 수 있다(S23). 여기서 예컨대, 단말은 페이징 DRX 사이클 당 하나의 서브 프레임(PO)만을 모니터링한다. 또한, 단말이 온-구간 동안 P-RNTI에 의해 스크램블링된 PDCCH를 수신하면(즉, 페이징이 검출되는 경우), 단말은 연결 모드로 천이하고 기지국과 데이터를 송수신할 수 있다.
<연결 모드 DRX(Connected mode DRX(C-DRX))>
C-DRX는 RRC 연결 상태에서 적용되는 DRX를 의미한다. C-DRX의 DRX 사이클은 짧은 DRX 사이클 및/또는 긴 DRX 사이클로 구성될 수 있다. 여기서, 짧은 DRX 사이클은 선택 사항에 해당할 수 있다.
C-DRX가 설정된 경우, 단말은 온-구간에 대한 PDCCH 모니터링을 수행할 수 있다. PDCCH 모니터링 동안 PDCCH가 성공적으로 검출되면, 단말은 인액티브(inactive) 타이머를 동작(또는 실행)하고 어웨이크(awake) 상태를 유지할 수 있다. 반대로, PDCCH 모니터링 동안 PDCCH가 성공적으로 검출되지 않으면, 단말은 온-구간이 종료된 후 슬립 상태로 진입할 수 있다.
C-DRX가 설정된 경우, PDCCH 수신 기회(예컨대, PDCCH 서치 스페이스를 가지는 슬롯)는 C-DRX 설정에 기반하여 비연속적으로 설정될 수 있다. 대조적으로, C-DRX가 설정되지 않으면, 본 개시에서 PDCCH 수신 기회(예컨대, PDCCH 서치 스페이스를 갖는 슬롯)가 연속적으로 설정될 수 있다.
한편, PDCCH 모니터링은 C-DRX 설정에 관계없이 측정 갭(gap)으로 설정된 시간 간격으로 제한될 수 있다.
도 20은 DRX 사이클을 예시한다.
도 20을 참조하면, DRX 사이클은 'On Duration(온-구간)'과 'Opportunity for DRX(DRX를 위한 기회)'로 구성된다. DRX 사이클은 '온-구간'이 주기적으로 반복되는 시간 간격을 정의한다. '온-구간'은 단말이 PDCCH를 수신하기 위해 모니터링 하는 시간 구간을 나타낸다. DRX가 설정되면, 단말은 '온-구간' 동안 PDCCH 모니터링을 수행한다. PDCCH 모니터링 동안에 성공적으로 검출된 PDCCH가 있는 경우, 단말은 inactivity 타이머를 동작시키고 깬(awake) 상태를 유지한다. 반면, PDCCH 모니터링 동안에 성공적으로 검출된 PDCCH가 없는 경우, 단말은 '온-구간'이 끝난 뒤 슬립(sleep) 상태로 들어간다. 따라서, DRX가 설정된 경우, 앞에서 설명/제안한 절차 및/또는 방법을 수행함에 있어서 PDCCH 모니터링/수신이 시간 도메인에서 불연속적으로 수행될 수 있다. 예를 들어, DRX가 설정된 경우, 본 개시에서 PDCCH 수신 기회(occasion)(예, PDCCH 탐색 공간을 갖는 슬롯)는 DRX 설정에 따라 불연속적으로 설정될 수 있다. 반면, DRX가 설정되지 않은 경우, 앞에서 설명/제안한 절차 및/또는 방법을 수행함에 있어서 PDCCH 모니터링/수신이 시간 도메인에서 연속적으로 수행될 수 있다. 예를 들어, DRX가 설정되지 않은 경우, 본 개시에서 PDCCH 수신 기회(예, PDCCH 탐색 공간을 갖는 슬롯)는 연속적으로 설정될 수 있다. 한편, DRX 설정 여부와 관계 없이, 측정 갭으로 설정된 시간 구간에서는 PDCCH 모니터링이 제한될 수 있다.
표 6은 DRX와 관련된 단말의 과정을 나타낸다(RRC_CONNECTED 상태). 표 6을 참조하면, DRX 구성 정보는 상위 계층(예, RRC) 시그널링을 통해 수신되고, DRX ON/OFF 여부는 MAC 계층의 DRX 커맨드에 의해 제어된다. DRX가 설정되면, 본 개시에 설명/제안한 절차 및/또는 방법을 수행함에 있어서 PDCCH 모니터링을 불연속적으로 수행할 수 있다.
신호의 종류(Type of signals) 단말 절차(UE procedure)
단계 1 RRC 시그널링(MAC-CellGroupConfig) - DRX 설정 정보 수신
단계 2 MAC CE((긴(Long)) DRX 명령(command) MAC CE) - DRX 명령 수신
단계 3 - - DRX 주기의 온-듀레이션(on-duration) 동안 PDCCH 모니터링
상기 MAC-CellGroupConfig는 셀 그룹을 위한 MAC(Medium Access Control) 파라미터를 설정하는데 필요한 구성 정보를 포함할 수 있다. MAC-CellGroupConfig는 DRX에 관한 구성 정보도 포함할 수 있다. 예를 들어, MAC-CellGroupConfig는 DRX를 정의하는데 정보를 다음과 같이 포함할 수 있다.
- Value of drx-OnDurationTimer: DRX 사이클의 시작 구간의 길이를 정의
- Value of drx-InactivityTimer: 초기 UL 또는 DL 데이터를 지시하는 PDCCH가 검출된 PDCCH 기회 이후에 단말이 깬 상태로 있는 시간 구간의 길이를 정의
- Value of drx-HARQ-RTT-TimerDL: DL 초기 전송이 수신된 후, DL 재전송이 수신될 때까지의 최대 시간 구간의 길이를 정의.
- Value of drx-HARQ-RTT-TimerDL: UL 초기 전송에 대한 그랜트가 수신된 후, UL 재전송에 대한 그랜트가 수신될 때까지의 최대 시간 구간의 길이를 정의.
- drx-LongCycleStartOffset: DRX 사이클의 시간 길이와 시작 시점을 정의
- drx-ShortCycle (optional): short DRX 사이클의 시간 길이를 정의
여기서, drx-OnDurationTimer, drx-InactivityTimer, drx-HARQ-RTT-TimerDL, drx-HARQ-RTT-TimerDL 중 어느 하나라도 동작 중이면 단말은 깬 상태를 유지하면서 매 PDCCH 기회마다 PDCCH 모니터링을 수행한다.
이하에서는 6G 시스템에 대해 설명한다. 여기서, 6G 시스템이란 5G 시스템 또는 NR 시스템 이후의 차세대 통신 시스템일 수 있다.
6G 시스템은 (i)디바이스 당 매우 높은 데이터 속도, (ii)매우 많은 수의 연결된 디바이스들, (iii)글로벌 연결성(global connectivity), (iv)매우 낮은 지연, (v)배터리-프리(battery-free) IoT 디바이스들의 에너지 소비를 낮추고, (vi)초고신뢰성 연결, (vii)머신 러닝 능력을 가지는 연결된 지능 등에 목적이 있다. 6G 시스템의 비전은 지능형 연결성(intelligent connectivity), 딥 연결성(deep connectivity), 홀로그램 연결성(holographic connectivity), 유비쿼터스 연결성(ubiquitous connectivity)과 같은 4가지 측면일 수 있으며, 6G 시스템은 아래 표 7과 같은 요구 사항을 만족시킬 수 있다. 즉, 표 7은 6G 시스템의 요구 사항의 일례를 나타낸 표이다.
디바이스 당 최대 전송률(Per device peak data rate) 1 Tbps
E2E 레이턴시(E2E latency) 1 ms
최대 스펙트럼 효율(Maximum spectral efficiency) 100bps/Hz
이동성 지원(Mobility support) Up to 1000km/hr
위성 조립(Satellite integration) 완전히(Fully)
AI 완전히(Fully)
자율 주행 차량(Autonomous vehicle) 완전히(Fully)
XR 완전히(Fully)
햅틱 통신(Haptic Communication) 완전히(Fully)
6G 시스템은 eMBB(Enhanced mobile broadband), URLLC(Ultra-reliable low latency communications), mMTC(massive machine-type communication), AI 통합 통신(AI integrated communication), 촉각 인터넷(Tactile internet), 높은 처리량(High throughput), 높은 네트워크 용량(High network capacity), 높은 에너지 효율(High energy efficiency), 낮은 백홀 및 액세스 네트워크 혼잡(Low backhaul and access network congestion), 강화된 데이터 보안(Enhanced data security)과 같은 핵심 요소(key factor)들을 가질 수 있다.
도 21은 6G 시스템에서 제공 가능한 통신 구조의 일례를 나타낸다.
6G 시스템은 5G 무선통신 시스템보다 50배 더 높은 동시 무선통신 연결성을 가질 것으로 예상된다. 5G의 주요 특징(key feature)인 URLLC는 6G 통신에서 1ms보다 적은 단-대-단(end-to-end) 지연을 제공함으로써 보다 더 주요한 기술이 될 것이다. 6G 시스템은 자주 사용되는 영역 스펙트럼 효율과 달리 체적 스펙트럼 효율이 훨씬 우수할 것이다. 6G 시스템은 매우 긴 배터리 수명과 에너지 수확을 위한 고급 배터리 기술을 제공할 수 있어, 6G 시스템에서 모바일 디바이스들은 별도로 충전될 필요가 없을 것이다. 6G에서 새로운 네트워크 특성들은 다음과 같을 수 있다.
- 위성 통합 네트워크(Satellites integrated network): 글로벌 모바일 집단을 제공하기 위해 6G는 위성과 통합될 것으로 예상된다. 지상파, 위성 및 공중 네트워크를 하나의 무선통신 시스템으로 통합은 6G에 매우 중요하다.
- 연결된 인텔리전스(Connected intelligence): 이전 세대의 무선 통신 시스템과 달리 6G는 혁신적이며, “연결된 사물”에서 "연결된 지능"으로 무선 진화가 업데이트될 것이다. AI는 통신 절차의 각 단계(또는 후술할 신호 처리의 각 절차)에서 적용될 수 있다.
- 무선 정보 및 에너지 전달의 완벽한 통합(Seamless integration wireless information and energy transfer): 6G 무선 네트워크는 스마트폰들과 센서들과 같이 디바이스들의 배터리를 충전하기 위해 전력을 전달할 것이다. 그러므로, 무선 정보 및 에너지 전송 (WIET)은 통합될 것이다.
- 유비쿼터스 슈퍼 3D 연결(Ubiquitous super 3D connectivity): 드론 및 매우 낮은 지구 궤도 위성의 네트워크 및 핵심 네트워크 기능에 접속은 6G 유비쿼터스에서 슈퍼 3D 연결을 만들 것이다.
위와 같은 6G의 새로운 네트워크 특성들에서 몇 가지 일반적인 요구 사항은 다음과 같을 수 있다.
- 스몰 셀 네트워크(small cell networks): 스몰 셀 네트워크의 아이디어는 셀룰러 시스템에서 처리량, 에너지 효율 및 스펙트럼 효율 향상의 결과로 수신 신호 품질을 향상시키기 위해 도입되었다. 결과적으로, 스몰 셀 네트워크는 5G 및 비욘드 5G (5GB) 이상의 통신 시스템에 필수적인 특성이다. 따라서, 6G 통신 시스템 역시 스몰 셀 네트워크의 특성을 채택한다.
- 초 고밀도 이기종 네트워크(Ultra-dense heterogeneous network): 초 고밀도 이기종 네트워크들은 6G 통신 시스템의 또 다른 중요한 특성이 될 것이다. 이기종 네트워크로 구성된 멀티-티어 네트워크는 전체 QoS를 개선하고 비용을 줄인다.
- 대용량 백홀(High-capacity backhaul): 백홀 연결은 대용량 트래픽을 지원하기 위해 대용량 백홀 네트워크로 특징 지어진다. 고속 광섬유 및 자유 공간 광학 (FSO) 시스템이 이 문제에 대한 가능한 솔루션일 수 있다.
- 모바일 기술과 통합된 레이더 기술: 통신을 통한 고정밀 지역화(또는 위치 기반 서비스)는 6G 무선통신 시스템의 기능 중 하나이다. 따라서, 레이더 시스템은 6G 네트워크와 통합될 것이다.
- 소프트화 및 가상화(Softwarization and virtualization): 소프트화 및 가상화는 유연성, 재구성성 및 프로그래밍 가능성을 보장하기 위해 5GB 네트워크에서 설계 프로세스의 기초가 되는 두 가지 중요한 기능이다. 또한, 공유 물리적 인프라에서 수십억 개의 장치가 공유될 수 있다.
이하에서는 6G 시스템의 핵심 구현 기술 중 인공 지능(Artificial Intelligence: AI)에 대해 설명한다.
6G 시스템에 가장 중요하며, 새로 도입될 기술은 AI이다. 4G 시스템에는 AI가 관여하지 않았다. 5G 시스템은 부분 또는 매우 제한된 AI를 지원할 것이다. 그러나, 6G 시스템은 완전히 자동화를 위해 AI가 지원될 것이다. 머신 러닝의 발전은 6G에서 실시간 통신을 위해 보다 지능적인 네트워크를 만들 것이다. 통신에 AI를 도입하면 실시간 데이터 전송이 간소화되고 향상될 수 있다. AI는 수많은 분석을 사용하여 복잡한 대상 작업이 수행되는 방식을 결정할 수 있다. 즉, AI는 효율성을 높이고 처리 지연을 줄일 수 있다.
핸드 오버, 네트워크 선택, 자원 스케줄링과 같은 시간 소모적인 작업은 AI를 사용함으로써 즉시 수행될 수 있다. AI는 M2M, 기계-대-인간 및 인간-대-기계 통신에서도 중요한 역할을 할 수 있다. 또한, AI는 BCI(Brain Computer Interface)에서 신속한 통신이 될 수 있다. AI 기반 통신 시스템은 메타 물질, 지능형 구조, 지능형 네트워크, 지능형 장치, 지능형 인지 라디오(radio), 자체 유지 무선 네트워크 및 머신 러닝에 의해 지원될 수 있다.
최근에는 AI를 무선 통신 시스템과 통합하려고 하는 시도들이 나타나고 있으나, 이는 애플리케이션 계층(application layer), 네트워크 계층(network layer) 특히, 딥러닝을 무선 자원 관리 및 할당(wireless resource management and allocation) 분야에 집중되어 왔다. 그러나, 이러한 연구는 점점 MAC 계층(layer)과 물리 계층(Physical layer)으로 발전하고 있으며, 특히 물리 계층에서 딥러닝을 무선 전송(wireless transmission)과 결합하고자 하는 시도들이 나타나고 있다. AI 기반의 물리 계층 전송은, 근본적인 신호 처리 및 통신 메커니즘에 있어서, 전통적인 통신 프레임워크가 아니라 AI 드라이버에 기초한 신호 처리 및 통신 메커니즘을 적용하는 것을 의미한다. 예를 들어, 딥러닝 기반의 채널 코딩 및 디코딩(channel coding and decoding), 딥러닝 기반의 신호 추정(estimation) 및 검출(detection), 딥러닝 기반의 MIMO 메커니즘(mechanism), AI 기반의 자원 스케줄링(scheduling) 및 할당(allocation) 등을 포함할 수 있다.
머신 러닝은 채널 추정 및 채널 트래킹을 위해 사용될 수 있으며, DL(downlink)의 물리 계층(physical layer)에서 전력 할당(power allocation), 간섭 제거 (interference cancellation) 등에 사용될 수 있다. 또한, 머신 러닝은 MIMO 시스템에서 안테나 선택, 전력 제어(power control), 심볼 검출(symbol detection) 등에도 사용될 수 있다.
그러나, 물리계층에서의 전송을 위한 DNN(deep neural network)의 적용은 아래와 같은 문제점이 있을 수 있다.
딥러닝 기반의 AI 알고리즘은 훈련 파라미터를 최적화하기 위해 수많은 훈련 데이터가 필요하다. 그러나 특정 채널 환경에서의 데이터를 훈련 데이터로 획득하는데 있어서의 한계로 인해, 오프라인 상에서 많은 훈련 데이터를 사용한다. 이는 특정 채널 환경에서 훈련 데이터에 대한 정적 훈련(static training)은, 무선 채널의 동적 특성 및 다이버시티(diversity) 사이에 모순(contradiction)이 생길 수 있다.
또한, 현재 딥러닝은 주로 실제 신호(real signal)을 대상으로 한다. 그러나, 무선 통신의 물리 계층의 신호들은 복소 신호(complex signal)이다. 무선 통신 신호의 특성을 매칭시키기 위해 복소 도메인 신호의 검출하는 신경망(neural network)에 대한 연구가 더 필요하다.
이하, 머신 러닝에 대해 보다 구체적으로 살펴본다.
머신 러닝은 사람이 할 수 있거나 혹은 하기 어려운 작업을 대신해낼 수 있는 기계를 만들어내기 위해 기계를 학습시키는 일련의 동작을 의미한다. 머신 러닝을 위해서는 데이터와 러닝 모델이 필요하다. 머신 러닝에서 데이터의 학습 방법은 크게 3가지 즉, 지도 학습(supervised learning), 비지도 학습(unsupervised learning) 그리고 강화 학습(reinforcement learning)으로 구분될 수 있다.
신경망 학습은 출력의 오류를 최소화하기 위한 것이다. 신경망 학습은 반복적으로 학습 데이터를 신경망에 입력시키고 학습 데이터에 대한 신경망의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 신경망의 에러를 신경망의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation) 하여 신경망의 각 노드의 가중치를 업데이트하는 과정이다.
지도 학습은 학습 데이터에 정답이 라벨링된 학습 데이터를 사용하며 비지도 학습은 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 지도 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링된 데이터일 수 있다. 라벨링된 학습 데이터가 신경망에 입력되고 신경망의 출력(카테고리)과 학습 데이터의 라벨을 비교하여 오차(error)가 계산될 수 있다. 계산된 오차는 신경망에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 신경망의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learing rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 신경망의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 신경망의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 신경망의 학습 초기에는 높은 학습률을 사용하여 신경망이 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다.
데이터의 특징에 따라 학습 방법은 달라질 수 있다. 예를 들어, 통신 시스템 상에서 송신단에서 전송한 데이터를 수신단에서 정확하게 예측하는 것을 목적으로 하는 경우, 비지도 학습 또는 강화 학습 보다는 지도 학습을 이용하여 학습을 수행하는 것이 바람직하다.
러닝 모델은 인간의 뇌에 해당하는 것으로서, 가장 기본적인 선형 모델을 생각할 수 있으나, 인공 신경망(artificial neural networks)와 같은 복잡성이 높은 신경망 구조를 러닝 모델로 사용하는 머신 러닝의 패러다임을 딥러닝(deep learning)이라 한다.
학습(learning) 방식으로 사용하는 신경망 코어(neural network cord)는 크게 심층 신경망(DNN, deep neural networks), 합성곱 신경망(CNN, convolutional deep neural networks), 순환 신경망(RNN, Recurrent Boltzmann Machine) 방식이 있다.
인공 신경망(artificial neural network)은 여러 개의 퍼셉트론을 연결한 예시이다.
도 22는 퍼셉트론 구조의 일례를 도시한 것이다.
도 22를 참조하면, 입력 벡터 x=(x1, x2, ..., xd) 가 입력되면 각 성분에 가중치(W1,W2,...,Wd)를 곱하고, 그 결과를 모두 합산한 후, 활성 함수 σ(·) 를 적용하는 전체 과정을 퍼셉트론(perceptron)이라 한다. 거대한 인공 신경망 구조는 도 22에 도시한 단순화된 퍼셉트론 구조를 확장하여 입력 벡터를 서로 다른 다 차원의 퍼셉트론에 적용할 수도 있다. 설명의 편의를 위해 입력 값 또는 출력 값을 노드(node)라 칭한다.
한편, 도 22에 도시된 퍼셉트론 구조는 입력 값, 출력 값을 기준으로 총 3개의 계층(layer)으로 구성되는 것으로 설명할 수 있다. 제1 계층과 제2 계층 사이에는 (d+1) 차원의 퍼셉트론 H개, 제2 계층과 제3 계층 사이에는 (H+1)차원 퍼셉트론이 K 개 존재하는 인공신경망을 도 23과 같이 표현할 수 있다.
도 23은 다중 퍼셉트론 구조의 일례를 도시한 것이다.
입력 벡터가 위치하는 층을 입력 층(input layer), 최종 출력 값이 위치하는 층을 출력 층(output layer), 입력 층과 출력 층 사이에 위치하는 모든 층을 은닉 층(hidden layer)라 한다. 도 23의 예시는 3개의 층이 개시되나, 실제 인공 신경망 층의 개수를 카운트할 때는 입력 층을 제외하고 카운트하므로 총 2개의 층으로 볼 수 있다. 인공신경망은 기본 블록의 퍼셉트론을 2차원적으로 연결되어 구성된다.
전술한 입력 층, 은닉 층, 출력 층은 다층 퍼셉트론 뿐 아니라 후술할 CNN, RNN 등 다양한 인공 신경망 구조에서 공동적으로 적용될 수 있다. 은닉 층의 개수가 많아질수록 인공 신경망이 깊어진 것이며, 충분히 깊어진 인공 신경망을 러닝 모델로 사용하는 머신 러닝 패러다임을 딥러닝(Deep Learning)이라 한다. 또한 딥러닝을 위해 사용하는 인공신경망을 심층 신경망(DNN: Deep neural network)라 한다.
도 24는 심층 신경망의 일례를 도시한 것이다.
도 24에 도시된 심층 신경망은 은닉 층+출력 층이 8개로 구성된 다층 퍼셉트론이다. 상기 다층 퍼셉트론 구조를 완전 연결 신경망(fully-connected neural network)이라 표현한다. 완전 연결 신경망은 서로 같은 층에 위치하는 노드 간에는 연결 관계가 존재하지 않으며, 인접한 층에 위치한 노드들 간에만 연결 관계가 존재한다. DNN은 완전 연결 신경망 구조를 가지고 다수의 은닉 층과 활성 함수들의 조합으로 구성되어 입력과 출력 사이의 상관 관계 특성을 파악하는데 유용하게 적용될 수 있다. 여기서 상관 관계 특성은 입출력의 결합 확률(joint probability)을 의미할 수 있다.
한편, 복수의 퍼셉트론을 서로 어떻게 연결하느냐에 따라 전술한 DNN과 다른 다양한 인공 신경망 구조를 형성할 수 있다.
도 25는 컨볼루션 신경망의 일례를 도시한 것이다.
DNN은 하나의 층 내부에 위치한 노드들이 1차원적의 세로 방향으로 배치되어 있다. 그러나, 도 25를 참고하면, 노드들이 2차원적으로 가로 w개, 세로 h개의 노드가 배치할 경우를 가정할 수 있다. 이 경우, 하나의 입력 노드에서 은닉 층으로 이어지는 연결 과정에서 연결 하나당 가중치가 부가되므로 총 h*w 개의 가중치를 고려해야 한다. 입력 층에 h*w 개의 노드가 존재하므로 인접한 두 층 사이에는 총 h2w2 개의 가중치가 필요하다.
도 26은 컨볼루션 신경망에서의 필터 연산의 일례를 도시한 것이다.
도 25의 컨볼루션 신경망은 연결 개수에 따라 가중치의 개수가 기하급수적으로 증가하는 문제가 있어 인접한 층 간의 모든 모드의 연결을 고려하는 대신, 크기가 작은 필터(filter)가 존재하는 것으로 가정하여 도 26에서와 같이 필터가 겹치는 부분에 대해서는 가중 합 및 활성 함수 연산을 수행하도록 한다.
하나의 필터는 그 크기만큼의 개수에 해당하는 가중치를 가지며, 이미지 상의 어느 특정한 특징을 요인으로 추출하여 출력할 수 있도록 가중치의 학습이 이루어질 수 있다. 도 26에서는 3 by 3 크기의 필터가 입력 층의 가장 좌측 상단 3 by 3 영역에 적용되고, 해당 노드에 대한 가중 합 및 활성 함수 연산을 수행한 결과 출력 값을 z22에 저장한다.
상기 필터는 입력 층을 스캔하면서 가로, 세로 일정 간격만큼 이동하면서 가중 합 및 활성 함수 연산을 수행하고 그 출력 값을 현재 필터의 위치에 위치시킨다. 이러한 연산 방식은 컴퓨터 비전(computer vision) 분야에서 이미지에 대한 컨볼루션(convolution) 연산과 유사하여 이러한 구조의 심층 신경망을 컨볼루션 신경망(CNN: convolutional neural network)라 하고, 컨볼루션 연산 결과 생성되는 은닉 층을 컨볼루션 층(convolutional layer)라 한다. 또한, 복수의 컨볼루션 층이 존재하는 신경망을 심층 컨볼루션 신경망(DCNN: Deep convolutional)이라 한다.
컨볼루션 층에서는 현재 필터가 위치한 노드에서, 상기 필터가 커버하는 영역에 위치한 노드만을 포괄하여 가중 합을 계산함으로써, 가중치의 개수를 줄여줄 수 있다. 이로 인해, 하나의 필터가 로컬(local) 영역에 대한 특징에 집중하도록 이용될 수 있다. 이에 따라 CNN은 2차원 영역 상의 물리적 거리가 중요한 판단 기준이 되는 이미지 데이터 처리에 효과적으로 적용될 수 있다. 한편, CNN은 컨볼루션 층의 직전에 복수의 필터가 적용될 수 있으며, 각 필터의 컨볼루션 연산을 통해 복수의 출력 결과를 생성할 수도 있다.
한편, 데이터 속성에 따라 시퀀스(sequence) 특성이 중요한 데이터들이 있을 수 있다. 이러한 시퀀스 데이터들의 길이 가변성, 선후 관계를 고려하여 데이터 시퀀스 상의 원소를 매 시점(timestep) 마다 하나씩 입력하고, 특정 시점에 출력된 은닉 층의 출력 벡터(은닉 벡터)를, 시퀀스 상의 바로 다음 원소와 함께 입력하는 방식을 인공 신경망에 적용한 구조를 순환 신경망 구조라 한다.
도 27은 순환 루프가 존재하는 신경망 구조의 일례를 도시한 것이다.
도 27을 참조하면, 순환 신경망(RNN: recurrent neural network)은 데이터 시퀀스 상의 어느 시점 t의 원소 (x1(t), x2(t), ..., xd(t))를 완전 연결 신경망에 입력하는 과정에서, 바로 이전 시점 t-1은 은닉 벡터(z1(t-1), z2(t-1), ..., zH(t-1))를 함께 입력하여 가중 합 및 활성 함수를 적용하는 구조이다. 이와 같이 은닉 벡터를 다음 시점으로 전달하는 이유는 앞선 시점들에서의 입력 벡터 속 정보들이 현재 시점의 은닉 벡터에 누적된 것으로 간주하기 때문이다.
도 28은 순환 신경망의 동작 구조의 일례를 도시한 것이다.
도 28을 참조하면, 순환 신경망은 입력되는 데이터 시퀀스에 대하여 소정의 시점 순서대로 동작한다.
시점 1에서의 입력 벡터(x1(t), x2(t), ..., xd(t))가 순환 신경망에 입력되었을 때의 은닉 벡터(z1(1), z2(1), ..., zH(1))가 시점 2의 입력 벡터(x1(2), x2(2), ..., xd(2))와 함께 입력되어 가중 합 및 활성 함수를 통해 은닉 층의 벡터(z1(2), z2(2) ,..., zH(2))를 결정한다. 이러한 과정은 시점 2, 시점 3, ... 시점 T 까지 반복적으로 수행된다.
한편, 순환 신경망 내에서 복수의 은닉 층이 배치될 경우, 이를 심층 순환 신경망(DRNN: Deep recurrent neural network)라 한다. 순환 신경망은 시퀀스 데이터(예를 들어, 자연어 처리(natural language processing)에 유용하게 적용되도록 설계되어 있다.
학습(learning) 방식으로 사용하는 신경망 코어로서 DNN, CNN, RNN 외에 제한 볼츠만 머신(RBM, Restricted Boltzmann Machine), 심층 신뢰 신경망(DBN, deep belief networks), 심층 Q-네트워크(Deep Q-Network)와 같은 다양한 딥 러닝 기법들을 포함하며, 컴퓨터 비젼, 음성인식, 자연어 처리, 음성/신호처리 등의 분야에 적용될 수 있다.
이하에서는 신경망 또는 뉴럴 네트워크(neural network)에 대해 설명한다.
뉴럴 네트워크는 사람의 뇌를 본 따서 만든 머신 러닝 모델이다. 컴퓨터가 잘 할 수 있는 것은 0과 1로 이루어진 사칙연산이다. 기술의 발달로 인해 지금은 컴퓨터가 예전보다도 더 빠른 시간에, 그리고 더 적은 전력으로 훨씬 더 많은 사칙연산을 처리할 수 있다. 반면, 사람은 사칙연산을 컴퓨터만큼 빠르게 할 수 없다. 인간의 뇌는 오직 빠른 사칙연산만을 처리하기 위해 만들어진 것이 아니기 때문이다. 그러나, 인지, 자연어 처리 등 그 이상의 무언가를 처리하기 위해서는 사칙연산 그 너머의 것들을 할 수 있어야 하지만 현재 컴퓨터로는 인간의 뇌가 할 수 있는 수준으로 그런 것들을 처리할 수 없다. 그렇기 때문에 자연언어처리, 컴퓨터 비전 등의 영역에서는 인간과 비슷한 성능을 내는 시스템을 만들 수만 있다면 엄청난 기술적 진보가 일어날 수 있을 것이다. 그렇기 때문에 인간의 능력을 쫓아가는 것 이전에, 먼저 인간의 뇌를 모방해보자라는 아이디어를 낼 수 있을 것이다. 뉴럴 네트워크는 이러한 동기(motivation)로 만들어진 간단한 수학적 모델이다. 우리는 이미 인간의 뇌가 엄청나게 많은 뉴런들과 그것들을 연결하는 시냅스로 구성되어 있다는 사실을 알고 있다. 또한 각각의 뉴런들이 활성화(activate)되는 방식에 따라서 다른 뉴런들도 활성화되거나 활성화되지 않는 등의 동작(action)을 취하게 될 것이다. 그렇다면 이 사실들을 기반으로 다음과 같은 간단한 수학적 모델을 정의하는 것이 가능하다.
도 29는 뉴럴 네트워크 모델의 일례를 도시한 것이다.
먼저 각각의 뉴런들이 노드(node)이고, 그 뉴런들을 연결하는 시냅스가 엣지(edge)인 네트워크를 만드는 것이 가능하다. 각각의 시냅스의 중요도가 다를 수 있으므로 엣지마다 가중치(weight)를 따로 정의하게 되면 도 29와 같은 형태로 네트워크를 만들 수 있다. 보통 뉴럴 네트워크는 방향성 그래프(directed graph)이다. 즉, 정보 전파(information propagation)가 한 방향으로 고정된다는 뜻이다. 만약 비방향성 엣지(undirected edge)를 가지게 되거나 또는 동일한 방향성 엣지(directed edge)가 양방향으로 주어질 경우, 정보 전파가 반복적(recursive)으로 일어나서 결과가 조금 복잡해진다. 이런 경우를 순환 신경망(recurrent neural network: RNN)이라고 하는데, 과거의 데이터를 저장하는 효과가 있기 때문에 최근 음성인식 등의 순차적 데이터(sequential data)를 처리할 때 많이 사용되고 있다. 다중 계층 퍼셉트론(Multi-layer perceptron: MLP) 구조는 방향성 심플 그래프(directed simple graph)이고, 같은 계층(layer)들 안에서는 서로 연결성(connection)이 없다. 즉, 셀프-루프(self-loop)와 평행 엣지(parallel edge)가 없고, 계층과 계층 사이에만 엣지가 존재하며, 서로 인접한 계층끼리만 엣지를 가진다. 즉, 첫번째 계층과 네번째 계층을 직접 연결하는 엣지가 없는 것이다. 앞으로 계층에 대한 특별한 언급이 없다면 이러한 MLP를 가정한다. 이 경우 정보 전파가 앞으로만(forward) 일어나기 때문에 이런 네트워크를 피드-포워드 네트워크(feed-forward network)라고 부르기도 한다.
실제 뇌에서는 각기 다른 뉴런들이 활성화되고, 그 결과가 다음 뉴런으로 전달되고 또 그 결과가 전달되면서 최종 결정을 내리는 뉴런이 활성화되는 방식에 따라 정보를 처리하게 된다. 이 방식을 수학적 모델로 바꿔서 생각해보면, 입력(input) 데이터들에 대한 활성화 조건을 함수(function)로 표현하는 것이 가능할 수 있다. 이것을 활성화 함수 또는 활성 함수(activate function)라고 정의한다. 가장 간단한 활성 함수의 예시는 들어오는 모든 입력 값을 더한 다음, 문턱치(threshold)를 설정하여 이 값이 특정 값을 넘으면 활성화, 그 값을 넘지 못하면 비활성화되도록 하는 함수일 수 있다. 일반적으로 많이 사용되는 여러 종류의 활성 함수가 존재하는데, 이하에서 몇 가지를 소개한다. 편의상 t=∑i(wixi)라고 정의한다. 참고로, 일반적으로는 가중치뿐만 아니라 바이어스(bias)도 고려해야 한다. 이 경우 t=∑i(wixi)+bi가 되지만, 본 명세서에서 바이어스는 가중치와 거의 동일하기 때문에 생략한다. 예를 들어, 값이 항상 1인 x0를 추가한다면, w0가 바이어스가 되므로, 가상의 입력을 가정하고 가중치와 바이어스를 동일하게 취급해도 무방하다.
- 시그모이드 함수(Sigmoid function): f(t)=1/(1+e-t)
- 하이퍼볼릭 탄젠트 함수(tanh function): f(t)=(1-e-t)/(1+e-t)
- 절대 함수: f(t)=||t||
- 정류 선형 단위 함수(Rectified Linear Unit function: ReLU function): f(t)=max(0, t)
따라서, 상기 모델은 우선 노드와 엣지로 이루어진 네트워크의 모양을 정의하고, 각 노드 별 활성 함수를 정의한다. 이렇게 정해진 모델을 조절하는 파라미터의 역할은 엣지의 가중치가 맡게 되며, 가장 적절한 가중치를 찾는 것이 상기 수학적 모델을 트레이닝할 때의 목표가 될 수 있다.
이하에서는 모든 파라미터가 결정되었다고 가정하고 뉴럴 네트워크가 어떻게 결과를 추론(inference)하는지에 대해 설명한다. 뉴럴 네트워크는 먼저 주어진 입력(input)에 대해 다음 계층(layer)의 활성화를 결정하고, 이를 사용해 그 다음 계층의 활성화를 결정한다. 이런 식으로 맨 마지막 계층까지 결정을 하고 나서, 맨 마지막 결정 계층(decision layer)의 결과를 보고 추론을 결정하는 것이다.
도 30은 뉴럴 네트워크에서 활성화된 노드의 일례를 도시한 것이다.
도 30에서 원으로 표시한 노드가 활성화된 노드를 나타낸다. 예를 들어, 분류법(classification)의 경우 마지막 계층에 사용자가 분류하고 싶은 급 또는 클래스(class)의 개수만큼 결정 노드를 만든 다음 그 중 하나의 활성화되는 값을 선택할 수 있다.
뉴럴 네트워크의 활성 함수들은 비선형(non-linear)이고 서로 계층을 이루면서 복잡하게 얽혀 있기 때문에, 뉴럴 네트워크의 가중치 최적화(weight optimization)는 비-컨벡스 최적화(non-convex optimization)일 수 있다. 따라서, 일반적인 경우 뉴럴 네트워크의 파라미터들의 글로벌 최적(global optimum)을 찾는 것은 불가능하다. 그렇기 때문에 보통 경사 하강법(gradient descent: GD)을 사용하여 적당한 값까지 수렴시키는 방법을 사용할 수 있다. 모든 최적화 문제는 타겟 함수(target function)가 정의되어야 해결될 수 있다. 뉴럴 네트워크에서는 마지막 결정 계층에서 실제로 원하는 타겟 출력(target output)과 현재 네트워크가 생성한(produce) 추정 출력(estimated output)끼리의 손실 함수(loss function)을 계산하여 그 값을 최소화하는 방식을 취할 수 있다. 일반적으로 선택하는 손실 함수에는 다음과 같은 함수들이 있다. 한편, d-차원 타겟 출력(d-dimensional target output)을 t=[t1, ..., td], 추정 출력을 x=[x1, ..., xd]로 각각 정의한다. 최적화를 위한 다양한 손실 함수가 사용될 수 있는데, 다음은 대표적인 손실 함수의 예이다.
- 유클리드 손실의 합(sum of Euclidean loss):
Figure PCTKR2020008772-appb-I000001
- 소프트맥스 손실(Softmax loss):
Figure PCTKR2020008772-appb-I000002
- 교차-엔트로피 손실(Cross-entropy loss):
Figure PCTKR2020008772-appb-I000003
이렇게 손실 함수가 주어진다면, 이 값을 주어진 파라미터들에 대해 기울기(gradient)를 구한 다음 그 값들을 사용해 파라미터를 업데이트(update)할 수 있다.
한편, 역전파 알고리즘(backpropagation algorithm)은 체인 룰(chain rule)을 사용해 기울기 계산을 간단하게 만들어주는 알고리즘으로, 각각의 파라미터의 기울기를 계산할 때 평행화(parallelization)가 용이하고, 알고리즘 디자인에 따라 메모리 효율을 증가시킬 수 있으므로 실제 뉴럴 네트워크 업데이트는 역전파 알고리즘을 주로 사용한다. 경사 하강법을 사용하기 위해서는 현재 파라미터에 대한 기울기를 계산해야 하지만, 네트워크가 복잡해지면 그 값을 바로 계산하는 것이 어려울 수 있다. 대신, 역전파 알고리즘에 따르면, 먼저 현재 파라미터를 사용하여 손실(loss)을 계산하고, 각각의 파라미터들이 해당 손실에 대해 얼마만큼의 영향을 미쳤는지 체인 룰을 사용하여 계산하고, 그 값으로 업데이트를 할 수 있다. 따라서, 역전파 알고리즘은 크게 두 가지 단계(phase)로 나눌 수 있는데, 하나는 전파 단계(propagation phase)이며 다른 하나는 가중치 업데이트 단계(weight update phase)이다. 전파 단계에서는 트레이닝 입력 패턴(training input pattern)에서부터 오차(error) 또는 각 뉴런들의 변화량을 계산하며, 가중치 업데이트 단계에서는 앞에서 계산한 값을 사용하여 가중치를 업데이트 시킨다.
구체적으로, 전파 단계에서는 순전파(forward propagation) 또는 역전파(backpropagation)가 수행될 수 있다. 순전파는 입력 트레이닝 데이터로부터 출력을 계산하고, 각 뉴런에서의 오차(error)를 계산한다. 이 때, 입력 뉴런-히든 뉴런(hidden neuron)-출력 뉴런 순으로 정보가 이동하므로 순전파라고 한다. 역전파는 출력 뉴런에서 계산된 오차를 각 엣지들의 가중치를 이용해 바로 이전 계층의 뉴런들이 오차에 얼마나 영향을 미쳤는지 여부를 계산한다. 이 때, 출력 뉴런-히든 뉴런 순으로 정보가 이동하므로 역전파라고 한다.
또한, 가중치 업데이트 단계에서는 체인 룰을 이용해 파라미터들의 가중치를 계산한다. 이 때, 체인 룰을 사용한다는 의미는 도 31과 같이 앞에서 계산된 기울기를 사용하여 현재의 기울기 값을 업데이트한다는 의미일 수 있다.
도 31은 체인 룰을 이용한 기울기 계산의 일례를 도시한 것이다.
도 31은 (δz)/(δx)를 구하는 것이 목적인데, 해당 값을 직접 계산하는 대신, y-계층에서 계산한 미분값(derivative)인 (δz)/(δy) 및 y-계층과 x에 대해서만 관계된 (δy)/(δx)를 사용하여 원하는 값을 계산할 수 있다. 만약 x 이전에 x`라는 파라미터가 별도로 존재한다면, (δz)/(δx)와 (δx`)/(δx)를 사용하여 (δz)/(δx`)를 계산할 수 있다. 따라서, 역전파 알고리즘에서 필요한 것은 현재 업데이트하려는 파라미터의 바로 전 변수(variable)의 미분값 및 현재 파라미터로 바로 전의 변수를 미분한 값이다. 이 과정을 출력 계층에서부터 하나씩 내려오면서 반복한다. 즉, 출력-히든 뉴런 k, 히든 뉴런 k-히든 뉴런 k-1, ..., 히든 뉴런 2-히든 뉴런 1, 히든 뉴런 1-입력의 과정을 거치면서 가중치가 계속 업데이트될 수 있다.
기울기를 계산하면 경사 하강법을 이용하여 파라미터를 업데이트한다. 그러나, 일반적으로 뉴럴 네트워크의 입력 데이터의 개수가 상당히 많기 때문에 정확한 기울기를 계산하기 위해서는 모든 트레이닝 데이터에 대해 기울기를 전부 계산하고, 그 값의 평균을 이용하여 정확한 기울기를 구한 후 업데이트를 한 번 수행하면 된다. 그러나, 이 방법은 비효율적이므로, 확률론적 경사 하강법(stochastic gradient descent: SGD) 방법을 사용할 수 있다.
SGD는 모든 데이터의 기울기에 대해 평균을 취하여 기울기 업데이트를 수행(이를 풀 배치(full batch)라 한다.)하는 대신 일부의 데이터로 미니 배치(mini batch)를 생성하고, 하나의 배치에 대한 기울기만을 계산하여 전체 파라미터를 업데이트할 수 있다. 컨벡스 최적화의 경우, 특정 조건이 만족하면 SGD와 GD가 같은 글로벌 최적으로 수렴하는 것이 증명되어 있지만, 뉴럴 네트워크는 컨벡스가 아니기 때문에 배치를 설정하는 방법에 따라 수렴하는 조건이 바뀐다.
이하에서는 뉴럴 네트워크의 종류에 대해 설명한다.
먼저, CNN(convolution neural network)에 대해 설명한다.
CNN은 음성 인식이나 이미지 인식에 주로 사용되는 신경망의 한 종류이다. 다차원 배열 데이터를 처리하도록 구성되어 있어, 색 이미지와 같은 다차원 배열 처리에 특화되어 있다. 따라서, 이미지 인식 분야에서 딥러닝을 활용한 기법은 대부분 CNN을 기초로 한다. 일반 신경망의 경우, 이미지 데이터를 그대로 처리한다. 즉, 이미지 전체를 하나의 데이터로 생각해서 입력으로 받아들이기 때문에, 이미지의 특성을 찾지 못하고 이미지의 위치가 조금만 달라지거나 왜곡된 경우에 올바른 성능을 내지 못할 수 있다. 그러나, CNN은 이미지를 하나의 데이터가 아닌, 여러 개로 분할하여 처리한다. 이렇게 하면 이미지가 왜곡되더라도 이미지의 부분적 특성을 추출할 수 있어 올바른 성능을 낼 수 있다. CNN은 다음과 같은 용어로 정의할 수 있다.
- 합성곱 또는 컨벌루션(convolution): 합성곱 연산은 두 함수 f, g 가운데 하나의 함수를 반전(reverse), 전이(shift)시킨 다음, 다른 하나의 함수와 곱한 결과를 적분하는 것을 의미한다. 이산 영역(discrete domain)에서는 적분 대신 합을 사용한다.
- 채널(channel): 합성곱을 수행할 때 입력 또는 출력을 구성하는 데이터 열의 개수를 의미한다.
- 필터(filter) 또는 커널(kernel): 입력 데이터에 대해 컨벌루션을 수행하는 함수를 의미한다.
- 딜레이션(dilation): 데이터와 커널에 대해 컨벌루션을 수행할 때 데이터 사이의 간격을 의미한다. 예를 들어, 딜레이션이 2인 경우, 입력 데이터의 2개마다 하나씩 추출하여 커널과 컨벌루션을 수행한다.
- 스트라이드(stride): 컨벌루션을 수행할 때 필터/커널을 쉬프트(shift)하는 간격을 의미한다.
- 패딩(padding): 컨벌루션을 수행할 때, 입력 데이터에 특정 값을 덧붙이는 동작을 의미하며, 상기 특정 값은 주로 0이 사용된다.
- 요인 맵(feature map): 컨벌루션을 수행하여 출력한 결과를 의미한다.
다음으로, RNN(recurrent neural network)에 대해 설명한다.
RNN은 히든 노드가 방향을 가진 엣지로 연결되어 순환 구조(directed cycle)를 이루는 인공신경망의 한 종류이다. 음성, 문자 등 순차적으로 등장하는 데이터 처리에 적합한 모델로 알려져 있는데, CNN과 더불어 최근에 각광 받고 있는 알고리즘이다. 시퀀스 길이에 관계 없이 입력과 출력을 받아들일 수 있는 네트워크 구조이기 때문에, 필요에 따라 다양하고 유연하게 구조를 만들 수 있다는 점이 RNN의 가장 큰 장점이다.
도 32는 RNN의 기본 구조의 일례를 도시한 것이다.
도 32에서 h_t(t=1,2, ...)는 히든 계층(hidden layer)이고, x는 입력, y는 출력을 나타낸다. RNN은 관련 정보와 그 정보를 사용하는 지점 사이 거리가 멀 경우 역전파 시 기울기가 점차 줄어 학습 능력이 크게 저하되는 것으로 알려져 있다. 이를 기울기가 사라지는 문제(vanishing gradient problem)라고 한다. 기울기가 사라지는 문제를 해결하기 위해 제안된 구조가 LSTM(long-short term memory)과 GRU(gated recurrent unit)이다.
이하에서는 오토인코더(autoencoder)에 대해 설명한다.
뉴럴 네트워크를 통신 시스템에 적용하기 위한 다양한 시도가 이루어지고 있다. 그 중에서 물리 계층에 적용하려는 시도는 주로 수신기(receiver)의 특정 기능을 최적화하는 것이 고려되고 있다. 예를 들면, 채널 디코더(channel decoder)를 뉴럴 네트워크로 구성하여 성능을 향상시킬 수 있다. 또는, 다수 개의 송수신 안테나를 가진 MIMO 시스템에서 MIMO 검출기(detector)를 뉴럴 네트워크로 구현하여 성능을 향상시킬 수 있다.
또 다른 접근 방식은 송신기(transmitter), 수신기(receiver) 모두를 뉴럴 네트워크로 구성하여 단 대 단(end-to-end) 관점에서 최적화를 수행하여 성능 향상을 기하는 방식으로, 이를 오토인코더라고 부른다.
도 33은 오토인코더의 일례를 도시한 것이다.
도 33을 참고하면, 입력 신호는 송신기, 채널, 수신기로 차례로 진행한다. 여기서, 일례로, 입력 신호가 5-비트(bit) 신호일 때 5-비트 신호는 32가지로 표현될 수 있고, 이는 32개의 요소를 갖는 1행 또는 1열의 벡터로 표현할 수 있다. 상기 벡터가 송신기, 채널을 통과하여 수신기에 도달하면, 수신기는 검출된 벡터의 내용에 따라 정보를 획득할 수 있다.
도 33의 오토인코더 구조는 입력 데이터 블록 크기(input data block size) K가 증가할수록 복잡도가 지수적으로 증가하는 문제, 즉, 차원의 저주(curse of dimensionality)가 발생한다. 이 경우, 구조화된 송신기를 설계하는 경우 상기 문제를 해결할 수 있다. 이를 터보 오토인코더(turbo autoencoder: turbo AE)라고 부르는데, 터보 오토인코더의 인코더, 디코더 구조는 도 34와 같다.
도 34는 터보 오토인코더의 인코더 구조 및 디코더 구조의 일례를 도시한 것이다. 구체적으로, 도 34의 (a)는 뉴럴 네트워크 인코더 구조를 도시한 것이고, 도 34의 (b)는 뉴럴 네트워크 디코더 구조를 도시한 것이다.
도 34의 (a)는 코드 레이트(code rate)가 1/3인 인코더 구조를 도시한 것으로, fi,θ는 뉴럴 네트워크이고 h(.)는 전력 제한(power constraint)을 나타낸다. 또한, π는 인터리버(interleaver)를 의미한다. 도 34의 (b)는 디코더 구조를 나타낸 것으로, 터보 디코더의 반복 디코딩 방식과 유사한 방법을 채용하고 있고, 각 반복 디코딩 시 2개의 부-디코더(sub-decoder)로 구성되어 있다. 여기서 g0i,j는 i번째 반복 디코딩 시 j번째 부-디코더를 나타낸다.
이하에서는, 본 개시의 제안에 대해 더욱 상세히 설명한다.
이하의 도면은 본 명세서의 구체적인 일례를 설명하기 위해 작성되었다. 도면에 기재된 구체적인 장치의 명칭이나 구체적인 신호/메시지/필드의 명칭은 예시적으로 제시된 것이므로, 본 명세서의 기술적 특징이 이하의 도면에 사용된 구체적인 명칭에 제한되지 않는다.
입력 데이터 블록 크기가 증가할수록 오토인코더의 복잡도가 지수적으로 증가하기 때문에, 도 33과 같은 구조는 큰 블록 크기의 데이터 전송에는 적합하지 않다. 이와 같은 문제를 해결한 도 34와 같은 오토인코더 구조는 상대적으로 큰 블록 크기의 데이터를 전송하는 것은 가능하지만, 기존의 채널 코딩 시스템에 비해서 복잡하다. 다음 표 8은 블록 크기 100에 대해서 터보 오토인코더의 복잡도를 비교한 것이다. 표 8의 FLOP는 부동 소수점 연산(floating-point operation) 수이며, EMO는 초기 대수 연산(elementary math operation)을 나타내는 데, CNN/RNN을 이용한 뉴럴 인코더 및 뉴럴 디코더의 복잡도는 FLOP으로 계산하였고, 터보 인코더 및 터보 디코더의 복잡도는 EMO로 계산한 것이다.
Metric CNN 인코더 CNN 디코더 RNN 인코더 RNN 디코더 터보 인코더 터보 디코더
FLOP/EMO 1.8 M 294.15 M 33.4M 6.7 G 104 K 408 K
가중치(weight) 157.4 K 2.45 M 1.14 M 2.71 M N/A N/A
표 8을 참고하면 뉴럴 네트워크로 구성한 인코더, 디코더는 터보 인코더 및 터보 디코더에 비해 더욱 큰 복잡도를 갖는다.
따라서, 성능을 유지하면서 복잡도를 낮춘 오토인코더의 설계가 필요하다. 여기서, 거리 특성은 디코더가 아닌 인코더의 영향을 받는 점에서, 거리 또는 유클리드 거리(Euclidean distance)를 개선하도록 뉴럴 네트워크로 구성하는 인코더를 설계함으로써 뉴럴 네트워크 인코더, 뉴럴 네트워크 디코더의 복잡도를 낮출 수 있다.
먼저, 뉴럴 네트워크 인코더 구조에 대해 설명한다.
도 35는 뉴럴 네트워크 인코더에서 fi,θ를 2-계층 CNN으로 구현한 일례를 도시한 것이다. 여기서, 상기 뉴럴 네트워크 인코더의 일례는 도 34의 (a)와 같을 수 있다.
도 35를 참고하면, elu(x)는 elu(x)=max(0, x)+min(0, a·(ex-1))인 활성 함수이고, *는 컨벌루션 연산법을 의미한다. 일반적으로 인코더 특성을 분석할 때 최소 거리(minimum distance)가 중요한 설계 파라미터가 되는데, 이는 인코더에서 생성된 코드워드(codeword) 간의 거리 중 최소값을 의미한다. 따라서, 코드워드의 최소 거리를 최대화하면 좋은 성능의 코드를 설계할 수 있다. 이와 같은 설계 방식을 채용하여 입력 데이터 블록에서 차이가 크지 않은 두 개의 입력 데이터 시퀀스를 고려한다.
예를 들면, 길이 10인 입력 데이터 블록에 대해서 하나의 비트(bit) 차이가 나는 두 개의 입력 데이터 시퀀스는 u0=[0, 0, 0, 0, 0, 0, 0, 0, 0, 0] 및 u1=[0, 0, 1, 0, 0, 0, 0, 0, 0, 0]일 수 있다. 즉, 서로 다른 값을 갖는 코드워드의 위치가 상대적으로 크지 않은 입력 데이터 시퀀스들에 대해서 최소 거리를 최대화하면 코드워드의 성능을 개선할 수 있고, 그에 따라 도 35의 필터 개수 N 및 계층 수를 줄이는 등의 복잡도 개선을 기대할 수 있다.
도 36은 5-계층 CNN으로 구성된 뉴럴 네트워크 디코더의 g0i,j의 일 실시예를 도시한 것이다. 여기서 yi=xi+ni (여기서, i=1, 2, 3)이고, ni는 가산성 백색 가우시안 잡음(additive white Gaussian noise: AWGN)이다.
이하에서는 본 명세서에서 제안하는 뉴럴 네트워크 인코더 구조의 일 실시예에 대해 설명한다.
도 37은 거리 특성 개선을 위한 뉴럴 네트워크 인코더의 일 실시예의 입력단 구조를 개략적으로 도시한 것이다.
도 37의 구조는 신호를 여러 구성 요소로 분리하는 필터들의 배열인 필터 뱅크(filter bank) 개념을 채용하여 가중치 차이가 크지 않은 입력 데이터 시퀀스들에 대해 필터 입력 시 지연(delay)을 적용하여 가중치 차이가 큰 입력 데이터 시퀀스의 효과를 얻는 방법을 적용한다. 일례로, 도 37의 지연은 도 35의 CNN 계층 1의 필터 입력에 적용하여 상기 효과를 얻을 수 있다.
인코더의 입력에 지연을 적용하기 때문에, 디코더에는 CNN 계층 1의 입력에 대한 지연을 도 37의 역순으로 적용하여 기존 디코더 구조를 활용할 수 있다. 즉, 도 35의 CNN 계층 1의 필터 1N의 입력에는 지연을 적용하지 않고, 필터 1(N-1)에는 1-지연, 필더 1(N-2)에는 2-지연(즉, 1-지연의 2배), ..., 필터11에는 (N-1)-지연을 적용하는 방법이다. 이와 같이 입력단에 지연을 적용하면 필터의 입력에 변화를 줄 수 있으므로 거리 특성 개선을 기대할 수 있다.
도 38은 거리 특성 개선을 위해 인터리버를 삽입한 뉴럴 네트워크 인코더 구조를 개략적으로 도시한 것이다.
도 38을 참고하면, 도 36의 입력단의 지연은 필터 출력단에 인터리버(interleaver)를 삽입함으로써 구현될 수 있다. 도 38의 뉴럴 네트워크 인코더 구조는 도 36의 디코더 구조를 이용할 수 있다.
이하에서는 본 명세서에서 제안하는 뉴럴 네트워크 인코더 구조의 다른 실시예에 대해 설명한다.
도 39는 추가적인 인터리버를 갖는 뉴럴 네트워크 인코더의 일 실시예의 구조를 도시한 것이다. 여기서, INT1은 제1 인터리버, INT2는 제2 인터리버를 각각 의미할 수 있다. 또한 여기서, NN1, NN2, NN3 각각은 뉴럴 네트워크를 나타내며, NN1, NN2, NN3는 서로 다른 종류의 뉴럴 네트워크일 수 있다. 또한 여기서, π와 π-1은 각각 INT2에 해당하는 인터리빙, 디인터리빙(de-interleaving) 동작을 의미할 수 있다.
도 39를 참고하면, 가중치 차이가 크지 않은 입력 데이터 시퀀스들이 실제로 뉴럴 네트워크 인코더 내에 각각 입력될 때, 가중치가 증가하도록 하는 효과는 도 34의 (a)의 인코더 구조에서 인터리버를 추가로 삽입함으로써 얻을 수 있다. 도 39의 뉴럴 네트워크 인코더 구조에 대한 뉴럴 네트워크 디코더는 도 34의 (b)에서 y2에 도 39의 INT1의 디인터리빙된 신호를 입력으로 하는 구조를 이용할 수 있다. 도 34 및 도 35의 뉴럴 네트워크 인코더와 비교할 때 도 39의 구조에 따르면, 서로 다른 인터리버 출력이 뉴럴 네트워크 인코더에 입력되기 때문에 x1, x2, x3에 대해 거리 특성을 개선할 수 있다. 또한, 도 39의 뉴럴 네트워크 인코더에 대한 뉴럴 네트워크 디코더는 도 39의 뉴럴 네트워크 인코더 구조와 반대되는 구조를 갖도록 설계할 수 있다.
이하에서는 본 명세서에서 제안하는 뉴럴 네트워크 인코더 구조의 또 다른 실시예에 대해 설명한다.
도 40은 입력단에 누산기가 삽입된 뉴럴 네트워크 인코더 구조의 일 실시예를 도시한 것이다. 구체적으로, 입력단에 누산기를 삽입하는 위치에 따라 도 40의 (a), 도 40의 (b), 도 40의 (c), 도 40의 (d)의 구조를 고려할 수 있다.
도 40을 참고하면, 누산기 또는 어큐뮬레이터(accumulator)를 삽입하여 가중치 차이가 작은 입력 데이터 시퀀스에 대해 가중치 차이가 큰 입력 데이터 시퀀스를 생성할 수 있다. 다시 말하면, 입력 데이터 시퀀스의 가중치 차이가 상대적으로 작더라도 누산기를 통과하면 차이 값이 커질 수 있다. 따라서 코드워드의 거리 특성이 개선될 수 있다. 한편, 도 40의 뉴럴 네트워크 인코더 구조는 도 34의 (b)의 뉴럴 네트워크 디코더 구조를 이용할 수 있다.
또 다른 방법으로, 도 40의 인터리버 출력에 누산기를 추가하여 거리 특성을 개선할 수도 있다.
도 41은 RSC 코드(recursive systematic convolutional code)와 연접한 뉴럴 네트워크 인코더 구조의 일 실시예를 도시한 것이다.
도 41을 참고하면, 코드워드를 생성하는 뉴럴 네트워크의 입력 데이터 시퀀스를 생성할 때, 뉴럴 네트워크 인코더와 RSC 코드를 연접시킬 수 있다. 여기서, 인터리버 출력에 누산기를 삽입하여 거리 특성을 개선할 수 있다.
도 42는 RSC 코드와 연결된 뉴럴 네트워크 인코더 구조에 대한 뉴럴 네트워크 디코더 구조의 일 실시예를 도시한 것이다.
도 41의 구조는 도 34의 (b)의 디코더 구조를 이용하기 어려운 점에서 도 42와 같은 뉴럴 네트워크 디코더 구조를 고려할 수 있다. 다시 말하면, 도 41의 구조는 RSC 코드가 삽입되는 점에서, 도 42의 구조는 RSC 코드에 대한 디코더가 별도로 존재한다.
이하에서는 본 명세서에서 제안하는 뉴럴 네트워크 인코더 구조의 또 다른 실시예에 대해 설명한다.
도 43은 조직(systematic) 뉴럴 네트워크 인코더 구조의 일 실시예를 도시한 것이다.
도 43을 참고하면, 터보 코드의 인코더 구조와 같이 조직 코드워드(systematic codeword)를 생성하도록 하는 뉴럴 네트워크 인코더 구조를 고려할 수 있다. 이를 통해, 디코더에 조직 코드워드를 입력함으로써 성능 향상을 기대할 수 있다. 도 43의 구조는 도 34의 (b)의 디코더 구조를 활용할 수 있다.
이하에서는 뉴럴 네트워크 파라미터의 시그널링(signaling)에 대해 설명한다.
오토인코더는 송신기 및 수신기가 모두 뉴럴 네트워크로 구성되어 있다. 뉴럴 네트워크는 트레이닝을 통해서 파라미터를 최적화한 후 동작하기 때문에, 트레이닝이 수행되는 장치로부터 송신기 또는 수신기로 뉴럴 네트워크 파라미터에 대한 정보를 시그널링할 수 있다. 하향링크의 경우, 뉴럴 네트워크 인코더는 기지국 측면에서, 뉴럴 네트워크 디코더는 단말 측면에서 동작한다. 상향링크의 경우, 뉴럴 네트워크 인코더는 단말 측면에서, 뉴럴 네트워크 디코더는 기지국 측면에서 동작한다.
이하에서는 본 명세서에서 제안하는 뉴럴 네트워크의 트레이닝의 일 실시예를 설명한다.
트레이닝이 뉴럴 네트워크 인코더, 뉴럴 네트워크 디코더가 아닌 다른 장치에서 수행되는 경우, 트레이닝이 수행되는 장치로부터 뉴럴 네트워크 인코더가 동작하는 송신기, 뉴럴 네트워크 디코더가 동작하는 수신기로 해당 뉴럴 네트워크 파라미터가 전송될 수 있다. 트레이닝을 수행하는 장치가 기지국 외부인 경우, 뉴럴 네트워크 파라미터를 기지국 또는 단말에 전송될 수 있다.
일례로, 뉴럴 네트워크 인코더, 뉴럴 네트워크 디코더의 파라미터를 기지국에 전송할 수 있다. 이 때, 셀룰러 네트워크뿐만 아니라 기존의 인터넷 망 등을 이용할 수 있다. 기지국이 뉴럴 네트워크 인코더, 뉴럴 네트워크 디코더의 파라미터에 대한 정보를 획득한 후, 기지국은 뉴럴 네트워크 인코더 또는 뉴럴 네트워크 디코더에 대한 정보를 셀룰러 네트워크를 이용하여 단말에 전송할 수 있다. 즉, 하향링크 데이터 전송을 위해 기지국은 뉴럴 네트워크 디코더의 파라미터 정보를 단말로 전송하고, 상향링크 데이터 전송을 위해 기지국은 뉴럴 네트워크 인코더의 파라미터 정보를 단말로 전송할 수 있다. 여기서, 단말에게 파라미터 정보를 전송할 때, RRC/MAC/L1 시그널링을 이용할 수 있다.
도 44는 뉴럴 네트워크의 트레이닝 방법의 일례를 도시한 것이다.
도 44를 참고하면, 뉴럴 네트워크에 대한 트레이닝은 기지국이나 단말이 수행하지 않고, 트레이닝 장치에서 별도로 수행될 수 있다. 여기서, 도 44의 실선 방향과 같이, 트레이닝 장치가 트레이닝을 완료하면, 트레이닝 장치는 뉴럴 네트워크 인코더 및 뉴럴 네트워크 디코더에 대한 파라미터 정보를 기지국 및 단말에게 모두 전송할 수 있다. 또는, 도 44의 점선 방향과 같이, 트레이닝 장치가 트레이닝을 완료하면, 트레이닝 장치는 뉴럴 네트워크 인코더 및 뉴럴 네트워크 디코더에 대한 파라미터 정보를 기지국으로 전송하고, 기지국은 단말에게 상기 파라미터 중 단말에게 필요한 정보를 전송할 수 있다.
이하에서는 본 명세서에서 제안하는 뉴럴 네트워크의 트레이닝의 다른 실시예를 설명한다.
트레이닝이 뉴럴 네트워크 인코더, 뉴럴 네트워크 디코더로 동작하는 기지국 또는 단말에서 수행되는 경우, 단말 또는 기지국으로 뉴럴 네트워크 파라미터에 대한 정보를 전송해야 한다.
예를 들어, 기지국에서 트레이닝을 수행하는 경우, 하향링크 데이터 전송을 위해 기지국은 뉴럴 네트워크 디코더의 파라미터 정보를 단말로 전송하고, 상향링크 데이터 전송을 위해 기지국은 뉴럴 네트워크 인코더의 파라미터 정보를 단말로 전송한다. 단말로 전송할 때, RRC/MAC/L1 시그널링을 이용할 수 있다.
즉, 기지국이 트레이닝을 수행하는 경우, 하향링크 데이터 관점에서 단말은 하향링크 데이터에 대한 디코딩을 수행하므로 기지국은 뉴럴 네트워크 디코더와 관련된 파라미터 정보를 단말에게 전송하고, 상향링크 데이터 관점에서 단말은 상향링크 데이터에 대한 인코딩을 수행하므로 기지국은 뉴럴 네트워크 인코더와 관련된 파라미터 정보를 단말에게 전송할 수 있다.
또한, 단말에서 트레이닝을 수행하는 경우, 하향링크 데이터 전송을 위해 단말은 뉴럴 네트워크 인코더의 파라미터 정보를 기지국으로 전송하고, 상향링크 데이터 전송을 위해 단말은 뉴럴 네트워크 디코더의 파라미터 정보를 기지국으로 전송한다. 기지국으로 전송할 때, RRC/MAC/L1 시그널링을 이용할 수 있다.
즉, 단말이 트레이닝을 수행하는 경우, 하향링크 데이터 관점에서 기지국은 하향링크 데이터에 대한 인코딩을 수행하므로 단말은 뉴럴 네트워크 인코더와 관련된 파라미터 정보를 기지국으로 전송하고, 상향링크 데이터 관점에서 기지국은 상향링크 데이터에 대한 디코딩을 수행하므로 단말은 뉴럴 네트워크 디코더와 관련된 파라미터 정보를 기지국으로 전송할 수 있다.
도 45는 뉴럴 네트워크의 트레이닝 방법의 다른 일례의 순서도를 도시한 것이다.
도 45를 참고하면, 기지국은 트레이닝을 수행하여 획득한 파라미터 정보를 생성한다(S4510).
이후, 기지국은 단말에게 상기 파라미터 정보를 전송한다(S4520). 여기서, 상기 파라미터 정보는 하향링크 데이터에 대한 뉴럴 네트워크 디코더와 관련된 제1 파라미터 및 상향링크 데이터에 대한 뉴럴 네트워크 인코더와 관련된 제2 파라미터를 알려줄 수 있다.
이하에서는 뉴럴 네트워크 파라미터의 시그널링 방법에 대해 설명한다.
전술한 뉴럴 네트워크 인코더 및 뉴럴 네트워크 디코더의 구조에서는 뉴럴 네트워크의 종류 및 계층 수, 계층 별 활성 함수, 손실 함수, 최적화 방법, 러닝 비율(learning rate), 트레이닝 데이터 집합(training data set), 테스트 데이터 집합(test data set) 등에 대한 정보를 전송할 수 있다. 또한, 해당 계층 별로 뉴럴 네트워크 인코더 또는 뉴럴 네트워크 디코더의 가중치를 전송할 수 있다. 이 때, 전술한 정보 이외에도 뉴럴 네트워크와 관련된 정보를 함께 전송할 수 있다.
예를 들어, CNN의 경우 컨벌루션 계층의 차원(dimension), 커널 크기(kernel size), 딜레이션, 스트라이드, 패딩, 입력 채널 수, 출력 채널 수에 대한 정보를 전송할 수 있다. 또한, RNN의 경우 RNN 종류, 입력 모양(input shape), 출력 모양(output shape), 최초 입력 상태(initial input state), 출력 히든 상태(output hidden state) 등에 대한 정보를 전송할 수 있다.
트레이닝 데이터 집합, 테스트 데이터 집합을 생성할 때, 송신기와 수신기에서 동일한 최초 상태로 동작하는 의사 랜덤 시퀀스 생성기(pseudo random sequence generator)를 이용할 수 있다. 예를 들어, 동일한 생성기 다항식(generator polinomial)을 갖는 골드 시퀀스 생성기(gold sequence generator)를 동일한 최초 상태로 초기화한 후, 생성된 시퀀스의 동일한 부분을 트레이닝 데이터 집합 및 테스트 데이터 집합으로 설정할 수 있다.
뉴럴 네트워크 인코더 또는 뉴럴 네트워크 디코더의 가중치 등의 정보를 전송하는 대신에 표준 규격 등으로 사전에 정의하여 시그널링 부담을 감소시킬 수 있다. 이 경우, 뉴럴 네트워크 인코더, 뉴럴 네트워크 디코더를 모두 사전에 정의할 수 있다.
다른 방법으로, 뉴럴 네트워크 인코더의 가중치만이 규격 등으로 사전에 정의되어 시그널링되고, 뉴럴 네트워크 디코더의 가중치는 수신기에서 트레이닝을 통해서 획득하도록 할 수 있다. 이 때, 뉴럴 네트워크 디코더의 최소 성능을 얻을 수 있는 뉴럴 네트워크 디코더의 파라미터를 수신기로 전송할 수 있다. 이와 같은 방식은 수신기가 단말인 경우, 단말의 구현 시에 뉴럴 네트워크 디코더의 파라미터를 최적화하여 더 좋은 성능을 얻는 것을 기대할 수 있다. 또는, 뉴럴 네트워크 인코더의 가중치 값이 시그널링될 수도 있다.
다시 말하면, 뉴럴 네트워크의 종류 및 상기 종류에 기반한 파라미터를 모두 사전에 정의할 수도 있고, 일부만 사전에 정의하고 나머지는 트레이닝, 시그널링 등을 통하여 획득할 수도 있다.
본 명세서에 기재된 청구항들은 다양한 방식으로 조합될 수 있다. 예를 들어, 본 명세서의 방법 청구항의 기술적 특징이 조합되어 장치로 구현될 수 있고, 본 명세서의 장치 청구항의 기술적 특징이 조합되어 방법으로 구현될 수 있다. 또한, 본 명세서의 방법 청구항의 기술적 특징과 장치 청구항의 기술적 특징이 조합되어 장치로 구현될 수 있고, 본 명세서의 방법 청구항의 기술적 특징과 장치 청구항의 기술적 특징이 조합되어 방법으로 구현될 수 있다.
본 명세서에서 제안하는 방법들은 단말 이외에도, 적어도 하나의 프로세서(processor)에 의해 실행됨을 기초로 하는 명령어(instruction)를 포함하는 적어도 하나의 컴퓨터로 읽을 수 있는 기록 매체(computer readable medium) 및 하나 이상의 프로세서 및 상기 하나 이상의 프로세서에 의해 실행 가능하게 연결되고, 및 명령들을 저장하는 하나 이상의 메모리를 포함하되, 상기 하나 이상의 프로세서는 상기 명령어들을 실행하여 본 명세서에서 제안하는 방법들을 수행하는, 단말을 제어하도록 설정된 장치(apparatus)에 의해서도 수행될 수 있다. 또한, 본 명세서에서 제안하는 방법들에 따르면, 단말이 수행하는 동작에 대응되는 기지국에 의한 동작이 고려될 수 있음은 자명하다.
이하에서는 본 개시가 적용되는 통신 시스템의 예를 설명한다.
이로 제한되는 것은 아니지만, 본 문서에 개시된 본 개시의 다양한 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 기기들간에 무선 통신/연결(예, 5G)을 필요로 하는 다양한 분야에 적용될 수 있다.
이하, 도면을 참조하여 보다 구체적으로 예시한다. 이하의 도면/설명에서 동일한 도면 부호는 다르게 기술하지 않는 한, 동일하거나 대응되는 하드웨어 블록, 소프트웨어 블록 또는 기능 블록을 예시할 수 있다.
도 46은 본 개시에 적용되는 통신 시스템(1)을 예시한다.
도 46을 참조하면, 본 개시에 적용되는 통신 시스템(1)은 무선 기기, 기지국 및 네트워크를 포함한다. 여기서, 무선 기기는 무선 접속 기술(예, 5G NR(New RAT), LTE(Long Term Evolution))을 이용하여 통신을 수행하는 기기를 의미하며, 통신/무선/5G 기기로 지칭될 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(100a), 차량(100b-1, 100b-2), XR(eXtended Reality) 기기(100c), 휴대 기기(Hand-held device)(100d), 가전(100e), IoT(Internet of Thing) 기기(100f), AI기기/서버(400)를 포함할 수 있다. 예를 들어, 차량은 무선 통신 기능이 구비된 차량, 자율 주행 차량, 차량간 통신을 수행할 수 있는 차량 등을 포함할 수 있다. 여기서, 차량은 UAV(Unmanned Aerial Vehicle)(예, 드론)를 포함할 수 있다. XR 기기는 AR(Augmented Reality)/VR(Virtual Reality)/MR(Mixed Reality) 기기를 포함하며, HMD(Head-Mounted Device), 차량에 구비된 HUD(Head-Up Display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등의 형태로 구현될 수 있다. 휴대 기기는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 컴퓨터(예, 노트북 등) 등을 포함할 수 있다. 가전은 TV, 냉장고, 세탁기 등을 포함할 수 있다. IoT 기기는 센서, 스마트미터 등을 포함할 수 있다. 예를 들어, 기지국, 네트워크는 무선 기기로도 구현될 수 있으며, 특정 무선 기기(200a)는 다른 무선 기기에게 기지국/네트워크 노드로 동작할 수도 있다.
무선 기기(100a~100f)는 기지국(200)을 통해 네트워크(300)와 연결될 수 있다. 무선 기기(100a~100f)에는 AI(Artificial Intelligence) 기술이 적용될 수 있으며, 무선 기기(100a~100f)는 네트워크(300)를 통해 AI 서버(400)와 연결될 수 있다. 네트워크(300)는 3G 네트워크, 4G(예, LTE) 네트워크 또는 5G(예, NR) 네트워크 등을 이용하여 구성될 수 있다. 무선 기기(100a~100f)는 기지국(200)/네트워크(300)를 통해 서로 통신할 수도 있지만, 기지국/네트워크를 통하지 않고 직접 통신(e.g. 사이드링크 통신(sidelink communication))할 수도 있다. 예를 들어, 차량들(100b-1, 100b-2)은 직접 통신(e.g. V2V(Vehicle to Vehicle)/V2X(Vehicle to everything) communication)을 할 수 있다. 또한, IoT 기기(예, 센서)는 다른 IoT 기기(예, 센서) 또는 다른 무선 기기(100a~100f)와 직접 통신을 할 수 있다.
무선 기기(100a~100f)/기지국(200), 기지국(200)/기지국(200) 간에는 무선 통신/연결(150a, 150b, 150c)이 이뤄질 수 있다. 여기서, 무선 통신/연결은 상향/하향링크 통신(150a)과 사이드링크 통신(150b)(또는, D2D 통신), 기지국간 통신(150c)(e.g. relay, IAB(Integrated Access Backhaul)과 같은 다양한 무선 접속 기술(예, 5G NR)을 통해 이뤄질 수 있다. 무선 통신/연결(150a, 150b, 150c)을 통해 무선 기기와 기지국/무선 기기, 기지국과 기지국은 서로 무선 신호를 송신/수신할 수 있다. 예를 들어, 무선 통신/연결(150a, 150b, 150c)은 다양한 물리 채널을 통해 신호를 송신/수신할 수 있다. 이를 위해, 본 개시의 다양한 제안들에 기반하여, 무선 신호의 송신/수신을 위한 다양한 구성정보 설정 과정, 다양한 신호 처리 과정(예, 채널 인코딩/디코딩, 변조/복조, 자원 매핑/디매핑 등), 자원 할당 과정 등 중 적어도 일부가 수행될 수 있다.
도 47은 본 개시에 적용될 수 있는 무선 기기를 예시한다.
도 47을 참조하면, 제1 무선 기기(100)와 제2 무선 기기(200)는 다양한 무선 접속 기술(예, LTE, NR)을 통해 무선 신호를 송수신할 수 있다. 여기서, {제1 무선 기기(100), 제2 무선 기기(200)}은 도 46의 {무선 기기(100x), 기지국(200)} 및/또는 {무선 기기(100x), 무선 기기(100x)}에 대응할 수 있다.
제1 무선 기기(100)는 하나 이상의 프로세서(102) 및 하나 이상의 메모리(104)를 포함하며, 추가적으로 하나 이상의 송수신기(106) 및/또는 하나 이상의 안테나(108)을 더 포함할 수 있다. 프로세서(102)는 메모리(104) 및/또는 송수신기(106)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(102)는 메모리(104) 내의 정보를 처리하여 제1 정보/신호를 생성한 뒤, 송수신기(106)을 통해 제1 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(102)는 송수신기(106)를 통해 제2 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제2 정보/신호의 신호 처리로부터 얻은 정보를 메모리(104)에 저장할 수 있다. 메모리(104)는 프로세서(102)와 연결될 수 있고, 프로세서(102)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(104)는 프로세서(102)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(102)와 메모리(104)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(106)는 프로세서(102)와 연결될 수 있고, 하나 이상의 안테나(108)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(106)는 송신기 및/또는 수신기를 포함할 수 있다. 송수신기(106)는 RF(Radio Frequency) 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
제2 무선 기기(200)는 하나 이상의 프로세서(202), 하나 이상의 메모리(204)를 포함하며, 추가적으로 하나 이상의 송수신기(206) 및/또는 하나 이상의 안테나(208)를 더 포함할 수 있다. 프로세서(202)는 메모리(204) 및/또는 송수신기(206)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202)는 메모리(204) 내의 정보를 처리하여 제3 정보/신호를 생성한 뒤, 송수신기(206)를 통해 제3 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202)는 송수신기(206)를 통해 제4 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제4 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204)에 저장할 수 있다. 메모리(204)는 프로세서(202)와 연결될 수 있고, 프로세서(202)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204)는 프로세서(202)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202)와 메모리(204)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206)는 프로세서(202)와 연결될 수 있고, 하나 이상의 안테나(208)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206)는 송신기 및/또는 수신기를 포함할 수 있다 송수신기(206)는 RF 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
이하, 무선 기기(100, 200)의 하드웨어 요소에 대해 보다 구체적으로 설명한다. 이로 제한되는 것은 아니지만, 하나 이상의 프로토콜 계층이 하나 이상의 프로세서(102, 202)에 의해 구현될 수 있다. 예를 들어, 하나 이상의 프로세서(102, 202)는 하나 이상의 계층(예, PHY, MAC, RLC, PDCP, RRC, SDAP와 같은 기능적 계층)을 구현할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 하나 이상의 PDU(Protocol Data Unit) 및/또는 하나 이상의 SDU(Service Data Unit)를 생성할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 메시지, 제어정보, 데이터 또는 정보를 생성할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 포함하는 신호(예, 베이스밴드 신호)를 생성하여, 하나 이상의 송수신기(106, 206)에게 제공할 수 있다. 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)로부터 신호(예, 베이스밴드 신호)를 수신할 수 있고, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 획득할 수 있다.
하나 이상의 프로세서(102, 202)는 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 마이크로 컴퓨터로 지칭될 수 있다. 하나 이상의 프로세서(102, 202)는 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합에 의해 구현될 수 있다. 일 예로, 하나 이상의 ASIC(Application Specific Integrated Circuit), 하나 이상의 DSP(Digital Signal Processor), 하나 이상의 DSPD(Digital Signal Processing Device), 하나 이상의 PLD(Programmable Logic Device) 또는 하나 이상의 FPGA(Field Programmable Gate Arrays)가 하나 이상의 프로세서(102, 202)에 포함될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있고, 펌웨어 또는 소프트웨어는 모듈, 절차, 기능 등을 포함하도록 구현될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 수행하도록 설정된 펌웨어 또는 소프트웨어는 하나 이상의 프로세서(102, 202)에 포함되거나, 하나 이상의 메모리(104, 204)에 저장되어 하나 이상의 프로세서(102, 202)에 의해 구동될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 코드, 명령어 및/또는 명령어의 집합 형태로 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있다.
하나 이상의 메모리(104, 204)는 하나 이상의 프로세서(102, 202)와 연결될 수 있고, 다양한 형태의 데이터, 신호, 메시지, 정보, 프로그램, 코드, 지시 및/또는 명령을 저장할 수 있다. 하나 이상의 메모리(104, 204)는 ROM, RAM, EPROM, 플래시 메모리, 하드 드라이브, 레지스터, 캐쉬 메모리, 컴퓨터 판독 저장 매체 및/또는 이들의 조합으로 구성될 수 있다. 하나 이상의 메모리(104, 204)는 하나 이상의 프로세서(102, 202)의 내부 및/또는 외부에 위치할 수 있다. 또한, 하나 이상의 메모리(104, 204)는 유선 또는 무선 연결과 같은 다양한 기술을 통해 하나 이상의 프로세서(102, 202)와 연결될 수 있다.
하나 이상의 송수신기(106, 206)는 하나 이상의 다른 장치에게 본 문서의 방법들 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 전송할 수 있다. 하나 이상의 송수신기(106, 206)는 하나 이상의 다른 장치로부터 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 수신할 수 있다. 예를 들어, 하나 이상의 송수신기(106, 206)는 하나 이상의 프로세서(102, 202)와 연결될 수 있고, 무선 신호를 송수신할 수 있다. 예를 들어, 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)가 하나 이상의 다른 장치에게 사용자 데이터, 제어 정보 또는 무선 신호를 전송하도록 제어할 수 있다. 또한, 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)가 하나 이상의 다른 장치로부터 사용자 데이터, 제어 정보 또는 무선 신호를 수신하도록 제어할 수 있다. 또한, 하나 이상의 송수신기(106, 206)는 하나 이상의 안테나(108, 208)와 연결될 수 있고, 하나 이상의 송수신기(106, 206)는 하나 이상의 안테나(108, 208)를 통해 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 송수신하도록 설정될 수 있다. 본 문서에서, 하나 이상의 안테나는 복수의 물리 안테나이거나, 복수의 논리 안테나(예, 안테나 포트)일 수 있다. 하나 이상의 송수신기(106, 206)는 수신된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 하나 이상의 프로세서(102, 202)를 이용하여 처리하기 위해, 수신된 무선 신호/채널 등을 RF 밴드 신호에서 베이스밴드 신호로 변환(Convert)할 수 있다. 하나 이상의 송수신기(106, 206)는 하나 이상의 프로세서(102, 202)를 이용하여 처리된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 베이스밴드 신호에서 RF 밴드 신호로 변환할 수 있다. 이를 위하여, 하나 이상의 송수신기(106, 206)는 (아날로그) 오실레이터 및/또는 필터를 포함할 수 있다.
도 48은 전송 신호를 위한 신호 처리 회로를 예시한다.
도 48을 참조하면, 신호 처리 회로(1000)는 스크램블러(1010), 변조기(1020), 레이어 매퍼(1030), 프리코더(1040), 자원 매퍼(1050), 신호 생성기(1060)를 포함할 수 있다. 이로 제한되는 것은 아니지만, 도 48의 동작/기능은 도 47의 프로세서(102, 202) 및/또는 송수신기(106, 206)에서 수행될 수 있다. 도 48의 하드웨어 요소는 도 47의 프로세서(102, 202) 및/또는 송수신기(106, 206)에서 구현될 수 있다. 예를 들어, 블록 1010~1060은 도 47의 프로세서(102, 202)에서 구현될 수 있다. 또한, 블록 1010~1050은 도 47의 프로세서(102, 202)에서 구현되고, 블록 1060은 도 47의 송수신기(106, 206)에서 구현될 수 있다.
코드워드는 도 48의 신호 처리 회로(1000)를 거쳐 무선 신호로 변환될 수 있다. 여기서, 코드워드는 정보블록의 부호화된 비트 시퀀스이다. 정보블록은 전송블록(예, UL-SCH 전송블록, DL-SCH 전송블록)을 포함할 수 있다. 무선 신호는 다양한 물리 채널(예, PUSCH, PDSCH)을 통해 전송될 수 있다.
구체적으로, 코드워드는 스크램블러(1010)에 의해 스크램블된 비트 시퀀스로 변환될 수 있다. 스크램블에 사용되는 스크램블 시퀀스는 초기화 값에 기반하여 생성되며, 초기화 값은 무선 기기의 ID 정보 등이 포함될 수 있다. 스크램블된 비트 시퀀스는 변조기(1020)에 의해 변조 심볼 시퀀스로 변조될 수 있다. 변조 방식은 pi/2-BPSK(pi/2-Binary Phase Shift Keying), m-PSK(m-Phase Shift Keying), m-QAM(m-Quadrature Amplitude Modulation) 등을 포함할 수 있다. 복소 변조 심볼 시퀀스는 레이어 매퍼(1030)에 의해 하나 이상의 전송 레이어로 매핑될 수 있다. 각 전송 레이어의 변조 심볼들은 프리코더(1040)에 의해 해당 안테나 포트(들)로 매핑될 수 있다(프리코딩). 프리코더(1040)의 출력 z는 레이어 매퍼(1030)의 출력 y를 N*M의 프리코딩 행렬 W와 곱해 얻을 수 있다. 여기서, N은 안테나 포트의 개수, M은 전송 레이어의 개수이다. 여기서, 프리코더(1040)는 복소 변조 심볼들에 대한 트랜스폼(transform) 프리코딩(예, DFT 변환)을 수행한 이후에 프리코딩을 수행할 수 있다. 또한, 프리코더(1040)는 트랜스폼 프리코딩을 수행하지 않고 프리코딩을 수행할 수 있다.
자원 매퍼(1050)는 각 안테나 포트의 변조 심볼들을 시간-주파수 자원에 매핑할 수 있다. 시간-주파수 자원은 시간 도메인에서 복수의 심볼(예, CP-OFDMA 심볼, DFT-s-OFDMA 심볼)을 포함하고, 주파수 도메인에서 복수의 부반송파를 포함할 수 있다. 신호 생성기(1060)는 매핑된 변조 심볼들로부터 무선 신호를 생성하며, 생성된 무선 신호는 각 안테나를 통해 다른 기기로 전송될 수 있다. 이를 위해, 신호 생성기(1060)는 IFFT(Inverse Fast Fourier Transform) 모듈 및 CP(Cyclic Prefix) 삽입기, DAC(Digital-to-Analog Converter), 주파수 상향 변환기(frequency uplink converter) 등을 포함할 수 있다.
무선 기기에서 수신 신호를 위한 신호 처리 과정은 도 48의 신호 처리 과정(1010~1060)의 역으로 구성될 수 있다. 예를 들어, 무선 기기(예, 도 47의 100, 200)는 안테나 포트/송수신기를 통해 외부로부터 무선 신호를 수신할 수 있다. 수신된 무선 신호는 신호 복원기를 통해 베이스밴드 신호로 변환될 수 있다. 이를 위해, 신호 복원기는 주파수 하향 변환기(frequency downlink converter), ADC(analog-to-digital converter), CP 제거기, FFT(Fast Fourier Transform) 모듈을 포함할 수 있다. 이후, 베이스밴드 신호는 자원 디-매퍼 과정, 포스트코딩(postcoding) 과정, 복조 과정 및 디-스크램블 과정을 거쳐 코드워드로 복원될 수 있다. 코드워드는 복호(decoding)를 거쳐 원래의 정보블록으로 복원될 수 있다. 따라서, 수신 신호를 위한 신호 처리 회로(미도시)는 신호 복원기, 자원 디-매퍼, 포스트코더, 복조기, 디-스크램블러 및 복호기를 포함할 수 있다.
도 49는 본 개시에 적용되는 무선 기기의 다른 예를 나타낸다. 무선 기기는 사용-예/서비스에 따라 다양한 형태로 구현될 수 있다(도 46 참조).
도 49를 참조하면, 무선 기기(100, 200)는 도 47의 무선 기기(100,200)에 대응하며, 다양한 요소(element), 성분(component), 유닛/부(unit), 및/또는 모듈(module)로 구성될 수 있다. 예를 들어, 무선 기기(100, 200)는 통신부(110), 제어부(120), 메모리부(130) 및 추가 요소(140)를 포함할 수 있다. 통신부는 통신 회로(112) 및 송수신기(들)(114)을 포함할 수 있다. 예를 들어, 통신 회로(112)는 도 47의 하나 이상의 프로세서(102,202) 및/또는 하나 이상의 메모리(104,204) 를 포함할 수 있다. 예를 들어, 송수신기(들)(114)는 도 47의 하나 이상의 송수신기(106,206) 및/또는 하나 이상의 안테나(108,208)을 포함할 수 있다. 제어부(120)는 통신부(110), 메모리부(130) 및 추가 요소(140)와 전기적으로 연결되며 무선 기기의 제반 동작을 제어한다. 예를 들어, 제어부(120)는 메모리부(130)에 저장된 프로그램/코드/명령/정보에 기반하여 무선 기기의 전기적/기계적 동작을 제어할 수 있다. 또한, 제어부(120)는 메모리부(130)에 저장된 정보를 통신부(110)을 통해 외부(예, 다른 통신 기기)로 무선/유선 인터페이스를 통해 전송하거나, 통신부(110)를 통해 외부(예, 다른 통신 기기)로부터 무선/유선 인터페이스를 통해 수신된 정보를 메모리부(130)에 저장할 수 있다.
추가 요소(140)는 무선 기기의 종류에 따라 다양하게 구성될 수 있다. 예를 들어, 추가 요소(140)는 파워 유닛/배터리, 입출력부(I/O unit), 구동부 및 컴퓨팅부 중 적어도 하나를 포함할 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(도 46, 100a), 차량(도 46, 100b-1, 100b-2), XR 기기(도 46, 100c), 휴대 기기(도 46, 100d), 가전(도 46, 100e), IoT 기기(도 46, 100f), 디지털 방송용 단말, 홀로그램 장치, 공공 안전 장치, MTC 장치, 의료 장치, 핀테크 장치(또는 금융 장치), 보안 장치, 기후/환경 장치, AI 서버/기기(도 46, 400), 기지국(도 46, 200), 네트워크 노드 등의 형태로 구현될 수 있다. 무선 기기는 사용-예/서비스에 따라 이동 가능하거나 고정된 장소에서 사용될 수 있다.
도 49에서 무선 기기(100, 200) 내의 다양한 요소, 성분, 유닛/부, 및/또는 모듈은 전체가 유선 인터페이스를 통해 상호 연결되거나, 적어도 일부가 통신부(110)를 통해 무선으로 연결될 수 있다. 예를 들어, 무선 기기(100, 200) 내에서 제어부(120)와 통신부(110)는 유선으로 연결되며, 제어부(120)와 제1 유닛(예, 130, 140)은 통신부(110)를 통해 무선으로 연결될 수 있다. 또한, 무선 기기(100, 200) 내의 각 요소, 성분, 유닛/부, 및/또는 모듈은 하나 이상의 요소를 더 포함할 수 있다. 예를 들어, 제어부(120)는 하나 이상의 프로세서 집합으로 구성될 수 있다. 예를 들어, 제어부(120)는 통신 제어 프로세서, 어플리케이션 프로세서(Application processor), ECU(Electronic Control Unit), 그래픽 처리 프로세서, 메모리 제어 프로세서 등의 집합으로 구성될 수 있다. 다른 예로, 메모리부(130)는 RAM(Random Access Memory), DRAM(Dynamic RAM), ROM(Read Only Memory), 플래시 메모리(flash memory), 휘발성 메모리(volatile memory), 비-휘발성 메모리(non-volatile memory) 및/또는 이들의 조합으로 구성될 수 있다.
이하, 도 49의 구현 예에 대해 도면을 참조하여 보다 자세히 설명한다.
도 50은 본 개시에 적용되는 휴대 기기를 예시한다. 휴대 기기는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 휴대용 컴퓨터(예, 노트북 등)을 포함할 수 있다. 휴대 기기는 MS(Mobile Station), UT(user terminal), MSS(Mobile Subscriber Station), SS(Subscriber Station), AMS(Advanced Mobile Station) 또는 WT(Wireless terminal)로 지칭될 수 있다.
도 50을 참조하면, 휴대 기기(100)는 안테나부(108), 통신부(110), 제어부(120), 메모리부(130), 전원공급부(140a), 인터페이스부(140b) 및 입출력부(140c)를 포함할 수 있다. 안테나부(108)는 통신부(110)의 일부로 구성될 수 있다. 블록 110~130/140a~140c는 각각 도 49의 블록 110~130/140에 대응한다.
통신부(110)는 다른 무선 기기, 기지국들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(120)는 휴대 기기(100)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(120)는 AP(Application Processor)를 포함할 수 있다. 메모리부(130)는 휴대 기기(100)의 구동에 필요한 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 또한, 메모리부(130)는 입/출력되는 데이터/정보 등을 저장할 수 있다. 전원공급부(140a)는 휴대 기기(100)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다. 인터페이스부(140b)는 휴대 기기(100)와 다른 외부 기기의 연결을 지원할 수 있다. 인터페이스부(140b)는 외부 기기와의 연결을 위한 다양한 포트(예, 오디오 입/출력 포트, 비디오 입/출력 포트)를 포함할 수 있다. 입출력부(140c)는 영상 정보/신호, 오디오 정보/신호, 데이터, 및/또는 사용자로부터 입력되는 정보를 입력 받거나 출력할 수 있다. 입출력부(140c)는 카메라, 마이크로폰, 사용자 입력부, 디스플레이부(140d), 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다.
일 예로, 데이터 통신의 경우, 입출력부(140c)는 사용자로부터 입력된 정보/신호(예, 터치, 문자, 음성, 이미지, 비디오)를 획득하며, 획득된 정보/신호는 메모리부(130)에 저장될 수 있다. 통신부(110)는 메모리에 저장된 정보/신호를 무선 신호로 변환하고, 변환된 무선 신호를 다른 무선 기기에게 직접 전송하거나 기지국에게 전송할 수 있다. 또한, 통신부(110)는 다른 무선 기기 또는 기지국으로부터 무선 신호를 수신한 뒤, 수신된 무선 신호를 원래의 정보/신호로 복원할 수 있다. 복원된 정보/신호는 메모리부(130)에 저장된 뒤, 입출력부(140c)를 통해 다양한 형태(예, 문자, 음성, 이미지, 비디오, 헵틱)로 출력될 수 있다.
도 51은 본 개시에 적용되는 차량 또는 자율 주행 차량을 예시한다. 차량 또는 자율 주행 차량은 이동형 로봇, 차량, 기차, 유/무인 비행체(Aerial Vehicle, AV), 선박 등으로 구현될 수 있다.
도 51을 참조하면, 차량 또는 자율 주행 차량(100)은 안테나부(108), 통신부(110), 제어부(120), 구동부(140a), 전원공급부(140b), 센서부(140c) 및 자율 주행부(140d)를 포함할 수 있다. 안테나부(108)는 통신부(110)의 일부로 구성될 수 있다. 블록 110/130/140a~140d는 각각 도 49의 블록 110/130/140에 대응한다.
통신부(110)는 다른 차량, 기지국(e.g. 기지국, 노변 기지국(Road Side unit) 등), 서버 등의 외부 기기들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(120)는 차량 또는 자율 주행 차량(100)의 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(120)는 ECU(Electronic Control Unit)를 포함할 수 있다. 구동부(140a)는 차량 또는 자율 주행 차량(100)을 지상에서 주행하게 할 수 있다. 구동부(140a)는 엔진, 모터, 파워 트레인, 바퀴, 브레이크, 조향 장치 등을 포함할 수 있다. 전원공급부(140b)는 차량 또는 자율 주행 차량(100)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다. 센서부(140c)는 차량 상태, 주변 환경 정보, 사용자 정보 등을 얻을 수 있다. 센서부(140c)는 IMU(inertial measurement unit) 센서, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 스티어링 센서, 온도 센서, 습도 센서, 초음파 센서, 조도 센서, 페달 포지션 센서 등을 포함할 수 있다. 자율 주행부(140d)는 주행중인 차선을 유지하는 기술, 어댑티브 크루즈 컨트롤과 같이 속도를 자동으로 조절하는 기술, 정해진 경로를 따라 자동으로 주행하는 기술, 목적지가 설정되면 자동으로 경로를 설정하여 주행하는 기술 등을 구현할 수 있다.
일 예로, 통신부(110)는 외부 서버로부터 지도 데이터, 교통 정보 데이터 등을 수신할 수 있다. 자율 주행부(140d)는 획득된 데이터를 기반으로 자율 주행 경로와 드라이빙 플랜을 생성할 수 있다. 제어부(120)는 드라이빙 플랜에 따라 차량 또는 자율 주행 차량(100)이 자율 주행 경로를 따라 이동하도록 구동부(140a)를 제어할 수 있다(예, 속도/방향 조절). 자율 주행 도중에 통신부(110)는 외부 서버로부터 최신 교통 정보 데이터를 비/주기적으로 획득하며, 주변 차량으로부터 주변 교통 정보 데이터를 획득할 수 있다. 또한, 자율 주행 도중에 센서부(140c)는 차량 상태, 주변 환경 정보를 획득할 수 있다. 자율 주행부(140d)는 새로 획득된 데이터/정보에 기반하여 자율 주행 경로와 드라이빙 플랜을 갱신할 수 있다. 통신부(110)는 차량 위치, 자율 주행 경로, 드라이빙 플랜 등에 관한 정보를 외부 서버로 전달할 수 있다. 외부 서버는 차량 또는 자율 주행 차량들로부터 수집된 정보에 기반하여, AI 기술 등을 이용하여 교통 정보 데이터를 미리 예측할 수 있고, 예측된 교통 정보 데이터를 차량 또는 자율 주행 차량들에게 제공할 수 있다.
도 52는 본 개시에 적용되는 차량을 예시한다. 차량은 운송수단, 기차, 비행체, 선박 등으로도 구현될 수 있다.
도 52를 참조하면, 차량(100)은 통신부(110), 제어부(120), 메모리부(130), 입출력부(140a) 및 위치 측정부(140b)를 포함할 수 있다. 여기서, 블록 110~130/140a~140b는 각각 도 49의 블록 110~130/140에 대응한다.
통신부(110)는 다른 차량, 또는 기지국 등의 외부 기기들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(120)는 차량(100)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 메모리부(130)는 차량(100)의 다양한 기능을 지원하는 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 입출력부(140a)는 메모리부(130) 내의 정보에 기반하여 AR/VR 오브젝트를 출력할 수 있다. 입출력부(140a)는 HUD를 포함할 수 있다. 위치 측정부(140b)는 차량(100)의 위치 정보를 획득할 수 있다. 위치 정보는 차량(100)의 절대 위치 정보, 주행선 내에서의 위치 정보, 가속도 정보, 주변 차량과의 위치 정보 등을 포함할 수 있다. 위치 측정부(140b)는 GPS 및 다양한 센서들을 포함할 수 있다.
일 예로, 차량(100)의 통신부(110)는 외부 서버로부터 지도 정보, 교통 정보 등을 수신하여 메모리부(130)에 저장할 수 있다. 위치 측정부(140b)는 GPS 및 다양한 센서를 통하여 차량 위치 정보를 획득하여 메모리부(130)에 저장할 수 있다. 제어부(120)는 지도 정보, 교통 정보 및 차량 위치 정보 등에 기반하여 가상 오브젝트를 생성하고, 입출력부(140a)는 생성된 가상 오브젝트를 차량 내 유리창에 표시할 수 있다(1410, 1420). 또한, 제어부(120)는 차량 위치 정보에 기반하여 차량(100)이 주행선 내에서 정상적으로 운행되고 있는지 판단할 수 있다. 차량(100)이 주행선을 비정상적으로 벗어나는 경우, 제어부(120)는 입출력부(140a)를 통해 차량 내 유리창에 경고를 표시할 수 있다. 또한, 제어부(120)는 통신부(110)를 통해 주변 차량들에게 주행 이상에 관한 경고 메세지를 방송할 수 있다. 상황에 따라, 제어부(120)는 통신부(110)를 통해 관계 기관에게 차량의 위치 정보와, 주행/차량 이상에 관한 정보를 전송할 수 있다.
도 53은 본 개시에 적용되는 XR 기기를 예시한다. XR 기기는 HMD, 차량에 구비된 HUD(Head-Up Display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등으로 구현될 수 있다.
도 53을 참조하면, XR 기기(100a)는 통신부(110), 제어부(120), 메모리부(130), 입출력부(140a), 센서부(140b) 및 전원공급부(140c)를 포함할 수 있다. 여기서, 블록 110~130/140a~140c은 각각 도 49의 블록 110~130/140에 대응한다.
통신부(110)는 다른 무선 기기, 휴대 기기, 또는 미디어 서버 등의 외부 기기들과 신호(예, 미디어 데이터, 제어 신호 등)를 송수신할 수 있다. 미디어 데이터는 영상, 이미지, 소리 등을 포함할 수 있다. 제어부(120)는 XR 기기(100a)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 예를 들어, 제어부(120)는 비디오/이미지 획득, (비디오/이미지) 인코딩, 메타데이터 생성 및 처리 등의 절차를 제어 및/또는 수행하도록 구성될 수 있다. 메모리부(130)는 XR 기기(100a)의 구동/XR 오브젝트의 생성에 필요한 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 입출력부(140a)는 외부로부터 제어 정보, 데이터 등을 획득하며, 생성된 XR 오브젝트를 출력할 수 있다. 입출력부(140a)는 카메라, 마이크로폰, 사용자 입력부, 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센서부(140b)는 XR 기기 상태, 주변 환경 정보, 사용자 정보 등을 얻을 수 있다. 센서부(140b)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰 및/또는 레이더 등을 포함할 수 있다. 전원공급부(140c)는 XR 기기(100a)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다.
일 예로, XR 기기(100a)의 메모리부(130)는 XR 오브젝트(예, AR/VR/MR 오브젝트)의 생성에 필요한 정보(예, 데이터 등)를 포함할 수 있다. 입출력부(140a)는 사용자로부터 XR 기기(100a)를 조작하는 명령을 회득할 수 있으며, 제어부(120)는 사용자의 구동 명령에 따라 XR 기기(100a)를 구동시킬 수 있다. 예를 들어, 사용자가 XR 기기(100a)를 통해 영화, 뉴스 등을 시청하려고 하는 경우, 제어부(120)는 통신부(130)를 통해 컨텐츠 요청 정보를 다른 기기(예, 휴대 기기(100b)) 또는 미디어 서버에 전송할 수 있다. 통신부(130)는 다른 기기(예, 휴대 기기(100b)) 또는 미디어 서버로부터 영화, 뉴스 등의 컨텐츠를 메모리부(130)로 다운로드/스트리밍 받을 수 있다. 제어부(120)는 컨텐츠에 대해 비디오/이미지 획득, (비디오/이미지) 인코딩, 메타데이터 생성/처리 등의 절차를 제어 및/또는 수행하며, 입출력부(140a)/센서부(140b)를 통해 획득한 주변 공간 또는 현실 오브젝트에 대한 정보에 기반하여 XR 오브젝트를 생성/출력할 수 있다.
또한, XR 기기(100a)는 통신부(110)를 통해 휴대 기기(100b)와 무선으로 연결되며, XR 기기(100a)의 동작은 휴대 기기(100b)에 의해 제어될 수 있다. 예를 들어, 휴대 기기(100b)는 XR 기기(100a)에 대한 콘트롤러로 동작할 수 있다. 이를 위해, XR 기기(100a)는 휴대 기기(100b)의 3차원 위치 정보를 획득한 뒤, 휴대 기기(100b)에 대응하는 XR 개체를 생성하여 출력할 수 있다.
도 54는 본 개시에 적용되는 로봇을 예시한다. 로봇은 사용 목적이나 분야에 따라 산업용, 의료용, 가정용, 군사용 등으로 분류될 수 있다.
도 54를 참조하면, 로봇(100)은 통신부(110), 제어부(120), 메모리부(130), 입출력부(140a), 센서부(140b) 및 구동부(140c)를 포함할 수 있다. 여기서, 블록 110~130/140a~140c은 각각 도 49의 블록 110~130/140에 대응한다.
통신부(110)는 다른 무선 기기, 다른 로봇, 또는 제어 서버 등의 외부 기기들과 신호(예, 구동 정보, 제어 신호 등)를 송수신할 수 있다. 제어부(120)는 로봇(100)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 메모리부(130)는 로봇(100)의 다양한 기능을 지원하는 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 입출력부(140a)는 로봇(100)의 외부로부터 정보를 획득하며, 로봇(100)의 외부로 정보를 출력할 수 있다. 입출력부(140a)는 카메라, 마이크로폰, 사용자 입력부, 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센서부(140b)는 로봇(100)의 내부 정보, 주변 환경 정보, 사용자 정보 등을 얻을 수 있다. 센서부(140b)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 레이더 등을 포함할 수 있다. 구동부(140c)는 로봇 관절을 움직이는 등의 다양한 물리적 동작을 수행할 수 있다. 또한, 구동부(140c)는 로봇(100)을 지상에서 주행하거나 공중에서 비행하게 할 수 있다. 구동부(140c)는 액츄에이터, 모터, 바퀴, 브레이크, 프로펠러 등을 포함할 수 있다.
도 55는 본 개시에 적용되는 AI 기기를 예시한다. AI 기기는 TV, 프로젝터, 스마트폰, PC, 노트북, 디지털방송용 단말기, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), 라디오, 세탁기, 냉장고, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다.
도 55를 참조하면, AI 기기(100)는 통신부(110), 제어부(120), 메모리부(130), 입/출력부(140a/140b), 러닝 프로세서부(140c) 및 센서부(140d)를 포함할 수 있다. 블록 110~130/140a~140d는 각각 도 49의 블록 110~130/140에 대응한다.
통신부(110)는 유무선 통신 기술을 이용하여 다른 AI 기기(예, 도 46, 100x, 200, 400)나 AI 서버(예, 도 46의 400) 등의 외부 기기들과 유무선 신호(예, 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등)를 송수신할 수 있다. 이를 위해, 통신부(110)는 메모리부(130) 내의 정보를 외부 기기로 전송하거나, 외부 기기로부터 수신된 신호를 메모리부(130)로 전달할 수 있다.
제어부(120)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 기기(100)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 제어부(120)는 AI 기기(100)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다. 예를 들어, 제어부(120)는 러닝 프로세서부(140c) 또는 메모리부(130)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 기기(100)의 구성 요소들을 제어할 수 있다. 또한, 제어부(120)는 AI 장치(100)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리부(130) 또는 러닝 프로세서부(140c)에 저장하거나, AI 서버(도 46, 400) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.
메모리부(130)는 AI 기기(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예를 들어, 메모리부(130)는 입력부(140a)로부터 얻은 데이터, 통신부(110)로부터 얻은 데이터, 러닝 프로세서부(140c)의 출력 데이터, 및 센싱부(140)로부터 얻은 데이터를 저장할 수 있다. 또한, 메모리부(130)는 제어부(120)의 동작/실행에 필요한 제어 정보 및/또는 소프트웨어 코드를 저장할 수 있다.
입력부(140a)는 AI 기기(100)의 외부로부터 다양한 종류의 데이터를 획득할 수 있다. 예를 들어, 입력부(140a)는 모델 학습을 위한 학습 데이터, 및 학습 모델이 적용될 입력 데이터 등을 획득할 수 있다. 입력부(140a)는 카메라, 마이크로폰 및/또는 사용자 입력부 등을 포함할 수 있다. 출력부(140b)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다. 출력부(140b)는 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센싱부(140)는 다양한 센서들을 이용하여 AI 기기(100)의 내부 정보, AI 기기(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 얻을 수 있다. 센싱부(140)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰 및/또는 레이더 등을 포함할 수 있다.
러닝 프로세서부(140c)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 러닝 프로세서부(140c)는 AI 서버(도 46, 400)의 러닝 프로세서부와 함께 AI 프로세싱을 수행할 수 있다. 러닝 프로세서부(140c)는 통신부(110)를 통해 외부 기기로부터 수신된 정보, 및/또는 메모리부(130)에 저장된 정보를 처리할 수 있다. 또한, 러닝 프로세서부(140c)의 출력 값은 통신부(110)를 통해 외부 기기로 전송되거나/되고, 메모리부(130)에 저장될 수 있다.

Claims (19)

  1. 뉴럴 네트워크로 구성된 제1 뉴럴 네트워크 인코더(neural network encoder) 및 제1 뉴럴 네트워크 디코더(neural network decoder)를 포함하는 단말에 의해 수행되는 통신 방법에 있어서,
    기지국으로부터 정보를 수신하되, 상기 정보는 상기 제1 뉴럴 네트워크 인코더와 관련된 제1 파라미터 및 상기 제1 뉴럴 네트워크 디코더와 관련된 제2 파라미터를 포함하고, 및
    상기 정보에 기반하여 상기 기지국과 통신하되,
    상기 단말은 상기 제1 파라미터에 기반하여 상기 기지국에게 상향링크 데이터를 전송하고,
    상기 단말은 상기 제2 파라미터에 기반하여 상기 기지국으로부터 하향링크 데이터를 수신하되,
    상기 제1 뉴럴 네트워크 인코더는 인터리버(interleaver), RSC 코드(recursive systematic convolutional code), 누산기(accumulator) 중 적어도 하나를 포함하는 것을 특징으로 하는 방법.
  2. 제1항에 있어서,
    상기 정보는 RRC(radio resource control) 시그널링, MAC(medium access control) 시그널링 또는 L1(layer1) 시그널링에 기반하여 전송되는 것을 특징으로 하는 방법.
  3. 제1항에 있어서,
    상기 정보는 상기 뉴럴 네트워크의 종류(type), 상기 뉴럴 네트워크의 계층(layer)의 개수, 상기 계층 별 활성 함수(activation function), 상기 뉴럴 네트워크에 대한 최적화 방법(optimization method), 상기 계층 별 가중치(weight) 중 적어도 하나를 알려주는 것을 특징으로 하는 방법.
  4. 제3항에 있어서,
    상기 가중치는 사전에 정의되는 것을 특징으로 하는 방법.
  5. 제1항에 있어서,
    상기 기지국은 상기 뉴럴 네트워크로 구성된 제2 뉴럴 네트워크 인코더 및 제2 뉴럴 네트워크 디코더를 포함하는 것을 특징으로 하는 방법.
  6. 제5항에 있어서,
    상기 제1 네트워크 인코더 및 상기 제2 네트워크 디코더를 포함하는 제1 집합, 상기 제1 네트워크 디코더 및 상기 제2 네트워크 인코더를 포함하는 제2 집합 각각은 뉴럴 인코더를 구성하는 것을 특징으로 하는 방법.
  7. 제1항에 있어서,
    상기 뉴럴 네트워크 인코더는 평행하게 배치된 복수 개의 상기 뉴럴 네트워크들을 포함하고,
    상기 복수 개의 상기 뉴럴 네트워크들 중 일부는 서로 다른 입력 데이터를 갖는 것을 특징으로 하는 방법.
  8. 제7항에 있어서,
    상기 서로 다른 입력 데이터는 복수 개의 인터리버(interleaver)에 기반하여 생성되는 것을 특징으로 하는 방법.
  9. 제7항에 있어서,
    상기 서로 다른 입력 데이터는 인터리버 및 누산기(accumulator)에 기반하여 생성되는 것을 특징으로 하는 방법.
  10. 제7항에 있어서,
    상기 서로 다른 입력 데이터는 인터리버 및 RSC 코드(recursive systematic convolutional code)에 기반하여 생성되는 것을 특징으로 하는 방법.
  11. 제7항에 있어서,
    상기 서로 다른 입력 데이터는 조직 입력 데이터(systematic input data)를 포함하는 것을 특징으로 하는 방법.
  12. 제1항에 있어서,
    상기 제1 파라미터 및 상기 제2 파라미터는 상기 기지국이 수행하는 트레이닝에 기반하여 생성되는 것을 특징으로 하는 방법.
  13. 제1항에 있어서,
    상기 제1 파라미터 및 상기 제2 파라미터는 트레이닝 장치에 의해 생성되고,
    상기 단말은 상기 트레이닝 장치가 상기 기지국에게 전송한 상기 제1 파라미터 및 상기 제2 파라미터를 상기 기지국으로부터 수신하는 것을 특징으로 하는 방법.
  14. 제1항에 있어서,
    상기 정보는 전송 관련 가중치, 수신 관련 가중치 중 적어도 하나를 포함하는 것을 특징으로 하는 방법.
  15. 뉴럴 네트워크로 구성된 뉴럴 네트워크 인코더(neural network encoder) 및 뉴럴 네트워크 디코더(neural network decoder)를 포함하는 단말은,
    명령어들을 저장하는 하나 이상의 메모리;
    하나 이상의 송수신기; 및
    상기 하나 이상의 메모리와 상기 하나 이상의 송수신기를 연결하는 하나 이상의 프로세서를 포함하되, 상기 하나 이상의 프로세서는 상기 명령어들을 실행하여,
    기지국으로부터 정보를 수신하되, 상기 정보는 상기 뉴럴 네트워크 인코더와 관련된 제1 파라미터 및 상기 뉴럴 네트워크 디코더와 관련된 제2 파라미터를 포함하고, 및
    상기 정보에 기반하여 상기 기지국과 통신하되,
    상기 단말은 상기 제1 파라미터에 기반하여 상기 기지국에게 상향링크 데이터를 전송하고,
    상기 단말은 상기 제2 파라미터에 기반하여 상기 기지국으로부터 하향링크 데이터를 수신하는 것을 특징으로 하는 단말.
  16. 뉴럴 네트워크로 구성되는 기지국에 의해 수행되는 정보 전송 방법에 있어서,
    상기 뉴럴 네트워크에 대한 트레이닝을 수행하고,
    상기 트레이닝에 기반하여 파라미터를 획득하고, 및
    상기 파라미터를 포함하는 정보를 단말에게 전송하되,
    상기 단말은 상기 뉴럴 네트워크에 대한 인코더 및 디코더를 포함하고,
    상기 파라미터는 상기 인코더 및 상기 디코더와 관련된 것을 특징으로 하는 방법.
  17. 뉴럴 네트워크로 구성되는 기지국은,
    명령어들을 저장하는 하나 이상의 메모리;
    하나 이상의 송수신기; 및
    상기 하나 이상의 메모리와 상기 하나 이상의 송수신기를 연결하는 하나 이상의 프로세서를 포함하되, 상기 하나 이상의 프로세서는 상기 명령어들을 실행하여,
    상기 뉴럴 네트워크에 대한 트레이닝을 수행하고,
    상기 트레이닝에 기반하여 파라미터를 획득하고, 및
    상기 파라미터를 포함하는 정보를 단말에게 전송하되,
    상기 단말은 상기 뉴럴 네트워크에 대한 인코더 및 디코더를 포함하고,
    상기 파라미터는 상기 인코더 및 상기 디코더와 관련된 것을 특징으로 하는 기지국.
  18. 뉴럴 네트워크로 구성된 뉴럴 네트워크 인코더(neural network encoder) 및 뉴럴 네트워크 디코더(neural network decoder)를 포함하는 단말을 제어하도록 설정된 장치(apparatus)에 있어서, 상기 장치는,
    하나 이상의 프로세서; 및
    상기 하나 이상의 프로세서에 의해 실행 가능하게 연결되고, 및 명령들을 저장하는 하나 이상의 메모리를 포함하되, 상기 하나 이상의 프로세서는 상기 명령어들을 실행하여,
    기지국으로부터 정보를 수신하되, 상기 정보는 상기 뉴럴 네트워크 인코더와 관련된 제1 파라미터 및 상기 뉴럴 네트워크 디코더와 관련된 제2 파라미터를 포함하고, 및
    상기 정보에 기반하여 상기 기지국과 통신하되,
    상기 단말은 상기 제1 파라미터에 기반하여 상기 기지국에게 상향링크 데이터를 전송하고,
    상기 단말은 상기 제2 파라미터에 기반하여 상기 기지국으로부터 하향링크 데이터를 수신하는 것을 특징으로 하는 장치.
  19. 적어도 하나의 프로세서(processor)에 의해 실행됨을 기초로 하는 명령어(instruction)를 포함하는 적어도 하나의 컴퓨터로 읽을 수 있는 기록 매체(computer readable medium)에 있어서,
    기지국으로부터 정보를 수신하고, 및
    상기 정보에 기반하여 상기 기지국과 통신하되,
    상기 기록 매체는 뉴럴 네트워크로 구성된 뉴럴 네트워크 인코더(neural network encoder) 및 뉴럴 네트워크 디코더(neural network decoder)를 포함하고,
    상기 정보는 상기 뉴럴 네트워크 인코더와 관련된 제1 파라미터 및 상기 뉴럴 네트워크 디코더와 관련된 제2 파라미터를 포함하고,
    상기 기록 매체는 상기 제1 파라미터에 기반하여 상기 기지국에게 상향링크 데이터를 전송하고,
    상기 기록 매체는 상기 제2 파라미터에 기반하여 상기 기지국으로부터 하향링크 데이터를 수신하는 것을 특징으로 하는 장치.
PCT/KR2020/008772 2020-07-06 2020-07-06 뉴럴 네트워크 기반의 통신 방법 및 장치 WO2022010001A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020227046486A KR20230034991A (ko) 2020-07-06 2020-07-06 뉴럴 네트워크 기반의 통신 방법 및 장치
PCT/KR2020/008772 WO2022010001A1 (ko) 2020-07-06 2020-07-06 뉴럴 네트워크 기반의 통신 방법 및 장치
US18/014,703 US20230289564A1 (en) 2020-07-06 2020-07-06 Neural network-based communication method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2020/008772 WO2022010001A1 (ko) 2020-07-06 2020-07-06 뉴럴 네트워크 기반의 통신 방법 및 장치

Publications (1)

Publication Number Publication Date
WO2022010001A1 true WO2022010001A1 (ko) 2022-01-13

Family

ID=79552530

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/008772 WO2022010001A1 (ko) 2020-07-06 2020-07-06 뉴럴 네트워크 기반의 통신 방법 및 장치

Country Status (3)

Country Link
US (1) US20230289564A1 (ko)
KR (1) KR20230034991A (ko)
WO (1) WO2022010001A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023163620A1 (en) * 2022-02-22 2023-08-31 Telefonaktiebolaget Lm Ericsson (Publ) Scheduling transmission of spiking data
WO2023193620A1 (zh) * 2022-04-06 2023-10-12 华为技术有限公司 信息交互方法及相关装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180030836A (ko) * 2015-07-20 2018-03-26 퀄컴 인코포레이티드 플렉시블 코딩 방식들

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180030836A (ko) * 2015-07-20 2018-03-26 퀄컴 인코포레이티드 플렉시블 코딩 방식들

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
FAYCAL AIT AOUDIA; HOYDIS JAKOB: "End-to-End Learning of Communications Systems Without a Channel Model", 5 December 2018 (2018-12-05), pages 1 - 6, XP055536831, Retrieved from the Internet <URL:https://arxiv.org/pdf/1804.02276.pdf> [retrieved on 20181219], DOI: 10.1109/ACSSC.2018.8645416 *
SATTIRAJU RAJA; WEINAND ANDREAS; SCHOTTEN HANS D.: "Performance Analysis of Deep Learning based on Recurrent Neural Networks for Channel Coding", 2018 IEEE INTERNATIONAL CONFERENCE ON ADVANCED NETWORKS AND TELECOMMUNICATIONS SYSTEMS (ANTS), IEEE, 16 December 2018 (2018-12-16), pages 1 - 6, XP033547219, DOI: 10.1109/ANTS.2018.8710159 *
TIMOTHY O'SHEA, JAKOB HOYDIS: "An Introduction to Deep Learning for the Physical Layer", 1 December 2017 (2017-12-01), pages 563 - 575, XP055569291, Retrieved from the Internet <URL:https://arxiv.org/pdf/1702.00832.pdf> DOI: 10.1109/TCCN.2017.2758370 *
YIHAN JIANG; HYEJI KIM; HIMANSHU ASNANI; SREERAM KANNAN; SEWOONG OH; PRAMOD VISWANATH: "Turbo Autoencoder: Deep learning based channel codes for point-to-point communication channels", 8 November 2019 (2019-11-08), pages 1 - 19, XP081528423, Retrieved from the Internet <URL:https://arxiv.org/abs/1911.03038v1> *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023163620A1 (en) * 2022-02-22 2023-08-31 Telefonaktiebolaget Lm Ericsson (Publ) Scheduling transmission of spiking data
WO2023193620A1 (zh) * 2022-04-06 2023-10-12 华为技术有限公司 信息交互方法及相关装置

Also Published As

Publication number Publication date
US20230289564A1 (en) 2023-09-14
KR20230034991A (ko) 2023-03-10

Similar Documents

Publication Publication Date Title
WO2020067790A1 (en) Method and apparatus for determining whether to perform transmission on a random access or a configured grant in wireless communication system
WO2021112360A1 (ko) 무선 통신 시스템에서 채널을 추정하기 위한 방법 및 장치
WO2020032706A1 (ko) 무선 통신 시스템에서 비면허 대역 내에서 lbt 타입에 따른 동작을 수행하는 방법 및 상기 방법을 이용하는 단말
WO2020067623A1 (ko) 무선 통신 시스템에서 단말과 기지국 간 하향링크 신호를 송수신하는 방법 및 이를 지원하는 장치
WO2020032703A1 (ko) 무선 통신 시스템에서 비면허 대역 내에서 이니셜 액세스 절차 수행 방법 및 상기 방법을 이용하는 단말
WO2020032697A1 (ko) 무선 통신 시스템에서 비면허 대역에서의 상향 링크 전송 방법 및 상기 방법을 이용하는 단말
WO2019235756A1 (ko) 무선 통신 시스템에서 단말과 기지국 간 위상 트래킹 참조 신호를 송수신하는 방법 및 이를 지원하는 장치
WO2022050432A1 (ko) 통신 시스템에서 연합 학습을 수행하기 위한 방법 및 장치
WO2020076027A1 (en) Method and apparatus for random access procedure with an acknowledgement in wireless communication system
WO2021075704A1 (ko) 대역폭 파트 운용 방법
WO2020060361A1 (ko) 비면허 대역에서 단말의 채널 접속 방법 및 상기 방법을 이용하는 장치
WO2020013558A1 (ko) 무선 통신 시스템에서 단말과 기지국 간 하향링크 신호를 송수신하는 방법 및 이를 지원하는 장치
WO2021256584A1 (ko) 무선 통신 시스템에서 데이터를 송수신하는 방법 및 이를 위한 장치
WO2020067806A1 (ko) 반송파 집성 시스템에서 단말의 동작 방법 및 상기 방법을 이용하는 장치
WO2022010001A1 (ko) 뉴럴 네트워크 기반의 통신 방법 및 장치
WO2021112602A1 (en) Method and apparatus for multiple access
WO2021029664A1 (ko) 웨이크 업 신호 설정
WO2022025316A1 (ko) 무선 통신 시스템에서 다중 안테나를 이용하여 신호를 송신 및 수신하기 위한 방법 및 장치
WO2022025321A1 (ko) 통신 장치의 신호 랜덤화 방법 및 장치
WO2021256586A1 (ko) 수신 신호의 각도 추정 방법 및 장치
WO2022265141A1 (ko) 무선 통신 시스템에서 빔 관리를 수행하는 방법 및 이를 위한 장치
WO2022014731A1 (ko) Aircomp 기반 연합학습의 스케줄링 방법 및 장치
WO2022054980A1 (ko) 무선 통신 시스템에서 사용 가능한 뉴럴 네트워크 인코더 구조 및 인코딩 방법
WO2022014728A1 (ko) 무선 통신 시스템에서 단말 및 기지국의 채널 코딩 수행 방법 및 장치
WO2021261611A1 (ko) 무선 통신 시스템에서 연합 학습을 수행하기 위한 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20944673

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20944673

Country of ref document: EP

Kind code of ref document: A1