WO2020067806A1 - 반송파 집성 시스템에서 단말의 동작 방법 및 상기 방법을 이용하는 장치 - Google Patents

반송파 집성 시스템에서 단말의 동작 방법 및 상기 방법을 이용하는 장치 Download PDF

Info

Publication number
WO2020067806A1
WO2020067806A1 PCT/KR2019/012651 KR2019012651W WO2020067806A1 WO 2020067806 A1 WO2020067806 A1 WO 2020067806A1 KR 2019012651 W KR2019012651 W KR 2019012651W WO 2020067806 A1 WO2020067806 A1 WO 2020067806A1
Authority
WO
WIPO (PCT)
Prior art keywords
state
terminal
information
dormant state
bwp
Prior art date
Application number
PCT/KR2019/012651
Other languages
English (en)
French (fr)
Inventor
서인권
이윤정
황대성
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2020067806A1 publication Critical patent/WO2020067806A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L5/00Arrangements affording multiple use of the transmission path

Definitions

  • the present invention relates to wireless communication, and more particularly, to a method of operating a terminal in a carrier aggregation system and an apparatus using the method.
  • next-generation wireless access technology in consideration of such extended mobile broadband (eMBB) communication, massive MTC, and Ultra-Reliable and Low Latency Communication (URLLC) is discussed, and in the present invention, for convenience, the corresponding technology (technology ) Is called new RAT or NR.
  • NR is also referred to as a fifth generation (fifth generation) system.
  • Carrier aggregation that aggregates a plurality of carriers (cells) may also be supported in NR.
  • continuous monitoring of a secondary cell other than a primary cell that always has a radio resource control (RRC) connection with a base station may cause unnecessary power consumption.
  • RRC radio resource control
  • using an existing activation / deactivation indication for the secondary cell increases the delay time, which may degrade scheduling flexibility in supporting various services such as NR.
  • the technical problem to be solved by the present invention is to provide a method for operating a terminal in a carrier aggregation system and a terminal using the method.
  • a method of operating a terminal configured with a primary cell and a secondary cell receives the second configuration information applied when the terminal is in a dormant state with respect to the secondary cell, and performs channel state information measurement and reporting based on the second configuration information, but the second The configuration information is characterized in that it is provided independently of the first configuration information applied when the terminal is in an activated state with respect to the secondary cell.
  • a user equipment provided in another aspect includes a transceiver that transmits and receives a radio signal and a processor that operates in combination with the transceiver, wherein the processor is configured for the secondary cell
  • the processor When in the dormant state (dormant state) receives the second setting information to be applied, and performs channel state information measurement and reporting based on the second setting information, the second setting information is the terminal for the secondary cell It is characterized in that it is provided independently of the first setting information applied in the activated state.
  • a processor for a wireless communication device controls the wireless communication device to receive second setting information applied when the wireless communication device is in a dormant state with respect to the secondary cell. Receive and perform channel state information measurement and reporting based on the second setting information, wherein the second setting information includes first setting information applied when the terminal is in an activated state with respect to the secondary cell It is characterized by being provided independently.
  • a carrier aggregation system In the carrier aggregation system, if a dormant state is introduced for a secondary cell, scheduling is possible without delay when the secondary cell is activated. To this end, in the dormant state, which reference signal and which bandwidth portion the terminal should perform measurement and reporting is defined, and through this, while reducing power consumption, a carrier aggregation system provides data transmission and reception without delay.
  • FIG. 1 illustrates a wireless communication system to which the present invention can be applied.
  • FIG. 2 is a block diagram showing a radio protocol architecture for a user plane.
  • 3 is a block diagram showing a radio protocol structure for a control plane.
  • NG-RAN New Generation Radio Access Network
  • 5 illustrates functional division between NG-RAN and 5GC.
  • FIG. 6 illustrates a frame structure that can be applied in NR.
  • FIG. 8 is a view showing a difference between a core set in a conventional control region and NR.
  • FIG 9 shows an example of a frame structure for a new radio access technology.
  • FIG. 10 is an abstract diagram of a hybrid beamforming structure from the perspective of a TXRU and a physical antenna.
  • FIG. 11 is a diagram illustrating a beam sweeping operation for a synchronization signal and system information in a downlink (DL) transmission process.
  • SSB synchronization signal block
  • FIG. 13 illustrates an association between SSB and Coreset # 0, a search space set (SS set).
  • FIG. 14 illustrates an operation method of a terminal configured with a primary cell and a secondary cell.
  • 15 illustrates a method of reporting CSI measurement results of a terminal configured with a primary cell and a secondary cell.
  • 16 is a block diagram showing components of a transmitting device and a receiving device for carrying out the present invention.
  • FIG. 17 shows an example of a structure of a signal processing module in a transmission device.
  • FIG. 18 shows another example of a structure of a signal processing module in a transmission device.
  • FIG 19 shows an example of a wireless communication device according to an embodiment of the present invention.
  • FIG 20 shows an example of the processor 2000.
  • 21 shows an example of the processor 3000.
  • FIG. 22 shows an example of a 5G usage scenario to which the technical features of the present invention can be applied.
  • FIG. 23 shows a wireless communication device according to an embodiment of the present invention.
  • FIG 24 shows an AI device 100 according to an embodiment of the present invention.
  • 25 shows an AI server 200 according to an embodiment of the present invention.
  • 26 shows an AI system 1 according to an embodiment of the present invention.
  • E-UTRAN Evolved-UMTS Terrestrial Radio Access Network
  • LTE Long Term Evolution
  • the E-UTRAN includes a base station (BS) that provides a control plane and a user plane to a user equipment (UE) 10.
  • the terminal 10 may be fixed or mobile, and may be called other terms such as a mobile station (MS), a user terminal (UT), a subscriber station (SS), a mobile terminal (MT), or a wireless device.
  • the base station 20 refers to a fixed station that communicates with the terminal 10, and may be referred to as other terms such as an evolved-NodeB (eNB), a base transceiver system (BTS), and an access point.
  • eNB evolved-NodeB
  • BTS base transceiver system
  • the base stations 20 may be connected to each other through an X2 interface.
  • the base station 20 is connected to an EPC (Evolved Packet Core 30) through an S1 interface, and more specifically, a mobility management entity (MME) through an S1-MME and a serving gateway (S-GW) through an S1-U.
  • EPC Evolved Packet Core 30
  • MME mobility management entity
  • S-GW serving gateway
  • EPC 30 is composed of MME, S-GW and P-GW (Packet Data Network-Gateway).
  • the MME has access information of the terminal or information about the capability of the terminal, and this information is mainly used for mobility management of the terminal.
  • S-GW is a gateway with E-UTRAN as an endpoint
  • P-GW is a gateway with PDN as an endpoint.
  • the layers of the radio interface protocol between the terminal and the network are based on the lower three layers of the Open System Interconnection (OSI) reference model, which is widely known in communication systems, L1 (first layer), It can be divided into L2 (second layer) and L3 (third layer), among which the physical layer belonging to the first layer provides an information transfer service using a physical channel.
  • the radio resource control (RRC) layer located in the third layer serves to control radio resources between the terminal and the network. To this end, the RRC layer exchanges RRC messages between the terminal and the base station.
  • OSI Open System Interconnection
  • the 2 is a block diagram showing a radio protocol architecture for a user plane.
  • 3 is a block diagram showing a radio protocol structure for a control plane.
  • the user plane is a protocol stack for transmitting user data
  • the control plane is a protocol stack for transmitting control signals.
  • a physical layer provides an information transfer service (information transfer service) to the upper layer by using a physical channel (physical channel).
  • the physical layer is connected to the upper layer, the medium access control (MAC) layer, through a transport channel. Data moves between the MAC layer and the physical layer through the transport channel. Transport channels are classified according to how and with what characteristics data is transmitted through a wireless interface.
  • the physical channel can be modulated by an orthogonal frequency division multiplexing (OFDM) method, and utilizes time and frequency as radio resources.
  • OFDM orthogonal frequency division multiplexing
  • the functions of the MAC layer include mapping between logical channels and transport channels, and multiplexing / demultiplexing into transport blocks provided as physical channels on a transport channel of a MAC service data unit (SDU) belonging to the logical channel.
  • the MAC layer provides a service to a Radio Link Control (RLC) layer through a logical channel.
  • RLC Radio Link Control
  • the functions of the RLC layer include concatenation, segmentation and reassembly of RLC SDUs.
  • the RLC layer includes a transparent mode (TM), an unacknowledged mode (UM), and an acknowledgment mode (Acknowledged Mode).
  • TM transparent mode
  • UM unacknowledged mode
  • Acknowledged Mode acknowledgment mode
  • AM AM RLC provides error correction through automatic repeat request (ARQ).
  • RRC Radio Resource Control
  • the RRC layer is responsible for control of logical channels, transport channels, and physical channels in connection with configuration, re-configuration, and release of radio bearers.
  • RB means a logical path provided by the first layer (PHY layer) and the second layer (MAC layer, RLC layer, PDCP layer) for data transmission between the terminal and the network.
  • the functions of the Packet Data Convergence Protocol (PDCP) layer in the user plane include the transfer of user data, header compression, and ciphering.
  • the functions of the Packet Data Convergence Protocol (PDCP) layer in the control plane include transmission of control plane data and encryption / integrity protection.
  • the establishment of RB means a process of defining characteristics of a radio protocol layer and a channel to provide a specific service, and setting each specific parameter and operation method.
  • the RB can be further divided into two types: Signaling RB (SRB) and Data RB (DRB).
  • SRB is used as a path for transmitting RRC messages in the control plane
  • DRB is used as a path for transmitting user data in the user plane.
  • the UE When an RRC connection is established between the RRC layer of the UE and the RRC layer of the E-UTRAN, the UE is in an RRC connected state, otherwise it is in an RRC idle state.
  • the downlink transport channel for transmitting data from the network to the terminal includes a broadcast channel (BCH) for transmitting system information and a downlink shared channel (SCH) for transmitting user traffic or control messages. Traffic or control messages of a downlink multicast or broadcast service may be transmitted through a downlink SCH or may be transmitted through a separate downlink multicast channel (MCH).
  • an uplink transport channel for transmitting data from a terminal to a network includes a random access channel (RACH) for transmitting an initial control message and an uplink shared channel (SCH) for transmitting user traffic or a control message.
  • RACH random access channel
  • SCH uplink shared channel
  • Logical channels that are located above the transport channel and are mapped to the transport channel include BCCH (Broadcast Control Channel), PCCH (Paging Control Channel), CCCH (Common Control Channel), MCCH (Multicast Control Channel), and MTCH (Multicast Traffic). Channel).
  • BCCH Broadcast Control Channel
  • PCCH Paging Control Channel
  • CCCH Common Control Channel
  • MCCH Multicast Control Channel
  • MTCH Multicast Traffic. Channel
  • the physical channel is composed of several OFDM symbols in the time domain and several sub-carriers in the frequency domain.
  • One sub-frame (Sub-frame) is composed of a plurality of OFDM symbols (Symbol) in the time domain.
  • the resource block is a resource allocation unit, and is composed of a plurality of OFDM symbols and a plurality of sub-carriers.
  • each subframe may use specific subcarriers of specific OFDM symbols (eg, the first OFDM symbol) of the corresponding subframe for a physical downlink control channel (PDCCH), that is, an L1 / L2 control channel.
  • TTI Transmission Time Interval
  • new radio access technology new radio access technology: new RAT, NR
  • next-generation wireless access technology As more communication devices require a larger communication capacity, there is a need for improved mobile broadband communication compared to a conventional radio access technology (RAT).
  • MTC Massive Machine Type Communications
  • NR Ultra-Reliable and Low Latency Communication
  • NG-RAN New Generation Radio Access Network
  • the NG-RAN may include a gNB and / or eNB that provides a user plane and control plane protocol termination to a terminal.
  • 4 illustrates a case in which only the gNB is included.
  • the gNB and the eNB are connected to each other by an Xn interface.
  • the gNB and the eNB are connected through a 5G Core Network (5GC) and an NG interface.
  • 5GC 5G Core Network
  • AMF access and mobility management function
  • UPF user plane function
  • 5 illustrates functional division between NG-RAN and 5GC.
  • gNB is an inter-cell radio resource management (Inter Cell RRM), radio bearer management (RB control), connection mobility control (Connection Mobility Control), radio admission control (Radio Admission Control), measurement settings and provision It can provide functions such as (Measurement configuration & Provision), dynamic resource allocation, and the like.
  • AMF can provide functions such as NAS security and idle state mobility processing.
  • UPF may provide functions such as mobility anchoring and PDU processing.
  • the Session Management Function (SMF) may provide functions such as terminal IP address allocation and PDU session control.
  • FIG. 6 illustrates a frame structure that can be applied in NR.
  • a frame may be composed of 10 ms (millisecond), and may include 10 subframes composed of 1 ms.
  • One or a plurality of slots may be included in a subframe according to subcarrier spacing.
  • Table 1 below illustrates the subcarrier spacing configuration ⁇ .
  • Table 2 shows the number of slots in a frame (N frame, ⁇ slot ), the number of slots in a subframe (N subframe, ⁇ slot ), and the number of symbols in a slot (N slot symb ) according to subcarrier spacing configuration ⁇ . And the like.
  • Table A5 illustrates that when an extended CP is used, the number of symbols per slot, the number of slots per frame, and the number of slots per subframe are different according to SCS.
  • OFDM (A) numerology eg, SCS, CP length, etc.
  • a numerology eg, SCS, CP length, etc.
  • a (absolute time) section of a time resource eg, SF, slot, or TTI
  • a time unit TU
  • NR supports multiple numerology (or subcarrier spacing (SCS)) to support various 5G services. For example, if the SCS is 15 kHz, it supports a wide area in traditional cellular bands, and if the SCS is 30 kHz / 60 kHz, it is dense-urban, lower latency. And a wider carrier bandwidth, and when the SCS is 60 kHz or higher, a bandwidth greater than 24.25 GHz is supported to overcome phase noise.
  • SCS subcarrier spacing
  • the NR frequency band can be defined as a frequency range of two types (FR1, FR2).
  • the numerical value of the frequency range can be changed, for example, the frequency ranges of the two types (FR1, FR2) may be as shown in Table A6 below.
  • FR1 may mean “sub 6GHz range” among the frequency ranges used in the NR system
  • FR2 may mean “above 6GHz range” and may be called millimeter wave (mmW). .
  • FR1 may include a band of 410MHz to 7125MHz as shown in Table A7 below. That is, FR1 may include a frequency band of 6 GHz (or 5850, 5900, 5925 MHz, etc.) or higher. For example, a frequency band of 6 GHz or higher (or 5850, 5900, 5925 MHz, etc.) included in FR1 may include an unlicensed band. The unlicensed band may be used for various purposes, for example, for communication for a vehicle (eg, autonomous driving).
  • 0, 1, and 2 are illustrated.
  • a physical downlink control channel may be composed of one or more control channel elements (CCEs) as shown in Table 3 below.
  • CCEs control channel elements
  • the PDCCH may be transmitted through a resource composed of 1, 2, 4, 8 or 16 CCEs.
  • CCE is composed of six resource element groups (REGs), and one REG is composed of one resource block in the frequency domain and one orthogonal frequency division multiplexing (OFDM) symbol in the time domain.
  • REGs resource element groups
  • OFDM orthogonal frequency division multiplexing
  • the terminal may receive the PDCCH in the core set.
  • CORESET control resource set
  • the core set may be composed of N CORESET RB resource blocks in the frequency domain and N CORESET symb ⁇ ⁇ 1, 2, 3 ⁇ symbols in the time domain.
  • N CORESET RB and N CORESET symb may be provided by a base station through a higher layer signal.
  • a plurality of CCEs (or REGs) may be included in the core set.
  • the UE may attempt to detect PDCCH in units of 1, 2, 4, 8 or 16 CCEs in the core set.
  • PDCCH candidates One or a plurality of CCEs capable of attempting PDCCH detection may be referred to as PDCCH candidates.
  • the terminal may receive a plurality of core sets.
  • FIG. 8 is a view showing a difference between a core set in a conventional control region and NR.
  • the control area 800 in a conventional wireless communication system (eg, LTE / LTE-A) is configured over the entire system band used by a base station. All terminals except for some terminals (for example, eMTC / NB-IoT terminals) supporting only a narrow band receive radio signals in the entire system band of the base station in order to properly receive / decode control information transmitted by the base station. I should be able to.
  • the core sets 801, 802, and 803 may be referred to as radio resources for control information to be received by the terminal, and only a part of the system band may be used in the frequency domain. Also, only some of the symbols in the slot may be used in the time domain.
  • the base station can allocate a core set to each terminal, and transmit control information through the assigned core set. For example, in FIG. 8, the first core set 801 may be allocated to terminal 1, the second core set 802 may be allocated to the second terminal, and the third core set 803 may be allocated to terminal 3. have.
  • the terminal in the NR can receive control information of the base station even if it does not necessarily receive the entire system band.
  • the core set there may be a terminal-specific core set for transmitting terminal-specific control information and a common core set for transmitting control information common to all terminals.
  • the resource may include at least one of a resource in the time domain, a resource in the frequency domain, a resource in the code domain, and a resource in the spatial domain.
  • FIG 9 shows an example of a frame structure for a new radio access technology.
  • a structure in which a control channel and a data channel are time-division multiplexed (TDM) within one TTI is considered as one of the frame structures for the purpose of minimizing latency. Can be.
  • the hatched area indicates a downlink control area, and the black part indicates an uplink control area.
  • An area without an indication may be used for downlink data (DL data) transmission, or may be used for uplink data (UL data) transmission.
  • the characteristic of this structure is that downlink (DL) transmission and uplink (UL) transmission are sequentially performed in one subframe, DL data is transmitted in a subframe, and UL ACK / NACK (Acknowledgement / Not-acknowledgement) is also available. As a result, when a data transmission error occurs, it takes less time to retransmit the data, thereby minimizing latency of the final data transmission.
  • the base station and the terminal type gap (time gap) for the process of switching from the transmission mode to the receiving mode or the switching process from the receiving mode to the transmission mode ) Is required.
  • some OFDM symbols at a time point of switching from DL to UL may be set as a guard period (GP).
  • the wavelength is shortened, so that it is possible to install multiple antenna elements in the same area. That is, in the 30 GHz band, the wavelength is 1 cm, and a total of 100 antenna elements can be installed in a 2-dimensional arrangement at 0.5 wavelength intervals on a 5 by 5 cm panel. Therefore, in mmW, a plurality of antenna elements are used to increase beamforming (BF) gain to increase coverage or increase throughput.
  • BF beamforming
  • TXRU Transceiver Unit
  • hybrid beamforming having B TXRUs, which are fewer than Q antenna elements, in the form of intermediate between digital beamforming (digital BF) and analog beamforming (analog BF).
  • digital BF digital beamforming
  • analog BF analog beamforming
  • analog beamforming performs precoding (or combining) at the RF stage, which results in the number of RF chains and the number of D / A (or A / D) converters. It has the advantage of being able to achieve a performance close to digital beamforming while reducing.
  • the hybrid beamforming structure may be represented by N TXRUs and M physical antennas.
  • digital beamforming for the L data layers to be transmitted by the transmitting end can be represented by an N by L matrix, and then the converted N digital signals are converted into analog signals through TXRU. After conversion, analog beamforming represented by an M by N matrix is applied.
  • FIG. 10 is an abstract diagram of a hybrid beamforming structure from the perspective of the TXRU and the physical antenna.
  • the number of digital beams is L, and the number of analog beams is N.
  • the base station is designed to change the analog beamforming on a symbol-by-symbol basis, and considers a direction for supporting more efficient beamforming to terminals located in a specific region.
  • the NR system considers a method of introducing a plurality of antenna panels to which hybrid beamforming independent of each other is applicable. Is becoming.
  • a specific subframe is at least for a synchronization signal, system information, and paging.
  • a beam sweeping operation is being considered in which a plurality of analog beams to be applied by a base station is changed for each symbol so that all terminals have a reception opportunity.
  • FIG. 11 is a diagram illustrating the beam sweeping operation for a synchronization signal and system information in a downlink (DL) transmission process.
  • a physical resource (or physical channel) in which system information of the NR system is transmitted in a broadcasting method is designated as a physical broadcast channel (xPBCH).
  • xPBCH physical broadcast channel
  • analog beams belonging to different antenna panels in one symbol may be simultaneously transmitted, and a reference signal transmitted by applying a single analog beam (corresponding to a specific antenna panel) to measure a channel for each analog beam : RS), a method of introducing a beam reference signal (Beam RS: BRS) is being discussed.
  • the BRS may be defined for a plurality of antenna ports, and each antenna port of the BRS may correspond to a single analog beam.
  • a synchronization signal or xPBCH can be transmitted by applying all analog beams in an analog beam group so that any UE can receive it well.
  • SSB synchronization signal block
  • a synchronization signal block (SSB, or a synchronization signal and a physical broadcast channel (SS / PBCH) in the time domain) may be referred to as a synchronization signal block) It may be composed of 4 OFDM symbols numbered in ascending order from 0 to 3, primary synchronization signal (PSS), secondary synchronization signal (secondary synchronization signal (SSS)), and demodulation reference signal (demodulation)
  • PSS primary synchronization signal
  • SSS secondary synchronization signal
  • demodulation reference signal demodulation reference signal
  • a reference signal (DMRS) and associated PBCH may be mapped to symbols.
  • the synchronization signal block can also be expressed as an SS / PBCH block.
  • multiple synchronization signal blocks may be transmitted at different times, and SSBs may be used to perform initial access (IA), serving cell measurement, and the like, and thus transmit with different signals. It is preferable that the SSB is preferentially transmitted when the time and resources overlap.
  • the network may broadcast transmission time and resource information of the SSB, or may indicate through UE-specific RRC signaling.
  • a beam-based transmission / reception operation may be performed.
  • a process of finding a new beam may be performed through a process called beam failure recovery (BFR).
  • BFR is not a process of declaring an error / failure for a link between a network and a terminal, it may be assumed that the connection with the serving cell is maintained even if the BFR process is performed.
  • measurements are performed on different beams set by the network (beams can be represented by ports of CSI-RS or a synchronization signal block (SSB) index, etc.), and the best (best) beam is applied to the corresponding UE. You can choose.
  • the UE may perform a BFR process by performing a RACH process associated with the beam for a beam having good measurement results.
  • the TCI state may be set for each core set of the control channel, and may determine parameters for determining a reception (Rx) beam of the terminal based on the TCI state.
  • the terminal For each downlink bandwidth portion (DL BWP) of the serving cell, the terminal may be configured with three or fewer core sets. In addition, the terminal may receive the following information for each core set.
  • DL BWP downlink bandwidth portion
  • Coreset index p (e.g., one of 0 to 11, the index of each coreset in BWPs of one serving cell can be uniquely determined),
  • TCI transmission configuration indication
  • the characteristics of a channel on which a symbol on one antenna port is transmitted can be inferred from the characteristics of a channel on which a symbol on another antenna port is transmitted, it is said that the two antenna ports are in a quasi common location (QCL).
  • QCL quasi common location
  • the channel condition may be defined by, for example, a Doppler shift, a Doppler spread, an average delay, a delay spread, or a spatial reception parameter.
  • the 'TCI-State' parameter associates one or two downlink reference signals with corresponding QCL types (there are QCL types A, B, C, and D, see Table 4).
  • Each 'TCI-State' is for establishing a quasi joint location (QCL) relationship between one or two downlink reference signals and the DM-RS port of the PDSCH (or PDCCH), or the CSI-RS port of the CSI-RS resource. It may include parameters.
  • the terminal may be provided with 10 or fewer search space sets. For each set of search spaces, the terminal may be provided with at least one of the following information.
  • search space set index s (0 ⁇ s ⁇ 40), 2) association between core set P and search space set s, 3) PDCCH monitoring cycle and PDCCH monitoring offset (in slots), 4) within slot PDCCH monitoring pattern of (eg, indicating the first symbol of the core set in the slot for PDCCH monitoring), 5) the number of slots in which the search space set s exists, 6) the number of PDCCH candidates by CCE aggregation level, 7) search Information indicating whether the space set s is CSS or USS.
  • Coreset # 0 may be set by PBCH (or UE-specific signaling for handover or PSCell configuration or BWP configuration).
  • the search space (SS) set # 0 set by the PBCH may have different monitoring offsets (for example, slot offsets and symbol offsets) for each associated SSB. This may be necessary to minimize the search space occasion that the terminal should monitor. Or, it means to provide a beam sweeping control / data area that enables control / data transmission according to each beam so that communication with the terminal can be continuously performed in a situation where the best beam of the terminal is dynamically changed. May also be needed.
  • FIG. 13 illustrates an association between SSB and Coreset # 0, a search space set (SS set).
  • Coreset # 0 may be a coreset for monitoring DCI carrying Remaining System Information (RMSI) scheduling information.
  • RMSI Remaining System Information
  • the position and size in the frequency domain and the duration in the time domain are transmitted through PBCH (for example, PBCH). It can be set by the MIB (master information block), and the rest of the other core set settings may be fixed.
  • PBCH for example, PBCH
  • Coreset # 0 may be assigned a common search space (CSS (s)) for OSI (other system information), paging, and random access, and UE-specific search space (UE- It may also be used for the purpose of transmitting a specific search space (USS) or a UE-dedicated PDCCH (PDCCH) for a terminal.
  • SCS common search space
  • UE- It may also be used for the purpose of transmitting a specific search space (USS) or a UE-dedicated PDCCH (PDCCH) for a terminal.
  • the search space set may use a different search space index.
  • the TCI state may mean information necessary for the UE to set the reception beam in the NR.
  • the TCI state in core set # 0 may be determined by the SSB to which the corresponding core set / search space set is associated.
  • Coreset # 0 and search space set # 0 associated with each SSB may exist.
  • Each terminal can measure each SSB, and monitor the core set # 0 / search space set # 0 associated with the corresponding SSB based on the PBCH information of the SSB with the best measurement result.
  • the search space set # 0-0, the search space set # 0-1, and the like are described.
  • search space set # 0-X X means an associated SSB index.
  • UE-dedicated PDSCH (PDSCH) scheduling information may be transmitted even in an area set for common search space (CSS) use in Coreset # 0.
  • the terminal should perform monitoring for the corresponding DCI. For example, the following operations are possible.
  • the network and the terminal maintain the same understanding of SSB / Coreset # 0 / SS # 0 in the connected mode (connected_mode) for at least the non-broadcast PDCCH.
  • SSB For a broadcast PDCCH, which SSB based on which SSB should be monitored in all of the connected mode, the inactive mode, and the idle mode may be a problem of UE implementation.
  • Unicast PDSCH may be scheduled by DCI associated with Coreset # 0.
  • DCI-format using C-RNTI at non-DRX time after C-RNTI is enabled 0_0 / 1_0 can be monitored.
  • osi-searchSpace For a common search space set to RMSI-PDCCH-Config, osi-searchSpace, paging-searchSpace and ra-searchSpace, DCI format 0_0 where CS-RNTI is used at a non-DCX time point after CS-RNTI is enabled / 1_0 can be monitored.
  • the UE may be configured to set the search space set for each target by PBCH (ie, RMSI-PDCCH-Config), RMSI (ie, osi-searchSpace, paging-searchSpace, and ra-searchSpace).
  • PBCH ie, RMSI-PDCCH-Config
  • RMSI ie, osi-searchSpace, paging-searchSpace, and ra-searchSpace
  • the corresponding search space set and core set can perform monitoring for DCI format 0_0 / 1_0 scrambled with C-RNTI / CS-RNTI.
  • monitoring for the broadcast PDCCH may be performed on a search space set selected by the terminal (eg, search space set # 0-0 or search space set # 0-1 in FIG. 13).
  • non-broadcast PDCCH monitoring must be performed on a set of search spaces selected based on the same understanding of the network and the terminal. For example, if the network expects the terminal to monitor in the search space set # 1, the terminal is misunderstanding between the network and the terminal if monitoring is performed in the search space set # 2. This is because, if there is no same understanding of non-broadcast (or unicast) PDCCH monitoring, the network may incur a case where it is necessary to repeatedly transmit the corresponding PDCCH to a set of all search spaces associated with each SSB, which is inefficient.
  • both broadcast / non-broadcast in a specific mode may require the same understanding between networks and terminals.
  • a primary cell (PCell) and a number of secondary cells (SCells) may be operated to increase throughput and load balancing.
  • PCell primary cell
  • SCells secondary cells
  • continuous monitoring of the SCell may cause unnecessary power consumption.
  • scheduling flexibility increases due to increased latency.
  • the UE upon receiving a MAC CE to go from an inactive state to an activated state, the UE starts CSI measurement and waits for a CSI reporting opportunity to report the CSI. Based on the CSI measurement result, the network can schedule the corresponding cell. In the above process, the CSI measurement / reporting process may cause a large delay.
  • next-generation wireless communication for example, CA of NR, defines “sleep state (sleep state)” to perform only necessary operations (eg, CSI / RRM measurement) and dynamically moves to the sleep state.
  • Sleep state sleep state
  • For dynamic state change state transition using MAC CE signaling and a timer may be introduced.
  • the state for the cell of the terminal is divided into an activated state and a deactivated state, but a dormant state may be additionally introduced.
  • the terminal does not monitor the control channel (eg, PDCCH) for the corresponding cell, but can perform measurement and reporting related to channel state information (CSI) / radio resource management (RRM). That is, unlike in the inactive state, in the dormant state, the UE performs measurement and reporting related to channel state information (CSI) / radio resource management (RRM) for the corresponding cell.
  • the network can schedule the terminal without delay in the cell (eg, a secondary cell).
  • RRM measurement and reporting may be performed based on a cell specific reference signal (CRS).
  • CRS cell specific reference signal
  • additional operation needs to be considered due to the introduction of an analog beam.
  • an operation that the terminal can perform in the dormant state is proposed. Some or all of the following operations may be performed in the dormant state, and when a plurality of operations are defined in the dormant state, each operation may be defined separately, or a plurality of operations may be combined to be defined as one operation.
  • the network may configure the CSI measurement and reporting related configuration that the terminal should perform in the dormant state of the SCell, independently of the activated state. That is, when there is a first setting related to CSI measurement and reporting that the terminal should perform in an activated state, a second setting related to CSI measurement and reporting that the terminal must perform in a dormant state is provided independently of the first setting. can do.
  • FIG. 14 illustrates an operation method of a terminal configured with a primary cell and a secondary cell.
  • the UE receives second setting information applied when the secondary cell is in a dormant state (S100).
  • the second configuration information may be provided independently of the first configuration information applied when the terminal is in an activated state with respect to the secondary cell.
  • the terminal performs channel state information measurement and reporting based on the second configuration information (S200).
  • the second setting may include at least one of the contents described below.
  • the second setting information may include a setting for a reference signal RS that the terminal should measure in the dormant state (of course, the setting for the RS may be provided separately from the second setting information). ).
  • the network may set or indicate the RS configuration for CSI measurement of the dormant terminal to the terminal through higher layer signaling such as RRC signaling or MAC signaling.
  • the network may indicate by incorporating RS configuration in which each terminal performs measurement in the dormant state into RRC signaling or MAC CE signaling instructing the state transition to the dormant state.
  • the terminal when the device is switched to the dormant state by a timer, the terminal follows the setting (s) for CSI measurement set in the active state, or is defined in advance to perform only CSI measurement for one or a part of the settings. Can be signaled.
  • a terminal that has entered a dormant state by a timer may only measure the lowest port number among CSI-RS settings for CSI measurement set in a previous activation state.
  • each CSI-RS setting also includes information on the corresponding port number.
  • the terminal enters the dormant state by a timer, the terminal performs measurement according to the CSI-RS setting for the lowest port number among the first CSI-RS setting to the Nth CSI-RS setting. You can.
  • RS for CSI measurement may be indicated to the UE in the form of CSI-RS configuration.
  • the setting for the CSI measurement report and the RS setting can be associated. Therefore, the CSI measurement setting to be used for the dormant state may be to use different measurement reporting settings for the same RS setting. For example, according to the configuration of the CSI measurement report, the cycle of the CSI feedback, the CSI reporting mode (eg, 'no subband CSI feedback' in the dormant state), the channel to which the feedback is to be transmitted (eg, transmission by PUCCH in the dormant state) ), Etc. can be set differently.
  • switching may be performed with a specific bandwidth part (BWP), and the second setting information may also include the setting for the specific BWP. (Of course, the setting for the specific BWP may be provided separately from the second setting information).
  • BWP bandwidth part
  • the bandwidth part (BWP) is instructed to switch (that is, the BWP to fallback when the go to the sleep state (let this be referred to as the sleep BWP) is set separately), and the corresponding sleep BWP CSI feedback can be set in the setting of.
  • the dormant BWP may have a bandwidth for CSI feedback / measurement within a dormant BWP bandwidth (BW).
  • BW bandwidth for CSI feedback / measurement
  • the BSI of the CSI feedback / measurement can be set separately from the dormant BWP in consideration of the case where the dormant BWP has a bandwidth (BW) of 0 (zero) or a very small BW.
  • CSI feedback is assumed to be measured using DM-RS / SSS of a synchronization signal / PBCH block (SSB), or CSI-RS for measurement is disabled and operation using SSB Can assume fallback.
  • SSB synchronization signal / PBCH block
  • the network may indicate the BWP performing CSI measurement in the dormant state as follows. The following options may be implemented alone or in combination.
  • the UE can perform CSI measurement only in a specific BWP (s).
  • a specific BWP (s) is indicated by a network (for example, RRC signaling, MAC CE signaling), or defined in advance (for example, the lowest indexed BWP among the BWPs of the corresponding SCell or the first activated BWP) ).
  • the terminal may perform CSI measurement on the BWP (s) set in the activation state before the dormant state.
  • the network When instructing to perform CSI measurement for one or multiple BWPs, the network signals the CSI RS configuration in each BWP or uses the previously set CSI RS configuration for each BWP for the corresponding BWP. You may be instructed to perform CSI measurements.
  • the terminal may be instructed to BWP (s) performing CSI measurement in a dormant state based on network signaling or by a predefined definition.
  • the network sets the dormant BWP separately, and when the terminal goes to the dormant state for a specific cell, the terminal can switch to the dormant BWP.
  • CSI feedback may release restrictions that should be performed in the dormant BWP and feedback CSI in another BWP, or CSI measurement / feedback settings may be provided separately from the dormant BWP.
  • CSI measurement / reporting may be set in the dormant BWP, but unnecessary operation such as control channel monitoring may be avoided by not configuring CORESET in the dormant BWP.
  • the terminal may fall back in the dormant state by assuming a default BWP or an initial BWP. This method can be assumed / used only when the terminal supports dynamic BWP switching. Alternatively, the terminal supporting the dormant state may be assumed to support such switching. In the latter case, different delay requirements (terminal delay type) can be assumed compared to conventional dynamic BWP switching.
  • the terminal when switching to a specific BWP is instructed, the terminal may consider that the corresponding state (eg, a secondary cell) is changed to a dormant state.
  • the specific BWP may be a dormant BWP. Switching by a timer or switching by an explicit DCI can be considered, or a new command by MAC CE can be assumed.
  • the terminal may be explicitly indicated through an RRC message or a media access control (MAC) control element (CE) to perform a state transition from an activated state (or an inactive state) to a dormant state, but the timer is activated When it expires, it can also transition to a dormant state. For example, if a specific signal is not received for a certain period of time in an activated state, the timer may be increased, and when the timer expires, the state may be set or set to a dormant state. Let the timer be a dormant state timer.
  • MAC media access control
  • the sleep state timer operates similarly to other default timers, but there may be a difference that the sleep state timer starts after switching to the default BWP. That is, if a control channel is not received, the sleep state timer is increased, but the sleep state timer can be started only in the basic BWP, and the timer value may be set differently than the default timer. In this operation, the time can also be reduced by setting the default immediately to the dormant BWP.
  • the following options (combinations are also possible) can be considered as a characteristic of the dormant BWP.
  • the bandwidth (BW) can be set to zero (zero).
  • Option 2 i) If there is no CORESET / SS set, ii) If the cell is cross-carrier scheduling, iii) BWP corresponding to at least one of cases where it is set to not control channel monitoring explicitly It can be a dormant BWP.
  • Measurement-related settings such as measurement gap can be configured separately.
  • 15 illustrates a method of reporting CSI measurement results of a terminal configured with a primary cell and a secondary cell.
  • the terminal may receive a dormant state indication / notification of the secondary cell from the base station (network) (S151).
  • the indication / notification may be received through an RRC signal or MAC CE, as described above.
  • the indication / notification may further include at least one of an RS setting and a BWP setting for the dormant state. That is, the indication / notification may include the second setting information described above.
  • the UE may stop monitoring the PDCCH of the secondary cell and measure the RS according to the RS setting in the BWP according to the BWP setting (S152).
  • the RS setting, the BWP setting, and the terminal operation according to each setting have already been described in detail.
  • the terminal reports the CSI measurement result to the base station (S153).
  • management of each (analog) beam can be performed due to the introduction of an analog beam.
  • the terminal performs measurement and reporting for each beam using CSI-RS for beam management (BM) indicated by the network, and the network performs PDCCH / PDSCH transmission to the corresponding terminal based on the report of the terminal. You can decide which beam to use.
  • the network may set or indicate to the terminal an RS configuration for performing beam management in a dormant state.
  • the RS configuration for the BM in the dormant state may be signaled separately, or the BM performed in the activated state before the dormant state may be performed in the dormant state.
  • the network is MAC CE signaling indicating the switching of the BM RS (eg, CSI-RS, SSB, TRS) in the dormant state to the dormant state.
  • the UE may be notified using RRC signaling or the like.
  • the terminal receiving the signaling may perform beam management in a dormant state based on the setting included in the signal.
  • the RS setting for the BM in the dormant state may be predefined to follow the RS setting for the BM in the active state, or to perform only BM measurement for a specific RS setting.
  • the terminal performs only measurement for the RS having the lowest port number among RS settings for BM signaled in the activated state, or when there are multiple types of BM measured RS in the activated state, a specific type of RS (for example, , SSB) may be defined in advance to perform only BM measurement or may be indicated through higher layer signaling.
  • an indication or a pre-definition of the BWP on which the BM measurement is performed may be applied.
  • the BWP performing the BM measurement in the dormant state may be indicated by the network, or may be determined by a dictionary definition.
  • a terminal operating in a dormant BWP may perform beam management-related measurement (and / or reporting) in a previously activated BWP.
  • the methods proposed in the CSI measurement may be equally applied.
  • the beam measurement may fall back to using the SSB in the dormant state.
  • the SSB is not explicitly configured, it can be assumed that the UE measures using the SSB, and the network can set whether to use all SSBs or only a subset thereof.
  • the dormant BWP is 0 (zero) BW, it is assumed that the UE measures by falling back to the SSB. If the dormant BWP is a non-zero BW, the SSB is not configured to include the SSB. You can assume that you can read.
  • the terminal may perform only a part of the measurement or other measurements according to the relationship between each measurement.
  • L1-RSRP means a reference signal received power (RSRP) related to a physical layer (L1).
  • RSRP may be defined as a linear average of the power contribution of a resource element carrying a cell-specific reference signal within the measured measurement frequency bandwidth BW, and fading (specifically fast fading and shadow fading) associated with a reference symbol with a reference signal When the average of) is performed in the physical layer, it may be referred to as L1-RSRP.
  • L3-RSRP may mean RSRP associated with the RRC layer (L3), and may be RSRP obtained by applying a filtering factor of the RRC layer to measurement results received from the physical layer.
  • the UE may not measure L3-RSRP for a measurement object set in association with a corresponding SCell.
  • Step 3 The terminal may prepare for handover by performing L3-RSRP when the corresponding L1-RSRP is below a certain threshold. Or, if L1-RSRP is performed on a subset of SSBs, it can be extended to the entire SSB. If it is the latter, the terminal repeats steps 1-3.
  • the terminal can measure only the SSB (or SSB index set in the dormant state) associated with the existing CORESET # 0. If the corresponding L1-RSRP is above a certain threshold, the UE can measure only the corresponding SSB. The UE may measure a subset of the SSB or the entire SSB when the corresponding L1-RSRP is below a certain threshold. Thereafter, the terminal may follow the process of Example 1.
  • the UE may not perform L1-RSRP / L3-RSRP measurement / reporting. If the CSI feedback is below a certain value, the terminal may follow Example 2 or Example 1.
  • CSI feedback eg, broadband CQI
  • L1-RSRP is performed according to Example 2, the UE can perform CSI measurement / feedback only when the measurement / feedback value is more than a certain value.
  • the terminal When the best beam is changed according to the variation of the corresponding L1-RSRP value, the terminal is not QCLed to the CSI-RS in which the corresponding SSB is set, 1) The resource (time / frequency) is left as it is and the QCL relationship is dynamically changed to measure Either continue, 2) stop CSI measurement until a new CSI-RS is received, or 3) construct a beam sweep in the case of CSI-RS to change the new CSI-RS resource when the QCL relationship changes. It can be made available. This beam sweep form can also be applied to PUCCH or PUSCH.
  • the PUCCH resource that can be dynamically selected can be dynamically set, or the QCL relationship can be set to be changed to a previously set resource.
  • the UE performs example 4, etc., but if the L1-RSRP / CSI feedback for the configured SSB index becomes below a certain value, beam failure / recovery may be performed.
  • Beam failure (BF) is generally detected based on the reception performance of the control channel, and a recovery process is performed.
  • the beam failure recovery (BFR) process of the existing NR is based on the TCI state of the CORESET monitored by the UE when RS configuration for beam failure detection (BFD) is signaled to the UE by the network or there is no corresponding signaling. Measurements are made to determine. Then, when a beam failure is detected, the terminal finds a new beam through measurement and provides information on the new beam to the network by performing an RACH process associated with the beam.
  • the UE when a beam failure is detected for a dormant SCell, it is proposed that the UE does not perform measurements and reports performed prior to the beam failure for the dormant state of the corresponding SCell. This can be interpreted as a method for faithfully performing power saving in the dormant state.
  • beam failure detection in the dormant SCell may be performed in a limited manner compared to the activated state in order to save power. For this, a beam failure RS setting different from the activation state may be applied.
  • RS configuration for detecting beam failure in a dormant state may be signaled separately.
  • the network may include RS configuration for determining whether to detect a beam failure in RRC signaling or MAC CE signaling (indicating a transition to a dormant state).
  • the beam failure RS setting in the dormant state may be determined by a predefined rule. For example, the beam failure RS set in the active state before the corresponding dormant state may be maintained. In this case, since the measurement of multiple RSs is performed, the probability of beam failure can be lowered, which has the advantage of preventing frequent state changes. However, in this case, since the frequency of measurement in the dormant state may increase, there is a disadvantage in that the power saving effect is reduced. In order to solve this problem, in the dormant state, it may be previously defined to perform measurement only on some of the RSs that have performed the measurement in the activated state.
  • the BF-related measurement can be performed only for the RS linked to the TCI state.
  • the terminal may operate as follows.
  • the terminal may switch to the activated state and perform beam management and beam failure detection in the activated state.
  • This may be interpreted as an operation considering that a beam failure is detected in the dormant state, but may not be an actual beam failure situation in the activated state.
  • the UE may perform beam management and / or measurement for beam failure detection in the previously activated BWP. This may mean that the beam failure in the dormant state operates as a (automatic) switching condition from the dormant state to the activated state.
  • the terminal may switch to an active state and perform a beam failure recovery operation.
  • the difference from the proposal of 1. is that in the case of 1., it means that beam failure detection, not beam failure recovery, is performed again from the perspective of the activated state. It is recognized as a failure and performs beam failure recovery. In this case, there may be an advantage of rapidly performing beam recovery in a situation in which channel quality is poor.
  • Example 2 In order to declare a beam failure, there may be no CORESET monitored in the dormant state, so it may be necessary to separately configure the RS for beam failure as in Example 2 above. In the case of beam failure, if there is no separate configuration for recovery, it can fall back to the initial BWP. Alternatively, it may be assumed that recovery is performed using SSB. Alternatively, the measurement process may be set differently from other activated BWPs as in Example 1-5 above.
  • the terminal may not perform beam recovery. If the L3-RSRP or L1-RSRP for the serving cell is greater than or equal to a predetermined value, the UE may perform beam recovery when changing to an active state without performing beam recovery. That is, even if a beam failure occurs, the UE may perform RRM measurement without performing beam failure recovery.
  • the L3-RSRP or L1-RSRP for the serving cell is below a certain value, or in general, the RRM in the dormant state is the best beam (eg, L1-RSRP value and / or best) when raising the best beam or the average RRM value. Beam index). This can be used by the network as information about the beam to be used when switching to the active state.
  • the present disclosure proposes to commonly apply RS settings required in the corresponding processes.
  • the same RS configuration can be commonly applied to some or all of CSI measurement (signal / interference measurement), RRM measurement, beam management, and beam failure detection.
  • the RS setting method for the present disclosure may be implemented through one or a combination of the following methods.
  • the RS configuration determined by the following method can be applied to all or part of CSI measurement (signal / interference measurement), RRM measurement, beam management, and beam failure detection.
  • the network When applied to a part, the network may set or indicate one or more processes associated with RS configuration to the terminal.
  • the RS setting in the dormant state may reuse one or a part of the RS settings in the active state before the corresponding dormant state.
  • the RS setting used in the dormant state may be determined by a predefined definition or set or indicated by a network.
  • a TCI state (RS setting) associated with a specific CORESET of a specific BWP may be used as an RS setting in a dormant state.
  • the RS setting (or SSB index) corresponding to the TCI state of the lowest indexed CORESET of the activation BWP (or the first activation BWP in the SCell) immediately before the dormant state may be determined as the RS setting in the dormant state. have.
  • the network may set or instruct the UE to set the dormant state separately from the activated state. This may be set or indicated by RRC signaling, or may be included in MAC CE signaling indicating transition to the dormant state.
  • the terminal may assume different RS settings according to the type of transition from the active state to the dormant state. For example, when the network is switched from the activated state to the dormant state, the network may add RS settings used in the dormant state to the state conversion information. On the other hand, in the case of state conversion due to the expiration of a timer for a period in which data is not received, RS setting in a corresponding dormant state may be determined by a predefined definition.
  • the present disclosure proposes a terminal operation immediately after switching from a dormant state to an activated state.
  • the methods below can be implemented alone or in combination.
  • the network may indicate one of methods 1 and 2 below through higher layer signaling.
  • the terminal may perform limited measurement in the dormant state for power saving and the like.
  • it is difficult to expect measurement accuracy or measurement adaptation (depending on channel conditions) because the dormant state may be limited in signaling and the like. Therefore, when switching from the dormant state to the activated state, it may be necessary to solve a problem such as measurement accuracy that may occur during the dormant state through a simple process. This may mean that it is not possible to grasp the exact channel state due to the operation in the dormant state, so it is preferable to avoid PDCCH monitoring using terminal-specific channel information.
  • the present disclosure defines a basic BWP, a basic CORESET / SS set, etc., and suggests that the setting is determined by a dictionary definition or indicated by a network.
  • the setting is applied by a dictionary definition, the following method may be considered.
  • the default BWP may be determined based on the BWP setting in the activated state before the corresponding dormant state. For example, the most recent activation BWP in the activation state prior to the dormant state may be defined as the default BWP. Alternatively, the first activated BWP in the corresponding SCell may be defined as the default BWP.
  • the lowest indexed CORESET or SS set defined in the basic BWP may be defined as the default CORESET or SS set.
  • the CORESET (s) / SS set (s) used for CSS use among the CORESET / SS sets set in the basic BWP may be defined as the default CORESET (s) / SS set (s).
  • the basic BWP / CORESET / SS set when transitioning from the dormant state to the activated state may be set or indicated by the network (via RRC signaling or MAC CE signaling).
  • Switching from the basic BWP / CORESET / SS set to the existing set BWP / CORESET / SS set may be triggered by an additional timer or network signaling. For example, if there are 3 CORESETs and 10 SS sets in the active BWP immediately before operating in the dormant BWP, the terminal that switches from the dormant state to the activated state is a predefined or network-directed default reset. Monitoring of the / SS set is performed for a given time (by a timer), and when the corresponding timer expires, monitoring of the existing set of CORESETs / SS sets can be performed.
  • Method 2 Existing BWP / CORESET / SS aggregate monitoring.
  • the previously set BWP / CORESET / SS set can also be applied to the transition from the dormant state to the activated state. That is, the terminal can apply the activated BWP in the most recently activated state and the CORESET / SS set set for the BWP in the activated state after the dormant state. This may be interpreted as a method for reducing additional signaling overhead and ensuring scheduling flexibility when dynamic state transformation is applied and a short period of dormant state is applied.
  • terminal is a general term, and is used interchangeably with a mobile device such as a mobile station (MS), a user equipment (UE), or a mobile terminal
  • base station is a general term, a base station (BS).
  • eNB evolved NodeB
  • ng-eNB node B
  • gNB nodeB
  • examples of the proposed method may be included as one of implementation methods of the present disclosure, and thus can be regarded as a kind of proposed methods.
  • the proposed schemes may be implemented independently, but may be implemented in a combination (or merge) form of some proposal schemes.
  • a rule may be defined such that the base station notifies the UE through a predefined signal (for example, a physical layer signal or a higher layer signal).
  • a predefined signal for example, a physical layer signal or a higher layer signal.
  • the proposed method described in the embodiments of the present disclosure and methods that can be extended from the method may be implemented as an apparatus, and the present disclosure also includes information on an apparatus implementing the proposed method. The description of the device will be described later with reference to the accompanying drawings.
  • 16 is a block diagram showing the components of a transmitting device 1810 and a receiving device 1820 that perform the present invention.
  • the transmitting device and the receiving device may be base stations (networks) or terminals, respectively.
  • the transmitting device 1810 and the receiving device 1820 are information and / or transceivers 1812 and 1822 capable of transmitting or receiving wireless signals carrying data, signals, messages, and the like, and various information related to communication in the wireless communication system. It is connected to components such as memory (1813, 1823), the transceiver (1812, 1822) and memory (1813, 1823) for storing the control device, the device is one of the above-described embodiments of the present invention And processors 1811 and 1821 configured to control memory 1813 and 1823 and / or transceivers 1812 and 1822, respectively, to perform at least one.
  • the transceiver may be referred to as a transceiver.
  • the memories 1813 and 1823 may store programs for processing and control of the processors 1811 and 1821, and temporarily store input / output information.
  • the memories 1813 and 1823 can be utilized as buffers.
  • Processors 1811 and 1821 typically control the overall operation of various modules in the transmitting or receiving device.
  • the processors 1811 and 1821 may perform various control functions for performing the present invention.
  • the processors 1811 and 1821 may also be referred to as controllers, microcontrollers, microprocessors, microcomputers, and the like.
  • the processors 1811 and 1821 may be implemented by hardware or firmware, software, or a combination thereof.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • firmware or software may be configured to include a module, procedure, or function for performing functions or operations of the present invention, and configured to perform the present invention.
  • the firmware or software may be provided in the processors 1811 and 1821 or stored in the memories 1813 and 1823 to be driven by the processors 1811 and 1821.
  • the processor 1811 of the transmission device 1810 may perform predetermined encoding and modulation on signals and / or data to be transmitted to the outside, and then transmit it to the transceiver 1812.
  • the processor 1811 may generate a codeword through demultiplexing and channel encoding, scrambling, and modulation processes of a data stream to be transmitted.
  • the codeword may include information equivalent to a transport block that is a data block provided by the MAC layer.
  • One transport block (TB) may be encoded as one codeword.
  • Each codeword may be transmitted to a receiving device through one or more layers.
  • the transceiver 1812 may include an oscillator.
  • the transceiver 1812 may include one or multiple transmit antennas.
  • the signal processing process of the reception device 1820 may be configured as an inverse of the signal processing process of the transmission device 1810.
  • the transceiver 1822 of the receiving device 1820 may receive a wireless signal transmitted by the transmitting device 1810.
  • the transceiver 1822 may include one or more receiving antennas.
  • the transceiver 1822 may frequency-convert each of the signals received through the reception antenna to restore a baseband signal.
  • the transceiver 1822 may include an oscillator for frequency downconversion.
  • the processor 1821 performs decoding and demodulation on the radio signal received through the reception antenna to restore data originally intended for the transmission device 1810 to transmit.
  • the transceivers 1812 and 1822 may have one or more antennas.
  • the antenna transmits signals processed by the transceivers 1812 and 1822 to the outside or receives radio signals from the outside, according to an embodiment of the present invention under the control of the processors 1811 and 1821. ).
  • the antenna may also be referred to as an antenna port.
  • Each antenna may correspond to one physical antenna or may be configured by a combination of more than one physical antenna element. The signal transmitted from each antenna can no longer be resolved by the receiving device 1820.
  • the reference signal (RS) transmitted corresponding to the corresponding antenna defines an antenna viewed from the viewpoint of the receiving device 1820, and whether the channel is a single radio channel from one physical antenna or includes the antenna Regardless of whether it is a composite channel from a plurality of physical antenna elements, the receiving device 1820 can enable channel estimation for the antenna. That is, the antenna may be defined such that a channel carrying a symbol on the antenna can be derived from the channel carrying another symbol on the same antenna. In the case of a transceiver supporting a multi-input multi-output (MIMO) function that transmits and receives data using a plurality of antennas, two or more antennas may be connected.
  • MIMO multi-input multi-output
  • FIG. 17 shows an example of a structure of a signal processing module in the transmission device 1810.
  • signal processing may be performed in a processor of a base station / terminal such as the processors 1811 and 1821 of FIG. 16.
  • a transmission device 1810 in a terminal or a base station includes a scrambler 301, a modulator 302, a layer mapper 303, an antenna port mapper 304, a resource block mapper 305, and a signal generator 306 ).
  • the transmitting device 1810 may transmit one or more codewords.
  • the coded bits in each codeword are each scrambled by the scrambler 301 and transmitted on the physical channel.
  • the codeword may also be referred to as a data stream, and may be equivalent to a transport block, which is a data block provided by the MAC layer.
  • the scrambled bits are modulated by the modulator 302 into complex-valued modulation symbols.
  • the modulator 302 modulates the scrambled bits according to a modulation scheme and can be arranged as a complex modulation symbol representing a position on a signal constellation.
  • m-PSK m-Phase Shift Keying
  • m-QAM m-Quadrature Amplitude Modulation
  • the modulator may be referred to as a modulation mapper.
  • the complex modulation symbol may be mapped to one or more transport layers by the layer mapper 303.
  • the complex modulation symbol on each layer can be mapped by the antenna port mapper 304 for transmission on the antenna port.
  • the resource block mapper 305 may map complex modulation symbols for each antenna port to appropriate resource elements in a virtual resource block allocated for transmission.
  • the resource block mapper may map the virtual resource block to a physical resource block according to an appropriate mapping scheme.
  • the resource block mapper 305 allocates a complex modulation symbol for each antenna port to an appropriate subcarrier and multiplexes it according to a user.
  • the signal generator 306 modulates a complex modulation symbol for each antenna port, that is, an antenna-specific symbol in a specific modulation scheme, for example, an orthogonal frequency division multiplexing (OFDM) scheme, to form a complex-valued time domain.
  • An OFDM symbol signal can be generated.
  • the signal generator may perform an Inverse Fast Fourier Transform (IFFT) on an antenna-specific symbol, and a CP (Cyclic Prefix) may be inserted in the time domain symbol on which the IFFT is performed.
  • IFFT Inverse Fast Fourier Transform
  • CP Cyclic Prefix
  • the OFDM symbol is transmitted to a receiving device through each transmit antenna through digital-to-analog conversion, frequency upconversion, and the like.
  • the signal generator may include an IFFT module and a CP inserter, a digital-to-analog converter (DAC), and a frequency uplink converter.
  • DAC digital-to-analog converter
  • the signal processing may be performed in the processor of the terminal / base station, such as the processors 1811 and 1821 of FIG. 16.
  • a transmission device 1810 in a terminal or a base station includes a scrambler 401, a modulator 402, a layer mapper 403, a precoder 404, a resource block mapper 405, and a signal generator 406. It may include.
  • the transmission device 1810 may transmit coded bits in a codeword by a scrambler 401 for one codeword, and then transmit through a physical channel.
  • the scrambled bits are modulated by the modulator 402 into complex modulation symbols.
  • the modulator may modulate the scrambled bits according to a predetermined modulation scheme and may be arranged as a complex modulation symbol representing a position on a signal constellation.
  • a predetermined modulation scheme There are no restrictions on the modulation scheme, pi / 2-BPSK (pi / 2-Binary Phase Shift Keying), m-PSK (m-Phase Shift Keying) or m-QAM (m-Quadrature Amplitude Modulation). It can be used for modulation of the coded data.
  • the complex modulation symbol may be mapped to one or more transport layers by the layer mapper 403.
  • the complex modulation symbol on each layer can be precoded by the precoder 404 for transmission on the antenna port.
  • the precoder may perform precoding after performing transform precoding on the complex modulation symbol.
  • the precoder may perform precoding without performing transform precoding.
  • the precoder 404 may process the complex modulation symbol in a MIMO scheme according to multiple transmit antennas to output antenna specific symbols and distribute the antenna specific symbols to a corresponding resource block mapper 405.
  • the output z of the precoder 404 can be obtained by multiplying the output y of the layer mapper 403 by the precoding matrix W of N ⁇ M.
  • N is the number of antenna ports and M is the number of layers.
  • the resource block mapper 405 maps demodulation and modulation symbols for each antenna port to appropriate resource elements in the virtual resource block allocated for transmission.
  • the resource block mapper 405 may allocate complex modulation symbols to appropriate subcarriers and multiplex them according to users.
  • the signal generator 406 may generate a complex-valued time domain (OFDM) orthogonal frequency division multiplexing (OFDM) symbol signal by modulating a complex modulation symbol with a specific modulation method, for example, an OFDM method.
  • the signal generator 406 may perform an Inverse Fast Fourier Transform (IFFT) on an antenna specific symbol, and a CP (Cyclic Prefix) may be inserted in the time domain symbol on which the IFFT is performed.
  • IFFT Inverse Fast Fourier Transform
  • CP Cyclic Prefix
  • the OFDM symbol is transmitted to a receiving device through each transmit antenna through digital-to-analog conversion, frequency upconversion, and the like.
  • the signal generator 406 may include an IFFT module and a CP inserter, a digital-to-analog converter (DAC), a frequency uplink converter, and the like.
  • the signal processing process of the receiving device 1820 may be configured as an inverse of the signal processing process of the transmitter.
  • the processor 1821 of the receiving device 1820 externally performs decoding and demodulation on the wireless signal received through the antenna port (s) of the transceiver 1822.
  • the receiving device 1820 may include a plurality of multiple receiving antennas, and each of the signals received through the receiving antennas is restored to a baseband signal, and then multiplexed and MIMO demodulated to allow the transmitting device 1810 to transmit the original signal. It is restored to the data stream that was done.
  • the receiving device 1820 may include a signal restorer for restoring the received signal to a baseband signal, a multiplexer combining multiplexed received signals, and a channel demodulator demodulating the multiplexed signal sequence with a corresponding codeword.
  • the signal restorer, multiplexer, and channel demodulator may be composed of one integrated module or each independent module performing their functions. More specifically, the signal recoverer is an analog-to-digital converter (ADC) that converts an analog signal into a digital signal, a CP remover that removes CP from the digital signal, and a fast Fourier transform (FFT) on a signal from which the CP is removed.
  • ADC analog-to-digital converter
  • FFT fast Fourier transform
  • An FFT module for outputting a frequency domain symbol by applying, and a resource element demapper / equalizer for restoring the frequency domain symbol to an antenna specific symbol may be included.
  • the antenna specific symbol is restored to a transmission layer by a multiplexer, and the transmission layer is restored to a codeword that the transmitting apparatus intends to transmit by a channel demodulator.
  • FIG 19 shows an example of a wireless communication device according to an embodiment of the present invention.
  • a wireless communication device for example, a terminal includes a processor 2310 such as a digital signal processor (DSP) or a microprocessor, a transceiver 2335, a power management module 2305, an antenna ( 2340), battery 2355, display 2315, keypad 2320, Global Positioning System (GPS) chip 2360, sensor 2365, memory 2330, Subscriber Identification Module (SIM) card 2325, It may include at least one of a speaker 2345 and a microphone 2350. There may be a plurality of antennas and processors.
  • the processor 2310 may implement functions, procedures, and methods described herein.
  • the processor 2310 of FIG. 19 may be the processors 1811 and 1821 of FIG. 16.
  • the memory 2330 is connected to the processor 2310 and stores information related to the operation of the processor.
  • the memory may be located inside or outside the processor, and may be connected to the processor through various technologies such as a wired connection or a wireless connection.
  • the memory 2330 of FIG. 19 may be the memories 1813 and 1823 of FIG. 16.
  • the user may input various kinds of information such as a phone number using various techniques such as pressing a button of the keypad 2320 or activating sound using a microphone 2350.
  • the processor 2310 may perform appropriate functions, such as receiving and processing user information and making a call to the input telephone number.
  • data may be retrieved from SIM card 2325 or memory 2330 to perform the appropriate function.
  • the processor 2310 may display various types of information and data on the display 2315 for user convenience.
  • the transceiver 2335 is connected to the processor 2310, and transmits and / or receives a radio signal such as a radio frequency (RF) signal.
  • the processor may control the transceiver to initiate communication or to transmit wireless signals including various types of information or data such as voice communication data.
  • the transceiver includes a transmitter and a receiver for transmission and reception of radio signals.
  • the antenna 2340 may facilitate transmission and reception of wireless signals.
  • the transceiver may forward and convert the signal to a baseband frequency for processing by the processor upon receiving the wireless signal.
  • the processed signal can be processed by various techniques, such as being converted into audible or readable information to be output through the speaker 2345.
  • the transceiver of FIG. 19 may be the transceivers 1812 and 1822 of FIG. 16.
  • various components such as a camera and a Universal Serial Bus (USB) port may be additionally included in the terminal.
  • the camera may be connected to the processor 2310.
  • the terminal does not necessarily include all elements of FIG. 19. That is, some components, for example, the keypad 2320, the Global Positioning System (GPS) chip 2360, the sensor 2365, the SIM card 2325, etc. may not be essential elements, and in this case, they are not included in the terminal. It may not.
  • GPS Global Positioning System
  • FIG 20 shows an example of the processor 2000.
  • the processor 2000 may include an RRC signal and / or MAC CE, DCI receiving processing module 2010 and a CSI / RRM measurement and reporting processing module 2020.
  • the processor 2000 may execute the methods (the position of the receiver) described in FIGS. 14 to 15.
  • the processor 2000 may receive second configuration information applied when the terminal is in a dormant state with respect to the secondary cell, and perform channel state information measurement and reporting based on the second configuration information. have.
  • the processor 2000 may be an example of the processors 1811 and 1821 of FIG. 16.
  • 21 shows an example of the processor 3000.
  • the processor 3000 may include an RRC signal and / or MAC CE, DCI generation module 3010 and information transmission / reception module 3020.
  • the processor 3000 receives first configuration information and a dormant state for the secondary cell when the RRC signal and / or MAC CE, the activated state for the secondary cell through the DCI generation module 3010 In this case, after generating the second setting information to be applied, and transmitting the setting information, the CSI / RRM measurement result according to the setting information may be fed back through the information transmission / reception module 3020.
  • the processor 3000 may be an example of the processors 1811 and 1821 of FIG. 16.
  • FIG. 22 shows an example of a 5G usage scenario to which the technical features of the present invention can be applied.
  • the 5G usage scenario illustrated in FIG. 22 is merely exemplary, and the technical features of the present invention can be applied to other 5G usage scenarios not illustrated in FIG. 22.
  • the three main requirements areas of 5G are (1) an enhanced mobile broadband (eMBB) area, (2) a large amount of machine type communication (mMTC) area, and ( 3) Ultra-reliable and low latency communications (URLLC) area.
  • eMBB enhanced mobile broadband
  • mMTC machine type communication
  • URLLC Ultra-reliable and low latency communications
  • Some use cases may require multiple areas for optimization, and other use cases may focus on only one key performance indicator (KPI).
  • KPI key performance indicator
  • eMBB focuses on improving overall data rate, latency, user density, capacity and coverage of mobile broadband connections.
  • eMBB targets throughput of about 10 Gbps.
  • eMBB goes far beyond basic mobile Internet access and covers media and entertainment applications in rich interactive work, cloud or augmented reality.
  • Data is one of the key drivers of 5G, and it may not be possible to see dedicated voice services for the first time in the 5G era.
  • voice is expected to be processed as an application simply using the data connection provided by the communication system.
  • the main causes of increased traffic volume are increased content size and increased number of applications requiring high data rates.
  • Streaming services audio and video
  • interactive video and mobile internet connections will become more widely used as more devices connect to the internet.
  • Cloud storage and applications are rapidly increasing in mobile communication platforms, which can be applied to both work and entertainment.
  • Cloud storage is a special use case that drives the growth of uplink data rates.
  • 5G is also used for remote work on the cloud and requires much lower end-to-end delay to maintain a good user experience when a tactile interface is used.
  • cloud gaming and video streaming are another key factor in increasing the demand for mobile broadband capabilities.
  • Entertainment is essential for smartphones and tablets anywhere, including in high mobility environments such as trains, cars and airplanes.
  • Another use case is augmented reality and information retrieval for entertainment.
  • augmented reality requires a very low delay and an instantaneous amount of data.
  • mMTC is designed to enable communication between large amounts of low-cost devices powered by batteries, and is intended to support applications such as smart metering, logistics, field and body sensors.
  • mMTC targets 10 years of battery and / or 1 million devices per km2.
  • mMTC enables seamless connection of embedded sensors in all fields and is one of the most anticipated 5G use cases. Potentially, 2020 is expected to reach 20.4 billion IoT devices.
  • Industrial IoT is one of the areas where 5G plays a key role in enabling smart cities, asset tracking, smart utilities, agriculture and security infrastructure.
  • URLLC is ideal for vehicle communication, industrial control, factory automation, telesurgery, smart grid and public safety applications by enabling devices and machines to communicate with high reliability and very low latency and high availability.
  • URLLC aims for a delay of about 1ms.
  • URLLC includes new services that will transform the industry through ultra-reliable / low-latency links such as remote control of key infrastructure and autonomous vehicles. Reliability and level of delay are essential for smart grid control, industrial automation, robotics, drone control and coordination.
  • 5G can complement fiber-to-the-home (FTTH) and cable-based broadband (or DOCSIS) as a means to provide streams rated at hundreds of megabits per second to gigabit per second.
  • FTTH fiber-to-the-home
  • DOCSIS cable-based broadband
  • Such fast speeds may be required to deliver TVs in resolutions of 4K or higher (6K, 8K and higher) as well as virtual reality (VR) and augmented reality (AR).
  • VR and AR applications include almost immersive sports events. Certain applications may require special network settings. For VR games, for example, a gaming company may need to integrate a core server with a network operator's edge network server to minimize latency.
  • Automotive is expected to be an important new driver for 5G, with many examples of use for mobile communications to vehicles. For example, entertainment for passengers requires high capacity and high mobile broadband simultaneously. This is because future users continue to expect high-quality connections regardless of their location and speed.
  • Another example of use in the automotive field is the augmented reality dashboard.
  • the augmented reality contrast board allows the driver to identify objects in the dark over what is being viewed through the front window.
  • the augmented reality dashboard superimposes information to inform the driver about the distance and movement of the object.
  • wireless modules will enable communication between vehicles, exchange of information between the vehicle and the supporting infrastructure, and exchange of information between the vehicle and other connected devices (eg, devices carried by pedestrians).
  • the safety system helps to reduce the risk of accidents by guiding an alternative course of action to help the driver drive more safely.
  • the next step will be a remotely controlled vehicle or an autonomous vehicle.
  • This requires very reliable and very fast communication between different autonomous vehicles and / or between the vehicle and the infrastructure.
  • autonomous vehicles will perform all driving activities, and drivers will focus only on traffic beyond which the vehicle itself cannot identify.
  • the technical requirements of autonomous vehicles require ultra-low delay and ultra-high-speed reliability to increase traffic safety to a level that cannot be achieved by humans.
  • Smart cities and smart homes will be embedded in high-density wireless sensor networks.
  • the distributed network of intelligent sensors will identify the conditions for cost and energy efficient maintenance of a city or home. Similar settings can be made for each assumption.
  • Temperature sensors, window and heating controllers, burglar alarms and consumer electronics are all connected wirelessly. Many of these sensors typically require low data rates, low power and low cost. However, for example, real-time HD video may be required in certain types of devices for surveillance.
  • the smart grid interconnects these sensors using digital information and communication technologies to collect information and act accordingly. This information can include supplier and consumer behavior, allowing smart grids to improve efficiency, reliability, economics, production sustainability and the distribution of fuels such as electricity in an automated manner.
  • the smart grid can be viewed as another sensor network with low latency.
  • the health sector has many applications that can benefit from mobile communications.
  • the communication system can support telemedicine that provides clinical care from a distance. This helps to reduce barriers to distance and can improve access to medical services that are not continuously available in remote rural areas. It is also used to save lives in critical care and emergency situations.
  • Mobile communication-based wireless sensor networks can provide remote monitoring and sensors for parameters such as heart rate and blood pressure.
  • Wireless and mobile communications are becoming increasingly important in industrial applications. Wiring is expensive to install and maintain. Therefore, the possibility of replacing the cable with a wireless link that can be reconfigured is an attractive opportunity in many industries. However, achieving this requires that the wireless connection operate with cable-like delay, reliability, and capacity, and that management is simplified. Low latency and very low error probability are new requirements that need to be connected to 5G.
  • Logistics and cargo tracking is an important use case for mobile communications that enables the tracking of inventory and packages from anywhere using location-based information systems. Logistics and freight tracking use cases typically require low data rates, but require wide range and reliable location information.
  • FIG. 23 shows a wireless communication device according to an embodiment of the present invention.
  • the wireless communication system may include a first device 9010 and a second device 9020.
  • the first device 9010 is a base station, a network node, a transmitting terminal, a receiving terminal, a wireless device, a wireless communication device, a vehicle, a vehicle equipped with an autonomous driving function, a connected car, a drone (Unmanned Aerial Vehicle), UAV), AI (Artificial Intelligence) module, robot, Augmented Reality (AR) device, Virtual Reality (VR) device, Mixed Reality (MR) device, Hologram device, Public safety device, MTC device, IoT device, Medical device, Pin It may be a tech device (or financial device), a security device, a climate / environment device, a device related to 5G services, or another device related to the fourth industrial revolution.
  • a tech device or financial device
  • a security device a climate / environment device, a device related to 5G services, or another device related to the fourth industrial revolution.
  • the second device 9020 is a base station, a network node, a transmitting terminal, a receiving terminal, a wireless device, a wireless communication device, a vehicle, a vehicle equipped with an autonomous driving function, a connected car, a drone (Unmanned Aerial Vehicle), UAV), AI (Artificial Intelligence) module, robot, Augmented Reality (AR) device, Virtual Reality (VR) device, Mixed Reality (MR) device, Hologram device, Public safety device, MTC device, IoT device, Medical device, Pin It may be a tech device (or financial device), a security device, a climate / environment device, a device related to 5G services, or another device related to the fourth industrial revolution.
  • a tech device or financial device
  • a security device a climate / environment device, a device related to 5G services, or another device related to the fourth industrial revolution.
  • the terminal is a mobile phone, a smart phone, a laptop computer, a terminal for digital broadcasting, a personal digital assistants (PDA), a portable multimedia player (PMP), navigation, a slate PC, a tablet
  • PDA personal digital assistants
  • PMP portable multimedia player
  • slate PC a tablet
  • It may include a PC (tablet PC), ultrabook (ultrabook), wearable device (wearable device, for example, a watch-type terminal (smartwatch), glass-type terminal (smart glass), HMD (head mounted display), and the like.
  • the HMD may be a display device worn on the head.
  • HMD can be used to implement VR, AR or MR.
  • a drone may be a vehicle that does not ride and is flying by radio control signals.
  • the VR device may include a device that implements an object or background of a virtual world.
  • the AR device may include a device that is implemented by connecting an object or background of the virtual world to an object or background of the real world.
  • the MR device may include a device that fuses and implements an object or background in the virtual world, such as an object or background in the real world.
  • the hologram device may include a device that implements a 360-degree stereoscopic image by recording and reproducing stereoscopic information by utilizing the interference phenomenon of light generated when two laser lights called holography meet.
  • the public safety device may include a video relay device or a video device wearable on a user's body.
  • the MTC device and the IoT device may be devices that do not require direct human intervention or manipulation.
  • the MTC device and the IoT device may include a smart meter, a bending machine, a thermometer, a smart light bulb, a door lock, or various sensors.
  • a medical device may be a device used for the purpose of diagnosing, treating, alleviating, treating or preventing a disease.
  • a medical device may be a device used for the purpose of diagnosing, treating, reducing or correcting an injury or disorder.
  • a medical device may be a device used for the purpose of examining, replacing, or modifying a structure or function.
  • the medical device may be a device used to control pregnancy.
  • the medical device may include a medical device, a surgical device, a (in vitro) diagnostic device, a hearing aid, or a surgical device.
  • the security device may be a device installed in order to prevent a risk that may occur and to maintain safety.
  • the security device may be a camera, CCTV, recorder or black box.
  • the fintech device may be a device capable of providing financial services such as mobile payment.
  • the fintech device may include a payment device or a point of sales (POS).
  • a climate / environmental device may include a device that monitors or predicts the climate / environment.
  • the first device 9010 may include at least one processor, such as a processor 9011, at least one memory, such as a memory 9012, and at least one transceiver, such as a transceiver 9013.
  • the processor 9011 may perform the functions, procedures, and / or methods described above.
  • the processor 9011 may perform one or more protocols.
  • the processor 9011 can perform one or more layers of a radio interface protocol.
  • the memory 9012 is connected to the processor 9011 and can store various types of information and / or instructions.
  • the transceiver 9013 is connected to the processor 9011 and can be controlled to transmit and receive wireless signals.
  • the second device 9020 may include at least one processor, such as processor 9021, at least one memory device, such as memory 9022, and at least one transceiver, such as transceiver 9023.
  • the processor 9021 may perform the functions, procedures, and / or methods described above.
  • the processor 9021 may implement one or more protocols.
  • the processor 9021 may implement one or more layers of a radio interface protocol.
  • the memory 9022 is connected to the processor 9031 and may store various types of information and / or instructions.
  • the transceiver 9023 is connected to the processor 9021 and may be controlled to transmit and receive wireless signals.
  • the memory 9012 and / or the memory 9022 may be connected to each other inside or outside the processor 9011 and / or the processor 9021, and may be connected to other processors through various technologies such as a wired or wireless connection. It may be connected to.
  • the first device 9010 and / or the second device 9020 may have one or more antennas.
  • antenna 9014 and / or antenna 9024 may be configured to transmit and receive wireless signals.
  • the present invention may be applied to the following fields.
  • Machine learning refers to the field of studying the methodology to define and solve various problems in the field of artificial intelligence. do.
  • Machine learning is defined as an algorithm that improves the performance of a job through steady experience.
  • An artificial neural network is a model used in machine learning, and may mean an overall model having a problem-solving ability, composed of artificial neurons (nodes) forming a network through a combination of synapses.
  • the artificial neural network may be defined by a connection pattern between neurons of different layers, a learning process for updating model parameters, and an activation function that generates output values.
  • the artificial neural network may include an input layer, an output layer, and optionally one or more hidden layers. Each layer contains one or more neurons, and the artificial neural network can include neurons and synapses connecting neurons. In an artificial neural network, each neuron may output a function value of an input function input through a synapse, a weight, and an active function for bias.
  • the model parameter means a parameter determined through learning, and includes weights of synaptic connections and bias of neurons.
  • the hyperparameter means a parameter that must be set before learning in a machine learning algorithm, and includes learning rate, number of iterations, mini-batch size, initialization function, and the like.
  • the purpose of training an artificial neural network can be seen as determining model parameters that minimize the loss function.
  • the loss function can be used as an index for determining an optimal model parameter in the learning process of an artificial neural network.
  • Machine learning can be classified into supervised learning, unsupervised learning, and reinforcement learning according to the learning method.
  • Supervised learning refers to a method of training an artificial neural network while a label for training data is given, and a label is a correct answer (or a result value) that the artificial neural network must infer when the training data is input to the artificial neural network.
  • Unsupervised learning may refer to a method of training an artificial neural network without a label for learning data.
  • Reinforcement learning may mean a learning method in which an agent defined in a certain environment is trained to select an action or a sequence of actions to maximize cumulative reward in each state.
  • Machine learning implemented as a deep neural network (DNN) that includes a plurality of hidden layers among artificial neural networks is also referred to as deep learning (deep learning), and deep learning is part of machine learning.
  • DNN deep neural network
  • machine learning is used to mean deep learning.
  • a robot can mean a machine that automatically handles or acts on a task given by its own capabilities.
  • a robot having a function of recognizing the environment and performing an operation by determining itself can be referred to as an intelligent robot.
  • Robots can be classified into industrial, medical, household, and military according to the purpose or field of use.
  • the robot may be provided with a driving unit including an actuator or a motor to perform various physical operations such as moving a robot joint.
  • a driving unit including an actuator or a motor to perform various physical operations such as moving a robot joint.
  • the movable robot includes a wheel, a brake, a propeller, and the like in the driving unit, so that it can travel on the ground or fly in the air through the driving unit.
  • Autonomous driving refers to the technology of driving on its own, and autonomous driving means a vehicle that operates without a user's manipulation or with a minimum manipulation of the user.
  • a technology that maintains a driving lane a technology that automatically adjusts speed such as adaptive cruise control, a technology that automatically drives along a predetermined route, and a technology that automatically sets a route when a destination is set, etc. All of this can be included.
  • the vehicle includes a vehicle having only an internal combustion engine, a hybrid vehicle having both an internal combustion engine and an electric motor, and an electric vehicle having only an electric motor, and may include a train, a motorcycle, etc. as well as a vehicle.
  • the autonomous vehicle can be viewed as a robot having an autonomous driving function.
  • Augmented reality refers to virtual reality (VR), augmented reality (AR), and mixed reality (MR).
  • VR technology provides real-world objects or backgrounds only as CG images
  • AR technology provides CG images made virtually on real objects
  • MR technology is a computer that mixes and combines virtual objects in the real world.
  • MR technology is similar to AR technology in that it shows both real and virtual objects.
  • a virtual object is used as a complement to a real object, whereas in MR technology, there is a difference in that a virtual object and a real object are used with equal characteristics.
  • HMD Head-Mount Display
  • HUD Head-Up Display
  • mobile phone tablet PC, laptop, desktop, TV, digital signage, etc. It can be called.
  • FIG 24 shows an AI device 100 according to an embodiment of the present invention.
  • the AI device 100 is a TV, projector, mobile phone, smartphone, desktop computer, laptop, digital broadcasting terminal, PDA (personal digital assistants), PMP (portable multimedia player), navigation, tablet PC, wearable device, set-top box (STB) ), DMB receivers, radios, washing machines, refrigerators, desktop computers, digital signage, robots, vehicles, and the like.
  • PDA personal digital assistants
  • PMP portable multimedia player
  • STB set-top box
  • DMB receivers radios, washing machines, refrigerators, desktop computers, digital signage, robots, vehicles, and the like.
  • the terminal 100 includes a communication unit 110, an input unit 120, a running processor 130, a sensing unit 140, an output unit 150, a memory 170, a processor 180, etc. It can contain.
  • the communication unit 110 may transmit and receive data to and from external devices such as other AI devices 100a to 100e or the AI server 200 using wired / wireless communication technology.
  • the communication unit 110 may transmit and receive sensor information, a user input, a learning model, a control signal, etc. with external devices.
  • the communication technology used by the communication unit 110 includes Global System for Mobile Communication (GSM), Code Division Multi Access (CDMA), Long Term Evolution (LTE), 5G, Wireless LAN (WLAN), and Wireless-Fidelity (Wi-Fi). ), Bluetooth (Radio Frequency Identification), RFID (Infrared Data Association; IrDA), ZigBee, Near Field Communication (NFC), and the like.
  • GSM Global System for Mobile Communication
  • CDMA Code Division Multi Access
  • LTE Long Term Evolution
  • 5G Fifth Generation
  • Wi-Fi Wireless-Fidelity
  • Bluetooth Radio Frequency Identification
  • RFID Infrared Data Association
  • ZigBee ZigBee
  • NFC Near Field Communication
  • the input unit 120 may acquire various types of data.
  • the input unit 120 may include a camera for inputting a video signal, a microphone for receiving an audio signal, a user input unit for receiving information from a user, and the like.
  • the camera or microphone is treated as a sensor, and the signal obtained from the camera or microphone may be referred to as sensing data or sensor information.
  • the input unit 120 may acquire training data for model training and input data to be used when obtaining an output using the training model.
  • the input unit 120 may obtain raw input data.
  • the processor 180 or the learning processor 130 may extract input features as pre-processing of the input data.
  • the learning processor 130 may train a model composed of artificial neural networks using the training data.
  • the trained artificial neural network may be referred to as a learning model.
  • the learning model can be used to infer a result value for new input data rather than learning data, and the inferred value can be used as a basis for determining to perform an action.
  • the learning processor 130 may perform AI processing together with the learning processor 240 of the AI server 200.
  • the learning processor 130 may include a memory integrated or implemented in the AI device 100.
  • the learning processor 130 may be implemented using memory 170, external memory directly coupled to the AI device 100, or memory maintained in the external device.
  • the sensing unit 140 may acquire at least one of AI device 100 internal information, AI device 100 environment information, and user information using various sensors.
  • the sensors included in the sensing unit 140 include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and a lidar. , And radar.
  • the output unit 150 may generate output related to vision, hearing, or tactile sense.
  • the output unit 150 may include a display unit for outputting visual information, a speaker for outputting auditory information, a haptic module for outputting tactile information, and the like.
  • the memory 170 may store data supporting various functions of the AI device 100.
  • the memory 170 may store input data, learning data, learning models, learning history, etc. acquired by the input unit 120.
  • the processor 180 may determine at least one executable action of the AI device 100 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. Also, the processor 180 may control components of the AI device 100 to perform a determined operation.
  • the processor 180 may request, search, receive, or utilize data of the learning processor 130 or the memory 170, and perform an operation that is predicted or determined to be preferable among the at least one executable operation. It is possible to control the components of the AI device 100 to execute.
  • the processor 180 may generate a control signal for controlling the corresponding external device, and transmit the generated control signal to the corresponding external device when it is necessary to link the external device to perform the determined operation.
  • the processor 180 may acquire intention information for a user input, and determine a user's requirement based on the obtained intention information.
  • the processor 180 uses at least one of a Speech To Text (STT) engine for converting voice input into a string or a Natural Language Processing (NLP) engine for obtaining intention information of a natural language, and a user Intention information corresponding to an input may be obtained.
  • STT Speech To Text
  • NLP Natural Language Processing
  • At this time, at least one of the STT engine or the NLP engine may be configured as an artificial neural network at least partially learned according to a machine learning algorithm. And, at least one or more of the STT engine or the NLP engine is learned by the learning processor 130, learned by the learning processor 240 of the AI server 200, or learned by distributed processing thereof May be
  • the processor 180 collects history information including the user's feedback on the operation content or operation of the AI device 100 and stores it in the memory 170 or the running processor 130, or the AI server 200, etc. Can be sent to external devices. The collected history information can be used to update the learning model.
  • the processor 180 may control at least some of the components of the AI device 100 to drive an application program stored in the memory 170. Furthermore, the processor 180 may operate by combining two or more of the components included in the AI device 100 with each other to drive the application program.
  • 25 shows an AI server 200 according to an embodiment of the present invention.
  • the AI server 200 may refer to an apparatus for learning an artificial neural network using a machine learning algorithm or using a trained artificial neural network.
  • the AI server 200 may be composed of a plurality of servers to perform distributed processing, or may be defined as a 5G network.
  • the AI server 200 is included as a configuration of a part of the AI device 100, and may perform at least a part of AI processing together.
  • the AI server 200 may include a communication unit 210, a memory 230, a running processor 240 and a processor 260.
  • the communication unit 210 may transmit and receive data with an external device such as the AI device 100.
  • the memory 230 may include a model storage unit 231.
  • the model storage unit 231 may store a model (or artificial neural network, 231a) being trained or trained through the learning processor 240.
  • the learning processor 240 may train the artificial neural network 231a using learning data.
  • the learning model may be used while being mounted on the AI server 200 of the artificial neural network, or may be mounted and used on an external device such as the AI device 100.
  • the learning model can be implemented in hardware, software, or a combination of hardware and software. When part or all of the learning model is implemented in software, one or more instructions constituting the learning model may be stored in the memory 230.
  • the processor 260 may infer the result value for the new input data using the learning model, and generate a response or control command based on the inferred result value.
  • 26 illustrates a communication system 1 that can be applied to the present disclosure.
  • the communication system 1 applied to the present disclosure includes a wireless device, a base station and a network.
  • the wireless device means a device that performs communication using a wireless access technology (eg, 5G NR (New RAT), Long Term Evolution (LTE)), and may be referred to as a communication / wireless / 5G device.
  • a wireless access technology eg, 5G NR (New RAT), Long Term Evolution (LTE)
  • LTE Long Term Evolution
  • the wireless device includes a robot 100a, a vehicle 100b-1, 100b-2, an XR (eXtended Reality) device 100c, a hand-held device 100d, and a home appliance 100e. ), An Internet of Thing (IoT) device 100f, and an AI device / server 400.
  • IoT Internet of Thing
  • the vehicle may include a vehicle equipped with a wireless communication function, an autonomous driving vehicle, a vehicle capable of performing inter-vehicle communication, and the like.
  • the vehicle may include a UAV (Unmanned Aerial Vehicle) (eg, a drone).
  • XR devices include Augmented Reality (AR) / Virtual Reality (VR) / Mixed Reality (MR) devices, Head-Mounted Device (HMD), Head-Up Display (HUD) provided in vehicles, televisions, smartphones, It may be implemented in the form of a computer, wearable device, home appliance, digital signage, vehicle, robot, or the like.
  • the mobile device may include a smart phone, a smart pad, a wearable device (eg, a smart watch, smart glasses), a computer (eg, a notebook, etc.).
  • Household appliances may include a TV, a refrigerator, and a washing machine.
  • IoT devices may include sensors, smart meters, and the like.
  • the base station and the network may also be implemented as wireless devices, and the specific wireless device 200a may operate as a base station / network node to other wireless devices.
  • the wireless devices 100a to 100f may be connected to the network 300 through the base station 200.
  • AI Artificial Intelligence
  • the network 300 may be configured using a 3G network, a 4G (eg, LTE) network, or a 5G (eg, NR) network.
  • the wireless devices 100a to 100f may communicate with each other through the base station 200 / network 300, but may directly communicate (e.g. sidelink communication) without going through the base station / network.
  • the vehicles 100b-1 and 100b-2 may perform direct communication (e.g. Vehicle to Vehicle (V2V) / Vehicle to everything (V2X) communication).
  • the IoT device eg, sensor
  • the IoT device may directly communicate with other IoT devices (eg, sensors) or other wireless devices 100a to 100f.
  • Wireless communication / connections 150a, 150b, and 150c may be achieved between the wireless devices 100a to 100f / base station 200 and the base station 200 / base station 200.
  • the wireless communication / connection is various wireless access such as uplink / downlink communication 150a and sidelink communication 150b (or D2D communication), base station communication 150c (eg relay, IAB (Integrated Access Backhaul)). It can be achieved through technology (eg, 5G NR), and wireless devices / base stations / wireless devices, base stations and base stations can transmit / receive radio signals to each other through wireless communication / connections 150a, 150b, 150c.
  • the wireless communication / connections 150a, 150b, 150c can transmit / receive signals over various physical channels.
  • various signal processing processes eg, channel encoding / decoding, modulation / demodulation, resource mapping / demapping, etc.
  • resource allocation processes e.g., resource allocation processes, and the like.
  • AI technology is applied to the robot 100a, and may be implemented as a guide robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, and an unmanned flying robot.
  • the robot 100a may include a robot control module for controlling an operation, and the robot control module may mean a software module or a chip implemented with hardware.
  • the robot 100a acquires state information of the robot 100a using sensor information obtained from various types of sensors, detects (recognizes) surrounding environment and objects, generates map data, or moves and travels. You can decide on a plan, determine a response to user interaction, or determine an action.
  • the robot 100a may use sensor information acquired from at least one sensor among a lidar, a radar, and a camera in order to determine a movement route and a driving plan.
  • the robot 100a may perform the above operations using a learning model composed of at least one artificial neural network.
  • the robot 100a may recognize a surrounding environment and an object using a learning model, and may determine an operation using the recognized surrounding environment information or object information.
  • the learning model may be directly learned from the robot 100a or may be learned from an external device such as the AI server 200.
  • the robot 100a may perform an operation by generating a result using a direct learning model, but transmits sensor information to an external device such as the AI server 200 and receives the result generated accordingly. You may.
  • the robot 100a determines a moving path and a driving plan using at least one of map data, object information detected from sensor information, or object information obtained from an external device, and controls the driving unit to determine the determined moving path and driving plan. Accordingly, the robot 100a can be driven.
  • the map data may include object identification information for various objects arranged in a space in which the robot 100a moves.
  • the map data may include object identification information for fixed objects such as walls and doors and movable objects such as flower pots and desks.
  • the object identification information may include a name, type, distance, and location.
  • the robot 100a may perform an operation or travel by controlling a driving unit based on a user's control / interaction. At this time, the robot 100a may acquire intention information of an interaction according to a user's motion or voice utterance, and determine an answer based on the obtained intention information to perform an operation.
  • the autonomous vehicles 100b-1 and 100b-2 are applied with AI technology and can be implemented as a mobile robot, a vehicle, or an unmanned aerial vehicle.
  • the autonomous driving vehicles 100b-1 and 100b-2 may include an autonomous driving control module for controlling an autonomous driving function, and the autonomous driving control module may refer to a software module or a chip implemented with hardware.
  • the autonomous driving control module may be included therein as a configuration of the autonomous driving vehicles 100b-1 and 100b-2, but may be configured and connected to the outside of the autonomous driving vehicles 100b-1 and 100b-2 with separate hardware. .
  • the autonomous vehicles 100b-1 and 100b-2 acquire status information of the autonomous vehicles 100b-1 and 100b-2 using sensor information obtained from various types of sensors, or detect surrounding environments and objects. It can detect (recognize), generate map data, determine travel paths and driving plans, or determine actions.
  • the autonomous vehicle 100b-1, 100b-2 uses sensor information obtained from at least one sensor among a lidar, a radar, and a camera, like the robot 100a, to determine a movement path and a driving plan. You can.
  • the autonomous driving vehicles 100b-1 and 100b-2 receive or recognize sensor information from external devices or an environment or object for an area where a field of view is obscured or over a certain distance, or are recognized directly from external devices. Information can be received.
  • the autonomous vehicles 100b-1 and 100b-2 may perform the above operations using a learning model composed of at least one artificial neural network.
  • the autonomous driving vehicles 100b-1 and 100b-2 may recognize the surrounding environment and objects using a learning model, and may determine a driving line using the recognized surrounding environment information or object information.
  • the learning model may be learned directly from the autonomous vehicles 100b-1 and 100b-2, or may be learned from an external device such as the AI server 200.
  • the autonomous vehicles 100b-1 and 100b-2 may perform an operation by generating a result using a direct learning model, but transmit sensor information to an external device such as the AI server 200 and generate accordingly
  • the received result may be received to perform the operation.
  • the autonomous driving vehicles 100b-1 and 100b-2 determine a moving route and a driving plan using at least one of map data, object information detected from sensor information, or object information obtained from an external device, and control a driving unit
  • the autonomous vehicles 100b-1 and 100b-2 may be driven according to the determined travel route and driving plan.
  • the map data may include object identification information for various objects arranged in a space (eg, a road) in which the autonomous vehicles 100b-1 and 100b-2 travel.
  • the map data may include object identification information for fixed objects such as street lights, rocks, buildings, and movable objects such as vehicles and pedestrians.
  • the object identification information may include a name, type, distance, and location.
  • the autonomous driving vehicles 100b-1 and 100b-2 may perform an operation or travel by controlling a driving unit based on a user's control / interaction.
  • the autonomous driving vehicles 100b-1 and 100b-2 may acquire intention information of an interaction according to a user's motion or voice utterance, and may perform an operation by determining a response based on the obtained intention information.
  • AI technology is applied to the XR device 100c, HMD (Head-Mount Display), HUD (Head-Up Display) provided in a vehicle, television, mobile phone, smart phone, computer, wearable device, home appliance, digital signage , It can be implemented as a vehicle, a fixed robot or a mobile robot.
  • HMD Head-Mount Display
  • HUD Head-Up Display
  • the XR device 100c generates location data and property data for 3D points by analyzing 3D point cloud data or image data acquired through various sensors or from an external device, thereby providing information about surrounding space or real objects.
  • the XR object to be acquired and output can be rendered and output.
  • the XR device 100c may output an XR object including additional information about the recognized object in correspondence with the recognized object.
  • the XR device 100c may perform the above operations using a learning model composed of at least one artificial neural network.
  • the XR device 100c may recognize a real object from 3D point cloud data or image data using a learning model, and provide information corresponding to the recognized real object.
  • the learning model may be directly trained in the XR device 100c or may be learned in an external device such as the AI server 200.
  • the XR device 100c may perform an operation by generating a result using a direct learning model, but transmits sensor information to an external device such as the AI server 200 and receives the generated result accordingly. You can also do
  • the robot 100a is applied with AI technology and autonomous driving technology, and can be implemented as a guide robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, and an unmanned flying robot.
  • the robot 100a to which AI technology and autonomous driving technology are applied may mean a robot itself having an autonomous driving function or a robot 100a that interacts with autonomous driving vehicles 100b-1 and 100b-2.
  • the robot 100a having an autonomous driving function may collectively refer to moving devices by moving itself or determining the moving line according to a given moving line without user control.
  • the robot 100a having an autonomous driving function and the autonomous driving vehicles 100b-1 and 100b-2 may use a common sensing method to determine one or more of a moving route or a driving plan.
  • the robot 100a and the autonomous vehicles 100b-1 and 100b-2 having an autonomous driving function may use one or more of a travel path or a driving plan using information sensed through a lidar, a radar, and a camera. Can decide.
  • the robot 100a that interacts with the autonomous vehicles 100b-1 and 100b-2 exists separately from the autonomous vehicles 100b-1 and 100b-2, and the autonomous vehicles 100b-1 and 100b-2 ) May be connected to an autonomous driving function inside or outside, or may perform an operation associated with a user who boards the autonomous driving vehicles 100b-1 and 100b-2.
  • the robot 100a interacting with the autonomous vehicles 100b-1 and 100b-2 acquires sensor information on behalf of the autonomous vehicles 100b-1 and 100b-2 to obtain autonomous vehicles 100b-1. , 100b-2) or by acquiring sensor information and generating surrounding environment information or object information to the autonomous driving vehicles 100b-1 and 100b-2, thereby providing autonomous driving vehicles 100b-1 and 100b-2. ) Can control or assist the autonomous driving function.
  • the robot 100a interacting with the autonomous vehicles 100b-1 and 100b-2 monitors the user who has boarded the autonomous vehicles 100b-1 and 100b-2, or autonomously interacts with the user.
  • the functions of the driving vehicles 100b-1 and 100b-2 can be controlled.
  • the robot 100a activates the autonomous driving function of the autonomous vehicles 100b-1 and 100b-2 or the autonomous vehicles 100b-1 and 100b-2.
  • Control of the driving unit can be assisted.
  • the functions of the autonomous vehicles 100b-1 and 100b-2 controlled by the robot 100a are not only autonomous driving functions, but also navigation systems provided inside the autonomous vehicles 100b-1 and 100b-2.
  • functions provided by the audio system may also be included.
  • the robot 100a that interacts with the autonomous vehicles 100b-1 and 100b-2 is autonomous vehicles 100b-1 and 100b-2 outside the autonomous vehicles 100b-1 and 100b-2. You can provide information or assist functions.
  • the robot 100a may provide traffic information including signal information to autonomous vehicles 100b-1 and 100b-2, such as smart traffic lights, and autonomous vehicles (such as automatic electric chargers for electric vehicles). 100b-1, 100b-2) to automatically connect an electric charger to the charging port.
  • the robot 100a is applied with AI technology and XR technology, and can be implemented as a guide robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, and a drone.
  • the robot 100a to which XR technology is applied may mean a robot that is a target of control / interaction within an XR image.
  • the robot 100a is separated from the XR device 100c and can be interlocked with each other.
  • the robot 100a which is the object of control / interaction within the XR image, acquires sensor information from sensors including a camera
  • the robot 100a or the XR device 100c generates an XR image based on the sensor information.
  • the XR device 100c may output the generated XR image.
  • the robot 100a may operate based on a control signal input through the XR device 100c or a user's interaction.
  • the user can check the XR image corresponding to the viewpoint of the robot 100a remotely linked through an external device such as the XR device 100c, and adjust the autonomous driving path of the robot 100a through interaction or , You can control the operation or driving, or check the information of the surrounding objects.
  • the autonomous vehicles 100b-1 and 100b-2 are applied with AI technology and XR technology, and may be implemented as a mobile robot, a vehicle, or an unmanned aerial vehicle.
  • Autonomous vehicles (100b-1, 100b-2) to which XR technology is applied mean autonomous vehicles with means for providing XR images, or autonomous vehicles that are subject to control / interaction within XR images. can do.
  • the autonomous driving vehicles 100b-1 and 100b-2, which are targets of control / interaction within the XR image are separated from the XR device 100c and may be interlocked with each other.
  • the autonomous vehicles 100b-1 and 100b-2 equipped with means for providing XR images may acquire sensor information from sensors including a camera and output XR images generated based on the acquired sensor information.
  • the autonomous vehicles 100b-1 and 100b-2 may provide an XR object corresponding to a real object or an object on the screen to the occupant by outputting an XR image with a HUD.
  • the XR object when the XR object is output to the HUD, at least a portion of the XR object may be output so as to overlap with an actual object facing the occupant's gaze.
  • the XR object when the XR object is output to a display provided inside the autonomous vehicle 100b-1 or 100b-2, at least a part of the XR object may be output to overlap with an object in the screen.
  • the autonomous vehicles 100b-1 and 100b-2 may output XR objects corresponding to objects such as lanes, other vehicles, traffic lights, traffic signs, motorcycles, pedestrians, buildings, and the like.
  • Autonomous driving vehicles (100b-1, 100b-2), which are objects of control / interaction within an XR image, obtain sensor information from sensors including a camera, and then autonomous driving vehicles (100b-1, 100b-2) ) Or the XR device 100c may generate an XR image based on sensor information, and the XR device 100c may output the generated XR image.
  • the autonomous driving vehicles 100b-1 and 100b-2 may operate based on a user's interaction or a control signal input through an external device such as the XR device 100c.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

프라이머리 셀 및 세컨더리 셀이 집성된 단말의 동작 방법 및 상기 방법을 이용하는 장치를 제공한다. 세컨더리 셀에 대해 휴면 상태라는 새로운 상태를 정의할 수 있다. 휴면 상태는 기존의 활성화 상태와 비활성화 상태의 중간에 해당하는 상태로 제어 채널의 모니터링은 수행하지 않지만 필수적인 측정은 수행하는 단계일 수 있다. 상기 단말이 세컨더리 셀에 대해 휴면 상태인 경우 적용하는 제2 설정 정보를 수신하고, 상기 제2 설정 정보에 기반하여 채널 상태 정보 측정 및 보고를 수행한다. 이 때, 상기 제2 설정 정보는 상기 단말이 상기 세컨더리 셀에 대해 활성화 상태일 때 적용하는 제1 설정 정보와 독립적으로 제공된다.

Description

반송파 집성 시스템에서 단말의 동작 방법 및 상기 방법을 이용하는 장치
본 발명은 무선 통신에 관한 것으로서, 보다 상세하게는, 반송파 집성 시스템에서 단말의 동작 방법 및 상기 방법을 이용하는 장치에 관한 것이다.
더욱 많은 통신 기기들이 더욱 큰 통신 용량을 요구하게 됨에 따라 기존의 무선 접속 기술(radio access technology; RAT)에 비해 향상된 모바일 브로드밴드(mobile broadband) 통신에 대한 필요성이 대두되고 있다. 또한 다수의 기기 및 사물들을 연결하여 언제 어디서나 다양한 서비스를 제공하는 매시브 MTC (massive Machine Type Communications) 역시 차세대 통신에서 고려될 주요 이슈 중 하나이다. 뿐만 아니라 신뢰도(reliability) 및 지연(latency)에 민감한 서비스/단말을 고려한 통신 시스템 디자인이 논의되고 있다. 이와 같이 확장된 이동 광대역(enhanced mobile broadband: eMBB)통신, massive MTC, URLLC (Ultra-Reliable and Low Latency Communication) 등을 고려한 차세대 무선 접속 기술의 도입이 논의되고 있으며, 본 발명에서는 편의상 해당 기술(technology)을 new RAT 또는 NR이라고 부른다. NR은 5 세대(fifth generation: 5G) 시스템이라 칭하기도 한다.
NR에서도 복수의 반송파들(셀들)을 집성하는 반송파 집성이 지원될 수 있다. 반송파 집성에서의 동작에서, 기지국과 항상 RRC(radio resource control) 연결을 맺고 있는 프라이머리 셀이 아닌 세컨더리 셀에 대한 지속적인 모니터링은 불필요한 전력 소모를 초래할 수 있다. 이러한 문제를 해결하기 위해, 상기 세컨더리 셀에 대해 기존의 활성화/비활성화 지시를 이용하는 것은 지연 시간이 증가하여, NR과 같이 다양한 서비스를 지원하는데 스케줄링 유연성을 저하시킬 수 있다.
본 발명이 해결하고자 하는 기술적 과제는 반송파 집성 시스템에서 단말의 동작 방법 및 상기 방법을 이용하는 단말을 제공하는 것이다.
일 측면에서, 프라이머리 셀 및 세컨더리 셀을 설정 받은 단말의 동작 방법을 제공한다. 상기 방법은 상기 단말이 상기 세컨더리 셀에 대해 휴면 상태(dormant state)인 경우 적용하는 제2 설정 정보를 수신하고, 상기 제2 설정 정보에 기반하여 채널 상태 정보 측정 및 보고를 수행하되, 상기 제2 설정 정보는 상기 단말이 상기 세컨더리 셀에 대해 활성화 상태(activated state)일 때 적용하는 제1 설정 정보와 독립적으로 제공되는 것을 특징으로 한다.
다른 측면에서 제공되는 단말(User Equipment; UE)은, 무선 신호를 송신 및 수신하는 송수신기(Transceiver) 및 상기 송수신기와 결합하여 동작하는 프로세서를 포함하되, 상기 프로세서는, 상기 단말이 상기 세컨더리 셀에 대해 휴면 상태(dormant state)인 경우 적용하는 제2 설정 정보를 수신하고, 상기 제2 설정 정보에 기반하여 채널 상태 정보 측정 및 보고를 수행하되, 상기 제2 설정 정보는 상기 단말이 상기 세컨더리 셀에 대해 활성화 상태(activated state)일 때 적용하는 제1 설정 정보와 독립적으로 제공되는 것을 특징으로 한다.
또 다른 측면에서 제공되는 무선통신 시스템에서 무선 통신 장치를 위한 프로세서는, 상기 무선 통신 장치를 제어하여, 상기 무선 통신 장치가 세컨더리 셀에 대해 휴면 상태(dormant state)인 경우 적용하는 제2 설정 정보를 수신하고, 상기 제2 설정 정보에 기반하여 채널 상태 정보 측정 및 보고를 수행하되, 상기 제2 설정 정보는 상기 단말이 상기 세컨더리 셀에 대해 활성화 상태(activated state)일 때 적용하는 제1 설정 정보와 독립적으로 제공되는 것을 특징으로 한다.
반송파 집성 시스템에서, 세컨더리 셀에 대해 휴면 상태가 도입되면 상기 세컨더리 셀이 활성화될 때 지연 없이 스케줄링이 가능하다. 이를 위해, 상기 휴면 상태에서 단말이 어떤 참조 신호, 어떤 대역폭 부분에 대해 측정 및 보고를 수행해야 하는지를 규정하고, 이를 통해 전력 소모를 줄이면서도 반송파 집성 시스템에서 지연 없는 데이터 송수신 동작을 제공한다.
도 1은 본 발명이 적용될 수 있는 무선통신 시스템을 예시한다.
도 2는 사용자 평면(user plane)에 대한 무선 프로토콜 구조(radio protocol architecture)를 나타낸 블록도이다.
도 3은 제어 평면(control plane)에 대한 무선 프로토콜 구조를 나타낸 블록도이다.
도 4는 NR이 적용되는 차세대 무선 접속 네트워크(New Generation Radio Access Network: NG-RAN)의 시스템 구조를 예시한다.
도 5는 NG-RAN과 5GC 간의 기능적 분할을 예시한다.
도 6은 NR에서 적용될 수 있는 프레임 구조를 예시한다.
도 7은 코어셋을 예시한다.
도 8은 종래의 제어 영역과 NR에서의 코어셋의 차이점을 나타내는 도면이다.
도 9는 새로운 무선 접속 기술에 대한 프레임 구조의 일례를 도시한 것이다.
도 10은 TXRU 및 물리적 안테나 관점에서 하이브리드 빔포밍(Hybrid beamforming) 구조를 추상적으로 도식화한 것이다.
도 11은 하향링크(Downlink: DL) 전송 과정에서 동기화 신호(synchronization signal)와 시스템 정보(system information)에 대한 빔 스위핑(beam sweeping) 동작을 도식화 한 것이다.
도 12는 NR에서의 동기화 신호 블록(synchronization signal block: SSB)을 예시한다.
도 13은 SSB와 코어셋#0, 검색 공간 집합(SS set) 간의 연계(association)를 예시한다.
도 14는 프라이머리 셀 및 세컨더리 셀을 설정 받은 단말의 동작 방법을 예시한다.
도 15는 프라이머리 셀 및 세컨더리 셀을 설정 받은 단말의 CSI 측정 결과 보고 방법을 예시한다.
도 16은 본 발명을 수행하는 전송 장치 및 수신 장치의 구성 요소를 나타내는 블록도이다.
도 17은 전송 장치 내 신호 처리 모듈 구조의 일 예를 도시한 것이다.
도 18는 전송 장치 내 신호 처리 모듈 구조의 다른 예를 도시한 것이다.
도 19은 본 발명의 구현 예에 따른 무선 통신 장치의 일 예를 도시한 것이다.
도 20은 프로세서(2000)의 일 예를 나타낸다.
도 21은 프로세서(3000)의 일 예를 나타낸다.
도 22는 본 발명의 기술적 특징이 적용될 수 있는 5G 사용 시나리오의 예를 나타낸다.
도 23은 본 발명의 일 실시 예에 따른 무선 통신 장치를 나타낸다.
도 24는 본 발명의 일 실시 예에 따른 AI 장치(100)를 나타낸다.
도 25는 본 발명의 일 실시 예에 따른 AI 서버(200)를 나타낸다.
도 26은 본 발명의 일 실시 예에 따른 AI 시스템(1)을 나타낸다.
도 1은 본 발명이 적용될 수 있는 무선통신 시스템을 예시한다. 이는 E-UTRAN(Evolved-UMTS Terrestrial Radio Access Network), 또는 LTE(Long Term Evolution)/LTE-A 시스템이라고도 불릴 수 있다.
E-UTRAN은 단말(10: User Equipment, UE)에게 제어 평면(control plane)과 사용자 평면(user plane)을 제공하는 기지국(20: Base Station, BS)을 포함한다. 단말(10)은 고정되거나 이동성을 가질 수 있으며, MS(Mobile station), UT(User Terminal), SS(Subscriber Station), MT(mobile terminal), 무선기기(Wireless Device) 등 다른 용어로 불릴 수 있다. 기지국(20)은 단말(10)과 통신하는 고정된 지점(fixed station)을 말하며, eNB(evolved-NodeB), BTS(Base Transceiver System), 액세스 포인트(Access Point) 등 다른 용어로 불릴 수 있다.
기지국(20)들은 X2 인터페이스를 통하여 서로 연결될 수 있다. 기지국(20)은 S1 인터페이스를 통해 EPC(Evolved Packet Core, 30), 보다 상세하게는 S1-MME를 통해 MME(Mobility Management Entity)와 S1-U를 통해 S-GW(Serving Gateway)와 연결된다.
EPC(30)는 MME, S-GW 및 P-GW(Packet Data Network-Gateway)로 구성된다. MME는 단말의 접속 정보나 단말의 능력에 관한 정보를 가지고 있으며, 이러한 정보는 단말의 이동성 관리에 주로 사용된다. S-GW는 E-UTRAN을 종단점으로 갖는 게이트웨이이며, P-GW는 PDN을 종단점으로 갖는 게이트웨이이다.
단말과 네트워크 사이의 무선인터페이스 프로토콜 (Radio Interface Protocol)의 계층들은 통신시스템에서 널리 알려진 개방형 시스템간 상호접속 (Open System Interconnection: OSI) 기준 모델의 하위 3개 계층을 바탕으로 L1 (제1계층), L2 (제2계층), L3(제3계층)로 구분될 수 있는데, 이 중에서 제1계층에 속하는 물리계층은 물리채널(Physical Channel)을 이용한 정보전송서비스(Information Transfer Service)를 제공하며, 제 3계층에 위치하는 RRC(Radio Resource Control) 계층은 단말과 네트워크 간에 무선자원을 제어하는 역할을 수행한다. 이를 위해 RRC 계층은 단말과 기지국간 RRC 메시지를 교환한다.
도 2는 사용자 평면(user plane)에 대한 무선 프로토콜 구조(radio protocol architecture)를 나타낸 블록도이다. 도 3은 제어 평면(control plane)에 대한 무선 프로토콜 구조를 나타낸 블록도이다. 사용자 평면은 사용자 데이터 전송을 위한 프로토콜 스택(protocol stack)이고, 제어 평면은 제어신호 전송을 위한 프로토콜 스택이다.
도 2 및 3을 참조하면, 물리계층(PHY(physical) layer)은 물리채널(physical channel)을 이용하여 상위 계층에게 정보 전송 서비스(information transfer service)를 제공한다. 물리계층은 상위 계층인 MAC(Medium Access Control) 계층과는 전송채널(transport channel)을 통해 연결되어 있다. 전송채널을 통해 MAC 계층과 물리계층 사이로 데이터가 이동한다. 전송채널은 무선 인터페이스를 통해 데이터가 어떻게 어떤 특징으로 전송되는가에 따라 분류된다.
서로 다른 물리계층 사이, 즉 송신기와 수신기의 물리계층 사이는 물리채널을 통해 데이터가 이동한다. 상기 물리채널은 OFDM(Orthogonal Frequency Division Multiplexing) 방식으로 변조될 수 있고, 시간과 주파수를 무선자원으로 활용한다.
MAC 계층의 기능은 논리채널과 전송채널간의 맵핑 및 논리채널에 속하는 MAC SDU(service data unit)의 전송채널 상으로 물리채널로 제공되는 전송블록(transport block)으로의 다중화/역다중화를 포함한다. MAC 계층은 논리채널을 통해 RLC(Radio Link Control) 계층에게 서비스를 제공한다.
RLC 계층의 기능은 RLC SDU의 연결(concatenation), 분할(segmentation) 및 재결합(reassembly)를 포함한다. 무선베어러(Radio Bearer: RB)가 요구하는 다양한 QoS(Quality of Service)를 보장하기 위해, RLC 계층은 투명모드(Transparent Mode, TM), 비확인 모드(Unacknowledged Mode, UM) 및 확인모드(Acknowledged Mode, AM)의 세 가지의 동작모드를 제공한다. AM RLC는 ARQ(automatic repeat request)를 통해 오류 정정을 제공한다.
RRC(Radio Resource Control) 계층은 제어 평면에서만 정의된다. RRC 계층은 무선 베어러들의 설정(configuration), 재설정(re-configuration) 및 해제(release)와 관련되어 논리채널, 전송채널 및 물리채널들의 제어를 담당한다. RB는 단말과 네트워크간의 데이터 전달을 위해 제1 계층(PHY 계층) 및 제2 계층(MAC 계층, RLC 계층, PDCP 계층)에 의해 제공되는 논리적 경로를 의미한다.
사용자 평면에서의 PDCP(Packet Data Convergence Protocol) 계층의 기능은 사용자 데이터의 전달, 헤더 압축(header compression) 및 암호화(ciphering)를 포함한다. 제어 평면에서의 PDCP(Packet Data Convergence Protocol) 계층의 기능은 제어 평면 데이터의 전달 및 암호화/무결정 보호(integrity protection)를 포함한다.
RB가 설정된다는 것은 특정 서비스를 제공하기 위해 무선 프로토콜 계층 및 채널의 특성을 규정하고, 각각의 구체적인 파라미터 및 동작 방법을 설정하는 과정을 의미한다. RB는 다시 SRB(Signaling RB)와 DRB(Data RB) 두가지로 나누어 질 수 있다. SRB는 제어 평면에서 RRC 메시지를 전송하는 통로로 사용되며, DRB는 사용자 평면에서 사용자 데이터를 전송하는 통로로 사용된다.
단말의 RRC 계층과 E-UTRAN의 RRC 계층 사이에 RRC 연결(RRC Connection)이 확립되면, 단말은 RRC 연결(RRC connected) 상태에 있게 되고, 그렇지 못할 경우 RRC 아이들(RRC idle) 상태에 있게 된다.
네트워크에서 단말로 데이터를 전송하는 하향링크 전송채널로는 시스템정보를 전송하는 BCH(Broadcast Channel)과 그 이외에 사용자 트래픽이나 제어메시지를 전송하는 하향링크 SCH(Shared Channel)이 있다. 하향링크 멀티캐스트 또는 브로드캐스트 서비스의 트래픽 또는 제어메시지의 경우 하향링크 SCH를 통해 전송될 수도 있고, 또는 별도의 하향링크 MCH(Multicast Channel)을 통해 전송될 수도 있다. 한편, 단말에서 네트워크로 데이터를 전송하는 상향링크 전송채널로는 초기 제어메시지를 전송하는 RACH(Random Access Channel)와 그 이외에 사용자 트래픽이나 제어메시지를 전송하는 상향링크 SCH(Shared Channel)가 있다.
전송채널 상위에 있으며, 전송채널에 매핑되는 논리채널(Logical Channel)로는 BCCH(Broadcast Control Channel), PCCH(Paging Control Channel), CCCH(Common Control Channel), MCCH(Multicast Control Channel), MTCH(Multicast Traffic Channel) 등이 있다.
물리채널(Physical Channel)은 시간 영역에서 여러 개의 OFDM 심벌과 주파수 영역에서 여러 개의 부반송파(Sub-carrier)로 구성된다. 하나의 서브프레임(Sub-frame)은 시간 영역에서 복수의 OFDM 심벌(Symbol)들로 구성된다. 자원블록은 자원 할당 단위로, 복수의 OFDM 심벌들과 복수의 부반송파(sub-carrier)들로 구성된다. 또한 각 서브프레임은 PDCCH(Physical Downlink Control Channel) 즉, L1/L2 제어채널을 위해 해당 서브프레임의 특정 OFDM 심벌들(예, 첫번째 OFDM 심볼)의 특정 부반송파들을 이용할 수 있다. TTI(Transmission Time Interval)는 서브프레임 전송의 단위시간이다.
이하, 새로운 무선 접속 기술(new radio access technology: new RAT, NR)에 대해 설명한다.
더욱 많은 통신 기기들이 더욱 큰 통신 용량을 요구하게 됨에 따라 기존의 무선 접속 기술(radio access technology; RAT)에 비해 향상된 모바일 브로드밴드(mobile broadband) 통신에 대한 필요성이 대두되고 있다. 또한 다수의 기기 및 사물들을 연결하여 언제 어디서나 다양한 서비스를 제공하는 매시브 MTC (massive Machine Type Communications) 역시 차세대 통신에서 고려될 주요 이슈 중 하나이다. 뿐만 아니라 신뢰도(reliability) 및 지연(latency)에 민감한 서비스/단말을 고려한 통신 시스템 디자인이 논의되고 있다. 이와 같이 확장된 모바일 브로드밴드 커뮤니케이션(enhanced mobile broadband communication), massive MTC, URLLC (Ultra-Reliable and Low Latency Communication) 등을 고려한 차세대 무선 접속 기술의 도입이 논의되고 있으며, 본 발명에서는 편의상 해당 기술(technology)을 new RAT 또는 NR이라고 부른다.
도 4는 NR이 적용되는 차세대 무선 접속 네트워크(New Generation Radio Access Network: NG-RAN)의 시스템 구조를 예시한다.
도 4를 참조하면, NG-RAN은, 단말에게 사용자 평면 및 제어 평면 프로토콜 종단(termination)을 제공하는 gNB 및/또는 eNB를 포함할 수 있다. 도 4에서는 gNB만을 포함하는 경우를 예시한다. gNB 및 eNB는 상호 간에 Xn 인터페이스로 연결되어 있다. gNB 및 eNB는 5세대 코어 네트워크(5G Core Network: 5GC)와 NG 인터페이스를 통해 연결되어 있다. 보다 구체적으로, AMF(access and mobility management function)과는 NG-C 인터페이스를 통해 연결되고, UPF(user plane function)과는 NG-U 인터페이스를 통해 연결된다.
도 5는 NG-RAN과 5GC 간의 기능적 분할을 예시한다.
도 5를 참조하면, gNB는 인터 셀 간의 무선 자원 관리(Inter Cell RRM), 무선 베어러 관리(RB control), 연결 이동성 제어(Connection Mobility Control), 무선 허용 제어(Radio Admission Control), 측정 설정 및 제공(Measurement configuration & Provision), 동적 자원 할당(dynamic resource allocation) 등의 기능을 제공할 수 있다. AMF는 NAS 보안, 아이들 상태 이동성 처리 등의 기능을 제공할 수 있다. UPF는 이동성 앵커링(Mobility Anchoring), PDU 처리 등의 기능을 제공할 수 있다. SMF(Session Management Function)는 단말 IP 주소 할당, PDU 세션 제어 등의 기능을 제공할 수 있다.
도 6은 NR에서 적용될 수 있는 프레임 구조를 예시한다.
도 6을 참조하면, 프레임은 10 ms(millisecond)로 구성될 수 있고, 1 ms로 구성된 서브프레임 10개를 포함할 수 있다.
서브프레임 내에는 부반송파 간격(subcarrier spacing)에 따라 하나 또는 복수의 슬롯(slot)들이 포함될 수 있다.
다음 표 1은 부반송파 간격 설정(subcarrier spacing configuration) μ를 예시한다.
[표 1]
Figure PCTKR2019012651-appb-I000001
다음 표 2는 부반송파 간격 설정(subcarrier spacing configuration) μ에 따라, 프레임 내 슬롯 개수(Nframe,μ slot), 서브프레임 내 슬롯 개수(Nsubframe,μ slot), 슬롯 내 심볼 개수(Nslot symb) 등을 예시한다.
[표 2]
Figure PCTKR2019012651-appb-I000002
표 A5는 확장 CP가 사용되는 경우, SCS에 따라 슬롯 별 심볼의 개수, 프레임 별 슬롯의 개수와 서브프레임 별 슬롯의 개수가 달라지는 것을 예시한다.
[표 A5]
Figure PCTKR2019012651-appb-I000003
NR 시스템에서는 하나의 단말에게 병합되는 복수의 셀들간에 OFDM(A) 뉴모놀로지(numerology)(예, SCS, CP 길이 등)가 상이하게 설정될 수 있다. 이에 따라, 동일한 개수의 심볼로 구성된 시간 자원(예, SF, 슬롯 또는 TTI)(편의상, TU(Time Unit)로 통칭)의 (절대 시간) 구간이 병합된 셀들간에 상이하게 설정될 수 있다.
NR은 다양한 5G 서비스들을 지원하기 위한 다수의 numerology(또는 subcarrier spacing(SCS))를 지원한다. 예를 들어, SCS가 15kHz인 경우, 전통적인 셀룰러 밴드들에서의 넓은 영역(wide area)를 지원하며, SCS가 30kHz/60kHz인 경우, 밀집한-도시(dense-urban), 더 낮은 지연(lower latency) 및 더 넓은 캐리어 대역폭(wider carrier bandwidth)를 지원하며, SCS가 60kHz 또는 그보다 높은 경우, 위상 잡음(phase noise)를 극복하기 위해 24.25GHz보다 큰 대역폭을 지원한다.
NR 주파수 밴드(frequency band)는 2가지 type(FR1, FR2)의 주파수 범위(frequency range)로 정의될 수 있다. 주파수 범위의 수치는 변경될 수 있으며, 예를 들어, 2가지 type(FR1, FR2)의 주파수 범위는 하기 표 A6와 같을 수 있다. 설명의 편의를 위해 NR 시스템에서 사용되는 주파수 범위 중 FR1은 “sub 6GHz range”를 의미할 수 있고, FR2는 “above 6GHz range”를 의미할 수 있고 밀리미터 웨이브(millimeter wave, mmW)로 불릴 수 있다.
[표 A6]
Figure PCTKR2019012651-appb-I000004
상술한 바와 같이, NR 시스템의 주파수 범위의 수치는 변경될 수 있다. 예를 들어, FR1은 하기 표 A7과 같이 410MHz 내지 7125MHz의 대역을 포함할 수 있다. 즉, FR1은 6GHz (또는 5850, 5900, 5925 MHz 등) 이상의 주파수 대역을 포함할 수 있다. 예를 들어, FR1 내에서 포함되는 6GHz (또는 5850, 5900, 5925 MHz 등) 이상의 주파수 대역은 비면허 대역(unlicensed band)을 포함할 수 있다. 비면허 대역은 다양한 용도로 사용될 수 있고, 예를 들어 차량을 위한 통신(예를 들어, 자율주행)을 위해 사용될 수 있다.
[표 A7]
Figure PCTKR2019012651-appb-I000005
도 6에서는, μ=0, 1, 2에 대하여 예시하고 있다.
PDCCH(physical downlink control channel)은 다음 표 3과 같이 하나 또는 그 이상의 CCE(control channel element)들로 구성될 수 있다.
[표 3]
Figure PCTKR2019012651-appb-I000006
즉, PDCCH는 1, 2, 4, 8 또는 16개의 CCE들로 구성되는 자원을 통해 전송될 수 있다. 여기서, CCE는 6개의 REG(resource element group)로 구성되며, 하나의 REG는 주파수 영역에서 하나의 자원 블록, 시간 영역에서 하나의 OFDM(orthogonal frequency division multiplexing) 심볼로 구성된다.
한편, NR에서는, 제어 자원 집합(control resource set: CORESET)이라는 새로운 단위를 도입할 수 있다. 단말은 코어셋에서 PDCCH를 수신할 수 있다.
도 7은 코어셋을 예시한다.
도 7을 참조하면, 코어셋은 주파수 영역에서 NCORESET RB 개의 자원 블록들로 구성되고, 시간 영역에서 NCORESET symb ∈ {1, 2, 3}개의 심볼로 구성될 수 있다. NCORESET RB, NCORESET symb 는 상위 계층 신호를 통해 기지국에 의하여 제공될 수 있다. 도 7에 도시한 바와 같이 코어셋 내에는 복수의 CCE들(또는 REG들)이 포함될 수 있다.
단말은 코어셋 내에서, 1, 2, 4, 8 또는 16개의 CCE들을 단위로 PDCCH 검출을 시도할 수 있다. PDCCH 검출을 시도할 수 있는 하나 또는 복수 개의 CCE들을 PDCCH 후보라 할 수 있다.
단말은 복수의 코어셋들을 설정 받을 수 있다.
도 8은 종래의 제어 영역과 NR에서의 코어셋의 차이점을 나타내는 도면이다.
도 8을 참조하면, 종래의 무선통신 시스템(예컨대, LTE/LTE-A)에서의 제어 영역(800)은 기지국이 사용하는 시스템 대역 전체에 걸쳐 구성되었다. 좁은 대역만을 지원하는 일부 단말(예를 들어, eMTC/NB-IoT 단말)을 제외한 모든 단말은, 기지국이 전송하는 제어 정보를 제대로 수신/디코딩하기 위해서는 상기 기지국의 시스템 대역 전체의 무선 신호를 수신할 수 있어야 했다.
반면, NR에서는, 전술한 코어셋을 도입하였다. 코어셋(801, 802, 803)은 단말이 수신해야 하는 제어정보를 위한 무선 자원이라 할 수 있으며, 주파수 영역에서 시스템 대역 전체 대신 일부만을 사용할 수 있다. 또한, 시간 영역에서 슬롯 내의 심볼들 중 일부만을 사용할 수 있다. 기지국은 각 단말에게 코어셋을 할당할 수 있으며, 할당한 코어셋을 통해 제어 정보를 전송할 수 있다. 예를 들어, 도 8에서 제1 코어셋(801)은 단말 1에게 할당하고, 제2 코어셋 (802)는 제2 단말에게 할당하고, 제3 코어셋(803)은 단말 3에게 할당할 수 있다. NR에서의 단말은 시스템 대역 전체를 반드시 수신하지 않더라도 기지국의 제어 정보를 수신할 수 있다.
코어셋에는, 단말 특정적 제어 정보를 전송하기 위한 단말 특정적 코어셋과 모든 단말에게 공통적인 제어 정보를 전송하기 위한 공통적 코어셋이 있을 수 있다.
한편, NR에서는, 응용(Application) 분야에 따라서는 높은 신뢰성(high reliability)를 요구할 수 있고, 이러한 상황에서 하향링크 제어 채널(예컨대, physical downlink control channel: PDCCH)을 통해 전송되는 DCI(downlink control information)에 대한 목표 BLER(block error rate)은 종래 기술보다 현저히 낮아질 수 있다. 이처럼 높은 신뢰성을 요구하는 요건(requirement)을 만족시키기 위한 방법의 일례로는, DCI에 포함되는 내용(contents)양을 줄이거나, 그리고/혹은 DCI 전송 시에 사용하는 자원의 양을 증가시킬 수 있다. 이 때 자원은, 시간 영역에서의 자원, 주파수 영역에서의 자원, 코드 영역에서의 자원, 공간 영역에서의 자원 중 적어도 하나를 포함할 수 있다.
NR에서는 다음 기술/특징이 적용될 수 있다.
<셀프 컨테인드 서브프레임 구조(Self-contained subframe structure)>
도 9는 새로운 무선 접속 기술에 대한 프레임 구조의 일례를 도시한 것이다.
NR에서는 레이턴시(latency)를 최소화 하기 위한 목적으로 도 9와 같이, 하나의 TTI내에, 제어 채널과 데이터 채널이 시분할 다중화(Time Division Multiplexing: TDM) 되는 구조가 프레임 구조(frame structure)의 한가지로서 고려될 수 있다.
도 9에서 빗금 친 영역은 하향링크 제어(downlink control) 영역을 나타내고, 검정색 부분은 상향링크 제어(uplink control) 영역을 나타낸다. 표시가 없는 영역은 하향링크 데이터(downlink data; DL data) 전송을 위해 사용될 수도 있고, 상향링크 데이터(uplink data; UL data) 전송을 위해 사용될 수도 있다. 이러한 구조의 특징은 한 개의 서브프레임(subframe) 내에서 하향링크(DL) 전송과 상향링크(uplink; UL) 전송이 순차적으로 진행되어, 서브프레임(subframe) 내에서 DL data를 보내고, UL ACK/NACK(Acknowledgement/Not-acknowledgement)도 받을 수 있다. 결과적으로 데이터 전송 에러 발생시에 데이터 재전송까지 걸리는 시간을 줄이게 되며, 이로 인해 최종 데이터 전달의 레이턴시(latency)를 최소화할 수 있다.
이러한 데이터 및 제어 영역이 TDM된 서브프레임 구조(data and control TDMed subframe structure)에서 기지국과 단말이 송신 모드에서 수신 모드로의 전환 과정 또는 수신 모드에서 송신 모드로의 전환 과정을 위한 타입 갭(time gap)이 필요하다. 이를 위하여 셀프 컨테인드 서브프레임 구조에서 DL에서 UL로 전환되는 시점의 일부 OFDM 심볼이 보호 구간(guard period: GP)로 설정될 수 있다.
<아날로그 빔포밍 #1(Analog beamforming #1)>
밀리미터 웨이브(Millimeter Wave: mmW)에서는 파장이 짧아져서 동일 면적에 다수개의 안테나 엘리먼트(element)의 설치가 가능해 진다. 즉 30GHz 대역에서 파장은 1cm로써 5 by 5 cm의 패널(panel)에 0.5 파장(lambda) 간격으로 2-차원(dimension) 배열 형태로 총 100개의 안테나 엘리먼트(element) 설치가 가능하다. 그러므로 mmW에서는 다수개의 안테나 엘리먼트(element)를 사용하여 빔포밍(beamforming: BF) 이득을 높여 커버리지를 증가시키거나, 처리량(throughput)을 높이려고 한다.
이 경우에 안테나 엘리먼트(element) 별로 전송 파워 및 위상 조절이 가능하도록 트랜시버 유닛(Transceiver Unit: TXRU)을 가지면 주파수 자원 별로 독립적인 빔포밍(beamforming)이 가능하다. 그러나 100여 개의 안테나 엘리먼트(element) 모두에 TXRU를 설치하기에는 가격 측면에서 실효성이 떨어지는 문제를 갖게 된다. 그러므로 하나의 TXRU에 다수개의 안테나 엘리먼트(element)를 맵핑(mapping)하고 아날로그 페이즈 쉬프터(analog phase shifter)로 빔(beam)의 방향을 조절하는 방식이 고려되고 있다. 이러한 아날로그 빔포밍(analog beamforming) 방식은 전 대역에 있어서 하나의 빔(beam) 방향만을 만들 수 있어 주파수 선택적 빔포밍(beamforming)을 해줄 수 없는 단점을 갖는다.
디지털 빔포밍(Digital BF)과 아날로그 빔포밍(analog BF)의 중간 형태로 Q개의 안테나 엘리먼트(element)보다 적은 개수인 B개의 TXRU를 갖는 하이브리드 빔포밍(hybrid BF)을 고려할 수 있다. 이 경우에 B개의 TXRU와 Q개의 안테나 엘리먼트(element)의 연결 방식에 따라서 차이는 있지만, 동시에 전송할 수 있는 빔의 방향은 B개 이하로 제한되게 된다.
<아날로그 빔포밍 #2(Analog beamforming #2)>
NR 시스템에서는 다수의 안테나가 사용되는 경우, 디지털 빔포밍과 아날로그 빔포밍을 결합한 하이브리드 빔포밍 기법이 대두되고 있다. 이 때, 아날로그 빔포밍(또는 RF 빔포밍)은 RF 단에서 프리코딩(Precoding) (또는 컴바이닝(Combining))을 수행하며, 이로 인해 RF 체인 수와 D/A (또는 A/D) 컨버터 수를 줄이면서도 디지털 빔포밍에 근접하는 성능을 낼 수 있다는 장점이 있다. 편의상 상기 하이브리드 빔포밍 구조는 N개의 TXRU와 M개의 물리적 안테나로 표현될 수 있다. 그러면 송신단에서 전송할 L개의 데이터 계층(data layer)에 대한 디지털 빔포밍은 N by L 행렬로 표현될 수 있고, 이후 변환된 N개의 디지털 신호(digital signal)는 TXRU를 거쳐 아날로그 신호(analog signal)로 변환된 다음 M by N 행렬로 표현되는 아날로그 빔포밍이 적용된다.
도 10은 상기 TXRU 및 물리적 안테나 관점에서 하이브리드 빔포밍(Hybrid beamforming) 구조를 추상적으로 도식화한 것이다.
도 10에서 디지털 빔(digital beam)의 개수는 L개 이며, 아날로그 빔(analog beam)의 개수는 N개이다. 더 나아가서 NR 시스템에서는 기지국이 아날로그 빔포밍을 심볼 단위로 변경할 수 있도록 설계하여 특정한 지역에 위치한 단말에게 보다 효율적인 빔포밍을 지원하는 방향을 고려하고 있다. 더 나아가서 도 10에서 특정 N개의 TXRU와 M개의 RF 안테나를 하나의 안테나 패널(panel)로 정의할 때, 상기 NR 시스템에서는 서로 독립적인 하이브리드 빔포밍이 적용 가능한 복수의 안테나 패널을 도입하는 방안까지 고려되고 있다.
상기와 같이 기지국이 복수의 아날로그 빔을 활용하는 경우, 단말 별로 신호 수신에 유리한 아날로그 빔이 다를 수 있으므로 적어도 동기화 신호(synchronization signal), 시스템 정보(system information), 페이징(paging) 등에 대해서는 특정 서브프레임에서 기지국이 적용할 복수 아날로그 빔들을 심볼 별로 바꾸어 모든 단말이 수신 기회를 가질 수 있도록 하는 빔 스위핑(beam sweeping) 동작이 고려되고 있다.
도 11은 하향링크(Downlink: DL) 전송 과정에서 동기화 시그널(synchronization signal)과 시스템 정보(system information)에 대해 상기 빔 스위핑(beam sweeping) 동작을 도식화 한 것이다.
도 11에서 NR 시스템의 시스템 정보가 브로드캐스팅(Broadcasting) 방식으로 전송되는 물리적 자원(또는 물리 채널)을 xPBCH (physical broadcast channel)으로 명명하였다. 이때, 한 심볼 내에서 서로 다른 안테나 패널에 속하는 아날로그 빔들은 동시 전송될 수 있으며, 아날로그 빔 별 채널을 측정하기 위해 (특정 안테나 패널에 대응되는) 단일 아날로그 빔이 적용되어 전송되는 참조 신호(reference signal: RS)인 빔 참조 신호(Beam RS: BRS)를 도입하는 방안이 논의되고 있다. 상기 BRS는 복수의 안테나 포트에 대해 정의될 수 있으며, BRS의 각 안테나 포트는 단일 아날로그 빔에 대응될 수 있다. 이때, BRS와는 달리 동기화 신호(Synchronization signal) 또는 xPBCH는 임의의 단말이 잘 수신할 수 있도록 아날로그 빔 그룹(analog beam group) 내 모든 아날로그 빔이 적용되어 전송될 수 있다.
도 12는 NR에서의 동기화 신호 블록(synchronization signal block: SSB)을 예시한다.
도 12를 참조하면, NR에서는 시간 영역에서 동기화 신호 블록(synchronization signal block; SSB, 또는 동기화 신호 및 물리 방송 채널(synchronization signal and physical broadcast channel: SS/PBCH)이라고 칭할 수도 있음)은 동기화 신호 블록 내에서 0부터 3까지의 오름차순으로 번호가 매겨진 4개의 OFDM 심볼로 구성될 수 있고, 프라이머리 동기화 신호(primary synchronization signal: PSS), 세컨더리 동기화 신호(secondary synchronization signal: SSS), 및 복조 참조 신호(demodulation reference signal: DMRS)와 연관된 PBCH가 심볼들에 맵핑될 수 있다. 전술한 바와 같이, 동기화 신호 블록은 SS/PBCH 블록이라고도 표현할 수 있다.
NR에서는 다수의 동기화 신호 블록이 각각 서로 다른 시점에 전송될 수 있으며, 초기 접속(initial access: IA), 서빙 셀 측정(serving cell measurement) 등을 수행하기 위해 SSB가 사용될 수 있으므로, 다른 신호와 전송 시점 및 자원이 오버랩(overlap)될 경우 SSB가 우선적으로 전송되는 것이 바람직하다. 이를 위해 네트워크는 SSB의 전송 시점 및 자원 정보를 브로드캐스트(broadcast)하거나, 단말-특정 RRC 시그널링(UE-specific RRC signaling)을 통해 지시할 수 있다.
NR에서는 빔(beam) 기반의 송수신 동작이 수행될 수 있다. 현재 서빙 빔(serving beam)의 수신 성능이 저하될 경우, 빔 오류 복구(beam failure recovery: BFR)이라는 과정을 통해 새로운 빔을 찾는 과정을 수행할 수 있다.
BFR은 네트워크와 단말간의 링크(link)에 대한 오류/실패(failure)를 선언하는 과정이 아니므로, BFR 과정을 수행하더라도 현재 서빙 셀과의 연결은 유지되고 있다고 가정할 수도 있다. BFR 과정에서는 네트워크에 의해 설정된 서로 다른 빔(빔은 CSI-RS의 포트 혹은 SSB(synchronization signal block) 인덱스 등으로 표현될 수 있다)에 대한 측정을 수행하고, 해당 단말에게 가장 좋은(best) 빔을 선택할 수 있다. 단말은 측정 결과가 좋은 빔에 대하여, 해당 빔과 연계된 RACH 과정을 수행하는 방식으로 BFR 과정을 진행할 수 있다.
이제, 전송 설정 지시자(Transmission Configuration Indicator: 이하 TCI) 상태(state)에 대해 설명한다. TCI 상태는 제어 채널의 코어셋 별로 설정될 수 있으며, TCI 상태에 기반하여 단말의 수신(Rx) 빔을 결정하기 위한 파라미터를 결정할 수 있다.
서빙 셀의 각 하향링크 대역폭 부분(DL BWP)에 대해, 단말은 3개 이하의 코어셋들을 설정받을 수 있다. 또한, 각 코어셋에 대해 단말은 다음 정보들을 제공 받을 수 있다.
1) 코어셋 인덱스 p(예컨대, 0부터 11까지 중 하나, 하나의 서빙 셀의 BWP들에서 각 코어셋의 인덱스는 유일하게(unique) 정해질 수 있음),
2) PDCCH DM-RS 스크램블링 시퀀스 초기화 값,
3) 코어셋의 시간 영역에서의 구간(심볼 단위로 주어질 수 있음),
4) 자원 블록 집합,
5) CCE-to-REG 맵핑 파라미터,
6) ('TCI-상태(TCI-State)'라는 상위 계층 파라미터에 의해 제공된 안테나 포트 준 공동 위치들의 집합으로부터) 각각의 코어셋에서 PDCCH 수신을 위한 DM-RS 안테나 포트의 준 공동 위치(quasi co-location: QCL) 정보를 나타내는 안테나 포트 준 공동 위치(quasi co-location),
7) 코어셋에서 PDCCH에 의해 전송된 특정 DCI 포맷 에 대한 전송 설정 지시(transmission configuration indication: TCI) 필드의 존부 지시 등.
QCL에 대해 설명한다. 만약, 하나의 안테나 포트 상의 심볼이 전송되는 채널의 특성이 다른 안테나 포트 상의 심볼이 전송되는 채널의 특성으로부터 추론(infer)될 수 있다면, 상기 2개의 안테나 포트들이 준 공동 위치(QCL)에 있다고 말할 수 있다. 예를 들어, 2개의 신호들(A, B)이 동일/유사한 공간 필터가 적용된 동일한 전송 안테나 어레이(array)로부터 전송될 경우, 상기 2개의 신호들은 동일/유사한 채널 상태를 겪을 수 있다. 수신기의 입장에서는 상기 2개의 신호들 중 하나를 수신하면, 수신한 신호의 채널 특성을 이용하여 다른 신호를 검출할 수 있을 것이다.
이러한 의미에서, A와 B가 QCL되어 있다라는 것은, A와 B가 유사한 채널 조건을 겪었고, 따라서, A를 검출하기 위하여 추정된 채널 정보가 B를 검출하는데도 유용하다는 의미일 수 있다. 여기서, 채널 조건은, 예컨대, 도퓰러 쉬프트(Doppler shift), 도퓰러 스프레드(Doppler spread), 평균 지연(average delay), 지연 스프레드(delay spread), 공간 수신 파라미터 등에 의하여 정의될 수 있다.
'TCI-State' 파라미터는 하나 또는 2개의 하향링크 참조 신호를 대응하는 QCL 타입(QCL 타입 A, B, C, D가 있음, 표 4 참조)에 연관시킨다.
[표 4]
Figure PCTKR2019012651-appb-I000007
각 'TCI-State'는 하나 또는 두개의 하향링크 참조 신호와 PDSCH(또는 PDCCH)의 DM-RS 포트, 또는 CSI-RS 자원의 CSI-RS 포트 사이의 준 공동 위치(QCL) 관계를 설정하기 위한 파라미터를 포함할 수 있다.
한편, 하나의 서빙 셀에서 단말에게 설정된 각 DL BWP에서, 단말은 10개 이하의 검색 공간 집합(search space set)들을 제공받을 수 있다. 각 검색 공간 집합에 대해 단말은 다음 정보들 중 적어도 하나를 제공받을 수 있다.
1) 검색 공간 집합 인덱스 s (0≤s<40), 2) 코어셋 P와 검색 공간 집합 s 간의 연관(association), 3) PDCCH 모니터링 주기 및 PDCCH 모니터링 오프셋 (슬롯 단위), 4) 슬롯 내에서의 PDCCH 모니터링 패턴(예컨대, PDCCH 모니터링을 위한 슬롯 내에서 코어셋의 첫번째 심볼을 지시), 5) 검색 공간 집합 s가 존재하는 슬롯들의 개수, 6) CCE 집성 레벨 별 PDCCH 후보들의 개수, 7) 검색 공간 집합 s가 CSS인지 USS인지를 지시하는 정보 등.
NR에서 코어셋#0는 PBCH(또는 핸드 오버를 위한 단말 전용 시그널링 또는 PSCell 설정 또는 BWP 설정)에 의해 설정될 수 있다. PBCH에 의해 설정되는 검색 공간(search space: SS) 집합(set)#0는 연계된 SSB마다 서로 다른 모니터링 오프셋 (예를 들어, 슬롯 오프셋, 심볼 오프셋)을 가질 수 있다. 이는 단말이 모니터링 해야 하는 검색 공간 시점(search space occasion)을 최소화 하기 위하여 필요할 수 있다. 또는 단말의 베스트 빔(best beam)이 동적으로 변하는 상황에서 단말과의 통신을 지속적으로 할 수 있도록 각 빔에 따른 제어/데이터 전송을 해줄 수 있는 빔 스위핑(sweeping) 제어/데이터 영역을 제공하는 의미로도 필요할 수 있다.
도 13은 SSB와 코어셋#0, 검색 공간 집합(SS set) 간의 연계(association)를 예시한다.
도 13을 참조하면, 코어셋#0는 RMSI(Remaining system information) 스케줄링 정보를 전달하는 DCI를 모니터링하기 위한 코어셋일 수 있다. 코어셋#0에 대한 코어셋 설정들 중에서 주파수 영역(frequency domain)에서의 위치(position) 및 크기, 시간 영역(time domain)에서의 구간(duration) 등은 PBCH(예를 들어, PBCH를 통해 전송되는 MIB(master information block))에 의해 설정될 수 있고, 그 이외의 나머지 코어셋 설정은 대부분 고정되는 것이 코어셋#0의 특징일 수 있다.
코어셋#0는 RMSI 외에도 OSI(other system information), 페이징, 랜덤 액세스(random access)를 위한 공용 검색 공간(common search space: CSS(s))이 할당될 수 있으며, 단말 특정 검색 공간(UE-specific search space: USS) 혹은 단말 전용 PDCCH(UE-dedicated PDCCH)를 전송하기 위한 목적으로도 사용될 수 있다. OSI, 페이징, 랜덤 액세스를 위한 검색 공간 집합이 따로 설정될 경우, 해당 검색 공간 집합은 다른 검색 공간 인덱스를 사용할 수도 있다.
코어셋#0의 또 다른 특징으로, TCI(Transmission configuration indication) 상태에 대한 명시적(explicit) 설정이 존재하지 않을 수도 있다. 전술한 바와 같이, TCI 상태는 NR에서 단말이 수신 빔을 설정하기 위해 필요한 정보를 의미할 수 있다. 코어셋#0에서의 TCI 상태는 해당 코어셋/검색 공간 집합이 연계된 SSB에 의해 결정될 수 있다. 각 SSB 별로 연계된 코어셋#0와 검색 공간 집합#0가 존재할 수 있다. 각 단말은 각 SSB에 대한 측정을 수행하고, 측정 결과가 가장 좋은 SSB의 PBCH 정보를 기반으로 해당 SSB와 연계된 코어셋#0/검색 공간 집합#0를 모니터링할 수 있다. 도 13에서 서로 다른 SSB에 의한 검색 공간 집합#0를 구분하기 위해, 검색 공간 집합#0-0, 검색 공간 집합#0-1등으로 표기하였다. 검색 공간 집합#0-X에서 X는 연계된 SSB 인덱스를 의미한다.
또한 NR에서는 코어셋#0에 공통 검색 공간(common search space: CSS) 용도로 설정된 영역에서도 단말-전용 PDSCH(UE-dedicated PDSCH) 스케줄링 정보가 전송될 수 있다. 이 경우, 단말은 해당 DCI에 대한 모니터링을 수행해야 한다. 예를 들어, 다음과 같은 동작이 가능하다.
1) 브로드캐스트/비-브로드캐스트 PDCCH를 위한 QCL 가정(assumption for broadcast/non-broadcast PDCCH).
i) 네트워크와 단말은 적어도 비-브로드캐스트 PDCCH를 위해서, 연결 모드(connected_mode)에서 SSB/코어셋#0/SS#0에 대해 동일한 이해를 유지한다. ii) 브로드캐스트 PDCCH를 위해, 연결 모드, 비활성 모드 및 아이들 모드 모두에서 어떤 SSB를 기반으로 공통 검색 공간을 모니터링해야 하는지는 단말 구현의 문제일 수 있다. iii) 유니캐스트 PDSCH는 코어셋#0과 관련된 DCI에 의하여 스케줄링될 수 있다.
2) 공통 검색 공간에서의 단말 전용(유니캐스트, 비-브로드캐스트) DCI 모니터링.
i) RMSI-PDCCH-Config, osi-searchSpace, paging-searchSpace 및 ra-searchSpace로 설정된 공통 검색 공간의 경우, C-RNTI를 사용할 수 있게된 후 비-DRX 시점에서 C-RNTI가 사용된 DCI-포맷 0_0/1_0를 모니터링할 수 있다.
ii) RMSI-PDCCH-Config, osi-searchSpace, paging-searchSpace 및 ra-searchSpace로 설정된 공통 검색 공간의 경우, CS-RNTI를 사용할 수 있게된 후 비-DCX 시점에서 CS-RNTI가 사용된 DCI 포맷 0_0/1_0을 모니터링할 수 있다.
즉, 단말은 PBCH(즉, RMSI-PDCCH-Config), RMSI(즉, osi-searchSpace, paging-searchSpace, 및 ra-searchSpace)등에 의해 각 타겟 별 검색 공간 집합 설정을 설정받을 수 있다. 해당 검색 공간 집합과 코어셋에서는 타겟으로 하는 신호 외에 C-RNTI/CS-RNTI로 스크램블링된 DCI 포맷 0_0/1_0에 대한 모니터링을 수행할 수 있다. 또한, 브로드캐스트 PDCCH에 대한 모니터링은 단말이 선택한 검색 공간 집합(예를 들어, 도 13에서 검색 공간 집합#0-0 또는 검색 공간 집합#0-1)에 대하여 수행될 수 있다. 반면, 비-브로드캐스트 PDCCH의 경우, 네트워크와 단말의 동일한 이해(same understanding)를 기반으로 선택된 검색 공간 집합에서 모니터링을 수행해야 한다. 예를 들어, 네트워크는 단말이 검색 공간 집합 #1에서 모니터링할 것을 예상한 반면, 단말은 검색 공간 집합 #2에서 모니터링을 수행한다면 네트워크와 단말 간에 오해(misunderstanding)이 발생한 것이다. 이는 비-브로드캐스트(혹은 유니캐스트) PDCCH 모니터링에 대한 동일한 이해가 없을 경우, 네트워크는 해당 PDCCH를 각 SSB에 연계된 모든 검색 공간 집합에 반복 전송해야 하는 경우가 발생할 수 있어서 비효율적이기 때문이다. 혹은 브로드캐스트 PDCCH와 비-브로드캐스트 PDCCH에 대한 모니터링을 동시에 수행하기 위해 특정 모드에서 브로드캐스트/비-브로드캐스트 모두 네트워크, 단말간 동일한 이해가 필요할 수도 있다.
이제 본 개시에 대해 설명한다.
반송파 집성(Carrier aggregation: CA) 동작에서는 처리량(throughput) 증가 및 부하 균형(load balancing) 등을 위해 프라이머리 셀(Primary cell: PCell)과 다수의 세컨더리 셀(secondary cell: SCell)들을 운용할 수 있다.
이와 같은 CA 동작에서 SCell에 대한 지속적인 모니터링(monitoring), 예컨대, PDCCH 모니터링은 불필요한 전력 소모(power consumption)를 초래할 수 있다. 그런데, 전력 절감(power saving)을 고려하여 상기 모니터링을 하지 않도록 하기 위해서, SCell에 대한 활성화/비활성화(activation/deactivation)를 지시하는 방식을 이용하는 것은, 지연(latency)이 증가하여 스케줄링 유연성(scheduling flexibility)을 저하시킬 수 있다. 예컨대, 비활성화 상태에서 활성화 상태로 가라는 MAC CE를 수신하면, 단말은 CSI 측정을 시작하고 CSI 보고 기회(occasion)을 기다려 CSI를 보고한다. 이러한 CSI 측정 결과에 기반하여 네트워크는 해당 셀에 대한 스케줄링을 할 수 있다. 상기 과정에서 CSI 측정/보고 과정이 큰 지연을 야기할 수 있다.
이와 같은 문제점을 해결하기 위해 차세대 무선통신 예컨대, NR의 CA에서는 “휴면 상태(휴면 상태)”를 정의하여 반드시 필요한 동작(예를 들어, CSI/RRM 측정)만 수행하도록 하고, 휴면 상태로의 동적인 상태 변화(dynamic state change)를 위해 MAC CE 시그널링과 타이머 등을 이용한 상태 변환(state transition)을 도입할 수 있다.
즉, 본 개시에서는, 전력 절감 등을 위해 SCell에 대한 휴면 상태를 NR에 도입할 것을 제안한다. 이하, NR에 휴면 상태를 도입하기 위해 필요한 부분들을 설명한다. 본 개시에서 제안되는 각 요소들은 단독으로 혹은 조합을 통해 구현될 수 있다. 먼저, 휴면 상태에 대해 상세히 설명한다.
<휴면 상태(dormant state)>
기존에는 단말의 셀에 대한 상태가 활성화 상태(activated state), 비활성화 상태(deactivated state)로 나뉘었으나, 휴면 상태가 추가적으로 도입될 수 있다. 휴면 상태에서 단말은 해당 셀에 대하여 제어 채널(예컨대, PDCCH)의 모니터링은 수행하지 않지만 채널 상태 정보(CSI)/무선 자원 관리(RRM)와 관련된 측정 및 보고는 수행할 수 있다. 즉, 비활성화 상태에서와 달리, 휴면 상태에서 단말은 해당 셀에 대한 채널 상태 정보(CSI)/무선 자원 관리(RRM)와 관련된 측정 및 보고를 수행한다. 따라서, 해당 셀에 대해 휴면 상태에서 활성화 상태가 되면, 네트워크는 상기 해당 셀(예컨대, 세컨더리 셀)에서 지연 없이 단말에게 스케줄링을 할 수 있다.
LTE의 휴면 상태는, CSI 측정 및 보고, RRM 측정 및 보고의 전부 또는 일부가 CRS(cell specific reference signal, common reference signal) 기반으로 수행될 수 있다. NR에서는 아날로그 빔(analog beam)의 도입으로 인해 추가적인 동작을 고려할 필요가 있다. 이하, 휴면 상태에서 단말이 수행할 수 있는 동작을 제안한다. 아래의 동작들 중 일부 혹은 전부가 휴면 상태에서 수행될 수 있으며, 다수의 동작들이 휴면 상태에서 정의될 경우, 각 동작이 따로 정의되거나, 다수의 동작들이 조합되어 하나의 동작처럼 정의될 수도 있다.
<CSI 측정 및 보고>
네트워크는, SCell의 휴면 상태에서 단말이 수행해야 하는 CSI 측정 및 보고 관련 설정(configuration)을, 활성화 상태(activated state)와 독립적으로 설정할 수 있다. 즉, 활성화 상태에서 단말이 수행해야 하는 CSI 측정 및 보고에 관련된 제1 설정이 있다고 할 때, 상기 제1 설정과 독립적으로 휴면 상태에서 단말이 수행해야 하는 CSI 측정 및 보고에 관련된 제2 설정을 제공할 수 있다.
도 14는 프라이머리 셀 및 세컨더리 셀을 설정 받은 단말의 동작 방법을 예시한다.
도 14를 참조하면, 단말이 상기 세컨더리 셀에 대해 휴면 상태(dormant state)인 경우 적용하는 제2 설정 정보를 수신한다(S100). 상기 제2 설정 정보는 상기 단말이 상기 세컨더리 셀에 대해 활성화 상태(activated state)일 때 적용하는 제1 설정 정보와 독립적으로 제공될 수 있다.
단말은 상기 제2 설정 정보에 기반하여 채널 상태 정보 측정 및 보고를 수행한다(S200).
상기 제2 설정에는 후술하는 내용들 중 적어도 하나가 포함될 수 있다.
1. 참조 신호(reference signal: RS) 설정.
상기 제2 설정 정보는, 상기 단말이 상기 휴면 상태에서 측정해야 하는 참조 신호(RS)에 대한 설정을 포함할 수 있다(물론 상기 RS에 대한 설정은 상기 제2 설정 정보와 별개로 제공될 수도 있다).
A. LTE에서는 항상 전송되는 RS(예컨대, CRS)가 존재하였으나, NR에서는 이러한 항상 전송되는 RS가 존재하지 않는다. 따라서 네트워크는, 휴면 상태인 단말의 CSI 측정을 위한 RS 설정을 단말에게 RRC 시그널링 또는 MAC 시그널링과 같은 상위 계층 시그널링 등을 통해 설정해주거나 지시(indicate)할 수 있다.
예를 들어, i) 네트워크는 각 단말이 휴면 상태에서 측정을 수행하는 RS 설정을 RRC 시그널링 혹은 휴면 상태로의 상태 변환을 명령하는 MAC CE 시그널링에 포함시켜 지시할 수 있다. 또는 ii) 타이머에 의해 휴면 상태로 전환되는 경우, 단말은 활성화 상태에서 설정된 CSI 측정을 위한 설정(들)을 그대로 따르거나, 상기 설정들 중 하나 혹은 일부에 대한 CSI 측정만을 수행하도록 사전에 정의되거나 시그널링될 수 있다. 일례로, 타이머에 의해 휴면 상태로 진입한 단말은 이전 활성화 상태에서 설정받은 CSI 측정 용 CSI-RS 설정들 중 가장 낮은 포트 번호에 대한 측정만을 수행할 수 있다. 예를 들어, 단말이 활성화 상태에서 제1 CSI-RS 설정, 제2 CSI-RS 설정, ... , 제 N CSI-RS 설정을 제공 받았고, 각 CSI-RS 설정에는 해당 포트 번호에 대한 정보도 포함한다고 가정해 보자. 이 경우, 상기 단말이 타이머에 의해 휴면 상태로 진입한다면, 상기 단말은 상기 제1 CSI-RS 설정~제N CSI-RS 설정들 중에서 가장 낮은 포트 번호에 대한 CSI-RS 설정에 따라 측정을 수행할 수 있다.
B. CSI 측정을 위한 RS는 (NZP(non-zero power) 그리고/혹은 ZP(zero power)) CSI-RS 설정의 형태로 단말에게 지시될 수 있다.
C. NR에서는 CSI 측정 보고에 대한 설정과 RS 설정을 연관(association) 시킬 수 있다. 따라서, 휴면 상태에 사용할 CSI 측정 설정은 동일 RS 설정에 다른 측정 보고 설정을 사용하게 하는 것일 수 있다. 일례로 CSI 측정 보고의 구성에 따라 CSI 피드백의 주기, CSI 보고 모드(예컨대, 휴면 상태에서의 'no subband CSI 피드백'), 피드백이 전송될 채널(예를 들어, 휴면 상태에서의 PUCCH에 의한 전송)등을 다르게 설정하여 줄 수 있다.
상기 단말이 상기 세컨더리 셀에 대해 상기 휴면 상태로 상태 변환되는 경우, 특정 대역폭 부분(bandwidth part: BWP)으로 스위칭을 수행할 수 있으며, 상기 제2 설정 정보는 상기 특정 BWP에 대한 설정도 포함할 수 있다(물론 상기 특정 BWP에 대한 설정은 상기 제2 설정 정보와 별개로 제공될 수도 있다).
예를 들어, 휴면 상태로 변경시 대역폭 부분(bandwidth part: BWP) 스위칭을 지시하여(즉, 휴면 상태로 갈 때 폴백(fallback)할 BWP(이를 휴면 BWP라 하자)를 별도로 설정), 해당 휴면 BWP의 설정에 CSI 피드백 등을 설정해 줄 수 있다. 이러한 경우, 휴면 BWP는 CSI 피드백/측정을 위한 대역폭이 휴면 BWP의 대역폭(bandwidth: BW)내로 한정될 수 있다. 또는 휴면 BWP가 대역폭(BW)을 0(zero)으로 가지거나 매우 작은 BW를 가지는 경우를 고려하여 CSI 피드백/측정의 BW를 휴면 BWP와 별도로 설정될 수 있다고 가정할 수도 있다.
D. 휴면 BWP가 설정되는 경우 CSI 피드백은 SSB(synchronizaion signal/PBCH block)의 DM-RS/SSS를 이용하여 측정되는 것을 가정하거나, 측정용 CSI-RS는 사용할 수 없고(disable) SSB를 이용한 동작으로 폴백함을 가정할 수 있다.
2. BWP 설정
A. 휴면 상태에서 활성화 상태로 전환된 후, 가장 좋은 채널 품질 혹은 네트워크 스케줄링 상 여유가 있는 BWP에서 해당 단말을 동작시키기 위해, 휴면 상태 이전 활성화 상태에서의 BWP 설정들에 대한 측정을 유지하는 것이 필요할 수 있다. 반면, 다수의 BWP들에 대한 CSI 측정을 휴면 상태에서 수행하는 것은 전력 절감 측면에서 바람직하지 않을 수 있다. 이와 같은 상반된 측면들을 고려하여, 네트워크는 휴면 상태에서 CSI 측정을 수행하는 BWP를 다음과 같이 지시할 수 있다. 아래 옵션(option)들은 단독으로 혹은 조합을 통해 구현될 수도 있다.
옵션 1. 단말은 특정 BWP(들)에서만 CSI 측정을 수행할 수 있다. 여기서 특정 BWP(들)는 네트워크에 의해 (예를 들어, RRC 시그널링, MAC CE 시그널링)에 의해 지시되거나, 사전에 정의(예를 들어, 해당 SCell의 BWP 중 가장 낮게 인덱싱된 BWP 또는 첫 번째 활성화 BWP)될 수 있다.
옵션 2. 단말은 휴면 상태 이전 활성화 상태에서 설정받은 BWP(들)에 대하여 CSI 측정을 수행할 수 있다.
B. 하나의 혹은 다수의 BWP들에 대한 CSI 측정을 수행하도록 지시할 경우, 네트워크는 각 BWP에서의 CSI RS 설정을 시그널링하거나, 각 BWP 별로 기존에 설정받은 CSI RS 설정을 이용하여 해당 BWP에 대한 CSI 측정을 수행하도록 지시할 수 있다. 단말은 네트워크 시그널링에 기반하여 혹은 사전 정의에 의해 휴면 상태에서 CSI 측정을 수행하는 BWP(들)을 지시받을 수 있다.
C. 전술한 바와 같이, 네트워크는 휴면 BWP를 별도로 설정하고, 단말이 특정 셀에 대해 휴면 상태가 되면, 상기 단말이 상기 휴면 BWP로 스위칭하도록 할 수 있다. 이 경우, CSI 피드백이 상기 휴면 BWP 내에서 수행되어야 하는 제한을 풀고 다른 BWP 내 CSI를 피드백행하도록 하거나, 휴면 BWP와 별도로 CSI 측정/피드백 설정을 제공받을 수도 있다. 또는, 휴면 BWP에서 CSI 측정/보고를 하도록 설정하되, 상기 휴면 BWP에 CORESET 구성을 하지 않아서 제어 채널 모니터링 등과 같은 불필요한 동작을 피하도록 할 수도 있다.
D. 휴면 BWP가 별도로 설정되지 않는 경우, 단말은 기본(default) BWP를 가정하거나 초기(initial) BWP를 가정하여 휴면 상태 시 폴백할 수 있다. 이러한 방식은 단말이 동적(dynamic) BWP 스위칭을 지원하는 경우에만 가정/사용될 수 있다. 또는 휴면 상태를 지원하는 단말은 이러한 스위칭을 지원하는 것으로 가정될 수도 있다. 후자의 경우, 기존 동적 BWP 스위칭에 비해 다른 지연 요건(requirement) (단말 지연 타입)을 가정할 수 있다.
E. 다른 방식으로는 특정 BWP를 스위칭 받으면 해당 단말은 휴면 상태로 변경되었다고 가정할 수 있다. 즉, 특정 BWP으로의 스위칭이 지시되면, 단말은 해당 셀(예컨대, 세컨더리 셀)에 대해 휴면 상태로 상태 변환되는 것으로 간주할 수 있다. 상기 특정 BWP는 휴면 BWP일 수 있다. 타이머에 의한 스위칭 혹은 명시적(explicit) DCI에 의한 스위칭 등을 모두 고려할 수 있거나, MAC CE에 의한 새로운 명령(command)을 가정할 수 있다.
단말은 활성화 상태(또는 비활성화 상태)에서 휴면 상태로 상태 변환을 할 것을 RRC 메시지나 MAC(media access control) 제어 요소(control element: CE)를 통해 명시적으로 지시 받을 수도 있지만, 활성화 상태에서 타이머가 만료되면 휴면 상태로 상태 변환할 수도 있다. 예컨대, 활성화 상태에서 특정 신호를 일정 시간 수신하지 못하면 타이머를 증가시키고, 상기 타이머가 만료되면 휴면 상태로 상태 변환하는 것으로 미리 정하거나 설정할 수 있다. 상기 타이머를 휴면 상태 타이머라 하자.
이와 같은 휴면 상태 타이머를 도입하는 경우, 휴면 상태 타이머는 다른 기본 타이머와 유사한 동작을 하나, 기본(default) BWP로 스위칭 이후에 휴면 상태 타이머가 시작하는 차이가 있을 수 있다. 즉, 제어 채널(control channel)이 수신되지 않으면 휴면 상태 타이머를 증가시키나 해당 휴면 상태 타이머의 시작은 기본 BWP에서만 시작할 수 있고, 기본 타이머에 비해서 타이머 값이 다르게 설정될 수도 있다. 이러한 동작에서, 디폴트를 바로 휴면 BWP로 설정함으로서 시간을 줄일 수도 있다. 휴면 BWP의 특징으로 다음의 옵션(조합도 가능)을 고려할 수 있다.
옵션 1. 대역폭(BW)을 0(zero)로 설정할 수 있다.
옵션 2. i) CORESET/SS 집합 설정이 없는 경우, ii) 만약 해당 셀이 교차 반송파 스케줄링을 받은 경우, iii) 명시적으로 제어 채널 모니터링을 하지 않음을 설정받은 경우 중 적어도 하나에 해당하는 BWP는 휴면 BWP일 수 있다.
옵션 3. 측정 갭 등 측정 관련한 설정이 별도로 구성될 수 있다.
도 15는 프라이머리 셀 및 세컨더리 셀을 설정 받은 단말의 CSI 측정 결과 보고 방법을 예시한다.
도 15를 참조하면, 단말은 기지국(네트워크)로부터 세컨더리 셀에 대한 휴면 상태 지시/알림을 수신할 수 있다(S151). 상기 지시/알림은 전술한 바와 같이, RRC 신호 또는 MAC CE를 통해 수신될 수 있다. 또한, 상기 지시/알림은 휴면 상태에 대한 RS 설정, BWP 설정 중 적어도 하나를 더 포함할 수 있다. 즉, 상기 지시/알림은 전술한 제2 설정 정보를 포함할 수 있다.
단말은 상기 세컨더리 셀의 PDCCH 모니터링을 멈추고, 상기 BWP 설정에 따른 BWP에서 상기 RS 설정에 따른 RS를 측정할 수 있다(S152). RS 설정, BWP 설정 및 각 설정에 따른 단말 동작에 대해서는 이미 상세히 설명한 바 있다.
단말은 CSI 측정 결과를 기지국에게 보고한다(S153).
<빔 관리 및 RRM 측정>
이하에서는, 빔 관리를 기반으로 본 개시의 제안을 설명하나, RRM 측정에대해서도 동일한 내용이 적용될 수 있다.
NR에서는 아날로그 빔의 도입으로 인해, 각 (아날로그) 빔에 대한 관리를 수행할 수 있다. 일례로 단말은 네트워크에 의해 지시된 BM(beam management)용 CSI-RS 등을 이용하여 빔 별 측정 및 보고를 수행하고, 네트워크는 단말의 보고에 근거하여 해당 단말에게 PDCCH/PDSCH 전송을 수행할 때 사용할 빔을 결정할 수 있다.
SCell을 위한 휴면 상태가 도입될 경우, 휴면 상태에서 활성화 상태로 상태 변환이 발생할 때, 활성화 상태에서 사용할 빔을 빠르게 결정하기 위해 휴면 상태에서의 빔 관리가 수행되는 것이 필요하다.
이를 위해, 네트워크는 휴면 상태에서의 빔 관리를 수행하기 위한 RS 설정을 단말에게 설정하거나 지시(indicate)할 수 있다. 전술한 CSI 측정 용 RS와 마찬가지로, 휴면 상태에서의 BM을 위한 RS 설정이 따로 시그널링되거나, 휴면 상태 이전 활성화 상태에서 수행하는 BM을 휴면 상태에서도 수행하도록 지시할 수 있다.
휴면 상태에서의 BM을 위한 RS 설정을 따로 시그널링할 경우, 네트워크는 휴면 상태에서의 BM용 RS(예를 들어, CSI-RS, SSB, TRS)를 휴면 상태로의 전환을 지시하는 MAC CE 시그널링이나 RRC 시그널링 등을 이용하여 단말에게 알릴 수 있다. 상기 시그널링을 수신한 단말은 상기 시그널에 포함된 설정에 기반하여 휴면 상태에서의 빔 관리를 수행할 수 있다.
타이머에 의해 활성화 상태에서 휴면 상태로 진입할 경우, 휴면 상태에서의 BM을 위한 RS 설정은, 활성화 상태에서의 BM용 RS 설정을 따르거나, 특정 RS 설정에 대한 BM 측정만을 수행하도록 사전에 정의될 수 있다. 일례로, 단말은 활성화 상태에서 시그널링 받은 BM용 RS 설정들 중 포트 번호가 가장 낮은 RS에 대한 측정만 수행하거나, 활성화 상태에서 BM 측정 RS의 타입이 다수일 경우, 특정 타입의 RS(예를 들어, SSB)에 대한 BM 측정만을 수행하도록 사전에 정의되거나 상위 계층 시그널링등을 통해 지시될 수 있다.
위의 CSI 측정과 마찬가지로, BM 측정이 수행되는 BWP에 대한 지시 혹은 사전 정의가 적용될 수 있다. 예를 들어, 휴면 상태에서 BM 측정을 수행하는 BWP가 네트워크에 의해 지시되거나, 사전 정의에 의해 결정될 수 있다. 일례로 휴면 BWP에서 동작하는 단말은 이전 활성화 BWP에서 빔 관리 관련 측정 (및/또는 보고)를 수행할 수 있다. BM 측정이 수행되는 BWP 관련 설정은 CSI 측정에서 제안된 방식들이 동일하게 적용될 수도 있다.
해당 휴면 상태가 휴면 BWP에 의해서 스위칭 되는 경우(혹은 일반적으로), 빔 측정은 휴면 상태에서는 SSB를 이용하는 것으로 폴백할 수 있다. 명시적으로 SSB를 구성받지 않아도 단말이 SSB를 이용하여 측정하는 것으로 가정할 수 있으며, 모든 SSB를 이용할지 그 부분 집합만 이용할 지 네트워크가 설정해 줄 수 있다. 특히, 휴면 BWP가 0(zero) BW인 경우, 단말은 SSB로 폴백하여 측정함을 가정하며, 만약 휴면 BWP가 0이 아닌(non-zero) BW인 경우, SSB를 포함하도록 구성받지 않아도 SSB를 읽을 수 있다고 가정할 수 있다.
휴면 상태에서 단말은 측정을 일부만 수행하거나 각 측정 간의 관계에 따라 다른 측정을 수행할 수 있다.
예 1:
스텝 1. 단말은 L1-RSRP를 각 빔에 대해서 측정하고 가장 좋은(best) L1-RSRP 및 빔을 설정된 주기에 따라 보고하거나 트리거 조건에 따라 보고할 수 있다. 여기서, L1-RSRP는 물리 계층(physical layer: L1)에 관련된 RSRP(Reference Signal Received Power)를 의미한다. RSRP는 고려되는 측정 주파수 대역폭 BW 내에서 셀 특정 참조 신호를 전달하는 자원 요소의 전력 기여에 대한 선형 평균으로 정의될 수 있으며, 참조 신호가 있는 참조 심볼와 관련된 페이딩(fading, 구체적으로 fast fading 및 shadow fading)의 평균이 물리 계층에서 수행될 경우 L1-RSRP라 칭할 수 있다.
스텝 2. 단말은 해당 L1-RSRP가 일정 문턱치 이상이면 L3-RSRP를 해당 주파수에서는 측정하지 않음을 가정할 수 있다. 여기서, L3-RSRP는 RRC 계층(L3)과 관련된 RSRP를 의미할 수 있는데, 물리 계층으로부터 수신한 측정 결과에 RRC 계층의 필터링 팩터를 적용하여 구해지는 RSRP일 수 있다. 또한 단말은 해당 SCell과 연계하여 설정된 측정 대상(object)에 대해서 L3-RSRP를 측정하지 않을 수 있다.
스텝 3. 단말은 해당 L1-RSRP가 일정 문턱치 이하이면 L3-RSRP를 수행하여 핸드 오버를 준비할 수 있다. 또는 만약 L1-RSRP가 SSB의 부분 집합에 대해서 수행된 것이라면 전체 SSB로 확장할 수 있다. 만약 후자인 경우, 단말은 단계 1-3을 반복한다.
예 2:
단말은, 기존 CORESET#0에 연계된 SSB만(혹은 휴면 상태에 설정된 SSB 인덱스)을 측정할 수 있다. 해당 L1-RSRP가 일정 문턱치 이상인 경우, 단말은 해당 SSB만 측정할 수 있다. 단말은, 해당 L1-RSRP가 일정 문턱치 이하가 된 경우, SSB의 부분 집합 또는 전체 SSB를 측정할 수 있다. 이후, 단말은 예 1의 과정을 따를 수 있다.
예 3:
CSI 피드백(예를 들어, 광대역 CQI)이 일정 값 이상인 경우, 단말은 L1-RSRP/L3-RSRP 측정/보고를 수행하지 않을 수 있다. 상기 CSI 피드백이 일정 값 이하인 경우, 단말은 예 2 나 예 1을 따를 수 있다.
예 4:
예 2를 따라 L1-RSRP를 수행하나 측정/피드백 값이 일정 이상인 경우에만 단말은 CSI 측정/피드백을 수행할 수 있다.
해당 L1-RSRP 값의 변동에 따라 가장 좋은 빔이 바뀐 경우, 단말은 해당 SSB가 설정된 CSI-RS에 QCL되지 않은 경우, 1) 자원(시간/주파수)는 그대로 두고 QCL 관계만 동적으로 변경하여 측정을 지속하거나, 2) 새로운 CSI-RS를 받을 때까지 CSI 측정을 멈추거나(stop), 3) CSI-RS의 경우에도 빔 스윕(sweep) 형태로 구성하여 QCL 관계가 변할 때 새로운 CSI-RS 자원이 가용(available)하도록 할 수 있다. 이러한 빔 스윕 형태는 PUCCH 혹은 PUSCH에도 적용될 수 있다. 즉, 빔 대응(correspondence)이 맞는 경우, 또는 맞지 않더라도 가장 좋은(best) 빔이 변한 경우, 이에 맞는 PUCCH 자원을 동적으로 선택할 수 있게 하거나, 이미 설정된 자원에 QCL 관계가 변하게 설정 받을 수 있다.
예 5:
단말은 예 4 등을 수행하나, 만약 해당 구성된 SSB 인덱스에 대한 L1-RSRP/CSI 피드백이 일정 값 이하가 되면 빔 실패/복구를 수행할 수 있다.
<빔 실패 검출 및 복구(Beam failure detection and recovery: BFR)>
빔 실패(beam failure: BF)는 일반적으로 제어 채널의 수신 성능에 기반하여 검출되고, 복구 과정을 수행하게 된다. 기존 NR의 BFR(beam failure recovery) 과정은, 네트워크에 의해 BFD(Beam failure detection)를 위한 RS 설정이 단말에게 시그널링 되거나, 해당 시그널링이 없을 경우 단말이 모니터링하는 CORESET의 TCI 상태에 기반하여 빔 실패 여부를 판정하기 위한 측정이 수행된다. 이후 빔 실패가 검출되면, 단말은 측정을 통해 새로운 빔을 찾고 해당 빔에 연계된 RACH 과정을 수행함으로써 네트워크에게 새로운 빔에 대한 정보를 제공한다.
본 개시에서는 휴면 상태의 SCell에 대하여 빔 실패가 검출될 경우, 단말이 해당 SCell의 휴면 상태에 대하여 빔 실패 이전에 수행하던 측정과 보고들을 수행하지 않을 것을 제안한다. 이는 휴면 상태에서 전력 절감을 충실히 수행하기 위한 방법으로 해석될 수 있다.
추가적으로 휴면 상태인 SCell에서의 빔 실패 검출은 전력 절감을 위하여 활성화 상태에 비하여 제한적으로 수행될 수 있다. 이를 위해 활성화 상태와 다른 빔 실패 RS 설정이 적용될 수 있다.
이를 위한 방법으로, 휴면 상태에서의 빔 실패 검출을 위한 RS 설정이 별도로 시그널링될 수 있다. 네트워크는 RRC 시그널링 혹은 (휴면 상태로의 전환을 지시하는) MAC CE 시그널링에 빔 실패 검출 여부를 판단하기 위한 RS 설정을 포함시킬 수 있다.
타이머에 의해 휴면 상태로 진입한 단말의 경우, 사전에 정의된 규칙에 의해 휴면 상태에서의 빔 실패 RS 설정이 결정될 수도 있다. 예를 들어, 해당 휴면 상태 이전의 활성화 상태에서 설정된 빔 실패 RS 설정을 유지할 수 있다. 이 경우, 다수의 RS들에 대한 측정을 수행하기 때문에 빔 실패 확률을 낮출 수 있고, 이는 잦은 상태 변경을 방지할 수 있다는 장점이 있다. 그러나 이 경우, 휴면 상태에서의 측정 빈도가 증가할 수 있기 때문에 전력 절감 효과가 감소하는 단점이 있다. 이와 같은 문제를 해결하기 위해, 휴면 상태에서는 활성화 상태에서 측정을 수행하던 RS들 중 일부에 대해서만 측정을 수행하도록 사전에 정의될 수 있다. 예를 들어, 휴면 상태에서 측정을 수행하는 BWP가 정의될 경우, 해당 BWP에 대해 설정된 BF-RS에 대해서만 측정을 수행하거나, 해당 BWP 내의 CORESET들 중 특정 CORESET(예를 들어, 가장 낮게 인덱싱된 CORESET)의 TCI 상태에 연계된 RS에 대해서만 BF 관련 측정을 수행할 수 있다.
휴면 상태에서 빔 실패가 검출될 경우, 단말은 다음과 같이 동작할 수 있다.
1. 휴면 상태에서 (활성화 상태에 비해) 제한적인 빔 실패 모니터링만을 수행할 경우, 단말은 활성화 상태로 전환하여 활성화 상태에서의 빔 관리, 빔 실패 검출을 수행할 수 있다. 이는 휴면 상태에서 빔 실패가 검출되었으나, 활성화 상태에서는 실제 빔 실패 상황이 아닐 수 있음을 고려한 동작으로 해석될 수 있다. 예를 들어, 휴면 BWP가 정의될 경우, 휴면 BWP에서 빔 실패 조건을 만족시킬 경우, 단말은 이전 활성화 BWP에서 빔 관리 그리고/혹은 빔 실패 검출을 위한 측정을 수행할 수 있다. 이는 휴면 상태에서의 빔 실패는 휴면 상태에서 활성화 상태로의 (자동) 전환 조건으로 동작함을 의미할 수도 있다.
2. 또 다른 방법으로 휴면 상태에서 빔 실패가 검출될 경우, 단말은 활성화 상태로 전환하여 빔 실패 복구 동작을 수행할 수도 있다. 상기 1.의 제안과 다른 점은, 상기 1.의 경우 빔 실패 복구가 아닌 빔 실패 검출을 활성화 상태 관점에서 다시 수행함을 의미하나, 2의 제안은 휴면 상태에서의 빔 실패도 해당 셀에 대한 빔 실패로 인지하고 빔 실패 복구를 수행한다는 점이다. 이 경우, 채널 품질이 좋지 않은 상황에서 빠르게 빔 복구를 수행한다는 장점이 있을 수 있다.
빔 실패 검출이 수행되는 BWP 관련 설정은 위의 CSI 및 RRM 측정, 빔 관리에서 제안된 방법들이 동일하게 적용될 수 있다.
빔 실패를 선언하기 위해서 휴면 상태에서는 모니터링 하는 CORESET이 없을 수 있으므로, 위의 예 2처럼 빔 실패를 위한 RS를 별도로 구성할 필요가 있을 수 있다. 빔 실패 시, 복구를 위해서는 별도의 구성이 없는 경우 초기 BWP로 폴백할 수 있다. 혹은 SSB를 이용한 복구를 수행하는 것을 가정할 수 있다. 혹은 위의 예 1-5처럼 측정 과정을 다른 활성화 BWP와 다르게 설정할 수도 있다.
휴면 상황에서 측정을 많이 수행하지 않기 위하여, 단말은 빔 복구를 수행하지 않을 수도 있다. 만약 서빙 셀에 대한 L3-RSRP 또는 L1-RSRP이 일정 값 이상이면 단말은 빔 복구를 수행하지 않고 활성화 상태로 변경 시 빔 복구를 수행할 수도 있다. 즉, 단말은 빔 실패가 발생해도 빔 실패 복구를 수행하지 않고 RRM 측정만 수행할 수도 있다. 서빙 셀에 대한 L3-RSRP 또는 L1-RSRP이 일정 값 이하인 경우, 혹은 일반적으로 휴면 상태에서의 RRM은 베스트 빔 또는 평균 RRM값을 올릴 때에 베스트 빔(예를 들어, L1-RSRP 값 및/또는 베스트 빔 인덱스)을 항상 지시하도록 할 수 있다. 이는 활성화 상태로 전환 시 사용할 빔에 대한 정보로 네트워크이 사용할 수 있다.
<휴면 상태에서의 RS 설정>
SCell의 휴면 상태에서 CSI 측정, RRM 측정, 빔 관리, 빔 실패 검출/복구 중 일부 혹은 전부가 수행될 수 있다. 추가로 본 개시에서는 해당 과정들에서 필요한 RS 설정을 공통적으로 적용할 것을 제안한다. 일례로 동일한 RS 설정을 CSI 측정(신호/간섭 측정), RRM 측정, 빔 관리, 빔 실패 검출 중 일부 혹은 전부에서 공통적으로 적용할 수 있다. 본 개시를 사용할 경우, 다양한 RS 설정으로 인해 휴면 상태에서의 측정 등으로 인한 전력 소모가 발생하는 빈도를 줄일 수 있다.
본 개시를 위한 RS 설정 방법은 아래의 방법들 중 하나 혹은 조합을 통해 구현될 수 있다. 또한 아래 방법에 의해 결정된 RS 설정은 CSI 측정 (신호/간섭 측정), RRM 측정, 빔 관리, 빔 실패 검출 전부 혹은 일부에 적용될 수 있다. 일부에 적용될 경우, 네트워크는 RS 설정과 연계되는 하나 혹은 다수의 과정을 단말에게 설정하거나 지시(indicate)할 수 있다.
옵션 1) 활성화 상태의 RS 설정을 재사용하는 방법.
휴면 상태에서의 RS 설정은 해당 휴면 상태 이전 활성화 상태에서의 RS 설정들 중 하나 혹은 일부를 재사용(reuse)할 수 있다. 이 때, 휴면 상태에서 사용하는 RS 설정은 사전 정의에 의해 결정되거나 네트워크에 의해 설정되거나 지시될 수 있다. 예를 들어, 특정 BWP의 특정 CORESET에 연계된 TCI 상태(RS 설정)이 휴면 상태에서의 RS 설정으로 사용될 수 있다. 휴면 상태 직전의 활성화 상태에서의 활성화 BWP(혹은 해당 SCell에서의 첫 번째 활성화 BWP)의 가장 낮게 인덱싱된 CORESET의 TCI 상태에 해당하는 RS 설정(혹은 SSB 인덱스)가 휴면 상태에서의 RS 설정으로 결정될 수 있다.
옵션 2) 휴면 상태를 위한 RS 설정 시그널링
네트워크는 휴면 상태의 RS 설정을 단말에게 활성화 상태와 별도로 설정하거나 지시(indicate)할 수도 있다. 이는 RRC 시그널링에 의해 설정 또는 지시(indicate)되거나, 휴면 상태로의 전환을 지시하는 MAC CE 시그널링 등에 포함될 수 있다.
옵션 3) 상태 변환 타입에 기반한 RS 설정.
단말은 활성화 상태에서 휴면 상태로 전환되는 타입에 따라 서로 다른 RS 설정을 가정할 수도 있다. 예를 들어, 네트워크에 의해 활성화 상태에서 휴면 상태로 전환될 경우, 네트워크는 상태 변환 정보에 해당 휴면 상태에서 사용하는 RS 설정을 추가할 수 있다. 반면, 데이터를 수신하지 못한 기간에 대한 타이머의 만료(expiration)로 인한 상태 변환의 경우, 사전 정의에 의해 해당 휴면 상태에서의 RS 설정이 결정될 수도 있다.
<상태 변경(휴면 상태에서 활성화 상태로의 전환)에서의 단말 동작>
전술한 휴면 상태에서의 제한적인 측정 등이 도입될 경우, 해당 휴면 상태에서 활성화 상태로 전환된 경우의 단말 과정도 정의되는 것이 필요하다. 본 개시에서는 휴면 상태에서 활성화 상태로 전환한 직후의 단말 동작을 제안한다. 아래 방법들은 단독으로 혹은 조합을 통해 구현될 수 있다. 일례로 네트워크는 아래 방법 1, 2 중 하나를 상위 계층 시그널링 등을 통해 지시할 수도 있다.
방법 1) 기본 BWP/CORESET/SS 집합 모니터링
단말은 전력 절감 등을 위하여 휴면 상태에서는 제한적인 측정을 수행할 수 있다. 또 다른 측면에서, 휴면 상태는 시그널링 등이 제한적일 수 있기 때문에 측정의 정확도 혹은 (채널 상황에 따른) 측정 적응(adaptation)을 기대하기 어렵다. 따라서 휴면 상태에서 활성화 상태로 전환할 경우, 간단한 형태의 과정을 통해 휴면 상태동안 발생할 수 있는 측정 정확도(accuracy) 등의 문제를 해결하는 것이 필요할 수 있다. 이는 휴면 상태에서의 동작으로 인해 정확한 채널 상태를 파악하지 못할 수 있으므로, 단말-특정적 채널 정보 등을 이용한 PDCCH 모니터링 등은 지양하는 것이 바람직함을 의미할 수 있다.
이를 위해 본 개시에서는 기본 BWP, 기본 CORESET/SS 집합 등을 정의하고, 해당 설정은 사전 정의에 의해 결정되거나, 네트워크에 의해 지시될 것을 제안한다. 사전 정의에 의해 해당 설정이 적용될 경우, 다음과 같은 방법이 고려될 수 있다.
BWP의 경우, 해당 휴면 상태 이전 활성화 상태에서의 BWP 설정을 기반으로 기본 BWP가 결정될 수 있다. 예를 들어, 해당 휴면 상태 이전 활성화 상태에서의 가장 최근의 활성화 BWP가 기본 BWP로 정의될 수 있다. 또 다른 방법으로 해당 SCell에서의 첫 번째 활성화 BWP가 기본 BWP로 정의될 수도 있다.
CORESET/SS(search space: 검색 공간) 집합 설정의 경우, 기본 BWP 내에서 정의된 가장 낮게 인덱싱된(lowest indexed) CORESET 혹은 SS 집합이 기본 CORESET 혹은 SS 집합으로 정의될 수 있다. 또는 기본 BWP에서 설정된 CORESET/SS 집합 중 CSS 용도로 사용되는 CORESET(s)/SS 집합(들)을 기본 CORESET(s)/SS 집합(들)으로 정의할 수도 있다.
또는, 휴면 상태에서 활성화 상태로 전환될 경우의 기본 BWP/CORESET/SS 집합은 네트워크에 의해 (RRC 시그널링 혹은 MAC CE 시그널링을 통해) 설정되거나 지시(indicate)될 수도 있다.
기본 BWP/CORESET/SS 집합에서 기존의 설정된 BWP/CORESET/SS 집합으로 전환되는 것은 추가적인 타이머 혹은 네트워크 시그널링 등에 의해 트리거링될 수 있다. 예를 들어, 휴면 BWP에서 동작하기 직전의 활성화 BWP에 CORESET이 3개, SS 집합이 10개 설정되어 있을 경우, 휴면 상태에서 활성화 상태로 전환하는 단말은 사전에 정의된 혹은 네트워크가 지시한 기본 CORESET/SS 집합에 대한 모니터링을 주어진 시간(타이머에 의한) 동안 수행하고, 해당 타이머가 만료될 경우 기존 설정된 CORESET들/SS 집합들에 대한 모니터링을 수행할 수 있다.
방법 2) 현존하는 BWP/CORESET/SS 집합 모니터링.
이전에 설정받은 BWP/CORESET/SS 집합 설정을 휴면 상태에서 활성화 상태로의 전환에서도 적용할 수도 있다. 즉, 단말은 가장 최근 활성화 상태에서의 활성화 BWP와 그 BWP에 대하여 설정된 CORESET/SS 집합 설정을 휴면 상태 이후의 활성화 상태에서도 적용할 수 있다. 이는 동적 상태 변환이 적용되고, 짧은 기간의 휴면 상태 등이 적용될 경우, 추가적인 시그널링 오버헤드를 줄이고, 스케줄링 유연성을 보장하기 위한 방법으로 해석될 수 있다.
앞서 설명한 제안 또는 개시의 동작은, “단말/UE” 또는 “네트워크”의 관점으로 서술하였으나, “단말” 및 “네트워크” 대신 후술되는 송신 또는 수신 장치, (디지털 신호) 프로세서, 마이크로 프로세서 등에 의해 수행되거나 구현될 수 있다. 또한, “단말”은 일반적인 용어로서, MS(mobile station), UE(user equipment), 이동 단말 등 이동성을 갖는 장치와 상호 교환 가능하게 사용되며, “기지국”은 일반적인 용어로서, BS(base station), eNB(evolved NodeB), ng-eNB(next generation eNode B), gNB(next generation NodeB) 등의 장치와 상호 교환가능하게 사용될 수 있다.
설명한 제안 방식에 대한 일례들 또한 본 개시의 구현 방법들 중 하나로 포함될 수 있으므로, 일종의 제안 방식들로 간주될 수 있음은 명백한 사실이다. 또한, 설명한 제안 방식들은 독립적으로 구현될 수도 있지만, 일부 제안 방식들의 조합(혹은 병합) 형태로 구현될 수도 있다. 제안 방법들의 적용 여부 정보 (혹은 상기 제안 방법들의 규칙들에 대한 정보)는 기지국이 단말에게 사전에 정의된 시그널(예를 들어, 물리 계층 시그널 혹은 상위 계층 시그널)을 통해서 알려주도록 규칙이 정의될 수 있다. 또한, 본 개시의 실시 예에서 설명한 제안 방법 및 그 방법으로부터 확장 가능한 방법들은 장치로써 구현될 수도 있으며, 본 개시는 제안 방법을 구현하는 장치에 대한 내용도 포함한다. 해당 장치에 대한 설명은 아래에 첨부된 도면을 참조하여 후술한다.
도 16은 본 발명을 수행하는 전송 장치(1810) 및 수신 장치(1820)의 구성 요소를 나타내는 블록도이다. 여기서, 상기 전송 장치 및 수신 장치는 각각 기지국(네트워크) 또는 단말일 수 있다.
전송 장치(1810) 및 수신 장치(1820)는 정보 및/또는 데이터, 신호, 메시지 등을 나르는 무선 신호를 전송 또는 수신할 수 있는 송수신기(1812, 1822)와, 무선통신 시스템 내 통신과 관련된 각종 정보를 저장하는 메모리(1813, 1823), 상기 송수신기(1812, 1822) 및 메모리(1813, 1823) 등의 구성요소와 연결되어, 상기 구성요소를 제어하여 해당 장치가 전술한 본 발명의 실시예들 중 적어도 하나를 수행하도록 메모리(1813, 1823) 및/또는 송수신기(1812, 1822)을 제어하도록 구성된(configured) 프로세서(1811, 1821)를 각각 포함할 수 있다. 여기서, 송수신기는 트랜시버라고 불릴 수도 있다.
메모리(1813, 1823)는 프로세서(1811, 1821)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 입/출력되는 정보를 임시 저장할 수 있다. 메모리(1813, 1823)는 버퍼로서 활용될 수 있다.
프로세서(1811, 1821)는 통상적으로 전송 장치 또는 수신 장치 내 각종 모듈의 전반적인 동작을 제어한다. 특히, 프로세서(1811, 1821)는 본 발명을 수행하기 위한 각종 제어 기능을 수행할 수 있다. 프로세서(1811, 1821)는 컨트롤러(controller), 마이크로 컨트롤러(microcontroller), 마이크로 프로세서(microprocessor), 마이크로 컴퓨터(microcomputer) 등으로도 불릴 수 있다. 프로세서(1811, 1821)는 하드웨어(hardware) 또는 펌웨어(firmware), 소프트웨어, 또는 이들의 결합에 의해 구현될 수 있다. 하드웨어를 이용하여 본 발명을 구현하는 경우에는, 본 발명을 수행하도록 구성된 ASICs(application specific integrated circuits) 또는 DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays) 등이 프로세서(1811, 1821)에 구비될 수 있다. 한편, 펌웨어나 소프트웨어를 이용하여 본 발명을 구현하는 경우에는 본 발명의 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등을 포함하도록 펌웨어나 소프트웨어가 구성될 수 있으며, 본 발명을 수행할 수 있도록 구성된 펌웨어 또는 소프트웨어는 프로세서(1811, 1821) 내에 구비되거나 메모리(1813, 1823)에 저장되어 프로세서(1811, 1821)에 의해 구동될 수 있다.
전송 장치(1810)의 프로세서(1811)는, 외부로 전송할 신호 및/또는 데이터에 대하여 소정의 부호화(coding) 및 변조(modulation)를 수행한 후 송수신기(1812)에 전송할 수 있다. 예를 들어, 프로세서(1811)는 전송하고자 하는 데이터 열을 역다중화 및 채널 부호화, 스크램블링, 변조과정 등을 거쳐 코드워드를 생성할 수 있다. 코드워드는 MAC 계층이 제공하는 데이터 블록인 전송 블록과 등가의 정보들을 포함할 수 있다. 하나의 전송 블록(transport block, TB)은 하나의 코드워드로 부호화될 수 있다. 각 코드워드는 하나 이상의 레이어를 통해 수신 장치에 전송될 수 있다. 주파수 상향 변환(frequency up-convert)을 위해 송수신기(1812)는 오실레이터(oscillator)를 포함할 수 있다. 송수신기(1812)는 하나의 또는 복수의 전송 안테나들을 포함할 수 있다.
수신 장치(1820)의 신호 처리 과정은 전송 장치(1810)의 신호 처리 과정의 역으로 구성될 수 있다. 프로세서(1821)의 제어 하에, 수신 장치(1820)의 송수신기(1822)는 전송 장치(1810)에 의해 전송된 무선 신호를 수신할 수 있다. 상기 송수신기(1822)는 하나 또는 복수개의 수신 안테나를 포함할 수 있다. 상기 송수신기(1822)는 수신 안테나를 통해 수신된 신호 각각을 주파수 하향 변환하여(frequency down-convert) 기저대역 신호로 복원할 수 있다. 송수신기(1822)는 주파수 하향 변환을 위해 오실레이터를 포함할 수 있다. 상기 프로세서(1821)는 수신 안테나를 통하여 수신된 무선 신호에 대한 복호(decoding) 및 복조(demodulation)를 수행하여, 전송 장치(1810)가 본래 전송하고자 했던 데이터를 복원할 수 있다.
송수신기(1812, 1822)는 하나 또는 복수개의 안테나를 구비할 수 있다. 안테나는, 프로세서(1811, 1821)의 제어 하에 본 발명의 일 실시예에 따라, 송수신기(1812, 1822)에 의해 처리된 신호를 외부로 전송하거나, 외부로부터 무선 신호를 수신하여 송수신기(1812, 1822)으로 전달하는 기능을 수행할 수 있다. 안테나는 안테나 포트로 칭할 수도 있다. 각 안테나는 하나의 물리 안테나에 해당하거나 하나보다 많은 물리 안테나 요소(element)의 조합에 의해 구성될(configured) 수 있다. 각 안테나로부터 전송된 신호는 수신 장치(1820)에 의해 더는 분해될 수 없다. 해당 안테나에 대응하여 전송된 참조신호(reference signal, RS)는 수신 장치(1820)의 관점에서 본 안테나를 정의하며, 채널이 하나의 물리 안테나로부터의 단일(single) 무선 채널인지 혹은 상기 안테나를 포함하는 복수의 물리 안테나 요소(element)들로부터의 합성(composite) 채널인지에 관계없이, 상기 수신 장치(1820)로 하여금 상기 안테나에 대한 채널 추정을 가능하게 할 수 있다. 즉, 안테나는 상기 안테나 상의 심볼을 전달하는 채널이 상기 동일 안테나 상의 다른 심볼이 전달되는 상기 채널로부터 도출될 수 있도록 정의될 수 있다. 복수의 안테나를 이용하여 데이터를 송수신하는 다중 입출력(Multi-Input Multi-Output, MIMO) 기능을 지원하는 트랜시버의 경우에는 2개 이상의 안테나와 연결될 수 있다.
도 17은 전송 장치(1810) 내 신호 처리 모듈 구조의 일 예를 도시한 것이다. 여기서, 신호 처리는 도 16의 프로세서(1811, 1821)와 같은 기지국/단말의 프로세서에서 수행될 수 있다.
도 17을 참조하면, 단말 또는 기지국 내의 전송 장치(1810)는 스크램블러(301), 모듈레이터(302), 레이어 맵퍼(303), 안테나 포트 맵퍼(304), 자원 블록 맵퍼(305), 신호 생성기(306)를 포함할 수 있다.
전송 장치(1810)는 하나 이상의 코드워드(codeword)를 전송할 수 있다. 각 코드워드 내 부호화된 비트(coded bits)는 각각 스크램블러(301)에 의해 스크램블링되어 물리채널 상에서 전송된다. 코드워드는 데이터 열로 지칭될 수도 있으며, MAC 계층이 제공하는 데이터 블록인 전송 블록과 등가일 수 있다.
스크램블된 비트는 모듈레이터(302)에 의해 복소 변조 심볼(Complex-valued modulation symbols)로 변조된다. 모듈레이터 (302)는 상기 스크램블된 비트를 변조 방식에 따라 변조하여 신호 성상(signal constellation) 상의 위치를 표현하는 복소 변조 심볼로 배치할 수 있다. 변조 방식(modulation scheme)에는 제한이 없으며, m-PSK(m-Phase Shift Keying) 또는 m-QAM(m-Quadrature Amplitude Modulation) 등이 상기 부호화된 데이터의 변조에 이용될 수 있다. 모듈레이터는 모듈레이션 맵퍼(modulation mapper)로 지칭될 수 있다.
상기 복소 변조 심볼은 레이어 맵퍼(303)에 의해 하나 이상의 전송 레이어로 맵핑될 수 있다. 각 레이어 상의 복소 변조 심볼은 안테나 포트 상에서의 전송을 위해 안테나 포트 맵퍼(304)에 의해 맵핑될 수 있다.
자원 블록 맵퍼(305)는 각 안테나 포트에 대한 복소 변조 심볼을 전송을 위해 할당된 가상 자원 블록(Virtual Resource Block) 내의 적절한 자원 요소에 맵핑할 수 있다. 자원 블록 맵퍼는 상기 가상 자원 블록을 적절한 맵핑 기법(mapping scheme)에 따라 물리 자원 블록(Physical Resource Block)에 맵핑할 수 있다. 상기 자원 블록 맵퍼(305)는 상기 각 안테나 포트에 대한 복소 변조 심볼을 적절한 부반송파에 할당하고, 사용자에 따라 다중화할 수 있다.
신호 생성기(306)는 상기 각 안테나 포트에 대한 복소 변조 심볼, 즉, 안테나 특정 심볼을 특정 변조 방식, 예컨대, OFDM(Orthogonal Frequency Division Multiplexing) 방식으로 변조하여, 복소 시간 도메인(complex-valued time domain) OFDM 심볼 신호를 생성할 수 있다. 신호 생성기는 안테나 특정 심볼에 대해 IFFT(Inverse Fast Fourier Transform)를 수행할 수 있으며, IFFT가 수행된 시간 도메인 심볼에는 CP(Cyclic Prefix)가 삽입될 수 있다. OFDM 심볼은 디지털-아날로그(digital-to-analog) 변환, 주파수 상향 변환 등을 거쳐 각 송신 안테나를 통해 수신 장치로 송신된다. 신호 생성기는 IFFT 모듈 및 CP 삽입기, DAC(Digital-to-Analog Converter), 주파수 상향 변환기(frequency uplink converter) 등을 포함할 수 있다.
도 18은 전송 장치(1810) 내 신호 처리 모듈 구조의 다른 예를 도시한 것이다. 여기서, 신호 처리는 도 16의 프로세서(1811, 1821) 등 단말/기지국의 프로세서에서 수행될 수 있다.
도 18을 참조하면, 단말 또는 기지국 내 전송 장치(1810)는 스크램블러(401), 모듈레이터(402), 레이어 맵퍼(403), 프리코더(404), 자원 블록 맵퍼(405), 신호 생성기(406)를 포함할 수 있다.
전송 장치(1810)는 하나의 코드워드에 대해, 코드워드 내 부호화된 비트(coded bits)를 스크램블러(401)에 의해 스크램블링한 후 물리 채널을 통해 전송할 수 있다.
스크램블된 비트는 모듈레이터(402)에 의해 복소 변조 심볼로 변조된다. 상기 모듈레이터는 상기 스크램블된 비트를 기결정된 변조 방식에 따라 변조하여 신호 성상(signal constellation) 상의 위치를 표현하는 복소 변조 심볼로 배치할 수 있다. 변조 방식(modulation scheme)에는 제한이 없으며, pi/2-BPSK(pi/2-Binary Phase Shift Keying), m-PSK(m-Phase Shift Keying) 또는 m-QAM(m-Quadrature Amplitude Modulation) 등이 상기 부호화된 데이터의 변조에 이용될 수 있다.
상기 복소 변조 심볼은 상기 레이어 맵퍼(403)에 의해 하나 이상의 전송 레이어로 맵핑될 수 있다.
각 레이어 상의 복소 변조 심볼은 안테나 포트상에서의 전송을 위해 프리코더(404)에 의해 프리코딩될 수 있다. 여기서, 프리코더는 복소 변조 심볼에 대한 트랜스폼 프리코딩(transform precoding)을 수행한 이후에 프리코딩을 수행할 수도 있다. 또는, 프리코더는 트랜스폼 프리코딩을 수행하지 않고 프리코딩을 수행할 수도 있다. 프리코더(404)는 상기 복소 변조 심볼을 다중 송신 안테나에 따른 MIMO 방식으로 처리하여 안테나 특정 심볼들을 출력하고 상기 안테나 특정 심볼들을 해당 자원 블록 맵퍼(405)로 분배할 수 있다. 프리코더(404)의 출력 z는 레이어 맵퍼(403)의 출력 y를 NХM의 프리코딩 행렬 W와 곱해 얻을 수 있다. 여기서, N은 안테나 포트의 개수, M은 레이어의 개수이다.
자원 블록 맵퍼(405)는 각 안테나 포트에 대한 복조 변조 심볼을 전송을 위해 할당된 가상 자원 블록 내에 있는 적절한 자원 요소에 맵핑한다.
자원 블록 맵퍼(405)는 복소 변조 심볼을 적절한 부반송파에 할당하고, 사용자에 따라 다중화할 수 있다.
신호 생성기(406)는 복소 변조 심볼을 특정 변조 방식 예컨대, OFDM 방식으로 변조하여 복소시간도메인(complex-valued time domain) OFDM(Orthogonal Frequency Division Multiplexing) 심볼 신호를 생성할 수 있다. 신호 생성기(406)는 안테나 특정 심볼에 대해 IFFT(Inverse Fast Fourier Transform)를 수행할 수 있으며, IFFT가 수행된 시간 도메인 심볼에는 CP(Cyclic Prefix)가 삽입될 수 있다. OFDM 심볼은 디지털-아날로그(digital-to-analog) 변환, 주파수 상향변환 등을 거쳐, 각 송신 안테나를 통해 수신장치로 송신된다. 신호 생성기(406)는 IFFT 모듈 및 CP 삽입기, DAC(Digital-to-Analog Converter), 주파수 상향 변환기(frequency uplink converter) 등을 포함할 수 있다.
수신장치(1820)의 신호 처리 과정은 송신기의 신호 처리 과정의 역으로 구성될 수 있다. 구체적으로, 수신장치(1820)의 프로세서(1821)는 외부에서 송수신기(1822)의 안테나 포트(들)을 통하여 수신된 무선 신호에 대한 복호(decoding) 및 복조(demodulation)를 수행한다. 상기 수신장치(1820)는 복수개의 다중 수신 안테나를 포함할 수 있으며, 수신 안테나를 통해 수신된 신호 각각은 기저대역 신호로 복원된 후 다중화 및 MIMO 복조화를 거쳐 전송장치(1810)가 본래 전송하고자 했던 데이터열로 복원된다. 수신장치(1820)는 수신된 신호를 기저대역 신호로 복원하기 위한 신호 복원기, 수신 처리된 신호를 결합하여 다중화하는 다중화기, 다중화된 신호열을 해당 코드워드로 복조하는 채널복조기를 포함할 수 있다. 상기 신호 복원기 및 다중화기, 채널복조기는 이들의 기능을 수행하는 통합된 하나의 모듈 또는 각각의 독립된 모듈로 구성될 수 있다. 조금 더 구체적으로, 상기 신호 복원기는 아날로그 신호를 디지털 신호로 변환하는 ADC(analog-to-digital converter), 상기 디지털 신호로부터 CP를 제거하는 CP 제거기, CP가 제거된 신호에 FFT(fast Fourier transform)를 적용하여 주파수 도메인 심볼을 출력하는 FFT 모듈, 상기 주파수 도메인 심볼을 안테나 특정 심볼로 복원하는 자원요소디맵퍼(resource element demapper)/등화기(equalizer)를 포함할 수 있다. 상기 안테나 특정 심볼은 다중화기에 의해 전송레이어로 복원되며, 상기 전송레이어는 채널복조기에 의해 송신장치가 전송하고자 했던 코드워드로 복원된다.
도 19은 본 발명의 구현 예에 따른 무선 통신 장치의 일 예를 도시한 것이다.
도 19을 참조하면, 무선 통신 장치, 예를 들어, 단말은 디지털 신호 프로세서(Digital Signal Processor; DSP) 또는 마이크로프로세서 등의 프로세서(2310), 트랜시버(2335), 전력 관리 모듈(2305), 안테나(2340), 배터리(2355), 디스플레이(2315), 키패드(2320), GPS(Global Positioning System) 칩(2360), 센서(2365), 메모리(2330), SIM(Subscriber Identification Module) 카드(2325), 스피커(2345), 마이크로폰(2350) 중 적어도 하나를 포함할 수 있다. 상기 안테나 및 프로세서는 복수 개일 수 있다.
프로세서(2310)는 본 명세서에서 설명한 기능, 절차, 방법들을 구현할 수 있다. 도 19의 프로세서(2310)는 도 16의 프로세서(1811, 1821)일 수 있다.
메모리(2330)는 프로세서(2310)와 연결되어, 프로세서의 동작과 관련된 정보를 저장한다. 메모리는 프로세서의 내부 또는 외부에 위치할 수 있고, 유선 연결 또는 무선 연결과 같은 다양한 기술을 통해 프로세서와 연결될 수 있다. 도 19의 메모리(2330)는 도 16의 메모리(1813, 1823)일 수 있다.
사용자는 키패드(2320)의 버튼을 누르거나 마이크로폰(2350)을 이용하여 소리를 활성화시키는 등 다양한 기술을 이용하여 전화 번호와 같은 다양한 종류의 정보를 입력할 수 있다. 프로세서(2310)는 사용자의 정보를 수신하여 프로세싱하고, 입력된 전화 번호에 전화를 거는 등 적절한 기능을 수행할 수 있다. 일부 시나리오에서는, 데이터가 적절한 기능을 수행하기 위해 SIM 카드(2325) 또는 메모리(2330)로부터 검색될 수 있다. 일부 시나리오에서는, 프로세서(2310)는 사용자의 편의를 위해 디스플레이(2315)에 다양한 종류의 정보와 데이터를 표시할 수 있다.
트랜시버(2335)는 프로세서(2310)와 연결되어, RF(Radio Frequency) 신호와 같은 무선 신호를 송신 및/또는 수신한다. 프로세서는 통신을 개시하거나 음성 통신 데이터 등 다양한 종류의 정보 또는 데이터를 포함한 무선 신호를 전송하기 위해 트랜시버를 제어할 수 있다. 트랜시버는 무선 신호의 송신 및 수신을 위해 송신기 및 수신기를 포함한다. 안테나(2340)는 무선 신호의 송신 및 수신을 용이하게 할 수 있다. 일부 구현 예에서, 트랜시버는 무선 신호를 수신하면 프로세서에 의한 처리를 위해 신호를 기저대역 주파수로 포워딩하고 변환할 수 있다. 처리된 신호는 스피커(2345)를 통해 출력되도록 가청 또는 판독 가능한 정보로 변환되는 등 다양한 기술에 의해 처리될 수 있다. 도 19의 트랜시버는 도 16의 송수신기(1812, 1822)일 수 있다.
도 19에 도시되어 있지는 않지만, 카메라, USB(Universal Serial Bus) 포트 등 다양한 구성 요소가 단말에 추가적으로 포함될 수 있다. 예를 들어, 카메라는 프로세서(2310)와 연결될 수 있다.
도 19은 단말에 대한 하나의 구현 예일 뿐이고, 구현 예는 이에 제한되지 않는다. 단말은 도 19의 모든 요소들을 필수적으로 포함해야 하는 것은 아니다. 즉, 일부 구성 요소 예를 들어, 키패드(2320), GPS(Global Positioning System) 칩(2360), 센서(2365), SIM 카드(2325) 등은 필수적인 요소가 아닐 수도 있으며 이 경우, 단말에 포함되지 않을 수도 있다.
도 20은 프로세서(2000)의 일 예를 나타낸다.
도 20을 참조하면, 프로세서(2000)는, RRC 신호 및/또는 MAC CE, DCI 수신 처리 모듈(2010) 및 CSI/RRM 측정 및 보고 처리 모듈(2020)을 포함할 수 있다. 프로세서(2000)는 도 14 내지 도 15에서 설명한 방법들(수신기의 입장)을 실행할 수 있다. 예컨대, 프로세서(2000)는 단말이 상기 세컨더리 셀에 대해 휴면 상태(dormant state)인 경우 적용하는 제2 설정 정보를 수신하고, 상기 제2 설정 정보에 기반하여 채널 상태 정보 측정 및 보고를 수행할 수 있다. 프로세서(2000)는, 도 16의 프로세서(1811, 1821)의 일 예일 수 있다.
도 21은 프로세서(3000)의 일 예를 나타낸다.
도 21을 참조하면, 프로세서(3000)는, RRC 신호 및/또는 MAC CE, DCI 생성 모듈 (3010) 및 정보 송수신 모듈(3020)을 포함할 수 있다. 프로세서(3000)는 RRC 신호 및/또는 MAC CE, DCI 생성 모듈 (3010)을 통해 세컨더리 셀에 대해 활성화 상태(activated state)일 때 적용하는 제1 설정 정보 및 세컨더리 셀에 대해 휴면 상태(dormant state)인 경우 적용하는 제2 설정 정보를 생성하고, 이러한 설정 정보를 전송한 후 해당 설정 정보에 따른 CSI/RRM 측정 결과를 정보 송수신 모듈(3020)을 통해 피드백 받을 수 있다. 프로세서(3000)는, 도 16의 프로세서(1811, 1821)의 일 예일 수 있다.
도 22는 본 발명의 기술적 특징이 적용될 수 있는 5G 사용 시나리오의 예를 나타낸다.
도 22에 도시된 5G 사용 시나리오는 단지 예시적인 것이며, 본 발명의 기술적 특징은 도 22에 도시되지 않은 다른 5G 사용 시나리오에도 적용될 수 있다.
도 22를 참조하면, 5G의 세 가지 주요 요구 사항 영역은 (1) 개선된 모바일 광대역(eMBB; enhanced mobile broadband) 영역, (2) 다량의 머신 타입 통신(mMTC; massive machine type communication) 영역 및 (3) 초-신뢰 및 저 지연 통신(URLLC; ultra-reliable and low latency communications) 영역을 포함한다. 일부 사용 예는 최적화를 위해 다수의 영역을 요구할 수 있고, 다른 사용 예는 단지 하나의 핵심 성능 지표(KPI; key performance indicator)에만 포커싱 할 수 있다. 5G는 이러한 다양한 사용 예들을 유연하고 신뢰할 수 있는 방법으로 지원하는 것이다.
eMBB는 데이터 속도, 지연, 사용자 밀도, 모바일 광대역 접속의 용량 및 커버리지의 전반적인 향상에 중점을 둔다. eMBB는 10Gbps 정도의 처리량을 목표로 한다. eMBB는 기본적인 모바일 인터넷 접속을 훨씬 능가하게 하며, 풍부한 양방향 작업, 클라우드 또는 증강 현실에서 미디어 및 엔터테인먼트 애플리케이션을 커버한다. 데이터는 5G의 핵심 동력 중 하나이며, 5G 시대에서 처음으로 전용 음성 서비스를 볼 수 없을 수 있다. 5G에서, 음성은 단순히 통신 시스템에 의해 제공되는 데이터 연결을 사용하여 응용 프로그램으로서 처리될 것으로 기대된다. 증가된 트래픽 양의 주요 원인은 콘텐츠 크기의 증가 및 높은 데이터 전송률을 요구하는 애플리케이션 수의 증가이다. 스트리밍 서비스(오디오 및 비디오), 대화형 비디오 및 모바일 인터넷 연결은 더 많은 장치가 인터넷에 연결될수록 더 널리 사용될 것이다. 이러한 많은 애플리케이션은 사용자에게 실시간 정보 및 알림을 푸쉬하기 위해 항상 켜져 있는 연결성을 필요로 한다. 클라우드 스토리지 및 애플리케이션은 모바일 통신 플랫폼에서 급속히 증가하고 있으며, 이것은 업무 및 엔터테인먼트 모두에 적용될 수 있다. 클라우드 스토리지는 상향링크 데이터 전송률의 성장을 견인하는 특별한 사용 예이다. 5G는 또한 클라우드 상의 원격 업무에도 사용되며, 촉각 인터페이스가 사용될 때 우수한 사용자 경험을 유지하도록 훨씬 더 낮은 단-대-단(end-to-end) 지연을 요구한다. 엔터테인먼트에서 예를 들면, 클라우드 게임 및 비디오 스트리밍은 모바일 광대역 능력에 대한 요구를 증가시키는 또 다른 핵심 요소이다. 엔터테인먼트는 기차, 차 및 비행기와 같은 높은 이동성 환경을 포함하여 어떤 곳에서든지 스마트폰 및 태블릿에서 필수적이다. 또 다른 사용 예는 엔터테인먼트를 위한 증강 현실 및 정보 검색이다. 여기서, 증강 현실은 매우 낮은 지연과 순간적인 데이터 양을 필요로 한다.
mMTC는 배터리에 의해 구동되는 다량의 저비용 장치 간의 통신을 가능하게 하기 위하여 설계되며, 스마트 계량, 물류, 현장 및 신체 센서와 같은 애플리케이션을 지원하기 위한 것이다. mMTC는 10년 정도의 배터리 및/또는 1km2 당 백만 개 정도의 장치를 목표로 한다. mMTC는 모든 분야에서 임베디드 센서를 원활하게 연결할 수 있게 하며, 가장 많이 예상되는 5G 사용 예 중 하나이다. 잠재적으로 2020년까지 IoT 장치들은 204억 개에 이를 것으로 예측된다. 산업 IoT는 5G가 스마트 도시, 자산 추적(asset tracking), 스마트 유틸리티, 농업 및 보안 인프라를 가능하게 하는 주요 역할을 수행하는 영역 중 하나이다.
URLLC는 장치 및 기계가 매우 신뢰성 있고 매우 낮은 지연 및 높은 가용성으로 통신할 수 있도록 함으로써 차량 통신, 산업 제어, 공장 자동화, 원격 수술, 스마트 그리드 및 공공 안전 애플리케이션에 이상적이다. URLLC는 1ms의 정도의 지연을 목표로 한다. URLLC는 주요 인프라의 원격 제어 및 자율 주행 차량과 같은 초 신뢰/지연이 적은 링크를 통해 산업을 변화시킬 새로운 서비스를 포함한다. 신뢰성과 지연의 수준은 스마트 그리드 제어, 산업 자동화, 로봇 공학, 드론 제어 및 조정에 필수적이다.
다음으로, 도 22의 삼각형 안에 포함된 다수의 사용 예에 대해 보다 구체적으로 살펴본다.
5G는 초당 수백 메가 비트에서 초당 기가 비트로 평가되는 스트림을 제공하는 수단으로 FTTH(fiber-to-the-home) 및 케이블 기반 광대역(또는 DOCSIS)을 보완할 수 있다. 이러한 빠른 속도는 가상 현실(VR; virtual reality)과 증강 현실(AR; augmented reality) 뿐 아니라 4K 이상(6K, 8K 및 그 이상)의 해상도로 TV를 전달하는 데에 요구될 수 있다. VR 및 AR 애플리케이션은 거의 몰입형(immersive) 스포츠 경기를 포함한다. 특정 애플리케이션은 특별한 네트워크 설정이 요구될 수 있다. 예를 들어, VR 게임의 경우, 게임 회사가 지연을 최소화하기 위해 코어 서버를 네트워크 오퍼레이터의 에지 네트워크 서버와 통합해야 할 수 있다.
자동차(Automotive)는 차량에 대한 이동 통신을 위한 많은 사용 예와 함께 5G에 있어 중요한 새로운 동력이 될 것으로 예상된다. 예를 들어, 승객을 위한 엔터테인먼트는 높은 용량과 높은 모바일 광대역을 동시에 요구한다. 그 이유는 미래의 사용자는 그들의 위치 및 속도와 관계 없이 고품질의 연결을 계속해서 기대하기 때문이다. 자동차 분야의 다른 사용 예는 증강 현실 대시보드이다. 운전자는 증강 현실 대비보드를 통해 앞면 창을 통해 보고 있는 것 위에 어둠 속에서 물체를 식별할 수 있다. 증강 현실 대시보드는 물체의 거리와 움직임에 대해 운전자에게 알려줄 정보를 겹쳐서 디스플레이 한다. 미래에, 무선 모듈은 차량 간의 통신, 차량과 지원하는 인프라구조 사이에서 정보 교환 및 자동차와 다른 연결된 장치(예를 들어, 보행자에 의해 수반되는 장치) 사이에서 정보 교환을 가능하게 한다. 안전 시스템은 운전자가 보다 안전한 운전을 할 수 있도록 행동의 대체 코스를 안내하여 사고의 위험을 낮출 수 있게 한다. 다음 단계는 원격 조종 차량 또는 자율 주행 차량이 될 것이다. 이는 서로 다른 자율 주행 차량 사이 및/또는 자동차와 인프라 사이에서 매우 신뢰성이 있고 매우 빠른 통신을 요구한다. 미래에, 자율 주행 차량이 모든 운전 활동을 수행하고, 운전자는 차량 자체가 식별할 수 없는 교통 이상에만 집중하도록 할 것이다. 자율 주행 차량의 기술적 요구 사항은 트래픽 안전을 사람이 달성할 수 없을 정도의 수준까지 증가하도록 초 저 지연과 초고속 신뢰성을 요구한다.
스마트 사회로서 언급되는 스마트 도시와 스마트 홈은 고밀도 무선 센서 네트워크로 임베디드 될 것이다. 지능형 센서의 분산 네트워크는 도시 또는 집의 비용 및 에너지 효율적인 유지에 대한 조건을 식별할 것이다. 유사한 설정이 각 가정을 위해 수행될 수 있다. 온도 센서, 창 및 난방 컨트롤러, 도난 경보기 및 가전 제품은 모두 무선으로 연결된다. 이러한 센서 중 많은 것들이 전형적으로 낮은 데이터 전송 속도, 저전력 및 저비용을 요구한다. 하지만, 예를 들어, 실시간 HD 비디오는 감시를 위해 특정 타입의 장치에서 요구될 수 있다.
열 또는 가스를 포함한 에너지의 소비 및 분배는 고도로 분산화되고 있어, 분산 센서 네트워크의 자동화된 제어가 요구된다. 스마트 그리드는 정보를 수집하고 이에 따라 행동하도록 디지털 정보 및 통신 기술을 사용하여 이런 센서를 상호 연결한다. 이 정보는 공급 업체와 소비자의 행동을 포함할 수 있으므로, 스마트 그리드가 효율성, 신뢰성, 경제성, 생산의 지속 가능성 및 자동화된 방식으로 전기와 같은 연료의 분배를 개선하도록 할 수 있다. 스마트 그리드는 지연이 적은 다른 센서 네트워크로 볼 수도 있다.
건강 부문은 이동 통신의 혜택을 누릴 수 있는 많은 애플리케이션을 보유하고 있다. 통신 시스템은 멀리 떨어진 곳에서 임상 진료를 제공하는 원격 진료를 지원할 수 있다. 이는 거리에 대한 장벽을 줄이는 데에 도움을 주고, 거리가 먼 농촌에서 지속적으로 이용하지 못하는 의료 서비스로의 접근을 개선시킬 수 있다. 이는 또한 중요한 진료 및 응급 상황에서 생명을 구하기 위해 사용된다. 이동 통신 기반의 무선 센서 네트워크는 심박수 및 혈압과 같은 파라미터에 대한 원격 모니터링 및 센서를 제공할 수 있다.
무선 및 모바일 통신은 산업 응용 분야에서 점차 중요해지고 있다. 배선은 설치 및 유지 비용이 높다. 따라서, 케이블을 재구성할 수 있는 무선 링크로의 교체 가능성은 많은 산업 분야에서 매력적인 기회이다. 그러나, 이를 달성하는 것은 무선 연결이 케이블과 비슷한 지연, 신뢰성 및 용량으로 동작하는 것과, 그 관리가 단순화될 것을 요구한다. 낮은 지연과 매우 낮은 오류 확률은 5G로 연결될 필요가 있는 새로운 요구 사항이다.
물류 및 화물 추적은 위치 기반 정보 시스템을 사용하여 어디에서든지 인벤토리(inventory) 및 패키지의 추적을 가능하게 하는 이동 통신에 대한 중요한 사용 예이다. 물류 및 화물 추적의 사용 예는 전형적으로 낮은 데이터 속도를 요구하지만 넓은 범위와 신뢰성 있는 위치 정보가 필요하다.
도 23은 본 발명의 일 실시 예에 따른 무선 통신 장치를 나타낸다.
도 23을 참조하면, 무선 통신 시스템은 제 1 장치(9010)와 제 2 장치(9020)를 포함할 수 있다.
상기 제 1 장치(9010)는 기지국, 네트워크 노드, 전송 단말, 수신 단말, 무선 장치, 무선 통신 장치, 차량, 자율주행 기능을 탑재한 차량, 커넥티드카(Connected Car), 드론(Unmanned Aerial Vehicle, UAV), AI(Artificial Intelligence) 모듈, 로봇, AR(Augmented Reality) 장치, VR(Virtual Reality) 장치, MR(Mixed Reality) 장치, 홀로그램 장치, 공공 안전 장치, MTC 장치, IoT 장치, 의료 장치, 핀테크 장치(또는 금융 장치), 보안 장치, 기후/환경 장치, 5G 서비스와 관련된 장치 또는 그 이외 4차 산업 혁명 분야와 관련된 장치일 수 있다.
상기 제 2 장치(9020)는 기지국, 네트워크 노드, 전송 단말, 수신 단말, 무선 장치, 무선 통신 장치, 차량, 자율주행 기능을 탑재한 차량, 커넥티드카(Connected Car), 드론(Unmanned Aerial Vehicle, UAV), AI(Artificial Intelligence) 모듈, 로봇, AR(Augmented Reality) 장치, VR(Virtual Reality) 장치, MR(Mixed Reality) 장치, 홀로그램 장치, 공공 안전 장치, MTC 장치, IoT 장치, 의료 장치, 핀테크 장치(또는 금융 장치), 보안 장치, 기후/환경 장치, 5G 서비스와 관련된 장치 또는 그 이외 4차 산업 혁명 분야와 관련된 장치일 수 있다.
예를 들어, 단말은 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털 방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등을 포함할 수 있다. 예를 들어, HMD는 머리에 착용하는 형태의 디스플레이 장치일 수 있다. 예를 들어, HMD는 VR, AR 또는 MR을 구현하기 위해 사용될 수 있다.
예를 들어, 드론은 사람이 타지 않고 무선 컨트롤 신호에 의해 비행하는 비행체일 수 있다. 예를 들어, VR 장치는 가상 세계의 객체 또는 배경 등을 구현하는 장치를 포함할 수 있다. 예를 들어, AR 장치는 현실 세계의 객체 또는 배경 등에 가상 세계의 객체 또는 배경을 연결하여 구현하는 장치를 포함할 수 있다. 예를 들어, MR 장치는 현실 세계의 객체 또는 배경 등에 가상 세계의 객체 또는 배경을 융합하여 구현하는 장치를 포함할 수 있다. 예를 들어, 홀로그램 장치는 홀로그래피라는 두 개의 레이저 광이 만나서 발생하는 빛의 간섭현상을 활용하여, 입체 정보를 기록 및 재생하여 360도 입체 영상을 구현하는 장치를 포함할 수 있다. 예를 들어, 공공 안전 장치는 영상 중계 장치 또는 사용자의 인체에 착용 가능한 영상 장치 등을 포함할 수 있다. 예를 들어, MTC 장치 및 IoT 장치는 사람의 직접적인 개입이나 또는 조작이 필요하지 않는 장치일 수 있다. 예를 들어, MTC 장치 및 IoT 장치는 스마트 미터, 벤딩 머신, 온도계, 스마트 전구, 도어락 또는 각종 센서 등을 포함할 수 있다. 예를 들어, 의료 장치는 질병을 진단, 치료, 경감, 처치 또는 예방할 목적으로 사용되는 장치일 수 있다. 예를 들어, 의료 장치는 상해 또는 장애를 진단, 치료, 경감 또는 보정할 목적으로 사용되는 장치일 수 있다. 예를 들어, 의료 장치는 구조 또는 기능을 검사, 대체 또는 변형할 목적으로 사용되는 장치일 수 있다. 예를 들어, 의료 장치는 임신을 조절할 목적으로 사용되는 장치일 수 있다. 예를 들어, 의료 장치는 진료용 장치, 수술용 장치, (체외) 진단용 장치, 보청기 또는 시술용 장치 등을 포함할 수 있다. 예를 들어, 보안 장치는 발생할 우려가 있는 위험을 방지하고, 안전을 유지하기 위하여 설치한 장치일 수 있다. 예를 들어, 보안 장치는 카메라, CCTV, 녹화기(recorder) 또는 블랙박스 등일 수 있다. 예를 들어, 핀테크 장치는 모바일 결제 등 금융 서비스를 제공할 수 있는 장치일 수 있다. 예를 들어, 핀테크 장치는 결제 장치 또는 POS(Point of Sales) 등을 포함할 수 있다. 예를 들어, 기후/환경 장치는 기후/환경을 모니터링 또는 예측하는 장치를 포함할 수 있다.
상기 제 1 장치(9010)는 프로세서(9011)와 같은 적어도 하나 이상의 프로세서와, 메모리(9012)와 같은 적어도 하나 이상의 메모리와, 송수신기(9013)과 같은 적어도 하나 이상의 송수신기를 포함할 수 있다. 상기 프로세서(9011)는 전술한 기능, 절차, 및/또는 방법들을 수행할 수 있다. 상기 프로세서(9011)는 하나 이상의 프로토콜을 수행할 수 있다. 예를 들어, 상기 프로세서(9011)는 무선 인터페이스 프로토콜의 하나 이상의 계층들을 수행할 수 있다. 상기 메모리(9012)는 상기 프로세서(9011)와 연결되고, 다양한 형태의 정보 및/또는 명령을 저장할 수 있다. 상기 송수신기(9013)는 상기 프로세서(9011)와 연결되고, 무선 시그널을 송수신하도록 제어될 수 있다.
상기 제 2 장치(9020)는 프로세서(9021)와 같은 적어도 하나의 프로세서와, 메모리(9022)와 같은 적어도 하나 이상의 메모리 장치와, 송수신기(9023)와 같은 적어도 하나의 송수신기를 포함할 수 있다. 상기 프로세서(9021)는 전술한 기능, 절차, 및/또는 방법들을 수행할 수 있다. 상기 프로세서(9021)는 하나 이상의 프로토콜을 구현할 수 있다. 예를 들어, 상기 프로세서(9021)는 무선 인터페이스 프로토콜의 하나 이상의 계층들을 구현할 수 있다. 상기 메모리(9022)는 상기 프로세서(9021)와 연결되고, 다양한 형태의 정보 및/또는 명령을 저장할 수 있다. 상기 송수신기(9023)는 상기 프로세서(9021)와 연결되고, 무선 시그널을 송수신하도록 제어될 수 있다.
상기 메모리(9012) 및/또는 상기 메모리(9022)는, 상기 프로세서(9011) 및/또는 상기 프로세서(9021)의 내부 또는 외부에서 각기 연결될 수도 있고, 유선 또는 무선 연결과 같이 다양한 기술을 통해 다른 프로세서에 연결될 수도 있다.
상기 제 1 장치(9010) 및/또는 상기 제 2 장치(9020)는 하나 이상의 안테나를 가질 수 있다. 예를 들어, 안테나(9014) 및/또는 안테나(9024)는 무선 신호를 송수신하도록 구성될 수 있다.
본 발명은 다음과 같은 분야들에 적용될 수도 있다.
<인공 지능(AI: Artificial Intelligence)>
인공 지능은 인공적인 지능 또는 이를 만들 수 있는 방법론을 연구하는 분야를 의미하며, 머신 러닝(기계 학습, Machine Learning)은 인공 지능 분야에서 다루는 다양한 문제를 정의하고 그것을 해결하는 방법론을 연구하는 분야를 의미한다. 머신 러닝은 어떠한 작업에 대하여 꾸준한 경험을 통해 그 작업에 대한 성능을 높이는 알고리즘으로 정의하기도 한다.
인공 신경망(ANN: Artificial Neural Network)은 머신 러닝에서 사용되는 모델로써, 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 인공 신경망은 다른 레이어의 뉴런들 사이의 연결 패턴, 모델 파라미터를 갱신하는 학습 과정, 출력값을 생성하는 활성화 함수(Activation Function)에 의해 정의될 수 있다.
인공 신경망은 입력층(Input Layer), 출력층(Output Layer), 그리고 선택적으로 하나 이상의 은닉층(Hidden Layer)를 포함할 수 있다. 각 층은 하나 이상의 뉴런을 포함하고, 인공 신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다. 인공 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호들, 가중치, 편향에 대한 활성 함수의 함숫값을 출력할 수 있다.
모델 파라미터는 학습을 통해 결정되는 파라미터를 의미하며, 시냅스 연결의 가중치와 뉴런의 편향 등이 포함된다. 그리고, 하이퍼파라미터는 머신 러닝 알고리즘에서 학습 전에 설정되어야 하는 파라미터를 의미하며, 학습률(Learning Rate), 반복 횟수, 미니 배치 크기, 초기화 함수 등이 포함된다.
인공 신경망의 학습의 목적은 손실 함수를 최소화하는 모델 파라미터를 결정하는 것으로 볼 수 있다. 손실 함수는 인공 신경망의 학습 과정에서 최적의 모델 파라미터를 결정하기 위한 지표로 이용될 수 있다.
머신 러닝은 학습 방식에 따라 지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning)으로 분류할 수 있다.
지도 학습은 학습 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시키는 방법을 의미하며, 레이블이란 학습 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과 값)을 의미할 수 있다. 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다. 강화 학습은 어떤 환경 안에서 정의된 에이전트가 각 상태에서 누적 보상을 최대화하는 행동 혹은 행동 순서를 선택하도록 학습시키는 학습 방법을 의미할 수 있다.
인공 신경망 중에서 복수의 은닉층을 포함하는 심층 신경망(DNN: Deep Neural Network)으로 구현되는 머신 러닝을 딥 러닝(심층 학습, Deep Learning)이라 부르기도 하며, 딥 러닝은 머신 러닝의 일부이다. 이하에서, 머신 러닝은 딥 러닝을 포함하는 의미로 사용된다.
<로봇(Robot)>
로봇은 스스로 보유한 능력에 의해 주어진 일을 자동으로 처리하거나 작동하는 기계를 의미할 수 있다. 특히, 환경을 인식하고 스스로 판단하여 동작을 수행하는 기능을 갖는 로봇을 지능형 로봇이라 칭할 수 있다.
로봇은 사용 목적이나 분야에 따라 산업용, 의료용, 가정용, 군사용 등으로 분류할 수 있다.
로봇은 액츄에이터 또는 모터를 포함하는 구동부를 구비하여 로봇 관절을 움직이는 등의 다양한 물리적 동작을 수행할 수 있다. 또한, 이동 가능한 로봇은 구동부에 휠, 브레이크, 프로펠러 등이 포함되어, 구동부를 통해 지상에서 주행하거나 공중에서 비행할 수 있다.
<자율 주행(Self-Driving, Autonomous Driving)>
자율 주행은 스스로 주행하는 기술을 의미하며, 자율 주행 차량은 사용자의 조작 없이 또는 사용자의 최소한의 조작으로 주행하는 차량(Vehicle)을 의미한다.
예컨대, 자율 주행에는 주행중인 차선을 유지하는 기술, 어댑티브 크루즈 컨트롤과 같이 속도를 자동으로 조절하는 기술, 정해진 경로를 따라 자동으로 주행하는 기술, 목적지가 설정되면 자동으로 경로를 설정하여 주행하는 기술 등이 모두 포함될 수 있다.
차량은 내연 기관만을 구비하는 차량, 내연 기관과 전기 모터를 함께 구비하는 하이브리드 차량, 그리고 전기 모터만을 구비하는 전기 차량을 모두 포괄하며, 자동차뿐만 아니라 기차, 오토바이 등을 포함할 수 있다.
이때, 자율 주행 차량은 자율 주행 기능을 가진 로봇으로 볼 수 있다.
<확장 현실(XR: eXtended Reality)>
확장 현실은 가상 현실(VR: Virtual Reality), 증강 현실(AR: Augmented Reality), 혼합 현실(MR: Mixed Reality)을 총칭한다. VR 기술은 현실 세계의 객체나 배경 등을 CG 영상으로만 제공하고, AR 기술은 실제 사물 영상 위에 가상으로 만들어진 CG 영상을 함께 제공하며, MR 기술은 현실 세계에 가상 객체들을 섞고 결합시켜서 제공하는 컴퓨터 그래픽 기술이다.
MR 기술은 현실 객체와 가상 객체를 함께 보여준다는 점에서 AR 기술과 유사하다. 그러나, AR 기술에서는 가상 객체가 현실 객체를 보완하는 형태로 사용되는 반면, MR 기술에서는 가상 객체와 현실 객체가 동등한 성격으로 사용된다는 점에서 차이점이 있다.
XR 기술은 HMD(Head-Mount Display), HUD(Head-Up Display), 휴대폰, 태블릿 PC, 랩탑, 데스크탑, TV, 디지털 사이니지 등에 적용될 수 있고, XR 기술이 적용된 장치를 XR 장치(XR Device)라 칭할 수 있다.
도 24는 본 발명의 일 실시 예에 따른 AI 장치(100)를 나타낸다.
AI 장치에, 전술한 본 발명에 따른 방법들 중 적어도 하나의 방법 및/또는 장치가 적용/포함될 수 있다. AI 장치(100)는 TV, 프로젝터, 휴대폰, 스마트폰, 데스크탑 컴퓨터, 노트북, 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), DMB 수신기, 라디오, 세탁기, 냉장고, 데스크탑 컴퓨터, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다.
도 24를 참조하면, 단말기(100)는 통신부(110), 입력부(120), 러닝 프로세서(130), 센싱부(140), 출력부(150), 메모리(170) 및 프로세서(180) 등을 포함할 수 있다.
통신부(110)는 유무선 통신 기술을 이용하여 다른 AI 장치(100a 내지 100e)나 AI 서버(200) 등의 외부 장치들과 데이터를 송수신할 수 있다. 예컨대, 통신부(110)는 외부 장치들과 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등을 송수신할 수 있다.
이때, 통신부(110)가 이용하는 통신 기술에는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth쪠), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등이 있다.
입력부(120)는 다양한 종류의 데이터를 획득할 수 있다.
이때, 입력부(120)는 영상 신호 입력을 위한 카메라, 오디오 신호를 수신하기 위한 마이크로폰, 사용자로부터 정보를 입력 받기 위한 사용자 입력부 등을 포함할 수 있다. 여기서, 카메라나 마이크로폰을 센서로 취급하여, 카메라나 마이크로폰으로부터 획득한 신호를 센싱 데이터 또는 센서 정보라고 할 수도 있다.
입력부(120)는 모델 학습을 위한 학습 데이터 및 학습 모델을 이용하여 출력을 획득할 때 사용될 입력 데이터 등을 획득할 수 있다. 입력부(120)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 프로세서(180) 또는 러닝 프로세서(130)는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있다.
러닝 프로세서(130)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 여기서, 학습된 인공 신경망을 학습 모델이라 칭할 수 있다. 학습 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.
이때, 러닝 프로세서(130)는 AI 서버(200)의 러닝 프로세서(240)과 함께 AI 프로세싱을 수행할 수 있다.
이때, 러닝 프로세서(130)는 AI 장치(100)에 통합되거나 구현된 메모리를 포함할 수 있다. 또는, 러닝 프로세서(130)는 메모리(170), AI 장치(100)에 직접 결합된 외부 메모리 또는 외부 장치에서 유지되는 메모리를 사용하여 구현될 수도 있다.
센싱부(140)는 다양한 센서들을 이용하여 AI 장치(100) 내부 정보, AI 장치(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 획득할 수 있다.
이때, 센싱부(140)에 포함되는 센서에는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 라이다, 레이더 등이 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다.
이때, 출력부(150)에는 시각 정보를 출력하는 디스플레이부, 청각 정보를 출력하는 스피커, 촉각 정보를 출력하는 햅틱 모듈 등이 포함될 수 있다.
메모리(170)는 AI 장치(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예컨대, 메모리(170)는 입력부(120)에서 획득한 입력 데이터, 학습 데이터, 학습 모델, 학습 히스토리 등을 저장할 수 있다.
프로세서(180)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 장치(100)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 프로세서(180)는 AI 장치(100)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다.
이를 위해, 프로세서(180)는 러닝 프로세서(130) 또는 메모리(170)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 상기 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 장치(100)의 구성 요소들을 제어할 수 있다.
이때, 프로세서(180)는 결정된 동작을 수행하기 위하여 외부 장치의 연계가 필요한 경우, 해당 외부 장치를 제어하기 위한 제어 신호를 생성하고, 생성한 제어 신호를 해당 외부 장치에 전송할 수 있다.
프로세서(180)는 사용자 입력에 대하여 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 사용자의 요구 사항을 결정할 수 있다.
이때, 프로세서(180)는 음성 입력을 문자열로 변환하기 위한 STT(Speech To Text) 엔진 또는 자연어의 의도 정보를 획득하기 위한 자연어 처리(NLP: Natural Language Processing) 엔진 중에서 적어도 하나 이상을 이용하여, 사용자 입력에 상응하는 의도 정보를 획득할 수 있다.
이때, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 적어도 일부가 머신 러닝 알고리즘에 따라 학습된 인공 신경망으로 구성될 수 있다. 그리고, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 러닝 프로세서(130)에 의해 학습된 것이나, AI 서버(200)의 러닝 프로세서(240)에 의해 학습된 것이거나, 또는 이들의 분산 처리에 의해 학습된 것일 수 있다.
프로세서(180)는 AI 장치(100)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리(170) 또는 러닝 프로세서(130)에 저장하거나, AI 서버(200) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.
프로세서(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, AI 장치(100)의 구성 요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(180)는 상기 응용 프로그램의 구동을 위하여, AI 장치(100)에 포함된 구성 요소들 중 둘 이상을 서로 조합하여 동작시킬 수 있다.
도 25는 본 발명의 일 실시 예에 따른 AI 서버(200)를 나타낸다.
도 25를 참조하면, AI 서버(200)는 머신 러닝 알고리즘을 이용하여 인공 신경망을 학습시키거나 학습된 인공 신경망을 이용하는 장치를 의미할 수 있다. 여기서, AI 서버(200)는 복수의 서버들로 구성되어 분산 처리를 수행할 수도 있고, 5G 네트워크로 정의될 수 있다. 이때, AI 서버(200)는 AI 장치(100)의 일부의 구성으로 포함되어, AI 프로세싱 중 적어도 일부를 함께 수행할 수도 있다.
AI 서버(200)는 통신부(210), 메모리(230), 러닝 프로세서(240) 및 프로세서(260) 등을 포함할 수 있다.
통신부(210)는 AI 장치(100) 등의 외부 장치와 데이터를 송수신할 수 있다.
메모리(230)는 모델 저장부(231)를 포함할 수 있다. 모델 저장부(231)는 러닝 프로세서(240)을 통하여 학습 중인 또는 학습된 모델(또는 인공 신경망, 231a)을 저장할 수 있다.
러닝 프로세서(240)는 학습 데이터를 이용하여 인공 신경망(231a)을 학습시킬 수 있다. 학습 모델은 인공 신경망의 AI 서버(200)에 탑재된 상태에서 이용되거나, AI 장치(100) 등의 외부 장치에 탑재되어 이용될 수도 있다.
학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다. 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어(instruction)는 메모리(230)에 저장될 수 있다.
프로세서(260)는 학습 모델을 이용하여 새로운 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수 있다.
도 26은 본 개시에 적용될 수 있는 통신 시스템(1)을 예시한다.
도 26을 참조하면, 본 개시에 적용되는 통신 시스템(1)은 무선 기기, 기지국 및 네트워크를 포함한다. 여기서, 무선 기기는 무선 접속 기술(예, 5G NR(New RAT), LTE(Long Term Evolution))을 이용하여 통신을 수행하는 기기를 의미하며, 통신/무선/5G 기기로 지칭될 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(100a), 차량(100b-1, 100b-2), XR(eXtended Reality) 기기(100c), 휴대 기기(Hand-held device)(100d), 가전(100e), IoT(Internet of Thing) 기기(100f), AI기기/서버(400)를 포함할 수 있다. 예를 들어, 차량은 무선 통신 기능이 구비된 차량, 자율 주행 차량, 차량간 통신을 수행할 수 있는 차량 등을 포함할 수 있다. 여기서, 차량은 UAV(Unmanned Aerial Vehicle)(예, 드론)를 포함할 수 있다. XR 기기는 AR(Augmented Reality)/VR(Virtual Reality)/MR(Mixed Reality) 기기를 포함하며, HMD(Head-Mounted Device), 차량에 구비된 HUD(Head-Up Display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등의 형태로 구현될 수 있다. 휴대 기기는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 컴퓨터(예, 노트북 등) 등을 포함할 수 있다. 가전은 TV, 냉장고, 세탁기 등을 포함할 수 있다. IoT 기기는 센서, 스마트미터 등을 포함할 수 있다. 예를 들어, 기지국, 네트워크는 무선 기기로도 구현될 수 있으며, 특정 무선 기기(200a)는 다른 무선 기기에게 기지국/네트워크 노드로 동작할 수도 있다.
무선 기기(100a~100f)는 기지국(200)을 통해 네트워크(300)와 연결될 수 있다. 무선 기기(100a~100f)에는 AI(Artificial Intelligence) 기술이 적용될 수 있으며, 무선 기기(100a~100f)는 네트워크(300)를 통해 AI 서버(400)와 연결될 수 있다. 네트워크(300)는 3G 네트워크, 4G(예, LTE) 네트워크 또는 5G(예, NR) 네트워크 등을 이용하여 구성될 수 있다. 무선 기기(100a~100f)는 기지국(200)/네트워크(300)를 통해 서로 통신할 수도 있지만, 기지국/네트워크를 통하지 않고 직접 통신(e.g. 사이드링크 통신(sidelink communication))할 수도 있다. 예를 들어, 차량들(100b-1, 100b-2)은 직접 통신(e.g. V2V(Vehicle to Vehicle)/V2X(Vehicle to everything) communication)을 할 수 있다. 또한, IoT 기기(예, 센서)는 다른 IoT 기기(예, 센서) 또는 다른 무선 기기(100a~100f)와 직접 통신을 할 수 있다.
무선 기기(100a~100f)/기지국(200), 기지국(200)/기지국(200) 간에는 무선 통신/연결(150a, 150b, 150c)이 이뤄질 수 있다. 여기서, 무선 통신/연결은 상향/하향링크 통신(150a)과 사이드링크 통신(150b)(또는, D2D 통신), 기지국간 통신(150c)(e.g. relay, IAB(Integrated Access Backhaul)과 같은 다양한 무선 접속 기술(예, 5G NR)을 통해 이뤄질 수 있다. 무선 통신/연결(150a, 150b, 150c)을 통해 무선 기기와 기지국/무선 기기, 기지국과 기지국은 서로 무선 신호를 송신/수신할 수 있다. 예를 들어, 무선 통신/연결(150a, 150b, 150c)은 다양한 물리 채널을 통해 신호를 송신/수신할 수 있다. 이를 위해, 본 개시의 다양한 제안들에 기반하여, 무선 신호의 송신/수신을 위한 다양한 구성정보 설정 과정, 다양한 신호 처리 과정(예, 채널 인코딩/디코딩, 변조/복조, 자원 매핑/디매핑 등), 자원 할당 과정 등 중 적어도 일부가 수행될 수 있다.
<AI+로봇>
로봇(100a)은 AI 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.
로봇(100a)은 동작을 제어하기 위한 로봇 제어 모듈을 포함할 수 있고, 로봇 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다.
로봇(100a)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 로봇(100a)의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 사용자 상호작용에 대한 응답을 결정하거나, 동작을 결정할 수 있다.
여기서, 로봇(100a)은 이동 경로 및 주행 계획을 결정하기 위하여, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.
로봇(100a)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 로봇(100a)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 동작을 결정할 수 있다. 여기서, 학습 모델은 로봇(100a)에서 직접 학습되거나, AI 서버(200) 등의 외부 장치에서 학습된 것일 수 있다.
이때, 로봇(100a)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(200) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
로봇(100a)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 로봇(100a)을 주행시킬 수 있다.
맵 데이터에는 로봇(100a)이 이동하는 공간에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 벽, 문 등의 고정 객체들과 화분, 책상 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.
또한, 로봇(100a)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이때, 로봇(100a)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.
<AI+자율주행>
자율 주행 차량(100b-1, 100b-2)은 AI 기술이 적용되어, 이동형 로봇, 차량, 무인 비행체 등으로 구현될 수 있다.
자율 주행 차량(100b-1, 100b-2)은 자율 주행 기능을 제어하기 위한 자율 주행 제어 모듈을 포함할 수 있고, 자율 주행 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다. 자율 주행 제어 모듈은 자율 주행 차량(100b-1, 100b-2)의 구성으로써 내부에 포함될 수도 있지만, 자율 주행 차량(100b-1, 100b-2)의 외부에 별도의 하드웨어로 구성되어 연결될 수도 있다.
자율 주행 차량(100b-1, 100b-2)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 자율 주행 차량(100b-1, 100b-2)의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 동작을 결정할 수 있다.
여기서, 자율 주행 차량(100b-1, 100b-2)은 이동 경로 및 주행 계획을 결정하기 위하여, 로봇(100a)과 마찬가지로, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.
특히, 자율 주행 차량(100b-1, 100b-2)은 시야가 가려지는 영역이나 일정 거리 이상의 영역에 대한 환경이나 객체는 외부 장치들로부터 센서 정보를 수신하여 인식하거나, 외부 장치들로부터 직접 인식된 정보를 수신할 수 있다.
자율 주행 차량(100b-1, 100b-2)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 자율 주행 차량(100b-1, 100b-2)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 주행 동선을 결정할 수 있다. 여기서, 학습 모델은 자율 주행 차량(100b-1, 100b-2)에서 직접 학습되거나, AI 서버(200) 등의 외부 장치에서 학습된 것일 수 있다.
이때, 자율 주행 차량(100b-1, 100b-2)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(200) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
자율 주행 차량(100b-1, 100b-2)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 자율 주행 차량(100b-1, 100b-2)을 주행시킬 수 있다.
맵 데이터에는 자율 주행 차량(100b-1, 100b-2)이 주행하는 공간(예컨대, 도로)에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 가로등, 바위, 건물 등의 고정 객체들과 차량, 보행자 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.
또한, 자율 주행 차량(100b-1, 100b-2)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이때, 자율 주행 차량(100b-1, 100b-2)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.
<AI+XR>
XR 장치(100c)는 AI 기술이 적용되어, HMD(Head-Mount Display), 차량에 구비된 HUD(Head-Up Display), 텔레비전, 휴대폰, 스마트 폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지, 차량, 고정형 로봇이나 이동형 로봇 등으로 구현될 수 있다.
XR 장치(100c)는 다양한 센서들을 통해 또는 외부 장치로부터 획득한 3차원 포인트 클라우드 데이터 또는 이미지 데이터를 분석하여 3차원 포인트들에 대한 위치 데이터 및 속성 데이터를 생성함으로써 주변 공간 또는 현실 객체에 대한 정보를 획득하고, 출력할 XR 객체를 렌더링하여 출력할 수 있다. 예컨대, XR 장치(100c)는 인식된 물체에 대한 추가 정보를 포함하는 XR 객체를 해당 인식된 물체에 대응시켜 출력할 수 있다.
XR 장치(100c)는 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, XR 장치(100c)는 학습 모델을 이용하여 3차원 포인트 클라우드 데이터 또는 이미지 데이터에서 현실 객체를 인식할 수 있고, 인식한 현실 객체에 상응하는 정보를 제공할 수 있다. 여기서, 학습 모델은 XR 장치(100c)에서 직접 학습되거나, AI 서버(200) 등의 외부 장치에서 학습된 것일 수 있다.
이때, XR 장치(100c)는 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(200) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
<AI+로봇+자율주행>
로봇(100a)은 AI 기술 및 자율 주행 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.
AI 기술과 자율 주행 기술이 적용된 로봇(100a)은 자율 주행 기능을 가진 로봇 자체나, 자율 주행 차량(100b-1, 100b-2)과 상호작용하는 로봇(100a) 등을 의미할 수 있다.
자율 주행 기능을 가진 로봇(100a)은 사용자의 제어 없이도 주어진 동선에 따라 스스로 움직이거나, 동선을 스스로 결정하여 움직이는 장치들을 통칭할 수 있다.
자율 주행 기능을 가진 로봇(100a) 및 자율 주행 차량(100b-1, 100b-2)은 이동 경로 또는 주행 계획 중 하나 이상을 결정하기 위해 공통적인 센싱 방법을 사용할 수 있다. 예를 들어, 자율 주행 기능을 가진 로봇(100a) 및 자율 주행 차량(100b-1, 100b-2)은 라이다, 레이더, 카메라를 통해 센싱된 정보를 이용하여, 이동 경로 또는 주행 계획 중 하나 이상을 결정할 수 있다.
자율 주행 차량(100b-1, 100b-2)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b-1, 100b-2)과 별개로 존재하면서, 자율 주행 차량(100b-1, 100b-2)의 내부 또는 외부에서 자율 주행 기능에 연계되거나, 자율 주행 차량(100b-1, 100b-2)에 탑승한 사용자와 연계된 동작을 수행할 수 있다.
이때, 자율 주행 차량(100b-1, 100b-2)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b-1, 100b-2)을 대신하여 센서 정보를 획득하여 자율 주행 차량(100b-1, 100b-2)에 제공하거나, 센서 정보를 획득하고 주변 환경 정보 또는 객체 정보를 생성하여 자율 주행 차량(100b-1, 100b-2)에 제공함으로써, 자율 주행 차량(100b-1, 100b-2)의 자율 주행 기능을 제어하거나 보조할 수 있다.
또는, 자율 주행 차량(100b-1, 100b-2)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b-1, 100b-2)에 탑승한 사용자를 모니터링하거나 사용자와의 상호작용을 통해 자율 주행 차량(100b-1, 100b-2)의 기능을 제어할 수 있다. 예컨대, 로봇(100a)은 운전자가 졸음 상태인 경우로 판단되는 경우, 자율 주행 차량(100b-1, 100b-2)의 자율 주행 기능을 활성화하거나 자율 주행 차량(100b-1, 100b-2)의 구동부의 제어를 보조할 수 있다. 여기서, 로봇(100a)이 제어하는 자율 주행 차량(100b-1, 100b-2)의 기능에는 단순히 자율 주행 기능뿐만 아니라, 자율 주행 차량(100b-1, 100b-2)의 내부에 구비된 네비게이션 시스템이나 오디오 시스템에서 제공하는 기능도 포함될 수 있다.
또는, 자율 주행 차량(100b-1, 100b-2)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b-1, 100b-2)의 외부에서 자율 주행 차량(100b-1, 100b-2)에 정보를 제공하거나 기능을 보조할 수 있다. 예컨대, 로봇(100a)은 스마트 신호등과 같이 자율 주행 차량(100b-1, 100b-2)에 신호 정보 등을 포함하는 교통 정보를 제공할 수도 있고, 전기 차량의 자동 전기 충전기와 같이 자율 주행 차량(100b-1, 100b-2)과 상호작용하여 충전구에 전기 충전기를 자동으로 연결할 수도 있다.
<AI+로봇+XR>
로봇(100a)은 AI 기술 및 XR 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇, 드론 등으로 구현될 수 있다.
XR 기술이 적용된 로봇(100a)은 XR 영상 내에서의 제어/상호작용의 대상이 되는 로봇을 의미할 수 있다. 이 경우, 로봇(100a)은 XR 장치(100c)와 구분되며 서로 연동될 수 있다.
XR 영상 내에서의 제어/상호작용의 대상이 되는 로봇(100a)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하면, 로봇(100a) 또는 XR 장치(100c)는 센서 정보에 기초한 XR 영상을 생성하고, XR 장치(100c)는 생성된 XR 영상을 출력할 수 있다. 그리고, 이러한 로봇(100a)은 XR 장치(100c)를 통해 입력되는 제어 신호 또는 사용자의 상호작용에 기초하여 동작할 수 있다.
예컨대, 사용자는 XR 장치(100c) 등의 외부 장치를 통해 원격으로 연동된 로봇(100a)의 시점에 상응하는 XR 영상을 확인할 수 있고, 상호작용을 통하여 로봇(100a)의 자율 주행 경로를 조정하거나, 동작 또는 주행을 제어하거나, 주변 객체의 정보를 확인할 수 있다.
<AI+자율주행+XR>
자율 주행 차량(100b-1, 100b-2)은 AI 기술 및 XR 기술이 적용되어, 이동형 로봇, 차량, 무인 비행체 등으로 구현될 수 있다.
XR 기술이 적용된 자율 주행 차량(100b-1, 100b-2)은 XR 영상을 제공하는 수단을 구비한 자율 주행 차량이나, XR 영상 내에서의 제어/상호작용의 대상이 되는 자율 주행 차량 등을 의미할 수 있다. 특히, XR 영상 내에서의 제어/상호작용의 대상이 되는 자율 주행 차량(100b-1, 100b-2)은 XR 장치(100c)와 구분되며 서로 연동될 수 있다.
XR 영상을 제공하는 수단을 구비한 자율 주행 차량(100b-1, 100b-2)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하고, 획득한 센서 정보에 기초하여 생성된 XR 영상을 출력할 수 있다. 예컨대, 자율 주행 차량(100b-1, 100b-2)은 HUD를 구비하여 XR 영상을 출력함으로써, 탑승자에게 현실 객체 또는 화면 속의 객체에 대응되는 XR 객체를 제공할 수 있다.
이때, XR 객체가 HUD에 출력되는 경우에는 XR 객체의 적어도 일부가 탑승자의 시선이 향하는 실제 객체에 오버랩되도록 출력될 수 있다. 반면, XR 객체가 자율 주행 차량(100b-1, 100b-2)의 내부에 구비되는 디스플레이에 출력되는 경우에는 XR 객체의 적어도 일부가 화면 속의 객체에 오버랩되도록 출력될 수 있다. 예컨대, 자율 주행 차량(100b-1, 100b-2)은 차로, 타 차량, 신호등, 교통 표지판, 이륜차, 보행자, 건물 등과 같은 객체와 대응되는 XR 객체들을 출력할 수 있다.
XR 영상 내에서의 제어/상호작용의 대상이 되는 자율 주행 차량(100b-1, 100b-2)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하면, 자율 주행 차량(100b-1, 100b-2) 또는 XR 장치(100c)는 센서 정보에 기초한 XR 영상을 생성하고, XR 장치(100c)는 생성된 XR 영상을 출력할 수 있다. 그리고, 이러한 자율 주행 차량(100b-1, 100b-2)은 XR 장치(100c) 등의 외부 장치를 통해 입력되는 제어 신호 또는 사용자의 상호작용에 기초하여 동작할 수 있다.
본 명세서에 기재된 청구항들은 다양한 방식으로 조합될 수 있다. 예를 들어, 본 명세서의 방법 청구항의 기술적 특징이 조합되어 장치로 구현될 수 있고, 본 명세서의 장치 청구항의 기술적 특징이 조합되어 방법으로 구현될 수 있다. 또한, 본 명세서의 방법 청구항의 기술적 특징과 장치 청구항의 기술적 특징이 조합되어 장치로 구현될 수 있고, 본 명세서의 방법 청구항의 기술적 특징과 장치 청구항의 기술적 특징이 조합되어 방법으로 구현될 수 있다.

Claims (15)

  1. 프라이머리 셀 및 세컨더리 셀을 설정 받은 단말의 동작 방법에 있어서,
    상기 단말이 상기 세컨더리 셀에 대해 휴면 상태(dormant state)인 경우 적용하는 제2 설정 정보를 수신하고, 및
    상기 제2 설정 정보에 기반하여 채널 상태 정보 측정 및 보고를 수행하되,
    상기 제2 설정 정보는 상기 단말이 상기 세컨더리 셀에 대해 활성화 상태(activated state)일 때 적용하는 제1 설정 정보와 독립적으로 제공되는 것을 특징으로 하는 방법.
  2. 제 1 항에 있어서, 상기 휴면 상태는 상기 세컨더리 셀에서 제어 채널 모니터링은 수행하지 않고 상기 채널 상태 정보 측정 및 무선 자원 관리(radio resource management: RRM) 측정은 수행하는 상태인 것을 특징으로 하는 방법.
  3. 제 1 항에 있어서, 상기 제2 설정 정보는, 상기 단말이 상기 휴면 상태에서 측정해야 하는 참조 신호에 대한 설정을 포함하는 것을 특징으로 하는 방법.
  4. 제 1 항에 있어서, 상기 제2 설정 정보는 RRC(radio resource control) 신호를 통해 수신되거나, 상기 휴면 상태로의 상태 변환을 명령하는 MAC(media access control) 제어 요소(control element: CE)를 통해 수신되는 것을 특징으로 하는 방법.
  5. 제 1 항에 있어서, 상기 단말은 상기 활성화 상태에서 타이머가 만료되면 상기 휴면 상태로 상태 변환하는 것을 특징으로 하는 방법.
  6. 제 5 항에 있어서, 상기 활성화 상태에서 설정된 채널 상태 정보 측정을 위한 설정들 중 적어도 하나에 기반하여, 상기 휴면 상태에서의 채널 상태 정보 측정을 수행하는 것을 특징으로 하는 방법.
  7. 제 1 항에 있어서, 상기 단말이 상기 세컨더리 셀에 대해 상기 휴면 상태로 상태 변환되는 경우, 특정 대역폭 부분(bandwidth part: BWP)으로 스위칭을 수행하는 것을 특징으로 하는 방법.
  8. 제 7 항에 있어서, 상기 특정 BWP에서는, SSB(synchronization signal/PBCH block)의 복조 참조 신호 또는 동기화 신호를 이용하여 채널 상태 정보 측정을 수행하는 것을 특징으로 하는 방법.
  9. 제 7 항에 있어서, 상기 특정 BWP는 대역폭(bandwidth: BW)이 0(zero)이거나, 코어셋(CORESET) 및 검색 공간 집합(search space set: SS set)이 없는 BWP인 것을 특징으로 하는 방법.
  10. 제 1 항에 있어서, 특정 대역폭 부분(bandwidth part: BWP)으로의 스위칭이 지시되면, 상기 단말은 상기 세컨더리 셀에 대해 상기 휴면 상태로 상태 변환되는 것으로 간주하는 것을 특징으로 하는 방법.
  11. 제 10 항에 있어서, 상기 특정 BWP는 대역폭(bandwidth: BW)이 0(zero)이거나, 코어셋(CORESET) 및 검색 공간 집합(search space set: SS set)이 없는 BWP인 것을 특징으로 하는 방법.
  12. 단말(User Equipment; UE)은,
    무선 신호를 송신 및 수신하는 송수신기(Transceiver); 및
    상기 송수신기와 결합하여 동작하는 프로세서;를 포함하되, 상기 프로세서는,
    상기 단말이 상기 세컨더리 셀에 대해 휴면 상태(dormant state)인 경우 적용하는 제2 설정 정보를 수신하고, 상기 제2 설정 정보에 기반하여 채널 상태 정보 측정 및 보고를 수행하되,
    상기 제2 설정 정보는 상기 단말이 상기 세컨더리 셀에 대해 활성화 상태(activated state)일 때 적용하는 제1 설정 정보와 독립적으로 제공되는 것을 특징으로 하는 단말.
  13. 제 12 항에 있어서, 상기 휴면 상태는 상기 세컨더리 셀에서 제어 채널 모니터링은 수행하지 않고 상기 채널 상태 정보 측정 및 무선 자원 관리(radio resource management: RRM) 측정은 수행하는 상태인 것을 특징으로 하는 단말.
  14. 무선통신 시스템에서 무선 통신 장치를 위한 프로세서는,
    상기 무선 통신 장치를 제어하여,
    상기 무선 통신 장치가 세컨더리 셀에 대해 휴면 상태(dormant state)인 경우 적용하는 제2 설정 정보를 수신하고, 상기 제2 설정 정보에 기반하여 채널 상태 정보 측정 및 보고를 수행하되,
    상기 제2 설정 정보는 상기 단말이 상기 세컨더리 셀에 대해 활성화 상태(activated state)일 때 적용하는 제1 설정 정보와 독립적으로 제공되는 것을 특징으로 하는 프로세서.
  15. 제 14 항에 있어서, 상기 휴면 상태는 상기 세컨더리 셀에서 제어 채널 모니터링은 수행하지 않고 상기 채널 상태 정보 측정 및 무선 자원 관리(radio resource management: RRM) 측정은 수행하는 상태인 것을 특징으로 하는 프로세서.
PCT/KR2019/012651 2018-09-28 2019-09-27 반송파 집성 시스템에서 단말의 동작 방법 및 상기 방법을 이용하는 장치 WO2020067806A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20180116322 2018-09-28
KR10-2018-0116322 2018-09-28

Publications (1)

Publication Number Publication Date
WO2020067806A1 true WO2020067806A1 (ko) 2020-04-02

Family

ID=69950697

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/012651 WO2020067806A1 (ko) 2018-09-28 2019-09-27 반송파 집성 시스템에서 단말의 동작 방법 및 상기 방법을 이용하는 장치

Country Status (1)

Country Link
WO (1) WO2020067806A1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114079951A (zh) * 2020-08-20 2022-02-22 上海朗帛通信技术有限公司 一种被用于无线通信的通信节点中的方法和装置
WO2022071848A1 (en) * 2020-09-29 2022-04-07 Telefonaktiebolaget Lm Ericsson (Publ) Beam failure detection and recovery for deactivated secondary cell group (scg)
EP4132176A1 (en) * 2021-08-04 2023-02-08 Apple Inc. Scheduling of control signaling on a primary cell by a secondary cell
CN115706637A (zh) * 2021-08-06 2023-02-17 大唐移动通信设备有限公司 一种信息指示的方法、终端及存储介质
CN115885579A (zh) * 2020-07-06 2023-03-31 株式会社Ntt都科摩 终端、基站以及通信方法
CN116097769A (zh) * 2020-08-13 2023-05-09 华为技术有限公司 天线面板管理方法、装置及系统
US12058701B2 (en) 2021-08-04 2024-08-06 Apple Inc. Scheduling of control signaling on a primary cell by a secondary cell

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120081549A (ko) * 2011-01-11 2012-07-19 삼성전자주식회사 반송파 집적 기술을 사용하는 무선통신시스템에서 부차반송파의 활성화 및 비활성화 방법 및 장치
KR20160111408A (ko) * 2014-01-17 2016-09-26 퀄컴 인코포레이티드 셀 온-오프 절차를 위한 셀 모드 및 csi 피드백 규칙들의 표시
US20180049186A1 (en) * 2015-03-09 2018-02-15 Kt Corporation Method for transmitting channel state information and device therefor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120081549A (ko) * 2011-01-11 2012-07-19 삼성전자주식회사 반송파 집적 기술을 사용하는 무선통신시스템에서 부차반송파의 활성화 및 비활성화 방법 및 장치
KR20160111408A (ko) * 2014-01-17 2016-09-26 퀄컴 인코포레이티드 셀 온-오프 절차를 위한 셀 모드 및 csi 피드백 규칙들의 표시
US20180049186A1 (en) * 2015-03-09 2018-02-15 Kt Corporation Method for transmitting channel state information and device therefor

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
INTERDIGITAL, INC.: "SCell activation/deactivation in NR", R1-1720557. 3GPP TSG RAN WG1 MEETING 91, 17 November 2017 (2017-11-17), Reno, USA, XP051369250 *
QUALCOMM INCORPORATED: "Views on UE power saving", RL-1809462. 3GPP T SG RAN WG1 MEETING #94, 17 August 2018 (2018-08-17), Gothenburg, Sweden, XP051516827 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115885579A (zh) * 2020-07-06 2023-03-31 株式会社Ntt都科摩 终端、基站以及通信方法
CN116097769A (zh) * 2020-08-13 2023-05-09 华为技术有限公司 天线面板管理方法、装置及系统
CN114079951A (zh) * 2020-08-20 2022-02-22 上海朗帛通信技术有限公司 一种被用于无线通信的通信节点中的方法和装置
CN114079951B (zh) * 2020-08-20 2024-03-01 上海朗帛通信技术有限公司 一种被用于无线通信的通信节点中的方法和装置
WO2022071848A1 (en) * 2020-09-29 2022-04-07 Telefonaktiebolaget Lm Ericsson (Publ) Beam failure detection and recovery for deactivated secondary cell group (scg)
EP4132176A1 (en) * 2021-08-04 2023-02-08 Apple Inc. Scheduling of control signaling on a primary cell by a secondary cell
US12058701B2 (en) 2021-08-04 2024-08-06 Apple Inc. Scheduling of control signaling on a primary cell by a secondary cell
CN115706637A (zh) * 2021-08-06 2023-02-17 大唐移动通信设备有限公司 一种信息指示的方法、终端及存储介质

Similar Documents

Publication Publication Date Title
WO2020032527A1 (ko) 무선 통신 시스템의 코어셋에서 신호를 수신하는 방법 및 상기 방법을 이용하는 장치
WO2019221553A1 (ko) 무선 통신 시스템에서 단말의 전송 설정 지시자 결정 방법 및 상기 방법을 이용하는 장치
WO2020032693A1 (ko) 무선 통신 시스템에서 스케줄링 정보의 모니터링 방법 및 상기 방법을 이용하는 장치
WO2020027601A1 (ko) 무선 통신 시스템에서 채널 상태 정보를 송수신하는 방법 및 이를 위한 장치
WO2020032776A1 (ko) 무선 통신 시스템에서 물리 하향링크 제어 채널 후보에 대한 블라인드 디코딩을 수행하기 위한 방법 및 이를 위한 장치
WO2020040572A1 (ko) 무선 통신 시스템에서 상향링크 전송을 수행하는 방법 및 이를 위한 장치
WO2020032699A1 (ko) 비면허 대역에서 단말의 상향링크 공유 채널 전송 방법 및 상기 방법을 이용하는 장치
WO2020067806A1 (ko) 반송파 집성 시스템에서 단말의 동작 방법 및 상기 방법을 이용하는 장치
WO2020027473A1 (ko) 무선 통신 시스템에서, 하향링크 데이터 채널을 송수신하는 방법 및 이를 위한 장치
WO2019226016A1 (ko) 무선 통신 시스템에서 노드에 의해 수행되는 감지 방법 및 상기 방법을 이용하는 노드
WO2020032685A1 (ko) 무선 통신 시스템에서 빔 실패 검출을 수행하는 방법 및 이에 대한 장치
WO2020032724A1 (ko) 무선 통신 시스템에서 단말에 의해 수행되는 하향링크 신호 수신 방법 및 상기 방법을 이용하는 단말
WO2020032774A1 (ko) 무선 통신 시스템에서 채널 추정을 수행하기 위한 방법 및 이를 위한 장치
WO2020032690A1 (ko) 비면허 대역에서 단말의 상향링크 제어 정보 전송 방법 및 상기 방법을 이용하는 장치
WO2020162735A1 (ko) 무선 통신 시스템에서 물리 샹항링크 공유 채널을 전송하는 방법 및 이를 위한 장치
WO2020231189A1 (ko) 무선 통신 시스템에서 빔 정보를 보고 하는 방법 및 이를 위한 장치
WO2020231190A1 (ko) 무선 통신 시스템에서 빔 정보를 보고 하는 방법 및 이를 위한 장치
WO2020027503A1 (ko) 무선 통신 시스템에서 채널 상태 정보를 송수신하는 방법 및 이를 위한 장치
WO2021096244A1 (ko) 무선통신시스템에서 사이드링크 drx에 관련된 ue의 동작 방법
WO2020032678A1 (ko) 비면허 대역에서 단말의 데이터 전송 방법 및 상기 방법을 이용하는 장치
WO2020091579A1 (ko) 무선 통신 시스템에서 물리 공유 채널 상에서 데이터를 전송하는 방법 및 이를 위한 장치
WO2020027577A1 (ko) 무선 통신 시스템에서 상향링크 물리 채널을 송수신하는 방법 및 이를 위한 장치
WO2020022748A1 (ko) 채널 상태 정보를 보고하는 방법 및 이를 위한 장치
WO2020017874A1 (ko) 무선 통신 시스템에서 harq-ack 피드백을 수신하는 방법 및 이를 위한 장치
WO2020027636A1 (ko) Nr v2x에서 파워 컨트롤을 수행하는 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19866771

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19866771

Country of ref document: EP

Kind code of ref document: A1