WO2019245234A1 - 무선 통신 시스템에서 위치 결정을 위한 측정 결과 보고 방법 및 그 장치 - Google Patents

무선 통신 시스템에서 위치 결정을 위한 측정 결과 보고 방법 및 그 장치 Download PDF

Info

Publication number
WO2019245234A1
WO2019245234A1 PCT/KR2019/007192 KR2019007192W WO2019245234A1 WO 2019245234 A1 WO2019245234 A1 WO 2019245234A1 KR 2019007192 W KR2019007192 W KR 2019007192W WO 2019245234 A1 WO2019245234 A1 WO 2019245234A1
Authority
WO
WIPO (PCT)
Prior art keywords
base stations
prs
terminal
information
los
Prior art date
Application number
PCT/KR2019/007192
Other languages
English (en)
French (fr)
Inventor
이상림
이웅희
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US17/254,842 priority Critical patent/US11490284B2/en
Publication of WO2019245234A1 publication Critical patent/WO2019245234A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L5/00Arrangements affording multiple use of the transmission path
    • H04L5/003Arrangements for allocating sub-channels of the transmission path
    • H04L5/0048Allocation of pilot signals, i.e. of signals known to the receiver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0205Details
    • G01S5/0218Multipath in signal reception
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/10Position of receiver fixed by co-ordinating a plurality of position lines defined by path-difference measurements, e.g. omega or decca systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/0202Channel estimation
    • H04L25/0224Channel estimation using sounding signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/0202Channel estimation
    • H04L25/024Channel estimation channel estimation algorithms
    • H04L25/0254Channel estimation channel estimation algorithms using neural network algorithms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/10Scheduling measurement reports ; Arrangements for measurement reports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W64/00Locating users or terminals or network equipment for network management purposes, e.g. mobility management
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/0009Transmission of position information to remote stations
    • G01S5/0018Transmission from mobile station to base station
    • G01S5/0036Transmission from mobile station to base station of measured values, i.e. measurement on mobile and position calculation on base station
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0205Details
    • G01S5/0236Assistance data, e.g. base station almanac
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L27/00Modulated-carrier systems
    • H04L27/26Systems using multi-frequency codes
    • H04L27/2601Multicarrier modulation systems
    • H04L27/2602Signal structure
    • H04L27/261Details of reference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L5/00Arrangements affording multiple use of the transmission path
    • H04L5/0001Arrangements for dividing the transmission path
    • H04L5/0026Division using four or more dimensions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L5/00Arrangements affording multiple use of the transmission path
    • H04L5/003Arrangements for allocating sub-channels of the transmission path
    • H04L5/0058Allocation criteria
    • H04L5/0069Allocation based on distance or geographical location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L5/00Arrangements affording multiple use of the transmission path
    • H04L5/14Two-way operation using the same type of signal, i.e. duplex

Definitions

  • the present invention relates to a method and apparatus for reporting a measurement result for position determination in a wireless communication system.
  • Mobile communication systems have been developed to provide voice services while ensuring user activity.
  • the mobile communication system has expanded not only voice but also data service, and the explosive increase in traffic causes shortage of resources and users require faster services. Therefore, a more advanced mobile communication system is required. .
  • an object of the present invention is to calculate a reference signal time difference (RSTD) in consideration of channel characteristics with a base station.
  • RSTD reference signal time difference
  • a method for reporting a measurement result for positioning by a terminal includes line of line characteristics between each base station and the terminal included in a plurality of base stations configured for positioning of the terminal. Determining whether the signal is Sight (LoS), calculating a reference signal time difference (RSTD) by setting one of the base stations having a channel characteristic of the visible line (LoS) as a reference cell; and Reporting the measurement result including the RSTD.
  • LoS Sight
  • RSTD reference signal time difference
  • the channel characteristic is determined using a visible line similarity (LoS-likelihood) calculated based on distance information between the terminal and each base station. Characterized in that determined by the Non-Light of Sight (NLoS).
  • LoS-likelihood a visible line similarity
  • the line-of-view similarity is calculated using a coefficient (Rank) of an EDM (Euclidean Distance Matrix) configured based on the distance information.
  • the terminal selects, as the reference cell, a base station closest to the predetermined value of the visible line similarity (LoS-likelihood) among the base stations having the channel characteristic of the visible line (LoS).
  • the measurement result may include at least one of an identifier (ID) of the reference cell, a visual line similarity of the reference cell, an identifier (ID) of each of the base stations having the channel characteristic of the visible line (LoS), and information on the visual line similarity of each of the corresponding base stations. It is characterized by including one information.
  • the calculating of the RSTD may include transmitting a signal related to a Positioning Reference Signal Request (PRS request) to the plurality of base stations and using the received PRS according to the signal related to the PRS request.
  • the signal relating to the PRS request includes muting information according to the channel characteristic.
  • the signal related to the PRS request includes information on base stations selected from among the plurality of base stations according to the channel characteristics, and the muting information includes information about remaining base stations except for the selected base stations among the plurality of base stations. It is characterized in that the information indicating the muting.
  • the selected base stations may be a preset number of base stations selected from among the plurality of base stations in an order in which values of LoS-likelihood are close to a preset value.
  • the calculating of the RSTD using the received PRS according to the signal related to the PRS request may include calculating the RSTD using the PRSs of the selected base stations, and the PRSs of the selected base stations are allocated for the PRS of one base station. It is characterized in that mapped to the time-frequency resource region.
  • the calculating of the RSTD using the received PRS according to the signal related to the PRS request may include receiving PRS grouping information from any one of the plurality of base stations and receiving the PRS group information. Receiving PRSs of the selected base stations using the PRS group information, wherein the PRS group information includes information indicating a resource element to which a PRS of each base station included in the selected base stations is mapped. It features.
  • a terminal for reporting a measurement result for positioning includes a transmitter for transmitting a radio signal, a receiver for receiving a radio signal, and a processor for controlling the transmitter and the receiver.
  • the processor may determine whether a channel characteristic between each base station included in a plurality of base stations configured for positioning of the terminal and the terminal is a line of sight (LoS), and the channel characteristic is a visible line (LoS).
  • (C) calculates a reference signal time difference (RSTD) by setting one of the base stations as a reference cell and reports a measurement result including the RSTD.
  • RSTD reference signal time difference
  • the processor configures an EDM (Euclidean Distance Matrix) based on the distance information between the terminal and each base station, calculates a line of similarity (LoS-likelihood) using the EDM, and calculates the line of similarity (LoS-likelihood)
  • EDM Euclidean Distance Matrix
  • the channel characteristic may be determined as a visible line (LoS) or a non-light of Sight (NLoS).
  • the processor transmits a signal related to a Positioning Reference Signal Request (PRS request) to the plurality of base stations, calculates the RSTD using the received PRS according to the signal related to the PRS request, and the PRS request.
  • the signal related to is characterized in that it comprises muting information (muting information) according to the channel characteristics.
  • the signal related to the PRS request includes information on base stations selected from among the plurality of base stations according to the channel characteristics, and the muting information includes information about remaining base stations except for the selected base stations among the plurality of base stations. It is characterized in that the information indicating the muting.
  • an apparatus for reporting a measurement result for position determination includes a memory and a processor connected to the memory, and the processor may include each base station included in a plurality of base stations for position determination of the terminal. It is determined whether the channel characteristic between the terminals is a line of sight (LoS), and any one of the base stations having the channel characteristic of the visible line (LoS) is set as a reference cell and a reference signal time (RSTD) difference) and control to report a measurement result including the RSTD.
  • LoS line of sight
  • RSTD reference signal time
  • the present invention determines whether a channel characteristic between a plurality of base stations and a terminal set for position measurement of a terminal is a line of sight (LoS) or a non-light of sight (NLoS).
  • An RSTD is calculated by selecting a base station having the line characteristic LoS among the base stations as a reference cell. This improves the accuracy of position measurements in the presence of multiple paths.
  • the present invention calculates the RSTD using the Positioning Reference Signal (PRS) of the base stations selected according to the channel characteristics, thereby further improving the accuracy of the position measurement.
  • PRS Positioning Reference Signal
  • the present invention includes the muting information according to the channel characteristics in transmitting the PRS request signal, among the plurality of base stations receive the PRS of the base station having the channel characteristics of the visible line (NLoS) and the PRS of the other base stations to block Can be. Therefore, the gain of the PRS reception can be increased.
  • PRSs of base stations selected according to the channel characteristics are mapped to time-frequency resources allocated for one PRS
  • PRS group information is information indicating a resource element to which the PRSs of each base station are mapped. information). Therefore, the limited resources set for PRS transmission can be used more efficiently.
  • FIG 1 illustrates an AI device 100 according to an embodiment of the present invention.
  • FIG 2 illustrates an AI server 200 according to an embodiment of the present invention.
  • FIG 3 shows an AI system 1 according to an embodiment of the present invention.
  • FIG. 4 is a diagram showing an example of the overall system structure of the NR to which the method proposed in the present specification can be applied.
  • FIG. 5 shows a relationship between an uplink frame and a downlink frame in a wireless communication system to which the method proposed in the present specification can be applied.
  • FIG. 6 shows a structure of a radio frame in a wireless communication system to which the present invention can be applied.
  • FIG. 7 shows an example of a resource grid supported by a wireless communication system to which the method proposed in this specification can be applied.
  • FIG. 8 shows a structure of a downlink subframe in a wireless communication system to which the present invention can be applied.
  • FIG. 9 shows a structure of an uplink subframe in a wireless communication system to which the present invention can be applied.
  • FIG. 10 is a diagram illustrating an OTDOA method for determining a location of a terminal.
  • FIG. 11 is a diagram illustrating a pattern in which a PRS is allocated to a resource element.
  • FIG. 12 is a diagram for describing a procedure of performing OTDOA through LPP.
  • FIG. 13 is a diagram for describing position measurement based on whether channel characteristics are determined in a situation where multiple paths exist.
  • 14 to 18 are diagrams for explaining various embodiments of a pretreatment procedure that can improve the LPP procedure by applying the present invention.
  • 19 is a flowchart illustrating a method of reporting a measurement result for positioning according to an embodiment of the present invention.
  • 20 is a flowchart for describing in detail a step of determining a channel characteristic in a method of reporting a measurement result for positioning according to an embodiment of the present invention.
  • 21 is a flowchart for describing in detail a step of calculating an RSTD in a method of reporting a measurement result for positioning according to an embodiment of the present invention.
  • FIG. 22 illustrates a wireless communication device to which the methods proposed herein can be applied according to another embodiment of the present invention.
  • FIG. 23 is another example of a block diagram of a wireless communication device to which the methods proposed herein may be applied.
  • a base station has a meaning as a terminal node of a network that directly communicates with a terminal.
  • the specific operation described as performed by the base station in this document may be performed by an upper node of the base station in some cases. That is, it is obvious that various operations performed for communication with a terminal in a network composed of a plurality of network nodes including a base station may be performed by the base station or other network nodes other than the base station.
  • the term 'base station (BS)' refers to a fixed station, a Node B, an evolved-NodeB (eNB), a base transceiver system (BTS), an access point (AP), and a general NB (gNB).
  • eNB evolved-NodeB
  • BTS base transceiver system
  • AP access point
  • gNB general NB
  • a 'terminal' may be fixed or mobile, and may include a user equipment (UE), a mobile station (MS), a user terminal (UT), a mobile subscriber station (MSS), a subscriber station (SS), and an AMS ( Advanced Mobile Station (WT), Wireless Terminal (WT), Machine-Type Communication (MTC) Device, Machine-to-Machine (M2M) Device, Device-to-Device (D2D) Device, etc.
  • UE user equipment
  • MS mobile station
  • UT user terminal
  • MSS mobile subscriber station
  • SS subscriber station
  • AMS Advanced Mobile Station
  • WT Wireless Terminal
  • MTC Machine-Type Communication
  • M2M Machine-to-Machine
  • D2D Device-to-Device
  • downlink means communication from a base station to a terminal
  • uplink means communication from a terminal to a base station.
  • a transmitter may be part of a base station, and a receiver may be part of a terminal.
  • a transmitter may be part of a terminal and a receiver may be part of a base station.
  • CDMA code division multiple access
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • OFDMA orthogonal frequency division multiple access
  • SC-FDMA single carrier frequency division multiple access
  • GSM global system for mobile communications
  • GPRS general packet radio service
  • EDGE enhanced data rates for GSM evolution
  • OFDMA may be implemented in a wireless technology such as IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802-20, evolved UTRA (E-UTRA).
  • UTRA is part of a universal mobile telecommunications system (UMTS).
  • 3rd generation partnership project (3GPP) long term evolution (LTE) is a part of evolved UMTS (E-UMTS) using E-UTRA, and employs OFDMA in downlink and SC-FDMA in uplink.
  • LTE-A (advanced) is the evolution of 3GPP LTE.
  • Embodiments of the present invention may be supported by standard documents disclosed in at least one of IEEE 802, 3GPP, and 3GPP2, which are wireless access systems. That is, steps or parts which are not described to clearly reveal the technical spirit of the present invention among the embodiments of the present invention may be supported by the above documents. In addition, all terms disclosed in the present document can be described by the above standard document.
  • the three main requirements areas of 5G are: (1) Enhanced Mobile Broadband (eMBB) area, (2) massive Machine Type Communication (mMTC) area, and (3) ultra-reliability and It includes the area of Ultra-reliable and Low Latency Communications (URLLC).
  • eMBB Enhanced Mobile Broadband
  • mMTC massive Machine Type Communication
  • URLLC Ultra-reliable and Low Latency Communications
  • KPI key performance indicator
  • eMBB goes far beyond basic mobile Internet access and covers media and entertainment applications in rich interactive work, cloud or augmented reality.
  • Data is one of the key drivers of 5G and may not see dedicated voice services for the first time in the 5G era.
  • voice is expected to be treated as an application simply using the data connection provided by the communication system.
  • the main reasons for the increased traffic volume are the increase in content size and the increase in the number of applications requiring high data rates.
  • Streaming services (audio and video), interactive video, and mobile Internet connections will become more popular as more devices connect to the Internet. Many of these applications require always-on connectivity to push real-time information and notifications to the user.
  • Cloud storage and applications are growing rapidly in mobile communication platforms, which can be applied to both work and entertainment.
  • cloud storage is a special use case that drives the growth of uplink data rates.
  • 5G is also used for remote tasks in the cloud and requires much lower end-to-end delays to maintain a good user experience when tactile interfaces are used.
  • Entertainment For example, cloud gaming and video streaming are another key factor in increasing the need for mobile broadband capabilities. Entertainment is essential in smartphones and tablets anywhere, including in high mobility environments such as trains, cars and airplanes.
  • Another use case is augmented reality and information retrieval for entertainment.
  • augmented reality requires very low latency and instantaneous amount of data.
  • one of the most anticipated 5G use cases relates to the ability to seamlessly connect embedded sensors in all applications, namely mMTC.
  • potential IoT devices are expected to reach 20 billion.
  • Industrial IoT is one of the areas where 5G plays a major role in enabling smart cities, asset tracking, smart utilities, agriculture and security infrastructure.
  • URLLC includes new services that will change the industry through ultra-reliable / low-latency links available, such as remote control of key infrastructure and self-driving vehicles.
  • the level of reliability and latency is essential for smart grid control, industrial automation, robotics, drone control and coordination.
  • 5G can complement fiber-to-the-home (FTTH) and cable-based broadband (or DOCSIS) as a means of providing streams that are rated at hundreds of megabits per second to gigabits per second. This high speed is required to deliver TVs in 4K and above (6K, 8K and above) resolutions as well as virtual and augmented reality.
  • Virtual Reality (AVR) and Augmented Reality (AR) applications include nearly immersive sporting events. Certain applications may require special network settings. For example, for VR games, game companies may need to integrate core servers with network operator's edge network servers to minimize latency.
  • Automotive is expected to be an important new driver for 5G, with many examples for mobile communications to vehicles. For example, entertainment for passengers requires simultaneous high capacity and high mobility mobile broadband. This is because future users continue to expect high quality connections regardless of their location and speed.
  • Another use case in the automotive field is augmented reality dashboards. It identifies objects in the dark above what the driver sees through the front window and overlays information that tells the driver about the distance and movement of the object.
  • wireless modules enable communication between vehicles, the exchange of information between the vehicle and the supporting infrastructure, and the exchange of information between the vehicle and other connected devices (eg, devices carried by pedestrians).
  • Safety systems guide alternative courses of action to help drivers drive safer, reducing the risk of an accident.
  • the next step will be a remotely controlled or self-driven vehicle.
  • Smart cities and smart homes will be embedded in high-density wireless sensor networks.
  • the distributed network of intelligent sensors will identify the conditions for cost and energy-efficient maintenance of the city or home. Similar settings can be made for each hypothesis.
  • Temperature sensors, window and heating controllers, burglar alarms and appliances are all connected wirelessly. Many of these sensors are typically low data rates, low power and low cost. However, for example, real-time HD video may be required in certain types of devices for surveillance.
  • Smart grids interconnect these sensors using digital information and communication technologies to gather information and act accordingly. This information can include the behavior of suppliers and consumers, allowing smart grids to improve the distribution of fuels such as electricity in efficiency, reliability, economics, sustainability of production, and in an automated manner. Smart Grid can be viewed as another sensor network with low latency.
  • the health sector has many applications that can benefit from mobile communications.
  • the communication system may support telemedicine that provides clinical care from a distance. This can help reduce barriers to distance and improve access to healthcare services that are not consistently available in remote rural areas. It is also used to save lives in critical care and emergencies.
  • a mobile communication based wireless sensor network can provide remote monitoring and sensors for parameters such as heart rate and blood pressure.
  • Wireless and mobile communications are becoming increasingly important in industrial applications. Wiring is expensive to install and maintain. Thus, the possibility of replacing the cables with reconfigurable wireless links is an attractive opportunity in many industries. However, achieving this requires that the wireless connection operates with similar cable delay, reliability, and capacity, and that management is simplified. Low latency and very low error probability are new requirements that need to be connected in 5G.
  • Logistics and freight tracking are important use cases for mobile communications that enable the tracking of inventory and packages from anywhere using a location-based information system.
  • the use of logistics and freight tracking typically requires low data rates but requires wide range and reliable location information.
  • Machine learning refers to the field of researching methodologies that define and solve various problems in the field of artificial intelligence. do.
  • Machine learning is defined as an algorithm that improves the performance of a task through a consistent experience with a task.
  • ANN Artificial Neural Network
  • the artificial neural network may be defined by a connection pattern between neurons of different layers, a learning process of updating model parameters, and an activation function generating an output value.
  • the artificial neural network may include an input layer, an output layer, and optionally one or more hidden layers. Each layer includes one or more neurons, and the artificial neural network may include synapses that connect neurons to neurons. In an artificial neural network, each neuron may output a function value of an active function for input signals, weights, and deflections input through a synapse.
  • the model parameter refers to a parameter determined through learning and includes weights of synaptic connections and deflection of neurons.
  • the hyperparameter means a parameter to be set before learning in the machine learning algorithm, and includes a learning rate, the number of iterations, a mini batch size, and an initialization function.
  • the purpose of learning artificial neural networks can be seen as determining model parameters that minimize the loss function.
  • the loss function can be used as an index for determining optimal model parameters in the learning process of artificial neural networks.
  • Machine learning can be categorized into supervised learning, unsupervised learning, and reinforcement learning.
  • Supervised learning refers to a method of learning artificial neural networks with a given label for training data, and a label indicates a correct answer (or result value) that the artificial neural network should infer when the training data is input to the artificial neural network.
  • Unsupervised learning may refer to a method of training artificial neural networks in a state where a label for training data is not given.
  • Reinforcement learning can mean a learning method that allows an agent defined in an environment to learn to choose an action or sequence of actions that maximizes cumulative reward in each state.
  • Machine learning which is implemented as a deep neural network (DNN) including a plurality of hidden layers among artificial neural networks, is called deep learning (Deep Learning), which is part of machine learning.
  • DNN deep neural network
  • Deep Learning Deep Learning
  • machine learning is used to mean deep learning.
  • a robot can mean a machine that automatically handles or operates a given task by its own ability.
  • a robot having a function of recognizing the environment, judging itself, and performing an operation may be referred to as an intelligent robot.
  • Robots can be classified into industrial, medical, household, military, etc. according to the purpose or field of use.
  • the robot may include a driving unit including an actuator or a motor to perform various physical operations such as moving a robot joint.
  • the movable robot includes a wheel, a brake, a propeller, and the like in the driving unit, and can travel on the ground or fly in the air through the driving unit.
  • Autonomous driving means a technology that drives by itself
  • autonomous vehicle means a vehicle that runs without a user's manipulation or with minimal manipulation of a user.
  • the technology of maintaining a driving lane the technology of automatically adjusting speed such as adaptive cruise control, the technology of automatically driving along a predetermined route, the technology of automatically setting a route when a destination is set, etc. All of these may be included.
  • the vehicle includes a vehicle having only an internal combustion engine, a hybrid vehicle having an internal combustion engine and an electric motor together, and an electric vehicle having only an electric motor, and may include not only automobiles but also trains and motorcycles.
  • the autonomous vehicle may be viewed as a robot having an autonomous driving function.
  • Extended reality collectively refers to Virtual Reality (VR), Augmented Reality (AR), and Mixed Reality (MR).
  • VR technology provides real world objects or backgrounds only in CG images
  • AR technology provides virtual CG images on real objects images
  • MR technology mixes and combines virtual objects in the real world.
  • Graphic technology
  • MR technology is similar to AR technology in that it shows both real and virtual objects.
  • the virtual object is used as a complementary form to the real object, whereas in the MR technology, the virtual object and the real object are used in the same nature.
  • HMD Head-Mount Display
  • HUD Head-Up Display
  • mobile phone tablet PC, laptop, desktop, TV, digital signage, etc. It can be called.
  • FIG 1 illustrates an AI device 100 according to an embodiment of the present invention.
  • the AI device 100 is a TV, a projector, a mobile phone, a smartphone, a desktop computer, a notebook, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device, a tablet PC, a wearable device, and a set-top box (STB). ), A DMB receiver, a radio, a washing machine, a refrigerator, a desktop computer, a digital signage, a robot, a vehicle, or the like.
  • PDA personal digital assistant
  • PMP portable multimedia player
  • STB set-top box
  • the terminal 100 includes a communication unit 110, an input unit 120, a running processor 130, a sensing unit 140, an output unit 150, a memory 170, a processor 180, and the like. It may include.
  • the communicator 110 may transmit / receive data to / from external devices such as the other AI devices 100a to 100e or the AI server 200 using wired or wireless communication technology.
  • the communicator 110 may transmit / receive sensor information, a user input, a learning model, a control signal, and the like with external devices.
  • the communication technology used by the communication unit 110 may include Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Long Term Evolution (LTE), 5G, Wireless LAN (WLAN), and Wireless-Fidelity (Wi-Fi). ), Bluetooth (Bluetooth ⁇ ), Radio Frequency Identification (RFID), Infrared Data Association (IrDA), ZigBee, Near Field Communication (NFC), and the like.
  • GSM Global System for Mobile communication
  • CDMA Code Division Multi Access
  • LTE Long Term Evolution
  • 5G Fifth Generation
  • Wi-Fi Wireless-Fidelity
  • Bluetooth Bluetooth ⁇
  • Radio Frequency Identification RFID
  • IrDA Infrared Data Association
  • ZigBee ZigBee
  • NFC Near Field Communication
  • the input unit 120 may acquire various types of data.
  • the input unit 120 may include a camera for inputting an image signal, a microphone for receiving an audio signal, a user input unit for receiving information from a user, and the like.
  • the signal obtained from the camera or microphone may be referred to as sensing data or sensor information by treating the camera or microphone as a sensor.
  • the input unit 120 may acquire input data to be used when acquiring an output using training data and a training model for model training.
  • the input unit 120 may obtain raw input data, and in this case, the processor 180 or the running processor 130 may extract input feature points as preprocessing on the input data.
  • the running processor 130 may train a model composed of artificial neural networks using the training data.
  • the learned artificial neural network may be referred to as a learning model.
  • the learning model may be used to infer result values for new input data other than the training data, and the inferred values may be used as a basis for judgment to perform an operation.
  • the running processor 130 may perform AI processing together with the running processor 240 of the AI server 200.
  • the running processor 130 may include a memory integrated with or implemented in the AI device 100.
  • the running processor 130 may be implemented using a memory 170, an external memory directly coupled to the AI device 100, or a memory held in the external device.
  • the sensing unit 140 may acquire at least one of internal information of the AI device 100, surrounding environment information of the AI device 100, and user information using various sensors.
  • the sensors included in the sensing unit 140 include a proximity sensor, an illumination sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint sensor, an ultrasonic sensor, an optical sensor, a microphone, and a li. , Radar, etc.
  • the output unit 150 may generate an output related to sight, hearing, or touch.
  • the output unit 150 may include a display unit for outputting visual information, a speaker for outputting auditory information, and a haptic module for outputting tactile information.
  • the memory 170 may store data supporting various functions of the AI device 100.
  • the memory 170 may store input data, training data, training model, training history, and the like acquired by the input unit 120.
  • the processor 180 may determine at least one executable operation of the AI device 100 based on the information determined or generated using the data analysis algorithm or the machine learning algorithm. In addition, the processor 180 may control the components of the AI device 100 to perform the determined operation.
  • the processor 180 may request, search, receive, or utilize data of the running processor 130 or the memory 170, and may perform an operation predicted or determined to be preferable among the at least one executable operation.
  • the components of the AI device 100 may be controlled to execute.
  • the processor 180 may generate a control signal for controlling the corresponding external device and transmit the generated control signal to the corresponding external device.
  • the processor 180 may obtain intention information about the user input, and determine the user's requirements based on the obtained intention information.
  • the processor 180 uses at least one of a speech to text (STT) engine for converting a voice input into a string or a natural language processing (NLP) engine for obtaining intention information of a natural language. Intent information corresponding to the input can be obtained.
  • STT speech to text
  • NLP natural language processing
  • At least one or more of the STT engine or the NLP engine may be configured as an artificial neural network, at least partly learned according to a machine learning algorithm. At least one of the STT engine or the NLP engine may be learned by the running processor 130, may be learned by the running processor 240 of the AI server 200, or may be learned by distributed processing thereof. It may be.
  • the processor 180 collects history information including operation contents of the AI device 100 or feedback of a user about the operation, and stores the information in the memory 170 or the running processor 130, or the AI server 200. Can transmit to external device. The collected historical information can be used to update the learning model.
  • the processor 180 may control at least some of the components of the AI device 100 to drive an application program stored in the memory 170. In addition, the processor 180 may operate two or more of the components included in the AI device 100 in combination with each other to drive the application program.
  • FIG 2 illustrates an AI server 200 according to an embodiment of the present invention.
  • the AI server 200 may refer to an apparatus for learning an artificial neural network using a machine learning algorithm or using an learned artificial neural network.
  • the AI server 200 may be composed of a plurality of servers to perform distributed processing, or may be defined as a 5G network.
  • the AI server 200 may be included as a part of the AI device 100 to perform at least some of the AI processing together.
  • the AI server 200 may include a communication unit 210, a memory 230, a running processor 240, a processor 260, and the like.
  • the communication unit 210 may transmit / receive data with an external device such as the AI device 100.
  • the memory 230 may include a model storage unit 231.
  • the model storage unit 231 may store a trained model or a trained model (or artificial neural network 231a) through the running processor 240.
  • the running processor 240 may train the artificial neural network 231a using the training data.
  • the learning model may be used while mounted in the AI server 200 of the artificial neural network, or may be mounted and used in an external device such as the AI device 100.
  • the learning model can be implemented in hardware, software or a combination of hardware and software. When some or all of the learning model is implemented in software, one or more instructions constituting the learning model may be stored in the memory 230.
  • the processor 260 may infer a result value with respect to the new input data using the learning model, and generate a response or control command based on the inferred result value.
  • FIG 3 shows an AI system 1 according to an embodiment of the present invention.
  • the AI system 1 may include at least one of an AI server 200, a robot 100a, an autonomous vehicle 100b, an XR device 100c, a smartphone 100d, or a home appliance 100e.
  • This cloud network 10 is connected.
  • the robot 100a to which the AI technology is applied, the autonomous vehicle 100b, the XR device 100c, the smartphone 100d or the home appliance 100e may be referred to as the AI devices 100a to 100e.
  • the cloud network 10 may refer to a network that forms part of or exists within a cloud computing infrastructure.
  • the cloud network 10 may be configured using a 3G network, 4G or Long Term Evolution (LTE) network or a 5G network.
  • LTE Long Term Evolution
  • the devices 100a to 100e and 200 constituting the AI system 1 may be connected to each other through the cloud network 10.
  • the devices 100a to 100e and 200 may communicate with each other through the base station, they may also communicate with each other directly without passing through the base station.
  • the AI server 200 may include a server that performs AI processing and a server that performs operations on big data.
  • the AI server 200 includes at least one or more of the AI devices constituting the AI system 1, such as a robot 100a, an autonomous vehicle 100b, an XR device 100c, a smartphone 100d, or a home appliance 100e. Connected via the cloud network 10, the AI processing of the connected AI devices 100a to 100e may help at least a part.
  • the AI devices constituting the AI system 1 such as a robot 100a, an autonomous vehicle 100b, an XR device 100c, a smartphone 100d, or a home appliance 100e.
  • the AI processing of the connected AI devices 100a to 100e may help at least a part.
  • the AI server 200 may train the artificial neural network according to the machine learning algorithm on behalf of the AI devices 100a to 100e and directly store the learning model or transmit the training model to the AI devices 100a to 100e.
  • the AI server 200 receives the input data from the AI device (100a to 100e), infers the result value with respect to the input data received using the training model, and generates a response or control command based on the inferred result value Can be generated and transmitted to the AI device (100a to 100e).
  • the AI devices 100a to 100e may infer a result value from input data using a direct learning model and generate a response or control command based on the inferred result value.
  • the AI devices 100a to 100e to which the above-described technology is applied will be described.
  • the AI devices 100a to 100e illustrated in FIG. 3 may be viewed as specific embodiments of the AI device 100 illustrated in FIG. 1.
  • the robot 100a may be applied to an AI technology, and may be implemented as a guide robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, or the like.
  • the robot 100a may include a robot control module for controlling an operation, and the robot control module may refer to a software module or a chip implemented in hardware.
  • the robot 100a acquires state information of the robot 100a by using sensor information obtained from various kinds of sensors, detects (recognizes) the surrounding environment and an object, generates map data, or moves a route and travels. You can decide on a plan, determine a response to a user interaction, or determine an action.
  • the robot 100a may use sensor information acquired from at least one sensor among a rider, a radar, and a camera to determine a movement route and a travel plan.
  • the robot 100a may perform the above-described operations by using a learning model composed of at least one artificial neural network.
  • the robot 100a may recognize a surrounding environment and an object using a learning model, and determine an operation using the recognized surrounding environment information or object information.
  • the learning model may be directly learned by the robot 100a or may be learned by an external device such as the AI server 200.
  • the robot 100a may perform an operation by generating a result using a direct learning model, but transmits sensor information to an external device such as the AI server 200 and receives the result generated accordingly to perform an operation. You may.
  • the robot 100a determines a moving route and a traveling plan by using at least one of map data, object information detected from sensor information, or object information obtained from an external device, and controls the driving unit to determine the moving route and the traveling plan. Accordingly, the robot 100a may be driven.
  • the map data may include object identification information about various objects arranged in a space in which the robot 100a moves.
  • the map data may include object identification information about fixed objects such as walls and doors and movable objects such as flower pots and desks.
  • the object identification information may include a name, type, distance, location, and the like.
  • the robot 100a may control the driving unit based on the control / interaction of the user, thereby performing an operation or driving.
  • the robot 100a may acquire the intention information of the interaction according to the user's motion or speech, and determine a response based on the acquired intention information to perform the operation.
  • the autonomous vehicle 100b may be implemented by an AI technology and implemented as a mobile robot, a vehicle, an unmanned aerial vehicle, or the like.
  • the autonomous vehicle 100b may include an autonomous driving control module for controlling the autonomous driving function, and the autonomous driving control module may refer to a software module or a chip implemented in hardware.
  • the autonomous driving control module may be included inside as a configuration of the autonomous driving vehicle 100b, but may be connected to the outside of the autonomous driving vehicle 100b as a separate hardware.
  • the autonomous vehicle 100b obtains state information of the autonomous vehicle 100b by using sensor information obtained from various types of sensors, detects (recognizes) the surrounding environment and an object, generates map data, A travel route and a travel plan can be determined, or an action can be determined.
  • the autonomous vehicle 100b may use sensor information acquired from at least one sensor among a lidar, a radar, and a camera, similarly to the robot 100a, to determine a movement route and a travel plan.
  • the autonomous vehicle 100b may receive or recognize sensor information from external devices or receive information directly recognized from external devices. .
  • the autonomous vehicle 100b may perform the above operations by using a learning model composed of at least one artificial neural network.
  • the autonomous vehicle 100b may recognize a surrounding environment and an object using a learning model, and determine a driving line using the recognized surrounding environment information or object information.
  • the learning model may be learned directly from the autonomous vehicle 100b or may be learned from an external device such as the AI server 200.
  • the autonomous vehicle 100b may perform an operation by generating a result using a direct learning model, but transmits sensor information to an external device such as the AI server 200 and receives the result generated accordingly. You can also do
  • the autonomous vehicle 100b determines a moving route and a driving plan by using at least one of map data, object information detected from sensor information, or object information obtained from an external device, and controls the driving unit to determine the moving route and the driving plan. According to the plan, the autonomous vehicle 100b can be driven.
  • the map data may include object identification information for various objects arranged in a space (eg, a road) on which the autonomous vehicle 100b travels.
  • the map data may include object identification information about fixed objects such as street lights, rocks, buildings, and movable objects such as vehicles and pedestrians.
  • the object identification information may include a name, type, distance, location, and the like.
  • the autonomous vehicle 100b may perform an operation or drive by controlling the driving unit based on the user's control / interaction.
  • the autonomous vehicle 100b may acquire the intention information of the interaction according to the user's motion or voice utterance and determine the response based on the obtained intention information to perform the operation.
  • the XR device 100c is applied with AI technology, and includes a head-mount display (HMD), a head-up display (HUD) installed in a vehicle, a television, a mobile phone, a smartphone, a computer, a wearable device, a home appliance, and a digital signage. It may be implemented as a vehicle, a fixed robot or a mobile robot.
  • HMD head-mount display
  • HUD head-up display
  • the XR apparatus 100c analyzes three-dimensional point cloud data or image data acquired through various sensors or from an external device to generate location data and attribute data for three-dimensional points, thereby providing information on the surrounding space or reality object. It can obtain and render XR object to output. For example, the XR apparatus 100c may output an XR object including additional information about the recognized object in correspondence with the recognized object.
  • the XR apparatus 100c may perform the above-described operations using a learning model composed of at least one artificial neural network.
  • the XR apparatus 100c may recognize a reality object in 3D point cloud data or image data using a learning model, and may provide information corresponding to the recognized reality object.
  • the learning model may be learned directly from the XR device 100c or learned from an external device such as the AI server 200.
  • the XR device 100c may perform an operation by generating a result using a direct learning model, but transmits sensor information to an external device such as the AI server 200 and receives the result generated accordingly. You can also do
  • the robot 100a may be applied to an AI technology and an autonomous driving technology, and may be implemented as a guide robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, or the like.
  • the robot 100a to which the AI technology and the autonomous driving technology are applied may mean a robot itself having an autonomous driving function or a robot 100a interacting with the autonomous vehicle 100b.
  • the robot 100a having an autonomous driving function may collectively move devices by moving according to a given copper wire or determine the copper wire by itself without the user's control.
  • the robot 100a and the autonomous vehicle 100b having the autonomous driving function may use a common sensing method to determine one or more of a moving route or a driving plan.
  • the robot 100a and the autonomous vehicle 100b having the autonomous driving function may determine one or more of the movement route or the driving plan by using information sensed through the lidar, the radar, and the camera.
  • the robot 100a interacting with the autonomous vehicle 100b is present separately from the autonomous vehicle 100b and is linked to the autonomous driving function inside or outside the autonomous vehicle 100b, or the autonomous vehicle 100b. ) Can be performed in conjunction with the user aboard.
  • the robot 100a interacting with the autonomous vehicle 100b acquires sensor information on behalf of the autonomous vehicle 100b and provides the sensor information to the autonomous vehicle 100b or obtains sensor information and displays the surrounding environment information or By generating object information and providing the object information to the autonomous vehicle 100b, the autonomous vehicle function of the autonomous vehicle 100b can be controlled or assisted.
  • the robot 100a interacting with the autonomous vehicle 100b may monitor a user in the autonomous vehicle 100b or control a function of the autonomous vehicle 100b through interaction with the user. .
  • the robot 100a may activate the autonomous driving function of the autonomous vehicle 100b or assist control of the driver of the autonomous vehicle 100b.
  • the function of the autonomous vehicle 100b controlled by the robot 100a may include not only an autonomous vehicle function but also a function provided by a navigation system or an audio system provided inside the autonomous vehicle 100b.
  • the robot 100a interacting with the autonomous vehicle 100b may provide information or assist a function to the autonomous vehicle 100b outside the autonomous vehicle 100b.
  • the robot 100a may provide traffic information including signal information to the autonomous vehicle 100b, such as a smart signal light, or may interact with the autonomous vehicle 100b, such as an automatic electric charger of an electric vehicle. You can also automatically connect an electric charger to the charging port.
  • the robot 100a may be implemented with an AI technology and an XR technology, and may be implemented as a guide robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, a drone, or the like.
  • the robot 100a to which the XR technology is applied may mean a robot that is the object of control / interaction in the XR image.
  • the robot 100a may be distinguished from the XR apparatus 100c and interlocked with each other.
  • the robot 100a When the robot 100a that is the object of control / interaction in the XR image acquires sensor information from sensors including a camera, the robot 100a or the XR apparatus 100c generates an XR image based on the sensor information. In addition, the XR apparatus 100c may output the generated XR image. The robot 100a may operate based on a control signal input through the XR apparatus 100c or user interaction.
  • the user may check an XR image corresponding to the viewpoint of the robot 100a that is remotely linked through an external device such as the XR device 100c, and may adjust the autonomous driving path of the robot 100a through interaction. You can control the movement or driving, or check the information of the surrounding objects.
  • the autonomous vehicle 100b may be implemented by an AI technology and an XR technology, such as a mobile robot, a vehicle, an unmanned aerial vehicle, and the like.
  • the autonomous vehicle 100b to which the XR technology is applied may mean an autonomous vehicle provided with means for providing an XR image, or an autonomous vehicle that is the object of control / interaction in the XR image.
  • the autonomous vehicle 100b, which is the object of control / interaction in the XR image is distinguished from the XR apparatus 100c and may be linked with each other.
  • the autonomous vehicle 100b having means for providing an XR image may acquire sensor information from sensors including a camera and output an XR image generated based on the acquired sensor information.
  • the autonomous vehicle 100b may provide an XR object corresponding to a real object or an object on the screen by providing an HR to output an XR image.
  • the XR object when the XR object is output to the HUD, at least a part of the XR object may be output to overlap the actual object to which the occupant's eyes are directed.
  • the XR object when the XR object is output on the display provided inside the autonomous vehicle 100b, at least a part of the XR object may be output to overlap the object in the screen.
  • the autonomous vehicle 100b may output XR objects corresponding to objects such as a road, another vehicle, a traffic light, a traffic sign, a motorcycle, a pedestrian, a building, and the like.
  • the autonomous vehicle 100b that is the object of control / interaction in the XR image acquires sensor information from sensors including a camera
  • the autonomous vehicle 100b or the XR apparatus 100c may be based on the sensor information.
  • the XR image may be generated, and the XR apparatus 100c may output the generated XR image.
  • the autonomous vehicle 100b may operate based on a user's interaction or a control signal input through an external device such as the XR apparatus 100c.
  • eLTE eNB An eLTE eNB is an evolution of an eNB that supports connectivity to EPC and NGC.
  • gNB Node that supports NR as well as connection with NGC.
  • New RAN A radio access network that supports NR or E-UTRA or interacts with NGC.
  • Network slice A network slice defined by the operator to provide an optimized solution for specific market scenarios that require specific requirements with end-to-end coverage.
  • Network function is a logical node within a network infrastructure with well-defined external interfaces and well-defined functional behavior.
  • NG-C Control plane interface used for the NG2 reference point between the new RAN and NGC.
  • NG-U User plane interface used for the NG3 reference point between the new RAN and NGC.
  • Non-standalone NR A deployment configuration where a gNB requires an LTE eNB as an anchor for control plane connection to EPC or an eLTE eNB as an anchor for control plane connection to NGC.
  • Non-Standalone E-UTRA Deployment configuration in which the eLTE eNB requires gNB as an anchor for control plane connection to NGC.
  • User plane gateway The endpoint of the NG-U interface.
  • FIG. 4 is a diagram showing an example of the overall system structure of the NR to which the method proposed in the present specification can be applied.
  • the NG-RAN consists of gNBs that provide control plane (RRC) protocol termination for the NG-RA user plane (new AS sublayer / PDCP / RLC / MAC / PHY) and UE (User Equipment).
  • RRC control plane
  • the gNBs are interconnected via an Xn interface.
  • the gNB is also connected to the NGC via an NG interface.
  • the gNB is connected to an Access and Mobility Management Function (AMF) through an N2 interface and to a User Plane Function (UPF) through an N3 interface.
  • AMF Access and Mobility Management Function
  • UPF User Plane Function
  • the numerology may be defined by subcarrier spacing and cyclic prefix overhead.
  • the plurality of subcarrier intervals may be represented by an integer N (or, Can be derived by scaling. Also, even if it is assumed that very low subcarrier spacing is not used at very high carrier frequencies, the used numerology may be selected independently of the frequency band.
  • OFDM Orthogonal Frequency Division Multiplexing
  • OFDM numerologies supported in the NR system may be defined as shown in Table 1.
  • the size of the various fields in the time domain Is expressed as a multiple of the time unit. From here, ego, to be.
  • Downlink and uplink transmissions It consists of a radio frame having a section of (radio frame).
  • each radio frame is It consists of 10 subframes having a section of.
  • FIG. 5 shows a relationship between an uplink frame and a downlink frame in a wireless communication system to which the method proposed in the present specification can be applied.
  • transmission of an uplink frame number i from a user equipment (UE) is greater than the start of the corresponding downlink frame at the corresponding UE You must start before.
  • slots within a subframe Numbered in increasing order of within a radio frame They are numbered in increasing order of.
  • One slot is Consists of consecutive OFDM symbols of, Is determined according to the numerology and slot configuration used. Slot in subframe Start of OFDM symbol in the same subframe Is aligned with the beginning of time.
  • Not all terminals can transmit and receive at the same time, which means that not all OFDM symbols of a downlink slot or an uplink slot can be used.
  • Table 2 shows numerology Shows the number of OFDM symbols per slot for a normal CP in Table 3, This indicates the number of OFDM symbols per slot for the extended CP in.
  • an antenna port In relation to physical resources in the NR system, an antenna port, a resource grid, a resource element, a resource block, a carrier part, etc. May be considered.
  • the antenna port is defined so that the channel on which the symbol on the antenna port is carried can be inferred from the channel on which another symbol on the same antenna port is carried. If the large-scale property of the channel on which a symbol on one antenna port is carried can be deduced from the channel on which the symbol on another antenna port is carried, then the two antenna ports are quasi co-located or QC / QCL. quasi co-location relationship.
  • the wide range characteristics include one or more of delay spread, Doppler spread, frequency shift, average received power, and received timing.
  • FIG. 6 shows a structure of a radio frame in a wireless communication system to which the present invention can be applied.
  • 3GPP LTE / LTE-A supports a type 1 radio frame structure applicable to frequency division duplex (FDD) and a type 2 radio frame structure applicable to time division duplex (TDD).
  • FDD frequency division duplex
  • TDD time division duplex
  • a radio frame consists of 10 subframes.
  • One subframe consists of two slots in the time domain.
  • the time taken to transmit one subframe is called a transmission time interval (TTI).
  • TTI transmission time interval
  • one subframe may have a length of 1 ms and one slot may have a length of 0.5 ms.
  • One slot includes a plurality of orthogonal frequency division multiplexing (OFDM) symbols in the time domain and a plurality of resource blocks (RBs) in the frequency domain. Since 3GPP LTE uses OFDMA in downlink, the OFDM symbol is for representing one symbol period. The OFDM symbol may be referred to as one SC-FDMA symbol or symbol period.
  • a resource block is a resource allocation unit and includes a plurality of consecutive subcarriers in one slot.
  • FIG. 6B illustrates a frame structure type 2.
  • FIG. Type 2 radio frames consist of two half frames, each of which has five subframes, a downlink pilot time slot (DwPTS), a guard period (GP), and an uplink pilot time slot (UpPTS).
  • DwPTS downlink pilot time slot
  • GP guard period
  • UpPTS uplink pilot time slot
  • One subframe consists of two slots.
  • DwPTS is used for initial cell search, synchronization or channel estimation at the terminal.
  • UpPTS is used for channel estimation at the base station and synchronization of uplink transmission of the terminal.
  • the guard period is a period for removing interference generated in the uplink due to the multipath delay of the downlink signal between the uplink and the downlink.
  • an uplink-downlink configuration is a rule indicating whether uplink and downlink are allocated (or reserved) for all subframes.
  • Table 4 shows an uplink-downlink configuration.
  • Uplink-Downlink configuration Downlink-to-Uplink Switch-point periodicity Subframe number 0 One 2 3 4 5 6 7 8 9 0 5 ms D S U U U D S U U U One 5 ms D S U U D D S U U D 2 5 ms D S U D D D S U D D 3 10 ms D S U U U D D D D D D 4 10 ms D S U U D D D D D D 5 10 ms D S U D D D D D D D D D 6 5 ms D S U U U U D S U U D S U U D
  • 'D' represents a subframe for downlink transmission
  • 'U' represents a subframe for uplink transmission
  • 'S' represents DwPTS
  • GP UpPTS
  • UpPTS Indicates a special subframe consisting of three fields.
  • the uplink-downlink configuration can be classified into seven types, and the location and / or number of downlink subframes, special subframes, and uplink subframes are different for each configuration.
  • Switch-point periodicity refers to a period in which an uplink subframe and a downlink subframe are repeatedly switched in the same manner, and both 5ms or 10ms are supported.
  • the special subframe S exists every half-frame, and in case of having a period of 5ms downlink-uplink switching time, it exists only in the first half-frame.
  • subframes 0 and 5 and DwPTS are sections for downlink transmission only.
  • the subframe immediately following the UpPTS and the subframe subframe is always an interval for uplink transmission.
  • the uplink-downlink configuration may be known to both the base station and the terminal as system information.
  • the base station may notify the terminal of the change of the uplink-downlink allocation state of the radio frame by transmitting only an index of the configuration information.
  • the configuration information is a kind of downlink control information, which may be transmitted through a physical downlink control channel (PDCCH) like other scheduling information, and is commonly transmitted to all terminals in a cell through a broadcast channel as broadcast information. May be
  • PDCCH physical downlink control channel
  • the structure of the radio frame is only one example, and the number of subcarriers included in the radio frame or the number of slots included in the subframe and the number of OFDM symbols included in the slot may be variously changed.
  • FIG. 7 shows an example of a resource grid supported by a wireless communication system to which the method proposed in this specification can be applied.
  • the resource grid is in the frequency domain Consisting of subcarriers, one subframe
  • the configuration of OFDM symbols is described as an example, but is not limited thereto.
  • the transmitted signal is One or more resource grids composed of subcarriers, and Is described by the OFDM symbols of. From here, to be. remind Denotes the maximum transmission bandwidth, which may vary between uplink and downlink as well as numerologies.
  • the numerology And one resource grid for each antenna port p.
  • each element of the resource grid for antenna port p is referred to as a resource element and is an index pair Uniquely identified by From here, Is the index on the frequency domain, Refers to the position of a symbol within a subframe. Index pair when referring to a resource element in a slot This is used. From here, to be.
  • the physical resource block (physical resource block) in the frequency domain It is defined as consecutive subcarriers. On the frequency domain, the physical resource blocks can be zero Numbered until. At this time, a physical resource block number on the frequency domain And resource elements The relationship between is given by Equation 1.
  • the terminal may be configured to receive or transmit using only a subset of the resource grid.
  • the set of resource blocks set to be received or transmitted by the UE is from 0 on the frequency domain. Numbered until.
  • FIG. 8 shows a structure of a downlink subframe in a wireless communication system to which the present invention can be applied.
  • up to three OFDM symbols in the first slot in a subframe are control regions to which control channels are allocated, and the remaining OFDM symbols are data regions to which a Physical Downlink Shared Channel (PDSCH) is allocated. data region).
  • a downlink control channel used in 3GPP LTE includes a physical control format indicator channel (PCFICH), a physical downlink control channel (PDCCH), a physical hybrid-ARQ indicator channel (PHICH), and the like.
  • the PCFICH is transmitted in the first OFDM symbol of a subframe and carries information about the number of OFDM symbols (ie, the size of the control region) used for transmission of control channels within the subframe.
  • the PHICH is a response channel for the uplink and carries an ACK (Acknowledgement) / NACK (Not-Acknowledgement) signal for a hybrid automatic repeat request (HARQ).
  • Control information transmitted through the PDCCH is called downlink control information (DCI).
  • the downlink control information includes uplink resource allocation information, downlink resource allocation information or an uplink transmission (Tx) power control command for a certain terminal group.
  • the PDCCH is a resource allocation and transmission format of DL-SCH (Downlink Shared Channel) (also called a downlink grant), resource allocation information of UL-SCH (Uplink Shared Channel) (also called an uplink grant), and PCH ( Paging information in paging channel, system information in DL-SCH, resource allocation for upper-layer control message such as random access response transmitted in PDSCH, arbitrary terminal It may carry a set of transmission power control commands for the individual terminals in the group, activation of Voice over IP (VoIP), and the like.
  • the plurality of PDCCHs may be transmitted in the control region, and the terminal may monitor the plurality of PDCCHs.
  • the PDCCH consists of a set of one or a plurality of consecutive CCEs.
  • CCE is a logical allocation unit used to provide a PDCCH with a coding rate according to the state of a radio channel.
  • the CCE corresponds to a plurality of resource element groups.
  • the format of the PDCCH and the number of available bits of the PDCCH are determined according to the association between the number of CCEs and the coding rate provided by the CCEs.
  • the base station determines the PDCCH format according to the DCI to be transmitted to the terminal, and attaches a CRC (Cyclic Redundancy Check) to the control information.
  • the CRC is masked with a unique identifier (referred to as RNTI (Radio Network Temporary Identifier)) according to the owner or purpose of the PDCCH.
  • RNTI Radio Network Temporary Identifier
  • a unique identifier of the terminal for example, a C-RNTI (Cell-RNTI) may be masked to the CRC.
  • a paging indication identifier for example, P-RNTI (P-RNTI) may be masked to the CRC.
  • the system information more specifically, the PDCCH for the system information block (SIB), the system information identifier and the system information RNTI (SI-RNTI) may be masked to the CRC.
  • SI-RNTI system information RNTI
  • RA-RNTI random access-RNTI
  • FIG. 9 shows a structure of an uplink subframe in a wireless communication system to which the present invention can be applied.
  • an uplink subframe may be divided into a control region and a data region in the frequency domain.
  • a physical uplink control channel (PUCCH) carrying uplink control information is allocated to the control region.
  • the data region is allocated a Physical Uplink Shared Channel (PUSCH) that carries user data.
  • PUCCH Physical Uplink Control Channel
  • PUSCH Physical Uplink Shared Channel
  • a PUCCH for one UE is allocated a resource block (RB) pair in a subframe.
  • RBs belonging to the RB pair occupy different subcarriers in each of the two slots.
  • This RB pair allocated to the PUCCH is said to be frequency hopping at the slot boundary (slot boundary).
  • Reference signal ( RS : Reference Signal)
  • the signal Since data is transmitted over a wireless channel in a wireless communication system, the signal may be distorted during transmission. In order to correctly receive the distorted signal at the receiving end, the distortion of the received signal must be corrected using the channel information.
  • a signal transmission method known to both a transmitting side and a receiving side and a method of detecting channel information using a distorted degree when a signal is transmitted through a channel are mainly used.
  • the above-mentioned signal is called a pilot signal or a reference signal (RS).
  • RS can be classified into two types according to its purpose. There are RSs for channel information acquisition and RSs used for data demodulation. Since the former has a purpose for the UE to acquire channel information on the downlink, it should be transmitted over a wide band, and a UE that does not receive downlink data in a specific subframe should be able to receive and measure its RS. It is also used for measurements such as handover.
  • the latter is an RS that the base station sends along with the corresponding resource when the base station transmits the downlink, and the UE can estimate the channel by receiving the RS, and thus can demodulate the data. This RS should be transmitted in the area where data is transmitted.
  • the downlink reference signal is one common reference signal (CRS: common RS) for acquiring information on channel states shared by all terminals in a cell, measurement of handover, etc. and a dedicated reference used for data demodulation only for a specific terminal.
  • CRS common reference signal
  • DRS dedicated RS
  • Such reference signals may be used to provide information for demodulation and channel measurement. That is, DRS is used only for data demodulation and CRS is used for both purposes of channel information acquisition and data demodulation.
  • the receiving side measures the channel state from the CRS and transmits an indicator related to the channel quality such as the channel quality indicator (CQI), precoding matrix index (PMI) and / or rank indicator (RI). Feedback to the base station).
  • CRS is also referred to as cell-specific RS.
  • CSI-RS a reference signal related to feedback of channel state information
  • the DRS may be transmitted through resource elements when data demodulation on the PDSCH is needed.
  • the UE may receive the presence or absence of a DRS through a higher layer and is valid only when a corresponding PDSCH is mapped.
  • the DRS may be referred to as a UE-specific RS or a demodulation RS (DMRS).
  • FIG. 10 is a diagram illustrating an OTDOA method for determining a location of a terminal.
  • the serving cell and the neighbor cell may be represented as a serving base station or a neighbor base station, respectively.
  • the terminal measures the position of the terminal using a timing difference at which signals transmitted from each cell reach the terminal.
  • the reference cell is a cell serving as a reference of the TDOA
  • a plurality of neighbor cells By using the reference signal or the synchronization signal received from the measurement time and the delay time of the signal received from each of the plurality of neighboring cells from each of the plurality of neighboring cells measured by the serving cell (anchor) or anchor cell (anchor) report), and the serving cell measures the location of the terminal using the reported delay times.
  • the reference cell refers to a cell that can be a reference for TDOA (Time Difference Of Arrival), and when the serving cell corresponds to this or when the UE performs an operation such as handover, the serving cell before the handover operation corresponds. It may not be changed or irrespective of handover operation of the terminal.
  • TDOA Time Difference Of Arrival
  • a common reference signal CRS
  • PSS / SSS Primary Synchronization Signal / Secondary Synchronization Signal
  • dedicated positioning for LCS LCS (LoCation Service)
  • a reference signal PRS
  • the positioning reference (or reference) signal may be represented by a positioning reference signal or a positioning pilot signal.
  • the PRS will be described as an example of a measurement signal used for positioning of the terminal.
  • Positioning Positioning reference signal PRS
  • PRS positioning reference signal
  • the PRS is a reference signal used for determining the location of the UE and is transmitted only through resource blocks of a downlink subframe determined for PRS transmission.
  • the PRS sequence is defined by equation (2).
  • c (i) represents a pseudo-random sequence, and the pseudo random sequence generator is represented by Equation 3 at the starting point of each OFDM symbol. Is initialized to
  • CP general cyclic prefix
  • Equation 5 represents a case of a general cyclic prefix
  • Equation 6 represents a case of an extended cyclic prefix
  • the bandwidth of the reference signal and the number of resource blocks ( ) Is set by the upper layer.
  • the reference signal has a different frequency shift for each cell. ), And this cell-specific frequency shift is determined according to Equation 7 below.
  • the structure of the preamble transmitted in a specific subframe is as shown in FIG.
  • FIG. 11 is a diagram illustrating a pattern in which a PRS is allocated to a resource element.
  • FIG. 11 is a diagram illustrating a pattern in which a PRS is allocated to a resource element.
  • FIG. 11A shows a case of a normal CP and
  • FIG. 11B shows a case of an extended CP.
  • the terminal receives the assistance data (assistance data) from the serving base station, and receives the PRS from the reference cell and neighbor cells using the assistance data, A reference signal time difference (hereinafter, referred to as "RSTD") between neighboring cells is calculated and transmitted to the serving base station.
  • RSTD reference signal time difference
  • the serving base station transmits the RSTD to a location server, and the location server determines the location of the terminal using the RSTD.
  • the RSTD means a relative timing difference between a reference cell and a neighbor cell and is defined by Equation 8.
  • the terminal receives the PRS from the reference cell and receives the PRS from each of the plurality of neighbor cells.
  • the difference in time point is within a certain time range.
  • the difference between the time point at which the UE receives the PRS from the reference cell and the time point at which the UE receives the PRS from each of the plurality of neighbor cells may be within one subframe.
  • the subframe received from the cell j is most One subframe received from the near cell i becomes the first subframe of the PRS positioning opportunity of the reference cell i.
  • the PRS positioning opportunity refers to consecutive downlink subframes to which the PRS is allocated. Accordingly, the RSTD becomes a difference between the time point at which the PRS is received from the neighbor cell j and the time point at which the PRS is received from the reference cell i.
  • TOA arrival time of the PRS
  • LTP LTE Positioning Protocol
  • FIG. 12 is a diagram for describing a procedure of performing OTDOA through LPP.
  • LPP is performed as follows.
  • the location server 3 sends a RequestCapabilities message to the UE 4.
  • the RequestCapabilities message indicates a type of capabilities needed for the terminal 4 to perform OTDOA.
  • the terminal 4 responds with a ProvideCapabilities message.
  • the ProvideCapabilities message includes information elements such as OTDOA mode support (Note: LPP supports UE-assisted mode 7 only), supported frequency band, and support for RSTD measurement between frequencies.
  • the location server 3 transmits a ProvideAssistanceData message including the OTDOA assistance data to the terminal 4.
  • the OTDOA assistance data includes data for a reference cell and up to 72 neighboring cells.
  • the neighbor cell support data may be provided for up to 3 frequency layers.
  • the location server 3 sends a RequestLocationInformation message to the terminal 4 to request the RSTD measurement.
  • the RequestLocationInformation message includes information elements such as location information type, required accuracy of the location estimate, and response time.
  • the terminal 4 performs RSTD measurement using the ProvideAssistanceData received in S3. Based on the response time, the terminal 4 transmits a ProvideLocationInformation message including the RSTD to the location server 3 (S1206).
  • the ProvideLocationInformation message includes the following information element.
  • the quality indicator for the TOA measurement and the RSTD measurement of the reference cell can be any metric indicating the relative quality of each measurement, eg, standard deviation, SNR, and so on.
  • FIG. 13 is a diagram for describing position measurement based on whether channel characteristics are determined in a situation where multiple paths exist.
  • the signal when the ranging signal is the fastest input signal with a meaningful power from a reception point of view is a Loss signal
  • the existing localization technique uses all ranging signals. It is performed assuming that is a Loss signal.
  • the UE since there are multiple paths from the anchor node to the terminal, the UE may not recognize the ranging signal even if not all of the ranging signals are Loss signals. Therefore, when the location server estimates the location of the terminal according to the RSTD calculated by the terminal, the accuracy may be lowered.
  • the channel characteristic may include at least one of a visible line (LoS) and a non-light of Sight (NLoS).
  • LoS visible line
  • NoS non-light of Sight
  • the channel characteristic is a visible line (LoS)
  • LiS visible line
  • FIG. 13 (b) it is a situation in which a terminal determines a channel characteristic to distinguish a visible line signal (LoS signal) and a non-visible line signal (NLoS signal). Specifically, there are six ranging signals, three of which are LoS signals, and three of which are NLS signals.
  • the terminal can determine whether the channel characteristic between itself and each base station (anchor node) is a line of sight (LoS), the accuracy of location measurement can be increased by using the terminal.
  • anchor node an anchor node
  • LoS line of sight
  • 14 to 18 are diagrams for explaining various embodiments of a pretreatment procedure that can improve the LPP procedure by applying the present invention.
  • FIG. 14 shows a flowchart in which a procedure for determining channel characteristics (LoS / NLoS idenfication procedure, S1410) is added to the LPP procedure as a preprocessing procedure.
  • S1404 and S1406 are the same as S1204 and S1206 of FIG.
  • the terminal 4 calculates a line of sight similarity (LoS-likelihood) before proceeding with the existing OTDOA process (S1410). Based on this, the terminal 4 may determine whether a channel characteristic between itself and each base station is a visible line (LoS) or a non-visible line (NLoS). The terminal 4 may calculate an RSTD based on the determination result (S1440).
  • LoS visible line
  • NoS non-visible line
  • FIG. 15 is a flowchart illustrating a procedure for including and reporting a line of sight similarity (LoS-likelihood) regarding channel characteristics in a measurement result.
  • S1504 and S1506 are the same as S1204 and S1206 in FIG. 12.
  • the terminal 4 receiving the LPP request location information message from the location server 3 performs a ranging procedure with a plurality of base stations 5 configured for location measurement. To obtain distance information.
  • the terminal 4 calculates a visible line similarity (LoS-likelihood) for each base station included in the plurality of base stations 5 based on the distance information obtained by performing a ranging procedure.
  • the terminal 4 receives a Positioning Reference Signal (PRS) from the plurality of base stations 5.
  • PRS Positioning Reference Signal
  • the terminal 4 selects a base station having the highest value of the LoS-likelihood among the plurality of base stations 5 as a reference cell.
  • the terminal 4 calculates an RSTD value based on the selected reference cell.
  • the terminal 4 transmits the LPP Provide Location Information message to the location server 3, and may include the following information.
  • the location server 3 may perform an algorithm for location measurement based on the line of sight similarity (LoS-likelihood) included in the LPP Provide Location Information message, which is a measurement result of the terminal 4. Accuracy can be improved.
  • LoS-likelihood line of sight similarity
  • the terminal 4 may select a base station for transmitting the PRS based on line of sight similarity (LoS-likelihood). For example, the terminal 4 may select a preset number of base stations in order of increasing LoS-likelihood values among the plurality of base stations 5. In this case, a large value of the LoS-likelihood means that the channel characteristic is close to the visible line LoS.
  • LoS-likelihood line of sight similarity
  • the terminal may select a preset number of base stations in an order in which line of sight similarity (LoS-likelihood) is close to a preset value.
  • the predetermined value may be a coefficient value of an EDM (Euclidean Distance Matrix) to be described below when the channel characteristic is a visible line (LoS).
  • S1610 and S1620 are the same as S1510 and S1620 of FIG. 15, a detailed description thereof will be omitted.
  • the terminal 4 acquires the distance information according to the ranging procedure and calculates the line-likelihood accordingly (S1610 and S1620).
  • the terminal 4 may instruct muting in PRS reception.
  • the terminal 4 transmits a PRS muting request to the plurality of base stations 5.
  • the PRS muting request may include information of base stations selected from among a plurality of base stations 5 according to channel characteristics.
  • the PRS muting request indicates PRS muting for remaining base stations except the selected base stations among a plurality of base stations 5.
  • the terminal 4 receives the PRS from the selected base stations.
  • the terminal 4 selects a base station having the highest value of the LoS-likelihood among the selected base stations 5 as a reference cell.
  • the terminal 4 calculates an RSTD value based on the selected reference cell.
  • a gain that can block the PRS from the base station having the non-visible line (NLoS) can be increased.
  • the PRS muting request may be delivered through a physical layer signal or a control channel.
  • the PRS muting request may be delivered to a serving eNB through a higher layer signal (eg, RRC).
  • the base station receiving the PRS muting request may transmit the PRS muting request to other base stations through signaling between the location server 3 or the base station.
  • S1704 and S1706 are the same as S1204 and S1206 of FIG. 12.
  • Each base station included in the plurality of base stations 5 includes time division multiplexing (TDM) and frequency division multiplexing (FDM) for each group based on values of visible line similarity (LoS-likelihood) in a subframe transmitting the PRS. And CDM (Code Division Multiplexing) scheme.
  • TDM time division multiplexing
  • FDM frequency division multiplexing
  • CDM Code Division Multiplexing
  • S1710, S1720, and S1740 of FIG. 17 are the same as S1610, S1620, and S1640 of FIG. 16, and thus redundant descriptions thereof will be omitted.
  • the terminal 4 may transmit a line including a line of sight similarity (LoS-likelihood) in the PRS muting request.
  • a line of sight similarity LiS-likelihood
  • any one of the plurality of base stations 5 (serving eNB) PRS PRS information about the resources of the multiplexed PRS using at least one of the TDM, FDM and CDM scheme that the UE should measure It is included in the PRS grouping information message and transmitted to the terminal 4.
  • the PRS grouping information may be transmitted through a physical layer signal or a control channel. Or, it may be transmitted to the terminal through a higher layer signal (for example, RRC).
  • a higher layer signal for example, RRC
  • the PRS grouping information may be transmitted through a physical layer signal or a control channel.
  • the PRS group information may be delivered to a serving eNB through an upper layer signal (eg, RRC).
  • the base station receiving the PRS group information may transfer the PRS group information to other base stations through signaling between the location server 3 or another base station.
  • PRSs of the selected base stations are received using the PRS grouping information.
  • the terminal 4 selects a base station having the highest value of the LoS-likelihood among the selected base stations 5 as a reference cell.
  • the UE groups can improve performance and utilize limited resources more efficiently.
  • Line-of-sight similarity can be obtained by constructing an EDM (Euclidean Distance Matrix).
  • FIG. 18 describes a ranging procedure initiated by a terminal for configuring the EDM.
  • S1804 and S1820 of FIG. 18 are the same as S1504 and S1520 of FIG.
  • the terminal 4 transmits a ranging signal zone allocation request to at least one serving eNB 5-1 from among a plurality of base stations.
  • step S1812 the base station 5-1 transmits a ranging signal zone allocation response to the terminal 4 and responds to the ranging procedure.
  • the ranging procedure request signal and the response signal may be transmitted through a physical layer signal or a control channel or through a higher layer signal.
  • the terminal 4 transmits a ranging signal Tx to the plurality of base stations 5-1 and 5-2.
  • the terminal 4 may obtain distance information between the base station 4 and each base station included in the plurality of base stations 5 by using a response RS signal received from each base station (S1814).
  • the ranging signal Tx and the reference RS signal are transmitted as physical layer signals.
  • the terminal 4 configures the EDM using the obtained distance information.
  • the LoS / NLoS determination may be performed using the Low Rank property of the Double-centered Euclidean Distance Matrix (EDM).
  • EDM Double-centered Euclidean Distance Matrix
  • a matrix may be configured by setting each parameter, and each matrix and its coefficient property are as follows.
  • EDM Euclidean Distance Matrix
  • D which is a rank of the double-centered EDM (Double-centered EDM)
  • Double-centered EDM may be a line of sight similarity (LoS-likelihood) indicating a degree of channel characteristics between a terminal and a specific base station close to a line of sight (LoS) have.
  • the coefficient of the dual centered EDM becomes 2. This means that the eigenvalue of the dual centered EDM is two (two-dimensional).
  • the rank of the dual centered EDM is a value other than 2 (for example, 3).
  • the preset value may be the dual centered EDM coefficient (Rank) when the channel characteristic is a visible line (LoS), and the value may be 2.
  • the terminal may select a preset number of base stations in an order in which line of sight similarity (LoS-likelihood) is close to the preset value.
  • the preset number may be set to a specific value in consideration of the accuracy of the position measurement.
  • the line of sight similarity (LoS-likelihood) of a specific base station may be calculated using one or more base station groups including at least three base stations including the specific base station among a plurality of base stations configured for position measurement of the terminal.
  • the LoS-likelihood may be an average of coefficients of EDM configured by using distance information between each base station included in the base station group and the terminal.
  • the EDM may be a double-centered EDM (double centering EDM) applying a double centering operation.
  • base station groups including at least three base stations including the base station # 1 are as follows.
  • Base station group 1 Base station # 1, base station # 2, base station # 3
  • Base station group 2 base station # 1, base station # 2, base station # 4
  • Base station group 3 base station # 1, base station # 3, base station # 4
  • Base station group 4 Base station # 2, base station # 3, base station # 4
  • EDMs may be configured by using distance information between each base station and a terminal included in each base station group (group 1, group 2, group 3, group 4).
  • group 1, group 2, group 3, group 4 The cost obtained from each EDM is added together, divided by 3 corresponding to the value of the number of groups ⁇ 1, and then the cost of the EDM of the group 4 including the base station # 1 is not subtracted. The reciprocal is then taken as the LoS-likelihood of base station # 1.
  • the cost is calculated from a Cost Function of Hypothesis Test for LoS / NLoS determination and will be described later in detail.
  • LoS / NLoS between multiple nodes may be determined using the characteristic of the eigenvalue.
  • LoS / NLoS can be determined by the presence or absence of the D + 1 th eigenvalue of the dual-centered EDM.
  • Equation 9 The Cost Function of Hypothesis Test for LoS / NLoS determination is defined by Equation 9 below.
  • LTE Positioning Protocol LTE Positioning Protocol
  • gNB arbitrary base station
  • the terminal may report the following values to the base station.
  • the base stations having the index may be base stations selected according to channel characteristics with the terminal.
  • the above embodiments may be applied to a method for reporting a position measurement result performed by a terminal in a wireless communication system, which will be described in detail with reference to FIGS. 19 to 21.
  • 19 is a flowchart illustrating a method of reporting a measurement result for positioning according to an embodiment of the present invention.
  • a method of reporting a measurement result for determining a location includes determining a channel characteristic (S100), calculating an RSTD (S200), and reporting a measurement result. It may include the step (S300).
  • the terminal determines whether a channel characteristic between each base station included in a plurality of base stations configured for positioning of the terminal and the terminal is a line of sight (LoS).
  • LoS line of sight
  • the terminal uses the visible line similarity (LoS-likelihood) calculated based on the distance information between the terminal and each base station to determine the channel characteristics (LoS) or non-light of the line (Non-Light of Sight: NLoS).
  • LiS-likelihood the visible line similarity
  • the line-of-view similarity may be calculated using a coefficient of an Eulidean Distance Matrix (EDM) configured based on the distance information.
  • EDM Eulidean Distance Matrix
  • the EDM may be configured using at least one base station group including at least one base station among the plurality of base stations.
  • the terminal may configure the EDM using distance information between each base station included in the base station group and the terminal.
  • the visible line similarity may be a coefficient (Rank) of the EDM, and as the corresponding value is closer to a preset value, the terminal may determine that a channel characteristic with the corresponding base station is closer to the visible line (LoS).
  • the preset value is a coefficient value of the EDM when the channel characteristic is a visible line (LoS), and the value may be 2.
  • the terminal calculates a reference signal time difference (RSTD) by setting any one of the base stations having the channel characteristic of the visible line (LoS) as a reference cell.
  • RSTD reference signal time difference
  • the terminal may set, as the reference cell, a base station whose LoS-likelihood is closest to the preset value among the plurality of base stations.
  • the terminal reports a measurement result including the RSTD.
  • the terminal reports the measurement result to the location server.
  • the measurement result may include an identifier (ID) of the reference cell, a line of sight similarity of the reference cell, an identifier (ID) of each of the base stations having the channel characteristic of the plurality of base stations (LoS), and It may include at least one information from the information on the line of sight similarity of each of the base stations.
  • the present invention determines whether a channel characteristic between a plurality of base stations and a terminal set for the position measurement of the terminal is a line of sight (LoS) or a non-light of sight (NLoS),
  • An RSTD is calculated by selecting a base station having the line characteristic LoS among the plurality of base stations as a reference cell. This improves the accuracy of position measurements in the presence of multiple paths.
  • the above-described operation of the terminal may be specifically implemented by the terminal devices 2220 and 2320 shown in FIGS. 22 and 23 of the present specification.
  • the above-described operation of the terminal may be performed by the processors 2221 and 2321 and / or a radio frequency (RF) unit (or module) 2223 and 2325.
  • RF radio frequency
  • a terminal receiving a data channel includes a transmitter for transmitting a radio signal, a receiver for receiving a radio signal, and a processor operatively connected to the transmitter and the receiver.
  • a transmitter and the receiver may be referred to as a transceiver for transmitting and receiving radio signals.
  • the processor determines whether a channel characteristic between each base station included in the plurality of base stations configured for positioning of the terminal and the terminal is a line of sight (LoS).
  • LiS line of sight
  • the processor calculates a reference signal time difference (RSTD) by setting any one of the base stations having the channel characteristic of the visible line (LoS) as a reference cell.
  • the processor may control the transceiver to report a measurement result including the RSTD.
  • step S100 will be described in more detail with reference to calculation of line-of-view similarity (LoS-likelihood).
  • 20 is a flowchart for describing in detail a step of determining a channel characteristic in a method of reporting a measurement result for positioning according to an embodiment of the present invention.
  • Determining a channel characteristic according to an embodiment of the present invention may include a distance information acquisition step (S110), an EDM configuration step (S120) and a visible line similarity calculation step (S130).
  • the terminal performs a ranging procedure on the plurality of base stations to obtain distance information between the terminal and each base station.
  • the terminal transmits a ranging zone allocation request to one of the plurality of base stations.
  • the ranging procedure is initiated when the terminal receives a ranging zone allocation response from the serving eNB.
  • the terminal transmits a ranging signal Tx to the plurality of base stations and receives a reference RS signal from each base station included in the plurality of base stations to obtain distance information with the corresponding base station. Can be.
  • the terminal configures an EDM (Euclidean Distance Matrix) using the previously obtained distance information.
  • EDM Euclidean Distance Matrix
  • the EDM may exist in plural and may be generated from a base station group including at least one base station among the plurality of base stations.
  • the terminal may configure the EDM using distance information between each base station and the terminal included in the base station group.
  • the EDM may be a double-centered EDM that applies a double centering operation to the Euclidean Distance Matrix (EDM).
  • EDM Euclidean Distance Matrix
  • the terminal calculates line of sight similarity (LoS-likelihood) using the EDM.
  • the line of sight similarity may be a coefficient of the EDM.
  • the visible line similarity may be the number of eigenvalues of the double-centered EDM.
  • the UE may transmit a signal related to a Positioning Reference Signal Request (PRS request) to the plurality of base stations and calculate the RSTD using the received PRS according to the signal related to the PRS request.
  • PRS request Positioning Reference Signal Request
  • the signal related to the PRS request may include muting information according to the channel characteristic.
  • the signal for the PRS request may include information on base stations selected from among the plurality of base stations according to the channel characteristics.
  • the muting information may be information indicating muting for remaining base stations except the selected base stations among the plurality of base stations.
  • the selected base stations may be a preset number of base stations selected from among the plurality of base stations in an order in which values of LoS-likelihood are close to a preset value.
  • the preset number may be set to a specific value in consideration of the accuracy of the position measurement of the terminal.
  • PRS grouping information may be received from any one of the plurality of base stations.
  • the terminal may calculate the RSTD using the received PRS according to the PRS group information.
  • 21 is a flowchart for describing in detail a step of calculating an RSTD in a method of reporting a measurement result for positioning according to an embodiment of the present invention.
  • the step of calculating the RSTD according to an embodiment of the present invention may include receiving the PRS group information (S210), receiving the PRS using the PRS group information (S220), and calculating the RSTD (S230). It may include.
  • the terminal receives the PRS grouping information from any one of the plurality of base stations.
  • the terminal may calculate the RSTD using the PRSs of the base stations selected according to the channel characteristics, and the PRSs of the selected base stations may be mapped to a time-frequency resource region allocated for the PRS of one base station.
  • the terminal uses the PRS grouping information to receive (or measure) the PRS of the selected base stations.
  • the PRS group information may include information indicating a resource element to which a PRS of each base station included in the selected base stations is mapped.
  • the terminal receives the PRS of the selected base stations using the PRS group information.
  • the terminal calculates the RSTD using the PRS of the selected base stations.
  • the present invention calculates the RSTD using the Positioning Reference Signal (PRS) of the base stations selected according to the channel characteristics, thereby further improving the accuracy of the position measurement.
  • PRS Positioning Reference Signal
  • the present invention includes the muting information according to the channel characteristics in transmitting the PRS request signal, among the plurality of base stations receive the PRS of the base station having the channel characteristics of the visible line (NLoS) and the PRS of the other base stations to block Can be. Therefore, the gain of the PRS reception can be increased.
  • PRSs of base stations selected according to the channel characteristics are mapped to time-frequency resources allocated for one PRS
  • PRS group information is information indicating a resource element to which the PRSs of each base station are mapped. information). Therefore, the limited resources set for PRS transmission can be used more efficiently.
  • 22 is a block diagram of an apparatus for reporting channel state information according to another embodiment of the present invention.
  • a wireless communication system may include a first device 2210 and a plurality of second devices 2220 located within an area of the first device 2210.
  • the first device 2210 may be a base station
  • the second device 2220 may be a terminal, or may be represented as a wireless device.
  • the base station 2210 includes a processor 2211, a memory 2212, and a transceiver 2213.
  • the processor 2211 implements the functions, processes, and / or methods proposed in FIGS. 1 to 21. Layers of the air interface protocol may be implemented by a processor.
  • the memory 2212 is connected to the processor and stores various information for driving the processor.
  • the transceiver 2213 is coupled to the processor to transmit and / or receive wireless signals.
  • the transceiver 2213 may include a transmitter for transmitting a radio signal and a receiver for receiving the radio signal.
  • the terminal 2220 includes a processor 2221, a memory 2222, and a transceiver 2223.
  • the processor 2221 implements the functions, processes, and / or methods proposed in FIGS. 1 to 21. Layers of the air interface protocol may be implemented by a processor.
  • the memory 2222 is connected to the processor and stores various information for driving the processor.
  • the transceiver 2223 is coupled to the processor to transmit and / or receive wireless signals. In more detail, the transceiver 2223 may include a transmitter for transmitting a radio signal and a receiver for receiving the radio signal.
  • the memories 2212 and 2222 may be inside or outside the processors 2211 and 2221, and may be connected to the processors 2211 and 2221 by various well-known means.
  • the base station 2210 and / or the terminal 2220 may have one antenna or multiple antennas.
  • a first device 2210 and a second device 2220 according to another embodiment are described.
  • the first device 2210 includes a base station, a network node, a transmitting terminal, a receiving terminal, a wireless device, a wireless communication device, a vehicle, a vehicle equipped with an autonomous driving function, a connected car, a drone (Unmanned Aerial Vehicle, UAV, artificial intelligence modules, robots, Augmented Reality devices, VR (Virtual Reality) devices, Mixed Reality (MR) devices, hologram devices, public safety devices, MTC devices, IoT devices, medical devices, pins It may be a tech device (or financial device), a security device, a climate / environment device, a device related to 5G service, or another device related to the fourth industrial revolution field.
  • UAV Unmanned Aerial Vehicle
  • AR Virtual Reality
  • MR Mixed Reality
  • hologram devices public safety devices
  • MTC devices IoT devices
  • medical devices pins It may be a tech device (or financial device), a security device, a climate / environment device, a device related to 5G service, or another device related to the fourth
  • the second device 2220 includes a base station, a network node, a transmitting terminal, a receiving terminal, a wireless device, a wireless communication device, a vehicle, a vehicle equipped with an autonomous driving function, a connected car, a drone (Unmanned Aerial Vehicle, UAV, artificial intelligence modules, robots, Augmented Reality devices, VR (Virtual Reality) devices, Mixed Reality (MR) devices, hologram devices, public safety devices, MTC devices, IoT devices, medical devices, pins It may be a tech device (or financial device), a security device, a climate / environment device, a device related to 5G service, or another device related to the fourth industrial revolution field.
  • UAV Unmanned Aerial Vehicle
  • AR Virtual Reality
  • MR Mixed Reality
  • hologram devices public safety devices
  • MTC devices IoT devices
  • medical devices pins It may be a tech device (or financial device), a security device, a climate / environment device, a device related to 5G service, or another device related to the fourth
  • the terminal may be a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), navigation, a slate PC, a tablet. It may include a tablet PC, an ultrabook, a wearable device (eg, a smartwatch, a glass glass, a head mounted display), and the like.
  • the HMD may be a display device worn on the head.
  • the HMD can be used to implement VR, AR or MR.
  • a drone may be a vehicle in which humans fly by radio control signals.
  • the VR device may include a device that implements an object or a background of a virtual world.
  • the AR device may include a device that connects and implements an object or a background of the virtual world to an object or a background of the real world.
  • the MR device may include a device that fuses and implements an object or a background of the virtual world to an object or a background of the real world.
  • the hologram device may include a device that records and reproduces stereoscopic information to implement a 360 degree stereoscopic image by utilizing interference of light generated by two laser lights, called holography, to meet each other.
  • the public safety device may include an image relay device or an image device wearable on a human body of a user.
  • the MTC device and the IoT device may be devices that do not require direct human intervention or manipulation.
  • the MTC device and the IoT device may include a smart meter, a bending machine, a thermometer, a smart bulb, a door lock or various sensors.
  • a medical device may be a device used for the purpose of diagnosing, treating, alleviating, treating or preventing a disease.
  • a medical device may be a device used for the purpose of diagnosing, treating, alleviating or correcting an injury or disorder.
  • a medical device may be a device used for the purpose of testing, replacing, or modifying a structure or function.
  • the medical device may be a device used for controlling pregnancy.
  • the medical device may include a medical device, a surgical device, an (extracorporeal) diagnostic device, a hearing aid or a surgical device, and the like.
  • the security device may be a device installed to prevent a risk that may occur and to maintain safety.
  • the security device may be a camera, a CCTV, a recorder or a black box.
  • the fintech device may be a device capable of providing financial services such as mobile payment.
  • the fintech device may include a payment device or a point of sales (POS).
  • the climate / environmental device may include a device that monitors or predicts the climate / environment.
  • the first device 2210 may include at least one or more processors, such as a processor 2211, at least one or more memories, such as a memory 2212, and at least one or more transceivers, such as a transceiver 2213.
  • the processor 2211 may perform the functions, procedures, and / or methods described above.
  • the processor 2211 may perform one or more protocols.
  • the processor 2211 may perform one or more layers of a radio interface protocol.
  • the memory 2212 may be connected to the processor 2211 and store various types of information and / or instructions.
  • the transceiver 2213 may be connected to the processor 2211 and controlled to transmit and receive a wireless signal.
  • the second device 2220 may include at least one processor, such as a processor 2221, at least one or more memory devices, such as a memory 2222, and at least one transceiver, such as a transceiver 2223.
  • the processor 2221 may perform the above-described functions, procedures, and / or methods.
  • the processor 2221 may implement one or more protocols. For example, the processor 2221 may implement one or more layers of a radio interface protocol.
  • the memory 2222 is connected to the processor 2221 and may store various types of information and / or instructions.
  • the transceiver 2223 is connected to the processor 2221 and may be controlled to transmit and receive a wireless signal.
  • the memory 2212 and / or the memory 2222 may be respectively connected inside or outside the processor 2211 and / or the processor 2221, and may be connected to other processors through various technologies such as a wired or wireless connection. It may also be connected to.
  • the first device 2210 and / or the second device 2220 may have one or more antennas.
  • antenna 2214 and / or antenna 2224 may be configured to transmit and receive wireless signals.
  • FIG. 23 is another example of a block diagram of a wireless communication device to which the methods proposed herein may be applied.
  • a wireless communication system includes a base station 2310 and a plurality of terminals 2320 located in a base station area.
  • the base station may be represented by a transmitting device, the terminal may be represented by a receiving device, and vice versa.
  • the base station and the terminal are a processor (processor, 2311, 2321), memory (memory, 2314, 2324), one or more Tx / Rx RF module (radio frequency module, 2315, 2325), Tx processor (2312, 2232), Rx processor ( 2313 and 2323, and antennas 2316 and 2326.
  • the processor implements the salping functions, processes and / or methods above.
  • upper layer packets from the core network are provided to the processor 2311.
  • the processor implements the functionality of the L2 layer.
  • the processor provides the terminal 2320 with multiplexing and radio resource allocation between the logical channel and the transport channel and is responsible for signaling to the terminal.
  • the transmit (TX) processor 2312 implements various signal processing functions for the L1 layer (ie, the physical layer).
  • the signal processing function facilitates forward error correction (FEC) in the terminal and includes coding and interleaving.
  • FEC forward error correction
  • the encoded and modulated symbols are divided into parallel streams, each stream mapped to an OFDM subcarrier, multiplexed with a reference signal (RS) in the time and / or frequency domain, and using an Inverse Fast Fourier Transform (IFFT).
  • RS reference signal
  • IFFT Inverse Fast Fourier Transform
  • the OFDM stream is spatially precoded to produce multiple spatial streams.
  • Each spatial stream may be provided to different antennas 2316 via separate Tx / Rx modules (or transceivers 2315).
  • Each Tx / Rx module can modulate an RF carrier with each spatial stream for transmission.
  • each Tx / Rx module (or transceiver 2325) receives a signal through each antenna 2326 of each Tx / Rx module.
  • Each Tx / Rx module recovers information modulated onto an RF carrier and provides it to a receive (RX) processor 2323.
  • the RX processor implements the various signal processing functions of layer 1.
  • the RX processor may perform spatial processing on the information to recover any spatial stream destined for the terminal. If multiple spatial streams are directed to the terminal, they may be combined into a single OFDMA symbol stream by multiple RX processors.
  • the RX processor uses fast Fourier transform (FFT) to convert the OFDMA symbol stream from the time domain to the frequency domain.
  • the frequency domain signal includes a separate OFDMA symbol stream for each subcarrier of the OFDM signal.
  • the symbols and reference signal on each subcarrier are recovered and demodulated by determining the most likely signal placement points sent by the base station. Such soft decisions may be based on channel estimate values. Soft decisions are decoded and deinterleaved to recover the data and control signals originally sent by the base station on the physical channel. Corresponding data and control signals are provided to the processor 2321.
  • the UL (communication from terminal to base station) is processed at base station 2310 in a manner similar to that described with respect to receiver functionality at terminal 2320.
  • Each Tx / Rx module 2325 receives a signal through each antenna 2326.
  • Each Tx / Rx module provides an RF carrier and information to the RX processor 2323.
  • the processor 2321 may be associated with a memory 2324 that stores program code and data.
  • the memory may be referred to as a computer readable medium.
  • Embodiments according to the present invention may be implemented by various means, for example, hardware, firmware, software, or a combination thereof.
  • an embodiment of the present invention may include one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and FPGAs ( field programmable gate arrays), processors, controllers, microcontrollers, microprocessors, and the like.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • an embodiment of the present invention may be implemented in the form of a module, procedure, function, etc. that performs the functions or operations described above.
  • the software code may be stored in memory and driven by the processor.
  • the memory may be located inside or outside the processor, and may exchange data with the processor by various known means.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Power Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

본 발명의 일 실시예에 따른 단말이 위치 결정을 위한 측정 결과를 보고하는 방법은 상기 단말의 위치 결정을 위해 설정되는 복수의 기지국들에 포함되는 각 기지국과 상기 단말 간의 채널 특성이 가시선(Line of Sight: LoS)인지 여부를 판단하는 단계, 상기 채널 특성이 가시선(LoS)인 기지국들 중에서 어느 하나의 기지국을 참조 셀(reference cell)로 설정하여 RSTD(Reference Signal Time Difference)를 계산하는 단계 및 상기 RSTD를 포함하는 측정 결과를 보고하는 단계를 포함한다.

Description

무선 통신 시스템에서 위치 결정을 위한 측정 결과 보고 방법 및 그 장치
본 발명은 무선 통신 시스템에서 위치 결정을 위한 측정 결과 보고 방법 및 그 장치에 관한 것이다.
이동 통신 시스템은 사용자의 활동성을 보장하면서 음성 서비스를 제공하기 위해 개발되었다. 그러나 이동통신 시스템은 음성뿐 아니라 데이터 서비스까지 영역을 확장하였으며, 현재에는 폭발적인 트래픽의 증가로 인하여 자원의 부족 현상이 야기되고 사용자들이 보다 고속의 서비스를 요구하므로, 보다 발전된 이동 통신 시스템이 요구되고 있다.
차세대 이동 통신 시스템의 요구 조건은 크게 폭발적인 데이터 트래픽의 수용, 사용자 당 전송률의 획기적인 증가, 대폭 증가된 연결 디바이스 개수의 수용, 매우 낮은 단대단 지연(End-to-End Latency), 고에너지 효율을 지원할 수 있어야 한다. 이를 위하여 이중 연결성(Dual Connectivity), 대규모 다중 입출력(Massive MIMO: Massive Multiple Input Multiple Output), 전이중(In-band Full Duplex), 비직교 다중접속(NOMA: Non-Orthogonal Multiple Access), 초광대역(Super wideband) 지원, 단말 네트워킹(Device Networking) 등 다양한 기술들이 연구되고 있다.
본 발명의 목적은 다중 경로가 존재하는 상황에서 위치 측정의 성능을 개선할 수 있는 위치 결정을 위한 측정 결과를 보고하는 방법 및 그 장치를 제공하는 것이다.
또한 본 발명의 일 목적은 기지국과의 채널 특성을 고려하여 RSTD(Reference Signal Time Difference)를 계산하는 것이다.
또한 본 발명의 일 목적은 위치 결정의 정확도 개선에 기여할 수 있는 기지국으로부터만 PRS를 수신하는 것이다.
또한 본 발명의 일 목적은 위치 결정의 정확도 개선에 기여할 수 있는 기지국의 PRS를 보다 효율적으로 수신하는 것이다.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시예에 따른 단말이 위치 결정을 위한 측정 결과를 보고하는 방법은 상기 단말의 위치 결정을 위해 설정되는 복수의 기지국들에 포함되는 각 기지국과 상기 단말 간의 채널 특성이 가시선(Line of Sight: LoS)인지 여부를 판단하는 단계, 상기 채널 특성이 가시선(LoS)인 기지국들 중에서 어느 하나의 기지국을 참조 셀(reference cell)로 설정하여 RSTD(Reference Signal Time Difference)를 계산하는 단계 및 상기 RSTD를 포함하는 측정 결과를 보고하는 단계를 포함하는 것을 특징으로 한다.
상기 채널 특성이 가시선(LoS)인지 여부를 판단하는 단계에서 상기 단말과 상기 각 기지국간의 거리 정보를 기초로 계산된 가시선 유사도(LoS-likelihood)를 이용하여 상기 채널 특성을 가시선(LoS) 또는 비-가시선(Non-Light of Sight: NLoS)으로 결정하는 것을 특징으로 한다.
상기 가시선 유사도(LoS-likelihood)는 상기 거리 정보를 기초로 구성된 EDM(Euclidean Distance Matrix)의 계수(Rank)를 이용하여 계산되는 것을 특징으로 한다.
상기 RSTD를 계산하는 단계에서 상기 단말은 상기 채널 특성이 가시선(LoS)인 기지국들 중에서 상기 가시선 유사도(LoS-likelihood)가 기 설정된 값에 가장 가까운 기지국을 상기 참조 셀로 선택하는 것을 특징으로 한다.
상기 측정 결과는 상기 참조 셀의 식별자(ID), 상기 참조 셀의 가시선 유사도, 상기 채널 특성이 가시선(LoS)인 기지국들 각각의 식별자(ID), 해당 기지국들 각각의 가시선 유사도에 관한 정보 중에서 적어도 하나의 정보를 포함하는 것을 특징으로 한다.
상기 RSTD를 계산하는 단계는 상기 복수의 기지국들에 PRS 요청(Positioning Reference Signal request: PRS request)에 관한 신호를 전송하는 단계 및 상기 PRS 요청에 관한 신호에 따라 수신한 PRS를 이용하여 상기 RSTD를 계산하는 단계를 포함하고 상기 PRS 요청에 관한 신호는 상기 채널 특성에 따른 뮤팅 정보(muting information)를 포함하는 것을 특징으로 한다.
상기 PRS 요청에 관한 신호는 상기 복수의 기지국들 중에서 상기 채널 특성에 따라 선택되는 기지국들에 대한 정보를 포함하며, 상기 뮤팅 정보는 상기 복수의 기지국들 중에서 상기 선택되는 기지국들을 제외한 나머지 기지국들에 대한 뮤팅을 지시하는 정보인 것을 특징으로 한다.
상기 선택되는 기지국들은 상기 복수의 기지국들 중에서 상기 가시선 유사도(LoS-likelihood)의 값이 기 설정된 값에 가까운 순서로 선택된 기 설정된 개수의 기지국인 것인 특징으로 한다.
상기 PRS 요청에 관한 신호에 따라 수신한 PRS를 이용하여 상기 RSTD를 계산하는 단계는 상기 선택되는 기지국들의 PRS를 이용하여 상기 RSTD를 계산하며 상기 선택되는 기지국들의 PRS는 하나의 기지국의 PRS를 위해 할당되는 시간-주파수 자원 영역에 매핑된 것을 특징으로 한다.
상기 PRS 요청에 관한 신호에 따라 수신한 PRS를 이용하여 상기 RSTD를 계산하는 단계는 상기 복수의 기지국들 중에서 어느 하나의 기지국으로부터 PRS 그룹 정보(PRS grouping information)를 수신하는 단계 및 상기 PRS 그룹 정보를 이용하여 상기 선택되는 기지국들의 PRS를 수신하는 단계를 포함하며, 상기 PRS 그룹 정보는 상기 선택되는 기지국들에 포함되는 각 기지국의 PRS가 매핑된 자원 요소(resource element)를 지시하는 정보를 포함하는 것을 특징으로 한다.
본 발명의 다른 실시예에 따른 위치 결정을 위한 측정 결과를 보고하는 단말은 무선 신호를 전송하는 전송기(transmitter), 무선 신호를 수신하는 수신기(receiver) 및 상기 전송기 및 수신기를 제어하는 프로세서를 포함하고, 상기 프로세서는 상기 단말의 위치 결정을 위해 설정되는 복수의 기지국들에 포함되는 각 기지국과 상기 단말 간의 채널 특성이 가시선(Line of Sight: LoS)인지 여부를 판단하고, 상기 채널 특성이 가시선(LoS)인 기지국들 중에서 어느 하나의 기지국을 참조 셀(reference cell)로 설정하여 RSTD(reference signal time difference)를 계산하며 상기 RSTD를 포함하는 측정 결과를 보고하는 것을 특징으로 한다.
상기 프로세서는 상기 단말과 상기 각 기지국 간의 거리 정보를 기초로 EDM(Euclidean Distance Matrix)을 구성하고, 상기 EDM을 이용하여 가시선 유사도(LoS-likelihood)를 계산하며, 상기 가시선 유사도(LoS-likelihood)를 이용하여 상기 채널 특성을 가시선(LoS) 또는 비-가시선(Non-Light of Sight: NLoS)으로 결정하는 것을 특징으로 한다.
상기 프로세서는 상기 복수의 기지국들에 PRS 요청(Positioning Reference Signal request: PRS request)에 관한 신호를 전송하고, 상기 PRS 요청에 관한 신호에 따라 수신한 PRS를 이용하여 상기 RSTD를 계산하며, 상기 PRS 요청에 관한 신호는 상기 채널 특성에 따른 뮤팅 정보(muting information)를 포함하는 것을 특징으로 한다.
상기 PRS 요청에 관한 신호는 상기 복수의 기지국들 중에서 상기 채널 특성에 따라 선택되는 기지국들에 대한 정보를 포함하며, 상기 뮤팅 정보는 상기 복수의 기지국들 중에서 상기 선택되는 기지국들을 제외한 나머지 기지국들에 대한 뮤팅을 지시하는 정보인 것을 특징으로 한다.
본 발명의 또 다른 실시예에 따른 위치 결정을 위한 측정 결과를 보고하는 장치는 메모리 및 상기 메모리와 연결된 프로세서를 포함하고 상기 프로세서는 상기 단말의 위치 결정을 위한 복수의 기지국들에 포함되는 각 기지국과 상기 단말 간의 채널 특성이 가시선(Line of Sight: LoS)인지 여부를 판단하고 상기 채널 특성이 가시선(LoS)인 기지국들 중에서 어느 하나의 기지국을 참조 셀(reference cell)로 설정하여 RSTD(reference signal time difference)를 계산하며 상기 RSTD를 포함하는 측정 결과를 보고하도록 제어하는 것을 특징으로 한다.
본 발명은 단말의 위치 측정을 위해 설정되는 복수의 기지국과 단말 간의 채널 특성이 가시선(Line of Sight: LoS)인지 비-가시선(Non-Light of Sight: NLoS)인지 여부를 판단하며, 상기 복수의 기지국 중에서 상기 채널 특성이 가시선(LoS)인 기지국을 참조 셀(Reference cell)로 선정하여 RSTD를 계산한다. 따라서 다중 경로가 존재하는 상황에서 위치 측정의 정확도가 개선된다.
또한 본 발명은 채널 특성에 따라 선택된 기지국들의 PRS(Positioning Reference Signal)를 이용하여 RSTD를 계산하는 바, 위치 측정의 정확도를 보다 개선시킬 수 있다.
또한 본 발명은 PRS 요청 신호를 전송함에 있어 상기 채널 특성에 따른 뮤팅 정보를 포함시키는 바, 상기 복수의 기지국 중에서 상기 채널 특성이 가시선(NLoS)인 기지국의 PRS는 수신하며 그렇지 않은 기지국들의 PRS는 차단할 수 있다. 따라서 PRS 수신의 이득(gain)을 높일 수 있다.
또한 본 발명은 상기 채널 특성에 따라 선택되는 기지국들의 PRS는 하나의 PRS를 위해 할당되는 시간-주파수 자원에 매핑되며, 각 기지국의 PRS가 매핑된 자원 요소를 지시하는 정보인 PRS 그룹 정보(PRS grouping information)를 이용하여 수신할 수 있다. 따라서 PRS 전송을 위해 설정되는 한정된 자원을 보다 효율적으로 사용할 수 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시 예에 따른 AI 장치(100)를 나타낸다.
도 2는 본 발명의 일 실시 예에 따른 AI 서버(200)를 나타낸다.
도 3은 본 발명의 일 실시 예에 따른 AI 시스템(1)을 나타낸다.
도 4는 본 명세서에서 제안하는 방법이 적용될 수 있는 NR의 전체적인 시스템 구조의 일례를 나타낸 도이다.
도 5는 본 명세서에서 제안하는 방법이 적용될 수 있는 무선 통신 시스템에서 상향링크 프레임과 하향링크 프레임 간의 관계를 나타낸다.
도 6은 본 발명이 적용될 수 있는 무선 통신 시스템에서 무선 프레임의 구조를 나타낸다.
도 7은 본 명세서에서 제안하는 방법이 적용될 수 있는 무선 통신 시스템에서 지원하는 자원 그리드(resource grid)의 일 예를 나타낸다.
도 8은 본 발명이 적용될 수 있는 무선 통신 시스템에서 하향링크 서브 프레임의 구조를 나타낸다.
도 9는 본 발명이 적용될 수 있는 무선 통신 시스템에서 상향링크 서브 프레임의 구조를 나타낸다.
도 10은 단말의 위치 결정을 위한 OTDOA 방법을 예시하는 도면이다.
도 11은 PRS가 자원 요소에 할당된 패턴을 나타낸 도면이다.
도 12는 LPP를 통해 OTDOA를 수행하는 절차를 설명하기 위한 도면이다.
도 13은 다중 경로가 존재하는 상황에서 채널 특성의 판별 여부에 따른 위치 측정을 설명하기 위한 도면이다.
도 14 내지 도 18은 본 발명을 적용하여 LPP 절차를 개선시킬 수 있는 전처리 절차의 다양한 실시예를 설명하기 위한 도면이다.
도 19는 본 발명의 일 실시예에 따른 위치 결정을 위한 측정 결과를 보고하는 방법을 설명하기 위한 흐름도이다.
도 20은 본 발명의 일 실시예에 따른 위치 결정을 위한 측정 결과를 보고하는 방법에서 채널 특성을 판단하는 단계를 구체적으로 설명하기 위한 흐름도이다.
도 21은 본 발명의 일 실시예에 따른 위치 결정을 위한 측정 결과를 보고하는 방법에서 RSTD를 계산하는 단계를 구체적으로 설명하기 위한 흐름도이다.
도 22는 본 발명의 다른 실시예에 따라 본 명세서에서 제안하는 방법들이 적용될 수 있는 무선 통신 장치를 도시한 것이다.
도 23은 본 명세서에서 제안하는 방법들이 적용될 수 있는 무선 통신 장치의 블록 구성도의 또 다른 예시이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 동일하거나 유사한 구성요소에는 동일, 유사한 도면 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본 명세서에서 기지국은 단말과 직접적으로 통신을 수행하는 네트워크의 종단 노드(terminal node)로서의 의미를 갖는다. 본 문서에서 기지국에 의해 수행되는 것으로 설명된 특정 동작은 경우에 따라서는 기지국의 상위 노드(upper node)에 의해 수행될 수도 있다. 즉, 기지국을 포함하는 다수의 네트워크 노드들(network nodes)로 이루어지는 네트워크에서 단말과의 통신을 위해 수행되는 다양한 동작들은 기지국 또는 기지국 이외의 다른 네트워크 노드들에 의해 수행될 수 있음은 자명하다. '기지국(BS: Base Station)'은 고정국(fixed station), Node B, eNB(evolved-NodeB), BTS(base transceiver system), 액세스 포인트(AP: Access Point), gNB(general NB) 등의 용어에 의해 대체될 수 있다. 또한, '단말(Terminal)'은 고정되거나 이동성을 가질 수 있으며, UE(User Equipment), MS(Mobile Station), UT(user terminal), MSS(Mobile Subscriber Station), SS(Subscriber Station), AMS(Advanced Mobile Station), WT(Wireless terminal), MTC(Machine-Type Communication) 장치, M2M(Machine-to-Machine) 장치, D2D(Device-to-Device) 장치 등의 용어로 대체될 수 있다.
이하에서, 하향링크(DL: downlink)는 기지국에서 단말로의 통신을 의미하며, 상향링크(UL: uplink)는 단말에서 기지국으로의 통신을 의미한다. 하향링크에서 송신기는 기지국의 일부이고, 수신기는 단말의 일부일 수 있다. 상향링크에서 송신기는 단말의 일부이고, 수신기는 기지국의 일부일 수 있다.
이하의 설명에서 사용되는 특정 용어들은 본 발명의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 발명의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.
이하의 기술은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access), NOMA(non-orthogonal multiple access) 등과 같은 다양한 무선 접속 시스템에 이용될 수 있다. CDMA는 UTRA(universal terrestrial radio access)나 CDMA2000과 같은 무선 기술(radio technology)로 구현될 수 있다. TDMA는 GSM(global system for mobile communications)/GPRS(general packet radio service)/EDGE(enhanced data rates for GSM evolution)와 같은 무선 기술로 구현될 수 있다. OFDMA는 IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802-20, E-UTRA(evolved UTRA) 등과 같은 무선 기술로 구현될 수 있다. UTRA는 UMTS(universal mobile telecommunications system)의 일부이다. 3GPP(3rd generation partnership project) LTE(long term evolution)은 E-UTRA를 사용하는 E-UMTS(evolved UMTS)의 일부로써, 하향링크에서 OFDMA를 채용하고 상향링크에서 SC-FDMA를 채용한다. LTE-A(advanced)는 3GPP LTE의 진화이다.
본 발명의 실시 예들은 무선 접속 시스템들인 IEEE 802, 3GPP 및 3GPP2 중 적어도 하나에 개시된 표준 문서들에 의해 뒷받침될 수 있다. 즉, 본 발명의 실시 예들 중 본 발명의 기술적 사상을 명확히 드러내기 위해 설명하지 않은 단계들 또는 부분들은 상기 문서들에 의해 뒷받침될 수 있다. 또한, 본 문서에서 개시하고 있는 모든 용어들은 상기 표준 문서에 의해 설명될 수 있다.
설명을 명확하게 하기 위해, 3GPP LTE/LTE-A/NR(New Radio)를 위주로 기술하지만 본 발명의 기술적 특징이 이에 제한되는 것은 아니다.
5G의 세 가지 주요 요구 사항 영역은 (1) 개선된 모바일 광대역 (Enhanced Mobile Broadband, eMBB) 영역, (2) 다량의 머신 타입 통신 (massive Machine Type Communication, mMTC) 영역 및 (3) 초-신뢰 및 저 지연 통신 (Ultra-reliable and Low Latency Communications, URLLC) 영역을 포함한다.
일부 사용 예(Use Case)는 최적화를 위해 다수의 영역들이 요구될 수 있고, 다른 사용 예는 단지 하나의 핵심 성능 지표 (Key Performance Indicator, KPI)에만 포커싱될 수 있다. 5G는 이러한 다양한 사용 예들을 유연하고 신뢰할 수 있는 방법으로 지원하는 것이다.
eMBB는 기본적인 모바일 인터넷 액세스를 훨씬 능가하게 하며, 풍부한 양방향 작업, 클라우드 또는 증강 현실에서 미디어 및 엔터테인먼트 애플리케이션을 커버한다. 데이터는 5G의 핵심 동력 중 하나이며, 5G 시대에서 처음으로 전용 음성 서비스를 볼 수 없을 수 있다. 5G에서, 음성은 단순히 통신 시스템에 의해 제공되는 데이터 연결을 사용하여 응용 프로그램으로서 처리될 것이 기대된다. 증가된 트래픽 양(volume)을 위한 주요 원인들은 콘텐츠 크기의 증가 및 높은 데이터 전송률을 요구하는 애플리케이션 수의 증가이다. 스트리밍 서비스 (오디오 및 비디오), 대화형 비디오 및 모바일 인터넷 연결은 더 많은 장치가 인터넷에 연결될수록 더 널리 사용될 것이다. 이러한 많은 응용 프로그램들은 사용자에게 실시간 정보 및 알림을 푸쉬하기 위해 항상 켜져 있는 연결성이 필요하다. 클라우드 스토리지 및 애플리케이션은 모바일 통신 플랫폼에서 급속히 증가하고 있으며, 이것은 업무 및 엔터테인먼트 모두에 적용될 수 있다. 그리고, 클라우드 스토리지는 상향링크 데이터 전송률의 성장을 견인하는 특별한 사용 예이다. 5G는 또한 클라우드의 원격 업무에도 사용되며, 촉각 인터페이스가 사용될 때 우수한 사용자 경험을 유지하도록 훨씬 더 낮은 단-대-단(end-to-end) 지연을 요구한다. 엔터테인먼트 예를 들어, 클라우드 게임 및 비디오 스트리밍은 모바일 광대역 능력에 대한 요구를 증가시키는 또 다른 핵심 요소이다. 엔터테인먼트는 기차, 차 및 비행기와 같은 높은 이동성 환경을 포함하는 어떤 곳에서든지 스마트폰 및 태블릿에서 필수적이다. 또 다른 사용 예는 엔터테인먼트를 위한 증강 현실 및 정보 검색이다. 여기서, 증강 현실은 매우 낮은 지연과 순간적인 데이터 양을 필요로 한다.
또한, 가장 많이 예상되는 5G 사용 예 중 하나는 모든 분야에서 임베디드 센서를 원활하게 연결할 수 있는 기능 즉, mMTC에 관한 것이다. 2020년까지 잠재적인 IoT 장치들은 204 억 개에 이를 것으로 예측된다. 산업 IoT는 5G가 스마트 도시, 자산 추적(asset tracking), 스마트 유틸리티, 농업 및 보안 인프라를 가능하게 하는 주요 역할을 수행하는 영역 중 하나이다.
URLLC는 주요 인프라의 원격 제어 및 자체-구동 차량(self-driving vehicle)과 같은 초 신뢰 / 이용 가능한 지연이 적은 링크를 통해 산업을 변화시킬 새로운 서비스를 포함한다. 신뢰성과 지연의 수준은 스마트 그리드 제어, 산업 자동화, 로봇 공학, 드론 제어 및 조정에 필수적이다.
다음으로, 다수의 사용 예들에 대해 보다 구체적으로 살펴본다.
5G는 초당 수백 메가 비트에서 초당 기가 비트로 평가되는 스트림을 제공하는 수단으로 FTTH (fiber-to-the-home) 및 케이블 기반 광대역 (또는 DOCSIS)을 보완할 수 있다. 이러한 빠른 속도는 가상 현실과 증강 현실뿐 아니라 4K 이상(6K, 8K 및 그 이상)의 해상도로 TV를 전달하는데 요구된다. VR(Virtual Reality) 및 AR(Augmented Reality) 애플리케이션들은 거의 몰입형(immersive) 스포츠 경기를 포함한다. 특정 응용 프로그램은 특별한 네트워크 설정이 요구될 수 있다. 예를 들어, VR 게임의 경우, 게임 회사들이 지연을 최소화하기 위해 코어 서버를 네트워크 오퍼레이터의 에지 네트워크 서버와 통합해야 할 수 있다.
자동차(Automotive)는 차량에 대한 이동 통신을 위한 많은 사용 예들과 함께 5G에 있어 중요한 새로운 동력이 될 것으로 예상된다. 예를 들어, 승객을 위한 엔터테인먼트는 동시의 높은 용량과 높은 이동성 모바일 광대역을 요구한다. 그 이유는 미래의 사용자는 그들의 위치 및 속도와 관계 없이 고품질의 연결을 계속해서 기대하기 때문이다. 자동차 분야의 다른 활용 예는 증강 현실 대시보드이다. 이는 운전자가 앞면 창을 통해 보고 있는 것 위에 어둠 속에서 물체를 식별하고, 물체의 거리와 움직임에 대해 운전자에게 말해주는 정보를 겹쳐서 디스플레이 한다. 미래에, 무선 모듈은 차량들 간의 통신, 차량과 지원하는 인프라구조 사이에서 정보 교환 및 자동차와 다른 연결된 디바이스들(예를 들어, 보행자에 의해 수반되는 디바이스들) 사이에서 정보 교환을 가능하게 한다. 안전 시스템은 운전자가 보다 안전한 운전을 할 수 있도록 행동의 대체 코스들을 안내하여 사고의 위험을 낮출 수 있게 한다. 다음 단계는 원격 조종되거나 자체 운전 차량(self-driven vehicle)이 될 것이다. 이는 서로 다른 자체 운전 차량들 사이 및 자동차와 인프라 사이에서 매우 신뢰성이 있고, 매우 빠른 통신을 요구한다. 미래에, 자체 운전 차량이 모든 운전 활동을 수행하고, 운전자는 차량 자체가 식별할 수 없는 교통 이상에만 집중하도록 할 것이다. 자체 운전 차량의 기술적 요구 사항은 트래픽 안전을 사람이 달성할 수 없을 정도의 수준까지 증가하도록 초 저 지연과 초고속 신뢰성을 요구한다.
스마트 사회(smart society)로서 언급되는 스마트 도시와 스마트 홈은 고밀도 무선 센서 네트워크로 임베디드될 것이다. 지능형 센서의 분산 네트워크는 도시 또는 집의 비용 및 에너지-효율적인 유지에 대한 조건을 식별할 것이다. 유사한 설정이 각 가정을 위해 수행될 수 있다. 온도 센서, 창 및 난방 컨트롤러, 도난 경보기 및 가전 제품들은 모두 무선으로 연결된다. 이러한 센서들 중 많은 것들이 전형적으로 낮은 데이터 전송 속도, 저전력 및 저비용이다. 하지만, 예를 들어, 실시간 HD 비디오는 감시를 위해 특정 타입의 장치에서 요구될 수 있다.
열 또는 가스를 포함한 에너지의 소비 및 분배는 고도로 분산화되고 있어, 분산 센서 네트워크의 자동화된 제어가 요구된다. 스마트 그리드는 정보를 수집하고 이에 따라 행동하도록 디지털 정보 및 통신 기술을 사용하여 이런 센서들을 상호 연결한다. 이 정보는 공급 업체와 소비자의 행동을 포함할 수 있으므로, 스마트 그리드가 효율성, 신뢰성, 경제성, 생산의 지속 가능성 및 자동화된 방식으로 전기와 같은 연료들의 분배를 개선하도록 할 수 있다. 스마트 그리드는 지연이 적은 다른 센서 네트워크로 볼 수도 있다.
건강 부문은 이동 통신의 혜택을 누릴 수 있는 많은 응용 프로그램을 보유하고 있다. 통신 시스템은 멀리 떨어진 곳에서 임상 진료를 제공하는 원격 진료를 지원할 수 있다. 이는 거리에 대한 장벽을 줄이는데 도움을 주고, 거리가 먼 농촌에서 지속적으로 이용하지 못하는 의료 서비스들로의 접근을 개선시킬 수 있다. 이는 또한 중요한 진료 및 응급 상황에서 생명을 구하기 위해 사용된다. 이동 통신 기반의 무선 센서 네트워크는 심박수 및 혈압과 같은 파라미터들에 대한 원격 모니터링 및 센서들을 제공할 수 있다.
무선 및 모바일 통신은 산업 응용 분야에서 점차 중요해지고 있다. 배선은 설치 및 유지 비용이 높다. 따라서, 케이블을 재구성할 수 있는 무선 링크들로의 교체 가능성은 많은 산업 분야에서 매력적인 기회이다. 그러나, 이를 달성하는 것은 무선 연결이 케이블과 비슷한 지연, 신뢰성 및 용량으로 동작하는 것과, 그 관리가 단순화될 것이 요구된다. 낮은 지연과 매우 낮은 오류 확률은 5G로 연결될 필요가 있는 새로운 요구 사항이다.
물류(logistics) 및 화물 추적(freight tracking)은 위치 기반 정보 시스템을 사용하여 어디에서든지 인벤토리(inventory) 및 패키지의 추적을 가능하게 하는 이동 통신에 대한 중요한 사용 예이다. 물류 및 화물 추적의 사용 예는 전형적으로 낮은 데이터 속도를 요구하지만 넓은 범위와 신뢰성 있는 위치 정보가 필요하다.
본 명세서에서 후술할 본 발명은 전술한 5G의 요구 사항을 만족하도록 각 실시예를 조합하거나 변경하여 구현될 수 있다.
이하에서는 후술할 본 발명이 응용될 수 있는 기술분야와 관련하여 구체적으로 설명한다.
인공 지능(AI: Artificial Intelligence)
인공 지능은 인공적인 지능 또는 이를 만들 수 있는 방법론을 연구하는 분야를 의미하며, 머신 러닝(기계 학습, Machine Learning)은 인공 지능 분야에서 다루는 다양한 문제를 정의하고 그것을 해결하는 방법론을 연구하는 분야를 의미한다. 머신 러닝은 어떠한 작업에 대하여 꾸준한 경험을 통해 그 작업에 대한 성능을 높이는 알고리즘으로 정의하기도 한다.
인공 신경망(ANN: Artificial Neural Network)은 머신 러닝에서 사용되는 모델로써, 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 인공 신경망은 다른 레이어의 뉴런들 사이의 연결 패턴, 모델 파라미터를 갱신하는 학습 과정, 출력값을 생성하는 활성화 함수(Activation Function)에 의해 정의될 수 있다.
인공 신경망은 입력층(Input Layer), 출력층(Output Layer), 그리고 선택적으로 하나 이상의 은닉층(Hidden Layer)를 포함할 수 있다. 각 층은 하나 이상의 뉴런을 포함하고, 인공 신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다. 인공 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호들, 가중치, 편향에 대한 활성 함수의 함숫값을 출력할 수 있다.
모델 파라미터는 학습을 통해 결정되는 파라미터를 의미하며, 시냅스 연결의 가중치와 뉴런의 편향 등이 포함된다. 그리고, 하이퍼파라미터는 머신 러닝 알고리즘에서 학습 전에 설정되어야 하는 파라미터를 의미하며, 학습률(Learning Rate), 반복 횟수, 미니 배치 크기, 초기화 함수 등이 포함된다.
인공 신경망의 학습의 목적은 손실 함수를 최소화하는 모델 파라미터를 결정하는 것으로 볼 수 있다. 손실 함수는 인공 신경망의 학습 과정에서 최적의 모델 파라미터를 결정하기 위한 지표로 이용될 수 있다.
머신 러닝은 학습 방식에 따라 지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning)으로 분류할 수 있다.
지도 학습은 학습 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시키는 방법을 의미하며, 레이블이란 학습 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과 값)을 의미할 수 있다. 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다. 강화 학습은 어떤 환경 안에서 정의된 에이전트가 각 상태에서 누적 보상을 최대화하는 행동 혹은 행동 순서를 선택하도록 학습시키는 학습 방법을 의미할 수 있다.
인공 신경망 중에서 복수의 은닉층을 포함하는 심층 신경망(DNN: Deep Neural Network)으로 구현되는 머신 러닝을 딥 러닝(심층 학습, Deep Learning)이라 부르기도 하며, 딥 러닝은 머신 러닝의 일부이다. 이하에서, 머신 러닝은 딥 러닝을 포함하는 의미로 사용된다.
로봇(Robot)
로봇은 스스로 보유한 능력에 의해 주어진 일을 자동으로 처리하거나 작동하는 기계를 의미할 수 있다. 특히, 환경을 인식하고 스스로 판단하여 동작을 수행하는 기능을 갖는 로봇을 지능형 로봇이라 칭할 수 있다.
로봇은 사용 목적이나 분야에 따라 산업용, 의료용, 가정용, 군사용 등으로 분류할 수 있다.
로봇은 액츄에이터 또는 모터를 포함하는 구동부를 구비하여 로봇 관절을 움직이는 등의 다양한 물리적 동작을 수행할 수 있다. 또한, 이동 가능한 로봇은 구동부에 휠, 브레이크, 프로펠러 등이 포함되어, 구동부를 통해 지상에서 주행하거나 공중에서 비행할 수 있다.
자율 주행(Self-Driving, Autonomous-Driving)
자율 주행은 스스로 주행하는 기술을 의미하며, 자율 주행 차량은 사용자의 조작 없이 또는 사용자의 최소한의 조작으로 주행하는 차량(Vehicle)을 의미한다.
예컨대, 자율 주행에는 주행중인 차선을 유지하는 기술, 어댑티브 크루즈 컨트롤과 같이 속도를 자동으로 조절하는 기술, 정해진 경로를 따라 자동으로 주행하는 기술, 목적지가 설정되면 자동으로 경로를 설정하여 주행하는 기술 등이 모두 포함될 수 있다.
차량은 내연 기관만을 구비하는 차량, 내연 기관과 전기 모터를 함께 구비하는 하이브리드 차량, 그리고 전기 모터만을 구비하는 전기 차량을 모두 포괄하며, 자동차뿐만 아니라 기차, 오토바이 등을 포함할 수 있다.
이때, 자율 주행 차량은 자율 주행 기능을 가진 로봇으로 볼 수 있다.
확장 현실( XR : eXtended Reality)
확장 현실은 가상 현실(VR: Virtual Reality), 증강 현실(AR: Augmented Reality), 혼합 현실(MR: Mixed Reality)을 총칭한다. VR 기술은 현실 세계의 객체나 배경 등을 CG 영상으로만 제공하고, AR 기술은 실제 사물 영상 위에 가상으로 만들어진 CG 영상을 함께 제공하며, MR 기술은 현실 세계에 가상 객체들을 섞고 결합시켜서 제공하는 컴퓨터 그래픽 기술이다.
MR 기술은 현실 객체와 가상 객체를 함께 보여준다는 점에서 AR 기술과 유사하다. 그러나, AR 기술에서는 가상 객체가 현실 객체를 보완하는 형태로 사용되는 반면, MR 기술에서는 가상 객체와 현실 객체가 동등한 성격으로 사용된다는 점에서 차이점이 있다.
XR 기술은 HMD(Head-Mount Display), HUD(Head-Up Display), 휴대폰, 태블릿 PC, 랩탑, 데스크탑, TV, 디지털 사이니지 등에 적용될 수 있고, XR 기술이 적용된 장치를 XR 장치(XR Device)라 칭할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 AI 장치(100)를 나타낸다.
AI 장치(100)는 TV, 프로젝터, 휴대폰, 스마트폰, 데스크탑 컴퓨터, 노트북, 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), DMB 수신기, 라디오, 세탁기, 냉장고, 데스크탑 컴퓨터, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다.
도 1을 참조하면, 단말기(100)는 통신부(110), 입력부(120), 러닝 프로세서(130), 센싱부(140), 출력부(150), 메모리(170) 및 프로세서(180) 등을 포함할 수 있다.
통신부(110)는 유무선 통신 기술을 이용하여 다른 AI 장치(100a 내지 100e)나 AI 서버(200) 등의 외부 장치들과 데이터를 송수신할 수 있다. 예컨대, 통신부(110)는 외부 장치들과 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등을 송수신할 수 있다.
이때, 통신부(110)가 이용하는 통신 기술에는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth쪠), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등이 있다.
입력부(120)는 다양한 종류의 데이터를 획득할 수 있다.
이때, 입력부(120)는 영상 신호 입력을 위한 카메라, 오디오 신호를 수신하기 위한 마이크로폰, 사용자로부터 정보를 입력 받기 위한 사용자 입력부 등을 포함할 수 있다. 여기서, 카메라나 마이크로폰을 센서로 취급하여, 카메라나 마이크로폰으로부터 획득한 신호를 센싱 데이터 또는 센서 정보라고 할 수도 있다.
입력부(120)는 모델 학습을 위한 학습 데이터 및 학습 모델을 이용하여 출력을 획득할 때 사용될 입력 데이터 등을 획득할 수 있다. 입력부(120)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 프로세서(180) 또는 러닝 프로세서(130)는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있다.
러닝 프로세서(130)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 여기서, 학습된 인공 신경망을 학습 모델이라 칭할 수 있다. 학습 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.
이때, 러닝 프로세서(130)는 AI 서버(200)의 러닝 프로세서(240)와 함께 AI 프로세싱을 수행할 수 있다.
이때, 러닝 프로세서(130)는 AI 장치(100)에 통합되거나 구현된 메모리를 포함할 수 있다. 또는, 러닝 프로세서(130)는 메모리(170), AI 장치(100)에 직접 결합된 외부 메모리 또는 외부 장치에서 유지되는 메모리를 사용하여 구현될 수도 있다.
센싱부(140)는 다양한 센서들을 이용하여 AI 장치(100) 내부 정보, AI 장치(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 획득할 수 있다.
이때, 센싱부(140)에 포함되는 센서에는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 라이다, 레이더 등이 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다.
이때, 출력부(150)에는 시각 정보를 출력하는 디스플레이부, 청각 정보를 출력하는 스피커, 촉각 정보를 출력하는 햅틱 모듈 등이 포함될 수 있다.
메모리(170)는 AI 장치(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예컨대, 메모리(170)는 입력부(120)에서 획득한 입력 데이터, 학습 데이터, 학습 모델, 학습 히스토리 등을 저장할 수 있다.
프로세서(180)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 장치(100)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 프로세서(180)는 AI 장치(100)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다.
이를 위해, 프로세서(180)는 러닝 프로세서(130) 또는 메모리(170)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 상기 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 장치(100)의 구성 요소들을 제어할 수 있다.
이때, 프로세서(180)는 결정된 동작을 수행하기 위하여 외부 장치의 연계가 필요한 경우, 해당 외부 장치를 제어하기 위한 제어 신호를 생성하고, 생성한 제어 신호를 해당 외부 장치에 전송할 수 있다.
프로세서(180)는 사용자 입력에 대하여 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 사용자의 요구 사항을 결정할 수 있다.
이때, 프로세서(180)는 음성 입력을 문자열로 변환하기 위한 STT(Speech To Text) 엔진 또는 자연어의 의도 정보를 획득하기 위한 자연어 처리(NLP: Natural Language Processing) 엔진 중에서 적어도 하나 이상을 이용하여, 사용자 입력에 상응하는 의도 정보를 획득할 수 있다.
이때, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 적어도 일부가 머신 러닝 알고리즘에 따라 학습된 인공 신경망으로 구성될 수 있다. 그리고, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 러닝 프로세서(130)에 의해 학습된 것이나, AI 서버(200)의 러닝 프로세서(240)에 의해 학습된 것이거나, 또는 이들의 분산 처리에 의해 학습된 것일 수 있다.
프로세서(180)는 AI 장치(100)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리(170) 또는 러닝 프로세서(130)에 저장하거나, AI 서버(200) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.
프로세서(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, AI 장치(100)의 구성 요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(180)는 상기 응용 프로그램의 구동을 위하여, AI 장치(100)에 포함된 구성 요소들 중 둘 이상을 서로 조합하여 동작시킬 수 있다.
도 2는 본 발명의 일 실시 예에 따른 AI 서버(200)를 나타낸다.
도 2를 참조하면, AI 서버(200)는 머신 러닝 알고리즘을 이용하여 인공 신경망을 학습시키거나 학습된 인공 신경망을 이용하는 장치를 의미할 수 있다. 여기서, AI 서버(200)는 복수의 서버들로 구성되어 분산 처리를 수행할 수도 있고, 5G 네트워크로 정의될 수 있다. 이때, AI 서버(200)는 AI 장치(100)의 일부의 구성으로 포함되어, AI 프로세싱 중 적어도 일부를 함께 수행할 수도 있다.
AI 서버(200)는 통신부(210), 메모리(230), 러닝 프로세서(240) 및 프로세서(260) 등을 포함할 수 있다.
통신부(210)는 AI 장치(100) 등의 외부 장치와 데이터를 송수신할 수 있다.
메모리(230)는 모델 저장부(231)를 포함할 수 있다. 모델 저장부(231)는 러닝 프로세서(240)를 통하여 학습 중인 또는 학습된 모델(또는 인공 신경망, 231a)을 저장할 수 있다.
러닝 프로세서(240)는 학습 데이터를 이용하여 인공 신경망(231a)을 학습시킬 수 있다. 학습 모델은 인공 신경망의 AI 서버(200)에 탑재된 상태에서 이용되거나, AI 장치(100) 등의 외부 장치에 탑재되어 이용될 수도 있다.
학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다. 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어(instruction)는 메모리(230)에 저장될 수 있다.
프로세서(260)는 학습 모델을 이용하여 새로운 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수 있다.
도 3은 본 발명의 일 실시 예에 따른 AI 시스템(1)을 나타낸다.
도 3을 참조하면, AI 시스템(1)은 AI 서버(200), 로봇(100a), 자율 주행 차량(100b), XR 장치(100c), 스마트폰(100d) 또는 가전(100e) 중에서 적어도 하나 이상이 클라우드 네트워크(10)와 연결된다. 여기서, AI 기술이 적용된 로봇(100a), 자율 주행 차량(100b), XR 장치(100c), 스마트폰(100d) 또는 가전(100e) 등을 AI 장치(100a 내지 100e)라 칭할 수 있다.
클라우드 네트워크(10)는 클라우드 컴퓨팅 인프라의 일부를 구성하거나 클라우드 컴퓨팅 인프라 안에 존재하는 네트워크를 의미할 수 있다. 여기서, 클라우드 네트워크(10)는 3G 네트워크, 4G 또는 LTE(Long Term Evolution) 네트워크 또는 5G 네트워크 등을 이용하여 구성될 수 있다.
즉, AI 시스템(1)을 구성하는 각 장치들(100a 내지 100e, 200)은 클라우드 네트워크(10)를 통해 서로 연결될 수 있다. 특히, 각 장치들(100a 내지 100e, 200)은 기지국을 통해서 서로 통신할 수도 있지만, 기지국을 통하지 않고 직접 서로 통신할 수도 있다.
AI 서버(200)는 AI 프로세싱을 수행하는 서버와 빅 데이터에 대한 연산을 수행하는 서버를 포함할 수 있다.
AI 서버(200)는 AI 시스템(1)을 구성하는 AI 장치들인 로봇(100a), 자율 주행 차량(100b), XR 장치(100c), 스마트폰(100d) 또는 가전(100e) 중에서 적어도 하나 이상과 클라우드 네트워크(10)를 통하여 연결되고, 연결된 AI 장치들(100a 내지 100e)의 AI 프로세싱을 적어도 일부를 도울 수 있다.
이때, AI 서버(200)는 AI 장치(100a 내지 100e)를 대신하여 머신 러닝 알고리즘에 따라 인공 신경망을 학습시킬 수 있고, 학습 모델을 직접 저장하거나 AI 장치(100a 내지 100e)에 전송할 수 있다.
이때, AI 서버(200)는 AI 장치(100a 내지 100e)로부터 입력 데이터를 수신하고, 학습 모델을 이용하여 수신한 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성하여 AI 장치(100a 내지 100e)로 전송할 수 있다.
또는, AI 장치(100a 내지 100e)는 직접 학습 모델을 이용하여 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수도 있다.
이하에서는, 상술한 기술이 적용되는 AI 장치(100a 내지 100e)의 다양한 실시 예들을 설명한다. 여기서, 도 3에 도시된 AI 장치(100a 내지 100e)는 도 1에 도시된 AI 장치(100)의 구체적인 실시 예로 볼 수 있다.
본 발명이 적용될 수 있는 AI 및 로봇
로봇(100a)은 AI 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.
로봇(100a)은 동작을 제어하기 위한 로봇 제어 모듈을 포함할 수 있고, 로봇 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다.
로봇(100a)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 로봇(100a)의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 사용자 상호작용에 대한 응답을 결정하거나, 동작을 결정할 수 있다.
여기서, 로봇(100a)은 이동 경로 및 주행 계획을 결정하기 위하여, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.
로봇(100a)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 로봇(100a)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 동작을 결정할 수 있다. 여기서, 학습 모델은 로봇(100a)에서 직접 학습되거나, AI 서버(200) 등의 외부 장치에서 학습된 것일 수 있다.
이때, 로봇(100a)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(200) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
로봇(100a)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 로봇(100a)을 주행시킬 수 있다.
맵 데이터에는 로봇(100a)이 이동하는 공간에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 벽, 문 등의 고정 객체들과 화분, 책상 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.
또한, 로봇(100a)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이때, 로봇(100a)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.
본 발명이 적용될 수 있는 AI 및 자율주행
자율 주행 차량(100b)은 AI 기술이 적용되어, 이동형 로봇, 차량, 무인 비행체 등으로 구현될 수 있다.
자율 주행 차량(100b)은 자율 주행 기능을 제어하기 위한 자율 주행 제어 모듈을 포함할 수 있고, 자율 주행 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다. 자율 주행 제어 모듈은 자율 주행 차량(100b)의 구성으로써 내부에 포함될 수도 있지만, 자율 주행 차량(100b)의 외부에 별도의 하드웨어로 구성되어 연결될 수도 있다.
자율 주행 차량(100b)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 자율 주행 차량(100b)의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 동작을 결정할 수 있다.
여기서, 자율 주행 차량(100b)은 이동 경로 및 주행 계획을 결정하기 위하여, 로봇(100a)과 마찬가지로, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.
특히, 자율 주행 차량(100b)은 시야가 가려지는 영역이나 일정 거리 이상의 영역에 대한 환경이나 객체는 외부 장치들로부터 센서 정보를 수신하여 인식하거나, 외부 장치들로부터 직접 인식된 정보를 수신할 수 있다.
자율 주행 차량(100b)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 자율 주행 차량(100b)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 주행 동선을 결정할 수 있다. 여기서, 학습 모델은 자율 주행 차량(100b)에서 직접 학습되거나, AI 서버(200) 등의 외부 장치에서 학습된 것일 수 있다.
이때, 자율 주행 차량(100b)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(200) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
자율 주행 차량(100b)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 자율 주행 차량(100b)을 주행시킬 수 있다.
맵 데이터에는 자율 주행 차량(100b)이 주행하는 공간(예컨대, 도로)에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 가로등, 바위, 건물 등의 고정 객체들과 차량, 보행자 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.
또한, 자율 주행 차량(100b)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이때, 자율 주행 차량(100b)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.
본 발명이 적용될 수 있는 AI 및 XR
XR 장치(100c)는 AI 기술이 적용되어, HMD(Head-Mount Display), 차량에 구비된 HUD(Head-Up Display), 텔레비전, 휴대폰, 스마트 폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지, 차량, 고정형 로봇이나 이동형 로봇 등으로 구현될 수 있다.
XR 장치(100c)는 다양한 센서들을 통해 또는 외부 장치로부터 획득한 3차원 포인트 클라우드 데이터 또는 이미지 데이터를 분석하여 3차원 포인트들에 대한 위치 데이터 및 속성 데이터를 생성함으로써 주변 공간 또는 현실 객체에 대한 정보를 획득하고, 출력할 XR 객체를 렌더링하여 출력할 수 있다. 예컨대, XR 장치(100c)는 인식된 물체에 대한 추가 정보를 포함하는 XR 객체를 해당 인식된 물체에 대응시켜 출력할 수 있다.
XR 장치(100c)는 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, XR 장치(100c)는 학습 모델을 이용하여 3차원 포인트 클라우드 데이터 또는 이미지 데이터에서 현실 객체를 인식할 수 있고, 인식한 현실 객체에 상응하는 정보를 제공할 수 있다. 여기서, 학습 모델은 XR 장치(100c)에서 직접 학습되거나, AI 서버(200) 등의 외부 장치에서 학습된 것일 수 있다.
이때, XR 장치(100c)는 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(200) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
본 발명이 적용될 수 있는 AI, 로봇 및 자율주행
로봇(100a)은 AI 기술 및 자율 주행 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.
AI 기술과 자율 주행 기술이 적용된 로봇(100a)은 자율 주행 기능을 가진 로봇 자체나, 자율 주행 차량(100b)과 상호작용하는 로봇(100a) 등을 의미할 수 있다.
자율 주행 기능을 가진 로봇(100a)은 사용자의 제어 없이도 주어진 동선에 따라 스스로 움직이거나, 동선을 스스로 결정하여 움직이는 장치들을 통칭할 수 있다.
자율 주행 기능을 가진 로봇(100a) 및 자율 주행 차량(100b)은 이동 경로 또는 주행 계획 중 하나 이상을 결정하기 위해 공통적인 센싱 방법을 사용할 수 있다. 예를 들어, 자율 주행 기능을 가진 로봇(100a) 및 자율 주행 차량(100b)은 라이다, 레이더, 카메라를 통해 센싱된 정보를 이용하여, 이동 경로 또는 주행 계획 중 하나 이상을 결정할 수 있다.
자율 주행 차량(100b)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b)과 별개로 존재하면서, 자율 주행 차량(100b)의 내부 또는 외부에서 자율 주행 기능에 연계되거나, 자율 주행 차량(100b)에 탑승한 사용자와 연계된 동작을 수행할 수 있다.
이때, 자율 주행 차량(100b)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b)을 대신하여 센서 정보를 획득하여 자율 주행 차량(100b)에 제공하거나, 센서 정보를 획득하고 주변 환경 정보 또는 객체 정보를 생성하여 자율 주행 차량(100b)에 제공함으로써, 자율 주행 차량(100b)의 자율 주행 기능을 제어하거나 보조할 수 있다.
또는, 자율 주행 차량(100b)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b)에 탑승한 사용자를 모니터링하거나 사용자와의 상호작용을 통해 자율 주행 차량(100b)의 기능을 제어할 수 있다. 예컨대, 로봇(100a)은 운전자가 졸음 상태인 경우로 판단되는 경우, 자율 주행 차량(100b)의 자율 주행 기능을 활성화하거나 자율 주행 차량(100b)의 구동부의 제어를 보조할 수 있다. 여기서, 로봇(100a)이 제어하는 자율 주행 차량(100b)의 기능에는 단순히 자율 주행 기능뿐만 아니라, 자율 주행 차량(100b)의 내부에 구비된 네비게이션 시스템이나 오디오 시스템에서 제공하는 기능도 포함될 수 있다.
또는, 자율 주행 차량(100b)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b)의 외부에서 자율 주행 차량(100b)에 정보를 제공하거나 기능을 보조할 수 있다. 예컨대, 로봇(100a)은 스마트 신호등과 같이 자율 주행 차량(100b)에 신호 정보 등을 포함하는 교통 정보를 제공할 수도 있고, 전기 차량의 자동 전기 충전기와 같이 자율 주행 차량(100b)과 상호작용하여 충전구에 전기 충전기를 자동으로 연결할 수도 있다.
본 발명이 적용될 수 있는 AI, 로봇 및 XR
로봇(100a)은 AI 기술 및 XR 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇, 드론 등으로 구현될 수 있다.
XR 기술이 적용된 로봇(100a)은 XR 영상 내에서의 제어/상호작용의 대상이 되는 로봇을 의미할 수 있다. 이 경우, 로봇(100a)은 XR 장치(100c)와 구분되며 서로 연동될 수 있다.
XR 영상 내에서의 제어/상호작용의 대상이 되는 로봇(100a)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하면, 로봇(100a) 또는 XR 장치(100c)는 센서 정보에 기초한 XR 영상을 생성하고, XR 장치(100c)는 생성된 XR 영상을 출력할 수 있다. 그리고, 이러한 로봇(100a)은 XR 장치(100c)를 통해 입력되는 제어 신호 또는 사용자의 상호작용에 기초하여 동작할 수 있다.
예컨대, 사용자는 XR 장치(100c) 등의 외부 장치를 통해 원격으로 연동된 로봇(100a)의 시점에 상응하는 XR 영상을 확인할 수 있고, 상호작용을 통하여 로봇(100a)의 자율 주행 경로를 조정하거나, 동작 또는 주행을 제어하거나, 주변 객체의 정보를 확인할 수 있다.
본 발명이 적용될 수 있는 AI, 자율주행 및 XR
자율 주행 차량(100b)은 AI 기술 및 XR 기술이 적용되어, 이동형 로봇, 차량, 무인 비행체 등으로 구현될 수 있다.
XR 기술이 적용된 자율 주행 차량(100b)은 XR 영상을 제공하는 수단을 구비한 자율 주행 차량이나, XR 영상 내에서의 제어/상호작용의 대상이 되는 자율 주행 차량 등을 의미할 수 있다. 특히, XR 영상 내에서의 제어/상호작용의 대상이 되는 자율 주행 차량(100b)은 XR 장치(100c)와 구분되며 서로 연동될 수 있다.
XR 영상을 제공하는 수단을 구비한 자율 주행 차량(100b)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하고, 획득한 센서 정보에 기초하여 생성된 XR 영상을 출력할 수 있다. 예컨대, 자율 주행 차량(100b)은 HUD를 구비하여 XR 영상을 출력함으로써, 탑승자에게 현실 객체 또는 화면 속의 객체에 대응되는 XR 객체를 제공할 수 있다.
이때, XR 객체가 HUD에 출력되는 경우에는 XR 객체의 적어도 일부가 탑승자의 시선이 향하는 실제 객체에 오버랩되도록 출력될 수 있다. 반면, XR 객체가 자율 주행 차량(100b)의 내부에 구비되는 디스플레이에 출력되는 경우에는 XR 객체의 적어도 일부가 화면 속의 객체에 오버랩되도록 출력될 수 있다. 예컨대, 자율 주행 차량(100b)은 차로, 타 차량, 신호등, 교통 표지판, 이륜차, 보행자, 건물 등과 같은 객체와 대응되는 XR 객체들을 출력할 수 있다.
XR 영상 내에서의 제어/상호작용의 대상이 되는 자율 주행 차량(100b)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하면, 자율 주행 차량(100b) 또는 XR 장치(100c)는 센서 정보에 기초한 XR 영상을 생성하고, XR 장치(100c)는 생성된 XR 영상을 출력할 수 있다. 그리고, 이러한 자율 주행 차량(100b)은 XR 장치(100c) 등의 외부 장치를 통해 입력되는 제어 신호 또는 사용자의 상호작용에 기초하여 동작할 수 있다.
용어 정의
eLTE eNB: eLTE eNB는 EPC 및 NGC에 대한 연결을 지원하는 eNB의 진화(evolution)이다.
gNB: NGC와의 연결뿐만 아니라 NR을 지원하는 노드.
새로운 RAN: NR 또는 E-UTRA를 지원하거나 NGC와 상호 작용하는 무선 액세스 네트워크.
네트워크 슬라이스(network slice): 네트워크 슬라이스는 종단 간 범위와 함께 특정 요구 사항을 요구하는 특정 시장 시나리오에 대해 최적화된 솔루션을 제공하도록 operator에 의해 정의된 네트워크.
네트워크 기능(network function): 네트워크 기능은 잘 정의된 외부 인터페이스와 잘 정의된 기능적 동작을 가진 네트워크 인프라 내에서의 논리적 노드.
NG-C: 새로운 RAN과 NGC 사이의 NG2 레퍼런스 포인트(reference point)에 사용되는 제어 평면 인터페이스.
NG-U: 새로운 RAN과 NGC 사이의 NG3 레퍼런스 포인트(reference point)에 사용되는 사용자 평면 인터페이스.
비 독립형(Non-standalone) NR: gNB가 LTE eNB를 EPC로 제어 플레인 연결을 위한 앵커로 요구하거나 또는 eLTE eNB를 NGC로 제어 플레인 연결을 위한 앵커로 요구하는 배치 구성.
비 독립형 E-UTRA: eLTE eNB가 NGC로 제어 플레인 연결을 위한 앵커로 gNB를 요구하는 배치 구성.
사용자 평면 게이트웨이: NG-U 인터페이스의 종단점.
시스템 일반
도 4는 본 명세서에서 제안하는 방법이 적용될 수 있는 NR의 전체적인 시스템 구조의 일례를 나타낸 도이다.
도 4를 참조하면, NG-RAN은 NG-RA 사용자 평면(새로운 AS sublayer/PDCP/RLC/MAC/PHY) 및 UE(User Equipment)에 대한 제어 평면(RRC) 프로토콜 종단을 제공하는 gNB들로 구성된다.
상기 gNB는 Xn 인터페이스를 통해 상호 연결된다.
상기 gNB는 또한, NG 인터페이스를 통해 NGC로 연결된다.
보다 구체적으로는, 상기 gNB는 N2 인터페이스를 통해 AMF (Access and Mobility Management Function)로, N3 인터페이스를 통해 UPF (User Plane Function)로 연결된다.
NR(New Rat) 뉴머롤로지(Numerology) 및 프레임(frame) 구조
NR 시스템에서는 다수의 뉴머롤로지(numerology)들이 지원될 수 있다. 여기에서, 뉴머롤로지는 서브캐리어 간격(subcarrier spacing)과 CP(Cyclic Prefix) 오버헤드에 의해 정의될 수 있다. 이 때, 다수의 서브캐리어 간격은 기본 서브캐리어 간격을 정수 N(또는,
Figure PCTKR2019007192-appb-img-000001
)으로 스케일링(scaling) 함으로써 유도될 수 있다. 또한, 매우 높은 반송파 주파수에서 매우 낮은 서브캐리어 간격을 이용하지 않는다고 가정될지라도, 이용되는 뉴머롤로지는 주파수 대역과 독립적으로 선택될 수 있다.
또한, NR 시스템에서는 다수의 뉴머롤로지에 따른 다양한 프레임 구조들이 지원될 수 있다.
이하, NR 시스템에서 고려될 수 있는 OFDM(Orthogonal Frequency Division Multiplexing) 뉴머롤로지 및 프레임 구조를 살펴본다.
NR 시스템에서 지원되는 다수의 OFDM 뉴머롤로지들은 표 1과 같이 정의될 수 있다.
Figure PCTKR2019007192-appb-img-000002
NR 시스템에서의 프레임 구조(frame structure)와 관련하여, 시간 영역의 다양한 필드의 크기는
Figure PCTKR2019007192-appb-img-000003
의 시간 단위의 배수로 표현된다. 여기에서,
Figure PCTKR2019007192-appb-img-000004
이고,
Figure PCTKR2019007192-appb-img-000005
이다. 하향링크(downlink) 및 상향링크(uplink) 전송은
Figure PCTKR2019007192-appb-img-000006
의 구간을 가지는 무선 프레임(radio frame)으로 구성된다. 여기에서, 무선 프레임은 각각
Figure PCTKR2019007192-appb-img-000007
의 구간을 가지는 10개의 서브프레임(subframe)들로 구성된다. 이 경우, 상향링크에 대한 한 세트의 프레임들 및 하향링크에 대한 한 세트의 프레임들이 존재할 수 있다.
도 5는 본 명세서에서 제안하는 방법이 적용될 수 있는 무선 통신 시스템에서 상향링크 프레임과 하향링크 프레임 간의 관계를 나타낸다.
도 5에 나타난 것과 같이, 단말(User Equipment, UE)로 부터의 상향링크 프레임 번호 i의 전송은 해당 단말에서의 해당 하향링크 프레임의 시작보다
Figure PCTKR2019007192-appb-img-000008
이전에 시작해야 한다.
뉴머롤로지
Figure PCTKR2019007192-appb-img-000009
에 대하여, 슬롯(slot)들은 서브프레임 내에서
Figure PCTKR2019007192-appb-img-000010
의 증가하는 순서로 번호가 매겨지고, 무선 프레임 내에서
Figure PCTKR2019007192-appb-img-000011
의 증가하는 순서로 번호가 매겨진다. 하나의 슬롯은
Figure PCTKR2019007192-appb-img-000012
의 연속하는 OFDM 심볼들로 구성되고,
Figure PCTKR2019007192-appb-img-000013
는, 이용되는 뉴머롤로지 및 슬롯 설정(slot configuration)에 따라 결정된다. 서브프레임에서 슬롯
Figure PCTKR2019007192-appb-img-000014
의 시작은 동일 서브프레임에서 OFDM 심볼
Figure PCTKR2019007192-appb-img-000015
의 시작과 시간적으로 정렬된다.
모든 단말이 동시에 송신 및 수신을 할 수 있는 것은 아니며, 이는 하향링크 슬롯(downlink slot) 또는 상향링크 슬롯(uplink slot)의 모든 OFDM 심볼들이 이용될 수는 없다는 것을 의미한다.
표 2는 뉴머롤로지
Figure PCTKR2019007192-appb-img-000016
에서의 일반(normal) CP에 대한 슬롯 당 OFDM 심볼의 수를 나타내고, 표 3은 뉴머롤로지
Figure PCTKR2019007192-appb-img-000017
에서의 확장(extended) CP에 대한 슬롯 당 OFDM 심볼의 수를 나타낸다.
Figure PCTKR2019007192-appb-img-000018
Figure PCTKR2019007192-appb-img-000019
NR 물리 자원( NR Physical Resource)
NR 시스템에서의 물리 자원(physical resource)과 관련하여, 안테나 포트(antenna port), 자원 그리드(resource grid), 자원 요소(resource element), 자원 블록(resource block), 캐리어 파트(carrier part) 등이 고려될 수 있다.
이하, NR 시스템에서 고려될 수 있는 상기 물리 자원들에 대해 구체적으로 살펴본다.
먼저, 안테나 포트와 관련하여, 안테나 포트는 안테나 포트 상의 심볼이 운반되는 채널이 동일한 안테나 포트 상의 다른 심볼이 운반되는 채널로부터 추론될 수 있도록 정의된다. 하나의 안테나 포트 상의 심볼이 운반되는 채널의 광범위 특성(large-scale property)이 다른 안테나 포트 상의 심볼이 운반되는 채널로부터 유추될 수 있는 경우, 2 개의 안테나 포트는 QC/QCL(quasi co-located 혹은 quasi co-location) 관계에 있다고 할 수 있다. 여기에서, 상기 광범위 특성은 지연 확산(Delay spread), 도플러 확산(Doppler spread), 주파수 쉬프트(Frequency shift), 평균 수신 파워(Average received power), 수신 타이밍(Received Timing) 중 하나 이상을 포함한다.
도 6은 본 발명이 적용될 수 있는 무선 통신 시스템에서 무선 프레임의 구조를 나타낸다.
3GPP LTE/LTE-A에서는 FDD(Frequency Division Duplex)에 적용 가능한 타입 1 무선 프레임(radio frame) 구조와 TDD(Time Division Duplex)에 적용 가능한 타입 2의 무선 프레임 구조를 지원한다.
도 6의 (a)는 타입 1 무선 프레임의 구조를 예시한다. 무선 프레임(radio frame)은 10개의 서브프레임(subframe)으로 구성된다. 하나의 서브프레임은 시간 영역(time domain)에서 2개의 슬롯(slot)으로 구성된다. 하나의 서브프레임을 전송하는데 걸리는 시간을 TTI(transmission time interval)이라 한다. 예를 들어, 하나의 서브 프레임은 길이는 1ms이고, 하나의 슬롯의 길이는 0.5ms일 수 있다.
하나의 슬롯은 시간 영역에서 복수의 OFDM(orthogonal frequency division multiplexing) 심볼을 포함하고, 주파수 영역에서 다수의 자원블록(RB: Resource Block)을 포함한다. 3GPP LTE는 하향링크에서 OFDMA를 사용하므로 OFDM 심볼은 하나의 심볼 구간(symbol period)을 표현하기 위한 것이다. OFDM 심볼은 하나의 SC-FDMA 심볼 또는 심볼 구간이라고 할 수 있다. 자원 블록(resource block)은 자원 할당 단위이고, 하나의 슬롯에서 복수의 연속적인 부 반송파(subcarrier)를 포함한다.
도 6의 (b)는 타입 2 프레임 구조(frame structure type 2)를 나타낸다. 타입 2 무선 프레임은 2개의 하프 프레임(half frame)으로 구성되며, 각 하프 프레임은 5개의 서브프레임과 DwPTS(Downlink Pilot Time Slot), 보호구간(GP: Guard Period), UpPTS(Uplink Pilot Time Slot)로 구성되며, 이 중 1개의 서브프레임은 2개의 슬롯으로 구성된다. DwPTS는 단말에서의 초기 셀 탐색, 동기화 또는 채널 추정에 사용된다. UpPTS는 기지국에서의 채널 추정과 단말의 상향링크 전송 동기를 맞추는 데 사용된다. 보호구간은 상향링크와 하향링크 사이에 하향링크 신호의 다중경로 지연으로 인해 상향링크에서 생기는 간섭을 제거하기 위한 구간이다.
TDD 시스템의 타입 2 프레임 구조에서 상향링크-하향링크 구성(uplink-downlink configuration)은 모든 서브프레임에 대하여 상향링크와 하향링크가 할당(또는 예약)되는지 나타내는 규칙이다. 표 4는 상향링크-하향링크 구성을 나타낸다.
Uplink-Downlink configuration Downlink-to-Uplink Switch-point periodicity Subframe number
0 1 2 3 4 5 6 7 8 9
0 5ms D S U U U D S U U U
1 5ms D S U U D D S U U D
2 5ms D S U D D D S U D D
3 10ms D S U U U D D D D D
4 10ms D S U U D D D D D D
5 10ms D S U D D D D D D D
6 5ms D S U U U D S U U D
표 4를 참조하면, 무선 프레임의 각 서브프레임 별로, 'D'는 하향링크 전송을 위한 서브프레임을 나타내고, 'U'는 상향링크 전송을 위한 서브프레임을 나타내며, 'S'는 DwPTS, GP, UpPTS 3가지의 필드로 구성되는 스페셜 서브프레임(special subframe)을 나타낸다. 상향링크-하향링크 구성은 7가지로 구분될 수 있으며, 각 구성 별로 하향링크 서브프레임, 스페셜 서브프레임, 상향링크 서브프레임의 위치 및/또는 개수가 다르다.
하향링크에서 상향링크로 변경되는 시점 또는 상향링크에서 하향링크로 전환되는 시점을 전환 시점(switching point)이라 한다. 전환 시점의 주기성(Switch-point periodicity)은 상향링크 서브프레임과 하향링크 서브프레임이 전환되는 양상이 동일하게 반복되는 주기를 의미하며, 5ms 또는 10ms가 모두 지원된다. 5ms 하향링크-상향링크 전환 시점의 주기를 가지는 경우에는 스페셜 서브프레임(S)은 하프-프레임 마다 존재하고, 5ms 하향링크-상향링크 전환 시점의 주기를 가지는 경우에는 첫번째 하프-프레임에만 존재한다.
모든 구성에 있어서, 0번, 5번 서브프레임 및 DwPTS는 하향링크 전송만을 위한 구간이다. UpPTS 및 서브프레임 서브프레임에 바로 이어지는 서브프레임은 항상 상향링크 전송을 위한 구간이다.
이러한, 상향링크-하향링크 구성은 시스템 정보로써 기지국과 단말이 모두 알고 있을 수 있다. 기지국은 상향링크-하향링크 구성 정보가 바뀔 때마다 구성 정보의 인덱스만을 전송함으로써 무선 프레임의 상향링크-하향링크 할당상태의 변경을 단말에 알려줄 수 있다. 또한, 구성 정보는 일종의 하향링크 제어정보로서 다른 스케줄링 정보와 마찬가지로 PDCCH(Physical Downlink Control Channel)를 통해 전송될 수 있으며, 방송 정보로서 브로드캐스트 채널(broadcast channel)을 통해 셀 내의 모든 단말에 공통으로 전송될 수도 있다.
무선 프레임의 구조는 하나의 예시에 불과하며, 무선 프레임에 포함되는 부 반송파의 수 또는 서브 프레임에 포함되는 슬롯의 수, 슬롯에 포함되는 OFDM 심볼의 수는 다양하게 변경될 수 있다.
도 7은 본 명세서에서 제안하는 방법이 적용될 수 있는 무선 통신 시스템에서 지원하는 자원 그리드(resource grid)의 일 예를 나타낸다.
도 7을 참조하면, 자원 그리드가 주파수 영역 상으로
Figure PCTKR2019007192-appb-img-000020
서브캐리어들로 구성되고, 하나의 서브프레임이
Figure PCTKR2019007192-appb-img-000021
OFDM 심볼들로 구성되는 것을 예시적으로 기술하나, 이에 한정되는 것은 아니다.
NR 시스템에서, 전송되는 신호(transmitted signal)는
Figure PCTKR2019007192-appb-img-000022
서브캐리어들로 구성되는 하나 또는 그 이상의 자원 그리드들 및
Figure PCTKR2019007192-appb-img-000023
의 OFDM 심볼들에 의해 설명된다. 여기에서,
Figure PCTKR2019007192-appb-img-000024
이다. 상기
Figure PCTKR2019007192-appb-img-000025
는 최대 전송 대역폭을 나타내고, 이는, 뉴머롤로지들뿐만 아니라 상향링크와 하향링크 간에도 달라질 수 있다.
이 경우, 도 7과 같이, 뉴머롤로지
Figure PCTKR2019007192-appb-img-000026
및 안테나 포트 p 별로 하나의 자원 그리드가 설정될 수 있다.
뉴머롤로지
Figure PCTKR2019007192-appb-img-000027
및 안테나 포트 p에 대한 자원 그리드의 각 요소는 자원 요소(resource element)로 지칭되며, 인덱스 쌍
Figure PCTKR2019007192-appb-img-000028
에 의해 고유적으로 식별된다. 여기에서,
Figure PCTKR2019007192-appb-img-000029
는 주파수 영역 상의 인덱스이고,
Figure PCTKR2019007192-appb-img-000030
는 서브프레임 내에서 심볼의 위치를 지칭한다. 슬롯에서 자원 요소를 지칭할 때에는, 인덱스 쌍
Figure PCTKR2019007192-appb-img-000031
이 이용된다. 여기에서,
Figure PCTKR2019007192-appb-img-000032
이다.
뉴머롤로지
Figure PCTKR2019007192-appb-img-000033
및 안테나 포트 p에 대한 자원 요소
Figure PCTKR2019007192-appb-img-000034
는 복소 값(complex value)
Figure PCTKR2019007192-appb-img-000035
에 해당한다. 혼동(confusion)될 위험이 없는 경우 혹은 특정 안테나 포트 또는 뉴머롤로지가 특정되지 않은 경우에는, 인덱스들 p 및
Figure PCTKR2019007192-appb-img-000036
는 드롭(drop)될 수 있으며, 그 결과 복소 값은
Figure PCTKR2019007192-appb-img-000037
또는
Figure PCTKR2019007192-appb-img-000038
이 될 수 있다.
또한, 물리 자원 블록(physical resource block)은 주파수 영역 상의
Figure PCTKR2019007192-appb-img-000039
연속적인 서브캐리어들로 정의된다. 주파수 영역 상에서, 물리 자원 블록들은 0부터
Figure PCTKR2019007192-appb-img-000040
까지 번호가 매겨진다. 이 때, 주파수 영역 상의 물리 자원 블록 번호(physical resource block number)
Figure PCTKR2019007192-appb-img-000041
와 자원 요소들
Figure PCTKR2019007192-appb-img-000042
간의 관계는 수학식 1과 같이 주어진다.
Figure PCTKR2019007192-appb-img-000043
또한, 캐리어 파트(carrier part)와 관련하여, 단말은 자원 그리드의 서브셋(subset)만을 이용하여 수신 또는 전송하도록 설정될 수 있다. 이 때, 단말이 수신 또는 전송하도록 설정된 자원 블록의 집합(set)은 주파수 영역 상에서 0부터
Figure PCTKR2019007192-appb-img-000044
까지 번호가 매겨진다.
도 8은 본 발명이 적용될 수 있는 무선 통신 시스템에서 하향링크 서브 프레임의 구조를 나타낸다.
도 8을 참조하면, 서브 프레임내의 첫번째 슬롯에서 앞의 최대 3개의 OFDM 심볼들이 제어 채널들이 할당되는 제어 영역(control region)이고, 나머지 OFDM 심볼들은 PDSCH(Physical Downlink Shared Channel)이 할당되는 데이터 영역(data region)이다. 3GPP LTE에서 사용되는 하향링크 제어 채널의 일례로 PCFICH(Physical Control Format Indicator Channel), PDCCH(Physical Downlink Control Channel), PHICH(Physical Hybrid-ARQ Indicator Channel) 등이 있다.
PCFICH는 서브 프레임의 첫번째 OFDM 심볼에서 전송되고, 서브 프레임 내에 제어 채널들의 전송을 위하여 사용되는 OFDM 심볼들의 수(즉, 제어 영역의 크기)에 관한 정보를 나른다. PHICH는 상향 링크에 대한 응답 채널이고, HARQ(Hybrid Automatic Repeat Request)에 대한 ACK(Acknowledgement)/NACK(Not-Acknowledgement) 신호를 나른다. PDCCH를 통해 전송되는 제어 정보를 하향링크 제어정보(DCI: downlink control information)라고 한다. 하향링크 제어정보는 상향링크 자원 할당 정보, 하향링크 자원 할당 정보 또는 임의의 단말 그룹에 대한 상향링크 전송(Tx) 파워 제어 명령을 포함한다.
PDCCH는 DL-SCH(Downlink Shared Channel)의 자원 할당 및 전송 포맷(이를 하향링크 그랜트라고도 한다.), UL-SCH(Uplink Shared Channel)의 자원 할당 정보(이를 상향링크 그랜트라고도 한다.), PCH(Paging Channel)에서의 페이징(paging) 정보, DL-SCH에서의 시스템 정보, PDSCH에서 전송되는 랜덤 액세스 응답(random access response)과 같은 상위 레이어(upper-layer) 제어 메시지에 대한 자원 할당, 임의의 단말 그룹 내 개별 단말들에 대한 전송 파워 제어 명령들의 집합, VoIP(Voice over IP)의 활성화 등을 나를 수 있다. 복수의 PDCCH들은 제어 영역 내에서 전송될 수 있으며, 단말은 복수의 PDCCH들을 모니터링할 수 있다. PDCCH는 하나 또는 복수의 연속적인 CCE(control channel elements)의 집합으로 구성된다. CCE는 무선 채널의 상태에 따른 부호화율(coding rate)을 PDCCH에 제공하기 위하여 사용되는 논리적 할당 단위이다. CCE는 복수의 자원 요소 그룹(resource element group)들에 대응된다. PDCCH의 포맷 및 사용 가능한 PDCCH의 비트 수는 CCE들의 수와 CCE들에 의해 제공되는 부호화율 간의 연관 관계에 따라 결정된다.
기지국은 단말에게 전송하려는 DCI에 따라 PDCCH 포맷을 결정하고, 제어 정보에 CRC(Cyclic Redundancy Check)를 붙인다. CRC에는 PDCCH의 소유자(owner)나 용도에 따라 고유한 식별자(이를 RNTI(Radio Network Temporary Identifier)라고 한다.)가 마스킹된다. 특정의 단말을 위한 PDCCH라면 단말의 고유한 식별자, 예를 들어 C-RNTI(Cell-RNTI)가 CRC에 마스킹될 수 있다. 또는 페이징 메시지를 위한 PDCCH라면 페이징 지시 식별자, 예를 들어 P-RNTI(Paging-RNTI)가 CRC에 마스킹될 수 있다. 시스템 정보, 더욱 구체적으로 시스템 정보 블록(SIB: system information block)를 위한 PDCCH라면 시스템 정보 식별자, SI-RNTI(system information RNTI)가 CRC에 마스킹될 수 있다. 단말의 랜덤 액세스 프리앰블의 전송에 대한 응답인 랜덤 액세스 응답을 지시하기 위하여, RA-RNTI(random access-RNTI)가 CRC에 마스킹될 수 있다.
도 9는 본 발명이 적용될 수 있는 무선 통신 시스템에서 상향링크 서브 프레임의 구조를 나타낸다.
도 9를 참조하면, 상향링크 서브 프레임은 주파수 영역에서 제어 영역과 데이터 영역으로 나눌 수 있다. 제어 영역에는 상향링크 제어 정보를 나르는 PUCCH(Physical Uplink Control Channel)이 할당된다. 데이터 영역은 사용자 데이터를 나르는 PUSCH(Physical Uplink Shared Channel)이 할당된다. 단일 반송파 특성을 유지하기 위해 하나의 단말은 PUCCH와 PUSCH을 동시에 전송하지 않는다.
하나의 단말에 대한 PUCCH에는 서브 프레임 내에 자원 블록(RB: Resource Block) 쌍이 할당된다. RB 쌍에 속하는 RB들은 2개의 슬롯들의 각각에서 서로 다른 부 반송파를 차지한다. 이를 PUCCH에 할당된 RB 쌍은 슬롯 경계(slot boundary)에서 주파수 도약(frequency hopping)된다고 한다.
참조 신호( RS : Reference Signal)
무선 통신 시스템에서 데이터는 무선 채널을 통해 전송되기 때문에, 신호는 전송 중에 왜곡될 수 있다. 수신단에서 왜곡된 신호를 정확하게 수신하기 위하여, 수신된 신호의 왜곡은 채널 정보를 이용하여 보정되어야 한다. 채널 정보를 검출하기 위하여 송신측과 수신측 모두 알고 있는 신호 전송 방법과 신호가 채널을 통해 전송될 때 왜곡된 정도를 이용하여 채널 정보를 검출하는 방법을 주로 이용한다. 상술한 신호를 파일럿 신호 또는 참조 신호(RS: reference signal)라고 한다.
또한 최근 대부분의 이동통신 시스템에서 패킷을 전송할 때, 지금까지 한 개의 송신안테나와 한 개의 수신안테나를 사용했던 것에서 탈피, 다중 송신 안테나와 다중 수신 안테나를 채택해 송수신 데이터 효율을 향상시킬 수 있는 방법을 사용한다. 다중 입출력 안테나를 이용하여 데이터를 송수신할 때, 신호를 정확하게 수신하기 위하여 송신 안테나와 수신 안테나 간의 채널 상태가 검출되어야 한다. 따라서 각 송신 안테나는 개별적인 참조 신호를 가져야 한다.
이동 통신 시스템에서 RS는 그 목적에 따라 크게 두 가지로 구분될 수 있다. 채널 정보 획득을 위한 목적의 RS와 데이터 복조를 위해 사용되는 RS가 있다. 전자는 UE가 하향 링크로의 채널 정보를 획득하는데 그 목적이 있으므로, 광대역으로 전송되어야 하고, 특정 서브 프레임에서 하향 링크 데이터를 수신하지 않는 UE라도 그 RS를 수신하고 측정할 수 있어야 한다. 또한 이는 핸드 오버 등의 측정 등을 위해서도 사용된다. 후자는 기지국이 하향링크를 보낼 때 해당 리소스에 함께 보내는 RS로서, UE는 해당 RS를 수신함으로써 채널 추정을 할 수 있고, 따라서 데이터를 복조할 수 있게 된다. 이 RS는 데이터가 전송되는 영역에 전송되어야 한다.
하향 참조 신호는 셀 내 모든 단말이 공유하는 채널 상태에 대한 정보 획득 및 핸드오버 등의 측정 등을 위한 하나의 공통 참조 신호(CRS: common RS)와 특정 단말만을 위하여 데이터 복조를 위해 사용되는 전용 참조 신호(DRS: dedicated RS)가 있다. 이와 같은 참조 신호들을 이용하여 복조(demodulation)와 채널 측정(channel measurement)을 위한 정보를 제공할 수 있다. 즉, DRS는 데이터 복조용으로만 사용되며 CRS는 채널 정보 획득 및 데이터 복조의 두 가지 목적으로 다 사용된다.
수신 측(즉, 단말)은 CRS로부터 채널 상태를 측정하고, CQI(Channel Quality Indicator), PMI(Precoding Matrix Index) 및/또는 RI(Rank Indicator)와 같은 채널 품질과 관련된 지시자를 송신 측(즉, 기지국)으로 피드백한다. CRS는 셀 특정 기준신호(cell-specific RS)라고도 한다. 반면, 채널 상태 정보(CSI: Channel State Information)의 피드백과 관련된 참조 신호를 CSI-RS라고 정의할 수 있다.
DRS는 PDSCH 상의 데이터 복조가 필요한 경우 자원 요소들을 통해 전송될 수 있다. 단말은 상위 계층을 통하여 DRS의 존재 여부를 수신할 수 있으며, 상응하는 PDSCH가 매핑되었을 때만 유효하다. DRS를 단말 특정 참조 신호(UE-specific RS) 또는 복조 참조 신호(DMRS: Demodulation RS)라고 할 수 있다.
OTDOA (Observed Time Difference Of Arrival) 방법
도 10은 단말의 위치 결정을 위한 OTDOA 방법을 예시하는 도면이다.
도 10을 참조하면, 단말은 현재 서빙 셀(current serving cell)에서 전송되는 서브프레임을 기준으로 기준 클럭(reference clock)을 수행하기 때문에, 이웃 셀(neighboring cell)들로부터 수신되는 신호들은 서로 다른 TOA(Time Of Arrival)를 가지게 된다.
상기 서빙 셀과 상기 이웃 셀은 각각 서빙 기지국 또는 이웃 기지국으로 표현될 수도 있다.
즉, OTDOA 방법은 단말이 각 셀로부터 송신된 신호들이 단말에 도달하는 타이밍 차이를 이용하여 단말의 위치를 측정하는 것으로서, 참조 셀(reference cell)은 TDOA 의 기준이 되는 셀이므로, 복수의 이웃 셀들로부터 수신된 참조 신호 또는 동기 신호를 이용하여 하나의 참조 셀로부터 신호를 수신하는데 걸리는 시간과 복수의 이웃 셀들 각각으로부터 수신한 신호의 지연 시간을 측정하여 이를 서빙 셀(serving cell) 또는 앵커 셀(anchor cell)로 보고하고, 서빙 셀은 보고된 지연 시간들을 이용하여 해당 단말의 위치를 측정한다.
여기서, 참조 셀은 TDOA(Time Difference Of Arrival)의 기준이 될 수 있는 셀을 의미하고, 서빙 셀이 이에 해당되거나 또는 단말이 핸드오버 등의 동작을 수행한 경우에 핸드오버 동작 전의 서빙 셀이 해당되거나 또는 단말의 핸드오버 동작 등과 상관없이 변경되지 않을 수 있다.
단말의 위치 결정을 위한 측정 신호로써, 공통 기준 신호(CRS: Common Reference Signal) 혹은 동기 신호(PSS/SSS: Primary Synchronization Signal/Secondary Synchronization Signal)가 사용될 수 있으나, LCS(LoCation Service)를 위한 전용 포지셔닝 참조 신호(PRS: Positioning Reference Signal)가 사용될 수도 있다.
상기 포지셔닝 참조(또는 기준) 신호는 위치 결정 참조 신호 또는 위치 결정 파일럿 신호 등으로 표현될 수도 있다.
이하, 설명의 편의를 위하여 단말의 위치 결정을 위하여 사용되는 측정 신호로써 PRS 를 예시하여 설명한다.
포지셔닝 참조 신호(positioning reference signal:PRS )
다음으로, 포지셔닝 참조 신호(positioning reference signal, 이하 "PRS"라 함)에 대해서 설명한다.
PRS는 단말의 위치 결정을 위해 사용되는 기준 신호로서, PRS 전송을 위해 결정된 하향링크 서브프레임의 자원 블록(resource block)들을 통해서만 전송된다.
PRS 시퀀스는 수학식 2에 의해서 정의된다.
Figure PCTKR2019007192-appb-img-000045
여기서,
Figure PCTKR2019007192-appb-img-000046
는 PRS 시퀀스를 나타내고,
Figure PCTKR2019007192-appb-img-000047
는 프레임 내에서 슬롯 번호를 나타내고, l은 슬롯 내에서 OFDM 심볼 번호를 나타낸다. c(i)는 슈도 랜덤(pseudo-random) 시퀀스를 나타내고, 슈도 랜덤 시퀀스 생성기는 OFDM 심볼 각각의 시작점에서 수학식 3와 같은
Figure PCTKR2019007192-appb-img-000048
로 초기화된다.
Figure PCTKR2019007192-appb-img-000049
여기서,
Figure PCTKR2019007192-appb-img-000050
은 물리계층 셀 아이디이고,
Figure PCTKR2019007192-appb-img-000051
는 OFDM 심볼이 일반 순환전치(cyclic prefix, CP)를 가질 때는 1이고 확장된 CP를 가질 때는 0이다.
PRS 시퀀스(
Figure PCTKR2019007192-appb-img-000052
)는 참조 신호 전송을 위해 구성된 슬롯(
Figure PCTKR2019007192-appb-img-000053
)에서, 안테나 포트 6(p = 6)을 위한 참조 신호로서 사용되는 복소 변조 심볼(complex-valued modulation symbols,
Figure PCTKR2019007192-appb-img-000054
)에 아래 수학식 4에 따라 매핑될 수 있다.
Figure PCTKR2019007192-appb-img-000055
여기서, 참조 신호 전송을 위한 자원 인덱스 쌍(k ,l) 및 m , m' 값은 아래 수학식 5 또는 수학식 6에 따라 결정될 수 있다. 여기서, 수학식 5는 일반 순환 전치의 경우를 나타내고, 수학식 6은 확장 순환 전치의 경우를 나타낸다.
Figure PCTKR2019007192-appb-img-000056
Figure PCTKR2019007192-appb-img-000057
여기서, 참조 신호의 대역폭 및 자원 블록의 개수(
Figure PCTKR2019007192-appb-img-000058
)는 상위 계층에 의하여 설정된다. 그리고, 참조 신호는 각 셀 별로 각각 다른 주파수 시프트(
Figure PCTKR2019007192-appb-img-000059
) 값을 가지게 되며, 이와 같은 셀 특정(cell-specific) 주파수 시프트는 아래 수학식 7에 따라 결정된다.
Figure PCTKR2019007192-appb-img-000060
이와 같은 방법으로 무선 자원에 프리앰블 신호를 매핑한 경우, 특정 서브프레임에서 전송되는 프리앰블의 구조는 후술할 도 11과 같다.
도 11은 PRS가 자원 요소에 할당된 패턴을 나타낸 도면이다.
도 11은 PRS가 자원 요소에 할당된 패턴을 나타낸 도면이다. 도 11(a)는 일반 CP인 경우를 나타내고, 도 11(b)는 확장된 CP인 경우를 나타낸다.
단말의 위치 결정 방법
다음으로, 단말의 위치 결정 방법에 대해 살펴보기로 한다.
즉, PRS를 이용하는 단말의 위치 결정 방법에 따르면, 단말은 서빙 기지국으로부터 어시스턴스 데이터(assistance data)를 수신하고, 상기 어시스턴스 데이터를 이용하여 레퍼런스 셀과 이웃 셀들로부터 PRS를 수신하여, 레퍼런스 셀과 이웃 셀들 간의 기준 신호 시간 격차(Reference Signal Tme Difference, 이하 "RSTD"라 함)을 계산하여 서빙 기지국으로 전송한다.
이후, 서빙 기지국은 RSTD를 위치 서버(location server)로 전송하고, 위치 서버는 RSTD를 이용하여 단말의 위치를 결정한다.
상기 RSTD는 레퍼런스 셀과 이웃 셀 간의 상대적인 타이밍 격차(relative timing difference)를 의미하고, 수학식 8로 정의된다.
Figure PCTKR2019007192-appb-img-000061
여기서,
Figure PCTKR2019007192-appb-img-000062
는 단말이 이웃 셀 j로부터 하나의 서브프레임의 시작점을 수신하는 시각이고,
Figure PCTKR2019007192-appb-img-000063
는 단말이 상기 셀 j로부터 수신된 하나의 서브프레임에 가장 가까운 하나의 서브프레임의 시작점을 레퍼런스 셀 i로부터 수신하는 시각이다.
레퍼런스 셀과 이웃 셀들이 PRS를 유사한 시점에 전송할 수 있고, 레퍼런스 셀과 이웃 셀들이 PRS를 유사한 시점에 전송하는 경우, 단말이 레퍼런스 셀로부터 PRS를 수신하는 시점과 복수의 이웃 셀들 각각으로부터 PRS를 수신하는 시점의 차이는 일정한 시간 범위 내에 있다.
예를 들어, 단말이 레퍼런스 셀로부터 PRS를 수신하는 시점과 복수의 이웃 셀들 각각으로부터 PRS를 수신하는 시점의 차이는 1 서브프레임 내에 있을 수 있다.
그러면, RSTD의 정의에서, 단말이 이웃 셀 j로부터 수신하는 하나의 서브프레임을 이웃 셀 j의 PRS 포지셔닝 기회(positioning occasions)의 첫 번째 서브프레임이라 하면, 셀 j로부터 수신된 하나의 서브프레임에 가장 가까운 셀 i로부터 수신된 하나의 서브프레임은 레퍼런스 셀 i의 PRS 포지셔닝 기회의 첫 번째 서브프레임이 된다.
이때, PRS 포지셔닝 기회는 PRS가 할당된 연속하는 하향링크 서브프레임들을 의미한다. 따라서, RSTD는 이웃 셀 j로부터 PRS를 수신한 시점과 레퍼런스 셀 i로부터 PRS를 수신한 시점의 차이가 된다.
이때, 특정 셀로부터 PRS를 수신한 시점을 PRS의 도착 시각(Time of Arrival, 이하 "TOA"라 함)이라 한다.
이하 도 12에서는 단말의 위치 측정을 위해 OTDOA 방법이 LPP(LTE Positioning Protocol)에 따라 수행되는 절차를 구체적으로 설명한다.
도 12는 LPP를 통해 OTDOA를 수행하는 절차를 설명하기 위한 도면이다.
도 12를 참조하면, LPP는 다음과 같이 수행된다.
S1201에서, 위치 서버(Location Server, 3)는 RequestCapabilities message를 단말(UE, 4)에 보낸다. 상기 RequestCapabilities message는 단말(4)이 OTDOA를 수행하기 위해 요구되는 성능의 타입(type of capabilities needed)을 지시한다.
S1202에서, 단말(4)은 ProvideCapabilities message로 응답한다. 상기 ProvideCapabilities message는 OTDOA 모드 지원(참고: LPP는 UE-assisted mode 7만 지원), 지원되는 주파수 대역 및 주파수 간 RSTD 측정 지원과 같은 정보 요소를 포함한다.
S1203에서, 위치 서버(3)는 OTDOA 어시스턴스 데이터(OTDOA assistance data)를 포함하는 ProvideAssistanceData message를 단말(4)에 전송한다. 상기 OTDOA 어시스턴스 데이터에는 참조 셀과 최대 72 개의 이웃 셀에 대한 데이터가 포함된다. 단말(4)이 주파수 간 RSTD 측정을 지원하는 경우, 이웃 셀 지원 데이터는 최대 3 주파수 레이어(3 frequency layers)에 대해서 제공될 수있다.
S1204에서, 위치 서버(3)는 RSTD 측정을 요청하기 위해 단말(4)에 RequestLocationInformation message를 보낸다. 상기 RequestLocationInformation message는 위치 정보 유형(location information type), 요구되는 위치 추정의 정확성(desited accuracy of the location estimate) 및 응답 시간(response time)과 같은 정보 요소를 포함한다.
S1205에서, 단말(4)은 S3에서 수신한 ProvideAssistanceData를 사용하여 RSTD 측정을 수행한다. 응답 시간(Response Time)에 기초하여 단말(4)은 RSTD 를 포함하는 ProvideLocationInformation message를 위치 서버(3)에 전송한다(S1206). 상기 ProvideLocationInformation message에는 아래와 같은 정보 요소가 포함된다.
A. 시스템 프레임 번호 형태로 설정된 측정 타임 스탬프(Time stamp of the measurement set in form of the System Frame Number)
B. RSTD를 계산하기 위해 사용된 참조 셀의 아이디(Identity of the reference cell used for calculating the RSTD)
C. 참조셀에서 TOA 측정의 품질(Quality of the TOA measurement from the reference cell)
D. 최대 24개 셀에 대한 이웃 셀 측정 목록(Neighboring cell measurement list for up to 24 cells)
1) 측정된 이웃 셀의 아이디(Identity of the measured neighbour cell)
2) RSTD measurement
3) RSTD 측정의 품질(Quality of the RSTD measurement)
참조 셀의 TOA 측정 및 RSTD 측정에 대한 품질 지시자는 각 측정의 상대적인 품질을 나타내는 임의의 메트릭, 예를 들어, 표준 편차, SNR 등일 수 있다.
상기와 같이 수행되는 기존의 위치 측정(Localization or positioning) 기법들은 가시선(Line-of-Sight: LoS) 환경에서 측정된 거리를 바탕으로 할 때 가장 좋은 성능을 보인다. 하지만 실제 통신 환경에서는 가시선(LoS) 환경이 아닌 경우가 많으며 다중 경로도 존재하는 바, 이하 도 13을 참조하여 구체적으로 설명한다.
도 13은 다중 경로가 존재하는 상황에서 채널 특성의 판별 여부에 따른 위치 측정을 설명하기 위한 도면이다.
거리 측정을 위한 신호(Ranging signal)가 수신 관점에서 의미 있는 파워로 가장 빨리 들어올 때의 신호를 가시선 신호(LoS signal)라고 가정하며, 기존 위치 측정(Localization) 기법은 모든 레인징 신호(Ranging signal)가 가시선 신호(LoS signal)라고 가정하여 수행된다.
도 13(a)를 참조하면, 앵커 노드(Nnchor Node)로부터 단말까지의 다중 경로가 존재하여 모든 레인징 신호가 가시선 신호(LoS signal)가 아님에도 단말(UE)은 이를 파악할 수 없다. 따라서 단말이 계산한 RSTD에 따라 위치 서버에서 상기 단말의 위치를 추정하는 경우에 정확도가 낮아질 수 있다.
따라서 위치 측정의 정확도를 개선하기 위해 단말과 기지국(내지 앵커 노드)간의 채널 특성을 파악할 필요가 있다.
상기 채널 특성은 가시선(LoS) 및 비-가시선(Non-Light of Sight: NLoS) 중 적어도 하나를 포함할 수 있다.
상기 채널 특성이 가시선(LoS)이라 함은 두 지점(단말과 기지국) 사이에 돌출된 지형지물이 없어 전파경로에 장애가 없는 것을 의미한다. 따라서 상기 두 지점을 직선으로 연결하였을 때, 그 직선 상에서뿐만 아니라, 직선과 일정한 거리 이내에 장애물이 없이 자유 공간 상태를 유지할 수 있는 것을 말한다.
도 13(b)를 참조하면, 단말이 상기 채널 특성을 판별하여 가시선 신호(LoS signal)와 비-가시선 신호(NLoS signal)가 구분된 상황이다. 구체적으로 총 6개의 레인징 신호가 있으며 그 중 가시선 신호(LoS signal)가 3개이며 비-가시선 신호(NLoS signal)가 3개이다.
상기와 같이 단말이 자신과 각 기지국(앵커 노드)간의 채널 특성이 가시선(LoS)인지 여부를 판별할 수 있다면 이를 이용하여 위치 측정의 정확도를 높일 수 있다.
이하 도 14 내지 도 18에서는 상기 채널 특성을 판별하여 위치 측정의 정확도를 높일 수 있는 전처리 절차에 대해 구체적으로 설명한다. 각 실시예와 관련하여 이해를 돕도록 LPP 절차에서 변경되거나 추가되는 내용을 중심으로 설명하며 이전 설명과 동일하거나 중복되는 부분은 생략한다.
도 14 내지 도 18은 본 발명을 적용하여 LPP 절차를 개선시킬 수 있는 전처리 절차의 다양한 실시예를 설명하기 위한 도면이다.
도 14는 LPP 절차에 채널 특성을 판별하는 절차(LoS/NLoS idenfication procedure, S1410)가 전처리 절차로 추가된 흐름도를 도시한 것이다. S1404 및 S1406은 도 12의 S1204 및 S1206과 동일하다.
[방법 1] LoS -likelihood based localization 기법
도 14를 참조하면, 단말(4)은 기존의 OTDOA 과정을 진행하기 전 가시선 유사도(LoS-likelihood)를 계산한다(S1410). 이를 바탕으로 단말(4)은 자신과 각 기지국 간의 채널 특성이 가시선(LoS)인지 아니면 비-가시선(NLoS)인지 여부를 판별할 수 있다. 단말(4)은 상기 판별 결과에 기초하여 RSTD를 계산할 수 있다(S1440).
도 15는 채널 특성에 관한 가시선 유사도(LoS-likelihood)를 측정 결과에 포함시켜 보고하는 절차에 관한 흐름도이다. S1504 및 S1506은 도 12의 S1204 및 S1206과 동일하다.
도 15를 참조하면, S1510에서 위치 서버(3)로부터 LPP request location information message를 수신한 단말(4)은 위치 측정을 위해 설정되는 복수의 기지국들(5)과 레인징 절차(Ranging procedure)를 수행하여 거리 정보를 획득한다. S1520에서 단말(4)은 레인징 절차(Ranging procedure)를 수행하여 획득된 거리정보를 바탕으로 상기 복수의 기지국들(5)에 포함되는 각 기지국 별 가시선 유사도(LoS-likelihood)를 계산한다.
S1530에서, 단말(4)은 복수의 기지국들(5)로부터 PRS(Positioning Reference Signal)을 수신한다. 단말(4)은 복수의 기지국들(5) 중에서 가시선 유사도(LoS-likelihood)의 값이 가장 높은 기지국을 참조 셀(reference cell)로 선택한다.
S1540에서, 단말(4)은 상기 선택한 참조 셀(reference cell)을 기준으로 RSTD값을 계산한다.
단말(4)은 LPP Provide Location Information message를 위치 서버(3)로 전송하며 이 때 아래의 정보가 포함될 수 있다.
A.시스템 프레임 번호 형태로 설정된 측정 타임 스탬프(Time stamp of the measurement set in form of the System Frame Number)
B. RSTD를 계산하기 위해 사용된 참조 셀의 아이디(Identity of the reference cell used for calculating the RSTD)
C. 참조 셀에서 TOA 측정의 품질 (Quality of the TOA measurement from the reference cell)
D. 참조 셀의 가시선 유사도 값 ( LoS -likelihood value of the reference cell)
E. 최대 24개의 이웃 셀 측정 목록 (Neighboring cell measurement list for up to 24 cells)
1) 측정된 이웃 셀의 아이디(Identity of the measured neighbour cell)
2) RSTD measurement
3) RSTD 측정의 품질(Quality of the RSTD measurement)
4) 측정된 이웃 셀의 가시선 유사도 값( LoS -likelihood value of the measured neighbour cell)
위치 서버(3)는 단말(4)의 측정 결과인 LPP Provide Location Information message에 포함되는 가시선 유사도(LoS-likelihood)를 기반으로 하여 위치 측정을 위한 알고리즘을 수행할 수 있을 것인바, 위치 측정 결과의 정확도가 개선될 수 있다.
[방법 1-1] LoS -likelihood 기반 PRS muting request 기법
상기 채널 특성이 가시선(LoS)에 속하는 기지국으로부터만 PRS를 수신한다면 RSTD 계산에 따른 위치 측정의 정확도는 보다 개선될 수 있을 것이다. 이하 도 16을 참조하여 구체적으로 설명한다. 도 16의 S1604 및 S1606은 도 12의 S1204 및 S1206과 동일하다.
단말(4)은 가시선 유사도(LoS-likelihood)를 기반으로 PRS를 전송하는 기지국을 선택할 수 있다. 일 예로, 단말(4)은 복수의 기지국들(5) 중에서 가시선 유사도(LoS-likelihood)의 값이 큰 순서로 기 설정된 개수의 기지국을 선택할 수 있다. 여기서 가시선 유사도(LoS-likelihood)의 값이 크다는 것은 상기 채널 특성이 가시선(LoS)에 가깝다는 것을 의미한다.
일 실시예에 의하면 상기 단말은 가시선 유사도(LoS-likelihood)가 기 설정된 값에 가까운 순서로 기 설정된 개수의 기지국을 선택할 수 있다. 상기 기 설정된 값은 상기 채널 특성이 가시선(LoS)일 때의 후술하는 EDM(Euclidean Distance Matrix)의 계수(Rank) 값 일 수 있다.
도 16을 참조하면, S1610, S1620은 도 15의 S1510 및 S1620과 동일하므로 구체적인 설명은 생략한다.
단말(4)은 레인징 절차에 따라 거리 정보를 획득하고 그에 따라 가시선 유사도(Los-likelihood)를 계산한다(S1610, S1620).
단말(4)은 PRS 수신에 있어서 뮤팅을 지시할 수 있다. 구체적으로, S1631에서 단말(4)은 PRS muting request를 복수의 기지국들(5)에 전송한다. 상기 PRS muting request에는 복수의 기지국들(5) 중에서 채널 특성에 따라 선택된 기지국들의 정보가 포함될 수 있다. 상기 PRS muting request는 복수의 기지국들(5) 중에서 상기 선택된 기지국들을 제외한 나머지 기지국들에 대해 PRS muting을 지시한다.
S1632에서 단말(4)은 상기 선택된 기지국들로부터 PRS를 수신한다. 단말(4)은 상기 선택된 기지국들(5) 중에서 가시선 유사도(LoS-likelihood)의 값이 가장 높은 기지국을 참조 셀(reference cell)로 선택한다.
S1640에서, 단말(4)은 상기 선택한 참조 셀(reference cell)을 기준으로 RSTD값을 계산한다.
상기와 같이 PRS를 위해 설정되는 한정된 자원에서 상기 채널 특성이 비-가시선(NLoS)인 기지국으로부터의 PRS를 차단할 수 있는 바 이득(gain)을 높일 수 있다.
상기 PRS muting request는 물리계층 신호 또는 제어 채널을 통해서 전달될 수 있다. 또는 상위 계층 신호(예를 들면 RRC)등을 통해서 상기 PRS muting request가 기지국(serving eNB)에 전달될 수 있다. 상기 PRS muting request를 수신한 기지국은 위치 서버(3) 또는 기지국 간의 시그널링을 통해서 상기 PRS muting request를 다른 기지국들에게 전달할 수 있다.
[방법 1-2] LoS -likelihood 기반 PRS muting request & grouping 기법
각 기지국으로부터 PRS는 브로드 캐스팅 되는 바, 복수의 단말(multiple UE)이 위치 측정 절차를 수행하는 경우에 자원 활용 측면에서 PRS를 보다 효율적으로 수신할 필요가 있다. 이하 도 17을 참조하여 구체적으로 설명한다. 도 17에서 S1704 및 S1706은 도 12의 S1204 및 S1206과 동일하다.
복수의 기지국들(5)에 포함되는 각 기지국은 PRS를 전송하는 서브 프레임(subframe)에서 가시선 유사도(LoS-likelihood)의 값을 바탕으로 그룹별로 TDM(Time Division Multiplexing), FDM(Frequency Division Multiplexing) 및 CDM(Code Division Multiplexing) 방식 중 적어도 하나의 방식을 사용하여 전송할 수 있다.
도 17의 S1710, S1720 및 S1740은 도 16의 S1610, S1620 및 S1640과 동일하므로 중복되는 설명은 생략한다.
S1731에서 단말(4)은 PRS muting request에서 가시선 유사도(LoS-likelihood)를 포함하여 전송할 수 있다.
S1732에서, 복수의 기지국들(5) 중에서 어느 하나의 기지국(serving eNB)은 해당 단말이 측정해야 하는 TDM, FDM 및 CDM 방식 중 적어도 하나의 방식을 사용하여 다중화된 PRS의 자원에 대한 정보를 PRS 그룹 정보(PRS grouping information) 메시지에 포함하여 단말(4)에 전송한다.
상기 PRS 그룹 정보(PRS grouping information)는 물리계층 신호 혹은 제어 채널을 통해서 전달될 수 있다. 또는, 상위 계층 신호(예를 들면 RRC)등을 통해서 단말에 전달할 수 있다.
상기 PRS 그룹 정보(PRS grouping information)는 물리계층 신호 또는 제어 채널을 통해서 전달될 수 있다. 또는 상위 계층 신호(예를 들면 RRC)등을 통해서 상기 PRS 그룹 정보가 기지국(serving eNB)에 전달될 수 있다. 상기 PRS 그룹 정보를 수신한 기지국은 위치 서버(3) 또는 다른 기지국 간의 시그널링을 통해서 상기 PRS 그룹 정보를 다른 기지국들에에 전달할 수 있다.
S1733에서, 상기 PRS 그룹 정보(PRS grouping information)를 이용하여 상기 선택된 기지국들의 PRS를 수신한다. 단말(4)은 상기 선택된 기지국들(5) 중에서 가시선 유사도(LoS-likelihood)의 값이 가장 높은 기지국을 참조 셀(reference cell)로 선택한다.
상기와 같이, 채널 특성이 가시선(LoS)인 것으로 판단되는 기지국들의 PRS만을 orthogonal한 자원에 할당하여 전송함으로써 상기 단말 그룹들은 성능을 올릴 수 있으며 한정된 자원을 보다 효율적으로 활용할 수 있다.
[방법 1-3] UE -initiated ranging procedure 방법
가시선 유사도(LoS-likelihood)는 EDM(Euclidean Distance Matrix)을 구성하여 얻을 수 있다. 이하 도 18에서는 상기 EDM을 구성하기 위해 단말에 의해 개시되는 레인징 절차(Ranging procedure)를 기술한다. 도 18의 S1804 및 S1820은 도 15의 S1504 및 S1520과 동일하다.
도 18을 참조하면, S1811에서 단말(4)은 복수의 기지국들 중에서 적어도 하나의 기지국(Serving eNB, 5-1)에 레인징 절차 요청 신호(Ranging signal zone allocation request)를 전송한다.
S1812에서 기지국(5-1)이 레인징 절차 응답 신호(Ranging signal zone allocation response)를 단말(4)에 전송하여 응답함으로써 레인징 절차(Ranging proceure)가 개시된다. 상기 레인징 절차 요청 신호 및 응답 신호는 물리 계층 신호 혹은 제어 채널을 통해 전달되거나 상위 계층 신호를 통해서 전달될 수 있다.
S1813에서, 단말(4)은 복수의 기지국(5-1, 5-2)에 레인징 신호(Ranging signal Tx)를 전송한다. 단말(4)은 각 기지국으로부터 수신한 참조 신호(Response RS signal)를 이용하여 단말(4)과 복수의 기지국들(5)에 포함되는 각 기지국 간의 거리 정보를 획득할 수 있다(S1814). 상기 레인징 신호(Ranging signal Tx)와 참조 신호(Response RS signal)는 물리 계층 신호로 전달된다.
단말(4)은 상기 획득된 거리 정보를 이용하여 상기 EDM을 구성한다.
상기 EDM을 이용한 채널 특성(LoS/NLoS) 판별의 일 예를 이하 구체적으로 설명한다.
상기 LoS/NLoS 판별은 Double-centered Euclidean Distance Matrix(EDM)의 Low Rank 특성을 이용하여 수행될 수 있다.
이하 설명에서, D, N, H, 및 Dij에 대해서는 다음과 같은 정의가 성립되는 것이 가정된다.
D: Dimension of Geometric Space
N: # of Nodes
H: Centering Matrix(I N -(1/N) X 1 N 1 N T) where 1 N = [1 1 1 … 1 1] T (size: N-by1) and I N = N-by-N Identity Matrix
Dij: Node i와 Node j간의 거리
상기와 같이 각 파라미터를 설정하여 행렬을 구성할 수 있으며 각 행렬과 그에 따른 계수 특성(Rank Property)은 아래와 같다.
1) Pairwise Distance Matrix:: R(i,j)=dij:: Full Rank
2) Euclidean Distance Matrix(EDM)::EDM(i,j)= : dij 2: Rank:D+2
3) Double-centered EDM:: - H X EDM X H/2::Rank: D
일 실시예에 의하면, 상기 이중 중심화 EDM(Double-centered EDM)의 계수(Rank)인 D는 단말과 특정 기지국 간의 채널 특성이 가시선(LoS)에 가까운 정도를 나타내는 가시선 유사도(LoS-likelihood)일 수 있다.
상기 단말과 상기 특정 기지국을 잇는 직선의 전파 경로상에 장애물이 없어 해당 채널 특성이 가시선(LoS)에 해당하는 경우 상기 이중 중심화 EDM의 계수(Rank)는 2가 된다. 이는 상기 이중 중심화 EDM의 고유값(eigenvalue)이 2개(2차원)인 것을 의미한다.
상기 채널 특성이 비-가시선(NLoS)인 경우 상기 전파 경로는 2차원으로 나타낼 수 없어 상기 이중 중심화 EDM의 계수(Rank)는 2가 아닌 다른 값(예컨대 3)이 된다.
일 실시예에 의하면, 상기 가시선 유사도(LoS-likelihood)의 값이 기 설정된 값에 가까울수록 상기 채널 특성은 가시선(LoS)에 가깝다. 상기 기 설정된 값은 상기 채널 특성이 가시선(LoS)일 때 상기 이중 중심화 EDM 계수(Rank)일 수 있으며 그 값은 2일 수 있다.
일 실시예에 의하면, 단말은 가시선 유사도(LoS-likelihood)가 상기 기 설정된 값에 가까운 순서로 기 설정된 개수의 기지국을 선택할 수 있다. 상기 기 설정된 개수는 위치 측정의 정확도를 고려하여 구체적인 값으로 설정될 수 있다.
특정 기지국의 가시선 유사도(LoS-likelihood)는 단말의 위치 측정을 위해 설정되는 복수의 기지국들 중에서 상기 특정 기지국을 포함하여 적어도 3 이상의 기지국으로 구성되는 하나 이상의 기지국 그룹을 이용하여 계산될 수 있다.
구체적으로 상기 가시선 유사도(LoS-likelihood)는 상기 기지국 그룹에 포함되는 각 기지국과 상기 단말 간의 거리 정보를 이용하여 구성된 EDM의 계수(Rank)들의 평균일 수 있다. 상기 EDM은 이중 중심화 연산(double centering operation)을 적용한 이중 중심화 EDM(Double-centered EDM)일 수 있다.
예를 들면, 단말의 위치 측정을 위해 설정되는 복수의 기지국들이 4개(#1~#4)이며 기지국#1의 가시선 유사도(LoS-likelihood)를 구하는 경우로 가정한다. 상기 복수의 기지국들 중에서 상기 기지국#1을 포함하여 적어도 3 이상의 기지국으로 구성되는 기지국 그룹들은 하기와 같다.
기지국 그룹 1: 기지국#1, 기지국#2, 기지국#3
기지국 그룹 2: 기지국#1, 기지국#2, 기지국#4
기지국 그룹 3: 기지국#1, 기지국#3, 기지국#4
기지국 그룹 4: 기지국#2, 기지국#3, 기지국#4
각 기지국 그룹(그룹1, 그룹2, 그룹3, 그룹4)에 포함되는 각 기지국과 단말간의 거리 정보를 이용하여 4개의 EDM을 구성할 수 있다. 각 EDM 으로부터 얻어지는 비용(cost)을 모두 더하여 '상기 그룹의 수 -1'인 값에 해당하는 3으로 나눈 후, 기지국 #1이 포함되지 않은 그룹 즉 그룹 4의 EDM의 비용(cost)을 뺀다. 그 다음 역수를 취함으로써 기지국#1의 가시선 유사도(LoS-likelihood)가 된다. 상기 비용(cost)은 LoS/NLoS 판별을 위한 비용 함수(Cost Function of Hypothesis Test)로부터 계산되며 자세한 사항은 후술한다.
한편, 레인징은 Time-of-Flight기반으로 수행되는 바 Distance Resolution (
Figure PCTKR2019007192-appb-img-000064
)은 다음과 같다.
Distance Resoulution(
Figure PCTKR2019007192-appb-img-000065
) = (빛의 속도 / sampling rate)
상기 이중 중심화 EDM(Double-centered EDM)에서 고유값(Eigenvalue)의 특성을 활용하여 다중 노드 간의 LoS/NLoS를 판별할 수 있다.
Figure PCTKR2019007192-appb-img-000066
=0인 경우 상기 이중 중심화 EDM 의 D+1 번째 고유값(Eigenvalue)의 존재 유무를 통해 LoS/NLoS판별이 가능하다.
하지만, 모든 레인징 신호를 가시선(LoS) 경로를 통해 취득했다 하더라도, 샘플링 에러(Sampling Error)가 발생하면 계수 조건(Rank Condition)을 곧바로 적용하여 판단할 수는 없게 된다. 이 경우 상기 이중 중심화 EDM의 고유값들(Eigenvalues)(
Figure PCTKR2019007192-appb-img-000067
)을 사용하여 LoS/NLoS 판별을 할 수 있다.
LoS/NLoS 판별을 위한 비용 함수(Cost Function of Hypothesis Test)를 아래 수학식 9로 정의한다.
Figure PCTKR2019007192-appb-img-000068
이는 비 가시선 신호에 의한 레인징 에러(Ranging Error)로 (D+1)Dimension이 발생하는 정도(Distance)를 나타낸다. 상기 수학식 9에 따른 비용(cost)은 가시선 유사도(LoS-likelihood)를 계산하는 데 사용될 수 있다.
LTE Positioning Protocol(LPP)상에서, 임의의 기지국(gNB)들과 단말의 2지점간의 거리(pairwise distance)를 통해 구성한 이중 중심화 EDM(Double-centered EDM)의 고유값들(Eigenvalues)이
Figure PCTKR2019007192-appb-img-000069
라 할 때,
단말은 아래의 값들을 기지국에 보고할 수 있다.
1)
Figure PCTKR2019007192-appb-img-000070
값을 최소로 하는 이중 중심화 EDM을 구성하는 기지국들의 인덱스
2) 그때의
Figure PCTKR2019007192-appb-img-000071
일 실시예에 의하면, 상기 인덱스를 갖는 기지국들은 단말과의 채널 특성에 따라 선택되는 기지국일 수 있다.
상기한 본 발명의 실시예들은 설명의 편의를 위해 OTDOA 기법 절차에 따른 전처리 절차로서 설명하였으나 에에 한정되는 것은 아니며 그 외 다른 기법(UTDOA, E-CID) 등에도 동일하게 적용될 수 있다.
상기한 실시예들은 무선 통신 시스템에서 단말에 의해 수행되는 위치 측정 결과를 보고하는 방법에 적용될 수 있는 바, 구체적으로 도 19 내지 도 21을 참조하여 설명한다.
도 19는 본 발명의 일 실시예에 따른 위치 결정을 위한 측정 결과를 보고하는 방법을 설명하기 위한 흐름도이다.
도 19를 참조하면, 본 발명의 일 실시예에 따른 단말이 위치 결정을 위한 측정 결과를 보고하는 방법은 채널 특성을 판단하는 단계(S100), RSTD를 계산하는 단계(S200) 및 측정 결과를 보고하는 단계(S300)를 포함할 수 있다.
S100에서 상기 단말은, 상기 단말의 위치 결정을 위해 설정되는 복수의 기지국들에 포함되는 각 기지국과 상기 단말과의 채널 특성이 가시선(Line of Sight: LoS)인지 여부를 판단한다.
일 실시예에 의하면, 상기 단말은 상기 단말과 상기 각 기지국간의 거리 정보를 기초로 계산된 가시선 유사도(LoS-likelihood)를 이용하여 상기 채널 특성을 가시선(LoS) 또는 비-가시선(Non-Light of Sight: NLoS)으로 결정할 수 있다.
일 실시예에 의하면, 상기 가시선 유사도(LoS-likelihood)는 상기 거리 정보를 기초로 구성된 EDM(Euclidean Distance Matrix)의 계수(Rank)를 이용하여 계산될 수 있다.
구체적으로 상기 EDM은 상기 복수의 기지국들 중에서 적어도 하나의 기지국을 포함하여 구성되는 하나 이상의 기지국 그룹을 이용하여 구성될 수 있다. 구체적으로 상기 단말은 상기 기지국 그룹에 포함되는 각 기지국과상기 단말 간의 거리 정보를 이용하여 상기 EDM을 구성할 수 있다.
상기 가시선 유사도(LoS-likelihood)는 상기 EDM의 계수(Rank)일 수 있으며 해당 값이 기 설정된 값에 가까울수록 상기 단말은 해당 기지국과의 채널 특성이 가시선(LoS)에 가까운 것으로 판단할 수 있다. 상기 기 설정된 값은 상기 채널 특성이 가시선(LoS)일 때의 상기 EDM의 계수(Rank)값이며 그 값은 2일 수 있다.
S200에서, 상기 단말은 상기 채널 특성이 가시선(LoS)인 기지국들 중에서 어느 하나의 기지국을 참조 셀(reference cell)로 설정하여 RSTD(Reference Signal Time Difference)를 계산한다.
일 실시예에 의하면, 상기 단말은 상기 복수의 기지국들 중에서 상기 가시선 유사도(LoS-likelihood)가 상기 기 설정된 값에 가장 가까운 기지국을 상기 참조 셀로 설정할 수 있다.
S300에서, 상기 단말은 상기 RSTD를 포함하는 측정 결과를 보고한다.
구체적으로 상기 단말은 상기 측정 결과를 위치 서버에 보고한다. 일 실시예에 의하면, 상기 측정 결과는 상기 참조 셀의 식별자(ID), 상기 참조 셀의 가시선 유사도, 상기 복수의 기지국들 중에서 상기 채널 특성이 가시선(LoS)인 기지국들 각각의 식별자(ID) 및 해당 기지국들 각각의 가시선 유사도에 관한 정보 중에서 적어도 하나의 정보를 포함할 수 있다.
상기와 같이 본 발명은 단말의 위치 측정을 위해 설정되는 복수의 기지국과 단말 간의 채널 특성이 가시선(Line of Sight: LoS)인지 비-가시선(Non-Light of Sight: NLoS)인지 여부를 판단하며, 상기 복수의 기지국 중에서 상기 채널 특성이 가시선(LoS)인 기지국을 참조 셀(Reference cell)로 선정하여 RSTD를 계산한다. 따라서 다중 경로가 존재하는 상황에서 위치 측정의 정확도가 개선된다.
이와 관련하여, 구현적인 측면에서, 상술한 단말의 동작은 본 명세서의 도 22 및 도 23에 나타난 단말 장치(2220, 2320)에 의해 구체적으로 구현될 수 있다. 예를 들어, 상술한 단말의 동작은 프로세서(2221, 2321) 및/또는 RF(Radio Frequency) 유닛(또는 모듈)(2223, 2325)에 의해 수행될 수 있다.
무선 통신 시스템에서 데이터 채널(예: PDSCH)을 수신하는 단말은 무선 신호를 전송하기 위한 송신부(transmitter), 무선 신호를 수신하기 위한 수신부(receiver) 및 상기 송신부 및 수신부와 기능적으로 연결되는 프로세서를 포함할 수 있다. 여기에서, 상기 송신부 및 상기 수신부(또는 송수신부)는 무선 신호를 송수신하기 위한 송수신부(transceiver)으로 지칭될 수 있다.
예를 들어, 프로세서는 단말의 위치 결정을 위해 설정되는 복수의 기지국들에 포함되는 각 기지국과 상기 단말과의 채널 특성이 가시선(Line of Sight: LoS)인지 여부를 판단한다.
상기 프로세서는 상기 채널 특성이 가시선(LoS)인 기지국들 중에서 어느 하나의 기지국을 참조 셀(reference cell)로 설정하여 RSTD(Reference Signal Time Difference)를 계산한다. 상기 프로세서는 상기 RSTD를 포함하는 측정 결과를 보고하도록 상기 송수신부를 제어할 수 있다.
이하 도 20에서는 가시선 유사도(LoS-likelihood)의 계산과 관련하여 상기 S100단계를 보다 구체적으로 설명한다.
도 20은 본 발명의 일 실시예에 따른 위치 결정을 위한 측정 결과를 보고하는 방법에서 채널 특성을 판단하는 단계를 구체적으로 설명하기 위한 흐름도이다.
본 발명의 일 실시에에 따른 채널 특성을 판단하는 단계(S100)는 거리 정보 획득 단계(S110), EDM 구성 단계(S120) 및 가시선 유사도 계산 단계(S130)를 포함할 수 있다.
S110에서, 단말은 상기 복수의 기지국들에 레인징 절차를 수행하여 상기 단말과 각 기지국간의 거리 정보를 획득한다. 구체적으로 상기 단말은 상기 복수의 기지국들 중 어느 하나의 기지국(serving eNB)에 레인징 절차 요청 신호(Ranging zone allocation request)를 전송한다. 상기 단말이 상기 기지국(serving eNB)으로부터 레인징 절차 응답 신호(Ranging zone allocation response)를 수신한 경우 상기 레인징 절차가 개시된다.
상기 단말은 상기 복수의 기지국들에 레인징 신호(Ranging signal Tx)를 전송하며 상기 복수의 기지국들에 포함되는 각 기지국으로부터 참조 신호(Response RS signal)를 수신하여 해당 기지국과의 거리 정보를 획득할 수 있다.
S120에서, 상기 단말은 기 획득된 거리 정보를 이용하여 EDM(Euclidean Distance Matrix)을 구성한다.
일 실시예에 의하면, 상기 EDM은 복수로 존재할 수 있으며, 상기 복수의 기지국들 중에서 적어도 하나의 기지국을 포함하여 형성되는 기지국 그룹으로부터 생성될 수 있다. 상기 단말은 상기 기지국 그룹에 포함되는 각 기지국과 상기 단말 간의 거리 정보를 이용하여 상기 EDM을 구성할 수 있다.
일 실시예에 의하면, 상기 EDM은 Euclidean Distance Matrix(EDM)에 이중 중심화 연산(double centering operation)을 적용한 이중 중심화 EDM(Double-centered EDM)일 수 있다.
S130에서, 상기 단말은 상기 EDM을 이용하여 가시선 유사도(LoS-likelihood)를 계산한다.
일 실시예에 의하면, 가시선 유사도(LoS-likelihood)는 상기 EDM의 계수(Rank)일 수 있다.
일 실시예에 의하면, 상기 가시선 유사도(LoS-likelihood)는 상기 이중 중심화 EDM(Double-centered EDM)의 고유값(eigenvalue)의 개수일 수 있다.
이하에서는 상기 가시선 유사도(LoS-likelihood)의 활용과 관련하여 RSTD를 계산하는 단계를 구체적으로 설명한다.
LPP 절차에 따라 상기 단말은 상기 복수의 기지국들에 PRS 요청(Positioning Reference Signal request: PRS request)에 관한 신호를 전송할 수 있으며 상기 PRS 요청에 관한 신호에 따라 수신한 PRS를 이용하여 상기 RSTD를 계산할 수 있다.
일 실시예에 의하면, 상기 PRS 요청에 관한 신호는 상기 채널 특성에 따른 뮤팅 정보(muting information)을 포함할 수 있다.
일 실시예에 의하면, 상기 PRS 요청에 관한 신호는 상기 복수의 기지국들 중에서 상기 채널 특성에 따라 선택되는 기지국들에 대한 정보를 포함할 수 있다. 상기 뮤팅 정보는 상기 복수의 기지국들 중에서 상기 선택되는 기지국들을 제외한 나머지 기지국들에 대한 뮤팅을 지시하는 정보일 수 있다.
일 실시예에 의하면, 상기 선택되는 기지국들은 상기 복수의 기지국들 중에서 상기 가시선 유사도(LoS-likelihood)의 값이 기 설정된 값에 가까운 순서로 선택된 기 설정된 개수의 기지국일 수 있다. 상기 기 설정된 개수는 상기 단말의 위치 측정의 정확도를 고려하여 구체적인 값으로 설정될 수 있다.
상기 단말이 상기 가시선 유사도(LoS-likelihood)에 따라 PRS를 수신하는 경우, 상기 복수의 기지국들 중에서 어느 하나의 기지국으로부터 PRS 그룹 정보(PRS grouping information)를 수신할 수 있다. 상기 단말은 상기 PRS 그룹 정보에 따라 수신된 PRS를 이용하여 RSTD를 계산할 수 있다. 이하 도 21를 참조하여 구체적으로 설명한다.
도 21은 본 발명의 일 실시예에 따른 위치 결정을 위한 측정 결과를 보고하는 방법에서 RSTD를 계산하는 단계를 구체적으로 설명하기 위한 흐름도이다.
도 21을 참조하면, 본 발명의 일 실시예에 따른 RSTD를 계산하는 단계(S200)는 PRS 그룹 정보 수신 단계(S210), PRS 그룹 정보 이용하여 PRS 수신 단계(S220) 및 RSTD 계산 단계(S230)를 포함할 수 있다.
S210에서, 상기 단말은 상기 복수의 기지국들 중에서 어느 하나의 기지국으로부터 상기 PRS 그룹 정보(PRS grouping information)을 수신한다.
구체적으로 상기 단말은 상기 채널 특성에 따라 선택되는 기지국들의 PRS를 이용하여 RSTD를 계산할 수 있으며 상기 선택되는 기지국들의 PRS는 하나의 기지국의 PRS를 위해 할당되는 시간-주파수 자원 영역에 매핑될 수 있다.
이 경우, 상기 단말이 상기 선택되는 기지국들의 PRS를 수신(내지 측정)하기 위해 상기 PRS 그룹 정보(PRS grouping information)를 이용한다. 상기 PRS 그룹 정보는 상기 선택되는 기지국들에 포함되는 각 기지국의 PRS가 매핑된 자원 요소(resource element)를 지시하는 정보를 포함할 수 있다.
S220에서, 상기 단말은 상기 PRS 그룹 정보를 이용하여 상기 선택되는 기지국들의 PRS를 수신한다.
S230에서, 상기 단말은 상기 선택되는 기지국들의 PRS를 이용하여 상기 RSTD를 계산한다.
상기와 같이 본 발명은 채널 특성에 따라 선택된 기지국들의 PRS(Positioning Reference Signal)를 이용하여 RSTD를 계산하는 바, 위치 측정의 정확도를 보다 개선시킬 수 있다.
또한 본 발명은 PRS 요청 신호를 전송함에 있어 상기 채널 특성에 따른 뮤팅 정보를 포함시키는 바, 상기 복수의 기지국 중에서 상기 채널 특성이 가시선(NLoS)인 기지국의 PRS는 수신하며 그렇지 않은 기지국들의 PRS는 차단할 수 있다. 따라서 PRS 수신의 이득(gain)을 높일 수 있다.
또한 본 발명은 상기 채널 특성에 따라 선택되는 기지국들의 PRS는 하나의 PRS를 위해 할당되는 시간-주파수 자원에 매핑되며, 각 기지국의 PRS가 매핑된 자원 요소를 지시하는 정보인 PRS 그룹 정보(PRS grouping information)를 이용하여 수신할 수 있다. 따라서 PRS 전송을 위해 설정되는 한정된 자원을 보다 효율적으로 사용할 수 있다.
본 발명이 적용될 수 있는 장치 일반
도 22는 본 발명의 다른 실시예에 따른 채널 상태 정보를 보고하는 장치의 블록 구성도를 도시한 것이다.
도 22를 참조하면, 무선 통신 시스템은 제1 장치(2210)와 제1 장치(2210) 영역 내에 위치한 다수의 제2 장치(2220)를 포함할 수 있다.
일 실시예에 따라 제1 장치(2210)는 기지국이고 제2 장치(2220)는 단말일 수 있으며 각각 무선 장치로 표현될 수도 있다.
기지국(2210)은 프로세서(processor, 2211), 메모리(memory, 2212) 및 송수신기(2213)를 포함한다. 프로세서(2211)는 앞서 도 1 내지 도 21에서 제안된 기능, 과정 및/또는 방법을 구현한다. 무선 인터페이스 프로토콜의 계층들은 프로세서에 의해 구현될 수 있다. 메모리(2212)는 프로세서와 연결되어, 프로세서를 구동하기 위한 다양한 정보를 저장한다. 송수신기(2213)는 프로세서와 연결되어, 무선 신호를 송신 및/또는 수신한다. 구체적으로 송수신기(2213)는 무선 신호를 전송하는 전송기(transmitter)와 무선 신호를 수신하는 수신기(receiver)를 포함할 수 있다.
단말(2220)은 프로세서(2221), 메모리(2222) 및 송수신기(2223)를 포함한다.
프로세서(2221)는 앞서 도 1 내지 도 21에서 제안된 기능, 과정 및/또는 방법을 구현한다. 무선 인터페이스 프로토콜의 계층들은 프로세서에 의해 구현될 수 있다. 메모리(2222)는 프로세서와 연결되어, 프로세서를 구동하기 위한 다양한 정보를 저장한다. 송수신기(2223)는 프로세서와 연결되어, 무선 신호를 송신 및/또는 수신한다. 구체적으로 송수신기(2223)는 무선 신호를 전송하는 전송기(transmitter)와 무선 신호를 수신하는 수신기(receiver)를 포함할 수 있다.
메모리(2212, 2222)는 프로세서(2211, 2221) 내부 또는 외부에 있을 수 있고, 잘 알려진 다양한 수단으로 프로세서(2211, 2221)와 연결될 수 있다.
또한, 기지국(2210) 및/또는 단말(2220)은 한 개의 안테나(single antenna) 또는 다중 안테나(multiple antenna)를 가질 수 있다.
다른 실시예에 따른 제1 장치(2210)와 제2 장치(2220)를 설명한다.
상기 제 1 장치(2210)는 기지국, 네트워크 노드, 전송 단말, 수신 단말, 무선 장치, 무선 통신 장치, 차량, 자율주행 기능을 탑재한 차량, 커넥티드카(Connected Car), 드론(Unmanned Aerial Vehicle, UAV), AI(Artificial Intelligence) 모듈, 로봇, AR(Augmented Reality) 장치, VR(Virtual Reality) 장치, MR(Mixed Reality) 장치, 홀로그램 장치, 공공 안전 장치, MTC 장치, IoT 장치, 의료 장치, 핀테크 장치(또는 금융 장치), 보안 장치, 기후/환경 장치, 5G 서비스와 관련된 장치 또는 그 이외 4차 산업 혁명 분야와 관련된 장치일 수 있다.
상기 제 2 장치(2220)는 기지국, 네트워크 노드, 전송 단말, 수신 단말, 무선 장치, 무선 통신 장치, 차량, 자율주행 기능을 탑재한 차량, 커넥티드카(Connected Car), 드론(Unmanned Aerial Vehicle, UAV), AI(Artificial Intelligence) 모듈, 로봇, AR(Augmented Reality) 장치, VR(Virtual Reality) 장치, MR(Mixed Reality) 장치, 홀로그램 장치, 공공 안전 장치, MTC 장치, IoT 장치, 의료 장치, 핀테크 장치(또는 금융 장치), 보안 장치, 기후/환경 장치, 5G 서비스와 관련된 장치 또는 그 이외 4차 산업 혁명 분야와 관련된 장치일 수 있다.
예를 들어, 단말은 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털 방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등을 포함할 수 있다. 예를 들어, HMD는 머리에 착용하는 형태의 디스플레이 장치일 수 있다. 예를 들어, HMD는 VR, AR 또는 MR을 구현하기 위해 사용될 수 있다.
예를 들어, 드론은 사람이 타지 않고 무선 컨트롤 신호에 의해 비행하는 비행체일 수 있다. 예를 들어, VR 장치는 가상 세계의 객체 또는 배경 등을 구현하는 장치를 포함할 수 있다. 예를 들어, AR 장치는 현실 세계의 객체 또는 배경 등에 가상 세계의 객체 또는 배경을 연결하여 구현하는 장치를 포함할 수 있다. 예를 들어, MR 장치는 현실 세계의 객체 또는 배경 등에 가상 세계의 객체 또는 배경을 융합하여 구현하는 장치를 포함할 수 있다. 예를 들어, 홀로그램 장치는 홀로그래피라는 두 개의 레이저 광이 만나서 발생하는 빛의 간섭현상을 활용하여, 입체 정보를 기록 및 재생하여 360도 입체 영상을 구현하는 장치를 포함할 수 있다. 예를 들어, 공공 안전 장치는 영상 중계 장치 또는 사용자의 인체에 착용 가능한 영상 장치 등을 포함할 수 있다. 예를 들어, MTC 장치 및 IoT 장치는 사람의 직접적인 개입이나 또는 조작이 필요하지 않는 장치일 수 있다. 예를 들어, MTC 장치 및 IoT 장치는 스마트 미터, 벤딩 머신, 온도계, 스마트 전구, 도어락 또는 각종 센서 등을 포함할 수 있다. 예를 들어, 의료 장치는 질병을 진단, 치료, 경감, 처치 또는 예방할 목적으로 사용되는 장치일 수 있다. 예를 들어, 의료 장치는 상해 또는 장애를 진단, 치료, 경감 또는 보정할 목적으로 사용되는 장치일 수 있다. 예를 들어, 의료 장치는 구조 또는 기능을 검사, 대체 또는 변형할 목적으로 사용되는 장치일 수 있다. 예를 들어, 의료 장치는 임신을 조절할 목적으로 사용되는 장치일 수 있다. 예를 들어, 의료 장치는 진료용 장치, 수술용 장치, (체외) 진단용 장치, 보청기 또는 시술용 장치 등을 포함할 수 있다. 예를 들어, 보안 장치는 발생할 우려가 있는 위험을 방지하고, 안전을 유지하기 위하여 설치한 장치일 수 있다. 예를 들어, 보안 장치는 카메라, CCTV, 녹화기(recorder) 또는 블랙박스 등일 수 있다. 예를 들어, 핀테크 장치는 모바일 결제 등 금융 서비스를 제공할 수 있는 장치일 수 있다. 예를 들어, 핀테크 장치는 결제 장치 또는 POS(Point of Sales) 등을 포함할 수 있다. 예를 들어, 기후/환경 장치는 기후/환경을 모니터링 또는 예측하는 장치를 포함할 수 있다.
상기 제 1 장치(2210)는 프로세서(2211)와 같은 적어도 하나 이상의 프로세서와, 메모리(2212)와 같은 적어도 하나 이상의 메모리와, 송수신기(2213)와 같은 적어도 하나 이상의 송수신기를 포함할 수 있다. 상기 프로세서(2211)는 전술한 기능, 절차, 및/또는 방법들을 수행할 수 있다. 상기 프로세서(2211)는 하나 이상의 프로토콜을 수행할 수 있다. 예를 들어, 상기 프로세서(2211)는 무선 인터페이스 프로토콜의 하나 이상의 계층들을 수행할 수 있다. 상기 메모리(2212)는 상기 프로세서(2211)와 연결되고, 다양한 형태의 정보 및/또는 명령을 저장할 수 있다. 상기 송수신기(2213)는 상기 프로세서(2211)와 연결되고, 무선 시그널을 송수신하도록 제어될 수 있다.
상기 제 2 장치(2220)는 프로세서(2221)와 같은 적어도 하나의 프로세서와, 메모리(2222)와 같은 적어도 하나 이상의 메모리 장치와, 송수신기(2223)와 같은 적어도 하나의 송수신기를 포함할 수 있다. 상기 프로세서(2221)는 전술한 기능, 절차, 및/또는 방법들을 수행할 수 있다. 상기 프로세서(2221)는 하나 이상의 프로토콜을 구현할 수 있다. 예를 들어, 상기 프로세서(2221)는 무선 인터페이스 프로토콜의 하나 이상의 계층들을 구현할 수 있다. 상기 메모리(2222)는 상기 프로세서(2221)와 연결되고, 다양한 형태의 정보 및/또는 명령을 저장할 수 있다. 상기 송수신기(2223)는 상기 프로세서(2221)와 연결되고, 무선 시그널을 송수신하도록 제어될 수 있다.
상기 메모리(2212) 및/또는 상기 메모리(2222)는, 상기 프로세서(2211) 및/또는 상기 프로세서(2221)의 내부 또는 외부에서 각기 연결될 수도 있고, 유선 또는 무선 연결과 같이 다양한 기술을 통해 다른 프로세서에 연결될 수도 있다.
상기 제 1 장치(2210) 및/또는 상기 제 2 장치(2220)는 하나 이상의 안테나를 가질 수 있다. 예를 들어, 안테나(2214) 및/또는 안테나(2224)는 무선 신호를 송수신하도록 구성될 수 있다.
도 23은 본 명세서에서 제안하는 방법들이 적용될 수 있는 무선 통신 장치의 블록 구성도의 또 다른 예시이다.
도 23를 참조하면, 무선 통신 시스템은 기지국(2310)과 기지국 영역 내에 위치한 다수의 단말(2320)을 포함한다. 기지국은 송신 장치로, 단말은 수신 장치로 표현될 수 있으며, 그 반대도 가능하다. 기지국과 단말은 프로세서(processor, 2311,2321), 메모리(memory, 2314,2324), 하나 이상의 Tx/Rx RF 모듈(radio frequency module, 2315,2325), Tx 프로세서(2312,2322), Rx 프로세서(2313,2323), 안테나(2316,2326)를 포함한다. 프로세서는 앞서 살핀 기능, 과정 및/또는 방법을 구현한다. 보다 구체적으로, DL(기지국에서 단말로의 통신)에서, 코어 네트워크로부터의 상위 계층 패킷은 프로세서(2311)에 제공된다. 프로세서는 L2 계층의 기능을 구현한다. DL에서, 프로세서는 논리 채널과 전송 채널 간의 다중화(multiplexing), 무선 자원 할당을 단말(2320)에 제공하며, 단말로의 시그널링을 담당한다. 전송(TX) 프로세서(2312)는 L1 계층 (즉, 물리 계층)에 대한 다양한 신호 처리 기능을 구현한다. 신호 처리 기능은 단말에서 FEC(forward error correction)을 용이하게 하고, 코딩 및 인터리빙(coding and interleaving)을 포함한다. 부호화 및 변조된 심볼은 병렬 스트림으로 분할되고, 각각의 스트림은 OFDM 부반송파에 매핑되고, 시간 및/또는 주파수 영역에서 기준 신호(Reference Signal, RS)와 멀티플렉싱되며, IFFT (Inverse Fast Fourier Transform)를 사용하여 함께 결합되어 시간 영역 OFDMA 심볼 스트림을 운반하는 물리적 채널을 생성한다. OFDM 스트림은 다중 공간 스트림을 생성하기 위해 공간적으로 프리코딩된다. 각각의 공간 스트림은 개별 Tx/Rx 모듈(또는 송수신기,2315)를 통해 상이한 안테나(2316)에 제공될 수 있다. 각각의 Tx/Rx 모듈은 전송을 위해 각각의 공간 스트림으로 RF 반송파를 변조할 수 있다. 단말에서, 각각의 Tx/Rx 모듈(또는 송수신기,2325)는 각 Tx/Rx 모듈의 각 안테나(2326)를 통해 신호를 수신한다. 각각의 Tx/Rx 모듈은 RF 캐리어로 변조된 정보를 복원하여, 수신(RX) 프로세서(2323)에 제공한다. RX 프로세서는 layer 1의 다양한 신호 프로세싱 기능을 구현한다. RX 프로세서는 단말로 향하는 임의의 공간 스트림을 복구하기 위해 정보에 공간 프로세싱을 수행할 수 있다. 만약 다수의 공간 스트림들이 단말로 향하는 경우, 다수의 RX 프로세서들에 의해 단일 OFDMA 심볼 스트림으로 결합될 수 있다. RX 프로세서는 고속 푸리에 변환 (FFT)을 사용하여 OFDMA 심볼 스트림을 시간 영역에서 주파수 영역으로 변환한다. 주파수 영역 신호는 OFDM 신호의 각각의 서브 캐리어에 대한 개별적인 OFDMA 심볼 스트림을 포함한다. 각각의 서브캐리어 상의 심볼들 및 기준 신호는 기지국에 의해 전송된 가장 가능성 있는 신호 배치 포인트들을 결정함으로써 복원되고 복조된다. 이러한 연 판정(soft decision)들은 채널 추정 값들에 기초할 수 있다. 연 판정들은 물리 채널 상에서 기지국에 의해 원래 전송된 데이터 및 제어 신호를 복원하기 위해 디코딩 및 디인터리빙된다. 해당 데이터 및 제어 신호는 프로세서(2321)에 제공된다.
UL(단말에서 기지국으로의 통신)은 단말(2320)에서 수신기 기능과 관련하여 기술된 것과 유사한 방식으로 기지국(2310)에서 처리된다. 각각의 Tx/Rx 모듈(2325)은 각각의 안테나(2326)를 통해 신호를 수신한다. 각각의 Tx/Rx 모듈은 RF 반송파 및 정보를 RX 프로세서(2323)에 제공한다. 프로세서 (2321)는 프로그램 코드 및 데이터를 저장하는 메모리 (2324)와 관련될 수 있다. 메모리는 컴퓨터 판독 가능 매체로서 지칭될 수 있다.
이상에서 설명된 실시 예들은 본 발명의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시 예를 구성하는 것도 가능하다. 본 발명의 실시 예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시 예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시 예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.
본 발명에 따른 실시 예는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시 예는 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시 예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리는 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.
본 발명은 본 발명의 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 통상의 기술자에게 자명하다. 따라서 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (15)

  1. 무선 통신 시스템에서 단말이 위치 결정을 위한 측정 결과를 보고하는 방법에 있어서,
    상기 단말의 위치 결정을 위한 복수의 기지국들에 포함되는 각 기지국과 상기 단말 간의 채널 특성이 가시선(Line of Sight: LoS)인지 여부를 판단하는 단계;
    상기 채널 특성이 가시선(LoS)인 기지국들 중 어느 하나의 기지국을 참조 셀(reference cell)로 설정하여 RSTD(Reference Signal Time Difference)를 계산하는 단계; 및
    상기 RSTD를 포함하는 측정 결과를 보고하는 단계를 포함하는 것을 특징으로 하는 방법.
  2. 제1 항에 있어서,
    상기 채널 특성이 가시선(LoS)인지 여부를 판단하는 단계에서,
    상기 단말과 상기 각 기지국간의 거리 정보를 기초로 계산된 가시선 유사도(LoS-likelihood)를 이용하여 상기 채널 특성을 가시선(LoS) 또는 비-가시선(Non-Light of Sight: NLoS)으로 결정하는 것을 특징으로 하는 방법.
  3. 제2 항에 있어서,
    상기 가시선 유사도(LoS-likelihood)는 상기 거리 정보를 기초로 구성된 EDM(Euclidean Distance Matrix)의 계수(Rank)를 이용하여 계산되는 것을 특징으로 하는 방법.
  4. 제3 항에 있어서,
    상기 RSTD를 계산하는 단계에서,
    상기 단말은 상기 채널 특성이 가시선(LoS)인 기지국들 중에서 상기 가시선 유사도(LoS-likelihood)가 기 설정된 값에 가장 가까운 기지국을 상기 참조 셀로 선택하는 것을 특징으로 하는 방법.
  5. 제4 항에 있어서,
    상기 측정 결과는 상기 참조 셀의 식별자(ID), 상기 참조 셀의 가시선 유사도, 상기 채널 특성이 가시선(LoS)인 기지국들 각각의 식별자(ID), 해당 기지국들 각각의 가시선 유사도에 관한 정보 중에서 적어도 하나의 정보를 포함하는 것을 특징으로 하는 방법.
  6. 제2 항에 있어서,
    상기 RSTD를 계산하는 단계는,
    상기 복수의 기지국들에 PRS 요청(Positioning Reference Signal request: PRS request)에 관한 신호를 전송하는 단계; 및
    상기 PRS 요청에 관한 신호에 따라 수신한 PRS를 이용하여 상기 RSTD를 계산하는 단계;를 포함하고,
    상기 PRS 요청에 관한 신호는 상기 채널 특성에 따른 뮤팅 정보(muting information)를 포함하는 것을 특징으로 하는 방법.
  7. 제6 항에 있어서,
    상기 PRS 요청에 관한 신호는 상기 복수의 기지국들 중에서 상기 채널 특성에 따라 선택되는 기지국들에 대한 정보를 포함하며,
    상기 뮤팅 정보는 상기 복수의 기지국들 중에서 상기 선택되는 기지국들을 제외한 나머지 기지국들에 대한 뮤팅을 지시하는 정보인 것을 특징으로 하는 방법.
  8. 제7 항에 있어서,
    상기 선택되는 기지국들은 상기 복수의 기지국들 중에서 상기 가시선 유사도(LoS-likelihood)의 값이 기 설정된 값에 가까운 순서로 선택된 기 설정된 개수의 기지국인 것인 특징으로 하는 방법.
  9. 제8 항에 있어서,
    상기 PRS 요청에 관한 신호에 따라 수신한 PRS를 이용하여 상기 RSTD를 계산하는 단계는 상기 선택되는 기지국들의 PRS를 이용하여 상기 RSTD를 계산하며,
    상기 선택되는 기지국들의 PRS는 하나의 기지국의 PRS를 위해 할당되는 시간-주파수 자원 영역에 매핑된 것을 특징으로 하는 방법.
  10. 제9 항에 있어서,
    상기 PRS 요청에 관한 신호에 따라 수신한 PRS를 이용하여 상기 RSTD를 계산하는 단계는,
    상기 복수의 기지국들 중에서 어느 하나의 기지국으로부터 PRS 그룹 정보(PRS grouping information)를 수신하는 단계; 및
    상기 PRS 그룹 정보를 이용하여 상기 선택되는 기지국들의 PRS를 수신하는 단계를 포함하며,
    상기 PRS 그룹 정보는 상기 선택되는 기지국들에 포함되는 각 기지국의 PRS가 매핑된 자원 요소(resource element)를 지시하는 정보를 포함하는 것을 특징으로 하는 방법.
  11. 무선 통신 시스템에서 위치 결정을 위한 측정 결과를 보고하는 단말에 있어서,
    무선 신호를 송수신하는 송수신부(transceiver);
    메모리; 및
    상기 송수신부 및 상기 메모리와 연결된 프로세서를 포함하고,
    상기 프로세서는,
    상기 단말의 위치 결정을 위해 설정되는 복수의 기지국들에 포함되는 각 기지국과 상기 단말 간의 채널 특성이 가시선(Line of Sight: LoS)인지 여부를 판단하고,
    상기 채널 특성이 가시선(LoS)인 기지국들 중에서 어느 하나의 기지국을 참조 셀(reference cell)로 설정하여 RSTD(reference signal time difference)를 계산하며
    상기 RSTD를 포함하는 측정 결과를 보고하도록 상기 송수신부를 제어하는 것을 특징으로 하는 단말.
  12. 제11 항에 있어서,
    상기 프로세서는,
    상기 단말과 상기 각 기지국 간의 거리 정보를 기초로 EDM(Euclidean Distance Matrix)을 구성하고, 상기 EDM을 이용하여 가시선 유사도(LoS-likelihood)를 계산하며,
    상기 가시선 유사도(LoS-likelihood)를 이용하여 상기 채널 특성을 가시선(LoS) 또는 비-가시선(Non-Light of Sight: NLoS)으로 결정하는 것을 특징으로 하는 단말.
  13. 제12 항에 있어서,
    상기 프로세서는,
    상기 복수의 기지국들에 PRS 요청(Positioning Reference Signal request: PRS request)에 관한 신호를 전송하고, 상기 PRS 요청에 관한 신호에 따라 수신한 PRS를 이용하여 상기 RSTD를 계산하며,
    상기 PRS 요청에 관한 신호는 상기 채널 특성에 따른 뮤팅 정보(muting information)를 포함하는 것을 특징으로 하는 단말.
  14. 제13 항에 있어서,
    상기 PRS 요청에 관한 신호는 상기 복수의 기지국들 중에서 상기 채널 특성에 따라 선택되는 기지국들에 대한 정보를 포함하며,
    상기 뮤팅 정보는 상기 복수의 기지국들 중에서 상기 선택되는 기지국들을 제외한 나머지 기지국들에 대한 뮤팅을 지시하는 정보인 것을 특징으로 하는 단말.
  15. 무선 통신 시스템에서 단말의 위치 결정을 위한 측정 결과를 보고하는 장치에 있어서,
    메모리 및 상기 메모리와 연결된 프로세서를 포함하고,
    상기 프로세서는,
    상기 단말의 위치 결정을 위한 복수의 기지국들에 포함되는 각 기지국과 상기 단말 간의 채널 특성이 가시선(Line of Sight: LoS)인지 여부를 판단하고,
    상기 채널 특성이 가시선(LoS)인 기지국들 중에서 어느 하나의 기지국을 참조 셀(reference cell)로 설정하여 RSTD(reference signal time difference)를 계산하며
    상기 RSTD를 포함하는 측정 결과를 보고하도록 제어하는 것을 특징으로 하는 장치.
PCT/KR2019/007192 2018-06-22 2019-06-14 무선 통신 시스템에서 위치 결정을 위한 측정 결과 보고 방법 및 그 장치 WO2019245234A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/254,842 US11490284B2 (en) 2018-06-22 2019-06-14 Method and device for reporting measurement result for location determination in wireless communication system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0071733 2018-06-22
KR20180071733 2018-06-22

Publications (1)

Publication Number Publication Date
WO2019245234A1 true WO2019245234A1 (ko) 2019-12-26

Family

ID=68984133

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/007192 WO2019245234A1 (ko) 2018-06-22 2019-06-14 무선 통신 시스템에서 위치 결정을 위한 측정 결과 보고 방법 및 그 장치

Country Status (2)

Country Link
US (1) US11490284B2 (ko)
WO (1) WO2019245234A1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021260599A1 (en) * 2020-06-23 2021-12-30 Telefonaktiebolaget Lm Ericsson (Publ) Secure transfer of positioning integrity kpi
CN114302330A (zh) * 2021-12-24 2022-04-08 重庆邮电大学 一种los/nlos环境下的基于ssgp的uwb定位方法
EP3990939A4 (en) * 2019-08-23 2022-08-10 Samsung Electronics Co., Ltd. METHOD AND APPARATUS FOR LOCATING
WO2022237354A1 (zh) * 2021-05-11 2022-11-17 大唐移动通信设备有限公司 终端定位方法、装置、接收端设备及核心网设备
US11800484B2 (en) 2020-11-24 2023-10-24 Telefonaktiebolaget Lm Ericsson (Publ) User equipment (UE) positioning
EP4144119A4 (en) * 2020-04-30 2024-01-24 Zte Corp METHOD FOR TRANSMITTING PREVIOUS CHANNEL INFORMATION

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113126026B (zh) * 2019-12-31 2024-04-19 中移(成都)信息通信科技有限公司 定位系统、方法及存储介质
WO2022133416A1 (en) 2020-12-18 2022-06-23 Qualcomm Incorporated Location assistance data with line of sight condition for a link between a user equipment and a wireless network node
US11889461B2 (en) * 2021-09-29 2024-01-30 Qualcomm Incorporated Reference signal time difference (RSTD) measurement report enhancements for multi-timing error group (TEG) requests

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150382318A1 (en) * 2014-06-30 2015-12-31 Lg Electronics Inc. Position calculation method and apparatus in wireless communication system
KR20170030773A (ko) * 2015-09-10 2017-03-20 삼성전자주식회사 무선 통신 시스템에서 위치 추정 방법 및 장치
US20170108579A1 (en) * 2014-03-28 2017-04-20 Telefonaktiebolaget Lm Ericsson (Publ) Observed time difference of arrival angle of arrival discriminator
WO2018029298A1 (en) * 2016-08-12 2018-02-15 Alcatel Lucent Position detection of user equipment within a wireless telecommunications network
WO2018069208A1 (en) * 2016-10-10 2018-04-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. User equipment localization in a mobile communication network

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11184057B2 (en) * 2016-09-06 2021-11-23 Samsung Electronics Co., Ltd. Apparatus and method for selecting cell in wireless communication system
EP3321709A1 (en) * 2016-11-11 2018-05-16 Fraunhofer Gesellschaft zur Förderung der Angewand User equipment localization in a mobile communication network based on delays and path strengths

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170108579A1 (en) * 2014-03-28 2017-04-20 Telefonaktiebolaget Lm Ericsson (Publ) Observed time difference of arrival angle of arrival discriminator
US20150382318A1 (en) * 2014-06-30 2015-12-31 Lg Electronics Inc. Position calculation method and apparatus in wireless communication system
KR20170030773A (ko) * 2015-09-10 2017-03-20 삼성전자주식회사 무선 통신 시스템에서 위치 추정 방법 및 장치
WO2018029298A1 (en) * 2016-08-12 2018-02-15 Alcatel Lucent Position detection of user equipment within a wireless telecommunications network
WO2018069208A1 (en) * 2016-10-10 2018-04-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. User equipment localization in a mobile communication network

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3990939A4 (en) * 2019-08-23 2022-08-10 Samsung Electronics Co., Ltd. METHOD AND APPARATUS FOR LOCATING
EP4144119A4 (en) * 2020-04-30 2024-01-24 Zte Corp METHOD FOR TRANSMITTING PREVIOUS CHANNEL INFORMATION
WO2021260599A1 (en) * 2020-06-23 2021-12-30 Telefonaktiebolaget Lm Ericsson (Publ) Secure transfer of positioning integrity kpi
US11800484B2 (en) 2020-11-24 2023-10-24 Telefonaktiebolaget Lm Ericsson (Publ) User equipment (UE) positioning
WO2022237354A1 (zh) * 2021-05-11 2022-11-17 大唐移动通信设备有限公司 终端定位方法、装置、接收端设备及核心网设备
CN114302330A (zh) * 2021-12-24 2022-04-08 重庆邮电大学 一种los/nlos环境下的基于ssgp的uwb定位方法
CN114302330B (zh) * 2021-12-24 2023-07-18 重庆邮电大学 一种los/nlos环境下的基于ssgp的uwb定位方法

Also Published As

Publication number Publication date
US20210266773A1 (en) 2021-08-26
US11490284B2 (en) 2022-11-01

Similar Documents

Publication Publication Date Title
WO2020040572A1 (ko) 무선 통신 시스템에서 상향링크 전송을 수행하는 방법 및 이를 위한 장치
WO2019245234A1 (ko) 무선 통신 시스템에서 위치 결정을 위한 측정 결과 보고 방법 및 그 장치
WO2020009509A1 (ko) 무선 통신 시스템에서 상향링크 전송을 수행하기 위한 방법 및 이를 위한 장치
WO2019216737A1 (ko) 무선 통신 시스템에서 상향링크 전송을 수행하는 방법 및 이를 위한 장치
WO2020027601A1 (ko) 무선 통신 시스템에서 채널 상태 정보를 송수신하는 방법 및 이를 위한 장치
WO2019221553A1 (ko) 무선 통신 시스템에서 단말의 전송 설정 지시자 결정 방법 및 상기 방법을 이용하는 장치
WO2020032621A1 (ko) 무선 통신 시스템에서 다수의 기지국들에 대한 채널 상태 정보를 송수신하는 방법 및 이에 대한 장치
WO2020032685A1 (ko) 무선 통신 시스템에서 빔 실패 검출을 수행하는 방법 및 이에 대한 장치
WO2020032774A1 (ko) 무선 통신 시스템에서 채널 추정을 수행하기 위한 방법 및 이를 위한 장치
WO2020032569A1 (ko) 하향링크 신호를 송수신하는 방법 및 이를 위한 장치
WO2019235906A1 (ko) 무선 통신 시스템에서 참조 신호 패턴을 적응적으로 설정하는 방법 및 이를 위한 장치
WO2020036362A1 (ko) 채널 상태 정보 참조 신호 자원을 송수신하는 방법 및 이를 위한 장치
WO2020032776A1 (ko) 무선 통신 시스템에서 물리 하향링크 제어 채널 후보에 대한 블라인드 디코딩을 수행하기 위한 방법 및 이를 위한 장치
WO2020032779A1 (ko) 무선 통신 시스템에서 harq 정보를 송수신하는 방법 및 이를 위한 장치
WO2020027503A1 (ko) 무선 통신 시스템에서 채널 상태 정보를 송수신하는 방법 및 이를 위한 장치
WO2020231189A1 (ko) 무선 통신 시스템에서 빔 정보를 보고 하는 방법 및 이를 위한 장치
WO2020162735A1 (ko) 무선 통신 시스템에서 물리 샹항링크 공유 채널을 전송하는 방법 및 이를 위한 장치
WO2020080915A1 (ko) 무선 통신 시스템에서 복수의 물리 하향링크 공유 채널들을 송수신하는 방법 및 이를 위한 장치
WO2020080916A1 (ko) 무선 통신 시스템에서 복수의 물리 하향링크 공유 채널들을 송수신하는 방법 및 이를 위한 장치
WO2020027587A1 (ko) 무선 통신 시스템에서 데이터를 송수신하기 위한 자원 할당 방법 및 이를 위한 장치
WO2020017874A1 (ko) 무선 통신 시스템에서 harq-ack 피드백을 수신하는 방법 및 이를 위한 장치
WO2020032617A1 (ko) 무선 통신 시스템에서 채널 상태 정보를 송수신하는 방법 및 이를 위한 장치
WO2020032737A1 (ko) 무선 통신 시스템에서 상향링크 전송을 수행하기 위한 방법 및 이를 위한 장치
WO2020231190A1 (ko) 무선 통신 시스템에서 빔 정보를 보고 하는 방법 및 이를 위한 장치
WO2019245341A1 (ko) 무선 통신 시스템에서 빔 실패 복구를 수행하는 방법 및 그 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19822256

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19822256

Country of ref document: EP

Kind code of ref document: A1