WO2024112067A1 - 무선 통신 시스템에서 위치를 측정하는 방법 및 이를 위한 장치 - Google Patents

무선 통신 시스템에서 위치를 측정하는 방법 및 이를 위한 장치 Download PDF

Info

Publication number
WO2024112067A1
WO2024112067A1 PCT/KR2023/018771 KR2023018771W WO2024112067A1 WO 2024112067 A1 WO2024112067 A1 WO 2024112067A1 KR 2023018771 W KR2023018771 W KR 2023018771W WO 2024112067 A1 WO2024112067 A1 WO 2024112067A1
Authority
WO
WIPO (PCT)
Prior art keywords
location
information
acoustic wave
sensor
zone
Prior art date
Application number
PCT/KR2023/018771
Other languages
English (en)
French (fr)
Inventor
황재호
김학성
신동수
서한별
김동균
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2024112067A1 publication Critical patent/WO2024112067A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/46Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]

Definitions

  • This relates to a method for a device to measure location in a wireless communication system and a device for doing so.
  • a wireless communication system is a multiple access system that supports communication with multiple users by sharing available system resources (eg, bandwidth, transmission power, etc.).
  • multiple access systems include code division multiple access (CDMA) systems, frequency division multiple access (FDMA) systems, time division multiple access (TDMA) systems, orthogonal frequency division multiple access (OFDMA) systems, and single carrier frequency (SC-FDMA) systems. division multiple access) system, MC-FDMA (multi carrier frequency division multiple access) system, etc.
  • SL refers to a communication method that establishes a direct link between terminals (User Equipment, UE) and directly exchanges voice or data between terminals without going through a base station (BS).
  • UE User Equipment
  • BS base station
  • SL is being considered as a way to solve the burden on base stations due to rapidly increasing data traffic.
  • V2X vehicle-to-everything refers to a communication technology that exchanges information with other vehicles, pedestrians, and objects with built infrastructure through wired/wireless communication.
  • V2X can be divided into four types: vehicle-to-vehicle (V2V), vehicle-to-infrastructure (V2I), vehicle-to-network (V2N), and vehicle-to-pedestrian (V2P).
  • V2X communication may be provided through the PC5 interface and/or the Uu interface.
  • next-generation wireless access technology that takes these into consideration may be referred to as new radio access technology (RAT) or new radio (NR).
  • RAT new radio access technology
  • NR new radio
  • Figure 1 is a diagram for comparing and illustrating V2X communication based on RAT before NR and V2X communication based on NR.
  • V2X communication in RAT before NR, a method of providing safety service based on V2X messages such as BSM (Basic Safety Message), CAM (Cooperative Awareness Message), and DENM (Decentralized Environmental Notification Message) This was mainly discussed.
  • V2X messages may include location information, dynamic information, attribute information, etc.
  • a terminal may transmit a periodic message type CAM and/or an event triggered message type DENM to another terminal.
  • V2X scenarios have been presented in NR.
  • various V2X scenarios may include vehicle platooning, advanced driving, extended sensors, remote driving, etc.
  • vehicles can dynamically form groups and move together. For example, to perform platoon operations based on vehicle platooning, vehicles belonging to the group may receive periodic data from the lead vehicle. For example, vehicles belonging to the group may use periodic data to reduce or widen the gap between vehicles.
  • vehicles may become semi-automated or fully automated. For example, each vehicle may adjust its trajectories or maneuvers based on data obtained from local sensors of nearby vehicles and/or nearby logical entities. Additionally, for example, each vehicle may share driving intentions with nearby vehicles.
  • raw data or processed data acquired through local sensors, or live video data can be used to collect terminals of vehicles, logical entities, and pedestrians. /or can be interchanged between V2X application servers. Therefore, for example, a vehicle can perceive an environment that is better than what it can sense using its own sensors.
  • a remote driver or V2X application can operate or control the remote vehicle.
  • cloud computing-based driving can be used to operate or control the remote vehicle.
  • access to a cloud-based back-end service platform may be considered for remote driving.
  • the technical problem to be achieved by the present invention is to provide a method for measuring/determining the position of a device more accurately and efficiently.
  • a method for a device to measure a position in a wireless communication system includes receiving setting information including information on a sound wave positioning zone related to position measurement based on a sound wave signal; And based on entering the acoustic wave positioning zone, measuring the position of the device using acoustic wave signals received through an acoustic wave sensor, and based on limited use of the acoustic wave sensor, the location of the device. Can be measured by applying the position change amount calculated using at least one of an inertial sensor and a Global Positioning System (GPS) to the position value calculated using the sound wave signals immediately before the use of the sound wave sensor is restricted.
  • GPS Global Positioning System
  • the position of the device is characterized in that it is measured based only on the position value calculated using the acoustic wave signals.
  • the location of the device is based on a weighted sum between the first position value calculated using the GPS and the second position value calculated using the sound wave signals during a preset time from the time of entering the sound wave positioning zone. It is characterized by being measured.
  • the location of the device is measured based on the weighted sum of the first location value and the third location value calculated using the GPS during a preset time from the time it leaves the sound wave positioning zone, and the third location value is
  • the position value is a position value calculated by adding a position change amount calculated using at least one of the inertial sensor and the GPS to the position value calculated using the sound wave signals immediately before leaving the sound wave positioning zone.
  • the position of the device is measured based on a weighted sum of the first position value and the second position value based on the difference between the first position value and the second position value being greater than or equal to a preset threshold. do.
  • the method may further include transmitting a message containing location information about the location of the device to a nearby device.
  • the message may further include instruction information instructing a change in the position measurement method based on the device starting to measure the position of the device based on the sound wave signals upon entry into the sound wave positioning zone.
  • the application that measures the position of the device based on the acoustic wave sensor is in the background and is not located in the acoustic wave positioning zone, it further includes the step of determining whether to maintain activation of the acoustic wave sensor. It is characterized by
  • whether to maintain activation of the acoustic wave sensor is determined based on the setting information in a first zone adjacent to the acoustic wave positioning zone, a second zone adjacent to the first zone, and a third zone adjacent to the second zone. Among them, it is characterized in that it is determined based on one zone in which the device is located.
  • a non-transitory computer-readable storage medium recording instructions for performing the above-described method of measuring a position may be provided.
  • a device that performs the above-described method of measuring position may be provided.
  • a processing device for controlling a device that performs the above-described method of measuring position may be provided.
  • the measured position value may include the position of the device to which the position change amount obtained using at least one of an inertial sensor and a Global Positioning System (GPS) is applied.
  • GPS Global Positioning System
  • measuring/determining the location of a device in a wireless communication system can be performed more accurately and efficiently.
  • Figure 1 is a diagram for comparing and illustrating V2X communication based on RAT before NR and V2X communication based on NR.
  • Figure 2 shows the structure of the LTE system.
  • Figure 3 shows the structure of the NR system.
  • Figure 4 shows the structure of a radio frame of NR.
  • Figure 5 shows the slot structure of an NR frame.
  • Figure 6 shows the radio protocol architecture for SL communication.
  • Figure 7 shows a terminal performing V2X or SL communication.
  • Figure 8 shows resource units for V2X or SL communication.
  • Figure 9 is a diagram for explaining the ITS station reference architecture.
  • Figure 10 is an example structure of an ITS station that can be designed and applied based on the reference structure.
  • 11 and 12 are diagrams for explaining a position measurement method based on sound wave signals.
  • Figure 12 is a block diagram briefly illustrating the configuration of a system for data transmission.
  • Figure 13 is a diagram for explaining the internal structure of a VRU device/terminal/SoftV2X device that performs acoustic wave positioning according to an example.
  • Figures 14 to 16 are diagrams to explain a case where the authority of a microphone changes in an acoustic positioning system.
  • Figure 17 is a diagram to explain how a VRU device/terminal with lost/restricted MIC authority estimates its location using inertial navigation.
  • Figures 18 and 19 are diagrams to explain how a terminal/VRU device controls the activation of MIC authority in an application (App) for sound wave positioning.
  • Figure 20 is a diagram to explain how a device measures a position based on sound wave signals.
  • FIG. 21 is a diagram illustrating a method for a network to receive location information of a device measured based on sound wave signals.
  • Figure 22 illustrates a communication system applied to the present invention.
  • Figure 23 illustrates a wireless device applicable to the present invention.
  • Figure 24 shows another example of a wireless device applied to the present invention.
  • Figure 25 illustrates a vehicle or autonomous vehicle to which the present invention is applied.
  • a wireless communication system is a multiple access system that supports communication with multiple users by sharing available system resources (eg, bandwidth, transmission power, etc.).
  • multiple access systems include code division multiple access (CDMA) systems, frequency division multiple access (FDMA) systems, time division multiple access (TDMA) systems, orthogonal frequency division multiple access (OFDMA) systems, and single carrier frequency (SC-FDMA) systems. division multiple access) system, MC-FDMA (multi carrier frequency division multiple access) system, etc.
  • Sidelink refers to a communication method that establishes a direct link between terminals (User Equipment, UE) and directly exchanges voice or data between terminals without going through a base station (BS). Sidelink is being considered as a way to solve the burden on base stations due to rapidly increasing data traffic.
  • UE User Equipment
  • BS base station
  • V2X vehicle-to-everything refers to a communication technology that exchanges information with other vehicles, pedestrians, and objects with built infrastructure through wired/wireless communication.
  • V2X can be divided into four types: vehicle-to-vehicle (V2V), vehicle-to-infrastructure (V2I), vehicle-to-network (V2N), and vehicle-to-pedestrian (V2P).
  • V2X communication may be provided through the PC5 interface and/or the Uu interface.
  • RAT radio access technology
  • NR new radio
  • CDMA code division multiple access
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • OFDMA orthogonal frequency division multiple access
  • SC-FDMA single carrier frequency division multiple access
  • CDMA can be implemented with wireless technologies such as universal terrestrial radio access (UTRA) or CDMA2000.
  • TDMA may be implemented with wireless technologies such as global system for mobile communications (GSM)/general packet radio service (GPRS)/enhanced data rates for GSM evolution (EDGE).
  • GSM global system for mobile communications
  • GPRS general packet radio service
  • EDGE enhanced data rates for GSM evolution
  • OFDMA can be implemented with wireless technologies such as Institute of Electrical and Electronics Engineers (IEEE) 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802-20, and evolved UTRA (E-UTRA).
  • IEEE Institute of Electrical and Electronics Engineers
  • Wi-Fi Wi-Fi
  • WiMAX IEEE 802.16
  • E-UTRA evolved UTRA
  • IEEE 802.16m is an evolution of IEEE 802.16e and provides backward compatibility with systems based on IEEE 802.16e.
  • UTRA is part of the universal mobile telecommunications system (UMTS).
  • 3GPP (3rd generation partnership project) LTE (long term evolution) is a part of E-UMTS (evolved UMTS) that uses E-UTRA (evolved-UMTS terrestrial radio access), employing OFDMA in the downlink and SC in the uplink.
  • -Adopt FDMA LTE-A (advanced) is the evolution of 3GPP LTE.
  • 5G NR is a successor technology to LTE-A and is a new clean-slate mobile communication system with characteristics such as high performance, low latency, and high availability.
  • 5G NR can utilize all available spectrum resources, including low-frequency bands below 1 GHz, mid-frequency bands between 1 GHz and 10 GHz, and high-frequency (millimeter wave) bands above 24 GHz.
  • LTE-A or 5G NR is mainly described, but the technical idea of the embodiment(s) is not limited thereto.
  • FIG. 2 shows the structure of an LTE system that can be applied. This may be called an Evolved-UMTS Terrestrial Radio Access Network (E-UTRAN), or a Long Term Evolution (LTE)/LTE-A system.
  • E-UTRAN Evolved-UMTS Terrestrial Radio Access Network
  • LTE Long Term Evolution
  • LTE-A Long Term Evolution
  • E-UTRAN includes a base station (BS) 20 that provides a control plane and a user plane to the terminal 10.
  • the terminal 10 may be fixed or mobile, and may be called by other terms such as MS (Mobile Station), UT (User Terminal), SS (Subscriber Station), MT (Mobile Terminal), and wireless device.
  • the base station 20 refers to a fixed station that communicates with the terminal 10, and may be called other terms such as evolved-NodeB (eNB), base transceiver system (BTS), or access point.
  • eNB evolved-NodeB
  • BTS base transceiver system
  • Base stations 20 may be connected to each other through an X2 interface.
  • the base station 20 is connected to an Evolved Packet Core (EPC) 30 through the S1 interface, and more specifically, to a Mobility Management Entity (MME) through S1-MME and to a Serving Gateway (S-GW) through S1-U.
  • EPC Evolved Packet Core
  • MME Mobility Management Entity
  • S-GW Serving Gateway
  • the EPC 30 is composed of MME, S-GW, and P-GW (Packet Data Network-Gateway).
  • the MME has information about the terminal's connection information or terminal capabilities, and this information is mainly used for terminal mobility management.
  • S-GW is a gateway with E-UTRAN as an endpoint
  • P-GW is a gateway with PDN as an endpoint.
  • the layers of the Radio Interface Protocol between the terminal and the network are based on the lower three layers of the Open System Interconnection (OSI) standard model, which is widely known in communication systems: L1 (layer 1), It can be divided into L2 (second layer) and L3 (third layer).
  • OSI Open System Interconnection
  • the physical layer belonging to the first layer provides information transfer service using a physical channel
  • the RRC (Radio Resource Control) layer located in the third layer provides radio resources between the terminal and the network. plays a role in controlling.
  • the RRC layer exchanges RRC messages between the terminal and the base station.
  • Figure 3 shows the structure of the NR system.
  • NG-RAN may include a gNB and/or eNB that provide user plane and control plane protocol termination to the UE.
  • Figure 7 illustrates a case including only gNB.
  • gNB and eNB are connected to each other through the Xn interface.
  • gNB and eNB are connected through the 5G Core Network (5GC) and NG interface. More specifically, it is connected to the access and mobility management function (AMF) through the NG-C interface, and to the user plane function (UPF) through the NG-U interface.
  • 5GC 5G Core Network
  • AMF access and mobility management function
  • UPF user plane function
  • Figure 4 shows the structure of a radio frame of NR.
  • NR can use radio frames in uplink and downlink transmission.
  • a wireless frame has a length of 10ms and can be defined as two 5ms half-frames (HF).
  • a half-frame may include five 1ms subframes (Subframe, SF).
  • a subframe may be divided into one or more slots, and the number of slots within a subframe may be determined according to subcarrier spacing (SCS).
  • SCS subcarrier spacing
  • Each slot may contain 12 or 14 OFDM(A) symbols depending on the cyclic prefix (CP).
  • each slot may contain 14 symbols.
  • each slot can contain 12 symbols.
  • the symbol may include an OFDM symbol (or CP-OFDM symbol), a single carrier-FDMA (SC-FDMA) symbol (or a Discrete Fourier Transform-spread-OFDM (DFT-s-OFDM) symbol).
  • OFDM symbol or CP-OFDM symbol
  • SC-FDMA single carrier-FDMA
  • DFT-s-OFDM Discrete Fourier Transform-spread-OFDM
  • Table 1 below shows the number of symbols per slot ((N slot symb ), the number of slots per frame ((N frame,u slot ), and the number of slots per subframe according to the SCS setting (u) when normal CP is used. ((N subframe,u slot ) is exemplified.
  • Table 2 illustrates the number of symbols per slot, the number of slots per frame, and the number of slots per subframe according to the SCS when the extended CP is used.
  • OFDM(A) numerology eg, SCS, CP length, etc.
  • OFDM(A) numerology eg, SCS, CP length, etc.
  • the (absolute time) section of time resources e.g., subframes, slots, or TTI
  • TU Time Unit
  • multiple numerologies or SCSs can be supported to support various 5G services. For example, if SCS is 15kHz, a wide area in traditional cellular bands can be supported, and if SCS is 30kHz/60kHz, dense-urban, lower latency latency) and wider carrier bandwidth may be supported. For SCS of 60 kHz or higher, bandwidths greater than 24.25 GHz can be supported to overcome phase noise.
  • the NR frequency band can be defined as two types of frequency ranges.
  • the two types of frequency ranges may be FR1 and FR2.
  • the values of the frequency range may be changed, for example, the frequency ranges of the two types may be as shown in Table 3 below.
  • FR1 may mean "sub 6GHz range”
  • FR2 may mean “above 6GHz range” and may be called millimeter wave (mmW).
  • mmW millimeter wave
  • FR1 may include a band of 410MHz to 7125MHz as shown in Table 4 below. That is, FR1 may include a frequency band of 6GHz (or 5850, 5900, 5925 MHz, etc.). For example, the frequency band above 6 GHz (or 5850, 5900, 5925 MHz, etc.) included within FR1 may include an unlicensed band. Unlicensed bands can be used for a variety of purposes, for example, for communications for vehicles (e.g., autonomous driving).
  • Figure 5 shows the slot structure of an NR frame.
  • a slot includes a plurality of symbols in the time domain.
  • one slot may include 14 symbols, but in the case of extended CP, one slot may include 12 symbols.
  • one slot may include 7 symbols, but in the case of extended CP, one slot may include 6 symbols.
  • a carrier wave includes a plurality of subcarriers in the frequency domain.
  • a Resource Block (RB) may be defined as a plurality (eg, 12) consecutive subcarriers in the frequency domain.
  • BWP (Bandwidth Part) can be defined as a plurality of consecutive (P)RB ((Physical) Resource Blocks) in the frequency domain and can correspond to one numerology (e.g. SCS, CP length, etc.) there is.
  • a carrier wave may include up to N (e.g., 5) BWPs. Data communication can be performed through an activated BWP.
  • Each element may be referred to as a Resource Element (RE) in the resource grid, and one complex symbol may be mapped.
  • RE Resource Element
  • the wireless interface between the terminal and the terminal or the wireless interface between the terminal and the network may be composed of an L1 layer, an L2 layer, and an L3 layer.
  • the L1 layer may refer to a physical layer.
  • the L2 layer may mean at least one of the MAC layer, RLC layer, PDCP layer, and SDAP layer.
  • the L3 layer may mean the RRC layer.
  • V2X or SL (sidelink) communication will be described.
  • Figure 6 shows the radio protocol architecture for SL communication. Specifically, Figure 6(a) shows the user plane protocol stack of NR, and Figure 6(b) shows the control plane protocol stack of NR.
  • SLSS Sidelink Synchronization Signal
  • SLSS is a SL-specific sequence and may include Primary Sidelink Synchronization Signal (PSSS) and Secondary Sidelink Synchronization Signal (SSSS).
  • PSSS Primary Sidelink Synchronization Signal
  • SSSS Secondary Sidelink Synchronization Signal
  • the PSSS may be referred to as S-PSS (Sidelink Primary Synchronization Signal), and the SSSS may be referred to as S-SSS (Sidelink Secondary Synchronization Signal).
  • S-PSS Systemlink Primary Synchronization Signal
  • S-SSS Sidelink Secondary Synchronization Signal
  • length-127 M-sequences can be used for S-PSS
  • length-127 Gold sequences can be used for S-SSS.
  • the terminal can detect the first signal and obtain synchronization using S-PSS.
  • the terminal can obtain detailed synchronization using S-PSS and S-SSS and detect the synchronization signal ID.
  • PSBCH Physical Sidelink Broadcast Channel
  • PSBCH Physical Sidelink Broadcast Channel
  • the basic information includes SLSS-related information, duplex mode (DM), TDD UL/DL (Time Division Duplex Uplink/Downlink) configuration, resource pool-related information, type of application related to SLSS, This may be subframe offset, broadcast information, etc.
  • the payload size of PSBCH may be 56 bits, including a CRC of 24 bits.
  • S-PSS, S-SSS, and PSBCH may be included in a block format that supports periodic transmission (e.g., SL Synchronization Signal (SS)/PSBCH block, hereinafter referred to as Sidelink-Synchronization Signal Block (S-SSB)).
  • the S-SSB may have the same numerology (i.e., SCS and CP length) as the PSCCH (Physical Sidelink Control Channel)/PSSCH (Physical Sidelink Shared Channel) in the carrier, and the transmission bandwidth is (pre-set) SL BWP (Sidelink BWP).
  • the bandwidth of S-SSB may be 11 RB (Resource Block).
  • PSBCH may span 11 RB.
  • the frequency position of the S-SSB can be set (in advance). Therefore, the UE does not need to perform hypothesis detection at the frequency to discover the S-SSB in the carrier.
  • the transmitting terminal can transmit one or more S-SSBs to the receiving terminal within one S-SSB transmission period according to the SCS.
  • the number of S-SSBs that the transmitting terminal transmits to the receiving terminal within one S-SSB transmission period may be pre-configured or configured for the transmitting terminal.
  • the S-SSB transmission period may be 160ms.
  • an S-SSB transmission period of 160ms can be supported.
  • the transmitting terminal can transmit one or two S-SSBs to the receiving terminal within one S-SSB transmission period.
  • the transmitting terminal can transmit one or two S-SSBs to the receiving terminal within one S-SSB transmission period.
  • the transmitting terminal can transmit 1, 2, or 4 S-SSBs to the receiving terminal within one S-SSB transmission cycle.
  • the transmitting terminal can transmit 1, 2, 4, 8, 16, or 32 S-SSBs to the receiving terminal within one S-SSB transmission cycle. there is.
  • the transmitting terminal sends 1, 2, 4, 8, 16, 32, or 64 S-SSBs to the receiving terminal within one S-SSB transmission cycle. can be transmitted.
  • the structure of the S-SSB transmitted from the transmitting terminal to the receiving terminal may be different depending on the CP type.
  • the CP type may be Normal CP (NCP) or Extended CP (ECP).
  • NCP Normal CP
  • ECP Extended CP
  • the number of symbols for mapping PSBCH within the S-SSB transmitted by the transmitting terminal may be 9 or 8.
  • the CP type is ECP
  • the number of symbols mapping PSBCH within the S-SSB transmitted by the transmitting terminal may be 7 or 6.
  • PSBCH may be mapped to the first symbol in the S-SSB transmitted by the transmitting terminal.
  • a receiving terminal that receives S-SSB may perform an automatic gain control (AGC) operation in the first symbol section of the S-SSB.
  • AGC automatic gain control
  • Figure 7 shows a terminal performing V2X or SL communication.
  • terminal may mainly refer to the user's terminal.
  • network equipment such as a base station transmits and receives signals according to a communication method between terminals
  • the base station may also be considered a type of terminal.
  • terminal 1 may be the first device 100
  • terminal 2 may be the second device 200.
  • Terminal 1 can select a resource unit corresponding to a specific resource within a resource pool, which means a set of resources. And, terminal 1 can transmit an SL signal using the resource unit.
  • Terminal 2 the receiving terminal, can receive a resource pool through which Terminal 1 can transmit a signal, and can detect the signal of Terminal 1 within the resource pool.
  • the base station can inform terminal 1 of the resource pool.
  • another terminal may inform terminal 1 of a resource pool, or terminal 1 may use a preset resource pool.
  • a resource pool may be composed of multiple resource units, and each terminal can select one or multiple resource units and use them to transmit its SL signal.
  • Figure 8 shows resource units for V2X or SL communication.
  • the total frequency resources of the resource pool may be divided into NF numbers, and the total time resources of the resource pool may be divided into NT numbers. Therefore, a total of NF * NT resource units can be defined within the resource pool.
  • Figure 8 shows an example where the resource pool is repeated in a period of NT subframes.
  • one resource unit (eg, Unit #0) may appear periodically and repeatedly.
  • the index of the physical resource unit to which one logical resource unit is mapped may change in a predetermined pattern over time.
  • a resource pool may mean a set of resource units that a terminal that wants to transmit an SL signal can use for transmission.
  • Resource pools can be subdivided into several types. For example, depending on the content of the SL signal transmitted from each resource pool, resource pools can be divided as follows.
  • SA Scheduling Assignment
  • MCS Modulation and Coding Scheme
  • MIMO Multiple Input Multiple Output
  • SA can also be multiplexed and transmitted with SL data on the same resource unit, and in this case, the SA resource pool may mean a resource pool in which SA is multiplexed and transmitted with SL data.
  • SA may also be called a SL control channel.
  • the SL data channel may be a resource pool used by the transmitting terminal to transmit user data. If SA is multiplexed and transmitted along with SL data on the same resource unit, only the SL data channel excluding SA information can be transmitted from the resource pool for the SL data channel. In other words, Resource Elements (REs) that were used to transmit SA information on individual resource units within the SA resource pool can still be used to transmit SL data in the resource pool of the SL data channel. For example, the transmitting terminal can map the PSSCH to consecutive PRBs and transmit it.
  • REs Resource Elements
  • the discovery channel may be a resource pool for the transmitting terminal to transmit information such as its ID. Through this, the transmitting terminal can enable adjacent terminals to discover itself.
  • the method of determining the transmission timing of the SL signal e.g., whether it is transmitted at the reception point of the synchronization reference signal or transmitted by applying a certain timing advance at the reception point
  • resources Allocation method e.g., does the base station assign transmission resources for individual signals to individual transmitting terminals or does the individual transmitting terminal select individual signal transmission resources on its own within the resource pool
  • signal format e.g., each SL It may be divided into different resource pools depending on the number of symbols that a signal occupies in one subframe (or the number of subframes used for transmission of one SL signal), signal strength from the base station, transmission power strength of the SL terminal, etc.
  • ITS Intelligent Transport System
  • V2X Vehicle-to-Everything
  • V2V vehicle-to-vehicle communication
  • V2N vehicle-to-vehicle
  • RSU Radioad-Side Units
  • I2I communication between RSUs
  • ITS stations Vehicles, base stations, RSUs, people, etc. that are the subject of vehicle communication are referred to as ITS stations.
  • Figure 9 is a diagram for explaining the ITS station reference architecture.
  • the ITS station reference architecture consists of the Access layer, Network & Transport layer, Facilities layer, Entity for Security and Management, and the top level. It consists of an application layer and basically follows the layered OSI model.
  • ITS station reference structure features based on the OSI model are shown.
  • the access layer of the ITS station corresponds to OSI layer 1 (physical layer) and layer 2 (data link layer), and the network & transport layer of the ITS station corresponds to OSI layer 3. (network layer) and layer 4 (transport layer), and the facilities layer of an ITS station corresponds to OSI layer 5 (session layer), layer 6 (presentation layer), and layer 7 (application layer).
  • the application layer located at the top of the ITS station performs the function of actually implementing and supporting use cases and can be used selectively depending on the use case.
  • the Management entity is responsible for managing all layers, including communication and operation of the ITS station.
  • the Security entity provides security services for all layers.
  • Each layer of the ITS station exchanges data to be transmitted or received through vehicle communication and additional information for various purposes through mutual interfaces. The following is an abbreviated description of the various interfaces.
  • MN Interface between management entity and networking & transport layer
  • MI Interface between management entity and access layer
  • Figure 10 is an example structure of an ITS station that can be designed and applied based on the reference structure.
  • the main concept of the reference structure of the ITS station is to allow communication processing between two end vehicles/users consisting of a communication network to be divided into layers with special functions possessed by each layer. That is, when a vehicle-to-vehicle message is generated, the data is passed through each layer, one layer at a time, from the vehicle and the ITS system (or other ITS-related terminals/systems) down, and on the other side to the vehicle or vehicle that receives the message when it arrives. ITS (or other ITS-related terminals/systems) are passed upward one layer at a time.
  • the ITS system through vehicle communication and networks is designed organically by considering various connection technologies, network protocols, and communication interfaces to support various use-cases, and the roles and functions of each layer described below may change depending on the situation. You can. The following briefly describes the main functions of each layer.
  • the application layer plays a role in actually implementing and supporting various use-cases, and provides, for example, safety and efficient traffic information and other entertainment information.
  • the application layer controls the ITS Station to which the application belongs in various forms, or provides services by delivering service messages to terminal vehicles/users/infrastructure, etc. through vehicle communication through the lower access layer, network & transport layer, and facilities layer. to provide.
  • the ITS application can support a variety of use cases, and generally, these use-cases can be grouped and supported by other applications such as road-safety, traffic efficiency, local services, and infotainment.
  • Application classification, use-case, etc. can be updated when new application scenarios are defined.
  • Layer management plays the role of managing and servicing information related to the operation and security of the application layer.
  • MA interface between management entity and application layer
  • SA interface between security entity and ITS- S applications
  • SAP Service Access Point
  • FA interface between facilities layer and ITS-S applications or FA-SAP
  • the facilities layer plays a role in supporting the effective realization of various use-cases defined in the upper application layer, and can perform, for example, application support, information support, and session/communication support.
  • the Facilities layer basically supports the top three layers of the OSI model, such as the session layer, presentation layer, application layer, and functions. Specifically, facilities such as application support, information support, and session/communication support are provided for ITS. Here, facilities refer to components that provide functionality, information, and data.
  • Application support facilities are facilities that support the operation of ITS applications (mainly creating messages for ITS, sending and receiving messages to and from lower layers, and managing them).
  • the application support facilities include CA (Cooperative Awareness) basic service, DEN (Decentralized Environmental Notification) basic service, etc.
  • CA Cooperative Awareness
  • DEN Decentralized Environmental Notification
  • facility entities and related messages may be additionally defined for new services such as CACC (Cooperative Adaptive Cruise Control), Platooning, VRU (Vulnerable Roadside User), and CPS (Collective Perception Service).
  • Information support facilities are facilities that provide common data information or databases to be used by various ITS applications, such as Local Dynamic Map (LDM).
  • LDM Local Dynamic Map
  • Session/communication support facilities are facilities that provide services for communications and session management, including addressing mode and session support.
  • facilities can be divided into common facilities and domain facilities.
  • Common facilities are facilities that provide common services or functions required for the operation of various ITS applications and ITS stations. Examples include time management, position management, and services managements.
  • Domain facilities are facilities that provide special services or functions required only for some (one or more) ITS applications, such as DEN basic service for Road Hazard Warning applications (RHW). Domain facilities are an optional feature and will not be used unless supported by the ITS station.
  • RHW Road Hazard Warning applications
  • Layer management plays the role of managing and servicing information related to the operation and security of the facilities layer, and related information is divided into MF (interface between management entity and facilities layer) and SF (interface between security entity and facilities layer). ) (or MF-SAP, SF-SAP) are transmitted and shared in both directions. Requests from the application layer to the facilities layer, or service messages and related information from the facilities layer to the application layer, are transmitted through FA (or FA-SAP), and two-way service messages and related information are transmitted between the facilities layer and the lower networking & transport layer. Information is transmitted by NF (interface between networking & transport layer and facilities layer, or NF-SAP).
  • the vehicle network layer may be designed or configured to be dependent on the technology used in the access layer (access layer technology-dependent), and may be designed or configured (access layer technology-independent, access layer technology agnostic) regardless of the technology used in the access layer. It can be configured.
  • the European ITS network & transport layer functions are as follows. Basically, the functions of the ITS network & transport layer are similar or identical to OSI layers 3 (network layer) and 4 (transport layer) and have the following characteristics.
  • the transport layer is a connection layer that delivers service messages and related information provided from the upper layer (session layer, presentation layer, application layer) and lower layer (network layer, data link layer, physical layer). It plays a role in managing the data sent by the ITS station's application to accurately arrive at the application process of the destination ITS station.
  • transport protocols that can be considered in European ITS include TCP and UDP, which are used as existing Internet protocols, as shown in Figure OP5.1, and transport protocols specifically for ITS, such as BTS.
  • the network layer determines the logical address and delivery method/route of the packet, and adds information such as the logical address of the destination and the delivery path/method to the packet provided by the transport layer to the header of the network layer.
  • packet methods unicast, broadcast, multicast, etc. between ITS stations can be considered.
  • Networking protocols for ITS can be considered in various ways, such as GeoNetworking, IPv6 networking with mobility support, and IPv6 over GeoNetworking.
  • the GeoNetworking protocol can apply not only simple packet transmission, but also various transmission paths or transmission ranges, such as forwarding using the location information of stations including vehicles, or forwarding using the number of forwarding hops.
  • Layer management related to the network & transport layer plays the role of managing and servicing information related to the operation and security of the network & transport layer. Related information is provided through the MN (interface between management entity). and networking & transport layer, or MN-SAP) and SN (interface between security entity and networking & transport layer, or SN-SAP).
  • MN interface between management entity
  • MN-SAP networking & transport layer
  • SN interface between security entity and networking & transport layer, or SN-SAP
  • the two-way transfer of service messages and related information between the facilities layer and the networking & transport layer is done by NF (or NF-SAP), and the exchange of service messages and related information between the networking & transport layer and the access layer is done by IN (interface between access). layer and networking & transport layer, or IN-SAP).
  • the North American ITS network & transport layer like Europe, supports IPv6 and TCP/UDP to support existing IP data, and defines WSMP (WAVE Short Message Protocol) as a protocol only for ITS.
  • WSMP Wi-Fi Short Message Protocol
  • the packet structure of WSM (WAVE Short Message) generated according to WSMP consists of the WSMP Header and WSM data through which the message is transmitted.
  • the WSMP header consists of version, PSID, WSMP header extension field, WSM WAVE element ID, and length.
  • Version is defined as a 4-bit WsmpVersion field indicating the actual WSMP version and a 4-bit reserved field.
  • PSID is a provider service identifier that is assigned according to the application at the upper layer, and helps the receiver determine the appropriate upper layer.
  • Extension fields are fields for extending the WSMP header, and information such as channel number, data-rate, and transmit power used are inserted.
  • WSMP WAVE element ID specifies the type of WAVE short message being transmitted.
  • Lenth specifies the length of WSM data transmitted through the 12-bit WSMLemgth field in octets, and the remaining 4 bits are reserved.
  • the LLC Header functions to distinguish and transmit IP data and WSMP data, and is distinguished through SNAP's Ethertype.
  • LLC header and SNAP header are defined in IEEE802.2.
  • IP data When transmitting IP data, set the Ethertype to 0x86DD to configure the LLC header.
  • Ethertype is set to 0x88DC to configure the LLC header.
  • the Ethertype is checked and if the Ethertype is 0x86DD, the packet is sent up to the IP data path. If the Ethertype is 0x88DC, the packet is sent up to the WSMP path.
  • the Access layer is responsible for transmitting messages or data received from the upper layer through a physical channel.
  • ITS-G5 vehicle communication technology based on IEEE 802.11p, satellite/broadband wireless mobile communication technology, 2G/3G/4G (LTE (Long-Term Evolution), etc.)/5G, etc.
  • wireless cellular ( cellular) communication technology cellular-V2X vehicle-specific communication technology such as LTE-V2X and NR-V2X (New Radio), broadband terrestrial digital broadcasting technology such as DVB-T/T2/ATSC3.0, GPS technology, etc.
  • LTE-V2X Long-Term Evolution
  • NR-V2X New Radio
  • broadband terrestrial digital broadcasting technology such as DVB-T/T2/ATSC3.0, GPS technology, etc.
  • the data link layer is a layer that converts the generally noisy physical lines between adjacent nodes (or between vehicles) into a communication channel with no transmission errors for use by the upper network layer, and transmits/transmits a 3-layer protocol.
  • Transport/delivery function framing function that divides and groups data to be transmitted into packets (or frames) as transmission units, flow control function that compensates for the speed difference between the sending and receiving sides, (physical transmission medium) Due to the nature of the device, there is a high probability that errors and noise will occur randomly), so transmission errors can be detected and corrected, or transmission errors can be detected and accurately received through a timer and ACK signal on the transmitting side through ARQ (Automatic Repeat Request). It performs functions such as retransmitting unsuccessful packets.
  • . LLC Logical Link Control
  • RRC Radio Resource Control
  • PDCP Packet Data Convergence Protocol
  • RLC Radio Link Control
  • MAC Medium Access Control
  • MCO Multiple Control
  • the LLC sub-layer allows the use of several different lower MAC sublayer protocols, enabling communication regardless of network topology.
  • the RRC sub-layer broadcasts cell system information required for all terminals in the cell, manages delivery of paging messages, manages RRC connections between terminals and E-UTRAN (establishment/maintenance/release), mobility management (handover), and It performs functions such as UE context transmission between eNodeBs, terminal (UE) measurement reporting and control, terminal (UE) capability management, temporary granting of cell IDs to UEs, security management including key management, and RRC message encryption.
  • the PDCP sub-layer can perform IP packet header compression through compression methods such as ROHC (Robust Header Compression), ciphering control messages and user data, data integrity, and data loss prevention during handover. It performs functions such as:
  • the RLC sub-layer transmits data by matching packets from the upper PDCP layer to the allowable size of the MAC layer through packet segmentation/concatenation, and improves data transmission reliability and reception by managing transmission errors and retransmissions. Check the order of data, rearrange it, check for duplicates, etc.
  • the MAC sub-layer has the function of controlling collisions/contentions between nodes and matching packets delivered from the upper layer to the physical layer frame format for the use of shared media by multiple nodes, the function of assigning and identifying transmitter/receiver addresses, detecting carrier waves, etc. It performs roles such as collision detection and detecting obstacles on physical media.
  • the MCO sub-layer enables effective provision of various services using multiple frequency channels, and its main function is to effectively distribute the traffic load from a specific frequency channel to other channels, thereby effectively distributing the traffic load from a specific frequency channel to other channels. Minimize conflict/contention of communication information.
  • the physical layer is the lowest layer in the ITS hierarchy and defines the interface between the node and the transmission medium. It performs modulation, coding, mapping of transmission channels to physical channels, etc. for bit transmission between data link layer entities, and detects carrier waves ( It performs the function of notifying the MAC sublayer whether the wireless medium is in use (busy or idle) through (Carrier Sense) and Clear Channel Assessment (CCA).
  • CCA Clear Channel Assessment
  • the SoftV2X system is V2X communication using the UU interface, where the SoftV2X server receives a VRU message or PSM (Personal Safety Message) from a VRU (Vulnerable Road User) or V2X vehicle, and based on the VRU message or PSM message, nearby VRUs or vehicles It is a system that delivers information, analyzes the road conditions on which nearby VRUs or vehicles move, and sends messages notifying collision warnings, etc. to nearby VRUs or vehicles based on the analyzed information.
  • the VRU message or PSM message is a message transmitted to the SoftV2X server through the UU interface and may include mobility information about the VRU, such as the VRU's location, movement direction, movement path, and speed.
  • the SoftV2X system receives mobility information of VRUs and/or vehicles related to V2X communication through the UU interface, and the softV2X server, such as the network, controls the driving path of the VRU, etc., VRU movement flow, etc. based on the received mobility information. It's a method.
  • the SoftV2X system may be configured in relation to V2N communication.
  • VRU devices User equipment or pedestrian equipment (VRU devices) that find it difficult to perform direct communication (PC5, DSRC) related to V2X communication can provide or receive driving information and mobility information to surrounding vehicles or VRUs through the SoftV2X system based on the UU interface. .
  • PC5, DSRC direct communication
  • GPS Global Positioning System
  • the GPS-based location measurement technology is a technology that requires reception of signals transmitted from satellites, and performance may deteriorate depending on conditions such as weather, overpasses inside buildings, etc.
  • the problem of GPS performance degradation in specific areas such as school zones and crosswalks needs to be resolved.
  • the authority to use the MIC (microphone or sound wave sensor) in location measurement based on the sound wave signal may be limited.
  • 11 and 12 are diagrams for explaining a position measurement method based on sound wave signals.
  • RSUs anchors; 110, 120, 130, 140
  • the RSUs 110, 120, 130, and 140 may generate and transmit synchronized sound wave signals received from the local server 220.
  • the VRU device/terminal/SoftV2X device 400 performs relative positioning with each of the RSUs 110, 120, 130, and 140 based on the sound wave signal, and determines the positioning parameters received from the SoftV2X server 300 and the RSU.
  • One's absolute position can be estimated based on the absolute positions of (110, 120, 130, 140).
  • Local server may transmit a synchronized sound wave signal to the surrounding VRU device/terminal/SoftV2X device 400 through the RSUs (110, 120, 130, 140).
  • Anchor 1 (or RSU 1) and Anchor 2 (or RSU 2) may simultaneously generate/transmit sound wave signals at the first time (t1).
  • the VRU device/terminal/SoftV2X device 400 may receive the sound wave signals from Anchor 1 and Anchor 2 and calculate the reception time difference between the sound wave signals.
  • the VRU device/terminal/SoftV2X device 400 is a VRU device/terminal/SoftV2X device based on the difference in the reception time of the sound wave signal at the two anchors among anchors 1 to 4, as shown in FIG. 12 (b).
  • the location of (400) can be calculated/estimated. This may be similar to the TDoA method described above. For such position measurement, the (absolute) position of each anchor needs to be transmitted to the VRU device/terminal/SoftV2X device 400.
  • the VRU device/terminal/SoftV2X device 400 may have limited rights to receive the sound wave signal when a specific situation such as a call occurs. And, as a result, it may become difficult to measure the reception time for the sound wave signal.
  • Figure 13 is a diagram for explaining the internal structure of a VRU device/terminal/SoftV2X device that performs acoustic wave positioning according to an example.
  • the terminal/VRU device includes an MIC (110), a filter (120), a signal processor (130), a TDoA calculator (140), and a mode detector (210). ), path prediction (220), IMU sensor (230), GPS (240), and positioning fusion block (Positioning Fusion Block (250)).
  • the MIC 110 can receive a surrounding sound wave signal
  • the filter 120 can separate/extract a sound wave signal in a desired sound wave band from the surrounding sound wave signal.
  • the signal processing unit 130 can extract the signal received from each anchor and calculate/obtain the reception time of the extracted signal for each anchor.
  • the TDoA calculator 140 can measure/calculate the location based on the difference in reception times between the anchors.
  • the mode detector 210 can recognize changes in authority of the MIC for location measurement based on the sound wave signal from the OS (Operating System) of the terminal/VRU device.
  • the path predictor 200 can predict the direction of travel of the terminal or the VRU device.
  • the location fusion block 250 fuses at least two of the measured value (or movement/position change amount) of the IMU sensor 230, the GPS information of the GPS, and the measured value of the sound wave signal to control the terminal/VRU device. Position can be calculated/measured.
  • This fusion positioning method is used based on the restriction/loss of MIC authority among position measurements based on sound wave signals, the movement status of the terminal/VRU device before sound wave positioning, and the zone in which the terminal/VRU device is located. Can be determined/defined.
  • Figures 14 to 16 are diagrams to explain a case where the authority of a microphone changes in an acoustic positioning system.
  • the terminal/VRU device has the authority to use the MIC/sound wave sensor for position measurement based on the sound wave signal at the first location 410, but when a specific event, etc. occurs at the second location 420 (e.g. , call occurrence), the right to use the MIC/sound wave sensor may be lost/restricted, and the right to use the MIC/sound wave sensor may be regained at the third location 430.
  • the terminal/VRU device may not obtain measurement values based on the acoustic wave signal while moving from the second location to the third location. In situations like this (i.e. loss/restriction of microphone privileges), technology that complements the position measurement method based on the acoustic signal may be necessary.
  • location changes based on GPS measurement values and location changes based on sound wave signals are shown.
  • the terminal/VRU device can perform location measurement using only GPS signals. Thereafter, when entering the acoustic wave positioning area, the terminal/VRU device can measure/determine its own location using acoustic wave positioning. At this time, location-related information can be received from all of the USP system, GPS system, and IMU sensor.
  • the MIC signal may be lost at t23 (e.g., restriction/loss of MIC access rights).
  • the terminal/VRU device can estimate/predict its own location based on the sound wave-based measurement value obtained before losing the MIC signal and the measurement value of the IMU sensor.
  • the terminal/VRU device can adjust/correct the measured/estimated position by additionally considering the GPS value for GPS-based position measurement again.
  • the basic state of the operating state machine may be to measure position based on GPS (state A).
  • position measurement can be performed by moving from state A to state B and using USP (sound wave-based positioning) values. If MIC privileges are lost or restricted, you can move from state B to state C.
  • state C a measurement/estimate of position may be performed using the USP value (USP_ref) and inertial navigation (INS; IMU and/or GPS variations) obtained immediately before the loss/restriction of the MIC.
  • USP_ref USP value
  • INS inertial navigation
  • IMU inertial navigation
  • the location can be measured based on the last calculated USP value (USP_ref), INS value (last measured value in state B/C), and GPS value.
  • state C can move to state B again. After this, if it leaves the sound wave positioning area (USP Zone), it can move from state B to state D. When re-entering the sonic positioning area (USP Zone) from state D, you can move to state C.
  • USP Zone sound wave positioning area
  • state A location information/values measured based on GPS values/information ( ) can be determined/used as the final location information/value.
  • state B the position information/value measured based on the USP value/information (i.e. the value calculated based on the acoustic signals) ( ) can be determined/used as the final location information/value.
  • the first position value measured using the GPS value in state A and the second position value measured using the (initial) USP value in state B are large. If there is a difference (extreme change), the first position value can be smoothly changed from the first position value to the second position value through smoothing technology.
  • the degree of change in the location value may be utilized/used for risk analysis in the VRU device/terminal. If the USP signal is lost, state C can be entered. In state C, the last acquired position value (USP_ref; ), the location can be estimated using inertial navigation (IMU change amount and/or GPS change amount).
  • IMU change amount and/or GPS change amount inertial navigation
  • Figure 17 is a diagram to explain how a VRU device/terminal with lost/restricted MIC authority estimates its location using inertial navigation.
  • the VRU device/terminal moves to state C and can additionally use inertial navigation to predict/estimate its own location.
  • the VRU device/terminal displays the last acquired position value before moving to state C ( ), you can estimate/predict your own position by reflecting the amount of change due to inertial navigation.
  • the VRU device/terminal is as shown in Equation 1 below: and (in other words, ) Based on the IMU change and GPS change, your position at T 23 ( ) can be estimated/predicted.
  • ⁇ IMU and ⁇ GPS may be a specification coefficient that adjusts the rate at which the IMU change amount and GPS change amount are reflected in position estimation using inertial navigation. Meanwhile, since the accuracy of the position change according to the amount of change in the IMU may be high, ⁇ IMU may be set to a value larger than ⁇ GPS .
  • the VRU device/terminal may transition to state D when it leaves the USP area.
  • state D if position measurement is performed only based on GPS immediately after switching to state D, a sudden change in position (or large position error) may occur. Therefore, even if it switches to state D, the VRU device/terminal can continue position estimation/prediction according to inertial navigation for a predetermined time. For example, for a predetermined period of time, the VRU device/terminal may proportionally apply the IMU change amount and the GPS change amount to the location measured using the GPS value.
  • the VRU device/terminal can calculate the final location using the INS location predicted according to inertial navigation and the GPS location according to the GPS.
  • the VRU device/terminal uses inertial navigation as shown in Equation 2 to estimate/predict the INS location ( , ) and GPS location ( , ), the final position can be calculated by applying predefined gravity coefficients ( ⁇ IMU , ⁇ GPS ) and adding them.
  • the VRU device/terminal when the VRU device/terminal is located in a sound wave positioning area, which is a specific area during location measurement based on GPS information, the VRU device/terminal can obtain its own location information based on the sound wave signal rather than the GPS information. Furthermore, the VRU device/terminal performs inertial navigation based on the IMU change amount (and/or GPS conversion amount) even when the authority of the MIC for the sound wave positioning is lost/limited while performing sound wave positioning in the sound wave positioning area. Through this, you can effectively predict/estimate your location information.
  • the surrounding device may detect sudden stop, risk of collision, etc. based on reception of a message containing information about the sudden location change. There is a possibility of performing a false alarm operation. To prevent such false alarm operations, the VRU device/terminal may additionally provide information about changes in the location measurement technology. To this end, the VRU device/terminal may transmit a message containing a newly defined display field to surrounding VRU devices/terminals to inform them that the sudden change in location is a change due to a change in the location measurement technology rather than an actual dynamic change. there is.
  • the display field may have a payload of 1 Byte and indicates 1.GPS, 2,USP, 3.USP+IMU, 4.USP+IMU+GPS, 5.UPS + other (UWB), etc. Information may be included.
  • the field can be added to the Regional Extension field included in the V2X message/V2N message. Additionally, the VRU device/terminal may transmit a separate additional message including the indication field.
  • Figures 18 and 19 are diagrams to explain how a terminal/VRU device controls the activation of MIC authority in an application (App) for sound wave positioning.
  • the terminal/VRU device may determine a control method for activating MIC authority related to location determination based on whether it is located adjacent to the acoustic wave positioning area.
  • Zone 1 is an area excluding the sound wave positioning area from a circle centered on a specific position ( Pos_USP ) of the sound wave positioning area and having a radius of the first distance (Dist level1 )
  • Zone 2 is an area excluding the sound wave positioning area . It is the area excluding Zone 1 in a circle with the second distance (Dist level2 ) as the center and the radius, and Zone 3 may be the remaining area excluding Zone 2.
  • Zone 1 may be set as the zone closest to the sound wave positioning area among the zones.
  • the terminal/VRU device 110 located in Zone 1 can activate the MIC authority so that it always has the MIC authority (even in the background state) regardless of the movement state of the terminal/VRU device. That is, the terminal/VRU device 110 can activate the MIC authority regardless of whether it moves in the direction of entering the acoustic wave positioning area.
  • Zone 2 is set as a zone next to Zone 1 and adjacent to the sound wave positioning area.
  • UE/VRU devices 210 and 220 located in Zone 2 may determine whether to maintain activation of the MIC authority based on the movement state.
  • the terminal/VRU device 210 may activate the MIC authority based on the moving state toward the acoustic wave positioning area.
  • the terminal/VRU device 220 may deactivate the MCI authority based on a movement state moving in a direction away from the acoustic wave positioning area.
  • Zone 3 may be the remaining area excluding the sound wave positioning area, Zone 1 and Zone 2.
  • the terminal/VRU device 310 located in Zone 3 may not perform control of activation of the MIC authority regardless of the movement state. However, when the terminal/VRU device 310 moves toward the acoustic wave positioning area for a certain period of time, guidance to turn on the mode (or execution of the App) related to the acoustic wave positioning may be provided to the user.
  • FIG. 19 the configuration of a state machine that explains the operation of the terminal/VRU device based on the above-described zones is shown.
  • the state machine may include a zero state, a first state, a second state, a third state, and a fourth state.
  • State 0 may be a stage in which an App related to the sonic positioning (USP) service is executed (e.g., not in a background state).
  • the terminal/VRU device may be switched from the zero state to the first state.
  • the terminal/VRU device in the first state may set the above-described zones (eg, zone 1, zone 2, and zone 3) based on its own location and the location of the acoustic wave positioning area. When the terminal/VRU device is located in zone 1 among the set zones, it can switch from the first state to the second state.
  • the terminal/VRU device can activate the MIC authority regardless of the movement state of the terminal/VRU device.
  • the terminal/VRU device can activate the MIC authority regardless of the movement state of the terminal/VRU device when the App switches to the background state.
  • the terminal/VRU device when the terminal/VRU device is located in zone 2, the terminal/VRU device may switch from the first state to the third state.
  • the terminal/VRU device can determine whether to maintain activation of the MIC authority even after the App is in the background based on its own movement status. For example, when the terminal/VRU device moves toward the sound wave measurement zone, the terminal/VRU device may maintain activation of the MIC authority even after the App is in the background.
  • the terminal/VRU device heads in a direction outside the acoustic wave positioning area (eg, toward zone 3)
  • the terminal/VRU device may switch from the third state to the fourth state.
  • the terminal/VRU device may switch from the first state to the fourth state.
  • the terminal/VRU device can deactivate the MIC authority regardless of the movement status of the terminal/VRU device.
  • the terminal/VRU device switches to the third state. It is possible to provide the user with information that the sound wave positioning is possible, and the app for the sound wave positioning can be induced to activate the MIC permission through the user's input.
  • the acoustic wave positioning system determines whether to activate MIC permissions for each app (or program) in a specific smartphone (or specific OS) based on the movement status and location of the terminal/VRU device.
  • the MIC authority can be activated only when necessary.
  • Figure 20 is a diagram to explain how a device measures a position based on sound wave signals.
  • the device may receive setting information including information on the acoustic wave positioning zone (or acoustic wave measurement area) related to position measurement based on the acoustic signal (S201).
  • the setting information may include the positions of the four vertices of the sound wave positioning zone, and the positions of each of the four vertices may be the absolute position of the RSU as described above.
  • the setting information may further include not only location information about the sound wave positioning zone, but also information about adjacent zones (center point, radius) and/or information about a preset time as described in FIG. 18.
  • the device may be a VRU device, a terminal, or a SoftV2X device as described above, and the setting information may be received from the SoftV2X server and/or network.
  • the acoustic wave positioning zone may be an area where the GPS signal is not properly received, or an area that requires position measurement with higher accuracy than the accuracy of position measurement based on the GPS signal (e.g., crosswalk, intersection, etc.). there is.
  • the device can measure its location using sound wave signals received through an acoustic wave sensor (S203).
  • the sound wave signals are sound wave signals synchronized in a location network, may be transmitted from at least two anchor nodes or RSUs, and may be ultrasonic signals having a frequency above the audible frequency.
  • the device may measure the position of the device based on the difference value (or position value) of reception times between the sound wave signals and the absolute position information of each of the RSUs.
  • the sound wave sensor may be a microphone (MIC) as described above.
  • the device can measure/estimate the location of the device using the amount of position change based on inertial navigation (S205).
  • the amount of position change may be calculated/obtained using at least one of an inertial sensor (IMU) and a Global Positioning System (GPS), as described above.
  • IMU inertial sensor
  • GPS Global Positioning System
  • the use of the sound wave sensor for receiving the sound wave signals may be limited due to the occurrence of a specific event in the device (eg, occurrence of a wireless call, etc.).
  • the device can receive sound wave signals using the sound wave sensor, and can measure its own position based on an inertial navigation method to minimize deterioration of position measurement performance for the sound wave signals. there is.
  • the device obtains/calculates the first position value measured/calculated using the acoustic wave signals immediately before the use of the acoustic wave sensor is restricted based on the inertial navigation.
  • the position of the device can be measured/estimated by adding/applying the position change amount.
  • the device resumes the position measurement method based on the sonic signals and only uses the position value calculated using the sonic signals. You can use it to measure the location of the device.
  • the inertial sensor may include a 3-axis acceleration sensor, a 3-axis angular velocity sensor, and/or a 3-axis geomagnetic sensor, and acquire data on current speed, rotation speed, direction, tilt, and acceleration using the sensors. and the amount of change in the position of the device can be calculated based on the data.
  • the amount of change in the location of the device using the GPS may be calculated through the difference between location values measured/calculated based on the GPS satellite signal at each of two points in time. At this time, the final position change amount can be calculated as the sum of the position change amount measured by the inertial sensor with weight 1 applied and the position change amount measured by the GPS with weight 2 applied, as defined in Equation 1. .
  • the device considers both the first position value calculated using the GPS and the second position value calculated using the sound wave signals during the preset time from the time of entering the sound wave positioning zone.
  • the location can be determined. For example, when entering the acoustic wave positioning zone, the location of the device may change rapidly due to a change in the location measurement technique. Taking this into account, the device adds a first weight to the first position value and a second weight to the second position value (the sum of the first weight and the second weight is less than or equal to 1), The average of the sum of the first position value to which the first weight is applied and the second position value to which the second weight is added can be determined as the position of the device (see Equation 2).
  • the device determines the location of the device by considering both the first position value calculated using the GPS and the second position value calculated using the sound wave signals during the preset time from the time it leaves the sound wave positioning zone. can decide
  • the device may determine the location of the device by considering both the first and third location values calculated using the GPS during the preset time from the time it leaves the acoustic wave positioning zone.
  • the third position value may be a position value in which the position change amount measured after the device leaves the acoustic wave positioning zone is added/applied to the position value measured/calculated immediately before leaving the acoustic wave positioning zone.
  • the position value measured/calculated immediately before leaving the sound wave positioning zone is the sound wave position value measured using the sound wave signals when the use of the sound wave sensor is not restricted, and when the use of the sound wave sensor is restricted, the sound wave position value is the sound wave position value measured using the sound wave signals.
  • the device adds a first weight to the first location value, adds a third weight to the third location value (the sum of the first weight and the third weight is less than or equal to 1), and adds the first weight to the third location value.
  • the average of the sum of the first position value to which is added and the third position value to which the third weight is added can be determined as the position of the device (see Equation 2).
  • the device may transmit a message containing information about a change in the location measurement method of the device when entering the acoustic wave positioning zone or leaving the acoustic wave positioning zone.
  • the device may include information indicating that the message includes the location information measured by a changed location measurement method in the message. .
  • whether to maintain activation of the acoustic wave sensor may be determined based on the location of the device. As described with reference to FIG. 18, when the device is located in the first zone, activation of the sound wave sensor for the application can be maintained even if the application related to the sound wave measurement is in the background regardless of the movement state of the device. there is.
  • the device When the device is located in the second zone, the device maintains activation of the acoustic wave sensor when the application related to acoustic wave measurement enters the background state and the device is in a moving state moving toward the acoustic wave positioning zone. And, when the device does not move toward the acoustic wave positioning zone, activation of the acoustic wave sensor may not be maintained.
  • the device continuously performs position estimation based on the inertial navigation even if the use of the acoustic sensor is restricted during position measurement using the acoustic wave signals, thereby providing a method of position measurement based on the acoustic wave signals in a specific situation. Deterioration can be minimized.
  • the device can clearly determine when the possibility of using the position measurement method based on the sound wave signals is high through setting the first to third zones described above. In this case, the device minimizes unnecessary power consumption of the device by maintaining activation of the sonic sensor of the application (for sonic positioning) in the background state only when the possibility of using a position measurement method based on the sonic signals is high. You can.
  • FIG. 21 is a diagram illustrating a method for a network to receive location information of a device measured based on sound wave signals.
  • the network may transmit setting information including information on the acoustic wave positioning zone (or acoustic wave measurement area) related to position measurement based on the acoustic signal (S2111).
  • the setting information may include the positions of the four vertices of the sound wave positioning zone, and the positions of each of the four vertices may be the absolute position of the RSU as described above.
  • the setting information may further include not only location information about the sound wave positioning zone, but also information about adjacent zones (center point, radius) and/or information about a preset time as described in FIG. 18.
  • the network can receive a message from the device containing information about the location of the device measured by acoustic wave positioning (S213).
  • the location of the device may be a location measured using sound wave signals received through an acoustic wave sensor based on entering the acoustic wave positioning zone.
  • the location of the device is determined by an inertial sensor and a Global Positioning System (GPS) based on the position value measured/calculated using the sonic signal just before the use of the sonic thin line is restricted.
  • GPS Global Positioning System
  • the network may determine that an emergency/emergency situation has not occurred for the device even if the device's location has changed suddenly.
  • Figure 22 illustrates a communication system applied to the present invention.
  • the communication system 1 applied to the present invention includes a wireless device, a base station, and a network.
  • a wireless device refers to a device that performs communication using wireless access technology (e.g., 5G NR (New RAT), LTE (Long Term Evolution)) and may be referred to as a communication/wireless/5G device.
  • wireless devices include robots (100a), vehicles (100b-1, 100b-2), XR (eXtended Reality) devices (100c), hand-held devices (100d), and home appliances (100e). ), IoT (Internet of Thing) device (100f), and AI device/server (400).
  • vehicles may include vehicles equipped with wireless communication functions, autonomous vehicles, vehicles capable of inter-vehicle communication, etc.
  • the vehicle may include an Unmanned Aerial Vehicle (UAV) (eg, a drone).
  • UAV Unmanned Aerial Vehicle
  • XR devices include AR (Augmented Reality)/VR (Virtual Reality)/MR (Mixed Reality) devices, HMD (Head-Mounted Device), HUD (Head-Up Display) installed in vehicles, televisions, smartphones, It can be implemented in the form of computers, wearable devices, home appliances, digital signage, vehicles, robots, etc.
  • Portable devices may include smartphones, smart pads, wearable devices (e.g., smartwatches, smart glasses), and computers (e.g., laptops, etc.).
  • Home appliances may include TVs, refrigerators, washing machines, etc.
  • IoT devices may include sensors, smart meters, etc.
  • a base station and network may also be implemented as wireless devices, and a specific wireless device 200a may operate as a base station/network node for other wireless devices.
  • Wireless devices 100a to 100f may be connected to the network 300 through the base station 200.
  • AI Artificial Intelligence
  • the network 300 may be configured using a 3G network, 4G (eg, LTE) network, or 5G (eg, NR) network.
  • Wireless devices 100a to 100f may communicate with each other through the base station 200/network 300, but may also communicate directly (e.g. sidelink communication) without going through the base station/network.
  • vehicles 100b-1 and 100b-2 may communicate directly (e.g.
  • V2V Vehicle to Vehicle
  • V2X Vehicle to everything
  • an IoT device eg, sensor
  • another IoT device eg, sensor
  • another wireless device 100a to 100f
  • Wireless communication/connection may be established between the wireless devices (100a to 100f)/base station (200) and the base station (200)/base station (200).
  • wireless communication/connection includes various wireless connections such as uplink/downlink communication (150a), sidelink communication (150b) (or D2D communication), and inter-base station communication (150c) (e.g. relay, IAB (Integrated Access Backhaul)).
  • This can be achieved through technology (e.g., 5G NR) through wireless communication/connection (150a, 150b, 150c), where a wireless device and a base station/wireless device, and a base station and a base station can transmit/receive wireless signals to each other.
  • wireless communication/connection 150a, 150b, and 150c can transmit/receive signals through various physical channels, based on various proposals of the present invention.
  • various signal processing processes e.g., channel encoding/decoding, modulation/demodulation, resource mapping/demapping, etc.
  • resource allocation processes etc. may be performed.
  • Figure 23 illustrates a wireless device applicable to the present invention.
  • the first wireless device 100 and the second wireless device 200 can transmit and receive wireless signals through various wireless access technologies (eg, LTE, NR).
  • ⁇ first wireless device 100, second wireless device 200 ⁇ refers to ⁇ wireless device 100x, base station 200 ⁇ and/or ⁇ wireless device 100x, wireless device 100x) in FIG. 22. ⁇ can be responded to.
  • the first wireless device 100 includes one or more processors 102 and one or more memories 104, and may additionally include one or more transceivers 106 and/or one or more antennas 108.
  • Processor 102 controls memory 104 and/or transceiver 106 and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein.
  • the processor 102 may process information in the memory 104 to generate first information/signal and then transmit a wireless signal including the first information/signal through the transceiver 106.
  • the processor 102 may receive a wireless signal including the second information/signal through the transceiver 106 and then store information obtained from signal processing of the second information/signal in the memory 104.
  • the memory 104 may be connected to the processor 102 and may store various information related to the operation of the processor 102. For example, memory 104 may perform some or all of the processes controlled by processor 102 or instructions for performing the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein. Software code containing them can be stored.
  • the processor 102 and memory 104 may be part of a communication modem/circuit/chipset designed to implement wireless communication technology (eg, LTE, NR).
  • Transceiver 106 may be coupled to processor 102 and may transmit and/or receive wireless signals via one or more antennas 108. Transceiver 106 may include a transmitter and/or receiver. The transceiver 106 can be used interchangeably with an RF (Radio Frequency) unit.
  • a wireless device may mean a communication modem/circuit/chipset.
  • the first wireless device or first device 100 may include a processor 102 and a memory 104 connected to the transceiver 106.
  • the memory 104 may include at least one program capable of performing operations related to the embodiments described in FIGS. 11 to 20 .
  • the processor 102 controls the transceiver 106 to receive setting information including information on the acoustic wave measurement zone related to position measurement based on the acoustic signal, and based on entering the acoustic wave measurement zone, through the acoustic wave sensor.
  • the location of the device can be measured using the received sound wave signals.
  • the location of the device is determined by using at least one of an inertial sensor and a Global Positioning System (GPS) to determine the position value using the sonic signals immediately before the use of the sonic sensor is restricted. It can be measured by applying the position change amount obtained using .
  • GPS Global Positioning System
  • the processing device that controls the device may include processor 102 and memory 104.
  • the processing device causes the device to receive setting information including information on an acoustic wave measurement zone related to position measurement based on an acoustic signal, and based on entering the acoustic wave measurement zone, determines the acoustic wave signal received through the acoustic sensor.
  • the position of the device is measured using the sonic sensor, and based on the limited use of the sonic sensor, the location of the device is determined using the sonic sensor just before the use of the sonic sensor is restricted. It may be measured by applying the amount of position change obtained using at least one of and GPS (Global Positioning System).
  • GPS Global Positioning System
  • the second wireless device 200 includes one or more processors 202, one or more memories 204, and may further include one or more transceivers 206 and/or one or more antennas 208.
  • Processor 202 controls memory 204 and/or transceiver 206 and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein.
  • the processor 202 may process the information in the memory 204 to generate third information/signal and then transmit a wireless signal including the third information/signal through the transceiver 206.
  • the processor 202 may receive a wireless signal including the fourth information/signal through the transceiver 206 and then store information obtained from signal processing of the fourth information/signal in the memory 204.
  • the memory 204 may be connected to the processor 202 and may store various information related to the operation of the processor 202. For example, memory 204 may perform some or all of the processes controlled by processor 202 or instructions for performing the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein. Software code containing them can be stored.
  • the processor 202 and memory 204 may be part of a communication modem/circuit/chip designed to implement wireless communication technology (eg, LTE, NR).
  • Transceiver 206 may be coupled to processor 202 and may transmit and/or receive wireless signals via one or more antennas 208. Transceiver 206 may include a transmitter and/or receiver. Transceiver 206 may be used interchangeably with an RF unit.
  • a wireless device may mean a communication modem/circuit/chip.
  • the second wireless device 200 or the network may receive information about the location of the device.
  • the processor 202 controls the transceiver 206 to transmit setting information including information on the acoustic wave measurement zone related to position measurement based on the acoustic signal, and receives it through the acoustic wave sensor based on entering the acoustic wave measurement zone. It is possible to receive location information about the location of the device determined using sound wave signals.
  • the received location information is obtained by applying a position change amount obtained using at least one of an inertial sensor and a GPS (Global Positioning System) to a position value determined using the sound wave signals immediately before the use of the sound wave sensor is restricted. May include the location of the device.
  • one or more protocol layers may be implemented by one or more processors 102, 202.
  • one or more processors 102, 202 may implement one or more layers (e.g., functional layers such as PHY, MAC, RLC, PDCP, RRC, SDAP).
  • One or more processors 102, 202 may generate one or more Protocol Data Units (PDUs) and/or one or more Service Data Units (SDUs) according to the descriptions, functions, procedures, suggestions, methods and/or operational flow charts disclosed herein. can be created.
  • PDUs Protocol Data Units
  • SDUs Service Data Units
  • One or more processors 102, 202 may generate messages, control information, data or information according to the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein.
  • One or more processors 102, 202 generate signals (e.g., baseband signals) containing PDUs, SDUs, messages, control information, data or information according to the functions, procedures, suggestions and/or methods disclosed herein. , can be provided to one or more transceivers (106, 206).
  • One or more processors 102, 202 may receive signals (e.g., baseband signals) from one or more transceivers 106, 206, and the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein.
  • PDU, SDU, message, control information, data or information can be obtained.
  • One or more processors 102, 202 may be referred to as a controller, microcontroller, microprocessor, or microcomputer.
  • One or more processors 102, 202 may be implemented by hardware, firmware, software, or a combination thereof.
  • ASICs Application Specific Integrated Circuits
  • DSPs Digital Signal Processors
  • DSPDs Digital Signal Processing Devices
  • PLDs Programmable Logic Devices
  • FPGAs Field Programmable Gate Arrays
  • the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document may be implemented using firmware or software, and the firmware or software may be implemented to include modules, procedures, functions, etc.
  • Firmware or software configured to perform the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed in this document may be included in one or more processors (102, 202) or stored in one or more memories (104, 204). It may be driven by the above processors 102 and 202.
  • the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document may be implemented using firmware or software in the form of codes, instructions and/or sets of instructions.
  • One or more memories 104, 204 may be connected to one or more processors 102, 202 and may store various types of data, signals, messages, information, programs, codes, instructions, and/or instructions.
  • One or more memories 104, 204 may consist of ROM, RAM, EPROM, flash memory, hard drives, registers, cache memory, computer readable storage media, and/or combinations thereof.
  • One or more memories 104, 204 may be located internal to and/or external to one or more processors 102, 202. Additionally, one or more memories 104, 204 may be connected to one or more processors 102, 202 through various technologies, such as wired or wireless connections.
  • One or more transceivers 106, 206 may transmit user data, control information, wireless signals/channels, etc. mentioned in the methods and/or operation flowcharts of this document to one or more other devices.
  • One or more transceivers 106, 206 may receive user data, control information, wireless signals/channels, etc. referred to in the descriptions, functions, procedures, suggestions, methods and/or operational flow charts, etc. disclosed herein from one or more other devices. there is.
  • one or more transceivers 106 and 206 may be connected to one or more processors 102 and 202 and may transmit and receive wireless signals.
  • one or more processors 102, 202 may control one or more transceivers 106, 206 to transmit user data, control information, or wireless signals to one or more other devices. Additionally, one or more processors 102, 202 may control one or more transceivers 106, 206 to receive user data, control information, or wireless signals from one or more other devices. In addition, one or more transceivers (106, 206) may be connected to one or more antennas (108, 208), and one or more transceivers (106, 206) may be connected to the description and functions disclosed in this document through one or more antennas (108, 208). , may be set to transmit and receive user data, control information, wireless signals/channels, etc.
  • one or more antennas may be multiple physical antennas or multiple logical antennas (eg, antenna ports).
  • One or more transceivers (106, 206) process the received user data, control information, wireless signals/channels, etc. using one or more processors (102, 202), and convert the received wireless signals/channels, etc. from the RF band signal. It can be converted to a baseband signal.
  • One or more transceivers (106, 206) may convert user data, control information, wireless signals/channels, etc. processed using one or more processors (102, 202) from baseband signals to RF band signals.
  • one or more transceivers 106, 206 may comprise (analog) oscillators and/or filters.
  • FIG. 24 shows another example of a wireless device applied to the present invention.
  • Wireless devices can be implemented in various forms depending on usage-examples/services (see FIG. 22).
  • the wireless devices 100 and 200 correspond to the wireless devices 100 and 200 of FIG. 23 and include various elements, components, units/units, and/or modules. ) can be composed of.
  • the wireless devices 100 and 200 may include a communication unit 110, a control unit 120, a memory unit 130, and an additional element 140.
  • the communication unit may include communication circuitry 112 and transceiver(s) 114.
  • communication circuitry 112 may include one or more processors 102, 202 and/or one or more memories 104, 204 of FIG. 24.
  • transceiver(s) 114 may include one or more transceivers 106, 206 and/or one or more antennas 108, 208 of FIG. 23.
  • the control unit 120 is electrically connected to the communication unit 110, the memory unit 130, and the additional element 140 and controls overall operations of the wireless device. For example, the control unit 120 may control the electrical/mechanical operation of the wireless device based on the program/code/command/information stored in the memory unit 130. In addition, the control unit 120 transmits the information stored in the memory unit 130 to the outside (e.g., another communication device) through the communication unit 110 through a wireless/wired interface, or to the outside (e.g., to another communication device) through the communication unit 110. Information received through a wireless/wired interface from another communication device may be stored in the memory unit 130.
  • the outside e.g., another communication device
  • Information received through a wireless/wired interface from another communication device may be stored in the memory unit 130.
  • the additional element 140 may be configured in various ways depending on the type of wireless device.
  • the additional element 140 may include at least one of a power unit/battery, an input/output unit (I/O unit), a driving unit, and a computing unit.
  • wireless devices include robots (FIG. 22, 100a), vehicles (FIG. 22, 100b-1, 100b-2), XR devices (FIG. 22, 100c), portable devices (FIG. 22, 100d), and home appliances. (FIG. 22, 100e), IoT device (FIG.
  • digital broadcasting terminal digital broadcasting terminal
  • hologram device public safety device
  • MTC device medical device
  • fintech device or financial device
  • security device climate/environment device
  • It can be implemented in the form of an AI server/device (FIG. 22, 400), a base station (FIG. 22, 200), a network node, etc.
  • Wireless devices can be mobile or used in fixed locations depending on the usage/service.
  • various elements, components, units/parts, and/or modules within the wireless devices 100 and 200 may be entirely interconnected through a wired interface, or at least a portion may be wirelessly connected through the communication unit 110.
  • the control unit 120 and the communication unit 110 are connected by wire, and the control unit 120 and the first unit (e.g., 130 and 140) are connected through the communication unit 110.
  • the control unit 120 and the first unit e.g., 130 and 140
  • each element, component, unit/part, and/or module within the wireless devices 100 and 200 may further include one or more elements.
  • the control unit 120 may be comprised of one or more processor sets.
  • control unit 120 may be comprised of a communication control processor, an application processor, an electronic control unit (ECU), a graphics processing processor, and a memory control processor.
  • memory unit 130 includes random access memory (RAM), dynamic RAM (DRAM), read only memory (ROM), flash memory, volatile memory, and non-volatile memory. volatile memory) and/or a combination thereof.
  • Figure 25 illustrates a vehicle or autonomous vehicle to which the present invention is applied.
  • a vehicle or autonomous vehicle can be implemented as a mobile robot, vehicle, train, manned/unmanned aerial vehicle (AV), ship, etc.
  • AV manned/unmanned aerial vehicle
  • the vehicle or autonomous vehicle 100 includes an antenna unit 108, a communication unit 110, a control unit 120, a drive unit 140a, a power supply unit 140b, a sensor unit 140c, and an autonomous driving unit. It may include a portion 140d.
  • the antenna unit 108 may be configured as part of the communication unit 110. Blocks 110/130/140a to 140d respectively correspond to blocks 110/130/140 in FIG. 24.
  • the communication unit 110 may transmit and receive signals (e.g., data, control signals, etc.) with external devices such as other vehicles, base stations (e.g. base stations, road side units, etc.), and servers.
  • the control unit 120 may control elements of the vehicle or autonomous vehicle 100 to perform various operations.
  • the control unit 120 may include an Electronic Control Unit (ECU).
  • the driving unit 140a can drive the vehicle or autonomous vehicle 100 on the ground.
  • the driving unit 140a may include an engine, motor, power train, wheels, brakes, steering device, etc.
  • the power supply unit 140b supplies power to the vehicle or autonomous vehicle 100 and may include a wired/wireless charging circuit, a battery, etc.
  • the sensor unit 140c can obtain vehicle status, surrounding environment information, user information, etc.
  • the sensor unit 140c includes an inertial measurement unit (IMU) sensor, a collision sensor, a wheel sensor, a speed sensor, an inclination sensor, a weight sensor, a heading sensor, a position module, and a vehicle forward sensor. / May include a reverse sensor, battery sensor, fuel sensor, tire sensor, steering sensor, temperature sensor, humidity sensor, ultrasonic sensor, illuminance sensor, pedal position sensor, etc.
  • the autonomous driving unit 140d includes technology for maintaining the driving lane, technology for automatically adjusting speed such as adaptive cruise control, technology for automatically driving along a set route, and technology for automatically setting and driving when a destination is set. Technology, etc. can be implemented.
  • the communication unit 110 may receive map data, traffic information data, etc. from an external server.
  • the autonomous driving unit 140d can create an autonomous driving route and driving plan based on the acquired data.
  • the control unit 120 may control the driving unit 140a so that the vehicle or autonomous vehicle 100 moves along the autonomous driving path according to the driving plan (e.g., speed/direction control).
  • the communication unit 110 may acquire the latest traffic information data from an external server irregularly/periodically and obtain surrounding traffic information data from surrounding vehicles.
  • the sensor unit 140c can obtain vehicle status and surrounding environment information.
  • the autonomous driving unit 140d may update the autonomous driving route and driving plan based on newly acquired data/information.
  • the communication unit 110 may transmit information about vehicle location, autonomous driving route, driving plan, etc. to an external server.
  • An external server can predict traffic information data in advance using AI technology, etc., based on information collected from vehicles or self-driving vehicles, and provide the predicted traffic information data to the vehicles or self-driving vehicles.
  • the wireless communication technology implemented in the wireless device (XXX, YYY) of this specification may include Narrowband Internet of Things for low-power communication as well as LTE, NR, and 6G.
  • NB-IoT technology may be an example of LPWAN (Low Power Wide Area Network) technology and may be implemented in standards such as LTE Cat NB1 and/or LTE Cat NB2, and is limited to the above-mentioned names. no.
  • the wireless communication technology implemented in the wireless device (XXX, YYY) of this specification may perform communication based on LTE-M technology.
  • LTE-M technology may be an example of LPWAN technology, and may be called various names such as enhanced Machine Type Communication (eMTC).
  • eMTC enhanced Machine Type Communication
  • LTE-M technologies include 1) LTE CAT 0, 2) LTE Cat M1, 3) LTE Cat M2, 4) LTE non-BL (non-Bandwidth Limited), 5) LTE-MTC, 6) LTE Machine. It can be implemented in at least one of various standards such as Type Communication, and/or 7) LTE M, and is not limited to the above-mentioned names.
  • the wireless communication technology implemented in the wireless device (XXX, YYY) of the present specification is at least one of ZigBee, Bluetooth, and Low Power Wide Area Network (LPWAN) considering low power communication. It may include any one, and is not limited to the above-mentioned names.
  • ZigBee technology can create personal area networks (PAN) related to small/low-power digital communications based on various standards such as IEEE 802.15.4, and can be called by various names.
  • Embodiments according to the present invention may be implemented by various means, for example, hardware, firmware, software, or a combination thereof.
  • an embodiment of the present invention includes one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and FPGAs ( It can be implemented by field programmable gate arrays, processors, controllers, microcontrollers, microprocessors, etc.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays, processors, controllers, microcontrollers, microprocessors, etc.
  • an embodiment of the present invention may be implemented in the form of a module, procedure, function, etc. that performs the functions or operations described above.
  • Software code can be stored in a memory unit and run by a processor.
  • the memory unit is located inside or outside the processor and can exchange data with the processor through various known means.
  • Embodiments of the present invention as described above can be applied to various mobile communication systems.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

다양한 실시예에 따른 무선 통신 시스템에서 장치가 위치를 측정하는 방법은 음파 신호에 기반한 위치 측정과 관련된 음파 측정 존에 대한 정보를 포함하는 설정 정보를 수신 받는 단계; 및 상기 음파 측정 존에 진입한 것에 기초하여, 음파 센서를 통해 수신된 음파 신호들을 이용하여 상기 장치의 위치를 측정하는 단계를 포함하고, 상기 음파 센서의 사용이 제한된 것에 기초하여, 상기 장치의 위치는 상기 음파 센서의 사용이 제한되기 직전에 상기 음파 신호들을 이용하여 산출된 위치 값에 위치 변화량을 적용하여 측정될 수 있다.

Description

무선 통신 시스템에서 위치를 측정하는 방법 및 이를 위한 장치
무선 통신 시스템에서 장치가 위치를 측정하는 방법 및 이를 위한 장치에 대한 것이다.
무선 통신 시스템은 가용한 시스템 자원(예를 들어, 대역폭, 전송 전력 등)을 공유하여 다중 사용자와의 통신을 지원하는 다중 접속(multiple access) 시스템이다. 다중 접속 시스템의 예로는 CDMA(code division multiple access) 시스템, FDMA(frequency division multiple access) 시스템, TDMA(time division multiple access) 시스템, OFDMA(orthogonal frequency division multiple access) 시스템, SC-FDMA(single carrier frequency division multiple access) 시스템, MC-FDMA(multi carrier frequency division multiple access) 시스템 등이 있다.
사이드링크(sidelink, SL)란 단말(User Equipment, UE)들 간에 직접적인 링크를 설정하여, 기지국(Base Station, BS)을 거치지 않고, 단말 간에 음성 또는 데이터 등을 직접 주고 받는 통신 방식을 말한다. SL는 급속도로 증가하는 데이터 트래픽에 따른 기지국의 부담을 해결할 수 있는 하나의 방안으로서 고려되고 있다.
V2X(vehicle-to-everything)는 유/무선 통신을 통해 다른 차량, 보행자, 인프라가 구축된 사물 등과 정보를 교환하는 통신 기술을 의미한다. V2X는 V2V(vehicle-to-vehicle), V2I(vehicle-to-infrastructure), V2N(vehicle-to- network) 및 V2P(vehicle-to-pedestrian)와 같은 4 가지 유형으로 구분될 수 있다. V2X 통신은 PC5 인터페이스 및/또는 Uu 인터페이스를 통해 제공될 수 있다.
한편, 더욱 많은 통신 기기들이 더욱 큰 통신 용량을 요구하게 됨에 따라, 기존의 무선 액세스 기술(Radio Access Technology, RAT)에 비해 향상된 모바일 광대역 (mobile broadband) 통신에 대한 필요성이 대두되고 있다. 이에 따라, 신뢰도(reliability) 및 지연(latency)에 민감한 서비스 또는 단말을 고려한 통신 시스템이 논의되고 있는데, 개선된 이동 광대역 통신, 매시브 MTC(Machine Type Communication), URLLC(Ultra-Reliable and Low Latency Communication) 등을 고려한 차세대 무선 접속 기술을 새로운 RAT(new radio access technology) 또는 NR(new radio)이라 칭할 수 있다. NR에서도 V2X(vehicle-to-everything) 통신이 지원될 수 있다.
도 1은 NR 이전의 RAT에 기반한 V2X 통신과 NR에 기반한 V2X 통신을 비교하여 설명하기 위한 도면이다
V2X 통신과 관련하여, NR 이전의 RAT에서는 BSM(Basic Safety Message), CAM(Cooperative Awareness Message), DENM(Decentralized Environmental Notification Message)과 같은 V2X 메시지를 기반으로, 안전 서비스(safety service)를 제공하는 방안이 주로 논의되었다. V2X 메시지는, 위치 정보, 동적 정보, 속성 정보 등을 포함할 수 있다. 예를 들어, 단말은 주기적인 메시지(periodic message) 타입의 CAM, 및/또는 이벤트 트리거 메시지(event triggered message) 타입의 DENM을 다른 단말에게 전송할 수 있다.
예를 들어, CAM은 방향 및 속도와 같은 차량의 동적 상태 정보, 치수와 같은 차량 정적 데이터, 외부 조명 상태, 경로 내역 등 기본 차량 정보를 포함할 수 있다. 예를 들어, 단말은 CAM을 방송할 수 있으며, CAM의 지연(latency)은 100ms보다 작을 수 있다. 예를 들어, 차량의 고장, 사고 등의 돌발적인 상황이 발행하는 경우, 단말은 DENM을 생성하여 다른 단말에게 전송할 수 있다. 예를 들어, 단말의 전송 범위 내에 있는 모든 차량은 CAM 및/또는 DENM을 수신할 수 있다. 이 경우, DENM은 CAM 보다 높은 우선 순위를 가질 수 있다.
이후, V2X 통신과 관련하여, 다양한 V2X 시나리오들이 NR에서 제시되고 있다. 예를 들어, 다양한 V2X 시나리오들은, 차량 플라투닝(vehicle platooning), 향상된 드라이빙(advanced driving), 확장된 센서들(extended sensors), 리모트 드라이빙(remote driving) 등을 포함할 수 있다.
예를 들어, 차량 플라투닝을 기반으로, 차량들은 동적으로 그룹을 형성하여 함께 이동할 수 있다. 예를 들어, 차량 플라투닝에 기반한 플라툰 동작들(platoon operations)을 수행하기 위해, 상기 그룹에 속하는 차량들은 선두 차량으로부터 주기적인 데이터를 수신할 수 있다. 예를 들어, 상기 그룹에 속하는 차량들은 주기적인 데이터를 이용하여, 차량들 사이의 간격을 줄이거나 넓힐 수 있다.
예를 들어, 향상된 드라이빙을 기반으로, 차량은 반자동화 또는 완전 자동화될 수 있다. 예를 들어, 각 차량은 근접 차량 및/또는 근접 로지컬 엔티티(logical entity)의 로컬 센서(local sensor)에서 획득된 데이터를 기반으로, 궤도(trajectories) 또는 기동(maneuvers)을 조정할 수 있다. 또한, 예를 들어, 각 차량은 근접한 차량들과 드라이빙 인텐션(driving intention)을 상호 공유할 수 있다.
예를 들어, 확장 센서들을 기반으로, 로컬 센서들을 통해 획득된 로 데이터(raw data) 또는 처리된 데이터(processed data), 또는 라이브 비디오 데이터(live video data)는 차량, 로지컬 엔티티, 보행자들의 단말 및/또는 V2X 응용 서버 간에 상호 교환될 수 있다. 따라서, 예를 들어, 차량은 자체 센서를 이용하여 감지할 수 있는 환경 보다 향상된 환경을 인식할 수 있다.
예를 들어, 리모트 드라이빙을 기반으로, 운전을 하지 못하는 사람 또는 위험한 환경에 위치한 리모트 차량을 위해, 리모트 드라이버 또는 V2X 애플리케이션은 상기 리모트 차량을 동작 또는 제어할 수 있다. 예를 들어, 대중 교통과 같이 경로를 예측할 수 있는 경우, 클라우드 컴퓨팅 기반의 드라이빙이 상기 리모트 차량의 동작 또는 제어에 이용될 수 있다. 또한, 예를 들어, 클라우드 기반의 백엔드 서비스 플랫폼(cloud-based back-end service platform)에 대한 액세스가 리모트 드라이빙을 위해 고려될 수 있다.
한편, 차량 플라투닝, 향상된 드라이빙, 확장된 센서들, 리모트 드라이빙 등 다양한 V2X 시나리오들에 대한 서비스 요구사항(service requirements)들을 구체화하는 방안이 NR에 기반한 V2X 통신에서 논의되고 있다.
본 발명이 이루고자 하는 기술적 과제는 보다 정확하고 효율적으로 장치의 위치를 측정/결정하는 방법을 제공하는데 있다.
기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
일 측면에 따른 무선 통신 시스템에서 장치가 위치를 측정하는 방법은 음파 신호에 기반한 위치 측정과 관련된 음파 측위 존에 대한 정보를 포함하는 설정 정보를 수신 받는 단계; 및 상기 음파 측위 존에 진입한 것에 기초하여, 음파 센서를 통해 수신된 음파 신호들을 이용하여 상기 장치의 위치를 측정하는 단계를 포함하고, 상기 음파 센서의 사용이 제한된 것에 기초하여, 상기 장치의 위치는 상기 음파 센서의 사용이 제한되기 직전에 상기 음파 신호들을 이용하여 산출된 위치 값에 관성 센서 및 GPS (Global Positioning System) 중 적어도 하나를 이용하여 산출된 위치 변화량을 적용하여 측정될 수 있다.
또는, 상기 음파 센서의 사용에 대한 제한이 해제되는 것에 기초하여, 상기 장치의 위치는 상기 음파 신호들을 이용하여 산출된 위치 값에만 기반하여 측정되는 것을 특징으로 한다.
또는, 상기 장치의 위치는 상기 음파 측위 존에 진입한 시점으로부터 미리 설정된 시간 동안에 상기 GPS를 이용하여 산출된 제1 위치 값과 상기 음파 신호들을 이용하여 산출된 제2 위치 값 간의 가중합에 기반하여 측정되는 것을 특징으로 한다.
또는, 상기 장치의 위치는 상기 음파 측위 존을 벗어난 시점으로부터 미리 설정된 시간 동안 상기 GPS를 이용하여 산출된 제1 위치 값 및 제3 위치 값의 가중합에 기반하여 측정되고, 상기 제3 위치 값은 상기 음파 측위 존을 벗어나기 직전에 상기 음파 신호들을 이용하여 산출된 위치 값에 상기 관성 센서 및 상기 GPS 중 적어도 하나를 이용하여 산출된 위치 변화량이 부가된 위치 값인 것을 특징으로 한다.
또는, 상기 장치의 위치는 상기 제1 위치 값 및 상기 제2 위치 값의 차이가 미리 설정된 임계 이상인 것에 기초하여 상기 제1 위치 값 및 상기 제2 위치 값의 가중합에 기초하여 측정되는 것을 특징으로 한다.
또는, 상기 장치의 위치에 대한 위치 정보를 포함하는 메시지를 주변 장치에 전송하는 단계;를 더 포함하는 것을 특징으로 한다.
또는, 상기 음파 측위 존의 진입으로 상기 음파 신호들에 기반한 상기 장치의 위치 측정이 시작되는 것에 기초하여, 상기 메시지는 위치 측정 방식의 변경을 지시하는 지시 정보를 더 포함하는 것을 특징으로 한다.
또는, 상기 음파 측위 존에 위치하지 않고, 상기 음파 센서에 기반하여 상기 장치의 위치를 측정하는 어플리케이션이 백그라운드 (background)된 것에 기초하여, 상기 음파 센서의 활성화 유지 여부를 결정하는 단계를 더 포함하는 것을 특징으로 한다.
또는, 상기 음파 센서의 활성화의 유지 여부는 상기 설정 정보에 기초하여 결정된 상기 음파 측위 존과 인접하는 제1 존, 상기 제1 존과 인접하는 제2 존 및 상기 제2 존과 인접하는 제3 존 중에서 상기 장치가 위치하는 하나의 존에 기반하여 결정되는 것을 특징으로 한다.
다른 일 측면에 따라서 상술된 위치를 측정하는 방법을 수행하기 위한 명령어들을 기록한 비일시적 컴퓨터 판독가능 저장 매체가 제공될 수 있다.
또 다른 일 측면에 따라서 상술된 위치를 측정하는 방법을 수행하는 장치가 제공될 수 있다.
또 다른 일 측면에 따라서 상술된 위치를 측정하는 방법을 수행하는 장치를 제어하기 위한 프로세싱 장치가 제공될 수 있다.
다른 측면에 따르면, 음파 신호에 기반한 위치 측정과 관련된 음파 측위 존에 대한 정보를 포함하는 설정 정보를 상기 장치에게 전송하는 단계; 및 상기 음파 측위 존에서 음파 측위 방식에 기반하여 측정된 상기 장치의 위치에 대한 위치 정보를 수신하는 단계를 포함하고, 상기 위치 정보는 상기 음파 센서의 사용이 제한되기 직전에 상기 음파 신호들을 이용하여 측정된 위치 값에 관성 센서 및 GPS (Global Positioning System) 중 적어도 하나를 이용하여 획득된 위치 변화량이 적용된 상기 장치의 위치를 포함할 수 있다.
본 발명의 일 실시예에 따르면 무선 통신 시스템에서 장치의 위치를 측정/결정이 보다 정확하고 효율적으로 수행될 수 있다.
다양한 실시예에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 명세서에 첨부되는 도면은 본 발명에 대한 이해를 제공하기 위한 것으로서 본 발명의 다양한 실시형태들을 나타내고 명세서의 기재와 함께 본 발명의 원리를 설명하기 위한 것이다.
도 1은 NR 이전의 RAT에 기반한 V2X 통신과 NR에 기반한 V2X 통신을 비교하여 설명하기 위한 도면이다
도 2은 LTE 시스템의 구조를 나타낸다.
도 3은 NR 시스템의 구조를 나타낸다.
도 4은 NR의 무선 프레임의 구조를 나타낸다.
도 5은 NR 프레임의 슬롯 구조를 나타낸다.
도 6은 SL 통신을 위한 무선 프로토콜 구조(radio protocol architecture)를 나타낸다.
도 7은 V2X 또는 SL 통신을 수행하는 단말을 나타낸다.
도 8는 V2X 또는 SL 통신을 위한 자원 단위를 나타낸다.
도 9은 ITS 스테이션 참조 구조 (ITS station reference architecture)를 설명하기 위한 도면이다.
도 10은 참조 구조에 기초하여 설계 및 적용 가능한 ITS 스테이션 (station)의 예시 구조이다.
도 11 및 12은 음파 신호에 기반한 위치 측정 방법을 설명하기 위한 도면이다.
도 12는 데이터의 전송을 위한 시스템의 구성을 간략하게 도시한 블록도이다.
도 13는 일 예에 따른 음파 측위를 수행하는 VRU 장치/단말/SoftV2X 장치의 내부 구조를 설명하기 위한 도면이다.
도 14 내지 도 16은 음파 측위 시스템에서 마이크의 권한이 변화되는 경우를 설명하기 위한 도면이다.
도 17은 MIC 권한이 상실/제한된 VRU 장치/단말이 관성 항법을 이용하여 위치를 추정하는 방법을 설명하기 위한 도면이다.
도 18 및 도 19는 단말/VRU 장치가 음파 측위를 위한 어플리케이션 (App)에서의 MIC 권한의 활성화 제어 방식을 설명하기 위한 도면이다.
도 20은 장치가 음파 신호들에 기반하여 위치를 측정하는 방법을 설명하기 위한 도면이다.
도 21은 네트워크가 음파 신호들에 기반하여 측정된 장치의 위치 정보를 수신하는 방법을 설명하기 위한 도면이다.
도 22는 본 발명에 적용되는 통신 시스템을 예시한다.
도 23은 본 발명에 적용될 수 있는 무선 기기를 예시한다.
도 24는 본 발명에 적용되는 무선 기기의 다른 예를 나타낸다.
도 25은 본 발명에 적용되는 차량 또는 자율 주행 차량을 예시한다.
무선 통신 시스템은 가용한 시스템 자원(예를 들어, 대역폭, 전송 파워 등)을 공유하여 다중 사용자와의 통신을 지원하는 다중 접속(multiple access) 시스템이다. 다중 접속 시스템의 예로는 CDMA(code division multiple access) 시스템, FDMA(frequency division multiple access) 시스템, TDMA(time division multiple access) 시스템, OFDMA(orthogonal frequency division multiple access) 시스템, SC-FDMA(single carrier frequency division multiple access) 시스템, MC-FDMA(multi carrier frequency division multiple access) 시스템 등이 있다.
사이드링크(sidelink)란 단말(User Equipment, UE)들 간에 직접적인 링크를 설정하여, 기지국(Base Station, BS)을 거치지 않고, 단말 간에 음성 또는 데이터 등을 직접 주고 받는 통신 방식을 말한다. 사이드링크는 급속도로 증가하는 데이터 트래픽에 따른 기지국의 부담을 해결할 수 있는 하나의 방안으로서 고려되고 있다.
V2X(vehicle-to-everything)는 유/무선 통신을 통해 다른 차량, 보행자, 인프라가 구축된 사물 등과 정보를 교환하는 통신 기술을 의미한다. V2X는 V2V(vehicle-to-vehicle), V2I(vehicle-to-infrastructure), V2N(vehicle-to- network) 및 V2P(vehicle-to-pedestrian)와 같은 4 가지 유형으로 구분될 수 있다. V2X 통신은 PC5 인터페이스 및/또는 Uu 인터페이스를 통해 제공될 수 있다.
한편, 더욱 많은 통신 기기들이 더욱 큰 통신 용량을 요구하게 됨에 따라, 기존의 무선 액세스 기술(Radio Access Technology, RAT)에 비해 향상된 모바일 광대역 (mobile broadband) 통신에 대한 필요성이 대두되고 있다. 이에 따라, 신뢰도(reliability) 및 지연(latency)에 민감한 서비스 또는 단말을 고려한 통신 시스템이 논의되고 있는데, 개선된 이동 광대역 통신, 매시브 MTC, URLLC(Ultra-Reliable and Low Latency Communication) 등을 고려한 차세대 무선 접속 기술을 새로운 RAT(new radio access technology) 또는 NR(new radio)이라 칭할 수 있다. NR에서도 V2X(vehicle-to-everything) 통신이 지원될 수 있다.
이하의 기술은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 통신 시스템에 사용될 수 있다. CDMA는 UTRA(universal terrestrial radio access)나 CDMA2000과 같은 무선 기술로 구현될 수 있다. TDMA는 GSM(global system for mobile communications)/GPRS(general packet radio service)/EDGE(enhanced data rates for GSM evolution)와 같은 무선 기술로 구현될 수 있다. OFDMA는 IEEE(institute of electrical and electronics engineers) 802.11(Wi-Fi), IEEE 802.16(WiMAX), IEEE 802-20, E-UTRA(evolved UTRA) 등과 같은 무선 기술로 구현될 수 있다. IEEE 802.16m은 IEEE 802.16e의 진화로, IEEE 802.16e에 기반한 시스템과의 하위 호환성(backward compatibility)를 제공한다. UTRA는 UMTS(universal mobile telecommunications system)의 일부이다. 3GPP(3rd generation partnership project) LTE(long term evolution)은 E-UTRA(evolved-UMTS terrestrial radio access)를 사용하는 E-UMTS(evolved UMTS)의 일부로써, 하향링크에서 OFDMA를 채용하고 상향링크에서 SC-FDMA를 채용한다. LTE-A(advanced)는 3GPP LTE의 진화이다.
5G NR은 LTE-A의 후속 기술로서, 고성능, 저지연, 고가용성 등의 특성을 가지는 새로운 Clean-slate 형태의 이동 통신 시스템이다. 5G NR은 1GHz 미만의 저주파 대역에서부터 1GHz~10GHz의 중간 주파 대역, 24GHz 이상의 고주파(밀리미터파) 대역 등 사용 가능한 모든 스펙트럼 자원을 활용할 수 있다.
설명을 명확하게 하기 위해, LTE-A 또는 5G NR을 위주로 기술하지만 실시예(들)의 기술적 사상이 이에 제한되는 것은 아니다.
도 2은 적용될 수 있는 LTE 시스템의 구조를 나타낸다. 이는 E-UTRAN(Evolved-UMTS Terrestrial Radio Access Network), 또는 LTE(Long Term Evolution)/LTE-A 시스템이라고 불릴 수 있다.
도 2을 참조하면, E-UTRAN은 단말(10)에게 제어 평면(control plane)과 사용자 평면(user plane)을 제공하는 기지국(20; Base Station, BS)을 포함한다. 단말(10)은 고정되거나 이동성을 가질 수 있으며, MS(Mobile Station), UT(User Terminal), SS(Subscriber Station), MT(Mobile Terminal), 무선기기(Wireless Device) 등 다른 용어로 불릴 수 있다. 기지국(20)은 단말(10)과 통신하는 고정된 지점(fixed station)을 말하며, eNB(evolved-NodeB), BTS(Base Transceiver System), 액세스 포인트(Access Point) 등 다른 용어로 불릴 수 있다.
기지국(20)들은 X2 인터페이스를 통하여 서로 연결될 수 있다. 기지국(20)은 S1 인터페이스를 통해 EPC(Evolved Packet Core, 30), 보다 상세하게는 S1-MME를 통해 MME(Mobility Management Entity)와 S1-U를 통해 S-GW(Serving Gateway)와 연결된다.
EPC(30)는 MME, S-GW 및 P-GW(Packet Data Network-Gateway)로 구성된다. MME는 단말의 접속 정보나 단말의 능력에 관한 정보를 가지고 있으며, 이러한 정보는 단말의 이동성 관리에 주로 사용된다. S-GW는 E-UTRAN을 종단점으로 갖는 게이트웨이이며, P-GW는 PDN을 종단점으로 갖는 게이트웨이이다.
단말과 네트워크 사이의 무선인터페이스 프로토콜(Radio Interface Protocol)의 계층들은 통신시스템에서 널리 알려진 개방형 시스템간 상호접속(Open System Interconnection, OSI) 기준 모델의 하위 3개 계층을 바탕으로 L1 (제 1 계층), L2 (제 2 계층), L3(제 3 계층)로 구분될 수 있다. 이 중에서 제 1 계층에 속하는 물리 계층은 물리 채널(Physical Channel)을 이용한 정보전송서비스(Information Transfer Service)를 제공하며, 제 3 계층에 위치하는 RRC(Radio Resource Control) 계층은 단말과 네트워크 간에 무선 자원을 제어하는 역할을 수행한다. 이를 위해 RRC 계층은 단말과 기지국간 RRC 메시지를 교환한다.
도 3은 NR 시스템의 구조를 나타낸다.
도 3을 참조하면, NG-RAN은 단말에게 사용자 평면 및 제어 평면 프로토콜 종단(termination)을 제공하는 gNB 및/또는 eNB를 포함할 수 있다. 도 7에서는 gNB만을 포함하는 경우를 예시한다. gNB 및 eNB는 상호 간에 Xn 인터페이스로 연결되어 있다. gNB 및 eNB는 5세대 코어 네트워크(5G Core Network: 5GC)와 NG 인터페이스를 통해 연결되어 있다. 보다 구체적으로, AMF(access and mobility management function)과는 NG-C 인터페이스를 통해 연결되고, UPF(user plane function)과는 NG-U 인터페이스를 통해 연결된다.
도 4은 NR의 무선 프레임의 구조를 나타낸다.
도 4을 참조하면, NR에서 상향링크 및 하향링크 전송에서 무선 프레임을 사용할 수 있다. 무선 프레임은 10ms의 길이를 가지며, 2개의 5ms 하프-프레임(Half-Frame, HF)으로 정의될 수 있다. 하프-프레임은 5개의 1ms 서브프레임(Subframe, SF)을 포함할 수 있다. 서브프레임은 하나 이상의 슬롯으로 분할될 수 있으며, 서브프레임 내 슬롯 개수는 부반송파 간격(Subcarrier Spacing, SCS)에 따라 결정될 수 있다. 각 슬롯은 CP(cyclic prefix)에 따라 12개 또는 14개의 OFDM(A) 심볼을 포함할 수 있다.
노멀 CP(normal CP)가 사용되는 경우, 각 슬롯은 14개의 심볼을 포함할 수 있다. 확장 CP가 사용되는 경우, 각 슬롯은 12개의 심볼을 포함할 수 있다. 여기서, 심볼은 OFDM 심볼 (또는, CP-OFDM 심볼), SC-FDMA(Single Carrier - FDMA) 심볼 (또는, DFT-s-OFDM(Discrete Fourier Transform-spread-OFDM) 심볼)을 포함할 수 있다.
다음 표 1은 노멀 CP가 사용되는 경우, SCS 설정(u)에 따라 슬롯 별 심볼의 개수((Nslot symb), 프레임 별 슬롯의 개수((Nframe,u slot)와 서브프레임 별 슬롯의 개수((Nsubframe,u slot)를 예시한다.
SCS (15*2u) Nslot symb Nframe,u slot Nsubframe,u slot
15KHz (u=0) 14 10 1
30KHz (u=1) 14 20 2
60KHz (u=2) 14 40 4
120KHz (u=3) 14 80 8
240KHz (u=4) 14 160 16
표 2는 확장 CP가 사용되는 경우, SCS에 따라 슬롯 별 심볼의 개수, 프레임 별 슬롯의 개수와 서브프레임 별 슬롯의 개수를 예시한다.
SCS (15*2u) Nslot symb Nframe,u slot Nsubframe,u slot
60KHz (u=2) 12 40 4
NR 시스템에서는 하나의 단말에게 병합되는 복수의 셀들 간에 OFDM(A) 뉴머놀로지(numerology)(예, SCS, CP 길이 등)가 상이하게 설정될 수 있다. 이에 따라, 동일한 개수의 심볼로 구성된 시간 자원(예, 서브프레임, 슬롯 또는 TTI)(편의상, TU(Time Unit)로 통칭)의 (절대 시간) 구간이 병합된 셀들 간에 상이하게 설정될 수 있다.
NR에서, 다양한 5G 서비스들을 지원하기 위한 다수의 뉴머놀로지(numerology) 또는 SCS가 지원될 수 있다. 예를 들어, SCS가 15kHz인 경우, 전통적인 셀룰러 밴드들에서의 넓은 영역(wide area)이 지원될 수 있고, SCS가 30kHz/60kHz인 경우, 밀집한-도시(dense-urban), 더 낮은 지연(lower latency) 및 더 넓은 캐리어 대역폭(wider carrier bandwidth)이 지원될 수 있다. SCS가 60kHz 또는 그보다 높은 경우, 위상 잡음(phase noise)을 극복하기 위해 24.25GHz보다 큰 대역폭이 지원될 수 있다.
NR 주파수 밴드(frequency band)는 두 가지 타입의 주파수 범위(frequency range)로 정의될 수 있다. 상기 두 가지 타입의 주파수 범위는 FR1 및 FR2일 수 있다. 주파수 범위의 수치는 변경될 수 있으며, 예를 들어, 상기 두 가지 타입의 주파수 범위는 하기 표 3과 같을 수 있다. NR 시스템에서 사용되는 주파수 범위 중 FR1은 "sub 6GHz range"를 의미할 수 있고, FR2는 "above 6GHz range"를 의미할 수 있고 밀리미터 웨이브(millimeter wave, mmW)로 불릴 수 있다.
Frequency Range designation Corresponding frequency range Subcarrier Spacing (SCS)
FR1 450MHz - 6000MHz 15, 30, 60kHz
FR2 24250MHz - 52600MHz 60, 120, 240kHz
상술한 바와 같이, NR 시스템의 주파수 범위의 수치는 변경될 수 있다. 예를 들어, FR1은 하기 표 4와 같이 410MHz 내지 7125MHz의 대역을 포함할 수 있다. 즉, FR1은 6GHz (또는 5850, 5900, 5925 MHz 등) 이상의 주파수 대역을 포함할 수 있다. 예를 들어, FR1 내에서 포함되는 6GHz (또는 5850, 5900, 5925 MHz 등) 이상의 주파수 대역은 비면허 대역(unlicensed band)을 포함할 수 있다. 비면허 대역은 다양한 용도로 사용될 수 있고, 예를 들어 차량을 위한 통신(예를 들어, 자율주행)을 위해 사용될 수 있다.
Frequency Range designation Corresponding frequency range Subcarrier Spacing (SCS)
FR1 410MHz - 7125MHz 15, 30, 60kHz
FR2 24250MHz - 52600MHz 60, 120, 240kHz
도 5은 NR 프레임의 슬롯 구조를 나타낸다.
도 5을 참조하면, 슬롯은 시간 영역에서 복수의 심볼들을 포함한다. 예를 들어, 노멀 CP의 경우 하나의 슬롯이 14개의 심볼을 포함하나, 확장 CP의 경우 하나의 슬롯이 12개의 심볼을 포함할 수 있다. 또는 노멀 CP의 경우 하나의 슬롯이 7개의 심볼을 포함하나, 확장 CP의 경우 하나의 슬롯이 6개의 심볼을 포함할 수 있다.
반송파는 주파수 영역에서 복수의 부반송파들을 포함한다. RB(Resource Block)는 주파수 영역에서 복수(예를 들어, 12)의 연속한 부반송파로 정의될 수 있다. BWP(Bandwidth Part)는 주파수 영역에서 복수의 연속한 (P)RB((Physical) Resource Block)로 정의될 수 있으며, 하나의 뉴머놀로지(numerology)(예, SCS, CP 길이 등)에 대응될 수 있다. 반송파는 최대 N개(예를 들어, 5개)의 BWP를 포함할 수 있다. 데이터 통신은 활성화된 BWP를 통해서 수행될 수 있다. 각각의 요소는 자원 그리드에서 자원요소(Resource Element, RE)로 지칭될 수 있고, 하나의 복소 심볼이 맵핑될 수 있다.
한편, 단말과 단말 간 무선 인터페이스 또는 단말과 네트워크 간 무선 인터페이스는 L1 계층, L2 계층 및 L3 계층으로 구성될 수 있다. 본 개시의 다양한 실시 예에서, L1 계층은 물리(physical) 계층을 의미할 수 있다. 또한, 예를 들어, L2 계층은 MAC 계층, RLC 계층, PDCP 계층 및 SDAP 계층 중 적어도 하나를 의미할 수 있다. 또한, 예를 들어, L3 계층은 RRC 계층을 의미할 수 있다.
이하, V2X 또는 SL(sidelink) 통신에 대하여 설명한다.
도 6는 SL 통신을 위한 무선 프로토콜 구조(radio protocol architecture)를 나타낸다. 구체적으로, 도 6의 (a)는 NR의 사용자 평면 프로토콜 스택을 나타내고, 도 6의 (b)는 NR의 제어 평면 프로토콜 스택을 나타낸다.
이하, SL 동기 신호(Sidelink Synchronization Signal, SLSS) 및 동기화 정보에 대해 설명한다.
SLSS는 SL 특정적인 시퀀스(sequence)로, PSSS(Primary Sidelink Synchronization Signal)와 SSSS(Secondary Sidelink Synchronization Signal)를 포함할 수 있다. 상기 PSSS는 S-PSS(Sidelink Primary Synchronization Signal)라고 칭할 수 있고, 상기 SSSS는 S-SSS(Sidelink Secondary Synchronization Signal)라고 칭할 수 있다. 예를 들어, 길이-127 M-시퀀스(length-127 M-sequences)가 S-PSS에 대하여 사용될 수 있고, 길이-127 골드-시퀀스(length-127 Gold sequences)가 S-SSS에 대하여 사용될 수 있다. 예를 들어, 단말은 S-PSS를 이용하여 최초 신호를 검출(signal detection)할 수 있고, 동기를 획득할 수 있다. 예를 들어, 단말은 S-PSS 및 S-SSS를 이용하여 세부 동기를 획득할 수 있고, 동기 신호 ID를 검출할 수 있다.
PSBCH(Physical Sidelink Broadcast Channel)는 SL 신호 송수신 전에 단말이 가장 먼저 알아야 하는 기본이 되는 (시스템) 정보가 전송되는 (방송) 채널일 수 있다. 예를 들어, 상기 기본이 되는 정보는 SLSS에 관련된 정보, 듀플렉스 모드(Duplex Mode, DM), TDD UL/DL(Time Division Duplex Uplink/Downlink) 구성, 리소스 풀 관련 정보, SLSS에 관련된 어플리케이션의 종류, 서브프레임 오프셋, 방송 정보 등일 수 있다. 예를 들어, PSBCH 성능의 평가를 위해, NR V2X에서, PSBCH의 페이로드 크기는 24 비트의 CRC를 포함하여 56 비트일 수 있다.
S-PSS, S-SSS 및 PSBCH는 주기적 전송을 지원하는 블록 포맷(예를 들어, SL SS(Synchronization Signal)/PSBCH 블록, 이하 S-SSB(Sidelink-Synchronization Signal Block))에 포함될 수 있다. 상기 S-SSB는 캐리어 내의 PSCCH(Physical Sidelink Control Channel)/PSSCH(Physical Sidelink Shared Channel)와 동일한 뉴머놀로지(즉, SCS 및 CP 길이)를 가질 수 있고, 전송 대역폭은 (미리) 설정된 SL BWP(Sidelink BWP) 내에 있을 수 있다. 예를 들어, S-SSB의 대역폭은 11 RB(Resource Block)일 수 있다. 예를 들어, PSBCH는 11 RB에 걸쳐있을 수 있다. 그리고, S-SSB의 주파수 위치는 (미리) 설정될 수 있다. 따라서, 단말은 캐리어에서 S-SSB를 발견하기 위해 주파수에서 가설 검출(hypothesis detection)을 수행할 필요가 없다.
한편, NR SL 시스템에서, 서로 다른 SCS 및/또는 CP 길이를 가지는 복수의 뉴머놀로지가 지원될 수 있다. 이 때, SCS가 증가함에 따라서, 전송 단말이 S-SSB를 전송하는 시간 자원의 길이가 짧아질 수 있다. 이에 따라, S-SSB의 커버리지(coverage)가 감소할 수 있다. 따라서, S-SSB의 커버리지를 보장하기 위하여, 전송 단말은 SCS에 따라 하나의 S-SSB 전송 주기 내에서 하나 이상의 S-SSB를 수신 단말에게 전송할 수 있다. 예를 들어, 전송 단말이 하나의 S-SSB 전송 주기 내에서 수신 단말에게 전송하는 S-SSB의 개수는 전송 단말에게 사전에 설정되거나(pre-configured), 설정(configured)될 수 있다. 예를 들어, S-SSB 전송 주기는 160ms 일 수 있다. 예를 들어, 모든 SCS에 대하여, 160ms의 S-SSB 전송 주기가 지원될 수 있다.
예를 들어, SCS가 FR1에서 15kHz인 경우, 전송 단말은 하나의 S-SSB 전송 주기 내에서 수신 단말에게 1개 또는 2개의 S-SSB를 전송할 수 있다. 예를 들어, SCS가 FR1에서 30kHz인 경우, 전송 단말은 하나의 S-SSB 전송 주기 내에서 수신 단말에게 1개 또는 2개의 S-SSB를 전송할 수 있다. 예를 들어, SCS가 FR1에서 60kHz인 경우, 전송 단말은 하나의 S-SSB 전송 주기 내에서 수신 단말에게 1개, 2개 또는 4개의 S-SSB를 전송할 수 있다.
예를 들어, SCS가 FR2에서 60kHz인 경우, 전송 단말은 하나의 S-SSB 전송 주기 내에서 수신 단말에게 1개, 2개, 4개, 8개, 16개 또는 32개의 S-SSB를 전송할 수 있다. 예를 들어, SCS가 FR2에서 120kHz인 경우, 전송 단말은 하나의 S-SSB 전송 주기 내에서 수신 단말에게 1개, 2개, 4개, 8개, 16개, 32개 또는 64개의 S-SSB를 전송할 수 있다.
한편, SCS가 60kHz인 경우, 두 가지 타입의 CP가 지원될 수 있다. 또한, CP 타입에 따라서 전송 단말이 수신 단말에게 전송하는 S-SSB의 구조가 상이할 수 있다. 예를 들어, 상기 CP 타입은 Normal CP(NCP) 또는 Extended CP(ECP)일 수 있다. 구체적으로, 예를 들어, CP 타입이 NCP인 경우, 전송 단말이 전송하는 S-SSB 내에서 PSBCH를 맵핑하는 심볼의 개수는 9 개 또는 8 개일 수 있다. 반면, 예를 들어, CP 타입이 ECP인 경우, 전송 단말이 전송하는 S-SSB 내에서 PSBCH를 맵핑하는 심볼의 개수는 7 개 또는 6 개일 수 있다. 예를 들어, 전송 단말이 전송하는 S-SSB 내의 첫 번째 심볼에는, PSBCH가 맵핑될 수 있다. 예를 들어, S-SSB를 수신하는 수신 단말은 S-SSB의 첫 번째 심볼 구간에서 AGC(Automatic Gain Control) 동작을 수행할 수 있다.
도 7은 V2X 또는 SL 통신을 수행하는 단말을 나타낸다.
도 7을 참조하면, V2X 또는 SL 통신에서 단말이라는 용어는 주로 사용자의 단말을 의미할 수 있다. 하지만, 기지국과 같은 네트워크 장비가 단말 사이의 통신 방식에 따라 신호를 송수신하는 경우, 기지국 또한 일종의 단말로 간주될 수도 있다. 예를 들어, 단말 1은 제 1 장치(100)일 수 있고, 단말 2 는 제 2 장치(200)일 수 있다.
예를 들어, 단말 1은 일련의 자원의 집합을 의미하는 자원 풀(resource pool) 내에서 특정한 자원에 해당하는 자원 단위(resource unit)를 선택할 수 있다. 그리고, 단말 1은 상기 자원 단위를 사용하여 SL 신호를 전송할 수 있다. 예를 들어, 수신 단말인 단말 2는 단말 1이 신호를 전송할 수 있는 자원 풀을 설정 받을 수 있고, 상기 자원 풀 내에서 단말 1의 신호를 검출할 수 있다.
여기서, 단말 1이 기지국의 연결 범위 내에 있는 경우, 기지국이 자원 풀을 단말 1에게 알려줄 수 있다. 반면, 단말 1이 기지국의 연결 범위 밖에 있는 경우, 다른 단말이 단말 1에게 자원 풀을 알려주거나, 또는 단말 1은 사전에 설정된 자원 풀을 사용할 수 있다.
일반적으로 자원 풀은 복수의 자원 단위로 구성될 수 있고, 각 단말은 하나 또는 복수의 자원 단위를 선택하여 자신의 SL 신호 전송에 사용할 수 있다.
도 8는 V2X 또는 SL 통신을 위한 자원 단위를 나타낸다.
도 8를 참조하면, 자원 풀의 전체 주파수 자원이 NF개로 분할될 수 있고, 자원 풀의 전체 시간 자원이 NT개로 분할될 수 있다. 따라서, 총 NF * NT 개의 자원 단위가 자원 풀 내에서 정의될 수 있다. 도 8는 해당 자원 풀이 NT 개의 서브프레임의 주기로 반복되는 경우의 예를 나타낸다.
도 8에 나타난 바와 같이, 하나의 자원 단위(예를 들어, Unit #0)는 주기적으로 반복하여 나타날 수 있다. 또는, 시간 또는 주파수 차원에서의 다이버시티(diversity) 효과를 얻기 위해서, 하나의 논리적인 자원 단위가 맵핑되는 물리적 자원 단위의 인덱스가 시간에 따라 사전에 정해진 패턴으로 변화할 수도 있다. 이러한 자원 단위의 구조에 있어서, 자원 풀이란 SL 신호를 전송하고자 하는 단말이 전송에 사용할 수 있는 자원 단위들의 집합을 의미할 수 있다.
자원 풀은 여러 종류로 세분화될 수 있다. 예를 들어, 각 자원 풀에서 전송되는 SL 신호의 컨텐츠(content)에 따라, 자원 풀은 아래와 같이 구분될 수 있다.
(1) 스케쥴링 할당(Scheduling Assignment, SA)은 전송 단말이 SL 데이터 채널의 전송으로 사용하는 자원의 위치, 그 외 데이터 채널의 복조를 위해서 필요한 MCS(Modulation and Coding Scheme) 또는 MIMO(Multiple Input Multiple Output) 전송 방식, TA(Timing Advance)등의 정보를 포함하는 신호일 수 있다. SA는 동일 자원 단위 상에서 SL 데이터와 함께 멀티플렉싱되어 전송되는 것도 가능하며, 이 경우 SA 자원 풀이란 SA가 SL 데이터와 멀티플렉싱되어 전송되는 자원 풀을 의미할 수 있다. SA는 SL 제어 채널(control channel)로 불릴 수도 있다.
(2) SL 데이터 채널(Physical Sidelink Shared Channel, PSSCH)은 전송 단말이 사용자 데이터를 전송하는데 사용하는 자원 풀일 수 있다. 만약 동일 자원 단위 상에서 SL 데이터와 함께 SA가 멀티플렉싱되어 전송되는 경우, SA 정보를 제외한 형태의 SL 데이터 채널만이 SL 데이터 채널을 위한 자원 풀에서 전송 될 수 있다. 다시 말해, SA 자원 풀 내의 개별 자원 단위 상에서 SA 정보를 전송하는데 사용되었던 REs(Resource Elements)는 SL 데이터 채널의 자원 풀에서 여전히 SL 데이터를 전송하기 위해 사용될 수 있다. 예를 들어, 전송 단말은 연속적인 PRB에 PSSCH를 맵핑시켜서 전송할 수 있다.
(3) 디스커버리 채널은 전송 단말이 자신의 ID 등의 정보를 전송하기 위한 자원 풀일 수 있다. 이를 통해, 전송 단말은 인접 단말이 자신을 발견하도록 할 수 있다.
이상에서 설명한 SL 신호의 컨텐츠가 동일한 경우에도, SL 신호의 송수신 속성에 따라서 상이한 자원 풀을 사용할 수 있다. 일 예로, 동일한 SL 데이터 채널이나 디스커버리 메시지라 하더라도, SL 신호의 전송 타이밍 결정 방식(예를 들어, 동기 기준 신호의 수신 시점에서 전송되는지 아니면 상기 수신 시점에서 일정한 타이밍 어드밴스를 적용하여 전송되는지), 자원 할당 방식(예를 들어, 개별 신호의 전송 자원을 기지국이 개별 전송 단말에게 지정해주는지 아니면 개별 전송 단말이 자원 풀 내에서 자체적으로 개별 신호 전송 자원을 선택하는지), 신호 포맷(예를 들어, 각 SL 신호가 한 서브프레임에서 차지하는 심볼의 개수, 또는 하나의 SL 신호의 전송에 사용되는 서브프레임의 개수), 기지국으로부터의 신호 세기, SL 단말의 송신 전력 세기 등에 따라서 다시 상이한 자원 풀로 구분될 수도 있다.
Vehicular Communications for ITS
V2X (Vehicle-to-Everything, 차량 통신)을 활용하는 ITS (Intelligent Transport System)는 주요하게 Access layer (접속 계층), Network & Transport layer (네트워킹 및 트랜스포트 계층), Facilities layer (퍼실리티 계층), Application layer (어플리케이션 계층), Security (보안)와 Management (관리) Entity (엔터티) 등으로 구성될 수 있다. 차량 통신은, 차량 간 통신 (V2V), 차량과 기지국 간 통신 (V2N, N2V), 차량과 RSU (Road-Side Unit) 간 통신(V2I, I2V), RSU 간 통신 (I2I), 차량과 사람 간 통신 (V2P, P2V), RSU와 사람 간 통신 (I2P, P2I) 등 다양한 시나리에 적용될 수 있다. 차량 통신의 주체가 되는 차량, 기지국, RSU, 사람 등은 ITS station이라고 지칭된다.
도 9은 ITS 스테이션 참조 구조 (ITS station reference architecture)를 설명하기 위한 도면이다.
ITS 스테이션 참조 구조 (ITS station reference architecture)는, 액세스 계층 (Access layer), 네트워크&운송 계층 (Network & Transport layer), Facilities layer과 보안 (Security)과 관리 (Management)를 위한 엔티티 (Entity) 및 최상위에는 어플리케이션 계층 (Application layer)으로 구성되어 있으며, 기본적으로 layered OSI (계층 OSI) 모델을 따른다.
구체적으로, 도 9를 참조하면, OSI 모델을 기반한 ITS station 참조 구조 특징이 나타나 있다. ITS 스테이션 (station)의 액세스 (access) 계층은 OSI 계층 1 (physical 계층)과 계층 2 (data link 계층)에 상응하며, ITS 스테이션 (station)의 네트워크&운송 (network & transport) 계층은 OSI 계층 3 (network 계층)과 계층 4 (transport 계층)에 상응하고, ITS 스테이션 (station)의 facilities 계층은 OSI 계층 5 (session 계층), 계층 6 (presentation 계층) 및 계층 7 (application 계층)에 상응한다.
ITS 스테이션 (station)의 최상위에 위치한 어플리케이션 (application) 계층은 사용 케이스 (use-case)를 실제 구현하여 지원하는 기능을 수행하며 사용 케이스 (use-case)에 따라 선택적으로 사용될 수 있다. 관리 엔티티 (Management entity)는 ITS 스테이션 (station)의 통신 (communication) 및 동작을 비롯한 모든 계층을 관리하는 역할을 수행한다. 보안 엔티티 (Security entity)는 모든 계층에 대한 보안 서비스 (security service)를 제공한다. ITS 스테이션 (station)의 각 계층은 상호 간 interface (인터페이스)를 통해 차량 통신을 통해 전송할 혹은 수신한 데이터 및 다양한 목적의 부가 정보들을 교환한다. 다음은 다양한 인터페이스에 대한 약어 설명이다.
MA: Interface between management entity and application layer
MF: Interface between management entity and facilities layer
MN: Interface between management entity and networking & transport layer
MI: Interface between management entity and access layer
FA: Interface between facilities layer and ITS-S applications
NF: Interface between networking & transport layer and facilities layer
IN: Interface between access layer and networking & transport layer
SA: Interface between security entity and ITS-S applications
SF: Interface between security entity and facilities layer
SN: Interface between security entity and networking & transport layer
SI: Interface between security entity and access layer
도 10은 참조 구조에 기초하여 설계 및 적용 가능한 ITS 스테이션 (station)의 예시 구조이다.
ITS 스테이션 (station)의 참조 구조의 주된 개념은 통신 네트워크로 구성된 두 개의 종단 차량/이용자 사이에서, 통신 처리를 각 계층이 가지고 있는 특별한 기능을 가지고 계층별로 나눌 수 있도록 하는 것이다. 즉, 차량 간 메시지가 생성되면, 차량 및 ITS 시스템 (또는 기타 ITS 관련 단말기/시스템)에서 한 계층씩 아래로 각 층을 통과하여 데이터가 전달되고, 다른 쪽에서는 메시지가 도착할 때 메시지를 받는 차량 또는 ITS (또는 기타 ITS 관련 단말기/시스템)는 한 계층씩 위로 통과하여 전달된다.
차량 통신 및 네트워크를 통한 ITS 시스템은, 다양한 use-case 지원을 위해 다양한 접속 기술, 네트워크 프로토콜, 통신 인터페이스 등을 고려하여 유기적으로 설계되며, 하기 기술된 각 계층의 역할 및 기능은 상황에 따라 변경될 수 있다. 다음은 각 계층별 주요 기능에 간략히 기술한다.
어플리케이션 계층 (Application layer)는 다양한 use-case를 실제 구현하여 지원하는 역할을 수행하며, 예로서 안전 및 효율적 교통정보, 기타 오락 정보 등을 제공한다.
어플리케이션 (Application) 계층은 application이 속한 ITS Station을 다양한 형태로 제어하거나, 하위의 access 계층, network & transport 계층, facilities 계층을 통해 서비스 메시지를 차량 통신을 통해 종단 차량/이용자/인프라 등에 전달하여 서비스를 제공한다. 이때 ITS 어플리케이션은 다양한 use case를 지원할 수 있으며, 일반적으로 이러한 use-case들은 road-safety, traffic efficiency, local services, 그리고 infotainment 등 other application으로 grouping 되어 지원될 수 있다. application classification, use-case등은 새로운 application 시나리오가 정의되면 업데이트 (update) 될 수 있다. 계층 관리 (layer management)는 어플리케이션 계층의 운영 및 보안과 관련된 정보를 관리 및 서비스해 주는 역할을 수행하며, 관련 정보는 MA (interface between management entity and application 계층) 와 SA (interface between security entity and ITS-S applications) (또는 SAP: Service Access Point, 예 MA-SAP, SA-SAP)를 통해 양방향으로 전달 및 공유된다. Application 계층에서 facilities 계층으로의 request 또는 facilities 계층에서 application 계층으로의 서비스 메시지 및 관련정보의 전달은 FA (interface between facilities layer and ITS-S applications 또는 FA-SAP)를 통해 수행된다.
퍼실리티 계층 (Facilities layer)는 상위 어플리케이션 계층에서 정의된 다양한 use-case를 효과적으로 실현할 수 있도록 지원하는 역할을 수행하며, 예컨대, application support, information support, session/communication support를 수행할 수 있다.
퍼실리티 계층 (Facilities layer)은 기본적으로 OSI 모델의 상위 3개 계층, 예) session 계층, presentation 계층, application 계층, 기능을 지원한다. 구체적으로는, ITS를 위해 어플리케이션 지원 (Application support), 인포메이션 지원 (Information support), 세션/통신 지원 (Session/communication support) 등과 같은 퍼실리티 (facilities)를 제공한다. 여기서, 퍼실리티 (facilities)는 기능 (functionality), 정보 (information), 데이터 (data)를 제공하는 컴포넌트 (component)를 의미한다.
어플리케이션 지원 퍼실리티 (Application support facilities)는 ITS application의 동작을 (주로 ITS 용 메시지 생성 및 하위계층과의 송수신, 및 그에 대한 관리) 지원하는 퍼실리티이다. 상기 어플리케이션 지원 퍼실리티는 CA (Cooperative Awareness) basic service, DEN (Decentralized Environmental Notification) basic service 등이 있다. 향후에는 CACC (Cooperative Adaptive Cruise Control), Platooning, VRU (Vulnerable Roadside User), CPS (Collective Perception Service) 등 새로운 서비스를 위한 퍼실리티 엔티티 (facilities entity) 및 관련된 메시지가 추가 정의될 수 있다.
정보 지원 퍼실리티 (Information support facilities)는 다양한 ITS application에 의해 사용될 공통된 데이터 정보나 데이터베이스를 제공하는 퍼실리티 (facilities)로 Local Dynamic Map (LDM) 등이 있다.
세션/통신 지원 퍼실리티 (Session/communication support facilities)는 communications and session management를 위한 서비스를 제공하는 facilities로서 addressing mode와 session support 등이 있다.
또한, 퍼실리티 (facilities)는 공통 퍼실리티 (common facilities)와 도메인 퍼실리티 (domain facilities)로 나뉠 수 있다.
공통 퍼실리티 (common facilities)는 다양한 ITS application과 ITS station 동작에 필요한 공통적 서비스나 기능을 제공하는 facilities이며, 예로서 time management, position management, 그리고 services managements등이 있다.
도메인 퍼실리티 (domain facilities)는 일부 (하나 또는 복수의) ITS application에만 필요한 특별한 서비스나 기능을 제공하는 facilities이며, 예로서 Road Hazard Warning applications (RHW)를 위한 DEN basic service 등이 있다. Domain facilities는 optional 기능으로서 ITS station에 의해 지원되지 않으면 사용되지 않는다.
계층 관리 (layer management)는 facilities 계층의 운영 및 보안과 관련된 정보를 관리 및 서비스해 주는 역할을 수행하며, 관련정보는 MF (interface between management entity and facilities 계층) 와 SF (interface between security entity and facilities 계층) (또는 MF-SAP, SF-SAP)를 통해 양방향으로 전달 및 공유된다. Application 계층에서 facilities 계층으로의 request 또는 facilities 계층에서 application 계층으로의 서비스 메시지 및 관련정보의 전달은 FA (또는 FA-SAP)를 통해 이루어지며, facilities 계층과 하위 networking & transport 계층 간의 양방향 서비스 메시지 및 관련정보의 전달은 NF (interface between networking & transport 계층 and facilities 계층, 또는 NF-SAP)에 의해 이루어진다.
다양한 트랜스포트 프로토콜과 네트워크 프로토콜의 지원을 통해 동종 (Homogenous) 또는 이종 (Heterogeneous) 네트워크 간 차량 통신을 위한 네트워크를 구성하는 역할을 수행한다. 예로서 TCP/UDP+IPv6 등 인터넷 프로토콜을 이용한 인터넷 접속, 라우팅 및 차량 네트워크를 제공하며, BTP (Basic Transport Protocol)와 GeoNetworking 기반 프로토콜을 이용하여 차량 네트워크를 형성할 수 있다. 이때 지리적 위치 정보 (Geographical position)를 활용한 네트워킹도 지원될 수 있다. 차량 네트워크 계층은 access layer에 사용되는 기술에 의존적으로 (access layer technology-dependent) 설계되거나 구성될 수 있으며, access layer에 사용되는 기술에 상관없이 (access layer technology-independent, access layer technology agnostic) 설계되거나 구성될 수 있다.
유럽 ITS 네트워크 & 트랜스포트 (network & transport) 계층 기능은 하기와 같다. 기본적으로 ITS 네트워크 & 트랜스포트 (network & transport) 계층의 기능은 OSI 3 계층 (network 계층)와 4 계층 (transport 계층)과 유사 또는 동일하며 다음과 같은 특징을 지닌다.
트랜스포트 계층 (transport layer)은 상위 계층 (session 계층, presentation 계층, application 계층)과 하위 계층 (network 계층, data link 계층, physical 계층)에서 제공받은 서비스 메시지와 관련정보를 전달하는 연결 계층으로서, 송신 ITS station의 application이 보낸 데이터가 목적지로 하는 ITS station의 application process에 정확하게 도착하도록 관리하는 역할을 한다. 유럽 ITS에서 고려될 수 있는 transport 프로토콜은 예로서 그림 OP5.1에서 보이듯 기존의 인터넷 프로토콜로 사용되는 TCP, UDP 등이 있으며, BTS 등 ITS 만을 위한 transport 프로토콜 등이 있다.
네트워크 계층은 논리적인 주소 및 패킷의 전달 방식/경로 등을 결정하고, transport 계층에서 제공받은 패킷에 목적지의 논리적인 주소 및 전달 경로/방식 등의 정보를 네트워크 계층의 헤더에 추가하는 역할을 한다. 패킷 방식의 예로서 ITS station 간 unicast (유니캐스트), broadcast (브로드캐스트), multicast (멀티캐스트) 등이 고려될 수 있다. ITS를 위한 networking 프로토콜은 GeoNetworking, IPv6 networking with mobility support, IPv6 over GeoNetworking 등 다양하게 고려될 수 있다. GeoNetworking 프로토콜은 단순한 패킷 전송뿐만 아니라, 차량을 포함한 station의 위치정보를 이용한 forwarding (포워딩) 혹은 forwarding hop 개수 등을 이용한 forwarding 등의 다양한 전달 경로 혹은 전달 범위를 적용할 수 있다.
네트워크 & 트랜스포트 (network & transport) 계층과 관련된 계층 관리 (layer management)는 network & transport 계층의 운영 및 보안과 관련된 정보를 관리 및 서비스해 주는 역할을 수행하며, 관련정보는 MN (interface between management entity and networking & transport 계층, 또는 MN-SAP) 와 SN (interface between security entity and networking & transport 계층, 또는 SN-SAP)를 통해 양방향으로 전달 및 공유된다. Facilities 계층과 networking & transport 계층 간의 양방향 서비스메시지 및 관련정보의 전달은 NF (또는 NF-SAP)에 의해 이루어지며, networking & transport 계층과 access 계층 간의 서비스메시지 및 관련정보의 교환은 IN (interface between access layer and networking & transport 계층, 또는 IN-SAP)에 의해 이루어진다.
북미 ITS network & transport 계층은, 유럽과 마찬가지로 기존의 IP 데이터를 지원하기 위해 IPv6 와 TCP/UDP를 지원하고 있으며, ITS만을 위한 프로토콜로는 WSMP (WAVE Short Message Protocol)를 정의하고 있다.
WSMP에 따라 생성되는 WSM (WAVE Short Message)의 packet 구조은 WSMP Header 와 Message가 전송되는 WSM data로 구성된다. WSMP header는 version, PSID, WSMP header extension field, WSM WAVE element ID, length로 구성된다.
Version 은 4bits의 실제 WSMP 버전을 나타내는 WsmpVersion 필드와 4bits의 reserved 필드로 정의된다. PSID는 provider service identifier 로 상위 레이어에서 application에 따라 할당되며, 수신기 측에서 적절한 상위 계층을 결정하는데 도움을 준다. Extension fields는 WSMP header를 확장하기 위한 필드로 channel number, data-rate, transmit power used 와 같은 정보들이 삽입된다. WSMP WAVE element ID는 전송되는 WAVE short message의 타입을 지정하게 된다. Lenth는 12bits의 WSMLemgth 필드를 통해 전송되는 WSM data 의 길이를 octets 단위로 지정해주게 되며, 나머지 4bits는 reserved 되어 있다. LLC Header는 IP data 와 WSMP data를 구별하여 전송할 수 있게 해주는 기능을 하며, SNAP의 Ethertype을 통해 구별된다. LLC header 와 SNAP header의 구조는 IEEE802.2에서 정의되어 있다. IP data를 전송하는 경우 Ethertype 은 0x86DD 로 설정하여 LLC header를 구성한다. WSMP를 전송하는 경우 Ethertype 은 0x88DC 로 설정하여 LLC header를 구성한다. 수신기의 경우, Ethertype을 확인하고 0x86DD 인 경우 IP data path 로 packet을 올려 보내고, Ethertype 이 0x88DC 인 경우 WSMP path로 올려 보내게 된다.
액세스 계층 (Access layer)은 상위 계층으로부터 받은 메시지나 데이터를 물리적 채널을 통해 전송하는 역할을 수행한다. 액세스 계층 (Access layer) 기술로서, IEEE 802.11p를 기반한 ITS-G5 차량 통신 기술, 위성/광대역 무선 이동 통신 기술, 2G/3G/4G (LTE (Long-Term Evolution)등)/5G 등 무선 셀룰러 (cellular) 통신 기술, LTE-V2X와 NR-V2X (New Radio)와 같은 cellular-V2X 차량 전용 통신 기술, DVB-T/T2/ATSC3.0등 광대역 지상파 디지털 방송 기술, GPS 기술 등이 적용될 수 있다
데이터 링크 계층 (Data link layer)은 일반적으로 잡음이 있는 인접 노드 간 (또는 차량 간) 물리적인 회선을 상위 네트워크계층이 사용할 수 있도록 전송 에러가 없는 통신 채널로 변환시키는 계층으로 3계층 프로토콜을 전송/운반/전달하는 기능, 전송할 데이터를 전송 단위로서의 패킷(또는 프레임)으로 나누어 그룹화하는 프레이밍 (Framing) 기능, 보내는 측과 받는 측 간의 속도차를 보상하는 흐름제어 (Flow Control) 기능, (물리 전송 매체의 특징상 오류와 잡음이 랜덤하게 발생할 확률이 높으므로) 전송 오류를 검출하고 이것을 수정 또는 ARQ (Automatic Repeat Request)등의 방식으로 송신측에서 타이머와 ACK 신호를 통해 전송에 러를 검출하고 정확하게 수신되지 않은 패킷들을 재전송하는 기능 등을 수행한다. 또한 패킷이나 ACK 신호를 혼동하는 것을 피하기 위해 패킷과 ACK 신호에 일련번호 (Sequence number)를 부여하는 기능, 그리고 네트워크 Entity 간 데이터 링크의 설정, 유지, 단락 및 데이터 전송 등을 제어하는 기능 등도 수행한다. 그림 OP6.1의 data link layer를 구성하는 LLC (Logical Link Control), RRC (Radio Resource Control), PDCP (Packet Data Convergence Protocol), RLC (Radio Link Control), MAC (Medium Access Control), MCO (Multi-channel Operation) 부계층 (sub-layer)에 대한 주요 기능은 다음과 같다.
LLC sub-layer는 여러 상이한 하위 MAC 부계층 프로토콜을 사용할 수 있게 하여 망의 토폴로지에 관계없는 통신이 가능토록 한다. RRC sub-layer는 셀 내 모든 단말에게 필요한 셀 시스템 정보 방송, 페이징 메시지의 전달 관리, 단말과 E-UTRAN 간의 RRC 연결 관리 (설정/유지/해제), 이동성 관리 (핸드오버), 핸드오버 시의 eNodeB 간의 UE 컨텍스트 전송, 단말 (UE) 측정 보고와 이에 대한 제어, 단말 (UE) 능력 관리, UE로의 셀 ID의 일시적 부여, 키 관리를 포함한 보안 관리, RRC 메시지 암호화 등의 기능을 수행한다. PDCP sub-layer는 ROHC (Robust Header Compression) 등의 압축 방식을 통한 IP 패킷 헤더 압축 수행할 수 있고, 제어 메시지 및 사용자 데이터의 암호화 (Ciphering), 데이터 무결성 (Data Integrity), 핸드오버 동안에 데이터 손실 방지 등의 기능을 수행한다. RLC sub-layer는 패킷의 분할(Segmentation)/병합(Concatenation)을 통해, 상위 PDCP 계층으로부터의 패킷을 MAC 계층의 허용 크기로 맞추어 데이터 전달하고, 전송 오류 및 재전송 관리를 통한 데이터 전송 신뢰성 향상, 수신 데이터들의 순서 확인, 재정렬, 중복확인 등을 수행한다. MAC sub-layer는 여러 노드들의 공유 매체 사용을 위해, 노드 간 충돌/경합 발생 제어 및 상위계층에서 전달된 패킷을 Physical layer 프레임 포맷에 맞추는 기능, 송신단/수신단 주소의 부여 및 식별 기능, 반송파 검출, 충돌 감지, 물리매체 상의 장해를 검출하는 등의 역할을 수행한다. MCO sub-layer는 복수개의 주파수 채널을 이용하여 다양한 서비스를 효과적으로 제공할 수 있도록 하며, 주요 기능은 특정 주파수 채널에서의 트래픽 가중 (traffic load)를 다른 채널로 효과적으로 분산하여 각 주파수 채널에서의 차량 간 통신 정보의 충돌/경합을 최소화한다.
물리 계층은 ITS 계층 구조상의 최하위 계층으로 노드와 전송매체 사이의 인터페이스를 정의하고, data link 계층 Entity 간의 비트 전송을 위해 변조, 코딩, 전송채널을 물리 채널로의 매핑 등을 수행하며, 반송파 감지 (Carrier Sense), 빈 채널 평가 (CCA: Clear Channel Assessment) 등을 통해 무선매체가 사용 중인지 여부(busy 또는 idle)를 MAC 부계층에게 알리는 기능을 수행한다.
한편, SoftV2X 시스템는 UU 인터페이스를 이용한 V2X 통신으로, SoftV2X 서버가 VRU (Vulnerable Road User) 또는 V2X 차량으로부터 VRU 메시지 또는 PSM (Personal Safety Message)을 수신하고, VRU 메시지 또는 PSM 메시지에 기반하여 주변 VRU 또는 차량의 정보를 전달해주거나, 주변 VRU 또는 차량들이 이동하는 도로 상황 등을 분석하고, 분석된 정보에 기반하여 주변 VRU 또는 차량에게 충돌 경고 등을 알리는 메시지를 전송하는 시스템이다. 여기서, VRU 메시지 또는 PSM 메시지는 UU 인터페이스로 상기 SoftV2X 서버에 전송되는 메시지로, VRU의 위치, 이동 방향, 이동 경로, 속도 등 상기 VRU에 대한 이동성 정보를 포함할 수 있다. 즉, SoftV2X 시스템은 UU 인터페이스를 통해 V2X 통신과 관련된 VRU 및/또는 차량들의 이동성 정보를 수신하고, 네트워크 등 softV2X 서버가 수신된 이동성 정보에 기초하여 VRU 등의 주행 경로, VRU 이동 흐름 등을 제어하는 방식이다. 또는, SoftV2X 시스템은 V2N 통신과 관련하여 구성될 수 있다.
V2X 통신과 관련된 다이렉트 통신 (PC5, DSRC)의 수행하기 어려운 사용자 장비 또는 보행자 장비 (VRU 장치)는 UU 인터페이스에 기반한 SoftV2X 시스템을 통해 주변 차량 또는 VRU에 주행 정보, 이동성 정보를 제공하거나 제공받을 수 있다. 이를 통해, 상기 다이렉트 통신 (PC5, DSRC)의 수행하기 어려운 사용자 장비 또는 보행자 장비 (VRU 장치)는 주변 차량들로부터 안전을 보호받을 수 있다.
MIC 권한 변화에 따른 음파측위 알고리즘 운용 기술
종래 많은 V2X 장치들은 GPS (Global Positioning System)를 이용하여 자신의 위치를 인지하고 있다. 다만, 상기 GPS에 기반한 위치 측정 기술은 위성에서 전송하는 신호의 수신이 전제되는 기술로써 날씨나 건물 안 육교 및 등 상황에 따라 성능이 열화가 발생할 수 있다. 특히, 스쿨존, 횡단보도와 같은 특정 지역에서는 상기 GPS의 성능 열화의 문제가 해소될 필요가 있다. 이를 위해, 상기 특정 지역에서 음파 기술에 기반하여 위치를 측정하는 방식이 추가적으로 제공될 필요가 있다. 다만, 상기 음파 기술에 기반한 위치 측정의 경우, (단말) 통화와 같은 상황이 발생할 경우에 상기 음파 신호에 기반한 위치 측정에서 MIC (마이크 또는 음파 센서)를 이용할 수 있는 권한이 제한될 수 있다. 이와 같은 마이크의 이용 권한의 제한은 상기 음파 신호에 기반한 위치 측위에 성능 열화의 요인이 될 수 있는 바, 상기 마이크의 이용 권한이 제한된 경우에 상기 음파 신호에 기반한 위치 측위에서의 열화를 최소화할 수 있는 방안이 필요하다. 이하에서는, 마이크의 권한이 제한된 경우에 음파 신호에 기반한 위치 측정의 열화를 최소화할 수 있는 방법을 자세히 설명한다.
도 11 및 12은 음파 신호에 기반한 위치 측정 방법을 설명하기 위한 도면이다.
도 11을 참조하면, 특정 지역에는 스피커 유닛 등을 통해 음파 측위를 위한 음파 신호를 생성하는 RSU들 (anchors; 110, 120, 130, 140)이 상기 특정 지역의 모서리에 설치될 수 있다. RSU들 (110, 120, 130, 140)은 로컬 서버 (220)로부터 전달 받은 동기화된 음파 신호를 생성 및 전송할 수 있다. VRU 장치/단말/SoftV2X 장치(400)는 상기 음파 신호에 기반하여 RSU들 (110, 120, 130, 140) 각각과의 상대 측위를 수행하고, SoftV2X 서버 (300)로부터 수신한 측위 파라미터 및 상기 RSU들 (110, 120, 130, 140)의 절대 위치에 기반하여 자신의 절대 위치를 추정할 수 있다.
로컬 서버 (Local server; 200)는 RSU들 (110, 120, 130, 140)을 통해 동기화된 음파 신호를 주변 VRU 장치/단말/SoftV2X 장치(400)에게 전송할 수 있다.
도 12 (a)를 참조하면, 앵커 1 (또는, RSU 1) 및 앵커 2 (또는, RSU 2)는 제1 시간 (t1)에 음파 신호를 동시에 생성/전송할 수 있다. 이 경우, VRU 장치/단말/SoftV2X 장치(400)는 상기 앵커 1 및 앵커 2로부터 상기 음파 신호들을 수신하고, 상기 음파 신호들 간의 수신 시간 차이를 산출할 수 있다. 이후, VRU 장치/단말/SoftV2X 장치 (400)는 도 12 (b)에 도시된 바와 같이 앵커 1 내지 앵커 4 중에서 두 앵커에서의 음파 신호의 수신 시간의 차이에 기반하여 VRU 장치/단말/SoftV2X 장치 (400)의 위치를 산출/추정할 수 있다. 이는, 상술한 TDoA 방식과 유사할 수 있다. 이와 같은 위치 측정을 위해, 각 앵커들에 대한 (절대) 위치는 상기 VRU 장치/단말/SoftV2X 장치 (400)에 전달될 필요가 있다.
한편, VRU 장치/단말/SoftV2X 장치 (400)가 스마트폰/핸드폰일 경우, VRU 장치/단말/SoftV2X 장치 (400)는 통화와 같은 특정 상황이 발생할 경우에 상기 음파 신호의 수신 권한이 제한될 수 있고, 이에 따라 상기 음파 신호에 대한 수신 시간의 측정이 어려워질 수 있다.
이하에서는, MIC 권한의 변화 (즉, 권한 제한 또는 MIC 사용의 제한)의 발생 여부에 따라 음파 측위를 수행하는 방법을 자세히 설명한다.
도 13는 일 예에 따른 음파 측위를 수행하는 VRU 장치/단말/SoftV2X 장치의 내부 구조를 설명하기 위한 도면이다.
도 13를 참조하면, 상기 단말/VRU 장치는 MIC (110), 필터 (Filter; 120), 신호 처리부 (Signal Processing; 130), TDoA 산출기 (TDoA Calculator; 140), 모드 감지기 (Mode detection; 210), 경로 예측기 (Path prediction; 220), IMU 센서 (230), GPS (240) 및 위치 퓨전 블록 (Positioning Fusion Block; 250)을 포함할 수 있다. 여기서, 상기 MIC (110)는 주변 음파 신호를 수신할 수 있고, 필터 (120)는 상기 주변 음파 신호에서 원하는 음파 대역에서의 음파 신호를 분리/추출할 수 있다. 신호 처리부 (130)는 앵커들 각각에서 수신된 신호를 추출하고, 각 앵커 별로 추출된 신호의 수신 시간을 산출/획득할 수 있다. 이 경우, TDoA 산출기 (140)는 상기 앵커들 간의 수신 시간의 차이에 기반하여 위치를 측정/산출할 수 있다.
또한, 모드 감지기 (210)는 상기 단말/VRU 장치의 OS (Operating System)로부터 상기 음파 신호에 기반한 위치 측정을 위한 상기 MIC의 권한의 변화 등을 인지할 수 있다. 경로 예측기 (200)는 상기 단말 또는 상기 VRU 장치의 진행 방향을 예측할 수 있다. 위치 퓨전 블록 (250)은 IMU 센서 (230)의 측정 값 (또는, 이동/위치 변화량), 상기 GPS의 GPS 정보, 및 음파 신호에 대한 측정 값 중 적어도 둘 이상을 융합하여 상기 단말/VRU 장치의 위치를 산출/측정할 수 있다.
이하에서는, 상술한 단말/VRU 장치의 구성에 기반하여 상기 음파 측위에서 다른 센싱 정보를 융합하여 상기 단말/VRU 장치의 위치를 측정하는 방법 (또는, 융합 측위 방식)을 자세히 설명한다. 이와 같은 융합 측위 방식은 음파 신호에 기반한 위치 측정 중에서 MIC의 권한의 제한/상실 여부나, 음파 측위 전 상기 단말/VRU장치의 이동 상태 및 상기 단말/VRU 장치가 위치하는 존에 기반하여 사용 여부가 결정/정의될 수 있다.
(1) 측위 서비스 중 MIC 운용/권한 변화
도 14 내지 도 16은 음파 측위 시스템에서 마이크의 권한이 변화되는 경우를 설명하기 위한 도면이다.
도 14를 참조하면, 단말/VRU 장치는 제1 위치 (410)에서 상기 음파 신호 기반 위치 측정을 위한 MIC/음파 센서의 사용 권한이 있으나, 제2 위치 (420)에서 특정 이벤트 등의 발생 (예컨대, 통화 발생)으로 상기 MIC/음파 센서의 사용 권한이 상실/제한될 수 있고, 제3 위치 (430)에서 다시 상기 MIC/음파 센서의 사용 권한을 가질 수 있다. 이와 같은 MIC/음파 센서의 사용 권한의 변화에서, 상기 단말/VRU 장치는 제2 위치에서 상기 제3 위치로 이동하는 동안 음파 신호에 기반한 측정 값을 얻지 못할 수 있다. 이와 같은 상황 (즉, 마이크 권한 상실/제한)에서, 상기 음파 신호에 기반한 위치 측정 방식을 보완하는 기술이 필요할 수 있다.
도 15를 참조하면, GPS 측정 값에 기반한 위치 변화와 음파 신호에 기반한 위치 변화가 도시되어 있다. 음파 측위 영역 (USP zone) 밖에 있는 경우, 상기 단말/VRU 장치는 GPS 신호만을 사용하여 위치 측정을 수행할 수 있다. 이후, 음파 측위 영역에 진입한 경우, 상기 단말/VRU 장치는 음파 측위를 이용하여 자신의 위치를 측정/결정할 수 있다. 이때, USP 시스템, GPS 시스템 및 IMU 센서 모두로부터 위치와 관련된 정보를 수신 받을 수 있다. t23에서 MIC 신호를 잃어버릴 수 있다 (예컨대, MIC 이용 권한의 제한/상실). 이 경우, 상기 단말/VRU 장치는 MIC 신호를 잃기 전까지 획득한 음파 기반 측정 값 및 IMU 센서의 측정 값에 기반하여 자신의 위치를 추정/예측할 수 있다. 이후, 음파 측위 영역 (USP Zone)을 벗어난 경우 (t32), 상기 단말/VRU 장치는 다시 GPS에 기반한 위치 측정을 위해 GPS의 값을 추가적으로 고려하여 측정/추정된 위치를 조정/보정할 수 있다.
도 16을 참조하면, 운용 상태 머신의 기본 상태는 GPS에 기반하여 위치 측정하는 방식이 수행될 수 있다 (state A). 음파 측위 영역 (USP Zone)에 진입하는 경우, 상태 A에서 상태 B (State B)로 이동하여 USP (음파 기반 위치 측정) 값을 이용하여 위치 측정이 수행될 수 있다. MIC 권한을 잃어버리거나 제한된 경우, 상태 B에서 상태 C로 이동할 수 있다. 상태 C에서, MIC의 권한 상실/제한 직전에 획득한 USP 값 (USP_ref) 및 관성 항법(INS; IMU 및/또는 GPS 변화량)을 이용하여 위치의 측정/추정이 수행될 수 있다. 음파 측위 영역 (USP Zone)을 벗어날 경우, 상태 B 또는 상태 C에서 상태 D로 이동할 수 있다. 상기 상태 D에서는 마지막 계산된 USP 값 (USP_ref) 및 INS 값 (상태 B/C에서 마지막에 측정된 값)과, GPS 값에 기반하여 위치를 측정할 수 있다.
또는, 상태 C에서 MIC의 권한을 다시 획득한 경우, 상기 상태 C는 다시 상태 B로 이동할 수 있다. 이 후, 음파 측위 영역 (USP Zone)을 벗어날 경우, 상태 B에서 상태 D로 이동할 수 있다. 상태 D에서 음파 측위 영역 (USP Zone)을 재진입할 경우에 상태 C로 이동할 수 있다. 또는, 상태 D에서 미리 설정된 시간이 경과하면 상태 A로 이동하여 GPS에만 기반하여 위치 측정이 수행될 수 있다.
예컨대, 도 15 및 도 16을 참조하면, 상태 A에서는 GPS 값/정보에 기반하여 측정된 위치 정보/값 (
Figure PCTKR2023018771-appb-img-000001
)이 최종 위치 정보/값으로 결정/사용될 수 있다. 상태 B에서는 USP 값/정보 (즉, 음파 신호들에 기반하여 산출된 값)에 기반하여 측정된 위치 정보/값 (
Figure PCTKR2023018771-appb-img-000002
)이 최종 위치 정보/값으로 결정/사용될 수 있다. 이 때 (즉, 상태 A에서 상태 B로 이동할 경우), 상태 A에서 GPS 값을 이용하여 측정된 제1 위치 값과 상태 B에서의 (초기) USP 값을 이용하여 측정된 제2 위치 값이 큰 차이가 난 경우 (극단적으로 변화하는 경우), 스무딩 기술을 통해 상기 제1 위치 값에서 상기 제2 위치 값으로 부드럽게 변화시킬 수 있다. 한편, 상기 위치 값이 급격하게 변화하는 경우, 상기 VRU 장치/단말에서는 상기 위치 값의 변화 정도가 위험 분석에 활용/사용될 수 있다. USP 신호를 잃어버린 경우 상태 C에 진입할 수 있다. 상태 C에서는 상태 C로의 이동 전에 마지막에 획득된 위치 값 (USP_ref;
Figure PCTKR2023018771-appb-img-000003
)을 기준으로 관성 항법 (IMU 변화량 및/또는 GPS 변화량)을 이용하여 위치가 추정될 수 있다.
이하에서는, 상태 C에서 관성 항법을 이용하여 위치를 추정하는 구체적인 방법을 설명한다.
도 17은 MIC 권한이 상실/제한된 VRU 장치/단말이 관성 항법을 이용하여 위치를 추정하는 방법을 설명하기 위한 도면이다.
상술한 바와 같이, VRU 장치/단말은 USP 영역 내에서 MIC 권한이 상실/제한된 경우에 상태 C로 이동하여 관성 항법을 추가적으로 이용하여 자신의 위치를 예측/추정할 수 있다.
도 17 (a)를 참조하면, VRU 장치/단말은 상태 C로의 이동 전에 마지막에 획득된 위치 값 (
Figure PCTKR2023018771-appb-img-000004
)에 관성 항법에 따른 변화량을 반영하여 자신의 위치를 추정/예측할 수 있다. 예컨대, VRU 장치/단말은 하기의 수학식 1과 같이
Figure PCTKR2023018771-appb-img-000005
Figure PCTKR2023018771-appb-img-000006
(즉,
Figure PCTKR2023018771-appb-img-000007
)을 기준으로 IMU 변화량과 GPS 변화량을 반영하여 T23에서의 자신의 위치 (
Figure PCTKR2023018771-appb-img-000008
)를 추정/예측할 수 있다.
[수학식 1]
Figure PCTKR2023018771-appb-img-000009
여기서, αIMU, αGPS 는 관성 항법을 이용한 위치 추정에서 상기 IMU 변화량 및 GPS 변화량이 반영되는 비율을 조정하는 비중 계수일 수 있다. 한편, IMU의 변화량에 따른 위치 변화의 정확도가 높을 수 있는 바, αIMU 는 αGPS 보다 큰 값으로 설정될 수 있다.
다음으로, 상기 VRU 장치/단말은 상기 USP 지역을 벗어날 경우에 상태 D로 전환될 수 있다. 이 때, 상태 D로 전환 즉시 GPS 기반으로만 위치 측정을 수행할 경우에 급격한 위치 변화 (또는, 큰 위치 오차)가 발생할 수 있다. 따라서, 상태 D로 전환되더라도, 상기 VRU 장치/단말은 소정 시간 동안 관성 항법에 따른 위치 추정/예측을 지속할 수 있다. 예컨대, 소정 시간 동안, 상기 VRU 장치/단말은 GPS 값을 이용하여 측정된 위치에 IMU 변화량 및 GPS 변화량을 비율적으로 적용할 수 있다.
도 17 (b)를 참조하면, 상기 VRU 장치/단말은 관성 항법에 따라 예측된 INS 위치 및 상기 GPS에 따른 GPS 위치를 이용하여 최종 위치를 산출할 수 있다. 예컨대, 상기 VRU 장치/단말은 수학식 2와 같이 관성 항법을 이용하여 추정/예측된 INS 위치 (
Figure PCTKR2023018771-appb-img-000010
,
Figure PCTKR2023018771-appb-img-000011
) 및 GPS 위치 (
Figure PCTKR2023018771-appb-img-000012
,
Figure PCTKR2023018771-appb-img-000013
)에 미리 정의된 비중 계수 (αIMU , αGPS)를 적용하고, 더하여 상기 최종 위치를 산출할 수 있다.
Figure PCTKR2023018771-appb-img-000014
이와 같이, 상기 VRU 장치/단말은 GPS 정보에 기반한 위치 측정 중에 특정 지역인 음파 측위 영역에 위치할 경우에 상기 GPS 정보가 아닌 음파 신호에 기반하여 상기 자신의 위치 정보를 획득할 수 있다. 나아가, 상기 VRU 장치/단말은 상기 음파 측위 영역에서 음파 측위를 수행하는 도중 상기 음파 측위를 위한 MIC의 권한이 상실/제한될 경우에도 IMU 변화량 (및/또는 GPS 변환량)에 기반하여 관성 항법을 통해 자신의 위치 정보를 효과적으로 예측/추정할 수 있다.
한편, 상기 위치 측정 기술의 변경을 통해, 상기 VRU 장치/단말에 대한 위치 정보가 급격히 변하게 될 경우, 주변 장치는 상기 급격한 위치 변화에 대한 정보를 포함하는 메시지의 수신에 기반하여 급정지, 충돌 위험 등의 오경보 동작을 수행할 가능성이 있다. 이와 같은 오경보 동작이 방지를 위해, 상기 VRU 장치/단말은 상기 위치 측정 기술의 변화에 대한 정보를 추가적으로 제공할 수 있다. 이를 위해, 상기 VRU 장치/단말은 상기 급격한 위치 변화가 실제 동적인 변화가 아닌 상기 위치 측정 기술의 변화에 의한 변화임을 알려주도록 새롭게 정의된 표시 필드를 포함하는 메시지를 주변 VRU 장치/단말에게 전송할 수 있다.
구체적으로, 상기 표시 필드는 1Byte의 페이로드를 가질 수 있고, 1.GPS, 2,USP, 3.USP+IMU, 4.USP+IMU+GPS, 5.UPS + other(UWB) 등을 지시하는 정보가 포함될 수 있다. 상기 필드는 V2X 메시지/V2N 메시지에서 포함된 Regional Extension 필드에 추가될 수 있다. 또한, 상기 VRU 장치/단말은 상기 표시 필드를 포함하는 별도의 부가 메시지를 전송할 수도 있다.
(2) 음파 측위 영역 주변에서의 MIC 운용 방법
이하에서는, 음파 측위 전에 상황 및 음파 측위 영역의 위치에 기반하여 음파 측위를 위한 MIC 운용 방법을 자세히 설명한다.
도 18 및 도 19는 단말/VRU 장치가 음파 측위를 위한 어플리케이션 (App)에서의 MIC 권한의 활성화 제어 방식을 설명하기 위한 도면이다.
아이폰의 경우, App이 백그라운드로 들어가면 상기 App에 대한 MIC의 권한이 제한/상실될 수 있다. 이 때, 상기 단말/VRU 장치가 음파 측위 영역에 인접한 곳에 위치하나 상기 음파 측위를 위한 App이 백그라운드 상태가 될 경우, 상기 단말/VRU 장치는 음파 측위를 위한 MIC 권한의 상실/제한으로 음파 측위와 관련된 서비스를 제공받을 수 없다. 다만, 아이폰에서의 App은 MIC의 활성화 (Activate) 제어 방식을 이용하여 백그라운드 상태가 되더라도 일정 시간 동안 MIC의 권한을 상실하지 않을 수도 있다. 상기 단말/VRU 장치는 음파 측위 영역에 인접한 곳에 위치하는지 여부에 기초하여 위치 측위와 관련된 MIC 권한의 활성화 (Activate) 제어 방식을 결정할 수 있다.
도 18을 참조하면, App에서의 MIC 권한의 활성화와 관련된 3 개의 존들 (존 1, 존 2 및 존 3)이 정의될 수 있다. 상기 단말/VRU 장치는 각 존과의 위치 관계에 기반하여 수 있고 상기 MIC 권한의 활성화 제어 방식을 결정/설정할 수 있다. 예컨대, 존 1은 음파 측위 영역의 특정 위치 (Pos_USP)를 중심으로 제1 거리 (Distlevel1)를 반지름으로 하는 원에서 상기 음파 측위 영역을 제외한 영역이고, 존 2는 상기 특정 위치 (Pos_USP)를 중심으로 제2 거리 (Distlevel2)를 반지름으로 하는 원에서 상기 존 1을 제외한 영역이고, 존 3은 상기 존 2를 제외한 나머지 영역일 수 있다.
구체적으로, 존 1은 상기 존들 중에서 음파 측위 영역에 가장 인접한 존으로 설정될 수 있다. 상기 존 1에 위치하는 단말/VRU 장치 (110)는 상기 단말/VRU 장치의 이동 상태와 관련 없이 (백그라운드 상태에서도) 항상 MIC 권한을 갖도록 상기 MIC 권한을 활성화시킬 수 있다. 즉, 상기 단말/VRU 장치 (110)는 상기 음파 측위 영역으로 진입하는 방향으로 이동하는지 여부와 무관하게 MIC의 권한을 활성화시킬 수 있다.
존 2은 존 1 다음으로 상기 음파 측위 영역과 인접한 존으로 설정된다. 상기 존 2에 위치하는 단말/VRU 장치(210, 220)들은 이동 상태에 기반하여 상기 MIC 권환의 활성화 유지 여부를 결정할 수 있다. 상기 단말/VRU 장치 (210)는 상기 음파 측위 영역을 향해 이동하는 이동 상태에 기반하여 상기 MIC 권한을 활성화시킬 수 있다. 단말/VRU 장치 (220)는 상기 음파 측위 영역과 멀어지는 방향으로 이동하는 이동 상태에 기반하여 상기 MCI 권한을 비활성화 (Deactivate)시킬 수 있다.
존 3은 상기 음파 측위 영역, 존 1 및 존 2을 제외한 나머지 영역일 수 있다. 상기 존 3에 위치하는 단말/VRU 장치 (310)는 이동 상태와 무관하게 상기 MIC 권한에 대한 활성화의 제어를 수행하지 않을 수 있다. 다만, 단말/VRU 장치 (310)가 상기 음파 측위 영역을 향하여 일정 시간 동안 이동하는 경우에는 상기 음파 측위와 관련된 모드 (또는, App의 실행)를 on시키라는 안내를 상기 사용자에게 제공할 수 있다.
도 19를 참조하면, 상술한 존들에 기반한 상기 단말/VRU 장치의 동작을 설명하는 상태 머신 (State machine)의 구성이 도시되어 있다.
상기 상태 머신은 제0 상태, 제1 상태, 제2 상태, 제3 상태 및 제4 상태를 포함할 수 있다. 제0 상태는 음파 측위 (USP) 서비스와 관련된 App이 실행되는 단계일 수 있다 (예컨대, 백그라운드 상태가 아님). 상기 음파 측위 서비스의 App이 백그라운드 상태로 진입할 경우, 상기 단말/VRU 장치는 상기 제0 상태에서 제1 상태로 전환될 수 있다. 상기 제1 상태인 상기 단말/VRU 장치는 자신의 위치와 상기 음파 측위 영역의 위치에 기초하여 상술한 존들 (예컨대, 존 1, 존 2 및 존 3)을 설정할 수 있다. 상기 단말/VRU 장치는 상기 설정된 존들 중 상기 존 1에 위치하는 경우에는 상기 제1 상태에서 제2 상태로 전환될 수 있다. 이 경우, 상술한 바와 같이, 상기 단말/VRU 장치는 상기 단말/VRU 장치의 이동 상태와 무관하게 상기 MIC 권한을 활성화시킬 수 있다. 다시 말하자면, 상기 단말/VRU 장치는 상기 App이 백그라운드 상태로 전환될 경우에 상기 단말/VRU 장치의 이동 상태와 무관하게 상기 MIC 권한을 활성화시킬 수 있다.
또는, 상기 단말/VRU 장치가 존 2에 위치하는 경우, 상기 단말/VRU 장치는 상기 제1 상태에서 상기 제3 상태로 전환될 수 있다. 이 경우, 상기 단말/VRU 장치는 자신의 이동 상태에 기초하여 상기 App의 백그라운드 후에도 상기 MIC 권한의 활성화를 유지시킬지 여부를 결정할 수 있다. 예컨대, 상기 단말/VRU 장치가 상기 음파 측정 존을 향해 이동하는 경우에 상기 단말/VRU 장치는 상기 App의 백그라운드 후에도 상기 MIC 권한의 활성화를 유지할 수 있다. 이와 달리, 상기 단말/VRU 장치가 상기 음파 측위 영역을 벗어나는 방향으로 향하는 경우 (예컨대, 존 3로 향하는 경우), 상기 단말/VRU 장치는 상기 제3 상태에서 상기 제4 상태로 전환될 수 있다.
또는, 상기 단말/VRU 장치가 존 3에 위치하는 경우, 상기 단말/VRU 장치는 제1 상태에서 상기 제4 상태로 전환될 수 있다. 이 경우, 상기 단말/VRU 장치의 이동 상태와 무관하게 상기 단말/VRU 장치는 상기 MIC 권한을 비활성화시킬 수 있다.
한편, 상기 단말/VRU 장치가 상기 존 3에서 상기 존 2로 진입하거나, 상기 존 2에서 MIC 권한을 비활성화하였으나 다시 상기 존 1을 향해 이동하는 경우, 상기 단말/VRU 장치는 상기 제3 상태로 전환되어 상기 음파 측위가 가능하다는 안내를 사용자에게 제공할 수 있고, 상기 사용자의 입력을 통해 상기 음파 측위에 대한 App이 상기 MIC 권한을 활성화되도록 유도할 수 있다.
이와 같이, 음파 측위 방식을 통해 특정 지역에 대한 (또는, 지역적으로) 정밀한 위치 측위 서비스가 제공되는 시스템에서 상기 단말/VRU 장치의 베터리 소모를 최소화할 수 있다. 또는, 상기 단말/VRU 장치의 이동 상태 및 위치에 기반하여 특정 스마트폰 (또는, 특정 OS)에서의 App (또는, 프로그램) 별 MIC의 권한의 활성화 여부를 결정함으로써, 상기 음파 측위 방식의 시스템은 상기 MIC의 권한을 필요한 경우에만 활성화시킬 수 있다.
도 20은 장치가 음파 신호들에 기반하여 위치를 측정하는 방법을 설명하기 위한 도면이다.
도 20을 참조하면, 상기 장치는 음파 신호에 기반한 위치 측정과 관련된 음파 측위 존 (또는, 음파 측정 영역)에 대한 정보를 포함하는 설정 정보를 수신 받을 수 있다 (S201). 상기 설정 정보는 상기 음파 측위 존의 네 꼭지점의 위치들을 포함할 수 있고, 상기 네 꼭지점들 각각의 위치는 상술한 바와 같이 RSU의 절대 위치일 수 있다. 또는, 상기 설정 정보는 상기 음파 측위 존에 대한 위치 정보뿐만 아니라 도 18에 설명한 바와 같이 인접한 존들에 대한 정보 (중심점, 반지름) 및/또는 미리 설정된 시간에 대한 정보를 더 포함할 수 있다.
한편, 상기 장치는 상술한 바와 같이 VRU 장치, 단말 또는 SoftV2X 장치일 수 있고, 상기 설정 정보는 SoftV2X 서버 및/또는 네트워크로부터 수신 받을 수 있다. 또한, 상기 음파 측위 존은 상기 GPS의 신호가 제대로 수신되지 않은 영역이거나, 상기 GPS의 신호에 기반한 위치 측정의 정확도보다 더 높은 정확도의 위치 측정이 필요한 영역 (예컨대, 횡단 보도, 교차로 등)일 수 있다.
상기 장치는 상기 음파 측위 존에 진입한 것에 기초하여, 음파 센서를 통해 수신된 음파 신호들을 이용하여 상기 장치의 위치를 측정할 수 있다 (S203). 상술 한 바와 같이, 음파 신호들은 위치 네트워크에서 동기화된 음파 신호들로써, 적어도 둘 이상의 앵커 노드 또는 RSU들로부터 전송될 수 있고, 가청 주파수 이상의 주파수를 갖는 초음파 신호일 수 있다. 상기 장치는 상기 음파 신호들 간의 수신 시간의 차이 값 (또는, 위치 값) 및 상기 RSU들 각각의 절대 위치 정보에 기초하여 상기 장치의 위치를 측정할 수 있다. 한편, 상기 음파 센서는 상술한 바와 같이 마이크 (MIC)일 수 있다.
상기 장치는 상기 음파 센서의 사용이 제한된 경우에 관성 항법에 기반한 위치 변화량을 이용하여 상기 장치의 위치를 측정/추정할 수 있다 (S205). 여기서, 위치 변화량은 상술한 바와 같이 관성 센서 (IMU) 및 GPS (Global Positioning System) 중 적어도 하나를 이용하여 산출/획득될 수 있다. 예컨대, 상술한 바와 같이, 상기 장치에서의 특정 이벤트의 발생 (예컨대, 무선 통화의 발생 등)으로 상기 음파 신호들을 수신하기 위한 음파 센서의 사용이 제한될 수 있다. 이 경우, 상기 장치는 상기 음파 센서를 이용하여 음파 신호들을 수신할 수 있는 바, 상기 음파 신호들에 대한 위치 측정의 성능의 열화를 최소화하기 위해서 관성 항법 방식에 기반하여 자신의 위치를 측정할 수 있다. 구체적으로, 수학식 1에서 정의된 바와 같이, 상기 장치는 상기 음파 센서의 사용이 제한되기 직전에 상기 음파 신호들을 이용하여 측정/산출된 제1 위치 값에 상기 관성 항법에 기반하여 획득/산출된 위치 변화량을 부가/적용하여 상기 장치의 위치를 측정/추정할 수 있다. 이후, 상기 장치에 대한 음파 센서의 권한 제한이 해제되어 상기 음파 신호의 수신이 가능해진 경우, 상기 장치는 상기 음파 신호들에 기반한 위치 측정 방식을 재개하여 상기 음파 신호들을 이용하여 산출된 위치 값만을 이용하여 상기 장치의 위치를 측정할 수 있다.
예컨대, 상기 관성 센서는 3축 가속도 센서, 3축 각속도 센서 및/또는 3축 지자기 센서 등을 포함할 수 있고, 상기 센서들을 이용하여 현재 속도, 회전 속도, 방향, 기울기 및 가속도에 대한 데이터들을 획득할 수 있고, 상기 데이터들에 기반하여 상기 장치의 위치 변화량을 산출할 수 있다. 또는, 상기 GPS를 이용한 상기 장치의 위치 변화량은 두 시점 각각에서 상기 GPS의 위성 신호에 기반하여 측정/산출된 위치 값들 간의 차이를 통해 산출될 수 있다. 이 때, 최종 위치 변화량은 수학식 1에서 정의된 바와 같이, 가중치 1이 적용된 상기 관성 센서에 의해 측정된 위치 변화량과 가중치 2가 부가된 상기 GPS에 의해 측정된 위치 변화량의 합으로 산출될 수 있다.
또는, 상기 장치는 상기 음파 측위 존으로 진입한 시점부터 상기 미리 설정된 시간 동안에 상기 GPS를 이용하여 산출된 제1 위치 값과 상기 음파 신호들을 이용하여 산출된 제2 위치 값을 모두 고려하여 상기 장치의 위치를 결정할 수 있다. 예컨대, 상기 음파 측위 존에 진입할 경우에 위치 측정 기법의 변화로 인해, 상기 장치의 위치가 급격하게 변할 수 있다. 이러한 점을 고려하여, 상기 장치는 상기 제1 위치 값에 제1 가중치를 부가하고, 상기 제2 위치 값에 제2 가중치를 부가하며 (제1 가중치 및 상기 제2 가중치의 합은 1 이하인), 상기 제1 가중치가 부가된 제1 위치 값과 상기 제2 가중치가 부가된 제2 위치 값을 합한 값의 평균을 상기 장치의 위치로 결정할 수 있다 (수학식 2 참조).
또는, 상기 장치는 상기 음파 측위 존으로 벗어난 시점부터 상기 미리 설정된 시간 동안에 상기 GPS를 이용하여 산출된 제1 위치 값과 상기 음파 신호들을 이용하여 산출된 제2 위치 값을 모두 고려하여 상기 장치의 위치를 결정할 수 있다
또는, 상기 장치는 상기 음파 측위 존으로 벗어난 시점부터 상기 미리 설정된 시간 동안에 상기 GPS를 이용하여 산출된 제1 위치 값과 제3 위치 값을 모두 고려하여 상기 장치의 위치를 결정할 수 있다. 여기서, 상기 제3 위치 값은 상기 음파 측위 존을 벗어나기 직전에 측정/산출된 위치 값에 상기 장치가 상기 음파 측위 존을 벗어난 후에 측정된 위치 변화량이 부가/적용된 위치 값일 수 있다. 상기 음파 측위 존을 벗어나기 직전에 측정/산출된 위치 값은 상기 음파 센서의 사용이 제한되지 않은 경우에 상기 음파 신호들을 이용하여 측정된 음파 위치 값이고, 상기 음파 센서의 사용이 제한된 경우에는 상기 음파 센서의 사용이 제한되기 직전에 상기 음파 신호들을 이용하여 산출된 위치 값에 상기 관성 항법에 따른 위치 변화량이 적용/부가된 추정 위치 값일 수 있다. 예컨대, 상기 장치는 상기 제1 위치 값에 제1 가중치를 부가하고, 상기 제3 위치 값에 제3 가중치를 부가하며 (제1 가중치 및 상기 제3 가중치의 합은 1 이하인), 상기 제1 가중치가 부가된 제1 위치 값과 상기 제3 가중치가 부가된 제3 위치 값을 합한 값의 평균을 상기 장치의 위치로 결정할 수 있다 (수학식 2 참조).
또는, 상기 장치는 상기 음파 측위 존의 진입 또는 상기 음파 측위 존을 벗어난 경우에 상기 장치의 위치 측정 방식의 변화에 대한 정보를 포함하는 메시지를 전송할 수 있다. 예컨대, 상기 장치가 주기적으로 자신의 위치 정보를 포함하는 메시지를 전송하는 경우, 상기 장치는 변경된 위치 측정 방식에 의해 측정된 상기 위치 정보가 포함된 메시지임을 지시하는 정보를 상기 메시지에 포함시킬 수 있다.
또는, 상기 장치는 상기 음파 측위 존에 위치하지 않으나 상기 음파 측정과 관련된 어플리케이션이 백그라운드 상태가 될 경우에 상기 음파 센서의 활성화 유지 여부를 상기 장치의 위치에 기반하여 결정할 수 있다. 도 18을 참조하여 설명한 바와 같이, 상기 장치가 제1 존에 위치한 경우에는 상기 장치의 이동 상태와 무관하게 상기 음파 측정과 관련된 어플리케이션이 백그라운드 상태가 되더라도 상기 어플리케이션에 대한 음파 센서의 활성화를 유지시킬 수 있다. 상기 장치가 제2 존에 위치하는 경우, 상기 장치는 상기 음파 측정과 관련된 어플리케이션이 백그라운드 상태로 돌입할 때 상기 장치가 상기 음파 측위 존을 향해 이동하는 이동 상태인 경우에 상기 음파 센서의 활성화를 유지하고, 상기 장치가 상기 음파 측위 존을 향해 이동하지 않은 경우에는 상기 음파 센서의 활성화를 유지시키지 않을 수 있다.
이와 같이, 상기 장치는 상기 음파 신호들을 이용한 위치 측정 중에 상기 음파 센서에 대한 사용이 제한되더라도 상기 관성 항법에 기반하여 지속적으로 위치 추정을 수행함으로써 특정 상황에서의 상기 음파 신호들에 기반한 위치 측정 방식의 열화를 최소화할 수 있다. 아울러, 상기 장치는 상술한 제1 존 내지 제3 존들의 설정을 통해 상기 음파 신호들에 기반한 위치 측정 방식의 사용 가능성이 높을 경우를 명확히 결정할 수 있다. 이 경우, 상기 장치는 상기 음파 신호들에 기반한 위치 측정 방식의 사용 가능성이 높을 경우에만 백그라운드 상태인 어플리케이션 (음파 측위를 위한)의 상기 음파 센서의 활성화를 유지시켜 상기 장치의 불필요한 전력 소모를 최소화할 수 있다.
도 21은 네트워크가 음파 신호들에 기반하여 측정된 장치의 위치 정보를 수신하는 방법을 설명하기 위한 도면이다.
도 21을 참조하면, 상기 네트워크는 음파 신호에 기반한 위치 측정과 관련된 음파 측위 존 (또는, 음파 측정 영역)에 대한 정보를 포함하는 설정 정보를 전송할 수 있다 (S2111). 상기 설정 정보는 상기 음파 측위 존의 네 꼭지점의 위치들을 포함할 수 있고, 상기 네 꼭지점들 각각의 위치는 상술한 바와 같이 RSU의 절대 위치일 수 있다. 또는, 상기 설정 정보는 상기 음파 측위 존에 대한 위치 정보뿐만 아니라 도 18에 설명한 바와 같이 인접한 존들에 대한 정보 (중심점, 반지름) 및/또는 미리 설정된 시간에 대한 정보를 더 포함할 수 있다.
상기 네트워크는 상기 장치로부터 음파 측위 방식에 의해 측정된 상기 장치의 위치에 대한 정보를 포함하는 메시지를 수신 받을 수 있다 (S213). 도 20에서 설명한 바와 같이, 상기 장치의 위치는 상기 음파 측위 존에 진입한 것에 기초하여 음파 센서를 통해 수신된 음파 신호들을 이용하여 측정된 위치일 수 있다. 또한, 상기 장치에서 상기 음파 센서의 사용이 제한될 경우, 상기 장치의 위치는 상기 음파 세선의 사용 제한 직전에 상기 음파 신호들을 이용하여 측정/산출된 위치 값에 관성 센서 및 GPS (Global Positioning System) 중 적어도 하나를 이용하여 획득된 위치 변화량이 적용된 위치일 수 있다.
또는, 상기 네트워크는 상기 장치의 메시지에 위치 측정 방식의 변경과 관련된 지시자가 포함된 경우에 상기 장치의 위치가 급격히 변화되었더라도 상기 장치에 대한 위급 상황/비상 상황이 발생하지 않았다고 판단할 수 있다.
발명이 적용되는 통신 시스템 예
이로 제한되는 것은 아니지만, 본 문서에 개시된 본 발명의 다양한 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 기기들간에 무선 통신/연결(예, 5G)을 필요로 하는 다양한 분야에 적용될 수 있다.
이하, 도면을 참조하여 보다 구체적으로 예시한다. 이하의 도면/설명에서 동일한 도면 부호는 다르게 기술하지 않는 한, 동일하거나 대응되는 하드웨어 블록, 소프트웨어 블록 또는 기능 블록을 예시할 수 있다.
도 22는 본 발명에 적용되는 통신 시스템을 예시한다.
도 22를 참조하면, 본 발명에 적용되는 통신 시스템(1)은 무선 기기, 기지국 및 네트워크를 포함한다. 여기서, 무선 기기는 무선 접속 기술(예, 5G NR(New RAT), LTE(Long Term Evolution))을 이용하여 통신을 수행하는 기기를 의미하며, 통신/무선/5G 기기로 지칭될 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(100a), 차량(100b-1, 100b-2), XR(eXtended Reality) 기기(100c), 휴대 기기(Hand-held device)(100d), 가전(100e), IoT(Internet of Thing) 기기(100f), AI기기/서버(400)를 포함할 수 있다. 예를 들어, 차량은 무선 통신 기능이 구비된 차량, 자율 주행 차량, 차량간 통신을 수행할 수 있는 차량 등을 포함할 수 있다. 여기서, 차량은 UAV(Unmanned Aerial Vehicle)(예, 드론)를 포함할 수 있다. XR 기기는 AR(Augmented Reality)/VR(Virtual Reality)/MR(Mixed Reality) 기기를 포함하며, HMD(Head-Mounted Device), 차량에 구비된 HUD(Head-Up Display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등의 형태로 구현될 수 있다. 휴대 기기는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 컴퓨터(예, 노트북 등) 등을 포함할 수 있다. 가전은 TV, 냉장고, 세탁기 등을 포함할 수 있다. IoT 기기는 센서, 스마트미터 등을 포함할 수 있다. 예를 들어, 기지국, 네트워크는 무선 기기로도 구현될 수 있으며, 특정 무선 기기(200a)는 다른 무선 기기에게 기지국/네트워크 노드로 동작할 수도 있다.
무선 기기(100a~100f)는 기지국(200)을 통해 네트워크(300)와 연결될 수 있다. 무선 기기(100a~100f)에는 AI(Artificial Intelligence) 기술이 적용될 수 있으며, 무선 기기(100a~100f)는 네트워크(300)를 통해 AI 서버(400)와 연결될 수 있다. 네트워크(300)는 3G 네트워크, 4G(예, LTE) 네트워크 또는 5G(예, NR) 네트워크 등을 이용하여 구성될 수 있다. 무선 기기(100a~100f)는 기지국(200)/네트워크(300)를 통해 서로 통신할 수도 있지만, 기지국/네트워크를 통하지 않고 직접 통신(e.g. 사이드링크 통신(sidelink communication))할 수도 있다. 예를 들어, 차량들(100b-1, 100b-2)은 직접 통신(e.g. V2V(Vehicle to Vehicle)/V2X(Vehicle to everything) communication)을 할 수 있다. 또한, IoT 기기(예, 센서)는 다른 IoT 기기(예, 센서) 또는 다른 무선 기기(100a~100f)와 직접 통신을 할 수 있다.
무선 기기(100a~100f)/기지국(200), 기지국(200)/기지국(200) 간에는 무선 통신/연결(150a, 150b, 150c)이 이뤄질 수 있다. 여기서, 무선 통신/연결은 상향/하향링크 통신(150a)과 사이드링크 통신(150b)(또는, D2D 통신), 기지국간 통신(150c)(e.g. relay, IAB(Integrated Access Backhaul)과 같은 다양한 무선 접속 기술(예, 5G NR)을 통해 이뤄질 수 있다. 무선 통신/연결(150a, 150b, 150c)을 통해 무선 기기와 기지국/무선 기기, 기지국과 기지국은 서로 무선 신호를 송신/수신할 수 있다. 예를 들어, 무선 통신/연결(150a, 150b, 150c)은 다양한 물리 채널을 통해 신호를 송신/수신할 수 있다. 이를 위해, 본 발명의 다양한 제안들에 기반하여, 무선 신호의 송신/수신을 위한 다양한 구성정보 설정 과정, 다양한 신호 처리 과정(예, 채널 인코딩/디코딩, 변조/복조, 자원 매핑/디매핑 등), 자원 할당 과정 등 중 적어도 일부가 수행될 수 있다.
본 발명이 적용되는 무선 기기 예
도 23은 본 발명에 적용될 수 있는 무선 기기를 예시한다.
도 23을 참조하면, 제1 무선 기기(100)와 제2 무선 기기(200)는 다양한 무선 접속 기술(예, LTE, NR)을 통해 무선 신호를 송수신할 수 있다. 여기서, {제1 무선 기기(100), 제2 무선 기기(200)}은 도 22의 {무선 기기(100x), 기지국(200)} 및/또는 {무선 기기(100x), 무선 기기(100x)}에 대응할 수 있다.
제1 무선 기기(100)는 하나 이상의 프로세서(102) 및 하나 이상의 메모리(104)를 포함하며, 추가적으로 하나 이상의 송수신기(106) 및/또는 하나 이상의 안테나(108)을 더 포함할 수 있다. 프로세서(102)는 메모리(104) 및/또는 송수신기(106)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(102)는 메모리(104) 내의 정보를 처리하여 제1 정보/신호를 생성한 뒤, 송수신기(106)을 통해 제1 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(102)는 송수신기(106)를 통해 제2 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제2 정보/신호의 신호 처리로부터 얻은 정보를 메모리(104)에 저장할 수 있다. 메모리(104)는 프로세서(102)와 연결될 수 있고, 프로세서(102)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(104)는 프로세서(102)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(102)와 메모리(104)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩셋의 일부일 수 있다. 송수신기(106)는 프로세서(102)와 연결될 수 있고, 하나 이상의 안테나(108)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(106)는 송신기 및/또는 수신기를 포함할 수 있다. 송수신기(106)는 RF(Radio Frequency) 유닛과 혼용될 수 있다. 본 발명에서 무선 기기는 통신 모뎀/회로/칩셋을 의미할 수도 있다.
구체적으로, 제1 무선 기기 또는 제1 장치 (100)는 송수신기 (106)와 연결되는 프로세서 (102)와 메모리(104)를 포함할 수 있다. 메모리(104)는 도 11 내지 도 20에서 설명된 실시예들과 관련된 동작을 수행할 수 있는 적어도 하나의 프로그램들이 포함될 수 있다.
프로세서(102)는 송수신기 (106)를 제어하여 음파 신호에 기반한 위치 측정과 관련된 음파 측정 존에 대한 정보를 포함하는 설정 정보를 수신 받고, 상기 음파 측정 존에 진입한 것에 기초하여, 음파 센서를 통해 수신된 음파 신호들을 이용하여 상기 장치의 위치를 측정할 수 있다. 여기서, 상기 음파 센서의 사용이 제한된 것에 기초하여, 상기 장치의 위치는 상기 음파 센서의 사용이 제한되기 직전에 상기 음파 신호들을 이용하여 결정된 위치 값에 관성 센서 및 GPS (Global Positioning System) 중 적어도 하나를 이용하여 획득된 위치 변화량을 적용하여 측정될 수 있다.
또는, 장치를 제어하는 프로세싱 장치는 프로세서 (102) 및 메모리(104)를 포함할 수 있다. 상기 프로세싱 장치는 상기 장치로 하여금 음파 신호에 기반한 위치 측정과 관련된 음파 측정 존에 대한 정보를 포함하는 설정 정보를 수신 받고, 상기 음파 측정 존에 진입한 것에 기초하여, 음파 센서를 통해 수신된 음파 신호들을 이용하여 상기 장치의 위치를 측정하도록 하며, 상기 음파 센서의 사용이 제한된 것에 기초하여, 상기 장치의 위치는 상기 음파 센서의 사용이 제한되기 직전에 상기 음파 신호들을 이용하여 결정된 위치 값에 관성 센서 및 GPS (Global Positioning System) 중 적어도 하나를 이용하여 획득된 위치 변화량을 적용하여 측정될 수 있다.
제2 무선 기기(200)는 하나 이상의 프로세서(202), 하나 이상의 메모리(204)를 포함하며, 추가적으로 하나 이상의 송수신기(206) 및/또는 하나 이상의 안테나(208)를 더 포함할 수 있다. 프로세서(202)는 메모리(204) 및/또는 송수신기(206)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202)는 메모리(204) 내의 정보를 처리하여 제3 정보/신호를 생성한 뒤, 송수신기(206)를 통해 제3 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202)는 송수신기(206)를 통해 제4 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제4 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204)에 저장할 수 있다. 메모리(204)는 프로세서(202)와 연결될 수 있고, 프로세서(202)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204)는 프로세서(202)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202)와 메모리(204)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206)는 프로세서(202)와 연결될 수 있고, 하나 이상의 안테나(208)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206)는 송신기 및/또는 수신기를 포함할 수 있다 송수신기(206)는 RF 유닛과 혼용될 수 있다. 본 발명에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
제2 무선 기기(200) 또는 네트워크는 상기 장치의 위치에 대한 정보를 수신하는 수 있다. 프로세서(202)는 송수신기(206)를 제어하여 음파 신호에 기반한 위치 측정과 관련된 음파 측정 존에 대한 정보를 포함하는 설정 정보를 전송하고, 상기 음파 측정 존에 진입한 것에 기초하여 음파 센서를 통해 수신된 음파 신호들을 이용하여 결정된 상기 장치의 위치에 대한 위치 정보를 수신할 수 있다. 여기서, 상기 수신된 위치 정보는 상기 음파 센서의 사용이 제한되기 직전에 상기 음파 신호들을 이용하여 결정된 위치 값에 관성 센서 및 GPS (Global Positioning System) 중 적어도 하나를 이용하여 획득된 위치 변화량이 적용된 상기 장치의 위치를 포함할 수 있다.
이하, 무선 기기(100, 200)의 하드웨어 요소에 대해 보다 구체적으로 설명한다. 이로 제한되는 것은 아니지만, 하나 이상의 프로토콜 계층이 하나 이상의 프로세서(102, 202)에 의해 구현될 수 있다. 예를 들어, 하나 이상의 프로세서(102, 202)는 하나 이상의 계층(예, PHY, MAC, RLC, PDCP, RRC, SDAP와 같은 기능적 계층)을 구현할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 하나 이상의 PDU(Protocol Data Unit) 및/또는 하나 이상의 SDU(Service Data Unit)를 생성할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 메시지, 제어정보, 데이터 또는 정보를 생성할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 포함하는 신호(예, 베이스밴드 신호)를 생성하여, 하나 이상의 송수신기(106, 206)에게 제공할 수 있다. 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)로부터 신호(예, 베이스밴드 신호)를 수신할 수 있고, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 획득할 수 있다.
하나 이상의 프로세서(102, 202)는 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 마이크로 컴퓨터로 지칭될 수 있다. 하나 이상의 프로세서(102, 202)는 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합에 의해 구현될 수 있다. 일 예로, 하나 이상의 ASIC(Application Specific Integrated Circuit), 하나 이상의 DSP(Digital Signal Processor), 하나 이상의 DSPD(Digital Signal Processing Device), 하나 이상의 PLD(Programmable Logic Device) 또는 하나 이상의 FPGA(Field Programmable Gate Arrays)가 하나 이상의 프로세서(102, 202)에 포함될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있고, 펌웨어 또는 소프트웨어는 모듈, 절차, 기능 등을 포함하도록 구현될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 수행하도록 설정된 펌웨어 또는 소프트웨어는 하나 이상의 프로세서(102, 202)에 포함되거나, 하나 이상의 메모리(104, 204)에 저장되어 하나 이상의 프로세서(102, 202)에 의해 구동될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 코드, 명령어 및/또는 명령어의 집합 형태로 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있다.
하나 이상의 메모리(104, 204)는 하나 이상의 프로세서(102, 202)와 연결될 수 있고, 다양한 형태의 데이터, 신호, 메시지, 정보, 프로그램, 코드, 지시 및/또는 명령을 저장할 수 있다. 하나 이상의 메모리(104, 204)는 ROM, RAM, EPROM, 플래시 메모리, 하드 드라이브, 레지스터, 캐쉬 메모리, 컴퓨터 판독 저장 매체 및/또는 이들의 조합으로 구성될 수 있다. 하나 이상의 메모리(104, 204)는 하나 이상의 프로세서(102, 202)의 내부 및/또는 외부에 위치할 수 있다. 또한, 하나 이상의 메모리(104, 204)는 유선 또는 무선 연결과 같은 다양한 기술을 통해 하나 이상의 프로세서(102, 202)와 연결될 수 있다.
하나 이상의 송수신기(106, 206)는 하나 이상의 다른 장치에게 본 문서의 방법들 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 전송할 수 있다. 하나 이상의 송수신기(106, 206)는 하나 이상의 다른 장치로부터 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 수신할 수 있다. 예를 들어, 하나 이상의 송수신기(106, 206)는 하나 이상의 프로세서(102, 202)와 연결될 수 있고, 무선 신호를 송수신할 수 있다. 예를 들어, 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)가 하나 이상의 다른 장치에게 사용자 데이터, 제어 정보 또는 무선 신호를 전송하도록 제어할 수 있다. 또한, 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)가 하나 이상의 다른 장치로부터 사용자 데이터, 제어 정보 또는 무선 신호를 수신하도록 제어할 수 있다. 또한, 하나 이상의 송수신기(106, 206)는 하나 이상의 안테나(108, 208)와 연결될 수 있고, 하나 이상의 송수신기(106, 206)는 하나 이상의 안테나(108, 208)를 통해 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 송수신하도록 설정될 수 있다. 본 문서에서, 하나 이상의 안테나는 복수의 물리 안테나이거나, 복수의 논리 안테나(예, 안테나 포트)일 수 있다. 하나 이상의 송수신기(106, 206)는 수신된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 하나 이상의 프로세서(102, 202)를 이용하여 처리하기 위해, 수신된 무선 신호/채널 등을 RF 밴드 신호에서 베이스밴드 신호로 변환(Convert)할 수 있다. 하나 이상의 송수신기(106, 206)는 하나 이상의 프로세서(102, 202)를 이용하여 처리된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 베이스밴드 신호에서 RF 밴드 신호로 변환할 수 있다. 이를 위하여, 하나 이상의 송수신기(106, 206)는 (아날로그) 오실레이터 및/또는 필터를 포함할 수 있다.
본 발명이 적용되는 무선 기기 활용 예
도 24은 본 발명에 적용되는 무선 기기의 다른 예를 나타낸다. 무선 기기는 사용-예/서비스에 따라 다양한 형태로 구현될 수 있다 (도 22 참조).
도 24을 참조하면, 무선 기기(100, 200)는 도 23의 무선 기기(100,200)에 대응하며, 다양한 요소(element), 성분(component), 유닛/부(unit), 및/또는 모듈(module)로 구성될 수 있다. 예를 들어, 무선 기기(100, 200)는 통신부(110), 제어부(120), 메모리부(130) 및 추가 요소(140)를 포함할 수 있다. 통신부는 통신 회로(112) 및 송수신기(들)(114)을 포함할 수 있다. 예를 들어, 통신 회로(112)는 도 24의 하나 이상의 프로세서(102,202) 및/또는 하나 이상의 메모리(104,204)를 포함할 수 있다. 예를 들어, 송수신기(들)(114)는 도 23의 하나 이상의 송수신기(106,206) 및/또는 하나 이상의 안테나(108,208)을 포함할 수 있다. 제어부(120)는 통신부(110), 메모리부(130) 및 추가 요소(140)와 전기적으로 연결되며 무선 기기의 제반 동작을 제어한다. 예를 들어, 제어부(120)는 메모리부(130)에 저장된 프로그램/코드/명령/정보에 기반하여 무선 기기의 전기적/기계적 동작을 제어할 수 있다. 또한, 제어부(120)는 메모리부(130)에 저장된 정보를 통신부(110)을 통해 외부(예, 다른 통신 기기)로 무선/유선 인터페이스를 통해 전송하거나, 통신부(110)를 통해 외부(예, 다른 통신 기기)로부터 무선/유선 인터페이스를 통해 수신된 정보를 메모리부(130)에 저장할 수 있다.
추가 요소(140)는 무선 기기의 종류에 따라 다양하게 구성될 수 있다. 예를 들어, 추가 요소(140)는 파워 유닛/배터리, 입출력부(I/O unit), 구동부 및 컴퓨팅부 중 적어도 하나를 포함할 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(도 22, 100a), 차량(도 22, 100b-1, 100b-2), XR 기기(도 22, 100c), 휴대 기기(도 22, 100d), 가전(도 22, 100e), IoT 기기(도 22, 100f), 디지털 방송용 단말, 홀로그램 장치, 공공 안전 장치, MTC 장치, 의료 장치, 핀테크 장치(또는 금융 장치), 보안 장치, 기후/환경 장치, AI 서버/기기(도 22, 400), 기지국(도 22, 200), 네트워크 노드 등의 형태로 구현될 수 있다. 무선 기기는 사용-예/서비스에 따라 이동 가능하거나 고정된 장소에서 사용될 수 있다.
도 24에서 무선 기기(100, 200) 내의 다양한 요소, 성분, 유닛/부, 및/또는 모듈은 전체가 유선 인터페이스를 통해 상호 연결되거나, 적어도 일부가 통신부(110)를 통해 무선으로 연결될 수 있다. 예를 들어, 무선 기기(100, 200) 내에서 제어부(120)와 통신부(110)는 유선으로 연결되며, 제어부(120)와 제1 유닛(예, 130, 140)은 통신부(110)를 통해 무선으로 연결될 수 있다. 또한, 무선 기기(100, 200) 내의 각 요소, 성분, 유닛/부, 및/또는 모듈은 하나 이상의 요소를 더 포함할 수 있다. 예를 들어, 제어부(120)는 하나 이상의 프로세서 집합으로 구성될 수 있다. 예를 들어, 제어부(120)는 통신 제어 프로세서, 어플리케이션 프로세서(Application processor), ECU(Electronic Control Unit), 그래픽 처리 프로세서, 메모리 제어 프로세서 등의 집합으로 구성될 수 있다. 다른 예로, 메모리부(130)는 RAM(Random Access Memory), DRAM(Dynamic RAM), ROM(Read Only Memory), 플래시 메모리(flash memory), 휘발성 메모리(volatile memory), 비-휘발성 메모리(non-volatile memory) 및/또는 이들의 조합으로 구성될 수 있다.
본 발명이 적용되는 차량 또는 자율 주행 차량 예
도 25는 본 발명에 적용되는 차량 또는 자율 주행 차량을 예시한다. 차량 또는 자율 주행 차량은 이동형 로봇, 차량, 기차, 유/무인 비행체(Aerial Vehicle, AV), 선박 등으로 구현될 수 있다.
도 25를 참조하면, 차량 또는 자율 주행 차량(100)은 안테나부(108), 통신부(110), 제어부(120), 구동부(140a), 전원공급부(140b), 센서부(140c) 및 자율 주행부(140d)를 포함할 수 있다. 안테나부(108)는 통신부(110)의 일부로 구성될 수 있다. 블록 110/130/140a~140d는 각각 도 24의 블록 110/130/140에 대응한다.
통신부(110)는 다른 차량, 기지국(e.g. 기지국, 노변 기지국(Road Side unit) 등), 서버 등의 외부 기기들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(120)는 차량 또는 자율 주행 차량(100)의 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(120)는 ECU(Electronic Control Unit)를 포함할 수 있다. 구동부(140a)는 차량 또는 자율 주행 차량(100)을 지상에서 주행하게 할 수 있다. 구동부(140a)는 엔진, 모터, 파워 트레인, 바퀴, 브레이크, 조향 장치 등을 포함할 수 있다. 전원공급부(140b)는 차량 또는 자율 주행 차량(100)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다. 센서부(140c)는 차량 상태, 주변 환경 정보, 사용자 정보 등을 얻을 수 있다. 센서부(140c)는 IMU(inertial measurement unit) 센서, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 스티어링 센서, 온도 센서, 습도 센서, 초음파 센서, 조도 센서, 페달 포지션 센서 등을 포함할 수 있다. 자율 주행부(140d)는 주행중인 차선을 유지하는 기술, 어댑티브 크루즈 컨트롤과 같이 속도를 자동으로 조절하는 기술, 정해진 경로를 따라 자동으로 주행하는 기술, 목적지가 설정되면 자동으로 경로를 설정하여 주행하는 기술 등을 구현할 수 있다.
일 예로, 통신부(110)는 외부 서버로부터 지도 데이터, 교통 정보 데이터 등을 수신할 수 있다. 자율 주행부(140d)는 획득된 데이터를 기반으로 자율 주행 경로와 드라이빙 플랜을 생성할 수 있다. 제어부(120)는 드라이빙 플랜에 따라 차량 또는 자율 주행 차량(100)이 자율 주행 경로를 따라 이동하도록 구동부(140a)를 제어할 수 있다(예, 속도/방향 조절). 자율 주행 도중에 통신부(110)는 외부 서버로부터 최신 교통 정보 데이터를 비/주기적으로 획득하며, 주변 차량으로부터 주변 교통 정보 데이터를 획득할 수 있다. 또한, 자율 주행 도중에 센서부(140c)는 차량 상태, 주변 환경 정보를 획득할 수 있다. 자율 주행부(140d)는 새로 획득된 데이터/정보에 기반하여 자율 주행 경로와 드라이빙 플랜을 갱신할 수 있다. 통신부(110)는 차량 위치, 자율 주행 경로, 드라이빙 플랜 등에 관한 정보를 외부 서버로 전달할 수 있다. 외부 서버는 차량 또는 자율 주행 차량들로부터 수집된 정보에 기반하여, AI 기술 등을 이용하여 교통 정보 데이터를 미리 예측할 수 있고, 예측된 교통 정보 데이터를 차량 또는 자율 주행 차량들에게 제공할 수 있다.
여기서, 본 명세서의 무선 기기(XXX, YYY)에서 구현되는 무선 통신 기술은 LTE, NR 및 6G뿐만 아니라 저전력 통신을 위한 Narrowband Internet of Things를 포함할 수 있다. 이때, 예를 들어 NB-IoT 기술은 LPWAN(Low Power Wide Area Network) 기술의 일례일 수 있고, LTE Cat NB1 및/또는 LTE Cat NB2 등의 규격으로 구현될 수 있으며, 상술한 명칭에 한정되는 것은 아니다. 추가적으로 또는 대체적으로, 본 명세서의 무선 기기(XXX, YYY)에서 구현되는 무선 통신 기술은 LTE-M 기술을 기반으로 통신을 수행할 수 있다. 이때, 일 예로, LTE-M 기술은 LPWAN 기술의 일례일 수 있고, eMTC(enhanced Machine Type Communication) 등의 다양한 명칭으로 불릴 수 있다. 예를 들어, LTE-M 기술은 1) LTE CAT 0, 2) LTE Cat M1, 3) LTE Cat M2, 4) LTE non-BL(non-Bandwidth Limited), 5) LTE-MTC, 6) LTE Machine Type Communication, 및/또는 7) LTE M 등의 다양한 규격 중 적어도 어느 하나로 구현될 수 있으며 상술한 명칭에 한정되는 것은 아니다. 추가적으로 또는 대체적으로, 본 명세서의 무선 기기(XXX, YYY)에서 구현되는 무선 통신 기술은 저전력 통신을 고려한 지그비(ZigBee), 블루투스(Bluetooth) 및 저전력 광역 통신망(Low Power Wide Area Network, LPWAN) 중 적어도 어느 하나를 포함할 수 있으며, 상술한 명칭에 한정되는 것은 아니다. 일 예로 ZigBee 기술은 IEEE 802.15.4 등의 다양한 규격을 기반으로 소형/저-파워 디지털 통신에 관련된 PAN(personal area networks)을 생성할 수 있으며, 다양한 명칭으로 불릴 수 있다.
이상에서 설명된 실시예들은 본 발명의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시예를 구성하는 것도 가능하다. 본 발명의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.
본 문서에서 본 발명의 실시예들은 주로 단말과 기지국 간의 신호 송수신 관계를 중심으로 설명되었다. 이러한 송수신 관계는 단말과 릴레이 또는 기지국과 릴레이간의 신호 송수신에도 동일/유사하게 확장된다. 본 문서에서 기지국에 의해 수행된다고 설명된 특정 동작은 경우에 따라서는 그 상위 노드(upper node)에 의해 수행될 수 있다. 즉, 기지국을 포함하는 복수의 네트워크 노드들(network nodes)로 이루어지는 네트워크에서 단말과의 통신을 위해 수행되는 다양한 동작들은 기지국 또는 기지국 이외의 다른 네트워크 노드들에 의해 수행될 수 있음은 자명하다. 기지국은 고정국(fixed station), Node B, eNode B(eNB), 억세스 포인트(access point) 등의 용어에 의해 대체될 수 있다. 또한, 단말은 UE(User Equipment), MS(Mobile Station), MSS(Mobile Subscriber Station) 등의 용어로 대체될 수 있다.
본 발명에 따른 실시예는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시예는 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고받을 수 있다.
본 발명은 본 발명의 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
상술한 바와 같은 본 발명의 실시형태들은 다양한 이동통신 시스템에 적용될 수 있다.

Claims (16)

  1. 무선 통신 시스템에서 장치가 위치를 측정하는 방법에 있어서,
    음파 신호에 기반한 위치 측정과 관련된 음파 측위 존에 대한 정보를 포함하는 설정 정보를 수신 받는 단계; 및
    상기 음파 측위 존에 진입한 것에 기초하여, 음파 센서를 통해 수신된 음파 신호들을 이용하여 상기 장치의 위치를 측정하는 단계를 포함하고,
    상기 음파 센서의 사용이 제한된 것에 기초하여, 상기 장치의 위치는 상기 음파 센서의 사용이 제한되기 직전에 상기 음파 신호들을 이용하여 산출된 위치 값에 관성 센서 및 GPS (Global Positioning System) 중 적어도 하나를 이용하여 산출된 위치 변화량을 적용하여 측정되는, 방법.
  2. 제1항에 있어서,
    상기 음파 센서의 사용에 대한 제한이 해제되는 것에 기초하여, 상기 장치의 위치는 상기 음파 신호들을 이용하여 산출된 위치 값에만 기반하여 측정되는 것을 특징으로 하는, 방법.
  3. 제1항에 있어서,
    상기 장치의 위치는 상기 음파 측위 존에 진입한 시점으로부터 미리 설정된 시간 동안에 상기 GPS를 이용하여 산출된 제1 위치 값과 상기 음파 신호들을 이용하여 산출된 제2 위치 값 간의 가중합에 기반하여 측정되는 것을 특징으로 하는, 방법.
  4. 제1항에 있어서,
    상기 장치의 위치는 상기 음파 측위 존을 벗어난 시점으로부터 미리 설정된 시간 동안 상기 GPS를 이용하여 산출된 제1 위치 값 및 제3 위치 값의 가중합에 기반하여 측정되고,
    상기 제3 위치 값은 상기 음파 측위 존을 벗어나기 직전에 상기 음파 신호들을 이용하여 산출된 위치 값에 상기 관성 센서 및 상기 GPS 중 적어도 하나를 이용하여 산출된 위치 변화량이 부가된 위치 값인 것을 특징으로 하는, 방법.
  5. 제3항에 있어서,
    상기 장치의 위치는 상기 제1 위치 값 및 상기 제2 위치 값의 차이가 미리 설정된 임계 이상인 것에 기초하여 상기 제1 위치 값 및 상기 제2 위치 값의 가중합에 기초하여 측정되는 것을 특징으로 하는, 방법.
  6. 제1항에서 있어서,
    상기 장치의 위치에 대한 위치 정보를 포함하는 메시지를 주변 장치에 전송하는 단계;를 더 포함하는 것을 특징으로 하는, 방법.
  7. 제6항에 있어서,
    상기 음파 측위 존의 진입으로 상기 음파 신호들에 기반한 상기 장치의 위치 측정이 시작되는 것에 기초하여, 상기 메시지는 위치 측정 방식의 변경을 지시하는 지시 정보를 더 포함하는 것을 특징으로 하는, 방법.
  8. 제1항에 있어서,
    상기 음파 측위 존에 위치하지 않고, 상기 음파 센서에 기반하여 상기 장치의 위치를 측정하는 어플리케이션이 백그라운드 (background)된 것에 기초하여, 상기 음파 센서의 활성화 유지 여부를 결정하는 단계를 더 포함하는 것을 특징으로 하는, 방법.
  9. 제8항에 있어서,
    상기 음파 센서의 활성화의 유지 여부는 상기 설정 정보에 기초하여 결정된 상기 음파 측위 존과 인접하는 제1 존, 상기 제1 존과 인접하는 제2 존 및 상기 제2 존과 인접하는 제3 존 중에서 상기 장치가 위치하는 하나의 존 및 상기 장치의 상태에 기반하여 결정되는 것을 특징으로 하는, 방법.
  10. 제1항에 기재된 방법을 수행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
  11. 무선 통신 시스템에서 장치의 위치를 측정하는 장치에 있어서,
    RF(Radio Frequency) 송수신기; 및
    상기 RF 송수신기와 연결되는 프로세서를 포함하고,
    상기 프로세서는 상기 RF 송수신기를 제어하여 음파 신호에 기반한 위치 측정과 관련된 음파 측위 존에 대한 정보를 포함하는 설정 정보를 수신 받고, 상기 음파 측위 존에 진입한 것에 기초하여, 음파 센서를 통해 수신된 음파 신호들을 이용하여 상기 장치의 위치를 측정하며,
    상기 음파 센서의 사용이 제한된 것에 기초하여, 상기 장치의 위치는 상기 음파 센서의 사용이 제한되기 직전에 상기 음파 신호들을 이용하여 결정된 위치 값에 관성 센서 및 GPS (Global Positioning System) 중 적어도 하나를 이용하여 획득된 위치 변화량을 적용하여 측정되는, 장치.
  12. 무선 통신 시스템에서 장치의 위치를 측정하는 장치를 제어하는 프로세싱 장치에 있어서,
    적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서에 연결되고 명령어들을 저장하는 적어도 하나의 메모리를 포함하되, 상기 명령어들은 상기 적어도 하나의 프로세서에 의해 실행되는 것을 기반으로 상기 장치로 하여금:
    음파 신호에 기반한 위치 측정과 관련된 음파 측위 존에 대한 정보를 포함하는 설정 정보를 수신 받고, 상기 음파 측위 존에 진입한 것에 기초하여, 음파 센서를 통해 수신된 음파 신호들을 이용하여 상기 장치의 위치를 측정하도록 하며,
    상기 음파 센서의 사용이 제한된 것에 기초하여, 상기 장치의 위치는 상기 음파 센서의 사용이 제한되기 직전에 상기 음파 신호들을 이용하여 결정된 위치 값에 관성 센서 및 GPS (Global Positioning System) 중 적어도 하나를 이용하여 획득된 위치 변화량을 적용하여 측정되는, 프로세싱 장치.
  13. 무선 통신 시스템에서 네트워크가 장치의 위치에 대한 정보를 수신하는 방법에 있어서,
    음파 신호에 기반한 위치 측정과 관련된 음파 측위 존에 대한 정보를 포함하는 설정 정보를 상기 장치에게 전송하는 단계; 및
    상기 음파 측위 존에서 음파 측위 방식에 기반하여 측정된 상기 장치의 위치에 대한 위치 정보를 수신하는 단계를 포함하고,
    상기 위치 정보는 상기 음파 센서의 사용이 제한되기 직전에 상기 음파 신호들을 이용하여 측정된 위치 값에 관성 센서 및 GPS (Global Positioning System) 중 적어도 하나를 이용하여 획득된 위치 변화량이 적용된 상기 장치의 위치를 포함하는, 방법.
  14. 제13항에 기재된 방법을 수행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
  15. 무선 통신 시스템에서 장치로부터 상기 장치의 위치에 대한 정보를 수신하는 네트워크에 있어서,
    RF(Radio Frequency) 송수신기; 및
    상기 RF 송수신기와 연결되는 프로세서를 포함하고,
    상기 프로세서는 상기 RF 송수신기를 제어하여 음파 신호에 기반한 위치 측정과 관련된 음파 측위 존에 대한 정보를 포함하는 설정 정보를 전송하고, 상기 음파 측위 존에서 음파 측위 방식에 기반하여 측정된 상기 장치의 위치에 대한 위치 정보를 수신하며,
    상기 위치 정보는 상기 음파 센서의 사용이 제한되기 직전에 상기 음파 신호들을 이용하여 결정된 위치 값에 관성 센서 및 GPS (Global Positioning System) 중 적어도 하나를 이용하여 획득된 위치 변화량이 적용된 상기 장치의 위치를 포함하는, 네트워크.
  16. 무선 통신 시스템에서 장치의 위치에 대한 정보를 수신하는 네트쿼크를 제어하는 프로세싱 장치에 있어서,
    적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서에 연결되고 명령어들을 저장하는 적어도 하나의 메모리를 포함하되, 상기 명령어들은 상기 적어도 하나의 프로세서에 의해 실행되는 것을 기반으로 상기 네트워크로 하여금:
    음파 신호에 기반한 위치 측정과 관련된 음파 측위 존에 대한 정보를 포함하는 설정 정보를 전송하고, 상기 음파 측위 존에서 음파 측위 방식에 기반하여 측정된 상기 장치의 위치에 대한 위치 정보를 수신하게 하며,
    상기 위치 정보는 상기 음파 센서의 사용이 제한되기 직전에 상기 음파 신호들을 이용하여 결정된 위치 값에 관성 센서 및 GPS (Global Positioning System) 중 적어도 하나를 이용하여 획득된 위치 변화량이 적용된 상기 장치의 위치를 포함하는, 프로세싱 장치.
PCT/KR2023/018771 2022-11-21 2023-11-21 무선 통신 시스템에서 위치를 측정하는 방법 및 이를 위한 장치 WO2024112067A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220156780 2022-11-21
KR10-2022-0156780 2022-11-21

Publications (1)

Publication Number Publication Date
WO2024112067A1 true WO2024112067A1 (ko) 2024-05-30

Family

ID=91196181

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/018771 WO2024112067A1 (ko) 2022-11-21 2023-11-21 무선 통신 시스템에서 위치를 측정하는 방법 및 이를 위한 장치

Country Status (1)

Country Link
WO (1) WO2024112067A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100991477B1 (ko) * 2010-04-13 2010-11-04 밉스테크널러지(주) 무선주파수 인식 기반의 실시간 위치 추적을 이용한 건물의 공동 편의시설 제어방법 및 제어시스템
KR20130001383A (ko) * 2011-06-27 2013-01-04 (주) 세인 휴대단말장치의 위치계산방법
KR101303729B1 (ko) * 2013-03-12 2013-09-04 임동권 음파를 이용한 위치 정보 제공 시스템
KR20150100359A (ko) * 2014-02-25 2015-09-02 임동권 위치 정보 제공 장치 및 노드 네트워크
KR20170112862A (ko) * 2016-03-28 2017-10-12 한양대학교 산학협력단 Gps 및 uwb 기술을 접목하여 차량의 위치를 감지하는 측위 시스템 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100991477B1 (ko) * 2010-04-13 2010-11-04 밉스테크널러지(주) 무선주파수 인식 기반의 실시간 위치 추적을 이용한 건물의 공동 편의시설 제어방법 및 제어시스템
KR20130001383A (ko) * 2011-06-27 2013-01-04 (주) 세인 휴대단말장치의 위치계산방법
KR101303729B1 (ko) * 2013-03-12 2013-09-04 임동권 음파를 이용한 위치 정보 제공 시스템
KR20150100359A (ko) * 2014-02-25 2015-09-02 임동권 위치 정보 제공 장치 및 노드 네트워크
KR20170112862A (ko) * 2016-03-28 2017-10-12 한양대학교 산학협력단 Gps 및 uwb 기술을 접목하여 차량의 위치를 감지하는 측위 시스템 및 방법

Similar Documents

Publication Publication Date Title
WO2020251318A1 (ko) Nr v2x에서 서버 단말의 prs 전송에 기반한 사이드링크 포지셔닝
WO2020246842A1 (ko) Nr v2x에서 단일 단말의 prs 전송에 기반한 사이드링크 포지셔닝
WO2020091380A1 (ko) Nr v2x에서 위치 정보를 송수신하는 방법 및 장치
WO2021091245A1 (ko) 사이드링크를 이용한 측위 방법 및 이를 위한 장치
WO2021150089A1 (ko) 사이드링크를 지원하는 무선통신시스템에서 v2x 차량이 가상 v2x 메시지를 전송하는 방법 및 이를 위한 장치
WO2021141448A1 (ko) 사이드링크를 지원하는 무선통신시스템에서 장치가 cpm을 전송하는 방법 및 이를 위한 장치
WO2021150087A1 (ko) 사이드링크를 지원하는 무선통신시스템에서 제1 장치가 차량 주행을 제어하는 방법 및 이를 위한 장치
WO2021221404A1 (ko) 사이드링크를 지원하는 무선통신시스템에서 제1 장치가 위치를 보정하는 방법 및 이를 위한 장치
WO2021182935A1 (ko) 사이드링크를 지원하는 무선통신시스템에서 softv2x 서버가 vru의 이동 경로와 관련된 vru 경로 맵을 생성하는 방법 및 이를 위한 장치
WO2021040432A1 (ko) Nr v2x에서 동기화 기준을 선택하는 방법 및 장치
WO2023075463A1 (ko) 무선 통신 시스템에서 제1 장치가 제1 메시지를 전송하는 방법 및 이를 위한 장치
WO2022098147A1 (ko) 무선통신시스템에서 v2x 메시지에 기반하여 영상 처리하는 방법 및 이를 위한 장치
WO2024112067A1 (ko) 무선 통신 시스템에서 위치를 측정하는 방법 및 이를 위한 장치
WO2024112073A1 (ko) 무선 통신 시스템에서 위치를 측정하는 방법 및 이를 위한 장치
WO2022097869A1 (ko) 사이드링크를 지원하는 무선 통신 시스템에서 제1 장치가 v2x 차량의 주행을 제어하는 방법 및 이를 위한 장치
WO2024058631A1 (ko) 무선 통신 시스템에서 메시지를 전송하는 방법 및 이를 위한 장치
WO2023249175A1 (ko) 무선 통신 시스템에서 제1 장치가 요청 메시지를 전송하는 방법 및 이를 위한 장치
WO2024043766A1 (ko) 무선 통신 시스템에서 메시지를 전송하는 방법 및 이를 위한 장치
WO2024058635A1 (ko) 무선 통신 시스템에서 메시지를 전송하는 방법 및 이를 위한 장치
WO2022154590A1 (ko) 무선통신시스템에서 v2x 단말이 메시지를 전송하는 방법 및 이를 위한 장치
WO2023075443A1 (ko) 무선 통신 시스템에서 무선 신호 송수신 방법 및 장치
WO2023022571A1 (ko) 무선 통신 시스템에서 제1 서버가 제2 서버에게 서버 메시지를 전송하는 방법 및 이를 위한 장치
WO2024058634A1 (ko) 무선 통신 시스템에서 데이터 파일을 전송하는 방법 및 이를 위한 장치
WO2022154575A1 (ko) 무선 통신 시스템에서 무선 신호 송수신 방법 및 장치
WO2024014719A1 (ko) 무선 통신 시스템에서 신호를 송수신 하는 방법 및 이를 위한 장치