WO2021221481A1 - 무선통신시스템에서 vru 위치에 관련된 rsu의 동작 방법 - Google Patents

무선통신시스템에서 vru 위치에 관련된 rsu의 동작 방법 Download PDF

Info

Publication number
WO2021221481A1
WO2021221481A1 PCT/KR2021/005463 KR2021005463W WO2021221481A1 WO 2021221481 A1 WO2021221481 A1 WO 2021221481A1 KR 2021005463 W KR2021005463 W KR 2021005463W WO 2021221481 A1 WO2021221481 A1 WO 2021221481A1
Authority
WO
WIPO (PCT)
Prior art keywords
vru
location information
information
rsu
message
Prior art date
Application number
PCT/KR2021/005463
Other languages
English (en)
French (fr)
Inventor
김명섭
김학성
서한별
송종훈
황재호
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020227039901A priority Critical patent/KR20230002757A/ko
Priority to JP2022565832A priority patent/JP7419564B2/ja
Priority to US17/997,523 priority patent/US20230176212A1/en
Publication of WO2021221481A1 publication Critical patent/WO2021221481A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/485Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/40Correcting position, velocity or attitude
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/027Services making use of location information using location based information parameters using movement velocity, acceleration information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/90Services for handling of emergency or hazardous situations, e.g. earthquake and tsunami warning systems [ETWS]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/396Determining accuracy or reliability of position or pseudorange measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/0009Transmission of position information to remote stations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/03Protecting confidentiality, e.g. by encryption

Definitions

  • the following description relates to a wireless communication system, and more particularly, to a method of operating a Road Side Unit (RSU) related to a Vulnerable Road User (VRU) location.
  • RSU Road Side Unit
  • VRU Vulnerable Road User
  • a wireless communication system is a multiple access system that can support communication with multiple users by sharing available system resources (bandwidth, transmission power, etc.).
  • Examples of the multiple access system include a code division multiple access (CDMA) system, a frequency division multiple access (FDMA) system, a time division multiple access (TDMA) system, an orthogonal frequency division multiple access (OFDMA) system, and a single carrier frequency (SC-FDMA) system.
  • CDMA code division multiple access
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • OFDMA orthogonal frequency division multiple access
  • SC-FDMA single carrier frequency
  • 5G Radio Access Technology
  • various RAT Radio Access Technology
  • LTE, LTE-A, and WiFi are used
  • 5G is also included in this.
  • the three main requirements areas for 5G are (1) Enhanced Mobile Broadband (eMBB) area, (2) Massive Machine Type Communication (mMTC) area and (3) Ultra-reliable and It includes an Ultra-reliable and Low Latency Communications (URLLC) area.
  • eMBB Enhanced Mobile Broadband
  • mMTC Massive Machine Type Communication
  • URLLC Ultra-reliable and Low Latency Communications
  • KPI key performance indicator
  • 5G is to support these various use cases in a flexible and reliable way.
  • eMBB goes far beyond basic mobile internet access, covering rich interactive work, media and entertainment applications in the cloud or augmented reality.
  • Data is one of the key drivers of 5G, and for the first time in the 5G era, we may not see dedicated voice services.
  • voice is simply expected to be processed as an application using the data connection provided by the communication system.
  • the main causes for increased traffic volume are an increase in content size and an increase in the number of applications requiring high data rates.
  • Streaming services audio and video
  • interactive video and mobile Internet connections will become more widely used as more devices are connected to the Internet. Many of these applications require always-on connectivity to push real-time information and notifications to users.
  • Cloud storage and applications are rapidly increasing in mobile communication platforms, which can be applied to both work and entertainment.
  • cloud storage is a special use case that drives the growth of uplink data rates.
  • 5G is also used for remote work in the cloud, requiring much lower end-to-end latency to maintain a good user experience when tactile interfaces are used.
  • Entertainment For example, cloud gaming and video streaming are other key factors that increase the demand for mobile broadband capabilities. Entertainment is essential on smartphones and tablets anywhere, including in high-mobility environments such as trains, cars and airplanes.
  • Another use example is augmented reality for entertainment and information retrieval.
  • augmented reality requires very low latency and instantaneous amount of data.
  • URLLC includes new services that will transform the industry through ultra-reliable/available low-latency links such as self-driving vehicles and remote control of critical infrastructure. This level of reliability and latency is essential for smart grid control, industrial automation, robotics, and drone control and coordination.
  • 5G could complement fiber-to-the-home (FTTH) and cable-based broadband (or DOCSIS) as a means of delivering streams rated at hundreds of megabits per second to gigabits per second. This high speed is required to deliver TVs in resolutions of 4K and higher (6K, 8K and higher), as well as virtual and augmented reality.
  • Virtual Reality (VR) and Augmented Reality (AR) applications almost include immersive sporting events. Certain applications may require special network settings. For VR games, for example, game companies may need to integrate core servers with network operators' edge network servers to minimize latency.
  • Automotive is expected to be an important new driving force for 5G, with many use cases for mobile communication to vehicles. For example, entertainment for passengers requires simultaneous high capacity and high mobility mobile broadband. The reason is that future users will continue to expect high-quality connections regardless of their location and speed.
  • Another use case in the automotive sector is augmented reality dashboards. It identifies objects in the dark and overlays information that tells the driver about the distance and movement of the object over what the driver is seeing through the front window.
  • wireless modules will enable communication between vehicles, information exchange between vehicles and supporting infrastructure, and information exchange between automobiles and other connected devices (eg, devices carried by pedestrians).
  • Safety systems can help drivers reduce the risk of accidents by guiding alternative courses of action to help them drive safer.
  • the next step will be remote-controlled or self-driven vehicles.
  • Smart cities and smart homes referred to as smart societies, will be embedded with high-density wireless sensor networks.
  • a distributed network of intelligent sensors will identify conditions for cost and energy-efficient maintenance of a city or house.
  • a similar setup can be performed for each household.
  • Temperature sensors, window and heating controllers, burglar alarms and appliances are all connected wirelessly. Many of these sensors are typically low data rates, low power and low cost. However, for example, real-time HD video may be required in certain types of devices for surveillance.
  • Smart grids use digital information and communication technologies to interconnect these sensors to collect information and act on it. This information can include supplier and consumer behavior, enabling smart grids to improve efficiency, reliability, economy, sustainability of production and distribution of fuels such as electricity in an automated manner.
  • the smart grid can also be viewed as another low-latency sensor network.
  • the health sector has many applications that can benefit from mobile communications.
  • the communication system may support telemedicine providing clinical care from a remote location. This can help reduce barriers to distance and improve access to consistently unavailable health care services in remote rural areas. It is also used to save lives in critical care and emergency situations.
  • a wireless sensor network based on mobile communication may provide remote monitoring and sensors for parameters such as heart rate and blood pressure.
  • Wireless and mobile communications are becoming increasingly important in industrial applications. Wiring is expensive to install and maintain. Thus, the possibility of replacing cables with reconfigurable wireless links is an attractive opportunity for many industries. However, achieving this requires that the wireless connection operate with cable-like delay, reliability and capacity, and that its management be simplified. Low latency and very low error probability are new requirements that need to be connected with 5G.
  • Logistics and freight tracking are important use cases for mobile communications that use location-based information systems to enable tracking of inventory and packages from anywhere.
  • Logistics and freight tracking use cases typically require low data rates but require wide range and reliable location information.
  • the wireless communication system is a multiple access system that supports communication with multiple users by sharing available system resources (eg, bandwidth, transmission power, etc.).
  • Examples of the multiple access system include a code division multiple access (CDMA) system, a frequency division multiple access (FDMA) system, a time division multiple access (TDMA) system, an orthogonal frequency division multiple access (OFDMA) system, and a single carrier frequency (SC-FDMA) system.
  • CDMA code division multiple access
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • OFDMA orthogonal frequency division multiple access
  • SC-FDMA single carrier frequency
  • a sidelink refers to a communication method in which a direct link is established between user equipment (UE), and voice or data is directly exchanged between terminals without going through a base station (BS).
  • SL is being considered as one way to solve the burden of the base station due to the rapidly increasing data traffic.
  • V2X vehicle-to-everything refers to a communication technology that exchanges information with other vehicles, pedestrians, and infrastructure-built objects through wired/wireless communication.
  • V2X can be divided into four types: vehicle-to-vehicle (V2V), vehicle-to-infrastructure (V2I), vehicle-to-network (V2N), and vehicle-to-pedestrian (V2P).
  • V2X communication may be provided through a PC5 interface and/or a Uu interface.
  • next-generation radio access technology in consideration of the like may be referred to as a new radio access technology (RAT) or a new radio (NR).
  • RAT new radio access technology
  • NR new radio
  • V2X vehicle-to-everything
  • FIG. 1 is a diagram for explaining a comparison of V2X communication based on RAT before NR and V2X communication based on NR.
  • V2X message may include location information, dynamic information, attribute information, and the like.
  • the UE may transmit a periodic message type CAM and/or an event triggered message type DENM to another UE.
  • the CAM may include basic vehicle information such as dynamic state information of the vehicle such as direction and speed, vehicle static data such as dimensions, external lighting conditions, and route details.
  • the UE may broadcast the CAM, and the CAM latency may be less than 100 ms.
  • the terminal may generate a DENM and transmit it to another terminal.
  • all vehicles within the transmission range of the terminal may receive the CAM and/or DENM.
  • the DENM may have a higher priority than the CAM.
  • V2X scenarios are being presented in NR.
  • various V2X scenarios may include vehicle platooning, advanced driving, extended sensors, remote driving, and the like.
  • vehicles can be dynamically grouped and moved together.
  • vehicles belonging to the group may receive periodic data from a leading vehicle.
  • the vehicles belonging to the group may use periodic data to reduce or widen the distance between the vehicles.
  • the vehicle can be semi-automated or fully automated.
  • each vehicle may adjust trajectories or maneuvers based on data obtained from local sensors of the proximate vehicle and/or proximate logical entity.
  • each vehicle may share driving intention with adjacent vehicles.
  • raw data or processed data obtained through local sensors, or live video data may include a vehicle, a logical entity, a terminal of a pedestrian and / or can be interchanged between V2X application servers.
  • the vehicle may recognize an environment that is improved over an environment that can be detected using its own sensor.
  • a remote driver or V2X application may operate or control the remote vehicle.
  • a route can be predicted such as in public transportation
  • cloud computing-based driving may be used to operate or control the remote vehicle.
  • access to a cloud-based back-end service platform may be considered for remote driving.
  • the embodiment(s) is a method of operation of a Road Side Unit (RSU) on how to measure/determine/correct a Vulnerable Road User (VRU) location.
  • RSU Road Side Unit
  • VRU Vulnerable Road User
  • the RSU receives a Personal Safety Messages (PSM) message of the VRU; determining, by the RSU, the location information of the VRU based on the first location information of the VRU obtained through the image information and the second location information of the VRU obtained through the PSM message; and the RSU transmits the location information of the VRU to the VRU.
  • PSM Personal Safety Messages
  • a Road Side Unit for performing a VRU (Vulnerable Road User) related operation, at least one processor; and at least one computer memory operably coupled to the at least one processor and storing instructions that, when executed, cause the at least one processor to perform operations, the operations comprising: receiving a PSM message from a VRU; ; determining the location information of the VRU based on the first location information of the VRU obtained through image information and the second location information of the VRU obtained through the PSM message; and an RSU that transmits the location information of the VRU to the VRU.
  • RSU Road Side Unit
  • An embodiment provides a processor for performing operations for a Road Side Unit (RSU) in a wireless communication system, the operations comprising: receiving a PSM message of a VRU; determining the location information of the VRU based on the first location information of the VRU obtained through image information and the second location information of the VRU obtained through the PSM message; and transmitting the location information of the VRU to the VRU.
  • RSU Road Side Unit
  • One embodiment provides non-volatile computer readable storage storing at least one computer program comprising instructions that, when executed by at least one processor, cause the at least one processor to perform operations for a Road Side Unit (RSU). 17.
  • a medium comprising: receiving a PSM message at a VRU; determining the location information of the VRU based on the first location information of the VRU obtained through image information and the second location information of the VRU obtained through the PSM message; and transmitting location information of the VRU to the VRU.
  • the VRU transmits a PSM message to the RSU; and the VRU receives the location information of the VRU from the RSU, wherein the location information of the VRU includes the first location information of the VRU obtained by the RSU through image information and the VRU obtained through the PSM message. is determined based on the second location information of
  • a VRU Vehicleable Road User
  • RSU Raad Side Unit
  • at least one processor At least one processor
  • at least one computer memory operably coupled to the at least one processor, the at least one computer memory storing instructions that, when executed, cause the at least one processor to perform operations that cause the VRU to: Send PSM messages to; and the VRU receives the location information of the VRU from the RSU, wherein the location information of the VRU includes first location information of the VRU obtained by the RSU through image information and the VRU obtained through the PSM message. is determined based on the second location information of the VRU.
  • a weight may be applied to the first location information and the second location information.
  • the image information is captured by the RSU in the observation area and may be shared with other RSUs.
  • the location information of the VRU may be shared with the other RSUs.
  • the location information of the VRU may include weight information of the first location information with respect to the second location information used for location determination.
  • the PSM message may include location information obtained by the VRU through a Global Navigation Satellite System (GNSS).
  • GNSS Global Navigation Satellite System
  • the PSM message may include location information obtained by the VRU through another RSU, another VRU, or a base station.
  • the location information of the VRU may be determined as a value having a smaller error range among the first location information and the second location information.
  • the location information of the VRU may be determined based on an error range obtained by averaging the error range of the first location information and the error range of the second location information.
  • the location information of the VRU may be included in an intersection of an area corresponding to the error range of the first location information and an area corresponding to the error range of the second location information.
  • the location of the VRU may be more accurately measured/corrected using the image of the RSU.
  • FIG. 1 is a diagram for explaining a comparison of V2X communication based on RAT before NR and V2X communication based on NR.
  • FIG 2 shows the structure of an LTE system according to an embodiment of the present disclosure.
  • FIG 3 illustrates a radio protocol architecture for a user plane and a control plane according to an embodiment of the present disclosure.
  • FIG. 4 shows a structure of an NR system according to an embodiment of the present disclosure.
  • 5 illustrates functional division between NG-RAN and 5GC according to an embodiment of the present disclosure.
  • FIG. 6 shows the structure of a radio frame of NR to which embodiment(s) can be applied.
  • FIG. 7 illustrates a slot structure of an NR frame according to an embodiment of the present disclosure.
  • FIG. 8 illustrates a radio protocol architecture for SL communication according to an embodiment of the present disclosure.
  • FIG 9 illustrates a radio protocol architecture for SL communication according to an embodiment of the present disclosure.
  • FIG. 10 illustrates a procedure for a terminal to perform V2X or SL communication according to a transmission mode, according to an embodiment of the present disclosure.
  • 11 to 23 are diagrams for explaining the embodiment(s).
  • 24 to 30 are diagrams for explaining various devices to which embodiment(s) can be applied.
  • “/” and “,” should be interpreted as indicating “and/or”.
  • “A/B” may mean “A and/or B”.
  • “A, B” may mean “A and/or B”.
  • “A/B/C” may mean “at least one of A, B, and/or C”.
  • “A, B, and C” may mean “at least one of A, B and/or C”.
  • “or” should be construed as indicating “and/or”.
  • “A or B” may include “only A”, “only B”, and/or “both A and B”.
  • “or” should be construed as indicating “additionally or alternatively”.
  • CDMA code division multiple access
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • OFDMA orthogonal frequency division multiple access
  • SC-FDMA single carrier frequency division multiple access
  • CDMA may be implemented with a radio technology such as universal terrestrial radio access (UTRA) or CDMA2000.
  • TDMA may be implemented with a radio technology such as global system for mobile communications (GSM)/general packet radio service (GPRS)/enhanced data rates for GSM evolution (EDGE).
  • GSM global system for mobile communications
  • GPRS general packet radio service
  • EDGE enhanced data rates for GSM evolution
  • OFDMA may be implemented with a wireless technology such as Institute of Electrical and Electronics Engineers (IEEE) 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802-20, and evolved UTRA (E-UTRA).
  • IEEE 802.16m is an evolution of IEEE 802.16e, and provides backward compatibility with a system based on IEEE 802.16e.
  • UTRA is part of the universal mobile telecommunications system (UMTS).
  • 3rd generation partnership project (3GPP) long term evolution (LTE) is a part of evolved UMTS (E-UMTS) using evolved-UMTS terrestrial radio access (E-UTRA), and employs OFDMA in downlink and SC in uplink - Adopt FDMA.
  • LTE-A (advanced) is an evolution of 3GPP LTE.
  • 5G NR is a successor technology of LTE-A, and is a new clean-slate type mobile communication system with characteristics such as high performance, low latency, and high availability. 5G NR can utilize all available spectrum resources, from low frequency bands below 1 GHz, to intermediate frequency bands from 1 GHz to 10 GHz, and high frequency (millimeter wave) bands above 24 GHz.
  • LTE-A or 5G NR is mainly described, but the technical idea according to an embodiment of the present disclosure is not limited thereto.
  • E-UTRAN Evolved-UMTS Terrestrial Radio Access Network
  • LTE Long Term Evolution
  • the E-UTRAN includes a base station 20 that provides a control plane and a user plane to the terminal 10 .
  • the terminal 10 may be fixed or mobile, and may be called by other terms such as a mobile station (MS), a user terminal (UT), a subscriber station (SS), a mobile terminal (MT), and a wireless device.
  • the base station 20 refers to a fixed station that communicates with the terminal 10, and may be called by other terms such as an evolved-NodeB (eNB), a base transceiver system (BTS), and an access point.
  • eNB evolved-NodeB
  • BTS base transceiver system
  • the base stations 20 may be connected to each other through an X2 interface.
  • the base station 20 is connected to an Evolved Packet Core (EPC) 30 through an S1 interface, more specifically, a Mobility Management Entity (MME) through S1-MME and a Serving Gateway (S-GW) through S1-U.
  • EPC Evolved Packet Core
  • the EPC 30 is composed of an MME, an S-GW, and a Packet Data Network-Gateway (P-GW).
  • the MME has access information of the terminal or information about the capability of the terminal, and this information is mainly used for mobility management of the terminal.
  • the S-GW is a gateway having E-UTRAN as an end point
  • the P-GW is a gateway having a PDN (Packet Date Network) as an end point.
  • the layers of the Radio Interface Protocol between the terminal and the network are based on the lower three layers of the Open System Interconnection (OSI) standard model widely known in communication systems, L1 (Layer 1), It may be divided into L2 (second layer) and L3 (third layer).
  • OSI Open System Interconnection
  • the physical layer belonging to the first layer provides an information transfer service using a physical channel
  • the RRC (Radio Resource Control) layer located in the third layer is a radio resource between the terminal and the network. plays a role in controlling To this end, the RRC layer exchanges RRC messages between the terminal and the base station.
  • 3A illustrates a radio protocol architecture for a user plane according to an embodiment of the present disclosure.
  • the user plane is a protocol stack for transmitting user data
  • the control plane is a protocol stack for transmitting a control signal.
  • a physical layer provides an information transmission service to an upper layer using a physical channel.
  • the physical layer is connected to a medium access control (MAC) layer, which is an upper layer, through a transport channel.
  • MAC medium access control
  • Data moves between the MAC layer and the physical layer through the transport channel. Transmission channels are classified according to how and with what characteristics data is transmitted over the air interface.
  • the physical channel may be modulated in an Orthogonal Frequency Division Multiplexing (OFDM) scheme, and time and frequency are used as radio resources.
  • OFDM Orthogonal Frequency Division Multiplexing
  • the MAC layer provides a service to a radio link control (RLC) layer, which is an upper layer, through a logical channel.
  • RLC radio link control
  • the MAC layer provides a mapping function from a plurality of logical channels to a plurality of transport channels.
  • the MAC layer provides a logical channel multiplexing function by mapping a plurality of logical channels to a single transport channel.
  • the MAC sublayer provides data transfer services on logical channels.
  • the RLC layer performs concatenation, segmentation, and reassembly of RLC Serving Data Units (SDUs).
  • SDUs RLC Serving Data Units
  • the RLC layer is a transparent mode (Transparent Mode, TM), an unacknowledged mode (Unacknowledged Mode, UM) and an acknowledged mode (Acknowledged Mode).
  • TM Transparent Mode
  • UM Unacknowledged Mode
  • AM acknowledged Mode
  • AM RLC provides error correction through automatic repeat request (ARQ).
  • the RRC (Radio Resource Control) layer is defined only in the control plane.
  • the RRC layer is responsible for controlling logical channels, transport channels and physical channels in relation to configuration, re-configuration, and release of radio bearers.
  • RB means a logical path provided by the first layer (physical layer or PHY layer) and the second layer (MAC layer, RLC layer, PDCP (Packet Data Convergence Protocol) layer) for data transfer between the terminal and the network.
  • the functions of the PDCP layer in the user plane include delivery of user data, header compression and ciphering.
  • the functions of the PDCP layer in the control plane include transmission of control plane data and encryption/integrity protection.
  • Setting the RB means defining the characteristics of a radio protocol layer and channel to provide a specific service, and setting each specific parameter and operation method.
  • the RB may be further divided into a Signaling Radio Bearer (SRB) and a Data Radio Bearer (DRB).
  • SRB Signaling Radio Bearer
  • DRB Data Radio Bearer
  • the UE When an RRC connection is established between the RRC layer of the UE and the RRC layer of the E-UTRAN, the UE is in the RRC_CONNECTED state, otherwise it is in the RRC_IDLE state.
  • the RRC_INACTIVE state is additionally defined, and the UE in the RRC_INACTIVE state may release the connection with the base station while maintaining the connection with the core network.
  • a downlink transmission channel for transmitting data from the network to the terminal there are a BCH (Broadcast Channel) for transmitting system information and a downlink SCH (Shared Channel) for transmitting user traffic or control messages. Traffic or control messages of downlink multicast or broadcast services may be transmitted through a downlink SCH or may be transmitted through a separate downlink multicast channel (MCH).
  • a random access channel RACH
  • SCH uplink shared channel
  • the logical channels that are located above the transport channel and are mapped to the transport channel include a Broadcast Control Channel (BCCH), a Paging Control Channel (PCCH), a Common Control Channel (CCCH), a Multicast Control Channel (MCCH), and a Multicast Traffic Channel (MTCH). channels), etc.
  • BCCH Broadcast Control Channel
  • PCCH Paging Control Channel
  • CCCH Common Control Channel
  • MCCH Multicast Control Channel
  • MTCH Multicast Traffic Channel
  • a physical channel consists of several OFDM symbols in the time domain and several sub-carriers in the frequency domain.
  • One sub-frame is composed of a plurality of OFDM symbols in the time domain.
  • a resource block is a resource allocation unit and includes a plurality of OFDM symbols and a plurality of sub-carriers.
  • each subframe may use specific subcarriers of specific OFDM symbols (eg, the first OFDM symbol) of the corresponding subframe for a Physical Downlink Control Channel (PDCCH), that is, an L1/L2 control channel.
  • PDCCH Physical Downlink Control Channel
  • a Transmission Time Interval (TTI) is a unit time of subframe transmission.
  • FIG. 4 shows a structure of an NR system according to an embodiment of the present disclosure.
  • a Next Generation Radio Access Network may include a next generation-Node B (gNB) and/or an eNB that provides user plane and control plane protocol termination to a UE.
  • gNB next generation-Node B
  • eNB that provides user plane and control plane protocol termination to a UE.
  • 4 illustrates a case in which only gNBs are included.
  • the gNB and the eNB are connected to each other through an Xn interface.
  • the gNB and the eNB are connected to the 5G Core Network (5GC) through the NG interface.
  • the access and mobility management function AMF
  • the user plane function UPF
  • 5 illustrates functional division between NG-RAN and 5GC according to an embodiment of the present disclosure.
  • the gNB is inter-cell radio resource management (Inter Cell RRM), radio bearer management (RB control), connection mobility control (Connection Mobility Control), radio admission control (Radio Admission Control), measurement setup and provision Functions such as (Measurement configuration & Provision) and dynamic resource allocation may be provided.
  • AMF may provide functions such as NAS (Non Access Stratum) security, idle state mobility processing, and the like.
  • the UPF may provide functions such as mobility anchoring and protocol data unit (PDU) processing.
  • a Session Management Function (SMF) may provide functions such as terminal Internet Protocol (IP) address assignment, PDU session control, and the like.
  • IP Internet Protocol
  • FIG. 6 shows the structure of an NR radio frame to which the present invention can be applied.
  • radio frames may be used in uplink and downlink transmission in NR.
  • a radio frame has a length of 10 ms and may be defined as two 5 ms half-frames (HF).
  • a half-frame may include 5 1ms subframes (Subframe, SF).
  • a subframe may be divided into one or more slots, and the number of slots in a subframe may be determined according to a subcarrier spacing (SCS).
  • SCS subcarrier spacing
  • Each slot may include 12 or 14 OFDM(A) symbols according to a cyclic prefix (CP).
  • CP cyclic prefix
  • each slot may include 14 symbols.
  • each slot may include 12 symbols.
  • the symbol may include an OFDM symbol (or a CP-OFDM symbol) and an SC-FDMA symbol (or a DFT-s-OFDM symbol).
  • Table 1 shows the number of symbols per slot ( ), the number of slots per frame ( ) and the number of slots per subframe ( ) is exemplified.
  • Table 2 illustrates the number of symbols per slot, the number of slots per frame, and the number of slots per subframe according to SCS when the extended CP is used.
  • OFDM(A) numerology eg, SCS, CP length, etc.
  • OFDM(A) numerology eg, SCS, CP length, etc.
  • the (absolute time) interval of a time resource eg, subframe, slot, or TTI
  • TU Time Unit
  • multiple numerology or SCS to support various 5G services may be supported. For example, when SCS is 15 kHz, wide area in traditional cellular bands can be supported, and when SCS is 30 kHz/60 kHz, dense-urban, lower latency) and a wider carrier bandwidth may be supported. For SCS of 60 kHz or higher, bandwidths greater than 24.25 GHz may be supported to overcome phase noise.
  • the NR frequency band may be defined as two types of frequency ranges.
  • the two types of frequency ranges may be FR1 and FR2.
  • the numerical value of the frequency range may be changed, for example, the two types of frequency ranges may be as shown in Table 3 below.
  • FR1 may mean “sub 6GHz range”
  • FR2 may mean “above 6GHz range” and may be called millimeter wave (mmW).
  • mmW millimeter wave
  • FR1 may include a band of 410 MHz to 7125 MHz as shown in Table 4 below. That is, FR1 may include a frequency band of 6 GHz (or 5850, 5900, 5925 MHz, etc.) or higher. For example, a frequency band of 6 GHz (or 5850, 5900, 5925 MHz, etc.) included in FR1 may include an unlicensed band. The unlicensed band may be used for various purposes, for example, for communication for a vehicle (eg, autonomous driving).
  • FIG. 7 illustrates a slot structure of an NR frame according to an embodiment of the present disclosure.
  • a slot includes a plurality of symbols in the time domain.
  • one slot may include 14 symbols, but in the case of an extended CP, one slot may include 12 symbols.
  • one slot may include 7 symbols, but in the case of an extended CP, one slot may include 6 symbols.
  • a carrier wave includes a plurality of subcarriers in the frequency domain.
  • a resource block (RB) may be defined as a plurality of (eg, 12) consecutive subcarriers in the frequency domain.
  • BWP Bandwidth Part
  • P Physical Resource Block
  • a carrier may include a maximum of N (eg, 5) BWPs. Data communication may be performed through the activated BWP.
  • Each element may be referred to as a resource element (RE) in the resource grid, and one complex symbol may be mapped.
  • RE resource element
  • the wireless interface between the terminal and the terminal or the wireless interface between the terminal and the network may be composed of an L1 layer, an L2 layer, and an L3 layer.
  • the L1 layer may mean a physical layer.
  • the L2 layer may mean at least one of a MAC layer, an RLC layer, a PDCP layer, and an SDAP layer.
  • the L3 layer may mean an RRC layer.
  • V2X or SL (sidelink) communication will be described.
  • FIG. 8 illustrates a radio protocol architecture for SL communication according to an embodiment of the present disclosure. Specifically, FIG. 8(a) shows a user plane protocol stack of LTE, and FIG. 8(b) shows a control plane protocol stack of LTE.
  • FIG. 9 illustrates a radio protocol architecture for SL communication according to an embodiment of the present disclosure. Specifically, FIG. 9(a) shows a user plane protocol stack of NR, and FIG. 9(b) shows a control plane protocol stack of NR.
  • the transmission mode may be referred to as a mode or a resource allocation mode.
  • a transmission mode in LTE may be referred to as an LTE transmission mode
  • a transmission mode in NR may be referred to as an NR resource allocation mode.
  • (a) of FIG. 10 shows a terminal operation related to LTE transmission mode 1 or LTE transmission mode 3.
  • (a) of FIG. 10 shows a terminal operation related to NR resource allocation mode 1.
  • LTE transmission mode 1 may be applied to general SL communication
  • LTE transmission mode 3 may be applied to V2X communication.
  • (b) of FIG. 10 shows a terminal operation related to LTE transmission mode 2 or LTE transmission mode 4.
  • (b) of FIG. 10 shows a terminal operation related to NR resource allocation mode 2.
  • the base station may schedule an SL resource to be used by the terminal for SL transmission.
  • the base station may perform resource scheduling to UE 1 through a PDCCH (more specifically, Downlink Control Information (DCI)), and UE 1 may perform V2X or SL communication with UE 2 according to the resource scheduling.
  • DCI Downlink Control Information
  • UE 1 transmits SCI (Sidelink Control Information) to UE 2 through a Physical Sidelink Control Channel (PSCCH), and then transmits data based on the SCI to UE 2 through a Physical Sidelink Shared Channel (PSSCH).
  • SCI Segmentlink Control Information
  • PSCCH Physical Sidelink Control Channel
  • PSSCH Physical Sidelink Shared Channel
  • the UE may be provided with or allocated resources for transmission of one or more SLs of one TB (Transport Block) from the base station through a dynamic grant.
  • the base station may provide a resource for transmission of the PSCCH and/or PSSCH to the terminal by using a dynamic grant.
  • the transmitting terminal may report the SL HARQ (Hybrid Automatic Repeat Request) feedback received from the receiving terminal to the base station.
  • PUCCH resources and timing for reporting SL HARQ feedback to the base station may be determined based on an indication in the PDCCH for the base station to allocate resources for SL transmission.
  • DCI may indicate a slot offset between DCI reception and a first SL transmission scheduled by DCI.
  • the minimum gap between the DCI scheduling the SL transmission resource and the first scheduled SL transmission resource may not be smaller than the processing time of the corresponding terminal.
  • the terminal may be provided or allocated a resource set from the base station periodically for a plurality of SL transmissions through a configured grant.
  • the to-be-configured grant may include a configured grant type 1 or a configured grant type 2.
  • the terminal may determine the TB to transmit in each case (occasions) indicated by a given configured grant (given configured grant).
  • the base station may allocate the SL resource to the terminal on the same carrier, and may allocate the SL resource to the terminal on different carriers.
  • the NR base station may control LTE-based SL communication.
  • the NR base station may transmit the NR DCI to the terminal to schedule the LTE SL resource.
  • a new RNTI for scrambling the NR DCI may be defined.
  • the terminal may include an NR SL module and an LTE SL module.
  • the NR SL module may convert the NR SL DCI to LTE DCI type 5A, and the NR SL module is X ms LTE DCI type 5A may be delivered to the LTE SL module as a unit.
  • the LTE SL module may apply activation and/or release to the first LTE subframe after Z ms.
  • the X may be dynamically indicated using a field of DCI.
  • the minimum value of X may be different according to UE capability.
  • the terminal may report a single value according to the terminal capability.
  • X may be a positive number.
  • the terminal can determine the SL transmission resource within the SL resource set by the base station / network or the preset SL resource.
  • the configured SL resource or the preset SL resource may be a resource pool.
  • the UE may autonomously select or schedule a resource for SL transmission.
  • the terminal may perform SL communication by selecting a resource by itself within a set resource pool.
  • the terminal may select a resource by itself within the selection window by performing a sensing (sensing) and resource (re)selection procedure.
  • the sensing may be performed in units of subchannels.
  • UE 1 which has selected a resource within the resource pool, transmits the SCI to UE 2 through the PSCCH, and may transmit data based on the SCI to UE 2 through the PSSCH.
  • the terminal may help select an SL resource for another terminal.
  • the UE may receive a configured grant for SL transmission.
  • the terminal may schedule SL transmission of another terminal.
  • the UE may reserve an SL resource for blind retransmission.
  • the first terminal may indicate to the second terminal the priority of SL transmission by using SCI.
  • the second terminal may decode the SCI, and the second terminal may perform sensing and/or resource (re)selection based on the priority.
  • the resource (re)selection procedure includes the step of the second terminal identifying a candidate resource in a resource selection window, and the second terminal selecting a resource for (re)transmission from among the identified candidate resources can do.
  • the resource selection window may be a time interval during which the terminal selects a resource for SL transmission.
  • the resource selection window may start at T1 ⁇ 0, and the resource selection window is determined by the remaining packet delay budget of the second terminal. may be limited.
  • a specific resource is indicated by the SCI received by the second terminal from the first terminal, and the L1 SL RSRP measurement value for the specific resource is If the SL RSRP threshold is exceeded, the second terminal may not determine the specific resource as a candidate resource.
  • the SL RSRP threshold may be determined based on the priority of the SL transmission indicated by the SCI received by the second terminal from the first terminal and the priority of the SL transmission on the resource selected by the second terminal.
  • the L1 SL RSRP may be measured based on an SL DMRS (Demodulation Reference Signal).
  • SL DMRS Demodulation Reference Signal
  • one or more PSSCH DMRS patterns may be set or preset for each resource pool in the time domain.
  • the PDSCH DMRS configuration type 1 and/or type 2 may be the same as or similar to the frequency domain pattern of the PSSCH DMRS.
  • the exact DMRS pattern may be indicated by the SCI.
  • the transmitting terminal may select a specific DMRS pattern from among DMRS patterns configured or preset for the resource pool.
  • the transmitting terminal may perform initial transmission of a TB (Transport Block) without reservation. For example, based on the sensing and resource (re)selection procedure, the transmitting terminal may reserve the SL resource for the initial transmission of the second TB by using the SCI associated with the first TB.
  • a TB Transport Block
  • the UE may reserve a resource for feedback-based PSSCH retransmission through signaling related to previous transmission of the same TB (Transport Block).
  • the maximum number of SL resources reserved by one transmission including the current transmission may be two, three, or four.
  • the maximum number of SL resources may be the same regardless of whether HARQ feedback is enabled.
  • the maximum number of HARQ (re)transmissions for one TB may be limited by configuration or preset.
  • the maximum number of HARQ (re)transmissions may be up to 32.
  • the maximum number of HARQ (re)transmissions may be unspecified.
  • the setting or preset may be for a transmitting terminal.
  • HARQ feedback for releasing resources not used by the UE may be supported.
  • the UE may indicate to another UE one or more subchannels and/or slots used by the UE by using SCI.
  • the UE may indicate to another UE one or more subchannels and/or slots reserved by the UE for PSSCH (re)transmission by using SCI.
  • the minimum allocation unit of the SL resource may be a slot.
  • the size of the subchannel may be set for the terminal or may be preset.
  • SCI Servicelink Control Information
  • Control information transmitted by the base station to the terminal through the PDCCH may be referred to as downlink control information (DCI), while control information transmitted by the terminal to another terminal through the PSCCH may be referred to as SCI.
  • DCI downlink control information
  • SCI control information transmitted by the terminal to another terminal through the PSCCH
  • the UE may know the start symbol of the PSCCH and/or the number of symbols of the PSCCH.
  • the SCI may include SL scheduling information.
  • the UE may transmit at least one SCI to another UE to schedule the PSSCH.
  • one or more SCI formats may be defined.
  • the transmitting terminal may transmit the SCI to the receiving terminal on the PSCCH.
  • the receiving terminal may decode one SCI to receive the PSSCH from the transmitting terminal.
  • the transmitting terminal may transmit two consecutive SCIs (eg, 2-stage SCI) to the receiving terminal on the PSCCH and/or the PSSCH.
  • the receiving terminal may decode two consecutive SCIs (eg, 2-stage SCI) to receive the PSSCH from the transmitting terminal.
  • the SCI configuration fields are divided into two groups in consideration of the (relatively) high SCI payload size
  • the SCI including the first SCI configuration field group is called the first SCI or the 1st SCI.
  • the SCI including the second SCI configuration field group may be referred to as a second SCI or a 2nd SCI.
  • the transmitting terminal may transmit the first SCI to the receiving terminal through the PSCCH.
  • the transmitting terminal may transmit the second SCI to the receiving terminal on the PSCCH and/or the PSSCH.
  • the second SCI may be transmitted to the receiving terminal through (independent) PSCCH, or may be piggybacked and transmitted together with data through PSSCH.
  • two consecutive SCIs may be applied for different transmissions (eg, unicast, broadcast, or groupcast).
  • the transmitting terminal may transmit some or all of the following information to the receiving terminal through SCI.
  • the transmitting terminal may transmit some or all of the following information to the receiving terminal through the first SCI and/or the second SCI.
  • PSSCH and / or PSCCH related resource allocation information for example, time / frequency resource location / number, resource reservation information (eg, period), and / or
  • SL CSI transmission indicator (or SL (L1) RSRP (and / or SL (L1) RSRQ and / or SL (L1) RSSI) information transmission indicator), and / or
  • NDI New Data Indicator
  • RV Redundancy Version
  • QoS information eg, priority information, and/or
  • - Reference signal eg, DMRS, etc.
  • information related to decoding and/or channel estimation of data transmitted through the PSSCH for example, information related to a pattern of a (time-frequency) mapping resource of DMRS, rank (rank) ) information, antenna port index information;
  • the first SCI may include information related to channel sensing.
  • the receiving terminal may decode the second SCI using the PSSCH DMRS.
  • a polar code used for the PDCCH may be applied to the second SCI.
  • the payload size of the first SCI may be the same for unicast, groupcast and broadcast.
  • the receiving terminal does not need to perform blind decoding of the second SCI.
  • the first SCI may include scheduling information of the second SCI.
  • the transmitting terminal since the transmitting terminal may transmit at least one of SCI, the first SCI, and/or the second SCI to the receiving terminal through the PSCCH, the PSCCH is the SCI, the first SCI and/or the second SCI. 2 may be substituted/substituted with at least one of SCI. And/or, for example, SCI may be replaced/substituted with at least one of PSCCH, first SCI, and/or second SCI. And/or, for example, since the transmitting terminal may transmit the second SCI to the receiving terminal through the PSSCH, the PSSCH may be replaced/substituted with the second SCI.
  • each object when a plurality of objects observe the object in measuring information related to a specific object, for example, location information, etc., each object may have different measurement error values, and a specific measurement value among them may have a small error range or Alternatively, it may be data with high reliability. Alternatively, even for measurement values with the same statistical characteristics (eg, error range), it is possible to obtain reliable data by reducing the error range by taking many samples and processing the data. Therefore, it may be used to determine the presence/detection of a specific entity by referring to the measured values, or it may be possible to position with better performance.
  • error range statistical characteristics
  • a road user such as a vehicle or an infra structure such as an RSU transmits a V2X message (eg, VRU, pedestrian-related) to a surrounding road user (eg, a target VRU, pedestrian or surrounding vehicle, etc.) or It is received from the surrounding upper network (e.g., eNB, V2X server, etc. collect and distribute), and this message includes, for example, the location information of a specific road user (e.g., VRU, pedestrian). there may be At this time, the location information is when the specific road user receives the information obtained through the GNSS information directly from the corresponding road user or through the network, the V2X message may include a measurement error of the GNSS receiver.
  • V2X message eg, VRU, pedestrian-related
  • the location of the road user may be detected and compared with the received information. As a result, if there is a difference from the information detected directly through the camera or other ADAS sensor or device (at least), the received information and the detected information are compared and fed back (the place that sent) or corrected information to the surrounding road users to convey Alternatively, when the RSU receives a PSM of a specific UE or VRU, the RSU corrects the location information included in the received PSM based on the location information of the specific UE or VRU obtained from a detection device included in the RSU to surround It may inform or feedback to the VRU, neighboring UEs or the network. Here, the RSU may transmit the corrected location information to neighboring VRUs through sidelink signals such as PSCCH and PSSCH.
  • sidelink signals such as PSCCH and PSSCH.
  • VRU-related message is not limited to a PSM message, and may be transmitted by being loaded in any type of message that can use or propagate information of the VRU, such as VAM, CPM, or other types of V2X messages.
  • RSU is an infra-structure that can perform direct communication (eg PC5 interface) through V2X dedicated spectrum with road users such as VRUs or vehicles. It detects and predicts collisions between VRUs and vehicles (or other road users). It can be used to improve the protection of VRUs based on the ability to detect VRUs without communication equipment.
  • the collected information of road users can be transmitted to the base station through cellular spectrum (e.g. Uu interface), and the information can be processed by the upper V2X server so that nearby road users can receive information about safety messages.
  • the RSU may be located near the VRU on the road or in a VRU dense area. At this time, the RSU may play a role in detecting the VRU by mounting a camera or receiving a message transmitted by the VRU and delivering it to a user on the surrounding road.
  • the RSU receives the PSM message (or Collective Perception Message (CPM), other V2X message, etc.) of the VRU (S1101 in FIG. 11), and the first location information of the VRU obtained through image information and the The location information of the VRU may be determined based on the second location information of the VRU obtained through the PSM message ( S1102 in FIG. 11 ).
  • the RSU may transmit the location information of this VRU to the VRU (S1103 in FIG. 11).
  • the location information of the VRU may also be provided to other VRUs or RSUs.
  • the location information of the VRU may include a value corresponding to a correction level or reliability.
  • the value corresponding to the correction level or reliability may be a ratio or weight level of position information obtained from image information to PSM information, or a value corresponding thereto, or information related to accuracy of corrected position information to be described later.
  • the location information of the VRU may include weight information of the first location information with respect to the second location information used for location determination.
  • the location information of the VRU or the location information exchanged between each subject before correction is the source of the acquired location information (eg, location information about the target VRU acquired from another RSU, the directly acquired target VRU) location information, location information on a target VRU acquired from another VRU, etc.) related information.
  • the PSM message is a message propagated by road users other than VRUs such as pedestrians or vehicle drivers, and the movement status (position, speed, direction, etc.) of the road users and related information (path history, position error) etc.) are used to broadcast safety data including In particular, it is transmitted to nearby vehicles and is used as a warning message to identify and call attention to the presence of road users that are difficult to detect with the driver's naked eye or a vehicle sensor. It can also perform additional functions such as route prediction and density determination.
  • VRU is a road user who is not a driver of a vehicle, which means the handicapped, and is defined by the European Commission (EC) ITS Directive as pedestrians, cyclists, motorcyclists and non-motorized road users such as persons with disabilities or people with reduced mobility. do.
  • a VRU may or may not have communication equipment such as V2X.
  • a VRU having GNSS or GPS may measure its location through this.
  • the PSM message may include location information obtained by the VRU through GNSS.
  • a VRU without GNSS may know its location through an RSU, a VRU, or a base station.
  • the PSM message may include location information obtained by the VRU through another RSU, another VRU, or a base station.
  • the VRU receives location information and location error information from the GNSS (or the location error information may be predetermined according to the type of GNSS service or satellite it receives) and can propagate to the surroundings, and this information is It may be transmitted to a nearby RSU directly or through a network.
  • the VRU transmits the location information measured through GNSS, etc. to the surrounding road user (PC5) and/or network (Uu interface) through a PSM message. (Based on personal communication devices), an error range of about 10m level can be assumed.
  • the image information may be captured by the RSU in an observation area, and the image information may be shared with other RSUs.
  • the RSU is an RSU including a function of acquiring and processing image information, and may have the ability to extract and utilize location information based on the image information.
  • the RSU may include a device such as a camera/camcorder for direct image capturing and an image processing device, or may be connected by wire/wireless from these devices.
  • the RSU may use the installed position or the like as a reference point for relative positioning, and when the VRU is detected from an image of a camera installed in the RSU, the relative position of the VRU may be determined through preset information or the like.
  • location information of the corresponding VRU can be obtained.
  • the accuracy of VRU detection and/or VRU positioning may be increased.
  • the first location information of the VRU is obtained through image information.
  • the RSU is installed at a fixed location such as the roadside of the road, and the value of the position indicated by each pixel in the image captured by the camera attached to the RSU is determined. That is, if you know the pixel value of the location where the image was taken, you can also know the location value. However, since the resolution may vary depending on the distance from the camera, the error of the position value may also vary. That is, if the camera does not shoot the top view, the error range is different for each pixel.
  • the RSU camera has a (horizontal) angle of view of 120 degrees, a 16:9 ratio image sensor and display are installed, and the resolution of the display (assuming the same pixel as the image sensor for convenience) is HD (1280 X 720) and 5 m from the ground.
  • the top row of the display displays the subject at a distance of 508m and represents a length of 1m (horizontal) X 63m (vertical) per pixel.
  • the line corresponding to the 360th pixel which is the midpoint, displays the subject at a distance of 5m, and the length of each pixel is 1.9cm (horizontal) X 2.7cm (vertical).
  • the line corresponding to the 720th pixel which is the lowest part, displays a subject at a distance of 5.6cm from the camera and represents a length of 0.97cm (horizontal) X 0.7cm (vertical) per pixel.
  • the detection error is the pixel position, particularly the distance from the VRU, as shown above. It can vary depending on the pixel position (row, row) in the vertical direction that determines .
  • the RSU detects the surrounding VRUs through the RSU camera, the closer the distance between the image sensor, that is, the camera (lens) and the VRU, the finer the image resolution (one pixel contains information in a smaller area. ), the position error of the VRU is also smaller.
  • the longer the distance between the camera (lens) and the VRU is, the coarser the image resolution (one pixel contains more area information) and the greater the position error of the VRU. .
  • the RSU may detect the location of the VRU with a large error through a camera image, etc. (far distance), or may detect the location of the VRU with a small error compared to the GNSS-based location measurement (close distance) .
  • the RSU may not be able to detect the VRU in the video, or the VRU may not be accurately detected due to the nature of the detection environment. For example, in a dark environment after sunset, when an RSU camera without an infrared camera lens or the like tries to detect a VRU wearing dark clothes, it may not be detected accurately.
  • the location information of the VRU is determined based on the first location information of the VRU obtained through image information and the second location information of the VRU obtained through the PSM message.
  • the location information of the VRU is determined based on the first location information of the VRU obtained through image information and the second location information of the VRU obtained through the PSM message.
  • the first location information and the second location information have an error range. If the values are different depending on the methods in which the location information is generated, it may be appropriate to use data having a smaller error range as a representative value.
  • the location information of the VRU may be determined as a value having a smaller error range among the first location information and the second location information. For example, as shown in FIG.
  • the error range of the location information carried in the PSM message is the error range of the location information of the VRU detected through the image (for example, If it is larger on the x-axis than the x-axis 3m, y-axis 15m) but smaller on the y-axis, the x-axis value of the VRU location information is x of the VRU location information (p'_c,p1) detected through the image.
  • the RSU obtains the second location information of the specific VRU (or UE) and the first location information of the specific VRU (or UE) from the imaging device in the PSM message, and the obtained first location information and the second location information
  • the location information for the VRU may be corrected based on the second location information, where the predetermined threshold is an error related to the imaging device It may be determined based on the range.
  • the corrected location information of the VRU may be delivered to a neighboring VRU or neighboring UEs as position information on the specific VRU, or may be fed back to a network.
  • the location information of the VRU may be determined based on an error range obtained by averaging the error range of the first location information and the error range of the second location information. That is, a method of averaging position errors by taking the average of samples (or candidates) of position values may be considered.
  • both the SemiMajorAxisAccuracy and SemiMinorAxisAccuracy parts are mapped to a value corresponding to 7.38m (for example, a value corresponding to 148 when expressed in units of 0.05m or mapping to 10010100 in binary).
  • the location information of the VRU may be included in an intersection of an area corresponding to the error range of the first location information and an area corresponding to the error range of the second location information. If the error range of the samples of the position value needs to determine the corrected position value within the overlapping region, it may be corrected in the same way as in FIG. 13 (d).
  • the RSU may correct the location information of the VRU based on the first location information and the second location information. For example, the RSU may correct the location information for the VRU by averaging the first location information and the second location information, an error range related to the first location information and an error range related to the second location information. .
  • the RSU may correct the location information for the VRU based on an overlapping area between the first location information and the second location information.
  • the corrected location information of the VRU may be delivered to a neighboring VRU or neighboring UEs as position information on the specific VRU, or may be fed back to a network.
  • p'_p1 a*p'_c,p1 + (1-a)*p_p1 may be determined in the form of interpolation of two position values, and the position error at this time is sqrt( a*(3m) ⁇ 2 + (1-a)*(3m) ⁇ 2 ). Meanwhile, the above-described method may assume an overlap between the first area according to the first location information and the error range and the second area according to the second location information and the error range.
  • the above error range may indicate a nominal error range such as standard deviation of the error value, and the actual position value may exist in a region outside the above range. Therefore, the above methods can be equally applied even when the error range of the location information carried in the PSM message and the error range of the location information of the VRU detected through the image do not overlap as shown in FIG. 14A . However, when the difference between the two position values is very large, for example, when the error range is d_th or more from each other as shown in FIG. 14 ( b ), at least one position value may be regarded as incorrect.
  • the RSU may not perform feedback requesting error correction or generation of an associated VRU message (PSM, VRU message, CPM message, etc.).
  • a value having a larger error range may be regarded as incorrect and the RSU may not perform any operation or may perform feedback requesting error correction or generation of an associated VRU message in some cases.
  • the above operation can be equally applied when the location of the PSM message of the associated VRU points to an area other than the image display area.
  • only the value necessary for correction eg, p_c,k and p_c, (k+1), or Its corrected form, p'_c, p1, and the associated time value(s), error range, etc.
  • the VRU and the RSU may be synchronized to the same base station, or even if they belong to different base stations, the V2X server may process data according to each other's base station timing, or at least use the same GNSS reference time.
  • VRU message information generation time and location generated at the same or similar time by comparing the generation time of the PSM message and the VRU detection time in the video as follows It is checked whether the same VRU is indicated by comparing related information, for example, a PSM message DSecond field and a Position-related field) and image information (a frame creation time of a VRU entity detected for each frame and a position calculation of the detected VRU). For example, suppose that the PSM message is generated at a time point between specific frames of a camera image, that is, a specific time point between t_k and t_(k+1), t_p1 . At this time, as shown in FIG.
  • a value of p'_c,p1 generated by appropriately correcting may be compared with location information p_p1 of a VRU carried in a PSM message generated at a time t_p1.
  • the position error value (or range) of the VRU at each time may also be corrected in the same way.
  • the offset for the image capture may be adjusted so that the PSM message reception time and the image capture time can be reduced to a minimum. For example, when the timing as shown in FIG. 15 (a) is given, if the PSM message transmission interval (eg, T_p) is 1 s, image capture should also occur one second after t_p1 (eg, t_p2). will be. Assuming that the offset value is t_ofs and the interval between frames of an image is T_c, it can be summarized as in Equation 1 below.
  • the configuration of the RSU camera for reducing the position error will be described. It can be seen that when detecting the position of the VRU based on the image of the camera, the error value varies greatly depending on the position of the vertical pixel on the image sensor or the display. That is, as shown in FIG. 16 ( a ), it can be seen that the closer the subject is, the smaller the error value is, and the farther the subject is, the larger the error value is.
  • one RSU and a camera are installed on the opposite side where the RSU and the camera are installed, and similarly to the method described above, a value with a small error range among the values detected from the two cameras is a representative value.
  • image data or detected VRU position values are shared among RSUs, and at least one RSU performs an operation of correcting VRU position values, or each RSU raises image data or detected VRU position values. It can be transmitted to the network to perform an operation of correcting the position value of the VRU in the V2X application server or the like.
  • FIG. 16 (b) one RSU and a camera are installed on the opposite side where the RSU and the camera are installed, and similarly to the method described above, a value with a small error range among the values detected from the two cameras is a representative value.
  • image data or detected VRU position values are shared among RSUs, and at least one RSU performs an operation of correcting VRU position values, or each RSU raises image data or detected VRU position values. It can be transmitted to the
  • the error range is increased in one RSU camera, the error range is decreased in the other RSU cameras. If the error range of the measured (or corrected) data is the same (or the difference is less than a certain threshold value), the two data may be averaged and used.
  • two RSU cameras may be configured to photograph a specific VRU in different directions. More specifically, if the above-described method is that RSU1 and RSU2 are arranged at intervals of 180 degrees, this method can be said that RSU1 and RSU2 are arranged at intervals of 90 degrees. At this time, even if the VRUs (commonly) entering the range of the RSU camera experience a large error in the x-axis or y-axis direction by a specific RSU camera, the error in the corresponding axis can be offset by the remaining RSU camera.
  • VRU1 it is appropriate for VRU1 to use a value measured and detected by RSU1 as a representative value, and for VRU4 to use a value measured and detected by RSU2 as a representative value as shown in FIG. 17B .
  • VRU2 can accurately detect both RSU1 and RSU2, if the value with the smaller error is taken between the two, or the error range of the measured (or corrected) data in each is the same (or differs by less than a certain threshold value) Data can also be averaged.
  • RSU1 measured and detected the x-axis data of VRU3 and RSU2 measured and detected the y-axis data of VRU3 with a small error. In this case, the x-axis data of RSU1 and the y-axis data of RSU2 are selectively taken.
  • the RSU may shift the imaging angle of the imaging device or camera through the following methods, and may correct the location information of the VRU by comparing the image of the VRU before the shift and the image of the VRU after the shift.
  • the detected VRU is located at the bottom of the image (or movement of the VRU) to improve the accuracy of image detection.
  • the camera can be shifted so that it is positioned higher than the lowermost position (that is, the position with the most detailed resolution per pixel) to respond to the change in position.
  • the VRU detected at the position closest to the RSU is positioned at the bottom of the image (or higher than the bottom to correspond to the change in the moving position of the VRU) as described above (that is, per pixel).
  • the position where the resolution is the most detailed) You can shift the camera.
  • the camera may be shifted so that the largest number of VRUs can be detected.
  • a new VRU when a new VRU is detected by shifting the camera, it can be used to improve the location accuracy of the VRU or to determine whether a VRU is present by comparing it with the data before the shift (eg, the location of the VRU).
  • the information related to the location estimation accuracy is received through a positioning device (eg, GNSS, camera) used by each road user, infrastructure structure, and network, and/or through a location-based application, etc. Statistically, it can be obtained through measurement and correction or calculation.
  • the obtained location-related information such as VRUs and pedestrians may be transmitted through the Position3D and PositionAccuracy fields of the PSM message as shown in FIG. 18 .
  • the location information is derived, the ratio or weight level in which the first location information and the second location information are reflected, or a corresponding value is mapped to a separate field and may be included in a PSM / VAM message or other VRU-related message transmitted by the VRU. .
  • the location information of the VRU may utilize information obtained from other road users or infrastructure/network as well as information obtained by the VRU device itself, and there may be cases where it is necessary to distinguish this.
  • a field eg S1: VRU (0), S2: RSU (1), .
  • S1 VRU (0), S2: RSU (1), .
  • a field that identifies the unique ID of each source may be added separately.
  • an entity that only supports positioning may request to correct the position value while feeding back values related to the fields.
  • the eNB receives the VRU location information and related correction information from the VRU or infra (eg, RSU), and the V2X (application) server that receives the information from the eNB corrects the VRU location information while continuously receiving the corresponding values. It can be used to do this, and it can also deliver the corrected VRU position value or a PSM message carrying the corresponding information to the V2X server. In this way, the eNB may transmit the corrected VRU location information or a PSM message carrying the corresponding information to surrounding road users.
  • VRU location information and related correction information from the VRU or infra (eg, RSU)
  • the V2X (application) server that receives the information from the eNB corrects the VRU location information while continuously receiving the corresponding values. It can be used to do this, and it can also deliver the corrected VRU position value or a PSM message carrying the corresponding information to the V2X server. In this way, the eNB may transmit the corrected VRU location information or a PSM message
  • the VRU is detected from the camera image of the RSU. If the VRU is not detected in the camera image, the following method may be used.
  • the location information contained in the PSM message can be recognized as the location of the VRU, and if it is not corrected from this, it notifies the V2X server that there is no separate feedback or no intention to request correction.
  • the VRU is not detected in the camera image and the location information included in the PSM message indicates a specific point in the video area as shown in FIG. 19 (a)
  • the actual location of the VRU is any point within the error range from the PSM location information. can be assumed to be Therefore, as shown in FIG. 19( b ), a specific point among the intersection of the image outer region and the PSM position information error range may be recognized as the location of the VRU.
  • a location closest to the PSM location information received in the corresponding area or a (extended external) pixel may be recognized as the location of the VRU.
  • the boundary area between the pixel and the pixel half pixel is recognized as the position of the VRU as shown in FIG. 19(c) or in contact with the external pixel as shown in FIG. It can recognize the internal pixel as the location of the VRU.
  • the VRU location information in the message transmitted by the VRU may come within the video range of the camera (a situation where it may go out of the video range considering the error range), or as shown in FIG. It may be located outside the image range of In this case, the RSU may shift the photographing position of the camera or the imaging device so that the RSU that has transmitted the PSM is located within the image range.
  • the position of the VRU received by moving the camera to verify the information of the VRU message is within the image range of the camera (or the center of the image or the most of the image).
  • the RSU may estimate a direction and an angle to shift a photographing position of the camera or imaging device based on the mobility information included in the PSM, and shift the camera or imaging device in the estimated direction and angle can
  • the mobility information may include a moving direction, a moving speed, and the like of the VRU.
  • the VRU when it is difficult for the VRU to detect the VRU according to its imaging device (lack of light, sunset, sunrise, or device failure), the VRU is included in the PSM without performing additional correction on the location information of the VRU included in the PSM. It can be treated as valid VRU location information.
  • the RSU feeds back to the V2X server that the location information of the VRU is abnormal, or in order not to participate in the event. It may not give any feedback.
  • the V2X server that the location information of the VRU is abnormal, or in order not to participate in the event. It may not give any feedback.
  • the received message is Since there is no basis for judging the information, the received location information is considered valid and feedback to the V2X server that there is no abnormality in the location information of the VRU or may not provide any feedback in order not to participate in the event.
  • the VRU object may be incompletely detected as an image due to reflected light or ambient (road user, etc.) lighting in some cases in a situation such as FIG. can
  • the detection area may be displayed broadly or blurry than in reality due to the influence of lighting or a picture, or it may be suitable for specifying the location as shown in FIG. 21(d). Even if a specific object is detected with a small error, it may be difficult to determine whether the object is a VRU or another object on a road or sidewalk.
  • the methods listed above are used when processing the detection image information, but as an example, the error range due to image detection is applied larger than the general case (eg, 3m) (for example, For example, 2x, 3m ... 6m) may be processed so that the weight for the location information of the PSM message is highly reflected. Or (extremely), if the difference between the error ranges of the two location values is within a given constant value (ie d_th), only the information in the PSM message is considered valid and the V2X server indicates that there is no abnormality in the location information of the VRU. You can either give feedback or not give any feedback in order not to participate in the event.
  • FIG. 21 (d) Although the case of FIG. 21 (d) is also an incomplete detection situation, only the information of the PSM message cannot be regarded as valid. For example, when a set of candidate groups such as pedestrians, cyclists, or packaging boxes (objects) is determined (with similar probability) through image processing, the location information (and/or the error range of the location) of the received PSM message(s) The image is compared with the detected position (p'_c,p1) (and/or the margin of error) and whether there is a similar (or related) PSM message by applying the methods listed above.
  • a set of candidate groups such as pedestrians, cyclists, or packaging boxes (objects)
  • the location information (and/or the error range of the location) of the received PSM message(s) The image is compared with the detected position (p'_c,p1) (and/or the margin of error) and whether there is a similar (or related) PSM message by applying the methods listed above.
  • RSU can be determined as an error in image detection (VRU type determination) of the camera.
  • the RSU may give feedback to the V2X server that there is no abnormality in the VRU's PSM message and location information, or may not give any feedback in order not to participate in the event.
  • the RSU is the location included in the PSM based on the amount of light or time zone.
  • the validity of the information can be determined. For example, when the RSU is estimated based on the time and/or light amount that it is difficult to detect an image such as a sunset or a night situation, even if the VRU is not clearly detected by the camera at a position corresponding to the location information of the PSM It can be estimated that the location information according to the PSM is valid.
  • the RSU may determine the validity of the location information of the PSM by increasing an error range of the location information acquired by the imaging device based on time and/or light quantity.
  • VRU-related prior information including VRU location information included in the VRU's PSM message
  • VRU location information included in the VRU's PSM message
  • it may be used as a condition for VRU determination or as an input of an artificial intelligence learning algorithm for VRU detection.
  • related mobility data eg, speed, direction, acceleration, etc.
  • PSM data e.g., speed, direction, acceleration, etc.
  • entity e.g, vehicle
  • the entity may be determined as a non-equipped road user. In this case, it is possible to determine whether the type of the road user, for example, is a VRU (eg, pedestrian, cyclist, etc.) or a vehicle, based on the map data and mobility data of the corresponding road user.
  • additional information about the road user may be transmitted through a PSM, a BSM message, or other additional V2X messages (eg, VRU awareness message: VAM).
  • VAM VRU awareness message
  • data about the appearance of a road user may be loaded and transmitted. More specifically, in the case of a pedestrian road user, information valid for a long period of time such as height (height), gender, skin color, etc. (i.e. long term information) may be simply input at the time of device registration and initialization. Also, information that frequently changes on the day, such as the color of clothes, can be manually input through an application related to the road user (ie VRU), or a reminder requesting to take a self-camera photo can be sent to induce the user to take a photo. . Alternatively, if there is a picture taken before going out or a picture taken while going out and moving or walking, the application may search for and recognize the user's device and use it to generate VRU information, particularly information related to appearance.
  • a road user type or more specifically a vehicle type, a VRU type, etc. may be mapped to messages sent by road users more explicitly, and this information can be used to compare with information detected from an image.
  • the type information for example, in the case of a VRU, the user type may be changed depending on the situation. For example, it was a pedestrian mode on the sidewalk, a passenger mode while riding public transportation, and a driver mode or vehicle mode while riding a private vehicle again. can be changed. This can be determined by using a combination of sensor information of the device or V2X communication (or using other communication methods) with the means of transportation used.
  • the RSU compares information on the corresponding VRU with a pre-received (or received after a predetermined time delay) V2X (VRU) message to check the validity of the information.
  • VRU V2X
  • the RSU may request feedback on the message or if information correction is required (or information that correction is not required may be fed back). . This may be directly received from the VRU through the PC5 interface as shown in FIG. 22 or may be received from the eNB through a higher-level network.
  • the VRU may transmit a PSM message to the eNB through a Uu interface, etc., and the eNB may retransmit (deliver) the RSU to the RSU through a Uu interface or a wired interface.
  • the eNB may collect or cluster messages of a plurality of VRUs and transmit them to the RSU.
  • the detected location is calculated using the method described above, and this value is corrected in consideration of the PSM creation time, etc. It is possible to feedback the VRU location information correction request, process the RSU request, regenerate a PSM message, or transmit the changed VRU information through a CPM or other VRU-related message.
  • the RSU requests the V2X server to correct the position or to generate a CPM message, information extracted from the raw data generated when the image is detected can be transmitted.
  • the RSU transmits the time(s) at which the image was captured, the calculated position(s) of the VRU corresponding to the time(s), and the (positioning) accuracy of the corresponding measurement value to the eNB, and the V2X server that received it
  • the PSM message on which the location correction has been performed or the CPM message including the corresponding information may be transmitted again (duplicate) to the surrounding area, or the location information correction may be requested from the VRU.
  • a corrected position value may be transmitted to the corresponding VRU, or a correction value of position information (eg, a delta difference value) may be transmitted.
  • the RSU may transmit the corrected location information.
  • a position value corresponding to the corresponding time point is generated based on image detection (Position3D and PositioningAccuracy, etc.) and transmitted to the eNB.
  • the performed PSM message or the CPM message including the corresponding information may be transmitted again (duplicate) to the surrounding area, or a correction of location information may be requested from the corresponding VRU.
  • a corrected position value may be transmitted to the corresponding VRU, or a correction value of position information (eg, a delta difference value) may be transmitted.
  • the RSU may directly regenerate a PSM message without feeding back a location correction request to the upper network, or may generate a CPM or other VRU-related message and transmit the changed VRU information to the surroundings.
  • the PSM message or CPM message generated above may be information (position estimation, correction value, etc.) generated at the same time point as indicated in the message transmitted by the VRU or eNB, or the camera image is captured (new) It may be information generated at a point in time or at another point in time.
  • a request is made to (new) the upper network to generate a PSM message or a CPM message for the related VRU, or the RSU directly sends a PSM message Alternatively, an associated CPM message may be generated and transmitted to the surroundings.
  • the RSU when a VRU specific zone and/or a vehicle specific zone is set in the area covered by the RSU, the RSU also identifies which zone the VRU belongs to or at which time the zone is switched, and this is used for VRU detection. It can be used as prior information. For example, even though the VRU is configured to transmit a PSM message every time it moves by switching zones, even if the corresponding message is not received even after the point at which the VRU is supposed to transmit the PSM message has passed, or furthermore, it waits for a certain period of time (e.g.
  • the RSU directly requests the VRU to transmit a status change message, or VRU detection information and status change (zone switching) to the upper network information can be reported.
  • a Road Side Unit (RSU) for performing a Vulnerable Road User (VRU)-related operation comprising: at least one processor; and at least one computer memory operably coupled to the at least one processor and storing instructions that, when executed, cause the at least one processor to perform operations, the operations comprising: receiving a PSM message from a VRU; ; determining the location information of the VRU based on the first location information of the VRU obtained through image information and the second location information of the VRU obtained through the PSM message; and transmit location information of the VRU to the VRU.
  • RSU Road Side Unit
  • VRU Vulnerable Road User
  • a processor for performing operations for a Road Side Unit (RSU) in a wireless communication system comprising: receiving a PSM message of a VRU; determining the location information of the VRU based on the first location information of the VRU obtained through image information and the second location information of the VRU obtained through the PSM message; and transmit location information of the VRU to the VRU.
  • RSU Road Side Unit
  • a non-volatile computer readable storage medium storing at least one computer program comprising instructions that, when executed by at least one processor, cause the at least one processor to perform operations for a UE, the operations comprising: receive PSM messages; determining the location information of the VRU based on the first location information of the VRU obtained through image information and the second location information of the VRU obtained through the PSM message; and transmit location information of the VRU to the VRU.
  • the VRU transmits a PSM message to the RSU; and the VRU receives the location information of the VRU from the RSU, wherein the location information of the VRU includes first location information of the VRU obtained by the RSU through image information and the VRU obtained through the PSM message. It may be determined based on the second location information of
  • a VRU Vehicleable Road User
  • RSU Road Side Unit
  • a VRU Vehicleable Road User
  • the at least one computer memory operably coupled to the at least one processor, the at least one computer memory storing instructions that, when executed, cause the at least one processor to perform operations that cause the VRU to: Send PSM messages to; and the VRU receives the location information of the VRU from the RSU, wherein the location information of the VRU includes first location information of the VRU obtained by the RSU through image information and the VRU obtained through the PSM message. It may be determined based on the second location information of
  • the communication system 1 applied to the present invention includes a wireless device, a base station, and a network.
  • the wireless device refers to a device that performs communication using a radio access technology (eg, 5G NR (New RAT), LTE (Long Term Evolution)), and may be referred to as a communication/wireless/5G device.
  • a radio access technology eg, 5G NR (New RAT), LTE (Long Term Evolution)
  • the wireless device includes a robot 100a, a vehicle 100b-1, 100b-2, an eXtended Reality (XR) device 100c, a hand-held device 100d, and a home appliance 100e. ), an Internet of Things (IoT) device 100f, and an AI device/server 400 .
  • the vehicle may include a vehicle equipped with a wireless communication function, an autonomous driving vehicle, a vehicle capable of performing inter-vehicle communication, and the like.
  • the vehicle may include an Unmanned Aerial Vehicle (UAV) (eg, a drone).
  • UAV Unmanned Aerial Vehicle
  • XR devices include AR (Augmented Reality)/VR (Virtual Reality)/MR (Mixed Reality) devices, and include a Head-Mounted Device (HMD), a Head-Up Display (HUD) provided in a vehicle, a television, a smartphone, It may be implemented in the form of a computer, a wearable device, a home appliance, a digital signage, a vehicle, a robot, and the like.
  • the portable device may include a smart phone, a smart pad, a wearable device (eg, a smart watch, smart glasses), a computer (eg, a laptop computer), and the like.
  • Home appliances may include a TV, a refrigerator, a washing machine, and the like.
  • the IoT device may include a sensor, a smart meter, and the like.
  • the base station and the network may be implemented as a wireless device, and a specific wireless device 200a may operate as a base station/network node to other wireless devices.
  • the wireless devices 100a to 100f may be connected to the network 300 through the base station 200 .
  • AI Artificial Intelligence
  • the network 300 may be configured using a 3G network, a 4G (eg, LTE) network, or a 5G (eg, NR) network.
  • the wireless devices 100a to 100f may communicate with each other through the base station 200/network 300, but may also communicate directly (e.g. sidelink communication) without passing through the base station/network.
  • the vehicles 100b-1 and 100b-2 may perform direct communication (e.g. Vehicle to Vehicle (V2V)/Vehicle to everything (V2X) communication).
  • the IoT device eg, sensor
  • the IoT device may directly communicate with other IoT devices (eg, sensor) or other wireless devices 100a to 100f.
  • Wireless communication/connection 150a, 150b, and 150c may be performed between the wireless devices 100a to 100f/base station 200 and the base station 200/base station 200 .
  • the wireless communication/connection includes uplink/downlink communication 150a and sidelink communication 150b (or D2D communication), and communication between base stations 150c (eg relay, IAB (Integrated Access Backhaul)).
  • This can be done through technology (eg 5G NR)
  • Wireless communication/connection 150a, 150b, 150c allows the wireless device and the base station/radio device, and the base station and the base station to transmit/receive wireless signals to each other.
  • the wireless communication/connection 150a, 150b, and 150c may transmit/receive signals through various physical channels.
  • various signal processing processes eg, channel encoding/decoding, modulation/demodulation, resource mapping/demapping, etc.
  • resource allocation processes etc.
  • 25 illustrates a wireless device that can be applied to the present invention.
  • the first wireless device 100 and the second wireless device 200 may transmit and receive wireless signals through various wireless access technologies (eg, LTE, NR).
  • ⁇ first wireless device 100, second wireless device 200 ⁇ is ⁇ wireless device 100x, base station 200 ⁇ of FIG. 24 and/or ⁇ wireless device 100x, wireless device 100x) ⁇ can be matched.
  • the first wireless device 100 includes one or more processors 102 and one or more memories 104 , and may further include one or more transceivers 106 and/or one or more antennas 108 .
  • the processor 102 controls the memory 104 and/or the transceiver 106 and may be configured to implement the descriptions, functions, procedures, suggestions, methods, and/or flow charts disclosed herein.
  • the processor 102 may process the information in the memory 104 to generate the first information/signal, and then transmit a wireless signal including the first information/signal through the transceiver 106 .
  • the processor 102 may receive the radio signal including the second information/signal through the transceiver 106 , and then store the information obtained from the signal processing of the second information/signal in the memory 104 .
  • the memory 104 may be connected to the processor 102 and may store various information related to the operation of the processor 102 .
  • the memory 104 may provide instructions for performing some or all of the processes controlled by the processor 102 , or for performing the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein. may store software code including
  • the processor 102 and the memory 104 may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
  • a wireless communication technology eg, LTE, NR
  • the transceiver 106 may be coupled with the processor 102 , and may transmit and/or receive wireless signals via one or more antennas 108 .
  • the transceiver 106 may include a transmitter and/or a receiver.
  • the transceiver 106 may be used interchangeably with a radio frequency (RF) unit.
  • RF radio frequency
  • a wireless device may refer to a communication modem/circuit/chip.
  • the second wireless device 200 includes one or more processors 202 , one or more memories 204 , and may further include one or more transceivers 206 and/or one or more antennas 208 .
  • the processor 202 controls the memory 204 and/or the transceiver 206 and may be configured to implement the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein.
  • the processor 202 may process the information in the memory 204 to generate third information/signal, and then transmit a wireless signal including the third information/signal through the transceiver 206 .
  • the processor 202 may receive the radio signal including the fourth information/signal through the transceiver 206 , and then store information obtained from signal processing of the fourth information/signal in the memory 204 .
  • the memory 204 may be connected to the processor 202 and may store various information related to the operation of the processor 202 .
  • the memory 204 may provide instructions for performing some or all of the processes controlled by the processor 202 , or for performing the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein. may store software code including
  • the processor 202 and the memory 204 may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
  • a wireless communication technology eg, LTE, NR
  • the transceiver 206 may be coupled to the processor 202 and may transmit and/or receive wireless signals via one or more antennas 208 .
  • the transceiver 206 may include a transmitter and/or a receiver.
  • the transceiver 206 may be used interchangeably with an RF unit.
  • a wireless device may refer to a communication modem/circuit/chip.
  • one or more protocol layers may be implemented by one or more processors 102 , 202 .
  • one or more processors 102 , 202 may implement one or more layers (eg, functional layers such as PHY, MAC, RLC, PDCP, RRC, SDAP).
  • the one or more processors 102, 202 may be configured to process one or more Protocol Data Units (PDUs) and/or one or more Service Data Units (SDUs) according to the description, function, procedure, proposal, method, and/or operational flowcharts disclosed herein.
  • PDUs Protocol Data Units
  • SDUs Service Data Units
  • One or more processors 102, 202 may generate messages, control information, data, or information according to the description, function, procedure, proposal, method, and/or flow charts disclosed herein.
  • the one or more processors 102 and 202 generate a signal (eg, a baseband signal) including PDUs, SDUs, messages, control information, data or information according to the functions, procedures, proposals and/or methods disclosed in this document. , to one or more transceivers 106 and 206 .
  • the one or more processors 102 , 202 may receive signals (eg, baseband signals) from one or more transceivers 106 , 206 , and may be described, functions, procedures, proposals, methods, and/or operational flowcharts disclosed herein.
  • PDUs, SDUs, messages, control information, data, or information may be acquired according to the above.
  • One or more processors 102 , 202 may be referred to as a controller, microcontroller, microprocessor, or microcomputer.
  • One or more processors 102, 202 may be implemented by hardware, firmware, software, or a combination thereof.
  • ASICs Application Specific Integrated Circuits
  • DSPs Digital Signal Processors
  • DSPDs Digital Signal Processing Devices
  • PLDs Programmable Logic Devices
  • FPGAs Field Programmable Gate Arrays
  • firmware or software which may be implemented to include modules, procedures, functions, and the like.
  • the descriptions, functions, procedures, proposals, methods, and/or flow charts disclosed herein provide that firmware or software configured to perform is included in one or more processors 102 , 202 , or stored in one or more memories 104 , 204 . It may be driven by the above processors 102 and 202 .
  • the descriptions, functions, procedures, suggestions, methods, and/or flowcharts of operations disclosed herein may be implemented using firmware or software in the form of code, instructions, and/or a set of instructions.
  • One or more memories 104 , 204 may be coupled with one or more processors 102 , 202 and may store various forms of data, signals, messages, information, programs, code, instructions, and/or instructions.
  • One or more memories 104 , 204 may be comprised of ROM, RAM, EPROM, flash memory, hard drives, registers, cache memory, computer readable storage media, and/or combinations thereof.
  • One or more memories 104 , 204 may be located inside and/or external to one or more processors 102 , 202 .
  • one or more memories 104 , 204 may be coupled to one or more processors 102 , 202 through various technologies, such as wired or wireless connections.
  • One or more transceivers 106 , 206 may transmit user data, control information, radio signals/channels, etc. referred to in the methods and/or operational flowcharts of this document to one or more other devices.
  • One or more transceivers 106, 206 may receive user data, control information, radio signals/channels, etc. referred to in the descriptions, functions, procedures, suggestions, methods and/or flow charts, etc. disclosed herein, from one or more other devices. have.
  • one or more transceivers 106 , 206 may be coupled to one or more processors 102 , 202 and may transmit and receive wireless signals.
  • one or more processors 102 , 202 may control one or more transceivers 106 , 206 to transmit user data, control information, or wireless signals to one or more other devices.
  • one or more processors 102 , 202 may control one or more transceivers 106 , 206 to receive user data, control information, or wireless signals from one or more other devices.
  • one or more transceivers 106, 206 may be coupled to one or more antennas 108, 208, and the one or more transceivers 106, 206 may be coupled via one or more antennas 108, 208 to the descriptions, functions, and functions disclosed herein. , procedures, proposals, methods and/or operation flowcharts, etc.
  • one or more antennas may be a plurality of physical antennas or a plurality of logical antennas (eg, antenna ports).
  • the one or more transceivers 106, 206 convert the received radio signal/channel, etc. from the RF band signal to process the received user data, control information, radio signal/channel, etc. using the one or more processors 102, 202. It can be converted into a baseband signal.
  • One or more transceivers 106 and 206 may convert user data, control information, radio signals/channels, etc. processed using one or more processors 102 and 202 from baseband signals to RF band signals.
  • one or more transceivers 106 , 206 may include (analog) oscillators and/or filters.
  • the vehicle or autonomous driving vehicle may be implemented as a mobile robot, vehicle, train, manned/unmanned aerial vehicle (AV), ship, or the like.
  • AV unmanned aerial vehicle
  • the vehicle or autonomous driving vehicle 100 includes an antenna unit 108 , a communication unit 110 , a control unit 120 , a driving unit 140a , a power supply unit 140b , a sensor unit 140c and autonomous driving. It may include a part 140d.
  • the antenna unit 108 may be configured as a part of the communication unit 110 .
  • the communication unit 110 may transmit/receive signals (eg, data, control signals, etc.) to and from external devices such as other vehicles, base stations (eg, base stations, roadside units, etc.), servers, and the like.
  • the controller 120 may control elements of the vehicle or the autonomous driving vehicle 100 to perform various operations.
  • the controller 120 may include an Electronic Control Unit (ECU).
  • the driving unit 140a may cause the vehicle or the autonomous driving vehicle 100 to run on the ground.
  • the driving unit 140a may include an engine, a motor, a power train, a wheel, a brake, a steering device, and the like.
  • the power supply unit 140b supplies power to the vehicle or the autonomous driving vehicle 100 , and may include a wired/wireless charging circuit, a battery, and the like.
  • the sensor unit 140c may obtain vehicle status, surrounding environment information, user information, and the like.
  • the sensor unit 140c includes an inertial measurement unit (IMU) sensor, a collision sensor, a wheel sensor, a speed sensor, an inclination sensor, a weight sensor, a heading sensor, a position module, and a vehicle forward movement.
  • IMU inertial measurement unit
  • a collision sensor a wheel sensor
  • a speed sensor a speed sensor
  • an inclination sensor a weight sensor
  • a heading sensor a position module
  • a vehicle forward movement / may include a reverse sensor, a battery sensor, a fuel sensor, a tire sensor, a steering sensor, a temperature sensor, a humidity sensor, an ultrasonic sensor, an illuminance sensor, a pedal position sensor, and the like.
  • the autonomous driving unit 140d includes a technology for maintaining a driving lane, a technology for automatically adjusting speed such as adaptive cruise control, a technology for automatically driving along a predetermined route, and a technology for automatically setting a route when a destination is set. technology can be implemented.
  • the communication unit 110 may receive map data, traffic information data, and the like from an external server.
  • the autonomous driving unit 140d may generate an autonomous driving route and a driving plan based on the acquired data.
  • the controller 120 may control the driving unit 140a to move the vehicle or the autonomous driving vehicle 100 along the autonomous driving path (eg, speed/direction adjustment) according to the driving plan.
  • the communication unit 110 may non/periodically acquire the latest traffic information data from an external server, and may acquire surrounding traffic information data from surrounding vehicles.
  • the sensor unit 140c may acquire vehicle state and surrounding environment information.
  • the autonomous driving unit 140d may update the autonomous driving route and driving plan based on the newly acquired data/information.
  • the communication unit 110 may transmit information about a vehicle location, an autonomous driving route, a driving plan, and the like to an external server.
  • the external server may predict traffic information data in advance using AI technology or the like based on information collected from the vehicle or autonomous vehicles, and may provide the predicted traffic information data to the vehicle or autonomous vehicles.
  • FIG. 27 illustrates a vehicle to which the present invention is applied.
  • the vehicle may also be implemented as a means of transportation, a train, an aircraft, a ship, and the like.
  • the vehicle 100 may include a communication unit 110 , a control unit 120 , a memory unit 130 , an input/output unit 140a , and a position measurement unit 140b .
  • the communication unit 110 may transmit and receive signals (eg, data, control signals, etc.) with other vehicles or external devices such as a base station.
  • the controller 120 may control components of the vehicle 100 to perform various operations.
  • the memory unit 130 may store data/parameters/programs/codes/commands supporting various functions of the vehicle 100 .
  • the input/output unit 140a may output an AR/VR object based on information in the memory unit 130 .
  • the input/output unit 140a may include a HUD.
  • the position measuring unit 140b may acquire position information of the vehicle 100 .
  • the location information may include absolute location information of the vehicle 100 , location information within a driving line, acceleration information, location information with a surrounding vehicle, and the like.
  • the position measuring unit 140b may include a GPS and various sensors.
  • the communication unit 110 of the vehicle 100 may receive map information, traffic information, and the like from an external server and store it in the memory unit 130 .
  • the position measuring unit 140b may obtain vehicle position information through GPS and various sensors and store it in the memory unit 130 .
  • the controller 120 may generate a virtual object based on map information, traffic information, and vehicle location information, and the input/output unit 140a may display the created virtual object on a window inside the vehicle ( 1410 and 1420 ).
  • the controller 120 may determine whether the vehicle 100 is normally operating within the driving line based on the vehicle location information. When the vehicle 100 deviates from the driving line abnormally, the controller 120 may display a warning on the windshield of the vehicle through the input/output unit 140a.
  • control unit 120 may broadcast a warning message regarding the driving abnormality to surrounding vehicles through the communication unit 110 .
  • control unit 120 may transmit the location information of the vehicle and information on driving/vehicle abnormality to the related organization through the communication unit 110 .
  • the XR device may be implemented as an HMD, a head-up display (HUD) provided in a vehicle, a television, a smartphone, a computer, a wearable device, a home appliance, a digital signage, a vehicle, a robot, and the like.
  • HMD head-up display
  • the XR device may be implemented as an HMD, a head-up display (HUD) provided in a vehicle, a television, a smartphone, a computer, a wearable device, a home appliance, a digital signage, a vehicle, a robot, and the like.
  • HUD head-up display
  • the XR device 100a may include a communication unit 110 , a control unit 120 , a memory unit 130 , an input/output unit 140a , a sensor unit 140b , and a power supply unit 140c. .
  • the communication unit 110 may transmit/receive signals (eg, media data, control signals, etc.) to/from external devices such as other wireless devices, portable devices, or media servers.
  • Media data may include images, images, sounds, and the like.
  • the controller 120 may perform various operations by controlling the components of the XR device 100a.
  • the controller 120 may be configured to control and/or perform procedures such as video/image acquisition, (video/image) encoding, and metadata generation and processing.
  • the memory unit 130 may store data/parameters/programs/codes/commands necessary for driving the XR device 100a/creating an XR object.
  • the input/output unit 140a may obtain control information, data, and the like from the outside, and may output the generated XR object.
  • the input/output unit 140a may include a camera, a microphone, a user input unit, a display unit, a speaker, and/or a haptic module.
  • the sensor unit 140b may obtain an XR device state, surrounding environment information, user information, and the like.
  • the sensor unit 140b may include a proximity sensor, an illumination sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and/or a radar. have.
  • the power supply unit 140c supplies power to the XR device 100a, and may include a wired/wireless charging circuit, a battery, and the like.
  • the memory unit 130 of the XR device 100a may include information (eg, data, etc.) necessary for generating an XR object (eg, AR/VR/MR object).
  • the input/output unit 140a may obtain a command to operate the XR device 100a from the user, and the controller 120 may drive the XR device 100a according to the user's driving command. For example, when the user wants to watch a movie or news through the XR device 100a, the controller 120 transmits the content request information through the communication unit 130 to another device (eg, the mobile device 100b) or can be sent to the media server.
  • the communication unit 130 may download/stream contents such as movies and news from another device (eg, the portable device 100b) or a media server to the memory unit 130 .
  • the controller 120 controls and/or performs procedures such as video/image acquisition, (video/image) encoding, and metadata generation/processing for the content, and is acquired through the input/output unit 140a/sensor unit 140b
  • An XR object can be created/output based on information about one surrounding space or a real object.
  • the XR device 100a is wirelessly connected to the portable device 100b through the communication unit 110 , and the operation of the XR device 100a may be controlled by the portable device 100b.
  • the portable device 100b may operate as a controller for the XR device 100a.
  • the XR device 100a may obtain 3D location information of the portable device 100b and then generate and output an XR object corresponding to the portable device 100b.
  • Robots can be classified into industrial, medical, home, military, etc. depending on the purpose or field of use.
  • the robot 100 may include a communication unit 110 , a control unit 120 , a memory unit 130 , an input/output unit 140a , a sensor unit 140b , and a driving unit 140c .
  • the communication unit 110 may transmit/receive signals (eg, driving information, control signals, etc.) with external devices such as other wireless devices, other robots, or control servers.
  • the controller 120 may perform various operations by controlling the components of the robot 100 .
  • the memory unit 130 may store data/parameters/programs/codes/commands supporting various functions of the robot 100 .
  • the input/output unit 140a may obtain information from the outside of the robot 100 and may output information to the outside of the robot 100 .
  • the input/output unit 140a may include a camera, a microphone, a user input unit, a display unit, a speaker, and/or a haptic module.
  • the sensor unit 140b may obtain internal information, surrounding environment information, user information, and the like of the robot 100 .
  • the sensor unit 140b may include a proximity sensor, an illumination sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, a radar, and the like.
  • the driving unit 140c may perform various physical operations such as moving a robot joint. In addition, the driving unit 140c may make the robot 100 travel on the ground or fly in the air.
  • the driving unit 140c may include an actuator, a motor, a wheel, a brake, a propeller, and the like.
  • AI devices are fixed or mobile devices such as TVs, projectors, smartphones, PCs, laptops, digital broadcasting terminals, tablet PCs, wearable devices, set-top boxes (STBs), radios, washing machines, refrigerators, digital signage, robots, and vehicles. It may be implemented in any possible device or the like.
  • the AI device 100 includes a communication unit 110 , a control unit 120 , a memory unit 130 , input/output units 140a/140b , a learning processor unit 140c , and a sensor unit 140d). may include.
  • the communication unit 110 uses wired/wireless communication technology to communicate with external devices such as other AI devices (eg, FIGS. 24, 100x, 200, 400) or an AI server (eg, 400 in FIG. 24) and wired/wireless signals (eg, sensor information). , user input, learning model, control signal, etc.) can be transmitted and received. To this end, the communication unit 110 may transmit information in the memory unit 130 to an external device or transmit a signal received from the external device to the memory unit 130 .
  • AI devices eg, FIGS. 24, 100x, 200, 400
  • an AI server eg, 400 in FIG. 24
  • wired/wireless signals eg, sensor information
  • the communication unit 110 may transmit information in the memory unit 130 to an external device or transmit a signal received from the external device to the memory unit 130 .
  • the controller 120 may determine at least one executable operation of the AI device 100 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. In addition, the controller 120 may control the components of the AI device 100 to perform the determined operation. For example, the control unit 120 may request, search, receive, or utilize the data of the learning processor unit 140c or the memory unit 130, and may be a predicted operation among at least one executable operation or determined to be preferable. Components of the AI device 100 may be controlled to execute the operation. In addition, the control unit 120 collects history information including user feedback on the operation contents or operation of the AI device 100 and stores it in the memory unit 130 or the learning processor unit 140c, or the AI server ( 24 and 400) may be transmitted to an external device. The collected historical information may be used to update the learning model.
  • the memory unit 130 may store data supporting various functions of the AI device 100 .
  • the memory unit 130 may store data obtained from the input unit 140a , data obtained from the communication unit 110 , output data of the learning processor unit 140c , and data obtained from the sensing unit 140 .
  • the memory unit 130 may store control information and/or software codes necessary for the operation/execution of the control unit 120 .
  • the input unit 140a may acquire various types of data from the outside of the AI device 100 .
  • the input unit 140a may obtain training data for model learning, input data to which the learning model is applied, and the like.
  • the input unit 140a may include a camera, a microphone, and/or a user input unit.
  • the output unit 140b may generate an output related to sight, hearing, or touch.
  • the output unit 140b may include a display unit, a speaker, and/or a haptic module.
  • the sensing unit 140 may obtain at least one of internal information of the AI device 100 , surrounding environment information of the AI device 100 , and user information by using various sensors.
  • the sensing unit 140 may include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and/or a radar. have.
  • the learning processor unit 140c may train a model composed of an artificial neural network by using the training data.
  • the learning processor unit 140c may perform AI processing together with the learning processor unit of the AI server ( FIGS. 24 and 400 ).
  • the learning processor unit 140c may process information received from an external device through the communication unit 110 and/or information stored in the memory unit 130 . Also, the output value of the learning processor unit 140c may be transmitted to an external device through the communication unit 110 and/or stored in the memory unit 130 .

Abstract

일 실시예는, 무선통신시스템에서 RSU (Road Side Unit)의 VRU (Vulnerable Road User) 관련 동작에 있어서, 상기 RSU가 VRU의 PSM (Personal Safety Messages) 메시지 수신; 상기 RSU가 영상 정보를 통해 획득한 상기 VRU의 제1 위치 정보와 상기 PSM 메시지를 통해 획득한 상기 VRU의 제2 위치 정보에 기초하여 상기 VRU의 위치 정보를 결정; 및 상기 RSU가 상기 VRU에게 상기 VRU의 위치 정보를 전송하는, 방법이다.

Description

무선통신시스템에서 VRU 위치에 관련된 RSU의 동작 방법
이하의 설명은 무선 통신 시스템에 대한 것으로, 보다 상세하게는 VRU (Vulnerable Road User) 위치에 관련된 RSU (Road Side Unit)의 동작 방법에 관련된 것이다.
무선 통신 시스템이 음성이나 데이터 등과 같은 다양한 종류의 통신 서비스를 제공하기 위해 광범위하게 전개되고 있다. 일반적으로 무선 통신 시스템은 가용한 시스템 자원(대역폭, 전송 파워 등)을 공유하여 다중 사용자와의 통신을 지원할 수 있는 다중 접속(multiple access) 시스템이다. 다중 접속 시스템의 예들로는 CDMA(code division multiple access) 시스템, FDMA(frequency division multiple access) 시스템, TDMA(time division multiple access) 시스템, OFDMA(orthogonal frequency division multiple access) 시스템, SC-FDMA(single carrier frequency division multiple access) 시스템, MC-FDMA(multi carrier frequency division multiple access) 시스템 등이 있다.
무선 통신 시스템에서는 LTE, LTE-A, WiFi 등의 다양한 RAT(Radio Access Technology)이 사용되고 있으며, 5G 도 여기에 포함된다. 5G의 세 가지 주요 요구 사항 영역은 (1) 개선된 모바일 광대역 (Enhanced Mobile Broadband, eMBB) 영역, (2) 다량의 머신 타입 통신 (massive Machine Type Communication, mMTC) 영역 및 (3) 초-신뢰 및 저 지연 통신 (Ultra-reliable and Low Latency Communications, URLLC) 영역을 포함한다. 일부 사용 예(Use Case)는 최적화를 위해 다수의 영역들이 요구될 수 있고, 다른 사용 예는 단지 하나의 핵심 성능 지표 (Key Performance Indicator, KPI)에만 포커싱될 수 있다. 5G는 이러한 다양한 사용 예들을 유연하고 신뢰할 수 있는 방법으로 지원하는 것이다.
eMBB는 기본적인 모바일 인터넷 액세스를 훨씬 능가하게 하며, 풍부한 양방향 작업, 클라우드 또는 증강 현실에서 미디어 및 엔터테인먼트 애플리케이션을 커버한다. 데이터는 5G의 핵심 동력 중 하나이며, 5G 시대에서 처음으로 전용 음성 서비스를 볼 수 없을 수 있다. 5G에서, 음성은 단순히 통신 시스템에 의해 제공되는 데이터 연결을 사용하여 응용 프로그램으로서 처리될 것이 기대된다. 증가된 트래픽 양(volume)을 위한 주요 원인들은 콘텐츠 크기의 증가 및 높은 데이터 전송률을 요구하는 애플리케이션 수의 증가이다. 스트리밍 서비스 (오디오 및 비디오), 대화형 비디오 및 모바일 인터넷 연결은 더 많은 장치가 인터넷에 연결될수록 더 널리 사용될 것이다. 이러한 많은 응용 프로그램들은 사용자에게 실시간 정보 및 알림을 푸쉬하기 위해 항상 켜져 있는 연결성이 필요하다. 클라우드 스토리지 및 애플리케이션은 모바일 통신 플랫폼에서 급속히 증가하고 있으며, 이것은 업무 및 엔터테인먼트 모두에 적용될 수 있다. 그리고, 클라우드 스토리지는 상향링크 데이터 전송률의 성장을 견인하는 특별한 사용 예이다. 5G는 또한 클라우드의 원격 업무에도 사용되며, 촉각 인터페이스가 사용될 때 우수한 사용자 경험을 유지하도록 훨씬 더 낮은 단-대-단(end-to-end) 지연을 요구한다. 엔터테인먼트 예를 들어, 클라우드 게임 및 비디오 스트리밍은 모바일 광대역 능력에 대한 요구를 증가시키는 또 다른 핵심 요소이다. 엔터테인먼트는 기차, 차 및 비행기와 같은 높은 이동성 환경을 포함하는 어떤 곳에서든지 스마트폰 및 태블릿에서 필수적이다. 또 다른 사용 예는 엔터테인먼트를 위한 증강 현실 및 정보 검색이다. 여기서, 증강 현실은 매우 낮은 지연과 순간적인 데이터 양을 필요로 한다.
또한, 가장 많이 예상되는 5G 사용 예 중 하나는 모든 분야에서 임베디드 센서를 원활하게 연결할 수 있는 기능 즉, mMTC에 관한 것이다. 2020년까지 잠재적인 IoT 장치들은 204 억 개에 이를 것으로 예측된다. 산업 IoT는 5G가 스마트 도시, 자산 추적(asset tracking), 스마트 유틸리티, 농업 및 보안 인프라를 가능하게 하는 주요 역할을 수행하는 영역 중 하나이다.
URLLC는 주요 인프라의 원격 제어 및 자체-구동 차량(self-driving vehicle)과 같은 초 신뢰 / 이용 가능한 지연이 적은 링크를 통해 산업을 변화시킬 새로운 서비스를 포함한다. 신뢰성과 지연의 수준은 스마트 그리드 제어, 산업 자동화, 로봇 공학, 드론 제어 및 조정에 필수적이다.
다음으로, 다수의 사용 예들에 대해 보다 구체적으로 살펴본다.
5G는 초당 수백 메가 비트에서 초당 기가 비트로 평가되는 스트림을 제공하는 수단으로 FTTH (fiber-to-the-home) 및 케이블 기반 광대역 (또는 DOCSIS)을 보완할 수 있다. 이러한 빠른 속도는 가상 현실과 증강 현실뿐 아니라 4K 이상(6K, 8K 및 그 이상)의 해상도로 TV를 전달하는데 요구된다. VR(Virtual Reality) 및 AR(Augmented Reality) 애플리케이션들은 거의 몰입형(immersive) 스포츠 경기를 포함한다. 특정 응용 프로그램은 특별한 네트워크 설정이 요구될 수 있다. 예를 들어, VR 게임의 경우, 게임 회사들이 지연을 최소화하기 위해 코어 서버를 네트워크 오퍼레이터의 에지 네트워크 서버와 통합해야 할 수 있다.
자동차(Automotive)는 차량에 대한 이동 통신을 위한 많은 사용 예들과 함께 5G에 있어 중요한 새로운 동력이 될 것으로 예상된다. 예를 들어, 승객을 위한 엔터테인먼트는 동시의 높은 용량과 높은 이동성 모바일 광대역을 요구한다. 그 이유는 미래의 사용자는 그들의 위치 및 속도와 관계 없이 고품질의 연결을 계속해서 기대하기 때문이다. 자동차 분야의 다른 활용 예는 증강 현실 대시보드이다. 이는 운전자가 앞면 창을 통해 보고 있는 것 위에 어둠 속에서 물체를 식별하고, 물체의 거리와 움직임에 대해 운전자에게 말해주는 정보를 겹쳐서 디스플레이 한다. 미래에, 무선 모듈은 차량들 간의 통신, 차량과 지원하는 인프라구조 사이에서 정보 교환 및 자동차와 다른 연결된 디바이스들(예를 들어, 보행자에 의해 수반되는 디바이스들) 사이에서 정보 교환을 가능하게 한다. 안전 시스템은 운전자가 보다 안전한 운전을 할 수 있도록 행동의 대체 코스들을 안내하여 사고의 위험을 낮출 수 있게 한다. 다음 단계는 원격 조종되거나 자체 운전 차량(self-driven vehicle)이 될 것이다. 이는 서로 다른 자체 운전 차량들 사이 및 자동차와 인프라 사이에서 매우 신뢰성이 있고, 매우 빠른 통신을 요구한다. 미래에, 자체 운전 차량이 모든 운전 활동을 수행하고, 운전자는 차량 자체가 식별할 수 없는 교통 이상에만 집중하도록 할 것이다. 자체 운전 차량의 기술적 요구 사항은 트래픽 안전을 사람이 달성할 수 없을 정도의 수준까지 증가하도록 초 저 지연과 초고속 신뢰성을 요구한다.
스마트 사회(smart society)로서 언급되는 스마트 도시와 스마트 홈은 고밀도 무선 센서 네트워크로 임베디드될 것이다. 지능형 센서의 분산 네트워크는 도시 또는 집의 비용 및 에너지-효율적인 유지에 대한 조건을 식별할 것이다. 유사한 설정이 각 가정을 위해 수행될 수 있다. 온도 센서, 창 및 난방 컨트롤러, 도난 경보기 및 가전 제품들은 모두 무선으로 연결된다. 이러한 센서들 중 많은 것들이 전형적으로 낮은 데이터 전송 속도, 저전력 및 저비용이다. 하지만, 예를 들어, 실시간 HD 비디오는 감시를 위해 특정 타입의 장치에서 요구될 수 있다.
열 또는 가스를 포함한 에너지의 소비 및 분배는 고도로 분산화되고 있어, 분산 센서 네트워크의 자동화된 제어가 요구된다. 스마트 그리드는 정보를 수집하고 이에 따라 행동하도록 디지털 정보 및 통신 기술을 사용하여 이런 센서들을 상호 연결한다. 이 정보는 공급 업체와 소비자의 행동을 포함할 수 있으므로, 스마트 그리드가 효율성, 신뢰성, 경제성, 생산의 지속 가능성 및 자동화된 방식으로 전기와 같은 연료들의 분배를 개선하도록 할 수 있다. 스마트 그리드는 지연이 적은 다른 센서 네트워크로 볼 수도 있다.
건강 부문은 이동 통신의 혜택을 누릴 수 있는 많은 응용 프로그램을 보유하고 있다. 통신 시스템은 멀리 떨어진 곳에서 임상 진료를 제공하는 원격 진료를 지원할 수 있다. 이는 거리에 대한 장벽을 줄이는데 도움을 주고, 거리가 먼 농촌에서 지속적으로 이용하지 못하는 의료 서비스들로의 접근을 개선시킬 수 있다. 이는 또한 중요한 진료 및 응급 상황에서 생명을 구하기 위해 사용된다. 이동 통신 기반의 무선 센서 네트워크는 심박수 및 혈압과 같은 파라미터들에 대한 원격 모니터링 및 센서들을 제공할 수 있다.
무선 및 모바일 통신은 산업 응용 분야에서 점차 중요해지고 있다. 배선은 설치 및 유지 비용이 높다. 따라서, 케이블을 재구성할 수 있는 무선 링크들로의 교체 가능성은 많은 산업 분야에서 매력적인 기회이다. 그러나, 이를 달성하는 것은 무선 연결이 케이블과 비슷한 지연, 신뢰성 및 용량으로 동작하는 것과, 그 관리가 단순화될 것이 요구된다. 낮은 지연과 매우 낮은 오류 확률은 5G로 연결될 필요가 있는 새로운 요구 사항이다.
물류(logistics) 및 화물 추적(freight tracking)은 위치 기반 정보 시스템을 사용하여 어디에서든지 인벤토리(inventory) 및 패키지의 추적을 가능하게 하는 이동 통신에 대한 중요한 사용 예이다. 물류 및 화물 추적의 사용 예는 전형적으로 낮은 데이터 속도를 요구하지만 넓은 범위와 신뢰성 있는 위치 정보가 필요하다.
무선 통신 시스템은 가용한 시스템 자원(예를 들어, 대역폭, 전송 전력 등)을 공유하여 다중 사용자와의 통신을 지원하는 다중 접속(multiple access) 시스템이다. 다중 접속 시스템의 예로는 CDMA(code division multiple access) 시스템, FDMA(frequency division multiple access) 시스템, TDMA(time division multiple access) 시스템, OFDMA(orthogonal frequency division multiple access) 시스템, SC-FDMA(single carrier frequency division multiple access) 시스템, MC-FDMA(multi carrier frequency division multiple access) 시스템 등이 있다.
사이드링크(sidelink, SL)란 단말(User Equipment, UE)들 간에 직접적인 링크를 설정하여, 기지국(Base Station, BS)을 거치지 않고, 단말 간에 음성 또는 데이터 등을 직접 주고 받는 통신 방식을 말한다. SL는 급속도로 증가하는 데이터 트래픽에 따른 기지국의 부담을 해결할 수 있는 하나의 방안으로서 고려되고 있다.
V2X(vehicle-to-everything)는 유/무선 통신을 통해 다른 차량, 보행자, 인프라가 구축된 사물 등과 정보를 교환하는 통신 기술을 의미한다. V2X는 V2V(vehicle-to-vehicle), V2I(vehicle-to-infrastructure), V2N(vehicle-to- network) 및 V2P(vehicle-to-pedestrian)와 같은 4 가지 유형으로 구분될 수 있다. V2X 통신은 PC5 인터페이스 및/또는 Uu 인터페이스를 통해 제공될 수 있다.
한편, 더욱 많은 통신 기기들이 더욱 큰 통신 용량을 요구하게 됨에 따라, 기존의 무선 액세스 기술(Radio Access Technology, RAT)에 비해 향상된 모바일 광대역 (mobile broadband) 통신에 대한 필요성이 대두되고 있다. 이에 따라, 신뢰도(reliability) 및 지연(latency)에 민감한 서비스 또는 단말을 고려한 통신 시스템이 논의되고 있는데, 개선된 이동 광대역 통신, 매시브 MTC(Machine Type Communication), URLLC(Ultra-Reliable and Low Latency Communication) 등을 고려한 차세대 무선 접속 기술을 새로운 RAT(new radio access technology) 또는 NR(new radio)이라 칭할 수 있다. NR에서도 V2X(vehicle-to-everything) 통신이 지원될 수 있다.
도 1은 NR 이전의 RAT에 기반한 V2X 통신과 NR에 기반한 V2X 통신을 비교하여 설명하기 위한 도면이다.
V2X 통신과 관련하여, NR 이전의 RAT에서는 BSM(Basic Safety Message), CAM(Cooperative Awareness Message), DENM(Decentralized Environmental Notification Message)과 같은 V2X 메시지를 기반으로, 안전 서비스(safety service)를 제공하는 방안이 주로 논의되었다. V2X 메시지는, 위치 정보, 동적 정보, 속성 정보 등을 포함할 수 있다. 예를 들어, 단말은 주기적인 메시지(periodic message) 타입의 CAM, 및/또는 이벤트 트리거 메시지(event triggered message) 타입의 DENM을 다른 단말에게 전송할 수 있다.
예를 들어, CAM은 방향 및 속도와 같은 차량의 동적 상태 정보, 치수와 같은 차량 정적 데이터, 외부 조명 상태, 경로 내역 등 기본 차량 정보를 포함할 수 있다. 예를 들어, 단말은 CAM을 방송할 수 있으며, CAM의 지연(latency)은 100ms보다 작을 수 있다. 예를 들어, 차량의 고장, 사고 등의 돌발적인 상황이 발행하는 경우, 단말은 DENM을 생성하여 다른 단말에게 전송할 수 있다. 예를 들어, 단말의 전송 범위 내에 있는 모든 차량은 CAM 및/또는 DENM을 수신할 수 있다. 이 경우, DENM은 CAM 보다 높은 우선 순위를 가질 수 있다.
이후, V2X 통신과 관련하여, 다양한 V2X 시나리오들이 NR에서 제시되고 있다. 예를 들어, 다양한 V2X 시나리오들은, 차량 플래투닝(vehicle platooning), 향상된 드라이빙(advanced driving), 확장된 센서들(extended sensors), 리모트 드라이빙(remote driving) 등을 포함할 수 있다.
예를 들어, 차량 플래투닝을 기반으로, 차량들은 동적으로 그룹을 형성하여 함께 이동할 수 있다. 예를 들어, 차량 플래투닝에 기반한 플라툰 동작들(platoon operations)을 수행하기 위해, 상기 그룹에 속하는 차량들은 선두 차량으로부터 주기적인 데이터를 수신할 수 있다. 예를 들어, 상기 그룹에 속하는 차량들은 주기적인 데이터를 이용하여, 차량들 사이의 간격을 줄이거나 넓힐 수 있다.
예를 들어, 향상된 드라이빙을 기반으로, 차량은 반자동화 또는 완전 자동화될 수 있다. 예를 들어, 각 차량은 근접 차량 및/또는 근접 로지컬 엔티티(logical entity)의 로컬 센서(local sensor)에서 획득된 데이터를 기반으로, 궤도(trajectories) 또는 기동(maneuvers)을 조정할 수 있다. 또한, 예를 들어, 각 차량은 근접한 차량들과 드라이빙 인텐션(driving intention)을 상호 공유할 수 있다.
예를 들어, 확장 센서들을 기반으로, 로컬 센서들을 통해 획득된 로 데이터(raw data) 또는 처리된 데이터(processed data), 또는 라이브 비디오 데이터(live video data)는 차량, 로지컬 엔티티, 보행자들의 단말 및/또는 V2X 응용 서버 간에 상호 교환될 수 있다. 따라서, 예를 들어, 차량은 자체 센서를 이용하여 감지할 수 있는 환경 보다 향상된 환경을 인식할 수 있다.
예를 들어, 리모트 드라이빙을 기반으로, 운전을 하지 못하는 사람 또는 위험한 환경에 위치한 리모트 차량을 위해, 리모트 드라이버 또는 V2X 애플리케이션은 상기 리모트 차량을 동작 또는 제어할 수 있다. 예를 들어, 대중 교통과 같이 경로를 예측할 수 있는 경우, 클라우드 컴퓨팅 기반의 드라이빙이 상기 리모트 차량의 동작 또는 제어에 이용될 수 있다. 또한, 예를 들어, 클라우드 기반의 백엔드 서비스 플랫폼(cloud-based back-end service platform)에 대한 액세스가 리모트 드라이빙을 위해 고려될 수 있다.
한편, 차량 플래투닝, 향상된 드라이빙, 확장된 센서들, 리모트 드라이빙 등 다양한 V2X 시나리오들에 대한 서비스 요구사항(service requirements)들을 구체화하는 방안이 NR에 기반한 V2X 통신에서 논의되고 있다.
실시예(들)은 VRU (Vulnerable Road User) 위치를 어떻게 측정/결정/보정할지에 관한 RSU (Road Side Unit)의 동작 방법이다.
일 실시예는, 무선통신시스템에서 RSU (Road Side Unit)의 VRU (Vulnerable Road User) 관련 동작에 있어서, 상기 RSU가 VRU의 PSM (Personal Safety Messages) 메시지 수신; 상기 RSU가 영상 정보를 통해 획득한 상기 VRU의 제1 위치 정보와 상기 PSM 메시지를 통해 획득한 상기 VRU의 제2 위치 정보에 기초하여 상기 VRU의 위치 정보를 결정; 및 상기 RSU가 상기 VRU에게 상기 VRU의 위치 정보를 전송하는, 방법이다.
일 실시예는, 무선통신시스템에서, VRU (Vulnerable Road User) 관련 동작을 수행하는 RSU (Road Side Unit)에 있어서, 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서에 동작 가능하게 연결될 수 있고, 실행될 때 상기 적어도 하나의 프로세서로 하여금 동작들을 수행하게 하는 명령들을 저장하는 적어도 하나의 컴퓨터 메모리를 포함하며, 상기 동작들은, VRU의 PSM 메시지 수신; 영상 정보를 통해 획득한 상기 VRU의 제1 위치 정보와 상기 PSM 메시지를 통해 획득한 상기 VRU의 제2 위치 정보에 기초하여 상기 VRU의 위치 정보를 결정; 및 상기 VRU에게 상기 VRU의 위치 정보를 전송하는, RSU이다.
일 실시예는, 무선통신시스템에서, RSU (Road Side Unit)를 위한 동작들을 수행하게 하는 프로세서에 있어서, 상기 동작들은, VRU의 PSM 메시지 수신; 영상 정보를 통해 획득한 상기 VRU의 제1 위치 정보와 상기 PSM 메시지를 통해 획득한 상기 VRU의 제2 위치 정보에 기초하여 상기 VRU의 위치 정보를 결정; 및 상기 VRU에게 상기 VRU의 위치 정보를 전송하는, 프로세서이다.
일 실시예는, 적어도 하나의 프로세서에 의해 실행될 때, 적어도 하나의 프로세서가 RSU (Road Side Unit)를 위한 동작들을 수행하게 하는 명령을 포함하는 적어도 하나의 컴퓨터 프로그램을 저장하는 비휘발성 컴퓨터 판독 가능 저장 매체에 있어서, 상기 동작들은, VRU의 PSM 메시지 수신; 영상 정보를 통해 획득한 상기 VRU의 제1 위치 정보와 상기 PSM 메시지를 통해 획득한 상기 VRU의 제2 위치 정보에 기초하여 상기 VRU의 위치 정보를 결정; 및 상기 VRU에게 상기 VRU의 위치 정보를 전송하는, 저장 매체이다.
일 실시예는, 무선통신시스템에서 RSU (Road Side Unit)에 관련된 VRU (Vulnerable Road User)의 동작에 있어서, 상기 VRU가 상기 RSU로 PSM 메시지를 전송; 상기 VRU가 상기 RSU로부터 상기 VRU의 위치 정보를 수신을 포함하며, 상기 VRU의 위치 정보는, 상기 RSU가 영상 정보를 통해 획득한 상기 VRU의 제1 위치 정보와 상기 PSM 메시지를 통해 획득한 상기 VRU의 제2 위치 정보에 기초하여 결정되는 것인, 방법이다.
일 실시예는, 무선통신시스템에서, RSU (Road Side Unit)에 관련된 VRU (Vulnerable Road User)에 있어서, 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서에 동작 가능하게 연결될 수 있고, 실행될 때 상기 적어도 하나의 프로세서로 하여금 동작들을 수행하게 하는 명령들을 저장하는 적어도 하나의 컴퓨터 메모리를 포함하며, 상기 동작들은, 상기 VRU가 상기 RSU로 PSM 메시지를 전송; 상기 VRU가 상기 RSU로부터 상기 VRU의 위치 정보를 수신을 포함하며, 상기 VRU의 위치 정보는, 상기 RSU가 영상 정보를 통해 획득한 상기 VRU의 제1 위치 정보와 상기 PSM 메시지를 통해 획득한 상기 VRU의 제2 위치 정보에 기초하여 결정되는 것인, VRU이다.
상기 VRU의 위치 정보 결정시, 상기 제1 위치 정보와 상기 제2 위치 정보에는 가중치가 적용될 수 있다.
상기 영상 정보는 상기 RSU가 관찰 영역에서 촬영한 것으로써 다른 RSU와 공유될 수 있다.
상기 VRU의 위치 정보는 상기 다른 RSU에게 공유될 수 있다.
상기 VRU의 위치 정보는 위치 결정에 사용된 상기 제2 위치정보에 대한 상기 제1 위치정보의 가중치 정보를 포함할 수 있다.
상기 PSM 메시지는 상기 VRU가 GNSS(Global Navigation Satellite System)를 통해 획득한 위치 정보를 포함할 수 있다.
상기 PSM 메시지는 상기 VRU가 다른 RSU, 다른 VRU 또는 기지국을 통해 획득한 위치 정보를 포함할 수 있다.
상기 VRU의 위치 정보는, 상기 제1 위치 정보와 상기 제2 위치 정보 중 오차 범위가 작은 값으로 결정될 수 있다.
상기 VRU의 위치 정보는, 상기 제1 위치 정보의 오차 범위와 상기 제2 위치 정보의 오차 범위를 평균한 오차 범위에 기초하여 결정될 수 있다.
상기 VRU의 위치 정보는, 상기 제1 위치 정보의 오차 범위에 해당하는 영역과 상기 제2 위치 정보의 오차 범위에 해당하는 영역의 교집합에 포함되는 것일 수 있다.
일 실시예에 의하면, VRU의 위치를 RSU의 영상을 이용해 보다 정확히 측정/보정할 수 있다.
본 명세서에 첨부되는 도면은 실시예(들)에 대한 이해를 제공하기 위한 것으로서 다양한 실시형태들을 나타내고 명세서의 기재와 함께 원리를 설명하기 위한 것이다.
도 1은 NR 이전의 RAT에 기반한 V2X 통신과 NR에 기반한 V2X 통신을 비교하여 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른, LTE 시스템의 구조를 나타낸다.
도 3은 본 개시의 일 실시 예에 따른, 사용자 평면(user plane), 제어 평면(control plane)에 대한 무선 프로토콜 구조(radio protocol architecture)를 나타낸다.
도 4는 본 개시의 일 실시 예에 따른, NR 시스템의 구조를 나타낸다.
도 5는 본 개시의 일 실시 예에 따른, NG-RAN과 5GC 간의 기능적 분할을 나타낸다.
도 6은 실시예(들)이 적용될 수 있는 NR의 무선 프레임의 구조를 나타낸다.
도 7은 본 개시의 일 실시 예에 따른, NR 프레임의 슬롯 구조를 나타낸다.
도 8은 본 개시의 일 실시 예에 따른, SL 통신을 위한 무선 프로토콜 구조(radio protocol architecture)를 나타낸다.
도 9는 본 개시의 일 실시 예에 따른, SL 통신을 위한 무선 프로토콜 구조(radio protocol architecture)를 나타낸다.
도 10은 본 개시의 일 실시 예에 따라, 단말이 전송 모드에 따라 V2X 또는 SL 통신을 수행하는 절차를 나타낸다.
도 11 내지 도 23은 실시예(들)을 설명하기 위한 도면이다.
도 24 내지 도 30은 실시예(들)이 적용될 수 있는 다양한 장치를 설명하는 도면이다.
본 개시의 다양한 실시 예에서, “/” 및 “,”는 “및/또는”을 나타내는 것으로 해석되어야 한다. 예를 들어, “A/B”는 “A 및/또는 B”를 의미할 수 있다. 나아가, “A, B”는 “A 및/또는 B”를 의미할 수 있다. 나아가, “A/B/C”는 “A, B 및/또는 C 중 적어도 어느 하나”를 의미할 수 있다. 나아가, “A, B, C”는 “A, B 및/또는 C 중 적어도 어느 하나”를 의미할 수 있다.
본 개시의 다양한 실시 예에서, “또는”은 “및/또는”을 나타내는 것으로 해석되어야 한다. 예를 들어, “A 또는 B”는 “오직 A”, “오직 B”, 및/또는 “A 및 B 모두”를 포함할 수 있다. 다시 말해, “또는”은 “부가적으로 또는 대안적으로”를 나타내는 것으로 해석되어야 한다.
이하의 기술은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 통신 시스템에 사용될 수 있다. CDMA는 UTRA(universal terrestrial radio access)나 CDMA2000과 같은 무선 기술로 구현될 수 있다. TDMA는 GSM(global system for mobile communications)/GPRS(general packet radio service)/EDGE(enhanced data rates for GSM evolution)와 같은 무선 기술로 구현될 수 있다. OFDMA는 IEEE(institute of electrical and electronics engineers) 802.11(Wi-Fi), IEEE 802.16(WiMAX), IEEE 802-20, E-UTRA(evolved UTRA) 등과 같은 무선 기술로 구현될 수 있다. IEEE 802.16m은 IEEE 802.16e의 진화로, IEEE 802.16e에 기반한 시스템과의 하위 호환성(backward compatibility)를 제공한다. UTRA는 UMTS(universal mobile telecommunications system)의 일부이다. 3GPP(3rd generation partnership project) LTE(long term evolution)은 E-UTRA(evolved-UMTS terrestrial radio access)를 사용하는 E-UMTS(evolved UMTS)의 일부로써, 하향링크에서 OFDMA를 채용하고 상향링크에서 SC-FDMA를 채용한다. LTE-A(advanced)는 3GPP LTE의 진화이다.
5G NR은 LTE-A의 후속 기술로서, 고성능, 저지연, 고가용성 등의 특성을 가지는 새로운 Clean-slate 형태의 이동 통신 시스템이다. 5G NR은 1GHz 미만의 저주파 대역에서부터 1GHz~10GHz의 중간 주파 대역, 24GHz 이상의 고주파(밀리미터파) 대역 등 사용 가능한 모든 스펙트럼 자원을 활용할 수 있다.
설명을 명확하게 하기 위해, LTE-A 또는 5G NR을 위주로 기술하지만 본 개시의 일 실시 예에 따른 기술적 사상이 이에 제한되는 것은 아니다.
도 2는 본 개시의 일 실시 예에 따른, LTE 시스템의 구조를 나타낸다. 이는 E-UTRAN(Evolved-UMTS Terrestrial Radio Access Network), 또는 LTE(Long Term Evolution)/LTE-A 시스템이라고 불릴 수 있다.
도 2를 참조하면, E-UTRAN은 단말(10)에게 제어 평면(control plane)과 사용자 평면(user plane)을 제공하는 기지국(20)을 포함한다. 단말(10)은 고정되거나 이동성을 가질 수 있으며, MS(Mobile Station), UT(User Terminal), SS(Subscriber Station), MT(Mobile Terminal), 무선기기(Wireless Device) 등 다른 용어로 불릴 수 있다. 기지국(20)은 단말(10)과 통신하는 고정된 지점(fixed station)을 말하며, eNB(evolved-NodeB), BTS(Base Transceiver System), 액세스 포인트(Access Point) 등 다른 용어로 불릴 수 있다.
기지국(20)들은 X2 인터페이스를 통하여 서로 연결될 수 있다. 기지국(20)은 S1 인터페이스를 통해 EPC(Evolved Packet Core, 30), 보다 상세하게는 S1-MME를 통해 MME(Mobility Management Entity)와 S1-U를 통해 S-GW(Serving Gateway)와 연결된다.
EPC(30)는 MME, S-GW 및 P-GW(Packet Data Network-Gateway)로 구성된다. MME는 단말의 접속 정보나 단말의 능력에 관한 정보를 가지고 있으며, 이러한 정보는 단말의 이동성 관리에 주로 사용된다. S-GW는 E-UTRAN을 종단점으로 갖는 게이트웨이이며, P-GW는 PDN(Packet Date Network)을 종단점으로 갖는 게이트웨이이다.
단말과 네트워크 사이의 무선인터페이스 프로토콜(Radio Interface Protocol)의 계층들은 통신시스템에서 널리 알려진 개방형 시스템간 상호접속(Open System Interconnection, OSI) 기준 모델의 하위 3개 계층을 바탕으로 L1 (제 1 계층), L2 (제 2 계층), L3(제 3 계층)로 구분될 수 있다. 이 중에서 제 1 계층에 속하는 물리 계층은 물리 채널(Physical Channel)을 이용한 정보전송서비스(Information Transfer Service)를 제공하며, 제 3 계층에 위치하는 RRC(Radio Resource Control) 계층은 단말과 네트워크 간에 무선 자원을 제어하는 역할을 수행한다. 이를 위해 RRC 계층은 단말과 기지국 간 RRC 메시지를 교환한다.
도 3(a)는 본 개시의 일 실시 예에 따른, 사용자 평면(user plane)에 대한 무선 프로토콜 구조(radio protocol architecture)를 나타낸다.
도 3(b)은 본 개시의 일 실시 예에 따른, 제어 평면(control plane)에 대한 무선 프로토콜 구조를 나타낸다. 사용자 평면은 사용자 데이터 전송을 위한 프로토콜 스택(protocol stack)이고, 제어 평면은 제어신호 전송을 위한 프로토콜 스택이다.
도 3(a) 및 A3을 참조하면, 물리 계층(physical layer)은 물리 채널을 이용하여 상위 계층에게 정보 전송 서비스를 제공한다. 물리 계층은 상위 계층인 MAC(Medium Access Control) 계층과는 전송 채널(transport channel)을 통해 연결되어 있다. 전송 채널을 통해 MAC 계층과 물리 계층 사이로 데이터가 이동한다. 전송 채널은 무선 인터페이스를 통해 데이터가 어떻게 어떤 특징으로 전송되는가에 따라 분류된다.
서로 다른 물리계층 사이, 즉 송신기와 수신기의 물리 계층 사이는 물리 채널을 통해 데이터가 이동한다. 상기 물리 채널은 OFDM(Orthogonal Frequency Division Multiplexing) 방식으로 변조될 수 있고, 시간과 주파수를 무선 자원으로 활용한다.
MAC 계층은 논리 채널(logical channel)을 통해 상위 계층인 RLC(radio link control) 계층에게 서비스를 제공한다. MAC 계층은 복수의 논리 채널에서 복수의 전송 채널로의 맵핑 기능을 제공한다. 또한, MAC 계층은 복수의 논리 채널에서 단수의 전송 채널로의 맵핑에 의한 논리 채널 다중화 기능을 제공한다. MAC 부 계층은 논리 채널상의 데이터 전송 서비스를 제공한다.
RLC 계층은 RLC SDU(Serving Data Unit)의 연결(concatenation), 분할(segmentation) 및 재결합(reassembly)을 수행한다. 무선 베어러(Radio Bearer, RB)가 요구하는 다양한 QoS(Quality of Service)를 보장하기 위해, RLC 계층은 투명모드(Transparent Mode, TM), 비확인 모드(Unacknowledged Mode, UM) 및 확인모드(Acknowledged Mode, AM)의 세 가지의 동작모드를 제공한다. AM RLC는 ARQ(automatic repeat request)를 통해 오류 정정을 제공한다.
RRC(Radio Resource Control) 계층은 제어 평면에서만 정의된다. RRC 계층은 무선 베어러들의 설정(configuration), 재설정(re-configuration) 및 해제(release)와 관련되어 논리 채널, 전송 채널 및 물리 채널들의 제어를 담당한다. RB는 단말과 네트워크간의 데이터 전달을 위해 제 1 계층(physical 계층 또는 PHY 계층) 및 제 2 계층(MAC 계층, RLC 계층, PDCP(Packet Data Convergence Protocol) 계층)에 의해 제공되는 논리적 경로를 의미한다.
사용자 평면에서의 PDCP 계층의 기능은 사용자 데이터의 전달, 헤더 압축(header compression) 및 암호화(ciphering)를 포함한다. 제어 평면에서의 PDCP 계층의 기능은 제어 평면 데이터의 전달 및 암호화/무결성 보호(integrity protection)를 포함한다.
RB가 설정된다는 것은 특정 서비스를 제공하기 위해 무선 프로토콜 계층 및 채널의 특성을 규정하고, 각각의 구체적인 파라미터 및 동작 방법을 설정하는 과정을 의미한다. RB는 다시 SRB(Signaling Radio Bearer)와 DRB(Data Radio Bearer) 두 가지로 나누어 질 수 있다. SRB는 제어 평면에서 RRC 메시지를 전송하는 통로로 사용되며, DRB는 사용자 평면에서 사용자 데이터를 전송하는 통로로 사용된다.
단말의 RRC 계층과 E-UTRAN의 RRC 계층 사이에 RRC 연결(RRC connection)이 확립되면, 단말은 RRC_CONNECTED 상태에 있게 되고, 그렇지 못할 경우 RRC_IDLE 상태에 있게 된다. NR의 경우, RRC_INACTIVE 상태가 추가로 정의되었으며, RRC_INACTIVE 상태의 단말은 코어 네트워크와의 연결을 유지하는 반면 기지국과의 연결을 해지(release)할 수 있다.
네트워크에서 단말로 데이터를 전송하는 하향링크 전송 채널로는 시스템 정보를 전송하는 BCH(Broadcast Channel)과 그 이외에 사용자 트래픽이나 제어 메시지를 전송하는 하향링크 SCH(Shared Channel)이 있다. 하향링크 멀티캐스트 또는 브로드캐스트 서비스의 트래픽 또는 제어메시지의 경우 하향링크 SCH를 통해 전송될 수도 있고, 또는 별도의 하향링크 MCH(Multicast Channel)을 통해 전송될 수도 있다. 한편, 단말에서 네트워크로 데이터를 전송하는 상향링크 전송 채널로는 초기 제어메시지를 전송하는 RACH(Random Access Channel)와 그 이외에 사용자 트래픽이나 제어메시지를 전송하는 상향링크 SCH(Shared Channel)가 있다.
전송 채널 상위에 있으며, 전송 채널에 맵핑되는 논리 채널(Logical Channel)로는 BCCH(Broadcast Control Channel), PCCH(Paging Control Channel), CCCH(Common Control Channel), MCCH(Multicast Control Channel), MTCH(Multicast Traffic Channel) 등이 있다.
물리 채널(Physical Channel)은 시간 영역에서 여러 개의 OFDM 심벌과 주파수 영역에서 여러 개의 부반송파(sub-carrier)로 구성된다. 하나의 서브프레임(sub-frame)은 시간 영역에서 복수의 OFDM 심벌(symbol)들로 구성된다. 자원 블록은 자원 할당 단위로, 복수의 OFDM 심벌들과 복수의 부반송파(sub-carrier)들로 구성된다. 또한 각 서브프레임은 PDCCH(Physical Downlink Control Channel) 즉, L1/L2 제어 채널을 위해 해당 서브프레임의 특정 OFDM 심벌들(예, 첫 번째 OFDM 심볼)의 특정 부반송파들을 이용할 수 있다. TTI(Transmission Time Interval)는 서브프레임 전송의 단위시간이다.
도 4는 본 개시의 일 실시 예에 따른, NR 시스템의 구조를 나타낸다.
도 4를 참조하면, NG-RAN(Next Generation Radio Access Network)은 단말에게 사용자 평면 및 제어 평면 프로토콜 종단(termination)을 제공하는 gNB(next generation-Node B) 및/또는 eNB를 포함할 수 있다. 도 4에서는 gNB만을 포함하는 경우를 예시한다. gNB 및 eNB는 상호 간에 Xn 인터페이스로 연결되어 있다. gNB 및 eNB는 5세대 코어 네트워크(5G Core Network: 5GC)와 NG 인터페이스를 통해 연결되어 있다. 보다 구체적으로, AMF(access and mobility management function)과는 NG-C 인터페이스를 통해 연결되고, UPF(user plane function)과는 NG-U 인터페이스를 통해 연결된다.
도 5는 본 개시의 일 실시 예에 따른, NG-RAN과 5GC 간의 기능적 분할을 나타낸다.
도 5를 참조하면, gNB는 인터 셀 간의 무선 자원 관리(Inter Cell RRM), 무선 베어러 관리(RB control), 연결 이동성 제어(Connection Mobility Control), 무선 허용 제어(Radio Admission Control), 측정 설정 및 제공(Measurement configuration & Provision), 동적 자원 할당(dynamic resource allocation) 등의 기능을 제공할 수 있다. AMF는 NAS(Non Access Stratum) 보안, 아이들 상태 이동성 처리 등의 기능을 제공할 수 있다. UPF는 이동성 앵커링(Mobility Anchoring), PDU(Protocol Data Unit) 처리 등의 기능을 제공할 수 있다. SMF(Session Management Function)는 단말 IP(Internet Protocol) 주소 할당, PDU 세션 제어 등의 기능을 제공할 수 있다.
도 6은 본 발명이 적용될 수 있는 NR의 무선 프레임의 구조를 나타낸다.
도 6을 참조하면, NR에서 상향링크 및 하향링크 전송에서 무선 프레임을 사용할 수 있다. 무선 프레임은 10ms의 길이를 가지며, 2개의 5ms 하프-프레임(Half-Frame, HF)으로 정의될 수 있다. 하프-프레임은 5개의 1ms 서브프레임(Subframe, SF)을 포함할 수 있다. 서브프레임은 하나 이상의 슬롯으로 분할될 수 있으며, 서브프레임 내 슬롯 개수는 부반송파 간격(Subcarrier Spacing, SCS)에 따라 결정될 수 있다. 각 슬롯은 CP(cyclic prefix)에 따라 12개 또는 14개의 OFDM(A) 심볼을 포함할 수 있다.
노멀 CP(normal CP)가 사용되는 경우, 각 슬롯은 14개의 심볼을 포함할 수 있다. 확장 CP가 사용되는 경우, 각 슬롯은 12개의 심볼을 포함할 수 있다. 여기서, 심볼은 OFDM 심볼 (또는, CP-OFDM 심볼), SC-FDMA 심볼 (또는, DFT-s-OFDM 심볼)을 포함할 수 있다.
다음 표 1은 노멀 CP가 사용되는 경우, SCS 설정(μ)에 따라 슬롯 별 심볼의 개수(
Figure PCTKR2021005463-appb-img-000001
), 프레임 별 슬롯의 개수(
Figure PCTKR2021005463-appb-img-000002
)와 서브프레임 별 슬롯의 개수(
Figure PCTKR2021005463-appb-img-000003
)를 예시한다.
Figure PCTKR2021005463-appb-img-000004
표 2는 확장 CP가 사용되는 경우, SCS에 따라 슬롯 별 심볼의 개수, 프레임 별 슬롯의 개수와 서브프레임 별 슬롯의 개수를 예시한다.
Figure PCTKR2021005463-appb-img-000005
NR 시스템에서는 하나의 단말에게 병합되는 복수의 셀들간에 OFDM(A) 뉴머놀로지(numerology)(예, SCS, CP 길이 등)가 상이하게 설정될 수 있다. 이에 따라, 동일한 개수의 심볼로 구성된 시간 자원(예, 서브프레임, 슬롯 또는 TTI)(편의상, TU(Time Unit)로 통칭)의 (절대 시간) 구간이 병합된 셀들간에 상이하게 설정될 수 있다.
NR에서, 다양한 5G 서비스들을 지원하기 위한 다수의 뉴머놀로지(numerology) 또는 SCS가 지원될 수 있다. 예를 들어, SCS가 15kHz인 경우, 전통적인 셀룰러 밴드들에서의 넓은 영역(wide area)이 지원될 수 있고, SCS가 30kHz/60kHz인 경우, 밀집한-도시(dense-urban), 더 낮은 지연(lower latency) 및 더 넓은 캐리어 대역폭(wider carrier bandwidth)이 지원될 수 있다. SCS가 60kHz 또는 그보다 높은 경우, 위상 잡음(phase noise)을 극복하기 위해 24.25GHz보다 큰 대역폭이 지원될 수 있다.
NR 주파수 밴드(frequency band)는 두 가지 타입의 주파수 범위(frequency range)로 정의될 수 있다. 상기 두 가지 타입의 주파수 범위는 FR1 및 FR2일 수 있다. 주파수 범위의 수치는 변경될 수 있으며, 예를 들어, 상기 두 가지 타입의 주파수 범위는 하기 표 3과 같을 수 있다. NR 시스템에서 사용되는 주파수 범위 중 FR1은 “sub 6GHz range”를 의미할 수 있고, FR2는 “above 6GHz range”를 의미할 수 있고 밀리미터 웨이브(millimeter wave, mmW)로 불릴 수 있다.
Figure PCTKR2021005463-appb-img-000006
상술한 바와 같이, NR 시스템의 주파수 범위의 수치는 변경될 수 있다. 예를 들어, FR1은 하기 표 4와 같이 410MHz 내지 7125MHz의 대역을 포함할 수 있다. 즉, FR1은 6GHz (또는 5850, 5900, 5925 MHz 등) 이상의 주파수 대역을 포함할 수 있다. 예를 들어, FR1 내에서 포함되는 6GHz (또는 5850, 5900, 5925 MHz 등) 이상의 주파수 대역은 비면허 대역(unlicensed band)을 포함할 수 있다. 비면허 대역은 다양한 용도로 사용될 수 있고, 예를 들어 차량을 위한 통신(예를 들어, 자율주행)을 위해 사용될 수 있다.
Figure PCTKR2021005463-appb-img-000007
도 7은 본 개시의 일 실시 예에 따른, NR 프레임의 슬롯 구조를 나타낸다.
도 7을 참조하면, 슬롯은 시간 영역에서 복수의 심볼들을 포함한다. 예를 들어, 노멀 CP의 경우 하나의 슬롯이 14개의 심볼을 포함하나, 확장 CP의 경우 하나의 슬롯이 12개의 심볼을 포함할 수 있다. 또는 노멀 CP의 경우 하나의 슬롯이 7개의 심볼을 포함하나, 확장 CP의 경우 하나의 슬롯이 6개의 심볼을 포함할 수 있다.
반송파는 주파수 영역에서 복수의 부반송파들을 포함한다. RB(Resource Block)는 주파수 영역에서 복수(예를 들어, 12)의 연속한 부반송파로 정의될 수 있다. BWP(Bandwidth Part)는 주파수 영역에서 복수의 연속한 (P)RB((Physical) Resource Block)로 정의될 수 있으며, 하나의 뉴머놀로지(numerology)(예, SCS, CP 길이 등)에 대응될 수 있다. 반송파는 최대 N개(예를 들어, 5개)의 BWP를 포함할 수 있다. 데이터 통신은 활성화된 BWP를 통해서 수행될 수 있다. 각각의 요소는 자원 그리드에서 자원요소(Resource Element, RE)로 지칭될 수 있고, 하나의 복소 심볼이 맵핑될 수 있다.
한편, 단말과 단말 간 무선 인터페이스 또는 단말과 네트워크 간 무선 인터페이스는 L1 계층, L2 계층 및 L3 계층으로 구성될 수 있다. 본 개시의 다양한 실시 예에서, L1 계층은 물리(physical) 계층을 의미할 수 있다. 또한, 예를 들어, L2 계층은 MAC 계층, RLC 계층, PDCP 계층 및 SDAP 계층 중 적어도 하나를 의미할 수 있다. 또한, 예를 들어, L3 계층은 RRC 계층을 의미할 수 있다.
이하, V2X 또는 SL(sidelink) 통신에 대하여 설명한다.
도 8은 본 개시의 일 실시 예에 따른, SL 통신을 위한 무선 프로토콜 구조(radio protocol architecture)를 나타낸다. 구체적으로, 도 8의 (a)는 LTE의 사용자 평면 프로토콜 스택을 나타내고, 도 8의 (b)는 LTE의 제어 평면 프로토콜 스택을 나타낸다.
도 9는 본 개시의 일 실시 예에 따른, SL 통신을 위한 무선 프로토콜 구조(radio protocol architecture)를 나타낸다. 구체적으로, 도 9의 (a)는 NR의 사용자 평면 프로토콜 스택을 나타내고, 도 9의 (b)는 NR의 제어 평면 프로토콜 스택을 나타낸다.
이하, SL에서 자원 할당(resource allocation)에 대하여 설명한다.
도 10는 본 개시의 일 실시 예에 따라, 단말이 전송 모드에 따라 V2X 또는 SL 통신을 수행하는 절차를 나타낸다. 본 개시의 다양한 실시 예에서, 전송 모드는 모드 또는 자원 할당 모드라고 칭할 수 있다. 이하, 설명의 편의를 위해, LTE에서 전송 모드는 LTE 전송 모드라고 칭할 수 있고, NR에서 전송 모드는 NR 자원 할당 모드라고 칭할 수 있다.
예를 들어, 도 10의 (a)는 LTE 전송 모드 1 또는 LTE 전송 모드 3과 관련된 단말 동작을 나타낸다. 또는, 예를 들어, 도 10의 (a)는 NR 자원 할당 모드 1과 관련된 단말 동작을 나타낸다. 예를 들어, LTE 전송 모드 1은 일반적인 SL 통신에 적용될 수 있고, LTE 전송 모드 3은 V2X 통신에 적용될 수 있다.
예를 들어, 도 10의 (b)는 LTE 전송 모드 2 또는 LTE 전송 모드 4와 관련된 단말 동작을 나타낸다. 또는, 예를 들어, 도 10의 (b)는 NR 자원 할당 모드 2와 관련된 단말 동작을 나타낸다.
도 10의 (a)를 참조하면, LTE 전송 모드 1, LTE 전송 모드 3 또는 NR 자원 할당 모드 1에서, 기지국은 SL 전송을 위해 단말에 의해 사용될 SL 자원을 스케줄링할 수 있다. 예를 들어, 기지국은 단말 1에게 PDCCH(보다 구체적으로 DCI(Downlink Control Information))를 통해 자원 스케줄링을 수행할 수 있고, 단말 1은 상기 자원 스케줄링에 따라 단말 2와 V2X 또는 SL 통신을 수행할 수 있다. 예를 들어, 단말 1은 PSCCH(Physical Sidelink Control Channel)를 통해 SCI(Sidelink Control Information)를 단말 2에게 전송한 후, 상기 SCI에 기반한 데이터를 PSSCH(Physical Sidelink Shared Channel)를 통해 단말 2에게 전송할 수 있다.
예를 들어, NR 자원 할당 모드 1에서, 단말은 동적 그랜트(dynamic grant)를 통해 하나의 TB(Transport Block)의 하나 이상의 SL 전송을 위한 자원을 기지국으로부터 제공 또는 할당받을 수 있다. 예를 들어, 기지국은 동적 그랜트를 이용하여 PSCCH 및/또는 PSSCH의 전송을 위한 자원을 단말에게 제공할 수 있다. 예를 들어, 전송 단말은 수신 단말로부터 수신한 SL HARQ(Hybrid Automatic Repeat Request) 피드백을 기지국에게 보고할 수 있다. 이 경우, 기지국이 SL 전송을 위한 자원을 할당하기 위한 PDCCH 내의 지시(indication)를 기반으로, SL HARQ 피드백을 기지국에게 보고하기 위한 PUCCH 자원 및 타이밍(timing)이 결정될 수 있다.
예를 들어, DCI는 DCI 수신과 DCI에 의해 스케줄링된 첫 번째 SL 전송 사이의 슬롯 오프셋을 나타낼 수 있다. 예를 들어, SL 전송 자원을 스케줄링하는 DCI와 첫 번째 스케줄링된 SL 전송 자원 사이의 최소 갭은 해당 단말의 처리 시간(processing time)보다 작지 않을 수 있다.
예를 들어, NR 자원 할당 모드 1에서, 단말은 설정된 그랜트(configured grant)를 통해 복수의 SL 전송을 위해 주기적으로 자원 세트를 기지국으로부터 제공 또는 할당받을 수 있다. 예를 들어, 상기 설정될 그랜트는 설정된 그랜트 타입 1 또는 설정된 그랜트 타입 2를 포함할 수 있다. 예를 들어, 단말은 주어진 설정된 그랜트(given configured grant)에 의해 지시되는 각각의 경우(occasions)에서 전송할 TB를 결정할 수 있다.
예를 들어, 기지국은 동일한 캐리어 상에서 SL 자원을 단말에게 할당할 수 있고, 서로 다른 캐리어 상에서 SL 자원을 단말에게 할당할 수 있다.
예를 들어, NR 기지국은 LTE 기반의 SL 통신을 제어할 수 있다. 예를 들어, NR 기지국은 LTE SL 자원을 스케줄링하기 위해 NR DCI를 단말에게 전송할 수 있다. 이 경우, 예를 들어, 상기 NR DCI를 스크램블하기 위한 새로운 RNTI가 정의될 수 있다. 예를 들어, 상기 단말은 NR SL 모듈 및 LTE SL 모듈을 포함할 수 있다.
예를 들어, NR SL 모듈 및 LTE SL 모듈을 포함하는 단말이 gNB로부터 NR SL DCI를 수신한 후, NR SL 모듈은 NR SL DCI를 LTE DCI 타입 5A로 변환할 수 있고, NR SL 모듈은 X ms 단위로 LTE SL 모듈에 LTE DCI 타입 5A를 전달할 수 있다. 예를 들어, LTE SL 모듈이 NR SL 모듈로부터 LTE DCI 포맷 5A를 수신한 후, LTE SL 모듈은 Z ms 후에 첫 번째 LTE 서브프레임에 활성화 및/또는 해제를 적용할 수 있다. 예를 들어, 상기 X는 DCI의 필드를 사용하여 동적으로 표시될 수 있다. 예를 들어, 상기 X의 최솟값은 단말 능력(UE capability)에 따라 상이할 수 있다. 예를 들어, 단말은 단말 능력에 따라 하나의 값(single value)을 보고할 수 있다. 예를 들어, 상기 X는 양수일 수 있다.
도 10의 (b)를 참조하면, LTE 전송 모드 2, LTE 전송 모드 4 또는 NR 자원 할당 모드 2에서, 단말은 기지국/네트워크에 의해 설정된 SL 자원 또는 미리 설정된 SL 자원 내에서 SL 전송 자원을 결정할 수 있다. 예를 들어, 상기 설정된 SL 자원 또는 미리 설정된 SL 자원은 자원 풀일 수 있다. 예를 들어, 단말은 자율적으로 SL 전송을 위한 자원을 선택 또는 스케줄링할 수 있다. 예를 들어, 단말은 설정된 자원 풀 내에서 자원을 스스로 선택하여, SL 통신을 수행할 수 있다. 예를 들어, 단말은 센싱(sensing) 및 자원 (재)선택 절차를 수행하여, 선택 윈도우 내에서 스스로 자원을 선택할 수 있다. 예를 들어, 상기 센싱은 서브채널 단위로 수행될 수 있다. 그리고, 자원 풀 내에서 자원을 스스로 선택한 단말 1은 PSCCH를 통해 SCI를 단말 2에게 전송한 후, 상기 SCI에 기반한 데이터를 PSSCH를 통해 단말 2에게 전송할 수 있다.
예를 들어, 단말은 다른 단말에 대한 SL 자원 선택을 도울 수 있다. 예를 들어, NR 자원 할당 모드 2에서, 단말은 SL 전송을 위한 설정된 그랜트(configured grant)를 설정받을 수 있다. 예를 들어, NR 자원 할당 모드 2에서, 단말은 다른 단말의 SL 전송을 스케줄링할 수 있다. 예를 들어, NR 자원 할당 모드 2에서, 단말은 블라인드 재전송을 위한 SL 자원을 예약할 수 있다.
예를 들어, NR 자원 할당 모드 2에서, 제 1 단말은 SCI를 이용하여 SL 전송의 우선 순위를 제 2 단말에게 지시할 수 있다. 예를 들어, 제 2 단말은 상기 SCI를 디코딩할 수 있고, 제 2 단말은 상기 우선 순위를 기반으로 센싱 및/또는 자원 (재)선택을 수행할 수 있다. 예를 들어, 상기 자원(재)선택 절차는, 제 2 단말이 자원 선택 윈도우에서 후보 자원을 식별하는 단계 및 제 2 단말이 식별된 후보 자원 중에서 (재)전송을 위한 자원을 선택하는 단계를 포함할 수 있다. 예를 들어, 자원 선택 윈도우는 단말이 SL 전송을 위한 자원을 선택하는 시간 간격(time interval)일 수 있다. 예를 들어, 제 2 단말이 자원 (재)선택을 트리거한 이후, 자원 선택 윈도우는 T1 ≥ 0에서 시작할 수 있고, 자원 선택 윈도우는 제 2 단말의 남은 패킷 지연 버짓(remaining packet delay budget)에 의해 제한될 수 있다. 예를 들어, 제 2 단말이 자원 선택 윈도우에서 후보 자원을 식별하는 단계에서, 제 2 단말이 제 1 단말로부터 수신한 SCI에 의해 특정 자원이 지시되고 및 상기 특정 자원에 대한 L1 SL RSRP 측정값이 SL RSRP 임계값을 초과하면, 상기 제 2 단말은 상기 특정 자원을 후보 자원으로 결정하지 않을 수 있다. 예를 들어, SL RSRP 임계값은 제 2 단말이 제 1 단말로부터 수신한 SCI에 의해 지시되는 SL 전송의 우선 순위 및 제 2 단말이 선택한 자원 상에서 SL 전송의 우선 순위를 기반으로 결정될 수 있다.
예를 들어, 상기 L1 SL RSRP는 SL DMRS(Demodulation Reference Signal)를 기반으로 측정될 수 있다. 예를 들어, 자원 풀 별로 시간 영역에서 하나 이상의 PSSCH DMRS 패턴이 설정되거나 사전에 설정될 수 있다. 예를 들어, PDSCH DMRS 설정 타입 1 및/또는 타입 2는 PSSCH DMRS의 주파수 영역 패턴과 동일 또는 유사할 수 있다. 예를 들어, 정확한 DMRS 패턴은 SCI에 의해 지시될 수 있다. 예를 들어, NR 자원 할당 모드 2에서, 전송 단말은 자원 풀에 대하여 설정된 또는 사전에 설정된 DMRS 패턴 중에서 특정 DMRS 패턴을 선택할 수 있다.
예를 들어, NR 자원 할당 모드 2에서, 센싱 및 자원 (재)선택 절차를 기반으로, 전송 단말은 예약 없이 TB(Transport Block)의 초기 전송을 수행할 수 있다. 예를 들어, 센싱 및 자원 (재)선택 절차를 기반으로, 전송 단말은 제 1 TB와 연관된 SCI를 이용하여 제 2 TB의 초기 전송을 위한 SL 자원을 예약할 수 있다.
예를 들어, NR 자원 할당 모드 2에서, 단말은 동일한 TB(Transport Block)의 이전 전송과 관련된 시그널링을 통해, 피드백 기반의 PSSCH 재전송을 위한 자원을 예약할 수 있다. 예를 들어, 현재 전송을 포함하여 하나의 전송에 의해 예약되는 SL 자원의 최대 개수는 2개, 3개 또는 4개일 수 있다. 예를 들어, 상기 SL 자원의 최대 개수는 HARQ 피드백이 인에이블되는지 여부와 관계 없이 동일할 수 있다. 예를 들어, 하나의 TB에 대한 최대 HARQ (재)전송 횟수는 설정 또는 사전 설정에 의해 제한될 수 있다. 예를 들어, 최대 HARQ (재)전송 횟수는 최대 32일 수 있다. 예를 들어, 상기 설정 또는 사전 설정이 없으면, 최대 HARQ (재)전송 횟수는 지정되지 않은 것일 수 있다. 예를 들어, 상기 설정 또는 사전 설정은 전송 단말을 위한 것일 수 있다. 예를 들어, NR 자원 할당 모드 2에서, 단말이 사용하지 않는 자원을 해제하기 위한 HARQ 피드백이 지원될 수 있다.
예를 들어, NR 자원 할당 모드 2에서, 단말은 SCI를 이용하여 상기 단말에 의해 사용되는 하나 이상의 서브채널 및/또는 슬롯을 다른 단말에게 지시할 수 있다. 예를 들어, 단말은 SCI를 이용하여 PSSCH (재)전송을 위해 상기 단말에 의해 예약된 하나 이상의 서브채널 및/또는 슬롯을 다른 단말에게 지시할 수 있다. 예를 들어, SL 자원의 최소 할당 단위는 슬롯일 수 있다. 예를 들어, 서브채널의 사이즈는 단말에 대하여 설정되거나 미리 설정될 수 있다.
이하, SCI(Sidelink Control Information)에 대하여 설명한다.
기지국이 PDCCH를 통해 단말에게 전송하는 제어 정보를 DCI(Downlink Control Information)라 칭하는 반면, 단말이 PSCCH를 통해 다른 단말에게 전송하는 제어 정보를 SCI라 칭할 수 있다. 예를 들어, 단말은 PSCCH를 디코딩하기 전에, PSCCH의 시작 심볼 및/또는 PSCCH의 심볼 개수를 알고 있을 수 있다. 예를 들어, SCI는 SL 스케줄링 정보를 포함할 수 있다. 예를 들어, 단말은 PSSCH를 스케줄링하기 위해 적어도 하나의 SCI를 다른 단말에게 전송할 수 있다. 예를 들어, 하나 이상의 SCI 포맷(format)이 정의될 수 있다.
예를 들어, 전송 단말은 PSCCH 상에서 SCI를 수신 단말에게 전송할 수 있다. 수신 단말은 PSSCH를 전송 단말로부터 수신하기 위해 하나의 SCI를 디코딩할 수 있다.
예를 들어, 전송 단말은 PSCCH 및/또는 PSSCH 상에서 두 개의 연속적인 SCI(예를 들어, 2-stage SCI)를 수신 단말에게 전송할 수 있다. 수신 단말은 PSSCH를 전송 단말로부터 수신하기 위해 두 개의 연속적인 SCI(예를 들어, 2-stage SCI)를 디코딩할 수 있다. 예를 들어, (상대적으로) 높은 SCI 페이로드(payload) 크기를 고려하여 SCI 구성 필드들을 두 개의 그룹으로 구분한 경우에, 제 1 SCI 구성 필드 그룹을 포함하는 SCI를 제 1 SCI 또는 1st SCI라고 칭할 수 있고, 제 2 SCI 구성 필드 그룹을 포함하는 SCI를 제 2 SCI 또는 2nd SCI라고 칭할 수 있다. 예를 들어, 전송 단말은 PSCCH를 통해서 제 1 SCI를 수신 단말에게 전송할 수 있다. 예를 들어, 전송 단말은 PSCCH 및/또는 PSSCH 상에서 제 2 SCI를 수신 단말에게 전송할 수 있다. 예를 들어, 제 2 SCI는 (독립된) PSCCH를 통해서 수신 단말에게 전송되거나, PSSCH를 통해 데이터와 함께 피기백되어 전송될 수 있다. 예를 들어, 두 개의 연속적인 SCI는 서로 다른 전송(예를 들어, 유니캐스트(unicast), 브로드캐스트(broadcast) 또는 그룹캐스트(groupcast))에 대하여 적용될 수도 있다.
예를 들어, 전송 단말은 SCI를 통해서, 아래 정보 중에 일부 또는 전부를 수신 단말에게 전송할 수 있다. 여기서, 예를 들어, 전송 단말은 아래 정보 중에 일부 또는 전부를 제 1 SCI 및/또는 제 2 SCI를 통해서 수신 단말에게 전송할 수 있다.
- PSSCH 및/또는 PSCCH 관련 자원 할당 정보, 예를 들어, 시간/주파수 자원 위치/개수, 자원 예약 정보(예를 들어, 주기), 및/또는
- SL CSI 보고 요청 지시자 또는 SL (L1) RSRP (및/또는 SL (L1) RSRQ 및/또는 SL (L1) RSSI) 보고 요청 지시자, 및/또는
- (PSSCH 상의) SL CSI 전송 지시자 (또는 SL (L1) RSRP (및/또는 SL (L1) RSRQ 및/또는 SL (L1) RSSI) 정보 전송 지시자), 및/또는
- MCS 정보, 및/또는
- 전송 전력 정보, 및/또는
- L1 데스티네이션(destination) ID 정보 및/또는 L1 소스(source) ID 정보, 및/또는
- SL HARQ 프로세스(process) ID 정보, 및/또는
- NDI(New Data Indicator) 정보, 및/또는
- RV(Redundancy Version) 정보, 및/또는
- (전송 트래픽/패킷 관련) QoS 정보, 예를 들어, 우선 순위 정보, 및/또는
- SL CSI-RS 전송 지시자 또는 (전송되는) SL CSI-RS 안테나 포트의 개수 정보
- 전송 단말의 위치 정보 또는 (SL HARQ 피드백이 요청되는) 타겟 수신 단말의 위치 (또는 거리 영역) 정보, 및/또는
- PSSCH를 통해 전송되는 데이터의 디코딩 및/또는 채널 추정과 관련된 참조 신호(예를 들어, DMRS 등) 정보, 예를 들어, DMRS의 (시간-주파수) 맵핑 자원의 패턴과 관련된 정보, 랭크(rank) 정보, 안테나 포트 인덱스 정보;
예를 들어, 제 1 SCI는 채널 센싱과 관련된 정보를 포함할 수 있다. 예를 들어, 수신 단말은 PSSCH DMRS를 이용하여 제 2 SCI를 디코딩할 수 있다. PDCCH에 사용되는 폴라 코드(polar code)가 제 2 SCI에 적용될 수 있다. 예를 들어, 자원 풀에서, 제 1 SCI의 페이로드 사이즈는 유니캐스트, 그룹캐스트 및 브로드캐스트에 대하여 동일할 수 있다. 제 1 SCI를 디코딩한 이후에, 수신 단말은 제 2 SCI의 블라인드 디코딩을 수행할 필요가 없다. 예를 들어, 제 1 SCI는 제 2 SCI의 스케줄링 정보를 포함할 수 있다.
한편, 본 개시의 다양한 실시 예에서, 전송 단말은 PSCCH를 통해 SCI, 제 1 SCI 및/또는 제 2 SCI 중 적어도 어느 하나를 수신 단말에게 전송할 수 있으므로, PSCCH는 SCI, 제 1 SCI 및/또는 제 2 SCI 중 적어도 어느 하나로 대체/치환될 수 있다. 그리고/또는, 예를 들어, SCI는 PSCCH, 제 1 SCI 및/또는 제 2 SCI 중 적어도 어느 하나로 대체/치환될 수 있다. 그리고/또는, 예를 들어, 전송 단말은 PSSCH를 통해 제 2 SCI를 수신 단말에게 전송할 수 있으므로, PSSCH는 제 2 SCI로 대체/치환될 수 있다.
한편, 특정 대상과 관련된 정보, 일례로 위치 정보 등을 측정함에 있어서 복수의 개체가 해당 대상을 관측하는 경우, 개체 별로 서로 다른 측정 오차값을 갖을 수 있으며 그 중의 특정 측정값은 오차범위가 작거나 혹은 신뢰성이 높은 데이터일 수 있다. 혹은 동일한 통계적 특성 (예를 들어, 오차범위) 을 갖는 측정값들 일지라도 많은 표본들을 취하여 데이터 처리를 해주면 오차범위를 줄여 신뢰성이 높은 데이터를 획득할 수도 있다. 따라서 측정값들을 참조하여 특정 개체의 존재/검출 여부를 판단하는데 사용하거나 혹은 더 나은 성능의 측위가 가능할 수 있다.
차량과 같은 road user 혹은 혹은 RSU와 같은 infra structure 등이 V2X 메시지 (예를 들어, VRU, pedestrian 관련) 를 주변의 road user (예를 들어, 대상이 되는 VRU, pedestrian 혹은 주변의 vehicle, 등) 혹은 주변의 상위 네트워크 (예를 들어, eNB, V2X 서버등 등이 수집하여 분배)로부터 수신하는데 이 메시지에는 일례로 대상이 되는 특정 road user (예를 들어, VRU, pedestrian)의 위치 정보 등이 포함되어 있을 수 있다. 이 때 상기 위치정보는 상기 특정 road user가 GNSS 정보를 통해 획득한 정보를 해당 road user로부터 직접 혹은 네트워크를 통해 전달받은 것일 때, 해당 V2X 메시지에는 GNSS 수신기의 측정 오차가 포함되어 있을 수 있다. 특정 road user 혹은 infra structure에 상기 road user의 위치를 검출할 수 있는 장치가 존재하는 경우 해당 road user의 위치를 검출하여 수신한 정보와 비교해 볼 수 있을 것이다. 그 결과 자신이 카메라 혹은 기타 ADAS 센서, device 등을 통해 직접 detection한 정보와 차이가 나는 경우 (최소한) 수신정보와 검출정보를 비교하여 다시 feedback (송신해준 곳) 하거나 혹은 주변 road user에게 수정된 정보를 전달하도록 한다. 또는, 상기 RSU는 특정 UE 또는 VRU의 PSM을 수신한 경우, 상기 RSU에 포함된 검출 장치로부터 획득한 상기 특정 UE 또는 VRU의 위치 정보에 기초하여 상기 수신된 PSM에 포함된 위치 정보를 보정하여 주변 VRU, 주변 UE 또는 네트워크에 알리거나 feedback 할 수 있다. 여기서, RSU는 사이드링크 신호인 PSCCH, PSSCH 등을 통해 주변 VRU들에게 상기 보정된 위치 정보를 전송할 수 있다.
이하에서는 상기 설명의 구체적인 예시로써, RSU 기반의 VRU 검출에 대해 설명한다. 이하에서는 검출 및 보정된 VRU의 정보에 대해 전송하는 방식의 일 실시예로서 PSM 메시지의 특정 필드에 관련 정보를 도출하고 매핑하여 전송하는 방식을 나타내고 있다. 단, 상기 VRU 관련 메시지의 전송은 PSM 메시지로 한정되지 않고 VAM, CPM, 혹은 기타 다른 형태의 V2X 메시지 등 VRU의 정보를 이용하거나 혹은 전파할 수 있는 어떠한 형태의 메시지에도 실려서 전송될 수 있다
RSU는 VRU나 차량과 같은 도로 사용자들과 V2X 전용 스펙트럼을 통해 direct 통신 (e.g. PC5 interface)을 수행할 수 있는 infra-structure로서, VRU와 차량 (혹은 다른 도로 사용자) 간의 충돌을 감지 및 예측하고, 통신 장비를 갖지 않은 VRU를 검출하는 기능을 기반으로 VRU의 보호를 개선하는데 사용될 수 있다. 또한 수집한 도로 사용자들의 정보를 셀룰러 스펙트럼을 통해 기지국에 전송 (e.g. Uu interface)하고 해당 정보를 상위의 V2X 서버가 처리하도록 하여 주변 도로 사용자들이 안전 메시지에 관한 정보를 받도록 할 수도 있다. 이를 위해 RSU는 도로 상에서 VRU 근처 혹은 VRU 밀집 지역 등에 위치할 수 있다. 이 때 RSU는 카메라를 장착하여 VRU를 검출하거나 VRU가 전송한 메시지를 수신하고 주변 도로 사용자에게 전달하는 역할을 할 수 있다.
일 실시예에 의한 RSU는 VRU의 PSM 메시지(또는 Collective Perception Message (CPM), 기타 V2X 메시지 등)를 수신(도 11의 S1101)하고, 영상 정보를 통해 획득한 상기 VRU의 제1 위치 정보와 상기 PSM 메시지를 통해 획득한 상기 VRU의 제2 위치 정보에 기초하여 상기 VRU의 위치 정보를 결정(도 11의 S1102)할 수 있다. 이 VRU의 위치 정보를 상기 RSU가 상기 VRU에게 전송(도 11의 S1103)할 수 있다.
상기 VRU의 위치 정보는 다른 VRU 또는 RSU에게도 제공될 수 있다. 여기서 VRU의 위치 정보는 보정 레벨 혹은 신뢰도에 상응하는 값을 포함할 수 있다. 여기서 보정 레벨 또는 신뢰도에 상응하는 값은, PSM 정보 대비 영상 정보로부터 획득한 위치 정보의 비율 혹은 가중치 레벨, 혹은 이에 상응하는 값 또는 후술하는 보정된 위치 정보의 accuracy에 관련된 정보일 수 있다. 예를 들어, 상기 VRU의 위치 정보는 위치 결정에 사용된 상기 제2 위치정보에 대한 상기 제1 위치정보의 가중치 정보를 포함할 수 있다
또한, 상기 VRU의 위치 정보 또는 보정 전에 각 주체 사이에서 교환되는 위치정보는, 획득한 위치 정보의 소스(예를 들어, 다른 RSU로부터 획득한 대상 VRU에 대한 위치 정보, 직접 획득한 대상 VRU에 대한 위치 정보, 다른 VRU로 부터 획득한 대상 VRU에 대한 위치 정보 등) 관련 정보를 포함할 수 있다
상기 예에서 PSM 메시지는 보행자와 같은 VRU 혹은 차량 운전자가 아닌 도로 사용자들이 주변에 전파하는 메시지로서, 상기 도로 사용자들의 이동 상태 (위치, 속도, 방향 등) 및 그와 관련된 정보 (path history, 위치 오차 등)들을 포함하는 안전 데이터를 브로드캐스트 하는데 사용된다. 특히 주변 차량들에게 전송되어, 운전자의 육안이나 자동차의 센서 등으로 감지하기 어려운 도로 사용자들의 존재를 파악하고 주의를 환기시키기 위한 경고메시지 용도로서 사용되며, PSM 메시지 상의 다양한 정보들을 통해 도로사용자의 이동경로 예측, 밀집도 파악 등의 추가적인 기능을 수행할 수도 있다.
상기 예에서 VRU는 교통약자를 뜻하는, 차량 운전자가 아닌 도로 사용자로서 EC (European Commission, 유럽 위원회) ITS 지침에서는 보행자, 자전거 사용자, 오토바이 운전자 및 장애인 또는 거동이 불편한 사람과 같은 무동력 도로 사용자로 정의된다. VRU는 V2X와 같은 통신 장비를 가지고 있을 수도 있고 그렇지 않을 수도 있다. 통신 장비를 가지고 있는 VRU들 중에서 GNSS(또는 GPS)를 가지고 있는 VRU는 이를 통해 자신의 위치를 측정할 수 있다. 이 경우, 상기 PSM 메시지는 상기 VRU가 GNSS를 통해 획득한 위치 정보를 포함할 수 있다. GNSS가 없는 VRU는, 자신의 위치를 RSU, VRU 또는 기지국을 통해 자신의 위치를 알 수도 있다. 이러한 VRU의 경우 상기 PSM 메시지는 상기 VRU가 다른 RSU, 다른 VRU 또는 기지국을 통해 획득한 위치 정보를 포함할 수 있다. 일례로 도 12에서 VRU는 GNSS로부터 위치 정보 및 위치 오차 정보를 수신 (혹은 위치 오차 정보는 수신하는 GNSS 서비스 혹은 위성의 종류 등에 따라 기결정된 것일 수 있다.) 하고 주변에 전파할 수 있으며 이 정보가 주변의 RSU에게 직접 혹은 네트워크 등을 통해 전달될 수 있다. VRU가 GNSS 등을 통해 측정한 위치 정보를 주변 road user (PC5) 그리고/혹은 네트워크 (Uu interface) 에 PSM 메시지를 통해 전송하는데 이 때 GNSS를 통해 측정되는 결과는 application 등을 통해 보정할 수도 있지만 일반적으로 (개인 통신용 디바이스 기준) 약 10m 정도 level의 오차 범위를 가정해 볼 수 있다.
상기 영상 정보는 상기 RSU가 관찰 영역에서 촬영한 것일 수 있으며, 상기 영상 정보는 다른 RSU와 공유될 수 있다. 여기서 RSU는 영상 정보를 획득하고 처리하는 기능을 포함하는 RSU로, 영상 정보를 기반으로 위치 정보를 추출하고 활용하는 능력을 보유한 것일 수 있다. 이를 위해, RSU는 직접 영상 촬영을 위한 카메라/캠코더 등의 장치와 영상처리장치를 포함하거나, 이러한 장치들로부터 유/무선으로 연결되어 있는 것일 수 있다. 도 12를 참조하면, RSU는 설치된 위치 등을 상대적인 측위의 기준점으로 사용할 수 있으며, RSU에 설치된 카메라의 영상으로부터 상기 VRU가 검출된 경우 미리 설정된 정보 등을 통해 VRU의 상대위치를 파악할 수 있다. 상기 기준점의 위치 및 VRU의 상대위치 정보를 조합하여 해당 VRU의 위치 정보를 획득할 수 있는 것이다. 이렇게 검출 및 획득한 VRU의 위치 정보와 V2X 메시지를 통해 수신한 VRU의 위치 정보를 비교하여 VRU 검출 그리고/혹은 VRU positioning의 정확성을 높일 수 있다.
상기 VRU의 제1 위치 정보는 영상 정보를 통해 획득한 것이다. RSU는 도로의 노변 등의 고정된 위치에 설치되어 있으며, RSU에 달려 있는 카메라를 통해 촬영된 영상에서 각 픽셀이 가리키는 위치의 값은 정해져 있다. 즉, 영상이 찍힌 위치의 pixel값을 알면 위치 값도 알 수 있는 것이다. 단 카메라와의 거리 등에 따라 해상도가 달라질 수 있으므로 위치 값의 오차 역시 달라질 수 있다. 즉 카메라가 top view를 촬영한 것이 아니라면 각 픽셀별로 오차 범위가 달라지는 것이다.
일례로 RSU 카메라의 (수평) 화각 120도이며, 16:9 비율의 이미지센서 및 display가 장착되어 있고 display (편의상 이미지센서와 동일한 화소로 가정)의 해상도는 HD (1280 X 720)이며 지표면으로부터 5m의 높이에 45도의 tilt 각도로 지면을 향하도록 설치된 경우, display의 가장 윗줄에서는 508m의 거리에 있는 피사체를 표시해주며 한 픽셀당 1m (가로) X 63m (세로)의 길이를 나타낸다. 한편 중간지점인 360번째 pixel에 해당하는 줄에서는 5m의 거리에 있는 피사체를 표시해주며 한 픽셀당 1.9cm (가로) X 2.7cm (세로)의 길이를 나타낸다. 또한 가장 아래 부분인 720번째 pixel에 해당하는 줄에서는 상기 카메라로부터 5.6cm의 거리에 있는 피사체를 표시해주며 한 픽셀당 0.97cm (가로) X 0.7cm (세로)의 길이를 나타낸다.
즉, VRU의 (중심점)의 위치를 특정 pixel 혹은 특정 pixel(들)과 또 다른 pixel(들) 사이의 특정 지점으로 결정할 수 있을 때, detection 오차는 상기의 결과와 같이 픽셀의 위치 특히 VRU와의 거리를 결정해주는 수직방향의 pixel 위치 (줄, row)에 따라 달라질 수 있는 것이다. 혹은 상기 RSU 카메라를 통해 RSU는 주변의 VRU들을 detection 할 때, 이미지 센서, 즉 카메라 (렌즈) 와 VRU의 거리가 가까울수록 영상의 resolution이 더 세밀하고 (한 pixel이 더 작은 영역의 정보를 담고 있음) VRU의 위치 오차도 더욱 작으며 반대로 카메라 (렌즈) 와 VRU의 거리가 멀수록 영상의 resolution이 더 coarse하고 (한 pixel이 더 많은 영역의 정보를 담고 있음) VRU의 위치 오차도 더욱 커지게 된다.
RSU가 도 12에 예시된 바와 같이 카메라 영상 등을 통해 큰 오차로 VRU의 위치를 검출 하거나 (먼 거리), 혹은 GNSS 기반의 위치 측정 대비 작은 오차로 VRU의 위치를 검출할 수도 있다 (가까운 거리). 혹은 RSU가 VRU와 관련된 PSM 메시지를 수신 받았으나 영상 속에서 VRU를 검출하지 못할 수도 있고 검출 환경의 특성상 VRU가 정확히 검출되지 않을 수도 있다. 일례로 일몰 후 어두운 환경에서 적외선 카메라 렌즈 등을 갖추지 않은 RSU 카메라가 어두운 옷을 입은 VRU를 검출하려고 할 때 정확히 검출되지 않을 수도 있다.
계속해서, 앞서 설명된 바와 같이, 영상 정보를 통해 획득한 상기 VRU의 제1 위치 정보와 상기 PSM 메시지를 통해 획득한 상기 VRU의 제2 위치 정보에 기초하여 상기 VRU의 위치 정보를 결정되는데, 이에 대해 도 13을 참조하여, 상세히 살펴본다.
상기 제1 위치 정보와 상기 제2 위치 정보는 오차 범위를 가지게 되는데, 위치 정보가 생성된 방식들에 따라 그 값이 다를 경우 더 작은 오차 범위를 갖는 데이터가 대표값이 되도록 하는 것이 적절할 수 있다. 상기 VRU의 위치 정보는, 상기 제1 위치 정보와 상기 제2 위치 정보 중 오차 범위가 작은 값으로 결정될 수 있다. 일례로 도 13 (a)와 같이 PSM 메시지에 실린 위치 정보의 오차 범위 (예를 들어, x축, y축 모두 10m) 가 영상을 통해 검출된 VRU의 위치 정보의 오차 범위 (예를 들어, x축, y축 모두 3m) 보다 더 큰 경우, 해당 VRU의 위치 정보를 영상을 통해 검출된 VRU의 (연관된 시점에서의) 위치 정보인 p’_c,p1으로 대체할 수 있는 것이다 (예를 들어, p’_p1 = p’_c,p1).
다른 일례로 도 13 (b)와 같이 PSM 메시지에 실린 위치 정보의 오차 범위 (예를 들어, x축, y축 모두 10m)가 영상을 통해 검출된 VRU의 위치 정보의 오차 범위 (예를 들어, x축 3m, y축 15m) 보다 x축에서는 더 크지만 y축에서는 더 작은 경우, 해당 VRU의 위치 정보 중 x축 값은 영상을 통해 검출된 VRU의 위치 정보 (p’_c,p1) 중 x축 값을 취하고, y축 값은 PSM 메시지에 실린 위치 정보의 (p_p1) 중 y축 값을 취하는 식으로 대체할 수 있다 (예를 들어, p’_p1 = complex( real(p’_c,p1), imag(p_p1) )). 다시 말하자면, RSU는 PSM 메시지로 특정 VRU (또는 UE)의 제2 위치 정보 및 영상 장치로부터 상기 특정 VRU (또는 UE)의 제1 위치 정보를 획득하고, 획득한 상기 제1 위치 정보 및 상기 제2 위치 정보가 미리 결정된 임계 이상 (또는, 초과) 차이가 존재한 경우에 상기 VRU에 대한 위치 정보를 상기 제2 위치 정보에 기초하여 보정할 수 있다, 여기서, 미리 결정된 임계는 상기 영상 장치와 관련된 오차 범위에 기초하여 결정될 수 있다. 이 때, 상기 보정된 VRU의 위치 정보는 주변 VRU 또는 주변 UE들에게 상기 특정 VRU에 대한 위치 정보로써 전달되거나, 네트워크에 feedback 될 수 있다.
또는, 상기 VRU의 위치 정보는, 상기 제1 위치 정보의 오차 범위와 상기 제2 위치 정보의 오차 범위를 평균한 오차 범위에 기초하여 결정될 수 있다. 즉, 위치 값의 sample (혹은 후보) 들의 평균을 취해 위치 오차를 평균화하는 방식을 고려할 수 있다. 이 때 도 13 (c)와 같이 p’_p1 = (p’_c,p1 + p_p1)/2 와 같은 점을 보정된 위치로 결정하고 이 때의 위치 오차는 sqrt( 1/2*(3m)^2 + 1/2*(10m)^2 ) = 7.38m와 같이 나타낼 수 있다. 즉, 보정된 위치 정보의 accuracy를 PSM 메시지에 싣는 경우 SemiMajorAxisAccuracy와 SemiMinorAxisAccuracy 부분이 모두 7.38m에 해당하는 값으로 mapping이 되는 셈이다 (예를 들어, 0.05m 단위로 표기하는 경우 148에 해당하는 값 혹은 binary로 10010100로 mapping).
상기 VRU의 위치 정보는, 상기 제1 위치 정보의 오차 범위에 해당하는 영역과 상기 제2 위치 정보의 오차 범위에 해당하는 영역의 교집합에 포함되는 것일 수 있다. 위치 값의 sample들의 오차범위가 overlap된 영역 내에서 보정된 위치 값을 결정해야 한다면 도 13 (d)와 같은 방식으로 보정할 수도 있다. 또는, RSU는 상기 제1 위치 정보 및 상기 제2 위치 정보에 기초하여 상기 VRU의 위치 정보를 보정할 수 있다. 예컨대, RSU는 상기 제1 위치 정보 및 상기 제2 위치 정보를, 상기 제1 위치 정보와 관련된 오차 범위 및 상기 제2 위치 정보와 관련된 오차 범위를 평균화하여 상기 VRU에 대한 위치 정보를 보정할 수 있다. 또는, RSU는 상기 제1 위치 정보 및 상기 제2 위치 정보 간의 오버랩된 영역에 기초하여 상기 VRU에 대한 위치 정보를 보정할 수 있다. 이 때, 상기 보정된 VRU의 위치 정보는 주변 VRU 또는 주변 UE들에게 상기 특정 VRU에 대한 위치 정보로써 전달되거나, 네트워크에 feedback 될 수 있다.
즉, p’_p1 = a*p’_c,p1 + (1-a)*p_p1 와 같이 두 위치 값의 interpolation 형태로 결정될 수 있을 것인데, 이 때의 위치 오차는 sqrt( a*(3m)^2 + (1-a)*(3m)^2 )과 같이 나타낼 수 있다. 한편, 상술한 방식은 상기 제1 위치 정보 및 오차 범위에 따른 제1 영역과 상기 제2 위치 정보 및 오차 범위에 따른 제2 영역 간의 오버랩을 전제할 수 있다.
상기의 오차범위는 오차 값의 standard deviation 등, nominal한 오차 범위를 나타낸 것일 수 있으며, 실제의 위치 값은 상기의 범위를 벗어나는 영역에 존재할 수도 있다. 따라서 상기의 방식들은 도 14 (a) 와 같이 PSM 메시지에 실린 위치 정보의 오차 범위와 영상을 통해 검출된 VRU의 위치 정보의 오차 범위가 중복되지 않은 경우에도 동일하게 적용될 수 있다. 그러나 상기 두 위치 값의 차이가 매우 큰 경우에는, 일례로 도 14 (b)와 같이 서로 간의 오차 범위를 d_th 이상 벗어난 경우 최소한 한 가지의 위치 값은 잘못된 것으로 간주할 수 있다. d_th는 사전에 정의된 값 (예를 들어, d_th = 5m)일 수 있으며, 혹은 두 측정치의 오차 범위와 연관된 값 (예를 들어, 오차 범위 중 최대값 (10m), 혹은 최소값 (3m), 혹은 평균값 (6.5m), 등)일 수 있다. 이 때는 RSU가 오차 보정을 요청하는 feedback 혹은 연관된 VRU 메시지 (PSM, VRU 메시지, CPM 메시지 등) 생성 등을 수행하지 않을 수도 있다. 혹은 오차 범위가 더 큰 값을 잘못된 것으로 간주하여 RSU가 아무런 동작을 수행하지 않거나 혹은 경우에 따라 오차 보정을 요청하는 feedback 혹은 연관된 VRU 메시지 생성 등을 수행할 수도 있다. 상기의 동작은 연관된 VRU의 PSM메시지의 위치가 영상의 표시 영역 이외의 영역을 가리키고 있을 때도 동일하게 적용될 수 있다.
상기 상기 결정된 위치 정보는 상기 다른 RSU에게 공유될 수 있다. 즉, 상기 보정된 값은 다시 V2X 서버에 (예를 들어, DSecond = t_p1 시점을 기준으로) feedback 하거나 혹은 보정에 필요한 값만을 (예를 들어, p_c,k와 p_c,(k+1), 혹은 그것의 보정된 형태인 p’_c,p1, 그리고 연관된 time 값(들), 오차 범위 등..) V2X 서버에 전송해줄 수도 있다.
상술한 설명에서 상기 PSM 메시지와 상기 영상 정보는 동일한 시간에 생성된 것임을 가정/전제하였다. 또한 상기 VRU와 상기 RSU는 동일한 기지국에 동기화 되어 있거나, 서로 다른 기지국에 속해 있더라도 V2X 서버에서 서로간의 기지국 timing에 따른 데이터 처리를 할 수 있거나, 혹은 최소한 동일한 GNSS 기준 시간을 사용하는 것일 수 있다. 만약, 상기 PSM 메시지와 상기 영상 정보는 동일한 시간에 생성된 것이 아니라면, 다음과 같이 PSM 메시지의 생성 시간 및 영상 속 VRU 검출시간을 비교하여 동일한 혹은 유사한 시간에 발생한 VRU의 메시지 정보 (생성 시점 및 위치 관련 정보, 예를 들어, PSM 메시지 DSecond 필드 및 Position 관련 필드) 및 영상 정보 (frame마다 검출된 VRU 개체의 frame 생성 시점 및 검출된 VRU의 위치 계산) 를 비교하여 동일한 VRU를 indication하고 있는지 확인한다. 일례로 PSM 메시지가 카메라 영상의 특정 frame들 사이의 시점, 즉 t_k ~ t_(k+1) 사이의 특정 시점, t_p1 에서 생성된 것이라고 가정하자. 이 때 도 15 (b)와 같이 t_k에 생성된 영상에서 검출된 VRU의 위치 p_c,k와 VRU의 위치 p_c,k와t_(k+1)에 생성된 영상에서 검출된 VRU의 위치 p_c,(k+1)의 위치를 적절히 보정하여 (예를 들어, linear interpolation) 생성된 p’_c,p1 값을 t_p1 시점에 생성된 PSM 메시지에 실린 VRU의 위치 정보 p_p1과 비교해 볼 수 있다. 상기의 보정 (linear interpolation)시 각 시점에서의 VRU의 위치 오차값 (혹은 범위) 역시 동일한 방법으로 보정될 수 있다. 이 때 영상에서 검출된 위치에 대한 보정 오차를 줄이기 위해, PSM 메시지 수신한 이후에는 PSM 메시지 수신 시점과 영상 capture 시점을 최소한으로 줄일 수 있도록 영상 capture에 대한 offset을 조절할 수 있다. 일례로 도 15 (a)와 같은 timing이 주어졌을 때, PSM 메시지 전송간격 (예를 들어, T_p) 이 1s 라고 하면 t_p1 이후 1초 후 (예를 들어, t_p2) 에는 영상 capture도 같이 발생해야 하는 것이다. 상기 offset값을 t_ofs라고 하고 영상의 프레임간 생성 간격을 T_c라 하면, 다음 수학식 1과 같이 정리할 수 있다.
Figure PCTKR2021005463-appb-img-000008
여기서, Tc = 1/24s라고 하고 n=24일 때, t_ofs = (t_p1 - t_k) 만큼 capture 시점에 offset을 인가하여 capture 시점을 늦출 수 있다. 혹은 n=23일 때, t_ofs = (t_p1 - t_k - t_c) = t_p1 - t_(k+1) 의 offset을 인가하여 capture 시점을 앞당길 수도 있다.
이하에서는 위치 오차 감소를 위한 RSU camera 구성에 대한 설명이다. 카메라의 영상을 기반으로 VRU의 위치 검출 시, 이미지센서 혹은 디스플레이 상의 수직방향 pixel 위치에 따라 오차값이 매우 크게 변동되는 것을 알 수 있다. 즉, 도 16 (a)와 같이 피사체가 가까이 있을 수록 오차값이 작아지며 피사체가 멀리 있을수록 오차값이 커지는 것을 볼 수 있다.
이러한 현상을 방지하기 위해 다음과 같은 방식을 고려할 수 있다. 일례로 도 16 (b)와 같이 RSU 및 카메라가 설치된 반대편에 한대의 RSU와 카메라를 더 설치하여, 상기에 기술한 방식과 유사하게, 두 카메라로부터 검출한 값들 중 오차 범위가 작은 값을 대표값으로 취할 수 있도록 한다. 이를 위해 RSU들 간에 영상데이터 혹은 검출한 VRU 위치 값 등을 공유하고 적어도 한대의 RSU에서 VRU의 위치 값을 보정하는 동작을 수행하거나, 혹은 각각의 RSU가 영상데이터 혹은 검출한 VRU 위치 값 등을 상위 네트워크로 전송하여 V2X application server 등에서 VRU의 위치 값을 보정하는 동작을 수행하도록 할 수 있다. 이와 같이 RSU를 구성하는 경우 도 16 (c)와 같이 하나의 RSU camera에서 오차 범위가 커지면 나머지 RSU camera에서는 오차 범위가 작아지는 효과를 얻을 수 있다. 측정 (혹은 보정)한 데이터의 오차 범위가 동일한 경우 (혹은 일정한 threshold 값 이하로 차이 나는 경우) 두 데이터를 평균하여 사용할 수도 있다.
다른 일례로 도 17 (a)와 같이 두 대의 RSU camera가 특정 VRU를 서로 다른 방향으로 촬영하도록 할 수 있다. 보다 구체적으로 앞서 설명된 방식은 RSU1과 RSU2가 180도 간격으로 배치된 것이라면 이 방법은 RSU1과 RSU2가 90도 간격으로 배치된 것이라고 할 수 있다. 이 때 해당 RSU camera의 범위에 (공통적으로) 들어오는 VRU들은 특정 RSU camera에 의해 x축 혹은 y축 방향으로 큰 오차를 겪게 되더라도 나머지 RSU camera에 의해 해당 축에서의 오차를 상쇄시킬 수 있게 된다. 즉, 도 17 (b)와 같이 VRU1은 RSU1이 측정 및 검출한 값을 대표값으로, VRU4는 RSU2가 측정 및 검출한 값을 대표값으로 사용하는 것이 적절하다. 또한 VRU2는 RSU1과 RSU2 모두 정확하게 검출할 수 있으므로 둘 중에 오차가 더 적은 값을 취하거나 혹은 각각에서 측정 (혹은 보정)한 데이터의 오차 범위가 동일한 경우 (혹은 일정한 threshold 값 이하로 차이 나는 경우) 두 데이터를 평균하여 사용할 수도 있다. 또한 RSU1이 VRU3의 x축 데이터를 그리고 RSU2가 VRU3의 y축 데이터를 작은 오차로 측정 및 검출한 것을 볼 수 있다. 이 경우 RSU1의 x축 데이터, RSU2의 y축 데이터를 선택적으로 취하도록 한다.
이하에서는, RSU가 하나의 영상 장치 또는 카메라를 이용하여, VRU의 위치 정보를 보정하는 방법을 설명한다.
RSU는 하기의 방법들을 통해 영상 장치 또는 카메라의 촬영 각도를 shift시킬 수 있고, shift 전 VRU에 대한 영상과 shift 후 상기 VRU의 영상 간의 비교를 통하여 상기 VRU의 위치 정보를 보정할 수 있다.
일 예로, 상기의 방식들과 같은 복수의 RSU camera를 활용하는 방법 이외에도, 한대의 RSU camera를 이용해야 하는 상황에서는 영상 검출의 정확도를 향상 시키기 위해 검출된 VRU가 영상의 가장 하단 (혹은 VRU의 이동 위치변화에 대응하도록 가장 하단보다는 좀더 윗부분) 에 위치하도록 (즉, pixel당 resolution이 가장 세밀한 위치) camera를 shift시킬 수 있다. 혹은 복수의 VRU들이 검출되는 경우에는 RSU와 가장 가까운 위치에서 검출되는 VRU를 상기와 같이 영상의 가장 하단 (혹은 VRU의 이동 위치변화에 대응하도록 가장 하단보다는 좀더 윗부분) 에 위치하도록 (즉, pixel당 resolution이 가장 세밀한 위치) camera를 shift시킬 수 있다. 혹은 또 다른 일례로 가장 많은 수의 VRU가 검출될 수 있도록 camera를 shift 시킬 수도 있다.
상기와 같이 camera를 shift 시켜서 새로 VRU를 검출한 경우, shift 이전의 data (예를 들어, VRU의 위치)와 비교하여 VRU의 위치 정확도 향상, 혹은 VRU 여부 판별 등에 활용할 수 있다.
상기의 위치 추정 정확도 (오차 범위) 관련한 정보는 각각의 road user, Infra structure, network 가 사용하는 측위용 device (예를 들어, GNSS, 카메라) 등을 통해 수신 받거나 그리고/혹은 위치기반 application 등을 통해 통계적으로 측정 및 보정 혹은 계산 등을 통해 구해질 수 있다. 이렇게 구해진 VRU, pedestrian 등의 위치 관련 정보는 도 18와 같이 PSM 메시지의 Position3D, PositionAccuracy 필드를 통해 전송될 수 있다. 상기 위치 정보 도출시 제1 위치정보와 제2 위치정보가 반영된 비율 혹은 가중치 레벨, 혹은 이에 상응하는 값이 별도의 필드에 mapping되어 VRU가 전송하는 PSM / VAM메시지 혹은 기타 VRU 관련 메시지에 포함될 수 있다. 일례로 제1 위치정보와 제2 위치정보가 선형적으로 weighting되어 합성되는 경우 각각의 weight의 값 W1과 W2에 대한 필드가 포함될 수 있으며, 혹은 W1과 W2의 값이 특정한 관계 (e.g. W1+W2=1)에 있는 경우 이러한 관계가 사전에 정의된 상태에서 1개의 weight값 (e.g. W1)에 대한 필드만 포함될 수도 있다. 이 때 상기에 서술한 것과 같이 VRU의 위치 정보는 VRU device 자체적으로 획득한 정보 뿐만 아니라 다른 road user 혹은 인프라 / 네트워크로부터 획득한 정보를 활용한 것일 수 있으며 이것을 구분해야 하는 경우가 있을 수 있다. 일례로 상기 제1 위치정보와 제2 위치정보로부터 위치정보를 획득한 경우 각각의 소스 (source)에 대한 구분을 해주는 (e.g. S1: VRU (0), S2: RSU (1), …) 필드가 포함될 수 있으며 각 source들의 고유 ID를 구분해주는 필드가 별도로 추가될 수도 있다. 실제 상기 position 혹은 position 정확도 관련 정보를 생성 그리고/혹은 전송하지 않고, 단지 (infra 혹은 네트워크에서) 측위를 지원하는 개체의 경우 상기 필드들과 관련된 값을 feedback 하면서, position 값을 보정하도록 요청할 수 있다.
VRU 혹은 infra (예를 들어, RSU) 로부터 eNB가 VRU의 위치 정보 및 연관된 보정 정보를 수신 받고 eNB로부터 상기 정보를 전달 받은 V2X (application) 서버는 해당 값들을 계속해서 수신 받으면서 VRU의 위치 정보를 보정하는데 사용할 수 있고, 또한 보정된 VRU의 위치 값 혹은 해당 정보가 실린 PSM 메시지를 V2X 서버에 전달해줄 수도 있다. 이렇게 eNB가 보정된 VRU의 위치 정보 혹은 해당 정보가 실린 PSM 메시지를 주변 road user 들에게 전송해 줄 수 있다.
상술한 설명은 RSU의 카메라 영상에서 VRU 가 검출된 것을 전제로 하고 있다. 만약, 카메라 영상에서 VRU가 검출되지 않은 경우 다음과 같은 방법을 사용할 수 있다.
PSM 메시지에 들어 있는 위치 정보를 VRU의 위치로 인식할 수 있으며, 이것으로부터 보정을 하지 않을 경우 V2X 서버에 별도의 feedback을 하지 않거나 혹은 보정을 요청할 의사가 없음을 알린다. 혹은 카메라 영상에서 VRU가 검출되지 않았는데 도 19 (a)와 같이 PSM 메시지에 들어 있는 위치 정보는 영상영역의 특정 지점을 indication하고 있는 경우 VRU의 실제 위치는 PSM 위치 정보로부터 오차범위 이내의 어느 지점인 것으로 가정할 수 있다. 따라서 도 19 (b)와 같이 영상 외부 영역과 PSM 위치 정보 오차범위와의 교집합 중 특정 지점을 VRU의 위치로 인식할 수 있다. 일례로 해당 영역에서 수신한 PSM 위치 정보와 가장 가까운 위치 혹은 (확장된 외부) pixel을 VRU의 위치로 인식할 수 있다. 이 때 해당 위치의 pixel이 오차범위가 큰 경우 도 19 (c)와 같이 pixel과 pixel사이의 경계영역 (half pixel)을 VRU의 위치로 인식하거나 혹은 도 19 (d)와 같이 상기 외부 pixel과 접해 있는 내부 pixel을 VRU의 위치로 인식할 수 있다.
도 19와 같이 VRU가 전송한 메시지 속의 VRU 위치 정보가 카메라의 영상 범위 안에 들어올 수도 있거나 (오차 범위를 고려하면 영상 범위를 벗어날 수도 있는 상황), 도 20 (a) 와 같이 VRU의 위치 정보가 카메라의 영상 범위 밖에 위치할 수도 있다. 이 경우, RSU는 상기 PSM을 전송한 RSU가 영상 범위 내에 위치하도록 상기 카메라 또는 영상 장치의 촬영 위치를 shift할 수 있다. 구체적으로, 도 19 (a) 그리고 도 20 (a)와 같은 상황에서 VRU 메시지의 정보를 검증하기 위해 카메라를 이동시켜서 수신한 VRU의 위치가 카메라의 영상 범위 안에 (혹은 영상의 중심이나 영상의 가장 하단 (RSU camera와 가장 가까운 위치이면서 해상도가 가장 높은 곳)에) 들어올 수 있도록 Pan 그리고/혹은 Tilt 동작을 수행하여 camera를 shift 하도록 한다. 이 경우에도 target하는 VRU의 영상이 검출 되지 않는다면 VRU의 위치를 영상 범위 전체에 걸쳐서 (예를 들어, 좌상부분~우하부분) sweep해가면서 카메라 위치를 shift시키는 한편 계속해서 VRU를 검출해 볼 수도 있다. 혹은 이와 같은 방식은 지나치게 많은 연산을 필요로 하고 많은 시간이 소요될 수도 있으므로 정해진 특정 지점으로 카메라를 shift해가면서 (예를 들어, 전체 영역을 9등분하여 해당 지점에서 VRU가 검출될 수 있도록 카메라를 shift) VRU 영상 검출 여부를 판별해볼 수도 있다. 또는, 상기 RSU는 상기 PSM에 포함된 이동성 정보에 기초하여 상기 카메라 또는 영상 장치의 촬영 위치를 shift할 방향 및 각도를 추정할 수 있고, 상기 추정된 방향 및 각도로 상기 카메라 또는 영상 장치를 shift 시킬 수 있다. 여기서, 이동성 정보는 상기 VRU의 이동 방향, 이동 속도 등을 포함할 수 있다.
또는, VRU는, 자신의 영상 장치에 따른 VRU의 검출이 어려운 경우 (광량 부족, 일몰, 일출, 장치 고장), 상기 PSM에 포함된 VRU의 위치 정보에 대한 추가적인 보정을 수행하지 않고 상기 PSM에 포함된 VRU의 위치 정보가 유효한 것으로 취급할 수 있다.
혹은 도 21 (a)와 같이 PSM 위치 정보의 오차범위를 감안해도 VRU의 위치가 잘못되었다고 판단되는 경우 RSU는 V2X 서버에 VRU의 위치 정보가 이상이 있음을 feedback 하거나 혹은 해당 event에 관여하지 않기 위해 아무런 feedback을 하지 않을 수도 있다. 단, 도 21 (b)와 같이 일례로 광량의 부족 (i.e. 적외선 램프 및 렌즈 등 야간 촬영 장비가 없는 경우) 이나 촬영 환경의 문제 혹은 기기 고장 등의 이유로 영상의 정확도가 매우 떨어지는 경우 수신한 메시지의 정보를 판단할 근거가 없으므로 수신한 위치 정보가 valid한 것으로 간주하여 V2X 서버에 VRU의 위치 정보가 이상이 없음을 feedback 하거나 혹은 해당 event에 관여하지 않기 위해 아무런 feedback을 하지 않을 수도 있다.
단 도 21 (b)와 같은 상황, 일례로 일몰 후 야간 시간 대에 광량이 부족한 상황에서 경우에 따라 반사광, 혹은 주변 (road user 등) 조명 등에 의해 VRU 개체가 영상으로 불완전하게 검출될 가능성 역시 존재할 수 있다. 이러한 경우는 도 21 (c)와 같이 조명이나 그림이자 등의 영향으로 검출 영역이 실제보다 넓게 (broad) 혹은 흐리게 (blur) 표시될 수도 있고 혹은 도 21 (d)와 같이 위치를 특정하기 적합하도록 적은 오차로 특정 개체가 검출되더라도, 해당 개체가 VRU인지 혹은 도로, 보도 상의 다른 object인지 판단하기 어려울 수 있다.
도 21 (c)와 같은 경우 해당 검출 영상 정보를 처리시 상기에 열거된 방식들을 이용하되, 일례로 영상 검출에 의한 오차 범위를 일반적인 경우 (예를 들어, 3m) 보다 더 크게 적용하여 (예를 들어, 2배, 3m ... 6m) PSM 메시지의 위치 정보에 대한 가중치가 높게 반영되도록 처리할 수도 있다. 혹은 (극단적으로), 두 위치 값의 오차 범위의 차이가 주어진 일정한 값 (i.e. d_th) 이내인 경우에는, PSM 메시지의 정보만이 valid한 것으로 간주하여 V2X 서버에 VRU의 위치 정보가 이상이 없음을 feedback 하거나 혹은 해당 event에 관여하지 않기 위해 아무런 feedback을 하지 않을 수도 있다.
도 21 (d)와 같은 경우도 역시 불완전한 검출 상황이긴 하지만 PSM 메시지의 정보만을 valid한 것으로 간주할 수는 없다. 일례로 영상 처리를 통해 보행자 혹은 cyclist 혹은 포장박스 (물체)와 같은 후보 군의 set이 (유사한 확률로) 결정되었을 경우 수신한 PSM 메시지(들)의 위치 정보 (그리고/혹은 위치의 오차범위) 들을 영상이 검출된 위치 (p’_c,p1) (그리고/혹은 오차범위) 와 비교 및 상기에 열거된 방식들을 적용하여 유사성이 있는 (혹은 연관된) PSM 메시지가 존재하는지 찾아낸다. 해당 메시지의 VRU type이 상기 (VRU) 후보 군의 set 중에서 존재하는 경우 PSM 메시지가 valid한 것으로 confirm할 수 있으며, 혹은 해당 메시지의 VRU type이 상기 (VRU) 후보 군의 set 중에서 존재하지 않는 경우 RSU는 카메라의 영상 검출 (VRU type 판별) 의 오류로 판단할 수 있다. RSU는 V2X 서버에 VRU의 PSM 메시지 및 위치 정보에는 이상이 없음을 feedback 하거나 혹은 해당 event에 관여하지 않기 위해 아무런 feedback을 하지 않을 수도 있다.
또는, 상기 RSU는 영상 장치의 촬영 범위 내의 위치 정보를 포함하는 PSM이 수신되었으나 촬영 장치 내에 상기 PSM을 전송한 VRU 등이 명확히 인식되지 않은 경우에 광량 또는 시간 대에 기초하여 상기 PSM에 포함된 위치 정보의 유효성 여부를 판단할 수 있다. 예컨대, 상기 RSU는 시간 및/또는 광량에 기초하여 일몰, 야간 상황 등이 영상 검출이 어려운 상황이 추정될 경우에 상기 PSM의 위치 정보에 대응하는 위치에서 상기 VRU가 상기 카메라에 명확히 검출되지 않더라도 상기 PSM에 따른 위치 정보가 유효한 것으로 추정할 수 있다. 또는, 상기 RSU는 시간 및/또는 광량에 기초하여 상기 영상 장치에 의해 획득한 위치 정보의 오차 범위를 증가시켜 상기 PSM의 위치 정보의 유효성 판단을 수행할 수 있다.
상기 VRU의 PSM 메시지에 들어 있는 VRU의 위치 정보를 비롯하여 VRU와 관련된 사전 정보가 존재하는 경우 VRU 판별의 조건, 혹은 VRU 검출을 위한 인공지능 학습 알고리즘의 입력으로서 사용할 수도 있다.
일례로 상기 RSU 카메라에서 검출된 개체를 판별함에 있어서 위치 등을 일정기간 tracking하였다면 해당 데이터로부터 파생된 관련 mobility data (예를 들어, 속도, 방향, 가속도, 등) 역시 구할 수 있을 것이며 이것을 PSM data 혹은 검출된 개체의 후보군으로 예상되는 개체 (예를 들어, 차량)로부터 전송된 메시지 (예를 들어, BSM)와 비교하여 연관성을 확인할 수도 있다. 또한 검출된 영상으로부터 획됙한 data (예를 들어, mobility data)가 수신한 V2X 메시지들의 data와 전혀 연관이 없는 것으로 파악되는 경우 해당 개체는 non-equipped road user로 판단할 수 있을 것이다. 이 경우에는 해당 road user의 map data, mobility data 등을 토대로 road user의 type, 일례로 VRU (예를 들어, pedestrian, cyclist, 등)인지 혹은 vehicle 인지 파악할 수 있다.
그 밖에 PSM, BSM 메시지 혹은 기타 추가적인 V2X 메시지 (예를 들어, VRU awareness message: VAM) 등을 통해 road user에 대한 추가적인 정보가 전송될 수도 있다. 일례로 road user의 외형에 대한 data가 실려서 전송될 수 있다. 보다 구체적으로 pedestrian road user인 경우 키(신장), 성별, 피부색 등 오랜기간 동안 유효한 정보 (i.e. long term 정보)들은 device 등록, 초기화 시점 등에 간단히 입력될 수도 있다. 또한 당일날 옷 색깔 등 수시로 바뀌는 정보들은 해당 road user (i.e. VRU) 와 관련된 application 등을 통해 수동으로 입력 받거나 혹은 셀프 카메라 사진 촬영 등을 요청하는 reminder를 보내서 사용자가 사진을 찍을 수 있도록 유도할 수도 있다. 혹은 외출 전에 촬영한 사진이나 외출하여 이동 중, 보행 중에 촬영된 사진이 존재하는 경우 상기 application이 사용자의 device를 탐색하고 인식하여 VRU의 정보, 특히 외형에 관련된 정보를 생성하는데 이용할 수도 있다.
또는 좀더 explicite하게 road user들이 보내는 메시지에 road user type 혹은 보다 구체적으로 Vehicle type, VRU type 등이 mapping 될 수 있는데 이 정보를 활용하여 영상으로부터 검출된 정보와 비교할 수도 있다. 상기 type 정보는, 일례로 VRU의 경우, 상황에 따라서 user type이 변경될 수도 있는데, 일례로 보도에서 보행자 모드 였다가 대중교통을 타면서 탑승객 모드, 다시 자가용 차량을 탑승하면서 운전자 모드 혹은 vehicle mode로 변경될 수 있다. 이것은 device의 센서 정보들의 조합 혹은 이용하는 교통수단과의 V2X communication (혹은 기타 다른 통신 방식들을 활용) 등을 활용하여 결정될 수 있다.
한편, RSU의 카메라에 VRU가 검출된 경우, RSU는 해당 VRU에 대한 정보와 기수신된 (혹은 일정시간 지연 후 수신된) V2X (VRU) 메시지를 비교하여 정보의 타당성 여부를 체크한다. 이 때 RSU가 검출한 VRU와 연관된 VRU 메시지가 존재하는 경우 RSU는 해당 메시지에 대한 feedback 혹은 정보의 수정이 필요하면 이에 대한 request를 (혹은 수정이 필요없다는 정보가 feedback 될 수도 있음) 수행할 수 있다. 이것은 도 22와 같이 VRU에게서 PC5 인터페이스를 통해 직접 받은 것일 수도 있고 혹은 상위 네트워크를 거쳐 eNB로부터 받은 것일 수도 있다. 후자의 경우 VRU가 eNB에게 Uu 인터페이스 등을 통해 PSM 메시지 등을 전송한 것일 수 있으며, 이후에 eNB가 RSU에게 Uu 인터페이스 혹은 유선 인터페이스 등을 통해 RSU에게 재전송 (전달)해준 것일 수 있다. 이 때 eNB는 다수의 VRU의 메시지를 취합 혹은 clustering해서 RSU에게 전송해준 것일 수도 있다.
해당 VRU 연관 영상이 RSU 카메라에서 검출된 경우 상기와 같은 방식 등을 이용하여 검출된 위치를 계산하고 PSM 생성 시점 등을 고려하여 이 값을 보정한 뒤 V2X 서버 등 상위 네트워크에 보정값을 기반으로 하여 VRU 위치 정보 보정 요청을 feedback 하고 RSU의 요청을 처리하고 PSM 메시지를 재생성 혹은 CPM이나 기타 VRU 관련 메시지 등을 통해 변경된 VRU의 정보를 전송할 수 있다. 이 때 RSU가 V2X 서버에 위치 보정을 요청하거나 CPM 메시지 생성을 요청할 때 영상 검출시 생성된 raw data에서 추출된 정보들을 전송할 수 있다.
일례로 RSU가 영상이 capture된 시간(들), 해당 시간(들)에 대응하는 계산된 VRU의 위치(들), 해당 측정값의 (positioning) accuracy 등을 eNB에 전송하고 이를 전달 받은 V2X 서버에서 해당 값들을 참조하여 위치 보정 등이 수행된 PSM 메시지 혹은 해당 정보가 포함된 CPM 메시지를 다시 주변에 (중복) 전송하거나 혹은 해당 VRU에게 위치 정보 보정 등을 요청할 수 있다. 이 때 해당 VRU에게 보정된 위치 값을 전송해주거나, 혹은 위치 정보의 보정값 (예를 들어, delta만큼의 차이값)을 전송할 수 있다. 혹은 또다른 일례로 RSU가 보정된 위치 정보를 전송할 수도 있다. PSM메시지가 생성된 시간을 기준으로 해당 시점에 대응하는 위치 값을 영상검출 기반으로 생성하여 (Position3D 및 PositioningAccuracy, 등) eNB에 전송하고, 이를 전달 받은 V2X 서버에서 해당 값들을 참조하여 위치 보정 등이 수행된 PSM 메시지 혹은 해당 정보가 포함된 CPM 메시지를 다시 주변에 (중복) 전송하거나 혹은 해당 VRU에게 위치 정보 보정 등을 요청할 수 있다. 이 때 해당 VRU에게 보정된 위치 값을 전송해주거나, 혹은 위치 정보의 보정값 (예를 들어, delta만큼의 차이값)을 전송할 수 있다.
혹은 RSU가 상위 네트워크에 위치보정 요청 등을 feedback하지 않고 직접 PSM 메시지를 재생성 하거나 혹은 CPM이나 기타 VRU 관련 메시지 등을 생성하여 변경된 VRU의 정보를 주변에 전송할 수도 있다.
상기에서 생성되는 PSM 메시지 혹은 CPM 메시지 등은 VRU 혹은 eNB등이 전송했던 메시지에서 indication된 시점과 동일한 시점에 생성된 (위치 추정, 보정 값 등) 정보들일 수도 있고 혹은 카메라 영상이 capture된 (새로운) 시점 혹은 그 외에 또 다른 시점에 생성된 정보들일 수도 있다.
상기에서 VRU 혹은 eNB등이 전송했던 메시지에서 indication된 시점과 동일한 시점 (혹은 일정한 offset 이전/이후) 에 생성된 동일한 ID의 PSM 메시지를 수신 받은 road user 들은 positioning accuracy 등을 비교하여 (더 정확한) 메시지를 선택하여 사용할 수도 있다.
RSU의 카메라에 VRU가 검출되었으나 연관된 VRU 메시지가 존재하지 않는 경우, 도 23와 같이 상위 네트워크에 관련 VRU에 대한 PSM 메시지 혹은 CPM 메시지 등을 (새로) 생성할 것을 요청하거나 혹은 해당 RSU가 직접 PSM 메시지 혹은 연관된 CPM 메시지를 생성하여 주변에 전송할 수도 있다.
한편 RSU가 cover하고 있는 영역에서 VRU specific zone 그리고/혹은 vehicle specific zone이 설정되어 있는 경우에 RSU는 상기 VRU가 어떤 zone에 속해 있는지 혹은 어느 시점에 zone을 switching하는지도 역시 파악하여 이것을 VRU 검출을 위한 사전 정보로서 사용할 수 있다. 일례로 VRU가 zone을 switching하여 이동할 때마다 PSM 메시지를 전송하는 것으로 configure 되었는데도 해당 VRU가 PSM 메시지를 전송하기로 되어 있는 시점이 지났는데도 해당 메시지가 수신되지 않거나 혹은 더 나아가서 일정 시간을 기다려도 (예를 들어, VRU의 zone switching 동작 검출 후 2000ms 이후) 해당 메시지가 수신되지 않는 경우 RSU가 해당 VRU에게 직접 상태변경에 대한 메시지를 전송할 것을 요청하거나, 혹은 상위 네트워크에 VRU 검출 정보 및 상태 변경 (zone switching) 정보를 reporting할 수 있다.
상술한 설명과 관련하여, VRU (Vulnerable Road User) 관련 동작을 수행하는 RSU (Road Side Unit)에 있어서, 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서에 동작 가능하게 연결될 수 있고, 실행될 때 상기 적어도 하나의 프로세서로 하여금 동작들을 수행하게 하는 명령들을 저장하는 적어도 하나의 컴퓨터 메모리를 포함하며, 상기 동작들은, VRU의 PSM 메시지 수신; 영상 정보를 통해 획득한 상기 VRU의 제1 위치 정보와 상기 PSM 메시지를 통해 획득한 상기 VRU의 제2 위치 정보에 기초하여 상기 VRU의 위치 정보를 결정; 및 상기 VRU에게 상기 VRU의 위치 정보를 전송할 수 있다.
무선통신시스템에서, RSU (Road Side Unit)를 위한 동작들을 수행하게 하는 프로세서에 있어서, 상기 동작들은, VRU의 PSM 메시지 수신; 영상 정보를 통해 획득한 상기 VRU의 제1 위치 정보와 상기 PSM 메시지를 통해 획득한 상기 VRU의 제2 위치 정보에 기초하여 상기 VRU의 위치 정보를 결정; 및 상기 VRU에게 상기 VRU의 위치 정보를 전송 할 수 있다.
적어도 하나의 프로세서에 의해 실행될 때, 적어도 하나의 프로세서가 UE를 위한 동작들을 수행하게 하는 명령을 포함하는 적어도 하나의 컴퓨터 프로그램을 저장하는 비휘발성 컴퓨터 판독 가능 저장 매체에 있어서, 상기 동작들은, VRU의 PSM 메시지 수신; 영상 정보를 통해 획득한 상기 VRU의 제1 위치 정보와 상기 PSM 메시지를 통해 획득한 상기 VRU의 제2 위치 정보에 기초하여 상기 VRU의 위치 정보를 결정; 및 상기 VRU에게 상기 VRU의 위치 정보를 전송 할 수 있다.
또한, RSU (Road Side Unit)에 관련된 VRU (Vulnerable Road User)의 동작에 있어서, 상기 VRU가 상기 RSU로 PSM 메시지를 전송; 상기 VRU가 상기 RSU로부터 상기 VRU의 위치 정보를 수신을 포함하며, 상기 VRU의 위치 정보는, 상기 RSU가 영상 정보를 통해 획득한 상기 VRU의 제1 위치 정보와 상기 PSM 메시지를 통해 획득한 상기 VRU의 제2 위치 정보에 기초하여 결정되는 것일 수 있다.
무선통신시스템에서, RSU (Road Side Unit)에 관련된 VRU (Vulnerable Road User)에 있어서, 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서에 동작 가능하게 연결될 수 있고, 실행될 때 상기 적어도 하나의 프로세서로 하여금 동작들을 수행하게 하는 명령들을 저장하는 적어도 하나의 컴퓨터 메모리를 포함하며, 상기 동작들은, 상기 VRU가 상기 RSU로 PSM 메시지를 전송; 상기 VRU가 상기 RSU로부터 상기 VRU의 위치 정보를 수신을 포함하며, 상기 VRU의 위치 정보는, 상기 RSU가 영상 정보를 통해 획득한 상기 VRU의 제1 위치 정보와 상기 PSM 메시지를 통해 획득한 상기 VRU의 제2 위치 정보에 기초하여 결정되는 것일 수 있다.
본 발명이 적용되는 통신 시스템 예
이로 제한되는 것은 아니지만, 본 문서에 개시된 본 발명의 다양한 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 기기들간에 무선 통신/연결(예, 5G)을 필요로 하는 다양한 분야에 적용될 수 있다.
이하, 도면을 참조하여 보다 구체적으로 예시한다. 이하의 도면/설명에서 동일한 도면 부호는 다르게 기술하지 않는 한, 동일하거나 대응되는 하드웨어 블록, 소프트웨어 블록 또는 기능 블록을 예시할 수 있다.
도 24은 본 발명에 적용되는 통신 시스템(1)을 예시한다.
도 24을 참조하면, 본 발명에 적용되는 통신 시스템(1)은 무선 기기, 기지국 및 네트워크를 포함한다. 여기서, 무선 기기는 무선 접속 기술(예, 5G NR(New RAT), LTE(Long Term Evolution))을 이용하여 통신을 수행하는 기기를 의미하며, 통신/무선/5G 기기로 지칭될 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(100a), 차량(100b-1, 100b-2), XR(eXtended Reality) 기기(100c), 휴대 기기(Hand-held device)(100d), 가전(100e), IoT(Internet of Thing) 기기(100f), AI기기/서버(400)를 포함할 수 있다. 예를 들어, 차량은 무선 통신 기능이 구비된 차량, 자율 주행 차량, 차량간 통신을 수행할 수 있는 차량 등을 포함할 수 있다. 여기서, 차량은 UAV(Unmanned Aerial Vehicle)(예, 드론)를 포함할 수 있다. XR 기기는 AR(Augmented Reality)/VR(Virtual Reality)/MR(Mixed Reality) 기기를 포함하며, HMD(Head-Mounted Device), 차량에 구비된 HUD(Head-Up Display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등의 형태로 구현될 수 있다. 휴대 기기는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 컴퓨터(예, 노트북 등) 등을 포함할 수 있다. 가전은 TV, 냉장고, 세탁기 등을 포함할 수 있다. IoT 기기는 센서, 스마트미터 등을 포함할 수 있다. 예를 들어, 기지국, 네트워크는 무선 기기로도 구현될 수 있으며, 특정 무선 기기(200a)는 다른 무선 기기에게 기지국/네트워크 노드로 동작할 수도 있다.
무선 기기(100a~100f)는 기지국(200)을 통해 네트워크(300)와 연결될 수 있다. 무선 기기(100a~100f)에는 AI(Artificial Intelligence) 기술이 적용될 수 있으며, 무선 기기(100a~100f)는 네트워크(300)를 통해 AI 서버(400)와 연결될 수 있다. 네트워크(300)는 3G 네트워크, 4G(예, LTE) 네트워크 또는 5G(예, NR) 네트워크 등을 이용하여 구성될 수 있다. 무선 기기(100a~100f)는 기지국(200)/네트워크(300)를 통해 서로 통신할 수도 있지만, 기지국/네트워크를 통하지 않고 직접 통신(e.g. 사이드링크 통신(sidelink communication))할 수도 있다. 예를 들어, 차량들(100b-1, 100b-2)은 직접 통신(e.g. V2V(Vehicle to Vehicle)/V2X(Vehicle to everything) communication)을 할 수 있다. 또한, IoT 기기(예, 센서)는 다른 IoT 기기(예, 센서) 또는 다른 무선 기기(100a~100f)와 직접 통신을 할 수 있다.
무선 기기(100a~100f)/기지국(200), 기지국(200)/기지국(200) 간에는 무선 통신/연결(150a, 150b, 150c)이 이뤄질 수 있다. 여기서, 무선 통신/연결은 상향/하향링크 통신(150a)과 사이드링크 통신(150b)(또는, D2D 통신), 기지국간 통신(150c)(e.g. relay, IAB(Integrated Access Backhaul)과 같은 다양한 무선 접속 기술(예, 5G NR)을 통해 이뤄질 수 있다. 무선 통신/연결(150a, 150b, 150c)을 통해 무선 기기와 기지국/무선 기기, 기지국과 기지국은 서로 무선 신호를 송신/수신할 수 있다. 예를 들어, 무선 통신/연결(150a, 150b, 150c)은 다양한 물리 채널을 통해 신호를 송신/수신할 수 있다. 이를 위해, 본 발명의 다양한 제안들에 기반하여, 무선 신호의 송신/수신을 위한 다양한 구성정보 설정 과정, 다양한 신호 처리 과정(예, 채널 인코딩/디코딩, 변조/복조, 자원 매핑/디매핑 등), 자원 할당 과정 등 중 적어도 일부가 수행될 수 있다.
본 발명이 적용되는 무선 기기 예
도 25는 본 발명에 적용될 수 있는 무선 기기를 예시한다.
도 25를 참조하면, 제1 무선 기기(100)와 제2 무선 기기(200)는 다양한 무선 접속 기술(예, LTE, NR)을 통해 무선 신호를 송수신할 수 있다. 여기서, {제1 무선 기기(100), 제2 무선 기기(200)}은 도 24의 {무선 기기(100x), 기지국(200)} 및/또는 {무선 기기(100x), 무선 기기(100x)}에 대응할 수 있다.
제1 무선 기기(100)는 하나 이상의 프로세서(102) 및 하나 이상의 메모리(104)를 포함하며, 추가적으로 하나 이상의 송수신기(106) 및/또는 하나 이상의 안테나(108)을 더 포함할 수 있다. 프로세서(102)는 메모리(104) 및/또는 송수신기(106)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(102)는 메모리(104) 내의 정보를 처리하여 제1 정보/신호를 생성한 뒤, 송수신기(106)을 통해 제1 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(102)는 송수신기(106)를 통해 제2 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제2 정보/신호의 신호 처리로부터 얻은 정보를 메모리(104)에 저장할 수 있다. 메모리(104)는 프로세서(102)와 연결될 수 있고, 프로세서(102)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(104)는 프로세서(102)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(102)와 메모리(104)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(106)는 프로세서(102)와 연결될 수 있고, 하나 이상의 안테나(108)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(106)는 송신기 및/또는 수신기를 포함할 수 있다. 송수신기(106)는 RF(Radio Frequency) 유닛과 혼용될 수 있다. 본 발명에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
제2 무선 기기(200)는 하나 이상의 프로세서(202), 하나 이상의 메모리(204)를 포함하며, 추가적으로 하나 이상의 송수신기(206) 및/또는 하나 이상의 안테나(208)를 더 포함할 수 있다. 프로세서(202)는 메모리(204) 및/또는 송수신기(206)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202)는 메모리(204) 내의 정보를 처리하여 제3 정보/신호를 생성한 뒤, 송수신기(206)를 통해 제3 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202)는 송수신기(206)를 통해 제4 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제4 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204)에 저장할 수 있다. 메모리(204)는 프로세서(202)와 연결될 수 있고, 프로세서(202)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204)는 프로세서(202)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202)와 메모리(204)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206)는 프로세서(202)와 연결될 수 있고, 하나 이상의 안테나(208)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206)는 송신기 및/또는 수신기를 포함할 수 있다 송수신기(206)는 RF 유닛과 혼용될 수 있다. 본 발명에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
이하, 무선 기기(100, 200)의 하드웨어 요소에 대해 보다 구체적으로 설명한다. 이로 제한되는 것은 아니지만, 하나 이상의 프로토콜 계층이 하나 이상의 프로세서(102, 202)에 의해 구현될 수 있다. 예를 들어, 하나 이상의 프로세서(102, 202)는 하나 이상의 계층(예, PHY, MAC, RLC, PDCP, RRC, SDAP와 같은 기능적 계층)을 구현할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 하나 이상의 PDU(Protocol Data Unit) 및/또는 하나 이상의 SDU(Service Data Unit)를 생성할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 메시지, 제어정보, 데이터 또는 정보를 생성할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 포함하는 신호(예, 베이스밴드 신호)를 생성하여, 하나 이상의 송수신기(106, 206)에게 제공할 수 있다. 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)로부터 신호(예, 베이스밴드 신호)를 수신할 수 있고, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 획득할 수 있다.
하나 이상의 프로세서(102, 202)는 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 마이크로 컴퓨터로 지칭될 수 있다. 하나 이상의 프로세서(102, 202)는 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합에 의해 구현될 수 있다. 일 예로, 하나 이상의 ASIC(Application Specific Integrated Circuit), 하나 이상의 DSP(Digital Signal Processor), 하나 이상의 DSPD(Digital Signal Processing Device), 하나 이상의 PLD(Programmable Logic Device) 또는 하나 이상의 FPGA(Field Programmable Gate Arrays)가 하나 이상의 프로세서(102, 202)에 포함될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있고, 펌웨어 또는 소프트웨어는 모듈, 절차, 기능 등을 포함하도록 구현될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 수행하도록 설정된 펌웨어 또는 소프트웨어는 하나 이상의 프로세서(102, 202)에 포함되거나, 하나 이상의 메모리(104, 204)에 저장되어 하나 이상의 프로세서(102, 202)에 의해 구동될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 코드, 명령어 및/또는 명령어의 집합 형태로 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있다.
하나 이상의 메모리(104, 204)는 하나 이상의 프로세서(102, 202)와 연결될 수 있고, 다양한 형태의 데이터, 신호, 메시지, 정보, 프로그램, 코드, 지시 및/또는 명령을 저장할 수 있다. 하나 이상의 메모리(104, 204)는 ROM, RAM, EPROM, 플래시 메모리, 하드 드라이브, 레지스터, 캐쉬 메모리, 컴퓨터 판독 저장 매체 및/또는 이들의 조합으로 구성될 수 있다. 하나 이상의 메모리(104, 204)는 하나 이상의 프로세서(102, 202)의 내부 및/또는 외부에 위치할 수 있다. 또한, 하나 이상의 메모리(104, 204)는 유선 또는 무선 연결과 같은 다양한 기술을 통해 하나 이상의 프로세서(102, 202)와 연결될 수 있다.
하나 이상의 송수신기(106, 206)는 하나 이상의 다른 장치에게 본 문서의 방법들 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 전송할 수 있다. 하나 이상의 송수신기(106, 206)는 하나 이상의 다른 장치로부터 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 수신할 수 있다. 예를 들어, 하나 이상의 송수신기(106, 206)는 하나 이상의 프로세서(102, 202)와 연결될 수 있고, 무선 신호를 송수신할 수 있다. 예를 들어, 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)가 하나 이상의 다른 장치에게 사용자 데이터, 제어 정보 또는 무선 신호를 전송하도록 제어할 수 있다. 또한, 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)가 하나 이상의 다른 장치로부터 사용자 데이터, 제어 정보 또는 무선 신호를 수신하도록 제어할 수 있다. 또한, 하나 이상의 송수신기(106, 206)는 하나 이상의 안테나(108, 208)와 연결될 수 있고, 하나 이상의 송수신기(106, 206)는 하나 이상의 안테나(108, 208)를 통해 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 송수신하도록 설정될 수 있다. 본 문서에서, 하나 이상의 안테나는 복수의 물리 안테나이거나, 복수의 논리 안테나(예, 안테나 포트)일 수 있다. 하나 이상의 송수신기(106, 206)는 수신된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 하나 이상의 프로세서(102, 202)를 이용하여 처리하기 위해, 수신된 무선 신호/채널 등을 RF 밴드 신호에서 베이스밴드 신호로 변환(Convert)할 수 있다. 하나 이상의 송수신기(106, 206)는 하나 이상의 프로세서(102, 202)를 이용하여 처리된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 베이스밴드 신호에서 RF 밴드 신호로 변환할 수 있다. 이를 위하여, 하나 이상의 송수신기(106, 206)는 (아날로그) 오실레이터 및/또는 필터를 포함할 수 있다.
본 발명이 적용되는 차량 또는 자율 주행 차량 예
도 26는 본 발명에 적용되는 차량 또는 자율 주행 차량을 예시한다. 차량 또는 자율 주행 차량은 이동형 로봇, 차량, 기차, 유/무인 비행체(Aerial Vehicle, AV), 선박 등으로 구현될 수 있다.
도 26를 참조하면, 차량 또는 자율 주행 차량(100)은 안테나부(108), 통신부(110), 제어부(120), 구동부(140a), 전원공급부(140b), 센서부(140c) 및 자율 주행부(140d)를 포함할 수 있다. 안테나부(108)는 통신부(110)의 일부로 구성될 수 있다.
통신부(110)는 다른 차량, 기지국(e.g. 기지국, 노변 기지국(Road Side unit) 등), 서버 등의 외부 기기들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(120)는 차량 또는 자율 주행 차량(100)의 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(120)는 ECU(Electronic Control Unit)를 포함할 수 있다. 구동부(140a)는 차량 또는 자율 주행 차량(100)을 지상에서 주행하게 할 수 있다. 구동부(140a)는 엔진, 모터, 파워 트레인, 바퀴, 브레이크, 조향 장치 등을 포함할 수 있다. 전원공급부(140b)는 차량 또는 자율 주행 차량(100)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다. 센서부(140c)는 차량 상태, 주변 환경 정보, 사용자 정보 등을 얻을 수 있다. 센서부(140c)는 IMU(inertial measurement unit) 센서, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 스티어링 센서, 온도 센서, 습도 센서, 초음파 센서, 조도 센서, 페달 포지션 센서 등을 포함할 수 있다. 자율 주행부(140d)는 주행중인 차선을 유지하는 기술, 어댑티브 크루즈 컨트롤과 같이 속도를 자동으로 조절하는 기술, 정해진 경로를 따라 자동으로 주행하는 기술, 목적지가 설정되면 자동으로 경로를 설정하여 주행하는 기술 등을 구현할 수 있다.
일 예로, 통신부(110)는 외부 서버로부터 지도 데이터, 교통 정보 데이터 등을 수신할 수 있다. 자율 주행부(140d)는 획득된 데이터를 기반으로 자율 주행 경로와 드라이빙 플랜을 생성할 수 있다. 제어부(120)는 드라이빙 플랜에 따라 차량 또는 자율 주행 차량(100)이 자율 주행 경로를 따라 이동하도록 구동부(140a)를 제어할 수 있다(예, 속도/방향 조절). 자율 주행 도중에 통신부(110)는 외부 서버로부터 최신 교통 정보 데이터를 비/주기적으로 획득하며, 주변 차량으로부터 주변 교통 정보 데이터를 획득할 수 있다. 또한, 자율 주행 도중에 센서부(140c)는 차량 상태, 주변 환경 정보를 획득할 수 있다. 자율 주행부(140d)는 새로 획득된 데이터/정보에 기반하여 자율 주행 경로와 드라이빙 플랜을 갱신할 수 있다. 통신부(110)는 차량 위치, 자율 주행 경로, 드라이빙 플랜 등에 관한 정보를 외부 서버로 전달할 수 있다. 외부 서버는 차량 또는 자율 주행 차량들로부터 수집된 정보에 기반하여, AI 기술 등을 이용하여 교통 정보 데이터를 미리 예측할 수 있고, 예측된 교통 정보 데이터를 차량 또는 자율 주행 차량들에게 제공할 수 있다.
본 발명이 적용되는 AR/VR 및 차량 예
도 27은 본 발명에 적용되는 차량을 예시한다. 차량은 운송수단, 기차, 비행체, 선박 등으로도 구현될 수 있다.
도 27을 참조하면, 차량(100)은 통신부(110), 제어부(120), 메모리부(130), 입출력부(140a) 및 위치 측정부(140b)를 포함할 수 있다.
통신부(110)는 다른 차량, 또는 기지국 등의 외부 기기들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(120)는 차량(100)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 메모리부(130)는 차량(100)의 다양한 기능을 지원하는 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 입출력부(140a)는 메모리부(130) 내의 정보에 기반하여 AR/VR 오브젝트를 출력할 수 있다. 입출력부(140a)는 HUD를 포함할 수 있다. 위치 측정부(140b)는 차량(100)의 위치 정보를 획득할 수 있다. 위치 정보는 차량(100)의 절대 위치 정보, 주행선 내에서의 위치 정보, 가속도 정보, 주변 차량과의 위치 정보 등을 포함할 수 있다. 위치 측정부(140b)는 GPS 및 다양한 센서들을 포함할 수 있다.
일 예로, 차량(100)의 통신부(110)는 외부 서버로부터 지도 정보, 교통 정보 등을 수신하여 메모리부(130)에 저장할 수 있다. 위치 측정부(140b)는 GPS 및 다양한 센서를 통하여 차량 위치 정보를 획득하여 메모리부(130)에 저장할 수 있다. 제어부(120)는 지도 정보, 교통 정보 및 차량 위치 정보 등에 기반하여 가상 오브젝트를 생성하고, 입출력부(140a)는 생성된 가상 오브젝트를 차량 내 유리창에 표시할 수 있다(1410, 1420). 또한, 제어부(120)는 차량 위치 정보에 기반하여 차량(100)이 주행선 내에서 정상적으로 운행되고 있는지 판단할 수 있다. 차량(100)이 주행선을 비정상적으로 벗어나는 경우, 제어부(120)는 입출력부(140a)를 통해 차량 내 유리창에 경고를 표시할 수 있다. 또한, 제어부(120)는 통신부(110)를 통해 주변 차량들에게 주행 이상에 관한 경고 메세지를 방송할 수 있다. 상황에 따라, 제어부(120)는 통신부(110)를 통해 관계 기관에게 차량의 위치 정보와, 주행/차량 이상에 관한 정보를 전송할 수 있다.
본 발명이 적용되는 XR 기기 예
도 28은 본 발명에 적용되는 XR 기기를 예시한다. XR 기기는 HMD, 차량에 구비된 HUD(Head-Up Display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등으로 구현될 수 있다.
도 28을 참조하면, XR 기기(100a)는 통신부(110), 제어부(120), 메모리부(130), 입출력부(140a), 센서부(140b) 및 전원공급부(140c)를 포함할 수 있다.
통신부(110)는 다른 무선 기기, 휴대 기기, 또는 미디어 서버 등의 외부 기기들과 신호(예, 미디어 데이터, 제어 신호 등)를 송수신할 수 있다. 미디어 데이터는 영상, 이미지, 소리 등을 포함할 수 있다. 제어부(120)는 XR 기기(100a)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 예를 들어, 제어부(120)는 비디오/이미지 획득, (비디오/이미지) 인코딩, 메타데이터 생성 및 처리 등의 절차를 제어 및/또는 수행하도록 구성될 수 있다. 메모리부(130)는 XR 기기(100a)의 구동/XR 오브젝트의 생성에 필요한 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 입출력부(140a)는 외부로부터 제어 정보, 데이터 등을 획득하며, 생성된 XR 오브젝트를 출력할 수 있다. 입출력부(140a)는 카메라, 마이크로폰, 사용자 입력부, 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센서부(140b)는 XR 기기 상태, 주변 환경 정보, 사용자 정보 등을 얻을 수 있다. 센서부(140b)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰 및/또는 레이더 등을 포함할 수 있다. 전원공급부(140c)는 XR 기기(100a)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다.
일 예로, XR 기기(100a)의 메모리부(130)는 XR 오브젝트(예, AR/VR/MR 오브젝트)의 생성에 필요한 정보(예, 데이터 등)를 포함할 수 있다. 입출력부(140a)는 사용자로부터 XR 기기(100a)를 조작하는 명령을 회득할 수 있으며, 제어부(120)는 사용자의 구동 명령에 따라 XR 기기(100a)를 구동시킬 수 있다. 예를 들어, 사용자가 XR 기기(100a)를 통해 영화, 뉴스 등을 시청하려고 하는 경우, 제어부(120)는 통신부(130)를 통해 컨텐츠 요청 정보를 다른 기기(예, 휴대 기기(100b)) 또는 미디어 서버에 전송할 수 있다. 통신부(130)는 다른 기기(예, 휴대 기기(100b)) 또는 미디어 서버로부터 영화, 뉴스 등의 컨텐츠를 메모리부(130)로 다운로드/스트리밍 받을 수 있다. 제어부(120)는 컨텐츠에 대해 비디오/이미지 획득, (비디오/이미지) 인코딩, 메타데이터 생성/처리 등의 절차를 제어 및/또는 수행하며, 입출력부(140a)/센서부(140b)를 통해 획득한 주변 공간 또는 현실 오브젝트에 대한 정보에 기반하여 XR 오브젝트를 생성/출력할 수 있다.
또한, XR 기기(100a)는 통신부(110)를 통해 휴대 기기(100b)와 무선으로 연결되며, XR 기기(100a)의 동작은 휴대 기기(100b)에 의해 제어될 수 있다. 예를 들어, 휴대 기기(100b)는 XR 기기(100a)에 대한 콘트롤러로 동작할 수 있다. 이를 위해, XR 기기(100a)는 휴대 기기(100b)의 3차원 위치 정보를 획득한 뒤, 휴대 기기(100b)에 대응하는 XR 개체를 생성하여 출력할 수 있다.
본 발명이 적용되는 로봇 예
도 29은 본 발명에 적용되는 로봇을 예시한다. 로봇은 사용 목적이나 분야에 따라 산업용, 의료용, 가정용, 군사용 등으로 분류될 수 있다.
도 29을 참조하면, 로봇(100)은 통신부(110), 제어부(120), 메모리부(130), 입출력부(140a), 센서부(140b) 및 구동부(140c)를 포함할 수 있다.
통신부(110)는 다른 무선 기기, 다른 로봇, 또는 제어 서버 등의 외부 기기들과 신호(예, 구동 정보, 제어 신호 등)를 송수신할 수 있다. 제어부(120)는 로봇(100)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 메모리부(130)는 로봇(100)의 다양한 기능을 지원하는 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 입출력부(140a)는 로봇(100)의 외부로부터 정보를 획득하며, 로봇(100)의 외부로 정보를 출력할 수 있다. 입출력부(140a)는 카메라, 마이크로폰, 사용자 입력부, 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센서부(140b)는 로봇(100)의 내부 정보, 주변 환경 정보, 사용자 정보 등을 얻을 수 있다. 센서부(140b)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 레이더 등을 포함할 수 있다. 구동부(140c)는 로봇 관절을 움직이는 등의 다양한 물리적 동작을 수행할 수 있다. 또한, 구동부(140c)는 로봇(100)을 지상에서 주행하거나 공중에서 비행하게 할 수 있다. 구동부(140c)는 액츄에이터, 모터, 바퀴, 브레이크, 프로펠러 등을 포함할 수 있다.
본 발명이 적용되는 AI 기기 예
도 30는 본 발명에 적용되는 AI 기기를 예시한다. AI 기기는 TV, 프로젝터, 스마트폰, PC, 노트북, 디지털방송용 단말기, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), 라디오, 세탁기, 냉장고, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다.
도 30를 참조하면, AI 기기(100)는 통신부(110), 제어부(120), 메모리부(130), 입/출력부(140a/140b), 러닝 프로세서부(140c) 및 센서부(140d)를 포함할 수 있다.
통신부(110)는 유무선 통신 기술을 이용하여 다른 AI 기기(예, 도 24, 100x, 200, 400)나 AI 서버(예, 도 24의 400) 등의 외부 기기들과 유무선 신호(예, 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등)를 송수신할 수 있다. 이를 위해, 통신부(110)는 메모리부(130) 내의 정보를 외부 기기로 전송하거나, 외부 기기로부터 수신된 신호를 메모리부(130)로 전달할 수 있다.
제어부(120)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 기기(100)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 제어부(120)는 AI 기기(100)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다. 예를 들어, 제어부(120)는 러닝 프로세서부(140c) 또는 메모리부(130)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 기기(100)의 구성 요소들을 제어할 수 있다. 또한, 제어부(120)는 AI 장치(100)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리부(130) 또는 러닝 프로세서부(140c)에 저장하거나, AI 서버(도 24, 400) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.
메모리부(130)는 AI 기기(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예를 들어, 메모리부(130)는 입력부(140a)로부터 얻은 데이터, 통신부(110)로부터 얻은 데이터, 러닝 프로세서부(140c)의 출력 데이터, 및 센싱부(140)로부터 얻은 데이터를 저장할 수 있다. 또한, 메모리부(130)는 제어부(120)의 동작/실행에 필요한 제어 정보 및/또는 소프트웨어 코드를 저장할 수 있다.
입력부(140a)는 AI 기기(100)의 외부로부터 다양한 종류의 데이터를 획득할 수 있다. 예를 들어, 입력부(140a)는 모델 학습을 위한 학습 데이터, 및 학습 모델이 적용될 입력 데이터 등을 획득할 수 있다. 입력부(140a)는 카메라, 마이크로폰 및/또는 사용자 입력부 등을 포함할 수 있다. 출력부(140b)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다. 출력부(140b)는 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센싱부(140)는 다양한 센서들을 이용하여 AI 기기(100)의 내부 정보, AI 기기(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 얻을 수 있다. 센싱부(140)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰 및/또는 레이더 등을 포함할 수 있다.
러닝 프로세서부(140c)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 러닝 프로세서부(140c)는 AI 서버(도 24, 400)의 러닝 프로세서부와 함께 AI 프로세싱을 수행할 수 있다. 러닝 프로세서부(140c)는 통신부(110)를 통해 외부 기기로부터 수신된 정보, 및/또는 메모리부(130)에 저장된 정보를 처리할 수 있다. 또한, 러닝 프로세서부(140c)의 출력 값은 통신부(110)를 통해 외부 기기로 전송되거나/되고, 메모리부(130)에 저장될 수 있다.
상술한 바와 같은 실시형태들은 다양한 이동통신 시스템에 적용될 수 있다.

Claims (15)

  1. 무선통신시스템에서 RSU (Road Side Unit)의 VRU (Vulnerable Road User) 관련 동작에 있어서,
    상기 RSU가 VRU의 PSM (Personal Safety Messages) 메시지 수신;
    상기 RSU가 영상 정보를 통해 획득한 상기 VRU의 제1 위치 정보와 상기 PSM 메시지를 통해 획득한 상기 VRU의 제2 위치 정보에 기초하여 상기 VRU의 위치 정보를 결정; 및
    상기 RSU가 상기 VRU에게 상기 VRU의 위치 정보를 전송하는, 방법.
  2. 제1항에 있어서,
    상기 VRU의 위치 정보 결정시, 상기 제1 위치 정보와 상기 제2 위치 정보에는 가중치가 적용되는, 방법.
  3. 제1항에 있어서,
    상기 영상 정보는 상기 RSU가 관찰 영역에서 촬영한 것으로써 다른 RSU와 공유되는, 방법.
  4. 제3항에 있어서,
    상기 VRU의 위치 정보는 상기 다른 RSU에게 공유되는, 방법.
  5. 제4항에 있어서,
    상기 VRU의 위치 정보는 위치 결정에 사용된 상기 제2 위치정보에 대한 상기 제1 위치정보의 가중치 정보를 포함하는,, 방법.
  6. 제1항에 있어서,
    상기 PSM 메시지는 상기 VRU가 GNSS(Global Navigation Satellite System)를 통해 획득한 위치 정보를 포함하는, 방법.
  7. 제1항에 있어서,
    상기 PSM 메시지는 상기 VRU가 다른 RSU, 다른 VRU 또는 기지국을 통해 획득한 위치 정보를 포함하는, 방법.
  8. 제1항에 있어서,
    상기 VRU의 위치 정보는, 상기 제1 위치 정보와 상기 제2 위치 정보 중 오차 범위가 작은 값으로 결정되는, 방법.
  9. 제1항에 있어서,
    상기 VRU의 위치 정보는, 상기 제1 위치 정보의 오차 범위와 상기 제2 위치 정보의 오차 범위를 평균한 오차 범위에 기초하여 결정되는, 방법.
  10. 제9항에 있어서,
    상기 VRU의 위치 정보는, 상기 제1 위치 정보의 오차 범위에 해당하는 영역과 상기 제2 위치 정보의 오차 범위에 해당하는 영역의 교집합에 포함되는 것인, 방법.
  11. 무선통신시스템에서, VRU (Vulnerable Road User) 관련 동작을 수행하는 RSU (Road Side Unit)에 있어서,
    적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서에 동작 가능하게 연결될 수 있고, 실행될 때 상기 적어도 하나의 프로세서로 하여금 동작들을 수행하게 하는 명령들을 저장하는 적어도 하나의 컴퓨터 메모리를 포함하며,
    상기 동작들은, VRU의 PSM 메시지 수신;
    영상 정보를 통해 획득한 상기 VRU의 제1 위치 정보와 상기 PSM 메시지를 통해 획득한 상기 VRU의 제2 위치 정보에 기초하여 상기 VRU의 위치 정보를 결정; 및
    상기 VRU에게 상기 VRU의 위치 정보를 전송하는, RSU.
  12. 무선통신시스템에서, RSU (Road Side Unit)를 위한 동작들을 수행하게 하는 프로세서에 있어서,
    상기 동작들은, VRU의 PSM 메시지 수신;
    영상 정보를 통해 획득한 상기 VRU의 제1 위치 정보와 상기 PSM 메시지를 통해 획득한 상기 VRU의 제2 위치 정보에 기초하여 상기 VRU의 위치 정보를 결정; 및
    상기 VRU에게 상기 VRU의 위치 정보를 전송하는, 프로세서.
  13. 적어도 하나의 프로세서에 의해 실행될 때, 적어도 하나의 프로세서가 RSU (Road Side Unit)를 위한 동작들을 수행하게 하는 명령을 포함하는 적어도 하나의 컴퓨터 프로그램을 저장하는 비휘발성 컴퓨터 판독 가능 저장 매체에 있어서,
    상기 동작들은, VRU의 PSM 메시지 수신;
    영상 정보를 통해 획득한 상기 VRU의 제1 위치 정보와 상기 PSM 메시지를 통해 획득한 상기 VRU의 제2 위치 정보에 기초하여 상기 VRU의 위치 정보를 결정; 및
    상기 VRU에게 상기 VRU의 위치 정보를 전송하는, 저장 매체.
  14. 무선통신시스템에서 RSU (Road Side Unit)에 관련된 VRU (Vulnerable Road User)의 동작에 있어서,
    상기 VRU가 상기 RSU로 PSM 메시지를 전송;
    상기 VRU가 상기 RSU로부터 상기 VRU의 위치 정보를 수신;
    을 포함하며,
    상기 VRU의 위치 정보는, 상기 RSU가 영상 정보를 통해 획득한 상기 VRU의 제1 위치 정보와 상기 PSM 메시지를 통해 획득한 상기 VRU의 제2 위치 정보에 기초하여 결정되는 것인, 방법.
  15. 무선통신시스템에서, RSU (Road Side Unit)에 관련된 VRU (Vulnerable Road User)에 있어서,
    적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서에 동작 가능하게 연결될 수 있고, 실행될 때 상기 적어도 하나의 프로세서로 하여금 동작들을 수행하게 하는 명령들을 저장하는 적어도 하나의 컴퓨터 메모리를 포함하며,
    상기 동작들은, 상기 VRU가 상기 RSU로 PSM 메시지를 전송;
    상기 VRU가 상기 RSU로부터 상기 VRU의 위치 정보를 수신;
    을 포함하며,
    상기 VRU의 위치 정보는, 상기 RSU가 영상 정보를 통해 획득한 상기 VRU의 제1 위치 정보와 상기 PSM 메시지를 통해 획득한 상기 VRU의 제2 위치 정보에 기초하여 결정되는 것인, VRU.
PCT/KR2021/005463 2020-04-29 2021-04-29 무선통신시스템에서 vru 위치에 관련된 rsu의 동작 방법 WO2021221481A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020227039901A KR20230002757A (ko) 2020-04-29 2021-04-29 무선통신시스템에서 vru 위치에 관련된 rsu의 동작 방법
JP2022565832A JP7419564B2 (ja) 2020-04-29 2021-04-29 無線通信システムにおいてvru位置に関連するrsuの動作方法
US17/997,523 US20230176212A1 (en) 2020-04-29 2021-04-29 Method for operating rsu related to vru location in wireless communication system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2020-0052594 2020-04-29
KR20200052594 2020-04-29
KR20200069349 2020-06-09
KR10-2020-0069349 2020-06-09

Publications (1)

Publication Number Publication Date
WO2021221481A1 true WO2021221481A1 (ko) 2021-11-04

Family

ID=78373734

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/005463 WO2021221481A1 (ko) 2020-04-29 2021-04-29 무선통신시스템에서 vru 위치에 관련된 rsu의 동작 방법

Country Status (4)

Country Link
US (1) US20230176212A1 (ko)
JP (1) JP7419564B2 (ko)
KR (1) KR20230002757A (ko)
WO (1) WO2021221481A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002257564A (ja) * 2001-03-06 2002-09-11 Nippon Telegr & Teleph Corp <Ntt> 精度と計測時刻の異なる複数の位置情報に基づく位置推定方法、システム、プログラム及びプログラムを記録した記録媒体
KR20090013026A (ko) * 2007-07-31 2009-02-04 가부시끼가이샤 도시바 가시광선 통신을 이용한 이동 물체의 위치 판정 방법 및장치
JP2014137321A (ja) * 2013-01-18 2014-07-28 Nec Corp 位置座標変換システム、位置座標変換方法、車載装置、世界座標計測装置および位置座標変換プログラム
KR20190032090A (ko) * 2017-09-19 2019-03-27 삼성전자주식회사 외부 이동 수단으로 릴레이 메시지를 전송하는 전자 장치 및 그 동작 방법
US20190251847A1 (en) * 2018-02-11 2019-08-15 TuSimple Method, device and system for vehicle positioning

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1137776A (ja) * 1997-07-24 1999-02-12 Denso Corp 車両用ナビゲーション装置
JP2008249666A (ja) * 2007-03-30 2008-10-16 Fujitsu Ten Ltd 車両位置特定装置および車両位置特定方法
JP5365792B2 (ja) * 2009-06-01 2013-12-11 マツダ株式会社 車両用位置測定装置
ES2904564T3 (es) * 2015-08-20 2022-04-05 Zendrive Inc Método de navegación asistida por acelerómetro
JP2018180860A (ja) * 2017-04-11 2018-11-15 株式会社デンソー 交通情報システム
JP6816058B2 (ja) * 2017-10-25 2021-01-20 日本電信電話株式会社 パラメータ最適化装置、パラメータ最適化方法、プログラム
JP7119346B2 (ja) * 2017-11-13 2022-08-17 トヨタ自動車株式会社 環境改善システム、ならびにそれに用いられるサーバ
JP7031256B2 (ja) * 2017-11-29 2022-03-08 富士通株式会社 表示制御方法、表示制御プログラムおよび端末装置
KR20200113242A (ko) * 2018-02-06 2020-10-06 씨에이브이에이치 엘엘씨 지능형 도로 인프라구조 시스템(iris): 시스템 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002257564A (ja) * 2001-03-06 2002-09-11 Nippon Telegr & Teleph Corp <Ntt> 精度と計測時刻の異なる複数の位置情報に基づく位置推定方法、システム、プログラム及びプログラムを記録した記録媒体
KR20090013026A (ko) * 2007-07-31 2009-02-04 가부시끼가이샤 도시바 가시광선 통신을 이용한 이동 물체의 위치 판정 방법 및장치
JP2014137321A (ja) * 2013-01-18 2014-07-28 Nec Corp 位置座標変換システム、位置座標変換方法、車載装置、世界座標計測装置および位置座標変換プログラム
KR20190032090A (ko) * 2017-09-19 2019-03-27 삼성전자주식회사 외부 이동 수단으로 릴레이 메시지를 전송하는 전자 장치 및 그 동작 방법
US20190251847A1 (en) * 2018-02-11 2019-08-15 TuSimple Method, device and system for vehicle positioning

Also Published As

Publication number Publication date
JP2023523441A (ja) 2023-06-05
KR20230002757A (ko) 2023-01-05
JP7419564B2 (ja) 2024-01-22
US20230176212A1 (en) 2023-06-08

Similar Documents

Publication Publication Date Title
WO2021029672A1 (ko) 무선통신시스템에서 사이드링크 drx에 관련된 ue의 동작 방법 및 장치
WO2021091244A1 (ko) 무선통신시스템에서 sci 관련 ue의 동작 방법
WO2021096244A1 (ko) 무선통신시스템에서 사이드링크 drx에 관련된 ue의 동작 방법
WO2021085908A1 (ko) 무선통신시스템에서 as configuration 관련 사이드링크 ue의 동작 방법
WO2021162506A1 (ko) 무선통신시스템에서 릴레이 ue에 관련된 ue의 동작 방법
WO2021221448A1 (ko) 무선통신시스템에서 릴레이 수립 요청에 관련된 릴레이 ue의 동작 방법
WO2021154061A1 (ko) 무선통신시스템에서 사이드링크 csi 보고에 관련된 ue의 동작 방법
WO2022080702A1 (ko) 무선통신시스템에서 사이드링크 릴레이 및 rlf에 관련된 ue의 동작 방법
WO2022019643A1 (ko) 무선통신시스템에서 릴레이 ue의 동작 방법
WO2022025667A1 (ko) 무선통신시스템에서 bwp에 관련된 릴레이 ue의 동작 방법
WO2022025665A1 (ko) 무선통신시스템에서 릴레이 ue 선택에 관련된 동작 방법
WO2021206462A1 (ko) 무선통신시스템에서 사이드링크 릴레이에 관련된 릴레이 ue의 동작 방법
WO2021085909A1 (ko) 무선통신시스템에서 pc5 유니캐스트 링크 해제에 관련된 ue의 동작 방법
WO2021040378A1 (ko) 무선통신시스템에서 rlf 발생 후 사이드링크 신호를 송수신하는 ue의 동작 방법 및 장치
WO2021075877A1 (ko) 무선통신시스템에서 사이드링크 타이머에 관련된 ue의 동작 방법
WO2021040361A1 (ko) 무선통신시스템에서 단말의 신호 송수신 방법
WO2022035182A1 (ko) 무선통신시스템에서 센서 로우 데이터 공유와 피드백에 관련된 ue의 동작 방법.
WO2022060117A1 (ko) 무선통신시스템에서 사이드링크 릴레이와 시스템 정보에 관련된 ue의 동작 방법
WO2021145751A1 (ko) 무선통신시스템에서 사이드링크 ptrs에 관련된 ue의 동작 방법
WO2022025615A1 (ko) 무선통신시스템에서 사이드링크 디스커버리에 관련된 동작 방법
WO2021235863A1 (ko) 무선통신시스템에서 rsu와 신호를 송수신하는 vru의 동작 방법
WO2021256908A1 (ko) 무선통신시스템에서 릴레이에 관련된 ue의 동작 방법
WO2021221481A1 (ko) 무선통신시스템에서 vru 위치에 관련된 rsu의 동작 방법
WO2021187910A1 (ko) 무선통신시스템에서 vru의 메시지 송수신 관련 동작 방법
WO2021182909A1 (ko) 무선통신시스템에서 플래투닝에 관련된 ue의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21795409

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022565832

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20227039901

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21795409

Country of ref document: EP

Kind code of ref document: A1