WO2024151036A1 - 무선 통신 시스템에서 신호를 송수신 하는 방법 및 이를 위한 장치 - Google Patents
무선 통신 시스템에서 신호를 송수신 하는 방법 및 이를 위한 장치 Download PDFInfo
- Publication number
- WO2024151036A1 WO2024151036A1 PCT/KR2024/000372 KR2024000372W WO2024151036A1 WO 2024151036 A1 WO2024151036 A1 WO 2024151036A1 KR 2024000372 W KR2024000372 W KR 2024000372W WO 2024151036 A1 WO2024151036 A1 WO 2024151036A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- data
- information
- sensor
- sensor data
- station
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 74
- 238000004891 communication Methods 0.000 title description 106
- 238000001514 detection method Methods 0.000 claims abstract description 58
- 238000012545 processing Methods 0.000 claims description 8
- 230000015654 memory Effects 0.000 description 40
- 238000005516 engineering process Methods 0.000 description 36
- 230000005540 biological transmission Effects 0.000 description 34
- 239000010410 layer Substances 0.000 description 24
- 230000006870 function Effects 0.000 description 23
- 238000004458 analytical method Methods 0.000 description 16
- 238000013473 artificial intelligence Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000008054 signal transmission Effects 0.000 description 6
- 238000007726 management method Methods 0.000 description 5
- 241001465754 Metazoa Species 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000000737 periodic effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 102100022734 Acyl carrier protein, mitochondrial Human genes 0.000 description 2
- 101000678845 Homo sapiens Acyl carrier protein, mitochondrial Proteins 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 241000760358 Enodes Species 0.000 description 1
- 101150071746 Pbsn gene Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical group [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000002346 layers by function Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000005477 standard model Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/88—Image or video recognition using optical means, e.g. reference filters, holographic masks, frequency domain filters or spatial domain filters
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/38—Services specially adapted for particular environments, situations or purposes for collecting sensor information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/90—Services for handling of emergency or hazardous situations, e.g. earthquake and tsunami warning systems [ETWS]
Definitions
- the present invention relates to signal transmission and reception in a wireless communication system, and more specifically, to a method and device for transmitting or receiving signals related to an intelligent transport system (ITS).
- ITS intelligent transport system
- a wireless communication system is a multiple access system that supports communication with multiple users by sharing available system resources (eg, bandwidth, transmission power, etc.).
- multiple access systems include code division multiple access (CDMA) systems, frequency division multiple access (FDMA) systems, time division multiple access (TDMA) systems, orthogonal frequency division multiple access (OFDMA) systems, and single carrier frequency (SC-FDMA) systems. division multiple access) system, MC-FDMA (multi carrier frequency division multiple access) system, etc.
- SL refers to a communication method that establishes a direct link between terminals (User Equipment, UE) and directly exchanges voice or data between terminals without going through a base station (BS).
- UE User Equipment
- BS base station
- SL is being considered as a way to solve the burden on base stations due to rapidly increasing data traffic.
- V2X vehicle-to-everything refers to a communication technology that exchanges information with other vehicles, pedestrians, and objects with built infrastructure through wired/wireless communication.
- V2X can be divided into four types: vehicle-to-vehicle (V2V), vehicle-to-infrastructure (V2I), vehicle-to-network (V2N), and vehicle-to-pedestrian (V2P).
- V2X communication may be provided through the PC5 interface and/or the Uu interface.
- next-generation wireless access technology that takes these into consideration may be referred to as new radio access technology (RAT) or new radio (NR).
- RAT new radio access technology
- NR new radio
- Figure 1 is a diagram for comparing and illustrating V2X communication based on RAT before NR and V2X communication based on NR.
- V2X communication in RAT before NR, a method of providing safety service based on V2X messages such as BSM (Basic Safety Message), CAM (Cooperative Awareness Message), and DENM (Decentralized Environmental Notification Message) This was mainly discussed.
- V2X messages may include location information, dynamic information, attribute information, etc.
- a terminal may transmit a periodic message type CAM and/or an event triggered message type DENM to another terminal.
- CAM may include basic vehicle information such as vehicle dynamic state information such as direction and speed, vehicle static data such as dimensions, external lighting conditions, route history, etc.
- the terminal may broadcast CAM, and the latency of the CAM may be less than 100ms.
- the terminal can generate a DENM and transmit it to another terminal.
- all vehicles within the transmission range of the terminal can receive CAM and/or DENM.
- DENM may have higher priority than CAM.
- V2X scenarios have been presented in NR.
- various V2X scenarios may include vehicle platooning, advanced driving, extended sensors, remote driving, etc.
- vehicles can dynamically form groups and move together. For example, to perform platoon operations based on vehicle platooning, vehicles belonging to the group may receive periodic data from the lead vehicle. For example, vehicles belonging to the group may use periodic data to reduce or widen the gap between vehicles.
- vehicles may become semi-automated or fully automated. For example, each vehicle may adjust its trajectories or maneuvers based on data obtained from local sensors of nearby vehicles and/or nearby logical entities. Additionally, for example, each vehicle may share driving intentions with nearby vehicles.
- raw data or processed data acquired through local sensors, or live video data can be used to collect terminals of vehicles, logical entities, and pedestrians. /Or it can be interchanged between V2X application servers. Therefore, for example, a vehicle can perceive an environment that is better than what it can sense using its own sensors.
- a remote driver or V2X application can operate or control the remote vehicle.
- cloud computing-based driving can be used to operate or control the remote vehicle.
- access to a cloud-based back-end service platform may be considered for remote driving.
- the problem to be solved is to provide a method and device for sending and receiving V2X messages more accurately and efficiently in an intelligent transportation system (ITS).
- ITS intelligent transportation system
- a method for a first device to transmit a signal in an intelligent transportation system (ITS) includes acquiring first sensor data through a first sensor; Receiving second sensor data detected through a second sensor different from the first sensor from a second device; And transmitting a V2X (vehicle-to-everything) message including object detection information based on the first sensor data, wherein the first device determines that the first sensor data and the second sensor data are in conflict.
- the object detection information included in the V2X message can be determined based on whether or not the object detection information is included in the V2X message.
- a computer-readable recording medium recording a program for performing the above-described method may be provided.
- a first device for transmitting a signal in an intelligent transportation system includes: a first sensor; transceiver; and a processor that controls the first sensor and the transceiver, wherein the processor acquires first sensor data through the first sensor and detects a second sensor through a second sensor different from the first sensor.
- the object detection information included in the V2X message can be determined based on whether the data conflicts.
- the object detection information may include information about high-resolution (HD) data of the first sensor data that has not been processed by the first device.
- the information about the high-resolution data may include address information for accessing the high-resolution data.
- the information about the high-resolution data may include at least one of valid time information, video type information, maximum resolution information, and maximum frame number information of the high-resolution data.
- the first device may process the first center data to configure the object detection information.
- the V2X message may include information about the type of the second device providing the second sensor data.
- the type of the second device may be related to whether the second device is a road side unit (RSU) or a central-intelligent transportation system (C-ITS) server.
- RSU road side unit
- C-ITS central-intelligent transportation system
- the object detection information may include information about high-resolution (HD) data of the first sensor data that has not been processed in the first device. there is.
- HD high-resolution
- the object detection information includes information about high-resolution (HD) data of the first sensor data that has not been processed by the first device. It can be included.
- HD high-resolution
- the object detection information may include information about high-definition (HD) data of the first sensor data that has not been processed in the first device.
- HD high-definition
- V2X messages can be transmitted and received more accurately and efficiently in an intelligent transportation system (ITS).
- ITS intelligent transportation system
- Figure 1 is a diagram for comparing and illustrating V2X communication based on RAT before NR and V2X communication based on NR.
- Figure 2 shows the structure of the LTE system.
- Figure 3 shows the structure of the NR system.
- Figure 4 shows the structure of a radio frame of NR.
- Figure 5 shows the slot structure of an NR frame.
- Figure 6 shows the radio protocol architecture for SL communication.
- Figure 7 shows a terminal performing V2X or SL communication.
- Figure 8 shows resource units for V2X or SL communication.
- Figure 9 is a diagram explaining transmission of center recognition detection information by an existing ITS station.
- Figure 10 shows an example in which an ITS station equipped with a sensor provides information to surrounding ITS stations.
- 11 and 12 show examples of various environments for transmitting unprocessed HD data.
- Figure 13 is a diagram for explaining service setup of receiving ITS stations.
- Figure 14 shows an example of an SDSM message.
- Figure 15 shows an example of RSM.
- Figure 16 shows an example of an HD data Request Message.
- Figure 17 shows the operation of a transmitting ITS station according to one embodiment.
- Figure 18 shows the operation of a receiving ITS station according to one embodiment.
- Figure 19 shows signal transmission and reception operations of an ITS station according to an embodiment.
- Figure 20 shows the flow of a signal transmission method according to one embodiment.
- Figure 21 illustrates a communication system applicable to this embodiment.
- Figure 22 illustrates a wireless device to which the present invention can be applied.
- Figure 23 shows another example of a wireless device applicable to this embodiment.
- Figure 24 illustrates a vehicle or autonomous vehicle applicable to this embodiment.
- a wireless communication system is a multiple access system that supports communication with multiple users by sharing available system resources (eg, bandwidth, transmission power, etc.).
- multiple access systems include code division multiple access (CDMA) systems, frequency division multiple access (FDMA) systems, time division multiple access (TDMA) systems, orthogonal frequency division multiple access (OFDMA) systems, and single carrier frequency (SC-FDMA) systems. division multiple access) system, MC-FDMA (multi carrier frequency division multiple access) system, etc.
- Sidelink refers to a communication method that establishes a direct link between terminals (User Equipment, UE) and directly exchanges voice or data between terminals without going through a base station (BS). Sidelink is being considered as a way to solve the burden on base stations due to rapidly increasing data traffic.
- UE User Equipment
- BS base station
- V2X vehicle-to-everything refers to a communication technology that exchanges information with other vehicles, pedestrians, and objects with built infrastructure through wired/wireless communication.
- V2X can be divided into four types: vehicle-to-vehicle (V2V), vehicle-to-infrastructure (V2I), vehicle-to-network (V2N), and vehicle-to-pedestrian (V2P).
- V2X communication may be provided through the PC5 interface and/or the Uu interface.
- RAT radio access technology
- NR new radio
- CDMA code division multiple access
- FDMA frequency division multiple access
- TDMA time division multiple access
- OFDMA orthogonal frequency division multiple access
- SC-FDMA single carrier frequency division multiple access
- CDMA can be implemented with wireless technologies such as universal terrestrial radio access (UTRA) or CDMA2000.
- TDMA may be implemented with wireless technologies such as global system for mobile communications (GSM)/general packet radio service (GPRS)/enhanced data rates for GSM evolution (EDGE).
- GSM global system for mobile communications
- GPRS general packet radio service
- EDGE enhanced data rates for GSM evolution
- OFDMA can be implemented with wireless technologies such as Institute of Electrical and Electronics Engineers (IEEE) 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802-20, and evolved UTRA (E-UTRA).
- IEEE Institute of Electrical and Electronics Engineers
- Wi-Fi Wi-Fi
- WiMAX IEEE 802.16
- E-UTRA evolved UTRA
- IEEE 802.16m is an evolution of IEEE 802.16e and provides backward compatibility with systems based on IEEE 802.16e.
- UTRA is part of the universal mobile telecommunications system (UMTS).
- 3GPP (3rd generation partnership project) LTE (long term evolution) is a part of E-UMTS (evolved UMTS) that uses E-UTRA (evolved-UMTS terrestrial radio access), employing OFDMA in the downlink and SC in the uplink.
- -Adopt FDMA LTE-A (advanced) is the evolution of 3GPP LTE.
- 5G NR is a successor technology to LTE-A and is a new clean-slate mobile communication system with characteristics such as high performance, low latency, and high availability.
- 5G NR can utilize all available spectrum resources, including low-frequency bands below 1 GHz, mid-frequency bands between 1 GHz and 10 GHz, and high-frequency (millimeter wave) bands above 24 GHz.
- LTE-A or 5G NR is mainly described, but the technical idea of the embodiment(s) is not limited thereto.
- FIG. 2 shows the structure of an LTE system that can be applied. This may be called an Evolved-UMTS Terrestrial Radio Access Network (E-UTRAN), or a Long Term Evolution (LTE)/LTE-A system.
- E-UTRAN Evolved-UMTS Terrestrial Radio Access Network
- LTE Long Term Evolution
- LTE-A Long Term Evolution
- E-UTRAN includes a base station (BS) 20 that provides a control plane and a user plane to the terminal 10.
- the terminal 10 may be fixed or mobile, and may be called by other terms such as MS (Mobile Station), UT (User Terminal), SS (Subscriber Station), MT (Mobile Terminal), and wireless device.
- the base station 20 refers to a fixed station that communicates with the terminal 10, and may be called other terms such as evolved-NodeB (eNB), base transceiver system (BTS), or access point.
- eNB evolved-NodeB
- BTS base transceiver system
- Base stations 20 may be connected to each other through an X2 interface.
- the base station 20 is connected to an Evolved Packet Core (EPC) 30 through the S1 interface, and more specifically, to a Mobility Management Entity (MME) through S1-MME and to a Serving Gateway (S-GW) through S1-U.
- EPC Evolved Packet Core
- MME Mobility Management Entity
- S-GW Serving Gateway
- the EPC 30 is composed of MME, S-GW, and P-GW (Packet Data Network-Gateway).
- the MME has information about the terminal's connection information or terminal capabilities, and this information is mainly used for terminal mobility management.
- S-GW is a gateway with E-UTRAN as an endpoint
- P-GW is a gateway with PDN as an endpoint.
- the layers of the Radio Interface Protocol between the terminal and the network are based on the lower three layers of the Open System Interconnection (OSI) standard model, which is widely known in communication systems: L1 (layer 1), It can be divided into L2 (second layer) and L3 (third layer).
- OSI Open System Interconnection
- the physical layer belonging to the first layer provides information transfer service using a physical channel
- the RRC (Radio Resource Control) layer located in the third layer provides radio resources between the terminal and the network. plays a role in controlling.
- the RRC layer exchanges RRC messages between the terminal and the base station.
- Figure 3 shows the structure of the NR system.
- NG-RAN may include a gNB and/or eNB that provide user plane and control plane protocol termination to the UE.
- Figure 7 illustrates a case including only gNB.
- gNB and eNB are connected to each other through the Xn interface.
- gNB and eNB are connected through the 5G Core Network (5GC) and NG interface. More specifically, it is connected to the access and mobility management function (AMF) through the NG-C interface, and to the user plane function (UPF) through the NG-U interface.
- 5GC 5G Core Network
- AMF access and mobility management function
- UPF user plane function
- Figure 4 shows the structure of a radio frame of NR.
- NR can use radio frames in uplink and downlink transmission.
- a wireless frame has a length of 10ms and can be defined as two 5ms half-frames (HF).
- a half-frame may include five 1ms subframes (Subframe, SF).
- a subframe may be divided into one or more slots, and the number of slots within a subframe may be determined according to subcarrier spacing (SCS).
- SCS subcarrier spacing
- Each slot may contain 12 or 14 OFDM(A) symbols depending on the cyclic prefix (CP).
- each slot may contain 14 symbols.
- each slot can contain 12 symbols.
- the symbol may include an OFDM symbol (or CP-OFDM symbol), a single carrier-FDMA (SC-FDMA) symbol (or a Discrete Fourier Transform-spread-OFDM (DFT-s-OFDM) symbol).
- OFDM symbol or CP-OFDM symbol
- SC-FDMA single carrier-FDMA
- DFT-s-OFDM Discrete Fourier Transform-spread-OFDM
- Table 1 below shows the number of symbols per slot ((N slot symb ), the number of slots per frame ((N frame,u slot ), and the number of slots per subframe according to the SCS setting (u) when normal CP is used. ((N subframe,u slot ) is an example.
- Table 2 illustrates the number of symbols per slot, the number of slots per frame, and the number of slots per subframe according to the SCS when the extended CP is used.
- OFDM(A) numerology eg, SCS, CP length, etc.
- OFDM(A) numerology eg, SCS, CP length, etc.
- the (absolute time) section of time resources e.g., subframes, slots, or TTI
- TU Time Unit
- multiple numerologies or SCSs can be supported to support various 5G services. For example, if SCS is 15kHz, a wide area in traditional cellular bands can be supported, and if SCS is 30kHz/60kHz, dense-urban, lower latency latency) and wider carrier bandwidth may be supported. For SCS of 60 kHz or higher, bandwidths greater than 24.25 GHz can be supported to overcome phase noise.
- the NR frequency band can be defined as two types of frequency ranges.
- the two types of frequency ranges may be FR1 and FR2.
- the values of the frequency range may be changed, for example, the frequency ranges of the two types may be as shown in Table 3 below.
- FR1 may mean "sub 6GHz range”
- FR2 may mean “above 6GHz range” and may be called millimeter wave (mmW).
- mmW millimeter wave
- FR1 may include a band of 410 MHz to 7125 MHz as shown in Table 4 below. That is, FR1 may include a frequency band of 6GHz (or 5850, 5900, 5925 MHz, etc.). For example, the frequency band above 6 GHz (or 5850, 5900, 5925 MHz, etc.) included within FR1 may include an unlicensed band. Unlicensed bands can be used for a variety of purposes, for example, for communications for vehicles (e.g., autonomous driving).
- Figure 5 shows the slot structure of an NR frame.
- a slot includes a plurality of symbols in the time domain.
- one slot may include 14 symbols, but in the case of extended CP, one slot may include 12 symbols.
- one slot may include 7 symbols, but in the case of extended CP, one slot may include 6 symbols.
- a carrier wave includes a plurality of subcarriers in the frequency domain.
- a Resource Block (RB) may be defined as a plurality (eg, 12) consecutive subcarriers in the frequency domain.
- BWP (Bandwidth Part) can be defined as a plurality of consecutive (P)RB ((Physical) Resource Blocks) in the frequency domain and can correspond to one numerology (e.g. SCS, CP length, etc.) there is.
- a carrier wave may include up to N (e.g., 5) BWPs. Data communication can be performed through an activated BWP.
- Each element may be referred to as a Resource Element (RE) in the resource grid, and one complex symbol may be mapped.
- RE Resource Element
- the wireless interface between the terminal and the terminal or the wireless interface between the terminal and the network may be composed of an L1 layer, an L2 layer, and an L3 layer.
- the L1 layer may refer to a physical layer.
- the L2 layer may mean at least one of the MAC layer, RLC layer, PDCP layer, and SDAP layer.
- the L3 layer may mean the RRC layer.
- V2X or SL (sidelink) communication will be described.
- Figure 6 shows the radio protocol architecture for SL communication. Specifically, Figure 6(a) shows the user plane protocol stack of NR, and Figure 6(b) shows the control plane protocol stack of NR.
- SLSS Sidelink Synchronization Signal
- SLSS is a SL-specific sequence and may include Primary Sidelink Synchronization Signal (PSSS) and Secondary Sidelink Synchronization Signal (SSSS).
- PSSS Primary Sidelink Synchronization Signal
- SSSS Secondary Sidelink Synchronization Signal
- the PSSS may be referred to as S-PSS (Sidelink Primary Synchronization Signal), and the SSSS may be referred to as S-SSS (Sidelink Secondary Synchronization Signal).
- S-PSS Systemlink Primary Synchronization Signal
- S-SSS Sidelink Secondary Synchronization Signal
- length-127 M-sequences can be used for S-PSS
- length-127 Gold sequences can be used for S-SSS.
- the terminal can detect the first signal and obtain synchronization using S-PSS.
- the terminal can obtain detailed synchronization using S-PSS and S-SSS and detect the synchronization signal ID.
- PSBCH Physical Sidelink Broadcast Channel
- PSBCH Physical Sidelink Broadcast Channel
- the basic information includes SLSS-related information, duplex mode (DM), TDD UL/DL (Time Division Duplex Uplink/Downlink) configuration, resource pool-related information, type of application related to SLSS, This may be subframe offset, broadcast information, etc.
- the payload size of PSBCH may be 56 bits, including a CRC of 24 bits.
- S-PSS, S-SSS, and PSBCH may be included in a block format that supports periodic transmission (e.g., SL Synchronization Signal (SS)/PSBCH block, hereinafter referred to as Sidelink-Synchronization Signal Block (S-SSB)).
- the S-SSB may have the same numerology (i.e., SCS and CP length) as the PSCCH (Physical Sidelink Control Channel)/PSSCH (Physical Sidelink Shared Channel) in the carrier, and the transmission bandwidth is (pre-set) SL BWP (Sidelink BWP).
- the bandwidth of S-SSB may be 11 RB (Resource Block).
- PSBCH may span 11 RB.
- the frequency position of the S-SSB can be set (in advance). Therefore, the UE does not need to perform hypothesis detection at the frequency to discover the S-SSB in the carrier.
- the transmitting terminal can transmit one or more S-SSBs to the receiving terminal within one S-SSB transmission period according to the SCS.
- the number of S-SSBs that the transmitting terminal transmits to the receiving terminal within one S-SSB transmission period may be pre-configured or configured for the transmitting terminal.
- the S-SSB transmission period may be 160ms.
- an S-SSB transmission period of 160ms can be supported.
- the transmitting terminal can transmit one or two S-SSBs to the receiving terminal within one S-SSB transmission period.
- the transmitting terminal can transmit one or two S-SSBs to the receiving terminal within one S-SSB transmission period.
- the transmitting terminal can transmit 1, 2, or 4 S-SSBs to the receiving terminal within one S-SSB transmission cycle.
- the transmitting terminal can transmit 1, 2, 4, 8, 16, or 32 S-SSBs to the receiving terminal within one S-SSB transmission cycle. there is.
- the transmitting terminal sends 1, 2, 4, 8, 16, 32, or 64 S-SSBs to the receiving terminal within one S-SSB transmission cycle. can be transmitted.
- the structure of the S-SSB transmitted from the transmitting terminal to the receiving terminal may be different depending on the CP type.
- the CP type may be Normal CP (NCP) or Extended CP (ECP).
- NCP Normal CP
- ECP Extended CP
- the number of symbols for mapping PSBCH within the S-SSB transmitted by the transmitting terminal may be 9 or 8.
- the CP type is ECP
- the number of symbols mapping PSBCH within the S-SSB transmitted by the transmitting terminal may be 7 or 6.
- PSBCH may be mapped to the first symbol in the S-SSB transmitted by the transmitting terminal.
- a receiving terminal that receives S-SSB may perform an automatic gain control (AGC) operation in the first symbol section of the S-SSB.
- AGC automatic gain control
- Figure 7 shows a terminal performing V2X or SL communication.
- terminal may mainly refer to the user's terminal.
- network equipment such as a base station transmits and receives signals according to a communication method between terminals
- the base station may also be considered a type of terminal.
- terminal 1 may be the first device 100
- terminal 2 may be the second device 200.
- Terminal 1 can select a resource unit corresponding to a specific resource within a resource pool, which means a set of resources. And, Terminal 1 can transmit an SL signal using the resource unit.
- Terminal 2 the receiving terminal, can receive a resource pool through which Terminal 1 can transmit a signal, and can detect the signal of Terminal 1 within the resource pool.
- the base station can inform terminal 1 of the resource pool.
- another terminal may inform terminal 1 of a resource pool, or terminal 1 may use a preset resource pool.
- a resource pool may be composed of multiple resource units, and each terminal can select one or multiple resource units and use them to transmit its SL signal.
- Figure 8 shows resource units for V2X or SL communication.
- the total frequency resources of the resource pool may be divided into NF numbers, and the total time resources of the resource pool may be divided into NT numbers. Therefore, a total of NF * NT resource units can be defined within the resource pool.
- Figure 8 shows an example where the resource pool is repeated in a period of NT subframes.
- one resource unit (eg, Unit #0) may appear periodically and repeatedly.
- the index of the physical resource unit to which one logical resource unit is mapped may change in a predetermined pattern over time.
- a resource pool may mean a set of resource units that a terminal that wants to transmit an SL signal can use for transmission.
- Resource pools can be subdivided into several types. For example, depending on the content of the SL signal transmitted in each resource pool, resource pools can be divided as follows.
- SA Scheduling Assignment
- MCS Modulation and Coding Scheme
- MIMO Multiple Input Multiple Output
- SA can also be multiplexed and transmitted with SL data on the same resource unit, and in this case, the SA resource pool may mean a resource pool in which SA is multiplexed and transmitted with SL data.
- SA may also be called a SL control channel.
- the SL data channel may be a resource pool used by the transmitting terminal to transmit user data. If SA is multiplexed and transmitted along with SL data on the same resource unit, only the SL data channel excluding SA information can be transmitted from the resource pool for the SL data channel. In other words, Resource Elements (REs) that were used to transmit SA information on individual resource units within the SA resource pool can still be used to transmit SL data in the resource pool of the SL data channel. For example, the transmitting terminal may transmit PSSCH by mapping it to consecutive PRBs.
- REs Resource Elements
- the discovery channel may be a resource pool for the transmitting terminal to transmit information such as its ID. Through this, the transmitting terminal can enable adjacent terminals to discover itself.
- the method of determining the transmission timing of the SL signal e.g., whether it is transmitted at the reception point of the synchronization reference signal or transmitted by applying a certain timing advance at the reception point
- resources Allocation method e.g., does the base station assign transmission resources for individual signals to individual transmitting terminals or does the individual transmitting terminal select individual signal transmission resources on its own within the resource pool
- signal format e.g., each SL It may be divided into different resource pools depending on the number of symbols that a signal occupies in one subframe (or the number of subframes used for transmission of one SL signal), signal strength from the base station, transmission power strength of the SL terminal, etc.
- Figure 9 is a diagram explaining transmission of center recognition detection information by an existing ITS station.
- each ITS station does not transmit high definition (HD) data as is before it is recognized and analyzed by its own sensor.
- HD high definition
- information on objects detected from HD data is configured as a V2X message and sensor recognition information is transmitted to a nearby ITS station to reduce the amount of data required for transmission.
- an ITS station equipped with a sensor transmits detected object information recognized and analyzed by the sensor and broadcasts the message
- an ITS station passing near the ITS station transmitting the message e.g. OBU, vehicle ITS station or VRU
- Each sensor mounted on the ITS station(s) may have different recognition and detection capabilities, and the ability to analyze the detected HD data may also vary. Therefore, the object information included in the message transmitted from the ITS station may vary depending on the recognition detection ability and HD data analysis ability of the sensor mounted on the ITS station.
- the ITS station that receives the message by passing near the sending ITS station trusts the analysis information about the object included in the V2X message it received and can predict the risk of collision based on this.
- the receiving ITS station cannot know about errors or reductions in information that may occur during the process of analyzing/processing information about an object at the sending ITS station.
- unprocessed HD data is transmitted to increase the amount of data transmission and reception. It minimizes traffic while maintaining more efficient traffic flow and preventing the risk of collision.
- the transmitting ITS station configures the analyzed information as a V2X message and transmits it.
- unprocessed HD data can be provided only to that ITS station through the unicast method.
- the ITS station transmitting the V2X message can consider how to construct the V2X message by receiving information that can be included in the V2X message through various methods.
- Figure 10 shows an example in which an ITS station equipped with a sensor provides information to surrounding ITS stations.
- the first ITS station equipped with a sensor can detect object information from HD data acquired with a sensor, analyze it, and configure it into a V2X message. Detection of object information may relate, for example, to a road pothole situation or a situation in which a VRU object attempting to cross the road is analyzed.
- the V2X message can be provided to the second ITS station located near the first ITS station.
- FIG 11 shows an example in which an RSU connected to the Central ITS system provides road condition information to a vehicle or ITS station approaching the surrounding area.
- the Central ITS system e.g., Road Traffic Authority
- road situation information e.g., planned road construction situation, unexpected accident situation
- RSU can configure road situation information into a V2X message and provide it to vehicles or ITS stations approaching nearby.
- the ITS station which receives information from a sensor or Central ITS system, analyzes and transmits this information, analyzes object information, constructs a V2X message, and transmits it to a nearby Vehicle station or VRU station, and then arrives at a specific proposed situation. Unprocessed HD data can also be transmitted. When the situation is resolved, a step-by-step sensor detection information transmission method and device are proposed to transmit object information analyzed through sensor recognition again.
- the transmitting ITS station equipped with a sensor analyzes sensor detection recognition information and sends it as a V2X message. Since the ability to detect objects from unprocessed HD data recognized by a sensor varies depending on the capabilities of the transmitting ITS station, the following situations may occur.
- the sending ITS station detects a specific object through sensor recognition, but the confidence in the detection information is low, it cannot be included in the V2X message, or when it is analyzed that there is a risk of collision due to the detected object.
- the sending ITS station can use the HD data recognized by the sensor to construct and transmit a V2X message as shown below.
- DetectedObjectList:: SEQUENCE (SIZE(1..256)) OF DetectedObjectData
- DetectedObjectData:: SEQUENCE ⁇ detObjCommon DetectedObjectCommonData ⁇ (a) -- Common data for detected object detObjOptData DetectedObjectOptionalData OPTIONAL ⁇ (b) --Type specific optional data ⁇
- DetectedObjectCommonData:: SEQUENCE ⁇ objType ObjectType, ⁇ (c) objTypeCfd ClassificationConfidence; objectID ObjectID, --temporary ID assigned by source measurementTime MeasurementTimeOffset, --Detection time timeConfidence TimeConfidence, pos PositionOffsetXYZ, posConfidencePositionConfidenceSet, speed Speed, speedConfidence SpeedConfidence, speedZ Speed OPTIONAL, speedConfidenceZ SpeedConfidence OPTIONAL, heading Heading, headingConf HeadingConfidence,
- detObjCommon DetectedObjectCommonData parameter (b) detObjOptData DetectedObjectOptionalData can be used additionally (optionally) when the object type is Vehicle/VRU/animal.
- Sensor detection information of the transmitting ITS station is entered in the ObjectType parameter of objType.
- the BeConflicted parameter of beConflictedd is set to (1) or (2).
- the conflictedObjID parameter of conflictedObjID is set to the objectID value included in another V2X message.
- the sending ITS station writes the analysis result of the sensor recognition detection object as unknown in the V2X message, but sends HD data (snap shot or streaming video) as auxiliary information to help the receiving ITS station identify it.
- FIG. 12 shows an example when a proposal for the first case is implemented.
- vehicles equipped with sensors can transmit the information acquired through the sensor and unprocessed HD data to the RSU.
- RSU collects road condition information through a connected network and transmits it to a server in charge of management functions, such as RTA, to strengthen road management functions and share such information with other vehicles.
- management functions such as RTA
- the transmitting ITS station equipped with a sensor analyzes sensor detection recognition information and transmits it as a V2X message. Since the ability to detect an object from unprocessed HD data recognized by a sensor varies depending on the capability of the sending ITS station, it receives a V2X message containing object information analyzed by another ITS station equipped with a sensor, and configures and transmits it. It may be different from the object information included in the V2X message, and the results obtained by analyzing the data recognized by the own sensor may differ from the planned road situation (e.g. construction zone, traffic accident status) shared by the Central ITS station. there is.
- the planned road situation e.g. construction zone, traffic accident status
- object information obtained when analyzing HD data recognized through a sensor by a vehicle or RSU equipped with a sensor may be inconsistent with information received from the Central ITS station or another ITS station equipped with a sensor.
- the ITS station (vehicle or RSU) equipped with the sensor can configure its sensor detection result data into a V2X message as shown below.
- the object type and additional information are described based on the results of analyzing the own sensor recognition HD data in the common data part of the Detected object data of the V2X message composed by the sending ITS station, but in a different message Additional information about other conflicting object information contained in or conflicting information transmitted to the Central ITS system can be included in the V2X message.
- DetectedObjectList:: SEQUENCE (SIZE(1..256)) OF DetectedObjectData
- DetectedObjectData:: SEQUENCE ⁇ detObjCommon DetectedObjectCommonData, ⁇ (a) -- Common data for detected object detObjOptData DetectedObjectOptionalData OPTIONAL ⁇ (b) --Type specific optional data ⁇
- DetectedObjectCommonData:: SEQUENCE ⁇ objType ObjectType, ⁇ (c) objTypeCfd ClassificationConfidence; objectID ObjectID, --temporary ID assigned by source measurementTime MeasurementTimeOffset, --Detection time timeConfidence TimeConfidence, pos PositionOffsetXYZ, posConfidencePositionConfidenceSet, speed Speed, speedConfidence SpeedConfidence, speedZ Speed OPTIONAL, speedConfidenceZ SpeedConfidence OPTIONAL, heading Heading, headingConf HeadingConfidence
- the DetectedObjectCommonData parameter of (a) detObjCommon is described in detail below.
- the DetectedObjectOptionalData parameter of detObjOptData can be used additionally (optionally) when the object type is Vehicle/VRU/animal.
- Sensor detection information of the transmitting ITS station is entered in the ObjectType parameter of objType.
- the BeConflicted parameter of beConflicted is set to (1) or (2).
- the conflictedObjID parameter of conflictedObjID is set to the objectID value included in another V2X message.
- vehicles equipped with sensors transmit object information analyzed using their sensors along with unprocessed HD data to the Central ITS station.
- the Central ITS station can update information by reanalyzing and reviewing HD data for the information it provided, or guide function updates to vehicles/RSUs that have sent conflict object analysis information.
- the sending ITS station transmits the unprocessed HD data along with the analyzed object information, and allows the ITS station that received the unprocessed HD data to analyze the data. Suggest a way to do it.
- a high priority situation is defined as follows. When the following situation occurs, the V2X message analyzing the sensor detection information can be transmitted along with the HD data before analysis, allowing the receiving ITS station to obtain more accurate information.
- the transmitting ITS station provides unprocessed HD data recognized through a sensor, taking into account various factors such as the communication environment where the transmitting and receiving ends are connected and the type (e.g. vehicle, RSU, VRU, etc.) and capability of the transmitting/receiving ITS station. You can choose a method.
- the sending ITS station and the receiving ITS station When using a V2N-based communication environment, the sending ITS station and the receiving ITS station first go through a service set-up process when using the sensor recognition information service. At this time, ITS stations connected based on V2N communication use the unprocessed HD data transmission/reception method. You can set factors that may affect the decision.
- the sending ITS station can set conditions when uploading unprocessed HD data to a server connected to the network.
- Conditions for additional upload of HD data if object recognition information after analysis includes an unknown object, if analysis results conflict, if a high priority situation occurs, etc.
- the receiving ITS station can set the conditions for receiving unprocessed HD data obtained by the server through the network connected to the server.
- the conditions for sending additional HD data can be further detailed.
- the object recognition information may include an unknown object, and may have conditions such as when the distance to which the unknown object falls is less than a certain value, when the moving speed of the object is more than a certain value, or when the size of the object is more than a certain value.
- Figure 13 is a diagram for explaining service setup of receiving ITS stations.
- the receiving ITS station (1301) does not perform upload, and sets-up the service to receive HD data when it requests download from the network.
- the receiving ITS station (1302) does not perform uploads, and the download service is set up to always receive HD data.
- the sensor 1303 can generate a V2X message by obtaining and analyzing sensor-detected HD data. At this time, it is assumed that the type of the detected object is an unknown object.
- the network Upon receiving a V2X message for an unknown object, the network notifies the receiving ITS station (1301) that unprocessed HD data can be provided and can transmit unprocessed HD data characteristic information.
- the network If the receiving ITS station (1301) requests it, the network provides unprocessed HD data to the receiving ITS station (1301).
- the network may provide a V2X message containing unprocessed HD data to the receiving ITS station (1302) upon receipt of the V2X message.
- one of the following methods can be used by the sending ITS station to add and send unprocessed HD data, and the sending ITS station can select this method.
- the sending ITS station broadcasts unprocessed HD data together with processed data (object analysis information).
- the sending ITS station can automatically transmit unprocessed HD data when an unknown object is detected and additional conditions are met.
- the unprocessed HD data itself can be included in the V2X message.
- Access information to receive unprocessed HD data can be included in the V2X message.
- the sending ITS station can individually request it and receive unprocessed HD data through Unicast.
- the sending ITS station can obtain HD data by unicasting each request to several receiving ITS stations or by sharing the access address and authority to receive streaming video or snap shots in the HD data requestable information.
- Unprocessed HD data acquired through sensors has a large data size and can only be used at an ITS station that has the performance to analyze this data. Therefore, even if the situation defined in this specification is such that HD data before analysis can be provided together, the transmitting ITS station can first provide information that HD data can be provided upon request along with key characteristics of the HD data. Afterwards, if the receiving ITS station requests unprocessed HD data from the sending ITS station after reviewing its capabilities and the possibility of analyzing the HD data, unprocessed HD data can be provided.
- SDSM messages containing sensor-recognized object detection information may provide unprocessed HD data.
- unprocessed HD data may be added internally to the SDSM message.
- SDSM since it is assumed that all information constituting the message is information detected by a sensor, it does not include a field regarding whether this information was detected by a sensor or information provided by some other system.
- SDSM may include at least some of the following information.
- HD data related to the object can be provided as a snapshot image or short-term video, which refers to the video type related to this.
- the video type is a video rather than an image, it refers to the maximum number of frames of the video.
- RSU can provide RSM (Road Safety Message), which contains safety-related information that may occur on the road.
- RSM may include requestable HD data information.
- Figure 15 shows an example of RSM.
- RSM does not only include object information detected by a sensor when constructing a message, but can also construct a message by receiving information from various other sources, so it also includes information on whether the information is recognized/detected by the sensor. It can be included.
- the ITS station that has received the SDSM or RSM indicating that HD data request is possible requests unprocessed HD data before analysis as follows.
- the receiving ITS station can request only the partial data (video) needed.
- the receiving ITS station can send an HD data Request Message to provide information about the HD data it wishes to receive.
- the HD data Request Message can be configured based on the HD data request availability information received by the receiving ITS station.
- Figure 16 shows an example of an HD data Request Message.
- the HD data Request Message may be structured as follows.
- Source ITS station ID source RSU (OBU, VRU) ID of SDSM (RSM)
- Video type Can be a moving video or still image type. If the video type is video, the resolution/frame value can be set and included in the HD data Request Message.
- Start time you can request a video by specifying the length of the video by indicating the length of the video in duration.
- the sending ITS station deletes HD data-related information (e.g., HD data requestable information or HD data itself) from the V2X message, and detects and analyzes sensor recognition as before.
- HD data-related information e.g., HD data requestable information or HD data itself
- a V2X message can be composed and transmitted including only one object information.
- Figure 17 shows the operation of a transmitting ITS station according to one embodiment.
- the transmitting ITS station starts the sensor recognition/detection object information service (A01).
- the sending ITS station When connected to a V2N network, the sending ITS station performs service setup settings for methods of sending and receiving unprocessed HD data to the server (A03).
- the transmitting ITS station analyzes object information recognized/detected through the sensor (A04).
- the sending ITS station decides to transmit unprocessed HD data and can select the transmission method (A05). If not, the sending ITS station may generate/transmit a V2X message based on the analysis result (A06).
- the sending ITS station When the sending ITS station is connected to a V2N network, the sending ITS station acquires the service set-up settings of the receiving ITS stations connected to the server (A07), and checks the receiving ITS stations set to receive unprocessed HD data among them ( A08), transmits unprocessed HD data (A09).
- the sending ITS station can transmit a notification message indicating that it can provide unprocessed HD data upon request (A10).
- the sending ITS station receives an unprocessed HD data request message from the receiving ITS station (A11), it can transmit access information and permission messages for unprocessed HD data (A12).
- Figure 18 shows the operation of a receiving ITS station according to one embodiment.
- the receiving ITS station starts sensor recognition/detection object information service (B01).
- the receiving ITS station When connected to a V2N network, the receiving ITS station performs service setup settings for how to transmit and receive unprocessed HD data to the server (B03).
- the receiving ITS station may send a V2X message (B04) (not including unprocessed HD data), a V2X message (B05) including unprocessed HD data, or a Notification message (Notification message) indicating that unprocessed HD data can be provided upon request. B06) can be received.
- the receiving ITS station can acquire unprocessed HD data by accepting automatic reception of unprocessed HD data (B07).
- the receiving ITS station can analyze the V2X message included in the unprocessed HD data (B08) and process the unprocessed HD data to analyze sensor recognition and detected object information (B09).
- the receiving ITS station receives a Notification message indicating that it is possible to provide unprocessed HD data (B06), and the receiving ITS station can request unprocessed HD data from the sending ITS station (B10).
- the receiving ITS station can obtain information for accessing unprocessed HD data from the sending ITS station and use this to receive unprocessed HD data (B11).
- Figure 19 shows the operation of an ITS station according to one embodiment.
- the ITS station starts the sensor recognition/detection object information service (C01).
- the ITS station When connected to a V2N network, the ITS station performs service setup settings for how to transmit and receive unprocessed HD data to the server (C03).
- the ITS station analyzes object information recognized/detected through the sensor (C04).
- ITS station can receive V2X messages from other ITS Stations or networks (C05).
- the ITS station determines the difference between the object information it analyzed and the object information included in the received V2X message (C06). If the difference is below a certain level, the ITS station transmits a sensor recognition/detection object information V2X message (not including unprocessed HD data) (C07). If the difference is above a certain level, the ITS station decides to transmit unprocessed HD data and can select the unprocessed HD data transmission method (C08).
- the ITS station When the ITS station is connected to a V2N network, the ITS station obtains the service set-up settings of the receiving ITS stations connected to the server (C09), and confirms the receiving ITS stations set to receive unprocessed HD data (C10). , transmit unprocessed HD data (C11).
- the ITS station can transmit a notification message indicating that unprocessed HD data can be provided upon request (C12).
- the ITS station receives an unprocessed HD data request message from the receiving ITS station (C13), it can transmit access information and permission messages for the unprocessed HD data (C14).
- Figure 20 shows the flow of a method by which a first device transmits a signal in an intelligent transportation system (ITS) according to an embodiment.
- the first device may be a transmitting ITS station.
- the first device can acquire first sensor data through the first sensor (D05).
- the first device may receive second sensor data detected through a second sensor different from the first sensor from the second device (D10).
- the first device may transmit a V2X (vehicle-to-everything) message containing object detection information based on the first sensor data (D15).
- V2X vehicle-to-everything
- the first device may determine the object detection information included in the V2X message based on whether the first sensor data and the second sensor data conflict.
- the object detection information may include information about high-resolution (HD) data of the first sensor data that has not been processed by the first device.
- the information about the high-resolution data may include address information for accessing the high-resolution data.
- the information about the high-resolution data may include at least one of valid time information, video type information, maximum resolution information, and maximum frame number information of the high-resolution data.
- the first device may process the first center data to configure the object detection information.
- the V2X message may include information about the type of the second device providing the second sensor data.
- the type of the second device may be related to whether the second device is a road side unit (RSU) or a central-intelligent transportation system (C-ITS) server.
- RSU road side unit
- C-ITS central-intelligent transportation system
- the object detection information may include information about high-resolution (HD) data of the first sensor data that has not been processed in the first device. there is.
- HD high-resolution
- the object detection information includes information about high-resolution (HD) data of the first sensor data that has not been processed by the first device. It can be included.
- HD high-resolution
- the object detection information may include information about high-definition (HD) data of the first sensor data that has not been processed in the first device.
- HD high-definition
- Figure 21 illustrates a communication system applicable to this embodiment.
- the communication system 1 applicable to this embodiment includes a wireless device, a base station, and a network.
- a wireless device refers to a device that performs communication using wireless access technology (e.g., 5G NR (New RAT), LTE (Long Term Evolution)) and may be referred to as a communication/wireless/5G device.
- wireless devices include robots (100a), vehicles (100b-1, 100b-2), XR (eXtended Reality) devices (100c), hand-held devices (100d), and home appliances (100e). ), IoT (Internet of Thing) device (100f), and AI device/server (400).
- vehicles may include vehicles equipped with wireless communication functions, autonomous vehicles, vehicles capable of inter-vehicle communication, etc.
- the vehicle may include an Unmanned Aerial Vehicle (UAV) (eg, a drone).
- UAV Unmanned Aerial Vehicle
- XR devices include AR (Augmented Reality)/VR (Virtual Reality)/MR (Mixed Reality) devices, HMD (Head-Mounted Device), HUD (Head-Up Display) installed in vehicles, televisions, smartphones, It can be implemented in the form of computers, wearable devices, home appliances, digital signage, vehicles, robots, etc.
- Portable devices may include smartphones, smart pads, wearable devices (e.g., smartwatches, smart glasses), and computers (e.g., laptops, etc.).
- Home appliances may include TVs, refrigerators, washing machines, etc.
- IoT devices may include sensors, smart meters, etc.
- a base station and network may also be implemented as wireless devices, and a specific wireless device 200a may operate as a base station/network node for other wireless devices.
- Wireless devices 100a to 100f may be connected to the network 300 through the base station 200.
- AI Artificial Intelligence
- the network 300 may be configured using a 3G network, 4G (eg, LTE) network, or 5G (eg, NR) network.
- Wireless devices 100a to 100f may communicate with each other through the base station 200/network 300, but may also communicate directly (e.g. sidelink communication) without going through the base station/network.
- vehicles 100b-1 and 100b-2 may communicate directly (e.g.
- V2V Vehicle to Vehicle
- V2X Vehicle to everything
- an IoT device eg, sensor
- another IoT device eg, sensor
- another wireless device 100a to 100f
- Wireless communication/connection may be established between wireless devices (100a to 100f)/base station (200) and base station (200)/base station (200).
- wireless communication/connection includes various wireless connections such as uplink/downlink communication (150a), sidelink communication (150b) (or D2D communication), and inter-base station communication (150c) (e.g. relay, IAB (Integrated Access Backhaul)).
- This can be achieved through technology (e.g., 5G NR) through wireless communication/connection (150a, 150b, 150c), where a wireless device and a base station/wireless device, and a base station and a base station can transmit/receive wireless signals to each other.
- the wireless communication/connection 150a, 150b, and 150c can transmit/receive signals through various physical channels, based on various proposals of the present invention.
- various configuration information setting processes e.g., channel encoding/decoding, modulation/demodulation, resource mapping/demapping, etc.
- resource allocation processes etc. may be performed.
- Figure 22 illustrates a wireless device to which the present invention can be applied.
- the first wireless device 100 and the second wireless device 200 can transmit and receive wireless signals through various wireless access technologies (eg, LTE, NR).
- ⁇ first wireless device 100, second wireless device 200 ⁇ refers to ⁇ wireless device 100x, base station 200 ⁇ and/or ⁇ wireless device 100x, wireless device 100x) in FIG. 27. ⁇ can be responded to.
- the first wireless device 100 includes one or more processors 102 and one or more memories 104, and may further include one or more transceivers 106 and/or one or more antennas 108.
- Processor 102 controls memory 104 and/or transceiver 106 and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein.
- the processor 102 may process information in the memory 104 to generate first information/signal and then transmit a wireless signal including the first information/signal through the transceiver 106.
- the processor 102 may receive a wireless signal including the second information/signal through the transceiver 106 and then store information obtained from signal processing of the second information/signal in the memory 104.
- the memory 104 may be connected to the processor 102 and may store various information related to the operation of the processor 102. For example, memory 104 may perform some or all of the processes controlled by processor 102 or instructions for performing the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein. Software code containing them can be stored.
- the processor 102 and memory 104 may be part of a communication modem/circuit/chipset designed to implement wireless communication technology (eg, LTE, NR).
- Transceiver 106 may be coupled to processor 102 and may transmit and/or receive wireless signals via one or more antennas 108. Transceiver 106 may include a transmitter and/or receiver. The transceiver 106 can be used interchangeably with an RF (Radio Frequency) unit.
- a wireless device may mean a communication modem/circuit/chipset.
- the UE may include a processor 102 and a memory 104 connected to the RF transceiver.
- the memory 104 may include at least one program capable of performing operations related to the embodiments described in FIGS. 11 to 27 .
- a chip set including the processor 102 and the memory 104 may be configured.
- the chipset may include at least one processor and at least one memory operably connected to the at least one processor and, when executed, cause the at least one processor to perform an operation.
- the second wireless device 200 includes one or more processors 202, one or more memories 204, and may further include one or more transceivers 206 and/or one or more antennas 208.
- Processor 202 controls memory 204 and/or transceiver 206 and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein.
- the processor 202 may process the information in the memory 204 to generate third information/signal and then transmit a wireless signal including the third information/signal through the transceiver 206.
- the processor 202 may receive a wireless signal including the fourth information/signal through the transceiver 206 and then store information obtained from signal processing of the fourth information/signal in the memory 204.
- the memory 204 may be connected to the processor 202 and may store various information related to the operation of the processor 202. For example, memory 204 may perform some or all of the processes controlled by processor 202 or instructions for performing the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein. Software code containing them can be stored.
- the processor 202 and memory 204 may be part of a communication modem/circuit/chip designed to implement wireless communication technology (eg, LTE, NR).
- Transceiver 206 may be coupled to processor 202 and may transmit and/or receive wireless signals via one or more antennas 208. Transceiver 206 may include a transmitter and/or receiver. Transceiver 206 may be used interchangeably with an RF unit.
- a wireless device may mean a communication modem/circuit/chip.
- one or more protocol layers may be implemented by one or more processors 102, 202.
- one or more processors 102, 202 may implement one or more layers (e.g., functional layers such as PHY, MAC, RLC, PDCP, RRC, SDAP).
- One or more processors 102, 202 may generate one or more Protocol Data Units (PDUs) and/or one or more Service Data Units (SDUs) according to the descriptions, functions, procedures, suggestions, methods and/or operational flow charts disclosed herein. can be created.
- PDUs Protocol Data Units
- SDUs Service Data Units
- One or more processors 102, 202 may generate messages, control information, data or information according to the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein.
- One or more processors 102, 202 generate signals (e.g., baseband signals) containing PDUs, SDUs, messages, control information, data or information according to the functions, procedures, suggestions and/or methods disclosed herein. , can be provided to one or more transceivers (106, 206).
- One or more processors 102, 202 may receive signals (e.g., baseband signals) from one or more transceivers 106, 206, and the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein.
- PDU, SDU, message, control information, data or information can be obtained.
- One or more processors 102, 202 may be referred to as a controller, microcontroller, microprocessor, or microcomputer.
- One or more processors 102, 202 may be implemented by hardware, firmware, software, or a combination thereof.
- ASICs Application Specific Integrated Circuits
- DSPs Digital Signal Processors
- DSPDs Digital Signal Processing Devices
- PLDs Programmable Logic Devices
- FPGAs Field Programmable Gate Arrays
- the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document may be implemented using firmware or software, and the firmware or software may be implemented to include modules, procedures, functions, etc.
- Firmware or software configured to perform the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed in this document may be included in one or more processors (102, 202) or stored in one or more memories (104, 204). It may be driven by the above processors 102 and 202.
- the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document may be implemented using firmware or software in the form of codes, instructions and/or sets of instructions.
- One or more memories 104, 204 may be connected to one or more processors 102, 202 and may store various types of data, signals, messages, information, programs, codes, instructions, and/or instructions.
- One or more memories 104, 204 may consist of ROM, RAM, EPROM, flash memory, hard drives, registers, cache memory, computer readable storage media, and/or combinations thereof.
- One or more memories 104, 204 may be located internal to and/or external to one or more processors 102, 202. Additionally, one or more memories 104, 204 may be connected to one or more processors 102, 202 through various technologies, such as wired or wireless connections.
- One or more transceivers 106, 206 may transmit user data, control information, wireless signals/channels, etc. mentioned in the methods and/or operation flowcharts of this document to one or more other devices.
- One or more transceivers 106, 206 may receive user data, control information, wireless signals/channels, etc. referred to in the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein, etc. from one or more other devices. there is.
- one or more transceivers 106 and 206 may be connected to one or more processors 102 and 202 and may transmit and receive wireless signals.
- one or more processors 102, 202 may control one or more transceivers 106, 206 to transmit user data, control information, or wireless signals to one or more other devices. Additionally, one or more processors 102, 202 may control one or more transceivers 106, 206 to receive user data, control information, or wireless signals from one or more other devices. In addition, one or more transceivers (106, 206) may be connected to one or more antennas (108, 208), and one or more transceivers (106, 206) may perform the description and functions disclosed in this document through one or more antennas (108, 208). , may be set to transmit and receive user data, control information, wireless signals/channels, etc.
- one or more antennas may be multiple physical antennas or multiple logical antennas (eg, antenna ports).
- One or more transceivers (106, 206) process the received user data, control information, wireless signals/channels, etc. using one or more processors (102, 202), and convert the received wireless signals/channels, etc. from the RF band signal. It can be converted to a baseband signal.
- One or more transceivers (106, 206) may convert user data, control information, wireless signals/channels, etc. processed using one or more processors (102, 202) from baseband signals to RF band signals.
- one or more transceivers 106, 206 may comprise (analog) oscillators and/or filters.
- FIG. 23 shows another example of a wireless device applicable to this embodiment.
- Wireless devices can be implemented in various forms depending on usage-examples/services (see FIG. 27).
- the wireless devices 100 and 200 correspond to the wireless devices 100 and 200 of FIG. 22 and include various elements, components, units/units, and/or modules. ) can be composed of.
- the wireless devices 100 and 200 may include a communication unit 110, a control unit 120, a memory unit 130, and an additional element 140.
- the communication unit may include communication circuitry 112 and transceiver(s) 114.
- communication circuitry 112 may include one or more processors 102, 202 and/or one or more memories 104, 204 of FIG. 23.
- transceiver(s) 114 may include one or more transceivers 106, 206 and/or one or more antennas 108, 208 of FIG. 22.
- the control unit 120 is electrically connected to the communication unit 110, the memory unit 130, and the additional element 140 and controls overall operations of the wireless device. For example, the control unit 120 may control the electrical/mechanical operation of the wireless device based on the program/code/command/information stored in the memory unit 130. In addition, the control unit 120 transmits the information stored in the memory unit 130 to the outside (e.g., another communication device) through the communication unit 110 through a wireless/wired interface, or to the outside (e.g., to another communication device) through the communication unit 110. Information received through a wireless/wired interface from another communication device may be stored in the memory unit 130.
- the outside e.g., another communication device
- Information received through a wireless/wired interface from another communication device may be stored in the memory unit 130.
- the additional element 140 may be configured in various ways depending on the type of wireless device.
- the additional element 140 may include at least one of a power unit/battery, an input/output unit (I/O unit), a driving unit, and a computing unit.
- wireless devices include robots (FIG. 21, 100a), vehicles (FIG. 21, 100b-1, 100b-2), XR devices (FIG. 21, 100c), portable devices (FIG. 21, 100d), and home appliances. (FIG. 21, 100e), IoT device (FIG.
- digital broadcasting terminal digital broadcasting terminal
- hologram device public safety device
- MTC device medical device
- fintech device or financial device
- security device climate/environment device
- It can be implemented in the form of an AI server/device (FIG. 21, 400), a base station (FIG. 21, 200), a network node, etc.
- Wireless devices can be mobile or used in fixed locations depending on the usage/service.
- various elements, components, units/parts, and/or modules within the wireless devices 100 and 200 may be entirely interconnected through a wired interface, or at least a portion may be wirelessly connected through the communication unit 110.
- the control unit 120 and the communication unit 110 are connected by wire, and the control unit 120 and the first unit (e.g., 130 and 140) are connected through the communication unit 110.
- the control unit 120 and the first unit e.g., 130 and 140
- each element, component, unit/part, and/or module within the wireless devices 100 and 200 may further include one or more elements.
- the control unit 120 may be comprised of one or more processor sets.
- control unit 120 may be comprised of a communication control processor, an application processor, an electronic control unit (ECU), a graphics processing processor, and a memory control processor.
- memory unit 130 includes random access memory (RAM), dynamic RAM (DRAM), read only memory (ROM), flash memory, volatile memory, and non-volatile memory. volatile memory) and/or a combination thereof.
- Figure 24 illustrates a vehicle or autonomous vehicle applicable to this embodiment.
- a vehicle or autonomous vehicle can be implemented as a mobile robot, vehicle, train, manned/unmanned aerial vehicle (AV), ship, etc.
- AV manned/unmanned aerial vehicle
- the vehicle or autonomous vehicle 100 includes an antenna unit 108, a communication unit 110, a control unit 120, a drive unit 140a, a power supply unit 140b, a sensor unit 140c, and an autonomous driving unit. It may include a portion 140d.
- the antenna unit 108 may be configured as part of the communication unit 110. Blocks 110/130/140a to 140d respectively correspond to blocks 110/130/140 in FIG. 22.
- the communication unit 110 may transmit and receive signals (e.g., data, control signals, etc.) with external devices such as other vehicles, base stations (e.g. base stations, road side units, etc.), and servers.
- the control unit 120 may perform various operations by controlling elements of the vehicle or autonomous vehicle 100.
- the control unit 120 may include an Electronic Control Unit (ECU).
- the driving unit 140a can drive the vehicle or autonomous vehicle 100 on the ground.
- the driving unit 140a may include an engine, motor, power train, wheels, brakes, steering device, etc.
- the power supply unit 140b supplies power to the vehicle or autonomous vehicle 100 and may include a wired/wireless charging circuit, a battery, etc.
- the sensor unit 140c can obtain vehicle status, surrounding environment information, user information, etc.
- the sensor unit 140c includes an inertial measurement unit (IMU) sensor, a collision sensor, a wheel sensor, a speed sensor, an inclination sensor, a weight sensor, a heading sensor, a position module, and a vehicle forward sensor. / May include a reverse sensor, battery sensor, fuel sensor, tire sensor, steering sensor, temperature sensor, humidity sensor, ultrasonic sensor, illuminance sensor, pedal position sensor, etc.
- the autonomous driving unit 140d includes technology for maintaining the driving lane, technology for automatically adjusting speed such as adaptive cruise control, technology for automatically driving along a set route, and technology for automatically setting and driving when a destination is set. Technology, etc. can be implemented.
- the communication unit 110 may receive map data, traffic information data, etc. from an external server.
- the autonomous driving unit 140d may create an autonomous driving route and driving plan based on the acquired data.
- the control unit 120 may control the driving unit 140a so that the vehicle or autonomous vehicle 100 moves along the autonomous driving path according to the driving plan (e.g., speed/direction control).
- the communication unit 110 may acquire the latest traffic information data from an external server irregularly/periodically and obtain surrounding traffic information data from surrounding vehicles.
- the sensor unit 140c can obtain vehicle status and surrounding environment information.
- the autonomous driving unit 140d may update the autonomous driving route and driving plan based on newly acquired data/information.
- the communication unit 110 may transmit information about vehicle location, autonomous driving route, driving plan, etc. to an external server.
- An external server can predict traffic information data in advance using AI technology, etc., based on information collected from vehicles or self-driving vehicles, and provide the predicted traffic information data to the vehicles or self-driving vehicles.
- the wireless communication technology implemented in the wireless device (XXX, YYY) of this specification may include Narrowband Internet of Things for low-power communication as well as LTE, NR, and 6G.
- NB-IoT technology may be an example of LPWAN (Low Power Wide Area Network) technology and may be implemented in standards such as LTE Cat NB1 and/or LTE Cat NB2, and is limited to the above-mentioned names. no.
- the wireless communication technology implemented in the wireless device (XXX, YYY) of this specification may perform communication based on LTE-M technology.
- LTE-M technology may be an example of LPWAN technology, and may be called various names such as enhanced Machine Type Communication (eMTC).
- eMTC enhanced Machine Type Communication
- LTE-M technologies include 1) LTE CAT 0, 2) LTE Cat M1, 3) LTE Cat M2, 4) LTE non-BL (non-Bandwidth Limited), 5) LTE-MTC, 6) LTE Machine. It can be implemented in at least one of various standards such as Type Communication, and/or 7) LTE M, and is not limited to the above-mentioned names.
- the wireless communication technology implemented in the wireless device (XXX, YYY) of the present specification is at least one of ZigBee, Bluetooth, and Low Power Wide Area Network (LPWAN) considering low power communication. It may include any one, and is not limited to the above-mentioned names.
- ZigBee technology can create personal area networks (PAN) related to small/low-power digital communications based on various standards such as IEEE 802.15.4, and can be called by various names.
- Embodiments according to the present invention may be implemented by various means, for example, hardware, firmware, software, or a combination thereof.
- an embodiment of the present invention includes one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and FPGAs ( It can be implemented by field programmable gate arrays, processors, controllers, microcontrollers, microprocessors, etc.
- ASICs application specific integrated circuits
- DSPs digital signal processors
- DSPDs digital signal processing devices
- PLDs programmable logic devices
- FPGAs field programmable gate arrays, processors, controllers, microcontrollers, microprocessors, etc.
- an embodiment of the present invention may be implemented in the form of a module, procedure, function, etc. that performs the functions or operations described above.
- Software code can be stored in a memory unit and run by a processor.
- the memory unit is located inside or outside the processor and can exchange data with the processor through various known means.
- Embodiments of the present invention as described above can be applied to various mobile communication systems.
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Emergency Management (AREA)
- Environmental & Geological Engineering (AREA)
- Public Health (AREA)
- Mobile Radio Communication Systems (AREA)
- Arrangements For Transmission Of Measured Signals (AREA)
Abstract
다양한 실시예에 따른 지능형 교통 시스템(ITS)에서 제1 디바이스가 신호를 송신하는 방법은, 제1 센서를 통해 제1 센서 데이터를 획득; 상기 제1 센서와 상이한 제2 센서를 통해 검출된 제2 센서 데이터를 제2 디바이스로부터 수신; 및 상기 제1 센서 데이터에 기초하여 객체 검출 정보를 포함하는 V2X (vehicle-to-everything) 메세지를 송신하는 것을 포함하고, 상기 제1 디바이스는, 상기 제1 센서 데이터와 상기 제2 센서 데이터가 상충하는지 여부에 기초하여 상기 V2X 메시지에 포함되는 상기 객체 검출 정보를 결정할 수 있다.
Description
본 발명은 무선 통신 시스템에서의 신호 송수신에 관한 것으로써 보다 상세하게는 지능형 교통 시스템(intelligent transport system, ITS)에 관련된 신호를 송신 또는 수신하는 방법 및 이를 위한 장치에 관한 것이다.
무선 통신 시스템은 가용한 시스템 자원(예를 들어, 대역폭, 전송 전력 등)을 공유하여 다중 사용자와의 통신을 지원하는 다중 접속(multiple access) 시스템이다. 다중 접속 시스템의 예로는 CDMA(code division multiple access) 시스템, FDMA(frequency division multiple access) 시스템, TDMA(time division multiple access) 시스템, OFDMA(orthogonal frequency division multiple access) 시스템, SC-FDMA(single carrier frequency division multiple access) 시스템, MC-FDMA(multi carrier frequency division multiple access) 시스템 등이 있다.
사이드링크(sidelink, SL)란 단말(User Equipment, UE)들 간에 직접적인 링크를 설정하여, 기지국(Base Station, BS)을 거치지 않고, 단말 간에 음성 또는 데이터 등을 직접 주고 받는 통신 방식을 말한다. SL는 급속도로 증가하는 데이터 트래픽에 따른 기지국의 부담을 해결할 수 있는 하나의 방안으로서 고려되고 있다.
V2X(vehicle-to-everything)는 유/무선 통신을 통해 다른 차량, 보행자, 인프라가 구축된 사물 등과 정보를 교환하는 통신 기술을 의미한다. V2X는 V2V(vehicle-to-vehicle), V2I(vehicle-to-infrastructure), V2N(vehicle-to- network) 및 V2P(vehicle-to-pedestrian)와 같은 4 가지 유형으로 구분될 수 있다. V2X 통신은 PC5 인터페이스 및/또는 Uu 인터페이스를 통해 제공될 수 있다.
한편, 더욱 많은 통신 기기들이 더욱 큰 통신 용량을 요구하게 됨에 따라, 기존의 무선 액세스 기술(Radio Access Technology, RAT)에 비해 향상된 모바일 광대역 (mobile broadband) 통신에 대한 필요성이 대두되고 있다. 이에 따라, 신뢰도(reliability) 및 지연(latency)에 민감한 서비스 또는 단말을 고려한 통신 시스템이 논의되고 있는데, 개선된 이동 광대역 통신, 매시브 MTC(Machine Type Communication), URLLC(Ultra-Reliable and Low Latency Communication) 등을 고려한 차세대 무선 접속 기술을 새로운 RAT(new radio access technology) 또는 NR(new radio)이라 칭할 수 있다. NR에서도 V2X(vehicle-to-everything) 통신이 지원될 수 있다.
도 1은 NR 이전의 RAT에 기반한 V2X 통신과 NR에 기반한 V2X 통신을 비교하여 설명하기 위한 도면이다
V2X 통신과 관련하여, NR 이전의 RAT에서는 BSM(Basic Safety Message), CAM(Cooperative Awareness Message), DENM(Decentralized Environmental Notification Message)과 같은 V2X 메시지를 기반으로, 안전 서비스(safety service)를 제공하는 방안이 주로 논의되었다. V2X 메시지는, 위치 정보, 동적 정보, 속성 정보 등을 포함할 수 있다. 예를 들어, 단말은 주기적인 메시지(periodic message) 타입의 CAM, 및/또는 이벤트 트리거 메시지(event triggered message) 타입의 DENM을 다른 단말에게 전송할 수 있다.
예를 들어, CAM은 방향 및 속도와 같은 차량의 동적 상태 정보, 치수와 같은 차량 정적 데이터, 외부 조명 상태, 경로 내역 등 기본 차량 정보를 포함할 수 있다. 예를 들어, 단말은 CAM을 방송할 수 있으며, CAM의 지연(latency)은 100ms보다 작을 수 있다. 예를 들어, 차량의 고장, 사고 등의 돌발적인 상황이 발행하는 경우, 단말은 DENM을 생성하여 다른 단말에게 전송할 수 있다. 예를 들어, 단말의 전송 범위 내에 있는 모든 차량은 CAM 및/또는 DENM을 수신할 수 있다. 이 경우, DENM은 CAM 보다 높은 우선 순위를 가질 수 있다.
이후, V2X 통신과 관련하여, 다양한 V2X 시나리오들이 NR에서 제시되고 있다. 예를 들어, 다양한 V2X 시나리오들은, 차량 플라투닝(vehicle platooning), 향상된 드라이빙(advanced driving), 확장된 센서들(extended sensors), 리모트 드라이빙(remote driving) 등을 포함할 수 있다.
예를 들어, 차량 플라투닝을 기반으로, 차량들은 동적으로 그룹을 형성하여 함께 이동할 수 있다. 예를 들어, 차량 플라투닝에 기반한 플라툰 동작들(platoon operations)을 수행하기 위해, 상기 그룹에 속하는 차량들은 선두 차량으로부터 주기적인 데이터를 수신할 수 있다. 예를 들어, 상기 그룹에 속하는 차량들은 주기적인 데이터를 이용하여, 차량들 사이의 간격을 줄이거나 넓힐 수 있다.
예를 들어, 향상된 드라이빙을 기반으로, 차량은 반자동화 또는 완전 자동화될 수 있다. 예를 들어, 각 차량은 근접 차량 및/또는 근접 로지컬 엔티티(logical entity)의 로컬 센서(local sensor)에서 획득된 데이터를 기반으로, 궤도(trajectories) 또는 기동(maneuvers)을 조정할 수 있다. 또한, 예를 들어, 각 차량은 근접한 차량들과 드라이빙 인텐션(driving intention)을 상호 공유할 수 있다.
예를 들어, 확장 센서들을 기반으로, 로컬 센서들을 통해 획득된 로 데이터(raw data) 또는 처리된 데이터(processed data), 또는 라이브 비디오 데이터(live video data)는 차량, 로지컬 엔티티, 보행자들의 단말 및/또는 V2X 응용 서버 간에 상호 교환될 수 있다. 따라서, 예를 들어, 차량은 자체 센서를 이용하여 감지할 수 있는 환경 보다 향상된 환경을 인식할 수 있다.
예를 들어, 리모트 드라이빙을 기반으로, 운전을 하지 못하는 사람 또는 위험한 환경에 위치한 리모트 차량을 위해, 리모트 드라이버 또는 V2X 애플리케이션은 상기 리모트 차량을 동작 또는 제어할 수 있다. 예를 들어, 대중 교통과 같이 경로를 예측할 수 있는 경우, 클라우드 컴퓨팅 기반의 드라이빙이 상기 리모트 차량의 동작 또는 제어에 이용될 수 있다. 또한, 예를 들어, 클라우드 기반의 백엔드 서비스 플랫폼(cloud-based back-end service platform)에 대한 액세스가 리모트 드라이빙을 위해 고려될 수 있다.
한편, 차량 플라투닝, 향상된 드라이빙, 확장된 센서들, 리모트 드라이빙 등 다양한 V2X 시나리오들에 대한 서비스 요구사항(service requirements)들을 구체화하는 방안이 NR에 기반한 V2X 통신에서 논의되고 있다.
해결하고자 하는 과제는 지능형 교통 시스템(ITS)에서 보다 정확하고 효율적으로 V2X 메시지를 송수신하는 방법 및 이를 위한 장치를 제공하는데 있다.
기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
일 측면에 따른 지능형 교통 시스템(ITS)에서 제1 디바이스가 신호를 송신하는 방법은, 제1 센서를 통해 제1 센서 데이터를 획득; 상기 제1 센서와 상이한 제2 센서를 통해 검출된 제2 센서 데이터를 제2 디바이스로부터 수신; 및 상기 제1 센서 데이터에 기초하여 객체 검출 정보를 포함하는 V2X (vehicle-to-everything) 메세지를 송신하는 것을 포함하고, 상기 제1 디바이스는, 상기 제1 센서 데이터와 상기 제2 센서 데이터가 상충하는지 여부에 기초하여 상기 V2X 메시지에 포함되는 상기 객체 검출 정보를 결정할 수 있다.
다른 일 측면에 따라서 상술된 방법을 수행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 제공될 수 있다.
또 다른 일 측면에 따라서 지능형 교통 시스템(ITS)에서 신호를 송신하는 제1 디바이스는, 제1 센서; 송수신기; 및 상기 제1 센서 및 상기 송수신기를 제어하는 프로세서를 포함하고, 상기 프로세서는, 상기 제1 센서를 통해 제1 센서 데이터를 획득하고, 상기 제1 센서와 상이한 제2 센서를 통해 검출된 제2 센서 데이터를 제2 디바이스로부터 수신하고, 상기 제1 센서 데이터에 기초하여 객체 검출 정보를 포함하는 V2X (vehicle-to-everything) 메세지를 송신하며, 상기 프로세서는, 상기 제1 센서 데이터와 상기 제2 센서 데이터가 상충하는지 여부에 기초하여 상기 V2X 메시지에 포함되는 상기 객체 검출 정보를 결정할 수 있다.
상기 제1 센서 데이터와 상기 제2 센서 데이터가 상충하는 것에 기초하여 상기 객체 검출 정보는 상기 제1 디바이스에서 프로세싱 되지 않은 상기 제1 센서 데이터의 고해상도(HD) 데이터에 대한 정보를 포함할 수 있다. 상기 고해상도 데이터에 대한 정보는, 상기 고해상도 데이터에 엑세스 하기 위한 주소 정보를 포함할 수 있다. 상기 고해상도 데이터에 대한 정보는, 상기 고해상도 데이터의 유효 시간 정보, 비디오 타입 정보, 최대 해상도 정보 및 최대 프레임 수 정보 중 적어도 하나를 포함할 수 있다.
상기 제1 센서 데이터와 상기 제2 센서 데이터가 상충하지 않는 것에 기초하여 상기 제1 디바이스에서 상기 제1 센터 데이터를 프로세싱하여 상기 객체 검출 정보를 구성할 수 있다.
상기 V2X 메시지는, 상기 제2 센서 데이터를 제공하는 상기 제2 디바이스의 타입에 대한 정보를 포함할 수 있다. 상기 제2 디바이스의 타입은, 상기 제2 디바이스가 RSU (road side unit)인지 또는 C-ITS (central-intelligent transportation system) 서버인지 여부에 관련될 수 있다.
상기 제1 센서를 통해서 검출된 객체에 대한 신뢰도가 임계치 미만인 것에 기초하여, 상기 객체 검출 정보는 상기 제1 디바이스에서 프로세싱 되지 않은 상기 제1 센서 데이터의 고해상도(HD) 데이터에 대한 정보를 포함할 수 있다.
상기 제1 센서를 통해서 상기 제1 디바이스에서 구분할 수 없는 객체가 감지된 것에 기초하여, 상기 객체 검출 정보는 상기 제1 디바이스에서 프로세싱 되지 않은 상기 제1 센서 데이터의 고해상도(HD) 데이터에 대한 정보를 포함할 수 있다.
사전 정의된 긴급 상황이 발생된 것에 기초하여, 상기 객체 검출 정보는 상기 제1 디바이스에서 프로세싱 되지 않은 상기 제1 센서 데이터의 고해상도(HD) 데이터에 대한 정보를 포함할 수 있다.
본 발명의 일 실시예에 따르면 지능형 교통 시스템(ITS)에서 보다 정확하고 효율적으로 V2X 메시지를 송수신할 수 있다.
다양한 실시예에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 명세서에 첨부되는 도면은 본 발명에 대한 이해를 제공하기 위한 것으로서 본 발명의 다양한 실시형태들을 나타내고 명세서의 기재와 함께 본 발명의 원리를 설명하기 위한 것이다.
도 1은 NR 이전의 RAT에 기반한 V2X 통신과 NR에 기반한 V2X 통신을 비교하여 설명하기 위한 도면이다
도 2은 LTE 시스템의 구조를 나타낸다.
도 3은 NR 시스템의 구조를 나타낸다.
도 4은 NR의 무선 프레임의 구조를 나타낸다.
도 5은 NR 프레임의 슬롯 구조를 나타낸다.
도 6 SL 통신을 위한 무선 프로토콜 구조(radio protocol architecture)를 나타낸다.
도 7은 V2X 또는 SL 통신을 수행하는 단말을 나타낸다.
도 8는 V2X 또는 SL 통신을 위한 자원 단위를 나타낸다.
도 9는 기존의 ITS station의 센터 인식 검출 정보 송신을 설명하기 도면이다.
도 10은 센서가 장착된 ITS station에서 주변의 ITS station에 정보를 제공하는 일 예를 도시한다.
도 11 및 도 12는 unprocessed HD data를 송신하는 다양한 환경들에 대한 예시들을 도시한다.
도 13은 수신 ITS station들의 service set-up을 설명하기 위한 도면이다.
도 14는 SDSM 메시지의 일 예를 도시한다.
도 15는 RSM의 일 예를 도시한다.
도 16은 HD data Request Message의 일 예를 도시한다.
도 17은 일 실시예에 따른 송신 ITS station의 동작을 나타낸다.
도 18은 일 실시예에 따른 수신 ITS station의 동작을 나타낸다.
도 19는 일 실시예에 따른 ITS station의 신호 송수신 동작을 나타낸다.
도 20은 일 실시예에 따른 신호 송신 방법의 흐름을 도시한다.
도 21는 본 실시예에 적용가능한 통신 시스템을 예시한다.
도 22는 본 발명에 적용될 수 있는 무선 기기를 예시한다.
도 23은 본 실시예에 적용가능한 무선 기기의 다른 예를 나타낸다.
도 24는 본 실시예에 적용가능한 차량 또는 자율 주행 차량을 예시한다.
무선 통신 시스템은 가용한 시스템 자원(예를 들어, 대역폭, 전송 파워 등)을 공유하여 다중 사용자와의 통신을 지원하는 다중 접속(multiple access) 시스템이다. 다중 접속 시스템의 예로는 CDMA(code division multiple access) 시스템, FDMA(frequency division multiple access) 시스템, TDMA(time division multiple access) 시스템, OFDMA(orthogonal frequency division multiple access) 시스템, SC-FDMA(single carrier frequency division multiple access) 시스템, MC-FDMA(multi carrier frequency division multiple access) 시스템 등이 있다.
사이드링크(sidelink)란 단말(User Equipment, UE)들 간에 직접적인 링크를 설정하여, 기지국(Base Station, BS)을 거치지 않고, 단말 간에 음성 또는 데이터 등을 직접 주고 받는 통신 방식을 말한다. 사이드링크는 급속도로 증가하는 데이터 트래픽에 따른 기지국의 부담을 해결할 수 있는 하나의 방안으로서 고려되고 있다.
V2X(vehicle-to-everything)는 유/무선 통신을 통해 다른 차량, 보행자, 인프라가 구축된 사물 등과 정보를 교환하는 통신 기술을 의미한다. V2X는 V2V(vehicle-to-vehicle), V2I(vehicle-to-infrastructure), V2N(vehicle-to- network) 및 V2P(vehicle-to-pedestrian)와 같은 4 가지 유형으로 구분될 수 있다. V2X 통신은 PC5 인터페이스 및/또는 Uu 인터페이스를 통해 제공될 수 있다.
한편, 더욱 많은 통신 기기들이 더욱 큰 통신 용량을 요구하게 됨에 따라, 기존의 무선 액세스 기술(Radio Access Technology, RAT)에 비해 향상된 모바일 광대역 (mobile broadband) 통신에 대한 필요성이 대두되고 있다. 이에 따라, 신뢰도(reliability) 및 지연(latency)에 민감한 서비스 또는 단말을 고려한 통신 시스템이 논의되고 있는데, 개선된 이동 광대역 통신, 매시브 MTC, URLLC(Ultra-Reliable and Low Latency Communication) 등을 고려한 차세대 무선 접속 기술을 새로운 RAT(new radio access technology) 또는 NR(new radio)이라 칭할 수 있다. NR에서도 V2X(vehicle-to-everything) 통신이 지원될 수 있다.
이하의 기술은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 통신 시스템에 사용될 수 있다. CDMA는 UTRA(universal terrestrial radio access)나 CDMA2000과 같은 무선 기술로 구현될 수 있다. TDMA는 GSM(global system for mobile communications)/GPRS(general packet radio service)/EDGE(enhanced data rates for GSM evolution)와 같은 무선 기술로 구현될 수 있다. OFDMA는 IEEE(institute of electrical and electronics engineers) 802.11(Wi-Fi), IEEE 802.16(WiMAX), IEEE 802-20, E-UTRA(evolved UTRA) 등과 같은 무선 기술로 구현될 수 있다. IEEE 802.16m은 IEEE 802.16e의 진화로, IEEE 802.16e에 기반한 시스템과의 하위 호환성(backward compatibility)를 제공한다. UTRA는 UMTS(universal mobile telecommunications system)의 일부이다. 3GPP(3rd generation partnership project) LTE(long term evolution)은 E-UTRA(evolved-UMTS terrestrial radio access)를 사용하는 E-UMTS(evolved UMTS)의 일부로써, 하향링크에서 OFDMA를 채용하고 상향링크에서 SC-FDMA를 채용한다. LTE-A(advanced)는 3GPP LTE의 진화이다.
5G NR은 LTE-A의 후속 기술로서, 고성능, 저지연, 고가용성 등의 특성을 가지는 새로운 Clean-slate 형태의 이동 통신 시스템이다. 5G NR은 1GHz 미만의 저주파 대역에서부터 1GHz~10GHz의 중간 주파 대역, 24GHz 이상의 고주파(밀리미터파) 대역 등 사용 가능한 모든 스펙트럼 자원을 활용할 수 있다.
설명을 명확하게 하기 위해, LTE-A 또는 5G NR을 위주로 기술하지만 실시예(들)의 기술적 사상이 이에 제한되는 것은 아니다.
도 2은 적용될 수 있는 LTE 시스템의 구조를 나타낸다. 이는 E-UTRAN(Evolved-UMTS Terrestrial Radio Access Network), 또는 LTE(Long Term Evolution)/LTE-A 시스템이라고 불릴 수 있다.
도 2을 참조하면, E-UTRAN은 단말(10)에게 제어 평면(control plane)과 사용자 평면(user plane)을 제공하는 기지국(20; Base Station, BS)을 포함한다. 단말(10)은 고정되거나 이동성을 가질 수 있으며, MS(Mobile Station), UT(User Terminal), SS(Subscriber Station), MT(Mobile Terminal), 무선기기(Wireless Device) 등 다른 용어로 불릴 수 있다. 기지국(20)은 단말(10)과 통신하는 고정된 지점(fixed station)을 말하며, eNB(evolved-NodeB), BTS(Base Transceiver System), 액세스 포인트(Access Point) 등 다른 용어로 불릴 수 있다.
기지국(20)들은 X2 인터페이스를 통하여 서로 연결될 수 있다. 기지국(20)은 S1 인터페이스를 통해 EPC(Evolved Packet Core, 30), 보다 상세하게는 S1-MME를 통해 MME(Mobility Management Entity)와 S1-U를 통해 S-GW(Serving Gateway)와 연결된다.
EPC(30)는 MME, S-GW 및 P-GW(Packet Data Network-Gateway)로 구성된다. MME는 단말의 접속 정보나 단말의 능력에 관한 정보를 가지고 있으며, 이러한 정보는 단말의 이동성 관리에 주로 사용된다. S-GW는 E-UTRAN을 종단점으로 갖는 게이트웨이이며, P-GW는 PDN을 종단점으로 갖는 게이트웨이이다.
단말과 네트워크 사이의 무선인터페이스 프로토콜(Radio Interface Protocol)의 계층들은 통신시스템에서 널리 알려진 개방형 시스템간 상호접속(Open System Interconnection, OSI) 기준 모델의 하위 3개 계층을 바탕으로 L1 (제 1 계층), L2 (제 2 계층), L3(제 3 계층)로 구분될 수 있다. 이 중에서 제 1 계층에 속하는 물리 계층은 물리 채널(Physical Channel)을 이용한 정보전송서비스(Information Transfer Service)를 제공하며, 제 3 계층에 위치하는 RRC(Radio Resource Control) 계층은 단말과 네트워크 간에 무선 자원을 제어하는 역할을 수행한다. 이를 위해 RRC 계층은 단말과 기지국간 RRC 메시지를 교환한다.
도 3은 NR 시스템의 구조를 나타낸다.
도 3을 참조하면, NG-RAN은 단말에게 사용자 평면 및 제어 평면 프로토콜 종단(termination)을 제공하는 gNB 및/또는 eNB를 포함할 수 있다. 도 7에서는 gNB만을 포함하는 경우를 예시한다. gNB 및 eNB는 상호 간에 Xn 인터페이스로 연결되어 있다. gNB 및 eNB는 5세대 코어 네트워크(5G Core Network: 5GC)와 NG 인터페이스를 통해 연결되어 있다. 보다 구체적으로, AMF(access and mobility management function)과는 NG-C 인터페이스를 통해 연결되고, UPF(user plane function)과는 NG-U 인터페이스를 통해 연결된다.
도 4은 NR의 무선 프레임의 구조를 나타낸다.
도 4을 참조하면, NR에서 상향링크 및 하향링크 전송에서 무선 프레임을 사용할 수 있다. 무선 프레임은 10ms의 길이를 가지며, 2개의 5ms 하프-프레임(Half-Frame, HF)으로 정의될 수 있다. 하프-프레임은 5개의 1ms 서브프레임(Subframe, SF)을 포함할 수 있다. 서브프레임은 하나 이상의 슬롯으로 분할될 수 있으며, 서브프레임 내 슬롯 개수는 부반송파 간격(Subcarrier Spacing, SCS)에 따라 결정될 수 있다. 각 슬롯은 CP(cyclic prefix)에 따라 12개 또는 14개의 OFDM(A) 심볼을 포함할 수 있다.
노멀 CP(normal CP)가 사용되는 경우, 각 슬롯은 14개의 심볼을 포함할 수 있다. 확장 CP가 사용되는 경우, 각 슬롯은 12개의 심볼을 포함할 수 있다. 여기서, 심볼은 OFDM 심볼 (또는, CP-OFDM 심볼), SC-FDMA(Single Carrier - FDMA) 심볼 (또는, DFT-s-OFDM(Discrete Fourier Transform-spread-OFDM) 심볼)을 포함할 수 있다.
다음 표 1은 노멀 CP가 사용되는 경우, SCS 설정(u)에 따라 슬롯 별 심볼의 개수((Nslot
symb), 프레임 별 슬롯의 개수((Nframe,u
slot)와 서브프레임 별 슬롯의 개수((Nsubframe,u
slot)를 예시한다.
SCS (15*2u) | Nslot symb | Nframe,u slot | Nsubframe,u slot |
15KHz (u=0) | 14 | 10 | 1 |
30KHz (u=1) | 14 | 20 | 2 |
60KHz (u=2) | 14 | 40 | 4 |
120KHz (u=3) | 14 | 80 | 8 |
240KHz (u=4) | 14 | 160 | 16 |
표 2는 확장 CP가 사용되는 경우, SCS에 따라 슬롯 별 심볼의 개수, 프레임 별 슬롯의 개수와 서브프레임 별 슬롯의 개수를 예시한다.
SCS (15*2u) | Nslot symb | Nframe,u slot | Nsubframe,u slot |
60KHz (u=2) | 12 | 40 | 4 |
NR 시스템에서는 하나의 단말에게 병합되는 복수의 셀들 간에 OFDM(A) 뉴머놀로지(numerology)(예, SCS, CP 길이 등)가 상이하게 설정될 수 있다. 이에 따라, 동일한 개수의 심볼로 구성된 시간 자원(예, 서브프레임, 슬롯 또는 TTI)(편의상, TU(Time Unit)로 통칭)의 (절대 시간) 구간이 병합된 셀들 간에 상이하게 설정될 수 있다.
NR에서, 다양한 5G 서비스들을 지원하기 위한 다수의 뉴머놀로지(numerology) 또는 SCS가 지원될 수 있다. 예를 들어, SCS가 15kHz인 경우, 전통적인 셀룰러 밴드들에서의 넓은 영역(wide area)이 지원될 수 있고, SCS가 30kHz/60kHz인 경우, 밀집한-도시(dense-urban), 더 낮은 지연(lower latency) 및 더 넓은 캐리어 대역폭(wider carrier bandwidth)이 지원될 수 있다. SCS가 60kHz 또는 그보다 높은 경우, 위상 잡음(phase noise)을 극복하기 위해 24.25GHz보다 큰 대역폭이 지원될 수 있다.
NR 주파수 밴드(frequency band)는 두 가지 타입의 주파수 범위(frequency range)로 정의될 수 있다. 상기 두 가지 타입의 주파수 범위는 FR1 및 FR2일 수 있다. 주파수 범위의 수치는 변경될 수 있으며, 예를 들어, 상기 두 가지 타입의 주파수 범위는 하기 표 3과 같을 수 있다. NR 시스템에서 사용되는 주파수 범위 중 FR1은 "sub 6GHz range"를 의미할 수 있고, FR2는 "above 6GHz range"를 의미할 수 있고 밀리미터 웨이브(millimeter wave, mmW)로 불릴 수 있다.
Frequency Range designation | Corresponding frequency range | Subcarrier Spacing (SCS) |
FR1 | 450MHz - 6000MHz | 15, 30, 60kHz |
FR2 | 24250MHz - 52600MHz | 60, 120, 240kHz |
상술한 바와 같이, NR 시스템의 주파수 범위의 수치는 변경될 수 있다. 예를 들어, FR1은 하기 표 4와 같이 410MHz 내지 7125MHz의 대역을 포함할 수 있다. 즉, FR1은 6GHz (또는 5850, 5900, 5925 MHz 등) 이상의 주파수 대역을 포함할 수 있다. 예를 들어, FR1 내에서 포함되는 6GHz (또는 5850, 5900, 5925 MHz 등) 이상의 주파수 대역은 비면허 대역(unlicensed band)을 포함할 수 있다. 비면허 대역은 다양한 용도로 사용될 수 있고, 예를 들어 차량을 위한 통신(예를 들어, 자율주행)을 위해 사용될 수 있다.
Frequency Range designation | Corresponding frequency range | Subcarrier Spacing (SCS) |
FR1 | 410MHz - 7125MHz | 15, 30, 60kHz |
FR2 | 24250MHz - 52600MHz | 60, 120, 240kHz |
도 5은 NR 프레임의 슬롯 구조를 나타낸다.
도 5을 참조하면, 슬롯은 시간 영역에서 복수의 심볼들을 포함한다. 예를 들어, 노멀 CP의 경우 하나의 슬롯이 14개의 심볼을 포함하나, 확장 CP의 경우 하나의 슬롯이 12개의 심볼을 포함할 수 있다. 또는 노멀 CP의 경우 하나의 슬롯이 7개의 심볼을 포함하나, 확장 CP의 경우 하나의 슬롯이 6개의 심볼을 포함할 수 있다.
반송파는 주파수 영역에서 복수의 부반송파들을 포함한다. RB(Resource Block)는 주파수 영역에서 복수(예를 들어, 12)의 연속한 부반송파로 정의될 수 있다. BWP(Bandwidth Part)는 주파수 영역에서 복수의 연속한 (P)RB((Physical) Resource Block)로 정의될 수 있으며, 하나의 뉴머놀로지(numerology)(예, SCS, CP 길이 등)에 대응될 수 있다. 반송파는 최대 N개(예를 들어, 5개)의 BWP를 포함할 수 있다. 데이터 통신은 활성화된 BWP를 통해서 수행될 수 있다. 각각의 요소는 자원 그리드에서 자원요소(Resource Element, RE)로 지칭될 수 있고, 하나의 복소 심볼이 맵핑될 수 있다.
한편, 단말과 단말 간 무선 인터페이스 또는 단말과 네트워크 간 무선 인터페이스는 L1 계층, L2 계층 및 L3 계층으로 구성될 수 있다. 본 개시의 다양한 실시 예에서, L1 계층은 물리(physical) 계층을 의미할 수 있다. 또한, 예를 들어, L2 계층은 MAC 계층, RLC 계층, PDCP 계층 및 SDAP 계층 중 적어도 하나를 의미할 수 있다. 또한, 예를 들어, L3 계층은 RRC 계층을 의미할 수 있다.
이하, V2X 또는 SL(sidelink) 통신에 대하여 설명한다.
도 6는 SL 통신을 위한 무선 프로토콜 구조(radio protocol architecture)를 나타낸다. 구체적으로, 도 6의 (a)는 NR의 사용자 평면 프로토콜 스택을 나타내고, 도 6의 (b)는 NR의 제어 평면 프로토콜 스택을 나타낸다.
이하, SL 동기 신호(Sidelink Synchronization Signal, SLSS) 및 동기화 정보에 대해 설명한다.
SLSS는 SL 특정적인 시퀀스(sequence)로, PSSS(Primary Sidelink Synchronization Signal)와 SSSS(Secondary Sidelink Synchronization Signal)를 포함할 수 있다. 상기 PSSS는 S-PSS(Sidelink Primary Synchronization Signal)라고 칭할 수 있고, 상기 SSSS는 S-SSS(Sidelink Secondary Synchronization Signal)라고 칭할 수 있다. 예를 들어, 길이-127 M-시퀀스(length-127 M-sequences)가 S-PSS에 대하여 사용될 수 있고, 길이-127 골드-시퀀스(length-127 Gold sequences)가 S-SSS에 대하여 사용될 수 있다. 예를 들어, 단말은 S-PSS를 이용하여 최초 신호를 검출(signal detection)할 수 있고, 동기를 획득할 수 있다. 예를 들어, 단말은 S-PSS 및 S-SSS를 이용하여 세부 동기를 획득할 수 있고, 동기 신호 ID를 검출할 수 있다.
PSBCH(Physical Sidelink Broadcast Channel)는 SL 신호 송수신 전에 단말이 가장 먼저 알아야 하는 기본이 되는 (시스템) 정보가 전송되는 (방송) 채널일 수 있다. 예를 들어, 상기 기본이 되는 정보는 SLSS에 관련된 정보, 듀플렉스 모드(Duplex Mode, DM), TDD UL/DL(Time Division Duplex Uplink/Downlink) 구성, 리소스 풀 관련 정보, SLSS에 관련된 어플리케이션의 종류, 서브프레임 오프셋, 방송 정보 등일 수 있다. 예를 들어, PSBCH 성능의 평가를 위해, NR V2X에서, PSBCH의 페이로드 크기는 24 비트의 CRC를 포함하여 56 비트일 수 있다.
S-PSS, S-SSS 및 PSBCH는 주기적 전송을 지원하는 블록 포맷(예를 들어, SL SS(Synchronization Signal)/PSBCH 블록, 이하 S-SSB(Sidelink-Synchronization Signal Block))에 포함될 수 있다. 상기 S-SSB는 캐리어 내의 PSCCH(Physical Sidelink Control Channel)/PSSCH(Physical Sidelink Shared Channel)와 동일한 뉴머놀로지(즉, SCS 및 CP 길이)를 가질 수 있고, 전송 대역폭은 (미리) 설정된 SL BWP(Sidelink BWP) 내에 있을 수 있다. 예를 들어, S-SSB의 대역폭은 11 RB(Resource Block)일 수 있다. 예를 들어, PSBCH는 11 RB에 걸쳐있을 수 있다. 그리고, S-SSB의 주파수 위치는 (미리) 설정될 수 있다. 따라서, 단말은 캐리어에서 S-SSB를 발견하기 위해 주파수에서 가설 검출(hypothesis detection)을 수행할 필요가 없다.
한편, NR SL 시스템에서, 서로 다른 SCS 및/또는 CP 길이를 가지는 복수의 뉴머놀로지가 지원될 수 있다. 이 때, SCS가 증가함에 따라서, 전송 단말이 S-SSB를 전송하는 시간 자원의 길이가 짧아질 수 있다. 이에 따라, S-SSB의 커버리지(coverage)가 감소할 수 있다. 따라서, S-SSB의 커버리지를 보장하기 위하여, 전송 단말은 SCS에 따라 하나의 S-SSB 전송 주기 내에서 하나 이상의 S-SSB를 수신 단말에게 전송할 수 있다. 예를 들어, 전송 단말이 하나의 S-SSB 전송 주기 내에서 수신 단말에게 전송하는 S-SSB의 개수는 전송 단말에게 사전에 설정되거나(pre-configured), 설정(configured)될 수 있다. 예를 들어, S-SSB 전송 주기는 160ms 일 수 있다. 예를 들어, 모든 SCS에 대하여, 160ms의 S-SSB 전송 주기가 지원될 수 있다.
예를 들어, SCS가 FR1에서 15kHz인 경우, 전송 단말은 하나의 S-SSB 전송 주기 내에서 수신 단말에게 1개 또는 2개의 S-SSB를 전송할 수 있다. 예를 들어, SCS가 FR1에서 30kHz인 경우, 전송 단말은 하나의 S-SSB 전송 주기 내에서 수신 단말에게 1개 또는 2개의 S-SSB를 전송할 수 있다. 예를 들어, SCS가 FR1에서 60kHz인 경우, 전송 단말은 하나의 S-SSB 전송 주기 내에서 수신 단말에게 1개, 2개 또는 4개의 S-SSB를 전송할 수 있다.
예를 들어, SCS가 FR2에서 60kHz인 경우, 전송 단말은 하나의 S-SSB 전송 주기 내에서 수신 단말에게 1개, 2개, 4개, 8개, 16개 또는 32개의 S-SSB를 전송할 수 있다. 예를 들어, SCS가 FR2에서 120kHz인 경우, 전송 단말은 하나의 S-SSB 전송 주기 내에서 수신 단말에게 1개, 2개, 4개, 8개, 16개, 32개 또는 64개의 S-SSB를 전송할 수 있다.
한편, SCS가 60kHz인 경우, 두 가지 타입의 CP가 지원될 수 있다. 또한, CP 타입에 따라서 전송 단말이 수신 단말에게 전송하는 S-SSB의 구조가 상이할 수 있다. 예를 들어, 상기 CP 타입은 Normal CP(NCP) 또는 Extended CP(ECP)일 수 있다. 구체적으로, 예를 들어, CP 타입이 NCP인 경우, 전송 단말이 전송하는 S-SSB 내에서 PSBCH를 맵핑하는 심볼의 개수는 9 개 또는 8 개일 수 있다. 반면, 예를 들어, CP 타입이 ECP인 경우, 전송 단말이 전송하는 S-SSB 내에서 PSBCH를 맵핑하는 심볼의 개수는 7 개 또는 6 개일 수 있다. 예를 들어, 전송 단말이 전송하는 S-SSB 내의 첫 번째 심볼에는, PSBCH가 맵핑될 수 있다. 예를 들어, S-SSB를 수신하는 수신 단말은 S-SSB의 첫 번째 심볼 구간에서 AGC(Automatic Gain Control) 동작을 수행할 수 있다.
도 7은 V2X 또는 SL 통신을 수행하는 단말을 나타낸다.
도 7을 참조하면, V2X 또는 SL 통신에서 단말이라는 용어는 주로 사용자의 단말을 의미할 수 있다. 하지만, 기지국과 같은 네트워크 장비가 단말 사이의 통신 방식에 따라 신호를 송수신하는 경우, 기지국 또한 일종의 단말로 간주될 수도 있다. 예를 들어, 단말 1은 제 1 장치(100)일 수 있고, 단말 2 는 제 2 장치(200)일 수 있다.
예를 들어, 단말 1은 일련의 자원의 집합을 의미하는 자원 풀(resource pool) 내에서 특정한 자원에 해당하는 자원 단위(resource unit)를 선택할 수 있다. 그리고, 단말 1은 상기 자원 단위를 사용하여 SL 신호를 전송할 수 있다. 예를 들어, 수신 단말인 단말 2는 단말 1이 신호를 전송할 수 있는 자원 풀을 설정 받을 수 있고, 상기 자원 풀 내에서 단말 1의 신호를 검출할 수 있다.
여기서, 단말 1이 기지국의 연결 범위 내에 있는 경우, 기지국이 자원 풀을 단말 1에게 알려줄 수 있다. 반면, 단말 1이 기지국의 연결 범위 밖에 있는 경우, 다른 단말이 단말 1에게 자원 풀을 알려주거나, 또는 단말 1은 사전에 설정된 자원 풀을 사용할 수 있다.
일반적으로 자원 풀은 복수의 자원 단위로 구성될 수 있고, 각 단말은 하나 또는 복수의 자원 단위를 선택하여 자신의 SL 신호 전송에 사용할 수 있다.
도 8는 V2X 또는 SL 통신을 위한 자원 단위를 나타낸다.
도 8를 참조하면, 자원 풀의 전체 주파수 자원이 NF개로 분할될 수 있고, 자원 풀의 전체 시간 자원이 NT개로 분할될 수 있다. 따라서, 총 NF * NT 개의 자원 단위가 자원 풀 내에서 정의될 수 있다. 도 8는 해당 자원 풀이 NT 개의 서브프레임의 주기로 반복되는 경우의 예를 나타낸다.
도 8에 나타난 바와 같이, 하나의 자원 단위(예를 들어, Unit #0)는 주기적으로 반복하여 나타날 수 있다. 또는, 시간 또는 주파수 차원에서의 다이버시티(diversity) 효과를 얻기 위해서, 하나의 논리적인 자원 단위가 맵핑되는 물리적 자원 단위의 인덱스가 시간에 따라 사전에 정해진 패턴으로 변화할 수도 있다. 이러한 자원 단위의 구조에 있어서, 자원 풀이란 SL 신호를 전송하고자 하는 단말이 전송에 사용할 수 있는 자원 단위들의 집합을 의미할 수 있다.
자원 풀은 여러 종류로 세분화될 수 있다. 예를 들어, 각 자원 풀에서 전송되는 SL 신호의 컨텐츠(content)에 따라, 자원 풀은 아래와 같이 구분될 수 있다.
(1) 스케쥴링 할당(Scheduling Assignment, SA)은 전송 단말이 SL 데이터 채널의 전송으로 사용하는 자원의 위치, 그 외 데이터 채널의 복조를 위해서 필요한 MCS(Modulation and Coding Scheme) 또는 MIMO(Multiple Input Multiple Output) 전송 방식, TA(Timing Advance)등의 정보를 포함하는 신호일 수 있다. SA는 동일 자원 단위 상에서 SL 데이터와 함께 멀티플렉싱되어 전송되는 것도 가능하며, 이 경우 SA 자원 풀이란 SA가 SL 데이터와 멀티플렉싱되어 전송되는 자원 풀을 의미할 수 있다. SA는 SL 제어 채널(control channel)로 불릴 수도 있다.
(2) SL 데이터 채널(Physical Sidelink Shared Channel, PSSCH)은 전송 단말이 사용자 데이터를 전송하는데 사용하는 자원 풀일 수 있다. 만약 동일 자원 단위 상에서 SL 데이터와 함께 SA가 멀티플렉싱되어 전송되는 경우, SA 정보를 제외한 형태의 SL 데이터 채널만이 SL 데이터 채널을 위한 자원 풀에서 전송 될 수 있다. 다시 말해, SA 자원 풀 내의 개별 자원 단위 상에서 SA 정보를 전송하는데 사용되었던 REs(Resource Elements)는 SL 데이터 채널의 자원 풀에서 여전히 SL 데이터를 전송하기 위해 사용될 수 있다. 예를 들어, 전송 단말은 연속적인 PRB에 PSSCH를 맵핑시켜서 전송할 수 있다.
(3) 디스커버리 채널은 전송 단말이 자신의 ID 등의 정보를 전송하기 위한 자원 풀일 수 있다. 이를 통해, 전송 단말은 인접 단말이 자신을 발견하도록 할 수 있다.
이상에서 설명한 SL 신호의 컨텐츠가 동일한 경우에도, SL 신호의 송수신 속성에 따라서 상이한 자원 풀을 사용할 수 있다. 일 예로, 동일한 SL 데이터 채널이나 디스커버리 메시지라 하더라도, SL 신호의 전송 타이밍 결정 방식(예를 들어, 동기 기준 신호의 수신 시점에서 전송되는지 아니면 상기 수신 시점에서 일정한 타이밍 어드밴스를 적용하여 전송되는지), 자원 할당 방식(예를 들어, 개별 신호의 전송 자원을 기지국이 개별 전송 단말에게 지정해주는지 아니면 개별 전송 단말이 자원 풀 내에서 자체적으로 개별 신호 전송 자원을 선택하는지), 신호 포맷(예를 들어, 각 SL 신호가 한 서브프레임에서 차지하는 심볼의 개수, 또는 하나의 SL 신호의 전송에 사용되는 서브프레임의 개수), 기지국으로부터의 신호 세기, SL 단말의 송신 전력 세기 등에 따라서 다시 상이한 자원 풀로 구분될 수도 있다.
<단계별 센서 인식 검출 정보 전송>
도 9는 기존의 ITS station의 센터 인식 검출 정보 송신을 설명하기 도면이다.
종래 기술에 따르면 ITS station (예를 들어 RSU, vehicle등)에 센서가 부착되어 있는 경우, 각각의 ITS station은 자신의 센서가 인식하여 분석하기 전의 고해상도(high definition, HD) data를 그대로 송신하지 않고, HD data로부터 검출한 객체들의 정보를 V2X 메시지로 구성하여 주변의 ITS station에 센서 인식 정보를 송신하여 전송에 필요한 데이터의 양을 줄이도록 한다.
센서를 장착하여 센서 인식하여 분석한 검출 객체 정보를 송신하는 ITS station이 해당 메시지를 broadcasting 하는 경우, 해당 메시지를 송신하는 ITS station의 근처를 지나가는 ITS station (예를 들어 OBU, vehicle ITS station 또는 VRU)들은 V2X 메시지를 수신하게 된다.
ITS station(들)에 장착된 각각의 센서가 각기 다른 인식, 검출 능력을 가질 수 있고, 또한 detection한 HD data에 대해 분석을 하는 능력 또한 다양할 수 있다. 따라서 ITS station으로부터 송신되는 메시지에 포함된 객체 정보는 ITS station에 장착된 센서의 인식 검출 능력, HD data 분석 능력에 따라 달라질 수 있다.
송신 ITS station 근처를 지나가게 되어 메시지를 수신하는 ITS station은 자신이 수신한 V2X 메시지에 포함된 객체에 대한 분석 정보를 신뢰하고 이에 기반하여 충돌 위험을 예측할 수 있다. 하지만 수신 ITS station은, 송신 ITS station에서 객체에 대한 정보를 분석/처리하는 과정에서 생길 수 있는 오류 또는 정보의 축소를 알 수 없는 문제가 있다.
이와 같은 문제점을 해결하기 위하여 본 명세서에 따르면 단계별 센서 검출 V2X 메시지 송/수신을 통한 충돌 위험 방지 및 효율적인 V2X 데이터 제공 방안을 제안한다.
구체적으로 송신 ITS station이 분석 전의 HD data (이하, unprocessed HD data)를 제공해야 하는 priority가 높은 상황 또는 수신 ITS station이 unprocessed HD data를 활용할 수 있는 상황에서는 unprocessed HD data를 전송하여 데이터 송수신 양의 증가를 최소화하면서도 보다 효율적으로 교통 흐름을 유지하고 충돌 위험을 방지할 수 있도록 한다. 송신하는 ITS station은 unprocessed HD data 제공하는 상황이 해제되면 분석된 정보를 V2X 메시지로 구성하여 송출한다. 혹은 자신이 저장하고 있는 HD data에 대해서 어떤 수신 ITS station이 요청을 하는 경우에는 그 ITS station에만 unicast 방법을 통해 unprocessed HD data를 제공할 수 있다.
제안하는 단계별 센서 검출 V2X 메시지 구성을 위해서는 V2X 메시지를 송신하는 ITS station이 다양한 방법을 통해 V2X 메시지에 포함 가능한 정보를 제공받아 V2X 메시지를 구성하는 방법을 고려할 수 있다.
도 10은 센서가 장착된 ITS station에서 주변의 ITS station에 정보를 제공하는 일 예를 도시한다. 예컨대 센서가 장착된 제1 ITS station은 센서로 획득한 HD data에서 객체 정보를 검출하고 이를 분석하여 V2X 메시지로 구성할 수 있다. 객체 정보의 검출은 예를 들어 도로 pothole 상황 또는 길을 건너려는 VRU 객체가 분석된 상황에 관련될 수 있다. 제1 ITS station 자신의 주변에 위치한 제2 ITS station에 V2X 메시지를 제공할 수 있다.
도 11은 Central ITS system과 연결된 RSU이 주변에 접근하는 차량 또는 ITS station에 도로 상황 정보를 제공하는 일 예를 도시한다. Central ITS system (예를 들어 Road Traffic Authority)은 도로 상황 정보 (예를 들어 계획된 도로 공사 상황, 돌발 사고 상황)를 Central ITS system과 연결된 RSU에 제공할 수 있다. RSU는 도로 상황 정보를 V2X 메시지로 구성하고, 주변에 접근하는 차량 또는 ITS station에 제공할 수 있다.
이하에서는 센서 혹은 Central ITS system에서 정보를 받은 후 이 정보들을 분석하여 송신하는 ITS station은 객체 정보들을 분석하여 V2X 메시지를 구성하여 주변을 지나는 Vehicle station 또는 VRU station에 송신하다가, 제안되는 특정 상황에 도래 시 unprocessed HD data를 함께 송신할 수 있다. 그 상황이 해제되면, 다시 센서 인식을 통해 분석한 객체 정보를 전송하도록 하는 단계별 센서 검출 정보 전송 방법 및 장치가 제안된다.
제1 Case
센서를 장착한 송신 ITS station은 센서 검출 인식 정보를 분석하여 V2X 메시지로 송출한다. 센서로 인식된 unprocessed HD data에서 객체를 검출해내는 능력은 송신 ITS station의 capability에 따라 달라지게 되기 때문에 아래와 같은 상황이 발생할 수 있다.
- 송신 ITS station이 센서 인식을 통해 특정 객체를 검출했지만, 검출 정보에 대한 confidence가 낮아서 V2X 메시지에 포함할 수는 없는 상황이나, 검출된 객체로 인한 충돌 위험이 존재한다고 분석하는 경우
- 센서로 검출이 되지는 않았지만 동적인 물체가 감지된 경우 (unprocessed HD data에서 감지한 부분에 대해서 바운딩 박스는 했지만, 송신 ITS station의 검출 능력으로는 classify는 불가능한 경우, 예를 들어 낙하한 적재물/스페어타이어와 같은 장애물 등이 도로 위에 움직이고 있다고 분석)
위와 같은 상황이 발생하면 송신 ITS station은 센서로 인식한 HD data를 이용하여 아래와 같이 V2X 메시지를 구성하여 송신할 수 있다.
DetectedObjectList::= SEQUENCE (SIZE(1..256)) OF DetectedObjectData DetectedObjectData::= SEQUENCE { detObjCommon DetectedObjectCommonData → (a) -- Common data for detected object detObjOptData DetectedObjectOptionalData OPTIONAL → (b) -- Type specific optional data } DetectedObjectCommonData::= SEQUENCE { objType ObjectType, → (c) objTypeCfd ClassificationConfidence, objectID ObjectID, -- temporary ID assigned by source measurementTime MeasurementTimeOffset, -- Detection time timeConfidence TimeConfidence, pos PositionOffsetXYZ, posConfidence PositionConfidenceSet, speed Speed, speedConfidence SpeedConfidence, speedZ Speed OPTIONAL, speedConfidenceZ SpeedConfidence OPTIONAL, heading Heading, headingConf HeadingConfidence, accel4way AccelerationSet4Way OPTIONAL, accCfdX AccelerationConfidence OPTIONAL, accCfdY AccelerationConfidence OPTIONAL, accCfdZ AccelerationConfidence OPTIONAL, accCfdYaw YawRateConfidence OPTIONAL, beConflicted BeConflicted OPTIONAL, → (d) conflictedObjID ConflictedObjID OPTIONAL → (e) ... } ObjectType::= ENUMERATED{ unknown (0), vehicle (1), vru (2), animal (3), ... } ClassificationConfidence ::= INTEGER (0..101) BeConflicted ::= ENUMERATED{ Undefined (0), objectInfoFromOther (1), CentralSystemInfo (2), ... } ConflictedObjectID ::= INTEGER (0..65535) |
표 5에서 (a) detObjCommon DetectedObjectCommonData 파라미터에 대해서는 후술하는 설명을 참조한다. (b) detObjOptData DetectedObjectOptionalData는 object type이 Vehicle/VRU/animal인 경우 추가적으로(optionally) 사용 가능하다. (c) objType의 ObjectType 파라미터에는 송신 ITS station의 센서 검출 정보가 기입된다. (d) beConflictedd의 BeConflicted 파라미터는 (1) 또는 (2)로 setting된다. (e) conflictedObjID의 ConflictedObjID 파라미터는 다른 V2X message에 포함된 objectID 값으로 setting된다.
송신 ITS station은 센서 인식 검출 객체의 분석 결과를 V2X 메시지에 unknown으로 기입하지만, 보조적인 정보로 HD data (snap shot 또는 streaming video)를 보내서 수신 ITS station으로 하여금 identify하는데 도움을 줄 수 있다.
도 12는 제1 Case에 대한 제안이 실시되는 경우의 일 예를 도시한다. 도 12를 참조하면 센서를 탑재한 차량들이 제1 Case가 발생한 경우 센서를 통해 획득한 정보와 unprocessed HD data를 함께 RSU로 송신할 수 있다. RSU는 연결된 네트워크를 통해 도로 상태 정보를 수집하여 RTA와 같이 관리 기능을 담당하는 서버로 전송하여 도로 관리 기능을 강화하고 이와 같은 정보를 타 차량에게 공유할 수 있다.
제2 Case
센서를 장착한 송신 ITS station은 센서 검출 인식 정보를 분석하여 V2X 메시지로 송신한다. 센서로 인식된 unprocessed HD data에서 객체를 검출해내는 능력은 송신 ITS station의 capability에 따라 다르기 때문에 센서를 장착한 다른 ITS station이 분석해낸 객체 정보를 포함하는 V2X 메시지를 수신하여 자신이 구성하고 송신하는 V2X 메시지에 포함되는 객체 정보와 다를 경우도 있으며, 또한 Central ITS station이 공유한 계획된 도로 상황 (예를 들어 공사 구간, 교통 사고 현황)과 자신의 센서로 인식한 데이터를 분석하여 얻어진 결과가 다를 수 있다.
예를 들어, 센서를 장착한 vehicle 또는 RSU가 센서를 통해 인식한 HD data 분석 시 획득한 객체 정보와 Central ITS station 또는 센서를 장착한 다른 ITS station으로부터 받은 정보가 불일치할 수 있다.
이러한 상황이 발생하는 경우 센서를 장착한 ITS station (vehicle 또는 RSU)은 자신의 센서 검출 결과 데이터를 아래와 같이 V2X 메시지로 구성할 수 있다.
제2 case가 발생하는 상황에서 송신 ITS station이 구성하는 V2X 메시지의 Detected object data의 common data 부분에 자신의 센서 인식 HD data를 분석한 결과를 중심으로 object type 및 부가적인 정보를 기술하되, 다른 메시지에 포함된 다른 충돌되는 object 정보 또는 Central ITS system으로 전송된 상충되는 정보에 대한 추가적인 정보를 V2X 메시지에 포함할 수 있도록 한다.
DetectedObjectList::= SEQUENCE (SIZE(1..256)) OF DetectedObjectData DetectedObjectData::= SEQUENCE { detObjCommon DetectedObjectCommonData, → (a) -- Common data for detected object detObjOptData DetectedObjectOptionalData OPTIONAL → (b) -- Type specific optional data } DetectedObjectCommonData::= SEQUENCE { objType ObjectType, → (c) objTypeCfd ClassificationConfidence, objectID ObjectID, -- temporary ID assigned by source measurementTime MeasurementTimeOffset, -- Detection time timeConfidence TimeConfidence, pos PositionOffsetXYZ, posConfidence PositionConfidenceSet, speed Speed, speedConfidence SpeedConfidence, speedZ Speed OPTIONAL, speedConfidenceZ SpeedConfidence OPTIONAL, heading Heading, headingConf HeadingConfidence, accel4way AccelerationSet4Way OPTIONAL, accCfdX AccelerationConfidence OPTIONAL, accCfdY AccelerationConfidence OPTIONAL, accCfdZ AccelerationConfidence OPTIONAL, accCfdYaw YawRateConfidence OPTIONAL, beConflicted BeConflicted OPTIONAL, → (d) conflictedObjID ConflictedObjID OPTIONAL, → (e) ... } ObjectType::= ENUMERATED{ unknown (0), vehicle (1), vru (2), animal (3), ... } ClassificationConfidence ::= INTEGER (0..101) BeConflicted ::= ENUMERATED{ Undefined (0), objectInfoFromOther (1), CentralSystemInfo (2), ... } ConflictedObjectID ::= INTEGER (0..65535) |
표 6에서 (a) detObjCommon의 DetectedObjectCommonData 파라미터에 대해서는 아래 상세 기술한다. (b) detObjOptData의 DetectedObjectOptionalData 파라미터는 object type이 Vehicle/VRU/animal인 경우 추가적으로(optionally) 사용 가능하다. (c) objType의 ObjectType 파라미터에는 송신ITS station의 센서 검출 정보가 기입된다. (d) beConflicted의 BeConflicted 파라미터는 (1) 또는 (2)로 setting된다. (e) conflictedObjID의 ConflictedObjID 파라미터는 다른 V2X message에 포함된 objectID 값으로 setting된다.
제2 Case에 관한 제안이 실시되는 예는 다음과 같다.
센서를 탑재한 차량들은 제2 Case가 발생한 경우 unprocessed HD data와 함께 자신의 센서를 이용해서 분석한 객체 정보를 함께 Central ITS station으로 송신한다. Central ITS station은 자신이 제공했던 정보에 대해서 HD data를 재분석, 검토하여 정보를 업데이트 하거나 conflict 객체 분석 정보를 보내온 차량/RSU에 기능 업데이트를 가이드 할 수 있다.
제3 Case
unprocessed HD data를 포함하여야 하는 priority가 높은 상황이 생긴 경우 송신 ITS station이 분석한 객체 정보와 함께 unprocessed HD data를 포함하여 송신하고, 이 unprocessed HD data를 수신한 ITS station이 해당 data를 분석할 수 있도록 하는 방법을 제안한다. Priority가 높은 상황을 아래와 같이 정의한다. 아래와 같은 상황이 발생하는 경우 센서 검출 정보를 분석한 V2X 메시지와 함께 이를 분석하기 전의 HD data를 함께 전송할 수 있도록 하여 수신하는 ITS station에서 보다 정확한 정보를 획득할 수 있도록 한다.
- 긴급차량이 긴급신호와 함께 접근할 경우: 긴급차량 (소방차, 응급차)이 긴급상황으로 지나갈 경우 긴급차량이 어느 방향에서 어느 차로로 오고 있는지를 수신차량이 HD data를 확인하면 미리 양보할 수 있도록 선조치가 가능할 수 있다.
-고속도로에 VRU가 노출된 것을 센서로 인식하는 경우 (예를 들어 교통 사고가 난 상황에서 사람들이 차 밖으로 나와있는 상황)
송신 ITS station은 송신단과 수신단이 연결된 통신 환경과 송/수신 ITS station의 타입 (예를 들어 vehicle, RSU, VRU 등) 및 capability 등의 다양한 요소들을 고려하여 센서를 통해 인식한 unprocessed HD data를 제공하는 방법을 선택할 수 있다.
V2N 기반으로 통신 환경을 사용하는 경우 송신 ITS station 및 수신 ITS station은 센서 인식 정보 서비스 사용시 우선 service set-up 과정을 거치게 되는데, 이 때 V2N 통신 기반으로 연결된 ITS station들은 unprocessed HD data 송/수신 방법을 정하는 데에 영향을 줄 수 있는 요소들에 대한 설정을 할 수 있다.
1) 송신 ITS station은 unprocessed HD data를 network에 연결된 서버로 업로드 하는 경우 조건을 설정할 수 있다.
: 송신 ITS station이 unprocessed HD data 전송에 필요한 데이터 소모량을 감수할지 여부
: HD data를 추가로 업로드하는 조건 (분석 후 객체 인식 정보에 unknown object를 포함하는 경우, 분석 결과가 conflict 나는 경우, priority가 높은 상황이 발생한 경우 등)
2) 수신 ITS station은 서버가 획득한 unprocessed HD data를 서버에 연결된 network을 통해서 받는 조건에 대해서 설정할 수 있다.
: 수신 ITS station이 unprocessed HD data 전송에 필요한 데이터 소모량을 감수할지 여부
: 송신 ITS station이 해당 수신 ITS station으로 HD data를 추가로 보내는 조건을 설정할 수 있다. 분석 후 객체 인식 정보에 unknown object를 포함하는 경우, 분석 결과가 conflict 나는 경우, priority가 높은 상황이 발생한 경우 등
: HD data를 추가로 보내는 조건을 더 상세화 할 수 있다. (분석 후 객체 인식 정보에서 unknown object를 포함하고, unknown object가 떨어진 거리가 특정값 이하인 경우, object의 움직이는 속도가 특정값 이상인 경우, object의 크기가 특정값 이상인 경우 등의 조건을 가질 수 있다.)
도 13은 수신 ITS station들의 service set-up을 설명하기 위한 도면이다. 도 13을 참조하면 수신 ITS station (1301)은 업로드를 수행하지 않으며, 다운로드는 자신이 네트워크에 요청하는 경우에 HD 데이터를 수신하도록 service set-up 한다. 수신 ITS station (1302)은 업로드를 수행하지 않으며, 다운로드는 항상 HD 데이터를 수신하도록 service set-up 한다. 센서(1303)은 센서 검출 HD 데이터를 회득 및 분석하여 V2X 메시지를 생성할 수 있다. 이때 검출된 객체의 타입은 unknown object이라고 가정한다. 네트워크는 unknown object에 대한 V2X 메시지 수신에 따라서 수신 ITS station (1301)에 unprocessed HD data를 제공할 수 있음을 알리고, unprocessed HD data 특성 정보를 송신할 수 있다. 만약, 수신 ITS station (1301)이 요청하는 경우 네트워크는 수신 ITS station (1301)에 unprocessed HD data를 제공한다. 네트워크는 V2X 메시지 수신에 따라서 수신 ITS station (1302)에 unprocessed HD data를 포함하는 V2X 메시지를 제공할 수 있다.
일 실시예에 따르면 송신 ITS station이 unprocessed HD data를 추가하여 보내는 방법으로 다음 중 하나가 사용될 수 있으며, 이를 송신 ITS station이 선택할 수 있다.
1. 송신 ITS station은 unprocessed HD data를 processed data (객체 분석 정보)와 함께 Broadcasting한다.
: 송신 ITS station은 unknown object가 검출되고, 추가적인 조건들을 만족하면 자동으로 unprocessed HD data를 전송할 수 있다.
~ unprocessed HD data 자체를 V2X 메시지에 포함할 수 있다.
~ unprocessed HD data를 받을 수 있는 접속 정보 (접근 주소, 권한, HD data 속성 (streaming video/snap shot), expiration)를 V2X 메시지에 포함할 수 있다.
2. 송신 ITS station이 먼저 unprocessed HD data가 사용 가능함을 알리면 수신 ITS station이 개별적으로 요청해서 Unicast 방식으로 unprocessed HD data를 받을 수 있다. 송신 ITS station은 요청한 여러 수신 ITS station들에게 각각 Unicast 송신하거나 또는 HD data 요청 가능정보에 streaming video 또는 snap shot을 받을 수 있는 접근주소, 권한을 공유함으로써 수신 ITS station이 HD data를 획득할 수 있다.
센서를 통해 획득한 unprocessed HD data는 데이터 사이즈가 크고, 이 데이터를 분석할 수 있는 성능을 가진 ITS station에서만 활용 가능할 수 있다. 따라서 본 명세서에서 정의한 상황이 되어 분석전의 HD data를 함께 제공할 수 있더라도, 송신 ITS station은 해당 HD data에 대한 주요 특성과 함께 HD data 요청을 하면 제공이 가능하다는 정보를 먼저 제공할 수 있다. 이후, 이를 수신한 ITS station이 자신의 capability와 HD data의 분석 가능성을 검토 한 후에 unprocessed HD data를 송신 ITS station에 요청하는 경우에 unprocessed HD data를 제공할 수 있다.
센서 인식된 객체 검출된 정보를 포함하는 SDSM 메시지는 unprocessed HD data를 제공할 수도 있다. 예를 들어, 도 14와 같이 SDSM 메시지에 내부에 unprocessed HD data가 추가될 수 있다.
SDSM의 경우 메시지를 구성하는 정보는 모두 센서에 의해서 검출된 정보임을 가정하기 때문에 이 정보가 센서에 의해서 검출된 것인지, 어떤 다른 시스템으로부터 제공된 정보인지에 대한 필드는 포함하지 않는다.
수신 ITS station이 HD data를 요청한 경우 SDSM는 다음과 같은 정보 중 적어도 일부를 포함할 수 있다.
- Expiration: 분석 전의 HD data를 요청할 수 있는 유효기간을 의미한다. 센서로 획득한 HD data를 무제한 저장할 수 없기 때문에 송신하는 ITS station이 이러한 HD data를 언제까지 관리하고 요청 시 보내줄 수 있는지를 의미한다. 센서 인식 객체 정보와 HD data request 관련 정보를 함께 수신한 ITS station은 expiration 기간 내에는 V2X 메시지 ID와 함께 관련된 HD data request를 할 수 있다.
- Video type: 해당 객체와 관련한 HD data를 snapshot 이미지 또는 짧은 시간의 비디오 동영상 등으로 제공받을 수 있는데, 이와 관련한 비디오 타입을 의미한다.
- Max resolution: 제공 가능한 HD data의 최대 resolution을 의미한다.
- Max frame: video type이 이미지가 아닌 동영상인 경우 영상의 최대 frame수를 의미한다.
RSU는 길에서 발생할 수 있는 안전과 관련된 정보를 포함하는 RSM (Road Safety Message)를 제공할 수 있다. 이 때, RSM은 요청 가능한 HD data 정보를 포함할 수 있다. 도 15는 RSM의 일 예를 도시한다.
SDSM과 달리 RSM은 메시지 구성 시 센서로 검출된 객체 정보만을 포함하는 것이 아니라 다른 다양한 소스로부터 정보를 제공받아 메시지를 구성할 수 있으므로 해당 정보가 센서에 의해서 인식/검출된 정보인지 여부에 대한 정보도 포함할 수 있다.
일 실시예에 따라서 HD data 요청이 가능함을 알리는 SDSM 또는 RSM을 수신한 ITS station이 분석 전의 unprocessed HD data를 요청하는 방법을 아래와 같이 제안한다.
unprocessed HD data는 송수신에 요구되는 대역폭 소모가 크기 때문에 수신 ITS station이 필요한 부분 데이터(영상)만을 요청할 수 있다. 수신 ITS station은 HD data Request Message를 송신하여 자신이 수신하고자 하는 HD data에 대한 정보를 알릴 수 있다. HD data Request Message는 수신 ITS station이 수신한 HD data 요청 가능 정보에 기반하여 구성할 수 있다.
도 16은 HD data Request Message의 일 예를 도시한다.
도 16에서 HD data Request Message는 아래와 같이 구성될 수 있다.
- Source ITS station ID: SDSM (RSM)의 source RSU (OBU, VRU) ID
- Source message ID: SDSM (RSM)의 message ID
- Video type: 움직이는 영상 또는 still image 타입일 수 있다. 해당 video type이 영상인 경우 resolution/frame 값을 정하여 HD data Request Message에 포함할 수 있다.
- Start time/End time: video type이 영상인 경우 SDSM (RSM)에 기록된 time stamp 기준으로 HD data 요청 가능한 expiration 기한보다 이전의 영상을 요청할 수 있다.
- Duration: Start time을 명시한 경우 duration으로 영상의 길이를 표시하여 영상의 길이를 정하여 영상을 요청할 수 있다.
unprocessed HD data를 제공할 수 있는 상황이 종료되면 송신 ITS station은 HD data 관련 정보 (예를 들어 HD data 요청가능한 정보 또는 HD data 자체)를 V2X 메시지에서 삭제하고, 기존과 같이 센서 인식하여 검출하고 분석한 객체 정보들 만을 포함하여 V2X 메시지를 구성하여 송신할 수 있다.
도 17은 일 실시예에 따른 송신 ITS station의 동작을 나타낸다.
도 17을 참조하면, 송신 ITS station은 센서 인식/검출 객체 정보 서비스를 시작한다(A01). V2N 네트워크에 연결된 경우 송신 ITS station은 서버에 unprocessed HD data 송수신 방법 등에 대한 서비스 셋업 설정을 수행한다(A03).
송신 ITS station은 센서를 통해 인식/검출된 객체 정보를 분석한다(A04).
분석 결과 검출된 객체의 타입이 unknown이고, 신뢰도(Confidence)가 특정 값(e.g., 101) 인 경우 송신 ITS station은 unprocessed HD data를 송신하기로 결정하고, 그 송신 방법을 선택할 수 있다(A05). 그렇지 않은 경우, 송신 ITS station은 분석 결과에 기초하여 V2X 메시지를 생성/송신할 수 있다(A06).
송신 ITS station이 V2N 네트워크에 연결된 경우 송신 ITS station은 서버에 연결된 수신 ITS station들의 서비스 set-up 설정 값들을 획득하고(A07), 이들 중 unprocessed HD data를 수신하기로 설정된 수신 ITS station들을 확인하여(A08), unprocessed HD data를 송신한다(A09).
송신 ITS station은 요청에 따라서 unprocessed HD data를 제공할 수 있음을 알리는 notification message를 송신할 수 있다(A10). 송신 ITS station은 수신 ITS station으로부터 unprocessed HD data 요청 메시지를 수신하면 (A11), unprocessed HD data에 대한 접근 정보 및 권한 메시지를 송신할 수 있다(A12).
도 18은 일 실시예에 따른 수신 ITS station의 동작을 나타낸다.
도 18을 참조하면, 수신 ITS station은 센서 인식/검출 객체 정보 서비스를 시작한다(B01). V2N 네트워크에 연결된 경우 수신 ITS station은 서버에 unprocessed HD data 송수신 방법 등에 대한 서비스 셋업 설정을 수행한다(B03).
서비스 셋업 설정에 따라서 수신 ITS station은 (Unprocessed HD data를 포함하지 않는) V2X 메시지 (B04), Unprocessed HD data를 포함하는 V2X 메시지 (B05) 또는 요청에 따라서 Unprocessed HD data 제공이 가능함을 알리는 Notification message(B06)를 수신할 수 있다.
수신 ITS station은 Unprocessed HD data의 자동 수신을 수락하여 Unprocessed HD data를 획득할 수 있다(B07). 수신 ITS station은 Unprocessed HD data에 포함된 V2X 메시지를 분석하고(B08), Unprocessed HD data를 처리하여 센서 인식 검출된 객체 정보를 분석할 수 있다(B09).
수신 ITS station이 Unprocessed HD data 제공이 가능함을 알리는 Notification message를 수신하고(B06), 수신 ITS station은 송신 ITS station에 Unprocessed HD data를 요청할 수 있다(B10). 수신 ITS station은 송신 ITS station으로부터 Unprocessed HD data에 접근을 위한 정보를 획득하고 이를 이용하여 Unprocessed HD data를 수신할 수 있다(B11).
도 19는 일 실시예에 따른 ITS station의 동작을 나타낸다.
도 19를 참조하면, ITS station은 센서 인식/검출 객체 정보 서비스를 시작한다(C01). V2N 네트워크에 연결된 경우 ITS station은 서버에 unprocessed HD data 송수신 방법 등에 대한 서비스 셋업 설정을 수행한다(C03).
ITS station은 센서를 통해 인식/검출된 객체 정보를 분석한다(C04).
ITS station은 다른 ITS Station 또는 네트워크로부터 V2X 메시지를 수신할 수 있다(C05).
ITS station은 자신이 분석한 객체 정보와 수신된 V2X 메시지에 포함된 객체 정보의 차이를 판단한다(C06). 차이가 일정 수준 미만이면 ITS station은 (unprocessed HD data를 포함하지 않는) 센서 인식/검출 객체 정보 V2X 메시지를 송신한다(C07). 차이가 일정 수준 이상이면 ITS station은 unprocessed HD data를 송신하기로 결정하고, unprocessed HD data 송신 방법을 선택할 수 있다(C08).
ITS station이 V2N 네트워크에 연결된 경우 ITS station은 서버에 연결된 수신 ITS station들의 서비스 set-up 설정 값들을 획득하고(C09), 이들 중 unprocessed HD data를 수신하기로 설정된 수신 ITS station들을 확인하여(C10), unprocessed HD data를 송신한다(C11).
ITS station은 요청에 따라서 unprocessed HD data를 제공할 수 있음을 알리는 notification message를 송신할 수 있다(C12). ITS station은 수신 ITS station으로부터 unprocessed HD data 요청 메시지를 수신하면 (C13), unprocessed HD data에 대한 접근 정보 및 권한 메시지를 송신할 수 있다(C14).
도 20은 일 실시예에 따른 지능형 교통 시스템(ITS)에서 제1 디바이스가 신호를 송신하는 방법의 흐름을 도시한다. 제1 디바이스는 송신 ITS station일 수 있다.
제1 디바이스는 제1 센서를 통해 제1 센서 데이터를 획득할 수 있다(D05).
제1 디바이스는 상기 제1 센서와 상이한 제2 센서를 통해 검출된 제2 센서 데이터를 제2 디바이스로부터 수신할 수 있다(D10).
제1 디바이스는 상기 제1 센서 데이터에 기초하여 객체 검출 정보를 포함하는 V2X (vehicle-to-everything) 메세지를 송신할 수 있다(D15).
상기 제1 디바이스는, 상기 제1 센서 데이터와 상기 제2 센서 데이터가 상충하는지 여부에 기초하여 상기 V2X 메시지에 포함되는 상기 객체 검출 정보를 결정할 수 있다.
상기 제1 센서 데이터와 상기 제2 센서 데이터가 상충하는 것에 기초하여 상기 객체 검출 정보는 상기 제1 디바이스에서 프로세싱 되지 않은 상기 제1 센서 데이터의 고해상도(HD) 데이터에 대한 정보를 포함할 수 있다. 상기 고해상도 데이터에 대한 정보는, 상기 고해상도 데이터에 엑세스 하기 위한 주소 정보를 포함할 수 있다. 상기 고해상도 데이터에 대한 정보는, 상기 고해상도 데이터의 유효 시간 정보, 비디오 타입 정보, 최대 해상도 정보 및 최대 프레임 수 정보 중 적어도 하나를 포함할 수 있다.
상기 제1 센서 데이터와 상기 제2 센서 데이터가 상충하지 않는 것에 기초하여 상기 제1 디바이스에서 상기 제1 센터 데이터를 프로세싱하여 상기 객체 검출 정보를 구성할 수 있다.
상기 V2X 메시지는, 상기 제2 센서 데이터를 제공하는 상기 제2 디바이스의 타입에 대한 정보를 포함할 수 있다. 상기 제2 디바이스의 타입은, 상기 제2 디바이스가 RSU (road side unit)인지 또는 C-ITS (central-intelligent transportation system) 서버인지 여부에 관련될 수 있다.
상기 제1 센서를 통해서 검출된 객체에 대한 신뢰도가 임계치 미만인 것에 기초하여, 상기 객체 검출 정보는 상기 제1 디바이스에서 프로세싱 되지 않은 상기 제1 센서 데이터의 고해상도(HD) 데이터에 대한 정보를 포함할 수 있다.
상기 제1 센서를 통해서 상기 제1 디바이스에서 구분할 수 없는 객체가 감지된 것에 기초하여, 상기 객체 검출 정보는 상기 제1 디바이스에서 프로세싱 되지 않은 상기 제1 센서 데이터의 고해상도(HD) 데이터에 대한 정보를 포함할 수 있다.
사전 정의된 긴급 상황이 발생된 것에 기초하여, 상기 객체 검출 정보는 상기 제1 디바이스에서 프로세싱 되지 않은 상기 제1 센서 데이터의 고해상도(HD) 데이터에 대한 정보를 포함할 수 있다.
이로 제한되는 것은 아니지만, 본 문서에 개시된 본 발명의 다양한 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 기기들간에 무선 통신/연결(예, 5G)을 필요로 하는 다양한 분야에 적용될 수 있다.
이하, 도면을 참조하여 보다 구체적으로 예시한다. 이하의 도면/설명에서 동일한 도면 부호는 다르게 기술하지 않는 한, 동일하거나 대응되는 하드웨어 블록, 소프트웨어 블록 또는 기능 블록을 예시할 수 있다.
도 21은 본 실시예에 적용가능한 통신 시스템을 예시한다.
도 21을 참조하면, 본 실시예에 적용가능한 통신 시스템(1)은 무선 기기, 기지국 및 네트워크를 포함한다. 여기서, 무선 기기는 무선 접속 기술(예, 5G NR(New RAT), LTE(Long Term Evolution))을 이용하여 통신을 수행하는 기기를 의미하며, 통신/무선/5G 기기로 지칭될 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(100a), 차량(100b-1, 100b-2), XR(eXtended Reality) 기기(100c), 휴대 기기(Hand-held device)(100d), 가전(100e), IoT(Internet of Thing) 기기(100f), AI기기/서버(400)를 포함할 수 있다. 예를 들어, 차량은 무선 통신 기능이 구비된 차량, 자율 주행 차량, 차량간 통신을 수행할 수 있는 차량 등을 포함할 수 있다. 여기서, 차량은 UAV(Unmanned Aerial Vehicle)(예, 드론)를 포함할 수 있다. XR 기기는 AR(Augmented Reality)/VR(Virtual Reality)/MR(Mixed Reality) 기기를 포함하며, HMD(Head-Mounted Device), 차량에 구비된 HUD(Head-Up Display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등의 형태로 구현될 수 있다. 휴대 기기는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 컴퓨터(예, 노트북 등) 등을 포함할 수 있다. 가전은 TV, 냉장고, 세탁기 등을 포함할 수 있다. IoT 기기는 센서, 스마트미터 등을 포함할 수 있다. 예를 들어, 기지국, 네트워크는 무선 기기로도 구현될 수 있으며, 특정 무선 기기(200a)는 다른 무선 기기에게 기지국/네트워크 노드로 동작할 수도 있다.
무선 기기(100a~100f)는 기지국(200)을 통해 네트워크(300)와 연결될 수 있다. 무선 기기(100a~100f)에는 AI(Artificial Intelligence) 기술이 적용될 수 있으며, 무선 기기(100a~100f)는 네트워크(300)를 통해 AI 서버(400)와 연결될 수 있다. 네트워크(300)는 3G 네트워크, 4G(예, LTE) 네트워크 또는 5G(예, NR) 네트워크 등을 이용하여 구성될 수 있다. 무선 기기(100a~100f)는 기지국(200)/네트워크(300)를 통해 서로 통신할 수도 있지만, 기지국/네트워크를 통하지 않고 직접 통신(e.g. 사이드링크 통신(sidelink communication))할 수도 있다. 예를 들어, 차량들(100b-1, 100b-2)은 직접 통신(e.g. V2V(Vehicle to Vehicle)/V2X(Vehicle to everything) communication)을 할 수 있다. 또한, IoT 기기(예, 센서)는 다른 IoT 기기(예, 센서) 또는 다른 무선 기기(100a~100f)와 직접 통신을 할 수 있다.
무선 기기(100a~100f)/기지국(200), 기지국(200)/기지국(200) 간에는 무선 통신/연결(150a, 150b, 150c)이 이뤄질 수 있다. 여기서, 무선 통신/연결은 상향/하향링크 통신(150a)과 사이드링크 통신(150b)(또는, D2D 통신), 기지국간 통신(150c)(e.g. relay, IAB(Integrated Access Backhaul)과 같은 다양한 무선 접속 기술(예, 5G NR)을 통해 이뤄질 수 있다. 무선 통신/연결(150a, 150b, 150c)을 통해 무선 기기와 기지국/무선 기기, 기지국과 기지국은 서로 무선 신호를 송신/수신할 수 있다. 예를 들어, 무선 통신/연결(150a, 150b, 150c)은 다양한 물리 채널을 통해 신호를 송신/수신할 수 있다. 이를 위해, 본 발명의 다양한 제안들에 기반하여, 무선 신호의 송신/수신을 위한 다양한 구성정보 설정 과정, 다양한 신호 처리 과정(예, 채널 인코딩/디코딩, 변조/복조, 자원 매핑/디매핑 등), 자원 할당 과정 등 중 적어도 일부가 수행될 수 있다.
도 22는 본 발명에 적용될 수 있는 무선 기기를 예시한다.
도 22를 참조하면, 제1 무선 기기(100)와 제2 무선 기기(200)는 다양한 무선 접속 기술(예, LTE, NR)을 통해 무선 신호를 송수신할 수 있다. 여기서, {제1 무선 기기(100), 제2 무선 기기(200)}은 도 27의 {무선 기기(100x), 기지국(200)} 및/또는 {무선 기기(100x), 무선 기기(100x)}에 대응할 수 있다.
제1 무선 기기(100)는 하나 이상의 프로세서(102) 및 하나 이상의 메모리(104)를 포함하며, 추가적으로 하나 이상의 송수신기(106) 및/또는 하나 이상의 안테나(108)을 더 포함할 수 있다. 프로세서(102)는 메모리(104) 및/또는 송수신기(106)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(102)는 메모리(104) 내의 정보를 처리하여 제1 정보/신호를 생성한 뒤, 송수신기(106)을 통해 제1 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(102)는 송수신기(106)를 통해 제2 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제2 정보/신호의 신호 처리로부터 얻은 정보를 메모리(104)에 저장할 수 있다. 메모리(104)는 프로세서(102)와 연결될 수 있고, 프로세서(102)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(104)는 프로세서(102)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(102)와 메모리(104)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩셋의 일부일 수 있다. 송수신기(106)는 프로세서(102)와 연결될 수 있고, 하나 이상의 안테나(108)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(106)는 송신기 및/또는 수신기를 포함할 수 있다. 송수신기(106)는 RF(Radio Frequency) 유닛과 혼용될 수 있다. 본 발명에서 무선 기기는 통신 모뎀/회로/칩셋을 의미할 수도 있다.
구체적으로, 상기 UE는 상기 RF 송수신기와 연결되는 프로세서 (102)와 메모리(104)를 포함할 수 있다. 메모리(104)는 도 11 내지 도 27에서 설명된 실시예들과 관련된 동작을 수행할 수 있는 적어도 하나의 프로그램들이 포함될 수 있다.
또는, 프로세서 (102) 및 메모리(104)를 포함하는 칩 셋이 구성될 수 있다. 이 경우, 칩 셋은 적어도 하나의 프로세서 및 상기 적어도 하나의 프로세서와 동작 가능하게 연결되고, 실행될 때, 상기 적어도 하나의 프로세서가 동작을 수행하도록 하는 적어도 하나의 메모리를 포함할 수 있다.
제2 무선 기기(200)는 하나 이상의 프로세서(202), 하나 이상의 메모리(204)를 포함하며, 추가적으로 하나 이상의 송수신기(206) 및/또는 하나 이상의 안테나(208)를 더 포함할 수 있다. 프로세서(202)는 메모리(204) 및/또는 송수신기(206)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202)는 메모리(204) 내의 정보를 처리하여 제3 정보/신호를 생성한 뒤, 송수신기(206)를 통해 제3 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202)는 송수신기(206)를 통해 제4 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제4 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204)에 저장할 수 있다. 메모리(204)는 프로세서(202)와 연결될 수 있고, 프로세서(202)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204)는 프로세서(202)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202)와 메모리(204)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206)는 프로세서(202)와 연결될 수 있고, 하나 이상의 안테나(208)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206)는 송신기 및/또는 수신기를 포함할 수 있다 송수신기(206)는 RF 유닛과 혼용될 수 있다. 본 발명에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
이하, 무선 기기(100, 200)의 하드웨어 요소에 대해 보다 구체적으로 설명한다. 이로 제한되는 것은 아니지만, 하나 이상의 프로토콜 계층이 하나 이상의 프로세서(102, 202)에 의해 구현될 수 있다. 예를 들어, 하나 이상의 프로세서(102, 202)는 하나 이상의 계층(예, PHY, MAC, RLC, PDCP, RRC, SDAP와 같은 기능적 계층)을 구현할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 하나 이상의 PDU(Protocol Data Unit) 및/또는 하나 이상의 SDU(Service Data Unit)를 생성할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 메시지, 제어정보, 데이터 또는 정보를 생성할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 포함하는 신호(예, 베이스밴드 신호)를 생성하여, 하나 이상의 송수신기(106, 206)에게 제공할 수 있다. 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)로부터 신호(예, 베이스밴드 신호)를 수신할 수 있고, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 획득할 수 있다.
하나 이상의 프로세서(102, 202)는 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 마이크로 컴퓨터로 지칭될 수 있다. 하나 이상의 프로세서(102, 202)는 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합에 의해 구현될 수 있다. 일 예로, 하나 이상의 ASIC(Application Specific Integrated Circuit), 하나 이상의 DSP(Digital Signal Processor), 하나 이상의 DSPD(Digital Signal Processing Device), 하나 이상의 PLD(Programmable Logic Device) 또는 하나 이상의 FPGA(Field Programmable Gate Arrays)가 하나 이상의 프로세서(102, 202)에 포함될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있고, 펌웨어 또는 소프트웨어는 모듈, 절차, 기능 등을 포함하도록 구현될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 수행하도록 설정된 펌웨어 또는 소프트웨어는 하나 이상의 프로세서(102, 202)에 포함되거나, 하나 이상의 메모리(104, 204)에 저장되어 하나 이상의 프로세서(102, 202)에 의해 구동될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 코드, 명령어 및/또는 명령어의 집합 형태로 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있다.
하나 이상의 메모리(104, 204)는 하나 이상의 프로세서(102, 202)와 연결될 수 있고, 다양한 형태의 데이터, 신호, 메시지, 정보, 프로그램, 코드, 지시 및/또는 명령을 저장할 수 있다. 하나 이상의 메모리(104, 204)는 ROM, RAM, EPROM, 플래시 메모리, 하드 드라이브, 레지스터, 캐쉬 메모리, 컴퓨터 판독 저장 매체 및/또는 이들의 조합으로 구성될 수 있다. 하나 이상의 메모리(104, 204)는 하나 이상의 프로세서(102, 202)의 내부 및/또는 외부에 위치할 수 있다. 또한, 하나 이상의 메모리(104, 204)는 유선 또는 무선 연결과 같은 다양한 기술을 통해 하나 이상의 프로세서(102, 202)와 연결될 수 있다.
하나 이상의 송수신기(106, 206)는 하나 이상의 다른 장치에게 본 문서의 방법들 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 전송할 수 있다. 하나 이상의 송수신기(106, 206)는 하나 이상의 다른 장치로부터 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 수신할 수 있다. 예를 들어, 하나 이상의 송수신기(106, 206)는 하나 이상의 프로세서(102, 202)와 연결될 수 있고, 무선 신호를 송수신할 수 있다. 예를 들어, 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)가 하나 이상의 다른 장치에게 사용자 데이터, 제어 정보 또는 무선 신호를 전송하도록 제어할 수 있다. 또한, 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)가 하나 이상의 다른 장치로부터 사용자 데이터, 제어 정보 또는 무선 신호를 수신하도록 제어할 수 있다. 또한, 하나 이상의 송수신기(106, 206)는 하나 이상의 안테나(108, 208)와 연결될 수 있고, 하나 이상의 송수신기(106, 206)는 하나 이상의 안테나(108, 208)를 통해 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 송수신하도록 설정될 수 있다. 본 문서에서, 하나 이상의 안테나는 복수의 물리 안테나이거나, 복수의 논리 안테나(예, 안테나 포트)일 수 있다. 하나 이상의 송수신기(106, 206)는 수신된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 하나 이상의 프로세서(102, 202)를 이용하여 처리하기 위해, 수신된 무선 신호/채널 등을 RF 밴드 신호에서 베이스밴드 신호로 변환(Convert)할 수 있다. 하나 이상의 송수신기(106, 206)는 하나 이상의 프로세서(102, 202)를 이용하여 처리된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 베이스밴드 신호에서 RF 밴드 신호로 변환할 수 있다. 이를 위하여, 하나 이상의 송수신기(106, 206)는 (아날로그) 오실레이터 및/또는 필터를 포함할 수 있다.
도 23은 본 실시예에 적용가능한 무선 기기의 다른 예를 나타낸다. 무선 기기는 사용-예/서비스에 따라 다양한 형태로 구현될 수 있다(도 27 참조).
도 23을 참조하면, 무선 기기(100, 200)는 도 22의 무선 기기(100,200)에 대응하며, 다양한 요소(element), 성분(component), 유닛/부(unit), 및/또는 모듈(module)로 구성될 수 있다. 예를 들어, 무선 기기(100, 200)는 통신부(110), 제어부(120), 메모리부(130) 및 추가 요소(140)를 포함할 수 있다. 통신부는 통신 회로(112) 및 송수신기(들)(114)을 포함할 수 있다. 예를 들어, 통신 회로(112)는 도 23의 하나 이상의 프로세서(102,202) 및/또는 하나 이상의 메모리(104,204) 를 포함할 수 있다. 예를 들어, 송수신기(들)(114)는 도 22의 하나 이상의 송수신기(106,206) 및/또는 하나 이상의 안테나(108,208)을 포함할 수 있다. 제어부(120)는 통신부(110), 메모리부(130) 및 추가 요소(140)와 전기적으로 연결되며 무선 기기의 제반 동작을 제어한다. 예를 들어, 제어부(120)는 메모리부(130)에 저장된 프로그램/코드/명령/정보에 기반하여 무선 기기의 전기적/기계적 동작을 제어할 수 있다. 또한, 제어부(120)는 메모리부(130)에 저장된 정보를 통신부(110)을 통해 외부(예, 다른 통신 기기)로 무선/유선 인터페이스를 통해 전송하거나, 통신부(110)를 통해 외부(예, 다른 통신 기기)로부터 무선/유선 인터페이스를 통해 수신된 정보를 메모리부(130)에 저장할 수 있다.
추가 요소(140)는 무선 기기의 종류에 따라 다양하게 구성될 수 있다. 예를 들어, 추가 요소(140)는 파워 유닛/배터리, 입출력부(I/O unit), 구동부 및 컴퓨팅부 중 적어도 하나를 포함할 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(도 21, 100a), 차량(도 21, 100b-1, 100b-2), XR 기기(도 21, 100c), 휴대 기기(도 21, 100d), 가전(도 21, 100e), IoT 기기(도 21, 100f), 디지털 방송용 단말, 홀로그램 장치, 공공 안전 장치, MTC 장치, 의료 장치, 핀테크 장치(또는 금융 장치), 보안 장치, 기후/환경 장치, AI 서버/기기(도 21, 400), 기지국(도 21, 200), 네트워크 노드 등의 형태로 구현될 수 있다. 무선 기기는 사용-예/서비스에 따라 이동 가능하거나 고정된 장소에서 사용될 수 있다.
도 23에서 무선 기기(100, 200) 내의 다양한 요소, 성분, 유닛/부, 및/또는 모듈은 전체가 유선 인터페이스를 통해 상호 연결되거나, 적어도 일부가 통신부(110)를 통해 무선으로 연결될 수 있다. 예를 들어, 무선 기기(100, 200) 내에서 제어부(120)와 통신부(110)는 유선으로 연결되며, 제어부(120)와 제1 유닛(예, 130, 140)은 통신부(110)를 통해 무선으로 연결될 수 있다. 또한, 무선 기기(100, 200) 내의 각 요소, 성분, 유닛/부, 및/또는 모듈은 하나 이상의 요소를 더 포함할 수 있다. 예를 들어, 제어부(120)는 하나 이상의 프로세서 집합으로 구성될 수 있다. 예를 들어, 제어부(120)는 통신 제어 프로세서, 어플리케이션 프로세서(Application processor), ECU(Electronic Control Unit), 그래픽 처리 프로세서, 메모리 제어 프로세서 등의 집합으로 구성될 수 있다. 다른 예로, 메모리부(130)는 RAM(Random Access Memory), DRAM(Dynamic RAM), ROM(Read Only Memory), 플래시 메모리(flash memory), 휘발성 메모리(volatile memory), 비-휘발성 메모리(non-volatile memory) 및/또는 이들의 조합으로 구성될 수 있다.
도 24는 본 실시예에 적용가능한 차량 또는 자율 주행 차량을 예시한다. 차량 또는 자율 주행 차량은 이동형 로봇, 차량, 기차, 유/무인 비행체(Aerial Vehicle, AV), 선박 등으로 구현될 수 있다.
도 24를 참조하면, 차량 또는 자율 주행 차량(100)은 안테나부(108), 통신부(110), 제어부(120), 구동부(140a), 전원공급부(140b), 센서부(140c) 및 자율 주행부(140d)를 포함할 수 있다. 안테나부(108)는 통신부(110)의 일부로 구성될 수 있다. 블록 110/130/140a~140d는 각각 도 22의 블록 110/130/140에 대응한다.
통신부(110)는 다른 차량, 기지국(e.g. 기지국, 노변 기지국(Road Side unit) 등), 서버 등의 외부 기기들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(120)는 차량 또는 자율 주행 차량(100)의 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(120)는 ECU(Electronic Control Unit)를 포함할 수 있다. 구동부(140a)는 차량 또는 자율 주행 차량(100)을 지상에서 주행하게 할 수 있다. 구동부(140a)는 엔진, 모터, 파워 트레인, 바퀴, 브레이크, 조향 장치 등을 포함할 수 있다. 전원공급부(140b)는 차량 또는 자율 주행 차량(100)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다. 센서부(140c)는 차량 상태, 주변 환경 정보, 사용자 정보 등을 얻을 수 있다. 센서부(140c)는 IMU(inertial measurement unit) 센서, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 스티어링 센서, 온도 센서, 습도 센서, 초음파 센서, 조도 센서, 페달 포지션 센서 등을 포함할 수 있다. 자율 주행부(140d)는 주행중인 차선을 유지하는 기술, 어댑티브 크루즈 컨트롤과 같이 속도를 자동으로 조절하는 기술, 정해진 경로를 따라 자동으로 주행하는 기술, 목적지가 설정되면 자동으로 경로를 설정하여 주행하는 기술 등을 구현할 수 있다.
일 예로, 통신부(110)는 외부 서버로부터 지도 데이터, 교통 정보 데이터 등을 수신할 수 있다. 자율 주행부(140d)는 획득된 데이터를 기반으로 자율 주행 경로와 드라이빙 플랜을 생성할 수 있다. 제어부(120)는 드라이빙 플랜에 따라 차량 또는 자율 주행 차량(100)이 자율 주행 경로를 따라 이동하도록 구동부(140a)를 제어할 수 있다(예, 속도/방향 조절). 자율 주행 도중에 통신부(110)는 외부 서버로부터 최신 교통 정보 데이터를 비/주기적으로 획득하며, 주변 차량으로부터 주변 교통 정보 데이터를 획득할 수 있다. 또한, 자율 주행 도중에 센서부(140c)는 차량 상태, 주변 환경 정보를 획득할 수 있다. 자율 주행부(140d)는 새로 획득된 데이터/정보에 기반하여 자율 주행 경로와 드라이빙 플랜을 갱신할 수 있다. 통신부(110)는 차량 위치, 자율 주행 경로, 드라이빙 플랜 등에 관한 정보를 외부 서버로 전달할 수 있다. 외부 서버는 차량 또는 자율 주행 차량들로부터 수집된 정보에 기반하여, AI 기술 등을 이용하여 교통 정보 데이터를 미리 예측할 수 있고, 예측된 교통 정보 데이터를 차량 또는 자율 주행 차량들에게 제공할 수 있다.
여기서, 본 명세서의 무선 기기(XXX, YYY)에서 구현되는 무선 통신 기술은 LTE, NR 및 6G뿐만 아니라 저전력 통신을 위한 Narrowband Internet of Things를 포함할 수 있다. 이때, 예를 들어 NB-IoT 기술은 LPWAN(Low Power Wide Area Network) 기술의 일례일 수 있고, LTE Cat NB1 및/또는 LTE Cat NB2 등의 규격으로 구현될 수 있으며, 상술한 명칭에 한정되는 것은 아니다. 추가적으로 또는 대체적으로, 본 명세서의 무선 기기(XXX, YYY)에서 구현되는 무선 통신 기술은 LTE-M 기술을 기반으로 통신을 수행할 수 있다. 이때, 일 예로, LTE-M 기술은 LPWAN 기술의 일례일 수 있고, eMTC(enhanced Machine Type Communication) 등의 다양한 명칭으로 불릴 수 있다. 예를 들어, LTE-M 기술은 1) LTE CAT 0, 2) LTE Cat M1, 3) LTE Cat M2, 4) LTE non-BL(non-Bandwidth Limited), 5) LTE-MTC, 6) LTE Machine Type Communication, 및/또는 7) LTE M 등의 다양한 규격 중 적어도 어느 하나로 구현될 수 있으며 상술한 명칭에 한정되는 것은 아니다. 추가적으로 또는 대체적으로, 본 명세서의 무선 기기(XXX, YYY)에서 구현되는 무선 통신 기술은 저전력 통신을 고려한 지그비(ZigBee), 블루투스(Bluetooth) 및 저전력 광역 통신망(Low Power Wide Area Network, LPWAN) 중 적어도 어느 하나를 포함할 수 있으며, 상술한 명칭에 한정되는 것은 아니다. 일 예로 ZigBee 기술은 IEEE 802.15.4 등의 다양한 규격을 기반으로 소형/저-파워 디지털 통신에 관련된 PAN(personal area networks)을 생성할 수 있으며, 다양한 명칭으로 불릴 수 있다.
이상에서 설명된 실시예들은 본 발명의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시예를 구성하는 것도 가능하다. 본 발명의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.
본 문서에서 본 발명의 실시예들은 주로 단말과 기지국 간의 신호 송수신 관계를 중심으로 설명되었다. 이러한 송수신 관계는 단말과 릴레이 또는 기지국과 릴레이간의 신호 송수신에도 동일/유사하게 확장된다. 본 문서에서 기지국에 의해 수행된다고 설명된 특정 동작은 경우에 따라서는 그 상위 노드(upper node)에 의해 수행될 수 있다. 즉, 기지국을 포함하는 복수의 네트워크 노드들(network nodes)로 이루어지는 네트워크에서 단말과의 통신을 위해 수행되는 다양한 동작들은 기지국 또는 기지국 이외의 다른 네트워크 노드들에 의해 수행될 수 있음은 자명하다. 기지국은 고정국(fixed station), Node B, eNode B(eNB), 억세스 포인트(access point) 등의 용어에 의해 대체될 수 있다. 또한, 단말은 UE(User Equipment), MS(Mobile Station), MSS(Mobile Subscriber Station) 등의 용어로 대체될 수 있다.
본 발명에 따른 실시예는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시예는 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.
본 발명은 본 발명의 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
상술한 바와 같은 본 발명의 실시형태들은 다양한 이동통신 시스템에 적용될 수 있다.
Claims (15)
- 지능형 교통 시스템(ITS)에서 제1 디바이스가 신호를 송신하는 방법에 있어서,제1 센서를 통해 제1 센서 데이터를 획득;상기 제1 센서와 상이한 제2 센서를 통해 검출된 제2 센서 데이터를 제2 디바이스로부터 수신; 및상기 제1 센서 데이터에 기초하여 객체 검출 정보를 포함하는 V2X (vehicle-to-everything) 메세지를 송신하는 것을 포함하고,상기 제1 디바이스는, 상기 제1 센서 데이터와 상기 제2 센서 데이터가 상충하는지 여부에 기초하여 상기 V2X 메시지에 포함되는 상기 객체 검출 정보를 결정하는, 방법.
- 제 1 항에 있어서,상기 제1 센서 데이터와 상기 제2 센서 데이터가 상충하는 것에 기초하여 상기 객체 검출 정보는 상기 제1 디바이스에서 프로세싱 되지 않은 상기 제1 센서 데이터의 고해상도(HD) 데이터에 대한 정보를 포함하는, 방법.
- 제 2 항에 있어서,상기 고해상도 데이터에 대한 정보는, 상기 고해상도 데이터에 엑세스 하기 위한 주소 정보를 포함하는, 방법.
- 제 2 항에 있어서,상기 고해상도 데이터에 대한 정보는, 상기 고해상도 데이터의 유효 시간 정보, 비디오 타입 정보, 최대 해상도 정보 및 최대 프레임 수 정보 중 적어도 하나를 포함하는, 방법.
- 제 1 항에 있어서,상기 제1 센서 데이터와 상기 제2 센서 데이터가 상충하지 않는 것에 기초하여 상기 제1 디바이스에서 상기 제1 센터 데이터를 프로세싱하여 상기 객체 검출 정보를 구성하는, 방법.
- 제 1 항에 있어서,상기 V2X 메시지는, 상기 제2 센서 데이터를 제공하는 상기 제2 디바이스의 타입에 대한 정보를 포함하는, 방법.
- 제 6 항에 있어서,상기 제2 디바이스의 타입은, 상기 제2 디바이스가 RSU (road side unit)인지 또는 C-ITS (central-intelligent transportation system) 서버인지 여부에 관련되는, 방법.
- 제 1 항에 있어서,상기 제1 센서를 통해서 검출된 객체에 대한 신뢰도가 임계치 미만인 것에 기초하여, 상기 객체 검출 정보는 상기 제1 디바이스에서 프로세싱 되지 않은 상기 제1 센서 데이터의 고해상도(HD) 데이터에 대한 정보를 포함하는, 방법.
- 제 1 항에 있어서,상기 제1 센서를 통해서 상기 제1 디바이스에서 구분할 수 없는 객체가 감지된 것에 기초하여, 상기 객체 검출 정보는 상기 제1 디바이스에서 프로세싱 되지 않은 상기 제1 센서 데이터의 고해상도(HD) 데이터에 대한 정보를 포함하는, 방법.
- 제 1 항에 있어서,사전 정의된 긴급 상황이 발생된 것에 기초하여, 상기 객체 검출 정보는 상기 제1 디바이스에서 프로세싱 되지 않은 상기 제1 센서 데이터의 고해상도(HD) 데이터에 대한 정보를 포함하는, 방법.
- 제 1 항에 기재된 방법을 수행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
- 지능형 교통 시스템(ITS)에서 신호를 송신하는 제1 디바이스에 있어서,제1 센서;송수신기; 및상기 제1 센서 및 상기 송수신기를 제어하는 프로세서를 포함하고,상기 프로세서는, 상기 제1 센서를 통해 제1 센서 데이터를 획득하고, 상기 제1 센서와 상이한 제2 센서를 통해 검출된 제2 센서 데이터를 제2 디바이스로부터 수신하고, 상기 제1 센서 데이터에 기초하여 객체 검출 정보를 포함하는 V2X (vehicle-to-everything) 메세지를 송신하며,상기 프로세서는, 상기 제1 센서 데이터와 상기 제2 센서 데이터가 상충하는지 여부에 기초하여 상기 V2X 메시지에 포함되는 상기 객체 검출 정보를 결정하는, 제1 디바이스.
- 제 12 항에 있어서,상기 제1 센서 데이터와 상기 제2 센서 데이터가 상충하는 것에 기초하여 상기 객체 검출 정보는 상기 제1 디바이스에서 프로세싱 되지 않은 상기 제1 센서 데이터의 고해상도(HD) 데이터에 대한 정보를 포함하는, 제1 디바이스.
- 제 13 항에 있어서,상기 고해상도 데이터에 대한 정보는, 상기 고해상도 데이터에 엑세스 하기 위한 주소 정보를 포함하는, 제1 디바이스.
- 제 13 항에 있어서,상기 고해상도 데이터에 대한 정보는, 상기 고해상도 데이터의 유효 시간 정보, 비디오 타입 정보, 최대 해상도 정보 및 최대 프레임 수 정보 중 적어도 하나를 포함하는, 제1 디바이스.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2023-0002923 | 2023-01-09 | ||
KR20230002923 | 2023-01-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024151036A1 true WO2024151036A1 (ko) | 2024-07-18 |
Family
ID=91897184
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2024/000372 WO2024151036A1 (ko) | 2023-01-09 | 2024-01-09 | 무선 통신 시스템에서 신호를 송수신 하는 방법 및 이를 위한 장치 |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2024151036A1 (ko) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180375939A1 (en) * | 2017-06-26 | 2018-12-27 | Veniam, Inc. | Systems and methods for self-organized fleets of autonomous vehicles for optimal and adaptive transport and offload of massive amounts of data |
US20190132709A1 (en) * | 2018-12-27 | 2019-05-02 | Ralf Graefe | Sensor network enhancement mechanisms |
WO2021252174A1 (en) * | 2020-06-08 | 2021-12-16 | Intel Corporation | Collective perception service enhancements in intelligent transport systems |
US20220332350A1 (en) * | 2019-11-04 | 2022-10-20 | Intel Corporation | Maneuver coordination service in vehicular networks |
-
2024
- 2024-01-09 WO PCT/KR2024/000372 patent/WO2024151036A1/ko unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180375939A1 (en) * | 2017-06-26 | 2018-12-27 | Veniam, Inc. | Systems and methods for self-organized fleets of autonomous vehicles for optimal and adaptive transport and offload of massive amounts of data |
US20190132709A1 (en) * | 2018-12-27 | 2019-05-02 | Ralf Graefe | Sensor network enhancement mechanisms |
US20220332350A1 (en) * | 2019-11-04 | 2022-10-20 | Intel Corporation | Maneuver coordination service in vehicular networks |
WO2021252174A1 (en) * | 2020-06-08 | 2021-12-16 | Intel Corporation | Collective perception service enhancements in intelligent transport systems |
Non-Patent Citations (1)
Title |
---|
FUTUREWEI: "Considerations on scenarios and target requirements for sidelink positioning", 3GPP DRAFT; R1-2203057, 3RD GENERATION PARTNERSHIP PROJECT (3GPP), MOBILE COMPETENCE CENTRE ; 650, ROUTE DES LUCIOLES ; F-06921 SOPHIA-ANTIPOLIS CEDEX ; FRANCE, vol. RAN WG1, no. e-Meeting; 20220509 - 20220520, 29 April 2022 (2022-04-29), Mobile Competence Centre ; 650, route des Lucioles ; F-06921 Sophia-Antipolis Cedex ; France, XP052152845 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021029672A1 (ko) | 무선통신시스템에서 사이드링크 drx에 관련된 ue의 동작 방법 및 장치 | |
WO2021086004A1 (ko) | 사이드링크를 지원하는 무선통신시스템에서 단말이 빔 관리 동작을 수행하는 방법 및 이를 위한 장치 | |
WO2021221448A1 (ko) | 무선통신시스템에서 릴레이 수립 요청에 관련된 릴레이 ue의 동작 방법 | |
WO2021206462A1 (ko) | 무선통신시스템에서 사이드링크 릴레이에 관련된 릴레이 ue의 동작 방법 | |
WO2022025615A1 (ko) | 무선통신시스템에서 사이드링크 디스커버리에 관련된 동작 방법 | |
WO2021141448A1 (ko) | 사이드링크를 지원하는 무선통신시스템에서 장치가 cpm을 전송하는 방법 및 이를 위한 장치 | |
WO2022025665A1 (ko) | 무선통신시스템에서 릴레이 ue 선택에 관련된 동작 방법 | |
WO2021150089A1 (ko) | 사이드링크를 지원하는 무선통신시스템에서 v2x 차량이 가상 v2x 메시지를 전송하는 방법 및 이를 위한 장치 | |
WO2021020890A1 (ko) | 무선통신시스템에서 bsr에 관련된 ue의 동작 방법 및 장치 | |
WO2023075463A1 (ko) | 무선 통신 시스템에서 제1 장치가 제1 메시지를 전송하는 방법 및 이를 위한 장치 | |
WO2022186629A1 (ko) | 무선통신시스템에서 사이드링크에서 psfch 및 pucch 전송에 관련된 ue의 동작 방법 | |
WO2024151036A1 (ko) | 무선 통신 시스템에서 신호를 송수신 하는 방법 및 이를 위한 장치 | |
WO2021246836A1 (ko) | 무선통신시스템에서 릴레이에 관련된 ue의 동작 방법 | |
WO2021221401A1 (ko) | 사이드링크를 지원하는 무선통신시스템에서 제1 장치가 제1 메시지를 전송하는 방법 및 이를 위한 장치 | |
WO2021020901A1 (ko) | 무선통신시스템에서 사이드링크 신호를 송수신하는 방법 | |
WO2021034166A1 (ko) | 사이드링크를 지원하는 무선통신시스템에서 단말이 디스커버리 절차를 수행하는 방법 및 이를 위한 장치 | |
WO2024014719A1 (ko) | 무선 통신 시스템에서 신호를 송수신 하는 방법 및 이를 위한 장치 | |
WO2024075956A1 (ko) | 무선 통신 시스템에서 신호를 송수신 하는 방법 및 이를 위한 장치 | |
WO2024167259A1 (ko) | 무선 통신 시스템에서 신호를 송수신 하는 방법 및 이를 위한 장치 | |
WO2024058635A1 (ko) | 무선 통신 시스템에서 메시지를 전송하는 방법 및 이를 위한 장치 | |
WO2024058634A1 (ko) | 무선 통신 시스템에서 데이터 파일을 전송하는 방법 및 이를 위한 장치 | |
WO2024043766A1 (ko) | 무선 통신 시스템에서 메시지를 전송하는 방법 및 이를 위한 장치 | |
WO2023244091A1 (ko) | 무선통신시스템에서 ue-to-ue relay에서 qos 분할에 관련된 ue의 동작 방법 | |
WO2024029921A1 (ko) | 무선통신시스템에서 ue-to-ue relay 에서 id 설정 등에 관련된 릴레이 ue의 동작 방법 | |
WO2023239195A1 (ko) | 무선 통신 시스템에서 신호를 송수신 하는 방법 및 이를 위한 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 24741657 Country of ref document: EP Kind code of ref document: A1 |