WO2020251335A1 - 무선 통신 시스템에서 단말의 신호 송수신 방법 - Google Patents

무선 통신 시스템에서 단말의 신호 송수신 방법 Download PDF

Info

Publication number
WO2020251335A1
WO2020251335A1 PCT/KR2020/007736 KR2020007736W WO2020251335A1 WO 2020251335 A1 WO2020251335 A1 WO 2020251335A1 KR 2020007736 W KR2020007736 W KR 2020007736W WO 2020251335 A1 WO2020251335 A1 WO 2020251335A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
message
construction site
rsus
communication
Prior art date
Application number
PCT/KR2020/007736
Other languages
English (en)
French (fr)
Inventor
황재호
김학성
서한별
김명섭
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US17/618,703 priority Critical patent/US20220248176A1/en
Publication of WO2020251335A1 publication Critical patent/WO2020251335A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/024Guidance services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/20Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W92/00Interfaces specially adapted for wireless communication networks
    • H04W92/16Interfaces between hierarchically similar devices
    • H04W92/18Interfaces between hierarchically similar devices between terminal devices

Definitions

  • the following description relates to a wireless communication system, and more particularly, to a signal transmission and reception method and apparatus of a terminal for a construction site guidance system.
  • a wireless communication system is a multiple access system capable of supporting communication with multiple users by sharing available system resources (bandwidth, transmission power, etc.).
  • multiple access systems include a code division multiple access (CDMA) system, a frequency division multiple access (FDMA) system, a time division multiple access (TDMA) system, an orthogonal frequency division multiple access (OFDMA) system, and a single carrier frequency (SC-FDMA) system.
  • CDMA code division multiple access
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • OFDMA orthogonal frequency division multiple access
  • SC-FDMA single carrier frequency division multiple access
  • division multiple access division multiple access
  • MC-FDMA multi carrier frequency division multiple access
  • RATs radio access technologies
  • 5G is also included here.
  • the three main requirements areas for 5G are (1) Enhanced Mobile Broadband (eMBB) area, (2) Massive Machine Type Communication (mMTC) area, and (3) ultra-reliability and It includes a low-latency communication (Ultra-reliable and Low Latency Communications, URLLC) area.
  • eMBB Enhanced Mobile Broadband
  • mMTC Massive Machine Type Communication
  • URLLC Low Latency communication
  • multiple areas may be required for optimization, and other use cases may be focused on only one key performance indicator (KPI).
  • KPI key performance indicator
  • 5G supports these various use cases in a flexible and reliable way.
  • eMBB goes far beyond basic mobile Internet access, covering rich interactive work, media and entertainment applications in the cloud or augmented reality.
  • Data is one of the key drivers of 5G, and it may not be possible to see dedicated voice services for the first time in the 5G era.
  • voice is expected to be processed as an application program simply using the data connection provided by the communication system.
  • the main reasons for the increased traffic volume are an increase in content size and an increase in the number of applications requiring high data rates.
  • Streaming services (audio and video), interactive video and mobile Internet connections will become more widely used as more devices connect to the Internet. Many of these applications require always-on connectivity to push real-time information and notifications to the user.
  • Cloud storage and applications are increasing rapidly in mobile communication platforms, which can be applied to both work and entertainment.
  • cloud storage is a special use case that drives the growth of the uplink data rate.
  • 5G is also used for remote work in the cloud, and requires much lower end-to-end delays to maintain a good user experience when tactile interfaces are used.
  • Entertainment For example, cloud gaming and video streaming is another key factor that is increasing the demand for mobile broadband capabilities. Entertainment is essential on smartphones and tablets anywhere, including high mobility environments such as trains, cars and airplanes.
  • Another use case is augmented reality and information retrieval for entertainment.
  • augmented reality requires very low latency and an instantaneous amount of data.
  • one of the most anticipated 5G use cases relates to the ability to seamlessly connect embedded sensors in all fields, i.e. mMTC.
  • mMTC massive machine type computer
  • Industrial IoT is one of the areas where 5G plays a major role in enabling smart cities, asset tracking, smart utilities, agriculture and security infrastructure.
  • URLLC includes new services that will transform the industry with ultra-reliable/low-latency links such as self-driving vehicles and remote control of critical infrastructure.
  • the level of reliability and delay is essential for smart grid control, industrial automation, robotics, drone control and coordination.
  • 5G can complement fiber-to-the-home (FTTH) and cable-based broadband (or DOCSIS) as a means of providing streams rated at hundreds of megabits per second to gigabits per second. This high speed is required to deliver TVs in 4K or higher (6K, 8K and higher) resolutions as well as virtual and augmented reality.
  • Virtual Reality (VR) and Augmented Reality (AR) applications involve almost immersive sports events. Certain application programs may require special network settings. In the case of VR games, for example, game companies may need to integrate core servers with network operators' edge network servers to minimize latency.
  • Automotive is expected to be an important new driving force in 5G, with many use cases for mobile communication to vehicles. For example, entertainment for passengers demands simultaneous high capacity and high mobility mobile broadband. The reason is that future users will continue to expect high-quality connections, regardless of their location and speed.
  • Another application example in the automotive field is an augmented reality dashboard. It identifies an object in the dark on top of what the driver is looking through the front window, and displays information that tells the driver about the distance and movement of the object overlaid.
  • wireless modules enable communication between vehicles, exchange of information between the vehicle and supporting infrastructure, and exchange of information between the vehicle and other connected devices (eg, devices carried by pedestrians).
  • the safety system allows the driver to lower the risk of accidents by guiding alternative courses of action to make driving safer.
  • the next step will be a remote controlled or self-driven vehicle. It is very reliable and requires very fast communication between different self-driving vehicles and between the vehicle and the infrastructure. In the future, self-driving vehicles will perform all driving activities, and drivers will be forced to focus only on traffic anomalies that the vehicle itself cannot identify.
  • the technical requirements of self-driving vehicles call for ultra-low latency and ultra-fast reliability to increase traffic safety to levels unachievable by humans.
  • Smart cities and smart homes referred to as smart society, will be embedded with high-density wireless sensor networks.
  • a distributed network of intelligent sensors will identify the conditions for cost and energy-efficient maintenance of a city or home.
  • a similar setup can be done for each household.
  • Temperature sensors, window and heating controllers, burglar alarms and appliances are all wirelessly connected. Many of these sensors are typically low data rates, low power and low cost. However, for example, real-time HD video may be required in certain types of devices for surveillance.
  • the smart grid interconnects these sensors using digital information and communication technologies to collect information and act accordingly. This information can include the behavior of suppliers and consumers, allowing smart grids to improve efficiency, reliability, economics, sustainability of production and the distribution of fuels such as electricity in an automated way.
  • the smart grid can also be viewed as another low-latency sensor network.
  • the health sector has many applications that can benefit from mobile communications.
  • the communication system can support telemedicine providing clinical care from remote locations. This can help reduce barriers to distance and improve access to medical services that are not consistently available in remote rural areas. It is also used to save lives in critical care and emergencies.
  • a wireless sensor network based on mobile communication may provide remote monitoring and sensors for parameters such as heart rate and blood pressure.
  • Wireless and mobile communications are becoming increasingly important in industrial applications. Wiring is expensive to install and maintain. Thus, the possibility of replacing cables with reconfigurable wireless links is an attractive opportunity for many industries. However, achieving this requires that the wireless connection operates with a delay, reliability and capacity similar to that of the cable, and its management is simplified. Low latency and very low error probability are new requirements that need to be connected to 5G.
  • Logistics and freight tracking are important use cases for mobile communications that enable tracking of inventory and packages from anywhere using location-based information systems. Logistics and freight tracking use cases typically require low data rates, but require a wide range and reliable location information.
  • a wireless communication system is a multiple access system that supports communication with multiple users by sharing available system resources (eg, bandwidth, transmission power, etc.).
  • multiple access systems include code division multiple access (CDMA) systems, frequency division multiple access (FDMA) systems, time division multiple access (TDMA) systems, orthogonal frequency division multiple access (OFDMA) systems, and single carrier frequency (SC-FDMA) systems. division multiple access) system, MC-FDMA (multi carrier frequency division multiple access) system, and the like.
  • a sidelink refers to a communication method in which a direct link is established between terminals (User Equipment, UEs) to directly exchange voice or data between terminals without going through a base station (BS).
  • SL is being considered as a solution to the burden on the base station due to rapidly increasing data traffic.
  • V2X vehicle-to-everything refers to a communication technology that exchanges information with other vehicles, pedestrians, and infrastructure-built objects through wired/wireless communication.
  • V2X can be divided into four types: vehicle-to-vehicle (V2V), vehicle-to-infrastructure (V2I), vehicle-to-network (V2N), and vehicle-to-pedestrian (V2P).
  • V2X communication may be provided through a PC5 interface and/or a Uu interface.
  • next-generation radio access technology in consideration of the like may be referred to as a new radio access technology (RAT) or a new radio (NR).
  • RAT new radio access technology
  • NR new radio
  • V2X vehicle-to-everything
  • FIG. 1 is a diagram for explaining by comparing V2X communication based on RAT before NR and V2X communication based on NR.
  • V2X communication a method of providing safety services based on V2X messages such as BSM (Basic Safety Message), CAM (Cooperative Awareness Message), and DENM (Decentralized Environmental Notification Message) in RAT before NR
  • BSM Basic Safety Message
  • CAM Cooperative Awareness Message
  • DENM Decentralized Environmental Notification Message
  • the V2X message may include location information, dynamic information, attribute information, and the like.
  • the terminal may transmit a periodic message type CAM and/or an event triggered message type DENM to another terminal.
  • the CAM may include basic vehicle information such as dynamic state information of the vehicle such as direction and speed, vehicle static data such as dimensions, external lighting conditions, and route history.
  • the terminal may broadcast the CAM, and the latency of the CAM may be less than 100 ms.
  • the terminal may generate a DENM and transmit it to another terminal.
  • all vehicles within the transmission range of the terminal may receive CAM and/or DENM.
  • DENM may have a higher priority than CAM.
  • V2X scenarios may include vehicle platooning, advanced driving, extended sensors, remote driving, and the like.
  • vehicles can dynamically form groups and move together. For example, in order to perform platoon operations based on vehicle platooning, vehicles belonging to the group may receive periodic data from the leading vehicle. For example, vehicles belonging to the group may use periodic data to reduce or widen the distance between vehicles.
  • the vehicle can be semi-automated or fully automated.
  • each vehicle may adjust trajectories or maneuvers based on data acquired from a local sensor of a proximity vehicle and/or a proximity logical entity.
  • each vehicle may share a driving intention with nearby vehicles.
  • raw data or processed data, or live video data acquired through local sensors may be used as vehicles, logical entities, pedestrian terminals, and / Or can be exchanged between V2X application servers.
  • the vehicle can recognize an improved environment than the environment that can be detected using its own sensor.
  • a remote driver or a V2X application may operate or control the remote vehicle.
  • a route can be predicted such as in public transportation
  • cloud computing-based driving may be used for operation or control of the remote vehicle.
  • access to a cloud-based back-end service platform may be considered for remote driving.
  • V2X communication based on NR a method of specifying service requirements for various V2X scenarios such as vehicle platooning, improved driving, extended sensors, and remote driving is being discussed in V2X communication based on NR.
  • the embodiment(s) makes it a technical task to generate construction site information by reflecting information that changes in real time using RSU installed around the construction site.
  • the embodiment(s) makes it a technical task to reduce installation costs by simplifying the structure of the RSU installed around the construction site.
  • a method of performing an operation for a terminal in a wireless communication system transmitting a first message to one or more road side units (RSUs), and transmitting a second message to the one or more RSUs Including, wherein the first message includes location information of each of the one or more RSUs obtained by recognizing the unique information of each of the one or more RSUs, and the second message is It is a method, including a list of locations.
  • RSUs road side units
  • a wireless communication system in a wireless communication system, at least one processor and at least one computer that can be operably connected to the at least one processor and store instructions that, when executed, cause the at least one processor to perform operations And a memory, wherein the operations include transmitting a first message to one or more road side units (RSUs), and transmitting a second message to the one or more RSUs, wherein the first message is the one
  • the terminal includes location information of each of the one or more RSUs obtained by recognizing the unique information of each of the RSUs, and the second message includes a location list in which location information of each of the one or more RSUs is collected.
  • One embodiment is a computer-readable storage medium storing at least one computer program including instructions for causing at least one processor to perform operations for a UE, when executed by at least one processor, the operations , Transmitting a first message to at least one RSU (Road Side Unit), and transmitting a second message to the at least one RSU, wherein the first message recognizes unique information of each of the at least one RSU And the location information of each of the one or more RSUs obtained by doing so, and the second message is a medium including a location list in which the location information of each of the one or more RSUs is collected.
  • RSU Radioad Side Unit
  • the second message may be transmitted and received between the one or more RSUs.
  • the at least one RSU may transmit a safety message to the vehicle using the second message, and the safety message may include information on a construction site area in which the at least one RSU is located.
  • the method may further include requesting construction site common information from the base station or the soft V2X server, and receiving the construction site common information from the base station or the soft V2X server.
  • the first message and the second message may include common information of the construction site.
  • the common information of the construction site may include information on a type of construction or a construction period.
  • the method may further include transmitting the second message to the base station or the V2X server, and the base station or the V2X server may transmit a safety message to the vehicle using the second message.
  • the terminal may be an autonomous vehicle or included in an autonomous vehicle.
  • FIG. 1 is a diagram for explaining by comparing V2X communication based on RAT before NR and V2X communication based on NR.
  • FIG. 2 shows a structure of an LTE system according to an embodiment of the present disclosure.
  • FIG 3 illustrates a radio protocol architecture for a user plane and a control plane according to an embodiment of the present disclosure.
  • FIG. 4 illustrates a structure of an NR system according to an embodiment of the present disclosure.
  • 5 illustrates functional division between NG-RAN and 5GC according to an embodiment of the present disclosure.
  • FIG. 6 shows a structure of an NR radio frame to which the embodiment(s) can be applied.
  • FIG. 7 shows a slot structure of an NR frame according to an embodiment of the present disclosure.
  • FIG 9 shows an ITS reference structure according to an embodiment of the present disclosure.
  • FIG. 10 is an exemplary structure of an ITS station according to an embodiment of the present disclosure.
  • FIG 11 is an exemplary structure of a facility layer according to an embodiment of the present disclosure.
  • 28 to 37 are diagrams for describing various devices to which the embodiment(s) may be applied.
  • “/” and “,” should be interpreted as representing “and/or”.
  • “A/B” may mean “A and/or B”.
  • “A, B” may mean “A and/or B”.
  • “A/B/C” may mean “at least one of A, B and/or C”.
  • “A, B, C” may mean “at least one of A, B and/or C”.
  • “or” should be interpreted as representing “and/or”.
  • “A or B” may include “only A”, “only B”, and/or “both A and B”.
  • “or” should be interpreted as indicating “additionally or alternatively”.
  • CDMA code division multiple access
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • OFDMA orthogonal frequency division multiple access
  • SC-FDMA single carrier frequency division multiple access
  • CDMA may be implemented with a radio technology such as universal terrestrial radio access (UTRA) or CDMA2000.
  • TDMA may be implemented with a radio technology such as global system for mobile communications (GSM)/general packet radio service (GPRS)/enhanced data rates for GSM evolution (EDGE).
  • GSM global system for mobile communications
  • GPRS general packet radio service
  • EDGE enhanced data rates for GSM evolution
  • OFDMA may be implemented with wireless technologies such as IEEE (institute of electrical and electronics engineers) 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802-20, and E-UTRA (evolved UTRA).
  • IEEE 802.16m is an evolution of IEEE 802.16e and provides backward compatibility with a system based on IEEE 802.16e.
  • UTRA is part of a universal mobile telecommunications system (UMTS).
  • 3rd generation partnership project (3GPP) long term evolution (LTE) is a part of evolved UMTS (E-UMTS) that uses evolved-UMTS terrestrial radio access (E-UTRA), and employs OFDMA in downlink and SC in uplink.
  • -Adopt FDMA is an evolution of 3GPP LTE.
  • 5G NR is the successor technology of LTE-A, and is a new clean-slate type mobile communication system with features such as high performance, low latency, and high availability.
  • 5G NR can utilize all available spectrum resources, from low frequency bands of less than 1 GHz to intermediate frequency bands of 1 GHz to 10 GHz and high frequency (millimeter wave) bands of 24 GHz or higher.
  • LTE-A or 5G NR is mainly described, but the technical idea according to an embodiment of the present disclosure is not limited thereto.
  • E-UTRAN Evolved-UMTS Terrestrial Radio Access Network
  • LTE Long Term Evolution
  • the E-UTRAN includes a base station 20 that provides a control plane and a user plane to the terminal 10.
  • the terminal 10 may be fixed or mobile, and may be referred to as other terms such as a mobile station (MS), a user terminal (UT), a subscriber station (SS), a mobile terminal (MT), and a wireless device.
  • the base station 20 refers to a fixed station communicating with the terminal 10, and may be referred to as an evolved-NodeB (eNB), a base transceiver system (BTS), an access point, and the like.
  • eNB evolved-NodeB
  • BTS base transceiver system
  • access point and the like.
  • the base stations 20 may be connected to each other through an X2 interface.
  • the base station 20 is connected to an Evolved Packet Core (EPC) 30 through an S1 interface, more specifically, a Mobility Management Entity (MME) through an S1-MME and a Serving Gateway (S-GW) through an S1-U.
  • EPC Evolved Packet Core
  • MME Mobility Management Entity
  • S-GW Serving Gateway
  • the EPC 30 is composed of MME, S-GW, and P-GW (Packet Data Network-Gateway).
  • the MME has access information of the terminal or information on the capabilities of the terminal, and this information is mainly used for mobility management of the terminal.
  • S-GW is a gateway having an E-UTRAN as an endpoint
  • P-GW is a gateway having a PDN (Packet Date Network) as an endpoint.
  • the layers of the Radio Interface Protocol between the terminal and the network are L1 (Layer 1) based on the lower 3 layers of the Open System Interconnection (OSI) standard model, which is widely known in communication systems. It can be divided into L2 (second layer) and L3 (third layer).
  • L2 second layer
  • L3 third layer
  • the physical layer belonging to the first layer provides an information transfer service using a physical channel
  • the radio resource control (RRC) layer located in the third layer is a radio resource between the terminal and the network. It plays the role of controlling To this end, the RRC layer exchanges RRC messages between the terminal and the base station.
  • 3(a) shows a radio protocol architecture for a user plane according to an embodiment of the present disclosure.
  • the user plane is a protocol stack for transmitting user data
  • the control plane is a protocol stack for transmitting control signals.
  • a physical layer provides an information transmission service to an upper layer using a physical channel.
  • the physical layer is connected to an upper layer, a medium access control (MAC) layer, through a transport channel. Data is moved between the MAC layer and the physical layer through the transport channel. Transmission channels are classified according to how and with what characteristics data is transmitted over the air interface.
  • MAC medium access control
  • the physical channel may be modulated in an Orthogonal Frequency Division Multiplexing (OFDM) scheme, and uses time and frequency as radio resources.
  • OFDM Orthogonal Frequency Division Multiplexing
  • the MAC layer provides a service to an upper layer, a radio link control (RLC) layer, through a logical channel.
  • the MAC layer provides a mapping function from a plurality of logical channels to a plurality of transport channels.
  • the MAC layer provides a logical channel multiplexing function by mapping a plurality of logical channels to a single transport channel.
  • the MAC sublayer provides a data transmission service on a logical channel.
  • the RLC layer performs concatenation, segmentation, and reassembly of RLC Serving Data Units (SDUs).
  • SDUs RLC Serving Data Units
  • the RLC layer has a Transparent Mode (TM), Unacknowledged Mode (UM), and Acknowledged Mode. , AM).
  • TM Transparent Mode
  • UM Unacknowledged Mode
  • AM Acknowledged Mode.
  • AM RLC provides error correction through automatic repeat request (ARQ).
  • the Radio Resource Control (RRC) layer is defined only in the control plane.
  • the RRC layer is in charge of controlling logical channels, transport channels, and physical channels in relation to configuration, re-configuration, and release of radio bearers.
  • RB refers to a logical path provided by a first layer (physical layer or PHY layer) and a second layer (MAC layer, RLC layer, and Packet Data Convergence Protocol (PDCP) layer) for data transfer between the terminal and the network.
  • MAC layer physical layer
  • RLC layer Radio Link Control Protocol
  • PDCP Packet Data Convergence Protocol
  • the functions of the PDCP layer in the user plane include transmission of user data, header compression, and ciphering.
  • the functions of the PDCP layer in the control plane include transmission of control plane data and encryption/integrity protection.
  • Establishing the RB refers to a process of defining characteristics of a radio protocol layer and channel to provide a specific service, and setting specific parameters and operation methods for each.
  • the RB can be further divided into two types: Signaling Radio Bearer (SRB) and Data Radio Bearer (DRB).
  • SRB is used as a path for transmitting RRC messages in the control plane
  • DRB is used as a path for transmitting user data in the user plane.
  • the UE When an RRC connection is established between the RRC layer of the UE and the RRC layer of the E-UTRAN, the UE is in the RRC_CONNECTED state, otherwise it is in the RRC_IDLE state.
  • the RRC_INACTIVE state is additionally defined, and the terminal in the RRC_INACTIVE state can release the connection with the base station while maintaining the connection with the core network.
  • a downlink transmission channel for transmitting data from a network to a terminal there is a broadcast channel (BCH) for transmitting system information and a downlink shared channel (SCH) for transmitting user traffic or control messages.
  • BCH broadcast channel
  • SCH downlink shared channel
  • downlink multicast or broadcast service traffic or control messages they may be transmitted through a downlink SCH or a separate downlink multicast channel (MCH).
  • RACH random access channel
  • SCH uplink shared channel
  • BCCH Broadcast Control Channel
  • PCCH Paging Control Channel
  • CCCH Common Control Channel
  • MCCH Multicast Control Channel
  • MTCH Multicast Traffic. Channel
  • the physical channel is composed of several OFDM symbols in the time domain and several sub-carriers in the frequency domain.
  • One sub-frame is composed of a plurality of OFDM symbols in the time domain.
  • a resource block is a resource allocation unit and is composed of a plurality of OFDM symbols and a plurality of sub-carriers.
  • each subframe may use specific subcarriers of specific OFDM symbols (eg, the first OFDM symbol) of the corresponding subframe for the PDCCH (Physical Downlink Control Channel), that is, the L1/L2 control channel.
  • TTI Transmission Time Interval
  • FIG. 4 illustrates a structure of an NR system according to an embodiment of the present disclosure.
  • a Next Generation Radio Access Network may include a next generation-Node B (gNB) and/or an eNB that provides user plane and control plane protocol termination to a terminal.
  • gNB next generation-Node B
  • eNB that provides user plane and control plane protocol termination to a terminal.
  • 4 illustrates a case where only gNB is included.
  • the gNB and the eNB are connected to each other through an Xn interface.
  • the gNB and eNB are connected to the 5th generation core network (5G Core Network: 5GC) through the NG interface.
  • 5G Core Network 5GC
  • the access and mobility management function AMF
  • UPF user plane function
  • 5 illustrates functional division between NG-RAN and 5GC according to an embodiment of the present disclosure.
  • the gNB is inter-cell radio resource management (Inter Cell RRM), radio bearer management (RB control), connection mobility control (Connection Mobility Control), radio admission control (Radio Admission Control), measurement setting and provision Functions such as (Measurement configuration & Provision) and dynamic resource allocation may be provided.
  • AMF can provide functions such as non-access stratum (NAS) security and idle state mobility processing.
  • UPF may provide functions such as mobility anchoring and Protocol Data Unit (PDU) processing.
  • SMF Session Management Function
  • FIG. 6 shows the structure of an NR radio frame to which the present invention can be applied.
  • radio frames may be used in uplink and downlink transmission in NR.
  • the radio frame has a length of 10 ms and may be defined as two 5 ms half-frames (HF).
  • the half-frame may include five 1ms subframes (Subframe, SF).
  • a subframe may be divided into one or more slots, and the number of slots within a subframe may be determined according to a subcarrier spacing (SCS).
  • SCS subcarrier spacing
  • Each slot may include 12 or 14 OFDM(A) symbols according to a cyclic prefix (CP).
  • CP cyclic prefix
  • each slot may include 14 symbols.
  • each slot may include 12 symbols.
  • the symbol may include an OFDM symbol (or CP-OFDM symbol), an SC-FDMA symbol (or DFT-s-OFDM symbol).
  • Table 1 below shows the number of symbols per slot according to the SCS setting ( ⁇ ) when normal CP is used ( ), number of slots per frame ( ) And the number of slots per subframe ( ) For example.
  • Table 2 illustrates the number of symbols per slot, the number of slots per frame, and the number of slots per subframe according to the SCS when the extended CP is used.
  • OFDM(A) numerology eg, SCS, CP length, etc.
  • OFDM(A) numerology eg, SCS, CP length, etc.
  • the (absolute time) section of the time resource e.g., subframe, slot or TTI
  • TU Time Unit
  • multiple numerology or SCS to support various 5G services may be supported.
  • SCS when the SCS is 15 kHz, a wide area in traditional cellular bands can be supported, and when the SCS is 30 kHz/60 kHz, a dense-urban, lower delay latency) and a wider carrier bandwidth may be supported.
  • SCS when the SCS is 60 kHz or higher, a bandwidth greater than 24.25 GHz may be supported to overcome phase noise.
  • the NR frequency band can be defined as two types of frequency ranges.
  • the two types of frequency ranges may be FR1 and FR2.
  • the numerical value of the frequency range may be changed, for example, the two types of frequency ranges may be shown in Table 3 below.
  • FR1 can mean “sub 6GHz range”
  • FR2 can mean “above 6GHz range” and can be called millimeter wave (mmW).
  • mmW millimeter wave
  • FR1 may include a band of 410MHz to 7125MHz as shown in Table 4 below. That is, FR1 may include a frequency band of 6 GHz (or 5850, 5900, 5925 MHz, etc.) or higher. For example, a frequency band of 6 GHz (or 5850, 5900, 5925 MHz, etc.) or higher included in FR1 may include an unlicensed band.
  • the unlicensed band can be used for a variety of purposes, and can be used, for example, for communication for vehicles (eg, autonomous driving).
  • FIG. 7 shows a slot structure of an NR frame according to an embodiment of the present disclosure.
  • a slot includes a plurality of symbols in the time domain.
  • one slot includes 14 symbols, but in the case of an extended CP, one slot may include 12 symbols.
  • one slot may include 7 symbols, but in the case of an extended CP, one slot may include 6 symbols.
  • the carrier includes a plurality of subcarriers in the frequency domain.
  • Resource Block (RB) may be defined as a plurality of (eg, 12) consecutive subcarriers in the frequency domain.
  • BWP Bandwidth Part
  • P Physical Resource Block
  • the carrier may include up to N (eg, 5) BWPs. Data communication can be performed through an activated BWP.
  • Each element may be referred to as a resource element (RE) in the resource grid, and one complex symbol may be mapped.
  • the radio interface between the terminal and the terminal or the radio interface between the terminal and the network may be composed of an L1 layer, an L2 layer, and an L3 layer.
  • the L1 layer may mean a physical layer.
  • the L2 layer may mean at least one of a MAC layer, an RLC layer, a PDCP layer, and an SDAP layer.
  • the L3 layer may mean an RRC layer.
  • V2X or SL (sidelink) communication will be described.
  • FIG. 8 shows three cast types according to an embodiment of the present disclosure.
  • FIG. 8(a) shows a broadcast type SL communication
  • FIG. 8(b) shows a unicast type SL communication
  • FIG. 8(c) shows a groupcast type SL communication.
  • a terminal may perform one-to-one communication with another terminal.
  • a terminal may perform SL communication with one or more terminals in a group to which it belongs.
  • SL groupcast communication may be replaced with SL multicast communication, SL one-to-many communication, or the like.
  • CAM Cooperative Awareness Message
  • DENM Decentralized Environmental Notification Message
  • a periodic message type CAM In vehicle-to-vehicle communication, a periodic message type CAM, an event triggered message type DENM, and the like may be transmitted.
  • the CAM may include basic vehicle information such as dynamic state information of the vehicle such as direction and speed, vehicle static data such as dimensions, external lighting conditions, and route history.
  • the size of the CAM can be 50-300 bytes.
  • CAM is broadcast, and the latency should be less than 100ms.
  • DENM may be a message generated in case of an unexpected situation such as a vehicle breakdown or an accident.
  • the size of the DENM can be less than 3000 bytes, and any vehicle within the transmission range can receive the message. In this case, DENM may have a higher priority than CAM.
  • the transmitting terminal may need to establish an RRC connection with the receiving terminal (PC5).
  • the terminal may acquire a V2X-specific SIB (V2X-specific SIB).
  • V2X-specific SIB For a terminal, having data to be transmitted, configured to transmit V2X or SL communication by a higher layer, if at least a frequency configured to be transmitted by the terminal for SL communication is included in the V2X-specific SIB, the transmission resource pool for the corresponding frequency Without including, the terminal can establish an RRC connection with another terminal. For example, when an RRC connection is established between the transmitting terminal and the receiving terminal, the transmitting terminal may perform unicast communication with the receiving terminal through the established RRC connection.
  • the transmitting terminal may transmit an RRC message to the receiving terminal.
  • HARQ hybrid automatic repeat request
  • An error compensation scheme for securing the reliability of communication may include a Forward Error Correction (FEC) scheme and an Automatic Repeat Request (ARQ) scheme.
  • FEC Forward Error Correction
  • ARQ Automatic Repeat Request
  • an error at the receiving end can be corrected by adding an extra error correction code to information bits.
  • the FEC method has the advantage that time delay is small and information exchanged between the transmitting and receiving ends is not required, there is a disadvantage that the system efficiency is deteriorated in a good channel environment.
  • the ARQ method can increase transmission reliability, there is a disadvantage in that a time delay occurs and system efficiency decreases in a poor channel environment.
  • the HARQ (Hybrid Automatic Repeat Request) method is a combination of FEC and ARQ, and it is possible to increase performance by checking whether data received by the physical layer contains an undecodeable error and requesting retransmission when an error occurs.
  • HARQ feedback and HARQ combining in the physical layer may be supported.
  • the receiving terminal when the receiving terminal operates in the resource allocation mode 1 or 2, the receiving terminal can receive the PSSCH from the transmitting terminal, and the receiving terminal can receive Sidelink Feedback Control Information (SFCI) through a Physical Sidelink Feedback Channel (PSFCH).
  • SFCI Sidelink Feedback Control Information
  • PSFCH Physical Sidelink Feedback Channel
  • HARQ feedback for PSSCH may be transmitted to the transmitting terminal using the format.
  • SL HARQ feedback may be enabled for unicast.
  • the receiving terminal in a non-CBG (non-Code Block Group) operation, when the receiving terminal decodes the PSCCH targeting the receiving terminal, and the receiving terminal successfully decodes the transport block related to the PSCCH, the receiving terminal HARQ-ACK can be generated. And, the receiving terminal may transmit the HARQ-ACK to the transmitting terminal.
  • the receiving terminal after the receiving terminal decodes the PSCCH targeting the receiving terminal, if the receiving terminal does not successfully decode the transport block related to the PSCCH, the receiving terminal may generate HARQ-NACK. And, the receiving terminal may transmit HARQ-NACK to the transmitting terminal.
  • SL HARQ feedback may be enabled for groupcast.
  • two HARQ feedback options may be supported for groupcast.
  • Groupcast option 1 After the receiving terminal decodes the PSCCH targeting the receiving terminal, if the receiving terminal fails to decode the transport block related to the PSCCH, the receiving terminal sends HARQ-NACK through PSFCH. It can be transmitted to the transmitting terminal. On the other hand, if the receiving terminal decodes the PSCCH targeting the receiving terminal, and the receiving terminal successfully decodes the transport block related to the PSCCH, the receiving terminal may not transmit HARQ-ACK to the transmitting terminal.
  • Groupcast option 2 After the receiving terminal decodes the PSCCH targeting the receiving terminal, if the receiving terminal fails to decode the transport block related to the PSCCH, the receiving terminal sends HARQ-NACK through the PSFCH. It can be transmitted to the transmitting terminal. And, when the receiving terminal decodes the PSCCH targeting the receiving terminal, and the receiving terminal successfully decodes the transport block related to the PSCCH, the receiving terminal may transmit HARQ-ACK to the transmitting terminal through the PSFCH.
  • all terminals performing groupcast communication may share PSFCH resources.
  • a terminal belonging to the same group may transmit HARQ feedback using the same PSFCH resource.
  • each terminal performing groupcast communication may use different PSFCH resources for HARQ feedback transmission.
  • UEs belonging to the same group may transmit HARQ feedback using different PSFCH resources.
  • the receiving terminal may determine whether to transmit the HARQ feedback to the transmitting terminal based on a TX-RX (Transmission-Reception) distance and/or RSRP.
  • TX-RX Transmission-Reception
  • the receiving terminal may transmit HARQ feedback for the PSSCH to the transmitting terminal.
  • the receiving terminal may not transmit HARQ feedback for the PSSCH to the transmitting terminal.
  • the transmitting terminal may inform the receiving terminal of the location of the transmitting terminal through SCI related to the PSSCH.
  • the SCI related to the PSSCH may be a second SCI.
  • the receiving terminal may estimate or obtain the TX-RX distance based on the location of the receiving terminal and the location of the transmitting terminal.
  • the receiving terminal decodes the SCI related to the PSSCH to know the communication range requirement used for the PSSCH.
  • the time between PSFCH and PSSCH may be set or may be preset.
  • this can be indicated to the base station by the terminal within the coverage using the PUCCH.
  • the transmitting terminal may transmit an indication to the serving base station of the transmitting terminal in a form such as SR (Scheduling Request)/BSR (Buffer Status Report), not in the form of HARQ ACK/NACK.
  • SR Service Request
  • BSR Buffer Status Report
  • the base station can schedule the SL retransmission resource to the terminal.
  • the time between the PSFCH and the PSSCH may be set or may be preset.
  • the TDM between the PSCCH/PSSCH and the PSFCH may be allowed for the PSFCH format for the SL in the slot.
  • a sequence-based PSFCH format having one symbol may be supported.
  • the one symbol may not be an AGC interval.
  • the sequence-based PSFCH format can be applied to unicast and groupcast.
  • the PSFCH resource may be periodically set in an N slot period or may be set in advance.
  • N may be set to one or more values.
  • N can be 1, 2 or 4.
  • HARQ feedback for transmission in a specific resource pool may be transmitted only through PSFCH on the specific resource pool.
  • slot # (N + A) may include PSFCH resources.
  • A may be the smallest integer greater than or equal to K.
  • K may be the number of logical slots. In this case, K may be the number of slots in the resource pool. Or, for example, K may be the number of physical slots. In this case, K may be the number of slots inside and outside the resource pool.
  • the receiving terminal in response to one PSSCH transmitted by the transmitting terminal to the receiving terminal, when the receiving terminal transmits HARQ feedback on the PSFCH resource, the receiving terminal is the PSFCH resource based on an implicit mechanism within the set resource pool.
  • a frequency domain and/or a code domain of may be determined.
  • the receiving terminal is among the identifiers for distinguishing each receiving terminal from a group for HARQ feedback based on a slot index related to PSCCH/PSSCH/PSFCH, a subchannel related to PSCCH/PSSCH, and/or groupcast option 2 Based on at least any one, the frequency domain and/or the code domain of the PSFCH resource may be determined. And/or, for example, the receiving terminal may determine the frequency domain and/or the code domain of the PSFCH resource based on at least one of SL RSRP, SINR, L1 source ID, and/or location information.
  • the terminal can perform either HARQ feedback transmission through PSFCH or HARQ feedback reception through PSFCH based on the priority rule.
  • the priority rule may be based on a minimum priority indication of the related PSCCH/PSSCH.
  • the terminal may select specific HARQ feedback transmission based on a priority rule.
  • the priority rule may be based on a minimum priority indication of the related PSCCH/PSSCH.
  • ITS Intelligent Transport Systems
  • ITS is a system that automates the operation and management of the transportation system and improves the efficiency and safety of transportation by providing transportation information and services by incorporating advanced technology into transportation means and transportation facilities.
  • a high pass system used when driving a vehicle a bus arrival guidance system used when riding public transportation, and real-time signal control according to traffic conditions may correspond to ITS.
  • Conventional ITS is mainly applied to a traffic management-oriented system that provides information to vehicles in one direction.
  • C-ITS Cooperative ITS
  • ITS is a system that prevents traffic accidents by checking or warning in real time danger information such as surrounding traffic conditions and sudden stops and falling objects while the vehicle is driving, communicating with other vehicles or infrastructure installed on the road.
  • ITS Intelligent Transport System
  • ITS Intelligent Transport System
  • V2X Vehicle-to-everything
  • Access layer mainly the Access layer, Network & Transport layer, Facilities layer, Application layer, and Security. It can be composed of an entity for management and management.
  • Vehicle communication includes vehicle-to-vehicle communication (V2V), vehicle-to-base station communication (V2N, N2V), vehicle-to-RSU (Road-Side Unit) communication (V2I, I2V), RSU-to-RSU communication (I2I), vehicle-to-person communication. It can be applied to various scenarios such as communication (V2P, P2V) and communication between RSU and people (I2P, P2I). Vehicles, base stations, RSUs, people, etc. that are the subjects of vehicle communication are referred to as ITS stations.
  • FIG 9 shows an ITS reference structure according to an embodiment of the present disclosure.
  • FIG. 9 is an ITS station reference architecture defined in ISO 21217/EN 302 665, in which an access layer, a networking and transport layer, a facility layer, an entity for security and management, and a top level It is composed of an application layer, and basically follows the layered OSI (layered OSI) model.
  • layered OSI layered OSI
  • the access layer of the ITS station corresponds to OSI layer 1 (physical layer) and layer 2 (data connection layer), and the networking and transport layer of the ITS station is at OSI layer 3 (network layer) and layer 4 (transport layer).
  • the facility layer of the ITS station corresponds to the OSI layer 5 (session layer), layer 6 (presentation layer) and layer 7 (application layer).
  • the application layer located at the top of the ITS station actually implements and supports the use-case and can be used selectively according to the use-case.
  • the management entity is responsible for managing all layers including communication and operation of the ITS station.
  • Security entities provide security services for all layers.
  • Each layer of the ITS station exchanges data transmitted or received through vehicle communication and additional information for various purposes through interfacing.
  • FIG. 10 is an exemplary structure of an ITS station according to an embodiment of the present disclosure.
  • FIG. 10 shows an example structure of an ITS station that can be designed and applied based on the reference structure of the ITS station described in FIG. 9.
  • Fig. 9 The main concept of the structure of Fig. 9 is to allow the communication processing to be divided by layer with a special function of each layer between two end vehicles/users composed of a communication network.
  • the vehicle and the ITS system or other ITS-related terminals/systems
  • ITS or other ITS-related terminals/systems
  • ITS are passed up one layer at a time.
  • the ITS system through vehicle communication and network is organically designed in consideration of various access technologies, network protocols, and communication interfaces to support various use-cases, and the roles and functions of each layer described below may change according to the situation. I can. The following briefly describes the functionality of the facility layer:
  • the facility layer plays a role of supporting effective realization of various use-cases defined in the upper application layer. For example, application support, information support, session/communication support ).
  • FIG 11 is an exemplary structure of a facility layer according to an embodiment of the present disclosure.
  • the facility layer basically supports the upper three layers of the OSI model (eg, session layer, presentation layer, application layer). Specifically, for ITS, facilities such as application support, information support, and session/communication support are provided as shown in FIG. 11.
  • the facility means a component that provides functionality, information, and data.
  • -Application support facility A facility that supports the operation of ITS applications (mainly, ITS message generation, transmission/reception with lower layers, and management thereof).
  • CA Cooperative Awareness
  • DEN Decentralized Environmental Notification
  • facility entities and related messages for new services such as CACC (Cooperative Adaptive Cruise Control), Platooning, VRU (Vulnerable Roadside User), and CPS (Collective Perception Service) may be additionally defined.
  • -Information support facility A facility that provides common data information or database to be used by various ITS applications, such as Local Dynamic Map (LDM).
  • LDM Local Dynamic Map
  • -Session/Communication Support Facility A facility that provides services for communication and session management, including addressing mode and session support.
  • facilities can be divided into common facilities and domain facilities.
  • -Common facility A facility that provides common services or functions necessary for the operation of various ITS applications and ITS stations. Examples include time management, location management, and service management.
  • -Domain facility A facility that provides special services or functions required only for some (one or more) ITS applications, such as DEN Basic Services for Road Hazard Warning applications (RHW).
  • the domain facility is an optional function and is not used unless it is supported by the ITS station.
  • Layer Management Facility Manages and services information related to the operation and security of the layer, and the related information includes MF (interface between management entity and facilities layer) and SF (interface between security entity and facilities layer) (or MF- It is transmitted and shared in both directions through SAP, SF-SAP). Requests from the application layer to the facility layer or the delivery of service messages and related information from the facility layer to the application layer are performed through FA (or FA-SAP), and bidirectional service messages between the facility layer and the lower networking and transport layers The related information is transmitted by NF (Interface between Networking and Transport Layer and Facility Layer, or NF-SAP).
  • NF Interface between Networking and Transport Layer and Facility Layer
  • V2X Vehicle-to-everything
  • devices and standards are being developed that enable vehicles equipped with V2X receivers to obtain construction site information in advance from a long distance.
  • the location and period of the construction site are defined and set in advance, and the construction site information is inserted and transmitted in a message such as CAM (Cooperative Awareness Message) or BSM (Basic Safety Message) from the V2X device.
  • CAM Cooperative Awareness Message
  • BSM Base Safety Message
  • FIG. 12 is a diagram for explaining a general construction site information transmission method.
  • a labacon 101 or the like may be installed to mark a construction site area along the periphery of the construction site.
  • the Ravacon is equipped with a communication system and can operate as a roadside unit (RSU) capable of performing V2X communication with surrounding vehicles.
  • the RSU may transmit construction site information including location or period information of the construction site to nearby vehicles through a message such as CAM or BSM. Since the construction site information is predefined and set, even if the location of the RSU is changed due to a change in the actual construction site area, the RSU can transmit only the initially set construction site information to nearby vehicles.
  • information on a conventional construction site may be displayed in units of lanes.
  • the actual construction site area corresponds to a partial area of the lane rather than the lane unit, there may be a problem that the actual construction site area and the construction site area included in the construction site information do not exactly match.
  • the conventional construction site information is set by defining the location and period of the construction site in advance. Therefore, when working along the road, such as painting lanes, the location of the actual construction site and the location of construction site information transmitted through V2X may be shifted over time. As such, the existing construction site information transmission method may cause a problem in that it is not possible to display the exact location of the construction site in real time.
  • the RSU can acquire information on the construction site area in real time and obtain risk information occurring in the construction site area.
  • the RSU must be equipped with a GPS function and a high-performance processor for location measurement. The cost can increase because a number of RSU units must be installed in the entire construction area. Accordingly, there is a need for a system capable of minimizing the structure of the RSU to reduce installation cost and to integrate and manage a plurality of RSUs.
  • the construction site area is automatically set in real time using the I2I communication of the V2X device or RSUs.
  • the construction site area is set using I2I communication using the V2X device.
  • all V2X devices obtain their location information and share with each other. Therefore, all V2X devices must be equipped with a GPS receiver, and each device must be equipped with a user interface for setting. To implement this, the production cost of the V2X device increases. Since a large number of construction site guide devices (RSUs) are required in the construction site area, the device needs to be simplified.
  • FIG. 13 is a view for explaining a construction site guidance system according to the embodiment(s) of the present specification.
  • the construction site guidance system may include a dedicated auxiliary device 100, a base station 210, a soft V2X server 220, and a construction site guidance device 310, 320, 330, 340, 350, and the like.
  • the construction site guide devices 310, 320, 330, 340, and 350 may be installed along the periphery of the construction site area.
  • the construction site guide device may share locations with each other to generate information on the construction site area, and an impact detection sensor may be installed to detect the occurrence of an accident.
  • the construction site guide device may provide a service for transmitting construction site related information to surrounding vehicles.
  • each construction site guidance device In order to provide an accurate construction site guidance service by measuring a construction site area in real time, each construction site guidance device must acquire its own location and share it with other construction site guidance devices. To this end, when a GPS device is installed for each construction site guide device, there may be a disadvantage of increasing the installation cost. Therefore, in this specification, the structure of the construction site guide device is simplified to reduce cost and allow easy installation.
  • the construction site guide device may be described using terms such as V2X device, RSU, infrastructure, and device.
  • the dedicated auxiliary device 100 is a device for assisting and managing a simplified construction site guide device.
  • the dedicated auxiliary device may be implemented using an application installed in a mobile phone or the like.
  • a user or a construction site worker may transmit the location of each construction site guide device to each construction site guide device using a dedicated auxiliary device.
  • the dedicated auxiliary device may be described using terms such as a dedicated device, a management auxiliary device, an auxiliary device, a portable device, and a terminal.
  • the base station 210 may perform Uu communication with a dedicated auxiliary device.
  • the soft V2X server may receive construction site-related information from the base station and provide a construction site guidance service.
  • Construction workers can use dedicated auxiliary devices when installing construction site guide devices (310 to 350; devices 1 to 5) equipped with a simplified V2X device.
  • the QR code of the construction site guide device 340 RSU, device 4
  • the dedicated auxiliary device may transmit GPS location information and construction site common information acquired using the GNSS receiver to the construction site guide device 340 (device 4).
  • the construction site common information may be information previously received from the SoftV2X server 220 through the base station 210 of the existing cellular network, and may be information such as construction period and type.
  • the construction worker can set the device 4 to the set mode by inputting the set button on the screen of the dedicated auxiliary device. Construction site workers can set up all construction site guidance devices in the same way.
  • FIG. 14 is a view for explaining a method of starting a construction site guidance system after installation of the construction site guidance device according to the embodiment(s) of the present specification.
  • the construction site worker can operate the construction site guidance system using a dedicated auxiliary device.
  • a dedicated auxiliary device transmits construction site area information using the location information of all the measured devices, such as setting information to notify the surrounding devices of the start through PC5 communication. do.
  • the construction site area information may be composed of a list of locations of each construction site guide device.
  • the final construction site area information can be transmitted to the base station together and the corresponding signal can be transmitted to the construction site general center, the traffic guidance system, or the soft V2X server.
  • FIG. 15 shows a construction site guidance system according to the embodiment(s) of the present specification.
  • the construction site guide devices 310 to 350 may share a position list with each other using I2I communication using direct communication. And the dedicated auxiliary device may upload the location list to the soft V2X server 220 through the Uu interface. Therefore, the construction site guide device, the dedicated auxiliary device, and the soft V2X server can obtain real-time construction site area information. Using the information, the construction site guide devices 310 to 350 can transmit the information to the surrounding ITS-vehicle 400 through I2V communication, and the SoftV2X server 220 transmits the construction site information to the SoftV2X vehicle through the base station 210 Thus, it can provide driver safety.
  • 16 is a diagram for explaining a protocol indicating a message delivery method for each device during initial setup.
  • the overall construction site information is set through a dedicated auxiliary device. If there is a soft V2X server that controls the construction site guidance system, the dedicated auxiliary device can request basic construction site information from the soft V2X server through UL communication of the UU interface. Then, the soft V2X server notifies the construction site basic information to the corresponding dedicated auxiliary device through the base station through the DL communication of the UU interface.
  • construction site guide devices are installed one by one using a dedicated auxiliary device.
  • the dedicated auxiliary device acquires the unique information of the construction site guidance unit (RSU) through an external input device (for example, camera, barcode input device, serial number input, etc.), and the location of the construction site guidance unit obtained using a GNSS device. By passing the information to the device, it informs you of your location. In addition, it transmits the preset basic information of the construction site to be used when constructing a message to be used for future service.
  • the communication used at this time uses a direct communication device mounted on a dedicated auxiliary device. Construction site managers can install all construction site guidance devices installed at the site boundary in the same way.
  • the dedicated auxiliary device may request and receive construction site common information from the soft V2X server.
  • Construction site common information may mean construction site-related information such as construction type, construction period, and area.
  • the soft V2X server may be a server for overall management of the construction site management system, and may communicate with dedicated auxiliary devices or vehicles through a base station.
  • the construction site worker installs each construction site guide device at a desired location, obtains the location of each construction site guide device using a dedicated auxiliary device, and transmits it to each construction site guide device.
  • the dedicated auxiliary device may transmit the construction site common information received from the V2X server together with the location of the construction site guide device.
  • a list of locations of all construction site guidance devices may be transmitted to each construction site guidance device and/or a soft V2X server.
  • the construction site guide device receiving the location list may transmit the location list to another construction site guide device using I2I communication.
  • a timeout is set, and each construction site guide device may transmit a list of locations to each other before the timeout period elapses.
  • 17 is a diagram for describing an operation after a start button of a dedicated auxiliary device is input.
  • the dedicated auxiliary device displays the construction site area using the location information collected from all construction site guidance devices, and delivers this information to the surrounding construction site guidance devices so that all construction site guidance devices service the entire construction site area.
  • Each device shares the location list ('PositionList') value entirely through I2I communication using the PC5 interface, and after a certain period of time (when time out occurs), each device is safe for vehicles driving around it. Service can be provided.
  • the dedicated auxiliary device uploads a location list ('PositionList') value through the uu interface. Through this, the network also receives the construction site area measured in real time, and using this, the construction site guidance service can be provided directly to the vehicle through DL communication of the UU interface.
  • the soft V2X server and the construction site guidance unit can each provide a construction site guidance service to vehicles running around using their own communication method.
  • Construction site guidance units RSUs
  • RSUs can transmit safety messages to nearby vehicles through a broadcast method using C-V2X PC5 communication or DSRC communication.
  • the soft V2X server obtains a location list, it can provide a construction site guide service using conventional construction site information (Workzone info.) and RSU installation information (PositionList). Due to the characteristics of the Uu interface, a safety message can be provided to all subscribers through a prodcast, or a safety message can be provided by a safety service request message through a unicast method.
  • the dedicated auxiliary device may transmit a list of locations of the construction site guide device to the surrounding construction site guide device.
  • Each construction site guide device may transmit a location list to nearby construction site guide devices using I2I communication before the timeout period elapses.
  • each construction site guide device may transmit a safety message to nearby vehicles using I2V communication.
  • the safety message may include construction site common information, construction site area information (location list), etc.
  • the dedicated auxiliary device may transmit a location list of the construction site guide device to the soft V2X server through the base station when the start button is pressed.
  • Soft V2X can receive the location list and obtain information on the construction site area that changes in real time. And the soft V2X server can transmit safety messages to vehicles through the base station.
  • FIG. 18 a diagram showing the structure of a message set used in a facility layer to achieve a communication protocol.
  • Figure 18 (a) is a message used by a dedicated auxiliary device for initial setting, and is composed of a header, a construction site container, a setting container, and an event container.
  • I can. 18B shows the configuration of a message used by a dedicated auxiliary device for initial setting.
  • the message is defined as a sequence, and may consist of a header, a construction site area container, a setting container, and an event container, and the setting container and the event container may have an optional configuration.
  • Figure 19 (a) shows the configuration of a construction site container (Workzone Container).
  • the construction site area container is defined as a sequence and can be composed of a construction site ID (WorkzoneID), a construction site type (workzoneType), a construction period start (workPeriodStart), a construction period end (workPeriodEnd), and a construction site level (workzoneLevel).
  • the construction site ID is defined as an integer (16 bits) and is set as a random value to give a unique value to the construction site.
  • the value is used for construction site management, such as operation or accident management, and construction site guidance devices (RSUs) installed at the construction site can all have the same ID.
  • RSUs construction site guidance devices
  • Figure 19 (b) shows the construction site type configuration.
  • WorkzoneType can be defined as DE_workzoneType.
  • DE_workzoneType can be defined as an integer, and the value can be set according to each number. For example, if the value of the integer is 0, it means'Unknown' situation, 1 means road pavement, 2 means road painting work, 3 means road cleaning, 4 means road repairing can do.
  • the work start and end times can be displayed through'workPeriodStart' and'workPeriodEnd'.
  • the construction site level (WorkZoneLevel) expresses the road condition as an integer (1 ⁇ 10), and it can be set to 1 if it is low, and 10 if it is medium.
  • the work period start (WorkPeriodStart) and the work period end (WorkPeroidEnd) can indicate the start and end times of the work.
  • the data type is DE_TimeStamplts of SAE J2735.
  • the severity from 1 to 5 is expressed using the work zone level composed of integers. The higher the number, the higher the risk. If it is '0', it is defined as Unknow.
  • the position list value used for real-time construction site measurement proposed in this specification is expressed through the “WorkZonePosition” field.
  • FIG. 19C shows the configuration of a setting container.
  • the setting container (SettingContainer) is a message container used to configure the infrastructure (Infrastructure) through I2I communication.
  • the settings container can be composed of a setting type (SettingType), a timeout value (TimeOutValue), and a data value used for setting.
  • the data used in this specification may consist of a point position (PointPosition) and a point position list (PointPositionList) to accurately represent the construction site area.
  • SettingType is a control signal that indicates which setting state is, and can be defined as an integer (4bit, 1 ⁇ 16). For example, 1 may mean a set state, 2 may mean a start state, and 3 may mean an end state.
  • the timeout value means a value defining the corresponding timeout time, has an integer (16bit, 1 to 65536) value, and may be a unit of seconds (Sec). For example, if the timeout value is set to 10, it may mean that the timeout is executed after 10 seconds.
  • the point position is a field defining the position of the infrastructure itself, and a conventional DF_ReferencePosition [1] format may be used.
  • the point position list may be data obtained by collecting point positions of nearby devices.
  • the point position list may be expressed as a sequence and may have a maximum of 100 values. Each data can have a DE_Position format like a point position.
  • the setting container may include location information of the construction site guide device, that is, a point position.
  • the setting container may include a location list that collects location information of the construction site guide device, that is, a point location list (PointPositionList).
  • FIG. 20 shows a message configuration used in a facility layer for soft V2X communication.
  • the soft V2X server can communicate with dedicated auxiliary devices for initial setup and then provide safety messages to the SoftV2X vehicle.
  • a message for soft V2X communication may be composed of a header, a workzone container, a setting container, and an event container.
  • FIG. 20 shows a header configuration of a message for soft V2X communication.
  • the header for soft V2X communication has a different configuration from the conventional ITS.
  • Station ID to distinguish header devices for soft V2X communication
  • message type to distinguish message types
  • message generation time (MessageGenTime)
  • message emergency level (MessageEmergencyLevel) indicating the severity of the message
  • station In the case of this mobile chain, it can be composed of a station position (StationPosition) that informs its position.
  • the WorkZone Container, the Setting Container, and the Event Container may be the same as those described in the direct communication.
  • 21 shows the structure of a soft v2x message for each message type.
  • Soft V2X communication is configured according to the situation by communicating through the Uu interface.
  • the message type when the message type is setting request (000), the message may be composed only of a header without data.
  • the message type when the message type is setting ACK (setting Ack (001)), the message may be composed of a header and a construction site area container.
  • the construction site area container may be construction site common information managed by the SoftV2X server.
  • the message type is setting (setting (010)
  • the message may be composed of a header and a setting container.
  • the setting container may include real-time measured construction site area information (PositionList).
  • the message type when the message type is a service request (100), the message may consist of only a header without data.
  • the service request message can be used by the soft V2X vehicle to make a service request to the soft V2X server.
  • the message type is a safety service (101)
  • the message may include a header and a construction site area container, and the construction site area container may include a location list.
  • 22 is a diagram showing the structure of a dedicated auxiliary device.
  • FIG 22 (a) illustrates the external form of the dedicated auxiliary device.
  • the dedicated auxiliary device may include a touchable display 170 and a camera 180 capable of recognizing a QR code.
  • 22B illustrates the configuration of a dedicated auxiliary device.
  • the dedicated auxiliary device may include an RF antenna 131 and a radio modem 132 capable of direct communication (PC5, or DSRC).
  • the dedicated auxiliary device may include an RF antenna 121 and a radio modem 122 capable of performing cellular communication with a base station (UU interface).
  • the dedicated auxiliary device may include a GNSS antenna 111 and a GNSS receiver 112 capable of obtaining location information.
  • the dedicated auxiliary device is a V2X processor 140 capable of V2X communication, an application ECU 150 programmed with a construction site guidance service, and a human interface 160 block that can check the status through a button or a display. Can be configured.
  • FIG. 23 shows the structure of a construction site guide device.
  • the construction site guide device may include a QR code 360 for unique identification of the device.
  • the dedicated auxiliary device can identify each construction site guide device by recognizing the QR code.
  • the construction site guide device includes an RF antenna 310 capable of communication (PC5 interface only), a radio modem 320, a V2X processor 330 capable of V2X communication, and a construction site guide It may include an application ECU 340 in which a service is programmed, and a sensor 350 capable of detecting an external shock.
  • the construction site guide device does not include a device for GNSS communication, a device for Uu communication, and a human interface device. Therefore, the structure of the construction site guide device is simplified, and installation cost can be saved.
  • the V2X processor 140 of the dedicated device may add a message for setting a construction site, and the application ECU 150 may add an algorithm related to system operation.
  • the V2X processor 230 may be modified to obtain location information and construction site information from a dedicated device, and the application ECU 240 may be modified to add an algorithm.
  • each device dicated auxiliary device, construction site guide device, soft V2X server
  • 24 is a flowchart illustrating an operation of the dedicated auxiliary device.
  • the system of the device may be initialized. After that, it is possible to request construction site information to the soft V2X server through the Uu interface to install the construction site area. And after using the setting request message, it is possible to obtain WorkZone Common data returned from the soft V2X server. (Setting ACK message decoding)
  • a construction site guide device is installed, and when the installation is completed, the information of the device is acquired using a dedicated device.
  • the dedicated auxiliary device it is an external input operation, and when there is a QR code in the construction site guide device, the device ID is acquired through the camera of the dedicated auxiliary device or a QR code reader.
  • the dedicated auxiliary device acquires the corresponding location from the GPS device. Thereafter, the dedicated auxiliary device transmits construction site information and location information through a setting message. In addition, the dedicated auxiliary device stores the device ID and location in the DB. Repeat this process until the installation is complete. When the installation is complete, the dedicated device can connect to the soft V2X server and transmit a setting message to deliver the collected location list values. Thereafter, the collected location list values and construction site information can be transmitted to construction site guide devices until the system is terminated.
  • 25 is a flowchart illustrating an operation of the construction site guide device.
  • the system of the device may be initialized. Thereafter, the construction site guidance device enters the V2X reception mode and waits for the setting signal. If the setting signal is received, the V2X message is decoded, and if this signal is a setting message transmitted by the dedicated auxiliary device, the location transmitted from the dedicated auxiliary device is registered as its own location. After that, it waits to receive the V2X message until it receives a start signal indicating that the installation is complete. If the installation of the construction site guide device is completed, a list of locations is received from a dedicated auxiliary device and a safety message is generated in the own facility layer using this. After that, the counter is operated using the time-out value received from the setting message. After that, a setting message is periodically transmitted to propagate the setting message to nearby construction site guide devices. If the timeout counter is activated, construction site guide devices may periodically transmit safety messages for construction site safety services generated by the facility layer.
  • 26 is a flowchart showing the operation of the soft V2X server.
  • the system of the device may be initialized. Thereafter, the soft V2X server waits for a soft V2X message from a dedicated auxiliary device. If a setting request message is sent from the dedicated device, the soft V2X server delivers the basic information of the construction site appropriate for the area to the dedicated auxiliary device. (SoftV2X message: WorkZone Common data). After that, when installation is completed through communication between the dedicated auxiliary device and the construction site guide device, the location list value is received from the dedicated auxiliary device through a setting message (start), and a SoftV2X-safe message is generated using this.
  • start setting message
  • construction site information is transmitted to the surrounding soft V2X devices according to broadcast and unicast operations.
  • the soft V2X server periodically delivers construction site information to all soft V2X terminals. If in the unicast mode, the soft V2X server waits for the request signal received from each terminal, and then transmits construction site information to the corresponding device.
  • FIG. 27 is a diagram for describing an operation of a dedicated auxiliary device according to the exemplary embodiment(s) of the present specification.
  • a terminal may transmit a first message and a second message to one or more RSUs.
  • At least one RSU may be the construction site guidance device described above.
  • the terminal may be the aforementioned dedicated auxiliary device.
  • the first message may be a setting message of the above-described setting mode
  • the second message may be a setting message of the above-described start mode.
  • the terminal transmits a first message to one or more RSUs.
  • the dedicated auxiliary device may recognize the unique information (eg, QR code, barcode, etc.) of each RSU, receive GPS location information of each RSU, include it in the first message, and transmit it to the RSU. Since the positions of each RSU are different, the first message may include different information for each RSU. And the terminal repeats the step for every one or more RSUs. Each RSU may receive a first message including its own location information. Since the location information of one or more RSUs can be obtained using a terminal, there is an advantage in that it is not necessary to install a GPS-related device in one or more RSUs.
  • the dedicated auxiliary device may recognize the unique information (eg, QR code, barcode, etc.) of each RSU, receive GPS location information of each RSU, include it in the first message, and transmit it to the RSU. Since the positions of each RSU are different, the first message may include different information for each RSU. And the terminal repeats the step for every one
  • the terminal transmits a second message to one or more RSUs.
  • the terminal may include a location list in which the location information of each RSU obtained in step S3701 is collected in the second message and transmit it to one or more RSUs.
  • the second message transmitted to one or more RSUs may include the same information.
  • at least one RSU transmits and receives the second message to each other to share.
  • the terminal can transmit the second message only to the RSU within coverage.
  • the RSU receiving the second message may transmit the second message to another RSU nearby.
  • the second message may include a list of locations of one or more RSUs.
  • the terminal may request and receive information about the construction site area in which one or more RSUs are located, or construction site common information from the soft V2X server.
  • Construction site common information may include information on the type of construction or construction period.
  • the dedicated auxiliary device may receive construction site common information from the soft V2X server and include it in the first message or the second message.
  • the RSU may receive the first message and the second message from the terminal, and use the second message to generate a safety message to be transmitted to nearby vehicles.
  • the soft V2X server or the base station may receive a second message including a list of locations of one or more RSUs from the terminal, and transmit a safety message to the vehicles using the second message.
  • the safety message may include construction site common information and a list of locations of one or more RSUs. Since one or more RSUs are arranged along the periphery of the construction site, the list of locations of one or more RSUs may refer to information on a construction site area that changes in real time.
  • the proposed method is an example for guiding construction site risk information as an example
  • the I2I communication system and message structure are used for the close operation of a system in which a multi-infrastructure is configured among the ITS system as well as the corresponding service. I can. To this end, it can be applied to other services by adding data related to the construction site area container and setting container of the I2I message later.
  • a communication system 1 applied to the present invention includes a wireless device, a base station, and a network.
  • the wireless device refers to a device that performs communication using a wireless access technology (eg, 5G NR (New RAT), LTE (Long Term Evolution)), and may be referred to as a communication/wireless/5G device.
  • wireless devices include robots 100a, vehicles 100b-1 and 100b-2, eXtended Reality (XR) devices 100c, hand-held devices 100d, and home appliances 100e. ), an Internet of Thing (IoT) device 100f, and an AI device/server 400.
  • the vehicle may include a vehicle equipped with a wireless communication function, an autonomous vehicle, and a vehicle capable of performing inter-vehicle communication.
  • the vehicle may include an Unmanned Aerial Vehicle (UAV) (eg, a drone).
  • UAV Unmanned Aerial Vehicle
  • XR devices include AR (Augmented Reality) / VR (Virtual Reality) / MR (Mixed Reality) devices, including HMD (Head-Mounted Device), HUD (Head-Up Display), TV, smartphone, It can be implemented in the form of a computer, wearable device, home appliance, digital signage, vehicle, robot, and the like.
  • Portable devices may include smart phones, smart pads, wearable devices (eg, smart watches, smart glasses), computers (eg, notebook computers, etc.).
  • Home appliances may include TVs, refrigerators, and washing machines.
  • IoT devices may include sensors, smart meters, and the like.
  • the base station and the network may be implemented as a wireless device, and the specific wireless device 200a may operate as a base station/network node to another wireless device.
  • the wireless devices 100a to 100f may be connected to the network 300 through the base station 200.
  • AI Artificial Intelligence
  • the network 300 may be configured using a 3G network, a 4G (eg, LTE) network, or a 5G (eg, NR) network.
  • the wireless devices 100a to 100f may communicate with each other through the base station 200 / network 300, but may perform direct communication (e.g. sidelink communication) without going through the base station / network.
  • the vehicles 100b-1 and 100b-2 may perform direct communication (e.g.
  • V2V Vehicle to Vehicle
  • V2X Vehicle to Everything
  • the IoT device eg, sensor
  • the IoT device may directly communicate with other IoT devices (eg, sensors) or other wireless devices 100a to 100f.
  • Wireless communication/connections 150a, 150b, and 150c may be established between the wireless devices 100a to 100f / base station 200 and the base station 200 / base station 200.
  • the wireless communication/connection includes various wireless access such as uplink/downlink communication 150a, sidelink communication 150b (or D2D communication), base station communication 150c (eg relay, Integrated Access Backhaul). This can be achieved through technology (eg 5G NR)
  • wireless communication/connections 150a, 150b, 150c the wireless device and the base station/wireless device, and the base station and the base station can transmit/receive radio signals to each other.
  • the wireless communication/connection 150a, 150b, 150c can transmit/receive signals through various physical channels.
  • 29 illustrates a wireless device applicable to the present invention.
  • the first wireless device 100 and the second wireless device 200 may transmit and receive wireless signals through various wireless access technologies (eg, LTE and NR).
  • ⁇ the first wireless device 100, the second wireless device 200 ⁇ is ⁇ wireless device 100x, base station 200 ⁇ and/or ⁇ wireless device 100x, wireless device 100x) of FIG. 28 ⁇ Can be matched.
  • the first wireless device 100 includes one or more processors 102 and one or more memories 104, and may further include one or more transceivers 106 and/or one or more antennas 108.
  • the processor 102 controls the memory 104 and/or the transceiver 106 and may be configured to implement the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein.
  • the processor 102 may process information in the memory 104 to generate first information/signal, and then transmit a radio signal including the first information/signal through the transceiver 106.
  • the processor 102 may store information obtained from signal processing of the second information/signal in the memory 104 after receiving a radio signal including the second information/signal through the transceiver 106.
  • the memory 104 may be connected to the processor 102 and may store various information related to the operation of the processor 102.
  • the memory 104 may perform some or all of the processes controlled by the processor 102, or instructions for performing the descriptions, functions, procedures, suggestions, methods, and/or operational flow charts disclosed in this document. It can store software code including
  • the processor 102 and the memory 104 may be part of a communication modem/circuit/chip designed to implement wireless communication technology (eg, LTE, NR).
  • the transceiver 106 may be coupled with the processor 102 and may transmit and/or receive radio signals through one or more antennas 108.
  • the transceiver 106 may include a transmitter and/or a receiver.
  • the transceiver 106 may be mixed with an RF (Radio Frequency) unit.
  • the wireless device may mean a communication modem/circuit/chip.
  • the second wireless device 200 includes one or more processors 202 and one or more memories 204, and may further include one or more transceivers 206 and/or one or more antennas 208.
  • the processor 202 controls the memory 204 and/or the transceiver 206 and may be configured to implement the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein.
  • the processor 202 may process information in the memory 204 to generate third information/signal, and then transmit a wireless signal including the third information/signal through the transceiver 206.
  • the processor 202 may store information obtained from signal processing of the fourth information/signal in the memory 204 after receiving a radio signal including the fourth information/signal through the transceiver 206.
  • the memory 204 may be connected to the processor 202 and may store various information related to the operation of the processor 202.
  • the memory 204 may perform some or all of the processes controlled by the processor 202, or instructions for performing the descriptions, functions, procedures, suggestions, methods and/or operational flow charts disclosed in this document. It can store software code including
  • the processor 202 and the memory 204 may be part of a communication modem/circuit/chip designed to implement wireless communication technology (eg, LTE, NR).
  • the transceiver 206 may be connected to the processor 202 and may transmit and/or receive radio signals through one or more antennas 208.
  • the transceiver 206 may include a transmitter and/or a receiver.
  • the transceiver 206 may be used interchangeably with an RF unit.
  • the wireless device may mean a communication modem/circuit/chip.
  • one or more protocol layers may be implemented by one or more processors 102, 202.
  • one or more processors 102, 202 may implement one or more layers (eg, functional layers such as PHY, MAC, RLC, PDCP, RRC, SDAP).
  • One or more processors 102, 202 may be configured to generate one or more Protocol Data Units (PDUs) and/or one or more Service Data Units (SDUs) according to the description, functions, procedures, proposals, methods, and/or operational flow charts disclosed in this document. Can be generated.
  • PDUs Protocol Data Units
  • SDUs Service Data Units
  • One or more processors 102, 202 may generate messages, control information, data, or information according to the description, function, procedure, suggestion, method, and/or operational flow chart disclosed herein.
  • At least one processor (102, 202) generates a signal (e.g., a baseband signal) including PDU, SDU, message, control information, data or information according to the functions, procedures, proposals and/or methods disclosed herein. , It may be provided to one or more transceivers (106, 206).
  • One or more processors 102, 202 may receive signals (e.g., baseband signals) from one or more transceivers 106, 206, and the descriptions, functions, procedures, proposals, methods, and/or operational flowcharts disclosed herein PDUs, SDUs, messages, control information, data, or information may be obtained according to the parameters.
  • signals e.g., baseband signals
  • One or more of the processors 102 and 202 may be referred to as a controller, microcontroller, microprocessor, or microcomputer.
  • One or more of the processors 102 and 202 may be implemented by hardware, firmware, software, or a combination thereof.
  • ASICs Application Specific Integrated Circuits
  • DSPs Digital Signal Processors
  • DSPDs Digital Signal Processing Devices
  • PLDs Programmable Logic Devices
  • FPGAs Field Programmable Gate Arrays
  • the description, functions, procedures, suggestions, methods, and/or operational flow charts disclosed in this document may be implemented using firmware or software, and firmware or software may be implemented to include modules, procedures, functions, and the like.
  • the description, functions, procedures, proposals, methods and/or operational flow charts disclosed in this document are included in one or more processors 102, 202, or stored in one or more memories 104, 204, and are It may be driven by the above processors 102 and 202.
  • the descriptions, functions, procedures, proposals, methods and/or operational flowcharts disclosed in this document may be implemented using firmware or software in the form of codes, instructions and/or a set of instructions.
  • One or more memories 104 and 204 may be connected to one or more processors 102 and 202 and may store various types of data, signals, messages, information, programs, codes, instructions and/or instructions.
  • One or more memories 104 and 204 may be composed of ROM, RAM, EPROM, flash memory, hard drive, register, cache memory, computer readable storage medium, and/or combinations thereof.
  • One or more memories 104 and 204 may be located inside and/or outside of one or more processors 102 and 202.
  • one or more memories 104, 204 may be connected to one or more processors 102, 202 through various technologies such as wired or wireless connection.
  • the one or more transceivers 106 and 206 may transmit user data, control information, radio signals/channels, and the like mentioned in the methods and/or operation flow charts of this document to one or more other devices.
  • One or more transceivers (106, 206) may receive user data, control information, radio signals/channels, etc. mentioned in the description, functions, procedures, suggestions, methods and/or operation flow charts disclosed in this document from one or more other devices.
  • one or more transceivers 106 and 206 may be connected to one or more processors 102 and 202, and may transmit and receive wireless signals.
  • one or more processors 102, 202 may control one or more transceivers 106, 206 to transmit user data, control information, or radio signals to one or more other devices.
  • one or more processors 102, 202 may control one or more transceivers 106, 206 to receive user data, control information, or radio signals from one or more other devices.
  • one or more transceivers (106, 206) may be connected with one or more antennas (108, 208), and one or more transceivers (106, 206) through one or more antennas (108, 208), the description and functionality disclosed in this document. It may be set to transmit and receive user data, control information, radio signals/channels, and the like mentioned in a procedure, a proposal, a method and/or an operation flowchart.
  • one or more antennas may be a plurality of physical antennas or a plurality of logical antennas (eg, antenna ports).
  • One or more transceivers (106, 206) in order to process the received user data, control information, radio signal / channel, etc. using one or more processors (102, 202), the received radio signal / channel, etc. in the RF band signal. It can be converted into a baseband signal.
  • One or more transceivers 106 and 206 may convert user data, control information, radio signals/channels, etc. processed using one or more processors 102 and 202 from a baseband signal to an RF band signal.
  • one or more of the transceivers 106 and 206 may include (analog) oscillators and/or filters.
  • FIG. 30 illustrates a signal processing circuit for a transmission signal.
  • the signal processing circuit 1000 may include a scrambler 1010, a modulator 1020, a layer mapper 1030, a precoder 1040, a resource mapper 1050, and a signal generator 1060.
  • the operations/functions of FIG. 30 may be performed in the processors 102 and 202 and/or the transceivers 106 and 206 of FIG. 29.
  • the hardware elements of FIG. 30 may be implemented in the processors 102 and 202 and/or the transceivers 106 and 206 of FIG. 29.
  • blocks 1010 to 1060 may be implemented in the processors 102 and 202 of FIG. 29.
  • blocks 1010 to 1050 may be implemented in the processors 102 and 202 of FIG. 29, and block 1060 may be implemented in the transceivers 106 and 206 of FIG. 29.
  • the codeword may be converted into a wireless signal through the signal processing circuit 1000 of FIG. 30.
  • the codeword is an encoded bit sequence of an information block.
  • the information block may include a transport block (eg, a UL-SCH transport block, a DL-SCH transport block).
  • the radio signal may be transmitted through various physical channels (eg, PUSCH, PDSCH).
  • the codeword may be converted into a scrambled bit sequence by the scrambler 1010.
  • the scramble sequence used for scramble is generated based on an initialization value, and the initialization value may include ID information of a wireless device.
  • the scrambled bit sequence may be modulated by the modulator 1020 into a modulation symbol sequence.
  • the modulation scheme may include pi/2-Binary Phase Shift Keying (pi/2-BPSK), m-Phase Shift Keying (m-PSK), m-Quadrature Amplitude Modulation (m-QAM), and the like.
  • the complex modulation symbol sequence may be mapped to one or more transport layers by the layer mapper 1030.
  • the modulation symbols of each transport layer may be mapped to the corresponding antenna port(s) by the precoder 1040 (precoding).
  • the output z of the precoder 1040 can be obtained by multiplying the output y of the layer mapper 1030 by the N*M precoding matrix W.
  • N is the number of antenna ports
  • M is the number of transmission layers.
  • the precoder 1040 may perform precoding after performing transform precoding (eg, DFT transform) on complex modulation symbols. Also, the precoder 1040 may perform precoding without performing transform precoding.
  • the resource mapper 1050 may map modulation symbols of each antenna port to a time-frequency resource.
  • the time-frequency resource may include a plurality of symbols (eg, CP-OFDMA symbols, DFT-s-OFDMA symbols) in the time domain, and may include a plurality of subcarriers in the frequency domain.
  • CP Cyclic Prefix
  • DAC Digital-to-Analog Converter
  • the signal processing process for the received signal in the wireless device may be configured as the reverse of the signal processing process 1010 to 1060 of FIG. 30.
  • a wireless device eg, 100 and 200 in FIG. 29
  • the received radio signal may be converted into a baseband signal through a signal restorer.
  • the signal restorer may include a frequency downlink converter, an analog-to-digital converter (ADC), a CP canceller, and a Fast Fourier Transform (FFT) module.
  • ADC analog-to-digital converter
  • FFT Fast Fourier Transform
  • the baseband signal may be reconstructed into a codeword through a resource de-mapper process, a postcoding process, a demodulation process, and a descramble process.
  • a signal processing circuit for a received signal may include a signal restorer, a resource demapper, a postcoder, a demodulator, a descrambler, and a decoder.
  • the wireless device may be implemented in various forms according to use-examples/services (see FIG. 28).
  • the wireless devices 100 and 200 correspond to the wireless devices 100 and 200 of FIG. 29, and various elements, components, units/units, and/or modules ) Can be composed of.
  • the wireless devices 100 and 200 may include a communication unit 110, a control unit 120, a memory unit 130, and an additional element 140.
  • the communication unit may include a communication circuit 112 and a transceiver(s) 114.
  • the communication circuit 112 may include one or more processors 102 and 202 and/or one or more memories 104 and 204 of FIG. 29.
  • transceiver(s) 114 may include one or more transceivers 106,206 and/or one or more antennas 108,208 of FIG. 29.
  • the control unit 120 is electrically connected to the communication unit 110, the memory unit 130, and the additional element 140 and controls all operations of the wireless device.
  • the controller 120 may control the electrical/mechanical operation of the wireless device based on the program/code/command/information stored in the memory unit 130.
  • the control unit 120 transmits the information stored in the memory unit 130 to an external (eg, other communication device) through the communication unit 110 through a wireless/wired interface, or through the communication unit 110 to the outside (eg, Information received through a wireless/wired interface from another communication device) may be stored in the memory unit 130.
  • the additional element 140 may be variously configured according to the type of wireless device.
  • the additional element 140 may include at least one of a power unit/battery, an I/O unit, a driving unit, and a computing unit.
  • wireless devices include robots (Figs. 28, 100a), vehicles (Figs. 28, 100b-1, 100b-2), XR devices (Figs. 28, 100c), portable devices (Figs. 28, 100d), and home appliances. (Figure 28, 100e), IoT device ( Figure 28, 100f), digital broadcasting terminal, hologram device, public safety device, MTC device, medical device, fintech device (or financial device), security device, climate/environment device, It may be implemented in the form of an AI server/device (FIGS. 28 and 400), a base station (FIGS. 28 and 200), and a network node.
  • the wireless device can be used in a mobile or fixed location depending on the use-example/service.
  • various elements, components, units/units, and/or modules in the wireless devices 100 and 200 may be entirely interconnected through a wired interface, or at least some may be wirelessly connected through the communication unit 110.
  • the control unit 120 and the communication unit 110 are connected by wire, and the control unit 120 and the first unit (eg, 130, 140) are connected through the communication unit 110.
  • the control unit 120 and the first unit eg, 130, 140
  • each element, component, unit/unit, and/or module in the wireless device 100 and 200 may further include one or more elements.
  • the controller 120 may be configured with one or more processor sets.
  • control unit 120 may be composed of a set of a communication control processor, an application processor, an electronic control unit (ECU), a graphic processing processor, and a memory control processor.
  • memory unit 130 includes random access memory (RAM), dynamic RAM (DRAM), read only memory (ROM), flash memory, volatile memory, and non-volatile memory. volatile memory) and/or a combination thereof.
  • FIG. 31 An implementation example of FIG. 31 will be described in more detail with reference to the drawings.
  • Portable devices may include smart phones, smart pads, wearable devices (eg, smart watches, smart glasses), and portable computers (eg, notebook computers).
  • the portable device may be referred to as a mobile station (MS), a user terminal (UT), a mobile subscriber station (MSS), a subscriber station (SS), an advanced mobile station (AMS), or a wireless terminal (WT).
  • MS mobile station
  • UT user terminal
  • MSS mobile subscriber station
  • SS subscriber station
  • AMS advanced mobile station
  • WT wireless terminal
  • the portable device 100 includes an antenna unit 108, a communication unit 110, a control unit 120, a memory unit 130, a power supply unit 140a, an interface unit 140b, and an input/output unit 140c. ) Can be included.
  • the antenna unit 108 may be configured as a part of the communication unit 110.
  • Blocks 110 to 130/140a to 140c correspond to blocks 110 to 130/140 of FIG. 31, respectively.
  • the communication unit 110 may transmit and receive signals (eg, data, control signals, etc.) with other wireless devices and base stations.
  • the controller 120 may perform various operations by controlling components of the portable device 100.
  • the controller 120 may include an application processor (AP).
  • the memory unit 130 may store data/parameters/programs/codes/commands required for driving the portable device 100. Also, the memory unit 130 may store input/output data/information, and the like.
  • the power supply unit 140a supplies power to the portable device 100 and may include a wired/wireless charging circuit, a battery, and the like.
  • the interface unit 140b may support connection between the portable device 100 and other external devices.
  • the interface unit 140b may include various ports (eg, audio input/output ports, video input/output ports) for connection with external devices.
  • the input/output unit 140c may receive or output image information/signal, audio information/signal, data, and/or information input from a user.
  • the input/output unit 140c may include a camera, a microphone, a user input unit, a display unit 140d, a speaker, and/or a haptic module.
  • the input/output unit 140c acquires information/signals (eg, touch, text, voice, image, video) input from the user, and the obtained information/signals are stored in the memory unit 130. Can be saved.
  • the communication unit 110 may convert information/signals stored in the memory into wireless signals, and may directly transmit the converted wireless signals to other wireless devices or to a base station.
  • the communication unit 110 may restore the received radio signal to the original information/signal. After the restored information/signal is stored in the memory unit 130, it may be output in various forms (eg, text, voice, image, video, heptic) through the input/output unit 140c.
  • the vehicle or autonomous vehicle may be implemented as a mobile robot, a vehicle, a train, an aerial vehicle (AV), or a ship.
  • AV aerial vehicle
  • the vehicle or autonomous vehicle 100 includes an antenna unit 108, a communication unit 110, a control unit 120, a driving unit 140a, a power supply unit 140b, a sensor unit 140c, and autonomous driving. It may include a unit (140d).
  • the antenna unit 108 may be configured as a part of the communication unit 110.
  • Blocks 110/130/140a to 140d correspond to blocks 110/130/140 of FIG. 31, respectively.
  • the communication unit 110 may transmit and receive signals (eg, data, control signals, etc.) with external devices such as other vehicles, base stations (e.g. base stations, roadside base stations, etc.), and servers.
  • the controller 120 may perform various operations by controlling elements of the vehicle or the autonomous vehicle 100.
  • the control unit 120 may include an Electronic Control Unit (ECU).
  • the driving unit 140a may cause the vehicle or the autonomous vehicle 100 to travel on the ground.
  • the driving unit 140a may include an engine, a motor, a power train, a wheel, a brake, a steering device, and the like.
  • the power supply unit 140b supplies power to the vehicle or the autonomous vehicle 100, and may include a wired/wireless charging circuit, a battery, and the like.
  • the sensor unit 140c may obtain vehicle status, surrounding environment information, user information, and the like.
  • the sensor unit 140c is an IMU (inertial measurement unit) sensor, a collision sensor, a wheel sensor, a speed sensor, an inclination sensor, a weight detection sensor, a heading sensor, a position module, and a vehicle advancement. /Reverse sensor, battery sensor, fuel sensor, tire sensor, steering sensor, temperature sensor, humidity sensor, ultrasonic sensor, illumination sensor, pedal position sensor, etc. may be included.
  • the autonomous driving unit 140d is a technology for maintaining a driving lane, a technology for automatically adjusting the speed such as adaptive cruise control, a technology for automatically driving along a predetermined route, and for driving by automatically setting a route when a destination is set. Technology, etc. can be implemented.
  • the communication unit 110 may receive map data and traffic information data from an external server.
  • the autonomous driving unit 140d may generate an autonomous driving route and a driving plan based on the acquired data.
  • the controller 120 may control the driving unit 140a so that the vehicle or the autonomous driving vehicle 100 moves along the autonomous driving path according to the driving plan (eg, speed/direction adjustment).
  • the communication unit 110 asynchronously/periodically acquires the latest traffic information data from an external server, and may acquire surrounding traffic information data from surrounding vehicles.
  • the sensor unit 140c may acquire vehicle state and surrounding environment information.
  • the autonomous driving unit 140d may update the autonomous driving route and the driving plan based on the newly acquired data/information.
  • the communication unit 110 may transmit information about a vehicle location, an autonomous driving route, and a driving plan to an external server.
  • the external server may predict traffic information data in advance using AI technology or the like based on information collected from the vehicle or autonomously driving vehicles, and may provide the predicted traffic information data to the vehicle or autonomously driving vehicles.
  • Vehicles 34 illustrates a vehicle applied to the present invention. Vehicles may also be implemented as means of transport, trains, aircraft, and ships.
  • the vehicle 100 may include a communication unit 110, a control unit 120, a memory unit 130, an input/output unit 140a, and a position measurement unit 140b.
  • blocks 110 to 130/140a to 140b correspond to blocks 110 to 130/140 of FIG. 31, respectively.
  • the communication unit 110 may transmit and receive signals (eg, data, control signals, etc.) with other vehicles or external devices such as a base station.
  • the controller 120 may perform various operations by controlling components of the vehicle 100.
  • the memory unit 130 may store data/parameters/programs/codes/commands supporting various functions of the vehicle 100.
  • the input/output unit 140a may output an AR/VR object based on information in the memory unit 130.
  • the input/output unit 140a may include a HUD.
  • the location measurement unit 140b may obtain location information of the vehicle 100.
  • the location information may include absolute location information of the vehicle 100, location information within a driving line, acceleration information, location information with surrounding vehicles, and the like.
  • the location measurement unit 140b may include GPS and various sensors.
  • the communication unit 110 of the vehicle 100 may receive map information, traffic information, etc. from an external server and store it in the memory unit 130.
  • the location measurement unit 140b may acquire vehicle location information through GPS and various sensors and store it in the memory unit 130.
  • the controller 120 may generate a virtual object based on map information, traffic information, vehicle location information, and the like, and the input/output unit 140a may display the generated virtual object on a window in the vehicle (1410, 1420).
  • the controller 120 may determine whether the vehicle 100 is operating normally within the driving line based on the vehicle location information. When the vehicle 100 deviates from the driving line abnormally, the control unit 120 may display a warning on the window of the vehicle through the input/output unit 140a.
  • control unit 120 may broadcast a warning message regarding a driving abnormality to nearby vehicles through the communication unit 110.
  • controller 120 may transmit location information of the vehicle and information on driving/vehicle abnormalities to a related organization through the communication unit 110.
  • the XR device may be implemented as an HMD, a head-up display (HUD) provided in a vehicle, a television, a smartphone, a computer, a wearable device, a home appliance, a digital signage, a vehicle, a robot, and the like.
  • HMD head-up display
  • a television a television
  • smartphone a smartphone
  • a computer a wearable device
  • a home appliance a digital signage
  • a vehicle a robot, and the like.
  • the XR device 100a may include a communication unit 110, a control unit 120, a memory unit 130, an input/output unit 140a, a sensor unit 140b, and a power supply unit 140c.
  • blocks 110 to 130/140a to 140c correspond to blocks 110 to 130/140 of FIG. 31, respectively.
  • the communication unit 110 may transmit and receive signals (eg, media data, control signals, etc.) with other wireless devices, portable devices, or external devices such as a media server.
  • Media data may include images, images, and sounds.
  • the controller 120 may perform various operations by controlling components of the XR device 100a.
  • the controller 120 may be configured to control and/or perform procedures such as video/image acquisition, (video/image) encoding, and metadata generation and processing.
  • the memory unit 130 may store data/parameters/programs/codes/commands required for driving the XR device 100a/generating an XR object.
  • the input/output unit 140a may obtain control information, data, etc. from the outside, and may output the generated XR object.
  • the input/output unit 140a may include a camera, a microphone, a user input unit, a display unit, a speaker, and/or a haptic module.
  • the sensor unit 140b may obtain XR device status, surrounding environment information, user information, and the like.
  • the sensor unit 140b may include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and/or a radar. have.
  • the power supply unit 140c supplies power to the XR device 100a, and may include a wired/wireless charging circuit, a battery, and the like.
  • the memory unit 130 of the XR device 100a may include information (eg, data, etc.) necessary for generating an XR object (eg, AR/VR/MR object).
  • the input/output unit 140a may obtain a command to manipulate the XR device 100a from the user, and the controller 120 may drive the XR device 100a according to the user's driving command. For example, when a user tries to watch a movie, news, etc. through the XR device 100a, the controller 120 transmits the content request information through the communication unit 130 to another device (for example, the mobile device 100b) or Can be sent to the media server.
  • another device for example, the mobile device 100b
  • the communication unit 130 may download/stream contents such as movies and news from another device (eg, the mobile device 100b) or a media server to the memory unit 130.
  • the control unit 120 controls and/or performs procedures such as video/image acquisition, (video/image) encoding, and metadata generation/processing for the content, and is acquired through the input/output unit 140a/sensor unit 140b.
  • An XR object may be generated/output based on information on a surrounding space or a real object.
  • the XR device 100a is wirelessly connected to the mobile device 100b through the communication unit 110, and the operation of the XR device 100a may be controlled by the mobile device 100b.
  • the portable device 100b may operate as a controller for the XR device 100a.
  • the XR device 100a may obtain 3D location information of the portable device 100b, and then generate and output an XR object corresponding to the portable device 100b.
  • Robots can be classified into industrial, medical, household, military, etc. depending on the purpose or field of use.
  • the robot 100 may include a communication unit 110, a control unit 120, a memory unit 130, an input/output unit 140a, a sensor unit 140b, and a driving unit 140c.
  • blocks 110 to 130/140a to 140c correspond to blocks 110 to 130/140 of FIG. 31, respectively.
  • the communication unit 110 may transmit and receive signals (eg, driving information, control signals, etc.) with other wireless devices, other robots, or external devices such as a control server.
  • the controller 120 may perform various operations by controlling components of the robot 100.
  • the memory unit 130 may store data/parameters/programs/codes/commands supporting various functions of the robot 100.
  • the input/output unit 140a acquires information from the outside of the robot 100 and may output the information to the outside of the robot 100.
  • the input/output unit 140a may include a camera, a microphone, a user input unit, a display unit, a speaker, and/or a haptic module.
  • the sensor unit 140b may obtain internal information, surrounding environment information, user information, and the like of the robot 100.
  • the sensor unit 140b may include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, a radar, and the like.
  • the driving unit 140c may perform various physical operations such as moving a robot joint. In addition, the driving unit 140c may make the robot 100 travel on the ground or fly in the air.
  • the driving unit 140c may include an actuator, a motor, a wheel, a brake, a propeller, and the like.
  • AI devices are fixed devices such as TVs, projectors, smartphones, PCs, notebooks, digital broadcasting terminals, tablet PCs, wearable devices, set-top boxes (STBs), radios, washing machines, refrigerators, digital signage, robots, vehicles, etc. It can be implemented with possible devices.
  • the AI device 100 includes a communication unit 110, a control unit 120, a memory unit 130, an input/output unit 140a/140b, a running processor unit 140c, and a sensor unit 140d. It may include. Blocks 110 to 130/140a to 140d correspond to blocks 110 to 130/140 of FIG. 31, respectively.
  • the communication unit 110 uses wired/wireless communication technology to provide external devices such as other AI devices (e.g., FIGS. 28, 100x, 200, 400) or AI servers (e.g., 400 in FIG. , User input, learning model, control signals, etc.). To this end, the communication unit 110 may transmit information in the memory unit 130 to an external device or may transmit a signal received from the external device to the memory unit 130.
  • AI devices e.g., FIGS. 28, 100x, 200, 400
  • AI servers e.g., 400 in FIG. , User input, learning model, control signals, etc.
  • the communication unit 110 may transmit information in the memory unit 130 to an external device or may transmit a signal received from the external device to the memory unit 130.
  • the controller 120 may determine at least one executable operation of the AI device 100 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. In addition, the controller 120 may perform a determined operation by controlling the components of the AI device 100. For example, the control unit 120 may request, search, receive, or utilize data from the learning processor unit 140c or the memory unit 130, and may be a predicted or desirable operation among at least one executable operation. Components of the AI device 100 can be controlled to execute the operation. In addition, the control unit 120 collects history information including the operation content or user's feedback on the operation of the AI device 100 and stores it in the memory unit 130 or the running processor unit 140c, or the AI server ( 28 and 400). The collected history information can be used to update the learning model.
  • the memory unit 130 may store data supporting various functions of the AI device 100.
  • the memory unit 130 may store data obtained from the input unit 140a, data obtained from the communication unit 110, output data from the running processor unit 140c, and data obtained from the sensing unit 140.
  • the memory unit 130 may store control information and/or software codes necessary for the operation/execution of the controller 120.
  • the input unit 140a may acquire various types of data from the outside of the AI device 100.
  • the input unit 140a may acquire training data for model training and input data to which the training model is to be applied.
  • the input unit 140a may include a camera, a microphone, and/or a user input unit.
  • the output unit 140b may generate output related to visual, auditory or tactile sense.
  • the output unit 140b may include a display unit, a speaker, and/or a haptic module.
  • the sensing unit 140 may obtain at least one of internal information of the AI device 100, surrounding environment information of the AI device 100, and user information by using various sensors.
  • the sensing unit 140 may include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and/or a radar. have.
  • the learning processor unit 140c may train a model composed of an artificial neural network using the training data.
  • the running processor unit 140c may perform AI processing together with the running processor unit of the AI server (FIGS. 28 and 400 ).
  • the learning processor unit 140c may process information received from an external device through the communication unit 110 and/or information stored in the memory unit 130.
  • the output value of the learning processor unit 140c may be transmitted to an external device through the communication unit 110 and/or may be stored in the memory unit 130.
  • Embodiments as described above can be applied to various mobile communication systems.

Abstract

일 실시예는, 무선 통신 시스템에서 단말을 위한 동작을 수행하는 방법에 있어서, 하나 이상의 RSU(Road Side Unit)에 제1 메시지를 전송하는 단계 및 상기 하나 이상의 RSU에 제2 메시지를 전송하는 단계를 포함하며, 상기 제1 메시지는 상기 하나 이상의 RSU 각각의 고유 정보를 인식하여 획득된 상기 하나 이상의 RSU 각각의 위치 정보를 포함하고, 상기 제2 메시지는 상기 하나 이상의 RSU 각각의 위치 정보를 취합한 위치 리스트를 포함하는, 방법이다.

Description

무선 통신 시스템에서 단말의 신호 송수신 방법
이하의 설명은 무선 통신 시스템에 대한 것으로, 보다 상세하게는 공사장 안내 시스템을 위한 단말의 신호 송수신 방법 및 장치에 대한 것이다.
무선 통신 시스템이 음성이나 데이터 등과 같은 다양한 종류의 통신 서비스를 제공하기 위해 광범위하게 전개되고 있다. 일반적으로 무선 통신 시스템은 가용한 시스템 자원(대역폭, 전송 파워 등)을 공유하여 다중 사용자와의 통신을 지원할 수 있는 다중 접속(multiple access) 시스템이다. 다중 접속 시스템의 예들로는 CDMA(code division multiple access) 시스템, FDMA(frequency division multiple access) 시스템, TDMA(time division multiple access) 시스템, OFDMA(orthogonal frequency division multiple access) 시스템, SC-FDMA(single carrier frequency division multiple access) 시스템, MC-FDMA(multi carrier frequency division multiple access) 시스템 등이 있다.
무선 통신 시스템에서는 LTE, LTE-A, WiFi 등의 다양한 RAT(Radio Access Technology)이 사용되고 있으며, 5G 도 여기에 포함된다. 5G의 세 가지 주요 요구 사항 영역은 (1) 개선된 모바일 광대역 (Enhanced Mobile Broadband, eMBB) 영역, (2) 다량의 머신 타입 통신 (massive Machine Type Communication, mMTC) 영역 및 (3) 초-신뢰 및 저 지연 통신 (Ultra-reliable and Low Latency Communications, URLLC) 영역을 포함한다. 일부 사용 예(Use Case)는 최적화를 위해 다수의 영역들이 요구될 수 있고, 다른 사용 예는 단지 하나의 핵심 성능 지표 (Key Performance Indicator, KPI)에만 포커싱될 수 있다. 5G는 이러한 다양한 사용 예들을 유연하고 신뢰할 수 있는 방법으로 지원하는 것이다.
eMBB는 기본적인 모바일 인터넷 액세스를 훨씬 능가하게 하며, 풍부한 양방향 작업, 클라우드 또는 증강 현실에서 미디어 및 엔터테인먼트 애플리케이션을 커버한다. 데이터는 5G의 핵심 동력 중 하나이며, 5G 시대에서 처음으로 전용 음성 서비스를 볼 수 없을 수 있다. 5G에서, 음성은 단순히 통신 시스템에 의해 제공되는 데이터 연결을 사용하여 응용 프로그램으로서 처리될 것이 기대된다. 증가된 트래픽 양(volume)을 위한 주요 원인들은 콘텐츠 크기의 증가 및 높은 데이터 전송률을 요구하는 애플리케이션 수의 증가이다. 스트리밍 서비스 (오디오 및 비디오), 대화형 비디오 및 모바일 인터넷 연결은 더 많은 장치가 인터넷에 연결될수록 더 널리 사용될 것이다. 이러한 많은 응용 프로그램들은 사용자에게 실시간 정보 및 알림을 푸쉬하기 위해 항상 켜져 있는 연결성이 필요하다. 클라우드 스토리지 및 애플리케이션은 모바일 통신 플랫폼에서 급속히 증가하고 있으며, 이것은 업무 및 엔터테인먼트 모두에 적용될 수 있다. 그리고, 클라우드 스토리지는 상향링크 데이터 전송률의 성장을 견인하는 특별한 사용 예이다. 5G는 또한 클라우드의 원격 업무에도 사용되며, 촉각 인터페이스가 사용될 때 우수한 사용자 경험을 유지하도록 훨씬 더 낮은 단-대-단(end-to-end) 지연을 요구한다. 엔터테인먼트 예를 들어, 클라우드 게임 및 비디오 스트리밍은 모바일 광대역 능력에 대한 요구를 증가시키는 또 다른 핵심 요소이다. 엔터테인먼트는 기차, 차 및 비행기와 같은 높은 이동성 환경을 포함하는 어떤 곳에서든지 스마트폰 및 태블릿에서 필수적이다. 또 다른 사용 예는 엔터테인먼트를 위한 증강 현실 및 정보 검색이다. 여기서, 증강 현실은 매우 낮은 지연과 순간적인 데이터 양을 필요로 한다.
또한, 가장 많이 예상되는 5G 사용 예 중 하나는 모든 분야에서 임베디드 센서를 원활하게 연결할 수 있는 기능 즉, mMTC에 관한 것이다. 2020년까지 잠재적인 IoT 장치들은 204 억 개에 이를 것으로 예측된다. 산업 IoT는 5G가 스마트 도시, 자산 추적(asset tracking), 스마트 유틸리티, 농업 및 보안 인프라를 가능하게 하는 주요 역할을 수행하는 영역 중 하나이다.
URLLC는 주요 인프라의 원격 제어 및 자체-구동 차량(self-driving vehicle)과 같은 초 신뢰 / 이용 가능한 지연이 적은 링크를 통해 산업을 변화시킬 새로운 서비스를 포함한다. 신뢰성과 지연의 수준은 스마트 그리드 제어, 산업 자동화, 로봇 공학, 드론 제어 및 조정에 필수적이다.
다음으로, 다수의 사용 예들에 대해 보다 구체적으로 살펴본다.
5G는 초당 수백 메가 비트에서 초당 기가 비트로 평가되는 스트림을 제공하는 수단으로 FTTH (fiber-to-the-home) 및 케이블 기반 광대역 (또는 DOCSIS)을 보완할 수 있다. 이러한 빠른 속도는 가상 현실과 증강 현실뿐 아니라 4K 이상(6K, 8K 및 그 이상)의 해상도로 TV를 전달하는데 요구된다. VR(Virtual Reality) 및 AR(Augmented Reality) 애플리케이션들은 거의 몰입형(immersive) 스포츠 경기를 포함한다. 특정 응용 프로그램은 특별한 네트워크 설정이 요구될 수 있다. 예를 들어, VR 게임의 경우, 게임 회사들이 지연을 최소화하기 위해 코어 서버를 네트워크 오퍼레이터의 에지 네트워크 서버와 통합해야 할 수 있다.
자동차(Automotive)는 차량에 대한 이동 통신을 위한 많은 사용 예들과 함께 5G에 있어 중요한 새로운 동력이 될 것으로 예상된다. 예를 들어, 승객을 위한 엔터테인먼트는 동시의 높은 용량과 높은 이동성 모바일 광대역을 요구한다. 그 이유는 미래의 사용자는 그들의 위치 및 속도와 관계 없이 고품질의 연결을 계속해서 기대하기 때문이다. 자동차 분야의 다른 활용 예는 증강 현실 대시보드이다. 이는 운전자가 앞면 창을 통해 보고 있는 것 위에 어둠 속에서 물체를 식별하고, 물체의 거리와 움직임에 대해 운전자에게 말해주는 정보를 겹쳐서 디스플레이 한다. 미래에, 무선 모듈은 차량들 간의 통신, 차량과 지원하는 인프라구조 사이에서 정보 교환 및 자동차와 다른 연결된 디바이스들(예를 들어, 보행자에 의해 수반되는 디바이스들) 사이에서 정보 교환을 가능하게 한다. 안전 시스템은 운전자가 보다 안전한 운전을 할 수 있도록 행동의 대체 코스들을 안내하여 사고의 위험을 낮출 수 있게 한다. 다음 단계는 원격 조종되거나 자체 운전 차량(self-driven vehicle)이 될 것이다. 이는 서로 다른 자체 운전 차량들 사이 및 자동차와 인프라 사이에서 매우 신뢰성이 있고, 매우 빠른 통신을 요구한다. 미래에, 자체 운전 차량이 모든 운전 활동을 수행하고, 운전자는 차량 자체가 식별할 수 없는 교통 이상에만 집중하도록 할 것이다. 자체 운전 차량의 기술적 요구 사항은 트래픽 안전을 사람이 달성할 수 없을 정도의 수준까지 증가하도록 초 저 지연과 초고속 신뢰성을 요구한다.
스마트 사회(smart society)로서 언급되는 스마트 도시와 스마트 홈은 고밀도 무선 센서 네트워크로 임베디드될 것이다. 지능형 센서의 분산 네트워크는 도시 또는 집의 비용 및 에너지-효율적인 유지에 대한 조건을 식별할 것이다. 유사한 설정이 각 가정을 위해 수행될 수 있다. 온도 센서, 창 및 난방 컨트롤러, 도난 경보기 및 가전 제품들은 모두 무선으로 연결된다. 이러한 센서들 중 많은 것들이 전형적으로 낮은 데이터 전송 속도, 저전력 및 저비용이다. 하지만, 예를 들어, 실시간 HD 비디오는 감시를 위해 특정 타입의 장치에서 요구될 수 있다.
열 또는 가스를 포함한 에너지의 소비 및 분배는 고도로 분산화되고 있어, 분산 센서 네트워크의 자동화된 제어가 요구된다. 스마트 그리드는 정보를 수집하고 이에 따라 행동하도록 디지털 정보 및 통신 기술을 사용하여 이런 센서들을 상호 연결한다. 이 정보는 공급 업체와 소비자의 행동을 포함할 수 있으므로, 스마트 그리드가 효율성, 신뢰성, 경제성, 생산의 지속 가능성 및 자동화된 방식으로 전기와 같은 연료들의 분배를 개선하도록 할 수 있다. 스마트 그리드는 지연이 적은 다른 센서 네트워크로 볼 수도 있다.
건강 부문은 이동 통신의 혜택을 누릴 수 있는 많은 응용 프로그램을 보유하고 있다. 통신 시스템은 멀리 떨어진 곳에서 임상 진료를 제공하는 원격 진료를 지원할 수 있다. 이는 거리에 대한 장벽을 줄이는데 도움을 주고, 거리가 먼 농촌에서 지속적으로 이용하지 못하는 의료 서비스들로의 접근을 개선시킬 수 있다. 이는 또한 중요한 진료 및 응급 상황에서 생명을 구하기 위해 사용된다. 이동 통신 기반의 무선 센서 네트워크는 심박수 및 혈압과 같은 파라미터들에 대한 원격 모니터링 및 센서들을 제공할 수 있다.
무선 및 모바일 통신은 산업 응용 분야에서 점차 중요해지고 있다. 배선은 설치 및 유지 비용이 높다. 따라서, 케이블을 재구성할 수 있는 무선 링크들로의 교체 가능성은 많은 산업 분야에서 매력적인 기회이다. 그러나, 이를 달성하는 것은 무선 연결이 케이블과 비슷한 지연, 신뢰성 및 용량으로 동작하는 것과, 그 관리가 단순화될 것이 요구된다. 낮은 지연과 매우 낮은 오류 확률은 5G로 연결될 필요가 있는 새로운 요구 사항이다.
물류(logistics) 및 화물 추적(freight tracking)은 위치 기반 정보 시스템을 사용하여 어디에서든지 인벤토리(inventory) 및 패키지의 추적을 가능하게 하는 이동 통신에 대한 중요한 사용 예이다. 물류 및 화물 추적의 사용 예는 전형적으로 낮은 데이터 속도를 요구하지만 넓은 범위와 신뢰성 있는 위치 정보가 필요하다.
무선 통신 시스템은 가용한 시스템 자원(예를 들어, 대역폭, 전송 전력 등)을 공유하여 다중 사용자와의 통신을 지원하는 다중 접속(multiple access) 시스템이다. 다중 접속 시스템의 예로는 CDMA(code division multiple access) 시스템, FDMA(frequency division multiple access) 시스템, TDMA(time division multiple access) 시스템, OFDMA(orthogonal frequency division multiple access) 시스템, SC-FDMA(single carrier frequency division multiple access) 시스템, MC-FDMA(multi carrier frequency division multiple access) 시스템 등이 있다.
사이드링크(sidelink, SL)란 단말(User Equipment, UE)들 간에 직접적인 링크를 설정하여, 기지국(Base Station, BS)을 거치지 않고, 단말 간에 음성 또는 데이터 등을 직접 주고 받는 통신 방식을 말한다. SL는 급속도로 증가하는 데이터 트래픽에 따른 기지국의 부담을 해결할 수 있는 하나의 방안으로서 고려되고 있다.
V2X(vehicle-to-everything)는 유/무선 통신을 통해 다른 차량, 보행자, 인프라가 구축된 사물 등과 정보를 교환하는 통신 기술을 의미한다. V2X는 V2V(vehicle-to-vehicle), V2I(vehicle-to-infrastructure), V2N(vehicle-to- network) 및 V2P(vehicle-to-pedestrian)와 같은 4 가지 유형으로 구분될 수 있다. V2X 통신은 PC5 인터페이스 및/또는 Uu 인터페이스를 통해 제공될 수 있다.
한편, 더욱 많은 통신 기기들이 더욱 큰 통신 용량을 요구하게 됨에 따라, 기존의 무선 액세스 기술(Radio Access Technology, RAT)에 비해 향상된 모바일 광대역 (mobile broadband) 통신에 대한 필요성이 대두되고 있다. 이에 따라, 신뢰도(reliability) 및 지연(latency)에 민감한 서비스 또는 단말을 고려한 통신 시스템이 논의되고 있는데, 개선된 이동 광대역 통신, 매시브 MTC(Machine Type Communication), URLLC(Ultra-Reliable and Low Latency Communication) 등을 고려한 차세대 무선 접속 기술을 새로운 RAT(new radio access technology) 또는 NR(new radio)이라 칭할 수 있다. NR에서도 V2X(vehicle-to-everything) 통신이 지원될 수 있다.
도 1은 NR 이전의 RAT에 기반한 V2X 통신과 NR에 기반한 V2X 통신을 비교하여 설명하기 위한 도면이다.
V2X 통신과 관련하여, NR 이전의 RAT에서는 BSM(Basic Safety Message), CAM(Cooperative Awareness Message), DENM(Decentralized Environmental Notification Message)과 같은 V2X 메시지를 기반으로, 안전 서비스(safety service)를 제공하는 방안이 주로 논의되었다. V2X 메시지는, 위치 정보, 동적 정보, 속성 정보 등을 포함할 수 있다. 예를 들어, 단말은 주기적인 메시지(periodic message) 타입의 CAM, 및/또는 이벤트 트리거 메시지(event triggered message) 타입의 DENM을 다른 단말에게 전송할 수 있다.
예를 들어, CAM은 방향 및 속도와 같은 차량의 동적 상태 정보, 치수와 같은 차량 정적 데이터, 외부 조명 상태, 경로 내역 등 기본 차량 정보를 포함할 수 있다. 예를 들어, 단말은 CAM을 방송할 수 있으며, CAM의 지연(latency)은 100ms보다 작을 수 있다. 예를 들어, 차량의 고장, 사고 등의 돌발적인 상황이 발행하는 경우, 단말은 DENM을 생성하여 다른 단말에게 전송할 수 있다. 예를 들어, 단말의 전송 범위 내에 있는 모든 차량은 CAM 및/또는 DENM을 수신할 수 있다. 이 경우, DENM은 CAM 보다 높은 우선 순위를 가질 수 있다.
이후, V2X 통신과 관련하여, 다양한 V2X 시나리오들이 NR에서 제시되고 있다. 예를 들어, 다양한 V2X 시나리오들은, 차량 플래투닝(vehicle platooning), 향상된 드라이빙(advanced driving), 확장된 센서들(extended sensors), 리모트 드라이빙(remote driving) 등을 포함할 수 있다.
예를 들어, 차량 플래투닝을 기반으로, 차량들은 동적으로 그룹을 형성하여 함께 이동할 수 있다. 예를 들어, 차량 플래투닝에 기반한 플라툰 동작들(platoon operations)을 수행하기 위해, 상기 그룹에 속하는 차량들은 선두 차량으로부터 주기적인 데이터를 수신할 수 있다. 예를 들어, 상기 그룹에 속하는 차량들은 주기적인 데이터를 이용하여, 차량들 사이의 간격을 줄이거나 넓힐 수 있다.
예를 들어, 향상된 드라이빙을 기반으로, 차량은 반자동화 또는 완전 자동화될 수 있다. 예를 들어, 각 차량은 근접 차량 및/또는 근접 로지컬 엔티티(logical entity)의 로컬 센서(local sensor)에서 획득된 데이터를 기반으로, 궤도(trajectories) 또는 기동(maneuvers)을 조정할 수 있다. 또한, 예를 들어, 각 차량은 근접한 차량들과 드라이빙 인텐션(driving intention)을 상호 공유할 수 있다.
예를 들어, 확장 센서들을 기반으로, 로컬 센서들을 통해 획득된 로 데이터(raw data) 또는 처리된 데이터(processed data), 또는 라이브 비디오 데이터(live video data)는 차량, 로지컬 엔티티, 보행자들의 단말 및/또는 V2X 응용 서버 간에 상호 교환될 수 있다. 따라서, 예를 들어, 차량은 자체 센서를 이용하여 감지할 수 있는 환경 보다 향상된 환경을 인식할 수 있다.
예를 들어, 리모트 드라이빙을 기반으로, 운전을 하지 못하는 사람 또는 위험한 환경에 위치한 리모트 차량을 위해, 리모트 드라이버 또는 V2X 애플리케이션은 상기 리모트 차량을 동작 또는 제어할 수 있다. 예를 들어, 대중 교통과 같이 경로를 예측할 수 있는 경우, 클라우드 컴퓨팅 기반의 드라이빙이 상기 리모트 차량의 동작 또는 제어에 이용될 수 있다. 또한, 예를 들어, 클라우드 기반의 백엔드 서비스 플랫폼(cloud-based back-end service platform)에 대한 액세스가 리모트 드라이빙을 위해 고려될 수 있다.
한편, 차량 플래투닝, 향상된 드라이빙, 확장된 센서들, 리모트 드라이빙 등 다양한 V2X 시나리오들에 대한 서비스 요구사항(service requirements)들을 구체화하는 방안이 NR에 기반한 V2X 통신에서 논의되고 있다.
실시예(들)은 공사장 주변에 설치되는 RSU를 이용하여 실시간으로 변동되는 정보를 반영하여 공사장 정보를 생성하는 것을 기술적 과제로 한다.
실시예(들)은 공사장 주변에 설치되는 RSU의 구조를 간소화하여 설치 비용을 줄이는 것을 기술적 과제로 한다.
실시예(들)에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 실시예(들)이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
일 실시예는, 무선 통신 시스템에서 단말을 위한 동작을 수행하는 방법에 있어서, 하나 이상의 RSU(Road Side Unit)에 제1 메시지를 전송하는 단계, 및 상기 하나 이상의 RSU에 제2 메시지를 전송하는 단계를 포함하며, 상기 제1 메시지는 상기 하나 이상의 RSU 각각의 고유 정보를 인식하여 획득된 상기 하나 이상의 RSU 각각의 위치 정보를 포함하고, 상기 제2 메시지는 상기 하나 이상의 RSU 각각의 위치 정보를 취합한 위치 리스트를 포함하는, 방법이다.
일 실시예는, 무선통신시스템에서, 적어도 하나의 프로세서 및 상기 적어도 하나의 프로세서에 동작 가능하게 연결될 수 있고, 실행될 때 상기 적어도 하나의 프로세서로 하여금 동작들을 수행하게 하는 명령들을 저장하는 적어도 하나의 컴퓨터 메모리를 포함하며, 상기 동작들은, 하나 이상의 RSU(Road Side Unit)에 제1 메시지를 전송하는 단계, 및 상기 하나 이상의 RSU에 제2 메시지를 전송하는 단계를 포함하며, 상기 제1 메시지는 상기 하나 이상의 RSU 각각의 고유 정보를 인식하여 획득된 상기 하나 이상의 RSU 각각의 위치 정보를 포함하고, 상기 제2 메시지는 상기 하나 이상의 RSU 각각의 위치 정보를 취합한 위치 리스트를 포함하는, 단말이다.
일 실시예는, 적어도 하나의 프로세서에 의해 실행될 때, 적어도 하나의 프로세서가 UE를 위한 동작들을 수행하게 하는 명령을 포함하는 적어도 하나의 컴퓨터 프로그램을 저장하는 컴퓨터 판독 가능 저장 매체에 있어서, 상기 동작들은, 하나 이상의 RSU(Road Side Unit)에 제1 메시지를 전송하는 단계, 및 상기 하나 이상의 RSU에 제2 메시지를 전송하는 단계를 포함하며, 상기 제1 메시지는 상기 하나 이상의 RSU 각각의 고유 정보를 인식하여 획득된 상기 하나 이상의 RSU 각각의 위치 정보를 포함하고, 상기 제2 메시지는 상기 하나 이상의 RSU 각각의 위치 정보를 취합한 위치 리스트를 포함하는, 매체이다.
상기 제2 메시지는 상기 하나 이상의 RSU간에 송수신될 수 있다.
상기 하나 이상의 RSU는 상기 제2 메시지를 이용하여 차량에 안전 메시지를 전송하고, 상기 안전 메시지는 상기 하나 이상의 RSU가 위치한 공사장 영역 정보를 포함할 수 있다.
상기 방법은 기지국 또는 소프트 V2X 서버에 공사장 공통 정보를 요청하는 단계, 및 상기 기지국 또는 소프트 V2X 서버로부터 상기 공사장 공통 정보를 수신하는 단계를 더 포함할 수 있다.
상기 제1 메시지 및 상기 제2 메시지는 상기 공사장 공통 정보를 포함할 수 있다.
상기 공사장 공통 정보는 공사 종류 또는 공사 기간에 대한 정보를 포함할 수 있다.
상기 방법은 기지국 또는 V2X 서버에 상기 제2 메시지를 전송하는 단계를 더 포함할 수 있고, 상기 기지국 또는 V2X 서버는 상기 제2 메시지를 이용하여 차량에 안전 메시지를 전송할 수 있다.
상기 단말은 자율주행 차량 또는 자율주행 차량에 포함된 것일 수 있다.
일 실시예에 의하면, 단말 및 RSU를 이용하여 실시간으로 변동되는 공사장 영역에 대한 정보를 정확하고 신속하게 생성할 수 있다.
일 실시예에 의하면, 단말을 이용하여 하나 이상의 RSU의 위치 정보를 획득함으로써, RSU의 구조를 간소화하여 비용을 절감할 수 있다.
실시예(들)에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 실시예(들)이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 명세서에 첨부되는 도면은 실시예(들)에 대한 이해를 제공하기 위한 것으로서 다양한 실시형태들을 나타내고 명세서의 기재와 함께 원리를 설명하기 위한 것이다.
도 1은 NR 이전의 RAT에 기반한 V2X 통신과 NR에 기반한 V2X 통신을 비교하여 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른, LTE 시스템의 구조를 나타낸다.
도 3은 본 개시의 일 실시 예에 따른, 사용자 평면(user plane), 제어 평면(control plane)에 대한 무선 프로토콜 구조(radio protocol architecture)를 나타낸다.
도 4는 본 개시의 일 실시 예에 따른, NR 시스템의 구조를 나타낸다.
도 5는 본 개시의 일 실시 예에 따른, NG-RAN과 5GC 간의 기능적 분할을 나타낸다.
도 6은 실시 예(들)이 적용될 수 있는 NR의 무선 프레임의 구조를 나타낸다.
도 7은 본 개시의 일 실시 예에 따른, NR 프레임의 슬롯 구조를 나타낸다.
도 8은 본 개시의 일 실시 예에 따른, 세 가지 캐스트 타입을 나타낸다.
도 9는 본 개시의 일 실시 예에 따른 ITS 참조 구조를 나타낸다.
도 10은 본 개시의 일 실시 예에 따른 ITS 스테이션 예시 구조이다.
도 11은 본 개시의 일 실시 예에 따른 퍼실리티 계층의 예시 구조이다.
도 12 내지 도 27는 실시예(들)을 설명하기 위한 도면이다.
도 28 내지 도 37은 실시예(들)이 적용될 수 있는 다양한 장치를 설명하는 도면이다.
본 개시의 다양한 실시 예에서, “/” 및 “,”는 “및/또는”을 나타내는 것으로 해석되어야 한다. 예를 들어, “A/B”는 “A 및/또는 B”를 의미할 수 있다. 나아가, “A, B”는 “A 및/또는 B”를 의미할 수 있다. 나아가, “A/B/C”는 “A, B 및/또는 C 중 적어도 어느 하나”를 의미할 수 있다. 나아가, “A, B, C”는 “A, B 및/또는 C 중 적어도 어느 하나”를 의미할 수 있다.
본 개시의 다양한 실시 예에서, “또는”은 “및/또는”을 나타내는 것으로 해석되어야 한다. 예를 들어, “A 또는 B”는 “오직 A”, “오직 B”, 및/또는 “A 및 B 모두”를 포함할 수 있다. 다시 말해, “또는”은 “부가적으로 또는 대안적으로”를 나타내는 것으로 해석되어야 한다.
이하의 기술은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 통신 시스템에 사용될 수 있다. CDMA는 UTRA(universal terrestrial radio access)나 CDMA2000과 같은 무선 기술로 구현될 수 있다. TDMA는 GSM(global system for mobile communications)/GPRS(general packet radio service)/EDGE(enhanced data rates for GSM evolution)와 같은 무선 기술로 구현될 수 있다. OFDMA는 IEEE(institute of electrical and electronics engineers) 802.11(Wi-Fi), IEEE 802.16(WiMAX), IEEE 802-20, E-UTRA(evolved UTRA) 등과 같은 무선 기술로 구현될 수 있다. IEEE 802.16m은 IEEE 802.16e의 진화로, IEEE 802.16e에 기반한 시스템과의 하위 호환성(backward compatibility)를 제공한다. UTRA는 UMTS(universal mobile telecommunications system)의 일부이다. 3GPP(3rd generation partnership project) LTE(long term evolution)은 E-UTRA(evolved-UMTS terrestrial radio access)를 사용하는 E-UMTS(evolved UMTS)의 일부로써, 하향링크에서 OFDMA를 채용하고 상향링크에서 SC-FDMA를 채용한다. LTE-A(advanced)는 3GPP LTE의 진화이다.
5G NR은 LTE-A의 후속 기술로서, 고성능, 저지연, 고가용성 등의 특성을 가지는 새로운 Clean-slate 형태의 이동 통신 시스템이다. 5G NR은 1GHz 미만의 저주파 대역에서부터 1GHz~10GHz의 중간 주파 대역, 24GHz 이상의 고주파(밀리미터파) 대역 등 사용 가능한 모든 스펙트럼 자원을 활용할 수 있다.
설명을 명확하게 하기 위해, LTE-A 또는 5G NR을 위주로 기술하지만 본 개시의 일 실시 예에 따른 기술적 사상이 이에 제한되는 것은 아니다.
도 2는 본 개시의 일 실시 예에 따른, LTE 시스템의 구조를 나타낸다. 이는 E-UTRAN(Evolved-UMTS Terrestrial Radio Access Network), 또는 LTE(Long Term Evolution)/LTE-A 시스템이라고 불릴 수 있다.
도 2를 참조하면, E-UTRAN은 단말(10)에게 제어 평면(control plane)과 사용자 평면(user plane)을 제공하는 기지국(20)을 포함한다. 단말(10)은 고정되거나 이동성을 가질 수 있으며, MS(Mobile Station), UT(User Terminal), SS(Subscriber Station), MT(Mobile Terminal), 무선기기(Wireless Device) 등 다른 용어로 불릴 수 있다. 기지국(20)은 단말(10)과 통신하는 고정된 지점(fixed station)을 말하며, eNB(evolved-NodeB), BTS(Base Transceiver System), 액세스 포인트(Access Point) 등 다른 용어로 불릴 수 있다.
기지국(20)들은 X2 인터페이스를 통하여 서로 연결될 수 있다. 기지국(20)은 S1 인터페이스를 통해 EPC(Evolved Packet Core, 30), 보다 상세하게는 S1-MME를 통해 MME(Mobility Management Entity)와 S1-U를 통해 S-GW(Serving Gateway)와 연결된다.
EPC(30)는 MME, S-GW 및 P-GW(Packet Data Network-Gateway)로 구성된다. MME는 단말의 접속 정보나 단말의 능력에 관한 정보를 가지고 있으며, 이러한 정보는 단말의 이동성 관리에 주로 사용된다. S-GW는 E-UTRAN을 종단점으로 갖는 게이트웨이이며, P-GW는 PDN(Packet Date Network)을 종단점으로 갖는 게이트웨이이다.
단말과 네트워크 사이의 무선인터페이스 프로토콜(Radio Interface Protocol)의 계층들은 통신시스템에서 널리 알려진 개방형 시스템간 상호접속(Open System Interconnection, OSI) 기준 모델의 하위 3개 계층을 바탕으로 L1 (제 1 계층), L2 (제 2 계층), L3(제 3 계층)로 구분될 수 있다. 이 중에서 제 1 계층에 속하는 물리 계층은 물리 채널(Physical Channel)을 이용한 정보전송서비스(Information Transfer Service)를 제공하며, 제 3 계층에 위치하는 RRC(Radio Resource Control) 계층은 단말과 네트워크 간에 무선 자원을 제어하는 역할을 수행한다. 이를 위해 RRC 계층은 단말과 기지국 간 RRC 메시지를 교환한다.
도 3(a)는 본 개시의 일 실시 예에 따른, 사용자 평면(user plane)에 대한 무선 프로토콜 구조(radio protocol architecture)를 나타낸다.
도 3(b)은 본 개시의 일 실시 예에 따른, 제어 평면(control plane)에 대한 무선 프로토콜 구조를 나타낸다. 사용자 평면은 사용자 데이터 전송을 위한 프로토콜 스택(protocol stack)이고, 제어 평면은 제어신호 전송을 위한 프로토콜 스택이다.
도 3(a) 및 A3을 참조하면, 물리 계층(physical layer)은 물리 채널을 이용하여 상위 계층에게 정보 전송 서비스를 제공한다. 물리 계층은 상위 계층인 MAC(Medium Access Control) 계층과는 전송 채널(transport channel)을 통해 연결되어 있다. 전송 채널을 통해 MAC 계층과 물리 계층 사이로 데이터가 이동한다. 전송 채널은 무선 인터페이스를 통해 데이터가 어떻게 어떤 특징으로 전송되는가에 따라 분류된다.
서로 다른 물리계층 사이, 즉 송신기와 수신기의 물리 계층 사이는 물리 채널을 통해 데이터가 이동한다. 상기 물리 채널은 OFDM(Orthogonal Frequency Division Multiplexing) 방식으로 변조될 수 있고, 시간과 주파수를 무선 자원으로 활용한다.
MAC 계층은 논리 채널(logical channel)을 통해 상위 계층인 RLC(radio link control) 계층에게 서비스를 제공한다. MAC 계층은 복수의 논리 채널에서 복수의 전송 채널로의 맵핑 기능을 제공한다. 또한, MAC 계층은 복수의 논리 채널에서 단수의 전송 채널로의 맵핑에 의한 논리 채널 다중화 기능을 제공한다. MAC 부 계층은 논리 채널상의 데이터 전송 서비스를 제공한다.
RLC 계층은 RLC SDU(Serving Data Unit)의 연결(concatenation), 분할(segmentation) 및 재결합(reassembly)을 수행한다. 무선 베어러(Radio Bearer, RB)가 요구하는 다양한 QoS(Quality of Service)를 보장하기 위해, RLC 계층은 투명모드(Transparent Mode, TM), 비확인 모드(Unacknowledged Mode, UM) 및 확인모드(Acknowledged Mode, AM)의 세 가지의 동작모드를 제공한다. AM RLC는 ARQ(automatic repeat request)를 통해 오류 정정을 제공한다.
RRC(Radio Resource Control) 계층은 제어 평면에서만 정의된다. RRC 계층은 무선 베어러들의 설정(configuration), 재설정(re-configuration) 및 해제(release)와 관련되어 논리 채널, 전송 채널 및 물리 채널들의 제어를 담당한다. RB는 단말과 네트워크간의 데이터 전달을 위해 제 1 계층(physical 계층 또는 PHY 계층) 및 제 2 계층(MAC 계층, RLC 계층, PDCP(Packet Data Convergence Protocol) 계층)에 의해 제공되는 논리적 경로를 의미한다.
사용자 평면에서의 PDCP 계층의 기능은 사용자 데이터의 전달, 헤더 압축(header compression) 및 암호화(ciphering)를 포함한다. 제어 평면에서의 PDCP 계층의 기능은 제어 평면 데이터의 전달 및 암호화/무결성 보호(integrity protection)를 포함한다.
RB가 설정된다는 것은 특정 서비스를 제공하기 위해 무선 프로토콜 계층 및 채널의 특성을 규정하고, 각각의 구체적인 파라미터 및 동작 방법을 설정하는 과정을 의미한다. RB는 다시 SRB(Signaling Radio Bearer)와 DRB(Data Radio Bearer) 두 가지로 나누어 질 수 있다. SRB는 제어 평면에서 RRC 메시지를 전송하는 통로로 사용되며, DRB는 사용자 평면에서 사용자 데이터를 전송하는 통로로 사용된다.
단말의 RRC 계층과 E-UTRAN의 RRC 계층 사이에 RRC 연결(RRC connection)이 확립되면, 단말은 RRC_CONNECTED 상태에 있게 되고, 그렇지 못할 경우 RRC_IDLE 상태에 있게 된다. NR의 경우, RRC_INACTIVE 상태가 추가로 정의되었으며, RRC_INACTIVE 상태의 단말은 코어 네트워크와의 연결을 유지하는 반면 기지국과의 연결을 해지(release)할 수 있다.
네트워크에서 단말로 데이터를 전송하는 하향링크 전송 채널로는 시스템 정보를 전송하는 BCH(Broadcast Channel)과 그 이외에 사용자 트래픽이나 제어 메시지를 전송하는 하향링크 SCH(Shared Channel)이 있다. 하향링크 멀티캐스트 또는 브로드캐스트 서비스의 트래픽 또는 제어메시지의 경우 하향링크 SCH를 통해 전송될 수도 있고, 또는 별도의 하향링크 MCH(Multicast Channel)을 통해 전송될 수도 있다. 한편, 단말에서 네트워크로 데이터를 전송하는 상향링크 전송 채널로는 초기 제어메시지를 전송하는 RACH(Random Access Channel)와 그 이외에 사용자 트래픽이나 제어메시지를 전송하는 상향링크 SCH(Shared Channel)가 있다.
전송 채널 상위에 있으며, 전송 채널에 맵핑되는 논리 채널(Logical Channel)로는 BCCH(Broadcast Control Channel), PCCH(Paging Control Channel), CCCH(Common Control Channel), MCCH(Multicast Control Channel), MTCH(Multicast Traffic Channel) 등이 있다.
물리 채널(Physical Channel)은 시간 영역에서 여러 개의 OFDM 심벌과 주파수 영역에서 여러 개의 부반송파(sub-carrier)로 구성된다. 하나의 서브프레임(sub-frame)은 시간 영역에서 복수의 OFDM 심벌(symbol)들로 구성된다. 자원 블록은 자원 할당 단위로, 복수의 OFDM 심벌들과 복수의 부반송파(sub-carrier)들로 구성된다. 또한 각 서브프레임은 PDCCH(Physical Downlink Control Channel) 즉, L1/L2 제어 채널을 위해 해당 서브프레임의 특정 OFDM 심벌들(예, 첫 번째 OFDM 심볼)의 특정 부반송파들을 이용할 수 있다. TTI(Transmission Time Interval)는 서브프레임 전송의 단위시간이다.
도 4는 본 개시의 일 실시 예에 따른, NR 시스템의 구조를 나타낸다.
도 4를 참조하면, NG-RAN(Next Generation Radio Access Network)은 단말에게 사용자 평면 및 제어 평면 프로토콜 종단(termination)을 제공하는 gNB(next generation-Node B) 및/또는 eNB를 포함할 수 있다. 도 4에서는 gNB만을 포함하는 경우를 예시한다. gNB 및 eNB는 상호 간에 Xn 인터페이스로 연결되어 있다. gNB 및 eNB는 5세대 코어 네트워크(5G Core Network: 5GC)와 NG 인터페이스를 통해 연결되어 있다. 보다 구체적으로, AMF(access and mobility management function)과는 NG-C 인터페이스를 통해 연결되고, UPF(user plane function)과는 NG-U 인터페이스를 통해 연결된다.
도 5는 본 개시의 일 실시 예에 따른, NG-RAN과 5GC 간의 기능적 분할을 나타낸다.
도 5를 참조하면, gNB는 인터 셀 간의 무선 자원 관리(Inter Cell RRM), 무선 베어러 관리(RB control), 연결 이동성 제어(Connection Mobility Control), 무선 허용 제어(Radio Admission Control), 측정 설정 및 제공(Measurement configuration & Provision), 동적 자원 할당(dynamic resource allocation) 등의 기능을 제공할 수 있다. AMF는 NAS(Non Access Stratum) 보안, 아이들 상태 이동성 처리 등의 기능을 제공할 수 있다. UPF는 이동성 앵커링(Mobility Anchoring), PDU(Protocol Data Unit) 처리 등의 기능을 제공할 수 있다. SMF(Session Management Function)는 단말 IP(Internet Protocol) 주소 할당, PDU 세션 제어 등의 기능을 제공할 수 있다.
도 6은 본 발명이 적용될 수 있는 NR의 무선 프레임의 구조를 나타낸다.
도 6을 참조하면, NR에서 상향링크 및 하향링크 전송에서 무선 프레임을 사용할 수 있다. 무선 프레임은 10ms의 길이를 가지며, 2개의 5ms 하프-프레임(Half-Frame, HF)으로 정의될 수 있다. 하프-프레임은 5개의 1ms 서브프레임(Subframe, SF)을 포함할 수 있다. 서브프레임은 하나 이상의 슬롯으로 분할될 수 있으며, 서브프레임 내 슬롯 개수는 부반송파 간격(Subcarrier Spacing, SCS)에 따라 결정될 수 있다. 각 슬롯은 CP(cyclic prefix)에 따라 12개 또는 14개의 OFDM(A) 심볼을 포함할 수 있다.
노멀 CP(normal CP)가 사용되는 경우, 각 슬롯은 14개의 심볼을 포함할 수 있다. 확장 CP가 사용되는 경우, 각 슬롯은 12개의 심볼을 포함할 수 있다. 여기서, 심볼은 OFDM 심볼 (또는, CP-OFDM 심볼), SC-FDMA 심볼 (또는, DFT-s-OFDM 심볼)을 포함할 수 있다.
다음 표 1은 노멀 CP가 사용되는 경우, SCS 설정(μ)에 따라 슬롯 별 심볼의 개수(
Figure PCTKR2020007736-appb-img-000001
), 프레임 별 슬롯의 개수(
Figure PCTKR2020007736-appb-img-000002
)와 서브프레임 별 슬롯의 개수(
Figure PCTKR2020007736-appb-img-000003
)를 예시한다.
Figure PCTKR2020007736-appb-img-000004
표 2는 확장 CP가 사용되는 경우, SCS에 따라 슬롯 별 심볼의 개수, 프레임 별 슬롯의 개수와 서브프레임 별 슬롯의 개수를 예시한다.
Figure PCTKR2020007736-appb-img-000005
NR 시스템에서는 하나의 단말에게 병합되는 복수의 셀들간에 OFDM(A) 뉴머놀로지(numerology)(예, SCS, CP 길이 등)가 상이하게 설정될 수 있다. 이에 따라, 동일한 개수의 심볼로 구성된 시간 자원(예, 서브프레임, 슬롯 또는 TTI)(편의상, TU(Time Unit)로 통칭)의 (절대 시간) 구간이 병합된 셀들간에 상이하게 설정될 수 있다.
NR에서, 다양한 5G 서비스들을 지원하기 위한 다수의 뉴머놀로지(numerology) 또는 SCS가 지원될 수 있다. 예를 들어, SCS가 15kHz인 경우, 전통적인 셀룰러 밴드들에서의 넓은 영역(wide area)이 지원될 수 있고, SCS가 30kHz/60kHz인 경우, 밀집한-도시(dense-urban), 더 낮은 지연(lower latency) 및 더 넓은 캐리어 대역폭(wider carrier bandwidth)이 지원될 수 있다. SCS가 60kHz 또는 그보다 높은 경우, 위상 잡음(phase noise)을 극복하기 위해 24.25GHz보다 큰 대역폭이 지원될 수 있다.
NR 주파수 밴드(frequency band)는 두 가지 타입의 주파수 범위(frequency range)로 정의될 수 있다. 상기 두 가지 타입의 주파수 범위는 FR1 및 FR2일 수 있다. 주파수 범위의 수치는 변경될 수 있으며, 예를 들어, 상기 두 가지 타입의 주파수 범위는 하기 표 3과 같을 수 있다. NR 시스템에서 사용되는 주파수 범위 중 FR1은 “sub 6GHz range”를 의미할 수 있고, FR2는 “above 6GHz range”를 의미할 수 있고 밀리미터 웨이브(millimeter wave, mmW)로 불릴 수 있다.
Figure PCTKR2020007736-appb-img-000006
상술한 바와 같이, NR 시스템의 주파수 범위의 수치는 변경될 수 있다. 예를 들어, FR1은 하기 표 4와 같이 410MHz 내지 7125MHz의 대역을 포함할 수 있다. 즉, FR1은 6GHz (또는 5850, 5900, 5925 MHz 등) 이상의 주파수 대역을 포함할 수 있다. 예를 들어, FR1 내에서 포함되는 6GHz (또는 5850, 5900, 5925 MHz 등) 이상의 주파수 대역은 비면허 대역(unlicensed band)을 포함할 수 있다. 비면허 대역은 다양한 용도로 사용될 수 있고, 예를 들어 차량을 위한 통신(예를 들어, 자율주행)을 위해 사용될 수 있다.
Figure PCTKR2020007736-appb-img-000007
도 7은 본 개시의 일 실시 예에 따른, NR 프레임의 슬롯 구조를 나타낸다.
도 7을 참조하면, 슬롯은 시간 영역에서 복수의 심볼들을 포함한다. 예를 들어, 노멀 CP의 경우 하나의 슬롯이 14개의 심볼을 포함하나, 확장 CP의 경우 하나의 슬롯이 12개의 심볼을 포함할 수 있다. 또는 노멀 CP의 경우 하나의 슬롯이 7개의 심볼을 포함하나, 확장 CP의 경우 하나의 슬롯이 6개의 심볼을 포함할 수 있다.
반송파는 주파수 영역에서 복수의 부반송파들을 포함한다. RB(Resource Block)는 주파수 영역에서 복수(예를 들어, 12)의 연속한 부반송파로 정의될 수 있다. BWP(Bandwidth Part)는 주파수 영역에서 복수의 연속한 (P)RB((Physical) Resource Block)로 정의될 수 있으며, 하나의 뉴머놀로지(numerology)(예, SCS, CP 길이 등)에 대응될 수 있다. 반송파는 최대 N개(예를 들어, 5개)의 BWP를 포함할 수 있다. 데이터 통신은 활성화된 BWP를 통해서 수행될 수 있다. 각각의 요소는 자원 그리드에서 자원요소(Resource Element, RE)로 지칭될 수 있고, 하나의 복소 심볼이 맵핑될 수 있다.
한편, 단말과 단말 간 무선 인터페이스 또는 단말과 네트워크 간 무선 인터페이스는 L1 계층, L2 계층 및 L3 계층으로 구성될 수 있다. 본 개시의 다양한 실시 예에서, L1 계층은 물리(physical) 계층을 의미할 수 있다. 또한, 예를 들어, L2 계층은 MAC 계층, RLC 계층, PDCP 계층 및 SDAP 계층 중 적어도 하나를 의미할 수 있다. 또한, 예를 들어, L3 계층은 RRC 계층을 의미할 수 있다.
이하, V2X 또는 SL(sidelink) 통신에 대하여 설명한다.
한편, 도 8은 본 개시의 일 실시 예에 따른, 세 가지 캐스트 타입을 나타낸다.
구체적으로, 도 8의 (a)는 브로드캐스트 타입의 SL 통신을 나타내고, 도 8의 (b)는 유니캐스트 타입의 SL 통신을 나타내며, 도 8의 (c)는 그룹캐스트 타입의 SL 통신을 나타낸다. 유니캐스트 타입의 SL 통신의 경우, 단말은 다른 단말과 일 대 일 통신을 수행할 수 있다. 그룹캐스트 타입의 SL 통신의 경우, 단말은 자신이 속하는 그룹 내의 하나 이상의 단말과 SL 통신을 수행할 수 있다. 본 개시의 다양한 실시 예에서, SL 그룹캐스트 통신은 SL 멀티캐스트(multicast) 통신, SL 일 대 다(one-to-many) 통신 등으로 대체될 수 있다.
이하, CAM(Cooperative Awareness Message) 및 DENM(Decentralized Environmental Notification Message)에 대하여 설명한다.
차량간 통신에서는 주기적인 메시지(periodic message) 타입의 CAM, 이벤트 트리거 메시지(event triggered message) 타입의 DENM 등이 전송될 수 있다. CAM은 방향 및 속도와 같은 차량의 동적 상태 정보, 치수와 같은 차량 정적 데이터, 외부 조명 상태, 경로 내역 등 기본 차량 정보를 포함할 수 있다. CAM의 크기는 50-300 바이트일 수 있다. CAM은 방송되며, 지연(latency)은 100ms보다 작아야 한다. DENM은 차량의 고장, 사고 등의 돌발적인 상황 시 생성되는 메시지일 수 있다. DENM의 크기는 3000 바이트보다 작을 수 있으며, 전송 범위 내에 있는 모든 차량이 메시지를 수신할 수 있다. 이 때, DENM은 CAM 보다 높은 우선 순위를 가질 수 있다.
이하, 단말 사이의 RRC 연결 확립(connection establishment)에 대하여 설명한다.
V2X 또는 SL 통신을 위해, 전송 단말은 수신 단말과 (PC5) RRC 연결을 확립할 필요가 있을 수 있다. 예를 들어, 단말은 V2X-특정 SIB(V2X-specific SIB)을 획득할 수 있다. 상위 계층에 의해 V2X 또는 SL 통신을 전송하도록 설정된, 전송할 데이터를 가지는, 단말에 대하여, 적어도 상기 단말이 SL 통신을 위해 전송하도록 설정된 주파수가 V2X-특정 SIB에 포함되면, 해당 주파수에 대한 전송 자원 풀의 포함 없이, 상기 단말은 다른 단말과 RRC 연결을 확립할 수 있다. 예를 들어, 전송 단말과 수신 단말 사이에 RRC 연결이 확립되면, 전송 단말은 확립된 RRC 연결을 통해 수신 단말과 유니캐스트 통신을 수행할 수 있다.
단말들 사이에서 RRC 연결이 확립되면, 전송 단말은 RRC 메시지를 수신 단말에게 전송할 수 있다.
이하, HARQ(Hybrid Automatic Repeat Request) 절차에 대하여 설명한다.
통신의 신뢰성을 확보하기 위한 에러 보상 기법은 FEC(Forward Error Correction) 방식(scheme)과 ARQ(Automatic Repeat Request) 방식을 포함할 수 있다. FEC 방식에서는 정보 비트들에 여분의 에러 정정 코드를 추가시킴으로써, 수신단에서의 에러를 정정할 수 있다. FEC 방식은 시간 지연이 적고 송수신단 사이에 별도로 주고 받는 정보가 필요 없다는 장점이 있지만, 양호한 채널 환경에서 시스템 효율이 떨어지는 단점이 있다. ARQ 방식은 전송 신뢰성을 높일 수 있지만, 시간 지연이 생기게 되고 열악한 채널 환경에서 시스템 효율이 떨어지는 단점이 있다.
HARQ(Hybrid Automatic Repeat Request) 방식은 FEC와 ARQ를 결합한 것으로, 물리계층이 수신한 데이터가 복호할 수 없는 오류를 포함하는지 여부를 확인하고, 오류가 발생하면 재전송을 요구함으로써 성능을 높일 수 있다.
SL 유니캐스트 및 그룹캐스트의 경우, 물리 계층에서의 HARQ 피드백 및 HARQ 컴바이닝(combining)이 지원될 수 있다. 예를 들어, 수신 단말이 자원 할당 모드 1 또는 2로 동작하는 경우, 수신 단말은 PSSCH를 전송 단말로부터 수신할 수 있고, 수신 단말은 PSFCH(Physical Sidelink Feedback Channel)를 통해 SFCI(Sidelink Feedback Control Information) 포맷을 사용하여 PSSCH에 대한 HARQ 피드백을 전송 단말에게 전송할 수 있다.
예를 들어, SL HARQ 피드백은 유니캐스트에 대하여 인에이블될 수 있다. 이 경우, non-CBG(non-Code Block Group) 동작에서, 수신 단말이 상기 수신 단말을 타겟으로 하는 PSCCH를 디코딩하고, 및 수신 단말이 상기 PSCCH와 관련된 전송 블록을 성공적으로 디코딩하면, 수신 단말은 HARQ-ACK을 생성할 수 있다. 그리고, 수신 단말은 HARQ-ACK을 전송 단말에게 전송할 수 있다. 반면, 수신 단말이 상기 수신 단말을 타겟으로 하는 PSCCH를 디코딩한 이후에, 수신 단말이 상기 PSCCH와 관련된 전송 블록을 성공적으로 디코딩하지 못하면, 수신 단말은 HARQ-NACK을 생성할 수 있다. 그리고, 수신 단말은 HARQ-NACK을 전송 단말에게 전송할 수 있다.
예를 들어, SL HARQ 피드백은 그룹캐스트에 대하여 인에이블될 수 있다. 예를 들어, non-CBG 동작에서, 두 가지 HARQ 피드백 옵션이 그룹캐스트에 대하여 지원될 수 있다.
(1) 그룹캐스트 옵션 1: 수신 단말이 상기 수신 단말을 타겟으로 하는 PSCCH를 디코딩한 이후에, 수신 단말이 상기 PSCCH와 관련된 전송 블록의 디코딩에 실패하면, 수신 단말은 HARQ-NACK을 PSFCH를 통해 전송 단말에게 전송할 수 있다. 반면, 수신 단말이 상기 수신 단말을 타겟으로 하는 PSCCH를 디코딩하고, 및 수신 단말이 상기 PSCCH와 관련된 전송 블록을 성공적으로 디코딩하면, 수신 단말은 HARQ-ACK을 전송 단말에게 전송하지 않을 수 있다.
(2) 그룹캐스트 옵션 2: 수신 단말이 상기 수신 단말을 타겟으로 하는 PSCCH를 디코딩한 이후에, 수신 단말이 상기 PSCCH와 관련된 전송 블록의 디코딩에 실패하면, 수신 단말은 HARQ-NACK을 PSFCH를 통해 전송 단말에게 전송할 수 있다. 그리고, 수신 단말이 상기 수신 단말을 타겟으로 하는 PSCCH를 디코딩하고, 및 수신 단말이 상기 PSCCH와 관련된 전송 블록을 성공적으로 디코딩하면, 수신 단말은 HARQ-ACK을 PSFCH를 통해 전송 단말에게 전송할 수 있다.
예를 들어, 그룹캐스트 옵션 1이 SL HARQ 피드백에 사용되면, 그룹캐스트 통신을 수행하는 모든 단말은 PSFCH 자원을 공유할 수 있다. 예를 들어, 동일한 그룹에 속하는 단말은 동일한 PSFCH 자원을 이용하여 HARQ 피드백을 전송할 수 있다.
예를 들어, 그룹캐스트 옵션 2가 SL HARQ 피드백에 사용되면, 그룹캐스트 통신을 수행하는 각각의 단말은 HARQ 피드백 전송을 위해 서로 다른 PSFCH 자원을 사용할 수 있다. 예를 들어, 동일한 그룹에 속하는 단말은 서로 다른 PSFCH 자원을 이용하여 HARQ 피드백을 전송할 수 있다.
예를 들어, SL HARQ 피드백이 그룹캐스트에 대하여 인에이블될 때, 수신 단말은 TX-RX(Transmission-Reception) 거리 및/또는 RSRP를 기반으로 HARQ 피드백을 전송 단말에게 전송할지 여부를 결정할 수 있다.
예를 들어, 그룹캐스트 옵션 1에서 TX-RX 거리 기반 HARQ 피드백의 경우, TX-RX 거리가 통신 범위 요구 사항보다 작거나 같으면, 수신 단말은 PSSCH에 대한 HARQ 피드백을 전송 단말에게 전송할 수 있다. 반면, TX-RX 거리가 통신 범위 요구 사항보다 크면, 수신 단말은 PSSCH에 대한 HARQ 피드백을 전송 단말에게 전송하지 않을 수 있다. 예를 들어, 전송 단말은 상기 PSSCH와 관련된 SCI를 통해 상기 전송 단말의 위치를 수신 단말에게 알릴 수 있다. 예를 들어, 상기 PSSCH와 관련된 SCI는 제 2 SCI일 수 있다. 예를 들어, 수신 단말은 TX-RX 거리를 상기 수신 단말의 위치와 상기 전송 단말의 위치를 기반으로 추정 또는 획득할 수 있다. 예를 들어, 수신 단말은 PSSCH와 관련된 SCI를 디코딩하여, 상기 PSSCH에 사용되는 통신 범위 요구 사항을 알 수 있다.
예를 들어, 자원 할당 모드 1의 경우에, PSFCH 및 PSSCH 사이의 시간은 설정되거나, 미리 설정될 수 있다. 유니캐스트 및 그룹캐스트의 경우, SL 상에서 재전송이 필요하면, 이것은 PUCCH를 사용하는 커버리지 내의 단말에 의해 기지국에게 지시될 수 있다. 전송 단말은 HARQ ACK/NACK의 형태가 아닌 SR(Scheduling Request)/BSR(Buffer Status Report)과 같은 형태로 상기 전송 단말의 서빙 기지국에게 지시(indication)를 전송할 수도 있다. 또한, 기지국이 상기 지시를 수신하지 않더라도, 기지국은 SL 재전송 자원을 단말에게 스케줄링 할 수 있다. 예를 들어, 자원 할당 모드 2의 경우에, PSFCH 및 PSSCH 사이의 시간은 설정되거나, 미리 설정될 수 있다.
예를 들어, 캐리어에서 단말의 전송 관점에서, PSCCH/PSSCH와 PSFCH 사이의 TDM이 슬롯에서 SL를 위한 PSFCH 포맷에 대하여 허용될 수 있다. 예를 들어, 하나의 심볼을 가지는 시퀀스-기반 PSFCH 포맷이 지원될 수 있다. 여기서, 상기 하나의 심볼은 AGC 구간이 아닐 수 있다. 예를 들어, 상기 시퀀스-기반 PSFCH 포맷은 유니캐스트 및 그룹캐스트에 적용될 수 있다.
예를 들어, 자원 풀과 연관된 슬롯 내에서, PSFCH 자원은 N 슬롯 구간으로 주기적으로 설정되거나, 사전에 설정될 수 있다. 예를 들어, N은 1 이상의 하나 이상의 값으로 설정될 수 있다. 예를 들어, N은 1, 2 또는 4일 수 있다. 예를 들어, 특정 자원 풀에서의 전송에 대한 HARQ 피드백은 상기 특정 자원 풀 상의 PSFCH를 통해서만 전송될 수 있다.
예를 들어, 전송 단말이 슬롯 #X 내지 슬롯 #N에 걸쳐 PSSCH를 수신 단말에게 전송하는 경우, 수신 단말은 상기 PSSCH에 대한 HARQ 피드백을 슬롯 #(N + A)에서 전송 단말에게 전송할 수 있다. 예를 들어, 슬롯 #(N + A)은 PSFCH 자원을 포함할 수 있다. 여기서, 예를 들어, A는 K보다 크거나 같은 가장 작은 정수일 수 있다. 예를 들어, K는 논리적 슬롯의 개수일 수 있다. 이 경우, K는 자원 풀 내의 슬롯의 개수일 수 있다. 또는, 예를 들어, K는 물리적 슬롯의 개수일 수 있다. 이 경우, K는 자원 풀 내부 및 외부의 슬롯의 개수일 수 있다.
예를 들어, 전송 단말이 수신 단말에게 전송한 하나의 PSSCH에 대한 응답으로, 수신 단말이 PSFCH 자원 상에서 HARQ 피드백을 전송하는 경우, 수신 단말은 설정된 자원 풀 내에서 암시적 메커니즘을 기반으로 상기 PSFCH 자원의 주파수 영역(frequency domain) 및/또는 코드 영역(code domain)을 결정할 수 있다. 예를 들어, 수신 단말은 PSCCH/PSSCH/PSFCH와 관련된 슬롯 인덱스, PSCCH/PSSCH와 관련된 서브채널, 및/또는 그룹캐스트 옵션 2 기반의 HARQ 피드백을 위한 그룹에서 각각의 수신 단말을 구별하기 위한 식별자 중 적어도 어느 하나를 기반으로, PSFCH 자원의 주파수 영역 및/또는 코드 영역을 결정할 수 있다. 그리고/또는, 예를 들어, 수신 단말은 SL RSRP, SINR, L1 소스 ID, 및/또는 위치 정보 중 적어도 어느 하나를 기반으로, PSFCH 자원의 주파수 영역 및/또는 코드 영역을 결정할 수 있다.
예를 들어, 단말의 PSFCH를 통한 HARQ 피드백 전송과 PSFCH를 통한 HARQ 피드백 수신이 중첩되는 경우, 상기 단말은 우선 순위 규칙을 기반으로 PSFCH를 통한 HARQ 피드백 전송 또는 PSFCH를 통한 HARQ 피드백 수신 중 어느 하나를 선택할 수 있다. 예를 들어, 우선 순위 규칙은 관련 PSCCH/PSSCH의 최소 우선 순위 지시(priority indication)를 기반으로 할 수 있다.
예를 들어, 단말의 복수의 단말에 대한 PSFCH를 통한 HARQ 피드백 전송이 중첩되는 경우, 상기 단말은 우선 순위 규칙을 기반으로 특정 HARQ 피드백 전송을 선택할 수 있다. 예를 들어, 우선 순위 규칙은 관련 PSCCH/PSSCH의 최소 우선 순위 지시(priority indication)를 기반으로 할 수 있다.
이하, ITS(Intelligent Transport Systems)에 대하여 설명한다.
ITS란 교통수단 및 교통시설에 첨단기술을 접목하여 교통 정보 및 서비스를 제공함으로써 교통체계의 운영 및 관리를 자동화하고, 교통의 효율성과 안전성을 향상시키는 시스템이다. 예를 들면, 우리가 차량을 운행할 때 이용하는 하이패스 시스템, 대중교통을 탈 때 이용하는 버스도착안내 시스템, 및 교통상황에 따른 실시간 신호 제어 등이 ITS에 해당할 수 있다. 종래의 ITS는 주로 차량에 정보를 단방향으로 제공하는 교통관리중심의 시스템에 적용되었다.
기술의 발전에 따라, 차량과 차량, 차량과 인프라간 양방향으로 지속적으로 데이터를 공유하여 신속하고 능동적인 돌발상황 사전 대응 및 예방이 가능한 교통안전중심의 C-ITS(Cooperative ITS)이 발전하였다. C-ITS란 차량이 주행 중 다른 차량 또는 도로에 설치된 인프라와 통신하면서 주변 교통상황과 급정거, 낙하물 등의 위험정보를 실시간으로 확인 또는 경고하여 교통사고를 예방하는 시스템이다.
이하, ITS(Intelligent Transport System)를 위한 차량 통신에 대하여 설명한다.
V2X를 활용하는 ITS (Intelligent Transport System)는 주요하게 접속 계층 (Access layer), 네트워킹 및 트랜스포트 계층 (Network & Transport layer), 퍼실리티 계층 (Facilities layer), 애플리케이션 계층 (Application layer), 보안 (Security)과 관리 (Management)를 위한 엔터티 (Entity) 등으로 구성될 수 있다.
차량 통신은, 차량 간 통신 (V2V), 차량과 기지국 간 통신 (V2N, N2V), 차량과 RSU (Road-Side Unit) 간 통신(V2I, I2V), RSU 간 통신 (I2I), 차량과 사람 간 통신 (V2P, P2V), RSU와 사람 간 통신 (I2P, P2I) 등 다양한 시나리에 적용될 수 있다. 차량 통신의 주체가 되는 차량, 기지국, RSU, 사람 등은 ITS 스테이션(station)이라고 지칭된다.
이하, ITS 참조 구조에 대하여 설명한다.
도 9는 본 개시의 일 실시 예에 따른 ITS 참조 구조를 나타낸다.
도 9를 참조하면, 도 9는 ISO 21217/EN 302 665에서 정의한 ITS 스테이션 참조 구조 (ITS station reference architecture) 로서, 접속 계층, 네트워킹 및 트랜스포트 계층, 퍼실리티 계층과 보안과 관리를 위한 엔터티 및 최상위에는 어플리케이션 계층으로 구성되어 있으며, 기본적으로 계층 OSI (layered OSI) 모델을 따른다.
도 9의 OSI 모델을 기반한 ITS 스테이션 참조 구조 특징을 설명한다. ITS 스테이션의 접속 계층은 OSI 계층 1 (물리 계층)과 계층 2 (데이터 연결 계층)에 상응하며, ITS 스테이션의 네트워킹 및 트랜스포트 계층은 OSI 계층 3 (네트워크 계층)과 계층 4 (트랜스포트 계층)에 상응하고, ITS 스테이션의 퍼실리티 계층은 OSI 계층 5 (세션 계층), 계층 6 (프리젠테이션 계층) 및 계층 7 (애플리케이션 계층)에 상응한다.
ITS 스테이션의 최상위에 위치한 애플리케이션 계층은 use-case를 실제 구현하여 지원하는 기능을 수행하며 use-case에 따라 선택적으로 사용될 수 있다. 관리 엔터티는 ITS 스테이션의 커뮤니케이션 및 동작을 비롯한 모든 계층을 관리하는 역할을 수행한다. 보안 엔터티는 모든 계층에 대한 보안 서비스를 제공한다. ITS 스테이션의 각 계층은 상호 간 인터페이스를 통해 차량 통신을 통해 전송할 혹은 수신한 데이터 및 다양한 목적의 부가 정보들을 교환한다.
도 10은 본 개시의 일 실시예에 따른 ITS 스테이션 예시 구조이다.
도 10은 도 9에서 설명된 ITS 스테이션의 참조 구조를 기반으로 설계 및 적용 가능한 ITS 스테이션 예시 구조를 나타낸다.
그림 도9 구조의 주된 개념은 통신 네트워크로 구성된 두 개의 종단 차량/이용자 사이에서, 통신 처리를 각 계층이 가지고 있는 특별한 기능을 가지고 계층별로 나눌 수 있도록 하는 것이다. 즉, 차량 간 메시지가 생성되면, 차량 및 ITS 시스템 (또는 기타 ITS 관련 단말기/시스템)에서 한 계층씩 아래로 각 층을 통과하여 데이터가 전달되고, 다른 쪽에서는 메시지가 도착할 때 메시지를 받는 차량 또는 ITS (또는 기타 ITS 관련 단말기/시스템)는 한 계층씩 위로 통과하여 전달된다.
차량 통신 및 네트워크를 통한 ITS 시스템은, 다양한 use-case 지원을 위해 다양한 접속 기술, 네트워크 프로토콜, 통신 인터페이스 등을 고려하여 유기적으로 설계되며, 하기 기술된 각 계층의 역할 및 기능은 상황에 따라 변경될 수 있다. 다음은 퍼실리티 계층의 기능에 간략히 기술한다:
퍼실리티 계층은 상위 애플리케이션 계층에서 정의된 다양한 use-case를 효과적으로 실현할 수 있도록 지원하는 역할을 수행하며, 예로서 애플리케이션 서포트 (application support), 정보 서포트 (information support), 세션/커뮤니케이션 서포트 (session/communication support)를 수행한다.
도 11은 본 개시의 일 실시예에 따른 퍼실리티 계층의 예시 구조이다.
퍼실리티 계층은 기본적으로 OSI 모델의 상위 3개 계층 (예를 들면, 세션 계층, 프리젠테이션 계층, 애플리케이션 계층) 기능을 지원한다. 구체적으로는, ITS를 위해 도 11에서 보이듯이 애플리케이션 서포트, 정보 서포트, 세션/커뮤니케이션 서포트 등과 같은 퍼실리티를 제공한다. 여기서 퍼실리티는 기능 (functionality), 정보 (information), 데이터 (data)를 제공하는 컴포넌트 (component)를 의미한다.
- 애플리케이션 서포트 퍼실리티: ITS 애플리케이션의 동작을 (주로 ITS 용 메시지 생성 및 하위계층과의 송수신, 및 그에 대한 관리) 지원하는 퍼실리티로 CA (Cooperative Awareness) basic service, DEN (Decentralized Environmental Notification) basic service 등이 있다. 향후에는 CACC (Cooperative Adaptive Cruise Control), Platooning, VRU (Vulnerable Roadside User), CPS (Collective Perception Service) 등 새로운 서비스를 위한 퍼실리티 엔터티 및 관련된 메시지가 추가 정의될 수 있다.
- 정보 서포트 퍼실리티: 다양한 ITS 애플리케이션에 의해 사용될 공통된 데이터 정보나 데이터베이스를 제공하는 퍼실리티로 Local Dynamic Map (LDM) 등이 있다.
- 세션/커뮤니케이션 서포트 퍼실리티: 커뮤니케이션 및 세션 관리를 위한 서비스를 제공하는 퍼실리티로서 어드레싱 모드와 세션 서포트 등이 있다.
또한 퍼실리티는 공통 퍼실리티(common facilities)와 도메인 퍼실리티(domain facilities)로 나뉠 수 있다.
- 공통 퍼실리티: 다양한 ITS 애플리케이션과 ITS 스테이션 동작에 필요한 공통적 서비스나 기능을 제공하는 퍼실리티이며, 예로서 시간 관리, 위치 관리, 서비스 관리 등이 있다.
- 도메인 퍼실리티: 일부 (하나 또는 복수의) ITS 애플리케이션에만 필요한 특별한 서비스나 기능을 제공하는 퍼실리티이며, 예로서 도로 위험 경고 애플리케이션 (Road Hazard Warning applications (RHW))를 위한 DEN 베이직 서비스 등이 있다. 도메인 퍼실리티는 선택적 기능으로서 ITS 스테이션에 의해 지원되지 않으면 사용되지 않는다.
계층 관리 퍼실리티 계층의 운영 및 보안과 관련된 정보를 관리 및 서비스해 주는 역할을 수행하며, 관련정보는 MF (interface between management entity and facilities 계층) 와 SF (interface between security entity and facilities 계층) (또는 MF-SAP, SF-SAP)를 통해 양방향으로 전달 및 공유된다. 애플리케이션 계층에서 퍼실리티 계층으로의 요청 또는 퍼실리티 계층에서 애플리케이션 계층으로의 서비스 메시지 및 관련정보의 전달은 FA (또는 FA-SAP)를 통해 이루어지며, 퍼실리티 계층과 하위 네트워킹 및 트랜스포트 계층 간의 양방향 서비스 메시지 및 관련정보의 전달은 NF (네트워킹 및 트랜스포트 계층 과 퍼실리티 계층간의 인터페이스, 또는 NF-SAP)에 의해 이루어진다.
실시예
종래의 Day 1 기술에서는 주로 V2V 위주의 안전 지원 서비스가 지원되었다. 최근 Day 2에서는 인프라(infrastructure)를 이용한 서비스가 추가 되었으며, 안전뿐만 아니라 사용자 편의를 제공해주는 서비스가 개발 되고 있다. 하지만 Day2 기술 조차 I2V 서비스에 국한 되어 있으며, 미리 설정된 안전 경보 정보를 차량에 방송(Broadcast) 하는 것에 국한되어 있다. Day2 에서 개발 되고 있는 공사장 안내 기술은 미리 설정된 공사장 정보 (예를 들어, 공사명, 공사기간, 공사영역, 또는 공사장 특성)가 공사장 주변에 설치된 V2X 장치를 통해 차량(Vehicle) 에 전달 되는 단순한 서비스에 그치고 있다. 이 경우 공사장 영역을 정확히 표현하지 못하는 단점이 있을 뿐만 아니라, 도로 차선 도색과 같은 유동적으로 변화하는 공사장 영역에 대응하기 어려움이 있다.
실제 기존의 도로를 점유하고 공사 및 작업을 하는 경우, 주변을 주행하는 차량들의 안전을 위해 라바콘이나 입간판과 같은 안내판을 통해 차량의 서행을 유도하고 있다. 최근 V2X 기술이 개발 되면서 V2X 수신기를 장착하고 있는 차량들이 먼 거리에서도 미리 공사장 정보를 획득할 수 있도록 하는 장치들 및 표준이 개발되고 있다. 이를 위해서는 공사장의 위치와 기간 등을 미리 정의하여 세팅한 후 V2X 장치에서 CAM(Cooperative Awareness Message) 또는 BSM(Basic Safety Message) 등과 와 같은 메시지에 공사장 정보를 삽입하여 전송하게 된다.
도 12는 일반적인 공사장 정보 전송 방법을 설명하기 위한 도면이다.
도 12를 참조하면, 차량들의 안전을 위해 공사장 주변을 따라 공사장 영역을 표시하는 라바콘(101) 등이 설치될 수 있다. 또한, 라바콘은 통신 시스템이 장착되어 주변 차량들과 V2X 통신을 수행할 수 있는 노변기지국(Road Side Unit, RSU)으로 동작할 수 있다. 일반적으로 RSU는 공사장의 위치 또는 기간 정보를 포함하는 공사장 정보를 CAM 또는 BSM 등과 같은 메시지를 통하여 주변 차량에게 전송할 수 있다. 이러한 공사장 정보는 미리 정의되어 세팅되므로 실제 공사장 영역이 변경되어 RSU의 위치가 변경되더라도 RSU는 처음 세팅된 공사장 정보만을 주변 차량에게 전송할 수 있다.
도 12의 (a)를 참조하면, 일반적으로 종래의 공사장 정보는 차선 단위로 표시될 수 있다. 그러나 실제의 공사장 영역은 차선 단위가 아닌 차선의 일부 영역에 해당하기 때문에 실제 공사장 영역과 공사장 정보에 포함된 공사장 영역이 정확히 일치하지 않는 문제가 발생할 수 있다.
도 12의 (b)를 참조하면, 일반적으로 종래의 공사장 정보는 공사장의 위치와 기간 등을 미리 정의하여 세팅된다. 따라서, 차선 도색과 같이 도로를 따라 진행하며 작업을 하는 경우, 시간이 지남에 따라 실제 공사장의 위치와 V2X를 통해 전송되는 공사장 정보의 위치가 어긋나는 문제가 발생할 수 있다. 이처럼 기존의 공사장 정보 전송 방법은 실시간으로 정확한 공사장의 위치를 표시하지 못하는 문제가 발생할 수 있다.
이러한 문제점을 해결하기 위하여 RSU는 다른 RSU와 I2I 통신을 이용하여 세팅 메시지와 이벤트 메시지를 공유하는 방법이 제안된다. 따라서, RSU는 실시간으로 공사장 영역에 대한 정보를 획득하고, 공사장 영역에서 발생하는 위험 정보를 획득할 수 있다. 그러나 이러한 기술을 위하여 RSU는 위치 측정을 위한 GPS 기능과 고기능의 프로세서를 장착하여야 한다. 전체 공사장 영역에는 다수 개의 RSU 장치가 설치되어야 하므로 비용이 증가할 수 있다. 따라서, RSU의 구조를 최소화하여 설치 비용을 줄이고 다수 개의 RSU을 통합하여 관리할 수 있는 시스템이 필요하다.
상술한 바와 같이 실시간으로 변동하는 공사장 영역을 보다 정확하게 안내하기 위하여 공사장 영역에 대한 정보를 미리 설정하는 것이 아니라 V2X 장치 또는 RSU들의 I2I 통신을 이용하여 공사장 영역을 실시간 자동적으로 설정 하게 된다. 초기 설치 동작에서는 V2X 장치를 이용해 I2I 통신을 이용하여 공사장 영역 설정을 하게 된다. 이를 위해서 모든 V2X 장치들이 자신의 위치 정보를 획득하여 서로 공유한다. 따라서 모든 V2X 장치들은 GPS 수신기가 장착 되어 있어야 되며, 세팅을 위해 장치 마다 사용자 인터페이스를 장착하고 있어야 한다. 이를 구현하기 위하여 V2X 장치의 생산 비용이 증가하게 된다. 공사장 영역에는 많은 수의 공사장 안내장치(RSU) 가 필요하므로 장치의 간소화가 필요하다.
본 명세서에서는 공사장 영역에 하나 이상으로 설치되는 RSU의 간소화 방법을 제안하고 이를 지원하기 위한 전용 보조 장치(Handheld device; Smart phone)의 구조와 두 장치의 협력 통신 기법을 설명한다.
[공사장 안내 시스템]
도 13은 본 명세서의 실시예(들)에 따른 공사장 안내 시스템을 설명하기 위한 도면이다.
도 13을 참조하면, 공사장 안내 시스템은 전용 보조 장치(100), 기지국(210), 소프트 V2X 서버(220), 공사장 안내 장치(310, 320, 330, 340, 350) 등으로 구성될 수 있다.
공사장 안내 장치(310, 320, 330, 340, 350)는 공사장 영역 주변을 따라 설치될 수 있다. 공사장 안내 장치는 서로 위치를 공유하여 공사장 영역에 관한 정보를 생성할 수 있으며, 충격 감지 센서가 장착되어 사고 발생을 감지할 수 있다. 또한, 공사장 안내 장치는 공사장 관련 정보를 주변 차량들에게 전송하는 서비스를 제공할 수 있다. 공사장 영역을 실시간으로 측정하여 정확한 공사장 안내 서비스를 제공하기 위하여, 각 공사장 안내 장치는 자신의 위치를 획득하여 다른 공사장 안내 장치들과 공유하여야 한다. 이를 위하여 각 공사장 안내 장치마다 GPS 장치를 설치하는 경우, 설치 비용이 증가하는 단점이 있을 수 있다. 따라서 본 명세서에서는 공사장 안내 장치의 구조를 단순화하여 비용을 절감하고 쉽게 설치할 수 있도록 하였다. 이하의 설명에서 공사장 안내 장치는 V2X 장치, RSU, 인프라(infrastructure), 디바이스 등의 용어를 사용하여 설명될 수 있다
전용 보조 장치(100)는 간소화된 공사장 안내 장치를 보조하고 관리하기 위한 장치이다. 전용 보조 장치는 휴대폰 등에 설치된 어플리케이션을 이용하여 구현될 수 있다. 사용자 또는 공사장 인부는 전용 보조 장치를 이용하여 각 공사장 안내 장치의 위치를 각 공사장 안내 장치에 전송할 수 있다. 이하에서 전용 보조 장치는 전용 장치, 관리 보조 장치, 보조 장치, 휴대 장치, 단말 등의 용어를 이용하여 설명될 수 있다.
기지국(210)은 전용 보조 장치와 Uu통신을 수행할 수 있다. 또한, 소프트V2X 서버는 기지국으로부터 공사장 관련 정보를 수신하고, 공사장 안내 서비스를 제공할 수 있다.
도 13은 공사장 인부가 공사장 안내 장치를 설치하는 방법을 나타낸다. 공사장 인부는 간소화된 V2X 장치가 장착된 공사장 안내 장치 (310~350; 디바이스 1~5)를 설치 할 때 전용 보조 장치를 이용할 수 있다. 예를 들어, 공사장 인부가 공사장 안내 장치(340, 디바이스 4)를 설치하는 경우, 전용 보조 장치를 이용하여 공사장 안내 장치(340; RSU, 디바이스 4)의 QR 코드를 카메라를 통해 인식할 수 있다. 그리고 전용 보조 장치는 GNSS 수신기를 이용해 획득한 GPS 위치 정보와 공사장 공통 정보를 공사장 안내 장치(340, 디바이스 4)에게 전송할 수 있다. 공사장 공통 정보는 SoftV2X 서버(220)에서 기존 셀룰러 네트워크의 기지국(210)을 통해 미리 수신 받은 정보일 수 있으며, 공사 기간, 종류 등의 정보일 수 있다. 그리고 공사장 인부는 전용 보조 장치의 화면에서 세트 버튼을 입력하여 디바이스 4를 세트 모드로 설정할 수 있다. 공사장 인부는 동일한 방식으로 모든 공사장 안내 장치들의 설정을 진행할 수 있다.
도 14는 본 명세서의 실시예(들)에 따른 공사장 안내 장치의 설치 완료 후 공사장 안내 시스템을 시작하는 방법을 설명하기 위한 도면이다.
공사장 인부는 각 공사장 안내 장치의 설치를 완료한 후, 전용 보조 장치를 이용하여 공사장 안내 시스템을 가동시킬 수 있다. 예를 들어, 공사장 인부가 전용 보조 장치의 시작 버튼을 입력하면, 전용 보조 장치는 PC5 통신을 통해 주변 디바이스에 시작을 알리는 세팅 정보와 같이 측정된 모든 디바이스의 위치 정보를 이용해 공사장 영역 정보를 전송하게 된다. 공사장 영역 정보는 각 공사장 안내 장치의 위치 리스트로 구성될 수 있다. 또한, 전용 보조 장치에 장착된 UU 인터페이스 모뎀을 이용하여 기지국으로 최종적인 공사장 영역 정보를 같이 전송하여 해당 신호를 공사장 총괄 센터나 교통안내 시스템, 또는 소프트 V2X 서버에 전달할 수 있다.
도 15는 본 명세서의 실시예(들)에 따른 공사장 안내 시스템을 나타낸다.
세팅이 완료 되면 실제 공사장 경계에 설치한 공사장 안내 장치를 기반으로 정확한 공사장 영역 정보를 획득할 수 있다. 공사장 안내 장치(310~350)는 직접(Direct) 통신을 사용하는 I2I 통신을 이용하여 위치 리스트(PositionList)를 서로 공유 할 수 있다. 그리고 전용 보조 장치는 Uu 인터페이스를 통해 소프트 V2X서버(220)에 위치 리스트를 업로드 할 수 있다. 따라서, 공사장 안내 장치, 전용 보조 장치, 소프트 V2X 서버는 실시간 공사장 영역 정보를 획득할 수 있다. 해당 정보를 이용하여 공사장 안내 장치 (310~350) 는 I2V 통신을 통해 주변 ITS-차량(400) 에게 전달 할 수 있으며, SoftV2X 서버(220) 은 기지국(210)을 통해 SoftV2X 차량에게 공사장 정보를 전달하여 운전자의 안전을 제공할 수 있다.
[메시지 프로토콜]
도 16은 초기 설정 시 장치 별 메시지 전달 방식을 나타내는 프로토콜을 설명하기 위한 도면이다.
공사장 안내 장치를 설치 할 때 전용 보조 장치를 통해 공사장 전반적인 정보를 설정하게 된다. 만약 공사장 안내 시스템을 컨트롤하는 소프트 V2X 서버가 있는 경우, 전용 보조 장치는 UU 인터페이스의 UL 통신을 통하여 소프트 V2X 서버에 공사장 기본 정보를 요청할 수 있다. 그리고 이후 소프트 V2X 서버는 기지국을 통해 해당 전용 보조 장치에게 공사장 기본 정보를 UU 인터페이스의 DL 통신을 통해 공사장 정보를 알려주게 된다.
이후, 전용 보조 장치를 이용하여 공사장 안내 장치가 하나씩 설치된다. 설치 시, 전용 보조 장치는 외부 입력 장치 (예를 들어, 카메라, 바코드 입력기, 시리얼 넘버 입력 등) 를 통해 공사장 안내 장치(RSU)의 고유 정보를 획득하고 GNSS 장치를 이용해 획득한 공사장 안내 장치의 위치 정보를 해당 디바이스에 전달하여 자신의 위치를 알려주게 된다. 뿐만 아니라, 미리 설정된 공사장 기본 정보를 같이 전송하여 추후 서비스를 위해 사용할 메시지를 구성할 때 사용하게 한다. 이때 사용하는 통신은 전용 보조 장치에 장착된 직접(Direct) 통신 장치를 사용한다. 공사장 관리자는 공사장 경계에 설치된 모든 공사장 안내 장치를 같은 방식으로 설치할 수 있다.
다시 설명하자면, 전용 보조 장치는 소프트 V2X 서버에 공사장 공통 정보를 요청하여 이를 수신할 수 있다. 공사장 공통 정보는 공사 종류, 공사 기간, 지역 등의 공사장 관련 정보를 의미할 수 있다. 그리고 소프트 V2X 서버는 공사장 관리 시스템을 전반적으로 관리하는 서버일 수 있으며, 기지국을 통해 전용 보조 장치, 또는 차량들과 통신할 수 있다.
그리고 공사장 인부(사용자)는 각 공사장 안내 장치를 원하는 위치에 설치하고, 전용 보조 장치를 이용하여 각 공사장 안내 장치의 위치를 획득하여 각 공사장 안내 장치에게 전송할 수 있다. 이 때, 전용 보조 장치는 공사장 안내 장치의 위치와 함께 V2X 서버로부터 수신한 공사장 공통 정보를 함께 전송할 수 있다.
또한, 공사장 인부(사용자)가 전용 보조 장치의 시작 버튼을 누르면, 모든 공사장 안내 장치의 위치 리스트를 각 공사장 안내 장치 및/또는 소프트 V2X 서버에 전송할 수 있다. 그리고 위치 리스트를 수신한 공사장 안내 장치는 I2I 통신을 이용하여 다른 공사장 안내 장치에 위치 리스트를 전송할 수 있다. 이 때, 타임아웃이 설정되어, 각 공사장 안내 장치는 타임아웃 기간이 경과하기 전까지 위치 리스트를 서로 전송할 수 있다.
도 17은 전용 보조 장치의 시작 버튼을 입력한 이후의 동작을 설명하기 위한 도면이다.
모든 세팅이 완료 되면 전용 보조 장치의 시작 버튼을 통해 전체 시스템을 구동시킬 수 있다. 이때 전용 보조 장치는 모든 공사장 안내 장치에서 수집된 위치 정보를 이용하여 공사장 영역을 표시하게 되고 이 정보를 주변 공사장 안내 장치에 전달하여 모든 공사장 안내 장치들이 전체 공사장 영역을 서비스 하게 된다. 각 장치들은 PC5 인터페이스를 이용하는 I2I 통신을 통해 위치 리스트('PositionList') 값을 전체적으로 공유 하고 이후 일정 시간이 지난 후 (time out 발생 시) 각각의 장치들은 주변을 주행 중인 차량들에게 안전(safety) 서비스를 제공할 수 있다. 이외에도 전용 보조 장치는 uu 인터페이스를 통해 위치 리스트('PositionList') 값을 업로드 하게 된다. 이를 통해 네트워크 또한 실시간으로 측정된 공사장 영역을 수신하게 되고 이를 이용하여 UU 인터페이스의 DL 통신을 통해 차량에 직접적으로 공사장 안내 서비스를 할 수 있다.
전용 장치를 이용하여 설정이 완료 되면, 소프트 V2X 서버와 공사장안내 장치(RSU)들은 각각 자신의 통신 방식을 이용하여 주변을 주행하는 차량에 공사장 안내 서비스를 제공할 수 있다. 공사장 안내 장치(RSU) 들은 C-V2X PC5 통신이나 DSRC 통신을 이용하여 주변의 차량에게 브로드캐스트 방식을 통해 안전 메시지(Safety message)를 전송 할 수 있다. 한편, 소프트 V2X 서버는 위치 리스트를 획득하게 되면 종래의 공사장 정보 (Workzone info.) 와 RSU 설치 정보 (PositionList) 를 이용하여 공사장 안내 서비스를 제공할 수 있다. Uu 인터페이스 특성상 안전 메시지는 프로드캐스트를 통해 가입자 모두에게 제공 되거나, 유니캐스트 방식을 통해 차량의 요청(Safety service request message) 에 의하여 안전 메시지를 제공할 수 있다.
다시 설명하자면, 전용 보조 장치는 시작 버튼이 입력되는 경우, 공사장 안내 장치의 위치 리스트를 주변의 공사장 안내 장치에게 전송할 수 있다. 각 공사장 안내 장치들은 타임아웃 기간이 경과하기 전까지 주변의 공사장 안내 장치들에게 I2I 통신을 이용하여 위치 리스트를 전송할 수 있다. 그리고 타임 아웃 기간이 경과하면, 각 공사장 안내 장치들은 주변의 차량들에게 I2V 통신을 이용하여 안전 메시지를 전송할 수 있다. 안전 메시지에는 공사장 공통 정보, 공사장 영역 정보 (위치 리스트) 등이 포함될 수 있다. 또한, 전용 보조 장치는 시작 버튼이 입력되는 경우, 공사장 안내 장치의 위치 리스트를 기지국을 통해 소프트 V2X 서버에 전송할 수 있다. 소프트 V2X는 위치 리스트를 수신하여 실시간으로 변동되는 공사장 영역에 대한 정보를 획득할 수 있다. 그리고 소프트 V2X 서버는 기지국을 통해 차량들에게 안전 메시지를 전송할 수 있다.
도 18은 본 명세서의 실시예(들)에 따른 메시지 구조를 나타낸다.
도 18을 참조하면, 통신 프로토콜을 달성하기 위해 퍼실리티 계층에서 사용되는 메시지셋의 구조를 나타내는 그림이다.
도 18의 (a)는 전용 보조 장치가 초기 설정을 위해 사용하는 메시지이며, 헤더(Header), 공사장 영역 컨테이너 (Workzone Container), 세팅 컨테이너 (setting container), 및 이벤트 컨테이너 (Event container) 로 구성될 수 있다. 도 18의 (b)는 전용 보조 장치가 초기 설정을 위해 사용하는 메시지의 구성을 나타낸다. 메시지는 시퀀스로 정의되며, 헤더, 공사장 영역 컨테이너, 세팅 컨테이너, 및 이벤트 컨테이너를 구성으로 할 수 있으며, 세팅 컨테이너와 이벤트 컨테이너는 옵셔널(Optional) 구성일 수 있다.
도 19는 각 메시지 구성을 나타낸다.
도 19의 (a)는 공사장 영역 컨테이너 (Workzone Container)의 구성을 나타낸다. 공사장 영역 컨테이너는 시퀀스로 정의 되며, 공사장 ID (WorkzoneID), 공사장 타입 (workzoneType), 공사 기간 시작 (workPeriodStart), 공사 기간 종료 (workPeriodEnd), 공사장 레벨 (workzoneLevel)로 구성될 수 있다. 공사장 ID는 정수 (16bit) 로 정의되며 랜덤 값으로 설정되어 공사장에게 고유한 값을 줄 수 있다. 해당 값은 운용이나 사고 관리 등 공사장 관리에 사용되며 해당 공사장에 설치된 공사장 안내 장치 (RSU) 들은 모두 같은 값의 ID 를 가질 수 있다.
도 19의 (b)는 공사장 타입의 구성을 나타낸다. 공사장 타입 (WorkzoneType) 은 DE_workzoneType 으로 정의될 수 있다. DE_workzoneType 은 정수로 정의될 수 있으며 각각의 숫자에 맞춰 값이 상황이 설정 되어 있을 수 있다. 예를 들어, 정수의 값이 0인경우, 'Unknown' 상황을 의미하며, 1은 도로포장을 의미하며, 2는 도로 도색 작업중을 의미하며, 3은 도로 청소 중, 4는 도로 수리 중을 의미할 수 있다. 그리고 도로 작업의 기간을 알려주기 위해 작업 시작과 종료 시간을 '공사 기간 시작' (workPeriodStart)과 '공사 기간 종료' (workPeriodEnd)를 통해 표시할 수 있다. 그리고 공사장 레벨 (WorkZoneLevel)은 도로 상태를 정수(1~10)로 표현하며 상태의 경중에 따라 낮으면 1로 설정하며 중하면 10을 표시할 수 있다.
공사 기간 시작 (WorkPeriodStart)과 공사 기간 종료 (WorkPeroidEnd)는 공사의 시작과 끝 시간을 나타낼 수 있다. 데이터 타입은 SAE J2735 의 DE_TimeStamplts 를 사용한다. 그리고 공사장의 위험 레벨을 알려주기 위해 정수로 구성된 공사장 레벨 (WorkZoneLevel)을 이용하여 1에서 5까지 경중을 표현한다. 숫자가 높을수록 위험도가 높아진다. 만약 '0'인 경우는 Unknow 으로 정의 한다. 마지막으로 본 명세서에서 제안한 실시간 공사장 측정을 위해 사용한 위치 리스트(PositionList) 값을 “WorkZonePosition”필드를 통해 표현하게 된다.
도 19의 (c)는 세팅 컨테이너의 구성을 나타낸다. 세팅 컨테이너(SettingContainer)는 I2I 통신을 통해 인프라(Infrastructure) 구성을 위해 사용되는 메시지 컨테이너이다. 세팅 컨테이너는 세팅 타입 (SettingType), 타임아웃 값 (TimeOutValue), 세팅을 위해 사용되는 Data 값으로 구성될 수 있다. 본 명세서에서 사용하는 데이터는 공사장 영역을 정확히 표현하기 위해 포인트 위치 (PointPosition)와 포인트 위치 리스트 (PointPositionList)로 구성될 수 있다. 세팅 타입 (SettingType)은 어떤 세팅 상태인지를 나타내는 컨트롤 신호로 정수 (4bit, 1~16)로 정의 될 수 있다. 예를 들어, 1인 경우 세트 상태를 의미하고, 2인 경우 시작 상태를 의미하고, 3인 경우 종료 상태를 의미할 수 있다. 타임아웃 값 (TimeOutValue)은 해당 타임아웃 시간을 정의하는 값을 의미하며, 정수 (16bit, 1~ 65536)값을 가지며 단위는 초(Sec) 일 수 있다. 예를 들어, 타임아웃 값이 10으로 값이 설정 된 경우, 10초 후에 타임아웃이 실행된다는 것을 의미할 수 있다. 포인트 포지션은 인프라(Infrastructure) 자신의 위치를 정의하는 필드로 종래의 DF_ReferencePosition [1] 형식을 이용할 수 있다. 포인트 포지션 리스트는 주변 디바이스의 포인트 포지션을 수집한 데이터들일 수 있다. 포인트 포지션 리스트는 시퀀스로 표현될 수 있으며, 최대 100개의 값을 가질 수 있다. 각각의 데이터는 포인트 포지션과 같이 DE_Position 형식을 가질 수 있다.
예를 들어, 세팅 컨테이너의 세팅 타입이 세팅 모드를 지시하는 경우, 세팅 컨테이너는 공사장 안내 장치의 위치 정보, 즉, 포인트 위치 (PointPosition)를 포함할 수 있다. 그리고 세팅 컨테이너의 세팅 타입이 시작 모드를 지시하는 경우, 세팅 컨테이너는 공사장 안내 장치의 위치 정보들을 취합한 위치 리스트, 즉, 포인트 위치 리스트 (PointPositionList)를 포함할 수 있다.
도 20은 소프트 V2X 통신을 위한 메시지 구조들을 나타낸다.
도 20의 (a) 및 (b)는 소프트 V2X 통신을 위한 퍼실리티 계층 (Facility layer) 에서 사용되는 메시지 구성을 나타낸다. 소프트 V2X 서버는 초기 설정을 위해 전용 보조 장치와 통신을 하고 이후 SoftV2X 차량에 안전 메시지를 제공할 수 있다. 소프트 V2X 통신을 위한 메시지는 헤더 (Header), 공사장 영역 컨테이너 (Workzone Container), 세팅 컨테이너 (setting container), 및 이벤트 컨테이너 (Event container)로 구성될 수 있다.
도 20의 (c)는 소프트 V2X 통신을 위한 메시지의 헤더 구성을 나타낸다. 소프트 V2X 통신을 위한 헤더는 종래의 ITS와 다른 구성을 가진다. 소프트 V2X 통신을 위한 헤더 장치를 구별하기 위해 스테이션 ID (StationID), 메시지 타입을 구별하기 위한 메시지 타입(messageType), 메시지 생성 시간(MessageGenTime), 메시지의 경중을 나타내는 메시지 긴급 레벨 (MessageEmergencyLevel), 및 스테이션이 이동체인 경우 자신의 위치를 알려주는 스테이션 위치 (StationPosition)로 구성될 수 있다. 그리고 공사장 영역 컨테이너 (WorkZone Container)와 세팅 컨테이너 (Setting Container), 및 이벤트 컨테이너 (Event Container)는 상술한 직접 통신에서 설명한 것과 동일할 수 있다.
도 21은 메시지 타입별 소프트 v2x 메시지의 구조를 나타낸다.
소프트 V2X 통신은 Uu 인터페이스를 통해 통신을 하여 상황에 맞게 메시지가 구성된다. 예를 들어 메시지 타입이 세팅 요청(setting request (000)) 인 경우, 메시지는 데이터 없이 헤더로만 구성될 수 있다. 그리고 메시지 타입이 세팅 ACK (setting Ack (001)) 인 경우, 메시지는 헤더, 및 공사장 영역 컨테이너로 구성될 수 있다. 공사장 영역 컨테이너는 SoftV2X 서버에서 관리하는 공사장 공통 정보일 수 있다. 그리고 메시지 타입이 세팅 (setting (010)) 인 경우, 메시지는 헤더, 및 세팅 컨테이너로 구성될 수 있다. 세팅 컨테이너는 실시간 측정된 공사장 영역 정보 (PositionList)를 포함할 수 있다. 또한, 메시지 타입이 서비스 요청 (service request (100)) 인 경우, 메시지는 데이터 없이 헤더로만 구성될 수 있다. 서비스 요청 메시지는 소프트 V2X 차량이 소프트 V2X 서버로 서비스 요청을 하는데 이용될 수 있다. 마지막으로, 메시지 타입이 안전 서비스 (Safety service (101)) 인 경우, 메시지는 헤더 및 공사장 영역 컨테이너를 포함할 수 있으며, 공사장 영역 컨테이너는 위치 리스트가 포함될 수 있다.
도 22는 전용 보조 장치의 구조를 나타내는 도면이다.
도 22의 (a)는 전용 보조 장치의 외관 형태를 예시한다. 전용 보조 장치는 터치가 가능한 디스플레이(170)와 QR 코드를 인지할 수 있는 카메라(180)로 구성될 수 있다. 도 22의 (b)는 전용 보조 장치의 구성을 예시한다. 전용 보조 장치는 직접 통신(PC5, or DSRC) 을 할 수 있는 RF 안테나(131)와 라디오 모뎀 (132)을 포함할 수 있다. 그리고 전용 보조 장치는 기지국과 셀룰러 통신(UU interface)을 할 수 있는 RF 안테나(121)와 라디오 모뎀 (122)을 포함할 수 있다. 그리고 전용 보조 장치는 위치정보를 획득할 수 있는 GNSS 안테나(111)와 GNSS 수신기(112)를 포함할 수 있다. 그리고 전용 보조 장치는 V2X 통신을 할 수 있는 V2X 프로세서(140), 공사장 안내 서비스가 프로그램 되어 있는 애플리케이션 ECU(150), 및 버튼을 입력하거나 디스플레이를 통해 상태를 확인할 수 있는 휴먼 인터페이스(160) 블록으로 구성될 수 있다.
도 23은 공사장 안내 장치의 구조를 나타낸다.
도 23의 (a)를 참조하면, 공사장 안내 장치는 장치의 고유 식별을 위한 QR코드(360)를 포함할 수 있다. 전용 보조 장치는 QR 코드를 인식하여 각 공사장 안내 장치를 구별할 수 있다.
도 23의 (b)를 참조하면, 공사장 안내 장치는 통신(PC5 interface only)을 할 수 있는 RF 안테나(310), 라디오 모뎀(320), V2X 통신을 할 수 있는 V2X 프로세서(330), 공사장 안내 서비스가 프로그램 되어 있는 애플리케이션 ECU(340), 및 외부 충격 감지를 할 수 있는 센서(350)를 포함할 수 있다. 공사장 안내 장치는 전용 보조 장치와 달리 GNSS 통신을 위한 장치, Uu 통신을 위한 장치, 및 휴먼 인터페이스 장치를 포함하지 않는다. 따라서, 공사장 안내 장치의 구조가 간소화되어 설치 비용을 절약할 수 있다.
그리고 종래 기술과 대비하여 전용 보조 장치를 이용한 공사장 안내 장치를 설정 하기 위해서는 시스템의 구성이 변경 되어야 된다. 전용 장치의 V2X 프로세서(140)는 공사장 설정을 위한 메시지가 추가 될 수 있으며, 애플리케이션 ECU(150)는 시스템 운용에 관한 알고리즘이 추가될 수 있다. 또한, 공사장 안내 장치는 전용 장치로부터 위치 정보와 공사장 정보를 얻기 위하여 V2X 프로세서 (230)가 수정될 수 있으며, 알고리즘 추가를 위하여 애플리케이션 ECU (240)가 수정될 수 있다.
[공사장 안내 시스템의 동작]
이하에서 각 장치(전용 보조 장치, 공사장 안내 장치, 소프트 V2X서버)의 동작을 설명한다.
도 24는 전용 보조 장치의 동작 흐름도를 나타낸다.
도 24를 참조하면, 전용 보조 장치의 시스템이 시작되면 장치의 시스템이 초기화될 수 있다. 이후, 공사장 영역 설치를 위해 Uu 인터페이스를 통해 소프트 V2X 서버에 공사장 정보 요청을 할 수 있다. 그리고 세팅 요청 메시지 사용 이후, 소프트 V2X 서버에서 회신하는 공사장 공통 정보 데이터 (WorkZone Common data)를 획득할 수 있다. (세팅 ACK 메시지 복호), 정보를 획득하여 초기 과정이 종료되면, 공사장 안내 장치를 설치 하고, 설치가 완료되면 전용 장치를 이용하여 장치의 정보를 획득 하게 된다. 전용 보조 장치에서는 외부 입력 작동 동작으로, 공사장 안내 장치에 QR 코드가 있는 경우 전용 보조 장치의 카메라나 QR 코드 리더기를 통해 디바이스 ID 를 획득하게 된다. 동시에 전용 보조 장치는 GPS 장치로부터 해당 위치를 획득하게 된다. 이후 전용 보조 장치는 세팅 메시지를 통해 공사장 정보와 위치 정보를 전송하게 된다. 뿐만 아니라 전용 보조 장치는 디바이스 ID 와 위치를 DB에 저장하게 된다. 이 과정을 설치가 종료 될 때까지 반복한다. 설치가 완료되면 전용장치는 소프트 V2X 서버에 접속하여 수집한 위치 리스트 값을 전달 하기 위해 세팅 메시지를 전송할 수 있다. 이후 공사장 안내 장치들에게도 취합된 위치 리스트 값과 공사장 정보를 시스템이 종료할 때까지 전송할 수 있다.
도 25는 공사장 안내 장치의 동작 흐름도를 나타낸다.
도 25를 참조하면, 공사장 안내 장치의 시스템이 시작되면 장치의 시스템은 초기화 될 수 있다. 이후, 공사장 안내 장치가 V2X 수신 모드로 진입하여 세팅 신호를 기다리게 된다. 만약 세팅 신호가 수신되면 V2X 메시지를 복호하고, 이 신호가 전용 보조 장치가 전송한 세팅 메시지인 경우, 전용 보조 장치에서 송신한 위치를 자신의 위치로 등록하게 된다. 이후 설치가 완료되었다는 시작 신호를 받을 때까지 V2X 메시지를 수신 대기를 한다. 만약 공사장 안내 장치의 설치가 완료되면, 전용 보조 장치로부터 위치 리스트를 수신 받고 이를 이용하여 자신의 퍼실리티 계층에서 안전 메시지(Safety message) 를 생성하게 된다. 이후 세팅 메시지로부터 수신 받은 타임아웃 값 (Time-Out value)을 이용하여 카운터를 동작 시키게 된다. 이후 주변의 공사장 안내 장치들에게 세팅 메시지를 전파 하기 위해 주기적으로 세팅 메시지를 전송하게 된다. 만약 타임아웃 카운터가 작동하는 경우 공사장 안내 장치들은 퍼실리티 계층에서 생성한 공사장 안전 서비스를 위한 안전 메시지를 주기적으로 전송할 수 있다.
도 26은 소프트 V2X 서버의 동작 흐름도를 나타낸다.
도 26을 참조하면, 시스템이 시작되면 장치의 시스템은 초기화가 될 수 있다. 이후, 소프트 V2X 서버는 전용 보조 장치로부터 소프트 V2X 메시지를 대기 하게 된다. 만약 전용 장치에서 세팅 요청 메시지를 보낸 경우, 소프트 V2X 서버는 해당 지역에 맞는 공사장 기본 정보를 전용 보조 장치에 전달 하게 된다. (SoftV2X message : WorkZone Common data). 이후 전용 보조 장치와 공사장 안내 장치간 통신을 통해 설치가 완료 되면 전용 보조 장치로부터 세팅 메시지(시작)를 통해 위치 리스트 값을 수신 받게 되며, 이를 이용하여 SoftV2X-안전 메시지를 생성하게 된다. 이후 Uu 인터페이스를 통해 서비스 하는 소프트 V2X 서버의 설정에 따라 브로드캐스트 동작과 유니캐스트 동작에 맞게 주변 소프트 V2X 장치들에게 공사장 정보를 전송하게 된다. 즉 브로드캐스트 모드인 경우, 소프트 V2X 서버는 주기적으로 모든 소프트 V2X 단말들에게 공사장 정보를 전달하게 된다. 만약 유니캐스트 모드 인 경우, 소프트 V2X 서버는 각각의 단말로부터 수신 받은 요청 신호를 대기한 후, 해당 장치에 공사장 정보를 전달하게 된다.
도 27은 본 명세서의 실시예(들)에 따른 전용 보조 장치의 동작을 설명하기 위한 도면이다.
도 27을 참조하면, 단말은 하나 이상의 RSU에 제1 메시지 및 제2 메시지를 전송할 수 있다. 하나 이상의 RSU는 상술한 공사장 안내 장치일 수 있다. 그리고 단말은 상술한 전용 보조 장치일 수 있다. 그리고 제1 메시지는 상술한 세팅 모드의 세팅 메시지일 수 있으며, 제2 메시지는 상술한 시작 모드의 세팅 메시지일 수 있다.
단계 S2701에서, 단말은 하나 이상의 RSU에 제1 메시지를 전송한다. 이 때, 전용 보조 장치는 RSU 각각의 고유 정보 (예를 들어, QR 코드, 바코드 등)를 인식하고, 해당 RSU 각각의 GPS 위치 정보를 수신하여 이를 제1 메시지에 포함하여 RSU에 전송할 수 있다. RSU 각각의 위치가 다르기 때문에 제1 메시지는 RSU마다 다른 정보를 포함할 수 있다. 그리고 단말은 하나 이상의 RSU마다 단계를 반복한다. RSU 각각은 자신의 위치 정보를 포함하는 제1 메시지를 수신할 수 있다. 단말을 이용하여 하나 이상의 RSU의 위치 정보를 획득할 수 있기 때문에 하나 이상의 RSU에 GPS 관련 장치를 설치하지 않아도 되는 장점이 있다.
단계 S2702에서, 단말은 하나 이상의 RSU에 제2 메시지를 전송한다. 이 때, 단말은 S3701단계에서 획득한 RSU 각각의 위치 정보를 취합한 위치 리스트를 제2 메시지에 포함하여 하나 이상의 RSU에 전송할 수 있다. 이 때, 하나 이상의 RSU에게 전송되는 제2 메시지는 동일한 정보를 포함할 수 있다. 그리고 하나 이상의 RSU는 제2 메시지를 서로 송수신하여 공유한다. 단말은 커버리지 내에 있는 RSU에만 제2 메시지를 전송 가능하다. 그리고 제2 메시지를 수신한 RSU는 주변의 다른 RSU에게 제2 메시지를 전송할 수 있다. 제2 메시지는 하나 이상의 RSU의 위치 리스트를 포함할 수 있다.
그리고 단말은 소프트 V2X 서버에 하나 이상의 RSU가 위치한 공사장 영역에 관한 정보, 또는 공사장 공통 정보를 요청하고 이를 수신할 수 있다. 공사장 공통 정보는 공사 종류 또는 공사 기간에 대한 정보를 포함할 수 있다. 전용 보조 장치는 소프트 V2X 서버로부터 공사장 공통 정보를 수신하여 이를 제1 메시지 또는 제2 메시지에 포함할 수 있다. RSU는 단말로부터 제1 메시지 및 제2 메시지를 수신하고, 제2 메시지를 이용하여 주변의 차량들에게 전송할 안전 메시지를 생성할 수 있다. 그리고 소프트 V2X 서버 또는 기지국은 단말로부터 한 이상의 RSU의 위치 리스트를 포함하는 제2 메시지를 수신하고, 제2 메시지를 이용하여 차량들에게 안전 메시지를 전송할 수 있다. 안전 메시지는 공사장 공통 정보 및 하나 이상의 RSU의 위치 리스트를 포함할 수 있다. 하나 이상의 RSU는 공사장 주변을 따라 배치되기 때문에 하나 이상의 RSU의 위치 리스트는 실시간으로 변동되는 공사장 영역에 대한 정보를 의미할 수 있다.
상기 제안된 방법은 공사장 위험 정보 안내를 위한 실시예를 예로 들었지만 해당 서비스뿐만 아니라 ITS 시스템 중에 멀티-인프라(Multi-Infrastructure)가 구성되어 서비스되는 시스템의 긴밀한 운용을 위해 I2I 통신 시스템 및 메시지 구조를 이용할 수 있다. 이를 위해 추후에 I2I 메시지의 공사장 영역 컨테이너와 세팅 컨테이너에 관련된 데이터를 추가하면 다른 서비스에 적용 가능하다.
본 명세서에서는 종래의 V2X 서비스에서 제공하는 서비스에 I2I 통신을 추가하여 서비스의 질을 높이는 방법을 제안하였다. 종래에는 V2X 서비스를 위해 사람이 직접 공사장 영역을 미리 설정하거나 관리해야 하는 불편함이 존재하였다. 본 명세서에서 제안하는 I2I 통신을 이용한 공사장 안내 시스템을 이용하여 장치들 스스로 정보를 교환하고 서비스함으로써, 실시간 변동하는 공사장 영역을 간편하고 정확하게 차량들에게 제공할 수 있다. 또한, 공사장 안내 시스템의 설치 비용을 줄일 수 있다. 그리고 V2X 서버와 함께 공사장 안내 서비스를 제공함으로써, 보다 정확하고 다양한 서비스를 제공 가능하다.
본 발명이 적용되는 통신 시스템 예
이로 제한되는 것은 아니지만, 본 문서에 개시된 본 발명의 다양한 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 기기들간에 무선 통신/연결(예, 5G)을 필요로 하는 다양한 분야에 적용될 수 있다.
이하, 도면을 참조하여 보다 구체적으로 예시한다. 이하의 도면/설명에서 동일한 도면 부호는 다르게 기술하지 않는 한, 동일하거나 대응되는 하드웨어 블블록, 소프트웨어 블록 또는 기능 블록을 예시할 수 있다.
도 28은 본 발명에 적용되는 통신 시스템(1)을 예시한다.
도 28을 참조하면, 본 발명에 적용되는 통신 시스템(1)은 무선 기기, 기지국 및 네트워크를 포함한다. 여기서, 무선 기기는 무선 접속 기술(예, 5G NR(New RAT), LTE(Long Term Evolution))을 이용하여 통신을 수행하는 기기를 의미하며, 통신/무선/5G 기기로 지칭될 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(100a), 차량(100b-1, 100b-2), XR(eXtended Reality) 기기(100c), 휴대 기기(Hand-held device)(100d), 가전(100e), IoT(Internet of Thing) 기기(100f), AI기기/서버(400)를 포함할 수 있다. 예를 들어, 차량은 무선 통신 기능이 구비된 차량, 자율 주행 차량, 차량간 통신을 수행할 수 있는 차량 등을 포함할 수 있다. 여기서, 차량은 UAV(Unmanned Aerial Vehicle)(예, 드론)를 포함할 수 있다. XR 기기는 AR(Augmented Reality)/VR(Virtual Reality)/MR(Mixed Reality) 기기를 포함하며, HMD(Head-Mounted Device), 차량에 구비된 HUD(Head-Up Display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등의 형태로 구현될 수 있다. 휴대 기기는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 컴퓨터(예, 노트북 등) 등을 포함할 수 있다. 가전은 TV, 냉장고, 세탁기 등을 포함할 수 있다. IoT 기기는 센서, 스마트미터 등을 포함할 수 있다. 예를 들어, 기지국, 네트워크는 무선 기기로도 구현될 수 있으며, 특정 무선 기기(200a)는 다른 무선 기기에게 기지국/네트워크 노드로 동작할 수도 있다.
무선 기기(100a~100f)는 기지국(200)을 통해 네트워크(300)와 연결될 수 있다. 무선 기기(100a~100f)에는 AI(Artificial Intelligence) 기술이 적용될 수 있으며, 무선 기기(100a~100f)는 네트워크(300)를 통해 AI 서버(400)와 연결될 수 있다. 네트워크(300)는 3G 네트워크, 4G(예, LTE) 네트워크 또는 5G(예, NR) 네트워크 등을 이용하여 구성될 수 있다. 무선 기기(100a~100f)는 기지국(200)/네트워크(300)를 통해 서로 통신할 수도 있지만, 기지국/네트워크를 통하지 않고 직접 통신(e.g. 사이드링크 통신(sidelink communication))할 수도 있다. 예를 들어, 차량들(100b-1, 100b-2)은 직접 통신(e.g. V2V(Vehicle to Vehicle)/V2X(Vehicle to everything) communication)을 할 수 있다. 또한, IoT 기기(예, 센서)는 다른 IoT 기기(예, 센서) 또는 다른 무선 기기(100a~100f)와 직접 통신을 할 수 있다.
무선 기기(100a~100f)/기지국(200), 기지국(200)/기지국(200) 간에는 무선 통신/연결(150a, 150b, 150c)이 이뤄질 수 있다. 여기서, 무선 통신/연결은 상향/하향링크 통신(150a)과 사이드링크 통신(150b)(또는, D2D 통신), 기지국간 통신(150c)(e.g. relay, IAB(Integrated Access Backhaul)과 같은 다양한 무선 접속 기술(예, 5G NR)을 통해 이뤄질 수 있다. 무선 통신/연결(150a, 150b, 150c)을 통해 무선 기기와 기지국/무선 기기, 기지국과 기지국은 서로 무선 신호를 송신/수신할 수 있다. 예를 들어, 무선 통신/연결(150a, 150b, 150c)은 다양한 물리 채널을 통해 신호를 송신/수신할 수 있다. 이를 위해, 본 발명의 다양한 제안들에 기반하여, 무선 신호의 송신/수신을 위한 다양한 구성정보 설정 과정, 다양한 신호 처리 과정(예, 채널 인코딩/디코딩, 변조/복조, 자원 매핑/디매핑 등), 자원 할당 과정 등 중 적어도 일부가 수행될 수 있다.
본 발명이 적용되는 무선 기기 예
도 29은 본 발명에 적용될 수 있는 무선 기기를 예시한다.
도 29을 참조하면, 제1 무선 기기(100)와 제2 무선 기기(200)는 다양한 무선 접속 기술(예, LTE, NR)을 통해 무선 신호를 송수신할 수 있다. 여기서, {제1 무선 기기(100), 제2 무선 기기(200)}은 도 28의 {무선 기기(100x), 기지국(200)} 및/또는 {무선 기기(100x), 무선 기기(100x)}에 대응할 수 있다.
제1 무선 기기(100)는 하나 이상의 프로세서(102) 및 하나 이상의 메모리(104)를 포함하며, 추가적으로 하나 이상의 송수신기(106) 및/또는 하나 이상의 안테나(108)을 더 포함할 수 있다. 프로세서(102)는 메모리(104) 및/또는 송수신기(106)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(102)는 메모리(104) 내의 정보를 처리하여 제1 정보/신호를 생성한 뒤, 송수신기(106)을 통해 제1 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(102)는 송수신기(106)를 통해 제2 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제2 정보/신호의 신호 처리로부터 얻은 정보를 메모리(104)에 저장할 수 있다. 메모리(104)는 프로세서(102)와 연결될 수 있고, 프로세서(102)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(104)는 프로세서(102)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(102)와 메모리(104)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(106)는 프로세서(102)와 연결될 수 있고, 하나 이상의 안테나(108)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(106)는 송신기 및/또는 수신기를 포함할 수 있다. 송수신기(106)는 RF(Radio Frequency) 유닛과 혼용될 수 있다. 본 발명에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
제2 무선 기기(200)는 하나 이상의 프로세서(202), 하나 이상의 메모리(204)를 포함하며, 추가적으로 하나 이상의 송수신기(206) 및/또는 하나 이상의 안테나(208)를 더 포함할 수 있다. 프로세서(202)는 메모리(204) 및/또는 송수신기(206)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202)는 메모리(204) 내의 정보를 처리하여 제3 정보/신호를 생성한 뒤, 송수신기(206)를 통해 제3 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202)는 송수신기(206)를 통해 제4 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제4 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204)에 저장할 수 있다. 메모리(204)는 프로세서(202)와 연결될 수 있고, 프로세서(202)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204)는 프로세서(202)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202)와 메모리(204)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206)는 프로세서(202)와 연결될 수 있고, 하나 이상의 안테나(208)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206)는 송신기 및/또는 수신기를 포함할 수 있다 송수신기(206)는 RF 유닛과 혼용될 수 있다. 본 발명에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
이하, 무선 기기(100, 200)의 하드웨어 요소에 대해 보다 구체적으로 설명한다. 이로 제한되는 것은 아니지만, 하나 이상의 프로토콜 계층이 하나 이상의 프로세서(102, 202)에 의해 구현될 수 있다. 예를 들어, 하나 이상의 프로세서(102, 202)는 하나 이상의 계층(예, PHY, MAC, RLC, PDCP, RRC, SDAP와 같은 기능적 계층)을 구현할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 하나 이상의 PDU(Protocol Data Unit) 및/또는 하나 이상의 SDU(Service Data Unit)를 생성할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 메시지, 제어정보, 데이터 또는 정보를 생성할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 포함하는 신호(예, 베이스밴드 신호)를 생성하여, 하나 이상의 송수신기(106, 206)에게 제공할 수 있다. 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)로부터 신호(예, 베이스밴드 신호)를 수신할 수 있고, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 획득할 수 있다.
하나 이상의 프로세서(102, 202)는 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 마이크로 컴퓨터로 지칭될 수 있다. 하나 이상의 프로세서(102, 202)는 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합에 의해 구현될 수 있다. 일 예로, 하나 이상의 ASIC(Application Specific Integrated Circuit), 하나 이상의 DSP(Digital Signal Processor), 하나 이상의 DSPD(Digital Signal Processing Device), 하나 이상의 PLD(Programmable Logic Device) 또는 하나 이상의 FPGA(Field Programmable Gate Arrays)가 하나 이상의 프로세서(102, 202)에 포함될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있고, 펌웨어 또는 소프트웨어는 모듈, 절차, 기능 등을 포함하도록 구현될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 수행하도록 설정된 펌웨어 또는 소프트웨어는 하나 이상의 프로세서(102, 202)에 포함되거나, 하나 이상의 메모리(104, 204)에 저장되어 하나 이상의 프로세서(102, 202)에 의해 구동될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 코드, 명령어 및/또는 명령어의 집합 형태로 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있다.
하나 이상의 메모리(104, 204)는 하나 이상의 프로세서(102, 202)와 연결될 수 있고, 다양한 형태의 데이터, 신호, 메시지, 정보, 프로그램, 코드, 지시 및/또는 명령을 저장할 수 있다. 하나 이상의 메모리(104, 204)는 ROM, RAM, EPROM, 플래시 메모리, 하드 드라이브, 레지스터, 캐쉬 메모리, 컴퓨터 판독 저장 매체 및/또는 이들의 조합으로 구성될 수 있다. 하나 이상의 메모리(104, 204)는 하나 이상의 프로세서(102, 202)의 내부 및/또는 외부에 위치할 수 있다. 또한, 하나 이상의 메모리(104, 204)는 유선 또는 무선 연결과 같은 다양한 기술을 통해 하나 이상의 프로세서(102, 202)와 연결될 수 있다.
하나 이상의 송수신기(106, 206)는 하나 이상의 다른 장치에게 본 문서의 방법들 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 전송할 수 있다. 하나 이상의 송수신기(106, 206)는 하나 이상의 다른 장치로부터 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 수신할 수 있다. 예를 들어, 하나 이상의 송수신기(106, 206)는 하나 이상의 프로세서(102, 202)와 연결될 수 있고, 무선 신호를 송수신할 수 있다. 예를 들어, 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)가 하나 이상의 다른 장치에게 사용자 데이터, 제어 정보 또는 무선 신호를 전송하도록 제어할 수 있다. 또한, 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)가 하나 이상의 다른 장치로부터 사용자 데이터, 제어 정보 또는 무선 신호를 수신하도록 제어할 수 있다. 또한, 하나 이상의 송수신기(106, 206)는 하나 이상의 안테나(108, 208)와 연결될 수 있고, 하나 이상의 송수신기(106, 206)는 하나 이상의 안테나(108, 208)를 통해 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 송수신하도록 설정될 수 있다. 본 문서에서, 하나 이상의 안테나는 복수의 물리 안테나이거나, 복수의 논리 안테나(예, 안테나 포트)일 수 있다. 하나 이상의 송수신기(106, 206)는 수신된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 하나 이상의 프로세서(102, 202)를 이용하여 처리하기 위해, 수신된 무선 신호/채널 등을 RF 밴드 신호에서 베이스밴드 신호로 변환(Convert)할 수 있다. 하나 이상의 송수신기(106, 206)는 하나 이상의 프로세서(102, 202)를 이용하여 처리된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 베이스밴드 신호에서 RF 밴드 신호로 변환할 수 있다. 이를 위하여, 하나 이상의 송수신기(106, 206)는 (아날로그) 오실레이터 및/또는 필터를 포함할 수 있다.
본 발명이 적용되는 신호 처리 회로 예
도 30는 전송 신호를 위한 신호 처리 회로를 예시한다.
도 30를 참조하면, 신호 처리 회로(1000)는 스크램블러(1010), 변조기(1020), 레이어 매퍼(1030), 프리코더(1040), 자원 매퍼(1050), 신호 생성기(1060)를 포함할 수 있다. 이로 제한되는 것은 아니지만, 도 30의 동작/기능은 도 29의 프로세서(102, 202) 및/또는 송수신기(106, 206)에서 수행될 수 있다. 도 30의 하드웨어 요소는 도 29의 프로세서(102, 202) 및/또는 송수신기(106, 206)에서 구현될 수 있다. 예를 들어, 블록 1010~1060은 도 29의 프로세서(102, 202)에서 구현될 수 있다. 또한, 블록 1010~1050은 도 29의 프로세서(102, 202)에서 구현되고, 블록 1060은 도 29의 송수신기(106, 206)에서 구현될 수 있다.
코드워드는 도 30의 신호 처리 회로(1000)를 거쳐 무선 신호로 변환될 수 있다. 여기서, 코드워드는 정보블록의 부호화된 비트 시퀀스이다. 정보블록은 전송블록(예, UL-SCH 전송블록, DL-SCH 전송블록)을 포함할 수 있다. 무선 신호는 다양한 물리 채널(예, PUSCH, PDSCH)을 통해 전송될 수 있다.
구체적으로, 코드워드는 스크램블러(1010)에 의해 스크램블된 비트 시퀀스로 변환될 수 있다. 스크램블에 사용되는 스크램블 시퀀스는 초기화 값에 기반하여 생성되며, 초기화 값은 무선 기기의 ID 정보 등이 포함될 수 있다. 스크램블된 비트 시퀀스는 변조기(1020)에 의해 변조 심볼 시퀀스로 변조될 수 있다. 변조 방식은 pi/2-BPSK(pi/2-Binary Phase Shift Keying), m-PSK(m-Phase Shift Keying), m-QAM(m-Quadrature Amplitude Modulation) 등을 포함할 수 있다. 복소 변조 심볼 시퀀스는 레이어 매퍼(1030)에 의해 하나 이상의 전송 레이어로 매핑될 수 있다. 각 전송 레이어의 변조 심볼들은 프리코더(1040)에 의해 해당 안테나 포트(들)로 매핑될 수 있다(프리코딩). 프리코더(1040)의 출력 z는 레이어 매퍼(1030)의 출력 y를 N*M의 프리코딩 행렬 W와 곱해 얻을 수 있다. 여기서, N은 안테나 포트의 개수, M은 전송 레이어의 개수이다. 여기서, 프리코더(1040)는 복소 변조 심볼들에 대한 트랜스폼(transform) 프리코딩(예, DFT 변환)을 수행한 이후에 프리코딩을 수행할 수 있다. 또한, 프리코더(1040)는 트랜스폼 프리코딩을 수행하지 않고 프리코딩을 수행할 수 있다.
자원 매퍼(1050)는 각 안테나 포트의 변조 심볼들을 시간-주파수 자원에 매핑할 수 있다. 시간-주파수 자원은 시간 도메인에서 복수의 심볼(예, CP-OFDMA 심볼, DFT-s-OFDMA 심볼)을 포함하고, 주파수 도메인에서 복수의 부반송파를 포함할 수 있다. 신호 생성기(1060)는 매핑된 변조 심볼들로부터 무선 신호를 생성하며, 생성된 무선 신호는 각 안테나를 통해 다른 기기로 전송될 수 있다. 이를 위해, 신호 생성기(1060)는 IFFT(Inverse Fast Fourier Transform) 모듈 및 CP(Cyclic Prefix) 삽입기, DAC(Digital-to-Analog Converter), 주파수 상향 변환기(frequency uplink converter) 등을 포함할 수 있다.
무선 기기에서 수신 신호를 위한 신호 처리 과정은 도 30의 신호 처리 과정(1010~1060)의 역으로 구성될 수 있다. 예를 들어, 무선 기기(예, 도 29의 100, 200)는 안테나 포트/송수신기를 통해 외부로부터 무선 신호를 수신할 수 있다. 수신된 무선 신호는 신호 복원기를 통해 베이스밴드 신호로 변환될 수 있다. 이를 위해, 신호 복원기는 주파수 하향 변환기(frequency downlink converter), ADC(analog-to-digital converter), CP 제거기, FFT(Fast Fourier Transform) 모듈을 포함할 수 있다. 이후, 베이스밴드 신호는 자원 디-매퍼 과정, 포스트코딩(postcoding) 과정, 복조 과정 및 디-스크램블 과정을 거쳐 코드워드로 복원될 수 있다. 코드워드는 복호(decoding)를 거쳐 원래의 정보블록으로 복원될 수 있다. 따라서, 수신 신호를 위한 신호 처리 회로(미도시)는 신호 복원기, 자원 디-매퍼, 포스트코더, 복조기, 디-스크램블러 및 복호기를 포함할 수 있다.
본 발명이 적용되는 무선 기기 활용 예
도 31은 본 발명에 적용되는 무선 기기의 다른 예를 나타낸다. 무선 기기는 사용-예/서비스에 따라 다양한 형태로 구현될 수 있다(도 28 참조).
도 31을 참조하면, 무선 기기(100, 200)는 도 29의 무선 기기(100,200)에 대응하며, 다양한 요소(element), 성분(component), 유닛/부(unit), 및/또는 모듈(module)로 구성될 수 있다. 예를 들어, 무선 기기(100, 200)는 통신부(110), 제어부(120), 메모리부(130) 및 추가 요소(140)를 포함할 수 있다. 통신부는 통신 회로(112) 및 송수신기(들)(114)을 포함할 수 있다. 예를 들어, 통신 회로(112)는 도 29의 하나 이상의 프로세서(102,202) 및/또는 하나 이상의 메모리(104,204) 를 포함할 수 있다. 예를 들어, 송수신기(들)(114)는 도 29의 하나 이상의 송수신기(106,206) 및/또는 하나 이상의 안테나(108,208)을 포함할 수 있다. 제어부(120)는 통신부(110), 메모리부(130) 및 추가 요소(140)와 전기적으로 연결되며 무선 기기의 제반 동작을 제어한다. 예를 들어, 제어부(120)는 메모리부(130)에 저장된 프로그램/코드/명령/정보에 기반하여 무선 기기의 전기적/기계적 동작을 제어할 수 있다. 또한, 제어부(120)는 메모리부(130)에 저장된 정보를 통신부(110)을 통해 외부(예, 다른 통신 기기)로 무선/유선 인터페이스를 통해 전송하거나, 통신부(110)를 통해 외부(예, 다른 통신 기기)로부터 무선/유선 인터페이스를 통해 수신된 정보를 메모리부(130)에 저장할 수 있다.
추가 요소(140)는 무선 기기의 종류에 따라 다양하게 구성될 수 있다. 예를 들어, 추가 요소(140)는 파워 유닛/배터리, 입출력부(I/O unit), 구동부 및 컴퓨팅부 중 적어도 하나를 포함할 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(도 28, 100a), 차량(도 28, 100b-1, 100b-2), XR 기기(도 28, 100c), 휴대 기기(도 28, 100d), 가전(도 28, 100e), IoT 기기(도 28, 100f), 디지털 방송용 단말, 홀로그램 장치, 공공 안전 장치, MTC 장치, 의료 장치, 핀테크 장치(또는 금융 장치), 보안 장치, 기후/환경 장치, AI 서버/기기(도 28, 400), 기지국(도 28, 200), 네트워크 노드 등의 형태로 구현될 수 있다. 무선 기기는 사용-예/서비스에 따라 이동 가능하거나 고정된 장소에서 사용될 수 있다.
도 31에서 무선 기기(100, 200) 내의 다양한 요소, 성분, 유닛/부, 및/또는 모듈은 전체가 유선 인터페이스를 통해 상호 연결되거나, 적어도 일부가 통신부(110)를 통해 무선으로 연결될 수 있다. 예를 들어, 무선 기기(100, 200) 내에서 제어부(120)와 통신부(110)는 유선으로 연결되며, 제어부(120)와 제1 유닛(예, 130, 140)은 통신부(110)를 통해 무선으로 연결될 수 있다. 또한, 무선 기기(100, 200) 내의 각 요소, 성분, 유닛/부, 및/또는 모듈은 하나 이상의 요소를 더 포함할 수 있다. 예를 들어, 제어부(120)는 하나 이상의 프로세서 집합으로 구성될 수 있다. 예를 들어, 제어부(120)는 통신 제어 프로세서, 어플리케이션 프로세서(Application processor), ECU(Electronic Control Unit), 그래픽 처리 프로세서, 메모리 제어 프로세서 등의 집합으로 구성될 수 있다. 다른 예로, 메모리부(130)는 RAM(Random Access Memory), DRAM(Dynamic RAM), ROM(Read Only Memory), 플래시 메모리(flash memory), 휘발성 메모리(volatile memory), 비-휘발성 메모리(non-volatile memory) 및/또는 이들의 조합으로 구성될 수 있다.
이하, 도 31의 구현 예에 대해 도면을 참조하여 보다 자세히 설명한다.
본 발명이 적용되는 휴대기기 예
도 32는 본 발명에 적용되는 휴대 기기를 예시한다. 휴대 기기는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 휴대용 컴퓨터(예, 노트북 등)을 포함할 수 있다. 휴대 기기는 MS(Mobile Station), UT(user terminal), MSS(Mobile Subscriber Station), SS(Subscriber Station), AMS(Advanced Mobile Station) 또는 WT(Wireless terminal)로 지칭될 수 있다.
도 32를 참조하면, 휴대 기기(100)는 안테나부(108), 통신부(110), 제어부(120), 메모리부(130), 전원공급부(140a), 인터페이스부(140b) 및 입출력부(140c)를 포함할 수 있다. 안테나부(108)는 통신부(110)의 일부로 구성될 수 있다. 블록 110~130/140a~140c는 각각 도 31의 블록 110~130/140에 대응한다.
통신부(110)는 다른 무선 기기, 기지국들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(120)는 휴대 기기(100)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(120)는 AP(Application Processor)를 포함할 수 있다. 메모리부(130)는 휴대 기기(100)의 구동에 필요한 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 또한, 메모리부(130)는 입/출력되는 데이터/정보 등을 저장할 수 있다. 전원공급부(140a)는 휴대 기기(100)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다. 인터페이스부(140b)는 휴대 기기(100)와 다른 외부 기기의 연결을 지원할 수 있다. 인터페이스부(140b)는 외부 기기와의 연결을 위한 다양한 포트(예, 오디오 입/출력 포트, 비디오 입/출력 포트)를 포함할 수 있다. 입출력부(140c)는 영상 정보/신호, 오디오 정보/신호, 데이터, 및/또는 사용자로부터 입력되는 정보를 입력 받거나 출력할 수 있다. 입출력부(140c)는 카메라, 마이크로폰, 사용자 입력부, 디스플레이부(140d), 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다.
일 예로, 데이터 통신의 경우, 입출력부(140c)는 사용자로부터 입력된 정보/신호(예, 터치, 문자, 음성, 이미지, 비디오)를 획득하며, 획득된 정보/신호는 메모리부(130)에 저장될 수 있다. 통신부(110)는 메모리에 저장된 정보/신호를 무선 신호로 변환하고, 변환된 무선 신호를 다른 무선 기기에게 직접 전송하거나 기지국에게 전송할 수 있다. 또한, 통신부(110)는 다른 무선 기기 또는 기지국으로부터 무선 신호를 수신한 뒤, 수신된 무선 신호를 원래의 정보/신호로 복원할 수 있다. 복원된 정보/신호는 메모리부(130)에 저장된 뒤, 입출력부(140c)를 통해 다양한 형태(예, 문자, 음성, 이미지, 비디오, 헵틱)로 출력될 수 있다.
본 발명이 적용되는 차량 또는 자율 주행 차량 예
도 33는 본 발명에 적용되는 차량 또는 자율 주행 차량을 예시한다. 차량 또는 자율 주행 차량은 이동형 로봇, 차량, 기차, 유/무인 비행체(Aerial Vehicle, AV), 선박 등으로 구현될 수 있다.
도 33를 참조하면, 차량 또는 자율 주행 차량(100)은 안테나부(108), 통신부(110), 제어부(120), 구동부(140a), 전원공급부(140b), 센서부(140c) 및 자율 주행부(140d)를 포함할 수 있다. 안테나부(108)는 통신부(110)의 일부로 구성될 수 있다. 블록 110/130/140a~140d는 각각 도 31의 블록 110/130/140에 대응한다.
통신부(110)는 다른 차량, 기지국(e.g. 기지국, 노변 기지국(Road Side unit) 등), 서버 등의 외부 기기들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(120)는 차량 또는 자율 주행 차량(100)의 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(120)는 ECU(Electronic Control Unit)를 포함할 수 있다. 구동부(140a)는 차량 또는 자율 주행 차량(100)을 지상에서 주행하게 할 수 있다. 구동부(140a)는 엔진, 모터, 파워 트레인, 바퀴, 브레이크, 조향 장치 등을 포함할 수 있다. 전원공급부(140b)는 차량 또는 자율 주행 차량(100)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다. 센서부(140c)는 차량 상태, 주변 환경 정보, 사용자 정보 등을 얻을 수 있다. 센서부(140c)는 IMU(inertial measurement unit) 센서, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 스티어링 센서, 온도 센서, 습도 센서, 초음파 센서, 조도 센서, 페달 포지션 센서 등을 포함할 수 있다. 자율 주행부(140d)는 주행중인 차선을 유지하는 기술, 어댑티브 크루즈 컨트롤과 같이 속도를 자동으로 조절하는 기술, 정해진 경로를 따라 자동으로 주행하는 기술, 목적지가 설정되면 자동으로 경로를 설정하여 주행하는 기술 등을 구현할 수 있다.
일 예로, 통신부(110)는 외부 서버로부터 지도 데이터, 교통 정보 데이터 등을 수신할 수 있다. 자율 주행부(140d)는 획득된 데이터를 기반으로 자율 주행 경로와 드라이빙 플랜을 생성할 수 있다. 제어부(120)는 드라이빙 플랜에 따라 차량 또는 자율 주행 차량(100)이 자율 주행 경로를 따라 이동하도록 구동부(140a)를 제어할 수 있다(예, 속도/방향 조절). 자율 주행 도중에 통신부(110)는 외부 서버로부터 최신 교통 정보 데이터를 비/주기적으로 획득하며, 주변 차량으로부터 주변 교통 정보 데이터를 획득할 수 있다. 또한, 자율 주행 도중에 센서부(140c)는 차량 상태, 주변 환경 정보를 획득할 수 있다. 자율 주행부(140d)는 새로 획득된 데이터/정보에 기반하여 자율 주행 경로와 드라이빙 플랜을 갱신할 수 있다. 통신부(110)는 차량 위치, 자율 주행 경로, 드라이빙 플랜 등에 관한 정보를 외부 서버로 전달할 수 있다. 외부 서버는 차량 또는 자율 주행 차량들로부터 수집된 정보에 기반하여, AI 기술 등을 이용하여 교통 정보 데이터를 미리 예측할 수 있고, 예측된 교통 정보 데이터를 차량 또는 자율 주행 차량들에게 제공할 수 있다.
본 발명이 적용되는 AR/VR 및 차량 예
도 34은 본 발명에 적용되는 차량을 예시한다. 차량은 운송수단, 기차, 비행체, 선박 등으로도 구현될 수 있다.
도 34을 참조하면, 차량(100)은 통신부(110), 제어부(120), 메모리부(130), 입출력부(140a) 및 위치 측정부(140b)를 포함할 수 있다. 여기서, 블록 110~130/140a~140b는 각각 도 31의 블록 110~130/140에 대응한다.
통신부(110)는 다른 차량, 또는 기지국 등의 외부 기기들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(120)는 차량(100)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 메모리부(130)는 차량(100)의 다양한 기능을 지원하는 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 입출력부(140a)는 메모리부(130) 내의 정보에 기반하여 AR/VR 오브젝트를 출력할 수 있다. 입출력부(140a)는 HUD를 포함할 수 있다. 위치 측정부(140b)는 차량(100)의 위치 정보를 획득할 수 있다. 위치 정보는 차량(100)의 절대 위치 정보, 주행선 내에서의 위치 정보, 가속도 정보, 주변 차량과의 위치 정보 등을 포함할 수 있다. 위치 측정부(140b)는 GPS 및 다양한 센서들을 포함할 수 있다.
일 예로, 차량(100)의 통신부(110)는 외부 서버로부터 지도 정보, 교통 정보 등을 수신하여 메모리부(130)에 저장할 수 있다. 위치 측정부(140b)는 GPS 및 다양한 센서를 통하여 차량 위치 정보를 획득하여 메모리부(130)에 저장할 수 있다. 제어부(120)는 지도 정보, 교통 정보 및 차량 위치 정보 등에 기반하여 가상 오브젝트를 생성하고, 입출력부(140a)는 생성된 가상 오브젝트를 차량 내 유리창에 표시할 수 있다(1410, 1420). 또한, 제어부(120)는 차량 위치 정보에 기반하여 차량(100)이 주행선 내에서 정상적으로 운행되고 있는지 판단할 수 있다. 차량(100)이 주행선을 비정상적으로 벗어나는 경우, 제어부(120)는 입출력부(140a)를 통해 차량 내 유리창에 경고를 표시할 수 있다. 또한, 제어부(120)는 통신부(110)를 통해 주변 차량들에게 주행 이상에 관한 경고 메세지를 방송할 수 있다. 상황에 따라, 제어부(120)는 통신부(110)를 통해 관계 기관에게 차량의 위치 정보와, 주행/차량 이상에 관한 정보를 전송할 수 있다.
본 발명이 적용되는 XR 기기 예
도 35은 본 발명에 적용되는 XR 기기를 예시한다. XR 기기는 HMD, 차량에 구비된 HUD(Head-Up Display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등으로 구현될 수 있다.
도 35을 참조하면, XR 기기(100a)는 통신부(110), 제어부(120), 메모리부(130), 입출력부(140a), 센서부(140b) 및 전원공급부(140c)를 포함할 수 있다. 여기서, 블록 110~130/140a~140c은 각각 도 31의 블록 110~130/140에 대응한다.
통신부(110)는 다른 무선 기기, 휴대 기기, 또는 미디어 서버 등의 외부 기기들과 신호(예, 미디어 데이터, 제어 신호 등)를 송수신할 수 있다. 미디어 데이터는 영상, 이미지, 소리 등을 포함할 수 있다. 제어부(120)는 XR 기기(100a)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 예를 들어, 제어부(120)는 비디오/이미지 획득, (비디오/이미지) 인코딩, 메타데이터 생성 및 처리 등의 절차를 제어 및/또는 수행하도록 구성될 수 있다. 메모리부(130)는 XR 기기(100a)의 구동/XR 오브젝트의 생성에 필요한 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 입출력부(140a)는 외부로부터 제어 정보, 데이터 등을 획득하며, 생성된 XR 오브젝트를 출력할 수 있다. 입출력부(140a)는 카메라, 마이크로폰, 사용자 입력부, 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센서부(140b)는 XR 기기 상태, 주변 환경 정보, 사용자 정보 등을 얻을 수 있다. 센서부(140b)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰 및/또는 레이더 등을 포함할 수 있다. 전원공급부(140c)는 XR 기기(100a)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다.
일 예로, XR 기기(100a)의 메모리부(130)는 XR 오브젝트(예, AR/VR/MR 오브젝트)의 생성에 필요한 정보(예, 데이터 등)를 포함할 수 있다. 입출력부(140a)는 사용자로부터 XR 기기(100a)를 조작하는 명령을 회득할 수 있으며, 제어부(120)는 사용자의 구동 명령에 따라 XR 기기(100a)를 구동시킬 수 있다. 예를 들어, 사용자가 XR 기기(100a)를 통해 영화, 뉴스 등을 시청하려고 하는 경우, 제어부(120)는 통신부(130)를 통해 컨텐츠 요청 정보를 다른 기기(예, 휴대 기기(100b)) 또는 미디어 서버에 전송할 수 있다. 통신부(130)는 다른 기기(예, 휴대 기기(100b)) 또는 미디어 서버로부터 영화, 뉴스 등의 컨텐츠를 메모리부(130)로 다운로드/스트리밍 받을 수 있다. 제어부(120)는 컨텐츠에 대해 비디오/이미지 획득, (비디오/이미지) 인코딩, 메타데이터 생성/처리 등의 절차를 제어 및/또는 수행하며, 입출력부(140a)/센서부(140b)를 통해 획득한 주변 공간 또는 현실 오브젝트에 대한 정보에 기반하여 XR 오브젝트를 생성/출력할 수 있다.
또한, XR 기기(100a)는 통신부(110)를 통해 휴대 기기(100b)와 무선으로 연결되며, XR 기기(100a)의 동작은 휴대 기기(100b)에 의해 제어될 수 있다. 예를 들어, 휴대 기기(100b)는 XR 기기(100a)에 대한 콘트롤러로 동작할 수 있다. 이를 위해, XR 기기(100a)는 휴대 기기(100b)의 3차원 위치 정보를 획득한 뒤, 휴대 기기(100b)에 대응하는 XR 개체를 생성하여 출력할 수 있다.
본 발명이 적용되는 로봇 예
도 36은 본 발명에 적용되는 로봇을 예시한다. 로봇은 사용 목적이나 분야에 따라 산업용, 의료용, 가정용, 군사용 등으로 분류될 수 있다.
도 36을 참조하면, 로봇(100)은 통신부(110), 제어부(120), 메모리부(130), 입출력부(140a), 센서부(140b) 및 구동부(140c)를 포함할 수 있다. 여기서, 블록 110~130/140a~140c은 각각 도 31의 블록 110~130/140에 대응한다.
통신부(110)는 다른 무선 기기, 다른 로봇, 또는 제어 서버 등의 외부 기기들과 신호(예, 구동 정보, 제어 신호 등)를 송수신할 수 있다. 제어부(120)는 로봇(100)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 메모리부(130)는 로봇(100)의 다양한 기능을 지원하는 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 입출력부(140a)는 로봇(100)의 외부로부터 정보를 획득하며, 로봇(100)의 외부로 정보를 출력할 수 있다. 입출력부(140a)는 카메라, 마이크로폰, 사용자 입력부, 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센서부(140b)는 로봇(100)의 내부 정보, 주변 환경 정보, 사용자 정보 등을 얻을 수 있다. 센서부(140b)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 레이더 등을 포함할 수 있다. 구동부(140c)는 로봇 관절을 움직이는 등의 다양한 물리적 동작을 수행할 수 있다. 또한, 구동부(140c)는 로봇(100)을 지상에서 주행하거나 공중에서 비행하게 할 수 있다. 구동부(140c)는 액츄에이터, 모터, 바퀴, 브레이크, 프로펠러 등을 포함할 수 있다.
본 발명이 적용되는 AI 기기 예
도 37은 본 발명에 적용되는 AI 기기를 예시한다. AI 기기는 TV, 프로젝터, 스마트폰, PC, 노트북, 디지털방송용 단말기, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), 라디오, 세탁기, 냉장고, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다.
도 37를 참조하면, AI 기기(100)는 통신부(110), 제어부(120), 메모리부(130), 입/출력부(140a/140b), 러닝 프로세서부(140c) 및 센서부(140d)를 포함할 수 있다. 블록 110~130/140a~140d는 각각 도 31의 블록 110~130/140에 대응한다.
통신부(110)는 유무선 통신 기술을 이용하여 다른 AI 기기(예, 도 28, 100x, 200, 400)나 AI 서버(예, 도 28의 400) 등의 외부 기기들과 유무선 신호(예, 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등)를 송수신할 수 있다. 이를 위해, 통신부(110)는 메모리부(130) 내의 정보를 외부 기기로 전송하거나, 외부 기기로부터 수신된 신호를 메모리부(130)로 전달할 수 있다.
제어부(120)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 기기(100)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 제어부(120)는 AI 기기(100)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다. 예를 들어, 제어부(120)는 러닝 프로세서부(140c) 또는 메모리부(130)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 기기(100)의 구성 요소들을 제어할 수 있다. 또한, 제어부(120)는 AI 장치(100)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리부(130) 또는 러닝 프로세서부(140c)에 저장하거나, AI 서버(도 28, 400) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.
메모리부(130)는 AI 기기(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예를 들어, 메모리부(130)는 입력부(140a)로부터 얻은 데이터, 통신부(110)로부터 얻은 데이터, 러닝 프로세서부(140c)의 출력 데이터, 및 센싱부(140)로부터 얻은 데이터를 저장할 수 있다. 또한, 메모리부(130)는 제어부(120)의 동작/실행에 필요한 제어 정보 및/또는 소프트웨어 코드를 저장할 수 있다.
입력부(140a)는 AI 기기(100)의 외부로부터 다양한 종류의 데이터를 획득할 수 있다. 예를 들어, 입력부(140a)는 모델 학습을 위한 학습 데이터, 및 학습 모델이 적용될 입력 데이터 등을 획득할 수 있다. 입력부(140a)는 카메라, 마이크로폰 및/또는 사용자 입력부 등을 포함할 수 있다. 출력부(140b)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다. 출력부(140b)는 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센싱부(140)는 다양한 센서들을 이용하여 AI 기기(100)의 내부 정보, AI 기기(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 얻을 수 있다. 센싱부(140)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰 및/또는 레이더 등을 포함할 수 있다.
러닝 프로세서부(140c)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 러닝 프로세서부(140c)는 AI 서버(도 28, 400)의 러닝 프로세서부와 함께 AI 프로세싱을 수행할 수 있다. 러닝 프로세서부(140c)는 통신부(110)를 통해 외부 기기로부터 수신된 정보, 및/또는 메모리부(130)에 저장된 정보를 처리할 수 있다. 또한, 러닝 프로세서부(140c)의 출력 값은 통신부(110)를 통해 외부 기기로 전송되거나/되고, 메모리부(130)에 저장될 수 있다.
상술한 바와 같은 실시형태들은 다양한 이동통신 시스템에 적용될 수 있다.

Claims (10)

  1. 무선 통신 시스템에서 단말을 위한 동작을 수행하는 방법에 있어서,
    하나 이상의 RSU(Road Side Unit)에 제1 메시지를 전송하는 단계; 및
    상기 하나 이상의 RSU에 제2 메시지를 전송하는 단계;
    를 포함하며,
    상기 제1 메시지는 상기 하나 이상의 RSU 각각의 고유 정보를 인식하여 획득된 상기 하나 이상의 RSU 각각의 위치 정보를 포함하고,
    상기 제2 메시지는 상기 하나 이상의 RSU 각각의 위치 정보를 취합한 위치 리스트를 포함하는, 방법.
  2. 제1항에 있어서,
    상기 제2 메시지는 상기 하나 이상의 RSU간에 송수신되는, 방법.
  3. 제1항에 있어서,
    상기 하나 이상의 RSU는 상기 제2 메시지를 이용하여 차량에 안전 메시지를 전송하고,
    상기 안전 메시지는 상기 하나 이상의 RSU가 위치한 공사장 영역 정보를 포함하는, 방법.
  4. 제1항에 있어서,
    기지국 또는 소프트 V2X 서버에 공사장 공통 정보를 요청하는 단계; 및
    상기 기지국 또는 소프트 V2X 서버로부터 상기 공사장 공통 정보를 수신하는 단계를 더 포함하는, 방법.
  5. 제4항에 있어서,
    상기 제1 메시지 및 상기 제2 메시지는 상기 공사장 공통 정보를 포함하는, 방법.
  6. 제4항에 있어서,
    상기 공사장 공통 정보는 공사 종류 또는 공사 기간에 대한 정보를 포함하는, 방법.
  7. 제1항에 있어서,
    기지국 또는 V2X 서버에 상기 제2 메시지를 전송하는 단계를 더 포함하고,
    상기 기지국 또는 V2X 서버는 상기 제2 메시지를 이용하여 차량에 안전 메시지를 전송하는, 방법.
  8. 무선통신시스템에서,
    적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서에 동작 가능하게 연결될 수 있고, 실행될 때 상기 적어도 하나의 프로세서로 하여금 동작들을 수행하게 하는 명령들을 저장하는 적어도 하나의 컴퓨터 메모리를 포함하며,
    상기 동작들은, 하나 이상의 RSU(Road Side Unit)에 제1 메시지를 전송하는 단계; 및
    상기 하나 이상의 RSU에 제2 메시지를 전송하는 단계;
    를 포함하며,
    상기 제1 메시지는 상기 하나 이상의 RSU 각각의 고유 정보를 인식하여 획득된 상기 하나 이상의 RSU 각각의 위치 정보를 포함하고,
    상기 제2 메시지는 상기 하나 이상의 RSU 각각의 위치 정보를 취합한 위치 리스트를 포함하는, 단말.
  9. 적어도 하나의 프로세서에 의해 실행될 때, 적어도 하나의 프로세서가 UE를 위한 동작들을 수행하게 하는 명령을 포함하는 적어도 하나의 컴퓨터 프로그램을 저장하는 컴퓨터 판독 가능 저장 매체에 있어서,
    상기 동작들은, 하나 이상의 RSU(Road Side Unit)에 제1 메시지를 전송하는 단계; 및
    상기 하나 이상의 RSU에 제2 메시지를 전송하는 단계;
    를 포함하며,
    상기 제1 메시지는 상기 하나 이상의 RSU 각각의 고유 정보를 인식하여 획득된 상기 하나 이상의 RSU 각각의 위치 정보를 포함하고,
    상기 제2 메시지는 상기 하나 이상의 RSU 각각의 위치 정보를 취합한 위치 리스트를 포함하는, 매체.
  10. 제8항에 있어서,
    상기 단말은 자율주행 차량 또는 자율주행 차량에 포함된 것인, 단말.
PCT/KR2020/007736 2019-06-13 2020-06-15 무선 통신 시스템에서 단말의 신호 송수신 방법 WO2020251335A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/618,703 US20220248176A1 (en) 2019-06-13 2020-06-15 Method for terminal to transmit and receive signal in wireless communication system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0069946 2019-06-13
KR20190069946 2019-06-13

Publications (1)

Publication Number Publication Date
WO2020251335A1 true WO2020251335A1 (ko) 2020-12-17

Family

ID=73782196

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/007736 WO2020251335A1 (ko) 2019-06-13 2020-06-15 무선 통신 시스템에서 단말의 신호 송수신 방법

Country Status (2)

Country Link
US (1) US20220248176A1 (ko)
WO (1) WO2020251335A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220253913A1 (en) * 2021-02-09 2022-08-11 Ford Global Technologies, Llc Systems and methods for re-simulating vehicle usages

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090154379A1 (en) * 2007-12-18 2009-06-18 Fujitsu Limited Radio resource allocation system and roadside equipment
US20170053530A1 (en) * 2015-08-19 2017-02-23 Qualcomm Incorporated Safety event message transmission timing in dedicated short-range communication (dsrc)
US20170092126A1 (en) * 2015-09-28 2017-03-30 Renesas Electronics Corporation Data processing device and in-vehicle communication device
KR20170116708A (ko) * 2016-04-12 2017-10-20 한국전자통신연구원 열차 추돌 방지 시스템

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090154379A1 (en) * 2007-12-18 2009-06-18 Fujitsu Limited Radio resource allocation system and roadside equipment
US20170053530A1 (en) * 2015-08-19 2017-02-23 Qualcomm Incorporated Safety event message transmission timing in dedicated short-range communication (dsrc)
US20170092126A1 (en) * 2015-09-28 2017-03-30 Renesas Electronics Corporation Data processing device and in-vehicle communication device
KR20170116708A (ko) * 2016-04-12 2017-10-20 한국전자통신연구원 열차 추돌 방지 시스템

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
J. PARIKH: "Software Tools for: Connected Work Zone Mapping and Message Building", DOCUMENT, 26 March 2018 (2018-03-26), XP055769424, Retrieved from the Internet <URL:https://www.workzonesafety.org/files/documents/SWZ/TX_workshop_3-26-2018_Jay_Parikh.pdf> *

Also Published As

Publication number Publication date
US20220248176A1 (en) 2022-08-04

Similar Documents

Publication Publication Date Title
WO2021029672A1 (ko) 무선통신시스템에서 사이드링크 drx에 관련된 ue의 동작 방법 및 장치
WO2020017885A1 (ko) Nr v2x에서 tbs를 결정하는 방법 및 장치
WO2021096244A1 (ko) 무선통신시스템에서 사이드링크 drx에 관련된 ue의 동작 방법
WO2020032546A1 (ko) Nr v2x에서 자원 예약을 수행하는 방법 및 장치
WO2021141408A1 (ko) 무선통신시스템에서 단말이 신호를 송수신하는 방법
WO2021085908A1 (ko) 무선통신시스템에서 as configuration 관련 사이드링크 ue의 동작 방법
WO2021025250A1 (ko) 주변 차량 상태 정보 공유 방법 및 장치
WO2021040379A1 (ko) 무선통신시스템에서 사이드링크 rlm, rlf에 관련된 ue의 동작 방법 및 장치
WO2021162506A1 (ko) 무선통신시스템에서 릴레이 ue에 관련된 ue의 동작 방법
WO2021221448A1 (ko) 무선통신시스템에서 릴레이 수립 요청에 관련된 릴레이 ue의 동작 방법
WO2021025467A1 (ko) 무선통신시스템에서 신호 송수신 방법
WO2020159287A1 (en) Method and apparatus for handling bearers based on congestion level in a wireless communication system
WO2020251314A1 (ko) 무선 통신 시스템에서 rsu 간의 신호 송수신 방법
WO2021085909A1 (ko) 무선통신시스템에서 pc5 유니캐스트 링크 해제에 관련된 ue의 동작 방법
WO2021040361A1 (ko) 무선통신시스템에서 단말의 신호 송수신 방법
WO2021040344A1 (ko) 무선통신시스템에서 신호 송수신 방법
WO2021040378A1 (ko) 무선통신시스템에서 rlf 발생 후 사이드링크 신호를 송수신하는 ue의 동작 방법 및 장치
WO2021075877A1 (ko) 무선통신시스템에서 사이드링크 타이머에 관련된 ue의 동작 방법
WO2021187649A1 (ko) 클러스터 관리 방법 및 장치
WO2020251335A1 (ko) 무선 통신 시스템에서 단말의 신호 송수신 방법
WO2023287259A1 (ko) 무선통신시스템에서 사이드링크 릴레이에서 핸드오버에 관련된 동작 방법
WO2022035182A1 (ko) 무선통신시스템에서 센서 로우 데이터 공유와 피드백에 관련된 ue의 동작 방법.
WO2021145751A1 (ko) 무선통신시스템에서 사이드링크 ptrs에 관련된 ue의 동작 방법
WO2021002734A1 (ko) 무선통신시스템에서 신호 송수신 방법
WO2023043200A1 (ko) 무선통신시스템에서 사이드링크 연결 수립에 관련된 릴레이 ue의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20823095

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20823095

Country of ref document: EP

Kind code of ref document: A1