WO2024035118A1 - 센서 정보를 변환 및 전송하는 방법 및 장치 - Google Patents
센서 정보를 변환 및 전송하는 방법 및 장치 Download PDFInfo
- Publication number
- WO2024035118A1 WO2024035118A1 PCT/KR2023/011758 KR2023011758W WO2024035118A1 WO 2024035118 A1 WO2024035118 A1 WO 2024035118A1 KR 2023011758 W KR2023011758 W KR 2023011758W WO 2024035118 A1 WO2024035118 A1 WO 2024035118A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- information
- state information
- perspective
- processor
- message
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 95
- 238000004891 communication Methods 0.000 claims abstract description 126
- 230000015654 memory Effects 0.000 claims description 50
- 238000012545 processing Methods 0.000 claims description 26
- 238000009877 rendering Methods 0.000 claims description 10
- 230000008447 perception Effects 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 description 47
- 238000013473 artificial intelligence Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 19
- 230000008569 process Effects 0.000 description 16
- 230000005540 biological transmission Effects 0.000 description 10
- 239000010410 layer Substances 0.000 description 8
- 230000010354 integration Effects 0.000 description 5
- 230000003595 spectral effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000010267 cellular communication Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 102100022734 Acyl carrier protein, mitochondrial Human genes 0.000 description 1
- 101000678845 Homo sapiens Acyl carrier protein, mitochondrial Proteins 0.000 description 1
- 230000027311 M phase Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000012938 design process Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003306 harvesting Methods 0.000 description 1
- 239000002346 layers by function Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 238000005549 size reduction Methods 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/40—Correcting position, velocity or attitude
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/06—Selective distribution of broadcast services, e.g. multimedia broadcast multicast service [MBMS]; Services to user groups; One-way selective calling services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/38—Services specially adapted for particular environments, situations or purposes for collecting sensor information
Definitions
- This disclosure relates to wireless communication systems.
- a wireless communication system is a multiple access system that supports communication with multiple users by sharing available system resources (eg, bandwidth, transmission power, etc.).
- multiple access systems include code division multiple access (CDMA) systems, frequency division multiple access (FDMA) systems, time division multiple access (TDMA) systems, orthogonal frequency division multiple access (OFDMA) systems, and single carrier frequency (SC-FDMA) systems. division multiple access) system, MC-FDMA (multi carrier frequency division multiple access) system, etc.
- SL refers to a communication method that establishes a direct link between terminals (User Equipment, UE) and directly exchanges voice or data between terminals without going through a base station (BS).
- UE User Equipment
- BS base station
- SL is being considered as a way to solve the burden on base stations due to rapidly increasing data traffic.
- V2X vehicle-to-everything refers to a communication technology that exchanges information with other vehicles, pedestrians, and objects with built infrastructure through wired/wireless communication.
- V2X can be divided into four types: vehicle-to-vehicle (V2V), vehicle-to-infrastructure (V2I), vehicle-to-network (V2N), and vehicle-to-pedestrian (V2P).
- V2X communication may be provided through the PC5 interface and/or the Uu interface.
- next-generation wireless access technology that takes these into consideration may be referred to as new radio access technology (RAT) or new radio (NR).
- RAT new radio access technology
- NR new radio
- a method for a first device to perform wireless communication. The method includes obtaining first state information of an object based on at least one of information acquired through one or more sensors connected to the first device or information received from one or more devices; converting the first state information into second state information from the perspective of a second device; and transmitting a message including the second status information to the second device.
- a first device configured to perform wireless communications.
- the first device includes at least one transceiver; at least one processor; and at least one memory coupled to the at least one processor and storing instructions, the instructions being executed by the at least one processor to cause the first device to: Obtain first state information of the object based on at least one of information acquired through one or more sensors or information received from one or more devices; convert the first state information into second state information from the perspective of a second device; And a message containing the second status information may be transmitted to the second device.
- a processing device configured to control a first device.
- the processing device includes at least one processor; and at least one memory coupled to the at least one processor and storing instructions, the instructions being executed by the at least one processor to cause the first device to: Obtain first state information of the object based on at least one of information acquired through one or more sensors or information received from one or more devices; convert the first state information into second state information from the perspective of a second device; And a message containing the second status information may be transmitted to the second device.
- a non-transitory computer-readable storage medium recording instructions.
- the instructions when executed, cause a first device to: generate first state information of an object based on at least one of information obtained through one or more sensors connected to the first device or information received from one or more devices. to acquire; convert the first state information into second state information from the perspective of a second device; And a message containing the second status information may be transmitted to the second device.
- Figure 1 shows a communication structure that can be provided in a 6G system according to an embodiment of the present disclosure.
- Figure 2 shows an electromagnetic spectrum, according to one embodiment of the present disclosure.
- Figure 3 shows a method of displaying location information of an object, according to an embodiment of the present disclosure.
- Figure 4 shows location information of a detected object, according to an embodiment of the present disclosure.
- Figure 5 shows a multi-object recognition situation at an intersection, according to an embodiment of the present disclosure.
- Figure 6 shows object information and shadow areas acquired from a sensor, according to an embodiment of the present disclosure.
- Figure 7 shows an example of fusing information measured from different angles by two cameras (PoV #1 and PoV #2) of an RSU installed at an intersection, according to an embodiment of the present disclosure.
- Figure 8 shows an example of fusing information measured by sensors (PoV #1 and PoV #2) of two vehicles located at different angles, according to an embodiment of the present disclosure.
- Figure 9 shows an example of a 3D rendering technique according to an embodiment of the present disclosure.
- 10 to 14 show an example of providing sensor information acquired from two sensors (PoV #1, 2) connected to an RSU to a vehicle (PoV #3) in an intersection environment, according to an embodiment of the present disclosure.
- Figure 15 shows a method of converting and transmitting sensor information according to an embodiment of the present disclosure.
- Figure 16 shows a method by which a first device performs wireless communication, according to an embodiment of the present disclosure.
- Figure 17 shows a method by which a second device performs wireless communication, according to an embodiment of the present disclosure.
- Figure 18 shows a communication system 1, according to one embodiment of the present disclosure.
- Figure 19 shows a wireless device, according to an embodiment of the present disclosure.
- Figure 20 shows a signal processing circuit for a transmission signal, according to an embodiment of the present disclosure.
- Figure 21 shows a wireless device, according to an embodiment of the present disclosure.
- FIG. 22 shows a portable device according to an embodiment of the present disclosure.
- FIG. 23 shows a vehicle or autonomous vehicle, according to an embodiment of the present disclosure.
- a or B may mean “only A,” “only B,” or “both A and B.” In other words, in this specification, “A or B” may be interpreted as “A and/or B.”
- A, B or C refers to “only A,” “only B,” “only C,” or “any and all combinations of A, B, and C ( It can mean “any combination of A, B and C)”.
- the slash (/) or comma used in this specification may mean “and/or.”
- A/B can mean “A and/or B.”
- A/B can mean “only A,” “only B,” or “both A and B.”
- A, B, C can mean “A, B, or C.”
- At least one of A and B may mean “only A,” “only B,” or “both A and B.”
- the expression “at least one of A or B” or “at least one of A and/or B” means “at least one It can be interpreted the same as "at least one of A and B”.
- At least one of A, B and C means “only A”, “only B”, “only C”, or “A, B and C”. It can mean “any combination of A, B and C.” Also, “at least one of A, B or C” or “at least one of A, B and/or C” means It may mean “at least one of A, B and C.”
- control information may be proposed as an example of “control information.”
- control information in this specification is not limited to “PDCCH,” and “PDCCH” may be proposed as an example of “control information.”
- PDCCH control information
- CDMA code division multiple access
- FDMA frequency division multiple access
- TDMA time division multiple access
- OFDMA orthogonal frequency division multiple access
- SC-FDMA single carrier frequency division multiple access
- CDMA can be implemented with wireless technologies such as universal terrestrial radio access (UTRA) or CDMA2000.
- TDMA may be implemented with wireless technologies such as global system for mobile communications (GSM)/general packet radio service (GPRS)/enhanced data rates for GSM evolution (EDGE).
- GSM global system for mobile communications
- GPRS general packet radio service
- EDGE enhanced data rates for GSM evolution
- OFDMA can be implemented with wireless technologies such as Institute of Electrical and Electronics Engineers (IEEE) 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802-20, evolved UTRA (E-UTRA), etc.
- IEEE Institute of Electrical and Electronics Engineers
- Wi-Fi Wi-Fi
- WiMAX IEEE 802.16
- E-UTRA evolved UTRA
- IEEE 802.16m is an evolution of IEEE 802.16e and provides backward compatibility with systems based on IEEE 802.16e.
- UTRA is part of the universal mobile telecommunications system (UMTS).
- 3GPP (3rd generation partnership project) LTE (long term evolution) is a part of E-UMTS (evolved UMTS) that uses E-UTRA (evolved-UMTS terrestrial radio access), employing OFDMA in the downlink and SC in the uplink.
- -Adopt FDMA LTE-A (advanced) is the evolution of 3GPP LTE.
- 5G NR is a successor technology to LTE-A and is a new clean-slate mobile communication system with characteristics such as high performance, low latency, and high availability.
- 5G NR can utilize all available spectrum resources, including low-frequency bands below 1 GHz, mid-frequency bands between 1 GHz and 10 GHz, and high-frequency (millimeter wave) bands above 24 GHz.
- 6G (wireless communications) systems require (i) very high data rates per device, (ii) very large number of connected devices, (iii) global connectivity, (iv) very low latency, (v) battery- The goal is to reduce the energy consumption of battery-free IoT devices, (vi) ultra-reliable connectivity, and (vii) connected intelligence with machine learning capabilities.
- the vision of the 6G system can be four aspects such as intelligent connectivity, deep connectivity, holographic connectivity, and ubiquitous connectivity, and the 6G system can satisfy the requirements as shown in Table 1 below. That is, Table 1 is a table showing an example of the requirements of a 6G system.
- the 6G system includes eMBB (Enhanced mobile broadband), URLLC (Ultra-reliable low latency communications), mMTC (massive machine-type communication), AI integrated communication, Tactile internet, High throughput, High network capacity, High energy efficiency, Low backhaul and It can have key factors such as access network congestion and enhanced data security.
- eMBB Enhanced mobile broadband
- URLLC Ultra-reliable low latency communications
- mMTC massive machine-type communication
- AI integrated communication Tactile internet, High throughput, High network capacity, High energy efficiency, Low backhaul and It can have key factors such as access network congestion and enhanced data security.
- Figure 1 shows a communication structure that can be provided in a 6G system according to an embodiment of the present disclosure.
- the embodiment of FIG. 1 may be combined with various embodiments of the present disclosure.
- the 6G system is expected to have simultaneous wireless communication connectivity that is 50 times higher than that of the 5G wireless communication system.
- URLLC a key feature of 5G, will become an even more important technology in 6G communications by providing end-to-end delay of less than 1ms.
- the 6G system will have much better volumetric spectral efficiency, unlike the frequently used area spectral efficiency.
- 6G systems can provide ultra-long battery life and advanced battery technologies for energy harvesting, so mobile devices in 6G systems will not need to be separately charged.
- New network characteristics in 6G may include:
- 6G is expected to be integrated with satellites to serve the global mobile constellation. Integration of terrestrial, satellite and aerial networks into one wireless communication system is very important for 6G.
- 6G wireless networks will deliver power to charge the batteries of devices such as smartphones and sensors. Therefore, wireless information and energy transfer (WIET) will be integrated.
- WIET wireless information and energy transfer
- Small cell networks The idea of small cell networks was introduced to improve received signal quality resulting in improved throughput, energy efficiency and spectral efficiency in cellular systems. As a result, small cell networks are an essential feature for 5G and Beyond 5G (5GB) communications systems. Therefore, the 6G communication system also adopts the characteristics of a small cell network.
- Ultra-dense heterogeneous networks will be another important characteristic of the 6G communication system. Multi-tier networks comprised of heterogeneous networks improve overall QoS and reduce costs.
- Backhaul connections are characterized by high-capacity backhaul networks to support high-capacity traffic.
- High-speed fiber and free-space optics (FSO) systems may be possible solutions to this problem.
- High-precision localization (or location-based services) through communication is one of the functions of the 6G wireless communication system. Therefore, radar systems will be integrated with 6G networks.
- Softwarization and virtualization are two important features that form the basis of the design process in 5GB networks to ensure flexibility, reconfigurability, and programmability. Additionally, billions of devices may be shared on a shared physical infrastructure.
- AI Artificial Intelligence
- 5G systems will support partial or very limited AI.
- 6G systems will be AI-enabled for full automation.
- Advances in machine learning will create more intelligent networks for real-time communications in 6G.
- Introducing AI in communications can simplify and improve real-time data transmission.
- AI can use numerous analytics to determine how complex target tasks are performed. In other words, AI can increase efficiency and reduce processing delays. Time-consuming tasks such as handover, network selection, and resource scheduling can be performed instantly by using AI.
- AI can also play an important role in M2M, machine-to-human and human-to-machine communications. Additionally, AI can enable rapid communication in BCI (Brain Computer Interface).
- AI-based communication systems can be supported by metamaterials, intelligent structures, intelligent networks, intelligent devices, intelligent cognitive radios, self-sustaining wireless networks, and machine learning.
- THz Communication Data transmission rate can be increased by increasing bandwidth. This can be accomplished by using sub-THz communications with wide bandwidth and applying advanced massive MIMO technology.
- THz waves also known as submillimeter radiation, typically represent a frequency band between 0.1 THz and 10 THz with a corresponding wavelength in the range 0.03 mm-3 mm.
- the 100GHz-300GHz band range (Sub THz band) is considered the main part of the THz band for cellular communications.
- Adding the Sub-THz band to the mmWave band increases 6G cellular communication capacity.
- 300GHz-3THz is in the far infrared (IR) frequency band.
- the 300GHz-3THz band is part of the wideband, but it is at the border of the wideband and immediately behind the RF band. Therefore, this 300 GHz-3 THz band shows similarities to RF.
- Figure 2 shows an electromagnetic spectrum, according to one embodiment of the present disclosure. The embodiment of FIG. 2 may be combined with various embodiments of the present disclosure. Key characteristics of THz communications include (i) widely available bandwidth to support very high data rates, (ii) high path loss occurring at high frequencies (highly directional antennas are indispensable). The narrow beamwidth produced by a highly directional antenna reduces interference. The small wavelength of THz signals allows a much larger number of antenna elements to be integrated into devices and BSs operating in this band. This enables the use of advanced adaptive array techniques that can overcome range limitations.
- NTN Non-Terrestrial Networks
- Unmanned Aerial Vehicle UAV
- UAV Unmanned Aerial Vehicle
- the BS entity is installed on the UAV to provide cellular connectivity.
- UAVs have certain features not found in fixed BS infrastructure, such as easy deployment, strong line-of-sight links, and controlled degrees of freedom for mobility.
- emergency situations such as natural disasters, the deployment of terrestrial communications infrastructure is not economically feasible and sometimes cannot provide services in volatile environments.
- UAVs can easily handle these situations.
- UAV will become a new paradigm in the wireless communication field. This technology facilitates three basic requirements of wireless networks: eMBB, URLLC, and mMTC.
- UAVs can also support several purposes, such as improving network connectivity, fire detection, disaster emergency services, security and surveillance, pollution monitoring, parking monitoring, accident monitoring, etc. Therefore, UAV technology is recognized as one of the most important technologies for 6G communications.
- V2X Vehicle to Everything
- V2V Vehicle to Vehicle
- V2I Vehicle to Infrastructure
- 5G NR is mainly described, but the technical idea according to an embodiment of the present disclosure is not limited thereto. Various embodiments of the present disclosure can also be applied to 6G communication systems.
- CPS Cold Perception Service
- sensors e.g., LIDAR (Light Detection And Ranging), RADAR (Radio Detection And Ranging), cameras, etc.
- road users or infrastructure collect information about objects (e.g. road users, obstacles, etc.) detected by one or more sensors of the sender with the purpose of reducing the risk of collision by increasing awareness of other road users or obstacles on the road.
- CPM Cold Perception Message
- Figure 3 shows a method of displaying location information of an object, according to an embodiment of the present disclosure.
- the embodiment of FIG. 3 may be combined with various embodiments of the present disclosure.
- the location information of the object is The shortest distance from the sender's sensor location ( ⁇ DV , ⁇ DV ) to the detected object can be expressed from the sender's perspective as relative coordinate values (xDistance and yDistance in FIG. 3).
- the receiver that receives sensor information through CPM can determine the location of the object by calculating the absolute position based on the sensor location of the transmitter and each detected relative position.
- the receiver can know not only the location of the transmitter but also three-dimensional information.
- the relative positions of the detected objects are expressed from the sender's perspective, as shown in FIG. 3.
- This method may have limitations in using the service when the recipient lacks processing resources to calculate the absolute location.
- the receiver when displaying the location information of an object based on the shortest distance to the object from the sender's perspective, the receiver has limitations in detecting the exact location of a large three-dimensional object.
- Figure 4 shows location information of a detected object, according to an embodiment of the present disclosure.
- the embodiment of FIG. 4 may be combined with various embodiments of the present disclosure.
- the location information of the object (Obj#1) detected by the RSU (PoV#1, PoV#2) points to point 1.
- point 2 is more valid object location information than point 1, but the RSU transmits the location of point 1 rather than point 2 in the CPM.
- the transmitter detects the moving direction value (yaw angle) and size information (length, width, height) of an object with multiple sensors and transmits them as optional information in the CPM
- the receiver receives the object's location information (point 1) and size. Point 2 and distance 2 must be calculated directly using the information.
- Figure 5 shows a multi-object recognition situation at an intersection, according to an embodiment of the present disclosure.
- the embodiment of FIG. 5 may be combined with various embodiments of the present disclosure.
- Figure 6 shows object information and shadow areas acquired from a sensor, according to an embodiment of the present disclosure.
- the embodiment of FIG. 6 may be combined with various embodiments of the present disclosure.
- the area detected by the sensor may be the same as Figure 6, and shadow areas such as the area behind the object (shadow from object) and areas that are difficult for the sensor to detect may occur.
- multiple sensors from the same transmitter e.g. two or more cameras of an RSU or two or more vehicles facing the same place but with different headings
- fusion of sensor information from multiple transmitters e.g. (e.g. ITS server) to minimize these shadow areas.
- Figure 7 shows an example of fusing information measured from different angles by two cameras (PoV #1 and PoV #2) of an RSU installed at an intersection, according to an embodiment of the present disclosure.
- Figure 8 shows an example of fusing information measured by sensors (PoV #1 and PoV #2) of two vehicles located at different angles, according to an embodiment of the present disclosure.
- the embodiment of FIG. 7 or FIG. 8 may be combined with various embodiments of the present disclosure.
- a threshold value e.g. 80%
- image extraction from the receiver's perspective can be performed using 3D rendering techniques using 2D information measured from multiple sensors.
- the 3D rendering technique is a technique for obtaining an image from a third perspective to be obtained from images obtained from two or more perspectives.
- Various AI algorithms are used using two reference views A and B as shown in FIG. 9. This may be a technique to obtain an image in a query view through calculation.
- Figure 9 shows an example of a 3D rendering technique according to an embodiment of the present disclosure. The embodiment of FIG. 9 may be combined with various embodiments of the present disclosure.
- a 2D image from the receiver's perspective can be obtained from 2D information from the service provider's perspective, and information on each object (eg, location, direction, etc.) can be converted at the receiver's location.
- size information of the object (Obj#1) shown in FIG. 4 can be accurately obtained through 3D rendering techniques using 2D images measured by multiple sensors (PoV #1, 2).
- the position of the object (Obj#1) as seen by the receiver (PoV #3) (point 2) and the shortest distance between the receiver (PoV #3) and the object (Obj#1) (distance 2) can be calculated.
- the shadow area can be minimized with a plurality of sensors, and the sender provides information (position, speed) of the object from the receiver's perspective based on the receiver's information (position, direction). , direction, etc.) can be calculated through rendering techniques.
- the sender can transmit information about objects converted from the receiver's perspective to the receiver using unicast or group cast.
- an information flag bit may be added to the message (CPM) as an indication that the object information included in the message has been converted to the recipient's perspective.
- the information flag bit may indicate that object information included in the message is information converted from the recipient's perspective.
- the receiver receives object information in the message based on the information flag bit (e.g. Raw data: 0, Converted data: 1) after receiving the message. It can be seen that is information converted from the recipient's perspective.
- the message includes a value converted from the recipient's perspective
- optional information such as the object's movement direction value (yaw angle) and size information value (width, length, height) may be added to the message.
- the object's movement direction value (yaw angle), size information value (width, length, height), etc. which are optional information, may be omitted from the message.
- the selection information may be omitted from the message. For example, if it is determined that the accuracy of the size information value of an object obtained by multiple sensors is high, the selection information may be omitted from the message. For example, if the difference between the object size information values obtained by multiple sensors is less than a certain value, the selection information may be omitted from the message. For example, when it is determined that each object information obtained by multiple sensors is identical or highly similar, each object may be recognized as the same object, and the information about each object is integrated into one information. It can be. For example, in a multi-sensor environment, when the difference between the size information values of objects obtained by each sensor is less than a certain value, each object may be recognized as the same object, and the information about each object is one piece of information. can be integrated into In this case, for example, the sender may include a fused value of information obtained from each sensor or a representative sensor value in the message, and the remaining sensor values may be omitted from the message.
- selection information may be added to the message. For example, if the size information value of an object obtained by multiple sensors changes from the previous value, selection information may be added to the message. For example, if the size information value of an object obtained by multiple sensors changes from the previous value due to measurement error, change in actual size, etc., selection information may be added to the message.
- the size information of the object may be omitted from the message.
- the moving direction value (yaw angle) of an object cannot be measured or is inaccurate (for example, in a stationary state) because the moving direction value (yaw angle) is a reference point representing the size information of the object, the size information of the object may be omitted from the above message.
- FIGS. 10 to 14 show an example of providing sensor information acquired from two sensors (PoV #1, 2) connected to an RSU to a vehicle (PoV #3) in an intersection environment, according to an embodiment of the present disclosure.
- the embodiments of FIGS. 10 to 14 may be combined with various embodiments of the present disclosure.
- the RSU receives information (position, direction, etc.) of the receiver (PoV #3) through an awareness message (e.g., CAM) or sends a separate sensor information request message from the receiver. It can be received through.
- an awareness message e.g., CAM
- the information acquired from the sensor (PoV #1) includes objects (Obj #2, 3, 4, 5) as shown in FIG. 11. There may be an object (Obj #1) that cannot be detected because it is hidden in the shadow area of the object (Obj #3).
- the shadow area can be minimized.
- all objects including occluded objects (Obj #1 and 2), can be detected.
- This information fusion method more objects can be detected and location information can be calculated in various cases.
- the size of the area projected on the ground for each object can be compared.
- the overlapping area is more than 80%, the objects can be recognized as the same object.
- the sender can convert information about the objects from the receiver's perspective (PoV #3) as shown in FIG. 14. Afterwards, the sender can put the converted information in the CPM and deliver it to the corresponding receiver (PoV #3) using unicast or group cast.
- the size information may be omitted to reduce the size of the message. Since the data size of size information is proportional to the number of objects, if the number of objects included in one message (CPM) is large, the message size reduction effect can be significant.
- Figure 15 shows a method of converting and transmitting sensor information according to an embodiment of the present disclosure.
- the embodiment of FIG. 15 may be combined with various embodiments of the present disclosure.
- the sensor information provider may receive the recipient's recognition message or sensor information provision request message.
- the sensor information provider may fuse multiple sensor information to minimize the shadow area and maximize the number of detected objects.
- the sensor information provider can convert information about the detected objects into the recipient's perspective (based on location and direction) through a 3D rendering technique.
- the sensor information provider may store the converted information in the CPM and then transmit it. In the embodiment of Figure 15, some steps may be omitted.
- Figure 16 shows a method by which a first device performs wireless communication, according to an embodiment of the present disclosure.
- the embodiment of FIG. 16 may be combined with various embodiments of the present disclosure.
- the first device in step S1610, the first device generates first state information of the object based on at least one of information acquired through one or more sensors connected to the first device or information received from one or more devices. can be obtained.
- the first device may convert the first state information into second state information from the perspective of the second device.
- the first device may transmit a message including the second status information to the second device.
- the message may be a collective perception message (CPM).
- CPM collective perception message
- the second state information includes at least one of position information of the object, direction information of the object, speed information of the object, or size information of the object, converted to the perspective of the second device. It can be included.
- the message may include information indicating that the second state information is converted information from the perspective of the second device.
- information indicating that the second state information is converted information from the perspective of the second device may be a 1-bit flag.
- the size information of the object may be excluded from the second state information.
- the size information of the object may be excluded from the second status information.
- information indicating that the second state information is information converted from the perspective of the second device is included in the message, and based on the accuracy of the direction information of the object being less than or equal to a threshold, the size information of the object may be excluded from the second status information.
- the message including the second status information may be transmitted to the second device based on group cast or unicast.
- the first device may obtain third state information of the object from the first state information based on 3D rendering.
- the second state information may be obtained based on at least one of reference location information of the first device, location information of the second device, or the third state information.
- the first device may receive an awareness message or a sensor information request message including at least one of location information or direction information of the second device from the second device. .
- the first state information minimizes the shadow area and maximizes the number of detected objects based on at least one of information acquired through one or more sensors connected to the first device or information received from one or more devices. It may be acquired information.
- the first device may be a road side unit (RSU) or an intelligent transportation system (ITS) server.
- RSU road side unit
- ITS intelligent transportation system
- the processor 102 of the first device 100 generates first state information of the object based on at least one of information acquired through one or more sensors connected to the first device or information received from one or more devices. can be obtained. Additionally, the processor 102 of the first device 100 may convert the first state information into second state information from the perspective of the second device. Additionally, the processor 102 of the first device 100 may control the transceiver 106 to transmit a message including the second status information to the second device.
- a first device configured to perform wireless communication
- the first device may include at least one transceiver; at least one processor; and at least one memory connected to the at least one processor and storing instructions.
- the instructions may cause the first device, based on execution by the at least one processor, to: at least one of information obtained through one or more sensors connected to the first device or information received from one or more devices. Based on either one, obtain first state information of the object; convert the first state information into second state information from the perspective of a second device; And a message containing the second status information may be transmitted to the second device.
- a processing device configured to control a first device.
- the processing device may include at least one processor; and at least one memory connected to the at least one processor and storing instructions.
- the instructions may cause the first device, based on execution by the at least one processor, to: at least one of information obtained through one or more sensors connected to the first device or information received from one or more devices. Based on either one, obtain first state information of the object; convert the first state information into second state information from the perspective of a second device; And a message containing the second status information may be transmitted to the second device.
- a non-transitory computer-readable storage medium recording instructions may be provided.
- the instructions when executed, cause a first device to: detect an object based on at least one of information obtained through one or more sensors connected to the first device or information received from one or more devices. 1 obtain status information; convert the first state information into second state information from the perspective of a second device; And a message containing the second status information may be transmitted to the second device.
- Figure 17 shows a method by which a second device performs wireless communication, according to an embodiment of the present disclosure.
- the embodiment of FIG. 17 may be combined with various embodiments of the present disclosure.
- the second device may receive a message including second state information of the object from the first device.
- the second device may obtain the distance between the object and the second device based on the second state information.
- the first state information of the object may be obtained based on at least one of information acquired through one or more sensors connected to the first device or information received from one or more devices.
- the first state information may be converted by the first device into the second state information from the perspective of the second device.
- the processor 202 of the second device 200 can be applied to devices according to various embodiments of the present disclosure.
- the processor 202 of the second device 200 is the processor 202 of the second device 200.
- a message containing second state information of the object may be received from the first device.
- the second device may obtain the distance between the object and the second device based on the second state information.
- the first state information of the object may be obtained based on at least one of information acquired through one or more sensors connected to the first device or information received from one or more devices.
- the first state information may be converted by the first device into the second state information from the perspective of the second device.
- a second device configured to perform wireless communication
- the second device may include at least one transceiver; at least one processor; and at least one memory connected to the at least one processor and storing instructions.
- the instructions upon being executed by the at least one processor, cause the second device to: receive a message containing second state information of an object from the first device; and obtain the distance between the object and the second device based on the second state information.
- the first state information of the object may be obtained based on at least one of information acquired through one or more sensors connected to the first device or information received from one or more devices.
- the first state information may be converted by the first device into the second state information from the perspective of the second device.
- a processing device configured to control a second device.
- the processing device may include at least one processor; and at least one memory connected to the at least one processor and storing instructions.
- the instructions upon being executed by the at least one processor, cause the second device to: receive a message containing second state information of an object from the first device; and obtain the distance between the object and the second device based on the second state information.
- the first state information of the object may be obtained based on at least one of information acquired through one or more sensors connected to the first device or information received from one or more devices.
- the first state information may be converted by the first device into the second state information from the perspective of the second device.
- a non-transitory computer-readable storage medium recording instructions may be provided.
- the instructions when executed, cause the second device to: receive a message from the first device containing second state information of the object; and obtain the distance between the object and the second device based on the second state information.
- the first state information of the object may be obtained based on at least one of information acquired through one or more sensors connected to the first device or information received from one or more devices.
- the first state information may be converted by the first device into the second state information from the perspective of the second device.
- an information provider eg, RSU, server equipped with multiple sensors at various angles can acquire one or several multi-angle sensor information measured by multiple sensors. And, optionally, the information provider can fuse the information. Additionally, the information provider can convert the sensor information into a perspective based on the location information and direction information of a specific receiver or group. Then, the information provider can transmit the converted information to the corresponding receiver or group via unicast or group cast.
- a sender e.g., RSU, server
- RSU Radio Service Set
- the receiver can know the shortest distance (distance 2 in Figure 4) of the object from the receiver's perspective with fewer processing resources. That is, when the sender recognizes and positions an object, the point (point 1 in FIG. 4) is the closest point to the sender, but the sender is the closest point when the receiver looks at the point according to the method proposed in this disclosure. It can be converted to a point (point 2 in FIG. 4) and transmitted. Therefore, the recipient can effectively recognize the object.
- the sender can omit transmitting the direction and size information of the object necessary to derive the point (point 2 in FIG. 4) that the receiver is closest to.
- the size of the transmitted message can be reduced.
- multiple sensors installed or positioned at various angles can detect even hidden objects in crowded situations, and object size information can also have higher accuracy.
- FIG. 18 shows a communication system 1, according to one embodiment of the present disclosure.
- the embodiment of FIG. 18 may be combined with various embodiments of the present disclosure.
- a communication system 1 to which various embodiments of the present disclosure are applied includes a wireless device, a base station, and a network.
- a wireless device refers to a device that performs communication using wireless access technology (e.g., 5G NR (New RAT), LTE (Long Term Evolution)) and may be referred to as a communication/wireless/5G device.
- wireless devices include robots (100a), vehicles (100b-1, 100b-2), XR (eXtended Reality) devices (100c), hand-held devices (100d), and home appliances (100e). ), IoT (Internet of Thing) device (100f), and AI device/server (400).
- vehicles may include vehicles equipped with wireless communication functions, autonomous vehicles, vehicles capable of inter-vehicle communication, etc.
- the vehicle may include an Unmanned Aerial Vehicle (UAV) (eg, a drone).
- UAV Unmanned Aerial Vehicle
- XR devices include AR (Augmented Reality)/VR (Virtual Reality)/MR (Mixed Reality) devices, HMD (Head-Mounted Device), HUD (Head-Up Display) installed in vehicles, televisions, smartphones, It can be implemented in the form of computers, wearable devices, home appliances, digital signage, vehicles, robots, etc.
- Portable devices may include smartphones, smart pads, wearable devices (e.g., smartwatches, smart glasses), and computers (e.g., laptops, etc.).
- Home appliances may include TVs, refrigerators, washing machines, etc.
- IoT devices may include sensors, smart meters, etc.
- a base station and network may also be implemented as wireless devices, and a specific wireless device 200a may operate as a base station/network node for other wireless devices.
- the wireless communication technology implemented in the wireless devices 100a to 100f of this specification may include Narrowband Internet of Things for low-power communication as well as LTE, NR, and 6G.
- NB-IoT technology may be an example of LPWAN (Low Power Wide Area Network) technology and may be implemented in standards such as LTE Cat NB1 and/or LTE Cat NB2, and is limited to the above-mentioned names. no.
- the wireless communication technology implemented in the wireless devices 100a to 100f of the present specification may perform communication based on LTE-M technology.
- LTE-M technology may be an example of LPWAN technology, and may be called various names such as enhanced Machine Type Communication (eMTC).
- eMTC enhanced Machine Type Communication
- LTE-M technologies include 1) LTE CAT 0, 2) LTE Cat M1, 3) LTE Cat M2, 4) LTE non-BL (non-Bandwidth Limited), 5) LTE-MTC, 6) LTE Machine. It can be implemented in at least one of various standards such as Type Communication, and/or 7) LTE M, and is not limited to the above-mentioned names.
- the wireless communication technology implemented in the wireless devices 100a to 100f of the present specification may include at least ZigBee, Bluetooth, and Low Power Wide Area Network (LPWAN) considering low power communication. It may include any one, and is not limited to the above-mentioned names.
- ZigBee technology can create personal area networks (PAN) related to small/low-power digital communications based on various standards such as IEEE 802.15.4, and can be called by various names.
- PAN personal area networks
- Wireless devices 100a to 100f may be connected to the network 300 through the base station 200.
- AI Artificial Intelligence
- the network 300 may be configured using a 3G network, 4G (eg, LTE) network, or 5G (eg, NR) network.
- Wireless devices 100a to 100f may communicate with each other through the base station 200/network 300, but may also communicate directly (e.g. sidelink communication) without going through the base station/network.
- vehicles 100b-1 and 100b-2 may communicate directly (e.g.
- V2V Vehicle to Vehicle
- V2X Vehicle to everything
- an IoT device eg, sensor
- another IoT device eg, sensor
- another wireless device 100a to 100f
- Wireless communication/connection may be established between the wireless devices (100a to 100f)/base station (200) and the base station (200)/base station (200).
- wireless communication/connection includes various wireless connections such as uplink/downlink communication (150a), sidelink communication (150b) (or D2D communication), and inter-base station communication (150c) (e.g. relay, IAB (Integrated Access Backhaul)).
- uplink/downlink communication 150a
- sidelink communication 150b
- inter-base station communication 150c
- This can be achieved through technology (e.g., 5G NR).
- a wireless device and a base station/wireless device, and a base station and a base station can transmit/receive wireless signals to each other.
- wireless communication/connection (150a, 150b, 150c) can transmit/receive signals through various physical channels.
- various signal processing processes e.g., channel encoding/decoding, modulation/demodulation, resource mapping/demapping, etc.
- resource allocation processes etc.
- Figure 19 shows a wireless device, according to an embodiment of the present disclosure.
- the embodiment of FIG. 19 may be combined with various embodiments of the present disclosure.
- the first wireless device 100 and the second wireless device 200 can transmit and receive wireless signals through various wireless access technologies (eg, LTE, NR).
- ⁇ first wireless device 100, second wireless device 200 ⁇ refers to ⁇ wireless device 100x, base station 200 ⁇ of FIG. 18 and/or ⁇ wireless device 100x, wireless device 100x) ⁇ can be responded to.
- the first wireless device 100 includes one or more processors 102 and one or more memories 104, and may further include one or more transceivers 106 and/or one or more antennas 108.
- Processor 102 controls memory 104 and/or transceiver 106 and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein.
- the processor 102 may process information in the memory 104 to generate first information/signal and then transmit a wireless signal including the first information/signal through the transceiver 106.
- the processor 102 may receive a wireless signal including the second information/signal through the transceiver 106 and then store information obtained from signal processing of the second information/signal in the memory 104.
- the memory 104 may be connected to the processor 102 and may store various information related to the operation of the processor 102. For example, memory 104 may perform some or all of the processes controlled by processor 102 or instructions for performing the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein. Software code containing them can be stored.
- the processor 102 and memory 104 may be part of a communication modem/circuit/chip designed to implement wireless communication technology (eg, LTE, NR).
- Transceiver 106 may be coupled to processor 102 and may transmit and/or receive wireless signals via one or more antennas 108. Transceiver 106 may include a transmitter and/or receiver. The transceiver 106 can be used interchangeably with an RF (Radio Frequency) unit.
- a wireless device may mean a communication modem/circuit/chip.
- the second wireless device 200 includes one or more processors 202, one or more memories 204, and may further include one or more transceivers 206 and/or one or more antennas 208.
- Processor 202 controls memory 204 and/or transceiver 206 and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein.
- the processor 202 may process the information in the memory 204 to generate third information/signal and then transmit a wireless signal including the third information/signal through the transceiver 206.
- the processor 202 may receive a wireless signal including the fourth information/signal through the transceiver 206 and then store information obtained from signal processing of the fourth information/signal in the memory 204.
- the memory 204 may be connected to the processor 202 and may store various information related to the operation of the processor 202. For example, memory 204 may perform some or all of the processes controlled by processor 202 or instructions for performing the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein. Software code containing them can be stored.
- the processor 202 and memory 204 may be part of a communication modem/circuit/chip designed to implement wireless communication technology (eg, LTE, NR).
- Transceiver 206 may be coupled to processor 202 and may transmit and/or receive wireless signals via one or more antennas 208. Transceiver 206 may include a transmitter and/or receiver. Transceiver 206 may be used interchangeably with an RF unit.
- a wireless device may mean a communication modem/circuit/chip.
- one or more protocol layers may be implemented by one or more processors 102, 202.
- one or more processors 102, 202 may implement one or more layers (e.g., functional layers such as PHY, MAC, RLC, PDCP, RRC, SDAP).
- One or more processors 102, 202 may generate one or more Protocol Data Units (PDUs) and/or one or more Service Data Units (SDUs) according to the descriptions, functions, procedures, suggestions, methods and/or operational flow charts disclosed herein. can be created.
- PDUs Protocol Data Units
- SDUs Service Data Units
- One or more processors 102, 202 may generate messages, control information, data or information according to the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein.
- One or more processors 102, 202 generate signals (e.g., baseband signals) containing PDUs, SDUs, messages, control information, data or information according to the functions, procedures, proposals and/or methods disclosed herein. , can be provided to one or more transceivers (106, 206).
- One or more processors 102, 202 may receive signals (e.g., baseband signals) from one or more transceivers 106, 206, and the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein.
- PDU, SDU, message, control information, data or information can be obtained.
- One or more processors 102, 202 may be referred to as a controller, microcontroller, microprocessor, or microcomputer.
- One or more processors 102, 202 may be implemented by hardware, firmware, software, or a combination thereof.
- ASICs Application Specific Integrated Circuits
- DSPs Digital Signal Processors
- DSPDs Digital Signal Processing Devices
- PLDs Programmable Logic Devices
- FPGAs Field Programmable Gate Arrays
- the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document may be implemented using firmware or software, and the firmware or software may be implemented to include modules, procedures, functions, etc.
- Firmware or software configured to perform the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed in this document may be included in one or more processors (102, 202) or stored in one or more memories (104, 204). It may be driven by the above processors 102 and 202.
- the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document may be implemented using firmware or software in the form of codes, instructions and/or sets of instructions.
- One or more memories 104, 204 may be connected to one or more processors 102, 202 and may store various types of data, signals, messages, information, programs, codes, instructions, and/or instructions.
- One or more memories 104, 204 may consist of ROM, RAM, EPROM, flash memory, hard drives, registers, cache memory, computer readable storage media, and/or combinations thereof.
- One or more memories 104, 204 may be located internal to and/or external to one or more processors 102, 202. Additionally, one or more memories 104, 204 may be connected to one or more processors 102, 202 through various technologies, such as wired or wireless connections.
- One or more transceivers 106, 206 may transmit user data, control information, wireless signals/channels, etc. mentioned in the methods and/or operation flowcharts of this document to one or more other devices.
- One or more transceivers 106, 206 may receive user data, control information, wireless signals/channels, etc. referred to in the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein, etc. from one or more other devices. there is.
- one or more transceivers 106 and 206 may be connected to one or more processors 102 and 202 and may transmit and receive wireless signals.
- one or more processors 102, 202 may control one or more transceivers 106, 206 to transmit user data, control information, or wireless signals to one or more other devices. Additionally, one or more processors 102, 202 may control one or more transceivers 106, 206 to receive user data, control information, or wireless signals from one or more other devices. In addition, one or more transceivers (106, 206) may be connected to one or more antennas (108, 208), and one or more transceivers (106, 206) may be connected to the description and functions disclosed in this document through one or more antennas (108, 208). , may be set to transmit and receive user data, control information, wireless signals/channels, etc.
- one or more antennas may be multiple physical antennas or multiple logical antennas (eg, antenna ports).
- One or more transceivers (106, 206) process the received user data, control information, wireless signals/channels, etc. using one or more processors (102, 202), and convert the received wireless signals/channels, etc. from the RF band signal. It can be converted to a baseband signal.
- One or more transceivers (106, 206) may convert user data, control information, wireless signals/channels, etc. processed using one or more processors (102, 202) from baseband signals to RF band signals.
- one or more transceivers 106, 206 may comprise (analog) oscillators and/or filters.
- Figure 20 shows a signal processing circuit for a transmission signal, according to an embodiment of the present disclosure.
- the embodiment of FIG. 20 may be combined with various embodiments of the present disclosure.
- the signal processing circuit 1000 may include a scrambler 1010, a modulator 1020, a layer mapper 1030, a precoder 1040, a resource mapper 1050, and a signal generator 1060.
- the operations/functions of Figure 20 may be performed in the processors 102, 202 and/or transceivers 106, 206 of Figure 19.
- the hardware elements of Figure 20 may be implemented in the processors 102, 202 and/or transceivers 106, 206 of Figure 19.
- blocks 1010 to 1060 may be implemented in processors 102 and 202 of FIG. 19.
- blocks 1010 to 1050 may be implemented in the processors 102 and 202 of FIG. 19, and block 1060 may be implemented in the transceivers 106 and 206 of FIG. 19.
- the codeword can be converted into a wireless signal through the signal processing circuit 1000 of FIG. 20.
- a codeword is an encoded bit sequence of an information block.
- the information block may include a transport block (eg, UL-SCH transport block, DL-SCH transport block).
- Wireless signals may be transmitted through various physical channels (eg, PUSCH, PDSCH).
- the codeword may be converted into a scrambled bit sequence by the scrambler 1010.
- the scramble sequence used for scrambling is generated based on an initialization value, and the initialization value may include ID information of the wireless device.
- the scrambled bit sequence may be modulated into a modulation symbol sequence by the modulator 1020.
- Modulation methods may include pi/2-BPSK (pi/2-Binary Phase Shift Keying), m-PSK (m-Phase Shift Keying), m-QAM (m-Quadrature Amplitude Modulation), etc.
- the complex modulation symbol sequence may be mapped to one or more transport layers by the layer mapper 1030.
- the modulation symbols of each transport layer may be mapped to corresponding antenna port(s) by the precoder 1040 (precoding).
- the output z of the precoder 1040 can be obtained by multiplying the output y of the layer mapper 1030 with the precoding matrix W of N*M.
- N is the number of antenna ports and M is the number of transport layers.
- the precoder 1040 may perform precoding after performing transform precoding (eg, DFT transformation) on complex modulation symbols. Additionally, the precoder 1040 may perform precoding without performing transform precoding.
- the resource mapper 1050 can map the modulation symbols of each antenna port to time-frequency resources.
- a time-frequency resource may include a plurality of symbols (eg, CP-OFDMA symbol, DFT-s-OFDMA symbol) in the time domain and a plurality of subcarriers in the frequency domain.
- the signal generator 1060 generates a wireless signal from the mapped modulation symbols, and the generated wireless signal can be transmitted to another device through each antenna.
- the signal generator 1060 may include an Inverse Fast Fourier Transform (IFFT) module, a Cyclic Prefix (CP) inserter, a Digital-to-Analog Converter (DAC), a frequency uplink converter, etc. .
- IFFT Inverse Fast Fourier Transform
- CP Cyclic Prefix
- DAC Digital-to-Analog Converter
- the signal processing process for the received signal in the wireless device may be configured as the reverse of the signal processing process (1010 to 1060) of FIG. 20.
- a wireless device eg, 100 and 200 in FIG. 19
- the received wireless signal can be converted into a baseband signal through a signal restorer.
- the signal restorer may include a frequency downlink converter, an analog-to-digital converter (ADC), a CP remover, and a Fast Fourier Transform (FFT) module.
- ADC analog-to-digital converter
- FFT Fast Fourier Transform
- the baseband signal can be restored to a codeword through a resource de-mapper process, postcoding process, demodulation process, and de-scramble process.
- a signal processing circuit for a received signal may include a signal restorer, resource de-mapper, postcoder, demodulator, de-scrambler, and decoder.
- FIG. 21 shows a wireless device, according to an embodiment of the present disclosure.
- Wireless devices can be implemented in various forms depending on usage-examples/services (see FIG. 18).
- the embodiment of FIG. 21 may be combined with various embodiments of the present disclosure.
- the wireless devices 100 and 200 correspond to the wireless devices 100 and 200 of FIG. 19 and include various elements, components, units/units, and/or modules. ) can be composed of.
- the wireless devices 100 and 200 may include a communication unit 110, a control unit 120, a memory unit 130, and an additional element 140.
- the communication unit may include communication circuitry 112 and transceiver(s) 114.
- communication circuitry 112 may include one or more processors 102,202 and/or one or more memories 104,204 of FIG. 19.
- transceiver(s) 114 may include one or more transceivers 106, 206 and/or one or more antennas 108, 208 of FIG. 19.
- the control unit 120 is electrically connected to the communication unit 110, the memory unit 130, and the additional element 140 and controls overall operations of the wireless device. For example, the control unit 120 may control the electrical/mechanical operation of the wireless device based on the program/code/command/information stored in the memory unit 130. In addition, the control unit 120 transmits the information stored in the memory unit 130 to the outside (e.g., another communication device) through the communication unit 110 through a wireless/wired interface, or to the outside (e.g., to another communication device) through the communication unit 110. Information received through a wireless/wired interface from another communication device may be stored in the memory unit 130.
- the outside e.g., another communication device
- Information received through a wireless/wired interface from another communication device may be stored in the memory unit 130.
- the additional element 140 may be configured in various ways depending on the type of wireless device.
- the additional element 140 may include at least one of a power unit/battery, an input/output unit (I/O unit), a driving unit, and a computing unit.
- wireless devices include robots (FIG. 18, 100a), vehicles (FIG. 18, 100b-1, 100b-2), XR devices (FIG. 18, 100c), portable devices (FIG. 18, 100d), and home appliances. (FIG. 18, 100e), IoT device (FIG.
- digital broadcasting terminal digital broadcasting terminal
- hologram device public safety device
- MTC device medical device
- fintech device or financial device
- security device climate/environment device
- It can be implemented in the form of an AI server/device (FIG. 18, 400), a base station (FIG. 18, 200), a network node, etc.
- Wireless devices can be mobile or used in fixed locations depending on the usage/service.
- various elements, components, units/parts, and/or modules within the wireless devices 100 and 200 may be entirely interconnected through a wired interface, or at least a portion may be wirelessly connected through the communication unit 110.
- the control unit 120 and the communication unit 110 are connected by wire, and the control unit 120 and the first unit (e.g., 130 and 140) are connected through the communication unit 110.
- the control unit 120 and the first unit e.g., 130 and 140
- each element, component, unit/part, and/or module within the wireless devices 100 and 200 may further include one or more elements.
- the control unit 120 may be comprised of one or more processor sets.
- control unit 120 may be comprised of a communication control processor, an application processor, an electronic control unit (ECU), a graphics processing processor, and a memory control processor.
- memory unit 130 includes random access memory (RAM), dynamic RAM (DRAM), read only memory (ROM), flash memory, volatile memory, and non-volatile memory. volatile memory) and/or a combination thereof.
- Portable devices may include smartphones, smartpads, wearable devices (e.g., smartwatches, smartglasses), and portable computers (e.g., laptops, etc.).
- a mobile device may be referred to as a Mobile Station (MS), user terminal (UT), Mobile Subscriber Station (MSS), Subscriber Station (SS), Advanced Mobile Station (AMS), or Wireless terminal (WT).
- MS Mobile Station
- UT user terminal
- MSS Mobile Subscriber Station
- SS Subscriber Station
- AMS Advanced Mobile Station
- WT Wireless terminal
- the portable device 100 includes an antenna unit 108, a communication unit 110, a control unit 120, a memory unit 130, a power supply unit 140a, an interface unit 140b, and an input/output unit 140c. ) may include.
- the antenna unit 108 may be configured as part of the communication unit 110.
- Blocks 110 to 130/140a to 140c correspond to blocks 110 to 130/140 in FIG. 21, respectively.
- the communication unit 110 can transmit and receive signals (eg, data, control signals, etc.) with other wireless devices and base stations.
- the control unit 120 can control the components of the portable device 100 to perform various operations.
- the control unit 120 may include an application processor (AP).
- the memory unit 130 may store data/parameters/programs/codes/commands necessary for driving the portable device 100. Additionally, the memory unit 130 can store input/output data/information, etc.
- the power supply unit 140a supplies power to the portable device 100 and may include a wired/wireless charging circuit, a battery, etc.
- the interface unit 140b may support connection between the mobile device 100 and other external devices.
- the interface unit 140b may include various ports (eg, audio input/output ports, video input/output ports) for connection to external devices.
- the input/output unit 140c may input or output video information/signals, audio information/signals, data, and/or information input from the user.
- the input/output unit 140c may include a camera, a microphone, a user input unit, a display unit 140d, a speaker, and/or a haptic module.
- the input/output unit 140c acquires information/signals (e.g., touch, text, voice, image, video) input from the user, and the obtained information/signals are stored in the memory unit 130. It can be saved.
- the communication unit 110 may convert the information/signal stored in the memory into a wireless signal and transmit the converted wireless signal directly to another wireless device or to a base station. Additionally, the communication unit 110 may receive a wireless signal from another wireless device or a base station and then restore the received wireless signal to the original information/signal.
- the restored information/signal may be stored in the memory unit 130 and then output in various forms (eg, text, voice, image, video, haptics) through the input/output unit 140c.
- a vehicle or autonomous vehicle can be implemented as a mobile robot, vehicle, train, manned/unmanned aerial vehicle (AV), ship, etc.
- AV unmanned aerial vehicle
- the embodiment of FIG. 23 may be combined with various embodiments of the present disclosure.
- the vehicle or autonomous vehicle 100 includes an antenna unit 108, a communication unit 110, a control unit 120, a drive unit 140a, a power supply unit 140b, a sensor unit 140c, and an autonomous driving unit. It may include a portion 140d.
- the antenna unit 108 may be configured as part of the communication unit 110. Blocks 110/130/140a to 140d respectively correspond to blocks 110/130/140 in FIG. 21.
- the communication unit 110 can transmit and receive signals (e.g., data, control signals, etc.) with external devices such as other vehicles, base stations (e.g. base stations, road side units, etc.), and servers.
- the control unit 120 may control elements of the vehicle or autonomous vehicle 100 to perform various operations.
- the control unit 120 may include an Electronic Control Unit (ECU).
- the driving unit 140a can drive the vehicle or autonomous vehicle 100 on the ground.
- the driving unit 140a may include an engine, motor, power train, wheels, brakes, steering device, etc.
- the power supply unit 140b supplies power to the vehicle or autonomous vehicle 100 and may include a wired/wireless charging circuit, a battery, etc.
- the sensor unit 140c can obtain vehicle status, surrounding environment information, user information, etc.
- the sensor unit 140c includes an inertial measurement unit (IMU) sensor, a collision sensor, a wheel sensor, a speed sensor, an inclination sensor, a weight sensor, a heading sensor, a position module, and a vehicle forward sensor. / May include a reverse sensor, battery sensor, fuel sensor, tire sensor, steering sensor, temperature sensor, humidity sensor, ultrasonic sensor, illuminance sensor, pedal position sensor, etc.
- the autonomous driving unit 140d provides technology for maintaining the driving lane, technology for automatically adjusting speed such as adaptive cruise control, technology for automatically driving along a set route, and technology for automatically setting and driving when a destination is set. Technology, etc. can be implemented.
- the communication unit 110 may receive map data, traffic information data, etc. from an external server.
- the autonomous driving unit 140d may create an autonomous driving route and driving plan based on the acquired data.
- the control unit 120 may control the driving unit 140a so that the vehicle or autonomous vehicle 100 moves along the autonomous driving path according to the driving plan (e.g., speed/direction control).
- the communication unit 110 may acquire the latest traffic information data from an external server irregularly/periodically and obtain surrounding traffic information data from surrounding vehicles.
- the sensor unit 140c can obtain vehicle status and surrounding environment information.
- the autonomous driving unit 140d may update the autonomous driving route and driving plan based on newly acquired data/information.
- the communication unit 110 may transmit information about vehicle location, autonomous driving route, driving plan, etc. to an external server.
- An external server can predict traffic information data in advance using AI technology, etc., based on information collected from vehicles or self-driving vehicles, and provide the predicted traffic information data to the vehicles or self-driving vehicles.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Traffic Control Systems (AREA)
Abstract
제 1 장치가 무선 통신을 수행하는 방법 및 이를 지원하는 장치가 제공된다. 상기 방법은, 상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로, 물체의 제 1 상태 정보를 획득하는 단계; 상기 제 1 상태 정보를 제 2 장치의 관점에서 제 2 상태 정보로 변환하는 단계; 및 상기 제 2 상태 정보를 포함하는 메시지를 상기 제 2 장치에게 전송하는 단계;를 포함할 수 있다.
Description
본 개시는 무선 통신 시스템에 관한 것이다.
무선 통신 시스템은 가용한 시스템 자원(예를 들어, 대역폭, 전송 전력 등)을 공유하여 다중 사용자와의 통신을 지원하는 다중 접속(multiple access) 시스템이다. 다중 접속 시스템의 예로는 CDMA(code division multiple access) 시스템, FDMA(frequency division multiple access) 시스템, TDMA(time division multiple access) 시스템, OFDMA(orthogonal frequency division multiple access) 시스템, SC-FDMA(single carrier frequency division multiple access) 시스템, MC-FDMA(multi carrier frequency division multiple access) 시스템 등이 있다.
사이드링크(sidelink, SL)란 단말(User Equipment, UE)들 간에 직접적인 링크를 설정하여, 기지국(Base Station, BS)을 거치지 않고, 단말 간에 음성 또는 데이터 등을 직접 주고 받는 통신 방식을 말한다. SL는 급속도로 증가하는 데이터 트래픽에 따른 기지국의 부담을 해결할 수 있는 하나의 방안으로서 고려되고 있다.
V2X(vehicle-to-everything)는 유/무선 통신을 통해 다른 차량, 보행자, 인프라가 구축된 사물 등과 정보를 교환하는 통신 기술을 의미한다. V2X는 V2V(vehicle-to-vehicle), V2I(vehicle-to-infrastructure), V2N(vehicle-to- network) 및 V2P(vehicle-to-pedestrian)와 같은 4 가지 유형으로 구분될 수 있다. V2X 통신은 PC5 인터페이스 및/또는 Uu 인터페이스를 통해 제공될 수 있다.
한편, 더욱 많은 통신 기기들이 더욱 큰 통신 용량을 요구하게 됨에 따라, 기존의 무선 액세스 기술(Radio Access Technology, RAT)에 비해 향상된 모바일 광대역 (mobile broadband) 통신에 대한 필요성이 대두되고 있다. 이에 따라, 신뢰도(reliability) 및 지연(latency)에 민감한 서비스 또는 단말을 고려한 통신 시스템이 논의되고 있는데, 개선된 이동 광대역 통신, 매시브 MTC(Machine Type Communication), URLLC(Ultra-Reliable and Low Latency Communication) 등을 고려한 차세대 무선 접속 기술을 새로운 RAT(new radio access technology) 또는 NR(new radio)이라 칭할 수 있다. NR에서도 V2X(vehicle-to-everything) 통신이 지원될 수 있다.
일 실시 예에 있어서, 제 1 장치가 무선 통신을 수행하는 방법이 제공된다. 상기 방법은, 상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로, 물체의 제 1 상태 정보를 획득하는 단계; 상기 제 1 상태 정보를 제 2 장치의 관점에서 제 2 상태 정보로 변환하는 단계; 및 상기 제 2 상태 정보를 포함하는 메시지를 상기 제 2 장치에게 전송하는 단계;를 포함할 수 있다.
일 실시 예에 있어서, 무선 통신을 수행하도록 설정된 제 1 장치가 제공된다. 상기 제 1 장치는 적어도 하나의 송수신기; 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서에 연결되고 명령어들을 저장하는 적어도 하나의 메모리를 포함하되, 상기 명령어들은 상기 적어도 하나의 프로세서에 의해 실행되는 것을 기반으로 상기 제 1 장치로 하여금: 상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로, 물체의 제 1 상태 정보를 획득하게 하고; 상기 제 1 상태 정보를 제 2 장치의 관점에서 제 2 상태 정보로 변환하게 하고; 및 상기 제 2 상태 정보를 포함하는 메시지를 상기 제 2 장치에게 전송하게 할 수 있다.
일 실시 예에 있어서, 제 1 장치를 제어하도록 설정된 프로세싱 장치가 제공된다. 상기 프로세싱 장치는 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서에 연결되고 명령어들을 저장하는 적어도 하나의 메모리를 포함하되, 상기 명령어들은 상기 적어도 하나의 프로세서에 의해 실행되는 것을 기반으로 상기 제 1 장치로 하여금: 상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로, 물체의 제 1 상태 정보를 획득하게 하고; 상기 제 1 상태 정보를 제 2 장치의 관점에서 제 2 상태 정보로 변환하게 하고; 및 상기 제 2 상태 정보를 포함하는 메시지를 상기 제 2 장치에게 전송하게 할 수 있다.
일 실시 예에 있어서, 명령어들을 기록하고 있는 비일시적 컴퓨터 판독가능 저장 매체가 제공된다. 상기 명령어들은, 실행될 때, 제 1 장치로 하여금: 상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로, 물체의 제 1 상태 정보를 획득하게 하고; 상기 제 1 상태 정보를 제 2 장치의 관점에서 제 2 상태 정보로 변환하게 하고; 및 상기 제 2 상태 정보를 포함하는 메시지를 상기 제 2 장치에게 전송하게 할 수 있다.
도 1은 본 개시의 일 실시 예에 따른, 6G 시스템에서 제공 가능한 통신 구조를 나타낸다.
도 2는 본 개시의 일 실시 예에 따른, 전자기 스펙트럼을 나타낸다.
도 3은 본 개시의 일 실시 예에 따른, 물체의 위치 정보를 표시하는 방법을 나타낸다.
도 4는 본 개시의 일 실시 예에 따른, 감지된 물체의 위치 정보를 나타낸다.
도 5는 본 개시의 일 실시 예에 따른, 교차로에서 다중 물체 인식 상황을 나타낸다.
도 6은 본 개시의 일 실시 예에 따른, 센서에서 취득한 물체 정보와 그림자 영역을 나타낸다.
도 7은 본 개시의 일 실시 예에 따라, 교차로에 설치된 RSU의 두 개의 카메라(PoV #1, 2)에 의해 다른 각도에서 측정된 정보를 융합하는 예를 나타낸다.
도 8은 본 개시의 일 실시 예에 따라, 다른 각도에 위치한 두 대의 차량 각각의 센서(PoV #1, 2)에 의해 측정된 정보를 융합하는 예를 나타낸다.
도 9는 본 개시의 일 실시 예에 따른, 3D 렌더링 기법의 예를 나타낸다.
도 10 내지 도 14는 본 개시의 일 실시 예에 따라, 교차로 환경에서 RSU가 연결된 두 대의 센서(PoV #1, 2)에서 취득한 센서 정보를 차량(PoV #3)에 제공하는 예를 나타낸다.
도 15는 본 개시의 일 실시 예에 따른, 센서 정보를 변환 및 전송하는 방법을 나타낸다.
도 16은 본 개시의 일 실시 예에 따라, 제 1 장치가 무선 통신을 수행하는 방법을 나타낸다.
도 17은 본 개시의 일 실시 예에 따라, 제 2 장치가 무선 통신을 수행하는 방법을 나타낸다.
도 18은 본 개시의 일 실시 예에 따른, 통신 시스템(1)을 나타낸다.
도 19는 본 개시의 일 실시 예에 따른, 무선 기기를 나타낸다.
도 20은 본 개시의 일 실시 예에 따른, 전송 신호를 위한 신호 처리 회로를 나타낸다.
도 21은 본 개시의 일 실시 예에 따른, 무선 기기를 나타낸다.
도 22는 본 개시의 일 실시 예에 따른, 휴대 기기를 나타낸다.
도 23은 본 개시의 일 실시 예에 따른, 차량 또는 자율 주행 차량을 나타낸다.
본 명세서에서 "A 또는 B(A or B)"는 "오직 A", "오직 B" 또는 "A와 B 모두"를 의미할 수 있다. 달리 표현하면, 본 명세서에서 "A 또는 B(A or B)"는 "A 및/또는 B(A and/or B)"으로 해석될 수 있다. 예를 들어, 본 명세서에서 "A, B 또는 C(A, B or C)"는 "오직 A", "오직 B", "오직 C", 또는 "A, B 및 C의 임의의 모든 조합(any combination of A, B and C)"를 의미할 수 있다.
본 명세서에서 사용되는 슬래쉬(/)나 쉼표(comma)는 "및/또는(and/or)"을 의미할 수 있다. 예를 들어, "A/B"는 "A 및/또는 B"를 의미할 수 있다. 이에 따라 "A/B"는 "오직 A", "오직 B", 또는 "A와 B 모두"를 의미할 수 있다. 예를 들어, "A, B, C"는 "A, B 또는 C"를 의미할 수 있다.
본 명세서에서 "적어도 하나의 A 및 B(at least one of A and B)"는, "오직 A", "오직 B" 또는 "A와 B 모두"를 의미할 수 있다. 또한, 본 명세서에서 "적어도 하나의 A 또는 B(at least one of A or B)"나 "적어도 하나의 A 및/또는 B(at least one of A and/or B)"라는 표현은 "적어도 하나의 A 및 B(at least one of A and B)"와 동일하게 해석될 수 있다.
또한, 본 명세서에서 "적어도 하나의 A, B 및 C(at least one of A, B and C)"는, "오직 A", "오직 B", "오직 C", 또는 "A, B 및 C의 임의의 모든 조합(any combination of A, B and C)"를 의미할 수 있다. 또한, "적어도 하나의 A, B 또는 C(at least one of A, B or C)"나 "적어도 하나의 A, B 및/또는 C(at least one of A, B and/or C)"는 "적어도 하나의 A, B 및 C(at least one of A, B and C)"를 의미할 수 있다.
또한, 본 명세서에서 사용되는 괄호는 "예를 들어(for example)"를 의미할 수 있다. 구체적으로, "제어 정보(PDCCH)"로 표시된 경우, "제어 정보"의 일례로 "PDCCH"가 제안된 것일 수 있다. 달리 표현하면 본 명세서의 "제어 정보"는 "PDCCH"로 제한(limit)되지 않고, "PDCCH"가 "제어 정보"의 일례로 제안된 것일 수 있다. 또한, "제어 정보(즉, PDCCH)"로 표시된 경우에도, "제어 정보"의 일례로 "PDCCH"가 제안된 것일 수 있다.
이하의 설명에서 '~일 때, ~ 경우(when, if, in case of)'는 '~에 기초하여/기반하여(based on)'로 대체될 수 있다.
본 명세서에서 하나의 도면 내에서 개별적으로 설명되는 기술적 특징은, 개별적으로 구현될 수도 있고, 동시에 구현될 수도 있다.
이하의 기술은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 통신 시스템에 사용될 수 있다. CDMA는 UTRA(universal terrestrial radio access)나 CDMA2000과 같은 무선 기술로 구현될 수 있다. TDMA는 GSM(global system for mobile communications)/GPRS(general packet radio service)/EDGE(enhanced data rates for GSM evolution)와 같은 무선 기술로 구현될 수 있다. OFDMA는 IEEE(institute of electrical and electronics engineers) 802.11(Wi-Fi), IEEE 802.16(WiMAX), IEEE 802-20, E-UTRA(evolved UTRA) 등과 같은 무선 기술로 구현될 수 있다. IEEE 802.16m은 IEEE 802.16e의 진화로, IEEE 802.16e에 기반한 시스템과의 하위 호환성(backward compatibility)를 제공한다. UTRA는 UMTS(universal mobile telecommunications system)의 일부이다. 3GPP(3rd generation partnership project) LTE(long term evolution)은 E-UTRA(evolved-UMTS terrestrial radio access)를 사용하는 E-UMTS(evolved UMTS)의 일부로써, 하향링크에서 OFDMA를 채용하고 상향링크에서 SC-FDMA를 채용한다. LTE-A(advanced)는 3GPP LTE의 진화이다.
5G NR은 LTE-A의 후속 기술로서, 고성능, 저지연, 고가용성 등의 특성을 가지는 새로운 Clean-slate 형태의 이동 통신 시스템이다. 5G NR은 1GHz 미만의 저주파 대역에서부터 1GHz~10GHz의 중간 주파 대역, 24GHz 이상의 고주파(밀리미터파) 대역 등 사용 가능한 모든 스펙트럼 자원을 활용할 수 있다.
6G (무선통신) 시스템은 (i) 디바이스 당 매우 높은 데이터 속도, (ii) 매우 많은 수의 연결된 디바이스들, (iii) 글로벌 연결성(global connectivity), (iv) 매우 낮은 지연, (v) 배터리-프리(battery-free) IoT 디바이스들의 에너지 소비를 낮추고, (vi) 초고신뢰성 연결, (vii) 머신 러닝 능력을 가지는 연결된 지능 등에 목적이 있다. 6G 시스템의 비전은 intelligent connectivity, deep connectivity, holographic connectivity, ubiquitous connectivity와 같은 4가지 측면일 수 있으며, 6G 시스템은 아래 표 1과 같은 요구 사항을 만족시킬 수 있다. 즉, 표 1은 6G 시스템의 요구 사항의 일례를 나타낸 표이다.
Per device peak data rate | 1 Tbps |
E2E latency | 1 ms |
Maximum spectral efficiency | 100bps/Hz |
Mobility support | Up to 1000km/hr |
Satellite integration | Fully |
AI | Fully |
Autonomous vehicle | Fully |
XR | Fully |
Haptic Communication | Fully |
6G 시스템은 eMBB(Enhanced mobile broadband), URLLC(Ultra-reliable low latency communications), mMTC(massive machine-type communication), AI integrated communication, Tactile internet, High throughput, High network capacity, High energy efficiency, Low backhaul and access network congestion, Enhanced data security와 같은 핵심 요소(key factor)들을 가질 수 있다.
도 1은 본 개시의 일 실시 예에 따른, 6G 시스템에서 제공 가능한 통신 구조를 나타낸다. 도 1의 실시 예는 본 개시의 다양한 실시 예와 결합될 수 있다.
6G 시스템은 5G 무선통신 시스템보다 50배 더 높은 동시 무선통신 연결성을 가질 것으로 예상된다. 5G의 key feature인 URLLC는 6G 통신에서 1ms보다 적은 단-대-단(end-to-end) 지연을 제공함으로써 보다 더 주요한 기술이 될 것이다. 6G 시스템은 자주 사용되는 영역 스펙트럼 효율과 달리 체적 스펙트럼 효율이 훨씬 우수할 것이다. 6G 시스템은 매우 긴 배터리 수명과 에너지 수확을 위한 고급 배터리 기술을 제공할 수 있어, 6G 시스템에서 모바일 디바이스들은 별도로 충전될 필요가 없을 것이다. 6G에서 새로운 네트워크 특성들은 다음과 같을 수 있다.
- 위성 통합 네트워크(Satellites integrated network): 글로벌 모바일 집단을 제공하기 위해 6G는 위성과 통합될 것으로 예상된다. 지상파, 위성 및 공중 네트워크를 하나의 무선통신 시스템으로 통합은 6G에 매우 중요하다.
- 연결된 인텔리전스(Connected intelligence): 이전 세대의 무선 통신 시스템과 달리 6G는 혁신적이며, "연결된 사물"에서 "연결된 지능"으로 무선 진화가 업데이트될 것이다. AI는 통신 절차의 각 단계(또는 후술할 신호 처리의 각 절차)에서 적용될 수 있다.
- 무선 정보 및 에너지 전달의 완벽한 통합(Seamless integration wireless information and energy transfer): 6G 무선 네트워크는 스마트폰들과 센서들과 같이 디바이스들의 배터리를 충전하기 위해 전력을 전달할 것이다. 그러므로, 무선 정보 및 에너지 전송 (WIET)은 통합될 것이다.
- 유비쿼터스 슈퍼 3D 연결(Ubiquitous super 3D connectivity): 드론 및 매우 낮은 지구 궤도 위성의 네트워크 및 핵심 네트워크 기능에 접속은 6G 유비쿼터스에서 슈퍼 3D 연결을 만들 것이다.
위와 같은 6G의 새로운 네트워크 특성들에서 몇 가지 일반적인 요구 사항은 다음과 같을 수 있다.
- 스몰 셀 네트워크(small cell networks): 스몰 셀 네트워크의 아이디어는 셀룰러 시스템에서 처리량, 에너지 효율 및 스펙트럼 효율 향상의 결과로 수신 신호 품질을 향상시키기 위해 도입되었다. 결과적으로, 스몰 셀 네트워크는 5G 및 비욘드 5G (5GB) 이상의 통신 시스템에 필수적인 특성이다. 따라서, 6G 통신 시스템 역시 스몰 셀 네트워크의 특성을 채택한다.
- 초 고밀도 이기종 네트워크(Ultra-dense heterogeneous network): 초 고밀도 이기종 네트워크들은 6G 통신 시스템의 또 다른 중요한 특성이 될 것이다. 이기종 네트워크로 구성된 멀티-티어 네트워크는 전체 QoS를 개선하고 비용을 줄인다.
- 대용량 백홀(High-capacity backhaul): 백홀 연결은 대용량 트래픽을 지원하기 위해 대용량 백홀 네트워크로 특징 지어진다. 고속 광섬유 및 자유 공간 광학 (FSO) 시스템이 이 문제에 대한 가능한 솔루션일 수 있다.
- 모바일 기술과 통합된 레이더 기술: 통신을 통한 고정밀 지역화(또는 위치 기반 서비스)는 6G 무선통신 시스템의 기능 중 하나이다. 따라서, 레이더 시스템은 6G 네트워크와 통합될 것이다.
- 소프트화 및 가상화(Softwarization and virtualization): 소프트화 및 가상화는 유연성, 재구성성 및 프로그래밍 가능성을 보장하기 위해 5GB 네트워크에서 설계 프로세스의 기초가 되는 두 가지 중요한 기능이다. 또한, 공유 물리적 인프라에서 수십억 개의 장치가 공유될 수 있다.
이하, 6G 시스템의 핵심 구현 기술에 대하여 설명한다.
- 인공 지능(Artificial Intelligence): 6G 시스템에 가장 중요하며, 새로 도입될 기술은 AI이다. 4G 시스템에는 AI가 관여하지 않았다. 5G 시스템은 부분 또는 매우 제한된 AI를 지원할 것이다. 그러나, 6G 시스템은 완전히 자동화를 위해 AI가 지원될 것이다. 머신 러닝의 발전은 6G에서 실시간 통신을 위해 보다 지능적인 네트워크를 만들 것이다. 통신에 AI를 도입하면 실시간 데이터 전송이 간소화되고 향상될 수 있다. AI는 수많은 분석을 사용하여 복잡한 대상 작업이 수행되는 방식을 결정할 수 있다. 즉, AI는 효율성을 높이고 처리 지연을 줄일 수 있다. 핸드 오버, 네트워크 선택, 자원 스케쥴링과 같은 시간 소모적인 작업은 AI를 사용함으로써 즉시 수행될 수 있다. AI는 M2M, 기계-대-인간 및 인간-대-기계 통신에서도 중요한 역할을 할 수 있다. 또한, AI는 BCI(Brain Computer Interface)에서 신속한 통신이 될 수 있다. AI 기반 통신 시스템은 메타 물질, 지능형 구조, 지능형 네트워크, 지능형 장치, 지능형 인지 라디오(radio), 자체 유지 무선 네트워크 및 머신 러닝에 의해 지원될 수 있다.
- THz 통신 (Terahertz Communication): 데이터 전송률은 대역폭을 늘려 높일 수 있다. 이것은 넓은 대역폭으로 sub-THz 통신을 사용하고, 진보된 대규모 MIMO 기술을 적용하여 수행될 수 있다. 밀리미터 이하의 방사선으로도 알려진 THz파는 일반적으로 0.03mm-3mm 범위의 해당 파장을 가진 0.1THz와 10THz 사이의 주파수 대역을 나타낸다. 100GHz-300GHz 대역 범위(Sub THz 대역)는 셀룰러 통신을 위한 THz 대역의 주요 부분으로 간주된다. Sub-THz 대역 mmWave 대역에 추가하면 6G 셀룰러 통신 용량은 늘어난다. 정의된 THz 대역 중 300GHz-3THz는 원적외선 (IR) 주파수 대역에 있다. 300GHz-3THz 대역은 광 대역의 일부이지만 광 대역의 경계에 있으며, RF 대역 바로 뒤에 있다. 따라서, 이 300 GHz-3 THz 대역은 RF와 유사성을 나타낸다. 도 2는 본 개시의 일 실시 예에 따른, 전자기 스펙트럼을 나타낸다. 도 2의 실시 예는 본 개시의 다양한 실시 예와 결합될 수 있다. THz 통신의 주요 특성은 (i) 매우 높은 데이터 전송률을 지원하기 위해 광범위하게 사용 가능한 대역폭, (ii) 고주파에서 발생하는 높은 경로 손실 (고 지향성 안테나는 필수 불가결)을 포함한다. 높은 지향성 안테나에서 생성된 좁은 빔 폭은 간섭을 줄인다. THz 신호의 작은 파장은 훨씬 더 많은 수의 안테나 소자가 이 대역에서 동작하는 장치 및 BS에 통합될 수 있게 한다. 이를 통해 범위 제한을 극복할 수 있는 고급 적응형 배열 기술을 사용할 수 있다.
- 대규모 MIMO 기술 (Large-scale MIMO)
- 홀로그램 빔 포밍 (HBF, Hologram Bmeaforming)
- 광 무선 기술 (Optical wireless technology)
- 자유공간 광전송 백홀 네트워크 (FSO Backhaul Network)
- 비지상 네트워크 (Non-Terrestrial Networks, NTN)
- 양자 통신 (Quantum Communication)
- 셀-프리 통신 (Cell-free Communication)
- 무선 정보 및 에너지 전송 통합 (Integration of Wireless Information and Power Transmission)
- 센싱과 커뮤니케이션의 통합 (Integration of Wireless Communication and Sensing)
- 액세스 백홀 네트워크의 통합 (Integrated Access and Backhaul Network)
- 빅 데이터 분석 (Big data Analysis)
- 재구성 가능한 지능형 메타표면 (Reconfigurable Intelligent Surface)
- 메타버스 (Metaverse)
- 블록 체인 (Block-chain)
- 무인 항공기 (UAV, Unmanned Aerial Vehicle): UAV(Unmanned Aerial Vehicle) 또는 드론은 6G 무선 통신에서 중요한 요소가 될 것이다. 대부분의 경우, UAV 기술을 사용하여 고속 데이터 무선 연결이 제공된다. BS 엔티티는 셀룰러 연결을 제공하기 위해 UAV에 설치된다. UAV는 쉬운 배치, 강력한 가시선 링크 및 이동성이 제어되는 자유도와 같은 고정 BS 인프라에서 볼 수 없는 특정 기능을 가지고 있다. 천재 지변 등의 긴급 상황 동안, 지상 통신 인프라의 배치는 경제적으로 실현 가능하지 않으며, 때로는 휘발성 환경에서 서비스를 제공할 수 없다. UAV는 이러한 상황을 쉽게 처리할 수 있다. UAV는 무선 통신 분야의 새로운 패러다임이 될 것이다. 이 기술은 eMBB, URLLC 및 mMTC 인 무선 네트워크의 세 가지 기본 요구 사항을 용이하게 한다. UAV는 또한, 네트워크 연결성 향상, 화재 감지, 재난 응급 서비스, 보안 및 감시, 오염 모니터링, 주차 모니터링, 사고 모니터링 등과 같은 여러 가지 목적을 지원할 수 있다. 따라서, UAV 기술은 6G 통신에 가장 중요한 기술 중 하나로 인식되고 있다.
- 자율주행 (Autonomous Driving, Self-driving): 완벽한 자율 주행을 위해서는 차량과 차량 간의 통신으로 서로의 위험 상황을 알려주거나, 주차장·신호등과 같은 인프라와 차량 간 통신으로 주차 정보 위치, 신호 변경 시간 등의 정보를 확인하여야 한다. 자율 주행 인프라 구축의 핵심 요소인 V2X(Vehicle to Everything)는 차량과 차량 간 무선 통신(V2V, Vehicle to vehicle), 차량과 인프라 간 무선 통신(V2I, Vehicle to Infrastructure) 등 자동차가 자율 주행을 하기 위해 도로에 있는 다양한 요소와 소통하고 공유하는 기술이다. 자율 주행의 성능을 극대화하고 높은 안전성을 확보하기 위해서는 빠른 전송속도와 저지연 기술이 반드시 필요하다. 더하여, 앞으로 자율주행은 운전자에게 경고나 안내 메시지를 전달하는 수준을 넘어 적극적으로 차량 운행에 개입하고 위험 상황에서 직접 차량을 제어하기 위해서는 송수신해야 할 정보의 양이 방대해지면서, 6G에서는 5G보다 빠른 전송 속도와 저지연으로 자율주행을 극대화 시킬 수 있을 것으로 예상된다.
설명을 명확하게 하기 위해, 5G NR을 위주로 기술하지만 본 개시의 일 실시 예에 따른 기술적 사상이 이에 제한되는 것은 아니다. 본 개시의 다양한 실시 예는 6G 통신 시스템에도 적용될 수 있다.
현재 ITS(Intelligent Transportation System) 서비스 중 센서(예, LIDAR(Light Detection And Ranging), RADAR(Radio Detection And Ranging), 카메라 등)로 취득한 정보를 공유하는 서비스로, CPS(Collective Perception Service)가 있다. 이 경우, 도로 사용자 또는 기반 시설은 도로 위의 다른 도로 사용자 또는 장애물의 인지를 높여 충돌 위험성을 줄이는 목적으로, 송신자의 한 개 이상의 센서로 감지한 물체(예, 도로 사용자, 장애물 등)들의 정보를 통신을 이용하여 다른 ITS 서비스 이용자에게 CPM(Collective Perception Message)을 통해서 공유할 수 있다.
도 3은 본 개시의 일 실시 예에 따른, 물체의 위치 정보를 표시하는 방법을 나타낸다. 도 3의 실시 예는 본 개시의 다양한 실시 예와 결합될 수 있다.
도 3을 참조하면, 송신자(도 3에서 전파 차량(disseminating vehicle))가 센서에서 취득한 물체(도 3에서 검출된 물체(detected object))의 정보를 CPM을 통해 공유할 때, 물체의 위치 정보는 송신자의 센서 위치(ψDV, λDV)에서 감지된 물체까지의 최단 거리를 상대 좌표 값(도 3에서 xDistance와 yDistance)으로 송신자의 관점에서 표현될 수 있다.
센서 정보를 CPM을 통해 수신한 수신기는 송신기의 센서 위치와 감지된 각각의 상대 위치로 절대 위치를 계산하여 물체의 위치를 알 수 있다.
또한 송신기가 수신기에 보내는 CPM 내에 선택적 정보로 물체의 크기 정보가 포함되어 있다면, 수신기는 송신기의 위치뿐만 아니라 입체적 정보도 알 수 있다.
한편, 종래 센서 정보 전달 방식에서, 송신자가 한 개의 센서로 다수의 물체를 감지할 때, 도 3과 같이 송신자의 관점에서 감지된 물체의 상대 위치가 표현되었다. 이러한 방식은 수신자가 절대 위치를 계산하는 프로세싱 리소스가 부족할 시에 서비스를 이용하는데 제약이 있을 수 있다.
또한 송신자 관점에서의 물체와의 최단 거리로 물체의 위치 정보를 표시할 때, 수신자는 크기가 큰 입체적인 물체의 정확한 위치를 감지하는 데 한계가 있다.
도 4는 본 개시의 일 실시 예에 따른, 감지된 물체의 위치 정보를 나타낸다. 도 4의 실시 예는 본 개시의 다양한 실시 예와 결합될 수 있다.
도 4를 참조하면, RSU(PoV#1, PoV#2)이 감지한 물체(Obj#1)의 위치 정보는 포인트1을 가리킨다. 하지만, 수신기(PoV#3) 측면에서는 포인트1보다는 포인트2가 유효한 물체의 위치 정보이지만, RSU는 포인트2보다는 포인트1의 위치를 CPM에 담아 송신한다.
만약 송신기가 다중 센서로 물체의 진행 방향 값(yaw angle)과 크기 정보(길이, 폭, 높이)를 감지하여 선택적 정보로 CPM에 포함하여 송부한다면, 수신기는 물체의 위치 정보(포인트1)와 크기 정보로 포인트2와 거리2를 직접 계산하여야 한다.
또한, 단일 센서를 사용하는 경우, 혼잡한 도로에서는 도 5와 같이 여러 물체가 서로 가려져 단일 센서로 모든 물체를 감지하는 데 한계가 있다. 도 5는 본 개시의 일 실시 예에 따른, 교차로에서 다중 물체 인식 상황을 나타낸다. 도 5의 실시 예는 본 개시의 다양한 실시 예와 결합될 수 있다.
본 개시의 다양한 실시 예에 따라, 센서 정보를 변환 및 전송하는 방법 및 이를 지원하는 장치를 제안한다.
도 6은 본 개시의 일 실시 예에 따른, 센서에서 취득한 물체 정보와 그림자 영역을 나타낸다. 도 6의 실시 예는 본 개시의 다양한 실시 예와 결합될 수 있다.
도 6을 참조하면, 센서로 감지하는 영역은 도 6과 같을 수 있으며, 물체 뒷부분 영역(shadow from object)과 센서가 감지하기 힘든 영역 등의 그림자 영역이 발생할 수 있다.
이를 보안하는 방법으로, 동일한 송신자의 다수 센서(예를 들어 RSU의 2 대 이상의 카메라 또는 같은 곳을 향하지만 헤딩(heading)이 다른 2 대 이상의 차량들) 또는 다수의 송신자의 센서 정보들을 융합(예를 들어 ITS 서버)하여 이러한 그림자 영역을 최소화할 수 있다.
도 7은 본 개시의 일 실시 예에 따라, 교차로에 설치된 RSU의 두 개의 카메라(PoV #1, 2)에 의해 다른 각도에서 측정된 정보를 융합하는 예를 나타낸다. 도 8은 본 개시의 일 실시 예에 따라, 다른 각도에 위치한 두 대의 차량 각각의 센서(PoV #1, 2)에 의해 측정된 정보를 융합하는 예를 나타낸다. 도 7 또는 도 8의 실시 예는 본 개시의 다양한 실시 예와 결합될 수 있다.
다수의 물체들이 하나의 센서의 방향 관측에서 서로 간섭, 중첩 또는 가림으로 감지되지 않은 영역을 다른 센서로 감지하여, 감지할 수 있는 물체의 영역과 수를 높일 수 있다. 이 과정은 본 개시의 실시 예에 설명되었다. 또한 두 개 이상의 센서가 동일 물체를 감지하였을 때, 두 물체가 동일한 물체인지 확인하는 동작이 필요할 수 있다. 확인하는 방법으로, 각 센서로 측정한 물체를 지면에 투영한 영역(Z=0)의 교차 값(intersection over union)이 임계 값(예를 들어 80%) 이상일 경우, 상기 물체는 하나의 물체로 인식될 수 있다. 이 때 영역의 크기는 영향을 주지 않을 수 있다.
또한 다수 센서에서 측정된 2D 정보들을 활용하여 3D 렌더링 기법으로 수신자 관점에서의 이미지 추출 연산이 가능할 수 있다. 여기서 3D 렌더링 기법이란 2 개 이상의 시각에서 얻은 이미지들로 얻고자 하는 제 3의 시각에서의 이미지를 얻는 기법으로, 도 9와 같이 두 개의 기준 뷰(reference view) A 및 B를 사용하여 다양한 AI 알고리즘 연산을 거쳐 쿼리 뷰(query view)에서의 이미지를 얻는 기법일 수 있다. 도 9는 본 개시의 일 실시 예에 따른, 3D 렌더링 기법의 예를 나타낸다. 도 9의 실시 예는 본 개시의 다양한 실시 예와 결합될 수 있다.
이러한 기법을 통해서, 서비스 제공자의 관점의 2D 정보들로부터 수신자 관점의 2D 이미지를 얻을 수 있으며, 각 물체의 정보(예, 위치, 방향 등)는 수신자 위치에서 변환될 수 있다. 즉, 도 4에서 도시된 물체(Obj#1)에 대하여 다수의 센서(PoV #1, 2)로 측정한 2D 이미지들로 3D 렌더링 기법을 통하여, 물체의 크기 정보가 정확하게 획득될 수 있다. 획득된 물체의 크기 정보를 사용하여, 수신자(PoV #3)가 바라본 물체(Obj#1)의 위치(포인트2)와 수신자(PoV #3)와 물체(Obj#1)의 최단 거리(거리2)가 계산될 수 있다.
위에 설명한 내용에 따른 본 발명의 작동 방식에 따르면, 다수의 센서들로 그림자 영역이 최소화될 수 있고, 송신자는 수신자의 정보(위치, 방향)를 토대로 수신자의 관점에서의 물체의 정보(위치, 속도, 방향 등)를 렌더링 기법을 통해 연산할 수 있다. 송신자는 수신자 관점으로 변환된 물체들의 정보를 유니캐스트 또는 그룹캐스트를 이용하여 수신자에게 송신할 수 있다.
예를 들어, 메시지에 포함된 물체 정보가 수신자 관점으로 변환되었다는 표식으로, 메시지(CPM)에 정보 플래그 비트(inform flag bit)가 추가될 수 있다. 예를 들어, 상기 정보 플래그 비트는 메시지에 포함된 물체 정보가 수신자 관점으로 변환된 정보임을 나타낼 수 있다. 예를 들어, 송신자가 상기 정보 플래그 비트를 포함하는 메시지를 수신자에게 전송하면, 수신자는 메시지 수신 후 상기 정보 플래그 비트(예를 들어 Raw data: 0, Converted data: 1)를 기반으로 메시지 내에 물체 정보가 수신자 관점으로 변환된 정보임을 알 수 있다.
예를 들어, 메시지에 수신자 관점으로 변환한 값이 포함되면, 선택 정보인 물체의 이동 방향 값(yaw angle), 크기 정보 값(너비, 길이, 높이) 등은 상기 메시지에 추가될 수 있다. 예를 들어, 메시지에 수신자 관점으로 변환한 값이 포함되면, 선택 정보인 물체의 이동 방향 값(yaw angle), 크기 정보 값(너비, 길이, 높이) 등은 상기 메시지에서 생략될 수 있다.
예를 들어, 다중 센서로 얻어진 물체의 크기 정보 값의 정확도가 높다고 판단되는 경우에, 선택 정보는 상기 메시지에서 생략될 수 있다. 예를 들어, 다중 센서로 얻어진 물체의 크기 정보 값의 차이가 일정 값 이하인 경우에, 선택 정보는 상기 메시지에서 생략될 수 있다. 예를 들어, 다중 센서로 얻어진 각각의 물체 정보가 동일 또는 유사함이 높다고 판단되는 경우에, 상기 각각의 물체는 동일한 물체로 인식될 수 있고, 상기 각각의 물체에 대한 정보는 하나의 정보로 통합될 수 있다. 예를 들어, 다중 센서 환경에서 각 센서로 얻어진 물체의 크기 정보 값의 차이가 일정 값 이하인 경우에, 상기 각각의 물체는 동일한 물체로 인식될 수 있고, 상기 각각의 물체에 대한 정보는 하나의 정보로 통합될 수 있다. 이 경우, 예를 들어, 송신자는 메시지에 각 센서로 얻어진 정보를 융합한 값을 포함 또는 대표 센서 값을 포함시킬 수 있고, 나머지 센서 값은 상기 메시지에서 생략될 수 있다.
예를 들어, 다중 센서로 얻어진 물체의 크기 정보 값이 이전 값에서 변화한 경우에, 선택 정보는 상기 메시지에 추가될 수 있다. 예를 들어, 다중 센서로 얻어진 물체의 크기 정보 값이 측정 오차, 실제 크기 변경 등의 이유로 이전 값에서 변화한 경우에, 선택 정보는 상기 메시지에 추가될 수 있다.
예를 들어, 물체의 이동 방향 값(yaw angle)을 측정할 수 없거나 부정확한 경우(예를 들어 정지 상태)에, 물체의 크기 정보는 상기 메시지에서 생략될 수 있다. 예를 들어, 물체의 이동 방향 값(yaw angle)이 물체의 크기 정보를 나타내는 기준점이라서 이동 방향 값(yaw angle)을 측정할 수 없거나 부정확한 경우(예를 들어 정지 상태)에, 물체의 크기 정보는 상기 메시지에서 생략될 수 있다.
도 10 내지 도 14는 본 개시의 일 실시 예에 따라, 교차로 환경에서 RSU가 연결된 두 대의 센서(PoV #1, 2)에서 취득한 센서 정보를 차량(PoV #3)에 제공하는 예를 나타낸다. 도 10 내지 도 14의 실시 예는 본 개시의 다양한 실시 예와 결합될 수 있다.
도 10 내지 도 14를 참조하면, RSU는 수신기(PoV #3)의 정보(위치, 방향 등)를 인식(awareness) 메시지(예, CAM)를 통해서 수신하거나 또는 수신기의 별도의 센서 정보 요청 메시지를 통해서 수신할 수 있다.
도 11을 참조하면, 교차로에는 5개의 물체들(Obj #1~5)이 존재하고, 센서(PoV #1)에서 취득한 정보에는 도 11과 같이 물체들(Obj #2, 3, 4, 5)이 있으며, 물체(Obj #3)의 그림자 영역에 가려 감지하지 못하는 물체(Obj #1)가 존재할 수 있다.
이와 동일하게, 도 12를 참조하면, 다른 센서(PoV #2)에서 취득한 정보 역시 물체(Obj #3)의 그림자 영역이 발생하고, 물체(Obj #2)가 가려져 감지될 수 없다.
이러한 문제를 보안하기 위해, 다른 두 센서에서 취득한 정보를 융합하면, 그림자 영역이 최소화될 수 있다. 도 13을 참조하면, 가려진 물체들(Obj #1, 2)을 포함하여 모든 물체들이 감지될 수 있다. 이러한 정보 융합 방법으로 다양한 경우에서 더 많은 물체들이 감지될 수 있고 위치 정보들이 산출될 수 있다.
예를 들어, 두 개의 센서(PoV #2, 3)가 모두 검출한 물체들(Obj #3, 4, 5)에 대하여, 각 물체의 지면에 투영한 영역의 크기가 비교될 수 있다. 이 경우, 중복되는 영역이 80% 이상일 때, 해당 물체는 동일 물체로 인식될 수 있다.
위의 과정을 통해 그림자 영역을 최소화하여 최대한 물체를 감지한 후, 3D 렌더링 기법을 통해 각 물체들의 정확한 크기 정보가 도출될 수 있다. 송신자의 기준 위치(reference position)와 각 물체들의 상대 위치, 크기 정보를 토대로, 송신자는 도 14와 같이 수신자 시각(PoV #3)에서의 물체들의 정보들로 변환할 수 있다. 이후, 송신자는 변환된 정보를 CPM에 담아서 유니캐스트 또는 그룹캐스트를 이용하여 해당 수신자(PoV #3)에게 전달할 수 있다.
수신자 관점으로 변환한 물체들의 상대 위치 값을 CPM에 담아 송부할 때, 물체들의 크기 정보 값이 정확한 경우 메시지의 크기를 감소하기 위해 크기 정보는 생략될 수 있다. 크기 정보의 데이터 크기는 물체 수에 비례하므로, 한 메시지(CPM) 안에 포함되는 물체의 수가 많다면 메시지 사이즈 감소 효과는 클 수 있다.
도 15는 본 개시의 일 실시 예에 따른, 센서 정보를 변환 및 전송하는 방법을 나타낸다. 도 15의 실시 예는 본 개시의 다양한 실시 예와 결합될 수 있다.
도 15를 참조하면, 단계 S1510에서, 센서 정보 제공자는 수신자의 인식 메시지 또는 센서 정보 제공 요청 메시지를 수신할 수 있다. 단계 S1520에서, 센서 정보 제공자는 다수의 센서 정보를 융합하여 그림자 영역을 최소화 및 감지 물체 수를 최대화할 수 있다. 단계 S1530에서, 센서 정보 제공자는 감지한 물체들을 3D 렌더링 기법을 통해 수신자 시각(위치와 방향을 기반)으로 물체들의 정보를 변환할 수 있다. 단계 S1540에서, 센서 정보 제공자는 변환한 정보를 CPM에 저장 후 송신할 수 있다. 도 15의 실시 예에서 일부 단계는 생략될 수 있다.
도 16은 본 개시의 일 실시 예에 따라, 제 1 장치가 무선 통신을 수행하는 방법을 나타낸다. 도 16의 실시 예는 본 개시의 다양한 실시 예와 결합될 수 있다.
도 16을 참조하면, 단계 S1610에서, 제 1 장치는 상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로, 물체의 제 1 상태 정보를 획득할 수 있다. 단계 S1620에서, 제 1 장치는 상기 제 1 상태 정보를 제 2 장치의 관점에서 제 2 상태 정보로 변환할 수 있다. 단계 S1630에서, 제 1 장치는 상기 제 2 상태 정보를 포함하는 메시지를 상기 제 2 장치에게 전송할 수 있다.
예를 들어, 상기 메시지는 CPM(collective perception message)일 수 있다.
예를 들어, 상기 제 2 상태 정보는, 상기 제 2 장치의 관점으로 변환된, 상기 물체의 위치 정보, 상기 물체의 방향 정보, 상기 물체의 속력 정보, 또는 상기 물체의 크기 정보 중 적어도 어느 하나를 포함할 수 있다.
예를 들어, 상기 메시지는 상기 제 2 상태 정보가 상기 제 2 장치의 관점에서 변환된 정보임을 나타내는 정보를 포함할 수 있다. 예를 들어, 상기 제 2 상태 정보가 상기 제 2 장치의 관점에서 변환된 정보임을 나타내는 정보는 1 비트 플래그일 수 있다.
예를 들어, 상기 제 2 상태 정보가 상기 제 2 장치의 관점에서 변환된 정보임을 나타내는 정보가 상기 메시지에 포함되는 것을 기반으로, 상기 물체의 크기 정보는 상기 제 2 상태 정보에서 제외될 수 있다.
예를 들어, 상기 제 2 상태 정보가 상기 제 2 장치의 관점에서 변환된 정보임을 나타내는 정보가 상기 메시지에 포함되고, 및 상기 물체의 크기 정보의 정확도가 임계치 이상인 것을 기반으로, 상기 물체의 크기 정보는 상기 제 2 상태 정보에서 제외될 수 있다.
예를 들어, 상기 제 2 상태 정보가 상기 제 2 장치의 관점에서 변환된 정보임을 나타내는 정보가 상기 메시지에 포함되고, 및 상기 물체의 방향 정보의 정확도가 임계치 이하인 것을 기반으로, 상기 물체의 크기 정보는 상기 제 2 상태 정보에서 제외될 수 있다.
예를 들어, 상기 제 2 상태 정보를 포함하는 상기 메시지는 그룹캐스트 또는 유니캐스트를 기반으로 상기 제 2 장치에게 전송될 수 있다.
부가적으로, 예를 들어, 제 1 장치는 3D 렌더링을 기반으로 상기 제 1 상태 정보로부터 상기 물체의 제 3 상태 정보를 획득할 수 있다. 예를 들어, 상기 제 2 상태 정보는, 상기 제 1 장치의 기준 위치 정보, 상기 제 2 장치의 위치 정보, 또는 상기 제 3 상태 정보 중 적어도 어느 하나를 기반으로, 획득될 수 있다.
부가적으로, 예를 들어, 제 1 장치는 상기 제 2 장치의 위치 정보 또는 방향 정보 중 적어도 어느 하나를 포함하는 인식 메시지(awareness message) 또는 센서 정보 요청 메시지를 상기 제 2 장치로부터 수신할 수 있다.
예를 들어, 상기 제 1 상태 정보는 상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로 그림자 영역을 최소화 및 감지 물체 수를 최대화하여 획득된 정보일 수 있다.
예를 들어, 상기 제 1 장치는 RSU(road side unit) 또는 ITS(intelligent transportation system) 서버일 수 있다.
상기 제안 방법은 본 개시의 다양한 실시 예에 따른 장치에 적용될 수 있다. 먼저, 제 1 장치(100)의 프로세서(102)는 상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로, 물체의 제 1 상태 정보를 획득할 수 있다. 그리고, 제 1 장치(100)의 프로세서(102)는 상기 제 1 상태 정보를 제 2 장치의 관점에서 제 2 상태 정보로 변환할 수 있다. 그리고, 제 1 장치(100)의 프로세서(102)는 상기 제 2 상태 정보를 포함하는 메시지를 상기 제 2 장치에게 전송하도록 송수신기(106)를 제어할 수 있다.
본 개시의 일 실시 예에 따르면, 무선 통신을 수행하도록 설정된 제 1 장치가 제공될 수 있다. 예를 들어, 상기 제 1 장치는 적어도 하나의 송수신기; 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서에 연결되고 명령어들을 저장하는 적어도 하나의 메모리를 포함할 수 있다. 예를 들어, 상기 명령어들은 상기 적어도 하나의 프로세서에 의해 실행되는 것을 기반으로 상기 제 1 장치로 하여금: 상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로, 물체의 제 1 상태 정보를 획득하게 하고; 상기 제 1 상태 정보를 제 2 장치의 관점에서 제 2 상태 정보로 변환하게 하고; 및 상기 제 2 상태 정보를 포함하는 메시지를 상기 제 2 장치에게 전송하게 할 수 있다.
본 개시의 일 실시 예에 따르면, 제 1 장치를 제어하도록 설정된 프로세싱 장치가 제공될 수 있다. 예를 들어, 상기 프로세싱 장치는 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서에 연결되고 명령어들을 저장하는 적어도 하나의 메모리를 포함할 수 있다. 예를 들어, 상기 명령어들은 상기 적어도 하나의 프로세서에 의해 실행되는 것을 기반으로 상기 제 1 장치로 하여금: 상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로, 물체의 제 1 상태 정보를 획득하게 하고; 상기 제 1 상태 정보를 제 2 장치의 관점에서 제 2 상태 정보로 변환하게 하고; 및 상기 제 2 상태 정보를 포함하는 메시지를 상기 제 2 장치에게 전송하게 할 수 있다.
본 개시의 일 실시 예에 따르면, 명령어들을 기록하고 있는 비일시적 컴퓨터 판독가능 저장 매체가 제공될 수 있다. 예를 들어, 상기 명령어들은, 실행될 때, 제 1 장치로 하여금: 상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로, 물체의 제 1 상태 정보를 획득하게 하고; 상기 제 1 상태 정보를 제 2 장치의 관점에서 제 2 상태 정보로 변환하게 하고; 및 상기 제 2 상태 정보를 포함하는 메시지를 상기 제 2 장치에게 전송하게 할 수 있다.
도 17은 본 개시의 일 실시 예에 따라, 제 2 장치가 무선 통신을 수행하는 방법을 나타낸다. 도 17의 실시 예는 본 개시의 다양한 실시 예와 결합될 수 있다.
도 17을 참조하면, 단계 S1710에서, 제 2 장치는 물체의 제 2 상태 정보를 포함하는 메시지를 제 1 장치로부터 수신할 수 있다. 단계 S1720에서, 제 2 장치는 상기 제 2 상태 정보를 기반으로 상기 물체와 상기 제 2 장치 사이의 거리를 획득할 수 있다. 예를 들어, 상기 물체의 제 1 상태 정보는 상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로 획득될 수 있다. 예를 들어, 상기 제 1 상태 정보는 상기 제 1 장치에 의해 상기 제 2 장치의 관점에서 상기 제 2 상태 정보로 변환될 수 있다.
상기 제안 방법은 본 개시의 다양한 실시 예에 따른 장치에 적용될 수 있다. 먼저, 제 2 장치(200)의 프로세서(202)는
물체의 제 2 상태 정보를 포함하는 메시지를 제 1 장치로부터 수신할 수 있다. 단계 S1720에서, 제 2 장치는 상기 제 2 상태 정보를 기반으로 상기 물체와 상기 제 2 장치 사이의 거리를 획득할 수 있다. 예를 들어, 상기 물체의 제 1 상태 정보는 상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로 획득될 수 있다. 예를 들어, 상기 제 1 상태 정보는 상기 제 1 장치에 의해 상기 제 2 장치의 관점에서 상기 제 2 상태 정보로 변환될 수 있다.
본 개시의 일 실시 예에 따르면, 무선 통신을 수행하도록 설정된 제 2 장치가 제공될 수 있다. 예를 들어, 상기 제 2 장치는 적어도 하나의 송수신기; 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서에 연결되고 명령어들을 저장하는 적어도 하나의 메모리를 포함할 수 있다. 예를 들어, 상기 명령어들은 상기 적어도 하나의 프로세서에 의해 실행되는 것을 기반으로 상기 제 2 장치로 하여금: 물체의 제 2 상태 정보를 포함하는 메시지를 제 1 장치로부터 수신하게 하고; 및 상기 제 2 상태 정보를 기반으로 상기 물체와 상기 제 2 장치 사이의 거리를 획득하게 할 수 있다. 예를 들어, 상기 물체의 제 1 상태 정보는 상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로 획득될 수 있다. 예를 들어, 상기 제 1 상태 정보는 상기 제 1 장치에 의해 상기 제 2 장치의 관점에서 상기 제 2 상태 정보로 변환될 수 있다.
본 개시의 일 실시 예에 따르면, 제 2 장치를 제어하도록 설정된 프로세싱 장치가 제공될 수 있다. 예를 들어, 상기 프로세싱 장치는 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서에 연결되고 명령어들을 저장하는 적어도 하나의 메모리를 포함할 수 있다. 예를 들어, 상기 명령어들은 상기 적어도 하나의 프로세서에 의해 실행되는 것을 기반으로 상기 제 2 장치로 하여금: 물체의 제 2 상태 정보를 포함하는 메시지를 제 1 장치로부터 수신하게 하고; 및 상기 제 2 상태 정보를 기반으로 상기 물체와 상기 제 2 장치 사이의 거리를 획득하게 할 수 있다. 예를 들어, 상기 물체의 제 1 상태 정보는 상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로 획득될 수 있다. 예를 들어, 상기 제 1 상태 정보는 상기 제 1 장치에 의해 상기 제 2 장치의 관점에서 상기 제 2 상태 정보로 변환될 수 있다.
본 개시의 일 실시 예에 따르면, 명령어들을 기록하고 있는 비일시적 컴퓨터 판독가능 저장 매체가 제공될 수 있다. 예를 들어, 상기 명령어들은, 실행될 때, 제 2 장치로 하여금: 물체의 제 2 상태 정보를 포함하는 메시지를 제 1 장치로부터 수신하게 하고; 및 상기 제 2 상태 정보를 기반으로 상기 물체와 상기 제 2 장치 사이의 거리를 획득하게 할 수 있다. 예를 들어, 상기 물체의 제 1 상태 정보는 상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로 획득될 수 있다. 예를 들어, 상기 제 1 상태 정보는 상기 제 1 장치에 의해 상기 제 2 장치의 관점에서 상기 제 2 상태 정보로 변환될 수 있다.
본 개시의 다양한 실시 예에 따르면, 다양한 각도의 여러 센서가 장착된 정보 제공자(예, RSU, 서버)는 다중 센서로 측정된 하나 또는 여러 개의 다각도의 센서 정보를 취득할 수 있다. 그리고, 선택적으로, 정보 제공자는 해당 정보를 융합할 수 있다. 그리고, 정보 제공자는 특정 수신기 또는 그룹의 위치 정보와 방향 정보에 기초한 관점으로 센서 정보를 변환할 수 있다. 그리고, 정보 제공자는 해당 수신기 또는 그룹에게 유니캐스트 또는 그룹캐스트로 상기 변환된 정보를 송신할 수 있다.
본 개시의 다양한 실시 예에 따르면, 우선 프로세싱 리소스가 충분한 송신자(예, RSU, 서버)는 수신자 또는 수신자 그룹의 관점으로 정보를 변경할 수 있고, 이를 통해서 적은 프로세싱 리소스를 가진 수신자도 해당 서비스를 원활하게 이용할 수 있다. 또한 수신자는 적은 프로세싱 리소스로 수신자 관점에서 물체의 최단 거리(도 4에서 거리2)를 알 수 있다. 즉 송신자가 물체를 인식하고 위치를 지정하는 경우에, 지점(도 4에서 포인트1)이 송신자에게 가장 가까운 지점이지만, 송신자는 본 개시에서 제안하는 방법에 따라 상기 지점을 수신자가 바라보았을 때 가장 가까운 지점(도 4에서 포인트2)으로 변환하여 송신할 수 있다. 따라서, 수신자는 효과적으로 물체를 인식할 수 있다.
그리고, 송신자는 수신자가 가장 가까운 지점(도 4에서 포인트2)을 도출하기 위해 필요한 물체의 방향 및 크기 정보를 전송하는 것을 생략할 수 있다. 메시지에 물체의 방향 및 크기 정보를 생략함으로써, 전송 메시지의 크기가 감소할 수 있다. 메시지가 포함하는 물체의 수가 많을수록, 메시지의 크기 감소 효과는 더 클 수 있다. 그리고 다양한 각도로 설치 또는 위치된 다중 센서는 혼잡한 상황에서 가려진 물체까지 감지할 수 있고, 물체의 크기 정보 또한 더 높은 정확도를 가질 수 있다.
본 개시의 다양한 실시 예는 상호 결합될 수 있다.
이하 본 개시의 다양한 실시 예가 적용될 수 있는 장치에 대하여 설명한다.
이로 제한되는 것은 아니지만, 본 문서에 개시된 다양한 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 기기들간에 무선 통신/연결(예, 5G)을 필요로 하는 다양한 분야에 적용될 수 있다.
이하, 도면을 참조하여 보다 구체적으로 예시한다. 이하의 도면/설명에서 동일한 도면 부호는 다르게 기술하지 않는 한, 동일하거나 대응되는 하드웨어 블록, 소프트웨어 블록 또는 기능 블록을 예시할 수 있다.
도 18은 본 개시의 일 실시 예에 따른, 통신 시스템(1)을 나타낸다. 도 18의 실시 예는 본 개시의 다양한 실시 예와 결합될 수 있다.
도 18을 참조하면, 본 개시의 다양한 실시 예가 적용되는 통신 시스템(1)은 무선 기기, 기지국 및 네트워크를 포함한다. 여기서, 무선 기기는 무선 접속 기술(예, 5G NR(New RAT), LTE(Long Term Evolution))을 이용하여 통신을 수행하는 기기를 의미하며, 통신/무선/5G 기기로 지칭될 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(100a), 차량(100b-1, 100b-2), XR(eXtended Reality) 기기(100c), 휴대 기기(Hand-held device)(100d), 가전(100e), IoT(Internet of Thing) 기기(100f), AI기기/서버(400)를 포함할 수 있다. 예를 들어, 차량은 무선 통신 기능이 구비된 차량, 자율 주행 차량, 차량간 통신을 수행할 수 있는 차량 등을 포함할 수 있다. 여기서, 차량은 UAV(Unmanned Aerial Vehicle)(예, 드론)를 포함할 수 있다. XR 기기는 AR(Augmented Reality)/VR(Virtual Reality)/MR(Mixed Reality) 기기를 포함하며, HMD(Head-Mounted Device), 차량에 구비된 HUD(Head-Up Display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등의 형태로 구현될 수 있다. 휴대 기기는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 컴퓨터(예, 노트북 등) 등을 포함할 수 있다. 가전은 TV, 냉장고, 세탁기 등을 포함할 수 있다. IoT 기기는 센서, 스마트미터 등을 포함할 수 있다. 예를 들어, 기지국, 네트워크는 무선 기기로도 구현될 수 있으며, 특정 무선 기기(200a)는 다른 무선 기기에게 기지국/네트워크 노드로 동작할 수도 있다.
여기서, 본 명세서의 무선 기기(100a~100f)에서 구현되는 무선 통신 기술은 LTE, NR 및 6G뿐만 아니라 저전력 통신을 위한 Narrowband Internet of Things를 포함할 수 있다. 이때, 예를 들어 NB-IoT 기술은 LPWAN(Low Power Wide Area Network) 기술의 일례일 수 있고, LTE Cat NB1 및/또는 LTE Cat NB2 등의 규격으로 구현될 수 있으며, 상술한 명칭에 한정되는 것은 아니다. 추가적으로 또는 대체적으로, 본 명세서의 무선 기기(100a~100f)에서 구현되는 무선 통신 기술은 LTE-M 기술을 기반으로 통신을 수행할 수 있다. 이때, 일 예로, LTE-M 기술은 LPWAN 기술의 일례일 수 있고, eMTC(enhanced Machine Type Communication) 등의 다양한 명칭으로 불릴 수 있다. 예를 들어, LTE-M 기술은 1) LTE CAT 0, 2) LTE Cat M1, 3) LTE Cat M2, 4) LTE non-BL(non-Bandwidth Limited), 5) LTE-MTC, 6) LTE Machine Type Communication, 및/또는 7) LTE M 등의 다양한 규격 중 적어도 어느 하나로 구현될 수 있으며 상술한 명칭에 한정되는 것은 아니다. 추가적으로 또는 대체적으로, 본 명세서의 무선 기기(100a~100f)에서 구현되는 무선 통신 기술은 저전력 통신을 고려한 지그비(ZigBee), 블루투스(Bluetooth) 및 저전력 광역 통신망(Low Power Wide Area Network, LPWAN) 중 적어도 어느 하나를 포함할 수 있으며, 상술한 명칭에 한정되는 것은 아니다. 일 예로 ZigBee 기술은 IEEE 802.15.4 등의 다양한 규격을 기반으로 소형/저-파워 디지털 통신에 관련된 PAN(personal area networks)을 생성할 수 있으며, 다양한 명칭으로 불릴 수 있다.
무선 기기(100a~100f)는 기지국(200)을 통해 네트워크(300)와 연결될 수 있다. 무선 기기(100a~100f)에는 AI(Artificial Intelligence) 기술이 적용될 수 있으며, 무선 기기(100a~100f)는 네트워크(300)를 통해 AI 서버(400)와 연결될 수 있다. 네트워크(300)는 3G 네트워크, 4G(예, LTE) 네트워크 또는 5G(예, NR) 네트워크 등을 이용하여 구성될 수 있다. 무선 기기(100a~100f)는 기지국(200)/네트워크(300)를 통해 서로 통신할 수도 있지만, 기지국/네트워크를 통하지 않고 직접 통신(e.g. 사이드링크 통신(sidelink communication))할 수도 있다. 예를 들어, 차량들(100b-1, 100b-2)은 직접 통신(e.g. V2V(Vehicle to Vehicle)/V2X(Vehicle to everything) communication)을 할 수 있다. 또한, IoT 기기(예, 센서)는 다른 IoT 기기(예, 센서) 또는 다른 무선 기기(100a~100f)와 직접 통신을 할 수 있다.
무선 기기(100a~100f)/기지국(200), 기지국(200)/기지국(200) 간에는 무선 통신/연결(150a, 150b, 150c)이 이뤄질 수 있다. 여기서, 무선 통신/연결은 상향/하향링크 통신(150a)과 사이드링크 통신(150b)(또는, D2D 통신), 기지국간 통신(150c)(e.g. relay, IAB(Integrated Access Backhaul)과 같은 다양한 무선 접속 기술(예, 5G NR)을 통해 이뤄질 수 있다. 무선 통신/연결(150a, 150b, 150c)을 통해 무선 기기와 기지국/무선 기기, 기지국과 기지국은 서로 무선 신호를 송신/수신할 수 있다. 예를 들어, 무선 통신/연결(150a, 150b, 150c)은 다양한 물리 채널을 통해 신호를 송신/수신할 수 있다. 이를 위해, 본 개시의 다양한 제안들에 기반하여, 무선 신호의 송신/수신을 위한 다양한 구성정보 설정 과정, 다양한 신호 처리 과정(예, 채널 인코딩/디코딩, 변조/복조, 자원 매핑/디매핑 등), 자원 할당 과정 등 중 적어도 일부가 수행될 수 있다.
도 19는 본 개시의 일 실시 예에 따른, 무선 기기를 나타낸다. 도 19의 실시 예는 본 개시의 다양한 실시 예와 결합될 수 있다.
도 19를 참조하면, 제 1 무선 기기(100)와 제 2 무선 기기(200)는 다양한 무선 접속 기술(예, LTE, NR)을 통해 무선 신호를 송수신할 수 있다. 여기서, {제 1 무선 기기(100), 제 2 무선 기기(200)}은 도 18의 {무선 기기(100x), 기지국(200)} 및/또는 {무선 기기(100x), 무선 기기(100x)}에 대응할 수 있다.
제 1 무선 기기(100)는 하나 이상의 프로세서(102) 및 하나 이상의 메모리(104)를 포함하며, 추가적으로 하나 이상의 송수신기(106) 및/또는 하나 이상의 안테나(108)을 더 포함할 수 있다. 프로세서(102)는 메모리(104) 및/또는 송수신기(106)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(102)는 메모리(104) 내의 정보를 처리하여 제 1 정보/신호를 생성한 뒤, 송수신기(106)을 통해 제 1 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(102)는 송수신기(106)를 통해 제 2 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제 2 정보/신호의 신호 처리로부터 얻은 정보를 메모리(104)에 저장할 수 있다. 메모리(104)는 프로세서(102)와 연결될 수 있고, 프로세서(102)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(104)는 프로세서(102)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(102)와 메모리(104)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(106)는 프로세서(102)와 연결될 수 있고, 하나 이상의 안테나(108)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(106)는 송신기 및/또는 수신기를 포함할 수 있다. 송수신기(106)는 RF(Radio Frequency) 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
제 2 무선 기기(200)는 하나 이상의 프로세서(202), 하나 이상의 메모리(204)를 포함하며, 추가적으로 하나 이상의 송수신기(206) 및/또는 하나 이상의 안테나(208)를 더 포함할 수 있다. 프로세서(202)는 메모리(204) 및/또는 송수신기(206)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202)는 메모리(204) 내의 정보를 처리하여 제3 정보/신호를 생성한 뒤, 송수신기(206)를 통해 제3 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202)는 송수신기(206)를 통해 제4 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제4 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204)에 저장할 수 있다. 메모리(204)는 프로세서(202)와 연결될 수 있고, 프로세서(202)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204)는 프로세서(202)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202)와 메모리(204)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206)는 프로세서(202)와 연결될 수 있고, 하나 이상의 안테나(208)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206)는 송신기 및/또는 수신기를 포함할 수 있다 송수신기(206)는 RF 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
이하, 무선 기기(100, 200)의 하드웨어 요소에 대해 보다 구체적으로 설명한다. 이로 제한되는 것은 아니지만, 하나 이상의 프로토콜 계층이 하나 이상의 프로세서(102, 202)에 의해 구현될 수 있다. 예를 들어, 하나 이상의 프로세서(102, 202)는 하나 이상의 계층(예, PHY, MAC, RLC, PDCP, RRC, SDAP와 같은 기능적 계층)을 구현할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 하나 이상의 PDU(Protocol Data Unit) 및/또는 하나 이상의 SDU(Service Data Unit)를 생성할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 메시지, 제어정보, 데이터 또는 정보를 생성할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 포함하는 신호(예, 베이스밴드 신호)를 생성하여, 하나 이상의 송수신기(106, 206)에게 제공할 수 있다. 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)로부터 신호(예, 베이스밴드 신호)를 수신할 수 있고, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 획득할 수 있다.
하나 이상의 프로세서(102, 202)는 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 마이크로 컴퓨터로 지칭될 수 있다. 하나 이상의 프로세서(102, 202)는 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합에 의해 구현될 수 있다. 일 예로, 하나 이상의 ASIC(Application Specific Integrated Circuit), 하나 이상의 DSP(Digital Signal Processor), 하나 이상의 DSPD(Digital Signal Processing Device), 하나 이상의 PLD(Programmable Logic Device) 또는 하나 이상의 FPGA(Field Programmable Gate Arrays)가 하나 이상의 프로세서(102, 202)에 포함될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있고, 펌웨어 또는 소프트웨어는 모듈, 절차, 기능 등을 포함하도록 구현될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 수행하도록 설정된 펌웨어 또는 소프트웨어는 하나 이상의 프로세서(102, 202)에 포함되거나, 하나 이상의 메모리(104, 204)에 저장되어 하나 이상의 프로세서(102, 202)에 의해 구동될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 코드, 명령어 및/또는 명령어의 집합 형태로 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있다.
하나 이상의 메모리(104, 204)는 하나 이상의 프로세서(102, 202)와 연결될 수 있고, 다양한 형태의 데이터, 신호, 메시지, 정보, 프로그램, 코드, 지시 및/또는 명령을 저장할 수 있다. 하나 이상의 메모리(104, 204)는 ROM, RAM, EPROM, 플래시 메모리, 하드 드라이브, 레지스터, 캐쉬 메모리, 컴퓨터 판독 저장 매체 및/또는 이들의 조합으로 구성될 수 있다. 하나 이상의 메모리(104, 204)는 하나 이상의 프로세서(102, 202)의 내부 및/또는 외부에 위치할 수 있다. 또한, 하나 이상의 메모리(104, 204)는 유선 또는 무선 연결과 같은 다양한 기술을 통해 하나 이상의 프로세서(102, 202)와 연결될 수 있다.
하나 이상의 송수신기(106, 206)는 하나 이상의 다른 장치에게 본 문서의 방법들 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 전송할 수 있다. 하나 이상의 송수신기(106, 206)는 하나 이상의 다른 장치로부터 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 수신할 수 있다. 예를 들어, 하나 이상의 송수신기(106, 206)는 하나 이상의 프로세서(102, 202)와 연결될 수 있고, 무선 신호를 송수신할 수 있다. 예를 들어, 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)가 하나 이상의 다른 장치에게 사용자 데이터, 제어 정보 또는 무선 신호를 전송하도록 제어할 수 있다. 또한, 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)가 하나 이상의 다른 장치로부터 사용자 데이터, 제어 정보 또는 무선 신호를 수신하도록 제어할 수 있다. 또한, 하나 이상의 송수신기(106, 206)는 하나 이상의 안테나(108, 208)와 연결될 수 있고, 하나 이상의 송수신기(106, 206)는 하나 이상의 안테나(108, 208)를 통해 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 송수신하도록 설정될 수 있다. 본 문서에서, 하나 이상의 안테나는 복수의 물리 안테나이거나, 복수의 논리 안테나(예, 안테나 포트)일 수 있다. 하나 이상의 송수신기(106, 206)는 수신된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 하나 이상의 프로세서(102, 202)를 이용하여 처리하기 위해, 수신된 무선 신호/채널 등을 RF 밴드 신호에서 베이스밴드 신호로 변환(Convert)할 수 있다. 하나 이상의 송수신기(106, 206)는 하나 이상의 프로세서(102, 202)를 이용하여 처리된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 베이스밴드 신호에서 RF 밴드 신호로 변환할 수 있다. 이를 위하여, 하나 이상의 송수신기(106, 206)는 (아날로그) 오실레이터 및/또는 필터를 포함할 수 있다.
도 20은 본 개시의 일 실시 예에 따른, 전송 신호를 위한 신호 처리 회로를 나타낸다. 도 20의 실시 예는 본 개시의 다양한 실시 예와 결합될 수 있다.
도 20을 참조하면, 신호 처리 회로(1000)는 스크램블러(1010), 변조기(1020), 레이어 매퍼(1030), 프리코더(1040), 자원 매퍼(1050), 신호 생성기(1060)를 포함할 수 있다. 이로 제한되는 것은 아니지만, 도 20의 동작/기능은 도 19의 프로세서(102, 202) 및/또는 송수신기(106, 206)에서 수행될 수 있다. 도 20의 하드웨어 요소는 도 19의 프로세서(102, 202) 및/또는 송수신기(106, 206)에서 구현될 수 있다. 예를 들어, 블록 1010~1060은 도 19의 프로세서(102, 202)에서 구현될 수 있다. 또한, 블록 1010~1050은 도 19의 프로세서(102, 202)에서 구현되고, 블록 1060은 도 19의 송수신기(106, 206)에서 구현될 수 있다.
코드워드는 도 20의 신호 처리 회로(1000)를 거쳐 무선 신호로 변환될 수 있다. 여기서, 코드워드는 정보블록의 부호화된 비트 시퀀스이다. 정보블록은 전송블록(예, UL-SCH 전송블록, DL-SCH 전송블록)을 포함할 수 있다. 무선 신호는 다양한 물리 채널(예, PUSCH, PDSCH)을 통해 전송될 수 있다.
구체적으로, 코드워드는 스크램블러(1010)에 의해 스크램블된 비트 시퀀스로 변환될 수 있다. 스크램블에 사용되는 스크램블 시퀀스는 초기화 값에 기반하여 생성되며, 초기화 값은 무선 기기의 ID 정보 등이 포함될 수 있다. 스크램블된 비트 시퀀스는 변조기(1020)에 의해 변조 심볼 시퀀스로 변조될 수 있다. 변조 방식은 pi/2-BPSK(pi/2-Binary Phase Shift Keying), m-PSK(m-Phase Shift Keying), m-QAM(m-Quadrature Amplitude Modulation) 등을 포함할 수 있다. 복소 변조 심볼 시퀀스는 레이어 매퍼(1030)에 의해 하나 이상의 전송 레이어로 매핑될 수 있다. 각 전송 레이어의 변조 심볼들은 프리코더(1040)에 의해 해당 안테나 포트(들)로 매핑될 수 있다(프리코딩). 프리코더(1040)의 출력 z는 레이어 매퍼(1030)의 출력 y를 N*M의 프리코딩 행렬 W와 곱해 얻을 수 있다. 여기서, N은 안테나 포트의 개수, M은 전송 레이어의 개수이다. 여기서, 프리코더(1040)는 복소 변조 심볼들에 대한 트랜스폼(transform) 프리코딩(예, DFT 변환)을 수행한 이후에 프리코딩을 수행할 수 있다. 또한, 프리코더(1040)는 트랜스폼 프리코딩을 수행하지 않고 프리코딩을 수행할 수 있다.
자원 매퍼(1050)는 각 안테나 포트의 변조 심볼들을 시간-주파수 자원에 매핑할 수 있다. 시간-주파수 자원은 시간 도메인에서 복수의 심볼(예, CP-OFDMA 심볼, DFT-s-OFDMA 심볼)을 포함하고, 주파수 도메인에서 복수의 부반송파를 포함할 수 있다. 신호 생성기(1060)는 매핑된 변조 심볼들로부터 무선 신호를 생성하며, 생성된 무선 신호는 각 안테나를 통해 다른 기기로 전송될 수 있다. 이를 위해, 신호 생성기(1060)는 IFFT(Inverse Fast Fourier Transform) 모듈 및 CP(Cyclic Prefix) 삽입기, DAC(Digital-to-Analog Converter), 주파수 상향 변환기(frequency uplink converter) 등을 포함할 수 있다.
무선 기기에서 수신 신호를 위한 신호 처리 과정은 도 20의 신호 처리 과정(1010~1060)의 역으로 구성될 수 있다. 예를 들어, 무선 기기(예, 도 19의 100, 200)는 안테나 포트/송수신기를 통해 외부로부터 무선 신호를 수신할 수 있다. 수신된 무선 신호는 신호 복원기를 통해 베이스밴드 신호로 변환될 수 있다. 이를 위해, 신호 복원기는 주파수 하향 변환기(frequency downlink converter), ADC(analog-to-digital converter), CP 제거기, FFT(Fast Fourier Transform) 모듈을 포함할 수 있다. 이후, 베이스밴드 신호는 자원 디-매퍼 과정, 포스트코딩(postcoding) 과정, 복조 과정 및 디-스크램블 과정을 거쳐 코드워드로 복원될 수 있다. 코드워드는 복호(decoding)를 거쳐 원래의 정보블록으로 복원될 수 있다. 따라서, 수신 신호를 위한 신호 처리 회로(미도시)는 신호 복원기, 자원 디-매퍼, 포스트코더, 복조기, 디-스크램블러 및 복호기를 포함할 수 있다.
도 21은 본 개시의 일 실시 예에 따른, 무선 기기를 나타낸다. 무선 기기는 사용-예/서비스에 따라 다양한 형태로 구현될 수 있다(도 18 참조). 도 21의 실시 예는 본 개시의 다양한 실시 예와 결합될 수 있다.
도 21을 참조하면, 무선 기기(100, 200)는 도 19의 무선 기기(100,200)에 대응하며, 다양한 요소(element), 성분(component), 유닛/부(unit), 및/또는 모듈(module)로 구성될 수 있다. 예를 들어, 무선 기기(100, 200)는 통신부(110), 제어부(120), 메모리부(130) 및 추가 요소(140)를 포함할 수 있다. 통신부는 통신 회로(112) 및 송수신기(들)(114)을 포함할 수 있다. 예를 들어, 통신 회로(112)는 도 19의 하나 이상의 프로세서(102,202) 및/또는 하나 이상의 메모리(104,204)를 포함할 수 있다. 예를 들어, 송수신기(들)(114)는 도 19의 하나 이상의 송수신기(106,206) 및/또는 하나 이상의 안테나(108,208)을 포함할 수 있다. 제어부(120)는 통신부(110), 메모리부(130) 및 추가 요소(140)와 전기적으로 연결되며 무선 기기의 제반 동작을 제어한다. 예를 들어, 제어부(120)는 메모리부(130)에 저장된 프로그램/코드/명령/정보에 기반하여 무선 기기의 전기적/기계적 동작을 제어할 수 있다. 또한, 제어부(120)는 메모리부(130)에 저장된 정보를 통신부(110)을 통해 외부(예, 다른 통신 기기)로 무선/유선 인터페이스를 통해 전송하거나, 통신부(110)를 통해 외부(예, 다른 통신 기기)로부터 무선/유선 인터페이스를 통해 수신된 정보를 메모리부(130)에 저장할 수 있다.
추가 요소(140)는 무선 기기의 종류에 따라 다양하게 구성될 수 있다. 예를 들어, 추가 요소(140)는 파워 유닛/배터리, 입출력부(I/O unit), 구동부 및 컴퓨팅부 중 적어도 하나를 포함할 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(도 18, 100a), 차량(도 18, 100b-1, 100b-2), XR 기기(도 18, 100c), 휴대 기기(도 18, 100d), 가전(도 18, 100e), IoT 기기(도 18, 100f), 디지털 방송용 단말, 홀로그램 장치, 공공 안전 장치, MTC 장치, 의료 장치, 핀테크 장치(또는 금융 장치), 보안 장치, 기후/환경 장치, AI 서버/기기(도 18, 400), 기지국(도 18, 200), 네트워크 노드 등의 형태로 구현될 수 있다. 무선 기기는 사용-예/서비스에 따라 이동 가능하거나 고정된 장소에서 사용될 수 있다.
도 21에서 무선 기기(100, 200) 내의 다양한 요소, 성분, 유닛/부, 및/또는 모듈은 전체가 유선 인터페이스를 통해 상호 연결되거나, 적어도 일부가 통신부(110)를 통해 무선으로 연결될 수 있다. 예를 들어, 무선 기기(100, 200) 내에서 제어부(120)와 통신부(110)는 유선으로 연결되며, 제어부(120)와 제 1 유닛(예, 130, 140)은 통신부(110)를 통해 무선으로 연결될 수 있다. 또한, 무선 기기(100, 200) 내의 각 요소, 성분, 유닛/부, 및/또는 모듈은 하나 이상의 요소를 더 포함할 수 있다. 예를 들어, 제어부(120)는 하나 이상의 프로세서 집합으로 구성될 수 있다. 예를 들어, 제어부(120)는 통신 제어 프로세서, 어플리케이션 프로세서(Application processor), ECU(Electronic Control Unit), 그래픽 처리 프로세서, 메모리 제어 프로세서 등의 집합으로 구성될 수 있다. 다른 예로, 메모리부(130)는 RAM(Random Access Memory), DRAM(Dynamic RAM), ROM(Read Only Memory), 플래시 메모리(flash memory), 휘발성 메모리(volatile memory), 비-휘발성 메모리(non-volatile memory) 및/또는 이들의 조합으로 구성될 수 있다.
이하, 도 21의 구현 예에 대해 도면을 참조하여 보다 자세히 설명한다.
도 22는 본 개시의 일 실시 예에 따른, 휴대 기기를 나타낸다. 휴대 기기는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 휴대용 컴퓨터(예, 노트북 등)을 포함할 수 있다. 휴대 기기는 MS(Mobile Station), UT(user terminal), MSS(Mobile Subscriber Station), SS(Subscriber Station), AMS(Advanced Mobile Station) 또는 WT(Wireless terminal)로 지칭될 수 있다. 도 22의 실시 예는 본 개시의 다양한 실시 예와 결합될 수 있다.
도 22를 참조하면, 휴대 기기(100)는 안테나부(108), 통신부(110), 제어부(120), 메모리부(130), 전원공급부(140a), 인터페이스부(140b) 및 입출력부(140c)를 포함할 수 있다. 안테나부(108)는 통신부(110)의 일부로 구성될 수 있다. 블록 110~130/140a~140c는 각각 도 21의 블록 110~130/140에 대응한다.
통신부(110)는 다른 무선 기기, 기지국들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(120)는 휴대 기기(100)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(120)는 AP(Application Processor)를 포함할 수 있다. 메모리부(130)는 휴대 기기(100)의 구동에 필요한 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 또한, 메모리부(130)는 입/출력되는 데이터/정보 등을 저장할 수 있다. 전원공급부(140a)는 휴대 기기(100)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다. 인터페이스부(140b)는 휴대 기기(100)와 다른 외부 기기의 연결을 지원할 수 있다. 인터페이스부(140b)는 외부 기기와의 연결을 위한 다양한 포트(예, 오디오 입/출력 포트, 비디오 입/출력 포트)를 포함할 수 있다. 입출력부(140c)는 영상 정보/신호, 오디오 정보/신호, 데이터, 및/또는 사용자로부터 입력되는 정보를 입력 받거나 출력할 수 있다. 입출력부(140c)는 카메라, 마이크로폰, 사용자 입력부, 디스플레이부(140d), 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다.
일 예로, 데이터 통신의 경우, 입출력부(140c)는 사용자로부터 입력된 정보/신호(예, 터치, 문자, 음성, 이미지, 비디오)를 획득하며, 획득된 정보/신호는 메모리부(130)에 저장될 수 있다. 통신부(110)는 메모리에 저장된 정보/신호를 무선 신호로 변환하고, 변환된 무선 신호를 다른 무선 기기에게 직접 전송하거나 기지국에게 전송할 수 있다. 또한, 통신부(110)는 다른 무선 기기 또는 기지국으로부터 무선 신호를 수신한 뒤, 수신된 무선 신호를 원래의 정보/신호로 복원할 수 있다. 복원된 정보/신호는 메모리부(130)에 저장된 뒤, 입출력부(140c)를 통해 다양한 형태(예, 문자, 음성, 이미지, 비디오, 헵틱)로 출력될 수 있다.
도 23은 본 개시의 일 실시 예에 따른, 차량 또는 자율 주행 차량을 나타낸다. 차량 또는 자율 주행 차량은 이동형 로봇, 차량, 기차, 유/무인 비행체(Aerial Vehicle, AV), 선박 등으로 구현될 수 있다. 도 23의 실시 예는 본 개시의 다양한 실시 예와 결합될 수 있다.
도 23을 참조하면, 차량 또는 자율 주행 차량(100)은 안테나부(108), 통신부(110), 제어부(120), 구동부(140a), 전원공급부(140b), 센서부(140c) 및 자율 주행부(140d)를 포함할 수 있다. 안테나부(108)는 통신부(110)의 일부로 구성될 수 있다. 블록 110/130/140a~140d는 각각 도 21의 블록 110/130/140에 대응한다.
통신부(110)는 다른 차량, 기지국(e.g. 기지국, 노변 기지국(Road Side unit) 등), 서버 등의 외부 기기들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(120)는 차량 또는 자율 주행 차량(100)의 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(120)는 ECU(Electronic Control Unit)를 포함할 수 있다. 구동부(140a)는 차량 또는 자율 주행 차량(100)을 지상에서 주행하게 할 수 있다. 구동부(140a)는 엔진, 모터, 파워 트레인, 바퀴, 브레이크, 조향 장치 등을 포함할 수 있다. 전원공급부(140b)는 차량 또는 자율 주행 차량(100)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다. 센서부(140c)는 차량 상태, 주변 환경 정보, 사용자 정보 등을 얻을 수 있다. 센서부(140c)는 IMU(inertial measurement unit) 센서, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 스티어링 센서, 온도 센서, 습도 센서, 초음파 센서, 조도 센서, 페달 포지션 센서 등을 포함할 수 있다. 자율 주행부(140d)는 주행중인 차선을 유지하는 기술, 어댑티브 크루즈 컨트롤과 같이 속도를 자동으로 조절하는 기술, 정해진 경로를 따라 자동으로 주행하는 기술, 목적지가 설정되면 자동으로 경로를 설정하여 주행하는 기술 등을 구현할 수 있다.
일 예로, 통신부(110)는 외부 서버로부터 지도 데이터, 교통 정보 데이터 등을 수신할 수 있다. 자율 주행부(140d)는 획득된 데이터를 기반으로 자율 주행 경로와 드라이빙 플랜을 생성할 수 있다. 제어부(120)는 드라이빙 플랜에 따라 차량 또는 자율 주행 차량(100)이 자율 주행 경로를 따라 이동하도록 구동부(140a)를 제어할 수 있다(예, 속도/방향 조절). 자율 주행 도중에 통신부(110)는 외부 서버로부터 최신 교통 정보 데이터를 비/주기적으로 획득하며, 주변 차량으로부터 주변 교통 정보 데이터를 획득할 수 있다. 또한, 자율 주행 도중에 센서부(140c)는 차량 상태, 주변 환경 정보를 획득할 수 있다. 자율 주행부(140d)는 새로 획득된 데이터/정보에 기반하여 자율 주행 경로와 드라이빙 플랜을 갱신할 수 있다. 통신부(110)는 차량 위치, 자율 주행 경로, 드라이빙 플랜 등에 관한 정보를 외부 서버로 전달할 수 있다. 외부 서버는 차량 또는 자율 주행 차량들로부터 수집된 정보에 기반하여, AI 기술 등을 이용하여 교통 정보 데이터를 미리 예측할 수 있고, 예측된 교통 정보 데이터를 차량 또는 자율 주행 차량들에게 제공할 수 있다.
본 명세서에 기재된 청구항들은 다양한 방식으로 조합될 수 있다. 예를 들어, 본 명세서의 방법 청구항의 기술적 특징이 조합되어 장치로 구현될 수 있고, 본 명세서의 장치 청구항의 기술적 특징이 조합되어 방법으로 구현될 수 있다. 또한, 본 명세서의 방법 청구항의 기술적 특징과 장치 청구항의 기술적 특징이 조합되어 장치로 구현될 수 있고, 본 명세서의 방법 청구항의 기술적 특징과 장치 청구항의 기술적 특징이 조합되어 방법으로 구현될 수 있다.
Claims (20)
- 제 1 장치가 무선 통신을 수행하는 방법에 있어서,상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로, 물체의 제 1 상태 정보를 획득하는 단계;상기 제 1 상태 정보를 제 2 장치의 관점에서 제 2 상태 정보로 변환하는 단계; 및상기 제 2 상태 정보를 포함하는 메시지를 상기 제 2 장치에게 전송하는 단계;를 포함하는, 방법.
- 제 1 항에 있어서,상기 메시지는 CPM(collective perception message)인, 방법.
- 제 1 항에 있어서,상기 제 2 상태 정보는, 상기 제 2 장치의 관점으로 변환된, 상기 물체의 위치 정보, 상기 물체의 방향 정보, 상기 물체의 속력 정보, 또는 상기 물체의 크기 정보 중 적어도 어느 하나를 포함하는, 방법.
- 제 1 항에 있어서,상기 메시지는 상기 제 2 상태 정보가 상기 제 2 장치의 관점에서 변환된 정보임을 나타내는 정보를 포함하는, 방법.
- 제 4 항에 있어서,상기 제 2 상태 정보가 상기 제 2 장치의 관점에서 변환된 정보임을 나타내는 정보는 1 비트 플래그인, 방법.
- 제 1 항에 있어서,상기 제 2 상태 정보가 상기 제 2 장치의 관점에서 변환된 정보임을 나타내는 정보가 상기 메시지에 포함되는 것을 기반으로, 상기 물체의 크기 정보는 상기 제 2 상태 정보에서 제외되는, 방법.
- 제 1 항에 있어서,상기 제 2 상태 정보가 상기 제 2 장치의 관점에서 변환된 정보임을 나타내는 정보가 상기 메시지에 포함되고, 및 상기 물체의 크기 정보의 정확도가 임계치 이상인 것을 기반으로, 상기 물체의 크기 정보는 상기 제 2 상태 정보에서 제외되는, 방법.
- 제 1 항에 있어서,상기 제 2 상태 정보가 상기 제 2 장치의 관점에서 변환된 정보임을 나타내는 정보가 상기 메시지에 포함되고, 및 상기 물체의 방향 정보의 정확도가 임계치 이하인 것을 기반으로, 상기 물체의 크기 정보는 상기 제 2 상태 정보에서 제외되는, 방법.
- 제 1 항에 있어서,상기 제 2 상태 정보를 포함하는 상기 메시지는 그룹캐스트 또는 유니캐스트를 기반으로 상기 제 2 장치에게 전송되는, 방법.
- 제 1 항에 있어서,3D 렌더링을 기반으로 상기 제 1 상태 정보로부터 상기 물체의 제 3 상태 정보를 획득하는 단계;를 더 포함하되,상기 제 2 상태 정보는, 상기 제 1 장치의 기준 위치 정보, 상기 제 2 장치의 위치 정보, 또는 상기 제 3 상태 정보 중 적어도 어느 하나를 기반으로, 획득되는, 방법.
- 제 1 항에 있어서,상기 제 2 장치의 위치 정보 또는 방향 정보 중 적어도 어느 하나를 포함하는 인식 메시지(awareness message) 또는 센서 정보 요청 메시지를 상기 제 2 장치로부터 수신하는 단계;를 더 포함하는, 방법.
- 제 1 항에 있어서,상기 제 1 상태 정보는 상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로 그림자 영역을 최소화 및 감지 물체 수를 최대화하여 획득된 정보인, 방법.
- 제 1 항에 있어서,상기 제 1 장치는 RSU(road side unit) 또는 ITS(intelligent transportation system) 서버인, 방법.
- 무선 통신을 수행하도록 설정된 제 1 장치에 있어서,적어도 하나의 송수신기;적어도 하나의 프로세서; 및상기 적어도 하나의 프로세서에 연결되고 명령어들을 저장하는 적어도 하나의 메모리를 포함하되, 상기 명령어들은 상기 적어도 하나의 프로세서에 의해 실행되는 것을 기반으로 상기 제 1 장치로 하여금:상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로, 물체의 제 1 상태 정보를 획득하게 하고;상기 제 1 상태 정보를 제 2 장치의 관점에서 제 2 상태 정보로 변환하게 하고; 및상기 제 2 상태 정보를 포함하는 메시지를 상기 제 2 장치에게 전송하게 하는, 제 1 장치.
- 제 1 장치를 제어하도록 설정된 프로세싱 장치에 있어서,적어도 하나의 프로세서; 및상기 적어도 하나의 프로세서에 연결되고 명령어들을 저장하는 적어도 하나의 메모리를 포함하되, 상기 명령어들은 상기 적어도 하나의 프로세서에 의해 실행되는 것을 기반으로 상기 제 1 장치로 하여금:상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로, 물체의 제 1 상태 정보를 획득하게 하고;상기 제 1 상태 정보를 제 2 장치의 관점에서 제 2 상태 정보로 변환하게 하고; 및상기 제 2 상태 정보를 포함하는 메시지를 상기 제 2 장치에게 전송하게 하는, 프로세싱 장치.
- 명령어들을 기록하고 있는 비일시적 컴퓨터 판독가능 저장 매체로서,상기 명령어들은, 실행될 때, 제 1 장치로 하여금:상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로, 물체의 제 1 상태 정보를 획득하게 하고;상기 제 1 상태 정보를 제 2 장치의 관점에서 제 2 상태 정보로 변환하게 하고; 및상기 제 2 상태 정보를 포함하는 메시지를 상기 제 2 장치에게 전송하게 하는, 비일시적 컴퓨터 판독가능 저장 매체.
- 제 2 장치가 무선 통신을 수행하는 방법에 있어서,물체의 제 2 상태 정보를 포함하는 메시지를 제 1 장치로부터 수신하는 단계; 및상기 제 2 상태 정보를 기반으로 상기 물체와 상기 제 2 장치 사이의 거리를 획득하는 단계;를 포함하되,상기 물체의 제 1 상태 정보는 상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로 획득되고, 및상기 제 1 상태 정보는 상기 제 1 장치에 의해 상기 제 2 장치의 관점에서 상기 제 2 상태 정보로 변환되는, 방법.
- 무선 통신을 수행하도록 설정된 제 2 장치에 있어서,적어도 하나의 송수신기;적어도 하나의 프로세서; 및상기 적어도 하나의 프로세서에 연결되고 명령어들을 저장하는 적어도 하나의 메모리를 포함하되, 상기 명령어들은 상기 적어도 하나의 프로세서에 의해 실행되는 것을 기반으로 상기 제 2 장치로 하여금:물체의 제 2 상태 정보를 포함하는 메시지를 제 1 장치로부터 수신하게 하고; 및상기 제 2 상태 정보를 기반으로 상기 물체와 상기 제 2 장치 사이의 거리를 획득하게 하되,상기 물체의 제 1 상태 정보는 상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로 획득되고, 및상기 제 1 상태 정보는 상기 제 1 장치에 의해 상기 제 2 장치의 관점에서 상기 제 2 상태 정보로 변환되는, 제 2 장치.
- 제 2 장치를 제어하도록 설정된 프로세싱 장치에 있어서,적어도 하나의 프로세서; 및상기 적어도 하나의 프로세서에 연결되고 명령어들을 저장하는 적어도 하나의 메모리를 포함하되, 상기 명령어들은 상기 적어도 하나의 프로세서에 의해 실행되는 것을 기반으로 상기 제 2 장치로 하여금:물체의 제 2 상태 정보를 포함하는 메시지를 제 1 장치로부터 수신하게 하고; 및상기 제 2 상태 정보를 기반으로 상기 물체와 상기 제 2 장치 사이의 거리를 획득하게 하되,상기 물체의 제 1 상태 정보는 상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로 획득되고, 및상기 제 1 상태 정보는 상기 제 1 장치에 의해 상기 제 2 장치의 관점에서 상기 제 2 상태 정보로 변환되는, 프로세싱 장치.
- 명령어들을 기록하고 있는 비일시적 컴퓨터 판독가능 저장 매체로서,상기 명령어들은, 실행될 때, 제 2 장치로 하여금:물체의 제 2 상태 정보를 포함하는 메시지를 제 1 장치로부터 수신하게 하고; 및상기 제 2 상태 정보를 기반으로 상기 물체와 상기 제 2 장치 사이의 거리를 획득하게 하되,상기 물체의 제 1 상태 정보는 상기 제 1 장치와 연결된 하나 이상의 센서를 통해 획득된 정보 또는 하나 이상의 장치로부터 수신된 정보 중 적어도 어느 하나를 기반으로 획득되고, 및상기 제 1 상태 정보는 상기 제 1 장치에 의해 상기 제 2 장치의 관점에서 상기 제 2 상태 정보로 변환되는, 비일시적 컴퓨터 판독가능 저장 매체.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20220099418 | 2022-08-09 | ||
KR10-2022-0099418 | 2022-08-09 | ||
KR10-2022-0146541 | 2022-11-04 | ||
KR20220146541 | 2022-11-04 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024035118A1 true WO2024035118A1 (ko) | 2024-02-15 |
Family
ID=89852077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2023/011758 WO2024035118A1 (ko) | 2022-08-09 | 2023-08-09 | 센서 정보를 변환 및 전송하는 방법 및 장치 |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2024035118A1 (ko) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102101986B1 (ko) * | 2019-10-31 | 2020-04-20 | 한국교통연구원 | 보행자 충돌 경고 시스템 및 방법 |
JP2020087445A (ja) * | 2018-11-21 | 2020-06-04 | 財團法人工業技術研究院Industrial Technology Research Institute | 交通環境を感知する方法および装置 |
KR20200068776A (ko) * | 2018-11-28 | 2020-06-16 | 재단법인 지능형자동차부품진흥원 | 자율주행 및 커넥티드 자동차용 통신 서비스 제공방법 |
KR20200077007A (ko) * | 2018-12-20 | 2020-06-30 | 전자부품연구원 | 보행자 ble 비코닝을 이용한 wave 중계 안전 서비스 시스템 및 방법 |
KR20220073472A (ko) * | 2020-11-26 | 2022-06-03 | 한국자동차연구원 | V2x 통신기반 자율주행 혼합류환경 교차로 통합정보 제공 시스템 및 방법 |
-
2023
- 2023-08-09 WO PCT/KR2023/011758 patent/WO2024035118A1/ko unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020087445A (ja) * | 2018-11-21 | 2020-06-04 | 財團法人工業技術研究院Industrial Technology Research Institute | 交通環境を感知する方法および装置 |
KR20200068776A (ko) * | 2018-11-28 | 2020-06-16 | 재단법인 지능형자동차부품진흥원 | 자율주행 및 커넥티드 자동차용 통신 서비스 제공방법 |
KR20200077007A (ko) * | 2018-12-20 | 2020-06-30 | 전자부품연구원 | 보행자 ble 비코닝을 이용한 wave 중계 안전 서비스 시스템 및 방법 |
KR102101986B1 (ko) * | 2019-10-31 | 2020-04-20 | 한국교통연구원 | 보행자 충돌 경고 시스템 및 방법 |
KR20220073472A (ko) * | 2020-11-26 | 2022-06-03 | 한국자동차연구원 | V2x 통신기반 자율주행 혼합류환경 교차로 통합정보 제공 시스템 및 방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021112649A1 (en) | Method and apparatus for positioning using backscatter tag | |
WO2020166872A1 (en) | Method and apparatus for controlling early data transmission procedure in a wireless communication system | |
WO2020067756A1 (en) | A cell reselection by adjusting cell reselection parameter | |
WO2020076011A1 (ko) | 무선 통신 시스템에서 단말의 동기화 수행 방법 및 상기 방법을 이용하는 단말 | |
WO2021085909A1 (ko) | 무선통신시스템에서 pc5 유니캐스트 링크 해제에 관련된 ue의 동작 방법 | |
WO2021075877A1 (ko) | 무선통신시스템에서 사이드링크 타이머에 관련된 ue의 동작 방법 | |
WO2020067675A1 (ko) | 무선 통신 시스템에서 전송 단말의 사이드링크 동작 방법 및 상기 방법을 이용하는 단말 | |
WO2022235087A1 (ko) | 무선통신시스템에서 사이드링크에서 sd-rsrp와 sl-rsrp에 기초한 측정 및 릴레이 재선택에 관련된 ue의 동작 방법 및 장치 | |
WO2024035118A1 (ko) | 센서 정보를 변환 및 전송하는 방법 및 장치 | |
WO2021235863A1 (ko) | 무선통신시스템에서 rsu와 신호를 송수신하는 vru의 동작 방법 | |
WO2023244013A1 (ko) | 주변 정보 통합을 통한 오동작 검출 방법 및 장치 | |
WO2024136279A1 (ko) | 유니캐스트 또는 그룹캐스트를 기반으로 센서 정보를 수신기 중심의 정보로 가공 및 공유하는 방법 및 장치 | |
WO2020067728A1 (ko) | 무선 통신 시스템에서 단말의 피드백 동작 방법 및 상기 방법을 이용하는 단말 | |
WO2024025270A1 (ko) | 도로 공간 점유 가능성 표시 방법 및 장치 | |
WO2024049160A1 (ko) | 단말 위치 예측 기반 메시지 생성 방식에서의 허용 위치 오차 설정 방법 및 장치 | |
WO2024049202A1 (ko) | 단말 위치 예측을 기반으로 메시지를 생성 및 전송하는 방법 및 장치 | |
WO2024210597A2 (ko) | 모션 정보를 활용한 ai 기반의 빔 관리 방법 및 장치 | |
WO2024106953A1 (ko) | 유니캐스트 또는 그룹캐스트 기반의 지도정보 및 신호정보 제공 방법 및 장치 | |
WO2024162743A1 (ko) | 무선 통신 시스템에서 네트워크가 메시지를 전송하는 방법 및 이를 위한 장치 | |
WO2024162727A1 (ko) | 무선 통신 시스템에서 단말이 메시지를 전송하는 방법 및 이를 위한 장치 | |
WO2024035101A1 (ko) | 무선통신시스템에서 indirect-to-indirect path switching에서 측정 보고의 트리거링에 관련된 리모트 ue의 동작 방법 | |
WO2021040155A1 (en) | Method and apparatus for managing dedicated preconfigured uplink resource configuration for a moving wireless device in a wireless communication system | |
WO2024162671A1 (ko) | 빔 실패를 고려한 lcp 동작 방법 및 장치 | |
WO2024167264A1 (ko) | 무선통신시스템에서 multi-path relay 에서 릴레이 ue의 핸드오버에 관련된 릴레이 ue의 동작 방법 | |
WO2024172459A1 (ko) | 다중 패널 송수신 기반의 장치-간 통신을 위한 전력 제어 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23852987 Country of ref document: EP Kind code of ref document: A1 |