WO2021201308A1 - 신호 품질을 고려한 맵을 생성하는 방법 및 이를 이용한 차량을 위한 장치 - Google Patents

신호 품질을 고려한 맵을 생성하는 방법 및 이를 이용한 차량을 위한 장치 Download PDF

Info

Publication number
WO2021201308A1
WO2021201308A1 PCT/KR2020/004305 KR2020004305W WO2021201308A1 WO 2021201308 A1 WO2021201308 A1 WO 2021201308A1 KR 2020004305 W KR2020004305 W KR 2020004305W WO 2021201308 A1 WO2021201308 A1 WO 2021201308A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal quality
vehicle
map
measured
server
Prior art date
Application number
PCT/KR2020/004305
Other languages
English (en)
French (fr)
Inventor
임선희
장은송
김동욱
박민규
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2020/004305 priority Critical patent/WO2021201308A1/ko
Publication of WO2021201308A1 publication Critical patent/WO2021201308A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B17/00Monitoring; Testing
    • H04B17/30Monitoring; Testing of propagation channels
    • H04B17/309Measuring or estimating channel quality parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/02Arrangements for optimising operational condition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/10Scheduling measurement reports ; Arrangements for measurement reports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]

Definitions

  • the present specification relates to a control device for a vehicle, and more particularly, to a method for generating a map in consideration of signal quality, and a control device for a vehicle using the same.
  • a vehicle is a device that moves a passenger from one place to another.
  • a typical example is a car.
  • V2X (vehicle-to-everything) communication technology which means vehicle-to-things communication, refers to a technology in which a vehicle communicates with other vehicles, pedestrians, road infrastructure, and servers to provide a series of services.
  • DSRC Dedicated Short Range Communications
  • LTE Long Term Evolution
  • NR New Radio
  • Vehicles for V2X are operating based on wireless communication through wireless media with peripheral devices.
  • signal quality may vary depending on the surrounding environment, which may cause a problem in communication reliability.
  • the present specification provides a method for generating a signal quality map and a control apparatus using the same.
  • a method of generating a map for a vehicle includes receiving a signal quality map from a server via a wireless medium, the signal quality map comprising a reference location, a reference time, and information about a reference signal quality measured at the reference location at the reference time, the signal quality Based on the map, communicate with the server and the wireless medium along the driving path of the vehicle, measure the signal quality for communication with the server along the driving path at the measurement location at the measurement time, and measure the measured signal quality and updating the signal quality map based on If (i) the measured signal quality is different from the reference signal quality, (ii) the measurement position and the reference position are within a specific distance, and (iii) the measurement time is later than the reference time, the reference time is updated with the measured time, and the reference signal quality is updated with the measured signal quality.
  • a control device for a vehicle includes a processor and a memory coupled to the processor for storing instructions that, when executed by the processor, cause the vehicle to perform a function.
  • the function is to receive a signal quality map from a server via a wireless medium, the signal quality map comprising a reference position, a reference time, and information about a reference signal quality measured at the reference location at the reference time, the signal quality Based on the map, communicate with the server and the wireless medium along the driving path of the vehicle, measure the signal quality for communication with the server along the driving path at the measurement location at the measurement time, and measure the measured signal quality and updating the signal quality map based on If (i) the measured signal quality is different from the reference signal quality, (ii) the measurement position and the reference position are within a specific distance, and (iii) the measurement time is later than the reference time, the reference time is updated with the measured time, and the reference signal quality is updated with the measured signal quality.
  • Stable communication between the vehicle and the server can be maintained according to the signal quality obtained based on the signal quality map.
  • the signal quality map By updating the signal quality map based on highly reliable information, it is possible to increase the accuracy of the signal quality.
  • FIG. 1 shows a system to which an embodiment is applied.
  • FIG. 2 is a block diagram illustrating a vehicle implementing the present embodiment.
  • FIG. 5 illustrates a map generation method according to an embodiment of the present specification.
  • FIG. 6 shows another example of generating a signal quality map.
  • the left side of the vehicle means the left side in the forward driving direction of the vehicle
  • the right side of the vehicle means the right side in the forward driving direction of the vehicle
  • FIG. 1 shows a system to which an embodiment is applied.
  • the system 100 includes a vehicle 200 , a base station 110 , and a server 120 .
  • the vehicle 200 may communicate with the base station 110 and/or the surrounding vehicle 130 using a wireless communication protocol.
  • wireless communication protocols for example, Dedicated Short Range Communications (DSRC) based on IEEE (Institute of Electrical and Electronics Engineers) 802.11, WiFi, C-V2X and/or 3rd Generation Partnership Project (3GPP) based of a cellular communication protocol (eg, Wideband Code Division Multiple Access (WCDMA), Long Term Evolution (LTE), New Radio (NR), etc.).
  • DSRC Dedicated Short Range Communications
  • IEEE Institute of Electrical and Electronics Engineers
  • WiFi Wireless Fidelity
  • C-V2X Third Generation Partnership Project
  • 3GPP 3rd Generation Partnership Project
  • WCDMA Wideband Code Division Multiple Access
  • LTE Long Term Evolution
  • NR New Radio
  • the base station 110 may communicate with the vehicle 200 or other base stations using various wireless communication protocols such as DSRC, C-V2X, and cellular communication protocols.
  • various wireless communication protocols such as DSRC, C-V2X, and cellular communication protocols.
  • the server 120 is connected to one or more base stations 110 and includes computing hardware that provides a driving data service to the vehicle 200 .
  • the computing hardware may include a processor and memory.
  • the memory stores map data and driving environment information described in the following embodiments, and the processor may provide the data to the vehicle 200 .
  • the processor may update the map data based on data received from one or more vehicles 200 .
  • the server may be a Mobile/Mutli-access Edge Computing (MEC) based server or a centralized based server.
  • MEC Mobile/Mutli-access Edge Computing
  • the vehicle 200 is defined as a means of transport traveling on a road or track.
  • the vehicle 200 is a concept including a car, a train, and a motorcycle.
  • the vehicle 200 may be a concept including an internal combustion engine vehicle having an engine as a power source, a hybrid vehicle having an engine and an electric motor as a power source, and an electric vehicle having an electric motor as a power source.
  • the vehicle 200 may be a vehicle owned by an individual.
  • the vehicle 200 may be a shared vehicle.
  • the vehicle 200 may be an autonomous driving vehicle.
  • the vehicle 200 may be set to operate autonomously.
  • Autonomous driving refers to driving without the assistance of a human driver, for example.
  • the vehicle 200 may be set to detect the surrounding vehicle 130 and determine the path of the detected vehicle.
  • the vehicle 200 may communicate with the surrounding vehicle 130 to exchange information.
  • the vehicle 200 may perform a switching operation from the autonomous driving mode to the manual driving mode or a switching operation from the manual driving mode to the autonomous driving mode. For example, the vehicle 200 may change the mode of the vehicle 10 from the autonomous driving mode to the manual driving mode or from the manual driving mode to the autonomous driving mode based on a signal received from the user interface device.
  • ADAS Advanced Driver Assistance System
  • ADAS includes Adaptive Cruise Control (ACC), Autonomous Emergency Braking (AEB), Forward Collision Warning (FCW), Lane Keeping Assist (LKA), ), Lane Change Assist (LCA), Target Following Assist (TFA), Blind Spot Detection (BSD), Adaptive High Beam Control (HBA) , Auto Parking System (APS), Pedestrian Collision Warning System (PD Collision Warning System), Traffic Sign Recognition (TSR), Trafffic Sign Assist (TSA), Night Vision System At least one of a Night Vision (NV), a Driver Status Monitoring (DSM), and a Traffic Jam Assist (TJA) may be implemented.
  • ACC Adaptive Cruise Control
  • AEB Autonomous Emergency Braking
  • FCW Forward Collision Warning
  • LKA Lane Keeping Assist
  • LKA Lane Change Assist
  • LKA Lane Change Assist
  • TSA Blind Spot Detection
  • HBA Adaptive High Beam Control
  • FIG. 2 is a block diagram illustrating a vehicle implementing the present embodiment.
  • the vehicle 200 includes a control device 210 , a user interface device 220 , an acceleration device 230 , a braking device 240 , a steering device 250 , and a sensing device. (sensing device, 260) and may include an engine (engine, 270).
  • the devices presented are merely examples, and not all devices are essential.
  • the vehicle 200 may further include additional devices, or specific devices may be omitted. Some of the devices have their own processors and can perform processing related to specific functions of the device.
  • the user interface device 220 is a device for communicating between the vehicle 200 and a user.
  • the user interface device 220 may receive a user input and provide information generated in the vehicle 200 to the user.
  • the vehicle 200 may implement a user interface (UI) or a user experience (UX) through the user interface device 220 .
  • the user interface device 220 may include an input device, an output device, and a user monitoring device.
  • the acceleration device 230 may be a mechanism configured to accelerate the vehicle 200 .
  • the brake device 240 may be a mechanism set to decelerate the vehicle 200 .
  • the steering device 250 may be a mechanism set to control the direction of the vehicle 200 .
  • the vehicle 200 may accelerate through the acceleration device 230 , decelerate through the brake device 240 , and change a driving direction through the steering device 250 .
  • At least one of the acceleration device 230 , the brake device 240 , and the steering device 250 may be controlled by the control device 210 and/or an additional controller to control the speed and direction of the vehicle 200 . .
  • the sensing device 260 may include one or more sensors configured to sense information about the location/speed of the vehicle 200 and/or the environment of the vehicle 200 .
  • the sensing device 260 may include a location data generating device for measuring a geographic location of the vehicle 200 and/or an object detecting device for recognizing an object around the vehicle 200 .
  • the object detecting apparatus may generate information about an object outside the vehicle 200 .
  • the information about the object may include at least one of information on the existence of the object, location information of the object, distance information between the vehicle 200 and the object, and relative speed information between the vehicle 200 and the object. .
  • the object detecting apparatus may detect an object outside the vehicle 200 .
  • the object detecting apparatus may include at least one sensor capable of detecting an object outside the vehicle 200 .
  • the object detecting apparatus may include at least one of a camera, a radar, a lidar, an ultrasonic sensor, and an infrared sensor.
  • the object detection apparatus may provide data on an object generated based on a sensing signal generated by the sensor to at least one control device included in the vehicle 200 .
  • the camera may generate information about an object outside the vehicle 200 by using the image.
  • the camera may include at least one lens, at least one image sensor, and at least one processor that is electrically connected to the image sensor to process a received signal, and generate data about the object based on the processed signal.
  • the camera may be at least one of a mono camera, a stereo camera, and an AVM (Around View Monitoring) camera.
  • the camera may obtain position information of the object, distance information from the object, or relative speed information with the object by using various image processing algorithms.
  • the camera may acquire distance information and relative velocity information from an object based on a change in the size of the object over time from the acquired image.
  • the camera may acquire distance information and relative speed information with respect to an object through a pinhole model, road surface profiling, or the like.
  • the camera may acquire distance information and relative velocity information from an object based on disparity information in a stereo image obtained from the stereo camera.
  • the camera may be mounted at a position where a field of view (FOV) can be secured in the vehicle in order to photograph the outside of the vehicle.
  • the camera may be disposed adjacent to the front windshield in the interior of the vehicle to acquire an image of the front of the vehicle.
  • the camera may be placed around the front bumper or radiator grill.
  • the camera may be disposed adjacent to the rear glass in the interior of the vehicle to acquire an image of the rear of the vehicle.
  • the camera may be placed around the rear bumper, trunk or tailgate.
  • the camera may be disposed adjacent to at least one of the side windows in the interior of the vehicle in order to acquire an image of the side of the vehicle.
  • the camera may be disposed around a side mirror, a fender or a door.
  • the radar may generate information about an object outside the vehicle 200 using radio waves.
  • the radar may include an electromagnetic wave transmitter, an electromagnetic wave receiver, and at least one processor that is electrically connected to the electromagnetic wave transmitter and the electromagnetic wave receiver, processes a received signal, and generates data for an object based on the processed signal.
  • the radar may be implemented in a pulse radar method or a continuous wave radar method in terms of a radio wave emission principle.
  • the radar may be implemented as a frequency modulated continuous wave (FMCW) method or a frequency shift keyong (FSK) method according to a signal waveform among continuous wave radar methods.
  • FMCW frequency modulated continuous wave
  • FSK frequency shift keyong
  • the radar detects an object based on an electromagnetic wave, a time of flight (TOF) method or a phase-shift method, and detects the position of the detected object, the distance to the detected object, and the relative speed.
  • the radar may be placed at a suitable location outside of the vehicle to detect objects located in front, rear or side of the vehicle.
  • the lidar may generate information about an object outside the vehicle 200 using laser light.
  • the lidar may include at least one processor that is electrically connected to the light transmitter, the light receiver, and the light transmitter and the light receiver, processes the received signal, and generates data about the object based on the processed signal. .
  • the lidar may be implemented in a time of flight (TOF) method or a phase-shift method.
  • TOF time of flight
  • Lidar can be implemented as driven or non-driven. When implemented as a driving type, the lidar is rotated by a motor and may detect an object around the vehicle 200 . When implemented as a non-driven type, the lidar may detect an object located within a predetermined range with respect to the vehicle by light steering.
  • Vehicle 200 may include a plurality of non-driven lidar.
  • LiDAR detects an object based on a time of flight (TOF) method or a phase-shift method with a laser light medium, and calculates the position of the detected object, the distance to the detected object, and the relative speed. can be detected.
  • the lidar may be placed at a suitable location outside of the vehicle to detect an object located in front, rear or side of the vehicle.
  • the location data generating apparatus may generate location data of the vehicle 200 .
  • the apparatus for generating location data may include at least one of a Global Positioning System (GPS) and a Differential Global Positioning System (DGPS).
  • GPS Global Positioning System
  • DGPS Differential Global Positioning System
  • the location data generating apparatus may generate location data of the vehicle 200 based on a signal generated by at least one of GPS and DGPS.
  • the apparatus for generating location data may correct location data based on at least one of an Inertial Measurement Unit (IMU) of the sensing device 260 and a camera of the object detecting apparatus.
  • IMU Inertial Measurement Unit
  • the location data generating device may be referred to as a Global Navigation Satellite System (GNSS).
  • GNSS Global Navigation Satellite System
  • the sensing device 260 may include a state sensor configured to sense the state of the vehicle 200 .
  • the status sensor includes an inertial measurement unit (IMU) sensor, a collision sensor, a wheel sensor, a speed sensor, an inclination sensor, a weight sensor, a heading sensor, a position module, and a vehicle forward/reverse sensor.
  • IMU inertial measurement unit
  • a battery sensor a fuel sensor, a tire sensor, a steering sensor, a temperature sensor, a humidity sensor, an ultrasonic sensor, an illuminance sensor
  • an inertial measurement unit (IMU) sensor may include at least one of an acceleration sensor, a gyro sensor, and a magnetic sensor.
  • the sensing device 260 may generate state data of the vehicle based on a signal generated by at least one sensor.
  • the vehicle state data may be information generated based on data sensed by various sensors provided inside the vehicle.
  • the sensing device 260 may include vehicle attitude data, vehicle motion data, vehicle yaw data, vehicle roll data, vehicle pitch data, vehicle collision data, vehicle direction data, vehicle angle data, and vehicle speed. data, vehicle acceleration data, vehicle inclination data, vehicle forward/reverse data, vehicle weight data, battery data, fuel data, tire pressure data, vehicle interior temperature data, vehicle interior humidity data, steering wheel rotation angle data, vehicle exterior illumination Data, pressure data applied to the accelerator pedal, pressure data applied to the brake pedal, and the like may be generated.
  • the engine 270 provides propulsion to the vehicle 200 .
  • the engine 270 may include an internal combustion engine, an electric motor, or a combination thereof.
  • the control device 210 communicates with the user interface device 220 , the acceleration device 230 , the brake device 240 , the steering device 250 , and the sensing device 260 to exchange various information or to control these devices.
  • the control device 210 may include a processor 211 and a memory 212 .
  • the control device 210 may include one or more sub-devices according to functions, and each sub-device includes at least one of a processor and a memory, and is configured to perform processing related to the function of the corresponding sub-device.
  • the control device 210 may include a telematics control unit (TCU) responsible for communication inside and outside the vehicle 200 .
  • TCU telematics control unit
  • the control device 210 may include an autonomous driving device in charge of autonomous driving.
  • the control device 210 may include an infotainment system or AVN (Audio Video Navigation) system that displays driving information to passengers or provides various entertainment.
  • the control device 210 may include a TCU or an infotainment system.
  • the control device 210 may include a combination of a TCU and an infotainment system or a combination of other functions.
  • the control device 210 for autonomous driving may generate a path for autonomous driving based on the obtained data.
  • the control device 210 may generate a driving plan for driving along the generated path.
  • the control device 210 may generate a signal for controlling the movement of the vehicle according to the driving plan.
  • the autonomous driving device 210 may provide the generated signal to the accelerator 230 , the brake device 240 , the steering device 250 , and the engine 270 .
  • the processor 211 is an ASIC (application-specific integrated circuit), CPU (central processing unit), AP (application processor), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), microcontrollers, chipsets, logic circuits, data processing devices, and/or combinations thereof.
  • ASIC application-specific integrated circuit
  • CPU central processing unit
  • AP application processor
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • microcontrollers chipsets, logic circuits, data processing devices, and/or combinations thereof.
  • Memory 212 may store information accessible by processor 211 .
  • the information may include instructions executable by the processor 211 and/or data processed by the processor.
  • Memory 212 may include any form of computer-readable medium operative to store information.
  • the memory 212 may include a read only memory (ROM), a random access memory (RAM), a digital video disc (DVD), an optical disc, a flash memory, a solid state drive (SSD), a hard drive ( hard drive) and combinations thereof.
  • control device 210 is shown to include a processor and a memory as one physical block, the control device 210 may include a plurality of processors and a plurality of memories, and may be physically or logically operably connected.
  • the control device 210 may be connected to the display device 280 for displaying information.
  • the display device 280 includes a liquid crystal display (LCD) touch screen or an organic light emitting diode (OLED) touch screen, and includes various sensors (video camera, microphone, etc.) for detecting the state or gesture of the passenger. may include
  • the control device 210 may be connected to a wireless modem 290 configured to communicate with other devices through a wireless medium.
  • the control device 210 may exchange a wireless signal with a mobile device or server ( 120 in FIG. 1 ) or a surrounding vehicle inside/outside the vehicle 200 through the wireless modem 290 .
  • a wireless communication protocol supported by the wireless modem 290 and the wireless modem 290 may support various wireless communication protocols such as cellular communication, WiFi, Bluetooth, Zigbee, and an infrared link.
  • the memory 212 of the control device 210 may have map information and/or driving plan data.
  • the driving plan data may include information about a vehicle trajectory for the vehicle 200 to track the location of the vehicle from the current location to the destination.
  • the driving plan data may be used to guide the driver on a route or for autonomous driving.
  • the map information may include various maps for defining the driving environment. Map information includes the shape and elevation of a roadway, lane lines, intersections, crosswalks, speed limits, traffic signals, buildings or other objects. I may include information.
  • the map information may further include real-time traffic information, obstacles on the road, road condition information, and the like.
  • the map information and the driving plan data may be updated based on information given by the server 120 or may be updated based on information detected by the sensing device 260 of the vehicle 200 .
  • the control device 210 may generate Electronic Horizon Data.
  • the electronic horizon data may be understood as driving plan data within a range from a point where the vehicle 200 is located to a horizon.
  • the horizon may be understood as a point in front of a preset distance from a point where the vehicle 200 is located based on a preset driving route.
  • the horizon may mean a point to which the vehicle 200 can reach after a predetermined time from a point where the vehicle 200 is located along a preset driving route.
  • the electronic horizon data may include horizon map data and horizon pass data.
  • the horizon map data may include at least one of topology data, road data, HD map data, and dynamic data.
  • the horizon map data may include a plurality of layers.
  • the horizon map data may include a first layer matching topology data, a second layer matching road data, a third layer matching HD map data, and a fourth layer matching dynamic data.
  • the horizon map data may further include static object data.
  • Topology data can be described as a map created by connecting road centers.
  • the topology data is suitable for roughly indicating the location of the vehicle, and may be in the form of data mainly used in navigation for drivers.
  • the topology data may be understood as data on road information excluding information on lanes.
  • the topology data may be generated based on data received from an external server.
  • the topology data may be based on data stored in at least one memory provided in the vehicle 200 .
  • the road data may include at least one of slope data of the road, curvature data of the road, and speed limit data of the road.
  • the road data may further include data on an overtaking prohibited section.
  • the road data may be based on data received from an external server.
  • the road data may be based on data generated by the object detecting apparatus.
  • the HD map data includes detailed lane-by-lane topology information of the road, connection information of each lane, and characteristic information for vehicle localization (eg, traffic signs, Lane Marking/attributes, Road furniture, etc.).
  • vehicle localization eg, traffic signs, Lane Marking/attributes, Road furniture, etc.
  • the HD map data may be based on data received from an external server through the communication device 220 .
  • the dynamic data may include various dynamic information that may be generated on the road.
  • the dynamic data may include construction information, variable speed lane information, road surface condition information, traffic information, moving object information, and the like.
  • the dynamic data may be based on data received from an external server.
  • the dynamic data may be based on data generated by the object detecting apparatus.
  • the horizon pass data may be described as a trajectory that the vehicle 200 can take within a range from a point where the vehicle 200 is located to the horizon.
  • the horizon pass data may include data representing a relative probability of selecting any one road at a decision point (eg, a fork, a junction, an intersection, etc.).
  • the relative probability may be calculated based on the time it takes to arrive at the final destination. For example, at the decision point, if the time taken to arrive at the final destination is shorter when selecting the first road than when selecting the second road, the probability of selecting the first road is higher than the probability of selecting the second road. can be calculated higher.
  • the horizon pass data may include a main path and a sub path.
  • the main path may be understood as a track connecting roads with a high relative probability of being selected.
  • the sub-path may diverge at at least one decision point on the main path.
  • the sub-path may be understood as a trajectory connecting at least one road having a low relative probability of being selected from at least one decision point on the main path.
  • a map showing the driving route 310 may be displayed to the driver, and the driver may directly drive the vehicle.
  • the vehicle 200 may communicate with the server 120 through the first base station 110a at point A, and communicate with the server 210 through the second base station 110b at point B.
  • the number or arrangement of base stations or servers is merely an example.
  • One or more base stations may be disposed on the driving path 310 .
  • one or more servers may be deployed for each base station.
  • Signal quality with the base station on the driving path 310 may be changed for various reasons. For example, the distance between the vehicle and the base station, the number of vehicles on the road, the arrangement of buildings, etc. may cause various path loss and signal quality may change. When the signal quality drops to a certain level, the communication quality between the vehicle 200 and the server 120 may not be guaranteed or the communication connection may be cut off.
  • the signal strength may include at least one of Received Signal Strength Indicator (RSSI), Reference Signal Received Power (RSRP), Reference Signal Received Quality (RSRQ), and Signal to Interference Noise Ratio (SINR).
  • RSSI Received Signal Strength Indicator
  • RSRP Reference Signal Received Power
  • RSSQ Reference Signal Received Quality
  • SINR Signal to Interference Noise Ratio
  • first reference value TH1 and a second reference value TH2 are thresholds on the signal quality map, and the signal strength is represented by three levels of good, marginal, and poor. If the measured signal strength is greater than TH1, it is 'G (good)'. If the measured signal strength is between TH1 and TH2, it is 'M (middle)'. If the measured signal strength is less than TH2, it is 'P (bad)'. The number of levels is only an example.
  • the signal quality map may include information about a section on the driving route 310 and signal quality in each section.
  • the signal quality map may include information about the reference signal quality at a reference position (or reference interval).
  • the signal quality map may include information about one or more reference signal qualities.
  • the signal quality map may be generated integrally with the geographic map for driving information, or may be generated separately from the geographic map.
  • the reference position includes a position where the reference signal quality is measured.
  • the reference section includes a section in which the reference signal quality is measured.
  • the reference time includes a time at which the reference signal quality is measured.
  • the reference sensor includes information about the sensor from which the reference signal quality was measured.
  • the signal quality map may include information about at least one of a reference position, a reference interval, a reference time, and a reference sensor.
  • the signal quality may include one or more indicators indicating the quality of communication between the vehicle and the server.
  • the signal quality may include at least one of signal strength, latency, bandwidth, and GPS accuracy.
  • the delay time may represent a delay time in communication between the vehicle and the server (or the vehicle and the base station).
  • the bandwidth may indicate the maximum bandwidth (and/or minimum bandwidth) used in communication between the vehicle and the server (or the vehicle and the base station).
  • the operation of the vehicle may be implemented by a control device of the vehicle and/or a wireless modem.
  • the operation of the server may be implemented by a processor of the server.
  • step S510 the server sends the signal quality map to the vehicle through a wireless medium.
  • the server may send a signal quality map to the vehicle.
  • Vehicles can also communicate with servers based on signal quality maps, even in areas they have never driven before.
  • step S520 the vehicle communicates with the server through the wireless medium along the driving route of the vehicle based on the signal quality map. Then, the vehicle measures the signal quality along the driving path.
  • a position at which the signal quality is measured on the driving route is referred to as a measurement position
  • a time at which the signal quality is measured is referred to as a measurement time
  • a sensor at which the signal quality is measured is referred to as a measurement sensor.
  • the vehicle may measure the signal quality when the driving route has been driven before.
  • the vehicle may measure the signal quality when driving at least N times (N>1) along the driving path.
  • step S530 the vehicle updates the signal quality map based on the measured signal quality.
  • the vehicle may update the signal quality map based on the measured reliability of the signal quality.
  • the vehicle may update the signal quality map if the measured signal quality is different from the reference signal quality in the signal quality map.
  • the difference between the reference signal quality and the measured signal quality may mean that the difference between the reference signal quality and the measured signal quality is greater than a reference value.
  • the vehicle may update the signal quality map when a specific condition is satisfied.
  • the specific condition may include reliability of the measured signal quality.
  • the reliability of the measured signal quality may be determined based on a measurement position, a measurement time, and a measurement sensor. If the vehicle (i) the measurement position and the reference position are within a specific distance, (ii) the measurement time is later than the reference time, and (iii) the accuracy of the measurement sensor is higher than the accuracy of the reference sensor , the signal quality map may be updated. When at least one of the conditions (i) to (iii) is satisfied, the vehicle may update the signal quality map.
  • the accuracy of the sensor may be estimated based on a manufacturing year of the vehicle, a model number of the vehicle, a sensor type, and a sensor resolution.
  • the signal quality map may include information about a reference interval associated with a reference signal quality.
  • the vehicle may update the signal quality map when the measurement location belongs to the reference section.
  • the signal quality map can be updated to avoid too frequent updates.
  • the vehicle may transmit the updated signal quality map to the server via a wireless medium.
  • the server can communicate with other vehicles based on the updated signal quality map.
  • the server and vehicle can maintain more stable communication by obtaining section information with poor signal quality based on the signal quality map.
  • By updating the signal quality map based on highly reliable information it is possible to increase the accuracy of the signal quality.
  • By storing and updating the signal quality map directly by the vehicle operation is possible even if the connection with the server is lost.
  • the vehicle may predict, based on the signal quality map, how much quality or stability it can maintain communication with the server on the driving route.
  • the vehicle can exchange high-quality/large-capacity messages with the server.
  • the vehicle can exchange a reduced amount of messages with the server, or only essential messages.
  • FIG. 6 shows another example of generating a signal quality map.
  • a travel path 610 moving from point A to point B There are a plurality of reference locations designated by the server.
  • the vehicle receives from the server a signal quality map relating to a corresponding reference signal quality.
  • the vehicle may establish one or more auxiliary reference positions between the two reference positions.
  • the vehicle measures the signal quality at each auxiliary reference location and stores it as the auxiliary reference signal quality. Thereafter, when the vehicle travels on the driving path 610 again, signal quality is measured not only in the reference position but also in the auxiliary reference position. If the measured signal quality differs from the auxiliary signal quality, the signal quality map can be updated. It can be updated based on reliability.
  • the vehicle may identify more detailed signal quality on the driving path 610 through the added auxiliary reference position.
  • the vehicle will notify the server of the auxiliary reference location and the associated auxiliary reference signal. Information about quality can be notified.
  • the server may additionally set the notified auxiliary reference position as a new reference position or replace the existing reference position with the notified auxiliary reference position.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

신호 품질을 고려한 맵을 생성하는 방법 및 이를 이용한 차량를 위한 장치가 제공된다. 상기 장치는 서버로부터 무선 매체를 통해 신호 품질 맵을 수신하고, 신호 품질 맵을 기반으로 상기 차량의 주행 경로를 따라 상기 서버와 상기 무선 매체를 통해 통신한다. 장치 장치는 상기 주행 경로를 따라 상기 서버와의 통신을 위한 신호 품질을 측정하고, 상기 측정된 신호 품질를 기반으로 상기 신호 품질 맵을 업데이트한다.

Description

신호 품질을 고려한 맵을 생성하는 방법 및 이를 이용한 차량을 위한 장치
본 명세서는 차량을 위한 제어 장치에 관한 것으로, 더욱 상세하게는 신호 품질을 고려한 맵을 생성하는 방법 및 이를 이용한 차량을 위한 제어 장치에 관한 것이다.
차량(vehicle)은 탑승자(passenger)를 한 장소에서 다른 장소로 이동시키는 장치이다. 대표적으로 자동차를 예를 들 수 있다. 차량-사물 통신을 의미하는 V2X(vehicle-to-everything) 통신 기술은 차량이 다른 차량, 보행자, 도로 인프라, 서버 등과 통신하여 일련의 서비스를 제공하는 기술을 말한다.
V2X를 위해 IEEE(Institute of Electrical and Electronics Engineers), 3GPP(3rd Generation Partnership Project) 등과 같은 표준화 기구에서 다양한 통신 규격을 제공하고 있다. DSRC(Dedicated Short Range Communications)는 IEEE 802.11를 기반으로 한 통신 표준 프로토콜이다. 3GPP의 LTE(Long Term Evolution) 및 NR(New Radio)도 V2X를 위한 통신 프로토콜을 제공하고 있다.
V2X와 더불어 부분적으로 또는 완전히(fully) 자율적인(autonomous) 차량이 등장하고 있다. 이 자율주행차량(Autonomous Vehicle)은 주변 차량, 보행자, 서버 등과 보다 많은 데이터를 저지연(low latency)와 높은 신뢰성을 가지고 교환할 필요가 있다.
V2X를 위한 차량은 주변 기기들과 무선 매체를 통한 무선 통신을 기반으로 동작하고 있다. 무선 통신을 기반으로 한 차량이 주행할 때 주변 환경에 따라 신호 품질이 달라질 수 있고, 이는 통신 신뢰성에 문제를 야기할 수 있다.
본 명세서는 신호 품질 맵을 생성하는 방법 및 이를 이용한 제어 장치를 제공한다.
일 양태에서, 차량을 위한 맵을 생성하는 방법이 제공된다. 상기 방법은 서버로부터 무선 매체를 통해 신호 품질 맵을 수신하되, 상기 신호 품질 맵은 기준 위치, 기준 시간 및 상기 기준 시간에 상기 기준 위치에서 측정된 기준 신호 품질에 관한 정보를 포함하고, 상기 신호 품질 맵을 기반으로 차량의 주행 경로를 따라 상기 서버와 상기 무선 매체를 통해 통신하고, 상기 주행 경로를 따라 상기 서버와의 통신을 위한 신호 품질을 측정 위치에서 측정 시간에 측정하고, 상기 측정된 신호 품질를 기반으로 상기 신호 품질 맵을 업데이트하는 것을 포함한다. (i) 상기 측정된 신호 품질이 상기 기준 신호 품질과 다르고, (ii) 상기 측정 위치와 상기 기준 위치가 특정 거리 이내이고, (iii) 상기 기준 시간 보다 상기 측정 시간이 특정 시간 이후이면, 상기 기준 시간을 상기 측정 시간으로 업데이트하고, 상기 기준 신호 품질을 상기 측정된 신호 품질로 업데이트한다.
다른 양태에서, 차량을 위한 제어 장치는 프로세서 및 상기 프로세서에 연결되어, 상기 프로세서에 의해 실행될 때 상기 차량이 기능을 수행하도록 하는 명령어를 저장하는 메모리를 포함한다. 상기 기능은 서버로부터 무선 매체를 통해 신호 품질 맵을 수신하되, 상기 신호 품질 맵은 기준 위치, 기준 시간 및 상기 기준 시간에 상기 기준 위치에서 측정된 기준 신호 품질에 관한 정보를 포함하고, 상기 신호 품질 맵을 기반으로 차량의 주행 경로를 따라 상기 서버와 상기 무선 매체를 통해 통신하고, 상기 주행 경로를 따라 상기 서버와의 통신을 위한 신호 품질을 측정 위치에서 측정 시간에 측정하고, 상기 측정된 신호 품질를 기반으로 상기 신호 품질 맵을 업데이트하는 것을 포함한다. (i) 상기 측정된 신호 품질이 상기 기준 신호 품질과 다르고, (ii) 상기 측정 위치와 상기 기준 위치가 특정 거리 이내이고, (iii) 상기 기준 시간 보다 상기 측정 시간이 특정 시간 이후이면, 상기 기준 시간을 상기 측정 시간으로 업데이트하고, 상기 기준 신호 품질을 상기 측정된 신호 품질로 업데이트한다.
신호 품질 맵을 기반으로 얻어지는 신호 품질에 따라 차량과 서버 간에 안정적인 통신을 유지할 수 있다. 신뢰도가 높은 정보를 기반으로 신호 품질 맵을 업데이트하여, 신호 품질의 정확도를 높일 수 있다.
도 1은 실시예가 적용되는 시스템을 나타낸다.
도 2는 본 실시예를 구현하는 차량을 나타낸 블록도이다.
도 3은 차량이 운행중인 예를 보여준다.
도 4는 주행 경로 상에서 신호 품질이 변화되는 일 예를 보여준다.
도 5는 본 명세서의 일 실시예에 따른 맵 생성 방법을 나타낸다.
도 6은 신호 품질 맵을 생성하는 다른 예를 나타낸다.
이하, 첨부된 도면을 참조하여 본 명세서(disclosure)에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않는다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하의 설명에서 차량의 좌측은 차량의 전진 주행 방향의 좌측을 의미하고, 차량의 우측은 차량의 전진 주행 방향의 우측을 의미한다.
도 1은 실시예가 적용되는 시스템을 나타낸다.
시스템(100)은 차량(200), 기지국(110) 및 서버(120)를 포함한다. 차량(200)은 무선 통신 프로토콜을 사용하여 기지국(110) 및/또는 주변 차량(130)과 통신할 수 있다. 무선 통신 프로토콜에는 제한이 없으며, 예를 들어, IEEE(Institute of Electrical and Electronics Engineers) 802.11를 기반으로 한 DSRC(Dedicated Short Range Communications), WiFi, C-V2X 및/또는 3GPP(3rd Generation Partnership Project) 기반의 셀룰라 통신 프로토콜(예, WCDMA(Wideband Code Division Multiple Access), LTE(Long Term Evolution), NR(New Radio) 등)를 포함할 수 있다.
기지국(110)은 DSRC, C-V2X, 셀룰라 통신 프로토콜 등 다양한 무선 통신 프로토콜을 사용하여 차량(200) 또는 다른 기지국과 통신할 수 있다.
서버(120)는 하나 또는 그 이상의 기지국(110)과 연결되어, 차량(200)에게 주행 데이터 서비스를 제공하는 컴퓨팅 하드웨어를 포함한다. 예를 들어, 상기 컴퓨팅 하드웨어는 프로세서와 메모리를 포함할 수 있다. 메모리는 이하의 실시예에서 기술되는 맵 데이터와 주행 환경 정보를 저장하고, 프로세서는 이 데이터를 차량(200)에게 제공할 수 있다. 프로세서는 하나 또는 그 이상의 차량(200)으로부터 수신된 데이터에 기초하여 맵 데이터를 업데이트할 수 있다. 서버는 MEC(Mobile/Mutli-access Edge Computing) 기반의 서버이거나 중앙 집중 기반의 서버일 수 있다.
본 발명의 실시예에 따른 차량(200)은, 도로나 선로 위를 주행하는 수송 수단으로 정의된다. 차량(200)은, 자동차, 기차, 오토바이를 포함하는 개념이다. 차량(200)은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량등을 모두 포함하는 개념일 수 있다. 차량(200)은 개인이 소유한 차량일 수 있다. 차량(200)은, 공유형 차량일 수 있다. 차량(200)은 자율 주행 차량일 수 있다.
차량(200)은 자율적으로 동작할 수 있도록 설정될 수 있다. 자율 주행은 예를 들어, 휴먼 운전자의 도움없이 주행하는 것을 말한다. 자율 주행 모드에서 차량(200)은 주변 차량(130)을 검출하고 검출된 차량의 경로를 판단하도록 설정될 수 있다. 차량(200)은 주변 차량(130)과 통신하여 정보를 교환할 수 있다.
차량(200)는, 자율 주행 모드에서 수동 주행 모드로의 전환 동작 또는 수동 주행 모드에서 자율 주행 모드로의 전환 동작을 수행할 수 있다. 예를 들면, 차량(200)은 사용자 인터페이스 장치로부터 수신되는 신호에 기초하여, 차량(10)의 모드를 자율 주행 모드에서 수동 주행 모드로 전환하거나 수동 주행 모드에서 자율 주행 모드로 전환할 수 있다.
수동 운행 또는 자율 주행에 있어서 적어도 하나의 ADAS(Advanced Driver Assistance System) 기능이 지원될 수 있다. ADAS는, 적응형 크루즈 컨트롤 시스템(ACC : Adaptive Cruise Control), 자동 비상 제동 시스템(AEB : Autonomous Emergency Braking), 전방 충돌 알림 시스템(FCW : Foward Collision Warning), 차선 유지 보조 시스템(LKA : Lane Keeping Assist), 차선 변경 보조 시스템(LCA : Lane Change Assist), 타겟 추종 보조 시스템(TFA : Target Following Assist), 사각 지대 감시 시스템(BSD : Blind Spot Detection), 적응형 하이빔 제어 시스템(HBA : High Beam Assist), 자동 주차 시스템(APS : Auto Parking System), 보행자 충돌 알림 시스템(PD collision warning system), 교통 신호 검출 시스템(TSR : Traffic Sign Recognition), 교통 신호 보조 시스템(TSA : Trafffic Sign Assist), 나이트 비전 시스템(NV : Night Vision), 운전자 상태 모니터링 시스템(DSM : Driver Status Monitoring) 및 교통 정체 지원 시스템(TJA : Traffic Jam Assist) 중 적어도 어느 하나를 구현할 수 있다.
도 2는 본 실시예를 구현하는 차량을 나타낸 블록도이다.
차량(200)은 제어 장치(control device, 210), 사용자 인터페이스 장치(220), 가속 장치(acceleration device, 230), 브레이크 장치(braking device, 240), 조향 장치(steering device, 250), 센싱 장치(sensing device, 260), 엔진(engine, 270)을 포함할 수 있다. 제시된 장치는 예시에 불과하며, 모든 장치가 필수적인 것은 아니다. 차량(200)은 추가적인 장치를 더 포함하거나, 특정 장치는 생략될 수 있다. 장치들 중 어떤 것은 자신의 프로세서를 가지고, 그 장치의 특정 기능에 관련된 처리를 수행할 수 있다.
사용자 인터페이스 장치(220)는, 차량(200)과 사용자와의 소통을 위한 장치이다. 사용자 인터페이스 장치(220)는, 사용자 입력을 수신하고, 사용자에게 차량(200)에서 생성된 정보를 제공할 수 있다. 차량(200)은, 사용자 인터페이스 장치(220)를 통해, UI(User Interface) 또는 UX(User Experience)를 구현할 수 있다. 사용자 인터페이스 장치(220)는 입력 장치, 출력 장치 및 사용자 모니터링 장치를 포함할 수 있다.
가속 장치(230)는 차량(200)을 가속하도록 설정되는 메카니즘일 수 있다. 브레이크 장치(240)는 차량(200)을 감속하도록 설정되는 메카니즘일 수 있다. 조향 장치(250)는 차량(200)의 방향을 조정하도록 설정되는 메카니즘일 수 있다. 차량(200)은 가속 장치(230)를 통해 가속하고, 브레이크 장치(240)를 통해 감속하고, 조향 장치(250)를 통해 주행 방향을 변경할 수 있다. 차량(200)의 속도와 방향을 제어하기 위해 가속 장치(230), 브레이크 장치(240) 및 조향 장치(250) 중 적어도 어느 하나는 제어 장치(210) 및/또는 추가적인 제어기에 의해 제어될 수 있다.
센싱 장치(260)는 차량(200)의 위치/속도 및/또는 차량(200)의 환경에 관한 정보를 센스하도록 설정된 하나 또는 그 이상의 센서를 포함할 수 있다. 센싱 장치(260)는 차량(200)의 지리적 위치를 측정하는 위치 데이터 생성 장치 및/또는 차량(200) 주변의 오브젝트(object)를 인식하는 오브젝트 검출 장치를 포함할 수 있다.
오브젝트 검출 장치는, 차량(200) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 오브젝트에 대한 정보는, 오브젝트의 존재 유무에 대한 정보, 오브젝트의 위치 정보, 차량(200)과 오브젝트와의 거리 정보 및 차량(200)과 오브젝트와의 상대 속도 정보 중 적어도 어느 하나를 포함할 수 있다. 오브젝트 검출 장치는, 차량(200) 외부의 오브젝트를 검출할 수 있다. 오브젝트 검출 장치는, 차량(200) 외부의 오브젝트를 검출할 수 있는 적어도 하나의 센서를 포함할 수 있다. 오브젝트 검출 장치는 카메라, 레이다, 라이다, 초음파 센서 및 적외선 센서 중 적어도 하나를 포함할 수 있다. 오브젝트 검출 장치는, 센서에서 생성되는 센싱 신호에 기초하여 생성된 오브젝트에 대한 데이터를 차량(200)에 포함된 적어도 하나의 제어 장치에 제공할 수 있다.
카메라는 영상을 이용하여 차량(200) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 카메라는 적어도 하나의 렌즈, 적어도 하나의 이미지 센서 및 이미지 센서와 전기적으로 연결되어 수신되는 신호를 처리하고, 처리되는 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다.
카메라는, 모노 카메라, 스테레오 카메라, AVM(Around View Monitoring) 카메라 중 적어도 어느 하나일 수 있다. 카메라는, 다양한 영상 처리 알고리즘을 이용하여, 오브젝트의 위치 정보, 오브젝트와의 거리 정보 또는 오브젝트와의 상대 속도 정보를 획득할 수 있다. 예를 들면, 카메라는, 획득된 영상에서, 시간에 따른 오브젝트 크기의 변화를 기초로, 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다. 예를 들면, 카메라는, 핀홀(pin hole) 모델, 노면 프로파일링 등을 통해, 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다. 예를 들면, 카메라는, 스테레오 카메라에서 획득된 스테레오 영상에서 디스패러티(disparity) 정보를 기초로 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다.
카메라는, 차량 외부를 촬영하기 위해 차량에서 FOV(field of view) 확보가 가능한 위치에 장착될 수 있다. 카메라는, 차량 전방의 영상을 획득하기 위해, 차량의 실내에서, 프런트 윈드 쉴드에 근접하게 배치될 수 있다. 카메라는, 프런트 범퍼 또는 라디에이터 그릴 주변에 배치될 수 있다. 카메라는, 차량 후방의 영상을 획득하기 위해, 차량의 실내에서, 리어 글라스에 근접하게 배치될 수 있다. 카메라는, 리어 범퍼, 트렁크 또는 테일 게이트 주변에 배치될 수 있다. 카메라는, 차량 측방의 영상을 획득하기 위해, 차량의 실내에서 사이드 윈도우 중 적어도 어느 하나에 근접하게 배치될 수 있다. 또는, 카메라는, 사이드 미러, 휀더 또는 도어 주변에 배치될 수 있다.
레이다는 전파를 이용하여 차량(200) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 레이다는, 전자파 송신부, 전자파 수신부 및 전자파 송신부 및 전자파 수신부와 전기적으로 연결되어, 수신되는 신호를 처리하고, 처리되는 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다. 레이다는 전파 발사 원리상 펄스 레이다(Pulse Radar) 방식 또는 연속파 레이다(Continuous Wave Radar) 방식으로 구현될 수 있다. 레이다는 연속파 레이다 방식 중에서 신호 파형에 따라 FMCW(Frequency Modulated Continuous Wave)방식 또는 FSK(Frequency Shift Keyong) 방식으로 구현될 수 있다. 레이다는 전자파를 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여, 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 레이다는, 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.
라이다는, 레이저 광을 이용하여, 차량(200) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 라이다는, 광 송신부, 광 수신부 및 광 송신부 및 광 수신부와 전기적으로 연결되어, 수신되는 신호를 처리하고, 처리된 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다. 라이다는, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식으로 구현될 수 있다. 라이다는, 구동식 또는 비구동식으로 구현될 수 있다. 구동식으로 구현되는 경우, 라이다는, 모터에 의해 회전되며, 차량(200) 주변의 오브젝트를 검출할 수 있다. 비구동식으로 구현되는 경우, 라이다는, 광 스티어링에 의해, 차량을 기준으로 소정 범위 내에 위치하는 오브젝트를 검출할 수 있다. 차량(200)은 복수의 비구동식 라이다를 포함할 수 있다. 라이다는, 레이저 광 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여, 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 라이다는, 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.
위치 데이터 생성 장치는, 차량(200)의 위치 데이터를 생성할 수 있다. 위치 데이터 생성 장치는 GPS(Global Positioning System) 및 DGPS(Differential Global Positioning System) 중 적어도 어느 하나를 포함할 수 있다. 위치 데이터 생성 장치는, GPS 및 DGPS 중 적어도 어느 하나에서 생성되는 신호에 기초하여 차량(200)의 위치 데이터를 생성할 수 있다. 실시예에 따라, 위치 데이터 생성 장치는, 센싱 장치(260)의 IMU(Inertial Measurement Unit) 및 오브젝트 검출 장치의 카메라 중 적어도 어느 하나에 기초하여 위치 데이터를 보정할 수 있다. 위치 데이터 생성 장치는, GNSS(Global Navigation Satellite System)로 명명될 수 있다.
센싱 장치(260)는 차량(200)의 상태를 센스하도록 설정된 상태 센서를 포함할 수 있다. 상태 센서는 IMU(inertial measurement unit) 센서, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 스티어링 센서, 온도 센서, 습도 센서, 초음파 센서, 조도 센서, 페달 포지션 센서 중 적어도 어느 하나를 포함할 수 있다. 한편, IMU(inertial measurement unit) 센서는, 가속도 센서, 자이로 센서, 자기 센서 중 하나 이상을 포함할 수 있다.
센싱 장치(260)는 적어도 하나의 센서에서 생성되는 신호에 기초하여, 차량의 상태 데이터를 생성할 수 있다. 차량 상태 데이터는, 차량 내부에 구비된 각종 센서에서 감지된 데이터를 기초로 생성된 정보일 수 있다. 센싱 장치(260)는, 차량 자세 데이터, 차량 모션 데이터, 차량 요(yaw) 데이터, 차량 롤(roll) 데이터, 차량 피치(pitch) 데이터, 차량 충돌 데이터, 차량 방향 데이터, 차량 각도 데이터, 차량 속도 데이터, 차량 가속도 데이터, 차량 기울기 데이터, 차량 전진/후진 데이터, 차량의 중량 데이터, 배터리 데이터, 연료 데이터, 타이어 공기압 데이터, 차량 내부 온도 데이터, 차량 내부 습도 데이터, 스티어링 휠 회전 각도 데이터, 차량 외부 조도 데이터, 가속 페달에 가해지는 압력 데이터, 브레이크 페달에 가해지는 압력 데이터 등을 생성할 수 있다.
엔진(270)은 차량(200)에게 추진력(propulsion)을 제공한다. 엔진(270)은 내연기관(internal combustion engine), 전기 모터 또는 이들의 조합을 포함할 수 있다.
제어 장치(210)는 사용자 인터페이스 장치(220), 가속 장치(230), 브레이크 장치(240), 조향 장치(250) 및 센싱 장치(260)과 통신하여 다양한 정보를 교환하거나, 이 장치들을 제어할 수 있다.
제어 장치(210)는 프로세서(211)와 메모리(212)를 포함할 수 있다. 제어 장치(210)는 기능에 따라 하나 또는 그 이상의 서브-장치를 포함할 수 있으며, 각 서브-장치는 프로세서와 메모리 중 적어도 하나를 포함하고, 해당 서브-장치의 기능에 관련된 처리를 수행하도록 할 수 있다. 예를 들어, 제어 장치(210)는 차량(200) 내부 및 외부의 통신을 담당하는 TCU(telematics control unit)을 포함할 수 있다.
제어 장치(210)는 자율 주행을 담당하는 자율 주행 장치를 포함할 수 있다. 제어 장치(210)의 승객에게 주행 정보를 표시하거나 다양한 엔터테인먼트를 제공하는 인포테인먼트 시스템 또는 AVN(Audio Video Navigation) 시스템을 포함할 수 있다. 이하의 실시예에 따라, 제어 장치(210)는 TCU 또는 인포테인먼트 시스템을 포함할 수 있다. 또는, 제어 장치(210)는 TCU 및 인포테인먼트 시스템의 조합 또는 다른 기능의 조합을 포함할 수도 있다.
자율 주행을 위한 제어 장치(210)는, 획득된 데이터에 기초하여, 자율 주행을 위한 패스를 생성할 수 있다. 제어 장치(210)는, 생성된 경로를 따라 주행하기 위한 드라이빙 플랜을 생성 할 수 있다. 제어 장치(210)는, 드라이빙 플랜에 따른 차량의 움직임을 제어하기 위한 신호를 생성할 수 있다. 자율 주행 장치(210)는, 생성된 신호를 가속장치(230), 브레이크 장치(240), 조향 장치(250) 및 엔진(270)에 제공할 수 있다.
프로세서(211)는 ASIC(application-specific integrated circuit), CPU(central processing unit), AP(application processor), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 마이크로 제어기, 칩셋, 논리 회로, 데이터 처리 장치 및/또는 이들의 조합을 포함할 수 있다. 이하의 실시예에 대한 소프트웨어 구현에 있어서, 여기서 기술된 기능을 수행하는 소프트웨어 코드는 메모리(212)에 저장되고, 프로세서(211)에 의해 처리될 수 있다.
메모리(212)는 프로세서(211)에 의해 액세스가능한 정보를 저장할 수 있다. 상기 정보는 프로세서(211)에 의해 실행가능한 명령어(instructions) 및/또는 프로세서에 의해 처리되는 데이터를 포함할 수 있다. 메모리(212)는 정보를 저장하도록 동작하는 어떤 형태의 컴퓨터 읽기 가능한 매체(computer-readable medium)를 포함할 수 있다. 예를 들어, 메모리(212)는 ROM(read only memory), RAM(random access memory), DVD(digital video disc), 옵티칼 디스크(optical disc), 플래쉬 메모리, SSD(Solid State Drive), 하드 드라이브(hard drive) 및 이들의 조합을 포함할 수 있다.
제어 장치(210)가 하나의 물리적 블록으로 프로세서와 메모리를 포함하는 것으로 나타내지만, 제어 장치(210)는 다수 프로세서와 다수 메모리를 포함할 수 있고, 물리적 또는 논리적으로 동작가능하게 연결될 수 있다.
제어 장치(210)는 정보를 표시하기 위한 디스플레이 장치(280)와 연결될 수 있다. 디스플레이 장치(280)는 LCD(liquid crystal display) 터치 스크린 또는 OLED(Organic Light Emitting Diode) 터치 스크린을 포함하고, 승차자의 상태나 제스처를 검출하기 위한 다양한 센서(비디오 카메라, 마이크(microphone) 등)를 포함할 수 있다.
제어 장치(210)는 무선 매체(wireless medium)을 통해 다른 기기와의 통신하도록 설정되는 무선 모뎀(290)과 연결될 수 있다. 제어 장치(210)는 무선 모뎀(290)을 통해 차량(200) 내부/외부 모바일 기기 또는 서버(도 1의 120) 또는 주변 차량과 무선 신호를 교환할 수 있다. 무선 모뎀(290)에 의해 지원되는 무선 통신 프로토콜에는 제한이 없으며, 무선 모뎀(290)은 셀룰라 통신, WiFi, Bluetooth, Zigbee, 적외선 링크 등 다양한 무선 통신 프로토콜을 지원할 수 있다.
제어 장치(210)의 메모리(212)는 맵 정보 및/또는 드라이빙 플랜 데이터(driving plan data)를 가질 수 있다. 드라이빙 플랜 데이터는 차량(200)이 현재 위치부터 목적지까지의 차량의 위치를 트랙킹하기 위한 차량 경로(trajectory)에 관한 정보를 포함할 수 있다. 드라이빙 플랜 데이터는 운전자에게 경로를 안내하거나, 자율 주행을 위해 사용될 수 있다. 맵 정보는 주행 환경을 정의하기 위한 다양한 맵을 포함할 수 있다. 맵 정보는 도로(roadway)의 모양과 고도(elevation), 차선(lane line), 교차로(intersection), 횡단보도(crosswalk), 속도 제한(speed limit), 교통신호(traffic signal), 빌딩 또는 다른 물체나 정보를 포함할 수 있다. 맵 정보는 실시간 트래픽 정보, 도로 상 장애물(obstruction), 도로 상태 정보 등을 더 포함할 수 있다. 맵 정보와 드라이빙 플랜 데이터는 서버(120)에 의해 주어진 정보를 기반으로 업데이트되거나, 차량(200)의 센싱 장치(260)에 의해 검출된 정보를 기반으로 업데이트될 수 있다.
제어 장치(210)는 일렉트로닉 호라이즌 데이터(Electronic Horizon Data)를 생성할 수 있다. 일렉트로닉 호라이즌 데이터는, 차량(200)이 위치한 지점에서부터 호라이즌(horizon)까지 범위 내에서의 드라이빙 플랜 데이터로 이해될 수 있다. 호라이즌은, 기 설정된 주행 경로를 기준으로, 차량(200)이 위치한 지점에서 기설정된 거리 앞의 지점으로 이해될 수 있다. 호라이즌은, 기 설정된 주행 경로를 따라 차량(200)이 위치한 지점에서부터 차량(200)이 소정 시간 이후에 도달할 수 있는 지점을 의미할 수 있다.
일렉트로닉 호라이즌 데이터는, 호라이즌 맵 데이터 및 호라이즌 패스 데이터를 포함할 수 있다.
호라이즌 맵 데이터는, 토폴로지 데이터(topology data), 도로 데이터, HD 맵 데이터 및 다이나믹 데이터(dynamic data) 중 적어도 어느 하나를 포함할 수 있다. 실시예에 따라, 호라이즌 맵 데이터는, 복수의 레이어를 포함할 수 있다. 예를 들면, 호라이즌 맵 데이터는, 토폴로지 데이터에 매칭되는 1 레이어, 도로 데이터에 매칭되는 제2 레이어, HD 맵 데이터에 매칭되는 제3 레이어 및 다이나믹 데이터에 매칭되는 제4 레이어를 포함할 수 있다. 호라이즌 맵 데이터는, 스태이틱 오브젝트(static object) 데이터를 더 포함할 수 있다.
토폴로지 데이터는, 도로 중심을 연결해 만든 지도로 설명될 수 있다. 토폴로지 데이터는, 차량의 위치를 대략적으로 표시하기에 알맞으며, 주로 운전자를 위한 내비게이션에서 사용하는 데이터의 형태일 수 있다. 토폴로지 데이터는, 차로에 대한 정보가 제외된 도로 정보에 대한 데이터로 이해될 수 있다. 토폴로지 데이터는 외부 서버로부터 수신된 데이터에 기초하여 생성될 수 있다. 토폴로지 데이터는, 차량(200)에 구비된 적어도 하나의 메모리에 저장된 데이터에 기초할 수 있다.
도로 데이터는, 도로의 경사 데이터, 도로의 곡률 데이터, 도로의 제한 속도 데이터 중 적어도 어느 하나를 포함할 수 있다. 도로 데이터는, 추월 금지 구간 데이터를 더 포함할 수 있다. 도로 데이터는 외부 서버로부터 수신된 데이터에 기초할 수 있다. 도로 데이터는, 오브젝트 검출 장치에서 생성된 데이터에 기초할 수 있다.
HD 맵 데이터는, 도로의 상세한 차선 단위의 토폴로지 정보, 각 차선의 연결 정보, 차량의 로컬라이제이션(localization)을 위한 특징 정보(예를 들면, 교통 표지판, Lane Marking/속성, Road furniture 등)를 포함할 수 있다. HD 맵 데이터는, 통신 장치(220)를 통해, 외부 서버에서 수신된 데이터에 기초할 수 있다.
다이나믹 데이터는, 도로상에서 발생될 수 있는 다양한 동적 정보를 포함할 수 있다. 예를 들면, 다이나믹 데이터는, 공사 정보, 가변 속도 차로 정보, 노면 상태 정보, 트래픽 정보, 무빙 오브젝트 정보 등을 포함할 수 있다. 다이나믹 데이터는 외부 서버로부터 수신된 데이터에 기초할 수 있다. 다이나믹 데이터는, 오브젝트 검출 장치에서 생성된 데이터에 기초할 수 있다.
호라이즌 패스 데이터는, 차량(200)이 위치한 지점에서부터 호라이즌까지의 범위 내에서 차량(200)이 취할 수 있는 궤도로 설명될 수 있다. 호라이즌 패스 데이터는, 디시전 포인트(decision point)(예를 들면, 갈림길, 분기점, 교차로 등)에서 어느 하나의 도로를 선택할 상대 확률을 나타내는 데이터를 포함할 수 있다. 상대 확률은, 최종 목적지까지 도착하는데 걸리는 시간에 기초하여 계산될 수 있다. 예를 들면, 디시전 포인트에서, 제1 도로를 선택하는 경우 제2 도로를 선택하는 경우보다 최종 목적지에 도착하는데 걸리는 시간이 더 작은 경우, 제1 도로를 선택할 확률은 제2 도로를 선택할 확률보다 더 높게 계산될 수 있다.
호라이즌 패스 데이터는, 메인 패스와 서브 패스를 포함할 수 있다. 메인 패스는, 선택될 상대적 확률이 높은 도로들을 연결한 궤도로 이해될 수 있다. 서브 패스는, 메인 패스 상의 적어도 하나의 디시전 포인트에서 분기될 수 있다. 서브 패스는, 메인 패스 상의 적어도 하나의 디시전 포인트에서 선택될 상대적 확률이 낮은 적어도 어느 하나의 도로를 연결한 궤도로 이해될 수 있다.
차량이 자율적으로 또는 비자율적으로 운행될 때, 무선 통신 네트워크를 통해 서버 또는 사용자 기기와 높은 신뢰성으로 통신하는 것이 필요하다. 하지만, 차량은 다양한 환경에서 주행되므로 통신 신뢰성이 보장되기 어려울 수 있다.
도 3은 차량이 운행중인 예를 보여준다.
차량(200)이 A 지점에서 B 지점까지의 주행경로(driving path)(310)를 따라 운행된다고 하자. 이는 차량(200)이 자율적으로 운행될 수 있다. 또는, 운전자에게 상기 주행경로(310)가 나타난 맵을 표시하고, 운전자가 직접 운행할 수도 있다.
차량(200)은 A 지점에서는 제1 기지국(110a)을 통해 서버(120)와 통신하고, B 지점에서는 제2 기지국(110b)를 통해 서버(210)와 통신할 수 있다. 기지국 또는 서버의 갯수나 배치는 예시에 불과하다. 주행경로(310) 상에는 하나 또는 그 이상의 기지국이 배치될 수 있다. 또한, 각 기지국마다 하나 또는 그 이상의 서버가 배치될 수 있다.
주행경로(310) 상에서 기지국과의 신호 품질은 다양한 이유로 변화될 수 있다. 예를 들어, 차량과 기지국간 거리, 도로내 차량 수, 건물 배치 등은 다양한 경로 손실(path loss)을 야기할 수 있고, 신호 품질이 변화될 수 있다. 신호 품질이 일정 수준으로 떨어지면, 차량(200)과 서버(120) 간의 통신 품질이 보장되지 않거나, 통신 연결이 끊어질 수도 있다.
도 4는 주행 경로 상에서 신호 품질이 변화되는 일 예를 보여준다.
신호 품질의 예로 신호 세기(signal strength)가 있다. 신호 세기는 RSSI(Received Signal Strength Indicator), RSRP(Reference Signal Received Power), RSRQ(Reference Signal Received Quality) 및 SINR(Signal to Interference Noise Ratio) 중 적어도 어느 하나를 포함할 수 있다.
신호 품질 맵 상에서 기준값(threshold)으로 제1 기준값(TH1)과 제2 기준값(TH2)이 있고, 신호 세기를 좋음(Good), 중간(Marginal), 나쁨(Poor)의 3 레벨로 나타낸다고 하자. 측정된 신호 세기가 TH1 보다 크면, 'G(좋음)'이다. 측정된 신호 세기가 TH1과 TH2 사이이면, 'M(중간)'이다. 측정된 신호 세기가 TH2 보다 작으면, 'P(나쁨)'이다. 레벨의 수는 예시에 불과하다.
도 4의 예를 참고하면, 차량이 A 지점에서 B 지점까지의 주행경로(310)를 따라 주행할 때, 신호 품질이 G -> M -> P -> M -> G 의 순으로 변화되는 예를 보여준다. 신호 품질 맵은 주행경로(310) 상의 구간 및 각 구간에서의 신호 품질에 관한 정보를 포함할 수 있다.
신호 세기가 나쁜 구간에서는 서버와 차량 간 통신 품질이 나빠져 정보 교환이 어려울 수 있다. 차량들에서의 통신이 빈번하지 않을 때는 주변 건물 등 주로 고정된 특징에 의해 통신 품질이 결정됨으로써, 통신 품질의 변화가 크지 않다. 하지만, 차량들에서의 통신이 빈번해짐에 따라 차량들간의 간섭 등 변화되는 특징에 의해 통신 품질도 변함으로써 실시간으로 서버와 차량 간 통신 품질을 측정할 필요가 있다. 따라서, 신호 품질에 관한 정보를 실시간으로 업데이트할 필요가 있다.
신호 품질 맵은 기준 위치(reference position)(또는 기준 구간)에서의 기준 신호 품질에 관한 정보를 포함할 수 있다. 신호 품질 맵은 하나 또는 그 이상의 기준 신호 품질에 관한 정보를 포함할 수 있다. 신호 품질 맵은 주행 정보에 관한 지리적 맵과 일체로 생성될 수도 있고, 지리적 맵과 별도로 생성될 수도 있다. 기준 위치는 기준 신호 품질이 측정된 위치를 포함한다. 기준 구간은 기준 신호 품질이 측정된 구간을 포함한다. 기준 시간은 기준 신호 품질이 측정된 시간을 포함한다. 기준 센서는 기준 신호 품질이 측정된 센서에 관한 정보를 포함한다. 신호 품질 맵은 기준 위치, 기준 구간, 기준 시간 및 기준 센서 중 적어도 어느 하나에 관한 정보를 포함할 수 있다.
신호 품질은 차량과 서버간 통신 품질을 나타내는 하나 또는 그 이상의 지표를 포함할 수 있다. 신호 품질은 신호 세기, 지연시간, 대역폭 및 GPS 정확도 중 적어도 어느 하나를 포함할 수 있다. 지연시간은 차량과 서버(또는 차량과 기지국) 간 통신에서의 지연 시간을 나타낼 수 있다. 대역폭은 차량과 서버(또는 차량과 기지국) 간 통신에서 사용되는 최대 대역폭(및/또는 최소 대역폭)을 나타낼 수 있다.
도 5는 본 명세서의 일 실시예에 따른 맵 생성 방법을 나타낸다. 차량의 동작은 차량의 제어장치 및/또는 무선모뎀에 의해 구현될 수 있다. 서버의 동작은 서버의 프로세서에 의해 구현될 수 있다.
단계 S510에서, 서버는 신호 품질 맵을 무선 매체(wireless medium)를 통해 차량에게 보낸다. 서버는 자신이 관리하는 영역에 차량이 진입하면, 신호 품질 맵을 차량에게 보낼 수 있다. 차량은 이전에 운행해보지 못한 지역에서도 신호 품질 맵을 기반으로 서버와 통신할 수 있다.
단계 S520에서, 차량은 상기 신호 품질 맵을 기반으로 차량의 주행 경로를 따라 상기 서버와 상기 무선 매체를 통해 통신한다. 그리고, 차량은 상기 주행 경로를 따라 신호 품질을 측정한다. 상기 주행 경로 상에서 상기 신호 품질이 측정된 위치를 측정 위치라 하고, 상기 신호 품질이 측정된 시간을 측정 시간이라 하고, 상기 신호 품질이 측정된 센서를 측정 센서라 한다.
차량은 상기 주행 경로가 이전에 주행한 적이 있을 때, 신호 품질을 측정할 수 있다. 차량은 상기 주행 경로를 따라 적어도 N 회 (N>1) 주행할 때 상기 신호 품질을 측정할 수 있다. 차량은 상기 주행 경로를 따라 M (M>=1) 번째 주행마다 상기 신호 품질을 측정할 수 있다.
단계 S530에서, 차량은 상기 측정된 신호 품질를 기반으로 상기 신호 품질 맵을 업데이트한다. 차량은 상기 측정된 신호 품질의 신뢰도를 기반으로 상기 신호 품질 맵을 업데이트할 수 있다. 차량은 신호 품질 맵 내의 기준 신호 품질과 상기 측정된 신호 품질이 다르면 상기 신호 품질 맵을 업데이트할 수 있다. 기준 신호 품질과 상기 측정된 신호 품질이 다르다는 것은 기준 신호 품질 및 상기 측정된 신호 품질과의 차이가 기준값 보다 큰 것을 의미할 수 있다.
차량은 신호 품질 맵 내의 기준 신호 품질과 상기 측정된 신호 품질이 다르더라도 특정 조건을 만족하면 상기 신호 품질 맵을 업데이트할 수 있다. 상기 특정 조건은 상기 측정된 신호 품질의 신뢰도를 포함할 수 있다. 상기 측정된 신호 품질의 신뢰도는 측정 위치, 측정 시간 및 측정 센서를 기반으로 결정될 수 있다. 차량은 (i) 상기 측정 위치와 상기 기준 위치가 특정 거리 이내이고, (ii) 상기 기준 시간 보다 상기 측정 시간이 특정 시간 이후이고, (iii) 상기 측정 센서의 정확도가 상기 기준 센서의 정확도보다 높으면, 상기 신호 품질 맵을 업데이트할 수 있다. 상기 조건 (i) 내지 (iii) 중 적어도 어느 하나가 만족되면, 상기 차량은 상기 신호 품질 맵을 업데이트할 수 있다.
상기 센서의 정확도는 차량의 제조 연도, 차량의 모델 번호, 센서 타입, 센서 해상도 등을 기반으로 추정될 수 있다.
상기 신호 품질 맵은 기준 신호 품질과 연관된 기준 구간에 관한 정보를 포함할 수 있다. 상기 차량은 측정 위치가 상기 기준 구간에 속하면, 상기 신호 품질 맵을 업데이트할 수 있다.
신뢰도가 높을 경우 신호 품질 맵을 업데이트하여 너무 빈번한 업데이트를 방지할 수 있다.
단계 S540에서, 차량은 업데이트된 신호 품질 맵을 서버로 무선 매체를 통해 전송할 수 있다. 서버는 업데이트된 신호 품질 맵을 기반으로 다른 차량과 통신할 수 있다.
신호 품질 맵을 기반으로 신호 품질이 나쁜 구간 정보를 얻음으로써 서버와 차량이 보다 안정적인 통신을 유지할 수 있다. 신뢰도가 높은 정보를 기반으로 신호 품질 맵을 업데이트하여, 신호 품질의 정확도를 높일 수 있다. 차량이 직접 신호 품질 맵을 저장하고 업데이트함으로써, 서버와 연결이 끊기더라도 동작이 가능하다.
자율 주행 또는 비자율 주행에 있어서, 차량은 신호 품질 맵을 기반으로 주행 경로 상에서 서버와 어느 정도의 품질이나 안정성을 유지하면서 통신을 유지할 수 있는지 예측할 수 있다. 신호 품질이 좋은 지역에 진입하면, 차량은 서버와 고품질/대용량의 메시지를 교환할 수 있다. 신호 품질이 나쁜 지역에 진입하면, 차량은 서버와 감소된 양의 메시지를 교환하거나, 필수적인 메시지 만을 교환할 수 있다.
도 6은 신호 품질 맵을 생성하는 다른 예를 나타낸다.
집에서 직장으로 이동하거나 직장에서 집으로 이동하는 경우와 같이 차량이 빈번하게 운행하는 주행 경로의 경우 보다 자세한 신호 품질 맵을 작성할 수 있다.
A 지점에서 B 지점으로 이동하는 주행 경로(610)를 고려하자. 서버에 의해 지정된 복수의 기준 위치가 있다. 차량은 대응하는 기준 신호 품질에 관한 신호 품질 맵을 서버로부터 수신한다.
차량은 2개의 기준 위치 사이에 하나 또는 그 이상의 보조 기준 위치를 설정할 수 있다. 차량은 각 보조 기준 위치에서 신호 품질을 측정하고, 이를 보조 기준 신호 품질로써 저장한다. 이후 차량이 다시 주행 경로(610) 상으로 주행하면 기준 위치 뿐만 아니라 보조 기준 위치에서도 신호 품질을 측정한다. 측정된 신호 품질이 보조 신호 품질과 달리지면 신호 품질 맵을 업데이트 할 수 있다. 신뢰도를 기반으로 업데이트될 수 있다.
보조 기준 위치를 설정하는 방법이나 갯수에 대해서는 제한이 없다. 차량은 추가되는 보조 기준 위치를 통해 주행 경로(610) 상에서 보다 자세한 신호 품질을 파악할 수 있다.
차량은 보조 기준 위치에서의 신호 품질이 인접하는 기준 위치에서의 신호 품질과 2 레벨 보다 크게 차이가 나거나, 보조 기준 위치에서의 신호 품질이 빈번하게 업데이트되면 서버에게 해당 보조 기준 위치 및 연관된 보조 기준 신호 품질에 관한 정보를 통지할 수 있다. 서버는 통지된 보조 기준 위치를 새로운 기준 위치로 추가로 설정하거나, 기존 기준 위치를 통지된 보조 기준 위치로 교체할 수 있다.
상술한 예시적인 시스템에서, 방법들은 일련의 단계 또는 블록으로써 순서도를 기초로 설명되고 있지만, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당업자라면 순서도에 나타낸 단계들이 배타적이지 않고, 다른 단계가 포함되거나 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.

Claims (10)

  1. 차량을 위한 맵을 생성하는 방법에 있어서,
    서버로부터 무선 매체를 통해 신호 품질 맵을 수신하되, 상기 신호 품질 맵은 기준 위치, 기준 시간 및 상기 기준 시간에 상기 기준 위치에서 측정된 기준 신호 품질에 관한 정보를 포함하고,
    상기 신호 품질 맵을 기반으로 차량의 주행 경로를 따라 상기 서버와 상기 무선 매체를 통해 통신하고;
    상기 주행 경로를 따라 상기 서버와의 통신을 위한 신호 품질을 측정 위치에서 측정 시간에 측정하고;
    상기 측정된 신호 품질를 기반으로 상기 신호 품질 맵을 업데이트하는 것을 포함하되,
    (i) 상기 측정된 신호 품질이 상기 기준 신호 품질과 다르고, (ii) 상기 측정 위치와 상기 기준 위치가 특정 거리 이내이고, (iii) 상기 기준 시간 보다 상기 측정 시간이 특정 시간 이후이면, 상기 기준 시간을 상기 측정 시간으로 업데이트하고, 상기 기준 신호 품질을 상기 측정된 신호 품질로 업데이트하는 것을 특징으로 하는 방법.
  2. 제 1 항에 있어서,
    상기 신호 품질 맵은 기준 센서의 정확도를 더 포함하고,
    상기 측정된 신호 품질에 사용된 센서의 정확도가 상기 기준 센서의 정확도 보다 높으면, 상기 신호 품질 맵이 업데이트되는 것을 특징으로 하는 방법.
  3. 제 1 항에 있어서,
    상기 측정된 신호 품질은 지연시간, 대역폭, GPS 정확도 및 신호 세기 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 방법.
  4. 제 1 항에 있어서,
    상기 업데이트된 신호 품질 맵을 상기 서버로 전송하는 것을 더 포함하는 것을 특징으로 하는 방법.
  5. 제 1 항에 있어서,
    상기 차량이 상기 주행경로를 따라 적어도 N 회 (N>1) 주행할 때 상기 신호 품질이 측정되는 것을 특징으로 하는 방법.
  6. 차량을 위한 제어 장치에 있어서,
    프로세서; 및
    상기 프로세서에 연결되어, 상기 프로세서에 의해 실행될 때 상기 차량이 기능을 수행하도록 하는 명령어를 저장하는 메모리를 포함하되, 상기 기능은
    서버로부터 무선 매체를 통해 신호 품질 맵을 수신하되, 상기 신호 품질 맵은 기준 위치, 기준 시간 및 상기 기준 시간에 상기 기준 위치에서 측정된 기준 신호 품질에 관한 정보를 포함하고,
    상기 신호 품질 맵을 기반으로 차량의 주행 경로를 따라 상기 서버와 상기 무선 매체를 통해 통신하고;
    상기 주행 경로를 따라 상기 서버와의 통신을 위한 신호 품질을 측정 위치에서 측정 시간에 측정하고;
    상기 측정된 신호 품질를 기반으로 상기 신호 품질 맵을 업데이트하는 것을 포함하되,
    (i) 상기 측정된 신호 품질이 상기 기준 신호 품질과 다르고, (ii) 상기 측정 위치와 상기 기준 위치가 특정 거리 이내이고, (iii) 상기 기준 시간 보다 상기 측정 시간이 특정 시간 이후이면, 상기 기준 시간을 상기 측정 시간으로 업데이트하고, 상기 기준 신호 품질을 상기 측정된 신호 품질로 업데이트하는 것을 포함하는 제어 장치.
  7. 제 6 항에 있어서,
    상기 신호 품질 맵은 기준 센서의 정확도를 더 포함하고,
    상기 측정된 신호 품질에 사용된 센서의 정확도가 상기 기준 센서의 정확도 보다 높으면, 상기 신호 품질 맵이 업데이트되는 것을 특징으로 하는 제어 장치.
  8. 제 6 항에 있어서,
    상기 측정된 신호 품질은 지연시간, 대역폭, GPS 정확도 및 신호 세기 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 제어 장치.
  9. 제 6 항에 있어서,
    상기 기능은 상기 업데이트된 신호 품질 맵을 상기 서버로 전송하는 것을 더 포함하는 것을 특징으로 하는 제어 장치.
  10. 제 6 항에 있어서,
    상기 차량이 상기 주행경로를 따라 적어도 N 회 (N>1) 주행할 때 상기 신호 품질이 측정되는 것을 특징으로 하는 제어 장치.
PCT/KR2020/004305 2020-03-30 2020-03-30 신호 품질을 고려한 맵을 생성하는 방법 및 이를 이용한 차량을 위한 장치 WO2021201308A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2020/004305 WO2021201308A1 (ko) 2020-03-30 2020-03-30 신호 품질을 고려한 맵을 생성하는 방법 및 이를 이용한 차량을 위한 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2020/004305 WO2021201308A1 (ko) 2020-03-30 2020-03-30 신호 품질을 고려한 맵을 생성하는 방법 및 이를 이용한 차량을 위한 장치

Publications (1)

Publication Number Publication Date
WO2021201308A1 true WO2021201308A1 (ko) 2021-10-07

Family

ID=77929291

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/004305 WO2021201308A1 (ko) 2020-03-30 2020-03-30 신호 품질을 고려한 맵을 생성하는 방법 및 이를 이용한 차량을 위한 장치

Country Status (1)

Country Link
WO (1) WO2021201308A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022208146A1 (de) 2022-08-04 2024-02-15 Continental Automotive Technologies GmbH Verfahren zum Durchführen einer Fahrzeug-zu-X-Kommunikation und Fahrzeug-zu-X-Kommunikationsmodul

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150197010A1 (en) * 2014-01-14 2015-07-16 Qualcomm Incorporated Connectivity maintenance using a quality of service-based robot path planning algorithm
US20170314940A1 (en) * 2012-08-31 2017-11-02 Apple Inc. Navigation system acquisition and use of cellular coverage map data
US20180348023A1 (en) * 2015-06-09 2018-12-06 Google Llc Sensor Calibration Based On Environmental Factors
US20190253957A1 (en) * 2017-06-26 2019-08-15 Clearpath Robotics Inc. Systems and Methods for WiFi Mapping in an Industrial Facility
US20200090504A1 (en) * 2017-06-07 2020-03-19 Nexar Ltd. Digitizing and mapping the public space using collaborative networks of mobile agents and cloud nodes

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170314940A1 (en) * 2012-08-31 2017-11-02 Apple Inc. Navigation system acquisition and use of cellular coverage map data
US20150197010A1 (en) * 2014-01-14 2015-07-16 Qualcomm Incorporated Connectivity maintenance using a quality of service-based robot path planning algorithm
US20180348023A1 (en) * 2015-06-09 2018-12-06 Google Llc Sensor Calibration Based On Environmental Factors
US20200090504A1 (en) * 2017-06-07 2020-03-19 Nexar Ltd. Digitizing and mapping the public space using collaborative networks of mobile agents and cloud nodes
US20190253957A1 (en) * 2017-06-26 2019-08-15 Clearpath Robotics Inc. Systems and Methods for WiFi Mapping in an Industrial Facility

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022208146A1 (de) 2022-08-04 2024-02-15 Continental Automotive Technologies GmbH Verfahren zum Durchführen einer Fahrzeug-zu-X-Kommunikation und Fahrzeug-zu-X-Kommunikationsmodul
DE102022208146B4 (de) 2022-08-04 2024-06-20 Continental Automotive Technologies GmbH Verfahren zum Durchführen einer Fahrzeug-zu-X-Kommunikation und Fahrzeug-zu-X-Kommunikationsmodul

Similar Documents

Publication Publication Date Title
US10176715B2 (en) Navigation system with dynamic mapping mechanism and method of operation thereof
US11940291B2 (en) Method for updating a map of the surrounding area, device for executing method steps of said method on the vehicle, vehicle, device for executing method steps of the method on a central computer, and computer-readable storage medium
KR102221321B1 (ko) 차량의 예상 주행 의도에 관한 정보를 제공하는 방법
US11835948B2 (en) Systems and methods for improving vehicle operations using movable sensors
US10821976B2 (en) Navigation system with dynamic speed setting mechanism and method of operation thereof
JPWO2016035199A1 (ja) 自動走行管理システム、サーバおよび自動走行管理方法
US11885893B2 (en) Localization based on predefined features of the environment
US11999372B2 (en) Operation of an autonomous vehicle based on availability of navigational information
US10560253B2 (en) Systems and methods of controlling synchronicity of communication within a network of devices
US20210043090A1 (en) Electronic device for vehicle and method for operating the same
WO2021201304A1 (ko) 자율주행을 보조하는 방법 및 장치
JP7172603B2 (ja) 信号処理装置、信号処理方法、およびプログラム
EP4083957A1 (en) Navigation system with traffic state detection mechanism and method of operation thereof
WO2021215559A1 (ko) 차량을 모니터링하는 방법 및 장치
WO2021201308A1 (ko) 신호 품질을 고려한 맵을 생성하는 방법 및 이를 이용한 차량을 위한 장치
US20210335130A1 (en) Vehicle system with a safety mechanism and method of operation thereof
KR20190107287A (ko) 차량용 전자 장치 및 그의 동작 방법
WO2021201305A1 (ko) 차량을 위한 통신 프로토콜을 변경하는 방법 및 장치
US11979805B2 (en) Control method, communication terminal, and communication system
WO2021201306A1 (ko) 차량에 의해 기록된 비디오를 전송하는 방법 및 장치
KR20210090301A (ko) 군집주행을 수행하는 차량 제어
WO2021201307A1 (ko) 차량에 의해 기록되는 비디오를 전송하는 방법 및 장치
US11990038B2 (en) Control device, moving body, control method, and storage medium
WO2023162733A1 (ja) 測距装置及び測距方法
US20230132421A1 (en) Method of recognizing stop line of autonomous vehicle

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20928512

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20928512

Country of ref document: EP

Kind code of ref document: A1