WO2019135537A1 - 차량의 지도 상의 위치를 보정하는 전자 장치 및 방법 - Google Patents

차량의 지도 상의 위치를 보정하는 전자 장치 및 방법 Download PDF

Info

Publication number
WO2019135537A1
WO2019135537A1 PCT/KR2018/016651 KR2018016651W WO2019135537A1 WO 2019135537 A1 WO2019135537 A1 WO 2019135537A1 KR 2018016651 W KR2018016651 W KR 2018016651W WO 2019135537 A1 WO2019135537 A1 WO 2019135537A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
map
electronic device
objects
distance
Prior art date
Application number
PCT/KR2018/016651
Other languages
English (en)
French (fr)
Inventor
김명식
임태규
문보석
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to EP18898350.6A priority Critical patent/EP3722173A4/en
Priority to US16/959,822 priority patent/US20200370894A1/en
Publication of WO2019135537A1 publication Critical patent/WO2019135537A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/072Curvature of the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle for navigation systems

Definitions

  • the present disclosure relates to an electronic apparatus and method for correcting a position on a map of a vehicle, and more particularly, to an electronic apparatus and method for correcting a position on a map of a vehicle based on a distance from an object located in the vicinity of the vehicle .
  • Some embodiments can provide an electronic device and method that can correct a position on a map of a vehicle by selecting at least one of a plurality of objects located in the vicinity of the vehicle and calculating a distance from the selected object.
  • some embodiments may provide an electronic device and method capable of correcting a position on a map of a vehicle, which can select at least one of a plurality of objects located in the periphery of the vehicle according to a predetermined priority.
  • some embodiments may provide an electronic device and method that can determine whether to correct a position on a map of a vehicle by sensing a plurality of objects located in the vicinity of the vehicle.
  • FIG. 1 is an illustration showing an example in which an electronic device of a vehicle according to some embodiments corrects a vehicle position on a map using a plurality of objects on the road.
  • FIG. 2 is a flow diagram of a method for an electronic device according to some embodiments to correct position on a map of a vehicle.
  • FIG. 3 is a flowchart of a method for an electronic device according to some embodiments to select an object to be used for position correction among a plurality of objects in the vicinity of the vehicle.
  • FIG. 4 is a diagram illustrating an example in which an electronic device according to some embodiments photographs and detects a plurality of objects located in the vicinity of a vehicle.
  • FIGS. 5 and 6 are diagrams illustrating an example in which an electronic device according to some embodiments detects a plurality of objects located in the periphery of a vehicle based on a sensing signal reflected from an object.
  • FIG. 7 is a flowchart of a method for an electronic device according to some embodiments to select objects to be used for position correction among a plurality of objects located in the vicinity of the vehicle in accordance with a predetermined priority.
  • FIG. 8 is a diagram illustrating an example in which an electronic device determines a priority for object selection in the absence of a peripheral object around an object to be used for position correction, according to some embodiments.
  • FIG. 9 is a diagram illustrating an example in which an electronic device determines a priority for object selection when there are a large number of peripheral objects in the vicinity of an object to be used for position correction, according to some embodiments.
  • FIG. 10 is a flowchart of a method for determining whether an electronic device according to some embodiments will correct the position of a vehicle.
  • FIG. 11 is a diagram showing an example of a case where an electronic device according to some embodiments decides to correct the position of a vehicle.
  • FIG. 12 is a diagram showing an example of a case where the electronic device according to some embodiments does not correct the position of the vehicle.
  • FIG. 13 is a flow diagram of a method for an electronic device according to some embodiments to correct position of a vehicle using map information.
  • FIG 14 is an illustration showing an example in which an electronic device according to some embodiments corrects the position of the vehicle according to the passage of time.
  • 15 is a flow chart of a method by which an electronic device corrects the position of a vehicle when the vehicle is traveling on a straight road in accordance with some embodiments.
  • 16 is a diagram showing an example in which, when the vehicle is traveling on a straight road, the electronic device calculates a distance value to be positionally corrected according to some embodiments.
  • 17 is a flow chart of a method by which an electronic device corrects the position of a vehicle when the vehicle is traveling on a curved road in accordance with some embodiments.
  • Fig. 18 is a diagram showing an example in which, when a vehicle according to some embodiments is traveling on a curved road, the electronic device calculates a distance value to be positionally corrected. Fig.
  • Fig. 19 is a view showing an example in which, when the vehicle 1000 according to some embodiments is traveling on a straight road, the electronic device selects a plurality of objects for position correction of the vehicle, and based on the distance from the selected plurality of objects, Fig. 7 is a diagram showing an example of changing the position of the image.
  • the electronic device selects a plurality of objects for position correction of the vehicle, ) On the map.
  • Figure 21 is a flow diagram of a method by which an electronic device according to some embodiments corrects the position of a vehicle in a plurality of directions.
  • 22 is an illustration of a hardware block diagram of an electronic device according to some embodiments.
  • 23 and 24 are examples of block diagrams of hardware of an electronic device and a vehicle according to some embodiments.
  • a first aspect of the present disclosure is a position measuring apparatus for obtaining position information of a vehicle; An imaging device for generating a photographed image by photographing a plurality of objects located in the periphery of the vehicle; A sensor for emitting a sensing signal towards the periphery of the vehicle and receiving a reflected sensing signal from the plurality of objects; And determining a position on the map of the vehicle based on the positional information, selecting at least one of the plurality of objects in the captured image, and determining, based on the reflected sensing signal, And a processor for calculating a first distance and correcting a position on the map of the vehicle based on the calculated first distance.
  • a second aspect of the present disclosure provides a method for controlling a vehicle, comprising: determining a position on a map of the vehicle using a position measuring device; Obtaining a shot image by shooting a plurality of objects located in the vicinity of the vehicle; Transmitting a sensing signal toward the periphery of the vehicle; Receiving a reflected sensing signal from the plurality of objects; Selecting at least one of the plurality of objects in the captured image; Calculating a first distance between the selected object and the vehicle based on the reflected sensing signal; And correcting a position on the map of the vehicle based on the calculated first distance.
  • the present invention also provides a method of correcting a position on a map of a running vehicle.
  • the third aspect of the present disclosure can also provide a computer-readable recording medium for causing a computer to execute the method of the second aspect.
  • the object on the road can be an object located in front of or around the vehicle under running, for example, including, but not limited to, a traffic light, a sign and an elevated road.
  • FIG. 1 is an illustration showing an example in which an electronic device 100 of a vehicle 1000 according to some embodiments corrects a vehicle position on a map using a plurality of objects on the road.
  • an electronic device 100 in a vehicle 1000 identifies a plurality of objects 10,12, 14 located in the vicinity of a running vehicle 1000 and includes a plurality of objects 10,12
  • the position of the vehicle 1000 on the map 16 used by the electronic device 100 may be corrected based on the distance between the at least one object of the vehicle 1000 and the vehicle 1000.
  • the electronic device 100 can photograph a plurality of objects 10,12 and 14 located in the vicinity of the vehicle 1000 and can detect a plurality of objects 10,12 and 14 using a distance sensor have.
  • the electronic device 100 may also be configured to select at least one of the plurality of objects 10,12 and 14 and to display the vehicle 1000 displayed on the road on the map 16 based on the distance between the selected object and the vehicle & Can be corrected.
  • the object selected by the electronic device 100 may be an object corresponding to a landmark and an object registered as a landmark located around the current position of the vehicle 1000 on the map used by the electronic device 100 .
  • the electronic device 100 may also use a distance sensor to determine whether to correct the position of the vehicle 1000 based on the reliability of the plurality of objects 10,12, Accordingly, the electronic device 100 can more accurately correct the position of the vehicle 1000 by using an object that is highly reliable among the plurality of objects 10, 12, and 14. [
  • the electronic device 100 can transmit and receive data used for correcting the position of the vehicle 1000 on the map to and from the server 2000 via the network.
  • the server 2000 may include a communication unit (not shown), a processor (not shown), and a storage unit (not shown) and may include an electronic device 100, And transmits and receives data for correcting the position on the map of the vehicle 100 with the electronic device 100.
  • the electronic device 100 may be a device that controls the operation of the vehicle 1000, and may be, for example, a head unit of the vehicle 1000.
  • the electronic device 100 may also be an electronic device connected to the head unit of the vehicle 1000 and may be an electronic device such as a smart phone, a tablet PC, a PC, a smart TV, a mobile phone, a personal digital assistant (PDA) Box devices, media players, micro servers, navigations, and other mobile or non-mobile computing devices.
  • the electronic device 100 may be a wearable device such as a watch, a pair of glasses, a hair band, and a ring having a communication function and a data processing function.
  • the electronic device 100 may include any kind of device capable of detecting an object in front of the vehicle 1000 and correcting the position of the vehicle 1000 on the map.
  • the electronic device 100 can be connected to the head unit of the vehicle 1000 via wire / wireless communication.
  • the electronic device 100 may be a Wi-Fi, a Bluetooth, a Bluetooth low energy, a ZigBee, a Wi-Fi Direct, an ultra wideband (UWB) infrared data association (NFC), Near Field Communication (NFC), or the like.
  • UWB ultra wideband
  • NFC Near Field Communication
  • the present invention is not limited thereto.
  • the network includes a local area network (LAN), a wide area network (WAN), a value added network (VAN), a mobile radio communication network, a satellite communication network, And is a data communication network having a comprehensive meaning for allowing the constituent members necessary for the implementation of the present disclosure to communicate with each other smoothly, and may include a wired Internet, a wireless Internet, and a mobile wireless communication network.
  • LAN local area network
  • WAN wide area network
  • VAN value added network
  • mobile radio communication network a satellite communication network
  • satellite communication network And is a data communication network having a comprehensive meaning for allowing the constituent members necessary for the implementation of the present disclosure to communicate with each other smoothly, and may include a wired Internet, a wireless Internet, and a mobile wireless communication network.
  • FIG. 2 is a flow diagram of a method for an electronic device 100 in accordance with some embodiments to correct position on a map of the vehicle 1000.
  • FIG. 2 is a flow diagram of a method for an electronic device 100 in accordance with some embodiments to correct position on a map of the vehicle 1000.
  • the electronic device 100 can photograph a plurality of objects located in the vicinity of the vehicle 1000.
  • the electronic device 100 can shoot a plurality of objects by controlling the imaging device facing the periphery of the vehicle 1000.
  • the imaging apparatus may be implemented in a fixed form in the vehicle 1000, or may be implemented in the vehicle 1000 such as a terminal or a robot.
  • the imaging device may include, for example, but not limited to, an image sensor and a camera, and may include various devices capable of imaging a subject.
  • the camera for photographing a plurality of objects may be a camera installed in the vehicle 1000 at the time of manufacturing the vehicle 1000, but is not limited thereto.
  • the camera for photographing a plurality of objects may be a camera installed in the vehicle by a user, in which case the electronic device 100 may control the camera after it is communicatively connected to the camera.
  • the camera may include, but is not limited to, a camera of a black box device and a camera of a smart phone.
  • the electronic device 1000 can photograph the front, side, or rear of the vehicle 1000 by controlling the camera, and the camera can be a portable camera, a rotary camera, or a fixed camera.
  • the image photographed by the imaging device may include, but is not limited to, for example, a 2D image, a 3D image, a panoramic image, and a stitching image.
  • the plurality of objects may be an object located in the vicinity of the vehicle 1000 and may include a predetermined kind of object used for position correction of the vehicle 1000 and surrounding objects that interfere with the position correction of the vehicle 1000 .
  • a predetermined type of object used for position correction of the vehicle 1000 may be an object included in a map around the road on which the vehicle is traveling and a peripheral object that interferes with the correction of the position of the vehicle 1000 is a road on which the vehicle is traveling It may be an object not included in the surrounding map.
  • objects of a predetermined kind used for positional correction of the vehicle 1000 may include, but are not limited to, signs, traffic lights, elevated roads and overpasses.
  • a predetermined kind of object used for position correction of the vehicle 1000 may be a sign registered in the peripheral area of the current position of the vehicle 1000 on the map used by the electronic device 100, Traffic lights, elevated roads, and overpasses.
  • a peripheral object that interferes with the position correction of the vehicle 1000 may be an object that prevents the electronic device 100 from recognizing the object used for position correction of the vehicle 1000, but is not limited to, other vehicles located in front of the vehicle 1000, people, roadside trees, and guard rails.
  • a map used by the electronic device 100 may be stored in a storage device (not shown) in the vehicle 1000, a memory in the electronic device 100, and a predetermined server (not shown) But is not limited thereto.
  • the electronic device 100 can transmit a sensing signal toward the periphery of the vehicle 1000 and receive the sensing signal reflected from the plurality of objects.
  • the electronic device 100 can irradiate a signal for sensing a plurality of objects toward the front of the vehicle 1000 using a distance sensor while photographing a plurality of objects located in front of the vehicle 1000.
  • the electronic device 100 may receive a reflected signal from a plurality of objects located in front of the vehicle 100.
  • the distance sensor may be a sensor used to sense an object in front of the vehicle 1000 and to calculate a distance to the object and may include, for example, a radar sensor, a rider sensor, and an ultrasonic sensor Do not.
  • the electronic device 100 may select at least one of a plurality of objects according to a predetermined criterion.
  • the electronic device 100 may identify a plurality of objects from an image of a plurality of objects.
  • the electronic device 100 can select an object to be used for position correction among a plurality of identified objects and select an object having a high reliability according to a predetermined reference.
  • the electronic device 1000 can distinguish objects included in a map around the road on which the vehicle is running and objects not included in the map around the road on which the vehicle is running from the image of the plurality of objects.
  • the electronic device 1000 acquires the map information around the road on which the vehicle is running, and compares the object registered in the vicinity of the vehicle with the object in the photographed image based on the obtained map information, Among the objects included in the map and the objects not included in the map.
  • the object included in the map around the road on which the vehicle is traveling may be an object used to correct the position of the vehicle 1000 and an object not included in the map around the road on which the vehicle is traveling may be a position It may be a surrounding object that interferes with the correction.
  • the electronic device 100 may select at least one of the plurality of objects based on the reflected signals from the plurality of objects.
  • the electronic device 100 can identify a predetermined type of object that can be used for position correction of the vehicle 1000 among a plurality of objects by comparing the reflected signal and the shot image.
  • the electronic device 100 can select an object to be used for position correction among a plurality of objects in consideration of the shape of a road when photographing a plurality of objects, the type of a distance sensor used for sensing a plurality of objects, and the like. In addition, the electronic device 100 can select an object to be used for position correction among a plurality of objects based on a predetermined priority.
  • a method for the electronic device 100 to select an object to be used for position correction among a plurality of objects will be described later.
  • the electronic device 100 may calculate a first distance between the selected object and the vehicle 1000 using a distance sensor.
  • the electronic device 100 may use a distance sensor to emit a signal toward a plurality of objects around the vehicle 1000 and receive the reflected signal from the plurality of objects.
  • the emission of the signal and the reception of the reflected signal can be performed together by the electronic device 100, while shooting a plurality of objects through the camera.
  • the electronic device 100 can identify signals reflected from a selected one of the signals reflected from the plurality of objects, and calculate a first distance between the selected object and the vehicle 1000 based on the identified signals have.
  • the electronic device 100 can correct the position on the map of the vehicle 1000 in operation S240. To this end, the electronic device 100 may obtain a second distance between a location on the map of the vehicle 1000 and a location on the map of the selected object, based on the map information and the time at which the plurality of objects were photographed.
  • the map information may include information related to the road on which the vehicle 1000 travels, and may include information on the shape of the road on which the vehicle 1000 travels, the terrain of the road, have. Also, for example, the map information may include information about the inclination of the road, the curvature of the road, the lane width, the structure around the road, and the like.
  • the electronic device 100 can confirm the position on the map of the vehicle 1000 corresponding to the time at which the plurality of objects were photographed from the map information.
  • the position on the map of the vehicle 1000 can be determined by the GPS value indicating the position of the vehicle 1000 when the plurality of objects are photographed. Further, the position on the map of the vehicle 1000 may be obtained using an IMU (Inertial Measurement Unit) apparatus. In addition, the location on the map of the vehicle 1000 may be obtained based on information about base stations communicatively coupled to the electronic device 100.
  • IMU Inertial Measurement Unit
  • the electronic device 100 can confirm the position on the map of the selected object in a map indicating the vicinity of the place where the vehicle 1000 is located at the time of photographing the plurality of objects.
  • the electronic device 100 also calculates a second distance between a position on the map of the vehicle 1000 and a position on the map of the selected object using the position value on the map of the vehicle 1000 and the position value on the map of the selected object can do.
  • the electronic device 100 can correct the position on the map of the vehicle 1000 based on the first distance and the second distance. In this case, the electronic device 100 can correct the position of the vehicle 1000 in consideration of the shape of the road on which the vehicle 1000 traveled when photographing a plurality of objects.
  • the position of the vehicle 1000 is corrected based on the time at which the electronic device 100 photographs a plurality of objects, but the present invention is not limited thereto.
  • the electronic device 100 may be configured to determine the time at which the electronic device 100 photographed a plurality of objects, the time at which the electronic device 100 emitted a signal using the distance sensor, The position of the vehicle 1000 can be corrected based on at least one of the times at which the signal reflected from the vehicle 1000 is received.
  • the time at which the electronic device 100 emits the signal using the distance sensor and the time at which the electronic device 100 receives the signal reflected from the object using the distance sensor are substantially the same can do.
  • the electronic device 100 can correct the position on the map of the vehicle 1000 in consideration of the difference.
  • FIG. 3 is a flow diagram of a method for an electronic device 100 according to some embodiments to select an object to be used for position correction, among a plurality of objects in the vicinity of the vehicle 1000.
  • the electronic device 100 may photograph a plurality of objects located in the vicinity of the vehicle 1000.
  • the electronic device 100 may photograph a plurality of objects located in front of the vehicle 1000 using the camera in the electronic device 100 or a camera connected to the electronic device 100.
  • the electronic device 100 can distinguish among a plurality of objects a nearby object and a predetermined object used for position correction of the vehicle 1000. [ The electronic device 100 can distinguish and identify an object used for positional correction of the vehicle 1000 and a surrounding object that interferes with the positional correction of the vehicle 1000 in an image obtained by photographing a plurality of objects.
  • the electronic device 100 may estimate an object used for position correction of the vehicle 1000 among a plurality of objects, based on the signals reflected from the plurality of objects.
  • the electronic device 100 can estimate an object used for positional correction by comparing an image of a plurality of objects with objects detected from signals reflected from the plurality of objects.
  • the electronic device 100 when there are many peripheral objects that obstruct the positional correction of the vehicle 1000 around the object used for position correction of the vehicle 1000, the electronic device 100 does not identify the object used for position correction It may not be possible. Further, an example in which the electronic device 100 identifies an object used for position correction will be described in more detail in FIGS. 5 and 6. FIG.
  • the electronic device 100 can identify the type of object used for position correction of the vehicle 1000.
  • the electronic device 100 may be configured to detect the position of an object used for position correction of the vehicle 1000 based on at least one of an image of a plurality of objects and a signal (e.g., sensing data)
  • the type can be judged.
  • the electronic device 100 can determine whether the object used to correct the position of the vehicle 1000 is a signboard, a traffic light, a pedestrian bridge, or the like. In this case, when there are many peripheral objects that interfere with the positional correction of the vehicle 1000 around the object used to correct the position of the vehicle 1000, the electronic device 100 determines the type of the object It may not be judged.
  • the electronic device 100 can identify the shape of the road on which the vehicle 1000 traveled when a plurality of objects were photographed.
  • the electronic device 100 uses the map information about the position of the vehicle 1000 at the time of shooting the plurality of objects and the image of the plurality of objects, The shape of the road can be judged.
  • the electronic device 100 may determine whether the road is a straight road or a curved road.
  • the electronic device 100 can determine the curvature of the curved road.
  • the electronic device 100 may identify the type of distance sensor used for position correction.
  • the electronic device 100 can identify the object located in the vicinity of the vehicle 1000 and identify the type of distance sensor used to calculate the distance to the object.
  • the electronic device 100 may determine whether a radar sensor, a rider sensor, or an ultrasonic sensor is used for position correction of the vehicle 1000, but the present invention is not limited thereto.
  • the electronic device 100 may select at least one of a plurality of objects.
  • the electronic device 100 may select at least one of the plurality of objects for position correction of the vehicle 1000 according to various criteria, based on at least one of operations S310 to S340.
  • the electronic device 100 can select an elevated road located in front of the vehicle 1000 while traversing the road in which the vehicle is traveling. Further, for example, in a case where a lot of avengers are on the outside of the road on which the vehicle 1000 is traveling, and there are many other vehicles in front of the vehicle 1000, the vehicle 1000 can select the sign placed inside the road.
  • the example in which the vehicle 1000 selects an object to be used for position correction is not limited thereto.
  • FIG. 4 is a diagram illustrating an example in which an electronic device 100 according to some embodiments photographs and senses a plurality of objects located in front of the vehicle 1000.
  • the electronic device 100 photographs the front of the vehicle 1000 and displays the traffic lights 40, traffic signs 42, The route map 44 can be detected.
  • the electronic device 100 controls the camera and controls the sensor of the vehicle 1000 while shooting the front of the vehicle 1000 to detect the traffic light 40, the traffic sign 42 and the bus route map 44 So that the sensing signal can be emitted toward the front of the vehicle 1000.
  • the point of time when the camera 1000 captures the front of the vehicle 1000, the time point when the sensing signal is emitted toward the front of the vehicle 1000, and the time point when the sensing signal reflected from the object is received may be substantially the same.
  • Figures 5 and 6 are diagrams illustrating an example in which an electronic device 100 according to some embodiments detects a plurality of objects located in front of the vehicle 1000 based on a sensed image and a sensing signal reflected from the object.
  • the electronic device 100 uses a predetermined distance sensor while photographing the front of the vehicle 1000 So that the front of the vehicle 1000 can be sensed.
  • the elevated road 51, the sign 52, and the traffic light 53 can be positioned in front of the vehicle 1000.
  • the electronic device 100 can emit a sensing signal toward the front of the vehicle 1000 while photographing the front of the vehicle 1000 and can detect the reflection from the high road 51, the sign 52, A sensing signal can be received.
  • the electronic device 100 can identify a plurality of objects located in front of the vehicle 1000 based on the photographed image and map information.
  • the electronic device 100 can extract a plurality of objects in the photographed image by analyzing the photographed images and compare the extracted plurality of objects with the object information registered in the map information to identify a plurality of extracted objects have.
  • the electronic device 100 may also generate a graph 55 for displaying the position in the front region of the vehicle 1000 as a position corresponding to the received sensing signal by analyzing the received sensing signal.
  • the electronic device 100 further includes an area 56 representing a sensing signal reflected from the elevated road 51 in the graph 55 by comparing the image taken in front of the vehicle 1000 and the graph 55, It is possible to distinguish the area 58 representing the sensing signal reflected from the signal line 53 and the area 59 representing the sensing signal reflected from the sign 52.
  • the electronic device 100 can calculate the distance between the vehicle 1000 and the elevated road 51 based on the sensing signal corresponding to the area 56. [ The electronic device 100 can also calculate the distance between the vehicle 1000 and the traffic light 53 based on the sensing signal corresponding to the area 58. [ The distance between the vehicle 1000 and the sign 52 can be calculated based on the sensing signal corresponding to the area 59. [
  • the electronic device 100 may selectively transmit at least one of the distance between the vehicle 1000 and the elevated road 51, the distance between the vehicle 1000 and the traffic light 53, and the distance between the vehicle 1000 and the sign 52 Can be calculated.
  • the electronic device 100 can select an object to be used for the distance calculation based on a predetermined reliability according to the type and position of the object.
  • the electronic device 100 is provided with the high-altitude road 51, the sign 52, and the high-altitude road 51 because the high-altitude road 51 that crosses in the direction perpendicular to the traveling direction of the road in which the vehicle 1000 travels is the highest.
  • the highway 51 can be selected from among the traffic lights 53 and the traffic lights 53 and the distance between the highway 51 and the vehicle 1000 can be calculated.
  • the electronic device 100 may calculate the distance between the elevated road 51, the distance between the vehicle 1000 and the traffic light 53, and the distance between the vehicle 1000 and the sign 52 in advance.
  • the high-altitude road 51 is selected from the high-altitude road 51, the sign 52 and the traffic light 53, The distance between the highway 51 and the vehicle 1000 can be selected.
  • the electronic device 100 senses the front of the vehicle 1000 using a predetermined distance sensor .
  • the elevated road 51, the sign 52, and the traffic light 53 may be located in front of the vehicle 1000, Other vehicles may be located around the vehicle.
  • the other vehicles in the vicinity of the highway 51 and the traffic light 53 may not be the objects registered on the map but may be objects that can not confirm the location from the map information so that they may obstruct the location correction of the vehicle 1000 .
  • the electronic device 100 photographs the front of the vehicle 1000 and acquires objects 61, 62 (registered in the map) among the plurality of objects located in front of the vehicle 1000 based on the photographed image and map information , 65).
  • the electronic device 100 can extract a plurality of objects in the photographed image by analyzing the photographed image.
  • the electronic device 100 compares the extracted objects with the object information registered in the map information so that the objects (61, 62, 65) registered in the map among the plurality of objects and the other objects Can be distinguished.
  • the electronic device 100 may also emit a sensing signal toward the front of the vehicle 1000 and may include sensing signals reflected from the elevated road 51, the sign 52, the traffic light 53, .
  • the electronic device 100 may also generate a graph 65 for displaying the position in the front region of the vehicle 1000 as a position corresponding to the received sensing signal, by analyzing the received sensing signal.
  • the electronic device 100 also identifies an area 66 representing the sensing signal reflected from the signboard 52 in the graph 65 by comparing the image taken in front of the vehicle 1000 and the graph 65 .
  • the electronic device 100 can display an area representing the sensing signal reflected from the elevated road 51 from the graph 66, 53 may not be able to identify an area representing the reflected sensing signal. In this case, the electronic device 100 can select the sign 62 and calculate the distance between the vehicle 1000 and the sign 62 based on the sensing signal corresponding to the area 66.
  • the electronic device 100 determines whether or not the objects 61 (62, 65) are registered based on whether or not other vehicles not registered in the map are located around the objects 61, 62, 65 registered in the map in the captured image, , 62, and 65, the sign board 62 may be selected.
  • FIG. 7 is a flowchart of a method for an electronic device 100 according to some embodiments to select an object to be used for position correction among a plurality of objects located in the vicinity of the vehicle 1000 according to a predetermined priority.
  • the electronic device 100 may photograph a plurality of objects located in the periphery of the vehicle 1000, and in operation S710, the electronic device 100 may, among a plurality of objects, It is possible to distinguish the objects used for positional correction of the neighboring object and the vehicle 1000.
  • the electronic device 100 may determine a priority of an object used for position correction of the vehicle 1000, according to a predetermined criterion.
  • the electronic device 100 can determine the priority of the object so as to more accurately correct the position of the vehicle 1000.
  • the criteria for determining the priority of an object can be preset in consideration of various situations. Considering, for example, the size of the object, the position of the object on the road, the shape of the road, the slope of the road, the curvature of the road and the relative position of the object with respect to the vehicle 1000, have. For example, if the size of an object is large, the object can have a high priority. Also, for example, when it is determined that the number of neighboring objects that interfere with the position correction around the object is small, the priority of the object may be high. Also, for example, if an imaginary line connecting from the vehicle 1000 to an object is parallel to the road, the object may have a high priority. In addition, for example, when an imaginary line representing the distance from the vehicle 1000 to the object is parallel to the running direction of the vehicle 1000, the object may have a high priority.
  • the electronic device 100 may select at least one of the objects used for position correction of the vehicle 1000, based on the determined priority. In order to more accurately correct the position of the vehicle 1000, the electronic device 100 can select a plurality of objects to be used for position correction of the vehicle 1000.
  • FIG 8 is a diagram illustrating an example in which the electronic device 100 determines a priority for object selection in the absence of a peripheral object in the vicinity of an object to be used for position correction, according to some embodiments.
  • the electronic device 100 photographs the front of the vehicle 1000 and displays the front of the vehicle 1000 in front of the vehicle 1000, To emit a sensing signal.
  • the electronic device 100 may also detect a traffic light 80, a traffic sign 82, and a bus route map 84 located in front of the vehicle 1000.
  • the electronic device 100 is arranged such that the signal lamp 80 lies across the road in a direction perpendicular to the direction of travel of the road, and a virtual line connecting the vehicle 1000 and the traffic light 80 is directed in the direction of the road It is possible to judge the closest to parallel. Accordingly, the electronic device 100 can determine the priority of the signal lamp 80 to be '1'.
  • the electronic device 100 can determine that the imaginary line connecting the vehicle 1000 and the bus route diagram 84 is closest to the direction of the road, May determine the priority of the bus route map 84 to be '3'.
  • FIG. 9 is a diagram illustrating an example in which the electronic device 100 determines a priority for object selection when there are many nearby objects around the object to be used for position correction, according to some embodiments.
  • the electronic device 100 photographs the front of the vehicle 1000 and displays the front of the vehicle 1000 in front of the vehicle 1000 on the road when there are many other vehicles obstructing the position correction To emit a sensing signal.
  • the electronic device 100 can not accurately calculate the distance between the vehicle 1000 and the signal lamp 90 due to other vehicles located in the vicinity of the signal lamp 90 and the reliability of the signal lamp 90 is low, May decide not to use the signal lamp 90 for position correction.
  • the electronic device 100 determines the priority of the signboard 92 having fewer other nearby vehicles to be '1' and the priority of the bus route map 94 having a relatively large number of other vehicles around it to '2' You can decide.
  • FIG. 10 is a flow diagram of a method for determining whether an electronic device 100 according to some embodiments will correct the position of the vehicle 1000.
  • the electronic device 100 can set a period for correcting the position of the vehicle 1000.
  • the electronic device 100 can set a period for correcting the position of the vehicle 1000 based on the user input.
  • the electronic device 100 may automatically set a period for correcting the position of the vehicle 1000 based on various situations related to the vehicle 1000.
  • a period for correcting the position of the vehicle 1000 may be set in consideration of the traffic situation of the road, the weather, the temperature, and the speed of the vehicle 1000 and the like.
  • the electronic device 100 can photograph the periphery of the vehicle 1000 according to the set period.
  • the electronic device 100 can periodically photograph the periphery of the vehicle 1000 by controlling the camera toward the periphery of the vehicle 1000.
  • the electronic device 100 can sense the periphery of the vehicle 1000 using the distance sensor.
  • the electronic device 100 may emit a sensing signal for sensing the periphery of the vehicle 1000 while photographing the periphery of the vehicle 1000.
  • the electronic device 100 identifies a plurality of objects from the photographed image of the periphery of the vehicle 1000, and in operation S1020, the electronic device 100 determines the type of the distance sensor emitting the sensing signal toward the plurality of objects Can be identified.
  • the electronic device 100 may determine the number of objects to be used for position correction.
  • the electronic device 100 is used for correcting the position of the vehicle 1000 among a plurality of photographed objects based on whether or not a peripheral object that interferes with position correction exists around the object to be used for position correction of the vehicle 1000 You can select objects to be In this case, the electronic device 100 can select an object to be used for position correction of the vehicle 1000, based on the reliability as to whether the distance between the object and the vehicle 1000 can be accurately calculated. In addition, the electronic device 100 can count the number of objects to be used for position correction.
  • the electronic device 100 may determine the type of object to be used for position correction. For example, the electronic device 100 can determine whether the object to be used for position correction is expensive, whether it is a sign, a building, or a bus route map. The electronic device 100 may determine an attribute of an object to be used for position correction. For example, the electronic device 100 can determine the size of the object, the position of the object on the road, the relative position of the object with respect to the vehicle 1000, and the like.
  • the electronic device 100 may determine whether to correct the position of the vehicle 1000.
  • the electronic device 100 can determine whether to correct the position of the vehicle 1000 based on the operation S1020 to operation S1030. In this case, the electronic device 100 can determine whether to correct the position of the vehicle 1000 based on the reliability as to whether or not the position of the vehicle 1000 can be accurately corrected. For example, the electronic device 100 considers the reliability of the object, the shape of the road, the slope of the road, the location of the vehicle 1000 on the road, the number of surrounding vehicles, the relative position between the road and the vehicle 1000 Thereby correcting the position of the vehicle 1000. [
  • the electronic device 100 determines to correct the position of the vehicle 1000 as a result of the determination in operation S1040, the electronic device 100 can correct the position of the vehicle 1000 in operation S1050.
  • the electronic device 100 determines the position of the vehicle 1000 without correcting the position of the vehicle 1000, It is possible to wait for the position correction of the position.
  • the electronic device 100 may wait to correct the position of the vehicle 1000 in the next cycle according to the set cycle.
  • Fig. 11 is a diagram showing an example of a case where the electronic device 100 according to some embodiments decides to correct the position of the vehicle 1000. Fig.
  • the electronic device 100 photographs the front of the vehicle 1000 and detects the position of the vehicle 1000 in the case where there are not many other vehicles in front of the vehicle 1000 running on the road, The sensing signal can be emitted toward the front.
  • the electronic device 100 can not calculate the distance between the vehicle 1000 and the traffic light 112 due to other vehicles located in front of the vehicle 1000. [ However, the electronic device 100 can determine that the distance between the vehicle 1000 and the sign 104 and the distance between the vehicle 1000 and the bus route 106 can be calculated.
  • the vehicle 1000 accurately calculates the distance between the vehicle 1000 and the object in consideration of at least one of the type of the sensor that emitted the sensing signal toward the front, the number of objects for position correction, and the type of the object It is possible to judge whether it is possible.
  • the electronic device 100 can decide to correct the position of the vehicle 1000.
  • Fig. 12 is a diagram showing an example of a case where the electronic device 100 according to some embodiments does not correct the position of the vehicle 1000. Fig.
  • the electronic device 100 photographs the front of the vehicle 1000, To emit a sensing signal.
  • the electronic device 100 Due to the different vehicles and street numbers located in front of the vehicle 1000, the electronic device 100 is able to determine the distance between the vehicle 1000 and the traffic light 102, the distance between the vehicle 1000 and the sign 104, ) And the bus route map 106 can not be accurately calculated, the electronic device 100 can decide not to correct the position of the vehicle 1000.
  • FIG. 13 is a flowchart of a method for an electronic device 100 according to some embodiments to correct the position of the vehicle 1000 using map information.
  • the electronic device 100 can photograph the periphery of the vehicle 1000 and measure the first distance.
  • the electronic device 100 may emit a sensing signal toward the periphery of the vehicle 1000 while sensing the periphery of the vehicle 1000 and receive a sensing signal reflected from the object.
  • the electronic device 100 may calculate a first distance between the vehicle 1000 and the object based on the emitted and received sensing signal.
  • the electronic device 100 can confirm the time at which the surroundings of the vehicle 1000 are photographed.
  • the time at which the periphery of the vehicle 1000 is photographed, the time at which the sensing signal is emitted, and the time at which the sensing signal is received may be substantially the same.
  • the electronic device 100 can acquire map information on the periphery of the point where the vehicle 1000 was located at the identified time.
  • the electronic device 100 can acquire the map information on the peripheral map of the point where the vehicle 1000 is located at the identified time based on the confirmed time.
  • the electronic device 100 may extract map information from the memory of the electronic device 100.
  • the electronic device 100 may receive the map information from another device or server 2000 that is associated with the electronic device 100.
  • the electronic device 100 may obtain positional information indicating a point at which the vehicle 1000 is located at the identified time.
  • the location information may include, but is not limited to, GPS values, coordinate values on a map, for example.
  • the electronic device 100 may obtain a second distance from the map information.
  • the electronic device 100 obtains a second distance from the location of the vehicle 1000 on the map to the object on the map based on the location on the map of the object and the location on the map where the vehicle 1000 was located at the identified time .
  • the electronic device 100 can correct the position of the vehicle 1000 based on the first distance and the second distance.
  • the electronic device 100 is capable of controlling the vehicle 1000 in consideration of the first distance, the second distance, the shape of the road, the inclination of the road, the position of the vehicle 1000 on the road, the relative position between the road and the vehicle 1000, Can be corrected.
  • the electronic device 100 can correct the position of the vehicle 1000 along the running direction of the vehicle 1000. [
  • the electronic device 100 can correct the position of the vehicle 1000 along the front-rear direction of the vehicle 1000. [
  • FIG. 14 is a diagram showing an example in which the electronic device 100 according to some embodiments corrects the position of the vehicle 1000 according to the passage of time.
  • the electronic device 100 can sense the front of the vehicle 1000 while photographing the front of the vehicle 1000, and at time t1 the electronic device 100 determines whether to correct the position of the vehicle 1000 .
  • the electronic device 100 can select an object to be used for position correction among a plurality of objects in front of the vehicle 1000, and at a time t3, the electronic device 100 determines a first distance Can be obtained.
  • the first distance may be calculated during the time from t0 to t3, but is not limited thereto.
  • the electronic device 100 can acquire the map information of the point where the vehicle 1000 is located at time t0.
  • the electronic device 100 can acquire a second distance on the map between the vehicle 1000 and the object at time t0, and at time t6, the electronic device 100 can obtain the current distance on the map of the vehicle 1000 The position can be corrected.
  • the electronic device 100 can correct the current position on the map of the vehicle 1000 by applying the position correction value of the vehicle 1000 calculated based on the time t0 to the current position of the vehicle 1000.
  • 15 is a flowchart of a method by which electronic device 100 corrects the position of vehicle 1000 when vehicle 1000 is traveling on a straight road, in accordance with some embodiments.
  • electronic device 100 may obtain a first distance, and in operation S1510, electronic device 100 may obtain a second distance.
  • the electronic device 100 may obtain the difference between the first distance and the second distance, and in operation S1540, the electronic device 100 determines the difference between the first distance and the second distance, The position can be corrected.
  • the electronic device 100 determines the angle of the vehicle 1000 by considering the angular value between the imaginary line connecting the object and the straight road, The position can be corrected. Further, when the straight road is inclined, the electronic device 100 may correct the position of the vehicle 1000 in consideration of the inclination of the straight road.
  • 16 is a diagram showing an example in which the electronic device 100 calculates a distance value to be positionally corrected when the vehicle 1000 according to some embodiments is traveling on a straight road.
  • the electronic device 100 can measure the first distance d1 between the vehicle 1000 and the object 160 when the vehicle 1000 is traveling on a straight road.
  • the electronic device 100 may also obtain a second distance d2 between the object 162 on the map of the vehicle 1000 and the object 160.
  • the electronic device 100 can obtain the position correction value d1-d2 for correcting the position of the vehicle 1000 by calculating the difference between the first distance d1 and the second distance d2.
  • 17 is a flow diagram of a method by which electronic device 100 corrects the position of vehicle 1000 when vehicle 1000 is running on a curved road, in accordance with some embodiments.
  • the electronic device 100 may photograph the periphery of the vehicle 1000 and obtain a first distance, and in operation S1710 the electronic device 100 may obtain a second distance.
  • the electronic device 100 can acquire curvature information about the curvature of the road when the surroundings of the vehicle 1000 are photographed.
  • the electronic device 100 can analyze the shape of the road in the image taken around the periphery of the vehicle 1000 to obtain the curvature of the road.
  • the electronic device 100 can extract the curvature information about the curvature of the road from the map information of the place where the vehicle 1000 was running when photographing the periphery of the vehicle 1000.
  • the electronic device 100 can correct the position of the vehicle 1000 based on the first distance, the second distance, and the curvature of the road.
  • the electronic device 100 calculates an angle of an angle formed by a hypothetical line connecting the vehicle 1000 and the object and an imaginary line connecting the vehicle 1000 on the map and the object on the map based on the curvature of the road.
  • the distance difference between the actual position of the vehicle 1000 and the position on the map of the vehicle 1000 can be calculated.
  • the electronic device 100 can correct the position of the vehicle 1000 in consideration of the inclination of the road.
  • the electronic device 100 can correct the position of the vehicle 1000 using triangulation.
  • the electronic device 100 can correct the position of the vehicle 1000 using different position measurement methods, depending on the magnitude of the curvature of the road or the amount of change in curvature.
  • FIG. 18 is a diagram showing an example in which the electronic device 100 calculates a distance value to be positionally corrected when the vehicle 1000 according to some embodiments is traveling on a curved road.
  • the electronic device 100 can measure the first distance d3 between the vehicle 1000 and the object 180. [ The electronic device 100 may also obtain a second distance d4 between the location 162 on the map of the vehicle 1000 and the object 160. [
  • the electronic device 100 further includes a virtual line s1 connecting the vehicle 1000 and the object and a virtual line s2 connecting the vehicle 1000 on the map and the object on the map by using the curvature of the curved road. ) Can be calculated.
  • the electronic device 100 extracts the curvature value of the road on which the vehicle 100 traveled when the object 180 is photographed from the map information and uses the extracted curvature values to calculate the virtual line s1 and the imaginary line s1 s2 can be calculated.
  • Fig. 19 is a diagram showing an example in which, when the vehicle 1000 is traveling on a straight road, the electronic device 100 selects a plurality of objects for position correction of the vehicle 1000, The position of the vehicle 1000 on the map is changed based on the position of the vehicle.
  • the electronic device 100 can select the sign 190 and the traffic light 192 to correct the position on the map of the vehicle 1000 have.
  • the electronic device 100 can measure the distance d6 between the vehicle 1000 and the sign 190 and calculate the distance d7 between the vehicle 1000 and the traffic light 192. [ The electronic device 100 can measure an imaginary line connecting the vehicle 1000 and the sign 190 and an angle formed by a virtual line connecting the vehicle 1000 and the signal lamp 192. [ Further, the electronic device 100 can calculate the relative position value of the vehicle 1000 with respect to the sign 190 and the signal lamp 192 using triangulation.
  • the electronic device 100 calculates the distance d8 between the position 194 on the map of the vehicle 1000 and the sign 190 and calculates the distance d8 between the position 194 on the map of the vehicle 1000 and the signal lamp 192 The distance d9 can be calculated.
  • the electronic device 100 further includes a virtual line connecting the position 194 on the map of the vehicle 1000 with the sign 190 and a virtual line connecting the position 194 on the map of the vehicle 1000 and the traffic light 192 The angle formed by the line of FIG. Further, the electronic device 100 can calculate the relative position value of the vehicle on the map for the sign 190 and the traffic light 192 using triangulation method.
  • the electronic device 100 compares the relative position value of the vehicle 1000 with respect to the sign 190 and the traffic light 192 with the relative position value of the vehicle on the map to the sign 190 and the traffic light 192 ,
  • the position of the vehicle 1000 on the map can be corrected.
  • the electronic device 100 may correct the position of the vehicle 1000 on the map in the forward, backward, leftward, and rightward directions.
  • Fig. 20 is a view showing a state in which the electronic device 100 selects a plurality of objects for positional correction of the vehicle 1000 and a distance between the selected plurality of objects The position of the vehicle 1000 on the map is changed based on the position of the vehicle.
  • the electronic device 100 can select the sign 200 and the traffic light 202 to correct the position on the map of the vehicle 1000 have.
  • the electronic device 100 can also measure the distance d11 between the vehicle 1000 and the sign 200 and calculate the distance d12 between the vehicle 1000 and the traffic light 202. [ The electronic device 100 may measure an imaginary line connecting the vehicle 1000 and the sign 200 and an angle formed by a virtual line connecting the vehicle 1000 and the traffic light 202. [ Further, the electronic device 100 can calculate the relative position value of the vehicle 100 with respect to the sign 200 and the signal lamp 202 using triangulation.
  • the electronic device 100 calculates the distance d13 between the position 204 on the map of the vehicle 1000 and the sign 200 and calculates the distance d13 between the position 204 on the map of the vehicle 1000 and the traffic light 202
  • the distance d14 can be calculated.
  • the electronic device 100 further includes a virtual line connecting the position 204 on the map of the vehicle 1000 to the sign 200 and a virtual line connecting the location 204 on the map of the vehicle 1000 to the traffic light 202. [ The angle formed by the line of FIG. Further, the electronic device 100 can calculate the relative position value of the vehicle on the map for the sign 200 and the traffic light 202 using triangulation.
  • the electronic device 100 compares the relative position values of the vehicle 100 with respect to the sign 200 and the traffic light 202 with the relative position values of the vehicle on the map to the sign 200 and the traffic light 202 ,
  • the position of the vehicle 1000 on the map can be corrected.
  • the electronic device 100 may correct the position of the vehicle 1000 on the map in the forward, backward, leftward, and rightward directions.
  • 21 is a flowchart of a method by which electronic device 100 according to some embodiments corrects the position of vehicle 1000 in a plurality of directions.
  • the electronic device 100 can correct the position of the vehicle 1000 on a road-by-road basis based on the GPS value and the map information of the vehicle 1000. [ In the case where the vehicle 1000 is located on the road outside the road, the electronic device 100 can move the position of the vehicle 1000 on the map into the road. The electronic device 100 can compare the GPS value of the vehicle 1000 and the position of the road on the map and correct the GPS value of the vehicle 1000 to a value indicating the position in the road.
  • the electronic device 100 can determine the lane in which the vehicle 1000 is traveling on the road using the image photographed by the camera.
  • the electronic device 100 determines which of the lanes of the road the vehicle 1000 is actually traveling by analyzing the position of the lane of the road included in the photographed image around the vehicle 1000 in the image can do.
  • the electronic device 100 can correct the position of the vehicle 1000 in the lateral direction.
  • the electronic device 100 can correct the position of the vehicle 1000 in the lateral direction when the lane on which the vehicle 1000 is traveling on the map is different from the lane on which the vehicle 1000 is actually traveling on the map. Further, the electronic device 100 can correct the position of the vehicle 1000 in the lateral direction, so that the electronic device 100 can also run on the map in the same lane as the lane on which the vehicle 1000 is actually traveling.
  • the electronic device 100 determines the lane on which the vehicle 1000 is traveling on the road in the map based on the map information and the GPS value of the vehicle 1000 and transmits the lane on the determined map to the lane on which the vehicle 1000 is actually traveling
  • the position on the map of the vehicle 1000 can be corrected in the left and right directions.
  • the electronic device 100 can correct the position of the vehicle 1000 in the forward and backward directions of the vehicle 1000 based on the sensed object.
  • the electronic device 100 can correct the position of the vehicle 1000 along the running direction of the vehicle 1000 by measuring the first distance between the object and the object 1000 sensed in the vicinity of the vehicle 1000.
  • the electronic device 100 may provide information about the corrected position of the vehicle 1000 to the software program using the position information.
  • the electronic device 100 may provide information on the corrected position of the vehicle 1000 to at least one of a navigation program, an autonomous driving program, and a road information collection program.
  • a software program that utilizes location information may be, but is not limited to, a software program that is executed within the electronic device 100.
  • a software program that utilizes location information may be running on another electronic device that is in communication with electronic device 100. In this case, the electronic device 100 transmits information about the corrected position of the vehicle 1000 to another electronic device, while providing information about the corrected position of the vehicle 1000 to the software program installed in the other electronic device .
  • FIG. 22 is an illustration of a hardware block diagram of an electronic device 100 according to some embodiments
  • FIGS. 23 and 24 are an illustration of a block diagram of hardware of an electronic device 100 and a vehicle 1000 according to some embodiments .
  • an electronic device 100 may include a sensing device 230 and a processor 290. However, not all of the components shown in Fig. 22 are essential components of the electronic device 100. Fig. The electronic device 100 may be implemented by more components than the components shown in Fig. 22, or the electronic device 100 may be implemented by fewer components than those shown in Fig. 23 and 24, an electronic device 100 according to some embodiments includes a power supply 299, a communication device 250, an input device 260, a storage device 270, A peripheral device 240, and an output device 280, as shown in FIG. The vehicle 1000 may include, but is not limited to, the propulsion unit 210 and the traveling unit 220 in FIG.
  • the vehicle 1000 may include some of the configurations of the electronic device 100 can do. 23, in which case the electronic device 100 is communicatively coupled to the head unit within the vehicle 1000 to enable the electronic device 100 to communicate with the electronic device 100, It is also possible to correct the position of the map on the map.
  • FIG. 22 the functions of the components that can be included in the vehicle 1000 and the electronic device 100 will be described in more detail with reference to FIGS. 22 to 24.
  • FIG. 22 the functions of the components that can be included in the vehicle 1000 and the electronic device 100 will be described in more detail with reference to FIGS. 22 to 24.
  • the propulsion unit 210 may include an engine / motor 211, an energy source 212, a transmission 213, and a wheel / tire 214.
  • the engine / motor 211 may be any combination between an internal combustion engine, an electric motor, a steam engine, and a stirling engine.
  • the engine / motor 211 may be a gasoline engine and an electric motor.
  • the energy source 212 may be a source of energy that provides power to the engine / motor 211 in whole or in part. That is, the engine / motor 211 may be configured to convert the energy source 212 into mechanical energy. Examples of the energy source 212 may be at least one of gasoline, diesel, propane, other compressed gas based fuels, ethanol, solar panels, batteries, and other electrical power sources. Alternatively, the energy source 212 may be at least one of a fuel tank, a battery, a capacitor, and a flywheel. The energy source 212 may provide energy to the system and apparatus of the vehicle 1000.
  • the transmission 213 may be configured to transmit mechanical power from the engine / motor 211 to the wheel / tire 214.
  • the transmission 213 may include at least one of a gear box, a clutch, a differential, and a drive shaft. If the transmission 213 includes drive shafts, the drive shafts may include one or more axles configured to be coupled to the wheel / tire 214.
  • the wheel / tire 214 may be configured in various forms, including unicycle, bicycle / motorbike, tricycle, or four-wheel form of a car / truck. For example, other wheel / tire formats, such as those that include more than six wheels, may be possible.
  • the wheel / tire 214 includes at least one wheel fixedly attached to the transmission 213 and at least one tire coupled to a rim of a wheel that can contact the driving surface can do.
  • the traveling device 220 may include a brake unit 221, a steering unit 222, and a throttle 223.
  • the brake unit 221 may be a combination of mechanisms that are configured to decelerate the vehicle 1000.
  • the brake unit 221 may use friction to reduce the speed of the wheel / tire 214.
  • Steering unit 222 may be a combination of mechanisms that are configured to adjust the orientation of vehicle 1000.
  • the throttle 223 may be a combination of mechanisms configured to control the speed of operation of the engine / motor 211 to control the speed of the vehicle 1000.
  • the throttle 223 can regulate the amount of the gas mixture of the fuel air flowing into the engine / motor 211 by adjusting the throttle opening amount, and the power and the thrust can be controlled by adjusting the throttle opening amount.
  • the sensing device 230 may include a plurality of sensors configured to sense information about the environment in which the vehicle 1000 is located, as well as one or more actuators configured to modify the position and / or orientation of the sensors can do.
  • the sensing device 230 includes a Global Positioning System (GPS) 224, an Inertial Measurement Unit (IMU) 225, a RADAR unit 226, a LIDAR unit 227, and a camera 228 .
  • the sensing device 230 also includes at least one of an on / humidity sensor 232, an infrared sensor 233, an air pressure sensor 235, a proximity sensor 236, and an RGB sensor 237 But is not limited thereto. The function of each sensor can be intuitively deduced from the name by those skilled in the art, so a detailed description will be omitted.
  • the sensing device 230 may include a motion sensing device 238 capable of sensing the motion of the vehicle 1000.
  • the motion sensing device 238 may include a magnetic sensor 229, an acceleration sensor 231, and a gyroscope sensor 234.
  • the GPS 224 may be a sensor configured to estimate the geographic location of the vehicle 1000. That is, the GPS 224 may include a transceiver configured to estimate the position of the vehicle 1000 relative to the earth.
  • the IMU 225 may be a combination of sensors configured to sense the position and orientation changes of the vehicle 1000 based on inertial acceleration.
  • the combination of sensors may include accelerometers and gyroscopes.
  • the RADAR unit 226 may be a sensor configured to sense objects around the vehicle 1000 using a wireless signal.
  • the RADAR unit 226 may also be configured to sense the velocity and / or direction of objects.
  • the LIDAR unit 227 may be a sensor configured to sense objects around the vehicle 1000 using a laser. More specifically, the LIDAR unit 227 may include a laser light source and / or a laser scanner configured to emit a laser, and a detector configured to detect the reflection of the laser. The LIDAR unit 227 may be configured to operate in coherent (e.g., using heterododel detection) or in an incoherent detection mode. In addition, the electronic device 100 may further include an ultrasonic sensor (not shown) for sensing objects around the vehicle 100.
  • the camera 228 may be a still camera or a video camera for photographing the inside or outside of the vehicle 1000.
  • the camera 228 may be disposed at various locations inside and outside the vehicle 1000.
  • the peripheral device 240 may include a navigation 241, a light 242, a turn signal light 243, a wiper 244, an internal light 245, a heater 246, and an air conditioner 247.
  • the navigation 241 may be a system configured to determine the route of travel for the vehicle 1000.
  • the navigation 241 can be configured to dynamically update the travel route while the vehicle 1000 is traveling.
  • the navigation 241 may utilize data from the GPS 224 and maps to determine the travel path to the vehicle 1000.
  • the navigation device 241 may not be a separate device from the electronic device 100 and the electronic device 100 may perform the function of the navigation device 241.
  • the storage device 270 may include a magnetic disk drive, an optical disk drive, and a flash memory. Or storage device 270 may be a portable USB data storage device.
  • the storage device 270 may store system software for executing examples related to the present invention. System software for carrying out the examples herein may be stored on a portable storage medium.
  • the communication device 250 may include at least one antenna for wirelessly communicating with another device.
  • the communication device 250 may be used to communicate with a cellular network or other wireless protocols and systems wirelessly via Wi-Fi or Bluetooth.
  • the communication device 250 controlled by the processor 290 can send and receive wireless signals.
  • the processor 290 may cause the communication device 250 to execute a program contained in the storage device 270 to transmit and receive wireless signals to and from the cellular network.
  • the input device 260 means means for inputting data for controlling the vehicle 1000.
  • the input device 260 may include a key pad, a dome switch, a touch pad (a contact type capacitance type, a pressure type resistive type, an infrared ray detection type, a surface ultrasonic wave conduction type, A tension measuring method, a piezo effect method, etc.), a jog wheel, a jog switch, and the like, but is not limited thereto.
  • the input device 260 may include a microphone, which may be configured to receive audio (e.g., voice commands) from the occupant of the vehicle 1000.
  • the output device 280 may output an audio signal or a video signal and the output device 280 may include a display unit 281 and an audio output unit 282.
  • the display unit 281 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a three-dimensional display A 3D display, and an electrophoretic display.
  • the output device 280 may include two or more display portions 281.
  • the audio output unit 282 outputs audio data received from the communication device 250 or stored in the storage device 270.
  • the sound output unit 282 may include a speaker, a buzzer, and the like.
  • the input device 260 and the output device 280 may include a network interface and may be implemented with a touch screen.
  • the processor 290 is typically capable of controlling the overall operation of the vehicle 1000.
  • the processor 290 may be configured to execute programs stored in the storage device 270, such as a propulsion device 210, a traveling device 220, a sensing device 230, a peripheral device 240, a communication device 250 , The input device 260, the storage device 270, the output device 280, and the power supply device 299.
  • programs stored in the storage device 270 such as a propulsion device 210, a traveling device 220, a sensing device 230, a peripheral device 240, a communication device 250 ,
  • the processor 290 identifies a plurality of objects located in the vicinity of the vehicle 1000 in motion by executing the programs stored in the storage device 270 and identifies the objects between at least one object of the plurality of objects and the vehicle 1000 Based on the distance, the position of the vehicle 1000 on the map used by the electronic device 100 can be corrected.
  • the processor 290 can photograph a plurality of objects located in the vicinity of the vehicle 1000 by controlling the camera 228. [ The processor 290 may select at least one of the plurality of objects according to a predetermined criterion. The processor 290 may calculate the first distance between the selected object and the vehicle 1000 using a distance sensor. The processor 290 can emit a signal towards a plurality of objects around the vehicle 1000 by controlling the distance sensor and can receive reflected signals from a plurality of objects. The processor 290 may obtain a second distance between a position on the map of the vehicle 1000 and a position on the map of the selected object based on the map information and the time of shooting the plurality of objects. The processor 290 can correct the position on the map of the vehicle 1000 based on the first distance and the second distance.
  • the processor 290 can distinguish the neighboring object among the plurality of objects and the predetermined object used for position correction of the vehicle 1000. [ The processor 290 can discriminate between the object used for positional correction of the vehicle 1000 and the surrounding object that interferes with the correction of the position of the vehicle 1000 in the image obtained by photographing the plurality of objects.
  • the processor 290 can identify the type of object used for position correction of the vehicle 1000. [ The processor 290 can identify the shape of the road on which the vehicle 1000 traveled when a plurality of objects were photographed. The processor 290 can identify the type of distance sensor used for position correction. The processor 290 can determine, for example, whether a radar sensor, a rider sensor, or an ultrasonic sensor is used for position correction of the vehicle 1000, but is not limited thereto. The processor 290 may select at least one of the plurality of objects for position correction of the vehicle 1000 according to various criteria.
  • the processor 290 can determine the priority of the object used for position correction of the vehicle 1000 according to a predetermined criterion.
  • the processor 290 can determine the priority of the object so as to more accurately correct the position of the vehicle 1000.
  • the criteria for determining the priority of an object can be preset in consideration of various situations.
  • the processor 290 can select at least one of the objects used for position correction of the vehicle 1000 based on the determined priority. In order to more accurately correct the position of the vehicle 1000, the processor 290 can select a plurality of objects used for position correction of the vehicle 1000.
  • Processor 290 identifies a plurality of objects from the photographed image of the periphery of vehicle 1000, and electronic device 100 is capable of identifying the type of distance sensor that emitted the sensing signal toward the plurality of objects have.
  • the processor 290 can determine the number of objects to be used for position correction.
  • the processor 290 is used to correct the position of the vehicle 1000 among a plurality of photographed objects based on whether or not a peripheral object obstructing position correction exists around the object to be used for position correction of the vehicle 1000 You can select objects to be In this case, the processor 290 can select an object to be used for position correction of the vehicle 1000, based on the reliability as to whether or not the distance between the object and the vehicle 1000 can be accurately calculated.
  • the processor 290 can count the number of objects to be used for position correction, and can determine the type of object to be used for position correction.
  • the processor 290 may determine an attribute of an object to be used for position correction.
  • the processor 290 can determine whether to correct the position of the vehicle 1000 based on the presence or absence of a nearby object, the number of objects to be used for position correction, the kind of object to be used for position correction, and the like.
  • the processor 290 can determine whether to correct the position of the vehicle 1000 based on the reliability as to whether or not the position of the vehicle 1000 can be accurately corrected.
  • the processor 290 can correct the position of the vehicle 1000.
  • the processor 290 can wait for the position correction of the vehicle 1000 without correcting the position of the vehicle 1000 when the processor 290 decides not to correct the position of the vehicle 1000.
  • the processor 290 can set a cycle for correcting the position of the vehicle 1000.
  • the processor 290 can set a cycle for correcting the position of the vehicle 1000 based on the user input.
  • the processor 290 may automatically set a period for correcting the position of the vehicle 1000 based on various situations related to the vehicle 1000.
  • a period for correcting the position of the vehicle 1000 may be set in consideration of the traffic situation of the road, the weather, the temperature, and the speed of the vehicle 1000 and the like.
  • the processor 290 can photograph the periphery of the vehicle 1000 according to the set period.
  • the electronic device 100 can periodically photograph the periphery of the vehicle 1000 by controlling the camera toward the periphery of the vehicle 1000.
  • the processor 290 may periodically sense the periphery of the vehicle 1000 using a distance sensor.
  • the processor 290 may emit a sensing signal for sensing the periphery of the vehicle 1000 while photographing the periphery of the vehicle 1000.
  • the processor 290 may emit a sensing signal toward the periphery of the vehicle 1000 while sensing the periphery of the vehicle 1000 and receive a sensing signal reflected from the object.
  • the processor 290 may calculate a first distance between the vehicle 1000 and the object based on the emitted and received sensing signal.
  • the processor 290 can confirm the time at which the surroundings of the vehicle 1000 are photographed. The time at which the periphery of the vehicle 1000 is photographed, the time at which the sensing signal is emitted, and the time at which the sensing signal is received may be substantially the same.
  • the processor 290 can acquire the map information of the vicinity of the point where the vehicle 1000 was located at the confirmed time.
  • the processor 290 can acquire map information on the peripheral map of the point where the vehicle 1000 was located at the identified time based on the confirmed time.
  • the processor 290 may extract map information from the memory of the electronic device 100.
  • the processor 290 may also receive map information from another device or server 2000 associated with the electronic device 100.
  • the processor 290 can acquire positional information indicating a point at which the vehicle 1000 is located at the identified time.
  • the processor 290 obtains a second distance from the position of the vehicle 1000 on the map to the object on the map based on the point on the map where the vehicle 1000 was located and the position on the map of the object at the identified time .
  • the processor 290 can correct the position of the vehicle 1000 based on the first distance and the second distance.
  • the processor 290 calculates the distance between the vehicle 1000 and the object 1000 in consideration of the first distance, the second distance, the shape of the road, the inclination of the road, the position of the vehicle 1000 on the road, Can be corrected.
  • the processor 290 can correct the position of the vehicle 1000 on a road-by-road basis based on the GPS value of the vehicle 1000 and the map information. In the case where the vehicle 1000 is located on the road outside the road, the processor 290 can move the position of the vehicle 1000 on the map into the road. The processor 290 can compare the GPS value of the vehicle 1000 and the position of the road on the map and correct the GPS value of the vehicle 1000 to a value indicating a position in the road.
  • the processor 290 can determine the lane on which the vehicle 1000 is traveling on the road using the image photographed by the camera. The processor 290 determines which of the lanes of the road the vehicle 1000 is actually traveling by analyzing where the lanes of the road included in the photographed image are located within the image of the surroundings of the vehicle 1000 can do.
  • the processor 290 can correct the position of the vehicle 1000 in the lateral direction when the lane on which the vehicle 1000 is traveling on the map differs from the lane on which the vehicle 1000 is actually traveling on the map.
  • the processor 290 can correct the position of the vehicle 1000 in the forward and backward directions of the vehicle 1000 based on the sensed object.
  • the processor 290 can correct the position of the vehicle 1000 along the running direction of the vehicle 1000 by measuring the first distance between the object and the object 1000 sensed in the vicinity of the vehicle 1000.
  • the processor 290 may provide information about the corrected position of the vehicle 1000 to a software program that uses the position information.
  • the processor 290 may provide information about the corrected position of the vehicle 1000 to at least one of a navigation program, an autonomous driving program, and a road information collection program.
  • Power supply 299 may be configured to provide power to some or all of the components of vehicle 1000.
  • the power supply 299 may comprise a rechargeable lithium ion or lead-acid battery.
  • Computer readable media can be any available media that can be accessed by a computer, and can include both volatile and nonvolatile media, removable and non-removable media.
  • the computer-readable medium may include both computer storage media and communication media.
  • Computer storage media may include both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.
  • Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism, and may include any information delivery media.
  • &quot part " may be a hardware component such as a processor or a circuit, and / or a software component executed by a hardware component such as a processor.

Abstract

차량의 지도 상의 위치를 보정하는 전자 장치 및 방법이 제공된다. 주행 중인 차량의 지도 상의 위치를 보정하는 전자 장치는, 차량의 위치 정보를 획득하는 위치 측정 장치; 차량의 주변에 위치한 복수의 객체들을 촬영함으로써 촬영 이미지를 생성하는 영상 장치; 상기 차량의 주변을 향하여 센싱 신호를 방출하고 상기 복수의 객체들로부터 반사된 센싱 신호를 수신하는 센서; 및 상기 위치 정보에 기초하여 상기 차량의 지도 상의 위치를 결정하고, 상기 촬영 이미지에서 상기 복수의 객체들 중 적어도 하나를 선택하고, 상기 반사된 센싱 신호에 기초하여, 상기 선택된 객체와 상기 차량 간의 제1 거리를 산출하고, 상기 산출된 제1 거리에 기초하여 상기 차량의 지도 상의 위치를 보정하는 프로세서;를 포함한다.

Description

차량의 지도 상의 위치를 보정하는 전자 장치 및 방법
본 개시는 차량의 지도 상의 위치를 보정하는 전자 장치 및 방법에 관한 것으로서, 보다 상세하게는 차량의 주변에 위치한 객체와의 거리에 기초하여 차량의 지도 상의 위치를 보정하는 전자 장치 및 방법에 관한 것이다.
네트워크 및 멀티미디어 기술이 발전함에 따라, 차량이 주행 중인 도로의 지도 정보를 이용하여, 차량에 탑승한 사용자에게 다양한 서비스를 제공하는 기술이 등장하고 있다. 예컨대, 차량을 통해 수집되는 도로 정보를 이용하여, 차량의 사용자에게 네비게이션 정보를 제공하고 있으며, 차량이 보다 안전하게 자율 주행을 할 수 있도록 유도하는 기술이 개발되고 있다.
이에 따라, 지도 상의 차량의 위치를 보다 정확하게 보정함으로써, 양질의 서비스를 차량의 사용자에게 제공하고자 하는 기술이 요구되고 있다.
일부 실시예는, 차량의 주변에 위치한 복수의 객체들 중 적어도 하나를 선택하고, 선택된 객체와의 거리를 산출함으로써, 차량의 지도 상의 위치를 보정할 수 있는 전자 장치 및 방법을 제공할 수 있다.
또한, 일부 실시예는, 차량의 주변에 위치한 복수의 객체들 중 적어도 하나를 소정의 우선 순위에 따라 선택할 수 있는, 차량의 지도 상의 위치를 보정할 수 있는 전자 장치 및 방법을 제공할 수 있다.
또한, 일부 실시예는, 차량의 주변에 위치한 복수의 객체들을 감지함으로써, 차량의 지도 상의 위치를 보정할 지를 결정할 수 있는 전자 장치 및 방법을 제공할 수 있다.
도 1은 일부 실시예에 따른 차량의 전자 장치가 도로 상의 복수의 객체를 이용하여 지도 상의 차량 위치를 보정하는 예시를 나타내는 도면이다.
도 2는 일부 실시예에 따른 전자 장치가 차량의 지도 상의 위치를 보정하는 방법의 흐름도이다.
도 3은 일부 실시예에 따른 전자 장치가 차량의 주변의 복수의 객체들 중에서, 위치 보정에 이용될 객체를 선택하는 방법의 흐름도이다.
도 4는 일부 실시예에 따른 전자 장치가 차량의 주변에 위치한 복수의 객체를 촬영하고 감지하는 예시를 나타내는 도면이다.
도 5 및 도 6은 일부 실시예에 따른 전자 장치가 객체로부터 반사된 센싱 신호에 기초하여 차량의 주변에 위치한 복수의 객체들을 검출하는 예시를 나타내는 도면이다.
도 7은 일부 실시예에 따른 전자 장치가, 차량의 주변에 위치한 복수의 객체들 중에서, 위치 보정에 이용될 객체를 소정의 우선 순위에 따라 선택하는 방법의 흐름도이다.
도 8은 일부 실시예에 따른, 위치 보정에 이용될 객체의 주변에 주변 객체가 없는 경우에 전자 장치가 객체 선택을 위한 우선 순위를 결정하는 예시를 나타내는 도면이다.
도 9는 일부 실시예에 따른, 위치 보정에 이용될 객체의 주변에 주변 객체가 많은 경우에 전자 장치가 객체 선택을 위한 우선 순위를 결정하는 예시를 나타내는 도면이다.
도 10은 일부 실시예에 따른 전자 장치가 차량의 위치를 보정할 지를 결정하는 방법의 흐름도이다.
도 11은 일부 실시예에 따른 전자 장치가 차량의 위치를 보정하기로 결정하는 경우를 나타내는 예시를 도시한 도면이다.
도 12는 일부 실시예에 따른 전자 장치가 차량의 위치를 보정하지 않는 경우를 나타내는 예시를 도시한 도면이다.
도 13은 일부 실시예에 따른 전자 장치가 지도 정보를 이용하여 차량의 위치를 보정하는 방법의 흐름도이다.
도 14는 일부 실시예에 따른 전자 장치가 시간의 흐름에 따라 차량의 위치를 보정하는 예시를 나타내는 도면이다.
도 15는 일부 실시예에 따른 차량이 직선 도로를 주행 중인 경우에, 전자 장치가 차량의 위치를 보정하는 방법의 흐름도이다.
도 16은 일부 실시예에 따른 차량이 직선 도로를 주행 중인 경우에, 전자 장치가 위치 보정될 거리 값을 산출하는 예시를 나타내는 도면이다.
도 17은 일부 실시예에 따른 차량이 곡선 도로를 주행 중인 경우에, 전자 장치가 차량의 위치를 보정하는 방법의 흐름도이다.
도 18은 일부 실시예에 따른 차량이 곡선 도로를 주행 중인 경우에, 전자 장치가 위치 보정될 거리 값을 산출하는 예시를 나타내는 도면이다.
도 19는 일부 실시예에 따른 차량(1000)이 직선 도로를 주행 중인 경우에, 전자 장치가 차량의 위치 보정을 위한 객체를 복수 개 선택하고, 선택된 복수의 객체와의 거리에 기초하여 차량의 지도 상의 위치를 변경하는 예시를 나타내는 도면이다.
도 20은 일부 실시예에 따른 차량(1000)이 곡선 도로를 주행 중인 경우에, 전자 장치가 차량의 위치 보정을 위한 객체를 복수 개 선택하고, 선택된 복수의 객체와의 거리에 기초하여 차량(1000)의 지도 상의 위치를 변경하는 예시를 나타내는 도면이다.
도 21은 일부 실시예에 따른 전자 장치가 복수의 방향으로 차량의 위치를 보정하는 방법의 흐름도이다.
도 22는 일부 실시예에 따른 전자 장치의 하드웨어 블록도의 예시이다.
도 23 및 도 24는 일부 실시예에 따른 전자 장치 및 차량의 하드웨어의 블록도의 예시이다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제1 측면은, 차량의 위치 정보를 획득하는 위치 측정 장치; 차량의 주변에 위치한 복수의 객체들을 촬영함으로써 촬영 이미지를 생성하는 영상 장치; 상기 차량의 주변을 향하여 센싱 신호를 방출하고 상기 복수의 객체들로부터 반사된 센싱 신호를 수신하는 센서; 및 상기 위치 정보에 기초하여 상기 차량의 지도 상의 위치를 결정하고, 상기 촬영 이미지에서 상기 복수의 객체들 중 적어도 하나를 선택하고, 상기 반사된 센싱 신호에 기초하여, 상기 선택된 객체와 상기 차량 간의 제1 거리를 산출하고, 상기 산출된 제1 거리에 기초하여 상기 차량의 지도 상의 위치를 보정하는 프로세서;를 포함하는, 주행 중인 차량의 지도 상의 위치를 보정하는 전자 장치를 제공할 수 있다.
또한, 본 개시의 제2 측면은, 위치 측정 장치를 이용하여 상기 차량의 지도 상의 위치를 결정하는 단계; 상기 차량의 주변에 위치한 복수의 객체들을 촬영함으로써 촬영 이미지를 획득하는 단계; 상기 차량의 주변을 향하여 센싱 신호를 송출하는 단계; 상기 복수의 객체들로부터 반사된 센싱 신호를 수신하는 단계; 상기 촬영 이미지에서 상기 복수의 객체 중에서 적어도 하나를 선택하는 단계; 상기 반사된 센싱 신호에 기초하여, 상기 선택된 객체와 상기 차량 간의 제1 거리를 산출하는 단계; 및 상기 산출된 제1 거리에 기초하여, 상기 차량의 지도 상의 위치를 보정하는 단계;를 포함하는, 주행 중인 차량의 지도 상의 위치를 보정하는 방법을 제공할 수 있다.
또한, 본 개시의 제3 측면은, 제2 측면의 방법을 컴퓨터에서 실행시키기 위한 컴퓨터로 읽을 수 있는 기록 매체를 제공할 수 있다.
아래에서는 첨부한 도면을 참조하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 개시의 실시예를 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
또한, 본 명세서에서 사용되는 “제 1” 또는 “제 2” 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용할 수 있지만, 이러한 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하거나 설명의 편의를 위한 목적으로 사용될 수 있다.
또한, 본 명세서에서, 도로 상의 객체는 주행 중인 차량의 전방 또는 주변에 위치한 물체일 수 있으며, 예를 들어, 신호등, 표지판 및 고가 도로 등을 포함할 수 있으나, 이에 제한되지 않는다.
이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.
도 1은 일부 실시예에 따른 차량(1000)의 전자 장치(100)가 도로 상의 복수의 객체를 이용하여 지도 상의 차량 위치를 보정하는 예시를 나타내는 도면이다.
도 1을 참조하면, 차량(1000) 내의 전자 장치(100)는 주행 중인 차량(1000)의 주변에 위치한 복수의 객체들(10, 12, 14)을 식별하고, 복수의 객체들(10, 12, 14) 중 적어도 하나의 객체와 차량(1000) 간의 거리에 기초하여, 전자 장치(100)가 이용하는 지도(16) 상에서 차량(1000)의 위치를 보정할 수 있다.
전자 장치(100)는 차량(1000)의 주변에 위치한 복수의 객체들(10, 12, 14)을 촬영할 수 있으며, 거리 센서를 이용하여 복수의 객체들(10, 12, 14)을 검출할 수 있다. 또한, 전자 장치(100)는 복수의 객체들(10, 12, 14) 중 적어도 하나를 선택하고, 선택된 객체와 차량(1000) 간의 거리에 기초하여, 지도(16) 상의 도로에 표시된 차량(1000)의 위치를 보정할 수 있다. 전자 장치(100)에 의해 선택되는 객체는 랜드마크에 해당되는 객체일 수 있으며, 전자 장치(100)가 이용하는 지도에서 차량(1000)의 현재 위치의 주변에 위치한 랜드마크로 등록되어 있는 객체일 수 있다. 또한, 전자 장치(100)는 거리 센서를 이용하여 복수의 객체들(10, 12, 14)의 신뢰도에 기초하여, 차량(1000)의 위치를 보정할 지를 결정할 수도 있다. 이에 따라, 전자 장치(100)는 복수의 객체들(10, 12, 14) 중에서 신뢰도가 높게 검출되는 객체를 이용하여, 차량(1000)의 위치를 보다 정확하게 보정할 수 있다.
또한, 전자 장치(100)는 지도 상의 차량(1000)의 위치를 보정하기 위하여 이용되는 데이터를 네트워크를 통하여 서버(2000)와 송수신할 수 있다. 서버(2000)는 통신부(미도시), 프로세서(미도시) 및 저장부(미도시)를 포함할 수 있으며, 차량(1000)의 지도 상의 위치를 보정하기 위하여 수행되는 후술할 전자 장치(100)의 동작들 중 일부를 수행하고, 차량(100)의 지도 상의 위치를 보정하기 위한 데이터를 전자 장치(100)와 송수신할 수 있다.
전자 장치(100)는 차량(1000)의 동작을 제어하는 디바이스일 수 있으며, 예를 들어, 차량(1000)의 헤드 유닛일 수 있다. 또한, 전자 장치(100)는 차량(1000)의 헤드 유닛에 연결된 전자 디바이스일 수 있으며, 예를 들어, 스마트폰, 태블릿 PC, PC, 스마트 TV, 휴대폰, PDA(personal digital assistant), 랩톱, 블랙 박스 장치, 미디어 플레이어, 마이크로 서버, 네비게이션 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 제한되지 않는다. 또한, 전자 장치(100)는 통신 기능 및 데이터 프로세싱 기능을 구비한 시계, 안경, 헤어 밴드 및 반지 등의 웨어러블 디바이스일 수 있다. 그러나, 이에 제한되지 않으며, 전자 장치(100)는 차량(1000)의 전방의 객체를 검출하고 차량(1000)의 지도 상의 위치를 보정할 수 있는 모든 종류의 기기를 포함할 수 있다. 이 경우, 전자 장치(100)는 차량(1000)의 헤드 유닛과 유/무선 통신을 통하여 연결될 수 있다. 예를 들어, 전자 장치(100)는 무선 랜(Wi-Fi), 블루투스, 블루투스 저 에너지(Bluetooth low energy), 지그비, WFD(Wi-Fi Direct), UWB(ultra wideband), 적외선 통신(IrDA, infrared Data Association), NFC(Near Field Communication) 등을 통하여 차량(1000)의 헤드 유닛에 연결될 수 있으나, 이에 한정되는 것은 아니다.
네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 포함하며, 본 개시의 구현을 위하여 필요한 구성 주체가 서로 원활하게 통신을 할 수 있도록 하는 포괄적인 의미의 데이터 통신망이며, 유선 인터넷, 무선 인터넷 및 모바일 무선 통신망을 포함할 수 있다.
도 2는 일부 실시예에 따른 전자 장치(100)가 차량(1000)의 지도 상의 위치를 보정하는 방법의 흐름도이다.
동작 S200에서 전자 장치(100)는 차량(1000)의 주변에 위치한 복수의 객체들을 촬영할 수 있다. 전자 장치(100)는 차량(1000)의 주변을 향하는 영상 장치를 제어함으로써, 복수의 객체들을 촬영할 수 있다. 영상 장치는 차량(1000)에 고정된 형태로 구현되거나, 단말기 또는 로봇 등과 같이 차량(1000)에서 이동가능하게 구현될 수 있다. 영상 장치는, 예를 들어, 이미지 센서 및 카메라를 포함할 수 있으나, 이에 제한되지 않으며, 피사체를 촬영할 수 있는 다양한 장치를 포함할 수 있다.
예를 들어, 복수의 객체를 촬영하는 카메라는, 차량(1000)의 제조 시에 차량(1000)에 설치된 카메라일 수 있으나 이에 한정되지 않는다. 또한, 복수의 객체를 촬영하는 카메라는 사용자에 의해 차량에 설치된 카메라일 수 있으며, 이 경우, 전자 장치(100)는 카메라와 통신 연결된 이후에 카메라를 제어할 수 있다. 예를 들어, 카메라는 블랙박스 장치의 카메라 및 스마트폰의 카메라를 포함할 수 있으나, 이에 제한되지 않는다. 또한, 전자 장치(1000)는 카메라를 제어함으로써 차량(1000)의 전방, 측방 또는 후방을 촬영할 수 있으며, 카메라는 이동형 카메라, 회전형 카메라 또는 고정형 카메라일 수 있다.
또한, 영상 장치에 의해 촬영된 이미지는, 예를 들어, 2D 이미지, 3D 이미지, 파노라마 이미지 및 스티칭 이미지를 포함할 수 있으나, 이에 한정되지 않는다.
복수의 객체는 차량(1000)의 주변에 위치한 물체일 수 있으며, 차량(1000)의 위치 보정에 이용되는 기설정된 종류의 객체 및 차량(1000)의 위치 보정을 방해하는 주변 객체를 포함할 수 있다. 차량(1000)의 위치 보정에 이용되는 기설정된 종류의 객체는 차량이 주행 중인 도로 주변의 지도에 포함된 객체일 수 있으며, 차량(1000)의 위치 보정을 방해하는 주변 객체는 차량이 주행 중인 도로 주변의 지도에 포함되지 않은 객체일 수 있다.
예를 들어, 차량(1000)의 위치 보정에 이용되는 기설정된 종류의 객체는, 표지판, 신호등, 고가 도로 및 육교를 포함할 수 있으나, 이에 한정되지 않는다. 또한, 예를 들어, 차량(1000)의 위치 보정에 이용되는 기설정된 종류의 객체는, 전자 장치(100)가 이용 중인 지도에서, 차량(1000)의 현재 위치의 주변 영역에 등록되어 있는 표지판, 신호등, 고가 도로 및 육교 등의 객체일 수 있다.
또한, 예를 들어, 차량(1000)의 위치 보정을 방해하는 주변 객체는, 전자 장치(100)가 차량(1000)의 위치 보정에 이용되는 객체를 인식하는 것을 방해하는 객체일 수 있으며, 예를 들어, 차량(1000)의 전방에 위치한 다른 차량, 사람, 가로수 및 가드레일을 포함할 수 있으나, 이에 한정되지 않는다.
전자 장치(100)에 의해 이용되는 지도는 차량(1000) 내의 저장 장치(미도시), 전자 장치(100)의 메모리, 및 지도 정보를 제공하는 소정의 서버(미도시)에 저장될 수 있으나, 이에 제한되지 않는다.
동작 S210에서 전자 장치(100)는 차량(1000)의 주변을 향하여 센싱 신호를 송출하고 복수의 객체들로부터 반사된 센싱 신호를 수신할 수 있다. 전자 장치(100)는 차량(1000)의 전방에 위치한 복수의 객체들을 촬영하면서, 거리 센서를 이용하여, 복수의 객체들을 감지하기 위한 신호를 차량(1000)의 전방을 향하여 조사할 수 있다. 또한, 전자 장치(100)는 차량(100)의 전방에 위치한 복수의 객체들로부터 반사된 신호를 수신할 수 있다. 거리 센서는 차량(1000)의 전방의 객체를 감지하고 객체와의 거리를 산출하기 위하여 이용되는 센서일 수 있으며, 예를 들어, 레이더 센서, 라이더 센서 및 초음파 센서를 포함할 수 있으나, 이에 한정되지 않는다.
동작 S220에서 전자 장치(100)는 기설정된 기준에 따라 복수의 객체들 중 적어도 하나를 선택할 수 있다. 전자 장치(100)는 복수의 객체들을 촬영한 이미지로부터 복수의 객체들을 식별할 수 있다. 전자 장치(100)는 식별된 복수의 객체들 중 위치 보정에 이용될 객체를 선택할 수 있으며, 기설정된 기준에 따라 신뢰도가 높은 객체를 선택할 수 있다.
전자 장치(1000)는 복수의 객체들을 촬영한 이미지에서 차량이 주행 중인 도로 주변의 지도에 포함된 객체 및 차량이 주행 중인 도로 주변의 지도에 포함되지 않은 객체를 구별할 수 있다. 이 경우, 전자 장치(1000)는 차량이 주행 중인 도로 주변의 지도 정보를 획득하고, 획득된 지도 정보에 기초하여 차량 주변에 등록된 객체를 촬영된 이미지 내의 객체와 비교함으로써, 촬영된 복수의 객체들 중에서 지도에 포함된 객체 및 지도에 포함되지 않은 객체를 구별할 수 있다.
또한, 차량이 주행 중인 도로 주변의 지도에 포함된 객체는 차량(1000)의 위치 보정에 이용되는 객체일 수 있으며, 차량이 주행 중인 도로 주변의 지도에 포함되지 않은 객체는 차량(1000)의 위치 보정을 방해하는 주변 객체일 수 있다.
또는, 전자 장치(100)는 복수의 객체들로부터 반사된 신호에 기초하여, 복수의 객체들 중 적어도 하나를 선택할 수 있다. 이 경우, 전자 장치(100)는 반사된 신호 및 촬영 이미지를 비교함으로써, 복수의 객체들 중에서 차량(1000)의 위치 보정에 이용될 수 있는 기설정된 종류의 객체를 식별할 수 있다.
전자 장치(100)는 복수의 객체를 촬영할 때의 도로의 모양, 복수의 객체를 감지하는데 이용된 거리 센서의 종류 등을 고려하여, 복수의 객체들 중에서 위치 보정에 이용될 객체를 선택할 수 있다. 또한, 전자 장치(100)는 기설정된 우선 순위에 기초하여, 복수의 객체들 중에서 위치 보정에 이용될 객체를 선택할 수 있다.
전자 장치(100)가 복수의 객체들 중 위치 보정에 이용될 객체를 선택하는 방법에 대하여는 후술하기로 한다.
동작 S230에서 전자 장치(100)는 선택된 객체와 차량(1000) 간의 제1 거리를 거리 센서를 이용하여 산출할 수 있다. 전자 장치(100)는 거리 센서를 이용하여, 차량(1000) 주변의 복수의 객체들을 향하여 신호를 방출할 수 있으며, 복수의 객체들로부터 반사된 신호를 수신할 수 있다. 신호의 방출 및 반사된 신호의 수신은, 카메라를 통하여 복수의 객체들을 촬영하면서, 전자 장치(100)에 의해 함께 수행될 수 있다. 또한, 전자 장치(100)는 복수의 객체들로부터 반사된 신호들 중에서 선택된 객체로부터 반사된 신호를 식별하고, 식별된 신호에 기초하여, 선택된 객체와 차량(1000) 간의 제1 거리를 산출할 수 있다.
동작 S240에서 전자 장치(100)는 차량(1000)의 지도 상의 위치를 보정할 수 있다. 이를 위하여, 전자 장치(100)는 지도 정보 및 복수의 객체들을 촬영한 시각에 기초하여, 차량(1000)의 지도 상의 위치와 선택된 객체의 지도 상의 위치 간의 제2 거리를 획득할 수 있다. 지도 정보는 차량(1000)이 주행하는 도로에 관련된 정보를 포함할 수 있으며, 예를 들어, 차량(1000)이 주행하는 도로의 모양, 도로의 지형, 도로 주변의 객체에 관한 정보를 포함할 수 있다. 또한, 예를 들어, 지도 정보는 도로의 경사, 도로의 곡률, 차선 폭, 도로 주변의 구조물 등에 관한 정보를 포함할 수 있다.
전자 장치(100)는 지도 정보로부터 복수의 객체들을 촬영한 시각에 대응되는 차량(1000)의 지도 상의 위치를 확인할 수 있다. 차량(1000)의 지도 상의 위치는 복수의 객체들을 촬영한 때의 차량(1000)의 위치를 나타내는 GPS 값에 의해 결정될 수 있다. 또한, 차량(1000)의 지도 상의 위치는 IMU (Inertial Measurement Unit) 장치를 이용하여 획득될 수도 있다. 또한, 차량(1000)의 지도 상의 위치는 전자 장치(100)와 통신 연결된 기지국에 관한 정보에 기초하여 획득될 수도 있다.
또한, 전자 장치(100)는 선택된 객체의 지도 상의 위치를, 복수의 객체들을 촬영한 시각에 차량(1000)이 위치한 장소 주변을 나타내는 지도에서 확인할 수 있다.
또한, 전자 장치(100)는 차량(1000)의 지도 상의 위치 값 및 선택된 객체의 지도 상의 위치 값을 이용하여, 차량(1000)의 지도 상의 위치 및 선택된 객체의 지도 상의 위치 간의 제2 거리를 산출할 수 있다.
한편, 전자 장치(100)는 제1 거리 및 제2 거리에 기초하여, 차량(1000)의 지도 상의 위치를 보정할 수 있다. 이 경우, 전자 장치(100)는 복수의 객체를 촬영한 때에 차량(1000)이 주행한 도로의 모양을 고려하여 차량(1000)의 위치를 보정할 수 있다.
상기에서는 전자 장치(100)가 복수의 객체들을 촬영한 시각에 기초하여 차량(1000)의 위치를 보정하는 것으로 설명하였지만, 이에 제한되지 않는다. 전자 장치(100)는, 전자 장치(100)가 복수의 객체들을 촬영한 시각, 전자 장치(100)가 거리 센서를 이용하여 신호를 방출한 시각 및 전자 장치(100)가 거리 센서를 이용하여 객체로부터 반사된 신호를 수신한 시각 중 적어도 하나에 기초하여, 차량(1000)의 위치를 보정할 수 있다.
복수의 객체들을 촬영한 시각, 전자 장치(100)가 거리 센서를 이용하여 신호를 방출한 시각 및 전자 장치(100)가 거리 센서를 이용하여 객체로부터 반사된 신호를 수신한 시각은 실질적으로 거의 동일할 수 있다.
만약, 복수의 객체들을 촬영한 시각, 전자 장치(100)가 거리 센서를 이용하여 신호를 방출한 시각 및 전자 장치(100)가 거리 센서를 이용하여 객체로부터 반사된 신호를 수신한 시각이 유의미하게 차이가 난다면, 전자 장치(100)는 그 차이를 고려하여 차량(1000)의 지도 상의 위치를 보정할 수 있다.
도 3은 일부 실시예에 따른 전자 장치(100)가 차량(1000)의 주변의 복수의 객체들 중에서, 위치 보정에 이용될 객체를 선택하는 방법의 흐름도이다.
동작 S300에서 전자 장치(100)는 차량(1000)의 주변에 위치한 복수의 객체들을 촬영할 수 있다. 전자 장치(100)는 전자 장치(100) 내의 카메라 또는 전자 장치(100)와 연결된 카메라를 이용하여 차량(1000)의 전방에 위치한 복수의 객체들을 촬영할 수 있다.
동작 S310에서 전자 장치(100)는 복수의 객체들 중에서 주변 객체 및 차량(1000)의 위치 보정에 이용되는 기설정된 객체를 구분할 수 있다. 전자 장치(100)는 복수의 객체들을 촬영한 이미지에서 차량(1000)의 위치 보정에 이용되는 객체 및 차량(1000)의 위치 보정을 방해하는 주변 객체를 구별하여 식별할 수 있다.
또는, 전자 장치(100)는 복수의 객체들로부터 반사된 신호에 기초하여, 복수의 객체들 중에서 차량(1000)의 위치 보정에 이용되는 객체를 추정할 수 있다. 이 경우, 전자 장치(100)는 복수의 객체들을 촬영한 이미지를 복수의 객체들로부터 반사된 신호로부터 감지되는 객체들과 비교함으로써, 위치 보정에 이용되는 객체를 추정할 수 있다.
이 경우, 차량(1000)의 위치 보정에 이용되는 객체의 주변에, 차량(1000)의 위치 보정을 방해하는 주변 객체가 많은 경우에, 전자 장치(100)는 위치 보정에 이용되는 객체를 식별하지 못할 수도 있다. 또한, 전자 장치(100)가 위치 보정에 이용되는 객체를 식별하는 예시는 도 5 및 도 6에서 보다 상세하게 설명하기로 한다.
동작 S320에서 전자 장치(100)는 차량(1000)의 위치 보정에 이용되는 객체의 종류를 식별할 수 있다. 전자 장치(100)는 복수의 객체들을 촬영한 이미지 및 복수의 객체로부터 반사되어 수신된 신호(예를 들어, 센싱 데이터) 중 적어도 하나에 기초하여, 차량(1000)의 위치 보정에 이용되는 객체의 종류를 판단할 수 있다. 예를 들어, 전자 장치(100)는 차량(1000)의 위치 보정에 이용되는 객체가 표지판인지, 신호등인지, 육교인지 등을 판단할 수 있다. 이 경우, 차량(1000)의 위치 보정에 이용되는 객체의 주변에, 차량(1000)의 위치 보정을 방해하는 주변 객체가 많은 경우에, 전자 장치(100)는 위치 보정에 이용되는 객체의 종류를 판단하지 못할 수도 있다.
동작 S330에서 전자 장치(100)는 복수의 객체가 촬영된 때에 차량(1000)이 주행한 도로의 모양을 식별할 수 있다. 전자 장치(100)는 복수의 객체들을 촬영한 이미지 및 복수의 객체들을 촬영한 때의 차량(1000)의 위치 주변의 지도 정보를 이용하여, 복수의 객체가 촬영된 때에 차량(1000)이 주행한 도로의 모양을 판단할 수 있다. 전자 장치(100)는 도로가 직선 도로인지 곡선 도로인지를 판단할 수 있다. 또한, 전자 장치(100)는 곡선 도로의 곡률을 판단할 수 있다.
동작 S340에서 전자 장치(100)는 위치 보정을 위하여 이용된 거리 센서의 종류를 식별할 수 있다. 전자 장치(100)는 차량(1000)의 주변에 위치한 객체를 식별하고 객체와의 거리를 산출하기 위하여 이용한 거리 센서의 종류를 식별할 수 있다. 예를 들어, 전자 장치(100)는 차량(1000)의 위치 보정을 위하여 레이더 센서가 이용되었는지, 라이더 센서가 이용되었는지, 초음파 센서가 이용되었는지를 판단할 수 있으나, 이에 한정되지 않는다.
동작 S350에서 전자 장치(100)는 복수의 객체들 중 적어도 하나를 선택할 수 있다. 전자 장치(100)는 동작 S310 내지 동작 S340 중 적어도 하나에 기초하여, 다양한 기준에 따라 복수의 객체들 중 적어도 하나를, 차량(1000)의 위치 보정을 위하여 선택할 수 있다.
예를 들어, 차량(1000)이 직선 도로를 주행하는 경우에 전자 장치(100)는 주행 중인 도로를 가로지르면서 차량(1000)의 전방에 위치한 고가 도로를 선택할 수 있다. 또한, 예를 들어, 차량(1000)이 주행 중인 도로의 바깥쪽에 가로수가 많으며 차량(1000)의 전방에 다른 차량이 많은 경우에, 차량(1000)은 도로의 안쪽에 위치한 표지판을 선택할 수 있다. 그러나, 차량(1000)이 위치 보정에 이용될 객체를 선택하는 예시는 이에 한정되지 않는다.
도 4는 일부 실시예에 따른 전자 장치(100)가 차량(1000)의 전방에 위치한 복수의 객체를 촬영하고 감지하는 예시를 나타내는 도면이다.
도 4를 참조하면, 차량(1000)이 주행 중인 도중에, 전자 장치(100)는 차량(1000)의 전방을 촬영하면서 차량(1000)의 전방에 위치한 신호등(40), 교통 표지판(42) 및 버스 노선도(44)를 검출할 수 있다. 전자 장치(100)는 신호등(40), 교통 표지판(42) 및 버스 노선도(44)를 검출하기 위하여, 카메라를 제어하여 차량(1000)의 전방을 촬영함과 동시에 차량(1000)의 센서를 제어하여 차량(1000)의 전방을 향하여 센싱 신호를 방출할 수 있다. 또한, 카메라로 차량(1000)의 전방을 촬영하는 시점, 차량(1000)의 전방을 향하여 센싱 신호가 방출되는 시점 및 객체로부터 반사되는 센싱 신호를 수신하는 시점은 실질적으로 거의 동일할 수 있다.
도 5 및 도 6은 일부 실시예에 따른 전자 장치(100)가 촬영 이미지 및 객체로부터 반사된 센싱 신호에 기초하여 차량(1000)의 전방에 위치한 복수의 객체들을 검출하는 예시를 나타내는 도면이다.
도 5를 참조하면, 도로를 주행 중인 차량(1000)의 전방에 위치 보정을 방해하는 주변 객체가 없는 경우에, 전자 장치(100)는 차량(1000)의 전방을 촬영하면서 소정의 거리 센서를 이용하여 차량(1000)의 전방을 센싱할 수 있다. 예를 들어, 차량(1000)이 도로를 주행 중일 때, 차량(1000)의 전방에는 고가 도로(51), 표지판(52) 및 신호등(53)이 위치할 수 있다. 또한, 전자 장치(100)는 차량(1000)의 전방을 촬영하면서 차량(1000)의 전방을 향하여 센싱 신호를 방출할 수 있으며, 고가 도로(51), 표지판(52) 및 신호등(53)으로부터 반사된 센싱 신호를 수신할 수 있다.
또한, 전자 장치(100)는 촬영된 이미지 및 지도 정보에 기초하여 차량(1000)의 전방에 위치한 복수의 객체들을 식별할 수 있다. 전자 장치(100)는 촬영된 이미지를 분석함으로써 촬영된 이미지 내의 복수의 객체를 추출할 수 있으며, 추출된 복수의 객체를 지도 정보에 등록된 객체 정보와 비교함으로써 추출된 복수의 객체를 식별할 수 있다.
또한, 전자 장치(100)는 수신된 센싱 신호를 분석함으로써, 수신된 센싱 신호에 대응되는 위치로서 차량(1000)의 전방 영역 내의 위치를 표시하기 위한 그래프(55)를 생성할 수 있다. 또한, 전자 장치(100)는 차량(1000)의 전방을 촬영한 이미지 및 그래프(55)를 비교함으로써, 그래프(55)에서 고가 도로(51)로부터 반사된 센싱 신호를 나타내는 영역(56), 신호등(53)으로부터 반사된 센싱 신호를 나타내는 영역(58) 및 표지판(52)로부터 반사된 센싱 신호를 나타내는 영역(59)을 구별할 수 있다.
전자 장치(100)는 영역(56)에 대응되는 센싱 신호에 기초하여 차량(1000)과 고가 도로(51) 간의 거리를 산출할 수 있다. 또한, 전자 장치(100)는 영역(58)에 대응되는 센싱 신호에 기초하여 차량(1000)과 신호등(53) 간의 거리를 산출할 수 있다. 또한, 영역(59)에 대응되는 센싱 신호에 기초하여 차량(1000)과 표지판(52) 간의 거리를 산출할 수 있다.
또한, 전자 장치(100)는 차량(1000)과 고가 도로(51) 간의 거리, 차량(1000)과 신호등(53) 간의 거리 및 차량(1000)과 표지판(52) 간의 거리 중 적어도 하나를 선택적으로 산출할 수 있다. 예를 들어, 전자 장치(100)는 객체의 종류 및 위치에 따라 미리 설정된 신뢰도에 기초하여, 거리 산출에 이용될 객체를 선택할 수 있다. 예를 들어, 차량(1000)이 주행 중인 도로의 진행 방향과 수직인 방향으로 가로지르는 고가 도로(51)의 신뢰도가 가장 높기 때문에, 전자 장치(100)는 고가 도로(51), 표지판(52) 및 신호등(53) 중에서 고가 도로(51)를 선택하고, 고가 도로(51)와 차량(1000) 간의 거리를 산출할 수 있다.
또는, 전자 장치(100)는 고가 도로(51) 간의 거리, 차량(1000)과 신호등(53) 간의 거리 및 차량(1000)과 표지판(52) 간의 거리를 미리 산출해 놓을 수 있다. 이 경우, 전자 장치(100)는 고가 도로(51)의 신뢰도가 가장 높기 때문에, 고가 도로(51), 표지판(52) 및 신호등(53) 중에서 고가 도로(51)를 선택하고, 산출된 거리 값들 중에서 고가 도로(51)와 차량(1000) 간의 거리를 선택할 수 있다.
도 6을 참조하면, 주행 중인 차량(1000)의 전방에 위치 보정을 방해하는 주변 객체가 존재하는 경우에, 전자 장치(100)는 소정의 거리 센서를 이용하여 차량(1000)의 전방을 센싱할 수 있다. 예를 들어, 차량(1000)이 도로를 주행 중일 때, 차량(1000)의 전방에는 고가 도로(51), 표지판(52) 및 신호등(53)이 위치할 수 있으며, 고가 도로(51) 및 신호등(53)의 주변에는 다른 차량들이 위치할 수 있다. 고가 도로(51) 및 신호등(53)의 주변에는 다른 차량들은 지도에 등록된 객체가 아니며 지도 정보로부터 위치를 확인할 수 없는 객체에 해당되므로, 차량(1000)의 위치 보정을 방해하는 객체일 수 있다.
또한, 전자 장치(100)는 차량(1000)의 전방을 촬영하고, 촬영된 이미지 및 지도 정보에 기초하여 차량(1000)의 전방에 위치한 복수의 객체들 중에서 지도에 등록된 객체들(61, 62, 65)을 식별할 수 있다. 전자 장치(100)는 촬영된 이미지를 분석함으로써 촬영된 이미지 내의 복수의 객체를 추출할 수 있다. 또한, 전자 장치(100)는 추출된 복수의 객체를 지도 정보에 등록된 객체 정보와 비교함으로써 복수의 객체들 중에서 지도에 등록된 객체들(61, 62, 65) 및 지도에 등록되지 않은 다른 차량들을 구별할 수 있다.
또한, 전자 장치(100)는 차량(1000)의 전방을 향하여 센싱 신호를 방출할 수 있으며, 고가 도로(51), 표지판(52), 신호등(53), 및 다른 차량들로부터 반사된 센싱 신호를 수신할 수 있다.
또한, 전자 장치(100)는 수신된 센싱 신호를 분석함으로써, 수신된 센싱 신호에 대응되는 위치로서 차량(1000)의 전방 영역 내의 위치를 표시하기 위한 그래프(65)를 생성할 수 있다. 또한, 전자 장치(100)는 차량(1000)의 전방을 촬영한 이미지 및 그래프(65)를 비교함으로써, 그래프(65)에서 표지판(52)로부터 반사된 센싱 신호를 나타내는 영역(66)을 식별할 수 있다.
또한, 고가 도로(51) 및 신호등(53)의 주변에는 다른 차량들이 위치하기 때문에, 전자 장치(100)는 그래프(66)으로부터 고가 도로(51)로부터 반사된 센싱 신호를 나타내는 영역, 및 신호등(53)으로부터 반사된 센싱 신호를 나타내는 영역을 식별하지 못할 수 있다. 이 경우, 전자 장치(100)는 표지판(62)를 선택하고, 영역(66)에 대응되는 센싱 신호에 기초하여, 차량(1000)과 표지판(62) 간의 거리를 산출할 수 있다.
그러나, 전자 장치(100)가 거리 보정에 이용될 객체를 선택하는 방법은 위에 제한되지 않는다. 전자 장치(100)는, 센싱 신호와 무관하게, 촬영 이미지에서 지도에 등록된 객체들(61, 62, 65)의 주변에 지도에 등록되지 않은 다른 차량들이 위치하고 있는지에 기초하여, 객체들(61, 62, 65) 중에서 표지판(62)을 선택할 수도 있다.
도 7은 일부 실시예에 따른 전자 장치(100)가, 차량(1000)의 주변에 위치한 복수의 객체들 중에서, 위치 보정에 이용될 객체를 소정의 우선 순위에 따라 선택하는 방법의 흐름도이다.
동작 S700에서 전자 장치(100)는 차량(1000)의 주변에 위치한 복수의 객체들을 촬영할 수 있으며, 동작 S710에서 전자 장치(100)는 복수의 객체들 중에서, 차량(1000)의 위치 보정을 방해하는 주변 객체 및 차량(1000)의 위치 보정에 이용되는 객체를 구분할 수 있다.
동작 S720에서 전자 장치(100)는 기설정된 기준에 따라, 차량(1000)의 위치 보정에 이용되는 객체의 우선 순위를 결정할 수 있다. 전자 장치(100)는 차량(1000)의 위치를 보다 정확하게 보정할 수 있도록 객체의 우선 순위를 결정할 수 있다.
객체의 우선 순위를 결정하기 위한 기준은 다양한 상황을 고려하여 미리 설정될 수 있다. 예를 들어, 객체의 크기, 도로 상에서의 객체의 위치, 도로의 모양, 도로의 경사, 도로의 곡률, 및 차량(1000)에 대한 객체의 상대적인 위치 등을 고려하여, 객체의 우선 순위가 결정될 수 있다. 예를 들어, 객체의 크기가 큰 경우에 객체는 높은 우선 순위를 가질 수 있다. 또한, 예를 들어, 객체의 주변에 위치 보정을 방해하는 주변 객체의 수가 적다고 판단되는 경우에, 객체의 우선 순위가 높을 수 있다. 또한, 예를 들어, 차량(1000)으로부터 객체까지 연결되는 가상의 선이 도로와 평행한 경우에 객체는 높은 우선 순위를 가질 수 있다. 또한, 예를 들어, 차량(1000)으로부터 객체까지의 거리를 나타내는 가상의 선이 차량(1000)의 주행 방향과 평행한 경우에 객체는 높은 우선 순위를 가질 수 있다.
동작 730에서 전자 장치(100)는 결정된 우선 순위에 기초하여, 차량(1000)의 위치 보정에 이용되는 객체 중 적어도 하나를 선택할 수 있다. 보다 정확하게 차량(1000)의 위치를 보정하기 위하여, 전자 장치(100)는 차량(1000)의 위치 보정에 이용되는 객체를 복수로 선택할 수 있다.
도 8은 일부 실시예에 따른, 위치 보정에 이용될 객체의 주변에 주변 객체가 없는 경우에 전자 장치(100)가 객체 선택을 위한 우선 순위를 결정하는 예시를 나타내는 도면이다.
도 8을 참조하면, 전자 장치(100)는 도로를 주행 중인 차량(1000)의 전방에 위치 보정을 방해하는 주변 객체가 없는 경우에, 차량(1000)의 전방을 촬영하고 차량(1000)의 전방을 향하여 센싱 신호를 방출할 수 있다. 또한, 전자 장치(100)는 차량(1000)의 전방에 위치한 신호등(80), 교통 표지판(82) 및 버스 노선도(84)를 검출할 수 있다.
예를 들어, 전자 장치(100)는 신호등(80)이 도로의 진행 방향과 수직인 방향으로 도로를 가로질러 놓여있으며, 차량(1000)과 신호등(80)을 연결하는 가상의 선이 도로의 방향과 평행에 가장 가까움을 판단할 수 있다. 이에 따라, 전자 장치(100)는 신호등(80)의 우선 순위를 ‘1’로 결정할 수 있다.
또한, 예를 들어, 전자 장치(100)는 차량(1000)과 버스 노선도(84)를 연결하는 가상의 선이 도로의 방향과 수직에 가장 가까움을 판단할 수 있으며, 이에 따라, 전자 장치(100)는 버스 노선도(84)의 우선 순위를 ‘3’으로 결정할 수 있다.
도 9는 일부 실시예에 따른, 위치 보정에 이용될 객체의 주변에 주변 객체가 많은 경우에 전자 장치(100)가 객체 선택을 위한 우선 순위를 결정하는 예시를 나타내는 도면이다.
도 9를 참조하면, 전자 장치(100)는 도로를 주행 중인 차량(1000)의 전방에 위치 보정을 방해하는 다른 차량들이 많은 경우에, 차량(1000)의 전방을 촬영하고 차량(1000)의 전방을 향하여 센싱 신호를 방출할 수 있다.
신호등(90)의 주변에 위치한 다른 차량들로 인하여 전자 장치(100)는 차량(1000)과 신호등(90) 간의 거리를 정확하게 산출할 수 없어 신호등(90)의 신뢰도가 낮기 때문에, 전자 장치(100)는 신호등(90)을 위치 보정에 이용하지 않을 것을 결정할 수 있다.
또한, 전자 장치(100)는 주변의 다른 차량이 적은 표지판(92)의 우선 순위를 ‘1’로 결정하고, 주변의 다른 차량이 상대적으로 많은 버스 노선도(94)의 우선 순위를 ‘2’로 결정할 수 있다.
도 10은 일부 실시예에 따른 전자 장치(100)가 차량(1000)의 위치를 보정할 지를 결정하는 방법의 흐름도이다.
동작 S1000에서 전자 장치(100)는 차량(1000)의 위치를 보정하기 위한 주기를 설정할 수 있다. 전자 장치(100)는 사용자 입력에 기초하여 차량(1000)의 위치를 보정하기 위한 주기를 설정할 수 있다. 전자 장치(100)는 차량(1000)에 관한 다양한 상황에 기초하여 차량(1000)의 위치를 보정하기 위한 주기를 자동으로 설정할 수도 있다. 예를 들어, 도로의 교통 상황, 날씨, 온도 및 차량(1000)의 속도 등을 고려하여 차량(1000)의 위치를 보정하기 위한 주기가 설정될 수 있다.
동작 S1005에서 전자 장치(100)는 설정된 주기에 따라 차량(1000)의 주변을 촬영할 수 있다. 전자 장치(100)는 차량(1000)의 주변을 향하는 카메라를 제어함으로써 차량(1000)의 주변을 주기적으로 촬영할 수 있다.
동작 S1010에서 전자 장치(100)는 거리 센서를 이용하여 차량(1000)의 주변을 센싱할 수 있다. 전자 장치(100)는 차량(1000)의 주변을 촬영하면서 차량(1000)의 주변을 센싱하기 위한 센싱 신호를 방출할 수 있다.
동작 S1015에서 전자 장치(100)는 차량(1000)의 주변이 촬영된 이미지로부터 복수의 객체를 식별하고, 동작 S1020에서 전자 장치(100)는 복수의 객체를 향하여 센싱 신호를 방출한 거리 센서의 종류를 식별할 수 있다.
동작 S1025에서 전자 장치(100)는 위치 보정에 이용될 객체의 개수를 판단할 수 있다. 전자 장치(100)는 차량(1000)의 위치 보정에 이용될 객체의 주변에 위치 보정을 방해하는 주변 객체가 존재하는 지에 기초하여, 촬영된 복수의 객체들 중에서 차량(1000)의 위치 보정에 이용될 객체를 선택할 수 있다. 이 경우, 전자 장치(100)는 객체와 차량(1000) 간의 거리를 정확하게 산출할 수 있는 지에 관한 신뢰도에 기초하여, 차량(1000)의 위치 보정에 이용될 객체를 선택할 수 있다. 또한, 전자 장치(100)는 위치 보정에 이용될 객체의 개수를 계수할 수 있다.
동작 S1030에서 전자 장치(100)는 위치 보정에 이용될 객체의 종류를 판단할 수 있다. 예를 들어, 전자 장치(100)는 위치 보정에 이용될 객체가 고가 도로인지, 표지판인지, 건물인지, 버스 노선도인지 등을 판단할 수 있다. 전자 장치(100)는 위치 보정에 이용될 객체의 속성을 판단할 수도 있다. 예를 들어, 전자 장치(100)는 객체의 크기, 객체의 도로 상의 위치, 차량(1000)에 대한 객체의 상대적인 위치 등을 판단할 수 있다.
동작 S1040에서 전자 장치(100)는 차량(1000)의 위치를 보정할 지를 판단할 수 있다. 전자 장치(100)는 동작 S1020 내지 동작 S1030에 기초하여 차량(1000)의 위치를 보정할 지를 판단할 수 있다. 이 경우, 전자 장치(100)는 차량(1000)의 위치를 정확하게 보정할 수 있는지에 관한 신뢰도에 기초하여, 차량(1000)의 위치를 보정할 지를 결정할 수 있다. 예를 들어, 전자 장치(100)는 객체의 신뢰도, 도로의 형상, 도로의 경사, 도로 상의 차량(1000)의 위치, 주변 차량의 개수, 도로와 차량(1000)과 객체 간의 상대적인 위치 등을 고려하여 차량(1000)의 위치를 보정할 지를 결정할 수 있다.
동작 S1040에서의 판단 결과, 전자 장치(100)가 차량(1000)의 위치를 보정하기로 판단한 경우, 동작 S1050에서 전자 장치(100)는 차량(1000)의 위치를 보정할 수 있다.
동작 S1040에서의 판단 결과, 전자 장치(100)가 차량(1000)의 위치를 보정하기로 않기로 판단한 경우, 동작 S1060에서 전자 장치(100)는 차량(1000)의 위치를 보정하지 않고 차량(1000)의 위치 보정을 위하여 대기할 수 있다. 전자 장치(100)는 설정된 주기에 따라 다음 주기에 차량(1000)의 위치를 보정하기 위하여 대기할 수 있다.
도 11은 일부 실시예에 따른 전자 장치(100)가 차량(1000)의 위치를 보정하기로 결정하는 경우를 나타내는 예시를 도시한 도면이다.
도 11을 참조하면, 전자 장치(100)는 도로를 주행 중인 차량(1000)의 전방에 위치 보정을 방해하는 다른 차량들이 많지 않은 경우에, 차량(1000)의 전방을 촬영하고 차량(1000)의 전방을 향하여 센싱 신호를 방출할 수 있다.
차량(1000)의 전방에 위치한 다른 차량들로 인하여 전자 장치(100)는 차량(1000)과 신호등(112) 간의 거리를 산출할 수 없다고 판단할 수 있다. 하지만, 전자 장치(100)는 차량(1000)과 표지판(104) 간의 거리, 및 차량(1000)과 버스노선도(106) 간의 거리를 산출할 수 있다고 판단할 수 있다.
이 경우, 차량(1000)은, 전방을 향하여 센싱 신호를 방출한 센서의 종류, 위치 보정에 객체의 개수 및 객체의 종류 중 적어도 하나를 고려하여, 차량(1000)과 객체 간의 거리를 정확하게 산출할 수 있는 지를 판단할 수 있다.
또한, 차량(1000)은 차량(1000)과의 거리가 산출될 수 있는 객체가 존재하기 때문에, 전자 장치(100)는 차량(1000)의 위치를 보정할 것을 결정할 수 있다.
도 12는 일부 실시예에 따른 전자 장치(100)가 차량(1000)의 위치를 보정하지 않는 경우를 나타내는 예시를 도시한 도면이다.
도 12를 참조하면, 전자 장치(100)는 도로를 주행 중인 차량(1000)의 전방에 위치 보정을 방해하는 다른 차량들이 많은 경우에, 차량(1000)의 전방을 촬영하고 차량(1000)의 전방을 향하여 센싱 신호를 방출할 수 있다.
차량(1000)의 전방에 위치한 다른 차량들 및 가로수들로 인하여 전자 장치(100)는 차량(1000)과 신호등(102) 간의 거리, 차량(1000)과 표지판(104) 간의 거리, 및 차량(1000)과 버스노선도(106) 간의 거리를 정확하게 산출할 수 없기 때문에, 전자 장치(100)는 차량(1000)의 위치를 보정하지 않을 것을 결정할 수 있다.
도 13은 일부 실시예에 따른 전자 장치(100)가 지도 정보를 이용하여 차량(1000)의 위치를 보정하는 방법의 흐름도이다.
동작 S1300에서 전자 장치(100)는 차량(1000)의 주변을 촬영하고 제1 거리를 측정할 수 있다. 전자 장치(100)는 차량(1000)의 주변을 촬영하면서 차량(1000)의 주변을 향하여 센싱 신호를 방출하고 객체로부터 반사되는 센싱 신호를 수신할 수 있다. 또한, 전자 장치(100)는 방출되고 수신된 센싱 신호에 기초하여, 차량(1000)과 객체 간의 제1 거리를 산출할 수 있다.
동작 S1310에서 전자 장치(100)는 차량(1000)의 주변을 촬영한 시각을 확인할 수 있다. 차량(1000)의 주변을 촬영한 시각, 센싱 신호를 방출한 시각, 센싱 신호를 수신한 시각은 실질적으로 거의 동일할 수 있다.
동작 S1320에서 전자 장치(100)는 확인된 시각에 차량(1000)이 위치했던 지점의 주변의 지도 정보를 획득할 수 있다. 전자 장치(100)는 확인된 시각에 기초하여, 확인된 시각에 차량(1000)이 위치했던 지점의 주변 지도에 관한 지도 정보를 획득할 수 있다. 전자 장치(100)는 지도 정보를 전자 장치(100)의 메모리로부터 추출할 수 있다. 또한, 전자 장치(100)는 지도 정보를 전자 장치(100)와 연결된 다른 장치 또는 서버(2000)로부터 수신할 수 있다. 또한, 전자 장치(100)는 확인된 시각에 차량(1000)이 위치했던 지점을 나타내는 위치 정보를 획득할 수 있다. 위치 정보는, 예를 들어, GPS 값, 지도 상의 좌표 값을 포함할 수 있으나 이에 한정되지 않는다.
동작 S1330에서 전자 장치(100)는 지도 정보로부터 제2 거리를 획득할 수 있다. 전자 장치(100)는 확인된 시각에 차량(1000)이 위치했던 지도 상의 지점 및 객체의 지도 상의 위치에 기초하여, 지도 상의 차량(1000)의 위치로부터 지도 상의 객체까지의 제2 거리를 획득할 수 있다.
동작 S1340에서 전자 장치(100)는 제1 거리 및 제2 거리에 기초하여, 차량(1000)의 위치를 보정할 수 있다. 전자 장치(100)는 제1 거리, 제2 거리, 도로의 형상, 도로의 경사, 도로 상의 차량(1000)의 위치, 도로와 차량(1000)과 객체 간의 상대적인 위치 등을 고려하여, 차량(1000)의 위치를 보정할 수 있다. 전자 장치(100)는 차량(1000)의 주행 방향을 따라 차량(1000)의 위치를 보정할 수 있다. 전자 장치(100)는 차량(1000)의 전후 방향을 따라 차량(1000)의 위치를 보정할 수 있다.
도 14는 일부 실시예에 따른 전자 장치(100)가 시간의 흐름에 따라 차량(1000)의 위치를 보정하는 예시를 나타내는 도면이다.
t0 시각에 전자 장치(100)는 차량(1000)의 전방을 촬영하면서 차량(1000)의 전방을 센싱할 수 있으며, t1 시각에 전자 장치(100)는 차량(1000)의 위치를 보정할 지를 결정할 수 있다.
또한, t2 시각에 전자 장치(100)는 차량(1000)의 전방의 복수의 객체들 중에서 위치 보정에 이용될 객체를 선택할 수 있으며, t3 시각에 전자 장치(100)는 선택된 객체와의 제1 거리를 획득할 수 있다. 제1 거리를 t0 내지 t3 시간 중에 산출될 수 있으나, 이에 한정되지 않는다.
또한, t4 시각에 전자 장치(100)는 t0 시각에 차량(1000)이 위치했던 지점의 지도 정보를 획득할 수 있다. 또한, t5 시각에 전자 장치(100)는 t0 시각에서의 차량(1000)과 객체 간의 지도 상의 제2 거리를 획득할 수 있으며, t6 시각에 전자 장치(100)는 차량(1000)의 지도 상의 현재 위치를 보정할 수 있다. 전자 장치(100)는 t0 시각을 기준으로 하여 산출된 차량(1000)의 위치 보정 값을 차량(1000)의 현재 위치에 적용함으로써, 차량(1000)의 지도 상의 현재 위치를 보정할 수 있다.
도 15는 일부 실시예에 따른 차량(1000)이 직선 도로를 주행 중인 경우에, 전자 장치(100)가 차량(1000)의 위치를 보정하는 방법의 흐름도이다.
동작 S1500에서 전자 장치(100)는 제1 거리를 획득할 수 있으며, 동작 S1510에서 전자 장치(100)는 제2 거리를 획득할 수 있다.
동작 S1530에서 전자 장치(100)는 제1 거리 및 제2 거리의 차이를 획득할 수 있으며, 동작 S1540에서 전자 장치(100)는 제1 거리 및 제2 거리의 차이에 기초하여 차량(1000)의 위치를 보정할 수 있다.
만약, 차량(1000)과 객체를 연결하는 가상의 선과 직선 도로가 평행하지 않는다면, 전자 장치(100)는 객체를 연결하는 가상의 선과 직선 도로가 이루는 각의 각도 값을 고려하여 차량(1000)의 위치를 보정할 수 있다. 또한, 직선 도로가 경사진 경우에, 전자 장치(100)는 직선 도로의 경사를 고려하여 차량(1000)의 위치를 보정할 수도 있다.
도 16은 일부 실시예에 따른 차량(1000)이 직선 도로를 주행 중인 경우에, 전자 장치(100)가 위치 보정될 거리 값을 산출하는 예시를 나타내는 도면이다.
도 16을 참조하면, 차량(1000)이 직선 도로를 주행 중인 경우에, 전자 장치(100)는 차량(1000)과 객체(160) 간의 제1 거리(d1)을 측정할 수 있다. 또한, 전자 장치(100)는 차량(1000)의 지도 상의 위치(162)와 객체(160) 간의 제2 거리(d2)를 획득할 수 있다. 전자 장치(100)는 제1 거리(d1)와 제2 거리(d2)의 차이 값을 산출함으로써, 차량(1000)의 위치를 보정하기 위한 위치 보정 값(d1-d2)를 획득할 수 있다.
도 17은 일부 실시예에 따른 차량(1000)이 곡선 도로를 주행 중인 경우에, 전자 장치(100)가 차량(1000)의 위치를 보정하는 방법의 흐름도이다.
동작 S1700에서 전자 장치(100)는 차량(1000)의 주변을 촬영하고 제1 거리를 획득할 수 있으며, 동작 S1710에서 전자 장치(100)는 제2 거리를 획득할 수 있다.
동작 S1720에서 전자 장치(100)는 차량(1000)의 주변을 촬영한 때의 도로의 곡률에 관한 곡률 정보를 획득할 수 있다. 전자 장치(100)는 차량(1000)의 주변을 촬영한 이미지 내의 도로의 형상을 분석하여 도로의 곡률을 획득할 수 있다. 전자 장치(100)는 차량(1000)의 주변을 촬영한 때에 차량(1000)이 주행 중이었던 곳의 지도 정보로부터 도로의 곡률에 관한 곡률 정보를 추출할 수 있다.
동작 S1730에서 전자 장치(100)는 제1 거리, 제2 거리 및 도로의 곡률에 기초하여, 차량(1000)의 위치를 보정할 수 있다. 전자 장치(100)는 도로의 곡률에 기초하여, 차량(1000)과 객체를 연결하는 가상의 선 및 지도 상의 차량(1000)과 지도 상의 객체를 연결하는 가상의 선에 의해 형성되는 각의 각도를 산출함으로써, 차량(1000)의 실제 위치와 차량(1000)의 지도 상의 위치 간의 거리 차이를 산출할 수 있다. 또한, 도로가 경사진 경우에, 전자 장치(100)는 도로의 경사를 고려하여 차량(1000)의 위치를 보정할 수 있다. 또한, 전자 장치(100)는 삼각 측량법을 이용하여 차량(1000)의 위치를 보정할 수 있다. 또한, 전자 장치(100)는 도로의 곡률의 크기 또는 곡률의 변화량에 따라, 상이한 위치 측량 방법을 이용하여 차량(1000)의 위치를 보정할 수 있다.
도 18은 일부 실시예에 따른 차량(1000)이 곡선 도로를 주행 중인 경우에, 전자 장치(100)가 위치 보정될 거리 값을 산출하는 예시를 나타내는 도면이다.
도 18을 참조하면, 차량(1000)이 곡선 도로를 주행 중인 경우에, 전자 장치(100)는 차량(1000)과 객체(180) 간의 제1 거리(d3)을 측정할 수 있다. 또한, 전자 장치(100)는 차량(1000)의 지도 상의 위치(162)와 객체(160) 간의 제2 거리(d4)를 획득할 수 있다.
또한, 전자 장치(100)는 곡선 도로의 곡률을 이용하여, 차량(1000)과 객체를 연결하는 가상의 선(s1) 및 지도 상의 차량(1000)과 지도 상의 객체를 연결하는 가상의 선(s2)에 의해 형성되는 각의 각도를 산출할 수 있다. 전자 장치(100)는 객체(180)를 촬영한 때에 차량(100)이 주행한 도로의 곡률 값을 지도 정보로부터 추출하고, 추출된 곡률 값을 이용하여 가상의 선(s1)과 가상의 선(s2)에 의해 형성되는 각의 각도를 산출할 수 있다.
또한, 전자 장치(100)는 산출된 각도, 제1 거리(d3) 및 제2 거리(d4)를 이용하여, 차량(1000)의 실제 위치와 차량(1000)의 지도 상의 위치(182) 간의 거리 차이를 산출할 수 있다.
도 19는 일부 실시예에 따른 차량(1000)이 직선 도로를 주행 중인 경우에, 전자 장치(100)가 차량(1000)의 위치 보정을 위한 객체를 복수 개 선택하고, 선택된 복수의 객체와의 거리에 기초하여 차량(1000)의 지도 상의 위치를 변경하는 예시를 나타내는 도면이다.
도 19를 참조하면, 차량(1000)이 직선 도로를 주행 중인 경우에, 전자 장치(100)는 차량(1000)의 지도 상의 위치를 보정하기 위하여, 표지판(190) 및 신호등(192)를 선택할 수 있다.
또한, 전자 장치(100)는 차량(1000)과 표지판(190) 간의 거리(d6)을 측정하고, 차량(1000)과 신호등(192) 간의 거리(d7)를 산출할 수 있다. 또한, 전자 장치(100)는 차량(1000)과 표지판(190)을 연결하는 가상의 선과 차량(1000)과 신호등(192)을 연결하는 가상의 선이 형성하는 각도를 측정할 수 있다. 또한, 전자 장치(100)는 삼각 측량법을 이용하여 표지판(190) 및 신호등(192)에 대한 차량(1000)의 상대적인 위치 값을 산출할 수 있다.
또한, 전자 장치(100)는 차량(1000)의 지도 상의 위치(194)와 표지판(190) 간의 거리(d8)를 산출하고, 차량(1000)의 지도 상의 위치(194)와 신호등(192) 간의 거리(d9)를 산출할 수 있다. 또한, 전자 장치(100)는 차량(1000)의 지도 상의 위치(194)와 표지판(190)을 연결하는 가상의 선과 차량(1000)의 지도 상의 위치(194)와 신호등(192)을 연결하는 가상의 선이 형성하는 각도를 획득할 수 있다. 또한, 전자 장치(100)는 삼각 측량법을 이용하여 표지판(190) 및 신호등(192)에 대한 지도 상의 차량의 상대적인 위치 값을 산출할 수 있다.
이후, 전자 장치(100)는 표지판(190) 및 신호등(192)에 대한 차량(1000)의 상대적인 위치 값을, 표지판(190) 및 신호등(192)에 대한 지도 상의 차량의 상대적인 위치 값과 비교함으로써, 지도 상의 차량(1000)의 위치를 보정할 수 있다. 이 경우, 전자 장치(100)는 지도 상의 차량(1000)의 위치를 전후 및 좌우 방향으로 보정할 수 도 있다.
도 20은 일부 실시예에 따른 차량(1000)이 곡선 도로를 주행 중인 경우에, 전자 장치(100)가 차량(1000)의 위치 보정을 위한 객체를 복수 개 선택하고, 선택된 복수의 객체와의 거리에 기초하여 차량(1000)의 지도 상의 위치를 변경하는 예시를 나타내는 도면이다.
도 20을 참조하면, 차량(1000)이 곡선 도로를 주행 중인 경우에, 전자 장치(100)는 차량(1000)의 지도 상의 위치를 보정하기 위하여, 표지판(200) 및 신호등(202)를 선택할 수 있다.
또한, 전자 장치(100)는 차량(1000)과 표지판(200) 간의 거리(d11)을 측정하고, 차량(1000)과 신호등(202) 간의 거리(d12)를 산출할 수 있다. 또한, 전자 장치(100)는 차량(1000)과 표지판(200)을 연결하는 가상의 선과 차량(1000)과 신호등(202)을 연결하는 가상의 선이 형성하는 각도를 측정할 수 있다. 또한, 전자 장치(100)는 삼각 측량법을 이용하여 표지판(200) 및 신호등(202)에 대한 차량(100)의 상대적인 위치 값을 산출할 수 있다.
또한, 전자 장치(100)는 차량(1000)의 지도 상의 위치(204)와 표지판(200) 간의 거리(d13)를 산출하고, 차량(1000)의 지도 상의 위치(204)와 신호등(202) 간의 거리(d14)를 산출할 수 있다. 또한, 전자 장치(100)는 차량(1000)의 지도 상의 위치(204)와 표지판(200)을 연결하는 가상의 선과 차량(1000)의 지도 상의 위치(204)와 신호등(202)을 연결하는 가상의 선이 형성하는 각도를 획득할 수 있다. 또한, 전자 장치(100)는 삼각 측량법을 이용하여 표지판(200) 및 신호등(202)에 대한 지도 상의 차량의 상대적인 위치 값을 산출할 수 있다.
이후, 전자 장치(100)는 표지판(200) 및 신호등(202)에 대한 차량(100)의 상대적인 위치 값을, 표지판(200) 및 신호등(202)에 대한 지도 상의 차량의 상대적인 위치 값과 비교함으로써, 지도 상의 차량(1000)의 위치를 보정할 수 있다. 이 경우, 전자 장치(100)는 지도 상의 차량(1000)의 위치를 전후 및 좌우 방향으로 보정할 수 도 있다.
도 21은 일부 실시예에 따른 전자 장치(100)가 복수의 방향으로 차량(1000)의 위치를 보정하는 방법의 흐름도이다.
동작 S1900에서 전자 장치(100)는 차량(1000)의 GPS 값 및 지도 정보에 기초하여, 도로 단위로 차량(1000)의 위치를 보정할 수 있다. 지도 상에서 차량(1000)이 도로 밖에 위치하고 있는 경우에, 전자 장치(100)는 지도 상의 차량(1000)의 위치를 도로 안으로 이동시킬 수 있다. 전자 장치(100)는 차량(1000)의 GPS 값 및 지도 상의 도로의 위치를 비교하여, 차량(1000)의 GPS 값을 도로 내의 위치를 나타내는 값으로 보정할 수 있다.
동작 S1910에서 전자 장치(100)는 카메라로 촬영된 이미지를 이용하여 도로 상에서 차량(1000)이 주행 중인 차선을 판단할 수 있다. 전자 장치(100)는 차량(1000)의 주변이 촬영된 이미지 내에 포함된 도로의 차선들이 이미지 내에서 어느 위치에 위치하는지를 분석함으로써, 도로의 차선들 중에서 차량(1000)이 실제 주행 중인 차선을 판단할 수 있다.
동작 S1920에서 전자 장치(100)는 차량(1000)의 위치를 좌우방향으로 보정할 수 있다. 지도 상에서 차량(1000)이 주행 중인 차선과 차량(1000)이 실제 주행하고 있는 차선이 상이한 경우에, 전자 장치(100)는 차량(1000)의 위치를 좌우 방향으로 보정할 수 있다. 또한, 전자 장치(100)는 차량(1000)의 위치를 좌우 방향으로 보정함으로써, 지도 상에서도 차량(1000)이 실제 주행하고 있는 차선과 동일한 차선으로 주행하도록 할 수 있다.
전자 장치(100)는 지도 정보 및 차량(1000)의 GPS 값에 기초하여 지도 내의 도로에서 차량(1000)이 주행 중인 차선을 판단하고, 판단된 지도 상의 차선을 차량(1000)이 실제 주행 중인 차선과 비교함으로써, 차량(1000)의 지도 상의 위치를 좌우 방향으로 보정할 수 있다.
동작 S1930에서 전자 장치(100)는 센싱된 객체에 기초하여 차량(1000)의 전후 방향으로 차량(1000)의 위치를 보정할 수 있다. 전자 장치(100)는 차량(1000)의 주변에서 감지된 객체와 차량(1000) 간의 제1 거리를 측정함으로써, 차량(1000)의 주행 방향을 따라 차량(1000)의 위치를 보정할 수 있다.
동작 S1940에서 전자 장치(100)는 차량(1000)의 보정된 위치에 대한 정보를 위치 정보를 이용하는 소프트웨어 프로그램에게 제공할 수 있다. 예를 들어, 전자 장치(100)는 차량(1000)의 보정된 위치에 대한 정보를 네비게이션 프로그램, 자율 주행 프로그램 및 도로 정보 수집 프로그램 중 적어도 하나에게 제공할 수 있다.
위치 정보를 이용하는 소프트웨어 프로그램은 전자 장치(100) 내에서 실행되는 소프트웨어 프로그램일 수 있으나, 이에 제한되지 않는다. 위치 정보를 이용하는 소프트웨어 프로그램은 전자 장치(100)와 통신 연결된 다른 전자 장치에서 실행 중일 수 있다. 이 경우, 전자 장치(100)는 차량(1000)의 보정된 위치에 대한 정보를 다른 전자 장에게 전송하면서, 다른 전자 장치에 설치된 소프트웨어 프로그램에게 차량(1000)의 보정된 위치에 대한 정보를 제공할 것을 요청할 수 있다.
도 22는 일부 실시예에 따른 전자 장치(100)의 하드웨어 블록도의 예시이며, 도 23 및 도 24는 일부 실시예에 따른 전자 장치(100) 및 차량(1000)의 하드웨어의 블록도의 예시이다.
도 22에 도시된 바와 같이, 일부 실시예에 따른 전자 장치(100)는 센싱 장치(230) 및 프로세서(290)을 포함할 수 있다. 그러나, 도 22에 도시된 구성 요소 모두가 전자 장치(100)의 필수 구성 요소인 것은 아니다. 도 22에 도시된 구성 요소보다 많은 구성 요소에 의해 전자 장치(100)가 구현될 수도 있고, 도 22에 도시된 구성 요소보다 적은 구성 요소에 의해 전자 장치(100)가 구현될 수도 있다. 예를 들어, 도 23 및 도 24에 도시된 바와 같이, 일부 실시예에 따른 전자 장치(100)는 전원 공급 장치(299), 통신 장치(250), 입력 장치(260), 저장 장치(270), 주변 장치(240) 및 출력 장치(280) 중 적어도 하나를 더 포함할 수 있다. 또한, 차량(1000)은 도 24에서와 추진 장치(210) 및 주행 장치(220)를 포함할 수 있으나, 이에 제한되지 않으며, 차량(1000)은 전자 장치(100)의 구성들 중 일부를 포함할 수 있다. 또한, 전자 장치(100)는 도 23에 도시된 전자 장치(100)의 구성 요소들을 가지는 다른 장치일 수 있으며, 이 경우, 전자 장치(100)는 차량(1000) 내의 헤드 유닛과 통신 연결되어 차량(1000)의 지도 상의 위치를 보정할 수도 있다.
이하에서는, 도 22 내지 도 24를 참조하여 차량(1000) 및 전자 장치(100)에 포함될 수 있는 구성 요소들의 기능을 보다 상세하게 설명하기로 한다.
추진 장치(210)는 엔진/모터(211), 에너지원(212), 변속기(213) 및 휠/타이어(214)를 포함할 수 있다.
엔진/모터(211)는 내연 기관, 전기 모터, 증기 기관, 및 스틸링 엔진(stirling engine) 간의 임의의 조합이 될 수 있다. 예를 들어, 차량(1000)이 가스-전기 하이브리드 자동차(gas-electric hybrid car)인 경우, 엔진/모터(211)는 가솔린 엔진 및 전기 모터가 될 수 있다.
에너지원(212)은 엔진/모터(211)에 전체적으로 또는 부분적으로 동력을 제공하는 에너지의 공급원일 수 있다. 즉, 엔진/모터(211)는 에너지원(212)을 기계 에너지로 변환하도록 구성될 수 있다. 에너지원(212)의 예로는 가솔린, 디젤, 프로판, 다른 압축 가스 기반 연료들, 에탄올, 태양광 패널(solar panel), 배터리, 및 다른 전기 전력원들 중 적어도 하나가 될 수 있다. 또는, 에너지원(212)은 연료 탱크, 배터리, 커패시터, 및 플라이휠(flywheel) 중 적어도 하나가 될 수 있다. 에너지원(212)은 차량(1000)의 시스템 및 장치에 에너지를 제공할 수 있다.
변속기(213)는 기계적 동력을 엔진/모터(211)로부터 휠/타이어(214)에 전달하도록 구성될 수 있다. 예를 들어, 변속기(213)는 기어박스, 클러치, 차동 장치(differential), 및 구동축 중 적어도 하나를 포함할 수 있다. 변속기(213)가 구동축들을 포함하는 경우, 구동축들은 휠/타이어(214)에 결합되도록 구성되는 하나 이상의 차축들을 포함할 수 있다.
휠/타이어(214)은 외발 자전거, 자전거/오토바이, 삼륜차, 또는 자동차/트럭의 사륜 형식을 포함한 다양한 형식들로 구성될 수 있다. 예를 들어, 6개 이상의 휠을 포함하는 것과 같은 다른 휠/타이어 형식이 가능할 수 있다. 휠/타이어(214)은 변속기(213)에 고정되게 부착되어 있는 적어도 하나의 휠, 및 구동면(driving surface)과 접촉할 수 있는 휠의 림(rim)에 결합되어 있는 적어도 하나의 타이어를 포함할 수 있다.
주행 장치(220)는 브레이크 유닛(221), 조향 유닛(222) 및 스로틀(223)을 포함할 수 있다. 브레이크 유닛(221)은 차량(1000)을 감속시키도록 구성되는 매커니즘들의 조합이 될 수 있다. 예를 들어, 브레이크 유닛(221)은 휠/타이어(214)의 속도를 줄이기 위해 마찰을 사용할 수 있다. 조향 유닛(222)은 차량(1000)의 방향을 조절하도록 구성되는 매커니즘들의 조합이 될 수 있다. 스로틀(223)은 엔진/모터(211)의 동작 속도를 제어하여, 차량(1000)의 속도를 제어하도록 구성되는 매커니즘들의 조합이 될 수 있다. 또한, 스로틀(223)은 스로틀 개방량을 조절하여 엔진/모터(211)로 유입되는 연료공기의 혼합 가스 양을 조절할 수 있으며, 스로틀 개방량을 조절하여 동력 및 추력을 제어할 수 있다.
센싱 장치(230)는 차량(1000)이 위치해 있는 환경에 관한 정보를 감지하도록 구성되는 다수의 센서들을 포함할 수 있고, 뿐만 아니라 센서들의 위치 및/또는 배향을 수정하도록 구성되는 하나 이상의 액추에이터들을 포함할 수 있다. 예를 들어, 센싱 장치(230)는 GPS(Global Positioning System)(224), IMU(Inertial Measurement Unit)(225), RADAR 유닛(226), LIDAR 유닛(227), 및 카메라(228)를 포함할 수 있다. 또한, 센싱 장치(230)는 온/습도 센서(232), 적외선 센서(233), 기압 센서(235), 근접 센서(236), 및 RGB 센서(illuminance sensor)(237) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
또한, 센싱 장치(230)는 차량(1000)의 움직임을 센싱할 수 있는 움직임 센싱 장치(238)를 포함할 수 있다. 움직임 센싱 장치(238)는 지자기 센서(Magnetic sensor)(229), 가속도 센서(Acceleration sensor)(231), 및 자이로스코프 센서(234)를 포함할 수 있다.
GPS(224)는 차량(1000)의 지리적 위치를 추정하도록 구성되는 센서일 수 있다. 즉, GPS(224)는 지구에 대한 차량(1000)의 위치를 추정하도록 구성되는 송수신기를 포함할 수 있다.
IMU(225)는 관성 가속도에 기초하여 차량(1000)의 위치 및 배향 변화들을 감지하도록 구성되는 센서들의 조합이 될 수 있다. 예를 들어, 센서들의 조합은, 가속도계들 및 자이로스코프들을 포함할 수 있다.
RADAR 유닛(226)은 무선 신호를 사용하여 차량(1000) 주변의 물체들을 감지하도록 구성되는 센서일 수 있다. 또한, RADAR 유닛(226)은, 물체들의 속도 및/또는 방향을 감지하도록 구성될 수 있다.
LIDAR 유닛(227)은 레이저를 사용하여 차량(1000) 주변의 물체들을 감지하도록 구성되는 센서일 수 잇다. 보다 구체적으로, LIDAR 유닛(227)은 레이저를 방출하도록 구성되는 레이저 광원 및/또는 레이저 스캐너와, 레이저의 반사를 검출하도록 구성되는 검출기를 포함할 수 잇다. LIDAR 유닛(227)은 코히런트(coherent)(예컨대, 헤티로다인 검출을 사용함) 또는 비코히런트(incoherent) 검출 모드에서 동작하도록 구성될 수 있다. 또한, 전자 장치(100)는 차량(100) 주변의 물체들을 감지하기 위한 초음파 센서(미도시)를 더 포함할 수 있다.
카메라(228)는 차량(1000)의 내부 또는 외부를 촬영하기 위한 스틸 카메라 또는 비디오 카메라일 수 있다. 예를 들어, 카메라(228)가 복수인 경우에, 카메라(228)는 차량(1000)의 내부 및 외부의 여러 위치에 배치될 수 있다.
주변 장치(240)는 네비게이션(241), 라이트(242), 방향 지시등(243), 와이퍼(244), 내부 조명(245), 히터(246), 및 에어컨(247)을 포함할 수 있다.
네비게이션(241)은 차량(1000)에 대한 운행 경로를 결정하도록 구성되는 시스템일 수 있다. 네비게이션(241)은 차량(1000)이 주행하고 있는 동안 동적으로 운행 경로를 갱신하도록 구성될 수 있다. 예를 들어, 네비게이션(241)은 차량(1000)에 대한 운행 경로를 결정하기 위해, GPS(224) 및 지도들로부터의 데이터를 이용할 수 있다. 네비게이션 장치(241)는 전자 장치(100)와 별개의 장치가 아닐 수 있으며, 전자 장치(100)가 네비게이션 장치(241)의 기능을 수행할 수도 있다.
저장 장치(270)는 마그네틱 디스크 드라이브, 광학 디스크 드라이브, 플래쉬 메모리를 포함할 수 있다. 또는 저장 장치(270)는 휴대 가능한 USB 데이터 저장 장치가 될 수 있다. 저장 장치(270)는 본원과 관련되는 예들을 실행하기 위한 시스템 소프트웨어를 저장할 수 있다. 본원과 관련되는 예들을 실행하기 위한 시스템 소프트웨어는 휴대 가능한 저장 매체에 저장될 수 있다.
통신 장치(250)는 다른 디바이스와 무선으로 통신하기 위한 적어도 하나의 안테나를 포함할 수 있다. 예를 들어, 통신 장치(250)는 와이파이 또는 블루투스를 통해 무선으로 셀룰러 네트워크 또는 다른 무선 프로토콜 및 시스템과 통신하기 위해 이용될 수 있다. 프로세서(290)에 의해 제어되는 통신 장치(250)는 무선 신호를 송수신할 수 있다. 예를 들어, 프로세서(290)는, 통신 장치(250)가 셀룰러 네트워크와 무선 신호를 송수신하기 위해, 저장 장치(270)에 포함된 프로그램을 실행시킬 수 있다.
입력 장치(260)는 차량(1000)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 입력 장치(260)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다. 또한, 입력 장치(260)는 마이크를 포함할 수 있는 바, 마이크는 차량(1000)의 탑승자로부터 오디오(예를 들어, 음성 명령)를 수신하도록 구성될 수 있다.
출력 장치(280)는 오디오 신호 또는 비디오 신호를 출력할 수 있으며, 출력 장치(280)는 디스플레이부(281), 및 음향 출력부(282)를 포함할 수 있다.
디스플레이부(281)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 출력 장치(280)의 구현 형태에 따라 출력 장치(280)는 디스플레이부(281)를 2개 이상 포함할 수도 있다.
음향 출력부(282)는 통신 장치(250)로부터 수신되거나 저장 장치(270)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(282)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
입력 장치(260) 및 출력 장치(280)는 네트워크 인터페이스를 포함할 수 있고, 터치 스크린으로 구현될 수 있다.
프로세서(290)는, 통상적으로 차량(1000)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(290)는, 저장 장치(270)에 저장된 프로그램들을 실행함으로써, 추진 장치(210), 주행 장치(220), 센싱 장치(230), 주변 장치(240), 통신 장치(250), 입력 장치(260), 저장 장치(270), 출력 장치(280), 및 전원 공급 장치(299) 중 적어도 하나를 전반적으로 제어할 수 있다.
프로세서(290)는, 저장 장치(270)에 저장된 프로그램들을 실행함으로써, 주행 중인 차량(1000)의 주변에 위치한 복수의 객체들을 식별하고, 복수의 객체들 중 적어도 하나의 객체와 차량(1000) 간의 거리에 기초하여, 전자 장치(100)가 이용하는 지도 상에서 차량(1000)의 위치를 보정할 수 있다.
프로세서(290)는, 카메라(228)를 제어함으로써 차량(1000)의 주변에 위치한 복수의 객체들을 촬영할 수 있다. 프로세서(290)는, 기설정된 기준에 따라 복수의 객체들 중 적어도 하나를 선택할 수 있다. 프로세서(290)는, 선택된 객체와 차량(1000) 간의 제1 거리를 거리 센서를 이용하여 산출할 수 있다. 프로세서(290)는, 거리 센서를 제어함으로써, 차량(1000) 주변의 복수의 객체들을 향하여 신호를 방출할 수 있으며, 복수의 객체들로부터 반사된 신호를 수신할 수 있다. 프로세서(290)는, 지도 정보 및 복수의 객체들을 촬영한 시각에 기초하여, 차량(1000)의 지도 상의 위치와 선택된 객체의 지도 상의 위치 간의 제2 거리를 획득할 수 있다. 프로세서(290)는, 제1 거리 및 제2 거리에 기초하여, 차량(1000)의 지도 상의 위치를 보정할 수 있다.
한편, 프로세서(290)는, 복수의 객체들 중에서 주변 객체 및 차량(1000)의 위치 보정에 이용되는 기설정된 객체를 구분할 수 있다. 프로세서(290)는, 복수의 객체들을 촬영한 이미지에서 차량(1000)의 위치 보정에 이용되는 객체 및 차량(1000)의 위치 보정을 방해하는 주변 객체를 구별하여 식별할 수 있다.
프로세서(290)는, 차량(1000)의 위치 보정에 이용되는 객체의 종류를 식별할 수 있다. 프로세서(290)는, 복수의 객체가 촬영된 때에 차량(1000)이 주행한 도로의 모양을 식별할 수 있다. 프로세서(290)는, 위치 보정을 위하여 이용된 거리 센서의 종류를 식별할 수 있다. 프로세서(290)는, 예를 들어, 차량(1000)의 위치 보정을 위하여 레이더 센서가 이용되었는지, 라이더 센서가 이용되었는지, 초음파 센서가 이용되었는지를 판단할 수 있으나, 이에 한정되지 않는다. 프로세서(290)는, 다양한 기준에 따라 복수의 객체들 중 적어도 하나를, 차량(1000)의 위치 보정을 위하여 선택할 수 있다.
한편, 프로세서(290)는, 기설정된 기준에 따라, 차량(1000)의 위치 보정에 이용되는 객체의 우선 순위를 결정할 수 있다. 프로세서(290)는, 차량(1000)의 위치를 보다 정확하게 보정할 수 있도록 객체의 우선 순위를 결정할 수 있다. 객체의 우선 순위를 결정하기 위한 기준은 다양한 상황을 고려하여 미리 설정될 수 있다. 프로세서(290)는, 결정된 우선 순위에 기초하여, 차량(1000)의 위치 보정에 이용되는 객체 중 적어도 하나를 선택할 수 있다. 보다 정확하게 차량(1000)의 위치를 보정하기 위하여, 프로세서(290)는, 차량(1000)의 위치 보정에 이용되는 객체를 복수로 선택할 수 있다.
한편, 프로세서(290)는, 차량(1000)의 주변이 촬영된 이미지로부터 복수의 객체를 식별하고, 전자 장치(100)는 복수의 객체를 향하여 센싱 신호를 방출한 거리 센서의 종류를 식별할 수 있다. 프로세서(290)는, 위치 보정에 이용될 객체의 개수를 판단할 수 있다. 프로세서(290)는, 차량(1000)의 위치 보정에 이용될 객체의 주변에 위치 보정을 방해하는 주변 객체가 존재하는 지에 기초하여, 촬영된 복수의 객체들 중에서 차량(1000)의 위치 보정에 이용될 객체를 선택할 수 있다. 이 경우, 프로세서(290)는, 객체와 차량(1000) 간의 거리를 정확하게 산출할 수 있는 지에 관한 신뢰도에 기초하여, 차량(1000)의 위치 보정에 이용될 객체를 선택할 수 있다. 또한, 프로세서(290)는, 위치 보정에 이용될 객체의 개수를 계수할 수 있으며, 위치 보정에 이용될 객체의 종류를 판단할 수 있다. 프로세서(290)는, 위치 보정에 이용될 객체의 속성을 판단할 수도 있다. 프로세서(290)는, 주변 객체의 존재 여부, 위치 보정에 이용될 객체의 개수, 위치 보정에 이용될 객체의 종류 등에 기초하여 차량(1000)의 위치를 보정할 지를 판단할 수 있다. 프로세서(290)는, 차량(1000)의 위치를 정확하게 보정할 수 있는지에 관한 신뢰도에 기초하여, 차량(1000)의 위치를 보정할 지를 결정할 수 있다.
프로세서(290)가 차량(1000)의 위치를 보정하기로 판단한 경우, 프로세서(290)는, 차량(1000)의 위치를 보정할 수 있다. 프로세서(290)가 차량(1000)의 위치를 보정하기로 않기로 판단한 경우, 프로세서(290)는, 차량(1000)의 위치를 보정하지 않고 차량(1000)의 위치 보정을 위하여 대기할 수 있다.
한편, 프로세서(290)는, 차량(1000)의 위치를 보정하기 위한 주기를 설정할 수 있다. 프로세서(290)는, 사용자 입력에 기초하여 차량(1000)의 위치를 보정하기 위한 주기를 설정할 수 있다. 프로세서(290)는, 차량(1000)에 관한 다양한 상황에 기초하여 차량(1000)의 위치를 보정하기 위한 주기를 자동으로 설정할 수도 있다. 예를 들어, 도로의 교통 상황, 날씨, 온도 및 차량(1000)의 속도 등을 고려하여 차량(1000)의 위치를 보정하기 위한 주기가 설정될 수 있다. 프로세서(290)는, 설정된 주기에 따라 차량(1000)의 주변을 촬영할 수 있다. 전자 장치(100)는 차량(1000)의 주변을 향하는 카메라를 제어함으로써 차량(1000)의 주변을 주기적으로 촬영할 수 있다. 프로세서(290)는, 거리 센서를 이용하여 차량(1000)의 주변을 주기적으로 센싱할 수 있다. 프로세서(290)는, 차량(1000)의 주변을 촬영하면서 차량(1000)의 주변을 센싱하기 위한 센싱 신호를 방출할 수 있다.
한편, 프로세서(290)는, 차량(1000)의 주변을 촬영하면서 차량(1000)의 주변을 향하여 센싱 신호를 방출하고 객체로부터 반사되는 센싱 신호를 수신할 수 있다. 프로세서(290)는, 방출되고 수신된 센싱 신호에 기초하여, 차량(1000)과 객체 간의 제1 거리를 산출할 수 있다. 프로세서(290)는, 차량(1000)의 주변을 촬영한 시각을 확인할 수 있다. 차량(1000)의 주변을 촬영한 시각, 센싱 신호를 방출한 시각, 센싱 신호를 수신한 시각은 실질적으로 거의 동일할 수 있다. 프로세서(290)는, 확인된 시각에 차량(1000)이 위치했던 지점의 주변의 지도 정보를 획득할 수 있다. 프로세서(290)는, 확인된 시각에 기초하여, 확인된 시각에 차량(1000)이 위치했던 지점의 주변 지도에 관한 지도 정보를 획득할 수 있다. 프로세서(290)는, 지도 정보를 전자 장치(100)의 메모리로부터 추출할 수 있다. 또한, 프로세서(290)는, 지도 정보를 전자 장치(100)와 연결된 다른 장치 또는 서버(2000)로부터 수신할 수 있다. 또한, 프로세서(290)는, 확인된 시각에 차량(1000)이 위치했던 지점을 나타내는 위치 정보를 획득할 수 있다. 프로세서(290)는, 확인된 시각에 차량(1000)이 위치했던 지도 상의 지점 및 객체의 지도 상의 위치에 기초하여, 지도 상의 차량(1000)의 위치로부터 지도 상의 객체까지의 제2 거리를 획득할 수 있다. 프로세서(290)는, 제1 거리 및 제2 거리에 기초하여, 차량(1000)의 위치를 보정할 수 있다. 프로세서(290)는, 제1 거리, 제2 거리, 도로의 형상, 도로의 경사, 도로 상의 차량(1000)의 위치, 도로와 차량(1000)과 객체 간의 상대적인 위치 등을 고려하여, 차량(1000)의 위치를 보정할 수 있다.
한편, 프로세서(290)는, 차량(1000)의 GPS 값 및 지도 정보에 기초하여, 도로 단위로 차량(1000)의 위치를 보정할 수 있다. 지도 상에서 차량(1000)이 도로 밖에 위치하고 있는 경우에, 프로세서(290)는, 지도 상의 차량(1000)의 위치를 도로 안으로 이동시킬 수 있다. 프로세서(290)는, 차량(1000)의 GPS 값 및 지도 상의 도로의 위치를 비교하여, 차량(1000)의 GPS 값을 도로 내의 위치를 나타내는 값으로 보정할 수 있다.
프로세서(290)는, 카메라로 촬영된 이미지를 이용하여 도로 상에서 차량(1000)이 주행 중인 차선을 판단할 수 있다. 프로세서(290)는, 차량(1000)의 주변이 촬영된 이미지 내에 포함된 도로의 차선들이 이미지 내에서 어느 위치에 위치하는지를 분석함으로써, 도로의 차선들 중에서 차량(1000)이 실제 주행 중인 차선을 판단할 수 있다.
프로세서(290)는, 지도 상에서 차량(1000)이 주행 중인 차선과 차량(1000)이 실제 주행하고 있는 차선이 상이한 경우에, 차량(1000)의 위치를 좌우 방향으로 보정할 수 있다. 프로세서(290)는, 센싱된 객체에 기초하여 차량(1000)의 전후 방향으로 차량(1000)의 위치를 보정할 수 있다. 프로세서(290)는, 차량(1000)의 주변에서 감지된 객체와 차량(1000) 간의 제1 거리를 측정함으로써, 차량(1000)의 주행 방향을 따라 차량(1000)의 위치를 보정할 수 있다.
프로세서(290)는, 차량(1000)의 보정된 위치에 대한 정보를 위치 정보를 이용하는 소프트웨어 프로그램에게 제공할 수 있다. 예를 들어, 프로세서(290)는, 차량(1000)의 보정된 위치에 대한 정보를 네비게이션 프로그램, 자율 주행 프로그램 및 도로 정보 수집 프로그램 중 적어도 하나에게 제공할 수 있다.
전원 공급 장치(299)는 차량(1000)의 구성요소들 중 일부 또는 전부에 전력을 제공하도록 구성될 수 있다. 예를 들어, 전원 공급 장치(299)는 재충전가능 리튬 이온 또는 납산(lead-acid) 배터리를 포함할 수 있다.
일부 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함할 수 있다.
또한, 본 명세서에서, “부”는 프로세서 또는 회로와 같은 하드웨어 구성(hardware component), 및/또는 프로세서와 같은 하드웨어 구성에 의해 실행되는 소프트웨어 구성(software component)일 수 있다.
전술한 본 개시의 설명은 예시를 위한 것이며, 본 개시가 속하는 기술분야의 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 개시의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.

Claims (15)

  1. 주행 중인 차량의 지도 상의 위치를 보정하는 전자 장치에 있어서,
    차량의 위치 정보를 획득하는 위치 측정 장치;
    차량의 주변에 위치한 복수의 객체들을 촬영함으로써 촬영 이미지를 생성하는 영상 장치;
    상기 차량의 주변을 향하여 센싱 신호를 방출하고 상기 복수의 객체들로부터 반사된 센싱 신호를 수신하는 센서; 및
    상기 위치 정보에 기초하여 상기 차량의 지도 상의 위치를 결정하고,
    상기 촬영 이미지에서 상기 복수의 객체들 중 적어도 하나를 선택하고,
    상기 반사된 센싱 신호에 기초하여, 상기 선택된 객체와 상기 차량 간의 제1 거리를 산출하고,
    상기 산출된 제1 거리에 기초하여 상기 차량의 지도 상의 위치를 보정하는 프로세서;
    를 포함하는, 전자 장치.
  2. 제 1 항에 있어서,
    상기 프로세서는, 상기 차량이 주행 중인 도로의 지도 정보에 기초하여, 상기 촬영 이미지 내의 객체들 중에서 상기 지도 내에 포함된 객체를 선택하는 것인, 전자 장치.
  3. 제 2 항에 있어서,
    상기 프로세서는,
    상기 촬영 이미지에서 상기 지도에 포함된 객체 및 상기 지도에 포함되지 않은 객체를 구별하고,
    상기 지도 내에 포함된 객체의 주변에 상기 지도에 포함되지 않은 객체가 위치하는지에 기초하여, 상기 적어도 하나의 객체를 선택하는 것인, 전자 장치.
  4. 제 2 항에 있어서,
    상기 프로세서는,
    상기 복수의 객체들을 촬영한 시각 및 상기 지도 정보에 기초하여, 상기 차량의 지도 상의 위치와 상기 선택된 객체의 지도 상의 위치 간의 제2 거리를 획득하고,
    상기 획득된 제2 거리, 및 상기 제1 거리에 기초하여, 상기 차량의 상기 지도 상의 위치를 보정하는 것인, 전자 장치.
  5. 제4 항에 있어서,
    상기 프로세서는,
    상기 획득된 제2 거리 상기 제1 거리 및 상기 차량이 주행 중인 도로의 곡률에 기초하여, 상기 차량의 상기 지도 상의 위치를 보정하는 것인, 전자 장치.
  6. 제3 항에 있어서,
    상기 촬영 이미지에서 상기 지도에 포함된 객체는 신호등 및 표지판 중 적어도 하나를 포함하는 것인, 전자 장치.
  7. 제3 항에 있어서,
    상기 프로세서는,
    상기 촬영 이미지에서 상기 지도에 포함된 객체의 속성에 기초하여, 상기 복수의 객체들 중 적어도 하나를 선택하는 것인, 전자 장치.
  8. 제1 항에 있어서,
    상기 프로세서는, 상기 지도 상에 위치한 상기 차량의 위치를, 상기 차량이 주행 중인 도로를 따라 상기 차량의 전후 방향으로 보정하는 것인, 전자 장치.
  9. 제1 항에 있어서,
    상기 프로세서는, 상기 촬영된 이미지 내의 차선에 기초하여, 상기 차량의 상기 지도 상의 위치를 상기 차량의 좌우 방향으로 보정하는 것인, 전자 장치.
  10. 제3 항에 있어서,
    상기 프로세서는, 상기 복수의 객체를 식별함으로써, 상기 위치를 보정할 지를 결정하는 것인, 전자 장치.
  11. 제10 항에 있어서,
    상기 프로세서는,
    상기 촬영 이미지에서 상기 지도에 포함된 객체 및 상기 지도에 포함되지 않은 객체를 구별함으로써, 상기 위치를 보정할 지를 결정하는 것인, 전자 장치.
  12. 제1 항에 있어서,
    상기 프로세서는, 상기 보정된 상기 차량의 위치에 관한 정보를, 네비게이션 프로그램, 도로 정보 수집 프로그램 및 상기 차량의 자율 주행 프로그램 중 적어도 하나에게 제공하는 것인, 전자 장치.
  13. 전자 장치가, 주행 중인 차량의 지도 상의 위치를 보정하는 방법에 있어서,
    위치 측정 장치를 이용하여 상기 차량의 지도 상의 위치를 결정하는 단계;
    상기 차량의 주변에 위치한 복수의 객체들을 촬영함으로써 촬영 이미지를 획득하는 단계;
    상기 차량의 주변을 향하여 센싱 신호를 송출하는 단계;
    상기 복수의 객체들로부터 반사된 센싱 신호를 수신하는 단계;
    상기 촬영 이미지에서 상기 복수의 객체 중에서 적어도 하나를 선택하는 단계;
    상기 반사된 센싱 신호에 기초하여, 상기 선택된 객체와 상기 차량 간의 제1 거리를 산출하는 단계; 및
    상기 산출된 제1 거리에 기초하여, 상기 차량의 지도 상의 위치를 보정하는 단계;
    를 포함하는 방법.
  14. 제13 항에 있어서,
    상기 차량이 주행 중인 도로 주변의 지도 정보를 획득하는 단계;
    를 더 포함하며,
    상기 적어도 하나의 객체를 선택하는 단계는, 상기 획득된 지도 정보에 기초하여, 상기 촬영 이미지 내의 객체들 중에서 상기 지도 내에 포함된 객체를 선택하는 것인, 방법.
  15. 제13 항의 방법을 컴퓨터에서 실행시키기 위한 컴퓨터로 읽을 수 있는 기록 매체.
PCT/KR2018/016651 2018-01-04 2018-12-26 차량의 지도 상의 위치를 보정하는 전자 장치 및 방법 WO2019135537A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP18898350.6A EP3722173A4 (en) 2018-01-04 2018-12-26 ELECTRONIC DEVICE AND METHOD FOR CORRECTING VEHICLE LOCATION ON A MAP
US16/959,822 US20200370894A1 (en) 2018-01-04 2018-12-26 Electronic device and method for correcting vehicle location on map

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0001288 2018-01-04
KR1020180001288A KR20190088119A (ko) 2018-01-04 2018-01-04 차량의 지도 상의 위치를 보정하는 전자 장치 및 방법

Publications (1)

Publication Number Publication Date
WO2019135537A1 true WO2019135537A1 (ko) 2019-07-11

Family

ID=67144466

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/016651 WO2019135537A1 (ko) 2018-01-04 2018-12-26 차량의 지도 상의 위치를 보정하는 전자 장치 및 방법

Country Status (4)

Country Link
US (1) US20200370894A1 (ko)
EP (1) EP3722173A4 (ko)
KR (1) KR20190088119A (ko)
WO (1) WO2019135537A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110567475A (zh) * 2019-09-19 2019-12-13 北京地平线机器人技术研发有限公司 导航方法、装置、计算机可读存储介质及电子设备
EP3825652A3 (en) * 2019-11-20 2021-09-01 HERE Global B.V. Method and apparatus for estimating a location of a vehicle
WO2022078843A1 (de) * 2020-10-12 2022-04-21 Bayerische Motoren Werke Aktiengesellschaft Fahrzeugführungssystem und verfahren zum betreiben einer fahrfunktion in abhängigkeit von der entfernung zu einer signalisierungseinheit

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102371749B1 (ko) * 2020-01-31 2022-03-10 경북대학교 산학협력단 차량 위치 정보 획득 장치 및 제어 방법
KR102438114B1 (ko) * 2021-07-28 2022-08-31 포티투닷 주식회사 차량의 주행 경로를 결정하기 위한 방법 및 장치
CN116380107B (zh) * 2023-05-29 2023-08-22 速度科技股份有限公司 一种基于高精地图对车辆进行定位的系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000097714A (ja) * 1998-09-21 2000-04-07 Sumitomo Electric Ind Ltd カーナビゲーション装置
JP2008157636A (ja) * 2006-12-20 2008-07-10 Aisin Aw Co Ltd 自車位置特定方法及び自車位置特定装置
KR20110094954A (ko) * 2010-02-18 2011-08-24 자동차부품연구원 주행이력정보 기반의 차량 자율주행 시스템
KR20160002178A (ko) * 2014-06-30 2016-01-07 현대자동차주식회사 자차 위치 인식 장치 및 방법
KR20160062261A (ko) * 2014-11-24 2016-06-02 현대엠엔소프트 주식회사 차량용 내비게이션 시스템 및 그 제어방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9435653B2 (en) * 2013-09-17 2016-09-06 GM Global Technology Operations LLC Sensor-aided vehicle positioning system
WO2016093028A1 (ja) * 2014-12-08 2016-06-16 日立オートモティブシステムズ株式会社 自車位置推定装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000097714A (ja) * 1998-09-21 2000-04-07 Sumitomo Electric Ind Ltd カーナビゲーション装置
JP2008157636A (ja) * 2006-12-20 2008-07-10 Aisin Aw Co Ltd 自車位置特定方法及び自車位置特定装置
KR20110094954A (ko) * 2010-02-18 2011-08-24 자동차부품연구원 주행이력정보 기반의 차량 자율주행 시스템
KR20160002178A (ko) * 2014-06-30 2016-01-07 현대자동차주식회사 자차 위치 인식 장치 및 방법
KR20160062261A (ko) * 2014-11-24 2016-06-02 현대엠엔소프트 주식회사 차량용 내비게이션 시스템 및 그 제어방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3722173A4 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110567475A (zh) * 2019-09-19 2019-12-13 北京地平线机器人技术研发有限公司 导航方法、装置、计算机可读存储介质及电子设备
CN110567475B (zh) * 2019-09-19 2023-09-29 北京地平线机器人技术研发有限公司 导航方法、装置、计算机可读存储介质及电子设备
EP3825652A3 (en) * 2019-11-20 2021-09-01 HERE Global B.V. Method and apparatus for estimating a location of a vehicle
US11125575B2 (en) 2019-11-20 2021-09-21 Here Global B.V. Method and apparatus for estimating a location of a vehicle
US11656088B2 (en) 2019-11-20 2023-05-23 Here Global B.V. Method and apparatus for estimating a location of a vehicle
WO2022078843A1 (de) * 2020-10-12 2022-04-21 Bayerische Motoren Werke Aktiengesellschaft Fahrzeugführungssystem und verfahren zum betreiben einer fahrfunktion in abhängigkeit von der entfernung zu einer signalisierungseinheit

Also Published As

Publication number Publication date
EP3722173A4 (en) 2021-03-03
KR20190088119A (ko) 2019-07-26
US20200370894A1 (en) 2020-11-26
EP3722173A1 (en) 2020-10-14

Similar Documents

Publication Publication Date Title
WO2019135537A1 (ko) 차량의 지도 상의 위치를 보정하는 전자 장치 및 방법
WO2019209057A1 (en) Method of determining position of vehicle and vehicle using the same
WO2019147018A1 (en) Method of receiving map and server apparatus therefor
WO2019143040A1 (en) Device and method for assisting with driving of vehicle
WO2017217578A1 (ko) 차량용 제어장치 및 그것의 제어방법
WO2021137485A1 (en) Method and device for displaying 3d augmented reality navigation information
WO2014035148A1 (en) Information providing method and information providing vehicle therefor
WO2017018844A1 (ko) 자율 주행 차량 및 그의 동작 방법
WO2018143589A1 (ko) 차선 정보를 출력하는 방법 및 장치
WO2019135544A1 (ko) 차량 주변의 이미지를 제공하는 전자 장치 및 방법
WO2013133464A1 (en) Image display device and method thereof
WO2019132174A1 (ko) 차량 내의 모바일 디바이스를 충전하기 위한 시스템 및 방법
WO2020004767A1 (ko) 차량에 구비되는 텔레매틱스 시스템 및 이를 제어하는 방법
WO2017119541A1 (ko) 차량 운전 보조장치 및 이를 포함하는 차량
WO2020235714A1 (ko) 자율 주행 차량과 이를 이용한 주행 제어 시스템 및 방법
WO2020017677A1 (ko) 영상 출력 장치
WO2017104888A1 (ko) 차량 운전 보조장치 및 이의 차량 운전 보조방법
WO2020226343A1 (en) Electronic device and method for assisting with driving of vehicle
WO2018169164A1 (ko) 차량의 주행을 보조하는 장치 및 방법
WO2020166749A1 (ko) 차량을 이용한 정보 표시 방법 및 시스템
WO2016186319A1 (ko) 차량 운전 보조 장치 및 차량
WO2015147371A1 (ko) 차량의 위치 보정 장치 및 방법과 이를 이용한 차량 위치 보정 시스템 및 무인 운행이 가능한 차량
WO2020096083A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
WO2018135745A1 (ko) 차량 주변의 객체를 나타내는 영상을 생성하는 방법 및 장치
WO2020204500A1 (en) Electronic apparatus and method for assisting with driving of vehicle

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18898350

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018898350

Country of ref document: EP

Effective date: 20200710