WO2020031295A1 - 自己位置推定方法及び自己位置推定装置 - Google Patents

自己位置推定方法及び自己位置推定装置 Download PDF

Info

Publication number
WO2020031295A1
WO2020031295A1 PCT/JP2018/029792 JP2018029792W WO2020031295A1 WO 2020031295 A1 WO2020031295 A1 WO 2020031295A1 JP 2018029792 W JP2018029792 W JP 2018029792W WO 2020031295 A1 WO2020031295 A1 WO 2020031295A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
sign
altitude
self
information
Prior art date
Application number
PCT/JP2018/029792
Other languages
English (en)
French (fr)
Inventor
隆宏 野尻
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to JP2020535396A priority Critical patent/JP7031748B2/ja
Priority to US17/265,717 priority patent/US20210191423A1/en
Priority to CN201880096338.8A priority patent/CN112534209A/zh
Priority to PCT/JP2018/029792 priority patent/WO2020031295A1/ja
Priority to EP18929448.1A priority patent/EP3835724B1/en
Publication of WO2020031295A1 publication Critical patent/WO2020031295A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Definitions

  • the present invention relates to a self-position estimation method and a self-position estimation device.
  • Patent Literature 1 discloses a general road specifying image for specifying that a vehicle is driving on a general road, or specifying that a vehicle is driving on a highway, in an image around the vehicle captured by a camera. A technique is described that determines whether the current position of the vehicle is on a general road or on a highway, based on whether or not an expressway specifying image is included.
  • Patent Literature 1 can distinguish roads of different road types, but cannot distinguish different roads of the same road type. For this reason, when different roads of the same road type exist at different altitudes, if these two-dimensional positions are close to each other, it may not be possible to determine on which road the vehicle exists.
  • An object of the present invention is to make it possible to determine on which of the roads existing at different altitudes a vehicle is located.
  • a sign around a vehicle is detected, a current position of the vehicle is determined, and the detected sign is located around a road based on a relative position of the detected sign to the vehicle and the current position.
  • the height information of the detected sign is obtained from the map data in which the two-dimensional coordinate information and the height information of the sign to be recorded are recorded, and the height of the vehicle is estimated according to the height information obtained from the map data.
  • FIG. 3 is an explanatory diagram illustrating an example of a self-position estimation method according to the embodiment
  • FIG. 2 is a block diagram illustrating an example of a functional configuration of an ECU (Electronic Control Unit) shown in FIG. 1. It is explanatory drawing of an example of the calculation method of the two-dimensional coordinate of a marker. It is a flow chart of an example of the driving support method of an embodiment. 6 is a flowchart of an example of a self-position estimation process shown in FIG.
  • the driving support device 1 performs automatic driving control for automatically driving the vehicle without a driver's involvement based on a driving environment around a vehicle (hereinafter, referred to as “vehicle”) on which the driving support device 1 is mounted. And driving assistance control for assisting the driver in driving the vehicle.
  • the driving support control may include, in addition to running control such as automatic steering, automatic braking, constant speed running control, and lane keeping control, outputting a message urging the driver to perform a steering operation or a deceleration operation.
  • the driving support device 1 includes an external sensor 3, an internal sensor 4, a positioning device 5, a map database 6, a navigation system 7, an ECU (Electronic Control Unit) 8, and an HMI (Human Machine Interface).
  • a human (machine) interface (9) and an actuator (10) are provided.
  • the map database is referred to as “map DB”.
  • the external sensor 3 is a sensor that detects an environment around the vehicle, for example, an object around the vehicle.
  • the external sensor 3 may include, for example, a camera 11 and a distance measuring device 12.
  • the camera 11 and the distance measuring device 12 are connected to an object existing around the vehicle (for example, another vehicle, a pedestrian, a white line such as a lane boundary line or a lane dividing line, a traffic light provided on or around the road, a stop line,
  • the surrounding environment of the vehicle such as a sign, a building, a telephone pole, a curb, a pedestrian crossing, and the like), a relative position of the object with respect to the vehicle, a relative distance between the vehicle and the object, and the like are detected.
  • the camera 11 may be, for example, a stereo camera.
  • the camera 11 may be a monocular camera, or the monocular camera may photograph the same object from a plurality of viewpoints and calculate the distance to the object. Further, the distance to the object may be calculated based on the contact position of the object detected from the image captured by the monocular camera.
  • the distance measuring device 12 may be, for example, a laser range finder (LRF) or a radar.
  • LRF laser range finder
  • the camera 11 and the distance measuring device 12 output surrounding environment information, which is information on the detected surrounding environment, to the ECU 8 and the navigation system 7.
  • the internal sensor 4 is a sensor that detects a running state of the vehicle.
  • the internal sensor 4 may include, for example, a wheel speed sensor 13 and a gyro sensor 14.
  • the wheel speed sensor 13 detects a wheel speed of the vehicle.
  • the gyro sensor 14 detects a pitch angular velocity, a roll angular velocity, and a yaw angular velocity of the vehicle.
  • the wheel speed sensor 13 and the gyro sensor 14 output running state information, which is information on the detected running state, to the ECU 8 and the navigation system 7.
  • the positioning device 5 receives radio waves from a plurality of navigation satellites, acquires the current position of the vehicle, and outputs the acquired current position of the vehicle to the ECU 8 and the navigation system 7.
  • the positioning device 5 may include, for example, a GPS (Global Positioning System) receiver and a global positioning system (GNSS) receiver other than the GPS receiver.
  • GPS Global Positioning System
  • GNSS global positioning system
  • the map database 6 stores road map data.
  • the road map data includes white line shapes (lane shapes) such as lane boundary lines and lane marking lines, two-dimensional coordinates (eg, latitude and longitude), altitudes of roads and white lines, traffic lights provided on or around roads, and stops. It includes two-dimensional coordinate information (for example, latitude and longitude) and altitude information of features such as lines, signs, buildings, telephone poles, curbs, and pedestrian crossings.
  • the road map data may further include information on a road type, a road gradient, the number of lanes, a legal speed (speed limit), a road width, the presence or absence of a junction, and the like.
  • the road type may include, for example, a general road and an expressway.
  • the map database 6 is referred to by the ECU 8 and the navigation system 7.
  • the navigation system 7 provides route guidance to the destination set on the map by the driver of the vehicle to the occupants of the vehicle.
  • the navigation system 7 estimates the current position of the vehicle using various types of information input from the external sensor 3, the internal sensor 4, and the positioning device 5, generates a route to a destination, and provides route guidance to an occupant.
  • the navigation system 7 outputs the route information to the ECU 8.
  • the ECU 8 estimates the current position of the vehicle, and based on the estimated current position, the road map data in the map database 6, the route information output from the navigation system 7, the surrounding environment, and the running state of the vehicle. Sets the target traveling trajectory to be traveled.
  • the ECU 8 performs automatic driving control and driving support control of the vehicle based on the set target traveling trajectory, and drives the actuator 10 to control the traveling of the vehicle.
  • the external sensor 3, the internal sensor 4, the positioning device 5, the map database 6, and the ECU 8 form the self-position estimation device 2 according to the embodiment.
  • the ECU 8 includes a processor 15 and peripheral components such as a storage device 16.
  • the processor 15 may be, for example, a CPU (Central Processing Unit) or an MPU (Micro-Processing Unit).
  • the storage device 16 may include a semiconductor storage device, a magnetic storage device, and an optical storage device.
  • the storage device 16 may include a register, a cache memory, and a memory such as a ROM (Read Only Memory) and a RAM (Random Access Memory) used as a main storage device.
  • the ECU 8 may be realized by a functional logic circuit set in a general-purpose semiconductor integrated circuit.
  • the ECU 8 may include a programmable logic device (PLD: Programmable Logic Device) such as a field-programmable gate array (FPGA).
  • PLD Programmable Logic Device
  • the HMI 9 is an interface for inputting and outputting information between a vehicle occupant and the navigation system 7 or the ECU 8.
  • the HMI 9 may receive, for example, a destination input operation performed by the occupant on the navigation system 7.
  • the HMI 9 may output driving guidance by the navigation system 7 or road guidance information based on road map data around the vehicle.
  • the actuator 10 operates a steering wheel, an accelerator opening, and a brake device of the vehicle according to a control signal output from the ECU 8 to generate a vehicle behavior of the vehicle.
  • the actuator 10 includes a steering actuator 17, an accelerator opening actuator 18, and a brake control actuator 19.
  • the steering actuator 17 controls the steering direction and the amount of steering of the vehicle.
  • the accelerator opening actuator 18 controls the accelerator opening of the vehicle.
  • the brake control actuator 19 controls the braking operation of the brake device of the vehicle.
  • Reference numeral 20 indicates a vehicle on which the driving support device 1 is mounted.
  • Reference numerals 21 and 22 indicate roads existing at different altitudes h1 and h2, respectively, reference numerals 21a and 21b indicate lane boundaries (white lines) of the road 21, and reference numerals 22a and 22b indicate lane boundaries of the road 22. The line (white line) is shown. Now, assume that the vehicle 20 exists on the road 21.
  • map matching may be performed in a three-dimensional space (for example, latitude, longitude, and altitude), but the calculation cost of the three-dimensional map matching is high. For this reason, it is preferable that the self-position including the altitude can be estimated without performing the three-dimensional map matching.
  • dead reckoning based on wheel speed and angular velocity is known.
  • the driving support device 1 acquires the altitude information of the sign 23 around the vehicle 20 provided on the road 21 from the map database, and estimates the altitude of the vehicle 20 based on the altitude information of the sign 23.
  • the external sensor 3 detects the relative position of the sign 23 with respect to the vehicle 20.
  • the ECU 8 determines the current position of the vehicle 20. For example, the ECU 8 estimates the current position of the vehicle 20 by dead reckoning based on the wheel speed detected by the wheel speed sensor 13 and the pitch angular speed, roll angular speed, and yaw angular speed detected by the gyro sensor 14. For example, the ECU 8 may measure the current position of the vehicle 20 using the positioning device 5.
  • the ECU 8 calculates the relative position of the sign 23 from the two-dimensional coordinates of the current position of the vehicle 20 from the map database 6 in which the two-dimensional coordinate information (for example, longitude and latitude) and the altitude information of the signs 23 and 24 existing around the road are recorded.
  • the altitude information of the sign 23 is acquired based on the position.
  • the ECU 8 estimates the altitude of the vehicle 20 based on the altitude information acquired from the map database 6. For example, the altitude indicated by the altitude information acquired from the map database 6 is estimated as the altitude of the vehicle 20.
  • the altitude is estimated based on the coordinate information of the sign 23 recorded in the map database 6, even if two roads of the same road type exist at different altitudes and their two-dimensional positions are close to each other, the vehicle 20 is not required. Altitude can be estimated correctly. As shown in FIG. 2, a sign 24 is also provided on a road 22 existing at an altitude different from the road 21 on which the vehicle 20 exists. However, since the sign 24 is shielded from the vehicle 20 on the road 21 by the road structure, the sign 24 cannot be detected by the external sensor 3. Therefore, the altitude of the vehicle 20 is not erroneously estimated based on the altitude information of the sign 24 provided on the road 22 different from the road 21.
  • the altitude information of the sign does not have to be a numerical value indicating the altitude, and information indicating which adjoining road is installed may be obtained.
  • information indicating that the installation location is the road 21 is obtained, and it can be determined that the vehicle 20 is traveling on a higher altitude road among the nearby roads.
  • information indicating that the installation location is the road 22 is obtained, and it can be determined that the vehicle 20 is traveling on a lower altitude road among the nearby roads. .
  • the ECU 8 includes a self-position estimating unit 30, a target trajectory setting unit 31, and a travel control unit 32.
  • the functions of the self-position estimating unit 30, the target trajectory setting unit 31, and the traveling control unit 32 may be realized by, for example, the processor 15 of the ECU 8 executing a computer program stored in the storage device 16.
  • the self-position estimating unit 30 estimates the self-position of the vehicle based on each information input from the external sensor 3, the internal sensor 4, the positioning device 5, and information obtained by referring to the map database 6.
  • the self-position estimating unit 30 includes a dead reckoning unit 40, a map matching unit 41, a sign detecting unit 42, a coordinate calculating unit 43, and an altitude information acquiring unit 44.
  • the dead reckoning unit 40 calculates a predicted position of the vehicle at the current time by dead reckoning based on the wheel speed, the pitch angular speed, the roll angular speed, and the yaw angular speed detected by the internal sensor 4.
  • the predicted position of the vehicle includes two-dimensional coordinates, altitude, and azimuth in the forward direction of the vehicle.
  • the dead reckoning unit 40 outputs the calculated predicted position to the map matching unit 41.
  • the dead reckoning unit 40 calculates two-dimensional coordinates on a two-dimensional coordinate system used in the map database 6.
  • the two-dimensional coordinate system used in the map database 6 is referred to as a “map coordinate system”.
  • the two-dimensional coordinate system used in the map database 6 is a geographic coordinate system expressing coordinates using latitude and longitude.
  • the present invention is not limited to this.
  • Other coordinate systems, such as a polar coordinate system, may be used.
  • the map matching unit 41 determines the position of the feature or the white line based on the relative position of the feature around the vehicle or the relative position of the white line detected by the external sensor 3 and the predicted position of the vehicle calculated by the dead reckoning unit 40. Calculate the two-dimensional coordinates of the map coordinate system.
  • the map matching unit 41 matches two-dimensional coordinates of a feature or a white line with the map database 6 by two-dimensional map matching, and calculates a mapping correction value of a vehicle position for each of latitude, longitude, and azimuth.
  • the map matching unit 41 corrects the predicted position of the vehicle calculated by the dead reckoning unit 40 with the calculated mapping correction value, thereby obtaining an estimated value of the current position of the vehicle.
  • the map matching unit 41 outputs the estimated value of the current position of the vehicle to the coordinate calculation unit 43 and the target trajectory setting unit 31.
  • the sign detection unit 42 detects a relative position of the sign around the vehicle detected by the external sensor 3 with respect to the vehicle.
  • the X coordinate of the relative position of the sign is expressed as “TS_X [m]”
  • the Y coordinate is expressed as “TS_Y [m]”.
  • the sign detection unit 42 outputs the relative position of the sign to the coordinate calculation unit 43.
  • the coordinate calculation unit 43 calculates an estimated value of the two-dimensional coordinates of the sign on the map coordinate system.
  • the latitude of the sign is described as “TS_B [rad]”
  • the longitude is described as “TS_L [rad]”.
  • the latitude of the estimated value of the current position of the vehicle acquired by the map matching unit 41 is represented by “V_B [rad]”
  • the longitude is represented by “V_L [rad]”
  • the azimuth of the vehicle in the forward direction is represented by “ ⁇ ”. "[Rad]).
  • the coordinate calculation unit 43 calculates an estimated value of the two-dimensional coordinates (TS_B [rad], TS_L [rad]) of the sign by approximation according to the following equations (1) and (2).
  • TS_B V_B + (TS_X * sin ⁇ + TS_Y * cos ⁇ ) / M
  • TS_L V_L + (TS_X * cos ⁇ TS_Y * sin ⁇ ) / (N * cos (V_B)) (2)
  • M is a meridian radius of curvature [m]
  • N is a wavy line radius of curvature [m] at latitude V_B.
  • the coordinate calculation unit 43 outputs the estimated value of the two-dimensional coordinates (TS_B [rad], TS_L [rad]) of the sign to the altitude information acquisition unit 44.
  • the altitude information acquisition unit 44 compares the two-dimensional coordinates (TS_B [rad], TS_L [rad]) of the sign calculated by the coordinate calculation unit 43 with the two-dimensional coordinate information of the sign recorded in the map database 6. If a sign having two-dimensional coordinate information matching the two-dimensional coordinates (TS_B [rad], TS_L [rad]) calculated by the coordinate calculation unit 43 exists in the map database 6, the altitude information acquisition unit 44 sets the matched sign From the map database 6 (latitude TS_M_B [rad], longitude TS_M_L [rad], altitude TS_M_H [m]).
  • two-dimensional coordinates (TS_B [rad], TS_L [rad]) and two-dimensional coordinates (TS_M_B [rad], TS_M_L [rad]) match only when these two-dimensional coordinates completely match.
  • the difference is less than the predetermined value is also included.
  • the altitude information of the sign (TS_M_H [m]) may be the altitude information of the ground (that is, the root) at the installation location of the sign, or may be the altitude information of the sign board of the sign.
  • the sign for acquiring the altitude information may be, for example, a guide sign, a warning sign, a regulation sign, or an instruction sign.
  • the altitude information acquisition unit 44 estimates that the altitude of the vehicle is the altitude indicated by the altitude information of the sign acquired from the map database 6.
  • the altitude information acquisition unit 44 may update the estimation of the altitude of the vehicle using the Kalman filter based on the altitude information of the sign acquired a plurality of times at different times.
  • the altitude information acquiring unit 44 outputs the estimated altitude of the vehicle to the dead reckoning unit 40 and the target trajectory setting unit 31.
  • the dead reckoning unit 40 corrects the predicted value of the altitude of the vehicle calculated by the dead reckoning according to the altitude estimated by the altitude information acquiring unit 44. For example, the dead reckoning unit 40 corrects (overwrites) the predicted value calculated by dead reckoning with the altitude estimated by the altitude information acquisition unit 44, and calculates a predicted position of the vehicle based on the corrected altitude.
  • the dead reckoning unit 40 may correct the predicted value of the altitude of the vehicle calculated by the dead reckoning in accordance with the altitude estimated by the altitude information acquiring unit 44 every time the vehicle travels a predetermined distance. Thereby, the error of dead reckoning accumulated according to the traveling distance can be efficiently corrected.
  • the target trajectory setting unit 31 calculates the current position of the vehicle estimated by the map matching unit 41, the road map data in the map database 6, the route information output from the navigation system 7, the surrounding environment detected by the external sensor 3, Based on the traveling state of the vehicle detected by the internal sensor 4, a target traveling path on which the vehicle should travel is set. At this time, the target trajectory setting unit 31 determines the road on which the vehicle exists based on the two-dimensional coordinates of the current position of the vehicle estimated by the map matching unit 41 and the altitude of the vehicle estimated by the altitude information acquisition unit 44.
  • the target trajectory setting unit 31 determines which one of the plurality of roads based on the altitude of the vehicle estimated by the altitude information acquisition unit 44. It is determined whether or not exists.
  • the target trajectory setting unit 31 sets a target travel trajectory that travels on a road on which a vehicle exists according to the route generated by the navigation system 7.
  • the target trajectory setting unit 31 outputs the set target traveling trajectory to the traveling control unit 32.
  • the traveling control unit 32 drives the actuator 10 so that the vehicle travels on the traveling trajectory generated by the target trajectory setting unit 31 and operates the steering mechanism, the acceleration mechanism, and the braking mechanism of the vehicle, thereby automatically driving the vehicle. Performs control and driving support control.
  • step S1 the self-position estimating unit 30 of FIG. 3 executes a self-position estimating process for estimating the current position of the vehicle.
  • FIG. 6 is a flowchart of an example of the self-position estimation processing S1.
  • the dead reckoning unit 40 performs the dead reckoning based on the wheel speed, the pitch angular speed, the roll angular speed, and the yaw angular speed detected by the internal sensor 4 to predict the current position of the vehicle (latitude, longitude, altitude, and azimuth). Is calculated.
  • the map matching unit 41 is based on the relative position of the feature around the vehicle detected by the external sensor 3 and the relative position of the white line, the predicted position of the vehicle calculated by the dead reckoning unit 40, and the map database 6.
  • the estimated value of the current position of the vehicle is calculated by two-dimensional map matching.
  • step S12 the sign detection unit 42 detects the relative position (TS_X [m], TS_Y [m]) of the sign around the vehicle detected by the external sensor 3 with respect to the vehicle.
  • step S13 the coordinate calculation unit 43 calculates estimated values (TS_B [rad], TS_L [rad]) of the two-dimensional coordinates of the marker on the map coordinate system.
  • step S14 the altitude information acquisition unit 44 checks the two-dimensional coordinates (TS_B [rad], TS_L [rad]) of the sign calculated in step S13 with the two-dimensional coordinate information of the sign recorded in the map database 6. . Then, it is determined whether or not a sign having two-dimensional coordinate information matching the two-dimensional coordinates (TS_B [rad], TS_L [rad]) exists in the map database 6.
  • step S14: N When there is no sign matching the two-dimensional coordinates (TS_B [rad], TS_L [rad]) in the map database 6 (step S14: N), the self-position estimation processing is performed without correcting the altitude calculated by dead reckoning. S1 ends. If there is a sign matching the two-dimensional coordinates (TS_B [rad], TS_L [rad]) in the map database 6 (step S14: Y), the process proceeds to step S15.
  • step S15 the altitude information acquisition unit 44 determines the coordinate information (latitude TS_M_B [rad], longitude TS_M_L [rad], altitude TS_M_H [m]) of the sign that matches the two-dimensional coordinates (TS_B [rad], TS_L [rad]). From the map database 6. The altitude information acquisition unit 44 estimates that the altitude of the vehicle is the altitude of the sign (TS_M_H [m]). In step S16, the dead reckoning unit 40 corrects the predicted value of the vehicle altitude calculated by dead reckoning to the altitude estimated by the altitude information acquisition unit 44. Thereafter, the self-position estimation processing S1 ends.
  • the coordinate information latitude TS_M_B [rad], longitude TS_M_L [rad], altitude TS_M_H [m]
  • the target trajectory setting unit 31 determines the road on which the vehicle exists based on the two-dimensional coordinates of the current position of the vehicle estimated by the map matching unit 41 and the altitude of the vehicle estimated by the altitude information acquisition unit 44. .
  • the altitude information of the vehicle may be any information as long as it is possible to determine on which of two or more roads the altitude is different from the two-dimensional coordinates of the current position of the vehicle. For example, it may be information indicating on which road the sign detected by the vehicle matches the sign installed on a plurality of different roads.
  • the target trajectory setting unit 31 determines the current position of the vehicle estimated by the map matching unit 41, the road map data in the map database 6, the route information output from the navigation system 7, and the surroundings detected by the external sensor 3. Based on the environment and the traveling state of the vehicle detected by the internal sensor 4, a target traveling trajectory for traveling on the road where the vehicle exists is set. At this time, the target trajectory setting unit 31 sets a target travel trajectory that travels on the road on which the vehicle determined in step S2 exists according to the route generated by the navigation system 7.
  • step S4 the traveling control unit 32 performs traveling control such as automatic driving control and driving support control of the vehicle by driving the actuator 10 so that the vehicle travels on the traveling trajectory generated by the target trajectory setting unit 31.
  • the sign detection unit 42 detects signs around the vehicle.
  • Dead reckoning unit 40 and map matching unit 41 determine the current position of the vehicle.
  • the coordinate calculating unit 43 and the altitude information acquiring unit 44 acquire altitude information of the detected sign from the map database 6 based on the relative position of the detected sign with respect to the vehicle and the current position, and according to the altitude information. Estimate the altitude of the vehicle. As a result, the altitude of the vehicle can be estimated, so that it is possible to determine on which of the roads existing at different altitudes the vehicle is located.
  • the vehicle 20 since the altitude is estimated based on the coordinate information of the sign 23 recorded in the map database 6, even if the roads of the same road type exist at different altitudes and their two-dimensional positions are close to each other, the vehicle 20 is not required. Altitude can be estimated correctly.
  • the dead reckoning unit 40 and the map matching unit 41 determine the two-dimensional coordinates of the current position on the map coordinate system.
  • the coordinate calculation unit 43 calculates two-dimensional coordinates of the detected sign on the map coordinate system based on the detected relative position of the sign and the two-dimensional coordinates of the current position.
  • the altitude information acquisition unit 44 acquires the altitude information of the sign having two-dimensional coordinate information corresponding to the two-dimensional coordinates of the detected sign from the map database 6 as the altitude information of the detected sign. Thereby, the altitude information of the sign detected near the vehicle can be appropriately acquired from the map database 6 in which the two-dimensional coordinate information and the altitude information of the sign existing around the road are recorded.
  • the map matching unit 41 calculates two-dimensional coordinates of the current position on the map coordinate system by two-dimensional map matching. That is, two-dimensional coordinates of the current position are calculated by two-dimensional map matching, and the altitude of the vehicle is estimated based on the coordinate information of the sign 23 recorded in the map database 6. For this reason, since the self-position including the altitude can be estimated without performing the three-dimensional map matching, the calculation cost can be suppressed.
  • the dead reckoning unit 40 corrects the estimated value of the vehicle altitude calculated by dead reckoning according to the altitude information acquired from the map database 6. As a result, accumulation of high-level errors caused by measurement errors can be avoided.
  • the dead reckoning unit 40 corrects the estimated value every time the vehicle travels a predetermined distance according to the altitude information acquired from the map data. This makes it possible to efficiently correct the error of dead reckoning accumulated according to the traveling distance.
  • the sign detected by the sign detection unit 42 may be a guide sign.
  • Information signs are often provided at intersections of roads such as junctions. For this reason, it is possible to appropriately determine which of these roads the vehicle is traveling at a place where the roads cross vertically.

Abstract

自己位置推定方法では、車両の周辺の標識を検出し(S12)、車両の現在位置を判断し(S11)、検出した標識の車両に対する相対位置と現在位置とに基づいて、道路周辺に存在する標識の2次元座標情報と高度情報とが記録された地図データから、検出した標識の高度情報を取得し、地図データから取得した高度情報に応じて前記車両の高度を推定する(S13~S15)。

Description

自己位置推定方法及び自己位置推定装置
 本発明は、自己位置推定方法及び自己位置推定装置に関する。
 特許文献1には、カメラによって撮影された車両周辺の画像に、車両が一般道路を走行していることを特定するための一般道路特定画像、または車両が高速道路を走行していることを特定するための高速道路特定画像が含まれているか否かに基づいて、車両の現在位置が一般道路上にあるか高速道路上にあるかを判定する技術が記載されている。
特開2006‐317286号公報
 特許文献1記載の技術は、道路種別が異なる道路を判別できるが、同じ道路種別の異なる道路を判別できない。
 このため、同じ道路種別の異なる道路が異なる高度にそれぞれ存在している場合、これらの2次元位置が近接すると、いずれの道路に車両が存在しているか判断できなくなることがある。
 本発明は、異なる高度に存在する道路のいずれに車両が存在しているのかの判断を可能にすることを目的とする。
 本発明の一態様に係る自己位置推定方法では、車両の周辺の標識を検出し、車両の現在位置を判断し、検出した標識の車両に対する相対位置と現在位置とに基づいて、道路周辺に存在する標識の2次元座標情報と高度情報とが記録された地図データから、検出した標識の高度情報を取得し、地図データから取得した高度情報に応じて車両の高度を推定する。
 本発明の一態様によれば、異なる高度に存在する道路のいずれに車両が存在しているのかの判断が可能になる。
 本発明の目的及び利点は、特許請求の範囲に示した要素及びその組合せを用いて具現化され達成される。前述の一般的な記述及び以下の詳細な記述の両方は、単なる例示及び説明であり、特許請求の範囲のように本発明を限定するものでないと解するべきである。
実施形態の運転支援装置の一例の概略構成図である。 実施形態の自己位置推定方法の一例の説明図である。 図1に示すECU(電子制御ユニット:Electronic Control Unit)の機能構成の一例を示すブロック図である。 標識の2次元座標の算出方法の一例の説明図である。 実施形態の運転支援方法の一例のフローチャートである。 図5に示す自己位置推定処理の一例のフローチャートである。
 以下、本発明の実施形態について、図面を参照しつつ説明する。
 (構成)
 図1を参照する。運転支援装置1は、運転支援装置1を搭載する車両(以下、「車両」と表記する)の周囲の走行環境に基づいて、運転者が関与せずに車両を自動で運転する自動運転制御や、運転者による車両の運転を支援する運転支援制御を行う。
 運転支援制御には、自動操舵や、自動ブレーキ、定速走行制御、車線維持制御などの走行制御のほか、運転者に操舵操作や減速操作を促すメッセージを出力することを含んでよい。
 運転支援装置1は、外部センサ3と、内部センサ4と、測位装置5と、地図データベース6と、ナビゲーションシステム7と、ECU(電子制御ユニット:Electronic Control Unit)8と、HMI(ヒューマンマシンインターフェース:Human Machine Interface)9と、アクチュエータ10を備える。なお、添付する図面において地図データベースを「地図DB」と表記する。
 外部センサ3は、車両の周囲環境、例えば車両の周囲の物体を検出するセンサである。外部センサ3は、例えばカメラ11と測距装置12を含んでよい。カメラ11と測距装置12は、車両の周囲に存在する物体(例えば、他車両、歩行者、車線境界線や車線区分線などの白線、道路上又は道路周辺に設けられた信号機、停止線、標識、建物、電柱、縁石、横断歩道等の地物)、車両に対する物体の相対位置、車両と物体との間の相対距離等の車両の周囲環境を検出する。
 カメラ11は、例えばステレオカメラであってよい。カメラ11は、単眼カメラであってもよく、単眼カメラにより複数の視点で同一の物体を撮影して、物体までの距離を計算してもよい。また、単眼カメラによる撮像画像から検出された物体の接地位置に基づいて、物体までの距離を計算してもよい。
 測距装置12は、例えば、レーザレンジファインダ(LRF:Laser Range-Finder)やレーダであってよい。
 カメラ11と測距装置12は、検出した周囲環境の情報である周囲環境情報をECU8及びナビゲーションシステム7へ出力する。
 内部センサ4は、車両の走行状態を検出するセンサである。内部センサ4は、例えば車輪速センサ13とジャイロセンサ14を備えてよい。
 車輪速センサ13は、車両の車輪速を検出する。ジャイロセンサ14は、車両のピッチ角速度、ロール角速度及びヨー角速度を検出する。車輪速センサ13とジャイロセンサ14は、検出した走行状態の情報である走行状態情報をECU8及びナビゲーションシステム7へ出力する。
 測位装置5は、複数の航法衛星から電波を受信して車両の現在位置を取得し、取得した車両の現在位置をECU8及びナビゲーションシステム7へ出力する。測位装置5は、例えばGPS(地球測位システム:Global Positioning System)受信機や、GPS受信機以外の他の全地球型測位システム(GNSS:Global Navigation Satellite System)受信機を有していてもよい。
 地図データベース6は、道路地図データを記憶している。道路地図データは、車線境界線や車線区分線などの白線の形状(車線形状)や2次元座標(例えば緯度、経度)、道路や白線の高度、道路上又は道路周辺に設けられた信号機、停止線、標識、建物、電柱、縁石、横断歩道等の地物の2次元座標情報(例えば緯度、経度)と高度情報を含む。
 道路地図データは、さらに道路種別、道路の勾配、車線数、法定速度(制限速度)、道幅、合流地点の有無等に関する情報を含んでもよい。道路種別には、例えば一般道路と高速道路が含んでよい。
 地図データベース6は、ECU8及びナビゲーションシステム7から参照される。
 ナビゲーションシステム7は、車両の運転者によって地図上に設定された目的地までの経路案内を車両の乗員に対して行う。ナビゲーションシステム7は、外部センサ3、内部センサ4、測位装置5から入力された各種情報を用いて車両の現在位置を推定し、目的地までの経路を生成し、乗員に経路案内を行う。ナビゲーションシステム7は、その経路情報をECU8へ出力する。
 ECU8は、車両の現在位置を推定し、推定した現在位置と、地図データベース6の道路地図データと、ナビゲーションシステム7から出力された経路情報と、周囲環境と、車両の走行状態に基づいて、車両が走行すべき目標走行軌道を設定する。ECU8は、設定した目標走行軌道に基づいて車両の自動運転制御や運転支援制御を行い、アクチュエータ10を駆動して車両の走行を制御する。
 外部センサ3と、内部センサ4と、測位装置5と、地図データベース6と、ECU8は、実施形態に係る自己位置推定装置2を形成する。
 ECU8は、プロセッサ15と記憶装置16等の周辺部品とを含む。プロセッサ15は、例えばCPU(Central Processing Unit)、やMPU(Micro-Processing Unit)であってよい。
 記憶装置16は、半導体記憶装置、磁気記憶装置及び光学記憶装置を備えてよい。記憶装置16は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを含んでよい。
 なお、汎用の半導体集積回路中に設定される機能的な論理回路でECU8を実現してもよい。例えば、ECU8はフィールド・プログラマブル・ゲート・アレイ(FPGA:Field-Programmable Gate Array)等のプログラマブル・ロジック・デバイス(PLD:Programmable Logic Device)等を有していてもよい。
 HMI9は、車両の乗員と、ナビゲーションシステム7やECU8との間で情報の入出力を行うためのインタフェースである。
 HMI9は、例えば、ナビゲーションシステム7に対する乗員による目的地の入力操作を受け付けてよい。例えばHMI9は、ナビゲーションシステム7による運転案内や、車両周囲の道路地図データに基づく道路案内情報を出力してよい。
 アクチュエータ10は、ECU8から出力された制御信号に応じて、車両のステアリングホイール、アクセル開度及びブレーキ装置を操作して、車両の車両挙動を発生させる。
 アクチュエータ10は、ステアリングアクチュエータ17と、アクセル開度アクチュエータ18と、ブレーキ制御アクチュエータ19を備える。
 ステアリングアクチュエータ17は、車両のステアリングの操舵方向及び操舵量を制御する。アクセル開度アクチュエータ18は、車両のアクセル開度を制御する。ブレーキ制御アクチュエータ19は、車両のブレーキ装置の制動動作を制御する。
 次に、ECU8による自己位置推定処理の概要を説明する。図2を参照する。参照符号20は、運転支援装置1を搭載する車両を示す。参照符号21及び22は、異なる高度h1及びh2にそれぞれ存在する道路を示し、参照符号21a及び21bは道路21の車線境界線(白線)を示し、参照符号22a及び22bは、道路22の車線境界線(白線)を示す。いま、車両20が道路21上に存在している場合を想定する。
 異なる高度の存在する道路21と道路22の2次元位置が互いに近接していると、どちらの道路に車両20が存在しているかを、2次元座標情報のみから判断できなくなる。
 高度を含んだ自己位置を推定するために、3次元空間(例えば緯度、経度及び高度)上でマップマッチングを行うことが考えられるが、3次元マップマッチングは計算コストが高くなる。このため、3次元マップマッチングを行わずに高度を含んだ自己位置を推定できることが好ましい。自己位置の推定技術としては、車輪速と角速度に基づくデッドレコニングが知られている。
 しかしながら、デッドレコニングを用いる自己位置推定では、計測誤差に起因する誤差が蓄積する。このため、何からの情報源から高度の観測値を取得して、デッドレコニングで算出する推定値を補正する必要がある。
 そこで運転支援装置1は、道路21に設けられた車両20の周辺の標識23の高度情報を地図データベースから取得し、標識23の高度情報に基づいて車両20の高度を推定する。
 具体的には、外部センサ3により車両20に対する標識23の相対位置を検出する。ECU8は、車両20の現在位置を判断する。例えばECU8は、車輪速センサ13で検出した車輪速と、ジャイロセンサ14で検出したピッチ角速度、ロール角速度、及びヨー角速度に基づいてデッドレコニングにより車両20の現在位置を推定する。例えばECU8は、測位装置5によって車両20の現在位置を測定してもよい。
 ECU8は、道路周辺に存在する標識23及び24の2次元座標情報(例えば経度及び緯度)と高度情報とが記録された地図データベース6から、車両20の現在位置の2次元座標と標識23の相対位置とに基づいて、標識23の高度情報を取得する。
 ECU8は、地図データベース6から取得した高度情報に基づいて、車両20の高度を推定する。例えば、地図データベース6から取得した高度情報が示す高度を車両20の高度と推定する。
 このように推定した高度によって、デッドレコニングにより算出した高度の推定値を補正することにより、計測誤差に起因する誤差が蓄積するのを回避できる。
 また、3次元マップマッチングを行わずに高度を推定できるため、計算コストを抑えることができる。
 さらに、地図データベース6に記録された標識23の座標情報に基づいて高度を推定するので、同じ道路種別の道路が異なる高度にそれぞれ存在し、これらの2次元位置が近接していても、車両20の高度を正しく推定できる。
 なお、図2に示すように、車両20が存在する道路21と異なる高度に存在する道路22にも標識24が設けられている。しかし標識24は、道路構造物により道路21上の車両20から遮蔽されているので、外部センサ3で標識24を検出できない。したがって、道路21と異なる道路22に設けられた標識24の高度情報に基づいて、誤って車両20の高度を推定することはない。よって、標識の高度情報は、高度を示す数値でなくてもよく、近接しているどの道路に設置されているか、を示す情報を取得するようにしても良い。例えば、標識23を検出した場合には、設置場所が道路21であるとの情報を取得し、近接している道路のうち、高度が高い側の道路を車両20が走行していると判断できる。一方、標識24を検出した場合には、設置場所が道路22であるとの情報を取得し、近接している道路のうち、高度が低い側の道路を車両20が走行していると判断できる。
 次に図3を参照して、ECU8の機能構成を説明する。ECU8は、自己位置推定部30と、目標軌道設定部31と、走行制御部32を備える。自己位置推定部30、目標軌道設定部31、及び走行制御部32の機能は、例えばECU8のプロセッサ15が、記憶装置16に格納されたコンピュータプログラムを実行することによって実現されてよい。
 自己位置推定部30は、外部センサ3、内部センサ4、測位装置5から入力された各情報と、地図データベース6を参照して得られる情報とに基づいて、車両の自己位置を推定する。
 自己位置推定部30は、デッドレコニング部40と、マップマッチング部41と、標識検出部42と、座標算出部43と、高度情報取得部44を備える。
 デッドレコニング部40は、内部センサ4により検出した車輪速、ピッチ角速度、ロール角速度、及びヨー角速度に基づくデッドレコニングにより、現時刻の車両の予測位置を算出する。車両の予測位置は、2次元座標、高度、及び車両の前方方向の方位角を含む。
 デッドレコニング部40は、算出した予測位置をマップマッチング部41へ出力する。
 ここでデッドレコニング部40は、地図データベース6で使用する2次元座標系上の2次元座標を算出する。以下、地図データベース6で使用する2次元座標系を「地図座標系」と表記する。
 なお、以下の説明では、地図データベース6で使用する2次元座標系が、緯度及び経度を用いて座標を表現する地理座標系である例を説明するが、これに限らず、平面直角座標系や極座標系など他の座標系を使用してもよい。
 マップマッチング部41は、外部センサ3で検出した車両周囲の地物の相対位置や白線の相対位置と、デッドレコニング部40で算出された車両の予測位置とに基づいて、これら地物や白線の地図座標系の2次元座標を算出する。
 マップマッチング部41は、地物や白線の2次元座標を地図データベース6と2次元マップマッチングによりマッチングし、緯度、経度、方位角のそれぞれについて、車両位置のマッピング補正値を算出する。
 マップマッチング部41は、算出したマッピング補正値で、デッドレコニング部40が算出した車両の予測位置を補正することにより、車両の現在位置の推定値を取得する。
 マップマッチング部41は、車両の現在位置の推定値を、座標算出部43と目標軌道設定部31へ出力する。
 標識検出部42は、外部センサ3で検出した車両周辺の標識の、車両に対する相対位置を検出する。標識の相対位置のX座標を「TS_X[m]」と表記し、Y座標を「TS_Y[m]」と表記する。
 標識検出部42は、標識の相対位置を座標算出部43へ出力する。
 座標算出部43は、地図座標系上の標識の2次元座標の推定値を算出する。
 図4に示すように、標識の緯度を「TS_B[rad]」と表記し、経度を「TS_L[rad]」と表記する。
 マップマッチング部41により取得された車両の現在位置の推定値の緯度を「V_B[rad]」と表記し、経度を「V_L[rad]」と表記し、車両の前方方向の方位角を「θ」[rad])と表記する。
 座標算出部43は、次式(1)及び(2)に従い近似することにより、標識の2次元座標(TS_B[rad],TS_L[rad])の推定値を算出する。
 TS_B=V_B+(TS_X*sinθ+TS_Y*cosθ)/M ・・・(1)
 TS_L=V_L+(TS_X*cosθ-TS_Y*sinθ)/(N*cos(V_B)) ・・・(2)
 ここで、Mは子午線曲率半径[m]であり,Nは緯度V_Bにおける卯酉線曲率半径[m]である。
 座標算出部43は、標識の2次元座標(TS_B[rad],TS_L[rad])の推定値を高度情報取得部44へ出力する。
 高度情報取得部44は、座標算出部43が算出した標識の2次元座標(TS_B[rad],TS_L[rad])と、地図データベース6に記録された標識の2次元座標情報とを照合する。
 座標算出部43が算出した2次元座標(TS_B[rad],TS_L[rad])とマッチする2次元座標情報を有する標識が地図データベース6に存在する場合、高度情報取得部44は、マッチした標識の座標情報(緯度TS_M_B[rad],経度TS_M_L[rad],高度TS_M_H[m])を地図データベース6から取得する。
 ここで、2次元座標(TS_B[rad],TS_L[rad])と2次元座標(TS_M_B[rad],TS_M_L[rad])とがマッチするとは、これらの2次元座標が完全に一致する場合だけでなく、差分が所定値未満である場合も含む。
 また、標識の高度情報(TS_M_H[m])は、標識の設置地点の地面(すなわち根元)の高度情報であってもよく、標識の標識板の高度情報であってもよい。
 なお、高度情報を取得する標識は、例えば案内標識、警戒標識、規制標識、指示標識であってよい。
 高度情報取得部44は、車両の高度が地図データベース6から取得した標識の高度情報が示す高度であると推定する。高度情報取得部44は、異なる時刻に複数回取得した標識の高度情報に基づきカルマンフィルタを用いて車両の高度の推定を更新してもよい。
 高度情報取得部44は、推定した車両の高度をデッドレコニング部40と目標軌道設定部31へ出力する。
 デッドレコニング部40は、デッドレコニングにより算出した車両の高度の予測値を、高度情報取得部44が推定した高度に応じて訂正する。例えば、デッドレコニング部40は、デッドレコニングにより算出した予測値を、高度情報取得部44が推定した高度で訂正(上書き)し、訂正後の高度に基づいてその後の車両の予測位置を算出する。
 デッドレコニング部40は、車両が所定距離走行する度に、高度情報取得部44が推定した高度に応じて、デッドレコニングにより算出した車両の高度の予測値を訂正してもよい。これにより、走行距離に応じて蓄積するデッドレコニングの誤差を効率的に訂正できる。
 目標軌道設定部31は、マップマッチング部41が推定した車両の現在位置と、地図データベース6の道路地図データと、ナビゲーションシステム7から出力された経路情報と、外部センサ3が検出した周囲環境と、内部センサ4が検出した車両の走行状態に基づいて、車両が走行すべき目標走行軌道を設定する。
 このとき目標軌道設定部31は、マップマッチング部41が推定した車両の現在位置の2次元座標と、高度情報取得部44が推定した車両の高度に基づいて、車両が存在する道路を判別する。例えば目標軌道設定部31は、車両の現在位置の2次元座標に高度の異なる複数道路が存在する場合、高度情報取得部44が推定した車両の高度に基づいて、これらの複数道路のどちらに車両が存在しているか判別する。
 目標軌道設定部31は、車両が存在する道路上を、ナビゲーションシステム7が生成した経路に従って走行する目標走行軌道を設定する。
 目標軌道設定部31は、設定した目標走行軌道を走行制御部32へ出力する。
 走行制御部32は、目標軌道設定部31が生成した走行軌道を車両が走行するようにアクチュエータ10を駆動して、車両の操舵機構、加速機構及び制動機構を操作することにより、車両の自動運転制御や運転支援制御を行う。
 (動作)
 次に、図5を参照して実施形態の運転支援方法の一例を説明する。
 ステップS1において図3の自己位置推定部30は、車両の現在位置を推定する自己位置推定処理を実行する。
 図6は、自己位置推定処理S1の一例のフローチャートである。
 ステップS10においてデッドレコニング部40は、内部センサ4により検出した車輪速、ピッチ角速度、ロール角速度、及びヨー角速度に基づくデッドレコニングにより、現時刻の車両の予測位置(緯度、経度、高度及び方位角)を算出する。
 ステップS11においてマップマッチング部41は、外部センサ3で検出した車両周囲の地物の相対位置や白線の相対位置と、デッドレコニング部40で算出された車両の予測位置と、地図データベース6に基づいて、2次元マップマッチングにより車両の現在位置の推定値を算出する。
 ステップS12において標識検出部42は、外部センサ3で検出した車両周辺の標識の、車両に対する相対位置(TS_X[m],TS_Y[m])を検出する。
 ステップS13において座標算出部43は、地図座標系上の標識の2次元座標の推定値(TS_B[rad],TS_L[rad])を算出する。
 ステップS14において高度情報取得部44は、ステップS13で算出した標識の2次元座標(TS_B[rad],TS_L[rad])と、地図データベース6に記録された標識の2次元座標情報とを照合する。そして、2次元座標(TS_B[rad],TS_L[rad])とマッチする2次元座標情報を有する標識が地図データベース6に存在するか否かを判断する。
 2次元座標(TS_B[rad],TS_L[rad])とマッチする標識が地図データベース6に存在しない場合(ステップS14:N)に、デッドレコニングで算出した高度を訂正せずに、自己位置推定処理S1が終了する。
 2次元座標(TS_B[rad],TS_L[rad])とマッチする標識が地図データベース6に存在する場合(ステップS14:Y)に処理はステップS15へ進む。
 ステップS15において高度情報取得部44は、2次元座標(TS_B[rad],TS_L[rad])とマッチする標識の座標情報(緯度TS_M_B[rad],経度TS_M_L[rad],高度TS_M_H[m])を地図データベース6から取得する。高度情報取得部44は、車両の高度が標識の高度(TS_M_H[m])であると推定する。
 ステップS16においてデッドレコニング部40は、デッドレコニングにより算出した車両の高度の予測値を、高度情報取得部44が推定した高度に訂正する。その後に自己位置推定処理S1が終了する。
 図5を参照する。ステップS2において目標軌道設定部31は、マップマッチング部41が推定した車両の現在位置の2次元座標と、高度情報取得部44が推定した車両の高度に基づいて、車両が存在する道路を判別する。
 車両の現在位置の2次元座標に高度の異なる複数道路が存在する場合、高度情報取得部44が推定した車両の高度に基づいて、これらの複数道路のどちらに車両が存在しているか判別する。なお、車両の高度情報は、車両の現在位置の2次元座標に高度の異なる複数道路のどちらに車両が存在しているか、判別できる情報であればよい。例えば、車両が検出した標識が、異なる複数道路にそれぞれ設置されている標識のうち、どの道路に設置されている標識に合致したか、という情報であってもよい。
 ステップS3において目標軌道設定部31は、マップマッチング部41が推定した車両の現在位置と、地図データベース6の道路地図データと、ナビゲーションシステム7から出力された経路情報と、外部センサ3が検出した周囲環境と、内部センサ4が検出した車両の走行状態に基づいて、車両が存在する道路上を走行する目標走行軌道を設定する。
 このとき目標軌道設定部31は、ステップS2において判別した車両が存在する道路を、ナビゲーションシステム7が生成した経路に従って走行する目標走行軌道を設定する。
 ステップS4において走行制御部32は、目標軌道設定部31が生成した走行軌道を車両が走行するようにアクチュエータ10を駆動することにより、車両の自動運転制御や運転支援制御等の走行制御を行う。
 (実施形態の効果)
 (1)標識検出部42は、車両の周辺の標識を検出する。デッドレコニング部40とマップマッチング部41は、車両の現在位置を判断する。座標算出部43と高度情報取得部44は、検出した標識の車両に対する相対位置と現在位置とに基づいて、地図データベース6から、検出した標識の高度情報を取得して、この高度情報に応じて車両の高度を推定する。
 これにより、車両の高度を推定することができるため、異なる高度に存在する道路のいずれに車両が存在しているのかの判断が可能になる。
 特に、地図データベース6に記録された標識23の座標情報に基づいて高度を推定するので、同じ道路種別の道路が異なる高度にそれぞれ存在し、これらの2次元位置が近接していても、車両20の高度を正しく推定できる。
 (2)デッドレコニング部40とマップマッチング部41は、地図座標系上の現在位置の2次元座標を判断する。座標算出部43は、検出した標識の相対位置と現在位置の2次元座標とに基づいて、検出した標識の地図座標系上の2次元座標を算出する。高度情報取得部44は、検出した標識の2次元座標に対応する2次元座標情報を有する標識の高度情報を、地図データベース6から、検出した標識の高度情報として取得する。
 これにより、道路周辺に存在する標識の2次元座標情報と高度情報とが記録された地図データベース6から、車両周辺で検出した標識の高度情報を適切に取得できる。
 (3)マップマッチング部41は、現在位置の地図座標系上の2次元座標を2次元マップマッチングにより算出する。
 すなわち、2次元マップマッチングにより現在位置の2次元座標を算出し、地図データベース6に記録された標識23の座標情報に基づいて車両の高度を推定する。このため、3次元マップマッチングを行わずに高度を含んだ自己位置を推定できるため、計算コストを抑えることができる。
 (4)デッドレコニング部40は、デッドレコニングにより算出した車両の高度の推定値を、地図データベース6から取得した高度情報に応じて訂正する。
 これにより、計測誤差に起因する高度の誤差が蓄積するのを回避できる。
 (5)デッドレコニング部40は、車両が所定距離走行する度に、地図データから取得した高度情報に応じて推定値を訂正する。
 これにより、走行距離に応じて蓄積するデッドレコニングの誤差を効率的に訂正することが可能になる。
 (6)標識検出部42が検出する標識は、案内標識であってよい。案内標識はジャンクションなど上下に道路が交差する箇所に設けられていることが多い。このため、上下に道路が交差する箇所において、これらの道路のどちらを走行しているかを適切に判断することができる。
 ここに記載されている全ての例及び条件的な用語は、読者が、本発明と技術の進展のために発明者により与えられる概念とを理解する際の助けとなるように、教育的な目的を意図したものであり、具体的に記載されている上記の例及び条件、並びに本発明の優位性及び劣等性を示すことに関する本明細書における例の構成に限定されることなく解釈されるべきものである。本発明の実施例は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であると解すべきである。
 1…運転支援装置、2…自己位置推定装置、3…外部センサ、4…内部センサ、5…測位装置、6…地図データベース、7…ナビゲーションシステム、10…アクチュエータ、11…カメラ、12…測距装置、13…車輪速センサ、14…ジャイロセンサ、15…プロセッサ、16…記憶装置、17…ステアリングアクチュエータ、18…アクセル開度アクチュエータ、19…ブレーキ制御アクチュエータ、20…車両、21、22…道路、21a、21b、22a、22b…車線境界線(白線)、23、24…標識、30…自己位置推定部、31…目標軌道設定部、32…走行制御部、40…デッドレコニング部、41…マップマッチング部、42…標識検出部、43…座標算出部、44…高度情報取得部

Claims (7)

  1.  車両の周辺の標識を検出し、
     前記車両の現在位置を判断し、
     検出した前記標識の前記車両に対する相対位置と前記現在位置とに基づいて、道路周辺に存在する標識の2次元座標情報と高度情報とが記録された地図データから、検出した前記標識の高度情報を取得し、
     前記地図データから取得した前記高度情報に応じて前記車両の高度を推定する、
     ことを特徴とする自己位置推定方法。
  2.  前記地図データの座標系上の前記現在位置の2次元座標を判断し、
     検出した前記標識の前記相対位置と前記現在位置の2次元座標とに基づいて、検出した前記標識の前記座標系上の2次元座標を算出し、
     検出した前記標識の2次元座標に対応する2次元座標情報を有する標識の高度情報を、前記地図データから、検出した前記標識の高度情報として取得する、
     ことを特徴とする請求項1に記載の自己位置推定方法。
  3.  前記現在位置の前記座標系上の2次元座標を2次元マップマッチングにより算出することを特徴とする請求項2に記載の自己位置推定方法。
  4.  デッドレコニングにより算出した前記車両の高度の推定値を、前記地図データから取得した前記高度情報に応じて訂正することを特徴とする請求項1~3のいずれか一項に記載の自己位置推定方法。
  5.  前記車両が所定距離走行する度に、前記地図データから取得した前記高度情報に応じて前記推定値を訂正することを特徴とする請求項4に記載の自己位置推定方法。
  6.  前記標識は、案内標識であることを特徴とする請求項1~5のいずれか一項に記載の自己位置推定方法。
  7.  車両の周辺の標識を検出するセンサと、
     前記車両の現在位置を判断し、検出した前記標識の前記車両に対する相対位置と前記現在位置とに基づいて、道路周辺に存在する標識の2次元座標情報と高度情報とが記録された地図データから、検出した前記標識の高度情報を取得し、前記地図データから取得した前記高度情報に応じて前記車両の高度を推定するコントローラと、
     を備えることを特徴とする自己位置推定装置。
PCT/JP2018/029792 2018-08-08 2018-08-08 自己位置推定方法及び自己位置推定装置 WO2020031295A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020535396A JP7031748B2 (ja) 2018-08-08 2018-08-08 自己位置推定方法及び自己位置推定装置
US17/265,717 US20210191423A1 (en) 2018-08-08 2018-08-08 Self-Location Estimation Method and Self-Location Estimation Device
CN201880096338.8A CN112534209A (zh) 2018-08-08 2018-08-08 自身位置估计方法以及自身位置估计装置
PCT/JP2018/029792 WO2020031295A1 (ja) 2018-08-08 2018-08-08 自己位置推定方法及び自己位置推定装置
EP18929448.1A EP3835724B1 (en) 2018-08-08 2018-08-08 Self-location estimation method and self-location estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/029792 WO2020031295A1 (ja) 2018-08-08 2018-08-08 自己位置推定方法及び自己位置推定装置

Publications (1)

Publication Number Publication Date
WO2020031295A1 true WO2020031295A1 (ja) 2020-02-13

Family

ID=69414084

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/029792 WO2020031295A1 (ja) 2018-08-08 2018-08-08 自己位置推定方法及び自己位置推定装置

Country Status (5)

Country Link
US (1) US20210191423A1 (ja)
EP (1) EP3835724B1 (ja)
JP (1) JP7031748B2 (ja)
CN (1) CN112534209A (ja)
WO (1) WO2020031295A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004045227A (ja) * 2002-07-12 2004-02-12 Alpine Electronics Inc 車両位置測定装置および方法
JP2006275619A (ja) * 2005-03-28 2006-10-12 Clarion Co Ltd 高度算出装置及びナビゲーション装置
JP2006317286A (ja) 2005-05-12 2006-11-24 Denso Corp 車載ナビゲーション装置
JP2007108043A (ja) * 2005-10-14 2007-04-26 Xanavi Informatics Corp 位置測位装置、および位置測位方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4370869B2 (ja) * 2003-09-25 2009-11-25 トヨタ自動車株式会社 地図データ更新方法および地図データ更新装置
JP4277717B2 (ja) * 2004-03-17 2009-06-10 株式会社日立製作所 車両位置推定装置およびこれを用いた運転支援装置
JP2011511281A (ja) * 2008-02-04 2011-04-07 テレ アトラス ノース アメリカ インコーポレイテッド センサにより検出されたオブジェクトとマップマッチングする方法
JP2010049391A (ja) * 2008-08-20 2010-03-04 Nissan Motor Co Ltd 交通情報管理装置及び交通情報管理処理方法
JP2012002595A (ja) * 2010-06-15 2012-01-05 Sony Corp 情報処理装置、情報処理方法、情報処理システム、及びプログラム
US9207094B2 (en) * 2012-06-10 2015-12-08 Apple Inc. Road height generation for a road network
US9651393B2 (en) * 2013-01-28 2017-05-16 Nec Corporation Driving support device, driving support method, and recording medium storing driving support program
US9797733B2 (en) * 2013-04-10 2017-10-24 Harman Becker Automotive Systems Gmbh Navigation system and method of determining a vehicle position
US9062979B1 (en) * 2013-07-08 2015-06-23 Google Inc. Pose estimation using long range features
US9298992B2 (en) * 2014-02-20 2016-03-29 Toyota Motor Engineering & Manufacturing North America, Inc. Geographic feature-based localization with feature weighting
US9792521B2 (en) * 2014-12-26 2017-10-17 Here Global B.V. Extracting feature geometries for localization of a device
KR102622571B1 (ko) * 2015-02-10 2024-01-09 모빌아이 비젼 테크놀로지스 엘티디. 자율 주행을 위한 약도
WO2018113451A1 (zh) * 2016-12-22 2018-06-28 沈阳美行科技有限公司 一种地图数据系统、其生成和使用方法及应用

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004045227A (ja) * 2002-07-12 2004-02-12 Alpine Electronics Inc 車両位置測定装置および方法
JP2006275619A (ja) * 2005-03-28 2006-10-12 Clarion Co Ltd 高度算出装置及びナビゲーション装置
JP2006317286A (ja) 2005-05-12 2006-11-24 Denso Corp 車載ナビゲーション装置
JP2007108043A (ja) * 2005-10-14 2007-04-26 Xanavi Informatics Corp 位置測位装置、および位置測位方法

Also Published As

Publication number Publication date
JPWO2020031295A1 (ja) 2021-08-12
JP7031748B2 (ja) 2022-03-08
EP3835724A1 (en) 2021-06-16
EP3835724A4 (en) 2021-08-18
US20210191423A1 (en) 2021-06-24
EP3835724B1 (en) 2023-10-04
CN112534209A (zh) 2021-03-19

Similar Documents

Publication Publication Date Title
US10431094B2 (en) Object detection method and object detection apparatus
RU2667675C1 (ru) Устройство определения позиции транспортного средства и способ определения позиции транспортного средства
EP3358302A1 (en) Travel control method and travel control device
CN112074885A (zh) 车道标志定位
US11015940B2 (en) Systems and methods for longitudinal position correction of a vehicle using mapped landmarks
US11761787B2 (en) Map information correction method, driving assistance method, and map information correction device
CN113508277A (zh) 车道标记定位和融合
JP2020506388A (ja) デジタルマップを更新するための方法および装置
US11928871B2 (en) Vehicle position estimation device and traveling position estimation method
JP2020060369A (ja) 地図情報システム
EP4059795B1 (en) Method for controlling vehicle and vehicle control device
JP2019066445A (ja) 位置補正方法、車両制御方法及び位置補正装置
US20210263519A1 (en) Vehicle driving assist system
JP6790951B2 (ja) 地図情報学習方法及び地図情報学習装置
CN111936820A (zh) 用于调整车辆外部位置信息的系统和方法
KR102406498B1 (ko) 차량의 자율주행모드와 운전보조모드 간의 변환방법
WO2020031295A1 (ja) 自己位置推定方法及び自己位置推定装置
RU2777308C1 (ru) Способ оценки собственного местоположения и устройство для оценки собственного местоположения
JP7321034B2 (ja) 走行支援方法及び走行支援装置
US20230031485A1 (en) Device and method for generating lane information
RU2803578C1 (ru) Способ исправления картографической информации, способ содействия вождению и устройство исправления картографической информации
JP7378591B2 (ja) 走行経路生成装置
US20210094551A1 (en) Method and system for determining localization of a vehicle on a road
JP2022059724A (ja) 情報処理方法、プログラム及び情報処理装置
JP2024025040A (ja) 自車位置推定装置及び自車位置推定方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18929448

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020535396

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018929448

Country of ref document: EP

Effective date: 20210309