WO2016189732A1 - 自己位置推定装置及び自己位置推定方法 - Google Patents

自己位置推定装置及び自己位置推定方法 Download PDF

Info

Publication number
WO2016189732A1
WO2016189732A1 PCT/JP2015/065415 JP2015065415W WO2016189732A1 WO 2016189732 A1 WO2016189732 A1 WO 2016189732A1 JP 2015065415 W JP2015065415 W JP 2015065415W WO 2016189732 A1 WO2016189732 A1 WO 2016189732A1
Authority
WO
WIPO (PCT)
Prior art keywords
self
vehicle
movement amount
moving body
target
Prior art date
Application number
PCT/JP2015/065415
Other languages
English (en)
French (fr)
Inventor
山口 一郎
宏寿 植田
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to CN201580080282.3A priority Critical patent/CN107615201B/zh
Priority to EP15893366.3A priority patent/EP3306429B1/en
Priority to RU2017146057A priority patent/RU2668459C1/ru
Priority to CA2987373A priority patent/CA2987373C/en
Priority to KR1020177034796A priority patent/KR101880013B1/ko
Priority to US15/577,156 priority patent/US10260889B2/en
Priority to MX2017015167A priority patent/MX364590B/es
Priority to JP2017520184A priority patent/JP6384604B2/ja
Priority to PCT/JP2015/065415 priority patent/WO2016189732A1/ja
Priority to BR112017025513A priority patent/BR112017025513A2/pt
Publication of WO2016189732A1 publication Critical patent/WO2016189732A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3644Landmark guidance, e.g. using POIs or conspicuous other objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions

Definitions

  • the present invention relates to a self-position estimation apparatus and method for estimating the self-position of a moving object.
  • Patent Document 1 is disclosed.
  • the movement amount calculated by a wheel speed pulse, a gyroscope, etc. and the past history of the sensing result are accumulated and connected, and the result is adjusted so that the map matches and moves Estimates body position and posture angle.
  • the influence of the moving speed of the moving body is eliminated by using a history of sensing results at a constant distance, so that the self-position can be estimated stably.
  • An object is to provide an apparatus and a method thereof.
  • a self-position estimation apparatus and method detect a target position of a target existing around a moving body and detect a moving amount of the moving body. . Then, the detected target position is moved by the movement amount and accumulated as target position data, and map information including the target position of the target existing on the map is acquired. Thereafter, the target position of the moving object is estimated by collating the target position data within a predetermined range set based on the movement history up to the current position of the moving object and the target position included in the map information.
  • FIG. 1 is a block diagram illustrating a configuration of a self-position estimation system including a self-position estimation apparatus according to the first embodiment of the present invention.
  • FIG. 2 is a diagram showing the mounting positions of the laser range finder and the camera on the vehicle.
  • FIG. 3 is a flowchart showing a processing procedure of self-position estimation processing by the self-position estimation apparatus according to the first embodiment of the present invention.
  • FIG. 4 is a diagram for explaining a coordinate system employed in the self-position estimation apparatus according to the first embodiment of the present invention.
  • FIG. 5 is a diagram for explaining a detection method by the laser range finder of the self-position estimation apparatus according to the first embodiment of the present invention.
  • FIG. 1 is a block diagram illustrating a configuration of a self-position estimation system including a self-position estimation apparatus according to the first embodiment of the present invention.
  • FIG. 2 is a diagram showing the mounting positions of the laser range finder and the camera on the vehicle.
  • FIG. 3 is a flowchart showing
  • FIG. 6 is a diagram for explaining a white line detection method by the camera of the self-position estimation apparatus according to the first embodiment of the present invention.
  • FIG. 7 is a diagram showing a target detection result by the self-position estimation apparatus according to the first embodiment of the present invention.
  • FIG. 8 is a diagram for explaining a method of estimating a movement amount detection error by the self-position estimation apparatus according to the first embodiment of the present invention.
  • FIG. 9 is a diagram for explaining an extraction range setting method by the self-position estimation apparatus according to the first embodiment of the present invention.
  • FIG. 10 is a diagram for explaining the link node information acquired by the self-position estimation apparatus according to the first embodiment of the present invention.
  • FIG. 11 is a diagram for explaining an extraction range setting method by the self-position estimation apparatus according to the fifth modification of the first embodiment of the present invention.
  • FIG. 12 is a diagram for explaining a conventional self-position estimation technique.
  • FIG. 13 is a diagram for explaining a conventional self-position estimation technique.
  • FIG. 14 is a diagram for explaining a conventional self-position estimation technique.
  • FIG. 15 is a diagram for explaining an extraction range setting method by the self-position estimation apparatus according to the first embodiment of the present invention.
  • FIG. 16 is a flowchart showing a processing procedure of self-position estimation processing by the self-position estimation apparatus according to the second embodiment of the present invention.
  • FIG. 1 is a block diagram illustrating a configuration of a self-position estimation system including a self-position estimation apparatus according to the present embodiment.
  • the self-position estimation system according to this embodiment includes an ECU 1, a camera 2, a three-dimensional map database 3, a vehicle sensor group 4, and a laser range finder 5.
  • the ECU 1 is an electronic control unit configured by a ROM, a RAM, an arithmetic circuit, and the like, and a program for realizing the self-position estimation apparatus 10 according to the present embodiment is stored in the ROM.
  • the ECU 1 may also be used as an ECU used for other controls.
  • the camera 2 (2a, 2b) uses a solid-state image sensor such as a CCD.
  • a CCD solid-state image sensor
  • the camera 2 (2a, 2b) is installed on the left and right door mirrors of the vehicle and can image the road surface below the vehicle. Is directed to.
  • the captured image is transmitted to the ECU 1.
  • the 3D map database 3 is a storage unit that stores map information including target positions of targets existing on the map, and stores, for example, 3D position information of the surrounding environment including road display.
  • the landmarks recorded in the map information are those registered in the map.
  • road markings such as lane markings, stop lines, pedestrian crossings, road markings, structures on the road surface such as curbs. Things and buildings are included.
  • Each piece of map information such as a white line is defined as an aggregate of edges. In the case where the edge is a long straight line, for example, since it is divided every 1 m, there is no extremely long edge. In the case of a straight line, each edge has three-dimensional position information indicating both end points of the straight line.
  • each edge has three-dimensional position information indicating both end points and a center point of the curve. Further, since the 3D map database 3 stores node / link information of a general navigation system, the ECU 1 can perform route guidance to a destination and a process of recording a past travel route.
  • the vehicle sensor group 4 includes a GPS receiver 41, an accelerator sensor 42, a steering sensor 43, a brake sensor 44, a vehicle speed sensor 45, an acceleration sensor 46, a wheel speed sensor 47, and a yaw rate sensor 48. Yes.
  • the vehicle sensor group 4 is connected to the ECU 1 and supplies various detection values detected by the sensors 41 to 48 to the ECU 1.
  • the ECU 1 uses the output value of the vehicle sensor group 4 to calculate the approximate position of the vehicle or to calculate odometry indicating the amount of movement of the vehicle per unit time.
  • the laser range finder 5 (5a, 5b) is attached so as to be able to scan the left and right direction of the vehicle body as shown in FIG.
  • the self-position estimation device 10 functions as a control unit that executes self-position estimation processing, and by matching the target position of a target existing around the vehicle with map information stored in the three-dimensional map database 3. Estimate the position and attitude angle of the vehicle.
  • the self-position estimation apparatus 10 executes a self-position estimation program stored in the ROM, thereby performing a target position detection unit 12, a movement amount detection unit 14, a target position accumulation unit 16, a map information acquisition unit 18, and It operates as the self-position estimating unit 20.
  • the target position detection unit 12 detects the target position of the target existing around the vehicle from the scan result of the laser range finder 5. Further, the target position detection unit 12 may detect the target position from the image of the camera 2 or may detect the target position using both the camera 2 and the laser range finder 5.
  • the movement amount detection unit 14 detects odometry, which is the movement amount of the vehicle, based on information from the vehicle sensor group 4 mounted on the vehicle.
  • the target position accumulating unit 16 moves the target position detected by the target position detecting unit 12 in the previously executed control cycles by the amount of movement detected by the movement amount detecting unit 14. Accumulated as reference position data.
  • the map information acquisition unit 18 acquires map information from the three-dimensional map database 3, and the acquired map information includes the target position of the target existing on the map.
  • the self-position estimation unit 20 estimates a detection error of the movement amount detected by the movement amount detection unit 14 based on a past movement amount change in the travel history of the vehicle (corresponding to the movement history of the moving body). To do. Then, the self-position estimation unit 20 extracts a predetermined range (when the target position data is extracted from the target position storage unit 16 based on the detection error of the movement amount estimated from the past movement amount change of the vehicle travel history). Target position data included in a predetermined range (extraction range A) set based on the vehicle travel history among the target position data stored in the target position storage unit 16 by setting an extraction range A) to be described later. And the extracted target position data and the target position included in the map information are collated to estimate the self-position of the vehicle.
  • extraction range A extraction range A
  • this embodiment demonstrates the case where it applies to a vehicle, it is applicable also to moving bodies, such as an aircraft and a ship.
  • moving bodies such as an aircraft and a ship.
  • the self-position of the moving object can be estimated by matching with the terrain or a building instead of the information on the road marking as the surrounding environment.
  • FIG. 4 Two coordinate systems shown in FIG. 4 are used when estimating the position of the vehicle. That is, an absolute coordinate system centered on the origin of the map information and a relative space coordinate system centered on the rear wheel axle center of the vehicle.
  • the origin of map information is the origin O
  • the east-west direction is the X axis
  • the north-south direction is the Y axis
  • the vertically upward direction is the Z axis.
  • the azimuth angle (yaw angle) ⁇ [rad] that the vehicle is facing is represented by a counterclockwise angle when the east direction (X-axis direction) is zero.
  • the center of the rear wheel axle of the vehicle is the origin o
  • the longitudinal direction of the vehicle is the x axis
  • the vehicle width direction is the y axis
  • the vertical direction is the z axis.
  • the estimated self-position of the vehicle is the position in the east-west direction (X-axis direction) (X coordinate [m]), the position in the north-south direction (Y-axis direction) (Y coordinate [m]), and posture.
  • the position and posture angle of a total of three degrees of freedom of the azimuth angle ⁇ (yaw angle [rad]) of the vehicle are estimated.
  • the self-position estimation process described below is continuously performed at intervals of about 100 msec, for example.
  • the target position detection unit 12 detects the target position of the target existing around the vehicle. Specifically, the target position detection unit 12 acquires the scan result of the laser range finder 5 and extracts the target positions of road markings such as lane markings and stop lines, and structures such as curbs and buildings.
  • the target position extracted here is relative plane position coordinates (xj (t), yj (t)) [m] with respect to the vehicle in the relative space coordinate system. Note that j in xj and yj is equal to the number of road markings and curbs extracted. T represents the current time (cycle).
  • the method for obtaining the relative plane position coordinates of the road marking is that when the intensity ⁇ i of the reflected laser of the irradiated laser is equal to or greater than the threshold value ⁇ th, it is determined that the laser is irradiated on the road marking, and the laser is irradiated
  • the relative plane position coordinates are obtained from the distance ⁇ i and the angle of the vehicle.
  • the threshold value ⁇ th may be obtained in advance by experiments or the like and stored in the ECU 1. In this embodiment, 120 is set as the threshold value ⁇ th.
  • relative plane position coordinates (xj (t), yj (t )) Is calculated.
  • the laser is irradiated to the road surface including the curb 51 as indicated by a line 53.
  • a greatly changing portion 55 is detected as shown in FIG.
  • step S ⁇ b> 10 the target position detection unit 12 acquires an image of the camera 2, and calculates relative plane position coordinates (xj (t), yj (t)) of road markings such as lane markings from the image of the camera 2. It may be extracted.
  • a method for extracting the relative plane position coordinates of the road marking from the image of the camera 2 will be described with reference to FIG.
  • FIG. 6A shows an image 60a of the camera 2a that captures the lower left direction of the vehicle and an image 60b of the camera 2b that captures the lower right direction of the vehicle. In these images 60a and 60b, the target position detection unit 12 detects white lines in the regions 61a and 61b.
  • binarization processing is performed on the regions 61a and 61b to extract a range 63 having a high luminance value, and a portion 65 having a high luminance value is detected as shown in FIG. Then, as shown in FIG. 6C, the center of gravity position 67 of the portion 65 having a high luminance value is calculated, and the center of gravity position is calculated from the internal parameters (camera model) of the camera 2 and the external parameters (vehicle mounting position of the camera 2). 67 relative plane position coordinates (xj (t), yj (t)) are obtained.
  • the scan result of the laser range finder 5 is not accumulated immediately after the vehicle engine is started or immediately after the driving power is turned on when the vehicle is an electric vehicle. Therefore, in this embodiment, when the vehicle engine is turned off, or when the vehicle is an electric vehicle, the driving power is turned off, the scan within the extraction range A [m] described later from the current position. The result is extracted and recorded in the memory or storage medium of the ECU 1. Then, when the vehicle engine is started or when the vehicle is an electric vehicle, the recorded scan result is read at the moment when the driving power source is turned on.
  • the relative plane position coordinates (xj (t), yj (t)) of the lane markings, curbstones, buildings, etc. extracted in step S10 are obtained by executing the processing described later, thereby executing the relative plane position at the current time t.
  • the coordinates continue to be recorded until the vehicle engine is turned off. If the vehicle is an electric vehicle, the recording continues until the driving power is turned off.
  • the movement amount detection unit 14 detects odometry, which is the movement amount of the vehicle from one cycle before to the current time t, based on the sensor information obtained from the vehicle sensor group 4.
  • This odometry is the amount of movement of the vehicle per unit time.
  • the yaw angle change amount ⁇ (t) [rad] is obtained by multiplying the yaw rate ⁇ [rad / s] acquired from the yaw rate sensor 48 by the calculation cycle 100 msec of the ECU 1 for the yaw angle movement amount. .
  • the translational movement amount is obtained by multiplying the vehicle speed V [m / s] acquired from the vehicle speed sensor 45 by the calculation cycle 100 msec of the ECU 1 to obtain the translational movement amount ⁇ L (t) [m]. Furthermore, when calculating the odometry, the tire parameter of each wheel of the vehicle may be measured and a two-wheel model or the like may be used to estimate and calculate the side slip angle of the vehicle body or the side slip of the vehicle body.
  • the target position accumulation unit 16 moves the target position detected by the target position detection unit 12 by the movement amount detected by the movement amount detection unit 14, and accumulates it as target position data. More specifically, the relative plane position coordinates (xj (t), yj (t)) of the targets such as lane markings and curbs acquired in step S10 in each previous cycle are obtained from the odometry obtained in step S20. Just move. In other words, using the odometry information, the center position of the rear wheel axle of the current vehicle is used as the origin, using the odometry information, and the target position of the marking line, curbstone, etc. acquired in the past by either or both of the laser range finder 5 and the camera 2. To the relative space coordinate system.
  • FIG. 7B shows the position of the target position data accumulated when the vehicle travels along the route indicated by the arrow 71 on the road seen from the sky shown in FIG. That is, FIG. 7B is an example in which the position information of the target detected by the laser range finder 5 in step S10 is moved and accumulated by the amount of movement detected in step S20.
  • the position of the curb where the detection result of the laser changes greatly is displayed together with the point where the reflection intensity of the road surface is high, for example, the position of the lane marking, the stop line, and the pedestrian crossing.
  • step S40 the self-position estimation unit 20 estimates the detection error of the vehicle movement amount based on the past movement amount change in the travel history of the vehicle, and accumulates the target position based on the estimated detection error of the movement amount.
  • a predetermined range (extraction range A) for extracting target position data from the unit 16 is set.
  • the detection error of the movement amount is estimated from the past movement amount change of the travel history of the vehicle.
  • the past movement amount change of the travel history the current position of the vehicle and a predetermined time before The detection error of the movement amount is estimated from the past movement amount change at the position or the position going back a predetermined distance.
  • the self-position estimation unit 20 includes the vehicle self-position 80 (X (t), Y (t), ⁇ (t)) calculated in step S50 one cycle before from the travel history, A change in the amount of movement of the vehicle's own position 82 (X (t ⁇ T), Y (t ⁇ T), ⁇ (t ⁇ T)) just before time T [s] from the present is compared.
  • the self-position here means the position in the east-west direction of the absolute coordinate system (X coordinate [m]), the position in the north-south direction (Y coordinate [m]), and the east direction as 0 as posture angle information.
  • Counterclockwise azimuth angle ⁇ (yaw angle [rad]).
  • the vehicle's own position 82 before time T [s] from the travel history has shifted by an absolute value ⁇ y [m] in the vehicle width direction as viewed from the vehicle direction of the current self position 80. There is a change in the amount of movement.
  • the absolute value ⁇ y [m] of the shift amount which is the past change in the vehicle width direction, is equal to or greater than the threshold value yth [m]
  • the self-position estimation unit 20 estimates that the detection error of the movement amount is large. it can.
  • the self-position estimation unit 20 estimates that the detection error of the movement amount is small. it can.
  • the fact that the vehicle has moved in the vehicle width direction can be estimated as a large turn change or lane change, right / left turn, or curved road travel where odometry errors are likely to accumulate. It can be estimated that the detection error of the movement amount is large.
  • the self-position estimation unit 20 extracts the extraction range A when extracting the target position data in step S50 described later. [M] is increased and set to 200 m, for example.
  • the self-position estimation unit 20 reduces the extraction range A [m] and sets it to 100 m, for example. Further, as shown in FIG. 9, the extraction range A may be changed from the travel history so that the extraction range A is continuously reduced as the deviation amount ⁇ y, which is a past movement amount change, increases.
  • the extraction range A is set to be smaller as the movement amount detection error estimated from the past movement amount change in the travel history increases. In this way, when it is estimated that the detection error of the movement amount is large from the past movement amount change of the travel history, the extraction range A is reduced to reduce the accumulation of odometry errors.
  • the threshold value yth may be set to 50 m, for example.
  • the reduction range of the extraction range A is obtained by verifying the matching state in step S50 in advance through experiments and simulations and setting an optimum value, and may be set to other values besides reducing from 200 m to 100 m. Good.
  • the extraction range A is set to 200 m, and the number of times of passing through the intersection in the extraction range A is counted from the link node information registered in the 3D map database 3 as a travel history.
  • the extraction range A is set to 200 m.
  • the extraction range A may be set to 100 m on the assumption that the detection error of the movement amount becomes large.
  • the map information on the travel route of the vehicle is referred to, the past travel amount change is estimated, and the travel amount detection error May be estimated.
  • the travel route includes a large change in the amount of movement such as an intersection with a right or left turn, stop, or start, or a steep section, and the point where odometry errors are likely to accumulate is included, the extraction range A is reduced. Accumulation of odometry errors can be reduced.
  • step S50 the self-position estimation unit 20 extracts the target position data included in the extraction range A set in step S40 from the target position data stored in the target position storage unit 16. And the self-position of a vehicle is estimated by collating the extracted target position data and the target position contained in map information.
  • the self-position estimating unit 20 extracts target position data within the extraction range A set in step S40 from the target position data such as lane markings and curbs accumulated in step S30. To do. At this time, the target position data is extracted until the movement amount ⁇ L (t) calculated in step S20 is integrated retroactively from the current time t and the integrated value exceeds the extraction range A.
  • the target position in the absolute coordinate system of the vehicle is estimated by matching the extracted target position data with the target position of the map information stored in the 3D map database 3. That is, the position and posture angle of a total of three degrees of freedom including the position in the east-west direction (X coordinate), the position in the north-south direction (Y coordinate), and the azimuth angle (yaw angle ⁇ ) are estimated.
  • the self-position estimation process according to the present embodiment ends.
  • an ICP Intelligent Closest Point
  • the lane markings are matched using the end points at both ends as evaluation points.
  • the closer to the vehicle (camera 2) the more the target position data is not affected by the odometry error, so that the vicinity of the vehicle is linearly complemented to increase the number of evaluation points, and the distance of the vehicle is the evaluation point Decrease the number.
  • link node information As shown in FIG. 10, branched links (arrows) and nodes (circles) are recorded, and it is possible to determine straight, right turn, left turn, merge and branch for each link. Attribute information is assigned. Therefore, by detecting which link the vehicle has passed through and referring to this link node information, it is possible to obtain the right / left turn information of the vehicle.
  • the extraction range A is increased, for example, 200 m Set as is.
  • the extraction range A may be continuously changed according to the number of right / left turns.
  • the extraction range A is first set to 200 m, and the number of times the vehicle has changed lanes within the range of the extraction range A is counted from the link node information registered in the 3D map database 3. As shown in FIG. 10, since link information is individually set for each lane of a road with a plurality of lanes in the link node information, the number of lane changes is counted by referring to the link node information. can do.
  • the extraction range A is set large, for example, 200 m. To do.
  • the number of lane changes is one or more as the travel history, since the past movement amount change is large, it is estimated that the movement amount detection error is large, and the extraction range A is reduced to, for example, 100 m. Set.
  • the extraction range A is set to 200 m, and the number of times the vehicle has shunted or joined within the range of the extraction range A is counted from the link node information registered in the 3D map database 3.
  • branching or merging as shown in FIG. 10, it is only necessary to refer to attribute information given to each link of link node information.
  • the merge and branch links are not shown, but attribute information that can determine straight, right turn, left turn, merge, and branch is given to each link. It can be determined whether the vehicles have diverged or merged.
  • the extraction range A is increased, for example, 200 m. Set.
  • the number of diversions or merging is one or more as the travel history, since the past movement amount change is large, it is estimated that the movement amount detection error is large, and the extraction range A is small, for example, 180 m. Set to.
  • the extraction range A is set to 200 m, and the radius of curvature of the curve traveled by the vehicle within the range of the extraction range A is detected from the link node information registered in the 3D map database 3. Since the radius of curvature is recorded in each link of the link node information, the radius of curvature can be detected by specifying the link on which the vehicle has traveled.
  • the radius of curvature of the curve traveled by the vehicle is larger than 50 m as the travel history, the change in the past travel amount is small, so that the detection error of the travel amount is estimated to be small and the extraction range A is increased, for example, 200 m. Set as is.
  • the radius of curvature of the curve on which the vehicle has traveled is 50 m or less as the travel history, since the past travel amount change is large, it is estimated that the travel amount detection error is large, and the extraction range A is reduced. For example, it is set to 100 m. At this time, the extraction range A may be continuously changed according to the curvature radius.
  • the extraction range A is reduced so that the accumulation of odometry errors is reduced.
  • a past movement amount change is estimated using the above-described embodiment and a plurality of travel history forms of the first to fourth modified examples, a movement amount detection error is estimated, and an extraction range A is set. May be.
  • the extraction range A is decreased for each error factor that is assumed to have a large past movement amount change such as a deviation amount ⁇ y that is a past movement amount change in the travel history and the number of right / left turns.
  • An amount ⁇ A is set, and when it is estimated that a detection error is large in each error factor, each decrease amount ⁇ A is decreased from the extraction range A. For example, in FIG.
  • the decrease ⁇ A is set to 20 m.
  • the reduction amount ⁇ A is set to 10 m.
  • the radius of curvature of the curve traveled by the vehicle in the travel history is 50 m or less, the reduction amount ⁇ A is set to 50 m. If there are a plurality of error factors that are estimated to have a large movement amount detection error, the extraction range A is set by reducing the sum of these reduction amounts ⁇ A from a preset value of 200 m.
  • the extraction range A is set to 170 m by reducing 30 m, which is the sum of the respective reduction amounts 20 m and 10 m, from 200 m. .
  • the matching executed in step S50 becomes difficult, so the minimum value of the extraction range A is set to 100 m, for example.
  • the reduction width ⁇ A is set to an optimal value by verifying the matching state in step S50 in advance through experiments and simulations.
  • FIG. 12A shows a bird's-eye conversion of an image of a fisheye camera that captures the downward direction of the left and right of the vehicle.
  • FIG. 12B shows the past movement amount and the history of sensing results (overhead image) are accumulated in the current overhead image 121.
  • the connected parts 123 are added, a bird's-eye view image of a certain past section can be obtained. Therefore, even if there is an obstacle such as a parked vehicle, the self-position can be estimated using past sensing results.
  • the conventional self-position estimation technology always uses the history of sensing results at a fixed distance to eliminate the influence of the moving speed of the moving body and to perform the self-position estimation stably. This is because, when a history of sensing results for a certain period of time is used, if the moving body is extremely slow or stopped, it is the same as using only the current sensing results. Further, when the moving speed is increased, the area obtained by connecting the history of sensing results becomes wider, and the calculation load for adjusting to match the map information increases.
  • FIG. 14 is a diagram showing the result of this comparison.
  • the black circles in the figure indicate the positions of the white line edges detected every moment by the laser range finder mounted on the vehicle, and the white circles are the past by the conventional self-position estimation technique. The result of concatenating the sensing results is shown.
  • the detection error of the movement amount is estimated from the travel history of the vehicle, and the data extracted from the accumulated target position data as the estimated detection error increases. Reduce the range. For example, as shown in FIG. 15, the extraction range 151 is widened when traveling straight with a small detection error of the movement amount, and the extraction range 153 is narrowed when repeating left and right turns with a large detection error.
  • a predetermined range (extraction range A) of target position data is set based on the travel history, and the target position extracted from the predetermined range (extraction range A).
  • the self-position of the vehicle is estimated by comparing the data and the target position included in the map information.
  • the detection error is small, and the predetermined range (extraction range A) is widened to increase the number of target positions. Data and the target position of map information can be collated. Therefore, based on the travel history, the self-position can be estimated with high accuracy and stably not only in a situation where the detection error of the movement amount is small but also in a situation where the detection error becomes large.
  • the predetermined range is narrowed as the vehicle turns more frequently in the travel history.
  • a left or right turn at an intersection involves not only turning of the vehicle but also acceleration / deceleration before and after that, and the change in the past movement amount is large, so that the detection error of the movement amount in the longitudinal direction of the vehicle body becomes large. Therefore, when the number of right / left turns where the movement amount detection error is likely to accumulate is large, the accumulation of the movement amount detection error can be reduced by reducing the predetermined range (extraction range A).
  • the position can be estimated with high accuracy and stability.
  • the predetermined range is narrowed as the number of vehicle lane changes increases in the travel history.
  • a vehicle when a lane is changed, a past movement amount change is large, and a non-linear side-slip motion of the vehicle body occurs. Therefore, it is difficult to estimate the movement amount with high accuracy, and a movement amount detection error increases. Therefore, when the number of times of lane change in which the detection error of the movement amount is likely to be accumulated is large, the accumulation of the detection error of the movement amount can be reduced by reducing the predetermined range (extraction range A).
  • the self position can be estimated with high accuracy and stability.
  • the predetermined range is narrowed as the number of diversions or merging of vehicles in the travel history increases.
  • a past movement amount change such as a lane change or a turn is large, and a behavior in which a detection error of the movement amount is enlarged occurs. Therefore, when the number of diversions or merges in which movement amount detection errors are likely to accumulate is large, accumulation of movement amount detection errors can be reduced by reducing the predetermined range (extraction range A).
  • the self-position can be estimated with high accuracy and stability.
  • the predetermined range is narrowed as the curvature radius of the curve traveled by the vehicle in the travel history is smaller.
  • the past movement amount change is large, and a non-linear side skid motion of the vehicle body occurs, making it difficult to estimate the movement amount with high accuracy. Therefore, when traveling on a curve with a small radius of curvature where the detection error of the movement amount is likely to be accumulated, the accumulation of the detection error of the movement amount can be reduced by reducing the predetermined range (extraction range A), As a result, the self-position can be estimated with high accuracy and stability.
  • the detection error of the movement amount is estimated from the travel history of the vehicle in step S40.
  • the predetermined range extraction range A
  • Steps S10 to S30 and step S50 are the same as those in the first embodiment shown in FIG.
  • step S140 the self-position estimating unit 20 estimates the detection error of the moving amount of the vehicle from the travel history, and extracts the target position data from the target position accumulating unit 16 based on the estimated detection error of the moving amount.
  • a predetermined range extraction range A
  • the detection error of the movement amount is estimated from the vehicle behavior that is the past movement amount change in the travel history, and as a specific example of the vehicle behavior, the detection error of the movement amount from the turning amount of the vehicle. Is estimated.
  • the self-position estimation unit 20 calculates the posture angle ⁇ (t) of the vehicle calculated in step S50 one cycle before from the travel history, and the posture angle ⁇ (t ⁇ T) of the vehicle that is a time T [s] ahead of the current time. And a turning amount d ⁇ [rad], which is a change in the moving amount, is obtained. Then, when the absolute value of the turning amount d ⁇ , which is the past movement amount change, is equal to or greater than the threshold value d ⁇ th, the self-position estimation unit 20 can estimate that the movement amount detection error is large.
  • the self-position estimation unit 20 can estimate that the detection error of the movement amount is small.
  • the threshold value d ⁇ th may be set to 1.745 [rad] ⁇ 100 [deg], for example.
  • the large amount of turn which is a change in the amount of movement of the vehicle, can be estimated as a large amount of detection error in the amount of movement because it can be estimated that turning, lane change, or traveling on a curved road where odometry errors are likely to accumulate. can do.
  • the self-position estimation unit 20 extracts the extraction range A [m when extracting the target position data in step S50. ] Is increased to, for example, 200 m.
  • the self-position estimation unit 20 reduces the extraction range A [m] and sets it to 100 m, for example.
  • the extraction range A may be changed so as to be continuously reduced as the turning amount, which is a past movement amount change in the travel history, increases. That is, the extraction range A is set to be smaller as the movement amount detection error estimated from the past movement amount change in the travel history increases.
  • the extraction range A is reduced so that the accumulation of odometry errors is reduced.
  • the turning amount d ⁇ is obtained by integrating the absolute value of the change amount ⁇ (t) of the yaw angle every moment from the current time t of the travel history to the time T [s] before. Also good. In this case, it is possible to detect that the actual turning amount is large even if the attitude angle is apparently restored to the original during slalom running or the like.
  • the maximum value ⁇ abs [rad / s] of the turning speed (yaw rate) in the extraction range A is detected instead of the integral value of the turning amount, and this ⁇ abs is equal to or greater than the threshold value ⁇ th [rad / s]. It may be estimated that the detection error of the movement amount is large.
  • the threshold ⁇ th may be set to 0.39 [rad / s] ⁇ 20 [deg / s], for example.
  • the extraction range A is set to 200 m, and the absolute maximum value ⁇ abs [m / s 2 ] of the measured value ⁇ [m / s 2 ] of the acceleration sensor 46 that measures acceleration in the longitudinal direction of the vehicle. Is detected.
  • the extraction range A is set large, for example, 200 m.
  • the extraction range A is set to be small, for example, 100 m.
  • the threshold value ⁇ th may be set to 0.2 [m / s 2 ], for example. At this time, the extraction range A may be continuously changed according to ⁇ abs.
  • the extraction range A is reduced so that accumulation of odometry errors is reduced.
  • the acceleration sensor 46 may be used as the acceleration sensor 46, and the acceleration in the vehicle width direction and the vertical direction of the vehicle may be measured and determined by the combined component.
  • the extraction range A may be set by the method described in the first embodiment by determining from the vehicle behavior, for example, that the vehicle has turned left or right at the intersection, or has changed lanes.
  • the self-position estimation apparatus estimates that the detection error of the movement amount is larger as the turning amount of the vehicle that is the past movement amount change in the travel history is larger, and the predetermined range. (Extraction range A) is reduced.
  • extraction range A the predetermined range.
  • the self-position estimation apparatus it is estimated that the detection error of the moving amount is larger as the vehicle speed change of the vehicle in the travel history is larger, and the predetermined range (extraction range A) is reduced.
  • the predetermined range extraction range A
  • the detection error of the movement amount in the front-rear direction of the vehicle body becomes large. Therefore, when the vehicle speed change in which the movement amount detection error is likely to accumulate based on the travel history is large, the accumulation of the movement amount detection error may be reduced by reducing the predetermined range (extraction range A).
  • the self-position can be estimated with high accuracy and stability.
  • the vehicle has been described as an example.
  • the mobile body is equipped with at least one camera or laser range finder or a sensor for measuring odometry, an aircraft
  • the present invention can also be applied to ships and ships.
  • the position and posture angle of the three degrees of freedom of the vehicle are obtained, but it is also possible to estimate the position and posture angle of the six degrees of freedom.

Abstract

本発明の自己位置推定装置は、移動体の周囲に存在する物標の物標位置を検出して移動体の移動量を検出し、検出した物標位置を移動量だけ移動させて物標位置データとして蓄積する。そして、地図上に存在する物標の物標位置を含む地図情報を取得し、移動体の現在位置までの移動履歴に基づいて設定された所定範囲の物標位置データと地図情報に含まれる物標位置とを照合して移動体の自己位置を推定する。

Description

自己位置推定装置及び自己位置推定方法
 本発明は、移動体の自己位置を推定する自己位置推定装置及びその方法に関する。
 移動体に搭載されたカメラやレーザレンジファインダを用いて移動体の周囲をセンシングし、その結果と地図とをマッチングして、地図上の位置や姿勢角を求める自己位置推定技術が開発されており、従来では特許文献1が開示されている。
 特許文献1の自己位置推定技術では、車輪速パルスやジャイロ等で算出した移動量とセンシングした結果の過去の履歴とを蓄積して連結し、この結果と地図が一致するように調整して移動体の位置と姿勢角を推定している。また、特許文献1の自己位置推定技術では、常に一定距離のセンシング結果の履歴を用いることによって、移動体の移動速度の影響を排除し、自己位置の推定を安定して行えるようにしている。
特開2008-250906号公報
 しかしながら、上述した従来の自己位置推定技術では、一定距離のセンシング結果の履歴を用いていたので、移動量の検出誤差が大きくなる状況では、センシング結果と地図との間の乖離が大きくなって自己位置の推定が困難になるという問題点があった。
 そこで、本発明は、上述した実情に鑑みて提案されたものであり、移動量の検出誤差が大きくなる状況であっても自己位置を高精度、且つ安定して推定することのできる自己位置推定装置及びその方法を提供することを目的とする。
 上述した課題を解決するために、本発明の一態様に係る自己位置推定装置及びその方法は、移動体の周囲に存在する物標の物標位置を検出して移動体の移動量を検出する。そして、検出した物標位置を移動量だけ移動させて物標位置データとして蓄積し、地図上に存在する物標の物標位置を含む地図情報を取得する。この後、移動体の現在位置までの移動履歴に基づいて設定された所定範囲の物標位置データと地図情報に含まれる物標位置とを照合して移動体の自己位置を推定する。
図1は、本発明の第1実施形態に係る自己位置推定装置を備えた自己位置推定システムの構成を示すブロック図である。 図2は、レーザレンジファインダとカメラの車両への搭載位置を示す図である。 図3は、本発明の第1実施形態に係る自己位置推定装置による自己位置推定処理の処理手順を示すフローチャートである。 図4は、本発明の第1実施形態に係る自己位置推定装置で採用された座標系を説明するための図である。 図5は、本発明の第1実施形態に係る自己位置推定装置のレーザレンジファインダによる検出方法を説明するための図である。 図6は、本発明の第1実施形態に係る自己位置推定装置のカメラによる白線の検出方法を説明するための図である。 図7は、本発明の第1実施形態に係る自己位置推定装置による物標の検出結果を示す図である。 図8は、本発明の第1実施形態に係る自己位置推定装置による移動量の検出誤差の推定方法を説明するための図である。 図9は、本発明の第1実施形態に係る自己位置推定装置による抽出範囲の設定方法を説明するための図である。 図10は、本発明の第1実施形態に係る自己位置推定装置によって取得されたリンク・ノード情報を説明するための図である。 図11は、本発明の第1実施形態の変形例5に係る自己位置推定装置による抽出範囲の設定方法を説明するための図である。 図12は、従来の自己位置推定技術を説明するための図である。 図13は、従来の自己位置推定技術を説明するための図である。 図14は、従来の自己位置推定技術を説明するための図である。 図15は、本発明の第1実施形態に係る自己位置推定装置による抽出範囲の設定方法を説明するための図である。 図16は、本発明の第2実施形態に係る自己位置推定装置による自己位置推定処理の処理手順を示すフローチャートである。
 以下、本発明を適用した第1及び第2実施形態について図面を参照して説明する。
[第1実施形態]
 [自己位置推定システムの構成]
 図1は、本実施形態に係る自己位置推定装置を備えた自己位置推定システムの構成を示すブロック図である。図1に示すように、本実施形態に係る自己位置推定システムは、ECU1と、カメラ2と、三次元地図データベース3と、車両センサ群4と、レーザレンジファインダ5とを備えている。
 ここで、ECU1は、ROM、RAM、演算回路等によって構成された電子制御ユニットであり、ROMには本実施形態に係る自己位置推定装置10を実現するプログラムが格納されている。尚、ECU1は他の制御に用いるECUと兼用してもよい。
 カメラ2(2a、2b)は、CCD等の固体撮像素子を用いたものであり、例えば、図2に示すように車両の左右のドアミラーに設置され、車両の下方の路面を撮像可能となる方向に向けられている。撮像された画像はECU1へ送信される。
 三次元地図データベース3は、地図上に存在する物標の物標位置を含む地図情報を記憶した記憶手段であり、例えば道路表示を含む周囲環境の三次元位置情報を記憶している。地図情報に記録されている物標(landmark)は、地図に登録されているものであり、区画線、停止線、横断歩道、路面マーク等の路面標示の他に、縁石等の路面上の構造物や建物等が含まれる。白線等の各地図情報は、エッジの集合体として定義されている。エッジが長い直線の場合には、例えば1m毎に区切られるため、極端に長いエッジは存在しない。直線の場合には、各エッジは、直線の両端点を示す3次元位置情報を持っている。曲線の場合には、各エッジは、曲線の両端点と中央点を示す3次元位置情報を持っている。また、三次元地図データベース3は一般的なナビゲーションシステムが有するノード・リンク情報を記憶しているので、目的地までの経路案内や過去の走行経路を記録する処理をECU1によって行うことができる。
 車両センサ群4は、GPS受信機41と、アクセルセンサ42と、ステアリングセンサ43と、ブレーキセンサ44と、車速センサ45と、加速度センサ46と、車輪速センサ47と、ヨーレートセンサ48とを備えている。車両センサ群4は、ECU1に接続され、各センサ41~48によって検出された各種の検出値をECU1に供給する。ECU1は、車両センサ群4の出力値を用いることによって、車両の概位置を算出したり、単位時間に車両が進んだ移動量を示すオドメトリを算出する。
 レーザレンジファインダ5(5a、5b)は、図2に示すように車体の左右方向をスキャンできるように取り付けられている。レーザレンジファインダ5は、真下方向からそれぞれ水平方向までの90[deg]の走査範囲で0.1[deg]刻みに900本×2=1800本のレーザを進行方向と垂直に照射する。これにより、路面や障害物までの距離εi[m](i=1~1800)と反射波の強度δi(i=1~1800、0≦δi≦255)を検出することができる。
 自己位置推定装置10は、自己位置推定処理を実行する制御部として機能し、車両の周囲に存在する物標の物標位置と三次元地図データベース3に格納された地図情報とをマッチングすることによって、車両の位置及び姿勢角を推定する。自己位置推定装置10は、ROMに格納された自己位置推定用のプログラムを実行することにより、物標位置検出部12、移動量検出部14、物標位置蓄積部16、地図情報取得部18及び自己位置推定部20として動作する。
 物標位置検出部12は、レーザレンジファインダ5のスキャン結果から車両の周囲に存在する物標の物標位置を検出する。また、物標位置検出部12は、カメラ2の画像から物標位置を検出してもよいし、カメラ2とレーザレンジファインダ5の両方を用いて物標位置を検出してもよい。
 移動量検出部14は、車両に搭載された車両センサ群4からの情報に基づいて車両の移動量であるオドメトリを検出する。
 物標位置蓄積部16は、以前に実行された各制御周期において物標位置検出部12で検出された物標位置を、移動量検出部14で検出された移動量の分だけ移動させて物標位置データとして蓄積する。
 地図情報取得部18は、三次元地図データベース3から地図情報を取得しており、取得する地図情報には、地図上に存在する物標の物標位置が含まれている。
 自己位置推定部20は、本実施形態では、車両の走行履歴(移動体の移動履歴に相当)の過去の移動量変化に基づいて移動量検出部14で検出された移動量の検出誤差を推定する。そして、自己位置推定部20は、車両の走行履歴の過去の移動量変化から推定した移動量の検出誤差に基づいて、物標位置蓄積部16から物標位置データを抽出するときの所定範囲(後述の抽出範囲A)を設定し、物標位置蓄積部16に蓄積された物標位置データのうち車両の走行履歴に基づいて設定された所定範囲(抽出範囲A)に含まれる物標位置データを抽出し、抽出された物標位置データと地図情報に含まれる物標位置とを照合して車両の自己位置を推定する。
 尚、本実施形態では車両に適用した場合について説明するが、航空機や船舶等の移動体にも適用可能である。航空機や船舶に適用する場合には、周囲環境として道路標示に関する情報の代わりに地形や建造物とマッチングすることによって移動体の自己位置を推定することができる。
 [自己位置推定処理の手順]
 次に、本実施形態に係る自己位置推定処理の手順を図3のフローチャートを参照して説明する。尚、本実施形態では、車両の自己位置を推定する際に、図4に示す2つの座標系を用いている。すなわち、地図情報の原点を中心とした絶対座標系と、車両の後輪車軸中心を原点とした相対空間座標系である。絶対座標系は、地図情報の原点を原点Oとして、東西方向をX軸、南北方向をY軸、鉛直上方をZ軸としている。この絶対座標系において、車両が向いている方位角(ヨー角)θ[rad]は、東方向(X軸方向)を0としたときの反時計回りの角度で表される。また、相対空間座標系は、車両の後輪車軸中心を原点oとして、車両の前後方向をx軸、車幅方向をy軸、鉛直上方をz軸とする。
 尚、本実施形態では、推定する車両の自己位置として、東西方向(X軸方向)の位置(X座標[m])、南北方向(Y軸方向)の位置(Y座標[m])、姿勢角情報として車両の方位角θ(ヨー角[rad])の合計3自由度の位置と姿勢角を推定する。ただし、3自由度の位置と姿勢角だけでなく、6自由度の空間における位置と姿勢角を求めることも可能である。また、以下に説明する自己位置推定処理は、例えば100msec程度の間隔で連続的に行われる。
 図3に示すように、まずステップS10において、物標位置検出部12は、車両の周囲に存在する物標の物標位置を検出する。具体的に、物標位置検出部12は、レーザレンジファインダ5のスキャン結果を取得し、区画線や停止線等の路面標示や縁石、建物等の構造物の物標位置を抽出する。ここで抽出される物標位置は、相対空間座標系の車両に対する相対平面位置座標(xj(t)、yj(t))[m]である。尚、xj、yjのjは、抽出された路面標示や縁石の数と等しい。また、tは現在の時刻(周期)を表している。
 路面標示の相対平面位置座標の求め方は、照射されたレーザの反射波の強度δiが閾値δth以上になると、レーザが路面標示に照射されているものと判断して、レーザが照射された点の自車に対する距離εiと角度から相対平面位置座標を求める。このようにして求められる理由は、路面標示部分には反射材が多く含まれているので、路面のアスファルトと比較してより強くレーザを反射するからである。また、閾値δthは予め実験等で求めておき、ECU1に記憶させておけばよく、本実施形態では閾値δthに120を設定する。
 また、縁石や建物等の構造物の物標位置の求め方については、各レーザが照射された場所までの距離εiと角度から各照射点の相対平面位置座標(xj(t)、yj(t))を算出して求める。具体的には、例えば図5(a)に示す状況において、レーザレンジファインダ5からレーザを照射すると、レーザは縁石51を含む路面にライン53に示すように照射される。この照射されたレーザの点群を検出すると、図5(b)に示すように大きく変化する箇所55が検出される。したがって、検出された点群にHough変換等の線分検出手法を用いて、点群の傾きが大きく変化する場所を抽出し、その場所の相対平面位置座標(xj(t)、yj(t))を算出する。路面上の構造物が建物の場合でも、点群の傾きが大きく変化する場所を抽出すれば、同様に相対平面位置座標(xj(t)、yj(t))を求めることができる。
 また、ステップS10において、物標位置検出部12は、カメラ2の画像を取得し、カメラ2の画像から区画線等の道路標示の相対平面位置座標(xj(t)、yj(t))を抽出してもよい。カメラ2の画像から道路標示の相対平面位置座標を抽出する方法については、図6を参照して説明する。図6(a)は、車両の左下向きを撮像しているカメラ2aの画像60aと、車両の右下向きを撮像しているカメラ2bの画像60bを示している。これらの画像60a、60bにおいて、物標位置検出部12は、領域61a、61bに対して白線の検出を行う。例えば、領域61a、61bに対して2値化処理を行って輝度値が高い範囲63を抽出し、図6(b)に示すように輝度値が高い部分65を検出する。そして、図6(c)に示すように、輝度値が高い部分65の重心位置67を算出し、カメラ2の内部パラメータ(カメラモデル)と外部パラメータ(カメラ2の車両取付け位置)から、重心位置67の相対平面位置座標(xj(t)、yj(t))を求める。
 尚、車両のエンジンが始動した直後、或いは車両が電気自動車である場合には駆動用の電源がONになった直後は、レーザレンジファインダ5のスキャン結果が蓄積されていない。そのため、本実施形態では車両のエンジンがOFF、或いは車両が電気自動車である場合には駆動用の電源がOFFになったときに、現在位置から後述する抽出範囲A[m]の範囲内のスキャン結果を抽出しておき、ECU1のメモリまたは記憶媒体に記録しておく。そして、車両のエンジンが始動、或いは車両が電気自動車である場合には駆動用の電源がONになった瞬間に、記録されているスキャン結果を読み込むようにする。
 また、ステップS10で抽出された区画線や縁石、建物等の相対平面位置座標(xj(t)、yj(t))は、後述する処理を実行することにより、現在の時刻tにおける相対平面位置座標として、車両のエンジンがOFFになるまで記録され続ける。また、車両が電気自動車である場合には、駆動用の電源がOFFになるまで記録され続ける。
 次に、ステップS20において、移動量検出部14は、車両センサ群4から得られるセンサ情報に基づいて、1周期前から現在の時刻tまでの車両の移動量であるオドメトリを検出する。このオドメトリは、車両が単位時間に進んだ移動量である。例えば、本実施形態では、ヨー角の移動量について、ヨーレートセンサ48から取得したヨーレートγ[rad/s]にECU1の演算周期100msecを乗じてヨー角の変化量Δθ(t)[rad]を求める。また、並進方向の移動量は車速センサ45から取得した車速V[m/s]にECU1の演算周期100msecを乗じて並進方向の移動量ΔL(t)[m]を求める。さらに、オドメトリを算出するにあたって、車両の各車輪のタイヤパラメータを計測し、2輪モデル等を用いることによって、車体の横滑り角や車体の横すべりを推定して算出してもよい。
 ステップS30において、物標位置蓄積部16は、物標位置検出部12で検出された物標位置を、移動量検出部14で検出された移動量だけ移動させて物標位置データとして蓄積する。具体的に説明すると、以前の各周期においてステップS10で取得した区画線や縁石等の物標の相対平面位置座標(xj(t)、yj(t))を、ステップS20で取得したオドメトリの分だけ移動させる。言い換えると、レーザレンジファインダ5、或いはカメラ2の何れか一方または両方で過去に取得した区画線や縁石等の物標位置を、オドメトリ情報を用いて、現在の車両の後輪車軸中心を原点とした相対空間座標系に変換する。
 これにより、例えば、図7(b)に示すようにレーザレンジファインダ5のスキャン結果から物標の位置を特定することができる。図7(b)は、図7(a)に示す上空から見た走路を、車両が矢印71の経路で走行した場合に蓄積された物標位置データを示したものである。すなわち、図7(b)は、ステップS10においてレーザレンジファインダ5で検出された物標の位置情報を、ステップS20で検出された移動量だけ移動させて蓄積した結果を表示した一例である。図7(b)には、路面の反射強度が高い点、例えば区画線や停止線、横断歩道の位置とともに、レーザの検出結果が大きく変化する縁石の位置が表示されている。
 ステップS40において、自己位置推定部20は、車両の走行履歴の過去の移動量変化に基づいて車両の移動量の検出誤差を推定し、推定した移動量の検出誤差に基づいて、物標位置蓄積部16から物標位置データを抽出するときの所定範囲(抽出範囲A)を設定する。特に、本実施形態では、車両の走行履歴の過去の移動量変化から移動量の検出誤差を推定しており、走行履歴の過去の移動量変化の具体例として、車両の現在位置と所定時間前の位置、または所定距離遡った位置における過去の移動量変化から移動量の検出誤差を推定する。
 自己位置推定部20は、図8に示すように、走行履歴から一周期前のステップS50で算出された車両の自己位置80(X(t),Y(t),θ(t))と、現在より時間T[s]だけ前の車両の自己位置82(X(t-T),Y(t-T),θ(t-T))の移動量変化を比較する。ただし、ここでいう自己位置とは、絶対座標系の東西方向の位置(X座標[m])、南北方向の位置(Y座標[m])、姿勢角情報として東方向を0とした時の反時計回りの方位角θ(ヨー角[rad])である。
 そして、図8では、走行履歴から時間T[s]だけ前の車両の自己位置82が、現在の自己位置80の車両の向きから見て車幅方向に絶対値Δy[m]だけずれた過去の移動量変化がある。この車幅方向の過去の移動量変化であるずれ量の絶対値Δy[m]が閾値yth[m]以上である場合には、自己位置推定部20は、移動量の検出誤差が大きいと推定できる。一方、車幅方向の過去の移動量変化であるずれ量の絶対値Δy[m]が閾値yth[m]より小さい場合には、自己位置推定部20は、移動量の検出誤差が小さいと推定できる。
 図8に示すように、車両が車幅方向に移動したということは、オドメトリの誤差が蓄積しやすい移動量変化の大きい旋回や車線変更、右左折、曲線路の走行を行ったと推定できるので、移動量の検出誤差が大きいと推定することができる。
 そして、自己位置推定部20は、走行履歴の過去の移動量変化から移動量の検出誤差が小さいと推定される場合には、後述するステップS50で物標位置データを抽出するときの抽出範囲A[m]を大きくして、例えば200mに設定する。一方、自己位置推定部20は、走行履歴の過去の移動量変化から移動量の検出誤差が大きいと推定される場合には、抽出範囲A[m]を小さくして、例えば100mに設定する。また、図9に示すように、走行履歴から、過去の移動量変化であるずれ量Δyが大きくなるのに応じて、抽出範囲Aを連続的に小さくなるように変化させてもよい。すなわち、走行履歴の過去の移動量変化から推定される移動量の検出誤差が大きくなるのに応じて、抽出範囲Aが小さくなるように設定する。このように走行履歴の過去の移動量変化から移動量の検出誤差が大きいと推定される場合には、抽出範囲Aを小さくすることによって、オドメトリの誤差の蓄積が少なくなるようにする。
 尚、閾値ythは、例えば50mに設定すればよい。また、抽出範囲Aの減少幅は、ステップS50のマッチング状態を予め実験やシミュレーションによって検証し、最適な値を設定するものであり、200mから100mに減少させる以外に他の値に設定してもよい。
 また、走行履歴として、車幅方向の移動量だけではなく車両が通過した交差点の数を用いて、過去の移動量変化を推定し、移動量の検出誤差の大きさを推定してもよい。この場合、まず抽出範囲Aを200mに設定しておき、三次元地図データベース3に登録されたリンク・ノード情報から、走行履歴として抽出範囲Aの中で交差点を通過した回数をカウントする。
 そして、走行履歴として交差点を通過した回数が3回未満の場合には、過去の移動量変化が小さいので、移動量の検出誤差は小さいと推定して抽出範囲Aを200mのままに設定する。一方、走行履歴として交差点を通過した回数が3回以上の場合には、過去の移動量変化が大きいので、移動量の検出誤差が大きくなると推定して、抽出範囲Aを100mに設定する。また、この他にも、抽出範囲Aの中の地図上の最大勾配を探索し、例えば走行履歴として最大勾配が4%以上の区間が含まれている場合には、過去の移動量変化が大きいので、移動量の検出誤差が大きくなると推定して、抽出範囲Aを100mに設定してもよい。
 このように、走行履歴としては、車両の現在位置と所定時間前の位置に加えて、車両の走行経路上の地図情報を参照して、過去の移動量変化を推定し、移動量の検出誤差を推定してもよい。これにより、右左折や停止、発進を伴う交差点や急勾配の区間等の移動量変化が大きく、オドメトリの誤差が蓄積しやすいポイントが走行経路に含まれる場合には、抽出範囲Aを小さくしてオドメトリの誤差の蓄積が少なくなるようにできる。
 ステップS50において、自己位置推定部20は、物標位置蓄積部16に蓄積された物標位置データのうちステップS40で設定された抽出範囲Aに含まれる物標位置データを抽出する。そして、抽出された物標位置データと地図情報に含まれる物標位置とを照合して車両の自己位置を推定する。
 具体的に、自己位置推定部20は、ステップS30で蓄積された区画線や縁石等の物標位置データの中からステップS40で設定された抽出範囲Aの範囲内にある物標位置データを抽出する。このとき、物標位置データは、ステップS20で算出された移動量ΔL(t)を現在の時刻tから遡って積算し、この積算値が抽出範囲Aを超えるまで抽出される。
 そして、抽出した物標位置データと三次元地図データベース3に格納されている地図情報の物標位置とをマッチングして、車両の絶対座標系における自己位置を推定する。すなわち、車両の東西方向の位置(X座標)と、南北方向の位置(Y座標)と、方位角(ヨー角θ)とからなる合計3自由度の位置と姿勢角を推定する。こうして自己位置が推定されると、本実施形態に係る自己位置推定処理は終了する。
 尚、ステップS50におけるマッチングには、ICP(Iterative Closest Point)アルゴリズムを用いる。このとき、三次元地図データベース3の地図情報に含まれる物標位置のうち、例えば区画線は、その両端の端点を評価点としてマッチングする。また、車両(カメラ2)に近いほど物標位置データはオドメトリの誤差の影響を受けないので、車両の近傍については直線補完して評価点の数を増加させ、車両の遠方については評価点の数を減少させる。
 [変形例1]
 本実施形態の変形例1としては、ステップS40において車両の走行履歴から移動量の検出誤差を推定する際に、走行履歴の具体例として、車両の右左折回数が多いほど、過去の移動量変化が大きいので、移動量の検出誤差が大きいと推定し、抽出範囲Aを狭くする。この場合、まず抽出範囲Aを200mに設定しておき、三次元地図データベース3に登録されたリンク・ノード情報から、抽出範囲Aの範囲内で車両が交差点で右左折した回数をカウントする。
 尚、リンク・ノード情報は、図10に示すように、分岐したリンク(矢印)とノード(丸印)が記録されており、各リンクには直進、右折、左折、合流、分岐を判断できるような属性情報が付与されている。したがって、車両がどのリンクを通過したかを検出して、このリンク・ノード情報を参照することによって、車両の右左折情報を得ることができる。
 そして、走行履歴として、交差点で右左折した回数が2回未満の場合には、過去の移動量変化が小さいので、移動量の検出誤差は小さいと推定して抽出範囲Aを大きく、例えば200mのままに設定する。一方、走行履歴として、交差点で右左折した回数が2回以上の場合には、過去の移動量変化が大きいので、移動量の検出誤差が大きいと推定して、抽出範囲Aを小さく、例えば100mに設定する。このとき、右左折の回数に応じて抽出範囲Aを連続的に変化させてもよい。
 このように、オドメトリの誤差が蓄積しやすい右左折を行った場合には、抽出範囲Aを小さくしてオドメトリの誤差の蓄積が少なくなるようにする。
 [変形例2]
 変形例2としては、ステップS40の走行履歴の具体例として、車両の車線変更の回数が多いほど、過去の移動量変化が大きいので、移動量の検出誤差が大きいと推定し、抽出範囲Aを狭くする。この場合、まず抽出範囲Aを200mに設定しておき、三次元地図データベース3に登録されたリンク・ノード情報から、抽出範囲Aの範囲内で車両が車線変更した回数をカウントする。図10に示すように、リンク・ノード情報には、複数の車線がある道路について車線毎に個別にリンク情報が設定されているので、リンク・ノード情報を参照すれば、車線変更の回数をカウントすることができる。
 そして、走行履歴として、車線変更の回数が0回の場合には、過去の移動量変化が小さいので、移動量の検出誤差は小さいと推定して抽出範囲Aを大きく、例えば200mのままに設定する。一方、走行履歴として、車線変更の回数が1回以上である場合には、過去の移動量変化が大きいので、移動量の検出誤差が大きいと推定して、抽出範囲Aを小さく、例えば100mに設定する。
 このように、オドメトリの誤差が蓄積しやすい車線変更をした場合には、抽出範囲Aを小さくしてオドメトリの誤差の蓄積が少なくなるようにする。
 [変形例3]
 変形例3としては、ステップS40の走行履歴の具体例として、車両の分流または合流の回数が多いほど、過去の移動量変化が大きいので、移動量の検出誤差が大きいと推定し、抽出範囲Aを小さくする。この場合、まず抽出範囲Aを200mに設定しておき、三次元地図データベース3に登録されたリンク・ノード情報から、抽出範囲Aの範囲内で車両が分流または合流した回数をカウントする。分流または合流の判断については、図10に示すように、リンク・ノード情報の各リンクに付与された属性情報を参照すればよい。図10では合流、分岐のリンクは図示されていないが、各リンクには直進、右折、左折、合流、分岐を判断できるような属性情報が付与されているので、この属性情報を参照すれば、車両が分流または合流したかを判断することができる。
 そして、走行履歴として、分流または合流の回数が0回の場合には、過去の移動量変化が小さいので、移動量の検出誤差は小さいと推定して抽出範囲Aを大きく、例えば200mのままに設定する。一方、走行履歴として、分流または合流の回数が1回以上である場合には、過去の移動量変化が大きいので、移動量の検出誤差が大きいと推定して、抽出範囲Aを小さく、例えば180mに設定する。
 このように、オドメトリの誤差が蓄積しやすい分流または合流をした場合には、抽出範囲Aを小さくしてオドメトリの誤差の蓄積が少なくなるようにする。
 [変形例4]
 変形例4としては、ステップS40の走行履歴の具体例として、車両が走行したカーブの曲率半径が小さいほど、過去の移動量変化が大きいので、移動量の検出誤差が大きいと推定し、抽出範囲Aを狭くする。この場合、まず抽出範囲Aを200mに設定しておき、三次元地図データベース3に登録されたリンク・ノード情報から、抽出範囲Aの範囲内で車両が走行したカーブの曲率半径を検出する。曲率半径は、リンク・ノード情報の各リンクに記録されているので、車両が走行したリンクを特定すれば、曲率半径を検出することができる。
 そして、走行履歴として、車両が走行したカーブの曲率半径が50mより大きい場合には、過去の移動量変化が小さいので、移動量の検出誤差は小さいと推定して抽出範囲Aを大きく、例えば200mのままに設定する。一方、走行履歴として、車両が走行したカーブの曲率半径が50m以下である場合には、過去の移動量変化が大きいので、移動量の検出誤差が大きいと推定して、抽出範囲Aを小さく、例えば100mに設定する。このとき、曲率半径に応じて抽出範囲Aを連続的に変化させてもよい。
 このように、オドメトリの誤差が蓄積しやすい曲率半径の小さいカーブを車両が走行した場合には、抽出範囲Aを小さくしてオドメトリの誤差の蓄積が少なくなるようにする。
 [変形例5]
 変形例5として、上述した実施形態と変形例1~4の複数の走行履歴の形態を用いて過去の移動量変化を推定して、移動量の検出誤差を推定し、抽出範囲Aを設定してもよい。この場合、図11に示すように、走行履歴の過去の移動量変化であるずれ量Δyや右左折回数等の過去の移動量変化が大きいと想定される誤差要因毎にそれぞれ抽出範囲Aの減少量ΔAを設定しておき、各誤差要因において検出誤差が大きいと推定された場合には、各減少量ΔAをそれぞれ抽出範囲Aから減少させるようにする。例えば、図11では、走行履歴でずれ量Δyが50m以上、交差点通過回数が3回以上、右左折回数が2回以上の場合にはそれぞれ減少量ΔAが20mに設定され、分流または合流、車線変更の回数が1回以上である場合には減少量ΔAが10mに設定されている。また、走行履歴で車両が走行したカーブの曲率半径が50m以下である場合には減少量ΔAが50mに設定されている。そして、移動量の検出誤差が大きいと推定された誤差要因が複数あった場合には、これらの減少量ΔAの和を、予め設定された200mから減少させて抽出範囲Aを設定する。例えば、走行履歴で右左折回数が2回以上で車線変更が1回あった場合には、それぞれの減少量20mと10mの和となる30mを200mから減少させて抽出範囲Aを170mに設定する。このとき、減少量ΔAの和が大きくなりすぎて抽出範囲Aが小さくなりすぎると、ステップS50で実行されるマッチングが難しくなるので、抽出範囲Aの最小値を例えば100mに設定しておくようにする。また、減少幅ΔAは、ステップS50のマッチング状態を予め実験やシミュレーションによって検証し、最適な値が設定されるようにする。
 [第1実施形態の効果]
 次に、本実施形態に係る自己位置推定装置による効果を説明する。まず、従来の自己位置推定技術について説明すると、従来では移動量とセンシング結果の履歴とを蓄積して連結することで自己位置を推定していた。例えば、図12(a)は、車両の左右の下向き方向を撮像した魚眼カメラの画像を俯瞰変換したものである。図12(a)に示すように現在の俯瞰画像121は小さいが、図12(b)に示すように、現在の俯瞰画像121に過去の移動量とセンシング結果(俯瞰画像)の履歴を蓄積して連結した部分123を追加すると、過去の一定区間の俯瞰画像を得ることができる。したがって、駐車車両等の障害物があっても過去のセンシング結果を用いて自己位置を推定することが可能になる。
 このとき、従来の自己位置推定技術では、常に一定距離のセンシング結果の履歴を用いることによって、移動体の移動速度の影響を排除し、自己位置の推定を安定して行えるようにしていた。これは、一定時間のセンシング結果の履歴を用いた場合、移動体が極低速、あるいは停止していると、現在のセンシング結果のみを利用しているのと同じことになってしまうからである。また、移動速度が高速になると、センシング結果の履歴を連結して得られる領域が広くなり、地図情報と一致するように調整するための演算負荷が大きくなるからである。
 しかしながら、上述した従来の自己位置推定技術では、一定距離のセンシング結果の履歴を用いていたので、移動量の検出誤差が大きくなるような状況では、センシング結果と地図情報との間の乖離が大きくなって自己位置の推定が困難になるという問題点があった。
 例えば、図13に示すように車両の走行履歴が一定速で直進だった場合131と、加減速を含む右左折を繰り返した場合133で、同じ距離のセンシング結果を連結した場合について比較する。
 図14は、この比較結果を示す図であり、図中の黒丸は車両に搭載されたレーザレンジファインダによって時々刻々検出した白線エッジの位置を示しており、白丸は従来の自己位置推定技術で過去のセンシング結果を連結した結果を示している。
 図14(a)に示すように、車両の走行履歴が一定速で直進だった場合では、車両の過去の移動量変化が小さいため移動量の検出誤差は小さくなり、検出した白線エッジ(黒丸)と連結したセンシング結果(白丸)との間の乖離は小さくなる。
 これに対して、図14(b)に示すように、車両の走行履歴で、車両が加減速を含む右左折を繰り返した場合では、過去の移動量変化が大きく、その結果、移動量の検出誤差が大きくなるので、現在から過去にさかのぼるにしたがって、検出した白線エッジ(黒丸)と連結したセンシング結果(白丸)との間の乖離が大きくなる。このような場合には、移動量の検出に用いている車両モデルをより厳密なモデルにすることによって、移動量の検出誤差を低減する対策が考えられる。しかし、車両を例にすると、乗員や搭載燃料の変化による車体の質量変化や路面の摩擦係数の変化まで厳密にモデル化することは難しく、上記の問題を解決することは困難であった。
 そこで、本実施形態に係る自己位置推定装置では、車両の走行履歴から移動量の検出誤差を推定し、推定した検出誤差が大きくなるのに応じて、蓄積された物標位置データから抽出するデータの範囲を小さくする。例えば、図15に示すように、移動量の検出誤差が小さい直進の場合には抽出範囲151を広くし、検出誤差が大きい右左折を繰り返す場合には抽出範囲153を狭くする。
 このように、本実施形態に係る自己位置推定装置では、走行履歴に基づいて物標位置データの所定範囲(抽出範囲A)を設定し、所定範囲(抽出範囲A)から抽出された物標位置データと地図情報に含まれる物標位置とを照合して車両の自己位置を推定する。これにより、走行履歴で車両が右左折を繰り返すような場合は、過去の移動量変化が大きいので、検出誤差が大きいとして、所定範囲(抽出範囲A)を狭くして地図情報との乖離が十分小さい範囲で、物標位置データと地図情報の物標位置とを照合することができる。また、走行履歴で車両が定速で直進するような場合は、過去の移動量変化が小さいので、検出誤差が小さいとして、所定範囲(抽出範囲A)を広くして、より多くの物標位置データと地図情報の物標位置とを照合することができる。したがって、走行履歴に基づいて、移動量の検出誤差が小さい状況だけでなく、検出誤差が大きくなるような状況であっても、自己位置を高精度、且つ安定して推定することができる。
 また、本実施形態に係る自己位置推定装置では、走行履歴で車両の右左折回数が多いほど、所定範囲を狭くする。交差点での右左折は、車両の旋回だけでなく、その前後に加減速も伴い、過去の移動量変化が大きいので、車体の前後方向における移動量の検出誤差が大きくなる。したがって、移動量の検出誤差が蓄積しやすい右左折回数が多い場合には、所定範囲(抽出範囲A)を小さくすることで、移動量の検出誤差の蓄積を少なくすることができ、これによって自己位置を高精度、且つ安定して推定することができる。
 さらに、本実施形態に係る自己位置推定装置では、走行履歴で車両の車線変更の回数が多いほど、所定範囲を狭くする。車両では車線変更の際には、過去の移動量変化が大きく、非線形な車体の横滑り運動が発生するので、高精度に移動量を推定することが難しくなり、移動量の検出誤差が大きくなる。したがって、移動量の検出誤差が蓄積しやすい車線変更の回数が多い場合には、所定範囲(抽出範囲A)を小さくすることで、移動量の検出誤差の蓄積を少なくすることができ、これによって自己位置を高精度、且つ安定して推定することができる。
 また、本実施形態に係る自己位置推定装置では、走行履歴で車両の分流または合流の回数が多いほど、所定範囲を狭くする。車両の分流または合流では車線の変更や旋回といった過去の移動量変化が大きく、移動量の検出誤差が拡大するような挙動が生じる。したがって、移動量の検出誤差が蓄積しやすい分流または合流の回数が多い場合には、所定範囲(抽出範囲A)を小さくすることで、移動量の検出誤差の蓄積を少なくすることができ、これによって自己位置を高精度、且つ安定して推定することができる。
 さらに、本実施形態に係る自己位置推定装置では、走行履歴で車両が走行したカーブの曲率半径が小さいほど、所定範囲を狭くする。高車速で急なカーブを走行すると、車線変更と同じく、過去の移動量変化が大きく、非線形な車体の横滑り運動が発生するので、高精度に移動量を推定することが難しくなる。したがって、移動量の検出誤差が蓄積しやすい曲率半径の小さいカーブを走行した場合には、所定範囲(抽出範囲A)を小さくすることで、移動量の検出誤差の蓄積を少なくすることができ、これによって自己位置を高精度、且つ安定して推定することができる。
[第2実施形態]
 次に、本発明の第2実施形態に係る自己位置推定装置について図面を参照して説明する。尚、本実施形態に係る自己位置推定システムの構成は第1実施形態と同一なので、詳細な説明は省略する。
 [自己位置推定処理の手順]
 本実施形態に係る自己位置推定処理の手順を図16のフローチャートを参照して説明する。第1実施形態では、ステップS40において車両の走行履歴から移動量の検出誤差を推定していた。しかし、本実施形態では、ステップS140において走行履歴の中の車両挙動に注目して、所定範囲(抽出範囲A)を設定することが、第1実施形態と相違している。尚、ステップS10~S30とステップS50は、図3の第1実施形態と同一であるため、詳細な説明は省略する。
 ステップS140において、自己位置推定部20は、走行履歴から車両の移動量の検出誤差を推定し、推定した移動量の検出誤差に基づいて、物標位置蓄積部16から物標位置データを抽出するときの所定範囲(抽出範囲A)を設定する。特に、本実施形態では、走行履歴の中の過去の移動量変化である車両挙動から移動量の検出誤差を推定しており、車両挙動の具体例として、車両の旋回量から移動量の検出誤差を推定する。
 自己位置推定部20は、走行履歴から一周期前のステップS50で算出された車両の姿勢角θ(t)と、現在より時間T[s]だけ前の車両の姿勢角θ(t-T)との差を計算して移動量変化である旋回量dθ[rad]を求める。そして、この過去の移動量変化である旋回量dθの絶対値が閾値dθth以上である場合には、自己位置推定部20は、移動量の検出誤差が大きいと推定できる。一方、過去の移動量変化である旋回量dθの絶対値が閾値dθthより小さい場合には、自己位置推定部20は、移動量の検出誤差が小さいと推定できる。尚、閾値dθthは、例えば1.745[rad]≒100[deg]に設定すればよい。
 このように車両の移動量変化である旋回量が大きいということは、オドメトリの誤差が蓄積しやすい旋回や車線変更、曲線路の走行を行ったと推定できるので、移動量の検出誤差が大きいと推定することができる。
 そして、自己位置推定部20は、走行履歴の過去の移動量変化から移動量の検出誤差が小さいと推定される場合には、ステップS50で物標位置データを抽出するときの抽出範囲A[m]を大きくして、例えば200mに設定する。一方、自己位置推定部20は、走行履歴の過去の移動量変化から移動量の検出誤差が大きいと推定される場合には、抽出範囲A[m]を小さくして、例えば100mに設定する。また、走行履歴の過去の移動量変化である旋回量が大きくなるのに応じて、抽出範囲Aを連続的に小さくなるように変化させてもよい。すなわち、走行履歴の過去の移動量変化から推定される移動量の検出誤差が大きくなるのに応じて、抽出範囲Aが小さくなるように設定する。
 このように、車両の旋回量が大きくてオドメトリの誤差が蓄積しやすい場合には、抽出範囲Aを小さくして、オドメトリの誤差の蓄積が少なくなるようにする。
 また、旋回量dθではなく、走行履歴の現在の時刻tから時間T[s]だけ前までの時々刻々のヨー角の変化量Δθ(t)の絶対値を積分して旋回量dθを求めてもよい。この場合、スラローム走行等で姿勢角が見かけ上は元に戻っていても、実際の旋回量は大きくなっていることを検出することができる。
 また、旋回量の積分値ではなく、抽出範囲Aにおける旋回速度(ヨーレート)の絶対値の最大値γabs[rad/s]を検出し、このγabsが閾値γth[rad/s]以上である場合に移動量の検出誤差が大きいと推定してもよい。閾値γthは、例えば0.39[rad/s]≒20[deg/s]に設定すればよい。
 [変形例6]
 また、変形例6としては、ステップS140の車両挙動の具体例として、車両の車速変化が大きいほど、移動量の検出誤差が大きいと推定し、抽出範囲Aを狭くする。この場合、まず抽出範囲Aを200mに設定しておき、車両の前後方向の加速度を計測する加速度センサ46の計測値α[m/s]の絶対値の最大値αabs[m/s]を検出する。
 そして、走行履歴として、このαabsが閾値αth[m/s]より小さい場合には移動量の検出誤差は小さいと推定して抽出範囲Aを大きく、例えば200mのままに設定する。一方、走行履歴として、αabsが閾値αth以上である場合には移動量の検出誤差が大きくなると推定して、抽出範囲Aを小さく、例えば100mに設定する。閾値αthは、例えば0.2[m/s]に設定すればよい。このとき、αabsに応じて抽出範囲Aを連続的に変化させてもよい。
 このように、車両が、オドメトリの誤差が蓄積しやすい大きな車速変化をした場合には、抽出範囲Aを小さくしてオドメトリの誤差の蓄積が少なくなるようにする。
 尚、加速度センサ46に多軸センサを用い、車両の車幅方向、上下方向の加速度を計測して、その合成成分で判断するようにしてもよい。さらに、ステップS140では、車両挙動から、例えば車両が交差点を右左折した、車線変更を行った等を判定し、第1実施形態で説明した方法で抽出範囲Aを設定してもよい。
 [第2実施形態の効果]
 以上詳細に説明したように、本実施形態に係る自己位置推定装置では、走行履歴の過去の移動量変化である車両の旋回量が大きいほど、移動量の検出誤差が大きいと推定し、所定範囲(抽出範囲A)を小さくする。車両が旋回すると、旋回方向だけでなくタイヤのすべりによる車幅方向の移動量の検出誤差が大きくなる。したがって、走行履歴に基づいて、移動量の検出誤差が蓄積しやすい車両の旋回量が大きい場合には、所定範囲(抽出範囲A)を小さくすることで、移動量の検出誤差の蓄積を少なくすることができ、これによって自己位置を高精度、且つ安定して推定することができる。
 また、本実施形態に係る自己位置推定装置では、走行履歴の車両の車速変化が大きいほど、移動量の検出誤差が大きいと推定し、所定範囲(抽出範囲A)を小さくする。車両に加減速が発生した場合には、過去の移動量変化が大きいので、車体の前後方向の移動量の検出誤差が大きくなる。したがって、走行履歴に基づいて、移動量の検出誤差が蓄積しやすい車速変化が大きい場合には、所定範囲(抽出範囲A)を小さくすることで、移動量の検出誤差の蓄積を少なくすることができ、これによって自己位置を高精度、且つ安定して推定することができる。
 なお、上述の実施形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施形態以外の形態であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計などに応じて種々の変更が可能であることは勿論である。
 特に、上述した実施形態では車両を例にして説明したが、少なくとも1台のカメラまたはレーザレンジファインダの何れか一方または両方と、オドメトリを計測するためのセンサを搭載した移動体であれば、航空機や船舶等にも本発明は適用可能である。また、上述した実施形態では車両の3自由度の位置及び姿勢角を求めているが、6自由度での位置及び姿勢角を推定することも可能である。
 1 ECU
 2、2a、2b カメラ
 3 三次元地図データベース
 4 車両センサ群
 5、5a、5b レーザレンジファインダ
 10 自己位置推定装置
 12 物標位置検出部
 14 移動量検出部
 16 物標位置蓄積部
 18 地図情報取得部
 20 自己位置推定部
 41 GPS受信機
 42 アクセルセンサ
 43 ステアリングセンサ
 44 ブレーキセンサ
 45 車速センサ
 46 加速度センサ
 47 車輪速センサ
 48 ヨーレートセンサ

Claims (9)

  1.  移動体の自己位置を推定する自己位置推定装置であって、
     前記移動体の周囲に存在する物標の物標位置を検出する物標位置検出部と、
     前記移動体の移動量を検出する移動量検出部と、
     前記物標位置検出部で検出された物標位置を、前記移動量検出部で検出された移動量だけ移動させて物標位置データとして蓄積する物標位置蓄積部と、
     地図上に存在する物標の物標位置を含む地図情報を取得する地図情報取得部と、
     前記移動体の現在位置までの移動履歴に基づいて設定された所定範囲の前記物標位置データと前記地図情報に含まれる物標位置とを照合して前記移動体の自己位置を推定する自己位置推定部と
    を備えたことを特徴とする自己位置推定装置。
  2.  前記自己位置推定部は、前記移動履歴の前記移動体の過去の移動量変化が大きいほど、前記所定範囲を小さくすることを特徴とする請求項1に記載の自己位置推定装置。
  3.  前記移動体は、車両であり、
     前記自己位置推定部は、前記移動履歴で前記車両の右左折回数が多いほど、前記所定範囲を小さくすることを特徴とする請求項1または2に記載の自己位置推定装置。
  4.  前記移動体は、車両であり、
     前記自己位置推定部は、前記移動履歴で前記車両の車線変更の回数が多いほど、前記所定範囲を小さくすることを特徴とする請求項1~3のいずれか1項に記載の自己位置推定装置。
  5.  前記移動体は、車両であり、
     前記自己位置推定部は、前記移動履歴で前記車両の分流または合流の回数が多いほど、前記所定範囲を小さくすることを特徴とする請求項1~4のいずれか1項に記載の自己位置推定装置。
  6.  前記移動体は、車両であり、
     前記自己位置推定部は、前記移動履歴で前記車両が走行したカーブの曲率半径が小さいほど、前記所定範囲を小さくすることを特徴とする請求項1~5のいずれか1項に記載の自己位置推定装置。
  7.  前記自己位置推定部は、前記移動履歴で前記移動体の旋回量が大きいほど、前記所定範囲を小さくすることを特徴とする請求項1~6のいずれか1項に記載の自己位置推定装置。
  8.  前記自己位置推定部は、前記移動履歴で前記移動体の移動速度変化が大きいほど、前記所定範囲を小さくすることを特徴とする請求項1~7のいずれか1項に記載の自己位置推定装置。
  9.  移動体の自己位置を推定する自己位置推定方法であって、
     前記移動体に搭載された制御部が、前記移動体の周囲に存在する物標の物標位置を検出し、
     前記制御部が、前記移動体の移動量を検出し、
     前記制御部が、検出された前記物標位置を、検出された前記移動量だけ移動させて物標位置データとして蓄積し、
     前記制御部が、地図上に存在する物標の物標位置を含む地図情報を取得し、
     前記制御部が、前記移動体の現在位置までの移動履歴に基づいて設定された所定範囲の前記物標位置データと前記地図情報に含まれる物標位置とを照合して前記移動体の自己位置を推定することを特徴とする自己位置推定方法。
PCT/JP2015/065415 2015-05-28 2015-05-28 自己位置推定装置及び自己位置推定方法 WO2016189732A1 (ja)

Priority Applications (10)

Application Number Priority Date Filing Date Title
CN201580080282.3A CN107615201B (zh) 2015-05-28 2015-05-28 自身位置估计装置及自身位置估计方法
EP15893366.3A EP3306429B1 (en) 2015-05-28 2015-05-28 Position estimation device and position estimation method
RU2017146057A RU2668459C1 (ru) 2015-05-28 2015-05-28 Устройство оценки положения и способ оценки положения
CA2987373A CA2987373C (en) 2015-05-28 2015-05-28 Position estimation device and position estimation method
KR1020177034796A KR101880013B1 (ko) 2015-05-28 2015-05-28 자기 위치 추정 장치 및 자기 위치 추정 방법
US15/577,156 US10260889B2 (en) 2015-05-28 2015-05-28 Position estimation device and position estimation method
MX2017015167A MX364590B (es) 2015-05-28 2015-05-28 Dispositivo de estimacion de posicion y metodo de estimacion de posicion.
JP2017520184A JP6384604B2 (ja) 2015-05-28 2015-05-28 自己位置推定装置及び自己位置推定方法
PCT/JP2015/065415 WO2016189732A1 (ja) 2015-05-28 2015-05-28 自己位置推定装置及び自己位置推定方法
BR112017025513A BR112017025513A2 (pt) 2015-05-28 2015-05-28 dispositivo de estimação de posição e método de estimação de posição

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/065415 WO2016189732A1 (ja) 2015-05-28 2015-05-28 自己位置推定装置及び自己位置推定方法

Publications (1)

Publication Number Publication Date
WO2016189732A1 true WO2016189732A1 (ja) 2016-12-01

Family

ID=57393976

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/065415 WO2016189732A1 (ja) 2015-05-28 2015-05-28 自己位置推定装置及び自己位置推定方法

Country Status (10)

Country Link
US (1) US10260889B2 (ja)
EP (1) EP3306429B1 (ja)
JP (1) JP6384604B2 (ja)
KR (1) KR101880013B1 (ja)
CN (1) CN107615201B (ja)
BR (1) BR112017025513A2 (ja)
CA (1) CA2987373C (ja)
MX (1) MX364590B (ja)
RU (1) RU2668459C1 (ja)
WO (1) WO2016189732A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018212280A1 (ja) * 2017-05-19 2018-11-22 パイオニア株式会社 測定装置、測定方法およびプログラム
WO2018212283A1 (ja) * 2017-05-19 2018-11-22 パイオニア株式会社 測定装置、測定方法およびプログラム
JP2019028617A (ja) * 2017-07-27 2019-02-21 株式会社ゼンリン 移動体制御システム及び移動体制御方法
JP2019061703A (ja) * 2018-11-29 2019-04-18 株式会社ゼンリン 走行支援装置、プログラム
WO2019187750A1 (ja) * 2018-03-28 2019-10-03 日立オートモティブシステムズ株式会社 車両制御装置
JP2019207214A (ja) * 2018-05-30 2019-12-05 クラリオン株式会社 情報処理装置
US11161506B2 (en) 2017-04-27 2021-11-02 Zenrin Co., Ltd. Travel support device and non-transitory computer-readable medium
WO2022208617A1 (ja) * 2021-03-29 2022-10-06 パイオニア株式会社 地図データ構造、記憶装置、情報処理装置、制御方法、プログラム及び記憶媒体

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MX368749B (es) * 2015-07-31 2019-10-15 Nissan Motor Metodo de control de desplazamiento y aparato de control de desplazamiento.
US10508923B2 (en) 2015-08-28 2019-12-17 Nissan Motor Co., Ltd. Vehicle position estimation device, vehicle position estimation method
JP6932058B2 (ja) * 2017-10-11 2021-09-08 日立Astemo株式会社 移動体の位置推定装置及び位置推定方法
CN110243357B (zh) * 2018-03-07 2021-09-10 杭州海康机器人技术有限公司 一种无人机定位方法、装置、无人机及存储介质
WO2019185165A1 (en) * 2018-03-30 2019-10-03 Toyota Motor Europe System and method for adjusting external position information of a vehicle
KR102420476B1 (ko) * 2018-05-25 2022-07-13 에스케이텔레콤 주식회사 차량의 위치 추정 장치, 차량의 위치 추정 방법, 및 이러한 방법을 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독가능한 기록매체
WO2020080088A1 (ja) * 2018-10-15 2020-04-23 三菱電機株式会社 情報処理装置
GB2596708B (en) * 2019-03-07 2024-01-10 Mobileye Vision Technologies Ltd Aligning road information for navigation
KR102634443B1 (ko) * 2019-03-07 2024-02-05 에스케이텔레콤 주식회사 차량용 센서의 보정 정보 획득 장치 및 방법
CN112149659B (zh) * 2019-06-27 2021-11-09 浙江商汤科技开发有限公司 定位方法及装置、电子设备和存储介质
CN110647149B (zh) * 2019-09-30 2022-09-16 长春工业大学 一种agv调度和交叉口分流控制方法
US20210247506A1 (en) * 2020-02-12 2021-08-12 Aptiv Technologies Limited System and method of correcting orientation errors
US11731639B2 (en) * 2020-03-03 2023-08-22 GM Global Technology Operations LLC Method and apparatus for lane detection on a vehicle travel surface
DE102020115746A1 (de) 2020-06-15 2021-12-16 Man Truck & Bus Se Verfahren zum Beurteilen einer Genauigkeit einer Positionsbestimmung einer Landmarke, sowie Bewertungssystem
DE102022004316A1 (de) 2021-12-08 2023-06-15 Mercedes-Benz Group AG System und Verfahren zur Landmarkenextraktion
DE102022002921A1 (de) 2022-08-11 2024-02-22 Mercedes-Benz Group AG System für die Wegbestätigung eines Fahrzeugs und Verfahren davon

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08247775A (ja) * 1995-03-15 1996-09-27 Toshiba Corp 移動体の自己位置同定装置および自己位置同定方法
JPH09152344A (ja) * 1995-12-01 1997-06-10 Fujitsu Ten Ltd 車両位置検出装置
JP2007309757A (ja) * 2006-05-17 2007-11-29 Toyota Motor Corp 対象物認識装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3898655A (en) * 1974-01-14 1975-08-05 Bendix Corp Variable range cut-off system for dual frequency CW radar
DE4324531C1 (de) * 1993-07-21 1994-12-01 Siemens Ag Verfahren zur Erstellung einer Umgebungskarte und zur Bestimmung einer Eigenposition in der Umgebung durch eine selbstbewegliche Einheit
US6023653A (en) 1995-11-30 2000-02-08 Fujitsu Ten Limited Vehicle position detecting apparatus
US7287884B2 (en) * 2002-02-07 2007-10-30 Toyota Jidosha Kabushiki Kaisha Vehicle operation supporting device and vehicle operation supporting system
JP2008250906A (ja) 2007-03-30 2008-10-16 Sogo Keibi Hosho Co Ltd 移動ロボット、自己位置補正方法および自己位置補正プログラム
US8655588B2 (en) * 2011-05-26 2014-02-18 Crown Equipment Limited Method and apparatus for providing accurate localization for an industrial vehicle
JP5761162B2 (ja) * 2012-11-30 2015-08-12 トヨタ自動車株式会社 車両位置推定装置
KR102027771B1 (ko) * 2013-01-31 2019-10-04 한국전자통신연구원 차량 속도 적응형 장애물 검출 장치 및 방법
CN103728635B (zh) * 2013-12-27 2017-01-18 苍穹数码技术股份有限公司 基于虚拟电子地标的高可靠定位预测方法及系统
US9347779B1 (en) * 2014-12-10 2016-05-24 Here Global B.V. Method and apparatus for determining a position of a vehicle based on driving behavior

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08247775A (ja) * 1995-03-15 1996-09-27 Toshiba Corp 移動体の自己位置同定装置および自己位置同定方法
JPH09152344A (ja) * 1995-12-01 1997-06-10 Fujitsu Ten Ltd 車両位置検出装置
JP2007309757A (ja) * 2006-05-17 2007-11-29 Toyota Motor Corp 対象物認識装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3306429A4 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11161506B2 (en) 2017-04-27 2021-11-02 Zenrin Co., Ltd. Travel support device and non-transitory computer-readable medium
JPWO2018212280A1 (ja) * 2017-05-19 2020-03-19 パイオニア株式会社 測定装置、測定方法およびプログラム
WO2018212283A1 (ja) * 2017-05-19 2018-11-22 パイオニア株式会社 測定装置、測定方法およびプログラム
US11519727B2 (en) 2017-05-19 2022-12-06 Pioneer Corporation Measurement device, measurement method and program
JP2022034051A (ja) * 2017-05-19 2022-03-02 パイオニア株式会社 測定装置、測定方法およびプログラム
WO2018212280A1 (ja) * 2017-05-19 2018-11-22 パイオニア株式会社 測定装置、測定方法およびプログラム
JPWO2018212283A1 (ja) * 2017-05-19 2020-03-19 パイオニア株式会社 測定装置、測定方法およびプログラム
JP7020813B2 (ja) 2017-07-27 2022-02-16 株式会社ゼンリン 移動体制御システム及びプログラム
JP2019028617A (ja) * 2017-07-27 2019-02-21 株式会社ゼンリン 移動体制御システム及び移動体制御方法
JPWO2019187750A1 (ja) * 2018-03-28 2021-01-07 日立オートモティブシステムズ株式会社 車両制御装置
WO2019187750A1 (ja) * 2018-03-28 2019-10-03 日立オートモティブシステムズ株式会社 車両制御装置
US11472419B2 (en) 2018-03-28 2022-10-18 Hitachi Astemo, Ltd. Vehicle control device
WO2019230098A1 (ja) * 2018-05-30 2019-12-05 クラリオン株式会社 情報処理装置
CN112204348A (zh) * 2018-05-30 2021-01-08 歌乐株式会社 信息处理装置
JP2019207214A (ja) * 2018-05-30 2019-12-05 クラリオン株式会社 情報処理装置
JP7137359B2 (ja) 2018-05-30 2022-09-14 フォルシアクラリオン・エレクトロニクス株式会社 情報処理装置
JP2019061703A (ja) * 2018-11-29 2019-04-18 株式会社ゼンリン 走行支援装置、プログラム
WO2022208617A1 (ja) * 2021-03-29 2022-10-06 パイオニア株式会社 地図データ構造、記憶装置、情報処理装置、制御方法、プログラム及び記憶媒体

Also Published As

Publication number Publication date
EP3306429A4 (en) 2018-07-11
MX364590B (es) 2019-05-02
RU2668459C1 (ru) 2018-10-01
CN107615201A (zh) 2018-01-19
CN107615201B (zh) 2018-11-20
MX2017015167A (es) 2018-04-13
KR20180004206A (ko) 2018-01-10
US20180172455A1 (en) 2018-06-21
EP3306429B1 (en) 2019-09-25
CA2987373C (en) 2018-12-04
CA2987373A1 (en) 2016-12-01
JPWO2016189732A1 (ja) 2018-03-22
JP6384604B2 (ja) 2018-09-05
BR112017025513A2 (pt) 2018-08-07
US10260889B2 (en) 2019-04-16
KR101880013B1 (ko) 2018-07-18
EP3306429A1 (en) 2018-04-11

Similar Documents

Publication Publication Date Title
JP6384604B2 (ja) 自己位置推定装置及び自己位置推定方法
US11124163B2 (en) Method for controlling travel of vehicle, and device for controlling travel of vehicle
RU2692097C1 (ru) Устройство и способ задания позиции остановки транспортного средства
JP6418332B2 (ja) 車両位置推定装置、車両位置推定方法
US10890453B2 (en) Vehicle localization device
US11526173B2 (en) Traveling trajectory correction method, traveling control method, and traveling trajectory correction device
CN109564098B (zh) 自身位置推定方法及自身位置推定装置
RU2735720C1 (ru) Способ оценки транспортного средства, способ корректировки маршрута движения, устройство оценки транспортного средства и устройство корректировки маршрута движения
JP2004531424A (ja) 車用の感知装置
JP6020729B2 (ja) 車両位置姿勢角推定装置及び車両位置姿勢角推定方法
US11042759B2 (en) Roadside object recognition apparatus
WO2016194168A1 (ja) 走行制御装置及び方法
JP6941178B2 (ja) 自動運転制御装置及び方法
JP7182963B2 (ja) 移動体検知システム及び移動体検知方法
US11156466B2 (en) Lane determination device
JP6784633B2 (ja) 車両の走行制御装置
JP2023144778A (ja) 区画線認識装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15893366

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017520184

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2987373

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 15577156

Country of ref document: US

Ref document number: MX/A/2017/015167

Country of ref document: MX

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20177034796

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2017146057

Country of ref document: RU

WWE Wipo information: entry into national phase

Ref document number: 2015893366

Country of ref document: EP

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112017025513

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112017025513

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20171128