WO2018207632A1 - 車両制御装置、車両制御方法および車両制御システム - Google Patents

車両制御装置、車両制御方法および車両制御システム Download PDF

Info

Publication number
WO2018207632A1
WO2018207632A1 PCT/JP2018/016927 JP2018016927W WO2018207632A1 WO 2018207632 A1 WO2018207632 A1 WO 2018207632A1 JP 2018016927 W JP2018016927 W JP 2018016927W WO 2018207632 A1 WO2018207632 A1 WO 2018207632A1
Authority
WO
WIPO (PCT)
Prior art keywords
road information
road
information
comparison
vehicle
Prior art date
Application number
PCT/JP2018/016927
Other languages
English (en)
French (fr)
Inventor
高浜 琢
Original Assignee
日立オートモティブシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立オートモティブシステムズ株式会社 filed Critical 日立オートモティブシステムズ株式会社
Priority to US16/610,748 priority Critical patent/US11852491B2/en
Priority to EP18799117.9A priority patent/EP3624089A1/en
Publication of WO2018207632A1 publication Critical patent/WO2018207632A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • G01C21/3819Road shape data, e.g. outline of a route
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk

Definitions

  • the present invention relates to a vehicle control device, a vehicle control method, and a vehicle control system.
  • Patent Document 1 when road information based on a map database and road information based on sensing are different, masking information whose position or shape is likely to change in the map database makes it possible to misrecognize road information based on sensing. A technique for suppressing the above is disclosed.
  • An object of the present invention is to provide a vehicle control device, a vehicle control method, and a vehicle control system that can improve the reliability of road recognition.
  • or 3 It is a block diagram of the vehicle control system of Embodiment 1 thru
  • or 3. 6 is a flowchart showing a flow of control in the external recognition control unit 5a of the first and third embodiments. 3 is a flowchart showing a flow of control in an external field recognition control unit 5a of the first embodiment. 6 is a flowchart showing a flow of control in the external recognition control unit 5a of the first and third embodiments. It is a flowchart which shows the flow of a process of S109 of FIG. It is a flowchart which shows the flow of a process of S114 of FIG.
  • 6 is a flowchart showing a flow of control in an external field recognition control unit 5a of Embodiment 2.
  • 6 is a flowchart showing a flow of control in an external field recognition control unit 5a of Embodiment 2. It is a flowchart which shows the flow of a process of S202 of FIG. It is a flowchart which shows the flow of a process of S203 of FIG.
  • FIG. 1 is a configuration diagram of a vehicle control system according to the first embodiment.
  • the vehicle control system of Embodiment 1 is mounted on a vehicle that uses an engine as a power source.
  • GPS1 measures the positional relationship between the vehicle and a plurality of satellites (GPS satellites), and calculates the current position (latitude / longitude) and traveling direction of the vehicle.
  • Navigation system 2 displays a map of the road around the vehicle (information about the map) based on the vehicle's current location and map information, and a map screen (navigation screen) on which a mark indicating the vehicle's current location is superimposed. Or displayed on the HUD device 9 described later.
  • the navigation system 2 searches for an optimum guide route connecting the current position and the destination in consideration of traffic information and the like, and displays the guide route on the navigation screen in a superimposed manner. Then, the driver is guided using the display by the liquid crystal display or the HUD device 9 or the utterance by the voice utterance device 10 described later. Furthermore, the navigation system 2 displays a turn-by-turn image (such as an arrow icon) on the navigation screen when the vehicle approaches a branch (intersection, etc.) that should be rerouted, and changes the course using the speech produced by the voice utterance device 10. Give guidance.
  • a turn-by-turn image such as an arrow icon
  • the vehicle behavior detection device 3 includes a steering angle sensor that detects a steering angle of a steering wheel, a steering angle sensor that detects a steering angle of a front wheel, a vehicle speed sensor that detects a vehicle speed, a lateral G sensor that detects lateral G, and a yaw rate.
  • the vehicle behavior of the own vehicle is detected from each sensor signal such as a yaw rate sensor to be detected and a turn signal.
  • the camera unit (external world recognition sensor) 4 detects each object existing in front of the host vehicle based on the image in front of the host vehicle taken by the stereo camera (left and right CMOS), and calculates the distance to each object. .
  • the camera unit 4 has a control unit (vehicle control device) 5.
  • the control unit 5 recognizes the situation around the own vehicle based on information obtained by the navigation system 2, the vehicle behavior detection device 3, and the camera unit 4.
  • the control unit 5 drives each actuator of the own vehicle based on the recognized situation around the own vehicle and performs automatic operation.
  • the control unit 5 includes an external environment recognition control unit 5a and an automatic driving control unit 5b as a configuration for realizing the peripheral recognition function and the automatic driving function.
  • the external environment recognition control unit 5a recognizes the situation around the own vehicle (the outside world) based on the current position of the own vehicle, the vehicle behavior of the own vehicle, the shape of each object, and the distance to each object.
  • the situation around the vehicle is, for example, road shape (curvature, slope, width), moving objects (pedestrians, bicycles, motorcycles, other vehicles, etc.) and stationary objects (falling objects on the road, traffic signals, guardrails, curbs, Road signs, road markings, road marking lines, trees, etc.). Details of the external world recognition control unit 5a will be described later.
  • the automatic driving control unit 5b moves the vehicle into the guidance route regardless of the driver's driving operation (handle operation, pedal operation). Based on this, steering control and vehicle speed control are performed so that the vehicle travels automatically. Specifically, the automatic operation control unit 5b calculates the target turning angle of the front wheels in the steering control based on the surrounding environment of the own vehicle and the vehicle behavior of the own vehicle during the automatic operation mode and Calculate the target vehicle speed.
  • the automatic operation mode and the manual operation mode can be selected by a driver by operating a switch.
  • the steering control device 6 drives the steering device 13 that steers the front wheels so that the turning angle of the front wheels becomes the target turning angle.
  • the throttle control device 7 drives a throttle device 14 that opens and closes the throttle valve so that the vehicle speed of the host vehicle becomes the target vehicle speed.
  • the brake control device 8 drives a brake device 15 that applies a braking force to each wheel so that the vehicle speed of the host vehicle becomes the target vehicle speed.
  • the HUD device 9 displays vehicle information such as vehicle speed and route guidance of the navigation system 2 as a virtual image on the front window of the own vehicle.
  • the voice utterance device 10 utters various alarms, route guidance of the navigation system 2 and the like as synthesized voice.
  • the alarm device 11 emits an alarm sound and performs various alarms.
  • the steering vibration device 12 performs various alarms by vibrating the steering wheel.
  • the external world recognition control unit 5a calculates the road shape (curvature radius) to be passed by three different means, compares the three, and determines each by a majority vote. Determine the accuracy (probability) of the road shape. Based on the shape determined to be probable, the external world recognition control unit 5a stores the correction contents of the information that has not been determined, together with the vehicle position (traveling point) and the traveling direction of the vehicle. When traveling in the automatic driving mode in the same direction as the stored traveling direction, the outside recognition control unit 5a reflects the stored correction content in the recognition of the road shape.
  • FIG. 2 is a configuration diagram of the external recognition control unit 5a according to the first embodiment.
  • the first road information acquisition unit 21 calculates the curvature radius R1 [m] of the road that passes through as the first road shape.
  • the first road shape R1 is, for example, the radius of curvature of a circle passing through three nodes before and after the passing road.
  • the second road information acquisition unit 22 calculates the radius of curvature R2 [m] of the passing road as the second road shape based on the vehicle behavior of the host vehicle detected by the vehicle behavior detection device 3.
  • the second road shape R2 is a turning radius of the host vehicle, and is calculated using the following equation (1) based on the turning angle ⁇ [rad] of the front wheels and the vehicle speed V [m / s], for example.
  • R2 ⁇ (1 + AV 2 ) L ⁇ / ⁇ (1)
  • A is the stability factor [s 2 / m 2 ] and L is the wheelbase [m].
  • the turning angle ⁇ may be calculated from the steering angle ⁇ and the steering gear ratio.
  • R2 may be obtained using the following equation (2) instead of equation (1).
  • the third road information acquisition unit 23 calculates the curvature radius R3 [m] of the passing road as the third road shape.
  • the third road shape R3 is detecting the lane marker (running line dividing line) only on the left and right sides of the lane, the radius of curvature of the lane marker is detected, and when the lane marker is detected on both the left and right sides of the lane, The average radius of curvature of the left and right lane markers is used.
  • the road information comparison unit 24 includes a first road shape R1, a second road shape R2, and a third road shape R3 acquired from the first road information acquisition unit 22, the second road information acquisition unit 23, and the third road information comparison unit 24. Compare When comparing each road shape, if the road shape is a straight line, the radius of curvature is ⁇ [m] and comparison is not possible. Therefore, comparison is made with the reciprocal curvature [1 / m].
  • the road information comparison unit 24 replaces the value of each road shape R1, R2, R3 with the reciprocal, that is, the curvature, and the absolute value abs (R1-R2), abs (R1-R3), abs (R2- R3) is calculated.
  • the road information determination unit 25 determines the accuracy of each road shape by majority decision of the comparison result by the road information comparison unit 24.
  • the road information determination unit 25 has one absolute value of a difference that is equal to or less than a threshold value among the absolute values abs (R1-R2), abs (R1-R3), and abs (R2-R3) of each difference.
  • the two curvatures used to calculate the absolute value of the difference are determined to have high accuracy, and the remaining one curvature is determined to have low accuracy.
  • the threshold value is 0.001
  • only abs (R1-R2) is equal to or less than the threshold value.
  • R1 ⁇ R2, R1 ⁇ R3, and R2 ⁇ R3 it can be determined by majority decision that R1 and R2 have high accuracy and R3 has low accuracy.
  • the three-way comparison is premised. For example, when an external recognition sensor capable of both lane detection and road edge detection is used, four-way comparison is performed. In this case as well, when the majority decision is made by the road information comparison unit 24 and only one piece of information with low accuracy is generated, it is sufficient to deal with the same as the three-way comparison.
  • the comparison information storage unit 26 stores the determination result of each road shape by the road information determination unit 25.
  • the comparison information storage unit 26 has a non-volatile memory (for example, EEPROM) that is not forgotten even when the vehicle is powered off.
  • FIGS. 3, 4 and 5 are flowcharts showing the flow of control in the external recognition control unit 5a of the first embodiment. This process is performed, for example, immediately after the image processing task in the camera unit 4 and every 50 ms.
  • the second road information acquisition unit 22 reads the vehicle behavior of the host vehicle detected by the vehicle behavior detection device 3 (second road information acquisition step).
  • the first road information acquisition unit 21 reads the current travel point information (latitude, longitude, direction of travel, etc.) of the vehicle from the navigation system 2 and compares the road map with the presence / absence of a branch road and the direction of the branch. (Right / left) is read (first road information acquisition step).
  • the third road information acquisition unit 23 reads the radius of curvature of the lane marker and the vehicle lane position (right / left lane, etc.) as the lane detection result by the camera unit 4 (third road information acquisition step).
  • the second road shape R2 may be obtained from the vehicle speed V and the yaw rate ⁇ [rad / s] using the equation (2).
  • the road information comparison unit 24 calculates the third road shape R3 based on the detection process change content CC stored in the comparison information storage unit 26.
  • FIG. 6 shows the flow of processing.
  • S109-1 it is determined from the current travel point information whether there is a branch road nearby. If YES, the process proceeds to S109-2, and if NO, the process proceeds to S109-6.
  • S109-2 it is determined whether the vehicle lane position from the lane detection result is equal to the branch direction from the road map. If YES, the process proceeds to S109-3, and if NO, the process proceeds to S109-9.
  • S109-3 it is determined whether or not the guidance route of the navigation system 2 is the main line side (straight line side).
  • the process proceeds to S109-4, and if NO, the process proceeds to S109-5. If no guidance route is set, it is treated as the main line. Further, the straight traveling determination may be straight traveling when the first road shape R1> 1,000.
  • (condition) ⁇ eq1 ⁇ else ⁇ eq2 ⁇ is a function that executes eq1 when the condition is “true” and executes eq2 when the condition is “false”.
  • R_R is the radius of curvature of the right lane marker
  • R_L is the radius of curvature of the left lane marker. That is, when there is a branch road in the vicinity and it is desired to travel on the main road side and the own vehicle traveling lane is connected to the branch road, the radius of curvature of the main road side lane marker is set to the third road shape R3.
  • the third road information acquisition unit 23 calculates the road shape R3 using Expression (7).
  • the road information comparison unit 24 determines whether the road shapes R1, R2, and R3 can be compared. If YES, the process proceeds to S112, and if NO, the process proceeds to S119. When both of the following two conditions are satisfied, the road information comparison unit 24 determines that the road shapes R1, R2, and R3 are comparable. -Lane marker detection can be detected on both the left and right sides. -The matching accuracy between GPS1 and map information (locator accuracy such as the location on the map pointed to by GPS1 is a road) is good.
  • the road information comparison unit 24 compares the road shapes R1, R2, and R3, and proceeds to the following steps according to the comparison result (road information comparison step). If R1 ⁇ R2, R1 ⁇ R3, R2 ⁇ R3, that is, R2 and R3 match or approximate and R1 is different from R2 and R3, the process proceeds to S113. If R1 ⁇ R2, R1 ⁇ R3, R2 ⁇ R3, that is, R1 and R2 match or approximate and R3 is different from R1 and R2, the process proceeds to S114. In other cases, that is, when R1 and R3 match or approximate, R2 is different from R1 and R3, and R1, R2, and R3 are all the same or different, the process proceeds to S119.
  • the road information determination unit 25 determines that the vehicle is traveling normally.
  • Non-normal travel means travel that does not follow a road (guide route in the case of automatic operation mode) such as emergency avoidance.
  • Normal traveling means traveling along a road (or a guidance route).
  • the road information determination unit 25 determines that the accuracy of the third road shape R3 based on the lane detection result is low, that is, erroneous recognition of the road shape by the camera unit 4, and sets the detection process change content CC (road information Judgment step).
  • FIG. 7 shows the flow of processing.
  • S114-1 it is determined from the map information whether there is a branch road in the vicinity and the guidance route of the navigation system 2 is on the main line side (straight line side). If yes, then continue with S114-2, otherwise continue with S114-3.
  • the detection process change content CC is set to “ignore the lane marker on the branch road side when traveling in the lane on the branch road side”, and this control is terminated.
  • S114-3 it is determined from the map information whether there is a branch road in the vicinity and the guidance route of the navigation system 2 is on the branch road side (curve side). If YES, the process proceeds to S114-4, and if NO, the process proceeds to S114-5.
  • the detection process change content CC is set to “ignore the lane marker on the main line side while traveling on the lane on the branch road side”, and this control is terminated.
  • S114-5 it is determined from the map information whether there is no branch road in the vicinity and the guidance route of the navigation system 2 is a straight road. If YES, the process proceeds to S114-6, and if NO, the process proceeds to S114-7.
  • the straight traveling determination may be straight traveling when the first road shape R1> 1,000.
  • the detection process change content CC is set to “ignore the smaller one of the left and right lane markers with a smaller radius of curvature”, and this control is terminated.
  • the detection process change content CC is set to “ignore the left and right lane markers whose radius of curvature is far from R1”, and this control is terminated.
  • the comparison information storage unit 26 stores the latitude and longitude at the current travel point (failure point) and the traveling direction of the vehicle (comparison information storage step).
  • the comparison information storage unit 26 stores the map information change flag F1 and the corrected road shape Rc (comparison information storage step).
  • the comparison information storage unit 26 stores the lane detection change flag F3 and the detection process change content CC (comparison information storage step). Note that the comparison information storage unit 26 deletes both to prevent erroneous storage when overwriting. The number of times may be counted, and only the one with a higher count may be left.
  • the road information determination unit 25 when the current travel point of the vehicle is more than a predetermined distance with respect to all the latitudes and longitudes stored in the comparison information storage unit 26 and the traveling direction of the vehicle, Proceed to S120, and if it is less than the predetermined distance, proceed to S121.
  • the road information determination unit 25 reads from the comparison information storage unit 26 the stored content that is close to the current travel point and the traveling direction of the vehicle.
  • the road information determination unit 25 performs post-processing and proceeds to return.
  • the post-processing is, for example, updating of past values in low-pass filter calculation of yaw rate sensor values.
  • the automatic operation control unit 5b performs a control calculation in the left-right direction of the host vehicle using the third road shape R3 or the like obtained in S109 or S110, and sets the target turning angle as the output to the steering control device 6 in the subsequent stage. Output to.
  • the road information comparison unit 24 includes a first road shape R1 based on the road map, a second road shape R2 based on the vehicle behavior of the host vehicle, and a third road shape based on the lane detection result by the camera unit 4.
  • R3 is obtained and the three are compared (S112).
  • the road information determination unit 25 determines the accuracy of each of the road shapes R1, R2, and R3 based on the majority of the comparison results (S113, S114). By comparing the road shapes R1, R2, and R3 acquired by three different means and making a majority decision, it becomes possible to distinguish between R1, R2, and R3 road shapes with high reliability and road shapes with low reliability. .
  • the road shape can be determined more appropriately as compared with the conventional apparatus that compares only two of R1, R2, and R3, the reliability of road recognition can be improved.
  • the road information comparison unit 24 sets R1 ⁇ R2, R1 ⁇ R3, and R2 ⁇ R3 in S112, the road information determination unit 25 determines that the road shape is erroneously recognized based on the camera unit 4 in S114.
  • the road information determination unit 25 determines that the road shape is erroneously recognized based on the camera unit 4 in S114.
  • the road information determination unit 25 determines that there is an error in the map information in S113 when R1 ⁇ R2, R1 ⁇ R3, R2 ⁇ R3 by the road information comparison unit 24 in S112. If only R1 based on the road map is different, there is a high possibility that there is an error in the road map that determines R1, and therefore, misrecognition of the road shape based on the road map can be determined.
  • the road information determination unit 25 determines that the vehicle is traveling abnormally, such as emergency avoidance, when R1 ⁇ R3, R1 ⁇ R2, R2 ⁇ R3 by the road information comparison unit 24 in S112.
  • R2 is different, there is a high possibility that the vehicle is not traveling along the road (or guidance route), and therefore the accuracy of road recognition can be improved even during non-normal travel.
  • FIG. 8 is an explanatory diagram showing a state in which the driver performs an override (steering intervention) in order to obtain a safety margin for the preceding vehicle during the automatic driving mode.
  • the own vehicle 30 is traveling in the right lane of the straight road in the automatic driving mode.
  • a large car 31 is traveling in the left lane in front of the straight road.
  • the driver performs steering intervention to bring the host vehicle 30 to the right side in the host lane, and the host vehicle 30 moves from the position indicated by the solid line to the position indicated by the broken line.
  • the driver's operation is always correct, that is, if the road shape is recognized on the assumption that the reliability of the second road shape R2 is high, an erroneous recognition as a right curve road occurs even though it is a straight road.
  • a straight road can be detected from the first and third road shapes R1, R3 by majority decision of comparison between the road shapes R1, R2, R3. Therefore, even if the driver is overridden during the automatic driving mode, the accuracy of road recognition can be improved.
  • the comparison information storage unit 26 stores information (latitude / longitude, traveling direction, content of failure, etc.) related to the comparison result by the road information comparing unit 24 in association with the compared traveling point and traveling direction of the vehicle (S115, S117, S118). Thereby, the accuracy of road recognition when traveling the next time or later can be improved based on the experience of traveling this time. In addition, since the information to be stored is minimized, there is no problem even in a memory having a relatively small storage capacity. That is, the memory capacity can be suppressed.
  • the comparison information storage unit 26 stores the setting of the detection process change content CC in S118.
  • the road information comparison unit 24 calculates the third road shape R3 based on the detection process change content CC in S109.
  • the external environment recognition system can function so that the same failure (misrecognition of the road shape by the external environment recognition sensor and inappropriate calculation of the road shape from the map node point) is not performed twice at the same point.
  • the road information comparison unit 24 When calculating the third road shape R3 in S109, the road information comparison unit 24 changes the reference lane marker based on the detection process change content CC. Thereby, since the change of the processing content at the time of calculating 3rd road shape R3 is suppressed to the minimum, the side effect with respect to an effect can be minimized.
  • the comparison information storage unit 26 stores data (corrected road shape Rc) to be corrected in S117 when the road information comparison unit 24 sets R1 ⁇ R2, R1 ⁇ R3, and R2 ⁇ R3 in S112, and the first information in S105.
  • the road shape R1 is corrected to the corrected road shape Rc.
  • the road information comparison unit 24 compares the first road shape R1, the second road shape R2, and the third road shape R3 acquired within the same calculation cycle (50 ms). That is, R1, R2, and R3 at the time when the second road shape R2 is acquired are compared. By matching the time of the three-way comparison, the accuracy of the three-way comparison can be improved.
  • FIG. 9 (a) is an explanatory diagram showing a state where the driver has performed an override in order to return the vehicle to the guidance route during the automatic driving mode.
  • the vehicle 30 is traveling in the right lane of the main line in the automatic driving mode.
  • the guidance route was on the left side (the main line side), but the lane marker on the left side of the host vehicle 30 was not recognized in the lane recognition by image processing, and only the lane marker on the right side was recognized.
  • the steering control is basically performed based on the third road shape R3, so that the host vehicle 30 is steered in the right direction from the position indicated by the solid line and moves to the position indicated by the broken line.
  • the driver performs correction steering in the left direction in order to immediately return the own vehicle 30 to the main line side.
  • the road information determination unit 25 determines that the third road shape R3 is incorrect in S114, and sets a countermeasure (detection process change content CC) so that the lane marker on the branch road side is ignored in S114-2. .
  • the comparison information storage unit 26 stores the detection process change content CC in S118.
  • the road information determination unit 25 sets the third road shape R3 as the curvature radius of the main line (the curvature radius of the left lane marker) in S109-4. Therefore, as shown in FIG. 9 (b), each road shape R1, R2, R3 approximates, so that the host vehicle 30 travels along the guidance route.
  • the external environment recognition control unit 5a functions at the travel point where the misrecognition of the road shape occurs to prevent the recurrence of the misrecognition.
  • the operation time of the automatic driving function can be lengthened.
  • the following methods are known as methods for reducing misrecognition of road shapes. ⁇ Use a high-definition map to create a driving environment that eliminates offset-like position errors. ⁇ Improve the accuracy and accuracy of the sensor itself by improving the performance of sensing, that is, by making it redundant with a plurality of different methods.
  • the high resolution of maps and the high performance of sensing involve a significant increase in cost, so it is not a realistic solution.
  • the recognition of the road shape by the three-way comparison and the storage of the comparison result make it unnecessary to improve the accuracy of the map and the performance of the sensing, while using the existing road map and sensor. It is possible to suppress erroneous recognition of the road shape at the passing point.
  • FIG. 10 and FIG. 11 are flowcharts showing a control flow in the external recognition control unit 5a of the second embodiment.
  • steps that perform the same processing as the steps shown in FIG. 4 and FIG. the road information comparison unit 24 compares the road shapes R1, R2, and R3, and proceeds to the following steps according to the comparison result (road information comparison step). •
  • the road information determination unit 25 determines that the accuracy of the first road shape R1 based on the road map is low, that is, there is an error in the map information, and sets a corrected road shape Rc (road information determination step).
  • FIG. 12 shows the flow of processing.
  • the map determination NG counter C1 indicating the number of times that only the first road shape R1 is determined is different from a predetermined value (for example, twice) or more. If yes, then continue with S202-2, otherwise continue with step S202-3.
  • the road information determination unit 25 determines that the vehicle travels abnormally, and determines whether or not an incorrect corrected road shape Rc and detection process change content CC are stored for the current travel point (road information determination Step).
  • FIG. 13 shows the flow of processing.
  • the R2 mismatch number counter C2 initial value 0
  • the process proceeds to S203-2, and if NO, the process proceeds to S203-3.
  • the R2 mismatch number counter C2 C2 + 1 is set, and this control is terminated.
  • FIG. 14 shows the flow of processing.
  • S204-1 it is determined whether or not the corrected road shape Rc is invalid. If yes, then continue with S204-2, otherwise continue with S204-3.
  • FIG. 15 shows the flow of processing.
  • S205-2 it is determined whether or not the difference ⁇ R2 between the second road shape R2 stored in the past and the second road shape R2 calculated this time by the second road information acquisition unit 22 is equal to or less than a predetermined value. If YES, the process proceeds to S205-3, and if NO, the process proceeds to S204-4.
  • the stored contents of the current traveling point and the traveling direction of the vehicle are read from the comparison information storage unit 26, the map information change flag F1, the lane detection change flag F3, the corrected road shape Rc and Set the detection process change CC.
  • Embodiment 2 the effect of Embodiment 2 is demonstrated.
  • S202-1 only when the map determination NG counter C1 ⁇ predetermined value, that is, when the first road shape R1 is different from R2 and R3 at the same point a plurality of times, S202- In 2, a corrected road shape Rc for correcting R1 is set, and in S204, the corrected road shape Rc is stored. That is, it is possible to improve the recognition accuracy of the road shape by taking a careful measure such as changing the memory of the map information only when it repeats many times at the same point. Note that the accuracy of recognition of the road shape can be further improved by dividing the map determination NG counter C1 into three stages of a high speed area, a medium speed area, and a low speed area and counting each vehicle speed area.
  • the automation rate can be increased. For example, when the vehicle approached a gentle curve near a complex intersection, a shape that would turn right at a right angle immediately after turning right was read in the guidance route. On the other hand, in the lane detection by image processing, it was detected as a gentle right curve along the actual road shape.
  • the road information determination unit 25 determines that R1 ⁇ R2, R1 ⁇ R3, R2 ⁇ R3 more than a predetermined number of times at the same point, the road information determination unit 25 sets a correction road shape Rc for correcting the first road shape R1 in S202-2. .
  • the comparison information storage unit 26 stores the corrected road shape Rc in S204-5.
  • the road information determination unit 25 sets the first road shape R1 as the corrected road shape Rc in S105. Accordingly, it is possible to cope with a situation where the lane detection does not function sufficiently due to bad weather or the like, and more appropriate traveling control can be performed.
  • FIGS. 16, 17 and 5 are flowcharts showing the flow of control in the external recognition control unit 5a of the third embodiment.
  • steps that perform the same processing as the steps shown in FIG. 3, FIG. 4, FIG. 5, and FIG. In S301, the same processing as S101 in FIG. 3 is performed, but the past history of each vehicle behavior is also stored for a predetermined period (second road information acquisition step).
  • S302 the same processing as S103 of FIG.
  • the forward gaze time Tp will be described later.
  • the first road information acquisition unit 21 reads travel point information and the like based on the conditions of the following map information change flag F1 (first road information acquisition step).
  • FIG. 18 shows the flow of processing.
  • S303-2 the same processing as S102 in FIG. 3 is performed, but the best fitting point is obtained by comparing the road shape with the guidance route on the road map, and the intermediate point (25m) is returned from the point returned.
  • the current travel point of the vehicle is corrected to the latitude and longitude on the map corresponding to the point advanced by the forward gaze time Tp, the past history is also stored for a predetermined period, and this control is terminated.
  • S303-3 the same processing as S102 of FIG. 3 is performed, but the traveling point information at the point ahead by the forward gaze time Tp is obtained, the past history of the traveling point information is also stored for a predetermined period, and this control is finished. .
  • the road information comparison unit 24 estimates the driver's forward gaze time Tp.
  • select_later A1, A2 is a function that compares A1 and A2 and selects the one that started at a later time.
  • the forward gaze time Tp is an initial value of 1.5 s and a minimum value of 1.0 s.
  • Tmax ⁇ is the maximum steering angle time
  • Tss is the steering start time
  • Tbs is the deceleration start time.
  • the maximum steering angle time Tmax ⁇ is the time when the largest steering angle ⁇ occurs when making a left turn.
  • the steering start time Tss is the time at which steering is started for a left turn.
  • the deceleration start time Tbs is the time when deceleration is started to make a left turn.
  • Tp may be simply the inter-vehicle time (Time Headway) used in inter-vehicle distance control with the preceding vehicle.
  • the feature amount as a lane marker in the camera image is equal to or greater than a predetermined value (a comparison is avoided in a state where the detection accuracy of lane detection is reduced).
  • FIG. 19 shows the flow of processing. Steps that perform the same processing as the steps shown in FIG. 12 are given the same step numbers and description thereof is omitted.
  • S308-1 it is determined whether the matching accuracy between GPS1 and map information is good (high or low). If YES, the process proceeds to S202-1, and if NO, the process proceeds to S308-2. For example, in a situation where only a predetermined number or less of GPS satellites can be captured, it is determined that the matching accuracy is low.
  • FIG. 20 shows the flow of processing. Steps that perform the same processing as the steps shown in FIG. 13 are given the same step numbers and description thereof is omitted.
  • S309-1 it is determined whether or not the operation mode is the automatic operation mode and the driver is being overridden. If YES, the process proceeds to S309-2, and if NO, the process proceeds to S203-1.
  • S309-2 it is determined whether or not a point that has been traced back in the past by a predetermined time (for example, 3 seconds) from the current position is around the branch road.
  • S309-3 it is determined whether or not the steering state of the driver indicates the main line side. If YES, the process proceeds to S309-4, and if NO, the process proceeds to S309-5.
  • the road shape Rc “road shape toward the main line on the road map at the same point” and the detection processing content CC “running the lane on the branch road side and ignoring the lane marker on the branch road side” are stored, and the process proceeds to S125.
  • the road information comparison unit 24 sets the forward gaze time Tp according to the driving characteristics (steering response, deceleration response) of the driver in the manual driving mode using the equation (8) in S304.
  • the road information comparison unit 24 compares the second road shape R2 acquired at the predetermined time in S201 with the first and third road shapes R1 and R3 at the point where the vehicle arrives after the predetermined time Tp from the predetermined time.
  • the driver controls the vehicle according to the shape of the road where the vehicle reaches after the forward gaze time Tp. Therefore, the comparison accuracy can be improved by matching the three-way comparison with the driver's forward gaze time Tp.
  • the difference in the driving characteristics of the driver can be absorbed, so that the accuracy of the three-way comparison can be further improved.
  • the comparison information storage unit 26, when R1 ⁇ R2, R1 ⁇ R3, R2 ⁇ R3 by the road information comparison unit 24 in S201, if the matching accuracy between GPS1 and map information is not good in S308-1 In step S308-3, the map information change flag F1 2 is stored at a point retroactive by the difference between the fitted position and the vehicle position on the road map.
  • the first road information acquisition unit 21 obtains a point that fits best in S303-2, and from that point that returns the intermediate point to a point that is advanced by the forward gaze time Tp.
  • the current travel point of the vehicle is corrected to the corresponding latitude and longitude on the map. That is, when the matching between the vehicle position and the map is doubtful, the accuracy of the three-way comparison can be improved by correcting the matching.
  • the road information comparing unit 24 is S309-4 or S309.
  • the corrected road shape Rc and the detection process change content CC are set at a point that goes back from the branch point on the road map by the intermediate point.
  • the first road shape R1 is set as the corrected road shape Rc in S105
  • the third road shape R3 is calculated based on the detection process change content CC in S305.
  • the time treated as the first road shape R1 and the second road shape R2 is normal (in manual operation mode or no branch or merge) Go back to more points in the past and repeat the tripartite comparison.
  • Steering in the manual driving mode is performed along the road shape, while overriding (correction steering) in the automatic driving mode is started after a while after the vehicle starts to move off the guidance route. . Therefore, the accuracy of the three-way comparison can be improved by taking into account the response delay of the driver during the automatic operation mode and reflecting it in the recognition of the road shape more retroactively than during the manual operation mode.
  • FIG. 9A it is first determined that the first road shape R1 is incorrect.
  • the third road shape R3 may be incorrect. Therefore, the first road shape R1 and the second road shape R2 are both straight roads. Become. Therefore, from the next time, the third road shape R3 is calculated based on the radius of curvature of the left lane marker.
  • the first road shape is calculated from the altitude
  • the second road shape is calculated from the accelerator and the brake
  • the third road shape is calculated from the road surface height or the road surface gradient, and the three are compared.
  • a curvature radius and a gradient may be used in combination as the road shape.
  • the example of changing the usage of the lane detection result has been shown, but the image recognition of the lane detection process may be changed. That is, when the vehicle travels again at a point where the third road shape is different from the first and second road shapes, the processing content of object recognition or gradient recognition of the external recognition sensor is changed. Thereby, since the change of the processing content of external world recognition is suppressed to the minimum, the side effect with respect to an effect can be minimized.
  • S109-4, S109-5, S109-7, S109-8 Change eq1 / eq2 of if (condition) ⁇ eq1 ⁇ else ⁇ eq2 ⁇ as follows.
  • R3 R_L
  • the recognition performance of the lane detection process can also be improved.
  • the vehicle includes a navigation system, a vehicle behavior detection device, and an external recognition sensor, and is a vehicle that can execute at least driving assistance by automatic steering.
  • the test course is a closed environment that excludes surrounding vehicles and the like so as not to affect the external recognition sensor.
  • the test course has a Y-junction (main line and branch road) as shown in FIG.
  • the vehicle control device includes a first road information acquisition unit that acquires first road information based on information about a map, a second road information acquisition unit that acquires second road information based on vehicle behavior, A third road information acquisition unit for acquiring third road information based on information recognized by an external recognition sensor; and the first, second and third roads acquired from the first, second and third road information acquisition units.
  • a road information comparison unit that compares information; and a road information determination unit that determines the accuracy of the first, second, and third road information based on a comparison result by the road information comparison unit.
  • the road information determination unit is configured such that the road information comparison unit matches or approximates the first road information and the second road information, and the third road information is When it is determined that the first road information and the second road information are different from each other, it is determined that the external recognition sensor has misrecognized.
  • the road information determination unit causes the road information comparison unit to match or approximate the second road information and the third road information to each other. When it is determined that 1 road information is different from the second road information and the third road, it is determined that there is an error in the information regarding the map.
  • the road information determination unit causes the road information comparison unit to match or approximate the first road information and the third road information, and When it is determined that the second road information is different from the first road information and the third road information, it is determined that the vehicle is traveling abnormally.
  • a comparison information storage unit that stores information related to the comparison result by the road information comparison unit in association with the point of comparison and the traveling direction of the vehicle is provided.
  • the comparison information storage unit causes the road information comparison unit to match or approximate the first road information and the second road information to each other.
  • the recognition change method of the outside world recognition sensor is stored in association with the compared point.
  • the road information comparison unit when the vehicle travels again in the same direction as the traveling direction stored in association with the point of comparison, Change the recognition process of the recognition sensor.
  • the road information comparison unit is configured to determine the vehicle information based on a difference between the third road information, the first road information, and the second road information. When the vehicle travels again at a point where it is determined that the shape in the left-right direction is different from the traveling direction, the road information comparison unit changes lane recognition processing content of the external recognition sensor.
  • the road information comparison unit is configured to determine the vehicle information based on a difference between the third road information, the first road information, and the second road information.
  • the road information comparison unit changes the object recognition or gradient recognition processing content of the external environment recognition sensor.
  • the comparison information storage unit causes the road information comparison unit to match or approximate the second road information and the third road information, and When it is determined that the first road information is different from the second road information and the third road information, the information included in the map is corrected and stored in association with the compared point.
  • the comparison information storage unit causes the road information comparison unit to match or approximate the second road information and the third road information, and When it is determined that the first road information is different from the second road information and the third road information, the information on the matching between the position of the vehicle and the map is corrected corresponding to the point of the comparison, Remember.
  • the comparison information storage unit causes the road information comparison unit to match or approximate the first road information and the third road information, and When it is determined that the second road information is different from the first road information and the third road information multiple times, the information regarding the map is corrected and stored in correspondence with the point of comparison. .
  • the points for which the first, second, and third road information are obtained coincide with each other.
  • the road information comparison unit compares the first, second, and third road information at a time when the second road information is acquired.
  • the road information comparison unit sets the forward gaze time according to the driving characteristics of the driver, and acquires the second road information acquired at a predetermined time, and the predetermined time. The first and third road information of the point where the vehicle arrives when the forward gaze time has elapsed from is compared.
  • the second road information acquisition unit holds the acquired second road information for a predetermined time
  • the road information comparison unit is configured to perform automatic driving of the vehicle.
  • the time when the first road information should be acquired is traced back to the past farther than usual, and the first, second and third Perform the road information comparison again.
  • the second road information acquisition unit changes the time at which the second road information is acquired, depending on whether the vehicle is in an automatic operation.
  • the vehicle control device includes a first road information acquisition unit that acquires first road information based on information about a map, a second road information acquisition unit that acquires second road information based on vehicle behavior, A third road information acquisition unit that acquires third road information based on information recognized by the external recognition sensor, and the first, second, and third acquired from the first, second, and third road information acquisition units.
  • a road information comparing unit that compares road information; a road information determining unit that determines the accuracy of the first, second, and third road information by majority vote based on a comparison result by the road information comparing unit; and the road information determining unit
  • the comparison information storage unit that stores the determination result in association with the point of comparison and the traveling direction of the vehicle and the point stored in the comparison information storage unit are stored in the comparison information storage unit when traveling again.
  • the Serial first, of the second and third road information, and a automatic driving control unit for automatic operation of the vehicle based on the road information accuracy is determined to be high in the previous travel.
  • the vehicle control method includes a first road information acquisition step for acquiring first road information based on information on a map, and a second road information acquisition step for acquiring second road information based on vehicle behavior.
  • a third road information acquisition step for acquiring third road information based on information recognized by an external recognition sensor, a road information comparison step for comparing the acquired first, second and third road information, and the road information
  • a road information determination step for determining the accuracy of the first, second and third road information based on the comparison result of the comparison step.
  • a comparison information storage step of storing information related to the comparison result in the road information comparison step in association with the point of comparison and the traveling direction of the vehicle is provided.
  • the vehicle control system includes a navigation system that displays information relating to a map, a vehicle behavior detection device that detects vehicle behavior, an external recognition sensor that recognizes external information, and a control unit.
  • the control unit includes a first road information acquisition unit that acquires first road information based on the navigation system, a second road information acquisition unit that acquires second road information based on the vehicle behavior detection device, and the external environment recognition.
  • Road information for comparing the third road information acquisition unit for acquiring third road information based on the sensor and the first, second and third road information acquired from the first, second and third road information acquisition units A comparison unit; and a road information determination unit that determines the accuracy of the first, second, and third road information based on a comparison result by the road information comparison unit.
  • the control unit includes a comparison information storage unit that stores information related to the comparison result by the road information comparison unit in association with the compared point and the traveling direction of the vehicle.
  • 2 navigation system 3 vehicle behavior detection device, 4 camera unit (external recognition sensor), 5 control unit, 21 1st road information acquisition unit, 22 2nd road information acquisition unit, 23 3rd road information acquisition unit, 24 road information Comparison unit, 25 road information determination unit, 26 comparison information storage unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Game Theory and Decision Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Business, Economics & Management (AREA)
  • Medical Informatics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Navigation (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Abstract

道路認識の信頼性を向上できる車両制御装置、車両制御方法および車両制御システムを提供する。 車両制御装置は、地図に関する情報に基づく第1道路情報を取得する第1道路情報取得部と、車両挙動に基づく第2道路情報を取得する第2道路情報取得部と、外界認識センサで認識した情報に基づく第3道路情報を取得する第3道路情報取得部と、第1、第2および第3道路情報取得部から取得した第1、第2および第3道路情報を比較する道路情報比較部と、道路情報比較部による比較結果に基づき第1、第2および第3道路情報の確度を判定する道路情報判定部と、を備える。

Description

車両制御装置、車両制御方法および車両制御システム
 本発明は、車両制御装置、車両制御方法および車両制御システムに関する。
 特許文献1には、地図データベースに基づく道路情報とセンシングに基づく道路情報とが相違する場合、地図データベース内において位置または形状が変化しやすい情報をマスクすることにより、センシングに基づく道路情報の誤認識を抑制する技術が開示されている。
特開2011-215474号公報
 しかしながら、上記従来技術にあっては、常にセンシングに基づく道路情報が正確であることを前提として道路情報を認識しているため、センシングに基づく道路情報に誤りがある場合には道路認識の信頼性が低下するという問題があった。
  本発明の目的の一つは、道路認識の信頼性を向上できる車両制御装置、車両制御方法および車両制御システムを提供することにある。
 本発明の一実施形態における車両制御装置は、地図に関する情報に基づく第1道路情報と、車両挙動に基づく第2道路情報と、外界認識センサで認識した情報に基づく第3道路情報と、を比較し、比較結果に基づき第1、第2および第3道路情報の確度を判定する。
 よって、本発明にあっては、道路認識の信頼性を向上できる。
実施形態1ないし3の車両制御システムの構成図である。 実施形態1ないし3の外界認識制御部5aの構成図である。 実施形態1および3の外界認識制御部5aにおける制御の流れを示すフローチャートである。 実施形態1の外界認識制御部5aにおける制御の流れを示すフローチャートである。 実施形態1および3の外界認識制御部5aにおける制御の流れを示すフローチャートである。 図3のS109の処理の流れを示すフローチャートである。 図4のS114の処理の流れを示すフローチャートである。 自動運転モード中にドライバが先行車に対する安全マージンを取るためにオーバーライドを行った状態を示す説明図である。 自動運転モード中にドライバが自車を誘導経路に戻すためにオーバーライドを行った状態および再度同じ地点を走行する状態を示す説明図である。 実施形態2の外界認識制御部5aにおける制御の流れを示すフローチャートである。 実施形態2の外界認識制御部5aにおける制御の流れを示すフローチャートである。 図10のS202の処理の流れを示すフローチャートである。 図10のS203の処理の流れを示すフローチャートである。 図10のS204の処理の流れを示すフローチャートである。 図10のS205の処理の流れを示すフローチャートである。 実施形態3の外界認識制御部5aにおける制御の流れを示すフローチャートである。 実施形態3の外界認識制御部5aにおける制御の流れを示すフローチャートである。 図16のS303の処理の流れを示すフローチャートである。 図17のS308の処理の流れを示すフローチャートである。 図17のS309の処理の流れを示すフローチャートである。
 〔実施形態1〕
  図1は、実施形態1の車両制御システムの構成図である。
  実施形態1の車両制御システムは、エンジンを動力源とする車両に搭載されている。
  GPS1は、自車と複数のサテライト(GPS衛星)との位置関係を測定し、自車の現在位置(緯度・経度)および進行方向を計算する。
  ナビゲーションシステム2は、自車の現在位置と地図情報から自車周辺の道路地図(地図に関する情報)をグラフィック展開し、自車の現在位置を示すマークを重ねた地図画面(ナビ画面)を液晶ディスプレイや後述するHUD装置9に表示する。また、ナビゲーションシステム2は、ドライバにより目的地が入力されると、交通情報等を考慮して現在位置と目的地とを結ぶ最適な誘導経路を探索し、誘導経路をナビ画面に重畳表示すると共に、液晶ディスプレイやHUD装置9による表示や後述する音声発話装置10による発話を用いてドライバを誘導する。さらに、ナビゲーションシステム2は、自車が進路変更すべき分岐(交差点等)に近づくとナビ画面にターンバイターン画像(矢印アイコン等)を表示すると共に、音声発話装置10による発話を用いて進路変更案内を行う。
  車両挙動検出装置3は、ステアリングホイールの操舵角を検出する操舵角センサ、前輪の転舵角を検出する転舵角センサ、車速を検出する車速センサ、横Gを検出する横Gセンサ、ヨーレイトを検出するヨーレイトセンサやターンシグナル等の各センサ信号から自車の車両挙動を検出する。
 カメラユニット(外界認識センサ)4は、ステレオカメラ(左右のCMOS)により撮影された自車前方の画像に基づいて自車前方に存在する各物体を検出し、各物体までの距離をそれぞれ算出する。カメラユニット4は、コントロールユニット(車両制御装置)5を有する。
  コントロールユニット5は、ナビゲーションシステム2、車両挙動検出装置3およびカメラユニット4により得られた情報に基づいて自車周辺の状況を認識する。コントロールユニット5は、自動運転モード中、認識した自車周辺の状況に基づいて自車の各アクチュエータを駆動し、自動運転を行う。コントロールユニット5は、上記周辺認識機能および自動運転機能を実現するための構成として、外界認識制御部5aおよび自動運転制御部5bを有する。
  外界認識制御部5aは、自車の現在位置、自車の車両挙動、各物体の形状および各物体までの距離に基づき、自車周辺(外界)の状況を認識する。自車周辺の状況は、例えば、道路形状(曲率、勾配、幅員)、移動物体(歩行者、自転車、オートバイ、他の車両等)および静止物体(路上の落下物、交通信号、ガードレール、縁石、道路標識、道路標示、走行路区分線、樹木等)等である。外界認識制御部5aの詳細は後述する。
  自動運転制御部5bは、自動運転モード中、外界認識制御部5aにより認識された自車周辺の状況に基づき、ドライバの運転操作(ハンドル操作、ペダル操作)に依らず、自車が誘導経路に基づき自動で走行するよう操舵制御および車速制御を行う。具体的には、自動運転制御部5bは、自動運転モード中、自車の周辺環境や自車の車両挙動に基づいて操舵制御における前輪の目標転舵角を演算すると共に車速制御における自車の目標車速を演算する。自動運転モードと手動運転モードは、ドライバがスイッチ操作等により選択できる。
 ステアリング制御装置6は、前輪の転舵角が目標転舵角となるよう前輪を転舵するステアリング装置13を駆動する。
  スロットル制御装置7は、自車の車速が目標車速となるようスロットルバルブを開閉するスロットル装置14を駆動する。
  ブレーキ制御装置8は、自車の車速が目標車速となるよう各輪に制動力を付与するブレーキ装置15を駆動する。
  HUD装置9は、車速等の車両情報やナビゲーションシステム2の経路案内等を虚像として自車のフロントウィンドウに表示する。
  音声発話装置10は、各種警報やナビゲーションシステム2の経路案内等を合成音声として発話する。
  警報装置11は、警報音を発して各種警報を行う。
  ステアリング振動装置12は、ステアリングホイールを振動させて各種警報を行う。
 実施形態1では、道路認識の信頼性向上を狙いとし、外界認識制御部5aにおいて、通過予定の道路形状(曲率半径)を3つの異なる手段でそれぞれ算出して三者を比較し、多数決により各道路形状の確度(確からしさ)を判定する。外界認識制御部5aは、確からしいと判定された形状に基づき、判定されなかった情報の修正内容を自車位置(走行地点)および車両の進行方向と共に記憶する。外界認識制御部5aは、記憶した走行地点を記憶した進行方向と同一方向に自動運転モードで走行する際、記憶した修正内容を道路形状の認識に反映させる。これにより、過去に走行した道路を自動運転モードで再度走行する場合には、その道路固有の特徴(曲率形状、勾配形状、路面ペイント状態、補修痕やブレーキ痕等の路面汚れ、等)に影響を受けるために生じる外界認識制御部5aの誤認識を抑制できるため、自動運転の信頼性を向上できる。
  図2は、実施形態1の外界認識制御部5aの構成図である。
  第1道路情報取得部21は、ナビゲーションシステム2の道路地図に基づき、通過する道路の曲率半径R1[m]を第1道路形状として算出する。第1道路形状R1は、例えば、通過する道路の前後3つのノードを通る円の曲率半径とする。
 第2道路情報取得部22は、車両挙動検出装置3により検出された自車の車両挙動に基づき、通過する道路の曲率半径R2[m]を第2道路形状として算出する。第2道路形状R2は、自車の旋回半径であり、例えば、前輪の転舵角δ[rad]と車速V[m/s]に基づき、下記の式(1)を用いて算出する。
  R2={(1+AV2)L}/δ …(1)
  ただし、Aはスタビリティファクタ[s2/m2]、Lはホイールベース[m]である。操舵角θとステアリングギア比とから転舵角δを算出してもよい。
  ここで、式(1)に代えて下記の式(2)を用いてR2を求めてもよい。
  R2=V/γ …(2)
  ただし、γはヨーレイト[rad/s]である。
  第3道路情報取得部23は、カメラユニット4により検知された道路の形状に基づき、通過する道路の曲率半径R3[m]を第3道路形状として算出する。第3道路形状R3は、車線の左右片側のみレーンマーカ(走行路区分線)を検知している場合には、当該レーンマーカの曲率半径とし、車線の左右両側にレーンマーカを検知している場合には、左右レーンマーカの曲率半径の平均値とする。
 道路情報比較部24は、第1道路情報取得部22、第2道路情報取得部23および第3道路情報比較部24から取得した第1道路形状R1、第2道路形状R2および第3道路形状R3を比較する。各道路形状を比較する際、道路形状が直線の場合は、曲率半径が∞[m]となって比較ができないため、逆数の曲率[1/m]で比較する。道路情報比較部24は、各道路形状R1,R2,R3の値を逆数、すなわち曲率に置き換え、各曲率の差分の絶対値abs(R1-R2),abs(R1-R3),abs(R2-R3)を算出する。道路情報比較部24は、各差分の絶対値と差分の閾値とを比較する。具体例を挙げると、例えば、R1=1/-100,000=-0.00001R2=1/-5,000=-0.0002R3=1/-600=-0.0015とする。なお、左カーブに正の符号を付し、右カーブに負の符号を付している。この場合、各曲率の差分の絶対値abs(R1-R2),abs(R1-R3),abs(R2-R3)は、abs(R1-R2)=0.00019abs(R1-R3)=0.00166abs(R2-R3)=0.00147となる。
 道路情報判定部25は、道路情報比較部24による比較結果の多数決により各道路形状の確度を判定する。道路情報判定部25は、各差分の絶対値abs(R1-R2),abs(R1-R3),abs(R2-R3)のうち、閾値以下となる差分の絶対値が1つである場合、当該差分の絶対値の算出に用いた2つの曲率は確度が高いと判定し、残りの1つの曲率は確度が低いと判定する。上記具体例では、閾値を0.001とした場合、abs(R1-R2)のみが閾値以下となる。つまり、R1≒R2,R1≠R3,R2≠R3であるため、多数決により、R1,R2は確度が高く、R3は確度が低いと判定できる。 なお、本実施例では3者比較を前提に進めるが、例えば、車線検出と道路端検出の両方が可能な外界認識センサを用いた場合は4者比較となる。この場合も道路情報比較部24による多数決を行い、1つだけ確度の低い情報が発生した場合には3者比較同様に対応すれば良い。
  比較情報記憶部26は、道路情報判定部25による各道路形状の判定結果を記憶する。比較情報記憶部26は、車両の電源がオフされても忘却しない不揮発性メモリ(例えば、EEPROM)を有する。
 図3、図4および図5は、実施形態1の外界認識制御部5aにおける制御の流れを示すフローチャートである。この処理は、例えば、カメラユニット4における画像処理タスクの直後であって50ms毎に実施される。
  S101では、第2道路情報取得部22において、車両挙動検出装置3により検出された自車の車両挙動を読み込む(第2道路情報取得ステップ)。
  S102では、第1道路情報取得部21において、ナビゲーションシステム2から自車の現在の走行地点情報(緯度、経度、進行方向等)を読み込み、道路地図に照らし合わせて分岐路の有無や分岐の方向(右/左)を読み込む(第1道路情報取得ステップ)。実際には、最後に受信した緯度、経度を起点としてS101で求めた自車の前後方向速度および横方向速度を用いて補正する。
  S103では、第3道路情報取得部23において、カメラユニット4による車線検知結果として、レーンマーカの曲率半径や自車走行レーン位置(右/左レーン等)を読み込む(第3道路情報取得ステップ)。
 S104では、道路情報比較部24において、地図情報変更フラグF1=1であるか否かを判定する。YESの場合はS105へ進み、NOの場合はS106へ進む。
  S105では、道路情報比較部24において、第1道路形状R1を、比較情報記憶部26に記憶された修正道路形状Rcとする。
  S106では、第1道路情報取得部21において、読み込んだ緯度、経度および進行方向を道路地図に照らし合わせて第1道路形状R1[m]を求める。
  S107では、第2道路情報取得部22において、前輪の転舵角δ[rad]と車速V[m/s]から式(1)を用いて第2道路形状R2を算出する。なお、車速Vとヨーレイトγ[rad/s]から式(2)を用いて第2道路形状R2を求めてもよい。
  S108では、道路情報比較部24において、車線検知変更フラグF3=1であるか否かを判定する。YESの場合はS109へ進み、NOの場合はS110へ進む。
 S109では、道路情報比較部24において、第3道路形状R3を、比較情報記憶部26に記憶された検知処理変更内容CCに基づいて算出する。図6に処理の流れを示す。
  S109-1では、現在の走行地点情報から付近に分岐路が有るか否かを判定する。YESの場合はS109-2へ進み、NOの場合はS109-6へ進む。
  S109-2では、車線検知結果からの自車走行レーン位置が道路地図からの分岐の方向と等しいか否かを判定する。YESの場合はS109-3へ進み、NOの場合はS109-9へ進む。
  S109-3では、ナビゲーションシステム2の誘導経路が本線側(直進側)であるか否かを判定する。YESの場合はS109-4へ進み、NOの場合はS109-5へ進む。なお、誘導経路が設定されていない場合には本線側として扱う。また、直進の判定は第1道路形状R1>1,000の場合を直進としてもよい。
  S109-4では、下記の式(3)を用いて第3道路形状R3を算出し、本制御を終了する。
  if(自車走行レーン位置=最も左車線){R3=R_R}else{R3=R_L}  …(3)
  ここで、if(condition){eq1}else{eq2}とは、conditionが「真」の場合にはeq1を実行し、「偽」の場合にはeq2を実行する関数である。また、R_Rは右側のレーンマーカの曲率半径、R_Lは左側のレーンマーカの曲率半径である。
  つまり、周辺に分岐路が有り、かつ、本線側を進みたい場合であって、自車走行レーンが分岐路に繋がるときには、本線側のレーンマーカの曲率半径を第3道路形状R3とする。
 S109-5では、下記の式(4)を用いて第3道路形状R3を算出し、本制御を終了する。
  if(自車走行レーン位置=最も左車線){R3=R_L}else{R3=R_R}  …(4)
  つまり、周辺に分岐路が有り、かつ、分岐路側を進みたい場合であって、自車走行レーンが分岐路に繋がるときには、分岐路側のレーンマーカの曲率半径を第3道路形状R3とする。
  S109-6では、ナビゲーションシステム2の誘導経路が直進側であるか否かを判定する。YESの場合はS109-7へ進み、NOの場合はS109-8へ進む。なお、誘導経路が設定されていない場合には直進側として扱う。
  S109-7では、下記の式(5)を用いて第3道路形状R3を算出し、本制御を終了する。
  if(R_L>R_R){R3=R_L}else{R3=R_R}  …(5)
  つまり、周辺に分岐路が無く、かつ、直進したい場合は、左右のレーンマーカのうち曲率半径の大きい方を第3道路形状R3とする。
  S109-8では、下記の式(6)を用いて道路形状3を算出し、本制御を終了する。
  if(abs(R_L-R2)<abs(R_R-R2)){R3=R_L}else{R3=R_R}  …(6)
  ここで、abs(α)は、αの絶対値を求める関数である。
  つまり、周辺に分岐路が無く、かつ、非直進の場合は、地図情報から換算した曲率半径R1に近い方を第3道路形状R3とする。
  S109-9では、第3道路情報取得部23において、下記の式(7)を用いて道路形状R3を算出する。
  R3=(R_L+R_R)/2 …(7)
 S110では、第3道路情報取得部23において、式(7)を用いて道路形状R3を算出する。
  S111では、道路情報比較部24において、各道路形状R1,R2,R3を比較可能であるか否かを判定する。YESの場合はS112へ進み、NOの場合はS119へ進む。道路情報比較部24は、下記の2条件を共に満足する場合、各道路形状R1,R2,R3が比較可能であると判定する。・レーンマーカ検知は左右両側とも検知できている。・GPS1と地図情報とのマッチング精度(GPS1が指し示す地図上の場所は道路であること等のロケータ精度)が良好である。
  S112では、道路情報比較部24において、各道路形状R1,R2,R3を比較し、比較結果に応じて下記のステップへ進む(道路情報比較ステップ)。・R1≠R2,R1≠R3,R2≒R3、つまりR2,R3が一致または近似し、R1がR2,R3と相違する場合はS113へ進む。・R1≒R2,R1≠R3,R2≠R3、つまりR1,R2が一致または近似し、R3がR1,R2と相違する場合はS114へ進む。・その他の場合、つまりR1,R3が一致または近似し、R2がR1,R3と相違する、R1,R2,R3が全て同じまたは全て異なる場合はS119へ進む。道路情報判定部25は、R1≒R3,R1≠R2,R2≠R3とされた場合、非通常走行と判定する。非通常走行とは、緊急回避などの道路(自動運転モードの場合は誘導経路)に沿わない走行を意味する。通常走行は道路(または誘導経路)に沿う走行を意味する。
  S113では、道路情報判定部25において、道路地図に基づく第1道路形状R1の確度が低い、すなわち地図情報に誤りがあると判定し、地図情報変更フラグF1=1、修正道路形状Rc=(R2+R3)/2とする(道路情報判定ステップ)。
 S114では、道路情報判定部25において、車線検知結果に基づく第3道路形状R3の確度が低い、すなわちカメラユニット4による道路形状の誤認識と判定し、検知処理変更内容CCを設定する(道路情報判定ステップ)。図7に処理の流れを示す。
  S114-1では、地図情報から付近に分岐路が有り、かつ、ナビゲーションシステム2の誘導経路が本線側(直線側)であるか否かを判定する。YESの場合はS114-2へ進み、NOの場合はS114-3へ進む。
  S114-2では、検知処理変更内容CCを「分岐路側の車線を走行中は、分岐路側のレーンマーカを無視する」に設定し、本制御を終了する。
  S114-3では、地図情報から付近に分岐路が有り、かつ、ナビゲーションシステム2の誘導経路が分岐路側(カーブ側)であるか否かを判定する。YESの場合はS114-4へ進み、NOの場合はS114-5へ進む。
  S114-4では、検知処理変更内容CCを「分岐路側の車線を走行中は、本線側のレーンマーカを無視する」に設定し、本制御を終了する。
  S114-5では、地図情報から付近に分岐路が無く、かつ、ナビゲーションシステム2の誘導経路が直線路であるか否かを判定する。YESの場合はS114-6へ進み、NOの場合はS114-7へ進む。直進の判定は第1道路形状R1>1,000の場合を直進としてもよい。
  S114-6では、検知処理変更内容CCを「左右のレーンマーカのうち曲率半径が小さい方を無視する」に設定し、本制御を終了する。
  S114-7では、検知処理変更内容CCを「左右のレーンマーカのうち曲率半径がR1から離れている方を無視する」に設定し、本制御を終了する。
 S115では、比較情報記憶部26において、現在の走行地点(失敗地点)における緯度、経度および車両の進行方向を記憶する(比較情報記憶ステップ)。
  S116では、道路情報判定部25において、地図情報変更フラグF1および車線検知変更フラグF3を確認し、地図情報変更フラグF1=1の場合はS117へ進み、車線検知変更フラグF3=1の場合はS118へ進み、F1=0かつF3=0の場合はS119へ進む。
  S117では、比較情報記憶部26において、地図情報変更フラグF1および修正道路形状Rcを記憶する(比較情報記憶ステップ)。
  S118では、比較情報記憶部26において、車線検知変更フラグF3および検知処理変更内容CCを記憶する(比較情報記憶ステップ)。
  なお、比較情報記憶部26は、上書きする場合は誤記憶防止として両方を消去する。回数をカウントし、カウントが多い方のみを残してもよい。
  S119では、道路情報判定部25において、比較情報記憶部26に記憶された全ての緯度、経度および車両の進行方向に対して、現在の自車の走行地点が所定距離よりも離れている場合はS120へ進み、所定距離以下の場合はS121へ進む。
  S120では、道路情報判定部25において、地図情報変更フラグF1=0および車線検知変更フラグF3=0とし、修正道路形状Rcおよび検知処理変更内容CCを共に無効とする。
 S121では、道路情報判定部25において、現在の走行地点と車両の進行方向とが近い記憶内容を比較情報記憶部26から読み込む。
  S122では、道路情報判定部25において、読み込んだ記憶内容から、地図情報変更フラグF1=1の場合はS123へ進み、車線検知変更フラグF3=1の場合はS124へ進み、F1=0かつF3=0の場合はS120へ進む。
  S123では、道路情報判定部25において、地図情報変更フラグF1=1とし、修正道路形状Rcを記憶された修正道路形状(R2+R3)/2とし、車線検知変更フラグF3=0とし、記憶された検知処理変更内容CCを無効とする。
  S124では、道路情報判定部25において、地図情報変更フラグF1=0とし、記憶された修正道路形状Rcを無効とし、車線検知変更フラグF3=1とし、検知処理変更内容CCを記憶された検知処理変更内容とする。
  S125では、道路情報判定部25において、後処理を実施し、リターンへ進む。後処理は、例えばヨーレイトセンサ値のローパスフィルタ演算における過去値の更新等である。
  自動運転制御部5bは、S109またはS110で求められた第3道路形状R3等を用いて自車の左右方向の制御演算を実施し、その出力である目標転舵角を後段のステアリング制御装置6へ出力する。
 次に、実施形態1の作用効果を説明する。
  外界認識制御部5aにおいて、道路情報比較部24は、道路地図に基づく第1道路形状R1、自車の車両挙動に基づく第2道路形状R2およびカメラユニット4による車線検知結果に基づく第3道路形状R3をそれぞれ求め、三者を比較する(S112)。道路情報判定部25は、比較結果の多数決により各道路形状R1,R2,R3の確度を判定する(S113,S114)。異なる3つの手段で取得した道路形状R1,R2,R3を比較して多数決することにより、R1,R2,R3のうち信頼性が高い道路形状と信頼性が低い道路形状との判別が可能となる。よって、R1,R2,R3のうちの二者のみを比較する従来装置と比べて、より適切に道路形状を判断できるため、道路認識の信頼性を向上できる。
  道路情報判定部25は、S112において道路情報比較部24によりR1≒R2,R1≠R3,R2≠R3とされた場合、S114においてカメラユニット4に基づく道路形状の誤認識と判定する。車線検知結果に基づくR3のみが相違する場合には、R3を決める車線検知に誤りがある可能性が高いため、カメラユニット4に基づく道路形状の誤認識を判定できる。
  道路情報判定部25は、S112において道路情報比較部24によりR1≠R2,R1≠R3,R2≒R3とされた場合、S113において地図情報に誤りがあると判定する。道路地図に基づくR1のみが相違する場合には、R1を決める道路地図に誤りがある可能性が高いため、道路地図に基づく道路形状の誤認識を判定できる。
 道路情報判定部25は、S112において道路情報比較部24によりR1≒R3,R1≠R2,R2≠R3とされた場合、緊急回避等、車両の非通常走行と判定する。R2のみが相違する場合には、車両が道路(または誘導経路)に沿って走行していない可能性が高いため、非通常走行時においても、道路認識の確度を向上できる。図8は、自動運転モード中にドライバが先行車に対する安全マージンを取るためにオーバーライド(操舵介入)を行った状態を示す説明図である。自車30は自動運転モードで直線路の右レーンを走行中である。直線路の前方であって左レーンには大型車31が走行している。大型車31に対する安全マージンを取るために、ドライバが自車30を自車線内で右側に寄せる操舵介入を行い、自車30は実線で示す位置から破線で示す位置まで移動する。このとき、常にドライバの操作が正しい、つまり第2道路形状R2の信頼性が高いとして道路形状の認識を行うと、直線路であるにもかかわらず右カーブ路との誤認識が生じる。これに対し、実施形態1では、各道路形状R1,R2,R3の比較の多数決により、第1および第3道路形状R1,R3から直線路であることを検出できる。よって、自動運転モード中にドライバのオーバーライドがなされた場合であっても、道路認識の確度を向上できる。
 比較情報記憶部26は、道路情報比較部24による比較結果に関する情報(緯度経度、進行方向、失敗の内容等)を、比較をした走行地点および車両の進行方向に対応させて記憶する(S115,S117,S118)。これにより、今回走行した経験に基づき次回以降に走行した際の道路認識の確度を向上できる。また、記憶する情報を最小限としているため、記憶容量が比較的小さいメモリでも問題は生じない。つまり、メモリ容量を抑制できる。
  比較情報記憶部26は、S112において道路情報比較部24によりR1≒R2,R1≠R3,R2≠R3とされた場合、S118において検知処理変更内容CCの設定を記憶する。これにより、同一の走行地点を再度自動運転モードで走行する際、以前の誤認識の内容をシステムが思い起こせる。または、仮に以前の記憶が間違っていた場合には正すことができる。よって、自動運転の信頼性を向上できる。
  道路情報比較部24は、車両が記憶した走行地点を記憶した進行方向と同一方向に走行する場合、S109において検知処理変更内容CCに基づき第3道路形状R3を算出する。これにより、同じ地点で同じ失敗(外界認識センサによる道路形状の誤認識および地図ノード点から道路形状の不適切な算出)を2度しないように外界認識系を機能できる。
 道路情報比較部24は、S109において第3道路形状R3を算出する際、検知処理変更内容CCに基づいて基準とするレーンマーカを変更する。これにより、第3道路形状R3を算出する際の処理内容の変更が最小限に抑えられるため、効果に対する副作用を最小化できる。
  比較情報記憶部26は、S112において道路情報比較部24によりR1≠R2,R1≠R3,R2≒R3とされた場合、S117において訂正するデータ(修正道路形状Rc)を記憶し、S105において第1道路形状R1を修正道路形状Rcに修正する。地図情報(失敗した地点の第1道路形状R1)を修正することにより、同じ地点で同じ失敗を2度しないように第1道路形状R1を修正できる。また、ナビゲーションシステム2の地図データベースを直接書き換える必要が無いため、メモリ容量を抑制できる。
  道路情報比較部24は、同じ演算周期(50ms)内で取得した第1道路形状R1、第2道路形状R2および第3道路形状R3を比較する。つまり、第2道路形状R2を取得した時刻におけるR1,R2,R3を比較する。三者比較の時刻を合わせることにより、三者比較の精度を向上できる。
 図9(a)は、自動運転モード中にドライバが自車を誘導経路に戻すためにオーバーライドを行った状態を示す説明図である。自車30は自動運転モードで本線の右レーンを走行中である。Y字路に差し掛かったとき、誘導経路は左側(本線側)であったが画像処理による車線認識では自車30の左側のレーンマーカが認識されず、右側のレーンマーカのみが認識された。自動運転モードでは、基本的に第3道路形状R3に基づき操舵制御が実施されるため、自車30は実線で示す位置から右方向に操舵されて破線で示す位置へ移動する。ドライバはすぐさま自車30を本線側へ戻すために左方向に修正操舵を行う。この場合、道路情報判定部25は、S114において第3道路形状R3が誤りであると判定し、S114-2において分岐路側のレーンマーカを無視するように対応策(検知処理変更内容CC)を設定する。比較情報記憶部26は、S118において検知処理変更内容CCを記憶する。そして、再び同じ地点を走行する際、道路情報判定部25は、S109-4において第3道路形状R3を本線の曲率半径(左側のレーンマーカの曲率半径)とする。よって、図9(b)に示すように、各道路形状R1,R2,R3が近似するため、自車30は誘導経路に沿って走行する。
 以上のように、道路形状の誤認識が生じた走行地点では、誤認識の再発を防ぐように外界認識制御部5aが機能する。これにより、自動運転モード中におけるドライバの修正操舵を低減できるため、自動運転機能の稼働時間を長くできる。言い換えると、自動化率(=自動運転時間/走行時間×100%)[%]を高められる。
  ここで、道路形状の誤認識を低減する方法として、以下のような方法が知られている。・高精細地図を使用し、オフセット的な位置誤差が除ける走行環境とする。・センシングの高性能化、すなわち複数の異なる方式で冗長化することでセンサ自体の精度および確度を高める。
  ところが、地図の高精細化およびセンシングの高性能化は大幅なコストアップを伴うため、現実的な解決方法とは言い難い。これに対し、実施形態1では、三者比較による道路形状の認識および比較結果の記憶により、地図の高精度化やセンシングの高性能化を不要としながら、既存の道路地図およびセンサを用いて一度通過した地点における道路形状の誤認識を抑制できる。
 〔実施形態2〕
  次に、実施形態2を説明する。基本的な構成は実施形態1と同じであるため、相違点のみを説明する。
  図3、図10および図11は、実施形態2の外界認識制御部5aにおける制御の流れを示すフローチャートである。図10および図11において、図4および図5に示したステップと同じ処理を行うステップには、同一のステップ番号を付して説明は省略する。
  S201では、道路情報比較部24において、各道路形状R1,R2,R3を比較し、比較結果に応じて下記のステップへ進む(道路情報比較ステップ)。・R1≠R2,R1≠R3,R2≒R3、つまりR1がR2,R3と異なる場合はS202へ進む。・R1≒R2,R1≠R3,R2≠R3、つまりR3がR1,R2と異なる場合はS114へ進む。・R1≠R2,R1≒R3,R2≠R3、つまりR2がR1,R3と異なる場合はS203へ進む。・その他の場合、つまりR1,R2,R3が全て同じまたは全て異なる場合はS119へ進む。
 S202では、道路情報判定部25において、道路地図に基づく第1道路形状R1の確度が低い、すなわち地図情報に誤りがあると判定し、修正道路形状Rcを設定する(道路情報判定ステップ)。図12に処理の流れを示す。
  S202-1では、第1道路形状R1のみが異なると判定した回数を表す地図判断NGカウンタC1が所定値(例えば2回)以上であるか否かを判定する。YESの場合はS202-2へ進み、NOの場合はステップS202-3へ進む。
  S202-2では、地図情報変更フラグF1=1とし、車線検知変更フラグF3=0とし、修正道路形状Rcを(R2+R3)/2とする。
  ステップS202-3では、地図情報変更フラグF1=1とし、車線検知変更フラグF3=0とし、修正道路形状Rcを無効とする。
 S203では、道路情報判定部25において、非通常走行と判定し、現在の走行地点に対して誤った修正道路形状Rcおよび検知処理変更内容CCが記憶されているか否かを判定する(道路情報判定ステップ)。図13に処理の流れを示す。
  S203-1では、第2道路形状R2のみが異なると判定した回数を表すR2不一致回数カウンタC2(初期値0)が所定値以下であるか否かを判定する。YESの場合はS203-2へ進み、NOの場合はS203-3へ進む。
  S203-2では、R2不一致回数カウンタC2=C2+1とし、本制御を終了する。
  S203-3では、地図情報変更フラグF1および車線検知変更フラグF3が共に比較情報記憶部26に記憶されているか否かを判定する。YESの場合はS203-4へ進み、NOの場合は本制御を終了する。
  S203-4では、地図情報変更フラグF1=0、車線検知変更フラグF3=0、修正道路形状Rcの無効および検知処理変更内容CCの無効を記憶し、本制御を終了する。
 S204では、比較情報記憶部26に修正道路形状Rc等を記憶する処理を行う(比較情報記憶ステップ)。図14に処理の流れを示す。
  S204-1では、修正道路形状Rcが無効であるか否かを判定する。YESの場合はS204-2へ進み、NOの場合はS204-3へ進む。
  S204-2では、地図情報変更フラグF1=0、地図判断NGカウンタC1=C1+1および修正道路形状Rcの無効を記憶し、本制御を終了する。
  S204-3では、記憶された車線検知変更フラグF3=1であるか否かを判定する。YESの場合はS204-4へ進み、NOの場合はS204-5へ進む。
  S204-4では、過去に記憶された第2道路形状R2と第2道路情報取得部22により今回演算された第2道路形状R2との差ΔR2が所定値以下であるか否かを判定する。YESの場合はS204-5へ進み、NOの場合はS204-6へ進む。確認回数を増やすことでより確度を高められる。
  S204-5では、地図情報変更フラグF1=1、修正道路形状Rc=(R2+R3)/2、R2=今回演算されたR2を記憶し、本制御を終了する。つまり、現在の走行地点に対する車線検知の記憶内容に問題がないと判定する。
  S204-6では、車線検知変更フラグF3=0、検知処理変更内容CC無効、地図情報変更フラグF1=1、修正道路形状R2=(R2+R3)/2、第2道路形状R2=今回演算されたR2を記憶し、本制御を終了する。つまり、現在の走行地点に対する車線検知の記憶内容に問題があると判定する。これにより、誤記憶を訂正できる。
 S205では、比較情報記憶部26に検知処理変更内容CC等を記憶する処理を行う(比較情報記憶ステップ)。図15に処理の流れを示す。
  S205-1では、地図情報変更フラグF1=1であるか否かを判定する。YESの場合は205-2へ進み、NOの場合はS205-3へ進む。
  S205-2では、過去に記憶された第2道路形状R2と第2道路情報取得部22により今回演算された第2道路形状R2との差ΔR2が所定値以下であるか否かを判定する。YESの場合はS205-3へ進み、NOの場合はS204-4へ進む。
  S205-3では、車線検知変更フラグF3=1、検知処理変更内容CC=S114で設定した検知処理変更内容、R2=今回演算されたR2を記憶し、本制御を終了する。つまり、現在の走行地点に対する地図情報の記憶内容に問題がないと判定する。
  S205-4では、車線検知変更フラグF3=1、検知処理変更内容CC=S114で設定した検知処理変更内容、地図情報変更フラグF1=0、修正道路形状Rc無効、R2=今回演算されたR2を記憶し、本制御を終了する。つまり、現在の走行地点に対する地図情報の記憶内容に問題があると判定する。これにより、誤記憶を訂正できる。
  S206では、道路情報判定部25において、現在の走行地点と車両の進行方向とが近い記憶内容を比較情報記憶部26から読み込み、地図情報変更フラグF1、車線検知変更フラグF3、修正道路形状Rcおよび検知処理変更内容CCを設定する。
 次に、実施形態2の作用効果を説明する。
  実施形態2では、S202-1において、地図判断NGカウンタC1≧所定値の場合、すなわち、同一地点で第1道路形状R1がR2,R3と相違することが複数回発生した場合に限り、S202-2において、R1を修正するための修正道路形状Rcを設定し、S204において、修正道路形状Rcを記憶する。すなわち、同一地点で何度も再発するときだけ地図情報の記憶を変える等、慎重に対処することにより、道路形状の認識確度を向上できる。なお、地図判断NGカウンタC1を高速域、中速域および低速域の3段階に分け、車速域毎にカウントすることにより、道路形状の認識確度をさらに向上できる。
 また、実施形態2では、ドライバが違和感を覚えるような問題は生じていないが実際には誤認識があった場合でも、その後の走行状況から誤認識を訂正できるため、自動運転機能を適切に使うことができ、結果として自動化率を高められる。例えば、自車が複雑な交差点付近の緩いカーブに差し掛かったとき、誘導経路では直角に右に折れた直後に左に直角に折れる形状が読み込まれた。一方、画像処理による車線検知では実際の道路形状に沿って緩い右カーブとして検知された。本実施例における自動運転モードでは、基本的に車線検知に基づき操舵制御が実施されるため、自車は緩い右カーブを追従するように制御され、ドライバにとって違和感のない走行制御が実施される。道路情報判定部25は、同一地点で所定回数以上R1≠R2,R1≠R3,R2≒R3と判定した場合、S202-2において第1道路形状R1を修正するための修正道路形状Rcを設定する。比較情報記憶部26は、S204-5において修正道路形状Rcを記憶する。そして、再び同じ地点を走行する際、道路情報判定部25は、S105において第1道路形状R1を修正道路形状Rcとする。これにより、悪天候などで車線検知が十分に機能しない状況にも対応でき、より適切な走行制御が実施できる。
 〔実施形態3〕
  次に、実施形態3を説明する。基本的な構成は実施形態1と同じであるため、相違点のみを説明する。
  図16、図17および図5は、実施形態3の外界認識制御部5aにおける制御の流れを示すフローチャートである。図16および図17において、図3、図4、図5および図10に示したステップと同じ処理を行うステップには、同一のステップ番号を付して説明は省略する。
  S301では、図3のS101と同様の処理を行うが、各車両挙動の過去履歴も所定期間記憶しておく(第2道路情報取得ステップ)。
  S302では、図3のS103と同様の処理を行うが、車線検知結果の過去履歴も所定期間記憶し、車線を求める画像処理範囲を自車前方の距離範囲(例えば、5m~45m前方と仮定)に変換した中間地点(25m)までの距離を、車速V(例えば、45km/h=12.5m/sと仮定)で除算した時間(例えば、25/12.5=2s)分から、前方注視時間Tpを差し引いた分を過去の検知結果に遡って以降の車線検知結果として扱うように設定する(第3道路情報取得ステップ)。前方注視時間Tpについては後述する。
 S303では、第1道路情報取得部21において、下記の地図情報変更フラグF1の条件に基づき、走行地点情報等の読み込みを行う(第1道路情報取得ステップ)。図18に処理の流れを示す。
  S303-1では、地図情報変更フラグF1=2、かつS302の検知結果が左右共に有効であるか否かを判定する。YESの場合はS303-2へ進み、NOの場合はS303-3へ進む。
  S303-2では、図3のS102と同様の処理を行うが、道路形状を道路地図の誘導経路に照らし合わせて、最もフィットする地点を求め、そこから中間地点(25m)分を戻った地点から前方注視時間Tpだけ進めた地点に相当する地図上の緯度経度に自車の現在の走行地点を修正し、過去履歴も所定期間記憶し、本制御を終了する。
  S303-3では、図3のS102と同様の処理を行うが、前方注視時間Tpだけ前方の地点での走行地点情報を求め、走行地点情報の過去履歴も所定期間記憶し、本制御を終了する。
 S304では、道路情報比較部24において、ドライバの前方注視時間Tpを推定する。
  例えば、右左折等は手動で行う半自動運転システムでは道路地図上から自車が左折地点付近を通過したときに限り、下記の式(8)を用いて前方注視時間Tpを適正化する。
  if(Tp>Tmaxθ-select_later(Tss,Tbs))(Tp=Tp-0.1) else(Tp=Tp+0.1)  …(8)
  ここで、select_later(A1,A2)とは、A1とA2とを比較してより遅い時刻に開始した方を選択する関数であって、前方注視時間Tpは初期値1.5sで最小値1.0sから最大値2.0sまでを取り得る値である。また、Tmaxθは最大舵角時刻、Tssは操舵開始時刻、Tbsは減速開始時刻である。最大舵角時刻Tmaxθは、左折する際に最も大きな操舵角θが生じた時刻である。操舵開始時刻Tssは、左折にあたり操舵を行い始めた時刻である。減速開始時刻Tbsは、左折するために減速を開始した時刻である。 または、単純に前方車両との車間距離制御で用いる車間時間(Time Headway)をTpとしても良い。
 S305およびS306では、図3のS109およびS110と同様の処理を行うが、実施形態1および2では、目標転舵角を算出する際に用いるR3がR1,R2との比較に用いるR3と同じであったのに対し、実施形態3では、最新の検知結果から得られる道路形状に基づくR3'を目標転舵角の算出に用いる点で実施形態1および2と相違する。これにより、自動運転の制御性能を落とすことがなく、三者比較の精度を向上できる。
  S307では、図3のS111と同様の処理を行うが、下記の条件も追加し、より厳密に各道路形状R1,R2,R3を比較可能であるか否かを判定する。・車速Vや操舵角θの変化が所定以下の状態である(比較精度が低下する緊急回避等の走行状態を除外する)。・カメラ画像におけるレーンマーカとしての特徴量が所定以上である(車線検知の検知確度が低下している状態での比較を回避する)。
 S308では、図10のS202と同様の処理を行うが、GPS1と地図情報とのマッチング精度が低い状況も考慮する(道路情報判定ステップ)。図19に処理の流れを示す。図12に示したステップと同じ処理を行うステップには、同一のステップ番号を付して説明は省略する。
  S308-1では、GPS1と地図情報とのマッチング精度が良好か否か(高低)を判定する。YESの場合はS202-1へ進み、NOの場合はS308-2へ進む。例えば、GPS衛星を所定数以下しか補足できない状況の場合、マッチング精度が低いと判定する。
  S308-2では、白線を左右共に検出しており、かつ、白線形状にフィットする道路地図上の道路形状が自車位置周辺に存在するか否かを判定する。YESの場合はS308-3へ進み、NOの場合はS119へ進む。
  S308-3では、フィットする位置と道路地図上の自車位置との差分だけ遡った地点に、地図情報変更フラグF1=2を記憶し、S119へ進む。
 S309では、図10のS203と同様の処理を行うが、自動運転中にドライバによるオーバーライドが生じた状況も考慮する(道路情報判定ステップ)。図20に処理の流れを示す。図13に示したステップと同じ処理を行うステップには、同一のステップ番号を付して説明は省略する。
  S309-1では、運転モードが自動運転モードであり、かつ、ドライバがオーバーライド中であるか否かを判定する。YESの場合はS309-2へ進み、NOの場合はS203-1へ進む。
  S309-2では、現在位置から所定時間(例えば3s)過去に遡った地点が分岐路周辺であるか否かを判定する。YESの場合はS309-3へ進み、NOの場合はS309-6へ進む。
  S309-3では、ドライバの操舵状態が本線側を示すか否かを判定する。YESの場合はS309-4へ進み、NOの場合はS309-5へ進む。
  S309-4では、ドライバの操舵状態が本線側を示すため、道路地図上の分岐地点から中間地点分だけ過去に遡る地点に、地図情報変更フラグF1=1、車線検知変更フラグf3=1、修正道路形状Rc「同地点の道路地図上の本線側への道路形状」、検知処理内容CC「分岐路側の車線を走行中、分岐路側のレーンマーカを無視する」を記憶し、S125へ進む。
 S309-5では、ドライバの操舵状態が分岐路側を示すため、道路地図上の分岐地点から中間地点分だけ過去に遡る地点に、地図情報変更フラグF1=1、車線検知変更フラグF3=3、修正道路形状Rc「同地点の道路地図上の分岐路側への道路形状」、検知処理内容CC「分岐路側の車線を走行中、本線側のレーンマーカを無視する」を記憶し、S125へ進む。
  S309-6では、現在位置から所定時間(例えば3s)過去に遡った地点が直線路であるか否かを判定する。YESの場合はS309-7へ進み、NOの場合はS309-8へ進む。
  S309-7では、道路地図は一本道の直線なのでCMOSカメラが誤検知していることを意味するため、現在地点から中間地点分だけ過去に遡る地点に、地図情報変更フラグF1=0、車線検知変更フラグF3=1、修正道路形状Rc無効、検知処理内容CC「左右のレーンマーカのうち曲率半径が小さい方を無視する」を記憶し、S125へ進む。
  S309-8では、道路地図は一本道のカーブなのでCMOSカメラが誤検知していることを意味するため、現在地点から中間地点分だけ過去に遡る地点に、地図情報変更フラグF1=0、車線検知変更フラグF3=1、修正道路形状Rc無効、検知処理変更内容CC「左右のレーンマーカのうち曲率半径がR2から離れている方を無視する」を記憶し、S125へ進む。
 次に、実施形態3の作用効果を説明する。
  道路情報比較部24は、S304において式(8)を用いて手動運転モード中におけるドライバの運転特性(操舵応答、減速応答)に応じて前方注視時間Tpを設定する。道路情報比較部24は、S201において所定時刻に取得した第2道路形状R2と、所定時刻から前方注視時間Tp後に車両が到達する地点の第1および第3道路形状R1,R3とを比較する。通常、ドライバは前方注視時間Tp後に自車が到達する地点の道路形状に応じて車両をコントロールする。よって、三者比較をドライバの前方注視時間Tpに合わせることにより、比較精度を向上できる。また、前方注視時間Tpをドライバの運転特性に応じて適正化することにより、ドライバの運転特性の違いを吸収できるため、三者比較の精度をさらに向上できる。
  比較情報記憶部26は、S201において道路情報比較部24によりR1≠R2,R1≠R3,R2≒R3とされた場合、S308-1においてGPS1と地図情報とのマッチング精度が良好ではない場合には、S308-3においてフィットする位置と道路地図上の自車位置との差分だけ遡った地点に地図情報変更フラグF1=2を記憶する。第1道路情報取得部21は、S303-1においてF1=2である場合、S303-2において最もフィットする地点を求め、そこから中間地点分を戻った地点から前方注視時間Tpだけ進めた地点に相当する地図上の緯度経度に自車の現在の走行地点を修正する。つまり、自車位置と地図とのマッチングが疑わしい場合には、マッチングを修正することにより、三者比較の精度を向上できる。
 道路情報比較部24は、S309-1において自動運転中にドライバのオーバーライドがあり、S309-2において現在の走行地点から所定時間過去に遡った地点が分岐路周辺である場合、S309-4またはS309-5において道路地図上の分岐地点から中間地点分だけ過去に遡った地点に修正道路形状Rcおよび検知処理変更内容CCを設定する。そして、次回の演算周期では、S105において第1道路形状R1を修正道路形状Rcとし、S305において第3道路形状R3を検知処理変更内容CCに基づき算出する。つまり、自動運転中にオーバーライドがあり、走行地点付近に分岐や合流などが存在する場合、第1道路形状R1および第2道路形状R2として扱う時刻を通常(手動運転モード時または分岐や合流無し)よりも多く過去の地点に遡り、三者比較を再度実施する。手動運転モード中の操舵は、道路形状に沿って行われるのに対し、自動運転モード中のオーバーライド(修正操舵)は、車両が誘導経路を外れる挙動を開始した後、暫く経ってから開始される。よって、自動運転モード中はドライバの応答遅れを考慮し、手動運転モード中よりも多めに遡って道路形状の認識に反映させることにより、三者比較の精度を向上できる。図9(a)において、最初は第1道路形状R1が誤りであると判定する。その後、「オーバーライド」+「分岐路有り」の判定から、第3道路形状R3が誤りである可能性があるため、過去に遡り、第1道路形状R1および第2道路形状R2が共に直線路となる。よって、次回からは左側のレーンマーカの曲率半径に基づき第3道路形状R3が算出される。
 〔他の実施形態〕
  以上、本発明を実施するための実施形態を説明したが、本発明の具体的な構成は実施形態の構成に限定されるものではなく、発明の要旨を逸脱しない範囲の設計変更等があっても本発明に含まれる。また、上述した課題の少なくとも一部を解決できる範囲、または、効果の少なくとも一部を奏する範囲において、特許請求の範囲および明細書に記載された各構成要素の任意の組み合わせ、または、省略が可能である。
  実施形態では、道路情報(道路形状)の比較として曲率半径を比較する例を示したが、道路情報として勾配を用いてもよい。この場合、標高から第1道路形状を算出し、アクセルおよびブレーキから第2道路形状を算出し、路面高さまたは路面勾配から第3道路形状を算出して三者を比較する。これにより、車両の前後方向に関する自動化を高性能化できる。道路形状として曲率半径および勾配を併用してもよい。
 実施形態では、車線検知結果の使い方を変更する例を示したが、車線検知処理の画像認識を変更してもよい。つまり、第3道路形状が第1および第2道路形状と相違するとされた地点を再度走行する場合には、外界認識センサの物体認識または勾配認識の処理内容を変更する。これにより、外界認識の処理内容の変更が最小限に抑えられるため、効果に対する副作用を最小化できる。具体的には、S109-4,S109-5,S109-7,S109-8において、
  if(condition){eq1}else{eq2}のeq1/eq2を下記のように変更する。・R3=R_Lの場合は、左側のレーンマーカの認識結果の形状に類似したものを右側のレーンマーカ候補の中から選択する。・R3=R_Rの場合は、右側のレーンマーカの認識結果の形状に類似したものを左側のレーンマーカ候補の中から選択する。
  以上により、車線検知処理の認識性能も改善できる。
 次に、本発明の構成要件(技術範囲)を満足するか否かを、車両挙動により判定する方法(換言すれば、本発明の権利の侵害発見方法といえる。)について説明する。
  (1) 本発明の構成要件(技術範囲)を満足する(権利を侵害している)と考えられる車両を準備する。当該車両は、ナビゲーションシステム、車両挙動検出装置および外界認識センサを備え、少なくとも自動操舵による運転支援を実行可能な車両である。
  (2) 上記車両が走行したことのないテストコースを用意する。テストコースは、外界認識センサに影響が出ないように、周辺車両などを排除してクローズドな環境とする。テストコースは、図9に示したようなY字路(本線と分岐路)を持つ。
  (3) 車両のGPSアンテナを金属製のカバーで覆い、GPS信号を受信不能とする。
  (4) この状態でテストコースを走行し、Y字路手前において、レーン認識センサにおけるコース外への誤認識による誤作動(分岐路側へ向かう走行)を発生させる。
  (5) 直ぐにドライバがオーバーライド(車両を本線側へ戻す修正操舵)を行う。
  (6) (4)→(5)を10回程度繰り返し、誤認識の頻度を確認する。
  (7) GPSアンテナのカバーを外し、(4)→(5)を10回程度繰り返す。
  (6)における誤認識の頻度が複数回発生し、かつ、(7)における誤認識が最初の1回しか発生しない場合、多数決による三者比較、誤認識の記憶および再発防止を行っていることが明白であるから、本発明の構成要件を満足していると判定できる。
 以上説明した実施形態から把握し得る他の態様について、以下に記載する。
  車両制御装置は、その一つの態様において、地図に関する情報に基づく第1道路情報を取得する第1道路情報取得部と、車両挙動に基づく第2道路情報を取得する第2道路情報取得部と、外界認識センサで認識した情報に基づく第3道路情報を取得する第3道路情報取得部と、前記第1、第2および第3道路情報取得部から取得した前記第1、第2および第3道路情報を比較する道路情報比較部と、前記道路情報比較部による比較結果に基づき前記第1、第2および第3道路情報の確度を判定する道路情報判定部と、を備える。
  より好ましい態様では、上記態様において、前記道路情報判定部は、前記道路情報比較部により、前記第1道路情報と前記第2道路情報とが一致または近似し、かつ、前記第3道路情報が前記第1道路情報および前記第2道路情報と相違すると判定された場合、前記外界認識センサの誤認識が生じていると判定する。
  別の好ましい態様では、上記態様のいずれかにおいて、前記道路情報判定部は、前記道路情報比較部により、前記第2道路情報と前記第3道路情報とが互いに一致または近似し、かつ、前記第1道路情報が前記第2道路情報および前記第3道路と相違すると判定された場合、前記地図に関する情報に誤りがあると判定する。
 さらに別の好ましい態様では、上記態様のいずれかにおいて、前記道路情報判定部は、前記道路情報比較部により、前記第1道路情報と前記第3道路情報とが互いに一致または近似し、かつ、前記第2道路情報が前記第1道路情報および前記第3道路情報と相違すると判定された場合、前記車両が非通常走行を行っていると判定する。
  さらに別の好ましい態様では、上記態様のいずれかにおいて、前記道路情報比較部による比較結果に関する情報を、比較をした地点および前記車両の進行方向に関連付けて記憶する比較情報記憶部を備える。
  さらに別の好ましい態様では、上記態様のいずれかにおいて、前記比較情報記憶部は、前記道路情報比較部により前記第1道路情報と前記第2道路情報とが互いに一致または近似し、かつ、前記第3道路情報が前記第1道路情報および前記第2道路情報と相違すると判定された場合、前記外界認識センサの認識変更方法を、前記比較をした地点に関連付けて記憶する。
  さらに別の好ましい態様では、上記態様のいずれかにおいて、前記道路情報比較部は、前記車両が、前記比較をした地点に関連付けて記憶された前記進行方向と同一方向に再度走行する場合、前記外界認識センサの認識処理を変更する。
  さらに別の好ましい態様では、上記態様のいずれかにおいて、前記道路情報比較部が、前記第3道路情報と、前記第1道路情報および前記第2道路情報と、の相違に基づき、前記車両の前記進行方向に対して左右方向の形状が異なると判定した地点を前記車両が再度走行する場合、前記道路情報比較部は、前記外界認識センサの車線認識の処理内容を変更する。
 さらに別の好ましい態様では、上記態様のいずれかにおいて、前記道路情報比較部が、前記第3道路情報と、前記第1道路情報および前記第2道路情報と、の相違に基づき、前記車両の前記進行方向に対して前後方向の形状が異なると判定した地点を前記車両が再度走行する場合、前記道路情報比較部は、前記外界認識センサの物体認識または勾配認識の処理内容を変更する。
  さらに別の好ましい態様では、上記態様のいずれかにおいて、前記比較情報記憶部は、前記道路情報比較部により、前記第2道路情報と前記第3道路情報とが互いに一致または近似し、かつ、前記第1道路情報が前記第2道路情報および前記第3道路情報と相違すると判定された場合、前記地図に含まれる情報を、前記比較をした地点に対応させて修正し、記憶する。
  さらに別の好ましい態様では、上記態様のいずれかにおいて、前記比較情報記憶部は、前記道路情報比較部により、前記第2道路情報と前記第3道路情報とが互いに一致または近似し、かつ、前記第1道路情報が前記第2道路情報および前記第3道路情報と相違すると判定された場合、前記車両の位置と前記地図とのマッチングに関する情報を、前記比較をした地点に対応させて修正し、記憶する。
  さらに別の好ましい態様では、上記態様のいずれかにおいて、前記比較情報記憶部は、前記道路情報比較部により、前記第1道路情報と前記第3道路情報とが互いに一致または近似し、かつ、前記第2道路情報が前記第1道路情報および前記第3道路情報と相違すると判定されることが複数回発生した場合、前記地図に関する情報を、前記比較をした地点に対応させて修正し、記憶する。
 さらに別の好ましい態様では、上記態様のいずれかにおいて、前記第1、第2および第3道路情報を求める地点が互いに一致されている。
 さらに別の好ましい態様では、上記態様のいずれかにおいて、前記道路情報比較部は、前記第2道路情報を取得した時刻における前記第1、第2および第3道路情報を比較する。
  さらに別の好ましい態様では、上記態様のいずれかにおいて、前記道路情報比較部は、ドライバの運転特性に応じて前方注視時間を設定し、所定時刻に取得した前記第2道路情報と、前記所定時刻から前方注視時間が経過したときに前記車両が到達する地点の前記第1および前記第3道路情報と、を比較する。
  さらに別の好ましい態様では、上記態様のいずれかにおいて、前記第2道路情報取得部は、取得した前記第2道路情報を所定時間保持し、前記道路情報比較部は、前記車両の自動運転中にドライバの操舵介入があり、かつ、走行地点付近に分岐や合流などが存在する場合、前記第1道路情報を取得すべき時刻を通常よりも遠い過去まで遡り、前記第1、第2および第3道路情報の比較を再度実施する。
  さらに別の好ましい態様では、上記態様のいずれかにおいて、前記第2道路情報取得部は、前記車両が自動運転中か否かに応じて、前記第2道路情報を取得する時刻を変更する。
 また、他の観点から、車両制御装置は、地図に関する情報に基づく第1道路情報を取得する第1道路情報取得部と、車両挙動に基づく第2道路情報を取得する第2道路情報取得部と、外界認識センサで認識した情報に基づく第3道路情報を取得する第3道路情報取得部と、前記第1、第2および第3道路情報取得部から取得した前記第1、第2および第3道路情報を比較する道路情報比較部と、前記道路情報比較部による比較結果に基づき多数決により前記第1、第2および第3道路情報の確度を判定する道路情報判定部と、前記道路情報判定部による判定結果を、比較をした地点および前記車両の進行方向に関連付けて記憶する比較情報記憶部と、前記比較情報記憶部に記憶された地点を再び走行する際、前記比較情報記憶部に記憶された前記第1、第2および第3道路情報のうち、前回走行時に確度が高いと判定された道路情報に基づき前記車両を自動運転する自動運転制御部と、を備える。
  さらに、他の観点から、車両制御方法は、地図に関する情報に基づく第1道路情報を取得する第1道路情報取得ステップと、車両挙動に基づく第2道路情報を取得する第2道路情報取得ステップと、外界認識センサで認識した情報に基づく第3道路情報を取得する第3道路情報取得ステップと、取得した前記第1、第2および第3道路情報を比較する道路情報比較ステップと、前記道路情報比較ステップによる比較結果に基づき前記第1、第2および第3道路情報の確度を判定する道路情報判定ステップと、を備える。
  好ましくは、上記態様において、前記道路情報比較ステップによる比較結果に関する情報を、比較をした地点および前記車両の進行方向に関連付けて記憶する比較情報記憶ステップを備える。
 さらに、別の観点から、車両制御システムは、地図に関する情報を表示するナビゲーションシステムと、車両挙動を検出する車両挙動検出装置と、外界の情報を認識する外界認識センサと、コントロールユニットと、を備える。前記コントロールユニットは、前記ナビゲーションシステムに基づく第1道路情報を取得する第1道路情報取得部と、前記車両挙動検出装置に基づく第2道路情報を取得する第2道路情報取得部と、前記外界認識センサに基づく第3道路情報を取得する第3道路情報取得部と、前記第1、第2および第3道路情報取得部から取得した前記第1、第2および第3道路情報を比較する道路情報比較部と、前記道路情報比較部による比較結果に基づき前記第1、第2および第3道路情報の確度を判定する道路情報判定部と、を備える。
  好ましくは、上記態様において、前記コントロールユニットは、前記道路情報比較部による比較結果に関する情報を、比較をした地点および前記車両の進行方向に関連付けて記憶する比較情報記憶部を備える。
 本願は、2017年5月11日出願の日本特許出願番号2017-94355号に基づく優先権を主張する。2017年5月11日出願の日本特許出願番号2017-94355号の明細書、特許請求の範囲、図面及び要約書を含む全ての開示内容は、参照により全体として本願に組み込まれる。
2  ナビゲーションシステム、3  車両挙動検出装置、4  カメラユニット(外界認識センサ)、5  コントロールユニット、21 第1道路情報取得部、22 第2道路情報取得部、23 第3道路情報取得部、24 道路情報比較部、25 道路情報判定部、26 比較情報記憶部

Claims (22)

  1.  車両制御装置であって、
     地図に関する情報に基づく第1道路情報を取得する第1道路情報取得部と、
     車両挙動に基づく第2道路情報を取得する第2道路情報取得部と、
     外界認識センサで認識した情報に基づく第3道路情報を取得する第3道路情報取得部と、
     前記第1、第2および第3道路情報取得部から取得した前記第1、第2および第3道路情報を比較する道路情報比較部と、
     前記道路情報比較部による比較結果に基づき前記第1、第2および第3道路情報の確度を判定する道路情報判定部と、
     を備える車両制御装置。
  2.  請求項1に記載の車両制御装置において、
     前記道路情報判定部は、前記道路情報比較部により、前記第1道路情報と前記第2道路情報とが互いに一致または近似し、かつ、前記第3道路情報が前記第1道路情報および前記第2道路情報と相違すると判定された場合、前記外界認識センサの誤認識が生じていると判定する
     車両制御装置。
  3.  請求項1に記載の車両制御装置において、
     前記道路情報判定部は、前記道路情報比較部により、前記第2道路情報と前記第3道路情報とが互いに一致または近似し、かつ、前記第1道路情報が前記第2道路情報および前記第3道路情報と相違すると判定された場合、前記地図に関する情報に誤りがあると判定する
     車両制御装置。
  4.  請求項1に記載の車両制御装置において、
     前記道路情報判定部は、前記道路情報比較部により、前記第1道路情報と前記第3道路情報とが互いに一致または近似し、かつ、前記第2道路情報が前記第1道路情報および前記第3道路情報と相違すると判定された場合、前記車両が非通常走行を行っていると判定する
     車両制御装置。
  5.  請求項1に記載の車両制御装置において、
     前記道路情報比較部による比較結果に関する情報を、比較をした地点および前記車両の進行方向に関連付けて記憶する比較情報記憶部を備える
     車両制御装置。
  6.  請求項5に記載の車両制御装置において、
     前記比較情報記憶部は、前記道路情報比較部により、前記第1道路情報と前記第2道路情報とが互いに一致または近似し、かつ、前記第3道路情報が前記第1道路情報および前記第2道路情報と相違すると判定された場合、前記外界認識センサの認識変更方法を、前記比較をした地点に関連付けて記憶する車両制御装置。
  7.  請求項6に記載の車両制御装置において、
     前記道路情報比較部は、前記車両が、前記比較をした地点に関連付けて記憶された前記進行方向と同一方向に再度走行する場合、前記外界認識センサの認識処理を変更する
     車両制御装置。
  8.  請求項7に記載の車両制御装置において、
     前記道路情報比較部が、前記第3道路情報と、前記第1道路情報および前記第2道路情報と、の相違に基づき、前記車両の前記進行方向に対して左右方向の形状が異なると判定した地点を前記車両が再度走行する場合、前記道路情報比較部は、前記外界認識センサの車線認識の処理内容を変更する
     車両制御装置。
  9.  請求項7に記載の車両制御装置において、
     前記道路情報比較部が、前記第3道路情報と、前記第1道路情報および前記第2道路情報と、の相違に基づき、前記車両の前記進行方向に対して前後方向の形状が異なると判定した地点を前記車両が再度走行する場合、前記道路情報比較部は、前記外界認識センサの物体認識または勾配認識の処理内容を変更する
     車両制御装置。
  10.  請求項5に記載の車両制御装置において、
     前記比較情報記憶部は、前記道路情報比較部により、前記第2道路情報と前記第3道路情報とが互いに一致または近似し、かつ、前記第1道路情報が前記第2道路情報および前記第3道路情報と相違すると判定された場合、前記地図に含まれる情報を、前記比較をした地点に対応させて修正し、記憶する
     車両制御装置。
  11.  請求項5に記載の車両制御装置において、
     前記比較情報記憶部は、前記道路情報比較部により、前記第2道路情報と前記第3道路情報とが互いに一致または近似し、かつ、前記第1道路情報が前記第2道路情報および前記第3道路情報と相違すると判定された場合、前記車両の位置と前記地図とのマッチングに関する情報を、前記比較をした地点に対応させて修正し、記憶する
     車両制御装置。
  12.  請求項5に記載の車両制御装置において、
     前記比較情報記憶部は、前記道路情報比較部により、前記第1道路情報と前記第3道路情報とが互いに一致または近似し、かつ、前記第2道路情報が前記第1道路情報および前記第3道路情報と相違すると判定されることが複数回発生した場合、前記地図に関する情報を、前記比較をした地点に対応させて修正し、記憶する
     車両制御装置。
  13.  請求項1に記載の車両制御装置において、
     前記第1、第2および第3道路情報を求める地点が互いに一致されている
     車両制御装置。
  14.  請求項13に記載の車両制御装置において、
     前記道路情報比較部は、前記第2道路情報を取得した時刻における前記第1、第2および第3道路情報を比較する
     車両制御装置。
  15.  請求項14に記載の車両制御装置において、
     前記道路情報比較部は、ドライバの運転特性に応じて前方注視時間を設定し、所定時刻に取得した前記第2道路情報と、前記所定時刻から前方注視時間が経過したときに前記車両が到達する地点の前記第1および前記第3道路情報と、を比較する
     車両制御装置。
  16.  請求項1に記載の車両制御装置において、
     前記第2道路情報取得部は、取得した前記第2道路情報を所定時間保持し、
     前記道路情報比較部は、前記車両の自動運転中にドライバの操舵介入があり、かつ、走行地点付近に分岐や合流などが存在する場合、前記第1道路情報を取得すべき時刻を通常よりも遠い過去まで遡り、前記第1、第2および第3道路情報の比較を再度実施する
     車両制御装置。
  17.  請求項1に記載の車両制御装置において、
     前記第2道路情報取得部は、前記車両が自動運転中か否かに応じて、前記第2道路情報を取得する時刻を変更する
     車両制御装置。
  18.  車両制御装置であって、
     地図に関する情報に基づく第1道路情報を取得する第1道路情報取得部と、
     車両挙動に基づく第2道路情報を取得する第2道路情報取得部と、
     外界認識センサで認識した情報に基づく第3道路情報を取得する第3道路情報取得部と、
     前記第1、第2および第3道路情報取得部から取得した前記第1、第2および第3道路情報を比較する道路情報比較部と、
     前記道路情報比較部による比較結果に基づき多数決により前記第1、第2および第3道路情報の確度を判定する道路情報判定部と、
     前記道路情報判定部による判定結果を、比較をした地点および前記車両の進行方向に関連付けて記憶する比較情報記憶部と、
     前記比較情報記憶部に記憶された地点を再び走行する際、前記比較情報記憶部に記憶された前記第1、第2および第3道路情報のうち、前回走行時に確度が高いと判定された道路情報に基づき前記車両を自動運転する自動運転制御部と、
     を備える車両制御装置。
  19.  車両制御方法であって、
     地図に関する情報に基づく第1道路情報を取得する第1道路情報取得ステップと、
     車両挙動に基づく第2道路情報を取得する第2道路情報取得ステップと、
     外界認識センサで認識した情報に基づく第3道路情報を取得する第3道路情報取得ステップと、
     取得した前記第1、第2および第3道路情報を比較する道路情報比較ステップと、
     前記道路情報比較ステップによる比較結果に基づき前記第1、第2および第3道路情報の確度を判定する道路情報判定ステップと、
     を備える車両制御方法。
  20.  請求項19に記載の車両制御方法において、
     前記道路情報比較ステップによる比較結果に関する情報を、比較をした地点および前記車両の進行方向に関連付けて記憶する比較情報記憶ステップを備える
     車両制御方法。
  21.  車両制御システムであって、
     地図に関する情報を表示するナビゲーションシステムと、
     車両挙動を検出する車両挙動検出装置と、
     外界の情報を認識する外界認識センサと、
     コントロールユニットと
     を備え、
     前記コントロールユニットは、
     前記ナビゲーションシステムに基づく第1道路情報を取得する第1道路情報取得部と、
     前記車両挙動検出装置に基づく第2道路情報を取得する第2道路情報取得部と、
     前記外界認識センサに基づく第3道路情報を取得する第3道路情報取得部と、
     前記第1、第2および第3道路情報取得部から取得した前記第1、第2および第3道路情報を比較する道路情報比較部と、
     前記道路情報比較部による比較結果に基づき前記第1、第2および第3道路情報の確度を判定する道路情報判定部と、
     を備える
     車両制御システム。
  22.  請求項21に記載の車両制御システムにおいて、
     前記コントロールユニットは、前記道路情報比較部による比較結果に関する情報を、比較をした地点および前記車両の進行方向に関連付けて記憶する比較情報記憶部を備える
     車両制御システム。
PCT/JP2018/016927 2017-05-11 2018-04-26 車両制御装置、車両制御方法および車両制御システム WO2018207632A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/610,748 US11852491B2 (en) 2017-05-11 2018-04-26 Vehicle control apparatus, vehicle control method, and vehicle control system
EP18799117.9A EP3624089A1 (en) 2017-05-11 2018-04-26 Vehicle control device, vehicle control method, and vehicle control system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-094355 2017-05-11
JP2017094355A JP6885781B2 (ja) 2017-05-11 2017-05-11 車両制御装置、車両制御方法および車両制御システム

Publications (1)

Publication Number Publication Date
WO2018207632A1 true WO2018207632A1 (ja) 2018-11-15

Family

ID=64104635

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/016927 WO2018207632A1 (ja) 2017-05-11 2018-04-26 車両制御装置、車両制御方法および車両制御システム

Country Status (4)

Country Link
US (1) US11852491B2 (ja)
EP (1) EP3624089A1 (ja)
JP (1) JP6885781B2 (ja)
WO (1) WO2018207632A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111976722A (zh) * 2019-05-23 2020-11-24 通用汽车环球科技运作有限责任公司 包括自主控制系统的用于控制车辆的方法和设备

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190014871A (ko) * 2017-08-04 2019-02-13 삼성전자주식회사 차량의 후방에 위치한 응급 차량에 기초하여 상기 차량의 주행 경로를 변경하는 장치 및 방법
US11143760B2 (en) * 2018-02-19 2021-10-12 Motional Ad Llc Object-detector configuration based on human-override of automated vehicle control
WO2019176043A1 (ja) * 2018-03-15 2019-09-19 パイオニア株式会社 レーン情報生成方法
EP3647728B1 (en) * 2018-11-05 2023-06-21 Toyota Jidosha Kabushiki Kaisha Map information system
CN110954128B (zh) * 2019-12-03 2021-11-16 阿波罗智能技术(北京)有限公司 检测车道线位置变化的方法、装置、电子设备和存储介质
CN113873426A (zh) * 2020-06-30 2021-12-31 罗伯特·博世有限公司 用于决策车辆的地理围栏事件的系统、控制单元和方法
JP7225185B2 (ja) * 2020-11-26 2023-02-20 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP2022107990A (ja) * 2021-01-12 2022-07-25 本田技研工業株式会社 地図情報システム
US20230404456A1 (en) * 2021-02-03 2023-12-21 Mitsubishi Electric Corporation Adjustment device, adjustment system, and adjustment method
JP2022151005A (ja) * 2021-03-26 2022-10-07 トヨタ自動車株式会社 走行道路特定装置、走行道路特定方法及び走行道路特定用コンピュータプログラム
JP7184951B2 (ja) * 2021-03-26 2022-12-06 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP7250837B2 (ja) * 2021-03-26 2023-04-03 本田技研工業株式会社 制御装置、制御方法、およびプログラム
JP7194224B2 (ja) 2021-03-31 2022-12-21 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP7203885B2 (ja) * 2021-03-31 2023-01-13 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP7203884B2 (ja) * 2021-03-31 2023-01-13 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US11978265B2 (en) * 2022-03-11 2024-05-07 GM Global Technology Operations LLC System and method for providing lane identification on an augmented reality display
JP2024003531A (ja) * 2022-06-27 2024-01-15 株式会社Jvcケンウッド マップ生成装置およびマップ生成方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215474A (ja) 2010-04-01 2011-10-27 Toyota Motor Corp 道路情報取得装置
JP2013097714A (ja) * 2011-11-04 2013-05-20 Toyota Motor Corp 車線認識装置
US9123152B1 (en) * 2012-05-07 2015-09-01 Google Inc. Map reports from vehicles in the field
JP2016156973A (ja) * 2015-02-25 2016-09-01 パイオニア株式会社 地図データ記憶装置、制御方法、プログラム及び記憶媒体
JP2016180980A (ja) * 2015-03-23 2016-10-13 株式会社豊田中央研究所 情報処理装置、プログラム、及び地図データ更新システム
JP2016203882A (ja) * 2015-04-27 2016-12-08 トヨタ自動車株式会社 自動運転車両システム
JP2017094355A (ja) 2015-11-24 2017-06-01 日本特殊陶業株式会社 多角形フランジ付き筒状金具の冷間鍛造による製造方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003182474A (ja) * 2001-12-25 2003-07-03 Denso Corp 車載ネットワークシステム及びプログラム
JP5066206B2 (ja) * 2010-03-11 2012-11-07 日立オートモティブシステムズ株式会社 リンク列変換方法、道路情報提供装置および道路情報提供システム
US11255676B2 (en) 2011-10-24 2022-02-22 Continental Teves Ag & Co. Ogh Sensor system for independently evaluating the integrity of the data of the sensor system
US9891057B2 (en) 2015-03-23 2018-02-13 Kabushiki Kaisha Toyota Chuo Kenkyusho Information processing device, computer readable storage medium, and map data updating system
JP6269566B2 (ja) * 2015-05-08 2018-01-31 トヨタ自動車株式会社 誤認識判定装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215474A (ja) 2010-04-01 2011-10-27 Toyota Motor Corp 道路情報取得装置
JP2013097714A (ja) * 2011-11-04 2013-05-20 Toyota Motor Corp 車線認識装置
US9123152B1 (en) * 2012-05-07 2015-09-01 Google Inc. Map reports from vehicles in the field
JP2016156973A (ja) * 2015-02-25 2016-09-01 パイオニア株式会社 地図データ記憶装置、制御方法、プログラム及び記憶媒体
JP2016180980A (ja) * 2015-03-23 2016-10-13 株式会社豊田中央研究所 情報処理装置、プログラム、及び地図データ更新システム
JP2016203882A (ja) * 2015-04-27 2016-12-08 トヨタ自動車株式会社 自動運転車両システム
JP2017094355A (ja) 2015-11-24 2017-06-01 日本特殊陶業株式会社 多角形フランジ付き筒状金具の冷間鍛造による製造方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3624089A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111976722A (zh) * 2019-05-23 2020-11-24 通用汽车环球科技运作有限责任公司 包括自主控制系统的用于控制车辆的方法和设备

Also Published As

Publication number Publication date
JP6885781B2 (ja) 2021-06-16
JP2018189900A (ja) 2018-11-29
US11852491B2 (en) 2023-12-26
EP3624089A4 (en) 2020-03-18
US20200064138A1 (en) 2020-02-27
EP3624089A1 (en) 2020-03-18

Similar Documents

Publication Publication Date Title
WO2018207632A1 (ja) 車両制御装置、車両制御方法および車両制御システム
US9914463B2 (en) Autonomous driving device
JP6344275B2 (ja) 車両制御装置
CN111066071B (zh) 驾驶辅助车辆的位置误差校正方法及位置误差校正装置
JP6137212B2 (ja) 運転支援装置
US9767686B2 (en) Method and control and detection device for determining the plausibility of a wrong-way travel of a motor vehicle
JP6036371B2 (ja) 車両用運転支援システム及び運転支援方法
JP6663835B2 (ja) 車両制御装置
US20170236413A1 (en) Driving Assistance Device and Driving Assistance Method
JP2017087816A (ja) 自動運転システム
US10754335B2 (en) Automated driving system
JP7360269B2 (ja) 車両の走行制御装置
KR20080037708A (ko) 차량용 측위 정보 갱신 장치
JP2008242544A (ja) 衝突回避装置および方法
US7764192B2 (en) Traveling safety device for vehicle
JP2009075933A (ja) 分岐路内位置演算装置、分岐路内位置演算方法、および、分岐路内位置演算プログラム
US20210155242A1 (en) Driving assist method and driving assist device
WO2016194168A1 (ja) 走行制御装置及び方法
JP6941178B2 (ja) 自動運転制御装置及び方法
JP7470555B2 (ja) 交通標識表示装置
JP6080998B1 (ja) 車両制御情報生成装置および車両制御情報生成方法
KR101837393B1 (ko) 차량, 및 그 제어방법
US20220212663A1 (en) Method for operating a lane-keeping assistance system of a motor vehicle which is at least partially operated with assistance, computer program product, and lane-keeping assistance system
CN113874925B (zh) 导航装置、自动驾驶控制装置以及导航方法
JP2019104442A (ja) 車両の運転支援装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18799117

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018799117

Country of ref document: EP

Effective date: 20191211