WO2018198186A1 - 走行支援方法及び走行支援装置 - Google Patents

走行支援方法及び走行支援装置 Download PDF

Info

Publication number
WO2018198186A1
WO2018198186A1 PCT/JP2017/016338 JP2017016338W WO2018198186A1 WO 2018198186 A1 WO2018198186 A1 WO 2018198186A1 JP 2017016338 W JP2017016338 W JP 2017016338W WO 2018198186 A1 WO2018198186 A1 WO 2018198186A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
blind spot
spot area
situation
host vehicle
Prior art date
Application number
PCT/JP2017/016338
Other languages
English (en)
French (fr)
Inventor
芳 方
卓也 南里
翔一 武井
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to PCT/JP2017/016338 priority Critical patent/WO2018198186A1/ja
Publication of WO2018198186A1 publication Critical patent/WO2018198186A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to a driving support method and a driving support device that predict a surrounding situation of a host vehicle and perform driving support of the host vehicle based on a prediction result.
  • Patent Document 1 Conventionally, when a vehicle travels in a blind spot, a vehicle control device is known that controls the vehicle according to the situation (see Patent Document 1).
  • the vehicle control device of Patent Document 1 detects a blind spot area that is a blind spot for the host vehicle, and determines and determines the relative priority between the path of a moving object that may appear from the blind spot area and the path of the vehicle. Based on the priority, a control signal for the host vehicle was output.
  • the present invention has been made in order to solve such a conventional problem, and an object of the present invention is to suppress a sudden change in the behavior of the host vehicle and reduce a sense of incongruity given to an occupant.
  • An object of the present invention is to provide a driving support method and a driving support device that can be used.
  • the driving support method and the driving support device detect a blind spot area of the host vehicle around the host vehicle, detect an object capable of detecting a situation in the detected blind spot area, The situation in the blind spot area is predicted based on the behavior of the detected object.
  • the driving support method and the driving support apparatus it is possible to suppress a sudden change in the behavior of the host vehicle and reduce a sense of discomfort given to the occupant.
  • FIG. 1 is a block diagram showing a configuration of a driving support apparatus according to an embodiment of the present invention.
  • FIG. 2 is a diagram for explaining a straight traveling track and a lane changing track of a parallel running vehicle that runs parallel to the host vehicle.
  • FIG. 3 is a view for explaining a method for detecting a blind spot area by the driving support apparatus according to the embodiment of the present invention.
  • FIG. 4 is a diagram for explaining a method of extracting an intersecting area that intersects with the behavior of an object in the blind spot area by the driving support apparatus according to the embodiment of the present invention.
  • FIG. 5A is a diagram for explaining a method of predicting a situation in a blind spot area based on the behavior of an oncoming vehicle by the driving support device according to the embodiment of the present invention.
  • FIG. 5B is a diagram for explaining a method of predicting a situation in the blind spot area based on the behavior of the oncoming vehicle by the driving support device according to the embodiment of the present invention.
  • FIG. 5C is a diagram for explaining a method of predicting a situation in the blind spot area based on the behavior of the oncoming vehicle by the driving support device according to the embodiment of the present invention.
  • FIG. 6 is a diagram for explaining a method for predicting the situation in the blind spot area based on the behavior of the merged vehicle by the driving support apparatus according to the embodiment of the present invention.
  • FIG. 7 is a diagram for explaining a method for predicting the situation in the blind spot area based on the behavior of the merged vehicle by the driving support apparatus according to the embodiment of the present invention.
  • FIG. 5B is a diagram for explaining a method of predicting a situation in the blind spot area based on the behavior of the oncoming vehicle by the driving support device according to the embodiment of the present invention.
  • FIG. 5C is a diagram
  • FIG. 8A is a diagram for explaining a method of predicting a situation in a blind spot area based on a pedestrian's behavior on a T-junction by the driving support device according to the embodiment of the present invention.
  • FIG. 8B is a diagram for explaining a method for predicting the situation in the blind spot area based on the behavior of the pedestrian on the T-shaped road by the driving support device according to the embodiment of the present invention.
  • FIG. 8C is a diagram for explaining a method for predicting a situation in a blind spot area based on a pedestrian's behavior on a T-junction by the driving support device according to the embodiment of the present invention.
  • FIG. 8A is a diagram for explaining a method of predicting a situation in a blind spot area based on a pedestrian's behavior on a T-junction by the driving support device according to the embodiment of the present invention.
  • FIG. 8D is a diagram for explaining a method for predicting a situation in a blind spot area based on a pedestrian's behavior on a T-junction by the driving support device according to the embodiment of the present invention.
  • FIG. 9 is a diagram for explaining a method of predicting the situation in the blind spot area based on the behavior of another vehicle that goes out of the store from the store by the driving support device according to the embodiment of the present invention.
  • FIG. 10 is a diagram for explaining a method for predicting the situation in the blind spot area based on the behavior of the preceding vehicle passing through the parked vehicle by the driving support device according to the embodiment of the present invention.
  • FIG. 9 is a diagram for explaining a method of predicting the situation in the blind spot area based on the behavior of another vehicle that goes out of the store from the store by the driving support device according to the embodiment of the present invention.
  • FIG. 10 is a diagram for explaining a method for predicting the situation in the blind spot area based on the behavior of the preceding vehicle passing
  • FIG. 11 is a diagram for explaining a method for predicting the situation in the blind spot area based on the behavior of the oncoming vehicle passing through the parked vehicle by the driving support device according to the embodiment of the present invention.
  • FIG. 12 is a flowchart showing a processing procedure of a driving support process by the driving support device according to the embodiment of the present invention.
  • FIG. 13 is a flowchart showing a processing procedure of other vehicle operation prediction processing by the driving support apparatus according to the embodiment of the present invention.
  • FIG. 1 is a block diagram showing the configuration of the driving support apparatus according to this embodiment.
  • the travel support device according to the present embodiment includes an object detection device 1, a host vehicle position estimation device 3, a map acquisition device 4, and a microcomputer 100.
  • the object detection device 1 includes a plurality of different types of object detection sensors for detecting objects existing around the host vehicle, such as a laser radar, a millimeter wave radar, and a camera mounted on the host vehicle.
  • the object detection device 1 detects an object around the host vehicle using a plurality of object detection sensors.
  • the object detection device 1 detects other vehicles, motorcycles, bicycles, moving objects including pedestrians, and stationary objects including parked vehicles. For example, the position, posture, size, speed, acceleration, deceleration, yaw rate and the like of the moving object and the stationary object with respect to the host vehicle are detected.
  • the position, posture (yaw angle), size, speed, acceleration, deceleration, yaw rate, etc. of the object are collectively referred to as “behavior” of the object.
  • the object detection apparatus 1 outputs the behavior of a two-dimensional object as a detection result, for example, in a zenith view viewed from the air above the host vehicle.
  • the own vehicle position estimation device 3 includes a position detection sensor for measuring the absolute position of the own vehicle such as a GPS (Global Positioning System) and odometry mounted on the own vehicle.
  • the own vehicle position estimation device 3 uses the position detection sensor to measure the absolute position of the own vehicle, that is, the position, posture, and speed of the own vehicle with respect to a predetermined reference point.
  • the map acquisition device 4 acquires map information indicating the structure of the road on which the host vehicle is traveling.
  • the map acquisition device 4 may own a map database storing map information, or may acquire map information from an external map data server by cloud computing.
  • the map information acquired by the map acquisition device 4 includes road structure information such as absolute lane positions, lane connection relationships, and relative position relationships.
  • the microcomputer 100 predicts the operation of the other vehicle based on the detection result by the object detection device 1 and the own vehicle position estimation device 3 and the acquired information by the map acquisition device 4, and generates the route of the own vehicle from the operation of the other vehicle. Then, the host vehicle is controlled according to the generated route. In particular, the microcomputer 100 predicts the situation in the blind spot area based on the behavior of the object capable of detecting the situation in the blind spot area, and performs traveling support of the host vehicle based on the prediction result.
  • the microcomputer 100 (an example of a control unit or a controller) is a general-purpose microcomputer including a CPU (Central Processing Unit), a memory, and an input / output unit.
  • the microcomputer 100 is installed with a computer program (driving support program) for functioning as a driving support device.
  • the microcomputer 100 functions as a plurality of information processing circuits (2a, 2b, 5, 10, 21, 22) included in the driving support device.
  • a plurality of information processing circuits (2a, 2b, 5, 10, 21, 22) provided in the driving support device is realized by software is shown.
  • the plurality of information processing circuits (2a, 2b, 5, 10, 21, 22) may be configured by individual hardware. Furthermore, the information processing circuit (2a, 2b, 5, 10, 21, 22) may be used also as an electronic control unit (ECU) used for other control relating to the vehicle.
  • ECU electronice control unit
  • the microcomputer 100 includes, as a plurality of information processing circuits (2a, 2b, 5, 10, 21, 22), a detection integration unit 2a, an object tracking unit 2b, an in-map position calculation unit 5, and an operation prediction unit 10.
  • the vehicle route generation unit 21 and the vehicle control unit 22 are provided.
  • the motion prediction unit 10 includes a behavior determination unit 11, a motion candidate prediction unit 12, a first motion candidate correction unit 13, a blind spot area detection unit 14, a detectable object detection unit 15, and a blind spot area situation prediction unit. 16, a second motion candidate correction unit 17, a trajectory prediction unit 18, and a likelihood estimation unit 19.
  • the detection integration unit 2a integrates a plurality of detection results obtained from each of the plurality of object detection sensors provided in the object detection device 1, and outputs one detection result for each object. Specifically, the most rational behavior of the object with the smallest error is calculated from the behavior of the object obtained from each of the object detection sensors in consideration of error characteristics of each object detection sensor. Specifically, by using a known sensor fusion technique, the detection results acquired by a plurality of types of sensors are comprehensively evaluated, and a more accurate detection result is acquired.
  • the object tracking unit 2b tracks the object detected by the object detection device 1. Specifically, from the detection result integrated by the detection integration unit 2a, the identity of the object at different times is verified (associated) from the behavior of the object output at different times, and the association is performed. Based on this, the behavior of the object is predicted. Note that the behaviors of the objects output at different times are stored in a memory in the microcomputer 100 and used for trajectory prediction described later.
  • the in-map position calculation unit 5 estimates the position and orientation of the host vehicle on the map from the absolute position of the host vehicle obtained by the host vehicle position estimation device 3 and the map data acquired by the map acquisition device 4. For example, the road on which the host vehicle is traveling and the lane on which the host vehicle is traveling are identified.
  • the motion prediction unit 10 predicts the motion of the moving object around the host vehicle based on the detection result obtained by the detection integration unit 2a and the position of the host vehicle specified by the in-map position calculation unit 5.
  • the motion prediction unit 10 will be described.
  • the behavior determination unit 11 specifies the behavior of the object on the map from the position of the own vehicle on the map and the behavior of the object obtained by the detection integration unit 2a. Furthermore, when the position of the object on the map changes with time, the behavior determination unit 11 determines that the object is a “moving object” and determines the attribute of the moving object from the size and speed of the moving object. (Other vehicle, pedestrian) is determined. When it is determined that the moving object is another vehicle that is traveling, the behavior determination unit 11 determines the road and lane on which the other vehicle travels.
  • the object is determined to be a stationary object, and the stationary object attribute (parked vehicle, pedestrian, etc.) ).
  • the motion candidate prediction unit 12 predicts motion candidates for other vehicles based on the map.
  • the motion candidate prediction unit 12 predicts the motion intention of how the other vehicle will travel next from the road structure included in the map information and the lane information to which the other vehicle belongs, and the other vehicle based on the motion intention Are calculated based on the road structure.
  • the “motion candidate” is a superordinate concept including a motion intention and a basic trajectory.
  • the “basic track” indicates not only the profile of the position of the other vehicle at different times but also the profile of the speed of the other vehicle at each position.
  • the motion candidate prediction unit 12 predicts a motion intention (straight forward) traveling along the shape of the lane, and uses the lane on the map as a basic track. Calculate the trajectory along
  • the motion candidate prediction unit 12 predicts a motion intention to go straight (straight) and a motion intention (lane change) to change the lane to the right or left.
  • the basic trajectory of the other vehicle in the operation intention (lane change) is a trajectory for changing the lane based on the road structure and a predetermined lane change time.
  • the motion candidate prediction unit 12 predicts the intention to move straight, turn right, and turn left, and calculates a straight trajectory, a right turn trajectory, and a left turn trajectory based on the road structure at the intersection on the map as a basic trajectory. .
  • the road structure is considered, but the behavior of the other vehicle integrated by the detection integration unit 2a is not considered.
  • FIG. 2 is a diagram showing a two-lane curved road.
  • the parallel running vehicle 52 of the host vehicle 51 is running on the right lane of the road.
  • the motion candidate predicting unit 12 intends to continue to drive in the right lane as it is from the road structure in FIG. 2 and the position of the parallel vehicle 52 (travel lane) (straight forward), and to move from the right lane to the left lane. Predict (lane change). Then, based on the road structure of the curved road and the predetermined lane change time, the straight traveling track 61 and the lane changing track 62 shown in FIG. 2 are calculated. In this way, the motion candidate prediction unit 12 predicts motion candidates (motion intention and basic trajectory) of the parallel running vehicle 52 from the structure of the road on which the parallel running vehicle 52 travels.
  • the first motion candidate correction unit 13 corrects the motion candidate predicted by the motion candidate prediction unit 12 in consideration of the stationary object detected by the object detection device 1. Specifically, the first motion candidate correction unit 13 determines whether or not the basic track of the other vehicle interferes with the position of the stationary object. In the case of interference, a motion intention and a basic trajectory of another vehicle that avoids a stationary object are newly added.
  • the first motion candidate correction unit 13 predicts the motion candidate prediction unit 12 in consideration of the other moving object. Corrected motion candidates. Specifically, the first motion candidate correction unit 13 determines over time whether there is interference between another moving object and another vehicle. When there is interference between moving objects, an operation intention and a basic trajectory of another vehicle that avoids interference with other moving objects are newly added.
  • the blind spot area detection unit 14 detects a blind spot area from the host vehicle around the host vehicle. Specifically, the blind spot area detection unit 14 detects a blind spot area from the host vehicle that is generated by an object such as another vehicle detected by the object detection device 1. Further, the blind spot area detection unit 14 detects a building existing around the host vehicle from the map information, and detects a blind spot area of the host vehicle generated by the building. For example, as shown in FIG. 3, for the obstacle 31 such as another vehicle or building, the points P1 and P2 which are the outermost sides of the obstacle 31 are specified, and a straight line is drawn from the own vehicle 51 to the points P1 and P2. Thus, a region 33 that is a shadow of the obstacle 31 is detected as a blind spot region. Then, the blind spot area detection unit 14 specifies the position of the blind spot area thus detected on the map.
  • the blind spot area in the present embodiment is a concept including not only a blind spot area from an occupant (driver, passenger) but also an area other than the detection range of the object detection sensor mounted on the vehicle.
  • the blind spot area is a concept including an area on the opposite side of the own vehicle with the shielding object interposed in a direction connecting the own vehicle and the shielding object.
  • This blind spot area may be calculated on the own vehicle side when it encounters another vehicle, or it may be calculated in advance and applied in advance when it encounters another vehicle. May be. Moreover, you may make it acquire the information of a blind spot area
  • the detectable object detection unit 15 detects an object that can detect the situation in the blind spot area detected by the blind spot area detection unit 14. Since the position of the blind spot area on the map is specified by the blind spot area detection unit 14, the detectable object detection unit 15 can detect the situation in the blind spot area among the objects existing around the host vehicle. Detects an object present at a position. At this time, if there is no obstacle that obstructs the field of view between the object existing around the host vehicle and the blind spot area, the detectable object detection unit 15 detects the object existing around the host vehicle within the blind spot area. The situation is detected as an object that can be detected.
  • an object other than the host vehicle can detect the situation in the blind spot area detected by the blind spot area detection unit 14 when a blind spot area is included in the visible range of the object, If it is provided, it may be included in the detection range of the sensor. In these cases, the visible range of the object and the detection range of the sensor included in the object may be obtained by the own vehicle, or instead of calculating each time an object is encountered, a predetermined object is used. You may make it apply when it encounters. Moreover, you may make it acquire information from the outside of the own vehicle using vehicle-to-vehicle communication or road-to-vehicle communication.
  • an object that can detect the situation in the blind spot area is affected by the behavior of the object when the object exists in the blind spot area. Therefore, assuming that an object exists in the blind spot area, an area that intersects the behavior of the object may be extracted as an intersection area, and the object existing in the intersection area may be detected as a detectable object. .
  • the intersection areas A1, A2 are areas that intersect with the behavior when the other vehicle 41 goes straight.
  • A3 can be extracted. Therefore, the oncoming vehicle 43 may be detected as an object located in these intersection areas A1, A2, and A3, and the oncoming vehicle 43 may be detected as an object capable of detecting the situation in the blind spot area.
  • the detectable object detection unit 15 detects an object capable of detecting the situation in the blind spot area
  • the detectable object detection unit 15 also detects the movement locus of the detected object, operations such as acceleration / deceleration.
  • the blind spot area situation prediction unit 16 predicts the situation in the blind spot area based on the behavior of the object capable of detecting the situation in the blind spot area. For example, in the example shown in FIG. 4, the non-priority road 47 intersects with the priority road 45. In such a situation, the blind spot area situation prediction unit 16 acquires the movement locus and acceleration / deceleration of the oncoming vehicle 43 that is an object capable of detecting the situation in the blind spot area. Then, as shown in FIG. 5A, when the oncoming vehicle 43 goes straight to the intersection area A2 without decelerating, it is predicted that no object such as the other vehicle 41 exists in the blind spot area 33.
  • the blind spot area condition prediction unit 16 acquires the movement locus of the oncoming vehicle 43, and when the oncoming vehicle 43 makes a right turn to the intersection area A ⁇ b> 1, the other vehicle 41 that goes straight ahead has the blind spot area 33. Predict that it does not exist within. Further, the blind spot area situation prediction unit 16 predicts that there is no other vehicle 41 that goes straight, but the other vehicle 41 that turns left may exist in the blind spot area 33.
  • the blind spot area state prediction unit 16 acquires the movement locus and acceleration / deceleration of the oncoming vehicle 43.
  • the oncoming vehicle 43 turns left to the intersection area A3 without decelerating, it is predicted that no object such as the other vehicle 41 exists in the blind spot area 33.
  • the blind spot area situation prediction unit 16 predicts whether or not an object exists in the blind spot area based on the behavior of the object capable of detecting the situation in the blind spot area. It is also possible to predict the behavior of whether an object existing in the blind spot area turns left or right.
  • the detectable object detection unit 15 determines that the joining vehicle 65 can detect the situation in the blind spot area 33 with a rearview mirror or the like, and determines the joining vehicle 65 in the situation in the blind spot area. Is detected as an object that can be detected.
  • the blind spot area state prediction unit 16 predicts that the other vehicle 41 exists in the blind spot area when the merging vehicle 65 behaves so as to send a signal to a rear vehicle such as a pumping brake.
  • FIG. 7 there is a blind spot area 33 due to the preceding vehicle 71 of the host vehicle 51, and a merging vehicle 65 exists.
  • the detectable object detection unit 15 detects the merge vehicle 65 as an object that can detect the situation in the blind spot area.
  • the blind spot area state prediction unit 16 predicts that the other vehicle 41 exists in the blind spot area 33 when the merging vehicle 65 decelerates at a timing when it can join first.
  • the detectable object detection unit 15 detects an object present on the shoulder of the road as an object capable of detecting the situation in the blind spot area.
  • Objects existing on the shoulder of the road include pedestrians, bicycles, animals, motorcycles, strollers and the like.
  • the pedestrian 83 is detected as an object capable of detecting the situation in the blind spot area.
  • the blind spot area state prediction unit 16 predicts that no other vehicle is present in the blind spot area 33 when the pedestrian 83 passes through the pedestrian crossing without stopping.
  • FIG. 8B shows a case where the pedestrian 83 stops in front of the pedestrian crossing and does not pass the pedestrian crossing.
  • the blind spot area state prediction unit 16 predicts that the other vehicle 41 exists in the blind spot area 33 and is approaching rapidly at a high speed.
  • FIG. 8C shows a case where the pedestrian 83 stops once before the pedestrian crossing and then passes the pedestrian crossing.
  • the blind spot area situation prediction unit 16 predicts that the other vehicle 41 exists in the blind spot area 33 but is not in a situation where the speed is low and the vehicle approaches immediately.
  • FIG. 8D shows a case where the pedestrian 83 accelerates in the middle of the crosswalk and passes through the crosswalk.
  • the blind spot area situation prediction unit 16 predicts that the other vehicle 41 exists and approaches in the blind spot area 33.
  • the detectable object detection unit 15 detects the other vehicle 41 as an object that can detect the situation in the blind spot area.
  • the blind spot area state prediction unit 16 predicts that the oncoming vehicle 43 exists in the blind spot area 33 when the other vehicle 41 stops. In addition, even when the other vehicle 41 stops once and performs an operation of giving up, it is predicted that the oncoming vehicle 43 exists in the blind spot area 33. On the other hand, when the other vehicle 41 leaves the road without stopping, it is predicted that the oncoming vehicle 43 does not exist in the blind spot area 33.
  • the detectable object detection unit 15 detects the preceding vehicle 71 as an object capable of detecting the situation in the blind spot area.
  • the blind spot area state prediction unit 16 calculates the predicted trajectory R1 of the preceding vehicle 71 and compares it with the actual traveling locus R2 of the preceding vehicle 71. It is predicted that an obstacle 31 such as a parked vehicle exists. On the other hand, when there is no divergence between the predicted trajectory R1 and the actual travel trajectory R2, it is predicted that no obstacle 31 such as a parked vehicle exists in the blind spot area 33.
  • the detectable object detection unit 15 detects the oncoming vehicle 43 as an object that can detect the situation in the blind spot area. Then, when the oncoming vehicle 43 stops at the timing when the oncoming vehicle 43 first passes away from the parked vehicle 91, an object such as a pedestrian 83 exists in the blind spot area 33. I predict that. On the other hand, when the oncoming vehicle 43 passes by avoiding the parked vehicle 91 without decelerating, it is predicted that no object such as the pedestrian 83 exists in the blind spot area 33.
  • the second motion candidate correction unit 17 corrects the motion candidate predicted by the motion candidate prediction unit 12 in consideration of the situation in the blind spot region predicted by the blind spot region state prediction unit 16. Specifically, the second motion candidate correction unit 17 predicts a motion candidate taken by another vehicle when there is an obstacle in the blind spot area, and adds it to the motion candidate predicted by the motion candidate prediction unit 12. First, the second motion candidate correction unit 17 makes a hypothesis that there is an obstacle in the blind spot area that promotes a travel change of another vehicle, such as a vehicle parked on a road. Then, the second motion candidate correction unit 17 predicts the motion intention that the other vehicle avoids the obstacle in the blind spot area based on the hypothesis, and the basic trajectory of the other vehicle based on the motion intention is based on the road structure. To calculate.
  • the trajectory prediction unit 18 predicts a trajectory (effective trajectory) taken by another vehicle based on the behavior detected by the behavior determination unit 11. Specifically, the trajectory prediction unit 18 calculates an effective trajectory of another vehicle when operating according to the predicted motion intention using a known state estimation technique such as a Kalman filter.
  • the “effective track” indicates not only the position of the other vehicle at different times but also the speed profile of the other vehicle at each position in the same manner as the basic track.
  • the effective trajectory and the basic trajectory are common in that they are trajectories taken by other vehicles, but the effective trajectory is calculated considering the behavior of other vehicles, but the basic trajectory is calculated without considering the behavior of other vehicles. In that respect, they are different.
  • the likelihood estimator 19 includes the motion candidates predicted by the motion candidate predictor 12, the first motion candidate corrector 13, and the second motion candidate corrector 17, and the behavior of other vehicles integrated by the detection integration unit 2a. By comparing these, the operation of the other vehicle is predicted.
  • the likelihood estimating unit 19 calculates a basic trajectory and an effective trajectory for each of the motion candidates predicted by the motion candidate predicting unit 12, the first motion candidate correcting unit 13, and the second motion candidate correcting unit 17. Contrast. Then, the likelihood of each motion candidate is obtained from the difference between the basic trajectory and the effective trajectory. The smaller the difference between the basic trajectory and the effective trajectory, the higher the likelihood. The motion candidate calculated with the highest likelihood can be determined to be the most likely motion candidate in consideration of the behavior of the other vehicle. Therefore, the likelihood estimation part 19 determines the operation candidate with the highest likelihood as the operation of the other vehicle. The difference between the basic trajectory and the effective trajectory is calculated based on, for example, the sum of differences in position and speed profiles between the two trajectories.
  • the own vehicle route generation unit 21 generates a route of the own vehicle based on the situation in the blind spot area predicted by the motion prediction unit 10. For example, in FIGS. 5A to 5C, the host vehicle 51 is going straight through an intersection. In this situation, in the example shown in FIGS. 5A and 5C, since it is predicted that no other vehicle exists in the blind spot area 33, the host vehicle route generation unit 21 goes straight through the intersection without the host vehicle 51 decelerating. Generate a route to On the other hand, in the example shown in FIG. 5B, since it is predicted that there may be another vehicle 41 that turns left, the own vehicle route generation unit 21 travels straight after the own vehicle 51 decelerates before the intersection. (The velocity and acceleration profile may be calculated together).
  • the merging vehicle 65 is about to join the road on which the host vehicle 51 travels.
  • the other vehicle 41 may join after the joining vehicle 65. Therefore, the host vehicle route generation unit 21 generates a route that decelerates the host vehicle 51 and travels straight because the parallel running vehicle 52 may change lanes in order to avoid the other vehicle 41.
  • the host vehicle route generation unit 21 when it is predicted that no other vehicle 41 exists in the blind spot area 33, the host vehicle route generation unit 21 generates a route that goes straight without decelerating the host vehicle 51.
  • the merging vehicle 65 is about to join the road on which the host vehicle 51 travels.
  • the host vehicle route generation unit 21 generates a route that decelerates the host vehicle 51 and travels straight because the preceding vehicle 71 may decelerate.
  • the host vehicle route generation unit 21 generates a route that goes straight without decelerating the host vehicle 51.
  • the host vehicle 51 is about to turn right on the T-junction.
  • the own vehicle route generation unit 21 since it is predicted that no other vehicle exists in the blind spot area 33, the own vehicle route generation unit 21 generates a route in which the own vehicle 51 turns right at the intersection.
  • the own vehicle route generation unit 21 since it is predicted that another vehicle 41 may exist in the blind spot area 33, the own vehicle route generation unit 21 will stop after the own vehicle 51 stops at the intersection. Generate a route to turn right.
  • the own vehicle 51 is about to enter a store along the road.
  • the own vehicle route generation unit 21 when it is predicted that the oncoming vehicle 43 exists in the blind spot area 33, the own vehicle route generation unit 21 generates a route for entering the store after the own vehicle 51 stops.
  • the host vehicle route generation unit 21 when it is predicted that the oncoming vehicle 43 does not exist in the blind spot area 33, the host vehicle route generation unit 21 generates a route in which the host vehicle 51 enters the store without stopping.
  • the own vehicle 51 is about to pass by avoiding the parked vehicle 91.
  • the host vehicle route generation unit 21 waits until the host vehicle 51 stops and the oncoming vehicle 43 passes. Generate a straight path.
  • the own vehicle route generation unit 21 generates a route that goes straight through the parked vehicle 91 without stopping the own vehicle 51. .
  • the oncoming vehicle 43 of the host vehicle 51 is about to pass by avoiding the parked vehicle 91.
  • the host vehicle route generation unit 21 when it is predicted that the pedestrian 83 is present in the blind spot area 33, the host vehicle route generation unit 21 generates a route that travels straight after the host vehicle 51 decelerates.
  • the own vehicle route generation unit 21 when it is predicted that the pedestrian 83 does not exist in the blind spot area 33, the own vehicle route generation unit 21 generates a route in which the own vehicle 51 goes straight without decelerating.
  • the vehicle control unit 22 drives the actuator based on the self-position calculated by the in-map position calculation unit 5 so that the own vehicle travels according to the route generated by the own vehicle route generation unit 21.
  • the driving actuator is at least one of a steering actuator, an accelerator pedal actuator, and a brake pedal actuator. In this embodiment, control is performed according to the route of the host vehicle. However, the host vehicle may be controlled without generating the route of the host vehicle.
  • step S01 the object detection device 1 detects the behavior of an object around the host vehicle using a plurality of object detection sensors.
  • the detection integration unit 2a integrates a plurality of detection results obtained from each of the plurality of object detection sensors, and outputs one detection result for each object.
  • the object tracking unit 2b tracks each detected and integrated object.
  • step S03 the vehicle position estimation device 3 measures the position, posture, and speed of the vehicle with respect to a predetermined reference point using the position detection sensor. Proceeding to step S04, the map acquisition device 4 acquires map information indicating the structure of the road on which the host vehicle travels.
  • step S05 the in-map position calculation unit 5 estimates the position and orientation of the host vehicle on the map from the position of the host vehicle measured in step S03 and the map data acquired in step S04. Proceeding to step S06, the motion predicting unit 10 operates the other vehicle around the host vehicle based on the detection result (behavior of the other vehicle) obtained in step S02 and the position of the host vehicle specified in step S05. Predict.
  • step S611 the behavior determination unit 11 determines the road and lane on which the other vehicle travels based on the position of the host vehicle on the map and the behavior of the object obtained in step S02.
  • step S612 the motion candidate prediction unit 12 predicts motion candidates for other vehicles based on the map. For example, an operation intention (straight forward, lane change) is predicted from the road structure, and a straight track 61 and a lane change track 62 shown in FIG. 2 are calculated.
  • step S613 the microcomputer 100 performs steps S611 and S612 for all other vehicles detected in step S01. After the execution (YES in S613), the process proceeds to step S614, and the first motion candidate correction unit 13 corrects the motion candidate predicted in step S612 in consideration of the stationary object detected simultaneously in step S01. For example, a basic trajectory that avoids a stationary object is added.
  • step S615 when another moving object is detected in step S01 at the same time as the parallel running vehicle 52 shown in FIG. 2, the first motion candidate correcting unit 13 takes the other moving object into consideration and performs step S612. The motion candidate predicted in is corrected.
  • the blind spot area detection unit 14 determines whether a blind spot area is generated around the host vehicle due to the object detected in step S01 or the building detected from the map information.
  • a blind spot area is generated (YES in S616)
  • the process proceeds to step S617, and the detectable object detection unit 15 detects an object capable of detecting the situation in the blind spot area.
  • step S618 the blind spot area situation prediction unit 16 predicts the situation in the blind spot area based on the behavior of the object capable of detecting the situation in the blind spot area detected in step S617.
  • step S619 the second motion candidate correction unit 17 corrects the motion candidate predicted by the motion candidate prediction unit 12 in consideration of the condition of the blind spot area. Thereafter, the process proceeds to step S620.
  • step S616 if no blind spot area is generated in step S616 (NO in S616), the process proceeds to step S620.
  • the microcomputer 100 performs steps S614 to S619 for all other vehicles detected in step S01.
  • the process proceeds to step S621, and the trajectory prediction unit 18 determines the effective trajectory of the other vehicle when the other vehicle maintains the behavior and operates according to the predicted motion intention, for example, the Kalman filter. It calculates using known state estimation techniques, such as.
  • the likelihood estimating unit 19 compares the basic trajectory with the effective trajectory for each of the motion candidates predicted in S612, S614, S615, and S619. Then, the likelihood of each motion candidate is obtained from the difference between the basic trajectory and the effective trajectory. Based on the likelihood of each motion candidate, the motion of another vehicle around the host vehicle is predicted.
  • step S623 the microcomputer 100 performs steps S621 to S622 for all other vehicles detected in step S01. Thereby, step S06 of FIG. 12 is completed.
  • the own vehicle route generation unit 21 generates the route of the own vehicle based on the operation of the other vehicle predicted in step S06 and the situation in the blind spot area.
  • the vehicle control unit 22 controls the host vehicle so that the host vehicle travels according to the route generated in step S07.
  • the host vehicle is controlled so as to travel based on the generated route.
  • the present invention is not limited thereto, and the vehicle speed, acceleration, and rotational angular velocity of the host vehicle are until after a predetermined time.
  • the oncoming vehicle 43 of the host vehicle 51 is about to pass by avoiding the parking vehicle 91 on the shoulder.
  • the host vehicle 51 is controlled based on the priority without predicting the situation in the blind spot area 33, so that the pedestrian 83 exists in the blind spot area 33.
  • a situation may occur in which the pedestrian 83 suddenly appears from the blind spot area 33.
  • the host vehicle 51 is traveling without decelerating, and a situation occurs in which the pedestrian 83 suddenly appears and suddenly changes the behavior of the host vehicle such as sudden deceleration, giving the passenger a sense of incongruity. It was.
  • the situation in the blind spot area is predicted based on the behavior of the object capable of detecting the situation in the blind spot area, walking in the blind spot area 33 is performed. It can be predicted that the person 83 exists. Thereby, since the own vehicle 51 can be decelerated beforehand, even if the pedestrian 83 appears, it can suppress that the behavior of the own vehicle 51 changes suddenly, and the discomfort given to a passenger
  • the movement trajectory of the object that can detect the situation in the blind spot area is detected, and the situation in the blind spot area is detected based on the detected movement trace. Predict. Thereby, it can be detected in advance that an obstacle such as a parked vehicle is present in the blind spot area, and the situation in the blind spot area can be predicted more accurately.
  • the acceleration / deceleration of the object capable of detecting the situation in the blind spot area is detected, and the dead spot area is detected based on the detected acceleration / deceleration of the object. Predict the situation. Thereby, it is possible to accurately predict a situation in which another vehicle or the like existing in the blind spot area approaches. For example, when a pedestrian accelerates and crosses a pedestrian crossing, it is possible to accurately predict a situation in which another vehicle existing in the blind spot area approaches.
  • the driving support method and the driving support device it is predicted whether or not an object exists in the blind spot area based on the behavior of the object capable of detecting the situation in the blind spot area. Therefore, since it can be known in advance that an object is present in the blind spot area, it is possible to suppress a sudden change in the behavior of the host vehicle and reduce a sense of discomfort given to the occupant.
  • an object present on the shoulder of the road is detected as an object capable of detecting the situation in the blind spot area, and the behavior of the object existing on the shoulder of the road is detected.
  • the situation in the blind spot area can be predicted from the behavior of various objects existing on the shoulder of the road, the situation in the blind spot area can be predicted more accurately.
  • a pedestrian is detected as an object capable of detecting the situation in the blind spot area, and the situation in the blind spot area is predicted based on the behavior of the pedestrian. To do. Thereby, since the situation in the blind spot area can be predicted from the fine behavior of the pedestrian, the situation in the blind spot area can be predicted more accurately.
  • the microcomputer 100 sets the blind spot from the passenger of the own vehicle as the blind spot area. Therefore, since the blind spot area can be accurately estimated, it is possible to suppress the occurrence of an operation or behavior (including a sudden operation such as sudden braking or sudden steering) according to an unexpected object.
  • the microcomputer 100 sets a range other than the detection range of the vehicle sensor as the blind spot area. Accordingly, since the blind spot area can be accurately estimated, the own vehicle capable of executing the automatic driving control and the driving support control (automatic braking) can detect the situation around the own vehicle with the mounted sensor. . Therefore, when the vehicle is controlled according to the detected object, the vehicle can be controlled in accordance with the condition of the blind spot area, so that it is possible to suppress a sense of discomfort given to the occupant, such as suppressing a sudden movement.
  • the microcomputer 100 can execute control that suppresses the uncomfortable feeling given to the occupant as automatic driving control and driving support control (including automatic braking and the like).
  • the inter-vehicle distance can be adjusted (short or long), decelerated in advance, brought close to the road shoulder, or the order of passing through the lane can be adjusted.
  • the host vehicle 51 can suppress sudden changes in the behavior of the vehicle such as sudden braking and sudden steering, and can suppress a sense of discomfort given to the passenger of the host vehicle 51. can do.
  • the prediction technology related to the driving support method of the present embodiment uses the behavior and situation of an object that can be detected from the own vehicle as input to the controller, and the behavior and situation of the object that is not directly detected from the own vehicle and the own vehicle according to them. It is also possible to use a mode in which an input related to the travel control (for example, braking control amount of emergency brake, steering control amount of steering assistance) is output. In the present embodiment, as long as information obtained by the vehicle is used as an input and a presumed output can be obtained, the software and hardware forms constituting the controller and the contents are not particular.
  • the contents for predicting the situation in the blind spot area include the probability that the object exists in the blind spot area, and the action candidates that can be taken when the object exists in the blind spot area And the probability that the action candidate is executed is included, and based on these probabilities, driving support of the host vehicle can be executed.
  • the host vehicle is an automatically driven vehicle
  • the host vehicle may be a manually driven vehicle.
  • a speaker, a display, and a controller for controlling these user interfaces are used to guide the steering, accelerator, and brake operations to the driver using voice or images. It only has to have.

Abstract

本発明の走行支援方法は、自車両の周囲状況を予測して予測結果に基づいて自車両の走行支援を行うものであり、自車両の周囲において自車両の死角領域を検出し、検出された死角領域内の状況を検出することが可能な物体を検出し、検出された物体の挙動に基づいて死角領域内の状況を予測する。

Description

走行支援方法及び走行支援装置
 本発明は、自車両の周囲状況を予測し、予測結果に基づいて自車両の走行支援を行う走行支援方法及び走行支援装置に関する。
 従来から、車両が死角のある状況を走行する場合に、その状況に応じて車両を制御する車両制御装置が知られている(特許文献1参照)。特許文献1の車両制御装置は、自車両にとって死角となる死角領域を検出し、死角領域から出現する可能性のある移動物体の進路と車両の進路の相対的な優先度を判定し、判定した優先度に基づいて自車両に対する制御信号を出力していた。
国際公開第2016/104198号
 しかしながら、上述した従来の車両制御装置のように、優先度に基づいて自車両を制御していると、自車両の周囲の死角領域内に歩行者が存在している場合には、死角領域から突然歩行者が現れるような事態が生じ得る。このような場合に、自車両をそのまま走行させると、歩行者が突然現れて急減速等の自車両の挙動を急変させる事態が生じ、乗員に違和感を与えてしまうという問題点があった。
 本発明は、このような従来の課題を解決するためになされたものであり、その目的とするところは、自車両の挙動が急変することを抑制して、乗員に与える違和感を軽減することのできる走行支援方法及び走行支援装置を提供することにある。
 本発明の一態様に係る走行支援方法及び走行支援装置は、自車両の周囲において自車両の死角領域を検出し、検出された死角領域内の状況を検出することが可能な物体を検出し、検出された物体の挙動に基づいて死角領域内の状況を予測する。
 本発明の一形態に係る走行支援方法及び走行支援装置によれば、自車両の挙動が急変することを抑制して、乗員に与える違和感を軽減することができる。
図1は、本発明の一実施形態に係る走行支援装置の構成を示すブロック図である。 図2は、自車両と並走する並走車両の直進軌道と車線変更軌道を説明するための図である。 図3は、本発明の一実施形態に係る走行支援装置による死角領域の検出方法を説明するための図である。 図4は、本発明の一実施形態に係る走行支援装置による死角領域内の物体の挙動と交差する交差領域の抽出方法を説明するための図である。 図5Aは、本発明の一実施形態に係る走行支援装置による対向車の挙動に基づいて死角領域内の状況を予測する方法を説明するための図である。 図5Bは、本発明の一実施形態に係る走行支援装置による対向車の挙動に基づいて死角領域内の状況を予測する方法を説明するための図である。 図5Cは、本発明の一実施形態に係る走行支援装置による対向車の挙動に基づいて死角領域内の状況を予測する方法を説明するための図である。 図6は、本発明の一実施形態に係る走行支援装置による合流車の挙動に基づいて死角領域内の状況を予測する方法を説明するための図である。 図7は、本発明の一実施形態に係る走行支援装置による合流車の挙動に基づいて死角領域内の状況を予測する方法を説明するための図である。 図8Aは、本発明の一実施形態に係る走行支援装置によるT字路における歩行者の挙動に基づいて死角領域内の状況を予測する方法を説明するための図である。 図8Bは、本発明の一実施形態に係る走行支援装置によるT字路における歩行者の挙動に基づいて死角領域内の状況を予測する方法を説明するための図である。 図8Cは、本発明の一実施形態に係る走行支援装置によるT字路における歩行者の挙動に基づいて死角領域内の状況を予測する方法を説明するための図である。 図8Dは、本発明の一実施形態に係る走行支援装置によるT字路における歩行者の挙動に基づいて死角領域内の状況を予測する方法を説明するための図である。 図9は、本発明の一実施形態に係る走行支援装置による店舗から道路に出る他車両の挙動に基づいて死角領域内の状況を予測する方法を説明するための図である。 図10は、本発明の一実施形態に係る走行支援装置による駐車車両を通過する先行車の挙動に基づいて死角領域内の状況を予測する方法を説明するための図である。 図11は、本発明の一実施形態に係る走行支援装置による駐車車両を通過する対向車の挙動に基づいて死角領域内の状況を予測する方法を説明するための図である。 図12は、本発明の一実施形態に係る走行支援装置による走行支援処理の処理手順を示すフローチャートである。 図13は、本発明の一実施形態に係る走行支援装置による他車動作の予測処理の処理手順を示すフローチャートである。
 以下、本発明を適用した一実施形態について図面を参照して説明する。
 [走行支援装置の構成]
 図1は、本実施形態に係る走行支援装置の構成を示すブロック図である。図1に示すように、本実施形態に係る走行支援装置は、物体検出装置1と、自車位置推定装置3と、地図取得装置4と、マイクロコンピュータ100とを備える。
 物体検出装置1は、自車両に搭載されたレーザレーダやミリ波レーダ、カメラなど、自車両の周囲に存在する物体を検出するための複数の異なる種類の物体検出センサを備える。物体検出装置1は、複数の物体検出センサを用いて、自車両の周囲における物体を検出する。物体検出装置1は、他車両、バイク、自転車、歩行者を含む移動物体、及び駐車車両を含む静止物体を検出する。例えば、移動物体及び静止物体の自車両に対する位置、姿勢、大きさ、速度、加速度、減速度、ヨーレート等を検出する。なお、物体の位置、姿勢(ヨー角)、大きさ、速度、加速度、減速度、ヨーレート等を纏めて、物体の「挙動」と呼ぶ。物体検出装置1は、検出結果として、例えば自車両の上方の空中から眺めた天頂図における、2次元の物体の挙動を出力する。
 自車位置推定装置3は、自車両に搭載されたGPS(グローバル・ポジショニング・システム)やオドメトリなど自車両の絶対位置を計測する位置検出センサを備える。自車位置推定装置3は、位置検出センサを用いて、自車両の絶対位置、すなわち、所定の基準点に対する自車両の位置、姿勢及び速度を計測する。
 地図取得装置4は、自車両が走行する道路の構造を示す地図情報を取得する。地図取得装置4は、地図情報を格納した地図データベースを所有してもよいし、クラウドコンピューティングにより地図情報を外部の地図データサーバから取得しても構わない。地図取得装置4が取得する地図情報には、車線の絶対位置や車線の接続関係、相対位置関係などの道路構造の情報が含まれる。
 マイクロコンピュータ100は、物体検出装置1及び自車位置推定装置3による検出結果及び地図取得装置4による取得情報に基づいて、他車両の動作を予測し、他車両の動作から自車両の経路を生成し、生成した経路に従って自車両を制御する。特に、マイクロコンピュータ100は、死角領域内の状況を検出することが可能な物体の挙動に基づいて死角領域内の状況を予測し、予測結果に基づいて自車両の走行支援を行う。
 マイクロコンピュータ100(制御部またはコントローラの一例)は、CPU(中央処理装置)、メモリ、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータ100には、走行支援装置として機能させるためのコンピュータプログラム(走行支援プログラム)がインストールされている。コンピュータプログラムを実行することにより、マイクロコンピュータ100は、走行支援装置が備える複数の情報処理回路(2a、2b、5、10、21、22)として機能する。なお、ここでは、ソフトウェアによって走行支援装置が備える複数の情報処理回路(2a、2b、5、10、21、22)を実現する例を示す。ただし、以下に示す各情報処理を実行するための専用のハードウェアを用意して、情報処理回路(2a、2b、5、10、21、22)を構成することも可能である。また、複数の情報処理回路(2a、2b、5、10、21、22)を個別のハードウェアにより構成してもよい。更に、情報処理回路(2a、2b、5、10、21、22)は、車両に関する他の制御に用いる電子制御ユニット(ECU)と兼用してもよい。
 マイクロコンピュータ100は、複数の情報処理回路(2a、2b、5、10、21、22)として、検出統合部2aと、物体追跡部2bと、地図内位置演算部5と、動作予測部10と、自車経路生成部21と、車両制御部22とを備える。更に、動作予測部10は、挙動判定部11と、動作候補予測部12と、第1動作候補修正部13と、死角領域検出部14と、検出可能物体検出部15と、死角領域状況予測部16と、第2動作候補修正部17と、軌道予測部18と、尤度推定部19とを備える。
 検出統合部2aは、物体検出装置1が備える複数の物体検出センサの各々から得られた複数の検出結果を統合して、各物体に対して一つの検出結果を出力する。具体的には、物体検出センサの各々から得られた物体の挙動から、各物体検出センサの誤差特性などを考慮した上で最も誤差が少なくなる最も合理的な物体の挙動を算出する。具体的には、既知のセンサ・フュージョン技術を用いることにより、複数種類のセンサで取得した検出結果を総合的に評価して、より正確な検出結果を取得する。
 物体追跡部2bは、物体検出装置1によって検出された物体を追跡する。具体的に、検出統合部2aにより統合された検出結果から、異なる時刻に出力された物体の挙動から、異なる時刻間における物体の同一性の検証(対応付け)を行い、かつ、その対応付けを基に、物体の挙動を予測する。なお、異なる時刻に出力された物体の挙動は、マイクロコンピュータ100内のメモリに記憶され、後述する軌道予測の際に用いられる。
 地図内位置演算部5は、自車位置推定装置3により得られた自車両の絶対位置、及び地図取得装置4により取得された地図データから、地図上における自車両の位置及び姿勢を推定する。例えば、自車両が走行している道路、更に当該道路のうちで自車両が走行する車線を特定する。
 動作予測部10では、検出統合部2aにより得られた検出結果と、地図内位置演算部5により特定された自車両の位置に基づいて、自車両の周囲における移動物体の動作を予測する。以下に、動作予測部10の具体的な構成を説明する。
 挙動判定部11は、地図上における自車両の位置と、検出統合部2aにより得られた物体の挙動とから、地図上における物体の挙動を特定する。更に、挙動判定部11は、物体の地図上の位置が時間の経過と共に変化する場合、当該物体は「移動物体」であると判断し、移動物体の大きさ及び速度から、当該移動物体の属性(他車両、歩行者)を判断する。そして、移動物体が走行中の他車両であると判断した場合、挙動判定部11は、当該他車両が走行する道路及び車線を判定する。
 なお、物体の地図上の位置が時間の経過と共に変化しない場合、静止物体であると判断し、静止物体の地図上の位置、姿勢及び大きさから、静止物体の属性(駐車車両、歩行者など)を判定する。
 動作候補予測部12は、地図に基づく他車両の動作候補を予測する。動作候補予測部12は、地図情報に含まれる道路構造及び他車両が属している車線情報から、他車両が次にどのように走行するのかという動作意図を予測し、当該動作意図に基づく他車両の基本軌道を道路構造に基づいて演算する。「動作候補」とは、動作意図及び基本軌道を含む上位概念である。「基本軌道」は、異なる時刻における他車両の位置のプロファイルのみならず、各位置における他車両の速度のプロファイルをも示す。
 例えば、他車両が単車線の単路及びカーブ路を走行する場合、動作候補予測部12は、車線の形状に沿って走行する動作意図(直進)を予測し、基本軌道として、地図上の車線に沿った軌道を演算する。また、他車両が複数車線の単路及びカーブ路を走行する場合、動作候補予測部12は、直進する動作意図(直進)と、右側もしくは左側へ車線変更する動作意図(車線変更)を予測する。動作意図(車線変更)における他車両の基本軌道は、道路構造及び所定の車線変更時間に基づいて車線変更する軌道である。さらに、交差点を走行する場合、動作候補予測部12は、直進、右折及び左折の動作意図を予測し、地図上の交差点における道路構造に基づく直進軌道、右折軌道、左折軌道を基本軌道として演算する。なお、「基本軌道」の演算において、道路構造を考慮するが、検出統合部2aにより統合された他車両の挙動は考慮しない。
 例えば、図2は、2車線のカーブ路を示す図である。自車両51の並走車両52は当該道路の右側車線を走行している。動作候補予測部12は、図2の道路構造及び並走車両52の位置(走行車線)から、そのまま右側車線を走行し続ける動作意図(直進)と、右側車線から左側車線へ車線変更する動作意図(車線変更)とを予測する。そして、カーブ路の道路構造及び所定の車線変更時間に基づいて、図2に示す直進軌道61及び車線変更軌道62を演算する。このように、動作候補予測部12は、並走車両52が走行する道路の構造から並走車両52の動作候補(動作意図及び基本軌道)を予測する。
 第1動作候補修正部13は、物体検出装置1により検出された静止物体を考慮して、動作候補予測部12により予測された動作候補を修正する。具体的に、第1動作候補修正部13は、他車両の基本軌道と静止物体の位置が干渉するか否かを判断する。干渉する場合、静止物体を回避する他車両の動作意図及び基本軌道を新たに追加する。
 また、他車両と同時に、他の移動物体が物体検出装置1により検出されている場合には、第1動作候補修正部13は、他の移動物体を考慮して、動作候補予測部12により予測された動作候補を修正する。具体的に、第1動作候補修正部13は、他の移動物体と他車両の干渉があるか否かを経時的に判断する。移動物体同士の干渉がある場合には、他の移動物体との干渉を回避する他車両の動作意図及び基本軌道を新たに追加する。
 死角領域検出部14は、自車両の周囲において自車両からの死角領域を検出する。具体的に、死角領域検出部14は、物体検出装置1により検出された他車両等の物体によって発生する自車両からの死角領域を検出する。また、死角領域検出部14は、地図情報から自車両の周囲に存在する建物を検出し、その建物によって発生する自車両の死角領域を検出する。例えば、図3に示すように、他車両や建物等の障害物31に対して、障害物31の最も外側となる点P1、P2を特定し、自車両51から点P1、P2へ直線を引いて障害物31の影になる領域33を死角領域として検出する。そして、死角領域検出部14は、こうして検出された死角領域の地図上における位置を特定する。
 尚、例えば、夜や霧、遮蔽物の存在(工事区間、看板)など、走行環境によって乗員の視界が悪い状況では誤認が生じやすいため、本発明に関する実施形態を、走行環境によって乗員の視界が悪い状況のみで実施するようにしてもよい。また、本実施形態における死角領域は、乗員(ドライバ、同乗者)からの死角領域のみならず、車両に搭載された物体検出センサの検出範囲以外の領域も含む概念である。また、遮蔽物がある場合には、死角領域は、自車両と遮蔽物を結ぶ方向で、遮蔽物を挟んで自車両と反対側の領域なども含む概念である。なお、この死角領域は、他車両と遭遇した際に自車両側で算出するようにしてもよいし、予め算出しておいて他車両と遭遇した際に予め算出されたものを適用するようにしてもよい。また、車車間通信、路車間通信を通じて、自車両の外から死角領域の情報を入手するようにしてもよい。
 検出可能物体検出部15は、死角領域検出部14で検出された死角領域内の状況を検出することが可能な物体を検出する。死角領域検出部14によって死角領域の地図上における位置が特定されているので、検出可能物体検出部15は、自車両の周囲に存在する物体のうち死角領域内の状況を検出することが可能な位置に存在する物体を検出する。このとき、検出可能物体検出部15は、自車両の周囲に存在する物体と死角領域との間に視界を妨げるような障害物がなければ、自車両の周囲に存在する物体を、死角領域内の状況を検出することが可能な物体として検出する。
 尚、自車両以外の物体が、死角領域検出部14で検出された死角領域内の状況を検出することが可能であるとは、物体の視認範囲に死角領域が含まれる場合や、物体にセンサが備えられている場合にはセンサの検出範囲に含まれる場合などが考えられる。これらの場合において、物体の視認範囲や、物体に備わるセンサの検出範囲は、自車両で求めるようにしてもよいし、物体に遭遇した場合に毎回算出するのではなく、予め定めたものを物体に遭遇した場合に適用するようにしてもよい。また、車車間通信や路車間通信を用いて、自車両の外から情報を得るようにしてもよい。
 また、死角領域内の状況を検出することが可能な物体は、死角領域内に物体が存在していた場合に、その物体によって挙動に影響を受けることになる。そこで、死角領域内に物体が存在していると仮定して、その物体の挙動と交差する領域を交差領域として抽出し、その交差領域に存在する物体を検出可能な物体として検出してもよい。
 例えば、図4に示すように、自車両51の死角領域33に他車両41が存在していると仮定した場合に、他車両41が直進した場合の挙動と交差する領域として交差領域A1、A2、A3を抽出することができる。そこで、これらの交差領域A1、A2、A3に位置する物体として対向車43を検出し、この対向車43を、死角領域内の状況を検出することが可能な物体として検出してもよい。さらに、検出可能物体検出部15は、死角領域内の状況を検出することが可能な物体を検出すると、検出した物体の移動軌跡や加減速等の動作についても検出する。
 死角領域状況予測部16は、死角領域内の状況を検出することが可能な物体の挙動に基づいて、死角領域内の状況を予測する。例えば、図4に示した例では、優先道路45に非優先道路47が交差している。このような状況において、死角領域状況予測部16は、死角領域内の状況を検出することが可能な物体である対向車43の移動軌跡と加減速を取得する。そして、図5Aに示すように、対向車43が減速せずに交差領域A2へ直進した場合には、死角領域33内に他車両41等の物体が存在しないと予測する。
 また、図5Bに示すように、死角領域状況予測部16は、対向車43の移動軌跡を取得し、対向車43が交差領域A1へ右折した場合には、直進する他車両41が死角領域33内に存在しないと予測する。さらに、死角領域状況予測部16は、直進する他車両41は存在しないが、左折する他車両41は死角領域33内に存在するかもしれないと予測する。
 さらに、図5Cに示すように、死角領域状況予測部16は、対向車43の移動軌跡と加減速を取得する。そして、対向車43が減速せずに交差領域A3へ左折した場合には、死角領域33内に他車両41等の物体が存在しないと予測する。このように、死角領域状況予測部16は、死角領域内の状況を検出することが可能な物体の挙動に基づいて、死角領域内に物体が存在するか否かを予測する。また、死角領域内に存在する物体が左折するか、右折するか等の行動についても予測することができる。
 次に、自車両が走行している道路に合流車がある場合について説明する。図6では、自車両51の並走車両52による死角領域33があり、合流車65が存在している。このような場合に、検出可能物体検出部15は、合流車65がバックミラー等で死角領域33内の状況を検出することが可能であると判断し、合流車65を、死角領域内の状況を検出することが可能な物体として検出する。そして、死角領域状況予測部16は、合流車65がポンピングブレーキ等の後方の車両に対して合図を送るような挙動をした場合に、死角領域内に他車両41が存在すると予測する。
 また、図7では、自車両51の先行車71による死角領域33があり、合流車65が存在している。このような場合に、検出可能物体検出部15は、合流車65を、死角領域内の状況を検出することが可能な物体として検出する。そして、死角領域状況予測部16は、合流車65が先に合流できるタイミングであるにも関わらず減速した場合に、死角領域33内に他車両41が存在すると予測する。
 次に、自車両がT字路を通過する場合について説明する。図8Aでは、自車両51がT字路を右折しようとしており、交差車両81による死角領域33があり、歩行者83が横断歩道を渡ろうとしている。このような場合に、検出可能物体検出部15は、死角領域内の状況を検出することが可能な物体として道路の路肩に存在する物体を検出する。道路の路肩に存在する物体としては、歩行者や自転車、動物、バイク、ベビーカー等が含まれる。図8Aでは、歩行者83を、死角領域内の状況を検出することが可能な物体として検出する。そして、死角領域状況予測部16は、歩行者83が止まることなく横断歩道を通過した場合に、死角領域33内に他車両が存在していないと予測する。
 一方、図8Bでは、歩行者83が横断歩道の手前で止まり、横断歩道を通過しなかった場合を示している。このような場合に、死角領域状況予測部16は、死角領域33内に他車両41が存在し、速度が高く急速に接近していると予測する。
 また、図8Cでは、歩行者83が横断歩道の手前で1回止まり、その後に横断歩道を通過した場合を示している。このような場合に、死角領域状況予測部16は、死角領域33内に他車両41が存在しているが、速度が低くてすぐに接近してくる状況ではないと予測する。
 さらに、図8Dでは、歩行者83が横断歩道の途中で加速して横断歩道を通過した場合を示している。このような場合に、死角領域状況予測部16は、死角領域33内に他車両41が存在して接近していると予測する。
 次に、自車両が道路沿いにある店舗に進入する場合について説明する。図9では、自車両51の前方に先行車71が走行しており、先行車71による死角領域33があり、道路沿いの店舗から他車両41が道路に出ようとしている。このような場合に、検出可能物体検出部15は、死角領域内の状況を検出することが可能な物体として、他車両41を検出する。そして、死角領域状況予測部16は、他車両41が停止した場合に、死角領域33内に対向車43が存在していると予測する。また、他車両41が1回停止して譲り合う動作をした場合も、死角領域33内に対向車43が存在していると予測する。一方、他車両41が止まることなく道路へ出た場合には、死角領域33内に対向車43が存在しないと予測する。
 次に、自車両が路肩の駐車車両を避けて通過する場合について説明する。図10では、駐車車両91による死角領域33があり、自車両51が先行車71の後ろを走行して路肩の駐車車両91を避けて通過しようとしており、対向車43が反対車線を走行している。このような場合に、検出可能物体検出部15は、先行車71を、死角領域内の状況を検出することが可能な物体として検出する。そして、死角領域状況予測部16は、先行車71の予測軌道R1を算出して先行車71の実際の走行軌跡R2と比較し、これらの間に乖離がある場合には、死角領域33内に駐車車両等の障害物31が存在すると予測する。一方、予測軌道R1と実際の走行軌跡R2との間に乖離がない場合には、死角領域33内に駐車車両等の障害物31が存在しないと予測する。
 次に、自車両の対向車が路肩の駐車車両を避けて通過する場合について説明する。図11では、反対車線にある駐車車両91による死角領域33があり、自車両51の対向車43が路肩の駐車車両91を避けて通過しようとしている。このような場合に、検出可能物体検出部15は、対向車43を、死角領域内の状況を検出することが可能な物体として検出する。そして、死角領域状況予測部16は、対向車43が先に駐車車両91を避けて通過するタイミングであるにも関わらず停止した場合には、死角領域33内に歩行者83等の物体が存在すると予測する。一方、対向車43が減速せずに駐車車両91を避けて通過した場合には、死角領域33内に歩行者83等の物体が存在しないと予測する。
 第2動作候補修正部17は、死角領域状況予測部16によって予測された死角領域内の状況を考慮して、動作候補予測部12により予測された動作候補を修正する。具体的には、第2動作候補修正部17は、死角領域の中に障害物がある場合に他車両が取る動作候補を予測し、動作候補予測部12により予測された動作候補に追加する。先ず、第2動作候補修正部17は、死角領域内に、道路上に駐車された車両など、他車両の走行変化を促す障害物が存在するという仮説を立てる。そして、第2動作候補修正部17は、当該仮説の元で、他車両が死角領域内の障害物を回避する動作意図を予測し、当該動作意図に基づく他車両の基本軌道を道路構造に基づいて演算する。
 軌道予測部18は、挙動判定部11において検出された挙動に基づいて、他車両が取る軌道(実効軌道)を予測する。具体的に、軌道予測部18は、上記予測された動作意図にしたがって動作する場合の他車両の実効軌道を、例えばカルマンフィルターなどの既知の状態推定技術を用いて演算する。「実効軌道」は、基本軌道と同様にして、異なる時刻における他車両の位置を示すのみならず、各位置における他車両の速度のプロファイルをも示す。実効軌道と基本軌道は、共に他車両が取る軌道である点で共通するが、実効軌道は他車両の挙動を考慮して演算されるが、基本軌道は他車両の挙動を考慮しないで演算される点で、両者は相違する。
 尤度推定部19は、動作候補予測部12、第1動作候補修正部13、及び第2動作候補修正部17により予測された動作候補と、検出統合部2aにより統合された他車両の挙動とを対比することにより、他車両の動作を予測する。
 具体的に、尤度推定部19は、動作候補予測部12、第1動作候補修正部13、及び第2動作候補修正部17により予測された動作候補の各々について、基本軌道と実効軌道とを対比する。そして、基本軌道と実効軌道との差違から各動作候補の尤度を求める。基本軌道と実効軌道との差違が小さいほど、高い尤度を演算する。最も尤度が高く演算された動作候補は、他車両の挙動を考慮すれば最も尤もらしい動作候補であると判断することができる。よって、尤度推定部19は、最も尤度が高く評価された動作候補を、他車両の動作として決定する。基本軌道と実効軌道との差違は、例えば、両軌道間の位置や速度のプロファイルの差異の総和を基に算出する。
 自車経路生成部21は、動作予測部10によって予測された死角領域内の状況に基づいて、自車両の経路を生成する。例えば、図5A~Cでは、自車両51が交差点を直進しようとしている。この状況において、図5A、図5Cに示す例では、死角領域33内に他車両が存在しないと予測しているので、自車経路生成部21は、自車両51が減速せずに交差点を直進する経路を生成する。一方、図5Bに示す例では、左折する他車両41が存在するかもしれないと予測しているので、自車経路生成部21は、自車両51が交差点の手前で減速してから直進する経路(速度や加速度プロファイルも合わせて計算するようにしてもよい)を生成する。
 また、図6に示す例では、自車両51が走行する道路に合流車65が合流しようとしている。この状況において、死角領域33内に他車両41が存在していると予測された場合には、合流車65の後に他車両41も合流してくる可能性がある。そこで、自車経路生成部21は、他車両41を避けるために並走車両52が車線変更してくるかもしれないので、自車両51を減速させて直進する経路を生成する。一方、死角領域33内に他車両41が存在しないと予測された場合には、自車経路生成部21は、自車両51を減速させずに直進する経路を生成する。
 さらに、図7に示す例では、自車両51が走行する道路に合流車65が合流しようとしている。この状況において、死角領域33内に他車両41が存在していると予測された場合には、他車両41が合流してくる可能性がある。そこで、自車経路生成部21は、先行車71が減速するかもしれないので、自車両51を減速させて直進する経路を生成する。一方、死角領域33内に他車両41が存在しないと予測された場合には、自車経路生成部21は、自車両51を減速させずに直進する経路を生成する。
 また、図8A~Dでは、自車両51がT字路を右折しようとしている。この状況において、図8Aに示す例では、死角領域33内に他車両が存在しないと予測しているので、自車経路生成部21は、自車両51が交差点で右折する経路を生成する。一方、図8B~Dに示す例では、死角領域33内に他車両41が存在するかもしれないと予測しているので、自車経路生成部21は、自車両51が交差点で停止してから右折する経路を生成する。
 さらに、図9に示す例では、自車両51が道路沿いの店舗に進入しようとしている。この状況において、死角領域33内に対向車43が存在していると予測された場合には、自車経路生成部21は、自車両51が停止してから店舗に進入する経路を生成する。一方、死角領域33内に対向車43が存在しないと予測された場合には、自車経路生成部21は、自車両51が停止せずに店舗に進入する経路を生成する。
 また、図10に示す例では、自車両51が駐車車両91を避けて通過しようとしている。この状況において、死角領域33内に障害物31が存在していると予測された場合には、自車経路生成部21は、自車両51が停止して対向車43が通過するまで待ってから直進する経路を生成する。一方、死角領域33内に障害物31が存在しないと予測された場合には、自車経路生成部21は、自車両51が停止せずに駐車車両91を通過して直進する経路を生成する。
 さらに、図11に示す例では、自車両51の対向車43が駐車車両91を避けて通過しようとしている。この状況において、死角領域33内に歩行者83が存在していると予測された場合には、自車経路生成部21は、自車両51が減速してから直進する経路を生成する。一方、死角領域33内に歩行者83が存在しないと予測された場合には、自車経路生成部21は、自車両51が減速せずに直進する経路を生成する。
 車両制御部22では、自車経路生成部21により生成された経路に従って自車両が走行するように、地図内位置演算部5により演算された自己位置に基づいて、アクチュエータを駆動する。駆動するアクチュエータとしては、ステアリングアクチュエータ、アクセルペダルアクチュエータ、及びブレーキペダルアクチュエータのうちの少なくとも1つである。なお、本実施形態では、自車両の経路に従って制御する場合を示すが、自車両の経路を生成せずに、自車両を制御してもよい。
 [走行支援方法]
 図12及び図13を参照して、本実施形態に係る走行支援方法を説明する。先ず、図12に示すように、ステップS01において、物体検出装置1が、複数の物体検出センサを用いて、自車両の周囲における物体の挙動を検出する。ステップS02に進み、検出統合部2aが、複数の物体検出センサの各々から得られた複数の検出結果を統合して、各物体に対して一つの検出結果を出力する。そして、物体追跡部2bが、検出及び統合された各物体を追跡する。
 ステップS03に進み、自車位置推定装置3が、位置検出センサを用いて、所定の基準点に対する自車両の位置、姿勢及び速度を計測する。ステップS04に進み、地図取得装置4が、自車両が走行する道路の構造を示す地図情報を取得する。
 ステップS05に進み、地図内位置演算部5が、ステップS03で計測された自車両の位置、及びステップS04で取得された地図データから、地図上における自車両の位置及び姿勢を推定する。ステップS06に進み、動作予測部10が、ステップS02で得られた検出結果(他車両の挙動)と、ステップS05で特定された自車両の位置に基づいて、自車両の周囲における他車両の動作を予測する。
 ステップS06の詳細を、図13を参照して説明する。先ず、ステップS611において、挙動判定部11が、地図上における自車両の位置と、ステップS02で得られた物体の挙動とから、他車両が走行する道路及び車線を判定する。ステップS612に進み、動作候補予測部12が、地図に基づく他車両の動作候補を予測する。例えば、道路構造から動作意図(直進、車線変更)を予測し、図2に示す直進軌道61及び車線変更軌道62を演算する。
 ステップS613に進み、マイクロコンピュータ100は、ステップS01で検出された全ての他車両についてステップS611及びS612を実施する。実施した後(S613でYES)、ステップS614に進み、第1動作候補修正部13が、ステップS01において同時に検出された静止物体を考慮して、ステップS612で予測された動作候補を修正する。例えば、静止物体を回避する基本軌道を追加する。
 ステップS615に進み、図2に示す並走車両52と同時に、他の移動物体がステップS01において検出されている場合、第1動作候補修正部13が、他の移動物体を考慮して、ステップS612で予測された動作候補を修正する。
 ステップS616に進み、死角領域検出部14が、ステップS01で検出された物体や地図情報から検出された建物によって自車両の周囲に死角領域が発生するか否かを判断する。死角領域が発生する場合(S616でYES)ステップS617に進み、検出可能物体検出部15が、死角領域内の状況を検出することが可能な物体を検出する。
 ステップS618に進み、死角領域状況予測部16が、ステップS617で検出された死角領域内の状況を検出することが可能な物体の挙動に基づいて、死角領域内の状況を予測する。ステップS619に進み、第2動作候補修正部17が、死角領域の状況を考慮して、動作候補予測部12により予測された動作候補を修正する。その後、ステップS620に進む。
 一方、ステップS616で死角領域が発生しない場合(S616でNO)ステップS620に進む。マイクロコンピュータ100は、ステップS01で検出された全ての他車両についてステップS614~S619を実施する。実施した後(S620でYES)、ステップS621に進み、軌道予測部18が、他車両が挙動を維持し、且つ予測された動作意図にしたがって動作する場合の他車両の実効軌道を、例えばカルマンフィルターなどの既知の状態推定技術を用いて演算する。
 ステップS622に進み、尤度推定部19が、S612、S614、S615及びS619で予測された動作候補の各々について、基本軌道と実効軌道とを対比する。そして、基本軌道と実効軌道との差違から各動作候補の尤度を求める。各動作候補の尤度に基づいて、自車両の周囲における他車両の動作を予測する。
 ステップS623に進み、マイクロコンピュータ100は、ステップS01で検出された全ての他車両についてステップS621~S622を実施する。これにより、図12のステップS06が終了する。
 図12のステップS07に進み、自車経路生成部21が、ステップS06で予測された他車両の動作や死角領域内の状況に基づいて、自車両の経路を生成する。ステップS08に進み、車両制御部22が、ステップS07で生成された経路に従って自車両が走行するように、自車両を制御する。尚、ここでは、生成された経路に基づいて走行するように自車両を制御しているが、本実施形態においてはそれに限らず、自車両の車速、加速度、回転角速度、それぞれの所定時間後までのプロファイルを、操舵制御、駆動制御、制動制御など自車両の挙動に関する制御に反映させて、それぞれの制御を実行することもできる。
 [実施形態の効果]
 以上詳細に説明したように、本実施形態に係る走行支援方法及び走行支援装置では、自車両の周囲において自車両の死角領域を検出し、検出された死角領域内の状況を検出することが可能な物体を検出し、検出された物体の挙動に基づいて死角領域内の状況を予測する。これにより、例えば、急加減速や急操舵など、自車両の挙動が急変することを抑制して、乗員に与える違和感を軽減することができる。
 例えば、図11に示す例では、自車両51の対向車43が路肩の駐車車両91を避けて通過しようとしている。このような場合に、従来の車両制御装置では、死角領域33内の状況を予測せずに優先度に基づいて自車両51を制御していたので、死角領域33内に歩行者83が存在している場合には、死角領域33から突然歩行者83が現れるような事態が生じ得る。
 したがって、自車両51の優先度が高くて対向車43が減速したとしても、必ずしも自車両51に道を譲っているとは限らず、死角領域33内に歩行者83が存在している場合も考えられる。このような場合に、従来では、自車両51を減速させずに走行させており、歩行者83が突然現れて急減速等の自車両の挙動を急変させる事態が生じ、乗員に違和感を与えていた。
 しかし、本実施形態に係る走行支援方法及び走行支援装置では、死角領域内の状況を検出することが可能な物体の挙動に基づいて死角領域内の状況を予測するので、死角領域33内に歩行者83が存在していることを予測することができる。これにより、自車両51を予め減速させておくことができるので、歩行者83が現れても自車両51の挙動が急変することを抑制し、乗員に与える違和感を軽減することができる。
 また、本実施形態に係る走行支援方法及び走行支援装置では、死角領域内の状況を検出することが可能な物体の移動軌跡を検出し、検出された移動軌跡に基づいて死角領域内の状況を予測する。これにより、死角領域内に駐車車両等の障害物が存在していることを予め検出することができ、より正確に死角領域内の状況を予測することができる。
 さらに、本実施形態に係る走行支援方法及び走行支援装置では、死角領域内の状況を検出することが可能な物体の加減速を検出し、検出された物体の加減速に基づいて死角領域内の状況を予測する。これにより、死角領域内に存在する他車両等が接近してくる状況を正確に予測することができる。例えば、歩行者が加速して横断歩道を渡った場合には、死角領域内に存在する他車両が接近してくる状況を正確に予測することができる。
 また、本実施形態に係る走行支援方法及び走行支援装置では、死角領域内の状況を検出することが可能な物体の挙動に基づいて死角領域内に物体が存在するか否かを予測する。これにより、死角領域内に物体が存在することを予め知ることができるので、自車両の挙動が急変することを抑制して、乗員に与える違和感を軽減することができる。
 さらに、本実施形態に係る走行支援方法及び走行支援装置では、死角領域内の状況を検出することが可能な物体として道路の路肩に存在する物体を検出し、道路の路肩に存在する物体の挙動に基づいて死角領域内の状況を予測する。これにより、道路の路肩に存在するさまざまな物体の挙動から死角領域内の状況を予測できるので、より正確に死角領域内の状況を予測することができる。
 また、本実施形態に係る走行支援方法及び走行支援装置では、死角領域内の状況を検出することが可能な物体として歩行者を検出し、歩行者の挙動に基づいて死角領域内の状況を予測する。これにより、歩行者の細かな挙動から死角領域内の状況を予測できるので、より正確に死角領域内の状況を予測することができる。
 以上、実施形態に沿って本発明の内容を説明したが、本発明はこれらの記載に限定されるものではなく、種々の変形及び改良が可能であることは、当業者には自明である。
 本実施形態では、マイクロコンピュータ100が、死角領域として自車両の乗員からの死角を設定する。これにより、死角領域を正確に見積もることができるため、予期せぬ物体に応じた操作や挙動(急制動、急操舵など急操作を含む)が生じることを抑制することができる。
 また、本実施形態では、マイクロコンピュータ100が、死角領域として自車両のセンサの検出範囲以外を設定する。これにより、死角領域を正確に見積もることができるため、自動運転制御や走行支援制御(自動ブレーキ)を実行可能な自車両が、自車両の周囲の状況を搭載されたセンサで検出することができる。したがって、検出した物体に応じて車両制御する場合に、死角領域の状況に合わせて車両を制御することができる為、急動作を抑制するなど、乗員に与える違和感を抑制することができる。
 マイクロコンピュータ100は、自動運転制御や走行支援制御(自動ブレーキ等も含む)として、乗員に与える違和感を抑制した制御を実行することができるようになる。例えば、車間距離を調整(短く、または長く)したり、事前に減速したり、路肩に寄せたり、車線を通過する順番を調整したりすることができる。また、事前に死角領域の状況を予測することができるため、自車両51は、急制動、急操舵など急な車両の挙動変化を抑制することができ、自車両51の乗員に与える違和感を抑制することができる。
 また、本実施形態の走行支援方法に関する予測技術は、自車両から検出できる物体の挙動、状況等をコントローラの入力とし、自車両から直接検出されない物体の挙動、状況や、それらに合わせた自車両の走行制御に関する入力(例えば、緊急ブレーキの制動制御量、操舵支援の操舵制御量)等を出力とする形態にも用いることができる。本実施形態においては、車両が入手した情報を入力とし、予め想定した出力が得られるのであれば、コントローラを構成するソフトウェア、ハードウェアの形態、内容にはこだわらない。
 また、本実施形態の走行支援方法に関する予測技術において、死角領域内の状況を予測する内容には、死角領域に物体が存在する確率や、死角領域に物体が存在するとした場合に取り得る行動候補や、その行動候補が実行される確率などが含まれ、それらの確率に基づいて、自車両の走行支援を実行することもできる。
 実施形態では、自車両が自動運転車両である場合を例示したが、自車両が手動運転車両であってもよい。この場合、車両制御部22の代わりに、音声或いは画像などを用いて、ステアリング、アクセル、ブレーキの操作を運転者に対して案内するためのスピーカ、ディスプレイ、及びこれらのユーザインターフェースを制御するコントローラを備えていればよい。
 1 物体検出装置
 2a 検出統合部
 2b 物体追跡部
 3 自車位置推定装置
 4 地図取得装置
 5 地図内位置演算部
 10 動作予測部
 11 挙動判定部
 12 動作候補予測部
 13 第1動作候補修正部
 14 死角領域検出部
 15 検出可能物体検出部
 16 死角領域状況予測部
 17 第2動作候補修正部
 18 軌道予測部
 19 尤度推定部
 21 自車経路生成部
 22 車両制御部
 31 障害物
 33 死角領域
 41 他車両
 43 対向車
 51 自車両
 52 並走車両
 65 合流車
 71 先行車
 81 交差車両
 83 歩行者
 91 駐車車両
 100 マイクロコンピュータ

Claims (7)

  1.  自車両の周囲状況を予測し、予測結果に基づいて前記自車両の走行支援を行う走行支援装置の走行支援方法であって、
     前記自車両の周囲において前記自車両からの死角領域を検出し、
     検出された前記死角領域内の状況を検出することが可能な物体を検出し、
     検出された前記物体の挙動に基づいて、前記死角領域内の状況を予測する
    ことを特徴とする走行支援方法。
  2.  前記死角領域内の状況を検出することが可能な物体の移動軌跡を検出し、
     検出された前記移動軌跡に基づいて、前記死角領域内の状況を予測する
    ことを特徴とする請求項1に記載の走行支援方法。
  3.  前記死角領域内の状況を検出することが可能な物体の加減速を検出し、
     検出された前記物体の加減速に基づいて、前記死角領域内の状況を予測する
    ことを特徴とする請求項1又は2に記載の走行支援方法。
  4.  前記死角領域内の状況を検出することが可能な物体の挙動に基づいて、前記死角領域内に物体が存在するか否かを予測する
    ことを特徴とする請求項1~3のいずれか1項に記載の走行支援方法。
  5.  前記死角領域内の状況を検出することが可能な物体として道路の路肩に存在する物体を検出し、
     前記道路の路肩に存在する物体の挙動に基づいて、前記死角領域内の状況を予測する
    ことを特徴とする請求項1~4のいずれか1項に記載の走行支援方法。
  6.  前記死角領域内の状況を検出することが可能な物体として歩行者を検出し、
     前記歩行者の挙動に基づいて、前記死角領域内の状況を予測する
    ことを特徴とする請求項1~5のいずれか1項に記載の走行支援方法。
  7.  自車両の周囲状況を予測し、予測結果に基づいて前記自車両の走行支援を行う走行支援装置であって、
     前記自車両の周囲において前記自車両の死角領域を検出する死角領域検出部と、
     検出された前記死角領域内の状況を検出することが可能な物体を検出する検出可能物体検出部と、
     検出された前記物体の挙動に基づいて、前記死角領域内の状況を予測する死角領域状況予測部と
    を備えることを特徴とする走行支援装置。
PCT/JP2017/016338 2017-04-25 2017-04-25 走行支援方法及び走行支援装置 WO2018198186A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/016338 WO2018198186A1 (ja) 2017-04-25 2017-04-25 走行支援方法及び走行支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/016338 WO2018198186A1 (ja) 2017-04-25 2017-04-25 走行支援方法及び走行支援装置

Publications (1)

Publication Number Publication Date
WO2018198186A1 true WO2018198186A1 (ja) 2018-11-01

Family

ID=63919525

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/016338 WO2018198186A1 (ja) 2017-04-25 2017-04-25 走行支援方法及び走行支援装置

Country Status (1)

Country Link
WO (1) WO2018198186A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020194017A1 (ja) * 2019-03-27 2020-10-01
RU2773761C1 (ru) * 2019-03-27 2022-06-09 Ниссан Мотор Ко., Лтд. Способ прогнозирования поведения и устройство прогнозирования поведения для мобильного субъекта и транспортное средство
WO2023127186A1 (ja) * 2021-12-27 2023-07-06 日立Astemo株式会社 電子制御装置、及びオブジェクトの管理方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012104029A (ja) * 2010-11-12 2012-05-31 Toyota Motor Corp 危険度算出装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012104029A (ja) * 2010-11-12 2012-05-31 Toyota Motor Corp 危険度算出装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020194017A1 (ja) * 2019-03-27 2020-10-01
WO2020194017A1 (ja) * 2019-03-27 2020-10-01 日産自動車株式会社 移動体の挙動予測方法、挙動予測装置及び車両
RU2773761C1 (ru) * 2019-03-27 2022-06-09 Ниссан Мотор Ко., Лтд. Способ прогнозирования поведения и устройство прогнозирования поведения для мобильного субъекта и транспортное средство
JP7251611B2 (ja) 2019-03-27 2023-04-04 日産自動車株式会社 移動体の挙動予測方法、挙動予測装置及び車両
WO2023127186A1 (ja) * 2021-12-27 2023-07-06 日立Astemo株式会社 電子制御装置、及びオブジェクトの管理方法

Similar Documents

Publication Publication Date Title
JP6798611B2 (ja) 走行支援方法及び走行支援装置
CN110352450B (zh) 驾驶辅助方法及驾驶辅助装置
US11945434B2 (en) Delay decision making for autonomous driving vehicles in response to obstacles based on confidence level and distance
JP6773220B2 (ja) 走行支援装置の走行支援方法及び走行支援装置
JP6874834B2 (ja) 走行支援装置の動作予測方法及び動作予測装置
US20170101092A1 (en) Driving support apparatus
JP6380920B2 (ja) 車両制御装置
JP7266709B2 (ja) 車両制御方法及び車両制御装置
JP7167977B2 (ja) 車両走行支援方法及び車両走行支援装置
JP7193202B2 (ja) 動作予測方法及び動作予測装置
WO2020148561A1 (ja) 運転支援方法及び運転支援装置
WO2018198186A1 (ja) 走行支援方法及び走行支援装置
US11505211B2 (en) Relative speed based speed planning for buffer area
JP7143893B2 (ja) 車両挙動予測方法及び車両挙動予測装置
JP7223588B2 (ja) 運転特性推定方法及び運転特性推定装置
WO2018198163A1 (ja) 周囲状況予測方法及び周囲状況予測装置
JP2019151261A (ja) 運転特性推定方法及び運転特性推定装置
JP2020161062A (ja) 走行車線推薦方法、走行車線推薦装置、走行制御方法及び走行制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17907976

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17907976

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP