WO2018211582A1 - 走行支援装置の動作予測方法及び動作予測装置 - Google Patents

走行支援装置の動作予測方法及び動作予測装置 Download PDF

Info

Publication number
WO2018211582A1
WO2018211582A1 PCT/JP2017/018297 JP2017018297W WO2018211582A1 WO 2018211582 A1 WO2018211582 A1 WO 2018211582A1 JP 2017018297 W JP2017018297 W JP 2017018297W WO 2018211582 A1 WO2018211582 A1 WO 2018211582A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
road surface
unit
motion
trajectory
Prior art date
Application number
PCT/JP2017/018297
Other languages
English (en)
French (fr)
Inventor
卓也 南里
芳 方
翔一 武井
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to EP17910176.1A priority Critical patent/EP3627470A4/en
Priority to RU2019141079A priority patent/RU2721387C1/ru
Priority to MX2019013555A priority patent/MX2019013555A/es
Priority to JP2019518628A priority patent/JP6874834B2/ja
Priority to CN201780090716.7A priority patent/CN110622226A/zh
Priority to BR112019024097-7A priority patent/BR112019024097A2/pt
Priority to KR1020197033266A priority patent/KR20190135051A/ko
Priority to US16/612,896 priority patent/US20200164873A1/en
Priority to PCT/JP2017/018297 priority patent/WO2018211582A1/ja
Priority to CA3063820A priority patent/CA3063820A1/en
Publication of WO2018211582A1 publication Critical patent/WO2018211582A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/07Controlling traffic signals
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/097Supervising of traffic control systems, e.g. by giving an alarm if two crossing streets have green light simultaneously
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/35Road bumpiness, e.g. potholes

Definitions

  • the present invention relates to a motion prediction method and a motion prediction device for a travel support device that supports travel of a host vehicle based on a result of predicting a motion of another vehicle around the host vehicle.
  • the present invention has been made in order to solve such a conventional problem, and an object of the present invention is to provide an operation prediction method and an operation prediction device for a driving support device that improve the prediction accuracy of the operation of another vehicle. It is to provide.
  • the operation prediction method for a driving support apparatus acquires information indicating a road surface state around another vehicle, and predicts the operation of the other vehicle based on the information indicating the road surface state.
  • the prediction accuracy of the operation of other vehicles can be improved.
  • FIG. 1 is a block diagram illustrating a configuration of a travel support apparatus and an operation prediction apparatus according to the embodiment.
  • FIG. 2 is a flowchart illustrating an example of operations of the driving support device and the motion prediction device of FIG.
  • FIG. 3 is a flowchart showing an example of a detailed procedure of step 06 in FIG.
  • FIG. 4 shows a sidewalk near the puddle 53 in a traveling scene in which the host vehicle 51 travels in the right lane and the other vehicle 52 travels in the left lane diagonally forward of the host vehicle 51 on a two-lane one-way street. It is a zenith figure which shows the case where the pedestrian 55 exists.
  • FIG. 4 shows a sidewalk near the puddle 53 in a traveling scene in which the host vehicle 51 travels in the right lane and the other vehicle 52 travels in the left lane diagonally forward of the host vehicle 51 on a two-lane one-way street. It is a zenith figure which shows the case where the pedestrian 55 exists.
  • FIG. 5 shows an adjacent road near the puddle 53 in a traveling scene in which the host vehicle 51 travels in the right lane and the preceding vehicle 52 travels in the left lane diagonally forward of the host vehicle 51 on a two-lane one-way street. It is a zenith figure which shows the case where the preceding vehicle 56 exists in a lane.
  • FIG. 6 is a zenith view showing the other vehicle 52 stopped in the intersection and the eaves 54a and 54b formed on the road surface around the other vehicle 52.
  • FIG. 7A is a zenith view showing a basic trajectory (straight) 61 and an effective trajectory (straight) 71 of another vehicle 52 traveling on a two-lane curved road.
  • FIG. 7B is a zenith view showing a basic track (lane change) 62 and an effective track (lane change) 72 of another vehicle 52 traveling on a two-lane curved road.
  • the travel support apparatus functions effectively in, for example, a travel scene as shown in FIG.
  • the host vehicle 51 travels in the right lane
  • the other vehicle 52 travels in the left lane diagonally forward of the host vehicle 51.
  • the other vehicle 52 can avoid the puddle 53 and maintain the traveling direction by temporarily changing the course to the right side. Therefore, the other vehicle 52 has a possibility (likelihood) of selecting the track 64 rather than the track 63.
  • the own vehicle 51 can predict the operation of the other vehicle 52 that protrudes from the own lane, it is not necessary to suddenly change its own behavior, and the uncomfortable feeling given to the passenger of the own vehicle 51 can be reduced.
  • the travel support device includes an object detection device 1, a vehicle position estimation device 3, a map acquisition device 4, and a microcomputer 100.
  • the object detection device 1 includes a plurality of different types of object detection sensors that detect objects around the host vehicle 51 such as a laser radar, a millimeter wave radar, and a camera mounted on the host vehicle 51.
  • the object detection device 1 detects an object around the host vehicle 51 using a plurality of object detection sensors.
  • the object detection device 1 detects other vehicles, motorcycles, bicycles, moving objects including pedestrians, and stationary objects including parked vehicles. For example, the position, posture, size, speed, acceleration, deceleration, and yaw rate of the moving object and the stationary object with respect to the host vehicle 51 are detected.
  • the position, posture (yaw angle), size, speed, acceleration, deceleration, and yaw rate of the object are collectively referred to as “behavior” of the object.
  • the object detection device 1 outputs, for example, the behavior of a two-dimensional object in a zenith view (also referred to as a plan view) viewed from the air above the host vehicle 51.
  • the own vehicle position estimation device 3 includes a position detection sensor mounted on the own vehicle 51 for measuring the absolute position of the own vehicle 51 such as a GPS (Global Positioning System) or odometry.
  • the own vehicle position estimation device 3 uses the position detection sensor to measure the absolute position of the own vehicle 51, that is, the position, posture, and speed of the own vehicle 51 with respect to a predetermined reference point.
  • the map acquisition device 4 acquires map information indicating the structure of the road on which the host vehicle 51 travels.
  • the map acquisition device 4 may own a map database storing map information, or may acquire map information from an external map data server by cloud computing.
  • the map information acquired by the map acquisition device 4 includes road structure information such as absolute lane positions, lane connection relationships, and relative position relationships.
  • the map acquisition device 4 acquires frequently updated map information (for example, information embedded in a dynamic map). Specifically, the map acquisition device 4 has dynamic information updated with a frequency of 1 second or less, quasi-dynamic information updated with a frequency of 1 minute or less, and quasi-static updated with a frequency of 1 hour or less. Information is acquired from outside the host vehicle 51 by wireless communication. For example, dynamic information includes information on surrounding vehicles, pedestrians, and traffic lights, quasi-static information includes accident information, traffic jam information, and narrow-area weather information, and quasi-static information includes traffic Includes regulatory information, road construction information, and regional weather information. On the other hand, the above-described “map information indicating the structure of the road” corresponds to static information updated with a frequency of one hour or less.
  • the microcomputer 100 (an example of a control unit) predicts the operation of the other vehicle 52 based on the detection result by the object detection device 1 and the own vehicle position estimation device 3 and the acquisition information by the map acquisition device 4.
  • the route of the own vehicle 51 is generated from the operation, and the own vehicle 51 is controlled according to the generated route.
  • the microcomputer 100 will be described as an example of a travel support device that controls the host vehicle 51.
  • the microcomputer 100 can be implemented as a motion prediction device that predicts the motion of another vehicle. That is, the microcomputer 100 may finally output the predicted operation of the other vehicle without performing route generation of the host vehicle 51 and driving support along the route.
  • the microcomputer 100 is a general-purpose microcomputer including a CPU (Central Processing Unit), a memory, and an input / output unit.
  • the microcomputer 100 is installed with a computer program (driving support program) for functioning as a driving support device.
  • the microcomputer 100 functions as a plurality of information processing circuits (2a, 2b, 5, 10, 21, 22) included in the driving support device.
  • achieves the several information processing circuit (2a, 2b, 5, 10, 21, 22) with which a driving assistance apparatus is provided with a software here is shown, of course, in order to perform each information processing shown below It is also possible to prepare information processing circuits (2a, 2b, 5, 10, 21, 22) by preparing dedicated hardware.
  • the plurality of information processing circuits (2a, 2b, 5, 10, 21, 22) may be configured by individual hardware. Furthermore, the information processing circuit (2a, 2b, 5, 10, 21, 22) may be used also as an electronic control unit (ECU) used for other control related to the vehicle.
  • ECU electronice control unit
  • the microcomputer 100 includes, as a plurality of information processing circuits (2a, 2b, 5, 10, 21, 22), a detection integration unit 2a, an object tracking unit 2b, an in-map position calculation unit 5, and an operation prediction unit 10.
  • the vehicle route generation unit 21 and the vehicle control unit 22 are provided.
  • the motion prediction unit 10 includes a behavior determination unit 11, a motion candidate prediction unit 12, a first motion candidate correction unit 13, a second motion candidate correction unit 15, a trajectory prediction unit 16, and a likelihood estimation unit 17. And a road surface state acquisition unit 18 and a forward object determination unit 19.
  • the information processing circuit (the own vehicle path
  • the detection integration unit 2a integrates a plurality of detection results obtained from each of the plurality of object detection sensors provided in the object detection device 1, and outputs one detection result for each object. Specifically, the most rational behavior of the object with the smallest error is calculated from the behavior of the object obtained from each of the object detection sensors in consideration of error characteristics of each object detection sensor. Specifically, by using a known sensor fusion technique, the detection results obtained by a plurality of types of sensors are comprehensively evaluated to obtain a more accurate detection result.
  • the object tracking unit 2b tracks the object detected by the object detection device 1. Specifically, from the detection result integrated by the detection integration unit 2a, the identity of the object at different times is verified (associated) from the behavior of the object output at different times, and the association is performed. Based on this, the behavior of the object is predicted. Note that the behaviors of the objects output at different times are stored in a memory in the microcomputer 100 and used for trajectory prediction described later.
  • the in-map position calculation unit 5 estimates the position and orientation of the host vehicle 51 on the map from the absolute position of the host vehicle 51 obtained by the host vehicle position estimation device 3 and the map data acquired by the map acquisition device 4. To do. For example, the road on which the host vehicle 51 is traveling and the lane on which the host vehicle 51 is traveling are identified.
  • the motion prediction unit 10 predicts the motion of the moving object around the host vehicle 51 based on the detection result obtained by the detection integration unit 2 a and the position of the host vehicle 51 specified by the in-map position calculation unit 5. .
  • a specific configuration of the motion prediction unit 10 will be described.
  • the behavior determination unit 11 specifies the position and behavior of the object on the map from the position of the host vehicle 51 on the map and the behavior of the object obtained by the detection integration unit 2a. Furthermore, when the position of the object on the map changes with time, the behavior determination unit 11 determines that the object is a “moving object” and determines the attribute of the moving object from the size and speed of the moving object. (Other vehicles, pedestrians while traveling) are determined. When it is determined that the moving object is the “other vehicle” that is traveling, the behavior determination unit 11 determines the road and lane on which the other vehicle travels.
  • the position of the object on the map does not change with time, it is determined that the object is a stationary object, and the attribute of the stationary object (other vehicles that are stopped, parking) is determined from the position, orientation, and size of the stationary object on the map. Vehicle, pedestrian, etc.).
  • the motion candidate prediction unit 12 predicts motion candidates for other vehicles based on the map.
  • the motion candidate prediction unit 12 predicts the motion intention of how the other vehicle will travel next from the road structure included in the map information and the lane information to which the other vehicle belongs, and the other vehicle based on the motion intention Are calculated based on the road structure.
  • the “motion candidate” is a superordinate concept including a motion intention and a basic trajectory.
  • the “basic track” indicates not only the profile of the position of the other vehicle at different times but also the profile of the speed of the other vehicle at each position.
  • the motion candidate prediction unit 12 predicts a motion intention (straight forward) traveling along the shape of the lane, and uses the lane on the map as a basic track. Calculate the trajectory along When the other vehicle travels on a single road or a curved road with a plurality of lanes, the motion candidate prediction unit 12 predicts the motion intention (straight forward) and the motion intention (lane change) to change the lane to the right side or the left side.
  • the basic trajectory of the other vehicle in the operation intention (lane change) is a trajectory for changing the lane based on the road structure and a predetermined lane change time.
  • the motion candidate prediction unit 12 predicts the intention to move straight, turn right, and turn left, and calculates a straight trajectory, a right turn trajectory, and a left turn trajectory based on the road structure at the intersection on the map as a basic trajectory. .
  • the road structure is considered, but the behavior of the other vehicle integrated by the detection integration unit 2a is not considered.
  • the motion candidate prediction unit 12 can calculate the motion intention (straight forward) and the basic track 63 that travel along the left lane. However, the motion candidate prediction unit 12 does not calculate the trajectory 64 that avoids the puddle 53 and maintains the traveling direction.
  • the first motion candidate correction unit 13 corrects the motion candidate predicted by the motion candidate prediction unit 12 in consideration of the stationary object detected by the object detection device 1. Specifically, the first motion candidate correction unit 13 determines whether or not the basic track of the other vehicle interferes with the position of the stationary object. In the case of interference, a motion intention and a basic trajectory of another vehicle 52 that avoids a stationary object are newly added.
  • the first motion candidate correction unit 13 When another moving object is detected by the object detection device 1 at the same time as the other vehicle 52 shown in FIG. 4 (not shown), the first motion candidate correction unit 13 considers the other moving object and is a motion candidate. The motion candidate predicted by the prediction unit 12 is corrected. Specifically, the first motion candidate correction unit 13 determines whether there is interference between another moving object and the other vehicle 52 over time. When there is interference between moving objects, an operation intention and a basic trajectory of another vehicle 52 that avoids interference with other moving objects are newly added.
  • the road surface state acquisition unit 18 acquires information indicating the road surface state around the other vehicle 52.
  • the information indicating the state of the road surface includes information indicating the state of the road surface (low mu road) having low frictional resistance and being slippery. For example, the information which shows the puddle 53 on the road surface, the information which shows the snow part on the road surface, and the information which shows the frozen part of the road surface are included.
  • the information indicating the state of the road surface includes information indicating a bag on the road surface.
  • "Fence on the road surface” indicates the traces of wheels on asphalt, soil, or snow, and on the road surface formed by cutting the asphalt or soil because the wheels have passed the same place on the road many times. Dents and grooves are also included.
  • the traces of the wheels on the snow include not only the dents and grooves on the snow surface, but also the areas where asphalt and soil are exposed on the bottom of the snow surface dents and grooves. It is also possible to detect water accumulated in dents and grooves on the road surface formed by cutting asphalt or soil as dredging on the road surface. It is also possible to detect a part that is partially dry because the wheel has passed many times after the rain has stopped, as a hail on the road surface.
  • the road surface state acquisition unit 18 can acquire information indicating the road surface state from, for example, image data acquired by capturing with a camera mounted on the host vehicle 51. By performing pattern recognition processing on the image data ahead in the traveling direction, the road surface state can be detected. On the other hand, paying attention to the fact that the road surface is in a mirror surface state when wet or frozen, the state of the road surface can also be detected using a change in the polarization characteristics at the mirror surface. Specifically, a place where the difference between the normal image and the polarization image is large may be detected by using a normal camera and a polarization camera equipped with a polarization lens in combination. Or you may acquire the information which shows the state of a road surface from the exterior of the own vehicle 51 as information obtained from an above-described dynamic map. In the embodiment, the method for acquiring the road surface condition is not particularly limited, and other known methods may be used.
  • the forward object determination unit 19 determines whether an object is present ahead of the other vehicle 52 in the traveling direction. For example, it is only necessary to determine whether or not an object (a stationary object and a different animal body) detected by the object detection device 1 includes an object that exists in the forward direction of the other vehicle 52.
  • the region ahead of the other vehicle 52 in the traveling direction is a region ahead of the traveling direction with respect to a straight line that passes through the center of the other vehicle 52 and extends in the vehicle width direction.
  • the forward object determination unit 19 is adjacent to a preceding vehicle 56 (see FIG. 5) traveling in the own lane or the adjacent lane on which the other vehicle 52 travels, a vehicle parked in the own lane or the adjacent lane, a roadside belt or a roadway.
  • a pedestrian 55 (see FIG. 4) on the sidewalk is detected.
  • the second motion candidate correction unit 15 corrects the motion candidate predicted by the motion candidate prediction unit 12 based on at least information indicating the road surface state detected by the road surface state acquisition unit 18. Specifically, first, the second motion candidate correction unit 15 avoids the location of the low mu road when information indicating the state of the low mu road (for example, the puddle 53, the snow covered portion, the frozen portion in FIG. 4) is acquired. The operation intention of the other vehicle 52 and the basic track 64 are newly added. Further, the second motion candidate correction unit 15 newly adds the motion intention and the basic track 63 of the other vehicle 52 that passes through the place of the low mu road at a low speed.
  • the second motion candidate correction unit 15 acquires information indicating a saddle on the road surface
  • the second motion candidate correction unit 15 newly adds the motion intention and the basic trajectory of the other vehicle 52 traveling along the road surface. For example, as shown in FIG. 6, the other vehicle 52 is stopped before or within the intersection. On the road surface around the other vehicle 52, there are ridges 54a and 54b.
  • the operation intention and the basic track of the other vehicle 52 that travels along the eaves 54a and 54b are newly added.
  • the second motion candidate correction unit 15 may correct the motion candidate newly added by the second motion candidate correction unit 15 based on the determination result by the front object determination unit 19. Specifically, the likelihood for the motion candidate newly added by the second motion candidate correction unit 15 is estimated according to whether or not an object exists in front of the other vehicle 52 in the traveling direction.
  • the second motion candidate correcting unit 15 when there is a pedestrian 55 on the sidewalk near the puddle 53 shown in FIG. 4 or when there is no preceding vehicle in the adjacent lane (right lane) near the puddle 53, the second motion candidate correcting unit 15 However, the possibility (likelihood) of selecting the trajectory 64 is set higher than that of the trajectory 63.
  • the second motion candidate The correction unit 15 sets the possibility (likelihood) of selecting the track 64 to be lower and sets the possibility (likelihood) to select the track 63 to be higher than that in the traveling scene shown in FIG.
  • the second motion candidate correction unit 15 does not splash the water in the puddle 53 based on the determination result by the front object determination unit 19. You may add the operation candidate of the other vehicle 52 which slows down and passes the puddle 53 newly.
  • the second motion candidate correction unit 15 may be a motion candidate of the other vehicle 52 that travels along the heel 54a or the heel 54b if there is no object (obstacle) on the heel 54a or the heel 54b shown in FIG. The likelihood for is set high.
  • the second motion candidate correction unit 15 reduces the likelihood of the motion candidate of the other vehicle 52 traveling along the ⁇ 54a or ⁇ 54b. Set, and set a high likelihood for the motion candidate to avoid the object (obstacle).
  • the trajectory prediction unit 16 predicts a trajectory (effective trajectory) taken by the other vehicle 52 based on the behavior detected by the behavior determination unit 11. Specifically, the trajectory prediction unit 16 calculates the effective trajectory of the other vehicle 52 when operating according to the predicted motion intention using a known state estimation technique such as a Kalman filter.
  • the “effective trajectory” indicates not only the position of the other vehicle 52 at different times but also the speed profile of the other vehicle 52 at each position in the same manner as the basic trajectory.
  • the effective trajectory and the basic trajectory are common in that they are trajectories taken by the other vehicle 52, but the effective trajectory is calculated in consideration of the behavior of the other vehicle 52, but the basic trajectory does not consider the behavior of the other vehicle. They are different in that they are calculated.
  • the trajectory prediction unit 16 calculates the trajectory (effective trajectory) according to the above-described motion intention in consideration of the behavior of the other vehicle 52. In other words, the effective trajectory of the other vehicle 52 is calculated when the operation in accordance with the above-described operation intention is taken.
  • FIG. 4 and 5 are also examples of the basic track of the other vehicle 52 derived based on the operation intention of the other vehicle 52 and the road structure.
  • the saddles (54a, 54b) on the road surface shown in FIG. 6 are also examples of the basic track of the other vehicle 52 that travels along the saddles (54a, 54b).
  • the posture (yaw angle) of the other vehicle 52 is tilted to the left of the basic track 61 for traveling along the shape of the road, and the speed of the other vehicle 52 is composed only of the speed component in the traveling direction.
  • the speed component in the vehicle width direction is zero. That is, the other vehicle 52 is in a straight traveling state. Therefore, when the other vehicle 52 travels according to the motion intention of traveling along the shape of the road starting from this posture and speed, as shown in FIG. 7A, the vehicle 52 approaches the basic track 61 after leaving the basic track 61 to the left.
  • the effective trajectories 71 coincide with each other. In other words, it is predicted that a correction trajectory (overshoot trajectory) that corrects the deviation from the travel lane is drawn.
  • the trajectory prediction unit 16 predicts an effective trajectory 71 that travels according to the motion intention (straight forward) along the road shape, starting from the attitude (yaw angle) and speed of the other vehicle 52.
  • the effective track 72 is corrected to the track along the left lane. That is, an effective trajectory 72 is formed which includes a left-turning clothoid curve and a right-turning clothoid curve starting from a state where the steering angle is in the neutral position. Therefore, the effective track 72 is a track in which the lane change is completed over substantially the same time as the “predetermined lane change time” when the lane change track 62 is calculated.
  • the curve for drawing the execution trajectory does not necessarily need to be a clothoid curve, and may be drawn using other curves. As shown in FIG. 7B, the effective track 72 is substantially the same track as the basic track 62 in the lane change.
  • the trajectory prediction unit 16 also uses the other vehicle 52 for the basic trajectories (63, 64) and the saddles (54a, 54b) that can be regarded as the basic trajectories shown in FIGS.
  • the trajectory (effective trajectory) according to the motion intention is calculated in consideration of the behavior of.
  • the effective trajectory of the other vehicle 52 traveling according to the intention is calculated.
  • the effective trajectory may be calculated in consideration of the acceleration and deceleration of the other vehicle 52. For example, it can be predicted that the deceleration at the time of lane change is larger than that in the straight line.
  • the likelihood estimation unit 17 includes the motion candidates predicted by the motion candidate prediction unit 12, the first motion candidate correction unit 13, and the second motion candidate correction unit 15, and the behavior of the other vehicle 52 integrated by the detection integration unit 2a. By comparing these, the operation of the other vehicle 52 is predicted. Further, the likelihood estimating unit 17 predicts the operation of the other vehicle 52 in consideration of the likelihood predicted by the second operation candidate correcting unit 15.
  • the likelihood estimating unit 17 compares the basic trajectory and the effective trajectory for each of the motion candidates predicted by the motion candidate predicting unit 12, the first motion candidate correcting unit 13, and the second motion candidate correcting unit 15. To do. Then, the likelihood of each motion candidate is obtained from the difference between the basic trajectory and the effective trajectory. The smaller the difference between the basic trajectory and the effective trajectory, the higher the likelihood.
  • the likelihood estimating unit 17 weights the likelihood of each motion candidate based on the likelihood predicted by the second motion candidate correcting unit 15. For example, the likelihood predicted by the second motion candidate correction unit 15 is multiplied by the likelihood of each motion candidate as a coefficient. Thereby, the likelihood predicted by the second motion candidate correcting unit 15 can be combined with the likelihood estimated by the likelihood estimating unit 17. For example, the likelihood estimation unit 17 multiplies the likelihood of the motion candidate 64 that avoids the puddle 53 by a larger coefficient than the likelihood of the motion candidate 63 that passes through the puddle 53 at a low speed in the scene illustrated in FIG.
  • the motion candidate calculated with the highest likelihood can be determined as the most likely motion candidate in consideration of the behavior of the other vehicle 52 and the road surface condition. Therefore, the likelihood estimation unit 17 determines the motion candidate with the highest likelihood as the motion of the other vehicle 52.
  • the difference between the basic trajectory and the effective trajectory is calculated based on, for example, the sum of differences in position and speed profiles between the two trajectories. Areas S1 and S2 shown in FIGS. 7A and 7B are an example of a sum total obtained by integrating the difference in position between the basic trajectory and the effective trajectory. Since it can be determined that the smaller the area, the smaller the difference in position, the higher likelihood is calculated. As another example, even if the difference in position is small, a low likelihood can be calculated if the speed profiles differ greatly.
  • the likelihood is an example of an index representing the possibility that the motion candidate actually occurs, and may be an expression other than the likelihood.
  • the likelihood estimation unit 17 calculates the likelihood for each of the motion candidates (63, 64, 54a, 54b) shown in FIGS. 4 to 6 by comparing the basic trajectory with the effective trajectory, and further calculates the likelihood. Multiply each time by a coefficient (likelihood predicted by the second motion candidate correction unit 15). Then, the motion candidate (63, 64, 54a, 54b) having the greatest likelihood is determined as the motion of the other vehicle 52.
  • the motion prediction unit 10 predicts the motion of the other vehicle 52 based on the likelihood of each motion candidate assumed by the likelihood estimation unit 17.
  • the “operation of other vehicle” includes a track and speed profile of the other vehicle.
  • the track of the other vehicle 52 indicates a profile of the position of the other vehicle 52 at a different time.
  • the own vehicle route generation unit 21 generates a route of the own vehicle 51 based on the operation of the other vehicle 52 predicted by the operation prediction unit 10. For example, when the motion prediction unit 10 predicts the motion 64 shown in FIG. 4, the route of the host vehicle 51 can be generated after the lane departure of the other vehicle 52 is predicted.
  • the route of the host vehicle 51 is a route that does not interfere with an operation (intention) that avoids the puddle 53, and specifically, a route that decelerates the other vehicle 52 so as to pass the side of the puddle 53 first.
  • a route that travels to the right side in the right lane may be used.
  • a route for performing a lane change in advance may be used.
  • the “route of the host vehicle 51” indicates not only the profile of the position of the host vehicle 51 at different times but also the profile of the speed of the host vehicle 51 at each position.
  • the operation of the other vehicle including the track of the other vehicle 52 is predicted. Therefore, generating the route of the host vehicle 51 based on the track of the other vehicle 52 generates the route of the host vehicle 51 based on a change in relative distance from the other vehicle 52, acceleration / deceleration, or a difference in attitude angle. Will be.
  • the behavior of the other vehicle 52 causes the host vehicle 51 to go first. It can be interpreted that this indicates an operation intention to select the orbit 64.
  • the route of the own vehicle 51 is formed in consideration of the operation intention of the other vehicle 52, or by controlling the own vehicle 51, the own vehicle 51 does not decelerate or accelerates and the side of the puddle 53 comes first. Can pass through. Thereby, since the situation where both the other vehicle 52 and the own vehicle 51 yield can be avoided, a smooth traffic flow can be realized.
  • a steering actuator, an accelerator pedal actuator, an accelerator pedal actuator based on the own position calculated by the in-map position calculation unit 5 so that the own vehicle 51 travels according to the route generated by the own vehicle route generation unit 21. And at least one of the brake pedal actuators.
  • FIGS. 2 and 3 a driving support method using the driving support apparatus of FIG. 1 will be described.
  • the microcomputer 100 of FIG. 1 as an operation predicting device that predicts the operation of the other vehicle 52, it can be implemented as an operation predicting method for finally outputting the result of the processing operation shown in step S06 of FIG.
  • step S01 the object detection device 1 detects the behavior of an object around the host vehicle 51 using a plurality of object detection sensors.
  • step S02 the detection integration unit 2a integrates a plurality of detection results obtained from each of the plurality of object detection sensors, and outputs one detection result for each object. Then, the object tracking unit 2b tracks each detected and integrated object.
  • the vehicle position estimation device 3 measures the position, posture and speed of the vehicle 51 with respect to a predetermined reference point using the position detection sensor.
  • the map acquisition device 4 acquires map information indicating the structure of the road on which the host vehicle 51 travels.
  • step S05 the in-map position calculation unit 5 estimates the position and orientation of the host vehicle 51 on the map from the position of the host vehicle 51 measured in step S03 and the map data acquired in step S04. Proceeding to step S06, the motion predicting unit 10 determines whether the motion prediction unit 10 is in the vicinity of the host vehicle 51 based on the detection result (behavior of the other vehicle 52) obtained in step S02 and the position of the host vehicle 51 specified in step S05. The operation of the vehicle 52 is predicted.
  • step S611 the behavior determination unit 11 determines the road and lane on which the other vehicle 52 travels from the position of the host vehicle 51 on the map and the behavior of the object obtained in step S02.
  • step S612 the motion candidate prediction unit 12 predicts motion candidates for the other vehicle 52 based on the map. For example, the motion intention is predicted from the road structure.
  • step S613 the microcomputer 100 performs steps S611 and S612 for all other vehicles 52 detected in step S01. After the execution (YES in S613), the process proceeds to step S614, and the first motion candidate correction unit 13 corrects the motion candidate predicted in step S612 in consideration of the stationary object detected simultaneously in step S01.
  • step S615 when another moving object is detected in step S01 at the same time as the other vehicle 52, the first motion candidate correction unit 13 is predicted in step S612 in consideration of the other moving object. Correct motion candidates.
  • the road surface state acquisition unit 18 acquires information indicating the state of the road surface around the other vehicle 52. For example, information indicating the puddle 53 illustrated in FIGS. 4 and 5 and the ridges 54a and 54b illustrated in FIG. 6 is acquired.
  • the forward object determination unit 19 determines whether or not the object (stationary object and different animal body) detected by the object detection device 1 includes an object that exists in the forward direction of the other vehicle 52. Judging. For example, the front object determination unit 19 detects a preceding vehicle 56 (see FIG. 5) traveling in front of the other vehicle 52 and a pedestrian 55 (see FIG. 4) on a sidewalk adjacent to the roadway.
  • the second motion candidate correcting unit 15 corrects the motion candidate predicted by the motion candidate predicting unit 12 based on at least the information indicating the road surface state detected by the road surface state acquiring unit 18. For example, when the information indicating the state of the low mu road (for example, the puddle 53, the snow covered portion, the frozen portion in FIG. 4) is acquired, the operation intention and the basic trajectory 64 of the other vehicle 52 that avoids the low mu road location, and The operation intention of the other vehicle 52 passing through the place of the low mu road at a low speed and the basic track 63 are newly added. As shown in FIG. 6, when information indicating the eaves 54a and 54b on the road surface is acquired, the operation intention and the basic track of the other vehicle 52 traveling along the eaves 54a and 54b are newly added.
  • the second motion candidate correction unit 15 estimates the likelihood for the motion candidate newly added by the second motion candidate correction unit 15 depending on whether or not an object exists ahead of the other vehicle 52 in the traveling direction. To do. For example, the second motion candidate correction unit 15 adjusts the likelihood of the track 63 and the track 64 in accordance with the pedestrian 55 shown in FIG. 4 and the preceding vehicle 56 shown in FIG.
  • step S620 the microcomputer 100 performs steps S614 to S618 for all other vehicles detected in step S01.
  • the process proceeds to step S621, where the trajectory prediction unit 16 maintains the behavior of the other vehicle 52 when the other vehicle 52 maintains the behavior and operates according to the predicted motion intention (71, 72, FIG. 7A and FIG. 7B) is calculated using a known state estimation technique such as a Kalman filter.
  • the likelihood estimating unit 17 compares the basic trajectory (63, 64, 54a, 54b) and the effective trajectory for each of the motion candidates predicted in S612, S614, S615, and S618. Then, the likelihood of each motion candidate is obtained from the difference between the basic trajectory and the effective trajectory. Further, the likelihood estimating unit 17 weights the likelihood of each motion candidate based on the likelihood estimated in step S618. The likelihood estimating unit 17 determines the motion candidate evaluated with the highest likelihood as the motion of the other vehicle 52.
  • step S623 the microcomputer 100 performs steps S621 to S622 for all other vehicles detected in step S01. Thereby, step S06 of FIG. 2 is completed.
  • step S07 the own vehicle route generation unit 21 generates a route of the own vehicle 51 based on the operation of the other vehicle predicted in step S06. Proceeding to step S08, the vehicle control unit 22 controls the host vehicle 51 so that the host vehicle 51 travels according to the route generated at step S07.
  • the microcomputer 100 (an example of a control unit) acquires information indicating the road surface state and predicts the operation of the other vehicle 52 based on the information, the operation of the other vehicle 52 can be predicted with high accuracy. Therefore, the track of the own vehicle 51 can be corrected in consideration of the operation of the other vehicle 52 in accordance with the road surface condition, and the possibility of sudden steering or sudden deceleration of the own vehicle 51 can be suppressed.
  • the microcomputer 100 (an example of a control unit) predicts the operation of the other vehicle 52 in consideration of whether or not there is an object ahead in the traveling direction of the other vehicle 52 in addition to the road surface state. Therefore, the operation of the other vehicle 52 can be predicted with higher accuracy. The occurrence of sudden steering or sudden deceleration of the host vehicle 51 can be suppressed.
  • the operation of the other vehicle 52 can be accurately predicted.
  • the trajectory of the host vehicle 51 can be corrected by predicting the operation of the other vehicle 52 according to the puddle 53. For example, when an object and a puddle 53 exist in front of the other vehicle 52 in the traveling direction, the operation of the other vehicle 52 that avoids the puddle 53 or the operation of the other vehicle 52 that passes without avoiding the puddle 53 can be correctly predicted. it can.
  • the posture and the traveling direction of the other vehicle 52 are specified depending on the sensor configuration that detects the other vehicle 52. It can be difficult. For example, when the other vehicle 52 stopped using a camera or a laser range finder is detected, it is difficult to specify the traveling direction of the other vehicle 52 from the attitude of the other vehicle 52. Therefore, the state of the road surface ( ⁇ 54a, 54b) is detected, and the operation of the other vehicle 52 is predicted based on the detected state. Thereby, even if it is difficult to specify the posture and traveling direction of the other vehicle 52, the operation of the other vehicle 52 can be predicted with high accuracy.
  • the operation of the other vehicle 52 traveling along the eaves 54a and 54b can be accurately predicted.
  • the host vehicle 51 is in an automatic driving mode in which the host vehicle 51 can autonomously run is illustrated, but the host vehicle 51 may be in a manual driving mode by a driver.
  • the microcomputer 100 uses a sound, an image, or the like as control (driving support) of the own vehicle 51 to guide a steering, accelerator, and brake operation to the driver, a display, and these The user interface may be controlled.
  • the case where the trajectory of the own vehicle 51 is adjusted based on the predicted trajectory of the other vehicle 52 is exemplified.
  • the content executed by the own vehicle as travel support is not limited thereto, and the automatic operation is performed based on the prediction result.
  • driving control and driving support control for example, accelerating / decelerating, decelerating in advance, controlling the position in the lane, approaching the shoulder, passing through the lane, etc. You may make it perform control.
  • sudden braking and sudden acceleration / deceleration can be suppressed in the host vehicle 51, so that a sense of discomfort given to the occupant can be suppressed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

自車両(51)の周囲における他車両(52)の動作を予測する動作予測方法であって、他車両(52)の周囲における路面の状態(53、54a、54b)を示す情報を取得し、路面の状態(53、54a、54b)を示す情報に基づいて他車両(52)の動作を予測する。

Description

走行支援装置の動作予測方法及び動作予測装置
 本発明は、自車両の周囲における他車両の動作を予測した結果に基づいて自車両の走行を支援する走行支援装置の動作予測方法及び動作予測装置に関する。
 従来から、先行車の前方のコーナーの情報と、先行車のコーナーへのアプローチ速度とに基づいて、先行車がコーナーを逸脱する可能性を推定し、推定結果に基づいて自車両を制御する車両用制御装置が知られていた。
特開2006-240444号公報
 しかしながら、特許文献1の車両用制御装置は、道路形状に基づいて他車の動作を予測するため、路面の状態に応じた他車両の動作を正しく予測することは難しい。
 本発明は、このような従来の課題を解決するためになされたものであり、その目的とするところは、他車両の動作の予測精度を向上させる走行支援装置の動作予測方法及び動作予測装置を提供することにある。
 本発明の一態様に関わる走行支援装置の動作予測方法は、他車両の周囲における路面の状態を示す情報を取得し、路面の状態を示す情報に基づいて他車両の動作を予測する。
 本発明の一形態によれば、他車両の動作の予測精度を向上させることができる。
図1は、実施形態に係わる走行支援装置及び動作予測装置の構成を示すブロック図である。 図2は、図1の走行支援装置及び動作予測装置の動作の一例を示すフローチャートである。 図3は、図2のステップ06の詳細な手順の一例を示すフローチャートである。 図4は、二車線の一方通行路において、自車両51が右側車線を走行し、自車両51の斜め前方の左側車線を他車両52が並走している走行シーンにおいて、水たまり53付近の歩道に歩行者55がいる場合を示す天頂図である。 図5は、二車線の一方通行路において、自車両51が右側車線を走行し、自車両51の斜め前方の左側車線を先行車両52が並走している走行シーンにおいて、水たまり53付近の隣接車線に先行車56が存在する場合を示す天頂図である。 図6は、交差点内で停車している他車両52及びその周囲の路面に形成された轍54a及び轍54bを示す天頂図である。 図7Aは、二車線のカーブ路を走行する他車両52の基本軌道(直進)61及び実効軌道(直進)71を示す天頂図である。 図7Bは、二車線のカーブ路を走行する他車両52の基本軌道(車線変更)62及び実効軌道(車線変更)72を示す天頂図である。
 次に、図面を参照して、実施形態を詳細に説明する。
 実施形態に係わる走行支援装置は、例えば、図4に示すような走行シーンにおいて有効に機能する。図4に示すように、二車線の一方通行路において、自車両51が右側車線を走行し、自車両51の斜め前方の左側車線を他車両52が並走している。他車両52の進行方向前方の左側車線には水たまり53があり、左側車線に沿って走行する軌道63と水たまり53とは交差している。つまり、他車両42は左側車線に沿って走行した場合、水たまり53の上を通過することになる。
 しかし、図4の軌道64に示すように、他車両52は、一時的に進路を右側に変更することにより、水たまり53を避け且つ進行方向を維持することができる。よって、他車両52は、軌道63よりも軌道64を選択する可能性(尤度)がある。
 このように、例えば、路面上の水たまり53のような路面の状態を考慮して他車両の軌道を予測することにより、他車両の動作予測の精度が高まる。よって、自車両51は、自車線にはみ出してくる他車両52の動作を予測できるため、自らの挙動を急変させる必要が無くなり、自車両51の乗員に与える違和感を低減することができる。
 図1を参照して、実施形態に係わる走行支援装置の構成を説明する。走行支援装置は、物体検出装置1と、自車位置推定装置3と、地図取得装置4と、マイクロコンピュータ100とを備える。
 物体検出装置1は、自車両51に搭載された、レーザレーダやミリ波レーダ、カメラなど、自車両51の周囲の物体を検出する、複数の異なる種類の物体検出センサを備える。物体検出装置1は、複数の物体検出センサを用いて、自車両51の周囲における物体を検出する。物体検出装置1は、他車両、バイク、自転車、歩行者を含む移動物体、及び駐車車両を含む静止物体を検出する。例えば、移動物体及び静止物体の自車両51に対する位置、姿勢、大きさ、速度、加速度、減速度、ヨーレートを検出する。なお、物体の位置、姿勢(ヨー角)、大きさ、速度、加速度、減速度、ヨーレートを纏めて、物体の「挙動」と呼ぶ。物体検出装置1は、検出結果として、例えば自車両51の上方の空中から眺める天頂図(平面図ともいう)における、2次元の物体の挙動を出力する。
 自車位置推定装置3は、自車両51に搭載された、GPS(グローバル・ポジショニング・システム)やオドメトリなど自車両51の絶対位置を計測する位置検出センサを備える。自車位置推定装置3は、位置検出センサを用いて、自車両51の絶対位置、すなわち、所定の基準点に対する自車両51の位置、姿勢及び速度を計測する。
 地図取得装置4は、自車両51が走行する道路の構造を示す地図情報を取得する。地図取得装置4は、地図情報を格納した地図データベースを所有してもよいし、クラウドコンピューティングにより地図情報を外部の地図データサーバから取得しても構わない。地図取得装置4が取得する地図情報には、車線の絶対位置や車線の接続関係、相対位置関係などの道路構造の情報が含まれる。
 更に、地図取得装置4は、更新頻度の高い地図情報(例えば、ダイナミックマップに埋め込まれている情報)を取得する。具体的には、地図取得装置4は、1秒以下の頻度で更新される動的情報、1分以下の頻度で更新される准動的情報、1時間以下の頻度で更新される准静的情報を自車両51の外部から無線通信により取得する。例えば、動的情報には、周辺車両、歩行者、信号機の情報が含まれ、准静的情報には、事故情報、渋滞情報、狭域気象情報が含まれ、准静的情報には、交通規制情報、道路工事情報、広域気象情報が含まれる。これに対して、上記した「道路の構造を示す地図情報」は、1時間以下の頻度で更新される静的情報に相当する。
 マイクロコンピュータ100(制御部の一例)は、物体検出装置1及び自車位置推定装置3による検出結果及び地図取得装置4による取得情報に基づいて、他車両52の動作を予測し、他車両52の動作から自車両51の経路を生成し、生成した経路に従って自車両51を制御する。
 なお、実施形態では、マイクロコンピュータ100は、自車両51を制御する走行支援装置の例として説明する。しかし、本発明はこれに限定されない。例えば、マイクロコンピュータ100は、他車両の動作を予測する動作予測装置としても実施可能である。つまり、マイクロコンピュータ100は、自車両51の経路生成及び経路に沿った走行支援を行なわず、予測した他車両の動作を最終出力してもよい。
 マイクロコンピュータ100は、CPU(中央処理装置)、メモリ、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータ100には、走行支援装置として機能させるためのコンピュータプログラム(走行支援プログラム)がインストールされている。コンピュータプログラムを実行することにより、マイクロコンピュータ100は、走行支援装置が備える複数の情報処理回路(2a、2b、5、10、21、22)として機能する。なお、ここでは、ソフトウェアによって走行支援装置が備える複数の情報処理回路(2a、2b、5、10、21、22)を実現する例を示すが、もちろん、以下に示す各情報処理を実行するための専用のハードウェアを用意して、情報処理回路(2a、2b、5、10、21、22)を構成することも可能である。また、複数の情報処理回路(2a、2b、5、10、21、22)を個別のハードウェアにより構成してもよい。更に、情報処理回路(2a、2b、5、10、21、22)は、車両にかかわる他の制御に用いる電子制御ユニット(ECU)と兼用してもよい。
 マイクロコンピュータ100は、複数の情報処理回路(2a、2b、5、10、21、22)として、検出統合部2aと、物体追跡部2bと、地図内位置演算部5と、動作予測部10と、自車経路生成部21と、車両制御部22とを備える。更に、動作予測部10は、挙動判定部11と、動作候補予測部12と、第1動作候補修正部13と、第2動作候補修正部15と、軌道予測部16と、尤度推定部17と、路面状態取得部18と、前方物体判定部19とを備える。なお、他車両の動作を予測する動作予測装置として実施する場合、情報処理回路(自車経路生成部21及び車両制御部22)は不要である。
 検出統合部2aは、物体検出装置1が備える複数の物体検出センサの各々から得られた複数の検出結果を統合して、各物体に対して一つの検出結果を出力する。具体的には、物体検出センサの各々から得られた物体の挙動から、各物体検出センサの誤差特性などを考慮した上で最も誤差が少なくなる最も合理的な物体の挙動を算出する。具体的には、既知のセンサ・フュージョン技術を用いることにより、複数種類のセンサで取得した検出結果を総合的に評価して、より正確な検出結果を得る。
 物体追跡部2bは、物体検出装置1によって検出された物体を追跡する。具体的に、検出統合部2aにより統合された検出結果から、異なる時刻に出力された物体の挙動から、異なる時刻間における物体の同一性の検証(対応付け)を行い、かつ、その対応付けを基に、物体の挙動を予測する。なお、異なる時刻に出力された物体の挙動は、マイクロコンピュータ100内のメモリに記憶され、後述する軌道予測の際に用いられる。
 地図内位置演算部5は、自車位置推定装置3により得られた自車両51の絶対位置、及び地図取得装置4により取得された地図データから、地図上における自車両51の位置及び姿勢を推定する。例えば、自車両51が走行している道路、更に当該道路のうちで自車両51が走行する車線を特定する。
 動作予測部10では、検出統合部2aにより得られた検出結果と、地図内位置演算部5により特定された自車両51の位置に基づいて、自車両51の周囲における移動物体の動作を予測する。以下に、動作予測部10の具体的な構成を説明する。
 挙動判定部11は、地図上における自車両51の位置と、検出統合部2aにより得られた物体の挙動とから、地図上における物体の位置及び挙動を特定する。更に、挙動判定部11は、物体の地図上の位置が時間の経過と共に変化する場合、当該物体は「移動物体」であると判断し、移動物体の大きさ及び速度から、当該移動物体の属性(走行中の他車両、歩行者)を判断する。そして、移動物体が走行中の「他車両」であると判断した場合、挙動判定部11は、当該他車両が走行する道路及び車線と判定する。
 なお、物体の地図上の位置が時間の経過と共にしない場合、静止物体であると判断し、静止物体の地図上の位置、姿勢及び大きさから、静止物体の属性(停止中の他車両、駐車車両、歩行者など)を判定する。
 動作候補予測部12は、地図に基づく他車両の動作候補を予測する。動作候補予測部12は、地図情報に含まれる道路構造及び他車両が属している車線情報から、他車両が次にどのように走行するのかという動作意図を予測し、当該動作意図に基づく他車両の基本軌道を道路構造に基づいて演算する。「動作候補」とは、動作意図及び基本軌道を含む上位概念である。「基本軌道」は、異なる時刻における他車両の位置のプロファイルのみならず、各位置における他車両の速度のプロファイルをも示す。
 例えば、他車両が単車線の単路及びカーブ路を走行する場合、動作候補予測部12は、車線の形状に沿って走行する動作意図(直進)を予測し、基本軌道として、地図上の車線に沿った軌道を演算する。また、他車両が複数車線の単路及びカーブ路を走行する場合、動作候補予測部12は、動作意図(直進)と、右側もしくは左側へ車線変更する動作意図(車線変更)を予測する。動作意図(車線変更)における他車両の基本軌道は、道路構造及び所定の車線変更時間に基づいて車線変更する軌道である。さらに、交差点を走行する場合、動作候補予測部12は、直進、右折及び左折の動作意図を予測し、地図上の交差点における道路構造に基づく直進軌道、右折軌道、左折軌道を基本軌道として演算する。なお、「基本軌道」の演算において、道路構造を考慮するが、検出統合部2aにより統合された他車両の挙動は考慮しない。
 図4に示す走行シーンにおいて、動作候補予測部12は、左側車線に沿って走行する動作意図(直進)及び基本軌道63を演算することができる。しかし、動作候補予測部12は、水たまり53を避け且つ進行方向を維持する軌道64は、演算しない。
 第1動作候補修正部13は、物体検出装置1により検出された静止物体を考慮して、動作候補予測部12により予測された動作候補を修正する。具体的に、第1動作候補修正部13は、他車両の基本軌道と静止物体の位置が干渉するか否かを判断する。干渉する場合、静止物体を回避する他車両52の動作意図及び基本軌道を新たに追加する。
 図4に示す他車両52と同時に、他の移動物体が物体検出装置1により検出されている場合(図示省略)、第1動作候補修正部13は、他の移動物体を考慮して、動作候補予測部12により予測された動作候補を修正する。具体的に、第1動作候補修正部13は、他の移動物体と他車両52の干渉があるか否かを経時的に判断する。移動物体同士の干渉がある場合には、他の移動物体との干渉を回避する他車両52の動作意図及び基本軌道を新たに追加する。
 路面状態取得部18は、他車両52の周囲における路面の状態を示す情報を取得する。路面の状態を示す情報には、摩擦抵抗が低く滑り易い路面(低ミュー路)の状態を示す情報が含まれる。例えば、路面上の水たまり53を示す情報、路面上の積雪箇所を示す情報、及び路面の凍結箇所を示す情報が含まれる。
 更に、路面の状態を示す情報には、路面上の轍を示す情報が含まれる。「路面上の轍」は、アスファルト、土、或いは雪の上の車輪が通った跡を示し、路面の同じ場所を車輪が何度も通った為にアスファルト又は土が削られてできた路面上の凹みや溝も含まれる。雪の上の車輪が通った跡には、雪面の凹みや溝のみならず、雪面の凹みや溝の底面にアスファルトや土が表出している箇所も含まれる。アスファルト又は土が削られてできた路面上の凹みや溝に溜まっている水を、路面上の轍として検出することも可能である。雨が降り止んだ後に車輪が何度も通った為に部分的に乾燥した箇所を、路面上の轍として検出することも可能である。
 路面状態取得部18は、例えば、自車両51に搭載されたカメラで撮像して取得した画像データから、路面の状態を示す情報を取得することができる。進行方向前方の画像データに対してパターン認識処理を施すことにより、路面の状態を検出することができる。一方、湿潤時又は凍結時に路面が鏡面状態になることに着目して、鏡面時の偏光特性の変化を利用して路面の状態を検出することもできる。具体的には、通常のカメラと偏光レンズを備えた偏光カメラとを併用することにより通常画像と偏光画像の差異が大きい場所を検出してもよい。或いは、上記したダイナミックマップなどから得られる情報として、路面の状態を示す情報を自車両51の外部から取得してもよい。実施形態では、路面状態を取得する方法は特に問わず、その他の既知の方法を用いてもよい。
 前方物体判定部19は、他車両52の進行方向前方に物体が存在するか否かを判断する。例えば、物体検出装置1により検出された物体(静止物体及び異動物体)の中に、他車両52の進行方向前方に存在する物体が含まれているか否かを判断すればよい。他車両52の進行方向前方の領域は、他車両52の中心を通り且つ車幅方向に延びる直線よりも進行方向前方側の領域である。例えば、前方物体判定部19は、他車両52が走行する自車線又は隣接車線を走行する先行車両56(図5参照)、自車線又は隣接車線に停車している車両、路側帯や車道に隣接する歩道上の歩行者55(図4参照)を検出する。
 第2動作候補修正部15は、少なくとも路面状態取得部18により検出された路面の状態を示す情報に基づいて、動作候補予測部12により予測された動作候補を修正する。具体的に、先ず、第2動作候補修正部15は、低ミュー路の状態を示す情報(例えば、図4の水たまり53、積雪箇所、凍結箇所)を取得した場合、低ミュー路の場所を回避する他車両52の動作意図及び基本軌道64を新たに追加する。更に、第2動作候補修正部15は、低ミュー路の場所を低速で通過する他車両52の動作意図及び基本軌道63を新たに追加する。
 更に、第2動作候補修正部15は、路面上の轍を示す情報を取得した場合、路面上の轍に沿って走行する他車両52の動作意図及び基本軌道を新たに追加する。例えば、図6に示すように、交差点の手前或いは交差点内で他車両52が停車している。他車両52の周囲の路面上には轍54a及び轍54bが存在している。路面上の轍54a及び轍54bを示す情報を取得した場合、轍54a及び轍54bに沿って走行する他車両52の動作意図及び基本軌道をそれぞれ新たに追加する。
 第2動作候補修正部15は、前方物体判定部19による判断結果に基づいて、第2動作候補修正部15により新たに追加された動作候補を修正してもよい。具体的には、他車両52の進行方向前方に物体が存在するか否かに応じて、第2動作候補修正部15により新たに追加された動作候補に対する尤度を推定する。
 例えば、第2動作候補修正部15は、図4に示す水たまり53付近の歩道に歩行者55がいる場合や、水たまり53付近の隣接車線(右側車線)に先行車が存在しない場合、他車両52が、軌道63よりも軌道64を選択する可能性(尤度)を高く設定する。
 これとは逆に、図5に示すように、水たまり53付近の歩道に歩行者55がいない場合や、水たまり53付近の隣接車線(右側車線)に先行車両56が存在する場合、第2動作候補修正部15は、図4に示す走行シーンに比べて、軌道64を選択する可能性(尤度)を低く設定し、軌道63を選択する可能性(尤度)を高く設定する。
 図4の歩行者55及び図5の先行車両56の双方が存在する場合、第2動作候補修正部15は、前方物体判定部19による判断結果に基づいて、水たまり53の水を跳ね上げない程度に徐行して水たまり53を通過する他車両52の動作候補を新たに追加してもよい。
 また、第2動作候補修正部15は、図6に示す轍54a又は轍54b上に、物体(障害物)が存在しなければ、轍54a又は轍54bに沿って走行する他車両52の動作候補に対する尤度を高く設定する。一方、轍54a又は轍54b上に、物体(障害物)が存在する場合、第2動作候補修正部15は、轍54a又は轍54bに沿って走行する他車両52の動作候補に対する尤度を低く設定し、物体(障害物)を回避する動作候補に対する尤度を高く設定する。
 軌道予測部16は、挙動判定部11において検出された挙動に基づいて、他車両52が取る軌道(実効軌道)を予測する。具体的に、軌道予測部16は、上記予測された動作意図にしたがって動作する場合の他車両52の実効軌道を、例えばカルマンフィルターなどの既知の状態推定技術を用いて演算する。「実効軌道」は、基本軌道と同様にして、異なる時刻における他車両52の位置を示すのみならず、各位置における他車両52の速度のプロファイルをも示す。実効軌道と基本軌道は、共に他車両52が取る軌道である点で共通するが、実効軌道は他車両52の挙動を考慮して演算されるが、基本軌道は他車両の挙動を考慮しないで演算される点で、両者は相違する。
 図7A及び図7Bに示す基本軌道(61、62)は、動作意図及び道路構造に基づいて導出された他車両52の軌道の例であり、他車両52の挙動は考慮されていない。よって、例えば、他車両52の現在の姿勢(ヨー角)が考慮されていないため、他車両52の現在位置から、異なる方向に向けて、複数の基本軌道(61、62)が延びている。これに対して、軌道予測部16は、他車両52の挙動を考慮して、上記した動作意図に沿った軌道(実効軌道)を演算する。換言すれば、上記した動作意図に沿った動作を取った場合の他車両52の実効軌道を演算する。
 図4、図5に示す軌道(63、64)も、他車両52の動作意図及び道路構造に基づいて導出された他車両52の基本軌道の一例である。更に、図6に示す路面上の轍(54a、54b)も、轍(54a、54b)に沿って走行する他車両52の基本軌道の一例と言える。
 図7A及び図7Bにおいて、他車両52の姿勢(ヨー角)は、道路の形状に沿った走行の基本軌道61よりも左側に傾き、他車両52の速度は、進行方向の速度成分のみからなり、車幅方向の速度成分はゼロである。つまり、他車両52は直進状態である。よって、この姿勢及び速度を起点として他車両52が道路の形状に沿った走行の動作意図に従って走行する場合、図7Aに示すように、基本軌道61から左側に離れた後に、基本軌道61に近づいて一致する実効軌道71となる。換言すれば、走行車線からの逸脱を修正するような修正軌道(オーバーシュート軌道)を描くことが予測される。軌道予測部16は、他車両52の姿勢(ヨー角)及び速度を起点として、道路の形状に沿った走行の動作意図(直進)に従って走行する実効軌道71を予測する。
 次に、同じ姿勢及び速度を起点として他車両52が車線変更の動作意図に従って走行する場合、図7Bに示すように、左方向への旋回を開始し、左側車線へ移動した後に、右へ旋回して左側車線に沿った軌道へ修正する実効軌道72となる。つまり、舵角が中立位置の状態から始まる左旋回のクロソイド曲線及び右旋回のクロソイド曲線からなる実効軌道72を描く。よって、実効軌道72は、車線変更軌道62を演算するときの「所定の車線変更時間」とほぼ同じ時間をかけて車線変更が完了する軌道となる。なお、実行軌道を描く際の曲線は必ずしもクロソイド曲線である必要はなく、その他の曲線を用いて描いてもよい。図7Bに示すように、実効軌道72は車線変更における基本軌道62とほぼ同じ軌道となる。
 図7A及び図7Bと同様にして、図4、図5、図6に示す基本軌道(63、64)及び基本軌道を見なせる轍(54a、54b)についても、軌道予測部16は、他車両52の挙動を考慮して、動作意図に沿った軌道(実効軌道)を演算する。
 例えば、図4及び図5に示す走行シーンにおいて、他車両52の位置、姿勢(ヨー角)及び速度を起点として、低速或いは徐行して水たまり53を通過する動作意図、或いは水たまり53を回避する動作意図に従って走行する他車両52の実効軌道をそれぞれ演算する。
 図6に示す走行シーンでは、他車両52の位置を起点として、交差点を右折する動作意図に従って、轍54aに沿って走行する他車両52の実効軌道、及び交差点を直進する動作意図に従って、轍54bに沿って走行する他車両52の実効軌道をそれぞれ演算する。
 ここでは、他車両52の挙動の例として、位置、姿勢及び速度を考慮したが、他車両52の加速度、減速度を考慮して、実効軌道を演算してもよい。例えば、直進に比べて、車線変更の時の減速度は大きくなることが予測することができる。
 尤度推定部17は、動作候補予測部12、第1動作候補修正部13及び第2動作候補修正部15により予測された動作候補と、検出統合部2aにより統合された他車両52の挙動とを対比することにより、他車両52の動作を予測する。更に、尤度推定部17は、第2動作候補修正部15により予測された尤度を考慮して、他車両52の動作を予測する。
 具体的に、尤度推定部17は、動作候補予測部12、第1動作候補修正部13及び第2動作候補修正部15により予測された動作候補の各々について、基本軌道と実効軌道とを対比する。そして、基本軌道と実効軌道との差違から各動作候補の尤度を求める。基本軌道と実効軌道との差違が小さいほど、高い尤度を演算する。
 更に、尤度推定部17は、第2動作候補修正部15により予測された尤度に基づいて、各動作候補の尤度に重み付けを行う。例えば、第2動作候補修正部15により予測された尤度を、係数として、各動作候補の尤度に乗算する。これにより、第2動作候補修正部15により予測された尤度を、尤度推定部17が推定する尤度に結合させることができる。例えば、尤度推定部17は、図4に示すシーンにおいて、水たまり53を低速で通過する動作候補63の尤度よりも、水たまり53を回避する動作候補64の尤度により大きな係数を乗算する。
 最も尤度が高く演算された動作候補は、他車両52の挙動及び路面の状態を考慮すれば最も尤もらしい動作候補であると判断することができる。よって、尤度推定部17は、最も尤度が高く評価された動作候補を、他車両52の動作として決定する。基本軌道と実効軌道との差違は、例えば、両軌道間の位置や速度のプロファイルの差異の総和を基に算出する。図7A及び図7Bに示す面積S1、S2は、基本軌道と実効軌道との位置の差違を積分した総和の一例である。面積が狭い程、位置の差違が小さいと判断できるので、高い尤度を演算する。他の例として、位置の差違が小さくても、速度のプロファイルが大きく異なる場合には、低い尤度を演算することができる。なお、尤度は、その動作候補が実際に発生する可能性を表す指標の一例であって、尤度以外の表現であっても構わない。
 尤度推定部17は、図4~図6に示す動作候補(63、64、54a、54b)の各々についても、基本軌道と実効軌道とを比較することにより尤度を算出し、更に当該尤度に係数(第2動作候補修正部15により予測された尤度)を乗算する。そして、尤度が最も大きな動作候補(63、64、54a、54b)を他車両52の動作として決定する。
 以上説明したように、動作予測部10では、尤度推定部17により想定された各動作候補の尤度に基づいて、他車両52の動作を予測する。なお、「他車両の動作」には、他車両の軌道及び速度のプロファイルを含む。他車両52の軌道とは、異なる時刻における他車両52の位置のプロファイルを示す。
 自車経路生成部21は、動作予測部10により予測された他車両52の動作に基づいて、自車両51の経路を生成する。例えば、動作予測部10が図4に示す動作64を予測した場合、他車両52の車線逸脱を予測した上での自車両51の経路を生成できる。自車両51の経路は、水たまり53を回避した動作(意図)に干渉しない経路であり、具体的には、他車両52を先に水たまり53の脇を通過させるように、減速する経路である。或いは、レーン幅(車線幅)が十分に広ければ、右側車線内の右側に寄って走行する経路であってもよい。更に右側に隣接レーンがある場合、事前にレーンチェンジを行う経路であってもよい。
 よって、他車両52と接触せず、かつ、他車両52の挙動により自車両51が急減速又は急ハンドルとならない滑らかな自車両51の経路を生成することができる。「自車両51の経路」は、異なる時刻における自車両51の位置のプロファイルのみならず、各位置における自車両51の速度のプロファイルをも示す。
 ここでは、地図上における他車両52の挙動に基づいて、他車両52の軌道を含む他車両の動作を予測している。このため、他車両52の軌道を基にして自車両51の経路を生成することは、他車両52との相対距離の変化、加減速度或いは姿勢角の差に基づいて自車両51の経路を生成していることになる。
 例えば、図4に示す走行シーンにおいて、他車両52が減速して水たまり53の手前で停車する挙動を示す場合、他車両52の挙動は、自車両51を先に行かせ、他車両52はその後に軌道64を選択したい、という動作意図を示していると解釈できる。この場合、他車両52の動作意図を考慮して自車両51の経路を形成し、或いは自車両51を制御することにより、自車両51は減速せず或いは加速して水たまり53の脇を先に通過することができる。これにより、他車両52と自車両51の双方が譲り合ってしまう状況を回避できるので、円滑な交通流を実現可能となる。
 車両制御部22では、自車経路生成部21により生成された経路に従って自車両51が走行するように、地図内位置演算部5により演算された自己位置に基づいて、ステアリングアクチュエータ、アクセルペダルアクチュエータ、及びブレーキペダルアクチュエータの少なくとも1つを駆動する。なお、実施形態では、自車両51の経路に従って制御する場合を示すが、自車両51の経路を生成せずに、自車両51を制御してもよい。この場合、他車両52との相対距離、或いは、他車両52と自車両51との姿勢角の差に基づいて制御を行うことも可能である。
 図2及び図3を参照して、図1の走行支援装置を用いた走行支援方法を説明する。なお、他車両52の動作を予測する動作予測装置として図1のマイクロコンピュータ100を用いることにより、図2のステップS06に示す処理動作の結果を最終出力する動作予測方法として実施することができる。
 先ず、ステップS01において、物体検出装置1が、複数の物体検出センサを用いて、自車両51の周囲における物体の挙動を検出する。ステップS02に進み、検出統合部2aが、複数の物体検出センサの各々から得られた複数の検出結果を統合して、各物体に対して一つの検出結果を出力する。そして、物体追跡部2bが、検出及び統合された各物体を追跡する。
 ステップS03に進み、自車位置推定装置3が、位置検出センサを用いて、所定の基準点に対する自車両51の位置、姿勢及び速度を計測する。ステップS04に進み、地図取得装置4が、自車両51が走行する道路の構造を示す地図情報を取得する。
 ステップS05に進み、地図内位置演算部5が、ステップS03で計測された自車両51の位置、及びステップS04で取得された地図データから、地図上における自車両51の位置及び姿勢を推定する。ステップS06に進み、動作予測部10が、ステップS02で得られた検出結果(他車両52の挙動)と、ステップS05で特定された自車両51の位置に基づいて、自車両51の周囲における他車両52の動作を予測する。
 ステップS06の詳細を、図3を参照して説明する。先ず、ステップS611において、挙動判定部11が、地図上における自車両51の位置と、ステップS02で得られた物体の挙動とから、他車両52が走行する道路及び車線と判定する。ステップS612に進み、動作候補予測部12が、地図に基づく他車両52の動作候補を予測する。例えば、道路構造から動作意図を予測する。
 ステップS613に進み、マイクロコンピュータ100は、ステップS01で検出された全ての他車両52についてステップS611及びS612を実施する。実施した後(S613でYES)、ステップS614に進み、第1動作候補修正部13が、ステップS01において同時に検出された静止物体を考慮して、ステップS612で予測された動作候補を修正する。
 ステップS615に進み、他車両52と同時に、他の移動物体がステップS01にいて検出されている場合、第1動作候補修正部13が、他の移動物体を考慮して、ステップS612で予測された動作候補を修正する。
 ステップS616に進み、路面状態取得部18は、他車両52の周囲における路面の状態を示す情報を取得する。例えば、図4及び図5に示す水たまり53、及び図6に示す轍54a、54bを示す情報を取得する。
 ステップS617に進み、前方物体判定部19は、物体検出装置1により検出された物体(静止物体及び異動物体)の中に、他車両52の進行方向前方に存在する物体が含まれているか否かを判断する。例えば、前方物体判定部19は、他車両52の前方を走行する先行車両56(図5参照)、車道に隣接する歩道上の歩行者55(図4参照)を検出する。
 ステップS618に進み、第2動作候補修正部15は、少なくとも路面状態取得部18により検出された路面の状態を示す情報に基づいて、動作候補予測部12により予測された動作候補を修正する。例えば、低ミュー路の状態を示す情報(例えば、図4の水たまり53、積雪箇所、凍結箇所)を取得した場合、低ミュー路の場所を回避する他車両52の動作意図及び基本軌道64、及び低ミュー路の場所を低速で通過する他車両52の動作意図及び基本軌道63を新たに追加する。図6に示すように、路面上の轍54a及び轍54bを示す情報を取得した場合、轍54a及び轍54bに沿って走行する他車両52の動作意図及び基本軌道をそれぞれ新たに追加する。
 更に、第2動作候補修正部15は、他車両52の進行方向前方に物体が存在するか否かに応じて、第2動作候補修正部15により新たに追加された動作候補に対する尤度を推定する。例えば、第2動作候補修正部15は、図4に示す歩行者55、図5に示す先行車両56に応じて、軌道63及び軌道64の尤度を調整する。
 ステップS620に進み、マイクロコンピュータ100は、ステップS01で検出された全ての他車両についてステップS614~S618を実施する。実施した後(S620でYES)、ステップS621に進み、軌道予測部16が、他車両52が挙動を維持し、且つ予測された動作意図にしたがって動作する場合の他車両52の実効軌道(71、72、図7A及び図7B参照)を、例えばカルマンフィルターなどの既知の状態推定技術を用いて演算する。
 ステップS622に進み、尤度推定部17が、S612、S614、S615及びS618で予測された動作候補の各々について、基本軌道(63、64、54a、54b)と実効軌道とを対比する。そして、基本軌道と実効軌道との差違から各動作候補の尤度を求める。更に、尤度推定部17は、ステップS618で推定された尤度に基づいて、各動作候補の尤度に重み付けを行う。尤度推定部17は、最も尤度が高く評価された動作候補を、他車両52の動作として決定する。
 ステップS623に進み、マイクロコンピュータ100は、ステップS01で検出された全ての他車両についてステップS621~S622を実施する。これにより、図2のステップS06が終了する。
 図2のステップS07に進み、自車経路生成部21が、ステップS06で予測された他車両の動作に基づいて、自車両51の経路を生成する。ステップS08に進み、車両制御部22が、ステップS07で生成された経路に従って自車両51が走行するように、自車両51を制御する。
 以上説明したように、実施形態によれば、以下の作用効果が得られる。
 マイクロコンピュータ100(制御部の一例)は、路面の状態を示す情報を取得し、それに基づいて他車両52の動作を予測するため、他車両52の動作を高精度に予測することができる。よって、路面の状態に応じた他車両52の動作を考慮して自車両51の軌道を修正することができ、自車両51の急操舵や急減速の発生の可能性を抑えることができる。
 マイクロコンピュータ100(制御部の一例)は、路面の状態に加えて、他車両52の進行方向前方に物体が存在するか否かを考慮して他車両52の動作を予測する。よって、より高精度に他車両52の動作を予測することができる。自車両51の急操舵や急減速の発生を抑えることができる。
 路面上の水たまり53を示す情報を取得することによって、他車両52の動作を正確に予測することができるようになる。水たまり53に応じた他車両52の動作を予測して自車両51の軌道を修正することができる。例えば、他車両52の進行方向前方に物体及び水たまり53が存在する場合に、水たまり53を避ける他車両52の動作或いは水たまり53を避けずに通過する他車両52の動作をそれぞれ正しく予測することができる。
 図6に示すように、他車両52が停止している、つまり、他車両52が静止物体である場合、他車両52を検出するセンサ構成によっては、他車両52の姿勢や進行方向を特定することが難しい場合がある。例えば、カメラやレーザレンジファインダを用いて停止している他車両52を検出した場合、他車両52の姿勢から他車両52の進行方向を特定しにくい。そこで、路面の状態(轍54a、54b)を検出し、それに基づいて他車両52の動作を予測する。これにより、他車両52の姿勢や進行方向の特定が困難な場合であっても、他車両52の動作を高精度に予測することができる。
 路面上の轍54a、54bを示す情報に基づいて他車両52の動作を予測することにより、轍54a、54bに沿って走行する他車両52の動作を正確に予測することができる。
 以上、実施形態に沿って本発明の内容を説明したが、本発明はこれらの記載に限定されるものではなく、種々の変形及び改良が可能であることは、当業者には自明である。
 実施形態では、自車両51が自律走行可能な自動運転モードである場合を例示したが、自車両51がドライバによる手動運転モードであってもよい。この場合、マイクロコンピュータ100は、自車両51の制御(運転サポート)として、音声或いは画像などを用いて、ステアリング、アクセル、ブレーキの操作をドライバに対して案内するためのスピーカ、ディスプレイ、及びこれらのユーザインターフェースを制御すればよい。
 実施形態では、予測した他車両52の軌跡に基づいて、自車両51の軌跡を調整する場合を例示したが、走行支援として自車両で実行する内容をそれに限らず、予測結果に基づいて、自動運転制御や走行支援制御(自動ブレーキ等も含む)の中で、例えば、加減速する、事前に減速する、車線内の位置を制御する、路肩に寄せる、車線を通過する順番、などのような制御を実行するようにしてもよい。これにより、自車両51において、急制動、急加減速を抑制することができるようになるため、乗員に与える違和感を抑制することができるようになる。
51 自車両
52 他車両
53 水たまり(路面の状態)
54a、54b 轍(路面の状態)
55 歩行者(他車両の進行方向前方の物体)
56 先行車両(他車両の進行方向前方の物体)
100マイクロコンピュータ(制御部)

Claims (6)

  1.  自車両の周囲における他車両の動作を予測した結果に基づいて自車両の走行を支援する走行支援装置の動作予測方法において、
     前記他車両の周囲における路面の状態を示す情報を取得し、
     前記路面の状態を示す情報に基づいて前記他車両の動作を予測する
    ことを特徴とする走行支援装置の動作予測方法。
  2.  前記他車両の進行方向前方に物体が存在するか否かを判断し、
     前記路面の状態を示す情報及び前記物体が存在するか否かの判断結果に基づいて、前記他車両の動作を予測する
    ことを特徴とする請求項1に記載の走行支援装置の動作予測方法。
  3.  前記路面の状態を示す情報として、前記路面上の水たまりを示す情報を取得することを特徴とする請求項1又は2に記載の走行支援装置の動作予測方法。
  4.  前記他車両は停車していることを特徴とする請求項1に記載の走行支援装置の動作予測方法。
  5.  前記路面の状態を示す情報として、前記路面上の轍を示す情報を取得することを特徴とする請求項1~4のいずれか一項に記載の走行支援装置の動作予測方法。
  6.  自車両の周囲における他車両の位置に基づいて前記他車両の動作を予測する制御部を備える走行支援装置の動作予測装置において、
     前記制御部は、
     前記他車両の周囲における路面の状態を示す情報を取得し、
     前記路面の状態を示す情報に基づいて前記他車両の動作を予測する
    ことを特徴とする走行支援装置の動作予測装置。
PCT/JP2017/018297 2017-05-16 2017-05-16 走行支援装置の動作予測方法及び動作予測装置 WO2018211582A1 (ja)

Priority Applications (10)

Application Number Priority Date Filing Date Title
EP17910176.1A EP3627470A4 (en) 2017-05-16 2017-05-16 MOTION FORECASTING METHOD FOR DRIVER ASSISTANCE DEVICE AND MOTION FORECASTING DEVICE
RU2019141079A RU2721387C1 (ru) 2017-05-16 2017-05-16 Способ прогнозирования действия и устройство прогнозирования действия устройства помощи при движении
MX2019013555A MX2019013555A (es) 2017-05-16 2017-05-16 Metodo de prediccion de accion y dispositivo de prediccion de accion de dispositivo de asistencia al desplazamiento.
JP2019518628A JP6874834B2 (ja) 2017-05-16 2017-05-16 走行支援装置の動作予測方法及び動作予測装置
CN201780090716.7A CN110622226A (zh) 2017-05-16 2017-05-16 行驶辅助装置的动作预测方法以及动作预测装置
BR112019024097-7A BR112019024097A2 (pt) 2017-05-16 2017-05-16 Método de predição de ação e dispositivo de predição de ação de dispositivo de ajuda para deslocamento
KR1020197033266A KR20190135051A (ko) 2017-05-16 2017-05-16 주행 지원 장치의 동작 예측 방법 및 동작 예측 장치
US16/612,896 US20200164873A1 (en) 2017-05-16 2017-05-16 Action Prediction Method and Action Prediction Device of Traveling Assistance Device
PCT/JP2017/018297 WO2018211582A1 (ja) 2017-05-16 2017-05-16 走行支援装置の動作予測方法及び動作予測装置
CA3063820A CA3063820A1 (en) 2017-05-16 2017-05-16 Action prediction method and action prediction device of traveling assistance device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/018297 WO2018211582A1 (ja) 2017-05-16 2017-05-16 走行支援装置の動作予測方法及び動作予測装置

Publications (1)

Publication Number Publication Date
WO2018211582A1 true WO2018211582A1 (ja) 2018-11-22

Family

ID=64274390

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/018297 WO2018211582A1 (ja) 2017-05-16 2017-05-16 走行支援装置の動作予測方法及び動作予測装置

Country Status (10)

Country Link
US (1) US20200164873A1 (ja)
EP (1) EP3627470A4 (ja)
JP (1) JP6874834B2 (ja)
KR (1) KR20190135051A (ja)
CN (1) CN110622226A (ja)
BR (1) BR112019024097A2 (ja)
CA (1) CA3063820A1 (ja)
MX (1) MX2019013555A (ja)
RU (1) RU2721387C1 (ja)
WO (1) WO2018211582A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109583151A (zh) * 2019-02-20 2019-04-05 百度在线网络技术(北京)有限公司 车辆的行驶轨迹预测方法及装置
CN111223319A (zh) * 2018-11-23 2020-06-02 宝沃汽车(中国)有限公司 行车策略规划方法、装置和车辆
RU2757037C1 (ru) * 2020-04-23 2021-10-11 Общество с ограниченной ответственностью «Яндекс Беспилотные Технологии» Способ и система для выявления наличия колеи на текущей местности
GB2599727A (en) * 2020-10-12 2022-04-13 Daimler Ag Predicting the behavior of a vehicle using agent-to-agent relations to control an autonomous vehicle

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7113383B2 (ja) * 2018-03-26 2022-08-05 パナソニックIpマネジメント株式会社 運転支援システム、運転支援装置、運転支援方法
JP6789440B2 (ja) * 2018-03-30 2020-11-25 三菱電機株式会社 物体同定装置
CN113243029B (zh) * 2018-12-11 2022-07-05 日产自动车株式会社 其他车辆动作预测方法及其他车辆动作预测装置
JP2020147139A (ja) * 2019-03-13 2020-09-17 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
EP4074563A4 (en) * 2019-12-30 2022-12-28 Huawei Technologies Co., Ltd. TRAJECTORY PREDICTION METHOD AND ASSOCIATED DEVICE
JP7313298B2 (ja) * 2020-02-13 2023-07-24 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
CN111325980B (zh) * 2020-02-28 2022-01-14 浙江吉利汽车研究院有限公司 一种基于路况监测的驾驶方法、系统和装置
JP7268629B2 (ja) * 2020-03-23 2023-05-08 トヨタ自動車株式会社 運転支援システム
CN112550308B (zh) * 2020-12-17 2022-07-08 东风汽车有限公司 一种防止路面积水溅射行人的方法、车载终端及系统
CN114475656B (zh) * 2022-02-21 2024-06-14 中国第一汽车股份有限公司 行驶轨迹预测方法、装置、电子设备以及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006240444A (ja) 2005-03-02 2006-09-14 Toyota Motor Corp 車両用制御装置
JP2008158598A (ja) * 2006-12-21 2008-07-10 Hitachi Software Eng Co Ltd 路面状況管理システム
JP2010033441A (ja) * 2008-07-30 2010-02-12 Fuji Heavy Ind Ltd 車両の運転支援装置
JP2014232508A (ja) * 2013-05-30 2014-12-11 トヨタ自動車株式会社 回避軌道予測装置
JP2015210609A (ja) * 2014-04-24 2015-11-24 本田技研工業株式会社 レーンマーク認識装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5310745B2 (ja) * 2009-04-21 2013-10-09 トヨタ自動車株式会社 走行支援装置
DE102009053748A1 (de) * 2009-11-18 2011-05-19 Man Nutzfahrzeuge Ag Verfahren zur Spurführung eines Fahrzeugs, insbesondere eines Nutzfahrzeuges, sowie Spurführungssystem
CN103080976B (zh) * 2010-08-19 2015-08-05 日产自动车株式会社 三维物体检测装置和三维物体检测方法
JP5338801B2 (ja) * 2010-12-23 2013-11-13 株式会社デンソー 車載障害物情報報知装置
DE102012201896A1 (de) * 2012-02-09 2013-08-14 Robert Bosch Gmbh Fahrerassistenzverfahren und Fahrerassistenzsystem für verschneite Straßen
JP5792678B2 (ja) * 2012-06-01 2015-10-14 株式会社日本自動車部品総合研究所 車線境界線検出装置およびプログラム
JP5862532B2 (ja) * 2012-09-26 2016-02-16 アイシン精機株式会社 車両運転支援装置
JP2014184747A (ja) * 2013-03-21 2014-10-02 Toyota Motor Corp 車両制御装置および車両制御方法
JP6684714B2 (ja) * 2013-12-24 2020-04-22 ボルボ トラック コーポレイション 車両の運転者支援のための方法及びシステム
EP2950114B1 (en) * 2014-05-30 2020-03-04 Honda Research Institute Europe GmbH Method for assisting a driver in driving a vehicle, a driver assistance system, a computer software program product and vehicle
US9248834B1 (en) * 2014-10-02 2016-02-02 Google Inc. Predicting trajectories of objects based on contextual information
JP6025273B2 (ja) * 2015-03-17 2016-11-16 富士重工業株式会社 車両の走行制御装置
JP6376059B2 (ja) * 2015-07-06 2018-08-22 トヨタ自動車株式会社 自動運転車両の制御装置
KR101714185B1 (ko) * 2015-08-05 2017-03-22 엘지전자 주식회사 차량 운전 보조장치 및 이를 포함하는 차량
EP3494445B1 (en) * 2016-08-02 2020-11-04 PCMS Holdings, Inc. System and method for optimizing autonomous vehicle capabilities in route planning
WO2018123014A1 (ja) * 2016-12-28 2018-07-05 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
US10627818B2 (en) * 2018-03-28 2020-04-21 Zoox, Inc. Temporal prediction model for semantic intent understanding
US20190367019A1 (en) * 2018-05-31 2019-12-05 TuSimple System and method for proximate vehicle intention prediction for autonomous vehicles
US11048253B2 (en) * 2018-11-21 2021-06-29 Waymo Llc Agent prioritization for autonomous vehicles
US11409285B2 (en) * 2018-12-27 2022-08-09 Continental Automotive Systems, Inc. Method for maneuver prediction of traffic participant

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006240444A (ja) 2005-03-02 2006-09-14 Toyota Motor Corp 車両用制御装置
JP2008158598A (ja) * 2006-12-21 2008-07-10 Hitachi Software Eng Co Ltd 路面状況管理システム
JP2010033441A (ja) * 2008-07-30 2010-02-12 Fuji Heavy Ind Ltd 車両の運転支援装置
JP2014232508A (ja) * 2013-05-30 2014-12-11 トヨタ自動車株式会社 回避軌道予測装置
JP2015210609A (ja) * 2014-04-24 2015-11-24 本田技研工業株式会社 レーンマーク認識装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3627470A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111223319A (zh) * 2018-11-23 2020-06-02 宝沃汽车(中国)有限公司 行车策略规划方法、装置和车辆
CN109583151A (zh) * 2019-02-20 2019-04-05 百度在线网络技术(北京)有限公司 车辆的行驶轨迹预测方法及装置
JP2020132151A (ja) * 2019-02-20 2020-08-31 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 車両走行軌跡の予測方法、装置、端末、記憶媒体、及びプログラム
RU2757037C1 (ru) * 2020-04-23 2021-10-11 Общество с ограниченной ответственностью «Яндекс Беспилотные Технологии» Способ и система для выявления наличия колеи на текущей местности
GB2599727A (en) * 2020-10-12 2022-04-13 Daimler Ag Predicting the behavior of a vehicle using agent-to-agent relations to control an autonomous vehicle

Also Published As

Publication number Publication date
EP3627470A1 (en) 2020-03-25
JP6874834B2 (ja) 2021-05-19
KR20190135051A (ko) 2019-12-05
RU2721387C1 (ru) 2020-05-19
US20200164873A1 (en) 2020-05-28
JPWO2018211582A1 (ja) 2020-04-02
CN110622226A (zh) 2019-12-27
BR112019024097A2 (pt) 2020-06-02
CA3063820A1 (en) 2019-12-09
EP3627470A4 (en) 2020-05-27
MX2019013555A (es) 2019-12-18

Similar Documents

Publication Publication Date Title
WO2018211582A1 (ja) 走行支援装置の動作予測方法及び動作予測装置
JP6798611B2 (ja) 走行支援方法及び走行支援装置
JP6935813B2 (ja) 運転支援方法及び運転支援装置
US11442450B2 (en) Method for determining passable area in planning a path of autonomous driving vehicles
JP6773220B2 (ja) 走行支援装置の走行支援方法及び走行支援装置
JP7193202B2 (ja) 動作予測方法及び動作予測装置
JP7167977B2 (ja) 車両走行支援方法及び車両走行支援装置
JP7206048B2 (ja) 運転特性推定方法及び運転特性推定装置
WO2018198186A1 (ja) 走行支援方法及び走行支援装置
WO2020053612A1 (ja) 車両挙動予測方法及び車両挙動予測装置
US20240174240A1 (en) Method for Predicting Behavior of Other Vehicle, Device for Predicting Behavior of Other Vehicle, and Driving Assistance Method
JP2023151308A (ja) 先行車両判定方法及び先行車両判定装置
CN117836182A (zh) 车辆控制方法及车辆控制装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17910176

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019518628

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20197033266

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 3063820

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112019024097

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 2017910176

Country of ref document: EP

Effective date: 20191216

ENP Entry into the national phase

Ref document number: 112019024097

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20191114