WO2020194018A1 - 挙動予測方法及び挙動予測装置並びに車両制御装置 - Google Patents

挙動予測方法及び挙動予測装置並びに車両制御装置 Download PDF

Info

Publication number
WO2020194018A1
WO2020194018A1 PCT/IB2019/000381 IB2019000381W WO2020194018A1 WO 2020194018 A1 WO2020194018 A1 WO 2020194018A1 IB 2019000381 W IB2019000381 W IB 2019000381W WO 2020194018 A1 WO2020194018 A1 WO 2020194018A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
behavior
road
region
prediction
Prior art date
Application number
PCT/IB2019/000381
Other languages
English (en)
French (fr)
Inventor
方芳
南里卓也
Original Assignee
日産自動車株式会社
ルノー エス. ア. エス.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社, ルノー エス. ア. エス. filed Critical 日産自動車株式会社
Priority to EP19920914.9A priority Critical patent/EP3950452A4/en
Priority to CN201980094913.5A priority patent/CN113661107B/zh
Priority to US17/442,990 priority patent/US11447130B2/en
Priority to RU2021131347A priority patent/RU2767833C1/ru
Priority to JP2021508336A priority patent/JP7259939B2/ja
Priority to PCT/IB2019/000381 priority patent/WO2020194018A1/ja
Publication of WO2020194018A1 publication Critical patent/WO2020194018A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • B60W10/06Conjoint control of vehicle sub-units of different type or different function including control of propulsion units including control of combustion engines
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18154Approaching an intersection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/05Type of road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4046Behavior, e.g. aggressive or erratic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/406Traffic density
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/408Traffic behavior, e.g. swarm
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way

Definitions

  • the present invention relates to a behavior prediction method, a behavior prediction device, and a vehicle control device.
  • Patent Document 1 discloses a traveling control device that controls the traveling of the own vehicle based on the traveling state of the preceding vehicle traveling in front of the own vehicle.
  • the travel control device determines the driving characteristics of the preceding vehicle based on the driving operation information of the preceding vehicle traveling in front of the own vehicle, and predicts the traveling state of the preceding vehicle based on the determined driving characteristics. Then, the travel control device controls the travel of the own vehicle based on the predicted travel state of the preceding vehicle.
  • the present invention has been made in view of such a problem, and an object of the present invention is to provide a behavior prediction method, a behavior prediction device, and a vehicle control device capable of predicting a long-term situation around a vehicle.
  • the behavior prediction method identifies a first object that affects the behavior of the vehicle from the objects around the vehicle.
  • the behavior prediction method performs prediction processing for predicting the behavior by extracting a second object that affects the behavior of the first object from among a plurality of objects existing around the first object.
  • the behavior prediction method uses the extracted second object as a new first object, extracts a new second object that affects the behavior of the new first object, and performs prediction processing for predicting the behavior.
  • the behavior prediction method repeats the prediction process a predetermined number of times. Then, the behavior prediction method predicts the behavior of the first object based on the behavior of each of the second objects for which the prediction processing has been performed.
  • FIG. 1 is a block diagram showing a configuration of a behavior prediction device according to the present embodiment.
  • FIG. 2 is a flowchart showing a processing procedure for behavior prediction according to the present embodiment.
  • FIG. 3 is a flowchart showing a processing procedure for setting the number of extractions.
  • FIG. 4 is a flowchart showing a processing procedure for setting the first area.
  • FIG. 5A is an explanatory diagram showing an example of a range in the left-right direction of the first region set around the own vehicle on a straight road.
  • FIG. 5B is an explanatory diagram showing an example of a range in the left-right direction of the first region set around the own vehicle on the highway.
  • FIG. 5A is an explanatory diagram showing an example of a range in the left-right direction of the first region set around the own vehicle on a straight road.
  • FIG. 5B is an explanatory diagram showing an example of a range in the left-right direction of the first region set around the own vehicle on the highway.
  • FIG. 5C is an explanatory diagram showing an example of a range in the left-right direction of the first region set around the own vehicle on the highway.
  • FIG. 6 is an explanatory diagram showing an example of a range in the front-rear direction of the first region set around the own vehicle on the highway.
  • FIG. 7A is an explanatory diagram showing an example of the range of the first region set around the own vehicle at an intersection without a traffic light.
  • FIG. 7B is an explanatory diagram showing an example of the range of the first region set around the own vehicle at an intersection without a traffic light.
  • FIG. 8A is an explanatory diagram showing an example of the range of the first region set around the own vehicle on the straight road of the general road.
  • FIG. 8B is an explanatory diagram showing an example of the range of the first region set around the own vehicle on the straight road of the general road.
  • FIG. 8C is an explanatory diagram showing an example of the range of the first region set around the own vehicle on the straight road of the general road.
  • FIG. 8D is an explanatory diagram showing an example of the range of the first region set around the own vehicle on the straight road of the general road.
  • FIG. 9 is an explanatory diagram showing the concept of extracting the first object at the intersection.
  • FIG. 10A is an explanatory diagram showing an extraction concept of a first object on a straight road.
  • FIG. 10B is an explanatory diagram showing the concept of extracting the first object on the straight road.
  • FIG. 11 is an explanatory diagram showing the concept of extracting the first object on the straight road.
  • FIG. 12A is an explanatory diagram showing the concept of extracting the second object on the straight road.
  • FIG. 12B is an explanatory diagram showing the concept of extracting the second object on the straight road.
  • FIG. 12C is an explanatory diagram showing the concept of extracting the second object on the straight road.
  • FIG. 13A is an explanatory diagram showing the concept of extracting the second object on the straight road.
  • FIG. 13B is an explanatory diagram showing the concept of extracting the second object on the straight road.
  • FIG. 13C is an explanatory diagram showing the concept of extracting the second object on the straight road.
  • FIG. 14A is an explanatory diagram showing an object for which behavior prediction is performed.
  • FIG. 14B is an explanatory diagram showing an object for which behavior prediction is performed.
  • FIG. 15A is an explanatory diagram showing an example of excluding an object from extraction.
  • FIG. 15B is an explanatory diagram showing an example of excluding an object from extraction.
  • FIG. 15C is an explanatory diagram showing an example of excluding an object from extraction.
  • the configuration of the behavior prediction device according to the present embodiment will be described with reference to FIG.
  • the behavior prediction device includes an object detection device 1, a vehicle position estimation device 4, a map acquisition device 5, a traffic rule acquisition device 6, and a microcomputer 50.
  • the behavior prediction device may be applied to a vehicle having an automatic driving function, or may be applied to a vehicle not having an automatic driving function. Further, the behavior prediction device may be applied to a vehicle capable of switching between automatic driving and manual driving.
  • the vehicle to which the behavior prediction device is applied is referred to as a own vehicle.
  • Autonomous driving refers to a state in which at least one actuator among actuators such as a brake, an accelerator, and a steering wheel is controlled without the operation of an occupant. Therefore, other actuators may be operated by the operation of the occupant. Further, the automatic operation may be a state in which any control such as acceleration / deceleration control or lateral position control is executed. Further, the manual operation in the present embodiment refers to a state in which the occupant is operating the brake, the accelerator, and the steering, for example.
  • the object detection device 1 includes a plurality of object detection sensors such as a laser radar, a millimeter wave radar, and a camera mounted on the own vehicle.
  • the object detection device 1 detects an object around the own vehicle by using a plurality of object detection sensors.
  • the object detection device 1 detects moving objects including other vehicles, motorcycles, bicycles, and pedestrians, and stationary objects including parked vehicles and buildings. For example, the object detection device 1 detects the position, posture (yaw angle), size, speed, acceleration, deceleration, and yaw rate of a moving object and a stationary object with respect to the own vehicle.
  • the own vehicle position estimation device 4 measures the absolute position of the own vehicle by using position estimation technology such as GPS (Global Positioning System) and odometry.
  • the own vehicle position estimation device 4 measures the absolute position of the own vehicle, that is, the position, vehicle speed, acceleration, steering angle, and posture of the own vehicle with respect to a predetermined reference point by using the position detection sensor.
  • the vehicle position estimation device 4 includes a GPS receiver, an inertial navigation system, sensors provided on a brake pedal and an accelerator pedal, sensors for acquiring vehicle behavior such as a wheel speed sensor and a yaw rate sensor, a laser radar, and a camera. It has been.
  • the map acquisition device 5 acquires map information indicating the structure of the road on which the own vehicle travels.
  • the map information acquired by the map acquisition device 5 includes a road environment, an absolute position of a lane, a lane connection relationship, a road structure such as a relative positional relationship, a traffic rule, a road sign, and the like. Further, the map information acquired by the map acquisition device 5 also includes facility information such as a parking lot and a gas station.
  • the map acquisition device 5 may own a map database storing map information, or may acquire map information from an external map data server by cloud computing. Further, the map acquisition device 5 may acquire map information by using vehicle-to-vehicle communication and road-to-vehicle communication.
  • the traffic rule acquisition device 6 acquires the traffic rules applied to the own vehicle based on the road environment on which the own vehicle is traveling, road signs, and the like.
  • the traffic rule acquisition device 6 includes a communication device, a camera, and the like, and acquires a road environment, a road sign, and the like by using information obtained from a camera or the like at a young age by using vehicle-to-vehicle communication or road-to-vehicle communication.
  • the traffic rule acquisition device 6 acquires the traffic rules applied to the own vehicle based on the acquired road environment, road signs, and the like. If the map acquisition device 5 can acquire traffic rules as one of the map information, the traffic rule acquisition device 6 may be substituted by the map acquisition device 5.
  • the microcomputer 50 exists around the own vehicle based on the detection result of the object detection device 1, the estimation result by the own vehicle position estimation device 4, the acquisition result of the map acquisition device 5, and the acquisition result of the traffic rule acquisition device 6. Predict the behavior of an object (typically a moving object). Further, the microcomputer 50 controls the traveling state of the own vehicle based on the predicted behavior of the object.
  • the behavior prediction according to the present embodiment predicts the behavior of an object (hereinafter referred to as "first object") that affects the behavior of the own vehicle. Further, the behavior prediction according to the present embodiment predicts the behavior of the second object that affects the behavior of the first object, and predicts the behavior of the first object based on the behavior of the second object.
  • the microcomputer 50 is a general-purpose microcomputer including a CPU (central processing unit), a memory, and an input / output unit.
  • a computer program (behavior prediction program) for functioning as a behavior prediction device is installed in the microcomputer.
  • the microcomputer functions as a plurality of information processing circuits included in the behavior prediction device.
  • an example of realizing a plurality of information processing circuits included in the behavior prediction device by software is shown.
  • a plurality of information processing circuits may be configured by individual hardware.
  • the microcomputer 50 includes a detection integration unit 2, an object tracking unit 3, a map position estimation unit 7, a behavior prediction unit 10, and a vehicle control unit 20 as a plurality of information processing circuits.
  • the detection integration unit 2 integrates a plurality of detection results obtained from each of the plurality of object detection sensors included in the object detection device 1 and outputs one detection result for each object. Specifically, from the behavior of the object obtained from each of the object detection sensors, the rational behavior of the object with the smallest error is calculated in consideration of the error characteristics of each object detection sensor. Specifically, by using a known sensor fusion technique, the detection results acquired by a plurality of object detection sensors are comprehensively evaluated to obtain more accurate detection results.
  • the object tracking unit 3 tracks the object detected by the detection integration unit 2. Specifically, the object tracking unit 3 verifies (associates) the identity of the object between different times from the behavior of the objects output at different times, and tracks the object based on the association. ..
  • the position estimation unit 7 in the map estimates the position and orientation of the own vehicle on the map from the absolute position of the own vehicle obtained by the own vehicle position estimation device 4 and the map information acquired by the map acquisition device 5.
  • the position estimation unit 7 in the map estimates in which lane the own vehicle is located.
  • the behavior prediction unit 10 predicts the behavior of objects around the own vehicle.
  • the behavior prediction unit 10 includes a course candidate acquisition unit 11, a course acquisition unit 12, a traveling environment acquisition unit 13, an object extraction unit 14, and a prediction unit 15.
  • the course candidate acquisition unit 11 calculates the course candidate of the object based on the map information, the detection result of the object around the own vehicle, the position information of the own vehicle, and the traffic rule.
  • An object's course candidate is a course candidate that the object can select.
  • the course acquisition unit 12 acquires the course of its own vehicle.
  • the route acquisition unit 12 acquires the route information defined in the navigation device (not shown), and acquires the route of the own vehicle from the route information.
  • the course acquisition unit 12 may calculate the course of the own vehicle based on the destination information and the map information.
  • the driving environment acquisition unit 13 acquires the road environment of the road on which the own vehicle is currently traveling, based on the position information, map information, and the like of the own vehicle.
  • Road environment refers to road types such as expressways, intersections, and confluence sections, and congestion conditions occurring on roads.
  • the object extraction unit 14 extracts an object to be behavior-predicted from the objects around the own vehicle based on the course candidate of the object, the course and running state of the own vehicle, the road environment of the own vehicle, the traffic rule, and the like. To do. Specifically, the object extraction unit 14 identifies (extracts) a first object (first first object) that affects the behavior of the own vehicle from the objects around the own vehicle. In addition, the object extraction unit 14 performs a process (prediction process) of extracting a second object that affects the behavior of the first object from a plurality of objects existing around the first object.
  • the object extraction unit 14 uses the extracted second object as a new first object, and extracts a second object (new second object) that affects the behavior of the new first object (prediction processing). )I do. In this way, the object extraction unit 14 repeatedly extracts the second object, which is the target object for which the behavior is predicted, up to a predetermined number of extraction times.
  • the prediction unit 15 performs a process of predicting the behavior of the second object extracted by the object extraction unit 14 (prediction process) every time the target object for which the behavior is predicted is extracted, so that a predetermined predetermined value is determined. Repeat the number of extractions. Further, the prediction unit 15 of the first object (first first object) identified first based on the behavior of n (n: natural number corresponding to the number of extractions) second objects for which the prediction process is performed. Predict behavior.
  • the vehicle control unit 20 controls the vehicle of its own vehicle based on the behavior of the first object predicted by the behavior prediction unit 10.
  • the vehicle control unit 20 controls various actuators (steering actuator, accelerator pedal actuator, brake actuator, etc.) of the own vehicle to execute automatic driving control or driving support control (for example, deceleration control).
  • the microcomputer 50 is configured to have the function of the vehicle control unit 20, and the behavior prediction device can be applied as a vehicle control device.
  • the behavior prediction device may not have the function of the vehicle control unit 20, but may have only the function of predicting the behavior of the object around the own vehicle.
  • This processing procedure is called by the on of the ignition switch (IGN) as a trigger and executed by the microcomputer 50.
  • the on of the power switch may be used as a trigger instead of the ignition switch.
  • the detection integration unit 2 acquires object information, that is, object information around the own vehicle from the object detection device 1.
  • the detection integration unit 2 calculates the behavior of the object based on the object information.
  • the object tracking unit 3 tracks the object detected by the detection integration unit 2.
  • step S11 the position estimation unit 7 in the map acquires the position information of the own vehicle from the own vehicle position estimation device 4.
  • the position estimation unit 7 in the map acquires the map information.
  • the position estimation unit 7 in the map calculates the position information of the own vehicle on the map, that is, which traveling lane the vehicle is traveling in, and the direction of the own vehicle in the traveling lane.
  • the course candidate acquisition unit 11 bases the position information of the own vehicle and the object information around the own vehicle on the position information of the object on the map, that is, the position of the object on the map (traveling lane, sidewalk, etc.). ) And the direction are calculated.
  • the course candidate acquisition unit 11 acquires lane information and traffic rules included in a certain range centered on an object.
  • the course candidate acquisition unit 11 can calculate the course candidate of the object based on this information.
  • the course acquisition unit 12 acquires the course of the own vehicle on the map.
  • the route acquisition unit 12 can acquire the route of the own vehicle from the route information set in advance by the navigation device or the like. Alternatively, the route acquisition unit 12 may calculate the route information based on the destination information and acquire the route.
  • step S14 the course acquisition unit 12 acquires the traveling state of the own vehicle.
  • the running state acquires at least the vehicle speed and the steering angle.
  • step S15 the object extraction unit 14 sets the number of extractions based on the road environment.
  • the number of extractions is the number of times the prediction process is repeated for the second object. The details of the process of setting the number of extractions will be described with reference to FIG.
  • step S30 the traveling environment acquisition unit 13 acquires the road type of the road on which the own vehicle is traveling based on the position information and the map information of the own vehicle.
  • step S31 the traveling environment acquisition unit 13 determines whether or not the own vehicle is on the highway. If the own vehicle is on the highway, a positive determination is made in step S31, and the process proceeds to step S33. On the other hand, if the own vehicle is on a general road other than the expressway, a negative determination is made in step S31, and the process proceeds to step S32.
  • step S32 the traveling environment acquisition unit 13 determines whether or not there is an intersection in front of the own vehicle.
  • the traveling environment acquisition unit 13 determines the presence or absence of an intersection based on, for example, the time it takes for the own vehicle to reach the center of the intersection or the distance between the own vehicle and the center of the intersection. If there is an intersection in front of the own vehicle, an affirmative determination is made in step S32, and the process proceeds to step S35. On the other hand, if there is no intersection in front of the own vehicle, a negative determination is made in step S32, and the process proceeds to step S33.
  • step S33 the traveling environment acquisition unit 13 acquires the presence or absence of a merging lane in front of the own vehicle.
  • the traveling environment acquisition unit 13 acquires information that there is a point where the merging lane merges in a predetermined range in front of the own vehicle. Further, when the own vehicle is traveling on the confluence road in the confluence section, the traveling environment acquisition unit 13 acquires information that there is a point where the own vehicle merges with the main road within a predetermined range in front of the own vehicle.
  • step S34 the traveling environment acquisition unit 13 acquires the traffic congestion situation around the own vehicle.
  • step S35 the driving environment acquisition unit 13 sets the number of extractions.
  • the degree of complexity in which objects intersect varies. Normally, on general roads, various objects such as pedestrians and bicycles are interlaced in addition to automobiles and motorcycles. Therefore, general roads are more complicated than highways where the types of objects that can be passed are restricted. In addition, even on general roads, there are various types of vehicles such as oncoming vehicles and pedestrians on pedestrian crossings when turning left or right, in addition to other vehicles traveling in the same direction as the own vehicle and pedestrians walking on the shoulder. Objects intersect. Therefore, intersections have a higher degree of complexity in which objects intersect than straight roads (general roads excluding intersections). That is, the degree of complexity in which objects intersect means the degree of intersection of course candidates (the number of intersections) assumed in the road environment.
  • the traveling environment acquisition unit 13 sets the number of extractions based on the degree of complexity in which objects intersect in the road environment in which the own vehicle travels. Specifically, the traveling environment acquisition unit 13 is set so that the number of extractions is reduced in the order of intersections, general roads, and expressways. For example, intersections are set 5 times, straight roads are set 3 times, and expressways are set 2 times. Further, even in the same traveling environment, when there is a traffic jam, the degree of complexity in which the objects intersect is lower than when there is no traffic jam. Therefore, it seems that the number of extractions when there is a traffic jam is lower than that when there is no traffic jam.
  • the driving environment acquisition unit 13 holds data that defines the relationship between the road environment, the number of extractions, and the traffic congestion situation.
  • the traveling environment acquisition unit 13 sets the number of extractions based on the road environment and the traffic jam condition.
  • step S16 the object extraction unit 14 sets the first area based on the position information and the map information of the own vehicle.
  • the first region is a region for extracting a first object that affects the behavior of the own vehicle, and is set around the own vehicle. A processing procedure for setting the first area will be described with reference to FIG.
  • step S40 the traveling environment acquisition unit 13 acquires the number of lanes on the road on which the own vehicle is traveling.
  • step S41 the traveling environment acquisition unit 13 acquires the road type of the road on which the own vehicle is traveling.
  • step S42 the traveling environment acquisition unit 13 determines whether or not the own vehicle is on the highway. If the own vehicle is on the highway, a positive determination is made in step S42, and the process proceeds to step S43. On the other hand, if the own vehicle is on a general road other than the expressway, a negative determination is made in step S42, and the process proceeds to step S44.
  • step S43 the traveling environment acquisition unit 13 acquires the presence or absence of the median strip.
  • step S44 the traveling environment acquisition unit 13 determines whether or not there is an intersection in front of the own vehicle. If there is an intersection in front of the own vehicle, an affirmative determination is made in step S44, and the process proceeds to step S45. If there is no intersection in front of the own vehicle, a negative determination is made in step S44, and the process proceeds to step S47.
  • step S45 the driving environment acquisition unit 13 acquires the intersection type.
  • the types of intersections are, for example, intersections with traffic lights, intersections without traffic lights, roundabouts, 4-way stops (4WAY STOP), intersections with stop lines, and the like.
  • step S46 the traveling environment acquisition unit 13 acquires the priority in the traffic rules at the intersection based on the intersection type and the position information of the own vehicle. For example, at an intersection with a traffic light, when the signal of the own vehicle is blue, the object extraction unit 14 determines that the road of the own vehicle has a higher priority than the intersection road. Further, when there is a stop line in front of the own vehicle at an intersection having a stop line, the object extraction unit 14 determines that the road of the own vehicle has a lower priority than the intersection road. On the contrary, when there is no stop line in front of the own vehicle, the object extraction unit 14 determines that the road of the own vehicle has a higher priority than the crossing road. Further, when the course of the own vehicle at the intersection is a right turn, the object extraction unit 14 determines that the lane of the own vehicle has a lower priority than the oncoming lane going straight.
  • step S47 the traveling environment acquisition unit 13 acquires the presence or absence of a pedestrian crossing in front of the own vehicle.
  • step S48 the driving environment acquisition unit 13 acquires the presence or absence of a side road in front of the own vehicle.
  • step S49 the traveling environment acquisition unit 13 acquires the separation method between the road and the sidewalk of the own vehicle. Separation methods are various methods such as planting, fences, guardrails, and non-separation methods.
  • step S50 the object extraction unit 14 sets the first region based on the traveling state of the own vehicle and the road environment acquired in steps S40 to S49.
  • a method of setting the first region will be described with reference to FIGS. 5A to 8D.
  • the traveling lane L11, the oncoming lane L21, and the own vehicle Va are shown.
  • the traveling lane is referred to as traveling lane L11, L12, etc.
  • the oncoming lane is referred to as oncoming lane L21, L22, etc.
  • the own vehicle Va is traveling in the traveling lane L11 on the shouldermost side of the road.
  • the object extraction unit 14 uses the traveling lane in which the own vehicle Va is traveling as a reference, the traveling lane of the own vehicle Va, and the second lane and the second lane adjacent to the oncoming lane when viewed from this traveling lane.
  • the range including the third lane adjacent to the oncoming lane side when viewed is set as the first region R1.
  • the three traveling lanes L11, L12, and L13 are the first region R1.
  • the first region R1 is set to the range up to the oncoming lane L22 closest to the own vehicle Va. Further, as shown in FIG. 5C, when there is a median strip L30, the first region R1 is set in a range that does not include the oncoming lane.
  • the object extraction unit 14 sets the distance from the own vehicle Va to the front so that the TTC (Time-To-Collision) is within a predetermined time as the first region R1. For example, when the TTC is 5 seconds and the own vehicle Va is traveling at 80 km / h, the first region R1 is a distance from the own vehicle Va to about 100 m ahead. Further, the range behind the own vehicle Va is set according to the course of the own vehicle Va. For example, when a lane change is planned as the course of the own vehicle Va, the first vehicle is another vehicle traveling in the lane after the lane change of the own vehicle Va and another vehicle entering the lane after the lane change. It needs to be considered as an object. Therefore, as shown in FIG. 6, the object extraction unit 14 sets the distance from the own vehicle Va to the rear so that the TTC is within a predetermined time (for example, 3 seconds) as the first region R1.
  • a predetermined time for example, 3 seconds
  • FIGS. 7A to 7B a method of setting the first region R1 when the own vehicle enters an intersection without a traffic light will be described.
  • a road Sa including a traveling lane and an oncoming lane of the own vehicle Va, an intersecting road Sb intersecting the road Sa, and the own vehicle Va are shown.
  • the object extraction unit 14 sets a predetermined reference distance from the own vehicle Va to the front as the first region R1.
  • the reference distance is the time until the own vehicle Va reaches the center of the intersection and the time until the oncoming vehicle reaches the center of the intersection, assuming that there is an oncoming vehicle having the same speed as the own vehicle Va. Is the distance within a certain period of time. For example, when the distance from the own vehicle Va to the center of the intersection is 30 m, the speed is 10 m / s, and the time difference is 3 seconds, the distance from the center of the intersection to the oncoming vehicle is 60 m. Therefore, the object extraction unit 14 sets a distance of 90 m from the own vehicle Va to the front as the first region R1.
  • the object extraction unit 14 sets the first region R1 based on the priority at the intersection of the own vehicle Va and the course of the own vehicle Va. As shown in FIG. 7A, when the road of the own vehicle Va has a higher priority, the object extraction unit 14 sets a range in which a predetermined margin is added to the pedestrian crossing intersecting the right turn path of the own vehicle Va. It is set as one area R1. As shown in FIG. 7B, when the road of the own vehicle Va has a lower priority, the object extraction unit 14 sets the first region R1 in the same way as the range setting in the front-rear direction.
  • the object extraction unit 14 sets the distance from the own vehicle Va to the front so that the TTC is within a predetermined time as the first region R1. For example, TTC is 3 seconds.
  • the size in the left-right direction is set according to the number of lanes described above, the presence or absence of a pedestrian crossing, the presence or absence of a side road, and the separation method from the sidewalk.
  • the object extraction unit 14 sets the first region R1 so as to include the sidewalk L40 together with the above-mentioned three lanes.
  • the pedestrian crossing and the side road L50 are included in the range in the front-rear direction with respect to the first region R1
  • the object extraction unit 14 expands the range in the left-right direction so as to include these. As shown in FIG.
  • the object extraction unit 14 when the pedestrian crossing is included in the range in the front-rear direction, the object extraction unit 14 expands the width in the left-right direction in the area corresponding to the pedestrian crossing.
  • the width to be expanded is a pedestrian crossing with a predetermined margin width (for example, 2 m) added.
  • FIG. 8C when the connection position with the side road L50 is in the range in the front-rear direction, the object extraction unit 14 expands the width in the left-right direction in the area corresponding to the side road L50.
  • the expanding width D1 is, for example, 40 m.
  • FIG. 8D when the sidewalk L40 and the road are separated, the object extraction unit 14 excludes the sidewalk L40 and sets the first region R1.
  • the first region R1 set by these methods may be a larger range than the detection range of the object detection device 1.
  • the object extraction unit 14 sets the first region R1 with the detection range of the object detection device 1 as the upper limit.
  • step S17 the object extraction unit 14 extracts the first object that affects the behavior of the own vehicle Va from the objects in the set first region R1.
  • the course acquisition unit 12 acquires the course of the own vehicle.
  • the course candidate acquisition unit 11 calculates the course candidate of the object in the first region R1 based on the map information, the position information of the object, and the traffic rule.
  • the object extraction unit 14 determines whether or not the behavior of the own vehicle Va is affected by whether or not the course of the own vehicle Va and the course candidate of the object in the first region R1 intersect.
  • FIG. 9 shows a traveling scene in which the own vehicle Va enters the intersection.
  • the intersection there are two other vehicles Vb1 and Vb2 and pedestrian Pe1 traveling in the oncoming lane.
  • another vehicle Vb1 at the head of the oncoming lane exists.
  • the course of the own vehicle Va is a right turn at the intersection.
  • the object extraction unit 14 extracts the other vehicle Vb1 as the first object.
  • the object extraction unit 14 sets the pedestrian Pe1 as the first object. Do not extract as.
  • FIGS. 10A and 10B show a driving scene in which the own vehicle travels on a highway.
  • traveling lanes L11 to L14, oncoming lanes L21 to L23, a median strip L30, and own vehicle Va are shown.
  • the own vehicle Va is traveling in the traveling lane L11 on the most shoulder side of the road, and six other vehicles Vb1 to Vb6 exist around the own vehicle Va.
  • the course candidates of the own vehicle Va and the course candidates of the other vehicles Vb1 to Vb6 are indicated by arrows (note that the course candidates of the other vehicles Vb1 to Vb6 in FIG. 10B are those of FIG. 10A. Since they are the same, only straight-ahead candidates are drawn).
  • the object extraction unit 14 sets the first region R1 around the own vehicle Va.
  • the object extraction unit 14 extracts the other vehicle Vb4 as the first object among the other vehicles Vb2, Vb4, and Vb5 existing in the first region R1. This is because the other vehicle Vb4 traveling in the traveling lane L12 has a course candidate for changing lanes with respect to the traveling lane L11 in which the own vehicle Va travels straight.
  • the object extraction unit 14 sets the first region R1 around the own vehicle Va.
  • the object extraction unit 14 extracts the other vehicles Vb1, Vb2, and Vb4 as the first object among the other vehicles Vb1, Vb2, Vb4, and Vb5 existing in the first region R1.
  • the other vehicles Vb1 and Vb4 exist in front of and behind the own vehicle Va in the traveling lane L12 in which the own vehicle Va changes lanes.
  • the other vehicle Vb2 traveling in the traveling lane L13 has a course candidate for changing lanes with respect to the traveling lane L12 in which the own vehicle Va changes lanes.
  • the object extraction unit 14 may extract the first object in consideration of not only the course candidate but also whether the surrounding objects change the behavior of the own vehicle Va. For example, as shown in FIG. 11, when the other vehicle Vb4 changes lanes to the traveling lane L11, the other vehicle Vb4 is located in front of the own vehicle Va. The object extraction unit 14 predicts the approach position when the other vehicle Vb4 changes lanes to the traveling lane L11, and determines whether the relative distance D2 between the own vehicle Va and the approach position of the other vehicle Vb4 is equal to or greater than a predetermined value.
  • the predetermined value is, for example, a distance at which the TTC is 3 seconds.
  • the object extraction unit 14 determines that the other vehicle Vb4 does not affect the behavior of the own vehicle Va, and does not extract the other vehicle Vb4 as the first object.
  • the object extraction unit 14 sets the second region R2.
  • the second region R2 is a region for extracting a second object that affects the behavior of the extracted first object.
  • the second region R2 is set around the first object for each extracted first object.
  • the method of setting the second region R2 may be the same as the method of setting the first region R1, or may be set within a predetermined range around the first object.
  • step S19 the object extraction unit 14 determines whether or not there is an object in the set second region R2. If there is an object in the second region R2, an affirmative determination is made in step S19, and the process proceeds to step S20. On the other hand, if there is no object in the second region R2, a negative determination is made in step S19, and the process proceeds to step S24.
  • the object extraction unit 14 and the prediction unit 15 perform a prediction process of extracting the second object from the plurality of objects existing in the second region R2 and predicting the behavior.
  • the object extraction unit 14 sets the second region R2 for the new first object with the second object whose behavior was predicted last time as the new first object.
  • the behavior of the second object (new second object) existing in the second region R2 is predicted (new prediction processing).
  • the prediction process of extracting the second object by the object extraction unit 14 and the prediction unit 15 and predicting the behavior is repeated a predetermined number of times (the number of extractions). The details will be described below.
  • step S20 the object extraction unit 14 extracts the second object.
  • the object extraction unit 14 does not determine the second object for all the course candidates of the first object, but extracts the second object only for the course candidates that affect the behavior of the own vehicle Va.
  • step S21 the object extraction unit 14 predicts the behavior of the second object.
  • step S22 the object extraction unit 14 determines whether or not the number of prediction processes for extracting and predicting the second object has reached the number of extractions. When the number of prediction processes reaches the number of extractions, an affirmative determination is made in step S22, and the process proceeds to step S23. On the other hand, if the number of prediction processes has not reached the number of extractions, a negative determination is made in step S22, and the process returns to step S20. Then, in step S20, the object extraction unit 14 uses the second object whose behavior was predicted in the first prediction process (previous step S21) as a new first object, and uses the same method as in step S18 to make a new first object. A second region R2 for the object is set.
  • the object extraction unit 14 extracts a new second object (that is, an object that affects the behavior of the object as the new first object) existing in the set second region R2.
  • the prediction unit 15 predicts the behavior of a new second object extracted by the object extraction unit 14. In this way, the process of setting the second region R2 and predicting the behavior of the second object is repeated.
  • FIGS. 10A and 10B show a traveling scene in which the own vehicle Va travels on the highway, as in FIGS. 10A and 10B.
  • the object extraction unit 14 extracts the other vehicle Vb4 as the first object in the first region R1.
  • the object extraction unit 14 sets the second region R2 around the first object (other vehicle Vb4).
  • the second region R2 is set in a predetermined range in the front-rear direction and the left-right direction so that the other vehicle Vb4 is positioned in the lower center.
  • a course candidate for the other vehicle Vb4 there is a course candidate (solid line) for changing the lane from the traveling lane L12 to the traveling lane L11.
  • the object extraction unit 14 extracts another vehicle having a course candidate that the other vehicle Vb4 may take a course from the objects in the second region R2 as the second object.
  • FIG. 12B shows a course candidate for the other vehicle Vb4 may take a course from the objects in the second region R2 as the second object.
  • the other vehicle Vb5 has a course candidate for changing lanes from the traveling lane L13 to the traveling lane L12. Due to the influence of the other vehicle Vb5 changing lanes to the traveling lane L12, the other vehicle Vb4 may change lanes to the traveling lane L11. Therefore, the object extraction unit 14 extracts the other vehicle Vb5 as the second object.
  • the object extraction unit 14 further sets a second region R2 around the second object (another vehicle Vb5) as a new first object.
  • the second region R2 is set in a predetermined range in the front-rear direction and the left-right direction so that the other vehicle Vb5 is positioned at the center.
  • the object extraction unit 14 identifies a course candidate in which another vehicle Vb5, which is a new first object, may take a course.
  • the object extraction unit 14 From the objects in the second region R2, the object extraction unit 14 newly selects another vehicle having a course candidate that the other vehicle Vb5 may take, that is, another vehicle that affects the behavior of the other vehicle Vb5. 2 Extract as an object.
  • the other vehicle Vb6 has a course candidate for changing lanes from the traveling lane L14 to the traveling lane L13.
  • the other vehicle Vb4 has a course candidate for traveling straight in the traveling lane L12. Due to the influence of the other vehicle Vb6 changing lanes to the traveling lane L13, the other vehicle Vb5 may change lanes to the traveling lane L12. Further, due to the influence of the inter-vehicle distance with the other vehicle Vb4, the other vehicle Vb5 may change lanes to the traveling lane L12. Therefore, the object extraction unit 14 also extracts other vehicles Vb4 and Vb6 as the second object.
  • the extraction of the second object is also performed for the object (other vehicle Vb5) that directly affects the behavior of the first object (other vehicle Vb4).
  • the other vehicle Vb4 is the first object whose behavior is influenced by the other vehicle Vb5, and also corresponds to the second object which affects the behavior of the other vehicle Vb5.
  • FIGS. 13A to 13C show a scene in which the own vehicle Va is traveling on the highway.
  • the object extraction unit 14 sets the second region R2 around the first object (other vehicle Vb1).
  • the object extraction unit 14 identifies the first influence course candidate that affects the behavior of the own vehicle Va from the course candidates of the other vehicle Vb1 which is the first object.
  • the course candidate traveling straight in the traveling lane L12 corresponds to the first influence course candidate.
  • the object extraction unit 14 extracts from the second region R2 another vehicle having a course candidate that may affect the course of the first influence course candidate of the other vehicle Vb1 as the second object.
  • FIG. 13A shows that the other vehicle Vb1 is extracted as the first object.
  • the other vehicle Vb2 has a course candidate for changing lanes from the traveling lane L11 to the traveling lane L12. Due to the influence of the other vehicle Vb2 changing lanes to the traveling lane L12, the other vehicle Vb1 may be forced to decelerate. Therefore, the object extraction unit 14 extracts the other vehicle Vb2 as the second object.
  • the object extraction unit 14 uses another vehicle Vb2, which is a second object extracted as an object that affects the behavior of the other vehicle Vb1, as a new first object, and a second region around the other vehicle Vb2.
  • R2 is further set.
  • the object extraction unit 14 extracts a new second object, which is an object that affects the behavior of the new first object (other vehicle Vb2), from the objects in the second region R2.
  • the object extraction unit 14 extracts other vehicles Vb1 and Vb3 as new second objects as objects that affect the behavior of the other vehicle Vb2, based on the course candidates of the other vehicle Vb2 which is the new first object.
  • the object extraction unit 14 extracts, as a new second object, from the objects in the second region R2, another vehicle having a course candidate that may affect the course of the other vehicle Vb2.
  • the other vehicles Vb1 and Vb3 each include a course candidate for traveling straight in the traveling lane L11. Due to the influence of the inter-vehicle distance between the other vehicles Vb1 and Vb4, the other vehicle Vb2 may change lanes to the traveling lane L12. Therefore, the object extraction unit 14 also extracts the other vehicles Vb1 and Vb3 as the second object (see FIG. 13C).
  • the extraction of the second object is also performed for the object (other vehicle Vb2) that directly affects the behavior of the first object (other vehicle Vb1).
  • the other vehicle Vb2 corresponds to both the first object whose behavior is affected by the other vehicles Vb1 and Vb3 and the second object which affects the behavior of the other vehicle Vb1.
  • step S23 the prediction unit 15 predicts the behavior of the first object as the first object based on the behavior of n second objects corresponding to the number of extractions. That is, the prediction unit 15 predicts the behavior of the first object as the first object based on the behavior of the second object predicted in each of the n behavior predictions.
  • FIG. 14A shows the extraction results of the first object and the second object extracted in the examples of FIGS. 12A to 12C. That is, in the examples of FIGS. 12A to 12C, the first object that directly affects the behavior of the own vehicle Va is the other vehicle Vb4, and the second objects that indirectly affect the behavior of the own vehicle Va are Vb5 and Vb6. .. Further, FIG. 14B shows the extraction results of the first object and the second object extracted in the examples of FIGS. 13A to 13C. That is, in the examples of FIGS. 13A to 13C, the first object that directly or indirectly affects the behavior of the own vehicle Va is the other vehicle Vb1, and the second object that indirectly affects the behavior of the own vehicle Va is Vb2. It is Vb3.
  • step S24 the vehicle control unit 20 controls the own vehicle based on the predicted behavior of the first object.
  • step S25 the prediction unit 15 determines whether or not the ignition switch has been turned off.
  • a positive determination is made in step S25, and a series of processes is terminated (END).
  • END a series of processes is terminated
  • the ignition switch (IGN) is on, a negative determination is made in step S25, and the process returns to step S10.
  • the behavior prediction method and the behavior prediction device identify the first object that affects the behavior of the own vehicle Va from the objects around the own vehicle Va. Further, the behavior prediction method and the behavior prediction device according to the present embodiment extract a second object that affects the behavior of the first object from a plurality of objects existing around the first object and predict the behavior. Perform prediction processing (first prediction processing). After that, the object extracted as the second object is used as a new first object, and among a plurality of objects existing around the new first object, a new second object that affects the behavior of the new first object. Is extracted and prediction processing (new prediction processing) is performed to predict the behavior. Then, the prediction process of extracting the second object and predicting the behavior is repeated a predetermined number of times.
  • the behavior prediction method and the behavior prediction device first start with the first object based on the behavior of n (n: natural numbers corresponding to the number of extractions) of the second objects for which the prediction process has been performed.
  • the behavior of the object (the first object in the first prediction process) is predicted.
  • the behavior of the first object is predicted by taking into account the influence of the surrounding objects on the first object.
  • the behavior of the first object can be predicted with high accuracy, and the situation around the own vehicle Va can be predicted for a long period of time.
  • the number of times the prediction process is performed is limited to the number of times of extraction at the maximum.
  • the own vehicle Va may be controlled based on the predicted behavior of the first object.
  • the own vehicle Va can be controlled in consideration of the long-term situation around the own vehicle Va. As a result, the own vehicle Va can be appropriately controlled.
  • the first region R1 is set around the own vehicle Va based on the traveling state of the own vehicle Va or the road environment, and the first object is specified from the objects in the first region R1. You may.
  • the first object by specifying the first object only in the first region R1, it is possible to specify the first object after selecting the object. As a result, it is possible to reduce the calculation load and the calculation time while obtaining high prediction accuracy. Further, since the range of the first region R1 is set according to the traveling state of the own vehicle Va and the road environment, it is possible to appropriately cover the range in which an object that affects the behavior of the own vehicle Va exists. As a result, high prediction accuracy can be obtained.
  • the range in the front-rear direction regarding the first region R1 may be set according to the speed of the own vehicle Va.
  • the range in the front-rear direction with respect to the first region R1 can be optimized according to the speed of the own vehicle Va. As a result, it is possible to appropriately cover the range in which an object that affects the behavior of the own vehicle Va exists, so that high prediction accuracy can be obtained.
  • the road environment of the own vehicle Va is an environment in which an intersection exists in front of the own vehicle Va.
  • the method of the present embodiment may set the range in the left-right direction with respect to the first region R1 based on the priority in the traffic rule at the intersection.
  • the lateral range with respect to the first region R1 can be optimized according to the priority at the intersection. As a result, it is possible to appropriately cover the range in which an object that affects the behavior of the own vehicle Va exists, so that high prediction accuracy can be obtained.
  • the range in the left-right direction regarding the first region R1 is that of the road Sa of the own vehicle Va as compared with the case where the road Sa of the own vehicle Va has a higher priority than the crossing road Sb. May be wider when the priority is lower than that of the crossing road Sb.
  • the range in the left-right direction regarding the first region R1 is that the road Sa of the own vehicle Va has a higher priority than the crossing road Sb. It may be wider when the priority of the road of Va is unknown.
  • the priority of the road of the own vehicle Va is unknown, it is safer to assume that the priority of the intersecting road is high. Therefore, when the priority is unknown, the range in the left-right direction can be made relatively large to appropriately cover the range in which an object that affects the behavior of the own vehicle Va exists. As a result, high prediction accuracy can be obtained.
  • the road environment of the own vehicle Va is a straight road.
  • the method of the present embodiment may set the range in the left-right direction with respect to the first region R1 based on the structure of the shoulder of the straight road or the presence or absence of a pedestrian crossing for crossing the straight road.
  • the lateral range with respect to the first region R1 can be optimized according to the structure of the straight road. As a result, it is possible to appropriately cover the range in which an object that affects the behavior of the own vehicle Va exists, so that high prediction accuracy can be obtained.
  • the range in the left-right direction regarding the first region R1 may be set based on the number of lanes on the road on which the own vehicle Va travels.
  • the lateral range with respect to the first region R1 can be optimized according to the number of lanes on the road. As a result, it is possible to appropriately cover the range in which an object that affects the behavior of the own vehicle Va exists, so that high prediction accuracy can be obtained.
  • the number of extractions may be set based on the degree of complexity in which objects intersect in the road environment in which the own vehicle Va travels.
  • the mutual influence between objects changes depending on the degree of complexity in which each object intersects. Therefore, by considering this degree of complexity, the prediction process can be performed a number of times suitable for the road environment. As a result, the influence of the second object can be appropriately reflected in predicting the behavior of the first object. As a result, the behavior of the first object can be predicted with high accuracy, and the situation around the own vehicle Va can be predicted for a long period of time.
  • the number of extractions may be less when the own vehicle Va travels on the highway than when the own vehicle Va travels on the general road.
  • the number of extractions is more when the own vehicle Va travels at the intersection than when the own vehicle Va travels on the straight road.
  • the environment with intersections tends to have a higher degree of traffic complexity than the environment without intersections. Therefore, the influence of the second object can be appropriately reflected by increasing the number of extractions of the environment with intersections to that of the environment without intersections. As a result, the behavior of the first object can be predicted with high accuracy, and the situation around the own vehicle Va can be predicted for a long period of time.
  • the designated number of times may be less when the own vehicle Va travels in the non-merging section than when the own vehicle Va travels in the confluence section.
  • the environment with a confluence section tends to have a higher degree of traffic complexity than the environment without a confluence section. Therefore, the influence of the second object can be appropriately reflected by increasing the number of extractions of the environment with the merging section to that of the environment without the merging lane. As a result, the behavior of the first object can be predicted with high accuracy, and the situation around the own vehicle Va can be predicted for a long period of time.
  • the designated number of times may be less in the case where the traffic jam does not occur than in the case where the traffic jam occurs.
  • the traffic congestion tends to be less complicated in the environment where there is no congestion than in the environment where there is no congestion. Therefore, even if the designated number of times when the traffic jam occurs is lower than that when the traffic jam does not occur, the influence of the second object can be appropriately reflected. As a result, the behavior of the first object can be predicted with high accuracy, and the situation around the own vehicle Va can be predicted for a long period of time.
  • the object extraction unit 14 may exclude an object in the second region R2 that has a relatively low influence on the behavior of the first object from the extraction of the second object.
  • FIG. 15A shows a running scene at the intersection of the own vehicle Va.
  • the course of Va of the own vehicle is a right turn at the intersection.
  • the object extraction unit 14 extracts the oncoming vehicle Vc1 as the first object. Further, the pedestrian Pe1 and the other vehicles Vb1 to Vb5 intersect with the course candidate for which the oncoming vehicle Vc1 turns right. Therefore, normally, the object extraction unit 14 extracts the pedestrian Pe1 and the other vehicles Vb1 to Vb5 as the second object.
  • the object extraction unit 14 may exclude other vehicles Vb2 to Vb5, which have a relatively low influence on the behavior of the first object, from the extraction of the second object.
  • the object extraction unit 14 extracts it as the second object.
  • the second object having a high influence on the behavior of the first object is extracted as a processing candidate, so that the influence of the second object can be appropriately reflected.
  • the behavior of the first object can be predicted with high accuracy, and the behavior of the first object can be predicted for a long period of time.
  • the prediction process of extracting the second object and predicting the behavior from the objects in the second region R2 is repeated the number of extractions.
  • the number of extractions in addition to the method of repeating the extraction of the second object and the prediction of its behavior as a series of processes, only the extraction of the second object is repeated the number of extractions, and then the second object is extracted. It also includes a method of predicting the behavior of n second objects.
  • the behavior prediction method and the behavior prediction device are applicable even if they predict the behavior of a first object existing around the vehicle based on a vehicle other than the own vehicle (another vehicle). It is possible.
  • Object detection device 2 Detection integration unit 3
  • Object tracking unit 4 Own vehicle position estimation device 5
  • Map acquisition device 6 Traffic rule acquisition device 7
  • Behavior prediction unit 11 Course candidate acquisition unit 12
  • Course acquisition unit 13 Driving environment acquisition Unit 14
  • Object extraction unit 15 Prediction unit 20
  • Vehicle control unit 50 Microcomputer

Abstract

挙動予測装置は、車両周囲の物体の知から、車両の挙動に影響を与える第1物体を 特定する。挙動予測装置は、第1物体周囲に存在する複数の物体の知で、第1物体の 挙動に影響を与える第2物体を抽出して挙動を予測する予測処知を行う。挙動予測装 置は、抽出された第2物体を新たな第1物体として、新たな第1物体の挙動に影響を 与える新たな第2物体を抽出して挙動を予測する予測処知を行う。挙動予測装置は、 この予測処知を所定の回数繰り返す。挙動予測装置は、予測処知が行われた第2物体 それぞれの挙動に基づいて、最初の予測処知における第1物体の挙動を予測する。

Description

挙動予測方法及び挙動予測装置並びに車両制御装置
 本発明は、挙動予測方法及び挙動予測装置並びに車両制御装置に関する。
 従来より、車両周囲の物体の挙動を予測し、予測した物体の挙動に基づいて車両を制御する技術が知られている。例えば特許文献1には、自車両の前方を走行する先行車両の走行状態に基づいて自車両の走行を制御する走行制御装置が開示されている。走行制御装置は、自車両の前方を走行する先行車両の運転操作情報に基づいて先行車両の運転特性を判定し、判定した運転特性に基づき先行車両の走行状態を予測する。そして、走行制御装置は、予測した先行車両の走行状態に基づいて自車両の走行を制御する。
特開2008−87545号公報
 しかしながら、特許文献1に記載された技術によれば、先行車両の運転特性から先行車両の挙動を予測しているため、短期的な状況しか予測することができないという不都合がある。
 本発明は、かかる課題に鑑みてなされたものであり、その目的は、車両周囲の長期的な状況を予測することができる挙動予測方法及び挙動予測装置並びに車両制御装置を提供することである。
 本発明の一態様に係る挙動予測方法は、車両周囲の物体の中から、車両の挙動に影響を与える第1物体を特定する。また、挙動予測方法は、第1物体周囲に存在する複数の物体の中で、第1物体の挙動に影響を与える第2物体を抽出して挙動を予測する予測処理を行う。挙動予測方法は、抽出された第2物体を新たな第1物体として、この新たな第1物体の挙動に影響を与える新たな第2物体を抽出して挙動を予測する予測処理を行う。挙動予測方法は、予測処理を所定回数繰り返す。そして、挙動予測方法は、予測処理が行われた第2物体それぞれの挙動に基づいて、第1物体の挙動を予測する。
 本発明によれば、車両周囲の長期的な状況を予測することができる。
図1は、本実施形態に係る挙動予測装置の構成を示すブロック図である。 図2は、本実施形態に係る挙動予測の処理手順を示すフローチャートである。 図3は、抽出回数を設定する処理手順を示すフローチャートである。 図4は、第1領域を設定する処理手順を示すフローチャートである。 図5Aは、直線道路において自車両の周囲に設定される第1領域の左右方向の範囲の一例を示す説明図である。 図5Bは、高速道路において自車両の周囲に設定される第1領域の左右方向の範囲の一例を示す説明図である。 図5Cは、高速道路において自車両の周囲に設定される第1領域の左右方向の範囲の一例を示す説明図である。 図6は、高速道路において自車両の周囲に設定される第1領域の前後方向の範囲の一例を示す説明図である。 図7Aは、信号機のない交差点において自車両の周囲に設定される第1領域の範囲の一例を示す説明図である。 図7Bは、信号機のない交差点において自車両の周囲に設定される第1領域の範囲の一例を示す説明図である。 図8Aは、一般道路の直進道路において自車両の周囲に設定される第1領域の範囲の一例を示す説明図である。 図8Bは、一般道路の直進道路において自車両の周囲に設定される第1領域の範囲の一例を示す説明図である。 図8Cは、一般道路の直進道路において自車両の周囲に設定される第1領域の範囲の一例を示す説明図である。 図8Dは、一般道路の直進道路において自車両の周囲に設定される第1領域の範囲の一例を示す説明図である。 図9は、交差点における第1物体の抽出概念を示す説明図である。 図10Aは、直進道路における第1物体の抽出概念を示す説明図である。 図10Bは、直進道路における第1物体の抽出概念を示す説明図である。 図11は、直進道路における第1物体の抽出概念を示す説明図である。 図12Aは、直進道路における第2物体の抽出概念を示す説明図である。 図12Bは、直進道路における第2物体の抽出概念を示す説明図である。 図12Cは、直進道路における第2物体の抽出概念を示す説明図である。 図13Aは、直進道路における第2物体の抽出概念を示す説明図である。 図13Bは、直進道路における第2物体の抽出概念を示す説明図である。 図13Cは、直進道路における第2物体の抽出概念を示す説明図である。 図14Aは、挙動予測が行われる物体を示す説明図である。 図14Bは、挙動予測が行われる物体を示す説明図である。 図15Aは、物体を抽出から除外する例を示す説明図である。 図15Bは、物体を抽出から除外する例を示す説明図である。 図15Cは、物体を抽出から除外する例を示す説明図である。
 以下、本発明の実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。
 図1を参照して、本実施形態に係る挙動予測装置の構成を説明する。挙動予測装置は、物体検出装置1と、自車位置推定装置4と、地図取得装置5と、交通規則取得装置6と、マイクロコンピュータ50とを有している。
 挙動予測装置は、自動運転機能を有する車両に適用されてもよく、自動運転機能を有しない車両に適用されてもよい。また、挙動予測装置は、自動運転と手動運転とを切り替えることが可能な車両に適用されてもよい。以下、挙動予測装置が適用された車両を自車両という。
 自動運転とは、例えば、ブレーキ、アクセル、ステアリングなどのアクチュエータのうち、少なくとも一つのアクチュエータが乗員の操作なしに制御されている状態のことを指す。そのため、その他のアクチュエータが乗員の操作により作動していたとしても構わない。また、自動運転とは、加減速制御、横位置制御などのいずれかの制御が実行されている状態であればよい。また、本実施形態における手動運転とは、例えば、ブレーキ、アクセル、ステアリングを乗員が操作している状態のことを指す。
 物体検出装置1は、自車両に搭載された、レーザレーダ、ミリ波レーダ、カメラなどの複数の物体検出センサを備える。物体検出装置1は、複数の物体検出センサを用いて自車両周囲の物体を検出する。物体検出装置1は、他車両、バイク、自転車、歩行者を含む移動物体、及び、駐車車両、建物を含む静止物体を検出する。例えば、物体検出装置1は、移動物体及び静止物体の自車両に対する位置、姿勢(ヨー角)、大きさ、速度、加速度、減速度、ヨーレートを検出する。
 自車位置推定装置4は、GPS(グローバル・ポジショニング・システム)、オドメトリなどの位置推定技術を利用して、自車両の絶対位置を計測する。自車位置推定装置4は、位置検出センサを用いて、自車両の絶対位置、すなわち、所定の基準点に対する自車両の位置、車速、加速度、操舵角、姿勢を計測する。自車位置推定装置4には、GPS受信器、慣性航法装置、ブレーキペダルやアクセルペダルに設けられたセンサ、車輪速センサやヨーレートセンサなど車両の挙動を取得するセンサ、レーザレーダ、カメラなどが含まれている。
 地図取得装置5は、自車両が走行する道路の構造を示す地図情報を取得する。地図取得装置5が取得する地図情報には、道路環境、車線の絶対位置、車線の接続関係、相対位置関係などの道路構造、交通規則、道路標識などが含まれる。また、地図取得装置5が取得する地図情報には、駐車場、ガソリンスタンドなどの施設情報も含まれる。地図取得装置5は、地図情報を格納した地図データベースを所有してもよいし、クラウドコンピューティングにより地図情報を外部の地図データサーバから取得してもよい。また、地図取得装置5は、車車間通信、路車間通信を用いて地図情報を取得してもよい。
 交通規則取得装置6は、自車両が走行している道路環境、道路標識などに基づいて、自車両に適用される交通規則を取得する。交通規則取得装置6は、通信装置、カメラなどを備え、車車間通信又は路車間通信を用いて若しくカメラなどから得られる情報を用いて、道路環境、道路標識などを取得する。交通規則取得装置6は、取得した道路環境、道路標識などに基づいて、自車両に適用される交通規則を取得する。なお、地図取得装置5が地図情報の一つとして交通規則を取得することができる場合、交通規則取得装置6は、地図取得装置5によって代用されてもよい。
 マイクロコンピュータ50は、物体検出装置1の検出結果、自車位置推定装置4による推定結果、地図取得装置5の取得結果、及び交通規則取得装置6の取得結果に基づいて、自車両周囲に存在する物体(典型的には、移動物体)の挙動を予測する。また、マイクロコンピュータ50は、予測した物体の挙動に基づいて、自車両の走行状態を制御する。
 本実施形態に係る挙動予測は、自車両の挙動に影響を与える物体(以下「第1物体」という)の挙動を予測するものである。また、本実施形態に係る挙動予測は、第1物体の挙動に影響を与える第2物体の挙動を予測し、この第2物体の挙動に基づいて第1物体の挙動を予測する。
 マイクロコンピュータ50は、CPU(中央処理装置)、メモリ、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータには、挙動予測装置として機能させるためのコンピュータプログラム(挙動予測プログラム)がインストールされている。コンピュータプログラムを実行することにより、マイクロコンピュータは、挙動予測装置が備える複数の情報処理回路として機能する。なお、本実施形態では、ソフトウェアによって挙動予測装置が備える複数の情報処理回路を実現する例を示す。しかしながら、以下に示す各情報処理を実行するための専用のハードウェアを用意して、それぞれの情報処理回路を構成することも可能である。また、複数の情報処理回路を個別のハードウェアにより構成してもよい。
 マイクロコンピュータ50は、複数の情報処理回路として、検出統合部2と、物体追跡部3と、地図内位置推定部7と、挙動予測部10と、車両制御部20とを備えている。
 検出統合部2は、物体検出装置1が備える複数の物体検出センサの各々から得られた複数の検出結果を統合して、各物体に対して一つの検出結果を出力する。具体的には、物体検出センサの各々から得られた物体の挙動から、各物体検出センサの誤差特性などを考慮した上で最も誤差が少なくなる合理的な物体の挙動を算出する。具体的には、既知のセンサ・フュージョン技術を用いることにより、複数の物体検出センサで取得した検出結果を総合的に評価して、より正確な検出結果を得る。
 物体追跡部3は、検出統合部2によって検出された物体を追跡する。具体的に、物体追跡部3は、異なる時刻に出力された物体の挙動から、異なる時刻間における物体の同一性の検証(対応付け)を行い、かつ、その対応付けを基づいて物体を追跡する。
 地図内位置推定部7は、自車位置推定装置4により得られた自車両の絶対位置、及び地図取得装置5により取得された地図情報から、地図上における自車両の位置、向きを推定する。地図内位置推定部7は、自車両がどの走行車線に位置しているかを推定する。
 挙動予測部10は、自車両周囲の物体の挙動を予測する。挙動予測部10は、進路候補取得部11と、進路取得部12と、走行環境取得部13と、物体抽出部14と、予測部15とを有している。
 進路候補取得部11は、地図情報、自車両周囲の物体の検出結果、自車両の位置情報、交通規則に基づいて、物体の進路候補を算出する。物体の進路候補とは、その物体が選択し得る進路の候補である。
 進路取得部12は、自車両の進路を取得する。例えば、進路取得部12は、ナビゲーション装置(図示せず)において画定された経路情報を取得し、この経路情報から自車両の進路を取得する。なお、進路取得部12は、目的地の情報と、地図情報とに基づいて、自車両の進路を計算してもよい。
 走行環境取得部13は、自車両の位置情報、地図情報などに基づいて、自車両が現在走行している道路の道路環境を取得する。道路環境は、高速道路、交差点、合流区間といった道路種別、及び道路に発生している渋滞状況をいう。
 物体抽出部14は、物体の進路候補、自車両の進路及び走行状態、自車両の道路環境、交通規則などに基づいて、自車両周囲の物体の中から、挙動予測の対象となる物体を抽出する。具体的には、物体抽出部14は、自車両周囲の物体の中から、自車両の挙動に影響を与える第1物体(最初の第1物体)を特定(抽出)する。また、物体抽出部14は、第1物体周囲に存在する複数の物体の中から、第1物体の挙動に影響を与える第2物体を抽出する処理(予測処理)を行う。更に、物体抽出部14は、抽出した第2物体を新たな第1物体として、この新たな第1物体の挙動に影響を与える第2物体(新たな第2物体)を抽出する処理(予測処理)を行う。このようにして、物体抽出部14は、挙動を予測する対象物体である第2物体の抽出を予め定められた所定の抽出回数まで繰り返して行う。
 予測部15は、物体抽出部14で抽出された第2物体の挙動を予測する処理(予測処理)を、挙動を予測する対象物体が抽出される毎に行うことにより、予め定められた所定の抽出回数繰り返し行う。また、予測部15は、予測処理が行われたn(n:抽出回数に対応する自然数)個の第2物体の挙動に基づいて、最初に特定した第1物体(最初の第1物体)の挙動を予測する。
 車両制御部20は、挙動予測部10において予測された第1物体の挙動に基づいて、自車両の車両制御を行う。車両制御部20は、自車両の各種アクチュエータ(ステアリングアクチュエータ、アクセルペダルアクチュエータ、ブレーキアクチュエータなど)を制御して、自動運転制御又は運転支援制御(例えば減速制御)を実行する。
 なお、本実施形態では、マイクロコンピュータ50が車両制御部20の機能を備えた構成となっており、挙動予測装置は車両制御装置としての適用が可能となっている。もっとも、挙動予測装置は、車両制御部20の機能を備えずに、自車両周囲の物体の挙動を予測する機能のみを備えるものであってもよい。
 つぎに、図2を参照し、本実施形態に係る挙動予測の処理手順を説明する。この処理手順は、イグニッションスイッチ(IGN)のオンをトリガーとして呼び出され、マイクロコンピュータ50によって実行される。なお、自車両が電気自動車である場合、イグニッションスイッチの代わりに、パワースイッチのオンをトリガーとすればよい。
 まず、ステップS10において、検出統合部2は、物体検出装置1から物体情報、すなわち、自車両周囲の物体情報を取得する。物体情報が取得されると、検出統合部2は、物体情報に基づいて物体の挙動を算出する。また、物体追跡部3は、検出統合部2によって検出された物体を追跡する。
 ステップS11において、地図内位置推定部7は、自車位置推定装置4から自車両の位置情報を取得する。
 ステップS12において、地図内位置推定部7は、地図情報を取得する。地図内位置推定部7は、地図上における自車両の位置情報、すなわち、どの走行車線を走行しているか、及び走行車線での自車両の向きを算出する。また、進路候補取得部11は、自車両の位置情報と、自車両周囲の物体情報とに基づいて、地図上における物体の位置情報、すなわち、地図上での物体の位置(走行車線、歩道など)及び向きなどを算出する。進路候補取得部11は、物体を中心とする一定範囲内に含まれる車線情報、及び交通規則を取得する。また、進路候補取得部11は、これらの情報に基づいて、物体の進路候補を算出することができる。
 ステップS13において、進路取得部12は、地図上における自車両の進路を取得する。進路取得部12は、ナビゲーション装置などで事前に設定された経路情報から、自車両の進路を取得することができる。あるいは、進路取得部12は、目的地の情報に基づいて経路情報を計算し、進路を取得してもよい。
 ステップS14において、進路取得部12は、自車両の走行状態を取得する。走行状態は、少なくとも車速、操舵角を取得する。
 ステップS15において、物体抽出部14は、道路環境に基づいて、抽出回数を設定する。この抽出回数は、第2物体に対して予測処理を繰り返す回数である。図3を参照し、抽出回数を設定する処理の詳細を説明する。
 ステップS30において、走行環境取得部13は、自車両の位置情報、地図情報に基づいて、自車両が走行している道路の道路種別を取得する。
 ステップS31において、走行環境取得部13は、自車両が高速道路にいるか否かを判断する。自車両が高速道路にいる場合には、ステップS31において肯定判定され、ステップS33に進む。一方、自車両が高速道路以外の一般道路にいる場合には、ステップS31において否定判定され、ステップS32に進む。
 ステップS32において、走行環境取得部13は、自車両前方に交差点があるか否かを判断する。走行環境取得部13は、例えば自車両が交差点中心へ到達するまでの時間、又は自車両と交差点中心との距離に基づいて、交差点の有無を判断する。自車両前方に交差点がある場合には、ステップS32において肯定判定され、ステップS35に進む。一方、自車両前方に交差点がない場合には、ステップS32において否定判定され、ステップS33に進む。
 ステップS33において、走行環境取得部13は、自車両前方における合流車線の有無を取得する。自車両が合流区間の本線道路を走行している場合、走行環境取得部13は、自車両前方の所定範囲に合流車線が合流する地点があるという情報を取得する。また、自車両が合流区間の合流道路を走行している場合、走行環境取得部13は、自車両前方の所定範囲に、本線道路へ合流する地点があるという情報を取得する。
 ステップS34において、走行環境取得部13は、自車両周囲の渋滞状況を取得する。
 ステップS35において、走行環境取得部13は、抽出回数を設定する。道路環境によって、物体が交錯する複雑度合いが相違する。通常、一般道路では、自動車、二輪車以外にも、歩行者、自転車などの多様な物体が交錯する。そのため、一般道路は、通行できる物体の種別が制限された高速道路と比べ、物体が交錯する複雑度合いが高い。また、一般道路であっても、交差点でが、自車両と同一方向に走行する他車両及び路肩を歩く歩行者以外にも、対向車両、右左折時における横断歩道上の歩行者などの多様の物体が交錯する。そのため、交差点は、直進道路(交差点を除く一般道路)と比べて物体が交錯する複雑度合いが高い。すなわち、物体が交錯する複雑度合いとは、道路環境において想定される物体同士の進路候補の交わり度合い(交わる数の多さ)をいう。
 物体が交錯する複雑度合いが高い程、予測処理の抽出回数を増やすことで、より多くの物体同士の相互影響を考慮することができるので、自車両周囲の状況を長期的に予測することができる。そこで、走行環境取得部13は、自車両が走行する道路環境において物体が交錯する複雑度合いに基づいて、抽出回数を設定する。具体的には、走行環境取得部13は、交差点、一般道路、高速道路の順番で抽出回数が少なくなるように設定する。例えば、交差点は5回、直進道路は3回、高速道路は2回と設定するといった如くである。また、同一の走行環境であっても、渋滞している場合には、渋滞していない場合と比較して、物体が交錯する複雑度合いが低くなる。そこで、渋滞しているときの抽出回数を、渋滞していないときのそれよりも低くするといった如くである。
 走行環境取得部13は、道路環境と、抽出回数と、渋滞状況との関係を規定したデータを保有している。走行環境取得部13は、道路環境と、渋滞状況とに基づいて、抽出回数を設定する。
 ステップS16において、物体抽出部14は、自車両の位置情報、地図情報に基づいて、第1領域を設定する。第1領域は、自車両の挙動に影響を与える第1物体を抽出するための領域であり、自車両の周囲に設定される。図4を参照し、第1領域を設定する処理手順を説明する。
 ステップS40において、走行環境取得部13は、自車両が走行している道路の車線数を取得する。
 ステップS41において、走行環境取得部13は、自車両が走行している道路の道路種別を取得する。
 ステップS42において、走行環境取得部13は、自車両が高速道路にいるか否かを判断する。自車両が高速道路にいる場合には、ステップS42において肯定判定され、ステップS43に進む。一方、自車両が高速道路以外の一般道路にいる場合には、ステップS42において否定判定され、ステップS44に進む。
 ステップS43において、走行環境取得部13は、中央分離帯の有無を取得する。
 ステップS44において、走行環境取得部13は、自車両前方に交差点があるか否かを判断する。自車両前方に交差点がある場合には、ステップS44において肯定判定され、ステップS45に進む。自車両前方に交差点がない場合には、ステップS44において否定判定され、ステップS47に進む。
 ステップS45において、走行環境取得部13は、交差点種別を取得する。交差点の種別は、例えば信号機がある交差点、信号機がない交差点、ラウンドアバウト、4ウェイストップ(4WAY STOP)、一時停止線のある交差点などである。
 ステップS46において、走行環境取得部13は、交差点種別、自車両の位置情報に基づいて、交差点での交通規則上の優先度を取得する。例えば信号機のある交差点において、自車両の信号が青の場合、物体抽出部14は、交差道路より自車両の道路の方が優先度が高いと判定する。また、一時停止線のある交差点において、自車両の前に停止線がある場合、物体抽出部14は、交差道路より自車両の道路の方が優先度が低いと判定する。逆に、自車両の前に停止線がない場合、物体抽出部14は、交差道路より自車両の道路の方が優先度が高いと判定する。また、交差点における自車両の進路が右折の場合、物体抽出部14は、直進する対向車線より自車両の車線の方が優先度が低いと判定する。
 ステップS47において、走行環境取得部13は、自車両前方の横断歩道の有無を取得する。
 ステップS48において、走行環境取得部13は自車両前方の脇道の有無を取得する。
 ステップS49において、走行環境取得部13は、自車両の道路と歩道との分離方式を取得する。分離方式は、例えば、植え込み、フェンス、ガードレール、分離されていないといった各種の方式である。
 ステップS50において、物体抽出部14は、自車両の走行状態、ステップS40乃至S49で取得した道路環境に基づいて、第1領域を設定する。以下、図5A乃至8Dを参照し、第1領域の設定方法について説明する。
 図5A乃至図6を参照し、自車両が高速道路を走行している場合での第1領域R1の設定方法を説明する。同図には、走行車線L11と、対向車線L21と、自車両Vaとが示されている。なお、車線が複数の場合に、走行車線については走行車線L11、L12などといい、対向車線については対向車線L21、L22などという。また、自車両Vaは、最も路肩側の走行車線L11を走行しているものとする。
 まず、第1領域R1に関する左右方向の範囲を説明する。基本的には、物体抽出部14は、自車両Vaが走行している走行車線を基準に、自車両Vaの走行車線、この走行車線からみて対向車線側に隣接する第2車線、第2車線からみて対向車線側に隣接する第3車線を含む範囲を、第1領域R1として設定する。例えば、片側3車線の道路の場合、図5Aに示すように、3つの走行車線L11、L12、L13が第1領域R1となる。
 ここで、図5Bに示すように、自車両Vaから最も遠い第3車線に対向車線が含まれる場合、第1領域R1は、自車両Vaに最も近い対向車線L22までの範囲に設定される。また、図5Cに示すように、中央分離帯L30がある場合、第1領域R1は、対向車線を含まない範囲に設定される。
 つぎに、第1領域R1に関する前後方向の範囲を説明する。物体抽出部14は、自車両Vaから前方にかけてTTC(Time−To−Collision)が所定時間以内となる距離までを、第1領域R1として設定する。例えば、TTCを5秒とし、自車両Vaが80km/hで走行している場合、第1領域R1は、自車両Vaから前方約100mまでの距離となる。また、自車両Vaより後方の範囲は、自車両Vaの進路に応じて設定される。例えば自車両Vaの進路として車線変更が予定されるような場合、自車両Vaの車線変更後の車線を走行している他車両、及び、この車線変更後の車線へ進入する他車両を第1物体として考慮する必要がある。そこで、図6に示すように、物体抽出部14は、自車両Vaから後方にかけてTTCが所定時間(例えば3秒)以内となる距離までを、第1領域R1として設定する。
 図7A乃至図7Bを参照し、自車両が信号機のない交差点に進入する場合での第1領域R1の設定方法を説明する。同図には、自車両Vaの走行車線及び対向車線を含む道路Saと、この道路Saに交差する交差道路Sbと、自車両Vaとが示されている。
 まず、第1領域R1に関する前後方向の範囲を説明する。物体抽出部14は、自車両Vaから前方にかけて所定の基準距離までを、第1領域R1として設定する。ここで、基準距離は、自車両Vaと同じの速度の対向車両がいると仮定した上で、自車両Vaが交差点中心に到達するまでの時間と対向車が交差点中心に到達するまでの時間との差が一定時間以内となる距離である。例えば、自車両Vaから交差点中心までの距離が30m、速度が10m/s、時間差が3秒の場合、交差点中心から対向車両までの距離は、60mとなる。したがって、物体抽出部14は、自車両Vaから前方にかけて90mの距離までを、第1領域R1として設定する。
 つぎに、第1領域R1に関する左右方向の範囲を説明する。物体抽出部14は、自車両Vaの交差点における優先度と、自車両Vaの進路とに基づいて、第1領域R1を設定する。図7Aに示すように、自車両Vaの道路の方が優先度が高い場合、物体抽出部14は、自車両Vaの右折進路と交差する横断歩道に所定の余裕幅を加味した範囲を、第1領域R1として設定する。図7Bに示すように、自車両Vaの道路の方が優先度が低い場合、物体抽出部14は、前後方向の範囲設定と同様の考え方で、第1領域R1を設定する。
 図8A乃至図8Dを参照し、自車両Vaが一般道路の直進道路を走行する場合での第1領域R1の設定方法を説明する。まず、第1領域R1に関する前後方向の範囲を説明する。物体抽出部14は、自車両Vaから前方にかけてTTCが所定時間以内となる距離までを、第1領域R1として設定する。例えばTTCは3秒である。
 つぎに、第1領域R1に関する左右方向の範囲を説明する。左右方向の大きさは、前述した車線数のほか、横断歩道の有無、脇道の有無、歩道との分離方式によって設定する。例えば図8Aに示すように、物体抽出部14は、上述した3つの車線とともに歩道L40を含むように、第1領域R1を設定する。一方、第1領域R1に関する前後方向の範囲に、横断歩道、脇道L50が含まれる場合には、物体抽出部14は、これらを含むように左右方向の範囲を拡大する。図8Bに示すように、前後方向の範囲に横断歩道が含まれる場合、物体抽出部14は、横断歩道と対応する領域において左右方向の幅を拡大する。拡大する幅は、横断歩道に所定の余裕幅(例えば2m)を加味したものである。また、図8Cに示すように、前後方向の範囲に脇道L50との接続位置がある場合、物体抽出部14は、脇道L50と対応する領域においいて左右方向の幅を拡大する。拡大する幅D1は、例えば40mである。なお、図8Dに示すように、歩道L40と道路とが分離されている場合、物体抽出部14は、歩道L40を除外して第1領域R1を設定する。
 以上、各種の道路環境を挙げて第1領域R1を説明した。なお、これらの方法で設定した第1領域R1が物体検出装置1の検出範囲よりも大きな範囲となることがある。この場合、物体抽出部14は、物体検出装置1の検出範囲を上限として第1領域R1を設定することが好ましい。
 ステップS17において、物体抽出部14は、設定した第1領域R1にある物体のうち、自車両Vaの挙動に影響を与える第1物体を抽出する。具体的には、進路取得部12は、自車両の進路を取得する。同様に、進路候補取得部11は、地図情報、物体の位置情報、交通規則に基づいて、第1領域R1にある物体の進路候補を算出する。物体抽出部14は、自車両Vaの進路と、第1領域R1にある物体の進路候補とが交わるかどうかで、自車両Vaの挙動に影響を与える否かを判断する。
 図9は、自車両Vaが交差点に進入する走行シーンを示している。交差点の周囲には、対向車線を走行する2台の他車両Vb1,Vb2及び歩行者Pe1が存在する。第1領域R1には、対向車線上の先頭の他車両Vb1が存在する。自車両Vaの進路は交差点の右折である。この場合、他車両Vb1が直進する場合に自車両Vaの進路と交わるので、物体抽出部14は、他車両Vb1を第1物体として抽出する。一方、左折側の横断歩道にいる歩行者と自車両Vaの進路とは交わらず、また、歩行者Pe1は第1領域R1内にないので、物体抽出部14は、歩行者Pe1を第1物体として抽出しない。
 図10A及び10Bは、自車両が高速道路を走行する走行シーンを示している。同図には、走行車線L11~L14と、対向車線L21~L23と、中央分離帯L30と、自車両Vaとが示されている。ここで、自車両Vaは、最も路肩側の走行車線L11を走行しており、自車両Vaの周囲には6台の他車両Vb1~Vb6が存在している。また、図10A及び10Bには、自車両Vaの進路及び他車両Vb1~Vb6の進路候補が矢印で示されている(なお、図10Bの他車両Vb1~Vb6の進路候補は、図10Aのそれと同じであるため、直進の進路候補のみが描かれている)。
 まず、自車両Vaの進路が直進となるケースを想定する。図10Aに示すように、物体抽出部14は、自車両Vaの周囲に、第1領域R1を設定している。物体抽出部14は、第1領域R1に存在する他車両Vb2、Vb4、Vb5のうち、他車両Vb4を第1物体として抽出する。なぜならば、走行車線L12を走行する他車両Vb4は、自車両Vaが直進する走行車線L11に対して車線変更する進路候補を備えているからである。
 つぎに、自車両Vaの進路が走行車線L11から走行車線L12へと車線変更するケースを想定する。図10Bに示すように、物体抽出部14は、自車両Vaの周囲に、第1領域R1を設定している。物体抽出部14は、第1領域R1に存在する他車両Vb1、Vb2、Vb4、Vb5のうち、他車両Vb1、Vb2、Vb4を第1物体として抽出する。なぜならば、他車両Vb1、Vb4は、自車両Vaが車線変更する走行車線L12において、自車両Vaの前方及び後方に存在しているからである。また、走行車線L13を走行する他車両Vb2は、自車両Vaが車線変更する走行車線L12に対して車線変更する進路候補を備えているからである。
 また、物体抽出部14は、進路候補だけではなく、周囲の物体が自車両Vaの挙動を変化させるかという点も考慮して、第1物体を抽出してもよい。例えば図11に示すように、他車両Vb4が走行車線L11へと車線変更すると、他車両Vb4が自車両Vaの前方に位置する。物体抽出部14は、他車両Vb4が走行車線L11へ車線変更した場合における進入位置を予測し、自車両Vaと他車両Vb4の進入位置との相対距離D2が所定値以上かどうかを判断する。所定値は、例えばTTCが3秒となる距離である。相対距離D2が所定値以上の場合、他車両Vb4に対して自車両Vaを減速させる必要がない状況である。したがって、物体抽出部14は、他車両Vb4は、自車両Vaの挙動に影響しないと判断し、他車両Vb4を第1物体として抽出しない。
 ステップS18において、物体抽出部14は、第2領域R2を設定する。第2領域R2は、抽出された第1物体の挙動に影響を与える第2物体を抽出するための領域である。第2領域R2は、抽出された第1物体毎に、第1物体の周囲に設定される。なお、第2領域R2の設定方法は、第1領域R1の設定方法と同様であってもいいし、第1物体の周囲に予め定められた範囲で設定してもよい。
 ステップS19において、物体抽出部14は、設定された第2領域R2に物体があるか否かを判断する。第2領域R2に物体がある場合には、ステップS19において肯定判定され、ステップS20に進む。一方、第2領域R2に物体がない場合には、ステップS19において否定判定され、ステップS24に進む。
 そして、ステップS20乃至S22の処理において、物体抽出部14及び予測部15は、第2領域R2内に存在する複数の物体の中で、第2物体を抽出して挙動を予測する予測処理を行う(最初の予測処理)。第2物体を抽出して挙動を予測した後、物体抽出部14は、前回挙動が予測された第2物体を新たな第1物体として、この新たな第1物体に対する第2領域R2を設定すると共に、第2領域R2内に存在する第2物体(新たな第2物体)の挙動を予測する(新たな予測処理)。この物体抽出部14及び予測部15による第2物体を抽出して挙動を予測する予測処理は、所定回数(抽出回数)繰り返される。以下、詳細に説明する。
 ステップS20において、物体抽出部14は、第2物体を抽出する。物体抽出部14は、第1物体のすべての進路候補を対象として第2物体を判断するのではなく、自車両Vaの挙動に影響を与える進路候補に限定して第2物体を抽出する。
 ステップS21において、物体抽出部14は、第2物体の挙動を予測する。
 ステップS22において、物体抽出部14は、第2物体を抽出して予測する予測処理の回数が抽出回数に到達したか否かを判断する。予測処理の回数が抽出回数に到達した場合には、ステップS22で肯定判定され、ステップS23に進む。一方、予測処理の回数が抽出回数に到達していない場合には、ステップS22で否定判定され、ステップS20に戻る。そして、ステップS20において、物体抽出部14は、最初の予測処理(前回のステップS21)で挙動が予測された第2物体を新たな第1物体として、ステップS18と同様の手法で新たな第1物体に対する第2領域R2を設定する。そして、物体抽出部14は、設定された第2領域R2内に存在する新たな第2物体(すなわち、新たな第1物体とした物体の挙動に影響を与える物体)を抽出する。予測部15は、物体抽出部14で抽出された新たな第2物体の挙動を予測する。このようにして第2領域R2の設定及び第2物体の挙動予測の処理が繰り返される。
 図12A乃至12Cは、図10A及び10Bと同様、自車両Vaが高速道路を走行する走行シーンを示している。図12Aに示すように、物体抽出部14は、第1領域R1の中で、他車両Vb4を第1物体として抽出する。
 図12Bに示すように、物体抽出部14は、第1物体(他車両Vb4)の周囲に第2領域R2を設定する。この例では、第2領域R2は、他車両Vb4が下側中央に位置付けられるように、前後方向及び左右方向に所定の範囲で設定されている。図12Bでは、他車両Vb4の進路候補として、走行車線L12から走行車線L11へと車線変更する進路候補(実線)が存在する。物体抽出部14は、第2領域R2内の物体の中から、他車両Vb4が進路を取る可能性がある進路候補を備える他車両を第2物体として抽出する。図12Bに示す例では、他車両Vb5は、走行車線L13から走行車線L12へと車線変更する進路候補を備えている。他車両Vb5が走行車線L12へと車線変更した影響により、他車両Vb4は、走行車線L11へと車線変更する可能性がある。したがって、物体抽出部14は、他車両Vb5を第2物体として抽出する。
 また、図12Cに示すように、物体抽出部14は更に、第2物体(他車両Vb5)を新たな第1物体として周囲に第2領域R2をさらに設定する。この例では、第2領域R2は、他車両Vb5が中心に位置付けられるように、前後方向及び左右方向に所定の範囲で設定されている。つぎに、物体抽出部14は、新たな第1物体である他車両Vb5が進路を取る可能性がある進路候補を特定する。図12Cでは、走行車線L13から走行車線L12へと車線変更する進路候補(実線)が存在する。物体抽出部14は、第2領域R2内の物体の中から、他車両Vb5が進路を取る可能性がある進路候補を備える他車両、すなわち他車両Vb5の挙動に影響する他車両を新たな第2物体として抽出する。図12Cに示す例では、他車両Vb6は、走行車線L14から走行車線L13へと車線変更する進路候補を備えている。一方、他車両Vb4は、走行車線L12を直進する進路候補を備えている。他車両Vb6が走行車線L13へと車線変更した影響により、他車両Vb5は、走行車線L12へと車線変更する可能性がある。また、他車両Vb4との間の車間距離の影響により、他車両Vb5は、走行車線L12へと車線変更する可能性がある。したがって、物体抽出部14は、他車両Vb4、Vb6も第2物体として抽出する。
 このように、第2物体の抽出は、第1物体(他車両Vb4)の挙動に直接的に影響する物体(他車両Vb5)についても行われる。なお、本ケースでは、他車両Vb4は、他車両Vb5によって挙動に影響が与えられる第1物体であると共に、他車両Vb5の挙動に影響を与える第2物体にも該当する。
 図13A乃至13Cは、自車両Vaが高速道路を走行しているシーンを示している。図13Aに示すように、物体抽出部14は、第1物体として他車両Vb1を抽出している場合、第1物体(他車両Vb1)の周囲に第2領域R2を設定する。物体抽出部14は、第1物体である他車両Vb1の進路候補の中から、自車両Vaの挙動に影響する第1影響進路候補を特定する。図13Aでは、走行車線L12を直進する進路候補が、第1影響進路候補に該当する。物体抽出部14は、第2領域R2の中から、他車両Vb1の第1影響進路候補の進路に影響を与える可能性がある進路候補を備える他車両を第2物体として抽出する。図13Aに示す例では、他車両Vb2は、走行車線L11から走行車線L12へと車線変更する進路候補を備えている。他車両Vb2が走行車線L12へと車線変更した影響により、他車両Vb1は、減速を迫られる可能性がある。したがって、物体抽出部14は、他車両Vb2を第2物体として抽出する。
 また、図13Bに示すように、物体抽出部14は、他車両Vb1の挙動に影響する物体として抽出された第2物体である他車両Vb2を新たな第1物体として、その周囲に第2領域R2をさらに設定する。物体抽出部14は、第2領域R2内の物体の中から、この新たな第1物体(他車両Vb2)の挙動に影響する物体である新たな第2物体を抽出する。物体抽出部14は、新たな第1物体である他車両Vb2の進路候補に基づいて、他車両Vb2の挙動に影響する物体としての新たな第2物体として他車両Vb1及びVb3を抽出する。図13Bにおいて、新たな第1物体としての他車両Vb2の進路候補として走行車線L11から走行車線L12へと車線変更する進路候補(実線)が存在する。物体抽出部14は、第2領域R2内の物体の中から、他車両Vb2の進路に影響を与える可能性がある進路候補を備える他車両を新たな第2物体として抽出する。図13Bに示す例では、他車両Vb1、Vb3は、走行車線L11を直進する進路候補をそれぞれ備えている。他車両Vb1、Vb4との間の車間距離の影響により、他車両Vb2は、走行車線L12へと車線変更する可能性がある。したがって、物体抽出部14は、他車両Vb1、Vb3も第2物体として抽出する(図13C参照)。
 このように、第2物体の抽出は、第1物体(他車両Vb1)の挙動に直接的に影響する物体(他車両Vb2)についても行われる。なお、本ケースでは、他車両Vb2は、他車両Vb1、Vb3によって挙動に影響が与えられる第1物体にも、他車両Vb1の挙動に影響を与える第2物体にも該当する。
 ステップS23において、予測部15は、抽出回数に対応するn個分の第2物体の挙動に基づいて、最初に第1物体とした物体の挙動を予測する。すなわち、予測部15は、n回の挙動予測のそれぞれにおいて予測した第2物体の挙動に基づいて、最初に第1物体とした物体の挙動を予測する。
 図14Aには、図12A乃至12Cの例で抽出された第1物体及び第2物体の抽出結果が示されている。すなわち、図12A乃至12Cの例において自車両Vaの挙動に直接的に影響する第1物体は他車両Vb4であり、自車両Vaの挙動に間接的に影響する第2物体がVb5、Vb6である。また、図14Bには、図13A乃至13Cの例で抽出された第1物体及び第2物体の抽出結果が示されている。すなわち、図13A乃至13Cの例において自車両Vaの挙動に直接的あるいは間接的に影響する第1物体は他車両Vb1であり、自車両Vaの挙動に間接的に影響する第2物体がVb2、Vb3である。
 ステップS24において、車両制御部20は、予測された第1物体の挙動に基づいて、自車両の制御を行う。
 ステップS25において、予測部15は、イグニッションスイッチがオフされたか否かを判断する。イグニッションスイッチがオフされた場合には、ステップS25において肯定判定され、一連の処理を終了する(END)。一方、イグニッションスイッチ(IGN)がオンの場合には、ステップS25において否定判定され、ステップS10に戻る。
 このように、本実施形態に係る挙動予測方法及び挙動予測装置は、自車両Va周囲の物体の中から、自車両Vaの挙動に影響を与える第1物体を特定する。また、本実施形態に係る挙動予測方法及び挙動予測装置は、第1物体周囲に存在する複数の物体の中で、第1物体の挙動に影響を与える第2物体を抽出して挙動を予測する予測処理(最初の予測処理)を行う。その後、第2物体として抽出された物体を新たな第1物体として、新たな第1物体周囲に存在する複数の物体の中で、新たな第1物体の挙動に影響を与える新たな第2物体を抽出して挙動を予測する予測処理(新たな予測処理)を行う。そして、この第2物体を抽出して挙動を予測する予測処理を所定の抽出回数繰り返す。これにより、本実施形態に係る挙動予測方法及び挙動予測装置は、予測処理が行われたn(n:抽出回数に対応する自然数)個の第2物体の挙動に基づいて、最初に第1物体とした物体(最初の予測処理における第1物体)の挙動を予測している。
 この手法によれば、第1物体がその周囲の物体から受ける影響を加味して、第1物体の挙動を予測している。これにより、第1物体の挙動を精度よく予測することができ、ひいては自車両Va周囲の状況について長期の予測を行うことができる。
 また、自車両Va周囲の物体が多数存在する場合であっても、予測処理を行う回数が最大でも抽出回数に制限されることとなる。これにより、抽出回数を超えて予測処理を行う場合と比べて、演算負荷の低減、ひいては演算時間の短縮を図ることができる。これにより、高い予測精度を得ながらも、演算負荷の低減及び演算時間の短縮を図ることができる。
 また、本実施形態の手法は、予測された第1物体の挙動に基づいて、自車両Vaの制御を行ってもよい。
 この手法によれば、自車両Va周囲の長期的な状況を考慮して、自車両Vaの制御を行うことができる。これにより、自車両Vaの制御を適切に行うことができる。
 また、本実施形態の手法は、自車両Vaの走行状態又は道路環境に基づいて、自車両Va周囲に第1領域R1を設定し、この第1領域R1内の物体から、第1物体を特定してもよい。
 この手法によれば、第1領域R1内に限定して第1物体を特定することで、物体を選定した上で第1物体を特定することができる。これにより、高い予測精度を得ながらも、演算負荷の低減及び演算時間の短縮を図ることができる。また、第1領域R1の範囲が、自車両Vaの走行状態、道路環境に応じて設定されるので、自車両Vaの挙動に影響を与える物体が存在する範囲を適切にカバーすることができる。これにより、高い予測精度を得ることができる。
 また、本実施形態の手法は、第1領域R1に関する前後方向の範囲を、自車両Vaの速度に応じて設定してもよい。
 この手法によれば、自車両Vaの速度に応じて、第1領域R1に関する前後方向の範囲を最適化することができる。これにより、自車両Vaの挙動に影響を与える物体が存在する範囲を適切にカバーすることができるので、高い予測精度を得ることができる。
 また、本実施形態の手法において、自車両Vaの道路環境は、自車両Vaの前方に交差点が存在する環境である。この場合、本実施形態の手法は、第1領域R1に関する左右方向の範囲を、交差点における交通規則上の優先度に基づいて設定してもよい。
 この手法によれば、交差点での優先度に応じて、第1領域R1に関する横方向の範囲を最適化することができる。これにより、自車両Vaの挙動に影響を与える物体が存在する範囲を適切にカバーすることができるので、高い予測精度を得ることができる。
 また、本実施形態の手法において、第1領域R1に関する左右方向の範囲は、自車両Vaの道路Saの方が交差道路Sbよりも優先度が高い場合と比べ、自車両Vaの道路Saの方が交差道路Sbよりも優先度が低い場合の方が広くてもよい。
 非優先道路から優先道路に進入する場合、優先道路の交通を優先する必要がある。そのため、自車両Vaの優先度が低い場合には左右方向の範囲を大きくすることで、自車両Vaの挙動に影響を与える物体が存在する範囲を適切にカバーすることができる。これにより、高い予測精度を得ることができる。
 なお、自車両Vaの道路の優先度が不明の場合、第1領域R1に関する左右方向の範囲は、自車両Vaの道路Saの方が交差道路Sbよりも優先度が高い場合と比べ、自車両Vaの道路の優先度が不明の場合の方が広くてもよい。
 自車両Vaの道路の優先度が不明の場合には、交差する道路の優先度が高いと仮定した方が安全に寄与する。そのため、優先度が不明である場合には左右方向の範囲を相対的に大きくすることで、自車両Vaの挙動に影響を与える物体が存在する範囲を適切にカバーすることができる。これにより、高い予測精度を得ることができる。
 また、本実施形態の手法において、自車両Vaの道路環境は、直進道路である。この場合、本実施形態の手法は、第1領域R1に関する左右方向の範囲を、直進道路の路肩の構造、又は前記直進道路を横断するための横断歩道の有無に基づいて設定してもよい。
 この手法によれば、直進道路の構造に応じて、第1領域R1に関する横方向の範囲を最適化することができる。これにより、自車両Vaの挙動に影響を与える物体が存在する範囲を適切にカバーすることができるので、高い予測精度を得ることができる。
 また、本実施形態の手法は、第1領域R1に関する左右方向の範囲を、自車両Vaが走行する道路の車線数に基づいて設定してもよい。
 この手法によれば、道路の車線数に応じて、第1領域R1に関する横方向の範囲を最適化することができる。これにより、自車両Vaの挙動に影響を与える物体が存在する範囲を適切にカバーすることができるので、高い予測精度を得ることができる。
 また、本実施形態の手法は、抽出回数を、自車両Vaが走行する道路環境において物体が交錯する複雑度合いに基づいて設定してもよい。
 それぞれの物体が交錯する複雑度合いによって、物体間の相互影響が変化する。したがって、この複雑度合いを考慮することで、道路環境に適した回数で予測処理を行うことができる。これにより、第1物体の挙動を予測するにあたり、第2物体の影響を適切に反映することができる。その結果、第1物体の挙動を精度よく予測することができ、ひいては自車両Va周囲の状況について長期の予測を行うことができる。
 また、本実施形態の手法において、抽出回数は、自車両Vaが一般道路を走行する場合よりも、自車両Vaが高速道路を走行する場合の方が少なくてもよい。
 一般道路と比べ、交差する道路が少ない高速道路の方が交通の複雑度合いが低い傾向にある。このため、高速道路に対する抽出回数を一般道路のそれよりも低くしても、第2物体の影響を適切に反映することができる。その結果、第1物体の挙動を精度よく予測することができ、ひいては自車両Va周囲の状況について長期の予測を行うことができる。
 また、本実施形態の手法において、抽出回数は、自車両Vaが直進道路を走行する場合よりも、自車両Vaが交差点を走行する場合の方が多い。
 交差点がある環境は、交差点がない環境と比べて交通の複雑度合いが高い傾向にある。このため、交差点がある環境の抽出回数を交差点がない環境のそれよりも多くすることで、第2物体の影響を適切に反映することができる。その結果、第1物体の挙動を精度よく予測することができ、ひいては自車両Va周囲の状況について長期の予測を行うことができる。
 また、本実施形態の手法において、指定回数は、自車両Vaが合流区間を走行する場合よりも、自車両Vaが非合流区間を走行する場合の方が少なくてもよい。
 合流区間がある環境は、合流区間がない環境と比べて交通の複雑度合いが高い傾向にある。このため、合流区間がある環境の抽出回数を合流車線がない環境のそれよりも多くすることで、第2物体の影響を適切に反映することができる。その結果、第1物体の挙動を精度よく予測することができ、ひいては自車両Va周囲の状況について長期の予測を行うことができる。
 また、本実施形態の手法において、指定回数は、渋滞が発生している場合よりも、渋滞が発生していない場合の方が少なくてもよい。
 渋滞が発生している環境は、渋滞が発生していない環境と比べて交通の複雑度合いが低い傾向にある。このため、渋滞が発生している場合の指定回数を渋滞が発生していない場合のそれよりも低くしても、第2物体の影響を適切に反映することができる。その結果、第1物体の挙動を精度よく予測することができ、ひいては自車両Va周囲の状況について長期の予測を行うことができる。
 なお、本実施形態において、物体抽出部14は、第2領域R2内の物体のうち、第1物体の挙動に与える影響が相対的に低い物体を第2物体の抽出から除外してもよい。
 図15Aには、自車両Vaの交差点での走行シーンが示されている。交差点の周囲には、自車両Vaの隣接車線に他車両Vb1~Vb4、自車両Vaの後方に他車両Vb5、対向車線を走行する対向車両Vc1、歩行者Pe1が存在している。自車両のVaの進路は交差点で右折である。
 対向車両Vc1が直進する場合、自車両Vaの進路と交わるので、物体抽出部14は、対向車両Vc1を第1物体として抽出する。また、この対向車両Vc1が右折する進路候補に対して、歩行者Pe1、他車両Vb1~Vb5が交錯する。よって、通常であれば、物体抽出部14は、歩行者Pe1、他車両Vb1~Vb5を第2物体として抽出する。
 しかしながら、他車両Vb1が存在しているため、これよりも後方の車両は、他車両Vb1よりも前方を走行することはない。また、他車両Vb2~Vb5のいずれかが車線変更しても、自車両Vaが存在しているため、自車両Vaよりも前方を走行することはない。したがって、他車両Vb2~Vb5は、対向車両Vc1と交錯する可能性は低い。すなわち、歩行者Pe1、他車両Vb1~Vb5のうち、他車両Vb2~Vb5は、第1物体(対向車両Vc1)の挙動に与える影響が相対的に低い。よって、図15Bに示すように、物体抽出部14は、第1物体の挙動に与える影響が相対的に低い他車両Vb2~Vb5を第2物体の抽出から除外してもよい。
 なお、図15Cに示す走行シーンでは、他車両Vb1の後方の他車両Vb2~Vb4のうち、他車両Vb2、Vb3は、車間距離が短く、車線変更をすることができない。一方、最後尾の他車両Vb4は、他車両Vb3との間の車間距離が広く、車線変更が可能である。この場合、他車両Vb4が車線変更することで、対向車両Vc1の進路候補と交錯する可能性がある。この場合、他車両Vb4は、第1物体(対向車両Vc1)の挙動に与える影響が相対的に高いので、物体抽出部14は、第2物体として抽出する。
 この手法によれば、第1物体の挙動に与える影響が高い第2物体が処理候補として抽出されるので、第2物体の影響を適切に反映することができる。その結果、第1物体の挙動を精度よく予測することができ、ひいては第1物体の挙動について長期の予測を行うことができる。
 なお、上述した実施形態の手法では、第2領域R2内の物体の中で、第2物体を抽出して挙動を予測する予測処理を抽出回数繰り返している。しかしながら、予測処理を抽出回数繰り返す方法には、第2物体の抽出とその挙動の予測とを一連の処理として繰り返す方法の他に、第2物体の抽出のみを抽出回数繰り返し、その後、抽出されたn個の第2物体についての挙動を予測する方法も含むものとする。
 また、上述した実施形態では、自車両Vaの周囲に存在する第1物体について挙動を予測する方法を示した。しかしながら、本実施形態に係る挙動予測方法及び挙動予測装置は、自車両以外の車両(他車両)を基準とし、その他車両の周囲に存在する第1物体について挙動を予測するものであっても適応可能である。
 上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
1 物体検出装置
2 検出統合部
3 物体追跡部
4 自車位置推定装置
5 地図取得装置
6 交通規則取得装置
7 地図内位置推定部
10 挙動予測部
11 進路候補取得部
12 進路取得部
13 走行環境取得部
14 物体抽出部
15 予測部
20 車両制御部
50 マイクロコンピュータ

Claims (16)

  1.  車両周囲の物体の挙動を予測する挙動予測方法において、
     前記車両周囲の物体を検出し、
     前記検出した物体の中から、前記車両の挙動に影響を与える第1物体を特定し、
     前記第1物体周囲に存在する複数の物体の中で、前記第1物体の挙動に影響を与える第2物体を抽出して挙動を予測する予測処理を行い、
     前記抽出された第2物体を新たな第1物体として、当該新たな第1物体の挙動に影響を与える新たな第2物体を抽出して挙動を予測する予測処理を行い、
     前記予測処理を所定回数繰り返し、
     前記予測処理が行われたn(n:前記所定回数に対応する自然数)個の前記第2物体の挙動に基づいて、最初の前記予測処理における前記第1物体の挙動を予測する
     挙動予測方法。
  2.  前記車両の走行状態又は前記車両の道路環境に基づいて、前記車両周囲に第1領域を設定し、
     前記第1領域内の物体から、前記第1物体を特定する
     請求項1記載の挙動予測方法。
  3.  前記第1領域に関する前後方向の範囲を、前記車両の速度に応じて設定する
     請求項2記載の挙動予測方法。
  4.  前記車両の道路環境は、前記車両の前方に交差点が存在する環境であり、
     前記第1領域に関する左右方向の範囲を、前記交差点における交通規則上の優先度に基づいて設定する
     請求項2又は3記載の挙動予測方法。
  5.  前記第1領域に関する左右方向の範囲は、前記車両の道路の方が交差道路よりも優先度が高い場合と比べ、前記車両の道路の方が前記交差道路よりも優先度が低い場合の方が広い
     請求項4記載の挙動予測方法。
  6.  前記第1領域に関する左右方向の範囲は、前記車両の道路の方が交差道路よりも優先度が高い場合と比べ、前記車両の道路の優先度が不明の場合の方が広い
     請求項4記載の挙動予測方法。
  7.  前記車両の道路環境は、直進道路であり、
     前記第1領域に関する左右方向の範囲を、前記直進道路の路肩の構造、又は前記直進道路を横断するための横断歩道の有無に基づいて設定する
     請求項2又は3記載の挙動予測方法。
  8.  前記第1領域に関する左右方向の範囲を、前記車両が走行する道路の車線数に基づいて設定する
     請求項2又は3記載の挙動予測方法。
  9.  前記所定回数を、前記車両の道路環境において物体が交錯する複雑度合いに基づいて設定する
     請求項1から8のいずれか一項記載の挙動予測方法。
  10.  前記所定回数は、前記車両が一般道路を走行する場合よりも、前記車両が高速道路を走行する場合の方が少ない
     請求項9記載の挙動予測方法。
  11.  前記所定回数は、前記車両が直進道路を走行する場合よりも、前記車両が交差点を走行する場合の方が多い
     請求項9記載の挙動予測方法。
  12.  前記所定回数は、前記車両が合流区間を走行する場合よりも、前記車両が非合流区間を走行する場合の方が少ない
     請求項9記載の挙動予測方法。
  13.  前記所定回数は、渋滞が発生している場合よりも、渋滞が発生していない場合の方が少ない
     請求項9から12のいずれか一項記載の挙動予測方法。
  14.  前記第1物体の周囲に、前記第2物体を抽出するための第2領域を設定し、
     前記第2領域内の物体のうち、前記第1物体の挙動に与える影響が相対的に低い物体を前記第2物体の抽出から除外する
     請求項1から13のいずれか一項記載の挙動予測方法。
  15.  車両周囲の物体の挙動を予測する挙動予測装置において、
     車両周囲の物体を検出するセンサと、
     前記車両周囲の物体の挙動を予測する制御部と、を有し、
     前記制御部は、
     前記検出した物体の中から、前記車両の挙動に影響を与える第1物体を特定し、
     前記第1物体周囲に存在する複数の物体の中で、前記第1物体の挙動に影響を与える第2物体を抽出して挙動を予測する予測処理を行い、
     前記抽出された第2物体を新たな第1物体として、当該新たな第1物体の挙動に影響を与える新たな第2物体を抽出して挙動を予測する予測処理を行い、
     上記予測処理所定回数繰り返し、
     前記予測処理が行われたn(n:前記所定回数に対応する自然数)個の前記第2物体の挙動に基づいて、最初の前記予測処理における前記第1物体の挙動を予測する
     挙動予測装置。
  16.  自車両周囲の物体を検出するセンサと、
     前記検出した物体の挙動を予測し、前記物体の挙動に基づいて車両を制御する制御部と、を有し、
     前記制御部は、
     前記検出した物体の中から、前記車両の挙動に影響を与える第1物体を特定し、
     前記第1物体周囲に存在する複数の物体の中で、前記第1物体の挙動に影響を与える第2物体を抽出して挙動を予測する予測処理を行い、
     前記抽出された第2物体を新たな第1物体として、当該新たな第1物体の挙動に影響を与える新たな第2物体を抽出して挙動を予測する予測処理を行い、
     上記予測処理を所定回数繰り返し、
     前記予測処理が行われたn(n:前記所定回数に対応する自然数)個の前記第2物体の挙動に基づいて、最初の前記予測処理における前記第1物体の挙動を予測し、
     前記予測された第1物体の挙動に基づいて前記自車両の制御を行う
     車両制御装置。
PCT/IB2019/000381 2019-03-28 2019-03-28 挙動予測方法及び挙動予測装置並びに車両制御装置 WO2020194018A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP19920914.9A EP3950452A4 (en) 2019-03-28 2019-03-28 BEHAVIOR PREDICTION METHOD, BEHAVIOR PREDICTOR DEVICE AND VEHICLE CONTROL DEVICE
CN201980094913.5A CN113661107B (zh) 2019-03-28 2019-03-28 行为预测方法、行为预测装置以及车辆控制装置
US17/442,990 US11447130B2 (en) 2019-03-28 2019-03-28 Behavior prediction method, behavior prediction apparatus and vehicle control apparatus
RU2021131347A RU2767833C1 (ru) 2019-03-28 2019-03-28 Способ прогнозирования поведения, аппаратура прогнозирования поведения и аппаратура управления транспортным средством
JP2021508336A JP7259939B2 (ja) 2019-03-28 2019-03-28 挙動予測方法及び挙動予測装置並びに車両制御装置
PCT/IB2019/000381 WO2020194018A1 (ja) 2019-03-28 2019-03-28 挙動予測方法及び挙動予測装置並びに車両制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2019/000381 WO2020194018A1 (ja) 2019-03-28 2019-03-28 挙動予測方法及び挙動予測装置並びに車両制御装置

Publications (1)

Publication Number Publication Date
WO2020194018A1 true WO2020194018A1 (ja) 2020-10-01

Family

ID=72610320

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/IB2019/000381 WO2020194018A1 (ja) 2019-03-28 2019-03-28 挙動予測方法及び挙動予測装置並びに車両制御装置

Country Status (6)

Country Link
US (1) US11447130B2 (ja)
EP (1) EP3950452A4 (ja)
JP (1) JP7259939B2 (ja)
CN (1) CN113661107B (ja)
RU (1) RU2767833C1 (ja)
WO (1) WO2020194018A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7157780B2 (ja) * 2020-08-27 2022-10-20 本田技研工業株式会社 自動運転車用情報提示装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000006685A (ja) * 1998-06-23 2000-01-11 Nissan Motor Co Ltd 車間距離制御装置
JP2007001383A (ja) * 2005-06-22 2007-01-11 Nissan Motor Co Ltd 走行支援装置及び走行支援方法
JP2008087545A (ja) 2006-09-29 2008-04-17 Toyota Motor Corp 走行制御装置及び走行制御方法
JP2016203942A (ja) * 2015-04-28 2016-12-08 トヨタ自動車株式会社 走行制御装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7671725B2 (en) * 2006-03-24 2010-03-02 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus, vehicle surroundings monitoring method, and vehicle surroundings monitoring program
JP4062353B1 (ja) * 2006-11-10 2008-03-19 トヨタ自動車株式会社 障害物進路予測方法、装置、およびプログラム
JP4349452B2 (ja) * 2007-08-27 2009-10-21 トヨタ自動車株式会社 行動予測装置
US9771070B2 (en) * 2011-12-09 2017-09-26 GM Global Technology Operations LLC Method and system for controlling a host vehicle
US9254846B2 (en) * 2013-05-03 2016-02-09 Google Inc. Predictive reasoning for controlling speed of a vehicle
RU2528501C1 (ru) * 2013-06-04 2014-09-20 Федеральное Государственное унитарное предприятие "Российский Федеральный ядерный центр-Всероссийский научно-исследовательский институт экспериментальной физики-ФГУП "РФЯЦ-ВНИИЭФ" Способ прогнозирования перемещений объектов движения в мегаполисе путем многофакторного моделирования перемещаемого транспортного потока
EP2826687B1 (en) * 2013-07-16 2019-03-06 Honda Research Institute Europe GmbH Technique for lane assignment in a vehicle
DE102015221439B3 (de) * 2015-11-02 2017-05-04 Continental Automotive Gmbh Verfahren und Vorrichtung zur Auswahl und Übertragung von Sensordaten von einem ersten zu einem zweiten Kraftfahrzeug
US10239529B2 (en) * 2016-03-01 2019-03-26 Ford Global Technologies, Llc Autonomous vehicle operation based on interactive model predictive control
WO2018220807A1 (ja) * 2017-06-02 2018-12-06 本田技研工業株式会社 予測装置、車両、予測方法およびプログラム
US20180362047A1 (en) * 2017-06-19 2018-12-20 Panasonic Intellectual Property Corporation Of America Information processing device and recording medium
US10782693B2 (en) * 2017-09-07 2020-09-22 Tusimple, Inc. Prediction-based system and method for trajectory planning of autonomous vehicles
JP6985203B2 (ja) * 2018-04-05 2021-12-22 トヨタ自動車株式会社 挙動予測装置
US20200130685A1 (en) * 2018-10-30 2020-04-30 Denso International America, Inc. Apparatus and method for identifying sensor occlusion in autonomous vehicles
CN109624972B (zh) * 2018-12-06 2020-06-09 北京百度网讯科技有限公司 车辆防止碰撞的方法、装置、设备及可读存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000006685A (ja) * 1998-06-23 2000-01-11 Nissan Motor Co Ltd 車間距離制御装置
JP2007001383A (ja) * 2005-06-22 2007-01-11 Nissan Motor Co Ltd 走行支援装置及び走行支援方法
JP2008087545A (ja) 2006-09-29 2008-04-17 Toyota Motor Corp 走行制御装置及び走行制御方法
JP2016203942A (ja) * 2015-04-28 2016-12-08 トヨタ自動車株式会社 走行制御装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3950452A4

Also Published As

Publication number Publication date
CN113661107A (zh) 2021-11-16
EP3950452A4 (en) 2022-04-06
US11447130B2 (en) 2022-09-20
JPWO2020194018A1 (ja) 2020-10-01
EP3950452A1 (en) 2022-02-09
JP7259939B2 (ja) 2023-04-18
US20220144261A1 (en) 2022-05-12
CN113661107B (zh) 2022-05-31
RU2767833C1 (ru) 2022-03-22

Similar Documents

Publication Publication Date Title
CN109313856B (zh) 物体检测方法及物体检测装置
US20190333373A1 (en) Vehicle Behavior Prediction Method and Vehicle Behavior Prediction Apparatus
JP4577827B2 (ja) 走行車両の次道路予測装置
JP2006177862A (ja) ナビゲーション装置
RU2755425C1 (ru) Способ помощи движению транспортного средства и устройство помощи движению транспортного средства
WO2020008220A1 (ja) 走行軌道生成方法及び走行軌道生成装置
JP7037956B2 (ja) 車両進路予測方法、車両走行支援方法及び車両進路予測装置
JP2011018283A (ja) 物体検出装置
EP3950446B1 (en) Vehicle control method and vehicle control device
US11780468B2 (en) Vehicle-behavior prediction method and vehicle-behavior prediction device
JP6171499B2 (ja) 危険度判定装置及び危険度判定方法
JP7277215B2 (ja) 挙動予測方法及び挙動予測装置並びに車両制御装置
WO2017013747A1 (ja) シーン評価装置、走行支援装置、シーン評価方法
JP6721054B2 (ja) 車両はみ出し判断方法及び車両はみ出し判断装置
WO2020194018A1 (ja) 挙動予測方法及び挙動予測装置並びに車両制御装置
JP7223588B2 (ja) 運転特性推定方法及び運転特性推定装置
JP7277202B2 (ja) 車両挙動予測方法及び車両挙動予測装置並びに車両制御装置
WO2020053612A1 (ja) 車両挙動予測方法及び車両挙動予測装置
JP7398236B2 (ja) 車両制御方法及び車両制御装置
JP7274329B2 (ja) 車両挙動予測方法及び車両挙動予測装置並びに車両制御装置
US11662219B2 (en) Routing based lane guidance system under traffic cone situation
WO2024075186A1 (ja) 走行経路生成方法及び走行経路生成装置
JP2020121614A (ja) 走行支援方法及び走行支援装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19920914

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021508336

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019920914

Country of ref document: EP

Effective date: 20211028