WO2018110607A1 - 車両における衝突回避装置および衝突回避方法 - Google Patents

車両における衝突回避装置および衝突回避方法 Download PDF

Info

Publication number
WO2018110607A1
WO2018110607A1 PCT/JP2017/044764 JP2017044764W WO2018110607A1 WO 2018110607 A1 WO2018110607 A1 WO 2018110607A1 JP 2017044764 W JP2017044764 W JP 2017044764W WO 2018110607 A1 WO2018110607 A1 WO 2018110607A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
collision avoidance
collision
oncoming
center line
Prior art date
Application number
PCT/JP2017/044764
Other languages
English (en)
French (fr)
Inventor
慶 神谷
洋介 伊東
崇治 小栗
崇弘 馬場
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to CN201780076784.8A priority Critical patent/CN110062938B/zh
Priority to DE112017006263.2T priority patent/DE112017006263T5/de
Publication of WO2018110607A1 publication Critical patent/WO2018110607A1/ja
Priority to US16/438,890 priority patent/US11260853B2/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/025Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
    • B62D15/0265Automatic obstacle avoidance by steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D6/00Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data

Definitions

  • the present disclosure relates to a collision avoidance device and a collision avoidance method in a vehicle, and particularly relates to a collision avoidance control technique for an oncoming vehicle.
  • a technique for avoiding a collision with an object such as another vehicle or an obstacle existing in front of the host vehicle by using a detection result from an object detector such as a camera or a radar has been put into practical use.
  • an object detector such as a camera or a radar
  • the object of collision avoidance is an oncoming vehicle
  • the oncoming vehicle is an object whose position dynamically changes, and it is not easy to predict the behavior of the oncoming vehicle.
  • oncoming vehicles are intermittently present with respect to the host vehicle.
  • the collision avoidance with respect to the oncoming vehicle involves steering control and braking control, it is required to consider the possibility of collision with an object other than the oncoming vehicle, for example, the collision with another vehicle and the influence on the other vehicle.
  • the present disclosure can be realized as the following modes.
  • a collision avoidance device for a vehicle includes an object detection unit that detects an object, an attribute acquisition unit that acquires an attribute of an oncoming vehicle using a detection result by the object detection unit, and the attribute
  • a collision avoidance execution unit that executes at least one of a collision possibility notification and a collision avoidance operation when it is determined that the oncoming vehicle protrudes from the center line using the attribute acquired by the acquisition unit; Is provided.
  • collision avoidance with an oncoming vehicle can be executed when the possibility of collision is high.
  • the second aspect provides a collision avoidance method for a vehicle.
  • the attribute of the oncoming vehicle is acquired using the detection result by the object detection unit, and the oncoming vehicle is acquired using the attribute acquired by the attribute acquisition unit.
  • at least one of a collision possibility notification and a collision avoidance operation is executed.
  • collision avoidance with an oncoming vehicle can be executed when the possibility of collision is high.
  • this indication is realizable also as a computer-readable recording medium which records the collision avoidance program in a vehicle, or the said program.
  • Explanatory drawing which shows typically the positional relationship of the own vehicle at the time of calculating
  • Explanatory drawing which shows typically the positional relationship of the 2nd example own vehicle and oncoming vehicle at the time of the collision avoidance process in 1st Embodiment being performed.
  • Explanatory drawing which shows typically the positional relationship of the 3rd example own vehicle and oncoming vehicle at the time of the collision avoidance process in 1st Embodiment being performed.
  • a collision avoidance device for a vehicle and a collision avoidance method for a vehicle according to the present disclosure will be described below based on some embodiments.
  • the collision avoidance device 10 As shown in FIG. 1, the collision avoidance device 10 according to the first embodiment is mounted on a vehicle 500 and used.
  • the collision avoidance device 10 includes a control device 100, millimeter wave radars 21 and 21s, a monocular camera 22, a yaw rate sensor 23, a wheel speed sensor 24, a steering angle sensor 25, a braking assist actuator 30, and a steering assist actuator 31.
  • the braking assist device 10 may include only the control device 100, and the millimeter wave radars 21 and 21s, the monocular camera 22, the yaw rate sensor 23, the wheel speed sensor 24, the steering angle sensor 25, the braking assist actuator 30, and the steering assist.
  • the actuator 31 When the actuator 31 is included, it may be called a braking support system.
  • the vehicle 500 includes wheels 501, a braking device 502, a braking line 503, a steering wheel 504, a windshield 510, and a front bumper 520.
  • the vehicle only needs to include millimeter wave radars 21 and 21s, a monocular camera 22, and a rider (LIDAR), that is, a laser radar, as at least a monocular camera 22 as an object detection unit.
  • Millimeter wave radars 21 and 21s and a monocular camera 22 are provided as the object detection unit.
  • the braking device 502 is provided on each wheel 501.
  • Each braking device 502 realizes braking of each wheel 501 by the brake fluid pressure supplied via the braking line 503 according to the driver's braking pedal operation.
  • the brake line 503 includes a brake piston and a brake fluid line for deriving the brake fluid pressure according to the brake pedal operation.
  • the brake assist actuator 30 is provided in the brake line 503, and hydraulic pressure control is possible independently of the brake pedal operation, thereby realizing the brake assist.
  • the brake line 503 may be a control signal line instead of the brake fluid line, and a configuration in which an actuator provided in each brake device 502 is operated may be employed.
  • the steering wheel 504 is connected to the front wheel 501 via a steering mechanism 505 including a steering rod.
  • a steering assist actuator 31 capable of steering the front wheel 501 independently of the operation of the steering wheel 504 by the driver is provided in the steering mechanism 505, for example, a steer rod. Steering support is realized.
  • the control device 100 includes a central processing unit (CPU) 101, a memory 102, an input / output interface 103, and a bus 104.
  • the CPU 101, the memory 102, and the input / output interface 103 are connected via a bus so that bidirectional communication is possible.
  • the memory 102 is nonvolatile and reads out an attribute acquisition program P1 for acquiring the attribute of the oncoming vehicle and a collision avoidance program P2 for executing collision avoidance with the assistance of steering by the steering mechanism 505 and the assistance of braking by the braking device 502.
  • a dedicated storage memory such as a ROM, and a memory readable / writable by the CPU 101, such as a RAM, are included.
  • the CPU 101 functions as an attribute acquisition unit by expanding and executing the attribute acquisition program P1 stored in the memory 102 in a readable / writable memory, and similarly functions as a collision avoidance execution unit by executing the collision avoidance program P2. To do.
  • the collision avoidance execution unit receives a control signal from the CPU 101 and applies a torque to the steering mechanism 505 for steering assistance, and a brake for braking assistance to the braking line 503.
  • a braking assist actuator 30 for applying hydraulic pressure is also included.
  • the collision avoidance execution unit executes the collision avoidance program P2 for controlling the execution of the collision avoidance and transmits a control signal to each actuator, and the braking device 502 and the steering mechanism for the collision avoidance.
  • the CPU 101 may be a single CPU, may be a plurality of CPUs that execute each program, or may be a multitask type CPU that can simultaneously execute a plurality of programs.
  • the input / output interface 103 is connected to millimeter wave radars 21 and 21s, a monocular camera 22, a yaw rate sensor 23, a wheel speed sensor 24, a steering angle sensor 25, and a braking assist actuator 30 via control signal lines. Detection information is input from the millimeter wave radars 21, 21 s, the monocular camera 22, the yaw rate sensor 23, the wheel speed sensor 24, and the rudder angle sensor 25, and a control signal for instructing the braking level is output to the braking assist actuator 30. Then, a control signal for instructing the steering angle is output to the steering assist actuator 31.
  • Millimeter wave radars 21 and 21 s are sensors that detect a distance, a relative speed, and an angle of an object by emitting a millimeter wave and receiving a reflected wave reflected by the object.
  • the millimeter wave radar 21 is disposed at the center of the front bumper 520, and the two millimeter wave radars 21s are disposed on both side surfaces of the front bumper 520, respectively.
  • the detection signals output from the millimeter wave radars 21 and 21s include, for example, points or point sequences indicating one or a plurality of representative positions of an object whose reception waves have been processed in the processing circuit included in the millimeter wave radars 21 and 21s. It may be a signal or a signal indicating an unprocessed received wave. When an unprocessed received wave is used as a detection signal, the control device 100 executes signal processing for specifying the position and distance of the object. A rider may be used instead of the millimeter wave radar.
  • the monocular camera 22 is an image pickup apparatus having one image pickup element such as a CCD, and is a sensor that outputs external shape information of an object as image data as a detection result by receiving visible light.
  • the image data output from the monocular camera 22 is composed of a plurality of frame images continuous in time series, and each frame image is represented by pixel data.
  • the monocular camera 22 is disposed at the upper center of the windshield 510.
  • the pixel data output from the monocular camera 22 is monochrome pixel data or color pixel data. Note that a compound-eye stereo camera may be used instead of the monocular camera 22.
  • the yaw rate sensor 23 is a sensor that detects the rotational angular velocity of the vehicle 500.
  • the yaw rate sensor 23 is disposed at the center of the vehicle, for example.
  • the detection signal output from the yaw rate sensor 23 is a voltage value proportional to the rotation direction and the angular velocity.
  • the wheel speed sensor 24 is a sensor that detects the rotational speed of the wheel 501 and is provided in each wheel 501.
  • the detection signal output from the wheel speed sensor 24 is a pulse value indicating a voltage value proportional to the wheel speed or an interval corresponding to the wheel speed.
  • the steering angle sensor 25 is a torque sensor that detects a torsion amount generated in the steer rod by steering of the steering wheel 504, that is, a steering torque.
  • the steering angle sensor 25 is provided on a steering rod that connects the steering wheel 504 and the steering mechanism.
  • the detection signal output from the steering angle sensor 25 is a voltage value proportional to the amount of twist.
  • the braking assist actuator 30 is an actuator for realizing braking by the braking device 502 regardless of the brake pedal operation by the driver. Note that a driver that controls the operation of the actuator based on a control signal from the CPU 101 is mounted on the braking assist actuator 30.
  • the braking assist actuator 30 is provided in the braking line 503, and increases or decreases the hydraulic pressure in the braking line 503 in accordance with a control signal from the control device 100.
  • the braking assist actuator 30 is configured by a module including, for example, an electric motor and a hydraulic piston driven by the electric motor. Alternatively, a brake control actuator that has already been introduced as a skid prevention device or an antilock brake system may be used.
  • the steering assist actuator 31 is an actuator for realizing steering by the steering mechanism 505 regardless of the operation of the steering wheel 504 by the driver.
  • the steering assist actuator 31 is mounted with a driver that controls the operation of the actuator based on a control signal from the CPU 101.
  • the steering assist actuator 31 is provided in a steering rod or a rack and pinion gear unit included in the steering mechanism 505, and changes the steering angle by the steering mechanism 505 in accordance with a control signal from the control device 100.
  • the steering assist actuator 31 is composed of a module including an electric motor and a speed reducer, for example. This module may be newly installed in a steering mechanism 505 including a hydraulic power steering, or may be used as a module including an electric motor and a speed reducer that have already been introduced as an actuator for electric power steering. .
  • the collision avoidance process executed by the collision avoidance device 10 according to the first embodiment will be described with reference to FIGS.
  • the processing routine shown in FIG. 3 is executed by the CPU 101 executing the attribute acquisition program P1 and the collision avoidance program P2, for example, from the start to the stop of the vehicle control system or after the start switch is turned on. It is repeatedly executed at predetermined time intervals until is turned off.
  • the situation shown in FIG. 4 will be described below as an example.
  • the attribute acquisition program P1 and the collision avoidance program P2 may be separate processing routines activated at different timings.
  • the attribute acquisition program P1 for acquiring the attributes of the oncoming vehicles M2 and M3 is continuously executed when the host vehicle M1 is activated or when the host vehicle M1 is in a travelable state, and the collision avoidance program P2 is
  • the oncoming vehicles M2 and M3 may be triggered by the determination that the center line CL protrudes from the own vehicle lane side.
  • the CPU 101 acquires the attributes of the oncoming vehicles M2 and M3 (step S100).
  • the oncoming vehicles M2 and M3 mean ongoing vehicles facing the host vehicle M1.
  • the CPU 101 uses the detection results from the millimeter wave radars 21 and 21s, for example, the distance from the own vehicle M1 to the oncoming vehicles M2 and M3, the relative speed of the oncoming vehicles M2 and M3 with respect to the own vehicle M1, and the oncoming vehicles M2 and M3.
  • the lap ratio between the host vehicle M1 and the oncoming vehicles M2 and M3, and the expected collision time (TTC) until the vehicle collides with the oncoming vehicles M2 and M3, are calculated and acquired as attribute information of the oncoming vehicles M2 and M3.
  • the CPU 101 also uses the image data from the monocular camera 22 to determine, for example, the external dimensions of the other vehicles M2 and M3, the relative position with respect to the host vehicle M1, and the positions of the oncoming vehicles M2 and M3 with respect to the center line. Calculated and acquired as attribute information.
  • data fusion processing is performed using detection results from the millimeter wave radars 21 and 21s and image data from the monocular camera. By executing this, the determination accuracy can be improved. What is a lap rate? It means the rate of overlap in the width direction of the host vehicle M1 and the width of the oncoming vehicles M2, M3, that is, in the horizontal direction.
  • the directions of the oncoming vehicles M2 and M3 are specified as follows, for example.
  • the CPU 101 uses the detection points as the detection results input from the millimeter wave radars 21 and 21s and the coordinates corresponding to the front of the vehicle using the width dimension of the front of the vehicle corresponding to the distance from the host vehicle M1 prepared in advance. Identify the value.
  • the CPU 101 determines the total length of the vehicle in which coordinate values in the vertical direction, that is, the traveling direction of the host vehicle M1 are prepared in advance A detection point that is less than the coordinate value corresponding to the dimension is specified.
  • a direction parallel to the lane is referred to as a vertical direction
  • a direction perpendicular to the lane is referred to as a horizontal direction.
  • the CPU 101 specifies the directions of the oncoming vehicles M2 and M3 from the slope of a straight line connecting the coordinate value of the lateral end point of the vehicle front and the coordinate value of the detection point corresponding to the vehicle side surface.
  • the CPU 101 superimposes the coordinate positions of the detection points input from the millimeter wave radars 21 and 21s on the front area and the side area of the vehicle extracted from the image data input from the monocular camera 22 by data fusion processing.
  • the directions of the oncoming vehicles M2 and M3 may be specified using the coordinate values of the respective detection points.
  • the directions of the oncoming vehicles M2 and M3 are specified using the point sequence according to the above method. Just do it. Furthermore, the directions of the oncoming vehicles M2 and M3 may be determined by the inclination of the front of the oncoming vehicles M2 and M3 with respect to the center line CL.
  • the center line CL can be specified by a method described later, and the coordinates representing the straight line in the width direction of the front surface of the oncoming vehicles M2 and M3 can be specified using the coordinate values of the point sequence as described above.
  • the CPU 101 uses detection points corresponding to the front of the vehicle input from the millimeter wave radars 21 and 21s or a point sequence arranged in the width direction and a width dimension of the front of the vehicle corresponding to the distance from the host vehicle M1 prepared in advance.
  • the coordinates of the closest end portion WP1 of the oncoming vehicles M2 and M3 are specified.
  • the closest end portion WP1 of the oncoming vehicles M2 and M3 is the end of the oncoming vehicles M2 and M3 that are the closest to the host vehicle M1, and to the right of the oncoming vehicles M2 and M3 in the case of left-hand traffic.
  • the CPU 101 sets the coordinate value of the intersection IS between the extending line EL1 obtained by extending the closest end WP2 of the host vehicle M1 toward the oncoming vehicles M2 and M3 and the extending line EL2 in the width direction along the front of the oncoming vehicles M2 and M3. , The difference LP in the width direction from the coordinate value of the closest end WP is calculated, the overlapping ratio between the calculated coordinate value difference dimension in the width direction and the width dimension of the host vehicle M1 is calculated, and the lap rate is calculated. get.
  • the CPU 101 continuously monitors the behavior of the oncoming vehicles M2 and M3, and sets an obstacle avoidance history flag as attribute information.
  • the obstacle avoidance history flag includes an event that the oncoming vehicle M2 exists behind or obliquely behind the oncoming vehicle M3 preceding the oncoming lane or the oncoming vehicle M2, and the stationary vehicle or oncoming vehicle M3 (hereinafter referred to as “obstacle”). It is also set to ON, that is, with an obstacle avoidance history when both events that attempt to pass the vehicle are recorded.
  • the CPU 101 records each event in the memory 102, and turns on the obstacle avoidance history flag when both events are recorded.
  • the event that the oncoming vehicle M2 exists behind or obliquely behind the obstacle vehicle M3 is detected by using the detection results from the millimeter wave radars 21 and 21s that are continuously input, and the position coordinate of the oncoming vehicle M2 is the obstacle vehicle. It is recorded when it is detected that it exists behind or obliquely behind the position coordinate of M3.
  • the event that the oncoming vehicle M2 tried to overtake the obstacle vehicle M3 is detected by using the detection results from the millimeter wave radars 21 and 21s that are continuously input so that the position coordinate of the oncoming vehicle M2 is that of the obstacle vehicle M3.
  • the vertical ground speed V2 (km / h) of the oncoming vehicle M2 is the vertical ground speed V3 (km) of the obstacle vehicle M3. / H), it is recorded when it is detected that it is larger than.
  • a history of each event can be obtained by recording each event over time.
  • the CPU 101 turns off the obstacle avoidance history flag, that is, the obstacle avoidance history flag.
  • Obstacle vehicle lateral position
  • the lateral position is a coordinate value in the lateral direction in each vehicle, meaning the coordinate value of the closest end to the own vehicle, and ⁇ is a value corresponding to the width dimension of one lane, for example. .
  • the oncoming vehicle is in the same lane as the obstacle vehicle.
  • Obstacle avoidance history exists for more than a certain period of time If the obstacle avoidance history is present for more than a certain period of time, that is, more than the timeout period, the obstacle avoidance information of the oncoming vehicle becomes outdated and reliable. Sex is reduced. Therefore, the obstacle avoidance history flag is cleared when a certain time or more has elapsed since the obstacle avoidance history flag was turned on.
  • the CPU 101 determines whether or not the oncoming vehicles M2 and M3 protrude the center line CL to the own vehicle lane side using the acquired attribute information (step S102). Specifically, the CPU 101 extracts a pixel area corresponding to the center line CL and a pixel area corresponding to the oncoming vehicles M2 and M3 from the image data input from the monocular camera 22 using the pattern matching method. Using the position coordinates of the pixel area corresponding to the oncoming vehicles M2 and M3 and the position coordinates of the pixel area corresponding to the center line CL, it is determined whether or not the oncoming vehicles M2 and M3 protrude from the center line CL.
  • step S102: Yes the CPU 101 determines that the oncoming vehicle M2 protrudes from the center line CL
  • step S102: No the CPU 101 ends this processing routine.
  • step S104 the CPU 101 acquires the position of the host vehicle M1. Specifically, the CPU 101 extracts the center line CL from the image data input from the monocular camera 22, and acquires the position of the host vehicle M1 with respect to the center line CL.
  • the position of the host vehicle M1 with respect to the center line CL means that the host vehicle M1 is traveling on a lane in contact with the center line CL as shown in FIG. 4, or the host vehicle M1 is on the center line CL as shown in FIG. This means two correspondences: driving in a non-contact lane.
  • the host vehicle M1 always travels in a lane in contact with the center line CL.
  • the host vehicle M1 travels on a lane that is in contact with the center line CL or a lane that is not in contact with the center line CL. Further, the fact that the host vehicle M1 is traveling in a lane that is in contact with the center line CL means that the right line of the host vehicle M1 is the center line CL in the case of left-hand traffic, and the host vehicle M1 in the case of right-hand traffic. Means that the left-hand line is the center line CL.
  • the CPU101 determines whether the notification of collision avoidance is required using the attribute information of the oncoming vehicle M2 and the position of the host vehicle M1 (step S106). The CPU 101 determines that notification is required when at least one of the following conditions is satisfied. (1) When the host vehicle M1 is traveling in a lane in contact with the center line CL, (2) The oncoming vehicle M2 is going straight ahead, (3) The oncoming vehicle M2 has an obstacle avoidance history. (4) The lap rate between the host vehicle M1 and the oncoming vehicle M2 is a predetermined range. Note that the conditions (2) to (4) may be determined with priority, and by considering the condition (1), it is possible to further reduce the execution of collision avoidance when the possibility of collision is low. Further, it is possible to determine that the possibility of a collision is high as the number of conditions to be determined increases.
  • the condition (1) is determined by the position of the host vehicle M1 acquired in step S104, the condition (2) is determined by the direction of the oncoming vehicle M2, and the condition (3) is determined by an obstacle avoidance history flag.
  • the range prepared in advance under the condition (4) is, for example, 0 to 50%, more preferably 30 to 50%, and the lap ratio obtained when the attribute of the oncoming vehicle is acquired is prepared in advance.
  • the condition (4) is satisfied when entering the specified range.
  • the upper limit of the lap rate is set to 50% because the collision mode to be avoided by the steering assistance is a so-called offset collision in which the vehicle damage tends to be biased and the lap rate exceeds 50%. This is because, in the case of a so-called full lap collision, the entire vehicle can receive an impact and avoid a situation in which an offset collision is caused by avoiding a collision by steering assistance.
  • step S106: No When the CPU 101 determines that any one of the conditions (1) to (4) is not satisfied (step S106: No), this processing routine is terminated.
  • step S106: Yes is the predicted collision time TTC (s) equal to or shorter than the determination time TTC1 (s) that requires notification? It is determined whether or not (step S108).
  • step S108: No the processing routine ends.
  • the CPU 101 determines that TTC ⁇ TTC1 (step S108: Yes)
  • the CPU 101 executes notification for prompting collision avoidance (step S110).
  • the notification can be executed by sound and / or a display on the meter panel or the windshield 510.
  • notification such as vibrating the steering wheel 504 may be executed.
  • the CPU 101 acquires the road environment on the lane in the direction in which the host vehicle M1 is separated from the center line CL using the detection results from the millimeter wave radars 21 and 21s and the image data from the monocular camera 22, and the host vehicle M1 is opposed. A retreat space for avoiding a collision with the vehicle M2 is confirmed (step S112). Confirmation means the identification and determination of the existence of the save space. Specifically, the CPU 101 determines whether or not there is a pixel area indicating some object in a predetermined assumed saving area on the left road of the host vehicle M1 in the image data from the monocular camera 22.
  • the CPU 101 determines whether or not an empty space can be detected, and whether or not an object exists in the assumed evacuation area mainly using the detection result of the millimeter wave radar 21s, that is, an upper structure on a manhole or road It is determined whether a valid millimeter wave reflection point indicating an object is detected. If the CPU 101 determines that there is a pixel area indicating some target object in the assumed save area using the image data from the monocular camera 22, the millimeter wave radar 21s is used to indicate the object in the assumed save area. The distance to the coordinate position corresponding to the pixel area is obtained.
  • the CPU 101 uses the detection result and the image data from the millimeter wave radar 21s and the monocular camera 22, and when there is no object in the left lane or the lane shoulder of the own vehicle M1, as shown in FIG. 4, the own vehicle M1. It is determined that there is a evacuation space FS that can travel forward (trajectory AS). In addition, the CPU 101 obtains the distance to the coordinate position corresponding to the pixel area indicating the target object in the assumed saving area and the relative speed between the target object and the host vehicle M1, and the host vehicle M1 without colliding with the target object. It may be determined whether or not the vehicle can be moved forward (trajectory AS). For example, as shown in FIG.
  • the speed of the own vehicle M1 is V1 and the speed of the other vehicle M4 is V3.
  • the relative speed (V3-V1) with respect to the host vehicle is 0 km / h or more
  • the retreat space FS that can change the course to the left front.
  • the CPU 101 determines whether it is possible to save to the save space FS, that is, whether the save space FS exists (step S114). If the CPU 101 determines that it is not possible to save to the save space FS (step S114: No), the process routine ends. This is to avoid causing a collision with an object including another vehicle by executing the collision avoidance. Note that the CPU 101 may determine the following conditions again. (1) When the host vehicle M1 is traveling in a lane in contact with the center line CL, (2) The oncoming vehicle M2 is going straight ahead, (3) The oncoming vehicle M2 has an obstacle avoidance history. (4) The lap rate between the host vehicle M1 and the oncoming vehicle M2 is a predetermined range.
  • step S114 Yes
  • step S116 determines whether or not the expected collision time TTC (s) is equal to or shorter than the determination time TTC2 (s) that requires collision avoidance. Is determined (step S116).
  • step S116 determines that TTC> TTC2 is satisfied (step S116: No)
  • this processing routine is terminated. If there is sufficient time to avoid a collision between the host vehicle M1 and the oncoming vehicle M2, that is, if there is at least a time longer than TTC2, the collision avoidance is not performed, and the driver avoids the voluntary avoidance. stand by.
  • step S118 If the CPU 101 determines that TTC ⁇ TTC2 (step S116: Yes), it performs collision avoidance (step S118), and ends this processing routine.
  • the collision avoidance is executed, for example, by changing the course of the host vehicle M1 along the locus AS in FIGS.
  • the CPU 101 determines a steering angle for changing the course to the waiting space FS, and transmits a control signal indicating the determined steering angle to the steering assist actuator 31.
  • the steering assist actuator 31 operates the steering mechanism 505 so as to realize the determined steering angle to turn the host vehicle M1 to the left side.
  • braking assistance using the braking assistance actuator 30 may be executed simultaneously.
  • the amount of braking assistance is determined by the CPU 101 according to the distance and relative speed between the object located on the left front side of the host vehicle M1 and the host vehicle M1.
  • a detection signal from a millimeter wave radar provided on the side of the vehicle rear bumper or an ultrasonic sensor provided in the vehicle rear bumper as a parking sensor can be used.
  • the collision avoidance device 10 and the collision avoidance method according to the first embodiment described above the possibility of collision when the oncoming vehicles M2 and M3 protrude from the center line based on the attributes of the oncoming vehicles M2 and M3. Since at least one of the notification and the collision avoidance operation is executed, the collision avoidance can be executed when the possibility of a collision with the oncoming vehicles M2 and M3 is high. That is, it is possible to improve the accuracy of determining whether or not collision avoidance is necessary, and reduce execution of unnecessary collision avoidance.
  • the combination of the millimeter wave radars 21, 21 s and the monocular camera 22 tends to have lower detection accuracy for the absence of an object than detection accuracy for the presence of a countermeasure. Therefore, it is particularly desirable to execute collision avoidance when the oncoming vehicles M2 and M3 protrude from the center line, that is, when the possibility of collision with the oncoming vehicles M2 and M3 is high.
  • the host vehicle M1 is traveling on a lane in contact with the center line CL, and may collide with the oncoming vehicle M2 that protrudes from the center line CL toward the host vehicle M1.
  • the collision avoidance operation is executed when the oncoming vehicle M2 is traveling straight and there is a high possibility of collision with the host vehicle M1 with the center line CL protruding. Therefore, it is possible to improve the accuracy of determining whether or not it is necessary to avoid a collision, that is, the accuracy of determining a situation where there is a high possibility of a collision with the oncoming vehicles M2 and M3.
  • the oncoming vehicles M2 and M3 are objects whose positions change dynamically, and it is not easy to predict the behavior of the oncoming vehicles M2 and M3.
  • the behavior of the oncoming vehicles M2 and M3 is monitored by linking the obstacle avoidance history, whether or not the oncoming vehicles M2 and M3 tend to protrude from the center line CL. Can be recognized.
  • the oncoming vehicles M2 and M3 with respect to the host vehicle M1 exist intermittently, but in the first embodiment, only the oncoming vehicle M2 that protrudes from the center line CL is avoided.
  • the projection of the center line CL is used as an execution trigger for collision avoidance processing, unnecessary collision avoidance can be avoided, that is, collision avoidance assistance can be executed when collision avoidance is actually required.
  • the collision avoidance with respect to the oncoming vehicle M2 involves steering control and braking control, there is a possibility of a collision with an object other than the oncoming vehicle, for example, another vehicle M4 traveling in front of the own vehicle M1, and the own vehicle M1. It is also necessary to consider the impact on other vehicles that are traveling behind the vehicle.
  • the behavior of the other vehicle M4 that is traveling in front of the host vehicle M1 for example, the relative speed based on the ground speed is set as the start condition of the collision avoidance process, so the collision with the other vehicle M4 is Does not occur. Further, for other vehicles traveling behind the host vehicle M1, the behavior of the other vehicles is detected, and in a situation where the vehicle can collide with other vehicles, the collision avoidance process is not executed, thereby preventing the collision with the other vehicles. Yes.
  • At least the monocular camera 22 is provided as the object detection unit, but it is sufficient that at least the object detection unit capable of identifying the center line CL is provided. For example, when the rider's resolution is improved and the center line CL can be identified, only the rider may be provided. Alternatively, only a stereo camera may be provided.
  • the attribute of the oncoming vehicle M2 uses detection signals or image data from the millimeter wave radars 21 and 21s, the monocular camera 22, or the rider and stereo camera as the object detection unit. Has been judged.
  • the attribute of the oncoming vehicle M2 may be determined using data on the behavior of another vehicle acquired through the inter-vehicle communication system, for example, the steering angle, the accelerator opening, and the brake operation amount.
  • collision avoidance notification and collision avoidance are continuously performed. However, only collision avoidance notification or only collision avoidance may be performed. In any case, when the possibility of a collision with the oncoming vehicle M2 is high, it is possible to perform collision avoidance notification or collision avoidance execution, and reduce the execution of processing related to unnecessary collision avoidance. be able to.
  • the CPU 101 executes the attribute acquisition program P1 and the collision avoidance program P2, so that the attribute acquisition unit and the collision avoidance execution unit are realized in software. It may be realized in hardware by an integrated circuit or a discrete circuit.
  • the present disclosure has been described based on the embodiments and the modified examples.
  • the above-described embodiments of the present invention are for facilitating understanding of the present disclosure, and do not limit the present disclosure.
  • the present disclosure can be modified and improved without departing from the spirit and scope of the claims, and the present disclosure includes equivalents thereof.
  • the technical features in the embodiments and the modifications corresponding to the technical features in each embodiment described in the summary section of the invention are to solve some or all of the above-described problems, or In order to achieve part or all of the effects, replacement or combination can be performed as appropriate. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.
  • the collision avoidance device for a vehicle according to the first aspect is applied example 1, Application Example 2:
  • the collision avoidance execution unit may be configured such that the acquired attribute is an avoidance history that is close to or exceeds the center line of the oncoming vehicle, the oncoming vehicle When the lap rate between the vehicle and the host vehicle is in a predetermined range, or when the oncoming vehicle is traveling straight with respect to the host vehicle, a collision possibility notification and a collision A collision avoidance device for a vehicle that executes at least one of avoidance operations.
  • Application Example 3 In the collision avoidance device for a vehicle according to Application Example 1 or 2, the collision avoidance execution unit may notify the collision possibility and perform the collision avoidance operation when the host vehicle is traveling along the center line.
  • Application Example 4 In the collision avoidance apparatus for a vehicle according to any one of Application Examples 1 to 3, in the vehicle, the collision avoidance execution unit executes a collision avoidance operation after notifying the possibility of collision. Collision avoidance device.
  • Application Example 5 In the collision avoidance apparatus for a vehicle according to Application Example 4, the collision avoidance execution unit may use the detection result when the target vehicle detection space is confirmed using the detection result of the object detection unit.
  • a collision avoidance device for a vehicle that performs a collision avoidance operation on a space.
  • Application Example 6 In the collision avoidance device for a vehicle according to any one of application examples 1 to 5, the object detection unit is a monocular imaging device and a radar or a combination of a monocular imaging device and a rider. Collision avoidance device.
  • Application Example 7 In the collision avoidance device for a vehicle according to Application Example 6, the collision avoidance execution unit detects an empty space by the monocular imaging device in the traveling lane of the host vehicle, and the radar or rider causes the empty If the millimeter wave reflection point effective for the space is not detected, the evacuation space may be confirmed.
  • Application Example 8 In the collision avoidance apparatus for a vehicle according to any one of Application Examples 1 to 7, the collision avoidance operation executed by the collision avoidance execution unit is an avoidance operation via a steering unit.
  • Application Example 9 The collision avoidance device for a vehicle according to Application Example 8, wherein the collision avoidance operation executed by the collision avoidance execution unit further includes braking assistance via the braking unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

車両における衝突回避装置10が提供される。前記衝突回避装置10は、対象物を検知する対象物検知部21、21s、22と、前記対象物検知部21、21s、22による検知結果を用いて、対向車両の属性を取得する属性取得部100と、前記属性取得部100によって取得された属性を用いて、対向車両が中央線をはみ出していると判定した場合に、衝突可能性の報知および衝突回避操作の少なくともいずれか一方を実行する衝突回避実行部31、100とを備える。

Description

車両における衝突回避装置および衝突回避方法 関連出願の相互参照
 本願は、その全ての開示が参照によりここに組み込まれる、2016年12月14日に出願された、日本国特許出願 出願番号2016-242119に基づく優先権を主張する。
 本開示は車両における衝突回避装置および衝突回避方法に関し、特には、対向車両に対する衝突回避の制御技術に関する。
 カメラやレーダといった対象物検知器からの検知結果を用いて、自車両の前方に存在する他車両や障害物といった対象物との衝突を回避するための技術が実用化されている。障害物回避技術において、運転者が十分認知している対象物に対する衝突可能性の報知や衝突回避制御の実行は運転者にとって煩わしさを与える。そこで、例えば、日本国特許公開公報2014-106805号に記載されている、運転者が認識できていないと推測される対象物について、運転者に対して報知、あるいは、衝突防止の制御を行う技術が提案されている。
 しかしながら、衝突回避の対象物が対向車両である場合、対向車両はその位置が動的に変動する対象物であり、対向車両の挙動の予測は容易ではないという問題がある。また、対面通行路においては、自車両に対する対向車両は断続的に存在する。さらに、対向車両に対する衝突回避においては、操舵制御や制動制御を伴うので、対向車両以外の対象物、例えば、他車両との衝突可能性や他車両に与える影響をも考慮することが求められる。
 したがって、衝突の可能性が高い場合に、対向車両との衝突回避を実行することが望まれている。
 本開示は、以下の態様として実現することが可能である。
 第1の態様は、車両における衝突回避装置を提供する。第1の態様に係る車両における衝突回避装置は、対象物を検知する対象物検知部と、前記対象物検知部による検知結果を用いて、対向車両の属性を取得する属性取得部と、前記属性取得部によって取得された前記属性を用いて、前記対向車両が中央線をはみ出していると判定した場合に、衝突可能性の報知および衝突回避操作の少なくともいずれか一方を実行する衝突回避実行部とを備える。
 第1の態様係る車両における衝突回避装置によれば、衝突の可能性が高い場合に、対向車両との衝突回避を実行することができる。
 第2の態様は、車両における衝突回避方法を提供する。第2の態様に係る車両における衝突回避方法は、対象物検知部による検知結果を用いて、対向車両の属性を取得し、前記属性取得部によって取得された前記属性を用いて、前記対向車両が中央線をはみ出していると判定した場合に、衝突可能性の報知および衝突回避操作の少なくともいずれか一方を実行する、ことを備える。
 第2の態様係る車両における衝突回避方法によれば、衝突の可能性が高い場合に、対向車両との衝突回避を実行することができる。なお、本開示は、車両における衝突回避プログラムまたは当該プログラムを記録するコンピュータ読み取り可能記録媒体としても実現可能である。
 本開示は以下の詳細な説明および添付図面によってさらに十分に理解される。
第1の実施形態に係る衝突回避装置が搭載された車両を示す説明図。 第1の実施形態に係る衝突回避装置が備える制御装置の機能的構成を示すブロック図。 第1の実施形態に係る衝突回避装置によって実行される対向車両との衝突を回避するための処理フローを示すフローチャート。 第1の実施形態における、衝突回避処理が実行される際の第1の例示的な自車両と対向車両との位置関係を模式的に示す説明図。 第1の実施形態における、自車両と対向車両とのラップ率を求める際の自車両と対向車両との位置関係を模式的に示す説明図。 第1の実施形態における、衝突回避処理が実行される際の第2の例示的な自車両と対向車両との位置関係を模式的に示す説明図。 第1の実施形態における、衝突回避処理が実行される際の第3の例示的な自車両と対向車両との位置関係を模式的に示す説明図。
 本開示に係る車両における衝突回避装置および車両における衝突回避方法について、いくつかの実施形態に基づいて以下説明する。
 第1の実施形態:
 図1に示すように、第1の実施形態に係る衝突回避装置10は、車両500に搭載されて用いられる。衝突回避装置10は、制御装置100、ミリ波レーダ21、21s、単眼カメラ22、ヨーレートセンサ23、車輪速度センサ24、舵角センサ25、制動支援アクチュエータ30および操舵支援アクチュエータ31を備えている。なお、制動支援装置10は、制御装置100のみを備えても良く、ミリ波レーダ21、21s、単眼カメラ22、ヨーレートセンサ23、車輪速度センサ24、舵角センサ25、制動支援アクチュエータ30および操舵支援アクチュエータ31を含む場合には制動支援システムと呼ばれても良い。車両500は、車輪501、制動装置502、制動ライン503、ステアリングホイール504、フロントガラス510およびフロントバンパ520を備えている。なお、車両は、対象物検知部として、ミリ波レーダ21、21s、単眼カメラ22、および、ライダー(LIDAR)すなわち、レーザレーダのうち少なくとも単眼カメラ22を備えていれば良く、本実施形態においては、ミリ波レーダ21、21s、および単眼カメラ22が対象物検知部として備えられている。
 車両500において、制動装置502は、各車輪501に備えられている。各制動装置502は、運転者の制動ペダル操作に応じて制動ライン503を介して供給されるブレーキ液圧によって各車輪501の制動を実現する。制動ライン503には制動ペダル操作に応じたブレーキ液圧を派生させるブレーキピストンおよびブレーキ液ラインが含まれる。本実施形態においては、制動支援アクチュエータ30が制動ライン503に備えられ、制動ペダル操作とは独立して液圧制御が可能であり、これにより制動支援が実現される。なお、制動ライン503としては、ブレーキ液ラインに代えて、制御信号線とし、各制動装置502に備えられているアクチュエータを作動させる構成が採用されても良い。ステアリングホイール504は、ステアリングロッドを含む操舵機構505を介して前側の車輪501と接続されている。本実施形態においては、運転者によるステアリングホイール504の操作とは独立して前側車輪501の操舵を実行可能な操舵支援アクチュエータ31が操舵機構505、例えば、ステアリンロッド、に備えられており、これにより操舵支援が実現される。
 図2に示すように、制御装置100は、中央処理装置(CPU)101、メモリ102、入出力インタフェース103およびバス104を備えている。CPU101、メモリ102および入出力インタフェース103はバスを介して双方向通信可能に接続されている。メモリ102は、対向車両の属性を取得するための属性取得プログラムP1および操舵機構505による操舵の支援および制動装置502による制動の支援により衝突回避を実行するための衝突回避プログラムP2を不揮発的且つ読み出し専用に格納するメモリ、例えばROMと、CPU101による読み書きが可能なメモリ、例えばRAMとを含んでいる。CPU101はメモリ102に格納されている属性取得プログラムP1を読み書き可能なメモリに展開して実行することによって属性取得部として機能し、同様に衝突回避プログラムP2を実行することによって衝突回避実行部として機能する。なお、衝突回避実行部には、CPU101からの制御信号を受けて操舵機構505に対して操舵支援のために回転トルクを付与する操舵支援アクチュエータ31、制動ライン503に対して制動支援のためのブレーキ液圧を印加する制動支援アクチュエータ30も含まれる。また、衝突回避実行部は、衝突回避の実行を制御する衝突回避プログラムP2を実行して各アクチュエータに対して制御信号を送信する制御部としてのCPU101および衝突回避のために制動装置502および操舵機構505を駆動する駆動部としての制動支援アクチュエータ30および操舵支援アクチュエータ31とに区分することも可能である。CPU101は、単体のCPUであっても良く、各プログラムを実行する複数のCPUであっても良く、あるいは、複数のプログラムを同時実行可能なマルチタスクタイプのCPUであっても良い。
 入出力インタフェース103には、ミリ波レーダ21、21s、単眼カメラ22、ヨーレートセンサ23、車輪速度センサ24、舵角センサ25および制動支援アクチュエータ30がそれぞれ制御信号線を介して接続されている。ミリ波レーダ21、21s、単眼カメラ22、ヨーレートセンサ23、車輪速度センサ24および舵角センサ25からは、検知情報が入力され、制動支援アクチュエータ30に対しては制動レベルを指示する制御信号が出力され、操舵支援アクチュエータ31に対しては操舵角を指示する制御信号が出力される。
 ミリ波レーダ21、21sはミリ波を射出し、対象物によって反射された反射波を受信することによって対象物の距離、相対速度および角度を検知するセンサである。本実施形態において、ミリ波レーダ21は、フロントバンパ520の中央に配置され、2つのミリ波レーダ21sはそれぞれフロントバンパ520の両側面に配置されている。ミリ波レーダ21、21sから出力される検知信号は、例えば、ミリ波レーダ21、21sが備える処理回路において受信波が処理された対象物の1または複数の代表位置を示す点または点列からなる信号であっても良く、あるいは、未処理の受信波を示す信号であっても良い。未処理の受信波が検出信号として用いられる場合には、制御装置100において対象物の位置および距離を特定するための信号処理が実行される。なお、ミリ波レーダに代えて、ライダーが用いられても良い。
 単眼カメラ22は、CCD等の撮像素子を1つ備える撮像装置であり、可視光を受光することによって対象物の外形情報を検知結果である画像データとして出力するセンサである。単眼カメラ22から出力される画像データは、時系列的に連続する複数のフレーム画像によって構成されており、各フレーム画像は画素データにより表されている。本実施形態において、単眼カメラ22はフロントガラス510の上部中央に配置されている。単眼カメラ22から出力される画素データは、モノクロの画素データまたはカラーの画素データである。なお、単眼カメラ22に代えて複眼のステレオカメラが用いられても良い。
 ヨーレートセンサ23は、車両500の回転角速度を検出するセンサである。ヨーレートセンサ23は、例えば、車両の中央部に配置されている。ヨーレートセンサ23から出力される検出信号は、回転方向と角速度に比例する電圧値である。
 車輪速度センサ24は、車輪501の回転速度を検出するセンサであり、各車輪501に備えられている。車輪速度センサ24から出力される検出信号は、車輪速度に比例する電圧値または車輪速度に応じた間隔を示すパルス波である。車輪速度センサ24からの検出信号を用いることによって、車両速度、車両の走行距離等の情報を得ることができる。
 舵角センサ25は、ステアリングホイール504の操舵によりステアリンロッドに生じるねじれ量、すなわち、操舵トルク、を検出するトルクセンサである。本実施形態において、舵角センサ25は、ステアリングホイール504と操舵機構とを接続するステアリングロッドに備えられている。舵角センサ25から出力される検出信号は、ねじれ量に比例する電圧値である。
 制動支援アクチュエータ30は、運転者による制動ペダル操作とは無関係に制動装置502による制動を実現するためのアクチュエータである。なお、制動支援アクチュエータ30には、CPU101からの制御信号に基づきアクチュエータの動作を制御するドライバが実装されている。本実施形態において、制動支援アクチュエータ30は、制動ライン503に備えられており、制御装置100からの制御信号に従って制動ライン503における油圧を増減させる。制動支援アクチュエータ30は、例えば、電動モータと電動モータにより駆動される油圧ピストンとを備えるモジュールから構成されている。あるいは、横滑り防止装置、アンチロックブレーキシステムとして既に導入されている制動制御アクチュエータが用いられても良い。
 操舵支援アクチュエータ31は、運転者によるステアリングホイール504の操作とは無関係に操舵機構505による操舵を実現するためのアクチュエータである。なお、操舵支援アクチュエータ31には、CPU101からの制御信号に基づきアクチュエータの動作を制御するドライバが実装されている。本実施形態において、操舵支援アクチュエータ31は、操舵機構505に含まれるステアリングロッド、あるいは、ラックアンドピニオンギヤ部に備えられており、制御装置100からの制御信号に従って操舵機構505による舵角を変化させる。操舵支援アクチュエータ31は、例えば、電動モータと減速機とを備えるモジュールから構成されている。このモジュールは、油圧式パワーステアリングを備える操舵機構505に新たに装備されても良く、あるいは、電動パワーステアリング用のアクチュエータとして既に導入されている電動モータと減速機とを備えるモジュールと兼用されも良い。
 図3~図7を参照して、第1の実施形態に係る衝突回避装置10により実行される衝突回避処理について説明する。図3に示す処理ルーチンは、CPU101が属性取得プログラムP1および衝突回避プログラムP2を実行することによって、例えば、車両の制御システムの始動時から停止時まで、または、スタートスイッチがオンされてからスタートスイッチがオフされるまで、所定の時間間隔にて繰り返して実行される。図4に示す状況を例にとって以下説明する。なお、属性取得プログラムP1と衝突回避プログラムP2とは異なるタイミングにて起動される別々の処理ルーチンであっても良い。例えば、対向車両M2、M3の属性を取得する属性取得プログラムP1は、自車両M1の起動時、あるいは、自車両M1が走行可能状態にある場合には継続的に実行され、衝突回避プログラムP2は、対向車両M2、M3が中央線CLを自車両車線側にはみ出していることが判定されたことをトリガに実行されても良い。
 図4に示す状況において、CPU101は、対向車両M2、M3の属性を取得する(ステップS100)。本実施形態において、対向車両M2、M3とは、自車両M1に対して対向する進行中の車両を意味する。CPU101は、ミリ波レーダ21、21sからの検知結果を用いて、例えば、自車両M1から対向車両M2、M3までの距離、自車両M1に対する対向車両M2、M3の相対速度、対向車両M2、M3の向き、自車両M1と対向車両M2、M3とのラップ率、対向車両M2、M3と衝突するまでの衝突予想時間(TTC)を対向車両M2、M3の属性情報として算出、取得する。CPU101は、また、単眼カメラ22からの画像データを用いて、例えば、他車両M2、M3の外形寸法、自車両M1に対する相対位置、中央線に対する対向車両M2、M3の位置を対向車両M2、M3の属性情報として算出、取得する。なお、対向車両M2、M3の向き、自車両M1と対向車両M2、M3とのラップ率については、ミリ波レーダ21、21sからの検知結果と単眼カメラからの画像データとを用いてデータフュージョン処理を実行することによって判定精度を向上させることができる。ラップ率とは。自車両M1の横幅と対向車両M2、M3との幅方向、すなわち横方向における重なりの割合を意味する。
 対向車両M2、M3の向きは、例えば、以下のように特定される。CPU101は、ミリ波レーダ21、21sから入力される検知結果としての検出点と、予め用意されている自車両M1からの距離に応じた車両正面の横幅寸法とを用いて車両正面に相当する座標値を特定する。CPU101は、特定した車両正面の横幅を超える座標位置に存在する車両側面に相当する検出点が存在する場合、縦方向、すなわち、自車両M1の進行方向の座標値が予め用意された車両の全長寸法に相当する座標値未満である検出点を特定する。本実施例では、特に断らない限り、車線に平行な方向を縦方向、車線に垂直な方向を横方向と呼ぶ。CPU101は、車両正面の横幅の端点の座標値と車両側面に相当する検出点の座標値を結ぶ直線の傾きから対向車両M2、M3の向きを特定する。あるいは、CPU101は、データフュージョン処理により、単眼カメラ22から入力される画像データから抽出された車両の正面領域および側面領域に、ミリ波レーダ21、21sから入力された各検出点の座標位置を重ね合わせ、各検出点の座標値を用いて対向車両M2、M3の向きを特定しても良い。
 ミリ波レーダ21、21sの分解能が高く、対象物を表す複数の検出点が点列として出力される場合には、点列を用いて上記手法に倣って対向車両M2、M3の向きが特定されれば良い。さらには、中央線CLに対する対向車両M2、M3の車両正面の傾きによって対向車両M2、M3の向きが決定されても良い。中央線CLは後述する手法によって特定可能であり、対向車両M2、M3の車両正面の幅方向の直線を表す座標は既述のように点列の座標値を用いて特定可能である。
 図5を例にとって、自車両M1と対向車両M2、M3とのラップ率の算出について説明する。CPU101は、ミリ波レーダ21、21sから入力された車両正面に相当する検出点または幅方向に並ぶ点列と予め用意されている自車両M1からの距離に応じた車両正面の横幅寸法とを用いて対向車両M2、M3の最近接端部WP1の座標を特定する。対向車両M2、M3の最近接端部WP1とは、自車両M1に対して最も近い距離にある対向車両M2、M3の端部であり、左側通行の場合には、対向車両M2、M3の右前端部が、右側通行の場合には、対向車両M2、M3の左前端部が該当する。なお、以下では、説明を簡易にするため左側通行を例にとって説明する。CPU101は、自車両M1の最近接端部WP2を対向車両M2、M3に向けて延伸させた延伸線EL1と対向車両M2、M3の正面に沿う幅方向の延伸線EL2との交点ISの座標値を求め、最近接端部WPの座標値との幅方向の差分LPを算出し、算出した幅方向の座標値差分の寸法と自車両M1の幅寸法との重なり割合を算出してラップ率を取得する。
 CPU101は、さらに、対向車両M2、M3の挙動を継続的に監視し、属性情報として、障害物回避履歴フラグを設定する。障害物回避履歴フラグは、対向車両M2が対向車線における静止車両または対向車両M2に先行する対向車両M3の後方または斜め後方に存在した事象、および、静止車両または対向車両M3(以下、「障害物車両」ともいう。)を追い越そうとした事象の双方が記録された場合にオン、すなわち、障害物回避履歴有りに設定される。CPU101は、各事象が発生する度にメモリ102に記録し、両事象が記録されると、障害物回避履歴フラグをオンする。対向車両M2が障害物車両M3の後方または斜め後方に存在したことの事象は、継続的に入力されるミリ波レーダ21、21sからの検知結果を用いて対向車両M2の位置座標が障害物車両M3の位置座標の後方または斜め後方に存在することが検知されると記録される。対向車両M2が障害物車両M3を追い越そうとしたことの事象は、継続的に入力されるミリ波レーダ21、21sからの検知結果を用いて対向車両M2の位置座標が障害物車両M3の位置座標の横にあり、あるいは、対向車両M2が横速度を有しており、対向車両M2の縦方向の対地速度V2(km/h)が障害物車両M3の縦方向の対地速度V3(km/h)よりも大きいことを検知すると記録される。各事象を経時的に記録することにより各事象についての履歴を得ることができる。
 CPU101は、以下の条件のいずれか1つがが満たされると障害物回避履歴なし、すなわち、障害物回避履歴フラグをオフする。
(i)|対向車両横位置|≧|障害物車両横位置|-α
 対向車両が自車両の車線を交差する旋回、すなわち、右折を行った場合には、監視対象の対向車両は存在しなくなるので、障害物回避履歴フラグをオフする。なお、上記式において、横位置は各車両における横方向の座標値であり、自車両に対して最近接端の座標値を意味、αは、例えば、一車線の幅寸法に相当する値である。
(ii)対向車両が障害物車両と同一車線内に収まっている
 この場合には、対向車両は既に障害物車両を追い抜き対向車線内に収まっている、あるいは、障害物車両の追い越しをあきらめ対向車線内に収まっているので、衝突の可能性は低下し、衝突回避の必要性は解消したと考えることができる。
(iii)障害物回避履歴あり、が一定時間以上継続している
 障害物回避履歴ありの判定から一定時間以上、すなわち、タイムアウト時間以上経過すると、対向車両の障害物回避の情報は古くなり、信頼性が低下する。そこで、障害物回避履歴フラグがオンされてから一定時間以上経過した時点で、障害物回避履歴フラグをクリアする。
 CPU101は、取得した属性情報を用いて対向車両M2、M3が中央線CLを自車両車線側にはみ出しているか否かを判定する(ステップS102)。具体的には、CPU101は、単眼カメラ22から入力された画像データからパターンマッチング法を用いて中央線CLに相当する画素領域、および対向車両M2、M3に相当する画素領域を抽出し、抽出された対向車両M2、M3に相当する画素領域の位置座標と中央線CLに相当する画素領域の位置座標とを用いて、対向車両M2、M3が中央線CLをはみ出しているか否かを判定する。
 図4の例では、対向車両M2が中央線CLをはみ出しており、CPU101は、対向車両M2は中央線CLをはみ出していると判定し(ステップS102:Yes)、ステップS104に移行する。一方、CPU101は、中央線CLをはみ出している対向車両が存在しない場合には(ステップS102:No)、本処理ルーチンを終了する。
 ステップS104においてCPU101は、自車両M1の位置を取得する。具体的には、CPU101は、単眼カメラ22から入力された画像データから中央線CLを抽出し、中央線CLに対する自車両M1の位置を取得する。中央線CLに対する自車両M1の位置とは、図4に示すように自車両M1が中央線CLに接する車線を走行中である、あるいは、図7に示すように自車両M1が中央線CLに接しない車線を走行中である、の2つの対応を意味する。自車両M1が走行中の道路が1車線道路の場合、自車両M1は必ず中央線CLに接する車線を走行することになる。一方、自車両M1が走行中の道路が2車線以上の道路の場合、自車両M1は中央線CLに接する車線あるいは中央線CLに接しない車線を走行することになる。さらには、自車両M1が中央線CLに接する車線を走行中とは、左側通行の場合、自車両M1の右側の線が中央線CLであることを意味し、右側通行の場合、自車両M1の左側の線が中央線CLであることを意味する。
 CPU101は、対向車両M2の属性情報および自車両M1の位置を用いて衝突回避の報知を要するか否かを判定する(ステップS106)。CPU101は、以下の条件の少なくとも1つが満たされる場合に、報知を要すると判定する。
(1)自車両M1が中央線CLに接する車線を走行中、
(2)対向車両M2が直進中である、
(3)対向車両M2に障害物回避履歴がある、
(4)自車両M1と対向車両M2とのラップ率が予め定められた範囲である。なお、条件(2)~(4)が優先して判定されても良く、条件(1)を考慮することによって、更に、衝突可能性が低い場合における衝突回避の実行を低減することができる。また、判定される条件数が増えるに連れて衝突可能性が高いと判定することが可能になる。
 (1)の条件はステップS104において取得された自車両M1の位置により判定さ、(2)の条件は対向車両M2の向きにより判定され、(3)の条件は障害物回避履歴フラグにより判定され、(4)の条件における予め用意された範囲は、例えば、0~50%、より好ましくは30~50%であり、対向車両の属性を取得した際に求められたラップ率が、これら予め用意された範囲に入る場合に(4)の条件は満たされる。なお、ラップ率の上限を50%とするのは、操舵支援によって衝突回避すべき衝突態様は、衝突による衝撃が偏る車両損傷が大きい傾向になるいわゆるオフセット衝突であり、ラップ率が50%を超える、いわゆるフルラップ衝突の場合には、車両全体で衝撃を受け止めることができると共に、操舵支援による衝突回避によって却ってオフセット衝突を招く事態を回避するためである。
 CPU101は、(1)~(4)の条件のいずれか1つでも満たされていない判断した場合(ステップS106:No)、本処理ルーチンを終了する。CPU101は、(1)~(4)の条件が満たされていると判断した場合に(ステップS106:Yes)、衝突予想時間TTC(s)が報知を要する判定時間TTC1(s)以下であるか否かを判定する(ステップS108)。CPU101は、TTC>TTC1であると判定した場合(ステップS108:No)、本処理ルーチンを終了する。自車両M1と対向車両M2との衝突を回避するまでに十分な時間がある場合、すなわち、少なくともTTC1よりも長い時間がある場合、には報知を行わず、運転者による自発的な回避を待機する。CPU101は、TTC≦TTC1であると判定した場合(ステップS108:Yes)には、衝突回避を促す報知を実行する(ステップS110)。報知は、音声並びにメータパネルまたはフロントガラス510における表示の少なくともいずれか一方によって実行され得る。加えて、ステアリングホイール504を振動させる等の報知が実行されても良い。
 CPU101は、ミリ波レーダ21、21sからの検知結果、単眼カメラ22からの画像データを用いて自車両M1が中央線CLから離間する方向の車線上の道路環境を取得し、自車両M1が対向車両M2との衝突を回避するための待避スペースを確認する(ステップS112)。なお、確認とは待避スペースの存在の特定、判断を意味する。具体的には、CPU101は、単眼カメラ22からの画像データ中に自車両M1の左側の道路上の予め定められている想定待避領域に何かしらの対象物を示す画素領域が存在するか否か、換言すれば空きスペースが検知できるか否かを判定し、主にミリ波レーダ21sの検知結果を用いて想定待避領域内に対象物が存在するか否か、すなわち、マンホールや道路上の上方構造物を示す有効なミリ波反射点が検出されるか否かを判定する。CPU101は、単眼カメラ22からの画像データを用いて想定待避領域に何かしらの対象物を示す画素領域が存在すると判定した場合には、ミリ波レーダ21sを用いて想定待避領域中の対象物を示す画素領域に対応する座標位置までの距離を求める。CPU101は、ミリ波レーダ21sおよび単眼カメラ22からの検知結果および画像データを用いて、図4に示すように自車両M1の左側車線または車線路肩に対象物が存在しない場合には、自車両M1を前方左側に進行(軌跡AS)させることが可能な待避スペースFSが存在すると判定する。加えて、CPU101は、想定待避領域中の対象物を示す画素領域に対応する座標位置までの距離と、対象物と自車両M1との相対速度を求め、対象物に衝突することなく自車両M1を前方左側に進行(軌跡AS)させられるか否かを判定しても良い。例えば、図6に示すように、二車線道路において、路肩側の車線に他車両M4が存在する場合であっても、自車両M1の速度が時速V1、他車両M4の速度が時速V3であり、自車両に対する相対速度(V3-V1)が0km/h以上であれば、他車両M4と衝突することなく左前方に進路変更(軌跡AS)可能な待避スペースFSが存在する。さらには、対象物の相対速度が0km/h未満であっても、制動支援によって対象物に衝突することなく停止できる距離に対象物が位置する場合には左前方に進路変更可能な待避スペースFSが存在する。
 CPU101は、待避スペースFSへの待避が可能であるか否か、すなわち、待避スペースFSが存在するか否かを判定する(ステップS114)。CPU101は、待避スペースFSへの待避が可能でないと判定した場合(ステップS114:No)には、本処理ルーチンを終了する。衝突回避を実行することによって他車両を含む対象物との衝突を招くことを回避するためである。なお、CPU101は、以下の条件を再度判定しても良い。
(1)自車両M1が中央線CLに接する車線を走行中、
(2)対向車両M2が直進中である、
(3)対向車両M2に障害物回避履歴がある、
(4)自車両M1と対向車両M2とのラップ率が予め定められた範囲である。
 CPU101は、待避スペースFSへの回避が可能であると判定した場合(ステップS114:Yes)には、衝突予想時間TTC(s)が衝突回避を要する判定時間TTC2(s)以下であるか否かを判定する(ステップS116)。CPU101は、TTC>TTC2であると判定した場合(ステップS116:No)、本処理ルーチンを終了する。自車両M1と対向車両M2との衝突を回避するまでに十分な時間がある場合、すなわち、少なくともTTC2よりも長い時間がある場合、には衝突回避を行わず、運転者による自発的な回避を待機する。CPU101は、TTC≦TTC2であると判定した場合(ステップS116:Yes)には、衝突回避を実行し(ステップS118)、本処理ルーチンを終了する。衝突回避は、例えば、図4および図6における軌跡ASに沿うように自車両M1の進路を変更させることにより実行される。CPU101は、待避スペースFSへ進路変更するための操舵角を決定し、決定した操舵角を指示する制御信号が操舵支援アクチュエータ31に送信する。操舵支援アクチュエータ31は、決定された操舵角を実現するよう操舵機構505を作動させて自車両M1の向きを左側に向ける。さらに、自車両M1の左側前方に対象物が存在する交通環境下で衝突回避を実行する場合には、制動支援アクチュエータ30を用いた制動支援が同時に実行されても良い。制動支援量は、自車両M1の左側前方に位置する対象物と自車両M1との距離および相対速度に応じてCPU101によって決定される。
 左側前方への車線変更の際には、さらに、車両後方に存在する後方車両の存非を判定し、後方車両との接触を招くことなく車線変更できる場合に、待避スペースFSへの待避が可能であると判断しても良い。後方車両の検知には、例えば、車両後部バンパの側方に備えられているミリ波レーダ、パーキングセンサとして車両後部バンパに備えられている超音波センサからの検知信号を用いることができる。
 以上説明した第1の実施形態に係る衝突回避装置10および衝突回避方法によれば、対向車両M2、M3の属性に基づき、対向車両M2、M3が中央線をはみ出している場合に、衝突可能性の報知および衝突回避操作の少なくともいずれか一方を実行するので、対向車両M2、M3との衝突の可能性が高い場合に衝突回避を実行することができる。すなわち、衝突回避の要否判断の精度を向上させることが可能となり、不要な衝突回避の実行を低減させることできる。特に、ミリ波レーダ21、21sおよび単眼カメラ22の組み合わせは、対処物が存在することの検知精度に比べて対象物が存在しないことの検知精度は低い傾向にある。したがって、対向車両M2、M3が中央線をはみ出している場合、すなわち、対向車両M2、M3との衝突の可能性が高い場合に衝突回避を実行することが特に望ましい。
 加えて、第1の実施形態においては、(1)自車両M1が中央線CLに接する車線を走行中であり、中央線CLをはみ出し自車両M1に向かってくる対向車両M2との衝突可能性が有る場合、(2)対向車両M2が直進中であり、中央線CLをはみ出したままでは自車両M1との衝突可能性が高い場合、に衝突回避操作が実行される。したがって、衝突回避の要否判断の精度、すなわち、対向車両M2、M3との衝突の可能性が高い状況の判断精度を向上させることができる。
 衝突回避の対象物が対向車両M2、M3である場合、対向車両M2、M3はその位置が動的に変動する対象物であり、対向車両M2、M3の挙動の予測は容易ではないが、第1の実施形態においては、障害物回避履歴をひも付けて対向車両M2、M3の挙動を監視しているので、対向車両M2、M3が中央線CLをはみ出す傾向にある対向車両M2であるか否かを認識することができる。また、中央分離帯を備えない対面通行路においては、自車両M1に対する対向車両M2、M3は断続的に存在するが、第1の実施形態においては、中央線CLをはみ出す対向車両M2のみを回避対象とすると共に、中央線CLのはみ出しを衝突回避処理の実行トリガとしているので、不要な衝突回避を避けること、すなわち、現実に衝突回避を要する場合に衝突回避支援を実行することができる。さらに、対向車両M2に対する衝突回避においては、操舵制御や制動制御を伴うので、対向車両以外の対象物、例えば、自車両M1の前方を進行中の他車両M4との衝突可能性や自車両M1の後方を進行中の他車両に与える影響をも考慮することが求められる。第1の実施形態においては、自車両M1の前方を進行中の他車両M4の挙動、例えば、対地速度に基づく相対速度を衝突回避処理実行の開始条件としているので、他車両M4との衝突は生じない。また、自車両M1の後方を進行中の他車両については、他車両の挙動を検知し、他車両と衝突し得る状況においては衝突回避処理を実行しないことにより、他車両との衝突を防いでいる。
・変形例:
(1)上記第1の実施形態においては、少なくとも対象物検知部として単眼カメラ22を備えているが、中央線CLを識別できる対象物検知部が少なくとも備えられていれば良い。例えば、ライダーの分解能が向上され、中央線CLを識別可能となった場合には、ライダーのみが備えられていても良い。あるいは、ステレオカメラのみが備えられていても良い。
(2)第1の実施形態においては、対向車両M2の属性は、対象物検知部としてのミリ波レーダ21、21s、単眼カメラ22、あるいは、ライダーおよびステレオカメラからの検知信号または画像データを用いて判定されている。これに対して、車両間通信システムを介して取得される他車両の挙動に関するデータ、例えば、舵角、アクセル開度、ブレーキ操作量を用いて対向車両M2の属性が判定されても良い。
(3)第1の実施形態においては、衝突回避の報知、衝突回避の実行を連続的に行っているが、衝突回避の報知のみ、あるいは、衝突回避の実行のみが実行されても良い。いずれの場合であっても、対向車両M2との衝突可能性が高い場合に、衝突回避の報知、または衝突回避の実行を実行することが可能となり、不要な衝突回避に関する処理の実行を低減することができる。
(4)第1の実施形態においては、CPU101が属性取得プログラムP1および衝突回避プログラムP2を実行することによって、ソフトウェア的に属性取得部および衝突回避実行部が実現されているが、予めプログラムされた集積回路またはディスクリート回路によってハードウェア的に実現されても良い。
 以上、実施形態、変形例に基づき本開示について説明してきたが、上記した発明の実施の形態は、本開示の理解を容易にするためのものであり、本開示を限定するものではない。本開示は、その趣旨並びに特許請求の範囲を逸脱することなく、変更、改良され得ると共に、本開示にはその等価物が含まれる。たとえば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、変形例中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。例えば、上記第1の態様に係る車両における衝突回避装置を適用例1とし、
 適用例2:適用例2に記載の車両における衝突回避装置において、前記衝突回避実行部は、取得された前記属性が、前記対向車両に中央線に近接または中央線をはみ出す回避履歴、前記対向車両と自車両とのラップ率が予め規定された範囲にあること、前記対向車両が自車両に対して直進していること、の少なくともいずれか一つを示す場合に、衝突可能性の報知および衝突回避操作の少なくともいずれか一方を実行する、車両における衝突回避装置。
 適用例3:適用例1または2に記載の車両における衝突回避装置において、前記衝突回避実行部は、自車両が中央線に沿って走行している場合に、衝突可能性の報知および衝突回避操作の少なくともいずれか一方を実行する、車両における衝突回避装置。
 適用例4:適用例1から3のいずれか一の適用例に記載の車両における衝突回避装置において、前記衝突回避実行部は、衝突可能性の報知の後に、衝突回避操作を実行する、車両における衝突回避装置。
 適用例5:適用例4に記載の車両における衝突回避装置において、前記衝突回避実行部は、前記対象物検知部による検知結果を用いて、自車両の待避スペースが確認できた場合に、前記待避スペースへの衝突回避操作を実行する、車両における衝突回避装置。
 適用例6:適用例1から5のいずれか一の適用例に記載の車両における衝突回避装置において、前記対象物検知部は、単眼撮像装置およびレーダまたは単眼撮像装置およびライダーの組み合わせである、車両における衝突回避装置。
 適用例7:適用例6に記載の車両における衝突回避装置において、前記衝突回避実行部は、自車両の走行車線内において、前記単眼撮像装置によって空きスペースを検出し、前記レーダまたはライダーによって前記空きスペースに有効なミリ波反射点が検出されない、場合に前記待避スペースを確認しても良い。
 適用例8:適用例1から7のいずれか一の適用例に記載の車両における衝突回避装置において、前記衝突回避実行部により実行される衝突回避操作は、操舵部を介した回避操作である、車両における衝突回避装置。
 適用例9:適用例8に記載の車両における衝突回避装置において、前記衝突回避実行部により実行される衝突回避操作は、さらに、制動部を介した制動支援を含む、車両における衝突回避装置。

Claims (10)

  1.  車両(500)における衝突回避装置(10)であって、
     対象物を検知する対象物検知部(21、21、22)と、
     前記対象物検知部による検知結果を用いて、対向車両(M2、M3)の属性を取得する属性取得部(100、101、P1)と、
     前記属性取得部によって取得された前記属性を用いて、前記対向車両が中央線(CL)をはみ出していると判定した場合に、衝突可能性の報知および衝突回避操作の少なくともいずれか一方を実行する衝突回避実行部(31、100、101、P2)とを備える、車両における衝突回避装置。
  2.  請求項1に記載の車両における衝突回避装置において、
     前記衝突回避実行部は、取得された前記属性が、前記対向車両に中央線に近接または中央線をはみ出す回避履歴、前記対向車両と自車両(M1)とのラップ率が予め規定された範囲にあること、前記対向車両が自車両に対して直進していること、の少なくともいずれか一つを示す場合に、衝突可能性の報知および衝突回避操作の少なくともいずれか一方を実行する、車両における衝突回避装置。
  3.  請求項1または請求項2に記載の車両における衝突回避装置において、
     前記衝突回避実行部は、自車両が中央線に沿って走行している場合に、衝突可能性の報知および衝突回避操作の少なくともいずれか一方を実行する、車両における衝突回避装置。
  4.  請求項1から請求項3のいずれか一項に記載の車両における衝突回避装置において、
     前記衝突回避実行部は、衝突可能性の報知の後に、衝突回避操作を実行する、車両における衝突回避装置。
  5.  請求項4に記載の車両における衝突回避装置において、
     前記衝突回避実行部は、前記対象物検知部による検知結果を用いて、自車両の待避スペース(FS)が確認できた場合に、前記待避スペースへの衝突回避操作を実行する、車両における衝突回避装置。
  6.  請求項1から請求項5のいずれか一項に記載の車両における衝突回避装置において、
     前記対象物検知部は、単眼撮像装置(22)およびレーダ(21、21s)または単眼撮像装置およびライダーの組み合わせである、車両における衝突回避装置。
  7.  請求項6に記載の車両における衝突回避装置において、
     前記衝突回避実行部は、自車両の走行車線内において、前記単眼撮像装置によって空きスペースを検出し、前記レーダまたはライダーによって前記空きスペースに有効なミリ波反射点が検出されない、場合に前記待避スペースを確認する、車両における衝突回避装置。
  8.  請求項1から請求項7のいずれか一項に記載の車両における衝突回避装置において、
     前記衝突回避実行部により実行される衝突回避操作は、操舵部(505)を介した回避操作である、車両における衝突回避装置。
  9.  請求項8に記載の車両における衝突回避装置において、
     前記衝突回避実行部により実行される衝突回避操作は、さらに、制動部(502)を介した制動支援を含む、車両における衝突回避装置。
  10.  車両における衝突回避方法であって、
     対象物検知部による検知結果を用いて、対向車両の属性を取得し、
     前記属性取得部によって取得された前記属性を用いて、前記対向車両が中央線をはみ出していると判定した場合に、衝突可能性の報知および衝突回避操作の少なくともいずれか一方を実行する、ことを備える、車両における衝突回避方法。
PCT/JP2017/044764 2016-12-14 2017-12-13 車両における衝突回避装置および衝突回避方法 WO2018110607A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201780076784.8A CN110062938B (zh) 2016-12-14 2017-12-13 车辆中的避撞装置以及避撞方法
DE112017006263.2T DE112017006263T5 (de) 2016-12-14 2017-12-13 Kollisionsvermeidungsvorrichtung für ein Fahrzeug und Kollisionsvermeidungsverfahren für dieses
US16/438,890 US11260853B2 (en) 2016-12-14 2019-06-12 Collision avoidance device and collision avoidance method for vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-242119 2016-12-14
JP2016242119A JP6938903B2 (ja) 2016-12-14 2016-12-14 車両における衝突回避装置および衝突回避方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/438,890 Continuation US11260853B2 (en) 2016-12-14 2019-06-12 Collision avoidance device and collision avoidance method for vehicle

Publications (1)

Publication Number Publication Date
WO2018110607A1 true WO2018110607A1 (ja) 2018-06-21

Family

ID=62559408

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/044764 WO2018110607A1 (ja) 2016-12-14 2017-12-13 車両における衝突回避装置および衝突回避方法

Country Status (5)

Country Link
US (1) US11260853B2 (ja)
JP (1) JP6938903B2 (ja)
CN (1) CN110062938B (ja)
DE (1) DE112017006263T5 (ja)
WO (1) WO2018110607A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020259243A1 (zh) * 2019-06-28 2020-12-30 长城汽车股份有限公司 车辆行驶控制方法及设备
RU2776758C1 (ru) * 2019-06-28 2022-07-26 Грэйт Уолл Мотор Компани Лимитед Способ и устройство для управления движением транспортного средства

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018209959A1 (de) * 2018-06-20 2019-12-24 Robert Bosch Gmbh Verfahren und Fahrassistenzsystem zum Vermeiden einer Kollision eines Fahrzeugs mit einem Hindernis
US10956755B2 (en) * 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
JP7255240B2 (ja) * 2019-03-06 2023-04-11 株式会社デンソー 運転支援装置
JP7424760B2 (ja) 2019-06-12 2024-01-30 株式会社Subaru 車両制御装置
JP6913716B2 (ja) * 2019-07-17 2021-08-04 本田技研工業株式会社 車両制御装置、車両制御方法、及びプログラム
JP7458797B2 (ja) 2020-01-23 2024-04-01 日産自動車株式会社 走行支援方法及び走行支援装置
US11511576B2 (en) * 2020-01-24 2022-11-29 Ford Global Technologies, Llc Remote trailer maneuver assist system
CN111273662B (zh) * 2020-02-05 2023-09-26 北京百度网讯科技有限公司 车辆控制方法、装置、电子设备及可读存储介质
KR20210124603A (ko) * 2020-04-06 2021-10-15 현대자동차주식회사 차량의 자율 주행 제어 장치, 그를 포함한 시스템 및 그 방법
KR20210152144A (ko) * 2020-06-08 2021-12-15 주식회사 만도모빌리티솔루션즈 운전자 보조 장치 및 운전자 보조 방법
JP7157780B2 (ja) * 2020-08-27 2022-10-20 本田技研工業株式会社 自動運転車用情報提示装置
JP7468409B2 (ja) * 2021-03-01 2024-04-16 トヨタ自動車株式会社 車両衝突回避支援装置
JP2023023824A (ja) * 2021-08-06 2023-02-16 トヨタ自動車株式会社 車両の報知制御装置
US11541910B1 (en) * 2022-01-07 2023-01-03 Plusai, Inc. Methods and apparatus for navigation of an autonomous vehicle based on a location of the autonomous vehicle relative to shouldered objects
US11840257B2 (en) * 2022-03-25 2023-12-12 Embark Trucks Inc. Lane change determination for vehicle on shoulder

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005149402A (ja) * 2003-11-19 2005-06-09 Fujitsu Ten Ltd 運転支援装置
JP2010044461A (ja) * 2008-08-08 2010-02-25 Toyota Motor Corp 衝突推定装置及び衝突推定プログラム
JP2010083314A (ja) * 2008-09-30 2010-04-15 Fuji Heavy Ind Ltd 車両の運転支援装置
JP2010097261A (ja) * 2008-10-14 2010-04-30 Toyota Motor Corp 車両進路予測装置

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10218010A1 (de) * 2002-04-23 2003-11-06 Bosch Gmbh Robert Verfahren und Vorrichtung zur Querführungsunterstützung bei Kraftfahrzeugen
US7124027B1 (en) * 2002-07-11 2006-10-17 Yazaki North America, Inc. Vehicular collision avoidance system
DE10341905A1 (de) * 2003-09-11 2005-05-12 Daimler Chrysler Ag Verfahren und Vorrichtung zur Ermittlung einer Position eines Kraftfahrzeugs auf einer Strasse
US7797107B2 (en) * 2003-09-16 2010-09-14 Zvi Shiller Method and system for providing warnings concerning an imminent vehicular collision
JP3941770B2 (ja) * 2003-10-28 2007-07-04 株式会社デンソー 衝突可能性判定装置
WO2005107181A1 (en) * 2004-05-04 2005-11-10 Philips Intellectual Property & Standards Gmbh Communication system, method of communication between and among vehicles and vehicle comprising such a communication system
JP4531621B2 (ja) * 2005-04-25 2010-08-25 本田技研工業株式会社 車両の走行安全装置
JP4929970B2 (ja) * 2006-10-18 2012-05-09 アイシン・エィ・ダブリュ株式会社 運転支援方法、運転支援装置及び運転支援システム
KR101518506B1 (ko) * 2008-05-26 2015-05-07 주식회사 포스코 자동운행차량시스템의 합류제어방법과 합류제어시스템
US8711005B2 (en) * 2010-12-27 2014-04-29 Nicholas R. Musachio Variable speed traffic control system
US9292471B2 (en) * 2011-02-18 2016-03-22 Honda Motor Co., Ltd. Coordinated vehicle response system and method for driver behavior
US9620017B2 (en) * 2011-12-14 2017-04-11 Robert Bosch Gmbh Vehicle merge assistance system and method
KR101361360B1 (ko) * 2011-12-26 2014-02-11 현대자동차주식회사 측후방 감지센서를 이용한 차간거리 제어 시스템 및 그 제어 방법
US9000903B2 (en) * 2012-07-09 2015-04-07 Elwha Llc Systems and methods for vehicle monitoring
EP2879111A4 (en) * 2012-07-27 2016-10-19 Clarion Co Ltd IMAGING DEVICE
DE112012006878T5 (de) * 2012-09-04 2015-05-21 Toyota Jidosha Kabushiki Kaisha Kollisionsvermeidungsunterstützungsvorrichtung und Kollisionsvermeidungsunterstützungsverfahren
JP5849040B2 (ja) 2012-11-28 2016-01-27 富士重工業株式会社 車両の運転支援制御装置
RU2678599C1 (ru) * 2015-07-27 2019-01-30 Ниссан Мотор Ко., Лтд. Устройство прокладки маршрута и навигации по маршруту и способ прокладки маршрута и навигации по маршруту
JP6569385B2 (ja) * 2015-08-20 2019-09-04 株式会社Jvcケンウッド 車両検出装置、車両検出システム、車両検出方法、及び車両検出プログラム
US9886857B2 (en) * 2015-09-16 2018-02-06 Here Global B.V. Organized intelligent merging
US9487212B1 (en) * 2015-10-09 2016-11-08 GM Global Technology Operations LLC Method and system for controlling vehicle with automated driving system
US9751506B2 (en) * 2015-10-27 2017-09-05 GM Global Technology Operations LLC Algorithms for avoiding automotive crashes at left and right turn intersections
US10861338B2 (en) * 2016-05-05 2020-12-08 Harman International Industries, Incorporated Systems and methods for driver assistance
US10081357B2 (en) * 2016-06-23 2018-09-25 Honda Motor Co., Ltd. Vehicular communications network and methods of use and manufacture thereof
US10144474B2 (en) * 2016-07-01 2018-12-04 Regents Of The University Of Minnesota Collision detection
US10126422B1 (en) * 2016-07-12 2018-11-13 Leonard Obodo Vehicle blind spot sensor
WO2018031441A1 (en) * 2016-08-09 2018-02-15 Contrast, Inc. Real-time hdr video for vehicle control
US10347129B2 (en) * 2016-12-07 2019-07-09 Magna Electronics Inc. Vehicle system with truck turn alert
JP6564424B2 (ja) * 2017-06-09 2019-08-21 株式会社Subaru 車両制御装置
US10909866B2 (en) * 2018-07-20 2021-02-02 Cybernet Systems Corp. Autonomous transportation system and methods
US20200082722A1 (en) * 2018-09-10 2020-03-12 Ben Zion Beiski Systems and methods for improving the detection of low-electromagnetic-profile objects by vehicles

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005149402A (ja) * 2003-11-19 2005-06-09 Fujitsu Ten Ltd 運転支援装置
JP2010044461A (ja) * 2008-08-08 2010-02-25 Toyota Motor Corp 衝突推定装置及び衝突推定プログラム
JP2010083314A (ja) * 2008-09-30 2010-04-15 Fuji Heavy Ind Ltd 車両の運転支援装置
JP2010097261A (ja) * 2008-10-14 2010-04-30 Toyota Motor Corp 車両進路予測装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020259243A1 (zh) * 2019-06-28 2020-12-30 长城汽车股份有限公司 车辆行驶控制方法及设备
RU2776758C1 (ru) * 2019-06-28 2022-07-26 Грэйт Уолл Мотор Компани Лимитед Способ и устройство для управления движением транспортного средства
EP3992046A4 (en) * 2019-06-28 2022-10-05 Great Wall Motor Company Limited VEHICLE DRIVING CONTROL METHOD AND DEVICE

Also Published As

Publication number Publication date
US20190291730A1 (en) 2019-09-26
JP6938903B2 (ja) 2021-09-22
US11260853B2 (en) 2022-03-01
DE112017006263T5 (de) 2019-09-12
CN110062938B (zh) 2022-05-27
JP2018097648A (ja) 2018-06-21
CN110062938A (zh) 2019-07-26

Similar Documents

Publication Publication Date Title
WO2018110607A1 (ja) 車両における衝突回避装置および衝突回避方法
US11396289B2 (en) Braking assistance device and braking assistance method for vehicle
US11097724B2 (en) Apparatus and system for controlling travel of vehicle
US9669760B2 (en) Warning device
US11807229B2 (en) Vehicle braking support device and braking support control method
CN110799387B (zh) 车辆中的制动辅助装置以及制动辅助控制方法
US20070063874A1 (en) Method and device for determining the position and/or the anticipated position of a vehicle during a parking operation in relation to the oncoming lane of a multi-lane roadway
KR20110132437A (ko) 차량의 주행 거동을 자동으로 인식하기 위한 방법 및 이러한 방법을 구현한 운전자 지원 시스템
WO2019235327A1 (ja) 車両の運転支援制御装置、運転支援システムおよび運転支援制御方法
JP7200871B2 (ja) 衝突回避支援装置
EP2484566A1 (en) Brake assist system
CN110626341B (zh) 一种汽车交通辅助方法、电子设备及汽车
JP2013037601A (ja) 運転支援装置
JP2012045984A (ja) 衝突軽減装置
CN113474225B (zh) 车辆中的制动辅助控制装置、制动辅助系统以及制动辅助控制方法
WO2020184287A1 (ja) 車両における制動支援制御装置、制動支援制御システムおよび制動支援制御方法
WO2019138769A1 (ja) 車両の運転支援制御装置、車両の運転支援システムおよび車両の運転支援制御方法
JP2019012322A (ja) 車両制御装置
JP6325365B2 (ja) 操舵支援制御装置
WO2019181326A1 (ja) 車両走行制御装置、車両走行制御システムおよび車両走行制御方法
JP7413548B2 (ja) 走行支援装置
US20240042999A1 (en) Travel control apparatus for vehicle

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17881148

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17881148

Country of ref document: EP

Kind code of ref document: A1