WO2016194867A1 - 運転支援装置及び運転支援方法 - Google Patents

運転支援装置及び運転支援方法 Download PDF

Info

Publication number
WO2016194867A1
WO2016194867A1 PCT/JP2016/065884 JP2016065884W WO2016194867A1 WO 2016194867 A1 WO2016194867 A1 WO 2016194867A1 JP 2016065884 W JP2016065884 W JP 2016065884W WO 2016194867 A1 WO2016194867 A1 WO 2016194867A1
Authority
WO
WIPO (PCT)
Prior art keywords
axis
driving support
target width
host vehicle
radar
Prior art date
Application number
PCT/JP2016/065884
Other languages
English (en)
French (fr)
Inventor
明憲 峯村
崇弘 馬場
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to US15/577,274 priority Critical patent/US10611367B2/en
Publication of WO2016194867A1 publication Critical patent/WO2016194867A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • G01S7/4034Antenna boresight in elevation, i.e. in the vertical plane
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T7/00Brake-action initiating means
    • B60T7/12Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T7/00Brake-action initiating means
    • B60T7/12Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger
    • B60T7/22Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger initiated by contact of vehicle, e.g. bumper, with an external object, e.g. another vehicle, or by means of contactless obstacle detectors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/02Active or adaptive cruise control system; Distance control
    • B60T2201/022Collision avoidance systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/02Active or adaptive cruise control system; Distance control
    • B60T2201/024Collision mitigation systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/16Pitch
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • B60W2710/182Brake pressure, e.g. of fluid or between pad and disc
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/93185Controlling the brakes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9322Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Definitions

  • the present invention relates to a driving support technology that performs collision determination between an own vehicle and an object in front of the own vehicle and activates an automatic brake based on the determination result to avoid collision or reduce collision damage.
  • PCS Pre-Crash Safety System
  • the collision determination may be continued using the detection information acquired last time depending on the passage of the set time. For this reason, even when the situation changed to a situation where the possibility of collision was low, there was a possibility that unnecessary automatic braking could be continued by continuing such collision determination. .
  • This disclosure is intended to provide a technique capable of suitably suppressing so-called brake disconnection and unnecessary continuation of automatic braking.
  • the driving support device includes radar object acquisition means, image object acquisition means, arrival position calculation means, operation permission means, overlap area extraction means, and setting means.
  • the radar object acquisition means acquires detection information including the position of the object detected based on the reflected wave of the radar wave transmitted in front of the host vehicle.
  • the image object acquisition means acquires detection information including the position of an object detected based on an image obtained by imaging the front of the host vehicle.
  • the arrival position calculation means calculates the position of the object in the XY plane when the vehicle width direction based on the position of the host vehicle is the X axis and the vehicle length direction is the Y axis, among the radar object acquisition means and the image object acquisition means. It specifies based on the detection information acquired by both or one side.
  • the arrival position calculation means calculates an object movement trajectory on the XY plane based on the position of the object specified a plurality of times, and calculates an estimated arrival position when the object reaches the X axis based on the calculated movement trajectory. calculate.
  • the operation permission means determines whether the host vehicle and the object collide when the predicted arrival position calculated by the arrival position calculation means falls within a preset range of the operation target width along the X axis from the position of the host vehicle. Allows automatic brake operation based on
  • the overlapping area extracting means sets detection error areas based on the positions of the objects included in the detection information acquired by the radar object acquiring means and the image object acquiring means on the XY plane, and both of the set detection error areas are The overlapping area is extracted as an overlapping area.
  • the setting means expands the operation target width in the operation permission means after the start of the operation of the automatic brake when a predetermined feature amount condition is satisfied for the feature amount related to the size of the overlap area extracted by the overlap area extraction means.
  • the target width setting process is performed.
  • the operation target width after the start of the operation of the automatic brake is determined based on the size of the overlapping area including the detection error.
  • the operation of the automatic brake is not easily released or is not easily continued, so The disconnection and the continuation of unnecessary automatic braking can be suitably suppressed.
  • FIG. 1 is a block diagram illustrating a configuration of the driving support device 1.
  • FIG. 2 is a block diagram showing a functional configuration of the driving support control unit 10.
  • FIG. 3 is an explanatory diagram showing sensor fusion between the detection information of the image sensor 2 and the detection information of the radar sensor 4.
  • FIG. 4 is a first explanatory diagram showing the movement trajectory, the predicted arrival position, and the operation target width
  • FIG. 5 is a flowchart showing the collision determination process.
  • FIG. 6 is a flowchart showing the target width setting process in the first embodiment.
  • FIG. 7 is a second explanatory diagram showing the movement trajectory, the predicted arrival position, and the operation target width, FIG.
  • FIG. 8A is an explanatory diagram showing the overlapping region, the length in the X-axis direction, and the length in the Y-axis direction
  • FIG. 8B is an explanatory diagram showing the amount of change in the length in the Y-axis direction
  • FIG. 9A is an explanatory diagram showing the relationship between the amount of axis deviation, the X-axis threshold change amount, and the Y-axis threshold change amount
  • FIG. 9B shows the pitching angle or pitching angular velocity and the Y-axis threshold change.
  • FIG. 10 is a flowchart showing the target width setting process in the second embodiment
  • FIG. 11A is an explanatory diagram showing the relationship between the amount of axial deviation and the operation target width
  • FIG. 11B is an explanatory diagram showing the relationship between the pitching angle or pitching angular velocity and the operation target width. is there.
  • a driving support device 1 shown in FIG. 1 includes an image sensor 2, a radar sensor 4, a navigation device 6, and a driving support control unit 10.
  • the driving support device 1 is connected to an in-vehicle local area network (hereinafter referred to as “in-vehicle LAN (Local Area Network)”) 8.
  • a plurality of electronic control units (hereinafter referred to as “ECU (Electronic Control Unit)”) 16 is connected to the in-vehicle LAN 8.
  • Each ECU 16 is connected to each control object 18 and each sensor (not shown) corresponding to each ECU 16.
  • a host vehicle a vehicle on which these components are mounted or installed.
  • Each ECU 16 and each control object 18 and each sensor corresponding to each ECU 16 constitute an in-vehicle control system (not shown).
  • Each vehicle-mounted control system is a well-known control system that is pre-installed in a vehicle.
  • Each ECU 16 performs, for example, engine control, steering control, brake control, seat belt control, human machine interface (hereinafter referred to as “HMI (Human It is a system that performs control etc.).
  • HMI Human It is a system that performs control etc.
  • Each control object 18 is a component controlled by the ECU 16, and includes, for example, an ignition mechanism, a fuel system, an intake / exhaust system, a valve mechanism, a start mechanism, a steering pump, a motor, and a brake that constitute an engine.
  • Each sensor detects information necessary for control of the ECU 16, for example, accelerator pedal depression amount, steering steering amount, brake depression amount, various switch operation states, own vehicle speed, steering angle, yaw rate, pitching, etc. Some of them detect angle, pitching angular velocity and the like.
  • the pitching angle is an angle that rotates in the vehicle height direction (that is, the vertical direction) about the vehicle width direction (that is, the left-right direction) of the host vehicle.
  • the upward rotation angle is a positive value
  • the rotation angle in the direction is a negative value.
  • the pitching angular velocity is a pitching angle that changes per unit time.
  • the ECU 16 is configured around a known microcomputer or communication controller, and drives or outputs a control object 18 assigned in advance based on detection information acquired from each sensor and vehicle information received from the in-vehicle LAN 8. It is.
  • the vehicle information is information shared between the ECUs 16 including the driving support control unit 10 in order to optimize the entire in-vehicle control system. For example, the detection information of the sensor, the driving of the control target 18 to the ECU 16 or There is command information for output.
  • the ECU 16 In response to the command information received from the driving support control unit 10 via the in-vehicle LAN 8, the ECU 16 starts operation related to, for example, a known collision damage reduction brake (hereinafter referred to as “automatic brake”) independent of the driver's brake operation. Continue operation or cancel operation. Further, for example, in order to fix the driver to the seat when the automatic brake is activated, the operation is started, the operation is continued, or the operation is canceled according to at least one of the known tractor pretensioner, buckle pretensioner and lap outer pretensioner. . In addition, for example, an alarm is generated by the output of a display device, an audio device, or the like, or vibration of a steering wheel. Further, the ECU 16 transmits detection information such as the speed, steering angle, yaw rate, pitching angle, pitching angular velocity of the host vehicle to the driving support control unit 10 via the in-vehicle LAN 8.
  • automatic brake a known collision damage reduction brake
  • the in-vehicle LAN 8 is a local area network deployed inside the host vehicle.
  • CAN Controller Area Network
  • FlexRay FlexRay
  • LIN Local Interconnect Network
  • MOST Media Oriented Systems Transport
  • AVC Advanced Video Coding-Local Area Network
  • the navigation device 6 is a well-known device that displays the current position of the host vehicle together with a road map and provides route guidance to a destination. Specifically, the navigation device 6 detects the current position of the host vehicle using the arrival time of radio waves received from a global positioning system (ie, GPS (Global Positioning System)) satellite, and further determines the speed of the host vehicle. The current position is corrected using the yaw rate or the like.
  • the navigation device 6 has a map database (DB: Data Base) that includes road map information in association with position information such as latitude and longitude.
  • the road map information is a table-like DB in which link information of links constituting a road is associated with node information of nodes connecting the links.
  • the navigation device 6 is configured to transmit detection information including a road shape in front of the host vehicle detected based on the current position of the host vehicle and road map information to the driving support control unit 10 via the in-vehicle LAN 8.
  • detection information including a road shape in front of the host vehicle detected based on the current position of the host vehicle and road map information to the driving support control unit 10 via the in-vehicle LAN 8.
  • the A known locator having the same function may be used in place of the navigation device 6 except that the display function and the route guidance function are removed from the navigation device 6.
  • the image sensor 2 captures the front of the host vehicle and detects the position of the object based on the captured image (hereinafter referred to as “front image”).
  • the image sensor 2 is fixed by adhesion to the upper end portion of the front windshield in the passenger compartment so that the lens is not exposed to wind and rain and does not hinder the driver's view.
  • the image sensor 2 has a well-known image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge Coupled Device), has an optical axis slightly downward toward the front of the vehicle, and has a predetermined angle. Shoot a wide area.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge Coupled Device
  • the amplified signal is converted into a digital image (that is, a front image) having a predetermined luminance gradation by A / D conversion.
  • the image sensor 2 detects the shape of the object from the front image by a known method.
  • This detection method is performed, for example, by matching processing using an object model registered in advance.
  • the object model is prepared for each object type (for example, vehicle, pedestrian, bicycle, etc.) and each object characteristic (for example, ordinary car, large car, small car, etc.), so the object type and characteristics are specified. Is done.
  • more detailed features of the object such as its shape, color and brightness are specified.
  • the road surface in the real space is represented as a two-dimensional plane (that is, the vehicle width of the host vehicle).
  • the position of the X coordinate (that is, the horizontal position) and the position of the Y coordinate (that is, the vertical position) of the object with the X axis as the direction and the Y axis as the vehicle length direction of the host vehicle are detected. .
  • the detection information indicating the position of the object, the type and characteristics of the object detected by the image sensor 2 in this manner is output to the driving support control unit 10 as image detection information.
  • the image sensor 2 has a property that the detection error regarding the distance of the object is relatively large because the detection accuracy of the vertical position is lowered when the lower end position of the object on the image is not accurately detected.
  • the radar sensor 4 can be used.
  • the image sensor 2 can detect a lane boundary line such as a lane in which the host vehicle is traveling (that is, the host lane) from the captured front image. Specifically, the image sensor 2 searches for an area having a luminance equal to or higher than a predetermined threshold value from the bottom of the frame upward based on the luminance of the image data, for example, and detects an edge. Since the white line has edges that are high-frequency components at both ends, if the luminance value of the image data is differentiated in the horizontal direction, peaks are obtained at both ends of the white line. A pixel having a horizontal luminance gradient or difference of a predetermined value or more is an edge.
  • the white line portion can be estimated.
  • a white line is applied by applying a matching method based on features such as the threshold of the white line width and the linear shape. decide.
  • the luminance weight of image data for each pixel color such as RGB (Red, Green, Blue)
  • the lane boundary lines of other colors such as yellow lines and blue lines are the same as in the case of white lines. It can be determined by the method.
  • a model expression of the lane boundary line in each lane is obtained.
  • This model formula shows the position of each left and right lane boundary with respect to each lane, and the coefficient includes information such as vanishing point, road curvature, yaw angle, width, and offset amount of each left and right lane boundary.
  • the lane information indicated by the model formula of each lane thus obtained by the image sensor 2 is output to the driving support control unit 10 as image detection information including the road shape ahead of the host vehicle.
  • the image sensor 2 has a well-known function for calculating an axis deviation direction and an axis deviation amount with respect to a predetermined reference axis. For example, the image sensor 2 compares the position of the vanishing point of each of the left and right lane boundary lines detected from the captured front image with a position corresponding to a known FOE on the image. Based on the direction and amount relating to the deviation, the axis deviation direction and the axis deviation amount of the image sensor 2 are calculated. The axis deviation information indicating the axis deviation direction and the axis deviation amount thus calculated by the image sensor 2 is output to the driving support control unit 10 in a manner included in the image detection information, for example.
  • the image detection information output from the image sensor 2 to the driving support control unit 10 indicates the position of the object (specifically, the horizontal position and vertical position of the object), the type and characteristics of the object, and the like.
  • the detection information lane information indicating the road shape ahead of the host vehicle and axis deviation information indicating the axis deviation direction and the axis deviation amount of the image sensor 2 are included.
  • the radar sensor 4 detects the position of an object in front of the host vehicle based on the reflected wave of the radar wave.
  • the radar sensor 4 transmits a radar wave typified by, for example, a millimeter wave, a laser beam, an ultrasonic wave, and the like. Based on the time until the transmitted radar wave is reflected by the object, the radar sensor 4 The distance is calculated. Since the direction (in other words, the angle) of the object with respect to the host vehicle is determined by the reception direction of the reflected wave, the position of the object (that is, the relative position with respect to the host vehicle) can be specified by the calculated distance and angle.
  • the radar sensor 4 is installed in, for example, a front grill of a vehicle and transmits a radar wave toward the front of the host vehicle.
  • the radar sensor 4 for example, when a radar wave is irradiated while scanning a predetermined angle range in the left-right direction centering on the front direction of the host vehicle, the predetermined angle range becomes the object detection range.
  • a transmission wave modulated with a triangular wave is output from an antenna, and a reflected wave reflected from an object in front of the host vehicle is received by the antenna and mixed to obtain a beat signal. Since the waveform of the beat signal changes due to interference generated according to the distance to the object and the relative speed, the relative distance and the relative speed are calculated from the waveform. Further, since the reflected wave is received if there is an object in the direction of the transmission wave, the direction of the object existing in front of the host vehicle can be detected.
  • detection information indicating the position of the object (specifically, the distance and direction of the object) and the relative velocity detected by the radar sensor 4 is output to the driving support control unit 10 as radar detection information.
  • the radar sensor 4 since the radar sensor 4 has a different reception direction of the reflected wave depending on which part of the object the radar wave such as a millimeter wave is reflected from, the detection error regarding the lateral position of the object is compared with the detection error by the image sensor 2. It has the property of becoming larger. In order to compensate for such detection errors, the image sensor 2 can be used.
  • the radar sensor 4 has a well-known function for calculating an axis deviation direction and an axis deviation amount with respect to a predetermined reference axis. For example, the radar sensor 4 determines a stationary object based on the calculated relative speed and the speed of the host vehicle, and uses the determined stationary object movement vector in the vehicle width direction (that is, the horizontal direction) of the host vehicle. The axis deviation amount of the radar sensor 4 is calculated. Further, for example, the radar sensor 4 calculates the amount of axis deviation of the radar sensor 4 in the vehicle height direction (that is, the vertical direction) of the host vehicle from the change in received intensity of road surface reflection.
  • the axis deviation information indicating the axis deviation direction and the axis deviation amount calculated by the radar sensor 4 in this manner is output to the driving support control unit 10 in a manner included in the radar detection information, for example.
  • the radar sensor 4 is configured to be able to correct the axis deviation by moving the position of the antenna with a motor.
  • the driving support control unit 10 is mainly configured by a known microcomputer and communication controller having a CPU (Central Processing Unit) 12 and a memory 14 such as a RAM (Random Access Memory) and a ROM (Read Only Memory). Various processes are executed by the CPU 12 based on the program stored in the program 14.
  • the number of microcomputers may be one or more, and the arrangement location may be, for example, inside or outside the image sensor 2.
  • the driving support control unit 10 has a functional configuration realized by executing various processes of the CPU 12, as shown in FIG. 2, an image object acquisition unit 22, a radar object acquisition unit 24, a fusion (hereinafter “FSN (File (System Navigator) ”) generation unit 26, arrival position calculation unit 28, operation permission unit 30, collision determination unit 32, overlap region extraction unit 34, axis deviation information acquisition unit 36, and processing permission unit 38
  • FSN File (System Navigator)
  • the setting unit 40 and the vehicle information acquisition unit 42 are provided.
  • the image object acquisition unit 22 has a function of acquiring image detection information including the position of the object detected by the image sensor 2. Specifically, the image object acquisition unit 22 receives image detection information in synchronization with the output from the image sensor 2, and transfers the received image detection information to the FSN generation unit 26.
  • the radar object acquisition unit 24 has a function of acquiring radar detection information including the position of the object detected by the radar sensor 4. Specifically, the radar object acquisition unit 24 receives radar detection information in synchronization with the output from the radar sensor 4 and transfers the received radar detection information to the FSN generation unit 26.
  • the axis deviation information acquisition unit 36 has a function of acquiring axis deviation information indicating the axis deviation direction and the axis deviation amount calculated by the image sensor 2 and the radar sensor 4, respectively. Specifically, the axis deviation information acquisition unit 36 extracts axis deviation information from the image detection information acquired by the image object acquisition unit 22 or the radar detection information acquired by the radar object acquisition unit 24, and extracts the axis deviation extracted. The information is transferred to the setting unit 40.
  • the vehicle information acquisition unit 42 detects detection information such as the speed, steering angle, yaw rate, pitching angle, and pitching angular velocity of the host vehicle from the ECU 16, and detection information including the road shape ahead of the host vehicle from the image sensor 2 and the navigation device 6. Each has a function to acquire. Specifically, the vehicle information acquisition unit 42 transfers detection information received from the in-vehicle LAN 8 via the communication controller to the setting unit 40, the processing permission unit 38, and the like. The vehicle information acquisition unit 42 transfers the detection information received in synchronization with the output from the navigation device 6 and the lane information extracted from the image detection information acquired by the image object acquisition unit 22 to the processing permission unit 38. .
  • the FSN generation unit 26 performs sensor fusion such as composite, integration, fusion, or association on the detection results of the two in order to complement the different types of detection errors of the image sensor 2 and the radar sensor 4, respectively. It has a function of generating information indicating the position and the like (hereinafter referred to as “FSN information”). Specifically, the FSN generation unit 26 uses the FSN information generated based on the image detection information acquired by the image object acquisition unit 22 and the radar detection information acquired by the radar object acquisition unit 24 as an arrival position calculation unit. 28 and the overlapping area extraction unit 34.
  • a flag indicating that fact is output to the overlapping area extraction unit 34, and at least one of the image detection information and the radar detection information (in detail, on the XY plane) together with this flag.
  • Information including the position of the object specified in (2) is output to the arrival position calculation unit 28.
  • the vehicle width direction (that is, lateral direction) with the origin center position of the host vehicle shown in FIG. 3 as the origin is defined as the X axis
  • the vehicle length direction (that is, forward direction) is defined as the Y axis.
  • the object position 51 indicated by the radar detection information and the object position 61 indicated by the image detection information are respectively identified on the XY plane. That is, the object positions 51 and 61 are specified as relative positions with respect to the center position of the front end of the host vehicle.
  • the object indicated by the radar detection information is referred to as “radar object”
  • the object indicated by the image detection information is referred to as “image object”.
  • the X axis, the Y axis, and the XY plane are terms used for convenience of explanation, and the vehicle width direction does not necessarily have to be the X axis, and the vehicle length direction does not necessarily have to be the Y axis. Other two-axis and two-dimensional planes that can be considered may be used. Further, FIG. 3 shows an example of an object positioned in front of the host vehicle and on the right side, but the position of other objects positioned in the same manner can be specified in the same manner.
  • an area having a width corresponding to an assumed error set in advance based on the characteristics of the radar sensor 4 is set for each of the X coordinate and the Y coordinate.
  • the radar detection error area 50 is set. For example, assuming that the position 51 of the radar object is (Xr, Yr), the assumed error of the X coordinate is ⁇ EXr, and the assumed error of the Y coordinate is ⁇ EYr, the radar detection error region 50 has an X coordinate range of Xr ⁇ EXr ⁇ X ⁇ Xr + EXr and the range of the Y coordinate are expressed as Yr ⁇ EYr ⁇ Y ⁇ Yr + EYr.
  • the method of representing the radar detection error region 50 is not limited to this.
  • the radar detection error region 50 may be represented using an assumed error of the Y coordinate and an assumed error of the azimuth coordinate described later.
  • the FSN information including the radar detection error area 50 set in this way is output to the overlapping area extraction unit 34.
  • an area having a width corresponding to an assumed error set in advance based on the characteristics of the image sensor 2 for each of the X coordinate and the Y coordinate. Is set as the image detection error region 60.
  • the image detection error region 60 has the Y coordinate.
  • the range is expressed as Yi ⁇ EYi ⁇ Y ⁇ Yi + EYi
  • the range of azimuth coordinates is expressed as ⁇ i ⁇ E ⁇ i ⁇ ⁇ i ⁇ ⁇ i + E ⁇ i.
  • the method of representing the image detection error region 60 is not limited to this, and may be represented using, for example, an assumed error of the X coordinate and an assumed error of the Y coordinate.
  • the FSN information including the image detection error region 60 set in this way is output to the overlapping region extraction unit 34.
  • the position 70 specified by the Y coordinate of the position 51 of the radar object and the orientation of the image object is specified as the position of the same object on the XY plane.
  • the same object is an object that can be determined to be the same as the radar object and the image object based on the positional relationship between the radar detection error area 50 and the image detection error area 60.
  • the FSN information including the position of the object thus identified is output to the arrival position calculation unit 28 and the overlapping area extraction unit 34.
  • the arrival position calculation unit 28 receives the FSN information, the image detection information, or the radar detection information from the FSN generation unit 26, and stores the detection positions of the objects ahead of the host vehicle in the memory 14 in time series based on the received information.
  • the detection positions of the plurality of objects thus stored are read for each object, and the movement trajectory of each object is calculated. That is, it has a function of calculating the movement locus of the object on the XY plane based on the detection position of the object indicated by at least one of the FSN information, the image detection information, and the radar detection information.
  • the movement trajectory is a straight line or a curve on the XY plane calculated based on a plurality of detection positions. For example, the movement trajectory is an approximate straight line or an approximate curve that minimizes the average value of the square of the distance from each detection position. is there.
  • the arrival position calculation unit 28 has a function of calculating a predicted arrival position when the object reaches the X axis based on the movement locus thus calculated.
  • the predicted arrival position is a lateral position predicted when an object ahead of the host vehicle reaches the tip position of the host vehicle in the future, and specifically, the movement locus shown in FIG. It is calculated by the intersection with the axis (that is, the X coordinate when the Y coordinate is 0).
  • Information indicating the predicted arrival position calculated in this way is output to the operation permission unit 30.
  • the operation permission unit 30 sets in advance the predicted arrival position of the object ahead of the host vehicle along the X axis from the center position of the front end of the host vehicle shown in FIG. It has a function of determining whether or not it belongs to the range of the operation target width.
  • the operation target width is a restriction value set in advance for determining whether or not an object ahead of the host vehicle is a target object for operating the PCS.
  • the operation target width is larger than at least the vehicle width of the host vehicle. For example, a value obtained by adding a predetermined margin to the vehicle width is set as a normal operation target width.
  • the operation permission unit 30 determines that the predicted arrival position belongs to the range of the operation target width, the operation permission unit 30 performs an operation permission notification to the collision determination unit 32, and the predicted arrival position is equal to the operation target width.
  • An operation prohibition notification is sent to the collision determination unit 32 when it is determined that it belongs outside the range.
  • the operation permission unit 30 repeatedly performs such determination and notification while the speed of the host vehicle is greater than 0 (for example, until the host vehicle is completely stopped even after the operation of the automatic brake is started).
  • the operation permission unit 30 receives from the setting unit 40 a setting command for expanding the operation target width after starting the automatic brake operation or a setting command for reducing the operation target width. Accordingly, the operation permission unit 30 is configured to change the operation target width when receiving the notification of the start of the automatic brake operation from the collision determination unit 32.
  • the collision determination unit 32 has a function of performing a collision determination between the host vehicle and an object and outputting a command related to the operation of an automatic brake or the like at a timing based on the collision determination result. Specifically, the collision determination unit 32 is realized by the CPU 12 performing the collision determination process shown by the flowchart of FIG. 5 for each object ahead of the host vehicle. Details of the collision determination process will be described later.
  • the overlapping region extraction unit 34 receives the FSN information, the image detection information, or the radar detection information from the FSN generation unit 26, and based on the received FSN information, the radar detection error region 50 and the image detection error region 60 on the XY plane. A region where and overlap is extracted as an overlapping region.
  • the overlapping area extracting unit 34 has a function of storing information indicating the overlapping area extracted for each object in the memory 14 in time series.
  • the process permission unit 38 receives the detection information and the lane information from the vehicle information acquisition unit 42, and determines whether or not the host vehicle is traveling straight on the basis of the received information.
  • the process permission unit 38 permits the execution of the process by the setting unit 40 when it is determined that the host vehicle is traveling straight, and stops the process performed by the setting unit 40 when it is determined that the host vehicle is not traveling straight. It has a function. This determination may be performed based on at least one of the steering angle and yaw rate of the host vehicle, or may be performed based on the road shape in front of the host vehicle.
  • the process permission unit 38 permits the execution of the process by the collision determination unit 32 when it is determined that the host vehicle is traveling straight, and performs the process performed by the collision determination unit 32 when it is determined that the host vehicle is not traveling straight. Execution may be stopped.
  • the setting unit 40 is an operation target in the operation permission unit 30 after the start of the automatic brake operation when a predetermined feature amount condition is satisfied for the feature amount related to the size of the overlapping region extracted by the overlapping region extraction unit 34. Has the function of expanding the width.
  • the setting unit 40 is realized by the CPU 12 performing the target width setting process shown in the flowchart of FIG. 6 for each object ahead of the host vehicle. Details of the target width setting process will be described later.
  • FIG. 7 illustrates a scene where a pedestrian crosses the traveling lane of the host vehicle, for example, in front of the host vehicle.
  • a pedestrian appears to be facing the host vehicle when viewed from the host vehicle.
  • the movement trajectory is initially predicted to approach the vicinity of the center of the front end of the host vehicle.
  • a behavior change occurs in which the host vehicle descends forward due to sudden deceleration.
  • This behavior change is a kind of pitching motion and is called a nose dive.
  • the imaging area of the front image by the image sensor 2 installed in the front part of the host vehicle such as the front windshield also changes in the vertical direction, so that the detection accuracy of the lower end position of the object on the image is improved. It will get worse.
  • the position of the pedestrian is predicted to move from the point P3 to P4a and P5a, the lower end position of the object on the image is shifted to the Y direction side, for example. If it is done, the position of the pedestrian will appear as if it has moved from the point P3 to P4b when viewed from the host vehicle. In such a case, when the movement trajectory is calculated by the points P1 to P3 and P4b, the predicted arrival position P5b of the pedestrian belongs outside the range of the normal operation target width, and as a result, the pedestrian crossing the PCS By deviating from the operation target, the collision determination is stopped and the automatic brake may not operate.
  • the predicted arrival position P5b belongs to the range of the operation target width by enlarging the operation target width after the start of the automatic brake operation, it is possible to cope with such a problem.
  • the operation target width is not expanded in any case, but the operation target width after the start of the automatic brake operation is expanded only when, for example, it is determined that the detection reliability from the points P1 to P3 is high. Thereby, it is also possible to suppress the continuation of unnecessary automatic braking in the scene caused by other causes.
  • the radar object acquisition unit 24, the image object acquisition unit 22, the arrival position calculation unit 28, the operation permission unit 30, the overlapping region extraction unit 34, and the setting unit 40 each acquire the radar object according to the claims.
  • corresponds to the process permission means as described in a claim.
  • the collision determination unit 32 makes a determination regarding the operation permission (S110), and when the operation permission notification is not received from the operation permission unit 30 (S110; YES), the process proceeds to S120. Migrate to When the operation permission notification is not received from the operation permission unit 30 (S110; NO), the process waits without moving to the next step.
  • the collision determination unit 32 calculates a time-to-collision (hereinafter referred to as “TTC (Time To Collision)”) in S120.
  • TTC Time To Collision
  • the TTC can be obtained by dividing the distance between the object ahead of the host vehicle and the host vehicle by the relative speed of the object with respect to the host vehicle.
  • the TTC is one index for determining the possibility of the host vehicle colliding with an object ahead of the host vehicle, and such a collision possibility may be obtained using another index other than the TTC.
  • the collision determination unit 32 determines whether or not TTC is equal to or smaller than a second threshold value TTC that is defined in advance as a value larger than the first threshold value TTC (S121).
  • the first threshold value TTC is a value that assumes a case where a collision with an object ahead of the host vehicle cannot be avoided by the driver's brake operation
  • the second threshold value TTC is a value that is forward of the host vehicle if the driver's brake operation is prompted. It is a value that assumes the case where a collision with an object can be avoided.
  • the collision determination unit 32 determines that the TTC is equal to or less than the second threshold value TTC (S121; YES)
  • the collision determination unit 32 transmits command information for instructing the start of alarm operation to the ECU 16 via the in-vehicle LAN 8. (S122), the process proceeds to S130, and if it is determined that the TTC exceeds the second threshold value TTC (S121; NO), the process returns to S110 without proceeding to the next step.
  • the collision determination unit 32 determines whether or not TTC is equal to or less than the first threshold value TTC defined in advance (S130), and determines that TTC is equal to or less than the first threshold value TTC (S130; YES), command information for commanding the start of the operation of the automatic brake is transmitted to the ECU 16 via the in-vehicle LAN 8, and the operation permission unit 30 is notified of the start of the automatic brake operation (S140).
  • the command information regarding the operation start of the automatic brake has already been transmitted, the command information for instructing the continuation of the operation of the automatic brake is transmitted to the ECU 16 via the in-vehicle LAN 8, while the automatic brake operation start is started. There is no notification.
  • the collision determination unit 32 determines whether or not an operation prohibition notification is received from the operation permission unit 30 during the operation of the automatic brake (S150).
  • the operation prohibition notification is received (S150; YES)
  • the automatic brake The command information for instructing the release of the operation is transmitted to the ECU 16 via the in-vehicle LAN 8 (S160), and the process returns to S110.
  • the operation prohibition notification has not been received (S150; NO)
  • the process returns to S140 and the operation of the automatic brake is continued.
  • Target width setting process executed by the setting unit 40 will be described with reference to the flowchart of FIG. Note that this process is started when the vehicle speed exceeds a predetermined speed from a state in which the host vehicle is completely stopped, and ends when the host vehicle is completely stopped.
  • the setting unit 40 reads, for example, information indicating the overlapping area of the object that is the operation target of the PCS from the memory 14 in time series, and the area of the read overlapping area is equal to or greater than a predetermined threshold area. It is determined whether or not there is (S210).
  • the threshold area is an area predetermined as one index indicating that the detection reliability based on the FSN information is high.
  • As an index related to the size of the overlapping region instead of obtaining the area of the overlapping region, for example, any one of the X-axis direction length and the Y-axis direction length between the upper side and the lower side of the overlapping region shown in FIG. The product of may be obtained.
  • the process proceeds to S220.
  • the process waits without moving to the next step.
  • Y-axis threshold change amount is an allowable change amount that is determined by predicting that the image detection error region 60 shown in FIG.
  • the X-axis threshold change amount is an allowable change amount that is determined by predicting that the image detection error region 60 does not change much in the left-right direction even after the automatic brake operation is started. For this reason, the X-axis threshold change amount is set as a value smaller than the Y-axis threshold change amount. In other words, the Y-axis threshold change amount is set as a value larger than the X-axis threshold change amount.
  • a setting command for expanding the operation target width after the start of the automatic brake operation is output to the operation permission unit 30.
  • This setting command is a command for expanding the operation target width with respect to the normal operation target width (that is, the initial value), and includes, for example, quantitative information for expanding the width by about 10% with respect to the initial value. Yes.
  • axis deviation information is received from the axis deviation information acquisition unit 36, and it is determined whether or not an axis deviation has occurred in at least one of the image sensor 2 and the radar sensor 4 based on the received axis deviation information. If it is determined that an axis deviation has occurred, the process proceeds to S260, and if it is determined that no axis deviation has occurred, the process proceeds to S270.
  • At least one threshold change amount corresponding to the axis deviation direction is reduced according to the axis deviation amount.
  • the X-axis threshold change amount and / or the Y-axis threshold change amount is changed to a smaller value as the axis deviation amount is larger.
  • detection information is received from the vehicle information acquisition part 42, and it is determined whether the pitching angle or pitching angular velocity of the own vehicle exceeds a predetermined value based on the received detection information.
  • the process proceeds to S280, and when it is determined that the pitching angle or the pitching angular velocity is equal to or less than the predetermined value, the process returns to S210.
  • the Y-axis threshold change amount is variably set in accordance with the pitching angle or the pitching angular velocity of the host vehicle. Specifically, as shown in FIG. 9B, the Y-axis threshold change amount is changed to a larger value as the pitching angle or the pitching angular velocity is larger.
  • the fact that the area of the overlapping region is equal to or larger than the threshold area as the feature amount is a requirement for satisfying the feature amount condition for enlarging the operation target width. It is possible to expand the operation target width after suitably evaluating the above.
  • the target width setting process it is determined that the amount of change in the X-axis direction length and the Y-axis direction length in the overlap region as the feature amount is equal to or less than the X-axis threshold change amount and the Y-axis threshold change amount, respectively. Since the feature amount condition for enlarging the width is a requirement for establishing the feature amount condition, it is possible to expand the operation target width after preferably monitoring the detection reliability related to the position of the object on both the X axis and the Y axis.
  • the operation target width is set after suitably absorbing the decrease in detection reliability due to the pitching motion of the host vehicle. Can be enlarged.
  • the radar sensor 4 In the target width setting process, for example, in order to reduce the threshold change amount corresponding to the axis deviation direction in accordance with the axis deviation amount of the radar sensor 4, the radar sensor 4 or the like as a cause other than the pitching motion of the own vehicle When the detection reliability is lowered due to the shaft misalignment, it is difficult to easily continue the operation of the automatic brake.
  • the X-axis threshold change amount and / or Y The axis threshold change amount was variably set.
  • the second embodiment is different from the first embodiment in that the operation target width is variably set in such a case.
  • the setting unit 40 reads, for example, information indicating the overlapping area of the object that is the operation target of the PCS from the memory 14 in time series, and the area of the read overlapping area is equal to or greater than a predetermined threshold area. It is determined whether or not there is (S310).
  • S320 it is determined whether or not the amount of change between the current value and the previous value regarding the length in the Y-axis direction of the overlapping region read out in S310 is equal to or less than a preset Y-axis threshold change amount. If it is determined that this change amount is equal to or less than the Y-axis threshold change amount, the process proceeds to S330, and if it is determined that this change amount exceeds the Y-axis threshold change amount, the process returns to S310.
  • S330 it is determined whether or not the change amount between the current value and the previous value related to the length in the X-axis direction of the overlapping area read out in S310 is equal to or less than a preset X-axis threshold change amount. If it is determined that the change amount is equal to or less than the X-axis threshold change amount, the process proceeds to S340. If it is determined that the change amount exceeds the Y-axis threshold change amount, the process returns to S310.
  • the axis deviation information is received from the axis deviation information acquisition unit 36, and it is determined whether or not an axis deviation has occurred in at least one of the image sensor 2 and the radar sensor 4 based on the received axis deviation information. If it is determined that an axis deviation has occurred, the process proceeds to S360. If it is determined that no axis deviation has occurred, the process proceeds to S370.
  • the operation target width is variably set so as to be reduced according to the axis deviation amount. Specifically, as shown in FIG. 11A, the operation target width is changed to a smaller value as the amount of axial deviation is larger.
  • a setting command for reducing the operation target width after the start of the automatic brake operation is output to the operation permission unit 30.
  • This setting command is a command for reducing the operation target width with respect to the expanded operation target width, and includes, for example, quantitative information designated with a normal operation target width (that is, an initial value) as a lower limit. .
  • detection information is received from the vehicle information acquisition unit 42, and based on the received detection information, it is determined whether or not the pitching angle or pitching angular velocity of the host vehicle exceeds a predetermined value.
  • the operation target width is variably set in accordance with the pitching angle or the pitching angular velocity of the host vehicle. Specifically, as shown in FIG. 9B, the operation target width is changed to a larger value as the pitching angle or the pitching angular velocity is larger.
  • a setting command for expanding the operation target width after the start of the automatic brake operation is output to the operation permission unit 30.
  • This setting command is a command for expanding the operation target width with respect to the currently set operation target width. For example, it is possible to increase the width by about 20% with respect to the normal operation target width (that is, the initial value). Contains quantitative information specified as an upper limit.
  • the threshold change amount or the operation target width is reduced.
  • the present invention is not limited to this.
  • the threshold change amount or the operation target width may be reduced only when it is determined that an axis deviation has occurred in the radar sensor 4.
  • a system including the driving support device 1 as a constituent element, one or more programs for causing a computer to function as the driving support device 1, and at least a part of the program are recorded.
  • the present invention can also be realized in various forms such as one or a plurality of media and a driving support method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Regulating Braking Force (AREA)

Abstract

運転支援装置は、到達位置算出部(28)、作動許可部(30)、重複領域抽出部(34)、及び設定部(40)を備える。到達位置算出部(28)は、XY平面における物体の位置を特定し、物体の移動軌跡を算出して、この移動軌跡を基に物体がX軸に到達するときの予測到達位置を算出する。作動許可部(30)は、予測到達位置が作動対象幅の範囲内に属する場合に、自車両と物体との衝突判定に基づく自動ブレーキの作動を許可する。重複領域抽出部(34)は、検出誤差領域をそれぞれXY平面上に設定し、設定した双方の検出誤差領域が重なり合う領域を重複領域として抽出する。設定部(40)は、重複領域の大きさに関する特徴量条件が成立する場合に、自動ブレーキの作動開始後の作動対象幅を拡大させる。

Description

運転支援装置及び運転支援方法 関連出願の相互参照
 本出願は、2015年5月29日に出願された日本出願番号2015-109945号に基づくもので、ここにその記載内容を援用する。
 本発明は、自車両と自車両前方の物体との衝突判定を行い、その判定結果に基づいて自動ブレーキを作動させることにより、衝突回避あるいは衝突被害の軽減を図る運転支援技術に関する。
 従来、自車両前方の物体に自車両が衝突する可能性を判定する衝突判定の結果、衝突可能性が高いと判定した場合に、ドライバのブレーキ操作とは別に独立した自動ブレーキを作動させるプリクラッシュセーフティシステム(以下「PCS(Pre-Crash Safety System)」という)が知られている。このPCSを用いることにより、自車両と自車両前方の物体との衝突の回避あるいは衝突の被害を軽減させることができる。
 例えば、PCSでは、カメラで自車両前方を撮像した画像(以下「前方画像」という)に基づいて物体の位置を検出する際に、自車両に大きなピッチング運動が生じることによって、前方画像から物体の位置を正しく検出できなくなるような状況が想定される。こうした場合に衝突判定に係る方法の変更ないしは衝突判定の中止を行うことが提案されている(特許文献1参照)。
 具体的には、自車両のピッチング角又はピッチング角速度が予め規定された閾値より大きい状態では、前方画像を基にした物体の位置を含む検出情報を取得できない場合がある。特許文献1では、この検出情報を前回取得した後に、所定の設定時間が経過していなければ、前回取得した検出情報を用いて衝突判定を行い、設定時間が経過すると、衝突判定を中止する技術が開示されている。
特許第4850963号公報
 従来技術のPCSでは、例えば自動ブレーキの作動によって自車両に大きなピッチング運動が生じた場合であっても、設定時間の経過如何によっては、衝突判定が中止されることになり得る。このため、実際には衝突可能性が高い状況に変わりない場合であっても、衝突判定が中止される。これにより、自動ブレーキの作動が解除されてしまう現象(いわゆるブレーキ抜け)を不要に発生させてしまう可能性があるという問題が考えられた。
 また、従来技術のPCSでは、物体の位置に関する検出信頼性が低い場合であっても、設定時間の経過如何によっては、前回取得した検出情報を用いて衝突判定が継続されることになり得る。このため、実際には衝突可能性が低い状況に変わった場合であっても、こうした衝突判定が継続されることにより、不要な自動ブレーキが継続されてしまう可能性があるという問題も考えられた。
 本開示は、いわゆるブレーキ抜けと不要な自動ブレーキの継続とを好適に抑制可能な技術を提供することを目的としている。
 本開示の第一の態様の運転支援装置は、レーダ物体取得手段と、画像物体取得手段と、到達位置算出手段と、作動許可手段と、重複領域抽出手段と、設定手段と、を備える。レーダ物体取得手段は、自車両前方に送信したレーダ波の反射波に基づいて検出された物体の位置を含む検出情報を取得する。画像物体取得手段は、自車両前方を撮像した画像に基づいて検出された物体の位置を含む検出情報を取得する。
 到達位置算出手段は、自車両の位置を基準とする車幅方向をX軸並びに車長方向をY軸とした場合のXY平面における物体の位置を、レーダ物体取得手段及び画像物体取得手段のうち双方あるいは一方により取得した検出情報に基づいて特定する。また、到達位置算出手段は、複数回特定した物体の位置を基にXY平面における物体の移動軌跡を算出して、算出した移動軌跡を基に物体がX軸に到達するときの予測到達位置を算出する。
 作動許可手段は、到達位置算出手段により算出した予測到達位置が、自車両の位置からX軸に沿って予め設定された作動対象幅の範囲内に属する場合に、自車両と物体との衝突判定に基づく自動ブレーキの作動を許可する。
 重複領域抽出手段は、レーダ物体取得手段及び画像物体取得手段により取得した検出情報に含まれる物体の位置を基準とする検出誤差領域をそれぞれXY平面上に設定し、設定した双方の検出誤差領域が重なり合う領域を重複領域として抽出する。
 設定手段は、重複領域抽出手段により抽出した重複領域の大きさに関する特徴量について、予め規定された特徴量条件が成立する場合に、自動ブレーキの作動開始後の作動許可手段における作動対象幅を拡大させる対象幅設定処理を行う。
 このような構成によれば、レーダ波及び前方画像のそれぞれに基づいて得られる物体の位置に関して、その検出誤差を含む重複領域の大きさを基に、自動ブレーキの作動開始後における作動対象幅を拡大させることで、自動ブレーキの作動を継続させ易くすることができる。このため、例えば自動ブレーキの作動開始前に物体の位置に関する検出信頼性が高い場合においては、自動ブレーキの作動によりその検出信頼性が一時的に低下する。このような状況になったとしても、設定時間の如何にかかわらず自動ブレーキの作動を安易に解除させないようにすることができる。
 また例えば、自動ブレーキの作動開始前に物体の位置に関する検出信頼性が低い場合においては、自動ブレーキの作動開始後における作動対象幅が拡大されないようにすることが可能となる。こうした状況下における自動ブレーキの作動を安易に継続させないようにすることができる。
 したがって、本開示の第一の態様によれば、物体の位置に関する検出信頼性に応じて、自動ブレーキの作動を安易に解除させないようにしたり、安易に継続させないようにしたりすることにより、いわゆるブレーキ抜けと不要な自動ブレーキの継続とを好適に抑制することができる。
 また、本開示の第一の態様の運転支援方法によれば、上記同様の理由により、本開示の第一の態様の運転支援装置において既に述べた効果と同様の効果を得ることができる。
 なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。
図1は、運転支援装置1の構成を示すブロック図であり、 図2は、運転支援制御ユニット10の機能的構成を示すブロック図であり、 図3は、画像センサ2の検出情報とレーダセンサ4の検出情報とのセンサフュージョンを示す説明図であり、 図4は、移動軌跡、予測到達位置及び作動対象幅を示す第1の説明図であり、 図5は、衝突判定処理を示すフローチャートであり、 図6は、第1実施形態における対象幅設定処理を示すフローチャートであり、 図7は、移動軌跡、予測到達位置及び作動対象幅を示す第2の説明図であり、 図8(A)は、重複領域、X軸方向長さ及びY軸方向長さを示す説明図、図8(B)はY軸方向長さの変化量を示す説明図であり、 図9(A)は、軸ずれ量とX軸閾値変化量及びY軸閾値変化量との関係性を示す説明図であり、図9(B)は、ピッチング角又はピッチング角速度とY軸閾値変化量との関係性を示す説明図であり、 図10は、第2実施形態における対象幅設定処理を示すフローチャートであり、 図11(A)は、軸ずれ量と作動対象幅との関係性を示す説明図であり、図11(B)は、ピッチング角又はピッチング角速度と作動対象幅との関係性を示す説明図である。
 以下、本発明が適用された実施形態について、図面を用いて説明する。
 [1.第1実施形態]
 [1-1.全体構成]
 図1に示す運転支援装置1は、画像センサ2と、レーダセンサ4と、ナビゲーション装置6と、運転支援制御ユニット10と、を備える。また、運転支援装置1は、車内ローカルエリアネットワーク(以下「車内LAN(Local Area Network)」という)8に接続されている。車内LAN8には、複数の電子制御ユニット(以下「ECU(Electronic Control Unit)」という)16が接続されている。各ECU16には、それぞれに対応する各制御対象18及び各センサ(不図示)が接続されている。以下、これらの構成要素が搭載ないしは設置された車両を自車両という。
 各ECU16と、各ECU16に対応する各制御対象18及び各センサとは、それぞれ各車載制御システム(不図示)を構成するものである。なお、各車載制御システムは、車両に予め搭載されている周知の制御システムであり、各ECU16によって、例えば、エンジン制御やステアリング制御、ブレーキ制御、シートベルト制御、ヒューマンマシンインターフェース(以下「HMI(Human Machine Interface)」という)制御等を行うシステムである。
 各制御対象18は、ECU16によって制御される構成物であり、例えば、エンジンを構成する点火機構や燃料系統、吸排気系統、動弁機構、始動機構、ステアリングを構成するポンプやモータ、ブレーキを構成するアクチュエータ、シートベルトを構成するプリテンショナ、HMIを構成する表示装置や音響装置等がある。各センサは、ECU16の制御に必要な情報を検出するものであり、例えば、アクセルペダル踏込量や、ステアリング操舵量、ブレーキ踏込量、各種スイッチ操作状態、自車両の速度・操舵角・ヨーレート・ピッチング角・ピッチング角速度等をそれぞれ検出するものがある。なお、ピッチング角は、自車両の車幅方向(即ち、左右方向)を軸として車高方向(即ち、上下方向)に回転する角度であり、例えば、上方向の回転角を正の値、下方向の回転角を負の値とするものである。また、ピッチング角速度は、単位時間あたりに変化するピッチング角である。
 ECU16は、周知のマイクロコンピュータや通信コントローラを中心に構成され、各センサから取得した検出情報や、車内LAN8から受け取った車両情報を基に、予め割り当てられた制御対象18の駆動ないしは出力を行うものである。なお、車両情報は、車載制御システム全体の最適化を図るために運転支援制御ユニット10を含むECU16間で共有される情報であり、例えば、センサの検出情報や、ECU16に制御対象18の駆動ないしは出力を行わせるための指令情報等がある。
 ECU16は、運転支援制御ユニット10から車内LAN8を介して受信した指令情報に応じて、例えば、ドライバのブレーキ操作とは独立した周知の衝突被害軽減ブレーキ(以下「自動ブレーキ」という)に係る作動開始、作動継続又は作動解除を行う。また例えば、自動ブレーキ作動時にドライバを座席に固定するために、周知のトラクタープリテンショナ、バックルプリテンショナ及びラップアウタープリテンショナの少なくとも一つのプリテンショナに係る作動開始、作動継続又は作動解除を行ったりする。また例えば、表示装置や音響装置等の出力やステアリング等の振動による警報を行う。また、ECU16は、自車両の速度・操舵角・ヨーレート・ピッチング角・ピッチング角速度等の検出情報を、車内LAN8を介して運転支援制御ユニット10に送信する。
 なお、車内LAN8は、自車両の内部に配備されているローカルエリアネットワークであり、例えば、周知のCAN(Controller Area Network)やFlexRay、LIN(Local Interconnect Network)、MOST(Media Oriented Systems Transport)、AVC-LAN(Audio Visual Communication-Local Area Network)等の通信プロトコルを利用して各種車両情報を伝送するものである。
 ナビゲーション装置6は、自車両の現在位置を道路地図と共に表示したり、目的地への経路案内を行ったりする周知のものである。具体的には、ナビゲーション装置6は、グローバルポジショニングシステム(即ち、GPS(Global Positioning System))衛星から受信した電波の到達時間を利用して自車両の現在位置を検出し、さらに自車両の速度やヨーレート等を用いて現在位置を補正する。また、ナビゲーション装置6は、緯度や経度等の位置情報に対応づけて道路地図情報を含む地図データベース(DB:Data Base)を有している。なお、道路地図情報は、道路を構成するリンクのリンク情報と、リンクとリンクを接続するノードのノード情報とを対応づけたテーブル状のDBである。リンク情報にはリンク長、幅員、接続ノード、カーブ情報等が含まれるため、道路地図情報を用いて道路形状を検出することができる。ナビゲーション装置6は、自車両の現在位置と道路地図情報とに基づいて検出された自車両前方の道路形状を含む検出情報を、車内LAN8を介して運転支援制御ユニット10に送信するように構成される。なお、ナビゲーション装置6から表示機能や経路案内機能を取り除いた他は同様の機能を有する周知のロケータをナビゲーション装置6の代わりに用いてもよい。
 画像センサ2は、自車両前方を撮像し、撮像した画像(以下「前方画像」という)に基づいて物体の位置等を検出するものである。画像センサ2は、例えば、レンズが風雨等に晒されず、且つ、運転者の視界の妨げとならないように、車室内においてフロントウインドシールドの上端部との接着により固定される。また、画像センサ2は、例えば、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)等の周知の撮像素子を有し、自車両前方へ向けてやや水平下向きに光軸を有し所定角範囲で広がる領域を撮影する。自車両前方から入射した光は撮像素子により光電変換され、蓄積された電荷の電圧として読み出された信号が増幅される。この増幅された信号は、A/D変換により所定の輝度階調のデジタル画像(即ち、前方画像)に変換される。
 また、画像センサ2は、周知の手法により前方画像の中から物体の形状を検出する。この検出手法は、例えば、予め登録されている物体モデルを用いたマッチング処理により行われる。物体モデルでは、物体の種類(例えば、車両、歩行者、自転車等)やその物体の特徴(例えば、普通車、大型車、小型車等)毎に用意されているため、物体の種類や特徴が特定される。また、その形状や色や輝度等、物体のより詳細な特徴も特定される。
 こうして検出された前方画像上の物体の上下方向の位置及び無限遠点(即ち、FOE:Focus of Expansion)の位置に基づいて、実空間上の路面を2次元平面(即ち、自車両の車幅方向をX軸、自車両の車長方向をY軸、とした場合のXY平面)とする物体のX座標の位置(即ち、横位置)及びY座標の位置(即ち、縦位置)を検出する。このように画像センサ2により検出された物体の位置、物体の種類及び特徴等を示す検出情報は、画像検出情報として、運転支援制御ユニット10へ出力される。ただし、画像センサ2においては、画像上の物体の下端位置が正確に検出されない場合に縦位置の検出精度が下がるため、物体の距離に関する検出誤差は比較的大きくなるという性質を有する。こうした検出誤差を補完するため、レーダセンサ4を用いることができる。
 また、画像センサ2は、撮像された前方画像から、自車両が走行している車線(即ち、自車線)等の車線境界線を検出できる。具体的には、画像センサ2は、例えば画像データの輝度に基づき、所定のしきい値以上の輝度を有する領域をフレームの底部から上方に向けて探索しエッジを検出する。白線は両端に高周波成分たるエッジを有するので、画像データの輝度値を水平方向に微分すると、白線の両端にピークが得られる。水平方向の輝度の勾配または差分が所定値以上の画素がエッジである。
 このエッジを前方画像の上下方向に結ぶと白線部分を推定でき、推定した白線部分について、白線幅のしきい値、線状の形状である等の特徴からマッチング等の手法を適用して白線を決定する。なお、画像データの輝度の重みを例えばRGB(Red、Green、Blue)等の画素色毎に可変設定することで、黄色線や青色線等、他の色の車線境界線を白線の場合と同様の方法により決定することができる。
 こうして決定された白線等の車線境界線が有する複数のエッジを抽出し例えばハフ変換することで、各車線における車線境界線のモデル式が得られる。このモデル式は、各車線に対する左右各車線境界線の位置を示すものであり、その係数には左右各車線境界線の消失点、道路曲率、ヨー角、幅員、オフセット量等の情報も含まれる。こうして画像センサ2により得られた各車線のモデル式により示される車線情報は、自車両前方の道路形状を含む画像検出情報として、運転支援制御ユニット10へ出力される。
 また、画像センサ2は、予め規定された基準軸に対する軸ずれ方向並びに軸ずれ量を算出する周知の機能を有している。例えば、画像センサ2は、撮像された前方画像から検出した左右各車線境界線の消失点の位置を、画像上における既知のFOEに対応する位置と比較し、両者の位置が一致しない場合に、そのずれに係る方向並びに量を基にして、画像センサ2の軸ずれ方向及び軸ずれ量を算出する。こうして画像センサ2により算出された軸ずれ方向及び軸ずれ量を示す軸ずれ情報は、例えば画像検出情報に含まれる態様で、運転支援制御ユニット10へ出力される。
 つまり、本実施形態において、画像センサ2から運転支援制御ユニット10へ出力される画像検出情報には、物体の位置(詳しくは、物体の横位置及び縦位置)、物体の種類及び特徴等を示す検出情報の他、自車両前方の道路形状を示す車線情報と、画像センサ2の軸ずれ方向及び軸ずれ量を示す軸ずれ情報と、が含まれている。
 レーダセンサ4は、レーダ波の反射波に基づいて自車両前方の物体の位置を検出するものである。レーダセンサ4は、例えばミリ波やレーザ光や超音波等に代表されるレーダ波を送信し、送信したレーダ波が物体に反射された反射波を受信するまでの時間に基づいて、物体までの距離を計算するものである。反射波の受信方向により自車両に対する物体の方位(換言すれば、角度)が定まるため、計算した距離と角度とにより物体の位置(即ち、自車両に対する相対位置)を特定することができる。
 レーダセンサ4は、車両の例えばフロントグリル内に設置され、自車両前方に向けてレーダ波を送信する。レーダセンサ4においては、例えば自車両の正面方向を中心に左右方向の所定角度範囲を走査しながらレーダ波を照射する場合、その所定角度範囲が物体検知範囲となる。
 例えば、ミリ波レーダでは、三角波で周波数変調した送信波をアンテナから出力し、自車両前方の物体から反射した反射波をアンテナで受信してミキシングすることでビート信号を取得する。ビート信号は、物体までの距離及び相対速度に応じて生じる干渉により波形が変化するので、こうした波形から相対距離と相対速度が演算される。また、送信波の照射方向に物体が存在すれば反射波が受信されるので、自車両前方に存在する物体の方向を検出することができる。
 こうしてレーダセンサ4により検出された物体の位置(詳しくは、物体の距離及び方位)及び相対速度を示す検出情報は、レーダ検出情報として、運転支援制御ユニット10へ出力される。ただし、レーダセンサ4は、ミリ波等のレーダ波が物体のいずれの箇所から反射するかによって反射波の受信方向が異なるため、物体の横位置に関する検出誤差は画像センサ2による検出誤差と比べて大きくなるという性質を有する。こうした検出誤差を補完するため、画像センサ2を用いることができる。
 また、レーダセンサ4は、予め規定された基準軸に対する軸ずれ方向並びに軸ずれ量を算出する周知の機能を有している。例えば、レーダセンサ4は、演算した相対速度と、自車両の速度と、に基づいて静止物を判定し、判定した静止物の移動ベクトルから、自車両の車幅方向(即ち、水平方向)におけるレーダセンサ4の軸ずれ量を算出する。また例えば、レーダセンサ4は、路面反射の受信強度変化から、自車両の車高方向(即ち、垂直方向)におけるレーダセンサ4の軸ずれ量を算出する。こうしてレーダセンサ4により算出された軸ずれ方向及び軸ずれ量を示す軸ずれ情報は、例えばレーダ検出情報に含まれる態様で、運転支援制御ユニット10へ出力される。なお、レーダセンサ4は、モータによってアンテナの位置を移動させることにより、軸ずれを補正することが可能に構成されている。
 [1-2.運転支援制御ユニット10の構成]
 運転支援制御ユニット10は、CPU(Central Processing Unit)12と、RAM(Random Access Memory)、ROM(Read Only Memory)等のメモリ14とを有する周知のマイクロコンピュータ及び通信コントローラを中心に構成され、メモリ14に格納されているプログラムに基づいてCPU12により各種処理が実行されるものである。なお、運転支援制御ユニット10において、例えばマイクロコンピュータの数は1つでも複数でもよく、その配置場所は例えば画像センサ2内外のいずれでもよい。
 運転支援制御ユニット10は、CPU12の各種処理の実行により実現される機能的構成として、図2に示すように、画像物体取得部22と、レーダ物体取得部24と、フュージョン(以下「FSN(File System Navigator)」という)生成部26と、到達位置算出部28と、作動許可部30と、衝突判定部32と、重複領域抽出部34と、軸ずれ情報取得部36と、処理許可部38と、設定部40と、車両情報取得部42と、を備える。
 画像物体取得部22は、画像センサ2により検出された物体の位置を含む画像検出情報を取得する機能を有している。具体的には、画像物体取得部22は、画像センサ2からの出力と同期して画像検出情報を受け取り、受け取った画像検出情報をFSN生成部26に転送する。
 レーダ物体取得部24は、レーダセンサ4により検出された物体の位置を含むレーダ検出情報を取得する機能を有している。具体的には、レーダ物体取得部24は、レーダセンサ4からの出力と同期してレーダ検出情報を受け取り、受け取ったレーダ検出情報をFSN生成部26に転送する。
 軸ずれ情報取得部36は、画像センサ2及びレーダセンサ4によりそれぞれ算出された軸ずれ方向及び軸ずれ量を示す軸ずれ情報を取得する機能を有している。具体的には、軸ずれ情報取得部36は、画像物体取得部22により取得した画像検出情報、ないしはレーダ物体取得部24により取得したレーダ検出情報から、軸ずれ情報を抽出し、抽出した軸ずれ情報を設定部40に転送する。
 車両情報取得部42は、自車両の速度・操舵角・ヨーレート・ピッチング角・ピッチング角速度等の検出情報をECU16から、自車両前方の道路形状を含む検出情報を画像センサ2及びナビゲーション装置6から、それぞれ取得する機能を有している。具体的には、車両情報取得部42は、車内LAN8から通信コントローラを経由して受信した検出情報を設定部40及び処理許可部38等に転送する。車両情報取得部42は、ナビゲーション装置6からの出力と同期して受け取った検出情報と、画像物体取得部22により取得した画像検出情報から抽出した車線情報と、をそれぞれ処理許可部38に転送する。
 FSN生成部26は、画像センサ2とレーダセンサ4とがそれぞれ有する別種の検出誤差を補完するために両者の検出結果について複合、統合、融合又は連合等のセンサフュージョンを行い、フュージョンされた物体の位置等を示す情報(以下「FSN情報」という)を生成する機能を有している。具体的には、FSN生成部26は、画像物体取得部22により取得した画像検出情報と、レーダ物体取得部24により取得したレーダ検出情報と、に基づいて生成したFSN情報を、到達位置算出部28及び重複領域抽出部34へ出力する。なお、FSN情報が生成できなかった場合は、その旨を示すフラグを重複領域抽出部34へ出力し、このフラグと共に画像検出情報及びレーダ検出情報の少なくとも一方の情報(詳細には、XY平面上に特定された物体の位置を含む情報)を到達位置算出部28へ出力する。
 FSN情報の生成方法においては、図3に示す例えば自車両の先端中央位置を原点とする車幅方向(即ち、横方向)をX軸並びに車長方向(即ち、前方方向)をY軸とした場合のXY平面上に、レーダ検出情報が示す物体の位置51と画像検出情報が示す物体の位置61とをそれぞれ特定する。つまり、物体の位置51,61はそれぞれ自車両の先端中央位置に対する相対位置として特定される。以下の説明では、レーダ検出情報が示す物体を「レーダ物体」、画像検出情報が示す物体を「画像物体」という。なお、X軸、Y軸及びXY平面は、説明の便宜上使用する用語であり、必ずしも車幅方向をX軸、車長方向をY軸としなければならないわけではなく、これと実質的に同一とみなせるその他の2軸及び2次元平面であってもよい。また、図3は、自車両の前方かつ右寄りに位置する物体の例であるが、その他に位置する物体についても同様に位置を特定することができる。
 次に、レーダ物体の位置51のX座標及びY座標を基準として、X座標及びY座標のそれぞれについて、レーダセンサ4の特性に基づき予め設定されている想定誤差分の幅を持たせた領域を、レーダ検出誤差領域50として設定する。例えば、レーダ物体の位置51を(Xr,Yr)、X座標の想定誤差を±EXr、Y座標の想定誤差を±EYrとすると、レーダ検出誤差領域50は、X座標の範囲がXr-EXr≦X≦Xr+EXr、Y座標の範囲がYr-EYr≦Y≦Yr+EYr、と表される。なお、レーダ検出誤差領域50の表し方は、これに限らず、例えばY座標の想定誤差と、後述する方位座標の想定誤差と、を用いて表してもよい。こうして設定されたレーダ検出誤差領域50を含むFSN情報は、重複領域抽出部34へ出力される。
 また一方で、画像物体の位置61のX座標及びY座標を基準として、X座標及びY座標のそれぞれについて、画像センサ2の特性に基づき予め設定されている想定誤差分の幅を持たせた領域を、画像検出誤差領域60として設定する。例えば、画像物体の位置61を(Yi,θi)、Y座標の想定誤差を±EYi、原点からの傾きを示す方位座標の想定誤差を±Eθiとすると、画像検出誤差領域60は、Y座標の範囲がYi-EYi≦Y≦Yi+EYi、方位座標の範囲がθi-Eθi≦θi≦θi+Eθi、と表される。なお、画像検出誤差領域60の表し方は、これに限らず、例えばX座標の想定誤差と、Y座標の想定誤差と、を用いて表してもよい。こうして設定された画像検出誤差領域60を含むFSN情報は、重複領域抽出部34へ出力される。
 そして、例えば、レーダ物体の位置51のY座標と、画像物体の方位と、で特定される位置70を、XY平面における同一物体の位置として特定する。なお、同一物体とは、レーダ検出誤差領域50と画像検出誤差領域60との位置関係によって、レーダ物体と画像物体とが同一であると判定できた物体である。こうして特定した物体の位置を含むFSN情報は、到達位置算出部28及び重複領域抽出部34へ出力される。
 到達位置算出部28は、FSN生成部26からFSN情報、画像検出情報又はレーダ検出情報を受け取り、受け取った情報に基づいて、自車両前方の物体の検出位置をメモリ14に時系列順に記憶し、こうして複数記憶した物体の検出位置を物体毎に読み出して、各物体の移動軌跡を算出する。つまり、FSN情報、画像検出情報及びレーダ検出情報のうち少なくとも一つの情報が示す物体の検出位置を基に、XY平面における物体の移動軌跡を算出する機能を有している。なお、移動軌跡は、複数の検出位置に基づいて算出されるXY平面上の直線又は曲線であり、例えば、各検出位置からの距離の2乗の平均値が最小となる近似直線または近似曲線である。
 また、到達位置算出部28は、こうして算出した移動軌跡を基に物体がX軸に到達するときの予測到達位置を算出する機能を有している。なお、予測到達位置は、自車両前方の物体が将来的に自車両の先端位置に到達したときに予測される横位置であり、具体的には、XY平面において図4に示す移動軌跡とX軸との交点(つまり、Y座標が0のときのX座標)によって算出される。こうして算出された予測到達位置を示す情報は、作動許可部30へ出力される。
 作動許可部30は、到達位置算出部28からの出力情報に基づいて、自車両前方の物体の予測到達位置が、図4に示す自車両の先端中央位置からX軸に沿って予め設定された作動対象幅の範囲内に属するか否かを判定する機能を有している。なお、作動対象幅は、自車両前方の物体について、PCSを作動させるための対象物体であるか否かを判定するために予め設定される規制値である。作動対象幅は、少なくとも自車両の車幅よりも大きく、例えば車幅に所定マージンを加えた値が通常の作動対象幅として設定されている。
 具体的には、作動許可部30は、予測到達位置が作動対象幅の範囲内に属すると判定した場合に、作動許可通知を衝突判定部32に対して行い、予測到達位置が作動対象幅の範囲外に属すると判定した場合に、作動禁止通知を衝突判定部32に対して行う。なお、作動許可部30は、例えば自車両の速度が0より大きい間(例えば、自動ブレーキの作動開始後であっても自車両が完全に停止するまでの間)、こうした判定及び通知を繰り返し行う。また、作動許可部30は、自動ブレーキ作動開始後の作動対象幅を拡大させる設定指令あるいは縮小させる設定指令を設定部40から受ける。これに従い、作動許可部30は、衝突判定部32から自動ブレーキ作動開始の通知を受けた際に、作動対象幅を変更するように構成されている。
 衝突判定部32は、自車両と物体との衝突判定を行い、その衝突判定結果に基づくタイミングで自動ブレーキの作動等に係る指令を出力する機能を有している。具体的には、衝突判定部32は、自車両前方の物体毎に例えば図5のフローチャートにより示される衝突判定処理をCPU12が行うことによって実現される。衝突判定処理の詳細については後述する。
 重複領域抽出部34は、FSN生成部26からFSN情報、画像検出情報又はレーダ検出情報を受け取り、このうち受け取ったFSN情報を基に、XY平面において、レーダ検出誤差領域50と画像検出誤差領域60とが重なり合う領域を重複領域として抽出する。重複領域抽出部34は、物体毎に抽出した重複領域を示す情報をメモリ14に時系列順に記憶する機能を有している。
 処理許可部38は、車両情報取得部42から検出情報及び車線情報を受け取り、受け取った情報に基づいて、自車両が直進中であるか否かを判定する。処理許可部38は、自車両が直進中であると判定した場合、設定部40による処理の実行を許可し、自車両が直進中でないと判定した場合、設定部40による処理の実行を停止する機能を有している。この判定は、自車両の操舵角及びヨーレートのうち少なくとも一方の情報に基づいて行ってもよいし、自車両前方の道路形状に基づいて行ってもよい。なお、処理許可部38は、自車両が直進中であると判定した場合、衝突判定部32による処理の実行を許可し、自車両が直進中でないと判定した場合、衝突判定部32による処理の実行を停止するようにしてもよい。
 設定部40は、重複領域抽出部34により抽出された重複領域の大きさに関する特徴量について、予め規定された特徴量条件が成立する場合に、自動ブレーキ作動開始後の作動許可部30における作動対象幅を拡大させる機能を有している。具体的には、設定部40は、自車両前方の物体毎に例えば図6のフローチャートにより示される対象幅設定処理をCPU12が行うことによって実現される。対象幅設定処理の詳細については後述する。
 以下、自動ブレーキ作動開始後の作動対象幅を拡大させる意義について、図7を用いて説明する。なお、図7は、例えば自車両前方において歩行者が自車両の走行車線を横断しているシーンを例示している。こうしたシーンにおいては、自車両が走行している場合、自車両から見て歩行者は自車両に向かってくるように写る。XY平面上において、歩行者の位置が地点P1からP3に移動した場合、その移動軌跡は当初、自車両の先端中央部付近に接近してくるものと予測される。
 ここで例えば、地点P3とP4との間で自動ブレーキの作動が開始した場合、急な減速により自車両が前下がりになる挙動変化が生じる。この挙動変化は、ピッチング運動の一種でノーズダイブと呼ばれる。またノーズダイブの発生後、サスペンションの作用等により自車両が前上がりになる挙動変化が生じることもある。これらのピッチング運動が発生すると、フロントウインドシールド等の自車両の前方部に設置された画像センサ2による前方画像の撮像領域も上下方向に変化するため、画像上の物体の下端位置の検出精度が悪化することになる。
 このため、本来であれば歩行者の位置が地点P3からP4a、P5aと移動することが予測される場合であっても、例えば画像上の物体の下端位置がY方向側にシフトして誤検出されてしまうと、自車両から見て歩行者の位置は地点P3からP4bに移動したように写る。こうした場合に、地点P1~P3及びP4bによって移動軌跡を算出すると、歩行者の予測到達位置P5bが通常の作動対象幅の範囲外に属することになり、その結果、横断中の歩行者がPCSの作動対象から外れることで、衝突判定が中止され、自動ブレーキが作動しない可能性が生じる。
 これに対し、自動ブレーキ作動開始後の作動対象幅を拡大させることにより、予測到達位置P5bが作動対象幅の範囲内に属することになるので、こうした問題に対処することが可能となる。ただし、如何なる場合においても作動対象幅を拡大させるのではなく、例えば地点P1~P3までの検出信頼性が高いと判断した場合に限って自動ブレーキ作動開始後の作動対象幅を拡大させる。これにより、他の原因に起因するシーンにおける不要な自動ブレーキの継続を抑制することも可能となる。
 なお、第1実施形態のレーダ物体取得部24、画像物体取得部22、到達位置算出部28、作動許可部30、重複領域抽出部34、及び設定部40は、それぞれ請求項記載のレーダ物体取得手段、画像物体取得手段、到達位置算出手段、作動許可手段、重複領域抽出手段、及び設定手段に対応する。また、処理許可部38は、請求項記載の処理許可手段に対応する。
 [1-2.処理]
 [1-2-1.衝突判定処理]
 次に、衝突判定部32が実行する衝突判定処理について、図5のフローチャートを用いて説明する。なお、本処理は、例えば自車両が完全に停止している状態から車速が所定速度を上回ると起動され、自車両が完全に停止すると終了する。
 本処理が起動すると、衝突判定部32は、作動許可に関する判定を行い(S110)、作動許可部30から作動許可通知が出されてから作動禁止通知を受け取っていない場合(S110;YES)、S120に移行する。また作動許可部30から作動禁止通知が出されてから作動許可通知を受け取っていない場合(S110;NO)には、次のステップに移行せずに待機する。
 そして、衝突判定部32は、S120において、タイムトゥコリジョン(以下「TTC(Time To Collision)」という)を算出する。TTCは、自車両前方の物体と自車両との距離を、自車両に対するその物体の相対速度で除算することにより求めることができる。なお、TTCは、自車両前方の物体に自車両が衝突する可能性を判定するための一つの指標であり、こうした衝突可能性をTTC以外の別の指標を用いて求めてもよい。
 次に、衝突判定部32は、TTCが第1閾値TTCよりも大きな値として予め規定された第2閾値TTC以下であるか否かを判定する(S121)。第1閾値TTCは、ドライバのブレーキ操作では自車両前方の物体との衝突が避けられない場合を想定した値であるのに対し、第2閾値TTCは、ドライバのブレーキ操作を促せば自車両前方の物体との衝突が避けられる場合を想定した値である。そして、衝突判定部32は、TTCが第2閾値TTC以下であると判定した場合(S121;YES)、警報の作動開始を指令するための指令情報を、車内LAN8を介してECU16に送信して(S122)、S130に移行し、TTCが第2閾値TTCを上回ると判定した場合(S121;NO)、次のステップに移行せずにS110に戻る。
 続いて、衝突判定部32は、TTCが予め規定された前記の第1閾値TTC以下であるか否かを判定し(S130)、TTCが第1閾値TTC以下であると判定した場合(S130;YES)、自動ブレーキの作動開始を指令するための指令情報を、車内LAN8を介してECU16に送信すると共に、自動ブレーキ作動開始の通知を作動許可部30に対して行う(S140)。なお、既に自動ブレーキの作動開始に関する指令情報を送信している場合には、自動ブレーキの作動継続を指令するための指令情報を、車内LAN8を介してECU16に送信する一方、自動ブレーキ作動開始の通知は行わない。そして、衝突判定部32は、自動ブレーキの作動時において、作動許可部30から作動禁止通知を受け取ったか否かを判定し(S150)、作動禁止通知を受け取った場合(S150;YES)、自動ブレーキの作動解除を指令するための指令情報を、車内LAN8を介してECU16に送信して(S160)、S110に戻る。一方、作動禁止通知を受け取っていない場合(S150;NO)、S140に戻り、自動ブレーキの作動を継続させる。
 [1-2-2.対象幅設定処理]
 次に、設定部40が実行する対象幅設定処理について、図6のフローチャートを用いて説明する。なお、本処理は、例えば自車両が完全に停止している状態から車速が所定速度を上回ると起動され、自車両が完全に停止すると終了する。
 本処理が起動すると、設定部40は、例えばPCSの作動対象である物体についての重複領域を示す情報をメモリ14から時系列順に読み出し、読み出した重複領域の面積が予め規定された閾値面積以上であるか否かを判定する(S210)。閾値面積は、FSN情報による検出信頼性が高いことを示す一つの指標として予め定められた面積である。なお、重複領域の大きさに関する指標として、重複領域の面積を求める代わりに、例えば図8(A)に示す重複領域の上辺から下辺の間のいずれかのX軸方向長さとY軸方向長さとの積を求めてもよい。重複領域の面積が閾値面積以上であると判定した場合、S220に移行し、重複領域の面積が閾値面積を下回ると判定した場合、次のステップに移行せずに待機する。
 次にS220では、S210において読み出した重複領域のY軸方向長さに関する今回値と前回値との変化量が、予め設定されたY軸閾値変化量以下であるか否かを判定する。Y軸閾値変化量は、自動ブレーキ作動開始後に、図8(B)に示す画像検出誤差領域60が上下いずれかの方向に変化することを予測して定められた許容変化量である。この変化量がY軸閾値変化量以下であると判定した場合、S230に移行し、この変化量がY軸閾値変化量を上回ると判定した場合、S210に戻る。
 次にS230では、S210において読み出した重複領域のX軸方向長さに関する今回値と前回値との変化量が、予め設定されたX軸閾値変化量以下であるか否かを判定する。X軸閾値変化量は、自動ブレーキ作動開始後であっても画像検出誤差領域60は左右方向にあまり変化しないことを予測して定められた許容変化量である。このため、X軸閾値変化量は、Y軸閾値変化量よりも小さい値として設定されている。換言すれば、Y軸閾値変化量は、X軸閾値変化量よりも大きい値として設定されている。この変化量がX軸閾値変化量以下であると判定した場合、S240に移行し、この変化量がY軸閾値変化量を上回ると判定した場合、S210に戻る。
 そしてS240では、自動ブレーキ作動開始後の作動対象幅を拡大させる設定指令を、作動許可部30に出力する。この設定指令は、通常の作動対象幅(即ち、初期値)に対して作動対象幅を拡大させる指令であり、例えば初期値に対して10%程度の幅を拡大させる量的情報が含まれている。
 このように、S210~S240では、重複領域の大きさに関する特徴量として、面積と、Y軸方向長さ及びX軸方向長さの変化量と、の双方に関する特徴量条件が成立する場合に、自動ブレーキ作動開始後の作動対象幅を拡大させている。これに限らず、面積と、Y軸方向長さ及びX軸方向長さの変化量と、の一方に関する特徴量条件が成立する場合には、自動ブレーキ作動開始後の作動対象幅を拡大させてもよい。
 続いてS250では、軸ずれ情報取得部36から軸ずれ情報を受け取り、受け取った軸ずれ情報に基づいて、画像センサ2及びレーダセンサ4の少なくとも一方に軸ずれが生じているか否かを判定する。軸ずれが生じていると判定した場合、S260に移行し、軸ずれが生じていないと判定した場合、S270に移行する。
 このうちS260では、S250における軸ずれ情報を基に、X軸閾値変化量及びY軸閾値変化量のうち、軸ずれ方向に対応する少なくとも一方の閾値変化量を軸ずれ量に応じて縮小させるように可変設定する。具体的には、図9(A)に示すように、軸ずれ量が大きいほど、X軸閾値変化量及び/又はY軸閾値変化量を小さい値に変更する。
 一方でS270では、車両情報取得部42から検出情報を受け取り、受け取った検出情報に基づいて、自車両のピッチング角又はピッチング角速度が所定値を上回るか否かを判定する。ピッチング角又はピッチング角速度が所定値を上回ると判定した場合、S280に移行し、ピッチング角又はピッチング角速度が所定値以下であると判定した場合、S210に戻る。
 S280では、S270における検出情報を基に、自車両のピッチング角又はピッチング角速度に応じてY軸閾値変化量を拡大させるように可変設定する。具体的には、図9(B)に示すように、ピッチング角又はピッチング角速度が大きいほど、Y軸閾値変化量を大きい値に変更する。
 [1-3.効果]
 以上詳述した第1実施形態によれば、以下の効果が得られる。
 (1a)画像センサ2及びレーダセンサ4のそれぞれに基づいて得られる物体の位置に関して、その検出誤差を含む重複領域の大きさを基に、自動ブレーキの作動開始後における作動対象幅を拡大させることで、自動ブレーキの作動を継続させ易くすることができる。このため、例えば自動ブレーキの作動開始前に物体の位置に関する検出信頼性が高い場合においては、自動ブレーキの作動によりその検出信頼性が一時的に低下するような状況になったとしても、設定時間の如何にかかわらず自動ブレーキの作動を安易に解除させないようにすることができる。また例えば、自動ブレーキの作動開始前に物体の位置に関する検出信頼性が低い場合においては、自動ブレーキの作動開始後における作動対象幅が拡大されないようにすることが可能となり、こうした状況下における自動ブレーキの作動を安易に継続させないようにすることができる。したがって、物体の位置に関する検出信頼性に応じて、自動ブレーキの作動を安易に解除させないようにしたり、安易に継続させないようにしたりすることにより、いわゆるブレーキ抜けと不要な自動ブレーキの継続とを好適に抑制することができる。
 (2a)対象幅設定処理において、特徴量として重複領域の面積が閾値面積以上であることを、作動対象幅を拡大させるための特徴量条件の成立要件としているため、物体の位置に関する検出信頼性を好適に評価した上で、作動対象幅を拡大させることができる。
 (3a)対象幅設定処理において、特徴量として重複領域におけるX軸方向長さ及びY軸方向長さの変化量がそれぞれX軸閾値変化量及びY軸閾値変化量以下であることを、作動対象幅を拡大させるための特徴量条件の成立要件としているため、物体の位置に関する検出信頼性をX軸及びY軸の双方で好適に監視した上で、作動対象幅を拡大させることができる。
 (4a)なお、Y軸閾値変化量がX軸閾値変化量よりも大きい値として設定されているため、自車両のピッチング運動による検出信頼性の低下を好適に吸収した上で、作動対象幅を拡大させることができる。
 (5a)対象幅設定処理において、例えばレーダセンサ4の軸ずれ量に応じて、軸ずれ方向に対応する閾値変化量を縮小させるため、自車両のピッチング運動以外の他の原因としてレーダセンサ4等の軸ずれに起因する検出信頼性の低下が生じた場合には、自動ブレーキの作動を安易に継続させ難くすることができる。
 (6a)対象幅設定処理において、自車両のピッチング角又はピッチング角速度に応じて、Y軸閾値変化量を拡大させるため、自車両のピッチング運動による検出信頼性の低下をより好適に吸収した上で、作動対象幅を拡大させ易くすることができ、ひいては自動ブレーキの作動を安易に解除させ難くすることができる。
 (7a)自車両が直進中である場合に、対象幅設定処理の実行を許可するため、自車両の挙動によって物体の移動軌跡の算出精度が変化することを好適に抑制した上で、作動対象幅を拡大させることができる。
[2.第2実施形態]
 [2-1.第1実施形態との相違点]
 第2実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。
 前述した第1実施形態では、対象幅設定処理において、軸ずれが生じていると判定した場合、並びにピッチング角又はピッチング角速度が所定値を上回ると判定した場合、X軸閾値変化量及び/又はY軸閾値変化量を可変設定していた。これに対し、第2実施形態では、こうした場合に作動対象幅を可変設定する点で、第1実施形態と相違する。
 [2-2.対象幅設定処理]
 次に、第2実施形態の設定部40が、第1実施形態の対象幅設定処理(図6)に代えて実行する対象幅設定処理について、図10のフローチャートを用いて説明する。なお、図10におけるS310~S350、S370及びS380の処理は、図6におけるS210~S250、S270及びS280の処理と同様であるため、説明を一部簡略化している。
 本処理が起動すると、設定部40は、例えばPCSの作動対象である物体についての重複領域を示す情報をメモリ14から時系列順に読み出し、読み出した重複領域の面積が予め規定された閾値面積以上であるか否かを判定する(S310)。
 次にS320では、S310において読み出した重複領域のY軸方向長さに関する今回値と前回値との変化量が、予め設定されたY軸閾値変化量以下であるか否かを判定する。この変化量がY軸閾値変化量以下であると判定した場合、S330に移行し、この変化量がY軸閾値変化量を上回ると判定した場合、S310に戻る。
 次にS330では、S310において読み出した重複領域のX軸方向長さに関する今回値と前回値との変化量が、予め設定されたX軸閾値変化量以下であるか否かを判定する。この変化量がX軸閾値変化量以下であると判定した場合、S340に移行し、この変化量がY軸閾値変化量を上回ると判定した場合、S310に戻る。
 そしてS340では、自動ブレーキ作動開始後の作動対象幅を拡大させる設定指令を、作動許可部30に出力する。
 続いてS350では、軸ずれ情報取得部36から軸ずれ情報を受け取り、受け取った軸ずれ情報に基づいて、画像センサ2及びレーダセンサ4の少なくとも一方に軸ずれが生じているか否かを判定する。軸ずれが生じていると判定した場合、S360に移行し、軸ずれが生じていないと判定した場合、S370に移行する。
 このうちS360では、S350における軸ずれ情報を基に、作動対象幅を軸ずれ量に応じて縮小させるように可変設定する。具体的には、図11(A)に示すように、軸ずれ量が大きいほど、作動対象幅を小さい値に変更する。詳細には、自動ブレーキ作動開始後の作動対象幅を縮小させる設定指令を、作動許可部30に出力する。この設定指令は、拡大された作動対象幅に対して作動対象幅を縮小させる指令であり、例えば通常の作動対象幅(即ち、初期値)を下限として指定された量的情報が含まれている。
 一方でS370では、車両情報取得部42から検出情報を受け取り、受け取った検出情報に基づいて、自車両のピッチング角又はピッチング角速度が所定値を上回るか否かを判定する。
 S380では、S370における検出情報を基に、自車両のピッチング角又はピッチング角速度に応じて作動対象幅を拡大させるように可変設定する。具体的には、図9(B)に示すように、ピッチング角又はピッチング角速度が大きいほど、作動対象幅を大きい値に変更する。詳細には、自動ブレーキ作動開始後の作動対象幅を拡大させる設定指令を、作動許可部30に出力する。この設定指令は、現在設定された作動対象幅に対して作動対象幅を拡大させる指令であり、例えば通常の作動対象幅(即ち、初期値)に対して20%程度の幅を拡大させることを上限として指定された量的情報が含まれている。
 [2-3.効果]
 以上詳述した第2実施形態によれば、前述した第1実施形態の効果(1a)-(2a)に加え、以下の効果が得られる。
 (1b)対象幅設定処理において、例えばレーダセンサ4の軸ずれ量に応じて作動対象幅を縮小させるため、自車両のピッチング運動以外の他の原因としてレーダセンサ4等の軸ずれに起因する検出信頼性の低下が生じた場合には、より効果的に自動ブレーキの作動を安易に継続させ難くすることができる。
 (2b)対象幅設定処理において、自車両のピッチング角又はピッチング角速度に応じて、作動対象幅を拡大させるため、自車両のピッチング運動による検出信頼性の低下をより好適に吸収した上で、より効果的に自動ブレーキの作動を安易に解除させ難くすることができる。
 [3.他の実施形態]
 以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されることなく、種々の形態を採り得る。
 (3A)上記実施形態では、対象幅設定処理において、画像センサ2及びレーダセンサ4の少なくとも一方に軸ずれが生じていると判定した場合に、閾値変化量ないしは作動対象幅を縮小させていたが、これに限定されるものではない。例えば、レーダセンサ4に軸ずれが生じていると判定した場合に限り、閾値変化量ないしは作動対象幅を縮小させてもよい。
 (3B)上記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてもよい。また、上記実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。
 (3C)上述した運転支援装置1の他、当該運転支援装置1を構成要素とするシステム、当該運転支援装置1としてコンピュータを機能させるための1ないし複数のプログラム、このプログラムの少なくとも一部を記録した1ないし複数の媒体、運転支援方法など、種々の形態で本発明を実現することもできる。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらの一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。
 1…運転支援装置、2…画像センサ、4…レーダセンサ、6…ナビゲーション装置、8…車内LAN、10…運転支援制御ユニット、12…CPU、14…メモリ、16…ECU、18…制御対象、22…画像物体取得部、24…レーダ物体取得部、26…FSN生成部、28…到達位置算出部、30…作動許可部、32…衝突判定部、34…重複領域抽出部、36…軸ずれ情報取得部、38…処理許可部、40…設定部、42…車両情報取得部、50…レーダ検出誤差領域、60…画像検出誤差領域。

Claims (18)

  1.  自車両前方に送信したレーダ波の反射波に基づいて検出された物体の位置を含む検出情報を取得するレーダ物体取得手段(24)と、
     自車両前方を撮像した画像に基づいて検出された物体の位置を含む検出情報を取得する画像物体取得手段(22)と、
     自車両の位置を基準とする車幅方向をX軸並びに車長方向をY軸とした場合のXY平面における物体の位置を、前記レーダ物体取得手段及び前記画像物体取得手段のうち双方あるいは一方により取得した検出情報に基づいて特定し、複数回特定した物体の位置を基に前記XY平面における物体の移動軌跡を算出して、算出した移動軌跡を基に物体が前記X軸に到達するときの予測到達位置を算出する到達位置算出手段(28)と、
     前記到達位置算出手段により算出した予測到達位置が、自車両の位置から前記X軸に沿って予め設定された作動対象幅の範囲内に属する場合に、自車両と物体との衝突判定に基づく自動ブレーキの作動を許可する作動許可手段(30)と、
     前記レーダ物体取得手段及び前記画像物体取得手段により取得した検出情報に含まれる物体の位置を基準とする検出誤差領域をそれぞれ前記XY平面上に設定し、設定した双方の検出誤差領域が重なり合う領域を重複領域として抽出する重複領域抽出手段(34)と、
     前記重複領域抽出手段により抽出した重複領域の大きさに関する特徴量について、予め規定された特徴量条件が成立する場合に、前記自動ブレーキの作動開始後の前記作動許可手段における作動対象幅を拡大させる対象幅設定処理(S210-S280,S310-S380)を行う設定手段(40)と、
     を備える運転支援装置。
  2.  請求項1に記載の運転支援装置であって、
     前記設定手段は、前記特徴量として前記重複領域の面積が予め規定された閾値面積以上であることを、前記特徴量条件の成立要件とする、運転支援装置。
  3.  請求項1又は請求項2に記載の運転支援装置であって、
     前記設定手段は、前記特徴量として前記重複領域におけるX軸方向長さ及びY軸方向長さの変化量がそれぞれ予め設定されたX軸閾値変化量及びY軸閾値変化量以下であることを、前記特徴量条件の成立要件とする、運転支援装置。
  4.  請求項3に記載の運転支援装置であって、
     前記Y軸閾値変化量は、前記X軸閾値変化量よりも大きい値として設定されている、運転支援装置。
  5.  請求項3又は請求項4に記載の運転支援装置であって、
     前記設定手段は、前記対象幅設定処理において、前記レーダ波を送信するレーダセンサ(4)、及び、前記画像を撮像する画像センサ(2)、のうち少なくとも一方のセンサに関する予め規定された基準軸に対する軸ずれ量に応じて、前記X軸閾値変化量及び前記Y軸閾値変化量のうち、前記基準軸からの軸ずれ方向に対応する少なくとも一方の閾値変化量を縮小させる閾値設定処理(S250-S260)を行う、運転支援装置。
  6.  請求項3から請求項5までのいずれか1項に記載の運転支援装置であって、
     前記設定手段は、前記対象幅設定処理において、自車両のピッチング角又はピッチング角速度に応じて、前記Y軸閾値変化量を拡大させるY軸閾値設定処理(S270-S280)を行う、運転支援装置。
  7.  請求項1から請求項6までのいずれか1項に記載の運転支援装置であって、
     前記設定手段は、前記対象幅設定処理において、前記レーダ波を送信するレーダセンサ、及び、前記画像を撮像する画像センサ、のうち少なくとも一方のセンサに関する予め規定された基準軸に対する軸ずれ量に応じて、前記作動対象幅を縮小させる処理(S350-S360)を行う、運転支援装置。
  8.  請求項1から請求項7までのいずれか1項に記載の運転支援装置であって、
     前記設定手段は、前記対象幅設定処理において、自車両のピッチング角又はピッチング角速度に応じて、前記作動対象幅を拡大させる処理(S370-S380)を行う、運転支援装置。
  9.  請求項1から請求項8までのいずれか1項に記載の運転支援装置であって、
     自車両が直進中である場合に、前記設定手段による処理の実行を許可する処理許可手段(38)、
     を更に備える運転支援装置。
  10.  自車両前方に送信したレーダ波の反射波に基づいて検出された物体の位置を含む検出情報を取得するレーダ物体取得工程(24)と、
     自車両前方を撮像した画像に基づいて検出された物体の位置を含む検出情報を取得する画像物体取得工程(22)と、
     自車両の位置を基準とする車幅方向をX軸並びに車長方向をY軸とした場合のXY平面における物体の位置を、前記レーダ物体取得工程及び前記画像物体取得工程のうち双方あるいは一方により取得した検出情報に基づいて特定し、複数回特定した物体の位置を基に前記XY平面における物体の移動軌跡を算出して、算出した移動軌跡を基に物体が前記X軸に到達するときの予測到達位置を算出する到達位置算出工程(28)と、
     前記到達位置算出工程により算出した予測到達位置が、自車両の位置から前記X軸に沿って予め設定された作動対象幅の範囲内に属する場合に、自車両と物体との衝突判定に基づく自動ブレーキの作動を許可する作動許可工程(30)と、
     前記レーダ物体取得工程及び前記画像物体取得工程により取得した検出情報に含まれる物体の位置を基準とする検出誤差領域をそれぞれ前記XY平面上に設定し、設定した双方の検出誤差領域が重なり合う領域を重複領域として抽出する重複領域抽出工程(34)と、
     前記重複領域抽出工程により抽出した重複領域の大きさに関する特徴量について、予め規定された特徴量条件が成立する場合に、前記自動ブレーキの作動開始後の前記作動許可工程における作動対象幅を拡大させる対象幅設定処理(S210-S280,S310-S380)を行う設定工程(40)と、
     を有する運転支援方法。
  11.  請求項10に記載の運転支援方法であって、
     前記設定工程は、前記特徴量として前記重複領域の面積が予め規定された閾値面積以上であることを、前記特徴量条件の成立要件とする、
     運転支援方法。
  12.  請求項10又は請求項11に記載の運転支援方法であって、
     前記設定工程は、前記特徴量として前記重複領域におけるX軸方向長さ及びY軸方向長さの変化量がそれぞれ予め設定されたX軸閾値変化量及びY軸閾値変化量以下であることを、前記特徴量条件の成立要件とする、
     運転支援方法。
  13.  請求項12に記載の運転支援方法であって、
     前記Y軸閾値変化量は、前記X軸閾値変化量よりも大きい値として設定されている、
     運転支援方法。
  14.  請求項12又は請求項13に記載の運転支援方法であって、
     前記設定工程は、前記対象幅設定処理において、前記レーダ波を送信するレーダセンサ(4)、及び、前記画像を撮像する画像センサ(2)、のうち少なくとも一方のセンサに関する予め規定された基準軸に対する軸ずれ量に応じて、前記X軸閾値変化量及び前記Y軸閾値変化量のうち、前記基準軸からの軸ずれ方向に対応する少なくとも一方の閾値変化量を縮小させる閾値設定処理(S250-S260)を行う、
     運転支援方法。
  15.  請求項12から請求項14までのいずれか1項に記載の運転支援方法であって、
     前記設定工程は、前記対象幅設定処理において、自車両のピッチング角又はピッチング角速度に応じて、前記Y軸閾値変化量を拡大させるY軸閾値設定処理(S270-S280)を行う、
     運転支援方法。
  16.  請求項11から請求項15までのいずれか1項に記載の運転支援方法であって、
     前記設定工程は、前記対象幅設定処理において、前記レーダ波を送信するレーダセンサ、及び、前記画像を撮像する画像センサ、のうち少なくとも一方のセンサに関する予め規定された基準軸に対する軸ずれ量に応じて、前記作動対象幅を縮小させる処理(S350-S360)を行う、
     運転支援方法。
  17.  請求項11から請求項16までのいずれか1項に記載の運転支援方法であって、
     前記設定工程は、前記対象幅設定処理において、自車両のピッチング角又はピッチング角速度に応じて、前記作動対象幅を拡大させる処理(S370-S380)を行う、
     運転支援方法。
  18.  請求項11から請求項17までのいずれか1項に記載の運転支援方法であって、
     自車両が直進中である場合に、前記設定工程による処理の実行を許可する処理許可工程(38)、
     を更に有する運転支援方法。
PCT/JP2016/065884 2015-05-29 2016-05-30 運転支援装置及び運転支援方法 WO2016194867A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/577,274 US10611367B2 (en) 2015-05-29 2016-05-30 Driving assistance device and driving assistance method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015109945A JP6409680B2 (ja) 2015-05-29 2015-05-29 運転支援装置、運転支援方法
JP2015-109945 2015-05-29

Publications (1)

Publication Number Publication Date
WO2016194867A1 true WO2016194867A1 (ja) 2016-12-08

Family

ID=57441237

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/065884 WO2016194867A1 (ja) 2015-05-29 2016-05-30 運転支援装置及び運転支援方法

Country Status (3)

Country Link
US (1) US10611367B2 (ja)
JP (1) JP6409680B2 (ja)
WO (1) WO2016194867A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017179469A1 (ja) * 2016-04-11 2017-10-19 株式会社デンソー 車両制御装置、及び車両制御方法
CN110435650A (zh) * 2019-08-22 2019-11-12 爱驰汽车有限公司 车辆后碰撞紧急避让方法、系统、设备及存储介质
CN114228707A (zh) * 2021-12-22 2022-03-25 广西科技大学 一种无人驾驶车辆的防撞方法及系统

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102256676B1 (ko) * 2015-02-06 2021-05-26 삼성전자주식회사 전파 기반 센서 모듈을 이용하는 센싱 장치 및 이동 단말을 포함하는 다목적 디바이스
JP6475543B2 (ja) * 2015-03-31 2019-02-27 株式会社デンソー 車両制御装置、及び車両制御方法
JP6663835B2 (ja) * 2016-10-12 2020-03-13 本田技研工業株式会社 車両制御装置
EP3543074B1 (en) * 2016-12-20 2024-01-03 Pioneer Corporation Accident determination device
WO2018129321A1 (en) * 2017-01-06 2018-07-12 Aurora Flight Sciences Corporation Collision-avoidance system and method for unmanned aircraft
JP6812894B2 (ja) * 2017-04-24 2021-01-13 トヨタ自動車株式会社 周辺監視装置
EP3413083B1 (en) * 2017-06-09 2020-03-11 Veoneer Sweden AB A vehicle system for detection of oncoming vehicles
JP6598885B2 (ja) * 2018-01-05 2019-10-30 三菱電機株式会社 物体認識装置および物体認識方法
JP7188894B2 (ja) * 2018-03-16 2022-12-13 株式会社デンソーテン レーダ装置及び信号処理方法
WO2020075689A1 (ja) * 2018-10-12 2020-04-16 京セラ株式会社 電子機器、電子機器の制御方法、及び電子機器の制御プログラム
US11993289B2 (en) 2019-05-23 2024-05-28 Hitachi Astemo, Ltd. Vehicle control system and vehicle control method
CN110378854B (zh) * 2019-07-17 2021-10-26 上海商汤智能科技有限公司 机器人图像增强方法及装置
JP7238670B2 (ja) * 2019-07-23 2023-03-14 トヨタ自動車株式会社 画像表示装置
CN110658503B (zh) * 2019-10-17 2022-03-01 北京百度网讯科技有限公司 用于修正雷达的测量角度的方法及装置
US11697412B2 (en) * 2019-11-13 2023-07-11 Zoox, Inc. Collision monitoring using statistic models
CN114730521A (zh) * 2019-11-13 2022-07-08 祖克斯有限公司 使用统计模型的碰撞监测
US11648939B2 (en) * 2019-11-13 2023-05-16 Zoox, Inc. Collision monitoring using system data
US11353544B2 (en) * 2019-12-18 2022-06-07 Continental Automotive Systems, Inc. Methods and systems for local to global frame transformation
US11681038B2 (en) * 2019-12-19 2023-06-20 Woven Planet North America, Inc. Reducing radar signal interference based on semi-random and random configuration
JP7276690B2 (ja) * 2019-12-27 2023-05-18 マツダ株式会社 車両制御装置
JP7226304B2 (ja) * 2019-12-27 2023-02-21 マツダ株式会社 車両制御装置
US20210339741A1 (en) * 2020-04-30 2021-11-04 Zoox, Inc. Constraining vehicle operation based on uncertainty in perception and/or prediction
US11852745B2 (en) * 2021-09-23 2023-12-26 Rockwell Collins, Inc. System and method to select and display prioritized azimuth slice vertical radar image

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014068669A1 (ja) * 2012-10-30 2014-05-08 トヨタ自動車株式会社 衝突回避支援装置及び衝突回避支援方法
JP2015046132A (ja) * 2013-08-29 2015-03-12 株式会社デンソー 衝突可能性判定装置およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4371115B2 (ja) * 2006-03-01 2009-11-25 トヨタ自動車株式会社 物体検出装置
JP4850963B1 (ja) * 2010-09-28 2012-01-11 富士重工業株式会社 車両の運転支援装置
JP5910434B2 (ja) * 2012-09-25 2016-04-27 トヨタ自動車株式会社 衝突予測装置
JP5905846B2 (ja) * 2013-03-29 2016-04-20 株式会社日本自動車部品総合研究所 横断判定装置およびプログラム
JP5812061B2 (ja) * 2013-08-22 2015-11-11 株式会社デンソー 物標検出装置およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014068669A1 (ja) * 2012-10-30 2014-05-08 トヨタ自動車株式会社 衝突回避支援装置及び衝突回避支援方法
JP2015046132A (ja) * 2013-08-29 2015-03-12 株式会社デンソー 衝突可能性判定装置およびプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017179469A1 (ja) * 2016-04-11 2017-10-19 株式会社デンソー 車両制御装置、及び車両制御方法
JP2017191382A (ja) * 2016-04-11 2017-10-19 株式会社デンソー 車両制御装置、及び車両制御方法
CN110435650A (zh) * 2019-08-22 2019-11-12 爱驰汽车有限公司 车辆后碰撞紧急避让方法、系统、设备及存储介质
CN114228707A (zh) * 2021-12-22 2022-03-25 广西科技大学 一种无人驾驶车辆的防撞方法及系统
CN114228707B (zh) * 2021-12-22 2023-04-25 广西科技大学 一种无人驾驶车辆的防撞方法及系统

Also Published As

Publication number Publication date
US20180354506A1 (en) 2018-12-13
US10611367B2 (en) 2020-04-07
JP2016224669A (ja) 2016-12-28
JP6409680B2 (ja) 2018-10-24

Similar Documents

Publication Publication Date Title
JP6409680B2 (ja) 運転支援装置、運転支援方法
JP6323402B2 (ja) 車線内走行制御装置、車線内走行制御方法
JP6462630B2 (ja) 物標検出装置
US10625735B2 (en) Vehicle control apparatus and vehicle control method
JPWO2017122552A1 (ja) 画像処理装置および方法、プログラム、並びに画像処理システム
US10940860B2 (en) Vehicle control device, vehicle control method, and storage medium
US11287879B2 (en) Display control device, display control method, and program for display based on travel conditions
US20200307569A1 (en) Vehicle control device, vehicle control method, and storage medium
WO2016047498A1 (ja) 物体検出装置
US20190009720A1 (en) Driving assistance device and driving assistance method
JP6699344B2 (ja) 逆走車検出装置、逆走車検出方法
JPWO2019142660A1 (ja) 画像処理装置および画像処理方法、並びにプログラム
US20230245468A1 (en) Image processing device, mobile object control device, image processing method, and storage medium
JP7027279B2 (ja) 車両制御装置、車両制御方法、およびプログラム
US20230112878A1 (en) Vehicle control device, vehicle control method, and storage medium
US20230114781A1 (en) Vehicle control device, vehicle control method, and storage medium
US12012100B2 (en) Driving support device, driving support method, and storage medium
US20240056694A1 (en) Imaging device, image processing method, and image processing program
CN112550263A (zh) 信息处理装置、车辆系统、信息处理方法及存储介质
JP2010146082A (ja) 画像処理装置
US11495029B2 (en) Estimation device, estimation method, and storage medium
JP7380171B2 (ja) 運転支援装置および運転支援プログラム
US11299171B2 (en) Driving support control device of vehicle, driving support system of vehicle, and driving support control method of vehicle
US20230115845A1 (en) Vehicle control device, vehicle control method, and storage medium
US20230115593A1 (en) Vehicle control device, vehicle control method, and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16803302

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16803302

Country of ref document: EP

Kind code of ref document: A1