WO2017138329A1 - 衝突予測装置 - Google Patents

衝突予測装置 Download PDF

Info

Publication number
WO2017138329A1
WO2017138329A1 PCT/JP2017/001985 JP2017001985W WO2017138329A1 WO 2017138329 A1 WO2017138329 A1 WO 2017138329A1 JP 2017001985 W JP2017001985 W JP 2017001985W WO 2017138329 A1 WO2017138329 A1 WO 2017138329A1
Authority
WO
WIPO (PCT)
Prior art keywords
target
host vehicle
collision prediction
detection target
radar
Prior art date
Application number
PCT/JP2017/001985
Other languages
English (en)
French (fr)
Inventor
崇弘 馬場
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to US16/076,199 priority Critical patent/US11348462B2/en
Publication of WO2017138329A1 publication Critical patent/WO2017138329A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/93185Controlling the brakes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Definitions

  • the present disclosure relates to a collision prediction apparatus that is mounted on a vehicle and predicts a collision between an object existing in front of the vehicle and the vehicle.
  • a vehicle is being equipped with a driving support device that avoids a collision accident caused by an object entering from the lateral direction toward the vehicle path.
  • a PCS system Pre-crash safety system
  • sensors such as cameras and radars are often used to detect objects.
  • the reliability of object detection may be reduced depending on the weather, brightness around the host vehicle, or the like.
  • the reliability is set according to the situation, and the reliability The lower the degree, the later the execution timing of driving assistance for collision mitigation. As a result, when the reliability is low and erroneous detection of an object is likely to occur, unnecessary driving support operation can be suppressed.
  • the object when detecting an object with a monocular camera, the object is often recognized by pattern matching. In this case, if the front of the object can be included in the image, the object can be accurately recognized. However, if the object is included in the image so as to include the side surface of the object, the object by pattern matching is different from the previously stored pattern. Recognition may be difficult. This problem occurs, for example, when the object changes the course to the left or right when the object is taking a course in a direction opposite to the course of the host vehicle. When the collision prediction between the host vehicle and the object is performed, the problem is that it becomes difficult to detect the object by pattern matching because the route is changed to the side where the object approaches the host vehicle.
  • the present disclosure has been made to solve the above-described problem, and its main purpose is to suppress a delay in driving support operation in a scene where a target (object) and the host vehicle are predicted to collide.
  • Another object of the present invention is to provide a collision prediction device capable of satisfying both unnecessary driving support operation suppression.
  • the present disclosure obtains reflection information based on the reflected wave from a radar device that transmits a survey wave forward of the traveling direction of the host vehicle and receives the reflected wave reflected by the target, while the traveling of the host vehicle
  • a collision prediction device that acquires image information from an imaging device that images in front of a direction, and a radar detection object that detects a position of a radar detection target that is a target detected by the reflection information acquired from the radar device
  • a target position detection unit, a pattern matching execution unit that detects a target by collating a feature point extracted from the image information acquired from the imaging device with a prestored pattern, and detected by the pattern matching execution unit
  • An image detection target position detection unit for detecting a position of an image detection target that is a target, and a positional relationship between the radar detection target and the image detection target is a predetermined relationship;
  • the radar target and the image detection target are determined to be the same target, and the radar target and the image detection target are determined by the same target determination unit.
  • a collision prediction unit that predicts whether or not the vehicle collides with the same target, and the target and the host vehicle are A support execution unit that implements a travel support that suppresses a collision between the host vehicle and the target when it is predicted to collide, and the collision prediction unit moves the target in a direction approaching the host vehicle.
  • the radar detection target detected by the radar detection target position detection unit is used as the target with the subject vehicle on the condition that the image detection target cannot be detected by the pattern matching execution unit. collide To predict whether or not.
  • the same target determination unit will not be able to detect the same target because the image detection target can no longer be detected.
  • the determination of the image detection target by the pattern matching execution unit so far is not a false determination, but the side of the execution target of the collision prediction. Is included in the image information, it is considered that pattern matching has become difficult. That is, there is a high possibility that the radar detection target detected by the radar apparatus is a target that should originally be determined as the same target.
  • the collision prediction unit predicts the radar detection target on the condition that the target of the collision prediction is bent in a direction approaching the host vehicle and the image detection target cannot be detected by the pattern matching execution unit. It is predicted whether or not the vehicle will collide with the subject vehicle. As a result, the radar detection target is likely to be the same target as the original target, so the reliability of the collision prediction can be ensured, and the unnecessary driving support operation can be suppressed. it can. In addition, even if the image detection target is not detected and the target is not determined to be the same target, the collision detection is performed on the radar detection target, thereby suppressing the operation delay of the driving support by the support execution unit. it can.
  • FIG. 1 is a schematic configuration diagram of a driving support device according to the present embodiment.
  • FIG. 2 is a diagram illustrating a situation in which it is difficult to detect an image detection target by pattern matching.
  • FIG. 3 is a control flowchart executed by the detection ECU according to the present embodiment.
  • the travel support device 100 is mounted on a vehicle (own vehicle), detects a target existing around the front of the traveling direction of the own vehicle, and performs driving support control.
  • This driving support control functions as a PCS system that performs control to avoid collision with a target or to reduce collision damage.
  • the travel support device 100 also functions as a collision prediction device according to the present embodiment.
  • the travel support device 100 is configured by a detection ECU 10, a radar device 21, and an imaging device 22.
  • the radar device 21 is, for example, a known millimeter wave radar that uses a high frequency signal in the millimeter wave band as a transmission wave.
  • the radar device 21 is a detection that is provided at the front end of the host vehicle and that can detect a target within a predetermined detection angle.
  • the position of the target within the detection range (referred to as a radar detection target) is detected.
  • an exploration wave is transmitted at a predetermined period, and a reflected wave is received by a plurality of antennas.
  • the distance from the radar detection target is calculated from the transmission time of the exploration wave and the reception time of the reflected wave. Further, the relative velocity is calculated from the frequency of the reflected wave reflected by the radar detection target, which is changed by the Doppler effect.
  • the azimuth of the radar detection target is calculated from the phase difference of the reflected waves received by the plurality of antennas. If the position and orientation of the radar detection target can be calculated, the relative position of the radar detection target with respect to the host vehicle can be specified.
  • the radar device 21 performs transmission of the exploration wave, reception of the reflected wave, calculation of the reflection position and relative velocity at predetermined intervals, and transmits the calculated reflection position and relative velocity to the detection ECU 10.
  • the imaging device 22 is assumed to be a monocular camera.
  • the imaging device 22 is attached at a predetermined height in the center in the vehicle width direction of the host vehicle, and thereby images a region that extends in a predetermined angle range toward the front of the host vehicle from an overhead viewpoint. Then, the captured image information is transmitted to the detection ECU 10.
  • the imaging device 22 may be a stereo camera, a CCD camera, or the like.
  • the detection ECU 10 is a computer that includes a CPU 11, a RAM 12, a ROM 13, an I / O, and the like.
  • the detection ECU 10 realizes each function by the CPU 11 executing a program installed in the ROM 13.
  • the detection ECU 10 includes a radar detection target position detection unit, a pattern matching execution unit, an image detection target position detection unit, an identical target determination unit, a collision prediction unit, a support execution unit, and a determination processing execution unit. It corresponds to.
  • a plurality of programs installed in the ROM 13 specifically, a pattern matching program, a determination program, a prediction program, and a driving support program.
  • the pattern matching program detects the luminance in the image information transmitted by the imaging device 22, and performs pattern matching with a predetermined target template based on the detected luminance. Specifically, the target template is moved in the vertical and horizontal directions by a minute amount in a predetermined order on the image, and pattern matching is performed at each position. Pattern matching at each position refers to determination processing for calculating the degree of matching between the luminance of the image at that position and the luminance of the target template and determining whether the calculated degree of matching is greater than a reference value. .
  • the target template is a typical shape pattern on the front and back of the target target, and is stored in the ROM 13 or the like.
  • the side surface of the target is not stored as a target template. This is because, for example, a target such as a truck having a large area on the side surface has a wide variety of shape patterns on the side surface, and all of the side surfaces of the target that are subject to collision prediction are included and stored. This is because the shape pattern stored as the target template may be excessive.
  • the determination program determines whether or not each target indicates the same target based on the information on the radar detection target and the information on the image detection target.
  • the radar detection target position that is a position obtained from the radar detection target and the image detection target position that is a position obtained from the image detection target detected by pattern matching are located in the vicinity. Corresponding things are based on the same target.
  • the image detection target position exists in the vicinity of the radar detection target position (in this embodiment, the distance between the target between the radar detection target position and the image detection target position falls within a predetermined range)
  • the target actually exists at the position of the radar target.
  • This state in which the position of the target can be accurately acquired by the radar device 21 and the imaging device 22 is referred to as a fusion state.
  • a target determined to be in the fusion state it is determined that a target (hereinafter referred to as the same target) exists at that position.
  • the prediction program calculates an approximate straight line, for example, by fitting the relative positions of multiple identical targets detected in the past using a least-squares method when it is determined by the determination program that the same target exists. To do. Then, the position where the calculated approximate straight line overlaps with the host vehicle is calculated as the predicted collision position. When it is determined that the relative distance between the predicted collision position calculated by the prediction program and the target is shorter than the predetermined distance, the driving support program performs a specified driving support process.
  • the prediction program detects the relative position of the target detected by the one device.
  • An approximate straight line is calculated by fitting a straight line by a least square method or the like. Then, the position where the calculated approximate straight line overlaps with the host vehicle is calculated as the predicted collision position.
  • the driving support program performs a specified driving support process. At this time, the execution timing of the driving support process is delayed by correcting the predetermined distance to be shorter as the detection reliability of the target is lower than the target determined by the determination program.
  • This predetermined distance correction method depending on the detection reliability is based on the conventional technology.
  • the driving support processing corresponds to alarm processing for notifying the driver that there is a target that may collide in front of the host vehicle and braking processing for braking the host vehicle. Therefore, the host vehicle is provided with an alarm device 31 and a brake device 32 as a safety device that is driven by a control command from the detection ECU 10.
  • the alarm device 31 is a speaker or a display installed in the passenger compartment of the host vehicle.
  • TTC Time-to-collation
  • the detection ECU 10 has a collision allowance time (TTC: Time-to-collation), which is an allowance time until the host vehicle collides with the target, shorter than the first predetermined time, and the host vehicle may collide with the target. Assume that it is determined that the price has increased.
  • the alarm device 31 outputs an alarm sound, an alarm message or the like to notify the driver of the danger of collision.
  • the brake device 32 is a braking device that brakes the host vehicle.
  • the detection ECU 10 determines that the possibility that the own vehicle has collided with the target has increased because the collision margin time is shorter than the second predetermined time set to be shorter than the first predetermined time, the detection ECU 10
  • the brake device 32 is actuated by the control command. Specifically, the braking force with respect to the brake operation by the driver is increased (brake assist function), or automatic braking is performed if the brake operation is not performed by the driver (automatic brake function).
  • the detection ECU 10 detects an image detection target by performing pattern matching with a target template determined in advance based on image information transmitted by the imaging device 22.
  • the target since the shape pattern stored as the target template is the front or back of the target, the target can be accurately detected if the front or back of the target can be included in the image.
  • the image is included so that the side surface of the target is included, the target side surface is not stored as a target template, and thus there is a possibility that target recognition by pattern matching becomes difficult.
  • the problem is that the target is closer to the host vehicle even though there is a target ahead in the direction opposite to the path of the host vehicle. Since the course has been changed to the above, it becomes a problem particularly when the side surface of the target is included in the image captured by the imaging device 22. In such a situation, since it becomes difficult to detect the image detection target by pattern matching, the driving support program is executed based on the position information of the radar detection target. In this case, since the detection reliability is reduced as compared with the case where the target is determined as the same target, the control for delaying the prescribed driving support operation is performed by correcting the predetermined distance to be shorter.
  • the detection ECU 10 targets the radar detection target on the condition that the same target bends in the direction approaching the host vehicle and the image detection target cannot be detected by pattern matching.
  • the collision prediction with the own vehicle is carried out. This makes it possible to ensure the accuracy of collision prediction.
  • the collision predicted position is calculated from an approximate straight line obtained by approximating the relative position of a target that bends in the direction approaching the host vehicle by linear fitting, there is a concern that the error of the predicted collision position becomes large. Therefore, an approximate curve is calculated by approximating the relative position of a target that is bent in the direction approaching the host vehicle with a plurality of host vehicles calculated in the past by curve fitting, and collision occurs based on the calculated approximate line. Calculate the predicted position. Thereby, it is possible to suppress an increase in the calculation error of the predicted collision position.
  • this control is performed only for oncoming vehicles (including motorcycles and bicycles) traveling in an oncoming lane ahead in the traveling direction of the host vehicle.
  • the target is a person, for example, unlike a car or the like, there are few side patterns, so it is possible to store the person's side as a target template. Therefore, even if the image of the target (person) is included in the image captured by the imaging device 22, the target can be detected by pattern matching by storing the human side as a target template in advance. Is possible. Also, the difference between the front and side of a person is not as great as the difference between the front and side of the vehicle. That is, even if the target bends in the direction approaching the host vehicle, the target can be detected by pattern matching.
  • the collision prediction between the radar detection target and the own vehicle is performed only for the oncoming own vehicle traveling in the opposite lane ahead of the own vehicle in the traveling direction.
  • the collision prediction process of FIG. 3 is repeatedly executed at a predetermined cycle by the detection ECU 10 while the detection ECU 10 is powered on.
  • step S100 the radar device 21 detects a target existing in front of the host vehicle as a radar detection target.
  • step S110 the imaging device 22 images the front of the host vehicle, and pattern matching is performed on the feature points extracted from the captured image to detect the image detection target.
  • step S120 it is determined whether or not the radar detection target and the image detection target detected in step S100 and step S110 are the same target.
  • the process proceeds to step S130.
  • step S130 it is determined whether or not the target determined as the same target is an oncoming vehicle traveling in the oncoming lane. Specifically, the ground speed of the target is calculated from the relative speed of the radar detection target calculated by the radar device 21 and the speed of the host vehicle, and the target ground speed is negative when the calculated ground speed is a negative value. It is determined that the mark has taken a course in a direction opposite to the course of the host vehicle. The ground speed in the traveling direction of the host vehicle is positive. And when it is determined that the target determined as the same target is taking a course in a direction opposite to the course of the host vehicle, whether or not the target is matched with the vehicle stored as the target template. Determine whether.
  • step S140 when it is determined that the target matches the vehicle stored as the target template, it is determined that the target determined to be the same target is an oncoming vehicle traveling in the oncoming lane.
  • the radar detection target is an oncoming vehicle traveling in the oncoming lane (S130: YES)
  • the process proceeds to step S140.
  • step S140 it is determined whether the radar detection target and the image detection target can be determined to be the same target.
  • the radar detection target and the image detection target are the same as the number of identical target determinations performed. It is determined whether the ratio determined to be a target is higher than a predetermined ratio. When the ratio that the radar detection target and the image detection target are determined to be the same target becomes higher than a predetermined ratio, the radar detection target and the image detection target are the same target. Determine. If it is determined that the radar detection target and the image detection target may be determined to be the same target (S140: YES), the process proceeds to step S150.
  • step S150 a line approximating the relative positions of the same target detected in the past draws an arc on the side approaching the host vehicle, and whether or not the approximate line passes near the host vehicle including the host vehicle. Determine.
  • step S160 when it is determined that a line approximating the relative position of the same target detected in the past draws an arc on the side approaching the host vehicle and the approximate line passes through the vicinity of the host vehicle including the host vehicle ( (S150: YES), the process proceeds to step S160.
  • step S160 when it is no longer possible to detect an image detection target by pattern matching for an oncoming vehicle that is determined to be the same target and approaches the host vehicle, a collision prediction with the host vehicle is performed only for the radar detection target.
  • step S180 it is determined whether or not the image detection target cannot be detected by pattern matching. If it is determined that the image detection target can no longer be detected (S180: YES), the process proceeds to step S190.
  • step S190 it is determined whether or not the permission flag is set to ON.
  • the process proceeds to step S200, and a special operation determination of the driving support process is performed only on the radar detection target.
  • This process includes the execution of a collision prediction process with the host vehicle and a driving support process.
  • the relative positions of a plurality of radar detection targets calculated in the past are approximated by curve fitting, and the predicted collision position is calculated based on the approximated approximate curve. Then, it is determined whether or not the calculated relative distance between the predicted collision position and the target is shorter than a predetermined distance. These processes correspond to the collision prediction process.
  • the prescribed driving support process is executed. This predetermined distance is set to the same distance as the predetermined distance that is set when the operation determination of the driving support process is performed on the target having the same target determination.
  • the permission flag is reset (the permission flag is set to OFF), and this control is terminated.
  • step S220 When it is determined that the image detection target can still be detected (S180: NO), or when it is determined that the permission flag is set to OFF (S190: NO), the process proceeds to step S220.
  • the normal operation determination of the driving support process is performed. This process includes the execution of a collision prediction process with the host vehicle and a driving support process.
  • the target is detected from only one of the radar device 21 and the imaging device 22, and the same target cannot be determined.
  • the collision prediction position is calculated from the target information detected by one device, the predetermined distance is corrected based on the detection reliability of the detected target, and the normal operation determination of the driving support process is performed.
  • the prescribed driving support process is performed. And this control is complete
  • this embodiment has the following effects.
  • the radar target collides with the host vehicle as a target for collision prediction, provided that the target bends in the direction approaching the host vehicle and the image detection target cannot be detected by pattern matching. Is predicted.
  • the radar detection target is likely to be the same target as the original target, so the reliability of the collision prediction can be ensured, and the unnecessary driving support operation can be suppressed. it can.
  • the collision prediction is performed on the radar detection target, so that the operation delay of the driving support process can be suppressed.
  • the predetermined distance set in this operation determination is the operation determination of driving support processing for targets with the same target determination Is set to the same distance as the predetermined distance set in the case of carrying out Thereby, it becomes possible to suppress the operation delay of the driving support process.
  • the radar When it is determined that the target is the same target, the radar must bend when the target bends in the direction approaching the host vehicle and the image detection target cannot be detected by pattern matching.
  • a collision prediction with the own vehicle is performed on the detected target. Therefore, even when the collision detection with the host vehicle is performed on the radar detection target, it is possible to improve the accuracy of the collision prediction, and it is possible to suppress unnecessary execution of the driving support process.
  • the present control can be performed in a place where there are many situations where a target bends in a direction approaching the host vehicle, such as an intersection.
  • Determining whether a line approximating the relative position of the same target detected multiple times in the past draws an arc on the side approaching the host vehicle, and whether the approximate line passes near the host vehicle including the host vehicle To be implemented.
  • the radar detection target and the image detection target are the same target. It was confirmed that. About this, it is not necessary to set the condition for determining that it is the same target as the case where the probability determined to be the same target becomes higher than a predetermined ratio.
  • the same target may be determined when the number of times that the same target has been determined in the past has been greater than a predetermined number.
  • the same target determination is performed a plurality of times, and it is determined whether or not it is possible to determine that the radar detection target and the image detection target are the same target. In this regard, it is not always necessary to determine whether or not the radar detection target and the image detection target may be determined to be the same target.
  • the predetermined distance set in the special operation determination of the driving support process is a predetermined distance set when the operation determination of the driving support process is performed on the target that has been determined as the same target. It was set to the same distance.
  • the predetermined distance set in the special operation determination of the driving support process is longer than the predetermined distance set when the operation determination of the driving support process is performed on the target having the same target determination. It may be set.
  • the predetermined distance set in the special operation determination of the driving support process is the predetermined distance set when the operation determination of the driving support process is performed on the target for which the same target is determined. Is set longer. For this reason, in consideration of a possibility that an error occurs in the position of the radar detection target, it is possible to execute the driving support at an early stage, so that the collision between the target and the vehicle can be suppressed more safely.
  • the prescribed travel support process when the relative distance between the calculated predicted collision position and the target is shorter than a predetermined distance, the prescribed travel support process is executed.
  • the collision allowance time may be calculated based on the relative distance between the predicted collision position and the target, and the prescribed driving support process may be performed when the collision allowance time is shorter than a predetermined time.

Abstract

衝突予測装置(10)であって、レーダ検出物標位置検出部と、パターンマッチングにより画像検出物標を検出するパターンマッチング実施部と、画像検出物標位置検出部と、両物標の位置関係が所定関係となった場合に、レーダ検出物標と画像検出物標とは同一物標であることを判定する同一物標判定部と、同一物標を対象として自車両と衝突するか否かを予測する衝突予測部と、自車両との衝突予測が実施された場合に、走行支援を実施させる支援実施部と、を備え、衝突予測部は、対象が自車両に近づく方向に曲がり、且つ、画像検出物標の検出ができなくなったことを条件として、レーダ検出物標を対象として自車両と衝突するか否かを予測する衝突予測装置。

Description

衝突予測装置 関連出願の相互参照
 本出願は、2016年2月9日に出願された日本出願番号2016-022654号に基づくもので、ここにその記載内容を援用する。
 本開示は、車両に搭載され、車両の前方に存在する物体と車両との衝突を予測する衝突予測装置に関する。
 近年、センサやデータ処理の高度化に伴って、車両の進路に向かって横方向から物体が進入することで生じる衝突事故を未然に回避する走行支援装置を車両に搭載することが行われつつある。この走行支援装置として、運転者に警報したり、自動ブレーキを実施させたりするPCSシステム(Pre-crash safety system)が知られている。
 PCSシステムでは、物体の検出に、カメラやレーダ等のセンサを用いられることが多い。このセンサの信頼性は、天候や自車両周囲の明るさなどによって、その物体検出の信頼性が低下する場合がある。特許文献1に記載の技術では、カメラ及びレーダから対象物(物体)を検出できたか、あるいはその一方のセンサでのみ対象物を検出できたかで、その状況に応じた信頼度を設定し、信頼度が低いほど衝突緩和のための走行支援の実施タイミングを遅らせる。これにより、信頼度が低く対象物の誤検出が生じ易い場合には、不要な走行支援の作動を抑制することができる。
特開2014-222462号公報
 例えば単眼カメラにより物体検出を行う場合、パターンマッチングにより物体を認識することが多い。この場合、物体の正面を画像に収めることが出来れば、正確に物体を認識することが出来るが、物体の側面を含むように画像に収まると、予め記憶されたパターンと異なり、パターンマッチングによる物体認識が困難となるおそれがある。この問題は、例えば物体が自車両の進路に対して対向する方向に進路を取っている場合に、物体が進路を左右どちらかに変更することで発生する。自車両と物体の衝突予測を行う場合には、物体が自車両に近づく側に進路を変更したことでパターンマッチングによる物体検出が困難となることが特に問題となる。このような状況では、物体と自車両とが衝突するおそれがあるため、走行支援の作動を遅延させることは望ましくない。一方、物体検出の信頼度が低い状態で走行支援を作動させると、不要な走行支援の作動が増加する。
 本開示は、上記課題を解決するためになされたものであり、その主たる目的は、物標(物体)と自車両が衝突することが予測された場面において、走行支援の作動遅延を抑制することと、不要な走行支援の作動を抑制することとを両立可能な衝突予測装置を提供することにある。
 本開示は、自車両の進行方向前方に探査波を送信し、物標により反射された反射波を受信するレーダ装置からその反射波に基づく反射情報を取得し、その一方で前記自車両の進行方向前方を撮像する撮像装置から画像情報を取得する衝突予測装置であって、前記レーダ装置から取得された前記反射情報により検出された物標であるレーダ検出物標の位置を検出するレーダ検出物標位置検出部と、前記撮像装置から取得した前記画像情報から抽出した特徴点と予め記憶されたパターンとの照合により物標を検出するパターンマッチング実施部と、前記パターンマッチング実施部により検出された物標である画像検出物標の位置を検出する画像検出物標位置検出部と、前記レーダ検出物標と前記画像検出物標との位置関係が所定関係となった場合に、前記レーダ検出物標と前記画像検出物標とは同一物標であることを判定する同一物標判定部と、前記同一物標判定部により前記レーダ検出物標と前記画像検出物標とは同一物標であると判定された場合に、前記同一物標を対象として前記自車両と衝突するか否かを予測する衝突予測部と、前記衝突予測部により前記対象と前記自車両とが衝突すると予測された場合に、前記自車両と前記物標との衝突を抑制する走行支援を実施させる支援実施部と、を備え、前記衝突予測部は、前記対象が前記自車両に近づく方向に曲がり、且つ、前記パターンマッチング実施部による前記画像検出物標の検出ができなくなったことを条件として、レーダ検出物標位置検出部により検出された前記レーダ検出物標を前記対象として前記自車両と衝突するか否かを予測する。
 今まで同一物標判定部により同一物標であると判定されたにも関わらず、ある時から画像検出物標が検出できなくなることで、同一物標判定部により同一物標の判定がされなくなった場合を想定する。この際、衝突予測の実施対象が自車両に近づく方向に曲がっていれば、今までのパターンマッチング実施部による画像検出物標の判定が誤判定であるのではなく、衝突予測の実施対象の側面が画像情報に含まれることでパターンマッチングが困難となったと考えられる。つまり、依然レーダ装置により検出されるレーダ検出物標は本来同一物標と判定されるべき物標である可能性が高い。したがって、衝突予測部により、衝突予測の実施対象が自車両に近づく方向に曲がり、且つ、パターンマッチング実施部による画像検出物標の検出ができなくなったことを条件として、レーダ検出物標を衝突予測の実施対象として自車両と衝突するか否かが予測される。これにより、レーダ検出物標が本来同一物標と判定すべき物標である可能性が高いことから衝突予測の信頼度を確保することができ、ひいては不要な走行支援の作動を抑制することができる。また、画像検出物標が検出されず同一物標と判定されなくなっても、レーダ検出物標を対象として衝突予測が実施されることで、支援実施部による走行支援の作動遅延を抑制することができる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、本実施形態に係る走行支援装置の概略構成図であり、 図2は、パターンマッチングによる画像検出物標の検出が困難となる状況を示す図であり、 図3は、本実施形態に係る検出ECUが実施する制御フローチャートである。
 図1に記載の走行支援装置100は、車両(自車両)に搭載され、自車両の進行方向前方等の周囲に存在する物標を検知し、走行支援制御を実施する。この走行支援制御は、物標との衝突を回避すべく、若しくは衝突被害を軽減すべく制御を行うPCSシステムとして機能する。また、この走行支援装置100は、本実施形態に係る衝突予測装置としても機能する。
 図1において、走行支援装置100は、検出ECU10、レーダ装置21、及び撮像装置22とから構成されている。
 レーダ装置21は、例えば、ミリ波帯の高周波信号を送信波とする公知のミリ波レーダであり、自車両の前端部に設けられ、所定の検知角に入る領域を物標を検知可能な検知範囲とし、検知範囲内の物標(レーダ検出物標と呼称)の位置を検出する。具体的には、所定周期で探査波を送信し、複数のアンテナにより反射波を受信する。この探査波の送信時刻と反射波の受信時刻とにより、レーダ検出物標との距離を算出する。また、レーダ検出物標に反射された反射波の、ドップラー効果により変化した周波数により、相対速度を算出する。加えて、複数のアンテナが受信した反射波の位相差により、レーダ検出物標の方位を算出する。なお、レーダ検出物標の位置及び方位が算出できれば、そのレーダ検出物標の、自車両に対する相対位置を特定することができる。レーダ装置21は、所定周期毎に、探査波の送信、反射波の受信、反射位置及び相対速度の算出を行い、算出した反射位置と相対速度とを検出ECU10に送信する。
 本実施形態において、撮像装置22は、単眼カメラを想定している。この場合、撮像装置22は、自車両の車幅方向中央の所定高さに取り付けられることで、自車両前方へ向けて所定角度範囲で広がる領域を俯瞰視点から撮像する。そして、撮像した画像情報を検出ECU10に送信する。なお、撮像装置22は、ステレオカメラ、CCDカメラ等であってもよい。
 検出ECU10には、レーダ装置21と撮像装置22とが接続されている。検出ECU10は、CPU11、RAM12、ROM13、I/O等を備えたコンピュータである。この検出ECU10は、CPU11が、ROM13にインストールされているプログラムを実行することで各機能を実現する。検出ECU10は、レーダ検出物標位置検出部と、パターンマッチング実施部と、画像検出物標位置検出部と、同一物標判定部と、衝突予測部と、支援実施部と、判定処理実行部とに該当する。
 本実施形態において、ROM13にインストールされているプログラムは複数あり、具体的にはパターンマッチングプログラムと、判定プログラムと、予測プログラムと、走行支援プログラムと、がある。
 パターンマッチングプログラムは、撮像装置22により送信された画像情報内の輝度を検出し、検出した輝度に基づいて、予め定められた物標テンプレートとのパターンマッチングを行う。具体的には、画像上において所定の順序で微小量ずつ縦方向及び横方向に物標テンプレートを動かし、各位置においてパターンマッチングを行う。各位置におけるパターンマッチングとは、その位置における画像の輝度と物標テンプレートの輝度との一致の度合いを算出し、算出した一致の度合いが基準値よりも大きいか否かを判定する判定処理を指す。この判定処理にて、その位置における画像内の輝度と物標テンプレートの輝度との一致の度合いが基準値よりも大きいと判定した場合に、物標テンプレートと適合(マッチング)する輝度情報を有する箇所が画像内に存在すると判定し、その箇所を画像検出物標として検出する。
 物標テンプレートは、対象となる物標の正面や背面の典型的な形状パターンであって、ROM13などに格納されている。このとき、物標の側面は物標テンプレートとして記憶されない。これは、例えばトラックなどの側面の面積が大きい物標では、その側面の形状パターンが多岐に渡る傾向にあり、それらを含め衝突予測の対象となる物標の全ての側面も含めて記憶するとなると、物標テンプレートとして記憶させる形状パターンが過剰に多くなるおそれがあるためである。
 判定プログラムは、レーダ検出物標の情報と画像検出物標の情報とに基づいて、それぞれの物標が同一の物標を示しているのか否かを判定する。具体的には、レーダ検出物標から得られる位置であるレーダ検出物標位置と、パターンマッチングにより検出された画像検出物標から得られる位置である画像検出物標位置とについて、近傍に位置するものを、同じ物標に基づくものであるとして対応付ける。レーダ検出物標位置の近傍に、画像検出物標位置が存在する場合(本実施形態においては、レーダ検出物標位置と画像検出物標位置との物標間距離が所定範囲内に収まる場合)、そのレーダ検出物標位置に実際に物標が存在する可能性が高い。この、レーダ装置21及び撮像装置22により物標の位置が精度よく取得できている状態を、フュージョン状態と称する。フュージョン状態であると判定した物標については、その位置に物標(以下、同一物標と呼称)が存在していると判定する。
 予測プログラムは、例えば判定プログラムにより同一物標が存在していると判定された場合に、過去に複数検出された同一物標の相対位置を最小二乗法などにより直線フィッティングすることで近似直線を算出する。そして、算出した近似直線が自車両と重なる位置を衝突予測位置として算出する。走行支援プログラムは、予測プログラムにより算出された衝突予測位置と物標との相対距離が所定距離よりも短いと判定した場合に、規定の走行支援処理を実施させる。
 あるいは、レーダ装置21と撮像装置22との内一方の装置のみから物標が検出され、判定プログラムによる同一物標判定ができない場合に、予測プログラムは一方の装置により検出された物標の相対位置を最小二乗法などにより直線フィッティングすることで近似直線を算出する。そして、算出した近似直線が自車両と重なる位置を衝突予測位置として算出する。走行支援プログラムは、予測プログラムにより算出された衝突予測位置と物標との相対距離が所定距離よりも短いと判定した場合に、規定の走行支援処理を実施させる。この際、判定プログラムにより同一物標判定された物標と比較して物標の検出信頼性が低いほど所定距離を短く補正することで、走行支援処理の実施タイミングを遅らせる。この検出信頼性に依存した所定距離の補正方法は、従来技術に準拠するものである。
 本実施形態において、走行支援処理とは、自車両前方に衝突するおそれのある物標が存在することをドライバに報知する警報処理と自車両を制動させる制動処理に該当する。したがって、自車両には、検出ECU10からの制御指令により駆動する安全装置として、警報装置31及びブレーキ装置32が備えられている。
 警報装置31は、自車両の車室内に設置されたスピーカやディスプレイである。検出ECU10が、自車両が物標と衝突するまでの余裕時間である衝突余裕時間(TTC:Time-to-collision)が第一所定時間よりも縮まり、物標に自車両が衝突する可能性が高まったと判定した場合を想定する。この場合に、その検出ECU10からの制御指令により、警報装置31は警報音や警報メッセージ等を出力してドライバに衝突の危険を報知する。
 ブレーキ装置32は、自車両を制動する制動装置である。検出ECU10が、衝突余裕時間が第一所定時間よりも短く設定された第二所定時間よりも縮まり、物標に自車両が衝突する可能性が高まったと判定した場合には、その検出ECU10からの制御指令により、ブレーキ装置32が作動する。具体的には、ドライバによるブレーキ操作に対する制動力をより強くしたり(ブレーキアシスト機能)、ドライバによりブレーキ操作が行われてなければ自動制動を行ったりする(自動ブレーキ機能)。
 本実施形態に係る検出ECU10では、撮像装置22により送信された画像情報に基づいて予め定められた物標テンプレートとのパターンマッチングを実施することで画像検出物標を検出する。この場合、物標テンプレートとして記憶されている形状パターンが物標の正面や背面であるため、物標の正面又は背面を画像に収めることが出来れば、正確に物標を検出することが出来る。しかし、物標の側面が含まれるように画像に収まると、物標テンプレートとして物標の側面が記憶されていないために、パターンマッチングによる物標認識が困難となるおそれがある。
 この問題は、図2に示されるように、自車両前方に自車両の進路に対して対向する方向に進路を取っている物標が存在するにも関わらず、物標が自車両に近づく側に進路を変更したことで、撮像装置22により撮像された画像に物標の側面が含まれた場合に特に問題となる。このような状況では、パターンマッチングによる画像検出物標の検出が困難となるため、レーダ検出物標の位置情報に基づいて走行支援プログラムを実施することになる。この場合、同一物標として判定した場合と比較して検出信頼性が低下するため、所定距離を短く補正することで、規定の走行支援の作動を遅延させる制御を実施する。しかし、上記状況では物標と自車両とが衝突するおそれがあるため、走行支援の作動を遅延させることは望ましくない。一方、物標検出の信頼度が低い状態で走行支援を作動させると、不要な走行支援の作動が増加する。
 しかし、図2に示される状況において画像検出物標の検出が困難となったのは、撮像装置22により撮像された画像に物標の側面が含まれたためと考えられ、今までのパターンマッチングによる画像検出物標の検出が誤りであった可能性は低い。つまり、依然レーダ装置21により検出されるレーダ検出物標は、本来同一物標と判定されるべき物標である可能性は高い。このため、本実施形態に係る検出ECU10は、同一物標が自車両に近づく方向に曲がり、且つ、パターンマッチングによる画像検出物標の検出ができなくなったことを条件として、レーダ検出物標を対象に自車両との衝突予測を実施する。これにより、衝突予測の精度を確保することが可能となる。
 このとき、自車両に近づく方向に曲がる物標の相対位置を直線フィッティングにより近似した近似直線から衝突予測位置を算出しては、衝突予測位置の誤差が大きくなる懸念がある。したがって、自車両に近づく方向に曲がる物標に対して、過去に複数算出された自車両との相対位置を曲線フィッティングにより近似することで、近似曲線を算出し、算出した近似直線に基づいて衝突予測位置を算出する。これにより、衝突予測位置の算出誤差が大きくなることを抑制する事が可能となる。
 本実施形態では、自車両の進行方向前方の対向車線を走行する対向車両(自動二輪車(バイク)や自転車を含む)のみを対象として本制御を実施する。物標が例えば人である場合には、車などと異なりその側面のパターンは少ないため、人の側面を物標テンプレートとして記憶することは可能である。したがって、撮像装置22により撮像された画像に物標(人)の側面が含まれていたとしても、物標テンプレートとして人の側面を予め記憶させておくことで、パターンマッチングによる物標の検出が可能である。また、人の正面と側面との相違は、車両の正面と側面との相違ほど大きくない。つまり、物標が自車両に近づく方向に曲がっても、パターンマッチングによる物標検出は可能である。反対に、物標が自車両に近づく方向に曲がることで、パターンマッチングによる物標の検出が出来なくなった場合には、それまでのパターンマッチングによる物標検出が誤りである可能性が高い。したがって、人を対象に本制御を実施することは不適当である。上記を考慮し、自車両の進行方向前方の対向車線を走行する対向自車両のみを対象として、レーダ検出物標と自車両との衝突予測を実施する。
 本実施形態では、検出ECU10により後述する図3の衝突予測処理を実行する。図3に示す衝突予測処理は、検出ECU10が電源オンしている期間中に検出ECU10によって所定周期で繰り返し実行される。
 まずステップS100にて、レーダ装置21により自車両の前方に存在する物標をレーダ検出物標として検出させる。そしてステップS110にて、撮像装置22により自車両の前方を撮像させ、撮像された画像から抽出された特徴点に対してパターンマッチングを実施することで画像検出物標を検出する。
 ステップS120では、ステップS100及びステップS110にて検出されたレーダ検出物標と画像検出物標とが同一物標であるか否かを判定する。レーダ検出物標と画像検出物標とが同一物標であると判定した場合には(S120:YES)、ステップS130に進む。
 ステップS130では、同一物標と判定された物標が対向車線を走行する対向車両であるか否かを判定する。具体的には、レーダ装置21により算出されたレーダ検出物標の相対速度と自車両の速度とから物標の対地速度を算出し、算出された対地速度が負の値であった場合に物標が自車両の進路に対して対向する方向に進路を取っていることが判定される。なお、自車両の進行方向における対地速度を正としている。そして、同一物標と判定された物標が自車両の進路に対して対向する方向に進路を取っていると判定した場合に、物標が物標テンプレートとして記憶される車両とマッチングしたか否かを判定する。この判定で、物標が物標テンプレートとして記憶される車両とマッチングしたと判定した場合に、同一物標と判定された物標が対向車線を走行する対向車両であると判定する。レーダ検出物標が対向車線を走行する対向車両であると判定した場合には(S130:YES)、ステップS140に進む。
 ステップS140では、レーダ検出物標と画像検出物標とが同一物標であると確定してよいか否かを判定する。本実施形態では、ステップS120にて実施された同一物標判定の回数が所定回数よりも大きい場合に、同一物標判定の実施回数に対して、レーダ検出物標と画像検出物標とが同一物標であると判定した割合が所定割合よりも高くなったか否かを判定する。そして、レーダ検出物標と画像検出物標とが同一物標であると判定した割合が所定割合よりも高くなった場合に、レーダ検出物標と画像検出物標とが同一物標であると確定する。レーダ検出物標と画像検出物標とが同一物標であると確定してよいと判定した場合には(S140:YES)、ステップS150に進む。
 ステップS150では、過去に複数検出された同一物標の相対位置を近似した線が、自車両に近づく側に弧を描いており、且つ近似線が自車両を含む自車両近辺を通るか否かを判定する。過去に複数検出された同一物標の相対位置を近似した線が、自車両に近づく側に弧を描いており、且つ近似線が自車両を含む自車両近辺を通ると判定した場合には(S150:YES)、ステップS160に進む。ステップS160では、同一物標と確定し且つ自車両に近づく対向車両について、パターンマッチングによる画像検出物標の検出ができなくなった場合に、レーダ検出物標のみを対象に自車両との衝突予測を実施することを許可する許可フラグをONに設定し(許可フラグ=1)、後述のステップS180に進む。一旦許可フラグがONに設定されると、許可フラグがONの状態が所定期間維持される。
 レーダ検出物標と画像検出物標とが同一物標ではないと判定した場合(S120:NO)、又は、レーダ検出物標が対向車線を走行する対向車両ではないと判定した場合(S130:NO)、又は、レーダ検出物標と画像検出物標とが同一物標であると確定してはならないと判定した場合(S140:NO)、又は、過去に複数検出された同一物標の相対位置を近似した線が自車両に近づく側に弧を描いていない、又は近似線が自車両を含む自車両近辺を通らないと判定した場合(S150:NO)には、ステップS170に進む。ステップS170では、許可フラグをOFFに設定し(許可フラグ=0)、ステップS180に進む。
 ステップS180では、パターンマッチングによる画像検出物標の検出ができなくなったか否かを判定する。画像検出物標を検出することが出来なくなったと判定した場合には(S180:YES)、ステップS190に進む。
 ステップS190では、許可フラグをONに設定しているか否かを判定する。許可フラグをONに設定していると判定した場合には(S190:YES)、ステップS200に進み、レーダ検出物標のみを対象に走行支援処理の特別な作動判定を実施する。本処理は、自車両との衝突予測処理及び走行支援処理の実施も含む。
 走行支援処理の特別な作動判定を説明する。過去に複数算出されたレーダ検出物標の相対位置をカーブフィッティングにより近似し、近似した近似曲線に基づき、衝突予測位置を算出する。そして、算出された衝突予測位置と物標との相対距離が所定距離よりも短いか否かの判定を実施する。これらの処理が、衝突予測処理に該当する。算出した衝突予測位置と物標との相対距離が所定距離よりも短いと判定された場合に、規定の走行支援処理を実行する。この所定距離は、同一物標判定された物標を対象に走行支援処理の作動判定を実施する場合に設定される所定距離と同一の距離に設定する。そして、ステップS210に進み、許可フラグをリセット(許可フラグをOFFに設定)し、本制御を終了する。
 依然画像検出物標を検出することができていると判定した場合(S180:NO)、又は、許可フラグをOFFに設定していると判定した場合(S190:NO)には、ステップS220に進み、走行支援処理の通常の作動判定を実施する。本処理は、自車両との衝突予測処理及び走行支援処理の実施も含む。
 走行支援処理の通常の作動判定を説明する。例えば、依然画像検出物標が検出されており(S180:NO)、同一物標と判定した物標が存在する場合を想定する。この場合には、過去に複数算出された同一物標の相対位置を直線フィッティングにより近似し、この近似直線に基づいて衝突予測位置を算出する。そして、算出された衝突予測位置と物標との相対距離が所定距離よりも短いか否かの判定を実施する。これらの処理が、衝突予測処理に該当する。算出した衝突予測位置と物標との相対距離が上記所定距離よりも短いと判定された場合に、規定の走行支援処理を実行する。
 あるいは、許可フラグがOFFに設定されていると判定され(S190:NO)、レーダ装置21と撮像装置22との内一方の装置のみから物標が検出され、同一物標判定ができない場合などには、一方の装置により検出される物標を対象に走行支援処理の作動判定を実施する。この場合、一方の装置により検出される物標の情報から衝突予測位置を算出し、検出される物標の検出信頼性に基づいて所定距離を補正した上で、走行支援処理の通常の作動判定を実施する。
 上記のように、算出された衝突予測位置と物標との相対距離が所定距離よりも短いと判定された場合に規定の走行支援処理を実施する。そして、本制御を終了する。
 上記構成により、本実施形態は、以下の効果を奏する。
 ・物標が自車両に近づく方向に曲がり、且つ、パターンマッチングによる画像検出物標の検出ができなくなったことを条件として、レーダ検出物標を衝突予測の実施対象として自車両と衝突するか否かが予測される。これにより、レーダ検出物標が本来同一物標と判定すべき物標である可能性が高いことから衝突予測の信頼度を確保することができ、ひいては不要な走行支援の作動を抑制することができる。また、画像検出物標が検出されず同一物標と判定されなくなっても、レーダ検出物標を対象として衝突予測が実施されることで、走行支援処理の作動遅延を抑制することができる。
 ・レーダ検出物標のみを対象に走行支援処理の特別な作動判定を実施する場合、この作動判定において設定される所定距離は、同一物標判定された物標を対象に走行支援処理の作動判定を実施する場合に設定される所定距離と同一の距離に設定される。これにより、走行支援処理の作動遅延を抑制する事が可能となる。
 ・同一物標であると確定した場合に限って、物標が自車両に近づく方向に曲がり、且つ、パターンマッチングによる画像検出物標の検出ができなくなったことの条件が成立することで、レーダ検出物標を対象として自車両との衝突予測が実施される。したがって、レーダ検出物標を対象とした自車両との衝突予測であっても、衝突予測の精度を高めることができ、ひいては不要な走行支援処理の実施を抑制することが可能となる。
 ・レーダ検出物標を対象として自車両と衝突するか否かが予測される際には、自車両の進行方向前方の対向車線を走行する対向車両のみを対象とする。これにより、人を対象としての本衝突予測を実施することによる誤った予測を抑制する事ができる。また、自車両の進行方向前方の対向車線を走行する対向車両を対象とすることで、例えば交差点など物標が自車両に近づく方向に曲がる状況の多い場所で本制御を実施することができる。
 ・過去に複数検出された同一物標の相対位置を近似した線が、自車両に近づく側に弧を描いており、且つ近似線が自車両を含む自車両近辺を通るか否かの判定が実施される。この判定が実施されることで、例えば物標が自車両の手前を通り過ぎる場合は、レーダ検出物標を衝突予測の対象としない。これにより、不要な衝突予測の実施を抑制することができ、ひいては不要な走行支援の作動を抑制することが可能となる。
 上記実施形態を、以下のように変更して実施することもできる。
 ・上記実施形態では、同一物標判定を複数回実施し、同一物標であると判定した確率が所定割合よりも高くなった場合に、レーダ検出物標と画像検出物標とが同一物標であると確定していた。このことについて、同一物標であると確定するための条件を、必ずしも同一物標であると判定した確率が所定割合よりも高くなった場合と設定する必要はない。例えば、過去に同一物標であると連続して判定した回数が所定回数よりも多くなったことがある場合に同一物標であると確定してもよい。
 ・上記実施形態では、同一物標判定を複数回実施し、レーダ検出物標と画像検出物標とが同一物標であると確定してよいか否かを判定していた。このことについて、必ずしもレーダ検出物標と画像検出物標とが同一物標であると確定してよいか否かの判定を実施する必要はない。
 ・上記実施形態では、過去に複数検出された同一物標の相対位置を近似した線が、自車両に近づく側に弧を描いており、且つ近似線が自車両を含む自車両近辺を通るか否かを判定していた。この判定に代えて、過去に物標が走行してきた複数の位置を線で結び、移動軌跡を作成し、その移動軌跡の方向が自車両に近づく方向を向いているか否かを判定してもよい。
 ・上記実施形態では、走行支援処理の特別な作動判定において設定される所定距離は、同一物標判定された物標を対象に走行支援処理の作動判定を実施する場合に設定される所定距離と同一の距離に設定されていた。このことについて、走行支援処理の特別な作動判定において設定される所定距離は、同一物標判定された物標を対象に走行支援処理の作動判定を実施する場合に設定される所定距離よりも長く設定してもよい。レーダ装置21により検出される物標の情報のみを対象に自車両との衝突予測を行う場合には、その情報の確度はレーダ装置21と撮像装置22とから取得した情報に基づいて自車両との衝突予測を行う場合と比較して、その衝突予測の信頼性は相対的に低い。このことを考慮して、走行支援処理の特別な作動判定において設定される所定距離は、同一物標判定された物標を対象に走行支援処理の作動判定を実施する場合に設定される所定距離よりも長く設定される。このため、レーダ検出物標の位置に誤りが生じる可能性を考慮し、早期に走行支援を実行することができるため、より安全側で物標と車両との衝突抑制を実施させることができる。
 ・上記実施形態では、算出された衝突予測位置と物標との相対距離が所定距離よりも短い場合に、規定の走行支援処理を実行していた。このことについて、必ずしも規定の走行支援処理を実行する条件を算出された衝突予測位置と物標との相対距離が所定距離よりも短い場合に設定する必要はない。例えば、衝突予測位置と物標との相対距離に基づき衝突余裕時間を算出し、衝突余裕時間が所定時間よりも短い場合に規定の走行支援処理を実施してもよい。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。

Claims (7)

  1.  自車両の進行方向前方に探査波を送信し、物標により反射された反射波を受信するレーダ装置(21)からその反射波に基づく反射情報を取得し、その一方で前記自車両の進行方向前方を撮像する撮像装置(22)から画像情報を取得する衝突予測装置(10)であって、
     前記レーダ装置から取得された前記反射情報により検出された物標であるレーダ検出物標の位置を検出するレーダ検出物標位置検出部と、
     前記撮像装置から取得した前記画像情報から抽出した特徴点と予め記憶されたパターンとの照合により物標を検出するパターンマッチング実施部と、
     前記パターンマッチング実施部により検出された物標である画像検出物標の位置を検出する画像検出物標位置検出部と、
     前記レーダ検出物標と前記画像検出物標との位置関係が所定関係となった場合に、前記レーダ検出物標と前記画像検出物標とは同一物標であることを判定する同一物標判定部と、
     前記同一物標判定部により前記レーダ検出物標と前記画像検出物標とは同一物標であると判定された場合に、前記同一物標を対象として前記自車両と衝突するか否かを予測する衝突予測部と、
     前記衝突予測部により前記対象と前記自車両とが衝突すると予測された場合に、前記自車両と前記物標との衝突を抑制する走行支援を実施させる支援実施部と、
    を備え、
     前記衝突予測部は、前記対象が前記自車両に近づく方向に曲がり、且つ、前記パターンマッチング実施部による前記画像検出物標の検出ができなくなったことを条件として、レーダ検出物標位置検出部により検出された前記レーダ検出物標を前記対象として前記自車両と衝突するか否かを予測する衝突予測装置。
  2.  前記衝突予測部は、前記レーダ検出物標を前記対象として前記自車両と衝突することの予測が成立する条件を、前記同一物標を前記対象として前記自車両と衝突することの予測が成立する条件と同一の条件に設定する請求項1に記載の衝突予測装置。
  3.  前記衝突予測部は、前記レーダ検出物標を前記対象として前記自車両と衝突することの予測が成立する条件を、前記同一物標を前記対象として前記自車両と衝突することの予測が成立する条件よりも成立しやすい方向に変更する請求項1に記載の衝突予測装置。
  4.  前記同一物標判定部による前記レーダ検出物標と前記画像検出物標とが前記同一物標であることの判定処理を複数回実行させる判定処理実行部を備え、
     前記衝突予測部は、前記判定処理実行部により前記同一物標判定部に前記判定処理を複数回実行させ、前記レーダ検出物標と前記画像検出物標とが前記同一物標であると確定する条件を満たした場合に限って、前記レーダ検出物標を前記対象とする請求項1乃至3のいずれか1項に記載の衝突予測装置。
  5.  前記衝突予測部は、前記レーダ検出物標を前記対象として前記自車両と衝突するか否かを予測する際に、前記自車両の進行方向前方の対向車線を走行する対向車両のみを前記対象とする請求項1乃至4のいずれか1項に記載の衝突予測装置。
  6.  前記衝突予測部は、前記物標が前記自車両の手前を通り過ぎる場合は、前記レーダ検出物標を前記対象としない請求項1乃至5のいずれか1項に記載の衝突予測装置。
  7.  前記撮像装置は、単眼カメラである請求項1乃至6のいずれか1項に記載の衝突予測装置。
PCT/JP2017/001985 2016-02-09 2017-01-20 衝突予測装置 WO2017138329A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/076,199 US11348462B2 (en) 2016-02-09 2017-01-20 Collision prediction apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-022654 2016-02-09
JP2016022654A JP6432538B2 (ja) 2016-02-09 2016-02-09 衝突予測装置

Publications (1)

Publication Number Publication Date
WO2017138329A1 true WO2017138329A1 (ja) 2017-08-17

Family

ID=59563145

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/001985 WO2017138329A1 (ja) 2016-02-09 2017-01-20 衝突予測装置

Country Status (3)

Country Link
US (1) US11348462B2 (ja)
JP (1) JP6432538B2 (ja)
WO (1) WO2017138329A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109870688A (zh) * 2018-12-10 2019-06-11 开沃新能源汽车集团有限公司 一种基于毫米波雷达和转角传感器组合方案的弯道目标识别策略

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6504078B2 (ja) * 2016-02-24 2019-04-24 株式会社デンソー 衝突予測装置
JP7092702B2 (ja) * 2019-03-19 2022-06-28 本田技研工業株式会社 リスク推定装置及び自動運転装置
KR20210136569A (ko) * 2020-05-08 2021-11-17 삼성전자주식회사 경보 장치, 상기 장치를 포함하는 경보 시스템, 및 경보 방법
CN116958931A (zh) * 2023-07-20 2023-10-27 山东产研鲲云人工智能研究院有限公司 用于仓储中车辆碰撞预警的方法及计算设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267120A (ja) * 2004-03-17 2005-09-29 Alpine Electronics Inc 周辺車両識別方法及びこれを用いた走行支援システム
JP2007072665A (ja) * 2005-09-06 2007-03-22 Fujitsu Ten Ltd 物体判別装置、物体判別方法および物体判別プログラム
JP2010015337A (ja) * 2008-07-02 2010-01-21 Fujitsu Ten Ltd 運転支援装置、運転支援制御方法および運転支援制御処理プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9470790B2 (en) * 2012-09-03 2016-10-18 Toyota Jidosha Kabushiki Kaisha Collision determination device and collision determination method
JP5842862B2 (ja) * 2013-05-14 2016-01-13 株式会社デンソー 衝突緩和装置
JP6504042B2 (ja) * 2015-12-17 2019-04-24 株式会社デンソー 制御装置、制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267120A (ja) * 2004-03-17 2005-09-29 Alpine Electronics Inc 周辺車両識別方法及びこれを用いた走行支援システム
JP2007072665A (ja) * 2005-09-06 2007-03-22 Fujitsu Ten Ltd 物体判別装置、物体判別方法および物体判別プログラム
JP2010015337A (ja) * 2008-07-02 2010-01-21 Fujitsu Ten Ltd 運転支援装置、運転支援制御方法および運転支援制御処理プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109870688A (zh) * 2018-12-10 2019-06-11 开沃新能源汽车集团有限公司 一种基于毫米波雷达和转角传感器组合方案的弯道目标识别策略

Also Published As

Publication number Publication date
US20210225169A1 (en) 2021-07-22
US11348462B2 (en) 2022-05-31
JP6432538B2 (ja) 2018-12-05
JP2017142600A (ja) 2017-08-17

Similar Documents

Publication Publication Date Title
CN107408345B (zh) 物标存在判定方法以及装置
US10446034B2 (en) Driving support system
JP6561584B2 (ja) 車両制御装置、及び車両制御方法
JP6462630B2 (ja) 物標検出装置
US10793096B2 (en) Vehicle control device with object detection
US10665107B2 (en) Moving object control apparatus and method of controlling moving object
WO2017138329A1 (ja) 衝突予測装置
US9102329B2 (en) Tracking control apparatus
WO2017111135A1 (ja) 走行支援装置及び走行支援方法
US10787170B2 (en) Vehicle control method and apparatus
CN107408346B (zh) 车辆控制装置以及车辆控制方法
JP6504078B2 (ja) 衝突予測装置
US11074817B2 (en) Driving support apparatus
WO2017104387A1 (ja) 物体検知装置及び物体検知方法
WO2017111147A1 (ja) 走行支援装置及び走行支援方法
US20190061750A1 (en) Collision mitigation control device
US20180149740A1 (en) Object detection apparatus and object detection method
JP2019052920A (ja) 物体検出装置、物体検出方法及び車両制御システム
JP6432496B2 (ja) 物体検出装置
CN108885833B (zh) 车辆检知装置
JP6462610B2 (ja) 横断判定装置
JP7265971B2 (ja) 制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17750054

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17750054

Country of ref document: EP

Kind code of ref document: A1