WO2014033954A1 - 衝突判定装置及び衝突判定方法 - Google Patents

衝突判定装置及び衝突判定方法 Download PDF

Info

Publication number
WO2014033954A1
WO2014033954A1 PCT/JP2012/072361 JP2012072361W WO2014033954A1 WO 2014033954 A1 WO2014033954 A1 WO 2014033954A1 JP 2012072361 W JP2012072361 W JP 2012072361W WO 2014033954 A1 WO2014033954 A1 WO 2014033954A1
Authority
WO
WIPO (PCT)
Prior art keywords
collision determination
detection unit
radar
image
target
Prior art date
Application number
PCT/JP2012/072361
Other languages
English (en)
French (fr)
Inventor
雄介 大内
Original Assignee
トヨタ自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トヨタ自動車株式会社 filed Critical トヨタ自動車株式会社
Priority to CN201280075572.5A priority Critical patent/CN104584098B/zh
Priority to PCT/JP2012/072361 priority patent/WO2014033954A1/ja
Priority to US14/425,209 priority patent/US9666077B2/en
Priority to JP2014532714A priority patent/JP5979232B2/ja
Priority to EP12883954.5A priority patent/EP2894619A4/en
Publication of WO2014033954A1 publication Critical patent/WO2014033954A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Definitions

  • the present invention relates to a collision determination device and a collision determination method for determining a collision between a vehicle and an object.
  • a collision determination device and a collision determination method for example, as described in JP-A-2005-84034, a composite target of an object is generated using a detection result by a radar sensor and a detection result by an image sensor, An apparatus and a method for determining a collision between a vehicle and an object based on a generated synthetic target are known.
  • the collision is determined based on the composite target after performing the collision determination based on the detection result of the image sensor. It is conceivable to make a determination. In this case, the collision determination is performed by giving priority to the detection result of the radar sensor over the detection result of the image sensor. For this reason, the continuity of the collision determination is lost due to a change in the state of the target that is the target of the collision determination, which gives the driver a sense of incongruity during vehicle travel control such as collision avoidance assistance performed based on the collision determination. It is possible to end up.
  • the present invention is intended to provide a collision determination device and a collision determination method that can maintain the continuity of collision determination even when the state of a target to be subjected to collision determination changes.
  • a collision determination apparatus includes a radar detection unit that detects an object around a vehicle using a radar wave, an image detection unit that picks up an image around the vehicle and detects the object, and a detection result and an image from the radar detection unit.
  • a collision determination unit that determines a collision between a vehicle and an object based on a composite target generated using a detection result obtained by the detection unit, and the collision determination unit includes only the image detection unit among the radar detection unit and the image detection unit.
  • the collision determination is performed by giving priority to the detection result of the image detection unit over the radar detection unit. Therefore, the continuity of the collision determination can be maintained even if the state of the target that is the target of the collision determination changes.
  • the collision determination unit takes over the detection result when the object is detected only by the image detection unit and then detects the composite target when the object is detected by the radar detection unit and the image detection unit. It may be generated. Thereby, since the detection result by an image detection part is taken over, the continuity of a collision determination can be maintained.
  • the collision determination unit is based on the detection result by the image detection unit instead of the collision determination based on the composite target.
  • the collision determination may be performed. Thereby, since the collision determination based on the detection result by the image detection unit is continued, the continuity of the collision determination can be maintained.
  • the collision determination unit generates a low-threshold composite target for an object detected only by the image detection unit, and a high threshold set higher than the low threshold for the object detected by the radar detection unit and the image detection unit.
  • a synthetic target may be generated.
  • the collision determination unit may perform the collision determination on the low threshold synthetic target based on a determination threshold lower than the determination threshold of the high threshold synthetic target. Thereby, an appropriate collision determination can be performed for each type of composite target.
  • the collision determination unit may perform the collision determination by giving priority to the detection result of the image detection unit over the radar detection unit when the possibility of collision between the vehicle and the object exceeds a predetermined threshold.
  • the detection range of the radar detection unit and the detection range of the image detection unit may partially overlap, and there may be a region detected by the image detection unit without being detected by the radar detection unit.
  • the radar detection unit may detect an object in front of the vehicle using a radar wave
  • the image detection unit may detect the object from an image obtained by imaging the front of the vehicle.
  • the radar detection unit may detect an object in the vehicle traveling direction using a radar wave
  • the image detection unit may detect the object from an image obtained by imaging the vehicle traveling direction.
  • the radar detection unit may detect an object in front of the vehicle using millimeter waves.
  • the collision determination method detects an object around a vehicle using a radar wave and detects an object based on a captured image around the vehicle, and a composite generated using the detection result obtained by radar detection and the detection result obtained by image detection.
  • a collision determination method for determining a collision between a vehicle and an object based on a target after the object is detected only by image detection out of radar detection and image detection, the object is detected by radar detection and image detection. This includes determining the collision between the vehicle and the object by giving priority to the detection result of the image detection over the detection.
  • the present invention it is possible to provide a collision determination device and a collision determination method that can maintain the continuity of collision determination even when the state of a target to be subjected to collision determination changes.
  • FIG. 1 It is a block diagram which shows the structure of the collision determination apparatus which concerns on embodiment of this invention. It is a figure which shows the detection range of a radar and a stereo camera. It is a figure which shows the condition of the collision determination process assumed. It is a flowchart which shows operation
  • the collision determination apparatus and the collision determination method according to the embodiment of the present invention perform a collision determination with an object around the vehicle, particularly with an object in front of the vehicle.
  • the present invention is not limited to the front of the vehicle, and an embodiment in which a collision determination with an object behind the vehicle or an object in the vehicle traveling direction can be similarly described.
  • the collision determination device is a device that is mounted on a vehicle and determines a collision between the vehicle and an object using a radar sensor and an image sensor.
  • FIG. 1 is a block diagram showing a configuration of a collision determination device according to an embodiment of the present invention.
  • the collision determination apparatus includes a speed sensor 11, a radar 12, a stereo camera 13, and an ECU 20 (Electronic Control Unit).
  • Speed sensor 11 detects the speed of the vehicle.
  • a wheel speed sensor is used as the speed sensor 11.
  • the speed sensor 11 supplies the detected vehicle speed to the ECU 20.
  • the radar 12 functions as a radar detection unit (radar sensor) that detects an object around the vehicle, particularly an object in front of the vehicle, using a radar wave, transmits a radar wave (electromagnetic wave) in front of the vehicle, and receives a radar wave reflected from the object.
  • a radar detection unit radar sensor
  • the radar 12 supplies radar detection information indicating the detection result of the object to the ECU 20.
  • the stereo camera 13 functions as an image detection unit (image sensor) that captures an image of the periphery of the vehicle, particularly the front of the vehicle, and detects an object based on the captured image.
  • image sensor image sensor
  • a CCD Charge-Coupled Device
  • CMOS Complementary Metal-Oxide Semiconductor
  • the stereo camera 13 is installed as a plurality of cameras on the front surface or cabin of the vehicle.
  • the stereo camera 13 supplies image detection information indicating the detection result of the object to the ECU 20.
  • a single camera may be used instead of the stereo camera 13.
  • the ECU 20 includes a radar target generation unit 21, an image target generation unit 22, a composite target generation unit 23, and a collision determination unit 24.
  • the ECU 20 implements the functions of a radar target generation unit 21, an image target generation unit 22, a synthetic target generation unit 23, and a collision determination unit 24 through execution of a program by the CPU, mainly using a CPU, ROM, RAM, and the like.
  • the ECU 20 may be configured as a single unit or a plurality of units.
  • the radar target generator 21 generates a radar target based on radar detection information from the radar 12.
  • the radar target has target information related to the distance to the object and the lateral position of the object, which is obtained from coordinates based on the vehicle.
  • the target information of the radar target is calculated based on the radar detection information from the radar 12.
  • the distance to the object represents the distance from the vehicle (radar 12) to the object in the traveling direction of the vehicle, and is calculated based on the time until the radar wave is transmitted from the radar 12, reflected from the object and received.
  • the The lateral position of the object represents a distance from the vehicle (radar 12) to the object in a direction orthogonal to the traveling direction of the vehicle, and is calculated based on the direction (angle) of the radar wave reflected and received from the object. .
  • the lateral position in the radar target is information on the position of the object detected by the radar 12, and does not include information on the lateral width of the object.
  • the image target generator 22 generates an image target based on the image detection information from the stereo camera 13.
  • the image target has target information related to the distance to the object and the lateral position of the object, which is obtained from the coordinates based on the vehicle. Further, the image target generation unit 22 determines whether or not the object is in a stationary state by tracking the object based on the image detection information, and supplies the tracking result and the determination result of the stationary state to the collision determination unit 24. To do.
  • the target information of the image target is calculated based on the principle of triangulation based on the deviation of the image detection information of the left and right cameras constituting the stereo camera 13, or based on the detected size and position of the license plate etc. of the vehicle ahead. Calculated.
  • the distance to the object represents the distance from the vehicle (stereo camera 13) to the object in the traveling direction of the vehicle.
  • the lateral position of the object represents the distance from the vehicle (stereo camera 13) to the object in a direction orthogonal to the traveling direction of the vehicle.
  • the lateral position in the image target also includes information on the lateral range of the object detected from the image, that is, the lateral width of the object.
  • the composite target generation unit 23 generates a composite target of the object using the target information of the radar target and the image target, that is, the detection result by the radar 12 and the stereo camera 13.
  • the composite target is generated by collating both targets based on the target information of the radar target and the image target. Both targets are collated based on the similarity of the target information in both targets, that is, the similarity of the distance to the object and the lateral position of the object.
  • the composite target has target information regarding the distance to the object and the horizontal position (including the horizontal width) of the object.
  • the target information of the composite target is based on the target information of the radar target and the image target, and has higher accuracy than the target information of the radar target or the image target alone.
  • FIG. 2 is a diagram showing detection ranges A1 and A2 of the radar 12 and the stereo camera 13.
  • the detection range A1 of the radar 12 is narrower than the detection range A2 of the stereo camera 13. Therefore, an area that can be detected only by the stereo camera 13 outside the detection range A1 of the radar 12 exists diagonally forward of the vehicle C.
  • a composite target is generated while the object exists in the detection ranges A1 and A2 of both sensors 12 and 13, but when the object deviates from the detection range A1 of the radar 12, the synthesis is performed. No target is generated.
  • the collision determination unit 24 calculates a collision determination parameter for each of the radar target, the image target, and the composite target. As parameters, for example, target distance, collision probability, existence probability, and collision lateral position are calculated.
  • the target distance means the distance to the target in the direction of travel of the vehicle
  • the collision probability means the probability that the vehicle will collide with the object corresponding to the target
  • the existence probability corresponds to the target.
  • the collision lateral position means a lateral position (position in the width direction of the vehicle) where a collision with an object corresponding to the target is expected.
  • the target distance, the collision probability, the existence probability, and the collision lateral position are obtained based on the movement status of each target.
  • the parameters of each target are stored in a memory such as a RAM for a predetermined period together with the target information of each target, and are read out as necessary.
  • the collision determination unit 24 performs a collision determination based on the composite target.
  • the collision determination unit 24 determines the possibility of collision with an object based on whether or not the collision time is less than the threshold when the parameters of the composite target satisfy a predetermined threshold.
  • the collision time is calculated by dividing the distance to the object by the relative speed of the object (the amount of change per unit time of the distance to the object) using the target information of the composite target.
  • the determination result of the possibility of collision is used for collision avoidance support by, for example, notification to the driver, control intervention for braking or steering of the vehicle, and the like.
  • the collision determination unit 24 performs the collision determination based on the image target in a situation where only the image target is generated without generating the radar target.
  • the collision determination unit 24 determines the possibility of collision with an object based on whether or not the parameter of the image target satisfies a predetermined threshold and the collision time is less than the threshold.
  • the collision time is calculated by dividing the distance to the object by the relative speed of the object using the target information of the image target.
  • the collision determination unit 24 is more stereo camera than the radar 12.
  • the collision determination is performed by prioritizing the detection result of 13. Specifically, when the object is detected by the radar 12 and the stereo camera 13, the collision determination unit 24 takes over the detection result by the stereo camera 13 when the object is detected only by the stereo camera 13, and the composite target. Set.
  • the collision determination unit 24 sets a low-threshold composite target when the object is detected only by the stereo camera 13, and is set higher than the low threshold when the object is detected by the radar 12 and the stereo camera 13. Set the high threshold composite target.
  • FIG. 3 is a diagram illustrating a situation of an assumed collision determination process.
  • FIG. 3 shows time-series changes in the positions of the targets generated by the sensors 12 and 13 together with the detection ranges A1 and A2 of the radar 12 and the stereo camera 13.
  • the target for example, a pedestrian P that crosses the front of the traveling vehicle C is assumed.
  • the object is outside the detection range A1 of the radar 12 and has moved from the detection range A2 of the stereo camera 13 to the detection ranges A1 and A2 of both sensors 12 and 13. While the object is outside the detection range A1 of the radar 12 and moving within the detection range A2 of the stereo camera 13, an image target is generated, and the object moves within the detection ranges A1 and A2 of both sensors 12, 13. Then, a synthetic target is generated using the radar target and the image target.
  • the collision determination process when an object is detected by both the sensors 12 and 13 after being detected only by the stereo camera 13, the collision is determined based on the image target and then the collision is performed based on the composite target. It is conceivable to make a determination. In this case, the collision determination is performed with priority given to the radar target information (collision determination parameters, etc.) over the image target. That is, image target information (such as collision determination parameters) when an object is detected only by the stereo camera 13 is not carried over, and a new composite target is set based on the radar target information.
  • the radar target information collision determination parameters, etc.
  • FIG. 4 is a flowchart showing the operation of the collision determination device.
  • FIG. 5 is a diagram showing the situation of the collision determination process shown in FIG.
  • the collision determination device repeatedly executes the process shown in FIG. 4 for each processing cycle.
  • the collision determination apparatus performs the following process before performing the process shown in FIG. That is, the radar target generation unit 21 generates a radar target when an object is present within the detection range of the radar 12.
  • the image target generation unit 22 generates an image target when an object exists within the detection range of the stereo camera 13.
  • the synthetic target generation unit 23 generates a synthetic target when collation between the radar target and the image target is obtained.
  • the collision determination unit 24 calculates a collision determination parameter for each of the radar target, the image target, and the composite target according to the target generation status.
  • the collision determination unit 24 determines whether or not the image target has a predetermined accuracy (S11). In this determination, for example, the reliability of the collision lateral position is determined as a collision determination parameter for the image target.
  • the collision lateral position means a lateral position (position in the width direction of the vehicle) where the collision with the image target is expected, and the reliability (certainty) is, for example, the collision lateral position in the previous processing cycle. It is calculated based on the transition of
  • the collision determination unit 24 determines whether the object is detected only by the stereo camera 13, that is, whether only the image target is generated. Determine (S12). When it is determined that only the image target is generated, the collision determination unit 24 sets a low-threshold composite target as a collision determination target (S13).
  • the low-threshold composite target is a composite target generated using only the image target, and the threshold of a normal composite target (a high-threshold composite target described later) is used as a determination threshold for collision determination.
  • a lower threshold is set.
  • the collision determination unit 24 sets an image target parameter as a collision determination parameter (S14).
  • the collision determination unit 24 determines whether or not the object is detected by the radar 12 and the stereo camera 13, that is, a composite target is generated. It is determined whether or not (S15).
  • the collision determination unit 24 determines whether only the image target has been generated in the immediately preceding processing cycle (S16).
  • it means that the object is detected by both the sensors 12 and 13 after being detected by the stereo camera 13.
  • the collision determination unit 24 prioritizes image target information (such as collision determination parameters) over the radar target to perform the collision determination. For this reason, the collision determination unit 24 uses the information of the low-threshold composite target in the immediately preceding processing cycle as the composite target (the high-threshold composite product described later) when only the image target is generated. (S17).
  • the collision determination unit 24 sets a high threshold as a target for collision determination regardless of whether only an image target has been generated in the immediately preceding processing cycle.
  • a composite target is set (S18).
  • a high-threshold composite target is a normal composite target generated using a radar target and an image target, and has higher accuracy than a low-threshold target.
  • the collision determination unit 24 sets a composite target parameter as a collision determination parameter (S19).
  • a high-threshold composite target is newly set based on the information of the image target calculated in the immediately preceding processing cycle. That is, a new synthetic target is set by giving priority to image target information (such as collision determination parameters) over a radar target. Thereafter, the parameters of the high threshold composite target are calculated by updating the inherited information.
  • the collision determination unit 24 sets 0 as a collision determination parameter (S20).
  • the collision determination unit 24 When the collision determination parameter is set in S14, S19, or S20, the collision determination unit 24 performs a collision determination based on the set parameter. More specifically, the collision determination unit 24 determines whether or not the collision determination parameter satisfies a predetermined threshold, and determines that the collision time is less than the determination threshold when it is determined that the predetermined threshold is satisfied. To do.
  • the collision determination unit 24 calculates the collision time using the target information of the composite target and compares it with the normal determination threshold.
  • the collision determination unit 24 calculates the collision time using the target information of the image target and compares it with a determination threshold lower than normal. .
  • the collision determination based on the image target is performed according to whether or not the image target has a predetermined accuracy in S11. However, instead of this, or in addition to this, it is determined whether or not the possibility of collision between the vehicle and the object exceeds a predetermined threshold, and when the possibility of collision exceeds the threshold, a collision determination based on the image target is performed. You may do it. In this case, for example, the possibility of collision is determined based on whether or not the collision determination parameter of the image target satisfies a predetermined threshold value.
  • FIG. 5 shows time-series changes in the position of the target in the collision determination process shown in FIG. 4 in comparison with FIG.
  • the collision determination process shown in FIG. 4 when an object is detected by both the sensors 12 and 13 after being detected only by the stereo camera 13, the high threshold is set after the collision is determined based on the low threshold composite target. The collision is determined based on the composite target.
  • the collision determination based on the high-threshold composite target takes over the information of the image target (such as the collision determination parameter) when the object is detected only by the stereo camera 13, and the image target rather than the radar target. This is done by setting a high-threshold composite target in preference to the target information.
  • the collision determination is continued based on the information of the image target, the continuity of the collision determination can be maintained even if the state of the target as a target of the collision determination changes. Therefore, it is not necessary to give the driver an uncomfortable feeling during vehicle travel control such as collision avoidance support performed based on the collision determination.
  • the collision determination device As described above, according to the collision determination device according to the embodiment of the present invention, after an object is detected by only the stereo camera 13 of the radar 12 and the stereo camera 13, the object is detected by the radar 12 and the stereo camera 13. When detected, the collision determination is performed by giving priority to the detection result of the stereo camera 13 over the radar 12. Therefore, the continuity of the collision determination can be maintained even if the state of the target that is the target of the collision determination changes.
  • the detection result when the object is detected only by the stereo camera 13 is taken over to generate a composite target, thereby generating a stereo target.
  • the detection result by the camera 13 may be taken over.
  • the collision determination is performed based on the detection result by the stereo camera 13 instead of the collision determination based on the composite target. Also good.
  • a low threshold composite target is generated for an object detected only by the stereo camera 13
  • a high threshold composite target set higher than the low threshold is generated for an object detected by the radar 12 and the stereo camera 13.
  • a collision determination may be performed for each type of the target by performing a collision determination based on a determination threshold lower than the determination threshold for a high-threshold target.
  • the collision determination may be performed by giving priority to the detection result of the stereo camera 13 over the radar 12.
  • the detection range of the radar 12 and the detection range of the stereo camera 13 may partially overlap, and there may be a region that is detected by the stereo camera 13 but not detected by the radar 12.
  • the radar 12 may detect an object in front of the vehicle using a radar wave
  • the stereo camera 13 may detect the object from an image obtained by imaging the front of the vehicle.
  • the radar 12 may detect an object in the vehicle traveling direction using a radar wave
  • the stereo camera 13 may detect the object from an image obtained by capturing the vehicle traveling direction.
  • the radar 12 may detect an object in front of the vehicle using millimeter waves.
  • the above-described embodiment describes the best embodiment of the collision determination device and the collision determination method according to the present invention, and the collision determination device and the collision determination method according to the present invention are described in the present embodiment. It is not limited to things.
  • the collision determination apparatus and the collision determination method according to the present invention are modified from the collision determination apparatus and the collision determination method according to the present embodiment without departing from the gist of the invention described in each claim, or applied to others. It may be a thing.
  • the function of the radar target generation unit 21 may be realized by a single ECU, for example, a radar sensor ECU
  • the function of the image target generation unit 22 may be realized by a single ECU, for example, an image sensor ECU.
  • the detection ranges A1 and A2 of the radar 12 and the stereo camera 13 are bilaterally symmetric with respect to the traveling direction of the vehicle and overlapped symmetrically.
  • the detection ranges A1 and A2 of both the sensors 12 and 13 are partially overlapped and need not be detected by the radar 12 but have an area detected by the stereo camera 13, and are not necessarily in the traveling direction of the vehicle. They are symmetrical with respect to each other and do not need to overlap symmetrically.
  • the collision determination is made based on the image target and then based on the composite target.
  • the collision determination may be performed based on the image target (that is, based on the detection result by the stereo camera 13) instead of the collision determination based on the composite target. Good. Even in this case, since the collision determination based on the image target is continued, the continuity of the collision determination can be maintained.
  • the collision determination device and the collision determination method according to the embodiment of the present invention have been described with respect to the embodiment for performing the collision determination with the object around the vehicle, particularly with the object in front of the vehicle.
  • the collision determination device and the collision determination method according to the embodiment of the present invention have been described with respect to the embodiment for performing the collision determination with the object around the vehicle, particularly with the object in front of the vehicle.
  • the front side of the vehicle not only the front side of the vehicle but also an embodiment in which a collision determination with an object behind the vehicle or an object in the vehicle traveling direction can be similarly described.
  • a collision determination with an object behind the vehicle is performed.
  • the radar sensor and the image sensor it is possible to perform a collision determination with an object in the vehicle traveling direction according to the forward and backward movement of the vehicle.

Abstract

衝突判定装置は、レーダ波により車両周囲の物体を検出するレーダ検出部と、車両周囲を撮像し撮像した画像により物体を検出する画像検出部と、レーダ検出部による検出結果と画像検出部による検出結果を用いて生成された合成物標に基づいて車両と物体の衝突を判定する衝突判定部とを備え、衝突判定部は、レーダ検出部及び前記画像検出部のうち画像検出部のみにより物体が検出された後に、該物体がレーダ検出部及び画像検出部により検出される場合、レーダ検出部よりも画像検出部の検出結果を優先させて衝突判定を行う。

Description

衝突判定装置及び衝突判定方法
 本発明は、車両と物体の衝突を判定する衝突判定装置及び衝突判定方法に関する。
 従来、衝突判定装置及び衝突判定方法としては、例えば特開2005-84034号公報に記載されるように、レーダセンサによる検出結果と画像センサによる検出結果を用いて物体の合成物標を生成し、生成した合成物標に基づいて車両と物体の衝突を判定する装置及び方法が知られている。
特開2005-84034号公報
 ところで、このような装置及び方法では、物体が画像センサのみにより検出された後に両方のセンサにより検出される場合、画像センサの検出結果に基づいて衝突判定を行った後に合成物標に基づいて衝突判定を行うことが考えられる。この場合、画像センサの検出結果よりもレーダセンサの検出結果を優先させて衝突判定が行われることになる。このため、衝突判定の対象となる物標の状態の変化により衝突判定の継続性が失われてしまい、衝突判定に基づいて行われる衝突回避支援等の車両走行制御に際して運転者に違和感を与えてしまうことが考えられる。
 そこで、本発明は、衝突判定の対象となる物標の状態が変化しても衝突判定の継続性を維持できる衝突判定装置及び衝突判定方法を提供しようとするものである。
 本発明に係る衝突判定装置は、レーダ波により車両周囲の物体を検出するレーダ検出部と、車両周囲を撮像し撮像した画像により物体を検出する画像検出部と、レーダ検出部による検出結果と画像検出部による検出結果を用いて生成された合成物標に基づいて車両と物体の衝突を判定する衝突判定部とを備え、衝突判定部は、レーダ検出部及び画像検出部のうち画像検出部のみにより物体が検出された後に、該物体がレーダ検出部及び画像検出部により検出される場合、レーダ検出部よりも画像検出部の検出結果を優先させて衝突判定を行う。
 これにより、物体が画像検出部のみにより検出された後にレーダ検出部及び画像検出部により検出される場合、レーダ検出部よりも画像検出部の検出結果を優先させて衝突判定が行われる。よって、衝突判定の対象となる物標の状態が変化しても衝突判定の継続性を維持できる。
 また、衝突判定部は、物体が画像検出部のみにより検出された後にレーダ検出部及び画像検出部により検出される場合、画像検出部のみにより検出された際の検出結果を引き継いで合成物標を生成してもよい。これにより、画像検出部による検出結果が引き継がれるので、衝突判定の継続性を維持できる。
 また、衝突判定部は、物体が画像検出部のみにより検出された後にレーダ検出部及び画像検出部により検出される場合、合成物標に基づく衝突判定に代えて、画像検出部による検出結果に基づいて衝突判定を行ってもよい。これにより、画像検出部による検出結果に基づく衝突判定が継続されるので、衝突判定の継続性を維持できる。
 また、衝突判定部は、画像検出部のみにより検出される物体について低閾値の合成物標を生成し、レーダ検出部及び画像検出部により検出される物体について低閾値よりも高く設定された高閾値の合成物標を生成してもよい。これにより、合成物標に基づいて一貫した衝突判定が行われるので、衝突判定の継続性を維持できる。
 また、衝突判定部は、低閾値の合成物標について、高閾値の合成物標の判定閾値よりも低い判定閾値に基づいて衝突判定を行ってもよい。これにより、合成物標の種類毎に適切な衝突判定を行うことができる。
 また、衝突判定部は、車両と物体の衝突可能性が所定の閾値を超える場合、レーダ検出部よりも画像検出部の検出結果を優先させて衝突判定を行ってもよい。
 また、レーダ検出部の検出範囲と画像検出部の検出範囲とが部分的に重なり、レーダ検出部により検出されず画像検出部により検出される領域が存在していてもよい。
 また、レーダ検出部は、レーダ波により車両前方の物体を検出してもよく、画像検出部は、車両前方を撮像し撮像した画像により物体を検出してもよい。
 また、レーダ検出部は、レーダ波により車両進行方向の物体を検出してもよく、画像検出部は、車両進行方向を撮像し撮像した画像により物体を検出してもよい。
 また、レーダ検出部は、ミリ波により車両前方の物体を検出してもよい。
 本発明に係る衝突判定方法は、レーダ波による車両周囲の物体の検出及び車両周囲の撮像画像による物体の検出を行い、レーダ検出による検出結果と画像検出による検出結果を用いて生成された合成物標に基づいて車両と物体の衝突を判定する衝突判定方法において、レーダ検出及び画像検出のうち画像検出のみにより物体が検出された後に、該物体がレーダ検出及び画像検出により検出される場合、レーダ検出よりも画像検出の検出結果を優先させて車両と物体の衝突判定を行うことを含む。
 本発明によれば、衝突判定の対象となる物標の状態が変化しても衝突判定の継続性を維持できる衝突判定装置及び衝突判定方法を提供できる。
本発明の実施形態に係る衝突判定装置の構成を示すブロック図である。 レーダ及びステレオカメラの検出範囲を示す図である。 想定される衝突判定処理の状況を示す図である。 衝突判定装置の動作を示すフローチャートである。 図4に示す衝突判定処理の状況を示す図である。
 以下、添付図面を参照して、本発明の実施形態を詳細に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
 以下では、本発明の実施形態に係る衝突判定装置及び衝突判定方法について、車両周囲、特に車両前方の物体との衝突判定を行う実施形態について説明する。しかし、車両前方に限らず、車両後方の物体又は車両進行方向の物体との衝突判定を行う実施形態についても同様に説明することができる。
 まず、図1及び図2を参照して本発明の実施形態に係る衝突判定装置の構成について説明する。衝突判定装置は、車両に搭載され、レーダセンサ及び画像センサを用いて車両と物体の衝突を判定する装置である。
 図1は、本発明の実施形態に係る衝突判定装置の構成を示すブロック図である。図1に示すように、衝突判定装置は、速度センサ11、レーダ12、ステレオカメラ13及びECU20(Electronic Control Unit)を備えている。
 速度センサ11は、車両の速度を検出する。速度センサ11としては、例えば車輪速センサが用いられる。速度センサ11は、検出した車両速度をECU20に供給する。
 レーダ12は、レーダ波により車両周囲、特に車両前方の物体を検出するレーダ検出部(レーダセンサ)として機能し、車両前方にレーダ波(電磁波)を送信し、物体から反射されるレーダ波を受信する。レーダ12としては、例えば、マイクロ波レーダ、ミリ波レーダ、超音波レーダ、レーザレーダが用いられる。レーダ12は、物体の検出結果を示すレーダ検出情報をECU20に供給する。
 ステレオカメラ13は、車両周囲、特に車両前方を撮像し撮像した画像により物体を検出する画像検出部(画像センサ)として機能する。ステレオカメラ13としては、例えば、CCD(Charge-Coupled Device)、CMOS(Complementary Metal-Oxide Semiconductor)が用いられる。ステレオカメラ13は、複数のカメラとして車両の前面又はキャビンに設置される。ステレオカメラ13は、物体の検出結果を示す画像検出情報をECU20に供給する。なお、ステレオカメラ13に代えて単一のカメラが用いられてもよい。
 ECU20は、レーダ物標生成部21、画像物標生成部22、合成物標生成部23及び衝突判定部24を備えている。ECU20は、CPU、ROM、RAM等を主体として、CPUによるプログラムの実行を通じてレーダ物標生成部21、画像物標生成部22、合成物標生成部23及び衝突判定部24の機能を実現する。なお、ECU20は、単一ユニットとして構成されてもよく、複数ユニットとして構成されてもよい。
 レーダ物標生成部21は、レーダ12からのレーダ検出情報に基づいてレーダ物標を生成する。レーダ物標は、車両を基準とする座標から求められる、物体までの距離及び物体の横位置に関する物標情報を有している。
 レーダ物標の物標情報は、レーダ12からのレーダ検出情報に基づいて算出される。物体までの距離とは、車両の進行方向における車両(レーダ12)から物体までの距離を表し、レーダ12からレーダ波が送信され、物体から反射されて受信されるまでの時間に基づいて算出される。物体の横位置とは、車両の進行方向と直交する方向における車両(レーダ12)から物体までの距離を表し、物体から反射されて受信されるレーダ波の方向(角度)に基づいて算出される。レーダ物標における横位置は、レーダ12により検出された物体の位置の情報であり、物体の横幅の情報を含まない。
 画像物標生成部22は、ステレオカメラ13からの画像検出情報に基づいて画像物標を生成する。画像物標は、車両を基準とする座標から求められる、物体までの距離及び物体の横位置に関する物標情報を有している。また、画像物標生成部22は、画像検出情報に基づいて物体をトラッキングすることにより物体が静止状態にあるか否かを判定し、トラッキング結果及び静止状態の判定結果を衝突判定部24に供給する。
 画像物標の物標情報は、ステレオカメラ13を構成する左右カメラの画像検出情報のずれに基づいて三角測量の原理により算出され、又は、前方車両のナンバープレート等の検出サイズ及び位置に基づいて算出される。物体までの距離とは、車両の進行方向における車両(ステレオカメラ13)から物体までの距離を表す。物体の横位置とは、車両の進行方向と直交する方向における車両(ステレオカメラ13)から物体までの距離を表す。画像物標における横位置は、画像から検出された物体の横方向の範囲、つまり物体の横幅の情報も含む。物標情報の算出に際しては、算出誤差を低減するために算出値を平均化する等の処理が行われてもよい。
 合成物標生成部23は、レーダ物標及び画像物標の物標情報、つまりレーダ12及びステレオカメラ13による検出結果を用いて物体の合成物標を生成する。合成物標は、レーダ物標及び画像物標の物標情報に基づいて両方の物標を照合して生成される。両方の物標は、両方の物標における物標情報の類似度、つまり、物体までの距離及び物体の横位置の類似度に基づいて照合される。合成物標は、物体までの距離及び物体の横位置(横幅を含む)に関する物標情報を有している。合成物標の物標情報は、レーダ物標及び画像物標の物標情報に基づくものであり、レーダ物標又は画像物標単独の物標情報より高い精度を有している。
 図2は、レーダ12とステレオカメラ13の検出範囲A1、A2を示す図である。図2に示すように、レーダ12の検出範囲A1は、ステレオカメラ13の検出範囲A2よりも狭い。このため、車両Cの斜め前方には、レーダ12の検出範囲A1の外側でステレオカメラ13のみにより検出可能な領域が存在することになる。そして、図2に示すように、物体が両方のセンサ12、13の検出範囲A1、A2内に存在する間は合成物標が生成されるが、物体がレーダ12の検出範囲A1から逸脱すると合成物標が生成されなくなる。
 図1の説明に戻って、衝突判定部24は、レーダ物標、画像物標及び合成物標について、それぞれに衝突判定用のパラメータを算出する。パラメータとしては、例えば、物標距離、衝突確率、存在確率及び衝突横位置が算出される。
 物標距離とは、車両の進行方向における物標までの距離を意味し、衝突確率とは、車両が物標に対応する物体と衝突する確率を意味し、存在確率とは、物標に対応する物体が実際に存在する確率を意味し、衝突横位置とは、物標に対応する物体との衝突が予想される横位置(車両の幅方向における位置)を意味する。物標距離、衝突確率、存在確率及び衝突横位置は、各物標の移動状況に基づいて求められる。各物標のパラメータは、各物標の物標情報と併せて所定期間に亘ってRAM等のメモリに記憶され、必要に応じて読み出される。
 衝突判定部24は、合成物標に基づいて衝突判定を行う。衝突判定部24は、合成物標のパラメータが所定の閾値を満たす場合、衝突時間が閾値未満であるか否かに基づいて物体との衝突可能性を判定する。衝突時間は、合成物標の物標情報を用いて、物体までの距離を物体の相対速度(物体までの距離の単位時間当たり変化量)で除して算出される。衝突可能性の判定結果は、例えば、運転者への報知、車両の制動又は操舵への制御介入等による衝突回避支援に用いられる。
 また、衝突判定部24は、レーダ物標が生成されず画像物標のみが生成される状況において、画像物標に基づいて衝突判定を行う。衝突判定部24は、画像物標のパラメータが所定の閾値を満たし、かつ衝突時間が閾値未満であるか否かに基づいて、物体との衝突可能性を判定する。衝突時間は、画像物標の物標情報を用いて、物体までの距離を物体の相対速度で除して算出される。
 ここで、衝突判定部24は、レーダ12及びステレオカメラ13のうちステレオカメラ13のみにより物体が検出された後、該物体がレーダ12及びステレオカメラ13により検出される場合、レーダ12よりもステレオカメラ13の検出結果を優先させて衝突判定を行う。具体的には、衝突判定部24は、物体がレーダ12及びステレオカメラ13により検出される場合、物体がステレオカメラ13のみにより検出されていた際のステレオカメラ13による検出結果を引き継いで合成物標を設定する。また、衝突判定部24は、物体がステレオカメラ13のみにより検出される際に低閾値の合成物標を設定し、物体がレーダ12及びステレオカメラ13により検出される際に低閾値よりも高く設定された高閾値の合成物標を設定する。
 つぎに、図3から図5を参照して衝突判定装置の動作について説明する。まず、図3を参照して想定される衝突判定処理について説明する。図3は、想定される衝突判定処理の状況を示す図である。
 図3には、レーダ12及びステレオカメラ13の検出範囲A1、A2とともに、各センサ12、13により生成された物標の位置の変化が時系列的に示されている。物標としては、走行中の車両Cの前方を横断する例えば歩行者Pを想定している。
 図3に示す状況では、物体がレーダ12の検出範囲A1外でありステレオカメラ13の検出範囲A2内から両方のセンサ12、13の検出範囲A1、A2内に移動している。物体がレーダ12の検出範囲A1外でありステレオカメラ13の検出範囲A2内を移動している間は画像物標が生成され、物体が両方のセンサ12、13の検出範囲A1、A2内に移動するとレーダ物標及び画像物標を用いて合成物標が生成されている。
 ところで、上記衝突判定処理では、物体がステレオカメラ13のみにより検出された後に両方のセンサ12、13により検出される場合、画像物標に基づいて衝突判定を行った後に合成物標に基づいて衝突判定を行うことが考えられる。この場合、画像物標よりもレーダ物標の情報(衝突判定用パラメータ等)を優先させて衝突判定が行われる。すなわち、物体がステレオカメラ13のみにより検出された際の画像物標の情報(衝突判定用パラメータ等)が引き継がれず、レーダ物標の情報に基づいて合成物標が新たに設定される。このため、衝突判定の対象となる物標の状態の変化により衝突判定の継続性が失われてしまい、衝突判定に基づいて行われる衝突回避支援等の車両走行制御に際して運転者に違和感を与えてしまう可能性がある。
 つぎに、図4及び図5を参照して衝突判定装置の動作について説明する。図4は、衝突判定装置の動作を示すフローチャートである。図5は、図4に示す衝突判定処理の状況を示す図である。
 衝突判定装置は、図4に示す処理を処理周期毎に繰り返し実行する。衝突判定装置は、図4に示す処理を行う前に次の処理を行う。すなわち、レーダ物標生成部21は、レーダ12の検出範囲内に物体が存在する場合にレーダ物標を生成する。画像物標生成部22は、ステレオカメラ13の検出範囲内に物体が存在する場合に画像物標を生成する。合成物標生成部23は、レーダ物標と画像物標の照合が得られる場合に合成物標を生成する。衝突判定部24は、レーダ物標、画像物標及び合成物標のそれぞれについて、物標の生成状況に応じて、衝突判定用のパラメータを算出する。
 上記処理を行った後、衝突判定部24は、画像物標が所定の精度を有しているか否かを判定する(S11)。この判定では、例えば、画像物標の衝突判定用パラメータとして衝突横位置の信頼度が判定される。衝突横位置とは、画像物標との衝突が予想される横位置(車両の幅方向における位置)を意味しており、その信頼度(確実度)は、例えば従前の処理周期における衝突横位置の推移に基づいて求められる。
 画像物標が所定の精度を有していると判定した場合、衝突判定部24は、物体がステレオカメラ13のみにより検出されているか否か、つまり画像物標のみが生成されているか否かを判定する(S12)。画像物標のみが生成されていると判定した場合、衝突判定部24は、衝突判定の対象として低閾値の合成物標を設定する(S13)。
 低閾値の合成物標とは、画像物標のみを用いて生成される合成物標であり、衝突判定に用いる判定閾値として、通常の合成物標(後述する高閾値の合成物標)の閾値よりも低い閾値が設定される。この場合、衝突判定部24は、衝突判定用パラメータとして、画像物標のパラメータを設定する(S14)。
 S12にて画像物標のみが生成されていると判定しなかった場合、衝突判定部24は、物体がレーダ12及びステレオカメラ13により検出されているか否か、つまり、合成物標が生成されているか否かを判定する(S15)。
 合成物標が生成されていると判定した場合、衝突判定部24は、直前の処理周期で画像物標のみが生成されていた否かを判定する(S16)。ここで、画像物標のみが生成されていたと判定した場合、物体がステレオカメラ13により検出された後に両方のセンサ12、13により検出されることを意味する。
 この場合、衝突判定部24は、レーダ物標よりも画像物標の情報(衝突判定用パラメータ等)を優先させて衝突判定を行う。このため、衝突判定部24は、画像物標のみが生成されていた際の画像物標、つまり直前の処理周期における低閾値の合成物標の情報を合成物標(後述する高閾値の合成物標)の情報として引き継ぐ(S17)。
 S15にて合成物標が生成されていると判定した場合、衝突判定部24は、直前の処理周期で画像物標のみが生成されていたか否かにかかわらず、衝突判定の対象として高閾値の合成物標を設定する(S18)。
 高閾値の合成物標とは、レーダ物標及び画像物標を用いて生成される通常の合成物標であり、低閾値の合成物標よりも高い精度を有する。この場合、衝突判定部24は、衝突判定用パラメータとして、合成物標のパラメータを設定する(S19)。
 ここで、S17にて直前の処理周期における画像物標の情報を引き継いだ場合、直前の処理周期で算出された画像物標の情報に基づいて高閾値の合成物標が新たに設定される。すなわち、レーダ物標よりも画像物標の情報(衝突判定用パラメータ等)を優先させて合成物標を新たに設定する。そして、これ以降は、引き継がれた情報を更新することにより高閾値の合成物標のパラメータが算出される。
 なお、S11にて画像物標が所定の精度を有していると判定しなかった場合、又はS15にて合成物標が生成されていると判定しなかった場合、画像物標に基づく衝突判定を適切に行えないので、衝突判定部24は、衝突判定用パラメータとして0を設定する(S20)。
 そして、S14、S19又はS20にて、衝突判定用パラメータを設定すると、衝突判定部24は、設定したパラメータに基づいて衝突判定を行う。より具体的に、衝突判定部24は、衝突判定用パラメータが所定の閾値を満たすか否かを判定し、所定の閾値を満たすと判定すると、衝突時間が判定閾値未満であるか否かを判定する。
 ここで、高閾値の合成物標に基づいて衝突可能性を判定する場合、衝突判定部24は、合成物標の物標情報を用いて衝突時間を算出し、通常の判定閾値と比較する。一方、低閾値の合成物標に基づいて衝突可能性を判定する場合、衝突判定部24は、画像物標の物標情報を用いて衝突時間を算出し、通常よりも低い判定閾値と比較する。
 なお、上記フローチャートでは、S11にて画像物標が所定の精度を有しているか否かに応じて、画像物標に基づく衝突判定を行うようにした。しかし、これに代えて又はこれに加えて、車両と物体の衝突可能性が所定の閾値を超えるか否かを判定し、衝突可能性が閾値を超える場合に画像物標に基づく衝突判定を行うようにしてもよい。この場合、例えば、画像物標の衝突判定用パラメータが所定の閾値を満たすか否かに基づいて衝突可能性が判定される。
 図5には、図3と対比して、図4に示す衝突判定処理における物標の位置の変化が時系列的に示されている。図4に示す衝突判定処理では、物体がステレオカメラ13のみにより検出された後に両方のセンサ12、13により検出される場合、低閾値の合成物標に基づいて衝突判定が行われた後に高閾値の合成物標に基づいて衝突判定が行われる。この場合、高閾値の合成物標に基づく衝突判定は、物体がステレオカメラ13のみにより検出された際の画像物標の情報(衝突判定用パラメータ等)を引き継いで、レーダ物標よりも画像物標の情報を優先して高閾値の合成物標を設定することにより行われる。このため、画像物標の情報に基づいて衝突判定が継続されるので、衝突判定の対象となる物標の状態が変化しても衝突判定の継続性を維持できる。よって、衝突判定に基づいて行われる衝突回避支援等の車両走行制御に際して運転者に違和感を与えずに済む。
 以上説明したように、本発明の実施形態に係る衝突判定装置によれば、レーダ12及びステレオカメラ13のうちステレオカメラ13のみにより物体が検出された後に、該物体がレーダ12及びステレオカメラ13により検出される場合、レーダ12よりもステレオカメラ13の検出結果を優先させて衝突判定が行われる。よって、衝突判定の対象となる物標の状態が変化しても衝突判定の継続性を維持できる。
 また、物体がステレオカメラ13のみにより検出された後にレーダ12及びステレオカメラ13により検出される場合、ステレオカメラ13のみにより検出された際の検出結果を引き継いで合成物標を生成することにより、ステレオカメラ13による検出結果を引き継いでもよい。
 また、物体がステレオカメラ13のみにより検出された後にレーダ12及びステレオカメラ13により検出される場合、合成物標に基づく衝突判定に代えて、ステレオカメラ13による検出結果に基づいて衝突判定を行ってもよい。
 また、ステレオカメラ13のみにより検出される物体について低閾値の合成物標を生成し、レーダ12及びステレオカメラ13により検出される物体について低閾値よりも高く設定された高閾値の合成物標を生成することにより、合成物標に基づいて一貫した衝突判定を行ってもよい。
 また、低閾値の合成物標について、高閾値の合成物標の判定閾値よりも低い判定閾値に基づいて衝突判定を行うことにより、合成物標の種類毎に適切な衝突判定を行ってもよい。
 また、車両と物体の衝突可能性が所定の閾値を超える場合、レーダ12よりもステレオカメラ13の検出結果を優先させて衝突判定を行ってもよい。
 また、レーダ12の検出範囲とステレオカメラ13の検出範囲とが部分的に重なり、レーダ12により検出されずステレオカメラ13により検出される領域が存在してもよい。
 また、レーダ12は、レーダ波により車両前方の物体を検出してもよく、ステレオカメラ13は、車両前方を撮像し撮像した画像により物体を検出してもよい。
 また、レーダ12は、レーダ波により車両進行方向の物体を検出してもよく、ステレオカメラ13は、車両進行方向を撮像し撮像した画像により物体を検出してもよい。
 また、レーダ12は、ミリ波により車両前方の物体を検出してもよい。
 なお、前述した実施形態は、本発明に係る衝突判定装置及び衝突判定方法の最良な実施形態を説明したものであり、本発明に係る衝突判定装置及び衝突判定方法は、本実施形態に記載したものに限定されるものではない。本発明に係る衝突判定装置及び衝突判定方法は、各請求項に記載した発明の要旨を逸脱しない範囲で本実施形態に係る衝突判定装置及び衝突判定方法を変形し、または他のものに適用したものであってもよい。
 例えば、上記実施形態の説明では、レーダ物標生成部21及び画像物標生成部22の機能をECU20により実現する場合について説明した。しかし、レーダ物標生成部21の機能を単独のECU、例えばレーダセンサ用ECUにより実現し、画像物標生成部22の機能を単独のECU、例えば画像センサ用ECUにより実現してもよい。
 また、上記実施形態の説明では、レーダ12及びステレオカメラ13の検出範囲A1、A2が車両の進行方向に対して左右対称であり、対称的に重なっている場合について説明した。しかし、両方のセンサ12、13の検出範囲A1、A2は、部分的に重なり、レーダ12により検出されず、ステレオカメラ13により検出される領域が存在していればよく、必ずしも車両の進行方向に対して左右対称であり対称的に重なり合っている必要はない。
 また、上記実施形態の説明では、物体がステレオカメラ13のみにより検出された後に両方のセンサ12、13により検出される場合、画像物標に基づいて衝突判定を行った後に合成物標に基づいて衝突判定を行う場合について説明した。しかし、画像物標に基づいて衝突判定を行った後に、合成物標に基づく衝突判定に代えて画像物標に基づいて(つまり、ステレオカメラ13による検出結果に基づいて)衝突判定を行ってもよい。この場合でも、画像物標に基づく衝突判定が継続されるので、衝突判定の継続性を維持できる。
 以上、本発明の実施形態に係る衝突判定装置及び衝突判定方法について、車両周囲、特に車両前方の物体との衝突判定を行う実施形態について説明した。しかし、冒頭にて述べたように、車両前方に限らず、車両後方の物体又は車両進行方向の物体との衝突判定を行う実施形態についても同様に説明することができる。
 この場合、例えば、車両後方の物体を検出する車両前方の物体及び車両後方の物体をそれぞれに検出する2組のレーダセンサ及び画像センサを用いることにより、車両後方の物体との衝突判定を行うことができる。また、レーダセンサ及び画像センサを用いることにより、車両の前進及び後退に応じて車両進行方向の物体との衝突判定を行うことができる。
 11…速度センサ、12…レーダ、13…ステレオカメラ、20…ECU、21…レーダ物標生成部、22…画像物標生成部、23…合成物標生成部、24…衝突判定部。

Claims (11)

  1.  レーダ波により車両周囲の物体を検出するレーダ検出部と、
     前記車両周囲を撮像し撮像した画像により前記物体を検出する画像検出部と、
     前記レーダ検出部による検出結果と前記画像検出部による検出結果を用いて生成された合成物標に基づいて前記車両と前記物体の衝突を判定する衝突判定部と、
    を備え、
     前記衝突判定部は、前記レーダ検出部及び前記画像検出部のうち前記画像検出部のみにより前記物体が検出された後に、該物体が前記レーダ検出部及び前記画像検出部により検出される場合、前記レーダ検出部よりも前記画像検出部の検出結果を優先させて衝突判定を行う衝突判定装置。
  2.  前記衝突判定部は、前記物体が前記画像検出部のみにより検出された後に前記レーダ検出部及び前記画像検出部により検出される場合、前記画像検出部のみにより検出された際の検出結果を引き継いで前記合成物標を設定する、請求項1に記載の衝突判定装置。
  3.  前記衝突判定部は、前記物体が前記画像検出部のみにより検出された後に前記レーダ検出部及び前記画像検出部により検出される場合、前記合成物標に基づく前記衝突判定に代えて、前記画像検出部による検出結果に基づいて衝突判定を行う、請求項1に記載の衝突判定装置。
  4.  前記衝突判定部は、前記画像検出部のみにより検出される前記物体について低閾値の合成物標を設定し、前記レーダ検出部及び前記画像検出部により検出される前記物体について前記低閾値よりも高く設定された高閾値の合成物標を設定する、請求項1又は2に記載の衝突判定装置。
  5.  前記衝突判定部は、前記低閾値の合成物標について、前記高閾値の合成物標の判定閾値よりも低い判定閾値に基づいて衝突判定を行う、請求項4に記載の衝突判定装置。
  6.  前記衝突判定部は、前記車両と前記物体の衝突可能性が所定の閾値を超える場合、前記レーダ検出部よりも前記画像検出部の検出結果を優先させて衝突判定を行う、請求項1~5のいずれか一項に記載の衝突判定装置。
  7.  前記レーダ検出部の検出範囲と前記画像検出部の検出範囲とが部分的に異なり、前記レーダ検出部により検出されず前記画像検出部により検出される領域が存在する、請求項1~6のいずれか一項に記載の衝突判定装置。
  8.  前記レーダ検出部は、レーダ波により前記車両前方の物体を検出し、
     前記画像検出部は、前記車両前方を撮像し撮像した画像により前記物体を検出する、請求項1~7のいずれか一項に記載の衝突判定装置。
  9.  前記レーダ検出部は、レーダ波により前記車両進行方向の物体を検出し、
     前記画像検出部は、前記車両進行方向を撮像し撮像した画像により前記物体を検出する、請求項1~7のいずれか一項に記載の衝突判定装置。
  10.  前記レーダ検出部は、ミリ波により前記車両周囲の前記物体を検出する、請求項1~9のいずれか一項に記載の衝突判定装置。
  11.  レーダ波による車両周囲の物体の検出及び車両周囲の撮像画像による前記物体の検出を行い、
     前記レーダ検出による検出結果と前記画像検出による検出結果を用いて生成された合成物標に基づいて前記車両と前記物体の衝突を判定する衝突判定方法において、
     前記レーダ検出及び前記画像検出のうち前記画像検出のみにより前記物体が検出された後に、該物体が前記レーダ検出及び前記画像検出により検出される場合、前記レーダ検出よりも前記画像検出の検出結果を優先させて前記車両と前記物体の衝突判定を行うこと
    を含む衝突判定方法。
PCT/JP2012/072361 2012-09-03 2012-09-03 衝突判定装置及び衝突判定方法 WO2014033954A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201280075572.5A CN104584098B (zh) 2012-09-03 2012-09-03 碰撞判定装置和碰撞判定方法
PCT/JP2012/072361 WO2014033954A1 (ja) 2012-09-03 2012-09-03 衝突判定装置及び衝突判定方法
US14/425,209 US9666077B2 (en) 2012-09-03 2012-09-03 Collision determination device and collision determination method
JP2014532714A JP5979232B2 (ja) 2012-09-03 2012-09-03 衝突判定装置及び衝突判定方法
EP12883954.5A EP2894619A4 (en) 2012-09-03 2012-09-03 DEVICE AND METHOD FOR COLLISION DETERMINATION

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/072361 WO2014033954A1 (ja) 2012-09-03 2012-09-03 衝突判定装置及び衝突判定方法

Publications (1)

Publication Number Publication Date
WO2014033954A1 true WO2014033954A1 (ja) 2014-03-06

Family

ID=50182798

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/072361 WO2014033954A1 (ja) 2012-09-03 2012-09-03 衝突判定装置及び衝突判定方法

Country Status (5)

Country Link
US (1) US9666077B2 (ja)
EP (1) EP2894619A4 (ja)
JP (1) JP5979232B2 (ja)
CN (1) CN104584098B (ja)
WO (1) WO2014033954A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016190099A1 (ja) * 2015-05-27 2016-12-01 株式会社デンソー 車両制御装置及び車両制御方法
JP2022134678A (ja) * 2021-03-03 2022-09-15 本田技研工業株式会社 制御装置、移動体、制御方法及びプログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5842863B2 (ja) * 2013-05-14 2016-01-13 株式会社デンソー 衝突緩和装置
JP5991332B2 (ja) * 2014-02-05 2016-09-14 トヨタ自動車株式会社 衝突回避制御装置
US9995386B2 (en) * 2015-02-12 2018-06-12 Honda Motor Co., Ltd. Transmission control device for automatic transmission
WO2018105135A1 (ja) * 2016-12-06 2018-06-14 本田技研工業株式会社 車両周辺情報取得装置および車両
DE112018006738B4 (de) * 2018-02-02 2022-03-10 Mitsubishi Electric Corporation Vorrichtung zur detektion fallender objekte, fahrzeuginternes system, fahrzeug und programm zur detektion fallender objekte
JP6939723B2 (ja) * 2018-07-02 2021-09-22 株式会社デンソー 衝突判定装置
JP2022132830A (ja) * 2021-03-01 2022-09-13 トヨタ自動車株式会社 車両衝突回避支援装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005084034A (ja) 2003-09-11 2005-03-31 Toyota Motor Corp 物体検出装置
JP2010250501A (ja) * 2009-04-14 2010-11-04 Hitachi Automotive Systems Ltd 車両用外界認識装置及びそれを用いた車両システム
JP2011048420A (ja) * 2009-08-25 2011-03-10 Fujitsu Ltd 車両検出装置、車両検出プログラム、および車両検出方法
JP2011113286A (ja) * 2009-11-26 2011-06-09 Toyota Motor Corp 衝突予測装置
WO2011070650A1 (ja) * 2009-12-08 2011-06-16 トヨタ自動車株式会社 物体検出装置及び物体検出方法
JP2012014520A (ja) * 2010-07-01 2012-01-19 Toyota Motor Corp 障害物検出装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004117071A (ja) 2002-09-24 2004-04-15 Fuji Heavy Ind Ltd 車外監視装置、及び、この車外監視装置を備えた走行制御装置
JP4193703B2 (ja) * 2004-01-19 2008-12-10 トヨタ自動車株式会社 物体検出装置
JP2006281900A (ja) * 2005-03-31 2006-10-19 Xanavi Informatics Corp 車載情報装置、およびアプリケーション実行方法
JP4684954B2 (ja) * 2005-08-31 2011-05-18 本田技研工業株式会社 車両の走行安全装置
BRPI0617477A2 (pt) 2005-10-19 2011-07-26 Teva Pharma mistura de partÍculas cristalinas de laquinimod sàdica, composiÇço, processo de cristalizaÇço de laquinimod sàdica, laquinimod sàdica, e, processo para produzir uma composiÇço farmacÊutica
JP4304517B2 (ja) * 2005-11-09 2009-07-29 トヨタ自動車株式会社 物体検出装置
JP4595833B2 (ja) 2006-02-24 2010-12-08 トヨタ自動車株式会社 物体検出装置
JP4434296B1 (ja) * 2008-09-05 2010-03-17 トヨタ自動車株式会社 物体検出装置
US8229663B2 (en) * 2009-02-03 2012-07-24 GM Global Technology Operations LLC Combined vehicle-to-vehicle communication and object detection sensing
JP4614005B2 (ja) * 2009-02-27 2011-01-19 トヨタ自動車株式会社 移動軌跡生成装置
JP5379543B2 (ja) * 2009-04-09 2013-12-25 日立オートモティブシステムズ株式会社 自動車の外界認識装置
JP5287746B2 (ja) * 2009-05-21 2013-09-11 日産自動車株式会社 運転支援装置、及び運転支援方法
JP5401344B2 (ja) 2010-01-28 2014-01-29 日立オートモティブシステムズ株式会社 車両用外界認識装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005084034A (ja) 2003-09-11 2005-03-31 Toyota Motor Corp 物体検出装置
JP2010250501A (ja) * 2009-04-14 2010-11-04 Hitachi Automotive Systems Ltd 車両用外界認識装置及びそれを用いた車両システム
JP2011048420A (ja) * 2009-08-25 2011-03-10 Fujitsu Ltd 車両検出装置、車両検出プログラム、および車両検出方法
JP2011113286A (ja) * 2009-11-26 2011-06-09 Toyota Motor Corp 衝突予測装置
WO2011070650A1 (ja) * 2009-12-08 2011-06-16 トヨタ自動車株式会社 物体検出装置及び物体検出方法
JP2012014520A (ja) * 2010-07-01 2012-01-19 Toyota Motor Corp 障害物検出装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2894619A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016190099A1 (ja) * 2015-05-27 2016-12-01 株式会社デンソー 車両制御装置及び車両制御方法
JP2016223812A (ja) * 2015-05-27 2016-12-28 株式会社デンソー 車両制御装置、及び車両制御方法
US10672275B2 (en) 2015-05-27 2020-06-02 Denso Corporation Vehicle control device and vehicle control method
JP2022134678A (ja) * 2021-03-03 2022-09-15 本田技研工業株式会社 制御装置、移動体、制御方法及びプログラム

Also Published As

Publication number Publication date
EP2894619A1 (en) 2015-07-15
US9666077B2 (en) 2017-05-30
JP5979232B2 (ja) 2016-08-24
EP2894619A4 (en) 2016-03-16
US20150206435A1 (en) 2015-07-23
JPWO2014033954A1 (ja) 2016-08-08
CN104584098B (zh) 2017-09-15
CN104584098A (zh) 2015-04-29

Similar Documents

Publication Publication Date Title
JP5862785B2 (ja) 衝突判定装置及び衝突判定方法
JP5979232B2 (ja) 衝突判定装置及び衝突判定方法
JP5884912B2 (ja) 衝突判定装置及び衝突判定方法
US9487195B2 (en) Collision avoidance assistance device and collision avoidance assistance method
JP6011625B2 (ja) 速度算出装置及び速度算出方法並びに衝突判定装置
JP6536521B2 (ja) 物体検知装置及び物体検知方法
US10252716B2 (en) Driving assist apparatus and driving assist method
US10967857B2 (en) Driving support device and driving support method
US10592755B2 (en) Apparatus and method for controlling vehicle
US20140333467A1 (en) Object detection device
JP5397231B2 (ja) リスク回避支援装置
JP2014213776A (ja) 衝突判定装置、および衝突緩和装置
JP2017111684A (ja) 制御装置、制御方法
JP2018097765A (ja) 物体検出装置、及び物体検出方法
JP2019052920A (ja) 物体検出装置、物体検出方法及び車両制御システム
JP6600271B2 (ja) 物体認識装置及び物体認識方法
JP6504078B2 (ja) 衝突予測装置
JP6429360B2 (ja) 物体検出装置
WO2014033958A1 (ja) 衝突判定装置及び衝突判定方法
WO2017154471A1 (ja) 横断判定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12883954

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014532714

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14425209

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2012883954

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2012883954

Country of ref document: EP