WO2016047498A1 - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
WO2016047498A1
WO2016047498A1 PCT/JP2015/076132 JP2015076132W WO2016047498A1 WO 2016047498 A1 WO2016047498 A1 WO 2016047498A1 JP 2015076132 W JP2015076132 W JP 2015076132W WO 2016047498 A1 WO2016047498 A1 WO 2016047498A1
Authority
WO
WIPO (PCT)
Prior art keywords
point
region
learning
foe
vehicle
Prior art date
Application number
PCT/JP2015/076132
Other languages
English (en)
French (fr)
Inventor
崇弘 馬場
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to US15/513,717 priority Critical patent/US10431088B2/en
Publication of WO2016047498A1 publication Critical patent/WO2016047498A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Definitions

  • the present invention relates to a technique for detecting an object using a radar and a camera.
  • Patent Document 1 a configuration for detecting an object using a radar and a camera has been proposed (see Patent Document 1). Specifically, in the configuration described in Patent Document 1, objects are detected independently by the millimeter wave radar and the monocular camera, and the positional relationship between the objects satisfies the determination criterion (particularly, they are close to each other). Case), it is determined that these objects are the same object.
  • an object detection apparatus that detects an object using a radar and a camera and that can more accurately determine whether or not they are the same object is provided. It is an object of the present invention to do this.
  • the first specifying unit may be configured such that the vehicle width direction of the vehicle is the X axis and the vehicle length direction of the vehicle is the Y axis for the first object detected based on the detection information by the radar.
  • the first region including the first detection point which is a detection point representing the relative position of the first object with respect to the reference point on the XY plane is identified.
  • the second specifying unit determines a second detection point, which is a detection point representing a relative position of the second object with respect to a reference point on the XY plane, for the second object detected based on the image captured by the monocular camera.
  • the second region to be included is specified.
  • the learning state acquisition unit acquires a progress state of learning for estimating the position of the infinity point on the captured image
  • the determination unit includes an overlapping portion in the first region and the second region on the XY plane.
  • the second specifying unit sets the length in the depth direction or the vehicle length direction that represents the direction of the second detection point with respect to the reference point in the second region, according to the learning progress state.
  • the magnitude of the error in the depth direction or the vehicle length direction changes depending on whether or not the position of the infinity point is accurately recognized. To do.
  • the length in the depth direction or the vehicle length direction in the second region is set in accordance with the progress of learning for estimating the position of the infinity point.
  • a collision mitigation apparatus 1 is an apparatus mounted on a vehicle such as a passenger car, and detects an object (an object such as another vehicle or a pedestrian) using a radar and a camera image. When there is a possibility of colliding with an object, it has a function of performing control such as braking the host vehicle in order to avoid or reduce the impact at the time of collision.
  • the collision mitigation device 1 includes a millimeter wave radar 2, a monocular camera 3, a brake ECU 4, an engine ECU 5, a notification device 6, and a collision mitigation ECU 7.
  • the collision mitigation ECU 7 is communicably connected to each of the millimeter wave radar 2, the monocular camera 3, the brake ECU 4, the engine ECU 5, and the notification device 6. Note that the configuration for realizing communication is not particularly limited.
  • the millimeter wave radar 2 is a radar for detecting an object (such as another vehicle or a pedestrian) using millimeter waves, and is located at the center (front end) of the own vehicle (the vehicle on which the collision mitigation device 1 is mounted). Position). The millimeter wave radar 2 transmits the millimeter wave forward while scanning the millimeter wave in a horizontal plane, and transmits the transmission / reception data obtained by receiving the reflected millimeter wave to the collision mitigation ECU 7 as a radar signal. .
  • the monocular camera 3 includes one CCD camera and is attached to the center of the front side of the vehicle interior of the host vehicle.
  • the monocular camera 3 transmits image data captured by the CCD camera to the collision reduction ECU 7 as an image signal.
  • the brake ECU 4 is an electronic control device that controls braking of the host vehicle, and includes a CPU, a ROM, a RAM, and the like. Specifically, the brake ECU 4 controls the brake ACT, which is an actuator that opens and closes the pressure increase control valve and the pressure reduction control valve provided in the brake fluid pressure circuit, according to the detection value of the sensor that detects the depression amount of the brake pedal. Control. Further, the brake ECU 4 controls the brake ACT so as to increase the braking force of the host vehicle in accordance with an instruction from the collision reduction ECU 7.
  • the engine ECU 5 is an electronic control device that controls engine start / stop, fuel injection amount, ignition timing, and the like, and includes a CPU, a ROM, a RAM, and the like. Specifically, the engine ECU 5 controls a throttle ACT, which is an actuator that opens and closes a throttle provided in the intake pipe, according to a detection value of a sensor that detects the amount of depression of the accelerator pedal. Further, the engine ECU 5 controls the throttle ACT so as to reduce the driving force of the internal combustion engine in accordance with an instruction from the collision mitigation ECU 7.
  • the collision mitigation ECU 7 is an electronic control unit that performs overall control of the collision mitigation apparatus 1 and includes a CPU, a ROM, a RAM, and the like.
  • the collision mitigation ECU 7 takes in the radar signal from the millimeter wave radar 2 and the image signal from the monocular camera 3 at regular intervals based on the master clock of the CPU.
  • the collision mitigation ECU 7 stores a collision mitigation program that is a program for realizing object detection by the collision mitigation apparatus 1 and for mitigating the collision.
  • the collision mitigation processing executed by the collision mitigation ECU 7 in accordance with the collision mitigation program will be described with reference to the flowchart of FIG. Note that the process shown in FIG. 2 is repeatedly executed in a predetermined cycle.
  • the collision mitigation ECU 7 first calculates a linear distance from the host vehicle to the object and a horizontal azimuth position of the object (an angular position with respect to the front direction of the host vehicle) based on the radar signal. Calculate (specify).
  • the position coordinates (X coordinate and Y coordinate) of the object on the XY plane are calculated (specified) as the detection point Pr of the object on the XY plane.
  • the vehicle width direction (lateral direction) of the host vehicle is the X axis
  • the vehicle length direction (front direction) of the host vehicle is the Y axis.
  • the object detection point Pr is set at the center of the plurality of detection points, for example.
  • the front end position of the host vehicle (the position where the millimeter wave radar 2 is provided) is set as the reference point Po, and the object detection point Pr represents the relative position with respect to the reference point Po.
  • FIG. 3 is an example of an object located in front of the host vehicle and on the right side.
  • a relative speed with the object may be calculated.
  • the object detected in S110 (the object detected based on the detection information by the millimeter wave radar 2) is referred to as “radar object”.
  • a radar error region 21 centered on the radar object detection point Pr calculated in S110 is set (S120).
  • the collision mitigation ECU 7 uses the X-coordinate and the Y-coordinate of the detection point Pr of the radar object as a reference, and the assumed error set in advance based on the characteristics of the millimeter wave radar 2 for each of the X-coordinate and the Y-coordinate.
  • An area having a width of minutes ( ⁇ ) is set as the radar error area 21.
  • the collision reduction ECU 7 identifies an object by analyzing a captured image represented by the image signal. This identification is performed by, for example, matching processing using a pre-registered object model.
  • the collision mitigation ECU 7 specifies the Y coordinate in the XY plane described above based on the vertical position of the object in the captured image, and based on the horizontal position of the object in the captured image, the horizontal azimuth position of the object (An angular position based on the forward direction of the host vehicle) is specified.
  • the Y coordinate can be specified based on the height of the lower end position of the object in the captured image.
  • such a specifying method has a characteristic that the detection accuracy of the Y coordinate is lowered when the lower end position of the object is not accurately detected.
  • the deviation of the object in the left-right direction tends to increase.
  • direction position of an object can be specified based on the distance from the infinity point in a captured image to the perpendicular line which passes along the center of an object.
  • the Y coordinate and horizontal azimuth position (angular position) of the object on the XY plane are specified as the detection point Pi of the object on the XY plane.
  • the object detection point Pi is set, for example, at the center in the width direction of the object.
  • the object detection point Pi represents a relative position with respect to the reference point Po.
  • the object detected in S130 (the object detected based on the image captured by the monocular camera 3) is referred to as an “image object”.
  • an area setting process for setting the image error area 22 centered on the detection point Pi of the image object calculated in S130 is performed (S140). This processing is based on the characteristics of the monocular camera 3 for each of the depth direction (or Y coordinate direction) and the horizontal azimuth direction as viewed from Po with respect to the Y coordinate and horizontal azimuth position of the detection point Pi. In this process, an area having a width corresponding to the assumed error is set as the image error area 22.
  • the width of the assumed error in the horizontal direction is set to a preset value, and the width in the depth direction is changed according to the situation.
  • the width in the depth direction is changed according to the situation.
  • An error factor is first the lower end position deviation of the object (lower end position error).
  • the lower end position deviation is erroneously detected as the correct lower end position of the object when the edge representing the position of the lower end of the actual object (the part where the difference in luminance between adjacent pixels exceeds a predetermined value) cannot be obtained accurately.
  • the error from the bottom position of the object is shown.
  • error factors include FOE misregistration in the captured image.
  • the FOE misalignment includes “dynamic FOE misalignment” caused by pitching (swing in the longitudinal direction of the host vehicle), mounting misalignment of the monocular camera 3 (axis misalignment), and the weight of the load loaded on the host vehicle. “Static FOE deviation” or the like caused by a loading inclination or the like that represents the inclination of the entire vehicle.
  • the “static FOE deviation” is obtained by the collision reduction ECU 7 performing the FOE learning process shown in FIG. 6 separately from the collision reduction process.
  • the FOE learning process as shown in FIG. 6, first, learning by optical flow is started (S310).
  • a stationary object such as a white line or a tree moves so as to appear from the FOE.
  • a moving object that moves from the left and right of the captured image such as a jumping pedestrian or a bicycle, is detected so as to move with respect to a vanishing point different from the FOE. That is, the position of the FOE can be determined by obtaining the appearance point of the object. Since the process of detecting the position of the FOE using the optical flow is completed by performing image processing on the captured images for several frames, the position of the FOE can be estimated in a relatively short time.
  • the FOE position is recorded in a memory such as a RAM, and the completion flag of learning stage 2 is set in the memory (S360). .
  • the FOE learning process ends. Note that the FOE learning process is repeatedly performed at regular time intervals or at an arbitrary timing, so that the position of the FOE is accumulated in the memory.
  • the difference between the FOE position thus obtained and the preset reference position is recognized as a “static FOE shift”.
  • the size of the image error region 22 in the depth direction is set according to the value obtained by adding these error factors. That is, in the area setting process, as shown in FIG. 8, first, a search range for image coordinate errors in the width (orientation) direction is set (S410).
  • the error of the FOE position (“static FOE deviation”) is the smallest when the learning phase 2 is completed, and is slightly larger when only the learning phase 1 is completed than when the learning phase 2 is completed, It becomes even larger when learning is incomplete. Therefore, the search range of the coordinate conversion error is the smallest when the learning phase 2 is completed, slightly larger when the learning phase 1 is completed than when the learning phase 2 is completed, and larger when the learning phase is not completed. Is done.
  • the shift direction setting process is a process for shifting the position of the search range in accordance with the direction in which the FOE shifts with respect to the reference. Specifically, as shown in FIG. 9, first, the FOE shift amount and shift direction are estimated (S610).
  • the shift in the vertical direction of the captured image is taken into account. Since the FOE position is accumulated in the memory by the above-described processing, the deviation amount of the FOE position with respect to the reference can be obtained.
  • the magnitude of the FOE position shift relative to the reference can be expressed using distributions as shown in FIGS. 10 to 12, for example. 10 to 12, the horizontal axis indicates the difference in the distance of the image object from the radar object of the object located at a certain distance, and the vertical axis indicates the number of times of detection of the object.
  • the FOE position when the FOE position is shifted downward, it can be seen that the image object is detected closer to the radar object as shown in FIG. Further, it can be seen that when the FOE position is not substantially displaced, the radar object and the image object are detected at substantially the same distance as shown in FIG. In addition, when the FOE position is shifted upward, as shown in FIG. 12, it can be seen that the image object is detected farther than the radar object.
  • the length ⁇ d1 of the error region on the near side of the image object Pi and the image object Pi It is set so that the length ⁇ d2 of the error region on the back side is equal.
  • ⁇ d1 and ⁇ d2 indicate settings in the final image error region 22 after processing in S500 described later.
  • the FOE position shift direction is determined (S630). If the FOE position shift is an upward shift (S630: YES), the shift amount is compared with a preset shift threshold (S640).
  • the search range is set when the FOE is an upward deviation and the deviation amount is large (S710).
  • the image error region 22 is moved (offset) to the back side (direction away from the host vehicle).
  • the length ⁇ d1 of the error area on the near side of the image object Pi is set to be shorter than the length ⁇ d2 of the error area on the back side of the image object Pi.
  • the search range is set when the FOE is an upward deviation and the deviation amount is small (S720). Also in this process, as shown in FIG. 13, the image error area 22 is moved to the back side. However, the amount to be moved is smaller than the setting of the search range when the FOE is shifted upward and the shift amount is large.
  • the search range is set when the FOE is downward deviation and the deviation amount is large (S730).
  • the image error region 22 is moved to the near side (direction approaching the host vehicle).
  • the length ⁇ d1 of the error area on the near side of the image object Pi is set to be longer than the length ⁇ d2 of the error area on the back side of the image object Pi.
  • the radar object is easily detected in front of the image object, so that the area on the front side is set to be wide. .
  • the search range is set when the FOE is downward deviation and the deviation amount is small (S740). Also in this process, as shown in FIG. 14, the image error area 22 is moved to the near side. However, the amount of movement is smaller than the setting of the search range when the FOE has a downward shift and the shift amount is large.
  • the deviation direction setting processing is finished. Subsequently, returning to FIG. 8, the sum of the search range of the image coordinate error and the search range of the coordinate conversion error is set as the length of the image error region 22 in the depth direction (S500).
  • the image coordinate error corresponds to a shift of the lower end position of the object.
  • the search range corresponding to this lower end position shift is set larger.
  • the search range for the deviation of the lower end position of the object is gradually set larger as the distance to the object increases up to about 30 m, and when the distance of the object exceeds about 30 m.
  • the size is assumed to be constant.
  • the coordinate conversion error corresponds to a shift in the FOE position.
  • the search range corresponding to this FOE misregistration is set larger.
  • the search range corresponding to the FOE misregistration is set larger as the FOE misregistration amount increases. As shown in FIG. 16, for example, as shown in FIG. 16, the search range corresponding to the FOE misregistration is gradually increased as the distance to the object increases, and when the object distance exceeds about 30 m. The size is assumed to be constant.
  • the sum of the search ranges shown in FIGS. 15 and 16 is set as the length in the image error region 22 in the depth direction ( ⁇ d1 + ⁇ d2).
  • the length in the depth direction in the image error region 22 is set to a magnification (coefficient to be multiplied) of the length according to the learning state.
  • this coefficient is set to the smallest value (for example, 0.8). That is, the length in the depth direction in the final image error region 22 is set by multiplying the sum of the search ranges by the coefficient.
  • this coefficient is set to the largest value (for example, 1.2).
  • this coefficient is set to an intermediate value (for example, 1.0).
  • the image error region 22 is made smaller as the FOE position is accurately obtained according to the learning state.
  • the region setting processing ends. Subsequently, returning to FIG. 2, it is determined whether or not there is an overlapping portion (overlapping region) in the radar error region 21 and the image error region 22 on the XY plane (S160).
  • the radar object and the image object are the same object (S170).
  • the position specified by the Y coordinate of the detection point Pr of the radar object and the horizontal azimuth position of the image object is set as the position of the object (the object determined to be the same) on the XY plane.
  • the reliability (the reliability of the determination result) that the radar object and the image object are the same object is calculated (S180).
  • the angle difference between the horizontal azimuth position of the radar object detection point Pr and the horizontal azimuth position of the image object detection point Pi is calculated as the reliability. That is, the smaller the angle difference, the higher the reliability.
  • the collision reduction ECU 7 When it is determined in S160 that there is no overlapping part (S160: NO), the collision reduction ECU 7 does not determine that the radar object and the image object are the same object (determines that they are different objects). . In this case, the process proceeds to S190.
  • collision mitigation control is performed according to the detected position and reliability of the object (S190). For example, when there is a possibility of colliding with an object, a warning signal is transmitted to the notification device 6 to notify the driver. When the possibility of collision with an object is high, an instruction to reduce the driving force of the internal combustion engine is given to the engine ECU 5, and an instruction to increase the braking force of the host vehicle is given to the brake ECU 4.
  • the collision mitigation ECU 7 varies the control mode according to the reliability. For example, when the reliability is high, the control timing is advanced compared to when the reliability is low.
  • the collision mitigation ECU 7 corresponds to the object detection device referred to in the present invention.
  • FIG. 1B shows functional blocks representing the functions of the collision mitigation ECU 7 realized by a processor, software, or a combination thereof.
  • the collision mitigation ECU 7 has functional blocks such as a first specifying unit 701, a second specifying unit 702, a learning state acquisition unit 703, a position difference acquisition unit 704, a region shift unit 705, and a determination unit 706.
  • the first specifying unit 701 executes the processes of steps S110 and S120.
  • the second specifying unit 702 executes the processes of steps S130, S140, and S430 to S500.
  • the learning state acquisition unit 703 executes the process of step S420.
  • the position difference acquisition unit 704 executes the process of step S610.
  • the area shift unit 705 executes the processes of steps S620 to S750.
  • the determination unit 706 executes the process of step S160.
  • the collision mitigation ECU 7 has the vehicle width direction of the vehicle as the X axis, the vehicle length direction as the Y axis, and the first object detected based on the detection information by the millimeter wave radar 2.
  • a first region including a first detection point that is a detection point representing a relative position of the first object with respect to the reference point on the XY plane is specified.
  • a second region including a second detection point that is a detection point representing a relative position of the second object with respect to a reference point on the XY plane is detected for the second object detected based on the image captured by the monocular camera 3. Identify.
  • a progress state of learning for estimating the position of the infinity point on the captured image is acquired, and the first object and the second object are provided on the XY plane on the condition that there is an overlapping portion between the first area and the second area It is determined that the second object is the same object.
  • the length in the depth direction or the vehicle length direction that represents the direction of the second detection point with respect to the reference point in the second area is set according to the progress of learning.
  • the magnitude of the error in the depth direction or the vehicle length direction changes depending on whether or not the position of the infinity point is accurately recognized. To do.
  • the length in the depth direction or the vehicle length direction in the second region is set in accordance with the progress of learning for estimating the position of the infinity point.
  • the collision mitigation ECU 7 adds a value obtained by adding the value set according to the learning progress state and the value based on the detection prediction error of the position of the second object to the depth direction or the vehicle length. Set as direction length.
  • the error in the position of the object in the captured image can be decomposed into an error in the position of the infinity point and an error in specifying the edge in the captured image indicating the position of the object. Is calculated and added.
  • the value set according to the learning progress state and the value based on the detection prediction error of the position of the second object can be calculated separately.
  • the length in the depth direction or the vehicle length direction can be set appropriately.
  • the collision mitigation ECU 7 sets the length in the depth direction or the vehicle length direction to be longer as the distance to the second object increases.
  • the second region can be set more appropriately. Further, in the above-described collision mitigation apparatus 1, the collision mitigation ECU 7 obtains a difference in the position of the infinity point with respect to a preset reference position on the captured image, and in the XY plane according to the difference in the position of the infinity point. The position of the second region is shifted (moved).
  • the collision mitigation ECU 7 obtains the vertical difference between the position of the infinity point with respect to the reference position on the captured image, and the position of the infinity point is directed upward with respect to the reference position.
  • the second region is moved in the Y direction on the back side of the second detection point or the XY plane when viewed from the reference point, and the position of the infinity point is shifted downward with respect to the reference position.
  • the second region is moved in the ⁇ Y direction on the near side of the second detection point or the XY plane when viewed from the reference point.
  • Such a collision mitigation apparatus 1 can appropriately reflect the shift in the position of the infinity point in the position of the second region.
  • various forms such as a system including the collision mitigation device 1 as a constituent element, a program for causing a computer to function as the collision mitigation device 1, a medium on which the program is recorded, and a collision mitigation method
  • the present invention can be realized.
  • the collision reduction ECU 7 acquires a vertical difference between the position of the infinity point and the reference position on the captured image, and the position of the infinity point is shifted upward with respect to the reference position.
  • the second area is moved in the Y direction when viewed from the reference point and the position of the infinity point is shifted downward with respect to the reference position, the second area is viewed from the reference point on the XY plane. It may be moved in the ⁇ Y direction.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Acoustics & Sound (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

 物体検出装置(7)において、第1特定部(701、S110、S120)は、レーダ(2)による検出情報に基づいて検出された第1の物体について、第1の物体の相対位置を表す検出点である第1の検出点を含む第1領域を特定し、第2特定部(702、S130、S140:S430~S500)は、単眼カメラ(3)による撮像画像に基づいて検出された第2の物体について、第2の物体の相対位置を表す検出点である第2の検出点を含む第2領域を特定する。また、学習状態取得部(703、S420)は、無限遠点の位置を推定する学習の進捗状態を取得し、判定部(706、S160)は、第1領域と第2領域とに重複部が存在することを条件として、第1の物体と第2の物体とが同一の物体であると判定する。ここで、第2特定部(702、S130、S140:S430~S500)は、第2領域を特定する際には、学習の進捗状態に応じて、第2領域における基準点に対する第2の検出点の方向を表す奥行き方向または車長方向の長さを設定する。

Description

物体検出装置 関連出願の相互参照
 本出願は、2014年9月24日に出願された日本出願番号2014-193892号に基づくもので、ここにその記載内容を援用する。
 本発明は、レーダおよびカメラを用いて物体を検出する技術に関する。
 例えば車両の衝突回避システムでは、他の車両や歩行者等の物体を精度よく検出することが求められる。そこで、レーダおよびカメラを用いて物体を検出する構成が提案されている(特許文献1参照)。具体的には、特許文献1に記載の構成では、ミリ波レーダおよび単眼カメラによりそれぞれ独立して物体が検出され、それら物体の位置関係が判断基準を満たしている場合(特に、近接している場合)に、それらの物体が同一物体であると判定される。
特開2014-122873号公報
 しかしながら、上記システムでは、レーダおよびカメラを用いて検出された物体が近接していると、これらが異なる物体であるとしても同一の物体であると誤認識する虞があった。
 そこで、このような問題点を鑑み、レーダおよびカメラを用いて物体を検出する物体検出装置であって、同一物体であるか否かの判定をより正確に実施することができる物体検出装置を提供することを本発明の目的とする。
 本発明の一態様による物体検出装置において、第1特定部は、レーダによる検出情報に基づいて検出された第1の物体について、車両の車幅方向をX軸、車両の車長方向をY軸、としたXY平面における基準点に対する第1の物体の相対位置を表す検出点である第1の検出点を含む第1領域を特定する。また、第2特定部は、単眼カメラによる撮像画像に基づいて検出された第2の物体について、XY平面における基準点に対する第2の物体の相対位置を表す検出点である第2の検出点を含む第2領域を特定する。
 そして、学習状態取得部は、撮像画像上において無限遠点の位置を推定する学習の進捗状態を取得し、判定部は、XY平面において、第1領域と第2領域とに重複部が存在することを条件として、第1の物体と第2の物体とが同一の物体であると判定する。ここで、第2特定部は、学習の進捗状態に応じて、第2領域における基準点に対する第2の検出点の方向を表す奥行き方向または車長方向の長さを設定する。
 すなわち、本発明のように撮像画像から物体の位置を検出する構成においては、無限遠点の位置が正確に認識されているか否かに応じて奥行き方向または車長方向の誤差の大きさが変化する。このため、本発明では、無限遠点の位置を推定する学習の進捗状態に応じて、第2領域における奥行き方向または車長方向の長さを設定するようにしている。
 このような物体検出装置によれば、同一物体であるか否かの判定をより正確に実施することができる。
本発明の上述およびその他の目的、特徴、および利点は、好ましい実施形態に関する以下の詳細な説明を添付の図面と共に読めば、容易に明らかになり、十分に理解できるであろう。
本発明の実施形態による衝突軽減装置の概略構成を示すブロック図である。 衝突軽減ECUの機能ブロック図である。 衝突軽減ECUが実行する衝突軽減処理を示すフローチャートである。 誤差領域を示す平面図である。 画像において物体を検出する際の距離の誤差要因を示す説明図である。 下端位置のずれによる誤差を示す説明図である。 衝突軽減ECUが実行するFOE学習処理を示すフローチャートである。 オプティカルフローを示す画像図である。 衝突軽減処理のうちの領域設定処理を示すフローチャートである。 領域設定処理のうちのずれ方向設定処理を示すフローチャートである。 FOEが下方向にずれているときのレーダ物体に対する画像物体の位置ずれの分布を示すグラフである。 FOEがずれていないときのレーダ物体に対する画像物体の位置ずれの分布を示すグラフである。 FOEが上方向にずれているときのレーダ物体に対する画像物体の位置ずれの分布を示すグラフである。 FOEが上方向にずれているときの画像誤差領域の設定例を示す平面図である。 FOEが下方向にずれているときの画像誤差領域の設定例を示す平面図である。 物体の下端ずれに基づく探索範囲の設定例を示すグラフである。 FOEの位置ずれに基づく探索範囲の設定例を示すグラフである。 物体の下端ずれおよびFOEの位置ずれを加算したときの探索範囲の設定例を示すグラフである。
 以下、本発明の実施形態を、添付図面を参照しながら、より詳細に説明する。しかし、本発明は、多くの異なる形態で実施されてもよく、本明細書で説明される実施形態に限定されると解釈されるべきではない。むしろ、これらの実施形態は、この発明の開示を徹底的でかつ完全にし、本発明の範囲を当業者に完全に伝えるために、提供される。尚、類似の符号は、図面全体にわたって類似の構成要素を示す。
 (構成)
 本発明の実施の一形態による衝突軽減装置1は、乗用車等の車両に搭載された装置であって、レーダおよびカメラ画像を用いて物体(他車両や歩行者等の物体)を検出し、この物体と衝突する虞がある場合に、衝突を回避または衝突する際の衝撃を軽減するために、自車両を制動する等の制御を行う機能を有する。
 衝突軽減装置1は、図1Aに示すように、ミリ波レーダ2と、単眼カメラ3と、ブレーキECU4と、エンジンECU5と、報知装置6と、衝突軽減ECU7と、を備える。衝突軽減装置1において、衝突軽減ECU7は、ミリ波レーダ2、単眼カメラ3、ブレーキECU4、エンジンECU5および報知装置6のそれぞれと通信可能に接続されている。なお、通信を実現するための構成は、特に限定されない。
 ミリ波レーダ2は、ミリ波を利用して物体(他車両や歩行者等)を検出するためのレーダであって、自車両(衝突軽減装置1が搭載された車両)の前側における中央(先端位置)に取り付けられている。ミリ波レーダ2は、ミリ波を水平面内でスキャンしながら自車両から前方に向けて送信し、反射してきたミリ波を受信することによって得られる送受信データを、レーダ信号として衝突軽減ECU7へ送信する。
 単眼カメラ3は、1台のCCDカメラを備え、自車両の車室内の前側における中央に取り付けられている。単眼カメラ3は、CCDカメラで撮像した画像のデータを、画像信号として衝突軽減ECU7へ送信する。
 ブレーキECU4は、自車両の制動を制御する電子制御装置であって、CPU、ROM、RAMなどを備える。具体的には、ブレーキECU4は、ブレーキ液圧回路に設けられた増圧制御弁および減圧制御弁を開閉するアクチュエータであるブレーキACTを、ブレーキペダルの踏込量を検出するセンサの検出値に応じて制御する。また、ブレーキECU4は、衝突軽減ECU7からの指示に従い、自車両の制動力を増加させるようにブレーキACTを制御する。
 エンジンECU5は、エンジンの始動/停止、燃料噴射量、点火時期等を制御する電子制御装置であって、CPU、ROM、RAMなどを備える。具体的には、エンジンECU5は、吸気管に設けられたスロットルを開閉するアクチュエータであるスロットルACTを、アクセルペダルの踏込量を検出するセンサの検出値に応じて制御する。また、エンジンECU5は、衝突軽減ECU7からの指示に従い、内燃機関の駆動力を減少させるようにスロットルACTを制御する。
 報知装置6は、衝突軽減ECU7から警報信号を受信すると、音や光などで車両の運転者に対する報知を行う。
 衝突軽減ECU7は、衝突軽減装置1を統括制御する電子制御装置であって、CPU、ROM、RAMなどを備える。衝突軽減ECU7は、CPUのマスタクロックに基づく一定時間ごとに、ミリ波レーダ2からのレーダ信号および単眼カメラ3からの画像信号を取り入れる。
 (処理)
 次に、衝突軽減装置1による物体検出方法および衝突軽減方法について説明する。衝突軽減ECU7には、衝突軽減装置1による物体検出を実現するため、および衝突を軽減するためのプログラムである衝突軽減プログラムが記憶されている。以下、衝突軽減プログラムに従い衝突軽減ECU7が実行する衝突軽減処理について、図2のフローチャートを用いて説明する。なお、図2に示す処理は、所定サイクルで繰り返し実行される。
 衝突軽減処理では、図2に示すように、まず、ミリ波レーダ2から送信されるレーダ信号(ミリ波レーダ2による検出情報)に基づいて、物体を検出する(S110)。具体的には、衝突軽減ECU7は、レーダ信号に基づいて、まず、自車両から物体までの直線距離と、その物体の水平方位位置(自車両の前方方向を基準とする角度位置)と、を算出(特定)する。
 そして、これらの算出値に基づき、図3に示すように、XY平面における物体の位置座標(X座標およびY座標)を、XY平面における物体の検出点Prとして算出(特定)する。このXY平面は、自車両の車幅方向(横方向)をX軸、自車両の車長方向(前方方向)をY軸、としたものである。ミリ波レーダ2により物体の幅方向において複数の検出点が得られた物体について、物体の検出点Prは、例えば、それらの複数の検出点の中央に設定される。
 また、このXY平面では、自車両の先端位置(ミリ波レーダ2が設けられた位置)が基準点Poとして設定され、物体の検出点Prは基準点Poに対する相対位置を表す。なお、図3は、自車両の前方かつ右寄りに位置する物体の例である。また、このS110において、物体の検出点Prに加え、物体との相対速度等を算出してもよい。また、以下の説明では、S110で検出した物体(ミリ波レーダ2による検出情報に基づいて検出した物体)を「レーダ物体」という。
 続いて、図3に示すように、S110で算出したレーダ物体の検出点Prを中心とするレーダ誤差領域21を設定する(S120)。具体的には、衝突軽減ECU7は、レーダ物体の検出点PrのX座標およびY座標を基準として、X座標およびY座標のそれぞれについて、ミリ波レーダ2の特性に基づきあらかじめ設定されている想定誤差分(Δθ)の幅を持たせた領域を、レーダ誤差領域21として設定する。
 続いて、単眼カメラ3から送信される画像信号(単眼カメラ3による撮像画像)に基づいて、物体を検出する(S130)。具体的には、衝突軽減ECU7は、画像信号の表す撮像画像を解析して物体を識別する。この識別は、例えば、あらかじめ登録されている物体モデルを用いたマッチング処理により行われる。
 物体モデルは、物体の種類(車両、歩行者等)ごとに用意されているため、物体の種類も特定される。そして、衝突軽減ECU7は、撮像画像における物体の上下方向の位置に基づいて、前述したXY平面におけるY座標を特定し、撮像画像における物体の左右方向の位置に基づいて、その物体の水平方位位置(自車両の前方方向を基準とする角度位置)を特定する。
 すなわち、自車両の前方方向における物体の位置が遠い(Y座標が大きい)ほど、撮像画像におけるその物体の下端位置が高くなる傾向にある。このため、撮像画像における物体の下端位置の高さに基づいて、Y座標を特定することができる。ただし、このような特定方法は、物体の下端位置が正確に検出されない場合に、Y座標の検出精度が下がるという特性がある。
 また、自車両の前方方向(詳細にはX=0の直線)を基準とする物体の角度方向のずれ(傾き)が大きいほど、単眼カメラ3の無限遠点(FOE:Focus of Expansion)を基準とするその物体の左右方向へのずれが大きくなる傾向にある。このため、撮像画像における無限遠点から物体の中心を通る鉛直線までの距離に基づいて、物体の水平方位位置を特定することができる。
 つまり、このS130においては、図3に示すように、XY平面における物体のY座標および水平方位位置(角度位置)を、XY平面における物体の検出点Piとして特定する。なお、物体の検出点Piは、例えば物体の幅方向の中心に設定される。また、物体の検出点Piは基準点Poに対する相対位置を表す。なお、以下の説明では、S130で検出した物体(単眼カメラ3による撮像画像に基づいて検出した物体)を「画像物体」という。
 続いて、図3に示すように、S130で算出した画像物体の検出点Piを中心とする画像誤差領域22を設定する領域設定処理を実施する(S140)。この処理は、検出点PiのY座標および水平方位位置を基準として、PoからPiを見た方向である奥行き方向(或いはY座標方向)および水平方位方向のそれぞれについて、単眼カメラ3の特性に基づき想定誤差分の幅を持たせた領域を、画像誤差領域22として設定する処理である。
 特に本処理では、水平方位方向の想定誤差分の幅については、予め設定された値とし、奥行き方向の幅を状況に応じて変更する。ここで、撮像画像から画像物体の位置を検出する際には、図4に示すような誤差要因が存在する。
 誤差要因には、まず物体の下端位置ずれ(下端位置の誤差)が挙げられる。下端位置ずれとは、実際の物体の下端の位置を表すエッジ(隣接する画素の輝度の差が所定値以上となる部位)が正確に得られない場合において、正しい物体の下端位置と誤検出された物体の下端位置との誤差を示す。
 例えば、図5に示すように、正しい物体の下端位置に対して、撮像画像の上側に下端位置26が検出されると、この物体の位置が誤差分だけ遠くに認識される。また、正しい物体の下端位置に対して、撮像画像の下側に下端位置27が検出されると、この物体の位置が誤差分だけ近くに認識される。
 また、誤差要因には、撮像画像中におけるFOEの位置ずれも挙げられる。FOEの位置ずれには、ピッチング(自車両の前後方向の揺れ)等に起因する「動的FOEずれ」や、単眼カメラ3の搭載ずれ(軸ずれ)、自車両に搭載された荷物の重さによる車両全体の傾きを表す積載傾き等に起因する「静的FOEずれ」等が挙げられる。
 この「静的FOEずれ」については、衝突軽減処理とは別に、衝突軽減ECU7が図6に示すFOE学習処理を実施することで求められる。FOE学習処理では、図6に示すように、まず、オプティカルフローによる学習を開始する(S310)。
 この処理では、図7に示すように、例えば、撮像画像のエッジに多数の特徴点を設定し、これら多数の特徴点が時系列に従ってどのように移動するかをベクトルとして求める。つまり、オプティカルフローを演算する。そして、オプティカルフローを用いてFOEの位置を求める。
 例えば、このオプティカルフローにおいて、白線や樹木等の静止物は、FOEから出現するように移動することが検出される。また、飛び出し歩行者や自転車等の撮像画像左右から移動してくる移動物は、FOEとは異なる消失点に対して移動するよう検出される。つまり、物体の出現点を求めれば、FOEの位置が分かる。オプティカルフローを用いてFOEの位置を検出する処理は、数フレーム分の撮像画像についての画像処理を行うことで完了するため、比較的短時間でFOEの位置を推定できる。
 続いて、白線認識によるFOEの位置の学習を開始する(S320)。この処理では、例えば図7に示すような撮像画像から自車両の左右に位置する白線を認識し、これらの白線の延長線上の交点を求めることによってFOEの位置を推定する。このように白線の位置に基づいてFOEの位置を求める処理では、FOEの位置を精度よく求められるが、自車両が起伏のない直線道路を走行しており、かつ自車両の左右に白線が存在している必要があるため、FOEの位置の推定に時間が掛かることがある。
 続いて、オプティカルフローによるFOEの位置の学習が終了(完了)したか否かを判定する(S330)。オプティカルフローによるFOEの位置の学習が終了していれば(S330:YES)、FOEの位置をRAM等のメモリに記録するとともに、メモリ内において学習段階1の完了フラグをセットする(S340)。この処理が終了すると、S350の処理に移行する。
 また、オプティカルフローによるFOEの位置の学習が終了していなければ(S330:NO)、白線認識によるFOEの位置の学習が終了したか否かを判定する(S350)。白線認識によるFOEの位置の学習が終了していなければ(S350:NO)、S330の処理に戻る。
 また、白線認識によるFOEの位置の学習が終了していれば(S350:YES)、FOEの位置をRAM等のメモリに記録するとともに、メモリ内において学習段階2の完了フラグをセットする(S360)。このような処理が終了すると、FOE学習処理を終了する。なお、FOE学習処理は、一定時間毎、或いは任意のタイミングにおいて、繰り返し実施されることで、FOEの位置をメモリにおいて蓄積する。
 このようにして得られたFOEの位置と、予め設定された基準位置との差が「静的FOEずれ」として認識される。
 図2において、S140の画像物体の領域設定処理では、これらの誤差要因を加算することで得られる値に従って、画像誤差領域22の奥行き方向の大きさが設定されることになる。すなわち、領域設定処理では、図8に示すように、まず、幅(方位)方向における画像座標誤差の探索範囲を設定する(S410)。
 この処理では、ミリ波レーダ2の場合と同様に、あらかじめ設定されている想定誤差分の幅を持たせた領域を、画像誤差領域22(の幅)として設定する。続いて、FOE学習実施結果を取得する(S420)。この処理では、メモリに記録されたFOEの位置、および学習段階を示すフラグ(段階1完了フラグ、段階2完了フラグ)の値を取得する(S430)。
 そして、フラグの値に基づいて、FOE学習段階2が完了したか否か(S430)、FOE学習段階1が完了したか否か(S450)を判定する。学習段階2が完了していれば(S430:YES)、学習段階2が完了したときの座標変換誤差の探索範囲を設定する(S440)。
 また、学習段階1だけが完了していれば(S430:NO、S450:YES)、学習段階1が完了したときの座標変換誤差の探索範囲を設定する(S460)。また、いずれの学習段階も完了していなければ(S430:NO、S450:NO)、学習が未完了であるときの座標変換誤差の探索範囲を設定する(S470)。
 ここで、FOEの位置の誤差(「静的FOEずれ」)は、学習段階2が完了したときが最も小さく、学習段階1だけが完了したときには学習段階2が完了したときよりもやや大きくなり、学習未完了であるときにはさらに大きくなる。よって、座標変換誤差の探索範囲は、学習段階2が完了したときが最も小さく、学習段階1だけが完了したときには学習段階2が完了したときよりもやや大きく、学習未完了であるときにはさらに大きく設定される。
 続いて、ずれ方向設定処理を実施する(S480)。ずれ方向設定処理は、基準に対してFOEがずれた方向に応じて、探索範囲の位置をシフトさせる処理である。詳細には、図9に示すように、まず、FOEのずれ量およびずれ方向を推定する(S610)。
 この処理では、FOEのずれのうちの、撮像画像の上下方向についてのずれを考慮する。前述の処理によってメモリには、FOEの位置が蓄積されているので、基準に対するFOEの位置のずれ量を求めることができる。
 基準に対するFOEの位置のずれの大小は、例えば図10~図12に示すような分布を用いて表すことができる。なお、図10~図12において、横軸は、ある距離に位置する物体のレーダ物体に対する画像物体の距離の差を示し、縦軸は、物体の検出回数を示している。
 例えば、FOEの位置が下方向にずれている場合には、図10に示すように、レーダ物体に対して画像物体がより近くに検出されることが分かる。また、FOEの位置が概ねずれていない場合には、図11に示すように、レーダ物体と画像物体とは概ね同じ距離に検出されることが分かる。また、FOEの位置が上方向にずれている場合には、図12に示すように、レーダ物体に対して画像物体がより遠くに検出されることが分かる。
 続いて、FOEの位置のずれがあるか否かを判定する(S620)。FOEの位置のずれがなければ(S620:NO)、FOEずれなし時の探索範囲を設定する(S750)。
 すなわち、図3に示すように、画像物体Piの周囲に設ける画像誤差領域22の奥行き方向の長さ(Δd1+Δd2)について、画像物体Piの手前側の誤差領域の長さΔd1と、画像物体Piの奥側の誤差領域の長さΔd2とが等しくなるよう設定する。なお、Δd1およびΔd2については、後述するS500による処理後の最終的な画像誤差領域22における設定を示す。
 また、FOEの位置のずれがあれば(S620:YES)、FOEの位置のずれ方向について判定する(S630)。FOEの位置のずれが上方向へのずれであれば(S630:YES)、このずれ量と予め設定されたずれ閾値とを比較する(S640)。
 ずれ量がずれ閾値以上であれば(S640:YES)、FOEが上向きずれであり、かつずれ量が大きいときの探索範囲の設定を行う(S710)。この処理では、図13に示すように、画像誤差領域22を奥側(自車両から遠ざかる方向)に移動(オフセット)させる。この結果、画像物体Piの手前側の誤差領域の長さΔd1が、画像物体Piの奥側の誤差領域の長さΔd2よりも短く設定されることになる。
 つまり、FOEが上向きずれであるときにおいて、レーダ物体と画像物体とが同一の物体である場合、レーダ物体が画像物体よりも奥側に検出され易いため、奥側の領域が広くなるよう設定する。
 また、ずれ量が閾値未満であれば(S640:NO)、FOEが上向きずれであり、かつずれ量が小さいときの探索範囲の設定を行う(S720)。この処理でも、図13に示すように、画像誤差領域22を奥側に移動させる。ただし、移動させる量は、FOEが上向きずれであり、かつずれ量が大きいときの探索範囲の設定よりも小さな量になる。
 また、S630の処理において、FOEの位置のずれが下方向へのずれであれば(S630:NO)、S640の処理と同様に、このずれ量と予め設定されたずれ閾値とを比較する(S650)。
 ずれ量がずれ閾値以上であれば(S650:YES)、FOEが下向きずれであり、かつずれ量が大きいときの探索範囲の設定を行う(S730)。この処理では、図14に示すように、画像誤差領域22を手前側(自車両に近づく方向)に移動させる。この結果、画像物体Piの手前側の誤差領域の長さΔd1が、画像物体Piの奥側の誤差領域の長さΔd2よりも長く設定されることになる。
 つまり、FOEが下向きずれであるときにおいて、レーダ物体と画像物体とが同一の物体である場合、レーダ物体が画像物体よりも手前側に検出され易いため、手前側の領域が広くなるよう設定する。
 また、ずれ量が閾値未満であれば(S650:NO)、FOEが下向きずれであり、かつずれ量が小さいときの探索範囲の設定を行う(S740)。この処理でも、図14に示すように、画像誤差領域22を手前側に移動させる。ただし、移動させる量は、FOEが下向きずれであり、かつずれ量が大きいときの探索範囲の設定よりも小さな量になる。
 このような処理が終了すると、ずれ方向設定処理を終了する。続いて、図8に戻り、画像座標誤差の探索範囲と座標変換誤差の探索範囲との和を、画像誤差領域22の奥行き方向の長さとして設定する(S500)。
 画像座標誤差とは、物体の下端位置のずれに相当する。物体までの距離が大きくなるにつれてこの下端位置のずれに対応する探索範囲を大きく設定する。物体の下端位置のずれに対する探索範囲は、例えば、図15に示すように、物体の距離が30m程度までは物体までの距離が大きくなるにつれて次第に大きく設定され、物体の距離が30m程度を超えると大きさが一定とされる。
 また、座標変換誤差とは、FOEの位置のずれに相当する。物体までの距離が大きくなるにつれてこのFOEの位置ずれに対応する探索範囲を大きく設定する。また、FOEの位置ずれに対応する探索範囲は、FOEの位置ずれ量が大きくなるにつれてより大きく設定される。FOEの位置ずれに対応する探索範囲は、例えば、図16に示すように、物体の距離が30m程度までは物体までの距離が大きくなるにつれて次第に大きく設定され、物体の距離が30m程度を超えると大きさが一定とされる。
 そして、図17に示すように、図15および図16にて示した探索範囲の和が、画像誤差領域22における奥行き方向の長さ(Δd1+Δd2)として設定される。ただし、画像誤差領域22における奥行き方向の長さは、学習状態に応じてその長さの倍率(乗じる係数)が設定される。
 例えば、S440の処理において学習段階2が完了したときの座標変換誤差の探索範囲が設定されると、この係数を最も小さな値(例えば、0.8)に設定する。つまり、探索範囲の和に対して係数を乗じることで最終的な画像誤差領域22における奥行き方向の長さが設定される。
 また、例えば、S470の処理において学習が未完了であるときの座標変換誤差の探索範囲が設定されると、この係数を最も大きな値(例えば、1.2)に設定する。また、例えば、S460の処理において学習段階2が完了したときの座標変換誤差の探索範囲が設定されると、この係数をこれらの中間値(例えば、1.0)に設定する。
 このようにして、学習状態に応じてFOEの位置が精度よく求められるにつれて、画像誤差領域22が小さくなるようにする。
 このような処理が終了すると、領域設定処理を終了する。続いて、図2に戻り、XY平面において、レーダ誤差領域21と画像誤差領域22とに重複部(重なり領域)が存在するか否かを判定する(S160)。
 重複部が存在すると判定した場合(S160:YES)、レーダ物体と画像物体とが同一の物体であると判定する(S170)。この場合、レーダ物体の検出点PrのY座標と画像物体の水平方位位置とで特定される位置を、XY平面におけるその物体(同一と判定された物体)の位置とする。
 続いて、レーダ物体と画像物体とが同一の物体であることの信頼度(判定結果の信頼度)を算出する(S180)。本実施形態では、レーダ物体の検出点Prの水平方位位置と画像物体の検出点Piの水平方位位置との角度差を、信頼度として算出する。つまり、角度差が小さいほど、高い信頼度を表す。
 なお、前述したS160で重複部が存在しないと判定した場合(S160:NO)、衝突軽減ECU7は、レーダ物体と画像物体とが同一の物体であると判定しない(異なる物体であると判定する)。この場合、S190に移行する。
 続いて、検出した物体の位置および信頼度に応じた衝突軽減制御を行う(S190)。例えば、物体に衝突する可能性がある場合に、報知装置6へ警報信号を送信して、運転者に対する報知を行わせる。また、物体に衝突する可能性が高い場合には、エンジンECU5へ内燃機関の駆動力を減少させる指示を行い、また、ブレーキECU4へ自車両の制動力を増加させる指示を行う。
 そして、衝突軽減ECU7は、信頼度に応じて制御態様を異ならせる。例えば、信頼度が高い場合には、信頼度が低い場合と比較して、制御のタイミングを早くする。
 上記実施形態において衝突軽減ECU7は本発明でいう物体検出装置に相当する。図1Bは、プロセッサ、ソフトウェア、またはこれらの組み合わせによって実現される衝突軽減ECU7の機能を表す機能ブロックを示している。衝突軽減ECU7は、第1特定部701、第2特定部702、学習状態取得部703、位置差取得部704、領域シフト部705、及び判定部706といった機能ブロックを有する。第1特定部701は、ステップS110、S120の処理を実行する。第2特定部702は、ステップS130、S140及びS430~S500の処理を実行する。学習状態取得部703は、ステップS420の処理を実行する。位置差取得部704は、ステップS610の処理を実行する。領域シフト部705は、ステップS620~S750の処理を実行する。判定部706は、ステップS160の処理を実行する。
 (効果)
 本発明の衝突軽減装置1において衝突軽減ECU7は、ミリ波レーダ2による検出情報に基づいて検出された第1の物体について、車両の車幅方向をX軸、車両の車長方向をY軸、としたXY平面における基準点に対する第1の物体の相対位置を表す検出点である第1の検出点を含む第1領域を特定する。また、単眼カメラ3による撮像画像に基づいて検出された第2の物体について、XY平面における基準点に対する第2の物体の相対位置を表す検出点である第2の検出点を含む第2領域を特定する。
 そして、撮像画像上において無限遠点の位置を推定する学習の進捗状態を取得し、XY平面において、第1領域と第2領域とに重複部が存在することを条件として、第1の物体と第2の物体とが同一の物体であると判定する。ここで、第2領域を特定する際には、学習の進捗状態に応じて、第2領域における基準点に対する第2の検出点の方向を表す奥行き方向または車長方向の長さを設定する。
 すなわち、本発明のように撮像画像から物体の位置を検出する構成においては、無限遠点の位置が正確に認識されているか否かに応じて奥行き方向または車長方向の誤差の大きさが変化する。このため、本発明では、無限遠点の位置を推定する学習の進捗状態に応じて、第2領域における奥行き方向または車長方向の長さを設定するようにしている。
 このような物体検出装置によれば、同一物体であるか否かの判定を良好に実施することができる。
 また、上記の衝突軽減装置1において衝突軽減ECU7は、学習の進捗状態によって設定される値と、第2の物体の位置の検出予測誤差に基づく値と、を加算した値を奥行き方向または車長方向の長さとして設定する。
 すなわち、撮像画像における物体の位置の誤差は、無限遠点の位置の誤差と、物体の位置を示す撮像画像中のエッジを特定する際の誤差とに分解できるため、これらの誤差に関する値を別々に演算して加算するようにしている。
 このような衝突軽減装置1によれば、学習の進捗状態によって設定される値と、第2の物体の位置の検出予測誤差に基づく値とを別々に演算することができるので、第2領域における奥行き方向または車長方向の長さを適切に設定することができる。
 ところで、撮像画像上においては、第2の物体までの距離が大きくなるにつれて1ピクセルあたりの距離が大きくなる。このため、上記の衝突軽減装置1において衝突軽減ECU7は、第2の物体までの距離が大きくなるにつれて奥行き方向または車長方向の長さも長く設定する。
 このような衝突軽減装置1によれば、より適切に第2領域を設定することができる。
 また、上記の衝突軽減装置1において衝突軽減ECU7は、撮像画像上において、予め設定された基準位置に対する無限遠点の位置の差を取得し、無限遠点の位置の差に応じてXY平面において第2領域の位置をシフト(移動)させる。
 このような衝突軽減装置1によれば、無限遠点の位置の差に基づいて何れの方向に誤差が生じやすいかを推定することができ、この方向に第2領域の位置をシフトさせることができる。よって、第2領域を適切に設定することができるので、同一物体であるか否かの判定を良好に実施することができる。
 また、上記の衝突軽減装置1において衝突軽減ECU7は、撮像画像上において、基準位置に対する無限遠点の位置の上下方向の差を取得し、無限遠点の位置が基準位置に対して上方向にずれている場合に、第2領域を基準点から見て第2の検出点の奥側またはXY平面におけるY方向に移動させ、無限遠点の位置が基準位置に対して下方向にずれている場合に、第2領域を基準点から見て第2の検出点の手前側またはXY平面における-Y方向に移動させる。
 このような衝突軽減装置1によれば、無限遠点の位置のずれを第2領域の位置に適切に反映させることができる。
 (その他の実施形態)
 本発明は、上記の実施形態によって何ら限定して解釈されない。また、上記の実施形態の説明で用いる符号を特許請求の範囲にも適宜使用しているが、各請求項に係る発明の理解を容易にする目的で使用しており、各請求項に係る発明の技術的範囲を限定する意図ではない。上記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてもよい。また、上記実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。また、上記実施形態の構成の一部を、課題を解決できる限りにおいて省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。
 上述した衝突軽減装置1の他、当該衝突軽減装置1を構成要素とするシステム、当該衝突軽減装置1としてコンピュータを機能させるためのプログラム、このプログラムを記録した媒体、衝突軽減方法など、種々の形態で本発明を実現することもできる。
 例えば、上記実施形態において衝突軽減ECU7は、撮像画像上において、基準位置に対する無限遠点の位置の上下方向の差を取得し、無限遠点の位置が基準位置に対して上方向にずれている場合に、第2領域を基準点から見てY方向に移動させ、無限遠点の位置が基準位置に対して下方向にずれている場合に、第2領域を基準点から見てXY平面における-Y方向に移動させてもよい。
 このようにしても、無限遠点の位置のずれを第2領域の位置に適切に反映させることができる。

Claims (5)

  1.  車両に搭載される物体検出装置(7)であって、
     レーダ(2)による検出情報に基づいて検出された第1の物体について、前記車両の車幅方向をX軸、前記車両の車長方向をY軸、としたXY平面における基準点に対する前記第1の物体の相対位置を表す検出点である第1の検出点を含む第1領域を特定する第1特定部(701、S110、S120)と、
     単眼カメラ(3)による撮像画像に基づいて検出された第2の物体について、前記XY平面における前記基準点に対する前記第2の物体の相対位置を表す検出点である第2の検出点を含む第2領域を特定する第2特定部(702、S130、S140:S430~S500)と、
     撮像画像上において無限遠点の位置を推定する学習の進捗状態を取得する学習状態取得部(703、S420)と、
     前記XY平面において、前記第1領域と前記第2領域とに重複部が存在することを条件として、前記第1の物体と前記第2の物体とが同一の物体であると判定する判定部(706、S160)と、
     を備え、
     前記第2特定部(702、S130、S140:S430~S500)は、前記学習の進捗状態に応じて、前記第2領域における前記基準点に対する第2の検出点の方向を表す奥行き方向または前記車長方向の長さを設定すること
     を特徴とする物体検出装置(7)。
  2.  請求項1に記載の物体検出装置(7)において、
     前記第2特定部(702、S130、S140:S430~S500)は、前記学習の進捗状態によって設定される値と、前記第2の物体の位置の検出予測誤差に基づく値と、を加算した値を前記奥行き方向または前記車長方向の長さとして設定すること
     を特徴とする物体検出装置(7)。
  3.  請求項1または請求項2に記載の物体検出装置(7)において、
     前記第2特定部(702、S130、S140:S430~S500)は、前記第2の物体までの距離が大きくなるにつれて前記奥行き方向または前記車長方向の長さを長く設定すること
     を特徴とする物体検出装置(7)。
  4.  請求項1~請求項3の何れか1項に記載の物体検出装置(7)において、
     撮像画像上において、予め設定された基準位置に対する無限遠点の位置の差を取得する位置差取得部(704、S610)と、
     前記位置の差に応じて前記XY平面において前記第2領域の位置をシフトさせる領域シフト部(705、S620~S750)と、
     を備えたことを特徴とする物体検出装置(7)。
  5.  請求項4に記載の物体検出装置(7)において、
     前記位置差取得部(704、S610)は、撮像画像上において、前記基準位置に対する無限遠点の位置の上下方向の差を取得し、
     前記領域シフト部(705、S620~S750)は、前記無限遠点の位置が前記基準位置に対して上方向にずれている場合に、前記第2領域を前記基準点から見て前記第2の検出点の奥側または前記XY平面におけるY方向に移動させ、前記無限遠点の位置が前記基準位置に対して下方向にずれている場合に、前記第2領域を前記基準点から見て前記第2の検出点の手前側または前記XY平面における-Y方向に移動させること
     を特徴とする物体検出装置(7)。
PCT/JP2015/076132 2014-09-24 2015-09-15 物体検出装置 WO2016047498A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/513,717 US10431088B2 (en) 2014-09-24 2015-09-15 Object detection apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014193892A JP6265095B2 (ja) 2014-09-24 2014-09-24 物体検出装置
JP2014-193892 2014-09-24

Publications (1)

Publication Number Publication Date
WO2016047498A1 true WO2016047498A1 (ja) 2016-03-31

Family

ID=55581025

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/076132 WO2016047498A1 (ja) 2014-09-24 2015-09-15 物体検出装置

Country Status (3)

Country Link
US (1) US10431088B2 (ja)
JP (1) JP6265095B2 (ja)
WO (1) WO2016047498A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109871789A (zh) * 2019-01-30 2019-06-11 电子科技大学 一种基于轻量化神经网络的复杂环境下车辆检测方法
CN112309123A (zh) * 2020-10-15 2021-02-02 武汉万集信息技术有限公司 车辆检测方法及系统

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10816986B2 (en) * 2016-08-02 2020-10-27 Ge Global Sourcing Llc Systems for vehicle collision avoidance
KR102545582B1 (ko) * 2016-07-11 2023-06-21 주식회사 에이치엘클레무브 교차로 충돌 회피 시스템 및 그 제어 방법
US10571913B2 (en) * 2016-08-05 2020-02-25 Aptiv Technologies Limited Operation-security system for an automated vehicle
US9996752B2 (en) * 2016-08-30 2018-06-12 Canon Kabushiki Kaisha Method, system and apparatus for processing an image
US10421452B2 (en) * 2017-03-06 2019-09-24 GM Global Technology Operations LLC Soft track maintenance
JP6813436B2 (ja) 2017-06-16 2021-01-13 株式会社東芝 情報処理装置、移動体、情報処理方法、およびプログラム
JP6996353B2 (ja) 2018-03-06 2022-01-17 トヨタ自動車株式会社 物体認識装置及び車両走行制御システム
US10438082B1 (en) * 2018-10-26 2019-10-08 StradVision, Inc. Learning method, learning device for detecting ROI on the basis of bottom lines of obstacles and testing method, testing device using the same
DE102020214031A1 (de) * 2020-11-09 2022-05-12 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Steuern einer Sicherheitseinrichtung eines Fahrzeugs und Sicherheitssystem für ein Fahrzeug
DE102020214033A1 (de) * 2020-11-09 2022-05-12 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Steuern einer Sicherheitseinrichtung eines Fahrzeugs und Sicherheitssystem für ein Fahrzeug

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09189517A (ja) * 1996-01-09 1997-07-22 Toyota Motor Corp 撮像装置
JP2000074645A (ja) * 1998-08-27 2000-03-14 Yazaki Corp 周辺監視装置及び方法
JP2000242899A (ja) * 1999-02-24 2000-09-08 Mitsubishi Electric Corp 白線認識装置
JP2000295604A (ja) * 1999-04-06 2000-10-20 Yazaki Corp 車両用後側方監視装置
JP2002259995A (ja) * 2001-03-06 2002-09-13 Nissan Motor Co Ltd 位置検出装置
JP2003067752A (ja) * 2001-08-28 2003-03-07 Yazaki Corp 車両周辺監視装置
JP2004198159A (ja) * 2002-12-17 2004-07-15 Nissan Motor Co Ltd 車載センサの軸ずれ計測装置
JP2004205398A (ja) * 2002-12-26 2004-07-22 Nissan Motor Co Ltd 車両用レーダ装置およびレーダの光軸調整方法
JP2006031365A (ja) * 2004-07-15 2006-02-02 Mitsubishi Electric Corp 車線認識画像処理装置
JP2007240422A (ja) * 2006-03-10 2007-09-20 Fujitsu Ten Ltd 俯角算出装置、俯角算出方法、俯角算出プログラムおよび画像処理装置
JP2010249613A (ja) * 2009-04-14 2010-11-04 Toyota Motor Corp 障害物認識装置及び車両制御装置
WO2014003168A1 (ja) * 2012-06-29 2014-01-03 株式会社デンソー 車両に搭載される画像解析装置
WO2014003167A1 (ja) * 2012-06-29 2014-01-03 株式会社デンソー 車両に搭載される画像解析装置
JP2014122873A (ja) * 2012-11-22 2014-07-03 Denso Corp 物標検出装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001233150A (ja) * 2000-02-22 2001-08-28 Yazaki Corp 車両用危険判断装置及び、車両用周辺監視装置
US7266220B2 (en) * 2002-05-09 2007-09-04 Matsushita Electric Industrial Co., Ltd. Monitoring device, monitoring method and program for monitoring
US6794987B2 (en) * 2002-07-01 2004-09-21 Delphi Technologies, Inc. Object detection system and method of estimating object size
JP3862015B2 (ja) * 2002-10-25 2006-12-27 オムロン株式会社 車載用レーダ装置
JP4598653B2 (ja) * 2005-05-13 2010-12-15 本田技研工業株式会社 衝突予知装置
EP1887382A1 (en) * 2005-05-19 2008-02-13 Olympus Corporation Distance measuring apparatus, distance measuring method and distance measuring program
US7706978B2 (en) * 2005-09-02 2010-04-27 Delphi Technologies, Inc. Method for estimating unknown parameters for a vehicle object detection system
JP4595833B2 (ja) * 2006-02-24 2010-12-08 トヨタ自動車株式会社 物体検出装置
JP4367475B2 (ja) * 2006-10-06 2009-11-18 アイシン精機株式会社 移動物体認識装置、移動物体認識方法及びコンピュータプログラム
JP5483535B2 (ja) * 2009-08-04 2014-05-07 アイシン精機株式会社 車両周辺認知支援装置
JP5867273B2 (ja) * 2012-04-27 2016-02-24 富士通株式会社 接近物体検知装置、接近物体検知方法及び接近物体検知用コンピュータプログラム
JP5944781B2 (ja) * 2012-07-31 2016-07-05 株式会社デンソーアイティーラボラトリ 移動体認識システム、移動体認識プログラム、及び移動体認識方法
JP5812061B2 (ja) * 2013-08-22 2015-11-11 株式会社デンソー 物標検出装置およびプログラム

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09189517A (ja) * 1996-01-09 1997-07-22 Toyota Motor Corp 撮像装置
JP2000074645A (ja) * 1998-08-27 2000-03-14 Yazaki Corp 周辺監視装置及び方法
JP2000242899A (ja) * 1999-02-24 2000-09-08 Mitsubishi Electric Corp 白線認識装置
JP2000295604A (ja) * 1999-04-06 2000-10-20 Yazaki Corp 車両用後側方監視装置
JP2002259995A (ja) * 2001-03-06 2002-09-13 Nissan Motor Co Ltd 位置検出装置
JP2003067752A (ja) * 2001-08-28 2003-03-07 Yazaki Corp 車両周辺監視装置
JP2004198159A (ja) * 2002-12-17 2004-07-15 Nissan Motor Co Ltd 車載センサの軸ずれ計測装置
JP2004205398A (ja) * 2002-12-26 2004-07-22 Nissan Motor Co Ltd 車両用レーダ装置およびレーダの光軸調整方法
JP2006031365A (ja) * 2004-07-15 2006-02-02 Mitsubishi Electric Corp 車線認識画像処理装置
JP2007240422A (ja) * 2006-03-10 2007-09-20 Fujitsu Ten Ltd 俯角算出装置、俯角算出方法、俯角算出プログラムおよび画像処理装置
JP2010249613A (ja) * 2009-04-14 2010-11-04 Toyota Motor Corp 障害物認識装置及び車両制御装置
WO2014003168A1 (ja) * 2012-06-29 2014-01-03 株式会社デンソー 車両に搭載される画像解析装置
WO2014003167A1 (ja) * 2012-06-29 2014-01-03 株式会社デンソー 車両に搭載される画像解析装置
JP2014122873A (ja) * 2012-11-22 2014-07-03 Denso Corp 物標検出装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109871789A (zh) * 2019-01-30 2019-06-11 电子科技大学 一种基于轻量化神经网络的复杂环境下车辆检测方法
CN112309123A (zh) * 2020-10-15 2021-02-02 武汉万集信息技术有限公司 车辆检测方法及系统
CN112309123B (zh) * 2020-10-15 2022-04-15 武汉万集信息技术有限公司 车辆检测方法及系统

Also Published As

Publication number Publication date
US10431088B2 (en) 2019-10-01
JP2016065760A (ja) 2016-04-28
US20170294124A1 (en) 2017-10-12
JP6265095B2 (ja) 2018-01-24

Similar Documents

Publication Publication Date Title
JP6265095B2 (ja) 物体検出装置
JP6281460B2 (ja) 物体検出装置
US10922561B2 (en) Object recognition device and vehicle travel control system
KR101562875B1 (ko) 목표물 검출 장치 및 프로그램
JP5892129B2 (ja) 道路形状認識方法、道路形状認識装置、プログラムおよび記録媒体
JP6885721B2 (ja) 物体検出装置、物体検出方法
JP6303956B2 (ja) 軸ずれ量推定装置
JP6409680B2 (ja) 運転支援装置、運転支援方法
JP6281459B2 (ja) 物体検出装置
US9945927B2 (en) Object detection apparatus
JP6394228B2 (ja) 物体検出装置
WO2016031494A1 (ja) 物体検出装置
US20120294482A1 (en) Environment recognition device and environment recognition method
US20180156913A1 (en) Object detection apparatus and object detection method
JP4052291B2 (ja) 車両用画像処理装置
US11407390B2 (en) Vehicle control apparatus and vehicle control method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15843772

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15513717

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15843772

Country of ref document: EP

Kind code of ref document: A1