WO2017104580A1 - 物体検出装置及び物体検出方法 - Google Patents

物体検出装置及び物体検出方法 Download PDF

Info

Publication number
WO2017104580A1
WO2017104580A1 PCT/JP2016/086796 JP2016086796W WO2017104580A1 WO 2017104580 A1 WO2017104580 A1 WO 2017104580A1 JP 2016086796 W JP2016086796 W JP 2016086796W WO 2017104580 A1 WO2017104580 A1 WO 2017104580A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
wheeled vehicle
area
radar
detection
Prior art date
Application number
PCT/JP2016/086796
Other languages
English (en)
French (fr)
Inventor
崇弘 馬場
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to US16/062,432 priority Critical patent/US10871565B2/en
Publication of WO2017104580A1 publication Critical patent/WO2017104580A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V11/00Prospecting or detecting by methods combining techniques covered by two or more of main groups G01V1/00 - G01V9/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V3/00Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation
    • G01V3/12Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation operating with electromagnetic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/015Detecting movement of traffic to be counted or controlled with provision for distinguishing between two or more types of vehicles, e.g. between motor-cars and cycles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Definitions

  • the present disclosure relates to an object detection apparatus and an object detection method for detecting an object existing around a host vehicle using a radar and a monocular camera.
  • the positional relationship between objects individually detected using a radar and a stereo camera must satisfy a predetermined judgment criterion. It is determined that these objects are the same object.
  • the monocular camera has a characteristic that the detection accuracy in the distance direction of the object relative to the own vehicle is inferior to the detection accuracy in the width direction of the object relative to the own vehicle.
  • a radar search region is set in consideration of an error range of an object detection position by the radar, with the detection position of the object detected by the radar as a reference point.
  • an image search region is set in consideration of the error range of the detection position of the object by the monocular camera with the detection position of the object detected by the monocular camera as a reference point. Then, on the condition that there is an overlap between the radar search area and the image search area, it is determined that the objects acquired by the radar and the monocular camera are the same object.
  • This disclosure mainly aims to provide an object detection apparatus and an object detection method capable of improving the detection accuracy of an object when the object is a two-wheeled vehicle in an object detection apparatus using a radar and a monocular camera.
  • an object detection device that detects an object existing around a host vehicle using a radar (21) and a monocular camera (22), the object detected by the radar
  • a radar area setting unit (12) that sets a detection area of the object including the first position as a radar search area on the basis of a first position that is a detection position, and a detection position of the object detected by the monocular camera
  • the radar search area and the image search area overlap each other with an image area setting unit (14) that sets the detection area of the object including the second position as an image search area with the second position as a reference.
  • An object determination unit (15) that determines that the object detected by the radar and the monocular camera is the same object on the condition that there is a region;
  • a two-wheeled vehicle determining unit (13) for determining whether the type of the detected object is a two-wheeled vehicle, wherein the image area setting unit determines that the type of the object is the two-wheeled vehicle.
  • the image search area is set wider than in the case where it is determined that the type of the object is not the two-wheeled vehicle.
  • the accuracy of the detection position of the object detected from the captured image of the monocular camera is lowered. Therefore, although the object detected by the radar and the monocular camera is the same object, it may be erroneously determined that it is not the same object.
  • the error included in the detection position of the object detected by the monocular camera is larger than when the object type is determined not to be a two-wheeled vehicle. Regardless, the image search area is set wider.
  • FIG. 1A and 1B are a block diagram and a functional block diagram showing hardware of the object detection device according to the present embodiment
  • FIG. 2 is a diagram showing a radar search area and an image search area.
  • FIG. 3 is a diagram showing a radar search area.
  • FIG. 4 is a diagram illustrating an example of a captured image.
  • FIG. 5 is a diagram showing an image search area.
  • FIG. 6 is a flowchart of object detection processing by the object detection device.
  • FIG. 7 is a diagram showing an image search area.
  • FIG. 8 is a diagram showing the direction of the motorcycle.
  • FIG. 1A and 1B are a block diagram and a functional block diagram showing hardware of the object detection device according to the present embodiment
  • FIG. 2 is a diagram showing a radar search area and an image search area.
  • FIG. 3 is a diagram showing a radar search area.
  • FIG. 4 is a diagram illustrating an example of a captured image.
  • FIG. 5 is a diagram showing an image search
  • FIG. 9 is a diagram showing the correlation between the moving speed of the motorcycle and the correction coefficient
  • FIG. 10 is a diagram showing the correlation between the wheel size of the motorcycle and the correction coefficient
  • FIG. 11 is a diagram showing the correlation between the distance from the motorcycle and the correction coefficient
  • FIG. 12 is a diagram showing the relationship between the moving direction of the two-wheeled vehicle and the image search area.
  • the object detection apparatus 10 is mounted on the host vehicle and detects an object existing around the host vehicle.
  • Information on the object detected by the object detection device 10 is used for various vehicle controls such as collision avoidance with the host vehicle.
  • vehicle controls such as a pre-crash safety system (PCS) and adaptive cruise control (ACC).
  • PCS pre-crash safety system
  • ACC adaptive cruise control
  • the object detection device 10 is connected to a radar 21, a monocular camera 22, and a driving support device 30 so as to communicate with each other.
  • the radar 21 transmits and receives directional electromagnetic waves such as millimeter waves and lasers. Then, transmission / reception data such as distance, azimuth, and relative speed with the object reflecting the electromagnetic wave is output to the object detection apparatus 10 as a radar signal.
  • the monocular camera 22 is provided with an image sensor such as a CCD (Charged-Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor), and images the periphery of the host vehicle at a predetermined angle of view.
  • a captured image acquired by imaging with the monocular camera 22 is output to the object detection apparatus 10 as an image signal.
  • the object detection apparatus 10 includes a CPU (Central Processing Unit) 10A, a ROM (Read Only Memory) 10B, a RAM (Random Access Memory) 10C, an input / output interface 10D, and the like.
  • the CPU 10A implements these functions by executing a program installed in the ROM 10B.
  • the ROM 10B corresponds to a non-transitory computer readable medium.
  • the recording medium includes a computer-readable electronic medium such as a DVD-ROM (Digital Versatile Disk Read Only Memory), a CD-ROM (Compact Disc Read Only Memory), and a hard disk.
  • the object detection apparatus 10 takes in the radar signal from the radar 21 and the image signal from the monocular camera 22 at regular intervals, and uses the received radar signal and image signal in FIG.
  • the radar target detection unit 11 identifies an object detected based on the radar signal as a radar target.
  • the position (detection point Pr: 1st position) of the radar target with respect to the own vehicle 40 is specified by applying the positional information of the identified radar target to XY plane shown in FIG. 2 is set with the width direction (lateral direction) of the host vehicle 40 as the X axis and the vehicle length direction (forward direction) of the host vehicle 40 as the Y axis.
  • the tip position of the host vehicle 40 (position where the radar 21 is provided) is set as the reference point Po
  • the detection point Pr of the radar target is represented as a relative position with respect to the reference point Po.
  • FIG. 2 shows an example in which a radar target exists in front of the host vehicle 40 and on the right side.
  • the radar target detection unit 11 may calculate a relative speed with respect to the target.
  • the radar area setting unit 12 sets a radar search area Rr centered on the radar target detection point Pr detected by the radar target detection unit 11. More specifically, the distance from the reference point Po (the radius of the circle centered on the reference point Po) is given a width corresponding to the assumed error, and the estimated error is provided in the circumferential direction of the circle centered on the reference point Po. Is set as the radar search region Rr. It can be said that the circumferential direction is a direction orthogonal to a straight line connecting the reference point Po and the detection point Pr.
  • the distance direction and the circumferential direction of the radar target detection point Pr are each based on the distance r1 from the reference point Po and the circumferential angle ⁇ r from the Y axis.
  • the radar search region Rr has a range in the distance direction of (r1-Er1). ) To (r1 + Er1), and the circumferential angular range is represented as ( ⁇ r ⁇ E ⁇ r) to ( ⁇ r + E ⁇ r).
  • the radar search region Rr is set in a range of a constant angle 2E ⁇ r including an angle ⁇ r in the circumferential direction with respect to the reference point Po.
  • the radar search region Rr includes an angular range in the circumferential direction from ( ⁇ r ⁇ E ⁇ r) to ( ⁇ r + E ⁇ r), and a distance range from the reference point Po to the distance (r1 ⁇ Er1) to (r1 + Er1).
  • the image target detection unit 13 identifies an object detected by analyzing a captured image represented by the image signal as an image target. For example, an image target is identified by matching processing using a target model registered in advance. A target model is prepared for each type of image target, and the type of the image target is specified by this. Examples of the image target include obstacles such as a four-wheeled vehicle, a two-wheeled vehicle, a pedestrian, and a guardrail. It is assumed that the motorcycle includes a bicycle, a saddle type motorcycle, and the like.
  • the image target detection unit 13 applies the position information of the identified image target to the XY plane shown in FIG. 2 to thereby determine the position of the image target with respect to the host vehicle 40 (detection point Pi: second position). Identify.
  • the image target detection unit 13 specifies the position of the image target (detection point Pi) on the XY plane based on the vertical position of the image target in the captured image.
  • the image target detection unit 13 extracts the detection area T1 of the image target from the captured image by the matching process using the target model. Then, the position in the distance direction on the XY plane is specified from the position (coordinates) in the vertical direction in the captured image of the extracted detection area T1 of the image target.
  • the position in the distance direction on the XY plane of FIG. 2 is specified based on the position of the contact point T1a of the image target.
  • the closer the contact point T1a of the image target is to the infinity point FOE FOE: Focus of Expansion
  • FOE Focus of Expansion
  • the position of the target in the distance direction on the XY plane increases.
  • the image area setting unit 14 sets an image search area Ri centered on the detection point Pi of the image target detected by the image target detection unit 13 as shown in FIG. More specifically, the distance from the reference point Po (the radius of the circle centered on the reference point Po) is given a width corresponding to the assumed error, and the estimated error is provided in the circumferential direction of the circle centered on the reference point Po. Is set as the image search area Ri. It can be said that the circumferential direction is a direction orthogonal to a straight line connecting the reference point Po and the detection point Pi.
  • the distance direction and the circumferential direction of the detection point Pi of the image target are each based on the distance r2 from the reference point Po and the circumferential angle ⁇ i from the Y axis.
  • the image search region Ri is a range in the distance direction (first search range). ) Is expressed as (r2-Er2) to (r2 + Er2), and the angular range (second search range) in the circumferential direction is expressed as ( ⁇ i ⁇ E ⁇ i) to ( ⁇ i + E ⁇ i).
  • the image search area Ri is set in a range of a constant angle 2E ⁇ i including an angle ⁇ i in the circumferential direction with respect to the reference point Po.
  • the image search area Ri has an angular range (second search range) in the circumferential direction from ( ⁇ i ⁇ E ⁇ i) to ( ⁇ i + E ⁇ i) and a distance from the reference point Po from (r2 ⁇ Er2) to ( and a distance range (first search range) up to (r2 + Er2).
  • the detection accuracy in the distance direction of the image target is detected. Will fall. And when an object is a two-wheeled vehicle, it turned out that the precision of the detection position of the grounding point T1a of an image target tends to fall, and the detection precision of the distance direction of an object tends to fall.
  • the object when the object is a two-wheeled vehicle, it may be difficult to extract the wheel portion which is a characteristic portion of the two-wheeled vehicle by image processing.
  • the position of the grounding point T1a of the image target may be shifted in the vertical direction with respect to the position of the grounding point T1a of the original image target.
  • the detection accuracy in the distance direction is reduced.
  • the contact point T1a of the image target is more than the original position. It will shift
  • the image region setting unit 14 determines that the type of the image target (object) is other than the two-wheeled vehicle (for example, a four-wheeled vehicle, a walking
  • the image search area Ri is set to be wider in the distance direction r than in the case of a person.
  • it is necessary is just to be a case where it is determined that it is not a two-wheeled vehicle among the objects recognized as a moving object, when the kind of image target is other than a two-wheeled vehicle.
  • the assumed error in the distance direction is set to the default value ⁇ Er2a.
  • the assumed error in the distance direction is set to a value obtained by multiplying the default value ⁇ Er2a by a predetermined correction coefficient C1 (C1> 1).
  • C1 predetermined correction coefficient
  • the object detection unit 15 determines whether the image target input from the image target detection unit 13 and the radar target input from the radar target detection unit 11 are generated from the same object. judge. That is, the object detection unit 15 determines whether or not there is an overlapping area (overlapping part OL) between the radar search area Rr and the image search area Ri on the XY plane (see FIG. 2). When it is determined that the overlapping portion OL exists, it is determined that the image target and the radar target are the same object. On the other hand, when the overlapping portion OL does not exist in the radar search region Rr and the image search region Ri, it is not determined that the image target and the radar target are the same object.
  • the driving support device 30 includes a speaker, a seat belt, a brake, and the like that output an alarm sound and a guide sound as in-vehicle devices.
  • the driving support device 30 determines whether or not driving support for the object detected by the object detection device 10 is necessary, and activates various in-vehicle devices when it is determined that driving support is required.
  • the driving assistance device 30 calculates a collision allowance time TTC (Time to Collision) between the object detected by the object detection unit 15 and the host vehicle 40.
  • the collision allowance time TTC is an evaluation value indicating how many seconds later the object collides with the object when traveling at the vehicle speed as it is. The smaller the TTC, the higher the risk of collision, and the larger the TTC, the larger the TTC. The risk of collision is reduced.
  • the collision allowance time TTC can be calculated by a method such as dividing the distance in the traveling direction between the object and the host vehicle 40 by the relative speed with the object. The relative speed with respect to the object is obtained by subtracting the own vehicle speed from the vehicle speed of the preceding vehicle. Note that the collision allowance time TTC may be calculated in consideration of the relative acceleration.
  • the corresponding in-vehicle device is operated.
  • the operating time of each on-vehicle device is set according to the type of object. For example, the operating time when the object is a pedestrian and the operating time when the object is a two-wheeled vehicle are set to an earlier operating time because the degree of danger is higher in the case of a two-wheeled vehicle.
  • the radar target detection unit 11 detects a radar target (S11), and the radar region setting unit 12 sets a radar search region Rr based on the position of the radar target (S12).
  • the image target detection unit 13 detects an image target (S13).
  • the image target detection part 13 determines whether the kind of image target detected by S13 is a two-wheeled vehicle (S14).
  • the type of the target detected in S13 may be either a pedestrian or a two-wheeled vehicle. In such a case, it is determined whether the speed of the target is equal to or higher than a predetermined value (for example, 20 km / h). If the target speed is equal to or higher than the predetermined value, the target is determined to be a two-wheeled vehicle. Good.
  • the image area setting unit 14 sets an image search area Ri for a motorcycle (S15), and then the process proceeds to S17. That is, in S14, the image search region Ri is set by multiplying the assumed error ⁇ Er2a in the distance direction by a predetermined correction coefficient C1. On the other hand, if it is determined in S14 that the image target GT is not a two-wheeled vehicle, the image search area Ri is set based on the assumed error ⁇ Er2a in the distance direction (S16). Thereafter, the process proceeds to S17.
  • the object detection unit 15 determines whether or not there is an overlapping portion OL between the radar search region Rr and the image search region Ri. When it is determined that the overlapping portion OL exists, it is determined that the radar target and the image target are the same object (S18). On the other hand, if there is no overlapping part OL, the process is terminated. In this case, it is assumed that the radar target and the image target are not the same object, and driving support by the driving support device 30 is not performed.
  • the accuracy of the detection position of the object detected from the captured image of the monocular camera 22 is lowered. Therefore, although the objects detected by the radar 21 and the monocular camera 22 are the same object, it may be erroneously determined that they are not the same object. Therefore, in this embodiment, when it is determined that the object type is a two-wheeled vehicle, the object detection position detected by the monocular camera 22 is larger than when the object type is determined not to be a two-wheeled vehicle. Considering that the included error is large, the image search area is set wider.
  • the overlapping portion OL is overlapped between the radar search area and the image search area set based on the detection position of the object by the radar 21.
  • the two-wheeled vehicle can be correctly identified using the radar and the monocular camera.
  • the distance from the host vehicle 40 to the object is estimated based on the position of the object in the captured image.
  • the foot of the occupant B leaves the ground, so the position of the object in the captured image is not correctly specified, and the distance from the own vehicle 40 to the object
  • the error included in the detected value may increase. Therefore, in the present embodiment, on the condition that the type of the object is determined to be a two-wheeled vehicle, compared to the case where the type of the object is determined not to be a two-wheeled vehicle, in the distance direction from the host vehicle 40 to the object.
  • the image search area Ri is enlarged. As described above, even if the object is a two-wheeled vehicle and the distance measurement accuracy of the object is lowered, the two-wheeled vehicle can be detected with high accuracy using both the radar 21 and the monocular camera 22.
  • the region toward the host vehicle 40 in the image search region Ri as compared with the case where it is determined that the object type is not a two-wheeled vehicle May be enlarged. That is, as shown in FIG. 7, when the distance on the near side from the detection point Pi of the image target is Er21 and the distance on the far side is Er22 in the distance range of the image search area Ri, Er21> Er22.
  • the image search area Ri is enlarged. In this case, it is preferable to employ either a configuration in which only the near-side distance among the near-side distance and the far-side distance is enlarged or a configuration in which both distances are enlarged.
  • the image target is a two-wheeled vehicle
  • the image search area Ri so that the area on the own vehicle 40 side (near side) becomes larger, it is possible to further determine whether the radar target and the image target are the same object. Can be implemented appropriately.
  • Er21 ⁇ Er22 may be set. In this case, it is conceivable that Er21> Er22 and Er21 ⁇ Er22. Of these, Er21> Er22 is particularly preferable.
  • the image target is a two-wheeled vehicle
  • the example in which the image search region Ri is enlarged in the distance direction is shown.
  • the distance direction and the circumference of the image search region Ri are illustrated. At least one of the directions may be enlarged.
  • an overlapping portion OL between the radar search area Rr and the image search area Ri is likely to occur, which may increase the possibility of erroneous detection of an object (two-wheeled vehicle). Therefore, when it is determined that the image target is a two-wheeled vehicle, it may be determined whether or not the image search region Ri is enlarged according to the traveling direction of the two-wheeled vehicle.
  • FIG. 8A when the two-wheeled vehicle is positioned in front of the host vehicle 40, as shown in FIG. 8A, the two-wheeled vehicle W is aligned in the longitudinal direction with respect to the host vehicle 40, and FIG. As shown in FIG. 8B, a state occurs in which the wheels W of the two-wheeled vehicle are aligned in the left-right direction with respect to the host vehicle 40.
  • the wheel W of the two-wheeled vehicle is vertically oriented, it is difficult to detect the wheel, which is a characteristic part of the two-wheeled vehicle, by image processing, and the ranging accuracy of the two-wheeled vehicle tends to be lowered.
  • the wheel W of the motorcycle when the wheel W of the motorcycle is sideways, it can be said that it is relatively easy to detect the wheel W that is a characteristic part of the motorcycle.
  • a condition for determining whether or not the motorcycle is in front of the host vehicle 40 and the wheels W of the motorcycle are in the vertical direction is added to the flowchart of FIG.
  • the image search area Ri is expanded in the distance direction. If any of the determination conditions is not satisfied, the image search area Ri is not enlarged.
  • the two-wheeled vehicle can be accurately detected using both the radar 21 and the monocular camera 22 even in a situation where the distance measurement accuracy of the object is lowered due to the vertical direction of the wheel W of the two-wheeled vehicle with respect to the host vehicle 40. .
  • the two-wheeled vehicle when the two-wheeled vehicle is located in front of the own vehicle 40 and the wheel W of the two-wheeled vehicle is sideways, the two-wheeled vehicle passes in front of the own vehicle 40 and crosses the lane.
  • the possibility of a collision with the host vehicle 40 may increase.
  • the circumferential direction of the image search area Ri is enlarged.
  • the image search region Ri is expanded in the circumferential direction by multiplying the estimated error ⁇ E ⁇ i in the circumferential direction by a predetermined correction coefficient C2 (C2> 1).
  • C2 predetermined correction coefficient
  • the image area setting unit 14 may enlarge the image search area Ri according to the moving speed of the two-wheeled vehicle.
  • the moving speed of the two-wheeled vehicle can be calculated based on the relative speed of the target detected by the radar target detection unit 11.
  • the distance direction and the circumferential direction of the image search region Ri increase as the moving speed of the two-wheeled vehicle increases. Enlarge at least one of the As described above, it is possible to increase the detection accuracy of the two-wheel vehicle body using the radar 21 and the monocular camera 22 while suppressing the influence of the error according to the moving speed of the two-wheeled vehicle.
  • the position in the distance direction of the detection point Pi of the image target on the XY plane is obtained based on the position of the contact point T1a of the image target.
  • the position in the distance direction of the image target on the XY plane may be specified based on the size of the wheel portion of the two-wheeled vehicle in the captured image. That is, when the distance between the host vehicle 40 and the two-wheeled vehicle is relatively short, the wheel portion of the two-wheeled vehicle appearing in the captured image is larger than when the distance between the host vehicle 40 and the two-wheeled vehicle is relatively long.
  • the position of the image target in the distance direction on the XY plane can be obtained based on the size of the wheel portion of the two-wheeled vehicle in the captured image. For example, as shown in FIG. 10, using the correlation between the size of the wheel portion of the two-wheeled vehicle and the correction coefficient C4 (C4> 1), the value of the correction coefficient C4 increases as the size of the wheel portion of the two-wheeled vehicle decreases. To be set to. As described above, the position of the image target in the distance direction on the XY plane can be obtained based on the size of the wheel portion of the two-wheeled vehicle.
  • the degree of enlargement of the image search area Ri may be set according to the distance between the host vehicle 40 and the motorcycle. That is, the farther the two-wheeled vehicle is from the host vehicle 40, the closer the detected position of the two-wheeled vehicle is to the infinity point FOE in the captured image shown in FIG. For this reason, the farther the two-wheeled vehicle is, the greater the error in the detected position in the distance direction of the two-wheeled vehicle due to the shift of the ground point T1a of the image target in the captured image.
  • the degree of enlargement of the image search area Ri may be set.
  • the correction coefficient C5 (C5> 1) that multiplies the estimated error in the distance direction ⁇ Er2a. ) Is set to a small value
  • the correction coefficient C5 for multiplying the estimated error in the distance direction ⁇ Er2a is set to a large value.
  • the influence of the error that changes according to the distance between the host vehicle 40 and the two-wheeled vehicle is suppressed.
  • the two-wheeled vehicle can be accurately detected using both of the cameras 22.
  • the maps in FIGS. 9 to 11 show examples in which the correction coefficients C3 to C5 change linearly, but the correction coefficients C3 to C5 are set to change exponentially. May be.
  • a moving direction determining unit 16 that determines the moving direction of the two-wheeled vehicle is provided.
  • the image area setting unit 14 may enlarge the image search area Ri in accordance with the movement direction. For example, when the two-wheeled vehicle is moving in the direction orthogonal to the traveling direction of the host vehicle 40 (lateral direction), the image search area Ri on the side corresponding to the moving direction is enlarged. For example, when the two-wheeled vehicle is moving in the lateral direction and the moving direction is a direction approaching the host vehicle 40, the side approaching the reference point Po in the image search region Ri is enlarged. For example, as shown in FIG.
  • a region obtained by adding a region ⁇ Ri1 to the image search region Ri is set as a new image search region Ri.
  • the two-wheeled vehicle is moving in the lateral direction and the moving direction is away from the host vehicle 40, the side away from the reference point Po in the image search area Ri is enlarged.
  • a region obtained by adding a region ⁇ Ri2 to the image search region Ri is set as a new image search region Ri.
  • the two-wheeled vehicle when the image search area Ri is enlarged according to the moving direction of the two-wheeled vehicle, the two-wheeled vehicle can be detected more accurately by using the radar 21 and the monocular camera 22 while suppressing the possibility of erroneous detection of the two-wheeled vehicle. Can do. If the two-wheeled vehicle is moving away from the host vehicle 40, the possibility of a collision between the host vehicle 40 and the two-wheeled vehicle is reduced. In this case, the image search area Ri is not enlarged. Good. Alternatively, when the two-wheeled vehicle is moving in a direction away from the host vehicle 40, the image search area Ri may be reduced. As described above, the image region setting unit 14 sets the image search region Ri according to the moving direction of the two-wheeled vehicle determined by the moving direction determining unit 16, thereby improving the detection accuracy of the two-wheeled vehicle.
  • a reliability determination unit that determines the reliability of object detection by the monocular camera 22 as shown in FIG. 17 may be provided to determine the reliability of the image target. For example, the distribution of edges (luminance) in the detection area T1 of the image target is detected.
  • the edge distribution in the detection area T1 is biased, the reliability of the image target is low, and a process for correcting the contact point T1a of the detection area T1 of the image target is performed.
  • the position of the ground contact point T1a is corrected at the boundary between the region where the two-wheeled vehicle is included and the region where the two-wheeled vehicle is not included in the detection region T1 of the image target.
  • the image search area Ri may be set wider than in the case where the object is a pedestrian or the like.
  • the radar target detection unit 11, the image target detection unit 13, and the object detection unit 15 correspond to a moving speed determination unit, a motorcycle determination unit, and an object determination unit, respectively.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Electromagnetism (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Geology (AREA)
  • Environmental & Geological Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

物体検出装置(10)は、レーダによって検出された物体の検出位置を基準として、物体の検出領域をレーダ探索領域として設定するレーダ領域設定部(12)と、単眼カメラ22によって検出された物体の検出位置を基準として、物体の検出領域を画像探索領域として設定する画像領域設定部(14)と、レーダ探索領域と画像探索領域との重複部が存在することを条件に、レーダ21及び単眼カメラ22で検出された物体が同一の物体であると判定する物体判定部(15)と、単眼カメラ22が検出した物体の種類が二輪車であるかを判定する二輪車判定部(13)を備える。画像領域設定部(14)は、物体の種類が二輪車であると判定されたことを条件に、物体の種類が二輪車ではないと判定された場合と比べて、画像探索領域を拡大する。

Description

物体検出装置及び物体検出方法 関連出願の相互参照
 本出願は、2015年12月17日に出願された日本出願番号2015-246686号に基づくもので、ここにその記載内容を援用する。
 本開示は、レーダ及び単眼カメラを用いて自車両の周囲に存在する物体を検出する物体検出装置及び物体検出方法に関する。
 車両の衝突回避システムにおいては、自車両の周囲に存在する物体の検出精度を高めるために、レーダ及びステレオカメラを用いて個別に検出された物体の位置関係が所定の判断基準を満たしていることを条件に、それらの物体が同一の物体であると判定している。
 ところで、ステレオカメラに代えて、単眼カメラを用いることでコストの削減を図ることができる。しかし単眼カメラは、自車両に対する物体の幅方向の検出精度が比較的に優れているのに対し、自車両に対する物体の距離方向の検出精度が劣るといった特性がある。
 そこで特許文献1では、レーダによって検出された物体の検出位置を基準点として、レーダによる物体の検出位置の誤差範囲を考慮したレーダ探索領域を設定する。また、単眼カメラで検出された物体の検出位置を基準点として、単眼カメラによる物体の検出位置の誤差範囲を考慮した画像探索領域を設定する。そして、レーダ探索領域と画像探索領域とに重複部分があることを条件に、レーダと単眼カメラで取得した物体が同一物体であると判定している。
 このような構成によれば、レーダと単眼カメラのそれぞれで検出された物体の検出位置が完全に一致していなくとも、レーダ探索領域と画像探索領域とに重複部分が存在していることを条件に、レーダと単眼カメラとで検出された物体が同一の物体であると判定することができる。
特開2014-122873号公報
 ところで、物体の種類が二輪車の場合には、単眼カメラによる物体の位置の検出精度が低下しやすくなることが分かった。
 本開示は、レーダ及び単眼カメラを用いた物体検出装置において、物体が二輪車の場合における物体の検出精度を向上できる物体検出装置及び物体検出方法を提供することを主たる目的とする。
 本開示の第一の態様においては、レーダ(21)及び単眼カメラ(22)を用いて自車両の周囲に存在する物体を検出する物体検出装置であって、前記レーダによって検出された前記物体の検出位置である第1位置を基準として、前記第1位置を含む前記物体の検出領域をレーダ探索領域として設定するレーダ領域設定部(12)と、前記単眼カメラによって検出された前記物体の検出位置である第2位置を基準として、前記第2位置を含む前記物体の検出領域を画像探索領域として設定する画像領域設定部(14)と、前記レーダ探索領域と前記画像探索領域とで互いに重複する領域が存在することを条件に、前記レーダ及び前記単眼カメラで検出された前記物体が同一の物体であると判定する物体判定部(15)と、前記単眼カメラによって検出された前記物体の種類が二輪車であるかを判定する二輪車判定部(13)と、を備え、前記画像領域設定部は、前記物体の種類が前記二輪車であると判定されたことを条件に、前記物体の種類が前記二輪車ではないと判定された場合と比べて、前記画像探索領域を広く設定する。
 単眼カメラを用いて自車両の周囲に存在する物体を検出する場合、物体が二輪車の場合には、単眼カメラの撮影画像から検出される物体の検出位置の精度が低下する。そのため、レーダ及び単眼カメラで検出された物体が同一の物体であるにも関わらず、同一の物体ではないと誤判定されるおそれがある。
 そこで、物体の種類が二輪車であると判定された場合には、物体の種類が二輪車ではないと判定された場合と比べて、単眼カメラによって検出された物体の検出位置に含まれる誤差が大きいとみなし、画像探索領域を広めに設定する。
 以上により、単眼カメラを用いて検出された二輪車の検出位置に含まれる誤差が大きかったとしても、レーダによる物体の検出位置に基づき設定されたレーダ探索領域と画像探索領域とに重複部を発生させることができ、これによりレーダ及び単眼カメラを用いて二輪車を正しく特定することが可能となる。
 本開示についての上記目的及びその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1(a),(b)は、本実施形態に係る物体検出装置のハードウェアを示すブロック図、機能ブロック図であり、 図2は、レーダ探索領域及び画像探索領域を示す図であり、 図3は、レーダ探索領域を示す図であり、 図4は、撮影画像の例を示す図であり、 図5は、画像探索領域を示す図であり、 図6は、物体検出装置による物体検出処理のフローチャート。であり、 図7は、画像探索領域を示す図であり、 図8は、二輪車の向きを示す図であり、 図9は、二輪車の移動速度と補正係数との相関関係を示す図であり、 図10は、二輪車の車輪の大きさと補正係数との相関関係を示す図であり、 図11は、二輪車との距離と補正係数との相関関係を示す図であり、 図12は、二輪車の移動方向と画像探索領域との関係を示す図である。
 以下、各実施形態を図面に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付しており、同一符号の部分についてはその説明を援用する。
 本実施形態に係る物体検出装置10は、自車両に搭載され、自車両の周囲に存在する物体を検出する。物体検出装置10で検出された物体の情報は、自車両との衝突回避等の各種車両制御に用いられる。例えば、プリクラッシュセーフティシステム(PCS:Pre-Crash safety system)、アダプティブクルーズコントロール(ACC:Adaptive cruise control)等の各種車両制御に用いられる。
 図1(a)において、物体検出装置10は、レーダ21、単眼カメラ22および運転支援装置30と通信可能に接続されている。
 レーダ21は、ミリ波やレーザ等の指向性のある電磁波を送受信する。そして電磁波を反射した物体との距離、方位および相対速度等の送受信データをレーダ信号として物体検出装置10に出力する。
 単眼カメラ22は、CCD(Charged-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を備えており、自車両の周辺を所定の画角で撮像する。単眼カメラ22による撮像で取得された撮影画像は画像信号として物体検出装置10に出力する。
 物体検出装置10は、CPU(Central Processing Unit)10A、ROM(Read Only Memory)10B、RAM(Random Access Memory)10C、入出力インターフェース10D等を備えて構成されている。この物体検出装置10は、CPU10Aが、ROM10Bにインストールされているプログラムを実行することでこれら各機能を実現する。ROM10Bは、非遷移的実態的記録媒体(non-transitory computer readable medium)に相当する。記録媒体には、ROM10B以外に例えば、DVD-ROM(Digital Versatile Disk Read Only Memory)、CD-ROM(Compact Disc Read Only Memory)、ハードディスク等のコンピュータ読み取り可能な電子媒体を含む。具体的には、物体検出装置10は、一定時間ごとに、レーダ21からのレーダ信号及び単眼カメラ22からの画像信号を取り入れ、受信したレーダ信号及び画像信号を用いて、図1(b)に示すレーダ物標検出部11、レーダ領域設定部12、画像物標検出部13、画像領域設定部14、物体検出部15による各種機能を実行する。
 レーダ物標検出部11は、レーダ信号に基づき検出される物体をレーダ物標として識別する。そして、識別したレーダ物標の位置情報を、図2に示すXY平面に当てはめることにより、自車両40に対するレーダ物標の位置(検出点Pr:第1位置)を特定する。なお、図2のXY平面は、自車両40の幅方向(横方向)をX軸、自車両40の車長方向(前方方向)をY軸、として設定されたものである。このXY平面では、自車両40の先端位置(レーダ21が設けられた位置)が基準点Poとして設定され、レーダ物標の検出点Prが基準点Poに対する相対位置として表されている。
 なお、図2では、物体が自車両40の前方かつ右寄りにレーダ物標が存在する例を示している。また、レーダ物標検出部11は、物標の検出点Prに加え、物標との相対速度等を算出してもよい。
 レーダ領域設定部12は、図2に示すように、レーダ物標検出部11で検出されたレーダ物標の検出点Prを中心とするレーダ探索領域Rrを設定する。具体的には、基準点Poからの距離(基準点Poを中心とする円の半径)について想定誤差分の幅を持たせるとともに、基準点Poを中心とする円の円周方向に想定誤差分の幅を持たせた領域を、レーダ探索領域Rrとして設定する。なお、円周方向は、基準点Poと検出点Prとを結ぶ直線に対して直交する方向であるとも言える。
 詳しくは、図3に示すように、レーダ物標の検出点Prの、基準点Poからの距離r1、及びY軸からの円周方向の角度θrを基準として、距離方向及び円周方向のそれぞれについて、レーダ21の特性に基づき予め設定されている想定誤差分の幅を持たせた領域をレーダ探索領域Rrとして設定する。
 例えば、検出点Pr(r1,θr)について、距離方向の想定誤差を±Er1、円周方向の角度の想定誤差を±Eθrとすると、レーダ探索領域Rrは、距離方向の範囲が(r1-Er1)から(r1+Er1)、円周方向の角度範囲が(θr-Eθr)から(θr+Eθr)、と表される。
 つまり、レーダ探索領域Rrは、基準点Poに対する円周方向の角度θrを含む一定角度2Eθrの範囲において設定される。具体的には、レーダ探索領域Rrは、(θr-Eθr)から(θr+Eθr)までの円周方向の角度範囲と、基準点Poからの距離が(r1-Er1)から(r1+Er1)までの距離範囲と、により特定される。
 画像物標検出部13は、画像信号の表す撮影画像を解析することで検出される物体を画像物標として識別する。例えば、予め登録されている物標モデルを用いたマッチング処理で画像物標を識別する。物標モデルは、画像物標の種類ごとに用意されており、これにより画像物標の種類も特定される。画像物標の種類としては、四輪車両、二輪車、歩行者、ガードレール等の障害物等が挙げられる。なお、二輪車には自転車、鞍乗型の自動二輪車等が含まれているとする。
 そして、画像物標検出部13は、識別した画像物標の位置情報を、図2に示すXY平面に当てはめることにより、自車両40に対する画像物標の位置(検出点Pi:第2位置)を特定する。なお、画像物標検出部13は、撮影画像中における画像物標の上下方向の位置に基づいて、XY平面における画像物標の位置(検出点Pi)を特定する。
 図4の撮影画像の例を用いて詳しく説明すると、まず、画像物標検出部13は、物標モデルを用いたマッチング処理によって、撮影画像中から画像物標の検出領域T1を抽出する。そして抽出された画像物標の検出領域T1の撮影画像中における上下方向の位置(座標)からXY平面における距離方向の位置を特定する。ここでは、画像物標の検出領域T1において、画像物標の接地点T1aの位置に基づいて、図2のXY平面における距離方向の位置を特定する。
 なお、撮影画像中において、画像物標の接地点T1aが無限遠点FOE(FOE:Focus of Expansion)に接近した位置にあるほど、画像物標は自車両40から遠方の位置に存在することとなり、物標のXY平面における距離方向の位置が大きくなる。このような相関関係を予め記憶しておくことにより、画像物標の接地点T1aから、図2のXY平面の距離方向の位置を特定できる。
 また、画像物標検出部13は、撮影画像中における画像物標の左右方向の位置に基づいて、その画像物標の円周方向の角度(自車両40の前方方向を基準とする角度位置)を特定する。すなわち、自車両40の前方方向(詳細にはX=0の直線)を基準とする画像物標の角度方向のずれ(傾き)が大きいほど、単眼カメラ22の無限遠点FOEを基準として、その画像物標の左右方向へのずれが大きくなる傾向にある。このため、図4の撮影画像における無限遠点FOEから画像物標の中心を通る鉛直線までの距離に基づいて、図2のXY平面での画像物標の円周方向の位置を特定することができる。
 画像領域設定部14は、図2に示すように、画像物標検出部13で検出された画像物標の検出点Piを中心とする画像探索領域Riを設定する。具体的には、基準点Poからの距離(基準点Poを中心とする円の半径)について想定誤差分の幅を持たせるとともに、基準点Poを中心とする円の円周方向に想定誤差分の幅を持たせた領域を、画像探索領域Riとして設定する。なお、円周方向は、基準点Poと検出点Piとを結ぶ直線に対して直交する方向であるともいえる。
 詳しくは、図5に示すように、画像物標の検出点Piの、基準点Poからの距離r2、及びY軸からの円周方向の角度θiを基準として、距離方向及び円周方向のそれぞれについて、単眼カメラ3の特性に基づき予め設定されている想定誤差分の幅を持たせた領域を画像探索領域Riとして設定する。
 例えば、検出点Pi(r2,θi)について、距離方向の想定誤差を±Er2、円周方向の角度の想定誤差を±Eθiとすると、画像探索領域Riは、距離方向の範囲(第1探索範囲)が(r2-Er2)から(r2+Er2)、円周方向の角度範囲(第2探索範囲)が(θi-Eθi)から(θi+Eθi)、と表される。
 つまり、画像探索領域Riは、基準点Poに対する円周方向の角度θiを含む一定角度2Eθiの範囲において設定される。具体的には、画像探索領域Riは、(θi-Eθi)から(θi+Eθi)までの円周方向の角度範囲(第2探索範囲)と、基準点Poからの距離が(r2-Er2)から(r2+Er2)までの距離範囲(第1探索範囲)と、により特定される。
 ところで、撮影画像を用いた物標モデルによるマッチング処理で画像物標を検出する場合、撮影画像中において画像物標の接地点T1aの位置が正しく特定されないと、画像物標の距離方向の検出精度が低下してしまう。そして、物体が二輪車の場合には、画像物標の接地点T1aの検出位置の精度が低下しやすく、物体の距離方向の検出精度が低下しやすくなることが分かった。
 すなわち、物体が二輪車の場合には、二輪車の特徴部分である車輪部分が画像処理で抽出することが困難となることがある。そして二輪車の車輪部分が正しく特定されないと、画像物標の接地点T1aの位置が、本来の画像物標の接地点T1aの位置に対して上下方向にずれることが生じ、これにより画像物標の距離方向の検出精度が低下してしまう。例えば、図4において、二輪車の車輪部分が正しく抽出されないことにより、乗員の足元までが画像物標の検出領域T1として検出されてしまうと、画像物標の接地点T1aが本来の位置よりも、上方向(無限遠点FOEに近づく方向)にずれることとなり、自車両40に対する二輪車の距離方向の位置が、本来の位置よりも遠方の位置にあると認識されることが生じうる。
 そこで、画像領域設定部14は、画像物標検出部13が検出した画像物標の種類が二輪車の場合には、画像物標(物体)の種類が二輪車以外の場合(例えば四輪車両、歩行者などの場合)に比べて、画像探索領域Riを距離方向rに広めに設定する。なお画像物標の種類が二輪車以外の場合とは、移動物体として認識される物体のうち、二輪車でないと判定される場合であるとすればよい。
 例えば、物体の種類が二輪車以外の場合には、距離方向の想定誤差をデフォルト値の±Er2aに設定する。一方、物体の種類が二輪車の場合には、距離方向の想定誤差を、デフォルト値の±Er2aに所定の補正係数C1(C1>1)を乗じた値に設定する。以上により、物体が二輪車の場合に、画像探索領域Riを距離方向に拡大されることとなる。
 物体検出部15は、画像物標検出部13から入力された画像物標と、レーダ物標検出部11から入力されたレーダ物標とが同一の物体から生成されたものであるか否かを判定する。すなわち、物体検出部15は、XY平面において、レーダ探索領域Rrと画像探索領域Riとで互いに重複する領域(重複部OL)が存在するか否かを判定する(図2参照)。重複部OLが存在すると判定した場合には、画像物標とレーダ物標とは同一の物体であると判定する。一方、レーダ探索領域Rrと画像探索領域Riとに重複部OLが存在しない場合には、画像物標とレーダ物標とが同一の物体であると判定しない。
 運転支援装置30は、車載機器として、警報音や案内音を出力するスピーカ、シートベルト、ブレーキ等を備えている。運転支援装置30は、物体検出装置10により検出された物体に対する運転支援が必要であるか否かを判定し、運転支援が必要であると判定した場合に各種車載機器を作動させる。
 例えば、運転支援装置30は、物体検出部15により検出された物体と自車両40との衝突余裕時間TTC(Time to Collision)を算出する。衝突余裕時間TTCとは、このままの自車速度で走行した場合に、何秒後に物体に衝突するかを示す評価値であり、TTCが小さいほど、衝突の危険性は高くなり、TTCが大きいほど衝突の危険性は低くなる。衝突余裕時間TTCは、物体と自車両40との進行方向の距離を、物体との相対速度で除算する等の方法で算出できる。物体との相対速度は、先行車両の車速から自車速を減算して求められる。なお、相対加速度を加味して衝突余裕時間TTCを算出してもよい。
 そして、衝突余裕時間TTCが車載機器の作動時間以下であれば、該当する車載機器を作動させる。なお各車載機器の作動時間は物体の種類に応じて設定される。例えば、物体が歩行者の場合の作動時間と、物体が二輪車の場合の作動時間とでは、二輪車の場合の方の危険度が高くなるために、早めの作動時間に設定する。
 次に物体検出装置10が実施する物体検出処理の手順を図6のフローチャートを用いて説明する。なお以下の処理は、物体検出装置10が所定周期で繰り返し実施する。
 まず、レーダ物標検出部11は、レーダ物標を検出し(S11)、レーダ領域設定部12がレーダ物標の位置に基づきレーダ探索領域Rrを設定する(S12)。次に画像物標検出部13は、画像物標を検出する(S13)。そして、画像物標検出部13は、S13で検出した画像物標の種類が二輪車であるか否かを判定する(S14)。ここで、S13で検出した物標の種類が歩行者と二輪車との両方のいずれかである場合もあり得る。このような場合には、物標の速度が所定値(例えば20km/h)以上かどうかを判定し、所定値以上であれば二輪車であると判定し、所定値未満であれば歩行者と判定するとよい。S14で画像物標が二輪車であると判定した場合には、画像領域設定部14は、二輪車用の画像探索領域Riを設定し(S15)、その後、S17に進む。すなわち、S14では、距離方向の想定誤差±Er2aに所定の補正係数C1を乗算して画像探索領域Riを設定する。一方、S14で画像物標GTが二輪車ではないと判定した場合には、距離方向の想定誤差±Er2aに基づき画像探索領域Riを設定する(S16)。その後、S17に進む。
 S17では、物体検出部15がレーダ探索領域Rrと画像探索領域Riとの重複部OLが存在するか否かを判定する。重複部OLが存在すると判定した場合には、レーダ物標と画像物標とは同一物体であると判定する(S18)。一方、重複部OLが存在しない場合には、処理を終了する。この場合には、レーダ物標と画像物標とは同一物体ではないとして、運転支援装置30による運転支援は実施されないこととなる。
 上記によれば以下の優れた効果を奏することができる。
 ・単眼カメラ22を用いて自車両40の周囲に存在する物体を検出する場合、物体が二輪車の場合には、単眼カメラ22の撮影画像から検出される物体の検出位置の精度が低下する。そのため、レーダ21及び単眼カメラ22で検出された物体が同一の物体であるにも関わらず、同一の物体ではないと誤判定されるおそれがある。そこで、本実施形態では、物体の種類が二輪車であると判定された場合には、物体の種類が二輪車ではないと判定された場合と比べて、単眼カメラ22によって検出された物体の検出位置に含まれる誤差が大きいとみなし、画像探索領域を広めに設定する。以上により、単眼カメラ22を用いて検出された二輪車の検出位置に含まれる誤差が大きかったとしても、レーダ21による物体の検出位置に基づき設定されたレーダ探索領域と画像探索領域とに重複部OLを発生させることができ、これによりレーダ及び単眼カメラを用いて二輪車を正しく特定することが可能となる。
 ・単眼カメラ22を用いて自車両40の周囲に存在する物体を検出する場合、撮影画像中の物体の位置に基づいて、自車両40から物体までの距離を推定することとなる。このとき、二輪車では、乗員B(図8(a),(b)参照)の足元が地面から離れることから、撮影画像中の物体の位置が正しく特定されず、自車両40から物体までの距離の検出値に含まれる誤差が大きくなってしまうおそれがある。そこで、本実施形態では、物体の種類が二輪車であると判定されたことを条件に、物体の種類が二輪車ではないと判定された場合と比較して、自車両40から物体までの距離方向における画像探索領域Riを拡大することとした。以上により、物体が二輪車であることで、物体の測距精度が低下する場合においても、レーダ21及び単眼カメラ22の両方を用いて二輪車を精度よく検出できる。
 上記実施形態を例えば次のように変更してもよい。なお以下の説明において上述の構成と同様の構成については同じ図番号を付し、詳述は省略する。また上記実施形態及び以下に示す各実施形態は相互に組み合わせて実施することが可能である。
 ・画像物標が二輪車であって、画像探索領域Riを距離方向に拡大する場合に、物体の種類が二輪車ではないと判定された場合と比べて画像探索領域Riのうち自車両40に向かう領域を拡大してもよい。つまり、図7に示すように、画像探索領域Riの距離範囲において画像物標の検出点Piから近方側の距離をEr21、遠方側の距離をEr22とする場合に、Er21>Er22となるように画像探索領域Riを拡大する。この場合、近方側の距離と遠方側の距離とのうち近方側の距離のみを拡大する構成と、両方の距離を拡大する構成とのいずれかを採用するとよい。
 画像物標が二輪車である場合には、距離が遠い側にカメラ画像が検知されてしまう傾向にあると考えられる。この点、上記のとおり自車両40側(手前側)の領域がより大きくなるように画像探索領域Riを拡大することで、レーダ物標と画像物標とが同一の物体かどうかの判定をより適切に実施することができる。
 要するに、画像探索領域Riを拡大する場合に、Er21≠Er22としてもよい。この場合、Er21>Er22とすること、及びEr21<Er22とすることが考えられ、そのうち特に、Er21>Er22とするとよい。
 ・上記では、画像物標が二輪車である場合に、画像探索領域Riを距離方向に拡大する例を示したが、画像物標が二輪車である場合に、画像探索領域Riの距離方向及び円周方向のうち少なくとも一方を拡大してもよい。
 ・画像探索領域Riを拡大すると、レーダ探索領域Rrと画像探索領域Riとの重複部OLが発生しやすくなるため、これにより物体(二輪車)の誤検出が生じる可能性が高まるおそれがある。そこで、画像物標が二輪車であると判定された場合には、二輪車の進行方向に応じて、画像探索領域Riが拡大するか否かが判定されてもよい。
 すなわち、二輪車が自車両40の前方に位置している場合には、図8(a)に示すように、自車両40に対して二輪車の車輪Wが前後方向の並ぶ縦向きの状態と、図8(b)に示すように、自車両40に対して二輪車の車輪Wが左右方向に並ぶ横向きの状態とが発生する。そして、二輪車の車輪Wが縦向きの場合には、二輪車の特徴部分である車輪を画像処理で検出することが困難となりやすく、二輪車の測距精度が低下しやすくなる。一方、二輪車の車輪Wが横向きの場合には、二輪車の特徴部分である車輪Wを比較的に検出しやすいと言える。
 そこで、図6のフローチャートに、二輪車が自車両40の前方にあり、且つ二輪車の車輪Wが縦向きであるか否かの判定条件を追加する。そして、これらの両方の判定条件が成立した場合には、画像探索領域Riを距離方向に拡大する。いずれかの判定条件が非成立の場合には、画像探索領域Riの拡大を実施しない。以上により、自車両40に対して二輪車の車輪Wが縦向きであることにより、物体の測距精度が低下する状況においても、レーダ21及び単眼カメラ22の両方を用いて二輪車を精度よく検出できる。
 ・図8(b)に示すように、二輪車が自車両40の前方に位置しており、且つ二輪車の車輪Wが横向きの場合には、二輪車が自車両40の前を通過して車線を横断してくる可能性があり、自車両40との衝突の可能性が高まるおそれがある。このような場合には、二輪車の誤検出を抑えることよりも、二輪車の可能性のある物体が確実に検出されることが優先されることが好ましい。
 そこで、図6のフローチャートに、二輪車の向きが横向きであるか否かの判定条件を追加する。そして、その判定条件が成立した場合には、画像探索領域Riの円周方向を拡大する。例えば、円周方向の角度の想定誤差±Eθiに、所定の補正係数C2(C2>1)を乗算することで、画像探索領域Riを円周方向に拡大する。以上により、二輪車の向きに応じた衝突危険度に応じて、画像探索領域Riをより適切に設定することが可能となり、ひいては、レーダ21及び単眼カメラ22の両方を用いて二輪車を検出する確度を高めることができる。
 ・上記において、二輪車の移動速度が速いほど、画像物標から特定される距離方向の検出精度が低下するおそれがある。そこで、画像領域設定部14は、二輪車の移動速度に応じて、画像探索領域Riを拡大してもよい。なお、二輪車の移動速度は、レーダ物標検出部11により検出される物標の相対速度に基づき算出できる。
 詳しくは、図9に示すような、二輪車の移動速度と補正係数C3(C3>1)との相関関係を用いて、二輪車の移動速度が大きくなるほど、画像探索領域Riの距離方向及び円周方向の少なくともいずれかを拡大する。以上により、二輪車の移動速度に応じた誤差の影響を抑えて、レーダ21及び単眼カメラ22を用いた二輪車体の検出精度を高めることができる。
 ・上記では、図4に示すように、画像物標の接地点T1aの位置に基づいて、XY平面における画像物標の検出点Piの距離方向の位置を求めている。これ以外にも、撮影画像中における二輪車の車輪部分の大きさに基づいて、XY平面における画像物標の距離方向の位置を特定してもよい。すなわち、自車両40と二輪車との距離が比較的に短い場合には、自車両40と二輪車との距離が比較的に長い場合に比べて、撮影画像中に現れる二輪車の車輪部分が大きくなる。そこで、撮影画像中の二輪車の車輪部分の大きさに基づいて、XY平面における画像物標の距離方向の位置を求めることができる。例えば図10に示すように、二輪車の車輪部分の大きさと補正係数C4(C4>1)との相関関係を使用して、二輪車の車輪部分の大きさが小さくなる程、補正係数C4が大きい値に設定されるようにする。以上により、二輪車の車輪部分の大きさに基づいて、XY平面における画像物標の距離方向の位置を求めることができる。
 ・自車両40と二輪車との距離が大きいほど、単眼カメラ22の撮影画像の画像処理で検出される二輪車の検出位置に含まれる誤差が大きくなりやすくなる傾向がある。そこで自車両40と二輪車との距離に応じて、画像探索領域Riを拡大する度合いが設定されるとよい。すなわち、自車両40に対して二輪車が遠方の位置にあるほど、図4に示す撮影画像中においては、二輪車の検出位置が無限遠点FOEに近い位置となる。そのため、二輪車が遠方の位置にあるほど、撮影画像中における画像物標の接地点T1aのずれに伴う二輪車の距離方向の検出位置の誤差が大きくなる。そこでこのことを考慮して、画像探索領域Riを拡大する度合いを設定してもよい。例えば、図11のマップに示されるように、自車両40に対して二輪車が比較的に近距離の位置にある場合には、距離方向の想定誤差±Er2aに乗算する補正係数C5(C5>1)が小さめの値に設定され、自車両40に対して二輪車が比較的に遠距離の位置にある場合には、距離方向の想定誤差±Er2aに乗算する補正係数C5が大きめの値に設定されるようにする。以上のように、自車両40と二輪車との距離に応じて、画像探索領域を拡大することで、自車両40と二輪車との距離に応じて変化する誤差の影響を抑えて、レーダ21及び単眼カメラ22の両方を用いて二輪車を精度よく検出できる。
 ・上記において、図9~図11のマップにおいては、各補正係数C3~C5が線形的に変化する例が示されているが、各補正係数C3~C5は指数関数的に変化するように設定されていてもよい。
 ・図1(b)では、二輪車の移動方向を判定する移動方向判定部16を備えている。このように二輪車が移動する方向を判定可能な場合には、画像領域設定部14は、その移動方向に応じて画像探索領域Riを拡大してもよい。例えば二輪車が自車両40の進行方向に対して直交方向(横方向)に移動している場合には、その移動方向に対応する側の画像探索領域Riを拡大させる。例えば、二輪車が横方向に移動しており、かつその移動方向が自車両40に接近する方向である場合には、画像探索領域Riにおいて基準点Poに接近する側を拡大する。例えば図12に示すように、画像探索領域Riに領域ΔRi1を加えた領域を、新たな画像探索領域Riに設定する。一方、二輪車が横方向に移動しており、かつその移動方向が自車両40から離れる方向である場合には、画像探索領域Riにおいて基準点Poから離間する側を拡大する。例えば図12に示すように、画像探索領域Riに領域ΔRi2を加えた領域を、新たな画像探索領域Riに設定する。以上のように、二輪車の移動方向に応じて画像探索領域Riを拡大させる場合、二輪車の誤検出の可能性を抑制しつつ、レーダ21及び単眼カメラ22を用いて二輪車をより精度よく検出することができる。なお二輪車が自車両40から離れる方向に移動している場合には、自車両40と二輪車との衝突等の可能性が低くなるため、この場合には、画像探索領域Riを拡大しなくてもよい。または、二輪車が自車両40から離れる方向に移動している場合には、画像探索領域Riを縮小してもよい。以上のように、移動方向判定部16により判定した二輪車の移動方向に応じて、画像領域設定部14が画像探索領域Riを設定することで、二輪車の検出精度を高めることができる。
 ・図4に示すように、物標モデルを用いたマッチング処理で、撮影画像から二輪車を抽出する場合には、その画像物標の検出領域T1が誤って広めに抽出される可能性があり、この場合には、画像物標の接地点T1aに基づいて求められる画像物標の距離方向の位置に誤差が生じてしまう。そこで、図6のS14の処理で、画像物標が二輪車であると判定された場合には、図1(b)に示すように単眼カメラ22による物体検出の信頼度を判定する信頼度判定部17を設けて画像物標の信頼度を判定する処理を行ってもよい。例えば、画像物標の検出領域T1内におけるエッジ(輝度)の分布を検出する。そして検出領域T1内におけるエッジの分布に偏りがある場合には、画像物標の信頼度が低いとして、画像物標の検出領域T1の接地点T1aを補正する処理を実施する。例えば、画像物標の検出領域T1内において二輪車が含まれている領域と、二輪車が含まれていない領域との境界に接地点T1aの位置を補正する。以上のように、信頼度判定部17による画像物標の信頼度に応じて画像領域設定部14が拡大する画像探索領域の度合いを設定することにより、二輪車の検出精度を高めることができる。
 ・上記の図6のフローチャートにおいて、S14で二輪車ではないと判定した場合には、物体の種類が大型動物(鹿、熊など)であるか否かを判定する。そして物体の種類が大型動物であると判定された場合には、物体が歩行者等の場合と比較して、画像探索領域Riが広めに設定されてもよい。
 以上説明した実施形態において、レーダ物標検出部11、画像物標検出部13、及び物体検出部15は、それぞれ移動速度判定部、二輪車判定部、及び物体判定部に対応する。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらの一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。
 10…物体検出装置、12…レーダ領域設定部、14…画像領域設定部、15…物体検出部、21…レーダ、22…単眼カメラ。

Claims (11)

  1.  レーダ(21)及び単眼カメラ(22)を用いて自車両の周囲に存在する物体を検出する物体検出装置(10)であって、
     前記レーダによって検出された前記物体の検出位置である第1位置を基準として、前記第1位置を含む前記物体の検出領域をレーダ探索領域として設定するレーダ領域設定部(12)と、
     前記単眼カメラによって検出された前記物体の検出位置である第2位置を基準として、前記第2位置を含む前記物体の検出領域を画像探索領域として設定する画像領域設定部(14)と、
     前記レーダ探索領域と前記画像探索領域とで互いに重複する領域が存在することを条件に、前記レーダ及び前記単眼カメラで検出された前記物体が同一の物体であると判定する物体判定部(15)と、
     前記単眼カメラによって検出された前記物体の種類が二輪車であるかを判定する二輪車判定部(13)と、
     を備え、
     前記画像領域設定部は、前記物体の種類が前記二輪車であると判定されたことを条件に、前記物体の種類が前記二輪車ではないと判定された場合と比べて、前記画像探索領域を広く設定することを特徴とする物体検出装置。
  2.  前記画像領域設定部は、前記第2位置を基準として、前記自車両から前記物体までの距離方向における第1探索範囲と、前記距離方向に直交する方向における第2探索範囲とを設定し、前記第1探索範囲と前記第2探索範囲とで囲まれる領域として前記画像探索領域を設定するものであり、
     前記画像領域設定部は、前記物体の種類が前記二輪車であると判定されたことを条件に、前記物体の種類が前記二輪車ではないと判定された場合と比べて前記第1探索範囲を拡大する請求項1に記載の物体検出装置。
  3.  前記画像領域設定部は、前記物体の種類が前記二輪車であると判定されたことを条件に、前記物体の種類が前記二輪車ではないと判定された場合と比べて前記第1探索範囲のうち前記自車両に向かう領域を拡大する請求項2に記載の物体検出装置。
  4.  前記画像領域設定部は、前記二輪車が前記自車両の前方にあり、且つ前記自車両に対して前記二輪車の車輪が前後方向に並ぶ縦向きの状態であることを条件に、前記第1探索範囲を拡大する請求項2又は3に記載の物体検出装置。
  5.  前記画像領域設定部は、前記二輪車が前記自車両の前方にあり、且つ前記自車両に対して前記二輪車の車輪が左右方向に並ぶ横向きの状態であると判定されたことを条件に、前記第2探索範囲を拡大する請求項2~4のいずれか1項に記載の物体検出装置。
  6.  前記物体の種類が前記二輪車である場合に、前記二輪車の移動方向を判定する移動方向判定部(16)を備え、
     前記画像領域設定部は、前記二輪車の移動方向に応じて、前記画像探索領域を拡大する請求項1~5のいずれか1項に記載の物体検出装置。
  7.  前記二輪車の移動速度を判定する移動速度判定部(11)を備え、
     前記画像領域設定部は、前記二輪車の移動速度に応じて、前記画像探索領域を拡大する請求項1~6のいずれか1項に記載の物体検出装置。
  8.  前記画像領域設定部は、前記自車両と前記二輪車との距離に応じて、前記画像探索領域を拡大する請求項1~7のいずれか1項に記載の物体検出装置。
  9.  前記単眼カメラによる物体検出の信頼度を判定する信頼度判定部(17)を備え、
     前記画像領域設定部は、前記信頼度に応じて前記画像探索領域の拡大する度合いを設定する請求項1~8のいずれか1項に記載の物体検出装置。
  10.  レーダ(21)及び単眼カメラ(22)を用いて自車両の周囲に存在する物体を検出する物体検出方法であって、
     前記レーダによって検出された前記物体の検出位置である第1位置を基準として、前記第1位置を含む前記物体の検出領域をレーダ探索領域として設定するレーダ領域設定ステップ(S12)と、
     前記単眼カメラによって検出された前記物体の検出位置である第2位置を基準として、前記第2位置を含む前記物体の検出領域を画像探索領域として設定する画像領域設定ステップ(S15,S16)と、
     前記レーダ探索領域と前記画像探索領域とで互いに重複する領域が存在することを条件に、前記レーダ及び前記単眼カメラで検出された前記物体が同一の物体であると判定する物体判定ステップ(S17,S18)と、
     前記単眼カメラによって検出された前記物体の種類が二輪車であるかを判定する二輪車判定ステップ(S14)と、
     を備え、
     前記画像領域設定ステップ(S15)は、前記物体の種類が前記二輪車であると判定されたことを条件に、前記物体の種類が前記二輪車ではないと判定された場合と比べて、前記画像探索領域を広く設定することを特徴とする物体検出方法。
  11.  前記画像領域設定ステップは、前記第2位置を基準として、前記自車両から前記物体までの距離方向における第1探索範囲と、前記距離方向に直交する方向における第2探索範囲とを設定し、前記第1探索範囲と前記第2探索範囲とで囲まれる領域として前記画像探索領域を設定するものであり、
     前記画像領域設定ステップは、前記物体の種類が前記二輪車であると判定されたことを条件に、前記物体の種類が前記二輪車ではないと判定された場合と比べて前記第1探索範囲を拡大する請求項10に記載の物体検出方法。
PCT/JP2016/086796 2015-12-17 2016-12-09 物体検出装置及び物体検出方法 WO2017104580A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/062,432 US10871565B2 (en) 2015-12-17 2016-12-09 Object detection apparatus and object detection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-246686 2015-12-17
JP2015246686A JP6443318B2 (ja) 2015-12-17 2015-12-17 物体検出装置

Publications (1)

Publication Number Publication Date
WO2017104580A1 true WO2017104580A1 (ja) 2017-06-22

Family

ID=59056553

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/086796 WO2017104580A1 (ja) 2015-12-17 2016-12-09 物体検出装置及び物体検出方法

Country Status (3)

Country Link
US (1) US10871565B2 (ja)
JP (1) JP6443318B2 (ja)
WO (1) WO2017104580A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019166922A (ja) * 2018-03-22 2019-10-03 いすゞ自動車株式会社 車両の自転車乗員保護装置

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016205339A1 (de) * 2016-03-31 2017-10-05 Siemens Aktiengesellschaft Verfahren und System zum Erkennen von Hindernissen in einem Gefahrraum vor einem Schienenfahrzeug
JP6551283B2 (ja) * 2016-04-01 2019-07-31 株式会社デンソー 車両制御装置、車両制御方法
JP6943678B2 (ja) * 2017-08-14 2021-10-06 本田技研工業株式会社 外界認識装置
JP6996353B2 (ja) * 2018-03-06 2022-01-17 トヨタ自動車株式会社 物体認識装置及び車両走行制御システム
US11210936B2 (en) * 2018-04-27 2021-12-28 Cubic Corporation Broadcasting details of objects at an intersection
US10928819B2 (en) * 2018-10-29 2021-02-23 Here Global B.V. Method and apparatus for comparing relevant information between sensor measurements
US11536844B2 (en) * 2018-12-14 2022-12-27 Beijing Voyager Technology Co., Ltd. Dynamic sensor range detection for vehicle navigation
JP7069061B2 (ja) * 2019-01-31 2022-05-17 株式会社デンソー 物体判定装置
CN110659376A (zh) * 2019-08-14 2020-01-07 浙江大华技术股份有限公司 图片查找方法、装置、计算机设备和存储介质
JP7290104B2 (ja) 2019-12-23 2023-06-13 株式会社デンソー 自己位置推定装置、方法及びプログラム
CN112904900B (zh) * 2021-01-14 2021-12-17 吉林大学 一种基于鸟类视觉特征的多运动目标搜索与定位装置及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000002528A (ja) * 1998-06-17 2000-01-07 Honda Motor Co Ltd 車両用距離測定装置
JP2006044421A (ja) * 2004-08-03 2006-02-16 Nissan Motor Co Ltd 走行制御装置
JP2010097541A (ja) * 2008-10-20 2010-04-30 Honda Motor Co Ltd 車両の周辺監視装置
JP2014122873A (ja) * 2012-11-22 2014-07-03 Denso Corp 物標検出装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6862537B2 (en) * 2002-03-21 2005-03-01 Ford Global Technologies Llc Sensor fusion system architecture
JP4434224B2 (ja) * 2007-03-27 2010-03-17 株式会社デンソー 走行支援用車載装置
JP2009169776A (ja) * 2008-01-18 2009-07-30 Hitachi Ltd 検出装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000002528A (ja) * 1998-06-17 2000-01-07 Honda Motor Co Ltd 車両用距離測定装置
JP2006044421A (ja) * 2004-08-03 2006-02-16 Nissan Motor Co Ltd 走行制御装置
JP2010097541A (ja) * 2008-10-20 2010-04-30 Honda Motor Co Ltd 車両の周辺監視装置
JP2014122873A (ja) * 2012-11-22 2014-07-03 Denso Corp 物標検出装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019166922A (ja) * 2018-03-22 2019-10-03 いすゞ自動車株式会社 車両の自転車乗員保護装置

Also Published As

Publication number Publication date
US10871565B2 (en) 2020-12-22
JP6443318B2 (ja) 2018-12-26
US20180372866A1 (en) 2018-12-27
JP2017111054A (ja) 2017-06-22

Similar Documents

Publication Publication Date Title
WO2017104580A1 (ja) 物体検出装置及び物体検出方法
US10922561B2 (en) Object recognition device and vehicle travel control system
JP6462630B2 (ja) 物標検出装置
JP6988200B2 (ja) 車両制御装置
JP6673178B2 (ja) 車両制御装置、車両制御方法
US11069241B2 (en) Driving support device and driving support method
US20170300780A1 (en) Object detection apparatus
JP6468136B2 (ja) 走行支援装置及び走行支援方法
WO2017104503A1 (ja) 移動体制御装置及び移動体制御方法
JP6856452B2 (ja) 物標判定装置及び運転支援システム
US9102329B2 (en) Tracking control apparatus
US9945927B2 (en) Object detection apparatus
JP6561704B2 (ja) 運転支援装置、及び運転支援方法
US10380893B2 (en) Object detection apparatus
JP6614108B2 (ja) 車両制御装置、車両制御方法
WO2016186171A1 (ja) 物体検出装置、及び物体検出方法
US10996317B2 (en) Object detection apparatus and object detection method
JP2011164989A (ja) ふらつき判定装置
JP2019052920A (ja) 物体検出装置、物体検出方法及び車両制御システム
WO2017145845A1 (ja) 衝突予測装置
JP5083172B2 (ja) 衝突予測装置
JP2009019914A (ja) 物体検出装置
WO2017104413A1 (ja) 物体検出装置及び物体検出方法
JP2012014520A (ja) 障害物検出装置
JP4941265B2 (ja) 障害物判定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16875560

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16875560

Country of ref document: EP

Kind code of ref document: A1