WO2017183667A1 - 物体検出装置、物体検出方法 - Google Patents

物体検出装置、物体検出方法 Download PDF

Info

Publication number
WO2017183667A1
WO2017183667A1 PCT/JP2017/015778 JP2017015778W WO2017183667A1 WO 2017183667 A1 WO2017183667 A1 WO 2017183667A1 JP 2017015778 W JP2017015778 W JP 2017015778W WO 2017183667 A1 WO2017183667 A1 WO 2017183667A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
target
camera sensor
area
search area
Prior art date
Application number
PCT/JP2017/015778
Other languages
English (en)
French (fr)
Inventor
高木 亮
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to US16/094,772 priority Critical patent/US10535264B2/en
Priority to DE112017002120.0T priority patent/DE112017002120T5/de
Priority to CN201780024337.8A priority patent/CN109073778B/zh
Publication of WO2017183667A1 publication Critical patent/WO2017183667A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T7/00Brake-action initiating means
    • B60T7/12Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V11/00Prospecting or detecting by methods combining techniques covered by two or more of main groups G01V1/00 - G01V9/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/93185Controlling the brakes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves

Definitions

  • the present disclosure discloses an object detection that detects an object using a reflected wave sensor that transmits a transmission wave and detects a distance to the object based on a reflected wave corresponding to the transmission wave, and a camera sensor that acquires a captured image.
  • the present invention relates to an apparatus and an object detection method.
  • Patent Document 1 discloses an object detection device that detects an object using a radar sensor and a camera sensor in combination.
  • the object detection device disclosed in Patent Literature 1 sets a search area based on the detection position of an object detected by a radar sensor, and sets the search area based on an object detection result detected by a camera sensor To do. Then, when there is an overlapping area between the two search areas, the object detection device determines that the object detected by the radar sensor and the object detected by the camera sensor are the same object.
  • the object detection accuracy may decrease depending on the surrounding brightness.
  • the search area set based on the detection result of the camera sensor is erroneously set, and the object detection apparatus may erroneously determine the same object as a different object when performing object determination using the two search areas. There is.
  • the present disclosure has been made in view of the above problems, and an object of the present disclosure is to provide an object detection device and an object detection method that suppress erroneous determination of an object due to brightness around the vehicle.
  • a reflected wave sensor that transmits a transmission wave and acquires a distance to an object based on a reflected wave corresponding to the transmission wave, and a camera sensor that captures the object and acquires a captured image are used.
  • An object detection apparatus for detecting the object existing around a vehicle, wherein a reflected wave search is performed for a region including the first position with reference to a first position which is a detection position of the object detected by the reflected wave sensor.
  • a reflection area setting unit that is set as an area; and an image area setting unit that sets an area including the second position as an image search area based on a second position that is a detection position of the object detected by the camera sensor;
  • the object detected by the reflected wave sensor and the camera sensor is the same object on condition that there is an overlapping area between the reflected wave search area and the image search area
  • An object determination unit that determines the brightness in the detection direction of the object by the camera sensor, and the image area setting unit in the detection direction of the determined object Based on the brightness, the size of the image search area is changed.
  • the second position which is the detection position of the object by the camera sensor, may cause an error in the position according to the brightness of the surroundings. For example, because the periphery is dark, the camera sensor may not properly distinguish between the object and the background, and may detect the object with its upper and lower ends cut off. In such a case, the position of the object is not properly detected, and an error occurs in the second position. Further, the error of the second position changes the set position of the image search area set with the second position as a reference. As a result, there is no overlapping area between the image search area and the reflected wave search area, and the object determination unit may erroneously determine the same object as a different object.
  • the brightness in the direction in which the object is detected is determined, and the size of the image search area is changed according to the determination result. For example, if the image search area is erroneously set due to the dark surroundings of the vehicle, changing the size of the image search area makes it easy to generate an area overlapping with the reflected wave search area, and It is possible to suppress erroneous determination of the object determination unit associated with the above.
  • FIG. 1 is a configuration diagram illustrating a driving support device.
  • FIG. 2 is a diagram showing a radar search area and an image search area.
  • FIG. 3 is a diagram showing a radar search area.
  • FIG. 4 is a diagram illustrating an example of a captured image.
  • FIG. 5 is a diagram showing an image search area.
  • FIG. 6 is a flowchart of object detection processing by the object detection device,
  • FIG. 7 is a flowchart for explaining the change of the image search area Ri.
  • FIG. 8 is a diagram for explaining the change of the image search area Ri.
  • FIG. 9 is a diagram for explaining the change of the image search area Ri.
  • FIG. 1 is a configuration diagram illustrating a driving support device.
  • FIG. 2 is a diagram showing a radar search area and an image search area.
  • FIG. 3 is a diagram showing a radar search area.
  • FIG. 4 is a diagram illustrating an example of a captured image.
  • FIG. 5 is a diagram showing
  • FIG. 10 is a diagram for explaining an image search area Ri whose area size is changed by the changing process.
  • FIG. 11 is a flowchart for explaining the change of the image search area Ri.
  • FIG. 12 is a diagram for explaining the relationship between the type of the image target Oi and the change amount of the image search area Ri.
  • FIG. 13 is a flowchart for explaining the change of the image search area Ri.
  • FIG. 14 is a diagram for explaining the relationship between the image target Oi and the movement amount.
  • FIG. 15 is a diagram for explaining the relationship between the detection result of the camera sensor and the object.
  • the object detection device is applied as a part of a driving support device that supports driving of the host vehicle.
  • parts that are the same or equivalent to each other are denoted by the same reference numerals in the drawings, and the description of the same reference numerals is used.
  • FIG. 1 is a configuration diagram illustrating the driving support device 10.
  • the driving support device 10 is mounted on a vehicle and monitors the movement of an object located in front of the vehicle. And when there exists a possibility that an object and a vehicle may collide, the collision avoidance operation
  • the driving support device 10 includes various sensors, an ECU 20, and a brake unit 25.
  • the ECU 20 functions as an object detection device.
  • a vehicle on which the driving support device 10 is mounted is referred to as a vehicle CS.
  • an object recognized by the driving support device 10 is described as a target Ob.
  • the various sensors are connected to the ECU 20 and output detection results for the object to the ECU 20.
  • the sensor functions as a reflected wave sensor, thereby detecting a radar sensor 31 that detects the target Ob, a camera sensor 32 that detects the target Ob based on a captured image, and an illuminance sensor 33 that detects brightness.
  • the target detected by the radar sensor 31 and the target detected by the camera sensor 32 are distinguished from each other in the target Ob, the target detected by the radar sensor 31 is referred to as a radar target Or, and the camera sensor.
  • the target detected by 32 is described as an image target Oi.
  • the radar sensor 31 transmits a directional transmission wave such as a millimeter wave or a radar, and receives a reflected wave reflected from the radar target Or according to the transmission wave. Then, the radar sensor 31 calculates the distance, azimuth, relative speed, etc. with respect to the radar target Or according to the reflected wave, and outputs it to the ECU 20 as a radar signal.
  • a directional transmission wave such as a millimeter wave or a radar
  • the camera sensor 32 is arranged on the front side of the vehicle CS and recognizes the image target Oi located in front of the host vehicle.
  • the camera sensor 32 includes an imaging unit that captures the periphery of the vehicle, a controller that performs well-known image processing on the captured image captured by the imaging unit, and an ECU I / F that enables communication between the controller and the ECU 20. ing.
  • the camera sensor 32 may be a monocular camera or a stereo camera.
  • the camera sensor 32 identifies an object detected by analyzing the captured image as an image target Oi.
  • the image target Oi is identified by matching processing using a dictionary registered in advance.
  • a dictionary is prepared for each type of image target Oi, whereby the type of image target Oi is also specified.
  • Examples of the type of the image target Oi include an automobile such as a four or more-wheeled vehicle, a two-wheeled vehicle, a pedestrian, and a guardrail. It is assumed that the motorcycle includes a bicycle, a saddle riding type motorcycle, and the like.
  • the camera sensor 32 outputs a detection result including position information of the image target Oi according to the recognized image target Oi.
  • the position information includes the center position of the image target Oi in the captured image and both end positions. For example, both end positions indicate coordinates at both ends of the detection area indicating the area of the image target Oi recognized in the captured image.
  • the illuminance sensor 33 detects the brightness in the direction of the imaging axis that is the detection direction of the camera sensor 32.
  • the illuminance sensor 33 is disposed in the vehicle CS with its detection unit directed in the direction of the imaging axis.
  • the illuminance sensor 33 includes a detection unit that detects brightness, and outputs a signal corresponding to the detection result of the detection unit to the ECU 20.
  • the detection unit is, for example, a photodiode.
  • ECU20 is comprised as a known computer provided with CPU, ROM, RAM, etc.
  • the CPU executes a program stored in the ROM, so that the radar target detection unit 11, the radar region setting unit 12 (reflection region setting unit), the image target detection unit 13, the image region setting unit 14, and the object It functions as the determination unit 15 and the brightness determination unit 16.
  • the radar target detection unit 11 specifies the detection position (first position) of the radar target with respect to the vehicle CS by applying the detection result of the radar sensor 31 to the XY plane shown in FIG.
  • the XY plane in FIG. 2 is set with the vehicle width direction (lateral direction) as the X axis and the vehicle length direction (forward direction) as the Y axis.
  • the tip position of the vehicle CS (position where the radar sensor 31 is provided) is set as the reference point Po
  • the first position Pr of the radar target Or is expressed as a relative position with respect to the reference point Po.
  • FIG. 2 shows an example in which the radar target Or is present in front of the vehicle CS and on the right side.
  • the radar area setting unit 12 sets a radar search area Rr (reflected wave search area) centered on the first position Pr of the radar target Or.
  • the radar region setting unit 12 uses the distance r1 and the circumference based on the distance r1 from the reference point Po of the first position Pr and the angle ⁇ r in the circumferential direction from the Y axis.
  • an area having a width corresponding to an assumed error set in advance based on the characteristics of the radar sensor 31 is set as the radar search area Rr.
  • the circumferential direction is a direction orthogonal to a straight line connecting the reference point Po and the first position Pr.
  • the radar search region Rr has a distance direction from (r1 ⁇ Er1) to (r1 + Er1) and a circumferential angle from ( ⁇ r ⁇ E ⁇ r) with the first position Pr (r1, ⁇ r) as a reference. It is set in the range of ( ⁇ r + E ⁇ r).
  • the image target detection unit 13 applies the detection result of the image target Oi detected by the camera sensor 32 to the XY plane shown in FIG. 2 to thereby detect the detection position (second position) of the image target Oi with respect to the vehicle CS. Is identified.
  • the image target detection unit 13 specifies the position of the image target Oi on the XY plane based on the vertical position of the image target Oi in the captured image.
  • the image target detection unit 13 extracts the detection area T1 of the image target Oi from the photographed image by matching processing using a dictionary. Then, the position in the distance direction on the XY plane is specified from the position (coordinates) in the vertical direction in the captured image of the extracted detection region T1.
  • the position in the distance direction in the XY plane of FIG. 2 is specified based on the position of the ground contact point T1a of the image target Oi included in the detection region T1.
  • FOE Focus ⁇ of Expansion
  • the distance r2 in the distance direction on the XY plane of the target is increased.
  • the image area setting unit 14 sets an image search area Ri centered on the second position Pi as shown in FIG. More specifically, the distance from the reference point Po (the radius of the circle centered on the reference point Po) is given a width corresponding to the assumed error, and the estimated error is provided in the circumferential direction of the circle centered on the reference point Po. Is set as the image search area Ri.
  • the assumed error in the distance direction is ⁇ Er2
  • the assumed error in the circumferential direction is ⁇ E ⁇ i with the second position Pi (r2, ⁇ i) as a reference. Therefore, the image search area Ri is based on the second position Pi, with the distance direction in the range from (r2-Er2) to (r2 + Er2) and the circumferential direction in the angular range from ( ⁇ i-E ⁇ i) to ( ⁇ i + E ⁇ i). , Is set.
  • the region from the distance direction (r2-Er2) to (r2) with the second position Pi (r2, ⁇ i) as a reference is referred to as the near side region TRi, and the distance direction is ( An area from r2) to (r2 + Er2) is referred to as a back area BRi.
  • Er2 is a value that changes according to the characteristics of the camera sensor 32.
  • the object determination unit 15 determines that they are the same object based on the radar target Or and the image target Oi. Judgment is made. In this case, the object determination unit 15 sets the position of the detection target using the first position Pr (r1, ⁇ r) of the radar sensor 31 and the second position Pi (r2, ⁇ i) of the camera sensor 32. May be.
  • the camera sensor 32 since the detection direction of the camera sensor 32 becomes dark, the camera sensor 32 cannot properly separate the image target Oi and the background, and the image target Oi may be detected in a state where the upper end and the lower end are cut off. is there.
  • the contact point T1a of the detection region T1 is acquired as an upper side or a lower side compared to the lower end position of the actual image target Oi.
  • the distance r2 is erroneously detected.
  • the image search region Ri may be erroneously set due to erroneous detection of the distance r2. Therefore, in this embodiment, the image area setting unit 14 suppresses erroneous setting of the image search area Ri due to brightness by changing the image search area Ri according to the brightness in the detection direction of the camera sensor 32. is doing.
  • the brightness determination unit 16 determines the brightness in the detection direction of the camera sensor 32 based on the output from the illuminance sensor 33. The determination result of the brightness around the vehicle by the brightness determination unit 16 is output to the image region setting unit 14.
  • the brake unit 25 functions as a brake device that decelerates the vehicle speed V of the vehicle CS. Moreover, the brake unit 25 implements automatic braking of the vehicle CS based on control by the ECU 20.
  • the brake unit 25 includes, for example, a master cylinder, a wheel cylinder that applies braking force to the wheels, and an ABS actuator that adjusts the distribution of pressure (hydraulic pressure) from the master cylinder to the wheel cylinder.
  • the ABS actuator is connected to the ECU 20, and adjusts the braking amount for the wheels by adjusting the hydraulic pressure from the master cylinder to the wheel cylinder under the control of the ECU 20.
  • the ECU 20 determines whether or not the collision avoidance control for the target Ob determined to be the same target Ob is necessary, and activates the brake unit 25 when it is determined that the collision avoidance control is necessary. .
  • the ECU 20 calculates a collision margin time TTC (Time to Collision) between the target Ob determined to be the same target and the host vehicle.
  • the collision allowance time TTC is an evaluation value indicating how many seconds later the vehicle will collide with the target Ob when traveling at the vehicle speed as it is. The smaller the TTC, the higher the risk of collision. The larger the risk, the lower the risk of collision.
  • the collision allowance time TTC can be calculated by a method such as dividing the distance in the traveling direction between the target Ob and the host vehicle by the relative speed with respect to the target Ob.
  • the relative speed with respect to the target Ob is obtained by subtracting the own vehicle speed from the vehicle speed V of the preceding vehicle. Note that the collision allowance time TTC may be calculated in consideration of the relative acceleration.
  • the brake unit 25 is operated.
  • the operation time of the brake unit 25 is set according to the type of the target Ob.
  • the driving support device 10 includes a speaker, a seat belt, and the like that output an alarm sound and a guidance sound. Also for the speaker and the seat belt, according to the determination result of the ECU 20, Control its operation. Therefore, the ECU 20 also functions as a collision avoidance control unit.
  • the process shown in FIG. 6 is performed by the ECU 20 at a predetermined cycle.
  • step S11 the radar search region Rr is set based on the first position Pr.
  • step S12 an image search area Ri is set based on the second position Pi.
  • Step S11 functions as a reflection region setting step.
  • Step S12 functions as an image region setting step.
  • step S13 an area change process for changing the image search area Ri is performed. Detailed processing in step S13 will be described later.
  • step S14 an area OL that overlaps the radar search area Rr and the image search area Ri is detected.
  • step S15 it is determined whether or not the same object is detected based on the radar target Or and the image target Oi. That is, it is determined whether or not they are the same target.
  • the target Ob is It determines with it not being the same target (step S15: NO). And the process shown in FIG. 6 is once complete
  • the threshold for determining the distance to the radar target Or is variable according to the target type and ambient brightness. For example, the threshold is increased when the surroundings are bright compared to when the surroundings are dark. On the other hand, when the surroundings are dark, the image detectable distance is reduced. Therefore, when the object is fused with the radar target Or over a certain distance, it is determined that there is a high possibility that the target is not the same target.
  • step S15 when an area OL that overlaps the radar search area Rr and the image search area Ri is detected, it is determined that the detection of the target Ob is successful (step S15: YES).
  • step S16 a determination success flag is stored. .
  • the determination success flag is a flag indicating that the same target Ob is detected in the radar search region Rr and the image search region Ri in the current process. ECU20 once complete
  • the ECU 20 changes the area size of the image search area Ri according to the brightness in front of the vehicle.
  • step S20 it is determined whether the front of the vehicle, which is the detection direction of the camera sensor 32, is bright or dark.
  • the brightness determination unit 16 determines the brightness in front of the vehicle based on the output from the illuminance sensor 33.
  • step S20 NO
  • step S21 it is determined whether or not the same target is detected. For example, when the determination success flag is recorded, it is determined that the same target is detected.
  • step S22 the current setting method of the image search area Ri is maintained. In this case, since the target Ob is detected from the image search area Ri in the current setting method, the process proceeds to step S28 without changing the setting method.
  • the setting method means processing performed in steps S24, S26, and S27 described later.
  • step S23 it is determined whether the headlight of the vehicle CS is turned on or off.
  • step S23: YES the process proceeds to step S24, and the size of the image search area Ri is changed according to the brightness around the vehicle (area enlargement process 1).
  • the image search area Ri is set so that the enlargement amount increases as the brightness decreases.
  • the ECU 20 stores a map showing the relationship between the brightness and the enlargement amount shown in FIG. Therefore, the image area setting unit 14 sets the enlargement amount of the image search area Ri by referring to this map.
  • the near side region TRi and the back side region BRi are changed by the same enlargement amount, but the enlargement amount of the near side region TRi is made larger than the enlargement amount of the back side region BRi. It may be.
  • the amount of enlargement of the back side region BRi may be larger than the amount of enlargement of the near side region TRi.
  • a guard area GR is set for the enlarged area.
  • the guard area GR is an area in which determination of the area OL overlapping with the radar search area Rr is not performed in step S14 of FIG.
  • the guard region GR is set on the rear end side in the distance direction of the enlarged back region BRi in the image search region Ri. Since the detection accuracy of the camera sensor 32 also varies depending on the distance r2 to the image target Oi, when the distance r2 is equal to or greater than the threshold TD, the erroneous determination of the image target Oi accompanying the expansion of the image search area Ri does not increase.
  • the guard area GR is set.
  • FIG. 8C shows a relationship between the distance r2 and the guard region GR as an example.
  • the guard region GR is not set when the distance r2 is equal to or less than the threshold value TD that is the boundary, and when the distance r2 is equal to or greater than the threshold value TD, the range of the guard region GR that is set as the changed region according to the increase in the distance r2 Is set to increase.
  • the guard region GR expands from the rear end in the distance direction of the rear side region BRi after the change toward the near side region TRi in accordance with the increase in the distance r2. To go.
  • step S25 it is determined in step S25 whether the low beam or the high beam is used. This is because the brightness in the detection direction of the camera sensor 32 changes between when the high beam is used and when the low beam is used. As shown in FIG. 9A, when the high beam is used, the distance illuminated brightly with respect to the vehicle CS extends far. Therefore, the detection accuracy of the camera sensor 32 maintains a high value far away. On the other hand, as shown in FIG. 9B, when the low beam is used, the brightly illuminated distance in front of the vehicle is closer than when the high beam is used. For this reason, the detection accuracy of the camera sensor 32 decreases as the distance increases.
  • step S26 an enlargement process of the image search area Ri when using the low beam is performed (area enlargement process 2).
  • the enlargement amount of the image search area Ri is changed according to the distance to the image target Oi.
  • the value of the enlargement amount of the image search area Ri is set so as to increase as the distance r2 at the second position Pi from the camera sensor 32 to the image target Oi increases. Yes. Further, in FIG.
  • the detection accuracy of the camera sensor 32 becomes extremely low, so that the region is not further enlarged.
  • the front side region TRi and the back side region BRi are enlarged by the same amount of enlargement, but the back side region BRi is larger than the front side region TRi. It may be.
  • step S27 an enlargement process of the image search area Ri when using the high beam is performed (area enlargement process 3).
  • the amount of enlargement of the image search area Ri is changed according to the distance to the image target Oi. Further, when the high beam is used, the distance r2 at which the detection accuracy of the camera sensor 32 becomes extremely lower than the case where the low beam is used is farther than the vehicle CS. Therefore, the threshold value TB is shown in FIG. The vehicle CS is farther than the vehicle CS.
  • step S28 After setting a guard area
  • FIGS. 10A and 10B show an example when the brightness around the vehicle is Br1
  • FIGS. 10C to 10F show an example when the brightness around the vehicle is Br2.
  • FIGS. 10C and 10D show the image search region Ri and the radar search region Rr when the region change process shown in step S14 of FIG. 6 is not performed as a comparison.
  • the brightness Br1 and the brightness Br2 have a relationship of Br1> Br2.
  • the image search area Ri is set to an appropriate area based on the detection result from the camera sensor 32.
  • an overlapping area OL is formed between the front area TRi of the image search area Ri and the radar search area Rr, and the camera sensor 32 and the radar sensor 31 detect the same target. It is determined that
  • the camera sensor 32 cannot properly distinguish the image target Oi in the captured image from the background, and the contact point T1a of the detection region T1 is In the height direction, it is set above the contact point T1a shown in FIG. Therefore, as shown in FIG. 10 (d), the second position Pi is set to the upper side in the vehicle length direction Y compared to FIG. 10 (b), and the image search region Ri with reference to the second position Pi is The near side region TRi is set on the upper side in the vehicle length direction Y as compared with FIG. Therefore, it is determined that the region OL that overlaps the image search region Ri and the radar search region Rr does not occur, and the camera sensor 32 and the radar sensor 31 do not detect the same image target Oi.
  • FIG. 10 (e) as in FIG. 10 (c), the camera sensor 32 cannot properly distinguish the image target Oi in the captured image from the background, and the second position Pi is shown in FIG. 10 (b).
  • the near side region TRi is expanded to the lower side in the vehicle length direction Y compared to FIG. 10 (d) in accordance with the brightness around the vehicle, and the image search region Ri and the radar search region Rr.
  • the ECU 20 determines the brightness in the detection direction of the camera sensor 32, and changes the image search area Ri according to the determination result. For example, even when the image search area Ri is not set appropriately due to the dark detection direction, an area OL overlapping with the radar search area Rr is easily generated by changing the image search area Ri. As a result, erroneous determination of the object determination unit 15 due to brightness can be suppressed.
  • the image area setting unit 14 sets a change amount when changing the size of the image search area Ri in the image search area Ri based on the distance from the camera sensor 32 to the second position Pi.
  • the detection accuracy of the camera sensor 32 also varies depending on the distance from the detected image target Oi. Therefore, when the image search area Ri is changed, the amount of change is set based on the distance from the camera sensor 32 to the second position Pi, so that an erroneous determination of the image target Oi accompanying the expansion of the image search area Ri is performed. Increase can be suppressed.
  • the image area setting unit 14 sets a change amount when changing the size of the image search area Ri based on the vertical direction of the optical axis of the headlight of the vehicle CS.
  • the direction of the optical axis of the headlight is different, the distance range to the brightly illuminated target is different. Therefore, in the above configuration, it is possible to suppress erroneous determination of the image target Oi by setting the amount of change in the size of the image search region Ri based on the vertical direction of the optical axis.
  • the image region setting unit 14 performs the image search region Ri. Maintain the size of With the above-described configuration, it is possible to avoid an object from being determined as the same target Ob due to a change in ambient brightness after the target Ob is determined.
  • the collision for avoiding a collision with the target is performed.
  • Implement avoidance control when the ECU 20 enlarges the image search region Ri based on the brightness, the region OL where the image search region Ri and the radar search region Rr overlap is increased, and as a result, the operation of the collision avoidance control is facilitated. Result. Therefore, the ECU 20 facilitates the operation in the collision avoidance control by enlarging the image search region Ri based on the brightness in the detection direction of the determined target Ob.
  • FIG. 11 is a flowchart illustrating the change of the size of the image search area Ri in the second embodiment.
  • the flowchart shown in FIG. 11 is a process performed by the ECU 20 in step S13 of FIG.
  • the camera sensor 32 distinguishes the image target Oi as a four or more-wheeled automobile, a two-wheeled vehicle, and a pedestrian. Further, as shown in FIG. 11, the ECU 20 changes the image search area Ri according to the distance r2 to the image target Oi and the type (two-wheeled vehicle, pedestrian, automobile).
  • step S31 the type of the image target Oi is determined.
  • the type of the image target Oi is determined based on the type of the image target Oi output from the camera sensor 32.
  • Step S31 functions as a type determination unit.
  • step S33 a change process for a pedestrian is performed.
  • the amount of change in the size of the image search area Ri is set based on the relationship between the brightness around the vehicle and the type of the image target Oi.
  • the relationship between the type of the image target Oi and the amount of change in the image search area Ri will be described with reference to FIG.
  • FIG. 12A when the camera sensor 32 detects a pedestrian, the lower end may not be recognized.
  • FIG. 12B only the size of the near side region TRi of the image search region Ri is enlarged so as to compensate for the lower end of the unrecognized image target Oi.
  • the amount of enlargement of the size of the near side region TRi is set based on the brightness determination result determined by the brightness determination unit 16.
  • step S35 a change process for a two-wheeled vehicle is performed.
  • the change amount of the image search area Ri is set based on the relationship between the brightness around the vehicle and the type of the image target Oi.
  • the enlargement amount of the near side region TRi is set larger than that in the case shown in FIG. 12B so as to compensate for the lower part of the unrecognized image target Oi. .
  • the amount of enlargement of the size of the near side region TRi is set based on the brightness determination result determined by the brightness determination unit 16.
  • step S34 if the vehicle is not a motorcycle (step S34: NO) and the vehicle is a vehicle (step S36: YES), in step S37, a change process for a vehicle is performed.
  • the change amount of the image search area Ri is set based on the relationship between the brightness around the vehicle and the type of the image target Oi.
  • step S36 NO
  • the process shown in FIG. 11 is complete
  • the ECU 20 determines the type of the image target Oi, and sets the amount of change when changing the size of the image search region Ri based on the determined type. .
  • Different types of image targets Oi have different characteristics, so that the areas of the image targets Oi that are erroneously detected by the camera sensor 32 are also different. If the area of the image target Oi that is erroneously detected is different, the second position Pi is also different, and the setting area of the image search area Ri is made different. Therefore, by setting the change amount of the size of the image search area Ri according to the type of the image target Oi with the above configuration, an appropriate image search area Ri according to the type of the image target Oi is set. Can do.
  • the ECU 20 distinguishes the image target Oi as a four or more-wheeled vehicle, a two-wheeled vehicle, and a pedestrian, and changes the size of the image search area Ri according to the type of the image target Oi.
  • the ECU 20 determines whether the target Ob detected by the camera sensor 32 is a target object for changing the image search area Ri or a non-target object, and changes the image search area Ri based on the determination result. You may set the amount of change at the time.
  • FIG. 13 is a flowchart for explaining the change of the image search area Ri in the third embodiment.
  • the flowchart shown in FIG. 13 is a process performed by the ECU 20 in step S14 of FIG.
  • the ECU 20 changes the image search area Ri when the image target Oi is a pedestrian and a two-wheeled vehicle, and does not change the image search area Ri when the image target Oi is other (non-target object). .
  • step S41 the movement amount of the image target Oi when the camera sensor 32 detects the image target Oi is calculated.
  • a movement vector is calculated according to the time-series change of the second position Pi, and this movement vector is used as the movement amount.
  • the movement vector is a vector indicating a change amount and a direction per unit time in each pixel of the image target Oi.
  • the movement amount may be calculated using this optical flow.
  • FIG. 14 is a diagram for explaining the relationship between the image target Oi and the movement amount.
  • the image target Oi when the image target Oi is a pedestrian or a two-wheeled vehicle, the image target Oi moves in the vehicle width direction X with a change in time. Therefore, if the image target Oi is a pedestrian or a two-wheeled vehicle, the amount of movement in a certain time becomes a predetermined value or more.
  • the fixed object RO when the fixed object RO is detected, the fixed object RO does not move in the vehicle width direction X even if time elapses. Therefore, if the image target Oi is a fixed object, the movement amount in a certain time is less than a predetermined value. Therefore, by comparing the amount of movement of the image target Oi in the vehicle width direction X with the threshold value TA, it is possible to determine the possibility that the camera sensor 32 detects the fixed object as the image target Oi to be detected. it can.
  • step S45 the detection frequency of the image target Oi is determined.
  • the image area setting unit 14 determines the detection frequency using the continuous detection number N that is the number of times this image target Oi is continuously detected in a predetermined period.
  • FIG. 15 is a diagram for explaining the relationship between the detection result of the camera sensor 32 and the object.
  • FIGS. 15A, 15 ⁇ / b> B, and 15 ⁇ / b> C show changes in the time series of objects included in the captured image. If the image target Oi is a pedestrian, the camera sensor 32 detects the image target Oi more frequently. Therefore, the number N of continuous detections of the camera sensor 32 in the predetermined period increases.
  • FIGS. 15D, 15E, and 15F show changes in the time series of objects included in the captured image. It is assumed that the camera sensor 32 erroneously detects light reflected on the pylon pattern as a pedestrian or the like by irradiating the pylon or the like with a head ride. In this case, since the shape of the reflected light from the pylon is temporary, the detection frequency of the image target Oi is reduced. Therefore, the number N of continuous detections by the camera sensor 32 in a predetermined time is reduced. Therefore, the possibility that the camera sensor 32 detects a non-target object is compared with the threshold value TN by comparing the continuous detection count N indicating the number of times the camera sensor 32 continuously detects the image target Oi in a predetermined time. Can be determined.
  • the threshold value TN for determining the number of consecutive detections N may be a fixed value or a different value depending on the type of the image target Oi.
  • step S47 the range of the change amount of the image search area Ri is set to the largest range, and the image search area Ri is changed.
  • the range of the change amount of the image search area Ri is set to the largest range among the processes in steps S44, S46, and S47.
  • steps S44, S46, and S47 the amount of change in the size of the image search area Ri is set according to the brightness in the detection direction, but the range of the amount of change performed between steps (maximum value, (Minimum value) will be different.
  • step S45 if the number of consecutive detections N is less than the threshold TA (step S45: NO), in step S46, the range of change amount of the image search region Ri is set to medium, and the image search region Ri is changed.
  • the image target Oi has moved in the horizontal direction, but since the number of consecutive detections N is small, the possibility that the camera sensor 32 has detected the non-detection target object is low, but it is less than in the case of step S47. Judge as high. Therefore, the image area setting unit 14 sets the range of the change amount of the image search area Ri to an intermediate range in the processes of steps S44, S46, and S47.
  • step S42 if there is no movement in the lateral direction with respect to the vehicle CS in the moving direction of the image target Oi (step S42: NO), in step S43, the number of consecutive detections N of the image target Oi is determined. . If the number of detections of the image target Oi is greater than or equal to the threshold value TN (step S43: YES), in step S44, the range of the amount of change in the size of the image search area Ri is set to a small level, and the image search area Ri is changed. To do.
  • the image area setting unit 14 sets the range of the change amount of the image search area Ri to the smallest range among the processes in steps S44, S46, and S47.
  • step S43 NO
  • the process ends without changing the change amount of the image search area Ri.
  • the image target Oi since the image target Oi has not moved in the horizontal direction and the number of consecutive detections N is small, it is determined that the possibility that the camera sensor 32 has detected the non-detection target object is the highest. Therefore, the image search area Ri is not enlarged.
  • steps S41 to S43 and S45 function as a possibility determination unit.
  • the ECU 20 detects that the target Ob recognized by the captured image of the camera sensor 32 is a target object whose target is to change the image search area Ri and a non-target that is not the same target. The possibility of being a non-target object among the objects is determined. Then, the ECU 20 sets the amount of change when changing the size of the image search region Ri based on the determination result of the possibility. With the above configuration, since the amount of change in the size of the image search area Ri is set based on the possibility that the camera sensor 32 has detected a non-target object, the image that is not the target for the camera sensor 32 to change the image search area Ri. It is possible to suppress a decrease in determination accuracy caused by enlarging the image search area Ri in a state where the target Oi is detected.
  • the target object is a moving object
  • the non-target object is a fixed object that does not move
  • the ECU 20 is based on the amount of movement of the second position Pi during the period in which the camera sensor 32 detects the object. Determine the possibility.
  • movement is accompanied with the expansion of the image search area Ri. A decrease in determination accuracy due to detection of a non-target object can be suppressed.
  • ECU20 determines whether it is a target object with a change of the image target Oi, or a non-target object based on the frequency with which the camera sensor 32 detects the image target Oi.
  • the brightness determination unit 16 determines the brightness around the vehicle based on the output from the illuminance sensor 33. In addition to this, the brightness determination unit 16 may acquire the current time and determine the brightness around the vehicle based on the current time. Moreover, based on the luminance value of the captured image produced
  • the change of the image search area Ri performed by the image area setting unit 14 is not limited to enlargement but may be reduced. In this case, in step S22 and step S25 of FIG. 7, if the brightness around the vehicle is equal to or greater than a predetermined threshold, the image search area Ri is reduced, and if the brightness around the vehicle is less than the threshold, the image search area Ri is enlarged. To do.
  • the setting of the guard area GR in the image search area Ri according to the distance r2 in step S28 in FIG. 7 is merely an example.
  • a change amount of the size of the image search region Ri may be set according to the distance r2, and the image search region Ri may be changed according to the change amount.
  • the reflected wave sensor may be a laser sensor using laser light as a transmission wave, or an ultrasonic sensor using ultrasonic waves as a transmission wave, in addition to a radar sensor using millimeter waves.
  • the driving support device 10 may include the ECU 20 and the camera sensor 32 as an integrated device instead of the configuration including the ECU 20 and the camera sensor 32 individually.
  • the above-described ECU 20 is provided inside the camera sensor 32.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Transportation (AREA)
  • Geophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Traffic Control Systems (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

ECU20は、反射波探索領域と画像探索領域とで重複する領域が存在することを条件に、レーダセンサ31及びカメラセンサ32で検出された物体が同一の物体であることを判定する。ECU20は、同一の物体であることを判定した場合に、カメラセンサ32による物体の検出方向における明るさを判定する。そして、ECU20は、判定した物体の検出方向における明るさに基づいて、画像探索領域の大きさを変更する。

Description

物体検出装置、物体検出方法 関連出願の相互参照
 本出願は、2016年4月22日に出願された日本出願番号2016-086408号に基づくもので、ここにその記載内容を援用する。
 本開示は、送信波を送信しこの送信波に対応する反射波に基づいて物体までの距離を検出する反射波センサと、撮像画像を取得するカメラセンサと、を用いて物体を検出する物体検出装置、及び物体検出方法に関する。
 特許文献1には、レーダセンサとカメラセンサとを併用して物体を検出する物体検出装置が開示されている。特許文献1に開示された物体検出装置は、レーダセンサにより検出された物体の検出位置に基づいて探索領域を設定し、かつ、カメラセンサにより検出された物体の検出結果に基づいて探索領域を設定する。そして、物体検出装置は、両探索領域で重複する領域が存在する場合、レーダセンサで検出された物体とカメラセンサで検出された物体とを同一物体として判定する。
特開2014-122873号公報
 カメラセンサが物体を検出する場合、周辺の明るさに応じて物体の検出精度が低下する場合がある。この場合、カメラセンサの検出結果に基づいて設定される探索領域が誤設定され、物体検出装置は2つの探索領域を用いて物体の判定を行う際、同一の物体を異なる物体として誤判定するおそれがある。
 本開示は、上記課題に鑑みてなされたものであり、車両周辺の明るさに起因する、物体の誤判定を抑制する物体検出装置、及び物体検出方法を提供することを目的とする。
 本開示では、送信波を送信しこの送信波に対応する反射波に基づいて物体までの距離を取得する反射波センサと、前記物体を撮像して撮像画像を取得するカメラセンサと、を用いて車両周辺に存在する前記物体を検出する物体検出装置であって、前記反射波センサにより検出された前記物体の検出位置である第1位置を基準として、前記第1位置を含む領域を反射波探索領域として設定する反射領域設定部と、前記カメラセンサにより検出された前記物体の検出位置である第2位置を基準として、前記第2位置を含む領域を画像探索領域として設定する画像領域設定部と、前記反射波探索領域と前記画像探索領域とで重複する領域が存在することを条件に、前記反射波センサ及び前記カメラセンサで検出された前記物体が同一の物体であることを判定する物体判定部と、前記カメラセンサによる前記物体の検出方向における明るさを判定する明るさ判定部と、を有し、前記画像領域設定部は、判定された前記物体の検出方向における明るさに基づいて、当該画像探索領域の大きさを変更する。
 カメラセンサによる物体の検出位置である第2位置は、周辺の明るさに応じてその位置に誤差を生じさせる場合がある。例えば、周辺が暗いことで、カメラセンサは、物体と背景とを適正に区別できず、上端や下端が切れた状態で物体を検出しまうことがある。このような場合、物体の位置が適正に検出されず、第2位置に誤差を生じさせる。また、第2位置の誤差は、この第2位置を基準として設定される画像探索領域の設定位置を異ならせる。その結果、この画像探索領域と反射波探索領域との重複する領域がなくなり、物体判定部が同一の物体を異なる物体と誤判定するおそれがある。そこで、上記のように構成された開示では、物体を検出する方向での明るさを判定し、この判定結果に応じて画像探索領域の大きさを変更する。例えば、車両周辺が暗いことで画像探索領域が誤設定されている場合、この画像探索領域の大きさを変更することで、反射波探索領域との間で重複する領域を発生し易くし、明るさに伴う物体判定部の誤判定を抑制することができる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、運転支援装置を示す構成図であり、 図2は、レーダ探索領域及び画像探索領域を示す図であり、 図3は、レーダ探索領域を示す図であり、 図4は、撮影画像の例を示す図であり、 図5は、画像探索領域を示す図であり、 図6は、物体検出装置による物体検出処理のフローチャートであり、 図7は、画像探索領域Riの変更を説明するフローチャートであり、 図8は、画像探索領域Riの変更を説明する図であり、 図9は、画像探索領域Riの変更を説明する図であり、 図10は、変更処理により領域サイズが変更される画像探索領域Riを説明する図であり、 図11は、画像探索領域Riの変更を説明するフローチャートであり、 図12は、画像物標Oiの種別と画像探索領域Riの変更量との関係を説明する図であり、 図13は、画像探索領域Riの変更を説明するフローチャートであり、 図14は、画像物標Oiと移動量との関係性を説明する図であり、 図15は、カメラセンサの検出結果と物体との関係性を説明する図である。
 以下、物体検出装置及び物体検出方法の実施の形態を、図面を使用して説明する。以下では、物体検出装置は、自車の運転を支援する運転支援装置の一部として適用される。なお、以下の実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付しており、同一符号の部分についてはその説明を援用する。
 (第1実施形態)
 図1は、運転支援装置10を示す構成図である。運転支援装置10は、車両に搭載されており、車両前方に位置する物体の移動を監視する。そして、物体と車両とが衝突するおそれがある場合、自動ブレーキによる衝突の回避動作、又は衝突の緩和動作を実施する。また、図1に示すように、運転支援装置10は、各種センサと、ECU20と、ブレーキユニット25と、を備えている。図1に示す実施形態において、ECU20が物体検出装置として機能する。以下では、この運転支援装置10が搭載された車両を車両CSと記載する。また、運転支援装置10により認識される物体を物標Obと記載する。
 各種センサは、ECU20に接続されており、物体に対する検出結果をこのECU20に出力する。図1では、センサは、反射波センサとして機能することで物標Obを検出するレーダセンサ31と、撮像画像に基づいて物標Obを検出するカメラセンサ32と、明るさを検出する照度センサ33と、を備えている。物標Obのうちレーダセンサ31により検出される物標とカメラセンサ32により検出される物標とを区別する場合、レーダセンサ31により検出された物標をレーダ物標Orと記載し、カメラセンサ32により検出された物標を画像物標Oiと記載する。
 レーダセンサ31は、ミリ波やレーダ等の指向性のある送信波を送信し、この送信波に応じてレーダ物標Orから反射される反射波を受信する。そして、レーダセンサ31は反射波に応じてレーダ物標Orとの距離、方位および相対速度等を算出し、レーダ信号としてECU20に出力する。
 カメラセンサ32は、車両CSの前側に配置されており、自車前方に位置する画像物標Oiを認識する。カメラセンサ32は、車両周辺を撮像する撮像ユニット、この撮像ユニットにより撮像された撮像画像に対して周知の画像処理を実施するコントローラ、コントローラとECU20との通信を可能にするECUI/F、を備えている。なお、カメラセンサ32は、単眼カメラであってもよく、ステレオカメラであってもよい。
 カメラセンサ32は、撮影画像を解析することで検出される物体を画像物標Oiとして識別する。例えば、予め登録されている辞書を用いたマッチング処理で画像物標Oiを識別する。辞書は、画像物標Oiの種類ごとに用意されており、これにより画像物標Oiの種別も特定される。画像物標Oiの種別としては、四輪以上の自動車、二輪車、歩行者、ガードレール等の障害物等が挙げられる。なお、二輪車には自転車、鞍乗型の自動二輪車等が含まれているものとする。また、カメラセンサ32は、認識された画像物標Oiに応じて、当該画像物標Oiの位置情報を含む検出結果を出力する。位置情報は、撮像画像における画像物標Oiの中心位置と、両端位置と、を含んでいる。例えば、両端位置は、撮像画像内において認識された画像物標Oiの領域を示す検出領域の両端での座標を示している。
 照度センサ33は、カメラセンサ32の検知方向である撮像軸の方向での明るさを検知する。照度センサ33は、その検知部を撮像軸の方向に向けた状態で車両CSに配置されている。照度センサ33は、明るさを検知する検知部を備えており、この検知部の検知結果に応じた信号をECU20に出力する。検知部は、例えば、フォトダイオードである。
 ECU20は、CPU,ROM,RAM等を備えた周知のコンピュータとして構成されている。そして、CPUが、ROMに格納されたプログラムを実行することで、レーダ物標検出部11、レーダ領域設定部12(反射領域設定部)、画像物標検出部13、画像領域設定部14、物体判定部15、明るさ判定部16、として機能する。
 レーダ物標検出部11は、レーダセンサ31による検出結果を、図2に示すXY平面に当てはめることにより、車両CSに対するレーダ物標の検出位置(第1位置)を特定する。なお、図2のXY平面は、車両の幅方向(横方向)をX軸、車両の車長方向(前方方向)をY軸、として設定されたものである。このXY平面では、車両CSの先端位置(レーダセンサ31が設けられた位置)が基準点Poとして設定され、レーダ物標Orの第1位置Prが基準点Poに対する相対位置として表されている。なお、図2では、レーダ物標Orが車両CSの前方かつ右寄りに存在する例を示している。
 レーダ領域設定部12は、図2に示すように、レーダ物標Orの第1位置Prを中心とするレーダ探索領域Rr(反射波探索領域)を設定する。詳しくは、図3に示すように、レーダ領域設定部12は、第1位置Prの基準点Poからの距離r1、及びY軸からの円周方向の角度θrを基準として、距離方向及び円周方向のそれぞれについて、レーダセンサ31の特性に基づき予め設定されている想定誤差分の幅を持たせた領域をレーダ探索領域Rrとして設定する。なお、円周方向は、基準点Poと第1位置Prとを結ぶ直線に対して直交する方向であるとも言える。
 例えば、図3では、第1位置Pr(r1,θr)を基準として、距離方向の想定誤差を±Er1、及び円周方向の角度の想定誤差を±Eθrとして示している。そのため、レーダ探索領域Rrは、第1位置Pr(r1,θr)を基準とする、距離方向が(r1-Er1)から(r1+Er1)の範囲で、円周方向の角度が(θr-Eθr)から(θr+Eθr)の範囲で、設定されている。
 画像物標検出部13は、カメラセンサ32により検出された画像物標Oiの検出結果を、図2に示すXY平面に当てはめることにより、車両CSに対する画像物標Oiの検出位置(第2位置)を特定する。なお、画像物標検出部13は、撮影画像における画像物標Oiの上下方向の位置に基づいて、XY平面における画像物標Oiの位置を特定する。
 図4の撮影画像の例を用いて詳しく説明すると、まず、画像物標検出部13は、辞書を用いたマッチング処理によって、撮影画像中から画像物標Oiの検出領域T1を抽出する。そして抽出された検出領域T1の撮影画像中における上下方向の位置(座標)からXY平面における距離方向の位置を特定する。ここでは、検出領域T1に含まれる画像物標Oiの接地点T1aの位置に基づいて、図2のXY平面における距離方向の位置を特定する。
 なお、撮影画像中において、画像物標Oiの接地点T1aが無限遠点FOE(FOE:Focus of Expansion)に接近した位置にあるほど、画像物標Oiは車両CSから遠方の位置に存在することとなり、物標のXY平面における距離方向での距離r2が大きくなる。このような相関関係を予め記憶しておくことにより、画像物標Oiの接地点T1aから、図2のXY平面の距離方向の距離r2を特定できる。
 また、画像物標検出部13は、撮影画像中における画像物標Oiの左右方向の位置に基づいて、その画像物標Oiの円周方向の角度(車両の前方方向を基準とする角度位置)を特定する。すなわち、車両の前方方向(詳細にはX=0の直線)を基準とする画像物標Oiの角度方向のずれ(傾き)が大きいほど、カメラセンサ32の無限遠点FOEを基準として、その画像物標Oiの左右方向へのずれが大きくなる傾向にある。このため、図4の撮影画像における無限遠点FOEから画像物標Oiの中心を通る鉛直線までの距離に基づいて、図2のXY平面での画像物標Oiの円周方向の位置を特定することができる。
 画像領域設定部14は、図2に示すように、第2位置Piを中心とする画像探索領域Riを設定する。具体的には、基準点Poからの距離(基準点Poを中心とする円の半径)について想定誤差分の幅を持たせるとともに、基準点Poを中心とする円の円周方向に想定誤差分の幅を持たせた領域を、画像探索領域Riとして設定する。
 詳しくは、図5に示すように、第2位置Pi(r2,θi)を基準として、距離方向及び円周方向のそれぞれについて、カメラセンサ32の特性に基づき予め設定されている想定誤差分の幅を持たせた領域を、画像探索領域Riとして設定する。図5では、第2位置Pi(r2,θi)を基準として、距離方向の想定誤差を±Er2、及び円周方向の角度の想定誤差を±Eθiとしている。そのため、画像探索領域Riは、第2位置Piを基準とする、距離方向が(r2-Er2)から(r2+Er2)の範囲で、円周方向が(θi-Eθi)から(θi+Eθi)の角度範囲で、で設定される。
 以下では、画像探索領域Riにおいて、第2位置Pi(r2,θi)を基準として、距離方向が(r2-Er2)から(r2)までの領域を手前側領域TRiと記載し、距離方向が(r2)から(r2+Er2)までの領域を奥側領域BRiと記載する。なお、Er2は、カメラセンサ32の特性に応じて変化する値である。
 物体判定部15は、図2に示すようにレーダ探索領域Rrと画像探索領域Riとで重なる領域OLが存在する場合、レーダ物標Orと画像物標Oiとに基づいて、同一物体であるとの判定を行う。この場合、物体判定部15は、レーダセンサ31の第1位置Pr(r1,θr)と、カメラセンサ32の第2位置Pi(r2,θi)とを用いて、検出物標の位置を設定してもよい。
 ここで、カメラセンサ32の検出方向が暗くなることで、カメラセンサ32が画像物標Oiと背景とを適正に分離できず、上端や下端が切れた状態で画像物標Oiを検出する場合がある。この場合、検出領域T1の接地点T1aは、実際の画像物標Oiの下端位置と比べて上側又は下側として取得される。このような場合、カメラセンサ32の検出結果(r2,θi)の内、距離r2が誤検出されることとなる。また、距離r2の誤検出により、画像探索領域Riが誤設定される場合がある。そのため、この実施形態では、画像領域設定部14は、画像探索領域Riをカメラセンサ32の検出方向での明るさに応じて変更することで、明るさに伴う画像探索領域Riの誤設定を抑制している。
 明るさ判定部16は、照度センサ33からの出力に基づいてカメラセンサ32の検出方向での明るさを判定する。明るさ判定部16による車両周辺の明るさの判定結果は、画像領域設定部14に出力される。
 ブレーキユニット25は、車両CSの車速Vを減速させるブレーキ装置として機能する。また、ブレーキユニット25は、ECU20による制御に基づいて車両CSの自動ブレーキを実施する。ブレーキユニット25は、例えば、マスターシリンダと、車輪に制動力を与えるホイルシリンダと、マスターシリンダからホイルシリンダへの圧力(油圧)の分配を調整するABSアクチュエータとを備えている。ABSアクチュエータは、ECU20に接続されており、このECU20からの制御によりマスターシリンダからホイルシリンダへの油圧を調整することで、車輪に対する制動量を調整する。
 ECU20は、同一の物標Obであると判定された物標Obに対する衝突回避制御が必要であるか否かを判定し、衝突回避制御が必要であると判定した場合にブレーキユニット25を作動させる。例えば、ECU20は、同一物標であると判定された物標Obと自車両との衝突余裕時間TTC(Time to Collision)を算出する。衝突余裕時間TTCとは、このままの自車速度で走行した場合に、何秒後に物標Obに衝突するかを示す評価値であり、TTCが小さいほど、衝突の危険性は高くなり、TTCが大きいほど衝突の危険性は低くなる。衝突余裕時間TTCは、物標Obと自車両との進行方向の距離を、物標Obとの相対速度で除算する等の方法で算出できる。物標Obとの相対速度は、先行車両の車速Vから自車速を減算して求められる。なお、相対加速度を加味して衝突余裕時間TTCを算出してもよい。
 そして、衝突余裕時間TTCが車載機器の作動時間以下であれば、ブレーキユニット25を作動させる。例えば、ブレーキユニット25の作動時間は物標Obの種類に応じて設定される。例えば、物標Obが歩行者の場合の作動時間と、物標Obが二輪車の場合の作動時間とでは、二輪車の場合の方の危険度が高くなるために、早めの作動時間に設定する。なお、運転支援装置10は、ブレーキユニット25に加えて、警報音や案内音を出力するスピーカ、シートベルト等を備えており、スピーカ及びシートベルトに対しても、ECU20の判定結果に応じて、その作動を制御する。そのため、ECU20は、衝突回避制御部としても機能する。
 次に、ECU20より実施される物体検出処理を、図6を用いて説明する。図6に示す処理は、ECU20により所定周期で実施される。
 ステップS11では、第1位置Prに基づいてレーダ探索領域Rrを設定する。次に、ステップS12では、第2位置Piに基づいて画像探索領域Riを設定する。ステップS11が反射領域設定工程として機能する。また、ステップS12が画像領域設定工程として機能する。
 ステップS13では、画像探索領域Riを変更する領域変更処理を実施する。なお、ステップS13での詳細な処理は後述する。
 ステップS14では、レーダ探索領域Rrと画像探索領域Riとに重複する領域OLを検出する。ステップS15では、レーダ物標Orと画像物標Oiとに基づいて、同一の物体を検出しているか、検出していないかを判定する。即ち、同一物標であるか否かの判定が行われる。レーダ探索領域Rrと画像探索領域Riとに重複する領域OLを検出していない場合、もしくは、重複する領域を検出した場合でレーダ物標の距離が閾値よりも大きい場合には、物標Obは同一の物標でないと判定する(ステップS15:NO)。そして、図6に示す処理を、一旦、終了する。ステップS14,S15が物体判定工程として機能する。
 なお、上記レーダ物標Orまでの距離を判定する閾値は、物標種別や周囲の明るさに応じて可変とする。例えば、周囲が明るい場合は暗い場合と比べ、閾値を大きくする。一方、周囲が暗い場合は、画像検出可能距離が低下するため、一定距離以上のレーダ物標Orとフュージョンする場合、その物標は、同一物標でない可能性が高いと判断することになる。
 一方、レーダ探索領域Rrと画像探索領域Riとに重複する領域OLを検出した場合、物標Obの検出が成功したと判定する(ステップS15:YES)、ステップS16では、判定成功フラグを記憶する。判定成功フラグは、今回の処理において、レーダ探索領域Rrと画像探索領域Riとで同じ物標Obを検出していることを示すフラグである。ECU20は、ステップS16の処理が終了すると、図6の処理を一旦終了する。
 次に、図6のステップS13で実施される画像探索領域Riの変更処理を、図7を用いて説明する。図7に示す画像探索領域Riの変更処理において、ECU20は、車両前方の明るさに応じて、画像探索領域Riの領域サイズを変更する。
 ステップS20では、カメラセンサ32の検出方向である車両前方が明るいか暗いかを判定する。明るさ判定部16は、照度センサ33からの出力に基づいて、車両前方の明るさを判定する。
 検出方向が明るい場合(ステップS20:NO)、カメラセンサ32の検出精度は高いと判断できるため、画像探索領域Riの大きさを変更することなく、図7の処理を終了する。
 一方、検出方向が暗い場合(ステップS20:YES)、ステップS21では、同一物標を検出しているか否かを判定する。例えば、判定成功フラグを記録している場合、同一物標を検出していると判定する。同一物標を検出している場合(ステップS21:YES)、ステップS22では、現在の画像探索領域Riの設定方法を維持する。この場合、現在の設定方法での画像探索領域Riにより物標Obが検出されているため、設定方法を変更することなくステップS28に進む。なお、設定方法とは、後述するステップS24,S26,S27で実施される処理を意味する。
 一方、同一物標Obが検出できていない場合(ステップS21:NO)、ステップS23では、車両CSのヘッドライトがオンされているかオフされているかを判定する。ヘッドライトがオフの場合(ステップS23:YES)、ステップS24に進み、車両の周囲の明るさに応じて画像探索領域Riの大きさを変更する(領域拡大処理1)。
 図8(a)の例示では、画像探索領域Riは明るさが低下するに従い拡大量が増加するようその値が設定されている。例えば、ECU20は、図8(a)に示す明るさと拡大量との関係を示すマップを記憶している。そのため、画像領域設定部14はこのマップを参照することで、画像探索領域Riの拡大量を設定する。なお、図8(b)では、手前側領域TRiと奥側領域BRiとを同じ拡大量により変更しているが、手前側領域TRiの拡大量を奥側領域BRiの拡大量よりも大きくするものであってもよい。逆に、奥側領域BRiの拡大量を手前側領域TRiの拡大量よりも大きくするものであってもよい。
 ステップS28では拡大した領域に対してガード領域GRを設定する。ガード領域GRは、図6のステップS14で、レーダ探索領域Rrとの間で重複する領域OLの判定が行われない領域である。例えば、図8(b)では、画像探索領域Riのうち、拡大された奥側領域BRiの距離方向での後端側にガード領域GRが設定されている。カメラセンサ32の検出精度は、画像物標Oiとの距離r2によっても変化するため、距離r2が閾値TD以上の場合、画像探索領域Riの拡大に伴う画像物標Oiの誤判定が増加しないよう、ガード領域GRを設定する。
 図8(c)は、一例として、距離r2とガード領域GRとの関係を示している。ガード領域GRは、距離r2が境界となる閾値TD以下の場合は設定されず、距離r2が閾値TD以上の場合、距離r2の増加に応じて変更後の領域に設定されるガード領域GRの範囲が増加するよう設定される。一例として、距離r2が閾値TD以上である場合、距離r2の増加に応じて、変更後の奥側領域BRiの距離方向での後端から手前側領域TRiに向けて、ガード領域GRが拡大していく。
 ステップS23に戻り、ヘッドライトがオンされている場合(ステップS23:NO)、ステップS25ではロービームが使用されているか、ハイビームが使用されているかを判定する。カメラセンサ32の検出方向での明るさは、ハイビームが使用されている場合とロービームが使用されている場合とでも変化するためである。図9(a)に示すように、ハイビームが使用されている場合、車両CSを基準として、明るく照らされる距離は遠方まで及ぶこととなる。そのため、カメラセンサ32の検出精度は遠方まで高い値を維持する。一方、図9(b)に示すように、ロービームが使用されている場合、ハイビームが使用されている場合と比べて、車両前方での明るく照らされる距離は近方となる。そのため、カメラセンサ32の検出精度は、遠方に行くに従い低い値となる。
 ロービームが使用されていれば(ステップS25:YES)、ステップS26では、ロービームを使用する場合の画像探索領域Riの拡大処理を実施する(領域拡大処理2)。ステップS26では、画像物標Oiまでの距離に応じて、画像探索領域Riの拡大量が変更される。ロービームが使用されている場合に、カメラセンサ32から画像物標Oiまでの距離が遠ざかると画像物標Oiの周囲の明るさが低下するため、カメラセンサ32の検出精度が低下する。そのため、図9(c)の例示では、画像探索領域Riの拡大量はカメラセンサ32から画像物標Oiまでの第2位置Piでの距離r2が増加するに従い増加するようその値が設定されている。また、図9(c)では、距離r2が閾値TBを超える場合、カメラセンサ32の検出精度が極端に低くなるため、領域の拡大をこれ以上実施しないようにしている。なお、この実施形態では、手前側領域TRiと奥側領域BRiとで同じ拡大量により領域を拡大しているが、奥側領域BRiの拡大量を手前側領域TRiの拡大量よりも大きくするものであってもよい。
 一方、ハイビームが使用されていれば(ステップS25:NO)、ステップS27では、ハイビームを使用する場合の画像探索領域Riの拡大処理を実施する(領域拡大処理3)。ステップS27では、画像物標Oiまでの距離に応じて、画像探索領域Riの拡大量が変更される。また、ハイビームを使用する場合、ロービームを使用する場合と比べて、カメラセンサ32の検出精度が極端に低くなる距離r2が車両CSよりも遠方となるため、閾値TBが図9(c)に示す場合よりも車両CSを基準として遠方となる。
 そして、ステップS28によりガード領域を設定後、図7の処理を終了し、図6のステップS14に進む。
 次に、変更処理により領域サイズが変更される画像探索領域Riを、図10を用いて説明する。図10(a),(b)は、車両周辺の明るさがBr1である場合の例を示し、図10(c)から(f)は、車両周辺の明るさがBr2である場合の例を示している。なお、図10(c),(d)は、比較として、図6のステップS14に示す領域変更処理を実施しない場合の画像探索領域Riとレーダ探索領域Rrとを示している。なお、図10において、明るさBr1と明るさBr2とは、Br1>Br2の関係性を有している。
 車両周辺の明るさがBr1である場合、図10(a)に示すように、カメラセンサ32は撮像画像内の画像物標Oiと背景とを適正に区別しており、画像物標Oiの距離r2は適正に検出される。そのため、図10(b)に示すように、カメラセンサ32からの検出結果に基づいて画像探索領域Riは適正な領域に設定される。この例では、画像探索領域Riの手前側領域TRiと、レーダ探索領域Rrとの間で重複する領域OLが形成されており、カメラセンサ32とレーダセンサ31とは同一の物標を検出していると判定される。
 車両周辺の明るさがBr2である場合、図10(c)示すように、カメラセンサ32は撮像画像内の画像物標Oiと背景とを適正に区別できず、検出領域T1の接地点T1aが高さ方向で、図10(a)で示す接地点T1aよりも上側に設定されている。そのため、図10(d)に示すように、第2位置Piは、図10(b)と比べて車長方向Yで上側に設定され、この第2位置Piを基準とする画像探索領域Riは、手前側領域TRiが図10(b)と比べて車長方向Yで上側に設定されている。そのため、画像探索領域Riとレーダ探索領域Rrとに重複する領域OLが生じず、カメラセンサ32とレーダセンサ31とが同一の画像物標Oiを検出していないと判定される。
 一方、図10(e)では、図10(c)と同様、カメラセンサ32は撮像画像内の画像物標Oiと背景とを適正に区別できず、第2位置Piは、図10(b)と比べて車長方向Yで上側に設定されている。しかし、図10(f)では、車両周辺の明るさに応じて手前側領域TRiが図10(d)と比べて車長方向Yで下側まで拡大され、画像探索領域Riとレーダ探索領域Rrとに重複する領域OLが生じている。その結果、カメラセンサ32とレーダセンサ31とが同一の画像物標Oiを検出していると判定される。
 以上説明したように、この第1実施形態では、ECU20はカメラセンサ32の検出方向での明るさを判定し、この判定結果に応じて画像探索領域Riを変更する。例えば、検出方向が暗いことで画像探索領域Riが適正に設定されない場合でも、この画像探索領域Riを変更することでレーダ探索領域Rrとの間で重複する領域OLを生じ易くする。その結果、明るさに伴う物体判定部15の誤判定を抑制することができる。
 画像領域設定部14は、画像探索領域Riを、カメラセンサ32から第2位置Piまでの距離に基づいて、画像探索領域Riの大きさを変更する際の変更量を設定する。
 カメラセンサ32の検出精度は、検出される画像物標Oiとの距離によっても変化する。そこで、画像探索領域Riを変更する場合は、カメラセンサ32から第2位置Piまでの距離に基づいて変更量を設定することで、画像探索領域Riの拡大に伴う画像物標Oiの誤判定の増加を抑制することができる。
 画像領域設定部14は、車両CSのヘッドライトの光軸の上下の向きに基づいて、画像探索領域Riの大きさを変更する際の変更量を設定する。ヘッドライトの光軸の向きが異なる場合では、明るく照らされる物標までの距離範囲が異なる。そのため、上記構成では、光軸の上下の向きに基づいて画像探索領域Riの大きさの変更量を設定することで画像物標Oiの誤判定を抑制することができる。
 画像領域設定部14は、物体判定部15による物標Obが同一の物標Obであるとの判定が行われた後、明るさ判定部16による判定結果が変更されても、画像探索領域Riの大きさを維持する。上記構成により、物標Obが判定された後に周囲の明るさが変化することで物体が同一の物標Obとして判定されなくなるのを回避することができる。
 また、ECU20は、変更後の画像探索領域Riとレーダ探索領域Rrとを用いて検出された物標が同一の物標であると判定した場合、この物標との衝突を回避するための衝突回避制御を実施する。ここで、ECU20が明るさに基づいて画像探索領域Riを拡大することで、画像探索領域Riとレーダ探索領域Rrとの重なる領域OLが増加し、結果として衝突回避制御の動作を作動させ易くする結果となる。そのため、ECU20は、判定された物標Obの検出方向における明るさに基づいて、画像探索領域Riを拡大することで、前記衝突回避制御における動作を作動させ易くしている。
 (第2実施形態)
 ECU20は、画像物標Oiの種別に応じて、画像探索領域Riを変更する際の変更量を設定するものであってもよい。図11は、第2実施形態における画像探索領域Riの大きさの変更を説明するフローチャートである。図11に示すフローチャートは、図6のステップS13においてECU20に実施される処理である。
 この第2実施形態では、カメラセンサ32は、画像物標Oiを四輪以上の自動車、二輪車、歩行者として区別する。また、図11に示すように、ECU20は、画像物標Oiまでの距離r2と種別(二輪車、歩行者、自動車)とに応じて画像探索領域Riを変更する。
 ステップS31では、画像物標Oiの種別を判定する。この実施形態では、画像物標Oiの種別は、カメラセンサ32から出力される画像物標Oiの種別に基づいて判定される。ステップS31が種別判定部として機能する。
 画像物標Oiの種別が歩行者であれば(ステップS32:YES)、ステップS33では、歩行者である場合の変更処理を実施する。ステップS33における変更処理では、車両周辺の明るさと、画像物標Oiの種別との関係性とをもとに、画像探索領域Riの大きさの変更量が設定される。
 画像物標Oiの種別と画像探索領域Riの変更量との関係を、図12を用いて説明する。図12(a)に示すように、カメラセンサ32が歩行者を検出する場合、下端が認識されない場合がある。この場合、図12(b)に例示するように、認識されない画像物標Oiの下端を補うように、画像探索領域Riの手前側領域TRiの大きさのみが拡大される。また、手前側領域TRiの大きさの拡大量は、明るさ判定部16で判定される明るさの判定結果に基づいて設定される。
 画像物標Oiの種別が歩行者でなく(ステップS32:NO)、二輪車であれば(ステップS34:YES)、ステップS35では、二輪車である場合の変更処理を実施する。ステップS35における変更処理では、車両周辺の明るさと、画像物標Oiの種別との関係性とをもとに、画像探索領域Riの変更量を設定する。
 図12(c)に示すように、カメラセンサ32が二輪車を検出する場合、上側の運転者のみが認識され下側の車両CSが認識されない場合がある。この場合、図12(d)に例示するように、認識されない画像物標Oiの下部を補うように、手前側領域TRiの拡大量が図12(b)に示す場合と比べて大きく設定される。また、手前側領域TRiの大きさの拡大量は、明るさ判定部16で判定される明るさの判定結果に基づいて設定される。
 ステップS34において二輪車でなく(ステップS34:NO)、自動車であれば(ステップS36:YES)、ステップS37では、自動車である場合の変更処理を実施する。ステップS37における変更処理では、車両周辺の明るさと、画像物標Oiの種別との関係性とをもとに、画像探索領域Riの変更量を設定する。
 そして、自動車でない場合(ステップS36:NO)、画像探索領域Riの大きさを変更せず、図11に示す処理を終了する。
 以上説明したようにこの第2実施形態では、ECU20は、画像物標Oiの種別を判定し、判定された種別に基づいて、画像探索領域Riの大きさを変更する際の変更量を設定する。画像物標Oiの種別が異なればその特徴も異なるため、カメラセンサ32により誤検出される画像物標Oiの領域も異なる。誤検出される画像物標Oiの領域が異なると、第2位置Piも異なることとなり、画像探索領域Riの設定領域を異ならせる。そのため、上記構成により画像物標Oiの種別に応じて、画像探索領域Riの大きさの変更量を設定することで、画像物標Oiの種別に応じた適正な画像探索領域Riを設定することができる。
 また、カメラセンサ32の検出方向が暗い場合でも、四輪以上の自動車はヘッドライトやテールライトを発光させることで画像物標Oiの周囲に明るさを生じさせるため、カメラセンサ32の検出精度は高くなる。一方、歩行者や二輪車はライト等を発光させたとしても、四輪以上の自動車と比べて画像物標Oiの明るさの増加はわずかでしかなく検出精度の低下の抑制に貢献しない。そのため、ECU20は、画像物標Oiを四輪以上の自動車、二輪車、歩行者として区別し、画像物標Oiの種別に応じて画像探索領域Riの大きさを変更する。
 (第3実施形態)
 ECU20は、カメラセンサ32が検出する物標Obが画像探索領域Riを変更する対象物体であるか、非対象物体であるかを判定し、この判定結果に基づいて、画像探索領域Riを変更する際の変更量を設定してもよい。
 図13は、第3実施形態における画像探索領域Riの変更を説明するフローチャートである。図13に示すフローチャートは、図6のステップS14においてECU20に実施される処理である。図13に示す例において、ECU20は、画像物標Oiが歩行者及び二輪車である場合に、画像探索領域Riを変更し、その他(非対象物体)の場合画像探索領域Riを変更しないものとする。
 ステップS41では、カメラセンサ32が画像物標Oiを検出している場合の、画像物標Oiの移動量を算出する。例えば、第2位置Piの時系列での変化に応じて移動ベクトルを算出し、この移動ベクトルを移動量として用いる。ここで、移動ベクトルは、画像物標Oiの各画素における単位時間での変化量と向きとを示すベクトルである。なお、画像物標Oiを周知のオプティカルフローを用いて検出している場合、このオプティカルフローを用いて移動量を算出するものであってもよい。
 図14は、画像物標Oiと移動量との関係性を説明する図である。図14(a)に示すように、画像物標Oiが歩行者や二輪車である場合、画像物標Oiは時間の変化に伴って車幅方向Xに移動する。そのため、画像物標Oiが歩行者や二輪車であれば、ある時間での移動量は所定値以上となる。一方、図13(b)に示すように、固定物ROを検出している場合、固定物ROは時間が経過しても、車幅方向Xに移動することはない。そのため、画像物標Oiが固定物であれば、ある時間での移動量は所定値未満となる。そこで、画像物標Oiの車幅方向Xでの移動量を閾値TAと比較することで、カメラセンサ32が固定物を検出対象の画像物標Oiとして検出している可能性を判定することができる。
 図13に戻り、画像物標Oiが車両CSに対して横移動していれば(ステップS42:YES)、ステップS45では、画像物標Oiの検出頻度を判定する。この実施形態では、画像領域設定部14は所定期間においてこの画像物標Oiを連続して検出している回数である連続検出回数Nを用いて検出頻度を判定する。
 図15は、カメラセンサ32の検出結果と物体との関係性を説明する図である。図15(a),(b),(c)は、撮像画像に含まれる物体の時系列での変化を示している。画像物標Oiが歩行者であれば、カメラセンサ32はこの画像物標Oiを検出する頻度が高くなる。そのため、所定期間におけるカメラセンサ32の連続検出回数Nが多くなる。
 図15(d),(e),(f)は、撮像画像に含まれる物体の時系列での変化を示している。パイロン等にヘッドライドが照射されることで、カメラセンサ32がパイロンの模様に反射する光を歩行者等として誤検出したとする。この場合、パイロンからの反射光の形状は一時的なものであるため、画像物標Oiの検出頻度は少なくなる。そのため、所定時間におけるカメラセンサ32の連続検出回数Nは少なくなる。そこで、カメラセンサ32が所定時間において画像物標Oiを連続して検出する回数を示す連続検出回数Nを閾値TNと比較することで、カメラセンサ32が非対象物体を検出している可能性を判定することができる。ここで、連続検出回数Nを判定する閾値TNは、固定値であってもよいし、画像物標Oiの種別に応じて異なる値を用いるものであってもよい。
 連続検出回数Nが閾値TN以上であれば(ステップS45:YES)、ステップS47では、画像探索領域Riの変更量の範囲を最も大きな範囲に設定し、画像探索領域Riを変更する。この場合、画像物標Oiは横方向(車幅方向X)に移動しており、かつ、連続検出回数Nも多いため、カメラセンサ32が非検出対象物体を検出している可能性は最も低いと判定する。そのため、画像探索領域Riの変更量の範囲をステップS44,S46,S47の処理の中で最も大きな範囲に設定する。なお、ステップS44,S46,S47において、画像探索領域Riの大きさの変更量は、検出方向での明るさに応じて設定されるが、ステップ間で実施される変更量の範囲(最大値、最少値)がそれぞれ異なることとなる。
 ステップS45において、連続検出回数Nが閾値TA未満であれば(ステップS45:NO)、ステップS46では、画像探索領域Riの変更量の範囲を中程度に設定し、画像探索領域Riを変更する。この場合、画像物標Oiは横方向に移動しているが、連続検出回数Nが少ないため、カメラセンサ32が非検出対象物体を検出している可能性は低いが、ステップS47の場合よりは高いと判定する。そのため、画像領域設定部14は画像探索領域Riの変更量の範囲をステップS44,S46,S47の処理の中で中間の範囲に設定する。
 一方、ステップS42において、画像物標Oiの移動方向において車両CSに対して横方向での移動がなければ(ステップS42:NO)、ステップS43では、画像物標Oiの連続検出回数Nを判定する。画像物標Oiの検出回数が閾値TN以上であれば(ステップS43:YES)、ステップS44では、画像探索領域Riの大きさの変更量の範囲を小程度に設定し、画像探索領域Riを変更する。この場合、画像物標Oiは横方向に移動していないが、連続検出回数Nが多いため、非検出対象物体を検出している可能性はステップS46,S47の場合よりは高いと判定する。そのため、画像領域設定部14は画像探索領域Riの変更量の範囲をステップS44,S46,S47の処理の中で最も小さい範囲に設定する。
 画像物標Oiの検出回数が閾値TN未満であれば(ステップS43:NO)、画像探索領域Riの変更量を変更することなく処理を終了する。この場合、画像物標Oiは横方向に移動しておらず、かつ、連続検出回数Nが少ないため、カメラセンサ32が非検出対象物体を検出している可能性は最も高いと判定する。そのため、画像探索領域Riを拡大しない。
 上記の説明により、ステップS41~43,S45が可能性判定部として機能する。
 以上説明したようにこの第3実施形態では、ECU20は、カメラセンサ32の撮像画像により認識される物標Obが、画像探索領域Riを変更する対象となる対象物体と、同対象とならない非対象物体とのうち、非対象物体である可能性を判定する。そして、ECU20は、可能性の判定結果に基づいて、画像探索領域Riの大きさを変更する際の変更量を設定する。上記構成により、カメラセンサ32が非対象物体を検出している可能性に基づいて画像探索領域Riの大きさの変更量を設定するため、カメラセンサ32が画像探索領域Riを変更する対象でない画像物標Oiを検出している状態で画像探索領域Riを拡大してしまうことによる、判定精度の低下を抑制することができる。
 対象物体は移動を行う物体であり、非対象物体は移動を行わない固定物であり、ECU20は、カメラセンサ32が物体を検出している期間での第2位置Piの移動量に基づいて、可能性を判定する。上記構成では、第2位置Piの移動量に基づいて画像探索領域Riを変更する対象物体であるか非対象物体であるかの判定をすることで、画像探索領域Riの拡大に伴い動きを伴わない非対象物体を検出したことによる、判定精度の低下を抑制することができる。
 ECU20は、カメラセンサ32が画像物標Oiを検出している頻度に基づいて、画像物標Oiの変更を伴う対象物体であるか非対象物体であるかを判定する。上記構成とすることで、画像探索領域Riの拡大に伴い光等の一時的に生じる無対物を誤検出したことによる判定精度の低下を抑制することができる。
 (その他の実施形態)
 明るさ判定部16が照度センサ33からの出力に基づいて車両周辺の明るさを判定することは一例に過ぎない。これ以外にも、明るさ判定部16は現在の時刻を取得し、現在の時刻に基づいて車両周辺の明るさを判定するものであってもよい。また、カメラセンサ32が自車両の周囲を撮像することで生成された撮像画像の輝度値に基づいて、自車両の前方の明るさを判定するものであってもよい。
 画像領域設定部14が実施する画像探索領域Riの変更は拡大のみに限定されず、縮小するものであってもよい。この場合、図7のステップS22及びステップS25において車両周辺の明るさが所定の閾値以上であれば画像探索領域Riを縮小し、車両周辺の明るさが閾値未満であれば画像探索領域Riを拡大する。
 図7のステップS28において、距離r2に応じて画像探索領域Riにガード領域GRを設定したことは一例に過ぎない。例えば、ガード領域GRの設定に代えて、距離r2に応じて画像探索領域Riの大きさの変更量を設定し、この変更量に応じて画像探索領域Riを変更するものであってもよい。
 反射波センサは、ミリ波を用いたレーダセンサ以外にも、レーザ光を送信波として用いるレーザーセンサや、超音波を送信波として用いる超音波センサを用いてもよい。
 運転支援装置10は、ECU20とカメラセンサ32とを個別に備える構成に代えて、ECU20とカメラセンサ32とを一体の装置として備えるものであってもよい。この場合、カメラセンサ32の内部に上述したECU20を備えることとなる。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。

Claims (10)

  1.  送信波を送信しこの送信波に対応する反射波に基づいて物体までの距離を取得する反射波センサ(31)と、前記物体を撮像して撮像画像を取得するカメラセンサ(32)と、を用いて車両周辺に存在する前記物体を検出する物体検出装置(20)であって、
     前記反射波センサにより検出された前記物体の検出位置である第1位置を基準として、前記第1位置を含む領域を反射波探索領域として設定する反射領域設定部(12)と、
     前記カメラセンサにより検出された前記物体の検出位置である第2位置を基準として、前記第2位置を含む領域を画像探索領域として設定する画像領域設定部(14)と、
     前記反射波探索領域と前記画像探索領域とで重複する領域が存在することを条件に、前記反射波センサ及び前記カメラセンサで検出された前記物体が同一の物体であることを判定する物体判定部(15)と、
     前記カメラセンサによる前記物体の検出方向における明るさを判定する明るさ判定部(16)と、を有し、
     前記画像領域設定部は、判定された前記物体の検出方向における明るさに基づいて、前記画像探索領域の大きさを変更する、物体検出装置。
  2.  前記画像領域設定部は、前記カメラセンサから前記第2位置までの距離に基づいて、前記画像探索領域の大きさを変更する際の変更量を設定する、請求項1に記載の物体検出装置。
  3.  前記カメラセンサは、前記車両の前方を撮像し、
     前記画像領域設定部は、前記車両のヘッドライトにおける光軸の上下方向での向きに基づいて、前記画像探索領域の大きさを変更する際の変更量を設定する、請求項1又は請求項2に記載の物体検出装置。
  4.  前記画像領域設定部は、前記物体判定部により前記同一の物体であるとの判定がすでに行われている場合、前記明るさ判定部による判定結果が変更されても、前記画像探索領域の大きさを維持する、請求項1から請求項3のいずれか一項に記載の物体検出装置。
  5.  前記物体の種別を判定する種別判定部を有し、
     前記画像領域設定部は、前記種別判定部により判定された前記種別に基づいて、前記画像探索領域の大きさを変更する際の変更量を設定する、請求項1から請求項4のいずれか一項に記載の物体検出装置。
  6.  前記カメラセンサの撮像画像により認識される前記物体が、前記画像探索領域を変更する対象となる対象物体と、同対象とならない非対象物体とのうち、前記非対象物体である可能性を判定する可能性判定部を有し、
     前記画像領域設定部は、前記可能性判定部の判定結果に基づいて、前記画像探索領域の大きさを変更する際の変更量を設定する、請求項1から請求項4のいずれか一項に記載の物体検出装置。
  7.  前記対象物体は移動を行う物体であり、前記非対象物体は移動を行わない固定物であり、
     前記可能性判定部は、前記カメラセンサが前記物体を検出している期間での前記第2位置の移動量に基づいて、前記可能性を判定する、請求項6に記載の物体検出装置。
  8.  前記可能性判定部は、前記カメラセンサが前記物体を検出している頻度に基づいて、前記可能性を判定する、請求項6又は請求項7に記載の物体検出装置。
  9.  送信波を送信しこの送信波に対応する反射波に基づいて物体までの距離を取得する反射波センサ(31)と、前記物体を撮像して撮像画像を取得するカメラセンサ(32)と、を用いて車両周辺に存在する前記物体を検出する物体検出装置(20)であって、
     前記反射波センサにより検出された前記物体の検出位置である第1位置を基準として、前記第1位置を含む領域を反射波探索領域として設定する反射領域設定部(12)と、
     前記カメラセンサにより検出された前記物体の検出位置である第2位置を基準として、前記第2位置を含む領域を画像探索領域として設定する画像領域設定部(14)と、
     前記反射波探索領域と前記画像探索領域とで重複する領域が存在することを条件に、前記反射波センサ及び前記カメラセンサで検出された前記物体が同一の物体であることを判定する物体判定部(15)と、
     前記カメラセンサによる前記物体の検出方向における明るさを判定する明るさ判定部(16)と、
     前記反射波センサ及び前記カメラセンサで検出された前記物体が同一の物体であると判定された場合、前記物体との衝突を回避するための衝突回避制御を実施する衝突回避制御部と、を有し、
     前記衝突回避制御部は、判定された前記物体の検出方向における明るさに基づいて、前記衝突回避制御における動作を作動させ易くする、物体検出装置。
  10.  送信波を送信しこの送信波に対応する反射波に基づいて物体までの距離を取得する反射波センサ(31)と、前記物体を撮像して撮像画像を取得するカメラセンサ(32)と、を用いて車両周辺に存在する前記物体を検出する物体検出方法であって、
     前記反射波センサにより検出された前記物体の検出位置である第1位置を基準として、前記第1位置を含む領域を反射波探索領域として設定する反射領域設定工程と、
     前記カメラセンサにより検出された前記物体の検出位置である第2位置を基準として、前記第2位置を含む領域を画像探索領域として設定する画像領域設定工程と、
     前記反射波探索領域と前記画像探索領域とで重複する領域が存在することを条件に、前記反射波センサ及び前記カメラセンサで検出された前記物体が同一の物体であることを判定する物体判定工程と、
     前記カメラセンサによる前記物体の検出方向における明るさを判定する明るさ判定工程と、を有し、
     前記画像領域設定工程は、判定された前記物体の検出方向における明るさに基づいて、前記画像探索領域の大きさを変更する、物体検出方法。
PCT/JP2017/015778 2016-04-22 2017-04-19 物体検出装置、物体検出方法 WO2017183667A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/094,772 US10535264B2 (en) 2016-04-22 2017-04-19 Object detection apparatus and object detection method
DE112017002120.0T DE112017002120T5 (de) 2016-04-22 2017-04-19 Objekterfassungsvorrichtung und Objekterfassungsverfahren
CN201780024337.8A CN109073778B (zh) 2016-04-22 2017-04-19 物体检测装置、物体检测方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016086408A JP6512164B2 (ja) 2016-04-22 2016-04-22 物体検出装置、物体検出方法
JP2016-086408 2016-04-22

Publications (1)

Publication Number Publication Date
WO2017183667A1 true WO2017183667A1 (ja) 2017-10-26

Family

ID=60116161

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/015778 WO2017183667A1 (ja) 2016-04-22 2017-04-19 物体検出装置、物体検出方法

Country Status (5)

Country Link
US (1) US10535264B2 (ja)
JP (1) JP6512164B2 (ja)
CN (1) CN109073778B (ja)
DE (1) DE112017002120T5 (ja)
WO (1) WO2017183667A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6649865B2 (ja) * 2016-10-27 2020-02-19 株式会社Soken 物体検知装置
JP6759995B2 (ja) * 2016-11-11 2020-09-23 株式会社デンソー 画像処理装置
JP6654999B2 (ja) * 2016-12-12 2020-02-26 株式会社Soken 物標検出装置
CN108694363A (zh) * 2017-04-12 2018-10-23 日立汽车系统株式会社 对车辆周围的行人进行检测的方法和装置
JP6996353B2 (ja) * 2018-03-06 2022-01-17 トヨタ自動車株式会社 物体認識装置及び車両走行制御システム
JP7176415B2 (ja) * 2019-01-15 2022-11-22 トヨタ自動車株式会社 衝突前制御装置
CN109901156A (zh) * 2019-01-25 2019-06-18 中国汽车技术研究中心有限公司 一种车辆毫米波雷达和摄像头的目标融合方法和装置
KR20200095691A (ko) * 2019-02-01 2020-08-11 삼성전자주식회사 밀리미터 웨이브를 이용한 객체 인식 방법 및 이를 지원하는 전자 장치
US20220345619A1 (en) * 2019-09-27 2022-10-27 Ricoh Company, Ltd. Apparatus, image processing system, communication system, method for setting, image processing method, and recording medium
US11847833B2 (en) 2020-02-12 2023-12-19 Strattec Security Corporation Broad coverage non-contact obstacle detection
CN112689842B (zh) * 2020-03-26 2022-04-29 华为技术有限公司 一种目标检测方法以及装置
KR20240031778A (ko) * 2022-09-01 2024-03-08 현대모비스 주식회사 차량의 후진 주행 지원 방법 및 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007015676A (ja) * 2005-05-13 2007-01-25 Honda Motor Co Ltd 衝突予知装置および衝突予知方法
JP2012001063A (ja) * 2010-06-16 2012-01-05 Nissan Motor Co Ltd 衝突回避支援装置
JP2012234408A (ja) * 2011-05-02 2012-11-29 Mazda Motor Corp 車両用運転支援装置
US20130236047A1 (en) * 2012-03-07 2013-09-12 GM Global Technology Operations LLC Enhanced data association of fusion using weighted bayesian filtering
JP2014122873A (ja) * 2012-11-22 2014-07-03 Denso Corp 物標検出装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1190952C (zh) * 2002-04-10 2005-02-23 中华电信股份有限公司 可自动调整镜头光圈及检测物体移动的数字影像监控系统
JP3918791B2 (ja) * 2003-09-11 2007-05-23 トヨタ自動車株式会社 物体検出装置
EP1887382A1 (en) * 2005-05-19 2008-02-13 Olympus Corporation Distance measuring apparatus, distance measuring method and distance measuring program
JP5177510B2 (ja) * 2008-03-27 2013-04-03 アイシン精機株式会社 超音波センサ
JP5556508B2 (ja) 2010-08-30 2014-07-23 株式会社デンソー 物体検出装置
GB201015745D0 (en) * 2010-09-21 2010-10-27 Rolls Royce Goodrich Engine Co Position sensor system
JP5716343B2 (ja) * 2010-10-01 2015-05-13 トヨタ自動車株式会社 車両の物体認識システム
WO2013121911A1 (ja) * 2012-02-16 2013-08-22 日産自動車株式会社 立体物検出装置及び立体物検出方法
EP2669846B1 (en) * 2012-06-01 2017-11-01 Ricoh Company, Ltd. Target recognition system and target recognition method executed by the target recognition system, target recognition program executed on the target recognition system, and recording medium storing the target recognition program
CN104685866B (zh) * 2012-07-27 2018-12-14 歌乐株式会社 三维物体检测装置以及三维物体检测方法
WO2014017317A1 (ja) * 2012-07-27 2014-01-30 日産自動車株式会社 立体物検出装置及び異物検出装置
US9721460B2 (en) * 2012-07-27 2017-08-01 Clarion Co., Ltd. In-vehicle surrounding environment recognition device
JP5812061B2 (ja) * 2013-08-22 2015-11-11 株式会社デンソー 物標検出装置およびプログラム
US10180491B2 (en) * 2014-02-05 2019-01-15 Panasonic Intellectual Property Management Co., Ltd. Object detection device
JP6413620B2 (ja) * 2014-10-22 2018-10-31 株式会社Soken 物体検出装置
JP6585413B2 (ja) 2014-10-24 2019-10-02 新日本無線株式会社 音響機器用インシュレータ
JP6528690B2 (ja) * 2015-02-10 2019-06-12 株式会社デンソー 退避制御装置、退避制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007015676A (ja) * 2005-05-13 2007-01-25 Honda Motor Co Ltd 衝突予知装置および衝突予知方法
JP2012001063A (ja) * 2010-06-16 2012-01-05 Nissan Motor Co Ltd 衝突回避支援装置
JP2012234408A (ja) * 2011-05-02 2012-11-29 Mazda Motor Corp 車両用運転支援装置
US20130236047A1 (en) * 2012-03-07 2013-09-12 GM Global Technology Operations LLC Enhanced data association of fusion using weighted bayesian filtering
JP2014122873A (ja) * 2012-11-22 2014-07-03 Denso Corp 物標検出装置

Also Published As

Publication number Publication date
CN109073778B (zh) 2020-02-28
US10535264B2 (en) 2020-01-14
JP2017194432A (ja) 2017-10-26
JP6512164B2 (ja) 2019-05-15
CN109073778A (zh) 2018-12-21
DE112017002120T5 (de) 2019-01-03
US20190130752A1 (en) 2019-05-02

Similar Documents

Publication Publication Date Title
WO2017183667A1 (ja) 物体検出装置、物体検出方法
JP7397807B2 (ja) ライダー支援システム及び方法
US10457278B2 (en) Lane changing support apparatus
CN108263279B (zh) 基于传感器整合的行人检测和行人碰撞避免装置及方法
US10919525B2 (en) Advanced driver assistance system, vehicle having the same, and method of controlling the vehicle
US9987979B2 (en) Vehicle lighting system
US10688997B2 (en) Lane merging determination apparatus
CN109204311B (zh) 一种汽车速度控制方法和装置
JP6561584B2 (ja) 車両制御装置、及び車両制御方法
KR20200047886A (ko) 운전자 보조 시스템 및 그 제어방법
CN109891262B (zh) 物体探测装置
US10754017B2 (en) Target object information acquisition apparatus
JP5785578B2 (ja) 車両周辺監視装置
JP5371273B2 (ja) 物体検知装置、周辺監視装置、運転支援システムおよび物体検知方法
JP6443318B2 (ja) 物体検出装置
WO2017171082A1 (ja) 車両制御装置、車両制御方法
JP6855776B2 (ja) 物体検出装置、及び物体検出方法
WO2018092590A1 (ja) 車両制御装置、車両制御方法
WO2016186171A1 (ja) 物体検出装置、及び物体検出方法
US11042996B2 (en) Recognition apparatus
JP6669090B2 (ja) 車両制御装置
JP2016009251A (ja) 車両用制御装置
WO2018070335A1 (ja) 移動検出装置、移動検出方法
US11407390B2 (en) Vehicle control apparatus and vehicle control method
JP6720954B2 (ja) 車両の物標検出装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17786004

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17786004

Country of ref document: EP

Kind code of ref document: A1