WO2018056212A1 - 物体検知装置及び物体検知方法 - Google Patents

物体検知装置及び物体検知方法 Download PDF

Info

Publication number
WO2018056212A1
WO2018056212A1 PCT/JP2017/033473 JP2017033473W WO2018056212A1 WO 2018056212 A1 WO2018056212 A1 WO 2018056212A1 JP 2017033473 W JP2017033473 W JP 2017033473W WO 2018056212 A1 WO2018056212 A1 WO 2018056212A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance
bicycle
radar
detection
vehicle
Prior art date
Application number
PCT/JP2017/033473
Other languages
English (en)
French (fr)
Inventor
昇悟 松永
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to US16/334,129 priority Critical patent/US10997436B2/en
Publication of WO2018056212A1 publication Critical patent/WO2018056212A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • G01S7/412Identification of targets based on measurements of radar reflectivity based on a comparison between measured values and known or stored values
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V11/00Prospecting or detecting by methods combining techniques covered by two or more of main groups G01V1/00 - G01V9/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Definitions

  • the present disclosure relates to an object detection apparatus and an object detection method, and more particularly, to an object detection apparatus and an object detection method for detecting an object existing around a host vehicle using a radar apparatus and an imaging apparatus.
  • Patent Document 1 a vehicle that detects an object around a vehicle using an imaging device or a radar device, and performs various driving support controls such as collision avoidance control, inter-vehicle distance control, and follow-up travel control based on the detection result of the object A system is known (see, for example, Patent Document 1).
  • Patent Document 1 when the relationship between the position information of an object detected by a radar device and the position information of an object detected by an imaging device satisfies a determination criterion, both are determined to be the same object and are identical. It is disclosed that the determined object is set as an object to be detected.
  • the radio wave intensity of the reflected wave received by the radar apparatus is relatively high.
  • the end of the object in the front-rear direction is closest to the own vehicle, the end can be detected by the radar device, and the closest distance to the object can be accurately detected by the radar device.
  • the object is a bicycle, generally, the width of a metal object (for example, a mudguard portion of a rear wheel) at the end portion in the front-rear direction of the object is narrow. The strength is low. Therefore, it is difficult to consider the reflection data at the ends of the object in the front-rear direction, and there is a concern that the nearest distance to the object cannot be detected with high accuracy.
  • the present disclosure has been made in view of the above problems, and provides an object detection device and an object detection method capable of accurately recognizing the closest distance to an object when the object existing around the vehicle is a bicycle.
  • One purpose is to provide.
  • This disclosure employs the following means in order to solve the above problems.
  • the present disclosure relates to an object detection device that detects an object existing around a host vehicle using a radar device and an imaging device.
  • the object detection device includes a type recognition unit that recognizes a type of the object based on an image captured by the imaging device, and the same object is detected as the object by the imaging device and the radar device. And when the type recognition unit recognizes that the object is a bicycle, the end of the bicycle in the front-rear direction and the detection of the object by the exploration wave from the radar device.
  • a distance calculation unit that calculates a distance from the object in consideration of positional deviation from the point.
  • the positional deviation between the end of the bicycle in the front-rear direction and the detection point of the object by the radar device is taken into account.
  • the distance to the object is calculated.
  • the width of the metal object at the rear end or front end of the object is narrow, so the intensity of the reflected wave reflected at the front and rear ends of the bicycle is low, and the front and rear ends of the bicycle are In the closest case, it is conceivable that the closest distance to the object cannot be detected with high accuracy by the radar device.
  • the distance from the bicycle is calculated. In the situation where the front-rear end is closest to the host vehicle, the closest distance to the bicycle can be accurately recognized.
  • FIG. 1 is a diagram showing a schematic configuration of a driving support system
  • FIG. 2 is an explanatory diagram when a bicycle is detected by the imaging device and the radar device.
  • FIG. 3 is a diagram showing the relationship with the target height distance correction amount
  • FIG. 4 is a diagram showing the relationship between the radar detection distance and the distance correction amount.
  • FIG. 5 is a diagram showing the distance correction amount in a predetermined period from the start of correction
  • FIG. 6 is a flowchart showing a processing procedure of the bicycle distance correction processing.
  • FIG. 7 is a flowchart showing the processing procedure of the target type recognition processing.
  • FIG. 8 is a flowchart showing a processing procedure for collision avoidance control.
  • FIG. 9 is a diagram for explaining distance calculation with an object in the second embodiment.
  • the object detection device is applied as a part of a vehicle-mounted driving support device that supports driving of the host vehicle.
  • the driving support device detects an object that exists in the vicinity of the host vehicle, operates a vehicle-mounted safety device, and executes driving support to avoid collision between the host vehicle and the object or reduce collision damage. It has a function as a pre-crash safety system (PCS) that performs various controls.
  • PCS pre-crash safety system
  • the driving support device 10 is a computer including a CPU, a ROM, a RAM, an I / O, and the like, and the CPU realizes various functions by executing a program installed in the ROM.
  • the driving support device 10 is connected to a radar device 21 and an imaging device 22 that are object detection sensors that detect objects existing around the host vehicle, and inputs object detection information from these object detection sensors.
  • the radar device 21 is a known millimeter wave radar that uses, for example, a high frequency signal in the millimeter wave band as a transmission wave, and is provided at the front end of the own vehicle in this embodiment.
  • the radar device 21 includes a light emitting unit 21a, a light receiving unit 21b, and a control unit 21c, and a time until the exploration wave irradiated from the light emitting unit 21a is reflected by an object and received as a reflected wave by the light receiving unit 21b. An object is detected based on
  • the control unit 21c detects a plurality of reflection points based on the reflected wave received by the light receiving unit 21b.
  • reflection points that satisfy a predetermined condition for example, a condition determined by a lateral position, a relative speed, or the like
  • object information is acquired from the reflection point data of each grouped segment.
  • a segment representative point is selected for each segment as a representative point representing a target (radar target) from a plurality of reflection points belonging to each grouped segment.
  • segment representative points are extracted based on the radio field intensity, and the reflection point with the highest radio field intensity is used as the segment representative point.
  • the control unit 21c uses the data including the coordinates of the segment representative point and the distance information from the segment representative point of each member in the segment member belonging to the same segment as the segment representative point as driving data for the distance measurement data. 10 is output.
  • the driving assistance device 10 uses the distance measurement data input from the radar device 21 and uses the distance to the segment representative point as the distance to the object measured by the radar device 21 (hereinafter also referred to as “radar detection distance L”). calculate.
  • the control unit 21c may calculate the radar detection distance L.
  • the imaging device 22 is, for example, a CCD camera, a CMOS image sensor, or a near infrared camera.
  • the imaging device 22 is attached at a predetermined height in the center of the vehicle width direction of the vehicle, and images an area that extends in a predetermined angle range toward the front of the vehicle from an overhead viewpoint. Image data of an image captured by the imaging device 22 is output to the driving support device 10.
  • the vehicle is provided with various sensors such as a vehicle speed sensor 23 for detecting the vehicle speed and a steering angle sensor 24 for detecting the steering angle of the steering wheel (steering wheel) as vehicle sensors for detecting the running state of the vehicle.
  • the vehicle is provided with an alarm device 25 and a brake device 26 as safety devices for avoiding collision between the vehicle and an object or reducing collision damage.
  • the alarm device 25 is, for example, a speaker or a display installed in the passenger compartment of the own vehicle.
  • the safety device is not limited to these, and for example, a safety device may include a seat belt device that pulls in a seat belt provided in each seat of the host vehicle, a steering device that performs automatic steering, and the like.
  • the driving support device 10 performs various controls by the PCS based on the detection information acquired from the radar device 21 and the imaging device 22. Specifically, the driving support device 10 divides the distance from the object calculated based on the distance measurement data of the radar device 21 by the relative speed, so that a predicted collision time that is the time until the host vehicle collides with the object. (TTC: Time to Collision) is calculated. In addition, using the relative acceleration in addition to the relative speed, the collision prediction time may be calculated on the assumption that the host vehicle and the target are approaching by a constant acceleration linear motion. Then, when the calculated collision prediction time becomes equal to or less than a predetermined operation timing threshold, a type of safety device corresponding to the possibility of collision is operated.
  • TTC Time to Collision
  • the driving support device 10 activates the alarm device 25 when the predicted collision time becomes smaller than a predetermined first threshold value TH1, and when the predicted collision time becomes smaller than the second threshold value TH2,
  • the device 26 is activated to activate the automatic brake.
  • the alarm device 25 may be operated together.
  • As the second threshold TH2, a time shorter than the first threshold TH1 is set, and the alarm device 25 is operated at a timing earlier than the brake device 26.
  • FIG. 2A is a view showing a captured image 40 taken by the imaging device 22
  • FIG. 2B is a view showing the positional relationship between the own vehicle M and the bicycle B from the side of the own vehicle M and the bicycle B. It is a figure which shows a mode typically.
  • Q1 to Q5 represent reflection points of exploration waves transmitted forward from the radar apparatus 21.
  • FIG. 2 a case is considered where the bicycle B traveling in front of the host vehicle M and the driver P of the bicycle B are detected by the radar device 21 by a plurality of reflection points Q1 to Q5.
  • the plurality of reflection points Q1 to Q5 are reflection points determined to belong to one segment by the grouping process.
  • the radio wave intensity of the reflected wave received by the radar device 21 varies depending on the width of the effective reflection surface, and the radio wave intensity of the reflected wave increases as the width of the effective reflection surface increases.
  • an object having a narrow rear end for example, a rear wheel mudguard
  • the bicycle B has a lower radio field intensity at the reflection point Q2 due to reflection at the rear end of the bicycle, and the vehicle M is smaller than the rear end M.
  • a reflection point Q1 due to reflection by the driver P for example, a position far from the vehicle may be selected as the segment representative point.
  • the driving support device 10 recognizes the distance to the driver P positioned ahead of it as the distance to the object. End up.
  • the radar detection distance L is corrected by taking into account the positional deviation between the part (the rear end of the bicycle B in the case of FIG. 2) and the detection point of the object due to the exploration wave from the radar device 21.
  • the “object detection point by the exploration wave from the radar device 21” here is a position corresponding to the radar detection distance L measured by the radar device 21, and is a segment representative point in this embodiment.
  • the amount of positional deviation between the rear end of the bicycle and the detection point corresponds to the distance error ⁇ L.
  • the driving support device 10 includes a radar target acquisition unit 13, an image target acquisition unit 14, an object determination unit 15, a type recognition unit 16, a distance calculation unit 17, and an operation determination unit. 18 and a braking processing unit 19.
  • the radar target acquisition unit 13, the image target acquisition unit 14, the object determination unit 15, the type recognition unit 16 and the distance calculation unit 17 constitute an object detection device, and the operation determination unit 18 and the braking processing unit 19 avoid collision.
  • the device is configured.
  • the radar target acquisition unit 13 acquires distance measurement data from the radar device 21 at predetermined intervals, and generates radar target information for each segment.
  • the radar target information includes information on the physical quantity of the object such as the radar detection distance L, the lateral position of the object, the relative speed, and the like.
  • the image target acquisition unit 14 acquires image data from the imaging device 22 at predetermined intervals, and analyzes the acquired image data to obtain information on an object included in the captured image (hereinafter referred to as “image target information”). ").
  • image target information includes information on the distance to the object, relative speed, lateral position, height, and the like.
  • a detection area 42 of an image target is extracted from the captured image 40, and various physical quantities such as a distance to the object, a lateral position, a relative speed, and a height are calculated based on the extracted position of the detection area 42. Calculate.
  • the object determination unit 15 is the same in both the imaging device 22 and the radar device 21 based on the radar target information input from the radar target acquisition unit 13 and the image target information input from the image target acquisition unit 14. It is determined whether or not an object is detected. Here, for the image target and the radar target having a predetermined positional relationship, it is determined that the image target and the radar target are the same object.
  • the type recognition unit 16 recognizes the type of the object based on the image data.
  • pattern matching is performed using a predetermined pattern on the detection area 42 (see FIG. 2A) extracted from the captured image 40, so that the target is a vehicle (four-wheeled vehicle, motorcycle). Etc.), a pedestrian, a bicycle, or an obstacle.
  • the direction of the target with respect to the traveling direction of the host vehicle is identified. For example, when the image target is a bicycle, it is identified whether the bicycle wheel is in a vertically oriented state aligned in the front-rear direction or in a horizontally oriented state aligned in the left-right direction. Even when the bicycle is facing obliquely with respect to the traveling direction of the vehicle, it is assumed to be in the “vertical state” if the end in the longitudinal direction of the bicycle is closest to the vehicle. .
  • the distance calculation unit 17 corrects the radar detection distance L based on the distance error ⁇ L as a bicycle distance correction process when a predetermined correction condition is satisfied.
  • the correction value Lk of the radar detection distance L is calculated by the following equation (1) using the correction amount for the radar detection distance L (hereinafter also referred to as “distance correction amount A”).
  • Correction value Lk Radar detection distance L ⁇ Distance correction amount A (1)
  • the correction conditions include the following (A) to (C), and the bicycle distance correction is performed when all the conditions (A) to (C) are satisfied.
  • the same object is detected by the imaging device 22 and the radar device 21.
  • the object recognized as the same object in (A) is a bicycle.
  • the bicycle of (B) is in a vertically oriented state in which the bicycle wheels are aligned in the front-rear direction with respect to the traveling direction of the host vehicle.
  • the distance calculation unit 17 calculates the distance correction amount A based on the target height H acquired by image recognition in view of the fact that the distance error ⁇ L varies depending on the target height H. To do. Specifically, as shown in FIG. 3, the distance correction amount A is set to a larger value as the height H of the target is larger. This is because the larger the target height H, the larger the wheel diameter of the bicycle B and the greater the distance error ⁇ L. Note that Ho in FIG. 3 is a value corresponding to the minimum height when the image-recognized target is a bicycle.
  • the distance calculation unit 17 sets the distance correction amount A according to the radar detection distance L. This is because there is a possibility that the distance to the rear end of the bicycle can be detected as the radar detection distance L when the object is at a short distance. Specifically, as shown in FIG. 4, the smaller the radar detection distance L, the smaller the distance correction amount A is set. According to FIG. 4, when the radar detection distance L is a long distance L2 for targets having the same height H, a relatively large value is set as the distance correction amount A, and the radar detection distance L is a short distance L1 ( ⁇ L2 ), A relatively small value (zero in FIG. 4) is set as the distance correction amount A.
  • the distance calculation unit 17 limits the amount of change in the distance correction amount A per unit time in a period within a predetermined time from the start timing of the collision avoidance control.
  • the bicycle distance correction flag F2 is a flag indicating whether or not the radar detection distance L is corrected based on the distance error ⁇ L, and is a flag that is turned on when the correction is permitted.
  • the operation determination unit 18 calculates a predicted collision time (TTC), and determines whether or not the predicted collision time is equal to or less than an operation timing threshold.
  • TTC predicted collision time
  • the correction value Lk of the radar detection distance L is input from the distance calculation unit 17, and the collision prediction is performed based on the correction value Lk.
  • the operation timing threshold includes a first threshold TH1 used for determining the operation of the alarm device 25 and a second threshold TH2 used for determining the operation of the brake device 26.
  • the brake processing unit 19 When the brake processing unit 19 inputs a signal indicating that the predicted collision time is equal to or less than the operation timing threshold value from the operation determination unit 18, the brake processing unit 19 transmits a control command to a safety device such as the alarm device 25 or the brake device 26.
  • the safety device is activated based on this control command, and an alarm to the driver by the alarm device 25 and automatic brake control by the brake device 26 are performed.
  • the distance feedback control using the radar detection distance L is performed so that the distance between the vehicle and the object is secured at a certain distance or more.
  • step S101 it is determined whether or not an object is detected by the radar device 21, that is, whether or not there is radar detection.
  • step S102 whether or not an object is detected by the imaging device 22, that is, It is determined whether or not there is image detection. If an affirmative determination is made in steps S101 and S102, the process proceeds to step S103, where it is determined whether the image target and the radar target are the same object (object determination unit). If it is determined in step S103 that they are the same object, the process proceeds to step S104, and the target type recognition process in FIG. 7 is executed.
  • step S201 it is determined whether or not the collision avoidance operation flag F1 is on.
  • the collision avoidance operation flag F1 is a flag indicating whether or not the safety device is operating under the collision avoidance control, and is turned on when the safety device is operating.
  • the process proceeds to step S202, and the type of the object detected by both the radar device 21 and the imaging device 22 using the image target. Is recognized (type recognition unit).
  • step S203 the process proceeds to step S203, and the information regarding the type of the image target is held (latched) as the previous target.
  • the distance information between the own vehicle and the object is prevented from hunting due to switching of whether or not the radar detection distance L is corrected with the switching of the target type. Therefore, even after the start of the bicycle distance correction, even if the target type subject to the collision avoidance control is switched from the bicycle to the vehicle after the start of the collision avoidance control, the target type is retained by the bicycle. The bicycle distance correction is continued.
  • step S105 it is determined whether or not the type of the image-recognized object is a bicycle. If the image target is a bicycle, the process proceeds to step S106 to determine whether the bicycle is in a portrait orientation. If the bicycle is in the vertical state, an affirmative determination is made in step S106, and the process proceeds to step S107, where the bicycle distance correction flag F2 is turned on.
  • the radar detection distance L is acquired as a measured value of the distance to the object by the radar device 21, and the radar detection distance L is corrected based on the distance error ⁇ L (distance calculation unit). Specifically, the distance correction amount A corresponding to the height H of the target recognized from the image target and the radar detection distance L is calculated using the maps shown in FIGS. By subtracting the distance correction amount A, the correction value Lk of the radar detection distance L is calculated. Note that the distance correction amount A is gradually changed during the period from the start timing of the collision avoidance control to the elapse of the predetermined time TM. The calculated correction value Lk is object distance information, and is used, for example, to calculate a collision prediction time. Thereafter, this routine is temporarily terminated.
  • the distance detection target bicycle is continuously detected by the radar device 21, but may not be detected by the imaging device 22.
  • the bicycle distance correction is stopped immediately, when the bicycle is only temporarily lost from the image, the presence or absence of the correction of the radar detection distance L is switched, whereby the distance between the vehicle and the object is changed. There is concern about information hunting. Therefore, in this embodiment, as long as the distance detection target bicycle is continuously detected by the radar device 21, the bicycle distance correction is continued.
  • step S101 when the distance detection target bicycle is continuously detected by the radar device 21 after the start of the bicycle distance correction process but is no longer detected by the imaging device 22, an affirmative determination is made in step S101, and the step A negative determination is made in S102. Thereafter, the process proceeds to step S109 to determine whether or not the bicycle distance correction flag F2 is ON. Since the bicycle distance correction process is started, an affirmative determination is made in step S109, and the process proceeds to step S108, where the bicycle distance correction process is performed.
  • step S101 when the distance detection target bicycle is no longer detected by the radar device 21, a negative determination is made in step S101, the process proceeds to step S110, and the bicycle distance correction flag F2 is turned off. Thereafter, this process is terminated.
  • a collision prediction time (TTC) is calculated based on the distance information of the object.
  • the collision prediction time is calculated based on the correction value Lk of the radar detection distance L.
  • step S303 If the predicted collision time is greater than the second threshold value TH2, the process proceeds to step S303, and it is determined whether or not the predicted collision time has become equal to or less than the first threshold value TH1.
  • step S304 the alarm device 25 is activated, and the collision avoidance operation flag F1 is turned on.
  • step S305 the collision avoidance operation flag F1 is turned off.
  • step S302 If the predicted collision time is equal to or less than the second threshold TH2, a negative determination is made in step S302, and the process proceeds to step S306.
  • step S306 the brake device 26 and the alarm device 25 are operated, and the collision avoidance operation flag F1 is turned on. Thereafter, this routine is terminated.
  • the object existing in front of the host vehicle M is the bicycle B in a state of being vertically oriented with respect to the host vehicle M, the rear end of the bicycle B and the object detection point (segment representative point) by the radar device 21. ), And the distance from the object is calculated.
  • the bicycle B since the width of the metal object at the rear end portion of the object is narrow, the radio wave intensity of the reflected wave reflected at the rear end portion of the bicycle B is low and is difficult to be extracted as the segment representative point. For this reason, there is a concern that the closest distance to the object cannot be accurately detected by the radar device 21.
  • the distance between the rear end of the bicycle B and the object detection point by the radar device 21 is taken into account, the distance to the object is calculated. Can be accurately grasped.
  • the distance to the object is calculated by correcting the radar detection distance L in consideration of the positional deviation between the rear end of the bicycle and the detection point of the object by the radar device 21.
  • the portion of the object closest to the host vehicle is a measurement distance measured by the radar device 21 as shown in FIG.
  • a positional deviation corresponding to the distance error ⁇ L occurs with respect to the radar detection distance L.
  • the distance correction amount A is calculated according to the target height H acquired by image recognition, and the radar detection distance L is corrected by the distance correction amount A. According to such a configuration, the radar detection distance L can be corrected by the distance correction amount A corresponding to the object, and the calculation accuracy of the shortest distance to the object can be further increased.
  • the distance correction amount A is made smaller as the radar detection distance L is smaller.
  • the radar detection distance L can be corrected while considering whether or not the distance error ⁇ L is likely to occur.
  • the object type at the start of the collision avoidance control is held by taking over the information on the type of the image target as the previous target. According to such a configuration, it is possible to prevent the presence / absence of the bicycle distance correction from being switched due to the switching of the target type during the execution of the collision avoidance control. Thereby, it is possible to suppress the hunting of the distance to the object during the execution of the collision avoidance control, and accordingly, the collision avoidance control can be appropriately performed.
  • the amount of change in the distance correction amount A per unit time is limited to thereby limit the distance from the object per unit time.
  • the amount of change is limited. According to such a configuration, it is possible to suppress the occurrence of a distance jump in which the distance to the object greatly changes instantaneously.
  • the correction is continued if the radar device 21 continues to detect the object.
  • the object is continuously detected in the radar device 21, if the object is no longer detected by the imaging device 22, if the bicycle distance correction is stopped immediately, the bicycle is temporarily lost from the image. In such a case, there is a concern that the distance information with the object fluctuates.
  • it is possible to prevent the distance information from the object from fluctuating during the execution of the collision avoidance control.
  • the radar detection distance L based on the distance error ⁇ L is determined on the condition that the bicycle is determined to be in the vertical state. It was set as the structure which implements correction
  • the above correction is performed on the condition that the bicycle is in the vertical state because the distance error ⁇ L need not be considered. By doing so, the calculation accuracy of the distance to the object can be ensured.
  • the distance to the object is calculated by correcting the radar detection distance L based on the distance error ⁇ L.
  • the object existing in front of the host vehicle is a bicycle
  • the reflection point at the end of the object is extracted, and the distance to the object is calculated based on the extracted reflection point.
  • the distance from the object is calculated by taking into account the positional deviation between the rear end of the bicycle and the object detection point.
  • FIG. 9 shows a plurality of reflection points Q1 to Q5 detected by the radar device 21 for the bicycle B in a vertically oriented state traveling in front of the host vehicle.
  • the control unit 21c of the radar apparatus 21 sets the reflection point Q1 having the largest area and the highest reflection intensity as the segment representative point, and the remaining reflection points Q2 to Q5 as the segment members.
  • the position ahead of the reflection point Q2 at the rear end of the bicycle B, that is, the distance to the reflection point Q1 is erroneously recognized as the distance to the object.
  • Which of the plurality of reflection points Q1 to Q5 is the closest reflection point from the host vehicle is determined from the coordinates of the segment representative point included in the distance measurement data and the segment representative point of each segment member. And the distance information. Then, the distance calculation unit 17 calculates the distance from the object using the extracted position information of the reflection point.
  • the rear end of the bicycle is selected from the plurality of reflection points Q1 to Q5 detected by the radar device 21.
  • the reflection point is extracted, and the distance to the object is calculated based on the extracted reflection point.
  • an object such as a bicycle in which the width of the metal object at the front and rear ends of the object is narrow and the radio wave intensity of the reflected wave reflected at the front and rear ends is low is reached by the radar device 21 to the target.
  • the distance to the reflection point actually detected by the radar device 21 is calculated as the distance to the object, the closest distance to the object can be directly grasped using the actual reflection point data.
  • the radar detection distance L is corrected based on the distance error ⁇ L by subtracting the distance correction amount A from the radar detection distance L.
  • the present invention is not limited to this.
  • the radar detection distance L The radar detection distance L may be corrected based on the distance error ⁇ L by multiplying by a correction coefficient ( ⁇ 1).
  • the correction coefficient is desirably variable according to the height H of the target and the radar detection distance L.
  • the distance correction amount A is calculated according to one of the target height H and the radar detection distance L. It is good also as composition to do. Further, the distance correction amount A may be a predetermined constant value.
  • the radar detection distance L It is determined whether or not the radar detection distance L is equal to or greater than a predetermined distance. On the condition that the radar detection distance L is equal to or greater than the predetermined distance, the end portion on the side close to the own vehicle in the front-rear direction of the bicycle and the exploration wave from the radar device 21 The distance from the object may be calculated in consideration of the positional deviation of the object from the detection point. When the object is at a short distance, the distance to the rear end of the bicycle may be detected as the radar detection distance L. Conversely, when the object is at a long distance, the radar detection distance L includes a distance error ⁇ L. There is a high possibility that Considering this point, by adopting the above-described configuration, it is possible to perform the calculation of the distance from the object in consideration of the positional deviation only in a necessary situation.
  • the unit time of the distance to the object associated with the correction in the period from the start of the bicycle distance correction based on the distance error ⁇ L to the elapse of the predetermined time TM The amount of change per hit may be limited. According to such a configuration, it is possible to quickly grasp the shortest distance to the object in a situation where there is not much influence even if a distance jump occurs.
  • the threshold for the noise removal of the radio wave intensity of the reflected wave may be changed to the side where noise removal is difficult, and the distance calculation with the object taking into account the distance error ⁇ L may be performed.
  • the distance correction amount A may be calculated according to the inclination ⁇ of the bicycle in the longitudinal direction with respect to the traveling direction of the host vehicle. At this time, the distance correction amount A is decreased as the inclination ⁇ increases.
  • the reflection point having the highest radio wave intensity is set as the segment representative point.
  • the segment representative point (detection point) may be one point on the radar target, and the segment representative point extraction method is as follows. It is not limited to this.
  • the reflection point located at the center in the left-right direction among the plurality of reflection points may be used as the segment representative point, or the reflection point located at the left end or the right end may be It may be a segment representative point.
  • the radar device 21 and the imaging device 22 are mounted on the front end of the own vehicle has been described, but the mounting positions and the number of the radar devices 21 and the imaging devices 22 are particularly limited.
  • the present invention may be applied to a system mounted on the rear end or side portion of the own vehicle.
  • the radar device 21 and the imaging device 22 are mounted on the rear end portion of the own vehicle, the front end portion of the bicycle and detection of an object by the exploration wave from the radar device 21 are detected for the bicycle existing behind the own vehicle.
  • the distance from the object can be calculated in consideration of the positional deviation from the point. Thereby, also about the bicycle which exists in the back of the own vehicle, the shortest distance between the bicycle and the own vehicle can be accurately grasped.
  • each said component is conceptual and is not limited to the said embodiment.
  • the functions of one component may be realized by being distributed to a plurality of components, or the functions of a plurality of components may be realized by one component.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

物体検知装置は、レーダ装置(21)及び撮像装置(22)を用いて、自車(M)の周辺に存在する物体(B,P)を検知する。前記物体検知装置は、前記撮像装置で撮影された画像に基づいて、前記物体の種別を認識する種別認識部と、前記撮像装置及び前記レーダ装置で前記物体として同一物体が検知され、かつ前記種別認識部によって前記物体が自転車であると認識された場合に、前記自転車の前後方向における前記自車に近い側の端部と、前記レーダ装置からの探査波による前記物体の検知点との位置ずれを加味して前記物体との距離を算出する距離算出部と、を備える。

Description

物体検知装置及び物体検知方法 関連出願の相互参照
 本出願は、2016年9月22日に出願された日本出願番号2016-184932号に基づくもので、ここにその記載内容を援用する。
 本開示は、物体検知装置及び物体検知方法に関し、詳しくは、レーダ装置及び撮像装置を用いて、自車の周辺に存在する物体を検知する物体検知装置及び物体検知方法に関する。
 従来、撮像装置やレーダ装置を用いて、車両周辺に存在する物体を検出し、物体の検知結果に基づいて、衝突回避制御や車間距離制御、追従走行制御等の各種の運転支援制御を行う車両システムが知られている(例えば、特許文献1参照)。特許文献1には、レーダ装置で検知した物体の位置情報と、撮像装置で検知した物体の位置情報との関係が判断基準を満たしている場合に両者が同一物体であると判定し、同一と判断した物体を検出対象の物体とすることが開示されている。
特開2006-292475号公報
 自車周辺に存在している物体が車両やバイクの場合には、物体の前後方向の端部は幅のある金属となるため、レーダ装置が受波する反射波の電波強度は比較的高い。この場合、物体の前後方向の端部が自車から最も近い状況では、その端部をレーダ装置で検知し、対象物までの最も近い距離をレーダ装置で精度良く検知することが可能である。これに対し、物体が自転車の場合には、一般に、物体の前後方向の端部における金属物(例えば、後輪の泥除け部など)の幅が狭いため、自転車端部で反射した反射波の電波強度は低い。そのため、物体の前後方向の端部における反射データが考慮されにくく、対象物までの最も近い距離を精度良く検出できないことが懸念される。
 本開示は上記課題に鑑みなされたものであり、自車の周辺に存在する物体が自転車である場合に、物体との最も近い距離を精度良く認識することができる物体検知装置及び物体検知方法を提供することを一つの目的とする。
 本開示は、上記課題を解決するために、以下の手段を採用した。
 本開示は、レーダ装置及び撮像装置を用いて、自車の周辺に存在する物体を検知する物体検知装置に関する。本開示の一態様における物体検知装置は、前記撮像装置で撮影された画像に基づいて、前記物体の種別を認識する種別認識部と、前記撮像装置及び前記レーダ装置で前記物体として同一物体が検知され、かつ前記種別認識部によって前記物体が自転車であると認識された場合に、前記自転車の前後方向における前記自車に近い側の端部と、前記レーダ装置からの探査波による前記物体の検知点との位置ずれを加味して前記物体との距離を算出する距離算出部と、を備える。
 レーダ装置及び撮像装置で同一物体が検知され、かつその物体が自転車である場合、自転車の前後方向における自車に近い側の端部と、レーダ装置による物体の検知点との位置ずれを加味して物体との距離を算出する構成とした。自転車の場合、物体の後端部や前端部における金属物の幅が狭いため、自転車の前後方向の端部で反射した反射波の電波強度が低く、自転車の前後方向の端部が自車に最も近い場合に、レーダ装置によって対象物までの最も近い距離を精度良く検出できないことが考えられる。この点、上記構成によれば、自転車の前後方向における自車に近い側の端部と、レーダ装置による物体の検知点との位置ずれを考慮して自転車との距離を算出するため、自転車の前後方向の端部が自車に最も近い状況において、自転車との最も近い距離を精度良く認識することができる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、運転支援システムの概略構成を示す図であり、 図2は、撮像装置及びレーダ装置で自転車を検知した場合の説明図であり、 図3は、物標高さ距離補正量との関係を示す図であり、 図4は、レーダ検出距離と距離補正量との関係を示す図であり、 図5は、補正開始から所定期間における距離補正量を示す図であり、 図6は、自転車用距離補正処理の処理手順を示すフローチャートであり、 図7は、物標種別認識処理の処理手順を示すフローチャートであり、 図8は、衝突回避制御の処理手順を示すフローチャートであり、 図9は、第2実施形態における物体との距離算出を説明する図である。
 以下、物体検知装置の実施形態を図面に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付しており、同一符号の部分についてはその説明を援用する。
 (第1実施形態)
 まず、第1実施形態について説明する。物体検知装置は、自車の運転を支援する車載の運転支援装置の一部として適用される。運転支援装置は、自車の周辺に存在する物体を検知し、車載の安全装置を作動させて運転支援を実行することで、自車と物体との衝突を回避又は衝突被害を軽減するための各種制御を行うプリクラッシュセーフティシステム(PCS)としての機能を有する。
 図1において、運転支援装置10は、CPU、ROM、RAM、I/O等を備えたコンピュータであり、CPUが、ROMにインストールされているプログラムを実行することで各種機能を実現する。運転支援装置10は、自車の周囲に存在する物体を検知する物体検知センサであるレーダ装置21及び撮像装置22にそれぞれ接続されており、これら物体検知センサから物体の検知情報を入力する。
 レーダ装置21は、例えばミリ波帯の高周波信号を送信波とする公知のミリ波レーダであり、本実施形態では、自車の前端部に設けられている。レーダ装置21は、発光部21a、受光部21b及び制御部21cを備えており、発光部21aから照射された探査波が物体で反射して反射波として受光部21bで受波されるまでの時間に基づき物体を検知する。
 制御部21cは、受光部21bで受波した反射波に基づき、複数の反射点を検出する。また、その検出した複数の反射点のうち、所定の条件(例えば、横位置や相対速度等により定めた条件)を満たす反射点を、同じ物体で反射した反射点として1つのセグメントにグルーピングする。そして、そのグルーピングした各セグメントの反射点のデータから物体の情報を取得する。その際、グルーピングした各セグメントに属する複数の反射点の中から、物標(レーダ物標)を代表する代表点として、セグメント代表点をセグメント毎に選び出す。本実施形態では、電波強度に基づいてセグメント代表点を抽出しており、電波強度が最も高い反射点をセグメント代表点としている。
 制御部21cは、セグメント代表点の座標と、そのセグメント代表点と同一のセグメントに属するセグメントメンバーにおける、各メンバーのセグメント代表点からの距離情報と、を含むデータを、測距データとして運転支援装置10に出力する。運転支援装置10は、レーダ装置21から入力した測距データを用い、セグメント代表点までの距離を、レーダ装置21で測定した物体までの距離(以下、「レーダ検出距離L」ともいう。)として算出する。なお、制御部21cがレーダ検出距離Lを算出してもよい。
 撮像装置22は、例えばCCDカメラ、CMOSイメージセンサ、近赤外線カメラである。撮像装置22は、車両の車幅方向中央の所定高さに取り付けられており、車両前方へ向けて所定角度範囲で広がる領域を俯瞰視点から撮影する。撮像装置22で撮影した画像の画像データは運転支援装置10に出力される。
 その他、車両には、車両の走行状態を検出する車両センサとして、車速を検出する車速センサ23、ハンドル(ステアリングホイール)の操舵角を検出する操舵角センサ24等の各種センサが設けられている。また、車両には、自車と物体との衝突を回避又は衝突被害を軽減するための安全装置として、警報装置25及びブレーキ装置26が設けられている。警報装置25は、例えば自車の車室内に設置されたスピーカやディスプレイである。なお、安全装置はこれらに限らず、例えば、自車の各座席に設けられたシートベルトを引き込むシートベルト装置や、自動操舵を行う操舵装置等を、安全装置として備えていてもよい。
 運転支援装置10は、レーダ装置21及び撮像装置22から取得した検知情報に基づいて、PCSによる各種制御を実施する。具体的には、運転支援装置10は、レーダ装置21の測距データに基づき算出した物体との距離を相対速度で除算することにより、自車が物体に衝突するまでの時間である衝突予測時間(TTC:Time to Collision)を算出する。なお、相対速度に加えて相対加速度を用い、等加速度直線運動で自車両と物標とが接近するものとして衝突予測時間を算出してもよい。そして、算出した衝突予測時間が、予め定めた作動タイミング閾値以下となった場合に、衝突の可能性に応じた種類の安全装置を作動させる。
 具体的には、運転支援装置10は、衝突予測時間が、予め定めた第1閾値TH1よりも小さくなった場合に警報装置25を作動させ、第2閾値TH2よりも小さくなった場合に、ブレーキ装置26を作動させて自動ブレーキを作用させる。ブレーキ装置26の作動の際は、併せて警報装置25を作動させてもよい。第2閾値TH2としては、第1閾値TH1よりも短い時間が設定されており、警報装置25の方がブレーキ装置26よりも早いタイミングで作動される。
 次に、自車の前方に存在する自転車をレーダ装置21及び撮像装置22で検知した場合について、図2を用いて説明する。図2中、(a)は、撮像装置22で撮影した撮影画像40を示す図、(b)は、自車M及び自転車Bの位置関係を、自車M及び自転車Bの側方から見た様子を模式的に示す図である。図2中、Q1~Q5は、レーダ装置21から前方に向かって送波された探査波の反射点を表す。
 図2において、自車Mの前方を走行している自転車B、及び自転車Bの運転者Pが、複数の反射点Q1~Q5によってレーダ装置21で検知された場合を考える。これら複数の反射点Q1~Q5は、グルーピング処理によって1つのセグメントに属すると判断された反射点である。
 ここで、レーダ装置21が受波する反射波の電波強度は、有効反射面の幅に応じて異なり、有効反射面の幅が大きいほど、反射波の電波強度が高くなる。そのため、自転車Bのように後端部(例えば、後輪の泥除け部)の幅が狭い物体では、自転車後端での反射による反射点Q2の電波強度が低く、後端部よりも自車Mから遠い位置、例えば運転者Pでの反射による反射点Q1が、セグメント代表点として選択されてしまうことがある。かかる場合、実際には自転車の後端部までの距離が最短であるにもかかわらず、運転支援装置10は、それよりも前方に位置する運転者Pまでの距離を物体との距離として認識してしまう。
 この場合、図2(b)に示すように、距離誤差ΔL分が含まれることによって、物体までの距離の真値Tよりも長い距離がレーダ検出距離Lとして認識される。そのため、自車の前方の自転車に対する衝突回避制御の開始が遅れ、衝突回避又は衝突被害軽減のための制御を適切に行うことができないことが懸念される。
 そこで本実施形態では、撮像装置22及びレーダ装置21の両方で物体が検知され、かつその物体につき、撮影画像から自転車であると認識された場合、自転車の前後方向における自車に近い側の端部(図2の場合、自転車Bの後端部)と、レーダ装置21からの探査波による物体の検出点との位置ずれを加味して、レーダ検出距離Lを補正することとしている。なお、ここでいう「レーダ装置21からの探査波による物体の検出点」は、レーダ装置21によって測定されたレーダ検出距離Lに対応する位置であり、本実施形態ではセグメント代表点である。自転車の後端部と検出点との位置ずれのずれ量は距離誤差ΔLに対応する。
 具体的には、運転支援装置10は、図1に示すように、レーダ物標取得部13、画像物標取得部14、物体判定部15、種別認識部16、距離算出部17、作動判定部18及び制動処理部19を備えている。なお、レーダ物標取得部13、画像物標取得部14、物体判定部15、種別認識部16及び距離算出部17によって物体検知装置が構成され、作動判定部18及び制動処理部19によって衝突回避装置が構成されている。
 レーダ物標取得部13は、レーダ装置21から測距データを所定周期毎に取得し、セグメント毎にレーダ物標情報を生成する。レーダ物標情報としては、レーダ検出距離Lや、物体の横位置、相対速度等といった物体の物理量に関する情報が含まれる。
 画像物標取得部14は、撮像装置22から画像データを所定周期毎に取得し、その取得した画像データを解析することにより、撮影画像中に含まれる物体に関する情報(以下、「画像物標情報」ともいう。)を生成する。画像物標情報には、物体との距離や、相対速度、横位置、高さ等に関する情報が含まれている。ここでは、撮影画像40の中から画像物標の検知領域42を抽出し、その抽出した検知領域42の位置に基づいて、物体との距離や横位置、相対速度、高さ等の各種物理量を演算する。
 物体判定部15は、レーダ物標取得部13から入力したレーダ物標情報と、画像物標取得部14から入力した画像物標情報とに基づいて、撮像装置22及びレーダ装置21の両方で同一の物体が検知されているか否かを判定する。ここでは、所定の位置関係にある画像物標及びレーダ物標につき、画像物標とレーダ物標とが同一物体であると判定する。
 種別認識部16は、画像データに基づいて物体の種別を認識する。ここでは、撮影画像40から抽出した検知領域42(図2(a)参照)に対して、予め定められたパターンを用いてパターンマッチングを行うことにより、その物標が車両(四輪車、バイク等)であるか、歩行者であるか、自転車であるか、あるいは障害物であるかを識別する。また、自車の進行方向に対する物標の向きを識別する。例えば、画像物標が自転車である場合には、自転車の車輪が自車の進行方向に対して前後方向に並ぶ縦向きの状態か、左右方向に並ぶ横向きの状態かを識別する。なお、自転車が自車の進行方向に対して斜め方向を向いている場合でも、自転車の前後方向の端部が自車に最も近い状態であれば、「縦向きの状態」であるものとする。
 距離算出部17は、所定の補正条件が成立している場合に、自転車用距離補正処理として、距離誤差ΔLに基づきレーダ検出距離Lを補正する。本実施形態では、レーダ検出距離Lに対する補正量(以下、「距離補正量A」ともいう。)を用いて、下記式(1)によりレーダ検出距離Lの補正値Lkを算出する。
補正値Lk=レーダ検出距離L-距離補正量A   …(1)
補正条件としては下記(A)~(C)を含み、これら(A)~(C)の全ての条件が成立している場合に自転車用距離補正を実施する。
(A)撮像装置22及びレーダ装置21で同一の物体が検知されていること。
(B)上記(A)で同一物体と認識された物体が自転車であること。
(C)上記(B)の自転車が、自転車の車輪が自車の進行方向に対して前後方向に並ぶ縦向きの状態であること。
 距離補正量Aにつき、距離算出部17は、物標の高さHに応じて距離誤差ΔLが異なることに鑑み、画像認識によって取得した物標の高さHに基づいて距離補正量Aを算出する。具体的には、図3に示すように、物標の高さHが大きいほど、距離補正量Aとして大きい値を設定する。物標の高さHが大きいほど、自転車Bのホイール径が大きく距離誤差ΔLが大きくなるからである。なお、図3のHoは、画像認識した物標が自転車である場合の最小の高さに対応する値である。
 また、距離算出部17は、レーダ検出距離Lに応じて距離補正量Aを設定する。物体が近距離にあるときには、レーダ検出距離Lとして自転車後端までの距離を検知できている可能性があるからである。具体的には、図4に示すように、レーダ検出距離Lが小さいほど、距離補正量Aとして小さい値を設定する。図4によれば、高さHが同じ物標につき、レーダ検出距離Lが遠距離L2のときには、距離補正量Aとして比較的大きい値が設定され、レーダ検出距離Lが近距離L1(<L2)のときには、距離補正量Aとして比較的小さい値(図4ではゼロ)が設定される。
 距離算出部17は、衝突回避制御の開始タイミングから所定時間内の期間では、距離補正量Aの単位時間当たりの変化量を制限する。自転車用距離補正を開始する場合に、物体の距離情報をレーダ検出距離Lから補正値Lkに一気に変化させると、距離補正量Aによっては、運転支援装置10が認識している物体との距離が、瞬時に短くなる側に大きく変化し、「距離飛び」が発生することがある。かかる場合、例えば衝突回避制御による自動ブレーキの作動中では、物体との距離が瞬時に短くなることで車両の制動力が大きく変化し、運転者に違和感を与えることが懸念されるためである。
 具体的には、図5に示すように、自転車用距離補正フラグF2がオフからオンに切り替わった時刻t11から所定時間TMが経過するまでの期間では、単位時間当たりの変化量を制限することによって、距離補正量Aを徐々に大きくなる側に変化させる。このとき、所定時間TMを固定値とし、物標の高さH及びレーダ検出距離Lに応じた距離補正量Aに基づいて単位時間当たりの変化量を定めてもよい。あるいは、単位時間当たりの変化量を固定値としてもよい。なお、自転車用距離補正フラグF2は、距離誤差ΔLに基づくレーダ検出距離Lの補正の許否を示すフラグであり、当該補正を許可する場合にオンにされるフラグである。
 作動判定部18は、衝突予測時間(TTC)を算出し、衝突予測時間が作動タイミング閾値以下となったか否かを判定する。ここでは、自車の周辺に存在する物体が、縦向き状態の自転車である場合には、距離算出部17からレーダ検出距離Lの補正値Lkを入力し、その補正値Lkに基づいて衝突予測時間を算出する。作動タイミング閾値としては、警報装置25の作動判定に用いる第1閾値TH1、及びブレーキ装置26の作動判定に用いる第2閾値TH2を含む。
 制動処理部19は、衝突予測時間が作動タイミング閾値以下になったことを示す信号を作動判定部18から入力すると、警報装置25やブレーキ装置26等の安全装置に制御指令を送信する。この制御指令に基づき安全装置が作動され、警報装置25による運転者への警報や、ブレーキ装置26による自動ブレーキ制御が実施される。なお、自動ブレーキの作動中は、自車と物体との距離が一定の距離以上確保されるように、レーダ検出距離Lを用いた距離フィードバック制御を行う。
 次に、本実施形態の運転支援制御の処理手順について図6~8のフローチャートを用いて説明する。
 まず、自転車用距離補正処理について図6のフローチャートを用いて説明する。この処理は、運転支援装置10のCPUにより所定周期毎に実行される。
 図6において、ステップS101では、レーダ装置21により物体が検知されているか否か、つまりレーダ検知ありか否かを判定し、ステップS102では、撮像装置22により物体が検知されているか否か、つまり画像検知ありか否かを判定する。ステップS101及びS102で肯定判定されると、ステップS103へ進み、画像物標とレーダ物標とが同一物体であるか否かを判定する(物体判定部)。ステップS103で同一物体であると判定された場合、ステップS104へ進み、図7の物標種別認識処理を実行する。
 図7において、ステップS201では、衝突回避作動フラグF1がオンか否かを判定する。衝突回避作動フラグF1は、衝突回避制御による安全装置の作動中か否かを示すフラグであり、安全装置が作動中である場合にオンにされる。衝突回避作動フラグF1がオフの場合、つまり安全装置の作動中でない場合には、ステップS202へ進み、画像物標を用いて、レーダ装置21及び撮像装置22の両方で検知されている物体の種別を認識する(種別認識部)。
 一方、衝突回避作動フラグF1がオンの場合には、ステップS203へ進み、画像物標の種別に関する情報を前回物標のまま保持(ラッチ)する。衝突回避制御の実行中では、物標種別の切り替わりに伴いレーダ検出距離Lの補正の有無が切り替わることによって自車と物体との距離情報がハンチングすることを抑制するためである。したがって、自転車用距離補正の開始後において、衝突回避制御の対象となっている物標の種別が、衝突回避制御の実行開始後に自転車から車両に切り替わった場合でも、物標種別を自転車で保持することによって自転車用距離補正を継続する。
 図6の説明に戻り、続くステップS105では、画像認識した物体の種別が自転車であるか否かを判定する。画像物標が自転車である場合には、ステップS106へ進み、その自転車が縦向きの状態であるか否かを判定する。自転車が縦向きの状態である場合には、ステップS106で肯定判定されてステップS107へ進み、自転車用距離補正フラグF2をオンにする。
 続くステップS108では、レーダ装置21による物体までの距離の測定値としてレーダ検出距離Lを取得し、距離誤差ΔLに基づいてレーダ検出距離Lを補正する(距離算出部)。具体的には、図3及び図4のマップを用いて、画像物標から認識した物標の高さHとレーダ検出距離Lとに応じた距離補正量Aを算出し、レーダ検出距離Lから距離補正量Aを差し引くことにより、レーダ検出距離Lの補正値Lkを算出する。なお、衝突回避制御の開始タイミングから所定時間TMが経過するまでの期間では、距離補正量Aを徐変させる。算出した補正値Lkは物体の距離情報であり、例えば衝突予測時間を算出するために用いられる。その後、一旦本ルーチンを終了する。
 自転車用距離補正処理の開始後に、距離検知対象の自転車が、レーダ装置21では継続して検知されているが、撮像装置22によっては検知されなくなることがある。この場合に、自転車用距離補正を直ちに止めてしまうと、自転車が画像から一時的にロストしただけである場合に、レーダ検出距離Lの補正の有無が切り替わることによって、自車と物体との距離情報がハンチングすることが懸念される。そこで本実施形態では、距離検知対象の自転車がレーダ装置21によって継続して検知されている限り、自転車用距離補正を継続する。
 すなわち、自転車用距離補正処理の開始後に、距離検知対象の自転車がレーダ装置21では継続して検知されているが、撮像装置22によっては検知されなくなった場合、ステップS101で肯定判定され、かつステップS102で否定判定される。その後、ステップS109へ進み、自転車用距離補正フラグF2がオンか否かを判定する。自転車用距離補正処理の開始後であるからステップS109では肯定判定され、ステップS108へ進み、自転車用距離補正処理を実施する。
 一方、距離検知対象の自転車がレーダ装置21で検知されなくなった場合には、ステップS101で否定判定されてステップS110へ進み、自転車用距離補正フラグF2をオフにする。その後、本処理を終了する。
 次に、衝突回避処理の処理手順について、図8のフローチャートを用いて説明する。この処理は、運転支援装置10のCPUにより所定周期毎に実行される。
 図8において、ステップS301では、物体の距離情報に基づいて衝突予測時間(TTC)を算出する。レーダ装置21及び撮像装置22によって検知されている物体が縦向き状態の自転車である場合には、レーダ検出距離Lの補正値Lkに基づいて衝突予測時間を算出する。続くステップS302では、衝突予測時間が第2閾値TH2以下になったか否かを判定する。
 衝突予測時間が第2閾値TH2よりも大きい場合にはステップS303へ進み、衝突予測時間が第1閾値TH1以下になったか否かを判定する。ステップS303で肯定判定された場合にはステップS304へ進み、警報装置25を作動させるとともに、衝突回避作動フラグF1をオンにする。一方、ステップS303で否定判定された場合にはステップS305へ進み、衝突回避作動フラグF1をオフにする。
 衝突予測時間が第2閾値TH2以下になると、ステップS302で否定判定されてステップS306へ進む。ステップS306では、ブレーキ装置26及び警報装置25を作動させるとともに、衝突回避作動フラグF1をオンにする。その後、本ルーチンを終了する。
 以上詳述した本実施形態によれば、次の優れた効果が得られる。
 自車Mの前方に存在する物体が、自車Mに対して縦向きの状態の自転車Bである場合には、自転車Bの後端部と、レーダ装置21による物体の検知点(セグメント代表点)との位置ずれを加味して、物体との距離を算出する構成とした。自転車Bの場合、物体の後端部における金属物の幅が狭いため、自転車Bの後端部で反射した反射波の電波強度が低く、セグメント代表点として抽出されにくい。そのため、対象物までの最も近い距離をレーダ装置21によって精度良く検出できないことが懸念される。この点、上記構成によれば、自転車Bの後端部と、レーダ装置21による物体の検知点との位置ずれを考慮して、物体との距離を算出するため、自転車Bとの最も近い距離を精度良く把握することができる。
 具体的には、自転車後端部と、レーダ装置21による物体の検知点との位置ずれを加味してレーダ検出距離Lを補正することにより、物体との距離を算出する構成とした。自車の前方に存在する物体が縦向きの状態の自転車である場合、物体の自車に最も近い部分は、図2(b)に示すように、レーダ装置21により計測される計測距離であるレーダ検出距離Lに対して、距離誤差ΔL分の位置ずれが生じる。この点に着目し、レーダ検出距離Lに対して、距離誤差ΔL分の位置ずれを加味した補正を行うことにより、物体との距離として、物体との最も近い距離を精度良く算出することができる。
 物体の高さが高いほど、自転車Bのホイール径が大きく、自転車後端とレーダ装置21の検知点(セグメント代表点)との位置ずれ量が大きくなる。この点に着目し、画像認識により取得した物標高さHに応じて距離補正量Aを算出し、距離補正量Aによりレーダ検出距離Lを補正する構成とした。こうした構成によれば、物体に応じた距離補正量Aによってレーダ検出距離Lを補正でき、物体との最短距離の算出精度をより高くすることができる。
 レーダ検出距離Lが小さいほど、距離補正量Aを小さくする構成とした。物体が近距離にあるときには、レーダ検出距離Lとして自転車後端との距離を検知できている可能性がある。そこで上記構成とすることにより、距離誤差ΔLが生じやすい状況か否かを考慮しつつレーダ検出距離Lを補正することができる。
 衝突回避制御の実施期間中は、画像物標の種別に関する情報を前回物標のまま引き継ぐことにより、衝突回避制御の開始時の物体種別を保持する構成とした。こうした構成によれば、衝突回避制御の実行中に、物標種別の切り替わりが生じることによって自転車用距離補正の有り/無しが切り替わらないようにすることができる。これにより、衝突回避制御の実行中に物体との距離がハンチングすることを抑制することができ、ひいては、衝突回避制御を適切に実施することができる。
 距離誤差ΔLに基づく自転車用距離補正を開始してから所定時間TMが経過するまでの期間では、距離補正量Aの単位時間当たりの変化量を制限することにより、物体との距離の単位時間当たりの変化量を制限する構成とした。こうした構成によれば、物体との距離が瞬時に大きく変化する距離飛びが発生することを抑制することができる。
 距離誤差ΔLに基づく補正の開始後において、撮像装置22では物体が検知されなくなった場合でも、レーダ装置21による物体の検知が継続している場合には、当該補正を継続する構成とした。レーダ装置21では物体が継続して検知されているが、撮像装置22によっては物体が検知されなくなった場合に、自転車用距離補正を直ちに止めてしまうと、自転車が画像から一時的にロストしただけである場合に、物体との距離情報が変動することが懸念される。この点に鑑み、上記構成とすることにより、衝突回避制御の実行中に物体との距離情報が変動することを抑制することができる。
 自車に対する自転車の向きを考慮し、自転車が縦向きの状態であるか否かを判定するとともに、縦向きの状態であると判定されたことを条件に、距離誤差ΔLに基づくレーダ検出距離Lの補正を実施する構成とした。自転車の車輪が自車の進行方向に対して左右方向に並ぶ横向きの状態の場合には距離誤差ΔLを考慮しなくてよいため、自転車が縦向きの状態であることを条件に上記補正を実施することにより、物体との距離の算出精度を確保することができる。
 (第2実施形態)
 次に、第2実施形態について説明する。上記第1実施形態では、自車の前方に存在する物体が自転車である場合には、距離誤差ΔLに基づいてレーダ検出距離Lを補正することにより物体との距離を算出する構成とした。これに対し、本実施形態では、自車の前方に存在する物体が自転車である場合には、レーダ装置21で検出された複数の反射点の中から、自転車の前後方向における自車に近い側の端部の反射点を抽出し、その抽出した反射点に基づいて物体との距離を算出する。これにより、自転車の後端部と物体の検知点との位置ずれを加味して物体との距離を算出する。
 図9には、自車の前方を走行する縦向き状態の自転車Bについて、レーダ装置21で検出した複数の反射点Q1~Q5が表されている。レーダ装置21の制御部21cは、これら複数の反射点Q1~Q5のうち、面積が広く反射強度が最も高い反射点Q1をセグメント代表点とし、残りの反射点Q2~Q5をセグメントメンバーとする。この場合、自転車Bの後端での反射点Q2よりも前方の位置、すなわち反射点Q1までの距離が物体までの距離と誤認識されることになる。
 この点に鑑み、本実施形態において距離算出部17は、レーダ装置21で検出された複数の反射点Q1~Q5のうち、自転車の前後方向における自車に近い側の端部の反射点、すなわち自車から最も近距離の反射点を抽出する。複数の反射点Q1~Q5のうち、いずれの反射点が自車から最も近距離の反射点であるかは、測距データに含まれるセグメント代表点の座標と、各セグメントメンバーのセグメント代表点からの距離情報とを用いて判別する。そして、距離算出部17は、抽出した反射点の位置情報を用いて、物体との距離を算出する。
 以上詳述した第2実施形態では、自車の前方に存在する物体として自転車が検知されている場合には、レーダ装置21によって検出された複数の反射点Q1~Q5の中から、自転車後端の反射点を抽出し、その抽出した反射点に基づいて物体との距離を算出する構成とした。この構成によっても、自転車のように、物体の前後方向の端部における金属物の幅が狭く、前後方向の端部で反射した反射波の電波強度が低い物体について、レーダ装置21によって対象物までの最も近い距離を精度良く算出することができる。また、実際にレーダ装置21で検出された反射点との距離を物体との距離として算出するため、物体との最も近い距離を、実際の反射点データを用いて直接把握することができる。
 (他の実施形態)
 本開示は上記の実施形態に限定されず、例えば以下のように実施されてもよい。
 ・上記第1実施形態では、レーダ検出距離Lから距離補正量Aを差し引くことにより、距離誤差ΔLに基づきレーダ検出距離Lを補正する構成としたが、これに限らず、例えば、レーダ検出距離Lに補正係数(<1)を乗算することにより、距離誤差ΔLに基づきレーダ検出距離Lを補正する構成としてもよい。補正係数は、物標の高さHやレーダ検出距離Lに応じて可変にすることが望ましい。
 ・物標の高さH及びレーダ検出距離Lに応じて距離補正量Aを可変にする構成に代えて、物標の高さH及びレーダ検出距離Lの一方に応じて距離補正量Aを算出する構成としてもよい。また、距離補正量Aを予め定めた一定値としてもよい。
 ・レーダ検出距離Lが所定距離以上であるか否かを判定し、所定距離以上であることを条件に、自転車の前後方向における自車に近い側の端部と、レーダ装置21からの探査波による物体の検知点との位置ずれを加味して、物体との距離を算出する構成としてもよい。物体が近距離にあるときには、レーダ検出距離Lとして自転車後端までの距離を検知できている可能性があり、逆に、物体が遠距離にあるときには、レーダ検出距離Lが距離誤差ΔLを含んでいる可能性が高い。この点を考慮し、上記構成とすることにより、上記位置ずれを加味した物体との距離の演算を必要な状況に限って行うことができる。
 ・衝突回避制御の実行中であることを条件に、距離誤差ΔLに基づく自転車用距離補正を開始してから所定時間TMが経過するまでの期間において、当該補正に伴う物体との距離の単位時間当たりの変化量を制限する構成としてもよい。こうした構成によれば、距離飛びが生じてもさほど影響がない状況下では、物体との最短距離を速やかに把握することができる。
 ・自車周辺に存在する物体が、自車に対して縦向きの状態の自転車である場合、前後方向の端部の反射面が狭いため電波強度が低くなりやすく、端部での反射による反射波がノイズとして除去されることが考えられる。そこで上記第2実施形態において、反射波の電波強度のノイズ除去のための閾値をノイズ除去されにくくなる側に変更した上で、距離誤差ΔLを加味した物体との距離算出を行う構成としてもよい。
 ・自転車が縦向きの状態であっても、その向きが自車の進行方向に対して斜め方向を向いている場合と、自車の進行方向に平行な方向を向いている場合とでは距離誤差ΔLが異なる。具体的には、自転車が斜め方向を向いている場合には、自車の進行方向に平行な方向を向いている場合に比べて、距離誤差ΔLが小さくなる。この点に鑑み、自車の進行方向に対する、自転車の前後方向の傾きαに応じて、距離補正量Aを算出する構成としてもよい。このとき、傾きαが大きいほど、距離補正量Aを小さくする。
 ・上記第1実施形態では、電波強度が最も高い反射点をセグメント代表点としたが、セグメント代表点(検知点)はレーダ物標上の1点であればよく、セグメント代表点の抽出方法はこれに限定されない。例えば、セグメント代表点を電波強度に基づき抽出する構成に代えて、複数の反射点のうち左右方向の中心に位置する反射点をセグメント代表点としてもよいし、左端又は右端に位置する反射点をセグメント代表点としてもよい。
 ・上記実施形態では、レーダ装置21及び撮像装置22が自車の前端部に搭載されている場合について説明したが、レーダ装置21及び撮像装置22の搭載位置、及び搭載されている数は特に限定されず、自車の後端部や側方部に搭載されているシステムに適用してもよい。レーダ装置21及び撮像装置22が自車の後端部に搭載されている場合、自車の後方に存在している自転車について、自転車の前端部と、レーダ装置21からの探査波による物体の検知点との位置ずれを加味して物体との距離を算出することができる。これにより、自車の後方に存在する自転車についても、その自転車と自車との最短距離を精度良く把握することができる。
 ・上記の各構成要素は概念的なものであり、上記実施形態に限定されない。例えば、一つの構成要素が有する機能を複数の構成要素に分散して実現したり、複数の構成要素が有する機能を一つの構成要素で実現したりしてもよい。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。

Claims (9)

  1.  レーダ装置(21)及び撮像装置(22)を用いて、自車(M)の周辺に存在する物体(B,P)を検知する物体検知装置(10)であって、
     前記撮像装置で撮影された画像に基づいて、前記物体の種別を認識する種別認識部と、
     前記撮像装置及び前記レーダ装置で前記物体として同一物体が検知され、かつ前記種別認識部によって前記物体が自転車であると認識された場合に、前記自転車の前後方向における前記自車に近い側の端部と、前記レーダ装置からの探査波による前記物体の検知点との位置ずれを加味して前記物体との距離を算出する距離算出部と、
    を備える物体検知装置。
  2.  前記距離算出部は、前記位置ずれを加味して、前記検知点との距離であるレーダ検出距離を補正することにより前記物体との距離を算出する、請求項1に記載の物体検知装置。
  3.  前記撮像装置で撮影された画像に基づいて前記物体の高さを算出する高さ算出部を備え、
     前記距離算出部は、前記高さ算出部によって算出された前記物体の高さに基づいて前記位置ずれを加味した補正量を算出し、該算出した補正量に基づいて前記レーダ検出距離を補正する、請求項2に記載の物体検知装置。
  4.  前記距離算出部は、前記レーダ検出距離が小さいほど、前記位置ずれを加味した補正量を小さくする、請求項2又は3に記載の物体検知装置。
  5.  前記物体との距離に基づいて前記物体と前記自車との衝突の可能性があると判定された場合に、前記物体と前記自車との衝突を回避又は衝突被害を軽減するための衝突回避制御を実施する衝突回避装置(10)を備える車両に適用され、
     前記種別認識部は、前記衝突回避制御の実施期間中は、前記衝突回避制御の開始時の前記物体の種別に関する情報を保持する、請求項2~4のいずれか一項に記載の物体検知装置。
  6.  前記距離算出部は、前記レーダ検出距離の補正開始後の所定期間では、前記レーダ検出距離の補正に伴う前記物体との距離の単位時間当たりの変化量を制限する、請求項2~5のいずれか一項に記載の物体検知装置。
  7.  前記距離算出部は、前記探査波の前記物体での反射により検出された複数の反射点の中から、前記自転車の前後方向における前記自車に近い側の端部の反射点を抽出し、該抽出した反射点に基づいて前記物体との距離を算出する、請求項1に記載の物体検知装置。
  8.  前記距離算出部は、前記位置ずれを加味して前記物体との距離を算出することを開始した後において、前記撮像装置で前記物体が検知されなくなった場合でも、前記レーダ装置による前記物体の検知が継続している場合には、前記位置ずれを加味して前記物体との距離を算出することを継続する、請求項1~7のいずれか一項に記載の物体検知装置。
  9.  レーダ装置(21)及び撮像装置(22)を用いて、自車(M)の周辺に存在する物体(B,P)を検知する物体検知方法であって、
     前記撮像装置で撮影された画像に基づいて、前記物体の種別を認識し、
     前記撮像装置及び前記レーダ装置で前記物体として同一物体が検知され、かつ前記種別の認識によって前記物体が自転車であると認識された場合に、前記自転車の前後方向における前記自車に近い側の端部と、前記レーダ装置からの探査波による前記物体の検知点との位置ずれを加味して前記物体との距離を算出する、物体検知方法。
PCT/JP2017/033473 2016-09-22 2017-09-15 物体検知装置及び物体検知方法 WO2018056212A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/334,129 US10997436B2 (en) 2016-09-22 2017-09-15 Object detection apparatus and object detection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016184932A JP6536521B2 (ja) 2016-09-22 2016-09-22 物体検知装置及び物体検知方法
JP2016-184932 2016-09-22

Publications (1)

Publication Number Publication Date
WO2018056212A1 true WO2018056212A1 (ja) 2018-03-29

Family

ID=61689957

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/033473 WO2018056212A1 (ja) 2016-09-22 2017-09-15 物体検知装置及び物体検知方法

Country Status (3)

Country Link
US (1) US10997436B2 (ja)
JP (1) JP6536521B2 (ja)
WO (1) WO2018056212A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543601A (zh) * 2018-11-21 2019-03-29 电子科技大学 一种基于多模态深度学习的无人车目标检测方法
WO2020158508A1 (ja) * 2019-01-31 2020-08-06 株式会社デンソー 物体判定装置

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6536521B2 (ja) * 2016-09-22 2019-07-03 株式会社デンソー 物体検知装置及び物体検知方法
JP6699568B2 (ja) * 2017-01-20 2020-05-27 株式会社デンソー 車両制御装置
JP7071102B2 (ja) * 2017-11-28 2022-05-18 株式会社Subaru 車外環境認識装置
JP7169892B2 (ja) * 2019-01-30 2022-11-11 日産自動車株式会社 走行支援方法及び走行支援装置
FR3095276B1 (fr) 2019-04-18 2021-05-21 Aptiv Tech Ltd Système de détection d’objet pour véhicule automobile
JP7237428B2 (ja) * 2019-06-10 2023-03-13 ダイハツ工業株式会社 衝突回避支援装置
JP7347099B2 (ja) * 2019-10-11 2023-09-20 トヨタ自動車株式会社 車両警報装置
JP2021196253A (ja) * 2020-06-12 2021-12-27 株式会社アイシン 運転支援装置
JP2022022557A (ja) * 2020-06-26 2022-02-07 株式会社Soken 距離推定装置
CN111765974B (zh) * 2020-07-07 2021-04-13 中国环境科学研究院 一种基于微型制冷红外热像仪的野生动物观测系统及方法
JP7509493B2 (ja) 2020-10-06 2024-07-02 株式会社Subaru 車両の走行制御装置
CN113958166A (zh) * 2020-11-27 2022-01-21 丁宏毅 多出入口自行车立体智能车库及其存取方法
JP2022108093A (ja) * 2021-01-12 2022-07-25 ソニーセミコンダクタソリューションズ株式会社 接近回避システム及び前庭電気刺激装置
JP7387241B2 (ja) * 2021-06-18 2023-11-28 ダイハツ工業株式会社 車両用制御装置
CN113822234B (zh) * 2021-11-22 2022-04-22 成都星宇融科电力电子股份有限公司 基于车载热成像的目标检测预警分析方法、系统及终端
US20230334792A1 (en) * 2022-04-18 2023-10-19 Mobeus Industries, Inc. Interactive reality computing experience using optical lenticular multi-perspective simulation
WO2023215637A1 (en) * 2022-05-06 2023-11-09 Mobeus Industries, Inc. Interactive reality computing experience using optical lenticular multi-perspective simulation
WO2024039887A1 (en) * 2022-08-19 2024-02-22 Mobeus Industries, Inc. Interactive reality computing experience using optical lenticular multi-perspective simulation

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012051441A (ja) * 2010-08-31 2012-03-15 Toyota Motor Corp 自動運転車両制御装置
JP2014209387A (ja) * 2010-03-17 2014-11-06 本田技研工業株式会社 車両周辺監視装置
JP2014229067A (ja) * 2013-05-22 2014-12-08 株式会社デンソー 衝突緩和装置
JP2015026179A (ja) * 2013-07-25 2015-02-05 スズキ株式会社 衝突可能性判定システム
US20160016561A1 (en) * 2014-07-16 2016-01-21 Mando Corporation Emergency braking system for protecting moving object and method for controlling the same

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4428277B2 (ja) 2005-04-07 2010-03-10 トヨタ自動車株式会社 物体検出装置
US8164628B2 (en) * 2006-01-04 2012-04-24 Mobileye Technologies Ltd. Estimating distance to an object using a sequence of images recorded by a monocular camera
JP4818002B2 (ja) 2006-07-12 2011-11-16 アルパイン株式会社 周辺監視システム及び他車検出方法
JP4862774B2 (ja) * 2006-12-20 2012-01-25 アイシン・エィ・ダブリュ株式会社 運転支援方法及び運転支援装置
EP1974998B1 (en) * 2007-03-26 2011-05-25 Aisin AW Co., Ltd. Driving support method and driving support apparatus
JP4434296B1 (ja) * 2008-09-05 2010-03-17 トヨタ自動車株式会社 物体検出装置
JP4410292B1 (ja) * 2008-10-20 2010-02-03 本田技研工業株式会社 車両の周辺監視装置
JP4880712B2 (ja) * 2009-02-27 2012-02-22 株式会社日本自動車部品総合研究所 障害物検出装置
US8384531B2 (en) * 2009-04-02 2013-02-26 GM Global Technology Operations LLC Recommended following distance on full-windshield head-up display
JP5208086B2 (ja) 2009-10-15 2013-06-12 本田技研工業株式会社 物体検出装置
DE112013006615T5 (de) * 2013-02-07 2015-10-29 Toyota Jidosha Kabushiki Kaisha Fahrassistenzvorrichtung
JP6040897B2 (ja) * 2013-09-04 2016-12-07 トヨタ自動車株式会社 注意喚起表示装置及び注意喚起表示方法
JP5917472B2 (ja) * 2013-11-08 2016-05-18 本田技研工業株式会社 運転支援装置
JP6307895B2 (ja) * 2014-01-23 2018-04-11 トヨタ自動車株式会社 車両用周辺監視装置
JP6442904B2 (ja) * 2014-08-01 2018-12-26 株式会社デンソー 運転支援装置
JP6511283B2 (ja) * 2015-02-12 2019-05-15 日立オートモティブシステムズ株式会社 物体検知装置
US9805274B2 (en) * 2016-02-03 2017-10-31 Honda Motor Co., Ltd. Partially occluded object detection using context and depth ordering
JP6536521B2 (ja) * 2016-09-22 2019-07-03 株式会社デンソー 物体検知装置及び物体検知方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014209387A (ja) * 2010-03-17 2014-11-06 本田技研工業株式会社 車両周辺監視装置
JP2012051441A (ja) * 2010-08-31 2012-03-15 Toyota Motor Corp 自動運転車両制御装置
JP2014229067A (ja) * 2013-05-22 2014-12-08 株式会社デンソー 衝突緩和装置
JP2015026179A (ja) * 2013-07-25 2015-02-05 スズキ株式会社 衝突可能性判定システム
US20160016561A1 (en) * 2014-07-16 2016-01-21 Mando Corporation Emergency braking system for protecting moving object and method for controlling the same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543601A (zh) * 2018-11-21 2019-03-29 电子科技大学 一种基于多模态深度学习的无人车目标检测方法
WO2020158508A1 (ja) * 2019-01-31 2020-08-06 株式会社デンソー 物体判定装置
JP2020122772A (ja) * 2019-01-31 2020-08-13 株式会社デンソー 物体判定装置
JP7069061B2 (ja) 2019-01-31 2022-05-17 株式会社デンソー 物体判定装置

Also Published As

Publication number Publication date
JP6536521B2 (ja) 2019-07-03
US10997436B2 (en) 2021-05-04
US20190370568A1 (en) 2019-12-05
JP2018048921A (ja) 2018-03-29

Similar Documents

Publication Publication Date Title
WO2018056212A1 (ja) 物体検知装置及び物体検知方法
JP6561584B2 (ja) 車両制御装置、及び車両制御方法
US10854081B2 (en) Driving assistance device and driving assistance method
US10665107B2 (en) Moving object control apparatus and method of controlling moving object
JP6507839B2 (ja) 車両の走行制御装置
CN108156822B (zh) 车辆控制装置,以及车辆控制方法
JP6729282B2 (ja) 車両制御装置
CN109891262B (zh) 物体探测装置
WO2017111135A1 (ja) 走行支援装置及び走行支援方法
US10960877B2 (en) Object detection device and object detection method
JP2016190613A (ja) 運転支援装置、及び運転支援方法
JP6011625B2 (ja) 速度算出装置及び速度算出方法並びに衝突判定装置
JP6669090B2 (ja) 車両制御装置
WO2016186171A1 (ja) 物体検出装置、及び物体検出方法
EP3007149A1 (en) Driving assistance device for vehicles and onboard computer
JP6363549B2 (ja) 車両制御装置、及び車両制御方法
US9921304B2 (en) Object detection apparatus
US10068142B2 (en) Detection apparatus, detection method, driving assistance apparatus, and driving assistance method
WO2017138329A1 (ja) 衝突予測装置
JP2019046143A (ja) 走行支援装置
CN108885833B (zh) 车辆检知装置
JP2017194926A (ja) 車両制御装置、車両制御方法
JP6699568B2 (ja) 車両制御装置
US10850730B2 (en) Crossing determination apparatus
JP7265971B2 (ja) 制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17852985

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17852985

Country of ref document: EP

Kind code of ref document: A1