WO2017164017A1 - 車両検知装置 - Google Patents

車両検知装置 Download PDF

Info

Publication number
WO2017164017A1
WO2017164017A1 PCT/JP2017/010285 JP2017010285W WO2017164017A1 WO 2017164017 A1 WO2017164017 A1 WO 2017164017A1 JP 2017010285 W JP2017010285 W JP 2017010285W WO 2017164017 A1 WO2017164017 A1 WO 2017164017A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
width
lateral width
detection device
traveling direction
Prior art date
Application number
PCT/JP2017/010285
Other languages
English (en)
French (fr)
Inventor
高木 亮
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to CN201780018750.3A priority Critical patent/CN108885833B/zh
Priority to US16/086,822 priority patent/US20190100140A1/en
Priority to DE112017001503.0T priority patent/DE112017001503T5/de
Publication of WO2017164017A1 publication Critical patent/WO2017164017A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/072Curvature of the road
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera

Definitions

  • the present disclosure relates to a vehicle detection device that detects other vehicles existing in front of the vehicle.
  • a camera is mounted on a vehicle to detect objects (obstacles) such as automobiles and bicycles around the vehicle, and to improve the traveling safety of the vehicle based on the detection result of the object. It has been proposed to perform control, for example, operation of a brake device, notification to a driver, and the like.
  • the horizontal width of the detected object is calculated from the image data obtained by capturing the front in the traveling direction, the length in the image depth direction of the detected object is estimated, and the image depth direction is calculated.
  • the horizontal width of the detected object is corrected based on the length of the detected object.
  • the present disclosure has been made in view of the above circumstances, and a main purpose thereof is to provide a vehicle detection device that can appropriately grasp the size of a forward vehicle existing in the traveling direction of the host vehicle.
  • the present disclosure is a vehicle detection device that detects a forward vehicle existing in the traveling direction of the host vehicle based on an image captured by an imaging unit, When the forward vehicle is present, based on the image and the dictionary information of the front or rear of the vehicle, a lateral direction relative to the traveling direction of the own vehicle at the front or rear vehicle end of the front vehicle.
  • An end width calculation unit for calculating the size as the end width, and A determination unit for determining whether or not the side portion of the preceding vehicle is recognized in the traveling direction of the host vehicle;
  • a lateral width correction unit that calculates a corrected lateral width by correcting the end lateral width to the enlarged side when it is determined that the side portion of the preceding vehicle is recognized; Is provided.
  • the width of the forward vehicle existing in the traveling direction of the host vehicle can be calculated by referring to the dictionary information of the front part or the rear part of the vehicle using the image captured by the imaging unit.
  • the forward vehicle is inclined at an angle in the traveling direction of the own vehicle, and the front end portion of the forward vehicle is used for grasping the size of the forward vehicle that occupies the side of the traveling direction of the own vehicle. It is desirable to consider not only the width of the rear end portion but also the width of the side portion of the front vehicle.
  • the corrected lateral width is calculated by correcting the lateral width of the end portion to the enlargement side.
  • the size of the forward vehicle existing in the traveling direction of the host vehicle can be properly grasped. Therefore, the collision avoidance control of the own vehicle with respect to the preceding vehicle can be properly performed.
  • FIG. 1 is a diagram showing a schematic configuration of a PCS system.
  • FIG. 2 is a diagram showing an outline of a process for enlarging and correcting the rear width of the front vehicle.
  • FIG. 3 is a flowchart showing a processing procedure for enlarging and correcting the rear lateral width of the front vehicle.
  • FIG. 4 is a diagram showing the relationship between the degree of inclination of the vehicle ahead and the guard value
  • FIG. 5 is a flowchart showing a processing procedure for enlarging and correcting the rear lateral width of the forward vehicle in another example.
  • FIG. 6 is a diagram showing the relationship between the degree of inclination of the front vehicle and the lateral width.
  • the object detection ECU is mounted on a host vehicle, detects an object such as a vehicle in front of the host vehicle, and performs various controls to avoid or reduce collision with the object (PreS -crash (safety system)
  • PreS -crash safety system
  • the PCS system includes an ECU 10, an imaging device 21, a radar sensor 22, a yaw rate sensor 23, a vehicle speed sensor 24, an alarm device 31, a brake device 32, a seat belt device 33, and the like.
  • the imaging device 21 is configured using, for example, a CCD camera, a CMOS image sensor, a near-infrared camera, or the like.
  • the imaging device 21 is attached at a predetermined height in the center in the vehicle width direction of the host vehicle, and thereby images a region that extends in a predetermined angle range toward the front of the host vehicle from an overhead viewpoint.
  • the imaging device 21 extracts feature points indicating the presence of an object based on the captured image. Specifically, edge points are extracted based on the luminance information of the captured image, and Hough transform is performed on the extracted edge points.
  • the imaging device 21 performs imaging and feature point extraction at predetermined intervals, and transmits the feature point extraction result to the ECU 10.
  • the imaging device 21 may be a monocular camera or a stereo camera.
  • the radar sensor 22 detects an object in front of the own vehicle using a directional electromagnetic wave (probing wave) such as a millimeter wave or a laser, and its optical axis faces the front of the vehicle at the front of the own vehicle. It is attached as follows.
  • the radar sensor 22 scans a region extending in a predetermined range toward the front of the vehicle with a radar signal every predetermined time, and receives an electromagnetic wave reflected on the surface of the front object, thereby receiving a distance from the front object, Is obtained as object information.
  • the acquired object information is input to the ECU 10.
  • the yaw rate sensor 23 detects the turning angular velocity (yaw rate) of the vehicle.
  • the vehicle speed sensor 24 detects the traveling speed of the host vehicle based on the rotational speed of the wheels. The detection results by these sensors 23 and 24 are input to the ECU 10.
  • the alarm device 31, the brake device 32, and the seat belt device 33 function as a safety device that is driven by a control command from the ECU 10.
  • the alarm device 31 is a speaker or a display installed in the cabin of the host vehicle.
  • the warning device 31 outputs a warning sound or a warning message to notify the driver of the danger of a collision when the possibility of a collision with a front object increases.
  • Brake device 32 is a braking device that brakes the host vehicle.
  • the brake device 32 is activated when the possibility of collision with a front object increases. Specifically, the braking force with respect to the brake operation by the driver is increased (brake assist function), or automatic braking is performed if the driver does not perform the brake operation (automatic brake function).
  • the seat belt device 33 is a pretensioner that pulls in a seat belt provided in each seat of the host vehicle.
  • the seat belt device 33 performs a preliminary operation for retracting the seat belt when the possibility of colliding with a front object increases. If the collision cannot be avoided, the seat belt is retracted to remove the slack, thereby fixing the passenger such as the driver to the seat and protecting the passenger.
  • ECU10 is comprised as a vehicle-mounted electronic control unit which has a known microcomputer provided with memory, and performs PCS control with reference to the arithmetic program and control data in memory.
  • the ECU 10 detects a front object based on a captured image of the imaging device 21 and, based on the detection result, avoids a collision with at least one of the alarm device 31, the brake device 32, and the seat belt device 33 as a control target. Implement control.
  • the ECU 10 acquires image data from the imaging device 21, and determines the type of an object in front of the host vehicle based on the image data and dictionary information for object identification prepared in advance.
  • the dictionary information for object identification is prepared individually according to the type of object such as a car, a two-wheeled vehicle, and a pedestrian, and stored in the memory in advance.
  • the automobile dictionary information at least dictionary information of a front pattern and a rear pattern is preferably prepared.
  • dictionary information may be prepared for each of a plurality of vehicle types such as a large vehicle, a normal vehicle, and a light vehicle, for example, as a front or rear pattern of the vehicle. Two-wheeled vehicles should be distinguished from bicycles and motorcycles.
  • ECU10 determines the kind of object by collating image data and dictionary information by pattern matching.
  • the dictionary information may include fixed object dictionary information such as guardrails, utility poles, road signs, and the like in addition to the dictionary information of the moving object.
  • the ECU 10 calculates the size of the object in the lateral direction with respect to the traveling direction of the own vehicle (that is, the lateral width of the object) based on the image data and the dictionary information. Then, based on the width of the object, collision avoidance control for the object is performed. In this case, the ECU 10 calculates a lap rate, which is a ratio in which the lateral width of the object and the lateral width of the host vehicle overlap in the lateral direction orthogonal to the traveling direction of the host vehicle, and the object according to the lap rate. Based on the possibility of collision, collision avoidance control by the safety device is performed.
  • the front side of the host vehicle has a rear portion of the front vehicle. In addition to the side.
  • the width of the rear end of the front vehicle (the end width) is recognized by pattern matching, the size of the front vehicle that is actually subject to collision avoidance of the own vehicle may be recognized too small. It is thought that there is.
  • the ECU 10 determines whether or not the side portion of the front vehicle is recognized in the traveling direction of the host vehicle when the front vehicle exists, and the side portion of the front vehicle is recognized.
  • the lateral width of the front vehicle is corrected to the enlargement side to calculate the corrected lateral width.
  • collision avoidance control etc. are implemented based on this correction lateral width.
  • FIG. 2 the host vehicle 41 and the forward vehicle 42 are present on the runway, and the state in which the posture of the forward vehicle 42 is inclined laterally with respect to the traveling direction of the host vehicle 41 is illustrated.
  • Reference sign K in the figure indicates the movement locus of the forward vehicle 42. Note that the movement locus K is obtained based on, for example, a plurality of forward vehicle positions acquired in time series. 2 (a) and 2 (b) show a state in which the forward vehicle 42 moves to the side approaching the predicted course in front of the host vehicle 41 and a state in which the forward vehicle 42 moves to the side away from the predicted course of the host vehicle 41. It shows.
  • the rear width W1 is calculated from the rear image of the forward vehicle 42 imaged by the imaging device 21. Further, from the position and posture of the front vehicle 42 with respect to the host vehicle 41, the side portion of the front vehicle 42 faces the front side of the host vehicle 41. That is, the radar sensor 22 mounted on the host vehicle 41 can detect the side portion of the preceding vehicle. In the ECU 10, the detection point P by the search wave in the forward vehicle 42 is acquired in a state where the search wave is transmitted from the radar sensor 22 in the traveling direction of the host vehicle 41.
  • a plurality of detection points P are provided in the vehicle longitudinal direction. To be acquired. Then, by obtaining a plurality of detection points P as a point sequence PA at the side portion of the front vehicle 42, a side width W2 that is a lateral length with respect to the side portion of the front vehicle 42 is calculated. Further, the corrected lateral width W3 (that is, the front vehicle lateral width to be recognized) is calculated by adding the lateral lateral width W2 to the rear lateral width W1.
  • the lateral distance between the leftmost detection point P and the rightmost detection point P in the point sequence PA is set to the lateral width W2, and one end point of the vehicle rear end (right end point in FIG. 2).
  • the lateral distance between the detection point P farthest from the rear end portion (the rightmost detection point P in FIG. 2) may be the lateral width W2.
  • the rear lateral width W1 is calculated from the rear image of the front vehicle 42 imaged by the imaging device 21.
  • the side portion of the front vehicle 42 does not face the front side of the host vehicle 41. That is, the side portion of the front vehicle 42 does not exist on the course of the own vehicle 41.
  • the lateral width W2 is not added, and the rear lateral width W1 is the front vehicle lateral width to be recognized.
  • step S11 a captured image of the imaging device 21 and detection point information by the radar sensor 22 are acquired.
  • step S12 it is determined whether or not the forward vehicle 42 exists based on the image ahead of the host vehicle imaged by the imaging device 21. At this time, the presence or absence of the forward vehicle 42 is determined by pattern matching with reference to the dictionary information at the rear of the vehicle.
  • step S12 is YES
  • the process proceeds to step S13, and the rear width W1 of the front vehicle 42 is calculated based on the captured image of the front vehicle 42 and the dictionary information of the rear portion of the vehicle.
  • step S14 it is determined whether or not the side portion of the forward vehicle 42 is recognized in the traveling direction of the host vehicle 41. Specifically, when the point sequence PA in which a plurality of detection points P are arranged extends in a straight line and the point sequence PA exists in front of the traveling direction of the host vehicle 41, the side portion of the front vehicle 42 is recognized. It is determined that the situation is to be performed. At this time, if there are a plurality of detection points P and the detection points P are arranged in a straight line, it can be recognized that they are obtained by reflection on the side of the vehicle. It can be determined that the part is recognized.
  • step S14 is NO, this process is terminated as it is.
  • the rear lateral width W1 is the lateral width of the front vehicle to be recognized. That is, when it is determined that the side portion of the forward vehicle 42 is not recognized, the rear lateral width W1 is calculated as the lateral width of the forward vehicle 42.
  • step S14 If step S14 is YES, the process proceeds to step S15.
  • step S15 the lateral width W2 of the forward vehicle 42 is calculated based on the length of the point train PA in the vehicle lateral direction.
  • step S16 the degree of inclination of the forward vehicle 42 with respect to the traveling direction of the host vehicle 41 is estimated.
  • the ECU 10 recognizes the movement locus of the forward vehicle 42 and estimates the degree of inclination based on the movement locus.
  • the inclination degree is defined as 0 ° when the movement locus of the front vehicle 42 extends in the same direction (that is, in parallel) with respect to the traveling direction of the host vehicle 41, and the inclination angle increases as the front vehicle 42 turns sideways. Good.
  • the lateral width W2 is guarded with a guard value determined according to the degree of inclination.
  • the guard value may be set based on, for example, the relationship shown in FIG.
  • the side width W2 calculated based on the point sequence PA is compared with the guard value, and the side width W2 is guarded so as not to exceed the guard value.
  • the guard value may be set according to the type of the front vehicle 42, that is, the type of light vehicle, ordinary vehicle, large vehicle, or the like, or may be set based on the rear width W1.
  • step S18 the corrected lateral width W3 is calculated by adding the lateral lateral width W2 to the rear lateral width W1. That is, when it is determined that the side portion of the front vehicle 42 is recognized, a width larger than the rear lateral width W1 is calculated as the lateral width of the front vehicle 42.
  • the ECU 10 calculates the lateral width (W1 or W3) of the forward vehicle 42 to be recognized, and then performs collision avoidance control based on the lateral width so as to avoid or suppress the collision with the forward vehicle 42.
  • the width of the forward vehicle 42 traveling in front of the host vehicle 41 can be calculated by using a captured image by the imaging device 21 and referring to dictionary information at the rear of the vehicle.
  • the forward vehicle 42 may be present obliquely, and in order to grasp the size of the forward vehicle 42 that occupies the lateral direction with respect to the traveling direction of the own vehicle 41, It is desirable to consider not only the lateral width of the rear end portion of the vehicle 42 but also the lateral width of the side portion of the forward vehicle 42.
  • the corrected lateral width W3 is calculated by correcting the rear lateral width W1 to the enlargement side.
  • the size of the forward vehicle 42 existing in the traveling direction of the host vehicle 41 can be properly grasped. Therefore, the collision avoidance control of the own vehicle 41 with respect to the front vehicle 42 can be appropriately performed.
  • the width of the forward vehicle 42 in an oblique posture can be properly recognized without requiring dictionary information of the obliquely oriented vehicle.
  • the lateral width W2 of the forward vehicle 42 is calculated, and the corrected lateral width W3 is calculated by correcting the rear lateral width W1 with the lateral lateral width W2.
  • the configuration That is, when the forward vehicle 42 exists in a state inclined with respect to the traveling direction of the own vehicle 41, the side portion of the forward vehicle 42 is detected from the own vehicle 41 in addition to the rear end portion of the forward vehicle 42. It becomes possible. In this case, the size of the front vehicle 42 that occupies the lateral direction with respect to the traveling direction of the host vehicle 41 is considered to be different depending on the direction of the host vehicle 41 and the direction of the front vehicle 42. Can be appropriately determined as the corrected lateral width W3.
  • the side width W2 can be calculated by acquiring the detection points (reflection points) at the side portions of the forward vehicle 42 as described above.
  • the corrected lateral width W3 (that is, the lateral width of the forward vehicle 42 to be recognized) can be calculated appropriately using the side lateral width W2.
  • the lateral width W2 is calculated based on the length of the point sequence PA in which the plurality of detection points P are arranged. Accordingly, the corrected lateral width W3 can be appropriately calculated while taking into account that there are a plurality of reflection points in the front-rear direction on the side portion of the forward vehicle 42.
  • the inclination degree of the forward vehicle 42 with respect to the traveling direction of the own vehicle 41 is estimated, and the corrected lateral width W3 is calculated by correcting the rear lateral width W1 based on the inclination degree. Specifically, the corrected lateral width W3 is calculated using a guard value set according to the degree of inclination. In this case, it is suppressed that the lateral width of the forward vehicle 42 is unnecessarily enlarged, and as a result, the occurrence of unnecessary operation of the collision avoidance process is suppressed.
  • the ECU 10 performs the process shown in FIG. This process is repeatedly performed by the ECU 10 at a predetermined cycle. Note that the processing in steps S11 to S14 in FIG. 5 is the same as that in FIG.
  • step S21 the degree of inclination of the forward vehicle 42 with respect to the traveling direction of the host vehicle 41 is estimated.
  • the ECU 10 recognizes the movement locus of the forward vehicle 42 and estimates the degree of inclination based on the movement locus.
  • the inclination degree is defined as 0 ° when the movement locus of the front vehicle 42 extends in the same direction (that is, in parallel) with respect to the traveling direction of the host vehicle 41, and the inclination angle increases as the front vehicle 42 turns sideways. Good. Or the structure which estimates inclination degree based on the direction of point sequence PA with respect to the advancing direction of the own vehicle 41 may be sufficient.
  • the corrected lateral width W3 is calculated by correcting the rear lateral width W1 based on the degree of inclination of the forward vehicle 42.
  • the lateral width W2 is calculated based on the degree of inclination
  • the corrected lateral width W3 is calculated by adding the lateral width W2 to the rear lateral width W1.
  • the size of the forward vehicle 42 can be appropriately obtained as the corrected lateral width W3.
  • the side width W2 is calculated by multiplying the horizontal dimension corresponding to the length of the point sequence PA by a predetermined enlargement factor. It is good also as composition to do.
  • the detection point P is not necessarily obtained from the most distal part to the rearmost part in the longitudinal direction of the side part, and the side width W2 may be calculated to be short.
  • the lateral width W2 may be calculated by enlarging the horizontal dimension corresponding to the length of the point sequence PA.
  • the configuration for detecting the forward vehicle 42 based on the acquisition information from the imaging device 21 and the radar sensor 22 has been described, a configuration that does not use the acquisition information from the radar sensor 22 may be used.
  • the rear lateral width W1 of the forward vehicle 42 calculated based on the captured image and the dictionary information is corrected to the enlargement side with a predetermined correction coefficient to calculate the corrected lateral width.
  • a predetermined correction coefficient for example, it is conceivable to use a different correction coefficient for each vehicle type such as a large vehicle, a normal vehicle, and a light vehicle.
  • the ECU 10 calculates an angle (deviation amount) between the moving direction of the forward vehicle 42 and the direction of the point sequence PA in step S14 of FIG. 3, and whether or not the angle is within a predetermined value. Determine whether. And when the said angle is less than predetermined value, it determines with it being the situation where the side part of the front vehicle 42 is recognized, and progresses to subsequent step S15.
  • the moving direction of the front vehicle 42 changes due to steering or the like, the direction (posture) of the front vehicle 42 changes, and thus the direction of the point sequence PA differs from the moving direction of the front vehicle 42.
  • the enlargement correction process for the rear width W1 is not performed. According to this configuration, it is possible to prevent the rear lateral width W1 from being erroneously corrected when the direction (posture) of the front vehicle 42 changes.
  • the side portion of the front vehicle 42 is recognized. It may be configured to determine that the current situation is present. Specifically, the ECU 10 determines in step S14 in FIG. 3 whether or not the point sequence PA extends in a straight line and the difference between the relative speeds of the detection points P is within a predetermined value. The relative speed of each detection point P can be acquired from the radar sensor 22. And if step S14 is YES, it will determine with it being in the condition where the side part of the front vehicle 42 is recognized, and will progress to subsequent step S15.
  • the difference between the relative speeds of the detection points P is large, it is considered that one of the detection points is a reflection point other than the forward vehicle 42. Therefore, when the difference between the relative speeds of the respective detection points P is larger than a predetermined value, it is determined that the side portion of the front vehicle 42 is not recognized, and the enlargement correction process for the rear lateral width W1 is not performed. Thereby, it is suppressed that the lateral width of the front vehicle 42 is unnecessarily enlarged.
  • the determination of whether or not the side portion of the forward vehicle 42 is recognized can be performed by combining at least two of the following (1) to (3).
  • (1) When the point sequence PA extends in a straight line and the point sequence PA exists in front of the traveling direction of the host vehicle 41, it is determined that the side portion of the forward vehicle 42 is recognized.
  • (2) When the amount of deviation between the moving direction of the forward vehicle 42 and the direction of the point sequence PA is within a predetermined value, it is determined that the side portion of the forward vehicle 42 is recognized.
  • the point sequence PA extends in a straight line and the difference in relative speed with respect to the host vehicle 41 is within a predetermined value for each detection point P, it is determined that the side portion of the front vehicle 42 is recognized. To do.
  • the ECU 10 calculates the front width (end width) from the dictionary information of the front pattern of the front vehicle 42, and corrects the front width to the enlargement side in a situation where the side portion of the front vehicle 42 is recognized. To calculate a corrected lateral width.
  • vehicle detection apparatus can also be comprised by ECU10 and the imaging device 21 (especially control part of the imaging device 21).
  • vehicle detection device may be configured by a control unit of the imaging device 21.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

ECU10は、撮像装置21により撮像された画像に基づいて、自車の進行方向に存在する前方車を検知する。また、ECU10は、前記前方車が存在している場合に、前記画像と車両前部又は後部の辞書情報とに基づいて、前記前方車の前側又は後側の車両端部における前記自車の進行方向に対する横方向の大きさを端部横幅として算出する端部幅算出部と、前記自車の進行方向において前記前方車の側部が認識される状況か否かを判定する判定部と、前記前方車の側部が認識される状況であると判定された場合に、前記端部横幅を拡大側に補正して補正横幅を算出する横幅補正部と、を備える。

Description

車両検知装置 関連出願の相互参照
 本出願は、2016年3月22日に出願された日本出願番号2016-057504号に基づくもので、ここにその記載内容を援用する。
 本開示は、車両前方に存在する他車両を検知する車両検知装置に関するものである。
 従来、カメラを車両に搭載し、自車周辺に存在する自動車や自転車等の物体(障害物)を検知するとともに、その物体の検知結果に基づいて自車の走行安全性を向上させるための各種制御、例えば、ブレーキ装置の作動や、運転者への報知等を行うことが提案されている。
 例えば、特許文献1に記載のものでは、進行方向前方が撮像された画像データから検出物体の水平方向の幅を算出するとともに、検出物体の画像奥行き方向の長さを推定し、その画像奥行き方向の長さに基づいて、検出物体の水平方向の幅を補正するようにしている。そしてこれにより、自車前方のガードレールや壁といった奥行きが長く、かつ前方にカーブした物体の水平方向の幅(すなわち、厚み方向の幅)を誤って過大に見積もってしまうといった不都合を解消できるとしている。
特開2010-271788号公報
 ところで、自車前方を走行する前方車をカメラ画像により検知する場合には、予め用意した車両後部の辞書情報を用い、カメラ画像と辞書情報とがパターンマッチングにより照合される。そして、その照合結果に基づいて、前方車の種別や横幅等が認識される。ただしこの場合、自車の進行方向に対して前方車が傾斜した姿勢になっていると、自車の正面側には、前方車の後部に加えて側部が存在することになる。そのため、仮にパターンマッチングにより前方車の後端部の横幅が認識されても、実際には自車の衝突回避の対象となる物体を適正に把握できているとは言えない。この点、既存の技術には改善の余地があると考えられる。
 なお、特許文献1に記載のものでは、誤って過大に算出された横幅を制限する補正は行われるものの、誤って過小に算出された横幅を拡大する補正は行われない。そのため、やはり前方車の存在を適正に把握できないという不都合が生じる。
 本開示は上記事情を鑑みてなされたものであり、その主たる目的は、自車の進行方向に存在する前方車の大きさを適正に把握することができる車両検知装置を提供することにある。
 本開示は、撮像手段により撮像された画像に基づいて、自車の進行方向に存在する前方車を検知する車両検知装置であって、
 前記前方車が存在している場合に、前記画像と車両前部又は後部の辞書情報とに基づいて、前記前方車の前側又は後側の車両端部における前記自車の進行方向に対する横方向の大きさを端部横幅として算出する端部幅算出部と、
 前記自車の進行方向において前記前方車の側部が認識される状況か否かを判定する判定部と、
 前記前方車の側部が認識される状況であると判定された場合に、前記端部横幅を拡大側に補正して補正横幅を算出する横幅補正部と、
を備える。
 自車の進行方向に存在する前方車の幅は、撮像手段による撮像画像を用い、車両前部又は後部の辞書情報を参照することで算出できる。ただし、自車の進行方向においては前方車が斜めに傾いて存在することもあり、自車の進行方向に対して横方向に占める前方車の大きさを把握する上では、前方車の前端部や後端部の横幅だけでなく、前方車の側部の横幅を加味することが望ましい。
 この点、上記構成によれば、自車の進行方向において前方車の側部が認識される状況か否かを判定し、その前方車の側部が認識される状況であると判定された場合に、端部横幅を拡大側に補正して補正横幅を算出することとした。この場合、補正横幅によれば、自車の進行方向に存在する前方車の大きさを適正に把握できる。そのため、前方車に対する自車の衝突回避制御等を適正に実施できることとなる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、PCSシステムの概略構成を示す図であり、 図2は、前方車の後部横幅を拡大補正する処理の概要を示す図であり、 図3は、前方車の後部横幅を拡大補正する処理手順を示すフローチャートであり、 図4は、前方車の傾き度合とガード値との関係を示す図であり、 図5は、別例において、前方車の後部横幅を拡大補正する処理手順を示すフローチャートであり、 図6は、前方車の傾き度合と側部横幅との関係を示す図である。
 以下、実施形態を図面に基づいて説明する。本実施形態に係る物体検知用ECUは、自車に搭載され、自車前方に存在する車両等の物体を検知し、その物体との衝突を回避又は軽減すべく各種制御を行うPCSシステム(Pre-crash safety system)として機能する。
 図1において、PCSシステムは、ECU10、撮像装置21、レーダセンサ22、ヨーレートセンサ23、車速センサ24、警報装置31、ブレーキ装置32、シートベルト装置33等を備えている。
 撮像装置21は、例えばCCDカメラ、CMOSイメージセンサ、近赤外線カメラ等を用いて構成されている。この場合、撮像装置21は、自車両の車幅方向中央の所定高さに取り付けられることで、自車両前方へ向けて所定角度範囲で広がる領域を俯瞰視点から撮像する。撮像装置21は、撮像した画像に基づいて、物体の存在を示す特徴点を抽出する。具体的には、撮像画像の輝度情報に基づきエッジ点を抽出し、抽出したエッジ点に対してハフ変換を行う。ハフ変換では、例えば、エッジ点が複数個連続して並ぶ直線上の点や、直線どうしが直交する点が特徴点として抽出される。撮像装置21は、所定周期毎に、撮像及び特徴点の抽出を行い、特徴点の抽出結果をECU10に送信する。なお、撮像装置21は、単眼カメラであってもよく、ステレオカメラであってもよい。
 レーダセンサ22は、ミリ波やレーザ等の指向性のある電磁波(探査波)を利用して自車前方の物体を検出するものであり、自車の前部においてその光軸が車両前方を向くように取り付けられている。レーダセンサ22は、所定時間ごとに車両前方に向かって所定範囲で広がる領域をレーダ信号で走査するとともに、前方物体の表面で反射された電磁波を受信することで前方物体との距離、前方物体との相対速度等を物体情報として取得する。取得された物体情報は、ECU10に入力される。
 ヨーレートセンサ23は、車両の旋回角速度(ヨーレート)を検出する。車速センサ24は、車輪の回転速度に基づき自車の走行速度を検出する。これらの各センサ23,24による検出結果は、ECU10に入力される。
 警報装置31、ブレーキ装置32、及びシートベルト装置33は、ECU10からの制御指令により駆動する安全装置として機能する。このうち警報装置31は、自車の車室内に設置されたスピーカやディスプレイである。警報装置31は、前方物体に衝突する可能性が高まった場合に、警報音や警報メッセージ等を出力して運転者に衝突の危険を報知する。
 ブレーキ装置32は、自車を制動する制動装置である。ブレーキ装置32は、前方物体に衝突する可能性が高まった場合に作動する。具体的には、運転者によるブレーキ操作に対する制動力をより強くしたり(ブレーキアシスト機能)、運転者によりブレーキ操作が行われてなければ自動制動を行ったりする(自動ブレーキ機能)。
 シートベルト装置33は、自車の各座席に設けられたシートベルトを引き込むプリテンショナである。シートベルト装置33は、前方物体に衝突する可能性が高まった場合に、シートベルトの引き込みの予備動作を行う。また衝突を回避できない場合には、シートベルトを引き込んで弛みを除くことにより、運転者等の乗員を座席に固定し、乗員の保護を行う。
 ECU10は、メモリを備える周知のマイクロコンピュータを有する車載電子制御ユニットとして構成されており、メモリ内の演算プログラムや制御データを参照して、PCS制御を行う。この場合、ECU10は、撮像装置21の撮像画像に基づいて前方物体を検知し、その検知結果に基づいて、警報装置31、ブレーキ装置32及びシートベルト装置33の少なくともいずれかを制御対象として衝突回避制御を実施する。
 具体的には、ECU10は、撮像装置21から画像データを取得し、その画像データと予め用意された物体識別用の辞書情報とに基づいて、自車前方にある物体の種類を判定する。このとき、物体識別用の辞書情報は、例えば自動車、二輪車、歩行者といった物体の種類に応じて個別に用意され、メモリに予め記憶されている。自動車の辞書情報としては、少なくとも前部パターンと後部パターンとの辞書情報が用意されているとよい。また、自動車の前部又は後部のパターンとして、例えば大型車、普通車、軽自動車等、複数の車種ごとに辞書情報が用意されているとよい。二輪車は、自転車とオートバイとの区別がなされているとよい。ECU10は、画像データと辞書情報とをパターンマッチングにより照合することで、物体の種類を判定する。なお、辞書情報には、移動体の辞書情報以外に、ガードレールや電柱、道路標識等の固定物の辞書情報が含まれていてもよい。
 また、ECU10は、画像データと辞書情報とに基づいて、自車の進行方向に対する横方向の物体の大きさ(すなわち物体の横幅)を算出する。そして、その物体の横幅に基づいて、当該物体に対する衝突回避制御を実施する。この場合、ECU10は、自車の進行方向に対して直交する横方向において、物体の横幅と自車の横幅とが重複する割合であるラップ率を算出し、そのラップ率に応じた物体との衝突可能性に基づいて、上記安全装置による衝突回避制御を実施する。
 ところで、自車前方を走行する前方車を検知対象とする場合において、自車の進行方向に対して前方車が傾斜した姿勢になっていると、自車の正面側には、前方車の後部に加えて側部が存在することになる。かかる場合、前方車の後端部の横幅(端部横幅)がパターンマッチングにより認識されても、実際に自車の衝突回避の対象となる前方車の大きさが過小に認識されている可能性があると考えられる。
 そこで本実施形態では、ECU10は、前方車が存在している場合に、自車の進行方向において前方車の側部が認識される状況か否かを判定し、前方車の側部が認識される状況であると判定された場合に、前方車の端部横幅を拡大側に補正して補正横幅を算出することとしている。そして、この補正横幅に基づいて、衝突回避制御等を実施することとしている。
 図2を用いて、前方車の後部横幅(端部横幅)を拡大補正する処理の概要について説明する。図2では、走路上に自車41と前方車42とが存在しており、自車41の進行方向に対して前方車42の姿勢が横方向に傾いた状態が示されている。図中の符号Kは、前方車42の移動軌跡を示している。なお、移動軌跡Kは、例えば時系列で取得される複数の前方車位置に基づいて求められる。図2(a)、(b)はそれぞれ、前方車42が自車41の正面の予測進路に近づく側に移動する状態と、前方車42が自車41の予測進路から遠ざかる側に移動する状態とを示している。
 図2(a)では、撮像装置21によって撮像された前方車42の後部画像により、後部横幅W1が算出される。また、自車41に対する前方車42の位置及び姿勢からすると、自車41の正面側に前方車42の側部が対向する状況となっている。つまり、自車41に搭載されたレーダセンサ22により前方車の側部の検出が可能となっている。なお、ECU10においては、自車41の進行方向にレーダセンサ22から探査波が送信された状態で、前方車42における探査波による検出点Pが取得される。
 この場合、自動車等の車両の側部には、サイドミラーやドア周りの凹凸等、探査波の反射点となりうる部位が種々存在するため、車両前後方向において複数の検出点P(反射点)が取得される。そして、前方車42の側部において複数の検出点Pが点列PAとして取得されることで、前方車42の側部に関して横方向の長さである側部横幅W2が算出される。そしてさらに、後部横幅W1に側部横幅W2が加算されることにより補正横幅W3(すなわち、認識すべき前方車横幅)が算出される。
 なお、点列PAにおいて最も左側の検出点Pと最も右側の検出点Pとの間の横方向距離を側部横幅W2とする以外に、車両後端部の片側端点(図2では右側端点)とその後端部から最も離れた検出点P(図2では最も右側の検出点P)との間の横方向距離を側部横幅W2とすることも可能である。
 一方、図2(b)では、図2(a)と同様に、撮像装置21によって撮像された前方車42の後部画像により、後部横幅W1が算出される。ただし図2(b)では、図2(a)とは異なり、自車41の正面側に前方車42の側部が対向しない状況となっている。つまり、自車41の進路上に前方車42の側部が存在しない状況となっている。かかる場合には、側部横幅W2が加算されることはなく、後部横幅W1が、認識すべき前方車横幅とされる。
 次に、ECU10により実施される端部横幅の補正処理について、図3のフローチャートを用いて説明する。本処理は、ECU10により所定周期で繰り返し実施される。
 まず、ステップS11では、撮像装置21の撮像画像や、レーダセンサ22による検出点情報を取得する。続くステップS12では、撮像装置21により撮像された自車前方の画像に基づいて、前方車42が存在しているか否かを判定する。このとき、車両後部の辞書情報を参照し、パターンマッチングにより前方車42の有無を判定する。
 ステップS12がYESである場合は、ステップS13に進み、前方車42の撮像画像と車両後部の辞書情報とに基づいて、前方車42の後部横幅W1を算出する。
 その後、ステップS14では、自車41の進行方向において前方車42の側部が認識される状況か否かを判定する。具体的には、複数の検出点Pが並ぶ点列PAが直線状に延び、かつその点列PAが自車41の進行方向正面に存在している場合に、前方車42の側部が認識される状況であると判定する。このとき、複数の検出点Pが存在し、かつ各検出点Pが直線状に並んでいれば、それらは車両側部の反射により得られたものであると認識できるため、前方車42の側部が認識される旨を判定できる。
 ステップS14がNOであれば、そのまま本処理を終了する。このとき、後部横幅W1が、認識すべき前方車横幅とされる。つまり、前方車42の側部が認識されない状況であると判定された場合には、後部横幅W1が前方車42の横幅として算出されることとなる。
 また、ステップS14がYESであれば、ステップS15に進む。ステップS15では、点列PAの自車横方向の長さに基づいて、前方車42の側部横幅W2を算出する。
 その後、ECU10は、側部横幅W2についてガード処理を実施する。すなわち、ステップS16では、自車41の進行方向に対する前方車42の傾き度合を推定する。このとき、ECU10は、例えば前方車42の移動軌跡を認識し、その移動軌跡に基づいて傾き度合を推定する。傾き度合は、自車41の進行方向に対して同方向に(すなわち平行に)前方車42の移動軌跡が延びる場合を0°とし、前方車42が横を向くほど大きくなる傾斜角度であるとよい。
 そして、続くステップS17では、傾き度合に応じて定められたガード値により、側部横幅W2をガードする。このとき、ガード値は、例えば図4の関係に基づいて設定されるとよい。本ガード処理では、点列PAに基づいて算出された側部横幅W2とガード値とが比較され、ガード値を超えないように側部横幅W2がガードされる。なお、ガード値は、前方車42の種別、すなわち軽車両、普通車、大型車等の種別に応じて設定されてもよいし、後部横幅W1に基づいて設定されてもよい。
 その後、ステップS18では、後部横幅W1に側部横幅W2を加算することにより補正横幅W3を算出する。つまり、前方車42の側部が認識される状況であると判定された場合には、後部横幅W1よりも大きい幅が前方車42の横幅として算出されることとなる。
 そして、ECU10は、認識すべき前方車42の横幅(W1又はW3)を算出した後に、その横幅に基づいて、前方車42に対する衝突回避又は抑制を図るべく、衝突回避制御を実施する。
 以上詳述した本実施形態によれば、以下の優れた効果が得られる。
 自車41の前方を走行する前方車42の幅は、撮像装置21による撮像画像を用い、車両後部の辞書情報を参照することで算出できる。ただし、自車41の進行方向においては前方車42が斜めに傾いて存在することもあり、自車41の進行方向に対して横方向に占める前方車42の大きさを把握する上では、前方車42の後端部の横幅だけでなく、前方車42の側部の横幅を加味することが望ましい。
 この点、上記構成によれば、自車41の進行方向において前方車42の側部が認識される状況か否かを判定し、その前方車42の側部が認識される状況であると判定された場合に、後部横幅W1を拡大側に補正して補正横幅W3を算出することとした。この場合、補正横幅W3によれば、自車41の進行方向に存在する前方車42の大きさを適正に把握できる。そのため、前方車42に対する自車41の衝突回避制御等を適正に実施できることとなる。
 自車41の進行方向に対して斜めとなる前方車42を正しく認識するには、斜め向き車両の辞書情報を作成することも考えられる。しかしながら、本実施形態の構成によれば、斜め向き車両の辞書情報を要せずとも、斜め姿勢の前方車42の幅を適正に認識できることとなる。
 前方車42の側部が認識される状況であると判定された場合に前方車42の側部横幅W2を算出するとともに、後部横幅W1を側部横幅W2により補正して補正横幅W3を算出する構成とした。つまり、自車41の進行方向に対して傾いた状態で前方車42が存在する場合には、自車41からは、前方車42の後端部以外に、前方車42の側部の検知が可能となる。この場合、自車41の進行方向に対して横方向に占める前方車42の大きさは、自車41の向きや前方車42の向きによって異なるものと考えられるが、その前方車42の大きさを補正横幅W3として適正に求めることができる。
 車両の側部は、辞書情報のパターンとして割り付けることが困難であるが、サイドミラーやドア周りの凹凸等において探査波の反射点は種々存在する。したがって、上記のとおり前方車42の側部における検出点(反射点)を取得することで、側部横幅W2の算出が可能となる。この場合、側部横幅W2を用いて適切に補正横幅W3(すなわち、認識すべき前方車42の横幅)を算出することができる。
 特に、前方車42の側部において複数の検出点Pが取得される場合に、その複数の検出点Pが並ぶ点列PAの長さに基づいて側部横幅W2を算出する構成とした。これにより、前方車42の側部には前後方向に複数の反射点が存在していることを加味しつつ、適切に補正横幅W3を算出することができる。
 レーダセンサ22の検出情報により得られる点列PAが直線状に延び、かつその点列PAが自車41の進行方向正面に存在している場合に、前方車42の側部が認識される状況であると判定する構成とした。この場合、点列PAの形態によれば、その点列PAが前方車42の側部に対応するものであるか否かの判定を適正に実施できる。これにより、補正横幅W3の算出の精度を高めることができる。
 自車41の進行方向に対する前方車42の傾き度合を推定し、その傾き度合に基づいて、後部横幅W1を補正して補正横幅W3を算出する構成とした。具体的には、傾き度合に応じて設定されるガード値を用いて補正横幅W3を算出する構成とした。この場合、前方車42の横幅が不要に拡大されることが抑制され、ひいては衝突回避処理の不要動作が生じることが抑制される。
 (他実施形態)
 上記の実施形態を例えば次のように変更してもよい。
 ・自車41の進行方向に対する前方車42の傾き度合を推定し、その傾き度合に基づいて、後部横幅W1を補正して補正横幅W3を算出する構成としてもよい。具体的には、ECU10は、図5に示す処理を実施する。本処理は、ECU10により所定周期で繰り返し実施される。なお、図5のステップS11~S14の処理は図3と同じ処理であり、説明を簡略する。
 図5では、ステップS14において前方車42の側部が認識される状況であると判定された場合に、ステップS21に進む。ステップS21では、自車41の進行方向に対する前方車42の傾き度合を推定する。このとき、ECU10は、例えば前方車42の移動軌跡を認識し、その移動軌跡に基づいて傾き度合を推定する。傾き度合は、自車41の進行方向に対して同方向に(すなわち平行に)前方車42の移動軌跡が延びる場合を0°とし、前方車42が横を向くほど大きくなる傾斜角度であるとよい。又は、自車41の進行方向に対する点列PAの向きに基づいて傾き度合を推定する構成であってもよい。
 続くステップS22では、前方車42の傾き度合に基づいて、後部横幅W1を補正して補正横幅W3を算出する。このとき、例えば図6の関係を用い、傾き度合に基づいて側部横幅W2を算出するとともに、後部横幅W1に側部横幅W2を加算することにより補正横幅W3を算出する。
 要するに、自車41の進行方向に対する前方車42の傾き度合を把握できれば、前方車42の後部に対していずれの方向に側部が延びているか、またどの程度延びているかの予測が可能となる。したがって、前方車42の大きさを補正横幅W3として適正に求めることが可能となる。
 ・点列PAの長さに基づいて側部横幅W2を算出する場合に、点列PAの長さに対応する横方向寸法に対して、所定の拡大係数を乗算して側部横幅W2を算出する構成としてもよい。車両の側部では、必ずしも側部前後方向において最先端部から最後端部にかけて検出点Pが得られるとは言えず、側部横幅W2が短めに算出される可能性がある。この点を加味し、点列PAの長さに対応する横方向寸法を拡大して、側部横幅W2を算出するとよい。
 ・撮像装置21及びレーダセンサ22からの取得情報に基づいて、前方車42を検知する構成について説明したが、レーダセンサ22からの取得情報を用いない構成であってもよい。この場合、例えば撮像画像と辞書情報とに基づいて算出される前方車42の後部横幅W1を、予め定めた補正係数により拡大側に補正して補正横幅を算出する。例えば、補正係数を、大型車、普通車、軽自動車等の車種ごとに使い分けることが考えられる。
 ・前方車42の移動方向と、前方車42の側部における点列PAの方向との乖離量が所定値以内である場合に、前方車42の側部が認識される状況であると判定する構成であってもよい。具体的には、ECU10は、図3のステップS14において、前方車42の移動方向と点列PAの方向とのなす角度(乖離量)を算出するとともに、その角度が所定値以内であるか否かを判定する。そして、当該角度が所定値以内である場合に、前方車42の側部が認識される状況であると判定して後続のステップS15に進む。
 例えば、前方車42の移動方向が操舵等により変化する場合には、前方車42の向き(姿勢)が変化するため、前方車42の移動方向に対する点列PAの方向の乖離が生じる。かかる場合には、後部横幅W1の拡大補正の処理が実施されない。本構成によれば、前方車42の向き(姿勢)が変化する場合において、後部横幅W1が誤って補正されることを抑制できる。
 ・複数の検出点Pが並ぶ点列PAが直線状に延び、かつそれら各検出点Pについて自車41に対する相対速度の差が所定値以内である場合に、前方車42の側部が認識される状況であると判定する構成であってもよい。具体的には、ECU10は、図3のステップS14において、点列PAが直線状に延び、かつ各検出点Pの相対速度の差が所定値以内であるか否かを判定する。なお、各検出点Pの相対速度はレーダセンサ22から取得できる。そして、ステップS14がYESであれば、前方車42の側部が認識される状況であると判定して後続のステップS15に進む。
 この場合、仮に各検出点Pの相対速度の差が大きければ、そのうちいずれかの検出点は前方車42以外の反射点であると考えられる。したがって、各検出点Pの相対速度の差が所定値よりも大きい場合に、前方車42の側部が認識される状況でないとして、後部横幅W1の拡大補正の処理を実施しないようにする。これにより、前方車42の横幅が不要に拡大されることが抑制される。
 なお、前方車42の側部が認識される状況か否かの判定として、下記(1)~(3)のうち少なくとも2つを組み合わせて実施することも可能である。
(1)点列PAが直線状に延び、かつその点列PAが自車41の進行方向正面に存在している場合に、前方車42の側部が認識される状況であると判定する。
(2)前方車42の移動方向と、点列PAの方向との乖離量が所定値以内である場合に、前方車42の側部が認識される状況であると判定する。
(3)点列PAが直線状に延び、かつ各検出点Pについて自車41に対する相対速度の差が所定値以内である場合に、前方車42の側部が認識される状況であると判定する。
 ・前方車42が、自車41とは進行方向が逆の対向車である場合に、その対向車の大きさを算出するものであってもよい。この場合、ECU10は、前方車42の前部パターンの辞書情報により前部横幅(端部横幅)を算出し、前方車42の側部が認識される状況下において前部横幅を拡大側に補正して補正横幅を算出する。
 ・ECU10と撮像装置21(特に撮像装置21の制御部)とにより車両検知装置を構成することも可能である。また、車両検知装置が、撮像装置21の制御部により構成されていてもよい。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。

Claims (9)

  1.  撮像手段(21)により撮像された画像に基づいて、自車の進行方向に存在する前方車を検知する車両検知装置(10)であって、
     前記前方車が存在している場合に、前記画像と車両前部又は後部の辞書情報とに基づいて、前記前方車の前側又は後側の車両端部における前記自車の進行方向に対する横方向の大きさを端部横幅として算出する端部幅算出部と、
     前記自車の進行方向において前記前方車の側部が認識される状況か否かを判定する判定部と、
     前記前方車の側部が認識される状況であると判定された場合に、前記端部横幅を拡大側に補正して補正横幅を算出する横幅補正部と、
    を備える車両検知装置。
  2.  前記前方車の側部が認識される状況であると判定された場合に、前記前方車の側部における前記横方向の大きさを側部横幅として算出する側部幅算出部を備え、
     前記横幅補正部は、前記端部横幅を前記側部横幅により補正して前記補正横幅を算出する請求項1に記載の車両検知装置。
  3.  前記自車の進行方向に探査波が送信される場合に、前記前方車における前記探査波による検出点を取得する取得部を備え、
     前記側部幅算出部は、前記前方車の側部における前記検出点に基づいて前記側部横幅を算出する請求項2に記載の車両検知装置。
  4.  前記側部幅算出部は、前記前方車における前記車両端部の側方において複数の前記検出点が取得される場合に、その複数の検出点が並ぶ点列の長さに基づいて、前記側部横幅を算出する請求項3に記載の車両検知装置。
  5.  前記判定部は、複数の前記検出点が並ぶ点列が直線状に延び、かつその点列が前記自車の進行方向正面に存在している場合に、前記前方車の側部が認識される状況であると判定する請求項3又は4に記載の車両検知装置。
  6.  前記判定部は、前記前方車の移動方向と、複数の前記検出点が並ぶ点列の方向との乖離量が所定値以内である場合に、前記前方車の側部が認識される状況であると判定する請求項3乃至5のいずれか1項に記載の車両検知装置。
  7.  前記判定部は、複数の前記検出点が並ぶ点列が直線状に延び、かつそれら各検出点について前記自車に対する相対速度の差が所定値以内である場合に、前記前方車の側部が認識される状況であると判定する請求項3乃至6のいずれか1項に記載の車両検知装置。
  8.  前記自車の進行方向に対する前記前方車の傾き度合を推定する傾き推定部を備え、
     前記横幅補正部は、前記傾き度合に基づいて、前記端部横幅を補正して前記補正横幅を算出する請求項1乃至7のいずれか1項に記載の車両検知装置。
  9.  撮像手段(21)により撮像された画像に基づいて、自車の進行方向に存在する前方車を検知する車両検知装置(10)であって、
     前記前方車が存在している場合に、前記画像と車両前部又は後部の辞書情報とに基づいて、前記前方車の前側又は後側の車両端部における前記自車の進行方向に対する横方向の大きさを端部横幅として算出する端部幅算出部と、
     前記自車の進行方向において前記前方車の側部が認識される状況か否かを判定する判定部と、
    を備え、
     前記端部幅算出部は、前記前方車の側部が認識されない状況であると判定された場合に、前記端部横幅を前記前方車の横幅として算出するとともに、前記前方車の側部が認識される状況であると判定された場合に、前記端部横幅よりも大きい幅を前記前方車の横幅として算出する車両検知装置。
PCT/JP2017/010285 2016-03-22 2017-03-14 車両検知装置 WO2017164017A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201780018750.3A CN108885833B (zh) 2016-03-22 2017-03-14 车辆检知装置
US16/086,822 US20190100140A1 (en) 2016-03-22 2017-03-14 Vehicle detection apparatus
DE112017001503.0T DE112017001503T5 (de) 2016-03-22 2017-03-14 Fahrzeugerfassungsvorrichtung

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-057504 2016-03-22
JP2016057504A JP6520783B2 (ja) 2016-03-22 2016-03-22 車両検知装置

Publications (1)

Publication Number Publication Date
WO2017164017A1 true WO2017164017A1 (ja) 2017-09-28

Family

ID=59899427

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/010285 WO2017164017A1 (ja) 2016-03-22 2017-03-14 車両検知装置

Country Status (5)

Country Link
US (1) US20190100140A1 (ja)
JP (1) JP6520783B2 (ja)
CN (1) CN108885833B (ja)
DE (1) DE112017001503T5 (ja)
WO (1) WO2017164017A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020027415A (ja) * 2018-08-10 2020-02-20 トヨタ自動車株式会社 物体認識装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3435665A4 (en) 2016-03-25 2019-03-20 Panasonic Intellectual Property Management Co., Ltd. MONITORING AND MONITORING SYSTEM
KR102460085B1 (ko) * 2020-11-05 2022-10-28 한국교통대학교산학협력단 환경센서 융합 기반 종방향 응답성 개선 시스템

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015026310A (ja) * 2013-07-29 2015-02-05 株式会社リコー オブジェクト認識装置及びそのオブジェクト認識装置に用いるオブジェクト認識用プログラム及び移動体制御システム
JP2015215661A (ja) * 2014-05-08 2015-12-03 本田技研工業株式会社 認識装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4858574B2 (ja) * 2009-05-19 2012-01-18 トヨタ自動車株式会社 物体検出装置
JP6473571B2 (ja) * 2014-03-24 2019-02-20 アルパイン株式会社 Ttc計測装置およびttc計測プログラム
JP6095605B2 (ja) * 2014-04-24 2017-03-15 本田技研工業株式会社 車両認識装置
JP2016057504A (ja) 2014-09-10 2016-04-21 キヤノンファインテック株式会社 画像形成装置、及び画像形成装置の制御方法
KR102286174B1 (ko) * 2015-09-01 2021-08-06 주식회사 만도 운전 지원 장치 및 운전 지원 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015026310A (ja) * 2013-07-29 2015-02-05 株式会社リコー オブジェクト認識装置及びそのオブジェクト認識装置に用いるオブジェクト認識用プログラム及び移動体制御システム
JP2015215661A (ja) * 2014-05-08 2015-12-03 本田技研工業株式会社 認識装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020027415A (ja) * 2018-08-10 2020-02-20 トヨタ自動車株式会社 物体認識装置
US11247671B2 (en) 2018-08-10 2022-02-15 Toyota Jidosha Kabushiki Kaisha Object recognition device
JP7063184B2 (ja) 2018-08-10 2022-05-09 トヨタ自動車株式会社 物体認識装置

Also Published As

Publication number Publication date
CN108885833B (zh) 2022-06-24
DE112017001503T5 (de) 2018-12-20
US20190100140A1 (en) 2019-04-04
JP2017174016A (ja) 2017-09-28
CN108885833A (zh) 2018-11-23
JP6520783B2 (ja) 2019-05-29

Similar Documents

Publication Publication Date Title
CN107408345B (zh) 物标存在判定方法以及装置
US10854081B2 (en) Driving assistance device and driving assistance method
US10793096B2 (en) Vehicle control device with object detection
JP4558758B2 (ja) 車両用障害物認識装置
CN107615092B (zh) 车辆控制装置以及车辆控制方法
US10625735B2 (en) Vehicle control apparatus and vehicle control method
JP6453695B2 (ja) 運転支援装置、及び運転支援方法
US10665107B2 (en) Moving object control apparatus and method of controlling moving object
WO2017065212A1 (ja) 車両制御装置及び車両制御方法
US20200023837A1 (en) Collision detection device
CN108602494B (zh) 车辆控制装置以及车辆控制方法
US20180154892A1 (en) Vehicle control apparatus and vehicle control method
WO2016158634A1 (ja) 車両制御装置及び車両制御方法
US11074817B2 (en) Driving support apparatus
CN108137007B (zh) 车辆控制装置以及车辆控制方法
JP6432538B2 (ja) 衝突予測装置
JP6429360B2 (ja) 物体検出装置
WO2017164017A1 (ja) 車両検知装置
JP6493280B2 (ja) 物体検知装置、物体検知方法
JP7275000B2 (ja) 制御装置
JP6597359B2 (ja) 物体検知装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17770060

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17770060

Country of ref document: EP

Kind code of ref document: A1