WO2017043358A1 - 物体検出装置および物体検出方法 - Google Patents

物体検出装置および物体検出方法 Download PDF

Info

Publication number
WO2017043358A1
WO2017043358A1 PCT/JP2016/075207 JP2016075207W WO2017043358A1 WO 2017043358 A1 WO2017043358 A1 WO 2017043358A1 JP 2016075207 W JP2016075207 W JP 2016075207W WO 2017043358 A1 WO2017043358 A1 WO 2017043358A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving speed
vehicle
object detection
pedestrian
determination unit
Prior art date
Application number
PCT/JP2016/075207
Other languages
English (en)
French (fr)
Inventor
崇弘 馬場
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to US15/758,183 priority Critical patent/US10996317B2/en
Publication of WO2017043358A1 publication Critical patent/WO2017043358A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/60Velocity or trajectory determination systems; Sense-of-movement determination systems wherein the transmitter and receiver are mounted on the moving object, e.g. for determining ground speed, drift angle, ground track
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24317Piecewise classification, i.e. whereby each classification requires several discriminant rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Definitions

  • the present disclosure relates to an object detection device and an object detection method for detecting an object existing around the host vehicle.
  • An image that is captured of the traveling direction of the host vehicle is image-processed to detect an object that exists around the host vehicle, and the type of the object is specified by analyzing the captured image.
  • the type of an object is specified using a captured image, the type of the object may be erroneously determined depending on the shape of the object. Therefore, conventionally, a method for analyzing a captured image has been devised to improve the accuracy of object type determination.
  • Patent Document 1 describes improving the detection accuracy of a two-wheeled vehicle with a passenger. Specifically, in an image representing a two-wheeled vehicle with a passenger, there is a person at the top and a motorcycle at the bottom. And in the lower part where the two-wheeled vehicle exists, there are two wheels, and the left-right symmetry is strong. On the other hand, the upper part where the person is present has a left-right symmetry because it is tilted forward and the hands and feet are in the traveling direction. Therefore, using such features, an image showing a two-sided motorcycle is divided into two parts at the top and bottom, and a feature amount that considers left-right symmetry is adopted only in the lower part, so that the identification accuracy of a two-sided motorcycle is improved. ing.
  • the present disclosure mainly aims to provide an object detection apparatus and an object detection method that can determine the type of an object with higher accuracy using a captured image.
  • an object detection unit that detects a pedestrian or a two-wheeled vehicle as an object existing around the host vehicle by performing image processing on the captured image obtained by capturing the traveling direction of the host vehicle, and a captured image
  • a temporary determination unit that tentatively determines the type of the object detected by the object detection unit by analyzing, a speed acquisition unit that acquires the moving speed of the object using the reflected wave of the carrier wave, and the object acquired by the speed acquisition unit
  • a main determination unit that determines the type of the object determined by the temporary determination unit using the moving speed.
  • the first aspect of the present disclosure it is possible to determine the type of an object by specifying the type of the object in consideration of the moving speed of the object as compared with the case of specifying the type of the object using only the captured image. Accuracy can be increased.
  • FIG. 1 is a schematic configuration diagram of an object detection device
  • FIG. 2 is an explanatory diagram related to a motorcycle with a passenger
  • FIG. 3 is a flowchart of the object detection process.
  • FIG. 4 is a flowchart of object detection processing according to the second embodiment.
  • FIG. 5 is a flowchart of object detection processing according to the third embodiment.
  • the object detection apparatus 10 is mounted on a vehicle (own vehicle) and detects an object existing in front of the own vehicle.
  • Information on the object detected by the object detection device 10 is used for various vehicle controls such as collision avoidance with the host vehicle.
  • vehicle controls such as a pre-crash safety system (PCS) and adaptive cruise control (ACC).
  • PCS pre-crash safety system
  • ACC adaptive cruise control
  • the object detection device 10 is connected to an in-vehicle camera 21, a radar device 22, a vehicle speed sensor 23, and a driving support device 30 so as to be communicable.
  • the in-vehicle camera 21 is composed of an image sensor, and captures a captured image by capturing an area extending in a predetermined range toward the front of the host vehicle every predetermined time.
  • the radar device 22 transmits and receives directional electromagnetic waves such as millimeter waves and lasers. Then, the radar device 22 acquires information such as a distance, an azimuth, and a relative speed with respect to the object that has reflected the electromagnetic waves as position information of the target.
  • the vehicle speed sensor 23 is provided on a rotary shaft that transmits power to the wheels of the host vehicle, and determines the host vehicle speed that is the speed of the host vehicle based on the rotation speed of the rotary shaft.
  • the electromagnetic wave of this embodiment corresponds to a carrier wave.
  • the object detection apparatus 10 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), an input / output interface, and the like, and includes an image target generation unit 11 and a radar target generation unit 12. , An object detection unit 13 and an object determination unit 14.
  • the image target generation unit 11 corresponds to an object detection unit
  • the radar target generation unit 12 corresponds to a speed acquisition unit
  • the object determination unit 14 corresponds to a temporary determination unit and a main determination unit.
  • the image target generation unit 11 extracts a target to be detected included in the captured image input from the in-vehicle camera 21 by image processing (pattern matching processing).
  • Examples of the target to be detected include a preceding vehicle, a two-wheeled vehicle with an occupant (hereinafter referred to as a two-wheeled vehicle), a pedestrian, and other obstacles.
  • the motorcycle includes a bicycle and a motorcycle.
  • the image target generation unit 11 calculates the degree of coincidence between image data (template) representing a detection target prepared in advance and a predetermined area in the captured image, and detects if the degree of coincidence is high. It is determined that the target is the target.
  • an image target GT including information such as the type of the target, the distance to the target, the azimuth and relative speed, and the width of the target is generated and output to the object detection unit 13. To do.
  • the radar target generation unit 12 generates a radar target LT using the position information of the target input from the radar device 22 and outputs the radar target LT to the object detection unit 13.
  • the object detection unit 13 determines whether the image target GT input from the image target generation unit 11 and the radar target LT input from the radar target generation unit 12 are generated from the same object. judge. For example, a predetermined image search range is set in the captured image using the position information of the target specified by the radar target LT. If the image target GT is included in the image search range, it is determined that the radar target LT and the image target GT are generated from the same object.
  • the driving support device 30 includes a speaker, a seat belt, a brake, and the like that output an alarm sound and a guide sound as in-vehicle devices.
  • the driving support device 30 determines whether or not driving support for the object detected by the object detection device 10 is necessary, and activates various in-vehicle devices when it is determined that driving support is required.
  • the driving assistance device 30 calculates a collision margin time TTC (Time to Collision) between the object and the host vehicle.
  • the collision allowance time TTC is an evaluation value indicating how many seconds later the object collides with the object when traveling at the vehicle speed as it is. The smaller the collision allowance time TTC, the higher the risk of collision. The greater the margin time TTC, the lower the risk of collision.
  • the collision allowance time TTC can be calculated by a method such as dividing the distance in the traveling direction between the object and the host vehicle by the relative speed with respect to the object. The relative speed with respect to the object is obtained by subtracting the own vehicle speed from the vehicle speed of the preceding vehicle. Note that the collision allowance time TTC may be calculated in consideration of the relative acceleration.
  • the driving support device 30 operates the corresponding in-vehicle device.
  • the operation time of each vehicle-mounted device is set according to the type of object. For example, the operation time when the object is a pedestrian and the operation time when the object is a two-wheeled vehicle are set to an earlier operation time when the object is a two-wheeled vehicle.
  • the type of the object may be erroneously determined.
  • the motorcycle may be erroneously determined as a pedestrian.
  • the moving speed V (for example, ground speed) between the two-wheeled vehicle and the pedestrian is different, and the moving speed V of the two-wheeled vehicle tends to be higher than the moving speed V of the pedestrian. Therefore, in the present embodiment, paying attention to this point, when the object detected by the object detection unit 13 is a pedestrian, the object determination unit 14 causes the moving speed V of the object to exceed the predetermined first threshold Th1. Determine whether it is larger.
  • the moving speed V of the object is obtained by the difference between the relative speed of the object obtained from the radar target LT and the own vehicle speed detected by the vehicle speed sensor 23.
  • the first threshold value Th1 only needs to be set to a speed at which the moving speed V between the pedestrian and the two-wheeled vehicle can be distinguished, and can be set to 10 to 15 km / h, for example.
  • the object determination part 14 will determine with an object being a two-wheeled vehicle, if the object detection part 13 detects a pedestrian as an object and the moving speed V of an object is larger than 1st threshold value Th1. If the moving speed V of the object is smaller than the first threshold Th1, the object determination unit 14 determines that the object is a pedestrian. As described above, when a pedestrian is detected as an object, it is possible to suppress erroneous determination that the two-wheeled vehicle is a pedestrian by determining the type of the object again in consideration of the moving speed of the object.
  • the object detection apparatus 10 detects the radar target LT (step S11), and detects the image target GT (step S12). Next, the object detection apparatus 10 determines whether or not the radar target LT and the image target GT are the same object (step S13).
  • step S13 when step S13 is affirmed (step S13: YES), the object detection device 10 provisionally determines whether or not the type of the object is a two-wheeled vehicle (step S14).
  • the process of step S14 is determined based on the type of object obtained from the image target GT.
  • step S14 when step S14 is affirmed (step S14: YES), the object detection device 10 makes a final determination that the object is a motorcycle (step S15).
  • step S14 if step S14 is negative (step S14: NO), that is, if the object recognized from the captured image is not a two-wheeled vehicle, the object detection device 10 determines whether the type of the object is a pedestrian. (Step S16).
  • step S16 determines that the moving speed V of the object obtained from the radar target LT is the first threshold Th1. It is determined whether it is smaller than (step S17).
  • step S17 when it is determined in step S17 that the moving speed V of the object is greater than the first threshold Th1 (step S17: NO), the object detection device 10 proceeds to step S15, and the object is a motorcycle. Make this decision.
  • step S17 when it is determined in step S17 that the moving speed V of the object is smaller than the first threshold Th1 (step S17: YES), the object detection apparatus 10 has the moving speed V of the object lower than the second threshold Th2. It is determined whether it is small (step S18).
  • the second threshold Th2 is set to a value smaller than the first threshold Th1.
  • step S18 when step S18 is affirmed (step S18: YES), the object detection device 10 makes a main determination that the type of the object is a pedestrian (step S19).
  • step S13, S16, S18 is denied (step S13: NO, step S16: NO, step S18: NO), this process is complete
  • the object is a pedestrian by comparing the second threshold value Th2 smaller than the first threshold value Th1 with the moving speed V of the object in step S18.
  • the threshold value Th1 and the second threshold value Th2 may be the same value. In this case, the process of S18 may be omitted.
  • the determination accuracy of the object type can be improved by specifying the object type in consideration of the moving speed of the object as compared with the case of specifying the object type using only the photographed image.
  • the object is determined to be a two-wheeled vehicle on the condition that the object is determined to be a pedestrian and the moving speed is greater than the first threshold Th1, the two-wheeled vehicle is erroneously determined to be a pedestrian. This can be suppressed.
  • the object is determined to be a pedestrian on the condition that the object is determined to be a pedestrian and the moving speed is smaller than the second threshold Th2, the determination accuracy that the object is a pedestrian Is increased.
  • step S13 when it is determined in step S13 that the radar target LT and the image target GT are the same object (step S13: YES), the object detection device 10 determines whether the object is a bicycle or a motorcycle. It is determined whether or not (step S21).
  • the object detection device 10 determines whether or not the moving speed of the object is smaller than the third threshold Th3 (step S21).
  • the third threshold value Th3 is a value larger than the first threshold value Th1, and is set to a speed at which a motorcycle and a bicycle can be distinguished.
  • the third threshold Th3 can be set to 30 to 40 km / h or the like.
  • step S22 when it is determined in step S22 that the moving speed of the object is smaller than the third threshold Th3 (step S22: YES), the object detection device 10 determines that the object is a bicycle (step S23). . On the other hand, when it is determined in step S22 that the moving speed of the object is greater than the third threshold Th3 (step S22: NO), the object detection device 10 determines that the object is a motorcycle (step S24). .
  • step S21 when step S21 is denied (step S21: NO), the object detection apparatus 10 determines whether the object is a pedestrian (step S25). As a result, when step S25 is affirmed (step S25: YES), the object detection device 10 determines whether or not the moving speed of the object is smaller than the third threshold Th3 (step S26).
  • step S26 when it is determined in step S26 that the moving speed V of the object is greater than the third threshold Th3 (step S26: NO), the object detection device 10 determines that the object is not a pedestrian but a motorcycle. This determination is made (step S29). On the other hand, when it is determined in step S26 that the moving speed of the object is smaller than the third threshold Th3 (step S26: YES), the object detection apparatus 10 proceeds to step S27, and the moving speed V of the object is the first threshold. It is determined whether it is smaller than Th1 (step S27).
  • step S27: YES if the moving speed V of the object is smaller than the first threshold Th1 (step S27: YES), the object detection device 10 makes a main determination as a pedestrian (step S28). On the other hand, if the moving speed V of the object is larger than the first threshold Th1 (step S27: NO), the object detection device 10 proceeds to step S23 and makes a main determination that the object is a bicycle (step S23).
  • the object is a pedestrian, a bicycle, or a motorcycle by taking into account that the moving speed is different between the pedestrian, the bicycle, and the motorcycle. Can be determined.
  • step S30 determines whether or not the moving speed V of the object is greater than the first threshold Th1. If it is determined in step S30 that the moving speed V is greater than the first threshold Th1, the object detection device 10 determines that the object is a two-wheeled vehicle (step S32). When it is determined in step S30 that the moving speed V is smaller than the first threshold Th1, the object detection device 10 determines that the object is a pedestrian (step S31).
  • the object since it is temporarily determined that the object is a two-wheeled vehicle and the moving speed is smaller than the first threshold Th1, it is determined that the object is a pedestrian. An erroneous determination that the vehicle is a motorcycle can be avoided. Further, if the object is provisionally determined to be a two-wheeled vehicle and the moving speed is larger than the first threshold value Th1, the main determination is made that the object is a two-wheeled vehicle. Therefore, the determination accuracy for a two-wheeled vehicle is improved.
  • step S17 a process for determining whether or not the moving speed of the object is smaller than the first threshold Th1 is performed first. If step S17 is affirmed, it is determined whether or not the type of the object in step S16 is provisionally determined to be a pedestrian. If it is provisionally determined that the object is a pedestrian, the process proceeds to step S19, where it is determined that the object is a pedestrian.
  • the configuration may be such that the success or failure of the provisional determination of the type of object is confirmed by this determination. For example, when it is tentatively determined that an object is a pedestrian, only a determination as to whether or not the tentative determination is correct by comparing with the moving speed V of the object, that is, whether the object is a pedestrian, is performed. Good. Similarly, when it is temporarily determined that the object is a two-wheeled vehicle, it may be determined whether or not the temporary determination is correct by comparing with the moving speed V of the object, that is, whether the object is a two-wheeled vehicle. .
  • the moving speed V of the object is zero.
  • the driving support device 30 may be configured to include the object detection device 10.
  • the radar target LT and the image target GT are the same object
  • the radar target LT and the image target GT are integrated (fusion) to generate a fusion target FT.
  • the position information (distance, direction, etc.) of the object may be specified using the fusion target FT.
  • the radar device 22 has higher detection accuracy of the distance to the target than the image sensor.
  • the in-vehicle camera 21 has higher detection accuracy in the horizontal direction (horizontal width, direction, etc.) of the target than the radar device 22.
  • the position information of the target is acquired using both the in-vehicle camera 21 and the radar device 22.
  • the output by any one sensor which detects each detection item (distance, direction, etc.) more accurately is used as a detection result in each detection item. According to this, the detection accuracy of the position of the object can be improved.
  • a program is stored in a ROM which is a semiconductor memory corresponding to a non-transitional tangible recording medium, and the object detection is performed by a CPU corresponding to a computer processor executing the program.
  • the program is stored in a non-transitional tangible recording medium other than the ROM (for example, non-volatile memory other than the ROM), and the program is executed by a processor such as a CPU. Good.
  • a program stored in a non-transitional tangible recording medium such as a nonvolatile memory is executed by the processor, so that a method (for example, an object detection method) corresponding to the program is executed. It may be configured.
  • each function of the object detection device 10 may be configured by hardware using one or a plurality of integrated circuits (ie, ICs). Furthermore, each function of the object detection device 10 is provided by software recorded on a non-transitional physical recording medium such as a nonvolatile memory and a computer that executes the software, or only software, only hardware, or a combination thereof. May be.
  • a non-transitional physical recording medium such as a nonvolatile memory and a computer that executes the software, or only software, only hardware, or a combination thereof. May be.

Abstract

物体検出装置(10)は、物体検出部(11)、仮判定部(14)、速度取得部(12)、及び本判定部(14)を有する。物体検出部は、自車両の進行方向を撮影した撮影画像を画像処理することで自車両の周囲に存在する物体としての歩行者又は二輪車を検出する。仮判定部は、撮影画像を解析することで物体検出部により検出された物体の種類を仮判定する。速度取得部は、搬送波の反射波を用いて物体の移動速度を取得する。本判定部は、速度取得部で取得した物体の移動速度を用いて、仮判定部で判定された物体の種類を本判定する。

Description

物体検出装置および物体検出方法 関連出願の相互参照
 本出願は、2015年9月9日に出願された日本出願番号2015-177901号に基づくものであって、その優先権の利益を主張するものであり、その特許出願のすべての内容が、参照により本明細書に組み入れられる。
 本開示は、自車両の周囲に存在する物体を検出する物体検出装置および物体検出方法に関する。
 自車両の進行方向を撮影した撮影画像を画像処理することで、自車両の周囲に存在する物体を検出するとともに、撮影画像を解析することで物体の種類を特定することが行われている。しかし、撮影画像を用いて物体の種類を特定する場合には、その物体の形状等によって、物体の種類が誤判定される可能性がある。そこで従来から、撮影画像の解析方法を工夫することで、物体の種類の判定精度が向上するようにしている。
 例えば特許文献1には、乗員ありの横向き二輪車の検出精度を向上させることについて記載されている。詳しくは、乗員ありの横向き二輪車を表す画像では、上部に人が存在し、下部に二輪車が存在する。そして二輪車が存在する下部は、二つの車輪が存在し、その左右対称性が強い。一方、人が存在する上部は、前傾姿勢をしていたり、手や足が進行方向に出ていたりして左右対称性が無い。そこでこのような特徴を利用して、横向きの二輪車を示す画像を上下で分割し、下部分のみ左右対称性を考慮した特徴量を採用することにより、横向きの二輪車の識別精度が向上するようにしている。
特開2012-243155号公報
 しかし、特許文献1の場合には、二輪車の一部が他の物体で隠れる等により、二輪車の左右対称性が正しく抽出されない場合には、乗員ありの横向き二輪車として正しく認識されないおそれがある。また、自車両と同一車線を走行している二輪車の場合、すなわち乗員ありの縦向き二輪車の場合には、二輪車の左右対称性を検出することができないため、特許文献1の構成を適用することはできない。そしてこれらの場合において、二輪車が正しく検出されない場合には、乗員ありの二輪車と歩行者とを誤判定するおそれがある。
 本開示は、撮影画像を用いて物体の種類をより精度よく判定できる物体検出装置および物体検出方法を提供することを主たる目的とするものである。
 本開示の第一の態様において、自車両の進行方向を撮影した撮影画像を画像処理することで自車両の周囲に存在する物体としての歩行者又は二輪車を検出する物体検出部と、撮影画像を解析することで物体検出部により検出された物体の種類を仮判定する仮判定部と、搬送波の反射波を用いて物体の移動速度を取得する速度取得部と、速度取得部で取得した物体の移動速度を用いて、仮判定部で判定された物体の種類を本判定する本判定部と、を備える。
 本開示の第一の態様によれば、撮影画像のみを用いて物体の種類を特定する場合と比べて、物体の移動速度を加味して物体の種類を特定することで、物体の種類の判定精度を高めることができる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、物体検出装置の概略構成図であり、 図2は、乗員あり二輪車に関する説明図であり、 図3は、物体検出処理のフローチャートであり、 図4は、第2実施形態の物体検出処理のフローチャートであり、 図5は、第3実施形態の物体検出処理のフローチャートである。
 以下、各実施形態を図面に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付しており、同一符号の部分についてはその説明を援用する。
 (第1実施形態)
 本実施形態に係る物体検出装置10は、車両(自車両)に搭載され、自車両の前方に存在する物体を検出する。物体検出装置10で検出された物体の情報は、自車両との衝突回避等の各種車両制御に用いられる。例えば、プリクラッシュセーフティシステム(PCS:Pre-Crash safety system)、アダプティブクルーズコントロール(ACC:Adaptive cruise control)等の各種車両制御に用いられる。
 図1において、物体検出装置10は、車載カメラ21、レーダ装置22、車速センサ23および運転支援装置30と通信可能に接続されている。
 車載カメラ21は、画像センサからなり、所定時間毎に自車両の前方に向かって所定範囲で広がる領域を撮像して撮影画像を取得する。レーダ装置22は、ミリ波やレーザ等の指向性のある電磁波を送受信する。そして、レーダ装置22は、電磁波を反射した物体との距離、方位および相対速度等の情報を、物標の位置情報として取得する。車速センサ23は、自車両の車輪に動力を伝達する回転軸に設けられており、その回転軸の回転速度に基づいて、自車両の速度である自車速を求める。本実施形態の電磁波は、搬送波に相当する。
 物体検出装置10は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、入出力インターフェース等で構成されており、画像物標生成部11、レーダ物標生成部12、物体検知部13、物体判定部14を備えている。ここで、画像物標生成部11は物体検出部に相当し、レーダ物標生成部12は速度取得部に相当し、物体判定部14は仮判定部及び本判定部に相当する。
 画像物標生成部11は、車載カメラ21から入力された撮影画像に含まれる検出対象の物標を画像処理(パターンマッチング処理)で抽出する。なお、検出対象の物標としては、先行車、乗員ありの二輪車(以下、二輪車と称する)、歩行者、その他の障害物等が挙げられる。なお二輪車には自転車、自動二輪車が含まれている。
 例えば、画像物標生成部11は、予め用意された検出対象の物標を表す画像データ(テンプレート)と撮影画像内の所定領域との一致の度合いを算出し、その一致の度合いが高ければ検出対象の物標であると判定する。そして、物標を抽出した場合には、物標の種類、物標との距離、方位および相対速度、物標の横幅等の情報を含む画像物標GTを生成して物体検知部13に出力する。
 レーダ物標生成部12は、レーダ装置22から入力された物標の位置情報を用いてレーダ物標LTを生成し、物体検知部13に出力する。
 物体検知部13は、画像物標生成部11から入力された画像物標GTと、レーダ物標生成部12から入力されたレーダ物標LTとが同一の物体から生成されたものであるかを判定する。例えば、レーダ物標LTで特定される物標の位置情報を用いて、撮影画像内に所定の画像探索範囲を設定する。そしてその画像探索範囲内に画像物標GTが含まれていれば、そのレーダ物標LTと画像物標GTとは同一の物体から生成されたものであると判定する。
 運転支援装置30は、車載機器として、警報音や案内音を出力するスピーカ、シートベルト、ブレーキ等を備えている。運転支援装置30は、物体検出装置10により検出された物体に対する運転支援が必要であるか否かを判定し、運転支援が必要であると判定した場合に各種車載機器を作動させる。
 例えば、運転支援装置30は、物体と自車両との衝突余裕時間TTC(Time to Collision)を算出する。衝突余裕時間TTCとは、このままの自車速度で走行した場合に、何秒後に物体に衝突するかを示す評価値であり、衝突余裕時間TTCが小さいほど、衝突の危険性は高くなり、衝突余裕時間TTCが大きいほど衝突の危険性は低くなる。衝突余裕時間TTCは、物体と自車両との進行方向の距離を、物体との相対速度で除算する等の方法で算出できる。物体との相対速度は、先行車両の車速から自車速を減算して求められる。なお、相対加速度を加味して衝突余裕時間TTCを算出してもよい。
 そして、運転支援装置30は、衝突余裕時間TTCが車載機器の作動時間以下であれば、該当する車載機器を作動させる。なお、各車載機器の作動時間は物体の種類に応じて設定される。例えば、物体が歩行者の場合の作動時間と、物体が二輪車の場合の作動時間とでは、二輪車の場合の方が早めの作動時間に設定されている。
 ところで、撮影画像を画像処理して物体を特定する場合には、物体の種類が誤判定されるおそれがある。例えば、二輪車が歩行者であると誤判定されるおそれがある。
 すなわち、図2(a)に示すように、自車両Mの進行方向に対して直交する方向(横向き)に二輪車Bが走行している場合には、二輪車Bの車輪の一部が他の物体で隠れている等により、パターンマッチングで二輪車の車輪部分が正しく抽出されないことが生じうる。二輪車の部分が正しく検出されず、上側の歩行者の部分のみが検出されると、物体が二輪車ではなく歩行者であると誤判定されてしまう。
 また、図2(b)に示すように、自車両の進行方向と同方向(縦向き)に二輪車が走行している場合には、そもそも二輪車の特徴である車輪部分を画像処理で検出することが困難となる。そのためこの場合にも、パターンマッチングで二輪車の部分が正しく検出されず、歩行者の部分のみが検出されると、物体が二輪車ではなく歩行者であると誤判定されてしまう。
 一方、二輪車と歩行者との移動速度V(例えば、対地速度)は異なり、歩行者の移動速度Vに比べて、二輪車の移動速度Vの方が大きい傾向がある。そこで、本実施形態では、この点に着目し、物体検知部13で検出された物体が歩行者である場合に、物体判定部14により、物体の移動速度Vが所定の第1閾値Th1よりも大きいか否かを判定する。
 なお、物体の移動速度Vは、レーダ物標LTから求められる物体の相対速度と、車速センサ23で検出される自車速との差分で求められる。また、第1閾値Th1は、歩行者と二輪車との移動速度Vを区別できる速度に設定されていればよく、例えば10~15km/hに設定することができる。
 そして、物体判定部14は、物体検知部13が物体として歩行者を検出し、且つ物体の移動速度Vが第1閾値Th1よりも大きければ、物体は二輪車であると判定する。物体の移動速度Vが第1閾値Th1よりも小さければ、物体判定部14は、物体は歩行者であると判定する。このように、物体として歩行者が検出された際に、物体の移動速度を加味して物体の種類を再度判定することで、二輪車が歩行者であると誤判定されることを抑制できる。
 次に、本実施形態による物体の種類の判定処理について、図3のフローチャートを用いて説明する。本処理は、物体検出装置10が所定周期で繰り返し実施する。
 図3において、まず、物体検出装置10は、レーダ物標LTを検出し(ステップS11)、画像物標GTを検出する(ステップS12)。次に、物体検出装置10は、レーダ物標LTと画像物標GTとが同一物体であるか否かを判定する(ステップS13)。
 その結果、ステップS13を肯定した場合(ステップS13:YES)には、物体検出装置10は、物体の種類が二輪車であるか否かを仮判定する(ステップS14)。ステップS14の処理は、画像物標GTから求められる物体の種類に基づき判定する。
 その結果、ステップS14を肯定した場合(ステップS14:YES)には、物体検出装置10は、物体は二輪車であると本判定する(ステップS15)。一方、ステップS14を否定した場合(ステップS14:NO)、すなわち撮影画像から認識される物体が二輪車ではない場合には、物体検出装置10は、物体の種類が歩行者であるか否かを判定する(ステップS16)。その結果、ステップS16で物体の種類が歩行者であると仮判定した場合(S16:YES)には、物体検出装置10は、レーダ物標LTから求められる物体の移動速度Vが第1閾値Th1よりも小さいか否かを判定する(ステップS17)。
 その結果、ステップS17で、物体の移動速度Vが第1閾値Th1よりも大きいと判定した場合(ステップS17:NO)には、物体検出装置10は、ステップS15に進み、物体は二輪車であると本判定する。一方、ステップS17で、物体の移動速度Vが第1閾値Th1よりも小さいと判定した場合(ステップS17:YES)には、物体検出装置10は、物体の移動速度Vが第2閾値Th2よりも小さいか否かを判定する(ステップS18)。ここで、第2閾値Th2は、第1閾値Th1よりも小さい値に設定されている。
 その結果、ステップS18を肯定した場合(ステップS18:YES)には、物体検出装置10は、物体の種類が歩行者であると本判定する(ステップS19)。なお、ステップS13、S16、S18を否定した場合(ステップS13:NO、ステップS16:NO、ステップS18:NO)には、本処理を終了する。
 なお、図3では、ステップS18で第1閾値Th1よりも小さい第2閾値Th2と、物体の移動速度Vとを比較して物体が歩行者であるか否かを判定しているが、第1閾値Th1と第2閾値Th2とは同じ値であってもよく、この場合には、S18の処理が省略されてもよい。
 上記の実施形態によれば、以下の優れた効果を奏することができる。
 ・撮影画像のみを用いて物体の種類を特定する場合と比べて、物体の移動速度を加味して物体の種類を特定することで、物体の種類の判定精度を高めることができる。
 ・物体が歩行者であると判定され、且つ移動速度が第1閾値Th1よりも大きいことを条件に、物体が二輪車であると判定するようにしたため、二輪車が歩行者であると誤判定されることを抑制できる。
 ・物体が歩行者であると判定され、且つ移動速度が第2閾値Th2よりも小さいことを条件に、物体が歩行者であると判定するようにしたため、物体が歩行者であることの判定精度が高められる。
 ・二輪車が自車両の進行方向に移動している状態、すなわち二輪車が縦向きに走行している場合には、画像処理で二輪車の特徴となる車輪部分の抽出が困難となるため、二輪車が歩行者として誤判定される可能性が高くなる。この際に、物体の移動速度を用いて物体の種類の本判定を行うことで、二輪車の特徴部分の抽出が困難な状況においても、乗員ありの二輪車を正しく判定することができる。
 上記の実施形態を例えば次のように変更してもよい。なお、以下の説明において上述の構成を同様の構成については同じ図番号を付し、詳述は省略する。
 (第2実施形態)
 第2実施形態について説明する。二輪車には、自転車と、自動二輪車とが存在し、それぞれで移動速度Vが異なる。このことを考慮して、本実施形態では、移動速度Vと複数の閾値とを比較して、歩行者、自転車および自動二輪車を区別して判定する。
 以下、本実施形態の処理を図4に示すフローチャートを用いて説明する。
 図4において、ステップS13でレーダ物標LTと画像物標GTとが同一物体であると判定した場合(ステップS13:YES)には、物体検出装置10は、物体が自転車又は自動二輪車であるか否かを判定する(ステップS21)。
 その結果、物体が自転車又は自動二輪車であると判定した場合(ステップS21:YES)には、物体検出装置10は、物体の移動速度が第3閾値Th3よりも小さいか否かを判定する(ステップS22)。第3閾値Th3は、第1閾値Th1よりも大きい値であって、自動二輪車と自転車とを区別できる速度に設定される。例えば、第3閾値Th3は30~40km/h等に設定することができる。
 その結果、ステップS22で物体の移動速度が第3閾値Th3よりも小さいと判定した場合(ステップS22:YES)には、物体検出装置10は、物体は自転車であると本判定する(ステップS23)。一方、ステップS22で物体の移動速度が第3閾値Th3よりも大きいと判定した場合(ステップS22:NO)には、物体検出装置10は、物体は自動二輪車であると本判定する(ステップS24)。
 一方、ステップS21を否定した場合(ステップS21:NO)には、物体検出装置10は、物体が歩行者であるか否かを判定する(ステップS25)。その結果、ステップS25を肯定した場合(ステップS25:YES)には、物体検出装置10は、物体の移動速度が第3閾値Th3よりも小さいか否かを判定する(ステップS26)。
 その結果、ステップS26で、物体の移動速度Vが第3閾値Th3よりも大きいと判定した場合(ステップS26:NO)には、物体検出装置10は、物体は歩行者ではなく自動二輪車であると本判定する(ステップS29)。一方、ステップS26で物体の移動速度が第3閾値Th3よりも小さいと判定した場合(ステップS26:YES)には、物体検出装置10は、ステップS27に進み、物体の移動速度Vが第1閾値Th1よりも小さいか否かを判定する(ステップS27)。
 その結果、物体の移動速度Vが第1閾値Th1よりも小さければ(ステップS27:YES)、物体検出装置10は、歩行者であると本判定する(ステップS28)。一方、物体の移動速度Vが第1閾値Th1よりも大きければ(ステップS27:NO)、物体検出装置10は、ステップS23に進み、物体は自転車であると本判定する(ステップS23)。
 以上のように、本実施形態によれば、歩行者、自転車と並びに自動二輪車とでは移動速度が異なることを加味することで、物体が歩行者、自転車及び自動二輪車のいずれであるかを区別して判定することができる。
 (第3実施形態)
 第3実施形態について説明する。撮影画像の画像処理で、歩行者が二輪車であると誤判定される可能性もある。その対策として、本実施形態では、二輪車であると仮判定された場合にも、移動速度Vを用いて二輪車であるか否かを本判定する。
 以下、本実施形態の処理を図5に示すフローチャートを用いて説明する。
 図5において、ステップS14で二輪車であると仮判定した場合に、物体検出装置10は、ステップS30に進み、物体の移動速度Vが第1閾値Th1よりも大きいか否かを判定する。ステップS30で移動速度Vが第1閾値Th1よりも大きいと判定した場合には、物体検出装置10は、物体は二輪車であると本判定する(ステップS32)。ステップS30で移動速度Vが第1閾値Th1よりも小さいと判定した場合には、物体検出装置10は、物体は歩行者であると本判定する(ステップS31)。
 以上のように、第3実施形態によれば、物体が二輪車であると仮判定され、且つ移動速度が第1閾値Th1よりも小さければ歩行者であると本判定するようにしたため、歩行者が二輪車であると誤判定されることを回避できる。また物体が二輪車であると仮判定され、且つ移動速度が第1閾値Th1よりも大きければ二輪車であると本判定するようにしたため、二輪車である場合の判定精度が高められる。
 (その他の実施形態)
 ・上記の各処理において、物体の種類の仮判定と、物体の移動速度Vの判定処理との順番を入れ替えてもよい。例えば図3の処理において、ステップS17で物体の移動速度が第1閾値Th1よりも小さいか否かの処理を先に実施する。そしてステップS17を肯定した場合には、ステップS16の物体の種類が歩行者であると仮判定されたか否かを判定する。そして物体が歩行者であると仮判定されていれば、ステップS19に進み、物体は歩行者であると本判定する。
 ・上記の各処理において、物体の種類の仮判定の成否を、本判定で確認する構成であってもよい。例えば、物体が歩行者であると仮判定された際に、物体の移動速度Vとの比較によりその仮判定が正しいか否か、すなわち物体が歩行者であるかの判定のみが行われてもよい。同様に、物体が二輪車であると仮判定された際に、物体の移動速度Vとの比較によりその仮判定が正しいか否か、すなわち物体が二輪車であるかの判定のみが行われてもよい。
 ・物体の移動速度Vがゼロの場合も想定される。物体の移動速度Vがゼロの場合には、物体の種類に応じて各車載機器の作動時間を異なる値に設定する必要性が低くなる。そこで、例えば、図3のフローチャートに示されるステップS13において、レーダ物標LTと画像物標GTとが同一物体であると判定した際に、物体の移動速度Vがゼロであるか否かを判定し、その結果、物体の移動速度Vがゼロであると判定した場合には、ステップS13~S19の処理を行わないようにしてもよい。
 ・上記では、物体検出装置10と運転支援装置30とを別構成とした例を示したが、運転支援装置30が物体検出装置10を備える構成であってもよい。
 ・上記において、レーダ物標LTと画像物標GTとが同一の物体であると判定された場合には、レーダ物標LTと画像物標GTを統合(フュージョン)してフュージョン物標FTを生成し、フュージョン物標FTを用いて物体の位置情報(距離、方位等)を特定するようにしてもよい。
 すなわち、レーダ装置22は物標までの距離の検出精度が画像センサに比べて高い。これに対して、車載カメラ21は物標の横方向(横幅や方位など)の検出精度がレーダ装置22に比べて高い。このことを利用して、車載カメラ21とレーダ装置22との両方を用いて物標の位置情報を取得する。そして、各検出項目(距離、方位等)をより精度よく検出するいずれか一方のセンサによる出力を各検出項目における検出結果として用いる。これによれば、物体の位置の検出精度を向上できる。
 上記の実施形態では、物体検出装置10において、非遷移的実体的記録媒体に相当する半導体メモリであるROMにプログラムが格納され、このプログラムをコンピュータのプロセッサに相当するCPUが実行することにより物体検出装置10の各機能を実現しているが、ROM以外の非遷移的実体的記録媒体(例えば、ROM以外の不揮発性メモリ)にプログラムが格納され、このプログラムをCPU等のプロセッサが実行する構成でもよい。この場合、物体検出装置10において、不揮発性メモリ等の非遷移的実体的記録媒体に格納されたプログラムがプロセッサにより実行されることにより、このプログラムに対応する方法(例えば、物体検出方法)が実行される構成でもよい。
 また、物体検出装置10の各機能の一部又は全部を、一つあるいは複数の集積回路(すなわち、IC)等によりハードウェア的に構成してもよい。さらに、物体検出装置10の各機能は、不揮発性メモリ等の非遷移的実体的記録媒体に記録されたソフトウェアおよびそれを実行するコンピュータ、またはソフトウェアのみ、またはハードウェアのみ、あるいはそれらの組合せによって提供してもよい。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらの一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。

Claims (7)

  1.  自車両の進行方向を撮影した撮影画像を画像処理することで自車両の周囲に存在する物体としての歩行者又は二輪車を検出する物体検出部(11)と、
     前記撮影画像を解析することで前記物体検出部により検出された前記物体の種類を仮判定する仮判定部(14)と、
     搬送波の反射波を用いて前記物体の移動速度を取得する速度取得部(12)と、
     前記速度取得部で取得した前記物体の移動速度を用いて、前記仮判定部で判定された前記物体の種類を本判定する本判定部(14)と、
     を備える物体検出装置。
  2.  前記本判定部は、前記仮判定部により前記物体が歩行者であると判定され、且つ前記移動速度が所定の第1閾値よりも大きければ、前記物体は乗員ありの二輪車であると判定する請求項1に記載の物体検出装置。
  3.  前記本判定部は、前記仮判定部により前記物体が歩行者であると判定され、且つ前記移動速度が所定の第2閾値よりも小さければ、前記物体は歩行者であると判定する請求項1又は2に記載の物体検出装置。
  4.  前記本判定部は、前記仮判定部により前記物体が二輪車であると判定され、且つ前記移動速度が所定の第1閾値よりも大きければ、前記物体は乗員ありの二輪車であると判定する請求項1に記載の物体検出装置。
  5.  前記本判定部は、前記仮判定部により前記物体が二輪車であると判定され、且つ前記移動速度が所定の第1閾値よりも小さければ、前記物体は歩行者であると判定する請求項1又は4に記載の物体検出装置。
  6.  前記本判定部は、前記移動速度が前記第1閾値よりも大きい第3閾値よりも小さければ前記物体は乗員ありの自転車であると判定し、前記移動速度が前記第3閾値よりも大きければ、前記物体は乗員ありの自動二輪車であると判定する請求項2又は4に記載の物体検出装置。
  7.  自車両に搭載された物体検出装置により、自車両の進行方向を撮影した撮影画像を画像処理することで自車両の周囲に存在する物体としての歩行者又は二輪車を検出し、
     前記物体検出装置により、前記撮影画像を解析することで、検出された前記物体の種類を仮判定し、
     前記物体検出装置により、搬送波の反射波を用いて前記物体の移動速度を取得し、
     前記物体検出装置により、取得した前記物体の移動速度を用いて、判定された前記物体の種類を本判定する、
     物体検出方法。
PCT/JP2016/075207 2015-09-09 2016-08-29 物体検出装置および物体検出方法 WO2017043358A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/758,183 US10996317B2 (en) 2015-09-09 2016-08-29 Object detection apparatus and object detection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015177901A JP2017054311A (ja) 2015-09-09 2015-09-09 物体検出装置
JP2015-177901 2015-09-09

Publications (1)

Publication Number Publication Date
WO2017043358A1 true WO2017043358A1 (ja) 2017-03-16

Family

ID=58239656

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/075207 WO2017043358A1 (ja) 2015-09-09 2016-08-29 物体検出装置および物体検出方法

Country Status (3)

Country Link
US (1) US10996317B2 (ja)
JP (1) JP2017054311A (ja)
WO (1) WO2017043358A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020078026A1 (zh) * 2018-10-15 2020-04-23 华为技术有限公司 一种图像处理方法、装置与设备

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6551283B2 (ja) * 2016-04-01 2019-07-31 株式会社デンソー 車両制御装置、車両制御方法
KR20180065585A (ko) * 2016-12-08 2018-06-18 현대자동차주식회사 차량 및 그 제어방법
JP7071102B2 (ja) * 2017-11-28 2022-05-18 株式会社Subaru 車外環境認識装置
JP6570675B2 (ja) * 2018-02-15 2019-09-04 三菱電機株式会社 レーダ信号処理装置
CN115578862B (zh) * 2022-10-26 2023-09-19 中国建设基础设施有限公司 交通流量转换方法、装置、计算设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1116099A (ja) * 1997-06-27 1999-01-22 Hitachi Ltd 自動車走行支援装置
US20030179084A1 (en) * 2002-03-21 2003-09-25 Ford Global Technologies, Inc. Sensor fusion system architecture
JP2007249841A (ja) * 2006-03-17 2007-09-27 Toyota Motor Corp 画像認識装置
JP2007288460A (ja) * 2006-04-17 2007-11-01 Nissan Motor Co Ltd 物体検出方法および物体検出装置
WO2011114815A1 (ja) * 2010-03-17 2011-09-22 本田技研工業株式会社 車両周辺監視装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4304517B2 (ja) * 2005-11-09 2009-07-29 トヨタ自動車株式会社 物体検出装置
JP4595833B2 (ja) * 2006-02-24 2010-12-08 トヨタ自動車株式会社 物体検出装置
US8493196B2 (en) * 2010-11-15 2013-07-23 Bendix Commercial Vehicle Systems Llc ACB following distance alert and warning adjustment as a function of forward vehicle size and host vehicle mass
JP5691834B2 (ja) 2011-05-20 2015-04-01 株式会社豊田中央研究所 画像識別装置及びプログラム
JP5884771B2 (ja) * 2013-05-22 2016-03-15 株式会社デンソー 衝突緩和装置
JP5892129B2 (ja) * 2013-08-29 2016-03-23 株式会社デンソー 道路形状認識方法、道路形状認識装置、プログラムおよび記録媒体
JP6086160B2 (ja) * 2013-11-25 2017-03-01 トヨタ自動車株式会社 衝突回避支援装置
WO2015087730A1 (ja) * 2013-12-10 2015-06-18 株式会社日立国際電気 監視システム
KR101503788B1 (ko) * 2013-12-27 2015-03-19 숭실대학교산학협력단 적분영상을 기반으로 하는 특징 정보 예측을 통한 보행자 검출 방법, 이를 수행하기 위한 기록 매체 및 단말기
JP5991332B2 (ja) * 2014-02-05 2016-09-14 トヨタ自動車株式会社 衝突回避制御装置
KR102178433B1 (ko) * 2014-05-30 2020-11-16 주식회사 만도 긴급 제동 시스템 및 그의 보행자 인식 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1116099A (ja) * 1997-06-27 1999-01-22 Hitachi Ltd 自動車走行支援装置
US20030179084A1 (en) * 2002-03-21 2003-09-25 Ford Global Technologies, Inc. Sensor fusion system architecture
JP2007249841A (ja) * 2006-03-17 2007-09-27 Toyota Motor Corp 画像認識装置
JP2007288460A (ja) * 2006-04-17 2007-11-01 Nissan Motor Co Ltd 物体検出方法および物体検出装置
WO2011114815A1 (ja) * 2010-03-17 2011-09-22 本田技研工業株式会社 車両周辺監視装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020078026A1 (zh) * 2018-10-15 2020-04-23 华为技术有限公司 一种图像处理方法、装置与设备

Also Published As

Publication number Publication date
JP2017054311A (ja) 2017-03-16
US20180246187A1 (en) 2018-08-30
US10996317B2 (en) 2021-05-04

Similar Documents

Publication Publication Date Title
WO2017043358A1 (ja) 物体検出装置および物体検出方法
JP5690688B2 (ja) 外界認識方法,装置,および車両システム
JP5971341B2 (ja) 物体検出装置及び運転支援装置
JP5178276B2 (ja) 画像認識装置
US10871565B2 (en) Object detection apparatus and object detection method
JP2017010539A (ja) 車両制御装置、及び車両制御方法
JP6856452B2 (ja) 物標判定装置及び運転支援システム
US10192444B2 (en) Forward collision warning system and method
JP6614108B2 (ja) 車両制御装置、車両制御方法
EP2919159A2 (en) Image processing device and image processing method
WO2017171082A1 (ja) 車両制御装置、車両制御方法
WO2017104503A1 (ja) 移動体制御装置及び移動体制御方法
JP6380232B2 (ja) 物体検出装置、及び物体検出方法
JP2008276689A (ja) 車両用障害物認識装置
JP2009236623A (ja) 物体検知装置、周辺監視装置、運転支援システムおよび物体検知方法
JP6011625B2 (ja) 速度算出装置及び速度算出方法並びに衝突判定装置
JP5651642B2 (ja) 物体位置検知装置
JP2018097765A (ja) 物体検出装置、及び物体検出方法
WO2016204213A1 (ja) 車両制御装置、及び車両制御方法
US11420624B2 (en) Vehicle control apparatus and vehicle control method
WO2016158491A1 (ja) 衝突回避支援装置
JP2010072947A (ja) 障害物検出装置
JP6451619B2 (ja) 物体検出装置
JP6699568B2 (ja) 車両制御装置
JP5717416B2 (ja) 運転支援制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16844219

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15758183

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16844219

Country of ref document: EP

Kind code of ref document: A1