JP2016053867A - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP2016053867A
JP2016053867A JP2014179816A JP2014179816A JP2016053867A JP 2016053867 A JP2016053867 A JP 2016053867A JP 2014179816 A JP2014179816 A JP 2014179816A JP 2014179816 A JP2014179816 A JP 2014179816A JP 2016053867 A JP2016053867 A JP 2016053867A
Authority
JP
Japan
Prior art keywords
vehicle
horizontal edge
object detection
feature point
detection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014179816A
Other languages
Japanese (ja)
Other versions
JP6134693B2 (en
Inventor
忠彦 加納
Tadahiko Kano
忠彦 加納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2014179816A priority Critical patent/JP6134693B2/en
Publication of JP2016053867A publication Critical patent/JP2016053867A/en
Application granted granted Critical
Publication of JP6134693B2 publication Critical patent/JP6134693B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an object detection device that prevents incorrect detection of an object other than a vehicle as a vehicle.SOLUTION: A horizontal edge extraction part extracts a horizontal edge h1 from an image 21 photographed with a camera. A feature point extraction part extracts feature points P1 to P5 present in a first search range SA1 that is set in an upper direction of the horizontal edge h1. A three-dimensional coordinate calculation part calculates three-dimensional coordinates of a real space as for a feature point group in which a corresponding relationship in time-series photographed images has been determined by the feature point correspondence determination part. An object recognition part, when a feature point having a height of a real space position equal to or higher than a predetermined value is present, recognizes that the horizontal edge h1 is an image part of a vehicle.SELECTED DRAWING: Figure 3

Description

本発明は、カメラの撮像画像に基づいて周囲に存在する物体を検出する物体検出装置に関する。   The present invention relates to an object detection device that detects an object existing in the vicinity based on a captured image of a camera.

従来、車載カメラによる自車両前方の撮像画像から水平エッジ成分を抽出して、先行車両を検出する物体検出装置が知られている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, an object detection apparatus that detects a preceding vehicle by extracting a horizontal edge component from a captured image in front of the host vehicle by an in-vehicle camera is known (see, for example, Patent Document 1).

特許文献1に記載された物体検出装置においては、抽出された水平エッジの幅と道路幅との比を算出し、比が所定範囲内である水平エッジを先行車両の下端候補として検出する。そして、下端候補として検出した水平エッジの上方向の所定範囲内に他の水平エッジ線が存在する場合に、下端候補として検出した水平エッジは先行車の下端部の画像部分であると認識している。   In the object detection device described in Patent Document 1, a ratio between the width of the extracted horizontal edge and the road width is calculated, and a horizontal edge whose ratio is within a predetermined range is detected as a lower end candidate of the preceding vehicle. When another horizontal edge line exists within a predetermined range above the horizontal edge detected as the lower end candidate, the horizontal edge detected as the lower end candidate is recognized as the image portion of the lower end of the preceding vehicle. Yes.

特開平8−43083号公報JP-A-8-43083

特許文献1に記載された物体検出装置では、実空間上で奥行方向(カメラの撮像方向)に長い平面物(路面標識、道路脇に存在する物体の影等)の画像部分について、複数の水平エッジが抽出されたときに、下端の水平エッジが先行車の下端部の画像部分であると誤認識されてしまう。   In the object detection apparatus described in Patent Document 1, a plurality of horizontal portions are obtained for an image portion of a planar object (a road surface sign, a shadow of an object existing on a road, etc.) that is long in the depth direction (camera imaging direction) in real space. When the edge is extracted, the horizontal edge at the lower end is erroneously recognized as the image portion at the lower end of the preceding vehicle.

本発明はかかる背景に鑑みてなされたものであり、車両以外の物体を車両と誤検出することを防止した物体検出装置を提供することを目的とする。   The present invention has been made in view of such a background, and an object thereof is to provide an object detection device that prevents an object other than a vehicle from being erroneously detected as a vehicle.

本発明は上記目的を達成するためになされたものであり、本発明の物体検出装置は、
周辺を撮像するカメラと、
前記カメラの撮像画像から水平エッジを抽出する水平エッジ抽出部と、
前記撮像画像において、前記水平エッジの上方向に設定した第1探索範囲内に存在する特徴点を抽出する特徴点抽出部と、
前記特徴点に対応する実空間位置の高さを算出する実空間位置算出部と、
対応する実空間位置の高さが所定値以上である前記特徴点が存在するときに、前記水平エッジは車両の画像部分であると認識する車両認識部と
を備えたことを特徴とする。
The present invention has been made to achieve the above object, and the object detection apparatus of the present invention includes:
A camera that captures the surroundings,
A horizontal edge extraction unit for extracting a horizontal edge from a captured image of the camera;
In the captured image, a feature point extraction unit that extracts a feature point existing in a first search range set in the upward direction of the horizontal edge;
A real space position calculation unit for calculating the height of the real space position corresponding to the feature point;
A vehicle recognition unit is provided that recognizes that the horizontal edge is an image portion of a vehicle when the corresponding feature point whose height of the corresponding real space position is a predetermined value or more exists.

かかる本発明によれば、前記カメラの撮像画像から前記水平エッジ抽出部により水平エッジが抽出され、水平エッジの上方向に設定された前記第1探索範囲内に存在する特徴点が、前記特徴点抽出部によって抽出される。そして、前記車両認識部は、前記第1探索範囲内で抽出された特徴点のうち、対応する実空間位置の高さが前記所定値以上である特徴点が存在するときに、水平エッジは車両の画像部分であると認識する。この場合、前記第1探索範囲内で抽出された特徴点のうち、対応する実空間位置の高さが前記所定値以下であるもの(路面標識、道路の補修跡等の高さを有しない物体の画像部分から抽出された特徴点が該当する)を除外することができる。そのため、車両以外の平面的な物体を、車両であると誤認識することを防止することができる。   According to the present invention, a horizontal edge is extracted from the captured image of the camera by the horizontal edge extraction unit, and a feature point existing in the first search range set in the upward direction of the horizontal edge is the feature point. Extracted by the extraction unit. The vehicle recognizing unit is configured such that when there is a feature point whose height of the corresponding real space position is equal to or greater than the predetermined value among the feature points extracted within the first search range, the horizontal edge is the vehicle. It is recognized as an image part. In this case, among the feature points extracted in the first search range, the corresponding real space position has a height equal to or lower than the predetermined value (an object having no height such as a road sign or a road repair mark) Can be excluded). Therefore, it is possible to prevent a planar object other than the vehicle from being erroneously recognized as a vehicle.

また、前記車両認識部は、対応する実空間位置の高さが前記所定値以上である前記特徴点が所定個数以上存在するときに、前記水平エッジは車両の画像部分であると認識することを特徴とする。   The vehicle recognizing unit recognizes that the horizontal edge is an image portion of the vehicle when there are a predetermined number or more of the feature points whose corresponding real space positions are higher than the predetermined value. Features.

この構成によれば、水平エッジの画像部分に対応する実空間位置の上方に特徴部分を複数備えた物体を、車両としてより精度良く認識することができる。   According to this configuration, an object having a plurality of characteristic portions above the real space position corresponding to the image portion of the horizontal edge can be recognized more accurately as a vehicle.

また、前記車両認識部は、前記撮像画像において、車両の画像部分であると認識した水平エッジの上方向に設定した第2探索範囲内に存在する他の水平エッジを、該車両の画像部分であると認識することを特徴とする。   In addition, the vehicle recognition unit may detect other horizontal edges existing in the second search range set in the upper direction of the horizontal edge recognized as the image portion of the vehicle in the captured image in the image portion of the vehicle. It is characterized by being recognized.

この構成によれば、車両の画像部分であると認識された水平方向の上方の付近に存在する他の水平エッジ(窓枠や屋根等の画像部分であると想定される)を、同一車両の画像部分として認識することができる。   According to this configuration, another horizontal edge (assumed to be an image portion such as a window frame or a roof) existing in the vicinity of the upper side in the horizontal direction recognized as an image portion of the vehicle is connected to the same vehicle. It can be recognized as an image part.

また、前記車両認識部は、前記第1探索範囲内の前記特徴点の分布に応じて前記第2探索範囲を設定することを特徴とする。   The vehicle recognizing unit may set the second search range according to a distribution of the feature points in the first search range.

この構成によれば、前記第1探索範囲内の前記特徴点の分布から推定される物体の存在位置に応じた適切な範囲を、前記第2探索範囲として設定することができる。   According to this configuration, an appropriate range corresponding to the position of the object estimated from the distribution of the feature points in the first search range can be set as the second search range.

また、前記車両認識部は、前記物体検出装置が使用される国又は地域に応じて、前記第2探索範囲の設定範囲を変更することを特徴とする。   The vehicle recognizing unit may change a setting range of the second search range according to a country or a region where the object detection device is used.

この構成によれば、例えば、前記物体検出装置が大型車の通行量が多い国又は地域で使用されときは、前記第2探索範囲を広く設定し、前記物体検出装置が小型車の通行量が多い国又は地域で使用されるときには、前記第2探索範囲を狭く設定することにより、同一物体の画像部分であると認識される水平エッジを効率良く探索することができる。   According to this configuration, for example, when the object detection device is used in a country or region where the traffic volume of a large vehicle is large, the second search range is set wide, and the object detection device has a large traffic volume of a small vehicle. When used in a country or region, by setting the second search range to be narrow, a horizontal edge that is recognized as an image portion of the same object can be searched efficiently.

物体検出装置の構成図。The block diagram of an object detection apparatus. 車両認識処理のフローチャート。The flowchart of a vehicle recognition process. 車両認識処理における水平エッジと特徴点の抽出の説明図。Explanatory drawing of extraction of the horizontal edge and feature point in a vehicle recognition process.

本発明の物体検出装置の実施形態の一例について、図1〜図3を参照して説明する。   An example of an embodiment of the object detection device of the present invention will be described with reference to FIGS.

図1を参照して、物体検出装置10は、カメラ2(カラーカメラ)、警告制御部3、車両制御部4等を備えた車両1に搭載されている。   Referring to FIG. 1, an object detection device 10 is mounted on a vehicle 1 that includes a camera 2 (color camera), a warning control unit 3, a vehicle control unit 4, and the like.

物体検出装置10は、図示しないCPU、メモリ、各種インターフェース回路等により構成された電子回路ユニットであり、メモリに保持された物体検出用のプログラムをCPUで実行することによって、撮像画像取得部11、水平エッジ抽出部12、特徴点抽出部13、特徴点対応判定部14、3次元座標算出部15、検出対象エッジ選択部16、対象物認識部17、対象物位置算出部18として機能する。   The object detection device 10 is an electronic circuit unit configured by a CPU, a memory, various interface circuits, and the like (not shown). By executing a program for object detection held in the memory by the CPU, the captured image acquisition unit 11, It functions as a horizontal edge extraction unit 12, a feature point extraction unit 13, a feature point correspondence determination unit 14, a three-dimensional coordinate calculation unit 15, a detection target edge selection unit 16, a target object recognition unit 17, and a target object position calculation unit 18.

撮像画像取得部11は、所定の制御周期毎に、カメラ2から出力される車両1の周辺(本実施形態では前方)の映像信号を入力して、この映像信号のカラー成分(R値、G値、B値)をデモザイキングし、各画素のデータとしてR値、G値、B値を有するカラーの時系列の撮像画像を取得する。   The captured image acquisition unit 11 inputs a video signal around the vehicle 1 (forward in this embodiment) output from the camera 2 for each predetermined control cycle, and the color component (R value, G) of the video signal. Value, B value) is obtained, and a color time-series captured image having R value, G value, and B value is obtained as data of each pixel.

水平エッジ抽出部12は、カラーの撮像画像の各画素を階調に変換する処理を行って、グレーの撮像画像(多値画像)21を生成する。このようにして生成された時系列のグレーの撮像画像21(21a,21b,…,21n)のデータは、画像メモリ20に保持される。   The horizontal edge extraction unit 12 performs a process of converting each pixel of the color captured image into a gradation, and generates a gray captured image (multi-valued image) 21. Data of time-series gray captured images 21 (21a, 21b,..., 21n) generated in this way is held in the image memory 20.

なお、カメラ2がモノクロカメラであるときには、各画素の階調からグレースケール画像が得られるので、上述したカラーの撮像画像からグレーの撮像画像21を生成する処理は不要である。   Note that when the camera 2 is a monochrome camera, a grayscale image is obtained from the gradation of each pixel, and thus the process of generating the gray captured image 21 from the color captured image described above is unnecessary.

水平エッジ抽出部12は、グレーの撮像画像21について、エッジ点(周囲部の画素との階調差(階調の変化量)が所定値以上である画素。階調が暗から明に変化する正のエッジ点、及び階調が明から暗に変化する負のエッジ点を含む)を抽出して、水平エッジ(水平方向(図3に示したx方向)に連続したエッジ点により構成される線分)を抽出する。図3のグレーの撮像画像21からは、h1〜h7の7本の水平エッジが抽出されている。   For the gray captured image 21, the horizontal edge extraction unit 12 has an edge point (a pixel whose gradation difference (amount of change in gradation) with a surrounding pixel is greater than or equal to a predetermined value. The gradation changes from dark to bright. A positive edge point and a negative edge point whose gradation changes from light to dark are extracted, and are composed of edge points continuous in a horizontal edge (horizontal direction (x direction shown in FIG. 3)). (Line segment) is extracted. From the gray captured image 21 in FIG. 3, seven horizontal edges h1 to h7 are extracted.

物体検出装置10は、水平エッジ抽出部12により抽出された水平エッジについて、図2に示したフローチャートによる処理(車両認識処理)を行って、各水平エッジが車両(先行車両)の画像部分であるか否かを判断する。以下、図2に示したフローチャートによる処理について、図3に示した撮像画像の例を参照しつつ説明する。   The object detection apparatus 10 performs processing (vehicle recognition processing) according to the flowchart shown in FIG. 2 on the horizontal edge extracted by the horizontal edge extraction unit 12, and each horizontal edge is an image portion of the vehicle (preceding vehicle). Determine whether or not. Hereinafter, the processing according to the flowchart illustrated in FIG. 2 will be described with reference to the example of the captured image illustrated in FIG. 3.

図3に示したグレーの撮像画像21は、水平座標xと垂直座標yによる2次元の画像であり、先行車両の画像部分60、道路の補修跡の画像部分61、及び路肩に存在する物体の影の画像部分62が含まれている。垂直座標yの負方向は本発明の撮像画像における上方向に相当する。   The gray captured image 21 shown in FIG. 3 is a two-dimensional image based on the horizontal coordinate x and the vertical coordinate y. The image portion 60 of the preceding vehicle, the image portion 61 of the road repair trace, and the object existing on the road shoulder. A shadow image portion 62 is included. The negative direction of the vertical coordinate y corresponds to the upward direction in the captured image of the present invention.

図2のSTEP1は検出対象エッジ選択部16による処理である。検出対象エッジ選択部16は、STEP2以下の処理の対象とする水平エッジ(図3ではh1〜h7)を順次選択する。   STEP 1 in FIG. 2 is processing by the detection target edge selection unit 16. The detection target edge selection unit 16 sequentially selects horizontal edges (h1 to h7 in FIG. 3) to be processed in STEP2 and subsequent steps.

続くSTEP2は特徴点抽出部13による処理である。特徴点抽出部13は、選択されている水平エッジの上方に第1探索範囲を設定して、特徴点を抽出する。例えば、図3において、車両の画像部分60の下端に対して抽出された水平エッジh1に対して、h1の上方(y軸の負方向)に第1探索範囲SA1が設定され、第1探索範囲SA1内で5個の特徴点P1〜P5が抽出されている。   The subsequent STEP 2 is processing by the feature point extraction unit 13. The feature point extraction unit 13 sets the first search range above the selected horizontal edge and extracts the feature points. For example, in FIG. 3, the first search range SA1 is set above h1 (the negative direction of the y axis) with respect to the horizontal edge h1 extracted with respect to the lower end of the image portion 60 of the vehicle. Five feature points P1 to P5 are extracted in SA1.

また、道路補修跡の画像部分61の下端に対して抽出された水平エッジh5に対して、h5の上方に第1探索範囲SA2が設定され、第1探索範囲SA2内で2個の特徴点P6,P7が抽出されている。   Further, a first search range SA2 is set above h5 with respect to the horizontal edge h5 extracted with respect to the lower end of the image portion 61 of the road repair trace, and two feature points P6 are set within the first search range SA2. , P7 are extracted.

また、道路脇に存在する物体の影の画像部分62の下端に対して抽出された水平エッジh6に対して、h6の上方に第1探索範囲SA3が設定され、第1探索範囲SA3内で2個の特徴点P8,P9が抽出されている。   In addition, the first search range SA3 is set above h6 with respect to the horizontal edge h6 extracted with respect to the lower end of the shadow image portion 62 of the object existing beside the road, and 2 within the first search range SA3. Feature points P8 and P9 are extracted.

ここで、特徴点としては、コーナー端や矩形等の人工物に特有の形状を有する画像部分が抽出される。   Here, an image portion having a shape unique to an artificial object such as a corner edge or a rectangle is extracted as the feature point.

次のSTEP3は対象物認識部17による処理である。対象物認識部17は、STEP2の処理により所定個数(例えば4個)以上の特徴点が抽出されたか否かを判断する。そして、所定個数以上の特徴点が抽出されなかったときには、選択中の水平エッジは立体物の下端の画像部分ではないと判断できるため、STEP20に分岐し、対象物認識部17は、選択中の水平エッジを車両の検出対象から除外してSTEP8に進む。   The next STEP 3 is processing by the object recognition unit 17. The target object recognition unit 17 determines whether or not a predetermined number (for example, four) or more feature points have been extracted by the processing of STEP2. If a predetermined number or more of feature points are not extracted, it can be determined that the selected horizontal edge is not the image portion at the lower end of the three-dimensional object, so that the process branches to STEP 20, and the object recognition unit 17 The horizontal edge is excluded from the vehicle detection targets, and the process proceeds to STEP8.

一方、所定個数以上の特徴点が抽出されたときにはSTEP4に進み、特徴点対応判定部14及び3次元座標算出部15によって、特徴点に対応する実空間位置の高さ(地表からの高さ)を算出する。   On the other hand, when a predetermined number or more of feature points have been extracted, the process proceeds to STEP 4 where the feature point correspondence determination unit 14 and the three-dimensional coordinate calculation unit 15 determine the height of the real space position corresponding to the feature point (height from the ground surface). Is calculated.

特徴点対応判定部14は、時系列のグレーの撮像画像21a,21b,…間で、第1探索範囲から抽出された複数の特徴点の対応関係を判定する。そして、3次元座標算出部15は、公知のSFM(Structure From Motion)の手法を用いて、複数の時系列画像間における特徴点の対応点群から行列を作成し、特徴点の3次元位置を表す行列とカメラ2の位置を表す行列とに因子分解をして、特徴点に対応する実空間位置の3次元座標(車両1の進行方向をZ、車幅方向をX、車高方向をYとする3次元座標)を算出する。   The feature point correspondence determining unit 14 determines the correspondence relationship between a plurality of feature points extracted from the first search range among the time-series gray captured images 21a, 21b,. Then, the three-dimensional coordinate calculation unit 15 uses a known SFM (Structure From Motion) technique to create a matrix from the corresponding point group of feature points between a plurality of time-series images, and to obtain the three-dimensional position of the feature points. Factoring into a matrix that represents the position of the camera 2 and a matrix that represents the position of the camera 2, the three-dimensional coordinates of the real space position corresponding to the feature point (Z is the traveling direction of the vehicle 1, X is the vehicle width direction, Y is the vehicle height direction) Is calculated).

なお、特徴点対応判定部14と3次元座標算出部15とにより、特徴点に対応する実空間位置を算出する構成が、本発明の実空間位置算出部に相当する。   In addition, the structure which calculates the real space position corresponding to a feature point with the feature point corresponding | compatible determination part 14 and the three-dimensional coordinate calculation part 15 is equivalent to the real space position calculation part of this invention.

対象物認識部17は、特徴点に対応する実空間位置の高さ(Y座標)が閾値(本発明の所定値に相当する)以上であるか否かを判断する。高さが閾値以上であったときには、立体物の画像部分であると判断できる。   The object recognition unit 17 determines whether the height (Y coordinate) of the real space position corresponding to the feature point is equal to or greater than a threshold value (corresponding to a predetermined value of the present invention). When the height is greater than or equal to the threshold, it can be determined that the image portion is a three-dimensional object.

そして、特徴点の高さが閾値以上であったときはSTEP5に進み、対象物認識部17は、選択中の水平エッジを検出対象(車両の画像部分)とする。図3の例では、水平エッジh1に対して抽出された特徴点P1〜P5の高さが閾値以上であると判定されて、水平エッジh1は車両の画像部分であると認識される。   When the height of the feature point is equal to or greater than the threshold value, the process proceeds to STEP 5 where the object recognition unit 17 sets the selected horizontal edge as a detection target (image portion of the vehicle). In the example of FIG. 3, it is determined that the heights of the feature points P1 to P5 extracted with respect to the horizontal edge h1 are equal to or greater than the threshold value, and the horizontal edge h1 is recognized as an image portion of the vehicle.

続くSTEP6で、対象物認識部17は、図3に示したように、水平エッジh1の上側に、第1探索範囲SA1内で抽出された特徴点P1〜P5の分布に応じて、特徴点P1〜P5の位置を外側にオフセットさせた領域を、第2探索領域SB1として設定する。なお、このように、特徴点P1〜P5の位置ぎりぎりではなく、外側にオフセットさせた領域を第2探索領域SB1として設定するのは、特徴点P1〜P5の多くは車両のコーナー部の画像部分であり、特徴点P1〜P5ぎりぎりに第2探索領域SB1を設定すると、第2探索領域SB1からはみ出す水平線の画像部分が多くなって、後述する同一車両の画像部分の水平エッジを除外する処理を効果的に行うことができないからである。   In subsequent STEP 6, as shown in FIG. 3, the object recognizing unit 17 sets the feature point P1 on the upper side of the horizontal edge h1 according to the distribution of the feature points P1 to P5 extracted in the first search range SA1. A region obtained by offsetting the positions of P5 to the outside is set as the second search region SB1. In this way, not the limit of the positions of the feature points P1 to P5 but the area offset outward is set as the second search area SB1 because most of the feature points P1 to P5 are image portions at the corners of the vehicle. When the second search area SB1 is set at the very limit of the feature points P1 to P5, the image portion of the horizontal line that protrudes from the second search area SB1 increases, and processing for excluding the horizontal edge of the image portion of the same vehicle, which will be described later, is performed. This is because it cannot be done effectively.

また、第2探索範囲SB1の設定の仕方として、特徴点P1〜P5間の距離や分布位置を、予め設定された車両の種別判定条件に適用して、特徴点P1〜P5がトラック、バス、乗用車等のいずれの種別の車両の画像部分である可能性が高いかを推定し、推定した種別の車両の標準的なサイズに応じて、第2探索領域SB1の範囲を設定してもよい。   Also, as a method of setting the second search range SB1, the distance between the feature points P1 to P5 and the distribution position are applied to the vehicle type determination conditions set in advance so that the feature points P1 to P5 are trucks, buses, It may be estimated which type of vehicle such as a passenger car is likely to be an image portion, and the range of the second search area SB1 may be set according to the standard size of the estimated type of vehicle.

さらに、物体検出装置10が使用されている国又は地域に応じて、第2探索領域SB1の設定範囲を変更するようにしてもよい。例えば、大型車が多い米国で使用されるときは、小型車が多い日本よりも第2探索領域SB1を広めに設定するようにしてもよい。また、トラックの走行量が多い幹線道で物体検出装置10が使用されているときは、第2探索領域SB1を上方向(実空間上の車両の高さ方向)に広く設定するようにしてもよい。   Furthermore, the setting range of the second search area SB1 may be changed according to the country or region where the object detection device 10 is used. For example, when used in the United States where there are many large vehicles, the second search area SB1 may be set wider than in Japan where there are many small vehicles. In addition, when the object detection device 10 is used on a highway with a large amount of truck travel, the second search area SB1 may be set wide in the upward direction (the height direction of the vehicle in real space). Good.

なお、対象物認識部17が、水平エッジが車両の画像部分であると認識する構成、及び第2探索範囲SB1を設定する構成は、本発明の車両認識部に相当する。   In addition, the structure which the target object recognition part 17 recognizes that a horizontal edge is an image part of a vehicle, and the structure which sets 2nd search range SB1 are equivalent to the vehicle recognition part of this invention.

次のSTEP7で、対象物認識部17は、他の水平エッジの有無を判断し、他の水平エッジがあるときにはSTEP30に分岐し、他の水平エッジがないときにはSTEP8に進む。STEP30で、対象物認識部17は、見つかった水平エッジを検出対象から除外して、STEP8に進む。   In the next STEP 7, the object recognition unit 17 determines the presence or absence of another horizontal edge, branches to STEP 30 when there is another horizontal edge, and proceeds to STEP 8 when there is no other horizontal edge. In STEP 30, the object recognition unit 17 excludes the found horizontal edge from the detection target, and proceeds to STEP 8.

図3の例では、第2探索範囲SB1内で見つかった水平エッジh2、h3、h4が、検出対象から除外される。このように、同一車両の画像部分から抽出されたと想定される水平エッジを検出対象から除外することによって、以後の車両の認識処理を効率良く行うことができる。   In the example of FIG. 3, horizontal edges h2, h3, and h4 found in the second search range SB1 are excluded from detection targets. Thus, by excluding the horizontal edge assumed to be extracted from the image portion of the same vehicle from the detection target, the subsequent vehicle recognition processing can be performed efficiently.

STEP8で、対象物認識部17は、未判定の水平エッジがあるか否かを判断する。そして、未判定の水平エッジがあるときは、STEP1に戻って次の認識対象とする水平エッジを選択し、STEP2以下の処理を実行する。また、未判定の水平エッジがないときにはSTEP9に進んで、処理が終了する。   In STEP 8, the object recognition unit 17 determines whether there is an undetermined horizontal edge. If there is an undetermined horizontal edge, the process returns to STEP 1 to select the next horizontal edge to be recognized, and the processing from STEP 2 onward is executed. Further, when there is no undetermined horizontal edge, the process proceeds to STEP 9 and the process is terminated.

対象物位置算出部18は、対象物認識部17により車両の画像部分であると認識された水平エッジに対応する実空間上の位置から、車両1(自車両)に対する前走車の位置を算出する。そして、物体検出装置10は、必要に応じて、警告制御部3による警告音声の出力と表示部(図示しない)への警告表示、車両制御部4による制動制御、操舵制御等を行う。   The object position calculation unit 18 calculates the position of the preceding vehicle with respect to the vehicle 1 (own vehicle) from the position in the real space corresponding to the horizontal edge recognized as the image portion of the vehicle by the object recognition unit 17. To do. And the object detection apparatus 10 performs the warning sound output by the warning control part 3, the warning display to a display part (not shown), the braking control by the vehicle control part 4, steering control, etc. as needed.

なお、本実施形態では、車両1に搭載されたカメラの撮像画像を処理して車両を認識する物体検出装置10を示したが、他の実施形態として、歩行者が携帯するカメラ内蔵型の情報処理端末(スマートフォン、携帯電話、タブレット等)の機能として構成する実施形態や、道路脇に設置されてカメラの撮像画像により道路状況を認識する交通インフラ設備の機能として構成する実施形態も可能である。   In the present embodiment, the object detection device 10 that recognizes the vehicle by processing a captured image of the camera mounted on the vehicle 1 is shown. However, as another embodiment, information of a camera built-in type that a pedestrian carries. An embodiment configured as a function of a processing terminal (smart phone, mobile phone, tablet, etc.) or an embodiment configured as a function of a traffic infrastructure facility that is installed beside a road and recognizes a road situation from a captured image of a camera is also possible. .

1…車両、2…カメラ、3…警告制御部、4…車両制御部、10…物体検出装置、11…撮像画像取得部、12…水平エッジ抽出部、13…特徴点抽出部、14…特徴点対応判定部、15…3次元座標算出部、16…検出対象エッジ選択部、17…対象物認識部、18…対象物位置算出部。   DESCRIPTION OF SYMBOLS 1 ... Vehicle, 2 ... Camera, 3 ... Warning control part, 4 ... Vehicle control part, 10 ... Object detection apparatus, 11 ... Captured image acquisition part, 12 ... Horizontal edge extraction part, 13 ... Feature point extraction part, 14 ... Feature Point correspondence determination unit, 15 ... three-dimensional coordinate calculation unit, 16 ... detection target edge selection unit, 17 ... target object recognition unit, 18 ... target object position calculation unit.

Claims (5)

周辺を撮像するカメラによる撮像画像から、水平エッジを抽出する水平エッジ抽出部と、
前記撮像画像において、前記水平エッジの上方向に設定した第1探索範囲内に存在する特徴点を抽出する特徴点抽出部と、
前記特徴点に対応する実空間位置の高さを算出する実空間位置算出部と、
対応する実空間位置の高さが所定値以上である前記特徴点が存在するときに、前記水平エッジは車両の画像部分であると認識する車両認識部と
を備えたことを特徴とする物体検出装置。
A horizontal edge extraction unit that extracts a horizontal edge from an image captured by a camera that images the periphery;
In the captured image, a feature point extraction unit that extracts a feature point existing in a first search range set in the upward direction of the horizontal edge;
A real space position calculation unit for calculating the height of the real space position corresponding to the feature point;
An object detection comprising: a vehicle recognition unit for recognizing that the horizontal edge is an image portion of a vehicle when the corresponding feature point having a height of a corresponding real space position equal to or greater than a predetermined value exists apparatus.
請求項1に記載の物体検出装置において、
前記車両認識部は、対応する実空間位置の高さが前記所定値以上である前記特徴点が所定個数以上存在するときに、前記水平エッジは車両の画像部分であると認識することを特徴とする物体検出装置。
The object detection apparatus according to claim 1,
The vehicle recognizing unit recognizes that the horizontal edge is an image portion of a vehicle when there are a predetermined number or more of feature points whose corresponding real space positions are equal to or higher than the predetermined value. Object detection device.
請求項1又は請求項2に記載の物体検出装置において、
前記車両認識部は、前記撮像画像において、車両の画像部分であると認識した水平エッジの上方向に設定した第2探索範囲内に存在する他の水平エッジを、該車両の画像部分であると認識することを特徴とする物体検出装置。
In the object detection device according to claim 1 or 2,
In the captured image, the vehicle recognizing unit determines that another horizontal edge existing in the second search range set above the horizontal edge recognized as the image portion of the vehicle is the image portion of the vehicle. An object detection device characterized by recognition.
請求項3に記載の物体検出装置において、
前記車両認識部は、前記第1探索範囲内の前記特徴点の分布に応じて前記第2探索範囲を設定することを特徴とする物体検出装置。
The object detection device according to claim 3,
The vehicle recognition unit sets the second search range according to a distribution of the feature points in the first search range.
請求項3又は請求項4に記載の物体検出装置において、
前記車両認識部は、前記物体検出装置が使用される国又は地域に応じて、前記第2探索範囲の設定範囲を変更することを特徴とする物体検出装置。
In the object detection device according to claim 3 or 4,
The vehicle recognition unit changes the setting range of the second search range according to a country or a region where the object detection device is used.
JP2014179816A 2014-09-04 2014-09-04 Object detection device Expired - Fee Related JP6134693B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014179816A JP6134693B2 (en) 2014-09-04 2014-09-04 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014179816A JP6134693B2 (en) 2014-09-04 2014-09-04 Object detection device

Publications (2)

Publication Number Publication Date
JP2016053867A true JP2016053867A (en) 2016-04-14
JP6134693B2 JP6134693B2 (en) 2017-05-24

Family

ID=55745285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014179816A Expired - Fee Related JP6134693B2 (en) 2014-09-04 2014-09-04 Object detection device

Country Status (1)

Country Link
JP (1) JP6134693B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09259287A (en) * 1996-03-25 1997-10-03 Fujitsu Ten Ltd Precedent vehicle recognition device
JP2004355139A (en) * 2003-05-27 2004-12-16 Nissan Motor Co Ltd Vehicle recognition system
JP2007316856A (en) * 2006-05-24 2007-12-06 Sumitomo Electric Ind Ltd Traveling object detecting device, computer program, and traveling object detection method
JP2013058199A (en) * 2011-09-07 2013-03-28 Ricoh Co Ltd Method and system for detecting vehicle position by employing polarization image
JP2013235422A (en) * 2012-05-09 2013-11-21 Denso Corp Vehicle detection device
JP2014135062A (en) * 2014-02-07 2014-07-24 Fuji Heavy Ind Ltd Vehicle detector

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09259287A (en) * 1996-03-25 1997-10-03 Fujitsu Ten Ltd Precedent vehicle recognition device
JP2004355139A (en) * 2003-05-27 2004-12-16 Nissan Motor Co Ltd Vehicle recognition system
JP2007316856A (en) * 2006-05-24 2007-12-06 Sumitomo Electric Ind Ltd Traveling object detecting device, computer program, and traveling object detection method
JP2013058199A (en) * 2011-09-07 2013-03-28 Ricoh Co Ltd Method and system for detecting vehicle position by employing polarization image
JP2013235422A (en) * 2012-05-09 2013-11-21 Denso Corp Vehicle detection device
JP2014135062A (en) * 2014-02-07 2014-07-24 Fuji Heavy Ind Ltd Vehicle detector

Also Published As

Publication number Publication date
JP6134693B2 (en) 2017-05-24

Similar Documents

Publication Publication Date Title
CN107392103B (en) Method and device for detecting road lane line and electronic equipment
CN107341454B (en) Method and device for detecting obstacles in scene and electronic equipment
CN106951879B (en) Multi-feature fusion vehicle detection method based on camera and millimeter wave radar
Wu et al. Lane-mark extraction for automobiles under complex conditions
US9330320B2 (en) Object detection apparatus, object detection method, object detection program and device control system for moveable apparatus
US8976999B2 (en) Vehicle detection apparatus
JP6662388B2 (en) Image processing device, imaging device, device control system, distribution data generation method, and program
US11527077B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
JP5747549B2 (en) Signal detector and program
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
US20160014406A1 (en) Object detection apparatus, object detection method, object detection program, and device control system mountable to moveable apparatus
KR20180056685A (en) System and method for non-obstacle area detection
JP5223675B2 (en) Vehicle detection device, vehicle detection method, and vehicle detection program
JP4416039B2 (en) Striped pattern detection system, striped pattern detection method, and striped pattern detection program
US20150367781A1 (en) Lane boundary estimation device and lane boundary estimation method
CN103927526A (en) Vehicle detecting method based on Gauss difference multi-scale edge fusion
JP2014115978A (en) Mobile object recognition device, notification apparatus using the device, mobile object recognition program for use in the mobile object recognition device, and mobile object with the mobile object recognition device
Arenado et al. Monovision‐based vehicle detection, distance and relative speed measurement in urban traffic
KR20140030636A (en) Traffic lane correction system, traffic lane correction apparatus and correction method
CN107977654B (en) Road area detection method, device and terminal
CN111971682A (en) Road surface detection device, image display device using road surface detection device, obstacle detection device using road surface detection device, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method
KR101342124B1 (en) A front vehicle detecting and tracking system using the image and detecting and tracking method using the same
CN111881832A (en) Lane target detection method, device, equipment and computer readable storage medium
Chang et al. An efficient method for lane-mark extraction in complex conditions
JP2014106739A (en) In-vehicle image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170424

R150 Certificate of patent or registration of utility model

Ref document number: 6134693

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees