JP2009044631A - Object detection device - Google Patents
Object detection device Download PDFInfo
- Publication number
- JP2009044631A JP2009044631A JP2007209650A JP2007209650A JP2009044631A JP 2009044631 A JP2009044631 A JP 2009044631A JP 2007209650 A JP2007209650 A JP 2007209650A JP 2007209650 A JP2007209650 A JP 2007209650A JP 2009044631 A JP2009044631 A JP 2009044631A
- Authority
- JP
- Japan
- Prior art keywords
- luminance
- region
- unit
- illuminator
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、物体を検出する物体検出装置に関するものである。 The present invention relates to an object detection device that detects an object.
従来、周囲の物体を検出する装置は、車両の走行支援に活用されている。例えば、夜間などにおいて、運転者が見えにくい部分を映像化し、運転者の視覚を支援する装置に用いられている。このような装置として、撮像した画像から形状に基づいて歩行者を抽出しアラーム音で警告すると共に、抽出した歩行者を強調して映像化する物体検出装置が知られている(例えば、特許文献1参照)。
しかしながら、従来の装置においては、運転者が目視できる物体に対しても警告処理が行われるため、運転者にとって注意喚起が煩わしい場合がある。また、照明器を点灯していない自転車など、目視し難く注意喚起が必要な物体を優先して強調することが困難である。 However, in the conventional apparatus, warning processing is also performed on an object that can be visually recognized by the driver, and thus it may be troublesome for the driver to call attention. In addition, it is difficult to prioritize and emphasize objects that are difficult to see and need attention, such as bicycles that are not lit.
そこで本発明は、このような技術課題を解決するためになされたものであって、運転者が目視し易い物体と目視し難い物体とを識別して物体検出を行う物体検出装置を提供することを目的とする。 Accordingly, the present invention has been made to solve such a technical problem, and provides an object detection device that performs object detection by identifying an object that is easy for the driver to see and an object that is difficult to see. With the goal.
すなわち、本発明に係る物体検出装置は、車載された撮像手段によって撮像した画像の画像情報の中から物体を検出する物体検出手段と、前記画像情報の中から所定の輝度より大きな輝度を有する高輝度領域を抽出し、高輝度体として検出する高輝度体検出手段と、前記物体の検出結果と前記高輝度体の検出結果とに基づいて、前記高輝度体が付随する前記物体と前記高輝度体が付随しない前記物体とを識別する識別手段とを備えて構成される。 That is, an object detection device according to the present invention includes an object detection unit that detects an object from image information of an image captured by an on-vehicle imaging unit, and a high brightness that is greater than a predetermined luminance from the image information. A high-brightness body detection unit that extracts a brightness region and detects it as a high-brightness body, and based on the detection result of the object and the detection result of the high-brightness body, the object and the high brightness And an identification means for identifying the object not accompanied by a body.
この発明によれば、撮像した画像情報の中から、所定の輝度より大きな輝度を有する高輝度領域を抽出して高輝度体として検出し、物体に高輝度体が付随しているか否かを識別することができる。これにより、高輝度体が付随している物体、すなわち運転者が比較的目視し易い物体と、高輝度体が付随していない物体、すなわち比較的目視し難い物体とを識別することができる。 According to the present invention, a high-brightness area having a brightness greater than a predetermined brightness is extracted from the captured image information and detected as a high-brightness body, and whether or not the object is accompanied by a high-brightness body is identified. can do. As a result, it is possible to distinguish between an object accompanied by a high-luminance body, that is, an object that is relatively easy for the driver to visually recognize, and an object not accompanied by the high-luminance body, that is, an object that is relatively difficult to view.
ここで、物体検出装置は、前記高輝度体が付随する前記物体の存在よりも、前記高輝度体が付随していない前記物体の存在を強調して運転者に報知し車両の運転支援を行う運転支援手段を備えることが好適である。 Here, the object detection device emphasizes the presence of the object not accompanied by the high-luminance body rather than the presence of the object accompanied by the high-luminance body, and notifies the driver to provide driving assistance for the vehicle. It is preferable to provide driving support means.
このように構成することで、高輝度体が付随していない物体の存在が、高輝度体が付随している物体の存在よりも強調して運転者に報知し車両の運転支援を行うことができるため、運転者は比較的目視し難い物体の存在を迅速に認識することができる。 By configuring in this way, the presence of an object not accompanied by a high-luminance body can be emphasized over the presence of an object accompanied by a high-luminance body and the driver can be notified to provide driving assistance for the vehicle. Therefore, the driver can quickly recognize the presence of an object that is relatively difficult to see.
また、物体検出装置は、前記高輝度体が付随する前記物体を、運転支援の対象から除外して運転支援を行う運転支援手段を備えてもよい。 In addition, the object detection device may include driving support means that performs driving support by excluding the object accompanied by the high-luminance body from a target of driving support.
このように構成することで、高輝度体が付随する物体を、運転支援の対象から除外することができるため、運転者は既に認識している物体の存在を報知されることが無いので、運転者が煩わしく感じることを回避することができる。 By configuring in this way, an object accompanied by a high-luminance body can be excluded from the target of driving support, so the driver is not notified of the presence of an already recognized object. It can be avoided that the person feels bothersome.
また、物体検出装置は、前記画像の撮像方向に向けて所定の投光時間で投光する投光手段を備え、前記撮像手段は、前記投光時間より撮像時間を長くすることが好適である。 The object detection device preferably includes a light projecting unit that projects light in a predetermined light projecting direction toward the image capturing direction, and the image capturing unit preferably has a longer image capturing time than the light projecting time. .
このように構成することで、撮像手段の撮像時間を投光手段の投光時間よりも長くすることができるため、自ら発光していない物体は投光手段で投光されたタイミングの静止画像として、自ら発光している物体は撮像時間の間の動作の軌跡を示す画像として撮像することができる。これにより、自ら発光している高輝度体と瞬間的に反射した物体とを区別することができるため、高輝度体が照明器であるか否かを識別することができる。 With this configuration, the imaging time of the imaging unit can be made longer than the projection time of the light projecting unit, so that an object that does not emit light as a still image at the timing when it is projected by the light projecting unit. An object that emits light can be captured as an image showing a trajectory of an operation during the imaging time. This makes it possible to distinguish between a high-luminance body that emits light and an object that is instantaneously reflected, so that it is possible to identify whether the high-luminance body is an illuminator.
また、投光手段を備える物体検出装置は、前記高輝度領域の特徴量を導出する特徴量導出手段と、前記物体に対応する領域と前記高輝度領域とが互いに接触しているか否かを判定する接触判定手段と、前記接触判定手段によって前記物体に対応する領域と前記高輝度領域とが互いに接触していると判定した場合には、前記特徴量に基づいて、前記高輝度体が照明器であるか否かを判定する照明器判定手段とを備えることが好適である。 In addition, the object detection apparatus including the light projecting unit determines whether the feature amount deriving unit that derives the feature amount of the high brightness area, and whether the area corresponding to the object and the high brightness area are in contact with each other. If the contact determination unit determines that the region corresponding to the object and the high brightness region are in contact with each other, the high brightness body is an illuminator based on the feature amount. It is preferable to include an illuminator determination unit that determines whether or not.
このように構成することで、高輝度領域の特徴量を導出し、物体に対応する領域と高輝度領域とが互いに接触しているか否かを判定し、接触していると判定した場合には、高輝度領域の特徴量に基づいて、高輝度領域に対応する高輝度体が照明器であるか否かを判定することができる。これにより、高輝度体が照明器であるか否かをより精度よく判定することができる。 With this configuration, the feature amount of the high brightness area is derived, it is determined whether the area corresponding to the object and the high brightness area are in contact with each other, and if it is determined that they are in contact Based on the feature quantity of the high luminance area, it can be determined whether or not the high luminance body corresponding to the high luminance area is an illuminator. Thereby, it can be determined more accurately whether the high-luminance body is an illuminator.
また、投光手段を備える物体検出装置において、前記特徴量導出手段は、前記特徴量として前記高輝度領域の面積を算出し、前記照明器判定手段は、前記物体に対応する領域と前記高輝度領域との面積比に基づいて、前記高輝度体が照明器であるか否かを判定することが好適である。 In the object detection apparatus including the light projecting unit, the feature amount deriving unit calculates an area of the high luminance region as the feature amount, and the illuminator determining unit is configured to calculate the region corresponding to the object and the high luminance region. It is preferable to determine whether or not the high-luminance body is an illuminator based on an area ratio with the region.
このように構成することで、特徴量として高輝度領域の面積を算出し、物体に対応する面積と高輝度領域の面積との比に基づいて、高輝度体が照明器であるか否かを判定することができる。これにより、高輝度体が照明器であるか否かを一層精度よく判定することができる。 By configuring in this way, the area of the high luminance area is calculated as the feature amount, and whether or not the high luminance body is an illuminator is determined based on the ratio of the area corresponding to the object and the area of the high luminance area. Can be determined. Thereby, it can be determined with higher accuracy whether or not the high-luminance body is an illuminator.
さらに、投光手段を備える物体検出装置は、前記高輝度領域の軌跡の形状に基づいて前記画像の消失点の位置を決定する消失点決定手段と、前記消失点の位置と車両の所定のピッチ角度における消失点の位置とを比較して前記車両のピッチ角度を算出するピッチ角度算出手段と、前記ピッチ角度に基づいて前記画像情報の探索する範囲を限定する範囲限定手段とを備えて構成されることが好ましい。 Further, the object detection device comprising the light projecting means includes vanishing point determining means for determining the position of the vanishing point of the image based on the shape of the locus of the high luminance region, the position of the vanishing point and a predetermined pitch of the vehicle A pitch angle calculating unit that calculates the pitch angle of the vehicle by comparing the position of the vanishing point in the angle, and a range limiting unit that limits a search range of the image information based on the pitch angle. It is preferable.
このように構成することで、高輝度領域に基づいて画像の消失点の位置を決定し、決定した消失点の位置と、所定のピッチ角度における消失点の位置とを比較して車両のピッチ角度を算出することができる。また、算出したピッチ角度に基づいて画像情報の探索する範囲を限定することができるため、物体に対応する領域や高輝度領域の抽出を的確かつ迅速に行うことができる。 With this configuration, the position of the vanishing point of the image is determined based on the high luminance area, and the position of the vanishing point determined is compared with the position of the vanishing point at a predetermined pitch angle. Can be calculated. Further, since the search range of the image information can be limited based on the calculated pitch angle, the region corresponding to the object and the high luminance region can be extracted accurately and quickly.
本発明によれば、運転者が目視し易い物体と目視し難い物体とを識別して物体検出することができる。 According to the present invention, an object can be detected by identifying an object that is easy for the driver to see and an object that is difficult to see.
以下、添付図面を参照して本発明の実施の形態を詳細に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.
まず、本実施形態に係る物体検出装置1の構成について、図1を用いて説明する。図1は、本実施形態の物体検出装置1の構成図である。本実施形態に係る物体検出装置1は、撮像した画像情報の中から特定物体を検出する装置であって、例えば、夜間の車両の運転において、歩行者や自転車を検知して運転支援を行う運転支援システムに好適に用いられるものである。
First, the configuration of the
図1に示すように、物体検出装置1は、情報取得部50、ECU10及び情報提供部30を備えている。ここで、ECU(Electronic Control Unit)とは、電子制御する自動車デバイスのコンピュータであり、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、および入出力インターフェイスなどを備えて構成されている。
As shown in FIG. 1, the
情報取得部50は、車両周辺の情報を取得する機能を有しており、撮像部(撮像手段)21、投光器(投光手段)22及び車速センサ53を備えて構成される。
The
撮像部51は、主に車両進行方向の画像情報を取得する機能を有している。また、撮像部51は、ECU10から入力した信号に基づいて撮像時間を変化させて画像情報を取得する機能を有している。撮像部51としては、例えば近赤外線カメラが用いられる。また、撮像部51は、撮像した画像情報をECU10へ出力する機能を有している。
The
投光器52は、撮像部51が撮像する方向に投光する機能を有している。また、投光器52は、ECU10から入力した信号に基づいて投光時間を変化させる機能を有している。投光器52は、例えば近赤外線を投光するストロボが用いられる。なお、投光器52として、可視光、赤外線又は紫外線などを投光するものを用いる場合もある。
The
車速センサ53は、車輪速パルスを検出するセンサであり、例えば、車輪の回転による磁束変化を検出することで車輪の回転を検出し、車両の速度を取得する。車速センサ53は、取得した車速をECU10へ出力する機能を有している。 The vehicle speed sensor 53 is a sensor that detects a wheel speed pulse. For example, the vehicle speed sensor 53 detects the rotation of the wheel by detecting a change in magnetic flux due to the rotation of the wheel, and acquires the speed of the vehicle. The vehicle speed sensor 53 has a function of outputting the acquired vehicle speed to the ECU 10.
ECU10は、同期制御部11、情報入力部12、高輝度領域抽出部(高輝度体検出手段)13、特徴量導出部(特徴量導出手段)14、消失点導出部(消失点決定手段)15、ピッチ角度算出部(ピッチ角度算出手段)16、探索範囲限定部(範囲限定手段)17、物体領域抽出部(物体検出手段)18、接触判定部(接触判定手段、識別手段)19、照明器判定部(照明器判定手段)20、物体識別部(識別手段)21、出力部(運転支援手段)22を備えて構成される。
The ECU 10 includes a
同期制御部11は、撮像部51の撮像時間及び投光器52の投光時間を制御する機能を有している。同期制御部11は、撮像部51及び投光器52へ同期信号を出力して撮像時間及び投光時間を制御する。また、同期制御部11は、車速センサ53から車速を入力し、入力した車速に基づいて撮像時間及び投光時間を制御する機能を有している。なお、車速に基づいた同期制御の機能は、必ずしも必要な機能ではなく、個々の車両への要求に応じて備えればよい。さらに、同期制御部11は、撮像部51で撮像した画像情報の入力タイミングを情報入力部12へ出力する機能を有している。
The
情報入力部12は、同期制御部11から入力した画像情報の入力タイミングに基づいて撮像部51で撮像した画像情報を入力する機能を有している。また、情報入力部12は、入力した画像情報を高輝度領域抽出部13へ出力する機能を有している。
The
高輝度領域抽出部13は、画像情報の輝度を入力し、所定の輝度より大きな輝度を持つ画素を抽出する機能を有している。高輝度領域抽出部13は、情報入力部12から入力した画像情報の各画素に対して所定の輝度より大きいか否かを判定し、所定の輝度より大きいと判断した場合には、その画素は高輝度であることを示す高輝度フラグを付与し、付与した高輝度フラグに基づいて高輝度領域に関する情報のみを画像情報から抽出する機能を有している。高輝度フラグの付与は、例えば、所定のメモリ領域において、情報ビットを0から1に変更することによって行う。また、高輝度領域抽出部13は、画像情報を探索範囲限定部17へ出力すると共に、抽出した高輝度領域に関する情報を特徴量導出部14へ出力する機能を有している。
The high brightness
特徴量導出部14は、高輝度領域抽出部13から高輝度領域に関する情報を入力し、入力した高輝度領域の特徴量を導出する機能を有している。特徴量導出部14は、高輝度領域の慣性主軸を導出し、高輝度領域の面積、面積重心位置、慣性主軸の長軸長、画像水平線に対する角度、慣性主軸の短軸長、周囲長等を特徴量として導出する。また、特徴量導出部14は、導出した特長量を消失点導出部15へ出力する機能を有している。
The feature
消失点導出部15は、特徴量導出部14から入力した特長量に基づいて画像の消失点を導出する機能を有している。消失点導出部15は、高輝度領域の慣性主軸の長軸を通る直線を高輝度領域ごとに算出し、各直線が交わる点の位置(最尤交点の位置)を導出する。この最尤交点の位置を算出する方法として、例えば投票法が用いられる。算出した最尤交点は画像の消失点となる。また、消失点導出部15は、導出した最尤交点の位置をピッチ角度導出部16へ出力する機能を有している。
The vanishing
ピッチ角度算出部16は、消失点導出部15から入力した最尤交点(消失点)を用いて車両のピッチ角度を算出する機能を有している。ピッチ角度算出部16は、最尤交点の位置と、所定のピッチ角度の時に撮像した画像の消失点の位置との差に基づいて車両のピッチ角度を算出する。また、ピッチ角度導出部16は、算出したピッチ角度を探索範囲限定部17へ出力する機能を有している。
The pitch
探索範囲限定部17は、高輝度領域抽出部13から入力した画像情報と、ピッチ角度算出部16から入力したピッチ角度に基づいて、道路平面の位置を推定し、歩行者等の物体検出処理の探索範囲を設定する機能を有している。また、探索範囲限定部17は、画像情報、高輝度領域の特長量、及び限定した探索範囲に関する情報を物体領域抽出部18へ出力する機能を有している。
The search
物体領域抽出部18は、探索範囲限定部17で限定した画像範囲の中から、歩行者等の物体と対応する領域、すなわち物体領域を抽出する機能を有している。物体領域の抽出には、例えば、正規化相関を用いたテンプレートマッチング、ニューラルネットワーク、又はSVM(Support Vector Machine)などの画像認識技術が用いられる。また、物体領域抽出部18は、抽出した物体領域のそれぞれに対応したID番号、位置情報、縦幅の情報、横幅の情報及び属性情報などの検知物体情報を作成する。さらに、物体領域抽出部18は、画像情報、高輝度領域の特長量、及び物体領域に関する情報を接触判定部19へ出力する機能を有している。
The object
接触判定部19は、物体領域抽出部18から入力した高輝度領域の特長量、及び物体領域に関する情報に基づいて、高輝度領域の最尤交点側の端と物体領域とが接触しているか否かを判定する機能を有している。また、接触判定部19は、画像情報及び判定結果を照明器判定部20へ出力する機能を有している。
The contact determination unit 19 determines whether the end of the high luminance region on the maximum likelihood intersection side and the object region are in contact with each other based on the feature amount of the high luminance region input from the object
照明器判定部20は、接触判定部19から入力した判定結果に基づいて、高輝度領域が照明器であるか否かを判定する機能を有している。照明器判定部20は、高輝度領域と物体領域とが接触していると判定された高輝度領域について、接触する物体と高輝度領域との面積比、高輝度領域の複雑度、慣性主軸(長軸)の方向の条件などを用いて照明器らしさの判定を行う機能を有している。また、照明器判定部20は、画像情報及び判定結果を物体識別部21へ出力する機能を有している。
The
物体識別部21は、照明器判定部20から入力した判定結果に基づいて、照明器を保有している物体と、照明器を保有していない物体とを識別する機能を有している。また、物体識別部21は、照明器を有している物体に関する検知物体情報を除外する機能を有している。除外の方法は、検知物体情報から照明器を有している物体に関する検知物体情報そのものを削除する方法であっても良いし、検知物体情報の属性情報に無効情報である旨を記録する方法であっても良い。物体識別部21は、画像情報及び識別した検知物体情報を出力部22へ出力する機能を有している。
Based on the determination result input from the
出力部22は、物体識別部21から入力した画像情報及び識別した検出物体情報に基づいて情報提供部30へ運転支援命令を出力する機能を有している。
The
情報提供部30は、ECU10から得られた情報に基づいて運転者に情報提供する機能を有しており、例えば、ディスプレイ31やスピーカー32から構成される。
The
次に、本実施形態に係る物体検出装置1の動作について、図2〜17を用いて説明する。図2〜5は、本実施形態に係る物体検出装置1の動作を示すフローチャート、図6は、投光時間と撮像時間との関係を示す概要図、図7は、先幕シンクロかつスローシンクロを用いた場合の画像の一例、図8〜17は、本実施形態に係る物体検出装置1の動作を説明するための概要図である。
Next, operation | movement of the
まず、図2及び図3を用いて物体検出装置1の動作について説明する。図2及び図3は、例えば、車両に運転支援ボタンを備え、その運転支援ボタンをONされたタイミングで開始され、所定の間隔で繰り返し実行される。
First, the operation of the
物体検出装置1は、車速入力処理から開始する(S10)。S10の処理は、車速センサ53及び同期制御部11で実行され、車速をECU10に入力する処理である。S10の処理が終了すると、投光パルス出力処理へ移行する(S12)。
The
S12の処理は、同期制御部11及び投光器52で実行され、投光器52の発光を行うための投光パルスを出力する処理である。同期制御部11は、例えば、図6の(b)に示すように、投光器52がON状態の時に発光され、投光器52がOFF状態の時に発光されないとすると、ON状態とOFF状態が所定の間隔で繰り返されるパルスを出力する。投光器52がON状態となるパルスの時間長、すなわち繰り返しの投光時間は、撮像部51の繰り返しの撮像時間よりも短い時間であり、ここでは5msecとする。S12の処理が終了すると、画像撮像処理へ移行する(S14)。
The process of S <b> 12 is a process that is executed by the
S14の処理は、同期制御部11及び撮像部51で実行され、撮像時間長を決定し、画像を撮像する処理である。同期制御部11は、例えば、図6の(a)に示すように、撮像部51の撮像ボタンがON状態の時に撮像部51の撮像が開始され、撮像部51の撮像ボタンがOFF状態の時に撮像部51の撮像が終了するとした場合、ON状態とOFF状態が所定の間隔で繰り返されるパルスを出力する。また、撮像部51の撮像ボタンがON状態となる時間長、すなわち撮像時間長は投光器52の投光時間よりも長い時間であり、いわゆるスローシンクロである。ここでは撮像時間長を100msecとする。さらに、同期制御部11は、撮像時間の開始タイミングを、投光器52の投光開始タイミングと同期するように制御する。このように、撮像時間の開始タイミングと投光タイミングとを同期して撮像する、いわゆる先幕シンクロを行う場合において、投光時間に比べて撮像時間を充分長くすると、図7に示すように、投光器52が投光した光の反射光によって撮像された静止画と、自ら発光する物体が撮像時間の間に移動した軌跡を示す画像とを合成した画像を撮像することができる。図7においては、例えば、バイク40、乗員41及び木42等は投光器52で投光したタイミングの位置の静止画であり、バイク40のヘッドライト43は、撮像時間の間に移動した軌跡44として撮像されて表示される。このように、S14の処理では、同期制御部11が投光器52及び撮像部51を制御して画像を撮像し、撮像した画像情報を情報入力部12へ出力する。S14の処理が終了すると、輝度値判定処理へ移行する(S16)。
The process of S14 is executed by the
S16の処理は、高輝度領域抽出部13で実行され、入力した画像の輝度値を判定する処理である。高輝度領域抽出部13は、入力した画像情報の画素情報を入力し、所定の輝度値よりも大きいか否かを判定する。画素情報の入力は、例えば位置情報である座標の小さいものから実行される。また、所定の輝度値の一例として、輝度値0〜255の256階調のうち、ここでは230が設定される。S16の処理において、所定の輝度値より大きいと判定した場合には、高輝度フラグ付与処理へ移行する(S18)。一方、S16の処理において、所定の輝度値より大きくないと判定した場合には、全範囲の実施判定処理へ移行する(S20)。
The process of S16 is a process executed by the high brightness
S18の処理は、高輝度領域抽出部13で実行され、S16の処理で判定した画素情報が高輝度であることを示す高輝度フラグを、判定した画素情報に付与する処理である。高輝度フラグの付与は、例えば所定のメモリ領域において、情報ビットを0から1へ変更することによって行われる。S18の処理が終了すると、全範囲実施判定処理へ移行する(S20)。
The process of S18 is a process that is executed by the high-intensity
S20の処理は、画像の全範囲の画素情報についてS16の処理を実行したか否かを判定する処理である。S20の処理において、全範囲の画素情報について判定されていない場合には、再度S16の処理へ移行する。一方、S20の処理において、全範囲の画素情報について判定した場合には、高輝度画素抽出処理へ移行する(S22)。 The process of S20 is a process of determining whether or not the process of S16 has been executed for the pixel information of the entire range of the image. In the process of S20, when the pixel information of the entire range has not been determined, the process proceeds to S16 again. On the other hand, in the process of S20, when the pixel information of the entire range is determined, the process proceeds to a high luminance pixel extraction process (S22).
S22の処理は、高輝度領域抽出部13で実行され、S18の処理で高輝度フラグを付与された画素のみを抽出する処理である。例えば、S14の処理で入力した画像が図8で示す画像であるとすると、高輝度領域に該当する画素のみを抽出した画像は、図9で示す画像となる。S22の処理が終了すると、高輝度領域のID付与処理へ移行する(S24)。
The process of S22 is a process that is executed by the high brightness
S24の処理は、高輝度領域抽出部13で実行され、S22の処理で抽出した画素から構成される高輝度領域のそれぞれにIDを付与する処理である。高輝度領域抽出部13は、S22の処理で抽出した画素の連結性を確認し、図10に示すように高輝度領域ごとにIDを付与する。IDは例えば数字であり、高輝度領域は付与されたIDを用いて、例えばKj(j:自然数)のように識別される。S24の処理が終了すると、特徴量導出処理へ移行する(S26)。
The process of S24 is a process that is executed by the high-intensity
S26の処理は、特徴量導出部14で実行され、S24の処理でIDを付与した各高輝度領域Kjの特徴量を導出する処理である。高輝度領域Kjの特徴量について、図11を用いて説明する。図11は図10の高輝度領域K1の特徴量について図示した概要図であり、特徴量は高輝度領域の大きさ、向きを含む情報である。例えば、特長量として高輝度領域K1の面積S1、面積重心位置(X1、Y1)、慣性主軸の長軸長L1、画像水平線に対する角度α1、慣性主軸の短軸長M1、周囲長C1等を含む情報を導出する。特徴量導出部14は、各高輝度領域Kjについて、高輝度領域Kjの面積Sj、面積重心位置(Xj、Yj)、慣性主軸の長軸長Lj、画像水平線に対する角度αj、慣性主軸の短軸長Mj、周囲長Cj等を導出して特徴量とする。S26の処理が終了すると、最尤交点導出処理へ移行する(S28)。
The process of S26 is a process that is executed by the feature
S28の処理は、消失点導出部15で実行され、S26の処理で導出した高輝度領域Kjの特長量に基づいて消失点を導出する処理である。消失点導出部15は、図12に示すように、各高輝度領域Kjの慣性主軸を延長して交わる最尤交点Pfを導出する。この最尤交点Pfは投票法等で決定される。また、導出した最尤交点Pfは、画像の消失点となる。S28の処理が終了すると、ピッチ角度導出処理へ移行する(S30)。
Processing of S28 is executed by the vanishing
S30の処理は、ピッチ角度算出部16で実行され、S28で導出した最尤交点(消失点)Pfから自車両のピッチ角度を算出する処理である。最尤交点Pfの時のピッチ角度をβとし、図13に示すように、消失点のY軸座標値をYb、ピッチ角度が0°の時の消失点のY座標値をY0とすると、画像の縦視野角度Θ及び縦画素数nを用いて、自車両のピッチ角度βは式(1)で算出することができる。
Processing step S30 is performed by the
β=(Yb−Y0)・Θ/n …(1) β = (Y b −Y 0 ) · Θ / n (1)
S30の処理が終了すると、探索範囲の限定処理へ移行する(S32)。 When the processing of S30 ends, the process proceeds to search range limitation processing (S32).
S32の処理は、探索範囲限定部17で実行され、S30の処理で算出したピッチ角度βに基づいて道路平面の位置を推定し、物体を探索する画像範囲を限定する処理である。探索範囲限定部17は、例えば図14に示すように、ピッチ角度0°の時の探索範囲を基準として、ピッチ角度βの分だけ上方に探索範囲をシフトさせる。S32の処理が終了すると、物体領域の抽出処理へ移行する(S34)。
The process of S32 is executed by the search
S34の処理は、物体領域抽出部18で実行され、S32の処理で得られた画像の探索範囲内にある物体に対応する物体領域を抽出する処理である。ここでは、検出する物体を歩行者とする。物体領域抽出部18は、テンプレートマッチング、ニューラルネットワーク、又はSVMなどの画像認識技術を利用して図15に示すように歩行者に対応する画像領域を検知する。また、物体領域抽出部18は、検知した歩行者に対応する画像領域を、例えば矩形状の物体領域として抽出し、それぞれに検知物体情報を作成する。例えば、図15に示す歩行者に対応する物体領域O0を検知した場合には、物体領域O0の検知物体情報として、ID=0、位置=(x0、y0)、縦幅=H0、横幅=W0、属性=PPPを作成する。また、自転車を持つ歩行者に対応する物体領域O1を検知した場合には、物体領域O1の検知物体情報として、ID=1、位置=(x1、y1)、縦幅=H1、横幅=W1、属性=PPPを作成する。属性情報は検知した物体の種別や情報の有効性を表す文字列が採用され、ここではPPPは歩行者であることを示す属性とする。このように、物体領域抽出部18は、物体に対応する領域を抽出し、抽出した領域ごとに検知物体情報を作成する。S34の処理が終了すると、照明器保有判定処理へ移行する(S36)。
The process of S34 is performed by the object
S36の処理は、接触判定部19及び照明器判定部20で実行され、高輝度領域Kjが照明器であるか否かを判定する処理である。この処理の詳細については、後述する。S36の処理が終了すると、物体の識別処理へ移行する(S38)。
The process of S36 is a process that is executed by the contact determination unit 19 and the
S38の処理は、物体識別部21で実行され、物体情報から照明器を保有する物体を、検知物体情報から除外する処理である。この処理の詳細については、後述する。S38の処理が終了すると、情報出力処理へ移行する(S40)。
The process of S38 is a process executed by the
S40の処理は、出力部22で実行され、S38の処理で得られた検知物体情報を出力し、運転支援する処理である。出力部22は、例えばディスプレイ31上に表示された画像情報の中で照明器を保有していない検知物体を強調したり、スピーカー32を用いて運転者へ注意喚起を行ったりする。
The process of S40 is a process that is executed by the
以上のように、物体検出装置1は、撮像時間と投光時間を制御した画像を用いて探索範囲を限定して効率的に物体検出を行うと共に、照明器を保有していない歩行者等を識別して運転支援を行うことができる。
As described above, the
次に、照明器保有判定処理について、図4を用いて詳細に説明する。図4は、図3のS36の処理の詳細を示すフローチャートである。照明器保有判定処理は、初期化処理から開始される(S50)。 Next, the illuminator possession determination process will be described in detail with reference to FIG. FIG. 4 is a flowchart showing details of the process of S36 of FIG. The illuminator possession determination process is started from an initialization process (S50).
S50の処理は、接触判定部19で実行され、変数の初期化を行う処理である。ここでは変数i(i:整数)、jを使用するため、変数iを0とし、変数jを1とする。S50の処理が終了すると、接触判定処理へ移行する(S52)。 The process of S50 is executed by the contact determination unit 19 and initializes variables. Here, since variables i (i: integer) and j are used, variable i is set to 0 and variable j is set to 1. When the process of S50 ends, the process proceeds to a contact determination process (S52).
S52の処理は、接触判定部19で実行され、図2のS22で抽出した光輝度領域Kjが、図3のS34で抽出した物体領域Oiに付随するか否かを判定する処理である。付随するか否かの判定は、光輝度領域Kjの最尤交点Pfに近い端と物体領域Oiとが接触するか否かで判定する。この接触の判定は、物体領域Oiと高輝度領域Kjが隣り合って接触する場合だけでなく、物体領域Oi内に光輝度領域Kjの最尤交点Pfに近い端が存在する場合も、光輝度領域Kjの最尤交点Pfに近い端と物体領域Oiとが接触していると判定する。例えば、図16に示すように、物体領域O1と光輝度領域K7とを判定すると、物体領域O1内に光輝度領域K7の最尤交点Pf側の端が存在しているため、物体領域O1と光輝度領域K7とは接触していると判定される。S52の処理において、光輝度領域Kjの最尤交点Pfに近い端と物体領域Oiとが接触すると判定した場合には、照明器判定処理へ移行する(S54)。 The process of S52 is executed by the contact determination unit 19 and determines whether or not the light intensity area K j extracted in S22 of FIG. 2 is associated with the object area O i extracted in S34 of FIG. . The determination as to whether or not it accompanies is made based on whether or not the end of the light luminance area K j close to the maximum likelihood intersection P f and the object area O i are in contact with each other. Determination of the contact is not only in contact adjacent the object region O i and the high luminance region K j, the end is present close to the maximum likelihood intersection P f of light intensity region K j in the object area O i Also in this case, it is determined that the end of the light luminance area K j close to the maximum likelihood intersection P f is in contact with the object area O i . For example, as shown in FIG. 16, when the object area O 1 and the light intensity area K 7 are determined, the end of the light intensity area K 7 on the maximum likelihood intersection P f side exists in the object area O 1 . It is determined that the object region O 1 and the light luminance region K 7 are in contact with each other. In the processing of S52, when the end to the object area O i close to the maximum likelihood intersection P f of light intensity region K j is determined that contact, the process proceeds to the illuminator determination process (S54).
S54の処理は、照明器判定部20で実行され、高輝度領域Kjが照明器であるか否かを判定する処理である。照明器であるか否かの判定は、S52の処理で接触していると判定した高輝度領域Kjと物体領域Oiとの面積比によって判定する。例えば、高輝度領域Kjの面積をSj、物体領域Oiの面積をSi、想定される面積比の最小値をTs1、想定される面積比の最大値をTs2とすると、式(2)の条件を満たすか否かを判定する。
The process of S54 is executed by the
Ts1<(Sj/Si)<Ts2 …(2) Ts 1 <(S j / S i ) <Ts 2 (2)
Ts1、Ts2は設定値であり、例えば、Ts1=0.1、Ts2=0.2が設定される。S54の処理において、照明器であると判定された場合には、保有フラグ付与処理へ移行する(S56)。 Ts 1 and Ts 2 are set values. For example, Ts 1 = 0.1 and Ts 2 = 0.2 are set. In the process of S54, when it determines with it being an illuminator, it transfers to a possession flag provision process (S56).
S56の処理は、照明器判定部20で実行され、S54の処理において照明器を保有していると判定した物体領域Oiに照明器保有フラグを付与する処理である。照明器保有フラグの付与は、例えば、所定のメモリ領域において、情報ビットを0から1へ変更することによって行われる。S56の処理が終了すると、全ての物体領域Oiの実施判定処理へ移行する(S60)。
The process of S56 is executed by the
S60の処理は、照明器判定部20で実行され、S54の照明器判定処理を全ての物体領域Oiに対して実行したか否かを判定する処理である。S60の処理において、全ての物体領域Oiに対して照明器判定処理を行っている場合には、図4の制御処理を終了する。
The process of S60 is executed by the
一方、S52の処理において、光輝度領域Kjの最尤交点Pfに近い端と物体領域Oiとが接触していないと判定した場合には、全ての高輝度領域Kjの実施判定処理へ移行する(S58)。S58の処理は、照明器判定部20で実行され、S52の接触判定処理を全ての光輝度領域Kjに対して実行したか否かを判定する処理である。S58の処理において、全ての光輝度領域Kjに対して接触判定処理を行っている場合には、全ての物体領域Oiの実施判定処理へ移行する(S60)。また、S58の処理において、全ての高輝度領域Kjに対して接触判定処理を行っていない場合には、判定対象変更処理へ移行する(S62)。
On the other hand, in the processing of S52, when the end to the object area O i close to the maximum likelihood intersection P f of light intensity region K j is determined that no contact is execution determination processing of all the high luminance region K j (S58). Processing step S58 is performed by the
S62の処理は、照明器判定部20で実行され、S52の接触判定処理の判定対象となる高輝度領域Kjを変更する処理である。照明器判定部20は、jをj+1とし、判定対象を光輝度領域Kjから光輝度領域Kj+1へ変更する。S62の処理が終了すると、接触判定処理へ移行する(S52)。
The process of S62 is a process that is executed by the
一方、S60の処理において、全ての物体領域Oiに対して照明器判定処理を行っていない場合には、判定対象変更処理へ移行する(S64)。S64の処理は、照明器判定部20で実行され、S52の接触判定処理の判定対象となる物体領域Oiを変更する処理である。照明器判定部20は、iをi+1とし、判定対象を物体領域Oiから物体領域Oi+1へ変更する。S62の処理が終了すると、接触判定処理へ移行する(S52)。
On the other hand, in the process of S60, when the illuminator determination process is not performed for all the object regions O i , the process proceeds to the determination target change process (S64). The process of S64 is a process that is executed by the
以上で図4の制御処理が終了する。図4の制御処理によって、撮像した画像から物体が照明器を保有しているか否かを判定することができる。 Thus, the control process of FIG. 4 ends. With the control process of FIG. 4, it can be determined from the captured image whether the object has an illuminator.
次に、物体識別処理について、図5を用いて詳細に説明する。図5は、図3のS38の処理の詳細を示すフローチャートである。物体識別処理は、初期化処理から開始される(S70)。 Next, the object identification process will be described in detail with reference to FIG. FIG. 5 is a flowchart showing details of the process in S38 of FIG. The object identification process is started from the initialization process (S70).
S70の処理は、物体識別部21で実行され、変数の初期化を行う処理である。ここでは変数iを使用するため、変数iを0とする。S70の処理が終了すると、保有判定処理へ移行する(S72)。
The process of S70 is executed by the
S72の処理は、物体識別部21で実行され、物体領域Oiに保有フラグが付与されているか否かを判定する処理である。S72の処理において、保有フラグが付与されていると判定された場合には、除外処理へ移行する(S74)。一方、S72の処理において、保有フラグが付与されていないと判定された場合には、全ての物体領域Oiの実施判定処理へ移行する(S76)。
The process of S72 is a process that is executed by the
S74の処理は、物体識別部21で実行され、S72の処理で保有フラグが付与されていると判定された物体領域Oi、すなわち照明器を保有していると判定された物体に関する情報を物体情報から削除する処理である。S74の処理が終了すると、全ての物体領域Oiの実施判定処理へ移行する(S76)。
The process of S74 is executed by the
S76の処理は、物体識別部21で実行され、全ての物体領域に対してS72の保有判定処理を実施したか否かを判定する処理である。S76の処理において、全ての物体領域Oiに対して保有判定処理を実施したと判定した場合には、図5の制御処理を終了する。一方、S76の処理において、全ての物体領域Oiに対して保有判定処理を実施していないと判定した場合には、判定対象変更処理へ移行する(S78)。
The process of S76 is executed by the
S78の処理は、物体識別部21で実行され、判定対象となる物体領域Oiを変更する処理である。照明器判定部20は、i=i+1を行い、判定対象を物体領域Oiから物体領域Oi+1へ変更する。S78の処理が終了すると、保有判定処理へ移行する(S72)。
The process of S78 is a process that is executed by the
上述のように、図5の制御処理を行うことで、照明器を保有する物体と照明器を保有しない物体とを識別し、照明器を保有する物体を運転支援から除外することができる。例えば、図17に示すように、照明器を保有しない物体領域O0に対応する物体のみを運転支援の対象とすることができる。 As described above, by performing the control process of FIG. 5, an object having an illuminator and an object not having an illuminator can be identified, and the object having an illuminator can be excluded from driving support. For example, as shown in FIG. 17, only an object corresponding to the object region O 0 that does not have an illuminator can be set as a driving assistance target.
以上のように、本実施形態に係る物体検出装置1は、撮像した画像情報の中から、所定の輝度より大きな輝度を有する高輝度領域Kjを抽出して高輝度体として検出し、運転支援対象の候補となる物体に対応した物体領域Oiと、高輝度領域Kjとが接触しているか否かを判定することによって、物体に高輝度体が付随しているか否かを識別することができる。これにより、高輝度体が付随している物体、すなわち運転者が比較的目視し易い物体と、高輝度体が付随していない物体、すなわち比較的目視し難い物体とを識別することができる。よって、運転者が比較的目視し難い物体のみを検出することができる。
As described above, the
また、本実施形態に係る物体検出装置1は、高輝度体が付随していない物体の存在を、高輝度体が付随している物体の存在よりも強調して運転者に報知して車両の運転支援を行うことができるため、運転者が比較的目視し難い物を迅速に認識することができる。
Further, the
また、本実施形態に係る物体検出装置1は、高輝度体が付随する物体を、運転支援の対象から除外することができるため、運転者は既に認識している物体の存在を報知されることが無いので、運転者が煩わしく感じることを回避することができる。
Moreover, since the
また、本実施形態に係る物体検出装置1は、撮像部51の撮像時間を投光器52の投光時間よりも長くすることができるため、自ら発光していない物体は投光手段で投光されたタイミングの静止画像として、自ら発光している物体は撮像時間の間の動作の軌跡を示す画像として撮像することができる。これにより、自ら発光している高輝度体と瞬間的に反射した物体とを区別することができるため、高輝度体が照明器であるか否かを識別することができる。
Moreover, since the
また、本実施形態に係る物体検出装置1は、高輝度領域Kjの特徴量を算出し、物体領域Oiと高輝度領域Kjとが互いに接触しているか否かを判定し、接触していると判定した場合には、高輝度領域Kjの特徴量に基づいて、高輝度領域Kjに対応する高輝度体が照明器であるか否かを判定することができる。これにより、高輝度体が照明器であるか否かをより精度よく判定することができる。
Further, the
また、本実施形態に係る物体検出装置1は、高輝度領域Kjの特徴量として高輝度領域Kjの面積を算出し、物体領域Oiの面積と高輝度領域Kjの面積との比に基づいて、高輝度体が照明器であるか否かを判定することができる。これにより、高輝度体が照明器であるか否かを一層精度よく判定することができる。
The ratio of the
さらに、本実施形態に係る物体検出装置1は、高輝度領域Kjに基づいて画像の消失点の位置を決定し、決定した消失点の位置と、所定のピッチ角度における消失点の位置とを比較して車両のピッチ角度βを算出することができる。また、算出したピッチ角度βに基づいて画像情報の探索する範囲を限定することができるため、物体領域Oiや高輝度領域Kjの抽出を的確かつ迅速に行うことができる。
Furthermore, the
なお、上述した実施形態は本発明に係る物体検出装置の一例を示すものである。本発明に係る物体検出装置は、このようなものに限られるものではなく、各請求項に記載した要旨を変更しないように実施形態に係る物体検出装置を変形し、又は他のものに適用したものであってもよい。 The above-described embodiment shows an example of the object detection apparatus according to the present invention. The object detection device according to the present invention is not limited to the above, and the object detection device according to the embodiment is modified or applied to others so as not to change the gist described in each claim. It may be a thing.
例えば、実施形態において、撮像部51と投光器52の同期が先幕シンクロの場合について説明したが、後幕シンクロであっても良い。後幕シンクロの場合、高輝度領域Kjの最尤交点Pf側と反対側の端が物体領域Oiと接触するか否かを判定することで、本実施形態と同様の効果を得ることができる。
For example, in the embodiment, the case where the synchronization between the
また、実施形態において、物体検出装置の最適な例として、スローシンクロによって撮像した画像を用いた例を説明したが、通常の撮像方法で撮像した画像を用いた場合であっても本実施形態と同様の効果を得ることができる。 Further, in the embodiment, an example using an image captured by slow sync as an optimal example of the object detection device has been described. However, even when an image captured by a normal imaging method is used, Similar effects can be obtained.
また、実施形態において、物体領域Oi内に高輝度領域Kjの最尤交点Pfに近い端が含まれるか否かによって、高輝度領域Kjと物体領域Oiとが接触するか否かを判定する例を説明したが、例えば、物体領域Oiの中心位置から設定距離以内に高輝度領域Kjの最尤交点Pfに近い端が存在するか否かを判定するなど、物体領域Oiと高輝度領域Kjの最尤交点Pfに近い端との位置関係によって接触しているか否かの判定をしても良い。 Further, in the embodiment, depending on whether it contains a near end to the maximum likelihood intersection P f of the high luminance region K j in the object area O i, or the high luminance region K j and the object region O i contacts whether However, for example, it is determined whether there is an end close to the maximum likelihood intersection P f of the high luminance region K j within a set distance from the center position of the object region O i. It may be determined whether or not they are in contact with each other based on the positional relationship between the region O i and the end of the high luminance region K j close to the maximum likelihood intersection P f .
また、実施形態において、照明器であるか否かの判定を高輝度領域Kjと物体領域Oiとの面積比によって判定する例を説明したが、例えば、高輝度領域Kjの複雑度を用いて判定しても良い。高輝度領域Kjの複雑度Aは、周囲長をCj、面積をSjとすると、A=Cj 2/Sjで表すことができ、複雑度が所定値より大きい場合には、高輝度領域Kjを照明器では無いと判定することができる。 Further, in the embodiment, the example in which the determination as to whether or not it is an illuminator has been described based on the area ratio between the high luminance region K j and the object region O i , but for example, the complexity of the high luminance region K j It may be determined using. Complexity A high-brightness region K j is a perimeter C j, and the area and S j, A = C j 2 / can be represented by S j, if complexity is greater than a predetermined value, high It can be determined that the luminance region K j is not an illuminator.
また、実施形態において、照明器であるか否かの判定を高輝度領域Kjと物体領域Oiとの面積比によって判定する例を説明したが、高輝度領域Kjの慣性主軸の方向を利用して照明器であるか否かを判定しても良い。例えば、高輝度領域Kjの慣性主軸の方向が垂直に近いものは照明器の条件に当てはまらないとして除外することができる。 In the embodiment, the example in which the determination as to whether or not the illuminator is an illuminator has been described based on the area ratio between the high luminance region K j and the object region O i , but the direction of the principal axis of inertia of the high luminance region K j is described. You may determine whether it is an illuminator using. For example, a case where the direction of the principal axis of inertia of the high-luminance region K j is nearly vertical can be excluded as not satisfying the condition of the illuminator.
また、実施形態において、照明器を保有している物体領域Oiを検知物体情報から除外する方法として削除する例を説明したが、例えば属性情報を変更する例であっても良い。この場合、属性情報=NNNの場合には検知物体情報が無効であるとし、図5のS74の処理において、照明器を保有している物体領域Oiを検知物体情報から削除せずに、照明器を保有している物体領域Oiの検知物体情報の属性情報をPPPからNNNへ変更することで、照明器を保有している物体領域Oiを検知物体情報から除外することができる。 In the embodiment, the example in which the object region O i holding the illuminator is deleted as a method of excluding from the detected object information has been described. However, for example, the attribute information may be changed. In this case, it is assumed that the detected object information is invalid when attribute information = NNN, and in the process of S74 in FIG. 5, the object region O i that holds the illuminator is not deleted from the detected object information. the attribute information of the detected object information of the object area O i that hold vessel by changing from PPP to NNN, it is possible to exclude the object area O i that hold the illuminator from the detection object information.
さらに、実施形態において、照明器を保有している物体領域Oiを検知物体情報から除外する方法を説明したが、照明器を保有している物体領域Oiを検知物体情報から除外せずに、注意喚起レベルを変更する場合であっても良い。例えば、属性情報=LOWの場合には検知物体情報の注意喚起レベルが低いものであるとし、図5のS74の処理において、照明器を保有している物体領域Oiを検知物体情報から削除せずに、照明器を保有している物体領域Oiの検知物体情報の属性情報をPPPからLOWへ変更することで、照明器を保有している物体は、検知物体情報の中でも注意喚起レベルが低いものであるとして運転者へ情報提供することができる。注意喚起レベルが低い場合とは、例えば、照明器を保有している物体をディスプレイ上で薄く表示したり、スピーカーでの警告音量を下げたりすることによって実現される。 Further, in the embodiment, without excluding the object area O i that hold illuminator has been described how to exclude from detection object information, the object area O i that hold the illuminator from the detection object information It is also possible to change the alert level. For example, when the attribute information is LOW, it is assumed that the alert level of the detected object information is low, and the object region O i holding the illuminator is deleted from the detected object information in the process of S74 of FIG. Without changing the attribute information of the detected object information of the object region O i that holds the illuminator from PPP to LOW, the object that holds the illuminator has a warning level among the detected object information. Information can be provided to the driver as being low. The case where the alerting level is low is realized, for example, by thinly displaying an object holding the illuminator on the display or lowering the warning volume on the speaker.
1…物体検出装置、13…高輝度領域抽出部(高輝度体検出手段)、14…特徴量導出部(特徴量導出手段)、15…消失点導出部(消失点決定手段)、16…ピッチ角度算出部(ピッチ角度算出手段)、17…探索範囲限定部(範囲限定手段)、18…物体領域抽出部(物体検出手段)、19…接触判定部(識別手段、接触判定手段)、20…照明器判定部(照明器判定手段)、21…物体識別部(識別手段)、22…出力部(運転支援手段)。
DESCRIPTION OF
Claims (7)
前記画像情報の中から所定の輝度より大きな輝度を有する高輝度領域を抽出し、高輝度体として検出する高輝度体検出手段と、
前記物体の検出結果と前記高輝度体の検出結果とに基づいて、前記高輝度体が付随する前記物体と前記高輝度体が付随しない前記物体とを識別する識別手段と、
を備えた物体検出装置。 Object detection means for detecting an object from image information of an image captured by an on-vehicle imaging means;
A high-luminance body detection means for extracting a high-luminance region having a luminance greater than a predetermined luminance from the image information and detecting the high-luminance body;
Identification means for identifying the object accompanied by the high-luminance body and the object not accompanied by the high-luminance body based on the detection result of the object and the detection result of the high-luminance body;
An object detection apparatus comprising:
前記撮像手段は、前記投光時間より撮像時間を長くすること、
を特徴とする請求項1〜3の何れか一項に記載の物体検出装置。 Comprising light projecting means for projecting in a predetermined projecting time toward the imaging direction of the image,
The imaging means makes the imaging time longer than the projection time;
The object detection device according to claim 1, wherein
前記物体に対応する領域と前記高輝度領域とが互いに接触しているか否かを判定する接触判定手段と、
前記接触判定手段によって前記物体に対応する領域と前記高輝度領域とが互いに接触していると判定した場合には、前記特徴量に基づいて、前記高輝度体が照明器であるか否かを判定する照明器判定手段と、
を備えることを特徴とする請求項4に記載の物体検出装置。 Feature quantity deriving means for deriving a feature quantity of the high luminance region;
Contact determination means for determining whether or not the region corresponding to the object and the high-intensity region are in contact with each other;
If it is determined by the contact determination means that the region corresponding to the object and the high luminance region are in contact with each other, whether or not the high luminance body is an illuminator is determined based on the feature amount. Illuminator determination means for determining;
The object detection apparatus according to claim 4, further comprising:
前記照明器判定手段は、前記物体に対応する領域と前記高輝度領域との面積比に基づいて、前記高輝度体が照明器であるか否かを判定することを特徴とする請求項5に記載の物体検出装置。 The feature amount deriving unit calculates an area of the high luminance region as the feature amount,
The said illuminator determination means determines whether the said high-intensity body is an illuminator based on the area ratio of the area | region corresponding to the said object, and the said high-intensity area | region. The object detection apparatus described.
前記消失点の位置と車両の所定のピッチ角度における消失点の位置とを比較して前記車両のピッチ角度を算出するピッチ角度算出手段と、
前記ピッチ角度に基づいて前記画像情報の探索する範囲を限定する範囲限定手段と、
を特徴とする請求項4〜6の何れか一項に記載の物体検出装置。 Vanishing point determining means for determining the position of the vanishing point of the image based on the shape of the locus of the high-luminance region;
A pitch angle calculating means for calculating the pitch angle of the vehicle by comparing the position of the vanishing point and the position of the vanishing point at a predetermined pitch angle of the vehicle;
A range limiting means for limiting a search range of the image information based on the pitch angle;
The object detection device according to claim 4, wherein
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007209650A JP2009044631A (en) | 2007-08-10 | 2007-08-10 | Object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007209650A JP2009044631A (en) | 2007-08-10 | 2007-08-10 | Object detection device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009044631A true JP2009044631A (en) | 2009-02-26 |
Family
ID=40444843
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007209650A Pending JP2009044631A (en) | 2007-08-10 | 2007-08-10 | Object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009044631A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012058012A (en) * | 2010-09-07 | 2012-03-22 | Toshiba Corp | Target position estimation apparatus |
WO2016142976A1 (en) * | 2015-03-11 | 2016-09-15 | 日本電気株式会社 | Image pickup system |
US10422878B2 (en) | 2016-02-23 | 2019-09-24 | Denso Corporation | Object recognition apparatus |
-
2007
- 2007-08-10 JP JP2007209650A patent/JP2009044631A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012058012A (en) * | 2010-09-07 | 2012-03-22 | Toshiba Corp | Target position estimation apparatus |
WO2016142976A1 (en) * | 2015-03-11 | 2016-09-15 | 日本電気株式会社 | Image pickup system |
US10422878B2 (en) | 2016-02-23 | 2019-09-24 | Denso Corporation | Object recognition apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4879189B2 (en) | Safe driving support device | |
JP4263737B2 (en) | Pedestrian detection device | |
JPWO2017158983A1 (en) | Object recognition apparatus, object recognition method, and object recognition program | |
JP2004303219A (en) | Vehicle surrounding monitoring device | |
JP5737399B2 (en) | Red-eye determination device | |
JP2007334751A (en) | Vehicle periphery monitoring device | |
JP4528283B2 (en) | Vehicle periphery monitoring device | |
JP2010097541A (en) | Vehicular periphery monitoring apparatus | |
JP2003284057A (en) | Vehicle periphery monitoring unit | |
JP5737401B2 (en) | 瞼 Detection device | |
JP2010102427A (en) | Lane division line detection device, lane division line detection method and line division line detection program | |
JP3395344B2 (en) | Image processing device and doze alarm device using the same | |
JP4992823B2 (en) | Face detection apparatus and face detection method | |
JP2009026223A (en) | Object detector and program | |
JP5530530B2 (en) | Vehicle periphery monitoring device | |
JP2007334511A (en) | Object detection device, vehicle, object detection method and program for object detection | |
JP2003028635A (en) | Image range finder | |
JP2009044631A (en) | Object detection device | |
JP2011103058A (en) | Erroneous recognition prevention device | |
JP2004086417A (en) | Method and device for detecting pedestrian on zebra crossing | |
JP2000306097A (en) | Road area decision device | |
JPH0973529A (en) | Two-wheeled vehicle monitor device | |
JP4701961B2 (en) | Pedestrian detection device | |
JP5020920B2 (en) | Pedestrian detection device and program | |
JP2011134119A (en) | Vehicle periphery monitoring device |