本発明の実施形態に係る運転支援装置の一例を示すブロック図である。
本発明の実施形態に係る物体検出装置の一例を示すブロック図である。
特徴点を検出した画像の一例を示す概略図である。
視差画像の一例を示す概略図である。
u-disparity画像の一例を示す概略図である。
遠距離領域及び近距離領域で分割した画像を示す概略図である。
距離による物体検出結果を示す概略図である。
動き検出による物体検出結果を示す概略図である。
パターン認識による物体検出結果を示す概略図である。
比較例に係るパターン認識処理を説明するための概略図である。
本発明の実施形態に係るパターン認識処理を説明するための概略図である。
本発明の実施形態に係る物体検出方法の一例を説明するためのフローチャートである。
領域分割処理の一例を説明するためのフローチャートである。
近距離領域の物体検出処理の一例を説明するためのフローチャートである。
遠距離領域の物体検出処理の一例を説明するためのフローチャートである。
物体候補統合処理の一例を説明するためのフローチャートである。
パターンをキューとする統合処理の一例を説明するためのフローチャートである。
動きをキューとする統合処理の一例を説明するためのフローチャートである。
距離をキューとする統合処理の一例を説明するためのフローチャートである。
以下において、図面を参照して、本発明の実施形態を説明する。以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を貼付している。但し、図面は模式的なものであり、厚みと平面寸法との関係、厚みの比率等は現実のものとは異なることに留意すべきである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。また、以下に示す本発明の実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、構成部品の材質、形状、構造、配置等を下記のものに特定するものではない。本発明の技術的思想は、特許請求の範囲に記載された請求項が規定する技術的範囲内において、種々の変更を加えることができる。
<運転支援装置>
本発明の実施形態に係る運転支援装置1は、図1に示すように、物体検出装置10と、車両挙動センサ群20と、車両走行コントローラ30と、車両制御アクチュエータ群40とを備える。物体検出装置10は、自車両の周囲に存在する物体を検出し、検出結果に応じて警報信号を発生する。物体検出装置10は、周囲環境センサ群11と、コントローラ12と、ユーザインタフェース(I/F)装置13とを備える。
本発明の実施形態に係る運転支援装置1は、運転支援装置を搭載する車両(以下、「自車両」と表記する)の周囲の走行環境に基づき、自車両を自動的に操舵、駆動、制動の少なくとも1つの制御を行う走行支援制御、又は運転者が関与せずに自車両を自動で運転する自動運転制御を行う。走行支援制御は、先行車追従制御や車線逸脱防止制御であってもよい。
周囲環境センサ群11は、自車両の周囲環境、例えば自車両の周囲の物体を検出するセンサ群である。なお、自車両の周囲環境は、自車両の前方の環境に限定されず、自車両の前方、自車両の側方及び自車両の後方の少なくとも1つの環境を含めばよい。例えば周囲環境センサ群11は、ステレオカメラ50及びレーダ51を備える。
ステレオカメラ50は、自車両の周囲のステレオ画像を自車両の周囲環境の情報として生成する。ステレオカメラ50は、ステレオカメラ50の撮影方向と直交する方向に沿って互いの視野が重なるように配置された第1画像センサ52及び第2画像センサ53を備える。例えば、第1画像センサ52はステレオカメラ50の撮影方向を向いたときに左側に配置され、第2画像センサ53は右側に配置されてよい。
レーダ51としては、レーザレーダ、ミリ波レーダ又はレーザレンジファインダ(LRF)等が使用可能である。レーダ51は、自車両の周囲に存在する物体の有無、自車両と物体との相対位置及び距離を、自車両の周囲環境の情報として検出する。周囲環境センサ群11は、検出した周囲環境の情報(周囲環境情報)をコントローラ12及び車両走行コントローラ30へ出力する。
コントローラ12は、ステレオカメラ50が生成したステレオ画像から物体を検出する処理を実行する電子制御ユニット(ECU)である。コントローラ12は、プロセッサ55と、記憶装置56等の周辺部品を含む。プロセッサ55は、例えばCPU(Central Processing Unit)、やMPU(Micro-Processing Unit)であってよい。なお、汎用の半導体集積回路中に設定される機能的な論理回路でコントローラ12を実現してもよい。例えば、コントローラ12はフィールド・プログラマブル・ゲート・アレイ(FPGA:Field-Programmable Gate Array)等のプログラマブル・ロジック・デバイス(PLD:Programmable Logic Device)等を有していてもよい。
記憶装置56は、半導体記憶装置、磁気記憶装置及び光学記憶装置のいずれかを備えてよい。記憶装置56は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを含んでよい。記憶装置56には、プロセッサ55上で実行されて、物体を検出する処理をコントローラ12に実行させるためのコンピュータプログラムが記憶される。
コントローラ12は、ステレオカメラ50が生成したステレオ画像に基づき、自車両から自車両の周囲に存在する物体までの距離を算出する。コントローラ12は、算出した距離に基づき、ステレオ画像を自車両に近い側の近距離領域と、自車両に遠い側の遠距離領域とに分割する。コントローラ12は、分割した近距離領域で選択的に、算出した距離に基づき物体候補を検出する。コントローラ12は、分割した遠距離領域で、算出した距離に基づき物体候補を検出することを禁止するとともに、分割した遠距離領域で、動き検出による移動物体候補の検出とパターン認識による物体候補の検出との少なくとも一方を行う。コントローラ12は、物体候補の検出結果に応じて警報信号を生成する。コントローラ12は、警報信号をユーザインタフェース装置13及び車両走行コントローラ30へ出力する。
ユーザインタフェース装置13は、コントローラ12から出力された警報信号を運転者に呈示する。ユーザインタフェース装置13は、音信号である警報信号を運転者に呈示するスピーカやブザー等の発音装置であってもよく、光信号である警報信号を運転者に呈示するディスプレイ装置やランプ等の視覚信号出力装置であってもよい。また、ユーザインタフェース装置13は、自車両のステアリングホイールへ振動を付与するバイブレータや、アクセルペダルに反力を与えるアクチュエータであってもよく、これら振動や反力を警報信号として与えてもよい。
車両挙動センサ群20は、自車両の車両挙動を検出するセンサ群である。車両挙動センサ群20は、車速センサ21と、加速度センサ22と、ジャイロセンサ23と、操舵角センサ24とを備える。車速センサ21は、自車両の車輪速を検出し、車輪速に基づき自車両の速度を算出する。加速度センサ22は、自車両の前後方向の加速度及び車幅方向の加速度を検出する。ジャイロセンサ23は、ロール軸、ピッチ軸及びヨー軸を含む3軸回りの自車両の回転角度の角速度を検出する。操舵角センサ24は、操舵操作子であるステアリングホイールの現在の回転角度(操舵操作量)である現在操舵角を検出する。車両挙動センサ群20は、これらの車速、加速度、回転角速度、及び操舵角の情報を車両挙動情報として車両走行コントローラ30へ出力する。
車両走行コントローラ30は、自車両の自動運転制御又は運転支援制御を行うECUである。車両走行コントローラ30は、プロセッサと、記憶装置等の周辺部品とを含む。車両走行コントローラ30のプロセッサは例えばCPUやMPUであってよい。なお、汎用の半導体集積回路中に設定される機能的な論理回路で車両走行コントローラ30を実現してもよい。例えば、車両走行コントローラ30は、FPGA等のPLD等を有していてもよい。車両走行コントローラ30の記憶装置は、記憶媒体として半導体記憶装置、磁気記憶装置及び光学記憶装置のいずれかを備えてよい。車両走行コントローラ30の記憶装置は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM及びRAM等のメモリを含んでよい。
車両走行コントローラ30は、周囲環境センサ群11から出力された周囲環境情報と、車両挙動センサ群20から出力された車両挙動情報とに基づき車両制御アクチュエータ群40を駆動することにより、自車両の走行支援制御又は自動運転制御を実行する。更に車両走行コントローラ30は、コントローラ12から出力される警報信号に応じて、コントローラ12が検出した物体との接触を回避するための走行支援制御又は自動運転制御を行う。例えば車両走行コントローラ30は、自動ブレーキによる減速や停車、又は物体を回避する自動操舵を実施する。
車両制御アクチュエータ群40は、車両走行コントローラ30からの制御信号に応じて、自車両の走行を制御する。車両制御アクチュエータ群40は、ステアリングアクチュエータ41と、アクセル開度アクチュエータ42と、ブレーキ制御アクチュエータ43を備える。ステアリングアクチュエータ41は、自車両のステアリングの操舵方向及び操舵量を制御する。アクセル開度アクチュエータ42は、自車両のアクセル開度を制御する。ブレーキ制御アクチュエータ43は、自車両のブレーキ装置の制動動作を制御する。
コントローラ12は、図2に示すように、画像補正部61及び62と、特徴点検出部63及び64と、距離算出部65と、領域分割部66と、物体検出部67と、動き検出部68と、パターン検出部69と、統合部70等の論理ブロックを機能的又は物理的なハードウェア資源として備える。画像補正部61及び62と、特徴点検出部63及び64と、距離算出部65と、領域分割部66と、物体検出部67と、動き検出部68と、パターン検出部69と、統合部70は、単一のハードウェアから構成されてもよく、それぞれ別個のハードウェアから構成されてもよい。画像補正部61及び62と、特徴点検出部63及び64と、距離算出部65と、領域分割部66と、物体検出部67と、動き検出部68と、パターン検出部69と、統合部70の機能は、コントローラ12のプロセッサ55が、記憶装置56に格納されたコンピュータプログラムを実行することによって実現されてよい。
ステレオカメラ50を構成する第1画像センサ52及び第2画像センサ53は、自車両の周囲のステレオ画像を所定周期で連続して撮影する。第1画像センサ52と第2画像センサ53は同期しており、同時刻の撮像画像が取得される。以下、第1画像センサ52の撮像画像を「第1画像」と表記し、第2画像センサ53の撮像画像を「第2画像」と表記することがある。画像補正部61には第1画像が逐次入力され、画像補正部62には第2画像が逐次入力される。
画像補正部61及び62は、第1画像及び第2画像の補正処理をそれぞれ行う。例えば画像補正部61及び62は、第1画像及び第2画像のレンズ歪みを補正してよい。画像補正部61及び62は、第1画像及び第2画像のエピポーラ線が互いに平行になるようにアフィン変換等の補正処理を行う。画像補正部61及び62は、第1画像センサ51及び第2画像センサ52の共通の視野内の実空間における同一点の像が、第1画像及び第2画像の同一走査線上に位置するように変換する平行化を行ってよい。
特徴点検出部63及び64は、第1画像及び第2画像のそれぞれにおいて、他の画素と区別可能な特徴を持つ画素である特徴点を検出する。特徴点の検出には、例えば非特許文献「Jianbo Shi and Carlo Tomasi, "Good Features to Track," 1994 IEEE Conference on Computer Vision and Pattern Recognition (CVPR'94), 1994, pp. 593 - 600.」に記載の手法を用いてよい。第1画像及び第2画像で検出された特徴点は、記憶装置56に記録される。図3は、第1画像において特徴点検出部63により検出された特徴点の一例を示す。図3では模式的に、特徴点をドットのハッチングの点で示し、自車両と特徴点との距離が遠いほど濃く示している。
距離算出部65は、互いに対応する第1画像の特徴点と第2画像の特徴点を探索するステレオ視差算出処理を行う。第1画像及び第2画像には、画像補正部61及び62による平行化処理を施されているため、空間中の同一点の像が第1画像及び第2画像の同一走査線上に位置する。したがって、1次元の探索処理により対応する特徴点を探索できる。
距離算出部65は、第1画像及び第2画像の対応する特徴点間の視差を算出する。距離算出部65は、算出した視差と、第1画像センサ52と第2画像センサ53の画角、取り付け位置、光軸方向等のパラメータとに基づき、特徴点の3次元座標及び特徴点から自車両までの距離を算出する。特徴点の3次元座標の原点は任意に設定可能であり、例えば自車両を特徴点の3次元座標の原点に設定可能である。自車両を特徴点の3次元座標の原点とする場合は、自車両の重心位置や、第1画像センサ52や第2画像センサ53等の画像センサを取り付けた位置等を原点としてもよい。算出された特徴点の3次元座標及び距離は、記憶装置56に記録される。距離算出部65は、算出した視差に基づき、図4に示すように第1画像及び第2画像の対応する視差画像(距離画像)を生成する。図4では、視差が大きいほど、即ち自車両から物体までの距離が近いほど、濃いハッチングで示している。
領域分割部66は、距離算出部65により算出した距離又は距離に相当する視差に基づき、第1画像を、自車両と物体との距離が相対的に近い側の近距離領域と、自車両と物体との距離が相対的に遠い側の遠距離領域とに分割する。例えば、領域分割部66は、第1画像の各特徴点に対応する画素について、距離算出部65により算出した視差が所定の閾値以上の場合には近距離フラグを付して、近距離領域の画素に分類し、視差が所定の閾値未満の場合には遠距離フラグを付して、遠距離領域の画素に分類する。所定の閾値は例えば2画素であり、適宜設定可能である。
なお、領域分割部66は、視差が所定の閾値以上か否かの判定処理を画素単位で行う代わりに、複数の画素が集合した画素領域(例えば2×2画素)単位で判定処理を行ってもよい。この場合、画素領域を構成する画素の視差の平均値、最大値、最小値、代表値等を所定の閾値と比較することにより判定処理を行ってもよい。
領域分割部66は、図5に示すように、算出した視差を、横軸を第1画像の水平座標(u)、縦軸を視差(disparity)としたu-disparity画像に投影してもよい。u-disparity画像は、視差画像における垂直方向(画像上下方向)の視差の出現頻度を表した画像である。即ち、領域分割部66は、第1画像の水平座標を示す縦軸及び視差を示す横軸を一定の大きさのセルに区切ったグリッドマップを生成する。領域分割部66は、第1画像の各特徴点について、その水平座標及び視差に対応するセルに投票する。各セルに投票された特徴点の数が記録されることで、u-disparity画像が生成される。図5では、投票された特徴点の数が多いほど濃いハッチングで示している。
図5の上側のセル領域RAは、例えば視差が1画素以下となるような視差が小さい領域であり、距離分解能が低く、複数の物体候補を分離して検出することが困難な領域である。領域分割部66は、セル領域RAに対応する画素を遠距離領域に分類し、セル領域RAの下側のセル領域を近距離領域に分類する。
近距離領域に相当するセル領域RB,RCにおいて、立体物は路面に対して略垂直に立っているものとすると、立体物表面上の特徴点の視差は略同一となるため、立体物に対応するセルは路面に対応するセルよりも投票数が多くなる。セル領域RBでは、右肩上がりの直線状をなす投票数の多いセル群が立体物領域に対応し、セル領域RCでは、右肩下がりの直線状をなす投票数の多いセル群が立体物に対応する。これらの直線で挟まれる投票数が一様に少ないセル群が路面に対応する。
領域分割部66は、近距離領域に相当する各セルについて投票数が所定の閾値以上か否かを比較して、投票数が所定の閾値以上のセルを立体物領域に分類し、投票数が所定の閾値未満のセルを路面領域に分類する。領域分割部66は、各セルの分類結果を、第1画像の各セルに対応する画素に反映する。即ち、領域分割部66は、立体物領域に分類されたセルに対応する画素に立体物ラベルを付与して画素を立体物領域に分類するとともに、路面領域に分類されたセルに対応する画素に路面ラベルを付与して画素を路面領域に分類する。このようにして、領域分割部66は、近距離領域を、立体物ラベルが付与された画素の集合である立体物領域と、路面ラベルが付与された画素の集合である路面領域とに分割することができる。
領域分割部66は、例えば図6に示すように、距離算出部65により算出した距離に基づき、第1画像を遠距離領域R1と近距離領域R2とに分割する。図6では模式的に、視差が所定の閾値未満の画像領域を白抜きで示し、視差が所定の閾値以上の画像領域をドットのハッチングで示している。更に、領域分割部66は、距離算出部65により算出した距離に基づき、近距離領域R2を、立体物領域R21,R22と路面領域R23とに分割し、路面領域R23を物体候補の検出対象から除外してもよい。立体物領域R21は、図5のセル領域RBの右肩上がりの直線状のセル群に対応する画素領域であり、立体物領域R22は、図5のセル領域RCの右肩下がりの線状のセル群に対応する画素領域である。
領域分割部66は、例えば図6に示すように、第1画像中に空等の背景領域R3が含まれている場合には、背景領域R3を物体候補の検出対象から除外する。背景領域R3は自車両からの距離が無限遠となるため、距離算出部65により算出した距離に基づき第1画像中の背景領域R3を抽出可能である。なお、領域分割部66は、第1画像から路面領域R23及び背景領域R3を除外した後に、第1画像の残りの領域を遠距離領域R11と近距離領域R2とに分割してもよい。領域分割部66により分割された遠距離領域R1と、近距離領域R2との一方又は両方に対して、物体検出部67、動き検出部68及びパターン検出部69が、互いに異なる種類の物体検出処理をそれぞれ行う。
物体検出部67は、距離算出部65により算出された各特徴点の自車両までの距離に基づき、第1画像から物体候補を検出(抽出)する。例えば、物体検出部67は、第1画像の特徴点の3次元座標が所定の閾値以下で近接する画素をクラスタリングし、クラスタリングされた画素を含む画像領域を物体候補として検出する。物体検出部67による距離に基づく物体検出処理では、移動物体及び静止物体を含む任意形状の物体を検出可能であり、他の物体により一部が隠蔽された物体も検出可能である。物体検出部67による距離に基づく物体検出処理は、基線長と視差分解能に依存し、近距離の物体の検出に適している。
物体検出部67は、領域分割部66により分割された遠距離領域R1及び近距離領域R2のうち、近距離領域R2で選択的に物体候補を検出する。即ち、物体検出部67は、遠距離領域R1で距離に基づき物体候補を検出することを禁止することにより、遠距離領域R1を物体候補の検出対象から除外して、近距離領域R2のみを物体候補の検出対象とする。なお、物体検出部67は、近距離領域R2全体を物体候補の検出対象としてもよく、近距離領域R2が立体物領域R21,R22と路面領域R23に分割されている場合には立体物領域R21,R22のみを物体候補の検出対象としてもよい。物体検出部67は、第1画像の近距離領域R2において、例えば図7に破線で囲んで示すように物体候補O1を検出する。
動き検出部68は、第1画像の特徴点ごとに、第1の時刻(例えば現時点)の特徴点の3次元座標と、第1の時刻より前の第2の時刻の特徴点の3次元座標との差を算出することにより、特徴点の3次元移動ベクトル(オプティカルフロー)を特徴点の動きとして検出(算出)する動き検出処理を行う。オプティカルフローの検出には、例えば非特許文献「Bruce D. Lucas and Takeo Kanade. An Iterative Image Registration Technique with an Application to Stereo Vision. International Joint Conference on Artificial Intelligence, pages 674-679, 1981」に記載の手法を用いてよい。
なお、自車両が移動している場合、算出されるオプティカルフローには自車両の移動量が加算されるため、自車両の移動量を除去することが好適である。例えば、動き検出部68は、自車両の3軸並進運動及び3軸回転運動(すなわちステレオカメラ50の3軸並進運動及び3軸回転運動)に基づき、オプティカルフローから自車両の移動量を除去してもよい。
動き検出部68は、算出したオプティカルフローに基づき、第1画像から動きのある物体候補である移動物体候補を検出(抽出)する。例えば、動き検出部68は、所定の閾値以上の長さの移動ベクトルを有する特徴点に移動物体候補フラグを付与する。更に、動き検出部68は、移動物体候補フラグが付与された特徴点間の3次元空間上の距離が所定の閾値以下の場合、これらの特徴点を同一の移動物体候補としてラベリングすることにより、移動物体候補を検出する。
動き検出部68は、領域分割部66により分割された遠距離領域R1及び近距離領域R2の両方で、例えば図8に破線で囲んで示すように、動き検出により移動物体候補O2を検出する。図8では模式的に、特徴点をドットのハッチングの点で示し、オプティカルフローを矢印で示している。動き検出部68による移動物体の検出能力は、検出対象の速度と画像の空間分解能に依存するが、遠距離の移動物体の検出にも好適である。動き検出部68は、物体の形状に関わらず移動物体であれば検出可能であり、他の物体により一部が隠蔽されていても、部分的な動きから移動物体候補を検出可能である。動き検出部68は、画像の奥行き距離が近接する移動物体同士も分離して検出可能である。
動き検出部68は、近距離領域R2で移動物体候補を検出する際には、近距離領域R2全体を移動物体候補の検出対象としてもよく、近距離領域R2が立体物領域R21,R22と路面領域R23に分割されている場合には立体物領域R21,R22のみを移動物体候補の検出対象としてもよい。
動き検出部68は、近距離領域R2で移動物体候補を検出する際に、物体検出部67により図7に示すように物体候補O1が先に検出されている場合には、物体検出部67により物体候補O1が検出された領域のみを移動物体候補の検出対象としてもよい。動き検出部68は、近距離領域R2でパターン検出部69により物体候補が先に検出されている場合には、パターン検出部69により物体候補が検出された領域のみを移動物体候補の検出対象としてもよい。
動き検出部68は、遠距離領域R1で移動物体候補を検出する際には、遠距離領域R1全体を移動物体候補の検出対象としてもよい。動き検出部68は、遠距離領域R1でパターン検出部69により物体候補が先に検出されている場合には、パターン検出部69により物体候補が検出された領域のみを移動物体候補の検出対象としてもよい。
動き検出部68は、遠距離領域R1又は近距離領域R2で移動物体候補を検出した場合、検出した移動物体候補を継続して追跡してもよい。例えば、動き検出部68は、遠距離領域R1で対向車を検出し、検出した対向車が接近して遠距離領域R1から近距離領域R2に移動した場合でも継続して追跡することで、近距離領域R2で対向車を再度検出する処理が不要となり、演算負荷を抑制することができる。
動き検出部68は、遠距離領域R1で移動物体候補を検出する際に、記憶装置56に記憶されている地図データ等の道路形状に基づき、遠距離領域R1中の検出対象とする領域を更に絞り込んでもよい。例えば、動き検出部68は、記憶装置56に記憶されている地図データ等から自車両の周囲の道路形状を読み出す。動き検出部68は、読み出した道路形状に基づき、遠距離領域R1中の移動物体が存在し得る領域を抽出し、抽出した領域で、動き検出により移動物体候補を検出する。例えば、遠距離領域R1において対向車線上の領域を抽出し、抽出した領域で対向車を検出してもよい。或いは、遠距離領域R1において歩道上の領域を抽出し、抽出した領域で歩行者を検出してもよい。
パターン検出部69は、パターン認識により車両、歩行者、自転車等の種別が既知(学習済み)の物体候補を検出する。パターン検出部69により認識可能なパターンは適宜設定可能であり、例えば記憶装置56に予め記憶されている。パターン検出部69によるパターン認識処理は、例えば非特許文献「P. F. Felzenszwalb, R. B. Girshick, D. McAllester, and D. Ramanan, “Object detection with discriminatively trained part-based models,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 32, no. 9, pp. 1627-45, Sep. 2010.」のような技術を使用することができる。
パターン検出部69は、第1画像の遠距離領域R1又は近距離領域R2において、例えば図9に示すように、パターン認識により車両、トラック、自転車等の種別が既知の物体候補O3を検出する。パターン検出部69による物体候補の検出能力は、画像上での大きさ(画素数)に依存するが、遠距離の物体も検出可能であり、画角及び解像度で調整可能である。パターン検出部69は、種別が既知の対象であれば、移動物体及び静止物体のいずれも検出可能である。パターン検出部69は、認識性能に依存するが、他の物体で一部隠蔽された物体も検出可能である。
パターン検出部69は、近距離領域R2で物体候補を検出する際には、近距離領域R2全体を物体候補の検出対象としてもよく、近距離領域R2が立体物領域R21,R22と路面領域R23に分割されている場合には立体物領域R21,R22のみを物体候補の検出対象としてもよい。パターン検出部69は、近距離領域R2で物体検出部67により図7に示すように先に物体候補O1が検出されている場合には、物体検出部67により物体候補O1が検出された領域でのみ、物体候補を検出してもよい。パターン検出部69は、近距離領域R2で、動き検出部68により先に図8に示すように移動物体候補O2が検出されている場合には、動き検出部68により移動物体候補O2が検出された領域でのみ、物体候補を検出してもよい。
ここで、一般的なパターン認識による物体候補の検出手法は、図10に示すように、複数のサイズの検出枠(ウインドウ)w1,w2,w3を破線の矢印で示すように画像全体に対して走査し、各検出枠w1,w2,w3でパターン認識を行うものである。これに対して、パターン検出部69は、図11に示すように、近距離領域R2で物体検出部67により検出された一定以上の大きさの物体候補(図示省略)のそれぞれに対して、物体候補の大きさ及び距離に合わせて大きさを固定した検出枠W1を用いて、パターン認識により物体候補を検出してもよい。
パターン検出部69は、遠距離領域R1で物体候補を検出する際には、遠距離領域R1全体に対して物体候補を検出してもよい。パターン検出部69は、遠距離領域R1で、動き検出部68により先に図8に示すように移動物体候補O2が検出されている場合には、動き検出部68により移動物体候補O2が検出された領域でのみ、物体候補を検出してもよい。
パターン検出部69は、遠距離領域R1で移動物体候補を検出する際に、記憶装置56に記憶されている地図データ等の道路形状に基づき、遠距離領域R1中の検出対象とする領域を更に絞り込んでもよい。例えば、パターン検出部69は、記憶装置56に記憶されている地図データ等から自車両の周囲の道路形状を読み出す。パターン検出部69は、読み出した道路形状に基づき、遠距離領域中の移動物体が存在する領域を抽出し、抽出した領域で、パターン認識により物体候補を検出する。例えば、遠距離領域R1において対向車線上の領域を抽出し、抽出した領域で対向車を検出してもよい。或いは、遠距離領域R1において歩道上の領域を抽出し、抽出した領域で歩行者を検出してもよい。
統合部70は、物体検出部67により検出された物体候補、動き検出部68により検出された移動物体候補、パターン検出部69により検出された物体候補を統合する統合処理を行う。例えば、統合部70は、物体検出部67により検出された物体候補、動き検出部68により検出された移動物体候補、パターン検出部69により検出された物体候補のそれぞれで検出された同一の物体候補が有る場合に、1つの物体候補として統合する。統合部70は更に、物体検出部67、動き検出部68及びパターン検出部69の物体候補の検出結果に応じて警報信号を出力する。例えば、統合部70は、物体候補と自車両との相対位置、物体候補と自車両との距離、物体候補のオプティカルフロー等に応じて、自車両が物体候補と接触する可能性が有る場合に警報信号を出力する。
<物体検出方法>
次に、図12のフローチャートを参照しながら、本発明の実施形態に係る物体検出装置10を用いた物体検出方法の一例を説明する。
ステップS1において、ステレオカメラ50は、自車両の周囲のステレオ画像を自車両の周囲環境として、所定の周期で取得する。画像補正部61及び62は、ステレオ画像に含まれる第1画像及び第2画像の補正処理をそれぞれ行う。特徴点検出部63及び64は、第1画像及び第2画像それぞれにおいて特徴点を検出し、検出した特徴点を記憶装置56に記録する。
ステップS2において、距離算出部65は、互いに対応する第1画像の特徴点と第2画像の特徴点を探索するステレオ視差算出処理を行い、対応する特徴点間のずれ量(視差)を算出する。距離算出部65は更に、算出した視差及びステレオカメラ50の基線長等に基づき特徴点の3次元座標及び自車両までの距離を算出し、算出した3次元座標及び距離を記憶装置56に記録する。
ステップS3において、領域分割部66は、距離算出部65により算出された自車両と特徴点との距離に基づき、例えば図6に示すように、第1画像を、自車両と特徴点(物体)との距離が相対的に遠い側の遠距離の遠距離領域R1と、自車両と特徴点(物体)との距離が相対的に近い側の近距離領域R2とに分割する領域分割処理を実行する。領域分割部66は更に、距離算出部65により算出された自車両と特徴点との距離に基づき、近距離領域R2を立体物領域R21,R22と路面領域R23に分割してもよい。
ステップS3により分割された近距離領域R2に対して、ステップS4~S6で3種類の物体検出処理を行う場合を例示する。なお、ステップS4~S6において、近距離領域R2全体を物体候補の検出対象とする場合を例示するが、近距離領域R2が立体物領域R21,R22と路面領域R23に分割されている場合には、立体物領域R21,R22のみを物体候補の検出対象としてもよい。
ステップS4において、物体検出部67が、ステップS3で分割された近距離領域R2で、ステップS2で算出された距離に基づき物体候補を検出する。ステップS5において、動き検出部68が、ステップS3で分割された近距離領域R2で、動き検出により移動物体候補を検出する。この際、動き検出部68が、近距離領域R2全体を移動物体候補の検出対象としてもよく、物体検出部67により物体候補が検出された領域のうちの所定の閾値以上の大きさの領域のみを、移動物体候補の検出対象としてもよい。
ステップS6において、パターン検出部69が、ステップS3で分割された近距離領域R2で、パターン認識により種別が既知の物体候補を検出する。この際、パターン検出部69が、近距離領域R2全体を物体候補の検出対象としてもよい。或いは、パターン検出部69が、動き検出部68により移動物体候補が検出された領域のみを物体候補の検出対象としてもよく、物体検出部67により物体候補が検出された領域のうちの所定の閾値以上の大きさの領域のみを、物体候補の検出対象としてもよい。また、パターン検出部69が、物体検出部67により検出された物体候補の距離及び大きさに応じた検出枠を用いたパターン認識により物体候補を検出してもよい。
一方、ステップS3により分割された遠距離領域R1に対して、ステップS7,S8の2種類の物体検出処理を行う場合を例示する。ここで、遠距離領域R1に対しては、物体検出部67が距離に基づき物体候補を検出することを禁止し、動き検出部68及びパターン検出部69の少なくとも一方が物体検出処理を実行する。ステップS7において、動き検出部68が、ステップS3で分割された遠距離領域R1で、動き検出により移動物体候補を検出する。なお、ステップS7の動き検出部68による物体検出処理は、ステップS5の動き検出部68による近距離領域R2における物体検出処理と同時に行ってもよい。
ステップS8において、パターン検出部69が、ステップS3で分割された遠距離領域R1で、パターン認識により種別が既知の物体候補を検出する。この際、パターン検出部69が、遠距離領域R1全体を物体候補の検出対象としてもよく、動き検出部68により移動物体候補が検出された領域のみを物体候補の検出対象としてもよい。なお、ステップS8のパターン検出部69による物体検出処理は、ステップS6のパターン検出部69による近距離領域R2における物体検出処理と同時に行ってもよい。
ステップS9において、統合部80は、ステップS4~S6において近距離領域R2で検出された物体候補と、ステップS7,S8において遠距離領域R1で検出された物体候補とを統合し、統合した物体候補を記憶装置56に記憶する。また、統合部80は、物体候補の検出結果に応じて警報信号を出力する。車両走行コントローラ30は、統合部80から出力された警報信号に基づき車両制御アクチュエータ群40を制御する制御信号を出力する。車両制御アクチュエータ群40は、車両走行コントローラ30から出力された制御信号に基づき自車両の走行を制御する。
<領域分割処理>
次に、図12のステップS3の領域分割処理の一例を、図13のフローチャートを参照して説明する。ステップS11において、領域分割部66は、第1画像の特徴点に対応する画素を選択し、選択された画素の視差が所定の閾値以上か否かを判定する。視差が所定の閾値以上と判定された場合、ステップS12に移行し、画素に近距離フラグを付与して画素を近距離領域R2に分類する。
一方、ステップS11で視差が所定の閾値未満と判定された場合、ステップS13に移行し、画素に遠距離フラグを付与して画素を遠距離領域R1に分類する。ステップS14において、第1画像の特徴点に対応するすべての画素が分類されたか否かを判定する。未分類の画素があると判定された場合、ステップS11に戻り、未分類の画素を選択して同様の処理を実行する。ステップS14ですべての画素が分類されたと判定された場合、処理を終了する。
<近距離領域の物体検出処理>
次に、図12のステップS5の動き検出処理及びS6のパターン認識処理の一例を、図14のフローチャートを参照して説明する。ステップS21において、動き検出部68が、図12のステップS4で物体検出部67により検出された物体候補の1つを選択し、物体候補が検出された領域の大きさが所定の閾値以上か否かを判定する。物体候補が検出された領域の大きさが所定の閾値未満と判定された場合、動き検出部68による動き検出の対象とはせずに、ステップS32に移行する。一方、ステップS21で物体候補が検出された領域が所定の閾値以上に大きいと判定された場合、ステップS22に移行し、動き検出部68が、所定の閾値以上に大きいと判定された物体候補が検出された領域で、動き検出により移動物体候補を検出する。
ステップS23において、パターン検出部69が、ステップS22で動き検出部68により移動物体候補が検出されたか否かを判定する。移動物体候補が検出されたと判定された場合、ステップS24に移行し、パターン検出部69が、移動物体候補が検出された領域で、パターン認識により種別が既知の物体候補を検出する。ステップS25において、パターン検出部69が、パターン認識により物体候補が検出されたか否かを判定する。物体候補が検出されたと判定された場合、ステップS26に移行し、検出された物体候補を「種別が既知の移動物体候補」として記憶装置56に記録する。一方、ステップS25で物体候補が検出されなかったと判定された場合、ステップS27に移行し、ステップS22で動き検出部68により検出された移動物体候補を「種別が未知の移動物体候補」として記憶装置56に記録する。
ステップS23で移動物体候補が検出されなかったと判定された場合、ステップS28に移行し、パターン検出部69が、ステップS21で所定の閾値以上に大きいと判定された物体候補が検出された領域で、パターン認識により種別が既知の物体候補を検出する。ステップS29において、パターン検出部69が、パターン認識により物体候補が検出されたか否かを判定する。物体候補が検出されたと判定された場合、ステップS30に移行し、検出された物体候補を「種別が既知の静止物体候補」として記憶装置56に記録する。一方、ステップS29で物体候補が検出されなかったと判定された場合、ステップS31に移行し、ステップS21で所定の閾値以上に大きいと判定された物体候補を「種別が未知の静止物体候補」として記憶装置56に記録する。
ステップS32において、ステップS4で物体検出部67により検出された物体候補のすべてを処理したか否かを判定する。物体候補のすべてを処理したと判定された場合、処理を完了する。一方、未処理の物体候補が有ると判定された場合、ステップS21の手順に戻り、未処理の物体候補を選択して同様の処理を実行する。
<遠距離領域の物体検出処理>
次に、図12のステップS8のパターン認識処理の一例を、図15のフローチャートを参照して説明する。ステップS41において、パターン検出部69が、図12のステップS7で動き検出部68により移動物体候補が検出されたか否かを判定する。移動物体候補が検出されたと判定された場合、ステップS42に移行し、パターン検出部69が、移動物体候補が検出された領域で、パターン認識により種別が既知の物体候補を検出する。
ステップS43において、パターン検出部69が、パターン認識により物体候補が検出されたか否かを判定する。物体候補が検出されたと判定された場合、ステップS44に移行し、検出された物体候補を「種別が既知の移動物体候補」として記憶装置56に記録する。一方、ステップS43でパターン認識により物体候補が検出されなかったと判定された場合、ステップS45に移行し、移動物体候補を「種別が未知の移動物体候補」として記憶装置56に記録する。
ステップS41の説明に戻り、移動物体候補が検出されなかったと判定された場合、ステップS46に移行し、パターン検出部69が、遠距離領域R1全体で、パターン認識により種別が既知の物体候補を検出する。ステップS47において、パターン検出部69が、パターン認識により物体候補が検出されたか否かを判定する。物体候補が検出されたと判定された場合、ステップS48に移行し、検出された物体候補を「種別が既知の静止物体候補」として記憶装置56に記録する。一方、ステップS47で物体候補が検出されなかったと判定された場合、処理を完了する。
<効果>
以上説明したように、本発明の実施形態によれば、ステレオカメラ50が自車両の周囲環境として第1画像及び第2画像を取得する。領域分割部66が、第1画像及び第2画像等から得られる自車両から自車両の周囲に存在する物体までの距離(距離に相当する視差も含む)に基づき、取得した第1画像を遠距離領域R1と近距離領域R2とに分割する。そして、物体検出部67が、分割された遠距離領域R1で、自車両から物体までの距離に基づき物体候補を検出することを禁止するとともに、分割された近距離領域R2で、自車両から物体までの距離に基づき物体候補を検出する。これにより、例えば視差が小さく、距離に基づく物体候補の検出が困難又は不可能な遠距離領域R1を除外して、距離に基づく物体候補の検出に適する近距離領域R2のみで選択的に、距離に基づき物体候補を検出することができる。したがって、第1画像全体を距離に基づく物体候補の検出対象とする場合と比較して、処理負荷を抑制して効率的に物体候補を検出することができる。
更に、動き検出部68が、遠距離領域R1で動き検出により移動物体候補を検出するとともに、パターン検出部69が、遠距離領域R1でパターン認識により物体候補を検出する。これにより、距離に基づく物体候補の検出が困難又は不可能な遠距離領域R1においても、物体候補を高精度に検出することができる。
更に、処理負荷の低減のために、遠距離の画像領域では動き検出を行わず、近距離の画像領域のみで動き検出を行うのが一般的である。これに対して、本発明の実施形態によれば、動き検出部68が、あえて遠距離領域R1で動き検出により移動物体候補を検出することにより、遠距離領域R1であたりをつけ、移動物体候補を検出した後、検出した移動物体候補に絞って、物体検出を継続することができる。これにより、不要な物体検出処理を抑制することができるため、処理負荷を軽減することができる。
更に、動き検出部68が、遠距離領域R1で動き検出により移動物体候補を検出し、移動物体候補が検出された領域に絞って、パターン検出部69がパターン認識により物体候補を検出する。これにより、動き検出の結果を反映してパターン認識を実行することができるため、不要なパターン認識を抑制することができ、処理負荷を抑制することができる。また、特に注意が必要な移動物体候補をパターン認識による遅延を生じさせずに検出することができる。
更に、近距離領域R2での物体検出部67による距離に基づく物体検出処理において、奥行き方向で隣接する物体が存在する場合に、隣接する物体同士を分離して検出し難い。例えば、歩行者が壁際を歩いている場合に、注意すべき歩行者を壁と分離して検出し難い。これに対して、本発明の実施形態によれば、物体検出部67による距離に基づく物体候補を検出後、物体候補を検出した領域が所定の閾値以上に大きい場合、動き検出部69が動き検出により移動物体候補を検出することにより、奥行き方向で隣接する物体が存在する場合でも、移動物体候補を分離して検出することができる。更に、動き検出部69が、近距離領域R2で、所定の閾値以上の大きさの物体候補が検出された領域に絞って動き検出により移動物体候補を検出すれば、近距離領域R2全体を移動物体候補の検出対象とする場合と比較して演算負荷を抑制することができる。
更に、近距離領域R2で物体検出部67による距離に基づく物体候補を検出後、物体候補を検出した領域が所定の閾値以上に大きい場合、パターン検出部69が自車両と物体候補との距離及び物体候補の大きさに応じた検出枠を用いて、パターン認識により物体候補を検出する。これにより、奥行き方向で隣接する物体が存在する場合でも、種別が既知の物体候補を分離して検出することができる。更に、パターン検出部69が、近距離領域R2で、所定の閾値以上に大きい物体候補が検出された領域に絞ってパターン認識により移動物体候補を検出すれば、近距離領域R2全体を物体候補の検出対象とする場合と比較して演算負荷を抑制することができる。
更に、動き検出部68又はパターン検出部69が、地図データ等から得られた自車両の周囲の道路形状に基づき、遠距離領域R1で移動物体が存在する可能性が高い領域を抽出し、抽出した領域で、動き検出又はパターン認識により物体候補をそれぞれ検出する。これにより、遠距離領域R1で特徴点を抽出し難い場合であっても、移動物体が存在する可能性が高い領域を絞り込むことができる。例えば、遠距離領域R1で対向車線上の領域を抽出して、抽出した領域に絞り込んで対向車を検出し易くしたり、歩道上の領域を抽出して、抽出した領域に絞り込んで歩行者を検出し易くしたりすることができる。
更に、距離算出部65が、ステレオカメラ50により取得した第1画像及び第2画像から得られた対応する特徴点間の視差に基づき、領域分割部66及び物体検出部67で用いる自車両と物体との距離情報を算出する。これにより、ステレオカメラ50以外の個別のレーダ等の測距センサを用いずに自車両と物体との距離情報を算出することができ、システムを簡素化することができる。
更に、領域分割部66が、距離算出部65により算出された自車両と物体との距離に基づき、近距離領域R1を立体物領域R21,R22と路面領域R23とに分割し、路面領域R23を物体候補の検出対象から除外する。これにより、近距離領域R1の立体物領域R21,R22に絞って効率的に物体候補を検出することができる。
(変形例)
本発明の実施形態に係る物体検出方法においては、図12のステップS4~S8の物体検出処理の中で、検出された同一の物体候補を統合するように、移動物体であるか静止物体であるか、種別が既知か未知かを分類する場合を例示した。これに対して、図12のステップS4~S8において検出された物体候補を、ステップS9において統合部70が統合して、移動物体であるか静止物体であるか、種別が既知か未知かを分類する場合を説明する。
図16に統合部70による統合処理のフローチャートを示す。この統合処理は統合処理の起点(キュー)となる特徴により、ステップS100のパターンをキューとする統合処理、ステップS200の動きをキューとする統合処理、ステップS300の距離をキューとする統合処理の3段階で構成される。
<パターンをキューとする統合処理>
図16のステップS100のパターンをキューとする統合処理について、図17のフローチャートを参照して説明する。ステップS101において、統合部70は、図12のステップS6,S8においてパターン認識により検出された物体候補を選択する。ステップS102において、統合部70は、選択した物体候補が検出された領域で、図12のステップS4で距離に基づき物体候補が検出されたか否かを判定する。物体候補が検出されたと判定された場合には、ステップS103に移行する。
ステップS103において、統合部70は、選択した物体候補が検出された領域で、図12のステップS5,S7において動き検出により移動物体候補が検出されたか否かを判定する。移動物体候補が検出されたと判定された場合には、ステップS104に移行し、統合部70は、選択した物体候補を「種別が既知の移動物体候補」として記憶装置56に記録する。一方、ステップS103において、移動物体候補が検出されなかったと判定された場合には、ステップS105に移行し、統合部70は、選択した物体候補を「種別が既知の静止物体候補」として記憶装置56に記録する。
ステップS102の説明に戻り、物体候補が検出されなかったと判定された場合には、ステップS106に移行し、統合部70は、選択した物体候補が検出された領域で、図12のステップS5,S7において動き検出により移動物体候補が検出されたか否かを判定する。移動物体候補が検出されたと判定された場合、ステップS107に移行し、統合部70は、移動物体候補に対応する特徴点の自車両までの距離等に基づき、自車両から移動物体候補までの距離を推定する。その後、ステップS108において、選択した物体候補を「種別が既知の移動物体候補」として記憶装置56に記録する。一方、ステップS106で移動物体候補が検出されなかったと判定された場合、ステップS109に移行し、移動物体候補に対応する特徴点の自車両までの距離等に基づき、自車両から移動物体候補までの距離を推定する。その後、ステップS110において、選択した物体候補を「種別が既知の静止物体候補」として記憶装置56に記録する。
<動きをキューとする統合処理>
次に、図16のステップS200の動きをキューとする統合処理について、図18のフローチャートを参照して説明する。ステップS201において、統合部70は、図12のステップS5,S7で動き検出により検出された移動物体候補(移動体候補に対応する特徴点のクラスタ)を選択する。ステップS202において、統合部70は、選択した移動物体候補が、図16のステップS100のパターンをキューとする統合処理によって、既に移動物体候補として分類され記憶装置56に記録されているか否かを判定する。記録されていると判定された場合には処理を完了する。一方、ステップS202において記録されていないと判定された場合には、ステップS203に移行する。
ステップS203において、統合部70は、選択した移動物体候補が検出された領域で、図12のステップS4で距離に基づき物体候補が検出されたか否かを判定する。物体候補が検出されたと判定された場合には、ステップS204に移行し、統合部70は、選択した移動物体候補を「種別が未知の移動物体候補」として記憶装置56に記録する。一方、ステップS203において物体候補が検出されなかったと判定された場合、ステップS205に移行する。
ステップS205において、統合部70は、選択した移動物体候補に対応する特徴点の画素に遠距離フラグが付与されているか否かを判定する。遠距離フラグが付与されていると判定された場合には、ステップS206に移行し、統合部70は、選択した移動物体候補を「遠距離領域R1の種別が未知の移動物体候補」として記憶装置56に記録する。一方、ステップS205において遠距離フラグが付与されていないと判定された場合には、ステップS207に移行し、統合部70は、選択した移動物体候補を「近距離領域R2の種別が未知の移動物体候補」として記憶装置56に記録する。
<距離をキューとする統合処理>
図16にステップS300の距離をキューとする統合処理について、図19のフローチャートを参照して説明する。ステップS301において、統合部70は、図12のステップS4において物体検出部67により距離に基づき検出された物体候補を選択する。ステップS302において、統合部70は、選択した物体候補が、図14のステップS100のパターンをキューとする統合処理又はS200の動きをキューとする統合処理において、既に物体候補として分類され、記憶装置56に記録されているか否かを判定する。物体候補として既に記録されていると判定された場合、処理を終了する。一方、ステップS302で物体候補として記録されていないと判定された場合、ステップS303に移行し、選択した物体候補を「種別が未知の静止物体候補」として記憶装置56に記録する。
(その他の実施形態)
上記のように、本発明は実施形態によって記載したが、この開示の一部をなす論述及び図面は本発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施形態、実施例及び運用技術が明らかとなろう。
例えば、本発明の実施形態においては、ステレオカメラ50を構成する第1画像センサ52と第2画像センサ53により取得した第1画像及び第2画像から、距離算出部65が自車両と自車両の周囲に存在する物体との距離情報を算出する場合を例示したが、レーダ51等の測距センサにより自車両と自車両の周囲に存在する物体との距離情報を検出してもよい。この場合、ステレオカメラ50に代えて単眼カメラ等の画像センサが、自車両の周囲の画像を自車両の周囲環境として取得してもよい。そして、領域分割部66は、測距センサにより検出された距離情報に基づき、画像センサにより取得された画像を、近距離領域と遠距離領域に分割してもよい。物体検出部5は、測距センサにより検出された距離情報に基づき、画像センサにより取得された画像の近距離領域で物体候補を検出してもよい。
また、領域分割部66は、ステレオカメラ50等の画像センサにより取得された画像を近距離領域と遠距離領域に分割する代わりに、レーダ51等の測距センサが自車両と自車両の周囲に存在する物体との点群データ等の距離情報(距離画像)を自車両の周囲環境として取得して、取得された距離情報を近距離領域と遠距離領域に分割してもよい。この場合、物体検出部67は、測距センサにより検出された距離情報に基づき、測距センサにより検出された距離情報の近距離領域で物体候補を検出してもよい。
また、ステレオカメラ50等の複数の画像センサによりそれぞれ取得された複数の画像があり、複数の画像のそれぞれの画素に対応する3次元座標及び自車両までの距離が、複数の画像間で対応付けられている場合には、領域分割部66は、複数の画像のそれぞれを近距離領域と遠距離領域に分割してもよい。そして、物体検出部67、動き検出部68及びパターン検出部69は、互いに異なる画像の近距離領域又は遠距離領域に対して、物体検出処理を行い、それぞれの検出結果を統合部70により統合してもよい。
また、本発明の実施形態においては、図12に示すように、近距離領域に対しては、ステップS4における距離に基づく物体検出処理、ステップS5における動き検出による物体検出処理、及びステップS6におけるパターン認識による物体検出処理の3種類の検出処理を行う場合を例示したが、これに限定されない。例えば、近距離領域ではステップS4における距離に基づく物体検出処理のみを行ってもよい。また、ステップS4における距離に基づく物体検出処理及びステップS5における動き検出による物体検出処理の2種類のみを行ってもよい。或いは、ステップS4における距離に基づく物体検出処理及びステップS6におけるパターン認識による物体検出処理の2種類のみを行ってもよい。
また、本発明の実施形態においては、図12に示すように、遠距離領域に対しては、ステップS7における動き検出による物体検出処理、及びステップS8におけるパターン認識による物体検出処理の2種類を順次行う場合を例示したが、これに限定されない。例えば、遠距離領域ではステップS7における動き検出による物体検出処理、及びステップS8におけるパターン認識による物体検出処理のいずれも行わなくてもよい。即ち、近距離領域のみで物体検出処理を行ってもよい。また、ステップS7における動き検出による物体検出処理、及びステップS8におけるパターン認識による物体検出処理のうちの一方のみを行ってもよい。また、ステップS7における動き検出による物体検出処理、及びステップS8におけるパターン認識による物体検出処理を逆の順番で行ってもよい。
また、本発明の実施形態においては、領域分割部66は、第1の画像を近距離領域と遠距離領域の2段階に分割する場合を例示したが、第1の画像を距離に応じて3段階以上の領域に分割してもよい。例えば、自車両から近い側の近距離領域、自車両から遠い側の遠距離領域、近距離領域と遠距離領域の間の距離にある中距離領域の3段階に分割してもよい。この場合、分割した3段階の領域で互いに異なる種類の物体検出処理を行ってもよい。
本発明はここでは記載していない様々な実施形態等を含むことは勿論である。したがって、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。