本発明の第1実施形態を図1〜図7を参照して説明する。
まず、図1および図2を参照して、本実施形態の車両の周辺監視装置のシステム構成を説明する。図1は該周辺監視装置の全体構成を示すブロック図、図2は該周辺監視装置を搭載した車両の外観を示す斜視図である。なお、図2では、周辺監視装置の一部の構成要素の図示を省略している。
図1および図2を参照して、本実施形態の周辺監視装置は、画像処理ユニット1を備える。この画像処理ユニット1には、車両10の前方の画像を撮像する撮像装置としての2つの赤外線カメラ2R,2Lが接続されると共に、車両10の走行状態を検出するセンサとして、車両10のヨーレートを検出するヨーレートセンサ3と、車両10の走行速度(車速)を検出する車速センサ4と、車両10のブレーキ操作(詳しくはブレーキペダルが操作されているか否か)を検出するブレーキセンサ5とが接続されている。さらに、画像処理ユニット1には、音声などによる聴覚的な注意喚起情報を出力するためのスピーカ6と、前記赤外線カメラ2R,2Lにより撮像された画像や視覚的な注意喚起情報を表示するための表示装置7とが接続されている。各赤外線カメラ2R,2Lは、遠赤外域に感度を有し、それにより撮像される物体の温度が高いほど、その物体の画像の出力信号のレベルが高くなる(該物体の画像の輝度が高くなる)特性を有している。なお、本実施形態では、撮像装置として、赤外線カメラ2R,2Lを使用するが、可視光域に感度を有するカメラを使用してもよい。
画像処理ユニット1は、詳細な図示は省略するが、A/D変換回路、マイクロコンピュータ(CPU、RAM、ROM)、画像メモリなどを含む電子回路により構成され、前記赤外線カメラ2R,2L、ヨーレートセンサ3、車速センサ4およびブレーキセンサ5の出力(アナログ信号)がA/D変換回路を介してデジタル化されて入力される。そして、画像処理ユニット1は、入力されたデータを基に、人(歩行者)などの対象物を検出する処理や、その検出した対象物と車両10との接触の可能性を判断する処理、必要に応じて前記スピーカ6や表示装置7を介して運転者に警報を発する処理などをマイクロコンピュータにより実行する。これらの処理は、マイクロコンピュータのROMにあらかじめ実装されたプログラムを該マイクロコンピュータにより実行することにより実現され、そのプログラムは、本発明の車両の周辺監視用プログラムを含んでいる。また、そのプログラムの実行によって実現される画像処理ユニット1の処理機能によって、本発明の各手段が実現される。
図2に示すように、前記赤外線カメラ2R,2Lは、車両10の前方を撮像するために、車両10の前部(図ではフロントグリルの部分)に取り付けられている。この場合、赤外線カメラ2R,2Lは、それぞれ、車両10の車幅方向の中心よりも右寄りの位置、左寄りの位置に配置されている。それらの位置は、車両10の車幅方向の中心に対して左右対称である。そして、該赤外線カメラ2R,2Lは、それらの光軸が互いに平行に車両10の前後方向に延在し、且つ、それぞれの光軸の路面からの高さが互いに等しくなるように車両10の前部に固定されている。
また、前記表示装置7は、本実施形態では、例えば車両10のフロントウィンドウに画像などの情報を表示するヘッド・アップ・ディスプレイ7a(以下、HUD7aという)を備えている。なお、表示装置7は、HUD7aの代わりに、もしくは、HUD7aと共に、車両10の車速などの走行状態を表示するメータに一体的に設けられたディスプレイ、あるいは、車載ナビゲーション装置に備えられたディスプレイを含んでもよい。
次に、本実施形態の周辺監視装置の全体的動作を図3および図4のフローチャートを参照して説明する。なお、図3および図4のフローチャートの処理のうちの一部の処理は、例えば本願出願人が先に提案した特開2003−284057号公報(以下、特許文献2という)の図3に記載されている処理と同じであるので、その同じ処理については、本明細書での詳細な説明は省略する。補足すると、図3および図4のフローチャートの処理は、画像処理ユニット1のマイクロコンピュータが実行するプログラムにより実現される処理である。
まず、画像処理ユニット1は、赤外線カメラ2R,2Lのそれぞれの出力信号である赤外線画像を取得して(STEP1)、A/D変換し(STEP2)、それぞれの画像を画像メモリに格納する(STEP3)。これにより、各赤外線カメラ2R,2Lにより撮像された画像が画像処理ユニット1に取り込まれる。以降、赤外線カメラ2Rから得られた画像を右画像、赤外線カメラ2Lから得られた画像を左画像という。これらの右画像および左画像は、いずれもグレースケール画像である。なお、STEP1〜3の処理は、前記特許文献2の図3のS1〜S3の処理と同じである。
次いで、画像処理ユニット1は、前記右画像および左画像のうちの一方を基準画像とし、この基準画像を2値化する(STEP4)。基準画像は、本実施形態では右画像である。この2値化処理は、基準画像の各画素の輝度値を所定の輝度閾値と比較し、基準画像のうちの、該所定の輝度閾値よりも高い輝度値を有する領域(比較的明るい領域)を「1」(白)とし、該輝度閾値よりも低い輝度値を有する領域(比較的暗い領域)を「0」(黒)とする処理である。以降、この2値化処理により得られる画像(白黒画像)を2値化画像という。そして、この2値化画像のうちの、「1」とされる領域を高輝度領域という。なお、この2値化画像は、グレースケール画像(右画像および左画像)とは別に画像メモリに記憶される。
次いで、画像処理ユニット1は、前記2値化画像に対してSTEP5〜7の処理を実行し、該2値化画像から対象物(より正確には対象物に対応する画像部分)を抽出する。すなわち、前記2値化画像の高輝度領域を構成する画素群を、基準画像の縦方向(y方向)に1画素分の幅を有して横方向(x方向)延在するラインに分類し、その各ラインを、その位置(基準画像上での2次元位置)の座標と長さ(画素数)とからなるランレングスデータに変換する(STEP5)。そして、このランレングスデータにより表されるラインのうちの、基準画像の縦方向に重なりを有するライン群のそれぞれにラベル(識別子)を付し(STEP6)、そのライン群のそれぞれを対象物として抽出する(STEP7)。
なお、STEP5〜7の処理により抽出される対象物には、一般には、人(歩行者)だけでなく、他車両、電柱、自動販売機などの人口構造物なども含まれる。また、同一の物体の複数の局所部分が対象物として抽出される場合もある。
次いで、画像処理ユニット1は、上記の如く抽出した各対象物の重心の位置(基準画像上での位置)と面積と外接四角形の縦横比とを求める(STEP8)。なお、各対象物の重心の位置は、該対象物に含まれるランレングスデータの各ラインの位置(各ラインの中心位置)の座標に該ラインの長さを乗じたものを、該対象物に含まれるランレングスデータの全てのラインについて加算し、その加算結果を該対象物の面積により除算することにより求められる。また、各対象物の重心の代わりに、該対象物の外接四角形の重心(中心)の位置を求めてもよい。
次いで、画像処理ユニット1は、前記STEP7で抽出した対象物の時刻間追跡、すなわち、画像処理ユニット1の演算処理周期毎の同一対象物の認識を行なう(STEP9)。この処理では、ある演算処理周期の時刻(離散系時刻)kにおけるSTEP7の処理により対象物Aが抽出され、次の演算処理周期の時刻k+1におけるSTEP7の処理により対象物Bが抽出されたとしたとき、それらの対象物A,Bの同一性が判定される。この同一性の判定は、例えば、それらの対象物A,Bの2値化画像上での形状やサイズ、基準画像(グレースケール画像)上での輝度分布の相関性などに基づいて行なえばよい。そして、それらの対象物A,Bが互いに同一であると判定された場合に、時刻k+1で抽出した対象物Bのラベル(STEP6で付したラベル)が対象物Aのラベルと同じラベルに変更される。
なお、前記したSTEP5〜9の処理は、前記特許文献2の図3のS5〜S9の処理と同じである。
次いで、画像処理ユニット1は、前記車速センサ4およびヨーレートセンサ5の出力(車速の検出値およびヨーレートの検出値)を読み込む(STEP10)。なお、このSTEP10では、読込んだヨーレートの検出値を積分することにより、車両10の回頭角(方位角)の算出も行なわれる。
一方、画像処理ユニット1は、STEP9,10の処理と並行して、あるいは時分割処理により、STEP11〜13の処理を実行する。このSTEP11〜13の処理は、STEP7で抽出した各対象物の車両10からの距離を求める処理であり、前記特許文献2の図3のS11〜S13の処理と同じである。その処理を概略的に説明すると、まず、右画像(基準画像)のうち、各対象物に対応する領域(例えば該対象物の外接四角形の領域)を探索画像R1として抽出する(STEP11)。
次いで、左画像中で、右画像の探索画像R1に含まれる対象物と同じ対象物を探索するための領域である探索領域R2が設定され、その探索領域R2内で、探索画像R1との相関性が最も高い領域が、探索画像R1に対応する画像(探索画像R1と同等の画像)である対応画像R3として抽出される(STEP12)。この場合、左画像の探索領域R2のうち、右画像の探索画像R1の輝度分布に最も一致する輝度分布を有する領域が対応画像R3として抽出される。なお、STEP12の処理は、2値化画像ではなく、グレースケール画像を使用して行なわれる。
次いで、右画像における前記探索画像R1の重心の横方向位置(x方向位置)と、左画像における前記対応画像R3の重心の横方向位置(x方向位置)との差分の画素数を視差Δdとして算出し、その視差Δdを用いて、対象物の車両10からの距離z(車両10の前後方向における距離)が算出される(STEP13)。距離zは、次式(1)により算出される。
z=(f×D)/(Δd×p) ……(1)
なお、fは赤外線カメラ2R,2Lの焦点距離、Dは赤外線カメラ2R,2Lの基線長(光軸の間隔)、pは画素ピッチ(1画素分の長さ)である。
以上がSTEP11〜13の処理の概要である。なお、STEP11〜13の処理は、前記STEP7で抽出された各対象物に対して実行される。
前記STEP10およびSTEP13の処理の終了後、画像処理ユニット1は、次に、各対象物の実空間上での位置(車両10に対する相対位置)である実空間位置を算出する(STEP14)。ここで算出される実空間位置は、図2に示すように、赤外線カメラ2R,2Lの取り付け位置の中点を原点として設定された実空間座標系(XYZ座標系)での位置(X,Y,Z)である。この実空間座標系のX方向およびY方向は、それぞれ車両10の車幅方向、上下方向(鉛直方向)であり、これらのX方向およびY方向は、前記右画像および左画像のx方向(横方向)、y方向(縦方向)と同方向である。また、実空間座標系のZ方向は、車両10の前後方向である。そして、対象物の実空間位置(X,Y,Z)は次式(2)、(3)、(4)により算出される。
X=x×z×p/f ……(2)
Y=y×z×p/f ……(3)
Z=z ……(4)
なお、x、yは基準画像上での対象物のx座標、y座標である。
次いで、画像処理ユニット1は、車両10の回頭角の変化の影響を補償して、対象物の実空間位置の精度を高めるために、対象物の実空間位置(X,Y,Z)のうちのX方向の位置XおよびZ方向の位置Zを上記式(2)、(4)により求めた値から、前記STEP10で求めた回頭角の時系列データに応じて補正する(STEP15)。具体的には、画像処理ユニット1の現在の演算処理周期の時刻から次回の演算処理周期の時刻までの回頭角の変化量を、現在時刻までの回頭角の時系列データを基に求める(推定する)。なお、その回頭角の補正量は、例えば、車両10のヨーレートの検出値(現在値)に、演算処理周期の1周期分の時間を乗じることで求めてもよい。そして、その求めた回頭角の変化量だけ、STEP14で求めた対象物の実空間位置をY軸(鉛直軸)の回りに回転変換する(回頭角の変化量により定まるY軸まわりの回転変換の行列をSTEP14で求めた実空間位置(X,Y,Z)の列ベクトルに乗じる)ことにより、該実空間位置(X,Y,Z)のX方向の位置XおよびZ方向の位置Zを補正する。この補正後の実空間位置は、車両10の進行方向をZ方向、これに直交する水平方向をX方向、鉛直方向をY方向とする座標系での対象物の位置に相当する。
なお、車両10が直進走行をしている状況など、車両10の進行方向と前後方向とが一致もしくはほぼ一致する状況(車両10の横滑りが十分に小さい状況)では、STEP15の処理は省略してもよい。
補足すると、以上説明したSTEP1〜15の処理によって、本発明(第1発明)における対象物位置検出手段が構成される。
一方、前記したSTEP4〜STEP15の処理と並行して、あるいは、時分割処理により、画像処理ユニット1は、STEP3で取得したグレースケール画像を基に、車両10が走行している走行路である走行レーンの、車両10に対する向き(車両10に対する走行レーンの延在方向の向き)を特定可能な走行路情報を取得する処理をSTEP16、17で実行する。
本実施形態では、走行レーンの左側もしくは右側のレーンマーカ(白線や黄線など、走行レーンの両側もしくは片側の境界を規定するマーカ)を走行レーンの向きを特定可能な走行路情報として用い、そのレーンマーカをSTEP16,17の処理により検出(認識)する。具体的には、まず、画像処理ユニット1は、前記STEP3で取得したグレースケール画像から、エッジ検出を行なう(STEP16)。エッジ検出は、右画像または左画像の左右方向(x方向)での輝度の微分値の絶対値が、所定値以上となる点を抽出することで行なわれる。次いで、画像処理ユニット1は、STEP16で検出したエッジを基に、走行レーンの左側もしくは右側のレーンマーカを検出する(STEP17)。具体的には、STEP17で検出したエッジのうちの、車両10の左側および右側のうちの一方側で直線状に連続するものを、レーンマーカとして検出する。これにより、レーンマーカが、走行レーンの向きを特定可能な走行路情報として取得される。なお、撮像画像に基づく、白線や黄線などのレーンマーカの検出手法は、種々様々の手法が公知となっており、そのいずれの手法を用いてもよい。また、白線や黄線に限らず、ドットボッツなどのレーンマーカの列を検出するようにしてもよい。
このようにして検出されるレーンマーカの延在方向の、車両10に対する向きが、該車両10に対する走行レーンの向きを表すものとなる。
補足すると、白線などのレーンマーカ以外に、走行レーンの側方の歩道、ガードレールなどを、走行レーンの向きを特定可能な走行路情報として検出するようにしてもよい。また、車両10の外部との通信や、地図データなどを基に、車両10の前方の道路の曲率などを認識できる場合には、その情報を走行路情報として用いてもよい。また、本実施形態では、赤外線カメラ2Rまたは2Lによる撮像画像(赤外線画像)を使用して、レーンマーカを検出するようにしたが、赤外線カメラ2R,2Lとは別の撮像装置(可視光域に感度を有するカメラ)を車両10に搭載しておき、その撮像装置による車両10の前方の撮像画像(可視光画像)からレーンマーカを検出するようにしてもよい。
なお、STEP16,17の処理によって、本発明における走行路情報取得手段が構成される。
上記のようにSTEP15およびSTEP17の処理を実行した後、画像処理ユニット1は、次に、STEP15で求めた対象物の実空間位置(X,Y,Z)を、STEP17で検出したレーンマーカにより特定される走行レーンの向き(車両10に対する向き)に応じて補正する(STEP18)。この補正は、次のように行なわれる。
すなわち、前記STEP17で検出したレーンマーカの、前記右画像上または左画像上での傾き角を基に、該レーンマーカの、車両10の前後方向に対する傾き角(水平面内での傾き角)が求められる。なお、この傾き角は、車両10の前方側で、該車両10から所定の距離だけ離れた位置(車両10に近い位置)におけるレーンマーカの傾き角である。そして、この傾き角に、前記STEP15の処理で使用した回頭角の変化量(演算処理周期の1周期当たりの回頭角の変化量)を加えることによって、車両10の進行方向に対するレーンマーカの傾き角(これは車両10の進行方向と走行レーンの向き(水平面内での向き)とのずれ角を意味する)が求められる。
なお、車両10の前後方向と進行方向とが一致またはほぼ一致する状況では、レーンマーカの、車両10の前後方向に対する傾き角をそのまま、車両10の進行方向に対するレーンマーカの傾き角として求めればよい。
さらに、このようにして求めた傾き角だけ、STEP15で求めた対象物の実空間位置(X,Y,Z)をY軸まわりに(鉛直軸まわりに)回転変換する(傾き角に応じて定まるY軸まわりの回転変換の行列をSTEP15で求めた実空間位置(X,Y,Z)の列ベクトルに乗じる)ことによって、該実空間位置(X,Y,Z)が補正される。このような補正によって得られる対象物の実空間位置は、車両10の進行方向を走行レーンの向きと同方向(車両10の目標とする進行方向)に合致させたと仮定した場合における該車両10に対する対象物の相対的な実空間位置、具体的には、走行レーンの向きをZ方向、これと直交する水平方向をX方向、鉛直方向をY方向として、当該車両10(進行方向を走行レーンの向きに合致させた車両10)に固定された座標系での位置を意味する。以降、このSTEP18での補正後の対象物の実空間位置をレーン基準実空間位置、このレーン基準実空間位置に対応する座標系(走行レーンの向きをZ方向とする座標系)をレーン基準実空間座標系という。また、前記STEP15で求められた対象物の実空間位置を車両基準実空間位置、この車両基準実空間位置に対応する座標系(車両10の実際の進行方向をZ方向とする座標系)を車両基準実空間座標系という。
ここで、図7は、実線で示す車両10が、レーンマーカ50a,50bで区画された走行レーン50を走行している状況を示している。この図示の状況では、実線で示す車両10の現在の進行方向は、矢印Bで示す方向であり、その進行方向は、走行レーン50の向き(レーンマーカ50a,50bの延在方向)に対して角度θx(≠0)の傾き角だけ傾いている。なお、図示の例では、車両10の前後方向と進行方向とが合致している状況を示している。この場合、図中の斜線付きの円で表す対象物X1,X2の車両基準実空間位置は、実線示の車両10の進行方向をZ方向として、該車両10に固定された車両基準実空間座標系での位置を表すものとなる。一方、前記レーン基準実空間位置は、図7に二点鎖線で示す車両10、すなわち、その進行方向(前後方向)を走行レーンの向きと同方向に合致させた車両10の進行方向(=走行レーンの向き)をZ方向として、該車両10に固定されたレーン基準実空間座標での位置を表すものとなる。
STEP18の処理の後、画像処理ユニット1は、対象物の車両10に対する移動ベクトルを求める(STEP19)。具体的には、同一対象物についてのレーン基準実空間位置の、所定期間(現在時刻から所定時間前までの期間。以下、モニタ期間という)における時系列データを近似する直線を求め、所定時間前の時刻(モニタ期間の初期時刻)での該直線上の対象物の位置(点)から、現在時刻(モニタ期間の終了時刻)における該直線上の対象物の位置(点)に向かうベクトルを対象物の移動ベクトルとして求める。このようにして求められる移動ベクトルは、本発明における相対移動ベクトルに相当し、対象物の車両10に対する相対速度ベクトルに比例する。そして、該移動ベクトルは、車両10の進行方向を走行レーンの向きに合致させた場合における対象物の車両10に対する相対的な移動方向を示すものとなる。
次いで、画像処理ユニット1は、前記STEP7で抽出された各対象物(2値化対象物)が、車両10との接触を回避すべき回避対象であるか否かを判定する回避対象判定処理を実行する(STEP20)。この回避対象判定処理については詳細を後述する。
上記STEP20の回避対象判定処理で、対象物が回避対象でないと判定された場合(より正確には、全ての対象物が回避対象でないと判定された場合)には、STEP20の判定結果がNOとなる。この場合には、今回の演算処理周期の処理が終了し、次回の演算処理周期でSTEP1からの処理が繰り返される。また、STEP20で、対象物が回避対象であると判定された場合(回避対象であると判定された対象物が存在する場合)には、STEP20の判定結果がYESとなる。この場合には、STEP21に進んで、画像処理ユニット1は、回避対象であると判定された対象物に対する車両10の運転者の注意を喚起すべきが否かを判定する注意喚起出力判定処理を実行する。この注意喚起出力判定処理では、前記ブレーキセンサ5の出力から、運転者による車両10のブレーキ操作がなされていることが確認され、且つ、車両10の減速加速度(車速の減少方向の加速度を正とする)が所定の閾値(>0)よりも大きいときには、注意喚起を行なわないと判定される。また、運転者によるブレーキ操作が行なわれていない場合、あるいは、ブレーキ操作が行なわれていても、車両10の減速加速度が所定の閾値以下である場合には、注意喚起を行なうべきと判定される。
そして、画像処理ユニット1は、注意喚起を行なうべきと判定した場合(STEP21の判断結果がYESとなる場合)には、前記スピーカ6と表示装置7とによる注意喚起を車両10の運転者に対して行なう注意喚起処理を実行する(STEP22)。そして、この注意喚起処理の後、今回の演算処理周期の処理が終了して、次回の演算処理周期でSTEP1からの処理が再開される。上記注意喚起処理では、例えば表示装置7に前記基準画像を表示すると共に、その基準画像中の、回避対象の対象物の画像を強調的に表示する。さらに、そのような対象物が存在することをスピーカ6から運転者に音声案内する。これにより、該対象物に対する運転者の注意が喚起される。なお、運転者に対する注意喚起は、スピーカ6および表示装置7のいずれか一方だけで行なうようにしてもよい。
また、STEP21で注意喚起を行なわないと判断したとき(全ての回避対象の対象物について注意喚起を行なわないと判断したとき)には、STEP21の判断結果がNOとなる。この場合には、そのまま今回の演算処理周期の処理が終了して、次回の演算処理周期でSTEP1からの処理が再開される。
補足すると、本実施形態では、前記表示装置7およびスピーカ6が本発明における所定の機器に相当する。また、車両10が車両のステアリング装置、ブレーキ装置、アクセル装置のいずれかをアクチュエータによって操作可能(ひいては車両10の走行挙動を操作可能)なものである場合には、STEP20で回避対象であると判定された対象物との接触を回避するように、もしくは、回避が容易になるように車両10のステアリング装置、ブレーキ装置、アクセル装置を制御するようにしてもよい。例えば、運転者によるアクセルペダルの必要踏力が、回避対象の対象物が存在しない場合(通常の場合)よりも大きくなるようにアクセル装置を制御して加速しにくくする。あるいは、回避対象と車両10との接触を回避するために要求されるステアリング装置の操舵方向側へのステアリングハンドルの要求回転力を、反対側へのステアリングハンドルの要求回転力よりも低くして、当該操舵方向側へのステアリングハンドルの操作を容易に行い得るようにする。あるいは、ブレーキ装置のブレーキペダルの踏み込み量に応じた車両10の制動力の増加速度を、通常の場合よりも高くする。このようにすることで、回避対象との接触を避けるための車両10の運転が容易になる。
なお、上記のようなステアリング装置の制御と、前記表示装置7もしくはスピーカ6による注意喚起とは、並行して行なうようにしてもよい。
以上が本実施形態の周辺監視装置の全体的作動である。
次に、説明を後回しにしたSTEP20の回避対象判定処理を図5、図6および前記図7を参照して詳細に説明する。図5はSTEP20の処理を示すフローチャート、図6はその処理で使用する第1領域AR1および第2領域AR2を説明するための図である。
図5を参照して、STEP20の回避対象判定処理では、まず、対象物のレーン基準実空間位置に関する第1の判定処理としての第1対象物位置判定処理が実行される(STEP31)。この第1対象物位置判定処理は、車両10と対象物との接触を車両10の操舵やブレーキ操作によって余裕をもって回避し得るか否かを判定するための処理である。具体的には、該第1対象物位置判定処理では、赤外線カメラ2R,2Lの撮像領域(赤外線カメラ2R,2Lの視野角内領域)のうち、走行レーンの方向(前記レーン基準実空間座標系のZ方向)での車両10からの距離が、所定値以下となる領域(以下、第1領域AR1という)に対象物の現在のレーン基準実空間位置(レーン基準実空間位置の今回値)が存在するか否かが判定される。
この場合、車両10からの距離に関する所定値は、前記STEP4で抽出された対象物(2値化対象物)毎に設定される。具体的には、前記STEP19で移動ベクトルを求めるための前記モニタ期間の時間で、該移動ベクトルのZ方向成分(前記レーン基準実空間座標系でのZ方向成分)を除算することにより、該モニタ期間での対象物の平均速度Vz(走行レーンの方向での対象物の相対速度の平均値Vz)が求められ、この平均速度Vzに所定の定数T(時間の次元の定数)を乗じてなる値Vz・Tが前記第1領域AR1の、Z方向の境界を規定する上記所定値として設定される。
このように設定される第1領域AR1は、平面視で、図6の三角形abcの領域となる。なお、線分abを含む直線L1、線分acを含む直線L2は、赤外線カメラ2R,2Lの視野角(水平方向の視野角)の左右の境界線である。また、第1領域AR1は、上下方向では、所定の高さ(例えば車両10の高さの2倍程度の高さ)を有する領域である。
補足すると、図6では、車両10は、その進行方向を走行レーンの向きに合致させた状態で記載している。
STEP31の第1対象物位置判定処理は、上記の如く各対象物に対応して定まる第1領域AR1に対象物が存在するか否かを判定する処理であり、対象物の現在のレーン基準実空間位置のZ方向位置(これは走行レーンの向きと同方向での対象物の車両10からの距離を意味する)がVz・T以下で、且つ、Y方向位置(鉛直方向位置)が所定の高さ以下の位置であるときに、該対象物が第1領域AR1に存在すると判定される。なお、走行レーンの向きと同方向における対象物の相対速度Vzが車両10から遠ざかる向きの相対速度である場合には、該対象物は第1領域AR1に存在しないと判定される。
STEP31において、対象物が第1領域AR1内に存在しないと判定された場合(STEP31の判定結果がNOとなる場合)は、車両10の操舵やブレーキ操作によって該対象物と車両10との接触を余裕をもって回避し得る状況である。そして、この場合には、画像処理ユニット1は、STEP37において、該対象物が回避対象で無い(車両10の接触の可能性が無い)と判定し、該対象物についての回避対象判定処理を終了する。
一方、STEP31において、対象物が第1領域AR1内に存在すると判定された場合(STEP31の判断結果がYESとなる場合)には、画像処理ユニット1はさらに、対象物のレーン基準実空間位置に関する第2の判定処理としての第2対象物位置判定処理を実行する(STEP32)。この第2対象物位置判定処理は、対象物の位置が現在位置に維持されたとした場合に、車両10と対象物との接触の可能性が高いか否かを判定するための処理である。
具体的には、該第2対象物位置判定処理では、対象物が、図6に示すように車両10(その進行方向を走行レーンの向きに合致させた車両)の両側で該車両10の進行方向(=走行レーンの方向)に延在するように設定された一対の境界線L3,L4の間の領域AR2(以下、第2領域AR2という)に存在するか否かが判定される。
この場合、第2領域AR2の左右の境界線L3,L4は、それらの間隔をWとしたとき、図6に示すように、車両10の車幅中心線L0(より正確には、車両10の前端の車幅方向の中心点を通って走行レーンの方向に平行な線)から左右に同じ間隔W/2を有する位置に設定される。そして、境界線L3,L4の間隔Wは、車両10の車幅αよりも若干広い間隔に設定される。STEP32の第2対象物位置判定処理は、上記の如く定まる第2領域AR2(この第2領域AR2の境界線L3,L4は走行レーンの向きに平行である)に対象物が存在するか否かを判定する処理である。その判定は、対象物の現在のレーン基準実空間位置のX方向成分の値が、第2領域AR2の、境界線L3のX方向位置(レーン基準実空間座標系でのX方向位置)と、境界線L4のX方向位置(レーン基準実空間座標系でのX方向位置)との間の値であるか否によって判定される。
例えば、前記図7に示す状況において、第2領域AR2は、同図7に二点鎖線で示す領域に設定される。従って、図7中の対象物X1については、そのレーン基準実空間位置が第2領域AR2に存在すると判定される。なお、仮に前記車両基準座標系で第2領域AR2を設定すると、該第2領域AR2は、図7の実線で示す領域となる。この場合には、対象物X1は、第2領域AR2に存在しないこととなる。
補足すると、第2領域AR2の幅Wは、車両10の走行環境(車両10の車速や、前走車との車間距離など)に応じて変化させるようにしてもよい。
STEP32において、対象物のレーン基準実空間位置が第2領域AR2に存在すると判定された場合(STEP32の判定結果がYESとなる場合)は、対象物が現在位置に留まったとした場合に、該対象物が近い将来において、車両10と接触する可能性が高い。これは、現在の車両10の実際の進行方向が走行レーンの向きと合致していなくても、該車両10は、将来的には、走行レーンの向きとほぼ同じ方向に走行するからである。そして、この場合には、本実施形態では、対象物が歩行者(人)であることを要件として、該対象物が回避対象であると判定する。
具体的には、画像処理ユニット1は、次に、対象物が歩行者(人)であるか(より正確には人である可能性が高いか否か)の判定処理を行なう(STEP33)。対象物が歩行者であるか否かの判定は、公知の手法(例えば前記特許文献2に記載されている手法)を使用すればよく、グレースケール画像上での対象物の形状や大きさ、輝度分布等の特徴に基づいて行なうことができる。
このSTEP33の歩行者判定処理で、対象物が歩行者である可能性が高いと判断した場合には、対象物が歩行者であるとの判定の信頼性を高めるために、STEP34に進み、該対象物が人工構造物であるか否かの判定処理が行なわれる。対象物が人工構造物であるか否かの判定は、例えば前記特許文献2の図5のS35の処理と同様に行なわれる。従って、本明細書での詳細な説明は省略するが、概略的には、グレースケール画像上での対象物の直線部分や直角部分の有無、あらかじめ定められた登録図形との対象物の画像の一致度合いなどに基づいて行なわれる。
STEP34で、対象物が人工構造物でないと判定された場合(STEP34の判定結果がNOとなる場合)には、該対象物が人(歩行者)である確度が高い。そこで、この場合には、画像処理ユニット1は、STEP35において、対象物が回避対象であると判定し、第1回避対象判定処理を終了する。従って、対象物が前記第1領域AR1内の第2領域AR2に存在し、且つ、対象物が歩行者である可能性が高く、且つ、人工構造物でないと判定された場合には、対象物が回避対象であると判定される。
また、STEP33で対象物が歩行者でないと判定され、あるいは、STEP34で対象物が人工構造物であると判定された場合には、前記STEP36に進んで、対象物が回避対象で無いと判定され、第1回避対象判定処理が終了する。
一方、前記STEP32において、対象物が第2領域AR2に存在しないと判定された場合(STEP32の判定結果がNOとなる場合)には、画像処理ユニット1は、次に、対象物の移動方向に関する進入接触判定処理を実行する(STEP37)。この進入接触判定処理は、対象物が前記第2領域AR2に進入し、且つ、車両10と接触する可能性が高いか否かを判定する処理である。具体的には、前記STEP19で求めた対象物の移動ベクトルが現状に維持されると仮定し、この移動ベクトルを含む直線と、車両10の前端位置におけるレーン基準実空間座標系のXY平面との交点のX方向位置が求められる。そして、この求めたX方向位置が、車両10の前端面の車幅方向の中心点(レーン基準実空間座標系の原点)を中心とする所定範囲(車両10の車幅よりも若干広い範囲)に存在することを要件(以下、進入接触要件という)として、この進入接触要件が満たされるか否かが判定される。
STEP37において、対象物が前記進入接触要件を満たす場合(STEP37の判定結果がYESとなる場合)には、対象物が将来、車両10と接触する可能性が高い。そこで、この場合には、画像処理ユニット1は、前記STEP35において、該対象物が回避対象であると判定し、回避対象判定処理を終了する。
図7に示す状況では、対象物X2が、進入接触要件を満たし、該対象物X2が、回避対象であると判定される。なお、仮に車両基準実空間座標系で移動ベクトルを認識した場合には、図7に示す状況では、STEP37で対象物X2が、進入接触要件を満たさないものとなる。
また、STEP37において、対象物が前記進入接触要件を満たさない場合(STEP37の判定結果がNOとなる場合)には、対象物が車両10と接触する可能性が低いので、画像処理ユニット1は、前記STEP37において、該対象物が回避対象で無いと判定し、回避対象判定処理を終了する。
以上がSTEP20の回避対象判定処理の詳細である。
補足すると、前記STEP19と、STEP20のうちのSTEP31,32,37の処理によって、本発明(第1発明)における接触可能性判断手段が構成される。
以上説明した実施形態では、車両10の進行方向を走行レーンの向きに合致させた状態での該車両10に対する対象物の相対位置や移動ベクトルを認識し、その相対位置や移動ベクトルに基づいて車両10と対象物との接触の可能性が判断されることとなる。このため、車両10の進行方向が、走行レーンの向きに対して変動する場合であっても、車両10と対象物との接触の可能性を高い確度で判断することができる。
次に、本発明の第2実施形態を図8を参照して説明する。なお、本実施形態では、前記第1実施形態と一部の処理のみが相違するので、その相違する部分を中心に説明し、第1実施形態と同一の構成部分および処理部分については、前記第1実施形態と同一の参照符号を用い、詳細な説明を省略する。
前記第1実施形態では、対象物の車両10に対する相対移動ベクトルとしての移動ベクトルを、図4のSTEP18で求めた対象物の実空間位置(走行レーンの向きに応じた補正後の実空間位置)の時系列に基づいて、求めるようにした。これに対して、本実施形態では、前記STEP15で求めた対象物の実空間位置(車両10の回頭角の変化に応じた補正後の実空間位置)の時系列を基に、対象物の移動ベクトルを求め、その移動ベクトルを走行レーンの向きに応じて補正する。
図8は、本実施形態におけるSTEP18以降の処理を示すフローチャートである。
同図を参照して、本実施形態では、画像処理ユニット1は、前記図3のSTEP15およびSTEP17の処理を実行した後、STEP15で求めた対象物の実空間位置(車両基準実空間位置)を、STEP17で検出したレーンマーカにより特定される走行レーンの向きに応じて補正する(STEP18)。この処理は、第1実施形態のSTEP18の処理と同じである。これにより、対象物の前記レーン基準実空間位置が求められる。
次いで、画像処理ユニット1は、対象物の車両10に対する移動ベクトルを求める(STEP19a)。この場合、STEP19aの処理では、同一対象物についての車両基準実空間位置、すなわち、STEP15で求めた実空間位置の、所定期間(現在時刻から所定時間前までのモニタ期間)における時系列データを近似する直線を求め、所定時間前の時刻(モニタ期間の初期時刻)での該直線上の対象物の位置(点)から、現在時刻(モニタ期間の終了時刻)における該直線上の対象物の位置(点)に向かうベクトルを対象物の移動ベクトルとして求める。このSTEP19aの処理によって、本願発明における相対移動ベクトル認識手段が構成される。
次いで、画像処理ユニット1は、STEP19aで求めた移動ベクトル(相対移動ベクトル)を、STEP17で検出したレーンマーカにより特定される走行レーンの向き(車両10に対する向き)に応じて補正する(STEP19b)。この補正は、STEP18の処理と同様に移動ベクトルを回転変換することで行なわれる。具体的には、車両10の進行方向に対するレーンマーカの傾き角(これはSTEP18で求められる)だけ、STEP19aで求めた対象物の移動ベクトルをY軸まわりに(鉛直軸まわりに)回転変換する(レーンマーカの傾き角に応じて定まるY軸まわりの回転変換の行列をSTEP19aで求めた移動ベクトル(詳しくは前記車両基準実空間座標系での座標成分値から構成されるベクトル)に乗じる)ことによって、該移動ベクトルが補正される。このようにして補正された移動ベクトルは、車両10の進行方向を走行レーンの向きに合致させた場合における該車両10に対する対象物の相対的な移動方向を表す。従って、この移動ベクトルは、前記第1実施形態において、STEP19で求められる移動ベクトルに相当するものである。
補足すると、STEP19bの処理によって、本発明(第5発明)における相対移動ベクトル補正手段が構成される。
上記STEP19bの処理の後には、前記第1実施形態のSTEP20〜22の判断処理と同じ処理が実行される。この場合、本実施形態では、STEP20のうちのSTEP37の処理によって、本発明(第5発明)における接触可能性判断手段が構成される。
以上説明した以外の処理および構成は、前記第1実施形態と同じである。
以上説明した第2実施形態においては、第1実施形態と同様に、車両10の進行方向が、走行レーンの向きに対して変動する場合であっても、車両10と対象物との接触の可能性を高い確度で判断することができる。
なお、以上説明した各実施形態では、撮像画像を基に、対象物の車両10に対する相対位置や、相対移動ベクトルを求めるようにしたが、例えばレーダを使用して、対象物の相対位置や、相対移動ベクトルを求めるようにしてもよい。また、前記各実施形態では、対象物の相対位置の時系列を基に、対象物の相対移動ベクトルを求めるようにしたが、走査型のレーダを使用した場合には、ドップラ効果を利用して、対象物の相対移動ベクトルを直接的に検出するようにすることも可能である。
また、前記各実施形態では、平面視での車両10の進行方向と車両10の前方の走行レーンの向きとのずれを考慮し、該車両10の進行歩行を車両10の前方の走行レーンの向きに合致させるように、対象物の車両10に対する相対位置や、相対移動ベクトルをY軸まわりに(上下方向の軸まわりに)回転変換して補正する場合を例に採って説明した。ただし、路面の水平面からの傾きや車両10のピッチングなどに起因して、側面視において車両10の進行方向もしくは前後方向と車両10の前方の走行路の向きのずれが生じているような場合には、対象物の車両10に対する相対位置や、相対移動ベクトルをX軸まわりに(左右方向の軸まわりに)回転変換して補正するようにしてもよい。例えば、車両が坂を下っており、その坂を下った先の水平な走行路に対象物が存在する場合に、その水平な走行路の向き(側面視での向き)に車両10の進行方向もしくは前後方向を合致させるように、対象物の車両10に対する相対位置や、相対移動ベクトルをX軸まわりに回転変換して補正することを行なうようにしてもよい。同様に、例えば、車両が水平な走行路を走行しており、その先の坂に対象物が存在する場合に、その坂の向き(側面視での向き)に車両10の進行方向もしくは前後方向を合致させるように、対象物の車両10に対する相対位置や、相対移動ベクトルをX軸まわりに回転変換して補正するようにしてもよい。なお、Y軸まわりの回転変換とX軸まわりの回転変換とは併用してもよい。
10…車両、STEP1〜15…対象物位置検出手段、STEP16,17…走行路情報取得手段、STEP19,31,32,37…接触可能性判断手段、STEP19b…相対移動ベクトル補正手段。