JP3939580B2 - Obstacle alarm device - Google Patents

Obstacle alarm device Download PDF

Info

Publication number
JP3939580B2
JP3939580B2 JP2002110905A JP2002110905A JP3939580B2 JP 3939580 B2 JP3939580 B2 JP 3939580B2 JP 2002110905 A JP2002110905 A JP 2002110905A JP 2002110905 A JP2002110905 A JP 2002110905A JP 3939580 B2 JP3939580 B2 JP 3939580B2
Authority
JP
Japan
Prior art keywords
past
coordinate
image
current
overlap
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002110905A
Other languages
Japanese (ja)
Other versions
JP2003309843A (en
Inventor
伸治 長岡
孝之 辻
正人 渡辺
弘 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2002110905A priority Critical patent/JP3939580B2/en
Publication of JP2003309843A publication Critical patent/JP2003309843A/en
Application granted granted Critical
Publication of JP3939580B2 publication Critical patent/JP3939580B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、撮像手段により撮影された画像から車両の走行に影響を与えそうな対象物を検出して警報を発する障害物警報装置に関する。
【0002】
【従来の技術】
従来、赤外線カメラ等の撮像手段により捉えられた車両周辺の画像から、車両との衝突の可能性がある歩行者等の対象物を抽出し、その情報を車両の運転者に提供する装置としては、例えば特開2001−6096号公報に記載のものがある。
この装置では、赤外線カメラが撮影した車両周辺の画像を2値化処理することにより得られる2値化対象物について、その面積重心の3次元位置を算出し、面積重心の3次元位置の時間変化から、2値化対象物の相対移動ベクトルを求める。また、求められた相対移動ベクトルより、車両と歩行者等の対象物との相対距離や相対速度を判断し、車両との衝突の可能性が判定される。そして、車両と衝突する可能性があると判定された対象物は、画像表示装置に強調表示を伴う実映像として表示され、運転者に通知される。
【0003】
【発明が解決しようとする課題】
しかし、従来の装置では、画像から抽出される対象物形状は、撮像手段の素子分解能や背景の影響等により、必ずしも安定しているとはいえなかった。特に、赤外線画像を2値化することにより対象物を抽出する方法の場合、車両と対象物との距離が近づくにしたがって、該対象物の各部の熱特性の違いから、撮影された赤外線画像において1つの対象物が複数に分離し、異なる物体として捉えられる場合がある。この時、分離して捉えられた物体のいずれか1つを目的の対象物として認識し、分離したことによる面積重心位置のずれから、その3次元位置の時間変化を追跡して相対移動ベクトルを求めた場合、静止した対象物にも係わらず、相対移動ベクトルに相対距離及び相対速度の変化が発生する。
【0004】
すなわち、具体的には例えば図9に示すような原点Oの自車両10に対する相対的な対象物位置の時間変化を上からみた図を用いて説明すると、図9において、赤外線カメラにより得られた画像から抽出した対象物を、OBJ[t]、{t=0、1、・・・N−1}とし、t=0の場合を現在、t=N−1の場合を過去に抽出された対象物とする。また、図9では、時刻0において対象物がAとBとに分離し、時系列データとしてAがOBJ[0]として認識されたものとする。そして、相対移動ベクトル11が、OBJ[t]、{t=0、1、・・・N−1}の面積重心12の3次元位置の時間変化から算出された相対移動ベクトルを示す。
この時、相対移動ベクトル11は、進入する内向きの成分を有しているため、たとえOBJ[t]、{t=0、1、・・・N−1}が静止対象物であっても、進入する動きを持った対象物として判断される場合が生じるという問題があった。
【0005】
本発明は、上記課題に鑑みてなされたもので、現在の対象物が過去の対象物と同一であるか否かを適切に認識し、運転者の正確な対象物認識を妨げる対象物表示を防止することができる障害物警報装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
上記課題を解決するために、請求項1の発明に係る障害物警報装置は、2つの撮像手段により得られた画像から、車両の走行に影響を与える可能性のある対象物を検知して警報を発する車両用の障害物警報装置において、過去に捉えた過去対象物と現在捉えている現在対象物とについて、これら過去対象物と現在対象物との左右エッジの位置座標を比較することによって、前記車両の進行方向における前記過去対象物と前記現在対象物との重なりを判定する重なり判断手段と、前記重なり判断手段によって前記過去対象物と前記現在対象物とが重なっていると判定された場合は、前記現在対象物が進入対象物ではないと判断する進入対象物判断手段とを備えたことを特徴とする。
以上の構成を備えた障害物警報装置は、同一物体判断手段を用いて、時系列で捉えられた対象物の左右エッジの位置座標から、過去に追跡してきた対象物と現在抽出した対象物とが同一の物体であるか否かを判断することにより、両者が同一の物体であればこれらを1つの対象物として認識し、車両の走行に影響を与える可能性について検証することができる。
また、請求項2に係る障害物警報装置は、請求項1に記載の障害物警報装置において、前記撮像手段により得られた画像から、車両の走行に影響を与える可能性のある対象物を検知して警報を発する警報手段を備え、該警報手段は、前記進入対象物判断手段にて進入対象物でないと判断された前記現在対象物は、警報対象から除外することを特徴とする。
さらに、請求項3に係る障害物警報装置は、請求項1又は2に記載の障害物警報装置において、前記重なり判定手段が、複数の前記過去対象物の左右エッジの位置座標を時系列で捉え、前記現在対象物の左右エッジの位置座標と比較し、過去対象物の存在空間に現在対象物の左右エッジの位置座標が含まれる場合は、前記過去対象物と前記現在対象物とが重なっていると判定する。
そして、請求項4に係る障害物警報装置は、請求項1又は2に記載の障害物警報装置において、前記重なり判断手段が、前記過去対象物および前記現在対象物の特徴量として、少なくとも各時刻における対象物の距離、画面上での左エッジ座標と右エッジ座標、前記撮像手段の焦点距離および画素ピッチに基づいて各時刻における実空間での最端左エッジ座標と最端右エッジ座標とを算出し、さらに、この算出された各時刻における実空間での最端右エッジ座標と最端左エッジ座標とからそれぞれ最も左の位置座標および最も右の位置座標を算出し、実空間での前記最端右エッジ座標、最端左エッジ座標、最も右の位置座標および最も左の位置座標の各々の座標の大きさが前記画像の正面に向かって右方向へ行くほど大きくなる場合、前記過去対象物における最も左の位置座標と前記現在対象物の最端左エッジ座標との関係、および、前記過去対象物における最も右の位置座標と前記現在対象物の最端左エッジ座標との関係が、現在対象物の最端左エッジ座標≧過去対象物の最も左の位置座標、かつ現在対象物の最端右エッジ座標≦過去対象物の最も右の位置座標、を満たすか否かを判定し、現在対象物の最端左エッジ座標≧過去対象物の最も左の位置座標、かつ現在対象物の最端右エッジ座標≦過去対象物の最も右の位置座標、の関係を満たす場合は、過去対象物と現在対象物とが重なっていると判定することを特徴とする。
【0007】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について説明する。
図1は、本発明の一実施の形態の障害物警報装置の構成を示すブロック図である。
図1において、符号1は、本実施の形態の障害物警報装置を制御するCPU(中央演算装置)を備えた画像処理ユニットであって、遠赤外線を検出可能な2つの赤外線カメラ2R、2Lと当該車両のヨーレートを検出するヨーレートセンサ3、更に、当該車両の走行速度(車速)を検出する車速センサ4とブレーキの操作を検出するためのブレーキセンサ5が接続される。これにより、画像処理ユニット1は、車両の周辺の赤外線画像と車両の走行状態を示す信号から、車両前方の歩行者や動物等の動く物体を検出し、衝突の可能性が高いと判断したときに警報を発する。
【0008】
また、画像処理ユニット1には、音声で警報を発するためのスピーカ6と、赤外線カメラ2R、2Lにより撮影された画像を表示し、衝突の危険性が高い対象物を車両の運転者に認識させるための、例えば自車両の走行状態を数字で表すメータと一体化されたメータ一体Displayや自車両のコンソールに設置されるNAVIDisplay、更にフロントウィンドウの運転者の前方視界を妨げない位置に情報を表示するHUD(Head Up Display )7a等を含む画像表示装置7が接続されている。
【0009】
また、画像処理ユニット1は、入力アナログ信号をディジタル信号に変換するA/D変換回路、ディジタル化した画像信号を記憶する画像メモリ、各種演算処理を行うCPU(中央演算装置)、CPUが演算途中のデータを記憶するために使用するRAM(Random Access Memory)、CPUが実行するプログラムやテーブル、マップなどを記憶するROM(Read Only Memory)、スピーカ6の駆動信号、HUD7a等の表示信号などを出力する出力回路を備えており、赤外線カメラ2R、2L及びヨーレートセンサ3、車速センサ4、ブレーキセンサ5の各出力信号は、ディジタル信号に変換されてCPUに入力されるように構成されている。
【0010】
また、図2に示すように、赤外線カメラ2R、2Lは、自車両10の前部に、自車両10の車幅方向中心部に対してほぼ対称な位置に配置されており、2つの赤外線カメラ2R、2Lの光軸が互いに平行であって、かつ両者の路面からの高さが等しくなるように固定されている。なお、赤外線カメラ2R、2Lは、対象物の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。
また、HUD7aは、自車両10のフロントウインドウの運転者の前方視界を妨げない位置に表示画面が表示されるように設けられている。
【0011】
次に、本実施の形態の動作について図面を参照して説明する。
図3は、本実施の形態の障害物警報装置の画像処理ユニット1における歩行者等の対象物検出・警報動作を示すフローチャートである。
まず、画像処理ユニット1は、赤外線カメラ2R、2Lの出力信号である赤外線画像を取得して(ステップS1)、A/D変換し(ステップS2)、グレースケール画像を画像メモリに格納する(ステップS3)。なお、ここでは赤外線カメラ2Rにより右画像が得られ、赤外線カメラ2Lにより左画像が得られる。また、右画像と左画像では、同一の対象物の表示画面上の水平位置がずれて表示されるので、このずれ(視差)によりその対象物までの距離を算出することができる。
【0012】
ステップS3においてグレースケール画像が得られたら、次に、赤外線カメラ2Rにより得られた右画像を基準画像とし、その画像信号の2値化処理、すなわち、輝度閾値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う(ステップS4)。
図4(a)は、赤外線カメラ2Rにより得られたグレースケール画像を示し、これに2値化処理を行うことにより、図4(b)に示すような画像を得る。なお、図4(b)において、例えばP1からP4の枠で囲った物体を、表示画面上に白色として表示される対象物(以下「高輝度領域」という)とする。
赤外線画像から2値化された画像データを取得したら、2値化した画像データをランレングスデータに変換する処理を行う(ステップS5)。ランレングスデータにより表されるラインは、2値化により白となった領域を画素レベルで示したもので、いずれもy方向には1画素の幅を有しており、またx方向にはそれぞれランレングスデータを構成する画素の長さを有している。
【0013】
次に、ランレングスデータに変換された画像データから、対象物のラベリングをする(ステップS6)ことにより、対象物を抽出する処理を行う(ステップS7)。すなわち、ランレングスデータ化したラインのうち、y方向に重なる部分のあるラインを1つの対象物とみなすことにより、例えば図4(b)に示す高輝度領域P1からP4が、それぞれ対象物(2値化対象物)として把握されることになる。
対象物の抽出が完了したら、次に、抽出した対象物の重心G、面積S及び外接四角形の縦横比ASPECTを算出する(ステップS8)。
【0014】
ここで、面積Sは、ラベルAの対象物のランレングスデータを(x[i]、y[i]、run[i]、A)(i=0,1,2,・・・N−1)とすると、ランレングスデータの長さ(run[i]−1)を同一対象物(N個のランレングスデータ)について積算することにより算出する。また、対象物Aの重心Gの座標(xc、yc)は、各ランレングスデータの長さ(run[i]−1)と各ランレングスデータの座標x[i]、またはy[i]とをそれぞれ掛け合わせ、更にこれを同一対象物について積算したものを、面積Sで割ることにより算出する。
更に、縦横比ASPECTは、対象物の外接四角形の縦方向の長さDyと横方向の長さDxとの比Dy/Dxとして算出する。
なお、ランレングスデータは画素数(座標数)(=run[i])で示されているので、実際の長さは「−1」する必要がある(=run[i]−1)。また、重心Gの位置は、外接四角形の重心位置で代用してもよい。
【0015】
対象物の重心、面積、外接四角形の縦横比が算出できたら、次に、対象物の時刻間追跡、すなわちサンプリング周期毎の同一対象物の認識を行う(ステップS9)。時刻間追跡は、アナログ量としての時刻tをサンプリング周期で離散化した時刻をkとし、例えば時刻kで対象物A、Bを抽出したら、時刻(k+1)で抽出した対象物C、Dと対象物A、Bとの同一性判定を行う。そして、対象物A、Bと対象物C、Dとが同一であると判定されたら、対象物C、Dをそれぞれ対象物A、Bというラベルに変更することにより、時刻間追跡が行われる。
また、このようにして認識された各対象物の(重心の)位置座標は、時系列位置データとしてメモリに格納され、後の演算処理に使用される。
【0016】
なお、以上説明したステップS4〜S9の処理は、2値化した基準画像(本実施の形態では、右画像)について実行する。
次に、車速センサ4により検出される車速VCAR及びヨーレートセンサ3より検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することにより、自車両10の回頭角θrを算出する(ステップS10)。
【0017】
一方、ステップS9とステップS10の処理に平行して、ステップS11〜S13では、対象物と自車両10との距離zを算出する処理を行う。この演算はステップS9、及びステップS10より長い時間を要するため、ステップS9、S11より長い周期(例えばステップS1〜S10の実行周期の3倍程度の周期)で実行される。
まず、基準画像(右画像)の2値化画像によって追跡される対象物の中の1つを選択することにより、右画像から探索画像R1(ここでは、外接四角形で囲まれる領域全体を探索画像とする)を抽出する(ステップS11)。
【0018】
次に、左画像中から探索画像R1に対応する画像(以下「対応画像」という)を探索する探索領域を設定し、相関演算を実行して対応画像を抽出する(ステップS12)。具体的には、探索画像R1の各頂点座標に応じて、左画像中に探索領域R2を設定し、探索領域R2内で探索画像R1との相関の高さを示す輝度差分総和値C(a,b)を算出し、この総和値C(a,b)が最小となる領域を対応画像として抽出する。なお、この相関演算は、2値化画像ではなくグレースケール画像を用いて行う。
また同一対象物についての過去の位置データがあるときは、その位置データに基づいて探索領域R2より狭い領域R2aを探索領域として設定する。
【0019】
ステップS12の処理により、基準画像(右画像)中に探索画像R1と、左画像中にこの対象物に対応する対応画像R4とが抽出されるので、次に、探索画像R1の重心位置と対応画像R4の重心位置と視差Δd(画素数)を求め、これから自車両10と対象物との距離zを算出する(ステップS13)。
次に、ステップS10における回頭角θrの算出と、ステップS13における対象物との距離算出が完了したら、画像内の座標(x,y)及び距離zを実空間座標(X,Y,Z)に変換する(ステップS14)。
ここで、実空間座標(X,Y,Z)は、図2に示すように、赤外線カメラ2R、2Lの取り付け位置の中点の位置(自車両10に固定された位置)を原点Oとして、図示のように定め、画像内の座標は、画像の中心を原点として水平方向をx、垂直方向をyと定めている。
【0020】
また、実空間座標が求められたら、自車両10が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う(ステップS15)。回頭角補正は、時刻kから(k+1)までの期間中に自車両10が例えば左方向に回頭角θrだけ回頭すると、カメラによって得られる画像上では、画像の範囲がΔxだけx方向にずれるので、これを補正する処理である。
なお、以下の説明では、回頭角補正後の座標を(X,Y,Z)と表示する。
【0021】
実空間座標に対する回頭角補正が完了したら、次に、同一対象物について、ΔTのモニタ期間内に得られた、回頭角補正後のN個(例えばN=10程度)の実空間位置データ、すなわち時系列データから、対象物と自車両10との相対移動ベクトルに対応する近似直線LMVを求める(ステップS16)。
次いで、最新の位置座標P(0)=(X(0),Y(0),Z(0))と、(N−1)サンプル前(時間ΔT前)の位置座標P(Nー1)=(X(N−1),Y(N−1),Z(N−1))を近似直線LMV上の位置に補正し、補正後の位置座標Pv(0)=(Xv(0),Yv(0),Zv(0))及びPv(N−1)=(Xv(N−1),Yv(N−1),Zv(N−1))を求める。
【0022】
これにより、位置座標Pv(N−1)からPv(0)に向かうベクトルとして、相対移動ベクトルが得られる。
このようにモニタ期間ΔT内の複数(N個)のデータから対象物の自車両10に対する相対移動軌跡を近似する近似直線を算出して相対移動ベクトルを求めることにより、位置検出誤差の影響を軽減して対象物との衝突の可能性をより正確に予測することが可能となる。
【0023】
また、ステップS16において、相対移動ベクトルが求められたら、次に、検出した対象物との衝突の可能性を判定し、自車両10と衝突の可能性のある対象物が存在する場合は、例えばスピーカ6を介して音声による警報を発するとともに、画像表示装置7に対して、例えば赤外線カメラ2Rにより得られる画像を出力し、接近してくる対象物を自車両10の運転者に対する強調映像として表示する警報判定処理を行う(ステップS17)。
また、ステップS17の警報判定処理が終了したら、ステップS1へ戻り、上述の処理を繰り返す。
なお、警報判定処理については、詳細を後述する。
【0024】
以上が、本実施の形態の障害物警報装置の画像処理ユニット1における対象物検出・警報動作であるが、次に、図5に示すフローチャートを参照して、図3に示したフローチャートのステップS17における警報判定処理について更に詳しく説明する。
図5は、本実施の形態の警報判定処理動作を示すフローチャートである。
警報判定処理は、以下に示す衝突判定処理、接近判定領域内か否かの判定処理、進入衝突判定処理、重なり判定処理、警報出力判定処理、及び映像入力処理により、自車両10と検出した対象物との衝突の可能性を判定し、衝突の可能性のある対象物を運転者に対して通知する処理である。以下、図6に示すように、自車両10の進行方向に対してほぼ90°の方向から、速度Vpで進行してくる対象物20がいる場合を例に取って説明する。
【0025】
図5において、まず、画像処理ユニット1は衝突判定処理を行う(ステップS21)。衝突判定処理は、図6において、対象物20が時間ΔTの間に距離Zv(N−1)から距離Zv(0)に接近した場合に、自車両10とのZ方向の相対速度Vsを求め、両者が高さH以内で相対速度Vsを維持して移動すると仮定して、余裕時間T以内に両者が衝突するか否かを判定する処理である。ここで、余裕時間Tは、衝突の可能性を予測衝突時刻より時間Tだけ前に判定することを意図したものである。従って、余裕時間Tは例えば2〜5秒程度に設定される。またHは、高さ方向の範囲を規定する所定高さであり、例えば自車両10の車高の2倍程度に設定される。
【0026】
次に、ステップS21において、余裕時間T以内に自車両10と対象物20とが衝突する可能性がある場合(ステップS21のYES)、更に判定の信頼性を上げるために、画像処理ユニット1は対象物20が接近判定領域内に存在するか否かの判定処理を行う(ステップS22)。接近判定領域内か否かの判定処理は、図7に示すように、赤外線カメラ2R、2Lで監視可能な領域を太い実線で示す外側の三角形の領域AR0とすると、領域AR0内の、Z1=Vs×Tより自車両10に近い領域であって、対象物20が自車両10の車幅αの両側に余裕β(例えば50〜100cm程度とする)を加えた範囲に対応する領域AR1、すなわち対象物20がそのまま存在し続ければ自車両10との衝突の可能性がきわめて高い接近判定領域AR1内に存在するか否かを判定する処理である。なお、接近判定領域AR1も所定高さHを有する。
【0027】
更に、ステップS22において、対象物20が接近判定領域内に存在しない場合(ステップS22のNO)、画像処理ユニット1は対象物20が接近判定領域内へ進入して自車両10と衝突する可能性があるか否かを判定する進入衝突判定処理を行う(ステップS23)。進入衝突判定処理は、上述の接近判定領域AR1よりX座標の絶対値が大きい(接近判定領域の横方向外側の)領域AR2、AR3を進入判定領域と呼び、この領域内にある対象物20が、移動することにより接近判定領域AR1に進入すると共に自車両10と衝突するか否かを判定する処理である。なお、進入判定領域AR2、AR3も所定高さHを有する。
【0028】
また、ステップS23において、対象物20が接近判定領域内へ進入して自車両10と衝突する可能性があると判定された場合(ステップS23のYES)、対象物20の左右エッジの実空間座標と、過去に記録された対象物の左右エッジの実空間座標と比較し、両者の重なり具合から、現在の対象物20を進入対象物とするか否かを判定する重なり判定処理を行う(ステップS24)。なお、重なり判定処理については、詳細を後述する。
一方、ステップS22において、対象物20が接近判定領域内に存在している場合(ステップS22のYES)、またはステップS24において、過去に記録された対象物と現在の対象物20とが重なっておらず、対象物20を進入対象物とする場合(ステップS24のYES)、警報出力判定処理を行う(ステップS25)。
【0029】
ここで、警報出力判定処理は、ブレーキセンサ5の出力BRから自車両10の運転者がブレーキ操作を行っているか否かを判別することにより、警報出力を行うか否かの判定を行う処理であって、もし、自車両10の運転者がブレーキ操作を行っている場合には、それによって発生する加速度Gs(減速方向を正とする)を算出し、この加速度Gsが所定閾値GTH以下であるとき、または自車両10の運転者がブレーキ操作を行っていなければ、直ちにステップS26へ進み(ステップS25のYES)、運転者に対して、例えばスピーカ6を介して音声による警報を発すると共に、対象物20の存在を自車両10の運転者に認識させるための強調映像を画像表示装置7へ出力する(ステップS26)と共に、画像表示装置7に表示対象の映像を入力する映像入力処理を行い(ステップS27)、警報判定処理を終了する。なお、所定閾値GTHは、ブレーキ操作中の加速度Gsがそのまま維持された場合に、対象物20と自車両10との距離Zv(0)以下の走行距離で自車両10が停止する条件に対応する値である。
【0030】
また、ステップS21において、余裕時間T以内に自車両10と対象物20とが衝突する可能性がない場合(ステップS21のNO)、またはステップS23において、対象物20が接近判定領域内へ進入して自車両10と衝突する可能性がないと判定された場合(ステップS23のNO)、またはステップS24において、過去に記録された対象物と現在の対象物20とが重なっていて、対象物20を進入対象物としない場合(ステップS24のNO)、更に、ステップS25において、加速度Gsが所定閾値GTHより大きく、自車両10の運転者のブレーキ操作により対象物20との衝突が回避されると判定された場合(ステップS25のNO)のいずれかの場合は、ステップS27へ進み、画像表示装置7に表示対象の映像を入力する映像入力処理を行い(ステップS27)、警報判定処理を終了する。
【0031】
次に、図面を参照して、図5に示したフローチャートのステップS24における重なり判定処理について説明する。
まず、重なり判定処理の概要について説明すると、重なり判定処理は、対象物20の左右エッジの実空間座標と、過去に記録された対象物20の左右エッジの実空間座標とを比較し、両者の重なり具合から、現在の対象物20を進入対象物とするか否かを判定する処理である。
具体的には、例えば図9に示すように、対象物20の時系列のデータを対象物OBJ[t]、{t=0、1、・・・N−1}とした時、実空間で静止した対象物OBJ[t]、{t=0、1、・・・N−1}が画像上で分離しても、時系列データの面積重心12の位置は時間と共に移動するが、対象物20の実空間上の存在位置自体は変化しない。
【0032】
この時、過去の対象物(OBJ[t]、t≠0)と現在の対象物(OBJ[0]のAまたはB)との関係は、過去の対象物20の存在空間に現在の対象物20が含まれていると考えられる。つまり、図9では、OBJ[1]=A+Bであると考えられる。
従って、過去の対象物20の存在空間に現在の対象物20が含まれている場合には、該対象物20を進入対象物ではない(=静止対象物である)と判断し、進入警報対象から除外することができる。
【0033】
この重なり判定処理を、更に図8に示す本実施の形態の重なり判定処理動作を示すフローチャートを用いて詳細に説明すると、図8において、まず、画像処理ユニット1は、対象物20の特徴量として、各時刻における実空間での最端左エッジ座標(XL[t])、最端右エッジ座標(XR[t])を式(1)により算出する(ステップS31)。なお、以下の説明も含めて、画像処理ユニット1が計算する対象物20の座標値は、画像正面向かって右方向へ行くほど大きくなるものとする。
【0034】
XL[t]=xl[t]・Z[t]・p/f、
XR[t]=xr[t]・Z[t]・p/f ・・・(1)
但し、時刻tにおける対象物20の距離をZ[t](m)、画面上での対象物20の左エッジ座標をxl[t](pixel)、右エッジ座標をxr[t](pixel)、カメラ焦点距離 をf(m)、画素ピッチをp(m/pixel)とする。
【0035】
次に、時刻t=N−1から、時刻t=1までの間で、式(1)で算出した対象物20のエッジ座標値から、最も左の位置座標XL_MAXと、最も右の位置座標XR_MAXを算出する(ステップS32)。
最後に、時刻t=0(現在)における対象物20の左座標(XL[0])、及び右座標(XR[0])が式(2)を満たし、過去に記録された対象物20と現在の対象物20とが重なっているか否かを判定する(ステップS33)。
XL[0]≧XL_MAX、かつXR[0]≦XR_MAX ・・・(2)
【0036】
ステップS33において、時刻t=0(現在)における対象物20の左座標(XL[0])、及び右座標(XR[0])が式(2)を満たし、過去に記録された対象物20と現在の対象物20とが重なっている場合(ステップS33のYES)、該対象物20を進入対象物とせず、図5のステップS24のNOへ戻る(ステップS34)。
また、ステップS33において、時刻t=0(現在)における対象物20の左座標(XL[0])、及び右座標(XR[0])が式(2)を満たさず、過去に記録された対象物20と現在の対象物20とが重なっていない場合(ステップS33のNO)、該対象物20を進入対象物とし、図5のステップS24のYESへ戻る(ステップS35)。
【0038】
以上説明したように、本実施の形態の障害物警報装置は、対象物20の左右エッジの位置座標を時系列で捉え、現在の対象物20の左右エッジの位置座標と、過去に記録された対象物20の左右エッジの位置座標と比較し、過去に記録された対象物20の存在空間に、現在の対象物20の左右エッジの位置座標が含まれてしまう場合、該対象物20を進入対象物ではない(=静止対象物である)と判断し、進入警報対象から除外することができる。
従って、抽出された複数の対象物20が等距離に存在するものであるか、近接しているか等の複雑な計算や判断を行わなくても物体判断を容易に行い、実空間で静止している対象物20については、画像から得られた対象物20の相対移動ベクトルに相対距離及び相対速度の変化が発生していても、静止対象物であると正しく判断して運転者には注意を要する対象物として表示しないことで、運転者の正確な対象物認識を妨げる対象物表示を防止し、本当に注意を払うことが必要な警報対象物の位置を正確に運転者に把握させることができるという効果が得られる。
【0039】
【発明の効果】
以上の如く、請求項1に記載の障害物警報装置によれば、過去に追跡してきた対象物と現在抽出した対象物とが同一の物体であれば、これらを1つの対象物として認識し、車両の走行に影響を与える可能性について検証することができる。従って、抽出された複数の対象物が等距離に存在するものであるか、近接しているか等の複雑な計算や判断を行わなくても物体判断を容易に行い、例えば静止している対象物については、車両の走行に影響を与える可能性についての検証を省略する等の適切な処理を行うことができるという効果が得られる。
【図面の簡単な説明】
【図1】 本発明の一実施の形態の障害物警報装置の構成を示すブロック図である。
【図2】 車両における赤外線カメラやセンサ、ディスプレイ等の取り付け位置を示す図である。
【図3】 同実施の形態の障害物警報装置の対象物検出・警報動作を示すフローチャートである。
【図4】 赤外線カメラにより得られるグレースケール画像とその2値化画像を示す図である。
【図5】 同実施の形態の警報判定処理動作を示すフローチャートである。
【図6】 衝突が発生しやすい場合を示す図である。
【図7】 車両前方の領域区分を示す図である。
【図8】 同実施の形態の重なり判定処理動作を示すフローチャートである。
【図9】 1つの物体が分離して抽出された場合に発生する相対移動ベクトルについて示す図である。
【符号の説明】
1 画像処理ユニット
2R、2L 赤外線カメラ
3 ヨーレートセンサ
4 車速センサ
5 ブレーキセンサ
6 スピーカ
7 画像表示装置
10 自車両
S24、S31〜S35 同一物体判断手段
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an obstacle alarm device that issues an alarm by detecting an object that is likely to affect the running of a vehicle from an image taken by an imaging means.
[0002]
[Prior art]
Conventionally, as an apparatus for extracting an object such as a pedestrian having a possibility of collision with a vehicle from an image around the vehicle captured by an imaging means such as an infrared camera and providing the information to the driver of the vehicle. For example, there exists a thing of Unexamined-Japanese-Patent No. 2001-6096.
In this apparatus, the three-dimensional position of the area centroid is calculated for a binarized object obtained by binarizing an image around the vehicle captured by the infrared camera, and the time change of the three-dimensional position of the area centroid is calculated. From this, the relative movement vector of the binarized object is obtained. Further, from the obtained relative movement vector, the relative distance and the relative speed between the vehicle and an object such as a pedestrian are determined, and the possibility of a collision with the vehicle is determined. Then, the object that is determined to possibly collide with the vehicle is displayed on the image display device as a real image with highlighting, and is notified to the driver.
[0003]
[Problems to be solved by the invention]
However, in the conventional apparatus, the object shape extracted from the image is not necessarily stable due to the element resolution of the imaging means, the influence of the background, and the like. In particular, in the case of a method of extracting an object by binarizing an infrared image, as the distance between the vehicle and the object decreases, the difference in the thermal characteristics of each part of the object causes a difference in the captured infrared image. There is a case where one object is separated into a plurality of objects and is regarded as different objects. At this time, any one of the separated objects is recognized as a target object, and the relative movement vector is determined by tracking the time change of the three-dimensional position from the deviation of the area centroid position due to the separation. When obtained, the relative distance and the relative speed change in the relative movement vector regardless of the stationary object.
[0004]
Specifically, for example, the time variation of the object position relative to the host vehicle 10 at the origin O as shown in FIG. 9 will be described with reference to the top view. In FIG. The object extracted from the image is OBJ [t], {t = 0, 1,... N−1}, where t = 0 is currently extracted, and t = N−1 is extracted in the past. The object. In FIG. 9, it is assumed that the object is separated into A and B at time 0, and A is recognized as OBJ [0] as time-series data. Then, the relative movement vector 11 indicates a relative movement vector calculated from the time change of the three-dimensional position of the area centroid 12 of OBJ [t], {t = 0, 1,... N−1}.
At this time, since the relative movement vector 11 has an inward component that enters, even if OBJ [t], {t = 0, 1,... N−1} is a stationary object. There is a problem that it may be judged as an object having an approaching movement.
[0005]
The present invention has been made in view of the above problems, and appropriately recognizes whether or not the current object is the same as a past object, and displays an object display that hinders accurate object recognition by the driver. An object of the present invention is to provide an obstacle alarm device that can be prevented.
[0006]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, the obstacle alarm device according to the invention of claim 1 detects an object from an image obtained by two image pickup means and detects an object that may affect the traveling of the vehicle. the obstacle alarm device for a vehicle that emits, by about the current object captures the past the past object captured currently, comparing a position coordinates of the right and left edges of these past object and present the object, An overlap determination unit that determines an overlap between the past object and the current object in the traveling direction of the vehicle, and the overlap determination unit determines that the past object and the current object overlap each other It is characterized in that the current object was an entry object determining means for determining that it is not the ingress object.
The obstacle alarm device having the above-described configuration uses the same object determination means, and from the position coordinates of the left and right edges of the object captured in time series, the object tracked in the past and the object currently extracted By determining whether or not they are the same object, they can be recognized as one object if they are the same object, and the possibility of affecting the traveling of the vehicle can be verified.
According to a second aspect of the present invention, there is provided an obstacle alarm device according to the first aspect of the present invention, wherein the obstacle alarm device according to the first aspect detects an object that may affect the traveling of the vehicle from the image obtained by the imaging means. And an alarm means for issuing an alarm, wherein the alarm means excludes the current object that is determined not to be an entry object by the entry object determination means from the alarm object.
Furthermore, the obstacle alarm device according to claim 3 is the obstacle alarm device according to claim 1 or 2, wherein the overlap determining means captures position coordinates of right and left edges of the plurality of past objects in time series. If the position coordinates of the left and right edges of the current object are included in the space of the past object in comparison with the position coordinates of the left and right edges of the current object, the past object and the current object overlap. It is determined that
The obstacle alarm device according to claim 4 is the obstacle alarm device according to claim 1 or 2, wherein the overlap determination means at least each time as a feature quantity of the past object and the current object. Based on the distance of the object, the left and right edge coordinates on the screen, the focal length and the pixel pitch of the imaging means, the most left edge coordinate and the most right edge coordinate in real space at each time Further, the leftmost position coordinate and the rightmost position coordinate are calculated from the extreme right edge coordinate and the extreme left edge coordinate in the real space at each calculated time, respectively, and the position coordinate in the real space is calculated. If the size of each of the extreme right edge coordinate, the extreme left edge coordinate, the rightmost position coordinate, and the leftmost position coordinate increases toward the front of the image in the right direction, The relationship between the leftmost position coordinate of the object and the outermost left edge coordinate of the current object, and the relationship between the rightmost position coordinate of the past object and the outermost left edge coordinate of the current object Whether or not the current object's extreme left edge coordinate ≥ past object's leftmost position coordinate and the current object's extreme right edge coordinate ≤ past object's rightmost position coordinate If the relationship of the leftmost edge coordinate of the current object ≧ the leftmost position coordinate of the past object and the rightmost edge coordinate of the current object ≦ the rightmost position coordinate of the past object is satisfied, the past It is determined that the object and the current object overlap.
[0007]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of an obstacle alarm device according to an embodiment of the present invention.
In FIG. 1, reference numeral 1 denotes an image processing unit including a CPU (central processing unit) that controls the obstacle alarm device of the present embodiment, and includes two infrared cameras 2R and 2L that can detect far infrared rays. A yaw rate sensor 3 for detecting the yaw rate of the vehicle, a vehicle speed sensor 4 for detecting a traveling speed (vehicle speed) of the vehicle, and a brake sensor 5 for detecting a brake operation are connected. Thus, when the image processing unit 1 detects a moving object such as a pedestrian or an animal in front of the vehicle from an infrared image around the vehicle and a signal indicating the running state of the vehicle, and determines that the possibility of a collision is high Alarm.
[0008]
In addition, the image processing unit 1 displays a speaker 6 for issuing a warning by voice and images taken by the infrared cameras 2R and 2L, and makes the vehicle driver recognize an object having a high risk of collision. For example, a meter-integrated display integrated with a meter that expresses the running state of the host vehicle, a NAVID display installed on the console of the host vehicle, and information displayed at a position on the front window that does not obstruct the driver's front view An image display device 7 including a HUD (Head Up Display) 7a is connected.
[0009]
The image processing unit 1 includes an A / D conversion circuit that converts an input analog signal into a digital signal, an image memory that stores a digitized image signal, a CPU (central processing unit) that performs various arithmetic processes, RAM (Random Access Memory) used to store data, ROM (Read Only Memory) that stores programs and tables executed by the CPU, maps, etc., speaker 6 drive signals, display signals such as HUD7a, etc. The output signals of the infrared cameras 2R and 2L, the yaw rate sensor 3, the vehicle speed sensor 4 and the brake sensor 5 are converted into digital signals and input to the CPU.
[0010]
As shown in FIG. 2, the infrared cameras 2R and 2L are disposed in the front part of the host vehicle 10 at positions that are substantially symmetrical with respect to the center of the host vehicle 10 in the vehicle width direction. The optical axes of 2R and 2L are parallel to each other and are fixed so that the heights from both road surfaces are equal. The infrared cameras 2R and 2L have a characteristic that the output signal level increases (the luminance increases) as the temperature of the object increases.
Further, the HUD 7a is provided so that the display screen is displayed at a position that does not obstruct the driver's front view of the front window of the host vehicle 10.
[0011]
Next, the operation of the present embodiment will be described with reference to the drawings.
FIG. 3 is a flowchart showing an object detection / alarm operation such as a pedestrian in the image processing unit 1 of the obstacle alarm device of the present embodiment.
First, the image processing unit 1 acquires infrared images, which are output signals of the infrared cameras 2R and 2L (step S1), performs A / D conversion (step S2), and stores a grayscale image in an image memory (step S1). S3). Here, the right image is obtained by the infrared camera 2R, and the left image is obtained by the infrared camera 2L. In addition, since the horizontal position of the same object on the display screen is shifted in the right image and the left image, the distance to the object can be calculated from this shift (parallax).
[0012]
If a grayscale image is obtained in step S3, then the right image obtained by the infrared camera 2R is used as a reference image, and binarization processing of the image signal, that is, an area brighter than the luminance threshold value ITH is “1” ( White) and the dark area is set to “0” (black) (step S4).
FIG. 4A shows a grayscale image obtained by the infrared camera 2R, and binarization processing is performed on the grayscale image to obtain an image as shown in FIG. 4B. In FIG. 4B, for example, an object surrounded by a frame from P1 to P4 is an object displayed as white on the display screen (hereinafter referred to as “high luminance region”).
When the binarized image data is acquired from the infrared image, the binarized image data is converted into run-length data (step S5). The line represented by the run-length data is an area that is whitened by binarization at the pixel level, and has a width of one pixel in the y direction, and each has a width in the x direction. It has the length of the pixels constituting the run-length data.
[0013]
Next, the target object is labeled from the image data converted into run-length data (step S6), thereby performing a process of extracting the target object (step S7). That is, of the lines converted into run-length data, a line having a portion overlapping in the y direction is regarded as one object, so that, for example, the high luminance regions P1 to P4 shown in FIG. To be grasped as a value object).
When the extraction of the object is completed, next, the center of gravity G, the area S, and the aspect ratio ASPECT of the circumscribed rectangle of the extracted object are calculated (step S8).
[0014]
Here, the area S is (x [i], y [i], run [i], A) (i = 0, 1, 2,... N−1) ), The length of the run length data (run [i] −1) is calculated for the same object (N pieces of run length data). Also, the coordinates (xc, yc) of the center of gravity G of the object A are the length (run [i] -1) of each run length data and the coordinates x [i] or y [i] of each run length data. Are multiplied by the area S and calculated by multiplying them by the area S.
Further, the aspect ratio ASPECT is calculated as a ratio Dy / Dx between the length Dy in the vertical direction and the length Dx in the horizontal direction of the circumscribed rectangle of the object.
Since the run length data is indicated by the number of pixels (number of coordinates) (= run [i]), the actual length needs to be “−1” (= run [i] −1). Further, the position of the center of gravity G may be substituted by the position of the center of gravity of the circumscribed rectangle.
[0015]
Once the center of gravity, area, and circumscribing aspect ratio of the object can be calculated, next, the object is tracked between times, that is, the same object is recognized for each sampling period (step S9). For tracking between times, the time obtained by discretizing the time t as an analog quantity with the sampling period is set as k. For example, when the objects A and B are extracted at the time k, the objects C and D extracted at the time (k + 1) and the target The identity determination with the objects A and B is performed. When it is determined that the objects A and B and the objects C and D are the same, the objects C and D are changed to labels of the objects A and B, respectively, so that tracking is performed for a time.
Further, the position coordinates (center of gravity) of each object recognized in this way are stored in the memory as time-series position data and used for the subsequent calculation processing.
[0016]
Note that the processes in steps S4 to S9 described above are performed on a binarized reference image (in this embodiment, a right image).
Next, the vehicle speed VCAR detected by the vehicle speed sensor 4 and the yaw rate YR detected by the yaw rate sensor 3 are read, and the turning angle θr of the host vehicle 10 is calculated by integrating the yaw rate YR over time (step S10).
[0017]
On the other hand, in parallel with the processing of step S9 and step S10, in steps S11 to S13, processing for calculating the distance z between the object and the host vehicle 10 is performed. Since this calculation requires a longer time than steps S9 and S10, it is executed in a cycle longer than steps S9 and S11 (for example, a cycle that is about three times the execution cycle of steps S1 to S10).
First, by selecting one of the objects tracked by the binarized image of the reference image (right image), the search image R1 (here, the entire region surrounded by the circumscribed rectangle is searched for from the right image). Are extracted (step S11).
[0018]
Next, a search area for searching for an image corresponding to the search image R1 (hereinafter referred to as “corresponding image”) from the left image is set, and a correlation operation is executed to extract the corresponding image (step S12). Specifically, a search area R2 is set in the left image according to each vertex coordinate of the search image R1, and a luminance difference total value C (a indicating the level of correlation with the search image R1 within the search area R2 , B), and a region where the total value C (a, b) is minimum is extracted as a corresponding image. This correlation calculation is performed using a grayscale image instead of a binarized image.
When there is past position data for the same object, an area R2a narrower than the search area R2 is set as a search area based on the position data.
[0019]
The search image R1 is extracted from the reference image (right image) and the corresponding image R4 corresponding to the target object is extracted from the left image by the processing in step S12. Next, the search image R1 corresponds to the center of gravity position of the search image R1. The position of the center of gravity of the image R4 and the parallax Δd (number of pixels) are obtained, and the distance z between the vehicle 10 and the object is calculated from the position (step S13).
Next, when the calculation of the turning angle θr in step S10 and the distance calculation with the object in step S13 are completed, the coordinates (x, y) and the distance z in the image are changed to real space coordinates (X, Y, Z). Conversion is performed (step S14).
Here, the real space coordinates (X, Y, Z) are, as shown in FIG. 2, with the origin O as the midpoint position (position fixed to the host vehicle 10) of the attachment position of the infrared cameras 2R, 2L. The coordinates in the image are determined as shown in the figure, with the center of the image as the origin and the horizontal direction as x and the vertical direction as y.
[0020]
When the real space coordinates are obtained, the turning angle correction for correcting the positional deviation on the image due to the turning of the host vehicle 10 is performed (step S15). In the turning angle correction, when the host vehicle 10 turns, for example, to the left by the turning angle θr during the period from time k to (k + 1), the range of the image is shifted in the x direction by Δx on the image obtained by the camera. This is a process for correcting this.
In the following description, the coordinates after the turning angle correction are displayed as (X, Y, Z).
[0021]
When the turning angle correction with respect to the real space coordinates is completed, N (for example, about N = 10) real space position data after the turning angle correction obtained during the monitoring period of ΔT for the same object, that is, From the time series data, an approximate straight line LMV corresponding to the relative movement vector between the object and the host vehicle 10 is obtained (step S16).
Next, the latest position coordinates P (0) = (X (0), Y (0), Z (0)) and (N-1) position coordinates P (N−1) before the sample (before time ΔT). = (X (N-1), Y (N-1), Z (N-1)) is corrected to a position on the approximate straight line LMV, and the corrected position coordinates Pv (0) = (Xv (0), Yv (0), Zv (0)) and Pv (N-1) = (Xv (N-1), Yv (N-1), Zv (N-1)) are obtained.
[0022]
Thereby, a relative movement vector is obtained as a vector from the position coordinates Pv (N−1) to Pv (0).
In this way, by calculating an approximate straight line that approximates the relative movement locus of the object with respect to the host vehicle 10 from a plurality (N) of data within the monitoring period ΔT, the influence of the position detection error is reduced. Thus, the possibility of collision with the object can be predicted more accurately.
[0023]
Further, when the relative movement vector is obtained in step S16, next, the possibility of collision with the detected object is determined, and when there is an object that may collide with the host vehicle 10, for example, A sound alarm is issued via the speaker 6 and an image obtained by, for example, the infrared camera 2R is output to the image display device 7 so that an approaching object is displayed as an emphasized image for the driver of the host vehicle 10. An alarm determination process is performed (step S17).
When the alarm determination process in step S17 is completed, the process returns to step S1 and the above process is repeated.
Details of the alarm determination process will be described later.
[0024]
The above is the object detection / alarm operation in the image processing unit 1 of the obstacle alarm device of the present embodiment. Next, referring to the flowchart shown in FIG. 5, step S17 of the flowchart shown in FIG. The alarm determination process in will be described in more detail.
FIG. 5 is a flowchart showing the alarm determination processing operation of the present embodiment.
The alarm determination process includes the object detected as the host vehicle 10 by the following collision determination process, determination process whether or not the vehicle is in the approach determination area, approach collision determination process, overlap determination process, alarm output determination process, and video input process. This is a process of determining the possibility of a collision with an object and notifying the driver of an object with the possibility of a collision. Hereinafter, as shown in FIG. 6, a case where there is an object 20 traveling at a speed Vp from a direction of approximately 90 ° with respect to the traveling direction of the host vehicle 10 will be described as an example.
[0025]
In FIG. 5, first, the image processing unit 1 performs a collision determination process (step S21). In the collision determination process, in FIG. 6, when the object 20 approaches the distance Zv (0) from the distance Zv (N−1) during the time ΔT, the relative speed Vs in the Z direction with the host vehicle 10 is obtained. This is a process for determining whether or not they collide within the margin time T on the assumption that both move within the height H while maintaining the relative speed Vs. Here, the margin time T is intended to determine the possibility of a collision by a time T before the predicted collision time. Accordingly, the margin time T is set to about 2 to 5 seconds, for example. H is a predetermined height that defines a range in the height direction, and is set to about twice the vehicle height of the host vehicle 10, for example.
[0026]
Next, in step S21, when there is a possibility that the host vehicle 10 and the target object 20 collide within the margin time T (YES in step S21), the image processing unit 1 further increases the reliability of the determination. A determination process is performed as to whether or not the object 20 exists within the approach determination area (step S22). As shown in FIG. 7, if the area that can be monitored by the infrared cameras 2R and 2L is an outer triangular area AR0 indicated by a thick solid line, as shown in FIG. An area AR1 that is closer to the host vehicle 10 than Vs × T and corresponds to a range in which the object 20 adds a margin β (for example, about 50 to 100 cm) on both sides of the vehicle width α of the host vehicle 10, that is, This is a process for determining whether or not the object 20 is present in the approach determination area AR1 where the possibility of a collision with the host vehicle 10 is extremely high if the object 20 continues to exist. The approach determination area AR1 also has a predetermined height H.
[0027]
Furthermore, in step S22, when the target object 20 does not exist in the approach determination area (NO in step S22), the image processing unit 1 may cause the target object 20 to enter the approach determination area and collide with the host vehicle 10. An approach collision determination process is performed to determine whether or not there is (step S23). In the approach collision determination process, the areas AR2 and AR3 having an absolute value of the X coordinate larger than the above-described approach determination area AR1 (outside in the lateral direction of the approach determination area) are referred to as an entry determination area, and the object 20 in this area is This is a process of determining whether or not the vehicle enters the approach determination area AR1 by moving and collides with the host vehicle 10. The entry determination areas AR2 and AR3 also have a predetermined height H.
[0028]
If it is determined in step S23 that the object 20 may enter the approach determination area and collide with the host vehicle 10 (YES in step S23), the real space coordinates of the left and right edges of the object 20 are determined. Are compared with the real space coordinates of the left and right edges of the object recorded in the past, and an overlap determination process is performed to determine whether or not the current object 20 is the entry object based on the degree of overlap between the two (step) S24). The overlap determination process will be described later in detail.
On the other hand, if the target object 20 is present in the approach determination area in step S22 (YES in step S22), or the target object recorded in the past overlaps the current target object 20 in step S24. If the object 20 is the entry object (YES in step S24), an alarm output determination process is performed (step S25).
[0029]
Here, the warning output determination process is a process for determining whether or not to output an alarm by determining whether or not the driver of the host vehicle 10 is performing a brake operation from the output BR of the brake sensor 5. If the driver of the host vehicle 10 performs a braking operation, the acceleration Gs generated by the driver is calculated (the deceleration direction is positive), and the acceleration Gs is equal to or less than a predetermined threshold GTH. Or if the driver of the host vehicle 10 has not performed a brake operation, the process immediately proceeds to step S26 (YES in step S25), and a warning is issued to the driver, for example, via the speaker 6, and An emphasized image for allowing the driver of the host vehicle 10 to recognize the presence of the object 20 is output to the image display device 7 (step S26), and the display target is displayed on the image display device 7. Performs image input processing of inputting the image (step S27), and terminates the alert determination processing. The predetermined threshold GTH corresponds to a condition in which the host vehicle 10 stops at a travel distance equal to or less than the distance Zv (0) between the object 20 and the host vehicle 10 when the acceleration Gs during the brake operation is maintained as it is. Value.
[0030]
In step S21, if there is no possibility that the host vehicle 10 and the object 20 collide within the margin time T (NO in step S21), or in step S23, the object 20 enters the approach determination area. If it is determined that there is no possibility of collision with the host vehicle 10 (NO in step S23), or in step S24, the previously recorded object and the current object 20 are overlapped, and the object 20 Is not an entry object (NO in step S24), and further, in step S25, when the acceleration Gs is larger than the predetermined threshold GTH and the collision with the object 20 is avoided by the brake operation of the driver of the host vehicle 10 If it is determined (NO in step S25), the process proceeds to step S27, and the image to be displayed is input to the image display device 7. Performs image input processing (step S27), and terminates the alert determination processing.
[0031]
Next, the overlap determination process in step S24 of the flowchart shown in FIG. 5 will be described with reference to the drawings.
First, the outline of the overlap determination process will be described. The overlap determination process compares the real space coordinates of the left and right edges of the object 20 with the real space coordinates of the left and right edges of the object 20 recorded in the past. This is a process for determining whether or not the current object 20 is set as an entry object based on the degree of overlap.
Specifically, for example, as shown in FIG. 9, when the time-series data of the object 20 is the object OBJ [t], {t = 0, 1,... Even if the stationary object OBJ [t], {t = 0, 1,... N−1} is separated on the image, the position of the area centroid 12 of the time series data moves with time. The existence position itself in the real space of 20 does not change.
[0032]
At this time, the relationship between the past object (OBJ [t], t ≠ 0) and the current object (A or B of OBJ [0]) is the current object in the existence space of the past object 20. 20 is included. That is, in FIG. 9, it is considered that OBJ [1] = A + B.
Therefore, when the current target object 20 is included in the presence space of the past target object 20, it is determined that the target object 20 is not an approach target object (= a stationary target object), and an approach warning target Can be excluded.
[0033]
This overlap determination process will be described in detail with reference to a flowchart showing the overlap determination processing operation of the present embodiment shown in FIG. 8. First, in FIG. 8, the image processing unit 1 uses the feature 20 as a feature amount. The extreme left edge coordinate (XL [t]) and the extreme right edge coordinate (XR [t]) in the real space at each time are calculated by equation (1) (step S31). In addition, including the following description, it is assumed that the coordinate value of the object 20 calculated by the image processing unit 1 increases as it goes rightward in front of the image.
[0034]
XL [t] = xl [t] · Z [t] · p / f,
XR [t] = xr [t] · Z [t] · p / f (1)
However, the distance of the object 20 at time t is Z [t] (m), the left edge coordinates of the object 20 on the screen are xl [t] (pixel), and the right edge coordinates are xr [t] (pixel). The camera focal length is f (m) and the pixel pitch is p (m / pixel).
[0035]
Next, from the time t = N−1 to the time t = 1, the leftmost position coordinate XL_MAX and the rightmost position coordinate XR_MAX are calculated from the edge coordinate value of the object 20 calculated by Expression (1). Is calculated (step S32).
Finally, the left coordinate (XL [0]) and the right coordinate (XR [0]) of the object 20 at time t = 0 (current) satisfy Expression (2), and the object 20 recorded in the past It is determined whether or not the current object 20 overlaps (step S33).
XL [0] ≧ XL_MAX and XR [0] ≦ XR_MAX (2)
[0036]
In step S33, the left coordinate (XL [0]) and the right coordinate (XR [0]) of the object 20 at time t = 0 (current) satisfy Expression (2), and the object 20 recorded in the past is recorded. If the current object 20 overlaps the current object 20 (YES in step S33), the object 20 is not regarded as an entry object, and the process returns to NO in step S24 in FIG. 5 (step S34).
In step S33, the left coordinate (XL [0]) and the right coordinate (XR [0]) of the object 20 at time t = 0 (current) are not recorded in the past without satisfying the equation (2). If the object 20 and the current object 20 do not overlap (NO in step S33), the object 20 is set as an entry object, and the process returns to YES in step S24 in FIG. 5 (step S35).
[0038]
As described above, the obstacle alarm device of the present embodiment captures the position coordinates of the left and right edges of the target object 20 in time series, and the current position coordinates of the left and right edges of the target object 20 are recorded in the past. Compared with the position coordinates of the left and right edges of the object 20, if the position coordinates of the left and right edges of the current object 20 are included in the presence space of the object 20 recorded in the past, the object 20 is entered. It is determined that the object is not an object (= a stationary object), and can be excluded from the entry warning target.
Therefore, it is possible to easily perform object determination without performing complicated calculations and determinations such as whether the plurality of extracted objects 20 are equidistant or close to each other and remain stationary in the real space. For the target object 20, even if a change in the relative distance and the relative speed occurs in the relative movement vector of the target object 20 obtained from the image, it is correctly determined that the target object is a stationary target object, and attention is paid to the driver. By not displaying as a required object, it prevents the object display that hinders the driver's accurate object recognition, and allows the driver to accurately grasp the position of the alarm object that really needs to be paid attention to. The effect is obtained.
[0039]
【The invention's effect】
As described above, according to the obstacle alarm device according to claim 1, if the object tracked in the past and the currently extracted object are the same object, they are recognized as one object, It is possible to verify the possibility of affecting the running of the vehicle. Therefore, it is possible to easily perform object determination without performing complicated calculations and determinations such as whether the plurality of extracted objects are present at equal distances or close to each other, for example, a stationary object With respect to, there is an effect that it is possible to perform appropriate processing such as omitting verification of the possibility of affecting the running of the vehicle.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an obstacle alarm device according to an embodiment of the present invention.
FIG. 2 is a diagram showing attachment positions of an infrared camera, a sensor, a display, and the like in a vehicle.
FIG. 3 is a flowchart showing an object detection / alarm operation of the obstacle alarm device according to the embodiment;
FIG. 4 is a diagram illustrating a grayscale image obtained by an infrared camera and a binarized image thereof.
FIG. 5 is a flowchart showing an alarm determination processing operation according to the embodiment;
FIG. 6 is a diagram illustrating a case where a collision is likely to occur.
FIG. 7 is a diagram showing a region division in front of the vehicle.
FIG. 8 is a flowchart showing an overlap determination processing operation according to the embodiment;
FIG. 9 is a diagram showing a relative movement vector generated when one object is separated and extracted.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Image processing unit 2R, 2L Infrared camera 3 Yaw rate sensor 4 Vehicle speed sensor 5 Brake sensor 6 Speaker 7 Image display apparatus 10 Own vehicle S24, S31-S35 Same object judgment means

Claims (4)

2つの撮像手段により得られた画像から、車両の走行に影響を与える可能性のある対象物を検知して警報を発する車両用の障害物警報装置において、
過去に捉えた過去対象物と現在捉えている現在対象物とについて、これら過去対象物と現在対象物との左右エッジの位置座標を比較することによって、前記車両の進行方向における前記過去対象物と前記現在対象物との重なりを判定する重なり判断手段と、
前記重なり判断手段によって前記過去対象物と前記現在対象物とが重なっていると判定された場合は、前記現在対象物が進入対象物ではないと判断する進入対象物判断手段とを備えたことを特徴とする障害物警報装置。
In an obstacle alarm device for a vehicle that detects an object that may affect the running of a vehicle from an image obtained by two imaging means and issues an alarm,
For the past the past object captured the current object that is currently captured, by comparing the position coordinates of the right and left edges of these past object and current object, and the last object in the traveling direction of the vehicle Overlap determination means for determining an overlap with the current object ;
An entry object judging means for judging that the current object is not an entry object when the overlap judging means determines that the past object and the current object overlap. Obstacle alarm device featuring.
前記撮像手段により得られた画像から、車両の走行に影響を与える可能性のある対象物を検知して警報を発する警報手段を備え、From the image obtained by the imaging means, comprising an alarm means for detecting an object that may affect the running of the vehicle and issuing an alarm,
該警報手段は、前記進入対象物判断手段にて進入対象物でないと判断された前記現在対象物は、警報対象から除外することを特徴とする請求項1に記載の障害物警報装置。  The obstacle alarm device according to claim 1, wherein the alarm means excludes the current object that is determined not to be an entry object by the entry object determination means from the alarm object.
前記重なり判定手段は、複数の前記過去対象物の左右エッジの位置座標を時系列で捉え、前記現在対象物の左右エッジの位置座標と比較し、過去対象物の存在空間に現在対象物の左右エッジの位置座標が含まれる場合は、前記過去対象物と前記現在対象物とが重なっていると判定することを特徴とする請求項1〜2に記載の障害物警報装置。The overlap determining means captures the position coordinates of the left and right edges of the plurality of past objects in time series, compares the position coordinates with the position coordinates of the left and right edges of the current object, and determines the left and right edges of the current object in the presence space of the past object. 3. The obstacle alarm device according to claim 1, wherein when an edge position coordinate is included, the past object and the current object are determined to overlap each other. 前記重なり判断手段は、前記過去対象物および前記現在対象物の特徴量として、少なくとも各時刻における対象物の距離、画面上での左エッジ座標と右エッジ座標、前記撮像手段の焦点距離および画素ピッチに基づいて各時刻における実空間での最端左エッジ座標と最端右エッジ座標とを算出し、The overlap determining means includes, as feature quantities of the past object and the current object, at least the distance of the object at each time, the left and right edge coordinates on the screen, the focal length and the pixel pitch of the imaging means Based on, calculate the extreme left edge coordinate and the extreme right edge coordinate in real space at each time,
さらに、この算出された各時刻における実空間での最端右エッジ座標と最端左エッジ座標とからそれぞれ最も右の位置座標および最も左の位置座標を算出し、Further, the rightmost position coordinate and the leftmost position coordinate are calculated from the most right edge coordinate and the most left edge coordinate in the real space at each calculated time,
実空間での前記最端右エッジ座標、最端左エッジ座標、最も右の位置座標および最も左の位置座標の各々の座標の大きさが前記画像の正面に向かって右方向へ行くほど大きくなる場合、前記過去対象物における最も左の位置座標と前記現在対象物の最端左エッジ座標との関係、および、前記過去対象物における最も右の位置座標と前記現在対象物の最端左エッジ座標との関係が、現在対象物の最端左エッジ座標≧過去対象物の最も左の位置座標、かつ現在対象物の最端右エッジ座標≦過去対象物の最も右の位置座標、を満たすか否かを判定し、The size of each of the rightmost edge coordinate, the leftmost edge coordinate, the rightmost position coordinate, and the leftmost position coordinate in the real space increases as it goes rightward toward the front of the image. A relationship between a leftmost position coordinate in the past object and an outermost left edge coordinate of the current object, and a rightmost position coordinate in the past object and an outermost left edge coordinate of the current object Whether the current object's leftmost edge coordinate ≥ the leftmost position coordinate of the past object and the current object's rightmost edge coordinate ≤ the rightmost position coordinate of the past object Determine whether
現在対象物の最端左エッジ座標≧過去対象物の最も左の位置座標、かつ現在対象物の最端右エッジ座標≦過去対象物の最も右の位置座標、The leftmost edge coordinate of the current object ≧ the leftmost position coordinate of the past object, and the rightmost edge coordinate of the current object ≦ the rightmost position coordinate of the past object,
の関係を満たす場合は、過去対象物と現在対象物とが重なっていると判定することを特徴とする請求項1または2に記載の障害物警報装置。3. The obstacle alarm device according to claim 1, wherein when the relationship is satisfied, it is determined that the past object and the current object overlap each other.
JP2002110905A 2002-04-12 2002-04-12 Obstacle alarm device Expired - Fee Related JP3939580B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002110905A JP3939580B2 (en) 2002-04-12 2002-04-12 Obstacle alarm device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002110905A JP3939580B2 (en) 2002-04-12 2002-04-12 Obstacle alarm device

Publications (2)

Publication Number Publication Date
JP2003309843A JP2003309843A (en) 2003-10-31
JP3939580B2 true JP3939580B2 (en) 2007-07-04

Family

ID=29393895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002110905A Expired - Fee Related JP3939580B2 (en) 2002-04-12 2002-04-12 Obstacle alarm device

Country Status (1)

Country Link
JP (1) JP3939580B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2829934B2 (en) * 1990-03-30 1998-12-02 マツダ株式会社 Mobile vehicle environment recognition device
JPH0453000A (en) * 1990-06-20 1992-02-20 Takahiro Miura Safety confirming device for vehicle
JP3515926B2 (en) * 1999-06-23 2004-04-05 本田技研工業株式会社 Vehicle periphery monitoring device
JP3714116B2 (en) * 1999-08-09 2005-11-09 トヨタ自動車株式会社 Steering stability control device

Also Published As

Publication number Publication date
JP2003309843A (en) 2003-10-31

Similar Documents

Publication Publication Date Title
JP3756452B2 (en) Infrared image processing device
JP4426535B2 (en) Vehicle periphery monitoring device
JP3987057B2 (en) Vehicle periphery monitoring device
JP3739693B2 (en) Image recognition device
JP3764086B2 (en) Vehicle information providing device
JP4410292B1 (en) Vehicle periphery monitoring device
US8810653B2 (en) Vehicle surroundings monitoring apparatus
US20060115119A1 (en) Vehicle surroundings monitoring apparatus
JP4104867B2 (en) Night vision system
US20060115115A1 (en) Vehicle surroundings monitoring apparatus
JP4528283B2 (en) Vehicle periphery monitoring device
JP2010146494A (en) Vehicle surroundings monitoring device
JP2003329439A (en) Distance detecting device
JP4128562B2 (en) Vehicle periphery monitoring device
JP3999088B2 (en) Obstacle detection device
JP3916930B2 (en) Approach warning device
JP3936313B2 (en) Image recognition device
JP4176558B2 (en) Vehicle periphery display device
JP3949628B2 (en) Vehicle periphery monitoring device
JP3898157B2 (en) Infrared image recognition device
JP4567072B2 (en) Vehicle periphery monitoring device
JP3844750B2 (en) Infrared image recognition device and alarm device using infrared image recognition device
JP3999025B2 (en) Alarm display device
JP3939580B2 (en) Obstacle alarm device
JP3961269B2 (en) Obstacle alarm device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060725

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070328

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110406

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110406

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130406

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130406

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140406

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees