JP2010093715A - 車両周辺監視装置 - Google Patents

車両周辺監視装置 Download PDF

Info

Publication number
JP2010093715A
JP2010093715A JP2008264128A JP2008264128A JP2010093715A JP 2010093715 A JP2010093715 A JP 2010093715A JP 2008264128 A JP2008264128 A JP 2008264128A JP 2008264128 A JP2008264128 A JP 2008264128A JP 2010093715 A JP2010093715 A JP 2010093715A
Authority
JP
Japan
Prior art keywords
vehicle
infrared
image
amount
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008264128A
Other languages
English (en)
Other versions
JP4871941B2 (ja
Inventor
Shinji Nagaoka
伸治 長岡
Hiroshi Hattori
弘 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2008264128A priority Critical patent/JP4871941B2/ja
Publication of JP2010093715A publication Critical patent/JP2010093715A/ja
Application granted granted Critical
Publication of JP4871941B2 publication Critical patent/JP4871941B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】赤外線カメラにより撮影された画像に含まれる対象物から車両のみをより確実に排除してさらなる信頼性の向上を図ることが可能な車両周辺監視装置を提供する。
【解決手段】赤外線カメラによって捉えられた画像から車両の灯体と思われる熱源を第1対象物として抽出する(S41〜S43)。第1対象物の周囲の窓候補領域と、第1対象物との距離を比較して第1対象物との距離が所定範囲内の第2対象物を抽出する(S44〜S46)。そして、第2対象物の赤外線量の時間的変化を検出(S50)し、第2対象物から発生される赤外線量の時間的変化が所定の赤外線量の条件を満たすか否かを判定し(S51,S52)、赤外線量の時間的変化が所定の赤外線量の条件を満たす場合に、第1対象物と前記第2対象物とを含む物体が車両であると判定する(S53)。
【選択図】図8

Description

この発明は、赤外線カメラにより撮影された画像の2値化処理により対象物抽出を行う車両周辺監視装置に関するものである。
従来、自動車等の自車両に設けられた赤外線カメラにより撮影された車両周辺の画像を2値化処理することで歩行者と思われる対象物の抽出を行い、抽出された対象物と自車両との衝突可能性が高い場合にこの情報をドライバーに報知する車両周辺監視装置が知られている。
さらに近年、2つの赤外線カメラを用いて歩行者を対象物として抽出する車両周辺監視装置において、車両のテールライトなどの灯体と思われる高輝度物体の上部に探索領域を設定し、高輝度物体と同距離の物体が探索領域内に検索されて、且つ、探索領域の平均輝度が規定値より小さい場合に、この探索領域内の物体がウィンドシールドであると判定してこの物体が車両であると判定するものが提案されている(例えば、特許文献1参照)。
特開2003−230134号公報
しかしながら、上述した従来の車両周辺監視装置にあっては、高輝度物体の上部周辺に低輝度物体が存在すると車両以外の物体でも車両であると誤判定してしまう虞がある。
また、車両のウィンドシールドは、一般にガラスで形成されていることから赤外線を反射し易く、空、雲および周囲の風景などを反射したときに輝度が低い部位が存在しない状況となる場合があり、車両を対象物から排除できない虞があるという課題がある。
この発明は、上記事情に鑑みてなされたものであり、赤外線カメラにより撮影された画像に含まれる対象物から車両のみをより確実に排除してさらなる歩行者認識の精度向上を図ることが可能な車両周辺監視装置を提供するものである。
上記の課題を解決するために、請求項1に記載した発明は、赤外線カメラ(例えば、実施の形態における赤外線カメラ2R,2L)によって捉えられた画像から車両の特徴部と思われる熱源を第1対象物(例えば、実施の形態におけるOBJ[1],OBJ[2])として抽出する特徴部抽出手段(例えば、実施の形態におけるステップS41〜S43)と、該第1対象物の周囲の領域(例えば、実施の形態における窓候補領域A)と、前記第1対象物との距離を比較して前記第1対象物との距離が所定範囲内の第2対象物を抽出する第2対象物抽出手段(例えば、実施の形態におけるステップS44〜S46)とを備え、前記第1対象物と前記第2対象物から発生される赤外線量とを比較することで、車両判別を行う車両周辺監視装置であって、前記第2対象物の赤外線量の時間的変化を検出する赤外線量変化検出手段(例えば、実施の形態におけるステップS50)と、該赤外線量変化検出手段により、前記第2対象物から発生される赤外線量の時間的変化が所定の赤外線量の条件を満たすか否かを判定する赤外線量判定手段(例えば、実施の形態におけるステップS51,S52)と、該赤外線量判定手段により赤外線量の時間的変化が所定の赤外線量の条件を満たす場合に、前記第1対象物と前記第2対象物とを含む物体が車両であると判定する車両判定手段(例えば、実施の形態におけるステップS53)とを設けたことを特徴とする。
請求項2に記載の発明は、車両の窓への映り込みが起こりやすい外部環境であるか判定する判定手段を備えることを特徴とする。
請求項3に記載の発明は、前記外部環境が、空模様の状況であることを特徴とする。
請求項4に記載の発明は、前記外部環境が、車両の走行路近傍の物体の状況であることを特徴とする。
請求項1に記載した発明によれば、特徴部抽出手段により抽出された第1対象物との距離が所定範囲内の第2対象物を第2対象物抽出手段により抽出して、第2対象物の赤外線量の時間的変化が所定の赤外線量の条件の場合に、第2対象物が車両のウィンドシールドなどのガラスである可能性が高いため、第1対象物と第2対象物とを含む物体が車両であると判定することができる。
したがって、第1対象物との距離が所定範囲内のウィンドシールドが周囲の風景などが反射して赤外線量の時間的変化の幅が大きくなった場合に物体が車両であると判定したり、快晴時の空や、雲一面の空が反射して赤外線量の時間的変化がなく一様である場合に物体が車両であると判定することができるため、車両のみを確実に排除して歩行者認識の精度向上に寄与することができる効果がある。
以下、図面を参照して本発明の第1の実施の形態について説明する。
図1は、本発明の第1の実施の形態の車両周辺監視装置の構成を示すブロック図である。
図1において、符号1は、本実施の形態の車両周辺監視装置を制御するCPU(中央演算装置)を備えた画像処理ユニットであって、遠赤外線を検出可能な2つの赤外線カメラ2R、2Lと当該車両のヨーレートを検出するヨーレートセンサ3、更に、当該車両の走行速度(車速)を検出する車速センサ4とブレーキの操作を検出するためのブレーキセンサ5が接続される。これにより、画像処理ユニット1は、車両の周辺の赤外線画像と車両の走行状態を示す信号から、車両前方の歩行者や動物等の動く物体を検出し、衝突の可能性が高いと判断したときに警報を発する。
また、画像処理ユニット1には、音声で警報を発するためのスピーカ6と、赤外線カメラ2R、2Lにより撮影された画像を表示し、衝突の危険性が高い対象物を車両の運転者に認識させるための、例えば自車両の走行状態を数字で表すメータと一体化されたメータ一体Displayや自車両のコンソールに設置されるNAVIDisplay、更にフロントウィンドウの運転者の前方視界を妨げない位置に情報を表示するHUD(Head Up Display)7a等を含む画像表示装置7が接続されている。
また、画像処理ユニット1は、入力アナログ信号をディジタル信号に変換するA/D変換回路、ディジタル化した画像信号を記憶する画像メモリ、各種演算処理を行うCPU(中央演算装置)、CPUが演算途中のデータを記憶するために使用するRAM(Random Access Memory)、CPUが実行するプログラムやテーブル、マップなどを記憶するROM(Read Only Memory)、スピーカ6の駆動信号、HUD7a等の表示信号などを出力する出力回路を備えており、赤外線カメラ2R、2L及びヨーレートセンサ3、車速センサ4、ブレーキセンサ5の各出力信号は、ディジタル信号に変換されてCPUに入力されるように構成されている。
また、図2に示すように、赤外線カメラ2R、2Lは、自車両10の前部に、自車両10の車幅方向中心部に対してほぼ対称な位置に配置されており、2つの赤外線カメラ2R、2Lの光軸が互いに平行であって、かつ両者の路面からの高さが等しくなるように固定されている。なお、赤外線カメラ2R、2Lは、対象物の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。
また、HUD7aは、自車両10のフロントウィンドウの運転者の前方視界を妨げない位置に表示画面が表示されるように設けられている。
次に、本実施の形態の動作について図面を参照して説明する。
図3は、本実施の形態の車両周辺監視装置の画像処理ユニット1における歩行者等の対象物検出・警報動作を示すフローチャートである。
まず、画像処理ユニット1は、赤外線カメラ2R、2Lの出力信号である赤外線画像を取得して(ステップS1)、A/D変換し(ステップS2)、グレースケール画像を画像メモリに格納する(ステップS3)。なお、ここでは赤外線カメラ2Rにより右画像が得られ、赤外線カメラ2Lにより左画像が得られる。また、右画像と左画像では、同一の対象物の表示画面上の水平位置がずれて表示されるので、このずれ(視差)によりその対象物までの距離を算出することができる。
ステップS3においてグレースケール画像が得られたら、次に、赤外線カメラ2Rにより得られた右画像を基準画像とし、その画像信号の2値化処理、すなわち、輝度閾値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う(ステップS4)。
図4(a)は、赤外線カメラ2Rにより得られたグレースケール画像を示し、これに2値化処理を行うことにより、図4(b)に示すような画像を得る。なお、図4(b)において、例えばP1からP4の枠で囲った物体を、表示画面上に白色として表示される対象物(以下「高輝度領域」という)とする。
赤外線画像から2値化された画像データを取得したら、2値化した画像データをランレングスデータに変換する処理を行う(ステップS5)。ランレングスデータにより表されるラインは、2値化により白となった領域を画素レベルで示したもので、いずれもy方向には1画素の幅を有しており、またx方向にはそれぞれランレングスデータを構成する画素の長さを有している。
次に、ランレングスデータに変換された画像データから、対象物のラベリングをする(ステップS6)ことにより、対象物を抽出する処理を行う(ステップS7)。すなわち、ランレングスデータ化したラインのうち、y方向に重なる部分のあるラインを1つの対象物とみなすことにより、例えば図4(b)に示す高輝度領域が、それぞれ対象物(2値化対象物)1から4として把握されることになる。
対象物の抽出が完了したら、次に、抽出した対象物の重心G、面積S及び外接四角形の縦横比ASPECTを算出する(ステップS8)。
ここで、面積Sは、ラベルaの対象物のランレングスデータを(x[i]、y[i]、run[i]、a)(i=0,1,2,・・・N−1)とすると、ランレングスデータの長さ(run[i]−1)を同一対象物(N個のランレングスデータ)について積算することにより算出する。また、対象物aの重心Gの座標(xc、yc)は、各ランレングスデータの長さ(run[i]−1)と各ランレングスデータの座標x[i]、またはy[i]とをそれぞれ掛け合わせ、更にこれを同一対象物について積算したものを、面積Sで割ることにより算出する。
更に、縦横比ASPECTは、対象物の外接四角形の縦方向の長さDyと横方向の長さDxとの比Dy/Dxとして算出する。
なお、ランレングスデータは画素数(座標数)(=run[i])で示されているので、実際の長さは「−1」する必要がある(=run[i]−1)。また、重心Gの位置は、外接四角形の重心位置で代用してもよい。
対象物の重心、面積、外接四角形の縦横比が算出できたら、次に、対象物の時刻間追跡、すなわちサンプリング周期毎の同一対象物の認識を行う(ステップS9)。時刻間追跡は、アナログ量としての時刻tをサンプリング周期で離散化した時刻をkとし、例えば時刻kで対象物a、bを抽出したら、時刻(k+1)で抽出した対象物c、dと対象物a、bとの同一性判定を行う。そして、対象物a、bと対象物c、dとが同一であると判定されたら、対象物c、dをそれぞれ対象物a、bというラベルに変更することにより、時刻間追跡が行われる。
また、このようにして認識された各対象物の(重心の)位置座標は、時系列位置データとしてメモリに格納され、後の演算処理に使用される。
なお、以上説明したステップS4〜S9の処理は、2値化した基準画像(本実施の形態では、右画像)について実行する。
次に、車速センサ4により検出される車速VCAR及びヨーレートセンサ3より検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することより、自車両10の回頭角θrを算出する(ステップS10)。
一方、ステップS9とステップS10の処理に平行して、ステップS11〜S13では、対象物と自車両10との距離zを算出する処理を行う。この演算はステップS9、及びステップS10より長い時間を要するため、ステップS9、S11より長い周期(例えばステップS1〜S10の実行周期の3倍程度の周期)で実行される。
まず、基準画像(右画像)の2値化画像によって追跡される対象物の中の1つを選択することにより、右画像から探索画像R1(ここでは、外接四角形で囲まれる領域全体を探索画像とする)を抽出する(ステップS11)。
次に、左画像中から探索画像R1に対応する画像(以下「対応画像」という)を探索する探索領域を設定し、相関演算を実行して対応画像を抽出する(ステップS12)。具体的には、探索画像R1の各頂点座標に応じて、左画像中に探索領域R2を設定し、探索領域R2内で探索画像R1との相関の高さを示す輝度差分総和値C(a,b)を算出し、この総和値C(a,b)が最小となる領域を対応画像として抽出する。なお、この相関演算は、2値化画像ではなくグレースケール画像を用いて行う。
また同一対象物についての過去の位置データがあるときは、その位置データに基づいて探索領域R2より狭い領域R2aを探索領域として設定する。
ステップS12の処理により、基準画像(右画像)中に探索画像R1と、左画像中にこの対象物に対応する対応画像R4とが抽出されるので、次に、探索画像R1の重心位置と対応画像R4の重心位置と視差Δd(画素数)を求め、これから自車両10と対象物との距離zを算出する(ステップS13)。距離zを求める式は後述する。
次に、ステップS10における回頭角θrの算出と、ステップS13における対象物との距離算出が完了したら、画像内の座標(x,y)及び距離zを実空間座標(X,Y,Z)に変換する(ステップS14)。
ここで、実空間座標(X,Y,Z)は、図2に示すように、赤外線カメラ2R、2Lの取り付け位置の中点の位置(自車両10に固定された位置)を原点Oとして、図示のように定め、画像内の座標は、画像の中心を原点として水平方向をx、垂直方向をyと定めている。
また、実空間座標が求められたら、自車両10が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う(ステップS15)。回頭角補正は、時刻kから(k+1)までの期間中に自車両10が例えば左方向に回頭角θrだけ回頭すると、カメラによって得られる画像上では、画像の範囲がΔxだけx方向にずれるので、これを補正する処理である。
なお、以下の説明では、回頭角補正後の座標を(X,Y,Z)と表示する。
実空間座標に対する回頭角補正が完了したら、次に、同一対象物について、ΔTのモニタ期間内に得られた、回頭角補正後のN個(例えばN=10程度)の実空間位置データ、すなわち時系列データから、対象物と自車両10との相対移動ベクトルに対応する近似直線LMVを求める(ステップS16)。
次いで、最新の位置座標P(0)=(X(0),Y(0),Z(0))と、(N−1)サンプル前(時間ΔT前)の位置座標P(Nー1)=(X(N−1),Y(N−1),Z(N−1))を近似直線LMV上の位置に補正し、補正後の位置座標Pv(0)=(Xv(0),Yv(0),Zv(0))及びPv(N−1)=(Xv(N−1),Yv(N−1),Zv(N−1))を求める。
これにより、位置座標Pv(N−1)からPv(0)に向かうベクトルとして、相対移動ベクトルが得られる。
このようにモニタ期間ΔT内の複数(N個)のデータから対象物の自車両10に対する相対移動軌跡を近似する近似直線を算出して相対移動ベクトルを求めることにより、位置検出誤差の影響を軽減して対象物との衝突の可能性をより正確に予測することが可能となる。
また、ステップS16において、相対移動ベクトルが求められたら、次に、検出した対象物との衝突の可能性を判定する警報判定処理を行う(ステップS17)。なお、警報判定処理については、詳細を後述する。
ステップS17において、自車両10と検出した対象物との衝突の可能性がないと判定された場合(ステップS17のNO)、ステップS1へ戻り、上述の処理を繰り返す。
また、ステップS17において、自車両10と検出した対象物との衝突の可能性があると判定された場合(ステップS17のYES)、ステップS18の警報出力判定処理へ進む。
ステップS18では、ブレーキセンサ5の出力BRから自車両10の運転者がブレーキ操作を行っているか否かを判別することにより、警報出力判定処理、すなわち警報出力を行うか否かの判定を行う(ステップS18)。
もし、自車両10の運転者がブレーキ操作を行っている場合には、それによって発生する加速度Gs(減速方向を正とする)を算出し、この加速度Gsが所定閾値GTHより大きいときは、ブレーキ操作により衝突が回避されると判定して警報出力判定処理を終了し(ステップS18のNO)、ステップS1へ戻り、上述の処理を繰り返す。
これにより、適切なブレーキ操作が行われているときは、警報を発しないようにして、運転者に余計な煩わしさを与えないようにすることができる。
また、加速度Gsが所定閾値GTH以下であるとき、または自車両10の運転者がブレーキ操作を行っていなければ、直ちにステップS19の処理へ進み(ステップS18のYES)、対象物と接触する可能性が高いので、スピーカ6を介して音声による警報を発する(ステップS19)とともに、画像表示装置7に対して、例えば赤外線カメラ2Rにより得られる画像を出力し、接近してくる対象物を自車両10の運転者に対する強調映像として表示する(ステップS20)。
なお、所定閾値GTHは、ブレーキ操作中の加速度Gsがそのまま維持された場合に、対象物と自車両10との距離Zv(0)以下の走行距離で自車両10が停止する条件に対応する値である。
以上が、本実施の形態の車両周辺監視装置の画像処理ユニット1における対象物検出・警報動作であるが、次に、図5に示すフローチャートを参照して、図3に示したフローチャートのステップS17における警報判定処理について更に詳しく説明する。
図5は、本実施の形態の警報判定処理動作を示すフローチャートである。
警報判定処理は、以下に示す衝突判定処理、接近判定領域内か否かの判定処理、進入衝突判定処理、歩行者判定処理、及び人工構造物判定処理により、自車両10と検出した対象物との衝突の可能性を判定する処理である。以下、図6に示すように、自車両10の進行方向に対してほぼ90°の方向から、速度Vpで進行してくる対象物20がいる場合を例に取って説明する。
図5において、まず、画像処理ユニット1は衝突判定処理を行う(ステップS31)。衝突判定処理は、図6において、対象物20が時間ΔTの間に距離Zv(N−1)から距離Zv(0)に接近した場合に、自車両10とのZ方向の相対速度Vsを求め、両者が高さH以内で相対速度Vsを維持して移動すると仮定して、余裕時間T以内に両者が衝突するか否かを判定する処理である。ここで、余裕時間Tは、衝突の可能性を予測衝突時刻より時間Tだけ前に判定することを意図したものである。従って、余裕時間Tは例えば2〜5秒程度に設定される。またHは、高さ方向の範囲を規定する所定高さであり、例えば自車両10の車高の2倍程度に設定される。
次に、ステップS31において、余裕時間T以内に自車両10と対象物とが衝突する可能性がある場合(ステップS31のYES)、更に判定の信頼性を上げるために、画像処理ユニット1は対象物が接近判定領域内に存在するか否かの判定処理を行う(ステップS32)。接近判定領域内か否かの判定処理は、図7に示すように、赤外線カメラ2R、2Lで監視可能な領域を太い実線で示す外側の三角形の領域AR0とすると、領域AR0内の、Z1=Vs×Tより自車両10に近い領域であって、対象物が自車両10の車幅αの両側に余裕β(例えば50〜100cm程度とする)を加えた範囲に対応する領域AR1、すなわち対象物がそのまま存在し続ければ自車両10との衝突の可能性がきわめて高い接近判定領域AR1内に存在するか否かを判定する処理である。なお、接近判定領域AR1も所定高さHを有する。
更に、ステップS32において、対象物が接近判定領域内に存在しない場合(ステップS32のNO)、画像処理ユニット1は対象物が接近判定領域内へ進入して自車両10と衝突する可能性があるか否かを判定する進入衝突判定処理を行う(ステップS33)。進入衝突判定処理は、上述の接近判定領域AR1よりX座標の絶対値が大きい(接近判定領域の横方向外側の)領域AR2、AR3を進入判定領域と呼び、この領域内にある対象物が、移動することにより接近判定領域AR1に進入すると共に自車両10と衝突するか否かを判定する処理である。
なお、進入判定領域AR2、AR3も所定高さHを有する。
一方、ステップS32において、対象物が接近判定領域内に存在している場合(ステップS32のYES)、画像処理ユニット1は対象物が歩行者の可能性があるか否かを判定する歩行者判定処理を行う(ステップS34)。歩行者判定処理は、グレースケール画像上で対象物画像の形状や大きさ、輝度分散等の特徴から、対象物が歩行者か否かを判定する処理である。
また、ステップS34において、対象物は歩行者の可能性があると判定された場合(ステップS34のYES)、更に判定の信頼性を上げるために、対象物が人工構造物であるか否かを判定する人工構造物判定処理を行う(ステップS35)。人工構造物判定処理は、グレースケール画像上で、例えば車両のような対象物を人工構造物と判定し、警報の対象から除外する処理である。なお、人工構造物判定処理については、詳細を後述する。
従って、上述のステップS33において、対象物が接近判定領域内へ進入して自車両10と衝突する可能性がある場合(ステップS33のYES)、及びステップS35において、歩行者の可能性があると判定された対象物が人工構造物でなかった場合(ステップS35のNO)、画像処理ユニット1は、自車両10と検出した対象物との衝突の可能性がある(警報の対象である)と判定し(ステップS36)、図3に示すステップS17のYESとしてステップS18へ進み、警報出力判定処理(ステップS18)を行う。
一方、上述のステップS31において、余裕時間T以内に自車両10と対象物とが衝突する可能性がない場合(ステップS31のNO)、あるいはステップS33において、対象物が接近判定領域内へ進入して自車両10と衝突する可能性がない場合(ステップS33のNO)、あるいはステップS34において、対象物は歩行者の可能性がないと判定された場合(ステップS34のNO)、更にはステップS35において、歩行者の可能性があると判定された対象物が人工構造物であった場合(ステップS35のYES)のいずれかであった場合は、画像処理ユニット1は、自車両10と検出した対象物との衝突の可能性がない(警報の対象ではない)と判定し(ステップS37)、図3に示すステップS17のNOとしてステップS1へ戻り、歩行者等の対象物検出・警報動作を繰り返す。
次に、図8に示すフローチャートを参照して、図5に示したフローチャートのステップS35における人工構造物判定処理について更に詳しく説明する。図8は、本実施の形態の人工構造物判定処理動作を示すフローチャートである。
図8において、まず、画像処理ユニット1は、図3に示したフローチャートのステップS8において算出された2値化対象物の重心G(xc、yc)、面積S、更に対象物の外接四角形の縦横比ASPECT、及びステップS13において算出された自車両10と対象物との距離zに加えて、2値化対象物の外接四角形の高さhbと幅wb、及び外接四角形重心座標(xb、yb)の値を利用して、実空間での2値化対象物の形状の特徴を示す2値化対象物形状特徴量を算出する(ステップS41)。なお、求める2値化対象物形状特徴量は、カメラの基線長D[m]、カメラ焦点距離f[m]、画素ピッチp[m/pixel]、及び左右映像の相関演算によって算出される視差Δd[pixel]を用いて算出する。
具体的には、自車両10と対象物との距離zは、
z=(f×D)/(Δd×p) ・・・(1)
と表されるので、実空間における2値化対象物の幅ΔWbや高さΔHbは、
ΔWb=wb×z×p/fΔHb=hb×z×p/f ・・・(2)
2値化対象物の上端位置座標(Xt,Yt,Zt)は、
Xt=xb×z×p/fYt
=yb×z×p/f−ΔHb/2Zt
=z ・・・(3)で算出することができる。
次に、図3に示したフローチャートのステップS7において抽出された2値化対象物の中に、ステップS41において取得された2値化対象物中で、対称な位置に存在する2値化対象物を探索する(ステップS42)。具体的には、図9に示すようなOBJ[I](IはOBJを区別するための番号)の中で、以下の(4)〜(6)式に示す条件を満たす2値化対象物を、対称な位置に存在する2値化対象物OBJ[X]、OBJ[Y]と判定する。
条件1:(4)式を満たして距離の差分が規定値TH1より小さく、同一距離とみなせる2値化対象物。
|Zt[X]−Zt[Y]|<TH1 ・・・(4)
条件2:(5)式を満たして上端高さ位置の差分が規定値TH2より小さく、同一高さに存在するとみなせる2値化対象物。
|Yt[X]−Yt[Y]|<TH2 ・・・(5)
条件3:(6)式を満たして左右のエッジ間(左側に位置する2値化対象物の左エッジと右側に位置する2値化対象物の右エッジとの間)の最大幅が、規定の車両の幅TH3[m]より大きくTH4[m]より小さい2値化対象物。
TH3<|(Xt[X]+ΔWb[X]/2)−(Xt[Y]−ΔWb[Y]/2)|<TH4 ・・・(6)
但し、Zt[X]、Zt[Y]は、それぞれOBJ[X]、OBJ[Y]の距離を示し、Yt[X]、Yt[Y]は、それぞれOBJ[X]、OBJ[Y]の上端高さ位置を示す。また、(6)式はOBJ(X)がOBJ(Y)の右側に存在する場合を示す。
そして、対称な位置に存在する2つの2値化対象物の有無を判定し(ステップS43)、(4)〜(6)式に示す条件を満たして対称な位置に存在する2つの2値化対象物があった場合(ステップS43のYES)、該2つの2値化対象物の上方に複数の探索領域MASK[i]を設定する(ステップS44)。探索領域MASK[i]は上下2列に配列され、図9に示すように、その上下の幅Lが、一般的な車両のウィンドシールドの上下幅程度に設定されている。
ここで、例えば(4)〜(6)式に示す条件を満たして対称な位置に存在する2値化対象物OBJ[1]とOBJ[2]とが車両のライト(ヘッドライトやテールライト等の車両灯体)であれば、上方にはウィンドシールドが存在するため、探索領域MASK[i]に捉えられた物体の距離は、ライトと略同一距離とみなせる(近傍の距離を示す)。また、上述の2値化対象物が歩行者であれば、頭部の上端は空間であるため、探索領域MASK[i]に物体が捉えられず距離は不定となる。
そこで、探索領域MASK[i]の距離MASK[i]_Zを相関演算により算出し(ステップS45)、(7)式を満たして対称な位置に存在する2値化対象物OBJ[X]、OBJ[Y]のいずれか一方(本実施の形態ではOBJ[X]、また図9ではX=1とする)と探索領域MASK[i]との距離の差分が規定値TH5より小さく、探索領域MASK[i]に捉えられた物体が2値化対象物と同一距離であるか否かを判定する(ステップS46)。
|MASK[i]_Z−Zt[X]|<TH5 ・・・(7)
但し、規定値TH5は、ヘッドライトやテールライトとウィンドシールドまでの距離、及び視差精度を考慮した値とする。
なお、図9においては、正方形の探索領域MASK[i]を水平方向に沿って上下2列に配列して設定する場合を示しているが、この構成に限られるものではなく、探索領域MASK[i]が設定される領域や形状についてはウィンドシールドを十分に含むものであればよい。
次に、複数の探索領域MASK[i]のうち、2値化対象物OBJ[X]、OBJ[Y]と略同一距離にあるとみなせる物体を捉えた探索領域MASK[i]のみからなる領域(図10,図11参照)を、ウィンドシールドが存在すると推定される窓候補領域Aとして設定する(ステップS47)。
そして、この窓候補領域A内の水平エッジおよび垂直エッジを算出し(ステップS48)、図11に示すように、これら水平エッジおよび垂直エッジよりも車両上下方向内側で且つ左右方向内側の領域内において最大となる略矩形の領域を輝度分散演算領域Bとして設定する(ステップS49)。これにより、輝度分散演算領域Bがウィンドシールドの上縁、左右側縁およびワイパーを含まないウィンドシールドのガラス部分のみが存在すると推定される位置に設定される。なお、図10の一例では、窓候補領域Aを構成する探索領域MASK[i]において水平エッジおよび垂直エッジを含むものに丸印を付している。また、車両の特徴部に成り得る対称な位置に存在する2値化対象物OBJ[X]、OBJ[Y]としては、上述した車両の灯火類以外に、排気管(例えば、OBJ[3])、タイヤ(例えば、OBJ[4],[5])、ピラーなどが挙げられる。
次に、輝度分散演算領域Bの輝度分散の時間的変化幅Wが所定の閾値TH6より小さいか判定する(ステップS51)。輝度分散演算領域Bにおける輝度分散の時間的変化幅Wが所定の閾値TH6より大きい場合(ステップS51でNO)対象物は車両であると判定する(ステップS53)。
ここで、時間的変化幅Wとは、現在から過去に赤外線カメラ2R,2Lにて撮影した所定枚数の赤外線画像Flame[t](t=1〜n)に含まれる輝度分散演算領域Bの輝度分散Var[t](t=1〜n)の変化であり、つまり時間的変化幅Wは、輝度分散の最小値である最小輝度分散Min_Varと輝度分散の最大値である最大輝度分散Max_Varとの差分として求められる。
Max_Var−Min_Var<TH6 ・・・(8)
そして、一般に、周囲の風景の赤外線が走行中の車両10のウィンドシールドで反射される場合、ウィンドシールドの輝度分散の時間的変化幅Wが大きくなる傾向があるため、閾値TH6は、周囲の風景の反射による輝度分散の時間的変化幅Wであると分かる程度の比較的大きい輝度分散に設定される。
ステップS51によって輝度分散演算領域Bにおける輝度分散の時間的変化が閾値TH6よりも小さいと判定された場合(ステップS51でYES)、輝度分散演算領域Bの輝度分散の時間的変化が一様か否かを判定する(ステップS52)。輝度分散演算領域Bの輝度分散の時間的変化が一様である場合(ステップS52でYES)、対象物は車両であると判定(ステップS53)し、一様でない場合(ステップS52でNO)、対象物は車両ではないと判定する(ステップS54)。ここで、輝度分散演算領域Bにおける輝度分散の時間的変化が一様であるか否かの判定は、例えば、赤外線画像Flame[t](t=1〜n)において、全ての輝度分散Var[t](t=1〜n)が所定の閾値TH7よりも小さい場合に輝度分散演算領域Bの輝度分散の時間的変化が一様であると判定することができる。
TH7>Var[t] ・・・(9)
なお、上述のステップS43において、(4)〜(6)式に示す条件を満たして対称な位置に存在する2つの2値化対象物があった場合(ステップS43のYES)、ステップS47において探索領域MASK1にウィンドシールドが含まれているか否かを判定せずに、対称な2値化対象物を含む物体を車両と認識しても良い。
また、2値化対象物から削除したい車両の形状に合わせて、探索領域の大きさや位置を任意に調整できるようにしても良い。
更に、図9に示すOBJ[4]、OBJ[5]の位置に、連続走行時間の少ないタイヤ等の平均輝度値の低い物体を探索するようにしても良い。
なお、本実施の形態では、画像処理ユニット1が、特徴部抽出手段と、第2対象物距離対象物抽出手段とを含んでいる。より具体的には、図3のS1〜S13、及び図8のS41〜S43が特徴部抽出手段に相当し、図8のS44〜S46が第2対象物抽出手段に相当し、図8のステップS50が赤外線量変化検出手段に相当する。また、図8のステップS51,52が赤外線量判定手段に相当し、図8のS53が車両判定手段に相当する。
以上説明したように、本実施の形態の車両周辺監視装置は、赤外線カメラ2L,2Rにより撮影された画像のグレースケール画像から、2値化処理により2値化対象物OBJ[i]を抽出する。そして、取得された2値化対象物中に、対称な位置に存在する2値化対象物OBJ[X]、OBJ[Y]が存在する場合、対称な位置に存在する2つの2値化対象物OBJ[X]、OBJ[Y]の上方に設定した輝度分散演算領域Bの輝度分散の時間的変化に基づいて、周囲の風景が反射したり、快晴時の空や個も一面の空が反射したウィンドシールドの存在を確認し、このウィンドシールドが存在する場合に2値化対象物OBJ[X]、OBJ[Y]を含めて、この物体は車両であると認識する。
これにより、車両構造物における熱を発する物体とウィンドシールドの輝度分散の時間的変化の条件を満たした物体との組み合わせを用いて、比較的簡単な手順で、赤外線カメラ2L,2Rで捉えられた対象物から歩行者とは明らかに異なる特徴を持つ車両を予め除外し、歩行者認識の精度を向上させることができる。
なお、上述した第1の実施の形態の車両周辺監視装置においては、赤外線カメラ2L,2Rを備えるステレオ映像に基づいて探索領域MASK[i]と、それぞれ対称な位置に存在する2値化対象物OBJ[X]、OBJ[Y]との相対的な距離を算出する場合について説明したが、この構成に限られず、例えば他の態様として、一つの赤外線カメラを用いるいわゆる単眼映像より相対的な距離を算出するようにしても良い。この単眼映像により相対的な距離を算出する方法は、過去の映像の2値化対象物と、所定時間経過後の映像の2値化対象物との同一性判定を行うと共に、その2値化対象物の周囲の背景の変化に基づいて2値化対象物と周囲との相対的な位置関係を算出するというものである(例えば、特開2008−113296号公報)。
また、上述した第1の実施の形態では、車両のウィンドシールドと推定される物体を抽出する一例を説明したが、灯体など対称な位置に存在する2値化対象物の上方に存在して赤外線を反射し易い物体としては、例えば、タンクローリーのタンクなどがあり、この場合も物体を車両と判定することができる。
次に、この発明の第2の実施の形態について、図12のフローチャートを参照しながら説明する。なお、この第2の実施の形態は、上述した第1の実施の形態の構成に、ウィンドシールドへの映りこみが起こりやすい状況か予測する手段を追加したものであり、同一ステップに同一符号を付して重複部分の詳細な説明を省略する。
ここで、ウィンドシールドへの映りこみとは、何らかの物体がウィンドシールドのガラスに部分的に比較的短時間映り込む状況であり、このような状況においては、時間的な輝度分散の変化が大きくなる。そして、この状況が起こりやすい外部環境としては、走行路近傍の物体として比較的車両近傍に背の高い物体として、例えば、電柱、建物および樹木などの物体が、それぞれ十分に離間して存在している状況や、空模様がまだらで雲が一様ではない状況などがある。そして、上記の時間的変化が大きい場合としては、例えば、車両が林の中の走行路を駆け抜ける場合などがある。
まず、図8のフローチャートと同様に、ステップS41〜S49を行う。
次いで、車両の外部環境を検出する(ステップS60)。ここで、外部環境の検出は、車両の外界を撮像するカメラにより検出したり、路車間通信などによる天気情報を取得することで検出するようにしても良い。
輝度分散演算領域内Bにウィンドシールドが存在する場合に、ウィンドシールドへの映りこみ可能性が高い外部環境か否かを判定する(ステップS61)。
映り込み可能性が高い外部環境である場合(ステップS60でYES)は、輝度分散演算領域内Bの輝度分散の時間的変化を検出する(ステップS50)。なお、上述したステップS60〜S61の処理が車両の窓への映り込みが起こりやすい外部環境であるか判定する判定手段に相当する。
そして、ステップS51によって輝度分散演算領域Bにおける輝度分散の時間的変化が閾値TH6よりも小さいと判定された場合(ステップS51でYES)、対象物は車両ではないと判定し(ステップS54)、輝度分散演算領域Bにおける輝度分散の時間的変化が閾値TH6以上と判定された場合(ステップS51でNO)、すなわち実際に輝度分散の時間的変化が大きいと判定された場合に、対象物は車両であると判定(ステップS53)する。
一方、ウィンドシールドへの映り込み可能性が高い外部環境ではない場合(ステップS61でNO)、例えば、走行路近傍に比較的背の高い物体が検出されなかったり、空模様として一様となる、快晴であったり、雲一面の曇りや雨などの天候が検出された場合には、実際に輝度分散演算領域Bにおける輝度分散の時間的変化が一様か否か判定を行う(ステップS52)。輝度分散演算領域Bにおける輝度分散の時間的変化が一様ではないと判定された場合(ステップS52でNO)、対象物は車両ではないと判定(ステップS54)し、輝度分散演算領域Bにおける輝度分散の時間的変化が一様であると判定された場合(ステップS52でYES)、対象物は車両であると判定(ステップS53)する。なお、輝度分散演算領域Bの時間的変化が一様であるか否かの判定は、上述した(9)式に基づいて判定する。
なお、ステップS50の時間的変化の検出をする際の判定時間ついては、第2対象物であるウィンドシールドと走行路近傍の物体あるいは空模様との距離などの相関に基づいて変更するようにしても良い。
したがって、上述した第2の実施の形態によれば、第2対象物であるウィンドシールドへの映りこみ可能性を外部環境に基づいて判定し、映り込み可能性が高い場合には輝度分散演算領域Bの輝度分散の時間的変化が大きくなると予測されるので、実際に輝度分散の時間的変化が閾値TH6以上か判定して閾値TH6以上である場合に対象物を車両と判定し、また、映りこみ可能性が低い場合には輝度分散演算領域Bの輝度分散の時間的変化が一様になると予測されるので、実際に輝度分散の時間的変化が一様か判定して一様である場合に対象物を車両と判定することができるため、輝度分散の時間的変化だけに基づいて対象物を車両か否か判定する場合よりも映りこみ可能性を判定する分だけ判定精度を向上することができる。
本発明の第1の実施の形態の車両周辺監視装置の構成を示すブロック図である。 車両における赤外線カメラやセンサ、ディスプレイ等の取り付け位置を示す図である。 第1の実施の形態の車両周辺監視装置の対象物検出・警報動作を示すフローチャートである。 赤外線カメラにより得られるグレースケール画像とその2値化画像を示す図である。 第1の実施の形態の警報判定処理動作を示すフローチャートである。 衝突が発生しやすい場合を示す図である。 車両前方の領域区分を示す図である。 第1の実施の形態の人工構造物判定処理動作を示すフローチャートである。 第1の実施の形態の探索領域の設定処理について示す図である。 第1の実施の形態のエッジ抽出の処理について示す図である。 第1の実施の形態の窓候補領域および輝度分散演算領域Bについて示す図である。 第2の実施の形態の人工構造物判定処理動作を示すフローチャートである。
符号の説明
1 画像処理ユニット
2R,2L 赤外線カメラ
3 ヨーレートセンサ
4 車速センサ
5 ブレーキセンサ
6 スピーカ
7 画像表示装置
10 自車両
S41〜S43 特徴部抽出手段
S44〜S46 第2対象物抽出手段
S50 赤外線量変化検出手段
S51,S52 赤外線量判定手段
S53 車両判定手段
S60〜S61 判定手段

Claims (4)

  1. 赤外線カメラによって捉えられた画像から車両の特徴部と思われる熱源を第1対象物として抽出する特徴部抽出手段と、
    該第1対象物の周囲の領域と、前記第1対象物との距離を比較して前記第1対象物との距離が所定範囲内の第2対象物を抽出する第2対象物抽出手段とを備え、
    前記第1対象物と前記第2対象物から発生される赤外線量とを比較することで、車両判別を行う車両周辺監視装置であって、
    前記第2対象物の赤外線量の時間的変化を検出する赤外線量変化検出手段と、
    該赤外線量変化検出手段により、前記第2対象物から発生される赤外線量の時間的変化が所定の赤外線量の条件を満たすか否かを判定する赤外線量判定手段と、前記第1対象物と前記第2対象物とを含む物体が車両であると判定する車両判定手段とを設けたことを特徴とする車両周辺監視装置。
  2. 車両の窓への映り込みが起こりやすい外部環境であるか判定する判定手段を備えることを特徴とする請求項1に記載の車両周辺監視装置。
  3. 前記外部環境は、空模様の状況であることを特徴とする請求項2に記載の車両周辺監視装置。
  4. 前記外部環境は、車両の走行路近傍の物体の状況であることを特徴とする請求項2に記載の車両周辺監視装置。
JP2008264128A 2008-10-10 2008-10-10 車両周辺監視装置 Expired - Fee Related JP4871941B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008264128A JP4871941B2 (ja) 2008-10-10 2008-10-10 車両周辺監視装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008264128A JP4871941B2 (ja) 2008-10-10 2008-10-10 車両周辺監視装置

Publications (2)

Publication Number Publication Date
JP2010093715A true JP2010093715A (ja) 2010-04-22
JP4871941B2 JP4871941B2 (ja) 2012-02-08

Family

ID=42255971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008264128A Expired - Fee Related JP4871941B2 (ja) 2008-10-10 2008-10-10 車両周辺監視装置

Country Status (1)

Country Link
JP (1) JP4871941B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348282A (ja) * 1999-06-03 2000-12-15 Mitsubishi Electric Corp 車両検出装置
JP2002312769A (ja) * 2001-04-16 2002-10-25 Matsushita Electric Ind Co Ltd 監視装置及びそのパラメータ設定方法
JP2003230134A (ja) * 2002-02-04 2003-08-15 Honda Motor Co Ltd ナイトビジョンシステム
JP2008113296A (ja) * 2006-10-31 2008-05-15 Honda Motor Co Ltd 車両周辺監視装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348282A (ja) * 1999-06-03 2000-12-15 Mitsubishi Electric Corp 車両検出装置
JP2002312769A (ja) * 2001-04-16 2002-10-25 Matsushita Electric Ind Co Ltd 監視装置及びそのパラメータ設定方法
JP2003230134A (ja) * 2002-02-04 2003-08-15 Honda Motor Co Ltd ナイトビジョンシステム
JP2008113296A (ja) * 2006-10-31 2008-05-15 Honda Motor Co Ltd 車両周辺監視装置

Also Published As

Publication number Publication date
JP4871941B2 (ja) 2012-02-08

Similar Documents

Publication Publication Date Title
US8175331B2 (en) Vehicle surroundings monitoring apparatus, method, and program
US7436982B2 (en) Vehicle surroundings monitoring apparatus
US8810653B2 (en) Vehicle surroundings monitoring apparatus
EP2958054B1 (en) Hazard detection in a scene with moving shadows
JP4203512B2 (ja) 車両周辺監視装置
JP3934119B2 (ja) 車両周辺監視装置
US6690011B2 (en) Infrared image-processing apparatus
JP4410292B1 (ja) 車両の周辺監視装置
US20130235202A1 (en) Vehicle periphery monitoring apparatus and method of determining type of object for use in vehicle periphery monitoring apparatus
US10565438B2 (en) Vehicle periphery monitor device
US10142595B2 (en) Driving assistance device and method of detecting vehicle adjacent thereto
EP2463843A2 (en) Method and system for forward collision warning
JP5480917B2 (ja) 車両周辺監視装置
JP2003216937A (ja) ナイトビジョンシステム
JP3839329B2 (ja) ナイトビジョンシステム
JP4864953B2 (ja) 車両周辺監視装置
JP3916930B2 (ja) 進入警報装置
JP3844750B2 (ja) 赤外線画像認識装置、及び赤外線画像認識装置を用いた警報装置
JP4567072B2 (ja) 車両周辺監視装置
JP3961269B2 (ja) 障害物警報装置
JP4871941B2 (ja) 車両周辺監視装置
JP3532896B2 (ja) スミア検出方法及びこのスミア検出方法を用いた画像処理装置
JP2004362265A (ja) 赤外線画像認識装置
JP2010092437A (ja) 車両の周辺監視装置
JP2004135034A (ja) 車両周辺監視装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110830

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111025

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111121

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141125

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees