JP3839329B2 - ナイトビジョンシステム - Google Patents
ナイトビジョンシステム Download PDFInfo
- Publication number
- JP3839329B2 JP3839329B2 JP2002027367A JP2002027367A JP3839329B2 JP 3839329 B2 JP3839329 B2 JP 3839329B2 JP 2002027367 A JP2002027367 A JP 2002027367A JP 2002027367 A JP2002027367 A JP 2002027367A JP 3839329 B2 JP3839329 B2 JP 3839329B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- binarized
- image
- obj
- vision system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
【発明の属する技術分野】
この発明は、赤外線カメラにより撮影された画像の2値化処理により、対象物抽出を行うナイトビジョンシステムに関する。
【0002】
【従来の技術】
従来、赤外線カメラにより捉えられた車両周辺の画像から、車両との衝突の可能性がある歩行者等の対象物を抽出し、その情報を車両の運転者に提供するナイトビジョンシステムが提案されている。このシステムでは、歩行者等の対象物における車両との衝突の可能性は、車両と対象物との相対距離や相対速度に基づいて判定される。
【0003】
また、例えばこのように赤外線カメラにより捉えられた車両周辺の画像から、車両との衝突の可能性がある歩行者等の対象物を抽出するナイトビジョンシステムには、特開平11−328364号公報に記載のものがある。同公報によると、この装置は赤外線画像を2値化処理して明部が集中している領域を探し、この領域の縦横比や充足率、更には実面積と画面上の重心位置を用いて距離を算出することで、この領域が歩行者の頭部であるか否かを判定する。そして、歩行者の頭部の領域を決定することができたら、決定した頭部領域のカメラからの距離と成人の平均身長とから、画像上の歩行者の身長を計算して歩行者の身体を包含する領域を設定し、これらの領域を他の領域と区分して表示する。これにより、赤外線画像上の歩行者の身体全体の位置を特定し、この情報を車両の運転者に対して表示することで、より効果的な視覚補助を行うことができる。
【0004】
【発明が解決しようとする課題】
しかし、赤外線画像上での歩行者は、着帽、着衣の影響や、歩行者自身の存在環境によって、2値化処理により頭部のみ、頭部の一部のみ、上半身のみ、下半身のみ、更には身体全体が抽出されるなど、その2値化形状は不定形である。また、一般的に車両走行時には、前方路面の形状の変化や、車両のピッチングの影響があり、歩行者も子供から大人(成人)まで本来とは異なる身長で検出される。
従って、対象物の画面での重心座標が距離に対して固定化できないため、上述の従来の装置のように、形状判定のみで歩行者の抽出を行った場合、車両のヘッドライト(H/L)やテールライト(T/L)は、その存在高さ位置や形状から、歩行者の頭部と区別して識別することが困難である場合が生じる可能性があった。
【0005】
本発明は、上記課題に鑑みてなされたもので、カメラにより撮影された画像から抽出される不定形な2値化対象物の位置や発せられる赤外線量により、安定した歩行者の抽出を妨げる車両を対象物から排除するナイトビジョンシステムを提供することを目的とする。
【0006】
【課題を解決するための手段】
上記課題を解決するために、請求項1の発明に係わるナイトビジョンシステムは、2つの赤外線カメラにより捉えられた画像を利用して、物体を認識するナイトビジョンシステムであって、前記画像のグレースケール画像を2値化処理することにより、前記グレースケール画像から、少なくとも1つの灯体と思われる第1の対象物を熱源として抽出する灯体抽出手段(例えば第1、第2の実施の形態のステップS1〜ステップS13、第1の実施の形態のS41〜S43、または第2の実施の形態のS61〜S63)と、前記第1の対象物の周囲の領域と、前記第1の対象物との距離を比較して、前記第1の対象物と同一距離の第2の対象物を抽出する同一距離対象物抽出手段(例えば第1の実施の形態のステップS44〜ステップS46、ステップS50〜ステップS52、または第2の実施の形態のステップS64〜ステップS66、ステップS70〜ステップS72)と、前記第2の対象物の位置及び該第2の対象物から発せられる赤外線量と、予め設定された車両構造物の位置及び該車両構造物から発せられる赤外線量との比較により、前記画像中の車両を認識する車両判別手段(例えば第1の実施の形態のステップS47〜ステップS48、ステップS53〜S54または第2の実施の形態のステップS67〜ステップS69、ステップS73〜ステップS76)とを備えたことを特徴とする。
【0007】
以上の構成を備えたナイトビジョンシステムは、まず灯体抽出手段により、例えば車両の灯体と思われる第1の対象物を認識する。次に、同一距離対象物抽出手段により、第1の対象物の周囲を探索して、第1の対象物と同一距離の第2の対象物を抽出する。そして、車両判別手段により、第1の対象物と第2の対象物との関係が、車両の特徴に当てはまるか否か、第2の対象物の位置及び該第2の対象物から発せられる赤外線量を判断することで、目的の第1及び第2の対象物を含む物体が車両か否かを判断することができる。
【0008】
請求項2の発明に係わるナイトビジョンシステムは、請求項1に記載のナイトビジョンシステムにおいて、前記車両判別手段が、前記第1の対象物と高さが同一で、かつ前記第1の対象物と同一の赤外線量を発する前記第2の対象物を、所定の距離以内に発見した場合に、前記第1及び第2の対象物を含む物体を車両と認識することを特徴とする。
以上の構成を備えたナイトビジョンシステムは、第1の対象物と第2の対象物とが、車両の幅の距離以内で対称に配置された灯体、すなわち、例えば第1の対象物に車両の一方の灯体が、また第2の対象物に車両のもう一方の灯体が捉えられた場合であると判断して、目的の第1及び第2の対象物を含む物体が車両であることを認識することができる。
【0009】
請求項3の発明に係わるナイトビジョンシステムは、請求項1に記載のナイトビジョンシステムにおいて、前記車両判別手段が、前記第1の対象物と高さが同一か、あるいは前記第1の対象物より高さが低く、かつ前記第1の対象物より高い赤外線量を発する前記第2の対象物を、所定の距離以内に発見した場合に、前記第1及び第2の対象物を含む物体を車両と認識することを特徴とする。
以上の構成を備えたナイトビジョンシステムは、第1の対象物と第2の対象物とが、車両の幅の距離以内で上下に配置された物体、すなわち、例えば第1の対象物に車両の灯体が、また第2の対象物に車両の排気管やフロントグリルのような高温の物体が捉えられた場合であると判断して、目的の第1及び第2の対象物を含む物体が車両であることを認識することができる。
【0010】
請求項4の発明に係わるナイトビジョンシステムは、請求項1に記載のナイトビジョンシステムにおいて、前記車両判別手段が、前記第1の対象物より高さが高く、かつ前記第1の対象物より低い赤外線量を発する前記第2の対象物を、所定の距離以内に発見した場合に、前記第1及び第2の対象物を含む物体を車両と認識することを特徴とする。
以上の構成を備えたナイトビジョンシステムは、第1の対象物と第2の対象物とが、車両の幅の距離以内で上下に配置された物体、すなわち、例えば第1の対象物に車両の灯体が、また第2の対象物に車両のウィンドシールドのような低温の物体が捉えられた場合であると判断して、目的の第1及び第2の対象物を含む物体が車両であることを認識することができる。
【0011】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について説明する。
(第1の実施の形態)
図1は、本発明の第1の実施の形態のナイトビジョンシステムの構成を示すブロック図である。
図1において、符号1は、本実施の形態のナイトビジョンシステムを制御するCPU(中央演算装置)を備えた画像処理ユニットであって、遠赤外線を検出可能な2つの赤外線カメラ2R、2Lと当該車両のヨーレートを検出するヨーレートセンサ3、更に、当該車両の走行速度(車速)を検出する車速センサ4とブレーキの操作を検出するためのブレーキセンサ5が接続される。これにより、画像処理ユニット1は、車両の周辺の赤外線画像と車両の走行状態を示す信号から、車両前方の歩行者や動物等の動く物体を検出し、衝突の可能性が高いと判断したときに警報を発する。
【0012】
また、画像処理ユニット1には、音声で警報を発するためのスピーカ6と、赤外線カメラ2R、2Lにより撮影された画像を表示し、衝突の危険性が高い対象物を車両の運転者に認識させるための、例えば自車両の走行状態を数字で表すメータと一体化されたメータ一体Displayや自車両のコンソールに設置されるNAVIDisplay、更にフロントウィンドウの運転者の前方視界を妨げない位置に情報を表示するHUD(Head Up Display )7a等を含む画像表示装置7が接続されている。
【0013】
また、画像処理ユニット1は、入力アナログ信号をディジタル信号に変換するA/D変換回路、ディジタル化した画像信号を記憶する画像メモリ、各種演算処理を行うCPU(中央演算装置)、CPUが演算途中のデータを記憶するために使用するRAM(Random Access Memory)、CPUが実行するプログラムやテーブル、マップなどを記憶するROM(Read Only Memory)、スピーカ6の駆動信号、HUD7a等の表示信号などを出力する出力回路を備えており、赤外線カメラ2R、2L及びヨーレートセンサ3、車速センサ4、ブレーキセンサ5の各出力信号は、ディジタル信号に変換されてCPUに入力されるように構成されている。
【0014】
また、図2に示すように、赤外線カメラ2R、2Lは、自車両10の前部に、自車両10の車幅方向中心部に対してほぼ対称な位置に配置されており、2つの赤外線カメラ2R、2Lの光軸が互いに平行であって、かつ両者の路面からの高さが等しくなるように固定されている。なお、赤外線カメラ2R、2Lは、対象物の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。
また、HUD7aは、自車両10のフロントウインドウの運転者の前方視界を妨げない位置に表示画面が表示されるように設けられている。
【0015】
次に、本実施の形態の動作について図面を参照して説明する。
図3は、本実施の形態のナイトビジョンシステムの画像処理ユニット1における歩行者等の対象物検出・警報動作を示すフローチャートである。
まず、画像処理ユニット1は、赤外線カメラ2R、2Lの出力信号である赤外線画像を取得して(ステップS1)、A/D変換し(ステップS2)、グレースケール画像を画像メモリに格納する(ステップS3)。なお、ここでは赤外線カメラ2Rにより右画像が得られ、赤外線カメラ2Lにより左画像が得られる。また、右画像と左画像では、同一の対象物の表示画面上の水平位置がずれて表示されるので、このずれ(視差)によりその対象物までの距離を算出することができる。
【0016】
ステップS3においてグレースケール画像が得られたら、次に、赤外線カメラ2Rにより得られた右画像を基準画像とし、その画像信号の2値化処理、すなわち、輝度閾値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う(ステップS4)。
図4(a)は、赤外線カメラ2Rにより得られたグレースケール画像を示し、これに2値化処理を行うことにより、図4(b)に示すような画像を得る。なお、図4(b)において、例えばP1からP4の枠で囲った物体を、表示画面上に白色として表示される対象物(以下「高輝度領域」という)とする。
赤外線画像から2値化された画像データを取得したら、2値化した画像データをランレングスデータに変換する処理を行う(ステップS5)。ランレングスデータにより表されるラインは、2値化により白となった領域を画素レベルで示したもので、いずれもy方向には1画素の幅を有しており、またx方向にはそれぞれランレングスデータを構成する画素の長さを有している。
【0017】
次に、ランレングスデータに変換された画像データから、対象物のラベリングをする(ステップS6)ことにより、対象物を抽出する処理を行う(ステップS7)。すなわち、ランレングスデータ化したラインのうち、y方向に重なる部分のあるラインを1つの対象物とみなすことにより、例えば図4(b)に示す高輝度領域が、それぞれ対象物(2値化対象物)1から4として把握されることになる。
対象物の抽出が完了したら、次に、抽出した対象物の重心G、面積S及び外接四角形の縦横比ASPECTを算出する(ステップS8)。
【0018】
ここで、面積Sは、ラベルAの対象物のランレングスデータを(x[i]、y[i]、run[i]、A)(i=0,1,2,・・・N−1)とすると、ランレングスデータの長さ(run[i]−1)を同一対象物(N個のランレングスデータ)について積算することにより算出する。また、対象物Aの重心Gの座標(xc、yc)は、各ランレングスデータの長さ(run[i]−1)と各ランレングスデータの座標x[i]、またはy[i]とをそれぞれ掛け合わせ、更にこれを同一対象物について積算したものを、面積Sで割ることにより算出する。
更に、縦横比ASPECTは、対象物の外接四角形の縦方向の長さDyと横方向の長さDxとの比Dy/Dxとして算出する。
なお、ランレングスデータは画素数(座標数)(=run[i])で示されているので、実際の長さは「−1」する必要がある(=run[i]−1)。また、重心Gの位置は、外接四角形の重心位置で代用してもよい。
【0019】
対象物の重心、面積、外接四角形の縦横比が算出できたら、次に、対象物の時刻間追跡、すなわちサンプリング周期毎の同一対象物の認識を行う(ステップS9)。時刻間追跡は、アナログ量としての時刻tをサンプリング周期で離散化した時刻をkとし、例えば時刻kで対象物A、Bを抽出したら、時刻(k+1)で抽出した対象物C、Dと対象物A、Bとの同一性判定を行う。そして、対象物A、Bと対象物C、Dとが同一であると判定されたら、対象物C、Dをそれぞれ対象物A、Bというラベルに変更することにより、時刻間追跡が行われる。
また、このようにして認識された各対象物の(重心の)位置座標は、時系列位置データとしてメモリに格納され、後の演算処理に使用される。
【0020】
なお、以上説明したステップS4〜S9の処理は、2値化した基準画像(本実施の形態では、右画像)について実行する。
次に、車速センサ4により検出される車速VCAR及びヨーレートセンサ3より検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することより、自車両10の回頭角θrを算出する(ステップS10)。
【0021】
一方、ステップS9とステップS10の処理に平行して、ステップS11〜S13では、対象物と自車両10との距離zを算出する処理を行う。この演算はステップS9、及びステップS10より長い時間を要するため、ステップS9、S11より長い周期(例えばステップS1〜S10の実行周期の3倍程度の周期)で実行される。
まず、基準画像(右画像)の2値化画像によって追跡される対象物の中の1つを選択することにより、右画像から探索画像R1(ここでは、外接四角形で囲まれる領域全体を探索画像とする)を抽出する(ステップS11)。
【0022】
次に、左画像中から探索画像R1に対応する画像(以下「対応画像」という)を探索する探索領域を設定し、相関演算を実行して対応画像を抽出する(ステップS12)。具体的には、探索画像R1の各頂点座標に応じて、左画像中に探索領域R2を設定し、探索領域R2内で探索画像R1との相関の高さを示す輝度差分総和値C(a,b)を算出し、この総和値C(a,b)が最小となる領域を対応画像として抽出する。なお、この相関演算は、2値化画像ではなくグレースケール画像を用いて行う。
また同一対象物についての過去の位置データがあるときは、その位置データに基づいて探索領域R2より狭い領域R2aを探索領域として設定する。
【0023】
ステップS12の処理により、基準画像(右画像)中に探索画像R1と、左画像中にこの対象物に対応する対応画像R4とが抽出されるので、次に、探索画像R1の重心位置と対応画像R4の重心位置と視差Δd(画素数)を求め、これから自車両10と対象物との距離zを算出する(ステップS13)。距離zを求める式は後述する。
次に、ステップS10における回頭角θrの算出と、ステップS13における対象物との距離算出が完了したら、画像内の座標(x,y)及び距離zを実空間座標(X,Y,Z)に変換する(ステップS14)。
ここで、実空間座標(X,Y,Z)は、図2に示すように、赤外線カメラ2R、2Lの取り付け位置の中点の位置(自車両10に固定された位置)を原点Oとして、図示のように定め、画像内の座標は、画像の中心を原点として水平方向をx、垂直方向をyと定めている。
【0024】
また、実空間座標が求められたら、自車両10が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う(ステップS15)。回頭角補正は、時刻kから(k+1)までの期間中に自車両10が例えば左方向に回頭角θrだけ回頭すると、カメラによって得られる画像上では、画像の範囲がΔxだけx方向にずれるので、これを補正する処理である。
なお、以下の説明では、回頭角補正後の座標を(X,Y,Z)と表示する。
【0025】
実空間座標に対する回頭角補正が完了したら、次に、同一対象物について、ΔTのモニタ期間内に得られた、回頭角補正後のN個(例えばN=10程度)の実空間位置データ、すなわち時系列データから、対象物と自車両10との相対移動ベクトルに対応する近似直線LMVを求める(ステップS16)。
次いで、最新の位置座標P(0)=(X(0),Y(0),Z(0))と、(N−1)サンプル前(時間ΔT前)の位置座標P(Nー1)=(X(N−1),Y(N−1),Z(N−1))を近似直線LMV上の位置に補正し、補正後の位置座標Pv(0)=(Xv(0),Yv(0),Zv(0))及びPv(N−1)=(Xv(N−1),Yv(N−1),Zv(N−1))を求める。
【0026】
これにより、位置座標Pv(N−1)からPv(0)に向かうベクトルとして、相対移動ベクトルが得られる。
このようにモニタ期間ΔT内の複数(N個)のデータから対象物の自車両10に対する相対移動軌跡を近似する近似直線を算出して相対移動ベクトルを求めることにより、位置検出誤差の影響を軽減して対象物との衝突の可能性をより正確に予測することが可能となる。
【0027】
また、ステップS16において、相対移動ベクトルが求められたら、次に、検出した対象物との衝突の可能性を判定する警報判定処理を行う(ステップS17)。なお、警報判定処理については、詳細を後述する。
ステップS17において、自車両10と検出した対象物との衝突の可能性がないと判定された場合(ステップS17のNO)、ステップS1へ戻り、上述の処理を繰り返す。
また、ステップS17において、自車両10と検出した対象物との衝突の可能性があると判定された場合(ステップS17のYES)、ステップS18の警報出力判定処理へ進む。
【0028】
ステップS18では、ブレーキセンサ5の出力BRから自車両10の運転者がブレーキ操作を行っているか否かを判別することにより、警報出力判定処理、すなわち警報出力を行うか否かの判定を行う(ステップS18)。
もし、自車両10の運転者がブレーキ操作を行っている場合には、それによって発生する加速度Gs(減速方向を正とする)を算出し、この加速度Gsが所定閾値GTHより大きいときは、ブレーキ操作により衝突が回避されると判定して警報出力判定処理を終了し(ステップS18のNO)、ステップS1へ戻り、上述の処理を繰り返す。
これにより、適切なブレーキ操作が行われているときは、警報を発しないようにして、運転者に余計な煩わしさを与えないようにすることができる。
【0029】
また、加速度Gsが所定閾値GTH以下であるとき、または自車両10の運転者がブレーキ操作を行っていなければ、直ちにステップS19の処理へ進み(ステップS18のYES)、対象物と接触する可能性が高いので、スピーカ3を介して音声による警報を発する(ステップS19)とともに、画像表示装置7に対して、例えば赤外線カメラ2Rにより得られる画像を出力し、接近してくる対象物を自車両10の運転者に対する強調映像として表示する(ステップS20)。
【0030】
なお、所定閾値GTHは、ブレーキ操作中の加速度Gsがそのまま維持された場合に、対象物と自車両10との距離Zv(0)以下の走行距離で自車両10が停止する条件に対応する値である。
【0031】
以上が、本実施の形態のナイトビジョンシステムの画像処理ユニット1における対象物検出・警報動作であるが、次に、図5に示すフローチャートを参照して、図3に示したフローチャートのステップS17における警報判定処理について更に詳しく説明する。
図5は、本実施の形態の警報判定処理動作を示すフローチャートである。
警報判定処理は、以下に示す衝突判定処理、接近判定領域内か否かの判定処理、進入衝突判定処理、歩行者判定処理、及び人工構造物判定処理により、自車両10と検出した対象物との衝突の可能性を判定する処理である。以下、図6に示すように、自車両10の進行方向に対してほぼ90°の方向から、速度Vpで進行してくる対象物20がいる場合を例に取って説明する。
【0032】
図5において、まず、画像処理ユニット1は衝突判定処理を行う(ステップS31)。衝突判定処理は、図6において、対象物20が時間ΔTの間に距離Zv(N−1)から距離Zv(0)に接近した場合に、自車両10とのZ方向の相対速度Vsを求め、両者が高さH以内で相対速度Vsを維持して移動すると仮定して、余裕時間T以内に両者が衝突するか否かを判定する処理である。ここで、余裕時間Tは、衝突の可能性を予測衝突時刻より時間Tだけ前に判定することを意図したものである。従って、余裕時間Tは例えば2〜5秒程度に設定される。またHは、高さ方向の範囲を規定する所定高さであり、例えば自車両10の車高の2倍程度に設定される。
【0033】
次に、ステップS31において、余裕時間T以内に自車両10と対象物とが衝突する可能性がある場合(ステップS31のYES)、更に判定の信頼性を上げるために、画像処理ユニット1は対象物が接近判定領域内に存在するか否かの判定処理を行う(ステップS32)。接近判定領域内か否かの判定処理は、図7に示すように、赤外線カメラ2R、2Lで監視可能な領域を太い実線で示す外側の三角形の領域AR0とすると、領域AR0内の、Z1=Vs×Tより自車両10に近い領域であって、対象物が自車両10の車幅αの両側に余裕β(例えば50〜100cm程度とする)を加えた範囲に対応する領域AR1、すなわち対象物がそのまま存在し続ければ自車両10との衝突の可能性がきわめて高い接近判定領域AR1内に存在するか否かを判定する処理である。なお、接近判定領域AR1も所定高さHを有する。
【0034】
更に、ステップS32において、対象物が接近判定領域内に存在しない場合(ステップS32のNO)、画像処理ユニット1は対象物が接近判定領域内へ進入して自車両10と衝突する可能性があるか否かを判定する進入衝突判定処理を行う(ステップS33)。進入衝突判定処理は、上述の接近判定領域AR1よりX座標の絶対値が大きい(接近判定領域の横方向外側の)領域AR2、AR3を進入判定領域と呼び、この領域内にある対象物が、移動することにより接近判定領域AR1に進入すると共に自車両10と衝突するか否かを判定する処理である。なお、進入判定領域AR2、AR3も所定高さHを有する。
【0035】
一方、ステップS32において、対象物が接近判定領域内に存在している場合(ステップS32のYES)、画像処理ユニット1は対象物が歩行者の可能性があるか否かを判定する歩行者判定処理を行う(ステップS34)。歩行者判定処理は、グレースケール画像上で対象物画像の形状や大きさ、輝度分散等の特徴から、対象物が歩行者か否かを判定する処理である。
また、ステップS34において、対象物は歩行者の可能性があると判定された場合(ステップS34のYES)、更に判定の信頼性を上げるために、対象物が人工構造物であるか否かを判定する人工構造物判定処理を行う(ステップS35)。人工構造物判定処理は、グレースケール画像上で、例えば車両のような対象物を人工構造物と判定し、警報の対象から除外する処理である。なお、人工構造物判定処理については、詳細を後述する。
【0036】
従って、上述のステップS33において、対象物が接近判定領域内へ進入して自車両10と衝突する可能性がある場合(ステップS33のYES)、及びステップS35において、歩行者の可能性があると判定された対象物が人工構造物でなかった場合(ステップS35のNO)、画像処理ユニット1は、自車両10と検出した対象物との衝突の可能性がある(警報の対象である)と判定し(ステップS36)、図3に示すステップS17のYESとしてステップS18へ進み、警報出力判定処理(ステップS18)を行う。
【0037】
一方、上述のステップS31において、余裕時間T以内に自車両10と対象物とが衝突する可能性がない場合(ステップS31のNO)、あるいはステップS33において、対象物が接近判定領域内へ進入して自車両10と衝突する可能性がない場合(ステップS33のNO)、あるいはステップS34において、対象物は歩行者の可能性がないと判定された場合(ステップS34のNO)、更にはステップS35において、歩行者の可能性があると判定された対象物が人工構造物であった場合(ステップS35のYES)のいずれかであった場合は、画像処理ユニット1は、自車両10と検出した対象物との衝突の可能性がない(警報の対象ではない)と判定し(ステップS37)、図3に示すステップS17のNOとしてステップS1へ戻り、歩行者等の対象物検出・警報動作を繰り返す。
【0038】
次に、図8に示すフローチャートを参照して、図5に示したフローチャートのステップS35における人工構造物判定処理について更に詳しく説明する。図8は、本実施の形態の人工構造物判定処理動作を示すフローチャートである。
図8において、まず、画像処理ユニット1は、図3に示したフローチャートのステップS8において算出された2値化対象物の重心G(xc、yc)、面積S、更に対象物の外接四角形の縦横比ASPECT、及びステップS13において算出された自車両10と対象物との距離zに加えて、2値化対象物の外接四角形の高さhbと幅wb、及び外接四角形重心座標(xb、yb)の値を利用して、実空間での2値化対象物の形状の特徴を示す2値化対象物形状特徴量を算出する(ステップS41)。なお、求める2値化対象物形状特徴量は、カメラの基線長D[m]、カメラ焦点距離f[m]、画素ピッチp[m/pixel]、及び左右映像の相関演算によって算出される視差Δd[pixel]を用いて算出する。
【0039】
具体的には、自車両10と対象物との距離zは、
z=(f×D)/(Δd×p) ・・・(1)
と表されるので、
実空間における2値化対象物の幅ΔWbや高さΔHbは、
ΔWb=wb×z×p/f
ΔHb=hb×z×p/f ・・・(2)
2値化対象物の上端位置座標(Xt,Yt,Zt)は、
Xt=xb×z×p/f
Yt=yb×z×p/f−ΔHb/2
Zt=z ・・・(3)
で算出することができる。
【0040】
次に、図3に示したフローチャートのステップS7において抽出された2値化対象物の中に、ステップS41において取得された2値化対象物中で、対称な位置に存在する2値化対象物を探索する(ステップS42)。具体的には、図9に示すようなOBJ[I](IはOBJを区別するための番号)の中で、以下の(4)〜(6)式に示す条件を満たす2値化対象物を、対称な位置に存在する2値化対象物OBJ[X]、OBJ[Y]と判定する。
【0041】
条件1:(4)式を満たして距離の差分が規定値TH1より小さく、同一距離とみなせる2値化対象物。
|Zt[X]−Zt[Y]|<TH1 ・・・(4)
条件2:(5)式を満たして上端高さ位置の差分が規定値TH2より小さく、同一高さに存在するとみなせる2値化対象物。
|Yt[X]−Yt[Y]|<TH2 ・・・(5)
条件3:(6)式を満たして左右のエッジ間(左側に位置する2値化対象物の左エッジと右側に位置する2値化対象物の右エッジとの間)の最大幅が、規定の車両の幅TH3[m]より大きくTH4[m]より小さい2値化対象物。
TH3<|(Xt[X]+ΔWb[X]/2)−(Xt[Y]−ΔWb[Y]/2)|<TH4 ・・・(6)
但し、Zt[X]、Zt[Y]は、それぞれOBJ[X]、OBJ[Y]の距離を示し、Yt[X]、Yt[Y]は、それぞれOBJ[X]、OBJ[Y]の上端高さ位置を示す。また、(6)式はOBJ(X)がOBJ(Y)の右側に存在する場合を示す。
【0042】
そして、対称な位置に存在する2つの2値化対象物の有無を判定し(ステップS43)、(4)〜(6)式に示す条件を満たして対称な位置に存在する2つの2値化対象物があった場合(ステップS43のYES)、該2つの2値化対象物の間の上部に探索領域MASK1を設定する(ステップS44)。
。
ここで、例えば(4)〜(6)式に示す条件を満たして対称な位置に存在する2値化対象物OBJ[1]とOBJ[2]とが車両のライト(ヘッドライトやテールライト等の車両灯体)であれば、上部にはウィンドウシールドが存在するため、探索領域MASK1の距離は、ライトと同一距離とみなせる(近傍の距離を示す)。また、上述の2値化対象物が歩行者であれば、頭部の上端は空間であるため、探索領域MASK1の距離は不定となる。
【0043】
そこで、探索領域MASK1の距離MASK1_Zを相関演算により算出し(ステップS45)、(7)式を満たして対称な位置に存在する2値化対象物OBJ[X]、OBJ[Y]のいずれか一方(本実施の形態ではOBJ[X]、また図9ではX=1とする)と探索領域MASK1との距離の差分が規定値TH5より小さく、探索領域MASK1に捉えられた物体が2値化対象物と同一距離であるか否かを判定する(ステップS46)。
|MASK1_Z−Zt[X]|<TH5 ・・・(7)
但し、規定値TH5は、ヘッドライトやテールライトとウィンドウシールドまでの距離、及び視差精度を考慮した値とする。
【0044】
また、探索領域MASK1がウィンドシールドである場合、通常ガラスは赤外線を反射するので、探索領域MASK1の平均輝度値Aveは低い傾向を示す。従って、ステップS46において、探索領域MASK1に捉えられた物体が2値化対象物と同一距離であった場合(ステップS46のYES)、(8)式を満たして探索領域MASK1の平均輝度値Aveが規定値TH6より小さいか否かを判定する(ステップS47)。
Ave<TH6 ・・・(8)
そして、探索領域MASK1の平均輝度値Aveが規定値TH6より小さかった場合(ステップS47のYES)、捉えられた2値化対象物は車両100であると判定して(ステップS48)人工構造物判定処理を終了し、図5に示すステップS35のYESとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
【0045】
一方、ステップS43において、(4)〜(6)式に示す条件を満たして対称な位置に存在する2つの2値化対象物がなかった場合(ステップS43のNO)、またはステップS46において、探索領域MASK1に捉えられた物体が2値化対象物と同一距離でなかった場合(ステップS46のNO)、またはステップS47において、探索領域MASK1の平均輝度値Aveが規定値TH6以上であった場合(ステップS47のNO)のいずれかであった場合は、1つの2値化対象物の上部に探索領域MASK2を設定する(ステップS50)。
【0046】
ここで、探索領域MASK2の上下方向の位置は、図10に示すように、その下端位置が2値化対象物の上端位置のU[m]上部になるように設定する。また、探索領域MASK2の横方向の位置は、図10に示すように、探索領域MASK2の横重心位置が2値化対象物の横重心位置と一致するように設定する。
更に、探索領域MASK2の大きさは、実空間で横W[m]×縦H[m]の大きさとする。但し、画面上での探索領域MASK2の大きさは、(9)式として示す各式により求めるものとする。
Up=(f×U)/(z×p)
Wp=(f×W)/(z×p)
Hp=(f×H)/(z×p) ・・・(9)
【0047】
次に、探索領域MASK2の距離MASK2_Zを相関演算により算出し(ステップS51)、(10)式を満たして検出された2値化対象物OBJ[I]のいずれか(IはOBJを区別するための番号、また図10ではI=1とする)と、探索領域MASK2との距離の差分が規定値TH7より小さく、探索領域MASK2に捉えられた物体が2値化対象物と同一距離であるか否かを判定する(ステップS52)。
|MASK2_Z−Zt[I]|<TH7 ・・・(10)
但し、規定値TH7も、規定値TH5と同様にヘッドライトやテールライトとウィンドウシールドまでの距離、及び視差精度を考慮した値とする。
【0048】
また、探索領域MASK2にウィンドシールドが含まれている場合、通常ガラスは赤外線を反射するので、例えば図10に示すように、探索領域MASK2の内部に設定された領域A及び領域Bの平均輝度値Ave_AまたはAve_Bのうちのいずれかは低い傾向を示す。ここで、領域A及び領域Bの高さは、探索領域MASK2と等しく、また横方向の位置は、領域Aの左エッジが探索領域MASK2の左エッジに、領域Bの右エッジが探索領域MASK2の右エッジに接する位置とする。
【0049】
従って、ステップS52において、探索領域MASK2に捉えられた物体が2値化対象物と同一距離であった場合(ステップS52のYES)、(11)式を満たして探索領域MASK2内の領域Aの平均輝度値Ave_Aが規定値TH8より小さいか否か、または(12)式を満たして探索領域MASK2内の領域Bの平均輝度値Ave_Bが規定値TH8より小さいか否かを判定する(ステップS53)。
Ave_A<TH8 ・・・(11)
Ave_B<TH8 ・・・(12)
【0050】
また、ステップS52において、探索領域MASK2に捉えられた物体が2値化対象物と同一距離でなかった場合(ステップS52のNO)、またはステップS53において、探索領域MASK2内の領域Aの平均輝度値Ave_Aと探索領域MASK2内の領域Bの平均輝度値Ave_Bとが両方とも規定値TH8以上であった場合(ステップS53のNO)、捉えられた2値化対象物は車両ではないと判定して(ステップS54)人工構造物判定処理を終了し、図5に示すステップS35のNOとして図5のステップS38へ進み、対象物は警報対象であると判定する。
【0051】
なお、上述のステップS43において、(4)〜(6)式に示す条件を満たして対称な位置に存在する2つの2値化対象物があった場合(ステップS43のYES)、ステップS47において探索領域MASK1にウィンドシールドが含まれているか否かを判定せずに、対称な2値化対象物を含む物体を車両と認識しても良い。
また、2値化対象物から削除したい車両の形状に合わせて、探索領域の大きさや位置を任意に調整できるようにしても良い。
更に、図9に示すOBJ[4]、OBJ[5]の位置に、連続走行時間の少ないタイヤ等の平均輝度値の低い物体を探索するようにしても良い。
【0052】
なお、本実施の形態では、画像処理ユニット1が、灯体抽出手段と、同一距離対象物抽出手段と、車両判別手段とを含んでいる。より具体的には、図3のS1〜S13、及び図8のS41〜S43が灯体抽出手段に相当し、図8のS44〜S46、S50〜S52が同一距離対象物抽出手段に相当する。また、図8のS47〜S48、S53〜S54が車両判別手段に相当する。
【0053】
以上説明したように、本実施の形態のナイトビジョンシステムは、赤外線カメラにより撮影された画像のグレースケール画像から、2値化処理により2値化対象物を抽出する。そして、取得された2値化対象物中に、対称な位置に存在する2値化対象物が存在する場合、対称な位置に存在する2つの2値化対象物の間の上部に、ウィンドウシールドの存在を確認し、ウィンドシールドが存在する場合は2値化対象物を含めて、この物体は車両100であると認識する。また、取得された2値化対象物中に、対称な位置に存在する2値化対象物が存在しない場合も、1つの2値化対象物の左右どちらかの上部に、ウィンドウシールドの存在を確認し、ウィンドシールドが存在する場合は2値化対象物を含めて、この物体は車両100であると認識する。
【0054】
これにより、車両構造物における熱を発する物体と熱を発しない物体との組み合わせを用いて、比較的簡単な手順で、赤外線カメラで捉えられた対象物から歩行者とは明らかに異なる特徴を持つ車両を予め除外し、歩行者認識の精度を向上させることができるという効果が得られる。
【0055】
(第2の実施の形態)
次に、図面を参照して本発明の第2の実施の形態について説明する。
本発明の第2の実施の形態のナイトビジョンシステムが、第1の実施の形態のナイトビジョンシステムと比較して異なる部分は、第1の実施の形態で図8のフローチャートを用いて説明したナイトビジョンシステムの画像処理ユニット1における人工構造物判定処理動作が、図11及び図12にフローチャートを示す人工構造物判定処理動作に変更されることである。
なお、第2の実施の形態のナイトビジョンシステムの構成や、人工構造物判定処理動作以外の動作については、第1の実施の形態のナイトビジョンシステムと同一であるので、ここでは説明を省略する。
【0056】
次に、図11及び図12のフローチャートを用いて、第2の実施の形態のナイトビジョンシステムの画像処理ユニット1における人工構造物判定処理動作を具体的に説明する。
第2の実施の形態の人工構造物判定処理動作では、第1の実施の形態の人工構造物判定処理動作と同様に、ステップS61からステップS63に示す処理を行う。
すなわち、まず画像処理ユニット1は、図3に示したフローチャートのステップS8において算出された2値化対象物の重心G(xc、yc)、面積S、更に対象物の外接四角形の縦横比ASPECT、及びステップS13において算出された自車両10と対象物との距離zに加えて、2値化対象物の外接四角形の高さhbと幅wb、及び外接四角形重心座標(xb、yb)の値を利用して、実空間での2値化対象物の形状の特徴を示す2値化対象物形状特徴量を算出する(ステップS61)。
【0057】
次に、図3に示したフローチャートのステップS7において抽出された2値化対象物の中に、ステップS61において取得された2値化対象物中で、対称な位置に存在する2値化対象物を探索する(ステップS62)。具体的には、図13に示すようなOBJ[I](IはOBJを区別するための番号)の中で、第1の実施の形態において示した(4)〜(6)式に示す条件を満たして2値化対象物を、対称な位置に存在する2値化対象物OBJ[X]、OBJ[Y]と判定する。
【0058】
そして、対称な位置に存在する2つの2値化対象物の有無を判定し(ステップS63)、第1の実施の形態において示した(4)〜(6)式に示す条件を満たして対称な位置に存在する2つの2値化対象物があった場合(ステップS63のYES)、該2つの2値化対象物の間の同一の高さ部分、または該2つの2値化対象物の間でかつ下部にある2値化対象物と同一距離の物体OBJ[Z]を取得する(ステップS64)。
ここで、図13において、例えば第1の実施の形態において示した(4)〜(6)式に示す条件を満たして対称な位置に存在する2値化対象物OBJ[1]とOBJ[2]とが車両のライト(ヘッドライトやテールライト等の車両灯体)であれば、2値化対象物OBJ[1]とOBJ[2]との間の同一の高さ部分、またはその下部には、図13でOBJ[3]として示す位置にフロントグリルや排気管が存在するはずである。
【0059】
そこで、(13)式を満たして対称な位置に存在する2値化対象物OBJ[X]、OBJ[Y]のいずれか一方(本実施の形態ではOBJ[X]、また図13ではX=1とする)との距離の差分が規定値TH9より小さく、2値化対象物と同一距離である物体OBJ[Z]が存在するか否かを判定する(ステップS66)。
|Zt[Z]−Zt[X]|<TH9 ・・・(13)
但し、規定値TH9は、ヘッドライトやテールライトとフロントグリルや排気管までの距離、及び視差精度を考慮した値とする。
【0060】
また、物体OBJ[Z]にフロントグリルや排気管が含まれている場合、車両のエンジンにおいて発生した熱や排気の熱により、物体OBJ[Z]の重心輝度値は高い傾向を示す。
従って、ステップS66において、2値化対象物と同一距離である物体OBJ[Z]が存在した場合(ステップS66のYES)、(14)式を満たして物体OBJ[Z]の重心輝度値が規定値TH10より大きいか否かを判定する(ステップS67)。
Ave’>TH10 ・・・(14)
そして、物体OBJ[Z]の重心輝度値が規定値TH10より大きかった場合(ステップS67のYES)、捉えられた2値化対象物は車両100であると判定して(ステップS68)人工構造物判定処理を終了し、図5に示すステップS35のYESとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
【0061】
また、ステップS66において、2値化対象物と同一距離である物体OBJ[Z]が存在しなかった場合(ステップS66のNO)、またはステップS67において、物体OBJ[Z]の重心輝度値が規定値TH10以下であった場合(ステップS67のNO)、捉えられた2値化対象物は車両ではないと判定して(ステップS69)人工構造物判定処理を終了し、図5に示すステップS35のNOとして図5のステップS38へ進み、対象物は警報対象であると判定する。
【0062】
一方、ステップS63において、第1の実施の形態において示した(4)〜(6)式に示す条件を満たして対称な位置に存在する2つの2値化対象物がなかった場合(ステップS63のNO)、1つの2値化対象物と比較する2値化対象物と同一距離の物体OBJ[J]を取得する(ステップS70)。
ここで、例えば1つの2値化対象物OBJ[1]が車両のライト(ヘッドライトやテールライト等の車両灯体)であれば、2値化対象物OBJ[1]の同一の高さ部分または下部には、図13でOBJ[3]として示す位置にフロントグリルや排気管が存在するはずである。
【0063】
そこで、(15)式を満たして検出されたいずれかの2値化対象物OBJ[I]との距離の差分が規定値TH15より小さく、2値化対象物OBJ[I]と同一距離である物体OBJ[J]が存在するか否かを判定する(ステップS72)。
|Zt[J]−Zt[I]|<TH15 ・・・(15)
但し、規定値TH15も、規定値TH9と同様にヘッドライトやテールライトとフロントグリルや排気管までの距離、及び視差精度を考慮した値とする。
【0064】
次に、ステップS72において、2値化対象物OBJ[I]と同一距離である物体OBJ[J]が存在した場合(ステップS72のYES)、(16)式を満たして物体OBJ[J]の高さ位置は2値化対象物OBJ[I]の高さ位置以下か否かを判定する(ステップS73)。
Yt[J]≦Yt[I] ・・・(16)
また、ステップS73において、物体OBJ[J]の高さ位置が2値化対象物OBJ[I]の高さ位置以下であった場合(ステップS73のYES)、(17)式を満たして物体OBJ[J]の重心輝度値が規定値TH16より大きく高輝度であるか否かを判定する(ステップS74)。
OBJ[J]の重心輝度値>TH16 ・・・(16)
【0065】
また、ステップS74において、物体OBJ[J]の重心輝度値が規定値TH16より大きく高輝度であった場合(ステップS74のYES)、(17)式を満たして物体OBJ[J]の幅ΔWb[J]が規定値TH17より大きく、車両構造物として適当か否かを判定する(ステップS75)。
ΔWb[J]>TH17 ・・・(17)
更に、ステップS75において、物体OBJ[J]の幅ΔWb[J]が、規定値TH17より大きく、車両構造物として適当であった場合(ステップS75のYES)、(18)式を満たして2値化対象物OBJ[I]と物体OBJ[J]の左右のエッジ間(左側に位置するものの左エッジと右側に位置するものの右エッジとの間)の最大幅が規定の車両の幅TH18[m]より大きくTH19[m]より小さいか否かを判定する(ステップS76)。
TH17<|(Xt[I]+ΔWb[I]/2) −(Xt[J]−ΔWb[J]/2)|<TH18 ・・・(18)
なお、(18)式も(6)式と同様に、OBJ(X)がOBJ(Y)の右側に存在する場合を示す。
【0066】
ステップS76において、2値化対象物OBJ[I]と物体OBJ[J]の左右のエッジ間の最大幅が、規定の車両の幅TH18[m]より大きくTH19[m]より小さいかった場合(ステップS76のYES)、2値化対象物OBJ[I]と物体OBJ[J]を含む対象物は車両100であると判定して(ステップS68)人工構造物判定処理を終了し、図5に示すステップS35のYESとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
【0067】
一方、ステップS72において、2値化対象物OBJ[I]と同一距離である物体OBJ[J]が存在しなかった場合(ステップS72のNO)、またはステップS73において、物体OBJ[J]の高さ位置が2値化対象物OBJ[I]の高さより大きかった場合(ステップS73のNO)、またはステップS74において、物体OBJ[J]の重心輝度値が規定値TH16以下で高輝度でなかった場合(ステップS74のNO)のいずれかの場合、2値化対象物OBJ[I]と物体OBJ[J]を含む対象物は車両ではないと判定して(ステップS69)人工構造物判定処理を終了し、図5に示すステップS35のNOとして図5のステップS38へ進み、対象物は警報対象であると判定する。
【0068】
同様に、ステップS75において、物体OBJ[J]の幅ΔWb[J]が、規定値TH17以下で、車両構造物として適当でなかった場合(ステップS75のNO)、またはステップS76において、2値化対象物OBJ[I]と物体OBJ[J]の左右のエッジ間の最大幅が、規定の車両の幅TH18[m]以下か、またはTH19[m]以上であった場合(ステップS76のNO)のいずれかの場合、2値化対象物OBJ[I]と物体OBJ[J]を含む対象物は車両ではないと判定して(ステップS69)人工構造物判定処理を終了し、図5に示すステップS35のNOとして図5のステップS38へ進み、対象物は警報対象であると判定する。
【0069】
なお、上述のステップS73において、逆に2値化対象物OBJ[I]の高さ位置以上の高さ位置を持つ物体OBJ[J]を抽出するようにし、例えばタクシー車両のルーフに取り付けられた表示灯のような熱を発する物体と車両のライト(ヘッドライトやテールライト等の車両灯体)との組み合わせにより車両を認識するようにしても良い。
また、上述のステップS63において、第1の実施の形態において示した(4)〜(6)式に示す条件を満たして対称な位置に存在する2つの2値化対象物があった場合(ステップS43のYES)、ステップS67において対称な位置に存在する2つの2値化対象物の間にフロントグリルや排気管が存在するか否かを判定せずに、対称な2値化対象物を含む物体を車両と認識しても良い。
また、2値化対象物から削除したい車両の形状に合わせて、判定する2つの対象物の大きさや位置関係を任意に調整できるようにしても良い。
更に、図13に示すOBJ[4]、OBJ[5]の位置に、連続走行時間の多いタイヤ等の平均輝度値の高い物体を探索するようにしても良い。
【0070】
なお、本実施の形態では、第1の実施の形態と同様に、画像処理ユニット1が、灯体抽出手段と、同一距離対象物抽出手段と、車両判別手段とを含んでいる。より具体的には、図3のS1〜S13、及び図11のS61〜S63が灯体抽出手段に相当し、図11のS64〜S66、S70〜S72が同一距離対象物抽出手段に相当する。また、図12のS67〜S69、S73〜76が車両判別手段に相当する。
【0071】
以上説明したように、本実施の形態のナイトビジョンシステムは、赤外線カメラにより撮影された画像のグレースケール画像から、2値化処理により2値化対象物を抽出する。そして、取得された2値化対象物中に、対称な位置に存在する2値化対象物が存在する場合、対称な位置に存在する2つの2値化対象物の間の同一の高さ部分、またはその下部に、赤外線を発するフロントグリルや排気管の存在を確認し、フロントグリルや排気管が存在する場合は2値化対象物を含めて、この物体は車両であると認識する。また、取得された2値化対象物中に、対称な位置に存在する2値化対象物が存在しない場合も、1つの2値化対象物の左右どちらかの同一の高さ部分、またはその下部に、赤外線を発するフロントグリルや排気管の存在を確認し、フロントグリルや排気管が存在する場合は2値化対象物を含めて、この物体は車両であると認識する。
【0072】
これにより、車両構造物における熱を発する物体同士の組み合わせを用いて、比較的簡単な手順でかつ更に正確に、赤外線カメラで捉えられた対象物から歩行者とは明らかに異なる特徴を持つ車両を予め除外し、歩行者認識の精度を向上させることができるという効果が得られる。
【0073】
【発明の効果】
以上の如く、請求項1に記載のナイトビジョンシステムによれば、まず灯体抽出手段により、例えば車両の灯体と思われる第1の対象物をグレースケール画像上に認識した後、同一距離対象物抽出手段により、第1の対象物の周囲を探索して、第1の対象物と同一距離の第2の対象物を抽出する。そして、車両判別手段により、第1の対象物と第2の対象物との関係が、車両の特徴に当てはまるか否か、第2の対象物の位置及び該第2の対象物から発せられる赤外線量を判断することで、目的の第1及び第2の対象物を含む物体が車両か否かを判断することができる。
従って、赤外線カメラにより捉えられた画像中の対象物の大きさや位置のみならず、その対象物の発する赤外線量によって車両構造物を的確に判定し、予め対象物から除外することで、安定した歩行者の検出を行うことができるという効果が得られる。
【0074】
請求項2に記載のナイトビジョンシステムによれば、第1の対象物と第2の対象物とが、車両の幅の距離以内で対称に配置された灯体、すなわち、例えば第1の対象物に車両の一方の灯体が、また第2の対象物に車両のもう一方の灯体が捉えられた場合であると判断して、目的の第1及び第2の対象物を含む物体が車両であることを認識することができる。
従って、赤外線カメラにより捉えられた画像中から対称な位置に存在する物体を抽出することで、正確に車両を認識して対象物から除外し、簡単に歩行者の検出精度を向上させることができるという効果が得られる。
【0075】
請求項3に記載のナイトビジョンシステムによれば、第1の対象物と第2の対象物とが、車両の幅の距離以内で上下に配置された物体、すなわち、例えば第1の対象物に車両の灯体が、また第2の対象物に車両の排気管やフロントグリルのような高温の物体が捉えられた場合であると判断して、目的の第1及び第2の対象物を含む物体が車両であることを認識することができる。
従って、赤外線カメラにより捉えられた画像中から、車両に特徴的な熱を発する物体を抽出することで、物体の位置や発せられる赤外線量により正確に車両を認識して対象物から除外し、簡単に歩行者の検出精度を向上させることができるという効果が得られる。
【0076】
請求項4に記載のナイトビジョンシステムによれば、第1の対象物と第2の対象物とが、車両の幅の距離以内で上下に配置された物体、すなわち、例えば第1の対象物に車両の灯体が、また第2の対象物に車両のウィンドシールドのような低温の物体が捉えられた場合であると判断して、目的の第1及び第2の対象物を含む物体が車両であることを認識することができる。
従って、赤外線カメラにより捉えられた画像中から、車両に特徴的な熱を発する物体と逆に熱を発しない物体とを抽出することで、物体の位置や発せられる赤外線量により正確に車両を認識して対象物から除外し、簡単に歩行者の検出精度を向上させることができるという効果が得られる。
【図面の簡単な説明】
【図1】 本発明の第1の実施の形態のナイトビジョンシステムの構成を示すブロック図である。
【図2】 車両における赤外線カメラやセンサ、ディスプレイ等の取り付け位置を示す図である。
【図3】 同実施の形態のナイトビジョンシステムの対象物検出・警報動作を示すフローチャートである。
【図4】 赤外線カメラにより得られるグレースケール画像とその2値化画像を示す図である。
【図5】 同実施の形態の警報判定処理動作を示すフローチャートである。
【図6】 衝突が発生しやすい場合を示す図である。
【図7】 車両前方の領域区分を示す図である。
【図8】 同実施の形態の人工構造物判定処理動作を示すフローチャートである。
【図9】 同実施の形態の対象物抽出及び車両判定について示す図である。
【図10】 同実施の形態の対象物抽出及び車両判定について示す図である。
【図11】 本発明の第2の実施の形態の人工構造物判定処理動作を示すフローチャートである。
【図12】 本発明の第2の実施の形態の人工構造物判定処理動作を示すフローチャートである。
【図13】 同実施の形態の対象物抽出及び車両判定について示す図である。
【符号の説明】
1 画像処理ユニット
2R、2L 赤外線カメラ
3 ヨーレートセンサ
4 車速センサ
5 ブレーキセンサ
6 スピーカ
7 画像表示装置
10 自車両
S1〜S13、S41〜S43 灯体抽出手段(第1の実施の形態)
S44〜S46、S50〜S52 同一距離対象物抽出手段(第1の実施の形態)
S47〜S48、S53〜S54 車両判別手段(第1の実施の形態)
S1〜S13、S61〜S63 灯体抽出手段(第2の実施の形態)
S64〜S66、S70〜S72 同一距離対象物抽出手段(第2の実施の形態)
S67〜S69、S73〜76 車両判別手段(第2の実施の形態)
Claims (4)
- 2つの赤外線カメラにより捉えられた画像を利用して、物体を認識するナイトビジョンシステムであって、
前記画像のグレースケール画像を2値化処理することにより、前記グレースケール画像から、少なくとも1つの灯体と思われる第1の対象物を熱源として抽出する灯体抽出手段と、
前記第1の対象物の周囲の領域と、前記第1の対象物との距離を比較して、前記第1の対象物と同一距離の第2の対象物を抽出する同一距離対象物抽出手段と、
前記第2の対象物の位置及び該第2の対象物から発せられる赤外線量と、予め設定された車両構造物の位置及び該車両構造物から発せられる赤外線量との比較により、前記画像中の車両を認識する車両判別手段と
を備えたことを特徴とするナイトビジョンシステム。 - 前記車両判別手段が、前記第1の対象物と高さが同一で、かつ前記第1の対象物と同一の赤外線量を発する前記第2の対象物を、所定の距離以内に発見した場合に、前記第1及び第2の対象物を含む物体を車両と認識することを特徴とする請求項1に記載のナイトビジョンシステム。
- 前記車両判別手段が、前記第1の対象物と高さが同一か、あるいは前記第1の対象物より高さが低く、かつ前記第1の対象物より高い赤外線量を発する前記第2の対象物を、所定の距離以内に発見した場合に、前記第1及び第2の対象物を含む物体を車両と認識する
ことを特徴とする請求項1に記載のナイトビジョンシステム。 - 前記車両判別手段が、前記第1の対象物より高さが高く、かつ前記第1の対象物より低い赤外線量を発する前記第2の対象物を、所定の距離以内に発見した場合に、前記第1及び第2の対象物を含む物体を車両と認識することを特徴とする請求項1に記載のナイトビジョンシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002027367A JP3839329B2 (ja) | 2002-02-04 | 2002-02-04 | ナイトビジョンシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002027367A JP3839329B2 (ja) | 2002-02-04 | 2002-02-04 | ナイトビジョンシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003230134A JP2003230134A (ja) | 2003-08-15 |
JP3839329B2 true JP3839329B2 (ja) | 2006-11-01 |
Family
ID=27748912
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002027367A Expired - Fee Related JP3839329B2 (ja) | 2002-02-04 | 2002-02-04 | ナイトビジョンシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3839329B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011086807A1 (ja) | 2010-01-14 | 2011-07-21 | 本田技研工業株式会社 | 車両周辺監視装置 |
CN107452012A (zh) * | 2017-07-28 | 2017-12-08 | 浙江大华技术股份有限公司 | 一种行人识别方法、装置和电子设备 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4813304B2 (ja) * | 2006-09-19 | 2011-11-09 | 本田技研工業株式会社 | 車両周辺監視装置 |
WO2008065717A1 (fr) | 2006-11-29 | 2008-06-05 | Fujitsu Limited | Système et procédé de détection de piéton |
JP4627305B2 (ja) * | 2007-03-16 | 2011-02-09 | 本田技研工業株式会社 | 車両周辺監視装置、車両周辺監視方法、及び車両周辺監視用プログラム |
JP4887537B2 (ja) * | 2007-08-02 | 2012-02-29 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP4623135B2 (ja) | 2008-05-08 | 2011-02-02 | 株式会社デンソー | 画像認識装置 |
JP5056679B2 (ja) * | 2008-09-02 | 2012-10-24 | トヨタ自動車株式会社 | ナイトビューシステム |
JP5602354B2 (ja) * | 2008-10-08 | 2014-10-08 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP4871941B2 (ja) * | 2008-10-10 | 2012-02-08 | 本田技研工業株式会社 | 車両周辺監視装置 |
CN103278134A (zh) * | 2013-04-29 | 2013-09-04 | 苏州百纳思光学科技有限公司 | 一种汽车远红外夜视测距系统 |
-
2002
- 2002-02-04 JP JP2002027367A patent/JP3839329B2/ja not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011086807A1 (ja) | 2010-01-14 | 2011-07-21 | 本田技研工業株式会社 | 車両周辺監視装置 |
US8994824B2 (en) | 2010-01-14 | 2015-03-31 | Honda Motor Co., Ltd. | Vehicle periphery monitoring device |
CN107452012A (zh) * | 2017-07-28 | 2017-12-08 | 浙江大华技术股份有限公司 | 一种行人识别方法、装置和电子设备 |
CN107452012B (zh) * | 2017-07-28 | 2020-10-30 | 浙江大华技术股份有限公司 | 一种行人识别方法、装置和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
JP2003230134A (ja) | 2003-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3987013B2 (ja) | 車両周辺監視装置 | |
JP4060159B2 (ja) | 車両周辺監視装置 | |
JP3987048B2 (ja) | 車両周辺監視装置 | |
JP4104867B2 (ja) | ナイトビジョンシステム | |
JP3987057B2 (ja) | 車両周辺監視装置 | |
JP3934119B2 (ja) | 車両周辺監視装置 | |
JP4410292B1 (ja) | 車両の周辺監視装置 | |
US8810653B2 (en) | Vehicle surroundings monitoring apparatus | |
JP5529910B2 (ja) | 車両周辺監視装置 | |
JP3756452B2 (ja) | 赤外線画像処理装置 | |
JP4203512B2 (ja) | 車両周辺監視装置 | |
US10565438B2 (en) | Vehicle periphery monitor device | |
JP3839329B2 (ja) | ナイトビジョンシステム | |
JP3844750B2 (ja) | 赤外線画像認識装置、及び赤外線画像認識装置を用いた警報装置 | |
JP3898157B2 (ja) | 赤外線画像認識装置 | |
JP3939626B2 (ja) | 車両周辺監視装置 | |
JP4647648B2 (ja) | 車両周辺監視装置 | |
JP4567072B2 (ja) | 車両周辺監視装置 | |
JP4871941B2 (ja) | 車両周辺監視装置 | |
JP3939580B2 (ja) | 障害物警報装置 | |
JP4472623B2 (ja) | 車両周辺監視装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060718 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060725 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060802 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100811 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100811 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110811 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110811 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120811 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120811 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130811 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140811 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |