JP2003216937A - ナイトビジョンシステム - Google Patents

ナイトビジョンシステム

Info

Publication number
JP2003216937A
JP2003216937A JP2002010577A JP2002010577A JP2003216937A JP 2003216937 A JP2003216937 A JP 2003216937A JP 2002010577 A JP2002010577 A JP 2002010577A JP 2002010577 A JP2002010577 A JP 2002010577A JP 2003216937 A JP2003216937 A JP 2003216937A
Authority
JP
Japan
Prior art keywords
mask
image
pedestrian
area
height
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002010577A
Other languages
English (en)
Other versions
JP4104867B2 (ja
Inventor
Shinji Nagaoka
伸治 長岡
Takayuki Tsuji
孝之 辻
Masato Watanabe
正人 渡辺
Hiroshi Hattori
弘 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2002010577A priority Critical patent/JP4104867B2/ja
Publication of JP2003216937A publication Critical patent/JP2003216937A/ja
Application granted granted Critical
Publication of JP4104867B2 publication Critical patent/JP4104867B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 カメラにより撮影された画像から抽出される
不定形な2値化対象物の大きさや位置を的確に判定し、
安定した歩行者の抽出を行うナイトビジョンシステムを
提供する。 【解決手段】 2値化対象物の上下にマスク領域を設定
し、マスク領域内の輝度変化を確認するために、マスク
領域MASKの輝度分散が閾値TH1より大きいか否か
を判定する(S46)。次にマスク領域の左右画像の相
関度Errorが閾値TH2より小さいか否かを判定す
る(S48)。次に2値化対象物の視差とマスク領域の
視差との差分の絶対値が閾値TH3より小さいか否かを
判定する(S49)。いずれの条件も満たすマスク領域
の全てと2値化対象物とを含む領域を対象物領域として
抽出し、この対象物の高さや路面からの高さ重心位置が
歩行者として適当な値であるか否かを判定することで、
対象物が歩行者か否かを判定する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、赤外線カメラに
より撮影された画像の2値化処理により、対象物抽出を
行うナイトビジョンシステムに関する。
【0002】
【従来の技術】従来、赤外線カメラにより捉えられた車
両周辺の画像から、車両との衝突の可能性がある歩行者
等の対象物を抽出し、その情報を車両の運転者に提供す
るナイトビジョンシステムが提案されている。このシス
テムでは、歩行者等の対象物における車両との衝突の可
能性は、車両と対象物との相対距離や相対速度に基づい
て判定される。
【0003】また、例えばこのように赤外線カメラによ
り捉えられた車両周辺の画像から、車両との衝突の可能
性がある歩行者等の対象物を抽出するナイトビジョンシ
ステムには、特開平11−328364号公報に記載の
ものがある。同公報によると、この装置は赤外線画像を
2値化処理して明部が集中している領域を探し、この領
域の縦横比や充足率、更には実面積と画面上の重心位置
を用いて距離を算出することで、この領域が歩行者の頭
部であるか否かを判定する。そして、歩行者の頭部の領
域を決定することができたら、決定した頭部領域のカメ
ラからの距離と成人の平均身長とから、画像上の歩行者
の身長を計算して歩行者の身体を包含する領域を設定
し、これらの領域を他の領域と区分して表示する。これ
により、赤外線画像上の歩行者の身体全体の位置を特定
し、この情報を車両の運転者に対して表示することで、
より効果的な視覚補助を行うことができる。
【0004】
【発明が解決しようとする課題】しかし、赤外線画像上
での歩行者は、着帽、着衣の影響や、歩行者自身の存在
環境によって、2値化処理により頭部のみ、頭部の一部
のみ、上半身のみ、下半身のみ、更には身体全体が抽出
されるなど、その2値化形状は不定形である。また、一
般的に車両走行時には、前方路面の形状の変化や、車両
のピッチングの影響があり、歩行者も子供から大人(成
人)まで本来とは異なる身長で検出される。従って、対
象物の画面での重心座標が距離に対して固定化できない
ため、上述の従来の装置のように、形状判定のみで歩行
者の抽出を行った場合、歩行者として適当でない対象物
高さ(対象物の大きさ)や対象物高さ位置(対象物の重
心座標)に基づいた物体を歩行者として抽出してしまう
可能性があった。
【0005】本発明は、上記課題に鑑みてなされたもの
で、カメラにより撮影された画像から抽出される不定形
な2値化対象物の大きさや位置を的確に判定し、安定し
た歩行者の抽出を行うナイトビジョンシステムを提供す
ることを目的とする。
【0006】
【課題を解決するための手段】上記課題を解決するため
に、請求項1の発明に係わるナイトビジョンシステム
は、2つの赤外線カメラにより捉えられた画像を利用し
て、歩行者を認識するナイトビジョンシステムであっ
て、前記画像のグレースケール画像を2値化処理するこ
とにより、前記グレースケール画像から2値化対象物を
抽出する2値化対象物抽出手段(例えば実施の形態のス
テップS1〜ステップS13)と、前記グレースケール
画像上の前記2値化対象物の上下方向に、人間の幅を基
準とした探索領域を前記2値化対象物に連続して複数個
設定すると共に、前記探索領域と前記2値化対象物との
距離をそれぞれ比較して、前記2値化対象物と同一距離
の前記探索領域を抽出する同一距離領域抽出手段(例え
ば第1の実施の形態のステップS41〜ステップS5
3、第2の実施の形態のステップS61〜ステップS6
7)と、前記2値化対象物の画像の高さに、前記2値化
対象物と同一距離の前記探索領域の画像の高さを加え
て、目的の対象物の高さを求めると共に、前記対象物の
高さに基づいて前記グレースケール画像中の歩行者を認
識する歩行者判別手段(例えば第1の実施の形態のステ
ップS54〜ステップS59、第2の実施の形態のステ
ップS68〜ステップS73)とを備えたことを特徴と
する。
【0007】以上の構成を備えたナイトビジョンシステ
ムは、まず2値化対象物抽出手段により2値化対象物の
位置をグレースケール画像上に認識する。次に、同一距
離領域抽出手段により、2値化対象物の上下方向に人間
の幅を基準とした探索領域を2値化対象物に連続して複
数個設定し、該探索領域の中から2値化対象物と同一距
離の物体を含む探索領域を抽出する。そして、歩行者判
別手段により、2値化対象物に2値化対象物と同一距離
の物体を含む探索領域を加えた範囲の画像の高さを基に
目的の対象物の高さを求めることで、この対象物の高さ
から目的の対象物が歩行者か否かを判断することができ
る。
【0008】請求項2の発明に係わるナイトビジョンシ
ステムは、請求項1に記載のナイトビジョンシステムに
おいて、前記歩行者判別手段が、前記対象物の高さと人
間の高さを基準に設定された閾値との比較により、前記
対象物から人間以外の物体を除去することを特徴とす
る。以上の構成を備えたナイトビジョンシステムは、人
間の高さとして適当ではない物体を予め対象物の中から
除去することで、歩行者の検出を行いやすくすることが
できる。
【0009】
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態について説明する。 (第1の実施の形態)図1は、本発明の第1の実施の形
態のナイトビジョンシステムの構成を示すブロック図で
ある。図1において、符号1は、本実施の形態のナイト
ビジョンシステムを制御するCPU(中央演算装置)を
備えた画像処理ユニットであって、遠赤外線を検出可能
な2つの赤外線カメラ2R、2Lと当該車両のヨーレー
トを検出するヨーレートセンサ3、更に、当該車両の走
行速度(車速)を検出する車速センサ4とブレーキの操
作を検出するためのブレーキセンサ5が接続される。こ
れにより、画像処理ユニット1は、車両の周辺の赤外線
画像と車両の走行状態を示す信号から、車両前方の歩行
者や動物等の動く物体を検出し、衝突の可能性が高いと
判断したときに警報を発する。
【0010】また、画像処理ユニット1には、音声で警
報を発するためのスピーカ6と、赤外線カメラ2R、2
Lにより撮影された画像を表示し、衝突の危険性が高い
対象物を車両の運転者に認識させるための、例えば自車
両の走行状態を数字で表すメータと一体化されたメータ
一体Displayや自車両のコンソールに設置される
NAVIDisplay、更にフロントウィンドウの運
転者の前方視界を妨げない位置に情報を表示するHUD
(Head Up Display )7a等を含む画像表示装置7が接
続されている。
【0011】また、画像処理ユニット1は、入力アナロ
グ信号をディジタル信号に変換するA/D変換回路、デ
ィジタル化した画像信号を記憶する画像メモリ、各種演
算処理を行うCPU(中央演算装置)、CPUが演算途
中のデータを記憶するために使用するRAM(Random A
ccess Memory)、CPUが実行するプログラムやテーブ
ル、マップなどを記憶するROM(Read Only Memor
y)、スピーカ6の駆動信号、HUD7a等の表示信号
などを出力する出力回路を備えており、赤外線カメラ2
R、2L及びヨーレートセンサ3、車速センサ4、ブレ
ーキセンサ5の各出力信号は、ディジタル信号に変換さ
れてCPUに入力されるように構成されている。
【0012】また、図2に示すように、赤外線カメラ2
R、2Lは、自車両10の前部に、自車両10の車幅方
向中心部に対してほぼ対象な位置に配置されており、2
つの赤外線カメラ2R、2Lの光軸が互いに平行であっ
て、かつ両者の路面からの高さが等しくなるように固定
されている。なお、赤外線カメラ2R、2Lは、対象物
の温度が高いほど、その出力信号レベルが高くなる(輝
度が増加する)特性を有している。また、HUD7a
は、自車両10のフロントウインドウの運転者の前方視
界を妨げない位置に表示画面が表示されるように設けら
れている。
【0013】次に、本実施の形態の動作について図面を
参照して説明する。図3は、本実施の形態のナイトビジ
ョンシステムの画像処理ユニット1における歩行者等の
対象物検出・警報動作を示すフローチャートである。ま
ず、画像処理ユニット1は、赤外線カメラ2R、2Lの
出力信号である赤外線画像を取得して(ステップS
1)、A/D変換し(ステップS2)、グレースケール
画像を画像メモリに格納する(ステップS3)。なお、
ここでは赤外線カメラ2Rにより右画像が得られ、赤外
線カメラ2Lにより左画像が得られる。また、右画像と
左画像では、同一の対象物の表示画面上の水平位置がず
れて表示されるので、このずれ(視差)によりその対象
物までの距離を算出することができる。
【0014】ステップS3においてグレースケール画像
が得られたら、次に、赤外線カメラ2Rにより得られた
右画像を基準画像とし、その画像信号の2値化処理、す
なわち、輝度閾値ITHより明るい領域を「1」(白)
とし、暗い領域を「0」(黒)とする処理を行う(ステ
ップS4)。図4(a)は、赤外線カメラ2Rにより得
られたグレースケール画像を示し、これに2値化処理を
行うことにより、図4(b)に示すような画像を得る。
なお、図4(b)において、例えばP1からP4の枠で
囲った物体を、表示画面上に白色として表示される対象
物(以下「高輝度領域」という)とする。赤外線画像か
ら2値化された画像データを取得したら、2値化した画
像データをランレングスデータに変換する処理を行う
(ステップS5)。ランレングスデータにより表される
ラインは、2値化により白となった領域を画素レベルで
示したもので、いずれもy方向には1画素の幅を有して
おり、またx方向にはそれぞれランレングスデータを構
成する画素の長さを有している。
【0015】次に、ランレングスデータに変換された画
像データから、対象物のラベリングをする(ステップS
6)ことにより、対象物を抽出する処理を行う(ステッ
プS7)。すなわち、ランレングスデータ化したライン
のうち、y方向に重なる部分のあるラインを1つの対象
物とみなすことにより、例えば図4(b)に示す高輝度
領域が、それぞれ対象物(2値化対象物)1から4とし
て把握されることになる。対象物の抽出が完了したら、
次に、抽出した対象物の重心G、面積S及び外接四角形
の縦横比ASPECTを算出する(ステップS8)。
【0016】ここで、面積Sは、ラベルAの対象物のラ
ンレングスデータを(x[i]、y[i]、run
[i]、A)(i=0,1,2,・・・N−1)とする
と、ランレングスデータの長さ(run[i]−1)を
同一対象物(N個のランレングスデータ)について積算
することにより算出する。また、対象物Aの重心Gの座
標(xc、yc)は、各ランレングスデータの長さ(r
un[i]−1)と各ランレングスデータの座標x
[i]、またはy[i]とをそれぞれ掛け合わせ、更に
これを同一対象物について積算したものを、面積Sで割
ることにより算出する。更に、縦横比ASPECTは、
対象物の外接四角形の縦方向の長さDyと横方向の長さ
Dxとの比Dy/Dxとして算出する。なお、ランレン
グスデータは画素数(座標数)(=run[i])で示
されているので、実際の長さは「−1」する必要がある
(=run[i]−1)。また、重心Gの位置は、外接
四角形の重心位置で代用してもよい。
【0017】対象物の重心、面積、外接四角形の縦横比
が算出できたら、次に、対象物の時刻間追跡、すなわち
サンプリング周期毎の同一対象物の認識を行う(ステッ
プS9)。時刻間追跡は、アナログ量としての時刻tを
サンプリング周期で離散化した時刻をkとし、例えば時
刻kで対象物A、Bを抽出したら、時刻(k+1)で抽
出した対象物C、Dと対象物A、Bとの同一性判定を行
う。そして、対象物A、Bと対象物C、Dとが同一であ
ると判定されたら、対象物C、Dをそれぞれ対象物A、
Bというラベルに変更することにより、時刻間追跡が行
われる。また、このようにして認識された各対象物の
(重心の)位置座標は、時系列位置データとしてメモリ
に格納され、後の演算処理に使用される。
【0018】なお、以上説明したステップS4〜S9の
処理は、2値化した基準画像(本実施の形態では、右画
像)について実行する。次に、車速センサ4により検出
される車速VCAR及びヨーレートセンサ3より検出さ
れるヨーレートYRを読み込み、ヨーレートYRを時間
積分することより、自車両10の回頭角θrを算出する
(ステップS10)。
【0019】一方、ステップS9とステップS10の処
理に平行して、ステップS11〜S13では、対象物と
自車両10との距離zを算出する処理を行う。この演算
はステップS9、及びステップS10より長い時間を要
するため、ステップS9、S11より長い周期(例えば
ステップS1〜S10の実行周期の3倍程度の周期)で
実行される。まず、基準画像(右画像)の2値化画像に
よって追跡される対象物の中の1つを選択することによ
り、右画像から探索画像R1(ここでは、外接四角形で
囲まれる領域全体を探索画像とする)を抽出する(ステ
ップS11)。
【0020】次に、左画像中から探索画像R1に対応す
る画像(以下「対応画像」という)を探索する探索領域
を設定し、相関演算を実行して対応画像を抽出する(ス
テップS12)。具体的には、探索画像R1の各頂点座
標に応じて、左画像中に探索領域R2を設定し、探索領
域R2内で探索画像R1との相関の高さを示す輝度差分
総和値C(a,b)を算出し、この総和値C(a,b)
が最小となる領域を対応画像として抽出する。なお、こ
の相関演算は、2値化画像ではなくグレースケール画像
を用いて行う。また同一対象物についての過去の位置デ
ータがあるときは、その位置データに基づいて探索領域
R2より狭い領域R2aを探索領域として設定する。
【0021】ステップS12の処理により、基準画像
(右画像)中に探索画像R1と、左画像中にこの対象物
に対応する対応画像R4とが抽出されるので、次に、探
索画像R1の重心位置と対応画像R4の重心位置と視差
Δd(画素数)を求め、これから自車両10と対象物と
の距離zを算出する(ステップS13)。距離zを求め
る式は後述する。次に、ステップS10における回頭角
θrの算出と、ステップS13における対象物との距離
算出が完了したら、画像内の座標(x,y)及び距離z
を実空間座標(X,Y,Z)に変換する(ステップS1
4)。ここで、実空間座標(X,Y,Z)は、図2に示
すように、赤外線カメラ2R、2Lの取り付け位置の中
点の位置(自車両10に固定された位置)を原点Oとし
て、図示のように定め、画像内の座標は、画像の中心を
原点として水平方向をx、垂直方向をyと定めている。
【0022】また、実空間座標が求められたら、自車両
10が回頭することによる画像上の位置ずれを補正する
ための回頭角補正を行う(ステップS15)。回頭角補
正は、時刻kから(k+1)までの期間中に自車両10
が例えば左方向に回頭角θrだけ回頭すると、カメラに
よって得られる画像上では、画像の範囲がΔxだけx方
向にずれるので、これを補正する処理である。なお、以
下の説明では、回頭角補正後の座標を(X,Y,Z)と
表示する。
【0023】実空間座標に対する回頭角補正が完了した
ら、次に、同一対象物について、ΔTのモニタ期間内に
得られた、回頭角補正後のN個(例えばN=10程度)
の実空間位置データ、すなわち時系列データから、対象
物と自車両10との相対移動ベクトルに対応する近似直
線LMVを求める(ステップS16)。次いで、最新の
位置座標P(0)=(X(0),Y(0),Z(0))
と、(N−1)サンプル前(時間ΔT前)の位置座標P
(Nー1)=(X(N−1),Y(N−1),Z(N−
1))を近似直線LMV上の位置に補正し、補正後の位
置座標Pv(0)=(Xv(0),Yv(0),Zv
(0))及びPv(N−1)=(Xv(N−1),Yv
(N−1),Zv(N−1))を求める。
【0024】これにより、位置座標Pv(N−1)から
Pv(0)に向かうベクトルとして、相対移動ベクトル
が得られる。このようにモニタ期間ΔT内の複数(N
個)のデータから対象物の自車両10に対する相対移動
軌跡を近似する近似直線を算出して相対移動ベクトルを
求めることにより、位置検出誤差の影響を軽減して対象
物との衝突の可能性をより正確に予測することが可能と
なる。
【0025】また、ステップS16において、相対移動
ベクトルが求められたら、次に、検出した対象物との衝
突の可能性を判定する警報判定処理を行う(ステップS
17)。なお、警報判定処理については、詳細を後述す
る。ステップS17において、自車両10と検出した対
象物との衝突の可能性がないと判定された場合(ステッ
プS17のNO)、ステップS1へ戻り、上述の処理を
繰り返す。また、ステップS17において、自車両10
と検出した対象物との衝突の可能性があると判定された
場合(ステップS17のYES)、ステップS18の警
報出力判定処理へ進む。
【0026】ステップS18では、ブレーキセンサ5の
出力BRから自車両10の運転者がブレーキ操作を行っ
ているか否かを判別することにより、警報出力判定処
理、すなわち警報出力を行うか否かの判定を行う(ステ
ップS18)。もし、自車両10の運転者がブレーキ操
作を行っている場合には、それによって発生する加速度
Gs(減速方向を正とする)を算出し、この加速度Gs
が所定閾値GTHより大きいときは、ブレーキ操作によ
り衝突が回避されると判定して警報出力判定処理を終了
し(ステップS18のNO)、ステップS1へ戻り、上
述の処理を繰り返す。これにより、適切なブレーキ操作
が行われているときは、警報を発しないようにして、運
転者に余計な煩わしさを与えないようにすることができ
る。
【0027】また、加速度Gsが所定閾値GTH以下で
あるとき、または自車両10の運転者がブレーキ操作を
行っていなければ、直ちにステップS19の処理へ進み
(ステップS18のYES)、対象物と接触する可能性
が高いので、スピーカ3を介して音声による警報を発す
る(ステップS19)とともに、画像表示装置7に対し
て、例えば赤外線カメラ2Rにより得られる画像を出力
し、接近してくる対象物を自車両10の運転者に対する
強調映像として表示する(ステップS20)。なお、所
定閾値GTHは、ブレーキ操作中の加速度Gsがそのま
ま維持された場合に、対象物と自車両10との距離Zv
(0)以下の走行距離で自車両10が停止する条件に対
応する値である。
【0028】以上が、本実施の形態のナイトビジョンシ
ステムの画像処理ユニット1における対象物検出・警報
動作であるが、次に、図5に示すフローチャートを参照
して、図3に示したフローチャートのステップS17に
おける警報判定処理について更に詳しく説明する。図5
は、本実施の形態の警報判定処理動作を示すフローチャ
ートである。警報判定処理は、以下に示す衝突判定処
理、接近判定領域内か否かの判定処理、進入衝突判定処
理、歩行者判定処理、及び人工構造物判定処理により、
自車両10と検出した対象物との衝突の可能性を判定す
る処理である。以下、図6に示すように、自車両10の
進行方向に対してほぼ90°の方向から、速度Vpで進
行してくる対象物20がいる場合を例に取って説明す
る。
【0029】図5において、まず、画像処理ユニット1
は衝突判定処理を行う(ステップS31)。衝突判定処
理は、図6において、対象物20が時間ΔTの間に距離
Zv(N−1)から距離Zv(0)に接近した場合に、
自車両10とのZ方向の相対速度Vsを求め、両者が高
さH以内で相対速度Vsを維持して移動すると仮定し
て、余裕時間T以内に両者が衝突するか否かを判定する
処理である。ここで、余裕時間Tは、衝突の可能性を予
測衝突時刻より時間Tだけ前に判定することを意図した
ものである。従って、余裕時間Tは例えば2〜5秒程度
に設定される。またHは、高さ方向の範囲を規定する所
定高さであり、例えば自車両10の車高の2倍程度に設
定される。
【0030】次に、ステップS31において、余裕時間
T以内に自車両10と対象物とが衝突する可能性がある
場合(ステップS31のYES)、更に判定の信頼性を
上げるために、画像処理ユニット1は対象物が接近判定
領域内に存在するか否かの判定処理を行う(ステップS
32)。接近判定領域内か否かの判定処理は、図7に示
すように、赤外線カメラ2R、2Lで監視可能な領域を
太い実線で示す外側の三角形の領域AR0とすると、領
域AR0内の、Z1=Vs×Tより自車両10に近い領
域であって、対象物が自車両10の車幅αの両側に余裕
β(例えば50〜100cm程度とする)を加えた範囲
に対応する領域AR1、すなわち対象物がそのまま存在
し続ければ自車両10との衝突の可能性がきわめて高い
接近判定領域AR1内に存在するか否かを判定する処理
である。なお、接近判定領域AR1も所定高さHを有す
る。
【0031】更に、ステップS32において、対象物が
接近判定領域内に存在しない場合(ステップS32のN
O)、画像処理ユニット1は対象物が接近判定領域内へ
進入して自車両10と衝突する可能性があるか否かを判
定する進入衝突判定処理を行う(ステップS33)。進
入衝突判定処理は、上述の接近判定領域AR1よりX座
標の絶対値が大きい(接近判定領域の横方向外側の)領
域AR2、AR3を進入判定領域と呼び、この領域内に
ある対象物が、移動することにより接近判定領域AR1
に進入すると共に自車両10と衝突するか否かを判定す
る処理である。なお、進入判定領域AR2、AR3も所
定高さHを有する。
【0032】一方、ステップS32において、対象物が
接近判定領域内に存在している場合(ステップS32の
YES)、画像処理ユニット1は対象物が歩行者の可能
性があるか否かを判定する歩行者判定処理を行う(ステ
ップS34)。なお、歩行者判定処理については、詳細
を後述する。また、ステップS34において、対象物は
歩行者の可能性があると判定された場合(ステップS3
4のYES)、更に判定の信頼性を上げるために、対象
物が人工構造物であるか否かを判定する人工構造物判定
処理を行う(ステップS35)。人工構造物判定処理
は、対象物画像に、例えば以下に示すような歩行者には
あり得ない特徴が検出された場合、該対象物を人工構造
物と判定し、警報の対象から除外する処理である。 (1)対象物の画像に直線エッジを示す部分が含まれる
場合。 (2)対象物の画像の角が直角である場合。 (3)対象物の画像に同じ形状のものが複数含まれてい
る場合。 (4)対象物の画像が予め登録された人口構造物の形状
と一致する場合。
【0033】従って、上述のステップS33において、
対象物が接近判定領域内へ進入して自車両10と衝突す
る可能性がある場合(ステップS33のYES)、及び
ステップS35において、歩行者の可能性があると判定
された対象物が人工構造物でなかった場合(ステップS
35のNO)、画像処理ユニット1は、自車両10と検
出した対象物との衝突の可能性がある(警報の対象であ
る)と判定し(ステップS36)、図3に示すステップ
S17のYESとしてステップS18へ進み、警報出力
判定処理(ステップS18)を行う。
【0034】一方、上述のステップS31において、余
裕時間T以内に自車両10と対象物とが衝突する可能性
がない場合(ステップS31のNO)、あるいはステッ
プS33において、対象物が接近判定領域内へ進入して
自車両10と衝突する可能性がない場合(ステップS3
3のNO)、あるいはステップS34において、対象物
は歩行者の可能性がないと判定された場合(ステップS
34のNO)、更にはステップS35において、歩行者
の可能性があると判定された対象物が人工構造物であっ
た場合(ステップS35のYES)のいずれかであった
場合は、画像処理ユニット1は、自車両10と検出した
対象物との衝突の可能性がない(警報の対象ではない)
と判定し(ステップS37)、図3に示すステップS1
7のNOとしてステップS1へ戻り、歩行者等の対象物
検出・警報動作を繰り返す。
【0035】次に、図8と図9に示すフローチャートを
参照して、図5に示したフローチャートのステップS3
4における歩行者判定処理について更に詳しく説明す
る。図8と図9は、本実施の形態の歩行者判定処理動作
を示すフローチャートである。図8において、まず、画
像処理ユニット1は、図3に示したフローチャートのス
テップS7において抽出された2値化対象物を取得する
(ステップS41)。更に、図3に示したフローチャー
トのステップS8において算出された2値化対象物(図
10に示す2値化対象物100)の重心G(xc、y
c)(図10に示す2値化対象物の重心G101)とス
テップS13において算出された自車両10と対象物と
の視差Δd(距離z)を取得する(ステップS42)。
【0036】次に、グレースケール画像上で、対象物の
存在領域を抽出し、対象物の高さと対象物の路面を基準
とした高さ位置とを算出する。そのために、まず図10
に示すような実空間での大きさがW[m]×H[m]で
ある長方形領域のマスク領域(それぞれをMASK
[I]とする)を、対象物の領域を探索するために、2
値化対象物に連続して複数個設定する(ステップS4
3)。但し、W[m]は歩行者を対象とする場合、歩行
者の肩幅以上とし、(2)式により、2値化対象物まで
の距離z[m]を用いて、画面上のマスク領域サイズW
p[pixel]×Hp[pixel]に変換する。な
お、図10はカメラで捉えられた歩行者を模式的に表し
たもので、斜線の領域が2値化処理で捉えられた対象物
の部位であり、点線で囲まれた領域が2値化処理では捉
えられていないが、グレースケール画像で背景に対して
物体の存在が確認できる対象物の部位を表す。
【0037】具体的には、前述の対象物距離z[m]
は、カメラの基線長D[m]、カメラ焦点距離f
[m]、画素ピッチp[m/pixel]と、映像から
相関演算によって算出される視差Δd[pixel]に
よって、(1)式のように求められるので、 z=(f×D)/(Δd×p) ・・・(1) WpとHpが、それぞれ2値化対象物までの距離z
[m]を用いて Wp=(f×W)/(z×p) Hp=(f×H)/(z×p) ・・・(2) とするMASK[I]を、基準となるグレースケール映
像の2値化対象物の上下端に接する位置からN個配置す
る(但しI=0,1,・・・,N−1)。
【0038】そして、グレースケール画像上にマスク領
域が設定できたら、マスク領域を識別する変数Iに”
0”を代入し、Iをリセットする(ステップS44)。
次に、マスク領域MASK[I]の輝度分散Var
[I]を算出する(ステップS45)。そして、マスク
領域MASK[I]について、マスク領域内の輝度変化
を確認するために、(3)式を満たしてマスク領域MA
SK[I]の輝度分散Var[I]が閾値TH1より大
きく、マスク領域にグレースケール画像に基づき背景と
は異なる熱特性を持つ物体が存在するか否かを判断する
(ステップS46)。 Var[I]>TH1 ・・・(3)
【0039】もし、ステップS46において、マスク領
域MASK[I]の輝度分散Var[I]が閾値TH1
より大きかった場合(ステップS46のYES)、次に
マスク領域MASK[I]について、左右のカメラで同
じ物体を捉えているかを確認する。具体的には、まずマ
スク領域MASK[I]の距離(視差dn[I])を左
右の画像の相関演算(SAD:Sum of Absolute differ
ence)によって算出する(ステップS47)。そして、
SADの相関度はErrorとして算出され、SADで
は相関度が高いほど小さな値を示すため、(4)式を満
たしてマスク領域MASK[I]の左右画像の相関度E
rrorが閾値TH2より小さいか否かを判定する(ス
テップS48)。 Error<TH2 ・・・(4)
【0040】もし、ステップS48において、マスク領
域MASK[I]の相関度Errorが閾値TH2より
小さかった場合(ステップS48のYES)、次にマス
ク領域MASK[I]について、2値化対象物と同じ物
体を捉えているか確認するために、(5)式を満たして
2値化対象物の視差Δdとマスク領域MASK[I]の
視差dn[I]との差分の絶対値が閾値TH3より小さ
いか否かを判定する(ステップS49)。 |Δd−dn[I]|<TH3 ・・・(5) そして、ステップS49において、2値化対象物の視差
Δdとマスク領域MASK[I]の視差dn[I]との
差分の絶対値が閾値TH3より小さかった場合(ステッ
プS49のYES)、マスク領域MASK[I]に含ま
れている対象物は、2値化対象物と同一の物体と判定
し、マスク領域MASK[I]に”TRUE”を設定す
る(ステップS50)。
【0041】一方、ステップS46において、マスク領
域MASK[I]の輝度分散Var[I]が閾値TH1
以下であった場合(ステップS46のNO)、あるいは
ステップS48において、マスク領域MASK[I]の
相関度Errorが閾値TH2以上であった場合(ステ
ップS48のNO)、あるいはステップS49におい
て、2値化対象物の視差Δdとマスク領域MASK
[I]の視差dn[I]との差分の絶対値が閾値TH3
以上であった場合(ステップS49のNO)のいずれか
であった場合には、マスク領域MASK[I]に含まれ
ている対象物は、2値化対象物と別の物体と判定し、マ
スク領域MASK[I]に”FALSE”を設定する
(ステップS51)。
【0042】ステップS50、あるいはステップS51
において、マスク領域MASK[I]に含まれる物体の
判定を行ったら、マスク領域を識別する変数Iを1つカ
ウントアップし(ステップS52)、更に変数Iがマス
ク領域の個数Nより大きいか否かを判定する(ステップ
S53)。ステップS53において、変数Iがマスク領
域の個数N以下であった場合(ステップS53のN
O)、ステップS45へ戻り、上述の動作を繰り返し、
1つカウントアップされた変数Iで指定されるマスク領
域MASK[I]に含まれる物体の判定を行う。
【0043】また、ステップS53において、変数Iが
マスク領域の個数Nより大きかった場合(ステップS5
3のYES)、図9のステップS54へ進む。そして図
11に示すように、ステップS50において”TRU
E”と判定されたマスク領域MASK[I]の全てと2
値化対象物100とを含む領域を、対象物領域102と
して抽出し、この対象物領域の画面上の高さHeigh
t[pixel]と対象物領域左下端位置103の座標
(xr、yr)[pixel]を算出する(ステップS
54)。
【0044】次に、画面上の対象物領域の高さHeig
ht[pixel]が求められたら、(6)式により対
象物の実空間での高さΔH[m]を算出する(ステップ
S55)。 ΔH=z×Height×p/f ・・・(6) また、対象物領域の左下端位置を路面交点とすること
で、路面を基準とした2値化対象物の高さ重心位置Yc
[m]を(7)式により算出する(ステップS56)。 Yc=z×(yc−yr)×p/f ・・・(7) なお図11では、マスク領域MASK[4]において、
背景との輝度分散の差が局所的にない場合を例にしてい
るが、”TRUE”と判定されたマスク領域MASK
[I]の全てと2値化対象物100とを含む領域を、対
象物領域102として抽出することで、対象物領域の抽
出は局所的な領域の欠落によって影響を受けることがな
い。
【0045】そして、求められた対象物の実空間での高
さΔH[m]と、路面を基準とした2値化対象物の高さ
重心位置Yc[m]とが、歩行者として適当な数値であ
るか否かを判定する(ステップS57)。もし、ステッ
プS57において、対象物の実空間での高さΔH[m]
と、路面を基準とした2値化対象物の高さ重心位置Yc
[m]とが、歩行者として適当な数値であった場合(ス
テップS57のYES)、対象物領域102に捉えられ
た対象物は歩行者であると判定して(ステップS58)
歩行者判定処理を終了し、図5に示すステップS34の
YESとして図5のステップS35へ進み、人工構造物
判定を行う。
【0046】また、ステップS57において、対象物の
実空間での高さΔH[m]と、路面を基準とした2値化
対象物の高さ重心位置Yc[m]とが、歩行者として適
当な数値でなかった場合(ステップS57のNO)、対
象物領域102に捉えられた対象物は歩行者ではないと
判定して(ステップS59)歩行者判定処理を終了し、
図5に示すステップS34のNOとして図5のステップ
S37へ進み、対象物は警報対象ではないと判定する。
【0047】なお、本実施の形態では、画像処理ユニッ
ト1が、2値化対象物抽出手段と、同一距離領域抽出手
段と、歩行者判別手段とを含んでいる。より具体的に
は、図3のS1〜S13が2値化対象物抽出手段に相当
し、図8のS41〜S53が同一距離領域抽出手段に相
当する。また、図9のS54〜S59が歩行者判別手段
に相当する。
【0048】以上説明したように、本実施の形態のナイ
トビジョンシステムは、赤外線カメラにより撮影された
画像のグレースケール画像から歩行者等の対象物を2値
化処理によって抽出した後、グレースケール画像上の2
値化対象物の上下に、マスク領域を2値化対象物に連続
して複数個設定し、このマスク領域の輝度分散、左右画
像の相関度、更には2値化対象物の視差とマスク領域の
視差との差分を、マスク領域それぞれについて判定し、
2値化対象物と同一距離の対象物を含むマスク領域を抽
出する。そして、このマスク領域と2値化対象物を含む
領域を対象物領域とし、この対象物領域に対応する実空
間における対象物の高さや路面からの高さ位置が歩行者
として適当か否かを判定する。
【0049】これにより、着帽、着衣の影響や、歩行者
自身の存在環境によって、赤外線画像上で2値化処理に
より頭部のみ、頭部の一部のみ、上半身のみ、下半身の
み、更には身体全体が抽出されるなど、不定形な2値化
形状で抽出される歩行者を、その形状の高さや路面から
の高さ位置により的確に判断することができるという効
果が得られる。従って、例えば図12に示すカーブミラ
ーのような道路構造物は、ミラー部位104が2値化対
象物100として歩行者の頭部のように抽出されても、
マスク領域に対して面積比率が小さい支柱部位105に
相当するマスク領域MASK[3]からMASK[6]
では、背景の影響が大きく輝度分散が小さくなるため
に、歩行者の部位として認められずにマスク領域は”F
ALSE”となって、対象物領域がミラー部位(頭部の
み)と判定されるため、最終的に対象物領域の高さが歩
行者として不適当である、すなわち歩行者ではないと判
断される。
【0050】(第2の実施の形態)次に、図面を参照し
て本発明の第2の実施の形態について説明する。本発明
の第2の実施の形態のナイトビジョンシステムが、第1
の実施の形態のナイトビジョンシステムと比較して異な
る部分は、第1の実施の形態で図8と図9のフローチャ
ートを用いて説明したナイトビジョンシステムの画像処
理ユニット1における歩行者判定処理動作が、図13に
フローチャートを示す歩行者判定処理動作に変更される
ことである。なお、第2の実施の形態のナイトビジョン
システムの構成や、歩行者判定処理動作以外の動作につ
いては、第1の実施の形態のナイトビジョンシステムと
同一であるので、ここでは説明を省略する。
【0051】次に、図13のフローチャートを用いて、
第2の実施の形態のナイトビジョンシステムの画像処理
ユニット1における歩行者判定処理動作を具体的に説明
する。第2の実施の形態の歩行者判定処理動作では、第
1の実施の形態の歩行者判定処理動作と同様に、ステッ
プS61からステップS63に示す処理を行う。すなわ
ち、まず画像処理ユニット1は、図3に示したフローチ
ャートのステップS7において抽出された2値化対象物
を取得する(ステップS61)。更に、図3に示したフ
ローチャートのステップS8において算出した2値化対
象物の重心G(xc、yc)とステップS13において
算出した自車両10と対象物との視差Δd(距離z)を
取得する(ステップS62)。
【0052】次に、グレースケール画像上で、対象物の
存在領域を抽出し、対象物の路面を基準とした高さ位置
と高さを算出するために、まず図14に示すような実空
間での大きさがW[m]×H[m]である長方形領域の
マスク領域(それぞれをMASK_AからMASK_M
とする)を、対象物の領域を探索するために、2値化対
象物に連続して複数個設定する(ステップS63)。な
お、画面上のマスク領域サイズは、第1の実施の形態と
同様に求める。
【0053】マスク領域の設定が終了したら、次に下端
MAX_H判定処理を行う(ステップS64)。具体的
には、まず本実施の形態のナイトビジョンシステムが検
出すべき最大対象物高さをMAX_Hとして設定する。
次に、2値化対象物100の下端位置方向で、2値化対
象物100の上端位置からMAX_H以上で最初のマス
ク領域(例えば図14ではMASK_H)を選択する。
そして、第1の実施の形態と同様に、 (a)マスク領域の輝度分散Var[I]が閾値TH1
より大きいか否か。 (b)マスク領域の左右画像の相関度Errorが閾値
TH2より小さいか否か。 (c)2値化対象物の視差Δdとマスク領域の視差との
差分の絶対値が閾値TH3より小さいか否か。 の3点についてマスク領域を判定し、判定結果が”TR
UE”か”FALSE”かを決定する。
【0054】ステップS64において、マスク領域MA
SK_Hの判定結果が”TRUE”の場合(ステップS
64のYES)、この対象物は、本実施の形態のナイト
ビジョンシステムが検出すべき最大対象物高さMAX_
Hを越えた大きさの対象物であるので、捉えられた対象
物は歩行者ではないと判定して(ステップS65)歩行
者判定処理を終了し、図5に示すステップS34のNO
として図5のステップS37へ進み、対象物は警報対象
ではないと判定する。
【0055】また、ステップS64において、マスク領
域MASK_Hの判定結果が”FALSE”の場合(ス
テップS64のNO)、対象物の最下端マスク領域の特
定処理を行う(ステップS66)。具体的には、マスク
領域MASK_AからMASK_Gの探索範囲内で、上
述の判定結果が”TRUE”となるマスク領域を選択す
るために、まず、例えば探索範囲内の中間のマスク領域
MASK_Dを選択し、上述の(a)から(c)の3つ
の条件を満たすか否かを判定する。このとき、例えば図
14に示した例では、マスク領域MASK_Dの判定結
果は”FALSE”となるため、マスク領域MASK_
Dの上方向の領域(図14の例ではマスク領域MASK
_A〜MASK_C)を探索領域とし、探索領域の中間
のマスク領域MASK_Bについて、上述の(a)から
(c)の3つの条件を満たすか否かを判定する。
【0056】また、仮にマスク領域MASK_Dの判定
結果が”TRUE”の場合は、マスク領域MASK_D
の下方向の領域(図14の例ではマスク領域MASK_
E〜MASK_G)を探索領域として判定結果が”TR
UE”になるマスク領域を探索する。そして、同様の処
理を探索領域内のマスク数が1つになるまで繰り返し、
対象物最下端のマスク領域を抽出する。なお、図14に
示す例では、マスク領域MASK_Cが対象物の最下端
マスク領域であって、これを対象物の最下端とする。
【0057】一方、対象物の最下端マスク領域が求めら
れたら、対象物の上端方向について判定するために、上
端MAX_H判定処理を行う(ステップS67)。具体
的には、2値化対象物100の上部において、マスク領
域MASK_Cの下端から、上方向にMAX_H以上で
最初のマスク領域(例えば図14ではMASK_M)を
選択する。そして、下端MAX_H判定処理と同様に、
上述の(a)から(c)の3つの条件を満たすか否かを
判定する。ステップS67において、マスク領域MAS
K_Mの判定結果が”TRUE”の場合(ステップS6
7のYES)、この対象物は、本実施の形態のナイトビ
ジョンシステムが検出すべき最大対象物高さMAX_H
を越えた大きさの対象物であるので、捉えられた対象物
は歩行者ではないと判定して(ステップS65)歩行者
判定処理を終了し、図5に示すステップS34のNOと
して図5のステップS37へ進み、対象物は警報対象で
はないと判定する。
【0058】また、ステップS67において、マスク領
域MASK_Mの判定結果が”FALSE”の場合(ス
テップS67のNO)、対象物の最上端マスク領域の特
定処理を行う(ステップS68)。具体的には、マスク
領域MASK_IからMASK_Lの探索範囲内で、上
述の判定結果が”TRUE”となるマスク領域を選択す
るために、まず、例えば探索範囲内の中間のマスク領域
MASK_Kを選択し、上述の(a)から(c)の3つ
の条件を満たすか否かを判定する。このとき、例えば図
14に示した例では、マスク領域MASK_Kの判定結
果は”FALSE”となるため、マスク領域MASK_
Kの下方向の領域(図14の例ではマスク領域MASK
_I〜MASK_J)を探索領域とし、上述の(a)か
ら(c)の3つの条件を満たすか否かを判定する。
【0059】また、仮にマスク領域MASK_Kの判定
結果が”TRUE”の場合は、マスク領域MASK_K
の上方向の領域(図14の例ではマスク領域MASK_
L)を探索領域として判定結果が”TRUE”になるマ
スク領域を探索する。そして、同様の処理を探索領域内
のマスク数が1つになるまで繰り返し、対象物最上端の
マスク領域を抽出する。なお、図14に示す例では、全
てのマスク領域が条件を満たさないため、2値化対象物
の上端位置が対象物の最上端とする。
【0060】上述のように、対象物の最下端、最上端位
置が求められたら、最下端、最上端位置を含む領域を対
象物領域102として抽出し、第1の実施の形態と同様
に、この対象物領域の画面上の高さHeight[pi
xel]と対象物領域左下端位置の座標(xr、yr)
[pixel]を算出する(ステップS69)。次に、
画面上の対象物領域の高さHeight[pixel]
が求められたら、対象物の実空間での高さΔH[m]を
算出する(ステップS70)。更に、対象物領域の左下
端位置を路面交点とすることで、路面を基準とした2値
化対象物の高さ重心位置Yc[m]を算出する(ステッ
プS71)。
【0061】そして、求められた対象物の実空間での高
さΔH[m]と、路面を基準とした2値化対象物の高さ
重心位置Yc[m]とが、歩行者として適当な数値であ
るか否かを判定する(ステップS72)。もし、ステッ
プS72において、対象物の実空間での高さΔH[m]
と、路面を基準とした2値化対象物の高さ重心位置Yc
[m]とが、歩行者として適当な数値であった場合(ス
テップS72のYES)、対象物領域102に捉えられ
た対象物は歩行者であると判定して(ステップS73)
歩行者判定処理を終了し、図5に示すステップS34の
YESとして図5のステップS35へ進み、人工構造物
判定を行う。
【0062】また、ステップS72において、対象物の
実空間での高さΔH[m]と、路面を基準とした2値化
対象物の高さ重心位置Yc[m]とが、歩行者として適
当な数値でなかった場合(ステップS72のNO)、対
象物領域102に捉えられた対象物は歩行者ではないと
判定して(ステップS65)歩行者判定処理を終了し、
図5に示すステップS34のNOとして図5のステップ
S37へ進み、対象物は警報対象ではないと判定する。
【0063】なお、本実施の形態では、第1の実施の形
態と同様に、画像処理ユニット1が、2値化対象物抽出
手段と、同一距離領域抽出手段と、歩行者判別手段とを
含んでいる。より具体的には、図3のS1〜S13が2
値化対象物抽出手段に相当し、図13のS61〜S67
が同一距離領域抽出手段に相当する。また、図13のS
68〜S73が歩行者判別手段に相当する。
【0064】以上説明したように、本実施の形態のナイ
トビジョンシステムは、第1の実施の形態と同様に、赤
外線カメラにより撮影された画像のグレースケール画像
から歩行者等の対象物を2値化処理によって抽出した
後、グレースケール画像上の2値化対象物の上下に設定
されたマスク領域を判定することで、2値化処理により
抽出された対象物が歩行者か否かを、歩行者の着帽、着
衣の影響や、歩行者自身の存在環境の影響を排除して的
確に判定することができると共に、更にマスク領域の判
定時に、マスク領域を間引いて探索(判定)すること
で、演算量を大幅に削減することができる。
【0065】
【発明の効果】以上の如く、請求項1に記載のナイトビ
ジョンシステムによれば、まず2値化対象物抽出手段に
より2値化対象物の位置をグレースケール画像上に認識
した後、同一距離領域抽出手段により、2値化対象物の
上下方向に人間の幅を基準とした探索領域を2値化対象
物に連続して複数個設定し、該探索領域の中から2値化
対象物と同一距離の物体を含む探索領域を抽出する。そ
して、歩行者判別手段により、2値化対象物に2値化対
象物と同一距離の物体を含む探索領域を加えた範囲の画
像の高さを基に目的の対象物の高さを求め、この対象物
の高さから目的の対象物が歩行者か否かを判断する。従
って、赤外線カメラにより捉えられた画像中の対象物の
大きさや位置を的確に判定し、安定した歩行者の検出を
行うことができるという効果が得られる。
【0066】請求項2に記載のナイトビジョンシステム
によれば、人間の高さとして適当ではない物体を予め対
象物の中から除去することで、歩行者の検出を行いやす
くすることができる。従って、赤外線カメラにより捉え
られた画像中の歩行者の検出精度を向上させることがで
きるという効果が得られる。
【図面の簡単な説明】
【図1】 本発明の第1の実施の形態のナイトビジョン
システムの構成を示すブロック図である。
【図2】 車両における赤外線カメラやセンサ、ディス
プレイ等の取り付け位置を示す図である。
【図3】 同実施の形態のナイトビジョンシステムの対
象物検出・警報動作を示すフローチャートである。
【図4】 赤外線カメラにより得られるグレースケール
画像とその2値化画像を示す図である。
【図5】 同実施の形態の警報判定処理動作を示すフロ
ーチャートである。
【図6】 衝突が発生しやすい場合を示す図である。
【図7】 車両前方の領域区分を示す図である。
【図8】 同実施の形態の歩行者判定処理動作を示すフ
ローチャートである。
【図9】 同実施の形態の歩行者判定処理動作を示すフ
ローチャートである。
【図10】 同実施の形態のグレースケール画像上のマ
スク領域設定について示す図である。
【図11】 同実施の形態の歩行者判定処理により抽出
された対象物領域について示す図である。
【図12】 同実施の形態の歩行者判定処理により対象
物から除去された歩行者以外の物体について示す図であ
る。
【図13】 本発明の第2の実施の形態の歩行者判定処
理動作を示すフローチャートである。
【図14】 同実施の形態のマスク領域探索手順につい
て示す図である。
【符号の説明】
1 画像処理ユニット 2R、2L 赤外線カメラ 3 ヨーレートセンサ 4 車速センサ 5 ブレーキセンサ 6 スピーカ 7 画像表示装置 10 自車両 S1〜S13 2値化対象物抽出手段 S41〜S53 同一距離領域抽出手段(第1の実施
の形態) S54〜S59 歩行者判別手段(第1の実施の形
態) S61〜S67 同一距離領域抽出手段(第2の実施
の形態) S68〜S73 歩行者判別手段(第2の実施の形
態)
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G08B 21/00 G08B 21/00 E U H04N 1/403 H04N 1/40 103A (72)発明者 渡辺 正人 埼玉県和光市中央1丁目4番1号 株式会 社本田技術研究所内 (72)発明者 服部 弘 埼玉県和光市中央1丁目4番1号 株式会 社本田技術研究所内 Fターム(参考) 5B057 BA02 CA02 CA08 CA13 CA16 CB18 CC01 CE12 CH08 DA06 DB02 DB05 DB09 DC03 5C077 LL20 MP01 RR02 5C086 AA54 BA22 CA12 CA28 CB36 DA01 DA33 EA45 FA01 5L096 AA06 BA02 EA43 FA66 JA11

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 2つの赤外線カメラにより捉えられた画
    像を利用して、歩行者を認識するナイトビジョンシステ
    ムであって、 前記画像のグレースケール画像を2値化処理することに
    より、前記グレースケール画像から2値化対象物を抽出
    する2値化対象物抽出手段と、 前記グレースケール画像上の前記2値化対象物の上下方
    向に、人間の幅を基準とした探索領域を前記2値化対象
    物に連続して複数個設定すると共に、前記探索領域と前
    記2値化対象物との距離をそれぞれ比較して、前記2値
    化対象物と同一距離の前記探索領域を抽出する同一距離
    領域抽出手段と、 前記2値化対象物の画像の高さに、前記2値化対象物と
    同一距離の前記探索領域の画像の高さを加えて、目的の
    対象物の高さを求めると共に、前記対象物の高さに基づ
    いて前記グレースケール画像中の歩行者を認識する歩行
    者判別手段とを備えたことを特徴とするナイトビジョン
    システム。
  2. 【請求項2】 前記歩行者判別手段が、前記対象物の高
    さと人間の高さを基準に設定された閾値との比較によ
    り、前記対象物から人間以外の物体を除去することを特
    徴とする請求項1に記載のナイトビジョンシステム。
JP2002010577A 2002-01-18 2002-01-18 ナイトビジョンシステム Expired - Fee Related JP4104867B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002010577A JP4104867B2 (ja) 2002-01-18 2002-01-18 ナイトビジョンシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002010577A JP4104867B2 (ja) 2002-01-18 2002-01-18 ナイトビジョンシステム

Publications (2)

Publication Number Publication Date
JP2003216937A true JP2003216937A (ja) 2003-07-31
JP4104867B2 JP4104867B2 (ja) 2008-06-18

Family

ID=27648277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002010577A Expired - Fee Related JP4104867B2 (ja) 2002-01-18 2002-01-18 ナイトビジョンシステム

Country Status (1)

Country Link
JP (1) JP4104867B2 (ja)

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352974A (ja) * 2004-06-14 2005-12-22 Honda Motor Co Ltd 車両周辺監視装置
JP2007183912A (ja) * 2005-12-06 2007-07-19 Nissan Motor Co Ltd 走路境界線検出装置、および走路境界線検出方法
US7370975B2 (en) 2004-11-30 2008-05-13 Honda Motor Co., Ltd. Image processing apparatus
US7388476B2 (en) 2004-11-30 2008-06-17 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7403639B2 (en) 2004-11-30 2008-07-22 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
JP2008183933A (ja) * 2007-01-26 2008-08-14 Toyota Motor Corp 赤外線暗視装置
US7483549B2 (en) 2004-11-30 2009-01-27 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7489805B2 (en) 2004-11-30 2009-02-10 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
JP2009037476A (ja) * 2007-08-02 2009-02-19 Honda Motor Co Ltd 車両周辺監視装置、車両周辺監視方法、及び車両周辺監視用プログラム
US7515737B2 (en) 2004-11-30 2009-04-07 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7526104B2 (en) 2004-11-30 2009-04-28 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7545955B2 (en) 2004-11-30 2009-06-09 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7561719B2 (en) 2004-11-30 2009-07-14 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7567688B2 (en) 2004-11-30 2009-07-28 Honda Motor Co., Ltd. Apparatus for and method of extracting image
US7580548B2 (en) 2004-11-30 2009-08-25 Honda Motor Co., Ltd. Abnormality detecting apparatus for imaging apparatus
US7590263B2 (en) 2004-11-30 2009-09-15 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
US7599521B2 (en) 2004-11-30 2009-10-06 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
US7616806B2 (en) 2004-11-30 2009-11-10 Honda Motor Co., Ltd. Position detecting apparatus and method of correcting data therein
US7620237B2 (en) 2004-11-30 2009-11-17 Honda Motor Co., Ltd. Position detecting apparatus and method of correcting data therein
US7619668B2 (en) 2004-11-30 2009-11-17 Honda Motor Co., Ltd. Abnormality detecting apparatus for imaging apparatus
EP2214149A2 (en) 2009-02-03 2010-08-04 Hitachi, Ltd. Collision avoidance assisting system for vehicle
US7885430B2 (en) 2007-04-20 2011-02-08 Honda Motor Co., Ltd. Automotive environment monitoring device, vehicle with the automotive environment monitoring device, and automotive environment monitoring program
US7925050B2 (en) 2006-10-31 2011-04-12 Honda Motor Co., Ltd. Vehicle environment monitoring apparatus
US7969466B2 (en) 2004-11-30 2011-06-28 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
WO2011155152A1 (ja) * 2010-06-07 2011-12-15 本田技研工業株式会社 車両の周辺監視装置
US8115809B2 (en) 2004-11-30 2012-02-14 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
JP2013092863A (ja) * 2011-10-25 2013-05-16 Honda Motor Co Ltd 車両周辺監視装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109522837B (zh) * 2018-11-14 2021-10-29 海信集团有限公司 一种路面检测方法及装置

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7436982B2 (en) 2004-06-14 2008-10-14 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
JP2005352974A (ja) * 2004-06-14 2005-12-22 Honda Motor Co Ltd 車両周辺監視装置
US7590263B2 (en) 2004-11-30 2009-09-15 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
US7403639B2 (en) 2004-11-30 2008-07-22 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7599521B2 (en) 2004-11-30 2009-10-06 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
US8115809B2 (en) 2004-11-30 2012-02-14 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7370975B2 (en) 2004-11-30 2008-05-13 Honda Motor Co., Ltd. Image processing apparatus
US7483549B2 (en) 2004-11-30 2009-01-27 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7489805B2 (en) 2004-11-30 2009-02-10 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7969466B2 (en) 2004-11-30 2011-06-28 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7515737B2 (en) 2004-11-30 2009-04-07 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7526104B2 (en) 2004-11-30 2009-04-28 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7545955B2 (en) 2004-11-30 2009-06-09 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7561719B2 (en) 2004-11-30 2009-07-14 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7567688B2 (en) 2004-11-30 2009-07-28 Honda Motor Co., Ltd. Apparatus for and method of extracting image
US7580548B2 (en) 2004-11-30 2009-08-25 Honda Motor Co., Ltd. Abnormality detecting apparatus for imaging apparatus
DE102005057090B4 (de) * 2004-11-30 2011-02-03 Honda Motor Co., Ltd. Vorrichtung zur und Verfahren der Bildextraktion
US7388476B2 (en) 2004-11-30 2008-06-17 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7616806B2 (en) 2004-11-30 2009-11-10 Honda Motor Co., Ltd. Position detecting apparatus and method of correcting data therein
US7620237B2 (en) 2004-11-30 2009-11-17 Honda Motor Co., Ltd. Position detecting apparatus and method of correcting data therein
US7619668B2 (en) 2004-11-30 2009-11-17 Honda Motor Co., Ltd. Abnormality detecting apparatus for imaging apparatus
DE102005056645B4 (de) * 2004-11-30 2010-09-16 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
JP2007183912A (ja) * 2005-12-06 2007-07-19 Nissan Motor Co Ltd 走路境界線検出装置、および走路境界線検出方法
US7925050B2 (en) 2006-10-31 2011-04-12 Honda Motor Co., Ltd. Vehicle environment monitoring apparatus
JP2008183933A (ja) * 2007-01-26 2008-08-14 Toyota Motor Corp 赤外線暗視装置
US7885430B2 (en) 2007-04-20 2011-02-08 Honda Motor Co., Ltd. Automotive environment monitoring device, vehicle with the automotive environment monitoring device, and automotive environment monitoring program
JP2009037476A (ja) * 2007-08-02 2009-02-19 Honda Motor Co Ltd 車両周辺監視装置、車両周辺監視方法、及び車両周辺監視用プログラム
EP2214149A2 (en) 2009-02-03 2010-08-04 Hitachi, Ltd. Collision avoidance assisting system for vehicle
US8576055B2 (en) 2009-02-03 2013-11-05 Hitachi, Ltd. Collision avoidance assisting system for vehicle
US9030560B2 (en) 2010-06-07 2015-05-12 Honda Motor Co., Ltd. Apparatus for monitoring surroundings of a vehicle
WO2011155152A1 (ja) * 2010-06-07 2011-12-15 本田技研工業株式会社 車両の周辺監視装置
JP2013092863A (ja) * 2011-10-25 2013-05-16 Honda Motor Co Ltd 車両周辺監視装置

Also Published As

Publication number Publication date
JP4104867B2 (ja) 2008-06-18

Similar Documents

Publication Publication Date Title
JP4104867B2 (ja) ナイトビジョンシステム
JP3987048B2 (ja) 車両周辺監視装置
JP4060159B2 (ja) 車両周辺監視装置
JP3934119B2 (ja) 車両周辺監視装置
JP4203512B2 (ja) 車両周辺監視装置
JP3987057B2 (ja) 車両周辺監視装置
JP3764086B2 (ja) 車両用情報提供装置
US8810653B2 (en) Vehicle surroundings monitoring apparatus
JP4410292B1 (ja) 車両の周辺監視装置
US20060115115A1 (en) Vehicle surroundings monitoring apparatus
JP2003216949A (ja) 赤外線画像処理装置
JP2005079999A (ja) 車両周辺監視装置
JP2003016429A (ja) 車両周辺監視装置
JP4094604B2 (ja) 車両周辺監視装置
JP4425852B2 (ja) 車両周辺監視装置
JP3839329B2 (ja) ナイトビジョンシステム
JP2006151300A (ja) 車両周辺監視装置
JP3970876B2 (ja) 車両周辺監視装置
JP3844750B2 (ja) 赤外線画像認識装置、及び赤外線画像認識装置を用いた警報装置
JP3898157B2 (ja) 赤外線画像認識装置
JP4567072B2 (ja) 車両周辺監視装置
JP4647648B2 (ja) 車両周辺監視装置
JP3939626B2 (ja) 車両周辺監視装置
JP4372746B2 (ja) 車両周辺監視装置
JP4358183B2 (ja) 車両周辺監視装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080326

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140404

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees