JP2004135034A - Vehicle periphery monitoring unit - Google Patents

Vehicle periphery monitoring unit Download PDF

Info

Publication number
JP2004135034A
JP2004135034A JP2002297220A JP2002297220A JP2004135034A JP 2004135034 A JP2004135034 A JP 2004135034A JP 2002297220 A JP2002297220 A JP 2002297220A JP 2002297220 A JP2002297220 A JP 2002297220A JP 2004135034 A JP2004135034 A JP 2004135034A
Authority
JP
Japan
Prior art keywords
pedestrian
image
vehicle
binarized
height
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002297220A
Other languages
Japanese (ja)
Other versions
JP3939626B2 (en
Inventor
Shinji Nagaoka
長岡 伸治
Takayuki Tsuji
辻 孝之
Masato Watanabe
渡辺 正人
Hiroshi Hattori
服部 弘
Izumi Takatsudo
高津戸 泉
Masakazu Saka
坂 雅和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2002297220A priority Critical patent/JP3939626B2/en
Priority to DE10301468A priority patent/DE10301468B4/en
Priority to US10/346,517 priority patent/US7130448B2/en
Publication of JP2004135034A publication Critical patent/JP2004135034A/en
Application granted granted Critical
Publication of JP3939626B2 publication Critical patent/JP3939626B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle periphery monitoring unit which stably extracts a walker by exactly deciding an unshaped binarized object extracted from an image photographed by a camera. <P>SOLUTION: An image processing unit calculates binarized object shape feature quantities in the real space by utilizing the center of gravity and the area of the object, the distance from its own vehicle, and further the aspect ratio, a height and a width of a circumscribed rectangular shape of the object and the coordinate values of the center of gravity (S41). Then when it does not rain around the vehicle, the unit obtains the height of the object in a gray-scale image (S42), and sets a plurality of mask regions in the gray-scale object and calculates a luminance mean value and a luminance change (dispersion) of each mask (S43). The unit decides whether the height, width, presence height, luminance means value, luminance dispersion, etc., of the object are values within suitable ranges as the walker (S44 to S48). If it is decided that any is not in the suitable range as a pedestrian, it is decided that the object is not a pedestrian (S49). <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
この発明は、赤外線カメラにより撮影された画像の2値化処理により、対象物抽出を行う車両周辺監視装置に関する。
【0002】
【従来の技術】
従来の車両周辺監視装置は、例えば赤外線カメラ等の撮像手段により捉えられた自車両周辺の画像から、自車両との衝突の可能性がある歩行者等の対象物を抽出し、その情報を自車両の運転者に提供する。この装置では、左右一組のステレオカメラが撮影した自車両周辺の画像において温度が高い部分を対象物とすると共に、対象物の視差を求めることにより該対象物までの距離を算出し、これらの対象物の移動方向や対象物の位置から、自車両の走行に影響を与えそうな対象物を検出して警報を出力する(例えば、特許文献1参照。)。
【0003】
【特許文献1】
特開2001−6096号公報
【0004】
【発明が解決しようとする課題】
ところで、従来の装置のように、形状判定のみで歩行者の抽出を行った場合、赤外線画像上での歩行者は、着帽、着衣の影響や、歩行者自身の存在環境によって、その2値化形状は不定形であったり、また、一般的に車両走行時には、前方路面の形状の変化や、車両のピッチングの影響があり、歩行者も子供から大人まで本来とは異なる身長で検出されるため、対象物の画面での重心座標が距離に対して固定化できず、歩行者のみを安定して抽出できない可能性がある。
【0005】
そのため、従来からグレースケール画像上から対象物の実空間での大きさを算出すると共に、2値化対象物が存在する位置関係により歩行者らしき対象物のみを抽出する手法や、2値化対象物から道路構造物や車両を抽出し、歩行者以外の対象物として警報対象物から除外する手法が提案されているものの、車両が降雨の中を走行している場合(雨天時)、対象物も降雨の影響を受けて赤外線の放射量に変化が発生するため、歩行者のみを安定して抽出できない可能性があるという問題があった。
【0006】
すなわち、一般環境において看板や壁、電柱等、自らは発熱せずに外部より与えられた熱のみを蓄熱する蓄熱体は降雨により温度が低下するために赤外線画像上には出現しなくなり(赤外線カメラでは検出されなくなり)、自動販売機などの自ら発熱する発熱体は、赤外線カメラで検出されるものの、赤外線放射部分は減少(限りなく無いに等しい)し、正確な形状の判定が困難になる傾向がある。
また、人間も露出している部分(頭等)は検出されるが、衣服で覆われている部分は、衣服の濡れによって赤外線カメラでは検出されなくなる。このように、雨天時とそれ以外の時では、同一地点であっても車両周囲の状況が変化し、赤外線カメラで検出されたグレースケール画像上での全ての対象物の形状が変化するため、従来の手法では歩行者のみを安定して抽出できない可能性があった。
更に、雨天時は、カメラレンズ表面に降雨が付着するため、画像上の対象物形状が不明瞭になる傾向にあり、更に対象物の形状判定を困難にするという問題があった。
【0007】
本発明は、上記課題に鑑みてなされたもので、カメラにより撮影された画像から抽出される不定形な2値化対象物を的確に判定し、安定した歩行者の抽出を行う車両周辺監視装置を提供することを目的とする。
【0008】
【課題を解決するための手段】
上記課題を解決するために、請求項1の発明に係る車両周辺監視装置は、赤外線カメラにより撮影された赤外線画像から、車両の周辺に存在する物体を検出する車両周辺監視装置であって、前記車両の周囲の天候を検知する天候検知手段(例えば実施の形態のステップS41−1)と、前記赤外線画像から赤外線を発する対象物を抽出する対象物抽出手段(例えば実施の形態のステップS1〜ステップS13)と、前記対象物抽出手段により抽出された対象物から、自らは発熱せずに外部より与えられた熱のみを蓄熱する蓄熱体を抽出する蓄熱体抽出手段(例えば実施の形態のステップS45、S46、S47、S52、S53、S53−1、S60、S61、S62)と、前記天候検知手段により前記車両の周囲の天候が雨天であると判断された場合には、前記対象物の中から歩行者を認識し、それ以外の場合には、前記蓄熱体抽出手段により抽出された前記蓄熱体を除く前記対象物の中から歩行者を認識する歩行者認識手段(例えば実施の形態のステップS48〜ステップS50、ステップS54〜ステップS59、ステップS63〜ステップS80)とを備えたことを特徴とする。
【0009】
以上の構成を備えた車両周辺監視装置は、天候検知手段により車両の周囲の天候が雨天であると判断された場合には、対象物抽出手段により抽出した対象物が放射する赤外線量が減少するので、歩行者認識手段は、抽出された対象物の中から直接歩行者を認識する。一方、車両の周囲の天候がそれ以外であると判断された場合には、対象物抽出手段により抽出した対象物が放射する赤外線量によって、自らは発熱せずに外部より与えられた熱のみを蓄熱する蓄熱体を抽出する蓄熱体と歩行者のように自ら熱を発する発熱体との差異が、対象物画像の輝度分散に現れるので、蓄熱体抽出手段により対象物から蓄熱体を抽出し、歩行者認識手段は、蓄熱体を除く対象物の中から歩行者を認識することで、車両周囲の状況に応じて適切な歩行者認識を行うことができる。
【0010】
請求項2の発明に係る車両周辺監視装置は、請求項1に記載の車両周辺監視装置において、前記歩行者認識手段が、前記対象物の形状を判定する形状判定手段(例えば実施の形態のS59、S73)を含み、前記天候検知手段により前記車両の周囲の天候が雨天であると判断された場合には、前記形状判定手段を停止することを特徴とする。
以上の構成を備えた車両周辺監視装置は、天候検知手段により車両の周囲の天候が雨天であると判断された場合には、形状判定処理を停止することで、カメラレンズ表面に降雨が付着するために不明瞭になった画像上の対象物形状が、歩行者認識手段において誤判定されることを防止することができる。
【0011】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について説明する。
図1は、本発明の一実施の形態の車両周辺監視装置の構成を示すブロック図である。
図1において、符号1は、本実施の形態の車両周辺監視装置を制御するCPU(中央演算装置)を備えた画像処理ユニットであって、遠赤外線を検出可能な2つの赤外線カメラ2R、2Lと当該車両のヨーレートを検出するヨーレートセンサ3、更に、当該車両の走行速度(車速)を検出する車速センサ4とブレーキの操作を検出するためのブレーキセンサ5が接続される。これにより、画像処理ユニット1は、車両の周辺の赤外線画像と車両の走行状態を示す信号から、車両前方の歩行者や動物等を検出し、衝突の可能性が高いと判断したときに警報を発する。
【0012】
また、画像処理ユニット1には、音声で警報を発するためのスピーカ6と、赤外線カメラ2R、2Lにより撮影された画像を表示し、衝突の危険性が高い対象物を車両の運転者に認識させるための、例えば自車両の走行状態を数字で表すメータと一体化されたメータ一体Displayや自車両のコンソールに設置されるNAVIDisplay、更にフロントウィンドウの運転者の前方視界を妨げない位置に情報を表示するHUD(Head Up Display )7a等を含む画像表示装置7が接続されている。
【0013】
また、画像処理ユニット1は、入力アナログ信号をディジタル信号に変換するA/D変換回路、ディジタル化した画像信号を記憶する画像メモリ、各種演算処理を行うCPU(中央演算装置)、CPUが演算途中のデータを記憶するために使用するRAM(Random Access Memory)、CPUが実行するプログラムやテーブル、マップなどを記憶するROM(Read Only Memory)、スピーカ6の駆動信号、HUD7a等の表示信号などを出力する出力回路を備えており、赤外線カメラ2R、2L及びヨーレートセンサ3、車速センサ4、ブレーキセンサ5の各出力信号は、ディジタル信号に変換されてCPUに入力されるように構成されている。
【0014】
また、図2に示すように、赤外線カメラ2R、2Lは、自車両10の前部に、自車両10の車幅方向中心部に対してほぼ対象な位置に配置されており、2つの赤外線カメラ2R、2Lの光軸が互いに平行であって、かつ両者の路面からの高さが等しくなるように固定されている。なお、赤外線カメラ2R、2Lは、対象物の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。
また、HUD7aは、自車両10のフロントウインドウの運転者の前方視界を妨げない位置に表示画面が表示されるように設けられている。
【0015】
次に、本実施の形態の動作について図面を参照して説明する。
図3は、本実施の形態の車両周辺監視装置の画像処理ユニット1における歩行者等の対象物検出・警報動作を示すフローチャートである。
まず、画像処理ユニット1は、赤外線カメラ2R、2Lの出力信号である赤外線画像を取得して(ステップS1)、A/D変換し(ステップS2)、グレースケール画像を画像メモリに格納する(ステップS3)。なお、ここでは赤外線カメラ2Rにより右画像が得られ、赤外線カメラ2Lにより左画像が得られる。また、右画像と左画像では、同一の対象物の表示画面上の水平位置がずれて表示されるので、このずれ(視差)によりその対象物までの距離を算出することができる。
【0016】
ステップS3においてグレースケール画像が得られたら、次に、赤外線カメラ2Rにより得られた右画像を基準画像とし、その画像信号の2値化処理、すなわち、輝度閾値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う(ステップS4)。
図4(a)は、赤外線カメラ2Rにより得られたグレースケール画像を示し、これに2値化処理を行うことにより、図4(b)に示すような画像を得る。なお、図4(b)において、例えばP1からP4の枠で囲った物体を、表示画面上に白色として表示される対象物(以下「高輝度領域」という)とする。
赤外線画像から2値化された画像データを取得したら、2値化した画像データをランレングスデータに変換する処理を行う(ステップS5)。ランレングスデータにより表されるラインは、2値化により白となった領域を画素レベルで示したもので、いずれもy方向には1画素の幅を有しており、またx方向にはそれぞれランレングスデータを構成する画素の長さを有している。
【0017】
次に、ランレングスデータに変換された画像データから、対象物のラベリングをする(ステップS6)ことにより、対象物を抽出する処理を行う(ステップS7)。すなわち、ランレングスデータ化したラインのうち、y方向に重なる部分のあるラインを1つの対象物とみなすことにより、例えば図4(b)に示す高輝度領域P1からP4が、それぞれ対象物(2値化対象物)として把握されることになる。
対象物の抽出が完了したら、次に、抽出した対象物の重心G、面積S及び外接四角形の縦横比ASPECTを算出する(ステップS8)。
【0018】
ここで、面積Sは、ラベルAの対象物のランレングスデータを(x[i]、y[i]、run[i]、A)(i=0,1,2,・・・N−1)とすると、ランレングスデータの長さ(run[i]−1)を同一対象物(N個のランレングスデータ)について積算することにより算出する。また、対象物Aの重心Gの座標(xc、yc)は、各ランレングスデータの長さ(run[i]−1)と各ランレングスデータの座標x[i]、またはy[i]とをそれぞれ掛け合わせ、更にこれを同一対象物について積算したものを、面積Sで割ることにより算出する。
更に、縦横比ASPECTは、対象物の外接四角形の縦方向の長さDyと横方向の長さDxとの比Dy/Dxとして算出する。
なお、ランレングスデータは画素数(座標数)(=run[i])で示されているので、実際の長さは「−1」する(1を減算する)必要がある(=run[i]−1)。また、重心Gの位置は、外接四角形の重心位置で代用してもよい。
【0019】
対象物の重心、面積、外接四角形の縦横比が算出できたら、次に、対象物の時刻間追跡、すなわちサンプリング周期毎の同一対象物の認識を行う(ステップS9)。時刻間追跡は、アナログ量としての時刻tをサンプリング周期で離散化した時刻をkとし、例えば時刻kで対象物A、Bを抽出したら、時刻(k+1)で抽出した対象物C、Dと対象物A、Bとの同一性判定を行う。そして、対象物A、Bと対象物C、Dとが同一であると判定されたら、対象物C、Dをそれぞれ対象物A、Bというラベルに変更することにより、時刻間追跡が行われる。
また、このようにして認識された各対象物の(重心の)位置座標は、時系列位置データとしてメモリに格納され、後の演算処理に使用される。
【0020】
なお、以上説明したステップS4〜S9の処理は、2値化した基準画像(本実施の形態では、右画像)について実行する。
次に、車速センサ4により検出される車速VCAR及びヨーレートセンサ3より検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することより、自車両10の回頭角θrを算出する(ステップS10)。
【0021】
一方、ステップS9とステップS10の処理に平行して、ステップS11〜S13では、対象物と自車両10との距離zを算出する処理を行う。この演算はステップS9、及びステップS10より長い時間を要するため、ステップS9、S11より長い周期(例えばステップS1〜S10の実行周期の3倍程度の周期)で実行される。
まず、基準画像(右画像)の2値化画像によって追跡される対象物の中の1つを選択することにより、右画像から探索画像R1(ここでは、外接四角形で囲まれる領域全体を探索画像とする)を抽出する(ステップS11)。
【0022】
次に、左画像中から探索画像R1に対応する画像(以下「対応画像」という)を探索する探索領域を設定し、相関演算を実行して対応画像を抽出する(ステップS12)。具体的には、探索画像R1の各頂点座標に応じて、左画像中に探索領域R2を設定し、探索領域R2内で探索画像R1との相関の高さを示す輝度差分総和値C(a,b)を算出し、この総和値C(a,b)が最小となる領域を対応画像として抽出する。なお、この相関演算は、2値化画像ではなくグレースケール画像を用いて行う。
また同一対象物についての過去の位置データがあるときは、その位置データに基づいて探索領域R2より狭い領域R2aを探索領域として設定する。
【0023】
ステップS12の処理により、基準画像(右画像)中に探索画像R1と、左画像中にこの対象物に対応する対応画像R4とが抽出されるので、次に、探索画像R1の重心位置と対応画像R4の重心位置と視差量Δd(画素数)を求め、これから自車両10と対象物との距離zを算出する(ステップS13)。
次に、ステップS10における回頭角θrの算出と、ステップS13における対象物との距離算出が完了したら、画像内の座標(x,y)及び距離zを実空間座標(X,Y,Z)に変換する(ステップS14)。
ここで、実空間座標(X,Y,Z)は、図2に示すように、赤外線カメラ2R、2Lの取り付け位置の中点の位置(自車両10に固定された位置)を原点Oとして、図示のように定め、画像内の座標は、画像の中心を原点として水平方向をx、垂直方向をyと定めている。
【0024】
また、実空間座標が求められたら、自車両10が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う(ステップS15)。回頭角補正は、時刻kから(k+1)までの期間中に自車両10が例えば左方向に回頭角θrだけ回頭すると、カメラによって得られる画像上では、画像の範囲がΔxだけx方向にずれるので、これを補正する処理である。
なお、以下の説明では、回頭角補正後の座標を(X,Y,Z)と表示する。
【0025】
実空間座標に対する回頭角補正が完了したら、次に、同一対象物について、ΔTのモニタ期間内に得られた、回頭角補正後のN個(例えばN=10程度)の実空間位置データ、すなわち時系列データから、対象物と自車両10との相対移動ベクトルに対応する近似直線LMVを求める。
次いで、最新の位置座標P(0)=(X(0),Y(0),Z(0))と、(N−1)サンプル前(時間ΔT前)の位置座標P(Nー1)=(X(N−1),Y(N−1),Z(N−1))を近似直線LMV上の位置に補正し、補正後の位置座標Pv(0)=(Xv(0),Yv(0),Zv(0))及びPv(N−1)=(Xv(N−1),Yv(N−1),Zv(N−1))を求める。
【0026】
これにより、位置座標Pv(N−1)からPv(0)に向かうベクトルとして、相対移動ベクトルが得られる(ステップS16)。
このようにモニタ期間ΔT内の複数(N個)のデータから対象物の自車両10に対する相対移動軌跡を近似する近似直線を算出して相対移動ベクトルを求めることにより、位置検出誤差の影響を軽減して対象物との衝突の可能性をより正確に予測することが可能となる。
【0027】
また、ステップS16において、相対移動ベクトルが求められたら、次に、検出した対象物との衝突の可能性を判定する警報判定処理を行う(ステップS17)。なお、警報判定処理については、詳細を後述する。
ステップS17において、自車両10と検出した対象物との衝突の可能性がないと判定された場合(ステップS17のNO)、ステップS1へ戻り、上述の処理を繰り返す。
また、ステップS17において、自車両10と検出した対象物との衝突の可能性があると判定された場合(ステップS17のYES)、ステップS18の警報出力判定処理へ進む。
【0028】
ステップS18では、ブレーキセンサ5の出力BRから自車両10の運転者がブレーキ操作を行っているか否かを判別することにより、警報出力判定処理、すなわち警報出力を行うか否かの判定を行う(ステップS18)。
もし、自車両10の運転者がブレーキ操作を行っている場合には、それによって発生する加速度Gs(減速方向を正とする)を算出し、この加速度Gsが所定閾値GTHより大きいときは、ブレーキ操作により衝突が回避されると判定して警報出力判定処理を終了し(ステップS18のNO)、ステップS1へ戻り、上述の処理を繰り返す。
これにより、適切なブレーキ操作が行われているときは、警報を発しないようにして、運転者に余計な煩わしさを与えないようにすることができる。
【0029】
また、加速度Gsが所定閾値GTH以下であるとき、または自車両10の運転者がブレーキ操作を行っていなければ、直ちにステップS19の処理へ進み(ステップS18のYES)、対象物と接触する可能性が高いので、スピーカ6を介して音声による警報を発する(ステップS19)とともに、画像表示装置7に対して、例えば赤外線カメラ2Rにより得られる画像を出力し、接近してくる対象物を自車両10の運転者に対する強調映像として表示する(ステップS20)。
なお、所定閾値GTHは、ブレーキ操作中の加速度Gsがそのまま維持された場合に、対象物と自車両10との距離Zv(0)以下の走行距離で自車両10が停止する条件に対応する値である。
【0030】
以上が、本実施の形態の車両周辺監視装置の画像処理ユニット1における対象物検出・警報動作であるが、次に、図5に示すフローチャートを参照して、図3に示したフローチャートのステップS17における警報判定処理について更に詳しく説明する。
図5は、本実施の形態の警報判定処理動作を示すフローチャートである。
警報判定処理は、以下に示す衝突判定処理、接近判定領域内か否かの判定処理、進入衝突判定処理、歩行者判定処理、及び人工構造物判定処理により、自車両10と検出した対象物との衝突の可能性を判定する処理である。以下、図6に示すように、自車両10の進行方向に対してほぼ90°の方向から、速度Vpで進行してくる対象物20がいる場合を例に取って説明する。
【0031】
図5において、まず、画像処理ユニット1は衝突判定処理を行う(ステップS31)。衝突判定処理は、図6において、対象物20が時間ΔTの間に距離Zv(N−1)から距離Zv(0)に接近した場合に、自車両10とのZ方向の相対速度Vsを求め、両者が高さH以内で相対速度Vsを維持して移動すると仮定して、余裕時間T以内に両者が衝突するか否かを判定する処理である。ここで、余裕時間Tは、衝突の可能性を予測衝突時刻より時間Tだけ前に判定することを意図したものである。従って、余裕時間Tは例えば2〜5秒程度に設定される。またHは、高さ方向の範囲を規定する所定高さであり、例えば自車両10の車高の2倍程度に設定される。
【0032】
次に、ステップS31において、余裕時間T以内に自車両10と対象物とが衝突する可能性がある場合(ステップS31のYES)、更に判定の信頼性を上げるために、画像処理ユニット1は対象物が接近判定領域内に存在するか否かの判定処理を行う(ステップS32)。接近判定領域内か否かの判定処理は、図7に示すように、赤外線カメラ2R、2Lで監視可能な領域を太い実線で示す外側の三角形の領域AR0とすると、領域AR0内の、Z1=Vs×Tより自車両10に近い領域であって、対象物が自車両10の車幅αの両側に余裕β(例えば50〜100cm程度とする)を加えた範囲に対応する領域AR1、すなわち対象物がそのまま存在し続ければ自車両10との衝突の可能性がきわめて高い接近判定領域AR1内に存在するか否かを判定する処理である。なお、接近判定領域AR1も所定高さHを有する。
【0033】
更に、ステップS32において、対象物が接近判定領域内に存在しない場合(ステップS32のNO)、画像処理ユニット1は対象物が接近判定領域内へ進入して自車両10と衝突する可能性があるか否かを判定する進入衝突判定処理を行う(ステップS33)。進入衝突判定処理は、上述の接近判定領域AR1よりX座標の絶対値が大きい(接近判定領域の横方向外側の)領域AR2、AR3を進入判定領域と呼び、この領域内にある対象物が、移動することにより接近判定領域AR1に進入すると共に自車両10と衝突するか否かを判定する処理である。
なお、進入判定領域AR2、AR3も所定高さHを有する。
【0034】
一方、ステップS32において、対象物が接近判定領域内に存在している場合(ステップS32のYES)、画像処理ユニット1は対象物が歩行者の可能性があるか否かを判定する歩行者判定処理を行う(ステップS34)。なお、歩行者判定処理については、詳細を後述する。
また、ステップS34において、対象物は歩行者の可能性があると判定された場合(ステップS34のYES)、更に判定の信頼性を上げるために、対象物が人工構造物であるか否かを判定する人工構造物判定処理を行う(ステップS35)。人工構造物判定処理は、対象物画像に、例えば以下に示すような歩行者にはあり得ない特徴が検出された場合、該対象物を人工構造物と判定し、警報の対象から除外する処理である。
(1)対象物の画像に直線エッジを示す部分が含まれる場合。
(2)対象物の画像の角が直角である場合。
(3)対象物の画像に同じ形状のものが複数含まれている場合。
(4)対象物の画像が予め登録された人口構造物の形状と一致する場合。
【0035】
従って、上述のステップS33において、対象物が接近判定領域内へ進入して自車両10と衝突する可能性がある場合(ステップS33のYES)、及びステップS35において、歩行者の可能性があると判定された対象物が人工構造物でなかった場合(ステップS35のNO)、画像処理ユニット1は、自車両10と検出した対象物との衝突の可能性がある(警報の対象である)と判定し(ステップS36)、図3に示すステップS17のYESとしてステップS18へ進み、警報出力判定処理(ステップS18)を行う。
【0036】
一方、上述のステップS31において、余裕時間T以内に自車両10と対象物とが衝突する可能性がない場合(ステップS31のNO)、あるいはステップS33において、対象物が接近判定領域内へ進入して自車両10と衝突する可能性がない場合(ステップS33のNO)、あるいはステップS34において、対象物は歩行者の可能性がないと判定された場合(ステップS34のNO)、更にはステップS35において、歩行者の可能性があると判定された対象物が人工構造物であった場合(ステップS35のYES)のいずれかであった場合は、画像処理ユニット1は、自車両10と検出した対象物との衝突の可能性がない(警報の対象ではない)と判定し(ステップS37)、図3に示すステップS17のNOとしてステップS1へ戻り、歩行者等の対象物検出・警報動作を繰り返す。
【0037】
次に、図8から図13に示すフローチャートを参照して、図5に示したフローチャートのステップS34における歩行者判定処理について更に詳しく説明する。図8から図13は、本実施の形態の歩行者判定処理動作を示すフローチャートである。
図8において、まず、画像処理ユニット1は、図3に示したフローチャートのステップS8において算出された2値化対象物の重心G(xc、yc)(図14に示す2値化対象物の重心G100)、面積S(図14に示す2値化対象物面積S101)、更に対象物の外接四角形の縦横比ASPECT、及びステップS13において算出された自車両10と対象物との距離zに加えて、図14に示す2値化対象物の外接四角形の高さhbと幅wb、及び外接四角形重心座標(xb、yb)(図14に示す外接四角形重心102)の値を利用して、実空間での2値化対象物の形状の特徴を示す2値化対象物形状特徴量を算出する(ステップS41)。なお、求める2値化対象物形状特徴量は、カメラの基線長D[m]、カメラ焦点距離f[m]、画素ピッチp[m/pixel]、及び左右映像の相関演算によって算出される視差量Δd[pixel]を用いて算出する。
【0038】
具体的には、外接四角形と対象物面積の比率Rateは、
Rate=S/(hb×wb)     ・・・(1)
外接四角形の縦横比ASPECTを表すAspは、
Asp=hb/wb          ・・・(2)
自車両10と対象物との距離zは、
z=(f×D)/(Δd×p)     ・・・(3)
と表されるので、
実空間における2値化対象物の幅ΔWbや高さΔHbは、
ΔWb=wb×z×p/f
ΔHb=hb×z×p/f       ・・・(4)
【0039】
2値化対象物の重心座標(Xc,Yc,Zc)は、
Xc=xc×z×p/f
Yc=yc×z×p/f
Zc=z               ・・・(5)
対象物外接四角形重心座標(Xb,Yb,Zb)は、
Xb=xb×z×p/f
Yb=yb×z×p/f
Zb=z               ・・・(6)
2値化対象物の上端位置座標(Xt,Yt,Zt)は、
Xt=xb×z×p/f
Yt=yb×z×p/f−ΔHb/2
Zt=z               ・・・(7)
で算出することができる。
【0040】
また、2値化対象物形状特徴量を算出したら、次に自車両10の周囲の天候を検知する天候検知処理を行う(ステップS41−1)。
天候検知処理は、例えば赤外線カメラ2Rにより得られたグレースケール画像の輝度ヒストグラムを求め、該輝度ヒストグラムに基づいて自車両10の周囲の天候を判断する処理であって、特に、自車両10の周囲の天候が雨天であるか否かを判断する処理である。具体的には、例えば図17(a)に示すような晴天時のグレースケール画像と、図17(b)に示すような雨天時のグレースケール画像とでは、降雨による温度低下により対象物の放射する赤外線量に差が出てくるため、それぞれの輝度ヒストグラムを求めると、図18に示すような結果が得られる。
【0041】
図18は、雨天時のグレースケール画像の輝度ヒストグラムと、晴天時のグレースケール画像の輝度ヒストグラムとを比較したグラフであって、図18に示すように、雨天時は、例えば晴天時等それ以外の場合に比べ、画像全体の輝度ヒストグラムの標準偏差σが小さくなる(2σの間隔が狭くなる)傾向にある。そこで、画像全体の輝度ヒストグラムの標準偏差σが閾値TH24未満である場合に、自車両10の周囲の天候を雨天と判定する。
【0042】
なお、自車両10の周囲の天候が雨天であるか否かの判断は、上述のようなグレースケール画像の輝度ヒストグラムによらず、自車両10に搭載された降雨を検知するための雨滴センサからの信号や、ウィンドウガラスの雨滴を拭うためのワイパーの作動を制御する信号(例えばワイパーのON/OFF信号等)に基づいて判断しても良い。
【0043】
そして、ステップS41−1において、自車両10の周囲の天候を判断できたら、自車両10の周囲の天候が雨天か否かを判定する(ステップS41−2)。
もし、ステップS41−2において、自車両10の周囲の天候が雨天ではなかった場合(ステップS41−2のNO)、次に、図3に示したフローチャートのステップS3において取得されたグレースケール画像を用いて、ステップS7において抽出された2値化対象物を含むグレースケール画像上の対象物の高さを求める(ステップS42)。
【0044】
グレースケール画像上の対象物の高さの求め方は、所定の大きさのマスク領域を、2値化対象物外接四角形の上端から複数個並べてグレースケール画像上に設定し、マスク領域内の輝度変化が大きく(対象物と背景画像とが含まれている)、かつ左右の画像間のマスク領域の相関度が高い(マスク領域内に2つ以上の対象物が存在しない)と共に、更に2値化対象物と同距離(同視差)であるマスク領域を包含する領域をグレースケール対象物の領域として抽出する。
そして、画像上でのグレースケール対象物の領域の高さHeight(pixel)を算出し、(8)式によりグレースケール対象物の高さΔHgを算出する。
ΔHg=z×Height×p/f   ・・・(8)
【0045】
また、図15に示すように、画像上でのグレースケール対象物の領域をAREA0とし、その中にマスク領域AREA1、AREA2、AREA3を設定し、各マスクの輝度平均値と、輝度変化(分散)を算出する(ステップS43)。ここで、AREA1の輝度平均値をAve_A1、AREA2の輝度分散をVar_A2、AREA3の輝度分散をVar_A3とする。なお、以下の処理において、AREA1は対象物の頭の存在判定に、AREA2は対象物の胴体の存在判定に、更にAREA3は頭部から下半身にかけての形状変化の存在判定にそれぞれ使用する。また、AREA3は、例えば壁のような自らは発熱せずに外部より与えられた熱のみを蓄熱する蓄熱体であって、単調な輝度変化を示す対象物の一部が2値化処理により抽出された場合、これを歩行者と識別するためにも用いる。なお、図15はカメラで捉えられた歩行者を模式的に表したもので、斜線の領域が2値化で捉えられた対象物の部位であり、点線で囲まれた領域が2値化では捉えられていないが、グレースケール画像で背景に対して物体の存在が確認できる対象物の部位を表す。また、図15に示した各部の寸法は、実空間での各部の寸法の一例である。
【0046】
そして、マスク領域AREA1、AREA2、AREA3の設定が完了したら、以下に示す2値化対象物の形状による歩行者判定及びグレースケール画像の各マスク領域の輝度分散を利用した歩行者判定を実行する。
まず、画像処理ユニット1は、2値化対象物の高さ、幅、存在高さ、輝度平均値、輝度分散について、歩行者として適当な範囲内の値か否かを判定する。
具体的には、歩行者を対象とするため、2値化対象物の幅ΔWbが閾値TH1以上TH2以下(歩行者の幅として適当な値)か否かを判定する(ステップS44)。
【0047】
また、ステップS41−2において、自車両10の周囲の天候が雨天であった場合(ステップS41−2のYES)、ステップS42やステップS43におけるグレースケール画像上の対象物の高さ算出やマスク領域AREA1、AREA2、AREA3の設定を行わず、ステップS44へ進み、歩行者を対象とするため、2値化対象物の幅ΔWbが閾値TH1以上TH2以下か否かを判定する(ステップS44)。
【0048】
また、ステップS44において、2値化対象物の幅ΔWbが閾値TH1以上TH2以下であった場合(ステップS44のYES)、自車両10の周囲の天候が雨天か否かを判定する(ステップS44−1)。
そして、ステップS44−1において、自車両10の周囲の天候が雨天ではなかった場合(ステップS44−1のNO)、2値化対象物の高さΔHbが閾値TH3(歩行者の高さとして適当な値)未満で、かつグレースケール対象物の高さΔHgが閾値TH4(歩行者の高さとして適当な値)未満か否かを判定する(ステップS45)。
【0049】
一方、ステップS44−1において、自車両10の周囲の天候が雨天であった場合(ステップS44−1のYES)、2値化対象物の高さΔHbが閾値TH3(歩行者の高さとして適当な値)未満か否かを判定する(ステップS45−1)。
そして、ステップS45において、2値化対象物の高さΔHbが閾値TH3未満で、かつグレースケール対象物の高さΔHgが閾値TH4未満であった場合(ステップS45のYES)、あるいはステップS45−1において、2値化対象物の高さΔHbが閾値TH3未満であった場合(ステップS45−1のYES)、路面からの対象物の上端高さ位置Ytが閾値TH5(歩行者の高さとして適当な値)未満か否かを判定する(ステップS46)。
【0050】
また、ステップS46において、路面からの対象物の上端高さ位置Ytが閾値TH5未満であった場合(ステップS46のYES)、自車両10の周囲の天候が雨天か否かを判定する(ステップS46−1)。
そして、ステップS46−1において、自車両10の周囲の天候が雨天ではなかった場合(ステップS46−1のNO)、マスク領域AREA3の輝度分散Var_A3が閾値TH6より大きいか否かを判定する(ステップS47)。この処理を、図16の対象物が歩行者の一部あるいは全体である場合や壁の場合のマスク領域AREA3の輝度分散を示した図を用いて説明する。
【0051】
具体的には、マスク領域AREA3の領域幅を2値化対象物幅とすることで、図16(a)に示すように、歩行者の頭部のみが2値化処理により抽出された場合は、下半身部位との輝度差が生じる。また、図16(b)に示すように、少なくとも歩行者の上半身、または全身が2値化処理により抽出された場合には、背景領域(画像)との輝度差が生じる。一方、図16(c)に示すように、壁のように対象物全体の温度差が少ない対象物の場合、2値化抽出部位とそうでない部位の輝度差は少なく、また、対象物はAREA3のように直線部位で構成されている。このため、AREA3の輝度分散Var_A3は、歩行者の場合には高い値、壁のような対象物の場合には低い値を示す。
従って、ステップS47では、マスク領域AREA3の輝度分散Var_A3が閾値TH6より大きいか否かを判定することで、対象物が歩行者であるか否かを判定する。
【0052】
更に、ステップS47において、マスク領域AREA3の輝度分散Var_A3が閾値TH6より大きかった場合(ステップS47のYES)、対象物形状の時間変化による歩行者判定を行う。
具体的には、歩行者の2値化対象物を対象とするため、2値化対象物形状が時間的に大きく変化することはないと考えられる。このため、規定時間内の外接四角形の面積と2値化対象物の面積比率であるRateの最大値Max_Rateと最小値Min_Rateの差分が閾値TH7未満であるか否かを判定する(ステップS48)。
【0053】
また、ステップS46−1において、自車両10の周囲の天候が雨天であった場合(ステップS46−1のYES)、ステップS47におけるマスク領域AREA3の輝度分散Var_A3の判定は行わず、ステップS48へ進み、規定時間内の外接四角形の面積と2値化対象物の面積比率であるRateの最大値Max_Rateと最小値Min_Rateの差分が閾値TH7未満であるか否かを判定する(ステップS48)。
【0054】
一方、ステップS44において、2値化対象物の幅ΔWbが閾値TH1未満か、またはTH2より大きかった場合(ステップS44のNO)、あるいはステップS45において、2値化対象物の高さΔHbが閾値TH3以上か、またはグレースケール対象物の高さΔHgが閾値TH4以上であった場合(ステップS45のNO)、あるいはステップS45−1において、2値化対象物の高さΔHbが閾値TH3以上であった場合(ステップS45−1のNO)、あるいはステップS46において、路面からの対象物の上端高さ位置Ytが閾値TH5以上であった場合(ステップS46のNO)のいずれかであった場合は、検出された対象物は歩行者ではないと判定して(ステップS49)歩行者判定処理を終了し、図5に示すステップS34のNOとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
【0055】
同様に、ステップS47において、マスク領域AREA3の輝度分散が閾値TH6以下であった場合(ステップS47のNO)、更にはステップS48において、規定時間内の外接四角形の面積と2値化対象物の面積比率であるRateの最大値Max_Rateと最小値Min_Rateの差分(Max_Rate−Min_Rate)が閾値TH7以上であった場合(ステップS48のNO)のいずれかであった場合は、検出された対象物は歩行者ではないと判定して(ステップS49)歩行者判定処理を終了し、図5に示すステップS34のNOとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
【0056】
また、ステップS48において、規定時間内の外接四角形の面積と2値化対象物の面積比率であるRateの最大値Max_Rateと最小値Min_Rateの差分が閾値TH7未満であった場合(ステップS48のYES)、次に、画像処理ユニット1は、更に詳細に抽出された対象物の形状毎の歩行者判定を行う。
具体的には、まず、路面からの対象物の上端高さ位置Ytが閾値TH8(歩行者の上半身と下半身を区別できる高さとして適当な値)より大きいか否かを判定する(ステップS50)。
ステップS50において、路面からの対象物の上端高さ位置Ytが閾値TH8以下であった場合(ステップS50のNO)、図9のステップS51へ進み、歩行者の下半身であるか、座った歩行者として、2値化対象物の幅ΔWbが閾値TH9(歩行者の胴体幅として適当な値)以下か否かを判定する(ステップS51)。
【0057】
図9は、2値化処理によって下半身が抽出されたか、座っている歩行者を識別するための処理手順が示されており、ステップS51において、2値化対象物の幅ΔWbが閾値TH9以下であった場合(ステップS51のYES)、自車両10の周囲の天候が雨天か否かを判定する(ステップS51−1)。
そして、(ステップS51−1)において、自車両10の周囲の天候が雨天ではなかった場合(ステップS51−1のNO)、対象物が座った歩行者であるか否かを判定するために、グレースケール対象物の高さΔHgが閾値TH10(歩行者の高さとして適当な値)未満か否かを判定する(ステップS52)。
【0058】
ステップS52において、グレースケール対象物の高さΔHgが閾値TH10以上であった場合(ステップS52のNO)、この対象物が歩行者の胴体または、下半身に相当すると仮定し、上部に頭部が存在するか否かの判定のため、図15に示す上部のマスク領域AREA1の輝度平均値Ave_A1が閾値TH11より大きいか否かを判定する(ステップS53)。
ステップS53において、マスク領域AREA1の輝度平均値Ave_A1が閾値TH11より大きかった場合(ステップS53のYES)、更に胴体部位は衣服の影響により熱を発散しにくい場合が有るため、グレースケール画像上で輝度パタンがある対象物として、マスク領域AREA2の輝度分散Var_A2が閾値TH18より大きいか否かを判定する(ステップS53−1)。
【0059】
そして、ステップS53−1において、マスク領域AREA2の輝度分散Var_A2が閾値TH18より大きかった場合(ステップS53−1のYES)、検出された対象物は歩行者であると判定して(ステップS54)歩行者判定処理を終了し、図5に示すステップS34のYESとして図5のステップS35へ進み、人工構造物判定を行う。
また、(ステップS51−1)において、自車両10の周囲の天候が雨天であった場合(ステップS51−1のYES)、ステップS52からステップS53−1におけるマスク領域の判定は行わず、ステップS54へ進み、検出された対象物は歩行者であると判定して(ステップS54)歩行者判定処理を終了し、図5に示すステップS34のYESとして図5のステップS35へ進み、人工構造物判定を行う。
【0060】
一方、ステップS51において、2値化対象物の幅ΔWbが閾値TH9より大きかった場合(ステップS51のNO)、またはステップS53において、マスク領域AREA1の輝度平均値Ave_A1が閾値TH11以下であった場合(ステップS53のNO)、更にはステップS53−1において、マスク領域AREA2の輝度分散Var_A2が閾値TH18以下であった場合(ステップS53−1のNO)のいずれかであった場合、検出された対象物は歩行者ではないと判定して(ステップS55)歩行者判定処理を終了し、図5に示すステップS34のNOとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
【0061】
また、ステップS52において、グレースケール対象物の高さΔHgが閾値TH10未満であった場合(ステップS52のYES)、この対象物は座った歩行者であるとみなし、2値化対象物の路面からの対象物の上端高さ位置Ytが閾値TH12(座った歩行者と立っている歩行者を区別できる高さとして適当な値)より大きいか否かを判定する(ステップS56)。
ステップS56において、2値化対象物の路面からの対象物の上端高さ位置Ytが閾値TH12よりも大きかった場合(ステップS56のYES)、2値化対象物の外接四角形の縦横比ASPECTを表すAspが、閾値TH13以上TH14以下(歩行者として適当な値)か否かを判定する(ステップS57)。
【0062】
ステップS57において、2値化対象物の外接四角形の縦横比ASPECTを表すAspが閾値TH13以上TH14以下であった場合(ステップS57のYES)、(9)式で表される外接四角形重心102と2値化対象物の重心G100との実空間での距離Dis_cが閾値TH15(歩行者として適当な値)未満か否かを判定する(ステップS58)。
Dis_c=SQRT((Xb−Xc)+(Yb−Yc)) ・・・(9)ステップS58において、距離Dis_cが閾値TH15未満であった場合(ステップS58のYES)、例えばΔWbが1.0m以下で、ΔHgが1.0m未満の対象物には歩行者以外の対象物、具体的には車輌の前部などが含まれるため、2値化対象物の上部マスク領域AREA1において、予め登録した頭部パタンと相関度が高い部位が存在するか否かを判定する(ステップS59)。
【0063】
ステップS59において、2値化対象物の上部マスク領域AREA1に予め登録した頭部パタンと相関度が高い部位が存在する場合(ステップS59のYES)、検出された対象物は歩行者であると判定して(ステップS54)歩行者判定処理を終了し、図5に示すステップS34のYESとして図5のステップS35へ進み、人工構造物判定を行う。
【0064】
一方、ステップS56において、2値化対象物の路面からの対象物の上端高さ位置Ytが閾値TH12以下であった場合(ステップS56のNO)、あるいはステップS57において、2値化対象物の外接四角形の縦横比ASPECTを表すAspが閾値TH13未満、あるいはTH14より大きかった場合(ステップS57のNO)、あるいはステップS58において、距離Dis_cが閾値TH15以上であった場合(ステップS58のNO)、更にはステップS59において、2値化対象物の上部マスク領域AREA1に予め登録した頭部パタンと相関度が高い部位が存在しない場合(ステップS59のNO)のいずれかであった場合は、検出された対象物は歩行者ではないと判定して(ステップS55)歩行者判定処理を終了し、図5に示すステップS34のNOとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
【0065】
また、図9のステップS50において、路面からの対象物の上端高さ位置Ytが閾値TH8(歩行者の上半身と下半身を区別できる高さとして適当な値)より大きかった場合(ステップS50のYES)、図10のステップS50−1へ進み、自車両10の周囲の天候が雨天か否かを判定する(ステップS50−1)。
そして、(ステップS50−1)において、自車両10の周囲の天候が雨天ではなかった場合(ステップS50−1のNO)、対象物が空中に浮いている物体(例えば、カーブミラーのような対象物)か否かを判定するために、グレースケール対象物の高さΔHgが閾値TH16(上述の閾値TH8と同じ値)より大きいか否かを判定する(ステップS60)。
【0066】
図10は、2値化処理によって頭部や上半身が抽出された歩行者を識別するための処理手順が示されており、ステップS60において、グレースケール対象物の高さΔHgが閾値TH16より大きかった場合(ステップS60のYES)、対象物は空中に浮いている物体ではないので、次に、対象物領域(AREA0)の上端部位に頭部が存在するか、あるいは胴体部位が存在するかを判定する。具体的には、まず頭部は露出しているため、マスク領域AREA1の輝度平均値Ave_A1が閾値TH17より大きいか否かを判定する(ステップS61)。
【0067】
ステップS61において、マスク領域AREA1の輝度平均値Ave_A1が閾値TH17より大きかった場合(ステップS61のYES)、胴体部位は衣服の影響により熱を発散しにくい場合が有るため、グレースケール画像上で輝度パタンがある対象物として、マスク領域AREA2の輝度分散Var_A2が閾値TH18より大きいか否かを判定する(ステップS62)。
また、ステップS62において、マスク領域AREA2の輝度分散Var_A2が閾値TH18より大きかった場合(ステップS62のYES)、まず頭部、あるいは上半身が2値化処理により抽出された歩行者を判定するために、2値化対象物の幅ΔWbが閾値TH19(歩行者の頭部、あるいは上半身を区別できる幅として適当な値)以下か否かを判定する(ステップS63)。
【0068】
また、(ステップS50−1)において、自車両10の周囲の天候が雨天であった場合(ステップS50−1のYES)、ステップS60からステップS62におけるマスク領域の判定は行わず、ステップS63へ進み、頭部、あるいは上半身が2値化処理により抽出された歩行者を判定するために、2値化対象物の幅ΔWbが閾値TH19(歩行者の頭部、あるいは上半身を区別できる幅として適当な値)以下か否かを判定する(ステップS63)。
【0069】
次に、ステップS63において、2値化対象物の幅ΔWbが閾値TH19より大きかった場合(ステップS63のNO)、少なくとも歩行者の上半身、または全身が2値化処理により抽出された歩行者を判定するために、2値化対象物の幅ΔWbが閾値TH9(歩行者の胴体幅として適当な値)以下か否かを判定する(ステップS64)。
更に、ステップS64において、2値化対象物の幅ΔWbが閾値TH9より大きかった場合(ステップS64のNO)、複数の歩行者が並列歩行を行っているか否かを判定するために、2値化対象物の幅ΔWbが閾値TH2(歩行者の胴体幅として適当な値)以下か否かを判定する(ステップS65)。
【0070】
また、以上の判定では、ステップS60において、グレースケール対象物の高さΔHgが閾値TH16以下であった場合(ステップS60のNO)、あるいはステップS61において、マスク領域AREA1の輝度平均値Ave_A1が閾値TH17以下であった場合(ステップS61のNO)、あるいはステップS62において、マスク領域AREA2の輝度分散Var_A2が閾値TH18以下であった場合(ステップS62のNO)、更にはステップS65において、2値化対象物の幅ΔWbが閾値TH2より大きかった場合(ステップS65のNO)のいずれかであった場合は、検出された対象物は歩行者ではないと判定して(ステップS66)歩行者判定処理を終了し、図5に示すステップS34のNOとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
【0071】
一方、ステップS63において、2値化対象物の幅ΔWbが閾値TH19以下であった場合(ステップS63のYES)、対象物は、頭部あるいは上半身が2値化処理により抽出された歩行者であるとして、図11のステップS67へ進み、2値化対象物の外接四角形の縦横比ASPECTを表すAspが、閾値TH20以上TH21以下(歩行者の頭部や上半身として適当な値)か否かを判定する(ステップS67)。
【0072】
図11は、2値化処理によって頭部や上半身が抽出された歩行者を識別するための処理手順が示されており、ステップS67において、2値化対象物の外接四角形の縦横比ASPECTを表すAspが閾値TH20以上TH21以下であった場合(ステップS67のYES)、前述の外接四角形重心102と2値化対象物の重心G100との実空間での距離Dis_cが閾値TH15未満か否かを判定する(ステップS68)。
ステップS68において、距離Dis_cが閾値TH15未満であった場合(ステップS68のYES)、検出された対象物は歩行者であると判定して(ステップS69)歩行者判定処理を終了し、図5に示すステップS34のYESとして図5のステップS35へ進み、人工構造物判定を行う。
【0073】
一方、ステップS67において、2値化対象物の外接四角形の縦横比ASPECTを表すAspが閾値TH20未満か、またはTH21より大きかった場合(ステップS67のNO)、あるいはステップS68において、距離Dis_cが閾値TH15以上であった場合(ステップS68のNO)、検出された対象物は歩行者ではないと判定して(ステップS70)歩行者判定処理を終了し、図5に示すステップS34のNOとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
【0074】
また、図10のステップS64において、2値化対象物の幅ΔWbが閾値TH9以下であった場合(ステップS64のYES)、対象物は少なくとも歩行者の上半身、または全身が2値化処理により抽出された歩行者であるとして、図12のステップS71へ進み、2値化対象物の外接四角形の縦横比ASPECTを表すAspが、閾値TH13以上TH21以下(歩行者の上半身や全身として適当な値)か否かを判定する(ステップS71)。
【0075】
図12は、2値化処理によって上半身や全身が抽出された歩行者を識別するための処理手順が示されており、ステップS71において、2値化対象物の外接四角形の縦横比ASPECTを表すAspが閾値TH13以上TH21以下であった場合(ステップS71のYES)、前述の外接四角形重心102と2値化対象物の重心G100との実空間での距離Dis_cが閾値TH15未満か否かを判定する(ステップS72)。
【0076】
ステップS72において、距離Dis_cが閾値TH15未満であった場合(ステップS72のYES)、自車両10の周囲の天候が雨天か否かを判定する(ステップS72−1)。
そして、(ステップS72−1)において、自車両10の周囲の天候が雨天ではなかった場合(ステップS72−1のNO)、対象物には、歩行者以外の対象物、例えば、車輌の前部などが含まれるため、2値化対象物の上部マスク領域AREA1において、予め登録した頭部パタンと相関度が高い部位が存在するか否かを判定する(ステップS73)。
【0077】
ステップS73において、2値化対象物の上部マスク領域AREA1に予め登録した頭部パタンと相関度が高い部位が存在する場合(ステップS73のYES)、検出された対象物は歩行者であると判定して(ステップS74)歩行者判定処理を終了し、図5に示すステップS34のYESとして図5のステップS35へ進み、人工構造物判定を行う。
また、(ステップS72−1)において、自車両10の周囲の天候が雨天であった場合(ステップS72−1のYES)、ステップS73におけるマスク領域の判定は行わず、ステップS74へ進み、検出された対象物は歩行者であると判定して(ステップS74)歩行者判定処理を終了し、図5に示すステップS34のYESとして図5のステップS35へ進み、人工構造物判定を行う。
【0078】
一方、ステップS71において、2値化対象物の外接四角形の縦横比ASPECTを表すAspが閾値TH13未満か、または以上TH21より大きかった場合(ステップS71のNO)、あるいはステップS72において、距離Dis_cが閾値TH15以上であった場合(ステップS72のNO)、更にはステップS73において、2値化対象物の上部マスク領域AREA1に予め登録した頭部パタンと相関度が高い部位が存在しない場合(ステップS73のNO)のいずれかであった場合は、検出された対象物は歩行者ではないと判定して(ステップS75)歩行者判定処理を終了し、図5に示すステップS34のNOとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
【0079】
また、図10のステップS65において、2値化対象物の幅ΔWbが閾値TH2以下であった場合(ステップS65のYES)、対象物は複数の歩行者が並列歩行を行っているので、対象物の外接四角形内には背景領域が多く含まれていると判断し、図13のステップS76へ進み、規定時間内の外接四角形の面積と2値化対象物の面積比率であるRateが閾値TH22未満か否かを判定する(ステップS76)。
【0080】
図13は、対象物が複数の歩行者が並列歩行を行っている場合の処理手順が示されており、ステップS76において、規定時間内の外接四角形の面積と2値化対象物の面積比率であるRateが閾値TH22未満であった場合(ステップS76のYES)、2値化対象物の外接四角形の縦横比ASPECTを表すAspが、閾値TH23以上TH14以下(歩行者の並列歩行を判断するのに適当な値)か否かを判定する(ステップS77)。
【0081】
ステップS77において、2値化対象物の外接四角形の縦横比ASPECTを表すAspが閾値TH23以上TH14以下であった場合(ステップS77のYES)、前述の外接四角形重心102と2値化対象物の重心G100との実空間での距離Dis_cが閾値TH15未満か否かを判定する(ステップS78)。
ステップS78において、距離Dis_cが閾値TH15未満であった場合(ステップS78のYES)、検出された対象物は歩行者であると判定して(ステップS79)歩行者判定処理を終了し、図5に示すステップS34のYESとして図5のステップS35へ進み、人工構造物判定を行う。
【0082】
一方、ステップS76において、規定時間内の外接四角形の面積と2値化対象物の面積比率であるRateが閾値TH22以上であった場合(ステップS76のNO)、あるいはステップS77において、2値化対象物の外接四角形の縦横比ASPECTを表すAspが閾値TH23未満か、またはTH14より大きかった場合(ステップS77のNO)、更にはステップS78において、距離Dis_cが閾値TH15以上であった場合(ステップS78のNO)のいずれかであった場合は、検出された対象物は歩行者ではないと判定して(ステップS80)歩行者判定処理を終了し、図5に示すステップS34のNOとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
【0083】
なお、本実施の形態では、画像処理ユニット1が、天候検知手段と、対象物抽出手段と、蓄熱体抽出手段と、歩行者認識手段と、形状判定手段とを含んでいる。より具体的には、図8のS41−1が天候検知手段に相当し、図3のS1〜S13が対象物抽出手段に相当し、図8のS45、S46、S47、図9のS52、S53、S53−1、図10のS60、S61、S62が蓄熱体抽出手段に相当する。
【0084】
また、図8のS48、S49、図9のS50、S54〜S59、図10のS63〜S66、図11のS67〜S70、図12のS71〜S75、図13のS76〜S80が歩行者認識手段に相当する。そして、特に、図9のS59と図12のS73が形状判定手段に相当する。
【0085】
以上説明したように、本実施の形態の車両周辺監視装置は、赤外線カメラにより撮影された画像のグレースケール画像から歩行者等の対象物を2値化処理によって抽出した後、自車両10の周囲の天候が雨天ではなかった場合は、グレースケール画像の輝度変化により、グレースケール画像から2値化対象物を包含する範囲のグレースケール対象物を抽出し、更にグレースケール対象物の領域に複数の探索領域を設定して、探索領域の形状や探索領域の輝度分散に基づいて該探索領域中の歩行者を認識する。
また、自車両10の周囲の天候が雨天であった場合は、2値化対象物の存在条件についてのみ判定し、画像中の2値化対象物の高さや大きさ等から2値化画像中の歩行者を認識する。
【0086】
これにより、自車両10の周囲の天候が雨天ではなかった場合は、例えば対象物の画像の幅が歩行者として不自然な場合や、対象物の画像の高さが歩行者として不自然な場合、これらの物体を対象物の画像から除去すると共に、これらを満たす歩行者の特徴として、輝度分散が高く頭部に相当する部分があるか、あるいは輝度分散が高く胴部に相当する部分があるか、更には壁等の輝度分散の低いものではないか等の判定を行い、対象物の画像から輝度分散が歩行者を撮影した画像と異なる物体の画像を除去し、歩行者の検出精度を向上させることができるという効果が得られる。
【0087】
また、自車両10の周囲の天候が雨天であった場合は、対象物が放射する赤外線量が減少するので、輝度分散による判定は行わず、例えば対象物の画像の幅が歩行者として不自然な場合や、対象物の画像の高さが歩行者として不自然な場合にこれらの物体を対象物の画像から除去することのみを行い、輝度分散を用いた判定による歩行者の誤検出を防止し、歩行者の検出精度を維持することができるという効果が得られる。
【0088】
【発明の効果】
以上の如く、請求項1に記載の車両周辺監視装置によれば、天候検知手段により車両の周囲の天候が雨天であると判断された場合には、歩行者認識手段は、直接抽出された対象物の中から歩行者を認識する。一方、車両の周囲の天候がそれ以外であると判断された場合には、蓄熱体抽出手段により対象物から蓄熱体を抽出し、歩行者認識手段は、蓄熱体を除く対象物の中から歩行者を認識することで、車両周囲の状況に応じて適切な歩行者認識を行うことができる。
従って、車両の周囲の天候が雨天でなかった場合には、例えば太陽からの日差しを受けた壁のように、歩行者と同等の熱(赤外線)を発するような物体を、その輝度分散の特徴に基づいて対象物の中から除去し、歩行者の検出精度を向上させることができるという効果が得られる。また、車両の周囲の天候が雨天であった場合には、輝度分散に基づいた判定は行わず、逆に輝度分散を用いた判定による歩行者の誤検出を防止し、歩行者の検出精度を維持することができるという効果が得られる。
【0089】
請求項2に記載の車両周辺監視装置によれば、天候検知手段により車両の周囲の天候が雨天であると判断された場合には、形状判定処理を停止することで、画像上の対象物形状が歩行者認識手段において誤判定されることを防止することができる。
従って、車両の周囲の天候が雨天であった場合に、対象物の形状判定による歩行者の誤検出を防止し、歩行者の検出精度を維持することができるという効果が得られる。
【図面の簡単な説明】
【図1】本発明の一実施の形態の車両周辺監視装置の構成を示すブロック図である。
【図2】車両における赤外線カメラやセンサ、ディスプレイ等の取り付け位置を示す図である。
【図3】同実施の形態の車両周辺監視装置の対象物検出・警報動作を示すフローチャートである。
【図4】赤外線カメラにより得られるグレースケール画像とその2値化画像を示す図である。
【図5】同実施の形態の警報判定処理動作を示すフローチャートである。
【図6】衝突が発生しやすい場合を示す図である。
【図7】車両前方の領域区分を示す図である。
【図8】同実施の形態の歩行者判定処理動作を示すフローチャートである。
【図9】同実施の形態の歩行者判定処理動作を示すフローチャートである。
【図10】同実施の形態の歩行者判定処理動作を示すフローチャートである。
【図11】同実施の形態の歩行者判定処理動作を示すフローチャートである。
【図12】同実施の形態の歩行者判定処理動作を示すフローチャートである。
【図13】同実施の形態の歩行者判定処理動作を示すフローチャートである。
【図14】同実施の形態の2値化対象物形状特徴量について示す図である。
【図15】同実施の形態のマスク領域設定について示す図である。
【図16】対象物が歩行者の一部あるいは全体である場合や、壁の場合のマスク領域AREA3の輝度分散を示した図である。
【図17】同実施の形態の車両周辺監視装置における晴天時のグレースケール画像と、雨天時のグレースケール画像とを示す図である。
【図18】同実施の形態の車両周辺監視装置における雨天時のグレースケール画像の輝度ヒストグラムと、晴天時のグレースケール画像の輝度ヒストグラムとを比較したグラフである。
【符号の説明】
1  画像処理ユニット
2R、2L  赤外線カメラ
3  ヨーレートセンサ
4  車速センサ
5  ブレーキセンサ
6  スピーカ
7  画像表示装置
10  自車両
S1〜S13  対象物抽出手段
S41−1  天候検知手段
S45、S46、S47、S52、S53、S53−1、S60、S61、S62  蓄熱体抽出手段
S48〜S50、S54〜S59、S63〜S80  歩行者認識手段
S59、S73  形状判定手段
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a vehicle periphery monitoring device that extracts an object by binarizing an image captured by an infrared camera.
[0002]
[Prior art]
A conventional vehicle periphery monitoring device extracts an object such as a pedestrian having a possibility of collision with the own vehicle from an image of the surroundings of the own vehicle captured by an imaging unit such as an infrared camera. Provide to the driver of the vehicle. In this device, a portion having a high temperature in an image around the host vehicle taken by a pair of left and right stereo cameras is set as a target object, and a distance to the target object is calculated by obtaining a parallax of the target object. From the moving direction of the object and the position of the object, an object that is likely to affect the traveling of the host vehicle is detected and an alarm is output (for example, see Patent Document 1).
[0003]
[Patent Document 1]
JP 2001-6096 A
[0004]
[Problems to be solved by the invention]
By the way, when a pedestrian is extracted only by shape determination as in the conventional device, the pedestrian on the infrared image is divided into two values depending on the influence of a cap, clothing, and the presence environment of the pedestrian. The morphed shape is irregular, and in general, when the vehicle is running, there is a change in the shape of the road ahead and the effect of pitching of the vehicle, and pedestrians are also detected from children to adults with different heights from the original Therefore, the coordinates of the center of gravity of the object on the screen may not be fixed with respect to the distance, and only the pedestrian may not be stably extracted.
[0005]
Therefore, conventionally, the size of the object in the real space is calculated from the grayscale image, and only the pedestrian-like object is extracted based on the positional relationship where the binarized object exists. Although a method of extracting road structures and vehicles from objects and excluding them as objects other than pedestrians from warning objects has been proposed, if the vehicle is running in rain (rainy weather), the object Also, since the amount of infrared radiation changes due to the influence of rainfall, there is a problem that only pedestrians may not be stably extracted.
[0006]
That is, in a general environment, a heat storage body such as a signboard, a wall, a power pole, etc. that does not generate heat by itself and stores only heat given from outside does not appear on the infrared image because the temperature is lowered by rainfall (infrared camera) However, the heating elements that generate heat by themselves, such as vending machines, are detected by the infrared camera, but the infrared radiation part is reduced (infinitely equal), making it difficult to accurately determine the shape. There is.
In addition, a part (a head or the like) where a human is exposed is detected, but a part covered with clothes is not detected by the infrared camera due to wetness of clothes. In this way, in rainy weather and other times, even at the same point, the surroundings of the vehicle change, and the shapes of all objects on the grayscale image detected by the infrared camera change, With the conventional method, there was a possibility that only pedestrians could not be stably extracted.
Furthermore, in rainy weather, since rainfall adheres to the camera lens surface, the shape of the object on the image tends to be unclear, and there is a problem that it is difficult to determine the shape of the object.
[0007]
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has a vehicle surroundings monitoring device that accurately determines an indeterminate binarized object extracted from an image captured by a camera and extracts a stable pedestrian. The purpose is to provide.
[0008]
[Means for Solving the Problems]
In order to solve the above problem, a vehicle periphery monitoring device according to the invention of claim 1 is a vehicle periphery monitoring device that detects an object existing around a vehicle from an infrared image captured by an infrared camera, A weather detecting means for detecting the weather around the vehicle (for example, step S41-1 in the embodiment); and an object extracting means for extracting an object emitting infrared light from the infrared image (for example, step S1 to step in the embodiment) S13) and a heat storage element extracting means (for example, step S45 in the embodiment) for extracting, from the object extracted by the object extracting means, a heat storage element that does not generate heat and stores only heat given from outside. , S46, S47, S52, S53, S53-1, S60, S61, S62) and the weather detecting means determines that the weather around the vehicle is rainy If the pedestrian is detected, the pedestrian is recognized from among the objects, otherwise, the pedestrian is recognized from among the objects except the heat storage unit extracted by the heat storage unit extraction unit. It is characterized by comprising pedestrian recognition means (for example, steps S48 to S50, steps S54 to S59, steps S63 to S80 of the embodiment).
[0009]
In the vehicle periphery monitoring device having the above configuration, when the weather around the vehicle is determined to be rainy by the weather detection unit, the amount of infrared radiation emitted by the target extracted by the target extraction unit decreases. Therefore, the pedestrian recognition means directly recognizes the pedestrian from the extracted objects. On the other hand, if it is determined that the weather around the vehicle is other than that, the amount of infrared radiation emitted by the target object extracted by the target object extracting means does not generate heat itself but only heat given from outside. The difference between the heat storage element that extracts the heat storage element that stores heat and the heating element that emits heat by itself like a pedestrian appears in the luminance dispersion of the object image, so that the heat storage element is extracted from the object by the heat storage element extraction unit, The pedestrian recognition means can perform appropriate pedestrian recognition according to the situation around the vehicle by recognizing the pedestrian from objects other than the heat storage body.
[0010]
A vehicle periphery monitoring device according to a second aspect of the present invention is the vehicle periphery monitoring device according to the first aspect, wherein the pedestrian recognition unit determines a shape of the object (for example, S59 in the embodiment). , S73), wherein when the weather detecting means determines that the weather around the vehicle is rainy, the shape determining means is stopped.
The vehicle periphery monitoring device having the above configuration, when the weather around the vehicle is determined to be rainy by the weather detection means, stops the shape determination process, so that rain adheres to the camera lens surface. Therefore, it is possible to prevent the object shape on the image that has become unclear from being erroneously determined by the pedestrian recognition unit.
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring device according to one embodiment of the present invention.
In FIG. 1, reference numeral 1 denotes an image processing unit provided with a CPU (Central Processing Unit) for controlling the vehicle periphery monitoring device according to the present embodiment, and includes two infrared cameras 2R and 2L capable of detecting far infrared rays. A yaw rate sensor 3 for detecting a yaw rate of the vehicle, a vehicle speed sensor 4 for detecting a traveling speed (vehicle speed) of the vehicle, and a brake sensor 5 for detecting an operation of a brake are connected. Thereby, the image processing unit 1 detects a pedestrian or an animal in front of the vehicle from the infrared image around the vehicle and the signal indicating the running state of the vehicle, and issues an alarm when it is determined that the possibility of collision is high. Emit.
[0012]
In addition, the image processing unit 1 displays a speaker 6 for issuing a warning by voice and images taken by the infrared cameras 2R and 2L, and allows the driver of the vehicle to recognize an object having a high risk of collision. For example, a meter-integrated display that is integrated with a meter that indicates the running state of the host vehicle by a number, a NAVI Display that is installed on the console of the host vehicle, and information is displayed at a position in the front window that does not obstruct the driver's front view. An image display device 7 including a HUD (Head Up Display) 7a is connected.
[0013]
The image processing unit 1 includes an A / D conversion circuit that converts an input analog signal into a digital signal, an image memory that stores a digitized image signal, a CPU (Central Processing Unit) that performs various types of arithmetic processing, (Random Access Memory) used to store the data of the CPU, ROM (Read Only Memory) storing programs, tables, maps, and the like executed by the CPU, a drive signal of the speaker 6, a display signal of the HUD 7a, and the like are output. The output signals of the infrared cameras 2R and 2L, the yaw rate sensor 3, the vehicle speed sensor 4, and the brake sensor 5 are converted into digital signals and input to the CPU.
[0014]
As shown in FIG. 2, the infrared cameras 2R and 2L are arranged at a front part of the host vehicle 10 at positions substantially symmetrical with respect to the center of the host vehicle 10 in the vehicle width direction. The optical axes of 2R and 2L are fixed so that the optical axes are parallel to each other and the heights from both roads are equal. Note that the infrared cameras 2R and 2L have a characteristic that the higher the temperature of the target, the higher the output signal level (the higher the luminance).
The HUD 7a is provided such that the display screen is displayed at a position on the front window of the host vehicle 10 where the front view of the driver is not obstructed.
[0015]
Next, the operation of the present embodiment will be described with reference to the drawings.
FIG. 3 is a flowchart showing an operation of detecting and warning an object such as a pedestrian in the image processing unit 1 of the vehicle periphery monitoring device of the present embodiment.
First, the image processing unit 1 acquires an infrared image which is an output signal of the infrared cameras 2R and 2L (step S1), performs A / D conversion (step S2), and stores a gray scale image in an image memory (step S1). S3). Here, a right image is obtained by the infrared camera 2R, and a left image is obtained by the infrared camera 2L. Further, in the right image and the left image, the horizontal position of the same object on the display screen is shifted, so that the distance (parallax) to the object can be calculated.
[0016]
After the grayscale image is obtained in step S3, the right image obtained by the infrared camera 2R is used as a reference image, and the image signal is binarized, that is, an area brighter than the luminance threshold ITH is set to "1" ( White) and the process of setting the dark area to “0” (black) (step S4).
FIG. 4A shows a grayscale image obtained by the infrared camera 2R. By performing a binarization process on the grayscale image, an image as shown in FIG. 4B is obtained. In FIG. 4B, for example, an object surrounded by a frame from P1 to P4 is an object displayed as white on the display screen (hereinafter, referred to as a “high luminance area”).
When the binarized image data is obtained from the infrared image, a process of converting the binarized image data into run-length data is performed (step S5). The line represented by the run-length data indicates, at a pixel level, an area that has been whitened by binarization, and each has a width of one pixel in the y direction and also has a width of one pixel in the x direction. It has the length of a pixel constituting the run-length data.
[0017]
Next, a process of extracting the target object is performed by labeling the target object from the image data converted to the run-length data (step S6) (step S7). That is, among the lines converted into run-length data, a line having a portion overlapping in the y-direction is regarded as one object, so that, for example, the high-luminance areas P1 to P4 shown in FIG. (Value object).
When the extraction of the object is completed, the center of gravity G, the area S, and the aspect ratio ASPECT of the circumscribed rectangle of the extracted object are calculated (step S8).
[0018]
Here, the area S is obtained by calculating the run length data of the target object of the label A by (x [i], y [i], run [i], A) (i = 0, 1, 2,..., N−1). ), The length (run [i] -1) of the run-length data is calculated by integrating the same object (N run-length data). The coordinates (xc, yc) of the center of gravity G of the object A are represented by the length (run [i] -1) of each run-length data and the coordinates x [i] or y [i] of each run-length data. Are multiplied by each other, and the sum of the multiplications for the same object is calculated by dividing by the area S.
Further, the aspect ratio ASPECT is calculated as a ratio Dy / Dx of the length Dy in the vertical direction and the length Dx in the horizontal direction of the circumscribed rectangle of the object.
Since the run length data is indicated by the number of pixels (the number of coordinates) (= run [i]), the actual length needs to be “−1” (subtract 1) (= run [i]). ] -1). In addition, the position of the center of gravity G may be replaced by the position of the center of gravity of a circumscribed rectangle.
[0019]
When the center of gravity, area, and aspect ratio of the circumscribed rectangle of the object can be calculated, next, tracking of the object between times, that is, recognition of the same object in each sampling cycle is performed (step S9). In time tracking, the time at which the time t as the analog quantity is discretized at the sampling cycle is k, and for example, if the objects A and B are extracted at time k, the objects C and D extracted at time (k + 1) The identity with the objects A and B is determined. When it is determined that the objects A and B are the same as the objects C and D, the inter-time tracking is performed by changing the objects C and D to the labels of the objects A and B, respectively.
Further, the position coordinates (of the center of gravity) of each object recognized in this way are stored in the memory as time-series position data, and are used in subsequent arithmetic processing.
[0020]
Note that the processes of steps S4 to S9 described above are performed on the binarized reference image (the right image in the present embodiment).
Next, the vehicle speed VCAR detected by the vehicle speed sensor 4 and the yaw rate YR detected by the yaw rate sensor 3 are read, and the turning angle θr of the host vehicle 10 is calculated by time-integrating the yaw rate YR (step S10).
[0021]
On the other hand, in parallel with the processing of steps S9 and S10, in steps S11 to S13, processing of calculating the distance z between the target object and the host vehicle 10 is performed. Since this calculation requires a longer time than steps S9 and S10, it is executed at a cycle longer than steps S9 and S11 (for example, about three times as long as the execution cycle of steps S1 to S10).
First, by selecting one of the objects tracked by the binarized image of the reference image (right image), the search image R1 (here, the entire area surrounded by the circumscribed rectangle is searched from the right image) Is extracted (step S11).
[0022]
Next, a search area for searching for an image corresponding to the search image R1 (hereinafter referred to as “corresponding image”) is set from the left image, and a correlation operation is executed to extract a corresponding image (step S12). More specifically, a search region R2 is set in the left image in accordance with each vertex coordinate of the search image R1, and the brightness difference sum value C (a) indicating the level of correlation with the search image R1 in the search region R2. , B) is calculated, and an area where the sum C (a, b) is minimum is extracted as a corresponding image. Note that this correlation operation is performed using a grayscale image instead of a binarized image.
When there is past position data for the same object, a region R2a narrower than the search region R2 is set as a search region based on the position data.
[0023]
By the process of step S12, the search image R1 is extracted in the reference image (right image) and the corresponding image R4 corresponding to this object is extracted in the left image. The position of the center of gravity of the image R4 and the parallax amount Δd (the number of pixels) are obtained, and the distance z between the host vehicle 10 and the target object is calculated from this (step S13).
Next, when the calculation of the turning angle θr in step S10 and the calculation of the distance to the target in step S13 are completed, the coordinates (x, y) and the distance z in the image are converted to the real space coordinates (X, Y, Z). Conversion is performed (step S14).
Here, as shown in FIG. 2, the real space coordinates (X, Y, Z) are obtained by setting the middle point of the mounting positions of the infrared cameras 2R, 2L (the position fixed to the host vehicle 10) as the origin O. The coordinates in the image are defined as x in the horizontal direction and y in the vertical direction with the center of the image as the origin.
[0024]
Further, when the real space coordinates are obtained, a turning angle correction for correcting a positional shift on the image due to the turning of the host vehicle 10 is performed (step S15). In the turning angle correction, if the host vehicle 10 turns, for example, to the left by a turning angle θr during the period from time k to (k + 1), the range of the image is shifted by Δx in the x direction on the image obtained by the camera. This is a process for correcting this.
In the following description, the coordinates after the turning angle correction are displayed as (X, Y, Z).
[0025]
When the turning angle correction for the real space coordinates is completed, N (for example, about N = 10) real space position data after turning angle correction, obtained for the same object during the monitoring period of ΔT, that is, From the time-series data, an approximate straight line LMV corresponding to a relative movement vector between the target object and the host vehicle 10 is obtained.
Next, the latest position coordinates P (0) = (X (0), Y (0), Z (0)) and the position coordinates P (N−1) before (N−1) samples (time ΔT before). = (X (N-1), Y (N-1), Z (N-1)) is corrected to a position on the approximate straight line LMV, and the corrected position coordinates Pv (0) = (Xv (0), Yv (0), Zv (0)) and Pv (N-1) = (Xv (N-1), Yv (N-1), Zv (N-1)).
[0026]
As a result, a relative movement vector is obtained as a vector from the position coordinates Pv (N-1) to Pv (0) (step S16).
In this way, the influence of the position detection error is reduced by calculating the approximate straight line that approximates the relative movement trajectory of the target object with respect to the vehicle 10 from the plurality (N) of data within the monitoring period ΔT. As a result, it is possible to more accurately predict the possibility of collision with the object.
[0027]
When the relative movement vector is obtained in step S16, next, an alarm determination process for determining the possibility of collision with the detected target is performed (step S17). The details of the alarm determination process will be described later.
If it is determined in step S17 that there is no possibility of collision between the host vehicle 10 and the detected object (NO in step S17), the process returns to step S1, and the above-described processing is repeated.
If it is determined in step S17 that there is a possibility of collision between the host vehicle 10 and the detected target (YES in step S17), the process proceeds to an alarm output determination process in step S18.
[0028]
In step S18, by determining from the output BR of the brake sensor 5 whether or not the driver of the host vehicle 10 is performing a brake operation, an alarm output determination process, that is, whether or not to output an alarm is performed (step S18). Step S18).
If the driver of the host vehicle 10 is performing a brake operation, the acceleration Gs generated thereby (the deceleration direction is assumed to be positive) is calculated. If the acceleration Gs is greater than a predetermined threshold GTH, the braking is performed. It is determined that the collision is avoided by the operation, and the alarm output determination processing ends (NO in step S18), and the process returns to step S1 to repeat the above processing.
Thereby, when an appropriate brake operation is being performed, it is possible to prevent a warning from being issued and not to add unnecessary trouble to the driver.
[0029]
Further, when the acceleration Gs is equal to or less than the predetermined threshold GTH, or when the driver of the host vehicle 10 does not perform the brake operation, the process immediately proceeds to the process of step S19 (YES in step S18), and the possibility of contact with the object is obtained. Is high, an audio warning is issued via the speaker 6 (step S19), and an image obtained by, for example, the infrared camera 2R is output to the image display device 7 so that the approaching target is recognized by the vehicle 10 (Step S20).
The predetermined threshold GTH is a value corresponding to a condition that the host vehicle 10 stops at a travel distance equal to or less than the distance Zv (0) between the target object and the host vehicle 10 when the acceleration Gs during the brake operation is maintained as it is. It is.
[0030]
The above is the object detection / warning operation in the image processing unit 1 of the vehicle periphery monitoring device of the present embodiment. Next, referring to the flowchart shown in FIG. 5, step S17 of the flowchart shown in FIG. Will be described in more detail.
FIG. 5 is a flowchart showing the alarm determination processing operation of the present embodiment.
The warning determination process includes a collision determination process described below, a determination process as to whether or not the vehicle is within the approach determination region, an approach collision determination process, a pedestrian determination process, and an artificial structure determination process. This is a process for determining the possibility of collision. Hereinafter, a case will be described as an example where there is an object 20 traveling at a speed Vp from a direction substantially 90 ° with respect to the traveling direction of the host vehicle 10 as shown in FIG.
[0031]
In FIG. 5, first, the image processing unit 1 performs a collision determination process (step S31). In the collision determination process, in FIG. 6, when the object 20 approaches the distance Zv (0) from the distance Zv (N−1) during the time ΔT, the relative velocity Vs in the Z direction with the host vehicle 10 is determined. It is a process of determining whether or not both collide within the margin time T, assuming that the two move while maintaining the relative speed Vs within the height H. Here, the margin time T is intended to determine the possibility of a collision by the time T before the predicted collision time. Therefore, the allowance time T is set to, for example, about 2 to 5 seconds. H is a predetermined height that defines a range in the height direction, and is set to, for example, about twice the height of the host vehicle 10.
[0032]
Next, in Step S31, when there is a possibility that the host vehicle 10 and the target object collide within the margin time T (YES in Step S31), the image processing unit 1 A determination process is performed to determine whether an object is present in the approach determination area (step S32). As shown in FIG. 7, assuming that the area that can be monitored by the infrared cameras 2R and 2L is an outer triangular area AR0 indicated by a thick solid line, Z1 = Z1 = A region AR1 that is closer to the host vehicle 10 than Vs × T and corresponds to a range where the target object has a margin β (for example, about 50 to 100 cm) added to both sides of the vehicle width α of the host vehicle 10, that is, the target This is a process of determining whether or not the object is present in the approach determination area AR1 where the possibility of collision with the host vehicle 10 is extremely high if the object continues to exist. Note that the approach determination area AR1 also has a predetermined height H.
[0033]
Further, in step S32, when the target object does not exist in the approach determination area (NO in step S32), the image processing unit 1 may cause the target to enter the approach determination area and collide with the host vehicle 10. An entry collision determination process is performed to determine whether or not the collision has occurred (step S33). In the approach collision determination process, areas AR2 and AR3 in which the absolute value of the X coordinate is larger than the above-described approach determination area AR1 (outside the approach determination area in the horizontal direction) are referred to as approach determination areas. This is a process of entering the approach determination area AR1 by moving and determining whether or not to collide with the vehicle 10.
The entry determination areas AR2 and AR3 also have a predetermined height H.
[0034]
On the other hand, in step S32, when the target is present in the approach determination area (YES in step S32), the image processing unit 1 determines whether the target is a pedestrian or not. The process is performed (Step S34). The details of the pedestrian determination process will be described later.
Also, in step S34, when it is determined that there is a possibility that the object is a pedestrian (YES in step S34), in order to further increase the reliability of the determination, it is determined whether the object is an artificial structure. An artificial structure determination process is performed (step S35). The artificial structure determination process is a process in which, when a feature that is impossible for a pedestrian such as the following is detected in the target object image, the target object is determined to be an artificial structure, and is excluded from a warning target. It is.
(1) When the image of the target object includes a portion indicating a straight edge.
(2) When the corner of the image of the object is a right angle.
(3) A case where a plurality of objects having the same shape are included in the image of the target object.
(4) When the image of the target object matches the shape of the artificial structure registered in advance.
[0035]
Therefore, in the above-mentioned step S33, when there is a possibility that the target enters the approach determination area and collides with the host vehicle 10 (YES in step S33), and in step S35, there is a possibility of a pedestrian. If the determined object is not an artificial structure (NO in step S35), the image processing unit 1 determines that there is a possibility of collision between the host vehicle 10 and the detected object (is a target of an alarm). A determination is made (step S36), and the process proceeds to step S18 as YES in step S17 shown in FIG. 3, and an alarm output determination process (step S18) is performed.
[0036]
On the other hand, in step S31 described above, when there is no possibility that the host vehicle 10 collides with the target object within the margin time T (NO in step S31), or in step S33, the target object enters the approach determination area. If there is no possibility of collision with the host vehicle 10 (NO in step S33), or if it is determined in step S34 that the object is not a pedestrian (NO in step S34), furthermore, step S35 In any of the cases, the image processing unit 1 has detected that the subject vehicle is the own vehicle 10 when the target object determined to be likely to be a pedestrian is an artificial structure (YES in step S35). It is determined that there is no possibility of collision with the target (not a target of alarm) (step S37), and the process proceeds to step S1 as NO in step S17 shown in FIG. Ri, repeat the object detection and alarm operation such as a pedestrian.
[0037]
Next, the pedestrian determination process in step S34 of the flowchart shown in FIG. 5 will be described in more detail with reference to flowcharts shown in FIGS. FIGS. 8 to 13 are flowcharts showing the pedestrian determination processing operation of the present embodiment.
8, first, the image processing unit 1 determines the center of gravity G (xc, yc) of the binarized object calculated in step S8 of the flowchart shown in FIG. 3 (the center of gravity of the binarized object shown in FIG. 14). G100), the area S (the binarized object area S101 shown in FIG. 14), the aspect ratio ASPECT of the circumscribed rectangle of the object, and the distance z between the host vehicle 10 and the object calculated in step S13. The height hb and the width wb of the circumscribed rectangle of the binarized object shown in FIG. 14, and the values of the circumscribed rectangle barycenter coordinates (xb, yb) (the circumscribed rectangle barycenter 102 shown in FIG. 14) are used in the real space. Then, a binarized object shape characteristic amount indicating the characteristic of the shape of the binarized object is calculated (step S41). Note that the binarized object shape feature quantity to be obtained is a camera base line length D [m], a camera focal length f [m], a pixel pitch p [m / pixel], and a parallax calculated by a correlation operation between left and right images. It is calculated using the quantity Δd [pixel].
[0038]
Specifically, the ratio Rate between the circumscribed rectangle and the object area is
Rate = S / (hb × wb) (1)
Asp representing the aspect ratio ASPECT of the circumscribed rectangle is:
Asp = hb / wb (2)
The distance z between the vehicle 10 and the object is
z = (f × D) / (Δd × p) (3)
Is expressed as
The width ΔWb and the height ΔHb of the binarized object in the real space are
ΔWb = wb × z × p / f
ΔHb = hb × z × p / f (4)
[0039]
The barycentric coordinates (Xc, Yc, Zc) of the binarized object are
Xc = xc × z × p / f
Yc = yc × z × p / f
Zc = z (5)
The coordinates of the center of gravity (Xb, Yb, Zb) of the circumscribed rectangle of the object are
Xb = xb × z × p / f
Yb = yb × z × p / f
Zb = z (6)
The upper end position coordinates (Xt, Yt, Zt) of the binarized object are
Xt = xb × z × p / f
Yt = yb × z × p / f−ΔHb / 2
Zt = z (7)
Can be calculated.
[0040]
After calculating the binarized object shape feature quantity, a weather detection process for detecting the weather around the host vehicle 10 is performed next (step S41-1).
The weather detection process is a process of obtaining a brightness histogram of a grayscale image obtained by, for example, the infrared camera 2R, and determining the weather around the host vehicle 10 based on the brightness histogram. This is a process for determining whether or not the weather is rainy. More specifically, for example, in a grayscale image in fine weather as shown in FIG. 17A and a grayscale image in rainy weather as shown in FIG. Since there is a difference in the amount of infrared rays to be obtained, when the respective luminance histograms are obtained, the result shown in FIG. 18 is obtained.
[0041]
FIG. 18 is a graph comparing a luminance histogram of a grayscale image in rainy weather with a luminance histogram of a grayscale image in fine weather. As shown in FIG. , The standard deviation σ of the luminance histogram of the entire image tends to be smaller (the interval of 2σ is narrower). Therefore, when the standard deviation σ of the luminance histogram of the entire image is smaller than the threshold TH24, the weather around the host vehicle 10 is determined to be rainy.
[0042]
The determination as to whether or not the weather around the host vehicle 10 is rainy is made by a raindrop sensor mounted on the host vehicle 10 for detecting rainfall, regardless of the brightness histogram of the grayscale image as described above. Or a signal for controlling the operation of the wiper for wiping the raindrops on the window glass (for example, an ON / OFF signal of the wiper).
[0043]
Then, if the weather around the host vehicle 10 can be determined in step S41-1, it is determined whether the weather around the host vehicle 10 is rainy (step S41-2).
If the weather around the host vehicle 10 is not rainy in step S41-2 (NO in step S41-2), the grayscale image acquired in step S3 of the flowchart shown in FIG. The height of the target on the grayscale image including the binarized target extracted in step S7 is determined using the same (step S42).
[0044]
The height of the object on the grayscale image is obtained by arranging a plurality of mask areas of a predetermined size from the upper end of the circumscribed rectangle of the binarized object on the grayscale image, and setting the luminance in the mask area. The change is large (the object and the background image are included), the degree of correlation of the mask region between the left and right images is high (two or more objects do not exist in the mask region), and the binary value is further increased. An area including a mask area at the same distance (same parallax) as the object to be converted is extracted as a grayscale object area.
Then, the height Height (pixel) of the region of the grayscale object on the image is calculated, and the height ΔHg of the grayscale object is calculated by Expression (8).
ΔHg = z × Height × p / f (8)
[0045]
Also, as shown in FIG. 15, the area of the grayscale object on the image is AREA0, and mask areas AREA1, AREA2, and AREA3 are set therein, and the average luminance value and luminance change (variance) of each mask are set. Is calculated (step S43). Here, the average luminance value of AREA1 is Ave_A1, the luminance dispersion of AREA2 is Var_A2, and the luminance dispersion of AREA3 is Var_A3. In the following processing, AREA1 is used for determining the presence of the head of the object, AREA2 is used for determining the presence of the body of the object, and AREA3 is used for determining the presence of a shape change from the head to the lower body. The AREA 3 is a heat storage body such as a wall that stores only heat given from the outside without generating heat by itself, and a part of an object showing a monotonous change in luminance is extracted by a binarization process. If this is done, it is also used to identify it as a pedestrian. FIG. 15 schematically illustrates a pedestrian captured by a camera, where a hatched area is a portion of the target captured by binarization, and an area surrounded by a dotted line is binarized. It represents a part of the target that has not been caught, but whose presence can be confirmed against the background in the grayscale image. The dimensions of each part shown in FIG. 15 are examples of the dimensions of each part in the real space.
[0046]
When the setting of the mask areas AREA1, AREA2, and AREA3 is completed, a pedestrian determination based on the shape of the binarized object and a pedestrian determination using the luminance variance of each mask area of the grayscale image are executed as described below.
First, the image processing unit 1 determines whether or not the height, width, existing height, average luminance, and luminance variance of the binarized object are within a range appropriate for a pedestrian.
Specifically, in order to target a pedestrian, it is determined whether or not the width ΔWb of the binarized object is equal to or more than the threshold value TH1 and equal to or less than TH2 (an appropriate value for the width of the pedestrian) (step S44).
[0047]
In step S41-2, if the weather around the host vehicle 10 is rainy (YES in step S41-2), the height calculation of the target on the grayscale image or the mask area in step S42 or step S43 is performed. AREA1, AREA2, and AREA3 are not set, and the process proceeds to step S44. In order to target a pedestrian, it is determined whether the width ΔWb of the binarized object is equal to or more than a threshold value TH1 and equal to or less than TH2 (step S44).
[0048]
If the width ΔWb of the binarization target object is equal to or greater than the threshold value TH1 and equal to or less than TH2 in step S44 (YES in step S44), it is determined whether the weather around the host vehicle 10 is rainy (step S44-). 1).
Then, in step S44-1, when the weather around the host vehicle 10 is not rainy (NO in step S44-1), the height ΔHb of the binarization target is set to the threshold TH3 (appropriate as the height of the pedestrian). It is determined whether the height ΔHg of the grayscale object is less than a threshold value TH4 (a value appropriate for the height of the pedestrian) (step S45).
[0049]
On the other hand, in step S44-1, when the weather around the host vehicle 10 is rainy (YES in step S44-1), the height ΔHb of the binarization target is set to the threshold TH3 (appropriate as the height of the pedestrian). Is determined (step S45-1).
Then, in step S45, when the height ΔHb of the binarized object is less than the threshold value TH3 and the height ΔHg of the grayscale object is less than the threshold value TH4 (YES in step S45), or step S45-1. In the case where the height ΔHb of the binarized object is less than the threshold value TH3 (YES in step S45-1), the height position Yt of the upper end of the object from the road surface is equal to the threshold value TH5 (appropriate as the height of the pedestrian). Is determined (step S46).
[0050]
Also, in step S46, when the upper end height position Yt of the object from the road surface is less than the threshold value TH5 (YES in step S46), it is determined whether the weather around the host vehicle 10 is rainy (step S46). -1).
Then, in step S46-1, when the weather around the host vehicle 10 is not rainy (NO in step S46-1), it is determined whether the luminance variance Var_A3 of the mask area AREA3 is larger than the threshold TH6 (step S46-1). S47). This processing will be described with reference to FIG. 16 which shows the luminance variance of the mask area AREA3 when the object is part or all of a pedestrian or when the object is a wall.
[0051]
Specifically, by setting the area width of the mask area AREA3 to the binarized object width, as shown in FIG. 16A, when only the pedestrian's head is extracted by the binarization processing, , A luminance difference from the lower body part occurs. Further, as shown in FIG. 16B, when at least the upper body or the whole body of the pedestrian is extracted by the binarization process, a luminance difference from the background region (image) occurs. On the other hand, as shown in FIG. 16C, in the case of an object such as a wall, in which the temperature difference of the entire object is small, the luminance difference between the binarized extraction part and the part other than that is small, and the object is AREA3. It is composed of linear portions as shown in FIG. Therefore, the luminance variance Var_A3 of AREA3 indicates a high value for a pedestrian and a low value for an object such as a wall.
Therefore, in step S47, it is determined whether or not the target is a pedestrian by determining whether or not the luminance variance Var_A3 of the mask area AREA3 is larger than the threshold value TH6.
[0052]
Further, in step S47, when the luminance variance Var_A3 of the mask area AREA3 is larger than the threshold value TH6 (YES in step S47), a pedestrian determination based on a temporal change in the shape of the object is performed.
Specifically, since the binarization target object of the pedestrian is targeted, it is considered that the binarization target shape does not significantly change over time. Therefore, it is determined whether or not the difference between the maximum value Max_Rate and the minimum value Min_Rate of the Rate, which is the area ratio of the circumscribed rectangle and the area of the binarized object, within the specified time is less than the threshold value TH7 (step S48).
[0053]
If the weather around the host vehicle 10 is rainy in step S46-1 (YES in step S46-1), the determination of the luminance variance Var_A3 of the mask area AREA3 in step S47 is not performed, and the process proceeds to step S48. Then, it is determined whether or not the difference between the maximum value Max_Rate and the minimum value Min_Rate of the rate, which is the area ratio of the circumscribed rectangle and the area of the binarized object, within the specified time period is less than the threshold value TH7 (step S48).
[0054]
On the other hand, in step S44, when the width ΔWb of the binarized object is smaller than the threshold TH1 or larger than TH2 (NO in step S44), or in step S45, the height ΔHb of the binarized object is set to the threshold TH3. If the height ΔHg of the grayscale object is equal to or greater than the threshold TH4 (NO in step S45), or the height ΔHb of the binarized object is equal to or greater than the threshold TH3 in step S45-1 In either case (NO in step S45-1) or in step S46, when the upper end height position Yt of the object from the road surface is equal to or greater than the threshold value TH5 (NO in step S46), the detection is performed. It is determined that the performed object is not a pedestrian (step S49), the pedestrian determination process ends, and the process proceeds to step S34 shown in FIG. O as the process proceeds to step S37 in FIG. 5, the object is determined not to be a warning target.
[0055]
Similarly, in step S47, when the luminance variance of the mask area AREA3 is equal to or smaller than the threshold value TH6 (NO in step S47), further, in step S48, the area of the circumscribed rectangle and the area of the binarized object within the specified time period If the difference between the maximum value Max_Rate of the ratio Rate and the minimum value Min_Rate (Max_Rate−Min_Rate) is equal to or larger than the threshold value TH7 (NO in step S48), the detected object is a pedestrian. (Step S49), the pedestrian determination process ends, and the process advances to Step S37 in FIG. 5 as NO in Step S34 shown in FIG. 5, and determines that the target object is not a warning target.
[0056]
Also, in step S48, when the difference between the maximum value Max_Rate and the minimum value Min_Rate of the Rate which is the area ratio of the circumscribed rectangle and the binarized object within the specified time is less than the threshold TH7 (YES in step S48). Next, the image processing unit 1 performs a pedestrian determination for each shape of the target object extracted in more detail.
Specifically, first, it is determined whether or not the upper end height position Yt of the target object from the road surface is greater than a threshold value TH8 (a value appropriate as a height capable of distinguishing the upper and lower bodies of a pedestrian) (step S50). .
In step S50, when the upper end height position Yt of the object from the road surface is equal to or smaller than the threshold TH8 (NO in step S50), the process proceeds to step S51 in FIG. It is determined whether the width ΔWb of the binarization target is equal to or smaller than a threshold TH9 (a value appropriate for the width of the pedestrian's body) (step S51).
[0057]
FIG. 9 shows a processing procedure for identifying whether a lower body has been extracted by the binarization processing or a pedestrian who is sitting. In step S51, the width ΔWb of the binarization target object is smaller than the threshold TH9. If there is (YES in step S51), it is determined whether the weather around the host vehicle 10 is rainy (step S51-1).
Then, in (Step S51-1), when the weather around the host vehicle 10 is not rainy (NO in Step S51-1), in order to determine whether or not the object is a sitting pedestrian, It is determined whether the height ΔHg of the grayscale object is less than a threshold value TH10 (a value appropriate for the height of the pedestrian) (step S52).
[0058]
In step S52, when the height ΔHg of the grayscale object is equal to or larger than the threshold value TH10 (NO in step S52), it is assumed that this object corresponds to the torso of the pedestrian or the lower body, and the head exists at the upper part. In order to determine whether or not to perform the determination, it is determined whether or not the average luminance value Ave_A1 of the upper mask area AREA1 shown in FIG. 15 is larger than the threshold value TH11 (step S53).
In step S53, when the average luminance value Ave_A1 of the mask area AREA1 is larger than the threshold value TH11 (YES in step S53), since the body part may not easily radiate heat due to the influence of clothes, the luminance on the grayscale image may be reduced. As an object having a pattern, it is determined whether or not the luminance variance Var_A2 of the mask area AREA2 is larger than a threshold TH18 (step S53-1).
[0059]
If the luminance variance Var_A2 of the mask area AREA2 is larger than the threshold value TH18 in step S53-1 (YES in step S53-1), it is determined that the detected object is a pedestrian (step S54). The person determination process ends, and the process proceeds to step S35 in FIG. 5 as YES in step S34 shown in FIG. 5 to perform artificial structure determination.
Further, in (Step S51-1), if the weather around the host vehicle 10 is rainy (YES in Step S51-1), the determination of the mask area in Steps S52 to S53-1 is not performed, and Step S54 is not performed. Then, it is determined that the detected object is a pedestrian (step S54), the pedestrian determination process ends, and the process advances to step S35 in FIG. 5 as YES in step S34 shown in FIG. I do.
[0060]
On the other hand, in step S51, when the width ΔWb of the binarization target is larger than the threshold TH9 (NO in step S51), or when the average luminance value Ave_A1 of the mask area AREA1 is equal to or smaller than the threshold TH11 in step S53 ( If the luminance variance Var_A2 of the mask area AREA2 is equal to or smaller than the threshold value TH18 (NO in step S53-1) or further in step S53-1, the detected target object Is determined not to be a pedestrian (step S55), the pedestrian determination process ends, and the process advances to step S37 in FIG. 5 as NO in step S34 shown in FIG. 5, and determines that the object is not a warning target.
[0061]
If the height ΔHg of the grayscale object is less than the threshold value TH10 in step S52 (YES in step S52), the object is regarded as a sitting pedestrian, and the binarized object is viewed from the road surface. It is determined whether or not the upper end height position Yt of the target is larger than a threshold value TH12 (an appropriate value as a height that can distinguish a sitting pedestrian and a standing pedestrian) (step S56).
In step S56, when the upper end height position Yt of the binarized object from the road surface is larger than the threshold value TH12 (YES in step S56), the aspect ratio ASPECT of the circumscribed rectangle of the binarized object is represented. It is determined whether Asp is greater than or equal to threshold TH13 and less than or equal to TH14 (a value appropriate for a pedestrian) (step S57).
[0062]
In step S57, when Asp representing the aspect ratio ASPECT of the circumscribed rectangle of the binarized object is equal to or more than the threshold value TH13 and equal to or less than TH14 (YES in step S57), the circumscribed rectangle centroids 102 and 2 represented by the expression (9) are obtained. It is determined whether or not the distance Dis_c in the real space of the object to be valued from the center of gravity G100 is less than a threshold value TH15 (a value appropriate for a pedestrian) (step S58).
Dis_c = SQRT ((Xb-Xc) 2 + (Yb-Yc) 2 (9) If the distance Dis_c is less than the threshold value TH15 in step S58 (YES in step S58), for example, a pedestrian may be placed on an object whose ΔWb is 1.0 m or less and ΔHg is less than 1.0 m. Since the target object other than the above, specifically, the front part of the vehicle, is included, it is determined whether or not there is a part having a high degree of correlation with the previously registered head pattern in the upper mask area AREA1 of the binarized target object. A determination is made (step S59).
[0063]
In step S59, when there is a portion having a high degree of correlation with the pre-registered head pattern in the upper mask area AREA1 of the binarized object (YES in step S59), it is determined that the detected object is a pedestrian. Then (step S54), the pedestrian determination processing ends, and the process advances to step S35 in FIG. 5 as YES in step S34 shown in FIG. 5 to perform artificial structure determination.
[0064]
On the other hand, in step S56, when the upper end height position Yt of the binarized object from the road surface is equal to or smaller than the threshold TH12 (NO in step S56), or in step S57, the circumscribing of the binarized object is performed. When Asp representing the aspect ratio ASPECT of the quadrangle is smaller than the threshold TH13 or larger than TH14 (NO in step S57), or when the distance Dis_c is equal to or larger than the threshold TH15 in step S58 (NO in step S58), In step S59, if there is no part having a high degree of correlation with the previously registered head pattern in the upper mask area AREA1 of the binarized object (NO in step S59), the detected object It is determined that the object is not a pedestrian (step S55), and the pedestrian determination process ends. Proceeds to step S37 in FIG. 5 as NO in step S34 shown in, the object is determined not to be a warning target.
[0065]
In addition, in step S50 of FIG. 9, when the upper end height position Yt of the object from the road surface is larger than the threshold value TH8 (an appropriate value as a height that can distinguish the upper body and the lower body of the pedestrian) (YES in step S50). Then, the process proceeds to step S50-1 in FIG. 10, and it is determined whether the weather around the host vehicle 10 is rainy (step S50-1).
Then, in (Step S50-1), if the weather around the host vehicle 10 is not rainy (NO in Step S50-1), the object is an object floating in the air (for example, an object such as a curved mirror). In order to determine whether or not the height ΔHg of the grayscale object is greater than the threshold value TH16 (the same value as the above-described threshold value TH8), it is determined (step S60).
[0066]
FIG. 10 illustrates a processing procedure for identifying a pedestrian whose head or upper body has been extracted by the binarization processing. In step S60, the height ΔHg of the grayscale object is greater than the threshold value TH16. In this case (YES in step S60), since the target object is not an object floating in the air, it is next determined whether the head exists at the upper end of the target object area (AREA0) or the torso exists. I do. Specifically, first, since the head is exposed, it is determined whether or not the average luminance value Ave_A1 of the mask area AREA1 is larger than the threshold value TH17 (step S61).
[0067]
In step S61, when the average luminance value Ave_A1 of the mask area AREA1 is larger than the threshold value TH17 (YES in step S61), the body part may not easily dissipate heat due to the influence of clothes, so that the luminance pattern may be displayed on the grayscale image. As an object, it is determined whether or not the luminance variance Var_A2 of the mask area AREA2 is larger than a threshold TH18 (step S62).
If the luminance variance Var_A2 of the mask area AREA2 is larger than the threshold value TH18 in step S62 (YES in step S62), first, in order to determine a pedestrian whose head or upper body has been extracted by the binarization processing, It is determined whether or not the width ΔWb of the binarized object is equal to or smaller than a threshold TH19 (a value appropriate as a width capable of distinguishing the pedestrian's head or upper body) (step S63).
[0068]
Further, in (Step S50-1), when the weather around the host vehicle 10 is rainy (YES in Step S50-1), the determination of the mask area in Step S60 to Step S62 is not performed, and the process proceeds to Step S63. In order to determine the pedestrian whose head or upper body has been extracted by the binarization process, the width ΔWb of the binarized object is set to the threshold TH19 (appropriate as a width that can distinguish the pedestrian's head or upper body). Value) is determined (step S63).
[0069]
Next, in step S63, if the width ΔWb of the binarization target is larger than the threshold value TH19 (NO in step S63), at least the pedestrian whose upper body or whole body is extracted by the binarization processing is determined. In order to do so, it is determined whether the width ΔWb of the binarization target is equal to or smaller than a threshold TH9 (a value appropriate for the width of the pedestrian's body) (step S64).
Further, when the width ΔWb of the binarization target object is larger than the threshold TH9 in step S64 (NO in step S64), the binarization is performed to determine whether or not a plurality of pedestrians are walking in parallel. It is determined whether or not the width ΔWb of the target object is equal to or smaller than a threshold value TH2 (a value appropriate for the width of the pedestrian's body) (step S65).
[0070]
In the above determination, in step S60, when the height ΔHg of the grayscale object is equal to or smaller than the threshold TH16 (NO in step S60), or in step S61, the average luminance value Ave_A1 of the mask area AREA1 is set to the threshold TH17. If it is less than or equal to (NO in step S61), or if the luminance variance Var_A2 of the mask area AREA2 is equal to or less than the threshold TH18 in step S62 (NO in step S62), furthermore, in step S65, the binarization target object Is greater than the threshold value TH2 (NO in step S65), it is determined that the detected object is not a pedestrian (step S66), and the pedestrian determination process ends. , NO in step S34 shown in FIG. 5 and step S37 in FIG. Then, it is determined that the target object is not a warning target.
[0071]
On the other hand, in step S63, when the width ΔWb of the binarized object is equal to or smaller than the threshold value TH19 (YES in step S63), the object is a pedestrian whose head or upper body has been extracted by the binarization process. Then, the process proceeds to step S67 in FIG. 11 to determine whether Asp representing the aspect ratio ASPECT of the circumscribed rectangle of the binarized object is equal to or more than the threshold value TH20 and equal to or less than TH21 (a value appropriate for the pedestrian's head and upper body). (Step S67).
[0072]
FIG. 11 shows a processing procedure for identifying a pedestrian whose head and upper body have been extracted by the binarization processing. In step S67, the aspect ratio ASPECT of the circumscribed rectangle of the binarization target object is shown. When Asp is equal to or more than the threshold TH20 and equal to or less than TH21 (YES in step S67), it is determined whether or not the distance Dis_c in the real space between the circumscribed rectangular center of gravity 102 and the center of gravity G100 of the binarized object is less than the threshold TH15. (Step S68).
If the distance Dis_c is less than the threshold value TH15 in step S68 (YES in step S68), the detected object is determined to be a pedestrian (step S69), and the pedestrian determination process ends, and FIG. As YES in step S34 shown, the process proceeds to step S35 in FIG. 5 to perform artificial structure determination.
[0073]
On the other hand, if Asp representing the aspect ratio ASPECT of the circumscribed rectangle of the binarized object is smaller than the threshold TH20 or larger than TH21 in step S67 (NO in step S67), or in step S68, the distance Dis_c is equal to the threshold TH15. If the above is the case (NO in step S68), it is determined that the detected object is not a pedestrian (step S70), the pedestrian determination process ends, and the NO in step S34 shown in FIG. Proceeding to step S37, it is determined that the object is not a warning target.
[0074]
If the width ΔWb of the binarized object is equal to or smaller than the threshold TH9 in step S64 of FIG. 10 (YES in step S64), the object is extracted by at least the pedestrian's upper body or the whole body by the binarization processing. It is determined that the pedestrian is a pedestrian, and the process proceeds to step S71 in FIG. It is determined whether or not this is the case (step S71).
[0075]
FIG. 12 shows a processing procedure for identifying a pedestrian whose upper body or whole body has been extracted by the binarization processing. In step S71, Asp representing the aspect ratio ASPECT of the circumscribed rectangle of the binarization target object is shown. Is greater than or equal to the threshold TH13 and less than or equal to TH21 (YES in step S71), it is determined whether or not the distance Dis_c in the real space between the circumscribed rectangular center of gravity 102 and the center of gravity G100 of the binarized object is less than the threshold TH15. (Step S72).
[0076]
If the distance Dis_c is less than the threshold value TH15 in step S72 (YES in step S72), it is determined whether the weather around the host vehicle 10 is rainy (step S72-1).
Then, in (Step S72-1), if the weather around the host vehicle 10 is not rainy (NO in Step S72-1), the target object is an object other than a pedestrian, for example, a front part of the vehicle. Therefore, in the upper mask area AREA1 of the binarization target, it is determined whether or not there is a part having a high degree of correlation with the previously registered head pattern (step S73).
[0077]
In step S73, when there is a part having a high degree of correlation with the pre-registered head pattern in the upper mask area AREA1 of the binarized object (YES in step S73), it is determined that the detected object is a pedestrian. Then (step S74), the pedestrian determination processing ends, and the process advances to step S35 in FIG. 5 as YES in step S34 shown in FIG. 5 to perform artificial structure determination.
Further, in (Step S72-1), if the weather around the host vehicle 10 is rainy (YES in Step S72-1), the mask area is not determined in Step S73, and the process proceeds to Step S74 to be detected. It is determined that the target object is a pedestrian (step S74), the pedestrian determination processing ends, and the process advances to step S35 in FIG. 5 as YES in step S34 shown in FIG. 5 to perform artificial structure determination.
[0078]
On the other hand, when Asp representing the aspect ratio ASPECT of the circumscribed rectangle of the binarized object is less than the threshold TH13 or greater than TH21 in step S71 (NO in step S71), or in step S72, the distance Dis_c is equal to the threshold. If TH15 or more (NO in step S72), and furthermore, in step S73, if there is no part having a high degree of correlation with the previously registered head pattern in the upper mask area AREA1 of the binarization target (step S73). NO), it is determined that the detected object is not a pedestrian (step S75), the pedestrian determination process ends, and the determination in step S34 shown in FIG. Proceeding to S37, it is determined that the object is not a warning target.
[0079]
If the width ΔWb of the binarized object is equal to or smaller than the threshold value TH2 in step S65 of FIG. 10 (YES in step S65), the object is a target object because a plurality of pedestrians are walking in parallel. It is determined that many background areas are included in the circumscribed rectangle of, and the process proceeds to step S76 in FIG. 13, in which the rate of the area of the circumscribed rectangle and the area of the binarized object within the specified time is less than the threshold value TH22. It is determined whether or not (Step S76).
[0080]
FIG. 13 shows a processing procedure when the object is a plurality of pedestrians walking in parallel. In step S76, the area ratio of the circumscribed rectangle and the area ratio of the binarized object within the specified time are shown. If a certain Rate is less than the threshold value TH22 (YES in step S76), Asp representing the aspect ratio ASPECT of the circumscribed rectangle of the binarized object is equal to or more than the threshold value TH23 and equal to or less than TH14. It is determined whether it is an appropriate value) (step S77).
[0081]
In step S77, when Asp representing the aspect ratio ASPECT of the circumscribed rectangle of the binarized object is not less than the threshold value TH23 and not more than TH14 (YES in step S77), the above-described circumscribed rectangle centroid 102 and the centroid of the binarized object are determined. It is determined whether the distance Dis_c from the G100 in the real space is less than the threshold TH15 (step S78).
In step S78, when the distance Dis_c is less than the threshold value TH15 (YES in step S78), the detected object is determined to be a pedestrian (step S79), and the pedestrian determination process ends, and FIG. As YES in step S34 shown, the process proceeds to step S35 in FIG. 5 to perform artificial structure determination.
[0082]
On the other hand, in step S76, when Rate, which is the ratio of the area of the circumscribed rectangle to the binarized object within the specified time, is equal to or larger than the threshold value TH22 (NO in step S76), or in step S77, the binarized object When Asp representing the aspect ratio ASPECT of the circumscribed rectangle of the object is smaller than the threshold TH23 or larger than TH14 (NO in step S77), and further, in step S78, the distance Dis_c is equal to or larger than the threshold TH15 (step S78). NO), it is determined that the detected object is not a pedestrian (step S80), the pedestrian determination process ends, and the determination in step S34 shown in FIG. Proceeding to S37, it is determined that the target is not a warning target.
[0083]
In the present embodiment, the image processing unit 1 includes a weather detecting unit, an object extracting unit, a heat storage unit extracting unit, a pedestrian recognizing unit, and a shape determining unit. More specifically, S41-1 in FIG. 8 corresponds to the weather detection means, S1 to S13 in FIG. 3 correspond to the object extraction means, and S45, S46, S47 in FIG. 8, and S52, S53 in FIG. , S53-1, and S60, S61, and S62 in FIG. 10 correspond to a heat storage body extraction unit.
[0084]
S48 and S49 in FIG. 8, S50 and S54 to S59 in FIG. 9, S63 to S66 in FIG. 10, S67 to S70 in FIG. 11, S71 to S75 in FIG. 12, and S76 to S80 in FIG. Is equivalent to In particular, S59 in FIG. 9 and S73 in FIG. 12 correspond to the shape determining means.
[0085]
As described above, the vehicle periphery monitoring device according to the present embodiment extracts an object such as a pedestrian from the grayscale image of the image captured by the infrared camera by binarization processing, and then extracts the surroundings of the vehicle 10. If the weather is not rainy, a grayscale object within a range including the binarized object is extracted from the grayscale image by a change in the brightness of the grayscale image, and a plurality of grayscale objects are extracted in the grayscale object area. A search area is set, and a pedestrian in the search area is recognized based on the shape of the search area and the luminance variance of the search area.
When the weather around the host vehicle 10 is rainy, only the existence condition of the binarized object is determined, and the binarized image is determined based on the height and size of the binarized object in the image. Recognize pedestrians.
[0086]
Accordingly, when the weather around the host vehicle 10 is not rainy, for example, when the width of the image of the object is unnatural as a pedestrian, or when the image of the object is unnatural as a pedestrian The features of the pedestrian that removes these objects from the image of the target object and satisfies them include a portion with high luminance variance and a portion corresponding to the head, or a portion with high luminance variance and a portion corresponding to the torso. Or, it is determined whether the luminance variance of a wall or the like is low, and an image of an object whose luminance variance is different from the image of the pedestrian is removed from the image of the target object, and the detection accuracy of the pedestrian is improved. The effect of being able to improve is obtained.
[0087]
Further, when the weather around the host vehicle 10 is rainy, the amount of infrared radiation emitted by the target object decreases, so that the determination based on the luminance dispersion is not performed. For example, the width of the image of the target object is unnatural as a pedestrian. If the height of the image of the target object is unnatural as a pedestrian, it only removes these objects from the image of the target object to prevent false detection of pedestrians by judgment using luminance variance However, there is an effect that the detection accuracy of the pedestrian can be maintained.
[0088]
【The invention's effect】
As described above, according to the vehicle periphery monitoring device of the first aspect, when the weather around the vehicle is determined to be rainy by the weather detection unit, the pedestrian recognition unit is configured to output the directly extracted target Recognize pedestrians from objects. On the other hand, when it is determined that the weather around the vehicle is other than that, the heat storage medium is extracted from the object by the heat storage medium extraction means, and the pedestrian recognition means walks from the object except the heat storage medium. By recognizing the pedestrian, appropriate pedestrian recognition can be performed according to the situation around the vehicle.
Therefore, if the weather around the vehicle is not rainy, an object that emits heat (infrared rays) equivalent to that of a pedestrian, such as a wall that receives sunlight from the sun, is characterized by its luminance dispersion characteristic. Therefore, the object can be removed from the target object based on the above, and the effect of detecting the pedestrian can be improved. In addition, when the weather around the vehicle is rainy, the determination based on the luminance variance is not performed, and erroneous detection of the pedestrian by the determination using the luminance variance is prevented, and the detection accuracy of the pedestrian is improved. The effect of being able to maintain is obtained.
[0089]
According to the vehicle periphery monitoring device of the second aspect, when the weather around the vehicle is determined to be rainy by the weather detection means, the shape determination process is stopped, and the shape of the object on the image is stopped. Can be prevented from being erroneously determined by the pedestrian recognition means.
Therefore, when the weather around the vehicle is rainy, erroneous detection of a pedestrian by determining the shape of the target object can be prevented, and the effect of maintaining pedestrian detection accuracy can be obtained.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a vehicle periphery monitoring device according to an embodiment of the present invention.
FIG. 2 is a diagram showing attachment positions of an infrared camera, a sensor, a display, and the like in a vehicle.
FIG. 3 is a flowchart showing an object detection / warning operation of the vehicle periphery monitoring device of the embodiment.
FIG. 4 is a diagram showing a grayscale image obtained by an infrared camera and its binary image.
FIG. 5 is a flowchart showing an alarm determination processing operation of the embodiment.
FIG. 6 is a diagram illustrating a case where a collision is likely to occur.
FIG. 7 is a diagram showing an area division in front of a vehicle.
FIG. 8 is a flowchart showing a pedestrian determination processing operation of the embodiment.
FIG. 9 is a flowchart showing a pedestrian determination processing operation of the embodiment.
FIG. 10 is a flowchart showing a pedestrian determination processing operation of the embodiment.
FIG. 11 is a flowchart showing a pedestrian determination processing operation of the embodiment.
FIG. 12 is a flowchart showing a pedestrian determination processing operation of the embodiment.
FIG. 13 is a flowchart showing a pedestrian determination processing operation of the embodiment.
FIG. 14 is a diagram showing a binarized object shape feature amount according to the embodiment;
FIG. 15 is a diagram showing setting of a mask area according to the embodiment.
FIG. 16 is a diagram showing a luminance variance of the mask area AREA3 when the object is a part or the whole of a pedestrian or when the object is a wall.
FIG. 17 is a diagram showing a grayscale image in fine weather and a grayscale image in rainy weather in the vehicle periphery monitoring device of the embodiment.
FIG. 18 is a graph comparing a luminance histogram of a grayscale image in rainy weather and a luminance histogram of a grayscale image in fine weather in the vehicle periphery monitoring device of the embodiment.
[Explanation of symbols]
1 Image processing unit
2R, 2L infrared camera
3 Yaw rate sensor
4 Vehicle speed sensor
5 Brake sensor
6 Speaker
7 Image display device
10 own vehicle
S1 to S13 Object extraction means
S41-1 Weather detection means
S45, S46, S47, S52, S53, S53-1, S60, S61, S62 Heat storage body extraction means
S48-S50, S54-S59, S63-S80 Pedestrian recognition means
S59, S73 Shape determination means

Claims (2)

赤外線カメラにより撮影された赤外線画像から、車両の周辺に存在する物体を検出する車両周辺監視装置であって、
前記車両の周囲の天候を検知する天候検知手段と、
前記赤外線画像から赤外線を発する対象物を抽出する対象物抽出手段と、
前記対象物抽出手段により抽出された対象物から、自らは発熱せずに外部より与えられた熱のみを蓄熱する蓄熱体を抽出する蓄熱体抽出手段と、
前記天候検知手段により前記車両の周囲の天候が雨天であると判断された場合には、前記対象物の中から歩行者を認識し、それ以外の場合には、前記蓄熱体抽出手段により抽出された前記蓄熱体を除く前記対象物の中から歩行者を認識する歩行者認識手段と
を備えたことを特徴とする車両周辺監視装置。
A vehicle periphery monitoring device that detects an object existing around the vehicle from an infrared image captured by an infrared camera,
Weather detection means for detecting the weather around the vehicle,
Object extraction means for extracting an object that emits infrared light from the infrared image,
From the object extracted by the object extraction means, a heat storage body extraction means for extracting a heat storage body that stores only heat given from outside without generating heat itself,
When the weather around the vehicle is judged to be rainy by the weather detecting means, a pedestrian is recognized from the object, otherwise, the pedestrian is extracted by the heat storage body extracting means. And a pedestrian recognizing means for recognizing a pedestrian from among the objects other than the heat storage body.
前記歩行者認識手段が、
前記対象物の形状を判定する形状判定手段を含み、
前記天候検知手段により前記車両の周囲の天候が雨天であると判断された場合には、前記形状判定手段を停止する
ことを特徴とする請求項1に記載の車両周辺監視装置。
The pedestrian recognition means,
Including a shape determination means for determining the shape of the object,
2. The vehicle periphery monitoring device according to claim 1, wherein when the weather around the vehicle is determined to be rainy by the weather detection unit, the shape determination unit is stopped. 3.
JP2002297220A 2002-01-18 2002-10-10 Vehicle periphery monitoring device Expired - Fee Related JP3939626B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2002297220A JP3939626B2 (en) 2002-10-10 2002-10-10 Vehicle periphery monitoring device
DE10301468A DE10301468B4 (en) 2002-01-18 2003-01-16 Device for monitoring the environment of a vehicle
US10/346,517 US7130448B2 (en) 2002-01-18 2003-01-17 Device for monitoring around a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002297220A JP3939626B2 (en) 2002-10-10 2002-10-10 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2004135034A true JP2004135034A (en) 2004-04-30
JP3939626B2 JP3939626B2 (en) 2007-07-04

Family

ID=32286974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002297220A Expired - Fee Related JP3939626B2 (en) 2002-01-18 2002-10-10 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP3939626B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006046935A (en) * 2004-07-30 2006-02-16 Matsushita Electric Ind Co Ltd Distance measuring optical device, distance measuring method, distance measuring system, on-vehicle imaging device and on-vehicle operation-support device
JP2007013773A (en) * 2005-07-01 2007-01-18 Toyota Central Res & Dev Lab Inc Object search system
JP2009184450A (en) * 2008-02-05 2009-08-20 Toyota Central R&D Labs Inc Light irradiation device
JP2011108046A (en) * 2009-11-18 2011-06-02 Honda Motor Co Ltd Device for monitoring vehicle surroundings
KR20190062184A (en) * 2017-11-27 2019-06-05 고려대학교 산학협력단 System and method for pedestrian-vehicle collision warning based on pedestrian state

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10148681A (en) * 1996-11-15 1998-06-02 Mitsuba Corp Method for detecting raindrops
JP2000019259A (en) * 1998-06-30 2000-01-21 Mazda Motor Corp Environmental recognition device
JP2003284057A (en) * 2002-01-18 2003-10-03 Honda Motor Co Ltd Vehicle periphery monitoring unit

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10148681A (en) * 1996-11-15 1998-06-02 Mitsuba Corp Method for detecting raindrops
JP2000019259A (en) * 1998-06-30 2000-01-21 Mazda Motor Corp Environmental recognition device
JP2003284057A (en) * 2002-01-18 2003-10-03 Honda Motor Co Ltd Vehicle periphery monitoring unit

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006046935A (en) * 2004-07-30 2006-02-16 Matsushita Electric Ind Co Ltd Distance measuring optical device, distance measuring method, distance measuring system, on-vehicle imaging device and on-vehicle operation-support device
JP2007013773A (en) * 2005-07-01 2007-01-18 Toyota Central Res & Dev Lab Inc Object search system
JP4710437B2 (en) * 2005-07-01 2011-06-29 トヨタ自動車株式会社 Object search device
JP2009184450A (en) * 2008-02-05 2009-08-20 Toyota Central R&D Labs Inc Light irradiation device
JP2011108046A (en) * 2009-11-18 2011-06-02 Honda Motor Co Ltd Device for monitoring vehicle surroundings
KR20190062184A (en) * 2017-11-27 2019-06-05 고려대학교 산학협력단 System and method for pedestrian-vehicle collision warning based on pedestrian state
KR102099265B1 (en) * 2017-11-27 2020-05-15 고려대학교 산학협력단 System and method for pedestrian-vehicle collision warning based on pedestrian state

Also Published As

Publication number Publication date
JP3939626B2 (en) 2007-07-04

Similar Documents

Publication Publication Date Title
JP4060159B2 (en) Vehicle periphery monitoring device
JP3987013B2 (en) Vehicle periphery monitoring device
JP3987048B2 (en) Vehicle periphery monitoring device
JP4104867B2 (en) Night vision system
US8144195B2 (en) Vehicle zone monitoring apparatus
JP3764086B2 (en) Vehicle information providing device
JP3934119B2 (en) Vehicle periphery monitoring device
JP4410292B1 (en) Vehicle periphery monitoring device
JP4203512B2 (en) Vehicle periphery monitoring device
JP3987057B2 (en) Vehicle periphery monitoring device
US7366325B2 (en) Moving object detection using low illumination depth capable computer vision
Fang et al. Comparison between infrared-image-based and visible-image-based approaches for pedestrian detection
JP3839329B2 (en) Night vision system
JP2007334511A (en) Object detection device, vehicle, object detection method and program for object detection
JP2003028635A (en) Image range finder
JP3939626B2 (en) Vehicle periphery monitoring device
JP4647648B2 (en) Vehicle periphery monitoring device
JP3898157B2 (en) Infrared image recognition device
JP3844750B2 (en) Infrared image recognition device and alarm device using infrared image recognition device
JP4567072B2 (en) Vehicle periphery monitoring device
JP2010092437A (en) Vehicle periphery monitoring device
JP4358183B2 (en) Vehicle periphery monitoring device
JP4283266B2 (en) Vehicle periphery monitoring device
JP2006185432A (en) Vehicle surroundings monitoring apparatus
JP3939580B2 (en) Obstacle alarm device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070328

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110406

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110406

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130406

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130406

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140406

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees