JP3898157B2 - Infrared image recognition device - Google Patents
Infrared image recognition device Download PDFInfo
- Publication number
- JP3898157B2 JP3898157B2 JP2003159914A JP2003159914A JP3898157B2 JP 3898157 B2 JP3898157 B2 JP 3898157B2 JP 2003159914 A JP2003159914 A JP 2003159914A JP 2003159914 A JP2003159914 A JP 2003159914A JP 3898157 B2 JP3898157 B2 JP 3898157B2
- Authority
- JP
- Japan
- Prior art keywords
- objects
- pedestrian
- image
- infrared image
- shielding object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Measurement Of Optical Distance (AREA)
- Closed-Circuit Television Systems (AREA)
Description
【0001】
【発明の属する技術分野】
この発明は、自車両の走行に影響を与える対象物を認識する赤外線画像認識装置に関する。
【0002】
【従来の技術】
従来、赤外線カメラにより捉えられた車両周辺の画像から、自車両との衝突の可能性がある歩行者等の対象物を抽出し、その情報を自車両の運転者に提供する表示処理装置が提案されている。この装置は、赤外線画像を2値化処理して明部が集中している領域を探し、この領域の縦横比や充足率、更には実面積と画面上の重心位置を用いて距離を算出することで、この領域が歩行者の頭部であるか否かを判定する。そして、歩行者の頭部の領域を決定することができたら、決定した頭部領域のカメラからの距離と成人の平均身長とから、画像上の歩行者の身長を計算して歩行者の身体を包含する領域を設定し、これらの領域を他の領域と区分して表示する。これにより、赤外線画像上の歩行者の身体全体の位置を特定し、この情報を車両の運転者に対して表示することで、より効果的な視覚補助を行うことができる(例えば、特許文献1参照。)。
【0003】
また、ステレオ赤外線カメラにより捉えられた車両周辺の左画像から類似対象物を探索し、複数の類似対象物が存在するときは、それらを包含するクラスタリングブロックを設定すると共に、右画像内から対応するブロックをSAD(Sum of Absolute difference )を用いて抽出し、左画像内のクラスタリングブロックと、右画像から抽出したブロックとの相関性を示す相関値が、所定値以下であって高い相関性を示すときは、クラスタリングブロックに含まれる複数の対象物を単一対象物とみなして距離を算出するものもある(例えば、特許文献2参照。)。
【0004】
【特許文献1】
特開平11−328364号公報
【特許文献2】
特開2001−147117号公報
【0005】
【発明が解決しようとする課題】
しかし、特許文献1に記載の技術では、最初に歩行者の頭部の領域を決定することにより、この領域に基づいて赤外線画像上の歩行者の身体全体の位置を特定し、この情報を車両の運転者に対して表示することで、より効果的な視覚補助を行うことができるものの、図8に示すように、例えば道路上の端部には自動販売機や看板、壁等があり、それらより道路側に電柱や標識がある道路環境においては、発熱体である自動販売機または太陽光により高温となった看板等が、温度が低く赤外線の放出量の少ない状態の電柱や標識の柱により遮蔽され、2つに分割されて検出された場合、歩行者が二人存在すると判定する可能性があるという問題があった。
【0006】
また、特許文献2に記載の技術では、例えば信号機のライト部分のような物体が複数あるような場合に、いずれの物体がどの信号機等の人工構造物に属するものかを判定することができるものの、本来なら1つであるべき物体が遮蔽物により2つ、あるいはそれ以上に分割されたものであるかどうかまでは判定することができなかった。
【0007】
本発明は、上記課題に鑑みてなされたもので、赤外線画像上の物体の見え方によらず、1つの物体は1つの物体として認識することで歩行者等の生体のみを高精度で検出することができる赤外線画像認識装置を提供することを目的とする。
【0008】
【課題を解決するための手段】
上記課題を解決するために、請求項1の発明に係る赤外線画像認識装置は、車両に搭載されると共に、赤外線を検知する撮像手段により撮像された画像に基づいて前記車両の周囲に存在する物体の認識を行う赤外線画像認識装置であって、1つの対象物が遮蔽物により分離されて複数の対象物として検出されたと推測する遮蔽物分離推測手段(例えば実施の形態のステップS41からステップS48)を備え、該遮蔽物分離推定手段は、前記複数の対象物が、お互いに前記車両から等距離でかつ横方向に所定値より小さい間隔を有して存在していると共に、前記複数の対象物上部が形状の連続性を有する場合、該複数の対象物が遮蔽物により分離されて検出されたと推測することを特徴とする。
【0009】
以上の構成を備えた赤外線画像認識装置は、遮蔽物分離推測手段が、検出された複数の対象物を、1つの対象物が遮蔽物により分離されて検出された物体と推測することで、1つの対象物とそれを遮蔽する遮蔽物の両方の存在を一度に認識することができる。
また、遮蔽物分離推測手段が、お互いに車両から等距離でかつ横方向に所定の間隔を有して存在していると共に、その上部が形状の連続性を有する複数の対象物を、遮蔽物により分離されて検出された1つの対象物と判断することで、例えば、2人並んだ歩行者と、電柱のような人工構造物により遮蔽されて2つに見える発熱体または蓄熱体とを区別して認識することができる。
【0010】
請求項2の発明に係る赤外線画像認識装置は、請求項1に記載の赤外線画像認識装置において、前記遮蔽物分離推定手段が、前記所定値として、前記複数の対象物の実際の幅を映像上の幅に変換した値を適用することを特徴とする。
請求項3の発明に係る赤外線画像認識装置は、請求項1又は2に記載の赤外線画像認識装置において、前記遮蔽物分離推定手段が、前記複数の対象物の上部の高さが等しいときに、前記複数の対象物が連続性を有すると判断することを特徴とする。
請求項4の発明に係る赤外線画像認識装置は、請求項1又は2に記載の赤外線画像認識装置において、前記遮蔽物分離推定手段が、前記複数の対象物の上部の直線の連続性から、前記複数の対象物が連続性を有すると判断することを特徴とする。
【0011】
請求項5の発明に係る赤外線画像認識装置は、請求項1〜4のいずれか一項に記載の赤外線画像認識装置において、前記遮蔽物分離推定手段が、前記複数の対象物の歩行者の頭部と推定される部分の輝度平均値が等しいと判定されたときに、前記複数の対象物が遮蔽物により分離されて検出されたと推測することを特徴とする。
請求項6の発明に係る赤外線画像認識装置は、請求項1〜5のいずれか一項に記載の赤外線画像認識装置において、前記遮蔽物分離推定手段が、前記複数の対象物の歩行者の頭部と推定される部分の輝度分散値がいずれも所定値よりも小さいときに、前記複数の対象物が遮蔽物により分離されて検出されたと推測することを特徴とする。
請求項7の発明に係る赤外線画像認識装置は、請求項1〜6のいずれか一項に記載の赤外線画像認識装置において、前記遮蔽物分離推定手段が、遮蔽物にて分離されて検出されたと判断された複数の対象物を人工構造物と判断する人工構造物判断手段を備えたことを特徴とする。
請求項8の発明に係る赤外線画像認識装置は、請求項7に記載の赤外線画像認識装置において、前記対象物から歩行者の可能性のある対象物を認識する歩行者認識手段と、該歩行者認識手段にて認識された歩行者を警報出力する警報手段とを備え、該警報手段は、前記歩行者認識手段にて歩行者の可能性があると判断された対象物のうち、前記人工構造物判断手段にて人工構造物と判断された対象物を警報対象から除外することを特徴とする。
以上の構成を備えた赤外線画像認識装置は、遮蔽物分離推測手段が、お互いに車両から等距離でかつ横方向に所定の間隔を有して存在していると共に、その上部が形状の連続性を有する複数の対象物を、遮蔽物により分離されて検出された1つの対象物と判断することで、例えば、2人並んだ歩行者と、電柱のような人工構造物により遮蔽されて2つに見える発熱体または蓄熱体とを区別して認識することができる。
【0012】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について説明する。
図1は、本発明の一実施の形態の赤外線画像認識装置の構成を示すブロック図である。
図1において、符号1は、本実施の形態の赤外線画像認識装置を制御するCPU(中央演算装置)を備えた画像処理ユニットであって、遠赤外線を検出可能な2つの赤外線カメラ2R、2Lと当該車両のヨーレートを検出するヨーレートセンサ3、更に、当該車両の走行速度(車速)を検出する車速センサ4とブレーキの操作を検出するためのブレーキセンサ5が接続される。これにより、画像処理ユニット1は、車両の周辺の赤外線画像と車両の走行状態を示す信号から、車両前方の歩行者や動物等の動く物体を検出し、衝突の可能性が高いと判断したときに警報を発する。
【0013】
また、画像処理ユニット1には、音声で警報を発するためのスピーカ6と、赤外線カメラ2R、2Lにより撮影された画像を表示し、衝突の危険性が高い対象物を車両の運転者に認識させるための、例えば自車両の走行状態を数字で表すメータと一体化されたメータ一体Displayや自車両のコンソールに設置されるNAVIDisplay、更にフロントウィンドウの運転者の前方視界を妨げない位置に情報を表示するHUD(Head Up Display )7a等を含む画像表示装置7が接続されている。
【0014】
また、画像処理ユニット1は、入力アナログ信号をディジタル信号に変換するA/D変換回路、ディジタル化した画像信号を記憶する画像メモリ、各種演算処理を行うCPU(中央演算装置)、CPUが演算途中のデータを記憶するために使用するRAM(Random Access Memory)、CPUが実行するプログラムやテーブル、マップなどを記憶するROM(Read Only Memory)、スピーカ6の駆動信号、HUD7a等の表示信号などを出力する出力回路を備えており、赤外線カメラ2R、2L及びヨーレートセンサ3、車速センサ4、ブレーキセンサ5の各出力信号は、ディジタル信号に変換されてCPUに入力されるように構成されている。
【0015】
また、図2に示すように、赤外線カメラ2R、2Lは、自車両10の前部に、自車両10の車幅方向中心部に対してほぼ対称な位置に配置されており、2つの赤外線カメラ2R、2Lの光軸が互いに平行であって、かつ両者の路面からの高さが等しくなるように固定されている。なお、赤外線カメラ2R、2Lは、対象物の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。
また、HUD7aは、自車両10のフロントウインドウの運転者の前方視界を妨げない位置に表示画面が表示されるように設けられている。
【0016】
次に、本実施の形態の動作について図面を参照して説明する。
(対象物検出・警報動作)
図3は、本実施の形態の赤外線画像認識装置の画像処理ユニット1における歩行者等の対象物検出・警報動作を示すフローチャートである。
まず、画像処理ユニット1は、赤外線カメラ2R、2Lの出力信号である赤外線画像を取得して(ステップS1)、A/D変換し(ステップS2)、グレースケール画像を画像メモリに格納する(ステップS3)。なお、ここでは赤外線カメラ2Rにより右画像が得られ、赤外線カメラ2Lにより左画像が得られる。また、右画像と左画像では、同一の対象物の表示画面上の水平位置がずれて表示されるので、このずれ(視差)によりその対象物までの距離を算出することができる。
【0017】
ステップS3においてグレースケール画像が得られたら、次に、赤外線カメラ2Rにより得られた右画像を基準画像とし、その画像信号の2値化処理、すなわち、輝度閾値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う(ステップS4)。
図4(a)は、赤外線カメラ2Rにより得られたグレースケール画像を示し、これに2値化処理を行うことにより、図4(b)に示すような画像を得る。なお、図4(b)において、例えばP1からP4の枠で囲った物体を、表示画面上に白色として表示される対象物(以下「高輝度領域」という)とする。
赤外線画像から2値化された画像データを取得したら、2値化した画像データをランレングスデータに変換する処理を行う(ステップS5)。ランレングスデータにより表されるラインは、2値化により白となった領域を画素レベルで示したもので、いずれもy方向には1画素の幅を有しており、またx方向にはそれぞれランレングスデータを構成する画素の長さを有している。
【0018】
次に、ランレングスデータに変換された画像データから、対象物のラベリングをする(ステップS6)ことにより、対象物を抽出する処理を行う(ステップS7)。すなわち、ランレングスデータ化したラインのうち、y方向に重なる部分のあるラインを1つの対象物とみなすことにより、例えば図4(b)に示す高輝度領域P1からP4が、それぞれ対象物(2値化対象物)として把握されることになる。
対象物の抽出が完了したら、次に、抽出した対象物の重心G、面積S及び外接四角形の縦横比ASPECTを算出する(ステップS8)。
【0019】
ここで、面積Sは、ラベルAの対象物のランレングスデータを(x[i]、y[i]、run[i]、A)(i=0,1,2,・・・N−1)とすると、ランレングスデータの長さ(run[i]−1)を同一対象物(N個のランレングスデータ)について積算することにより算出する。また、対象物Aの重心Gの座標(xc、yc)は、各ランレングスデータの長さ(run[i]−1)と各ランレングスデータの座標x[i]、またはy[i]とをそれぞれ掛け合わせ、更にこれを同一対象物について積算したものを、面積Sで割ることにより算出する。更に、縦横比ASPECTは、対象物の外接四角形の縦方向の長さDyと横方向の長さDxとの比Dy/Dxとして算出する。
なお、ランレングスデータは画素数(座標数)(=run[i])で示されているので、実際の長さは「−1」する(1を減算する)必要がある(=run[i]−1)。また、重心Gの位置は、外接四角形の重心位置で代用してもよい。
【0020】
対象物の重心、面積、外接四角形の縦横比が算出できたら、次に、対象物の時刻間追跡、すなわちサンプリング周期毎の同一対象物の認識を行う(ステップS9)。時刻間追跡は、アナログ量としての時刻tをサンプリング周期で離散化した時刻をkとし、例えば時刻kで対象物A、Bを抽出したら、時刻(k+1)で抽出した対象物C、Dと対象物A、Bとの同一性判定を行う。そして、対象物A、Bと対象物C、Dとが同一であると判定されたら、対象物C、Dをそれぞれ対象物A、Bというラベルに変更することにより、時刻間追跡が行われる。
また、このようにして認識された各対象物の(重心の)位置座標は、時系列位置データとしてメモリに格納され、後の演算処理に使用される。
【0021】
なお、以上説明したステップS4〜S9の処理は、2値化した基準画像(本実施の形態では、右画像)について実行する。
次に、車速センサ4により検出される車速VCAR及びヨーレートセンサ3より検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することにより、自車両10の回頭角θrを算出する(ステップS10)。
【0022】
一方、ステップS9とステップS10の処理に平行して、ステップS11〜S13では、対象物と自車両10との距離zを算出する処理を行う。この演算はステップS9、及びステップS10より長い時間を要するため、ステップS9、S10より長い周期(例えばステップS1〜S10の実行周期の3倍程度の周期)で実行される。
まず、基準画像(右画像)の2値化画像によって追跡される対象物の中の1つを選択することにより、右画像から探索画像R1(ここでは、外接四角形で囲まれる領域全体を探索画像とする)を抽出する(ステップS11)。
【0023】
次に、左画像中から探索画像R1に対応する画像(以下「対応画像」という)を探索する探索領域を設定し、相関演算を実行して対応画像を抽出する(ステップS12)。具体的には、探索画像R1の各頂点座標に応じて、左画像中に探索領域R2を設定し、探索領域R2内で探索画像R1との相関の高さを示す輝度差分総和値C(a,b)を算出し、この総和値C(a,b)が最小となる領域を対応画像として抽出する。なお、この相関演算は、2値化画像ではなくグレースケール画像を用いて行う。
また同一対象物についての過去の位置データがあるときは、その位置データに基づいて探索領域R2より狭い領域R2aを探索領域として設定する。
【0024】
ステップS12の処理により、基準画像(右画像)中に探索画像R1と、左画像中にこの対象物に対応する対応画像R4とが抽出されるので、次に、探索画像R1の重心位置と対応画像R4の重心位置と視差Δd(画素数)を求め、これから自車両10と対象物との距離zを算出する(ステップS13)。
次に、ステップS10における回頭角θrの算出と、ステップS13における対象物との距離算出が完了したら、画像内の座標(x,y)及び距離zを実空間座標(X,Y,Z)に変換する(ステップS14)。
ここで、実空間座標(X,Y,Z)は、図2に示すように、赤外線カメラ2R、2Lの取り付け位置の中点の位置(自車両10に固定された位置)を原点Oとして、図示のように定め、画像内の座標は、画像の中心を原点として水平方向をx、垂直方向をyと定めている。
【0025】
また、実空間座標が求められたら、自車両10が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う(ステップS15)。回頭角補正は、時刻kから(k+1)までの期間中に自車両10が例えば左方向に回頭角θrだけ回頭すると、回頭角θrと車両の横移動のため、カメラによって得られる画像上では、画像の範囲がΔxだけx方向にずれるので、これを補正する処理である。
なお、以下の説明では、回頭角補正後の座標を(X,Y,Z)と表示する。
【0026】
実空間座標に対する回頭角補正が完了したら、次に、同一対象物について、ΔTのモニタ期間内に得られた、回頭角補正後のN個(例えばN=10程度)の実空間位置データ、すなわち時系列データから、対象物と自車両10との相対移動ベクトルに対応する近似直線LMVを求める。
次いで、最新の位置座標P(0)=(X(0),Y(0),Z(0))と、(N−1)サンプル前(時間ΔT前)の位置座標P(Nー1)=(X(N−1),Y(N−1),Z(N−1))を近似直線LMV上の位置に補正し、補正後の位置座標Pv(0)=(Xv(0),Yv(0),Zv(0))及びPv(N−1)=(Xv(N−1),Yv(N−1),Zv(N−1))を求める。
【0027】
これにより、位置座標Pv(N−1)からPv(0)に向かうベクトルとして、相対移動ベクトルが得られる(ステップS16)。
このようにモニタ期間ΔT内の複数(N個)のデータから対象物の自車両10に対する相対移動軌跡を近似する近似直線を算出して相対移動ベクトルを求めることにより、位置検出誤差の影響を軽減して対象物との衝突の可能性をより正確に予測することが可能となる。
【0028】
また、ステップS16において、相対移動ベクトルが求められたら、次に、検出した対象物との衝突の可能性を判定する警報判定処理を行う(ステップS17)。なお、警報判定処理については、詳細を後述する。
ステップS17において、自車両10と検出した対象物との衝突の可能性がないと判定された場合(ステップS17のNO)、ステップS1へ戻り、上述の処理を繰り返す。
また、ステップS17において、自車両10と検出した対象物との衝突の可能性があると判定された場合(ステップS17のYES)、ステップS18の警報出力判定処理へ進む。
【0029】
ステップS18では、ブレーキセンサ5の出力BRから自車両10の運転者がブレーキ操作を行っているか否かを判別することにより、警報出力判定処理、すなわち警報出力を行うか否かの判定を行う(ステップS18)。
もし、自車両10の運転者がブレーキ操作を行っている場合には、それによって発生する加速度Gs(減速方向を正とする)を算出し、この加速度Gsが所定閾値GTHより大きいときは、ブレーキ操作により衝突が回避されると判定して警報出力判定処理を終了し(ステップS18のNO)、ステップS1へ戻り、上述の処理を繰り返す。
これにより、適切なブレーキ操作が行われているときは、警報を発しないようにして、運転者に余計な煩わしさを与えないようにすることができる。
【0030】
また、加速度Gsが所定閾値GTH以下であるとき、または自車両10の運転者がブレーキ操作を行っていなければ、直ちにステップS19の処理へ進み(ステップS18のYES)、対象物と接触する可能性が高いので、スピーカ6を介して音声による警報を発する(ステップS19)とともに、画像表示装置7に対して、例えば赤外線カメラ2Rにより得られる画像を出力し、接近してくる対象物を自車両10の運転者に対する強調映像として表示する(ステップS20)。
【0031】
なお、所定閾値GTHは、ブレーキ操作中の加速度Gsがそのまま維持された場合に、対象物と自車両10との距離Zv(0)以下の走行距離で自車両10が停止する条件に対応する値である。
【0032】
(警報判定処理)
以上が、本実施の形態の赤外線画像認識装置の画像処理ユニット1における対象物検出・警報動作であるが、次に、図5に示すフローチャートを参照して、図3に示したフローチャートのステップS17における警報判定処理について更に詳しく説明する。
図5は、本実施の形態の警報判定処理動作を示すフローチャートである。
警報判定処理は、以下に示す衝突判定処理、接近判定領域内か否かの判定処理、進入衝突判定処理、歩行者判定処理、及び人工構造物判定処理により、自車両10と検出した対象物との衝突の可能性を判定する処理である。以下、図6に示すように、自車両10の進行方向に対してほぼ90°の方向から、速度Vpで進行してくる対象物20がいる場合を例に取って説明する。
【0033】
図5において、まず、画像処理ユニット1は衝突判定処理を行う(ステップS31)。衝突判定処理は、図6において、対象物20が時間ΔTの間に距離Zv(N−1)から距離Zv(0)に接近した場合に、自車両10とのZ方向の相対速度Vsを求め、両者が高さH以内で相対速度Vsを維持して移動すると仮定して、余裕時間T以内に両者が衝突するか否かを判定する処理である。ここで、余裕時間Tは、衝突の可能性を予測衝突時刻より時間Tだけ前に判定することを意図したものである。従って、余裕時間Tは例えば2〜5秒程度に設定される。またHは、高さ方向の範囲を規定する所定高さであり、例えば自車両10の車高の2倍程度に設定される。
【0034】
次に、ステップS31において、余裕時間T以内に自車両10と対象物とが衝突する可能性がある場合(ステップS31のYES)、更に判定の信頼性を上げるために、画像処理ユニット1は対象物が接近判定領域内に存在するか否かの判定処理を行う(ステップS32)。接近判定領域内か否かの判定処理は、図7に示すように、赤外線カメラ2R、2Lで監視可能な領域を太い実線で示す外側の三角形の領域AR0とすると、領域AR0内の、Z1=Vs×Tより自車両10に近い領域であって、対象物が自車両10の車幅αの両側に余裕β(例えば50〜100cm程度とする)を加えた範囲に対応する領域AR1、すなわち対象物がそのまま存在し続ければ自車両10との衝突の可能性がきわめて高い接近判定領域AR1内に存在するか否かを判定する処理である。なお、接近判定領域AR1も所定高さHを有する。
【0035】
更に、ステップS32において、対象物が接近判定領域内に存在しない場合(ステップS32のNO)、画像処理ユニット1は対象物が接近判定領域内へ進入して自車両10と衝突する可能性があるか否かを判定する進入衝突判定処理を行う(ステップS33)。進入衝突判定処理は、上述の接近判定領域AR1よりX座標の絶対値が大きい(接近判定領域の横方向外側の)領域AR2、AR3を進入判定領域と呼び、この領域内にある対象物が、移動することにより接近判定領域AR1に進入すると共に自車両10と衝突するか否かを判定する処理である。なお、進入判定領域AR2、AR3も所定高さHを有する。
【0036】
一方、ステップS32において、対象物が接近判定領域内に存在している場合(ステップS32のYES)、画像処理ユニット1は対象物が歩行者の可能性があるか否かを判定する歩行者判定処理を行う(ステップS34)。歩行者判定処理は、グレースケール画像上で対象物画像の形状や大きさ、輝度分散等の特徴から、対象物が歩行者か否かを判定する処理である。
【0037】
歩行者判定処理について、例えば具体的に一例を挙げて説明すると、まず歩行者の頭部が存在するか否かを判定する頭部判定を行うために、グレースケール画像で抽出された対象物領域の中にプロジェクションエリアを設定し、縦方向の輝度プロジョクション(画素毎の輝度を縦方向に積算した積算輝度の横方向の分布)を算出すると共に、映像左上原点を基準にして最大ピークを示す横方向座標を検出する。
【0038】
次に、検出した横方向位置を基準に、歩行者の頭部位置に相当すると推定される領域に基準領域マスクを設定すると共に、その左右位置に肩上部空間に相当すると推定される2つの対象領域マスクを設定する。
そして、基準領域マスクの平均輝度、及び2つの対象領域マスクの平均輝度を算出すると共に、求められた各領域の平均輝度から、歩行者の頭部が存在するか否かを判定する。具体的には、頭部の左右(背景)の輝度階調に対して高輝度である歩行者頭部の輝度階調が認められる場合、頭部が存在すると判定する。
【0039】
もし、歩行者の頭部が存在すると判定された場合、次に、歩行者では捉えやすい肩から腕にかけての部分の存在有無を判定するために、「歩行者の左右の肩から腕にかけての部分は頭部位置と同距離に存在すると共に、歩行者の肩から腕にかけての輝度階調は、歩行者の肩上方空間に位置する頭部の左右(背景)の輝度階調とは異なる」という画像上の各領域(各部)の輝度の特徴を用いて、歩行者の肩から腕にかけての部分が存在するか否かを判定する。
【0040】
具体的には、頭部判定で使用した頭部左右の対象領域マスクの下方に、肩から腕にかけての部分に相当する別の対象領域マスクを設定する。そして、歩行者の肩から腕にかけての部分は形状や距離が変化しやすいので、頭部左右の対象領域マスクと、肩から腕にかけての部分に相当する別の対象領域マスクとの相関度を比較し、SAD(Sum of Absolute difference)の平均誤差を用いて算出した相関度エラー値が所定値以上である場合、肩から腕にかけての部分の存在の可能性があると判定する。
【0041】
また、歩行者の肩から腕にかけての部分が存在すると判定された場合、歩行者全体の距離と肩から腕にかけての部分の距離とは等しいはずであるから、歩行者全体の距離と肩から腕にかけての部分に相当する別の対象領域マスクの距離とが等しい場合、肩から腕にかけての部分が存在する対象物が歩行者であると判定することができる。
【0042】
また、ステップS34において、対象物は歩行者の可能性があると判定された場合(ステップS34のYES)、更に判定の信頼性を上げるために、対象物が人工構造物であるか否かを判定する人工構造物判定処理を行う(ステップS35)。人工構造物判定処理は、ステップS34において歩行者の可能性があると判定された対象物画像に、歩行者にはあり得ない特徴が検出された場合、該対象物を人工構造物と判定し、警報の対象から除外する処理である。なお、人工構造物判定処理については、詳細を後述する。
【0043】
従って、上述のステップS33において、対象物が接近判定領域内へ進入して自車両10と衝突する可能性がある場合(ステップS33のYES)、及びステップS35において、歩行者の可能性があると判定された対象物が人工構造物でなかった場合(ステップS35のNO)、画像処理ユニット1は、自車両10と検出した対象物との衝突の可能性がある(警報の対象である)と判定し(ステップS36)、図3に示すステップS17のYESとしてステップS18へ進み、警報出力判定処理(ステップS18)を行う。
【0044】
一方、上述のステップS31において、余裕時間T以内に自車両10と対象物とが衝突する可能性がない場合(ステップS31のNO)、あるいはステップS33において、対象物が接近判定領域内へ進入して自車両10と衝突する可能性がない場合(ステップS33のNO)、あるいはステップS34において、対象物は歩行者の可能性がないと判定された場合(ステップS34のNO)、更にはステップS35において、歩行者の可能性があると判定された対象物が人工構造物であった場合(ステップS35のYES)のいずれかであった場合は、画像処理ユニット1は、自車両10と検出した対象物との衝突の可能性がない(警報の対象ではない)と判定し(ステップS37)、図3に示すステップS17のNOとしてステップS1へ戻り、歩行者等の対象物検出・警報動作を繰り返す。
【0045】
(人工構造物判定処理)
次に、図9に示すフローチャートを参照して、図5に示したフローチャートのステップS35における人工構造物判定処理について更に詳しく説明する。図9は、本実施の形態の人工構造物判定処理動作を示すフローチャートである。ここでは、図5のステップS34において歩行者の可能性があると判定された対象物が、遮蔽物により2つに分割された人工構造物であるか否かを再度判定する。
【0046】
そこで、図9において、まず画像処理ユニット1は、図5のステップS34で実行された歩行者判定処理で歩行者の可能性があると判定された2値化対象物(以下、2値化対象物OBJ[A]とする。)と、比較対象とする比較対象2値化対象物(以下、2値化対象物OBJ[B]とする。)との自車両10からの距離が同一であるか否かを判定する(ステップS41)。具体的には、図10に示す映像面D上の2値化対象物OBJ[A]の視差(距離)を「OBJ_disparity」、比較対象とする2値化対象物OBJ[B]の視差(距離)を「disparity[i]」として、下記(1)式により、その差の絶対値がしきい値TH1より小さい場合、両者が自車両10から同距離の位置に存在すると判定する。
【0047】
|OBJ_disparity−disparity[i]|<TH1 ・・・(1)
【0048】
もし、ステップS41において、2値化対象物OBJ[A]と2値化対象物OBJ[B]との自車両10からの距離が同一である場合(ステップS41のYES)、2値化対象物OBJ[A]と2値化対象物OBJ[B]とが同一の高さに存在するか否かを判定する(ステップS42)。
【0049】
具体的には、図10に示すように、映像面Dの上端からの2値化対象物OBJ[A]の映像上端位置を「OBJ_ys」、映像面Dの上端からの2値化対象物OBJ[B]の映像上端位置を「ys[i]」として、下記(2)式により、その差の絶対値がしきい値TH2より小さい場合、2値化対象物OBJ[A]と2値化対象物OBJ[B]とが同一の高さに存在すると判定する。すなわち、自動販売機や看板等が電柱により遮蔽された場合は、2つの2値化対象物の上端の形状の連続性に特徴があり、両方の物体は同一の高さがあることから、2つの2値化対象物について、高さを判定することにより上端の形状の連続性が認められた場合、この物体を人工構造物として判定することができる。尚、本実施の形態の説明では、人工構造物であるか否かの判定において、高さの同一性を用いたが、上端部の直線の連続性を判断材料として用いても良い。
【0050】
|OBJ_ys−ys[i]|<TH2 ・・・(2)
【0051】
もし、ステップS42において、2値化対象物OBJ[A]と2値化対象物OBJ[B]とが同一の高さに存在する場合(ステップS42のYES)、2値化対象物OBJ[A]と2値化対象物OBJ[B]との間の距離Δxが規定値より小さいかを判定する(ステップS43)。具体的には、映像面Dの左端からの2値化対象物OBJ[A]の映像上の左位置を「OBJ_xl」、右位置を「OBJ_xr」とし、映像面Dの左端からの2値化対象物OBJ[B]の映像上の左位置を「xl[i]」、右位置を「xr[i]」とする。そして、図11(a)に示すように、2値化対象物OBJ[A]が2値化対象物OBJ[B]より左側に存在する場合、下記(3)式により両者の間の距離Δxを求める。
【0052】
Δx=OBJ_xr−xl[i] ・・・(3)
【0053】
また、図11(b)に示すように、2値化対象物OBJ[A]が2値化対象物OBJ[B]より右側に存在する場合、下記(4)式により両者の間の距離Δxを求める。
【0054】
Δx=OBJ_xl−xr[i] ・・・(4)
【0055】
そして、下記(5)式により、2値化対象物OBJ[A]と2値化対象物OBJ[B]との間の距離Δxの絶対値がしきい値TH3より小さい場合、両者の距離が規定値より小さいと判定する。なお、しきい値TH3は、例えば電柱等の人工構造物の実際の幅を映像上の幅に変換した値を適用する。
【0056】
|Δx|<TH3 ・・・(5)
【0057】
もし、ステップS43において、2値化対象物OBJ[A]と2値化対象物OBJ[B]との間の距離Δxが規定値より小さい場合(ステップS43のYES)、図12(a)に示すように、2値化対象物OBJ[A]と2値化対象物OBJ[B]とにおいて、歩行者の頭部と推定される部分に頭部マスク(MASK_A、MASK_B)をそれぞれ設定する(ステップS44)。
【0058】
ここで、頭部マスクMASK_A及び頭部マスクMASK_Bの大きさは同一とし、図12(b)に示すように、その高さは、歩行者の頭部に相当する実際の大きさを、2値化対象物と自車両10との距離に基づいて映像上に変換したDy[pixel]とする。一方、その幅は、図12(b)に示すように、2値化対象物OBJ[A]と2値化対象物OBJ[B]の映像幅のうち、小さい方の映像幅dxP[pixel]から、映像上での2値化対象物の左右の誤差を考慮して2x[pixel]を引いた値とする。
【0059】
次に、設定した頭部マスクMASK_Aの輝度平均と頭部マスクMASK_Bの輝度平均とが等しいか否かを判定する(ステップS45)。具体的には、図12に示す頭部マスクMASK_A内の輝度平均を「OBJ_ave」、頭部マスクMASK_B内の輝度平均を「ave[i]」として、下記(6)式により、その差の絶対値がしきい値TH4より小さい場合、両者の輝度平均が等しいと判定する。これは、2つの対象物の同一性を確認するものである。
【0060】
|OBJ_ave−ave[i]|<TH4 ・・・(6)
【0061】
もし、ステップS45において、頭部マスクMASK_Aの輝度平均と頭部マスクMASK_Bの輝度平均とが等しい場合(ステップS45のYES)、頭部マスクMASK_A及び頭部マスクMASK_Bにおいて、輝度分散が所定値より小さいか否かを判定する(ステップS46)。具体的には、頭部マスクMASK_Aの輝度分散を「OBJ_var」、頭部マスクMASK_Bの輝度分散を「var[i]」として、下記(7)式及び(8)式により、頭部マスクMASK_Aの輝度分散「OBJ_var」がしきい値TH5より小さく、かつ頭部マスクMASK_Bの輝度分散「var[i]」がしきい値TH5より小さい場合、頭部マスクMASK_A及び頭部マスクMASK_Bの輝度分散が所定値より小さいと判定する。これは、マスク内に人間の頭部及びその背景が含まれる場合とマスク内に看板等の物体のみが含まれる場合とではマスク内の輝度分散が異なることに基づいて、人工構造物の存在を確認をするものである。
【0062】
OBJ_var<TH5 ・・・(7)
【0063】
var[i]<TH5 ・・・(8)
【0064】
もし、ステップS46において、頭部マスクMASK_A及び頭部マスクMASK_Bの輝度分散が所定値より小さい場合(ステップS46のYES)、2値化対象物OBJ[A]と2値化対象物OBJ[B]は、図10に示すように、遮蔽物により分割されて検出された1つの対象物OBJ[X]、すなわち人工構造物であると判定して(ステップS47)人工構造物判定処理を終了し、図5に示すステップS35のYESとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。以上の如く、ステップS44からステップS46の処理は、同一の人工構造物が持つパターンを確認する処理である。
【0065】
一方、ステップS41において、2値化対象物OBJ[A]と2値化対象物OBJ[B]との自車両10からの距離が同一ではない場合(ステップS41のNO)、あるいはステップS42において、2値化対象物OBJ[A]と2値化対象物OBJ[B]とが同一の高さに存在しない場合(ステップS42のNO)、あるいはステップS43において、2値化対象物OBJ[A]と2値化対象物OBJ[B]との間の距離Δxが規定値以上の場合(ステップS43のNO)のいずれかの場合、2値化対象物OBJ[A]と2値化対象物OBJ[B]は、遮蔽物により分割されて検出された人工構造物ではないと判定して(ステップS48)人工構造物判定処理を終了し、図5に示すステップS35のNOとして図5のステップS36へ進み、対象物は警報対象であると判定する。
【0066】
同様に、ステップS45において、頭部マスクMASK_Aの輝度平均と頭部マスクMASK_Bの輝度平均とが等しくない場合(ステップS45のNO)、あるいはステップS46において、頭部マスクMASK_A、あるいは頭部マスクMASK_Bのいずれかの輝度分散が所定値以上の場合(ステップS46のNO)のいずれかの場合、2値化対象物OBJ[A]と2値化対象物OBJ[B]は、遮蔽物により分割されて検出された人工構造物ではないと判定して(ステップS48)人工構造物判定処理を終了し、図5に示すステップS35のNOとして図5のステップS36へ進み、対象物は警報対象であると判定する。
【0067】
なお、本実施の形態では、画像処理ユニット1が、遮蔽物分離推測手段を含んでいる。より具体的には、図9のステップS41からステップS48が遮蔽物分離推測手段に相当する。
【0068】
以上説明したように、本実施の形態の赤外線画像認識装置は、遮蔽物分離推測手段が、歩行者判定処理で歩行者の可能性があると判定された2値化対象物OBJ[A]と、比較対象とする2値化対象物OBJ[B]との自車両10からの距離が同一であり、2値化対象物OBJ[A]と2値化対象物OBJ[B]とが同一の高さに存在し、2値化対象物OBJ[A]と2値化対象物OBJ[B]との間の距離が規定値より小さく、更に2値化対象物OBJ[A]と2値化対象物OBJ[B]とにおいて歩行者の頭部と推定される部分にそれぞれ設定された、頭部マスクMASK_Aの輝度平均と頭部マスクMASK_Bの輝度平均とが等しく、両者の輝度分散がいずれも所定値より小さい場合、2値化対象物OBJ[A]と2値化対象物OBJ[B]は、遮蔽物により分割されて検出された人工構造物であると判定する。
【0069】
従って、赤外線画像上の物体の見え方によらず、温度が低く赤外線の放出量が少ない遮蔽物(人工構造物)に遮蔽され、2つに分割されて検出された発熱体(人工構造物)を除外し、歩行者等の生体のみを高精度で検出することができる赤外線画像認識装置を実現することができるという効果が得られる。
【0070】
【発明の効果】
以上の如く、本発明の赤外線画像認識装置によれば、遮蔽物分離推測手段が、検出された2つの対象物を、1つの対象物が遮蔽物により分離されて検出された物体と推測することで、1つの対象物とそれを遮蔽する遮蔽物の両方の存在を一度に認識することができる。また、遮蔽物分離推測手段が、お互いに車両から等距離でかつ横方向に所定の間隔を有して存在していると共に、その上部が形状の連続性を有する複数の対象物を、遮蔽物により分離されて検出された1つの対象物と判断することで、例えば、2人並んだ歩行者と、電柱のような人工構造物により遮蔽されて2つに見える発熱体または蓄熱体とを区別して認識することができる。
【0071】
従って、赤外線画像上の物体の見え方によらず、1つの物体は1つの物体として認識することで歩行者等の生体のみを高精度で検出することができる赤外線画像認識装置を実現することができるという効果が得られる。
【図面の簡単な説明】
【図1】 本発明の一実施の形態の赤外線画像認識装置の構成を示すブロック図である。
【図2】 車両における赤外線カメラやセンサ、ディスプレイ等の取り付け位置を示す図である。
【図3】 同実施の形態の赤外線画像認識装置の対象物検出・警報動作を示すフローチャートである。
【図4】 赤外線カメラにより得られるグレースケール画像とその2値化画像を示す図である。
【図5】 同実施の形態の警報判定処理動作を示すフローチャートである。
【図6】 衝突が発生しやすい場合を示す図である。
【図7】 車両前方の領域区分を示す図である。
【図8】 同実施の形態の赤外線カメラで撮像された赤外線画像の一例を示す図である。
【図9】 同実施の形態の人工構造物判定処理動作を示すフローチャートである。
【図10】 同実施の形態の人工構造物判定処理において判定される2値化対象物の高さ方向の位置関係について示す図である。
【図11】 同実施の形態の人工構造物判定処理において判定される2値化対象物の横方向の位置関係について示す図である。
【図12】 同実施の形態の人工構造物判定処理において設定される頭部マスクについて示す図である。
【符号の説明】
1 画像処理ユニット
2R、2L 赤外線カメラ
3 ヨーレートセンサ
4 車速センサ
5 ブレーキセンサ
6 スピーカ
7 画像表示装置
10 自車両
S41〜S48 遮蔽物分離推測手段[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an infrared image recognition apparatus that recognizes an object that affects the traveling of a host vehicle.
[0002]
[Prior art]
Conventionally, a display processing device has been proposed that extracts objects such as pedestrians that may collide with the host vehicle from images captured by an infrared camera and provides the information to the driver of the host vehicle. Has been. This device binarizes an infrared image to search for a region where bright parts are concentrated, and calculates the distance using the aspect ratio and filling ratio of this region, and further, the actual area and the center of gravity position on the screen. Thus, it is determined whether or not this region is a pedestrian's head. Then, if the pedestrian's head area can be determined, the pedestrian's body is calculated by calculating the pedestrian's height on the image from the distance of the determined head area from the camera and the average height of the adult. Are set, and these areas are displayed separately from other areas. Thereby, the position of the whole body of the pedestrian on the infrared image is specified, and this information is displayed to the driver of the vehicle, so that more effective visual assistance can be performed (for example, Patent Document 1). reference.).
[0003]
In addition, when a similar object is searched from the left image around the vehicle captured by the stereo infrared camera, and there are a plurality of similar objects, a clustering block that includes them is set, and a response is made from within the right image. The block is extracted using SAD (Sum of Absolute difference), and the correlation value indicating the correlation between the clustering block in the left image and the block extracted from the right image is equal to or lower than a predetermined value and shows a high correlation. In some cases, the distance is calculated by regarding a plurality of objects included in the clustering block as a single object (see, for example, Patent Document 2).
[0004]
[Patent Document 1]
Japanese Patent Laid-Open No. 11-328364
[Patent Document 2]
JP 2001-147117 A
[0005]
[Problems to be solved by the invention]
However, in the technique described in
[0006]
Further, in the technique described in Patent Document 2, when there are a plurality of objects such as a light part of a traffic light, for example, it is possible to determine which object belongs to an artificial structure such as a traffic light. It was impossible to determine whether or not the object that should have been one was divided into two or more by the shield.
[0007]
The present invention has been made in view of the above problems, and recognizes only one living body such as a pedestrian with high accuracy by recognizing one object as one object regardless of how the object appears on the infrared image. It is an object of the present invention to provide an infrared image recognition device that can perform the above-described process.
[0008]
[Means for Solving the Problems]
In order to solve the above problems, an infrared image recognition apparatus according to the invention of
[0009]
In the infrared image recognition apparatus having the above-described configuration, the shielding object separation estimation unit estimates the detected objects as objects detected by separating one object by the shielding object. The presence of both an object and a shield that shields it can be recognized at a time.
Further, the shield separation estimation means is present at a distance from the vehicle at an equal distance and with a predetermined interval in the lateral direction, and a plurality of objects having continuity of the shape of the upper portion thereof are shielded. For example, two pedestrians lined up and two heating elements or heat storage bodies that are shielded by an artificial structure such as a power pole and look like two are separated. It can be recognized separately.
[0010]
An infrared image recognition apparatus according to a second aspect of the present invention is the infrared image recognition apparatus according to the first aspect,The shielding object separation estimation unit applies a value obtained by converting an actual width of the plurality of objects into a width on an image as the predetermined value.It is characterized by that.
An infrared image recognition device according to a third aspect of the invention is the infrared image recognition device according to the first or second aspect, wherein the shielding object separation and estimation means has the same height at the top of the plurality of objects. It is determined that the plurality of objects have continuity.
An infrared image recognition device according to a fourth aspect of the present invention is the infrared image recognition device according to the first or second aspect, wherein the shielding object separation estimating means is based on continuity of straight lines above the plurality of objects. It is judged that a plurality of objects have continuity.
[0011]
An infrared image recognition device according to a fifth aspect of the present invention is the infrared image recognition device according to any one of the first to fourth aspects, wherein the shielding object separation estimating means is a pedestrian's head of the plurality of objects. When it is determined that the luminance average values of the parts estimated to be equal are equal, it is estimated that the plurality of objects are separated and detected by the shielding object.
An infrared image recognition device according to a sixth aspect of the present invention is the infrared image recognition device according to any one of the first to fifth aspects, wherein the shielding object separation estimating means is a pedestrian head of the plurality of objects. When the brightness variance value of the part estimated as the part is smaller than a predetermined value, it is estimated that the plurality of objects are detected by being separated by the shielding object.
An infrared image recognition device according to a seventh aspect of the invention is the infrared image recognition device according to any one of the first to sixth aspects, wherein the shielding object separation estimating means is separated and detected by a shielding object. An artificial structure determining means for determining a plurality of determined objects as artificial structures is provided.
An infrared image recognition apparatus according to an eighth aspect of the present invention is the infrared image recognition apparatus according to the seventh aspect, wherein the pedestrian recognition means for recognizing a pedestrian target object from the target object, and the pedestrian Alarm means for outputting a warning to a pedestrian recognized by the recognition means, and the warning means includes the artificial structure among objects determined to be a pedestrian by the pedestrian recognition means. The object judged as the artificial structure by the object judging means is excluded from the alarm target.
In the infrared image recognition apparatus having the above-described configuration, the shield separation estimation means are present at equal distances from the vehicle and at a predetermined interval in the lateral direction, and the upper part thereof is continuous in shape. Are detected as one object detected by being separated by a shield, for example, two pedestrians lined up by two people and an artificial structure such as a utility pole It is possible to distinguish and recognize a heating element or a heat storage element that appears.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of an infrared image recognition apparatus according to an embodiment of the present invention.
In FIG. 1,
[0013]
In addition, the
[0014]
The
[0015]
As shown in FIG. 2, the
Further, the
[0016]
Next, the operation of the present embodiment will be described with reference to the drawings.
(Object detection / alarm action)
FIG. 3 is a flowchart showing an object detection / alarm operation of a pedestrian or the like in the
First, the
[0017]
If a grayscale image is obtained in step S3, then the right image obtained by the
FIG. 4A shows a grayscale image obtained by the
When the binarized image data is acquired from the infrared image, the binarized image data is converted into run-length data (step S5). The line represented by the run-length data is an area that is whitened by binarization at the pixel level, and has a width of one pixel in the y direction, and each has a width in the x direction. It has the length of the pixels constituting the run-length data.
[0018]
Next, the target object is labeled from the image data converted into run-length data (step S6), thereby performing a process of extracting the target object (step S7). That is, of the lines converted into run-length data, a line having a portion overlapping in the y direction is regarded as one object, so that, for example, the high luminance regions P1 to P4 shown in FIG. To be grasped as a value object).
When the extraction of the object is completed, next, the center of gravity G, the area S, and the aspect ratio ASPECT of the circumscribed rectangle of the extracted object are calculated (step S8).
[0019]
Here, the area S is (x [i], y [i], run [i], A) (i = 0, 1, 2,... N−1) ), The length of the run length data (run [i] −1) is calculated for the same object (N pieces of run length data). Also, the coordinates (xc, yc) of the center of gravity G of the object A are the length (run [i] -1) of each run length data and the coordinates x [i] or y [i] of each run length data. Are multiplied by the area S and calculated by multiplying them by the area S. Further, the aspect ratio ASPECT is calculated as a ratio Dy / Dx between the length Dy in the vertical direction and the length Dx in the horizontal direction of the circumscribed rectangle of the object.
Since the run-length data is indicated by the number of pixels (number of coordinates) (= run [i]), the actual length needs to be “−1” (subtract 1) (= run [i]. ] -1). Further, the position of the center of gravity G may be substituted by the position of the center of gravity of the circumscribed rectangle.
[0020]
Once the center of gravity, area, and circumscribing aspect ratio of the object can be calculated, next, the object is tracked between times, that is, the same object is recognized for each sampling period (step S9). For tracking between times, the time obtained by discretizing the time t as an analog quantity with the sampling period is set as k. For example, when the objects A and B are extracted at the time k, the objects C and D extracted at the time (k + 1) and the target The identity determination with the objects A and B is performed. When it is determined that the objects A and B and the objects C and D are the same, the objects C and D are changed to labels of the objects A and B, respectively, so that tracking is performed for a time.
Further, the position coordinates (center of gravity) of each object recognized in this way are stored in the memory as time-series position data and used for the subsequent calculation processing.
[0021]
Note that the processes in steps S4 to S9 described above are performed on a binarized reference image (in this embodiment, a right image).
Next, the vehicle speed VCAR detected by the
[0022]
On the other hand, in parallel with the processing of step S9 and step S10, in steps S11 to S13, processing for calculating the distance z between the object and the
First, by selecting one of the objects tracked by the binarized image of the reference image (right image), the search image R1 (here, the entire region surrounded by the circumscribed rectangle is searched for from the right image). Are extracted (step S11).
[0023]
Next, a search area for searching for an image corresponding to the search image R1 (hereinafter referred to as “corresponding image”) from the left image is set, and a correlation operation is executed to extract the corresponding image (step S12). Specifically, a search area R2 is set in the left image according to each vertex coordinate of the search image R1, and a luminance difference total value C (a indicating the level of correlation with the search image R1 within the search area R2 , B), and a region where the total value C (a, b) is minimum is extracted as a corresponding image. This correlation calculation is performed using a grayscale image instead of a binarized image.
When there is past position data for the same object, an area R2a narrower than the search area R2 is set as a search area based on the position data.
[0024]
The search image R1 is extracted from the reference image (right image) and the corresponding image R4 corresponding to the target object is extracted from the left image by the processing in step S12. Next, the search image R1 corresponds to the center of gravity position of the search image R1. The position of the center of gravity of the image R4 and the parallax Δd (number of pixels) are obtained, and the distance z between the
Next, when the calculation of the turning angle θr in step S10 and the distance calculation with the object in step S13 are completed, the coordinates (x, y) and the distance z in the image are changed to real space coordinates (X, Y, Z). Conversion is performed (step S14).
Here, the real space coordinates (X, Y, Z) are, as shown in FIG. 2, with the origin O as the midpoint position (position fixed to the host vehicle 10) of the attachment position of the
[0025]
When the real space coordinates are obtained, the turning angle correction for correcting the positional deviation on the image due to the turning of the
In the following description, the coordinates after the turning angle correction are displayed as (X, Y, Z).
[0026]
When the turning angle correction with respect to the real space coordinates is completed, N (for example, about N = 10) real space position data after the turning angle correction obtained during the monitoring period of ΔT for the same object, that is, From the time series data, an approximate straight line LMV corresponding to the relative movement vector between the object and the
Next, the latest position coordinates P (0) = (X (0), Y (0), Z (0)) and (N-1) position coordinates P (N−1) before the sample (before time ΔT). = (X (N-1), Y (N-1), Z (N-1)) is corrected to a position on the approximate straight line LMV, and the corrected position coordinates Pv (0) = (Xv (0), Yv (0), Zv (0)) and Pv (N-1) = (Xv (N-1), Yv (N-1), Zv (N-1)) are obtained.
[0027]
Thereby, a relative movement vector is obtained as a vector from the position coordinates Pv (N−1) to Pv (0) (step S16).
In this way, by calculating an approximate straight line that approximates the relative movement locus of the object with respect to the
[0028]
If the relative movement vector is obtained in step S16, an alarm determination process for determining the possibility of collision with the detected object is performed (step S17). Details of the alarm determination process will be described later.
If it is determined in step S17 that there is no possibility of collision between the
If it is determined in step S17 that there is a possibility of collision between the
[0029]
In step S18, it is determined whether or not the driver of the
If the driver of the
As a result, when an appropriate brake operation is performed, an alarm is not issued, so that the driver is not bothered excessively.
[0030]
Further, when the acceleration Gs is equal to or less than the predetermined threshold GTH, or when the driver of the
[0031]
The predetermined threshold GTH is a value corresponding to a condition in which the
[0032]
(Alarm judgment processing)
The above is the object detection / alarm operation in the
FIG. 5 is a flowchart showing the alarm determination processing operation of the present embodiment.
The warning determination process includes the object detected as the
[0033]
In FIG. 5, first, the
[0034]
Next, in step S31, when there is a possibility that the
[0035]
Furthermore, in step S32, when the object does not exist in the approach determination area (NO in step S32), the
[0036]
On the other hand, when the target object is present in the approach determination area in step S32 (YES in step S32), the
[0037]
For example, the pedestrian determination process will be described with reference to a specific example. First, in order to perform head determination for determining whether or not a pedestrian's head is present, an object region extracted from a grayscale image is used. Set the projection area in the, calculate the vertical luminance projection (horizontal distribution of the integrated luminance obtained by integrating the luminance of each pixel in the vertical direction), and the maximum peak from the upper left origin of the video The horizontal coordinate shown is detected.
[0038]
Next, based on the detected lateral position, a reference area mask is set in an area that is estimated to correspond to the pedestrian's head position, and two objects that are estimated to correspond to the upper shoulder space at the left and right positions thereof. Set the region mask.
Then, the average brightness of the reference area mask and the average brightness of the two target area masks are calculated, and it is determined whether or not the pedestrian's head is present from the obtained average brightness of each area. Specifically, when the luminance gradation of the pedestrian head that is high in luminance with respect to the luminance gradation of the left and right (background) of the head is recognized, it is determined that the head is present.
[0039]
If it is determined that the pedestrian's head is present, then the pedestrian's left and right shoulder-to-arm part is determined in order to determine the presence / absence of the shoulder-to-arm part that is easy for pedestrians to capture. Exists at the same distance as the head position, and the luminance gradation from the shoulder to the arm of the pedestrian is different from the luminance gradation of the left and right (background) of the head located in the space above the shoulder of the pedestrian. " It is determined whether or not there is a portion from the shoulder to the arm of the pedestrian using the luminance characteristics of each region (each unit) on the image.
[0040]
Specifically, another target area mask corresponding to a portion from the shoulder to the arm is set below the target area mask on the left and right of the head used in the head determination. And since the shape and distance of the part from the shoulder to the arm of the pedestrian easily changes, the degree of correlation between the target area mask on the left and right of the head and another target area mask corresponding to the part from the shoulder to the arm is compared. If the correlation error value calculated using the average error of SAD (Sum of Absolute difference) is greater than or equal to a predetermined value, it is determined that there is a possibility that a portion from the shoulder to the arm exists.
[0041]
If it is determined that there is a part from the shoulder to the arm of the pedestrian, the distance of the entire pedestrian and the distance from the shoulder to the arm should be equal. When the distance of another target area mask corresponding to the part extending to is equal, it can be determined that the object having the part extending from the shoulder to the arm is a pedestrian.
[0042]
If it is determined in step S34 that the object is likely to be a pedestrian (YES in step S34), in order to further increase the reliability of the determination, it is determined whether or not the object is an artificial structure. An artificial structure determination process is performed (step S35). The artificial structure determination process determines that the target object is an artificial structure when a feature that is impossible for a pedestrian is detected in the target object image determined to be a pedestrian in step S34. This is a process of excluding from the alarm target. The details of the artificial structure determination process will be described later.
[0043]
Therefore, in the above-described step S33, when there is a possibility that the target object enters the approach determination area and collides with the own vehicle 10 (YES in step S33), and in step S35, there is a possibility of a pedestrian. When the determined object is not an artificial structure (NO in step S35), the
[0044]
On the other hand, in step S31 described above, when there is no possibility that the
[0045]
(Artificial structure judgment processing)
Next, the artificial structure determination process in step S35 of the flowchart shown in FIG. 5 will be described in more detail with reference to the flowchart shown in FIG. FIG. 9 is a flowchart showing the artificial structure determination processing operation of the present embodiment. Here, it is determined again whether or not the object that is determined to be a pedestrian in step S34 in FIG. 5 is an artificial structure that is divided into two by a shielding object.
[0046]
Therefore, in FIG. 9, first, the
[0047]
OBJ_disparity-disparity [i] | <TH1 (1)
[0048]
If the distance between the binarized object OBJ [A] and the binarized object OBJ [B] from the
[0049]
Specifically, as shown in FIG. 10, the image upper end position of the binarized object OBJ [A] from the upper end of the image plane D is “OBJ_ys”, and the binarized object OBJ from the upper end of the image plane D is displayed. When the upper end position of [B] is “ys [i]” and the absolute value of the difference is smaller than the threshold value TH2 by the following equation (2), the binarized object OBJ [A] is binarized. It is determined that the object OBJ [B] exists at the same height. That is, when a vending machine, a signboard, or the like is shielded by a utility pole, there is a feature in the continuity of the shape of the upper ends of the two binarized objects, and both objects have the same height. When continuity of the shape of the upper end is recognized by determining the height of two binarized objects, this object can be determined as an artificial structure. In the description of the present embodiment, the height identity is used in determining whether or not the structure is an artificial structure, but the continuity of the straight line at the upper end may be used as a determination material.
[0050]
| OBJ_ys-ys [i] | <TH2 (2)
[0051]
If the binarized object OBJ [A] and the binarized object OBJ [B] exist at the same height in step S42 (YES in step S42), the binarized object OBJ [A] ] And the binarized object OBJ [B] are determined whether or not the distance Δx is smaller than the specified value (step S43). Specifically, the binarized object OBJ [A] from the left end of the image plane D is binarized from the left end of the image plane D, where the left position on the image is “OBJ_xl” and the right position is “OBJ_xr”. The left position on the video of the object OBJ [B] is “xl [i]”, and the right position is “xr [i]”. As shown in FIG. 11A, when the binarized object OBJ [A] is present on the left side of the binarized object OBJ [B], the distance Δx between the two according to the following equation (3): Ask for.
[0052]
Δx = OBJ_xr−xl [i] (3)
[0053]
Further, as shown in FIG. 11B, when the binarized object OBJ [A] is present on the right side of the binarized object OBJ [B], the distance Δx between the two according to the following equation (4): Ask for.
[0054]
Δx = OBJ_xl−xr [i] (4)
[0055]
When the absolute value of the distance Δx between the binarized object OBJ [A] and the binarized object OBJ [B] is smaller than the threshold value TH3 according to the following equation (5), the distance between the two is Judged to be smaller than the specified value. For the threshold value TH3, for example, a value obtained by converting the actual width of an artificial structure such as a utility pole into a width on an image is applied.
[0056]
| Δx | <TH3 (5)
[0057]
If the distance Δx between the binarized object OBJ [A] and the binarized object OBJ [B] is smaller than the specified value in step S43 (YES in step S43), FIG. As shown, head masks (MASK_A, MASK_B) are respectively set in portions estimated as the heads of pedestrians in the binarized object OBJ [A] and the binarized object OBJ [B] ( Step S44).
[0058]
Here, the sizes of the head mask MASK_A and the head mask MASK_B are the same, and as shown in FIG. 12B, the height of the head mask MASK_A is a binary value corresponding to the actual size of the pedestrian's head. Dy [pixel] converted on the video based on the distance between the target to be converted and the
[0059]
Next, it is determined whether or not the luminance average of the set head mask MASK_A is equal to the luminance average of the head mask MASK_B (step S45). Specifically, the luminance average in the head mask MASK_A shown in FIG. 12 is “OBJ_ave”, and the luminance average in the head mask MASK_B is “ave [i]”. When the value is smaller than the threshold value TH4, it is determined that the luminance average of both is equal. This confirms the identity of the two objects.
[0060]
| OBJ_ave-ave [i] | <TH4 (6)
[0061]
If the average luminance of head mask MASK_A is equal to the average luminance of head mask MASK_B in step S45 (YES in step S45), the luminance variance is smaller than a predetermined value in head mask MASK_A and head mask MASK_B. Is determined (step S46). Specifically, the luminance variance of the head mask MASK_A is “OBJ_var”, the luminance variance of the head mask MASK_B is “var [i]”, and the head mask MASK_A is expressed by the following equations (7) and (8). When the luminance variance “OBJ_var” is smaller than the threshold TH5 and the luminance variance “var [i]” of the head mask MASK_B is smaller than the threshold TH5, the luminance variance of the head mask MASK_A and the head mask MASK_B is predetermined. It is determined that the value is smaller. This is based on the fact that the luminance dispersion in the mask differs between the case where the human head and its background are included in the mask and the case where only an object such as a signboard is included in the mask. It is a confirmation.
[0062]
OBJ_var <TH5 (7)
[0063]
var [i] <TH5 (8)
[0064]
If the luminance dispersion of the head mask MASK_A and the head mask MASK_B is smaller than a predetermined value in step S46 (YES in step S46), the binarized object OBJ [A] and the binarized object OBJ [B] 10, one object OBJ [X] detected by being divided by the shielding object, that is, an artificial structure is determined (step S47), and the artificial structure determination process is terminated. As YES of step S35 shown in FIG. 5, it progresses to step S37 of FIG. 5, and determines with a target object not being a warning object. As described above, the processing from step S44 to step S46 is processing for confirming the pattern of the same artificial structure.
[0065]
On the other hand, when the distance from the
[0066]
Similarly, when the luminance average of head mask MASK_A is not equal to the luminance average of head mask MASK_B in step S45 (NO in step S45), or in step S46, head mask MASK_A or head mask MASK_B In any case where any of the luminance dispersions is greater than or equal to a predetermined value (NO in step S46), the binarized object OBJ [A] and the binarized object OBJ [B] are divided by the shielding object. It determines with it not being the detected artificial structure (step S48), the artificial structure determination process is complete | finished, it progresses to step S36 of FIG. 5 as NO of step S35 shown in FIG. 5, and an object is a warning object. judge.
[0067]
In the present embodiment, the
[0068]
As described above, in the infrared image recognition device of the present embodiment, the shielding object separation estimation unit is the binarized object OBJ [A] that is determined to be a pedestrian in the pedestrian determination process. The distance from the
[0069]
Therefore, regardless of how the object appears on the infrared image, the heating element (artificial structure) detected by being divided into two parts by being shielded by a shield (artificial structure) having a low temperature and a small amount of infrared radiation. And an infrared image recognition device capable of detecting only a living body such as a pedestrian with high accuracy can be realized.
[0070]
【The invention's effect】
As described above, according to the infrared image recognition apparatus of the present invention, the shielding object separation estimating unit estimates the two detected objects as objects detected by separating one object by the shielding object. Thus, it is possible to recognize the existence of both one object and a shielding object that shields the object at a time. Further, the shield separation estimation means is present at a distance from the vehicle at an equal distance and with a predetermined interval in the lateral direction, and a plurality of objects having continuity of the shape of the upper portion thereof are shielded. For example, two pedestrians lined up and two heating elements or heat storage bodies that are shielded by an artificial structure such as a power pole and look like two are separated. It can be recognized separately.
[0071]
Therefore, it is possible to realize an infrared image recognition apparatus that can detect only a living body such as a pedestrian with high accuracy by recognizing one object as one object regardless of how the object appears on the infrared image. The effect that it can be obtained.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an infrared image recognition apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram showing attachment positions of an infrared camera, a sensor, a display, and the like in a vehicle.
FIG. 3 is a flowchart showing an object detection / alarm operation of the infrared image recognition apparatus according to the embodiment;
FIG. 4 is a diagram illustrating a grayscale image obtained by an infrared camera and a binarized image thereof.
FIG. 5 is a flowchart showing an alarm determination processing operation according to the embodiment;
FIG. 6 is a diagram illustrating a case where a collision is likely to occur.
FIG. 7 is a diagram showing a region division in front of the vehicle.
FIG. 8 is a diagram illustrating an example of an infrared image captured by the infrared camera according to the embodiment.
FIG. 9 is a flowchart showing an artificial structure determination processing operation according to the embodiment;
FIG. 10 is a diagram showing a positional relationship in the height direction of the binarized object determined in the artificial structure determination process of the embodiment.
FIG. 11 is a diagram showing a lateral positional relationship of the binarized object determined in the artificial structure determination process according to the embodiment.
FIG. 12 is a diagram showing a head mask set in the artificial structure determination process according to the embodiment;
[Explanation of symbols]
1 Image processing unit
2R, 2L infrared camera
3 Yaw rate sensor
4 Vehicle speed sensor
5 Brake sensor
6 Speaker
7 Image display device
10 Own vehicle
S41-S48 Shield Separation Estimation Means
Claims (8)
1つの対象物が遮蔽物により分離されて複数の対象物として検出されたと推測する遮蔽物分離推測手段を備え、該遮蔽物分離推測手段は、前記複数の対象物が、お互いに前記車両から等距離でかつ横方向に所定値より小さい間隔を有して存在していると共に、前記複数の対象物の上部が形状の連続性を有する場合、該複数の対象物が遮蔽物により分離されて検出されたと推測することを特徴とする赤外線画像認識装置。An infrared image recognition device that is mounted on a vehicle and recognizes an object existing around the vehicle based on an image captured by an imaging unit that detects infrared rays,
Included is a shielding object separation estimating unit that estimates that one object is separated by a shielding object and detected as a plurality of objects , and the shielding object separation estimating means includes the plurality of objects that are mutually connected from the vehicle, etc. When the distance is present in the lateral direction with an interval smaller than a predetermined value, and the upper portions of the plurality of objects have continuity in shape, the plurality of objects are separated by a shielding object and detected. An infrared image recognizing device characterized in that it is estimated that
該警報手段は、前記歩行者認識手段にて歩行者の可能性があると判断された対象物のうち、前記人工構造物判断手段にて人工構造物と判断された対象物を警報対象から除外することを特徴とする請求項7に記載の赤外線認識装置。The alarm means excludes an object determined as an artificial structure by the artificial structure determination means from among the objects determined to be a pedestrian by the pedestrian recognition means. The infrared recognizing device according to claim 7.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003159914A JP3898157B2 (en) | 2003-06-04 | 2003-06-04 | Infrared image recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003159914A JP3898157B2 (en) | 2003-06-04 | 2003-06-04 | Infrared image recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004362265A JP2004362265A (en) | 2004-12-24 |
JP3898157B2 true JP3898157B2 (en) | 2007-03-28 |
Family
ID=34052852
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003159914A Expired - Fee Related JP3898157B2 (en) | 2003-06-04 | 2003-06-04 | Infrared image recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3898157B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006264416A (en) * | 2005-03-22 | 2006-10-05 | Takata Corp | Object detection system, protection system, and vehicle |
JP2006268097A (en) * | 2005-03-22 | 2006-10-05 | Nissan Motor Co Ltd | On-vehicle object detecting device, and object detecting method |
JP4794253B2 (en) * | 2005-09-22 | 2011-10-19 | 株式会社デンソーアイティーラボラトリ | Pedestrian protection device |
JP5228926B2 (en) * | 2009-01-12 | 2013-07-03 | 株式会社デンソー | Pedestrian detection device |
JP5173991B2 (en) * | 2009-11-18 | 2013-04-03 | 本田技研工業株式会社 | Vehicle periphery monitoring device |
JP5948984B2 (en) * | 2012-03-09 | 2016-07-06 | オムロン株式会社 | Image processing apparatus, image processing method, and image processing program |
JP2013186819A (en) * | 2012-03-09 | 2013-09-19 | Omron Corp | Image processing device, image processing method, and image processing program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0659038A (en) * | 1992-08-07 | 1994-03-04 | Nissan Motor Co Ltd | Laser radar for vehicle |
JP3367170B2 (en) * | 1993-11-05 | 2003-01-14 | 株式会社豊田中央研究所 | Obstacle detection device |
JP3674400B2 (en) * | 1999-08-06 | 2005-07-20 | 日産自動車株式会社 | Ambient environment recognition device |
JP2001351107A (en) * | 2000-06-05 | 2001-12-21 | Mitsubishi Electric Corp | Device and method for monitoring traffic |
JP3738719B2 (en) * | 2001-09-26 | 2006-01-25 | 日産自動車株式会社 | Obstacle map creation device for vehicles |
JP3739693B2 (en) * | 2001-11-09 | 2006-01-25 | 本田技研工業株式会社 | Image recognition device |
-
2003
- 2003-06-04 JP JP2003159914A patent/JP3898157B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004362265A (en) | 2004-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3934119B2 (en) | Vehicle periphery monitoring device | |
JP4104867B2 (en) | Night vision system | |
JP3987057B2 (en) | Vehicle periphery monitoring device | |
JP3764086B2 (en) | Vehicle information providing device | |
JP4060159B2 (en) | Vehicle periphery monitoring device | |
JP3987048B2 (en) | Vehicle periphery monitoring device | |
JP4410292B1 (en) | Vehicle periphery monitoring device | |
JP3987013B2 (en) | Vehicle periphery monitoring device | |
US20060115115A1 (en) | Vehicle surroundings monitoring apparatus | |
JP4094604B2 (en) | Vehicle periphery monitoring device | |
JP4128562B2 (en) | Vehicle periphery monitoring device | |
JP4425852B2 (en) | Vehicle periphery monitoring device | |
JP3898157B2 (en) | Infrared image recognition device | |
JP3839329B2 (en) | Night vision system | |
JP3844750B2 (en) | Infrared image recognition device and alarm device using infrared image recognition device | |
JP3970876B2 (en) | Vehicle periphery monitoring device | |
JP4943403B2 (en) | Vehicle periphery monitoring device | |
JP4298699B2 (en) | Vehicle periphery monitoring device | |
JP4647648B2 (en) | Vehicle periphery monitoring device | |
JP4372746B2 (en) | Vehicle periphery monitoring device | |
JP4283266B2 (en) | Vehicle periphery monitoring device | |
JP2004135034A (en) | Vehicle periphery monitoring unit | |
JP4358183B2 (en) | Vehicle periphery monitoring device | |
JP4472623B2 (en) | Vehicle periphery monitoring device | |
JP3939580B2 (en) | Obstacle alarm device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060131 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060324 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20061212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20061220 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100105 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110105 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110105 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120105 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120105 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130105 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130105 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140105 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |