JP3936313B2 - 画像認識装置 - Google Patents
画像認識装置 Download PDFInfo
- Publication number
- JP3936313B2 JP3936313B2 JP2003181368A JP2003181368A JP3936313B2 JP 3936313 B2 JP3936313 B2 JP 3936313B2 JP 2003181368 A JP2003181368 A JP 2003181368A JP 2003181368 A JP2003181368 A JP 2003181368A JP 3936313 B2 JP3936313 B2 JP 3936313B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- width
- search
- correlation
- search area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【発明の属する技術分野】
この発明は、撮像手段により撮影された画像から車両の走行に影響を与えそうな対象物を検出する画像認識装置に関する。
【0002】
【従来の技術】
従来、赤外線カメラ等の撮像手段により捉えられた自車両周辺の画像から、自車両との衝突の可能性がある歩行者等の対象物を抽出し、その情報を自車両の運転者に提供する装置がある。
この装置では、左右一組のステレオカメラが撮影した自車両周辺の画像について、例えば右側の赤外線カメラが撮影した右画像を2値化処理することにより、第1の対象物画像を抽出する。次に、左側の赤外線カメラが撮影した左画像のグレースケール画像上に、第1の対象物画像に対応する画像(対応画像)を探索する探索領域を設定し、第1の対象物画像と探索領域中の物体画像との相関演算を実行することにより、第1の対象物画像に対する対応画像を第2の対象物画像として抽出する。そして、右画像中の第1の対象物画像の重心位置と、左画像中の第2の対象物画像の重心位置との差から、視差Δd(画素数)を求め、これから自車両と対象物との距離zを算出する(例えば、特許文献1参照。)。
【0003】
ここで、相関演算についてより具体的に説明すると、対象物の距離zは、ステレオカメラ間での対象物視差Δdより式(1)にて算出する。なお、fは焦点距離、Dはステレオカメラ間距離(基線長)、pは画素ピッチである。
z=f×D/(Δd×p) ・・・(1)
また、図10に示すように、対象物視差Δdは、右画像の参照パタン(Pat:Pat_dx×Pat_dy)を左画像の探索領域(Area:Area_dx×Area_dy)の中において、1画素ずつシフトさせながら、相関度が一番高い位置を探索し、対応画像として検出する。
【0004】
また、ここでは相関演算にSAD(Sum of Absolute Difference)を使用し、式(2)で示す相関エラー「Error」が最小となる位置cxを相関度が高い位置と判定する。
Error[cx]=ΣiΣj|Pat[i][j]−Area[i+cx][j]| ・・・(2)
但し、0≦cx<(Area_dx−Pat_dx+1)、0≦i<Pat_dx、0≦j<Pat_dyである。
従って、PatとAreaの1画素の差分演算回数を1回とすると、式(2)の演算回数Calc_Nは、式(3)で表される。
Calc_N=(Pat_dx×Pat_dy)×(Area_dx−Pat_dx+1) ・・・(3)
【0005】
【特許文献1】
特開2001−6096号公報
【0006】
【発明が解決しようとする課題】
しかし、上記のようなアルゴリズムによる相関演算を用いた装置では、右画像から抽出された第1の対象物画像と相関度の高い部分を、左画像上の探索領域の中から正確に検出することができるものの、その計算速度は、ハードウェアの処理能力に依存する部分が多いという問題があった。
すなわち、撮像手段により撮影された画像から車両の走行に影響を与えそうな対象物を検出するような場合、車両の移動と共に撮像手段により撮影される物体は時々刻々変化するので、対象物が撮像手段により捉えられている間に、右画像から抽出した第1の対象物画像と、左画像のグレースケール画像上に設定された探索領域との相関演算を完了させるためには、非常に高速処理(演算)が可能な計算機を必要とし、計算機に対するコストの面や計算機に必要な電力の面、あるいは計算機を搭載するスペースの面で、このような計算機を車両に搭載して利用することは難しいという問題があった。
【0007】
本発明は、上記課題に鑑みてなされたもので、可能な限り簡単な演算で探索領域から対象物を検出し、運転者に自車両の走行に影響を与えそうな対象物を認識させることができる画像認識装置を提供することを目的とする。
【0008】
【課題を解決するための手段】
上記課題を解決するために、請求項1の発明に係る画像認識装置は、一組のステレオカメラ(例えば実施の形態の赤外線カメラ2R、2L)を備え、第1のカメラの画像から第1の対象物画像(例えば実施の形態の探索画像R1)を抽出すると共に、抽出された前記第1の対象物画像に基づいて設定された第2のカメラの画像上の探索領域(例えば実施の形態の探索領域R2)から、相関演算処理を行うことにより前記第1の対象物画像に対応する第2の対象物画像(例えば実施の形態の対応画像)を抽出し、前記第1と第2の対象物画像間の視差を求めて、該対象物までの距離を計算する対象物距離算出手段(例えば実施の形態のステップS11〜ステップS12、ステップS31〜ステップS38)を備えた画像認識装置において、前記対象物距離算出手段が、前記第1の対象物画像に対して設定された対象枠の幅と同一の移動幅を設定し、前記探索領域内において該移動幅で指定される領域毎に第1の対象物画像を移動させ、前記探索領域内の相関演算処理を行うことにより、前記第1の対象物画像と相関度の高い領域及びその両側の領域を新たな探索領域として抽出する(例えば実施の形態のステップS33〜ステップS36)ことを特徴とする。
【0009】
以上の構成を備えた画像認識装置は、対象物距離算出手段が、第1の対象物画像により、第2のカメラの画像上の探索領域に対する相関演算処理を行う際、第1の対象物画像に対して設定された対象枠の幅を基準とする移動幅により、第1の対象物画像を探索領域内で順次移動させて相関演算処理を行うことで、探索領域内を粗く探索し、正確かつ少ない演算量で、第1の対象物画像との相関度が高く、第2の対象物画像が存在すると思われる領域を新たな探索領域として抽出することができる。
【0011】
さらに、以上の構成を備えた画像認識装置は、探索領域内での第1の対象物画像の移動幅を、第1の対象物画像に対して設定された対象枠の幅と同一にすることで、第1の対象物画像を探索領域内で移動させたときに、重複して相関演算処理を行う領域が発生することがなく効率的に相関演算処理を全ての領域に実施することができると共に、探索領域内において、第1の対象物画像に捉えられた対象物を必ず1回だけ検出することになるので、対象物ではない物体と対象物との区別を容易にすることができる。
【0012】
請求項2の発明に係る画像認識装置は、請求項1に記載の画像認識装置において、前記対象物距離算出手段が、前記新たな探索領域を抽出する度に、前記対象枠の幅に基づいて、前記移動幅を順次更に小さな移動幅へ更新し、該移動幅で前記新たな探索領域内の相関演算処理を行うことにより、前記探索領域を更に絞り込むことを特徴とする。
【0013】
以上の構成を備えた画像認識装置は、対象物距離算出手段が、相関演算処理により抽出した探索領域を新たな探索領域とすると共に、探索領域が縮小することに伴って、相関演算処理における第1の対象物画像の移動幅を、順次対象枠の幅に基づいて小さな移動幅へ更新し、更新された移動幅で新たな探索領域内の相関演算処理を行うことにより、探索領域が縮小されてより相関度の高い領域が絞り込まれてきたら、これに合わせて相関演算処理における第1の対象物画像の移動幅も小さくして探索領域内を細かく探索することにより、正確かつ必要最小限の演算量で、効率的に相関演算処理を実施することができる。
【0014】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について説明する。
図1は、本発明の一実施の形態の画像認識装置の構成を示すブロック図である。
図1において、符号1は、本実施の形態の画像認識装置を制御するCPU(中央演算装置)を備えた画像処理ユニットであって、遠赤外線を検出可能な2つの赤外線カメラ2R、2Lと当該車両のヨーレートを検出するヨーレートセンサ3、更に、当該車両の走行速度(車速)を検出する車速センサ4とブレーキの操作を検出するためのブレーキセンサ5が接続される。これにより、画像処理ユニット1は、車両の周辺の赤外線画像と車両の走行状態を示す信号とから、車両前方の歩行者や動物等の動く物体を検出し、衝突の可能性が高いと判断したときに警報を発する。
【0015】
また、画像処理ユニット1には、音声で警報を発するためのスピーカ6と、検出された対象物と自車両との衝突する危険性が高いと判定された場合のみ、赤外線カメラ2R、2Lにより撮影された画像を強調表示された対象物画像と共に表示し、衝突の危険性が高い対象物を車両の運転者に認識させるための、例えば自車両の走行状態を数字で表すメータと一体化されたメータ一体Displayや自車両のコンソールに設置されるNAVIDisplay、更にフロントウィンドウの運転者の前方視界を妨げない位置に情報を表示するHUD(Head Up Display )7a等を含む画像表示装置7が接続されている。
【0016】
また、画像処理ユニット1は、入力アナログ信号をディジタル信号に変換するA/D変換回路、ディジタル化した画像信号を記憶する画像メモリ、各種演算処理を行うCPU(中央演算装置)、CPUが演算途中のデータを記憶するために使用するRAM(Random Access Memory)、CPUが実行するプログラムやテーブル、マップなどを記憶するROM(Read Only Memory)、スピーカ6の駆動信号、画像表示装置7の表示信号などを出力する出力回路を備えており、赤外線カメラ2R、2L及びヨーレートセンサ3、車速センサ4、ブレーキセンサ5の各出力信号は、ディジタル信号に変換されてCPUに入力されるように構成されている。
【0017】
また、図2に示すように、赤外線カメラ2R、2Lは、自車両10の前部に、自車両10の車幅方向中心部に対してほぼ対称な位置に配置されており、2つの赤外線カメラ2R、2Lの光軸が互いに平行であって、かつ両者の路面からの高さが等しくなるように固定されている。なお、赤外線カメラ2R、2Lは、対象物の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。
また、HUD7aは、自車両10のフロントウインドウの運転者の前方視界を妨げない位置に表示画面が表示されるように設けられている。
【0018】
次に、本実施の形態の動作について図面を参照して説明する。
図3は、本実施の形態の画像認識装置の画像処理ユニット1における歩行者等の対象物検出・警報動作を示すフローチャートである。
まず、画像処理ユニット1は、赤外線カメラ2R、2Lの出力信号である赤外線画像を取得して(ステップS1)、A/D変換し(ステップS2)、グレースケール画像を画像メモリに格納する(ステップS3)。なお、ここでは赤外線カメラ2Rにより右画像が得られ、赤外線カメラ2Lにより左画像が得られる。また、右画像と左画像では、同一の対象物の表示画面上の水平位置がずれて表示されるので、このずれ(視差)によりその対象物までの距離を算出することができる。
【0019】
ステップS3においてグレースケール画像が得られたら、次に、赤外線カメラ2Rにより得られた右画像を基準画像とし、その画像信号の2値化処理、すなわち、輝度閾値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う(ステップS4)。
図4(a)は、赤外線カメラ2Rにより得られたグレースケール画像を示し、これに2値化処理を行うことにより、図4(b)に示すような画像を得る。なお、図4(b)において、例えばP1からP4の枠で囲った物体を、表示画面上に白色として表示される対象物(以下「高輝度領域」という)とする。
赤外線画像から2値化された画像データを取得したら、2値化した画像データをランレングスデータに変換する処理を行う(ステップS5)。ランレングスデータにより表されるラインは、2値化により白となった領域を画素レベルで示したもので、いずれもy方向には1画素の幅を有しており、またx方向にはそれぞれランレングスデータを構成する画素の長さを有している。
【0020】
次に、ランレングスデータに変換された画像データから、対象物のラベリングをする(ステップS6)ことにより、対象物を抽出する処理を行う(ステップS7)。すなわち、ランレングスデータ化したラインのうち、y方向に重なる部分のあるラインを1つの対象物とみなすことにより、例えば図4(b)に示す高輝度領域P1からP4が、それぞれ対象物(2値化対象物)として把握されることになる。
対象物の抽出が完了したら、次に、抽出した対象物の重心G、面積S及び外接四角形の縦横比ASPECTを算出する(ステップS8)。
【0021】
ここで、面積Sは、ラベルAの対象物のランレングスデータを(x[i]、y[i]、run[i]、A)(i=0,1,2,・・・N−1)とすると、ランレングスデータの長さ(run[i]−1)を同一対象物(N個のランレングスデータ)について積算することにより算出する。また、対象物Aの重心Gの座標(xc、yc)は、各ランレングスデータの長さ(run[i]−1)と各ランレングスデータの座標x[i]、またはy[i]とをそれぞれ掛け合わせ、更にこれを同一対象物について積算したものを、面積Sで割ることにより算出する。
更に、縦横比ASPECTは、対象物の外接四角形の縦方向の長さDyと横方向の長さDxとの比Dy/Dxとして算出する。
なお、ランレングスデータは画素数(座標数)(=run[i])で示されているので、実際の長さは「−1」する必要がある(=run[i]−1)。また、重心Gの位置は、外接四角形の重心位置で代用してもよい。
【0022】
対象物の重心、面積、外接四角形の縦横比が算出できたら、次に、対象物の時刻間追跡、すなわちサンプリング周期毎の同一対象物の認識を行う(ステップS9)。時刻間追跡は、アナログ量としての時刻tをサンプリング周期で離散化した時刻をkとし、例えば時刻kで対象物A、Bを抽出したら、時刻(k+1)で抽出した対象物C、Dと対象物A、Bとの同一性判定を行う。そして、対象物A、Bと対象物C、Dとが同一であると判定されたら、対象物C、Dをそれぞれ対象物A、Bというラベルに変更することにより、時刻間追跡が行われる。
また、このようにして認識された各対象物の(重心の)位置座標は、時系列位置データとしてメモリに格納され、後の演算処理に使用される。
【0023】
なお、以上説明したステップS4〜S9の処理は、2値化した基準画像(本実施の形態では、右画像)について実行する。
次に、車速センサ4により検出される車速VCAR及びヨーレートセンサ3より検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することにより、自車両10の回頭角θrを算出する(ステップS10)。
【0024】
一方、ステップS9とステップS10の処理に平行して、ステップS11〜S12では、対象物と自車両10との距離zを算出する処理を行う。この演算はステップS9、及びステップS10より長い時間を要するため、ステップS9、S10より長い周期(例えばステップS1〜S10の実行周期の3倍程度の周期)で実行される。
まず、基準画像(右画像)の2値化画像によって追跡される対象物の中の1つを選択することにより、右画像から探索画像R1(ここでは、外接四角形で囲まれる領域全体を探索画像とし、この探索画像の外接四角形を対象枠という)を抽出する(ステップS11)。
【0025】
次に、左画像中から探索画像R1に対応する画像(以下「対応画像」という)を探索する探索領域を設定し、相関演算を実行して視差・距離算出演算を行い、自車両10と対象物との距離zを算出する(ステップS12)。なお、自車両10と対象物との距離zを算出するステップS12の視差・距離算出演算処理については、詳細を後述する。
【0026】
また、ステップS10における回頭角θrの算出と、ステップS12における対象物との距離算出が完了したら、次に、自車両10が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う(ステップS13)。回頭角補正は、時刻kから(k+1)までの期間中に自車両10が例えば左方向に回頭角θrだけ回頭すると、カメラによって得られる画像上では、画像の範囲がΔxだけx方向にずれるので、これを補正する処理である。
【0027】
また、回頭角補正を終了したら、画像内の座標(x,y)及び距離zを実空間座標(X,Y,Z)に変換する(ステップS14)。
ここで、実空間座標(X,Y,Z)は、図2に示すように、赤外線カメラ2R、2Lの取り付け位置の中点の位置(自車両10に固定された位置)を原点Oとして、図示のように定め、画像内の座標は、画像の中心を原点として水平方向をx、垂直方向をyと定めている。
なお、以下の説明では、回頭角補正後の座標を(X,Y,Z)と表示する。
次に、実空間座標に対する回頭角補正が完了したら、同一対象物について、ΔTのモニタ期間内に得られた、回頭角補正後のN個(例えばN=10程度)の実空間位置データ、すなわち時系列データから、対象物と自車両10との相対移動ベクトルに対応する近似直線LMVを求める。
【0028】
次いで、最新の位置座標P(0)=(X(0),Y(0),Z(0))と、(N−1)サンプル前(時間ΔT前)の位置座標P(Nー1)=(X(N−1),Y(N−1),Z(N−1))を近似直線LMV上の位置に補正し、補正後の位置座標Pv(0)=(Xv(0),Yv(0),Zv(0))及びPv(N−1)=(Xv(N−1),Yv(N−1),Zv(N−1))を求める。
これにより、位置座標Pv(N−1)からPv(0)に向かうベクトルとして、相対移動ベクトルが得られる(ステップS15)。
このようにモニタ期間ΔT内の複数(N個)のデータから対象物の自車両10に対する相対移動軌跡を近似する近似直線を算出して相対移動ベクトルを求めることにより、位置検出誤差の影響を軽減して対象物との衝突の可能性をより正確に予測することが可能となる。
【0029】
また、ステップS15において、相対移動ベクトルが求められたら、次に、自車両10が検出した対象物と衝突する可能性があるか否かを判定する警報判定処理を行う(ステップS16)。
そして、ステップS16において、自車両10と検出した対象物との衝突の可能性がないと判定された場合(ステップS16のNO)、ステップS1へ戻り、上述の処理を繰り返す。
また、ステップS16において、自車両10と検出した対象物との衝突の可能性があると判定された場合(ステップS16のYES)、ステップS17の警報出力判定処理へ進む。
【0030】
ステップS17では、ブレーキセンサ5の出力BRから自車両10の運転者がブレーキ操作を行っているか否かを判別することにより、警報出力判定処理、すなわち警報出力を行うか否かの判定を行う(ステップS17)。
もし、自車両10の運転者がブレーキ操作を行っている場合には、それによって発生する加速度Gs(減速方向を正とする)を算出し、この加速度Gsが所定閾値GTHより大きいときは、ブレーキ操作により衝突が回避されると判定して警報出力判定処理を終了し(ステップS17のNO)、ステップS1へ戻り、上述の処理を繰り返す。
これにより、適切なブレーキ操作が行われているときは、警報を発しないようにして、運転者に余計な煩わしさを与えないようにすることができる。
【0031】
また、加速度Gsが所定閾値GTH以下であるとき、または自車両10の運転者がブレーキ操作を行っていなければ、直ちにステップS18の処理へ進み(ステップS17のYES)、対象物と接触する可能性が高いので、スピーカ6を介して音声による警報を発する(ステップS18)と共に、画像表示装置7に対して、例えば赤外線カメラ2Rにより得られる画像を出力し、接近してくる対象物を自車両10の運転者に対する強調映像として表示する(ステップS19)。
なお、所定閾値GTHは、ブレーキ操作中の加速度Gsがそのまま維持された場合に、現在の対象物と自車両10との間の距離以下の走行距離で自車両10が停止する条件に対応する値である。
【0032】
以上が、本実施の形態の画像認識装置の画像処理ユニット1における対象物検出・警報動作であるが、次に、図5に示すフローチャートを参照して、図3に示したフローチャートのステップS12における、自車両10と対象物との距離zを算出する視差・距離算出演算処理について更に詳しく説明する。
図5は、本実施の形態の視差・距離算出演算処理動作を示すフローチャートである。
まず、画像処理ユニット1は、左画像中に、右画像の探索画像R1に対応する対応画像を探索するための探索領域R2を設定する(ステップS31)。
そして、探索のステップ幅(移動幅)を決定するための変数nを値「0」に初期化する(ステップS32)。
【0033】
次に、探索のステップ幅(移動幅:「Step」)を式(4)により算出する(ステップS33)。
Step=Pat_dx/2n ・・・(4)
探索のステップ幅「Step」が算出されたら、算出されたステップ幅「Step」が1画素の幅より小さいか否かを判定する(ステップS34)。
ステップS34において、算出されたステップ幅「Step」が1画素の幅以上の場合(ステップS34のNO)、左画像中の探索領域R2内においてステップ幅「Step」で指定される領域毎に探索画像R1の位置を移動させながら、各位置において相関演算を実行し、左画像中から探索画像R1に対応する対応画像を抽出する(ステップS35)。
【0034】
具体的には、相関演算にSAD(Sum of Absolute Difference)を使用し、例えば図6の探索領域を対象とした相関演算処理を説明する図に示すように、探索領域R2の左側から順にステップ幅「Step」で探索画像R1の位置を移動させながら、各位置において前述の式(2)で示す相関エラー「Error」が最小となる位置を算出し、この位置を相関度が高い位置と判定する。そして、相関エラー「Error」が最小となる位置と探索画像R1とのずれ(視差)Min_cxを算出する。
なお、Area_dxをPat_dxで割った余りがPat_dx/2よりも大きい場合(探索領域R2において、探索画像R1を左からステップ幅「Step」でずらしていき、探索画像R1の大きさに満たずに右端に余る領域の幅が、探索画像R1の幅の半分より大きい場合)、余った領域についても探索画像R1との相関演算を行うものとする。
【0035】
次に、相関エラー「Error」が最小となる位置と探索画像R1とのずれ(視差)Min_cxが算出できたら、相関エラー「Error」が最小となった位置と、その左右の領域を含む新たな領域を探索領域として設定する(ステップS36)。
そして、探索のステップ幅(移動幅)を決定するための変数nを式(5)により更新し(ステップS37)、ステップS33へ戻り、上述の処理を繰り返す。
n=n+1 ・・・(5)
【0036】
一方、ステップS34において、算出されたステップ幅「Step」が1画素の幅より小さい場合(ステップS34のYES)、この時、最後に算出された相関エラー「Error」が最小となる位置を対応画像の位置とし、この位置と探索画像R1とのずれ(視差)Min_cxを、図10に示す視差Δdと決定する(ステップS38)。
そして、前述の式(1)により、求められた視差Δdを用いて対象物との距離zを算出し(ステップS39)、視差・距離算出演算処理を終了して図3に示すフローチャートのステップS13へ戻る。
【0037】
以上説明した視差・距離算出演算処理におけるステップS33からステップS37の繰り返しの処理について、図面を参照して更に詳細に説明する。
図6から図8は、探索領域を対象とした相関演算処理を示す図であって、まず図6では、左画像中の探索領域R2内で探索画像R1の位置をステップ幅「Step=Pad_dx」で移動させながら、各位置において相関演算を実行し、相関度が最大となった位置と、その左右に長さ「Pad_dx」ずつのエリアを含む新たな探索領域R2を設定する。
次に、図7では、左画像中の新たな探索領域R2内で探索画像R1の位置をステップ幅「Step=Pad_dx/2」で移動させながら、各位置において相関演算を実行し、相関度が最大となった位置と、その左右に長さ「Pad_dx/2」ずつのエリアを含む更に新たな探索領域R2を設定する。
【0038】
同様に、図8では、左画像中の更に新たな探索領域R2内で探索画像R1の位置をステップ幅「Step=Pad_dx/4」で移動させながら、各位置において相関演算を実行し、相関度が最大となった位置と、その左右に長さ「Pad_dx/4」ずつのエリアを含む更に新たな探索領域R2を設定する。
このようにステップ幅が、式(6)で示す条件(探索のステップ幅「Step」が1画素以上)を満たす限り処理を繰り返し、この時点でのSADによる相関エラーが最小の位置と探索画像R1とのずれMin_cxを視差Δdとする。
Pat_dx/2n≧1(pixel:画素) ・・・(6)
ただし、Pat_dx/2nは、四捨五入し整数(画素単位)とする。
【0039】
なお、上述の実施の形態では画像の上下方向の探索領域の高さについては、探索画像R1と同一として説明したが、探索領域R2が画像の上下方向にもマージンがある場合、上記ステップ幅毎の相関度は、縦方向には1画素単位で探索画像R1をずらして相関度を算出するものとする。
また、上述の実施の形態では、画像処理ユニット1が、対象物距離算出手段を含んでいる。より具体的には、図3のステップS11〜ステップS12、及び図5のステップS31〜ステップS38が対象物距離算出手段に相当する。
【0040】
以上説明したように、本実施の形態の画像認識装置における対象物視差Δdを求めるための演算回数は、このときの演算回数をCalc_NNとすると、
Calc_NN=(Pat_dx×Pat_dy)×{Area_dx/Pat_dx+2×n+1} ・・・(7)
と表すことができる。但し、nは、Pat_dx/2n≧1を満たす最大値とする。
【0041】
そこで、例えば、前述の式(3)と式(7)により、本実施の形態の画像認識装置による演算量と従来の装置の演算量とを比較すると、
例えば、Pat_dx=4、Area_dx=32の場合、
Calc_NN/Calc_N=(32/4+2×2+1)/(32−4+1)=0.45
となり、本実施の形態の画像認識装置による演算量は従来の装置の演算量の45%に削減されることがわかる。
【0042】
またPat_dx=4、Area_dx=64の場合、
Calc_NN/Calc_N=(64/4+2×2+1)/(64−4+1)=0.34
となり、演算回数は、探索画像R1の大きさが大きい程、あるいは探索領域R2が大きい程演算量の削減効果が期待できる。
このため、相関演算を用いて視差を算出する場合には、対象物の距離が近くなるに従い、画像上の対象物サイズが大きくなるが、演算量を極端に増加させず対象物の距離を算出することが可能となる。
同様に、カメラ間の基線長を広げることでも探索領域が大きくなるが、この場合も演算量を極端に増加させず対象物の距離を算出することが可能となる。
【0043】
なお、上述の実施の形態では、探索画像R1が抽出されていると仮定しているため、赤外線カメラによる画像に限らず、対象物形状が抽出されている画像を用いる場合には、有効な手段と考えられる。
また、本実施の形態の画像認識装置における処理では、図9に示すように、ステップ幅の最大値を参照パタン幅「Pat_dx」とすることで、探索領域内で、少なくとも探索画像R1の半分と相関演算を行うことができ、他の対象物により発生する相関度の極大値の位置を、誤って対象物の位置として検出する頻度を軽減することができるという効果が得られる。
【0044】
【発明の効果】
以上の如く、請求項1に記載の画像認識装置によれば、対象物距離算出手段が、第1の対象物画像に対する対象枠の幅を基準とする移動幅により、第1の対象物画像を探索領域内で順次移動させて相関演算処理を行うことで、探索領域内を粗く探索し、正確かつ少ない演算量で、第2の対象物画像が存在すると思われる領域を新たな探索領域として抽出することができる。
従って、ステレオカメラにより撮影された対象物画像の視差を用いて対象物までの距離を算出する場合に、対象物までの距離算出の精度を向上させるためステレオカメラのカメラ間の基線長を広げても、カメラ間の基線長を広げることで大きくなった探索領域の相関演算を、演算量を極端に増加させずに処理を行い、短時間で、あるいは簡単な計算機によって対象物の距離を算出することが可能となるという効果が得られる。
【0045】
また、探索領域内での第1の対象物画像の移動幅を、第1の対象物画像に対して設定された対象枠の幅と同一にすることで、重複して相関演算処理を行う領域が発生することがなく効率的に相関演算処理を全ての領域に実施すると共に、第1の対象物画像に捉えられた対象物を必ず1回だけ検出することになるので、対象物ではない物体と対象物との区別を容易にすることができる。
従って、探索領域内で、少なくとも第1の対象物画像の半分と相関演算を行うことができ、他の対象物により発生する相関度の極大値の位置を、誤って対象物の位置として検出する頻度を軽減することができるという効果が得られる。
【0046】
請求項2に記載の画像認識装置によれば、探索領域が縮小されてより相関度の高い領域が絞り込まれてきたら、対象物距離算出手段がこれに合わせて相関演算処理における第1の対象物画像の移動幅も小さくして探索領域内を細かく探索することにより、正確かつ必要最小限の演算量で、効率的に相関演算処理を実施することができる。
従って、特に横幅の大きな対象物に対して、最初は粗く探索し、探索領域が狭くなるに従い徐々に細かく探索するようにしたことで、正確に短時間で対象物の距離を算出することが可能となるという効果が得られる。
【図面の簡単な説明】
【図1】 本発明の一実施の形態の画像認識装置の構成を示すブロック図である。
【図2】 車両における赤外線カメラやセンサ、ディスプレイ等の取り付け位置を示す図である。
【図3】 同実施の形態の画像認識装置における対象物検出・警報動作を示すフローチャートである。
【図4】 赤外線カメラにより得られるグレースケール画像とその2値化画像を示す図である。
【図5】 同実施の形態の画像認識装置における視差・距離算出演算処理動作を示すフローチャートである。
【図6】 同実施の形態の画像認識装置における探索領域を対象とした相関演算処理を示す図である。
【図7】 同実施の形態の画像認識装置における探索領域を対象とした相関演算処理を示す図である。
【図8】 同実施の形態の画像認識装置における探索領域を対象とした相関演算処理を示す図である。
【図9】 同実施の形態の画像認識装置においてステップ幅の最大値を探索画像の幅とした場合の利点を示す図である。
【図10】 従来の画像認識装置における探索領域を対象とした相関演算処理を示す図である。
【符号の説明】
1 画像処理ユニット
2R、2L 赤外線カメラ
3 ヨーレートセンサ
4 車速センサ
5 ブレーキセンサ
6 スピーカ
7 画像表示装置
10 自車両
S11〜S12、S31〜S38 対象物距離算出手段
Claims (2)
- 一組のステレオカメラを備え、第1のカメラの画像から第1の対象物画像を抽出すると共に、抽出された前記第1の対象物画像に基づいて設定された第2のカメラの画像上の探索領域から、相関演算処理を行うことにより前記第1の対象物画像に対応する第2の対象物画像を抽出し、前記第1と第2の対象物画像間の視差を求めて、該対象物までの距離を計算する対象物距離算出手段を備えた画像認識装置において、
前記対象物距離算出手段が、
前記第1の対象物画像に対して設定された対象枠の幅と同一の移動幅を設定し、前記探索領域内において該移動幅で指定される領域毎に第1の対象物画像を移動させ、前記探索領域内の相関演算処理を行うことにより、前記第1の対象物画像と相関度の高い領域及びその両側の領域を新たな探索領域として抽出することを特徴とする画像認識装置。 - 前記対象物距離算出手段が、前記新たな探索領域を抽出する度に、前記対象枠の幅に基づいて、前記移動幅を順次更に小さな移動幅へ更新し、該移動幅で前記新たな探索領域内の相関演算処理を行うことにより、前記探索領域を更に絞り込むことを特徴とする請求項1に記載の画像認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003181368A JP3936313B2 (ja) | 2002-07-02 | 2003-06-25 | 画像認識装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002193577 | 2002-07-02 | ||
JP2003171155 | 2003-06-16 | ||
JP2003181368A JP3936313B2 (ja) | 2002-07-02 | 2003-06-25 | 画像認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005062910A JP2005062910A (ja) | 2005-03-10 |
JP3936313B2 true JP3936313B2 (ja) | 2007-06-27 |
Family
ID=34381697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003181368A Expired - Fee Related JP3936313B2 (ja) | 2002-07-02 | 2003-06-25 | 画像認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3936313B2 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4687160B2 (ja) * | 2005-03-14 | 2011-05-25 | アイシン精機株式会社 | 周辺監視装置 |
EP1696669B1 (en) | 2005-02-24 | 2013-07-03 | Aisin Seiki Kabushiki Kaisha | Vehicle surrounding monitoring device |
JP4800078B2 (ja) * | 2006-03-23 | 2011-10-26 | 本田技研工業株式会社 | 車両周辺監視システム |
JP2008028857A (ja) * | 2006-07-24 | 2008-02-07 | Sumitomo Electric Ind Ltd | 障害物検出システム、及び障害物検出方法 |
JP4322913B2 (ja) | 2006-12-19 | 2009-09-02 | 富士通テン株式会社 | 画像認識装置、画像認識方法および電子制御装置 |
JP5299692B2 (ja) * | 2009-09-28 | 2013-09-25 | サクサ株式会社 | カメラキャリブレーション方法及び画像処理装置 |
JP6035774B2 (ja) * | 2012-02-24 | 2016-11-30 | 株式会社リコー | 画像処理装置、画像処理方法、及び車両 |
US9646200B2 (en) | 2012-06-08 | 2017-05-09 | Qualcomm Incorporated | Fast pose detector |
JP6723079B2 (ja) * | 2016-06-08 | 2020-07-15 | 日立オートモティブシステムズ株式会社 | 物体距離検出装置 |
JP6899673B2 (ja) * | 2017-03-15 | 2021-07-07 | 日立Astemo株式会社 | 物体距離検出装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3066173B2 (ja) * | 1992-03-18 | 2000-07-17 | 三洋電機株式会社 | パターンマッチング方法 |
JP3515926B2 (ja) * | 1999-06-23 | 2004-04-05 | 本田技研工業株式会社 | 車両の周辺監視装置 |
-
2003
- 2003-06-25 JP JP2003181368A patent/JP3936313B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005062910A (ja) | 2005-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3756452B2 (ja) | 赤外線画像処理装置 | |
JP4410292B1 (ja) | 車両の周辺監視装置 | |
US7221777B2 (en) | Image analysis device | |
JP2000357233A (ja) | 物体認識装置 | |
JP3936313B2 (ja) | 画像認識装置 | |
JP4094604B2 (ja) | 車両周辺監視装置 | |
JP4128562B2 (ja) | 車両周辺監視装置 | |
JP4397573B2 (ja) | 画像処理装置 | |
JP4425852B2 (ja) | 車両周辺監視装置 | |
JP3999088B2 (ja) | 障害物検出装置 | |
JPH07244717A (ja) | 車両用走行環境認識装置 | |
JP2002367077A (ja) | 交通渋滞判定装置及び交通渋滞判定方法 | |
JP3970876B2 (ja) | 車両周辺監視装置 | |
JP4176558B2 (ja) | 車両周辺表示装置 | |
JP3898157B2 (ja) | 赤外線画像認識装置 | |
JP3844750B2 (ja) | 赤外線画像認識装置、及び赤外線画像認識装置を用いた警報装置 | |
JP4298699B2 (ja) | 車両周辺監視装置 | |
JP3226415B2 (ja) | 自動車用移動体認識装置 | |
JP4372746B2 (ja) | 車両周辺監視装置 | |
JP3859429B2 (ja) | 移動対象物検出装置 | |
JP4040657B2 (ja) | 移動対象物検出装置 | |
JP3999025B2 (ja) | 警報表示装置 | |
JP2001033238A (ja) | 物体認識装置 | |
JP3939580B2 (ja) | 障害物警報装置 | |
JP4358183B2 (ja) | 車両周辺監視装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070313 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070322 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100330 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110330 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110330 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120330 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120330 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130330 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130330 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140330 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |