JP3988574B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP3988574B2
JP3988574B2 JP2002230993A JP2002230993A JP3988574B2 JP 3988574 B2 JP3988574 B2 JP 3988574B2 JP 2002230993 A JP2002230993 A JP 2002230993A JP 2002230993 A JP2002230993 A JP 2002230993A JP 3988574 B2 JP3988574 B2 JP 3988574B2
Authority
JP
Japan
Prior art keywords
image
imaging
target
interest
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002230993A
Other languages
Japanese (ja)
Other versions
JP2004069583A (en
Inventor
省吾 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2002230993A priority Critical patent/JP3988574B2/en
Publication of JP2004069583A publication Critical patent/JP2004069583A/en
Application granted granted Critical
Publication of JP3988574B2 publication Critical patent/JP3988574B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、連続して撮像された視差画像に基づいて、追跡する注目対象までの距離を測定する画像処理装置に関する。
【0002】
【従来の技術】
複数の画像を用いて観測対象の奥行き方向の情報を求める画像処理は、コンピュータビジョンやマシンビジョンの分野において、対象の立体構造を復元し、外界認識の一助を担っている人工的な視覚機能を実現するための重要な手法の一つである。異なる視差画像を用いて対象の奥行き情報を抽出、復元する手法の代表的なものとしては、ステレオ画像処理がある。ここで、視差画像とは、異なる場所に設置した2台以上のカメラによって、同一物体あるいは同一シーンを撮影した画像である。ステレオ画像処理とは、複数の視差画像を用いて、観測対象までの距離や奥行き情報を抽出する処理である。
【0003】
複数のカメラを用いる従来のステレオ画像処理では、それぞれのカメラで撮影した画像の中から、同一の対象物の結像位置を特定し、三角測量の原理に基づき対象までの距離を測定する。ここでは、簡単のために2台のカメラにより撮像した2枚の視差画像を用いる二眼のステレオ視について説明する。
【0004】
距離を測定したい注目対象OBJを異なる視点より2台のカメラ1およびカメラ2で撮像する。このとき、カメラ1およびカメラ2の相対位置関係等のカメラ・パラメータは既知である。カメラ1により撮像した画像I1中における注目対象OBJを含む領域W1に対応する領域W2を、カメラ1とは異なる視点から注目対象OBJを撮像するカメラ2の画像I2中より求める。これにより、それぞれの画像I1、I2中における領域W1の位置と領域W2の位置、およびカメラ・パラメータから、注目対象OBJまでの距離を三角測量の原理に基づいて算出する。
【0005】
画像I1中の注目対象OBJを含む領域W1に対応した領域W2を、画像I2上で特定するために、ブロックマッチング等のマッチング処理が用いられる。マッチング処理は、複数の視差画像間の画素、あるいは領域毎の対応関係を決定する処理である。このマッチング処理では、相関値やSAD(Sum ofAbsolute Difference、差の絶対値和)がマッチングの度合いを示す指標として用いられる。
【0006】
一方、視差画像を取得する他の方法としては、単眼カメラを移動させることにより視差画像を獲得する手法がある。この単眼カメラの移動により視差画像を獲得する手法は、モーションステレオと呼ばれている。
【0007】
【発明が解決しようとする課題】
上記複眼式のステレオ画像処理では、複数の視差画像において、比較的視差が小さく、エッジやパターン等の特徴点の出現順序などに変化の少ない場合は、画像I1中の領域W1に対応した領域W2を画像I2中より求めることは比較的容易である。また、画像I2中において領域W2を探索する際の探索範囲を小さくすることができるので、距離を算出する際の演算量を抑えることが可能となる。
【0008】
しかしながら、画像I1と画像I2間の視差が大きい場合は、特徴点が一方の画像にはあるが、他方の画像には無いというオクルージョンに代表される不対応問題が生じていた。さらに、画像間の視差が大きいゆえに、対応領域の探索範囲が大きくなるため、特徴点の対応付けが困難になっていた。特に、注目する領域が繰り返しパターンの一部となる場合には、探索領域内に繰り返しパターンが含まれることがあった。このため、探索領域内で注目対象を一意に決定できない場合や、誤った対応付けをしてしまうといった誤対応が生じるおそれがあった。
【0009】
このような場合には、特開2001−184497号公報、特開2001−153633号公報、特開2000−121319号公報、特開平10−289316号公報等に記載されたような、誤対応を防ぐ、あるいは誤対応を検出する付加処理が必要になっていた。もしくは、柔軟な対応付けを行う複雑なエラスティック・マッチングアルゴリズムの付加処理が必要になっていた。このような付加処理を行うことは、注目対象までの距離を算出する上記一連の画像処理が煩雑化し、負荷が増大するといった不具合を招いていた。
【0010】
一方、単眼式のモーションステレオにおいては、カメラを移動させながら、順次視差画像を取得していくことで、画像間変化の少ない連続的な視差画像を得ることができる。しかしその反面、カメラを移動させる機構が必要になるため、装置が大きくなるという問題があった。
【0011】
さらに、動く注目対象までの距離や奥行き情報を取得する際には、注目対象の移動速度よりも速いオーダで視点を移動させなければならなかった。このため、移動する注目対象までの正確な距離や奥行き情報が得られなかった。
【0012】
また、距離、奥行き情報を例えば車両の運転制御等に用いる場合は、制御周期内で距離情報を獲得しなくてはならないので、高速に連続視差画像を取得するとともに、視差画像の取得周期内におさまるように迅速に距離を演算しなければならないといった不具合を招いていた。
【0013】
そこで、本発明は、上記に鑑みてなされたものであり、その目的とするところは、視差画像の不対応問題を回避し、注目対象までの距離を迅速に求める画像処理装置を提供することにある。
【0014】
【課題を解決するための手段】
上記目的を達成するために、本発明の課題を解決する手段は、車両前方の画像を撮像する撮像手段と、前記撮像手段が撮像する方向を制御する撮像方向制御手段と、前記撮像手段が画像を撮像する撮像速度および前記撮像方向制御手段が撮像方向を変化させる速度を、前記撮像手段に対して追跡する注目対象が静止している状態に近似できる速度に調整する撮像速度調整手段と、前記撮像速度調整手段により調整された速度に基づいて前記撮像手段が撮像した第1の画像の中から追跡する前記注目対象を抽出する第1の抽出手段と、前記撮像速度調整手段により調整された速度に基づいて前記撮像手段が撮像した第2の画像から追跡する前記注目対象を抽出する領域を決定する領域決定手段と、前記撮像手段が撮像した前記第2の画像における、前記領域決定手段により決定された領域の中から、追跡する前記注目対象を抽出する第2の抽出手段と、前記第1の抽出手段により前記第1の画像から抽出された前記注目対象の画像情報と、前記第2の抽出手段により前記第2の画像から抽出された前記注目対象の画像情報とに基づいて、前記撮像方向制御手段が制御する撮像方向の走査位置および走査タイミングに同期して前記撮像手段の画像読み出し位置を変化させ、前記撮像手段と前記注目対象との距離を算出する距離算出手段とを有することを特徴とする。
【0015】
【発明の効果】
以上説明したように、本発明によれば、視差画像の不対応問題を回避し、注目対象までの距離を迅速に求める画像処理装置を提供することができる。
【0016】
【発明の実施の形態】
以下、図面を用いて本発明の実施形態を説明する。
【0017】
図1は本発明の一実施形態に係る画像処理装置の構成を示す図である。図1に示す実施形態の画像処理装置は、レンズ11、液晶シャッターやPLZT光シャッターのように開口部の位置を電気的に任意に制御することができる光シャッター12、CMOS、CCDのように光電変換を行う撮像装置13、撮像装置13により撮像された画像を記憶するフレームメモリ14、演算装置15、光シャッター12の開口部の位置、撮像装置13の画像読み出し位置、ならびに距離演算部152の演算タイミングを制御する駆動装置16を備えて構成されている。
【0018】
演算部15は、距離を算出しようとする注目対象を追跡して十分な視差が得られた連続視差画像を取得するために必要となる処理を行う追跡処理部151と、追跡処理部151で取得された連続視差画像間における像位置の変化量、焦点距離、ならびに眼距離に基づいて注目対象までの3次元位置情報として距離を算出する距離算出部152を備えて構成されている。
【0019】
撮像装置13は、画像を撮像する撮像手段として機能する。光シャッター12は、撮像装置13が撮像する方向を制御する撮像方向制御手段として機能する。駆動装置16は、撮像装置13が撮像するタイミングと、撮像装置13が撮像する方向の変化量を制御するタイミング制御手段として機能する。演算装置15の追跡処理部151は、撮像装置13が撮像した第1の画像の中から追跡する注目対象を抽出する第1の抽出手段、撮像装置13が撮像する方向の変化量に基づいて、撮像装置13が撮像した第2の画像から追跡する注目対象を抽出する領域を決定する領域決定手段、ならびに撮像装置13が撮像した第2の画像における、領域決定手段により決定された領域の中から、追跡する注目対象を抽出する第2の抽出手段として機能する。演算装置16の距離演算部152は、追跡処理部151により第1の画像から抽出された注目対象の画像情報と、追跡処理部151により第2の画像から抽出された注目対象の画像情報とに基づいて、撮像装置13と注目対象との距離を算出する距離算出手段として機能する。
【0020】
次に、モーションステレオの原理を用いて、注目対象までの距離を測定する例を、モーションステレオの原理を説明するための図2、及びステレオ画像処理における対応点探索処理を説明するための図3を参照して説明する。
【0021】
図2に示すように、カメラ位置C1において画像I1を得た後、位置C1からカメラを移動し、位置C2において画像I2を得る。異なる視差画像I1、I2から注目する対象(領域)の対応関係を求め、対象までの距離を算出する過程を、図3における画像I1内の領域W1までの距離を算出する場合を一例として説明する。
【0022】
図3において、画像I1における領域W1に対応する領域W2を画像I2中に求めるためには、例えば領域W1をテンプレートとし、画像I2中の探索領域S内に領域W1に対応する領域Wを仮定する。そして、探索領域S内で領域Wを左から右へと微少量(例えば1画素づつ)走査しながら、領域Wと領域W1の相関値を算出し、相関値の一致度(あるいはマッチングエラー)を定量化して図3(c)に示す相関図を得る。
【0023】
図3(c)において、一致度が最も高い領域Wを、画像I1中の注目領域W1に対応する画像I2中の領域W2であるとする。領域W1の画像I1上での画素位置を(x1、y1)、領域W2の画像I2上での位置を(x2、y2)とすると、カメラを光軸に垂直な方向に距離Hだけ移動させた際に、注目領域W1の3次元空間での座標(x、y、z)は、
【数1】
x=x1・H/(x1−x2)
y=y1・H/(x1−x2)
=y2・H/(x1−x2)
z=f・H/(x1−x2)
として算出される。ここで、fは焦点距離である。
【0024】
視差画像を得る手法としては、上述したようにカメラ位置を移動させて視差画像を得る手法の他に、図4に示すように、異なるシャッター開口位置と画像の読み出し位置により実現する手法がある。図4においては、光シャッター12の開口部B1を開いたときの撮像装置13上での結像領域C1と、開口部B2を開いたときの撮像装置13上での結像領域C2の画像をそれぞれ読み出し、読み出した画像から異なる視差画像を得ている。
【0025】
一方、光シャッター12の複数の開口部を開き、撮像装置13上の異なる位置に結像された画像をそれぞれ読み出す場合には、複眼式のステレオ画像処理と同様な視差画像の取得方法となる。光シャッター12の開口部を走査させて異なる視差画像を得る場合には、モーションステレオによる視差画像の取得方法と同様となる。
【0026】
ステレオ画像処理において、観測点からの注目対象までの距離等の相対的な3次元位置情報を取得するためには、視差画像間における注目対象の対応関係を求める処理が必須である。この異なる視差画像間の対応関係を求める処理は、視差を少しずつ変化させて連続的に得た連続視差画像を用いることで、対応関係の信頼性を向上させることができるとともに、処理負荷を低減させることができる。
【0027】
図3に示すように、参照領域W1に対応する領域W2を画像I2中に求める場合であって、カメラの光軸方向が常に平行である場合には、視差が大きいと注目する対象の特徴(領域)の見え方、および画像上の位置が画像間で大きく異なる。このため、対応領域W2を探索する探索領域Sを大きく設定する必要がある。探索領域Sが大きくなると、注目する対象の特徴と類似の特徴の双方が探索領域S内に含まれる場合が生じる。このため、誤対応の可能性が出てくるとともに、マッチング処理の繰り返し回数が増加し、演算量が増加してしまう。
【0028】
一方、視差が比較的小さく、注目する特徴の出現順序や変形が少ない場合には、対応領域W2を探索する探索領域Sを比較的小さく設定することで、探索領域S内に注目する対象の特徴と類似の特徴が含まれる可能性を排除することが可能となる。また、マッチング処理の回数も少なく抑えられるので、比較的容易に対応付けを行うことができる。このような理由により、連続視差画像を用いることがステレオ画像処理においては、有用であることが分かる。
【0029】
複眼のステレオ方式により連続視差画像を取得するためには、図5に示すように、視差が小さくなるように位置をずらして複数台のカメラB1、B2、B3を配置し、画像を取得する必要がある。一方、モーションステレオ方式により連続視差画像を取得するためには、図6に示すように、ひとつのカメラユニットを用いて、カメラ位置をB1→B2→B3へと連続的に移動させながら画像を取得する。あるいは、図7に示すように、駆動装置16の制御の下に、光シャッター12の開口部を開口部B1から開口部B2へと開口部を少しずつ連続的に移動させ、開口部の位置と同期して、駆動装置16の制御の下に撮像装置13の画像の読出し位置を結像領域C1から結像領域C2へと走査することにより連続視差画像を取得する。
【0030】
このような連続視差画像の取得方法において、注目対象が移動しない場合には、取得した連続視差画像に対して、対応点検出処理を行い、特徴点の対応付けを行った後に、特徴点の3次元座標を算出すればよい。このため、各視差画像を取得する時間的なずれは問題とはならない。
【0031】
一方、対象が移動する場合には、対象の移動速度よりも高速に連続視差画像を取得することが求められる。したがって、連続視差画像を取得する過程で、対象の動きが無視できない状態では、対象までの距離の算出に誤差を生じる。あるいは、距離が求められない場合が発生する。
【0032】
例えば図8(a)に示すように、撮像位置がB1からB2、B3へと移動する間に、注目対象がA1からA2、A3へと移動する場合には、連続視差画像と撮像位置の関係から算出される注目対象Aの位置は、実際の位置よりも遠くの位置に算出される。逆に、連続視差画像を得る速さよりも、画像上における注目対象Aの結像の移動速度が速い場合は、負の距離が算出されことになる。また、撮像位置の変化に伴い図8(b)に示すように、注目対象がA1からA2、A3へと変化する場合、すなわち連続視差画像間における注目対象Aの結像位置が変化しない場合には、注目対象Aの3次元位置を算出できなくなる。
【0033】
このような状態は、注目対象が移動していないと近似できる程度に速く連続視差画像を得ながら、注目対象を追跡することにより回避することができる。図9に示すように、注目対象Aが位置A1からA2、A3へと移動する速度よりも速く、撮像位置がC1からC2、C3へと移動することにより、算出される注目対象の位置は、実際の注目対象Aの位置とほぼ同じとなる。このように、視差の移動が速くなればなるほど、算出位置の誤差は小さくなる。
【0034】
視差の移動を速くするために、カメラ位置を高速で走査することは、その機構からも現実的ではない。しかし、この実施形態に使用する光シャッター12の場合には、電気的に開口位置を任意に制御することができるので、開口位置を高速に走査することが可能となる。
【0035】
光シャッター12の開口部を高速に走査しながら連続視差画像を取得するには、光シャッター12の開口部の走査速度と同期した高いフレームレートでの画像の読出しが必要となる。注目対象の移動が無視できる(静止している状態と近似できる)フレームレートでの撮像は、注目対象の追跡処理にも多大な効果がある。撮像装置13のフレームレートを高くすることで、注目対象の像上における移動量は少なくなる。これは、時間的に連続する視差画像間において、注目対象を探索する探索領域が極めて狭い範囲に限定できることを意味する。
【0036】
図10に光シャッター12の開口部の移動量と、撮像装置13の撮像面における結像位置の関係を示す。光シャッター12の開口部が固定の場合に、フレームレートが注目対象の移動速度と比較して十分に高いときは、撮像面における注目対象の移動に伴う結像位置の変化は微小であり、ほぼ無視できる。
【0037】
次に、図10(a)に示すように、連続する時間で光シャッター12の開口部をC(t)からC(t+Δt)へと移動させた場合に、注目対象の撮像面上における結像位置Pは、P(t)からP(t+Δt)へと移動する。このとき、フレームレートは十分に高いのでΔtは微小であり、結像位置Pの変化は微小である。これにより、結像位置P(t+Δt)を探索する探索範囲S(t+Δt)をP(t)の周囲近傍に限定することができる。この探索範囲S(t+Δt)が小さくできるほど、視差画像間において対応点を探索するマッチング処理の回数が減少する。さらに、余分な情報が探索領域S(t+Δt)に入らないことから誤対応の発生を回避することができる。
【0038】
上述したことは、光シャッター12の開口部と撮像装置13の読出し位置を高速に走査し、連続視差画像を得るモーションステレオについても同様に成り立つ。このため、注目対象の追跡による連続視差画像間の対応関係について、その一意性が保証されることになる。
【0039】
次に、注目対象の距離を算出する過程を、図11に示すフローチャートを参照して説明する。
【0040】
図11において、ステップS1では、注目対象を撮像装置13で撮像する。続いてステップS2では、撮像した画像中から注目する領域を規定する。注目する領域は、画像全体を等サイズで矩形領域に分割した個々の領域(複数)でもよい。次に、ステップS3では、ステップS2で規定した個々の領域を、後述するステップS7のマッチング処理の際に用いる参照画像としてパターン登録する。参照画像は、濃淡画像でもよいし、エッジ抽出処理を行った画像、あるいは2値化画像でもかまわない。次に、ステップS4では、続いて取得される視差画像内における各参照領域に対応する領域を探索するための探索領域を規定する。高速で連続視差画像を取得する場合は、連続する視差画像間での注目領域の移動が少ないことから、例えばステップS2で規定した各注目領域を近傍数画素拡大した領域に拡大して設定してもよいし、あるいは走査方向のみに数画素拡大した領域を探索領域としてもよい。
【0041】
次に、ステップS5では、光シャッター12の開口部を微少量(光シャッター12が例えば液晶シャッターの場合は数ピクセル分)だけ移動させ、続いてステップS6にて撮像する。ステップS6では、撮像範囲を光シャッター12の開口位置に連動させて画像を読み出し、フレームメモリ14に記憶する。次に、ステップS7では、ステップS3で登録した個々の対象パターンについて、ステップS4にて規定した各対象パターンに対応する探索領域中から、一致度が最も高くなる位置を検出し、各注目する領域がステップS6で獲得した画像中のどの位置に対応しているかを求める。全ての対応領域について対応関係が求まると、ステップS8にて、ステップS4と同様に、続いて取得される視差画像内における各参照領域に対応する領域を探索するための探索領域を新たに規定する。
【0042】
次に、ステップS9では、各注目する領域について十分な視差が得られているか否かを判定する。十分な視差が得られていると判定された領域については、連続視差画像間における像位置の変化量および焦点距離、眼距離に基づき対象領域の3次元位置情報として注目対象までの距離を算出する。十分な視差が得られていないと判定された領域については、ステップS5へ戻り、光シャッター12の開口位置をさらに微少量だけ移動する。その後、ステップS9までの処理を繰り返し行う。ステップS9において、光シャッター12の開口部の走査範囲が限界に到達している場合は、それまで得られた情報を用いて各領域の3次元位置情報として注目対象までの距離を算出する。
【0043】
上記第1の実施形態においては、十分な視差が得られた連続視差画像が取得されるので、注目対象までの距離を正確かつ迅速に求めることができる。また、光シャッター12の開口部を高速に移動させ、光シャッター12の開口部の移動と同期して高速に撮像装置13の画像読み出し位置を移動させることで、注目対象の追跡において、連続する視差画像間における対応領域の探索範囲が小さくなり、探索範囲内に含まれる余分な情報が減少する。これにより、連続視差画像間における誤対応を回避することができる。
【0045】
次に、この発明の第2の実施形態について説明する。
【0046】
この第2の実施形態の特徴とするところは、上述したようにして取得された連続視差画像において、画像上の特徴として、エッジ情報を用いる場合に、そのエッジの向き(方向)に対応して光シャッター12の開口部を走査する方向を設定するようにしたことにある。注目するエッジが1次元方向にしか分布を持たない場合には、エッジに平行な移動成分を検出することは困難である。
【0047】
図12に示すように、例えば車両のルーフ部の横エッジを特徴点として着目したときに、横エッジがy方向のみの分布を持つ場合は、横エッジと平行な方向に光シャッター12の開口部を走査すると、図12(a)ならびに同図(b)の視差画像が得られる。得られた視差画像間において、注目領域W1およびW2の対応付けを行うことは、注目しているエッジが単一方向にしか分布を持たないので、エッジと平行な方向に対して位置を限定する特徴がなく、対応関係を一意に求めることは困難である。このように、注目対象の特徴が1次元の分布しか持たず、その特徴の一部しか捉えていない場合には、分布方向の移動成分を抽出できないという「窓問題」が生じる。
【0048】
この窓問題を回避するためには、2次元の分布を持つ特徴のみを用いることが考えられる。しかし、特徴が1次元分布しか持たない箇所においては、追跡できる部位と追跡できない部位が生じる。光シャッター12の開口部の走査方向は、追跡する注目対象の特徴(エッジ)に関して視差画像間での視差を生じさせる方向に対応する。したがって、窓問題を回避するためには、特徴が持つ1次元分布と直交する方向に光シャッター12の開口部を走査し、または撮像装置13を移動する必要がある。そして、走査方向あるいは移動方向に対応した視差画像を得て、視差画像間における注目する特徴(エッジ)に対して直交する方向の移動量を求めればよいことになる。すなわち、視差画像間における特徴の対応付け処理は、その特徴について視差が生じる方向についてのみ行えばよい。
【0049】
これにより、光シャッター12の開口部および画像の読み出し位置の走査方向を、特徴の持つ1次元分布に直交する方向に設定することで、注目する特徴(エッジ)までの距離を得ることができる。したがって、図13に示すように、着目する特徴が縦エッジの場合は横方向に走査し、着目する特徴が横エッジの場合には縦方向に走査する。このようにして視差画像を得ることで、注目する特徴(エッジ)までの距離を算出しやすくすることが可能となる。
【0050】
上記第2の実施形態においては、注目対象の特徴として、縦エッジが強く観測される場合は、光シャッター12の開口部および撮像装置13の画像読み出し位置を横方向に移動し、横エッジが強く観測される場合には、光シャッター12の開口部および撮像装置13の画像読み出し位置を縦方向に移動させる。すなわち、強い特徴の分布(主軸)方向とは直交する方向に光シャッター12の開口部および撮像装置13の画像の読み出し位置を走査する。これにより、注目する特徴の走査方向の変化を追跡する性能が向上し、注目する特徴の位置をより正確に観測することが可能となる。したがって、注目対象までの距離を正確に算出することができる。
【0052】
次に、この発明の第3の実施形態について説明する。
【0053】
追跡する注目対象を一定のステップ幅で走査するモーションステレオにおいて、異なる位置にある複数の注目対象を追跡する際に、注目対象までの距離に応じて注目対象の撮像面上での移動量が異なる。比較的観測点に近いところに存在する注目対象の像上での移動量は大きくなり、遠いところに存在する対象の像上での移動量は小さくなる。図5にその様子を示す。
【0054】
図5において、一定の移動幅HでカメラをB1からB3まで走査する。このとき、注目対象A1、A2の像上での位置はそれぞれ、C11→C12→C13、C21→C22→C23へと移動する。注目対象A1、A2までの距離を測定したい場合に、注目対象A2の移動量が少なくなるように光シャッター12の開口部の走査幅を設定すると、注目対象A1の像上での移動量は微小となる。このため、算出される注目対象A1までの距離を精度良く検出できる視差が得られるまで走査を繰り返さなくてはならない。
【0055】
注目対象A2までの距離を精度良く算出できる視差が得られた後は、走査幅を注目対象A1の像上での移動量が探索領域S中に収まる範囲で最大に設定する。これにより、注目対象A1までの距離を迅速に算出することができる。すなわち、観測する注目対象がひとつの場合は、走査幅を対象の像上での移動量が探索領域S中に収まる範囲で最大になるように設定する。一方、観測する注目対象が複数の場合には、観測点に近い対象ほど像上での移動量が大きくなるので、最初は観測点に近い対象の像上の移動量が探索領域S中に納まるように設定して近い対象までの距離を算出する。続いて、次に近い対象の移動量が探索領域S中に納まるように走査幅を設定して、注目対象までの距離を算出していく。このように、近い位置に存在する注目対象から遠い位置に存在する注目対象へと順次注目対象を変更しながら走査幅を最適化していくことにより、注目対象までの距離を迅速に算出することができる。
【0056】
上記第3の実施形態においては、光シャッター12の開口部および画像読み出し位置の走査ステップ幅に応じて、注目対象の像上での移動量を観測する。走査ステップ幅が小さく注目対象の移動量が極めて小さい場合は、走査ステップ幅を大きくすることで走査速度を向上させるように、像上での対象の移動量に応じて走査ステップ幅を変化させる。これにより、注目対象の追跡処理を高速化することができ、注目対象までの距離を迅速に算出することが可能となる。
【0058】
次に、この発明の第4の実施形態について説明する。
【0059】
この第4の実施形態の特徴とするところは、視差の変化に伴い、注目対象が隠蔽される場合、ならびに新たに注目対象が出現する場合に、注目対象の位置を正確に検出するようにしたことにある。視差の変化に伴い、注目対象が隠蔽される過程、新たに注目対象が出現する過程での注目対象の検出について、図14を参照して説明する。
【0060】
図14において、撮像位置B1にて取得した画像をI1、撮像位置B2にて取得した画像をI2、撮像位置B3にて取得した画像をI3とする。注目領域Wについて、撮像位置をB3→B2→B1と移動させながら撮像する場合に、注目領域Wは撮像位置がB2からB1に変化する際に車両A1に隠蔽される。注目領域Wをマッチング処理で追跡することにより、一致度が閾値よりも低くなった時点で注目領域Wが隠蔽されたことにより消失したと判定できる。
【0061】
逆に、撮像位置がB1からB2に変化することで注目領域Wは新たに出現することになる。特に注目領域を限定せず、全画像上を均等にブロックに区分し、各ブロックについて連続視差画像間で追跡処理を行う場合は、視差画像を得る途中で新たに出現した領域には新たに監視領域を設定する。新たに設定された監視領域についても続く連続視差画像間で追跡処理を行うことにより、視差画像間の対応関係より距離を算出することが可能となる。すなわち、注目対象が隠蔽される場合ならびに新たに出現する場合の双方ともに、対象が見えている視差画像I2、I3を用いることによって注目領域Wまでの距離を得ることができる。
【0062】
上記第4の実施形態においては、注目対象を連続的に追跡し、注目対象が隠蔽される直前までの画像情報を用いて注目対象までの距離を算出している。これにより、複眼スレテオ視で発生する、一方の画像で観測される特徴が他方の画像中には存在しないといった不対応問題を回避することが可能となる。
【0063】
また、走査の過程で新たに出現した注目対象を最大走査範囲内で追跡するようにしているので、複眼スレテオ視で発生する、一方の画像で観測される特徴が他方の画像中には存在しないといった不対応問題を回避することが可能となる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る画像処理装置の構成を示す図である。
【図2】モーションステレオの原理を説明するための図である。
【図3】ステレオ画像処理における対応点探索処理を説明するための図である。
【図4】開口部の走査によりモーションステレオの原理を説明するための図である。
【図5】モーションステレオにより得られる連続視差画像を説明するための図である。
【図6】モーションステレオのステップ幅の変更を説明するための図である。
【図7】連続視差画像の取得原理を説明するための図である。
【図8】注目対象の移動により測定位置に誤りを生じる場合を説明するための図である。
【図9】走査速度を速くすることにより測定位置誤差を小さくなる場合を説明するための図である。
【図10】注目対象の追跡処理を説明するための図である。
【図11】注目対象までの距離を算出する処理を示すフローチャートである。
【図12】窓問題を説明するための図である。
【図13】特徴方向と走査方向の関係を示す図である。
【図14】対象が隠蔽、出現する場合について説明するための図である。
【符号の説明】
11 レンズ
12 光シャッター
13 撮像装置
14 フレームメモリ
15 演算装置
16 駆動装置
151 追跡処理部
152 距離算出部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus that measures a distance to a target object to be tracked based on parallax images that are continuously captured.
[0002]
[Prior art]
Image processing that uses multiple images to obtain information about the depth direction of an observation target is an artificial visual function that helps to recognize the outside world by restoring the three-dimensional structure of the target in the field of computer vision and machine vision. It is one of the important methods to realize. Stereo image processing is a typical technique for extracting and restoring target depth information using different parallax images. Here, the parallax image is an image obtained by photographing the same object or the same scene with two or more cameras installed in different places. Stereo image processing is processing for extracting distance and depth information to an observation target using a plurality of parallax images.
[0003]
In conventional stereo image processing using a plurality of cameras, the imaging position of the same object is specified from the images taken by the respective cameras, and the distance to the object is measured based on the principle of triangulation. Here, for brevity, binocular stereo vision using two parallax images taken by two cameras will be described.
[0004]
The target object OBJ whose distance is to be measured is picked up by two cameras 1 and 2 from different viewpoints. At this time, camera parameters such as the relative positional relationship between the camera 1 and the camera 2 are known. A region W2 corresponding to the region W1 including the target OBJ in the image I1 captured by the camera 1 is obtained from the image I2 of the camera 2 that captures the target OBJ from a different viewpoint from the camera 1. Accordingly, the distance to the target object OBJ is calculated based on the principle of triangulation from the position of the area W1 and the position of the area W2 in each of the images I1 and I2 and the camera parameters.
[0005]
A matching process such as block matching is used to specify a region W2 corresponding to the region W1 including the target OBJ in the image I1 on the image I2. The matching process is a process for determining the correspondence between pixels or regions between a plurality of parallax images. In this matching process, a correlation value or SAD (Sum of Absolute Difference, sum of absolute values of differences) is used as an index indicating the degree of matching.
[0006]
On the other hand, as another method for acquiring a parallax image, there is a method of acquiring a parallax image by moving a monocular camera. This technique of acquiring a parallax image by moving a monocular camera is called motion stereo.
[0007]
[Problems to be solved by the invention]
In the compound-eye stereo image processing, when a plurality of parallax images have relatively small parallax and there is little change in the appearance order of feature points such as edges and patterns, a region W2 corresponding to the region W1 in the image I1 Is relatively easy to obtain from the image I2. In addition, since the search range when searching for the region W2 in the image I2 can be reduced, it is possible to suppress the amount of calculation when calculating the distance.
[0008]
However, when the parallax between the image I1 and the image I2 is large, there is a non-correspondence problem represented by occlusion that a feature point is in one image but not in the other image. Furthermore, since the parallax between the images is large, the search range of the corresponding area becomes large, and it is difficult to associate the feature points. In particular, when the region of interest becomes a part of the repetitive pattern, the repetitive pattern may be included in the search region. For this reason, there is a possibility that an erroneous correspondence such as a case where a target of interest cannot be uniquely determined in the search area or an incorrect association may occur.
[0009]
In such a case, it is possible to prevent erroneous correspondence as described in JP-A-2001-184497, JP-A-2001-153633, JP-A-2000-121319, JP-A-10-289316, etc. Or, an additional process for detecting a false response is required. Alternatively, it is necessary to add a complicated elastic matching algorithm that performs flexible association. Performing such additional processing has caused a problem that the series of image processing for calculating the distance to the target of interest becomes complicated and the load increases.
[0010]
On the other hand, in monocular motion stereo, a continuous parallax image with little change between images can be obtained by sequentially acquiring parallax images while moving the camera. However, on the other hand, a mechanism for moving the camera is required, which causes a problem that the apparatus becomes large.
[0011]
Furthermore, when acquiring the distance and depth information to the moving target object, the viewpoint must be moved in an order faster than the moving speed of the target object. For this reason, accurate distance and depth information to the moving target object cannot be obtained.
[0012]
In addition, when using distance and depth information for vehicle driving control, for example, distance information must be acquired within a control cycle, so a continuous parallax image is acquired at a high speed and within a parallax image acquisition cycle. The problem was that the distance had to be calculated quickly so that it could be settled.
[0013]
Accordingly, the present invention has been made in view of the above, and an object of the present invention is to provide an image processing apparatus that avoids the problem of incompatibility of parallax images and quickly obtains the distance to a target of interest. is there.
[0014]
[Means for Solving the Problems]
In order to achieve the above object, means for solving the problems of the present invention include: In front of the vehicle An imaging unit that captures an image; an imaging direction control unit that controls a direction in which the imaging unit captures an image; An imaging speed for adjusting the imaging speed at which the imaging unit captures an image and the speed at which the imaging direction control unit changes the imaging direction to a speed that can approximate the state in which the target to be tracked with respect to the imaging unit is stationary. Based on the adjusting means and the speed adjusted by the imaging speed adjusting means Tracking from the first image captured by the imaging means Said First extraction means for extracting a target of interest; Speed adjusted by the imaging speed adjusting means The region determination unit for determining the region for extracting the target of interest to be tracked from the second image captured by the imaging unit, and the region determination unit for the second image captured by the imaging unit A second extraction unit that extracts the target object to be tracked from the region that has been tracked, the image information of the target object that is extracted from the first image by the first extraction unit, and the second Based on the image information of the target of interest extracted from the second image by the extraction means, The image reading position of the imaging means is changed in synchronization with the scanning position and scanning timing in the imaging direction controlled by the imaging direction control means, It has a distance calculation means for calculating a distance between the imaging means and the target object.
[0015]
【The invention's effect】
As described above, according to the present invention, it is possible to provide an image processing apparatus that avoids the problem of incompatibility of parallax images and quickly obtains the distance to the target object.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0017]
FIG. 1 is a diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention. The image processing apparatus according to the embodiment shown in FIG. 1 has a lens 11, a liquid crystal shutter, a PLZT optical shutter, an optical shutter 12 that can electrically control the position of the aperture, a CMOS, a CCD, and the like. An imaging device 13 that performs conversion, a frame memory 14 that stores an image captured by the imaging device 13, an arithmetic device 15, an opening position of the optical shutter 12, an image readout position of the imaging device 13, and an arithmetic operation of the distance arithmetic unit 152 A drive device 16 for controlling the timing is provided.
[0018]
The calculation unit 15 is obtained by a tracking processing unit 151 that performs processing necessary for acquiring a continuous parallax image in which sufficient parallax is obtained by tracking a target of interest whose distance is to be calculated, and a tracking processing unit 151. A distance calculation unit 152 that calculates the distance as three-dimensional position information to the target of interest based on the amount of change in image position between the continuous parallax images, the focal length, and the eye distance is configured.
[0019]
The imaging device 13 functions as an imaging unit that captures an image. The optical shutter 12 functions as an imaging direction control unit that controls the direction in which the imaging device 13 captures an image. The driving device 16 functions as a timing control unit that controls the timing at which the imaging device 13 captures images and the amount of change in the direction in which the imaging device 13 captures images. The tracking processing unit 151 of the arithmetic device 15 is based on a first extraction unit that extracts a target of interest to be tracked from the first image captured by the imaging device 13, and the amount of change in the direction captured by the imaging device 13. A region determination unit that determines a region for extracting a target of interest to be tracked from the second image captured by the imaging device 13 and a region determined by the region determination unit in the second image captured by the imaging device 13. , And functions as a second extraction unit for extracting the target object to be tracked. The distance calculation unit 152 of the calculation device 16 converts the target image information extracted from the first image by the tracking processing unit 151 and the target image information extracted from the second image by the tracking processing unit 151. Based on this, it functions as a distance calculating means for calculating the distance between the imaging device 13 and the target of interest.
[0020]
Next, an example of measuring the distance to the target object using the principle of motion stereo, FIG. 2 for explaining the principle of motion stereo, and FIG. 3 for explaining corresponding point search processing in stereo image processing Will be described with reference to FIG.
[0021]
As shown in FIG. 2, after obtaining the image I1 at the camera position C1, the camera is moved from the position C1, and the image I2 is obtained at the position C2. The process of obtaining the correspondence between the target (region) of interest from the different parallax images I1 and I2 and calculating the distance to the target will be described by taking as an example the case of calculating the distance to the region W1 in the image I1 in FIG. .
[0022]
In FIG. 3, in order to obtain the area W2 corresponding to the area W1 in the image I1 in the image I2, for example, the area W1 is used as a template, and the area W corresponding to the area W1 is assumed in the search area S in the image I2. . The correlation value between the region W and the region W1 is calculated while scanning the region W from the left to the right within the search region S from the left to the right (for example, one pixel at a time), and the degree of coincidence (or matching error) between the correlation values is calculated. Quantification is performed to obtain the correlation diagram shown in FIG.
[0023]
In FIG. 3C, it is assumed that the region W having the highest degree of coincidence is the region W2 in the image I2 corresponding to the attention region W1 in the image I1. When the pixel position of the area W1 on the image I1 is (x1, y1) and the position of the area W2 on the image I2 is (x2, y2), the camera is moved by a distance H in a direction perpendicular to the optical axis. In this case, the coordinates (x, y, z) of the attention area W1 in the three-dimensional space are
[Expression 1]
x = x1 · H / (x1-x2)
y = y1 · H / (x1-x2)
= Y2 · H / (x1-x2)
z = f · H / (x1-x2)
Is calculated as Here, f is a focal length.
[0024]
As a method for obtaining a parallax image, there is a method for realizing a parallax image by moving a camera position as described above, as well as a method for realizing a parallax image by using different shutter opening positions and image readout positions as shown in FIG. In FIG. 4, the image of the imaging region C1 on the imaging device 13 when the opening B1 of the optical shutter 12 is opened and the image of the imaging region C2 on the imaging device 13 when the opening B2 is opened are shown. Different parallax images are obtained from the read images.
[0025]
On the other hand, when a plurality of openings of the optical shutter 12 are opened and images formed at different positions on the imaging device 13 are read out, the parallax image acquisition method is the same as in the compound-eye stereo image processing. When scanning the opening of the optical shutter 12 to obtain different parallax images, the method is the same as the method for acquiring parallax images by motion stereo.
[0026]
In stereo image processing, in order to acquire relative three-dimensional position information such as a distance from an observation point to a target object, a process for obtaining a correspondence relationship between target objects between parallax images is essential. The processing for obtaining the correspondence between different parallax images can improve the reliability of the correspondence and reduce the processing load by using continuous parallax images obtained by changing the parallax little by little. Can be made.
[0027]
As shown in FIG. 3, when a region W2 corresponding to the reference region W1 is obtained in an image I2, and the optical axis direction of the camera is always parallel, the feature of the target to be noted that the parallax is large ( The appearance of the (region) and the position on the image are greatly different between images. For this reason, it is necessary to set a large search area S for searching the corresponding area W2. When the search area S becomes large, there may be a case where both the target feature of interest and similar features are included in the search area S. For this reason, there is a possibility of erroneous correspondence, and the number of times the matching process is repeated increases, resulting in an increase in the amount of calculation.
[0028]
On the other hand, when the parallax is relatively small and the appearance order and deformation of the feature of interest are small, the feature of the target of interest in the search region S is set by setting the search region S for searching the corresponding region W2 relatively small. It is possible to exclude the possibility that similar features are included. In addition, since the number of matching processes can be reduced, the association can be performed relatively easily. For these reasons, it can be seen that the use of continuous parallax images is useful in stereo image processing.
[0029]
In order to acquire a continuous parallax image by a compound-eye stereo method, as shown in FIG. 5, it is necessary to shift the position so that the parallax is reduced and to arrange a plurality of cameras B1, B2, and B3 to acquire an image. There is. On the other hand, in order to obtain a continuous parallax image by the motion stereo method, as shown in FIG. 6, an image is obtained while continuously moving the camera position from B1 to B2 to B3 using one camera unit. To do. Alternatively, as shown in FIG. 7, under the control of the driving device 16, the opening of the optical shutter 12 is continuously moved little by little from the opening B1 to the opening B2, and the position of the opening is determined. In synchronization, a continuous parallax image is acquired by scanning the image reading position of the imaging device 13 from the imaging region C1 to the imaging region C2 under the control of the driving device 16.
[0030]
In such a continuous parallax image acquisition method, when the target of interest does not move, the corresponding point detection process is performed on the acquired continuous parallax image, and the feature points are associated. What is necessary is just to calculate a dimensional coordinate. For this reason, the time shift which acquires each parallax image does not become a problem.
[0031]
On the other hand, when the target moves, it is required to obtain a continuous parallax image at a higher speed than the moving speed of the target. Therefore, in the process of acquiring the continuous parallax image, an error occurs in the calculation of the distance to the target when the movement of the target cannot be ignored. Or the case where a distance cannot be calculated | required generate | occur | produces.
[0032]
For example, as shown in FIG. 8A, when the target of attention moves from A1 to A2 and A3 while the imaging position moves from B1 to B2 and B3, the relationship between the continuous parallax image and the imaging position. The position of the target of interest A calculated from the above is calculated at a position farther from the actual position. Conversely, when the moving speed of the imaging of the target of interest A on the image is faster than the speed at which a continuous parallax image is obtained, a negative distance is calculated. Further, as shown in FIG. 8B, when the target of interest changes from A1 to A2 and A3 as the imaging position changes, that is, when the imaging position of the target of interest A between the continuous parallax images does not change. Cannot calculate the three-dimensional position of the target of interest A.
[0033]
Such a state can be avoided by tracking the target object while obtaining a continuous parallax image fast enough to approximate that the target object is not moving. As shown in FIG. 9, the position of the target of interest calculated by moving the imaging position from C1 to C2, C3 is faster than the speed of movement of the target of interest A from position A1 to A2, A3. The actual position of the target of interest A is almost the same. Thus, the faster the movement of parallax, the smaller the error in the calculated position.
[0034]
In order to speed up the movement of parallax, scanning the camera position at high speed is not realistic from the mechanism. However, in the case of the optical shutter 12 used in this embodiment, the opening position can be arbitrarily controlled electrically, so that the opening position can be scanned at high speed.
[0035]
In order to acquire a continuous parallax image while scanning the opening of the optical shutter 12 at high speed, it is necessary to read an image at a high frame rate synchronized with the scanning speed of the opening of the optical shutter 12. Imaging at a frame rate at which the movement of the target of interest can be ignored (can be approximated to a stationary state) has a great effect on the tracking processing of the target of interest. Increasing the frame rate of the imaging device 13 reduces the amount of movement on the target image. This means that the search area for searching for a target of interest can be limited to a very narrow range between temporally continuous parallax images.
[0036]
FIG. 10 shows the relationship between the movement amount of the opening of the optical shutter 12 and the imaging position on the imaging surface of the imaging device 13. When the aperture of the optical shutter 12 is fixed and the frame rate is sufficiently high compared to the moving speed of the target object, the change in the imaging position accompanying the movement of the target object on the imaging surface is very small. Can be ignored.
[0037]
Next, as shown in FIG. 10A, when the opening of the optical shutter 12 is moved from C (t) to C (t + Δt) in a continuous time, the image is formed on the imaging surface of interest. The position P moves from P (t) to P (t + Δt). At this time, since the frame rate is sufficiently high, Δt is very small, and the change in the imaging position P is very small. Thereby, the search range S (t + Δt) for searching for the imaging position P (t + Δt) can be limited to the vicinity of P (t). The smaller the search range S (t + Δt), the smaller the number of matching processes for searching for corresponding points between parallax images. Furthermore, since excess information does not enter the search area S (t + Δt), it is possible to avoid the occurrence of an erroneous response.
[0038]
What has been described above holds true for motion stereo that scans the opening of the optical shutter 12 and the readout position of the imaging device 13 at high speed to obtain a continuous parallax image. For this reason, the uniqueness is guaranteed about the correspondence between the continuous parallax images obtained by tracking the target of interest.
[0039]
Next, the process of calculating the distance of the target object will be described with reference to the flowchart shown in FIG.
[0040]
In FIG. 11, in step S <b> 1, the target object is imaged by the imaging device 13. Subsequently, in step S2, a region of interest is defined from the captured image. The region of interest may be individual regions (plurality) obtained by dividing the entire image into rectangular regions of equal size. Next, in step S3, each region defined in step S2 is registered as a pattern as a reference image used in the matching process in step S7 described later. The reference image may be a grayscale image, an image subjected to edge extraction processing, or a binarized image. Next, in step S4, a search area for searching for an area corresponding to each reference area in the subsequently obtained parallax image is defined. When acquiring continuous parallax images at high speed, there is little movement of the region of interest between consecutive parallax images, so for example, each region of interest defined in step S2 is enlarged and set to a region expanded by several pixels. Alternatively, an area enlarged several pixels only in the scanning direction may be used as the search area.
[0041]
Next, in step S5, the opening of the optical shutter 12 is moved by a very small amount (several pixels when the optical shutter 12 is a liquid crystal shutter, for example), and then imaging is performed in step S6. In step S <b> 6, the image is read out in association with the opening position of the optical shutter 12 and stored in the frame memory 14. Next, in step S7, for each target pattern registered in step S3, a position having the highest degree of matching is detected from the search areas corresponding to each target pattern defined in step S4, and each target area is detected. Corresponds to which position in the image acquired in step S6. When correspondences are obtained for all the corresponding regions, in step S8, similarly to step S4, a search region for searching for a region corresponding to each reference region in the subsequently acquired parallax image is newly defined. .
[0042]
Next, in step S9, it is determined whether sufficient parallax is obtained for each region of interest. For a region determined to have sufficient parallax, the distance to the target of interest is calculated as the three-dimensional position information of the target region based on the amount of change in image position between consecutive parallax images, the focal length, and the eye distance. . For an area determined that sufficient parallax is not obtained, the process returns to step S5, and the opening position of the optical shutter 12 is further moved by a minute amount. Thereafter, the processing up to step S9 is repeated. In step S9, when the scanning range of the opening of the optical shutter 12 has reached the limit, the distance to the target object is calculated as the three-dimensional position information of each region using the information obtained so far.
[0043]
In the first embodiment, since a continuous parallax image with sufficient parallax is acquired, the distance to the target of interest can be obtained accurately and quickly. Further, by moving the opening of the optical shutter 12 at high speed and moving the image reading position of the imaging device 13 at high speed in synchronization with the movement of the opening of the optical shutter 12, continuous parallax can be achieved in tracking the target of interest. The search range of the corresponding area between the images is reduced, and excess information included in the search range is reduced. Thereby, it is possible to avoid erroneous correspondence between continuous parallax images.
[0045]
Next explained is the second embodiment of the invention.
[0046]
The feature of the second embodiment is that in the continuous parallax image acquired as described above, when edge information is used as a feature on the image, it corresponds to the direction (direction) of the edge. That is, the scanning direction of the opening of the optical shutter 12 is set. If the edge of interest has a distribution only in the one-dimensional direction, it is difficult to detect a moving component parallel to the edge.
[0047]
As shown in FIG. 12, for example, when the horizontal edge of the roof portion of the vehicle is focused on as a feature point, if the horizontal edge has a distribution only in the y direction, the opening of the optical shutter 12 is parallel to the horizontal edge. Is scanned, parallax images shown in FIG. 12A and FIG. 12B are obtained. Associating the attention areas W1 and W2 between the obtained parallax images limits the position with respect to a direction parallel to the edge because the attention edge has a distribution only in a single direction. There is no feature and it is difficult to uniquely determine the correspondence. As described above, when the feature of interest has only a one-dimensional distribution and only a part of the feature is captured, a “window problem” occurs in which a moving component in the distribution direction cannot be extracted.
[0048]
In order to avoid this window problem, it is conceivable to use only features having a two-dimensional distribution. However, at locations where the features have only a one-dimensional distribution, there are portions that can be tracked and portions that cannot be tracked. The scanning direction of the opening of the optical shutter 12 corresponds to the direction in which the parallax between the parallax images is generated with respect to the feature (edge) of the target object to be tracked. Therefore, in order to avoid the window problem, it is necessary to scan the opening of the optical shutter 12 in the direction orthogonal to the one-dimensional distribution of the feature or to move the imaging device 13. Then, a parallax image corresponding to the scanning direction or the movement direction is obtained, and the movement amount in the direction orthogonal to the feature (edge) of interest between the parallax images may be obtained. That is, the process of associating features between parallax images may be performed only in the direction in which parallax occurs for the features.
[0049]
Thus, the distance to the feature (edge) of interest can be obtained by setting the scanning direction of the opening of the optical shutter 12 and the image reading position in a direction orthogonal to the one-dimensional distribution of the feature. Therefore, as shown in FIG. 13, when the feature of interest is a vertical edge, scanning is performed in the horizontal direction, and when the feature of interest is a horizontal edge, scanning is performed in the vertical direction. By obtaining the parallax image in this way, it becomes possible to easily calculate the distance to the feature (edge) of interest.
[0050]
In the second embodiment, as a feature of interest, when the vertical edge is observed strongly, the opening of the optical shutter 12 and the image reading position of the imaging device 13 are moved in the horizontal direction, and the horizontal edge is strong. When observed, the opening of the optical shutter 12 and the image reading position of the imaging device 13 are moved in the vertical direction. That is, the aperture of the optical shutter 12 and the image reading position of the imaging device 13 are scanned in a direction perpendicular to the distribution (principal axis) direction of strong features. As a result, the performance of tracking the change in the scanning direction of the feature of interest is improved, and the position of the feature of interest can be observed more accurately. Therefore, the distance to the target of interest can be accurately calculated.
[0052]
Next explained is the third embodiment of the invention.
[0053]
When tracking multiple target objects at different positions in a motion stereo that scans the target object to be tracked with a certain step width, the amount of movement of the target object on the imaging surface varies depending on the distance to the target object. . The amount of movement on the target image existing relatively near the observation point is large, and the amount of movement on the target image existing far away is small. This is shown in FIG.
[0054]
In FIG. 5, the camera is scanned from B1 to B3 with a constant movement width H. At this time, the positions of the attention objects A1 and A2 on the image move from C11 to C12 to C13 and from C21 to C22 to C23, respectively. When it is desired to measure the distance to the target of interest A1 and A2, if the scanning width of the opening of the optical shutter 12 is set so that the amount of movement of the target of interest A2 is small, the amount of movement of the target of interest A1 on the image is very small. It becomes. For this reason, scanning must be repeated until a parallax capable of accurately detecting the calculated distance to the target of interest A1 is obtained.
[0055]
After the parallax that can accurately calculate the distance to the target of interest A2 is obtained, the scanning width is set to the maximum within the range in which the movement amount on the image of the target of interest A1 falls within the search region S. Thereby, the distance to attention object A1 can be calculated rapidly. That is, when there is only one target object to be observed, the scanning width is set so that the amount of movement on the target image is the maximum within the range where the search area S can be accommodated. On the other hand, when there are a plurality of objects of interest to be observed, the amount of movement on the image increases as the object is closer to the observation point, so that the amount of movement on the image of the object closer to the observation point is initially stored in the search region S. The distance to the near target is calculated by setting as described above. Subsequently, the scanning width is set so that the movement amount of the next closest object is within the search region S, and the distance to the target object is calculated. In this way, it is possible to quickly calculate the distance to the target object by optimizing the scan width while sequentially changing the target object to the target object existing at a far position from the target object present at a close position. it can.
[0056]
In the third embodiment, the amount of movement on the target image is observed according to the opening of the optical shutter 12 and the scanning step width of the image readout position. When the scanning step width is small and the moving amount of the target object is extremely small, the scanning step width is changed in accordance with the moving amount of the object on the image so as to improve the scanning speed by increasing the scanning step width. As a result, the tracking process of the target object can be speeded up, and the distance to the target object can be calculated quickly.
[0058]
Next explained is the fourth embodiment of the invention.
[0059]
The feature of this fourth embodiment is that the position of the target of interest is accurately detected when the target of interest is concealed and a new target of interest appears due to a change in parallax. There is. With reference to FIG. 14, a description will be given of detection of a target object in the process of concealing the target object and the process of newly appearing the target object as the parallax changes.
[0060]
In FIG. 14, the image acquired at the imaging position B1 is I1, the image acquired at the imaging position B2 is I2, and the image acquired at the imaging position B3 is I3. When capturing an image of the attention area W while moving the imaging position from B3 → B2 → B1, the attention area W is concealed by the vehicle A1 when the imaging position changes from B2 to B1. By tracking the attention area W by the matching process, it can be determined that the attention area W has disappeared due to the concealment of the attention area W when the degree of coincidence becomes lower than the threshold.
[0061]
Conversely, the attention area W newly appears when the imaging position changes from B1 to B2. In particular, if the region of interest is not limited and the entire image is equally divided into blocks and tracking processing is performed between consecutive parallax images for each block, newly appearing regions are newly monitored during the parallax image acquisition. Set the area. It is possible to calculate the distance from the correspondence between the parallax images by performing the tracking process between the continuous parallax images that continue for the newly set monitoring area. That is, the distance to the attention area W can be obtained by using the parallax images I2 and I3 in which the object is visible both when the attention object is concealed and when it newly appears.
[0062]
In the fourth embodiment, the target object is continuously tracked, and the distance to the target object is calculated using image information until immediately before the target object is concealed. As a result, it is possible to avoid a non-correspondence problem that occurs in compound eye stereo vision and that a feature observed in one image does not exist in the other image.
[0063]
In addition, because the target object that newly appears in the scanning process is tracked within the maximum scanning range, the features observed in one image that occur in compound eye stereo vision do not exist in the other image. It becomes possible to avoid such a non-correspondence problem.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration of an image processing apparatus according to a first embodiment of the present invention.
FIG. 2 is a diagram for explaining the principle of motion stereo.
FIG. 3 is a diagram for explaining corresponding point search processing in stereo image processing;
FIG. 4 is a diagram for explaining the principle of motion stereo by scanning an opening.
FIG. 5 is a diagram for explaining continuous parallax images obtained by motion stereo.
FIG. 6 is a diagram for explaining a change in the step width of motion stereo.
FIG. 7 is a diagram for explaining the principle of obtaining a continuous parallax image.
FIG. 8 is a diagram for explaining a case where an error occurs in a measurement position due to movement of a target of interest.
FIG. 9 is a diagram for explaining a case where the measurement position error is reduced by increasing the scanning speed.
FIG. 10 is a diagram for explaining attention target tracking processing;
FIG. 11 is a flowchart illustrating processing for calculating a distance to a target of interest.
FIG. 12 is a diagram for explaining a window problem.
FIG. 13 is a diagram illustrating a relationship between a feature direction and a scanning direction.
FIG. 14 is a diagram for explaining a case where a target is concealed and appears;
[Explanation of symbols]
11 Lens
12 Light shutter
13 Imaging device
14 frame memory
15 Arithmetic unit
16 Drive device
151 Tracking processor
152 Distance calculator

Claims (6)

車両前方の画像を撮像する撮像手段と、
前記撮像手段が撮像する方向を制御する撮像方向制御手段と、
前記撮像手段が画像を撮像する撮像速度および前記撮像方向制御手段が撮像方向を変化させる速度を、前記撮像手段に対して追跡する注目対象が静止している状態に近似できる速度に調整する撮像速度調整手段と、
前記撮像速度調整手段により調整された速度に基づいて前記撮像手段が撮像した第1の画像の中から追跡する前記注目対象を抽出する第1の抽出手段と、
前記撮像速度調整手段により調整された速度に基づいて前記撮像手段が撮像した第2の画像から追跡する前記注目対象を抽出する領域を決定する領域決定手段と、
前記撮像手段が撮像した前記第2の画像における、前記領域決定手段により決定された領域の中から、追跡する前記注目対象を抽出する第2の抽出手段と、
前記第1の抽出手段により前記第1の画像から抽出された前記注目対象の画像情報と、前記第2の抽出手段により前記第2の画像から抽出された前記注目対象の画像情報とに基づいて、前記撮像方向制御手段が制御する撮像方向の走査位置および走査タイミングに同期して前記撮像手段の画像読み出し位置を変化させ、前記撮像手段と前記注目対象との距離を算出する距離算出手段と
を有することを特徴とする画像処理装置。
Imaging means for capturing an image in front of the vehicle ;
Imaging direction control means for controlling the direction in which the imaging means captures;
An imaging speed for adjusting the imaging speed at which the imaging unit captures an image and the speed at which the imaging direction control unit changes the imaging direction to a speed that can approximate the state in which the target to be tracked with respect to the imaging unit is stationary. Adjusting means;
First extracting means for extracting the object of interest to the imaging means to track from the first image captured based on the speed which has been adjusted by the imaging speed adjusting means,
Area determining means for determining an area for extracting the target of interest to be tracked from the second image captured by the imaging means based on the speed adjusted by the imaging speed adjusting means ;
A second extraction unit that extracts the target of interest to be tracked from the regions determined by the region determination unit in the second image captured by the imaging unit;
Based on the image information of the target of interest extracted from the first image by the first extraction unit and the image information of the target of interest extracted from the second image by the second extraction unit. A distance calculation means for calculating a distance between the imaging means and the target of interest by changing an image reading position of the imaging means in synchronization with a scanning position and a scanning timing in the imaging direction controlled by the imaging direction control means. An image processing apparatus comprising:
前記撮像方向制御手段は、
開口部の位置を電気的に任意に移動させることにより、前記撮像手段が撮像する方向を変える光シャッターである
ことを特徴とする請求項1記載の画像処理装置。
The imaging direction control means is
The image processing apparatus according to claim 1, wherein the image processing apparatus is an optical shutter that changes a direction in which the imaging unit captures an image by electrically moving the position of the opening.
前記注目対象として縦エッジ情報が強い場合は、前記撮像方向制御手段の撮像方向を横方向に走査し、
前記注目対象として横エッジ情報が強い場合は、前記撮像方向制御手段の撮像方向を縦方向に走査する
ことを特徴とする請求項1又は2に記載の画像処理装置。
When the vertical edge information is strong as the target of interest, the imaging direction of the imaging direction control means is scanned in the horizontal direction,
The image processing apparatus according to claim 1, wherein when the horizontal edge information is strong as the target of interest, the imaging direction of the imaging direction control unit is scanned in the vertical direction.
前記撮像装置に最も近い位置の前記注目対象から最も遠い前記注目対象へと順次注目対象を変え、それぞれの前記注目対象との距離に応じて前記撮像方向制御手段における撮像方向の移動量を最適化する
ことを特徴とする請求項1,2および3のいずれか1項に記載の画像処理装置。
The target object is sequentially changed to the target object farthest from the target object closest to the imaging device, and the amount of movement in the imaging direction in the imaging direction control unit is optimized according to the distance to each target object. The image processing apparatus according to any one of claims 1, 2, and 3 .
前記撮像方向制御手段の走査による視線の変化に伴い、前記注目対象が隠蔽される場合は、前記注目対象が隠蔽されるまでに得られた視差画像に基づいて前記注目対象までの距離を算出する
ことを特徴とする請求項1,2,3および4のいずれか1項に記載の画像処理装置。
When the target of interest is concealed as the line of sight changes due to scanning by the imaging direction control means, the distance to the target of interest is calculated based on the parallax image obtained until the target of interest is concealed. The image processing apparatus according to any one of claims 1, 2, 3, and 4 .
前記撮像方向制御手段の走査による視線の変化に伴い、前記注目対象が出現する場合は、前記注目対象が出現した位置における前記撮像方向制御手段の撮像方向から、前記撮像方向制御手段の最大走査位置までに得られた視差画像、もしくは前記注目対象が隠蔽されるまでに得られた視差画像に基づいて前記注目対象までの距離を算出する
ことを特徴とする請求項1,2,3,4および5のいずれか1項に記載の画像処理装置。
When the target of interest appears as the line of sight changes due to the scanning of the imaging direction controller, the maximum scanning position of the imaging direction controller from the imaging direction of the imaging direction controller at the position where the target of interest appears. claims 1,2,3,4 and and calculates a distance to the target object based on the obtained parallax image or the parallax images obtained by the object of interest is concealed until the image processing apparatus according to any one of 5.
JP2002230993A 2002-08-08 2002-08-08 Image processing device Expired - Fee Related JP3988574B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002230993A JP3988574B2 (en) 2002-08-08 2002-08-08 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002230993A JP3988574B2 (en) 2002-08-08 2002-08-08 Image processing device

Publications (2)

Publication Number Publication Date
JP2004069583A JP2004069583A (en) 2004-03-04
JP3988574B2 true JP3988574B2 (en) 2007-10-10

Family

ID=32016887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002230993A Expired - Fee Related JP3988574B2 (en) 2002-08-08 2002-08-08 Image processing device

Country Status (1)

Country Link
JP (1) JP3988574B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2872728B1 (en) * 2004-07-06 2006-09-15 Commissariat Energie Atomique METHOD FOR SEIZING AN OBJECT BY A ROBOT ARM PROVIDED WITH A CAMERA
JP4545503B2 (en) * 2004-07-14 2010-09-15 オリンパス株式会社 Image generating apparatus and method
JP4544028B2 (en) * 2005-05-13 2010-09-15 日産自動車株式会社 In-vehicle image processing apparatus and image processing method
JP4765726B2 (en) * 2006-03-31 2011-09-07 トヨタ自動車株式会社 Image processing apparatus and method
JP4889351B2 (en) * 2006-04-06 2012-03-07 株式会社トプコン Image processing apparatus and processing method thereof
JP5362189B2 (en) * 2006-05-10 2013-12-11 株式会社トプコン Image processing apparatus and processing method thereof
JP4899647B2 (en) * 2006-06-05 2012-03-21 富士通株式会社 Distance measuring program, distance measuring device, distance measuring method
WO2010044127A1 (en) * 2008-10-16 2010-04-22 三菱電機株式会社 Device for detecting height of obstacle outside vehicle
JP5009962B2 (en) * 2009-09-18 2012-08-29 三菱電機株式会社 Environmental measurement device, equipment control system, environmental measurement method, and environmental measurement program
JP5409481B2 (en) * 2010-03-29 2014-02-05 富士フイルム株式会社 Compound eye photographing apparatus and program
US9300954B2 (en) 2012-09-21 2016-03-29 Tadano Ltd. Surrounding information-obtaining device for working vehicle
CN108028892B (en) 2015-09-30 2021-02-09 索尼公司 Information acquisition apparatus and information acquisition method
CN114877974B (en) * 2022-06-08 2022-12-23 广州计量检测技术研究院 Automatic liquid level setting method, device and equipment of measuring glass measuring device

Also Published As

Publication number Publication date
JP2004069583A (en) 2004-03-04

Similar Documents

Publication Publication Date Title
JP6271609B2 (en) Autofocus for stereoscopic cameras
US6118475A (en) Multi-eye image pickup apparatus, and method and apparatus for measuring or recognizing three-dimensional shape
EP2824417B1 (en) Distance calculation device and distance calculation method
JP4963964B2 (en) Object detection device
KR101964861B1 (en) Cameara apparatus and method for tracking object of the camera apparatus
EP2426642A1 (en) Method, device and system for motion detection
EP1966648A1 (en) Method and device for controlling auto focusing of a video camera by tracking a region-of-interest
JP3988574B2 (en) Image processing device
JP2006226965A (en) Image processing system, computer program and image processing method
JP2006331108A (en) Image processing apparatus, image processing method and program
JP2001266128A (en) Method and device for obtaining depth information and recording medium recording depth information obtaining program
JP6602286B2 (en) Image processing apparatus, image processing method, and program
JPH0814861A (en) Method of measuring three-dimensional shape and device therefor
JP4337203B2 (en) Distance image generating apparatus, distance image generating method, and program providing medium
JP2005156199A (en) Vehicle detection method and vehicle detector
JPH07181024A (en) Method and apparatus for measuring three-dimensional profile
JP6734994B2 (en) Stereo measuring device and system
JP4788399B2 (en) Pedestrian detection method, apparatus, and program
JP2012018013A (en) Ranging device and imaging apparatus
US20130076868A1 (en) Stereoscopic imaging apparatus, face detection apparatus and methods of controlling operation of same
JPH08329110A (en) Method for processing picture
Sato et al. Efficient hundreds-baseline stereo by counting interest points for moving omni-directional multi-camera system
JP2010197186A (en) Object detector
JP2001319224A (en) Device and method for detecting three-dimensional object, and recording medium
JPH1194527A (en) Stereo measuring method and device using image processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070709

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100727

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees